TensorFlow是由谷歌人工智能团队“谷歌大脑”开发和维护的一个基于数据流编程的符号数学系统,拥有多层级结构,是一个人工智能框架。TensorFlow 可部署于各类服务器、PC终端和网页并支持GPU和TPU高性能数值计算,被广泛应用于各类机器学习算法的编程实现,其前身是谷歌的神经网络算法库DistBelief。自2015年11月9日起,TensorFlow依据阿帕奇授权协议(Apache 2.0 open source license)开放源代码。
3年多后,谷歌发布了TensorFlow 的第二代版本,不仅提升了可用性,增加了Eager Execution的支持,让TensorFlow 2.0可以更快地启动AI模型,同时还新增了两大互补模块保护用户数据隐私。
3月初,谷歌推出了其人工智能框架TensorFlow的2.0版本,以及两个能够让算法更负责任地处理用户数据的互补模块。
首先,TensorFlow 2.0重点提高了可使用性。为此,其中还接入了基于Keras的简化应用编程接口。Keras是一种开源工具,能够使人工智能开发框架更易于使用,它允许工程师在一个位置访问以前分布在多个API中的功能,并提供更多自定义开发工作流程的选项。
此外,TensorFlow 2.0的另一个关键升级是增加了Eager Execution的支持。这让TensorFlow 2.0可以更快地启动AI模型,通过更短的测试运行延迟,让工程师们可以尝试不同的模型变量。考虑到机器学习开发的高度迭代性,这将节省大量的时间成本。
值得一提的是,尽管TensorFlow 2.0在功能上有了显着的提升,但这次发布最引人关注的却是另外两个互补模块,这两个模块旨在帮助开发人员直接在AI软件中构建隐私控制,从而更好地保护用户信息。
其中,第一个模块是TensorFlow Privacy。通过自动过滤与算法通常接收的信息不同的输入,机器学习模型就能够自动筛除潜在敏感数据。例如,基于AI的拼写检查工具往往将字母作为输入,这意味着它可以轻松识别和过滤诸如信用卡号之类的长数字序列。
“TensorFlow Privacy并不要求使用者必须具备隐私或基础数学方面的专业知识,那些使用标准TensorFlow的开发者也不需要改变他们的模型架构、培训程序或流程就可以正常使用。”谷歌工程师Carey Radebaugh和Ulfar Erlingsson在博客中这样说。
另一个新的隐私模块名为TensorFlow Federated,它主要针对越来越多依赖于AI支持核心功能的移动服务。
由于移动设备的处理能力有限,应用通常会将用户数据发送到云的后端进行分析,然后通过机器学习对数据进行处理。而TensorFlow Federated让应用可以直接在用户手机上执行分析。然后,开发人员可以收集所得到的分析结果,并利用这些结果改进AI算法,而无需再访问基础数据。这将大大保护消费者的隐私。
“通过TFF [TensorFlow Federated],我们可以展示我们所选择的机器学习模型架构,然后对所有数据进行训练,并保持每个编写器的数据的独立和本地化。”谷歌参与这个项目开发的两位工程师Alex Ingerman和Krzys Ostrowski在博客文章中这样写道。
据了解,与TensorFlow本身相似,这两个新模块将以开源许可的形式提供给用户。
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。