至顶网软件频道消息:根据CNBC报道称,Facebook拥有一支专注于人工智能开发伦理的“特殊”团队。
人工智能将在未来几十年对世界产生深远影响,Facebook希望监管机构和公众知道他们现在正在采取措施确保人工智能的安全性和道德发展。Facebook目前在其平台上使用人工智能,例如利用人工智能识别照片中的人脸,检测可能有自杀倾向的人,并删除低俗的内容。
过去几周,这家社交巨头受到Cambridge Analytica数据丑闻的审查。据报道,Facebook成立了专门的人工智能道德团队,以确保其人工智能算法是公平的,并且让所有人都受益。
目前还不清楚这个团队中有多少人,但据报道称,团队成员是与Facebook其他团队协作的。
Facebook研究科学家Isabel Kloumann表示:“我们会回头看看,说,‘我们能够积极主动地解决这些问题,在我们发布对任何人口群体是公平的任何给定产品之前了解这些问题,这一点很重要。’”
Kloumann的团队还开发了一个名为“公平流”(Fairness Flow)的软件,分析用于训练人工智能系统的数据。
DeepMind(谷歌在2014年收购)和微软等公司也都有人专门负责人工智能道德,而执法武器制造商Taser上周也宣布成立了自己的人工智能道德委员会。
Google也有一个专门的人工智能道德委员会,但尚不清楚这个委员会有哪些成员、多久会面一次、以及他们主要做什么。
好文章,需要你的鼓励
Anchor Browser获得600万美元种子轮融资,专注解决AI代理安全可靠地使用网络的挑战。该公司重新设计浏览器作为云端执行层,为每个AI代理提供独立安全的浏览器环境。与传统浏览器不同,Anchor的b0.dev系统让代理能够规划工作流程并可靠重复执行,将混乱的自动化转变为企业级软件工程。
清华大学研究团队开发的SLA技术通过将AI视频生成中的注意力权重智能分类,对不同重要程度的权重采用差异化计算策略,成功实现了95%的计算量减少和20倍的速度提升,同时保持视频质量不变,为AI视频生成效率优化开辟了新思路。
英国竞争与市场管理局经过九个月调查,将谷歌和苹果的移动平台指定为具有战略市场地位。监管机构表示,两家公司在移动平台领域拥有根深蒂固的市场主导地位,其平台规则可能限制创新和竞争。这一指定使监管机构能够考虑采取针对性干预措施,确保英国应用开发者能够创新和发展业务,但目前尚未引入任何直接要求。
斯坦福大学等机构联合提出多人Nash偏好优化(MNPO),突破传统双人训练局限,让AI在多人游戏环境中学习处理复杂非传递性偏好。该方法通过时间依赖设计,让AI与历史版本对话练习,在所有主要测试中显著超越现有方法,在Arena-Hard中甚至超过GPT-5,为AI对话系统训练提供了更贴近真实世界复杂性的新范式。