至顶网软件频道消息:根据CNBC报道称,Facebook拥有一支专注于人工智能开发伦理的“特殊”团队。
人工智能将在未来几十年对世界产生深远影响,Facebook希望监管机构和公众知道他们现在正在采取措施确保人工智能的安全性和道德发展。Facebook目前在其平台上使用人工智能,例如利用人工智能识别照片中的人脸,检测可能有自杀倾向的人,并删除低俗的内容。
过去几周,这家社交巨头受到Cambridge Analytica数据丑闻的审查。据报道,Facebook成立了专门的人工智能道德团队,以确保其人工智能算法是公平的,并且让所有人都受益。
目前还不清楚这个团队中有多少人,但据报道称,团队成员是与Facebook其他团队协作的。
Facebook研究科学家Isabel Kloumann表示:“我们会回头看看,说,‘我们能够积极主动地解决这些问题,在我们发布对任何人口群体是公平的任何给定产品之前了解这些问题,这一点很重要。’”
Kloumann的团队还开发了一个名为“公平流”(Fairness Flow)的软件,分析用于训练人工智能系统的数据。
DeepMind(谷歌在2014年收购)和微软等公司也都有人专门负责人工智能道德,而执法武器制造商Taser上周也宣布成立了自己的人工智能道德委员会。
Google也有一个专门的人工智能道德委员会,但尚不清楚这个委员会有哪些成员、多久会面一次、以及他们主要做什么。
好文章,需要你的鼓励
Adobe 周二宣布推出适用于 Android 系统的 Photoshop 应用测试版,提供与桌面版相似的图像编辑工具和 AI 功能,初期免费使用,旨在吸引更多偏好手机创作的年轻用户。
弗吉尼亚大学研究团队开发了TruthHypo基准和KnowHD框架,用于评估大语言模型生成生物医学假设的真实性及检测幻觉。研究发现大多数模型在生成真实假设方面存在困难,只有GPT-4o达到60%以上的准确率。通过分析推理步骤中的幻觉,研究证明KnowHD提供的基础依据分数可有效筛选真实假设。人类评估进一步验证了KnowHD在识别真实假设和加速科学发现方面的价值,为AI辅助科学研究提供了重要工具。
文章详细介绍了Character.AI这款主要面向娱乐、角色扮演和互动叙事的AI聊天工具的原理、用户群体、特色功能以及面临的法律与伦理争议,同时揭示了其新推出的视频和游戏互动体验。
亚马逊Nova责任AI团队与亚利桑那州立大学共同开发了AIDSAFE,这是一种创新的多代理协作框架,用于生成高质量的安全策略推理数据。不同于传统方法,AIDSAFE通过让多个AI代理进行迭代讨论和精炼,产生全面且准确的安全推理链,无需依赖昂贵的高级推理模型。实验证明,使用此方法生成的数据训练的语言模型在安全泛化和抵抗"越狱"攻击方面表现卓越,同时保持了实用性。研究还提出了"耳语者"代理技术,解决了偏好数据创建中的困难,为直接策略优化提供了更有效的训练材料。