一群著名科技公司的高管将加入人工智能安全保障委员会(Artificial Intelligence Safety and Security Board),该委员会的任务是就人工智能在关键基础设施中的应用向联邦政府提供建议。
《华尔街日报》今天报道了这一举措。据该报报道,该委员会不仅包括科技行业的代表,还包括学者、民权领袖和几家关键基础设施公司的首席执行官。人工智能安全保障委员会总共将有近二十多名成员。
微软首席执行官Satya Nadella、英伟达首席执行官黄仁勋和OpenAI的San Altman均将参与其中。来自AMD、亚马逊网络服务公司、Anthropic PBC、思科、谷歌和IBM的同行也参与其中
美国国土安全部部长Alejandro Mayorkas将领导该小组。据《华尔街日报》报道,人工智能安全保障委员会将就如何在关键基础设施中安全应用人工智能向国土安全部提供建议。小组成员将从5月开始每三个月召开一次会议。
除了向联邦政府提供建议外,该委员会还将为关键基础设施组织提出人工智能建议。这项工作将重点关注电网运营商、制造商和运输服务提供商等公司。据报道,该委员会的建议将集中在两个主要议题上:在关键基础设施中应用人工智能的方法和该技术带来的潜在风险。
多家网络安全公司已经观察到利用生成式人工智能的黑客攻击活动。在一些活动中,黑客利用大型语言模型生成网络钓鱼电子邮件。在另一些案例中,人工智能被用来支持恶意软件的开发。
人工智能安全保障委员会是依据拜登总统去年签署的人工智能行政命令成立的。该行政令还呼吁联邦政府采取其他一些措施来应对该技术的风险。商务部将制定人工智能生成内容识别指南,而国家标准与技术研究院正在制定人工智能安全标准。
该行政令还对私营公司提出了新要求。特别是要求开发先进人工智能的科技公司现在必须与政府共享有关新模型安全性的数据。这些数据包括所谓的红队测试结果,即通过模拟恶意提示对神经网络安全性的评估。
人工智能生态系统中最大的几家公司已将算法安全作为其研究工作的重点。例如,OpenAI在12 月透露,它正在开发一种自动化方法,以应对高级神经网络带来的风险。该方法使用第二个能力较弱的神经网络来监督高级人工智能模型的输出。
好文章,需要你的鼓励
许多CIO在实施AI战略时因良好初衷反而导致失败。专家指出,仅为AI而做AI会浪费资金且无实际成果,应先评估业务价值。CIO常见错误包括:让风险规避型利益相关者施加过度限制、仅依赖现成AI工具而不深度整合、在人员和流程问题未解决时强推技术转型。成功的关键是确保AI解决方案真正节省时间并带来业务价值,需要有权威的负责人推动决策,同时不惧怕小规模试错,快速迭代改进。
谷歌研究院开发出一种革命性的人工智能技术,通过学习人类眼动轨迹来提升视觉问答能力。该技术像训练侦探一样教会AI关注图像中的关键区域,准确率提升3-10%。研究发表于CVPR 2024,在教育、医疗、无人驾驶等领域具有广阔应用前景,为AI向人类智慧靠近开辟了新路径。
Kahoot是一个基于游戏的学习平台,涵盖科学、历史、地理、英语和数学等领域。该平台于2023年推出AI功能,AI生成器可从主题、文档、网站或视频链接即时创建互动学习体验,帮助教师减少备课时间,让学习更具吸引力和个性化。平台支持50种语言,拥有120亿用户,还提供翻译工具和AI驱动的学习推荐功能。
英国卡迪夫大学研究团队通过脑电图技术发现,当人们体验虚假听觉(即"听到"实际不存在的语音)时,大脑的神经活动模式与听到真实声音时几乎相同。研究揭示了大脑会根据语言经验和上下文自动"填补"缺失的语音片段,这一发现对理解听觉障碍、改进助听设备以及开发更智能的语音识别系统具有重要意义。