至顶网软件频道消息: 根据一份最新报告所言,目前我们正处于人工智能革命的悬崖边缘。在这场革命当中,我们创造的技术可能同时呈现出善意、恶意与丑陋的面貌。
这份题为《人工智能的恶意应用:预测、预防与缓解》的报告长达100页,于本周二正式发布,其中包含来自牛津大学、剑桥大学、OpenAI以及新美国安全中心等不同机构的26位顶尖人工智能专家的真知灼见。
此份报告首先承认了人工智能技术在某些领域取得的进展,但其同时表示“从历史角度看,人们对于人工智能恶意使用方式的关注程度仍然较低。”更具体地讲,大家可以参考目前大热的反乌托邦惊悚剧集《黑镜》。
剑桥大学生存风险研究中心执行董事Seán Ó hÉigeartaigh博士正是该份报告的作者之一,其在另一份声明中表示,现在确实应该开始关注人工智能技术的恶意使用议题。
我们到底需要担心什么?具体来说,目前与人工智能相关的部分问题确实呈现出恶化趋势,例如机器人能够理解我们的阅读内容、个人感受以及我们的投票对象。Ó hÉigeartaigh博士提到,无人机的滥用状况要远比我们想象中的更为普遍,而人工智能支持下的聊天机器人也正通过在线方式大肆获取用户信息。他进一步补充称,人工智能还将提升黑客攻击活动当中对于人类声音及视频内容的伪造能力,从而生成更多更难以识别的虚假新闻。
牛津大学未来人类研究所研究员兼报告作者Miles Brundage解释称,“一般来讲,人工智能系统不仅能够达到人类的能力水平,甚至还将有所超越。虽然令人不安,但我们完全有必要充分考虑到人工智能在黑客攻击、监视、说服以及物理目标识别领域的实际表现,同时意识到人工智能与人类相比存在非人性且更具扩展能力的特性。”
正如《黑镜》剧集所描述,此份报告当中还提到了人脸识别技术,探讨恶意人士如何利用这种技术来搜索并打击目标人物——包括使用装备有爆炸物的无人机或机器人进行暗杀。这听起来似乎并不现实,但报告作者们认为其确实具备可行性。
援引最近刚刚离开OpenAI董事会的Elon Musk的观点,研究人员们认为技术的创造者必须同时考虑到其可能带来的所有恶意用途。因此,决策者需要充分了解正在开发的技术成果,并为其制定伦理框架。最重要的是,人工智能的发展必须始终保持充分的透明度,确保公众能够了解当前的实际技术动态。
好文章,需要你的鼓励
许多CIO在实施AI战略时因良好初衷反而导致失败。专家指出,仅为AI而做AI会浪费资金且无实际成果,应先评估业务价值。CIO常见错误包括:让风险规避型利益相关者施加过度限制、仅依赖现成AI工具而不深度整合、在人员和流程问题未解决时强推技术转型。成功的关键是确保AI解决方案真正节省时间并带来业务价值,需要有权威的负责人推动决策,同时不惧怕小规模试错,快速迭代改进。
谷歌研究院开发出一种革命性的人工智能技术,通过学习人类眼动轨迹来提升视觉问答能力。该技术像训练侦探一样教会AI关注图像中的关键区域,准确率提升3-10%。研究发表于CVPR 2024,在教育、医疗、无人驾驶等领域具有广阔应用前景,为AI向人类智慧靠近开辟了新路径。
Kahoot是一个基于游戏的学习平台,涵盖科学、历史、地理、英语和数学等领域。该平台于2023年推出AI功能,AI生成器可从主题、文档、网站或视频链接即时创建互动学习体验,帮助教师减少备课时间,让学习更具吸引力和个性化。平台支持50种语言,拥有120亿用户,还提供翻译工具和AI驱动的学习推荐功能。
英国卡迪夫大学研究团队通过脑电图技术发现,当人们体验虚假听觉(即"听到"实际不存在的语音)时,大脑的神经活动模式与听到真实声音时几乎相同。研究揭示了大脑会根据语言经验和上下文自动"填补"缺失的语音片段,这一发现对理解听觉障碍、改进助听设备以及开发更智能的语音识别系统具有重要意义。