至顶网软件频道消息:谷歌已经将整个谷歌研究院(Google Research)部门重新命名为谷歌人工智能(Google AI),该公司正在积极发展新兴的人工智能领域。
谷歌是在本周的Google I/O开发者大会之前宣布这一调整的,此举表明谷歌对于人工智能有多么重视,它包含了诸如计算机视觉、深度学习和语音识别等技术。
谷歌是通过一篇博客文章宣布这一消息的,谷歌表示该公司在过去几年中,几乎已经在所有的事情上使用过机器学习。
Google AI Communications 的主编Christian Howard 写道:“为了更好地反映这一使命,我们正在‘谷歌人工智能(Google AI)’的旗下统一我们的各项工作,包含了谷歌公司内部各种最先进的研究。”
谷歌调整了谷歌人工智能(Google AI)的主页,以便发布关于各种主题的研究报告、正在进行的人工智能的故事以及其他人可以使用的开源资料和工具。旧的谷歌研究院(Google Research)网站重定向到新的谷歌人工智能(Google AI)网站。
作为此次调整的一部分,谷歌还将Google Research Twitter和Google+频道也更名为谷歌人工智能(Google AI)。
这次更名让一些计算机科学家感到困惑,斯坦福大学的机器学习、人工智能和基因组学研究人员Volodymyr Kuleshov表示,这样称呼谷歌的计算机科学研究人工智能似乎是错误的。
他写道:“据我所知(当然我可能搞错了),谷歌研究院(Google Research)刚刚改名成了谷歌人工智能(Google AI)。”他写道:“那所有那些关于系统、加密、经济等等的工作怎么办?把谷歌的计算机科学研究称为‘人工智能’似乎是错误的。”
这次的调整出现在上个月的重新洗牌之后,Jeff Dean在那时被任命为谷歌人工智能的负责人。谷歌的联合创始人Sergey Brin在此之前也呼吁小心关注人工智能的发展。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。