Nvidia 正在更新其 Windows 平台上的 G-Assist AI 助手,将其功能从优化游戏和系统设置扩展到更多应用。G-Assist 上个月作为主要致力于提升 PC 游戏体验的聊天机器人首次推出,而如今它加入了插件支持,让你可以让这个 AI 助手控制 Spotify、检查 Twitch 上某个主播是否正在直播,以及查看股票或天气更新。
全新基于 ChatGPT 的 G-Assist 插件构建器允许开发者和爱好者为 Nvidia 的 AI 助手创建自定义功能。G-Assist 将能够连接到外部工具并使用 API 来扩展目前 Nvidia 提供的功能。
Nvidia 已在 GitHub 上发布了示例插件,供编译后由 G-Assist 使用:
Spotify — 免提音乐播放和音量控制
Google Gemini — 允许 G-Assist 调用 Gemini 进行云端复杂对话
Twitch — 你可以使用此插件通过语音命令检查某位主播是否正在直播,例如命令:“嘿, Twitch, [主播] 正在直播吗?”
外围设备控制 — 调整 Logitech G、Corsair、MSI 和 Nanoleaf 设备的 RGB 灯光或风扇速度
股票查询 — 提供实时股票价格
天气更新 — 提供任意城市的当前天气状况
这些插件全部在本地运行,借助 Nvidia RTX GPU 上的小型语言模型,同时开发者还可以通过 GitHub 分享他们自己定制的插件。G-Assist 使用的本地小型语言模型需要近 10GB 空间来支持其助手功能和语音能力。该 AI 助手适用于多种 RTX 30、40 和 50 系列桌面 GPU,但你需要至少一块拥有 12GB VRAM 的显卡。
如果你有兴趣试用 G-Assist 或构建插件,该应用作为 Nvidia Windows 主应用的一个可选组件提供。
好文章,需要你的鼓励
一项调查显示,31%的美国技术领导者表示,由于AI转型的紧迫性,CEO与CIO的合作比一年前更加密切。79%的技术领导者认为企业对AI的关注提升了他们在董事会层面的地位。数据分析和AI成为企业未来12个月的重点投资领域,37%的受访者将其列为优先事项。虽然28%的技术领导者预测首席AI官将承担CIO职责,但86%的企业尚未设立该职位。
ETH苏黎世大学研究团队提出OBR(最优脑重建)框架,创新性解决了大语言模型压缩中量化与剪枝方法的根本冲突。通过"分组错误补偿"机制,OBR实现了W4A4KV4+50%稀疏性的极端压缩,在保持优秀性能的同时获得4.72倍速度提升和6.4倍内存节省,为边缘设备部署大模型开辟新道路。
答案引擎优化(AEO)正在重新定义真相的标准。与传统搜索引擎优化不同,AEO让AI系统直接生成答案,而非提供链接。研究显示70%的人会直接接受机器提供的信息,不加质疑。当资本主义与此结合,真相本身变得可以被购买和优化。AEO实质上是一种设计性审查,通过专有数据和封闭算法隐藏推理过程。我们需要重新引入摩擦和质疑机制,要求算法透明度和可追溯性,否则现实本身将成为可以随意调节的设置。
斯坦福大学研究团队开发出概念组合学习框架,让AI系统像人类一样学会"举一反三"。该技术将复杂学习任务分解为基础概念模块,通过灵活组合处理新任务,学习效率比传统方法提高10倍。实验显示在多概念组合任务中准确率达78%,并具备跨领域迁移能力。这项突破为通用人工智能发展奠定重要基础,预计将在医疗、教育、自动驾驶等领域率先应用。