ZD至顶网软件频道消息:微软的首席执行官萨提亚.纳德拉表示,科技板块目前正在“崇拜”少数人工智能公司,但尚未显示如何让人类最终用户用上这项技术。
微软首席执行官萨提亚.纳德拉
纳德拉在慕尼黑的DLD技术大会上表示,“至少是我对于人工智能的定义用简单的语言描述就是我们试图教机器学习,所以他们可以做人类做的事情,反过来帮助人类。增强我们所有的东西。”
纳德拉补充表示:“在下一个阶段,对我来说,我们如何将这种使用机会民主化,而不是崇拜四、五、六家拥有大量人工智能的公司。实际上说:人工智能存在于所有和我们合作的公司之中,在每一个接口之中,(以及)每一次人类计算机的交互都是人工智能支撑的。
纳德拉认为人工智能建立在人的能力基础上,从安全和隐私的角度创建更多对技术的信任,并拥有“算法责任制”。
微软目前为很多工具提供人工智能支持,开发人员可以使用这些工具。在2016年,该公司针对对于在GitHub上进行自然语言处理有兴趣的开发人员发布了Cognitive Toolkit,并且展示了其最新的聊天机器人Zo。
上周,它还试图通过收购机器学习创业企业Maluuba来“解决人工一般智能”在语言方面的问题,以此推动在会话人工智能方面的工作。
但是,当涉及到人工智能协作的时候,一些公司会比其他的公司更为开放。例如,谷歌和Facebook的研究往往是公开的,而苹果公司也刚刚放弃了保密的文化,并在上个月公布了第一批官方研究论文。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。