数以百计的人工智能研究人员都在盯着他们的水晶球,试图确定什么时候机器最终会超出人的能力。
最近,Future of Humanity Institute(人类的未来研究所)英国牛津大学和美国耶鲁大学风险研究中心进行了一项调查,要求352名机器学习研究人员预测人工智能将如何进步。
根据arXiv公布的结果,“研究人员认为,人工智能在45年内,将在所有任务上超越人类的概率是50%,并且在120年内将所有人类的工作自动化。”
Elon Musk和Stephen Hawking认为被人工智能接替是人类的宿命,而百度前首席科学家Andrew Ng和Allen Institute for Artificial Intelligence(艾伦人造智能研究所)的首席执行官Oren Etzioni等研究人员则持保守态度。
此外,调查提出了一个问题:“人工智能何时会超出人类的表现?”受访者在计算自己的估计值时,要考虑的是“高级机器智能”(HLMI),这个问题被定义为“无辅助机器何时能够比人类工作者更好并且更便宜地完成每一项任务?”
有意思的是,与北美人相比,亚洲受访者的态度更为乐观,他们认为HLMI在30年内就会出现,而北美的受访者则估计HLMI的实现需要74年。
研究人员在考虑到DeepMind的AlphaGo和扑克漫游器DeepStack和Libratus取得的进展之后,认为人工智能将在十年内能够在玩扑克、愤怒的小鸟或星际争霸方面达到HLMI的程度。
但是,要想完成更有创造性的任务则需要更长时间。据预测,到2026年,机器将能够写高中程度的文章,到2028年创作排名进入前40名的流行歌曲,并在2049年之前写出纽约时报畅销书。
从亚洲和北美受访者的平均预测数字看,电话银行坐席、卡车司机和零售销售人员等工作预计将在10到15年内达到HLMI的水平,但外科医生领域要实现这一点则将需要36年。
同样,人工智能研究员的工作也可能不安全,因为学术界预测机器在大约88年的时间内能够超越他们。尽管如此,人工智能达到了HLMI的水平,但要实现完全自动化的任务需要一段时间,因为这将需要这种劳动力比它们的人类同行更加便宜。
根据报告表示:“预测完全自动化劳动力的出现会大大落后于HLMI:对于122年之后,对此相信的个人平均比例为50%,而在20年内,可能性为10%。”
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。