数以百计的人工智能研究人员都在盯着他们的水晶球,试图确定什么时候机器最终会超出人的能力。
最近,Future of Humanity Institute(人类的未来研究所)英国牛津大学和美国耶鲁大学风险研究中心进行了一项调查,要求352名机器学习研究人员预测人工智能将如何进步。
根据arXiv公布的结果,“研究人员认为,人工智能在45年内,将在所有任务上超越人类的概率是50%,并且在120年内将所有人类的工作自动化。”
Elon Musk和Stephen Hawking认为被人工智能接替是人类的宿命,而百度前首席科学家Andrew Ng和Allen Institute for Artificial Intelligence(艾伦人造智能研究所)的首席执行官Oren Etzioni等研究人员则持保守态度。
此外,调查提出了一个问题:“人工智能何时会超出人类的表现?”受访者在计算自己的估计值时,要考虑的是“高级机器智能”(HLMI),这个问题被定义为“无辅助机器何时能够比人类工作者更好并且更便宜地完成每一项任务?”
有意思的是,与北美人相比,亚洲受访者的态度更为乐观,他们认为HLMI在30年内就会出现,而北美的受访者则估计HLMI的实现需要74年。
研究人员在考虑到DeepMind的AlphaGo和扑克漫游器DeepStack和Libratus取得的进展之后,认为人工智能将在十年内能够在玩扑克、愤怒的小鸟或星际争霸方面达到HLMI的程度。
但是,要想完成更有创造性的任务则需要更长时间。据预测,到2026年,机器将能够写高中程度的文章,到2028年创作排名进入前40名的流行歌曲,并在2049年之前写出纽约时报畅销书。
从亚洲和北美受访者的平均预测数字看,电话银行坐席、卡车司机和零售销售人员等工作预计将在10到15年内达到HLMI的水平,但外科医生领域要实现这一点则将需要36年。
同样,人工智能研究员的工作也可能不安全,因为学术界预测机器在大约88年的时间内能够超越他们。尽管如此,人工智能达到了HLMI的水平,但要实现完全自动化的任务需要一段时间,因为这将需要这种劳动力比它们的人类同行更加便宜。
根据报告表示:“预测完全自动化劳动力的出现会大大落后于HLMI:对于122年之后,对此相信的个人平均比例为50%,而在20年内,可能性为10%。”
 0赞
0赞好文章,需要你的鼓励
 推荐文章
                    推荐文章
                  虽然ChatGPT等AI工具正在快速改变世界,但它们并非无所不知的神谕。ChatGPT擅长"令人信服的错误",经常提供有偏见、过时或完全错误的答案。在健康诊断、心理健康、紧急安全决策、个人财务规划、机密数据处理、违法行为、学术作弊、实时信息监控、赌博预测、法律文件起草和艺术创作等11个关键领域,用户应避免完全依赖ChatGPT,而应寻求专业人士帮助。
Meta超级智能实验室联合佐治亚理工学院开发出RECAP训练方法,通过故意给AI模型误导性开头来训练其纠错能力。该方法显著提升了大语言模型的安全性(12.3%)、抗攻击能力(21.0%)和推理质量,同时减少过度拒绝问题。RECAP无需额外计算资源,能让AI模型学会自我反思和批判性思维,为构建更可信的AI系统提供了新思路。
微软重启三里岛核反应堆的协议确认了AI革命与能源现实主义的融合。亚马逊和谷歌也达成类似协议,共同押注核能为AI未来提供最可行的动力路径。到2030年代,数据中心用电量可能媲美大国水平。国际能源署预测全球电力需求到2050年将增长六倍。核电厂90%的容量因子使其独特适合数据中心需求。世界核协会估计,当前全球398GW核能产能必须在2050年前至少增长两倍。
奥地利科学技术研究院团队深入研究微缩浮点数格式NVFP4和MXFP4的实际性能,发现现有量化方法效果不佳。他们开发了微旋转GPTQ算法和QuTLASS计算库,在保持模型精度的同时实现显著加速:B200芯片上达到2.2倍端到端提升,RTX5090上实现4倍加速,为AI推理优化提供了新的解决方案。
 
             
                 
                     
                     
                    