Gartner近日公布了影响数据科学和机器学习(DSML)未来的主要方向,这个领域正在快速发展以满足人工智能对数据的需求。
Gartner首席分析师 Peter Krensky在近日于悉尼举行的Gartner数据与分析峰会上表示:“随着机器学习在各个行业的采用持续快速增长,数据科学和机器学习正在从仅仅关注预测模型,转向更加民主化、动态化和数据为中心的领域,而且人们对生成式AI的热情也推动了这一趋势。虽然潜在风险不断出现,但对数据科学家及其所在组织来说,很多新的功能和用例也在不断涌现。”
Gartner称,塑造数据科学和机器学习未来发展的主要方向包括:
云数据生态系统
数据生态系统正在从独立软件或者混合部署转向完整的云原生解决方案。据Gartner预计,到2024年云中新的系统部署中,有50%将是基于内聚的云数据生态系统的,而不是手动集成的单点解决方案。
Gartner建议,组织应该根据他们解决分布式数据挑战以及访问和集成直接环境之外数据源的能力,来评估数据生态系统。
边缘AI
对边缘AI的需求不断增长,从而能够在边缘生成数据的时候对其进行处理,帮助组织获得实时洞察、检测新模式、满足严格的数据隐私要求。边缘AI还可以帮助组织改进AI的开发、编排、集成和部署。
Gartner预测,到2025年,超过55%的深度神经网络数据分析将发生在边缘系统的捕获点,而2021年这一比例还不到10%。组织应该确定分析所需的应用、AI训练和推理,迁移到物联网端点附近的边缘环境中。
负责任的AI
负责任的AI让AI成为一种积极的力量,而不是对社会和自身的威胁,其中涵盖了组织在采用AI时做出正确的商业和道德选择等很多方面,而且这些方面通常是组织独立解决的,例如商业和社会价值、风险、信任、透明度和问责制。Gartner预测,到2025年,预训练的AI模型将集中在1%的AI厂商那里,这将让负责任的AI成为一个受社会关注的问题。
Gartner建议组织采用与风险相对应的方法来实现AI的价值,并在应用解决方案和模型的时候保持谨慎,应该获得来自厂商的关于管理风险和合规义务的保证,保护组织免受潜在的财务损失、法律诉讼和声誉损害。
以数据为中心的AI
以数据为中心的AI,代表了从以模型和代码为中心的方法,向更注重数据以构建更好AI系统的转变。很多解决方案,例如AI专门的数据管理、合成数据和数据标签技术等,旨在解决包括可访问性、容量、隐私、安全性、复杂性和范围在内的很多挑战。
使用生成式AI创建合成数据是一个快速发展的领域,这种技术可以减轻获取真实世界数据的负担,从而可以有效地训练机器学习模型。Gartner预测,到2024年,60%的AI数据将通过合成用于模拟现实、未来场景并降低AI风险,而2021年这一比例仅为1%。
AI投资加速
那些实施解决方案的组织以及希望通过AI技术和基于AI的业务实现增长的行业,将继续加速对AI的投资。Gartner预测,到2026年底,将有超过100亿美金投资于那些依赖基础模型(基于大量数据训练的大型AI模型)的AI初创公司。
Gartner最近对2500多名高管进行的一项调查发现,有45%的受访者表示,最近围绕ChatGPT的炒作促使他们增加了对AI投资。有70%的受访者表示,他们的组织正处于研究和探索生成式AI的阶段,19%的受访者表示,他们的组织正处于试点或生产阶段。
好文章,需要你的鼓励
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。