AI技术唯有下沉到各行各业,普惠生活的方方面面,才能发挥它真正的价值。这意味着,AI技术的平民化将成为必然趋势,而其中的前提是解决技术门槛的问题,让AI技术的使用变得更加简单。
如今,不少科技企业正在通过各种方式释放自己的技术能力,从而实现这一目标。比如,通过开放深度学习平台,帮助开发者更轻松地构建、训练模型;比如,通过规模化的AI工具,帮助企业低门槛创新商业模式;再比如,通过集成AI技术的云应用,帮助普通职员也能享用新技术带来的工作便利。
微软就在这么做。
如微软中国首席技术官韦青此前所说,“微软有一个愿景,就是把AI平民化、民主化。”而不同于当初Windows所带来的电脑平民化,微软AI平民化的标签是通过智能云平台Azure来打牢的。通过在Azure上开放API接口,集成语音、视觉、语言、机器翻译等认知服务,开发者只需要注册微软账户,就可以轻松实现AI应用的体验和尝试。据了解,目前已经有超过100万的开发者正在使用这些认知服务。
以微软智能云上的一项托管服务Azure Batch AI为例,该服务允许数据科学家和开发者以非常简单的方式利用包括GPU在内的Azure云计算资源对人工智能模型进行训练。数据科学家只需明确任务需求,设定输入、存储、输出等设置,其它所有与基础设施管理、规模缩放、批量工作任务相关的繁杂的后台工作都能由Azure Batch AI自动完成。与此同时,如果Azure上的这些认知服务不能满足用户需求,微软还提供了定制化的AI服务,而且这种定制非常简单。
事实上,除了降低技术的使用门槛,微软的AI能力早已渗透到其不同的产品线中,普惠于众。比如Cortana、Office 365、搜索引擎Bing,还有可以作诗唱歌、与人对话的小冰等,这些简单易用的产品和服务背后都是微软AI技术在支撑。
微软已经把越来越多的智能服务集成到Office中,比如你只需按下ALT+Q 这个快捷键,输入想要做的事情,Office 应用程序会聪明地理解你的想法。用户甚至不用学习任何的新功能,只需要专注于自己的工作,新的特性就会自动出现:比如图片的自动排版、自动生成三维动画、为演讲者提供自动多语种实时翻译字幕等等,其中很多功能都和AI有关。据了解,Office自5年前向云服务转型以来,如今全球每个月的活跃用户(MAU)已经达到亿级别。
另外, Cortana作为微软打造的个人信息助理也能够帮助用户快速查看日程安排、了解会议时间和地点,规划适当的差旅时间,甚至从其日历中获取更新以了解未来的行程。
除此之外,微软小冰也是一个很好的例子。小冰诞生于四年前,是一个面向情商(EQ)维度发展的人工智能系统,目前已在中、日等多个国家落地。经过这几年持续不断的技术迭代,现在的小冰功能越来越强大,从初期的简单人机对话发展到今天不仅可以作诗、写文章,还能唱歌,而最新应用的全双工语音技术让小冰的技能又上一层楼,让小冰与人的对话更类似人与人的交流。
毫无疑问,AI的平民化将成为微软区别于其他公司的一大鲜明特征。用微软大中华区副总裁兼市场营销及运营总经理的康荣的话说——AI只是一种食材,不是一道完整的菜。因此,微软将把自己的AI能力摄入到不同的产品中,最终目的是降低AI技术的使用门槛,让每个人都能从中受益。
更多关于微软人工智能、商业数据分析、数据平台的部署、开发与管理的最新信息,将在10月24-27日的“Microsoft Tech Summit 2018微软技术暨生态大会”全面展现。点击大会直播视频链接,速速围观:http://www.zhiding.cn/special/Microsoft_Tech_Summit_2018
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。