在9月份的Ignite会议上,微软公布了一个将Visual Studio Code与其AI服务集成在一起的扩展。在今天(11月15日)的Connect会议上,微软为Visual Studio本身添加了一个能与人工智能服务集成在一起的扩展功能。
上述第二个扩展被称为Visual Studio Tools for AI,同时支持微软和第三方深度学习框架。它支持微软认知工具包(Microsoft Cognitive Toolkit ,CNTK)、Google TensorFlow、Theano、Keras、Caffe2等。微软方面表示,Visual Studio Tools for AI利用了现有的对Python、C / C ++ / C#的代码支持,并为Cognitive Toolkit BrainScript提供额外的支持。
Visual Studio Tools for AI和Visual Studio Code for AI都是微软机器学习套件的一部分——该套件代码代号为“Open Mind Studio”——这是该公司在一年前的官方介绍。微软最近推出的Azure Machine Learning Workbench也会同这个套件协同工作。
微软方面在2016年将Open Mind Studio描述为“机器学习的Visual Studio”。如前所述,Open Mind Studio的设计目标是可用于各种CPU / GPU、FPGA、云和客户端设备。它可以运行在联合基础架构之上,同时支持各种深度学习框架、开源计算框架(如Hadoop和Spark),专门优化的计算框架以及他们构建的其他框架。
好文章,需要你的鼓励
文章详细介绍了Character.AI这款主要面向娱乐、角色扮演和互动叙事的AI聊天工具的原理、用户群体、特色功能以及面临的法律与伦理争议,同时揭示了其新推出的视频和游戏互动体验。
上海人工智能实验室研究团队开发了MMSI-Bench,这是首个专注于多图像空间智能评估的全面基准。研究人员花费300多小时,从12万张图像中精心构建了1000道问题,涵盖了位置关系、属性和运动等多种空间推理任务。评测结果显示,即使最先进的AI模型也仅达到41%的准确率,远低于人类的97%,揭示了AI空间认知能力的重大缺陷。研究还识别了四类主要错误:物体识别错误、场景重建错误、情境转换错误和空间逻辑错误,为未来改进提供了明确方向。
思科报告指出,自主型人工智能未来三年内有望承担高达68%的客户服务任务,通过个性化与前瞻性支持提升效率与节省成本,但用户仍重视人与人之间的互动和健全的治理机制。
卡内基梅隆大学研究团队开发了ViGoRL系统,通过视觉定位强化学习显著提升AI的视觉推理能力。该方法让模型将每个推理步骤明确锚定到图像的特定坐标,模拟人类注视点转移的认知过程。与传统方法相比,ViGoRL在SAT-2、BLINK等多项视觉理解基准上取得显著提升,并能动态放大关注区域进行细节分析。这种定位推理不仅提高了准确性,还增强了模型解释性,为更透明的AI视觉系统铺平道路。