ZD至顶网软件频道消息:AWS称亚马逊Lex人工智能服务面向旗下所有客户开放,客户可利用该服务构建应用程序。
亚马逊Lex的机器学习技术和亚马逊Alexa相同。应用程序利用亚马逊Lex拥有的算法功能可建立对话及处理语音和文本。
对于AWS而言,Lex面向广大的客户基群开放可以扩大系统规模。谷歌、微软和Facebook都在力推自己的人工智能平台。和大多数的科技一样,能够吸引最多开发者和现实世界应用程序的人工智能平台通常会成为赢家。
亚马逊Lex的另一个重点:AWS提供的人工智能是托管服务。因此,更多的企业可能会试用Lex和构建应用程序。以前未能构建和部署语音识别和自然语言应用程序的公司现在可以一试牛刀,而且可以构建具规模的系统。假若AWS 在Lex上取得成功的话,Lex则可以被置入数个人工智能应用引擎里。
开发人员利用亚马逊Lex可以构建对话应用程序,对语音或文本输入进行解析。这些会话应用程序可以部署在移动设备或诸如Facebook Messenger和Slack等服务的机器人里。
几个要点:
下图是亚马逊Lex的一些定价:
亚马逊Lex消息发布的同时,正在旧金山召开AWS峰会亦传出不少新闻。综合如下:
AWS宣布推出亚马逊红移光谱(Redshift Spectrum)功能,红移客户可利用红移光谱功能对自己的Amazon S3数据进行SQL查询操作。客户利用红移光谱可查询Amazon S3存储数据湖里的非结构化数据。
AWS推出亚马逊DynamoDB加速器。DynamoDB加速器为托管内存缓存服务,可以提高DynamoDB的响应时间性能。
亚马逊极光(Aurora)发布开放预览版,亚马逊极光兼容PostgreSQL。
好文章,需要你的鼓励
模型上下文协议(MCP)服务器是连接概率性大语言模型和确定性微服务工作流的关键节点,充当推理引擎与外部数据工具的翻译层。在生产环境中部署AI智能体时,MCP服务器承担着定义智能体能力、管理上下文数据和执行操作三大核心职责。由于其非确定性客户端特性,传统单元测试无法有效验证,需要通过端到端测试来确保系统可靠性,这使得MCP服务器成为智能体架构中不可或缺的关键基础设施。
SimWorld是由UCSD等多所顶尖院校联合开发的革命性AI仿真平台,基于虚幻引擎5构建了具备真实物理规律的虚拟城市环境。该平台支持无限扩展的程序化世界生成和自然语言交互,让AI智能体能够在复杂环境中学会生存、合作和竞争,为通用人工智能的发展提供了前所未有的训练平台。
英伟达推出Vera Rubin计算平台,专为驱动具备思考和推理能力的智能AI系统而设计。该平台采用NVL72液冷机架系统,集成六种芯片包括新Vera CPU和Rubin GPU。相比Blackwell架构,Rubin GPU推理速度提升5倍,训练速度提升3.5倍。平台还推出推理上下文内存存储解决方案,性能提升5倍。此外,英伟达还发布了面向自动驾驶的开源Alpamayo模型系列。
浙江大学联合华为提出C2DLM,这是一种因果概念引导的扩散语言模型,通过自动提取因果关系并融入注意力机制来增强AI推理能力。相比传统方法,C2DLM在推理任务上平均提升1.31%-12%,训练效率提高3.2倍,为解决语言模型推理能力不足开辟了新路径。