至顶网软件频道消息:Salesforce研究院(Salesforce Research)创建的自然语言处理架构可以处理多种模型和任务。在通常情况下,自然语言处理(NLP)针对每种功能(如翻译、情感分析和问题和答案)都需建一个模型。
由Salesforce首席科学家Richard Socher领导的一项研究旨在完成名为自然语言 Decathlon(decaNLP)的挑战任务。decaNLP挑战涵盖了10个任务: 问题回答、机器翻译、汇总、自然语言推理、情感分析、语义角色标注、关系提取、目标导向对话、数据库查询生成和代词解析,这些任务被送至系统进行共同学习。
可以将decaNLP想象成自然语言处理瑞士军刀。如果NLP需要重复定制,规模大了以后就不能使用。 Salesforce想寻找一种通用的NLP方法,将每项任务转换为问题回答格式并进行共同训练。
Socher表示,该方法融合了深度学习和NLP,可将问题的讨论转向围绕元架构的讨论。他补充表示,架构方法也可以用来防止NLP函数分层的模型蔓延。
Socher表示,“这个项目可以即时用在一些有用的应用上,因为项目是个单一部署模型,而且易于维护。我们将一堆工具整合在一起。”
Salesforce可能会在爱因斯坦分析及各种云计算的产品路线图里使用decaNLP方法。
decaNLP可与多任务问答网络结合在一起,无需任何特定模型就可以针对所有任务进行共同学习。该网络还可以通过新任务相关的说明进行自适应调变。
下图是多任务问答网络图。
另外,Salesforce 研究院还完成了处理数据集、训练和评估模型的代码,并定义了一个名为decaScore的评分。
用decaNLP系统训练过的NLP理论上可以为聊天机器人提供更好的框架及更好地提供客户服务交换中的任何信息。
好文章,需要你的鼓励
工业升级的关键,或许在于智能本身。“工业+机器人”将成为通向下一阶段工业体系的核心抓手。——黄仁勋。
浙江大学等联合研究发现,AI强化学习效果取决于"模型-任务对齐"程度。当AI擅长某任务时,单样本训练、错误奖励等非常规方法也有效;但面对陌生任务时,这些方法失效,只有标准训练有用。研究团队通过大量实验证实,这种"舒适圈"现象比数据污染更能解释训练差异,为AI训练策略优化提供了新思路。
瑞士政府正式发布了自主研发的人工智能模型,该模型完全基于公共数据进行训练。这一举措标志着瑞士在AI技术自主化方面迈出重要一步,旨在减少对外国AI技术的依赖,同时确保数据安全和隐私保护。该模型的推出体现了瑞士对发展本土AI能力的战略重视。
巴赫切希尔大学研究团队通过对五种不同规模YOLO模型的量化鲁棒性测试发现,静态INT8量化虽能带来1.5-3.3倍速度提升,但会显著降低模型对噪音等图像损伤的抵抗能力。他们提出的混合校准策略仅在大型模型处理噪音时有限改善,揭示了效率与鲁棒性平衡的复杂挑战。