ZD至顶网软件频道消息: 2016年11月10日,Infor公司在三亚成功举行主题为“风云际会,扬帆远航”的 Infor Next 中国盛会,与来自各行各业的精分享了 Infor 公司的企业战略、新产品方案和应用实践,为企业的数字化转型助一臂之力。
在大数据、云计算的大潮之下,各行各业都在进行数字化转型,需要针对产品、流程、管理等各方面进行升级与转型,各种市场机遇也为企业带来前所未有的机遇和挑战:产品换代速度越来越快,越来越个性化;用户要求更多个性化配置和服务,企业则需要应对更加多变的市场需求,推陈出新,控制成本,提高效率,不断保持竞争优势。因此,企业所选用的管理软件至关重要的作用。
Infor公司全球制造执行副总裁 John Flavin、 北亚地区董事总经理Graham McColough、大中华区总裁兼董事总经理姚翔与众多来自国内外的业界精英人士分享了Infor最新产品解决方案,最佳应用实践及其在制造、时尚及其他行业的成功案例,针对云时代的企业IT转型进行热烈探讨。
Infor公司全球制造执行副总裁 John Flavin指出:“与其他行业一样,中国制造业面临巨大的机遇与挑战。Infor 很高兴能够与中国企业和机构一起,把握机遇,接受挑战。Infor CloudSuite在全球有很多成功的案例 。相信 Infor基于云端的、美观易用、行业专用的企业管理解決方案,是中国企业成功实现IT转型的最佳合作伙伴。”
好文章,需要你的鼓励
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。
这项研究探讨了多模态大语言模型在增强推理能力时出现的视觉幻觉问题。研究发现,模型生成更长推理链时,对视觉信息的关注减少,导致幻觉增加。研究者提出RH-AUC指标和RH-Bench基准来评估模型在推理与幻觉间的平衡,发现较大模型表现更好,纯强化学习训练优于监督微调加强化学习,且训练数据的类型比数量更重要。这些发现对开发既具推理能力又保持视觉准确性的AI系统具有重要意义。
这篇研究探讨了大语言模型在自动推理任务中的不确定性问题。研究者提出,模型生成形式规范时的概率不确定性不是缺陷,而是宝贵的信号源。通过引入概率上下文无关文法框架分析SMT-LIB程序分布,他们发现不确定性信号具有任务相关性(如逻辑任务中的语法熵AUROC>0.93)。他们的轻量级信号融合方法能减少14-100%的错误,仅需最小弃权,将大语言模型驱动的形式化转变为可靠工程学科。研究揭示当模型正确理解逻辑关系时会产生稳定的语法模式,为判断何时信任模型提供了可靠指标。
来自沙特阿拉伯王子苏丹大学和阿尔法萨尔大学的研究团队开发了GATE(General Arabic Text Embedding)模型,这是一套专为阿拉伯语设计的文本嵌入系统。该研究结合了套娃表示学习和混合损失训练方法,解决了阿拉伯语特有的语义处理挑战。GATE模型在MTEB基准测试的语义文本相似度任务中表现卓越,比包括OpenAI在内的更大模型高出20-25%,同时保持了多维度(768至64)的高效表现。研究通过详细的错误分析揭示了模型在不同相似度水平上的表现特点,为阿拉伯语NLP领域提供了新的研究方向。