项目将人工智能融合到混合云自动化中,降低技能门槛,解放IT团队以更好地创新,并帮助推动Ansible自动化成为企业的核心技术
中国北京 —2022年10月20日 — 世界领先的开源解决方案供应商红帽公司和IBM研究院日前宣布启动Wisdom项目,这是首个为Ansible和IT自动化行业建立智能、自然语言处理能力的社区项目。该项目使用人工智能(AI)模型,以提高IT自动化开发人员的生产力,使具有不同技能和背景的IT专业人员更容易实现和理解IT自动化。
IDC在其2021年的预测中指出1:“到2026年,85%的企业将把人类专业知识与人工智能、机器学习、自然语言处理(NLP)和模式识别结合在一起,以提高整个组织的预见能力,使员工的生产力和效率提高25%。机器学习、深度学习、自然语言处理、模式识别和知识图谱等技术正在产生越来越准确,且具有上下文感知能力的洞察、预测和建议。”
Wisdom项目由源自IBM AI for Code计划的AI基础模型提供支持,允许用户将命令以简单的英语句子输入。然后,该项目对句子进行解析,并构建所请求的自动化工作流程,以Ansible 脚本形式交付,用于自动执行任意数量的IT任务。与其他人工智能驱动的编码工具不同,Wisdom项目并不专注于应用开发,相反,随着混合云应用的增加,该项目关注的重点是应对企业中日益提高的IT复杂性。
从人类可读到人机交互
成为自动化专家需要投入大量精力和资源,而且这涉及到学习不同领域的知识。Wisdom项目致力于弥合Ansible YAML代码和人类语言之间的鸿沟,使用户能够使用简单的英语生成语法正确、功能完善的自动化内容。
这可以让通常提供本地服务的系统管理员跨越领域,使用自然语言生成脚本指令,从而在其他环境中构建、配置和操作系统。如果开发人员知道如何构建应用,但并不具备在新的云平台中配置应用的技能,则可以使用Wisdom项目扩展这些领域的能力,帮助实现业务转型。不同部门的新手可以在学习基础知识的同时立即生成内容,而无需依赖传统教学模式。
通过协作推动开源创新
尽管人工智能对企业IT的重要性不容否认,但社区协作以及红帽和IBM的洞察,是交付符合开源技术关键原则的人工智能/机器学习模型的关键。红帽在社区项目的合作以及通过保护开源许可证为自由软件保驾护航方面拥有20多年的丰富经验。Wisdom项目及其底层AI模型是这一承诺的延伸——即保持代码库的所有方面对社区开放和透明。
随着全面的混合云运营成为企业的重点,红帽致力于推动开源技术的下一波创新浪潮。IBM研究院和红帽Ansible专家们努力微调AI模型, Ansible社区将作为主题专家和测试者发挥关键作用,共同推动目标的实现。社区参与仍在进行中,欢迎关注并了解最新进展。
支持证言
Chris Wright,红帽首席技术官兼全球工程高级副总裁
“该项目展示了人工智能如何从根本上改变业务创新的方式,将通常由运营团队掌握的能力扩展到企业的其他方面。通过智能解决方案,企业可以降低准入门槛,消除日益扩大的技能差距,打破企业范围内的孤岛,重新规划企业中的工作。”
Ruchir Puri,IBM研究院首席科学家;IBM院士;IBM技术社区副总裁
“Wisdom项目证明,当我们将最新人工智能和软件相结合时,可以在技术方面和整个企业内抓住重大的机遇。在我们不断推进现有的人工智能和混合云技术,以构建未来的计算机和系统的当下,这的确是一个令人兴奋的时刻。”
1IDC FutureScape: 2022年全球人工智能和自动化预测,Doc # US48298421,2021年10月
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。