12月10日,“云开智达——2019 IBM Cloud & AI Summit”网络峰会将举行,届时,行业大咖、智慧大脑以及来自IBM全球和实验室的专家分享如何拥抱开源和多云的市场机遇,实现人工智能的落地价值,共创数字化转型新篇章!
当前,云计算、大数据、人工智能、区块链等新兴技术不断深入发展,各行各业的企业走上了数字化转型之路,利用数字化技术进行革新,重塑业务。
如何利用云计算、人工智能等新兴技术实现企业核心业务的数字化和智能化转型,成为下一阶段企业面临的重要课题。在数字化重塑2.0阶段,认知型企业的一大特点就是数据驱动,从数据中获取价值,进而驱动业务发展。而这离不开新技术的赋能,比如云计算和人工智能。
毋庸置疑,云计算是企业构建开放和灵活平台的重要基础,而随着云应用的逐步深入,认知型企业需要的则是一个开放、多云混合的基础架构。
IDC预测,混合云的市场机会超过1万亿美元。但是企业缺乏在多个云环境之间迁移和管理数据、服务和工作流的能力。IBM商业价值研究院的调查报告显示,到2021年,98%的受访组织机构计划会采用混合架构,然而仅有38%的组织机构将拥有运行混合环境所需的程序和工具。
在云计算领域,IBM秉持五大原则:混合、多云、开放、安全和管理。第一,要使企业能够跨公有云、私有云和传统环境运营;第二,认识到客户的环境是异构的环境,要能够管理其他厂商的云;第三,要确保基于开放来构建各项功能,为客户提供灵活性,降低厂商“锁定”的影响;第四,要面向客户的环境,提供可靠性和持续的安全;第五,在跨云环境中提供一致的服务级别支持、日志记录、管理和交付。
当Red Hat开放的混合多云技术的强大能力和灵活性与IBM创新技术和行业专业知识的规模和深度相结合, IBM Cloud Paks产品组合问世了。
IBM整合了自身和RedHat的技术优势,首批推出了6 Cloud Paks纯软件的容器化解决方案。每个IBM Cloud Pak均以RedHat OpenShift作为底层容器平台,并通过相应Cloud Pak中的其他一系列工具和功能为客户在应用、集成、自动化、多云管理、数据和安全这六个领域提供更多的工具和平台能力。确保企业的核心业务可以在包括本地环境、云供应商提供的环境或多个云供应商和数据中心在内的任何基础架构上顺利运行。
与众不同的是,IBM Cloud Paks可以提供以红帽OpenShift 为基础、具有通用运营服务的容器化软件,凭借一致的管理体验和高质量的开箱即用服务,客户无需从零开始构建、整合、测试与保障自定义解决方案。此外,基于灵活的授权方式,客户能够随时完成部分业务转型并按照自己的进度获取新功能,真正实现将部署选项和策略的掌控权交给客户。
借助IBM Cloud Paks,企业可以打破数据藩篱,实现数据的流动,为下一步数据价值的实现奠定了坚实的基础。
现在AI已经成为产业变革的风向标,但由于数据复杂性、数据预处理、专业技能不足以及缺乏数据文化等因素,人工智能技术的普及速度较为缓慢。
针对这样的情况,IBM发布了IBM人工智能(Watson)最新版本核心工具及应用,能够在任何云平台上运行,使企业能够将AI带到数据和应用所在的任何地方。通过在IBM容器化的Cloud Pak for Data平台上以微服务的方式运行IBM的人工智能服务,企业能够以更简单、更快捷的方式,在任何云上(私有、公有或混合云)构建、测试、部署和扩展AI模型和应用,帮助企业释放数据的全部价值。
在IBM公布的多家已应用IBM人工智能应用的客户中,最具有代表性的毕马威和法航等多家专业服务领域的跨国企业都在使用IBM人工智能的应用,或利用IBM的人工智能工具构建AI能力挖掘隐藏商业洞察,面向单调任务实现自动化,提升整体经营业绩,加快人工智能的发展步伐。
除了云计算和AI这些硬核科技,企业还可以通过IBM Garage(IBM车库创新)打造开放协作、持续学习的文化,并推动业务成果的实现。而且,2019年8月,广东佛山三水的淼才公司成为IBM Garage在中国的首个落点。从成立到现在三个月,IBM Garage 已经替五家企业制定了数字化转型的方案,并已经开始了这其中两家企业的咨询、赋能和开发工作。
想要了解更多IBM在混合多云和AI方面的更多信息?
12月10日, “云开智达——2019 IBM Cloud & AI Summit”网络峰会活动盛大开启,活动集中探讨企业在数字化转型的第二篇章,该如何利用混合多云策略打破数据壁垒,用AI释放企业数据的价值,成就认知型企业的转型。精彩不容错过,赶紧报名参会吧!
http://icon.zhiding.cn/edm/191128/IBM%20Cloud%20&%20AI%20Summit_online%20eDM.htm
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。