如今,数字经济成为全球经济增长的主引擎。基础软件是数字经济发展的基础,是制造强国、网络强国、数字中国建设的关键支撑。而基础软件中的操作系统,作为数字基础设施的底座,已经成为推动产业数字化、智能化发展的核心力量。
2022年12月28-29日,以“立根铸魂 崛起数智时代”为主题的操作系统产业峰会2022将于线上举行。本次峰会由开放原子开源基金会、中国软件行业协会、CCF开源专委会、绿色计算产业联盟、中关村科学城管委会主办,旨在聚集全产业链力量,聚焦基础软件核心能力构建,引领基础软件持续创新,加快实现高水平科技自立自强。
在操作系统产业峰会2022上,将有来自联盟协会单位成员、院士和专家学者、操作系统领军企业、电信、金融等行业用户、开源社区代表等进行主题演讲,分享对操作系统现状和未来发展方向、基础软件根技术、开源基础设施建设的观点和看法以及创新实践。此外,2022年度openEuler领先商业实践奖,openEuler&openGauss人才发展加速计划2022年度奖项也将在大会期间公布。同时还有《中国软件根技术白皮书(操作系统册)》、RISC-V商业发行版“傲来OS”等多项重磅内容发布。
欧拉是面向数字基础设施的开源操作系统,支持服务器、云计算、边缘计算、嵌入式等应用场景,首个数字基础设施全场景长周期版本openEuler 22.03 LTS已于今年4月发布。截至今年11月,欧拉系装机量累计实现245万套,在中国服务器操作系统领域,新增市场份额达到22%。在欧拉开源社区全体成员单位和全体开发者的努力下,已有600多家企业加入社区,超过12000名贡献者,组建了99个SIG组。今年11月,openEuler首次荣获2022年世界互联网领先科技成果奖。本次大会,还将公布欧拉商业进展的最新数据,以及欧拉社区治理的最新变化,聘请新的欧拉顾问专委会成员等,与产业界共同努力,打造最具活力的操作系统开源社区。
(数据开源:欧拉社区贡献看板 https://datastat.openeuler.org/zh/overview )
今年9月,欧拉首次在全球开源峰会Open Source Summit 2022上亮相,并开设海外社媒账号,启动国际化进程。欧拉正在探索一条属于自己的发展之路,汇聚全球开发者智慧,以开源的方式推动操作系统技术创新,为中国乃至全球的基础软件生态繁荣贡献力量。
本次大会议程共两天,包括3场Keynote、7场技术分论坛及8个伙伴分论坛,包括麒麟软件、麒麟信安、统信软件、 软通动力、中科创达、海量数据、云和恩墨、南大通用分论坛等。其中,由openEuler社区主办的openEuler Summit 2022,和由openGauss社区主办的openGauss Summit 2022将于第二天12月29日举行,主题分别为“激发原创力量 逐梦数智未来”和“汇聚数据库创新力量,加速企业数字化转型”。社区贡献者、行业用户、生态伙伴等将齐聚一堂,共同探讨操作系统、数据库发展趋势、分享商用案例实践、社区创新成果等。更多精彩内容,敬请关注12月28-29日操作系统产业峰会2022!
(操作系统产业峰会2022和openEuler Summit 2022详情页面:https://www.openeuler.org/zh/interaction/summit-list/summit2022/
openGauss Summit 2022详情页面:https://www.opengauss.org/zh/summit/summit2022/)
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。