如今,数字经济成为全球经济增长的主引擎。基础软件是数字经济发展的基础,是制造强国、网络强国、数字中国建设的关键支撑。而基础软件中的操作系统,作为数字基础设施的底座,已经成为推动产业数字化、智能化发展的核心力量。
2022年12月28-29日,以“立根铸魂 崛起数智时代”为主题的操作系统产业峰会2022将于线上举行。本次峰会由开放原子开源基金会、中国软件行业协会、CCF开源专委会、绿色计算产业联盟、中关村科学城管委会主办,旨在聚集全产业链力量,聚焦基础软件核心能力构建,引领基础软件持续创新,加快实现高水平科技自立自强。
在操作系统产业峰会2022上,将有来自联盟协会单位成员、院士和专家学者、操作系统领军企业、电信、金融等行业用户、开源社区代表等进行主题演讲,分享对操作系统现状和未来发展方向、基础软件根技术、开源基础设施建设的观点和看法以及创新实践。此外,2022年度openEuler领先商业实践奖,openEuler&openGauss人才发展加速计划2022年度奖项也将在大会期间公布。同时还有《中国软件根技术白皮书(操作系统册)》、RISC-V商业发行版“傲来OS”等多项重磅内容发布。
欧拉是面向数字基础设施的开源操作系统,支持服务器、云计算、边缘计算、嵌入式等应用场景,首个数字基础设施全场景长周期版本openEuler 22.03 LTS已于今年4月发布。截至今年11月,欧拉系装机量累计实现245万套,在中国服务器操作系统领域,新增市场份额达到22%。在欧拉开源社区全体成员单位和全体开发者的努力下,已有600多家企业加入社区,超过12000名贡献者,组建了99个SIG组。今年11月,openEuler首次荣获2022年世界互联网领先科技成果奖。本次大会,还将公布欧拉商业进展的最新数据,以及欧拉社区治理的最新变化,聘请新的欧拉顾问专委会成员等,与产业界共同努力,打造最具活力的操作系统开源社区。
(数据开源:欧拉社区贡献看板 https://datastat.openeuler.org/zh/overview )
今年9月,欧拉首次在全球开源峰会Open Source Summit 2022上亮相,并开设海外社媒账号,启动国际化进程。欧拉正在探索一条属于自己的发展之路,汇聚全球开发者智慧,以开源的方式推动操作系统技术创新,为中国乃至全球的基础软件生态繁荣贡献力量。
本次大会议程共两天,包括3场Keynote、7场技术分论坛及8个伙伴分论坛,包括麒麟软件、麒麟信安、统信软件、 软通动力、中科创达、海量数据、云和恩墨、南大通用分论坛等。其中,由openEuler社区主办的openEuler Summit 2022,和由openGauss社区主办的openGauss Summit 2022将于第二天12月29日举行,主题分别为“激发原创力量 逐梦数智未来”和“汇聚数据库创新力量,加速企业数字化转型”。社区贡献者、行业用户、生态伙伴等将齐聚一堂,共同探讨操作系统、数据库发展趋势、分享商用案例实践、社区创新成果等。更多精彩内容,敬请关注12月28-29日操作系统产业峰会2022!
(操作系统产业峰会2022和openEuler Summit 2022详情页面:https://www.openeuler.org/zh/interaction/summit-list/summit2022/
openGauss Summit 2022详情页面:https://www.opengauss.org/zh/summit/summit2022/)
好文章,需要你的鼓励
本文探讨了一种防范通用人工智能(AGI)和人工超级智能(ASI)存在性风险的方法:将它们置于计算机仿真世界中进行测试。虽然这种方法看似合理,但存在诸多挑战。AGI可能会隐藏恶意行为,或因被欺骗而转向恶意。此外,仿真环境可能无法完全模拟真实世界,导致测试结果不准确。构建高质量仿真系统的成本和技术难度也不容忽视。文章认为,仿真测试虽有价值,但并非万能解决方案。
这项研究关注语音中的句子强调(即说话时对特定词的重音),它能传达说话者的潜在意图。耶路撒冷希伯来大学的研究团队发现,尽管现代语音语言模型进步显著,它们在理解句子强调方面表现不佳。团队创建了StressTest基准测试和Stress-17k合成数据集,并开发了StresSLM模型,使强调理解能力大幅提升。研究表明,通过特定训练策略,可以让AI不仅理解"说了什么",还能理解"怎么说的",从而捕捉人类交流中的微妙含义。
尽管AI在围棋等复杂游戏中表现出色,但在简单的井字棋游戏中却屡屡失败。研究显示,AI代理在模拟商业环境中的表现同样令人失望,经常出现幻觉、欺骗和任务未完成等问题。游戏测试为评估AI能力提供了直观方式,帮助普通用户理解AI的真实水平。面对当前AI行业的过度宣传,通过游戏化测试揭示AI的实际局限性,对于防范AI泡沫具有重要意义。
ViStoryBench是一个全面的故事可视化评估基准,由StepFun团队打造,用于测试AI将文字故事转化为连贯图像序列的能力。它包含80个多样化故事和344个角色参考,评估包括角色一致性、提示遵循度等多个维度。研究测试了20多种方法,发现UNO在开源方法中表现最佳,而商业软件如豆包和GPT-4o在提示一致性方面表现突出。该基准为故事可视化研究提供了统一标准,推动这一领域的创新发展。