11月7日—16日“2024第八届世界智能大会”全球推介之旅圆满结束。世界智能大会组委会秘书处(以下简称秘书处)陪同天津市工业和信息化局副局长周胜昔一行先后走访西班牙、德国、英国,面向全球智能科技领域企业、国际合作组织、专业观众等各界人士发出第八届世界智能大会的诚挚邀请。
志合者,不以山海为远。为进一步秉承世界智能大会“高端化、国际化、专业化、市场化”的办会思路,充分发挥世界智能大会的风向标作用,秘书处“早谋划、早准备、早行动”,自8月起开始筹备此次国际推介活动,精准组织各项推介环节,最终成功举办西班牙、德国、英国三个专场推介会,与国际商协会组织展开深入合作交流,走访智能科技企业,收获颇丰,满载而归。
这是一场跨越万里的务实之旅。秘书处深入全球智慧城市大会调研学习,与德国弗劳恩霍夫电子纳米系统研究所展开探讨,同英中贸易协会达成合作意向。专场推介会上,天津市工业和信息化局副局长周胜昔介绍了天津市整体营商环境以及制造业高质量发展相关政策措施,真诚欢迎欧洲企业来津投资兴业,共享发展机遇。世界智能大会组委会秘书处执行秘书长任丽伟分享了前七届世界智能大会举办成效并介绍了第八届大会的情况安排,向欧洲智能科技领域企业及合作组织发出邀请。与西班牙、德国、英国的企业家相约明年春天,把握科技发展新机遇,让梦想落地,让未来可期。
这是一场硕果累累的收获之旅。秘书处与全球深具影响力的国际组织深入探讨通过世界智能大会共同搭建合作交流平台,携手共谋发展蓝图。成功与明日城市建筑大会组委会签署战略框架合作协议书,将充分发挥各自优势,促进两国企业及机构间的合作交流,互相协助邀请重要嘉宾及参展企业,共同牵头举办论坛、创新成果活动,共同提高两个大会的国际化、高端化竞争力;与英中贸易协会达成初步合作意向,下一步,将着手筹备战略合作协议签署事宜,开拓互利合作新局面,开启未来发展新空间。
这是一场提振信心的交流之旅。秘书处随代表团先后拜访了弗劳恩霍夫协会、德国中国商会、KLAI、创新物理(IPL)、联域创推中心(CPC)、英国建筑研究院(BRE)等十余家企业及机构,邀请欧洲企业参会参展,进一步促进经贸合作。世界智能大会出于把握住全球范围内智能科技行业执牛耳机构的工作思路,力争把德国弗劳恩霍夫电子纳米系统研究所的产业上下游供应链及全球影响力与天津对位结合,推动研究所参与城市产业发展、对接更多天津智能制造及传感器商业合作项目、科技转化项目、技术联合研发项目落地,库恩教授明年将继续出席大会,同时组织德国隐形冠军、拥有核心技术的中小企业参会和投资兴业。德国中国商会作为中国在欧洲建立的第一家海外商会,与大会深入探讨国际化办会、办展、办赛等方面可能性;通过交流与介绍,创新物理有限公司希望明年5月参加大会,并加快来津投资智能设备项目;深入英国联域创推中心(CPC),负责人明确表示将同英国智能科技企业一道参加第八届大会;英国建筑研究院(BRE)作为绿色建筑标准制定单位,计划参与第八届大会智慧生活与智能建造板块共谋合作发展机会。
此次出访,通过举办专场推介会、与国际组织深入交流、拜访企业等一系列活动,秘书处深入落实世界智能大会“国际化”办会思路,是积极主动开拓国际伙伴关系迈出的重要一步。下一步,秘书处将与企业机构展开深入交流,推动更多国际化企业参与第八届世界智能大会,为世界智能科技领域搭建交流合作、共赢共享的国际化平台,打造更具影响力、永不落幕的世界智能盛会。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。