
北京时间2023年7月5日上午,2023全球数字经济大会主论坛在北京国家会议中心开幕。在探讨主题为:围绕AI大模型的未来格局的高端对话环节,昆仑万维科技股份有限公司CEO方汉先生分享了昆仑万维开发的AI大模型在B端和C端领域的应用前景。方汉表示,昆仑万维是从2020年开始做预训练大模型的研发,是国内最早走技术路线的企业之一。
在B端领域,方汉认为数据处理和收集是目前最主要的工作。他解释说,在进行大模型预训练时,需要将所有数学题的公式转换为文本格式,并附上解题过程。随后,这些数据被输入到模型中,以使大模型真正掌握人类解题的能力。对于金融、法律、能源等行业,方汉强调大模型企业的重要任务是协助将这些行业的专有数据转换为文本格式,因为大模型只能理解文本格式的数据,而图表和公式都需要转换成文字描述。
此外,方汉还强调需要记录各行各业的商业逻辑和技术逻辑,将所有逻辑文本化后输入到大模型中,以实现大模型在各行各业中的落地。他认为这是一项艰巨的任务,但相信所有从事大模型研发的企业都在紧锣密鼓地进行这项工作。
在C端领域,方汉指出用户主要使用大模型进行工作和娱乐。在工作方面,大模型可以助力个人信息处理。通过将全世界使用各种语言撰写的人类知识转化为中文,并提供给C端客户,大模型可以在各种办公、公文写作、程序编写和学习等领域提供卓越的辅助。在娱乐方面,方汉预计,在未来3-5年内,大模型将产生更多的端到端内容制作工具,彻底改变文学、音乐、漫画、动画、短视频、长视频和影视等行业的内容生产形式和流程。这将使更多人无门槛地进入内容创作领域,极大丰富人类的娱乐生活。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。