CCS Insight预测:生成式AI将在2024年遇冷

“2023年围绕生成式AI的炒作实在太大了,我们认为它被过度炒作了,需要克服许多障碍才能将其推向市场。”

一家分析公司预测,明年将对充满热情的生成式AI领域进行现实检验,而围绕该技术的炒作逐渐减弱、运行成本上升以及对监管的呼声增加,这些迹象表明该技术面临着即将放缓的局面。

在其关于2024年及以后技术行业未来的年度预测中,CCS Insight对人工智能的未来也提出了预测:

生成式AI将在2024年“遇冷”,因为与该技术相关的成本、风险和复杂性的现实将高于“炒作”带来的关注度。

CCS Insight首席分析师本·伍德在预测报告发布前对CNBC表示:“总的来说,现在每个人都在谈论生成式AI,谷歌、亚马逊、高通、Meta等公司都在加大投入。”

伍德说:“我们认为AI将对经济产生巨大影响,对整个社会产生重大影响,对提高生产力非常有益。”

不过,他也指出:“2023年围绕生成式AI的炒作实在太大了,我们认为它被过度炒作了,需要克服许多障碍才能将其推向市场。”

OpenAI的ChatGPT、Google的Bard、Anthropic的Claude和Synthesia等生成式AI模型依赖于大量算力运行复杂的数学模型,从而计算出如何回应用户提示的答案。这些公司必须获取高性能芯片来运行人工智能应用。这些算力通常是由芯片巨头Nvidia提供。

现在,包括亚马逊、谷歌、阿里巴巴、Meta、OpenAI在内的越来越多公司正在设计自己的专用AI芯片来运行这些人工智能应用。

伍德告诉CNBC:“部署和维持生成式AI的成本非常高昂。” 他说:“这对于那些大公司来说没问题。但对于许多组织和开发者来说,这将变得过于昂贵。”

欧盟人工智能监管面临阻碍

CCS Insight的分析师还预测,欧盟的人工智能监管将面临阻碍。 他们表示,欧盟仍将成为首个针对人工智能引入具体监管的地区,但由于人工智能的快速发展,这一监管可能会被多次修订和重绘。

伍德预测:“直到2024年底,立法才会最终确定,这使得行业在自我监管方面首先采取行动。” 生成式AI今年引起了科技爱好者、风险投资家和企业高层的极大关注,因为它能够以类似人类的方式根据文本提示生成新材料。

这项技术已被用于生成从泰勒·斯威夫特风格的歌词到完整的大学论文等各种材料,虽然它展示了人工智能的巨大潜力,但也引发了政府官员和公众的日益关注,他们担心它已经变得过于先进,可能会使人们失业。一些政府呼吁对人工智能进行监管。

在欧盟,正在进行工作以通过AI法案引入基于风险的人工智能监管,某些技术,如实时面部识别,可能会被完全禁止。对于基于大型语言模型的生成式AI工具,如OpenAI的ChatGPT,在向公众发布之前,这些模型的开发者必须将其提交进行独立审查。这在人工智能社区中引起了争议,他们认为这些计划过于限制性。

几个重要的基础人工智能模型背后的公司表示欢迎监管,并认为技术应该接受审查和监管。但他们对如何监管人工智能的方法各不相同。

OpenAI的首席执行官山姆·阿尔特曼在6月份呼吁,应该设立一个独立的政府专员来处理人工智能的复杂性并许可该技术。

谷歌则在提交给国家电信和信息管理局的评论中表示,他们更希望采取“多层次、多利益相关方参与的方法来治理人工智能”。

AI内容警告

据CCS Insight预测,搜索引擎将很快为用户添加内容警告,以提醒他们正在查看的材料是由人工智能生成的,而不是人类创作的。

每天都有大量由人工智能生成的新闻报道被发布,其中常常充斥着事实错误和错误信息。据新闻和信息网站评级系统NewsGuard称,有49个新闻网站的内容完全由人工智能软件生成。

CCS Insight预测,这样的发展将促使一家互联网搜索公司为由人工智能制造的材料添加标签,就像社交媒体公司为与新冠病毒相关的帖子引入信息标签以打击有关病毒的错误信息一样。

AI犯罪不会得逞

CCS Insight预测,明年将开始逮捕使用基于人工智能进行身份欺诈的人。

该机构表示,警方将在2024年早期首次逮捕使用人工智能模仿他人的人,无论是通过语音合成技术还是其他形式的“深度伪造”。

CCS Insight在其预测中表示:“图像生成和语音合成基础模型可以根据社交媒体上公开发布的数据定制,以模仿目标人物,从而实现成本效益和逼真的深度伪造。”

他们说:“潜在影响广泛,包括对个人和职业关系的损害,以及银行、保险和福利方面的欺诈。”

来源:至顶网软件与服务频道

0赞

好文章,需要你的鼓励

2023

10/11

10:13

分享

点赞

邮件订阅