在一个完美的世界中,新闻网站上的评论区应该是对世界上发生的各种事情进行理性讨论的好地方。不幸的是,我们并没有生活在一个完美的世界里,各种激烈尖锐的争论和谩骂经常会让网站选择完全关闭评论,而不是处理它们。
《纽约时报》正在试图通过使用人工智能来解决这个问题。今天,《纽约时报》推出了一个新的人工智能评论审核功能,该功能使用了Perspective,这是一个由Jigsaw构建的人工智能应用程序编程接口,Jigsaw是谷歌公司的母公司阿尔法集团退出的智囊团。《纽约时报》表示,这个被简单地称为“Moderator”的、新的人工智能将允许该网站为更多文章开放评论。
《纽约时报》在一份声明中表示,由于手工审核评论需要耗费的劳动量巨大,所以以前只允许对其约10%的文章进行评论。该报社表示,现在随着Moderator的推出,他们将能够允许对其约25%的文章发表评论,并希望最终将评论扩大到80%或更多的文章。
Moderator并没有自动化所有的审核流程,而是使用机器学习来帮助《纽约时报》的员工在更短的时间内审核更多的评论。使用谷歌的Conversation AI,Perspective会评估评论中的内容被认为是有害的可能性。人工智能会使用多种因素来评估每条评论,包括亵渎、种族主义言论和其他煽动性的语言。除了《纽约时报》之外,Perspective也被用于维基百科和《卫报》网站的内容审核。
在在线社区中使用人工智能审核已经成为一种日益增长的趋势,直到最近,在线社区还在依靠人类审核人员来保持讨论。例如,亚马逊的Twitch使用了一款名为AutoMod的类似的工具来帮助现场直播人员控制他们的聊天室。
“英雄联盟”的开发商Riot Games还使用人工智能和机器学习来限制网络游戏中的有害内容并打击玩家滥用。Riot的人工智能标注潜在的有害信息,并自动警告用户他们的行为是不合适的,如果他们继续这样,就可能会受到惩罚。
在Game Developers Conference 2015(2015年的游戏开发者大会)上,Riot的前首席设计师Jeffrey Lin表示,人工智能不仅限制了游戏中的有害内容的含量,还通过提醒行为的方式来改变有害的玩家。根据Lin先生的说法,如果告知他们被禁止的确切原因,他们有50%的可能会改变自己的行为,他说如果给这些玩家这些行为的证据,他们改变自己行为的概率就会上升到70%。
《纽约时报》使用的Moderator不会在向用户提醒他们的行为方面发挥任何作用,而是使人类审核人员能够更容易发现有害的评论内容。《纽约时报》的人类审核人员就这些意见做出最终裁定,最有可能的处理结果是删除这些评论,并可能禁用用户账户。
好文章,需要你的鼓励
戴姆勒卡车在2021年从奔驰集团分离时,面临1500多个IT系统需要拆分的复杂挑战。公司采用Neo4j图数据库技术,结合ExtraHop网络遥测数据,构建了应用系统依赖关系的动态图谱。该方案成功识别隐藏依赖关系,用3.5年完成分离,应用数量减少40%。图技术不仅解决了分离难题,还为公司提供了全面的IT可观测性平台,结合大语言模型实现智能运维,能快速诊断故障原因并识别安全风险。
瑞士ETH苏黎世联邦理工学院等机构联合开发的WUSH技术,首次从数学理论层面推导出AI大模型量化压缩的最优解。该技术能根据数据特征自适应调整压缩策略,相比传统方法减少60-70%的压缩损失,实现接近零损失的模型压缩,为大模型在普通设备上的高效部署开辟了新路径。
SwitchBot在CES展会上发布AI MindClip音频记录器,这款重18克的夹式设备可记录日常对话和工作会议,支持超过100种语言。设备能将语音转换为摘要、待办事项和个人音频记忆数据库,用户可搜索和检索之前可能遗忘的讨论内容。AI驱动的总结、任务创建和信息回忆功能需要订阅云服务才能使用,但具体价格和发布时间尚未公布。
弗吉尼亚大学团队创建了Refer360数据集,这是首个大规模记录真实环境中人机多模态交互的数据库,涵盖室内外场景,包含1400万交互样本。同时开发的MuRes智能模块能让机器人像人类一样理解语言、手势和眼神的组合信息,显著提升了现有AI模型的理解准确度,为未来智能机器人的广泛应用奠定了重要基础。