周五在MDN(Mozilla Developer Network)的Yari仓库上开启的一个GitHub问题,讲述了这个遗憾的故事。
一个名叫Eevee的开发者说,MDN的预期行为是“包含正确的信息”。
他们注意到,基于OpenAI的ChatGPT的AI Help的实际行为并非总是如此。Eevee报告说:MDN生成了一个听起来很有说服力的谎言,而且没有明显的纠正过程。
这并不是原本的设定。AI Help的灵感来源于Supabase Clippy,而Supabase Clippy又是受到Clippy的启发,你可能还记得,Clippy曾经是微软的一个笑柄。所以,也许这一切都是注定的。
目前,已注册免费MDN Plus账户(或付费无广告计划)的用户可以使用AI Help。
“AI Help不仅仅是一个新工具,它是你的新问题解决伙伴。”Mozilla的MDN产品组负责人Hermina Condei在本周早些时候的一篇博客文章中宣布。
“它的设计目的是优化你的搜索过程,使你能快速轻松地找到所需的信息。它的工作方式很简单:在MDN上提问,AI Help就开始工作。它深入我们的详尽文档库,检索最相关的信息,并以简洁的摘要形式呈现给你。”
AI Help包括AI Explain,这是一个提示聊天机器人对当前网页文本发表意见的按钮。正是这个特定功能出了问题,尽管有人声称,一般的AI Help功能也会给出错误的答案。
对Eevee的错误报告进行评论的人,对他们的新AI助手似乎也有些批评:
MrLightningBolt表示:"这种'AI'蛇油对于上述原因来说不仅无用,而且更糟糕;其他例子也很容易创建。它的存在使MDN变得更糟糕。"
来自datarocks的评论:"作为一个偶尔在没有人可用,需要修复东西时才会涉足CSS的人,我依赖这些文档的可靠性。现在这比过去更为重要,因为LLM生成的废话在网络上扩散。请保持MDN作为人类生成的开发者文档的可信来源。"
还有人报告说,AI Help自相矛盾,错误地识别CSS函数,错误地解释可访问性函数,总的来说就是不理解CSS。
Avdi Grimm写道:"我花了十年的时间试图说服人们使用MDN,而不是W3Schools上的低质量SEO农场垃圾文本,但现在他们却在MDN上看到了大量的低质量AI垃圾文本。"
Dalton Miner的一些想法:"我使用MDN是因为它是一个全面准确的文档来源,没有废话。我无法看到如何通过容易产生严重错误的LLM输出来改善这一点。这大大削弱了我对MDN的信心,我担心它的包含会促使人们过度依赖便宜但不可靠的文本生成。"
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。