据Meta首席执行官马克·扎克伯格发布的消息显示,Meta旗下的微博客平台Threads正在测试剧透隐藏文本功能。
剧透隐藏文本是指在帖子中被灰化处理的文字(或图片),只有用户手动点击后才能看到完整内容。顾名思义,这项功能通常在Discord或Reddit等平台上使用,帮助用户在讨论新电影、电视剧或书籍时,避免意外透露剧情要点,保护那些尚未观看的用户不被剧透。
这项功能不仅在用户体验方面是一个贴心的改进,同时也有助于Meta平台发展,因为它鼓励用户就流行文化话题进行更多讨论,而无需担心剧透他人。
Meta在新闻稿中表示:"像《最后生还者》和《白莲花度假村》这样的热门剧集在播出期间经常在Threads上成为热门话题,这清楚地表明该应用的娱乐和流行文化爱好者社区正在不断壮大。"
剧透隐藏功能在其他情况下也很实用,比如模糊处理那些虽然不违规但可能让某些用户感到不适的文本或图片内容。(比如我那位朋友总是分享飞盘比赛后的#瘀伤观察更新)
作为目前正在测试中的功能,剧透隐藏文本/图片尚未向所有用户开放。对于已经获得该功能的用户,可以在发布前先选中文本或图片,然后从弹出菜单中选择"标记为剧透"来使用此功能。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。