ZD至顶网软件频道消息:将社交媒体使用与抑郁症联系起来的研究并不缺乏,但Facebook相信社交媒体也可用于促进心理健康。
今天,该公司发布了一些新的功能,旨在解决社交网络上的自杀问题。Facebook 在一篇博客文章中解释说,“Facebook处在一个独特的位置——通过在网站上的友情——帮助将一个陷入困境的人同可以支持他们的人联系在一起。” 该公司表示,“这是我们帮助在Facebook之上和Facebook之外建立安全社区的不懈努力的一部分。”
Facebook至少从2011年以来,一直允许用户报告含有自杀内容的帖子。2015年2月,该社交网络大大扩展了自杀预防工具,并开始向报告用户提供自杀热线和其他支持信息。该网站还使用户更容易接触到他们那些面临风险的朋友并提供帮助和支持。
现在,Facebook想用人工智能加强自杀预防功能。该公司今天公布,它将开始使用人工智能来发现可能有伤害自己的用户。
Facebook表示,它一直在开发能够使用模式识别来跟踪一些自杀风险因素的人工智能技术。如果人工智能发现有含自杀内容的帖子,则它会对该帖子做标记,让它对于其他用户变得更为突出。Facebook的社区运营团队(Community Operations)还将审查已被人工智能标记的帖子,并确定他们是否应为该用户提供自杀预防工具,即使实际上并没有人报告了该帖子。
Facebook的首席执行官马克.扎克伯格在他最近更新的Facebook使命陈述中对自杀进行了解释,他表示:“有一些可怕的悲剧事件——例如自杀,有一些还进行了现场直播——如果有人更早地意识到发生了什么并更快地报告的话,也许是可以被阻止的。”
扎克伯格补充表示,“人工智能可以帮助提供一种更好的方法。”
除了新的人工智能,Facebook还将让用户更容易与其危机支持合作伙伴沟通,其中包括Crisis Text Line、National Eating Disorder Association和National Suicide Prevention Lifeline等组织。 Facebook表示,它正在测试一个新的通信选项,将允许用户使用Facebook Messenger联系这些组织。
Facebook还将一些现有的自杀预防工具集成到Facebook Live中。用户现在将能够像举报常规帖子一样举报含有自杀内容的流媒体了,他们能够实时提供支持。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。