Google的Med-PaLM 2是一个用于回答医疗信息问题的AI工具,自4月以来,梅奥诊所等研究医院一直在进行测试。Med-PaLM 2是今年五月在Google I/O上发布的,该工具建立在PaLM 2之上,PaLM 2是支撑Google Bard的语言模型。
《华尔街日报》近日报道称,他们看到的一封内部邮件显示,Google相信更新后的模型在医生资源相对有限的国家中可能特别有用。Med-PaLM 2是在一套精选的医学专家演示中进行训练的,Google相信这将使其在医疗对话中比Bard、Bing和ChatGPT这样的通用聊天机器人更出色。
该报告还提到了Google在五月公开的一项研究,该研究表明Med-PaLM 2仍然存在一些我们已经习惯于在大型语言模型中看到的准确性问题。医生们发现Google的Med-PaLM和Med-PalM 2提供的答案,与其他医生相比,有更多的不准确性和无关紧要的信息。
尽管如此,在几乎所有其他的指标上,如显示推理的证据、得到共识的答案,Med-PaLM 2的表现几乎和实际的医生一样好。
《华尔街日报》称,测试Med-PaLM 2的客户将控制他们的数据,这些数据将被加密,Google无法访问。
根据Google高级研究总监Greg Corrado的说法,Med-PaLM 2仍处于早期阶段。Corrado说,虽然他不希望它成为自己家庭“医疗保健之旅”的一部分,但他相信Med-PaLM 2“占据了AI在医疗领域的重要位置,并将AI可以发挥的作用扩大了10倍”。
好文章,需要你的鼓励
工业升级的关键,或许在于智能本身。“工业+机器人”将成为通向下一阶段工业体系的核心抓手。——黄仁勋。
浙江大学等联合研究发现,AI强化学习效果取决于"模型-任务对齐"程度。当AI擅长某任务时,单样本训练、错误奖励等非常规方法也有效;但面对陌生任务时,这些方法失效,只有标准训练有用。研究团队通过大量实验证实,这种"舒适圈"现象比数据污染更能解释训练差异,为AI训练策略优化提供了新思路。
瑞士政府正式发布了自主研发的人工智能模型,该模型完全基于公共数据进行训练。这一举措标志着瑞士在AI技术自主化方面迈出重要一步,旨在减少对外国AI技术的依赖,同时确保数据安全和隐私保护。该模型的推出体现了瑞士对发展本土AI能力的战略重视。
巴赫切希尔大学研究团队通过对五种不同规模YOLO模型的量化鲁棒性测试发现,静态INT8量化虽能带来1.5-3.3倍速度提升,但会显著降低模型对噪音等图像损伤的抵抗能力。他们提出的混合校准策略仅在大型模型处理噪音时有限改善,揭示了效率与鲁棒性平衡的复杂挑战。