ZDNet至顶网软件频道消息:据《彭博商业周刊》报道,美国卡罗莱纳州的医疗中心试图利用大数据的优势,在病人发病之前提供医疗方案。
美国医疗高科技可提前预测谁会生病(图片来自bizjournals)
美国医疗服务提供商CarolinasHealthCare在卡罗莱纳州拥有多家医疗机构,他们正在购买病人的消费数据和其他信息,将大数据纳入预测模型,对病人进行风险评估,以提前应对任何健康问题。据了解,CarolinasHealthCare关注的数据包括病人的购物历史等信息,例如可以通过了解其是否购买过香烟等习惯,推断出该病人被紧急送往抢救室的几率。
未来两年时间内,CarolinasHealthCare将定期向医疗专业人士提供评估分数,并且利用这些数据完成更多的项目。对于美国的保险公司来说,掌握上述数据将能够积极防范某些医疗问题,从而节约成本,而医院也可以辨别出病人选择急诊的几率。
虽然这种预判式治疗方案很智能,不过也招来了公众对隐私问题的担忧。卡罗莱纳州医疗分析临床总监迈克尔·杜林表示,在数据提供者与医院的协议下,卡罗莱纳州医疗可以与医生共享病人的风险评估数据,但是连锁医院不允许泄漏数据细节。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。