苹果公司和IBM推出了一系列新的集成化产品,旨在扩展双方现有的协议,把更多企业应用带入iOS设备中。
首先,苹果和IBM把各自的人工智能和机器学习技术连接起来,让企业级iOS应用变得更加智能化。双方还提供了一个新的开发者控制台,让Swift开发者可以利用IBM Cloud构建易于编码的应用。
在人工智能方面,IBM的Watson AI系统将与苹果的Core ML相结合,打造一款名为IBM Watson Services for Core ML的新产品。
该框架旨在帮助开发者创建能够从用户活动中学习、通过每次互动变得越来越聪明的企业应用。IBM Watson作为一组基于云的服务提供给客户,而Core ML则将机器学习带入苹果设备上的应用。
IBM表示,Watson Visual Recognition Service是一种基于数千个图像构建的视觉识别模型,也是这次集成推出的第一款可用模型,现在该模型可以导出到Core ML并在苹果设备上运行。最重要的是,开发者可以将经过训练的Core ML模型部署到iOS应用中,而无需任何代码或调用服务器。
至于开发者控制台,IBM表示这个控制台将为所有体验级别的开发者提供增强的分步指导,同时集成针对Swift优化的人工智能、数据和移动服务。
IBM首席执行官Ginny Rometty在拉斯维加斯举行的IBM Think大会主题演讲中表示:“这是一次巨大的整合,也是唯一一次。”
两家公司表示,可口可乐公司是第一家测试这个先进机器学习服务的企业,他们正在研究如何利用IBM Watson Service将人工智能应用于现场工作人员的原型,包括使用视觉识别、认知诊断和增强修复。
对于苹果而言,这次扩大与IBM的合作伙伴关系,与其致力于通过定制云应用让苹果设备吸引更多企业客户的目标是一致的。苹果和其他设备制造商面对智能手机和平板电脑的消费需求萎缩,也使得推动这些举措变得更加紧迫。
苹果公司产品营销副总裁Brian Croll表示:“我们的目标是帮助企业重新设计他们的工作方式。”
“Core ML让开发者可以轻松地将机器学习带入他们的应用,而无需成为这方面的专家。Core ML在本地运行模型,速度超快,同时可以保护隐私,因为敏感信息都保存在设备上。我们相信Core ML和Watson Services的结合,将有助于推动下一代智能企业应用的发展。”Croll这样说到。
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里巴巴联合浙江大学开发的OmniThink框架让AI学会像人类一样慢思考写作。通过信息树和概念池的双重架构,系统能够动态检索信息、持续反思,突破了传统AI写作内容浅薄重复的局限。实验显示该方法在文章质量各维度均显著超越现有最强基线,知识密度提升明显,为长文本生成研究开辟了新方向。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
腾讯混元3D 2.0是一个革命性的3D生成系统,能够从单张图片生成高质量的带纹理3D模型。该系统包含形状生成模块Hunyuan3D-DiT和纹理合成模块Hunyuan3D-Paint,采用创新的重要性采样和多视角一致性技术,在多项评估指标上超越现有技术,并提供用户友好的制作平台。作为开源项目,它将大大降低3D内容创作门槛,推动3D技术的普及应用。