本周,Foodnoms迎来了一次重大更新,完全革新了快捷指令(Shortcuts)集成功能。
Foodnoms的最新版本带来了横跨八个不同类别的44个新快捷指令操作。这包括记录食物、追踪和修改目标、创建和管理餐食等功能的操作。
在宣布更新的博客文章中,Foodnoms开发者Ryan Ashcraft表示,目标是"创造一种无与伦比的自动化体验,使营养追踪比以往更加便捷和灵活。"
"我们已经为这次更新努力了数月,不断完善细节并推动当前API所能实现的边界。我们的目标是创造一种无与伦比的自动化体验,使营养追踪比以往更加便捷和灵活。我们很高兴今天终于能够向您提供这一功能。"
此外,Foodnoms更新还包括九个新的应用快捷指令,可通过快捷指令应用、Spotlight和Siri访问:
Foodnoms还与大家最喜爱的快捷指令专家Matthew Cassinelli合作,为Foodnoms用户创建了七个预构建的快捷指令。您可以在Foodnoms网站上查看这些快捷指令。
最后,正如Ryan所解释的,这次Foodnoms的更新确保了应用"为Apple Intelligence做好了未来准备"。
您可以在Foodnoms网站上了解更多关于今天更新的信息,还可以观看几个新快捷指令功能的实际应用示例。该应用可在App Store下载。
好文章,需要你的鼓励
Y Combinator合伙人Ankit Gupta与Anthropic预训练负责人Nick Joseph最近进行了一次深度对话。
微软研究院提出潜在分区网络(LZN),首次实现生成建模、表示学习和分类任务的真正统一。该框架通过共享高斯潜在空间和创新的潜在对齐机制,让原本独立的AI任务协同工作。实验显示LZN不仅能增强现有模型性能,还能独立完成各类任务,多任务联合训练效果更是超越单独训练。这项研究为构建下一代通用AI系统提供了新的架构思路。
9月13日的PEC 2025 AI创新者大会暨第二届提示工程峰会上,“年度提问二:新工作时代:AI工作流由谁主导?”从企业实践到技术实现、从业务落地到战略决策,展开了一场高密度的思想碰撞与经验分享,将AI工作流背后的难题和解决路径彻底揭开。
上海AI实验室开发的VLAC模型让机器人首次具备真实世界自主学习能力。该系统如同给机器人配备智能导师,能实时评估动作效果并从中学习。在四个操作任务测试中,机器人成功率从30%提升至90%,仅需200次练习。技术结合视觉、语言理解和动作生成,支持跨场景适应和人机协作,为家庭服务、医疗护理等领域应用奠定基础。