至顶网软件频道消息:谷歌正在与企业移动管理公司MobileIron合作,建立一个白标签云服务市场,以便与来自云竞争对手的类似产品进行竞争。
两家公司宣布将把谷歌云(Google Cloud)的Orbitera商务平台与MobileIron的应用程序发行、安全和分析功能结合起来。
最终的结果是成为一个允许经销商、企业、原始设备制造商和独立软件开发商购买云服务并将其分发给客户和员工的平台,而且会注重企业数据安全。
主要的平台功能包括:
定制的服务包:运营商可以根据客户细分创建服务包。
定制品牌:这个市场中的运营商和客户都可以定制品牌。
统一计费:按月针对设备、数据、语音和第三方云服务统一计费。
安全云访问:安全地访问云服务。
使用分析:可跟踪员工正在使用的服务。
谷歌在一篇主题博客文章中写道:“和MobileIron合作,我们的目标是帮助企业更轻松快捷地创建一个集成市场,在这个市场中,他们的授权客户和合作伙伴可以访问应用程序,简化了计费、应用程序授权和身份验证,还能够使用谷歌云平台(Google Cloud Platform)作为后端计算和存储服务。”
好文章,需要你的鼓励
AI正在彻底改写创业规则:YC最新数据显示,10人团队12个月达成千万美元营收已成常态,"氛围编程"让技术不再是瓶颈,而创始人能否深度理解客户需求成为成败关键。当6人团队就能创造八位数收入时,我们看到的不仅是速度革命,更是对公司本质的重新定义。
这项由阿伯丁大学和格勒诺布尔阿尔卑斯大学研究者联合完成的研究揭示了大语言模型处理日期时的关键问题:现代分词器常将日期分割成无意义的碎片,如"20250312"被切分为"202"、"503"、"12",这严重影响时间推理能力。研究提出了日期碎片化率指标,创建了DATEAUGBENCH测试集,并通过内部机制分析发现,大型模型能在早期层快速"修复"碎片化日期,但其推理路径与人类理解方式显著不同,这解释了模型在处理非标准日期时的准确率下降。
MUG-Eval是KAIST和Trillion Labs联合开发的创新多语言评估框架,通过让语言模型在目标语言中进行自我对话来评估其生成能力。该方法独特之处在于不依赖语言特定工具或人工标注数据,而是通过任务完成率间接衡量语言能力。研究团队测试了8种顶级语言模型在30种语言上的表现,发现其结果与传统评估方法高度一致(相关系数>0.75)。MUG-Eval揭示了模型在低资源语言上表现显著落后,并发现英语并非评估低资源语言的最佳替代。该框架理论上支持2,102种语言,为真正包容的AI评估提供了新途径。
浙江大学研究团队开发的"自制动力训练"(Self-Braking Tuning,SBT)方法解决了大型语言模型在推理过程中的过度思考问题。该方法不依赖外部干预,而是培养模型自主识别冗余推理并适时终止的能力。研究者通过分析推理效率比率和过度思考标记比率,构建了两种数据策略:SBT-E(精确版)和SBT-D(动态版)。实验结果表明,经过训练的模型在多个数学基准测试上保持原有准确率的同时,将标记消耗减少了30%到60%,显著提高了推理效率。这项创新使AI系统能更像人类一样有效思考,为资源受限环境下的AI部署提供了新解决方案。