谷歌云计算服务走进了美国好莱坞,在洛杉矶开设了一个新的区域,并在今天宣布推出一项新存储服务。
谷歌已经宣布将在该地区为其Google Cloud Platform开放一个新区域(或物理位置),以更低的延迟提供更快的云服务。谷歌透露将于7月开始提供,作为Google Cloud在美国的第5个区域。目前Google Cloud已经有12个国际区域,并计划在香港、大阪和苏黎世开设更多区域。
此外,谷歌还宣布推出了一项新的云服务,用于管理需要访问共享文件的应用的文件存储。这是媒体和其他公司经常使用的存储类型,与其他两种云存储截然不同:块存储,如谷歌的Persistent Disk和AWS针对数据库和其他业务系统的Elastic Block Store,还有像Google Cloud Storage或者AWS S3这样的对象存储,用于多媒体、数据分析等。
谷歌新推出的Cloud Filestore将在7月以beta测试版发布,旨在用于如内容管理系统、网站托管和渲染农场等应用,网络化的计算机组用于为动画电影渲染计算机生成的图像。这些都要求对文件进行低延迟访问,以及高吞吐量处理大量元数据和非结构化富媒体内容。
谷歌公布了一些早期的服务用户,包括精品营销机构Jellyfish和面部识别平台ever.ai,此外还有石油和天然气勘探、电子设计自动化和其他领域,也特别强调了在渲染方面的应用。
由于渲染对计算和低延迟的严格要求,通常这些都是在本地计算机上完成的。但是如果所有设备每次要为一部电影花上几周或几个月的时间来处理的话,成本是非常高的。因此,云服务这种方式提供了一种潜在的低成本解决方案,能够根据需要快速扩展。
相比其他云提供商如AWS(提供Elastic File System,EFS)来说,谷歌是文件存储领域的后来者。但是Google Cloud Platform产品管理总监Dominic Preuss在接受采访时称,Cloud Filestore高级版本最高可提供30000 IOPS,“这超出了目前你使用的其他任何云服务”。
然而来自谷歌的另一款产品也加入了竞争:Transfer Appliance,用于将大量数据转移到Google Cloud(去年推出,现已在美国提供)。这是一款高容量物理服务器,用于传输超过20TB数据,以前上传这些数据可能需要一周多的时间。
但是,该设备的竞争对手有AWS在两年多前推出的Snowball,更不要说还有在2016年底推出的一个更大型的45英尺卡车设备了,以及IBM和Oracle的产品。
Preuss指出,谷歌的高端480TB设备要比其他厂商的设备大,而且他认为它的物理尺寸——可以装进标准的19英寸服务器机架——要比大型卡车“更有效”。一些早期的客户已经在使用这种设备了,包括Schmidt Ocean Institute、Eleven Inc、Airbus Defense和Space Geo。
当然,谷歌对好莱坞来说并不陌生。YouTube在大型娱乐和媒体方面稳步发展,在好莱坞西南部拥有大型设施,曾经是Hughes Aircraft于1940年建造Spruce Goose的机库,这可能是世界上最大的在线视频制作设备。
现在谷歌希望利用这些长期关系将自己的云产品带入其中。在这个市场中谷歌(把重点放在云和机器学习)将会向竞争对手发起挑战。尽管AWS拥有数百个客户,但至少从目前公开的数据来看,媒体和娱乐领域的客户并不是很多。
好文章,需要你的鼓励
Indeed通过云原生和数据驱动的数字化转型,为AI时代做好了准备。公司CIO Anthony Moisant表示,他们不仅在采用AI,更在构建一个智能代理公司,将人类智慧与机器智能相结合。公司已完成从本地服务器向AWS的迁移,建立了统一的数据湖架构,并基于Apache Iceberg构建数据湖仓。目前已有4个Salesforce代理投入生产,6个内部智能产品上线,另有20多个代理正在开发中。
微软研究院团队开发的BitNet v2技术实现了AI大语言模型的重大突破,通过创新的H-BitLinear模块和哈达玛变换技术,成功将模型激活精度从8位降低到4位,同时保持了几乎相同的性能表现。这项技术显著提高了模型的计算效率和硬件利用率,为AI模型在边缘设备和批量推理场景中的部署开辟了新道路,有望推动AI技术的更广泛普及应用。
AI第四代生成式AI标志着技术范式转变,正在用户体验、应用自动化和平台三个层面为企业带来重大价值和颠覆。企业应关注商业价值而非技术本身,需要从业务问题出发量化价值。未来五年将在认知任务处理上取得巨大进展,但需要创新思维应对劳动力转型。六大颠覆性支柱包括下一代AI能力、数据平台、机器人技术、量子计算、企业用户体验和云架构等。
伊利诺伊大学香槟分校研究团队提出ToolRL方法,通过精细的奖励机制训练大语言模型正确使用工具。该方法突破传统监督微调局限,采用格式奖励和正确性奖励相结合的评估体系,在多个基准测试中相比基础模型提升17%,相比传统方法提升15%,显著改善了模型的工具使用能力和泛化性能。