ZDNet至顶网软件频道消息:Amazon Web Services在公有云服务领域仍然占据着绝对的统治地位——是“绝对”的“统治”地位。即使经历了微软与谷歌的大踏步前进,Gartner公司分析师Lydia Leong估计AWS本身所拥有的IaaS计算资源仍然能够达到其它十四家得到Gartner密切关注的云服务供应商总和的五倍。
即使如此,AWS的状况却称不上牢不可破。就算是最为忠实的支持者也必须承认,Amazon的资源在追踪与监控方面表现得实在有些笨拙。今年三月出席谷歌云计算大会的与会者中有不少AWS用户,他们高度关注谷歌一直以来采用的用量计费模式——该模式能够在满足特定使用标准后自动计算折扣。
如此便利的处理方案自然比利用电子表格追踪AWS使用量胜出一筹,谷歌大会上坐在我旁边的一位开发人员这样评论道。他目前还没有投入谷歌云怀抱的打算,但他坦言谷歌云确实值得认真关注。
正如一位AWS观察家所言:“Amazon希望向用户出售一份巨无霸汉堡,但其计费方式却被分割成了面包、蕃茄酱、洋葱、酸黄瓜以及秘制酱料。很多人仅仅想直接买个汉堡,而对那些组成部分的具体价格不感兴趣。”
不少开发人员认为DigitalOcean提供的“水滴”一体式资源方案更加便捷易用,其将基于SSD的存储机制、内存、CPU计算核心以及数据传输整合起来并提供一套综合性价格区间,每月使用成本在5美元到80美元之间。在上周的Structure展会上,DigitalOcean公司CEO Ben Uretsky表示DigitalOcean从来没有推出过任何价格折扣方案。
AWS挑战:变复杂为简单
总结而言,任何坚持认为Amazon仍能保持王者地位的朋友恐怕都没有实际感受过Amazon云的恐怖。该公司随新一代t.2“突发式”EC2实例一同推出的CPU储蓄概念证明其将继续对自身服务作出调整。
在上周的一次采访中,Amazon公司数据科学总经理Matt Wood并没有对未来的自动化发展计划作出任何评论,但他指出CPU储蓄概念(显示在客户的CloudWatch控制台当中)的设计目标之一在于帮助使用者摆脱自行计算使用量的难题。
AWS宣传人士Jeff Barr在博文中写道:
“大家应对突发性资源需求的能力源自‘CPU储蓄’概念,也就是说各位可以把平稳阶段剩余的资源储蓄下来、并在负载强度较高时拿出来使用。大家可以为实例设定适度的规模与成本,同时又能继续利用储备资源在面对峰值计算能力需求时顺利加以应对。”
因此Amazon很清楚其需要在服务方案中引入更多自动化与易用性特质,但其面前的发展道路仍然相当漫长。最新t.2实例的推出甚至让复杂性更上一层楼,RightScale公司首席云架构师Brian Adler指出——这是一家为多种云环境提供管理与监控工具的厂商。
在一篇博文中,Adler写道:
“虽然新的t2.small实例在使用成本上比m1.small实例低出40%,但m1.small实例当中保存存储资源、而新的t2实例则并不提供。除此之外,t2家族还一贯采用共享式CPU模式。举例来说,作为基准配置,t2.small实例仅仅为用户提供单一CPU计算核心资源的20%。”
RightScale公司作出的小型AWS EC2实例比较结果。其中ECU为EC2的基本计算单元。
此外,Adler还补充称:
“尽管t2服务家族拥有1到2个虚拟CPU,用户仍然需要共享这些虚拟CPU、因而只能使用其中的一部分计算能力。AWS还提供一套ECU指标(即EC2计算单元),用于描述不同实例类型之间的相关处理能力。但是在t2实例这边,其公布的ECU评分由于存在突发式机制而被设定为‘变量’,这导致用户很难将其与其它实例类型进行直观比较。”
我们希望Amazon能够在服务当中引入更多自动化机制,从而在未来进一步简化用户的使用体验。本周四于纽约举行的AWS峰会就是个很好的起点——就算此次活动没有相关新消息放出,相信将于今年十一月召开的AWS Re:Invent大会也将给我们带来惊喜。
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里巴巴联合浙江大学开发的OmniThink框架让AI学会像人类一样慢思考写作。通过信息树和概念池的双重架构,系统能够动态检索信息、持续反思,突破了传统AI写作内容浅薄重复的局限。实验显示该方法在文章质量各维度均显著超越现有最强基线,知识密度提升明显,为长文本生成研究开辟了新方向。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
腾讯混元3D 2.0是一个革命性的3D生成系统,能够从单张图片生成高质量的带纹理3D模型。该系统包含形状生成模块Hunyuan3D-DiT和纹理合成模块Hunyuan3D-Paint,采用创新的重要性采样和多视角一致性技术,在多项评估指标上超越现有技术,并提供用户友好的制作平台。作为开源项目,它将大大降低3D内容创作门槛,推动3D技术的普及应用。