至顶网软件频道消息:微软正在接受测试者对Azure Data Box数据传输设备进行测试。
根据微软上周关于预览计划的公告,Azure Data Box的重量为45磅,坚固耐用,能够防止篡改并易于管理。这意味着它能够帮助用户更快更安全地将数据移入Azure。
该设备支持对数据进行256位AES加密,在运输途中不需要外部包装,还可以插入客户网络并存储大约100 TB的数据。微软相关人士表示:客户可以“租用它,存满数据后返还——这就是Azure Portal跟踪的整个过程。”
那些有兴趣测试Azure Data Box的用户可以在这里注册。目前似乎还没有关于价格的信息。
微软已经提供了Azure导入/导出服务,通过将硬盘驱动器运送到Azure数据中心,将大量数据安全地传输到Azure存储。此外,其新的Data Box服务/设备更是一个关键性产品,类似于微软主要的云计算竞争对手提供的数据传输相关服务。
譬如,亚马逊在2009年推出的第一代AWS Snowball服务。并于2015年升级了数据传输模式和数据传输设备,随后又增加了更大的100TB数据传输设备和服务(AWS Snowball Edge)及其运输集装箱尺寸AWS Snowmobile——这是“Exabyte级别的数据传输服务”。
除此之外,谷歌今年也推出了自己的GTA数据传输设备。
微软上周在Ignite IT Pro会议期间发布了一些额外的Azure消息。该公司的相关人士表示,微软的Service Fabric on Linux 容器模式现在已经全面可用了。此外,微软针对Linux集群支持Ubuntu 16.04,还支持其他的Linux操作系统的支持,如Red Hat Enterprise Linux等地。
据了解,微软上周还推出了Azure File Sync的公开预览版。该产品主要是为了能够使Azure文件与客户的本地Windows服务器保持同步共享。
好文章,需要你的鼓励
随着AI广泛应用推动数据中心建设热潮,运营商面临可持续发展挑战。2024年底美国已建成或批准1240个数据中心,能耗激增引发争议。除能源问题外,服务器和GPU更新换代产生的电子废物同样严重。通过采用模块化可修复系统、AI驱动资产跟踪、标准化数据清理技术以及与认证ITAD合作伙伴合作,数据中心可实现循环经济模式,在确保数据安全的同时减少环境影响。
剑桥大学研究团队首次系统探索AI在多轮对话中的信心判断问题。研究发现当前AI系统在评估自己答案可靠性方面存在严重缺陷,容易被对话长度而非信息质量误导。团队提出P(SUFFICIENT)等新方法,但整体问题仍待解决。该研究为AI在医疗、法律等关键领域的安全应用提供重要指导,强调了开发更可信AI系统的紧迫性。
超大规模云数据中心是数字经济的支柱,2026年将继续保持核心地位。AWS、微软、谷歌、Meta、甲骨文和阿里巴巴等主要运营商正积极扩张以满足AI和云服务需求激增,预计2026年资本支出将超过6000亿美元。然而增长受到电力供应、设备交付和当地阻力制约。截至2025年末,全球运营中的超大规模数据中心达1297个,总容量预计在12个季度内翻倍。
威斯康星大学研究团队开发出Prithvi-CAFE洪水监测系统,通过"双视觉协作"机制解决了AI地理基础模型在洪水识别上的局限性。该系统巧妙融合全局理解和局部细节能力,在国际标准数据集上创造最佳成绩,参数效率提升93%,为全球洪水预警和防灾减灾提供了更准确可靠的技术方案。