至顶网软件频道消息: 对于那些想知道微软在今年早些时候买下GitHub之后会对Visual Studio Team Services(VSTS)做什么的人来说,答案来了。微软正在将VSTS“演变”为一系列的Azure DevOps服务。
VSTS是微软在代码开发和部署协作方面的服务。它包括用于源代码控制的Git存储库、构建和发布管理支持、规划和跟踪工作的工具、测试工具、对Slack和Trello等相关服务扩展的支持,以及其他各种Azure服务。
微软9月10日公布的、新的Azure DevOps计划将开始在几个月内将现有的VSTS用户迁移到Azure DevOps。VSTS的本地补充——即Team Foundation Server(TFS)用户将在下一个版本的TFS中变成Azure DevOps Server。TFS用户将继续根据Azure DevOps中的功能获得更新。
去年,微软推出了第一个使用“Azure DevOps”品牌的服务的预览版本——Azure DevOps Projects。这项服务让开发人员能够基于Azure App Service发布应用程序,并且从Azure门户的单一视图中监控这些应用程序。
微软正在研究和重新命名许多VSTS服务以创建Azure DevOps产品系列。这些服务适用于公共云和私有云,因此用户可以选择在自己的数据中心中运行它们。
今天宣布的产品有:
● AzurePipelines:CI / CD(持续集成/持续交付)服务,可以与任何语言、平台或云一起使用,并连接到GitHub或任何其他的Git存储库。(微软在博客文章中写道:“如果你想使用Azure Pipelines从GitHub中的repo构建和测试节点(Node)服务,并将其部署到AWS中的容器里,那就去吧。”)
● Azure Boards:使用Kanban面板、backlogs、团队面板和报告跟踪工作。
● Azure Artifacts:来自公共和私有来源的Maven、npm和NuGet包。
● AzureRepos:云托管的私有Git repos。
● Acean测试计划(Azure Test Plans):计划的及探索性测试解决方案。
VSTS目前包括CI/CD、Boards、包管理、Git集成和测试以及一系列其他协作、管理和附加服务。
当微软宣布计划以75亿美元收购GitHub时,该公司的管理层很快宣称对GitHub的收购并不意味着VSTS的结束。
微软在宣布收购当天的博客文章中是这样表示的:
“有了GitHub的加入,VSTS和TFS变得更加强大。一些客户更喜欢简单的集成解决方案,其他客户希望逐步采用DevOps工具,组装定制解决方案。多年来,我们一直在为产品添加可扩展性和集成功能。今天,VSTS和TFS与GitHub集成都将继续深入下去。GitHub提供了一个出色的开发人员社交平台和版本控制系统,对于开发人员具有广泛的吸引力。VSTS提供了广泛的DevOps服务,可以扩展到最大的企业。团队可以在这两个世界中左右逢源,选择他们想要的东西。”
官方当时表示,VSTS将变得更加模块化,既可作为单一集成套件,也可作为一组单独的服务。
微软一直在打造TFS 2019,我现在假设它将被重新命名为Azure DevOps系列服务。根据从Windows团队在用Fluent设计语言所做的事情这条线索进行推断,该团队还在重新开发VSTS用户界面。
微软正在为那些构建开源项目的人免费提供Azure Pipelines。(他们可以免费获得无限的CI/CD分钟数和10个并行作业。)微软还为最多5个用户的小型团队免费提供Azure DevOps Services,10个用户的团队每月的使用费用为30美元。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。