微软最近公布了9月底发布的年度Ignite IT Pro会议的会议清单,提到了SQL Server的下一个版本、Surface Hub 2和LTE 版本的Surface Go,Intune和Windows Autopilot的下一步计划,以及Windows Server 2019和新的远程桌面服务,以及更多其他内容,至少给我们了一些暗示。
通过翻看目前列出的623场Ignite活动,发现了一些值得注意的事情。
去年,微软在Ignite大会上突出宣传了其人工智能、智能前沿和未来量子计算技术。在2018年3月份,微软正在着重宣传量子计算、混合现实和人工智能,这些领域将成为今年Ignite大会的主要话题。
但是,至少从列出的会议安排看,议程似乎更多地建立在产品现实上。
目前,列表上没有一场量子计算的活动。只有两个关于混合现实的活动,其中一个主题是“Visio Immersive”,这听起来很像微软用SharePoint Spaces做的事情。
人工智能仍然很重要,列表上有大约不到100场活动以某种方式涉及到了人工智能。我们想知道微软是否会在Ignite大会上推出“AI Accelerate Kit”,微软在Inspire大会上告诉合作伙伴将于十月份推出,包含了人工智能用例、最佳实践和“Ethical AI”指引。
与去年一样,微软将重点关注Microsoft 365、其捆绑的Windows 10Office 365和Intune安全/管理技术。此外,在今年的Ignite大会上,还会有很多关于Dynamics 365 CRM和ERP内容,这是有意义的,因为在十月份微软的Dynamics产品套件的下一个功能更新将推出。
今年,也会有一些非典型(但受欢迎)的开发人员内容。ASP.NET、Visual Studio Code和Visual Studio 2017、Node.js以及大量的容器的活动都列在议程当中。有一些关于Progressive Web Apps的活动以及更多侧重MSIX的活动,MSIX是微软正在推出新的Windows 10应用程序打包技术。
目录中列出的活动中,有115场活动涉及到SQL Server(包括Azure SQL)。有迹象表明微软将推出SQL Server 2017的继任者——该产品的代码代号为“Aris”,它目前正在进行私人社区技术预览测试。(感谢Twitter上的The Walking Cat提供了Aris这个代码代号。)
一场活动的介绍是这样描述的:“了解SQL Server的路线图和新功能,包括智能查询处理、数据虚拟化、关键任务安全和HADR的新功能,以及Linux和Docker容器的新场景。”
在硬件方面,微软正在向与会者宣传“能够满足Surface系列最新成员——Surface Hub 2和Surface Go”的能力。几天前,列表上有一场名为“LTE世界中的Surface”活动(之后似乎已经消失了)。我一度认为微软可能会在今年秋天在Ignite大会上展示LTE版本的Surface Go,但也许官方已经决定推迟到另一个时间/活动。微软今年早些时候推出的Surface Hub 2将于今年秋季提供给测试者,并将于2019年上市。
最近,微软向测试人员提供了一个名为“Windows 10 for Remote Sessions”的Windows 10新SKU的早期版本。Ignite上有一个关于“Windows虚拟化中的新功能和下一步”的活动,可能会提供更多详细信息。
该活动的介绍称:“参加本活动,了解远程桌面服务(RDS)的最新改进,它使您能够托管远程用户可访问的桌面或应用程序。”
Windows Server 2019,微软Windows Server的下一个主要版本,也将成为Ignite大会上的一个热门话题,这是有道理的,因为其将于今年秋季开始推出(可能在10月份左右)。
微软的Ignite大会将于9月24日至28日在奥兰多举行。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。