至顶网软件频道消息:尽管现在仍然有很多未知数,但现在有了更多的关于微软的高管们将在Build开发者大会上强调哪些内容的消息。
4月25日,微软公布了该公司为期三天的Build 2018开发者大会的数百场活动的标题和摘要,这次大会将于5月7日开始。(注册用户必须登录到Build网站才能查看活动列表。) 3月下旬,微软透露了几十个Build 2018活动,这些活动聚焦在物联网、区块链和数据科学等方面。
虽然每个与会者都有他/她自己的专注领域,但我发现现在列出的一些条目很有意思。
第1天首先是由微软首席执行官萨提亚.纳德拉(Satya Nadella)进行的2.5小时“愿景”主题演讲,紧接着是一个关于智能云和技术前沿的1.5小时技术主题演讲,由执行副总裁Scott Guthrie主持。
第二天,由企业副总裁Joe Belfiore进行主题为“微软365应用程序开发(Microsoft 365 Application Development)”的开场主题演讲。该演讲主要是聚焦在Microsoft 365——微软将Windows 10、Office 365和Enterprise Mobility + Security捆绑而成的产品包——而非只针对Windows,这一事实反映出了微软最近的重组,在此次重组中,Belfiore承担了一个新的任务,负责Microsoft 365。
尽管微软最近的重组计划将Windows和设备部门拆分为两部分,但在尚未完全透露的Build大会活动列表中仍有97场活动提到了Windows。微软最近推出的MSIX应用程序打包计划也被多个活动主题覆盖,Windows 10 XAML框架和Progressive Web Apps也是如此,微软将通过Windows 10 Redstone 4版本支持它。
微软的官员们之前曾经表示,预计Build大会将重点关注人工智能、物联网和量子计算等新的实验领域。有很多活动会专门针对微软的各种数据库平台,其中有几个提到了机器人(包括“微软Teams的企业呼叫和会议机器人”),还有一些专用于混合/增强现实。
Microsoft Graph活动看起来很有趣,其中一个专注于使用Microsoft Graph API(应用程序编程接口)和Xamarin构建移动应用程序,另一个则关注如何使用Graph API构建安全应用程序。对于那些希望温故知新的人来说,Microsoft Graph API就是集中式的API,旨在帮助创建更多语境信息,以便让应用更加智能并更具粘性。
微软计划用流媒体直播一些Build大会的活动,并根据需要公开其他许多活动。但是,被标记为“偷看(Sneak Peeks)”的活动主要集中会是微软从参与者那里获得反馈,并且不太可能被没有参加的人员看到的活动。
5月8日的“AR / VR / MR设备用户界面平台”( UI platform for AR/VR/MR devices)分会场活动就是一场标记为“偷看”活动,并指出微软正在“考虑改变UWP平台,以便为AR / VR / MR设备建立身临其境的体验”,包括在2D设备上创建AR。 5月8日有一个“Windows 10 XAML框架的开放源代码和向下兼容性”,也被标记为“偷看”的活动,这表明微软正在考虑将Windows 10 XAML / Fluent UI框架的部分内容作为开源代码发布。 5月9日的“为Windows 10 XAML应用程序提供云支持的用户界面”(Bringing cloud powered UI to Windows 10 XAML applications)活动也被标记为“偷看”,介绍了ReactNative如何融入微软开发人员的故事。
(非)著名的Raymond Chen是5月9日题为“在Windows 10上开发套件”分场活动的主持人之一,任何/所有的Windows 10可能都会对这个主题感兴趣。同样在5月9日,在题为“微软内部流畅设计系统:Office” (Fluent Design System Inside of Microsoft: Office)的活动中,将详细介绍Windows和Office是如何协同工作的,将“Office的生产力专业知识带入Fluent设计语言”。
微软今年Build大会的一大主题是说服开发人员相信,他们需要理解,以便将人工智能技术融入他们的应用之中。在Build大会上,会有几个专题讨论这个话题,其中包括5月9日关于“开发人员在构建智能应用程序方面需要知道的十件事”活动,以及“对话式人工智能:构建机器人的最佳实践”,它将为使用Bot Builder v4软件开发工具包,认知服务等提供指南。
Build 2018开发者大会将于5月7日至5月9日在西雅图市举行。它举办的时间和Google I/O开发者大会的时间正好重叠。
好文章,需要你的鼓励
NAVER和KAIST研究团队发现,先进AI模型在数学题自我修正方面存在严重缺陷。他们创建的MMRefine基准测试揭示,即使是GPT-4O等顶级模型也只能成功修正约23%的错误答案,而且经常将正确答案改错。研究发现不同模型在处理六种错误类型时表现差异巨大,特别是小型模型在空间推理修正上竟然超越了大型模型,颠覆了"越大越好"的认知。
牛津大学研究发现,尽管大语言模型在医学考试中表现出色,但在实际应用中效果大打折扣。研究显示,LLM直接测试时能94.9%准确识别病症,但人类使用LLM诊断时准确率仅34.5%,甚至低于不使用AI的对照组。问题源于用户提供信息不完整、LLM理解偏差等人机交互问题。专家指出,仅凭非交互式基准测试评估LLM存在误导性,需要真实的人机交互测试才能准确评估AI系统的实际性能。
上海交通大学研究团队开发出革命性AI图像检测系统,不仅能以98.1%准确率识别AI生成的假图片,更能像人类专家一样用自然语言详细解释判断依据并标出具体问题区域。该系统通过创新的多模态大语言模型训练方法,实现了从"黑盒判断"到"透明分析"的突破,为新闻、法律等领域提供可信赖的智能辅助工具。