ZDNet至顶网软件频道消息: 直到上个月,微软Office团队的组织结构还是和以前一样的:分为Office客户端和Office服务器/服务器产品线。
企业副总裁Jeff Teper负责Office服务器和服务;企业副总裁Kirk Koenigsbauer负责Office客户端和服务。作为去年夏季进行的“一个微软”重组中,这两大块业务都被划归到执行副总裁陆奇的应用和服务(ASG)部门下。
在2014年2月,陆奇罗列了一份内部备忘录,记录了他部门下多个团队的职责,包括Bing、MSN、广告和Office。
上个月,陆奇采取措施进一步细化了Office这块业务,我的知情人这样透露。陆奇围绕着一些关键跨平台群组对Office业务进行了重组,而不是划分出客户端/产品线来加强Office。
彭博社在6月2日报道,Office服务器业务负责人Teper已经转向了一个新的角色,现在负责企业并购/战略。(我听说Koenigsbauer仍然在Office客户端团队工作。)但是这并不是陆奇部门最近重组中的唯一变化。
取代Teper,至少部分取代他的是Rajesh Jha,我听说。截至到5月中旬,Jha的头衔是Office服务和服务器企业副总裁(这是Teper以前的头衔)。Jha负责Office 365等产品,他还负责Exchange、Outlook以及Outlook.com,我的联系人这样表示。
Exchange/Outlook/Outlook.com的结合是新的Office业务中心之一。其他部分包括OneDrive/SharePoint Online综合业务,由企业副总裁Chris Jones负责,Skype/Lync团队,由企业副总裁Gurdeep Singh Pall负责。
通过这些综合部门,至少是理论上的,就没有软件和服务的区分了,也没有消费级和企业级的区分。专注于云存储的团队都可以坐到一起。所有专注于电子邮件的团队可以坐到一起,同理还有专注于统一通信的。
然后接下来,就是OneNote了。
微软一直反复试图让OneNote成为它的招牌产品之一。OneNote功能丰富且跨多个平台,可以运行在iOS、Mac OS X、Android、Windows、Windows 8、Windows Phone等等。但对普通人来说要想快速上手并且高效使用起来,还是有些难度的。
尽管如此,微软管理层坚定地相信OneNote仍然可以成长为微软的主打产品之一。这就是为什么微软在自己的Surface Pro 3中包含了一个“打开OneNote”的按钮。
尽管OneNote仍然是Office套件产品的一部分,但它也是独立的一项业务,与其他三个跨平台支柱是平起平坐的,包括OneDrive/SharePoint;Exchange/Outlook;Skype/Lync,据我的知情人这样表示。OneNote以前是Office内和Word以及Publisher一样的创作小组,现在它被设置为一个独立运作的单元,直接向陆奇汇报。
这四个新的跨平台群组(OneNote、Exchange/Outlook、OneDrive/SharePoint、Skype/Lync)相比Office本身,将成为陆奇和微软未来要投下更多重注的地方。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。