ZD至顶网软件频道消息:6月13日,微软收购了社交网络供应商LinkedIn,这是微软历史上最大的一宗收购。什么促使微软做出了这样的决定?
推论是:都是为了数据。
让我们说得更详细一些:这是为了未来同Microsoft Office 365, Dynamics CRM/ERP以及广告产品和相关服务可能的协同。
微软发布的幻灯片描述了两个公司未来合作的场景,其中强调了管理层认为这次收购是连接“世界顶级专业云”以及“专业社交网络”的举措。
微软和LinkedIn都已分别规划了自己的蓝图。微软方面描绘的是一个集各种信息于一体的大集合,其中包括:联系人,信息,日历项以及文件。LinkedIn方面则更关心就业,同事,学习,规划以及招聘录用的信息。
重点在于两个公司的规划之间重合部分比较少。这个特点让这次收购比微软当年收购Slack更有意义,因为微软在功能和技术方面与Slack有很大一部分重合。微软高管坚信把这两块业务结合起来会带来奇迹。
该公司强调了微软的LinkedIn单元将会以“让专业人士更有效率”的理念运行。
微软指望LinkedIn能够有助于合并用户跨应用程序及服务的档案数据;合并将能够把专业的新闻同用户的联系网络、行业和职业联系在一起;PPT上显示了同柯塔娜更多可能的结合点。
微软的高管们设想的一些潜在的场景包括Dynamics CRM(以及非微软CRM系统)将有更好的前景和客户信息以及整体性地提高Office 365、Dynamics CRM和ERP的知识管理能力。社会化学习是另一个LinkedIn,及其Lynda.com培训功能,能够发挥作用的潜在的领域,它将对微软围绕着认证和教育布局的产品线形成补充。
微软相信,Bing也可以从同LinkedIn的结合中获益,成为“最佳专业人士搜索引擎”。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。