法律行业历来对采用颠覆性技术持谨慎态度,如今却迎来了 AI 驱动的转折点。LexisNexis Legal & Professional 正专注于这一转型,利用人工智能重新定义律师的日常工作方式。他们最新推出的 Protégé,一款生成式且具有主动性的 AI 法律助手,旨在为全球律所提供高效、精准和个性化的法律工作流程。
LexisNexis Legal & Professional 执行副总裁兼技术总监 Jeff Reihl 表示,向 AI 转型是行业的自然演进。"律师的工作天然适合生成式 AI:起草文件、通过对话式搜索完善问题等。" Reihl 指出,"AI 非常适合法律工作。"
LexisNexis 的独特价值主张在于其专有内容和技术基础设施。该公司使用检索增强生成 (RAG) 平台,将其大语言模型植根于超过 1600 亿份文档的庞大数据库中,每天新增 160 万条记录。这种方法确保了法律工作所需的准确性、相关性、可验证性和时效性。
"我们的一个关键优势是专有内容,"Reihl 解释道。"我们拥有无与伦比的资源库——超过 1600 亿份文档和记录,每天从 50,000 多个来源新增 160 万份文档。我们采用多模型方法,为每个法律用例选择最佳的 AI 模型,并使用专有的 RAG 平台,将答案建立在我们的法律内容库基础上,以提供高质量的答案和有效的引用。此外,我们还进行模型微调,以确保领域特定、个性化大语言模型的高性能表现。"
该公司与 AWS、Microsoft、Anthropic、Mistral 和 OpenAI 等行业领导者密切合作,开发专门针对法律领域的 AI 模型,并针对每个用例进行精细调整。
Protégé 的个性化服务
Protégé 不仅仅是响应请求,还能预测律师的下一步行动。"Protégé 的愿景是个性化 AI 体验,"Reihl 说。"每个律师的工作方式都不尽相同。Protégé 不会让终端用户承担负担,而是会引导用户完成整个工作流程,并预测他们想要做什么。"
据该公司称,早期使用者已经报告了令人印象深刻的结果。LexisNexis 表示,使用 Protégé 的律师事务所不仅在生产效率上有显著提升,在法律研究和文件起草的质量与全面性方面也有明显改善。对 LexisNexis 而言,AI 的优势不仅仅在于效率,还旨在重塑律师的工作方式。
克服行业怀疑
法律专业人士长期以来对 AI 持谨慎态度,部分原因是早期版本虽被过度炒作却表现平平。LexisNexis 通过强调安全性、合规性和具有强大人工监督的伦理 AI 开发来应对这些障碍。
Reihl 强调:"由于公共大语言模型存在安全性、保密性、幻觉和时效性风险,信任度仍然是一个障碍——这些都是律师面临的严重问题。我们通过重视安全性、最高质量的答案和性能的 AI 开发方法来解决这些问题。我们的方法包括企业级安全性、合规性和隐私保护,以及依赖人工监督的负责任 AI 开发流程。"
为了解决 AI 的伦理和负责任使用问题,LexisNexis Legal & Professional 作为 RELX 的一部分,根据 RELX 负责任 AI 原则构建其解决方案。
等待的代价
Reihl 向仍在犹豫是否采用 AI 的律所传达了明确信息:"等待采用 AI 意味着落后,因为你的效率将不如已经使用这些工具的竞争对手或同行。现在就是投资 AI 的时机。"
确实,其他行业提供了警示案例。柯达未能适应数字摄影、百视达忽视流媒体服务,这些对变革性技术采用缓慢的企业往往失去竞争优势。
其他传统企业可以从 LexisNexis 的方法中吸取经验:优先考虑客户需求,采用实验文化,确保组织敏捷性以快速采用新兴技术。Reihl 建议:"你可以从尝试一些用例开始,在了解好处的过程中逐步扩大范围。"
法律的未来:人机协作
展望未来五年,Reihl 设想每位律师都将受益于类似 Protégé 的个性化 AI 助手。"我们的愿景是,全球每位法律专业人士都将拥有一个高度个性化的 AI 助手,"他解释道。"自主代理将在后台工作,即使在法律专业人士不主动工作时也能为他们提供所需的额外信息。"
尽管 AI 的作用广泛,但 Reihl 强调它不会取代法律的根本人性。"法律本质上是一个人性化的系统,建立在价值观、解释和公众信任的基础上。AI 可以协助法律专业人士,但不会取代正义核心中的人类责任。"
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。