查看原文
其他

法律 + AI 的快与慢:3 条 GPT 产品使用建议

法嘉LAWPLUS
2024-09-05

ChatGPT横空出世后,关于AI是否会取代人类的讨论层出不穷。为什么GPT会频频出错?法律人该继续和AI当朋友还是保持警惕?


本文作者不仅分析了上述争议话题,还给法律人提供了非常实用的AI产品挑选和使用建议,希望能给各位一些启发。


自从去年ChatGPT推出并席卷全球,很多人的第一反应是律师会被AI替代。随后,当GPT的相关产品被更多人使用,发现了GPT无法解决的幻觉问题后,又一致地认为:虽然律师不会被替代,但其最理所应当的垂直应用也应该是法律行业莫属。再后来,国内、国外不少法律科技公司都推出了以大语言模型为基础的法律应用产品。



然而,大语言模型(AI)真的能让律师工作更快、更好吗?


有限提升,至少目前是如此。


前段时间,我们公司帮助一家国内顶级律所完成了一款法律GPT产品的试用及测试。结果,其准确性与大家的预期有一定差距,律师们颇感意外。原本以为GPT可以帮助律师提高效率、直接生成答案,现在看来似乎不行。


这是为什么呢?


1. 不准确就是GPT产品的天然属性


GPT的生成规则,是基于概率分析的结果得出,不管如何微调,总是有存在不准确的可能性。这也是为什么同一个问题,用不同的账户测试返回的结果不尽相同的原因(注意,不是一个账户前后问两次)。虽然相信大模型不断迭代一定会改进准确率,但总难以根除“不准确”的问题。


2. 底层数据不够理想


现在的大语言模型都是抓取公开网络信息,并进行训练。虽然具有通用语义理解、推理能力,但并非针对法律行业,因而,就法律问题的理解与逻辑推理也有欠缺。另外,尽管现在有针对法律行业的GPT产品,但很多基于法律公有数据库,而非各律所、律师的私有数据库,结果也难以达到律师们的预期。


3. 微调未必能彻底解决问题


虽然很多法律GPT产品都针对专有数据库进行微调,以使产品更准确、更优先地使用法律数据,但就我看到过的国内外产品而言,很多微调的结果要么是偏向搜索的结果,要么是过于谨慎的结果。偏向搜索的结果就是更智能的搜索结果、但往往没有生成针对问题的答案(即没有特别深入的推理、总结或整合内容)。过于谨慎的结果就是会出现“无法回答”或“请向律师咨询”等提示。



这么说,是不是律师们该放弃使用GPT产品了呢?


当然不是!


GPT开创了一种不同以往的信息处理范式,其产品的核心价值并不是提供准确的信息。


记得之前Sam Altman在采访中提到,第一,他最喜欢的ChatGPT功能是总结;第二,ChatGPT不是用来搜索,要搜索可以用搜索引擎。这两点可能会让很多人颇感意外,但作为ChatGPT的亲生父亲,说出这两个观点是有道理。


Sam Altman - OpenAI CEO


首先,虽然GPT的工作方式不能保证其结果的准确性,但对于长篇大论中多次重复的单词与要点,是较容易计算与推理的,不太容易跑偏。说到这里插一句,大家还记不记得,每年国务院政府工作报告,记者都会引述并统计“报告中某个词提到了多少次”,以显示政府对该相关话题的重视。


其次,搜索引擎的结果虽然有权重设置,导致某些结果靠前,某些结果靠后,但是,结果是可以用穷尽的方式全部呈现的(虽然大部分人不会看超过3页的内容)。而GPT产品的结果是经过算法挑选出来的,是以单一结果的方式呈现,不是所有的结果,其还会对搜索结果进行二次加工,包括但不限于识别、抽取、组合、推理、整合。

对GPT这种新范式,我们只能融入、适应。


那么律师该如何使用GPT产品呢?


1. 利用GPT产品的启发性特点


GPT产品的结果虽未必完全准确,但不影响其成为律师的朋友。律师的工作除了要找出准确的信息,也需要创意,这也是律师的价值所在。而GPT产品会提供很多不准确但可能有启发性的结果。


比如,某个话题的法律法规框架体系,如果不是某方面的专家,可以借鉴大致的脉络,在之后的研究、搜索之中,再将其逐步完善。


比如,诉讼观点,正反方的辩论观点。GPT产品的结果未必与律师原本设想的观点不一致。但是,可能恰恰是这种不一致给律师带来了新的视角。


比如,合同生成。虽然合同生成未必有很多大咖律师写得那么完美,但用来查漏补缺(有没有条款遗漏)、行文参考还是可以。


2. 缩小应用范围


现在,不少法律科技公司都希望与律师、律所合作开发GPT产品或将大语言模型部署在律所内部。但如果希望有较理想的结果(准确率可控,而不是完全的胡说八道),建议缩小应用范围,只针对某些细分领域,在此基础上进行微调,并尽量用相对结构化、相对更专业数据训练GPT。


3. 挑选、比较GPT产品


首先也是最重要的,是一定要先试用,尽量多试用,用自己所专长领域的问题进行测试。虽然是有限、小样本量的试用,未必可以得出完备的结论,但仍然不妨碍律师对GPT产品有个大致的感觉与印象,并可以此与其他产品比较。建议在试用GPT产品时一定要将问题与结果都记录下来,便于今后与其他产品进行比较、分析。



最后,分享一下我自己对未来律师工作的想象


随着GPT的应用越来越广泛(并且其训练的数据已不止于某一特定时间段),未来律师工作最大的挑战或许是,如何利用不完美的信息?我们可以想象一下,如果GPT每天都在生成或对或错的信息,而这些信息中又有部分会成为下一次生成信息的素材,加入到已有的数据中。那么,信息爆炸之后,更需要关注的是信息噪音问题了。


1. 信息验证


未来验证信息的技能可能会成为最重要的技能。而且,现在可能已经是一项重要技能了。比如,现在各大平台上许许多多的法律科普、医疗科普,有多少是经过验证、是可信的?


除了传统的信息验证方法,如法律法规数据库、国家机关的数据集获取一手资料外,可能更要思考那些中间层的信息(secondary information)该如何验证和利用,怎么从似是而非的信息中蒸馏出有价值的信息?


我觉得很难有一个以一挡百的方法,更多地是需要大家亲身去尝试、体验、摸索,用模型思维拆解底层结构,用中观(数学)思维去理解运作模式,更重要的是用基础逻辑、独立思考判断、分析结果与信息。


GPT时代不是不需要思考的时代,而是需要更多思考、思考更有价值的时代。


2. 法律+AI的快与慢


现在不少律师、律所都希望赶紧用上GPT产品,以至于第一款法律GPT产品Harvey的官网上,没有任何详细的介绍,只有”Join the Waitlist”入口,而且据说已有15,000家律所拿着号码牌排着队了。


但其实,技术的应用是“快”,壁垒是相对低的。现在的AI技术也远远没有达到完美的状态。这不仅仅是因为技术能力的问题,更是因为“数据”的问题。


数据才是让AI机器转动的石油,没有高质量、可信的数据,何谈生成优质、可信赖的信息。所以,真正紧急且重要的事是把“慢”的事情尽早开始做起来——尽早建立自己的数据中心,把知识管理做起来,“慢”才是壁垒。


所谓律所、律师的护城河,绝不是谁先用了技术,而是谁先建立起自己监管的数据集。因为,有时候也有先发劣势--如果技术无法产生理想的应用结果,不仅仅是时间、精力的浪费,更会打击日后应用任何技术的信心。


技术会趋向同质化,而独特的数据、数据管理方法会拉开竞争者之间的差距。


韦青  - 微软中国 CTO 


最后的最后,要引述微软中国CTO韦青的观点“企业家一定要冷静下来,才知道AI的水深水浅”。我想每位律师、每家律所也一样,看清技术发展的曲线——人与技术不断交互、不断受挫、不断理解中缓慢向上


作者:Xiaojing / AvanLegal Technologies 创始人

AvanLegal Technologies为法律专业人士、律所与法务团队提供法律科技与知识管理的解决方案,帮助法律专业人士从容面对AI时代的挑战。

-

欢迎添加微信号了解更多详情👇

InnovationMomentum 


*本文插图来源于网络,仅作学习交流使用。如涉及侵权问题,请及时联系我们删除。



热门课程


【招生简章】卓越法务与合规精英班招生简章

【火热招募中】法务必修的争议解决实务工作坊火热招募中!

企业VIP法商内训定制服务

资质认证 | IAPP隐私保护人员认证培训


热门文章


仲裁玩儿的就是心跳?处理诉讼、仲裁前你该知道的两件事

张雪峰火了,然后呢?

“捉奸人”反倒没有好下场?今年七夕听法学教授郭建老师讲武大郎捉奸



继续滑动看下一个
法嘉LAWPLUS
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存