查看: 7|回复: 0

最近读到一篇让人拍案叫绝的长文,作者叫 Zack Shapiro,是一个完全用AI协作办公的律师,经营着一家「AI原生」的律师事务所。

[复制链接]

15

主题

2

回帖

59

积分

注册会员

积分
59
发表于 前天 10:34 | 显示全部楼层 |阅读模式
最近读到一篇让人拍案叫绝的长文,作者叫 Zack Shapiro,是一个完全用AI协作办公的律师,经营着一家「AI原生」的律师事务所。他每天的工作包括起草合同、审阅对方律师的修改意见、分析监管问题、谈判交易文件,所有这些都有AI深度参与。这篇文章的核心论点只有一句话:AI产出的质量,几乎完全取决于你输入的质量。他把这个叫做「输入层」,并且认为这是当下白领经济中最被低估的能力。


1、提示词工程没有死,死掉的只是最肤浅的那一层

很多人都听说过一个说法:提示词工程已经过时了,现在的AI模型够聪明,随便说两句它就能理解你的意思。微软对31000名员工的调查里,「提示词工程师」在企业计划新增的岗位中排倒数第二。68%的公司把它当成基础培训内容,不再视为一项专业技能。

Shapiro 说,这些判断对了一半。确实,以前那些套路化的技巧不太管用了,比如在每句话前面加上「你是一个世界级的证券法专家」,现在的模型本来就很擅长法律推理,不需要你这么铺垫。但有一样东西模型永远做不到:读心术。它不知道你的客户风险偏好是什么,不知道对方谈判的底线在哪里,不知道这份合同里十四个问题中哪三个才是真正关键的。这些东西,你必须自己告诉它。

所以真正死掉的,是那些花哨的小技巧。活下来的,是一种更深层的能力:像一个资深专业人士给一个聪明但极度较真的同事布置任务那样,把所有细节、背景、判断、约束条件都讲清楚,不留任何模糊空间。

2、神灯精灵的隐喻:AI是一个超级较真的许愿机

Shapiro 用了一个特别妙的比喻来解释AI的工作方式:神灯精灵。

每个神灯故事的套路都一样:精灵的力量几乎无限,但它只会严格执行你说的话,而不管你心里想的是什么。你许愿要一百万美元,钱从天上砸下来把你房子压塌了。你许愿成为世界上最有权力的人,醒来发现自己孤零零地站在一个死去的星球上。精灵没有恶意,它只是极度字面化地理解你的指令,所有的戏剧冲突都发生在「你说了什么」和「你以为自己说了什么」之间的那道缝隙里。

大语言模型就是这样的精灵。背后有一个技术层面的原因:这些模型是在整个互联网的语料上训练出来的。当你给它一个模糊的指令,它会做训练时学到的事情,也就是回归到它见过的所有内容的平均值。换句话说,它会给你一个「互联网平均水平」的回答,带着Reddit帖子的腔调、过多的破折号、还有那种「看起来很有道理但其实什么都没说」的文风。大家现在都认识这种东西了,它有一个专门的名字叫「AI泔水」。你在别人的领英帖子里一眼就能认出来。

但当你给模型的指令足够具体、足够详细,把它限定在一条狭窄的路径上时,奇妙的事情就发生了。输出会突然变得清晰锐利,不再去够那个平均值,开始精准地执行你的具体要求。Shapiro 说他花了最长时间才学到的一个关键洞察是:你的指令需要同时做两件事,告诉模型要生产什么,同时封死它可能生产的所有其他东西。光描述你想要什么还不够,你需要描述得足够精确,让模型没有任何空间可以溜回那个泛泛而谈的舒适区。你不只是在指一个目的地,你是在修一条走廊。

3、他的提示词有两千字长,这说明了什么

Shapiro 说他最好的提示词大概有两千字。这个数字让很多人觉得不可思议。但他解释说,想想一个资深律师把一个复杂案子交给助理时会说多少话:客户的商业模式和风险偏好、跟这个对手方的历史关系、哪些条款偏离市场惯例是可以接受的、修改意见在文风上应该怎么拿捏、客户的其他外部律师以前在哪些问题上特别较真。这些还没涉及到文件本身的具体法律指令。

两千字听起来很多,但如果你真的想把一件复杂的事情交代清楚,把所有背景、约束、判断标准、风格要求都说透,两千字其实很正常。

有意思的是,Shapiro 坦言自己其实很不擅长学软件工具。他有注意力缺陷,各种项目管理工具、仪表盘、嵌套菜单对他来说都是噩梦。但AI不一样,界面就是一个文本框,输入方式就是打字或者说话,没有功能按钮要找,没有工作流要记,没有证书要考。你唯一需要的,就是把脑子里的东西翻译成足够精确的语言,让一个极度较真的机器不用猜就能执行。这是一种关于「想清楚自己要什么」的能力,跟技术素养关系不大,跟思维清晰度关系很大。

4、真正的分界线:不在于有没有用AI,而在于有没有动脑子

文章里有一个特别精彩的论述。很多人习惯把工作分成「人做的」和「AI做的」两类,好像这就是唯一重要的区分。Shapiro 说真正的分界线在别的地方:这份工作背后,人有没有做认知劳动。

一边是泔水:有人往聊天框里扔一句话,拿到什么就发什么。那些编造案例引用的法律文书、那些读起来像微波炉加热出来的领英帖子、所有你能感觉到「写的时候没有人在家」的文字,都属于这一类。另一边是高质量的产出:一个人带着自己真正想说的东西来,用AI把它说得更好、更快、或者覆盖到自己一个人够不着的范围。

他举了一个触目惊心的反面案例。2024年,一个叫 Dela Torre 的美国女性对保险理赔结果不满意,把律师的回复上传到 ChatGPT,问自己是不是被骗了。ChatGPT 说是的。她炒掉了律师,接下来几个月里在 ChatGPT 的「指导」下提交了60多份法律文件,其中大量引用了根本不存在的案例。对方花了30万美元来应对这些捏造的文书。到2026年初,全美已经有超过550起AI编造法律引用的案例被记录在案,频率从2025年初的每周两起飙升到年底的每天两到三起。

纽约时报专栏作家 Ezra Klein 曾经提出一个观点:AI对严肃写作来说「根本上就有问题」,因为它自动化了思考真正发生的那个环节,也就是你费劲琢磨自己到底相信什么、把一个混乱的想法硬掰成一句清晰的话的那个过程。跳过这个挣扎,你就跳过了唯一重要的部分。

Shapiro 说 Klein 的诊断是对的,但结论错了。认知劳动确实是核心工作,这没有争议。但 Klein 假设只要AI参与了,思考就被跳过了。还有另一种可能:你先把所有的硬思考做完,规划、分析、策略、判断,然后再让AI来执行你的思考,或者帮你压力测试,或者帮你发现盲点。Shapiro 说他写的每篇文章都有人激动地指出是AI写的。没错,确实是。但他们搞错的是,AI并没有替他思考,AI执行的是他已经想好的东西。

这个区分放到任何行业都成立。用AI写一份报告和让AI替你写一份报告,看起来动作一样,本质完全不同。前者是你知道要说什么,AI帮你说得更好;后者是你不知道要说什么,指望AI替你想出来。

5、从单次提示词到可复用的技能系统:真正的复利效应

Shapiro 说,写好一条提示词只是上半场。大多数人到这里就停了。真正的突破在下半场:把你的提示词模式编码成可复用的系统,然后在真实工作中不断打磨这个系统。

他区分了两个概念。提示词编码的是具体情境:这个客户、这笔交易、这份文件、我需要什么。技能编码的是流程:当你收到一份合同需要审阅时,你按什么顺序分析,每种条款的决策规则是什么,怎么权衡不同的风险,最终输出应该长什么样。提示词是一次性的,技能是可以复利增长的。

这个机制就像把强化学习应用到你自己的工作实践上。每次AI的输出让你意外了,不管是好的还是坏的,都停下来问为什么。合同审阅发现了你没想到的两个条款之间的微妙关联?搞清楚是你指令里的哪个部分引导了这个结果,把它编进技能文件。初稿回来语气不对、漏掉了一个常见风险、论证结构有问题?搞清楚缺了什么,更新技能。每一轮循环都让下一次的输出好一点点。你的判断力像河床上的沉积物一样,一层一层地积累在系统里。

做了几个月,跨越几十个案子之后,这个技能文件就变成了一份活的文档,编码了你在执业过程中做出的几百个微决策。它知道在技术许可协议里你总是会标记缺少已有知识产权例外条款的IP转让条款。它知道你给客户写邮件从来不用「希望您一切安好」开头。它知道你要的是精确的红线修改加解释性批注,不要大段重写。这些都不是基础模型自带的,全部来自你一个案子一个案子地用心积累。

经过足够多的迭代之后,实际效果看起来像变魔术。Shapiro 说他现在可以上传一份对方律师发来的合同,打两个字「帮我改」,就能拿回一份完美的红线修改文档,带追踪修改、解释性批注和风险分析,格式是他的格式,关注点是他会关注的点,语气读起来就像他自己写的。这不是因为AI某天突然开窍了,是因为他花了几百个小时教它自己是怎么思考的。

这种思路其实每个人都可以借鉴。你不需要是律师,也不需要写两千字的提示词。但你可以开始有意识地记录:这次AI的输出哪里好、哪里不好、我下次应该怎么调整指令。时间长了,你就会形成自己的一套跟AI协作的方法论,这套方法论会越来越锋利。

6、整个法律科技行业都在优化错误的那一端

文章里有一段对法律科技行业的犀利批评。像 Harvey 这样的公司,估值已经到了110亿美元,融资超过12亿,每个律师每月收费1000到1200美元。它们的核心前提是:在特定法律语料上微调大模型,比如SEC文件、诉讼摘要、特定律所的合同模板,就能产出比通用模型更好的结果。

Shapiro 说这个前提从根本上就搞反了。每个前沿模型都已经吞下了整个互联网,所有公开的法律模板、EDGAR上的每一份SEC文件、每一份公开判决、每一篇法律评论文章,模型全都见过。Claude 知道一份好的并购协议长什么样,ChatGPT、Gemini、Grok、DeepSeek 也都知道。模型的法律知识从来就不是瓶颈。瓶颈一直都是使用者能不能精确地说出:这份协议需要为这个客户在这笔交易中做什么。

他还做了一个很有说服力的测试。有人试图通过研究他的输出来逆向工程他的技能文件,用AI分析他的成品然后重建生成它的指令。从来没有人成功过。他们能模仿文风,能近似他的语气,但他的技能文件里真正包含的,不是对输出应该长什么样的描述,而是一套关于输出如何被创造出来的详细操作流程:决策树、分析框架、排序逻辑、边缘情况处理、什么时候该激进什么时候该保守的判断。这些东西在成品里是看不见的。就像你可能通过品尝一道菜辨认出所有食材,但你仍然不知道怎么做这道菜,因为菜谱不只在食材里,还在切法、乳化方式、在冰箱里放一夜这些工序里。

整个法律科技行业都在优化输出层,但真正的价值在输入层。它们在管道错误的那一端建造了精致昂贵的基础设施,然后每月收一千美元。

7、一个听起来很玄但确实有效的技巧

Shapiro 在文章末尾分享了一个他的技能文件里常用的技巧。他的很多技能最后都有一句类似这样的话:「在交付这份工作成果之前,请认真想一想,如果我把这个原封不动地交给客户,里面有没有任何东西会让我丢脸。」

这跟写「检查引用」「核实格式」「确保修改一致」不一样,尽管它实际上完成了所有这些事情。Shapiro 说最前沿的AI模型有某种类似人格的东西,你可以通过提示词去激活它。当他用「这会不会让我在客户面前丢脸」来收尾时,模型的推理过程不只是生成一个检查清单,而是产生了某种更接近「责任心」的东西。它开始考虑他的声誉、他的客户关系、一个草率的引用或者语气不搭会意味着什么。引用会被核实,格式会被清理,法律修改会被交叉检查一致性。但这些不是因为他逐项列出了每个任务,而是因为他给了模型一个更接近「动机」的东西。

他说他知道这听起来很玄,但他完全不在乎,因为输出质量的差异是真实的、可重复的、而且很大。这种反直觉的发现,恰恰是区分随便用用AI的人和真正深入钻研过的人的地方。没有手册会教你这些,没有任何包装产品能帮你建立这种感觉。你只能通过长时间的、高度专注的实践,去发现什么有效,哪怕它看起来不应该有效。

8、最值钱的投资:学会如何许愿

文章最后,Shapiro 做了一个总结。世界经济论坛预测到2030年,39%的核心职业技能将发生转变。牛津互联网研究院的研究发现,具备AI能力的专业人士收入比同行高21%,掌握多项AI能力的人溢价达到43%。市场已经开始为这种能力定价了。

但大多数组织还没搞明白他们到底在选拔什么样的人。他们在招聘启事里写「AI素养」,这大概相当于1995年写「会用电脑」。他们买了平台许可证,以为技术会自己干活。他们送员工去上提示词工程培训班


本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关注公众号

相关侵权、举报、投诉及建议等,请发 E-mail:admin@discuz.vip

Powered by Discuz! X5.0 © 2001-2026 Discuz! Team.|青ICP备2025004122号-1

在本版发帖
关注公众号
返回顶部