他举了一个触目惊心的反面案例。2024年,一个叫 Dela Torre 的美国女性对保险理赔结果不满意,把律师的回复上传到 ChatGPT,问自己是不是被骗了。ChatGPT 说是的。她炒掉了律师,接下来几个月里在 ChatGPT 的「指导」下提交了60多份法律文件,其中大量引用了根本不存在的案例。对方花了30万美元来应对这些捏造的文书。到2026年初,全美已经有超过550起AI编造法律引用的案例被记录在案,频率从2025年初的每周两起飙升到年底的每天两到三起。
纽约时报专栏作家 Ezra Klein 曾经提出一个观点:AI对严肃写作来说「根本上就有问题」,因为它自动化了思考真正发生的那个环节,也就是你费劲琢磨自己到底相信什么、把一个混乱的想法硬掰成一句清晰的话的那个过程。跳过这个挣扎,你就跳过了唯一重要的部分。
Shapiro 说 Klein 的诊断是对的,但结论错了。认知劳动确实是核心工作,这没有争议。但 Klein 假设只要AI参与了,思考就被跳过了。还有另一种可能:你先把所有的硬思考做完,规划、分析、策略、判断,然后再让AI来执行你的思考,或者帮你压力测试,或者帮你发现盲点。Shapiro 说他写的每篇文章都有人激动地指出是AI写的。没错,确实是。但他们搞错的是,AI并没有替他思考,AI执行的是他已经想好的东西。