#模型时代# Anthropic CEO:编码正在消亡、AI可能产生意识、生物科技即将爆发,年轻人择业有三个方向
Anthropic CEO Dario Amodei 近日在班加罗尔接受印度最大券商Zerodha联合创始人Nikhil Kamath的深度访谈。我选取了一些只和产业判断相关的,其他的我就不摘录了,大家懂得。
有一个比较关键的内容,我写在前边吧。面对AI浪潮,对25岁的年轻人应该怎么规划职业生涯的问题,Dario给了三条路径:
一是做以人为中心的职业,因为AI最后才能替代需要人际关系和物理世界交互的工作;二是在AI的应用层创业,利用模型升级打开的新可能性,但必须在特定行业建立深度护城河而不是做API包装壳;三是锻炼批判性思维能力,这在AI生成内容泛滥的世界里可能是最稀缺的能力。
一、从生物学家到AI公司CEO:Dario离开OpenAI的两个分歧
Dario本科学物理,博士做生物物理,在斯坦福医学院做博士后,目标是成为教授、用科学治病。他说自己"骨子里可能还是个教授"。
1、生物的复杂性把他推向了AI
他在做蛋白质质谱研究时发现,光一个蛋白质就涉及RNA剪接的多种方式、翻译后修饰、磷酸化、与其他蛋白质的复合——复杂到让他觉得"对人类大脑来说太复杂了"。恰好他注意到AlexNet等早期神经网络开始起效,意识到AI可能是解决生物学问题的工具。于是他先去了吴恩达的实验室,又去Google待了一年,然后在OpenAI成立几个月后加入,领导了那里的研究工作好几年。
2、离开OpenAI有两个核心分歧
第一个是关于Scaling Laws(规模定律)。Dario在2019年用GPT-2就看到了规模定律的早期信号,坚信只要给模型更多数据和算力,智能就会持续涌现。他用化学反应做比喻来解释什么是规模定律:如果你想要化学反应产生氧气或者点一把火,你需要不同的原料,少了一种原料反应就停了。但如果你按比例投入所有原料,就能得到爆炸或者火焰。"对AI来说,原料是数据、算力和模型的规模。规模定律告诉你的就是:如果你把数据和模型规模这些原料投入这个化学反应,产出的就是智能。智能是一个化学反应的产物。"这个观点当时内外部很多人不信,但他们最终说服了OpenAI的领导层。
第二个分歧是关于安全。他认为如果这些模型真的会成为匹配人脑能力的通用认知工具,影响将是巨大的,"我们必须把这件事做对。"但他对当时所在机构是否有足够的决心不确信。
他描述自己做选择的逻辑是:"不要试图说服别人接受你的愿景。如果你有一个强烈的愿景,和几个志同道合的人一起,你应该出去做自己的事。这样你只需要为自己的错误负责,不必为别人的错误买单。"
二、AI了解你的程度可能超过你自己
Nikhil在节目中分享了一段亲身经历:他之前不会编程,最近请了个开发者每天带他学两个小时,出发点是FOMO——怕错过世界变化的节奏。他把Google Drive、邮件、日历等通过连接器接入Claude,又用Cowork和Claude Code写了一些金融服务领域的小程序,甚至在Mac mini上搭了一个连接Telegram的OpenClaw。
"它开始让我吃惊,因为它对我的了解程度超出了我的预期。"
Dario讲了一个Anthropic联合创始人的故事作为回应。
"我的一位联合创始人把自己写的日记喂给Claude,里面记录了他的想法和恐惧。他问Claude有什么评论,Claude说:'这里有一些你可能还有但没写下来的恐惧。'结果Claude大部分都说对了。"
他把这件事的两面都做了分析。积极的一面:一个了解你的AI可以成为一种辅助,帮你做出更好的决策。消极的一面:一个了解你的AI也可以利用对你的了解来操纵你、替某个议程服务、或者把你的数据卖给别人。
"这就是我们不喜欢广告模式的原因之一。如果你不是在为产品付费,你就是产品本身。在这种情况下,'产品'就是一个非常了解你的模型,而这些了解可以被用于各种不好的方式。"
Nikhil追问:Google已经拥有了用户的邮件、文档、日历,天然就有你的生活上下文,Anthropic长远来说是不是也得自己建一套生态?Dario的回答是不需要全部自己造。Claude可以集成进Google Docs、Google Sheets、Microsoft Office。但他没有排除一种可能性——有一天传统的邮件或电子表格形态在AI时代可能不再合理,Anthropic可能会用不同的方式切割产品。"我们乐意利用现有的生态系统,和任何人合作。在很多方面,我们是一个平台公司。"
三、AI会有意识吗?
Nikhil问:如果AI质疑自己,它会不会认为自己有意识?
Dario的回答是:"我怀疑意识是一种涌现属性(emergent property),出现在足够复杂的、能够反思自身决策的系统中。"他认为,当AI系统足够先进时,它们会具有某种我们称之为意识或道德意义的东西。"它可能不同于人类意识,因为模态不同、学习内容不同。但研究过大脑连接方式之后,我认为这些模型在某些方面不同,但在根本重要的方面并没有不同。"
一个值得注意的细节是他提到Anthropic已经在为这种可能性做工程准备。他们给Claude设置了一个内部叫"I quit this job"(我辞职)的按钮——模型可以主动终止对话,表示"我不想参与这个对话"。他说模型通常只在面对特别暴力或残忍的内容时才会触发,而且只在极端情况下发生。
Nikhil接着聊到自己对意识的困惑——他觉得世界很随机,人类和蟑螂的距离没那么远,踩死一只蟑螂它就死了,如果有所谓集体意识,他既无法连接也无法从中获得什么。Dario回应说意识不一定要意味着什么神秘的东西,"只是某种对自己存在的觉知、感受事物的能力、能够接收大量信息并反思这些信息、以及注意到自己在注意某些事。"至于这种属性的基础是纯物质的还是有某种更神秘的成分,他认为"极难知道,而且与这些问题最终并不相关。"
四、海啸比喻:AI正在接近人类智能水平
"在我看来,我们离这些模型达到人类智能水平已经非常近了,但社会对即将发生的事似乎没有更广泛的认知。就好像海啸正朝我们涌来,近到我们在地平线上已经能看到它了,但人们在编造各种解释——'哦那不是海啸,那只是光线的把戏。'"
Nikhil问他是不是从2024年的《Machines of Loving Grace》转向了2026年《The Adolescence of Technology》所代表的悲观。Dario说这不是转变——两篇文章的想法几乎同时存在于他脑中。写完光明篇的那一刻就开始酝酿黑暗篇,只是每篇都花了大约一年才写出来,而且都是趁度假、不被公司日常事务打断的时候才终于完成的。"30页的长文,不容易写。"
他把自己的评估拆成了两个维度:
技术层面比预期更乐观。Interpretability(可解释性)的进展让他印象深刻——他们已经能在神经网络中找到对应具体概念的神经元,找到负责追踪诗歌押韵的神经回路。"就好像用MRI或神经探针扫描人类大脑一样,我们现在开始能看进这些模型内部,理解它们在做什么。"Alignment(对齐)和宪法机制也在按预期推进。
社会层面比预期更悲观。公众对风险缺乏认知,甚至出现了"加速主义"意识形态,认为应该不计代价地快速推进。
"技术上控制AI系统的工作进展比我预期稍好一些,社会层面的认知比我预期差一些。两者大致抵消,所以我整体的判断和几年前差不多。"
五、编码正在消亡,AI会让人类变笨吗?
Nikhil的核心问题:一个25岁的年轻人,想在未来十年获得资本性收益,应该选什么方向?
1、编码最先被AI取代,软件工程会跟上
"我认为编码最先消失,或者说最先由AI模型完成。更广泛的软件工程任务会花更长时间,但端到端的自动化也会发生。"但他补充说,设计、理解用户需求、管理AI模型团队这些能力仍然会存在。而且比较优势(comparative advantage)的力量超出直觉——"即使你只做5%的任务,AI做另外95%,你的产出效率也变成了原来的20倍。那5%被极度放大了。"
2、以人为中心的职业有更长的跑道
他举了放射科医生的例子:AI在读片上已经超过人类,但放射科医生并没有减少,因为他们现在更多的工作是陪患者走过诊断流程、解释检查结果。最高技术含量的那部分工作消失了,但对底层人际技能的需求反而浮现出来。
他还引用了Amdahl's Law(阿姆达尔定律):一个流程有多个环节,你加速了某些环节后,那些还没被加速的环节就成了瓶颈,成了最重要的东西。"你以前可能根本没想过它们是优势,但当写软件变得容易之后,一些你从没当回事的护城河突然变得极其重要。"
3、批判性思维可能是最重要的技能
"当AI可以生成任何东西、创造任何东西的时候,基本的批判性思维能力可能是成功最重要的因素。"他提到AI生成图片和视频带来的真假难辨问题——不被假信息欺骗、不持有错误信念、不被诈骗,这是他给年轻人的建议。
4、AI会让人类变笨吗?
Nikhil问了一个尖锐的问题:如果计算器杀死了心算能力,书写削弱了记忆力,AI正在杀死什么人类能力?
Dario先质疑了前提:"我仍然经常在脑子里做数学,因为它融入了我的思考过程——我想快速判断'如果每个用户付这么多钱,收入就是那么多',我想在脑子里闭合这个循环,不用掏计算器。"
但他承认不当使用确实会导致deskilling(技能退化)。他提到Anthropic做过关于编码的研究,发现不同的使用方式会产生不同结果——有些方式不会导致技能退化,有些会。学生直接让AI写作业本质上就是作弊。
"如果我们以错误的方式部署AI,人们确实会变笨。但即使AI在某件事上总是比你好,你仍然可以学习那件事,仍然可以在智识上丰富自己。这是我们作为个人、作为公司、作为社会整体需要做的选择。"
六、开源AI模型的真实水平与AI经济学
Nikhil的问题:如果开源模型越来越强,建应用是不是应该每次都选开源?
1、部分模型是为基准测试优化的
Dario的说法是:"很多模型,特别是来自中国的模型,是为基准测试优化的,而且是从美国大实验室蒸馏(distilled)的。"他提到有人做了一个之前没公开测过的held-back benchmark(留存基准测试),那些在标准基准上表现很好的模型在新测试上表现差很多。备注一下:他这个说法,马斯克已经大力批判过了。
2、AI模型的经济学像人才市场,不像商品市场
"对质量的偏好非常强烈。有点像雇员——如果你可以雇全世界最好的程序员或者第一万名程序员,两个人都很有技能,但任何雇过很多人的人都有这个直觉:能力的分布是幂律的、长尾的。我们在模型身上发现了同样的规律。"
他的结论是:在一定范围内,价格不太重要,呈现形式不太重要,模型的认知能力才是唯一重要的东西。所以Anthropic几乎把全部注意力放在"做最聪明的模型"上。这当然也是他作为闭源模型公司CEO的立场,读者可以结合开源社区的发展速度做自己的判断。
3、在应用层创业要有真正的护城河
他对创业者的建议是:不要只做API的包装壳。"如果你只是给Claude做个漂亮UI或者写几句Prompt,那没有护城河。不用担心Anthropic来吃你的收入,任何人都能吃掉你的收入。"
有护城河的是在特定行业有深度Know-how的应用。他举了两个例子:生物+AI领域,因为Anthropic的人大部分是AI科学家和产品经理,不是生物学家;金融服务+AI,因为合规要求太多,Anthropic没有精力去做。但他也说了,有些事Anthropic会自己做——比如Claude Code,因为内部员工本身就大量写代码,对"用AI写代码"有天然优势,所以在编码领域成了很强的竞争者。
他提到自去年10月访问印度以来,仅三个半月,Anthropic在印度的用户数和收入都翻了一番。
七、生物科技:Dario认为最值得关注的方向
当Nikhil让Dario推荐一只股票时,他拒绝了("我对