快速导读:OpenAI从非营利组织变成军事承包商只用了三年。这不是因为Sam Altman特别贪婪,而是因为那笔钱从一开始就决定了终点。真正值得追问的,是Anthropic拒绝之后发生了什么。
---
三天前,OpenAI正式与美国国防部签约。
一个最初写在使命宣言里的句子是:“为了全人类的利益开发人工智能。”现在这句话还在官网上,就在那份军事合同的同一家公司名下。
大多数人的反应是:Sam Altman变了,或者OpenAI被腐化了。这个判断没错,只是太晚了,而且指向了错误的原因。
真正的转折点不是这周,是2023年微软注入130亿美元的那一刻。那笔钱不附带“继续做非营利”的条款,它附带的是“产生回报,否则我们换掉你的董事会”——而换掉董事会这件事,已经在2023年底真实发生过一次,只是方向反了。OpenAI董事会试图解雇Altman,结果五天后Altman回来了,董事会成员走了。资本和使命之间的博弈,结果在那时候就已经明牌了。
现在来看一个更有意思的对比。Anthropic也收到了同样的来自五角大楼的要求——移除模型的安全限制,用于军事用途。Anthropic拒绝了。理由是他们的安全限制不是写在合同里的条款,而是直接训练进模型权重里的东西,物理上无法“临时关掉”。结果是他们被政府踢出了这笔合同,并承受了后续的压力。
OpenAI的限制从来都是合同条款:在纸上写着“仅用于合法目的”。而2024年美国最高法院的一项裁决已经确立了总统以“官方行为”为由可以获得大范围豁免。如果总统命令部署某个系统是“官方行为”,谁来判断它合不合法?
这就是两者的本质差异,不是道德层面的——而是技术架构层面的。一个把安全写进硅基里,一个把安全写进合同里。
如果你现在在用或者在开发基于OpenAI接口的产品,这个问题迟早会压到你:你的工具链上游,刚刚向一个可以重新定义“合法”的客户打开了后门。
这跟你信不信任Sam Altman无关。跟你信不信任那份合同有关。
---
简评:
最讽刺的不是OpenAI变了——是它根本没有条件不变。一家靠风险资本活着的“非营利”,从定义上就是一个等待被解体的矛盾体。Anthropic的拒绝让这件事有了参照系:原来那条线是可以不越的,代价是被踢出局。现在的问题不是谁更有道德,而是谁的架构设计让道德变得可绕过。
---
ref: reddit.com/r/singularity/comments/1rhqwkj/openai_in_just_a_couple_of_years_nonprofit
##