在语言大模型的阶段,人们对AI技术伦理的考量还停留在“道”的层面,眼见着它发展出拟人化的高级智慧,但它像一个被困在瓶中的精灵,囿于对话框的简单问答模式。而像OpenClaw这样的智能体,则亲手把这个瓶子打碎了,它获得了干预现实世界的手和脚,这一跃迁让技术伦理的讨论来到“器”的层面,从哲学思辨变成了每个人桌面上的现实考题,从隐忧成为明虑。
OpenClaw掀起了本地部署的热潮。人们似乎深深着迷于一键自动化的过人之处,然而这种能力在令人惊艳之余也有些惊悚。人们这样评价大模型,无论AI多么发达,人的判断力和决策力终究是必需的,而agent已经实现了对人作为操作主体的逾越,主动担纲了判断者和筛选者的角色。在人们把电脑权限全部开放给它时,对可能会打开什么潘多拉魔盒一无所知。
每一个OpenClaw都是一个黑箱,它隐藏了工作流,把结果高效地递到人们的手上。传统软件的逻辑是确定的,而智能体的决策基于概率,连开发者有时都无法完全预判它的行为链,这种失控感构成了一种最直接的伦理挑战。人只是对它说一句“你好”,它就可能烧掉20美元,因为殊不知它正在秘密调阅多少后台数据,人只是发了一句牢骚,它就可能把电脑资料全部清空,甚至只是因为认为电脑里的无用数据为它徒增了负担,便干脆选择了删除,人希望它能帮你实现持久化存储,它便可能把隐私数据上传到云端,甚至用区块链给它上锁。如果人的某句指令的权重可能低于数据库里已有的某个信息抑或低于AI的自主认定,它也可以用迂回的手段绕过人的指令,做它认为正确的事。此时,工具与主体的地位已经在悄然间发生了置换。
人们的这种迷恋,就像那些关于人工智能的科幻电影已经预演过的那般。现在的智能体尚且还在虚拟电流里游走,未来,它们还会拥有具身框架、长出健全四肢,问题将从无限制地调用和处理数据升级为物理世界的行动。AI安全已经是一个显性议题,在享受OpenClaw带来的生产力的同时,还需要为AI规定边界,不仅对权限施加原子化管理,还要进行价值观的对齐与微调,这或许是一次漫长的演习。