快速阅读:一位开发者用Raspberry Pi Zero 2 W造了一台能塞进口袋的个人AI助手设备,成本不到120美元。按下按钮,说话,云端大模型流式返回答案,屏幕显示或语音播报。整套逻辑比Rabbit R1和Humane Pin都简单,但它确实能用。
---
AI硬件设备这条赛道,Rabbit和Humane烧了几亿美元,造出来的产品被骂成狗。bastivkl花了一个周末,用一块巴掌大的Pi Zero 2 W、一个WhisPlay屏幕板、一颗麦克风扬声器芯片和一块PiSugar电池,把同样的事情干了。
硬件成本大约100到120美元,全在Amazon下单。
架构本身没什么秘密:按下按钮录音,松开发给OpenAI做语音转文字,转录结果推送给跑在云端VPS上的OpenClaw,流式返回的文本打到LCD屏上,可选再走一遍TTS用喇叭念出来。Pi本身不跑任何模型推理,只是一根安全的管道,通过Tailscale加密隧道连接到云端实例。整套状态机就四个状态:idle、listening、thinking、streaming。
有观点认为,这种“按说话键转文字再转发”的模式被严重低估了,大多数人把问题搞复杂,非要在设备本地跑模型。Pi Zero拿来跑推理确实惨不忍睹,但当一根哑管道用,它绰绰有余。
有网友问,为什么不直接在Pi上跑更轻量的OpenClaw替代品——比如据称只需1MB存储空间的zclaw。作者的选择是把计算全部卸到云端,保持本地的简洁。这两条路都说得通,取决于你愿意为延迟还是为复杂度买单。
说到延迟,有人直接指出“目前还是很慢”。这是这类方案的真实代价,没什么可粉饰的。
最有意思的讨论发生在“这东西有什么意义”这个问题上。有人说,手机明明能做同样的事,带着它有什么意义?有人回答:不带手机出门,意味着你真的不在手机上。屏幕是注意力的黑洞,一个只能说话和听答案的设备,摩擦感反而成了优点。
当然也有人问能不能花150美元让作者帮他做一个,然后被骂了。
作者后来给设备加了一个类Tamagotchi风格的卡通形象,让它在回答时做动画表情。有网友建议还应该能喂它“石油和爱”。
代码已开源:github.com/sebastianvkl/pizero-openclaw
真正让人想不通的问题是:Rabbit和Humane拿到了大笔融资、顶级工程师和供应链资源,最后做出来的东西,在概念上和这个周末项目没有本质区别。那笔钱花到哪里去了?
---
简评:
有人问这东西有什么意义,最好的回答藏在一个反问里:你上次出门不带手机是什么时候?这个设备的真正功能不是回答问题,而是帮你拒绝那些不该问的问题。智能手机是潘多拉魔盒,你想查个天气,十分钟后发现自己在刷短视频。一个只能“按下-说话-听答案”的东西,把摩擦感变成了护城河。它笨拙得刚刚好,让你没法用它来逃避无聊。科技行业花了二十年消灭一切阻力,现在最前卫的产品形态,是把阻力装回去。
---
www.reddit.com/r/openclaw/comments/1rc3ejr/openclaw_personal_assistant_device