找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 2|回复: 0

前端也能搞模型?在浏览器里跑 Qwen2.5,我给公司省了 5 万 API 费用

[复制链接]

5

主题

0

回帖

15

积分

新手上路

积分
15
发表于 昨天 23:58 | 显示全部楼层 |阅读模式



月初,财务把上个月的 OpenAI 账单甩在了 咱们 CTO 的桌子上。
数字很惊人:9000 刀
我们那个所谓AI 赋能 的内部知识库助手,每个月光 Token 费就要烧掉一辆比亚迪秦PLUS😃。
老板在会上拍桌子:不就是个查文档的机器人吗?为什么要用 GPT-5?能不能换便宜的?能不能限流?GPT-4o 或者 GPT-4o mini 就行?
后端架构师面露难色:精度要求高啊,换 GPT-4o 就变智障。自部署?那得买 H100 显卡,更贵。😖
会议室里充满了贫穷且焦虑的空气。
这时候,我默默合上了笔记本,说了一句:要不,把模型跑在前端吧?让用户的显卡帮我们算。
全场安静了三秒。
后端组长没忍住笑了:浏览器跑大模型?你当 Chrome 是 4090 呢?跑个 Three.js 都能卡,还要跑 Llama 3?😥
我不响。
如果你不知道 WebGPU,那我们确实没法聊。

你的浏览器就是显卡兄弟,时代变了🤷‍♂️。
在大多数人的认知里,前端就是切图、调 API、写 React 组件。
计算?那是服务器的事。
但你有没有想过,现在的用户手里拿的是什么设备?
M3 芯片的 MacBook,RTX 4060 的游戏本,甚至 iPhone 15 Pro。
这些设备的算力,如果不利用起来,简直就是暴殄天物
我们现在做的,叫 Edge AI(边缘 AI)
核心技术就三个词:WebGPU + WebAssembly + 量化模型
以前浏览器只能用 CPU 跑 JS,慢得像蜗牛。
现在有了 WebGPU,JavaScript 可以直接调用底层的显卡算力。
再加上 WebLLM 🤖 这种大杀器,我们完全可以把 Llama-3-8B-Instruct 这种级别的模型,经过 4bit 量化 后,压缩到 3-4GB,直接塞进浏览器里。
这意味着什么?
意味着每一次对话,不再消耗公司的 Token,而是消耗用户自己的电费
听起来是不是有点资本家?
不,这叫分布式计算,哈哈哈哈哈。😎

先让 Chrome 跑起来说干就干。
我没用后端的一行代码。
直接 npm install @mlc-ai/web-llm。
核心逻辑就这么几行(伪代码),大家可以自己去试一下:


  1. import { CreateMLCEngine } from "@mlc-ai/web-llm";

  2. // 选最小且稳定的Qwen2.5,先保证能跑起来
  3. const modelId = "Qwen2.5-0.5B-Instruct-q4f32_1-MLC";

  4. // 初始化引擎(WebGPU)
  5. const engine = await CreateMLCEngine(modelId, {
  6.   initProgressCallback: (p) => {
  7.     console.log("[MLC]", p.text);
  8.   },
  9. });

  10. // 控制台对话
  11. async function ask(text: string) {
  12.   const res = await engine.chat.completions.create({
  13.     messages: [{ role: "user", content: text }],
  14.   });
  15.   console.log("🤖", res.choices[0].message.content);
  16. }

  17. // 测试
  18. await ask("写一个 React Button")
  19. await ask("用CSS实现三角形")
  20. await ask("用Python写一个冒泡排序")
复制代码
运行的那一刻,模型会自动加载(设备配置低的同学尽量用小模型🙂‍↔️) 👉 可用模型


ASK: 写一个 React Button

ASK: 用CSS实现三角形

ASK: 用Python写一个冒泡排序



上周一,我把 Demo 发到了公司群里了。
那个嘲笑我的后端组长,拿着他的 M1 MacBook Air 点开了链接。
初次加载用了 40 秒(下载模型权重),然后...
Token 生成速度:15 tokens/s。
甚至比 GPT-4 的 API 响应还要快!
因为这是本地生成,没有网络延迟。
他抬头看我:这...真的没调 API?😖
我指了指 Network 面板:0 请求,纯本地。

算一笔账:这 5 万多是怎么省出来的我们内部有 50 个员工,每个人每天平均问 50 次。
如果是 GPT-5,一年就是30多万了(排除假期和周末)。
现在呢?
成本 = CDN 流量费(下载那是 0.5GB 模型文件,默认最低成本去算)。
而且模型有了缓存(Cache Storage)后,第二次打开就是零成本
更重要的是数据隐私
财务部那个姐姐之前死活不敢用 AI 搜发票政策,怕数据传给 OpenAI 泄密。
现在我告诉她:这东西跑在你自己的电脑上,断网都能用,数据出不了这个房间。
她看我的眼神都变了。🤩😃

也别神话,也有坑的!当然,为了保持技术人的客观(虽然我已经在爽文里了),我得说实话,这方案不是完美的。
  • 首屏加载是噩梦:如果让用户下载 4GB 的文件,如果是移动端 5G,用户会顺着网线来打你。所以这只适合桌面端 Web 或者 Electron 应用,尤其是开发测或者内部。
  • 显卡门槛:没有独立显卡或者 Apple Silicon 的老电脑,跑起来会卡成 PPT。
  • 发热:跑模型时,用户的电脑确实会变成暖手宝。
但在我们的场景——企业内部工具、文档助手、代码生成器——这些缺点完全可以接受。
毕竟,公司省下来的钱,哪怕分我 1% 当奖金,也够我换个新键盘了😂😂😂。

前端的边界在哪里?
2026 年了,别再把自己定义为画页面的。
WebGPU 的出现,给了前端直接挑战原生性能的入场券。
从今天起,试着把计算压力从云端搬到到终端来吧。
当后端还在为扩容发愁时,你已经利用用户闲置的 GPU 算力,构建了一个庞大的分布式计算网络。
这,才是属于前端的降本增效。🚀
你们说是不是呢?😃



作者:ErpanOmer
链接:https://juejin.cn/post/7604741630448893986
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|一起港湾 ( 青ICP备2025004122号-1 )

GMT+8, 2026-2-24 03:30 , Processed in 0.089213 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表