找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 1|回复: 0

为了让交付更快、更稳,我通常会先和 AI 一起把需求的整体设计讨论清楚

[复制链接]

6

主题

0

回帖

18

积分

新手上路

积分
18
发表于 2 小时前 | 显示全部楼层 |阅读模式
为了让交付更快、更稳,我通常会先和 AI 一起把需求的整体设计讨论清楚,包括前端交互设计、后端 MVC 结构、代码逻辑抽象、组件复用、开放模块设计、稳定性设计,以及架构和工程层面的优化。


一轮讨论结束之后,AI 通常会生成 3~5 个文件,对应不同维度的项目变更设计文档。

接下来,就会让 AI 根据项目复杂度选择合适的模型配置,同时开启多个进程跑 CLI,或者拉起多个子 Agent 一起干活。

这个模式的效率确实很高,不过带来的最大问题只有一个:钱不够烧。

我在 Codex 上买了两个账号轮着用,Github Copilot 也买了两个账号。用了一段时间之后发现,Codex 的 token 限额算是最亲民的,5 小时窗口 + 周限额窗口。周限额有时候看起来还挺随机,昨天还显示要等一周才能恢复,结果第二天一看,额度已经恢复到 100%。

Github Copilot 刚开始没有太注意,它其实是按照 Request 来限流的。有一次为了调一个细节,一晚上来回聊了很多次,直接把月额度干没了。后来慢慢摸索出一个用法:专门让 Copilot 处理大的需求,一个 Request 里塞进去好几个复杂任务,反而会觉得“真香”。

Google One 的 Family 方案其实也很香,用 Antigravity Tools 做反代就能跑。不过最近封号有点猛,现在基本不太敢用了。

当所有账号都被干到限流之后,也试过用国内的一些模型,比如 Kimi-k2.5、GLM-5。做一些常规的小需求其实问题不大,一旦遇到复杂问题,就很容易陷入无限递归循环:

排查 → 修复 → 没改好 → 继续排查。

这个时候就会特别怀念 Codex-5.3-xhigh 和 Claude-Opus-4.6。

另外,这几天刚出来的 Codex 5.4 表现更明显,之前需要排查好几轮才能解决的问题,它经常一把就能过。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|一起港湾 ( 青ICP备2025004122号-1 )

GMT+8, 2026-3-8 18:36 , Processed in 0.197501 second(s), 19 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表