记录一下最近研究 Claude Code 工作流的心路历程:
阶段一:不知道怎么开始
只有项目的核心工作流程,通过网页版各大AI对话,慢慢重新梳理了功能逻辑。但是在用CC实现需求的时候,其实很多东西是缺失的,包括边界情况、技术栈选择、MVP范围等一系列问题都不知道。导致很多技术细节都是CC自动抉择的,也缺少项目架构的介绍,一脸懵逼。
阶段二:寻找CC最佳实践
在V站找到了一份指南:https://zhuanlan.zhihu.com/p/2009744974980331332 ,里面详细介绍了CC的功能,什么情况下使用什么功能,如何开发新功能等等介绍。然后就形成了我的第一套工作流: 用plan模式和多会话审查生成技术方案和实施方案,使用TDD 测试驱动开发
阶段三:代码开发
其实初版的工作流在规划技术方案/实施方案方面已经基本够用,但还是不满足现状,找了很多插件和Skill安装到CC中用来保证文档/代码质量 。但是真到了开发阶段,还是会比较糟糕。我本身使用的是国产的大模型配置到CC的,写代码能力比较一般(当时感觉还行,后面发现很拉),写出来的代码偶尔是能跑起来的,但是实现层面看不上。而且模型经常会因为context膨胀导致出现幻觉,开始乱操作了,甚至出现了rm -rf 整个项目的操作(还好最后没执行)。
阶段四:优化工作流
宝藏插件:https://github.com/obra/superpowers ,这个插件定义了一个完整的开发流程:
头脑风暴并生成技术文档 => 使用 git-worktrees => 生成实施方案 => 使用子代理执行计划 => 测试驱动开发 => 代码审查 => 完成开发分支。
整个流程我测试下来非常满意,几乎覆盖了所有我想要的流程。但是真进入到代码开发阶段,开发速度着实让人着急。而且即使使用了子代理模式,依旧扛不住上下文持续膨胀。
阶段五:多工具搭配
某鱼上搞了个Codex的Team账号,试用了一下GPT-5.4的代码开发能力,确实被惊艳到了。代码生成速度和质量着实提高了一个维度。所以我工作流中代码开发阶段就交给Codex去完成了。
阶段六:寻找国产最佳推理模型
Codex自带的模型已经足够强大了,其实整个流程其实可以完全交给Codex去完成,包括前期的方案规划。但是我并不太想放弃CC,作为一个备用方案或者比对方案,用多模型同时规划技术方案也挺不错。
于是我用同一个项目来测试GML/MiniMax/Kimi/doubao模型的方案规划情况。实测下来,Doubao-Seed-2.0-pro 的长链路推理是目前最好用的速度也还行,GML-4.7也不错,但是就是太慢了。不过由于我开通的是火山方舟的Coding Plan,所以GML/MiniMax/Kimi都不是最新最强的版本。我已经考虑下个月直接开通其他家的Coding Plan了。目前可能的选择就是阿里/智谱家的,到时候看情况吧。
阶段一:不知道怎么开始
只有项目的核心工作流程,通过网页版各大AI对话,慢慢重新梳理了功能逻辑。但是在用CC实现需求的时候,其实很多东西是缺失的,包括边界情况、技术栈选择、MVP范围等一系列问题都不知道。导致很多技术细节都是CC自动抉择的,也缺少项目架构的介绍,一脸懵逼。
阶段二:寻找CC最佳实践
在V站找到了一份指南:https://zhuanlan.zhihu.com/p/2009744974980331332 ,里面详细介绍了CC的功能,什么情况下使用什么功能,如何开发新功能等等介绍。然后就形成了我的第一套工作流: 用plan模式和多会话审查生成技术方案和实施方案,使用TDD 测试驱动开发
阶段三:代码开发
其实初版的工作流在规划技术方案/实施方案方面已经基本够用,但还是不满足现状,找了很多插件和Skill安装到CC中用来保证文档/代码质量 。但是真到了开发阶段,还是会比较糟糕。我本身使用的是国产的大模型配置到CC的,写代码能力比较一般(当时感觉还行,后面发现很拉),写出来的代码偶尔是能跑起来的,但是实现层面看不上。而且模型经常会因为context膨胀导致出现幻觉,开始乱操作了,甚至出现了rm -rf 整个项目的操作(还好最后没执行)。
阶段四:优化工作流
宝藏插件:https://github.com/obra/superpowers ,这个插件定义了一个完整的开发流程:
头脑风暴并生成技术文档 => 使用 git-worktrees => 生成实施方案 => 使用子代理执行计划 => 测试驱动开发 => 代码审查 => 完成开发分支。
整个流程我测试下来非常满意,几乎覆盖了所有我想要的流程。但是真进入到代码开发阶段,开发速度着实让人着急。而且即使使用了子代理模式,依旧扛不住上下文持续膨胀。
阶段五:多工具搭配
某鱼上搞了个Codex的Team账号,试用了一下GPT-5.4的代码开发能力,确实被惊艳到了。代码生成速度和质量着实提高了一个维度。所以我工作流中代码开发阶段就交给Codex去完成了。
阶段六:寻找国产最佳推理模型
Codex自带的模型已经足够强大了,其实整个流程其实可以完全交给Codex去完成,包括前期的方案规划。但是我并不太想放弃CC,作为一个备用方案或者比对方案,用多模型同时规划技术方案也挺不错。
于是我用同一个项目来测试GML/MiniMax/Kimi/doubao模型的方案规划情况。实测下来,Doubao-Seed-2.0-pro 的长链路推理是目前最好用的速度也还行,GML-4.7也不错,但是就是太慢了。不过由于我开通的是火山方舟的Coding Plan,所以GML/MiniMax/Kimi都不是最新最强的版本。我已经考虑下个月直接开通其他家的Coding Plan了。目前可能的选择就是阿里/智谱家的,到时候看情况吧。