今天早晨 Composer 的体感: 背景:我是 Ultra 订阅,在编辑器里的部分(不包括我用 codex cli/ claude code/ cursor background agent/ cursor bug bot/coder-rabbit),我基本上: - feature 开发、算法研究实现是 GPT5-Codex,Claude-4.5-sonnet 根据执行阶段选择是否 max - debug 我会在 GPT 和 Claude 之间按需切换,少有时候要“时间旅行” - 特别繁琐的小分支或者单独 thread 任务我也会用 auto,能一次过,还快,不占用 credit - 涉及 UI 打磨、比如 layout, typography 等大的设计,我用 v0(这里提一下,v0 官方给出的模型接入 cursor 现在是炸的,没法配置),在别的 thread 里讨论过。不过一些小的调整我发现 Claude 是最优 现在: 这里边开发、debug 我都用到了 composer 1,给我感觉它是能力在线的模型,而且,它太快了。我现在是首选它,在需要的时候才按需找 codex/sonnet 同学入场😉。 一句话:it just works && 天下武功、唯快不破
composer 1 看起来非常强, RL 训练过程中是连到了真实的从 cursor background agent 的 infra 演进的环境👍

Oct 30, 2025 · 3:08 AM UTC

5
7
58
Replying to @wey_gu
其实现在回想当时claude sonnet 3.5与4.0,可能也不是编码有多么牛逼,而是他们太能吐字了,给人一种很行的感觉😂
1
3
哈哈哈,确实,当时比其他模型差距甚至更大 不过后边 codex 这种人狠话少的来了~~~
1
2
Replying to @wey_gu
现在越来越多的在不同场景使用不同模型/产品,速度快将会是一个很大的优势
1
1
2
是呢,我日常用 key 的场景,翻译、快速 search,全都是 kimi k2 on groq,秒出结果、够用的体验太好了。
1
5
Replying to @wey_gu
速度很快,拆分给他的明确任务基本都能完成
1
1
是呢,快而效果可以接受!
Replying to @wey_gu
感谢分享
1
1
Replying to @wey_gu
哈哈 快有快的道理