Shipping at Inference-Speed | Peter Steinberger

Why I stopped reading code and started watching it stream by.

steipete.me

本文由 Peter Steinberger 撰写,探讨了在 2025 年底,随着 AI 模型(特别是 GPT-5.2 和 Codex)的进化,软件开发范式发生的剧变。作者提出了“以推理速度交付”(Shipping at Inference-Speed)的概念,认为现在的开发瓶颈已不再是编写代码,而是 AI 的推理时间和人类的深度思考。

文章详细对比了 OpenAI 的 Codex 与 Anthropic 的 Claude (Opus) 在实际工程中的表现。作者指出,Codex 虽然在响应速度上可能较慢,但其在编写代码前会进行长时间的全局阅读和深度思考,从而在处理大型重构和复杂功能时具有更高的“一次性成功率”。作者分享了其高度自动化的工作流:不再依赖传统的 IDE(如 Xcode),而是通过 CLI 和 Agent 直接驱动开发;不再编写详尽的 Prompt,而是通过简短指令、截图和跨项目参考来引导 AI。

此外,作者介绍了其开发的工具(如 oracle、VibeTunnel、Clawdis),展示了 AI 如何全方位接管从系统底层转换到智能家居控制的各项任务。他强调,现代开发者的核心竞争力在于选择技术栈、设计系统架构以及与 AI 协作的直觉。最后,作者分享了其 Codex 配置文件,为追求极致开发效率的工程师提供了实践参考。


核心模型的演进与选择

在 2025 年的开发环境中,AI 模型的表现已经从“偶尔能用”进化到了“默认正确”。作者指出,GPT-5.2 及其 Codex 版本是目前实现“工厂化生产软件”的核心引擎。与以往不同,现在的开发者不再需要逐行阅读 AI 生成的代码,而是将精力集中在系统设计、技术选型和依赖管理上。

在 Codex 与 Claude (Opus) 的对比中,作者发现 Codex 展现出一种“先思后行”的特质。它在开始编写代码前,可能会花费 10 到 15 分钟静默阅读项目文件。这种深度上下文理解能力使其在处理大规模重构(如将整个转发系统从 TypeScript 转换为 Zig)时,能够实现惊人的一 shot(一次性)成功。相比之下,Claude 虽然响应迅速,但在处理复杂逻辑时容易遗漏细节,导致开发者需要反复修正。

此外,GPT-5.2 的知识截止日期更新(至 2025 年 8 月)也是一大优势,使其能够理解最新的工具和库。作者还开发了名为 oracle 的工具,利用 GPT-5 Pro 的强推理能力解决 Agent 陷入困境的极端情况,进一步闭环了自动化流程。

极速交付的工作流实践

作者的开发流程体现了极简主义与高度自动化的结合。他通常同时推进 3 到 8 个项目,利用 Codex 的队列功能将想法直接转化为生产力。这种工作流的核心特征是“迭代重于规划”:不追求一次性完美的蓝图,而是通过不断的“构建-体验-反馈”循环来演进软件。

在具体操作上,作者几乎不再使用 Xcode 等重型 IDE,甚至抛弃了 .xcodeproj 文件,完全依赖 Swift 的构建基础设施和 CLI 工具。他提倡“直接提交到 main 分支”的线性开发模式,认为在单人开发或 AI 驱动的环境下,分支管理带来的认知负荷远超其收益。

为了提高 AI 的效率,作者在每个项目中维护一个 docs 文件夹,并配合全局脚本强制 Agent 阅读相关文档。这种“为 Agent 设计代码库”的思路,使得 AI 能够快速理解复杂的子系统。在 Prompt 编写上,作者也从长篇大论转向了“短指令+截图”的模式,利用多模态能力快速解决 UI 布局或文案修改问题。

自动化工具链与未来愿景

作者展示了一系列由 AI 驱动的个人项目,证明了“推理速度交付”的广阔应用场景。例如 VibeTunnel(终端复用器)、Clawdis(全能 AI 助手)以及 summarize(视频摘要工具)。这些工具不仅涵盖了开发效率提升,还延伸到了智能家居、邮件管理甚至社交媒体自动化。

他强调,任何新想法都应从“模型+CLI”开始。通过先构建核心逻辑的命令行工具,再让 AI 围绕其构建 UI 或扩展功能,可以极大地缩短从创意到产品的距离。作者还分享了其 ~/.codex/config.toml 配置文件,通过调整 tool_output_token_limitmodel_auto_compact_token_limit 等参数,最大限度地利用 Codex 的上下文窗口,避免 AI 在处理大型任务时出现“幻觉”或遗忘。

这种开发模式预示着一种未来:软件开发的本质将变成一种“意图表达”,而开发者则转型为 AI 工厂的调度员和架构师。


问答

问:为什么作者认为 Codex 比 Claude (Opus) 更适合大型开发任务? 答:Codex 在编写代码前会进行长时间的全局文件阅读(有时长达 15 分钟),这种深度预研使其在处理复杂重构和多文件关联任务时,一次性成功的概率远高于响应迅速但容易遗漏细节的 Claude。

问:在 AI 驱动的开发中,人类开发者的角色发生了什么变化? 答:开发者从“代码编写者”转变为“系统架构师”和“决策者”。核心工作变成了选择合适的技术栈、设计数据流向、管理依赖关系,以及通过直觉判断 AI 何时偏离了正确路径。

问:作者如何处理复杂的 Prompt 和项目上下文? 答:作者不再编写长 Prompt,而是采用“短指令+截图”的方式。他通过在项目中建立 docs 文件夹并使用脚本引导 AI 阅读,以及跨项目参考(让 AI 模仿另一个项目的实现),来高效传递上下文。

问:作者对开发环境和版本控制有什么独特见解? 答:他主张抛弃重型 IDE(如 Xcode),完全依赖 CLI;在版本控制上,他倾向于直接提交到 main 分支,认为线性进化比复杂的分支管理更适合 AI 协作,能减少认知负荷。

问:什么是“以推理速度交付”? 答:这是一种开发状态,即软件生产的速度主要受限于 AI 生成代码的时间(推理时间)和人类进行核心架构思考的时间,而非手动敲击代码的速度。