AI Made Writing Code Easier. It Made Engineering Harder.
Writing code is easier than ever. Being a software engineer is harder than ever. The paradox nobody talks about, and what engineers and leaders should do.
www.ivanturkovic.com
AI Made Writing Code Easier. It Made Engineering Harder.
本文探讨了人工智能(AI)对软件工程行业的深远影响,提出了一个核心悖论:虽然 AI 显著降低了“写代码”的门槛,却让“做一名工程师”变得前所未有的困难。作者 Ivan Turkovic 指出,随着 AI 辅助工具和智能体的普及,代码生成的效率大幅提升,但这导致了行业基准线的无形移动。管理层往往认为 AI 减轻了负担,但现实是工程师的期望产出成倍增加,工作范围也从单纯的开发扩展到了产品思维、架构决策和复杂的系统维护。
文章引用了 2026 年《哈佛商业评论》的一项研究,显示 83% 的员工认为 AI 增加了工作量,初级员工的职业倦怠率远高于高管。这种现象源于“加速陷阱”:任务变快导致任务量增加,进而导致对 AI 的过度依赖,最终形成一个工作强度不断升级的循环。此外,工程师正面临身份危机,从“创造者”转变为“审查者”,而审查 AI 生成的代码往往比自己编写更耗时且缺乏上下文。
对于初级工程师而言,AI 吞噬了基础的练习任务,导致人才培养链条断裂。作者呼吁领导层应意识到这一转变的艰巨性,通过提供系统性培训、设定明确的角色边界、重新定义衡量指标以及保护初级人才管道来应对挑战。对于工程师个人,则建议在拥抱工具的同时,坚持掌握底层原理,并学会设定职业边界以避免倦怠。

Prompts are code, .json/.md files are state
Treating LLMs as shitty general purpose computers we program with natural language. Because throwing shit at the wall wasn't working anymore.
mariozechner.at
本文探讨了在处理大型、成熟代码库时,如何通过将大语言模型(LLM)视为一种“性能较差的通用计算机”来提升 AI 代理(Agents)的工作效率。作者 Mario Zechner 指出,当前的“代理工程”往往缺乏工程严谨性,开发者通常只是向 AI 投喂信息并祈祷结果正确。在大型项目中,LLM 面临上下文缺失、缺乏审美(倾向于生成过度设计的代码)以及上下文降级(超过 100k token 后性能下降)等痛点。
为了解决这些问题,作者提出了一套方法论:提示词(Prompts)即代码,.json/.md 文件即状态。在这种模型下,“程序”是用自然语言编写的提示词,它定义了逻辑和控制流;“输入”是代码库文档和用户指令;“状态”则序列化存储在磁盘上的 JSON 或 Markdown 文件中,而非仅仅依赖不稳定的模型上下文。这种方式实现了工作流的可重现性和确定性。
文章以将 Spine 动画运行时从 Java 移植到 C++ 的真实案例展示了这一方法的威力。通过预先生成的 porting-plan.json 跟踪进度,并使用 port.md 作为执行脚本,作者引导 Claude Code 按照严格的步骤(查找待处理类型、打开相关文件、人工确认、执行移植、编译测试、更新状态)进行操作。这种结构化的方法将原本需要 2-3 周的人工移植工作缩短到了 2-3 天。作者强调,这种思维转变将 AI 辅助编程从一种随机的尝试转变为一种可控的工程学科。

My AI Workflow for Understanding Any Codebase | Peter Steinberger
A quick tip on how I use repo2txt and Google AI Studio to understand new codebases. Gemini's 1M token context window is perfect for asking questions about code.
steipete.me
本文详细介绍了开发者 Peter Steinberger 如何利用大语言模型(尤其是 Google Gemini)的超长上下文特性,构建一套高效的代码库理解与开发工作流。核心思路是将复杂的 GitHub 仓库转化为结构化的 Markdown 文本,并利用 Gemini 的海量上下文窗口进行深度分析。
工作流分为几个关键阶段:首先,通过 repo2txt 工具将代码库转换为文本,剔除无关的二进制文件和测试代码,以保持上下文的纯净。其次,利用 Google AI Studio 强大的处理能力,对代码进行架构分析和逻辑溯源。在开发新项目时,作者提出了一套“从创意到软件设计文档(SDD)”的严谨流程,其中最亮眼的是“双上下文技术(Two-Context Technique)”:一个窗口负责编写和维护规格说明,另一个窗口负责扮演“挑刺者”角色,通过 3-5 轮的对抗性迭代,使设计文档达到无懈可击的程度。
在实现阶段,作者推荐将完善后的 SDD 作为 spec.md 存入仓库,并调用 Claude Code 等代理工具进行自动化构建。这种方法将 AI 的角色从简单的辅助编码提升到了系统级的设计与执行。此外,作者还分享了应对 AI “上下文失忆”的策略(如分块生成和手动维护主文档),并探讨了“代码即规格”的理念,即通过旧代码直接生成新架构的设计文档。该工作流不仅提升了理解现有代码的效率,也极大地缩短了从想法到产品的落地周期。
Best Practices for Claude Code - Claude Code Docs
Tips and patterns for getting the most out of Claude Code, from configuring your environment to scaling across parallel sessions.
code.claude.com
Claude Code 是一个代理式(Agentic)编程环境,它超越了传统聊天机器人的范畴,能够自主读取文件、运行命令、修改代码并解决复杂问题。本文档核心观点认为,要发挥 Claude Code 的最大潜力,开发者需要从“自己写代码”转变为“描述需求并引导代理执行”。
文档强调,上下文窗口管理是使用中的核心约束。随着对话增长,Claude 的性能会因上下文填满而下降,导致遗忘指令或产生错误。因此,高效使用的关键在于:1. 提供验证手段:通过测试用例、截图或预期输出来让 Claude 自我校验,这是提高成功率的最强杠杆;2. 遵循科学工作流:采用“探索-计划-实施-提交”的四阶段模式,利用“计划模式(Plan Mode)”分离思考与执行;3. 精准的上下文注入:利用 @ 引用文件、粘贴图片或通过管道传输数据,减少模糊性。
在环境配置方面,文档详细介绍了 CLAUDE.md 的作用,它是跨会话持久化项目规范的关键。此外,通过配置权限、集成 CLI 工具(如 gh)、连接 MCP 服务器以及创建自定义技能(Skills)和子代理(Subagents),可以极大地扩展 Claude 的能力。最后,文档提出了规模化作业的思路,如非交互模式、并行会话和扇出式(Fan-out)任务分配,并总结了应避免的常见失败模式(如“大杂烩”会话和过度复杂的配置)。

Effective harnesses for long-running agents
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
www.anthropic.com
随着 AI 智能体(Agents)能力的增强,开发者开始要求它们处理跨越数小时甚至数天的复杂任务。然而,让智能体在多个上下文窗口(Context Windows)中保持一致的进度仍是一个难题。核心挑战在于,长时运行的智能体必须以离散的“会话”形式工作,而每个新会话开始时都没有之前的记忆,就像一群轮班工作的工程师,每个人到岗时都不知道前一班发生了什么。
为了解决这一“失忆”问题,Anthropic 开发了一套双重方案,并集成在 Claude Agent SDK 中。该方案包含两个核心角色:初始化智能体(Initializer Agent)和编码智能体(Coding Agent)。初始化智能体负责在首次运行时搭建环境,包括创建功能列表(JSON 格式)、初始化 Git 仓库、编写环境启动脚本(init.sh)以及进度记录文件(claude-progress.txt)。编码智能体则负责在后续的每个会话中进行增量开发,确保每次只处理一个功能,并在结束时留下清晰的工件(Artifacts)供下一班次使用。
研究发现,智能体常见的失败模式包括:试图一次性完成所有工作(One-shotting)导致上下文耗尽、在功能未完成时过早宣布胜利、以及缺乏端到端测试。通过引入结构化的 JSON 功能清单、强制性的 Git 提交记录以及基于 Puppeteer 的浏览器自动化测试,Claude 能够更有效地识别 Bug 并保持代码库的整洁。这种方法不仅提高了开发效率,还确保了智能体在进入新会话时能通过运行 pwd、阅读日志和执行初始化脚本快速进入状态。尽管仍存在视觉识别局限等挑战,但这一框架为长时运行的 AI 协作提供了可行的工程路径。
AI Made Writing Code Easier. It Made Engineering Harder.
Writing code is easier than ever. Being a software engineer is harder than ever. The paradox nobody talks about, and what engineers and leaders should do.
www.ivanturkovic.com
本文探讨了人工智能(AI)对软件工程行业的深远影响,提出了一个核心悖论:虽然 AI 让“写代码”变得前所未有的简单,但却让“做工程师”变得更加困难和复杂。
作者指出,自 2023 年以来,软件工程师的产出基准线在无形中被大幅拉高。AI 工具缩短了编写代码的时间,但这并没有让工程师早点下班,反而导致了工作量的急剧扩张和职业倦怠。根据 2026 年的研究,超过 80% 的员工感到工作量增加,而管理层对此却缺乏共识。
这种转变引发了工程师的“身份危机”。许多人入行是因为热爱解决问题和编写代码的创造感,但现在他们正被迫转变为“代码审查员”,在永不停歇的自动化流水线上进行质量把控,失去了手工艺人的成就感。同时,工程师的职责范围也在剧烈扩张,他们现在需要兼顾产品思维、架构决策、安全评估和运维,这种“全栈化”往往演变成了无偿的职责蔓延。
此外,文章提出了“监督悖论”:审查 AI 生成的代码往往比自己亲手写代码更累,因为 AI 产出的代码缺乏决策背景和逻辑推导过程。对于初级工程师来说,AI 正在吞噬他们的“练手”机会,导致行业人才梯队面临断裂风险。
最后,作者呼吁领导层重新审视衡量标准,从关注产出速度转向关注系统稳定性、代码质量和团队健康;同时也建议工程师坚守技术基础,学会设定界限,并在新的职业版图中寻找机会。

Developers, Reinvented – Thomas Dohmke
What started as fear of AI replacing developers is switching to pragmatically embracing the ambitious reality of AI and viewing it as a growth opportunity. As we build the tools of tomorrow, we can usher developers through this reinvention of their role in ways that are intuitive, delightful, and cater to developers’ curiosity, keeping them fulfilled and happy during the transition. That makes us optimistic. Realistically.
ashtom.github.io
The developers at stage 4 unanimously declare their role has shifted. They now focus on the delegation and the verification of a task. Delegation is about setting up the agents for success with rich context and instructions, designing and refining prompts, reviewing AI’s plans and tradeoffs, and tweaking before proceeding. Verification is all about tearing down the agent’s work – they review and validate that the AI-generated implementation fulfills the objectives and conventions it needs to. These developers moved from writing code to architecting and verifying the implementation work that is carried out by AI agents.
Developers rarely mentioned “time saved” as the core benefit of working in this new way with agents. They were all about increasing ambition.
本文探讨了人工智能(AI)如何深刻地重新定义软件开发者的角色、工作流及职业身份。通过对 22 位深度使用 AI 工具的开发者进行访谈,GitHub CEO Thomas Dohmke 指出,软件开发正经历一场从“编写代码”到“编排与验证代码”的根本性转变。
开发者在拥抱 AI 的过程中通常经历四个阶段:从最初的怀疑者(仅尝试简单任务),到探索者(开始处理调试和样板代码),再到协作共创者(在 IDE 中进行多步骤协作),最终进化为战略家(构建多智能体工作流,专注于任务的委派与验证)。访谈显示,大多数开发者认为在未来 2 到 5 年内,AI 将编写 90% 的代码,但这并不意味着开发者的价值消失,而是其身份转变为“代码创意总监”或“代码使能者”。
文章提出了“务实乐观主义”的观点:虽然传统编码角色会演变,但软件开发岗位需求预计将增长 18%。为了适应这一变化,开发者需要掌握 AI 流感度、委派与编排、验证与质量控制、以及更深层次的系统架构和产品理解能力。同时,计算机科学教育也必须随之重塑,从教授语法转向培养系统建模、AI 协作和复杂问题解决能力。总之,这场变革并非取代人类,而是通过 AI 提升开发者的能力上限,让他们从繁琐的实现细节中解放出来,专注于更高维度的创造与架构。

Harness engineering: leveraging Codex in an agent-first world
By Ryan Lopopolo, Member of the Technical Staff
openai.com
本文介绍了 OpenAI 进行的一项为期五个月的工程实验:在“智能体优先”(Agent-first)的世界中,利用 Codex(基于 GPT-5)构建并交付了一款内部 Beta 软件产品,且未手动编写任何一行代码。该产品拥有数百万行代码,涵盖了应用逻辑、测试、CI 配置、文档及监控工具,开发效率提升了约 10 倍。
实验的核心结论是:在智能体时代,工程师的角色发生了根本性转变。人类不再是代码的编写者,而是环境的设计者、意图的指定者和反馈循环的构建者。团队通过“人类引导,智能体执行”的模式,实现了平均每人每天 3.5 个 PR 的高产出。为了让智能体高效工作,团队采取了一系列创新措施:首先,提高应用的“可读性”,通过集成 Chrome DevTools 和本地观测栈(Logs/Metrics),让智能体能自主调试 UI 和性能;其次,将代码库(Repository)作为唯一的知识来源,通过结构化的文档和 AGENTS.md 索引,解决上下文稀缺和规则陈旧的问题;最后,通过极其严格的架构分层和自定义 Linter 强制执行“工程品味”,防止架构漂移。
此外,实验还揭示了高吞吐量下的新挑战,如“AI 废料”(AI slop)的堆积。团队通过引入“黄金原则”和自动化的“垃圾回收”机制(即定期运行重构智能体)来保持代码库的健康。这种模式证明了,只要拥有正确的脚手架和反馈系统,智能体可以实现从发现 Bug 到修复、验证并合并 PR 的全自动化闭环。

Axiom — Observability, re-invented.
Cloud-native architecture meets built-in tracing and AI telemetry. Experience log management without compromise.
axiom.co
Axiom 是一家致力于重新定义“观测性”(Observability)的云原生平台,专为大规模工程团队设计。其核心理念是将原本被视为负担的海量日志转化为企业的战略资产。Axiom 提供了一个统一的平台,集成了日志管理、分布式追踪和指标监控,特别针对现代 AI 工程化需求进行了深度优化。
该平台的核心优势在于其卓越的扩展性和成本效益。通过创新的架构,Axiom 能够实现 PB 级数据的实时摄取与查询,并提供超过 95% 的数据压缩率,使得企业能够以极低的成本长期保留全部原始数据。在功能层面,Axiom 引入了强大的管道处理语言(APL),支持虚拟字段和查询时转换,极大提升了数据分析的灵活性。
针对当前火热的 AI 领域,Axiom 推出了专门的 AI 工程工具包。它允许开发者评估 Prompt 效果、追踪 AI 代理(Agent)的多步工作流,并自动监控不同模型供应商的成本、延迟和 Token 消耗。此外,Axiom 强调“快速实现价值”,用户可以在 5 分钟内完成部署,并在 60 天内看到显著的投资回报(ROI)。目前,已有超过 40,000 家组织(包括 Vercel、Netlify 和 Asana 等)采用 Axiom 来驱动其数据决策。其定价模式透明且灵活,采用基于使用量的计费方式,消除了传统企业级软件复杂的谈判过程和人为的功能限制。

My Current AI Dev Workflow | Peter Steinberger
Went fully back to Ghostty, VS Code on the side, and Claude Code as my main driver. Here's what actually works after months of experimentation.
steipete.me
Peter Steinberger 在本文中分享了他截至 2025 年 8 月的最优 AI 开发工作流。其核心理念是“少即是多”(Less is More),强调通过极简的工具链实现最高生产力。他目前的工作流已从完全依赖 VS Code 转向以 Ghostty 终端 + Claude Code (CLI) 为核心的模式。
在硬件方面,他推崇戴尔 UltraSharp U4025QW 40 英寸显示器,其超宽分辨率允许同时显示 4 个 Claude 实例和浏览器,无需频繁切换窗口。在软件工具上,他放弃了不稳定的 VS Code 内置终端,转而使用 Ghostty。虽然他仍保留 VS Code 用于代码查看,并使用 Cursor 或 GPT-5 进行代码审查,但主要的编码和重构工作由 Claude Code 承担。
Peter 强调了“上下文管理”的重要性。他通过在状态栏显示会话 ID、使用 CLAUDE.md 记录环境配置、以及坚持在同一上下文中编写测试来优化 AI 的表现。他认为,虽然 AI 代理(Agents)非常强大,但人类的实时引导(Steering)至关重要,以防止 AI 偏离方向。此外,他倾向于使用具有强大 CLI 支持的服务(如 Vercel、psql、gh),因为这能让 AI 代理更高效地执行任务。尽管 Claude 的费率限制可能带来挑战,但他认为目前没有更好的替代方案,这种工作流极大地提升了他的开发效率。
GitHub - steipete/agent-scripts: Scripts for agents, shared between my repositories.
Scripts for agents, shared between my repositories. - steipete/agent-scripts
github.com
agent-scripts 是由开发者 Peter Steinberger(steipete)发起的一个开源项目,旨在为其多个代码仓库提供统一、可复用的 AI 代理(Agent)脚本和护栏(Guardrail)配置。该项目作为一个“规范镜像(Canonical Mirror)”,解决了在不同项目中重复编写和维护 AI 辅助脚本的问题。
核心内容包括:
- 同步机制:确立了以该仓库为准的同步原则,要求所有下游项目通过“指针文件”引用此处的规则,确保指令的一致性。
- 核心工具集:提供了包括
committer(自动化提交)、docs-list(文档管理)以及功能强大的browser-tools(基于 Chrome 的浏览器自动化工具)在内的多种实用脚本。 - AI 技能集成:除了作者自研的 Sweetistics 护栏助手,还集成了来自社区(如 Dimillian)的 Swift 并发、SwiftUI 性能审计等高级 AI 技能。
- 便携性设计:强调脚本的独立性,不依赖特定项目的复杂配置,确保在不同环境下均能开箱即用。
该项目为开发者构建高效、标准化的 AI 辅助开发工作流提供了一套成熟的参考实现。

Shipping at Inference-Speed | Peter Steinberger
Why I stopped reading code and started watching it stream by.
steipete.me
本文由 Peter Steinberger 撰写,探讨了在 2025 年底,随着 AI 模型(特别是 GPT-5.2 和 Codex)的进化,软件开发范式发生的剧变。作者提出了“以推理速度交付”(Shipping at Inference-Speed)的概念,认为现在的开发瓶颈已不再是编写代码,而是 AI 的推理时间和人类的深度思考。
文章详细对比了 OpenAI 的 Codex 与 Anthropic 的 Claude (Opus) 在实际工程中的表现。作者指出,Codex 虽然在响应速度上可能较慢,但其在编写代码前会进行长时间的全局阅读和深度思考,从而在处理大型重构和复杂功能时具有更高的“一次性成功率”。作者分享了其高度自动化的工作流:不再依赖传统的 IDE(如 Xcode),而是通过 CLI 和 Agent 直接驱动开发;不再编写详尽的 Prompt,而是通过简短指令、截图和跨项目参考来引导 AI。
此外,作者介绍了其开发的工具(如 oracle、VibeTunnel、Clawdis),展示了 AI 如何全方位接管从系统底层转换到智能家居控制的各项任务。他强调,现代开发者的核心竞争力在于选择技术栈、设计系统架构以及与 AI 协作的直觉。最后,作者分享了其 Codex 配置文件,为追求极致开发效率的工程师提供了实践参考。

Thariq (@trq212)
x.com
本文由 Anthropic 的工程师 Thariq 分享,深入探讨了在构建 AI 智能体(Agent)工具空间(Action Space)时的核心理念与实战经验。作者提出,构建智能体最难的部分在于设计其工具集,而成功的关键在于“像智能体一样思考”,即根据模型自身的能力边界来量身定制工具。
文章通过四个核心案例展示了工具设计的演进过程:首先是提问机制的优化,从简单的参数添加、格式约定,最终演变为独立的 AskUserQuestion 工具,以实现高效的人机协作;其次是任务管理系统的升级,随着模型能力的提升,从被动的 Todo 列表转向了支持多智能体协作、具备依赖关系的 Task 工具;第三是上下文构建的转变,从依赖外部 RAG 检索转向赋予模型 Grep 等搜索工具,让模型通过“渐进式披露”自主探索代码库;最后是复杂功能的解耦,通过引入专门的子智能体(如 Guide Agent)来处理特定领域的知识,避免了系统提示词的臃肿。
作者强调,工具设计并非一成不变的科学,而是一门需要不断实验、观察模型输出并随模型能力提升而迭代的艺术。开发者应保持工具集的精简,避免“上下文腐败”,并始终关注模型在特定环境下的实际表现。
GitHub - steipete/mcporter: Call MCPs via TypeScript, masquerading as simple TypeScript API. Or package them as cli.
Call MCPs via TypeScript, masquerading as simple TypeScript API. Or package them as cli. - steipete/mcporter
github.com
MCPorter 是一个专为 Model Context Protocol (MCP) 设计的 TypeScript 运行时、命令行工具(CLI)及代码生成工具包。它的核心目标是简化 MCP 服务器的发现、调用与自动化流程,让开发者能够像调用普通 TypeScript API 一样无缝使用 MCP 工具,或将其快速打包为独立的命令行程序。
以下是 MCPorter 的核心功能与特性概括:
1. 核心功能
- 零配置发现(Zero-config Discovery): 能够自动整合系统中已有的 MCP 配置(如 Cursor、Claude Desktop、Windsurf 等编辑器的配置),支持环境变量扩展和连接池复用,无需手动编写繁琐的接入代码。
- 自动生成独立 CLI: 通过
generate-cli命令,可将任何 MCP 服务器定义转换为一个独立的可执行 CLI 工具。支持打包、编译及元数据嵌入,方便工具的分发与复用。 - 强类型客户端生成: 使用
emit-ts命令可为 MCP 服务器生成.d.ts类型定义或客户端包装器,使开发者在 TypeScript 项目中调用工具时享有完整的类型检查和自动补全。 - 友好的运行时 API: 提供
createServerProxy()等方法,将 MCP 工具映射为符合直觉的驼峰式(camelCase)异步方法,并自动处理 JSON-Schema 默认值验证。
2. 技术特性与优势
- 多协议支持: 统一处理 HTTP、SSE 和 stdio 传输协议。内置 OAuth 令牌缓存机制,简化了受保护服务器(如 Vercel、Supabase)的认证流程。
- 即时连接(Ad-hoc): 支持直接指向任何 MCP 终端 URL 或 stdio 命令进行临时调用,无需预先修改配置文件。
- 守护进程模式(Daemon Mode): 针对有状态的服务器(如 Chrome DevTools),MCPorter 提供守护进程支持,确保在多次调用之间保持会话(如浏览器标签页)活跃。
- 智能交互: CLI 支持类似 JavaScript 的函数调用语法,并具备自动纠错功能(Typo Auto-correct),当输入工具名有误时会根据编辑距离算法自动匹配或给出建议。
3. 使用场景
MCPorter 极大地优化了 Anthropic 提出的“代码执行”工作流。它不仅适用于开发者在终端手动测试 MCP 工具,更适合作为基础设施集成到 AI Agent、自动化脚本或 CI/CD 流程中。
快速上手:
用户无需安装,直接通过 npx mcporter list 即可查看本地已配置的所有 MCP 服务器及其工具签名;使用 npx mcporter call <server>.<tool> 即可快速执行任务。
总的来说,MCPorter 通过消除样板代码和复杂的 Schema 处理,为 MCP 生态提供了一个高效、类型安全且极具扩展性的操作层。

Entire · A new developer platform is coming
We are going beyond repositories, building a developer platform where agents and humans can collaborate, interact, and grow. The birth of a new galaxy in this universe draws near.
entire.io
Entire 是一个新兴的开发者平台,近期宣布完成了 6000 万美元的种子轮融资。该平台的核心理念是“让每一次代码提交(Commit)都讲述一个完整的故事”。它认为代码本身只是结果,而编写代码时的思考过程和 AI 协作记录才是理解代码意图的关键。
核心功能与技术实现 Entire 提供了一个基于 MIT 协议开源的命令行工具(CLI),其核心功能包括:
- 工作流集成: Entire CLI 深度钩入(Hook)现有的 Git 工作流。每当开发者进行代码推送(Push)时,它会自动捕获当前的 AI 智能体(Agent)会话。
- 自动索引与同步: AI 会话记录会与 Git 提交记录同步索引,在 Git 历史中自动创建“检查点”(Checkpoint)。这意味着代码变更与其产生的对话背景被永久绑定。
- 多智能体支持: 目前已原生支持 Claude Code 和 Gemini,未来将集成更多主流 AI 开发工具。
- 本地化存储: 所有的上下文数据直接存储在用户的 Git 历史中,无需外部数据库或第三方托管服务,确保了数据的私密性与安全性。

The creator of Clawd: "I ship code I don't read"
Peter Steinberger ships more code than I’ve seen a single person do: in January, he was at more than 6,600 commits alone. As he puts it: “From the commits, it might appear like it's a company. But it’s not. This is one dude sitting at home having fun." How does he do it? Peter Steinberger is the creator of Clawdbot (as of yesterday: renamed to OpenClaw) and founder of PSPDFKit. OpenClaw – a work-in-progress AI agent that shows what the future of Siri could be like – is currently the hottest AI project in the tech industry, with more searches on Google than Claude Code or Codex. I sat down with Peter in London to talk about what building software looks like when you go all-in with AI tools like Claude and Codex. Peter’s background is fascinating. He built and scaled PSPDFKit into a global developer tools business. Then, after a three-year break, he returned to building. This time, LLMs and AI agents sit at the center of his workflow. We discuss what changes when one person can operate like a team and why closing the loop between code, tests, and feedback becomes a prerequisite for working effectively with AI. We also go into how engineering judgment shifts with AI, how testing and planning evolve when agents are involved, and which skills and habits are needed to work effectively. This is a grounded conversation about real workflows and real tradeoffs, and about designing systems that can test and improve themselves. — *Brought to you by our season partners:* • Statsig — The unified platform for flags, analytics, experiments, and more. http://statsig.com/pragmatic • Sonar – The makers of SonarQube, the industry standard for automated code review. https://www.sonarsource.com/pragmatic/?utm_medium=paid&utm_source=pragmaticengineer&ut[…]egory=Paid&s_source=Paid%20Other&s_origin=pragmaticengineer • WorkOS – Everything you need to make your app enterprise ready. https://workos.com/ — *The Pragmatic Engineer deepdives relevant for this episode:* • Inside a five-year-old startup’s rapid AI makeover https://newsletter.pragmaticengineer.com/p/ai-first-makeover-craft • When AI writes almost all code, what happens to software engineering? https://newsletter.pragmaticengineer.com/p/when-ai-writes-almost-all-code-what • Why it’s so dramatic that “writing code by hand is dead” https://newsletter.pragmaticengineer.com/p/the-pulse-160-why-its-so-dramatic • AI Engineering in the real world https://newsletter.pragmaticengineer.com/p/ai-engineering-in-the-real-world • The AI Engineering stack https://newsletter.pragmaticengineer.com/p/the-ai-engineering-stack — *Where to find Peter Steinberger:* • X: https://x.com/steipete • LinkedIn: https://www.linkedin.com/in/steipete • Website: https://steipete.me • OpenClaw: https://www.OpenClaw.ai — *In this episode, we cover:* (00:00) Intro (01:07) How Peter got into tech (08:27) PSPDFKit (19:14) PSPDFKit’s tech stack and culture (22:33) Enterprise pricing (29:42) Burnout (34:54) Peter finding his spark again (43:02) Peter’s workflow (49:10) Managing agents (54:08) Agentic engineering (59:01) Testing and debugging (1:03:49) Why devs struggle with LLM coding (1:07:20) How PSPDFkit would look if built today (1:11:10) How planning has changed with AI (1:21:14) Building Clawdbot (now: OpenClaw) (1:34:22) AI’s impact on large companies (1:38:38) “I don’t care about CI” (1:40:01) Peter’s process for new features (1:44:48) Advice for new grads (1:50:18) Rapid fire round — See the transcript and other references from the episode at https://newsletter.pragmaticengineer.com/podcast — Production and marketing by https://penname.co/.
www.youtube.com
这段视频是《The Pragmatic Engineer》播客对知名开发者 Peter Steinberger 的深度专访。Peter 曾经开发了被全球超过十亿台设备使用的底层 PDF 框架 PSPDFKit。在经历了严重的职业倦怠并卖掉股份后,他彻底离开了科技界三年。今年,他带着一个名为 Clawbot(一款在 GitHub 上迅速爆火的超级个性化 AI 助手)的新项目重返大众视野。
访谈的核心探讨了 AI 代理(AI Agents)如何彻底颠覆传统的软件工程工作流。Peter 分享了他现在的开发模式——他称之为“代理式工程(Agentic Engineering)”。在这个模式下,他不再逐行手写或阅读大部分部署的代码,而是像架构师一样,同时指挥 5 到 10 个 AI 模型(如 Codex、Claude)并行工作。他强调了“闭环(Closing the loop)”原则,即通过让 AI 自己编写测试脚本和 CLI 工具来验证代码,从而确保 AI 生成代码的可靠性。
此外,Peter 还提出了一系列前卫的观点:他认为传统的代码审查(Code Review)意义正在减弱,未来的 Pull Request 应该被称为 Prompt Request(提示词请求);过度复杂的 AI 编排(如 MCP)不如简单的命令行接口(CLI)高效;以及未来的软件公司或许只需要目前 30% 的人手就能运转。这期访谈生动地展示了一位顶尖开发者如何驾驭 AI 工具,实现个人生产力的几何级跃升。

Context Engineering for AI Agents: Lessons from Building Manus
This post shares the local optima Manus arrived at through our own "SGD". If you're building your own AI agent, we hope these principles help you converge faster.
manus.im
本文由 Manus 的开发者 Yichao 'Peak' Ji 撰写,分享了在构建 AI Agent(智能体)过程中关于“上下文工程”(Context Engineering)的核心经验。作者指出,相比于耗时且难以迭代的端到端模型微调,Manus 选择基于前沿模型的上下文学习能力进行构建,通过优化上下文结构来实现快速迭代。
文章总结了六大核心原则:
- 围绕 KV-Cache 设计:KV-Cache 命中率是生产环境的关键指标,直接影响延迟和成本。开发者应保持 Prompt 前缀稳定、采用“仅追加”模式并明确缓存断点。
- 掩码而非删除:面对庞大的工具库,不应动态删除工具(这会破坏缓存并导致模型困惑),而应通过 Logit 掩码(Masking)在解码阶段限制动作空间。
- 将文件系统视为上下文:针对长上下文导致的性能下降和高成本,Manus 将文件系统作为外部持久化存储,让模型按需读写,实现可恢复的上下文压缩。
- 通过“背诵”操纵注意力:利用如
todo.md的任务列表,让模型在长任务中不断重申目标,防止注意力漂移。 - 保留错误记录:不要清理失败的尝试,错误记录是模型学习和自我修正的关键证据。
- 避免过度 Few-shot:过多的同质化示例会导致模型陷入行为模式的死循环,应引入结构化变体以增强鲁棒性。
作者强调,上下文工程是定义 Agent 行为、效率和扩展能力的关键,是构建智能体未来的基石。

Minions: Stripe’s one-shot, end-to-end coding agents—Part 2
Minions are Stripe’s homegrown coding agents, responsible for more than a thousand pull requests merged each week. Though humans review the code, minions write it from start to finish. Learn how they work, and how we built them.
stripe.dev
本文是 Stripe 内部 AI 编码智能体“Minions”系列的第二部分,深入探讨了支撑这些智能体高效运行的底层架构与技术细节。Minions 是一种无需人工干预、端到端的单次编码智能体,每周在 Stripe 产生的合并 PR 超过 1300 个。
其核心优势在于充分复用了 Stripe 为人类工程师构建的成熟基础设施。首先,Minions 运行在名为 devbox 的云开发环境中,这种环境具备并行化、可预测和隔离的特性,确保智能体在 10 秒内即可获得干净且配置齐全的工作空间。其次,Stripe 引入了 “蓝图”(Blueprints) 概念,这是一种结合了确定性代码节点和灵活性智能体节点的混合工作流,既保证了代码规范(如 Lint 检查)的强制执行,又保留了 LLM 处理复杂任务的能力。
在上下文获取方面,Minions 利用 规则文件(Rule files) 自动学习代码库规范,并通过集中的 Toolshed(基于 MCP 协议) 动态调用内部工具。最后,Minions 遵循“反馈左移”原则,在推送到 CI 之前进行本地自动化迭代,并限制 CI 循环次数以平衡成本与效率。Stripe 的经验表明,多年来在提升人类开发者效率上的投入,正成为 AI 智能体发展的巨大红利。


