告别臃肿:CLI如何成为AI Agent的开发利器

AI Agent 的未来并非 MCP,而是回归 CLI。赋予 Agent Shell 权限,直接使用经典工具,才是提高开发效率的关键。

原文标题:你只需要 CLI

原文作者:图灵编辑部

冷月清谈:

文章指出,曾经被视为 AI Agent 未来的 MCP(Meta-Control Protocol,即为 AI Agent 量身打造的标准化、结构化工具服务器)并未在实际开发中发挥预期作用。开发者们发现,赋予 AI Agent shell 权限,直接使用 git, rg, grep, npm, docker, curl, jq, tail 等经典 CLI 工具,反而能更高效地完成任务。文章分析了 MCP 的不足之处,包括 Token 消耗过大、重复造轮子、组合性差以及对日常开发流程的阻碍。同时,文章介绍了 Claude Code、Codex CLI、Gemini CLI 和 OpenCode 等引领潮流的 CLI 原生编码 Agent,并阐述了它们在 Monorepo 批量重构、生产环境全栈调试、新微服务脚手架搭建和 CI/CD 故障修复等场景下的应用。结论是,对于大多数日常开发任务,CLI 已经足够强大,开发者应拥抱 CLI 原生 Agent,以获得更快的迭代速度、更可控的 Token 消耗、更透明的智能体行为和更容易调试的操作。

怜星夜思:

1、文章提到 MCP 在企业集成场景仍有价值,那么在哪些具体的企业场景下,MCP 会比 CLI 更有优势?
2、文章里提到“智能体就是在 Unix 管道上训练出来的”,这句话该如何理解?
3、如果让 AI Agent 直接访问 Shell,安全风险如何控制?

原文内容

MCP 的热潮已经过去。

曾被视为 AI Agent 未来的 MCP——即为 AI Agent 量身打造的标准化、结构化工具服务器——最终却被证明对大多数真实编码工作来说,完全是大材小用。

到了 2026 年,那些交付速度最快、代码最简洁的开发者们又回到了原点:终端。

他们直接赋予 AI Agent shell 权限,让其使用那些几十年来屹立不倒的经典工具:

git, rg, grep, npm, docker, curl, jq, tail.

无需自定义服务器,无需庞大的 schema 描述占用上下文窗口。只需一个强大的推理模型加上 bash/zsh。

于是,AI Agent 写代码的体验,终于有了点魔法的味道。

MCP 为何在日常开发中失去光彩

对于常规开发流程来说,MCP 往往不是助力,反而成了阻力:

  • Token 消耗过大:冗长的工具目录和 schema 描述严重占用宝贵的上下文空间。
  • 重复造轮子:自定义的 MCP 服务器常常只是重复了官方 CLI 早已实现、且更可靠的功能。
  • 组合性差:你失去了 Unix 几十年来打磨出的管道、链式操作和临时小技巧的天然优势。
  • 模型适配度高: 主流大模型(如 Claude、GPT 系列、Gemini)在 shell 操作上训练极多,对命令参数、管道、报错、man 文档等理解得极其透彻。

最佳实践其实很简单:

把 AI Agent 放进你的项目目录,赋予受控的 shell 执行权限,然后描述你的任务。

Agent 会自动规划、执行命令、编辑文件、跑测试、提交代码、调试、循环迭代。

MCP 在高度结构化的企业集成场景(比如合规环境下的类型安全 SaaS API)依然有价值。但对于 80–90% 的日常开发流程来说,它只是噪音。

引领潮流的 CLI 原生编码 Agent

Claude Code(Anthropic) 依然是大规模或复杂代码库深度推理的领头羊。适合架构讨论、精细重构和多文件变更,解释详尽。原生支持终端工作流,能编辑文件、访问 shell、集成 git。按量付费,但解决难题物有所值。

Codex CLI(OpenAI) 轻量、快速,直接调用 OpenAI 强大模型。适合代码生成、测试和快速迭代。开源底子,易于本地部署和定制。

Gemini CLI(Google) 免费额度,强大的多模态能力。擅长原型开发、UI 任务和大型项目。以终端为核心,支持简洁的 ReAct 风格循环。开源且注重隐私。

OpenCode 多模型灵活切换(支持 75+ 供应商)、集成 LSP,隐私保护做得好。许多开发者称其为目前最高效的终端 AI Agent。社区发展迅速。

CLI 在这些场景完爆 MCP

  1. Monorepo 级别的批量重构

AI Agent 首先执行:

rg "oldDeprecatedFunction" .

然后规划跨文件的精准修改,应用变更,用 git diff 审查,跑 npm test 或 cargo test,最后提交:

refactor: remove deprecated API calls

无需 GitHub MCP 服务器,无需臃肿上下文。只用 rg、git 和测试工具,干净利落。

  1. 生产环境全栈调试

指令:“在 staging 环境复现认证失败。”

AI Agent 执行:

git pull
npm install
npm run dev
tail -f logs/server.log | grep error
curl -v api/auth/check
docker-compose up -d db redis
npm test -- --grep auth

它通过编辑文件、重新运行测试、探查接口等方式不断迭代。

没有 Docker 的 MCP,没有日志 MCP,只需精通 Shell 即可。

  1. 新微服务脚手架搭建

指令:“用 Axum 和 sqlx(Postgres 驱动)构建一个 Rust 用户资料 API。”

Agent 操作如下:

cargo new --bin user-service
cargo add axum sqlx --features postgres
cargo watch -x run
curl localhost:3000/health

开发过程中随时提交。无需 Rust MCP,也不需要数据库 MCP,现有工具链已足够。

  1. CI/CD 故障修复

Agent 克隆仓库,用 act 在本地跑工作流,发现失败后,编辑 .github/workflows/ci.yml 或 Dockerfile,用 docker build 验证,推送分支,并用 gh 开 PR。

全程只用标准 CLI 工具,无需专门的 CI 集成层。

开发者反复提到的模式

那些拥抱 CLI 原生 Agent 的团队普遍反馈:

  • 迭代速度更快
  • Token 消耗更可控
  • 智能体行为更透明
  • 更容易调试 Agent 的操作

最近流传的几句话:

“别再搞集成了,直接做 CLI。” “Bash 才是真正的 MCP。” “智能体就是在 Unix 管道上训练出来的——这方面简直无敌。” “CLI 就够了,其他都是多余。”

终端一直都是通用开发环境

到了 2026 年,它也是 AI Agent 最强大的接口。

除非你深陷企业专有工具,否则完全没必要用臃肿的 MCP 栈。

cd 进你的项目,启动你喜欢的 CLI 智能体,赋予 Shell 权限,描述你的需求。

然后静静看它大展身手。


(文章封面图源网络,侵删)

这取决于你的需求和预算。如果你需要处理大规模或复杂的代码库,并且愿意为高质量的推理能力买单,那么Claude Code可能是个不错的选择。但如果你的需求比较简单,或者更注重速度和定制性,那么Codex CLI或Gemini CLI可能更适合你。当然,如果你对隐私比较敏感,那么OpenCode可能更符合你的要求。

从我的理解来看,MCP适合那些高度依赖SaaS API且需要复杂工作流编排的企业。举个例子,一个公司可能需要将多个SaaS服务(如CRM、ERP、营销自动化工具)集成在一起,并使用AI Agent来自动执行跨平台的数据同步和流程自动化。MCP在这种情况下可以简化集成过程,并提供更好的可维护性。