
你是否还在浏览器中使用ChatGPT、Claude、Kimi、豆包,频繁地复制粘贴问题,在多个标签页之间切换,陷入无尽的上下文丢失困境?如果是这样,你正在用最慢的方式使用AI。
实际上,几乎所有主流AI工具都有终端版本,它们能让你的工作效率提升10倍。Gemini CLI、Claude Code、Codex、Trae——这些工具不仅速度更快,更重大的是,它们赋予AI访问你本地文件系统的能力,实现真正的”AI协同工作”。
AI公司对此相当低调,他们主要向开发者推广这些终端工具用于编程,但他们没告知你的是:这些工具可以用于一切工作——写作、研究、项目管理,而且体验远超浏览器应用。
这次,我想分享的不仅是终端AI工具的使用技巧,而是一套完整的”终端AI工作流”哲学:如何用Gemini CLI管理项目上下文、如何用Claude Code的Agent并行处理任务、如何让三个不同的AI在同一项目中协作。希望对你有所启发。
PART 01 – 浏览器AI的三大致命缺陷
在深入终端AI之前,让我们先审视传统浏览器AI使用方式的问题。
上下文碎片化:
这是否是你的日常?在浏览器中打开ChatGPT或者kimi,开始研究一个项目。随着对话深入,滚动条越来越长,直到看不见滚动条。
这是第五个聊天记录了,由于之前的ChatGPT丢失了上下文或者”思路混乱”了。
为了确保ChatGPT没有”胡说八道”,你又创建了几个Claude和Gemini的聊天记录进行交叉验证。你尝试把一些内容复制粘贴到笔记应用中保存——但这从来没有真正奏效过。
此时此刻,你的项目已经分散在:
- 20个浏览器聊天记录中
- 2个深度研究会话中
- 零散的笔记片段中
这不是工作流程,这是灾难现场。
无法访问本地资源:
浏览器AI的本质限制:它被困在浏览器沙盒中,无法访问你的文件系统。
这意味着:
- 每次需要让AI看一个文件,你必须复制粘贴内容
- AI生成的代码或文档,你必须复制粘贴到本地保存
- 如果文件更新了,你需要重新复制粘贴
- 如果AI需要访问多个文件,你需要多次复制粘贴
这种工作方式不仅效率低下,更容易出错:
- 复制时可能漏掉部分内容
- 粘贴时可能破坏格式
- 版本不同步导致AI基于过时信息工作
- 重复劳动浪费大量时间
上下文窗口不可见:
浏览器AI有一个致命的隐藏问题:你不知道剩余多少上下文空间。
每个AI模型都有上下文窗口限制(如Claude的200K tokens),但浏览器界面不会告知你:
- 当前对话消耗了多少tokens
- 还剩多少空间
- 哪些内容占用了最多空间
- 何时会触发上下文截断
结果就是:
- 突然间AI开始”遗忘”之前的对话
- 不知道为什么AI的回答变得不相关
- 无法预判何时需要开始新对话
- 没有办法优化上下文使用
这就像开车时没有油表——你不知道什么时候会抛锚。
无法并行工作:
浏览器AI是严格单线程的:
- 一次只能处理一个任务
- 等待回复时,你被困住了
- 不能同时让多个AI处理不同子任务
- 无法对比不同AI的输出质量
想象一下这个场景:
- 你需要AI研究3个不同主题
- 每个主题需要5分钟
- 浏览器中,你需要等待15分钟,依次完成
- 如果你想要Claude和GPT同时给出方案对比呢?再等15分钟
总共30分钟,而且你必须盯着屏幕等待。这不是高效工作,这是在浪费生命。
新的解决方案:终端AI
这些问题不是偶然的——它们是浏览器架构的固有限制。解决方案不是改善浏览器AI,而是从根本上改变AI的使用环境:
从浏览器转向终端,意味着:
- 上下文持久化
- :项目上下文保存在本地文件中,永不丢失
- 文件系统访问
- :AI直接读写你的文件,无需复制粘贴
- 透明的资源管理
- :清楚看到上下文使用情况
- 并行多任务
- :同时运行多个AI Agent
- 工具集成
- :与Git、开发工具、脚本无缝协作
这不是小改善,这是范式转移。
PART 02 – 核心工具解析:三大终端AI的技术对比
终端AI工具并非铁板一块,不同工具有各自的设计哲学和适用场景。
Gemini CLI:Google的免费入场券
Gemini CLI是Google推出的命令行AI工具,其最大优势是慷慨的免费额度。
核心特性:
- 免费tier
- :使用个人Google账号即可,无需付费
- Gemini 2.5 Pro
- :最新最强的模型直接可用
- 项目上下文系统
- :gemini.md文件管理项目状态
- 透明的上下文管理
- :实时显示剩余上下文百分比
- 工具调用能力
- :可执行Bash命令、读写文件、网络搜索
安装方式:
# 一键安装
curl -sSL https://get.gemini.dev | bash
# 或使用Homebrew (macOS)
brew install gemini-cli
# 首次运行
gemini
# 会提示登录Google账号,使用免费额度
gemini.md文件的魔力:
# 在项目目录中
cd my-project
gemini
# 初始化项目上下文
> /init
# Gemini会分析项目,创建gemini.md文件
# 包含:项目描述、文件结构、当前状态、待办事项
这个gemini.md文件是关键创新:
- 每次启动Gemini,自动加载这个文件作为上下文
- 新开聊天记录?没问题,上下文还在
- 项目状态、决策记录、进度追踪,全在一个文件
- 可以让Gemini随时更新这个文件:/update命令
实际使用体验:
# 第一个会话
gemini
> 我在做一个咖啡博客项目,帮我研究10个最佳咖啡制作网站
> 编译结果到Best_Coffee_Methods.md
> 创建一个博客大纲
# 关闭终端,第二天早上
gemini
# Gemini加载gemini.md,立即知道项目状态
> 继续昨天的博客大纲,写第一篇文章的引言
# 无需重新解释上下文!
Claude Code:Agent并行的巅峰之作
如果说Gemini CLI是”入门级”,Claude Code就是”专业级”终端AI工具。
核心创新:Agent系统
# 安装
npm install -g @anthropic-ai/claude-code
# 启动(需要Claude Pro订阅,$20/月)
claude
# 创建Agent
> /agents
# 进入Agent管理界面
Agent的革命性突破:
传统方式:
你 → 主Claude会话 → 处理任务 → 上下文越来越大 → 最终混乱
Agent方式:
你 → 主Claude会话 → 分配任务给Agent 1(新上下文)
→ 分配任务给Agent 2(新上下文)
→ 分配任务给Agent 3(新上文)
↓
三个Agent并行工作,互不干扰
↓
结果汇总给主会话
每个Agent都有:
- 独立的200K上下文窗口
- 专门的系统提示词
- 特定的工具访问权限
- 独立的思考过程
实战案例:
# 创建专业Agent
claude
> /agents
> new agent
名称: home-lab-guru
描述: 专精于家庭实验室硬件研究的专家
工具: Read, Write, Bash, Search
模型: Claude Sonnet 4.5
# 使用Agent
> 使用@home-lab-guru研究最佳NAS方案,预算$500
# Agent启动,独立上下文,专注研究
> 同时,帮我找达拉斯最好的披萨店
# 主会话继续工作,不受影响
多Agent并行的威力:
# 同时运行7个Agent
claude
> 用@agent1研究Proxmox服务器
> 用@agent2找最佳游戏显卡
> 用@agent3分析最新AI论文
> 用@agent4写项目文档
> 用@agent5审查代码
> 用@agent6优化数据库
> 用@agent7测试API
# 7个"员工"同时工作,7倍效率!
Output Styles:自定义Claude的”人格”
> /output style
# 列出预设风格: code, architect, writer, analyst
# 创建自定义风格
> /output style new
名称: script-writer
系统提示: 你是一个YouTube脚本写作专家...
# 切换风格
> /output style script-writer
# Claude的回复风格立即改变
Open Code:开源的自由之选
Open Code是社区驱动的开源终端AI工具,最大特点是灵活性。
核心优势:
- 开源免费
- :MIT许可,完全自由使用
- 模型无关
- :支持Claude、GPT、Gemini、本地模型
- Ollama集成
- :可以使用完全本地的LLaMA、Qwen等模型
- 与Claude Code兼容
- :可以用Claude Pro订阅登录
安装与配置:
# 安装
npm install -g @opencode/cli
# 首次启动,默认使用Grok(免费)
opencode
# 配置本地模型
nano ~/.config/opencode/opencode.jsonc
{
"model": "ollama/llama3.2",
"ollamaHost": "http://localhost:11434"
}
# 或登录Claude Pro
opencode auth login
# 选择anthropic,粘贴授权码
多模型切换:
opencode
> /model
# 列出可用模型:
# - grok-fast (免费)
# - claude-sonnet-4.5 (需登录)
# - ollama/llama3.2 (本地)
# - ollama/qwen2.5-coder (本地)
# 中途切换模型
> /model claude-sonnet-4.5
# 立即切换,对话历史保留
会话管理:
# 查看历史会话
> /sessions
# 分享会话(生成公开链接)
> /share
# 复制URL,任何人可以查看你的对话记录
# 时间旅行:回到过去的对话状态
> /timeline
# 选择历史节点,恢复到那个时刻
三大工具对比
|
维度 |
Gemini CLI |
Claude Code |
Open Code |
|
成本 |
免费 |
$20/月(Claude Pro) |
免费(本地模型) |
|
模型 |
Gemini 2.5 Pro |
Claude Sonnet 4.5 |
多模型支持 |
|
核心优势 |
免费+强劲 |
Agent并行 |
开源+本地 |
|
上下文管理 |
gemini.md |
claude.md |
agents.md |
|
并行能力 |
单线程 |
多Agent并行 |
单线程 |
|
学习曲线 |
简单 |
中等 |
简单 |
|
适用场景 |
个人项目 |
专业开发 |
隐私优先 |
|
文件操作 |
✅ |
✅ |
✅ |
|
网络搜索 |
✅ |
✅ |
✅ |
|
Bash执行 |
✅ |
✅ |
✅ |
PART 03 – 终端AI的技术体系
终端AI工具构成了一个完整的四层技术体系。
Gemini CLI业务架构层免费使用个人项目快速入门应用架构层Gemini 2.5 Progemini.md上下文单线程处理工具调用数据架构层本地文件访问Git版本控制上下文持久化项目状态管理技术架构层CLI终端界面HTTP/WebSocketGoogle API免费额度Claude Code业务架构层专业开发团队协作$20/月订阅应用架构层Sonnet 4.5多Agent并行独立上下文Output Styles数据架构层claude.md上下文Agent配置会话历史Git Worktrees技术架构层TUI界面流式传输Anthropic API200K上下文Open Code业务架构层开源免费隐私优先本地运行应用架构层多模型支持Claude兼容Ollama集成Grok免费数据架构层agents.md上下文会话分享时间旅行本地存储技术架构层开源CLI本地推理零网络延迟完全隐私
从”工具使用”到”工作流程”的转变
终端AI不仅是工具,更是一种新的工作方式。
传统浏览器AI的业务模式:
问题 → 打开浏览器 → 输入提示词 → 等待回复 → 复制结果 → 关闭浏览器
终端AI的业务模式:
项目 → 初始化上下文 → 持续对话 → AI读写文件 → 状态持久化 → 多会话协作
关键差异:
- 从”会话”到”项目”
- :不再是孤立的问答,而是长期的项目协作
- 从”复制粘贴”到”直接操作”
- :AI可以直接操作文件系统
- 从”单点工具”到”工作流枢纽”
- :终端AI成为工作流程的中心
PART 04 – 实战部署:零基础入门终端AI
理论讲完了,目前我们实际操作,让你在10分钟内上手终端AI。
环境准备:三选一的入门路径
根据你的情况,选择最适合的入门工具:
路径A:Gemini CLI(推荐新手)
# macOS
brew install gemini-cli
# Linux/WSL
curl -sSL https://get.gemini.dev | bash
# Windows (WSL Ubuntu)
# 1. 启用WSL: wsl --install
# 2. 打开Ubuntu终端
# 3. 运行安装命令
curl -sSL https://get.gemini.dev | bash
# 验证安装
gemini --version
路径B:Claude Code(推荐专业用户)
# 前提:已订阅Claude Pro ($20/月)
# 安装Node.js (如未安装)
# macOS
brew install node
# Linux
sudo apt update && sudo apt install nodejs npm
# Windows
# 访问 https://nodejs.org 下载安装
# 安装Claude Code
npm install -g @anthropic-ai/claude-code
# 验证安装
claude --version
路径C:Open Code(推荐隐私优先用户)
# 安装
npm install -g @opencode/cli
# 安装Ollama(本地模型引擎)
# macOS
brew install ollama
# Linux
curl -fsSL https://ollama.com/install.sh | sh
# Windows
# 访问 https://ollama.com/download
# 拉取模型
ollama pull llama3.2
# 验证
opencode --version
ollama list
第一个终端AI项目:咖啡博客写作
我们用Gemini CLI演示完整流程,其他工具类似。
步骤1:创建项目目录
mkdir coffee-blog
cd coffee-blog
步骤2:初始化Git(重大!)
git init
git config user.name "Your Name"
git config user.email "your@email.com"
# 创建.gitignore
echo "node_modules/" > .gitignore
echo ".env" >> .gitignore
git add .
git commit -m "Initial commit"
为什么需要Git?
- 追踪所有变更历史
- 可以回滚到任何时点
- AI可以用Git命令检查变更
- 便于团队协作
步骤3:启动Gemini并初始化项目
gemini
首次启动会提示登录Google账号:
Welcome to Gemini CLI!
Please authenticate with your Google account.
Press Enter to open browser...
登录后:
> /init
Gemini: 我来分析当前项目...
- 检测到空项目
- 已有Git仓库
- 正在创建gemini.md...
完成!项目上下文已初始化。
查看生成的gemini.md:
cat gemini.md
内容示例:
# Coffee Blog Project
## 项目描述
咖啡博客写作项目
## 项目结构
- gemini.md (本文件)
## 当前状态
项目刚初始化
## 待办事项
- 确定博客主题
- 研究咖啡制作方法
- 创建博客大纲
步骤4:第一个任务——研究
> 我想创建一个咖啡博客,请帮我:
1. 研究互联网上10个最佳咖啡制作资源网站
2. 只选择可信来源
3. 编译结果到 best_coffee_resources.md
4. 创建一个博客系列大纲,保存为 blog_outline.md
Gemini: 开始研究...
我需要创建文件吗? [y/n] y
[搜索互联网...]
[分析资源质量...]
[创建文档...]
完成!已创建:
- best_coffee_resources.md
- blog_outline.md
我还更新了gemini.md,记录了研究决策。
步骤5:查看生成的文件
ls -la
# coffee-blog/
# ├── .git/
# ├── gemini.md
# ├── best_coffee_resources.md
# └── blog_outline.md
# 打开文件查看
cat blog_outline.md
步骤6:继续协作
> 根据大纲,写博客系列的第一篇文章引言
> 文件名: article_01_intro.md
Gemini: [写入文章...]
完成!
步骤7:关闭并重新打开
# 退出Gemini
> exit
# 第二天,重新打开
gemini
Gemini: 欢迎回来!
加载项目上下文: coffee-blog
上次我们:
- 研究了咖啡资源
- 创建了博客大纲
- 写了第一篇引言
下一步: 继续写博客系列?
> 是的,写第二篇文章主体部分
# 无需重新解释上下文!
PART 05 – 多工具协作:终端AI的”团队作战”模式
单个AI工具已经很强,但真正的威力在于多个AI协作。
场景:视频脚本创作的三AI流水线
视频博主的实际工作流:需要创作一个YouTube视频脚本。
传统方式(浏览器):
- ChatGPT写初稿(30分钟)
- 复制到Claude审查(15分钟)
- 复制到Gemini优化(15分钟)
- 手动整合三个版本(30分钟)
总计:90分钟,大量复制粘贴
终端AI协作方式(10分钟):
# 项目目录
mkdir video-script
cd video-script
git init && git commit --allow-empty -m "init"
# 同时打开3个终端窗口
# Terminal 1: Claude Code
# Terminal 2: Gemini CLI
# Terminal 3: Codex (ChatGPT终端版)
# 确保上下文同步
cat > claude.md << EOF
# Video Script Project
Topic: Terminal AI Tools
Goal: 10-minute tutorial video
Audience: Developers and creators
EOF
cp claude.md gemini.md
cp claude.md agents.md
# Terminal 1 (Claude): 创建Hook
claude
> 写视频开场Hook,角度:Authority
> 保存为 hook_authority.md
# Terminal 2 (Gemini): 创建另一种Hook
gemini
> 写视频开场Hook,角度:Discovery
> 保存为 hook_discovery.md
# Terminal 3 (Codex): 审查对比
codex
> 分析hook_authority.md和hook_discovery.md
> 评估哪个更吸引人,给出详细理由
> 保存分析为 hook_analysis.md
三个AI同时工作,互不干扰:
- Claude专注于Authority角度
- Gemini专注于Discovery角度
- Codex专注于高层次分析
Claude Code的Agent编排:一人当五人用
更进一步,用Claude的Agent功能创建”专家团队”。
创建专家Agent:
claude
> /agents
> new agent
Name: brutal-critic
Description: 严格的内容批评家,专门挑错
System Prompt:
你是一个极其严格的内容批评家。
你的任务是找出所有问题:逻辑漏洞、无趣段落、不清晰的表达。
不要客气,直接指出问题。
Tools: Read, Write
Model: Sonnet 4.5
# 保存Agent
类似地创建多个Agent:
- researcher: 专业研究员
- writer: 创意写手
- editor: 编辑
- seo-optimizer: SEO专家
- fact-checker: 实际核查员
使用Agent团队:
# 在主Claude会话中
> @researcher 研究"终端AI工具"的市场现状,
写报告到research.md
> 同时,@writer 创建三个不同风格的标题方案,
保存到titles.md
> @seo-optimizer 分析这些标题的SEO潜力
> @fact-checker 验证research.md中的所有数据
> @editor 整合所有内容,创建最终脚本
> @brutal-critic 审查最终脚本,无情批评
# 6个Agent并行工作!
检查Agent状态:
# 另开一个终端
claude
> 查看所有活跃的Agent任务
Active Agents:
- researcher (working... 60% done)
- writer (completed)
- seo-optimizer (working... 80% done)
- fact-checker (completed)
- editor (waiting for inputs)
- brutal-critic (queued)
# 主会话上下文:仅用了5%
# 6个Agent各自有独立200K上下文!
Gemini为Claude打工:跨AI协作的终极形态
最疯狂的玩法:让Claude调用Gemini。
为什么要这样做?
- Gemini的搜索能力更强
- Gemini免费,节省Claude配额
- 结合两者优势:Claude的推理+Gemini的搜索
实现方式:
# 创建一个"Gemini研究员"Agent
claude
> /agents
> new agent
Name: gemini-researcher
Description: 使用Gemini进行深度网络研究
System Prompt:
你是一个研究专家。
当需要研究时,使用Gemini CLI headless模式:
gemini -p "research query"
分析Gemini的输出,提取关键信息。 Tools: Bash, Read, Write
使用这个Agent:
> @gemini-researcher 找出2024年最流行的AI编程工具
Agent: [执行]
$ gemini -p "research popular AI coding tools 2024"
[Gemini响应...]
$ 解析输出...
$ 创建总结...
完成!保存为ai_tools_2024.md
你目前有了:
- Claude的高级推理
- Gemini的免费搜索
- Agent的自动化
- 完全本地的文件操作
这就是”AI使用AI”的终极协作。
PART 06 – 工作流优化:自动化与会话管理
理论和工具都掌握了,目前我们优化工作流程。
会话终结脚本:AI帮你整理工作
例如当天工作结束时,让AI自动整理一切。
创建”Session Closer”Agent:
claude
> /agents
> new agent
Name: session-closer
Description: 结束工作会话,自动整理和提交
System Prompt:
当用户说"结束会话"时,执行以下步骤:
1. 总结今天完成的工作
2. 更新gemini.md、claude.md、agents.md
3. 创建session-summary.md记录今日进展
4. 检查所有待办事项,更新状态
5. 用Git提交所有变更,commit message要详细
6. 给出明确的"下次启动从哪里继续"提议
Tools: Read, Write, Bash
# 保存
使用方式:
# 工作了一整天,累了
claude
> @session-closer 结束今天的工作
Agent: 开始整理...
1. 分析项目文件...
2. 总结完成工作:
- 完成video脚本大纲
- 写完Hook三个版本
- 研究完竞品分析
3. 更新上下文文件...
4. 创建会话总结...
5. Git提交...
$ git add .
$ git commit -m "Session 2025-01-15: Completed video outline and hooks
- Created authority angle hook
- Created discovery angle hook
- Researched competitor videos
- Updated project roadmap
Next steps:
- Write main script body
- Record video
- Edit and publish"
6. 明天的启动提议:
运行claude
后说: "继续脚本主体部分,从第二段开始" 完成!项目已整理,可以安心休憩了。
第二天早上:
claude
> 继续脚本主体部分,从第二段开始
Claude:
加载昨天的工作...
Session Summary显示:
- 大纲已完成
- Hook已完成
- 下一步:主体部分
好的,让我们从第二段"为什么终端AI更快"开始...
无需回忆,无需重新解释,AI知道一切。
上下文压缩:对抗token膨胀
长期项目的致命问题:上下文越来越大,最终超过限制。
监控上下文:
gemini
> /context
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Context Usage: 72% (144K/200K tokens)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Breakdown:
- gemini.md: 8K tokens
- Conversation history: 95K tokens
- File references: 35K tokens
- Tool outputs: 6K tokens
Warning: Approaching context limit!
手动压缩:
> /compress
Gemini: 我来压缩上下文...
分析对话历史...
保留关键决策:
- 项目方向确定(Session 1)
- 架构设计决策(Session 3)
- 重大Bug修复(Session 5)
压缩中间细节...
完成!
新的context usage: 35% (70K/200K tokens)
节省了74K tokens!
自动压缩策略:
# 在claude.md中添加规则
> 每当context usage > 80%时,自动运行压缩
> 压缩策略:保留最近3个session的详细历史
> 更早的session只保留关键决策和结论
结论
从浏览器到终端,这不仅是工具的转变,更是工作方式的革命。浏览器AI将你困在标签页中,复制粘贴是常态,上下文丢失是宿命。而终端AI打破了这些限制——项目上下文持久化在本地文件中,AI可以直接操作你的文件系统,多个Agent并行工作,不同AI工具无缝协作。
让AI真正融入你的工作流程,而非作为外部工具存在。
项目信息:
- 主要工具:
– Gemini CLI: https://github.com/google-gemini/gemini-cli – Claude Code: https://claude.com/code – Open Code: https://github.com/opencode/opencode-cli
- 相关技术:
– Ollama (本地模型): https://ollama.com – MCP Protocol: https://modelcontextprotocol.io
参考资料:
- Anthropic Blog – Introducing Claude Code
- Google AI Blog – Gemini CLI Developer Guide
- Open Code Documentation – Getting Started
- Model Context Protocol Specification
- Ollama Documentation – Local Model Deployment
- NetworkChuck YouTube – Terminal AI Tools Tutorial
- TechCrunch – The Rise of Terminal-Based AI Tools
- Hacker News Discussions – Terminal vs Browser AI
关于作者:
MCP研究院是一个专注于AI技术研究与实践的技术社区,致力于深度解析前沿AI技术,分享实战经验。我们的内容覆盖大语言模型、AI Agent、终端工具、工程实践等领域,为开发者提供有价值的技术洞察。
关注公众号”MCP研究院”,获取更多AI技术深度文章。
