这样用AI让你的效率提升10倍

这样用AI让你的效率提升10倍

你是否还在浏览器中使用ChatGPT、Claude、Kimi、豆包,频繁地复制粘贴问题,在多个标签页之间切换,陷入无尽的上下文丢失困境?如果是这样,你正在用最慢的方式使用AI。

实际上,几乎所有主流AI工具都有终端版本,它们能让你的工作效率提升10倍。Gemini CLI、Claude Code、Codex、Trae——这些工具不仅速度更快,更重大的是,它们赋予AI访问你本地文件系统的能力,实现真正的”AI协同工作”。

AI公司对此相当低调,他们主要向开发者推广这些终端工具用于编程,但他们没告知你的是:这些工具可以用于一切工作——写作、研究、项目管理,而且体验远超浏览器应用。

这次,我想分享的不仅是终端AI工具的使用技巧,而是一套完整的”终端AI工作流”哲学:如何用Gemini CLI管理项目上下文、如何用Claude Code的Agent并行处理任务、如何让三个不同的AI在同一项目中协作。希望对你有所启发。

PART 01 – 浏览器AI的三大致命缺陷

在深入终端AI之前,让我们先审视传统浏览器AI使用方式的问题。

上下文碎片化:

这是否是你的日常?在浏览器中打开ChatGPT或者kimi,开始研究一个项目。随着对话深入,滚动条越来越长,直到看不见滚动条。

这是第五个聊天记录了,由于之前的ChatGPT丢失了上下文或者”思路混乱”了。

为了确保ChatGPT没有”胡说八道”,你又创建了几个Claude和Gemini的聊天记录进行交叉验证。你尝试把一些内容复制粘贴到笔记应用中保存——但这从来没有真正奏效过。

此时此刻,你的项目已经分散在:

  • 20个浏览器聊天记录中
  • 2个深度研究会话中
  • 零散的笔记片段中

这不是工作流程,这是灾难现场。

无法访问本地资源:

浏览器AI的本质限制:它被困在浏览器沙盒中,无法访问你的文件系统。

这意味着:

  • 每次需要让AI看一个文件,你必须复制粘贴内容
  • AI生成的代码或文档,你必须复制粘贴到本地保存
  • 如果文件更新了,你需要重新复制粘贴
  • 如果AI需要访问多个文件,你需要多次复制粘贴

这种工作方式不仅效率低下,更容易出错:

  • 复制时可能漏掉部分内容
  • 粘贴时可能破坏格式
  • 版本不同步导致AI基于过时信息工作
  • 重复劳动浪费大量时间

上下文窗口不可见:

浏览器AI有一个致命的隐藏问题:你不知道剩余多少上下文空间。

每个AI模型都有上下文窗口限制(如Claude的200K tokens),但浏览器界面不会告知你:

  • 当前对话消耗了多少tokens
  • 还剩多少空间
  • 哪些内容占用了最多空间
  • 何时会触发上下文截断

结果就是:

  • 突然间AI开始”遗忘”之前的对话
  • 不知道为什么AI的回答变得不相关
  • 无法预判何时需要开始新对话
  • 没有办法优化上下文使用

这就像开车时没有油表——你不知道什么时候会抛锚。

无法并行工作:

浏览器AI是严格单线程的:

  • 一次只能处理一个任务
  • 等待回复时,你被困住了
  • 不能同时让多个AI处理不同子任务
  • 无法对比不同AI的输出质量

想象一下这个场景:

  • 你需要AI研究3个不同主题
  • 每个主题需要5分钟
  • 浏览器中,你需要等待15分钟,依次完成
  • 如果你想要Claude和GPT同时给出方案对比呢?再等15分钟

总共30分钟,而且你必须盯着屏幕等待。这不是高效工作,这是在浪费生命。

新的解决方案:终端AI

这些问题不是偶然的——它们是浏览器架构的固有限制。解决方案不是改善浏览器AI,而是从根本上改变AI的使用环境:

从浏览器转向终端,意味着:

  • 上下文持久化
  • :项目上下文保存在本地文件中,永不丢失
  • 文件系统访问
  • :AI直接读写你的文件,无需复制粘贴
  • 透明的资源管理
  • :清楚看到上下文使用情况
  • 并行多任务
  • :同时运行多个AI Agent
  • 工具集成
  • :与Git、开发工具、脚本无缝协作

这不是小改善,这是范式转移。

PART 02 – 核心工具解析:三大终端AI的技术对比

终端AI工具并非铁板一块,不同工具有各自的设计哲学和适用场景。

Gemini CLI:Google的免费入场券

Gemini CLI是Google推出的命令行AI工具,其最大优势是慷慨的免费额度。

核心特性:

  • 免费tier
  • :使用个人Google账号即可,无需付费
  • Gemini 2.5 Pro
  • :最新最强的模型直接可用
  • 项目上下文系统
  • :gemini.md文件管理项目状态
  • 透明的上下文管理
  • :实时显示剩余上下文百分比
  • 工具调用能力
  • :可执行Bash命令、读写文件、网络搜索

安装方式:

# 一键安装
curl -sSL https://get.gemini.dev | bash

# 或使用Homebrew (macOS)
brew install gemini-cli

# 首次运行
gemini
# 会提示登录Google账号,使用免费额度

gemini.md文件的魔力:

# 在项目目录中
cd my-project
gemini

# 初始化项目上下文
> /init

# Gemini会分析项目,创建gemini.md文件
# 包含:项目描述、文件结构、当前状态、待办事项

这个gemini.md文件是关键创新:

  • 每次启动Gemini,自动加载这个文件作为上下文
  • 新开聊天记录?没问题,上下文还在
  • 项目状态、决策记录、进度追踪,全在一个文件
  • 可以让Gemini随时更新这个文件:/update命令

实际使用体验:

# 第一个会话
gemini
> 我在做一个咖啡博客项目,帮我研究10个最佳咖啡制作网站
> 编译结果到Best_Coffee_Methods.md
> 创建一个博客大纲

# 关闭终端,第二天早上
gemini
# Gemini加载gemini.md,立即知道项目状态
> 继续昨天的博客大纲,写第一篇文章的引言
# 无需重新解释上下文!

Claude Code:Agent并行的巅峰之作

如果说Gemini CLI是”入门级”,Claude Code就是”专业级”终端AI工具。

核心创新:Agent系统

# 安装
npm install -g @anthropic-ai/claude-code

# 启动(需要Claude Pro订阅,$20/月)
claude

# 创建Agent
> /agents
# 进入Agent管理界面

Agent的革命性突破:

传统方式:

你 → 主Claude会话 → 处理任务 → 上下文越来越大 → 最终混乱

Agent方式:

你 → 主Claude会话 → 分配任务给Agent 1(新上下文)
                  → 分配任务给Agent 2(新上下文)
                  → 分配任务给Agent 3(新上文)
                  ↓
            三个Agent并行工作,互不干扰
                  ↓
            结果汇总给主会话

每个Agent都有:

  • 独立的200K上下文窗口
  • 专门的系统提示词
  • 特定的工具访问权限
  • 独立的思考过程

实战案例:

# 创建专业Agent
claude
> /agents
> new agent
名称: home-lab-guru
描述: 专精于家庭实验室硬件研究的专家
工具: Read, Write, Bash, Search
模型: Claude Sonnet 4.5

# 使用Agent
> 使用@home-lab-guru研究最佳NAS方案,预算$500
# Agent启动,独立上下文,专注研究
> 同时,帮我找达拉斯最好的披萨店
# 主会话继续工作,不受影响

多Agent并行的威力:

# 同时运行7个Agent
claude
> 用@agent1研究Proxmox服务器
> 用@agent2找最佳游戏显卡
> 用@agent3分析最新AI论文
> 用@agent4写项目文档
> 用@agent5审查代码
> 用@agent6优化数据库
> 用@agent7测试API

# 7个"员工"同时工作,7倍效率!

Output Styles:自定义Claude的”人格”

> /output style
# 列出预设风格: code, architect, writer, analyst

# 创建自定义风格
> /output style new
名称: script-writer
系统提示: 你是一个YouTube脚本写作专家...

# 切换风格
> /output style script-writer
# Claude的回复风格立即改变

Open Code:开源的自由之选

Open Code是社区驱动的开源终端AI工具,最大特点是灵活性。

核心优势:

  • 开源免费
  • :MIT许可,完全自由使用
  • 模型无关
  • :支持Claude、GPT、Gemini、本地模型
  • Ollama集成
  • :可以使用完全本地的LLaMA、Qwen等模型
  • 与Claude Code兼容
  • :可以用Claude Pro订阅登录

安装与配置:

# 安装
npm install -g @opencode/cli

# 首次启动,默认使用Grok(免费)
opencode

# 配置本地模型
nano ~/.config/opencode/opencode.jsonc
{
  "model": "ollama/llama3.2",
  "ollamaHost": "http://localhost:11434"
}

# 或登录Claude Pro
opencode auth login
# 选择anthropic,粘贴授权码

多模型切换:

opencode
> /model
# 列出可用模型:
# - grok-fast (免费)
# - claude-sonnet-4.5 (需登录)
# - ollama/llama3.2 (本地)
# - ollama/qwen2.5-coder (本地)

# 中途切换模型
> /model claude-sonnet-4.5
# 立即切换,对话历史保留

会话管理:

# 查看历史会话
> /sessions

# 分享会话(生成公开链接)
> /share
# 复制URL,任何人可以查看你的对话记录

# 时间旅行:回到过去的对话状态
> /timeline
# 选择历史节点,恢复到那个时刻

三大工具对比

维度

Gemini CLI

Claude Code

Open Code

成本

免费

$20/月(Claude Pro)

免费(本地模型)

模型

Gemini 2.5 Pro

Claude Sonnet 4.5

多模型支持

核心优势

免费+强劲

Agent并行

开源+本地

上下文管理

gemini.md

claude.md

agents.md

并行能力

单线程

多Agent并行

单线程

学习曲线

简单

中等

简单

适用场景

个人项目

专业开发

隐私优先

文件操作

网络搜索

Bash执行

PART 03 – 终端AI的技术体系

终端AI工具构成了一个完整的四层技术体系。

Gemini CLI业务架构层免费使用个人项目快速入门应用架构层Gemini 2.5 Progemini.md上下文单线程处理工具调用数据架构层本地文件访问Git版本控制上下文持久化项目状态管理技术架构层CLI终端界面HTTP/WebSocketGoogle API免费额度Claude Code业务架构层专业开发团队协作$20/月订阅应用架构层Sonnet 4.5多Agent并行独立上下文Output Styles数据架构层claude.md上下文Agent配置会话历史Git Worktrees技术架构层TUI界面流式传输Anthropic API200K上下文Open Code业务架构层开源免费隐私优先本地运行应用架构层多模型支持Claude兼容Ollama集成Grok免费数据架构层agents.md上下文会话分享时间旅行本地存储技术架构层开源CLI本地推理零网络延迟完全隐私

从”工具使用”到”工作流程”的转变

终端AI不仅是工具,更是一种新的工作方式。

传统浏览器AI的业务模式:

问题 → 打开浏览器 → 输入提示词 → 等待回复 → 复制结果 → 关闭浏览器

终端AI的业务模式:

项目 → 初始化上下文 → 持续对话 → AI读写文件 → 状态持久化 → 多会话协作

关键差异:

  • 从”会话”到”项目”
  • :不再是孤立的问答,而是长期的项目协作
  • 从”复制粘贴”到”直接操作”
  • :AI可以直接操作文件系统
  • 从”单点工具”到”工作流枢纽”
  • :终端AI成为工作流程的中心

PART 04 – 实战部署:零基础入门终端AI

理论讲完了,目前我们实际操作,让你在10分钟内上手终端AI。

环境准备:三选一的入门路径

根据你的情况,选择最适合的入门工具:

路径A:Gemini CLI(推荐新手)

# macOS
brew install gemini-cli

# Linux/WSL
curl -sSL https://get.gemini.dev | bash

# Windows (WSL Ubuntu)
# 1. 启用WSL: wsl --install
# 2. 打开Ubuntu终端
# 3. 运行安装命令
curl -sSL https://get.gemini.dev | bash

# 验证安装
gemini --version

路径B:Claude Code(推荐专业用户)

# 前提:已订阅Claude Pro ($20/月)

# 安装Node.js (如未安装)
# macOS
brew install node

# Linux
sudo apt update && sudo apt install nodejs npm

# Windows
# 访问 https://nodejs.org 下载安装

# 安装Claude Code
npm install -g @anthropic-ai/claude-code

# 验证安装
claude --version

路径C:Open Code(推荐隐私优先用户)

# 安装
npm install -g @opencode/cli

# 安装Ollama(本地模型引擎)
# macOS
brew install ollama

# Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows
# 访问 https://ollama.com/download

# 拉取模型
ollama pull llama3.2

# 验证
opencode --version
ollama list

第一个终端AI项目:咖啡博客写作

我们用Gemini CLI演示完整流程,其他工具类似。

步骤1:创建项目目录

mkdir coffee-blog
cd coffee-blog

步骤2:初始化Git(重大!)

git init
git config user.name "Your Name"
git config user.email "your@email.com"

# 创建.gitignore
echo "node_modules/" > .gitignore
echo ".env" >> .gitignore

git add .
git commit -m "Initial commit"

为什么需要Git?

  • 追踪所有变更历史
  • 可以回滚到任何时点
  • AI可以用Git命令检查变更
  • 便于团队协作

步骤3:启动Gemini并初始化项目

gemini

首次启动会提示登录Google账号:

Welcome to Gemini CLI!
Please authenticate with your Google account.
Press Enter to open browser...

登录后:

> /init

Gemini: 我来分析当前项目...
- 检测到空项目
- 已有Git仓库
- 正在创建gemini.md...

完成!项目上下文已初始化。

查看生成的gemini.md:

cat gemini.md

内容示例:

# Coffee Blog Project

## 项目描述
咖啡博客写作项目

## 项目结构
- gemini.md (本文件)

## 当前状态
项目刚初始化

## 待办事项
- 确定博客主题
- 研究咖啡制作方法
- 创建博客大纲

步骤4:第一个任务——研究

> 我想创建一个咖啡博客,请帮我:
1. 研究互联网上10个最佳咖啡制作资源网站
2. 只选择可信来源
3. 编译结果到 best_coffee_resources.md
4. 创建一个博客系列大纲,保存为 blog_outline.md

Gemini: 开始研究...

我需要创建文件吗? [y/n] y

[搜索互联网...]
[分析资源质量...]
[创建文档...]

完成!已创建:
- best_coffee_resources.md
- blog_outline.md

我还更新了gemini.md,记录了研究决策。

步骤5:查看生成的文件

ls -la
# coffee-blog/
# ├── .git/
# ├── gemini.md
# ├── best_coffee_resources.md
# └── blog_outline.md

# 打开文件查看
cat blog_outline.md

步骤6:继续协作

> 根据大纲,写博客系列的第一篇文章引言
> 文件名: article_01_intro.md

Gemini: [写入文章...]

完成!

步骤7:关闭并重新打开

# 退出Gemini
> exit

# 第二天,重新打开
gemini

Gemini: 欢迎回来!
加载项目上下文: coffee-blog

上次我们:
- 研究了咖啡资源
- 创建了博客大纲
- 写了第一篇引言

下一步: 继续写博客系列?

> 是的,写第二篇文章主体部分
# 无需重新解释上下文!

PART 05 – 多工具协作:终端AI的”团队作战”模式

单个AI工具已经很强,但真正的威力在于多个AI协作。

场景:视频脚本创作的三AI流水线

视频博主的实际工作流:需要创作一个YouTube视频脚本。

传统方式(浏览器):

  1. ChatGPT写初稿(30分钟)
  2. 复制到Claude审查(15分钟)
  3. 复制到Gemini优化(15分钟)
  4. 手动整合三个版本(30分钟)

总计:90分钟,大量复制粘贴

终端AI协作方式(10分钟):

# 项目目录
mkdir video-script
cd video-script
git init && git commit --allow-empty -m "init"

# 同时打开3个终端窗口
# Terminal 1: Claude Code
# Terminal 2: Gemini CLI
# Terminal 3: Codex (ChatGPT终端版)

# 确保上下文同步
cat > claude.md << EOF
# Video Script Project
Topic: Terminal AI Tools
Goal: 10-minute tutorial video
Audience: Developers and creators
EOF

cp claude.md gemini.md
cp claude.md agents.md

# Terminal 1 (Claude): 创建Hook
claude
> 写视频开场Hook,角度:Authority
> 保存为 hook_authority.md

# Terminal 2 (Gemini): 创建另一种Hook
gemini
> 写视频开场Hook,角度:Discovery
> 保存为 hook_discovery.md

# Terminal 3 (Codex): 审查对比
codex
> 分析hook_authority.md和hook_discovery.md
> 评估哪个更吸引人,给出详细理由
> 保存分析为 hook_analysis.md

三个AI同时工作,互不干扰:

  • Claude专注于Authority角度
  • Gemini专注于Discovery角度
  • Codex专注于高层次分析

Claude Code的Agent编排:一人当五人用

更进一步,用Claude的Agent功能创建”专家团队”。

创建专家Agent:

claude
> /agents
> new agent

Name: brutal-critic
Description: 严格的内容批评家,专门挑错
System Prompt:
你是一个极其严格的内容批评家。
你的任务是找出所有问题:逻辑漏洞、无趣段落、不清晰的表达。
不要客气,直接指出问题。
Tools: Read, Write
Model: Sonnet 4.5

# 保存Agent

类似地创建多个Agent:

- researcher: 专业研究员
- writer: 创意写手
- editor: 编辑
- seo-optimizer: SEO专家
- fact-checker: 实际核查员

使用Agent团队:

# 在主Claude会话中
> @researcher 研究"终端AI工具"的市场现状,
  写报告到research.md

> 同时,@writer 创建三个不同风格的标题方案,
  保存到titles.md

> @seo-optimizer 分析这些标题的SEO潜力

> @fact-checker 验证research.md中的所有数据

> @editor 整合所有内容,创建最终脚本

> @brutal-critic 审查最终脚本,无情批评

# 6个Agent并行工作!

检查Agent状态:

# 另开一个终端
claude

> 查看所有活跃的Agent任务

Active Agents:
- researcher (working... 60% done)
- writer (completed)
- seo-optimizer (working... 80% done)
- fact-checker (completed)
- editor (waiting for inputs)
- brutal-critic (queued)

# 主会话上下文:仅用了5%
# 6个Agent各自有独立200K上下文!

Gemini为Claude打工:跨AI协作的终极形态

最疯狂的玩法:让Claude调用Gemini。

为什么要这样做?

  • Gemini的搜索能力更强
  • Gemini免费,节省Claude配额
  • 结合两者优势:Claude的推理+Gemini的搜索

实现方式:

# 创建一个"Gemini研究员"Agent
claude
> /agents
> new agent

Name: gemini-researcher
Description: 使用Gemini进行深度网络研究
System Prompt:
你是一个研究专家。
当需要研究时,使用Gemini CLI headless模式:
gemini -p "research query"
分析Gemini的输出,提取关键信息。 Tools: Bash, Read, Write

使用这个Agent:

> @gemini-researcher 找出2024年最流行的AI编程工具

Agent: [执行]
$ gemini -p "research popular AI coding tools 2024"
[Gemini响应...]
$ 解析输出...
$ 创建总结...

完成!保存为ai_tools_2024.md

你目前有了:

  • Claude的高级推理
  • Gemini的免费搜索
  • Agent的自动化
  • 完全本地的文件操作

这就是”AI使用AI”的终极协作。

PART 06 – 工作流优化:自动化与会话管理

理论和工具都掌握了,目前我们优化工作流程。

会话终结脚本:AI帮你整理工作

例如当天工作结束时,让AI自动整理一切。

创建”Session Closer”Agent:

claude
> /agents
> new agent

Name: session-closer
Description: 结束工作会话,自动整理和提交
System Prompt:
当用户说"结束会话"时,执行以下步骤:

1. 总结今天完成的工作
2. 更新gemini.md、claude.md、agents.md
3. 创建session-summary.md记录今日进展
4. 检查所有待办事项,更新状态
5. 用Git提交所有变更,commit message要详细
6. 给出明确的"下次启动从哪里继续"提议

Tools: Read, Write, Bash

# 保存

使用方式:

# 工作了一整天,累了
claude
> @session-closer 结束今天的工作

Agent: 开始整理...

1. 分析项目文件...
2. 总结完成工作:
   - 完成video脚本大纲
   - 写完Hook三个版本
   - 研究完竞品分析
3. 更新上下文文件...
4. 创建会话总结...
5. Git提交...
   $ git add .
   $ git commit -m "Session 2025-01-15: Completed video outline and hooks

   - Created authority angle hook
   - Created discovery angle hook
   - Researched competitor videos
   - Updated project roadmap

   Next steps:
   - Write main script body
   - Record video
   - Edit and publish"

6. 明天的启动提议:
   运行claude
后说:    "继续脚本主体部分,从第二段开始"  完成!项目已整理,可以安心休憩了。

第二天早上:

claude
> 继续脚本主体部分,从第二段开始

Claude: 
加载昨天的工作...
Session Summary显示:
- 大纲已完成
- Hook已完成
- 下一步:主体部分

好的,让我们从第二段"为什么终端AI更快"开始...

无需回忆,无需重新解释,AI知道一切。

上下文压缩:对抗token膨胀

长期项目的致命问题:上下文越来越大,最终超过限制。

监控上下文:

gemini
> /context

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Context Usage: 72% (144K/200K tokens)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

Breakdown:
- gemini.md: 8K tokens
- Conversation history: 95K tokens
- File references: 35K tokens
- Tool outputs: 6K tokens

Warning: Approaching context limit!

手动压缩:

> /compress

Gemini: 我来压缩上下文...

分析对话历史...
保留关键决策:
- 项目方向确定(Session 1)
- 架构设计决策(Session 3)
- 重大Bug修复(Session 5)

压缩中间细节...

完成!
新的context usage: 35% (70K/200K tokens)
节省了74K tokens!

自动压缩策略:

# 在claude.md中添加规则
> 每当context usage > 80%时,自动运行压缩
> 压缩策略:保留最近3个session的详细历史
> 更早的session只保留关键决策和结论

结论

从浏览器到终端,这不仅是工具的转变,更是工作方式的革命。浏览器AI将你困在标签页中,复制粘贴是常态,上下文丢失是宿命。而终端AI打破了这些限制——项目上下文持久化在本地文件中,AI可以直接操作你的文件系统,多个Agent并行工作,不同AI工具无缝协作。

让AI真正融入你的工作流程,而非作为外部工具存在

项目信息:

  • 主要工具:

– Gemini CLI: https://github.com/google-gemini/gemini-cli – Claude Code: https://claude.com/code – Open Code: https://github.com/opencode/opencode-cli

  • 相关技术:

– Ollama (本地模型): https://ollama.com – MCP Protocol: https://modelcontextprotocol.io

参考资料:

  1. Anthropic Blog – Introducing Claude Code
  2. Google AI Blog – Gemini CLI Developer Guide
  3. Open Code Documentation – Getting Started
  4. Model Context Protocol Specification
  5. Ollama Documentation – Local Model Deployment
  6. NetworkChuck YouTube – Terminal AI Tools Tutorial
  7. TechCrunch – The Rise of Terminal-Based AI Tools
  8. Hacker News Discussions – Terminal vs Browser AI

关于作者:

MCP研究院是一个专注于AI技术研究与实践的技术社区,致力于深度解析前沿AI技术,分享实战经验。我们的内容覆盖大语言模型、AI Agent、终端工具、工程实践等领域,为开发者提供有价值的技术洞察。

关注公众号”MCP研究院”,获取更多AI技术深度文章。

© 版权声明

相关文章

暂无评论

none
暂无评论...