Ollama + Dify + Neo4j,本地一套打通“AI应用开发”全流程

内容分享2小时前发布
15 0 0

你不是缺模型,你是缺“一套能跑起来的应用骨架”

许多人折腾大模型,最后都停在同一个阶段:
模型能跑,但做不出能用的应用。

真正能落地的,一般要同时具备三件事:

  • 本地推理能力(Ollama 这类运行时)
  • 应用编排与产品化能力(Dify / LangChain 这类应用平台或开发包)
  • 知识组织与关系推理能力(Neo4j 这类图数据库)

这篇文章我把一套“可复制、可扩展”的本地方案讲清楚:
Ollama + Dify + Neo4j,再往上加一层:MCP 工具调用
你照着做,基本能把“AI聊天 / 知识库问答 / 工具型 Agent”一条龙跑通。


01 先把地基打牢:Windows 装 Docker(这一步最容易劝退)

如果你是在 Windows 上搞本地部署,先别急着拉镜像、跑模型。
Docker Desktop 的前置条件不满足,后面全是玄学报错。

1)确认系统版本与硬件要求

  • Windows 10 64 位:专业/企业/教育版(Build 19041+)
  • Windows 11 64 位
  • 内存至少 4GB(提议 16GB 起步更舒服) Ollama+Dify+Neo4j本地化打造AI应用

2)开启 Hyper-V 与 WSL2(强烈提议一步到位)

Windows 功能里勾选:

  • Hyper-V
  • 适用于 Linux 的 Windows 子系统(WSL)

Ollama + Dify + Neo4j,本地一套打通“AI应用开发”全流程

选择 更多Windows功能

Ollama + Dify + Neo4j,本地一套打通“AI应用开发”全流程

勾选 Hyper-V

也可以用命令开启:

Enable-WindowsOptionalFeature -0nline -FeatureName Microsoft-Hyper-V -All

如果系统没有WSL,则需要安装WSL,则需要进行安装。以管理员身份启动PowerShell,执行以下命令,然后重启计算机:

  • 开启 Hyper-V
wsl --install
  • 安装 WSL
dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart
  • 设置默认 WSL2
wsl --set-default-version 2

经验提醒:这一步做完记得重启,否则你会遇到“明明装了但就是不生效”的假象。

3)安装 Docker Desktop 并验证

Ollama + Dify + Neo4j,本地一套打通“AI应用开发”全流程

装完后在 PowerShell 跑一行:

  • docker –version
    能看到版本号,才算通关。

4)加速拉取镜像(不然下载慢到怀疑人生)

你文档里给了镜像源配置示例(registry-mirrors),这是很关键的一步。

Ollama + Dify + Neo4j,本地一套打通“AI应用开发”全流程

另外还提议把 Docker 镜像存储目录迁到空间更大的盘,后面模型/镜像会越堆越多。

Ollama + Dify + Neo4j,本地一套打通“AI应用开发”全流程


02 一条命令跑起来:Dify 本地部署

Dify 的价值一句话:
让你把大模型从“聊天”变成“应用”。

1)拉源码

git clone https://github.com/langgenius/dify.git 

2)启动容器

把 .env.example 改成 .env,然后:

docker compose up -d 

启动后打开:http://127.0.0.1,能访问就说明 Dify 已经在你本地跑起来了。


03 给 AI 装“记忆与关系网”:Neo4j 图数据库

许多知识库问答做着做着就会发现瓶颈:
“文本检索”能回答一部分问题,但“关系推理”不行。

列如:

  • 某设备属于哪个系统?关联哪些风险点?
  • 某项目涉及哪些单位?谁是上下游?
  • 某故障的缘由链路是什么?

这种问题,本质上是“图关系”。Neo4j 天生适合。

1)Docker 一键启动 Neo4j

安装Neo4j软件,同样是通过Docker快速部署。

 docker run -itd --name neo4j -p 7474:7474 -p 7687:7687 -v $HOME/neo4j/data:data neo4j

命令运行完成后,打开浏览器,访问http://localhost:7474,如果看到Neo4j的登录页面,说明安装成功。


04 真正开始“做应用”:Dify 接入 Ollama 本地模型

到这里,才轮到主角登场:本地大模型

在 Dify 的“模型供应商”里选择 Ollama,按你文档配置:

  • LLM 模型
  • Embedding 模型
  • Rerank 模型
  • 基础 URL:http://<服务器IP>:11434

提议:别一上来就追最大模型。先选一个“跑得动、能调试”的模型把流程打通,后面再升级。


05 10 分钟做出第一个可用产品:聊天助手

进入 Dify:

  • 工作室 → 创建空白应用 → 选择“聊天助手”
    选好模型、参数调一下,你就能立刻得到一个“自己的 AI 聊天应用”。

Ollama + Dify + Neo4j,本地一套打通“AI应用开发”全流程

这一步的意义是:
验证你的“模型 → Dify → 应用”链路完全通畅。


06 从“会聊”到“会查”:做一个本地知识库问答

流程核心是三步:

  1. Dify 创建知识库 → 上传文件
  2. 设置分段、索引方式、Embedding、Rerank
  3. 在聊天编排里“挂上知识库”并发布更新

当你看到“嵌入处理中…”变成“嵌入已完成”,这就不是演示了——
这是你自己的私有知识库系统雏形。

Ollama + Dify + Neo4j,本地一套打通“AI应用开发”全流程


07 最关键的升维:接入 MCP,让 AI 学会“用工具干活”

到这里,许多人以为就结束了。
但真正拉开差距的是:工具调用(Tool Use)
可以用 Python + FastMCP 做一个 MCP Server,Dify 通过插件注册,再用 Agent 策略(ReAct)去自动调用工具。

1)准备工作

  • 安装 fastmcp
  • Dify 安装 MCP 插件(SSE/StreamableHTTP、MCP Agent策略)
  • Ollama 拉一个支持 Tools 的模型(文档示例用 qwen3:4b)

2)写一个最小可用 MCP Server

你给的示例超级适合教学:一个“自定义加法工具”,并故意把结果算错,用来验证模型是否真的调用了工具。

3)Docker 环境最容易踩的坑(提前帮你标红)

如果 Dify 是跑在 Docker 里,你不能用 127.0.0.1 访问宿主机服务。
要换成:

  • http://host.docker.internal:11111/

这一句,能救许多人半天时间。

4)效果:AI 不只是回答,它会“查工具、调工具、给结果”

Ollama + Dify + Neo4j,本地一套打通“AI应用开发”全流程

可以看出:模型能列出工具、并按工具规则计算。
这就是“Agent”的关键一跃:
从聊天机器人 → 可执行的智能体。


08 你目前拥有的,不是一堆组件,而是一条“可产品化链路”

把整条链路复盘一下:

  • Docker/WSL2:本地运行环境
  • Dify:应用工厂(聊天、知识库、工作流/Chatflow)
  • Ollama:本地推理引擎
  • Neo4j:关系型知识底座(适合复杂业务推理)
  • MCP:工具与系统能力扩展(让 AI 真正“做事”)

你会发现:
这套方案不是为了“跑模型”,而是为了“做应用”。


总结

如果你也在做本地私有化 AI 应用,我提议你先把这条链路打通:
能跑起来 → 能回答 → 能查库 → 能调用工具 → 能嵌入业务系统

我后面会继续更新:

  • Dify + Neo4j:如何把“知识图谱”做成可问答/可推理的应用
  • MCP 实战:如何把“业务系统接口”变成 AI 可调用工具
  • 一套适合“企业/学校内网”的私有化 AI 应用标准架构

想持续跟进就点个关注。
如果你需要我整理的更详细的文档,请假关注私信我:“资料”,我统一发你。

© 版权声明

相关文章

暂无评论

none
暂无评论...