描述
Ollama 是一款开源跨平台的本地大语言模型运行与管理工具,2023 年底应运而生(抖音百科提及 2023 年 7 月 9 日在 GitHub 上线),核心价值是让用户无需复杂配置,就能在个人设备或服务器上轻松部署、运行各类主流开源大模型,主打本地化运行以保障数据隐私,目前已成为本地部署 LLM 的标杆工具Ollama。
1.下载Ollama
下载地址:https://ollama.com 最新版
2.安装
过程略 验证是否安装成功:ollama -v
3.千问大模型拉取并运行
地址
:https://ollama.com/library/qwen3:4b
ollama run qwen3:4b
4.springboot接入ollama
4.1 依赖添加
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-model-ollama</artifactId>
</dependency>
4.2 Ollama配置
# Ollama 服务的基础 URL (默认是 http://localhost:11434)
spring.ai.ollama.base-url=http://localhost:11434
# 你希望使用的默认模型 (例如: llama3, gemma, mistral等)
spring.ai.ollama.chat.model=qwen3:4b
spring.ai.ollama.chat.model=gemma3:1b
4.3 测试代码
@Test
public void testOllama(@Autowired OllamaChatModel model) {
String result = model.call("上海在哪里?/no_think");
System.out.println(result);
}
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...


