Spring AI 接入Ollama

内容分享3小时前发布 榆灿28
0 0 0

描述

Ollama 是一款开源跨平台的本地大语言模型运行与管理工具,2023 年底应运而生(抖音百科提及 2023 年 7 月 9 日在 GitHub 上线),核心价值是让用户无需复杂配置,就能在个人设备或服务器上轻松部署、运行各类主流开源大模型,主打本地化运行以保障数据隐私,目前已成为本地部署 LLM 的标杆工具Ollama。

1.下载Ollama

下载地址:https://ollama.com 最新版

2.安装

过程略 验证是否安装成功:ollama -v

3.千问大模型拉取并运行

地址
:https://ollama.com/library/qwen3:4b

ollama run qwen3:4b

4.springboot接入ollama

4.1 依赖添加

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-starter-model-ollama</artifactId>
</dependency>

4.2 Ollama配置

# Ollama 服务的基础 URL (默认是 http://localhost:11434)
spring.ai.ollama.base-url=http://localhost:11434
# 你希望使用的默认模型 (例如: llama3, gemma, mistral等)
spring.ai.ollama.chat.model=qwen3:4b

spring.ai.ollama.chat.model=gemma3:1b

4.3 测试代码

@Test
public void testOllama(@Autowired OllamaChatModel model) {
    String result = model.call("上海在哪里?/no_think");
    System.out.println(result);
}
© 版权声明

相关文章

暂无评论

none
暂无评论...