SpringAI通过Ollama连接大语言模型通义千问

软件科学研究院 2024-06-25 11:01:11 阅读 73

随着大语言模型发展越来越成熟,Apache开源组织也出了自己的SpringAI开源工程

Spring AI项目旨在简化包含人工智能功能的应用程序的开发,避免不必要的复杂性。

该项目从著名的 Python 项目(例如 LangChain 和 LlamaIndex)中汲取灵感,但 Spring AI 并不是这些项目的直接移植。

支持所有主要模型,例如 OpenAI、Ollama、Azure OpenAI、Amazon Bedrock、Huggingface、Google VertextAI、Mistral AI。

支持的模型类型包括“聊天”和“文本到图像”,还有更多模型类型正在开发中。

支持所有主要矢量数据库提供商,例如 Apache Cassandra、Azure 矢量搜索、Chroma、Milvus、Neo4j、PostgreSQL/PGVector、PineCone、Qdrant、Redis 和 Weaviate

本博文分两部分,ollama环境搭建,SpringAI连接通义千问(源代码放在文章最后,可以下载)

说明:本代码使用jdk版本为17

先看效果:

一、ollama环境搭建

可以参考这篇文章的中的第三部分  【三、LLM语言模型搭建】,搭建是一样的,在此就不重复了

FastGTP环境搭建,可直接使用在项目上

二、SpringAI连接通义千问

1、配置文件,如下 上代码

server:

port: 8080

spring:

application:

name: ai

ai:

ollama:

base-url: http://192.168.1.200:11434

chat:

enabled: true

options:

model: qwen:0.5b

2、java连接关键代码

String systemPrompt = "{prompt}";

SystemPromptTemplate systemPromptTemplate = new SystemPromptTemplate(systemPrompt);

String userPrompt = message;

Message userMessage = new UserMessage(userPrompt);

Message systemMessage = systemPromptTemplate.createMessage(MapUtil.of("prompt", "you are a helpful AI assistant"));

List<Message> list = new ArrayList<>();

list.add(userMessage);

list.add(systemMessage);

Prompt prompt = new Prompt(list);

Flux<String> response =chatClient.stream(prompt).flatMap(res->{

List<Generation> generations = res.getResults();

if(CollUtil.isNotEmpty(generations)){

for(Generation generation:generations){

AssistantMessage assistantMessage = generation.getOutput();

String content = assistantMessage.getContent();

System.out.println(content);

return Flux.just(content);

}

}

return Flux.empty();

});

3、测试,访问 http://localhost:8080/chat?message=用python写个排序算法:

使用Apifox工具测(百度自行下载),截下截图:

三、源代码下载

AI-Auto-config  工程是使用springboot的bootstrap.yml配置连接ollama

AI-Manual-Config  手动配置连接ollama方式

下载地址:百度网盘 请输入提取码



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。