Spring Boot 整合 Spring AI 实现项目接入ChatGPT(OpenAl的调用)

四月天03 2024-08-31 16:01:02 阅读 81

        当前各种AI项目层出不穷,但绝大多数都是用python写的,现在Spring开源了Spring AI项目,让Java开发者也可以轻松给自己的springboot项目集成AI能力。目前spring AI正式版本为0.8.1,支持接入openAI、Ollama、Azure openAI、Huggingface等,可实现聊天、embedding、图片生成、语音转文字、向量数据库、function calling、prompt模板、outputparser、RAG等功能,就像Java版本的langchain,本文通过一些示例简要介绍部分功能。

一、OpenAI简介

OpenAI是一家致力于推动人工智能发展的研究公司,其目标是确保人工智能的益处广泛而均匀地分布。为了实现这一目标,OpenAI开发了一系列强大的API,供开发者在自己的应用中集成AI功能。

OpenAI的API涵盖了自然语言处理、图像识别、机器翻译等多个领域,其中最为著名的可能是GPT系列模型,它们在文本生成、文本理解等方面表现出色。

二、Spring Boot与OpenAI的无缝对接

Spring Boot是一个流行的Java框架,用于快速开发企业级应用。其简洁的配置和丰富的生态使得Spring Boot成为许多开发者的首选。将Spring Boot与OpenAI对接,可以让你的Java应用轻松拥有AI能力。

 

Spring AI API 涵盖了广泛的功能。每个主要功能都在其专门的部分中进行了详细介绍。为了提供概述,可以使用以下关键功能:

跨 AI 提供商的可移植 API,用于聊天、文本到图像和嵌入模型。支持同步和流 API 选项。还支持下拉访问模型特定功能。我们支持 OpenAI、Microsoft、Amazon、Google、Huggingface 等公司的 AI 模型。

跨 Vector Store 提供商的可移植 API,包括同样可移植的新颖的类似 SQL 的元数据过滤器 API。支持 8 个矢量数据库。

函数调用。Spring AI 使 AI 模型可以轻松调用 POJO java.util.Function 对象。

AI 模型和向量存储的 Spring Boot 自动配置和启动器。

数据工程的 ETL 框架。这为将数据加载到矢量数据库提供了基础,有助于实现检索增强生成模式,使您能够将数据引入 AI 模型以纳入其响应中。

第一步:建项目:创建一个Spring Boot项目(JDK17起步);

第二步:加依赖

<code>2.1 加入spring-ai-openai-spring-boot-starter依赖; 

<dependency>

    <groupId>org.springframework.ai</groupId>

    <artifactId>spring-ai-openai-spring-boot-starter</artifactId>

</dependency>

2.2 继承父项目:

<dependencyManagement>

    <dependencies>

    <dependency>

        <groupId>org.springframework.ai</groupId>

        <artifactId>spring-ai-bom</artifactId>

        <version>${spring-ai.version}</version>

        <type>pom</type>

        <scope>import</scope>

     </dependency>

    </dependencies>

</dependencyManagement>

2.3 配置项目依赖下载的仓库:(因为spring ai在中心仓库还没有依赖,所以需要去网站下载)

<repositories>

    <repository>

        <id>spring-milestones</id>

        <name>Spring Milestones</name>

        <url>https://repo.spring.io/milestone</url>

        <snapshots>

            <enabled>false</enabled>

        </snapshots>

    </repository>

</repositories>

 第三步:配文件(这个的api -key就是你自己的) 

注册OpenAI账号并获取API密钥

要使用OpenAI的API,首先需要注册一个OpenAI账号,并在Dashboard中获取你的API密钥。这个密钥将用于后续的API调用中,以验证你的身份。

13k star! 获取免费ChatGPT API Key的开源项目,亲测可用!

spring:

  ai:

    openai:

      api-key:  (换成你的api-key)

      base-url: https://api.openai.com(分为代理地址和直连地址)

第四步: 聊天功能写具体的代码实现

  4.1 因为所有的接口的父接口都继承与Model,可以看到聊天方式的实现就是注入OpenAiChatModel 因为这个springboot自动装配的功能,只需要注入即可

 第一种: 聊天的第一种实现方式(调用call方法,直接传入msg,这个叫做同步API)

public class ChatController {

    @Resource

    private OpenAiChatModel openAiChatModel;

    /**

     * 聊天的方法。底层调用的openAi的方法

     * RequestParam 接受参数

     * msg 就是我们提的问题

     * @return

     */

    @RequestMapping("/ai/chat")

    public String chat(@RequestParam("msg") String msg){

        String called = openAiChatModel.call(msg);

        return called;

    }

   5.1 运行程序结果

 

2. 聊天与prompt template

如果使用openai,就注入openAiChatClient,如果使用ollama,就注入ollamaChatClient,然后调用call方法就可以了。

<code>@Autowired

private ChatClient openAiChatClient;

@Autowired

private ChatClient ollamaChatClient;

@GetMapping("/ai/simple")

public Map<String, String> completion(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {

return Map.of("generation", openAiChatClient.call(message));

}

 

 第二种 聊天的程序的第二种实现方式(调用call方法,new一个Prompt对象再传入msg)

<code>/**

     * 聊天的方法。底层调用的openAi的方法

     * RequestParam 接受参数

     * msg 就是我们提的问题

     * ChatResponse 返回的是一个josn串

     * chatResponse.getResult().getOutput().getContent();只获取文本

     * @return

     */

    @RequestMapping("/ai/chat2")

    public Object chat2(@RequestParam("msg") String msg){

        ChatResponse chatResponse = openAiChatModel.call(new Prompt(msg));

        return chatResponse.getResult().getOutput().getContent();

    }

  6.1  运行程序结果

第三种:聊天的程序的第三种实现方式(比上一个方法多了一个关于gpt参数的设置)

<code>/**

     *OpenAiChatOptions.builder() 传入的一个参数,可以控制大模型的设置

     * @param msg

     * @return

     */

    @RequestMapping("/ai/chat3")

    public Object chat3(@RequestParam("msg") String msg){

        ChatResponse chatResponse = openAiChatModel.call(new Prompt(msg, OpenAiChatOptions.builder()

                //.withModel("gpt-4-32k")  //gpt的版本 ,32K是参数,参数越高,回答问题越准确

                .withTemperature(0.4F)  //温度值,温度越高,回答的准确率越低,温度越低,回答的准确率越高

                .build()));

        return chatResponse.getResult().getOutput().getContent();

    }

7.1 运行程序结果

当然上述的可选参数不仅可以在代码中配置,也可以在配置文件中配置

注意:如果代码中写了关于gpt的参数,配置文件中也配置了参数,那么以代码中为主

第四种:聊天的程序的第三种实现方式(调用stream方法,用法和call一样,只不过返回值不一样,Stream返回的是Fiux,叫做数据的序列一序列的数据,一个一个的数据返回,调用Stream叫做流式API)

<code>/**

     *OpenAiChatOptions.builder() gpt的可选参数

     * @param msg

     * @return

     */

    @RequestMapping("/ai/chat4")

    public Object chat4(@RequestParam("msg") String msg){

        Flux<ChatResponse> flux = openAiChatModel.stream(new Prompt(msg, OpenAiChatOptions.builder()

                //.withModel("gpt-4-32k")  //gpt的版本 ,32K是参数,参数越高,回答问题越准确

                .withTemperature(0.4F)  //温度值,温度越高,回答的准确率越低,温度越低,回答的准确率越高

                .build()));

        return flux.collectList();

    }

上述就是关于Spring Boot 整合 Spring AI 实现项目接入ChatGPT,本文仅介绍了关于聊天方面的实现方式,接下来的文章介绍关于如何生成图片以及语言的转换。

 



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。