open-web UI 实用指南

CSDN 2024-10-16 12:33:01 阅读 56

open-web UI 类似于chatgpt的界面,可以私有化模型本地部署,也可以用商业模型.本文只是用开源模型. 它可以实现AI聊天 , AI 翻译 , 语音转文本, 文本转语音, 文生图,代码助手,可谓利器。

前提:安装好ollama

安装open-web UI

使用 pip 安装

需要 Python 3.11

安装Open WebUI:打开你的终端并运行以下命令:

<code>pip install open-webui

启动 Open WebUI:安装完成后,使用以下命令启动服务器:

open-webui serve

安装后,可以在 http://localhost:8080 访问Open WebUI

AI 聊天,AI翻译

点用户,打开管理员面板,选择设置–外部连接,输入Ollama API的链接地址,点击右边按钮,测试连接

在这里插入图片描述

然后在 设置–界面 ,选择一个默认模型

在这里插入图片描述

然后就可以回到新对话,进行聊天了。

可以在工作空间编辑一下提示词,便于翻译

在这里插入图片描述

在这里插入图片描述

语音转文本

安装 faster-whisper-serve

faster-whisper-serve 是一个兼容 OpenAI API 的转录服务器,它使用fast-whisper作为后端。特征:

GPU 和 CPU 支持。

使用 Docker 可以轻松部署。

可通过环境变量进行配置(请参阅config.py ) 。

兼容 OpenAI API。

流媒体支持(转录是在音频转录时通过SSE发送的。您无需等待音频完全转录后再接收)。

实时转录支持(音频在生成时通过 websocket 发送)。

动态模型加载/卸载。只需在请求中指定您要使用的模型,它将自动加载。经过一段时间不活动后,它将被卸载。

<code>git clone https://github.com/fedirz/faster-whisper-serve

cd faster-whisper-serve

docker compose up --detach faster-whisper-server-cuda

设置open-web UI 语音转文本

点用户,打开管理员面板,选择设置–语音。 语音转文本模型输入 deepdml/faster-whisper-large-v3-turbo-ct2, 这个是多语言模型; API密钥随便输入,没有被使用到。



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。