Docker一键快速私有化部署(Ollama+Openwebui) +AI大模型(gemma,llama2,qwen)20240417更新
疯狂小伟哥 2024-07-03 17:07:02 阅读 80
几行命令教你私有化部署自己的AI大模型,每个人都可以有自己的GTP
第一步:安装Docker(如果已经有了可以直接跳第二步)
<code>####下载安装Docker
wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O/etc/yum.repos.d/docker-ce.repo
##更新yum软件包索引
yum makecache fast
## 安装docker ce cli
yum -y install docker-ce-23.0.6-1.el7 docker-ce-cli-23.0.6-1.el7
##"启动Docker并验证"
systemctl enable docker && systemctl start docker
docker version
第二步:使用Docker部署Ollama
(ollama run gemma)安装谷歌gemma大模型
(ollama run llama2)安装Meta llama2大模型
(ollama run qwen)安装阿里的qwen大模型
###docker下载ollama部署
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama --restart always ollama/ollama
###开始下载gemma大模型
docker exec -it ollama ollama run gemma “你好”
第三步:使用Docker部署webUI页面
将${inner_ip}替换成你本机IP(用hostname -I可查看)
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://${inner_ip}:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:main
第四步,正在启动WEBUI界面,大约5分钟后,
部署完毕,请访问:http://IP:3000
正常就可以打开访问属于你自己的大模型了。
可以通过下面的命令查看日志
docker logs -f open-webui
上一篇: 《DNK210使用指南 -CanMV版 V1.0》第八章 CanMV IDE初体验
下一篇: 用的到的linux-文件移动-Day2
本文标签
llama2 qwen)20240417更新 Docker一键快速私有化部署(Ollama+Openwebui) +AI大模型(gemma
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。