在docker中部署ollama体验AI模型
CSDN 2024-07-07 17:31:01 阅读 51
docker部署ollama
1.docker部署ollama
CPU模式
<code>docker run -d -v /opt/ai/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
GPU模式(需要有NVIDIA显卡支持)
docker使用GPU运行ollama
docker run --gpus all -d -v /data/ai/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
docker部署ollama web ui
docker run -d -p 8080:8080 --add-host=host.docker.internal:host-gateway --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main
ollama模型仓库(可以选择自己想用的模型安装体验)[地址](https://ollama.com/library)
使用docker中的ollama下载并运行AI模型
docker exec -it ollama ollama run llama3:8b
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。