在docker中部署ollama体验AI模型

CSDN 2024-07-07 17:31:01 阅读 51

docker部署ollama

1.docker部署ollama

CPU模式

<code>docker run -d -v /opt/ai/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

GPU模式(需要有NVIDIA显卡支持)

docker使用GPU运行ollama

docker run --gpus all -d -v /data/ai/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

docker部署ollama web ui

docker run -d -p 8080:8080 --add-host=host.docker.internal:host-gateway --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main

ollama模型仓库(可以选择自己想用的模型安装体验)[地址](https://ollama.com/library)

使用docker中的ollama下载并运行AI模型

docker exec -it ollama ollama run llama3:8b



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。