将上面的dockerrun命令转换为docker-compose.yml文件,并设置open-webui和anythingllm服务依赖于ollama服务,方便管理。这将停止并移除容器,但不会删除卷。每个服务都...
浏览 90 次 标签: Docker+Ollama+WebUI+AnythingLLM 构建企业本地AI大模型