使用Ollama在本地运行AI大模型gemma
Jayin_chan 2024-06-27 08:01:02 阅读 58
使用Ollama在本地运行AI大模型
1.下载:2.配置环境变量3.安装4.下载并运行模型5.整合界面UI
本次本人用到的软件汇总:百度网盘下载
1.下载:
https://github.com/ollama/ollama/releases
2.配置环境变量
我的电脑-右键-属性-系统-高级系统设置-环境变量-【系统环境变量】新建
变量名:OLLAMA_MODELS (固定变量名)
变量值:E:\Ollama\Lib (写自己要存放的路径)
先配置好这个变量,这个是ollama的存储路径。
不配置也可以,不配置的话就会放到默认位置,建议还是修改下存储路径,方便后续使用。
3.安装
直接install即可。
安装完成后,cmd查询下:ollama --version
如果查询不到,重启下电脑即可。
我这里是因为我直接把ollama给关了,所以出现了警告,不过也同样可以看到ollama客户端的版本。
ollama的其他命令可以通过ollama help
来获取
4.下载并运行模型
谷歌最新开源gemma:
最低条件:
2B版本需要2G显存
7B版本需要4G显存
7B的其他版本需要更大
打开命令提示符窗口下载运行模型:
访问:https://ollama.com/library选择自己想要的模型,复制下载命令即可.
这里选择拉取gemma7b版本来试试:ollama run gemma:7b
全量版模型拉取运行命令
ollama run gemma:2b-instruct-fp16
ollama run gemma:7b-instruct-fp16
ollama命令:
查看已有模型:ollama list
下载完成后即在运行(只下载的话,就用ollama pull
去拉取即可)
接下来可以直接在命令行窗口进行问答
拉取的模型可以在存储目录blobs下看到
5.整合界面UI
Ollama WebUI、open-webui等。
需要在docker环境中运行,windows本地docker已经被我搞掉了,只有虚拟机里面才有docker环境。
虚拟机占用内存,破电脑性能一般般,不打算搞了。这个搞起来也还好,就是拉下镜像运行容器就行了。JAN AI:https://jan.ai/ 下载windows版本客户端(开源的)
1)下载安装后修改下数据存储路径(随便要不要改),修改完重启即可。
2)修改ai模型源:
E:\Ollama\JANAI\engines\openai.json
(上一步中的数据存储路径下,找到engines\openai.json进行修改)
{
"full_url": "http://localhost:11434/v1/chat/completions"
}
3)添加模型配置:记得把里面的注释去掉。
E:\Ollama\JANAI\models\底下创建一个文件夹mine-gemma-7b(名字随便,我把models底下其他的文件夹都挪走备份了,方便管理而已)然后在底下创建个model.json文件
{
"sources": [
{
"filename": "gemma:7b", # 模型名称
"url": "https://ollama.com/library/gemma:7b" # 模型url
}
],
"id": "gemma:7b", #模型ID
"object": "model",
"name": "mine-gemma:7b", #显示在jan中模型名称,随便写不影响
"version": "1.0",
"description": "ollama本地gemma:7b", #随便写不影响
"format": "api",
"settings": {
},
"parameters": {
},
"metadata": {
"author": "Meta",
"tags": [
"General",
"Big Context Length"
]
},
"engine": "openai", # 需要配置
"state":"ready" # 需要配置
}
上述配置弄完之后重启下jan,然后再hub中就可以看到自己加的模型了,点击use即可使用
断网状态下是可以使用的。
chatbox : https://chatboxai.app/zh 下载windows客户端
直接安装完按照下图选中相应模型就可以使用了。
都是自动加载的,如果对界面没啥要求的,推荐直接用chatbox就可以了,啥都不用整就可以用了。
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。