Ollama通过gguf文件加载AI模型
2201_75335496 2024-09-12 10:01:22 阅读 61
#0 下载AI模型文件
首先需要准备好AI模型文件(.gguf),可以在 这里 下载到。
#1 下载并配置Ollama
1. 下载
准备好Ollama,可以从 ollama官网 下载
2. 创建Modelfile文件
下载完成后找到安装目录(可以在开始菜单右键其图标,选择“打开文件位置查看”),在其目录下新建一个“Modelfile”文件:
并在文件内写入
FROM "你的*.gguf文件位置"
3. 配置环境变量与移动程序位置 (C盘空间充足者可略过)
Ollama的软件和模型是默认装在C盘用户文件夹内的,如果C盘空间不够,可以将Ollama的整个目录移动到其它盘(快捷方式需要重新建)。
同样,Ollama加载模型文件时,会在其默认模型文件夹内创建与模型文件一样大的副本,所以需要将其从C盘移动到其他位置。
可以通过修改(创建)系统环境变量实现:
4. 导入模型文件到Ollama
打开cmd,cd到Ollama安装目录下,创建模型
cd E:\Program Files\Ollama # cd到你设置的Ollama创建模型文件的位置
ollama.exe create Model_1 # Model_1可以是你起的模型名称(应该是只允许A-Za-z0-9_)
然后一段漫长的等待……
只要结束后没有类似“[Error]”的字样,一般是已经配置成功了
#3 启动AI模型!
打开cmd,cd到Ollama安装目录下,并启动服务
(注意:启动服务后不要关闭窗口,因为服务正在运行,这样可以通过关闭服务来关闭正在运行的实例)
cd E:\Program Files\Ollama # cd到你设置的Ollama创建模型文件的位置
Ollama.exe serve # 启动服务
此时还没有启动AI模型,需要在另一个cmd窗口中输入以下命令来启动AI模型:
(注意:此操作将会把模型文件载入到内存中,如果模型文件非常大,内存可能会爆满卡死,请查看你的剩余内存与模型文件大小以评估是否可以打开AI模型!如果实在不行可以换小一点的模型)
启动模型的过程中可能会卡顿,请提前关闭其他占内存的程序后再启动!
cd E:\Program Files\Ollama # cd到你设置的Ollama创建模型文件的位置
ollama.exe run Model_1 # Model_1改成你的模型名称
等待其输出变成“Send a message”时就说明已经将模型加载到内存,可以与其对话了!
注意:对话时“ollama.exe”程序会消耗大量的CPU,所以可能会引起卡顿。另外回答的速度可能不会很快,这取决于你的电脑配置
#4 退出对话并关闭服务
可以在对话窗口中(就是那个有输出“Send a message”的窗口)输入
/bye
然后回车,就退出对话了
如果还想对话就不要关闭用于启动服务的cmd窗口(但一段时间后它也会自动释放内存,关闭模型)。如果不想对话了,就关闭用于启动服务的cmd窗口,就可以退出对话,释放内存。
另外,在模型输出过程中,如果想强制关闭也可以直接点击cmd右上方的叉来关闭对话,而且关闭后对话将停止,不会额外占用CPU
#5 其它的ollama命令
可以cd到ollama目录后输入:
ollama.exe -h
会输出一串帮助内容,如:
serve | 用于启动ollama服务 |
create | 用于创建一个AI模型 |
show | 查看某个已创建的模型信息 |
run | 启动模型 |
list | 查看已导入的模型 |
ps | 查看正在运行的模型 |
cp | 复制某个模型 |
rm | 删除某个模型 |
help | 查看帮助 |
更多内容可以看官方文档或教程,在此不一一阐述。
#总结
通过ollama与gguf文件可以在电脑上运行一个属于自己的离线AI模型,比闭源模型更可以保护隐私信息不被泄露。另外,在自己的电脑上集成AI模型可以随时随地使用,不被网络环境限制
原创文章,自己一点一点摸索出来的。制作不易,感谢支持与采纳!
上一篇: 不等 OpenAI 了!智谱清言首发视频通话功能重现 GPT-4o 惊艳演示,“长眼睛”的 AI 助手终于来了...
下一篇: HelpLook AI 知识库:为企业提供高效智能的知识管理解决方案
本文标签
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。