007-Wsl-Ubuntu上LLaMA-Factory如何下载、部署、运行【AI超车B计划】
AI超车计划@产品江湖 2024-06-13 09:01:25 阅读 72
一、目标
了解什么是LLaMA-Factory;
成功在Wsl-Ubuntu环境下安装并运行LLaMA-Factory;
二、路径
学习笔记中关于LLaMA-Factory的简介,了解什么是LLaMA-Factory;
在Ubuntu中,下载LLaMA-Factory;
使用Conda 创建一个LLaMA-Factory专属的Python虚拟环境,并激活;
在Python虚拟环境中,部署LLaMA-Factory并运行;
三、笔记
1、什么是LLaMA-Factory?有什么作用?
LLaMA-Factory是github上的一个开源项目,可以通过web界面,可视化地轻松微调大模型。
特色:
支持微调上几百大模型:LLaMA、LLaVA、Mistral、Mixtral-MoE、Qwen、Yi、Gemma、Baichuan、ChatGLM、Phi 等等。
支持多种大模型训练方法:(增量)预训练、(多模态)指令监督微调、奖励模型训练、PPO 训练、DPO 训练和 ORPO 训练。
多精度支持:32 比特全参数微调、16 比特冻结微调、16 比特 LoRA 微调和基于 AQLM/AWQ/GPTQ/LLM.int8 的 2/4/8 比特 QLoRA 微调。
多算法支持:GaLore、BAdam、DoRA、LongLoRA、LLaMA Pro、Mixture-of-Depths、LoRA+、LoftQ 和 Agent 微调。
无需代码易操作可视化界面:如图所示,
2、下载代码到本地
github 官方代码镜像地址:点我直达
https://github.com/hiyouga/LLaMA-Factory
Terminal中输入以下命令,下载LLaMA-Factory代码项目到本地:
git clone https://github.com/hiyouga/LLaMA-Factory
3、通过conda安装llama-factory的专属虚拟环境
① cd到 LLaMA-Factory目录下,在Terminal输入以下命令
conda create -n fine-tuning python=3.10
②输入y,回车
开始下载conda 虚拟环境的依赖包
fine-tuning虚拟环境依赖下载完成:
③激活虚拟环境
Terminal中输入
conda activate fine-tuning
激活成功
4、下载并安装llama-factory的环境依赖
①cd进入LLaMA-Factory目录中,在Terminal中输入:
pip install -e .[metrics]
依赖下载中:
②优化下载源,需要暂停下载 ctl+c,调整指令:
pip install -e .[metrics] -i https://pypi.tuna.tsinghua.edu.cn/simple
下载速度从几十k,升到几M
下载完成,并自动安装成功:
5、运行llama-factory
①在LLaMA-Factory目录中,Terminal中输入以下命令:
llamafactory-cli webui
②复制网址粘贴进浏览器:
http://127.0.0.1:7860/
点击左上角下拉选项卡,支持切换成中文:
6、通过LLaMA-Facotry微调(示意)
微调过程:
微调结果:
什么是AI超车计划?
是“产品江湖”社区发起的AI学习计划,由沐逸@产品江湖(微信号:legend_pmdiss)老师主理,旨在帮助大家在AI时代找到自己的位置和价值。
计划包含:
A计划【不掉队】-- 快速了解各种AI应用的使用,如Kimi、各种GPT,让自己不掉队!
B计划【赶得上】-- 快速了解现有开源的AI开发工具,如dify、Coze,以了解如何迅速构建AI应用,让自己赶得上!
C计划【快超车】--通过低代码平台并借助AI辅助编程,从零到一打造大模型应用,让自己实现快速超车!
了解AI超车计划
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。