AI PC 大语言模型部署实验手册

英特尔开发人员专区 2024-06-19 10:01:20 阅读 57

下载学习,轻松部署,在 AI PC 上体验基于英特尔® 酷睿™ Ultra 优化的大语言模型!

下载 PDF 文档

动手实验

一、 注册&登录 ModelScope

1. 进入 ModelScope(https://www.modelscope.cn/home),右上角点击 完成新用户的注册;

2. 注册完成后,登录 ModelScope,进入首页,请确定已经绑定阿里云账 号,并已获得免费的配套云计算资源。启动 CPU 服务器:

3. 启动成功后,点击“查看”

二、环境配置

1. 点击 Terminal 图标,打开终端命令行环境。

2. 环境搭建:

在终端命令行环境中输入下列命令用于在环境目录/opt/conda/envs 下新 建文件夹 itrex:

 

cd /opt/conda/envsmkdir itrex

使用 wget 命令复制运行环境镜像文件并在云主机的 itrex 目录进行运行环 境的恢复。(任选一个下载即可)

下载源 1:

wget https://idz-ai.oss-cn-hangzhou.aliyuncs.com/LLM/itrex.tar.gz

下载源 2:

wget https://filerepo.idzcn.com/LLM/itrex.tar.gz

解压文件:

tar -zxvf itrex.tar.gz -C itrex/

激活环境:

conda activate itrex

安装对应的 kernel:

python -m ipykernel install --name itrex

三、LLM 下载

切换至工作目录:

cd /mnt/workspace

根据实验需要,下载相对应的中文大模型至本地:

git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git git clone https://www.modelscope.cn/qwen/Qwen-7B-Chat.git

四、chatbot 的构建和使用

在 Notebook 的 Launcher 中选择基于 itrex 的环境,新建一个.ipynb 文件

 量化并构建 chatbot:在 Notebook 单元格 cell 中输入如下代码:

# Build chatbot with INT4 weight-only quantization, computations in AMX INT8from intel_extension_for_transformers.neural_chat import build_chatbot, PipelineConfigfrom intel_extension_for_transformers.transformers import RtnConfigconfig = PipelineConfig(model_name_or_path="./chatglm3-6b",6optimization_config=RtnConfig(bits=4, compute_dtype="int8", weight_dtype="int4_fullrange"))chatbot = build_chatbot(config)

点击左侧按钮运行;

使用 chatbot 得到回答:新建一个 notebook 的单元格 cell,输入如下代 码:

 

# Perform inference/generate a responseresponse = chatbot.predict(query="上海有哪些景点")print(response)

五、其他大语言模型部署实验

在完成上述实验后,可以进一步尝试下载及加载其他大语言模型进行 部署实验的体验。推荐体验的开源模型列表:

1. 通义千问 Qwen-7B-Chat

2. 智谱 ChatGLM3-6B

3. 百川 2-7B-对话模型

4. Intel 发布的开源模型如 Neural Chat 等(待更新



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。