基于RISC-V架构的AI框架(Pytorch)适配

木杉_BRETT 2024-07-23 08:01:06 阅读 97

在RISC-V平台上进行Pytorch源码编译

此次适配的环境是在算能的云空间中(可通过 https://www.sophon.cn/ 申请),适配流程参考了山东大学智研院的博客(原文链接 https://zhuanlan.zhihu.com/p/655277146)并进行了一定的补充。

算能云空间的服务器配置如下所示:

算能云空间服务器配置

由于算能云空间中缺少基础的python环境以及一些包,因此在适配pytorch框架前需要一些预先的准备工作。

预先准备

由于笔者全程在root下配置,因此命令可不用添加sudo,若未在root下请在命令行前加上sudo,如:sudo apt …

python环境配置

<code>apt install python3

apt install python-is-python3 python-dev-is-python3

apt autoremove

# 下载好python3后发现没有pip、yaml等工具

apt install python3-pip

pip install pyyaml

git安装

apt install git

编译工具链安装

apt install libopenblas-dev libblas-dev m4 cmake cython3 ccache

# 若执行过程中有以下报错,则杀死10198进程:Waiting for cache lock: Could not get lock /var/lib/dpkg/lock-frontend. It is held by process 10198 (apt)

kill -9 10198

# 安装过程中,若发现libopenblas-dev无法正常安装,则跳过其直接安装libblas-dev m4 cmake cython3 ccache

apt install libblas-dev m4 cmake cython3 ccache

# libopenblas-dev无法安装的替代方案:手动安装OpenBLAS

git clone https://github.com/xianyi/OpenBLAS.git

cd OpenBLAS

make -j8

sudo make PREFIX=/usr/local/OpenBLAS install

# 进入/etc,用vim打开profile

[在最后一行添加]: export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/OpenBLAS/lib/

source /etc/profile

源码获取

# 首先进入/root/yourname目录,再克隆pytorch源码

# 由于网络问题可能无法下载好所有的包,但执行之后的git submodule update --init --recursive会将未下好的包重新clone

git clone --recursive https://github.com/pytorch/pytorch.git

cd pytorch

# 确保子模块的远程仓库URL与父仓库中的配置一致

git submodule sync

# 确保获取并更新所有子模块的内容,包括初始化尚未初始化的子模块并递归地处理嵌套的子模块

git submodule update --init --recursive

Commit 文件修改

本节中需要用到Vim对一些文件进行修改,涉及到的Vim操作主要有:

Vim打开文件:vim filenameVim搜索:使用 / 向前搜索,使用 ? 向后搜索,搜索后按 Enter 定位Vim编辑:使用 shift+i 进入编辑模型,使用 Esc 退出编辑模式Vim保存:使用 :wq 保存并退出

aten/src/ATen/CMakeLists.txt

将语句:if(NOT MSVC AND NOT EMSCRIPTEN AND NOT INTERN_BUILD_MOBILE)

替换为:if(FALSE)

caffe2/CMakeLists.txt

将语句:target_link_libraries(${ test_name}_${ CPU_CAPABILITY} c10 sleef gtest_main)

替换为:target_link_libraries(${ test_name}_${ CPU_CAPABILITY} c10 gtest_main)

test/cpp/api/CMakeLists.txt

在语句下:add_executable(test_api ${ TORCH_API_TEST_SOURCES})

添加:target_compile_options(test_api PUBLIC -Wno-nonnull)

环境变量配置

# 直接在终端中输入即可,重启需要重新输入

export USE_CUDA=0

export USE_DISTRIBUTED=0

export USE_MKLDNN=0

export MAX_JOBS=16


编译

python3 setup.py develop --cmake

编译及引用过程可能会遇到的问题

Could not find any of CMakeLists.txt, Makefile, setup.py, LICENSE, LICENSE.md, LICENSE.txt in /root/xxx/pytorch/third_party/pthreadpool

问题来源:编译过程

问题分析:由于网络的问题,clone仓库时有部分包未成功下载,导致文件夹为空

解决方法:重新下载对应包

进入third_party目录在终端执行以下指令

rm -rf pthreadpool

# 执行下列指令前回退到pytorch目录

git submodule update --init --recursive


/usr/bin/ld: /root/xxx/pytorch/build/lib/libtorch_cpu.so: undefined reference to `__atomic_exchange_1’

collect2: error: ld returned 1 exit status

问题来源:编译过程

问题分析:对__atomic_exchange_1的未定义引用

解决方法:使用patchelf添加需要的动态库

# path为存放libtorch_cpu.so的路径

patchelf --add-needed libatomic.so.1 /path/libtorch_cpu.so

# 若提示无patchelf命令,则执行下列语句

apt install patchelf


Error in cpuinfo: processor architecture is not supported in cpuinfo

问题来源:编译完成后,使用python时“import torch”报错

问题分析:git clone时下载的cpuinfo不支持Risc-V架构

解决方法:删除当前存在的cpuinfo并重新下载最新支持Risc-V架构的cpuinfo

cpuinfo路径为pytorch/third_party/cpuinfo,因此先进入pytorch/third_party目录在终端执行以下指令

rm -rf cpuinfo

git clone https://github.com/sophgo/cpuinfo.git

# clone完成后需要重新编译

python3 setup.py develop --cmake


深度学习模型实例

本节提供了一个简单的全连接神经网络模型的实例,可用于测试环境是否能正常运行并输出损失值

运行前置

在pytorch目录下创建一个文件:touch sample.py使用vim打开sample.py并将以下代码复制进文件中并保存

import torch

import torch.nn as nn

import torch.optim as optim

import os

os.environ["KMP_DUPLICATE_LIB_OK"]="TRUE"

N,D_in,H,D_out = 64, 1000, 100, 10 # N: batch size, D_in:input size, H:hidden size, D_out: output size

x = torch.randn(N,D_in) # x = np.random.randn(N,D_in)

y = torch.randn(N,D_out) # y = np.random.randn(N,D_out)

w1 = torch.randn(D_in,H) # w1 = np.random.randn(D_in,H)

w2 = torch.randn(H,D_out) # w2 = np.random.randn(H,D_out)

learning_rate = 1e-6

for it in range(200):

# forward pass

h = x.mm(w1) # N * H h = x.dot(w1)

h_relu = h.clamp(min=0) # N * H np.maximum(h,0)

y_pred = h_relu.mm(w2) # N * D_out h_relu.dot(w2)

# compute loss

loss = (y_pred - y).pow(2).sum() # np.square(y_pred-y).sum()

print(it,loss.item()) # print(it,loss)

# BP - compute the gradient

grad_y_pred = 2.0 * (y_pred-y)

grad_w2 = h_relu.t().mm(grad_y_pred) # h_relu.T.dot(grad_y_pred)

grad_h_relu = grad_y_pred.mm(w2.t()) # grad_y_pred.dot(w2.T)

grad_h = grad_h_relu.clone() # grad_h_relu.copy()

grad_h[h<0] = 0

grad_w1 = x.t().mm(grad_h) # x.T.dot(grad_h)

# update weights of w1 and w2

w1 -= learning_rate * grad_w1

w2 -= learning_rate * grad_w2

运行文件:python3 sample.py



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。