Python — — GPU编程
Cooku Black 2024-09-15 09:05:01 阅读 52
Python — — GPU编程
要想将Python程序运行在GPU上,我们可以使用<code>numba库或者使用cupy
库来实现GPU编程。
壹、numba
Numba 是一个开源的 JIT (Just-In-Time) 编译器,它可以将 Python 代码转换成机器代码以提高性能。Numba 特别适用于需要高性能计算的科学计算和数值计算任务。也就是说可以将python程序编译为机器码,使其可以像c/c++、Java一样快速的运行。同样Numba不仅可以加速 CPU 上的 Python 代码,还可以利用 GPU 进行加速。
安装Numba
:
pip install numba
一、机器码编程
1. 函数编写:
Numba 的核心功能是 @jit
装饰器,它可以将 Python 函数编译成优化的机器代码。
from numba import jit
@jit(nopython=True)
def my_function(x):
return x * x
x = 112.0
print(my_function(x))
指定传递参数类型以及返回值类型,nopython表示不使用python编译而直接编译为机器码:
from numba import jit
@jit('float64(float64)', nopython=True) # 指定输入和输出类型,括号内的是参数类型,括号外的是返回值类型
def my_function(x):
return x * x
x = 112.0
print(my_function(x))
从 Numba 0.15.1 版本开始,你可以使用 Python 类型注解来指定函数的参数类型:
from numba import jit
@jit
def my_function(x: float) -> float:
return x * x
2. 使用Numba函数:
使用 Numba 函数,我们可以像使用普通函数一样使用jit
修饰过的函数:
result = my_function(10.5)
print(result) # 输出 110.25
Numba 特别适合于在 NumPy 数组上进行操作。你可以使用 NumPy 数组作为 Numba 函数的参数:
from numba import njit
import numpy as np
@njit
def parallel_function(arr):
return arr * 2
arr = np.arange(10)
result = parallel_function(arr)
print(result)
3. 使用 Numba 的并行功能:
Numba 提供了并行执行的功能,可以使用 @njit
装饰器来替代 @jit
,它会自动并行化循环:
from numba import njit
import numpy as np
@njit
def parallel_function(arr):
return arr * 2
arr = np.arange(10)
result = parallel_function(arr)
print(result)
二、CUDA编程
1. 引入CUDA 模块:
from numba import cuda
2. 定义 GPU 核函数:
使用 @cuda.jit
装饰器定义 GPU 核函数,这与 CPU 加速中使用的 @jit
类似,但 @cuda.jit
指定了函数将在 GPU 上执行:
@cuda.jit
def gpu_kernel(x, y):
# 核函数体,使用 CUDA 线程索引进行计算
# 例如: position = cuda.grid(1)
# if position < len(x):
# y[position] = x[position] * x[position]
position = cuda.grid(1)
:其中cuda.grid(1)
用于确定当前线程在执行的整个网格(grid)中的位置,这里的参数1
表示一维的GPU网格索引,如果是cuda.grid(2)
则表示二维的GPU网格索引。
CUDA 的执行模型的概念:
线程(Thread):执行计算的最小单元。块(Block):一组线程,它们可以共享数据并通过共享内存进行通信。网格(Grid):由多个块组成,用于实现更大范围的并行性。
上面的代码表示的是对每一个元素分配一个GPU线程,通过
cuda.grid(1)
来获取每一个线程,本质上也是获取每一个元素,然后再进行运算操作,通常情况下希望数组长度至少与线程数相等。因为如果线程总数大于数组长度,就会有多余的线程没有执行任何操作。例如,如果数组x
只有 5 个元素,但配置了 32 个线程,那么只有前 5 个线程会计算和存储结果,其余 27 个线程将不会执行任何操作。
3. 设置执行配置:
GPU 核函数需要执行配置来确定并行执行的线程数和块数。这通过在函数调用时使用方括号指定:
threads_per_block = 256
blocks_per_grid = (n + (threads_per_block - 1)) // threads_per_block
gpu_kernel[blocks_per_grid, threads_per_block](x, y)# 给cuda.jit修饰的函数分配资源,并传入参数x 和 y
threads_per_block = 256
:定义了每个块内的线程的个数,这里是256,如果是二维数组,那么需要使用元组的方式来进行定义,如:threads_per_block = (16, 16)
。blocks_per_grid = (n + (threads_per_block - 1)) // threads_per_block
:定义了整个网格(grid)中的块数量。它也是一个元组,n
表示数组的长度,(n + (threads_per_block - 1)) // threads_per_block
这种运算相当于一个向上取整的操作,保证了数组中的每一个元素都能分配一个GPU线程,因为一个原则是:线程数量要大于等于数组的个数。如果是二维数组需要这样定义网格中块的数量:blocks_per_grid = (m // threads_per_block[0], n // threads_per_block[1])
,其中m
表示行数,n
表示列数。
4. 数据传输:
在 GPU 上执行计算之前,需要将数据从 CPU 内存传输到 GPU 内存,这通常使用 cuda.to_device()
方法完成:
x_device = cuda.to_device(x)
y_device = cuda.to_device(y)
5. 在 GPU 上分配内存:
如果 GPU 上的核函数需要额外的存储空间,可以使用 cuda.device_array()
在 GPU 上分配内存:
result_device = cuda.device_array_like(x_device)
6. 同步执行:
GPU 核函数的执行是异步的,可能需要调用 cuda.synchronize()
来确保 CPU 等待 GPU 计算完成:
cuda.synchronize()
7. 将结果从 GPU 传回 CPU:
计算完成后,使用 copy_to_host()
方法将 GPU 上的结果复制回 CPU 内存:
result = result_device.copy_to_host()
8. 实例一:
二维数组的GPU运算
import numpy as np
from numba import cuda
@cuda.jit
def matrix_add(A, B, C, m, n):
row, col = cuda.grid(2)
if row < m and col < n:
C[row, col] = A[row, col] + B[row, col]
m, n = 1024, 1024
A = np.random.rand(m, n).astype(np.float32)
B = np.random.rand(m, n).astype(np.float32)
C = np.zeros_like(A) # 创建与A形状相同的0数组
threads_per_block = (16, 16)
blocks_per_grid = (m // threads_per_block[0], n // threads_per_block[1])
matrix_add[blocks_per_grid, threads_per_block](A, B, C, m, n)
print(C)
9. 实例二:
GPU显存与主机内存之间的通信
from numba import cuda
import numpy as np
# 在主机上创建一个NumPy数组
host_array = np.array([1, 2, 3, 4], dtype=np.int32)
# 使用cuda.to_device将主机数组复制到GPU
device_array = cuda.to_device(host_array)
# 确保数据传输完成
cuda.synchronize()
# 使用.copy_to_host()方法将GPU数组复制回主机数组
host_result = device_array.copy_to_host()
print(host_result)
# 释放GPU内存
del device_array
10. 实例三:
一维数组的GPU运算
from numba import cuda
import numpy as np
# 定义一个简单的cuda内核
@cuda.jit()
def add_kernel(x, y, z, n):
i = cuda.grid(1)
if i < n: # 确保不会超出数组边界
z[i] = x[i] + y[i]
# 主函数
def main():
n = 256
x = cuda.device_array(n, dtype=np.int32) # 直接在GPU上创建数据,占用GPU显存
y = cuda.device_array(n, dtype=np.int32)
z = cuda.device_array(n, dtype=np.int32)
# 初始化数据
for i in range(n):
x[i] = i
y[i] = 2 * i
# 计算线程块大小和网格大小, 线程块是一组可以同时执行的线程集合
threadsperblock = 32 # 这意味着每个线程块将包含256个线程。
blockspergrid = (n + (threadsperblock - 1)) // threadsperblock # 定义每个网格内的块的个数
# 启动内核
add_kernel[blockspergrid, threadsperblock](x, y, z, n)
# 将结果从GPU复制回主机
result = z.copy_to_host()
print(result)
if __name__ == '__main__':
main()
贰、cupy
CuPy 是一个与 NumPy 兼容的库,提供了 NumPy 相同的多维数组 API,但是所有的数值计算都在 GPU 上执行。CuPy 底层使用 CUDA,但是 API 更简洁,使用起来比直接使用 CUDA 更加方便。
使用cupy
时,我们首先需要将CUDA
的环境给配置好,包括CUDA Toolkit
一、安装cupy:
pip install cupy
二、使用cupy:
1. 导入 CuPy:
import cupy as cp
2. 创建 CuPy 数组
可以使用与 NumPy 类似的函数来创建 CuPy 数组。CuPy 数组是在 GPU 上的多维数组。
# 创建一个全零数组
x = cp.zeros((3, 3))
# 创建一个全一数组
y = cp.ones((2, 2))
# 从 Python 列表创建数组
z = cp.array([[1, 2], [3, 4]])
3. 基本运算
# 矩阵乘法
result = cp.dot(x, z)
# 元素乘法
elementwise_product = x * y
# 元素加法
sum_result = x + z
# 计算平方根
sqrt_result = cp.sqrt(x)
4. 利用 GPU 加速
# 计算数组的总和
total = x.sum()
# 计算数组的均值
mean_value = x.mean()
5. 与 NumPy 的互操作性
# 将 NumPy 数组转换为 CuPy 数组
numpy_array = np.random.rand(10)
cupy_array = cp.array(numpy_array)
# 将 CuPy 数组转换回 NumPy 数组
numpy_array_again = cupy_array.get()
6. 使用随机数生成
# 生成随机数数组
random_array = cp.random.rand(3, 3)
# 生成符合正态分布的随机数数组
normal_array = cp.random.normal(0, 1, (3, 3))
7. 广播
# 广播示例
a = cp.array([1, 2, 3])
b = cp.array([[1], [2], [3]])
result = a + b # 结果是一个 3x3 的数组
8. 索引和切片
# 获取第二行
second_row = z[1]
# 切片操作
upper_triangle = z[cp.triu(cp.ones((3, 3), dtype=cp.bool_))]
9. 内存管理
CuPy 使用 GPU 内存,当不再需要 CuPy 数组时,应该释放它们以避免内存泄漏。
del x, y, z
cp.get_default_memory_pool().free_all_blocks()
10. 实例一:
import cupy as cp
# 创建一个Cupy数组(自动在GPU上)
x = cp.array([1., 2., 3., 4., 5.])
y = cp.sqrt(x)
print(y)
# 将Cupy数组转换回Numpy数组(如果有需要的话)
z = cp.asnumpy(y)
print(z)
11. 实例二:
import cupy as cp
# 创建两个随机的浮点型 CuPy 数组,相当于 NumPy 中的矩阵
A = cp.random.rand(3, 3).astype('float32') # 3x3 矩阵
B = cp.random.rand(3, 3).astype('float32') # 另一个 3x3 矩阵
# 执行矩阵乘法
C = cp.dot(A, B) # 或者使用 @ 操作符 C = A @ B
# 打印结果
print("矩阵 A:\n", A)
print("矩阵 B:\n", B)
print("矩阵 A 和 B 的乘积:\n", C)
# 将 CuPy 数组转换回 NumPy 数组(如果需要)
import numpy as np
numpy_C = C.get() # 将 CuPy 数组转换为 NumPy 数组
# 执行一些基本的 NumPy 操作,比如求和
sum_C = cp.sum(C) # 在 GPU 上计算 C 的总和
# 打印 C 的总和
print("矩阵 C 的总和:", sum_C)
# 释放不再使用的 CuPy 数组以节省 GPU 内存
del A, B, C
cp.get_default_memory_pool().free_all_blocks()
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。