最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
當前位置: 首頁 - 科技 - 知識百科 - 正文

使用Python寫CUDA程序的方法詳細介紹

來源:懂視網(wǎng) 責編:小OO 時間:2020-11-27 14:24:47
文檔

使用Python寫CUDA程序的方法詳細介紹

使用Python寫CUDA程序有兩種方式。* Numba;* PyCUDA;numbapro現(xiàn)在已經(jīng)不推薦使用了,功能被拆分并分別被集成到accelerate和Numba了。例子;numba;Numba通過及時編譯機制(JIT)優(yōu)化Python代碼,Numba可以針對本機的硬件環(huán)境進行優(yōu)化,同時支持CPU和GPU的優(yōu)化,并且可以和Numpy集成,使Python代碼可以在GPU上運行,只需在函數(shù)上方加上相關的指令標記。如下所示。
推薦度:
導讀使用Python寫CUDA程序有兩種方式。* Numba;* PyCUDA;numbapro現(xiàn)在已經(jīng)不推薦使用了,功能被拆分并分別被集成到accelerate和Numba了。例子;numba;Numba通過及時編譯機制(JIT)優(yōu)化Python代碼,Numba可以針對本機的硬件環(huán)境進行優(yōu)化,同時支持CPU和GPU的優(yōu)化,并且可以和Numpy集成,使Python代碼可以在GPU上運行,只需在函數(shù)上方加上相關的指令標記。如下所示。

下面小編就為大家?guī)硪黄褂肞ython寫CUDA程序的方法。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧

使用Python寫CUDA程序有兩種方式:

* Numba
* PyCUDA

numbapro現(xiàn)在已經(jīng)不推薦使用了,功能被拆分并分別被集成到accelerate和Numba了。

例子

numba

Numba通過及時編譯機制(JIT)優(yōu)化Python代碼,Numba可以針對本機的硬件環(huán)境進行優(yōu)化,同時支持CPU和GPU的優(yōu)化,并且可以和Numpy集成,使Python代碼可以在GPU上運行,只需在函數(shù)上方加上相關的指令標記,

如下所示:

import numpy as np 
from timeit import default_timer as timer
from numba import vectorize
@vectorize(["float32(float32, float32)"], target='cuda')
def vectorAdd(a, b):
 return a + b
def main():
 N = 320000000
 A = np.ones(N, dtype=np.float32 )
 B = np.ones(N, dtype=np.float32 )
 C = np.zeros(N, dtype=np.float32 )
 start = timer()
 C = vectorAdd(A, B)
 vectorAdd_time = timer() - start
 print("c[:5] = " + str(C[:5]))
 print("c[-5:] = " + str(C[-5:]))
 print("vectorAdd took %f seconds " % vectorAdd_time)
if name == 'main':
 main()

PyCUDA

PyCUDA的內(nèi)核函數(shù)(kernel)其實就是使用C/C++編寫的,通過動態(tài)編譯為GPU微碼,Python代碼與GPU代碼進行交互,如下所示:

import pycuda.autoinit
import pycuda.driver as drv
import numpy as np
from timeit import default_timer as timer
from pycuda.compiler import SourceModule
mod = SourceModule("""
global void func(float *a, float *b, size_t N)
{
 const int i = blockIdx.x * blockDim.x + threadIdx.x;
 if (i >= N)
 {
 return;
 }
 float temp_a = a[i];
 float temp_b = b[i];
 a[i] = (temp_a * 10 + 2 ) * ((temp_b + 2) * 10 - 5 ) * 5;
 // a[i] = a[i] + b[i];
}
""")
func = mod.get_function("func") 
def test(N):
 # N = 1024 * 1024 * 90 # float: 4M = 1024 * 1024
 print("N = %d" % N)
 N = np.int32(N)
 a = np.random.randn(N).astype(np.float32)
 b = np.random.randn(N).astype(np.float32) 
 # copy a to aa
 aa = np.empty_like(a)
 aa[:] = a
 # GPU run
 nTheads = 256
 nBlocks = int( ( N + nTheads - 1 ) / nTheads )
 start = timer()
 func(
 drv.InOut(a), drv.In(b), N,
 block=( nTheads, 1, 1 ), grid=( nBlocks, 1 ) )
 run_time = timer() - start 
 print("gpu run time %f seconds " % run_time) 
 # cpu run
 start = timer()
 aa = (aa * 10 + 2 ) * ((b + 2) * 10 - 5 ) * 5
 run_time = timer() - start 
 print("cpu run time %f seconds " % run_time) 
 # check result
 r = a - aa
 print( min(r), max(r) )
def main():
 for n in range(1, 10):
 N = 1024 * 1024 * (n * 10)
 print("------------%d---------------" % n)
 test(N)
if name == 'main':
 main()

對比

numba使用一些指令標記某些函數(shù)進行加速(也可以使用Python編寫內(nèi)核函數(shù)),這一點類似于OpenACC,而PyCUDA需要自己寫kernel,在運行時進行編譯,底層是基于C/C++實現(xiàn)的。通過測試,這兩種方式的加速比基本差不多。但是,numba更像是一個黑盒,不知道內(nèi)部到底做了什么,而PyCUDA就顯得很直觀。因此,這兩種方式具有不同的應用:

* 如果只是為了加速自己的算法而不關心CUDA編程,那么直接使用numba會更好。

* 如果為了學習、研究CUDA編程或者實驗某一個算法在CUDA下的可行性,那么使用PyCUDA。

* 如果寫的程序將來要移植到C/C++,那么就一定要使用PyCUDA了,因為使用PyCUDA寫的kernel本身就是用CUDA C/C++寫的。

聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

文檔

使用Python寫CUDA程序的方法詳細介紹

使用Python寫CUDA程序有兩種方式。* Numba;* PyCUDA;numbapro現(xiàn)在已經(jīng)不推薦使用了,功能被拆分并分別被集成到accelerate和Numba了。例子;numba;Numba通過及時編譯機制(JIT)優(yōu)化Python代碼,Numba可以針對本機的硬件環(huán)境進行優(yōu)化,同時支持CPU和GPU的優(yōu)化,并且可以和Numpy集成,使Python代碼可以在GPU上運行,只需在函數(shù)上方加上相關的指令標記。如下所示。
推薦度:
標簽: 使用的 方式 編程
  • 熱門焦點

最新推薦

猜你喜歡

熱門推薦

專題
Top