CUDA程式設計指南閱讀筆記
文章推薦指數: 80 %
CUDA基本概念(上) ... 本節將介紹CUDA的一些基本的程式設計概念,該節用到的例子來自於CUDA Sample中的VectorAdd專案。
... 執行配置語法來設定。
程式語言前端開發IOS開發Android開發雲端運算人工智慧伺服器搜尋資料庫軟體開發工具CUDA程式設計指南閱讀筆記2018.07.28程式語言平行計算&GPU&CUDA&OpenMP,支援cuda,環境變數cuda,編碼器cuda,華為雲cuda,雲伺服器cudaHOME程式語言CUDA程式設計指南閱讀筆記Advertisement目錄1.CUDA程式設計指南閱讀筆記(一)2.1.什麼是CUDA?3.2.CUDA程式設計模型如何擴充套件?4.3.CUDA基本概念(上)4.1.3.1核心(Kernels)4.2.3.2執行緒層次(ThreadHierarchy)CUDA程式設計指南閱讀筆記(一)原創 2013年08月01日20:36:00標籤:CUDA /GPU /異構計算 /效能優化4015隨著多核CPU和眾核GPU的到來,並行程式設計已經得到了業界越來越多的重視,CPU-GPU異構程式能夠極大提高現有計算機系統的運算效能,對於科學計算等運算密集型程式有著非常重要的意義。
這一系列文章是根據《CUDAC語言程式設計指南》來整理的,該指南是NVIDIA公司提供的CUDA學習資料,介紹了CUDA程式設計最基本最核心的概念,是學習CUDA必不可少的閱讀材料。
初學CUDA,筆記錯誤之處在所難免,還請發現問題的諸位讀者不吝賜教。
1.什麼是CUDA? CUDA全稱是ComputeUnifiedDeviceArchitecture,中文名稱即統一計算裝置架構,它是NVIDIA公司提出了一種通用的平行計算平臺和程式設計模型。
使用CUDA,我們可以開發出同時在CPU和GPU上執行的通用計算程式,更加高效地利用現有硬體進行計算。
為了簡化平行計算學習,CUDA為程式設計師提供了一個類C語言的開發環境以及一些其它的如FORTRAN、DirectCOmpute、OpenACC的高階語言/程式設計介面來開發CUDA程式。
2.CUDA程式設計模型如何擴充套件? 我們知道,不同的GPU擁有不同的核心數目,在核心較多的系統上CUDA程式執行的時間較短,而在核心較少的系統上CUDA程式的執行時間較多。
那麼,CUDA是如何做到的呢? 並行程式設計的中心思想是分而治之:將大問題劃分為一些小問題,再把這些小問題交給相應的處理單元並行地進行處理。
在CUDA中,這一思想便體現在它的具有兩個層次的問題劃分模型。
一個問題可以首先被粗粒度地劃分為若干較小的子問題,CUDA使用被稱為塊(Block)的單元來處理它們,每個塊都由一些CUDA執行緒組成,執行緒是CUDA中最小的處理單元,將這些較小的子問題進一步劃分為若干更小的細粒度的問題,我們便可以使用執行緒來解決這些問題了。
對於一個普通的NVIDIAGPU,其CUDA執行緒數目通常能達到數千個甚至更多,因此,這樣的問題劃分模型便可以成倍地提升計算機的運算效能。
GPU是由多個流水多處理器構成的,流水處理器以塊(Block)為基本排程單元,因此,對於流水處理器較多的GPU,它一次可以處理的塊(Block)更多,從而運算速度更快,時間更短。
而反之對於流水處理器較少的GPU,其運算速度便會較慢。
這一原理可以通過下圖形象地看出來:3.CUDA基本概念(上) 本節將介紹CUDA的一些基本的程式設計概念,該節用到的例子來自於CUDASample中的VectorAdd專案。
3.1核心(Kernels) CUDAC是C語言的一個擴充套件,它允許程式設計師定義一種被稱為核心函式(KernelFunctions)的C函式,核心函式執行在GPU上,一旦啟動,CUDA中的每一個執行緒都將會同時並行地執行核心函式中的程式碼。
核心函式使用關鍵字__global__來宣告,執行該函式的CUDA執行緒數則通過<<>>執行配置語法來設定。
(參見章節”C語言擴充套件”),每一個執行核心函式的執行緒都由一個唯一的執行緒ID,這一ID可以通過在核心函式中訪問threadIdx變數來得到。
下面通過一些示例程式碼來展示剛剛提到的這些概念該如何應用在程式設計中:[cpp] viewplain copy// Kernel definition __global__ void VecAdd(float* A, float* B, float* C) { int i = threadIdx.x; C[i] = A[i] B[i]; } int main() { … // Kernel invocation with N threads VecAdd<<<1, N>>>(A, B, C); … } 在上面的程式碼中,N個執行緒將會並行地同時執行加法運算。
3.2執行緒層次(ThreadHierarchy) CUDA的每一個執行緒都有其執行緒ID,執行緒的ID資訊由變數threadIdx給出。
threadIdx是CUDAC語言的內建變數,通常它用一個三維陣列來表示。
使用三維陣列的方便之處在於可以很方便地表示一維、二維和三維執行緒索引,進而方便地表示一維、二維和三維執行緒塊(threadblock)。
這樣,無論是陣列、矩陣還是體積的計算,都可以很容易地使用CUDA進行運算。
執行緒的索引與執行緒ID之間存在著直接的換算關係,對於一個索引為(x,y,z)的執行緒來說: 1、如果執行緒塊(block)是一維的,則執行緒ID=x 2、如果執行緒塊是二維的,假設塊尺寸為(Dx,Dy),那麼執行緒ID=xy*Dx 3、如果執行緒塊是三維的,設其尺寸為(Dx,Dy,Dz),那麼執行緒ID=xy*Dxz*Dx*Dy 下面的例子展示了兩個NxN矩陣相加的CUDA實現:[cpp] viewplain copy// Kernel definition __global__ void MatAdd(float A[N][N], float B[N][N], float C[N][N]) { int i = threadIdx.x; int j = threadIdx.y; C[i][j] = A[i][j] B[i][j]; } int main() { … // Kernel invocation with one block of N * N * 1 threads int numBlocks = 1; dim3 threadsPerBlock(N, N); MatAdd<<
上面的例子中numBlocks代表執行緒塊的數量,這裡的值為1。
在一般的CUDA程式中,這個值通常大於1,也就是說將會有多個執行緒塊被分配到多個處理器核中同時進行處理,這樣就大大提高了程式的並行性。
在CUDA中,執行緒塊包含線上程格(grid)當中,執行緒格可以是一維、二維或者三維的,執行緒格的尺寸一般根據待處理資料的規模或者處理器的數量來指定。
執行緒格中所包含的執行緒塊數目通常遠遠大於GPU處理器核心的數目。
下圖展示了執行緒格(grid)、執行緒塊(block)以及執行緒(thread)之間的關係: 核心函式的呼叫可以簡化為kernel<<>>(parameters),在尖括號中,A代表執行緒格(grid)的尺寸,它可以是三維的,用型別dim3表示,也可以是一維的,用int型別表示。
B代表執行緒塊(block)的尺寸,它與A類似,也可分別用dim3或int型別表示。
在核心函式內部,CUDA為我們內建了一些變數用於訪問執行緒格、執行緒塊的尺寸和索引等資訊,它們是: 1.gridDim:代表執行緒格(grid)的尺寸,gridDim.x為x軸尺寸,gridDim.y、gridDim.z類似。
拿上圖來說,它的gridDim.x=3,gridDim.y=2,gridDim.z=1。
2.blockIdx:代表執行緒塊(block)線上程格(grid)中的索引值,拿上圖來說,Block(1,1)的索引值為:blockIdx.x=1,blockIdx.y=1。
3.blockDim:代表執行緒塊(block)的尺寸,blockDIm.x為x軸尺寸,其它依此類推。
拿上圖來說,注意到Block(1,1)包含了4*3個執行緒,因此blockDim.x=4,blockDim.y=3。
4.threadIdx:執行緒索引,前面章節已經詳細探討過了,這裡不再贅述。
明白了這些變數的含義,那麼下面的矩陣加法程式便不難理解了:[cpp] viewplain copy// Kernel definition __global__ void MatAdd(float A[N][N], float B[N][N], float C[N][N]) { int i = blockIdx.x * blockDim.x threadIdx.x; int j = blockIdx.y * blockDim.y threadIdx.y; if (i >>(A, B, C); … } 在上面的程式中,執行緒塊(block)的尺寸是16×16,這是CUDA程式設計中一個非常普遍的選擇。
執行緒格(grid)包含了足夠多的執行緒塊(block)來進行計算。
執行緒塊(block)是獨立執行的,在執行的過程中執行緒塊之間互不干擾,因此它們的執行順序是隨機的。
同一執行緒塊中的執行緒可以通過訪問共享記憶體(sharedmemory)或者通過同步函式__syncthreads()來協調合作。
這些概念將在以後的章節中詳細解釋。
Advertisement写评论取消回覆很抱歉,必須登入網站才能發佈留言。
近期文章Spark入門(一)用SparkShell初嘗Spark滋味2019.12.08Spark入門(二)如何用Idea運行我們的Spark項目2019.12.08Spark入門(三)Spark經典的單詞統計2019.12.08Spark入門(四)Spark的map、flatMap、mapToPair2019.12.08Spark入門(五)Spark的reduce和reduceByKey2019.12.08Spark入門(六)Spark的combineByKey、sortBykey2019.12.08Spark入門(七)Spark的intersection、subtract、union和distinct2019.12.08Spark實戰尋找5億次訪問中,訪問次數最多的人2019.12.08Spark實戰搭建我們的Spark分佈式架構2019.12.08【機器學習】深度學習開發環境搭建2019.12.08AdvertisementAdvertisement
延伸文章資訊
- 1【平行運算】CUDA教學(一) 概念介紹 - 都會阿嬤
都會阿嬤- 現在大部份做深度學習的工程師視CUDA、GPU加速為黑盒子, ... 在CUDA 中,最基本的運算單元是thread,很多thread 組成一個block,很多block 組成一個g...
- 2CUDA基本语法 - 简书
示例:向量加的CUDA实现这里通过向量加计算这个例子介绍CUDA的基本知识,主要包括内存操作、核函数(kernel function)以及线程配置等。
- 3学习记录--CUDA基本语法--CUDA10.2 - CSDN博客
学习记录--CUDA基本语法--CUDA10.2 · 设备信息 · 申请空间 · 内存复制 · 核函数调用 · 核函数定义 · 热门文章 · 分类专栏 · 您愿意向朋友推荐“博客详情页”吗?
- 4CUDA · parallel_processing
而在device 上執行的function(device 和global)有一些基本的限制:. 不支援遞迴; 不能有static 變數; 不能使用variable number of argum...
- 5CUDA程式設計指南閱讀筆記
CUDA基本概念(上) ... 本節將介紹CUDA的一些基本的程式設計概念,該節用到的例子來自於CUDA Sample中的VectorAdd專案。 ... 執行配置語法來設定。