您的位置:首页 > 其它

【CUDA】第一个CUDA程序-addVector

2015-12-05 21:38 507 查看
本文主要通过对两个浮点数组中的数据进行相加,并将其结果放入第三个数组中。其算法分别在CPU、GPU上分别执行,并比较了所需时间,强烈感受到GPU的并行计算能力。这里,每个数组的元素大小为30000000个。

一、实现代码

#include <stdio.h>
#include <stdlib.h>
#include <time.h>
#include <math.h>

// For the CUDA runtime routines (prefixed with "cuda_")
#include <cuda_runtime.h>

//该函数声明为了__global__,表示由GPU调用执行.
//其功能为将数组pA、pB中对应位置的数据相加,并将结果放入数组pC的对应位置上
//每个数组的索引大小为size
__global__
void add(const float * pA, const float * pB, float * pC, unsigned int size)
{
int index = blockIdx.x * blockDim.x + threadIdx.x;		//计算当前数组中的索引
if (index < size)										//确保是一个有效的索引
pC[index] = pA[index] + pB[index];

}

int main()
{
unsigned int numElement = 30000000;
int totalSize = sizeof(float)* numElement;

//init
float *pA = (float*)malloc(totalSize);
float *pB = (float*)malloc(totalSize);
float *pC = (float*)malloc(totalSize);

for (int i = 0; i < numElement; ++i)
{
*(pA + i) = rand() / (float)RAND_MAX;;
*(pB + i) = rand() / (float)RAND_MAX;
}

//cpu segment

//begin use cpu comput
clock_t startTime, endTime;
startTime = clock();
for (int i = 0; i < numElement; ++i)
{
*(pC + i) = *(pA + i) + *(pB + i);
}
endTime = clock();
//end use cpu comput

printf("use cpu comput finish!\n");
printf("use total time = %fs\n", (endTime - startTime) / 1000.f);
printf("\n\n");

//gpu segment
float *pD, *pE, *pF;
cudaError_t err = cudaSuccess;

//malloc memory
err = cudaMalloc(&pD, totalSize);
if (err != cudaSuccess)
{
printf("call cudaMalloc fail for pD.\n");
exit(1);
}

err = cudaMalloc(&pE, totalSize);
if (err != cudaSuccess)
{
printf("call cudaMalloc fail for pE.\n");
exit(1);
}

err = cudaMalloc(&pF, totalSize);
if (err != cudaSuccess)
{
printf("call cudaMalloc fail for pF.\n");
exit(1);
}

//copy data  from pA pB pC to pD pE pF
err = cudaMemcpy(pD, pA, totalSize, cudaMemcpyHostToDevice);
if (err != cudaSuccess)
{
printf("call cudaMemcpy fail for pA to pD.\n");
exit(1);
}

err = cudaMemcpy(pE, pB, totalSize, cudaMemcpyHostToDevice);
if (err != cudaSuccess)
{
printf("call cudaMemcpy fail for pB to pE.\n");
exit(1);
}

//begin use gpu comput
startTime = clock();
int threadPerBlock = 1024;
int numBlock = (numElement - 1) / threadPerBlock + 1;
add << <numBlock, threadPerBlock >> >(pD, pE, pF, numElement);

err = cudaGetLastError();
if (err != cudaSuccess)
{
printf("use gpu comput fail!\n");
exit(1);
}

endTime = clock();
printf("use gpu comput finish!\n");
printf("use time : %fs\n",(endTime - startTime) / 1000.f);
//end use gpu comput

//copu data from device to host
err = cudaMemcpy(pC, pF, numElement, cudaMemcpyDeviceToHost);
if (err != cudaSuccess)
{
printf("call cudaMemcpy form pF to pC fail.\n");
exit(1);
}

//check data
for (int i = 0; i < numElement; ++i)
{
if (fabs(pA[i] + pB[i] - pC[i]) > 1e-5)
{
printf("%f + %f != %f\n",pA[i],pB[i],pC[i]);
}
}

//释放设备上的内存
cudaFree(pD);
cudaFree(pE);
cudaFree(pF);

//在程序退出前,调用该函数重置该设备,使驱动去清理设备状态,并且在程序退出前所有的数据将被刷出。
err = cudaDeviceReset();
if (err != cudaSuccess)
{
printf("call cudaDeviceReset fail!\n");
exit(1);
}

free(pA);
free(pB);
free(pC);

getchar();
return 0;
}


二、运行结果



三、部分CUDA函数说明



1、cudaMalloc

__host__  cudaError_t  cudaMalloc(void **devPtr, size_t size);

该函数主要用来分配设备上的内存(即显存中的内存)。该函数被声明为了__host__,即表示被host所调用,即在cpu中执行的代码所调用。
返回值:为cudaError_t类型,实质为cudaError的枚举类型,其中定义了一系列的错误代码。如果函数调用成功,则返回cudaSuccess。
第一个参数,void ** 类型,devPtr:用于接受该函数所分配的内存地址
第二个参数,size_t类型,size:指定分配内存的大小,单位为字节

2、cudaFree

__host__  cudaError_t  cudaFree(void *devPtr);

该函数用来释放先前在设备上申请的内存空间(通过cudaMalloc、cudaMallocPitch等函数),注意,不能释放通过标准库函数malloc进行申请的内存。
返回值:为错误代码的类型值
第一个参数,void**类型,devPtr:指向需要释放的设备内存地址

3、cudaMemcpy

__host__ cudaError_t  cudaMemcpy(void *dst, const void *src, size_t count, enum cudaMemcpyKind kind);

该函数主要用于将不同内存段的数据进行拷贝,内存可用是设备内存,也可用是主机内存
第一个参数,void*类型,dst:为目的内存地址
第二个参数,const void *类型,src:源内存地址
第三个参数,size_t类型,count:将要进行拷贝的字节大小
第四个参数,enum cudaMemcpyKind类型,kind:拷贝的类型,决定拷贝的方向
cudaMemcpyKind类型如下:

enum __device_builtin__ cudaMemcpyKind
{
cudaMemcpyHostToHost          =   0,      /**< Host   -> Host */
cudaMemcpyHostToDevice        =   1,      /**< Host   -> Device */
cudaMemcpyDeviceToHost        =   2,      /**< Device -> Host */
cudaMemcpyDeviceToDevice      =   3,      /**< Device -> Device */
cudaMemcpyDefault             =   4       /**< Default based unified virtual address space */
};
cudaMemcpyKind决定了拷贝的方向,即是从主机的内存拷贝至设备内存,还是将设备内存拷贝值主机内存等。cudaMemcpy内部根据拷贝的类型(kind)来决定调用以下的某个函数:
::cudaMemcpyHostToHost,
::cudaMemcpyHostToDevice,
::cudaMemcpyDeviceToHost,
::cudaMemcpyDeviceToDevice

4、cudaDeviceReset

__host__ cudaError_t  cudaDeviceReset(void);

该函数销毁当前进程中当前设备上所有的内存分配和重置所有状态,调用该函数达到重新初始该设备的作用。应该注意,在调用该函数时,应该确保该进程中其他host线程不能访问该设备!

Last:源程序下载地址
Github地址:https://github.com/daodaodaorenjiandao/CUDA/tree/master/1AddVector
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: