cuda编程-block和thread数量的确定
2011-04-11 11:04
218 查看
第一,thread 和block数量的受到gpu本身hard limit的限制
第二,取决于目前shared memory and rigisters大小的限制,不能发布太多,否则系统会自动调用local memory,这样存取速度会下降,影响性能
第三,取决具体的应用,比如:你的矩阵有1000* 1000,如果你设计的kenel 每个线程处理一行的话,你发布1000现在就够了,或者其他的方法来确定。
第二,取决于目前shared memory and rigisters大小的限制,不能发布太多,否则系统会自动调用local memory,这样存取速度会下降,影响性能
第三,取决具体的应用,比如:你的矩阵有1000* 1000,如果你设计的kenel 每个线程处理一行的话,你发布1000现在就够了,或者其他的方法来确定。
相关文章推荐
- cuda编程-block和thread数量的确定
- 【并行计算-CUDA开发】CUDA编程——GPU架构,由sp,sm,thread,block,grid,warp说起
- cuda编程之thread,block and grid
- CUDA编程——GPU架构,由sp,sm,thread,block,grid,warp说起
- cuda学习2-block与thread数量的选取
- CUDA编程——GPU架构,由sp,sm,thread,block,grid,warp说起
- 【CUDA】grid、block、thread的关系及thread索引的计算
- CUDA 关于 BLOCK数目与Thread数目设置
- CUDA中grid、block、thread、warp与SM、SP的关系
- 对cuda函数block中thread的理解(2)
- gpu/cuda-01-grid/block/thread
- [原]CUDA中grid、block、thread、warp与SM、SP的关系
- cuda之thread,block,gird详解
- CUDA Thread Block:transpose
- cuda之thread,block,gird详解
- GPU CUDA编程中threadIdx, blockIdx, blockDim, gridDim之间的区别与联系
- CUDA中grid、block、thread、warp与SM、SP的关系
- Cuda 学习教程(五):GPU架构-Sp,sm,thread,block,grid,warp
- cuda的block thread wrap 同步与数据处理
- CUDA中grid、block、thread、warp与SM、SP的关系