MapReduce和CUDA的比较
2010-04-15 22:27
183 查看
在做分布式作业时,我们组想用分布式系统来实现一个图形学应用。
图形学有很多需要并行计算的地方,比如渲染一个复杂场景。现在的很多图形学的并行计算都是基于CUDA来实现的,却没有使用分布式系统来实现,下面我试图来分析一下原因。
CUDA的一个特点是:高算术强度(算术强度=算术操作次数/存储单元操作次数)。我们可以看到存储单元操作次数越大算术强度将会越低。所以CUDA适合的操作时算术操作次数高,但数据移动的次数少。所以在CUDA中线程非常多,而且并行也是线程模型。
而分布式系统的一个特点是数据量非常大。而且数据访问量也很大。
所以我们需要找一个图形学中的一个数据量非常大,而且计算量不是很大的应用或算法。
图形学有很多需要并行计算的地方,比如渲染一个复杂场景。现在的很多图形学的并行计算都是基于CUDA来实现的,却没有使用分布式系统来实现,下面我试图来分析一下原因。
CUDA的一个特点是:高算术强度(算术强度=算术操作次数/存储单元操作次数)。我们可以看到存储单元操作次数越大算术强度将会越低。所以CUDA适合的操作时算术操作次数高,但数据移动的次数少。所以在CUDA中线程非常多,而且并行也是线程模型。
而分布式系统的一个特点是数据量非常大。而且数据访问量也很大。
所以我们需要找一个图形学中的一个数据量非常大,而且计算量不是很大的应用或算法。
相关文章推荐
- Spark和MapReduce的Shuffle比较。
- OpenMPI、MapReduce简单比较
- Cuda C++ Thrust API与 Cuda Runtime API程序比较
- C++ AMP同CUDA之间的性能比较
- YARN - 比较 YARN 与 MapReduce 1
- MapReduce与并行关系数据库的比较
- OpenMP,MPI,MapReduce 比较
- CUDA和OpenCL异同点比较
- Google的MapReduce介绍(比较牛叉的思想)
- GPU(CUDA)学习日记(六)------ vector,动态数组,引用,编程调试经验总结等一些比较琐碎的记录
- 关系型数据库和MapReduce的比较。
- OpenMPI、MapReduce简单比较
- mapreduce采用多进程与spark采用多线程比较
- [菜鸟每天来段CUDA_C]向量相加的CUDA实现和顺序执行比较
- cuda学习(linux公社下载地址: http://linux.linuxidc.com/东西比较多)
- mapreduce 比较接口
- Hadoop日记Day15---MapReduce新旧api的比较
- GPU(CUDA)学习日记(七)------ Parallel Nsight 双机调试经验 以及 一些比较基础的教程
- CUDA与OpenCL编程框架的比较
- OpenCL和CUDA的使用比较