spark中的task 分割
2016-04-11 20:26
239 查看
spark的思想就是把一个巨大的任务通过网络分配给多个机器去执行,然后从多个机器返回计算结果并整合完成用户所需要的计算。
这里有一个tradeoff的问题,每个task的任务分配并不是越大越好,也不是越小越好,是根据计算量和节点的计算能力平衡的结果。
一个合理的task任务分配可以达到最快的计算速度。
这里有一个tradeoff的问题,每个task的任务分配并不是越大越好,也不是越小越好,是根据计算量和节点的计算能力平衡的结果。
一个合理的task任务分配可以达到最快的计算速度。