您的位置:首页 > 其它

spark中的task 分割

2016-04-11 20:26 239 查看
spark的思想就是把一个巨大的任务通过网络分配给多个机器去执行,然后从多个机器返回计算结果并整合完成用户所需要的计算。

这里有一个tradeoff的问题,每个task的任务分配并不是越大越好,也不是越小越好,是根据计算量和节点的计算能力平衡的结果。

一个合理的task任务分配可以达到最快的计算速度。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: