1 个回答
Hadoop运行逻辑如下:
1、用户提交一个MapReduce作业到Hadoop集群,Hadoop调度程序将作业分解为一系列的任务,并将每个任务分配给集群中的一个节点;
2、每个节点上的任务被Hadoop分发程序调度,并被节点上的Task Tracker调度,Task Tracker会把任务分解成一系列的Map和Reduce任务,并将这些任务分配给每个节点上的Task Executor;
3、Task Executor执行Map和Reduce任务,并将结果保存在HDFS中;
4、当所有任务执行完毕,Hadoop调度程序将结果返回给用户。
发布于:2周前 (04-15) IP属地:四川省
我来回答
您需要 登录 后回答此问题!