试题详情
判断题hadoop和spark的都是并行计算,两者都是用mr模型来进行并行计算,hadoop的一个作业称为job,job里面分为maptask和reducetask,每个task都是在自己的进程中运行的,当task结束时,进程也会结束
  • 错误
  • 关注下方微信公众号,在线模考后查看

热门试题