题目内容
(请给出正确答案)
[主观题]
Spark可以依赖Hadoop生态系统下哪个组件进行资源调度和分配()
A.Hadoop
B.Yarn
C.HDFS
D.MapReduce
暂无答案
如果结果不匹配,请 联系老师 获取答案
A.Hadoop
B.Yarn
C.HDFS
D.MapReduce
A.在ambari管理页面,services->Actions->Addspark,选择spark组件,分配安装主机
B.在ambari管理页面,hosts->Actions->Addnewhosts,选择spark组件,分配安装主机
C.YUMinstallspark*
D.rpm-ivhspark