Spark集群搭建与测试 - 图文 下载本文

注2:注:有的朋友喜欢使用start-all.sh,其实质是执行了start-dfs.sh和start-yarn.sh,如下图可见,在提示中也可见,推荐分开使用start-dfs.sh和start-yarn.sh而不是直接使用start-all.sh:

c. 启动yarn: start-yarn.sh

使用jps验证yarn是否启动成功:

通过webui检查yarn是否启动成功: http://master:8088/

http://worker1:8042/

d. 启动JobHistory Server:mr-jobhistory-daemon.sh start historyserver

使用jps验证JobHistory Server是否启动成功:

通过webui检查JobHistory Server是否启动成功:

http://master:19888

e. 验证hadoop集群 创建文件夹:

hdfsdfs -mkdir -p /data/wordcount hdfsdfs -mkdir -p /output 上传文件:

hdfsdfs -put /usr/local/hadoop/hadoop-2.6.0/etc/hadoop/*.xml /data/wordcount 查看上传文件是否成功: hdfsdfs -ls /data/wordcount