本文共 1263 字,大约阅读时间需要 4 分钟。
Hadoop部署完分布式集群后,运行了一些组件,会产生很多进程,和web可以访问的端口,容易混淆,这里把一些常见的进程,进程的作用和端口进行归纳,总结,方便区分。
HDFS启动后包含的进程有:NameNode,DataNode,SecondaryNameNode
启动方法,在主节点:
# cd /opt/hadoop2.6.0/sbin/ # ./start-dfs.sh
启动完后访问端口为50070,通过主节点IP加上端口即可访问:
YARN启动后包含的进程有:Resourcemanager,NodeManager
启动方法,在主节点:
# cd /opt/hadoop2.6.0/sbin/ # ./start-yarn.sh
启动完后访问端口为8088,通过主节点IP加上端口即可访问:
Zookeeper启动后包含的进程是:QuorumPeerMain
启动方法,在需要启动ZooKeeper的节点上:
# cd /opt/zookeeper3.4.10/bin/ # zkServer.sh start
Hbase启动后包含的进程有 : HMaster,HRegionServer
启动方法,在主节点:
# cd /opt/hbase1.2.6/bin # ./start-hbase.sh
启动完后访问端口为16010,通过主节点IP加上端口即可访问:
Spark启动后包含的进程有 : Master Worker
启动方法,在主节点:
# cd /opt/spark1.6.1/sbin # ./start-all.sh
启动完后访问端口为8080,通过主节点IP加上端口即可访问:【资源监控地址master】
启动后4040任务监控端口并没有开启,需要spark-shell –master spark://hadoop0:7077,执行:【任务监控地址Drive】
spark-shell 【local模式,在4040端口监控任务】 spark-shell --master spark://hadoop0:7077 【standalone模式,在8080端口监控任务】 spark-shell --master yarn-client 【yarn-client模式,在yarn 8088端口监控任务】 spark-shell --master yarn-cluster 【yarn-cluster模式,在yarn 8088端口监控任务】