博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
hadoop常用进程和web端口整理
阅读量:5938 次
发布时间:2019-06-19

本文共 1263 字,大约阅读时间需要 4 分钟。

应用场景

Hadoop部署完分布式集群后,运行了一些组件,会产生很多进程,和web可以访问的端口,容易混淆,这里把一些常见的进程,进程的作用和端口进行归纳,总结,方便区分。

操作步骤

1. HDFS进程及端口

HDFS启动后包含的进程有:NameNode,DataNode,SecondaryNameNode

启动方法,在主节点:

#  cd /opt/hadoop2.6.0/sbin/ #  ./start-dfs.sh

启动完后访问端口为50070,通过主节点IP加上端口即可访问:

这里写图片描述

2. YARN进程及端口

YARN启动后包含的进程有:Resourcemanager,NodeManager

启动方法,在主节点:

# cd /opt/hadoop2.6.0/sbin/  # ./start-yarn.sh

启动完后访问端口为8088,通过主节点IP加上端口即可访问:

这里写图片描述

3. ZooKeeper进程

Zookeeper启动后包含的进程是:QuorumPeerMain

注:
HQuorumPeer进程是hbase管理的zookeeper
QuorumPeerMain进程就是zookeeper独立的进程
也就是说,如果您用的是hbase的zookeeper,那么就是HQuorumPeer进程

启动方法,在需要启动ZooKeeper的节点上:

# cd /opt/zookeeper3.4.10/bin/  # zkServer.sh start

4. HBASE进程及端口

Hbase启动后包含的进程有 : HMaster,HRegionServer

启动方法,在主节点:

# cd /opt/hbase1.2.6/bin  # ./start-hbase.sh

启动完后访问端口为16010,通过主节点IP加上端口即可访问:

这里写图片描述

5. Spark进程及端口

Spark启动后包含的进程有 : Master Worker

启动方法,在主节点:

# cd /opt/spark1.6.1/sbin  # ./start-all.sh

启动完后访问端口为8080,通过主节点IP加上端口即可访问:【资源监控地址master】

这里写图片描述

启动后4040任务监控端口并没有开启,需要spark-shell –master spark://hadoop0:7077,执行:【任务监控地址Drive】

这里写图片描述

注意:

spark-shell          【local模式,在4040端口监控任务】  spark-shell --master spark://hadoop0:7077  【standalone模式,在8080端口监控任务】  spark-shell --master yarn-client          【yarn-client模式,在yarn 8088端口监控任务】  spark-shell --master yarn-cluster         【yarn-cluster模式,在yarn 8088端口监控任务】
你可能感兴趣的文章
ZooKeeper 可视化监控 zkui
查看>>
Linux下通过配置Crontab实现进程守护
查看>>
ios 打包上传Appstore 时报的错误 90101 90149
查看>>
Oracle推出轻量级Java微服务框架Helidon
查看>>
密码概述
查看>>
autoconf,automake,libtool
查看>>
jQuery的技巧01
查看>>
基于泛型实现的ibatis通用分页查询
查看>>
gopacket 使用
查看>>
AlertDialog对话框
查看>>
我的友情链接
查看>>
办公室几台电脑怎么连一台打印机的具体步骤
查看>>
linux安全---cacti+ntop监控
查看>>
鸟哥的linux私房菜-shell简单学习-1
查看>>
nagios配置监控的一些思路和工作流程
查看>>
通讯组基本管理任务三
查看>>
赫夫曼编码实现
查看>>
html页面显示div源代码
查看>>
基础复习-算法设计基础 | 复杂度计算
查看>>
debian、ubuntu系统下,常用的下载工具
查看>>