系列目录:
Hadoop实战(1)_阿里云搭建Hadoop2.x的伪分布式环境
Hadoop实战(2)_虚拟机搭建Hadoop的全分布模式
Hadoop实战(3)_虚拟机搭建CDH的全分布模式
DataNode数据目录
如果有多个挂载点,可以有多个DataNode数据目录。
目前服务器硬件,标准小型机配置:32核、64G(128G)、64T(4T*16盘SAS盘)。通常为了提升磁盘吞吐量,每个盘单独挂载。/data1、/data2、……、/data16。优点是大大提升磁盘的吞吐量(IO性能),缺点是出现坏盘时会造成一定影响。
HDFS配置
DataNode数据目录是本地参数。
部署客户端配置,是把cm里的配置更新同步到每个节点的xml配置文件里。
hadoop配置文件,/etc/hadoop/conf,配置文件有服务端参数和客户端参数,服务端参数需要重启服务才生效,客户端的参数修改之后立即起效。
如dfs.replication=2,配置完后,HDFS服务提示过期配置:需要重新部署客户端配置。
上节遗留问题
HDFS在cdhslave1启动失败原因,是cdhslave1上没有安装jdk,解决办法:yum install -y oracle-j2sdk1.7.x86_64。
http://cdhmaster:7180,访问不了,检查服务启动情况。
1
2
3
4 1chkconfig --list | grep cloudera
2service cloudera-scm-server status
3netstat -nltp | grep 7180
4
NTP同步问题,在slave机器上,手工执行一次同步server即可。
1
2 1ntpdate 192.168.200.100
2
ssh无密码访问,CDH版本不需要设置,因为CDH版本集群间通过相同账号密码访问。
JDK环境变量,CDH版本可以不设置JAVA_HOME,因为自身使用jdk1.7时会带上绝对路径。
问题:/var/www/html/cm5.9.0/repodata下的文件是怎么产生的?
1、yum install -y createrepo.noarch
1
2
3
4 1which createrepo
2yum list | grep createrepo
3yum install -y createrepo.noarch
4
2、手工下载http://archive.cloudera.com/cm5/redhat/6/x86_64/cm/5.9.0/RPMS/x86_64/下的rpm文件至cm5.9.0目录下。
3、执行createrepo cm5.9.0即可repodata目录下的文件。然后浏览器录入http://cdhmaster/cm5.9.0/即可以访问。注意启动httpd服务。
cm5.9.0.tar包的生成
1、cm5的rpm包获取,http://archive.cloudera.com/cm5/redhat/6/x86_64/cm/5.9.0/RPMS/x86_64/
1
2
3
4
5
6
7
8
9
10
11
12
13
14 1cloudera-manager-agent-5.9.0-1.cm590.p0.249.el6.x86_64.rpm
2
3cloudera-manager-daemons-5.9.0-1.cm590.p0.249.el6.x86_64.rpm
4
5cloudera-manager-server-5.9.0-1.cm590.p0.249.el6.x86_64.rpm
6
7cloudera-manager-server-db-2-5.9.0-1.cm590.p0.249.el6.x86_64.rpm
8
9enterprise-debuginfo-5.9.0-1.cm590.p0.249.el6.x86_64.rpm
10
11jdk-6u31-linux-amd64.rpm
12
13oracle-j2sdk1.7-1.7.0+update67-1.x86_64.rpm
14
2、cloudera-manager-installer.bin获取,http://archive.cloudera.com/cm5/installer/5.9.0/
1
2 1cloudera-manager-installer.bin
2
3、cdh5的parcel获取,http://archive.cloudera.com/cdh5/parcels/5.9.0/
1
2
3
4 1CDH-5.9.0-1.cdh5.9.0.p0.23-el6.parcel
2CDH-5.9.0-1.cdh5.9.0.p0.23-el6.parcel.sha
3manifest.json
4
4、生成repodata目录下的文件,
问题:/var/www/html/cm5.9.0/repodata下的文件是怎么产生的?
1、yum install -y createrepo.noarch
1
2
3
4 1which createrepo
2yum list | grep createrepo
3yum install -y createrepo.noarch
4
2、手工下载http://archive.cloudera.com/cm5/redhat/6/x86_64/cm/5.9.0/RPMS/x86_64/下的rpm文件至cm5.9.0目录下。
3、执行createrepo cm5.9.0即可repodata目录下的文件。然后浏览器录入http://cdhmaster/cm5.9.0/即可以访问。注意启动httpd服务。
界面化Cloudera Manager集群管理
节点角色分配,
1、HDFS中NN和SNN不在一个节点上。
2、商用集群,NN单独一台,不会和DN耦合一起。
3、每个节点上尽量均衡负载。
把节点1上的角色转移到节点2上,在服务-实例下进行调整,
1、在节点1停止该角色(HDFS的DataNode除外),
2、在节点1上删除该角色,
3、服务-实例-添加角色实例,选择节点2即可。
DN:存储数据。如果要把DN迁移到其他节点,需要:
1、先解除授权,正常退役方式,自动把该DN的数据迁移至其他可用节点DN上。如果数据多,过程慢。
2、删除该节点,同时删除该节点/dfs/dn。
集群环境测试
Hadoop shell命令操作分布式文件系统(HDFS)。
Linux shell操作文件系统。
1
2
3
4
5
6 1hadoop fs -ls /
2
3ls: Call From cdhmaster/192.168.200.100 to cdhmaster:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
4
5# 部署客户端配置执行一下即可
6
对Linux来讲,管理员是root。对于HDFS来讲,root是普通账户,hdfs才是管理员帐户,具有最大权限。
1
2
3
4
5
6
7
8
9
10 1[root@cdhmaster ~]# hadoop fs -put anaconda-ks.cfg /user
2put: Permission denied: user=root, access=WRITE, inode="/user":hdfs:supergroup:drwxr-xr-x
3
4[root@cdhmaster ~]# su - hdfs
5[hdfs@cdhmaster ~]$ hadoop fs -chmod 777 /user
6[hdfs@cdhmaster ~]$ hadoop fs -ls /
7Found 2 items
8drwxrwxrwx - hdfs supergroup 0 2017-10-23 10:36 /tmp
9drwxrwxrwx - hdfs supergroup 0 2017-10-23 10:36 /user
10
Yarn产生背景和架构原理
HDFS、Yarn资源分配
比如服务器的资源是:64G、32核、64T,应该如何利用?
在服务-配置-资源管理调整,
HDFS资源分配,
Balancer的Java堆栈大小,10G,Balancer Default Group,注意看该选项是针对哪个角色。
DataNode的Java堆栈大小,DataNode Default Group,15G。
用于缓存的最大内存,DataNode Default Group,10G。
NameNode的Java堆栈大小,15G。上限,一般情况下不会耗尽。
Secondary NameNode的Java堆栈大小,5G。
Yarn资源分配,
JobHistory Server Server的Java堆栈大小,2G。
NodeManager的Java堆栈大小,20G。
容器内存,20G。与NodeManager保持一致。
容器虚拟CPU内核yarn.nodemanager.resource.cpuvcores,26。
ResourceManager的Java堆栈大小,5G。
最大容器内存,20G。与NodeManager保持一致。
最大容器虚拟CPU内核数量:26。
free,集群资源所用百分比没上去,两个原因:一是作业没跑,二是资源划分少了。
top,查看资源使用情况。top下再shift+m或M,查看每个作业内存使用情况的排序。top下再1,查看每核CPU的使用情况,监测集群负载的压力。
问题:./cloudera-manager-installer.bin失败会改yum源,多了两个/etc/yum.repos.d/cloudermanager.repo.rpmsave和repo.rpmnew?执行./cloudera-manager-installer.bin要带上–skip_repo_package=1,就不会产生这两个文件。如果产生了,把repo.rpmnew删掉,cloudermanager.repo.rpmsave修改为cloudermanager.repo,才起作用,再次执行时带上参数执行即可。
提示过期配置,修改过服务端的配置时,会提示服务过期,解决办法:1、执行部署客户端配置,作用是把界面里修改的地方同步到节点的/etc/hadoop/conf目录下。2、重启服务。
安装失败,无法接收Agent发出的检测信号,首先查看agent的日志/var/log/cloudera-scm-agent/,cm server的日志/var/log/cloudera-scm-server,看到报错里提示说有个supervisor之类的占用了端口,解决办法:ps -ef|grep supervisor,kill -9 pid,7180界面里重试即可。