HDP集群运维-磁盘扩容和节点扩展

一、资源查看

公司的测试集群是window Server上用vmvare做的虚拟化节点,由于测试HDP集群的资源分配过少,导致集群的响应速度慢,近期还提示了磁盘告警,故需要从新规划一下HDP的节点以及资源的分配

upload successful

查看原节点的磁盘情况

使用fdisk -l 命令可以看到,该节点一共100G的磁盘,/dev/sda2为100G的逻辑卷,其中1个逻辑分区50G挂载到根目录/,一个挂载到家目录/home

upload successful

upload successful

upload successful

二、资源分配规划

原分配方案

其中hdp4节点创建后,却没有加入集群中,资源闲置

节点 内存 CPU 硬盘 IP
windowServer实体机 128G 40Core 3T 192.168.10.164
hdp1 8G 4 Core 100G 192.168.10.151
hdp2 8G 4 Core 100G 192.168.10.152
hdp3 8G 4 Core 100G 192.168.10.153
hdp4 8G 4 Core 100G 192.168.10.154

资源分配规划方案

由于预装的hdp集群采用的centos6.4 32位的操作系统,再虚拟化机器中,不能超过8G的内存使用量,所以内存分配暂时只能是使用8G内存,
为了达到资源利用率更高,集群速度更快,将集群横向扩展到9节点,其中6个节点提供Hadoop及相关大数据组件服务,
考虑到发挥kafaka集群的高吞吐、IO,高性能的特性,将其中3个节点隔离开来作为kafka集群单独使用。

节点 内存 CPU 硬盘 IP
windowServer实体机 128G 40Core 3T 192.168.10.164
hdp1 8G 4 Core 200G 192.168.10.151
hdp2 8G 4 Core 200G 192.168.10.152
hdp3 8G 4 Core 200G 192.168.10.153
hdp4 8G 4 Core 200G 192.168.10.154
hdp5 8G 4 Core 200G 192.168.10.155
hdp6 8G 4 Core 200G 192.168.10.156
hdp7 8G 4 Core 200G 192.168.10.157
hdp8 8G 4 Core 200G 192.168.10.158
hdp9 8G 4 Core 200G 192.168.10.159

角色分配预计效果

组件名称 服务名称 节点分布
Hadoop Active namenode hdp1
Hadoop StandBy namenode hdp2
Yarn ResourceManager hdp1
Yarn NodeManager hdp1-6
Tez
hdp1-6
Hive MataStrore hdp1
HBase HMaster Hdp1-2
Hbase HRegionServer Hdp1-6
Zookeeper Zookeeper-Server Hdp1-3
Kafka Kafka-Server Hdp7-9
Hawq Master hdp3
StandBy Master hdp2
Segment hdp1-6
PXF hdp1-6

三、磁盘扩容步骤

1. 虚拟机磁盘扩容

upload successful

2.确认磁盘状况

可以看出/dev/sda 已经变成200G,df磁盘情况并没有变化

upload successful

upload successful

3.扩展分区

upload successful

upload successful

upload successful

已经有sda1和sda2了,需要扩展的下一个分区ID为3,输入3

upload successful

一路空格使用默认配置,将剩余的所有空间都分配给sda3分区

upload successful

更改分区为逻辑卷

upload successful

更改过后输入w保存

upload successful

再次输入fdisk -l可以看到多一个逻辑卷

upload successful

执行 partprobe或者重启

执行 partprobe命令用于将磁盘分区表变化信息通知内核,并请求操作系统重新加载分区表,可以避免必须重新启动的问题,这里我们reboot一下。

附:PV,VG,LV的关系和操作

upload successful

扩展vg

upload successful

扩展lv
可以将此lv全部添加或者部分添加,我们这里全部添加到根目录下 vg_hdp1-lv_root

upload successful

upload successful

此时看到df状态还没有变化

upload successful

动态扩容
使用xfs_growfs可以将xfs文件系统进行online方式的扩展,它会将data block进行调整。

附:动态扩容分区的相关操作

upload successful

使用df -hT可以看到分区是ext4文件系统

upload successful

执行命令:

upload successful

验证扩容之后的空间:根目录已经增大到150G

upload successful

剩下的将hdp1-3三个节点执行同样的流程扩容即可

文章作者: egnod
文章链接: http://itboyer.github.io/7840/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 EGNOD'S BLOG
支付宝打赏
微信打赏