0%

Hadoop集群扩容

本文主要包括:

  • hadoop集群扩容

Hadoop集群扩容

Hadoop集群扩容可以直接在原先的节点添加磁盘,或者是添加数据节点

原有节点添加磁盘

公司集群是CDH版本,本次扩容需要在CM上操作
首先运维把扩容的磁盘挂在到3台datanode节点,具体挂在方法,咱们这里不做深究,网上很多,后期可以自己尝试一下看看
扩容机器列表:

  • ddp3.hadoop
  • ddp4.hadoop
  • ddp5.hadoop
    扩容2T磁盘存储,首先登陆到3台节点,查看磁盘空间是否已经挂载成功
    [root@h3 ~]# df -h
    Filesystem      Size  Used Avail Use% Mounted on
    devtmpfs         47G     0   47G   0% /dev
    tmpfs            47G  8.0K   47G   1% /dev/shm
    tmpfs            47G  652K   47G   1% /run
    tmpfs            47G     0   47G   0% /sys/fs/cgroup
    /dev/vda1        99G   31G   64G  33% /
    /dev/vdb1       493G  171G  301G  37% /data
    cm_processes     47G   29M   47G   1% /run/cloudera-scm-agent/process
    tmpfs           9.3G     0  9.3G   0% /run/user/0
    /dev/vdc1       2.0T   81M  1.9T   1% /mnt/data1
    可以看到,/mnt/data1就是新添加的磁盘

    扩容步骤

  1. /mnt/data1文件夹下创建文件夹,并赋权限

    cd /mnt/data1 && mkdir -p dfs/dn
    chown -R hdfs:hadoop dfs

    注意,3台节点都要创建并赋权

  2. 在CM管理页面上,点击HDFS -> 配置 -> DataNode ,找到DataNode 数据目录,并新增一个数据盘,并点击保存
    Hadoop集群添加磁盘扩容1

  3. 重启HDFS服务,使挂载的磁盘生效

    注意集群重启过程中一定不要中止。这个过程时间可能会比较长,因为可能会有数据搬迁,会执行Balancer

Hadoop磁盘扩容集群重启
4. 可以通过查看hdfs-site.xml找到datanode的日志文件路径:/var/log/hadoop-hdfs,查看datanode的执行日志
可以参考CDH(Hadoop)集群磁盘扩容

添加数据节点扩容

可以参考基于CDH6扩容