您的位置:首页 > 大数据 > Hadoop

利用虚拟机分区扩展hdfs hard disk 存储(ubuntu12.10)

2015-07-07 12:55 381 查看
vCenter or workstation(至少其一)
1.Clone 一台需要extend的虚拟机(目的为了移除所有snapshot).
2.利用vCenter or workstation extend hard disk size.
以vCenter举例:VM >> edit setting >>> hard disk 1 >> Provisioned Size

3.查看ubuntu版本命令:cat /etc/issue
∵之后需要用到gparted的辅助,针对 ubuntu旧版本无法安装gparted软件需要修改源,请戳:http://blog.csdn.net/lizhenmingdirk/article/details/42125419
修改:/etc/apt/sources.list文件
保存后执行:sudo apt-get update

4.安装gparted
sudo apt-get install gparted
sudo gparted
4.1 /dev/sda5 >> swapoff >>delete
4.2 /dev/sda2 >> delete (除了c盘全删除)
4.3 apply all 并关闭
4.4 sudo fdisk /dev/sda
Command (m for help):n (创建新分区)
Select (default p):p (选择唯一分区)
Partition number (1-4,default 2):2
First sector : 回车
Last Sector : 回车
Command (m for help): w

5.挂载sda2分区
5.1 创建文件夹 mkdir /hadoop/sda2
5.2 查看文件权限:ls -l /hadoop
5.3 修改文件夹权限:sudo chown -R hadoop:hadoop /hadoop/sda2
5.4 gparted >> 右键sda2 >> Format to >> ext4
5.5 sudo mount -t ext4 /dev/sda2 /hadoop/sda2

6.打开所有node hdfs-site.xml 文件 修改<name>dfs.data.dir</name>
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: