在win7下配置 hadoop开发环境
2013-05-20 14:01
120 查看
见 视频连接:http://v.youku.com/v_show/id_XMzc5MzM1NDQw.html
其中,一定要注意,在管理里面 我遇到sshd服务无法启动的情况。
解决办法参照:http://blog.csdn.net/jayjjb/article/details/8017674里面的这句命令:
$ mkpasswd -l > /etc/passwd
$ mkgroup -l > /etc/group
$ cygrunsrv -R sshd
$ ssh-host-config -y
$ cygrunsrv -S sshd
完毕后,在管理里面,会发现sshd服务已经启动了。接着,继续按照讲座进行
到了安装jdk这里,注意别看讲座了,看我这里:
安装jdk和jre7(在此忽略)
C:\Java\jdk1.6.0_10
C:\Java\jre7
2.5 配置windows环境变量
Ø JAVA_HOME = JRE安装目录
Ø Path=JDK的bin目录;Cygwin的bin目录;Cygwin的usr目录
Ø CYGWIN=netsec tty
l 设置方法:我的电脑右键->属性->高级系统设置->环境变量
多个变量之间以分号‘;’隔开,JAVA_HOME不存,则新建。
2.6 安装hadoop
Ø 把hadoop安装放到目标目录下,如d:/下
Ø 打开cygwin,cd d:
Ø tar zxf hadoop-1.0.4.tar.gz
Ø 修改hadoop-1.0.4/conf目录下hadoop-env.sh;core-site.xml;hdfs-site.xml;mapred-site.xml四个文件
Ø 分别将/hadoop-1.0.4/src/core/core-default.xml;/hadoop-1.0.4/src/hdfs/hdfs-default.xml;/hadoop-1.0.4/src/mapred/mapred-default.xml;拷贝到/hadoop-1.0.4/conf/目录下,把这个目录下原来的core-site.xml;hdfs-site.xml;mapred-site.xml文件删除,再把拷贝过来的三个文件修改为相对应的这三个文件
l 修改内容:(在cygwin中用vi修改,所有修改内容去掉前面注释符‘#’)
n Hadoop-env.sh
JAVA_HOME = JDK安装路径
n core-default.xml
查找到fs.default.name节点,修改value值,改成hdfs://localhost:9000
n hdfs-site.xml
查找到dfs.replication,将值3改为1;(数据备份数,因为只有一个节点所有只保存一份)
找到dfs.name.dir,修改value值,使路径有效(例如:d:/data/hdfs/namenode)
同样修改dfs.data.dir,修改value值,使路径有效(例如:d:/data/hdfs/datanode)
n mapred-site.xml
找到mapred.job.tracker,将value值改为localhost:9001
2.7 启动hadoop
Ø 打开cygwin
Ø net start sshd(启动ssh服务)
Ø ssh localhost(ssh登录本机)
Ø who(检验ssh服务是否启动成功)
Ø 进入hadoop的bin目录
Ø ./hadoop namenode -format(格式化)
Ø ./start-all.sh(启动)
Ø ./hadoop dfsadmin -report(检验是否成功)
Ø 也可打开浏览器输入http://localhost:50070/dfshealth.jsp查看
能显示目录容量,就说明hadoop装好了
其中,一定要注意,在管理里面 我遇到sshd服务无法启动的情况。
解决办法参照:http://blog.csdn.net/jayjjb/article/details/8017674里面的这句命令:
$ mkpasswd -l > /etc/passwd
$ mkgroup -l > /etc/group
$ cygrunsrv -R sshd
$ ssh-host-config -y
$ cygrunsrv -S sshd
完毕后,在管理里面,会发现sshd服务已经启动了。接着,继续按照讲座进行
到了安装jdk这里,注意别看讲座了,看我这里:
安装jdk和jre7(在此忽略)
C:\Java\jdk1.6.0_10
C:\Java\jre7
2.5 配置windows环境变量
Ø JAVA_HOME = JRE安装目录
Ø Path=JDK的bin目录;Cygwin的bin目录;Cygwin的usr目录
Ø CYGWIN=netsec tty
l 设置方法:我的电脑右键->属性->高级系统设置->环境变量
多个变量之间以分号‘;’隔开,JAVA_HOME不存,则新建。
2.6 安装hadoop
Ø 把hadoop安装放到目标目录下,如d:/下
Ø 打开cygwin,cd d:
Ø tar zxf hadoop-1.0.4.tar.gz
Ø 修改hadoop-1.0.4/conf目录下hadoop-env.sh;core-site.xml;hdfs-site.xml;mapred-site.xml四个文件
Ø 分别将/hadoop-1.0.4/src/core/core-default.xml;/hadoop-1.0.4/src/hdfs/hdfs-default.xml;/hadoop-1.0.4/src/mapred/mapred-default.xml;拷贝到/hadoop-1.0.4/conf/目录下,把这个目录下原来的core-site.xml;hdfs-site.xml;mapred-site.xml文件删除,再把拷贝过来的三个文件修改为相对应的这三个文件
l 修改内容:(在cygwin中用vi修改,所有修改内容去掉前面注释符‘#’)
n Hadoop-env.sh
JAVA_HOME = JDK安装路径
n core-default.xml
查找到fs.default.name节点,修改value值,改成hdfs://localhost:9000
n hdfs-site.xml
查找到dfs.replication,将值3改为1;(数据备份数,因为只有一个节点所有只保存一份)
找到dfs.name.dir,修改value值,使路径有效(例如:d:/data/hdfs/namenode)
同样修改dfs.data.dir,修改value值,使路径有效(例如:d:/data/hdfs/datanode)
n mapred-site.xml
找到mapred.job.tracker,将value值改为localhost:9001
2.7 启动hadoop
Ø 打开cygwin
Ø net start sshd(启动ssh服务)
Ø ssh localhost(ssh登录本机)
Ø who(检验ssh服务是否启动成功)
Ø 进入hadoop的bin目录
Ø ./hadoop namenode -format(格式化)
Ø ./start-all.sh(启动)
Ø ./hadoop dfsadmin -report(检验是否成功)
Ø 也可打开浏览器输入http://localhost:50070/dfshealth.jsp查看
能显示目录容量,就说明hadoop装好了
相关文章推荐
- win7(64位)平台下Cygwin+Eclipse搭建Hadoop单机开发环境 (三) 在Eclipse中配置Hadoop
- 三:win7 下hadoop,eclipse开发环境配置
- Eclipse配置hadoop开发环境(win7)
- Win7(64)+Eclipse+Hadoop2.6.4开发环境搭建--转载记录一下,虽然还没有配置成功
- win7(64位)平台下Cygwin+Eclipse搭建Hadoop单机开发环境 (一) Cygwin(64位)的安装 + ssh的配置
- win7 64位系统 配置php最新版开发环境(php+Apache+mysql)
- 32位Win7平台VS2010的directshow开发环境配置
- WIN7 配置NODEJS 开发环境
- Win7环境下VS2010配置Cocos2d-x-2.1.4最新版本的开发环境(亲测)
- 【Hadoop】Win7上搭建Hadoop开发环境,方法一
- Win7 64位+VS2008环境下配置 opengl 开发环境
- Win7环境下VS2010配置Cocos2d-x-2.1.4最新版本的开发环境(亲测)
- [OpenCV] -- win7下配置OpenCV的Qt开发环境
- 工作记录:win7下配置阅读hadoop源码环境
- Windows 下配置 Eclipse 连接 Hadoop 开发环境
- win7 64位系统,vs2010下配置OpenGL开发环境
- Win7环境下VS2010配置Cocos2d-x-2.1.4最新版本的开发环境(亲测)
- win7下Cygwin搭建Hadoop开发环境(由于win7环境不同导致本文章并不一定适合所有的win7用户)
- hadoop运行环境安装与配置+hadoop开发环境配置(一)
- win7 64位 配置android开发环境