复制hadoop配置文件到datanode的脚本
2013-01-17 10:05
435 查看
#!/bin/sh
. ~/.bash_profile
HADOOP_HOME=$HADOOP_HOME
for slavenode in `cat $HADOOP_HOME/conf/slaves`
do
if [ "$slavenode" != "" ]; then
echo $slavenode
scp $HADOOP_HOME/conf/* $slavenode:$HADOOP_HOME/conf/
fi
done
相关文章推荐
- 解决更改hadoop核心配置文件后会出现DataNode,或者NameNode无法启动的问题
- hadoop集群配置datanode无法启动的原因
- Hadoop配置datanode
- Hadoop源码分析之读文件时NameNode和DataNode的处理过程
- hadoop配置好之后启服务,jps能看到datanode进程,可是后台的datanode日志有如下错误,且50070端口上也是没有活的节点
- hadoop集群配置datanode无法启动的原因
- 异常:hadoop 上传文件报错 WARN hdfs.DFSClient: DataStreamer Exception,hadoop datanode 启动不起来
- Hadoop 2.2.0 在Red Hat Enterprise Linux 6.1 上的分布式配置(VMware虚拟机,1个namenode,2个datanode)
- hadoop1.x配置 - 集群删除datanode
- hadoop 配置HA 重新格式化后 datanode 起不来
- Hadoop配置文件同步脚本
- hadoop从本地复制文件到hdfs上发生错误Name node is in safe mode的解决方法
- hadoop配置新节点后,出现 org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Incompatible n
- Ubuntu 14.04下hadoop 2.2.0 伪分布环境配置datanode不能启动的解决办法
- 关于配置伪分布hadoop无法启动datanode的解决
- hadoop dfs.datanode.du.reserved 预留空间配置方法
- hadoop大集群优化配置,datanode节点数量为100
- Hadoop源码分析之读文件时NameNode和DataNode的处理过程
- hadoop配置完成后datanode没有启动
- Hadoop配置datanode无法连接到master