虚拟机时间问题引起的hadoop集群时间问题
2015-08-20 17:57
232 查看
之前没有关注过虚拟机的时间问题,但是用了hadoop集群后,发现分析的数据与实际数据不符。才发现虚拟机用的是newYork 时区的时间,比正常时间慢了12个小时;所以必须修改虚拟机时间;
然后用了很多修改时间的命令,修改时区等,最后,使用linux 命令 date -R 显示的是 +08000东八区的时间;
但是,hive中和hadoop中的时间 永远都是比实际慢12个小时;
最后用了此方法,重新设置虚拟机时区
>dpkg-reconfigure tzdata >hwclock -w
>hwclock --systohc[/code]
选择自己需要的时区,国内的就选 asia shanghai 然后执行后面两句,时区设置完成
手动增加环境变量:
etc/profile 文件 增加
export TZ="GMT+8"
[/code]
hadoop 集群也得重启。
hive测试时间
select from_unixtime(unix_timestamp(),'yyyy-MM-dd HH:mm:ss');
[/code]
查看结果是不是当前时间
通过 ip:50070/jmx 看 user.timezone 看是否是自己选的时区
通过网hdfs上传文件,看看是否显示的是当前时间
若全部正确。更改成功
然后用了很多修改时间的命令,修改时区等,最后,使用linux 命令 date -R 显示的是 +08000东八区的时间;
但是,hive中和hadoop中的时间 永远都是比实际慢12个小时;
最后用了此方法,重新设置虚拟机时区
>dpkg-reconfigure tzdata >hwclock -w
>hwclock --systohc[/code]
选择自己需要的时区,国内的就选 asia shanghai 然后执行后面两句,时区设置完成
手动增加环境变量:
etc/profile 文件 增加
export TZ="GMT+8"
[/code]
hadoop 集群也得重启。
hive测试时间
select from_unixtime(unix_timestamp(),'yyyy-MM-dd HH:mm:ss');
[/code]
查看结果是不是当前时间
通过 ip:50070/jmx 看 user.timezone 看是否是自己选的时区
通过网hdfs上传文件,看看是否显示的是当前时间
若全部正确。更改成功
相关文章推荐
- django报错:ImproperlyConfigured和AppRegistryNotReady
- 使用 Linux 系统调用的内核命令
- 解析 Linux 中的 VFS 文件系统机制
- Linux strace命令
- Java Linux内核开发
- linux系统下nodejs安装过程随记
- 【转】大型网站系统架构的演化
- archlinux的wiki非常强壮
- RedHat Linux磁盘分区、格式化、挂载、卸载
- linux netstat命令
- Linux下执行Java服务程序
- 运维工具箱性能优化
- nginx upstream的分配方式
- 使用socket方式连接nginx
- centos7 安装 opencv3.0
- robocopy 遷移共享文件夾
- Docker笔记(2)--自定义Tomcat Docker
- 类/类别中的property属性
- linux 下/etc/profile、/etc/bashrc、~/.bash_profile、~/.bashrc 干啥的
- QSystemSemaphore: 在进程里做互斥的建议,针对Linux的特殊说明