Druid接入kafka实时数据操作手册
2017-07-16 13:27
627 查看
ps:本文仅供博主自己内部使用。
在终端输入:
一、在本机使用plyql模拟SQL语句查询数据(sugo-plyql):
安装在终端输入:
wget http://58.63.110.97:8888/yum/sugo-plyql.tar.gz[/code]
解压:tar xzf sugo-plyql.tar.gz
进入目录:cd sugo-plyql/cmds
测试”show tables”命令:./plyql -h 192.168.0.212 -q 'show tables'
得到结果即代表sugo-plyql工具可以使用二、利用具体化的json数据接入接口,实现druid实时接入kafka数据
首先查询kafka中topic的记录数
登录 root@192.168.0.220 进入目录/opt/apps/kafka_sugossh root@192.168.0.220cd /opt/apps/kafka_sugo
查看topic记录数bin/kafka-run-class.sh kafka.tools.GetOffsetShell --topic carOrder03 --time -1 --broker-list 192.168.0.220:9092,192.168.0.222:9092,192.168.0.221:9092 --partitions 0
//上面的testRealTime0627是自定义的数据源(对应json中ioConfig的topic属性)
登录 http://192.168.0.220:8090/supervisor.html 利用json建立task
查询datesource核对
在本机sugo-plyql安装目录/cmds 输入指令:./plyql -h 192.168.0.220 -q 'select count(*) from testRealTime0627' -v
//可能会显示No such datasource,是因为数据量大,有延迟,过一段时间在查,如果还是显示No such datasource很可能是有问题,查看task或者后台的日志
查询正常之后,把task kill了,再重新启动(为了让历史数据落地)。三、辅助操作
后台日志查询
登录ssh root@192.168.0.220
用以下命令查询系统日志tail -200f /data1/druidio/logs/jvm/overlord.log
task日志关键点Task completed with status //Task完成状态(failed or success)
相关文章推荐
- flume+kafka+smart数据接入实施手册
- flume+kafka+smart数据接入实施手册
- Storm之——Storm+Kafka+Flume+Zookeeper+MySQL实现数据实时分析(案例测试篇)
- flume实现kafka到hdfs实时数据采集 - 有负载均衡策略
- Druid (大数据实时统计分析数据存储)
- Druid:一个用于大数据实时处理的开源分布式系统之是什么
- 实时数据处理插件开发flume+kafka+storm:flume
- GoldenGate实时投递数据到大数据平台(5) - Kafka
- 大数据架构:flume-ng+Kafka+Storm+HDFS 实时系统组合
- Flume+Kafka+Storm+Redis构建大数据实时处理系统 - 大数据
- 大数据架构:flume-ng+Kafka+Storm+HDFS 实时系统组合
- 使用hangout将Kafka数据实时清洗写入ClickHouse
- springboot框架中使用java操作kafka获取数据
- SparkStreaming+Kafka 处理实时WIFI数据
- Druid :大数据实时处理的开源分布式系统(1)
- Druid:一个用于大数据实时处理的开源分布式系统
- 大数据架构:flume-ng+Kafka+Storm+HDFS 实时系统组合
- Druid:一个用于大数据实时处理的开源分布式系统——大数据实时查询和分析的高容错、高性能开源分布式系统
- Flume+Kafka+Storm+Redis构建大数据实时处理系统 - 大数据
- Druid Kafka indexing service (Druid 导入Kafka 数据)