将kafka数据导入Elasticsearch
2017-11-29 17:45
633 查看
基于当前最新版本logstash 6.0.0 不同版本的logstash输入输出语法略有不同。
Kafka->logstash->elasticsearch->kibana
下载logstash并解压
进入logstash/config目录新建文件 kafka-logstash-es.conf
编写文件kafka-logstash-es.conf
启动命令 bin/logstash -f /logstash安装位置/logstash-6.0.0/config/kafka-logstash-es.conf &
启动成功后向kafka写入数据
登录kibana查看数据
kibana使用可查看kibana使用
Kafka->logstash->elasticsearch->kibana
下载logstash并解压
进入logstash/config目录新建文件 kafka-logstash-es.conf
编写文件kafka-logstash-es.conf
input { //日志写入的数据源 kafka { bootstrap_servers => ["ip:9092"] //kafka broker group_id => "1" topics => ["test-kafka-elasticsearch"] //kafka topic consumer_threads => 5 decorate_events => true codec => "json" //数据格式 } }
output { //日志数据写出 elasticsearch { hosts => ["ip:9200"] //Elasticsearch所在 index => "test" //输出索引 codec => "json" //输出格式 } }
启动命令 bin/logstash -f /logstash安装位置/logstash-6.0.0/config/kafka-logstash-es.conf &
启动成功后向kafka写入数据
登录kibana查看数据
kibana使用可查看kibana使用
相关文章推荐
- 日志收集之--将Kafka数据导入elasticsearch
- 日志收集之--将Kafka数据导入elasticsearch
- kafka消费数据存入elasticsearch代码示例
- 将Mysql数据导入到ElasticSearch集群
- python批量导入数据进Elasticsearch的实例
- ElasticSearch中批量导入数据: _bulk命令
- Druid Kafka indexing service (Druid 导入Kafka 数据)
- 从MySQL导入数据到ElastICsearch
- Logstash 导入数据到Elasticsearch
- Elasticsearch5.6.1导入数据并通过Kibana5.6.1展示和查询数据案例学习(上篇)
- elasticsearch从mysql导入数据
- Windows下使用curl命令向elasticsearch导入示例数据出错问题
- Mongodb数据库导入数据到elasticsearch,mongo-connector实现mongodb与elastic数据同步
- flume采集数据导入elasticsearch 配置
- Elasticsearch的数据导入导出
- 从Mysq了中导入数据到Elasticsearch中
- 第三节 ElasticSearch数据导入之Logstash
- elasticsearch 批量导入数据
- elasticsearch 导入测试数据
- elasticsearch从mysql导入数据