Avro技术应用_5. 利用 Camus 来将 Avro 数据从 Kafka 拷贝到 HDFS -- 待完善
2015-12-06 09:04
369 查看
本节主要跟大家介绍一些 LinkedIn 的 Camus 项目以及它是如何与 Kafka 合作来处理数据的。在这里需要注意的是,Camus 目前已经不建议使用,取而代之的是 LinkedIn 2014年10月份发布的一款 Gobblin 系统。相比较Camus 系统来说,它有了很大程度上的改善,这些内容将会在本节跟大家一起探讨探讨:
具体内容将会在后续进行完善,敬请期待:
具体内容将会在后续进行完善,敬请期待:
相关文章推荐
- 从本地上传到hdfs上出现异常
- HDFS的命令行操作
- hadoop 优化之container
- HDFS小文件处理解决方案总结+facebook(HayStack) + 淘宝(TFS)
- HDFS TFS
- hdfs文件操作操作示例,包括上传文件到HDFS上、从HDFS上下载文件和删除HDFS上的文件
- Hadoop之yarn和mapreduce
- hdfs配置文件详解(转载)
- eclipse远程连接hadoop-笔记2
- flume 收集日志到HDFS
- HDFS操作
- eclipse远程连接hadoop-笔记
- spring hadoop系列(六)---HbaseSystemException
- hdfs 删除和新增节点
- hdfs 删除和新增节点
- Spark向HDFS中存储数据
- HDFS Rolling Upgrade
- HDFS NFS Gateway
- Spark中加载本地(或者hdfs)文件以及SparkContext实例的textFile使用
- Centralized Cache Management in HDFS