input {
kafka {
auto_offset_reset => "earliest"
codec => "plain"
group_id => "es1"
topics => ["mytopic"]
bootstrap_servers => "10.10.4.128:9092,10.10.4.190:9092,10.10.4.197:9092"
}
}
output {
webhdfs {
codec => plain {
format => "%{message}"
}
host => "10.10.4.128"
port => 50070
user => "hdfs"
path => "/data/jsonTestDate/%{+YYYY}-%{+MM}-%{+dd}/mytopic-%{+HH}.log"
flush_size => 500
idle_flush_time => 10
retry_interval => 0.5
}
#stdout { codec => rubydebug }
}
logstash-kafka到hive(hdfs)的配置文件
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
推荐阅读更多精彩内容
- 配置hive时出现不能加载自己修改的hive-site.xml等配置文件的问题。发现它总是加载默认的配置文件。解决...
- 参考文章 https://www.confluent.io/product/confluent-platform/...
- 作者:Syn良子 出处:http://www.cnblogs.com/cssdongl 转载请注明出处找时间总结整...
- 近日将原来MR 处理到etl 部分转移到Hive Serde 处理导出到HDFS的时候,Hive导出过程出错cau...