logstash-kafka到hive(hdfs)的配置文件

input {
  kafka {
    auto_offset_reset => "earliest"
    codec => "plain"
    group_id => "es1"
    topics => ["mytopic"]
    bootstrap_servers => "10.10.4.128:9092,10.10.4.190:9092,10.10.4.197:9092"
  }
}
output {
  webhdfs {
      codec => plain {
         format => "%{message}"
      }
      host => "10.10.4.128"
      port => 50070
      user => "hdfs"
      path => "/data/jsonTestDate/%{+YYYY}-%{+MM}-%{+dd}/mytopic-%{+HH}.log"
      flush_size => 500
      idle_flush_time => 10
      retry_interval => 0.5
   }
   #stdout { codec => rubydebug }
}
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容