240 发简信
IP属地:广东
  • Resize,w 360,h 240
    Kibana8.x安装认证

    进入到elasticsearch的安装目录, 重置kibana登录用户的密码,执行bin/elasticsearch-reset-passwor...

  • Resize,w 360,h 240
    Hadoop3.4.x使用JDK17启动和Flink提交

    修改./etc/hadoop/hadoop-env.sh 如果不加上--add-opens, ResourceManager启动是会报错Clas...

  • Resize,w 360,h 240
    Grafana接入Elasticsearch数据, 折线命名

    折线命名 点击漏斗 -> Add field override -> Fields with name -> Add override prop...

  • Resize,w 360,h 240
    Flink Batch读取多个Hdfs文件

    代码 如若需要加载hdfs的配置, 则需要将core-site.xml和hdfs-site.xml的内容加载到Flink的Configurati...

  • Resize,w 360,h 240
    Grafana Mysql毫秒值(13位数值)曲线配置

    表结构 SQL 使用自定义的sql, time和metric是内定的别名, 会自动渲染曲线图,这里使用内置变量$__from和$__to来筛选时...

  • Flink On Yarn开启Kerberos提交脚本

    Hadoop开启Kerberos认证[https://www.jianshu.com/p/1c9676e4c79b]

  • Resize,w 360,h 240
    Hadoop开启Kerberos(开源版本)

    注意事项: JDK版本: JDK 1.8_261+ 所有的Hadoop机器和kerberos的客户端都需要高于该版本, 否则可能会报错java ...

  • Resize,w 360,h 240
    Grafana Clickhouse插件安装和使用

    背景 想对clickhouse做一些简单的监控, 但是因为生产环境网络原因无法放通, 无法使用自带的监控, 所以使用Grafana的方式来接入 ...

  • Resize,w 360,h 240
    Flink提交记录和运行日志删除脚本

    手动清理 运行日志自动清理 开启yarn的日志聚合, 设置合理的过期天数 开启histrory server的进程, 用来清理历史数据