检查hive/hbase/spark/kafka依赖是报错,找不到对应的lib
Mac不支持printf '%p,需要改成awk
所以find-hive-dependency.sh中的
hive_lib=`find -L ${hive_lib_dir} -name '*.jar' ! -name '*druid*' ! -name '*slf4j*' ! -name '*avatica*' ! -name '*calcite*' ! -name '*jackson-datatype-joda*' ! -name '*derby*' -printf '%p:' | sed 's/:$//'`
需要改成
hive_lib=`find -L ${hive_lib_dir} -name '*.jar' ! -name '*druid*' ! -name '*slf4j*' ! -name '*avatica*' ! -name '*calcite*' ! -name '*jackson-datatype-joda*' ! -name '*derby*' | awk '{printf "%s:", $1}'|sed 's/:$//'`
kafka要改成
kafka_dependency=`find -L $kafka_home -name 'kafka_[a-z0-9A-Z\.-]*.jar' ! -name '*doc*' ! -name '*test*' ! -name '*sources*' | awk '{printf "%s:", $1}' | sed 's/:$//'`
spark的要改成
spark_dependency=`find -L $spark_home/jars -name '*.jar' ! -name '*slf4j*' ! -name '*calcite*' ! -name '*doc*' ! -name '*test*' ! -name '*sources*' | awk '{printf "%s:", $1}' | sed 's/:$//'`