maven/scope/idea | ClassNotFoundException: org.apache.spark.SparkConf

问题:Caused by: java.lang.ClassNotFoundException: org.apache.spark.SparkConf

出现的原因:

注意这里的scope

注意这里的scope, 为了在运行时使用公司统一的spark平台(jar), 所以程序打包的时候需要保证scope是provided. 但是也带来了问题, 在idea用main函数直接启动时, 无法使用maven中的jar包. 那么怎么解决呢?

  1. 将scope这个标签去掉, 使用默认的scope, 即compile. 但, 这样就违背了我们的初衷.
  2. 在idea中进行下步操作, 就是运行时包含scope为provided的jar包.


    1
2
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容