SparkConf 配置的用法

SparkConf 配置的用法

Spark应用程序的配置,用于将各种Spark参数设置为键值对。

大多数情况下,将使用新的SparkConf(),创建一个SparkConf对象,该对象将从您的应用程序中设置的任何spark.*的Java系统属性加载值。 在这种情况下,** 直接在SparkConf对象上设置的参数优先于系统属性 **。

对于单元测试,您还可以调用新的SparkConf(false)来跳过加载外部设置,并获得相同的配置,无论系统属性如何。

此类中的所有setter方法都支持链式调用。

new SparkConf().setMaster("local").setAppName("My app")
SparkConf() //load defaults from system properties and classpath

def getAll: Array[(String, String)] //Get all parameters as a list of pairs

def setAppName(name: String) //Set a name for your application
val conf = new SparkConf().setAppName("PRM Training Process").setAll(Configuration.sparkProps)

Configuration.sparkProps //?

使用Dataset和DataFrame API编程Spark的入口点。

在预先创建此环境的环境中,使用构建器获取现有会话

构建器(builder)还可用于创建新会话

SparkSession.builder()
  .master("local")
  .appName("My app")
  .config("spark.some.config.option", "some-value")
  .getOrCreate()
val spark = SparkSession.builder.config(conf).enableHiveSupport.getOrCreate
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容