我试图将 spark.driver.maxResultSize 的值更新为 6g,但该值没有得到更新。
spark.conf.set("spark.driver.maxResultSize", '6g')
注意:我是在Azure Databricks Notebook中运行这个命令。
|
|
星星上的红烧肉 · 两个对象合并_两个对象在一起-CSDN博客· 1 年前 · |
|
|
很拉风的课本 · 操作数据类型varchar对于avg运算符无 ...· 1 年前 · |
|
|
慷慨大方的保温杯 · 使用 Access SQL ...· 1 年前 · |
|
|
玩足球的烤土司 · golang中实现RSA(PKCS#1)加密 ...· 2 年前 · |
|
|
伤情的红豆 · u8找不到请求数据类型-掘金· 2 年前 · |
|
|
星星上的红烧肉 · 两个对象合并_两个对象在一起-CSDN博客 1 年前 |
|
|
很拉风的课本 · 操作数据类型varchar对于avg运算符无效-掘金 1 年前 |
|
|
伤情的红豆 · u8找不到请求数据类型-掘金 2 年前 |
在 Spark 2.0以上版本 中,你应该能够使用
方法来在运行时设置一些配置选项,但它主要限于SQL配置。由于你试图更新SparkSession.conf.set的spark.driver,你需要conf用你的新SparkSession.builder.getOrCreate创建新的会话(如果你有一个正在运行)。比如说。confimport pyspark sc = spark.sparkContext conf = pyspark.SparkConf().setAll([("spark.driver.maxResultSize", '6g')]) # here you stop the old spark context with old conf sc.stop() sc = pyspark.SparkContext(conf=conf)另外,你可以直接用预定义的配置来
新的会话,例如从YAML文件或代码中获取。然后你可以用以下方法检查新的配置文件getOrCreate