SparkContext。
defaultParallelism
默認級別的並行使用時由用戶(例如減少任務)
以前的
pyspark.SparkContext.defaultMinPartitions
下一個
pyspark.SparkContext.dump_profiles