你好,我使用起程拓殖databricks_job與許多任務提交作業。IFAIK,每個任務是一個火花分離應用程序與特定applicationId (https://spark.apache.org/docs/3.1.3/api/python/reference/api/pyspark.SparkContext.applicationId.html)。這些任務工作很好除了它們有相同的applicationId因為磚使用app_yyyyMMddHHmmss當應用程序id和所有這些應用程序在同一時間提交起程拓殖,因此它們都有相同的應用程序。指定的spark.app磚是否支持。id為python筆記本的任務。