Databricks-connect 11.3工作統一目錄啟用集群或不呢?我試圖利用databricks-connect Azure DevOps管道使用微軟托管代理。但獲得低於databricks-connect測試命令運行時錯誤。
錯誤:
org.apache.spark。SparkException:沒有憑據的範圍。
ValueError: Scala命令未能產生正確的結果
嗨@Rey喬恩
可悲的是,databricks-connect DBR版本< 13不支持加州大學,限製部分中概述:https://docs.m.eheci.com/dev-tools/databricks-connect-legacy.html的局限性。
使用加州大學,我們建議使用DBR版本與databricks-connect > = 13,支持加州大學,有許多額外的生活質量改善了以前的版本。
最好的,
塞巴斯蒂安。
@Rey喬恩:
Databricks-connect應與統一目錄啟用集群。你看到的錯誤可能造成的問題與你的憑證。這裏有一些你可以采取的措施來解決這個問題:
嗨,我有同樣的問題。我使用databricks-connect 11.3與11.3運行時Unity-enabled單節點集群。我是磚在集群上管理和管理權限。我生成了一個新帕特和接收此消息。
我沒有看到一個選項來運行databricks-connect詳細模式。請詳細解釋一下嗎?
❯databricks-connect測試——冗長
用法:databricks-connect。exe [h]{配置、測試、get-jar-dir get-spark-home}
databricks-connect。exe:錯誤:無法識別的參數:——冗長
謝謝!
嗨@Rey喬恩
可悲的是,databricks-connect DBR版本< 13不支持加州大學,限製部分中概述:https://docs.m.eheci.com/dev-tools/databricks-connect-legacy.html的局限性。
使用加州大學,我們建議使用DBR版本與databricks-connect > = 13,支持加州大學,有許多額外的生活質量改善了以前的版本。
最好的,
塞巴斯蒂安。