取消
顯示的結果
而不是尋找
你的意思是:

外部位置統一目錄允許訪問s3

amitca71
因素二世

你好,

當我創建外部位置統一目錄。即使我不提供任何用戶授予,我有寫訪問s3 bucket的工作區。

  1. 我創建了外部位置xxxx
  2. 我不允許任何權限
  3. 在一個連接到工作區metastore:

df.write.parquet (s3: / / xxxx-data /阿米特/ suppose_to_fail”)

成功完成

當我刪除外部位置,它與AWS失敗的錯誤沒有權限,所以我確信從加州大學授權的權限。

我怎麼阻止用戶能夠編寫直接當使用s3加州大學(順便說一句,在過去,我可以控製選項寫在AWS我水平。雖然並不提供完整的解決方案,我需要授予寫有選擇性地)

謝謝,

阿米特

5回複5

Sivaprasad1
重視貢獻二世

@Amit Cahanovich:你能分享你的配置細節,

DBR版本?

集群實例配置文件嗎?

@Sivaprasad C S 11.2(包括Apache火花3.3.0,Scala 2.12)

實例配置文件=沒有

Sivaprasad1
重視貢獻二世

集群模式是什麼?

你能運行以下命令並分享結果嗎

加州大學的權限得到,外部位置的< externallocationname >——概要文件< databricksprofile >

https://docs.m.eheci.com/dev-tools/cli/unity-catalog-cli.html unity-catalog-cli

{

“num_workers”: 0,

“cluster_name”:“xxxxxx”,

:“spark_version 11.2.x-scala2.12”,

" spark_conf ": {

“火花。當地主”:“(* 4)”,

“spark.databricks.cluster。配置文件”:“singleNode”,

“spark.databricks.dataLineage。啟用”:“真正的”

},

" aws_attributes ": {

“first_on_demand”: 1、

“可用性”:“SPOT_WITH_FALLBACK”,

:“zone_id us-east-2a”,

“spot_bid_price_percent”: 100年,

“ebs_volume_count”: 0

},

:“node_type_id i3.xlarge”,

:“driver_node_type_id i3.xlarge”,

“ssh_public_keys”: [],

" custom_tags ": {

:“ResourceClass SingleNode”

},

" spark_env_vars ": {

“DB_CLUSTER_NAME”:“\”* * * _xxxx \ ",

:“DD_SITE \“datadoghq.com \ ",

“DB_CLUSTER_ID”:“\”* * * _xxxx \ ",

“DD_ENV”:“暫存”,

:“PYSPARK_PYTHON /磚/ python3 / bin / python3”,

“DD_API_KEY”:“3 aa81ed18bc46a1f9cc425ee6c5ada78”

},

“autotermination_minutes”: 120年,

“enable_elastic_disk”:沒錯,

“cluster_source”:“用戶界麵”,

“init_scripts”:(

{

" dbfs ": {

“目的地”:“dbfs: / FileStore /跑龍套/ datadog-install-driver-only.sh”

}

}

),

:“single_user_name xxxx@ * * *。* * *”,

:“data_security_mode SINGLE_USER”,

“runtime_engine”:“標準”,

“cluster_id”:“0915 - 152649 ox2wxwwz”

}

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map