Bamboolib磚,low-code編程現在可用在#磚
現在你可以準備磚代碼沒有……編碼。現在可以在磚低代碼解決方案。安裝和進口bamboolib開始(需要一個版本11 DBR Azure和AWS, GCC 11.1)。可以使用% pip安裝或集群設置- >“庫”選項卡:
正如我們上麵的屏幕上看到,我們有幾個選擇。
——讀CSV文件,
——讀鑲花的文件,
從metastore讀取表(我敢打賭,這將是最受歡迎的選項),
——或者用一些示例數據集與數據* * * * *
我們將使用一個示例數據集《泰坦尼克號》。
現在我們可以使用向導轉換和行動。我們可以看到以下自動生成的代碼:
所以,讓我們假設我們隻選擇兩個字段:
把年齡垃圾箱(清廉歲,10 - 20、20 - 30等):
集團並看到結果連同代碼:
現在我們可以複製代碼和在我們的項目中使用它。我們可以記住取代熊貓熊貓火花將分布式的方式運行。
這些示例轉換可用:
——選擇或刪除列,
——過濾行,
——行,
- Group by和聚合,
-加入/合並,
-改變數據類型,
-改變名稱,
查找和替換,
如果其他條件取代/
- DateTime頻率變化,
——提取DateTime,
——移動列,
本專欄,
——Concatenatete
——主
——透視,
——窗口功能,
——情節的創造者
由於情節的創造者,所以我們很容易想象我們的數據。
在以下示例中,我們使用了一個酒吧。
自動生成的代碼從上麵的示例如下:
熊貓作為pd導入;進口numpy np df = pd.read_csv (bam.titanic_csv) #步驟:選擇列df = df[[“年齡”、“性”而]]#步驟:本專欄df = pd(“年齡”)。削減(df(“年齡”),垃圾箱=(0.0,10.0,20.0,30.0,40.0,50.0,60.0,70.0,80.0),右= False,精密= 0)#步驟:Group by和總df = df。groupby([“年齡”、“性”而])。gg (Seex_count =(“性”而“數”)).reset_index() #步驟:改變數據類型的文本字符串/ df[‘年齡’]= df(“年齡”).astype(“字符串”)進口的陰謀。表達px無花果= px。欄(df, x =“年齡”,y = Seex_count,顏色=“性”而)無花果
謝謝
我試圖加載鋪文件使用bamboolib菜單,下麵的錯誤路徑不存在
沒有沒有問題我可以加載相同的文件使用火花或熊貓使用以下路徑
citi_pdf = pd.read_parquet (f / dbfs / mnt / orbify-sales-raw / WideWorldImportersDW / Dimension_City_new。拚花”,引擎= ' pyarrow”)
工作已經或仍有一些錯誤嗎?
AnalysisException: [PATH_NOT_FOUND]路徑不存在:dbfs: / dbfs / mnt / orbify-sales-raw / WideWorldImportersDW / Dimension_City_new.parquet。完整的堆棧跟蹤:- - - - - - - - - - - - - - - - - - - - - - - - - - - - - -回溯(最近的電話最後):文件“/ local_disk0 / .ephemeral_nfs / cluster_libraries / python / lib / python3.9 /網站/ bamboolib /幫助/ gui_outlets。py”, 346行,在safe_execution hide_outlet = execute_function(自我,* args, * * kwargs)文件”/ local_disk0 .ephemeral_nfs cluster_libraries / python / lib / python3.9 /網站/ bamboolib /設置/ module_view。py”, 365行,在open_parquet df = exec_code(代碼、符號=自我。符號,result_name = df_name)文件“/ local_disk0 / .ephemeral_nfs / cluster_libraries / python / lib / python3.9 /網站/ bamboolib /幫助/跑龍套。py”, 446行,在exec_code exec(代碼、exec_symbols exec_symbols)文件”“,1號線,在文件“/磚/火花/ python / pyspark / instrumentation_utils。py”, 48,包裝res = func (* args, * * kwargs)文件“/磚/火花/ python / pyspark / sql /讀寫。py”,第533行,拚花返回self._df (self._jreader.parquet (_to_seq (self._spark。_sc路徑)))文件“/磚/火花/ python / lib / py4j-0.10.9.5-src.zip / py4j / java_gateway。py”, 1321行,在__call__ return_value = get_return_value(文件“/磚/火花/ python / pyspark /錯誤/異常。py”, 234行,德科提高從沒有pyspark.errors.exceptions轉換。AnalysisException: [PATH_NOT_FOUND]路徑不存在:dbfs: / dbfs / mnt / orbify-sales-raw / WideWorldImportersDW / Dimension_City_new.parquet。