取消
顯示的結果
而不是尋找
你的意思是:

Azure磚:提取數據失敗,兩個時間戳之間使用Pyspark在相同的日期

小禮帽
價值貢獻

數據類型:

AAPL_Time:時間戳

AAPL_Close:浮動

原始數據:

AAPL_Time AAPL_Close 2015 - 05 - 11 t08:00:00.000 + 0000 29.0344 2015 - 05 - 11 t08:30:00.000 + 0000 29.0187 2015 - 05 - 11 t09:00:00.000 + 0000 29.0346 2015 - 05 - 11 t09:30:00.000 + 0000 28.763 2015 - 05 - 11 t10:00:00.000 + 0000 28.6768 2015 - 05 - 11 t10:30:00.000 + 0000 28.7464 2015 - 05 - 12 t12:30:00.000 + 0000 28.7915 2015 - 05 - 12 t13:00:00.000 + 0000 28.8763 2015 - 05 - 12 t13:30:00.000 + 0000 28.8316 2015 - 05 - 12 t14:00:00.000 + 0000 28.8418 2015 - 05 - 12 t14:30:00.000 28.7703 + 0000

我想提取數據

火花。sql(“選擇AAPL_Time AAPL_Close從aapl_table AAPL_Time之間“% 09:30:00%”和“% 16:30:00%”)

我想結果應該是這樣的:

AAPL_Time AAPL_Close 2015 - 05 - 11 t09:30:00.000 + 0000 28.763 2015 - 05 - 11 t10:00:00.000 + 0000 28.6768 2015 - 05 - 11 t10:30:00.000 + 0000 28.7464 2015 - 05 - 12 t12:30:00.000 + 0000 28.7915 2015 - 05 - 12 t13:00:00.000 + 0000 28.8763 2015 - 05 - 12 t13:30:00.000 + 0000 28.8316 2015 - 05 - 12 t14:00:00.000 + 0000 28.8418 2015 - 05 - 12 t14:30:00.000 28.7703 + 0000

然而,最後的結果是這樣的:

查詢沒有返回結果

誰能幫我嗎?

同樣的問題在https://stackoverflow.com/questions/73326977/azure-databricks-failed-to-extract-data-which-is-betwee..。

1接受解決方案

接受的解決方案

Pholo
貢獻者

你好,也許你可以使用date_format函數和檢索字符串小時和分鍾

進口pyspark.sql。函數作為F aapl_table。過濾器(F.date_format (F。坳(“AAPL_Time”)、“HHmm”) .between (" 0930 ", " 1630 "))

這是pyspark的版本,如果你想在火花sql可以試一試

顯示器(火花。sql(“選擇Aapl_Time AApl_Close從aapl_table DATE_FORMAT (Aapl_Time, HHmm)之間的‘0930’和‘1630’”))

讓我知道如果它幫助。

在原帖子查看解決方案

4回複4

Pholo
貢獻者

你好,也許你可以使用date_format函數和檢索字符串小時和分鍾

進口pyspark.sql。函數作為F aapl_table。過濾器(F.date_format (F。坳(“AAPL_Time”)、“HHmm”) .between (" 0930 ", " 1630 "))

這是pyspark的版本,如果你想在火花sql可以試一試

顯示器(火花。sql(“選擇Aapl_Time AApl_Close從aapl_table DATE_FORMAT (Aapl_Time, HHmm)之間的‘0930’和‘1630’”))

讓我知道如果它幫助。

它的工作原理。謝謝你!

我很高興它幫助:grinning_face_with_big_eyes:

匿名
不適用

另一個嚐試是一小時()和()函數將返回整數。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map