我有一個DataFrame包含數(shù)據(jù)的Spark SQL ,我要獲取的是給定日期范圍內(nèi)當(dāng)前行之前的所有行。因此,舉例來說,我想讓7天之前的所有行都排在給定行的前面。我發(fā)現(xiàn)我需要使用一個Window Function喜歡:Window \ .partitionBy('id') \ .orderBy('start')問題來了。我希望有rangeBetween7天的時間,但是在Spark文檔中我什么都找不到。Spark甚至提供這種選擇嗎?現(xiàn)在,我只獲得前面的所有行:.rowsBetween(-sys.maxsize, 0)但想要達到以下目標:.rangeBetween("7 days", 0)如果有人可以幫助我,我將非常感激。提前致謝!
Spark Window函數(shù)-日期之間的range
慕村225694
2019-11-30 14:01:33