如果你們中的某個人可以指導(dǎo)我將 scala(或 java)結(jié)果集轉(zhuǎn)換為 Spark Dataframe,我會很高興。我不能使用這個符號:val jdbcDF = spark.read .format("jdbc") .option("url", "jdbc:mysql://XXX-XX-XXX-XX-XX.compute-1.amazonaws.com:3306/") .option("dbtable", "pg_partner") .option("user", "XXX") .option("password", "XXX") .load()所以在向我推薦這個類似的問題之前,請考慮一下。我不能使用該符號的原因是我需要使用我正在使用的當前版本的 spark (2.2.0) 中不存在的 jdbc 配置,因為我想使用最近使用的“queryTimeout”選項添加到 spark 2.4 版,所以我需要在 ResultSet 中使用它。任何幫助將不勝感激。
添加回答
舉報
0/150
提交
取消