内部联接在使用 Spark 2.1 的 DataFrame 中不起作用

Posted

技术标签:

【中文标题】内部联接在使用 Spark 2.1 的 DataFrame 中不起作用【英文标题】:inner join not working in DataFrame using Spark 2.1 【发布时间】:2018-02-09 05:45:06 【问题描述】:

我的数据集:-

emp dataframe looks like this :-
emp.show()

+---+-----+------+----------+-------------+
| ID| NAME|salary|department|         date|
+---+-----+------+----------+-------------+
|  1| sban| 100.0|        IT|   2018-01-10|
|  2|  abc| 200.0|        HR|   2018-01-05|
|  3| Jack| 100.0|      SALE|   2018-01-05|
|  4|  Ram| 100.0|        IT|2018-01-01-06|
|  5|Robin| 200.0|        IT|   2018-01-07|
|  6| John| 200.0|      SALE|   2018-01-08|
|  7| sban| 300.0|  Director|   2018-01-01|
+---+-----+------+----------+-------------+

2- 然后我按名称分组并获取其最高薪水,例如数据框是 grpEmpByName :-

val grpByName = emp.select(col("name")).groupBy(col("name")).agg(max(col("salary")).alias("max_salary")) 
grpByName.select("*").show()
+-----+----------+
| name|max_salary|
+-----+----------+
| Jack|     100.0|
|Robin|     200.0|
|  Ram|     100.0|
| John|     200.0|
|  abc|     200.0|
| sban|     300.0|
+-----+----------+

3- 然后尝试加入:-

val joinedBySalarywithMaxSal = emp.join(grpEmpByName, col("emp.salary") === col("grpEmpByName.max_salary") , "inner")

它的投掷

18/02/08 21:29:26 INFO CodeGenerator: Code generated in 13.667672 ms
Exception in thread "main" org.apache.spark.sql.AnalysisException: cannot resolve '`grpByName.max_salary`' given input columns: [NAME, department, date, ID, salary, max_salary, NAME];;
'Join Inner, (salary#2 = 'grpByName.max_salary)
:- Project [ID#0, NAME#1, salary#2, department#3, date#4]
:  +- MetastoreRelation default, emp
+- Aggregate [NAME#44], [NAME#44, max(salary#45) AS max_salary#25]
   +- Project [salary#45, NAME#44]
      +- Project [ID#43, NAME#44, salary#45, department#46, date#47]
         +- MetastoreRelation default, emp

我不明白为什么它不像我检查时那样工作

 grpByName.select(col("max_salary")).show() 

+----------+
|max_salary|
+----------+
|     100.0|
|     200.0|
|     100.0|
|     200.0|
|     200.0|
|     300.0|
+----------+

提前致谢。

【问题讨论】:

【参考方案1】:

点表示法用于引用表格内的嵌套结构,而不是引用表格本身。

改为调用DataFrame 上定义的col 方法,如下所示:

emp.join(grpEmpByName, emp.col("salary") === grpEmpByName.col("max_salary"), "inner")

你可以看一个例子here。

此外,请注意joins are inner by default,因此您应该能够编写以下内容:

emp.join(grpEmpByName, emp.col("salary") === grpEmpByName.col("max_salary"))

【讨论】:

【参考方案2】:

我不确定,希望可以帮助:

val joinedBySalarywithMaxSal = emp.join(grpEmpByName, emp.col("emp") === grpEmpByName.col("max_salary") , "inner")

【讨论】:

以上是关于内部联接在使用 Spark 2.1 的 DataFrame 中不起作用的主要内容,如果未能解决你的问题,请参考以下文章

如何使用 Spark sql 在 Databricks 中使用内部联接更新 Databricks Delta 表

Spark表联接-资源分配问题

Spark 中的 Oracle 表之间的联接

使用 Spark SQL 时可以要求对数据库进行联接操作吗?

使用多个内部联接时,与使用单个内部联接时相比,我得到不同的结果

在 Oracle 上使用内部联接更新语句