如何避免spark dataframe的JOIN操作之后产生重复列(Reference '***' is ambiguous问题解决)
sparkdatafrme提供了强大的JOIN操作。但是在操作的时候,经常发现会碰到重复列的问题。如下:如分别创建两个DF,其结果如下:valdf=sc.parallelize(Array(("one","A",1),("one","B",2),("two","A",3),("two","B",4))).toDF("key1","key2","value")df.show()+----+----+