spark sql max函数,计算出的并不是字段的最大值的解决办法

出现的状况:
原代码:

val timeDF2 = df2.groupBy("userId").agg(max("totalOnlineTime"))
select time.userId as timeUserId, max(time.totalOnlineTime) as totalTime ,time.platform  as platforms from time group by  time.userId,time.platform

agg函数的max 求最大值的函数,计算出的结果,并不是这个字段的最大值,导致计算结果偏低
原因:字段的数据的类型的string,不是数值性的值,因为在比较的时候,比较的第一个字符,9大于10
解决办法:字段的类型string 转换成long int double等类型
利用的函数:cast
实例:
修改之后的代码

 val channelDf = sparkSession.sql("select * from  table ").select(col("userId"), col("downloadChannels"), col("totalOnlineTime").cast("Long")).groupBy("userId", "downloadChannels").agg(org.apache.spark.sql.functions.max("totalOnlineTime") as "time")
 sparkSession.sql("select * from tempTimeView ").select(col("userId"), col("tempTimeView.platform"), col("totalOnlineTime").cast("Long")).createOrReplaceTempView("time")

解决问题---------------------------------

你可能感兴趣的:(saprk,scala,select)