Caused by: java.lang.NumberFormatException: For input string: "|"

Caused by: java.lang.NumberFormatException: For input string:
这个异常是在使用spark进行数据清洗处理的时候出现的异常,在百度上搜索,发现类似的异常都是出现在jsp页面的参数设置中,困扰了好半天。

1|24|M|technician|85711
2|53|F|other|94043
3|23|M|writer|32067
4|24|M|technician|43537
5|33|F|other|15213
6|42|M|executive|98101
7|57|M|administrator|91344
8|36|M|administrator|05201
9|29|M|student|01002
10|53|M|lawyer|90703

这是原本的数据格式,以“|”作为分隔符,所以一般的思路也是把”|”作为分隔依据

 //读取数据HDFS上
    val userRdd = sc.sparkContext.textFile("file:///C:/Users/Administrator/Desktop/ml-100k/u.user")
      .map(line=>(line.split("|"))) //需要进行转义
      .map(t=>User(t(0).toInt,t(1).toInt,t(2),t(3),t(4).toInt))
    //4.导入相关的隐士依赖
    import  sc.implicits._
    val UserDF = userRdd.toDF()
    UserDF.select($"id",$"age",$"sex",$"occuption",$"number")
        .show()

这是代码块,这是在这里忽略了切割字符需要进行转义,不然确实会出现格式异常,在对“|”做了转义处理后,正确得到了结果

正确的代码块

 //读取数据HDFS上
    val userRdd = sc.sparkContext.textFile("file:///C:/Users/Administrator/Desktop/ml-100k/u.user")
      .map(line=>(line.split("\\|"))) //需要进行转义
      .map(t=>User(t(0).toInt,t(1).toInt,t(2),t(3),t(4).toInt))
    //4.导入相关的隐士依赖
    import  sc.implicits._
    val UserDF = userRdd.toDF()
    UserDF.select($"id",$"age",$"sex",$"occuption",$"number")
        .show()

    sc.stop()

运行结果

Caused by: java.lang.NumberFormatException: For input string:

你可能感兴趣的:(编程杂谈)