scala 入门程序

package com.ctm

object Test extends App {
//
//
// val b =
// “”"
// |这是一个字符串
// |hello
// |PK
// “”".stripMargin
// print(b)
//
//
//
// val m = (x:Int) => x+1
// print(m(10))
//
// def add = (x:Int,y:Int) => x + y
//
// print(add(1,2))
//
// def map = (x:Int) => (x,1)
//
// print(map(2))
//
//
// println("")
//
// def sum(x:Int, y:Int) = {
// x + y
// }
// print(sum(1,2))
// def sum1(x:Int,y:Int) = x + y
// print(sum1(3,4))
//
// def sum2(x:Int)(y:Int) = x * y
//
// print(sum2(5)(5))

val l = List(1,2,3,4,5,6,7,8)

/* //map :逐个去操作集合中的每个元素
val j = l.map((x) => x2)
val m = l.map(x => x
2)

val k = l.map(x => (x,1))

val dd = l.map(_ *2)

val u = l.map(_ * 2).foreach(println)

val r = l.map(_ * 2).filter( _ > 8).foreach(println)

/
/

println(l)
val dd = l.map(_ *2)
println(l)

//所有数字相加,reduce这种二元操作对集合中的元素进行归约
val p = l.reduce( _ + _ )

print§*/

/* val f = List(List(1,2),List(3,4),List(5,6))

print(f.map( _.map( _ *2)))

// flatMap 等同于 pattern + Map , 多个list进行整理成一个list
f.flatMap(_.map(x => x*2)).foreach(print)

print(f.flatten)*/

val txt = scala.io.Source.fromFile(“E:\ideaworkspace\SparkStreamingKafkaWordCount\src\main\resources\inputfile.txt”).mkString
//print(txt)

val txts = List(txt)
txts.flatMap(.toString).foreach(print)
//分类,拆分,在转换成元组(x,1)
txts.flatMap(
.split(",")).map(x => (x,1)).foreach(println)

//

}

你可能感兴趣的:(大数据)