IDEA 创建scala spark的Mvn项目

IDEA 创建scala spark的Mvn项目

对人工智能感兴趣的同学,可以点击以下链接:

现在人工智能非常火爆,很多朋友都想学,但是一般的教程都是为博硕生准备的,太难看懂了。最近发现了一个非常适合小白入门的教程,不仅通俗易懂而且还很风趣幽默。所以忍不住分享一下给大家。点这里可以跳转到教程。

https://www.cbedai.net/u014646662

1.创建一个简单的Mvn项目

1.1新建项目File -> new -> project -> Maven

IDEA 创建scala spark的Mvn项目_第1张图片

1.2  点击下一步,填写gid和aid

IDEA 创建scala spark的Mvn项目_第2张图片

1.3 点击下一步,点击完成

IDEA 创建scala spark的Mvn项目_第3张图片

mvn项目就建好了

IDEA 创建scala spark的Mvn项目_第4张图片

1.4 不要忘记你的Mvn配置(File -> Setting 搜索Maven)

IDEA 创建scala spark的Mvn项目_第5张图片

2 添加依赖(配置要和你的环境一致)


    
        2.10.5
        2.6.5
    

    
        
            scala-tools.org
            Scala-Tools Maven2 Repository
            http://scala-tools.org/repo-releases
        
    

    
    
        org.apache.spark
        spark-core_2.10
        1.6.0
    
    
        org.apache.spark
        spark-sql_2.10
        1.6.0
    
    
        org.apache.spark
        spark-streaming_2.10
        1.6.0
    
    
        org.apache.hadoop
        hadoop-client
        ${hadoop.version}
    
    
        org.apache.hadoop
        hadoop-common
        ${hadoop.version}
    
    
        org.apache.hadoop
        hadoop-hdfs
        ${hadoop.version}
    

IDEA 创建scala spark的Mvn项目_第6张图片

3.添加Scala libraries

File -> Project Structure

IDEA 创建scala spark的Mvn项目_第7张图片

选择对应的版本(第一次选择应该下载,不过下载很慢,建议去官网下载Scala,然后选择目录)

IDEA 创建scala spark的Mvn项目_第8张图片

点击 OK

IDEA 创建scala spark的Mvn项目_第9张图片

项目下就引入scala

IDEA 创建scala spark的Mvn项目_第10张图片

4. 配置hadoop,配置hadoop-common-2.6.0-bin,以免出现null/winutils

hadoop-common-2.6.0-bin下载:https://download.csdn.net/download/u014646662/10816318

配置环境变量:

IDEA 创建scala spark的Mvn项目_第11张图片

IDEA 创建scala spark的Mvn项目_第12张图片

5.可以写scala程序了

IDEA 创建scala spark的Mvn项目_第13张图片

6 编写Scala类

package cn.com.tengen.test

import java.util.Scanner

import org.apache.spark.SparkContext
import org.apache.spark.SparkConf


class ScalaSparkContext(appName:String="Spark"){
  val sc:SparkContext = getSparkContext()
  def getSparkContext() = {
    val conf = new SparkConf().setAppName(appName)
    conf.setMaster("local")
    val sc = new SparkContext(conf)
    sc
  }

  def stop() = {
    println("按回车键结束:")
    val in = new Scanner(System.in)
    in.nextLine()
    sc.stop()
  }
}


object ScalaSparkContext {
  def main(args: Array[String]) {
    val sparkContext = new ScalaSparkContext()
    val sc = sparkContext.sc
    val input = sc.textFile("F:\\stoke_data\\2018-10-08-09-32-44.txt").map(_.toLowerCase)
    input
      .flatMap(line => line.split("[,]"))
      .map(word => (word, 1))
      .reduceByKey((count1, count2) => count1 + count2)
      .saveAsTextFile("aaaa")
    sparkContext.stop()
  }
}

运行后,在控制台中可以看到:

18/11/29 14:46:01 INFO Utils: Successfully started service 'SparkUI' on port 4040.
18/11/29 14:46:01 INFO SparkUI: Started SparkUI at http://172.16.66.1:4040

IDEA 创建scala spark的Mvn项目_第14张图片

就进入web页面

IDEA 创建scala spark的Mvn项目_第15张图片

注意:在sc.stop前可以访问

你可能感兴趣的:(Scala,大数据,hadoop,Spark)