4.2 抽取Web数据-HTML网页的数据抽取

HyperText Markup Language,简称HTML,即超文本标记语言

它包含了一套标记标签,主要用于创建和描述网页。HTML可以以文档的形式展示,HTML文档中包含HTML标签和纯文本。其中,HTML标签是由尖括号括起来的关键词,例如 和

基于数据库技术的HTML网页抽取技术的研究经过了人工、半自动化和全自动化方法的三个阶段。

人工方法,通过程序员人工分析出网页的模板,借助一定的编程语言,针对具体的问题生成具体的包装器。

半自动化方法,应用网页模板抽取数据,从而生成具体包装器的部分被计算机接管,而网页模板的分析仍然需要人工参与。

自动化方法中,网页模板的分析部分也交给了计算机进行,仅仅需要很少的人工参与或完全不需要人工参与,因而更加适合大规模、系统化、持续性的Web数据抽取。

通过Kettle工具抽取HTML网页的数据,并保存至数据库extract中的数据表html中。

我们以抽取“豆瓣电影排行榜”网页的超链接数据为例进行抽取数据,豆瓣电影排行榜页面的部分内容如图所示。

4.2 抽取Web数据-HTML网页的数据抽取_第1张图片

通过使用Kettle工具,创建一个转换转换html_extract,并添加“自定义常量数据”输入控件、“HTTP client”查询控件和“Java代码”脚本控件,,具体如图所示。

4.2 抽取Web数据-HTML网页的数据抽取_第2张图片4.2 抽取Web数据-HTML网页的数据抽取_第3张图片 

4.2 抽取Web数据-HTML网页的数据抽取_第4张图片

4.2 抽取Web数据-HTML网页的数据抽取_第5张图片重点则是使用java来进行爬取

import java.util.*;
import java.util.regex.Matcher;
import java.util.regex.Pattern;
import java.sql.DriverManager;
import java.sql.SQLException;
import java.util.regex.Matcher;
import java.util.regex.Pattern;
import com.mysql.jdbc.Connection;
import com.mysql.jdbc.PreparedStatement;
import java.io.InputStream;
import java.io.RandomAccessFile;
import java.net.URL;
import java.net.URLConnection;

private String result;
private String contents;
private Connection connection = null;

public boolean processRow(StepMetaInterface smi, StepDataInterface sdi) throws KettleException {
  if (first) {
    first = false;

    /* TODO: Your code here. (Using info fields)

    FieldHelper infoField = get(Fields.Info, "info_field_name");

    RowSet infoStream = findInfoRowSet("info_stream_tag");

    Object[] infoRow = null;

    int infoRowCount = 0;

    // Read all rows from info step before calling getRow() method, which returns first row from any
    // input rowset. As rowMeta for info and input steps varies getRow() can lead to errors.
    while((infoRow = getRowFrom(infoStream)) != null){

      // do something with info data
      infoRowCount++;
    }
    */
  }
	try{

		URL url = new URL("https://movie.douban.com/");

		URLConnection conn = url.openConnection();

		conn.setRequestProperty("accept","*/*");

		conn.setRequestProperty("connection","Keep-Alive");

		conn.setRequestProperty("user-agent","Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36");
		conn.connect();

		InputStream input = conn.getInputStream();
		byte[] buffer = new byte[1024];
		int hasRead;
		int length = 0;

		String msg = "";

        //输出到一个txt文件中
        //FileWriter fw = new FileWriter("D:\\豆瓣电影排行榜.txt");
		RandomAccessFile raf = new RandomAccessFile("F:\\kettle\\ETL\\5.数据\\output\\豆瓣电影排行榜.txt","rw");

		while((hasRead =input.read(buffer)) != -1)
		{
			raf.write(buffer);
			length += hasRead;
			System.out.println("爬取进度:"+length);
		}
		raf.close();
		logDebug("爬取完成!");


	} catch (Exception e) {
		logDebug("异常");
		e.printStackTrace();
	}


  Object[] r = getRow();

  if (r == null) {
    setOutputDone();
    return false;
  }

  // It is always safest to call createOutputRow() to ensure that your output row's Object[] is large
  // enough to handle any new fields you are creating in this step.
  r = createOutputRow(r, data.outputRowMeta.size());

  /* TODO: Your code here. (See Sample)

  // Get the value from an input field
  String foobar = get(Fields.In, "a_fieldname").getString(r);

  foobar += "bar";
    
  // Set a value in a new output field
  get(Fields.Out, "output_fieldname").setValue(r, foobar);

  */
  // Send the row on to the next step.
  putRow(data.outputRowMeta, r);

  return true;
}

 最后的运行情况如下4.2 抽取Web数据-HTML网页的数据抽取_第6张图片

可以得到如下内容。4.2 抽取Web数据-HTML网页的数据抽取_第7张图片

 通过navicat工具,查看数据表html是否已成功插入66行数据。

4.2 抽取Web数据-HTML网页的数据抽取_第8张图片

你可能感兴趣的:(ETL-kettle,前端,html,java)