基于R语言的表格数据抓取

R中有非常多的包可以用来抓取网络数据,之前总结过用rvest包抓取数据的步骤及方法,用rvest包轻松抓取网络数据,这里主要说一说关于表格数据抓取的方法和一些注意的点。
如果之前对R爬虫有一点点了解,那么抓取表格数据将会非常轻松,废话少说,先上一个栗子。

基于R语言的表格数据抓取_第1张图片
上图就是我们这次需要爬取的表格,其url为:http://match.sports.sina.com.cn/football/csl/opta_rank.php

R程序

library(XML)

url <- 'http://match.sports.sina.com.cn/football/csl/opta_rank.php'

doc <- htmlParse(url)

tableNodes = getNodeSet(doc, "//table")

tb = readHTMLTable(tableNodes[[1]])

结果

基于R语言的表格数据抓取_第2张图片
通常都是要求大家自己查看help文档来读懂程序的,今天刚起床,神清气爽,就多啰嗦两句吧~~哈哈。
其实不论是表格还是其他什么,爬虫工作的本质都是一样的:

解析网页 ===> 找需要的节点信息 ===> 提取节点信息
说来说去就上面3个步骤。抓取表格数据简直不要太轻松,都不用自己去定位,唉,不过需要注意的是,对于动态网页,上面的方法就失效了,后续估计会持续更新关于动态网页的R爬虫。
XML包是用于在R和S-Plus中解析和生成XML的工具。然后htmlParse()函数用于解析网页,说白了就是把这个网页读入到你的R中,接下来就是获取节点信息,tableNodes = getNodeSet(doc, "//table"),那,这里要爬取表格数据,节点无非直接就是table了,都不用自己去亲自定位。最后把找到节点信息读取出来就大功告成了,tb = readHTMLTable(tableNodes[[1]]),tableNodes[[1]]是因为这里只有一个表格,如果要抓取许多表格的数据,而且要把它们放在一个数据框中,那就需要循环了,详见:
详见这里哦~~,真是贴心。
ok,基于R的表格数据的抓取到这里先告一段落,后续继续更新。

你可能感兴趣的:(基于R语言的表格数据抓取)