常用的数据提取工具:
当然了 还有一些 像jsonpath,pyquery等
为什么要用解析工具:做爬虫还有对前端了解一些,比如 css js ajax 等,因为数据我们前边说了是嵌在html 代码里面的,我们需要提取出来,试想一下化学中的提取某种东西 是不是需要各种器材,爬虫提取数据亦是如此,这些解析工具能帮助我们轻易的获取我们想要的数据。
怎么使用:每个工具啊都有自己的使用方法,和规则,只要我们按照规则就可以
xpath 是一门在xml文档中查找信息的语言。可以用来在xml文档中对元素和属性进行遍历
菜鸟教程 :点击打开链接 看完可以找一段简单的网页试下,chrom浏览器还有一些页面的解析工具,很方便
# from bs4 import BeautifulSoup soup = BeautifulSoup('xx', 'html.parser') a = soup.select('a')[0] onclick = a.get('onclick') print(onclick) #xx 获得一个元素后,使用get('attr')可以得到value string 方法,输出结果与当前唯一子节点的 .string 结果相同。 通俗点说就是:如果一个标签里面没有标签了,那么 .string 就会返回标签里面的内容。 如果标签里面只有唯一的一个标签了,那么 .string 也会返回最里面的内容。 如果超过一个标签的话,那么就会返回None print soup.head.string #The Dormouse's story print soup.title.string #The Dormouse's story print soup.html.string # None #***find_all( name , attrs , recursive , text , **kwargs )***********!!!!!!!!!!!!!! find_all() 方法搜索当前tag的所有tag子节点,并判断是否符合过滤器的条件 1 name 参数 name 参数可以查找所有名字为 name 的tag,字符串对象会被自动忽略掉 #第一个参数为Tag的名称 tag.find_all(‘title’) #得到”
print soup.select("head > title") #[&%^&* ”,结果为一个列表 #第二个参数为匹配的属性 tag.find_all(“title”,class=”sister”) #得到如”%^*& # 第二个参数也可以为字符串,得到字符串匹配的结果 tag.find_all(“title”,”sister”) #得到如”%^*& A下面的例子用于查找文档中所有的标签 soup.find_all('b') # [The Dormouse's story] B.传正则表达式 如果传入正则表达式作为参数,Beautiful Soup会通过正则表达式的 match() 来匹配内容.下面例子中找出所有以b开头的标签, 这表示和标签都应该被找到 import re for tag in soup.find_all(re.compile("^b")): print(tag.name) # body # b C.传列表 如果传入列表参数,Beautiful Soup会将与列表中任一元素匹配的内容返回.下面代码找到文档中所有标签和标签 soup.find_all(["a", "b"]) # [The Dormouse's story, # Elsie, # Lacie, # Tillie] D.传 True True 可以匹配任何值,下面代码查找到所有的tag,但是不会返回字符串节点 E.传方法 2)keyword 参数 注意:如果一个指定名字的参数不是搜索内置的参数名,搜索时会把该参数当作指定名字tag的属性来搜索, 如果包含一个名字为 id 的参数,Beautiful Soup会搜索每个tag的”id”属性 soup.find_all(id='link2') # [Lacie] 如果传入 href 参数,Beautiful Soup会搜索每个tag的”href”属性 soup.find_all(href=re.compile("elsie")) # [Elsie] 使用多个指定名字的参数可以同时过滤tag的多个属性 soup.find_all(href=re.compile("elsie"), id='link1') # [three] 在这里我们想用 class 过滤,不过 class 是 python 的关键词,这怎么办?加个下划线就可以 soup.find_all("a", class_="sister") # [Elsie, # Lacie, # Tillie] 可以通过 find_all() 方法的 attrs 参数定义一个字典参数来搜索包含特殊属性的tag data_soup.find_all(attrs={"data-foo": "value"}) # [foo!] 4)limit 参数 soup.find_all("a", limit=2) # [Elsie, # Lacie] CSS选择器 用到的方法是 soup.select(),返回类型是 list 在写 CSS 时,标签名不加任何修饰,类名前加点 . id名前加 # (1)通过标签名查找 rint soup.select('title') #[The Dormouse's story ] (2)通过类名查找 print soup.select('.sister') (3)通过 id 名查找 print soup.select('#link1') #[] (4)组合查找 查找 p 标签中,id 等于 link1的内容,二者需要用空格分开 print soup.select('p #link1') 直接子标签查找 print soup.select("head > title") #[The Dormouse's story ] (5)属性查找 查找时还可以加入属性元素,属性需要用中括号括起来,注意属性和标签属于同一节点,所以中间不能加空格,否则会无法匹配到 print soup.select('a[class="sister"]') #[, print soup.select('a[href="http://example.com/elsie"]') #[] 上的 select 方法返回的结果都是列表形式,可以遍历形式输出,然后用 get_text() 方法来获取它的内容 soup = BeautifulSoup(html, 'lxml') print type(soup.select('title')) print soup.select('title')[0].get_text() for title in soup.select('title'): print title.get_text() 例如 item['home_page'] = cpy1.find(class_="link-line").find_all('a')[-1].get_text().strip() #---------------------------------------------------------------------------------------------The Dormouse's story ] (5)属性查找 查找时还可以加入属性元素,属性需要用中括号括起来,注意属性和标签属于同一节点,所以中间不能加空格,否则会无法匹配到 print soup.select('a[class="sister"]') #[, print soup.select('a[href="http://example.com/elsie"]') #[] 上的 select 方法返回的结果都是列表形式,可以遍历形式输出,然后用 get_text() 方法来获取它的内容 soup = BeautifulSoup(html, 'lxml') print type(soup.select('title')) print soup.select('title')[0].get_text() for title in soup.select('title'): print title.get_text() 例如 item['home_page'] = cpy1.find(class_="link-line").find_all('a')[-1].get_text().strip() #---------------------------------------------------------------------------------------------
字典中的get()方法取不到会返回None, 直接用键名取 取不到报错。 json.loads可以吧str 转换成字典格式, 把json格式数据转换成python对象
# --------------------------------------------------------------------------------------------------------------------------
正则表达式手册
正则表达式是处理字符串的强大工具,拥有独特的语法和独立的处理引擎。
我们在大文本中匹配字符串时,有些情况用str自带的函数(比如find, in)可能可以完成,有些情况会稍稍复杂一些(比如说找出所有“像邮箱”的字符串,所有和julyedu相关的句子),这个时候我们需要一个某种模式的工具,这个时候正则表达式就派上用场了。
说起来正则表达式效率上可能不如str自带的方法,但匹配功能实在强大太多。对啦,正则表达式不是Python独有的,如果已经在其他语言里使用过正则表达式,这里的说明只需要简单看一看就可以上手啦。
当你要匹配 一个/多个/任意个 数字/字母/非数字/非字母/某几个字符/任意字符,想要 贪婪/非贪婪 匹配,想要捕获匹配出来的 第一个/所有 内容的时候,记得这里有个小手册供你
Python通过re模块提供对正则表达式的支持。
使用re的一般步骤是
# encoding: UTF-8
import re
# 将正则表达式编译成Pattern对象
pattern = re.compile(r'hello.*\!')
# 使用Pattern匹配文本,获得匹配结果,无法匹配时将返回None
match = pattern.match('hello, yangshilong! How are you?')
if match:
# 使用Match获得分组信息
print match.group()
hello, yangshilong!
re.compile(strPattern[, flag]):
这个方法是Pattern类的工厂方法,用于将字符串形式的正则表达式编译为Pattern对象。
第二个参数flag是匹配模式,取值可以使用按位或运算符'|'表示同时生效,比如re.I | re.M。
当然,你也可以在regex字符串中指定模式,比如re.compile('pattern', re.I | re.M)等价于re.compile('(?im)pattern')
flag可选值有:
regex_1 = re.compile(r"""\d + # 数字部分
\. # 小数点部分
\d * # 小数的数字部分""", re.X)
regex_2 = re.compile(r"\d+\.\d*")
Match对象是一次匹配的结果,包含了很多关于此次匹配的信息,可以使用Match提供的可读属性或方法来获取这些信息。
match属性:
方法:
import re
m = re.match(r'(\w+) (\w+)(?P.*)', 'hello hanxiaoyang!')
print "m.string:", m.string
print "m.re:", m.re
print "m.pos:", m.pos
print "m.endpos:", m.endpos
print "m.lastindex:", m.lastindex
print "m.lastgroup:", m.lastgroup
print "m.group(1,2):", m.group(1, 2)
print "m.groups():", m.groups()
print "m.groupdict():", m.groupdict()
print "m.start(2):", m.start(2)
print "m.end(2):", m.end(2)
print "m.span(2):", m.span(2)
print r"m.expand(r'\2 \1\3'):", m.expand(r'\2 \1\3')
m.string: hello hanxiaoyang!
m.re: <_sre.SRE_Pattern object at 0x10b111be0>
m.pos: 0
m.endpos: 18
m.lastindex: 3
m.lastgroup: sign
m.group(1,2): ('hello', 'hanxiaoyang')
m.groups(): ('hello', 'hanxiaoyang', '!')
m.groupdict(): {'sign': '!'}
m.start(2): 6
m.end(2): 17
m.span(2): (6, 17)
m.expand(r'\2 \1\3'): hanxiaoyang hello!
Pattern对象是一个编译好的正则表达式,通过Pattern提供的一系列方法可以对文本进行匹配查找。
Pattern不能直接实例化,必须使用re.compile()进行构造。
Pattern提供了几个可读属性用于获取表达式的相关信息:
import re
p = re.compile(r'(\w+) (\w+)(?P.*)', re.DOTALL)
print "p.pattern:", p.pattern
print "p.flags:", p.flags
print "p.groups:", p.groups
print "p.groupindex:", p.groupindex
p.pattern: (\w+) (\w+)(?P.*)
p.flags: 16
p.groups: 3
p.groupindex: {'sign': 3}
# encoding: UTF-8
import re
# 将正则表达式编译成Pattern对象
pattern = re.compile(r'H.*g')
# 使用search()查找匹配的子串,不存在能匹配的子串时将返回None
# 这个例子中使用match()无法成功匹配
match = pattern.search('hello Hanxiaoyang!')
if match:
# 使用Match获得分组信息
print match.group()
Hanxiaoyang
import re
p = re.compile(r'\d+')
print p.split('one1two2three3four4')
['one', 'two', 'three', 'four', '']
import re
p = re.compile(r'\d+')
print p.findall('one1two2three3four4')
['1', '2', '3', '4']
import re
p = re.compile(r'\d+')
for m in p.finditer('one1two2three3four4'):
print m.group()
1
2
3
4
import re
p = re.compile(r'(\w+) (\w+)')
s = 'i say, hello hanxiaoyang!'
print p.sub(r'\2 \1', s)
def func(m):
return m.group(1).title() + ' ' + m.group(2).title()
print p.sub(func, s)
say i, hanxiaoyang hello!
I Say, Hello Hanxiaoyang!
import re
p = re.compile(r'(\w+) (\w+)')
s = 'i say, hello hanxiaoyang!'
print p.subn(r'\2 \1', s)
def func(m):
return m.group(1).title() + ' ' + m.group(2).title()
print p.subn(func, s)
('say i, hanxiaoyang hello!', 2)
('I Say, Hello Hanxiaoyang!', 2)