bs4的用法

这里写目录标题

  • BS4
  • 安装
  • 对象种类

BS4

  • Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间.

安装

  • pip install beautifulsoup4
  • 解析器
表达式 使用方法 优势
Python标准库 BeautifulSoup(markup, “html.parser”) Python的内置标准库
执行速度适中
文档容错能力强
lxml HTML 解析器 BeautifulSoup(markup, “lxml”) 速度快
文档容错能力强
lxml XML 解析器 BeautifulSoup(markup, [“lxml-xml”]) BeautifulSoup(markup, “xml”) 速度快
唯一支持XML的解析器
html5lib BeautifulSoup(markup, “html5lib”) 最好的容错性
以浏览器的方式解析文档
生成HTML5格式的文档

对象种类

  • Tag

    soup = BeautifulSoup('Extremely bold')
    tag = soup.b
    type(tag)
    # 
    
  • Name

    tag.name
    # 'b'
    
  • attrs

    tag.attrs
    # {u'class': u'boldest'}
    
  • NavigableString

    tag.string
    #Extremely bold
    
  • 搜索文档树

    html_doc = """
    <html><head><title>The Dormouse's storytitle>head>
    <body>
    <p class="title"><b>The Dormouse's storyb>p>
    
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1">Elsiea>,
    <a href="http://example.com/lacie" class="sister" id="link2">Laciea> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tilliea>;
    and they lived at the bottom of a well.p>
    
    <p class="story">...p>
    """
    
    from bs4 import BeautifulSoup
    soup = BeautifulSoup(html_doc, 'html.parser')
    
    • find_all(name, attrs, recursive, text, **kwargs)

      • 字符串

        soup.find_all('b')
        # [The Dormouse's story]
        
      • 正则

        import re
        for tag in soup.find_all(re.compile("^b")):
            print(tag.name)
        # body
        # b
        
      • 列表

        soup.find_all(["a", "b"])
        # [The Dormouse's story,
        #  Elsie,
        #  Lacie,
        #  Tillie]
        
      • 关键字

        soup.find_all(id='link2')
        # [Lacie]
        soup.find_all(href=re.compile("elsie"))
        # [Elsie]
        
      • 按CSS搜索

        soup.find_all("a", class_="sister")
        # [Elsie,
        #  Lacie,
        #  Tillie]
        
  • CSS选择器

    soup.select("title")
    # [The Dormouse's story]
    
    soup.select("p nth-of-type(3)")
    # [

    ...

    ]
    • 通过tag标签逐层查找

      soup.select("body a")
      # [Elsie,
      #  Lacie,
      #  Tillie]
      
      soup.select("html head title")
      # [The Dormouse's story]
      
    • 找到某个tag标签下的直接子标签

      soup.select("head > title")
      # [The Dormouse's story]
      
      soup.select("p > a")
      # [Elsie,
      #  Lacie,
      #  Tillie]
      
      soup.select("p > a:nth-of-type(2)")
      # [Lacie]
      
      soup.select("p > #link1")
      # [Elsie]
      
      soup.select("body > a")
      # []
      
    • 找到兄弟节点标签:

      soup.select("#link1 ~ .sister")
      # [Lacie,
      #  Tillie]
      
      soup.select("#link1 + .sister")
      # [Lacie]
      
    • 通过CSS的类名查找

      soup.select(".sister")
      # [Elsie,
      #  Lacie,
      #  Tillie]
      
      soup.select("[class~=sister]")
      # [Elsie,
      #  Lacie,
      #  Tillie]
      
    • 通过tag的id查找:

      soup.select("#link1")
      # [Elsie]
      
      soup.select("a#link2")
      # [Lacie]
      
    • 同时用多种CSS选择器查询元素:

      soup.select("#link1,#link2")
      # [Elsie,
      #  Lacie]
      
    • 通过是否存在某个属性来查找:

      soup.select('a[href]')
      # [Elsie,
      #  Lacie,
      #  Tillie]
      
    • 通过属性的值来查找:

      soup.select('a[href="http://example.com/elsie"]')
      # [Elsie]
      
      soup.select('a[href^="http://example.com/"]')
      # [Elsie,
      #  Lacie,
      #  Tillie]
      
      soup.select('a[href$="tillie"]')
      # [Tillie]
      
      soup.select('a[href*=".com/el"]')
      # [Elsie]
      

    • 返回查找到的元素的第一个

      soup.select_one(".sister")
      # Elsie
      

你可能感兴趣的:(爬虫,爬虫)