Python面试题之爬虫(selenium)

知识点:
  • 整理 爬虫面试题

  • 添加 爬虫的代码

  • 加深 爬虫的理解

  • 版本 python3.6


1. 谈一谈你对Selenium和PhantomJS了解

  • Selenium是一个Web的自动化测试工具,可以根据我们的指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏,或者判断网站上某些动作是否发生
  • Selenium 自己不带浏览器,不支持浏览器的功能,它需要与第三方浏览器结合在一起才能使用。但是我们有时候需要让它内嵌在代码中运行,所以我们可以用一个叫 PhantomJS 的工具代替真实的浏览器
  • Selenium 库里有个叫 WebDriver 的 API。WebDriver 有点儿像可以加载网站的浏览器,但是它也可以像 BeautifulSoup 或者其他Selector 对象一样用来查找页面元素,与页面上的元素进行交互 (发送文本、点击等),以及执行其他动作来运行网络爬虫。
  • PhantomJS 是一个基于Webkit的“无界面”(headless)浏览器,它会把网站加载到内存并执行页面上的 JavaScript,因为不会展示图形界面,所以运行起来比完整的浏览器要高效。
  • PhantomJS 爬数据比较慢,可以选择多线程。如果运行的时候发现有的可以运行,有的不能,可以尝试将 phantomJS 改成 Chrome。

如果我们把 Selenium 和 PhantomJS 结合在一起,就可以运行一个非常强大的网络爬虫了,这个爬虫可以处理 JavaScript、Cookie、headers,以及任何我们真实用户需要做的事情。


2. selenium提取数据

在使用selenium过程中,实例化driver对象后,driver对象有一些常用的属性和方法

  • driver.page_source 当前标签页浏览器渲染之后的网页源代码
  • driver.current_url 当前标签页的url
  • driver.close() 关闭当前标签页,如果只有一个标签页则关闭整个浏览器
  • driver.quit() 关闭浏览器
  • driver.forward() 页面前进
  • driver.back() 页面后退
  • driver.screen_shot(img_name) 页面截图

3.driver对象定位标签元素获取标签对象的方法

在selenium中可以通过多种方式来定位标签,返回标签元素对象

  • find_element_by_id (返回一个元素)
  • find_element(s)_by_class_name (根据类名获取元素列表)
  • find_element(s)_by_name (根据标签的name属性值返回包含标签对象元素的列表)
  • find_element(s)_by_xpath (返回一个包含元素的列表)
  • find_element(s)_by_link_text (根据连接文本获取元素列表)
  • find_element(s)_by_partial_link_text (根据链接包含的文本获取元素列表)
  • find_element(s)_by_tag_name (根据标签名获取元素列表)
  • find_element(s)_by_css_selector (根据css选择器来获取元素列表)

4.标签对象提取文本内容和属性值

find_element仅仅能够获取元素,不能够直接获取其中的数据,如果需要获取数据需要使用以下方法

  • 对元素执行点击操作element.click()
    • 对定位到的标签对象进行点击操作
  • 向输入框输入数据element.send_keys(data)
    • 对定位到的标签对象输入数据
  • 获取文本element.text
    • 通过定位获取的标签对象的text属性,获取文本内容
  • 获取属性值element.get_attribute(“属性名”)
    • 通过定位获取的标签对象的get_attribute函数,传入属性名,来获取属性的值

Selenium和PhantomJS可以解决大部分并且简单的反爬措施,但是说到底,它只是个工具,能力是有限的,一个好爬虫是真真实实的模拟浏览器访问服务器,那要真实的话,就是不会绕过反爬措施,而是直面面对并且破解,下一篇讲一下反爬和反反爬的博弈以及面试问题,未完待续…

你可能感兴趣的:(Python面试题之爬虫(selenium))