第十一章 从Web抓取信息 笔记

webbrowser
     用浏览器打开网址,这是它唯一能做的事,webbrowser.open()
requests模块
     用来从web下载,功能和urllib2差不多
     requests.get()下载网页,返回一个Response对象
     要保存内容到本地,要用“写二进制”模式打开文件,即,向open()方法传入wb参数而非w
在for循环中调用Response对象的iter_content()方法,参数是包含字节的数据,每次迭代中调用
write将内容写入本地文件

BeautifulSoup模块
     用来解析HTML文件,比正则好用
  1. 创建BeautifulSoup对象,用bs4.BeautifulSoup()方法,参数是要解析的HTML的字符串,
  2. 也可以向bs4.BeautifulSoup()传入一个本地的HTML文件
  3. select()方法寻找
  4. select()方法返回一个Tag对象,Tag有attrs属性和getText()属性
  5. 对Tag对象用get()方法可以得到属性的值,参数是属性的名称

selenium模块
     可以用于模拟浏览器操作,导入要用from selenium import webdriver,首先创建browser对象,用webdriver.Firefox()打开火狐浏览器,browser.get()打开一个网址
用这些方法来查找WebElement,WebElement的click()方法模拟点击该元素,send_keys()方法模拟输入

还有四种浏览器按钮,返回,刷新,前进,关闭窗口,分别用browse.back/forward/refresh/quit
更多用法参见文档 http://selenium-python.readthedocs.org/

你可能感兴趣的:(Python)