情景介绍
在使用搜索引擎的时候,除非目的非常明确,我都会用鼠标中键连续在新选项卡中打开好几个页面,然后再逐一查看。本文编写 Python 脚本,使得这个过程自动化。也就是,给定搜索关键词进行百度搜索,挑出搜索结果的前 5 条,然后在浏览器中打开它们。
Python 知识点
WebBrowser、Requests、BeautifulSoup 模块的基本操作。
概述
首先梳理程序要执行的步骤。
从参数列表中获取关键词;
进行百度搜索并下载搜索页面;
得到前 5 个搜索结果的链接;
在浏览器中打开这些连接。
在开始编写代码之前,确保已经安装必需的库:webbrowser、requests、bs4。本文代码测试环境为 Windows 上的 Python 3.7.0。
本文地址:https://www.jeddd.com/article/python-search-and-auto-open.html
获取关键词
要从参数列表中获取内容,要用到 sys.argv。由于搜索的关键词可能由多个单词组成,因此要用空格连接它们成为一个长字符串。代码如下:
import sys, webbrowser, requests, bs4
keywords = ‘%20’.join(sys.argv[1:])
注意:%20 是空格的 URL 编码。以上代码使用空格连接第 2 个(下标为 1)到最后一个参数,并保存在变量 keywords 中。
下载搜索页面
构造搜索 URL
百度搜索的 URL 格式为 https://www.baidu.com/s?wd=<关键词>,只需将其与 keywords 变量连接就好了。
伪装 User-Agent
百度会拒绝 Python requests 库直接发起的请求,并返回一个跳转页面。因此我们必须将 UA 伪装成一个普通用户的浏览器,用下面这个 Chrome 的 UA 就可以了:
Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.84 Safari/537.36
下载页面
使用 requests 库,用上面伪装的 UA 向构造好的百度搜索 URL 发起 get 请求就可以下载得到搜索页面了。代码如下:
import sys, webbrowser, requests, bs4
keywords = ‘%20’.join(sys.argv[1:])
fakeua = {“User-Agent”: “Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.84 Safari/537.36”}
searchPage = requests.get(‘https://www.baidu.com/s?wd=’ + keywords, headers = fakeua)
searchPage.raise_for_status() # 如果失败就抛出异常
得到结果链接
要用 BeautifulSoup 选择搜索页面上的结果链接,必须知道百度搜索结果链接的格式,这就要用到浏览器的开发者工具了。
用百度搜索任意内容,并在一条结果上点击右键并点击【检查】(不同浏览器略有不同,此处以 Chrome 为例),观察到百度搜索结果的链接都是
你不需要知道 t 类是什么意思,只需要将它作为一个标记,查找我们需要的 元素即可。
好的,现在我们知道了想要的链接位于 t 类内的 标签,其 href 属性就是最后要打开的页面链接!
这部分的代码如下:
import sys, webbrowser, requests, bs4
keywords = ‘%20’.join(sys.argv[1:])
fakeua = {“User-Agent”: “Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.84 Safari/537.36”}
searchPage = requests.get(‘https://www.baidu.com/s?wd=’ + keywords, headers = fakeua)
searchPage.raise_for_status() # 如果失败就抛出异常
searchSoup = bs4.BeautifulSoup(searchPage.text, features=“html.parser”)
elements = searchSoup.select(’.t a’)
在浏览器中打开
接下来要找到前 5 个搜索结果的链接,并在浏览器中打开它们。当然,如果你输入的关键词过于生僻,以至于搜索结果不到 5 个,那么就应该取搜索结果的数量。综上,要打开的页面数为 5 和结果总数的最小值。
在上一步中,我们已经找到了搜索结果的 标签,而 标签的 href 属性的值就是要打开的链接。(由于百度做了混淆,这并不是原始链接,不过没关系,会正常跳转的,不影响打开页面)
在一个循环中依次调用 webbrowser 的 open 方法即可在系统默认浏览器中打开这些链接。最终完整代码如下:
import sys, webbrowser, requests, bs4
keywords = ‘%20’.join(sys.argv[1:])
fakeua = {“User-Agent”: “Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.84 Safari/537.36”}
searchPage = requests.get(‘https://www.baidu.com/s?wd=’ + keywords, headers = fakeua)
searchPage.raise_for_status() # 如果失败就抛出异常
searchSoup = bs4.BeautifulSoup(searchPage.text, features=“html.parser”)
elements = searchSoup.select(’.t a’)
for i in range(min(5, len(elements))):
webbrowser.open(elements[i].get(‘href’))
本文地址:https://www.jeddd.com/article/python-search-and-auto-open.html
代码测试
将上述代码保存为 search.py,然后打开命令行,执行:
python search.py linux git
该脚本以 “linux git” 为关键词在百度搜索,取得前 5 个搜索结果,然后在浏览器中打开它们。成功!