一些网友偶尔心血来潮,想刷新网页访问量,最近我尝试着编写实现了该功能。
该功能需要两个文件如下:
文件名 | 文件功能说明 |
---|---|
fresh.py | 实现刷新网页功能,从url_list.txt文件中读取需要刷新的url列表,并进行随机访问。 |
url_list.txt | 保存了需要访问的url的列表,每行为一个网页路径。 |
fresh.py文件的类及说明如下:
类名 | 类说明 |
---|---|
|
从url_list.txt文件中获取url列表 |
|
从总的url的路径列表中随机取出几个url路径,默认是获取5个url路径。 |
|
访问url的主函数。 |
fresh.py文件的代码如下:
import webbrowser
import time,os
import random
def open_url():
num = 1
while num <= 1500:
print("open count:", num)
num += 1
blog_addrs = get_radom_lsit(get_blog_lsit_from_file())
print("blog_addrs size:", len(blog_addrs))
for blog_addr in blog_addrs:
webbrowser.open(blog_addr, 0, False)
time.sleep(random.randint(1, 5))
time.sleep(10)
os.system('taskkill /F /IM 360se.exe')
return
def get_blog_lsit_from_file():
blog_addr = []
f = open("url_list.txt", "r")
for line in f:
if "#" not in line:
blog_addr.append(line)
f.close()
return blog_addr
def get_radom_lsit(blog_addrs, size = 5):
sel_blog_addrs = []
for i in range(size):
index = random.randint(0, 10000) % len(blog_addrs)
print(index)
blog_addr = blog_addrs[index]
if blog_addr not in sel_blog_addrs:
sel_blog_addrs.append(blog_addrs[index])
return sel_blog_addrs
open_url()
如果您喜欢这篇文章,请别忘了点赞和评论哦!