分享76个ASP其他类别源码,总有一款适合您
76个ASP其他类别源码下载链接:百度网盘 请输入提取码
提取码:sukm
Python采集代码下载链接:采集代码.zip - 蓝奏云
我的博客地址:亚丁号-知识付费平台 支付后可见 扫码付费可见
import os
import shutil
import requests
from bs4 import BeautifulSoup
from framework.base.BaseFrame import BaseFrame
from sprider.access.SpriderAccess import SpriderAccess
from sprider.plugin.SpriderTools import SpriderTools
from sprider.plugin.UserAgent import UserAgent
class CNSourceCoder:
base_url = "http://www.downcode.com"
max_pager = 10 # 每页的数量 影响再次采集的起始位置.
word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量
page_end_number = 0
word_content_list = []
haved_sprider_count = 0 # 已经采集的数量
sprider_detail_index = 0 # 明细方法采集的数量 累加
蓝海SEO网站优化系统 V1.0
验证通2010示例 Asp版 V3.0
点创IP地址查询工具(MSsql版) Build 101201
中国友情链接网历史上的今天美化版 V1.0
71516网址导航天气预报系统 V2.1
社区上门医疗服务系统源码
Wap网页模拟器 V1.0
今日星座运势查询 V1.0
ZL在线刷PV V1.2
狂踩手机乐讯网空间系统 V1.0
实现电脑访问Wap网站的插件 V1.0
身份证号码真伪识别工具 V1.0.0
ASP木马扫描器 2010
明网WEB短信平台Mingnet V1.0
喜木天气预报查询系统
QQ群免费发布系统 V3.1
在线订购程序Asp 完整版
十三经查询 V1.0
同程网酒店预订程序 V4.0
一起发广告任务网站源码
结业证书查询系统2010 V1.0
QQ秀展示系统 V1.0 Beta
QQ魔卡在线计算器 V1.0
天气预报查询 V2.0
腾讯天气预报调用代码
糯米网产品展示效果制作
冰海孤岛家庭消费账单系统 V1.0
糯米网产品展示效果制作
星宇在线WAP建站系统 V2.1.2
关键词加红可关闭带滚条的自动提示例子
住哪网手机版Wap酒店预订源码 V1.0
基于网络的考试管理系统 Build 2010.6
网页斗地主 V1.2
QQ空间代码在线克隆1.0版
GuardianGenius(守护精灵)网站安全必备巅峰之作[ASP+PHP] 最终版
Qqnc.Cc域名WHOIS查询系统 V1.0
九大搜索引擎收录与反向链接查询源码 V2.0
单文件网页特效管理系统
网友聚会报名系统V1.0
AspMvc框架 V2.0 Demo
仿凡客诚品(Vancl)商品图片放大效果
很搞笑很温馨的404页面代码
商付通支付平台API接口带演示
嘉缘人才ASP终结版 V7.0
精致Wap模拟器 V1.0
清水阁原创利用XMLHttp实现Asp生成HTML静态文件(带生成进度条) V1.0
九酷网络Serv-U 用户在线注册管理程序 V2.2
暗影个人主页
ASP实现生成网页输出Word文件
代码收藏夹 V1.0
笑话大全源码 V1.0
快递查询源码完整版(分页可插广告)
方舟Wap无线互联网站系统(3G版) 1.0 试用版
乐彼防恶意点击程序(百度竞价排名防恶意点击程序) V2.0
简单信息加密的Asp信息管理系统 V1.0
雨哲记录搜索蜘蛛日志 Build 20100204
环保时代家庭财务管理系统Eptimehome(Sql版) V2.0
逸诚科技站长查询工具 V1.0 (无广告绿色版)
谷歌近日收录查询系统 V1.0
九州指数平台 V2.2
网页右侧QQ在线客服
百度今日收录查询系统 V1.0
环保时代家庭财务管理系统EPffms V1.0
烟雨简易Asp组件 V1.0.0.1
寒羽枫Javascript日历控件
非法关键字过滤管理系统 V1.0
ASP生成Html静态网页文件 V1.1
521yy实用查询大全 V2.1
因特达物流CRM 2009.12.14
学生在线报名系统V1.0
2009圣诞节祝福网页 V1.0
GuardianGenius(守护精灵) 正式版
同程酒店联盟动态程序 V2.0
同程酒店联盟伪静态程序 V2.0
ASP生成静态页面进度条系统
JavaScript 多级联动浮动菜单 (第二版)
def sprider(self,sprider_name,sprider_count,start_number,
pager_number,sprider_type,is_show_browse,root_path,
first_column_name,second_column_name,is_record_db):
"""
http://www.downcode.com/sort/j_1_2_1.shtml
:param sprider_name:
:return:
"""
self.first_folder_name=sprider_type.upper()
self.base_path=root_path
self.first_column_name = first_column_name
self.second_column_name = second_column_name
self.sprider_start_count=start_number
self.is_record_db=is_record_db
BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...")
BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "")
BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "")
sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL
BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url)
self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle
self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集
self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name
BaseFrame().right("本次采集参数:file_path=" + self.file_path + "")
# 浏览器的下载路径
self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\"
BaseFrame().right("本次采集参数:down_path=" + self.down_path + "")
# First/PPT/88个动态PPT模板/动态PPT模板
self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name
BaseFrame().right("本次采集参数:save_path=" + self.save_path + "")
if os.path.exists(self.down_path) is True:
shutil.rmtree(self.down_path)
if os.path.exists(self.down_path) is False:
os.makedirs(self.down_path)
if os.path.exists(self.save_path) is True:
shutil.rmtree(self.save_path)
if os.path.exists(self.save_path) is False:
os.makedirs(self.save_path)
response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
#print(soup)
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
page_end_number = 1
page_end_url = ""
page_end_title = soup.find("a", attrs={"title": '最后页'})
page_end_url = page_end_title.get("href")
if page_end_url is None or page_end_url == "":
page_end_number = 1
else:
page_end_number = (page_end_url.split(".shtml")[0].split("_")[3])
self.page_count = self.merchant
while self.page_count <= int(page_end_number): # 翻完停止
try:
if self.page_count == 1:
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
else:
if int(self.haved_sprider_count) == int(sprider_count):
BaseFrame().debug("sprider采集到达数量采集停止...")
BaseFrame().debug("开始写文章...")
SpriderTools.builder_word(self.second_folder_name,
self.word_content_list,
self.file_path,
self.word_image_count,
self.first_folder_name)
SpriderTools.copy_file(self.word_content_list,
self.save_path,
self.second_folder_name,
self.file_path)
SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
break
next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name,
self.second_column_name,
self.page_count)
response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
self.page_count = self.page_count + 1 # 页码增加1
except Exception as e:
BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。