分享70个ASP其他类别源码,总有一款适合您
70个ASP其他类别源码下载链接:https://pan.baidu.com/s/12cEMJHKF6AaTO2GW3FTezA?pwd=5wcw
提取码:5wcw
Python采集代码下载链接:采集代码.zip - 蓝奏云
我的博客地址:亚丁号-知识付费平台 支付后可见 扫码付费可见
import os
import shutil
import requests
from bs4 import BeautifulSoup
from framework.base.BaseFrame import BaseFrame
from sprider.access.SpriderAccess import SpriderAccess
from sprider.plugin.SpriderTools import SpriderTools
from sprider.plugin.UserAgent import UserAgent
class CNSourceCoder:
base_url = "http://www.downcode.com"
max_pager = 10 # 每页的数量 影响再次采集的起始位置.
word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量
page_end_number = 0
word_content_list = []
haved_sprider_count = 0 # 已经采集的数量
sprider_detail_index = 0 # 明细方法采集的数量 累加
批量替换采集文章同义词ACCESS版 V1.0
壹网分类目录 V2.0
综合型占卜网源码
网赚型广告任务网程序源码 V3.0
Asp网址路径跳转辅助小程序 V1.0
财付通网银直连快捷支付 V3.0
NFL.Asia小蜗牛404错误系统
CVASP框架 201204C
实用淘宝客程序 V2.8
腾讯QQ登录SDK(ASP) V1.0
愚人节和清明节联合整蛊代码
手机号码归属地查询 V2.0
清明网上祭奠个人用户版 V2.0
捷易通官方推广网站源码 V8.8
动网Dvbbs8.3手机Wap插件
小钱袋子记帐系统 V1.1
HHYY分页类(原印象分页类) V2.0 最终版
星外对接DNSPOD接口完整代码(ASP) V1.1
521YY公交地图导航系统 V1.1
畅无忧代码收藏夹 V1.0
长春阳光妇科医院会员注册系统 1.0
科讯Cms前台设计人员必备之标签便捷选择插件 V1.0
马克思采集插件 V4.0
淘宝开店模拟考试系统 V1.0
搜服发布网系统 V7.1 (带采集)
ASP问题验证 V1.0
网钛ASP版QQ登录与新浪微博登录插件 V1.0
自动SEO(超强版) V1.1
AJAX简单分类程序 V1.0
高仿百度知乎问答系统
玉林电信分类信息 V0.01
姓名配对爱情整人源码
域名备案批量查询核心代码 V1.0
快递窝快递查询源码 2011
TinyMCE V3.4.3.1 网鸟优化版
嵌入式小型订单程序 V2.0
OASK问答系统免费版 V2.01
极瑞材料管理系统演示版 V1.0
QQ群免费发布系统 V4.1正式版
马克斯CMS (Maxcms)最新资源采集插件 V2.0.0
七喜在线QQ客服插件 V1.9
ASP版Qq登录插件 1.0
腾讯微博同步SDK(ASP支持图片同步 ) V1.1
淘宝在线代码生成工具源码 V1.0
新浪微博ASP-SDK V1.0
天气预报查询 V3.0
商奇主机评测系统商业版 V2.1 SP1
71516日历万年历黄历 V1.1
预防机器人的ASP类 V2.0
Wap版谷歌PR查询系统 V1.0
医院网上预约系统 V1.0
阿赛礼品发放查询EXCEL数据库系统
铁岭分类信息系统(Tlxxmps) V2.0.20110224
ASP 防恶意注册引擎(ValidateClass) V1.2
封开便民新华字典美化版 V1.0
歪歪网络在线Wap浏览器 V1.0
电子报主页程序
Wap观音灵签抽签算命 V1.0
百变美女小程序 V1.0
笔记本淘客单页程序
短信群发纳6网API接口Asp版
25175 在线小工具 V2.0.4
中国短信商务网短信平台API接口 V1.0
ASP分页类 V1.1
日历城市选择控件 V1.0
仿A5网站的财付通+网银多功能支付系统 V1.0
XhEditor编辑器 V1.1.2
ALEXA查询程序哥哥网啦版 V1.0
蓝海SEO网站优化系统 V1.0
验证通2010示例 Asp版 V3.0
def sprider(self,sprider_name,sprider_count,start_number,
pager_number,sprider_type,is_show_browse,root_path,
first_column_name,second_column_name,is_record_db):
"""
http://www.downcode.com/sort/j_1_2_1.shtml
:param sprider_name:
:return:
"""
self.first_folder_name=sprider_type.upper()
self.base_path=root_path
self.first_column_name = first_column_name
self.second_column_name = second_column_name
self.sprider_start_count=start_number
self.is_record_db=is_record_db
BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...")
BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "")
BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "")
sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL
BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url)
self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle
self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集
self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name
BaseFrame().right("本次采集参数:file_path=" + self.file_path + "")
# 浏览器的下载路径
self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\"
BaseFrame().right("本次采集参数:down_path=" + self.down_path + "")
# First/PPT/88个动态PPT模板/动态PPT模板
self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name
BaseFrame().right("本次采集参数:save_path=" + self.save_path + "")
if os.path.exists(self.down_path) is True:
shutil.rmtree(self.down_path)
if os.path.exists(self.down_path) is False:
os.makedirs(self.down_path)
if os.path.exists(self.save_path) is True:
shutil.rmtree(self.save_path)
if os.path.exists(self.save_path) is False:
os.makedirs(self.save_path)
response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
#print(soup)
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
page_end_number = 1
page_end_url = ""
page_end_title = soup.find("a", attrs={"title": '最后页'})
page_end_url = page_end_title.get("href")
if page_end_url is None or page_end_url == "":
page_end_number = 1
else:
page_end_number = (page_end_url.split(".shtml")[0].split("_")[3])
self.page_count = self.merchant
while self.page_count <= int(page_end_number): # 翻完停止
try:
if self.page_count == 1:
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
else:
if int(self.haved_sprider_count) == int(sprider_count):
BaseFrame().debug("sprider采集到达数量采集停止...")
BaseFrame().debug("开始写文章...")
SpriderTools.builder_word(self.second_folder_name,
self.word_content_list,
self.file_path,
self.word_image_count,
self.first_folder_name)
SpriderTools.copy_file(self.word_content_list,
self.save_path,
self.second_folder_name,
self.file_path)
SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
break
next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name,
self.second_column_name,
self.page_count)
response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
self.page_count = self.page_count + 1 # 页码增加1
except Exception as e:
BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。