分享88个ASP其他类别源码,总有一款适合您

分享88个ASP其他类别源码,总有一款适合您
 

88个ASP其他类别源码下载链接:https://pan.baidu.com/s/15Hx5mKAqhabvmdKij4C-3g?pwd=xgrp 
提取码:xgrp

Python采集代码下载链接:采集代码.zip - 蓝奏云

我的博客地址:亚丁号-知识付费平台 支付后可见 扫码付费可见

分享88个ASP其他类别源码,总有一款适合您_第1张图片

 

CNNIC删除域名PR值批量检测 V1.0

FckEditor远程图片自动保存插件 For ASP Z-Blog

百度地图加速器

在线代理服务器程序

温州天邦简易ERP企业管理系统

网站RSS订阅功能插件RSSMaker ASP版 V1.2

WapClass V1.1 带WAP网站源码

动易系统的论坛转贴工具

AdamDTS 阿当缺陷跟踪系统 V0.2.1

阿彪版Ewebeditor带后台带水印功能

2008届大学生清爽无错版个人求职主页(上海论文热线真情奉献)

开运金钱卦算命系统

新浪博客HtmlEditor(OFFICE2007风格)在线编辑器

追米网在线投稿系统

ASP+FSO可视化目录编历

空间奸商查询系统

深度学习拼字游戏 V0.0.1

Zeroone V3.5 Sp1(个人版)

根据不同浏览器转跳到中文还是英文域名 V1.0

我要算命网-免费八字算命

无刷新Ajax文章评论系统

网监展示代码

贺喜多途径支付接口 V2.3(ASP)

Access数据库在线管理程序 汉化版

ASP木马在线查杀工具

旗子网教师节祝福页

周公解梦整站生成HTML搜索引擎版

雷客图ASP站长安全助手 V1.6 SP2

好度工作室V2.0

网络硬盘

动网论坛插件大集合

萍萍多用户简历系统 V1.0

动态显示服务器系统时间 V1.2

英语四级听力测试系统V1.0

后台IP限制系统 V2.0

恶搞高考

import os
import shutil

import requests
from bs4 import BeautifulSoup

from framework.base.BaseFrame import BaseFrame
from sprider.access.SpriderAccess import SpriderAccess
from sprider.plugin.SpriderTools import SpriderTools
from sprider.plugin.UserAgent import UserAgent


class CNSourceCoder:
    base_url = "http://www.downcode.com"

    max_pager = 10  # 每页的数量 影响再次采集的起始位置.
    word_image_count = 5  # word插入图片数量 同时也是明细采集图片和描述的数量

    page_end_number = 0
    word_content_list = []
    haved_sprider_count = 0  # 已经采集的数量
    sprider_detail_index = 0  # 明细方法采集的数量 累加

Web Admin System(网站后台管理系统)ASP版 V1.0.4

飞鸟Asp生成Htm插件 V1.2

蓝木省市县三级联动菜单 V1.0

EditONE免提交式在线编辑器 V1.4RC Buld 070516 简体中文版

Ajax城市、城镇联动下拉列表框 V1.0

INSERT INTO 示例 V1.0

Ajax多级联动菜单示例

ASP多功能翻页函数 V2.0

风行网络Qzone互踩系统 V1.0 Build 20070423

亿人导航栏 V3.0

北京公交车查询系统(711修正版2007.5)

在线算命系统

迅捷探针 V1.0

北京2008年奥运会倒计时

IP互刷平台 V2.0

在线DIV+CSS编辑器

魅力同学录2007Build0325

魅力在线邮局登陆入口1.0

在线翻译+即划即译

无忧网络官方站点程序(水浒Q传)

无忧网络官方站点程序(武林外传版)

千斤顶Digg站开源系统 V1.0

无忧网游官方站点程序(天龙八部之天贼)

易信网ASP探针 V2.0

中国旅游网址导航_金秋版

NowTime纪念日系统 V1.0 单用户SQL版

ASP简单个人、企业网站全站 V2.0 Beta(含Ajax版)

服务器时间程序 V1.1

龙族娱乐网文件压缩解包程序

无忧网络官方站点程序(跑跑卡丁车)

Mfkiqpl旅游线路预订程序 V4.7

浪无影ASP树型菜单源码 V2.01 小爱修改版

密码强弱度检测万能插件

SQL通用防注入程序 V3.1 最终纪念版

通行接口程序(PIS) V1.0

尘封防SQL注入 V1.0

限制IP段访问的Asp程序

最新刷Alexa简洁版本

春浪考试系统 V3.68

米儿实用查询1.0

Apple‘S Blog 2006

分享88个ASP其他类别源码,总有一款适合您_第2张图片

平民影院格子流量程序(原平民创业网)

晴软在线定餐系统V1.2

中国商务SP短信联盟程序


    def sprider(self,sprider_name,sprider_count,start_number,
                pager_number,sprider_type,is_show_browse,root_path,
                first_column_name,second_column_name,is_record_db):
        """
        http://www.downcode.com/sort/j_1_2_1.shtml
        :param sprider_name:
        :return:
        """
        self.first_folder_name=sprider_type.upper()
        self.base_path=root_path
        self.first_column_name = first_column_name
        self.second_column_name = second_column_name
        self.sprider_start_count=start_number
        self.is_record_db=is_record_db
        BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...")
        BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "")
        BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "")
        sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL
        BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url)

        self.second_folder_name = str(sprider_count) + "个" + sprider_name  # 二级目录也是wordTitle
        self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1  # 起始页码用于效率采集
        self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name
        BaseFrame().right("本次采集参数:file_path=" + self.file_path + "")
        # 浏览器的下载路径
        self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\"
        BaseFrame().right("本次采集参数:down_path=" + self.down_path + "")
        # First/PPT/88个动态PPT模板/动态PPT模板
        self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name
        BaseFrame().right("本次采集参数:save_path=" + self.save_path + "")


        if os.path.exists(self.down_path) is True:
            shutil.rmtree(self.down_path)
        if os.path.exists(self.down_path) is False:
            os.makedirs(self.down_path)

        if os.path.exists(self.save_path) is True:
            shutil.rmtree(self.save_path)
        if os.path.exists(self.save_path) is False:
            os.makedirs(self.save_path)
        response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
        response.encoding = 'gb2312'
        soup = BeautifulSoup(response.text, "html5lib")
        #print(soup)
        element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
        page_end_number = 1
        page_end_url = ""
        page_end_title = soup.find("a", attrs={"title": '最后页'})
        page_end_url = page_end_title.get("href")
        if page_end_url is None or page_end_url == "":
            page_end_number = 1
        else:
            page_end_number = (page_end_url.split(".shtml")[0].split("_")[3])

        self.page_count = self.merchant

        while self.page_count <= int(page_end_number):  # 翻完停止
            try:
                if self.page_count == 1:
                    self.sprider_detail(element_list, page_end_number,sprider_count)
                    pass
                else:
                    if int(self.haved_sprider_count) == int(sprider_count):
                        BaseFrame().debug("sprider采集到达数量采集停止...")
                        BaseFrame().debug("开始写文章...")
                        SpriderTools.builder_word(self.second_folder_name,
                                                  self.word_content_list,
                                                  self.file_path,
                                                  self.word_image_count,
                                                  self.first_folder_name)
                        SpriderTools.copy_file(self.word_content_list,
                                               self.save_path,
                                               self.second_folder_name,
                                               self.file_path)
                        SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path)
                        BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
                        break
                    next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name,
                                                                           self.second_column_name,
                                                                           self.page_count)

                    response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                    response.encoding = 'gb2312'
                    soup = BeautifulSoup(response.text, "html5lib")
                    element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
                    self.sprider_detail(element_list, page_end_number,sprider_count)
                    pass
                self.page_count = self.page_count + 1  # 页码增加1
            except Exception as e:
                BaseFrame().error("sprider()执行过程出现错误:" + str(e))

WEWILL(X’Reader) RSS 阅读器 V1.03 Beta

开心网址3in1(网址,贴吧,网摘)

QQ预测程序

手机财务管理WEB版

小哥礼佛(佛音版)-网上礼佛程序

查杀ASP木马

千度周公解梦美化版V1.0

公司成品网站

分享88个ASP其他类别源码,总有一款适合您_第3张图片

最后送大家一首诗:

山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。

你可能感兴趣的:(前端)