分享86个NET源码,总有一款适合您
链接:https://pan.baidu.com/s/1JOY-9pJIM7sUhafxupMaZw?pwd=fs2y
提取码:fs2y
下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,大家下载后可以看到。
import os
from time import sleep
import requests
from bs4 import BeautifulSoup
from docx import Document
from docx.shared import Inches
from framework.access.sprider.SpriderAccess import SpriderAccess
from framework.base.BaseFrame import BaseFrame
from framework.pulgin.Tools import Tools
from sprider.business.DownLoad import DownLoad
from sprider.model.SpriderEntity import SpriderEntity
from sprider.business.SpriderTools import SpriderTools
from sprider.business.UserAgent import UserAgent
class ChinaZCode:
page_count = 1 # 每个栏目开始业务content="text/html; charset=gb2312"
base_url = "https://down.chinaz.com" # 采集的网址 https://sc.chinaz.com/tag_ppt/zhongguofeng.html
save_path = "D:\\Freedom\\Sprider\\ChinaZ\\"
sprider_count = 99 # 采集数量
word_content_list = []
folder_name = ""
first_column_name = "NET"
sprider_start_count=488 #已经采集完成第136个 debug
max_pager=16 #每页的数量
haved_sprider_count = 0 #
# 如果解压提升密码错误 ,烦请去掉空格。如果还是不行烦请下载WinRAR
# https: // www.yadinghao.com / file / 393740984E6754
# D18635BF2DF0749D87.html
# 此压缩文件采用WinRAR压缩。
# 此WinRAR是破解版。
def __init__(self):
#A5AndroidCoder().sprider("android", "youxi", 895) #
pass
def sprider(self, title_name="Go"):
"""
采集 https://down.chinaz.com/class/572_5_1.htm
NET https://down.chinaz.com/class/572_4_1.htm
:return:
"""
if title_name == "PHP":
self.folder_name = "PHP源码"
self.second_column_name = "572_5"
elif title_name == "Go":
self.folder_name = "Go源码"
self.second_column_name = "606_572"
elif title_name == "NET":
self.folder_name = "NET源码"
self.second_column_name = "572_4"
first_column_name=title_name
merchant = int(self.sprider_start_count) // int(self.max_pager) + 1
second_folder_name = str(self.sprider_count) + "个" + self.folder_name
self.save_path = self.save_path+ os.sep + "Code" + os.sep+first_column_name+os.sep + second_folder_name
print("开始采集ChinaZCode"+self.folder_name+"...")
sprider_url = (self.base_url + "/class/{0}_1.htm".format(self.second_column_name))
#print(sprider_url)
#sprider_url = (self.base_url + "/" + self.first_column_name + "/" + second_column_name + ".html")
response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'UTF-8'
soup = BeautifulSoup(response.text, "html5lib")
#print(soup)
div_list =soup.find('div', attrs={"class": 'main'})
div_list=div_list.find_all('div', attrs={"class": 'item'})
#print(div_list)
laster_pager_ul = soup.find('ul', attrs={"class": 'el-pager'})
laster_pager_li = laster_pager_ul.find_all('li', attrs={"class": 'number'})
laster_pager_url = laster_pager_li[len(laster_pager_li)-1]
#89
page_end_number = int(laster_pager_url.string)
#print(page_end_number)
self.page_count = merchant
while self.page_count <= int(page_end_number): # 翻完停止
try:
if self.page_count == 1:
self.sprider_detail(div_list,self.page_count,page_end_number)
else:
if self.haved_sprider_count == self.sprider_count:
BaseFrame().debug("采集到达数量采集停止...")
BaseFrame().debug("开始写文章...")
self.builder_word(self.folder_name, self.save_path, self.word_content_list)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
break
next_url =self.base_url + "/class/{0}_{1}.htm".format(self.second_column_name,self.page_count )
response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'UTF-8'
soup = BeautifulSoup(response.text, "html5lib")
div_list = soup.find('div', attrs={"class": 'main'})
div_list = div_list.find_all('div', attrs={"class": 'item'})
self.sprider_detail(div_list, self.page_count,page_end_number)
pass
except Exception as e:
print("sprider()执行过程出现错误" + str(e))
pass
self.page_count = self.page_count + 1 # 页码增加1
def sprider_detail(self, element_list, page_count,max_page):
try:
element_length = len(element_list)
self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager)
index = self.sprider_start_index
while index < element_length:
a=element_list[index]
if self.haved_sprider_count == self.sprider_count:
BaseFrame().debug("采集到达数量采集停止...")
break
index = index + 1
sprider_info = "正在采集第" + str(page_count) + "页的第" + str(index) + "个资源共"+str(max_page)+"页资源"
print(sprider_info)
#title_image_obj = a.find('img', attrs={"class": 'lazy'})
url_A_obj=a.find('a', attrs={"class": 'name-text'})
next_url = self.base_url+url_A_obj.get("href")
coder_title = url_A_obj.get("title")
response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'UTF-8'
soup = BeautifulSoup(response.text, "html5lib")
#print(soup)
down_load_file_div = soup.find('div', attrs={"class": 'download-list'})
if down_load_file_div is None:
BaseFrame().debug("应该是多版本的暂时不下载因此跳过哦....")
continue
down_load_file_url =self.base_url+down_load_file_div.find('a').get("href")
#image_obj = soup.find('img', attrs={"class": "el-image__inner"})
#image_src =self.base_url+image_obj.get("src")
#print(image_src)
codeEntity = SpriderEntity() # 下载过的资源不再下载
codeEntity.sprider_base_url = self.base_url
codeEntity.create_datetime = SpriderTools.get_current_datetime()
codeEntity.sprider_url = next_url
codeEntity.sprider_pic_title = coder_title
codeEntity.sprider_pic_index = str(index)
codeEntity.sprider_pager_index = page_count
codeEntity.sprider_type = "code"
if SpriderAccess().query_sprider_entity_by_urlandindex(next_url, str(index)) is None:
SpriderAccess().save_sprider(codeEntity)
else:
BaseFrame().debug(coder_title + next_url + "数据采集过因此跳过")
continue
if (DownLoad(self.save_path).down_load_file__(down_load_file_url, coder_title, self.folder_name)):
#DownLoad(self.save_path).down_cover_image__(image_src, coder_title) # 资源的 封面
sprider_content = [coder_title,
self.save_path + os.sep + "image" + os.sep + coder_title + ".jpg"] # 采集成功的记录
self.word_content_list.append(sprider_content) # 增加到最终的数组
self.haved_sprider_count = self.haved_sprider_count + 1
BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个")
if (int(page_count) == int(max_page)):
self.builder_word(self.folder_name, self.save_path, self.word_content_list)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
except Exception as e:
print("sprider_detail:" + str(e))
pass
分类同城网 v1.0
Fanmv Blog主题模板-狐族科技主题 v1.0.1.127
25175中学工资管理系统 v2.2
ASP.NET 4.0电子商城 v4.0
在押人员信息管理系统 v2.0
Fanmv CMS v1.0.2.116
25175大学生综合素质管理系统 v2.02
OA管理后台 v1.0
MVC4+EasyUI商城源码 v1.0
玥雅CMS网站信息管理系统 v1.2
Fanmv Blog主题模板:仿糗事百科 v1.0.1.1220
HEasy客户管理系统 ACCESS版 v1.0
启明星员工通讯录Android手机版 v1.0 alpha
AutoWeb建站王 v6.0
诚一办公OA系统 v1.0
良精.Net企业网站管理系统 v5.7
360站优宝,免费建站系统 v3.0
新翔绩效考核系统普通版 v4.5
快站cms v1.1.0
88Song在线音乐网站源码 v1.0
EasyPlat.Net快速开发平台源码 v4.5
谷昆学校网站管理软件 v3.4
教职工基础信息网上填报源码 v1.0 build1024
赣极购物商城网店建站软件系统 v5.1 免费版
初中校园校务管理系统 v20130928
初中校园成绩查询系统 v20130928
初中校园宿舍管理系统 v20130928
乡巴佬㊣家教网 v1.13.0925
PlugNT CMS 内容管理系统 v4.6 编译版
谷秋精品课程软件 v4.5
易辰人才招聘系统 v2.8
Ycbw.Articles简易建站程序 v1.0.0.0
htshop普及版网店系统 v1.0
某精品家教网源码 v23
青乌序Blog(qwxblog) v1.0.3.705
95Shop仿醉品商城 v1.0
一步半YBB企业网站管理系统 v2.7
推出网搜索小偷程序 v30623
TonyShareAccess V2.4正式版 v2.4
TonyShareSQL V2.4正式版 v2.4
JumboECMS v1.3.5 编译版
威流淘宝客返现程序(淘客返利) v4.0
JumbotCms v6.6.0 编译版
迅思科尔企业网站建设管理系统KeerWEB v2.0
飘萍网址导航 v3.1
蓝色博客网站 v2013
军警部队网站管理系统 v2013
建筑工程公司网站 v2013
在线服装商城 v2013
集团公司网站 v2013
通用网站模板 v1.0
智能学校网站管理系统 v0.1
网奇CMS网站管理系统 v5.9 SP1
GBlog好文本博客系统 v2.0
GGCMS网站管理系统 v1.2.1
创想商务B2B网站管理系统 v3.1
PlugNT BBS 论坛系统 v3.6
5kCMS K1 网站内容管理系统 v0.1
有花淘宝客网站程序 v4.0
沙之丘淘宝客 v3.2
美客企业文件管理系统 v1.0
千博企业网站管理系统标准版 v2013 Build0206
超强自定义问卷调查系统 v5.9
创想商务B2B网站橙色模板 v3.0
淘地鼠cms v1.0 正式版
50cms建站系统 v3.0.11 mssql版
刘宝宝文件管理器 v0.3
我不忙-QQ登陆SDK v2.1.0410
我不忙-新浪微博SDK v2.1.0408
BlogEngine.NET(博易) v2.7 源码版
BlogEngine.NET(博易) v2.7
HIWEB学校网站管理系统.NET版 v2.2012.09.25
B2C电子商城源码 v1.1
企业信息资源管理系统 v1.1
企业门户网站源码 v1.1
KstCMS v1.0.0.0
懒人工作通OA (WebOffice支持版) v5.7.2
企业级轻博客网站 v1.1
优聪宝贝早教网站 v4.0
奇文小说连载系统模板
奇文软件下载管理系统 v1.1
启明星留言薄 v1.0
浮动留言板(JQuery 插件+Ajax) v1.0
iNethinkCMS新闻信息管理系统 v1.2 编译版
MCShop微维网上商城系统独立网店系统(非MVC版) v3.06
.NET超炫Flash整站程序 v1.0
至尊国际网资连锁销售程序全功能版 v2.0
电子商务订货系统订货宝 v3.1.0
小泥鳅(Loachs)独立博客源码版 v1.3 正式版
小泥鳅(Loachs)独立博客编译版 v1.3 正式版
cndian淘站群版 v5.0
Hiweb网站快车10周年纪念版 v2.2012.06.29
LearnSite信息技术学习平台 v1.2.0.1 build20120708
月色博客 v1.0
都来订网络外卖订餐系统 v1.8.6
Roark Meeting会议管理系统 v1.0 beta 源码版
仿旅游网站dt85整站源码 v2.0
Zoomla!逐浪CMS v6.0
中诺企业网站CMS v2.0
import os
# 查找指定文件夹下所有相同名称的文件
def search_file(dirPath, fileName):
dirs = os.listdir(dirPath) # 查找该层文件夹下所有的文件及文件夹,返回列表
for currentFile in dirs: # 遍历列表
absPath = dirPath + '/' + currentFile
if os.path.isdir(absPath): # 如果是目录则递归,继续查找该目录下的文件
search_file(absPath, fileName)
elif currentFile == fileName:
print(absPath) # 文件存在,则打印该文件的绝对路径
os.remove(absPath)
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。