E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
python--爬虫学习
利用
python--
正则--爬取豆瓣TOP250排行榜
话不多说直接贴上代码importrequestsimportreimportjson#定义一个函数,用于解析网页内容defpase_detail(url):content=requests.get(url).content.decode()movie_content=re.findall(’.?.?(.?).?.?(.?).?(\d{4}).?(.*?)’,content,re.S)foritem
D I Y
·
2020-06-29 06:48
爬虫
Python--
使用线程--批量文件的移动 以及FTP共享自己文件夹
在写代码中偶尔会遇到一些脚本和方法,有时候这些脚本程序都是用到再写。这无疑浪费了自己很多时间,自己写过一次为了防止代码的丢失不如放在博客上记录一下,如果再用到那边直接用。第一个小知识点os模块的具体应用"""我们知道有时候需要大批的文件从一个文件家转移到另外一个文件夹下,可能仅仅只能通过文件的复制和剪切到另外一个文件夹下但是在Linux下如果你想要转移的文件夹以及文件夹下的文件比较多怎么办?通过直
后青春诗ing
·
2020-06-29 06:16
python
小技巧
python
爬虫学习
笔记-使用BeautifulSoup解析html
之前抓取豆瓣图书Top250的时候,获取内容使用的方法是正则表达式匹配,看上去是一种比较简洁的方法,但问题在于,正则表达式的编写必须非常细心,一旦出了任何小问题,就会导致得不到想要的结果。熟悉html的话,不难想到可以利用节点之间的结构和层级关系来作区分并进一步获取节点内想要的文本。于是BeautifulSoup库为我们实现了这种更加直接的匹配方法,BeautifulSoup是一个python的H
懒懒的书虫
·
2020-06-29 06:14
python爬虫
python
爬虫学习
笔记-scrapy框架之start_url
在使用命令行创建scrapy项目后,会发现在spider.py文件内会生成这样的代码:name='quotes'allowed_domains=['quotes.toscrape.com']start_urls=['http://quotes.toscrape.com/']其中比较好理解的是name,这个字段代表爬虫项目名称,在命令行创建时已经指定,allowed_domains代表允许爬取的域名
懒懒的书虫
·
2020-06-29 05:43
python爬虫
爬虫
scrapy
start_url
python
爬虫学习
笔记(七)——修改User-Agent以及延时提交数据
经过上一篇博客,我们就可以从网页中获取我们所需要的各种信息和链接。今天是解决我再爬取过程中面临的问题,在我们进行大面积和多次的数据爬取过程中,浏览器和被爬取的网站经过判断,可能会终止我们的访问权限,所以,今天要学的就是对自己的User-Agent进行修改便于隐藏,以及在爬取过程中通过延时提交数据。首先,先来学习一下修改自己的User-Agent.我们通过python代码批量访问网站的数据,这样服务
mprogress
·
2020-06-29 04:58
python基础学习
python
爬虫学习
笔记(六)——抽取网页信息和链接
上一篇博客好像因为图片插入有点多,到现在还是待审核,一直不显示……所以我们继续,在(五)当中我们已经成功的从网页的特定标签和css属性中获取了我们想要的信息,主要涉及到soup.select()方法的使用。今天,主要总结的是,将requests和BeautifulSoup4联合运用,将一个网页的信息和链接直接通过爬虫抽取出来。首先,我们使用前面已经学习过的requests存取整个页面的内容并输出确
mprogress
·
2020-06-29 04:58
python基础学习
Python--
正则表达式findall,match,search的区别
findall将搜索整字符串,并返回匹配到的列表。match如果字符串开始位置(0)不匹配则返回None,否则返回结果,并结束搜索。search搜索整个字符串,匹配则返回结果并结束搜索。match和search返回的结果都是对象,可以使用span和group方法。span返回一个元组表示匹配结果在字符串的位置范围。group返回匹配到的字符串。importrelanguage='C++85C9Ja
AID Learning
·
2020-06-29 03:30
Python--
参数注解
一,函数定义的弊端:1)Python是动态语言,变量随时可以被赋值,且能赋值为不同的类型。2)Python不是静态编译型语言,变量类型是运行器决定的3)动态语言很灵活,但这也是其弊端:defadd(x+y):returnx+yprint(add(4,5))print(add('hello','world'))add(4,'hello')#这句显然是错的首先,难发现,由于不做任何类型检查,直到运行期
奔跑的小狼狗
·
2020-06-29 02:40
Python--
文件操作及复制和抓取的简单实现
一,冯诺依曼体系架构CPU由运算器和控制器组成:运算器:完成各种算数运算,逻辑运算,数据传输等数据加工处理控制器:控制程序的执行储存器:用于记忆程序和数据,如内存输入设备:将数据或程序输入到计算机中,如键盘,鼠标输出设备:将数据或程序处理的结果展示给用户,例如显示器和打印机一般说IO操作,指的是文件IO,若是网络IO都会直接说网络IO二,文件IO常用操作:open打开read读取write写入cl
奔跑的小狼狗
·
2020-06-29 02:40
用django搭建移动端服务器(附上简单的uwsgi+nginx+mongo
写完了写完了先说明当前开发的版本
python--
>3.6.2django-->2.0.4djangorestframework-->3.8.2django-rest-framework-mongoengine
雾雨魔理沙的扫把
·
2020-06-29 02:28
python
android
服务器
django
Python
爬虫学习
笔记(一)
爬虫目的:就是根据规则抓取指定的数据,一般是大量数据可以做爬虫的语言:PHP:多进程多线程处理不好Java:没毛病,就是代码复杂点,修改费劲,重构成本大(为突出PY强行黑)C,C++:这都是NB人做的,个人能力展现,对于高学习/经验成本来讲,不算是良好选择Python:语法简单,代码可读性高,学习成本低,三方模块多,强大框架Scrapy通用爬虫和聚焦爬虫:通用爬虫:百度,360,bing,yiso
已开挂的24K
·
2020-06-29 00:09
python--
文本进度条
***python文本进度条***python之简单文本进度条分析思路:命名python文件:TextProBarV1.py导入time库设定中括号内的长度上下两条打印语句循环结构实现“”的递增和“.”的递减循环次数为中括号的长度采用字符串复制的方式实现“”的递增和“.”的递减定义变量记下百分数的变化打印每行信息,注意print()内的格式写法调用休眠时间函数过程代码:importtimescal
love&study
·
2020-06-28 23:50
python组合类型
Python
爬虫学习
笔记
参照七月的原生爬虫教程练习结果,有部分修改代码fromurllibimportrequestimportreimportoperatorclassSpider(object):url='https://www.panda.tv/cate/lol'root_pattern='([\s\S]*?)'name_pattern='([\s\S]*?)'number_pattern='([\s\S]*?)'
singed
·
2020-06-28 23:56
从零开始的
爬虫学习
(一)
本文介绍了爬虫的环境搭建,一个简单的图片爬取例子,最后介绍两个常见的小错误,AttributeError:‘NoneType’objecthasnoattribute'find“requests.exceptions.InvalidSchema:Noconnectionadapterswerefoundfor…”什么是爬虫?这是一篇解释的比较容易理解的博文。从零学习爬虫,逃不开安装环境。完成安装环
百伦
·
2020-06-28 23:03
py
从零开始的
爬虫学习
(二)爬取动漫之家的漫画
上篇讲了如何爬取一张图片,这里就爬取大妈之家的一部漫画吧!可以通过修改目标地址,爬取任意一部大妈之家的一部漫画!本篇内容“”"1、抓取西刺代理网站的代理ip2、并根据指定的目标url,对抓取到ip的有效性进行验证3、最后存到指定的path4、随机提取代理ip5、爬取目标网站的漫画,存放在D:\getting“”"为了保证爬取工作的正常进行,我们有必要建设属于自己的ip池。在被目标网站封锁ip的情况
百伦
·
2020-06-28 23:03
py
python--
正则表达式的实战
正则表达式是在re模块里的,所以需要事前导入re模块,re模块里面的search()方法用于在字符串中搜索正则表达式模式第一次出现的位置。注意:下标从0开始,原字符串前面需要加入r'原字符串'上图因为.号可以匹配除了换行符之外的任何字符,所以它匹配了I,也就是第一个字符要消除.号的特殊功能,只需要在其.号之前加上\即可。\d可以匹配任何数字,如上图。匹配ip地址,如上图。这样匹配所产生的问题就是i
IT-Sunshine
·
2020-06-28 22:32
python
爬虫学习
-day7-实战
目录python
爬虫学习
-day1python
爬虫学习
-day2正则表达式python
爬虫学习
-day3-BeautifulSouppython
爬虫学习
-day4-使用lxml+xpath提取内容python
Gavin_Alison
·
2020-06-28 20:55
Python--
多线程和多进程
python中最重要的并发模型:多线程多进程异步编程并行是并发概念的一个子集,你可以编写有多个线程或进程的并发程序,但是如果不是在多核处理器上执行这个程序,那么就不能以并行的方式来运行代码。多线程什么是多线程程序员可以将他或她的工作分拆到线程中,这些线程同时运行并共享同一内存上下文。线程之间共享同样的上下文,这意味着你必须保护数据,避免并发访问这些数据。如果两个线程更新相同的没有任何保护的数据,则
FLPython
·
2020-06-28 19:39
Python
Python--
异步编程
同步和异步同步:调用一个函数,返回结果是自己去获取的,不管是阻塞还是非阻塞异步:调用一个函数,返回结果是别人通过通知、回调等方式给你的在IO操作的过程中,当前线程被挂起,而其他需要CPU执行的代码就无法被当前线程执行了。多线程和多进程虽然解决了并发问题,但是系统不能无上限的增加线程,由于系统切换线程的开销也很大,所以,一旦线程数量过多,CPU的时间就花在线程切换上了,会导致性能下降。为了解决CPU
FLPython
·
2020-06-28 19:39
Python
Python
异步
Python--
比较文件内容
如果想用python去实现文件内容比较,不需要自己去实现比较算法,使用python标准库中的difflib就可以实现importsysimportdifflibdefread_file(filename):try:withopen(filename,'r')asf:returnf.readlines()exceptIOError:print("ERROR:没有找到文件:%s或读取文件失败!"%fi
FLPython
·
2020-06-28 19:38
Python
pyspider
爬虫学习
-文档翻译-Command-Line.md
2019独角兽企业重金招聘Python工程师标准>>>CommandLine命令行============GlobalConfig全局配置-------------你可以通过“pyspider-help”和“pyspiderall-help”获得命令帮助。Youcangetcommandhelpvia`pyspider--help`and`pyspiderall--help`forsubcomma
weixin_34375251
·
2020-06-28 18:31
python--
切片--6
原创博文,转载请标明出处--周学伟http://www.cnblogs.com/zxouxuewei/一.对list进行切片取一个list的部分元素是非常常见的操作。比如,一个list如下:>>>L=['Adam','Lisa','Bart','Paul']取前3个元素,应该怎么做?笨办法:>>>[L[0],L[1],L[2]]['Adam','Lisa','Bart']之所以是笨办法是因为扩展一
weixin_34261739
·
2020-06-28 15:36
PYTHON--
定期监测服务器端口,并将结果写入MYSQL
定时监测服务器端口,然后将结果入写数据库。监测用NC命令,入库就用PYTHON的MYSQL模块再调一个基于函数的多线程。。。妥妥的。。是网上两个功能的合成。。俺不生产代码,俺只是BAIDU的搬运工!#!/usr/bin/envpythonimportmultiprocessingimportsubprocessimportMySQLdbhost_list=[]forlineinopen("/xxx
weixin_34242658
·
2020-06-28 14:12
python--
>numpy笔记
#encoding:utf-8importnumpyasnpdata1=[1,2,3,4,5.6,7,8.9]arr1=np.array(data1)printarr1data2=[[1,2,3,4],[5,6,7,8]]arr2=np.array(data2)printarr2#array.ndim看维数printarr1.ndimprintarr2.ndim#array.shap看矩阵几行几列
晨暮云海
·
2020-06-28 13:21
python--
文件读写
#f=open('a.txt','w',encoding='utf-8')#names=['a','b','c']#fornameinnames:#f.write(name)#f.writelines(names)#f.close()s='既然青春留不住'f.write(s)#效率高f.writelines(s)#效率不高#importtime#进行写操作发现没有写进内容,可调用flush()#f
weixin_34185320
·
2020-06-28 13:42
python--
表达式(运算表达式)
运算表达式python的表达式包括:算术运算符,赋值运算符,比较运算符,成员运算符算术运算符运算符描述+加-两个对象相加-减-得到负数或是一个数减去另一个数*乘-两个数相乘或是返回一个被重复若干次的字符串/除-x除以y%取模-返回除法的余数**幂-返回x的y次幂//取整除-返回商的整数部分#eg_v1a=10b=20c_v1=a+bc_v2=b-ac_v3=a*bc_v4=a/bc_v5=a//b
weixin_34150224
·
2020-06-28 12:08
pyspider
爬虫学习
-文档翻译-Deployment.md
2019独角兽企业重金招聘Python工程师标准>>>Deployment部署===========#由于pyspider有不同的组件,所以您可以运行“pyspider”来启动一个独立的和第三方服务的免费实例。或者使用MySQL或MongoDB和RabbitMQ来部署分布式抓取集群Sincepyspiderhasvariouscomponents,youcanjustrun`pyspider`to
weixin_34132768
·
2020-06-28 12:21
Python
爬虫学习
,记一次抓包获取js,从js函数中取数据的过程
2019独角兽企业重金招聘Python工程师标准>>>昨天有小伙伴找我,新浪新闻的国内新闻页,其他部分都是静态网页可以抓到,但是在左下方的最新新闻部分,不是静态网页,也没有json数据,让我帮忙抓一下。大概看了下,是js加载的,而且数据在js函数中,很有意思,就分享出来给大家一起看看!抓取目标今天我们的目标是上图红框部分,首先我们确定这部分内容不在网页源代码中,属于js加载的部分,点击翻页后也没有
weixin_34107739
·
2020-06-28 11:34
老司机带你攻破微信消息防撤回功能
就在昨天,我的一位好友壳子@ZKeeer使用itchat库做了小脚本写了一篇文章:初学
python--
微信防撤回功能改进(一个用处不大的功能)-知乎专栏,在得到壳子的授权之后,我对他的代码进行了修改,并把代码包装成了可执
weixin_34101229
·
2020-06-28 11:14
Python项目实战:
爬虫学习
,利用selenium浏览器来爬取
前言相信大家在刚开始学习爬虫的时候都是用requests,BeautifulSoup这两种简单,基础的爬虫方式吧,这两种是非常符合我们刚入门的小伙伴学习的,因为简单易懂,容易我们消化,下面来了介绍一下用selenium利用浏览器来进行
爬虫学习
导入第三方库打开浏览器学习从来不是一个人的事情
weixin_34095889
·
2020-06-28 11:24
Python--
函数对象@命名空间与作用域@包函数@装饰器@迭代器@内置函数
一、函数对象函数(Function)作为程序语言中不可或缺的一部分,但函数作为第一类对象(First-ClassObject)却是Python函数的一大特性。那到底什么是第一类对象(First-ClassObject)呢?在Python中万物皆为对象,函数也不例外,函数作为对象可以赋值给一个变量、可以作为元素添加到集合对象中、可作为参数值传递给其它函数,还可以当做函数的返回值,这些特性就是第一类对
weixin_33941350
·
2020-06-28 08:44
pyspider
爬虫学习
-文档翻译-index.md
2019独角兽企业重金招聘Python工程师标准>>>pyspider[![BuildStatus][BuildStatus]][TravisCI][![CoverageStatus][CoverageStatus]][Coverage][![Try][Try]][Demo]========一个基于Python的强大蜘蛛(网络爬虫)系统APowerfulSpider(WebCrawler)Syst
weixin_33937499
·
2020-06-28 08:16
大数据与云计算学习:Python网络数据采集
本文将介绍网络数据采集的基本原理:如何用Python从网络服务器请求信息如何对服务器的响应进行基本处理如何以自动化手段与网站进行交互如何创建具有域名切换、信息收集以及信息存储功能的
爬虫学习
路径爬虫的基本原理所谓爬虫就是一个自动化数据采集工具
weixin_33928467
·
2020-06-28 08:46
python--
数据清洗
1.数据错误:错误类型–脏数据或错误数据•比如,Age=-2003–数据不正确•‘0’代表真实的0,还是代表缺失–数据不一致•比如收入单位是万元,利润单位是元,或者一个单位是美元,一个是人民币–数据重复2.缺失值处理:处理原则–缺失值少于20%•连续变量使用均值或中位数填补•分类变量不需要填补,单算一类即可,或者用众数填补–缺失值在20%-80%•填补方法同上•另外每个有缺失值的变量生成一个指示哑
weixin_33928137
·
2020-06-28 08:09
python--
正则表达式|re模块学习
学习来源:https://www.liaoxuefeng.com/wiki/1016959663602400/1017639890281664正则表达式是一种用来匹配字符串的一种强大的武器,用一种描述性语言给字符串定一个规则,凡是符合规则的字符串,我们就认为匹配了,否则,该字符串就是不合法的。因为正则表达式也是用字符表示的,所以,我们首先了解如何用字符来描述字符。在正则表达式中,如果直接给出字符,
weixin_33691700
·
2020-06-28 03:29
python
爬虫学习
(三):使用re库爬取"淘宝商品",并把结果写进txt文件
第二个例子是使用requests库+re库爬取淘宝搜索商品页面的商品信息(1)分析网页源码打开淘宝,输入关键字“python”,然后搜索,显示如下搜索结果从url连接中可以得到搜索商品的关键字是“q=”,所以我们要用的起始url为:https://s.taobao.com/search?q=python然后翻页,先跳到第二页,url变为:再跳到第三页,url变为:经过对比发现,翻页后,变化的关键字
weixin_30702413
·
2020-06-27 23:42
python--
生成测试数据
1.方法importdatetimeparams_dict_data={"system_id":"systemId001","order_date":"20170918","order_id":"201799999999","user_name":"test","service_name":"me","begin_time":"20170918000000","end_time":"2017093
weixin_30700977
·
2020-06-27 23:33
urllib发送数据和对反爬虫的处理 ----------python的
爬虫学习
------------------urllib中发送数据------------------urllopen方法中不能直接添加head和cookie等内容在urllopen之前其实还有一个操作,来实例化对象,为其添加一些cookie和head以及设置发送数据的方法....urllib.request.Request(url,data=None,headers=None,origin_req_ho
weixin_30614587
·
2020-06-27 22:47
《Python
爬虫学习
系列教程》学习笔记
http://cuiqingcai.com/1052.html大家好哈,我呢最近在学习Python爬虫,感觉非常有意思,真的让生活可以方便很多。学习过程中我把一些学习的笔记总结下来,还记录了一些自己实际写的一些小爬虫,在这里跟大家一同分享,希望对Python爬虫感兴趣的童鞋有帮助,如果有机会期待与大家的交流。一、Python入门1.Python爬虫入门一之综述2.Python爬虫入门二之爬虫基础了
weixin_30550271
·
2020-06-27 21:27
Python--
标准异常
异常名称描述BaseException所有异常的基类SystemExit解释器请求退出KeyboardInterrupt用户中断执行(通常是输入^C)Exception常规错误的基类StopIteration迭代器没有更多的值GeneratorExit生成器(generator)发生异常来通知退出StandardError所有的内建标准异常的基类ArithmeticError所有数值计算错误的基类
weixin_30522095
·
2020-06-27 21:08
Python网络
爬虫学习
总结
1、检查robots.txt让爬虫了解爬取该网站时存在哪些限制。最小化爬虫被封禁的可能,而且还能发现和网站结构相关的线索。2、检查网站地图(robots.txt文件中发现的Sitemap文件)帮助爬虫定位网站最新的内容,而无须爬取每一个网页。网站地图提供了所有网页的链接,我们仍需对其谨慎处理,因为该文件经常存在缺失、过期或者不完整的问题。3、估算网站大小爬取效率(使用分布式)方法:检查Google
weixin_30432007
·
2020-06-27 19:13
requests发送数据和对反爬虫的处理 ----------python的
爬虫学习
------------------requests中发送数据------------------需要先安装requests库:pipinstallrequests在requests中发生post的数据很简单,只需要对应一个发送数据的字典传入,它内部会自动的给你进行编码在传送数据,发送get数据也如此带参数的get请求url='https://www.baidu.com/s?wd=123'head
weixin_30399821
·
2020-06-27 19:22
python--
多种程序分析(2)
1.文件操作有哪些模式?请简述各模式的作用r模式只读w模式只写a模式只添加r+可读可写w+可写可读a+可读可添加rb二进制只读wb二进制只写ab二进制添加2.s='**hello,world!**'请使用strip方法去掉字符串两端的’*’号第一种:s=s.strip('**')第二种s=s.lstrip('**")s=s.rstrip('**')3.用户输入一个任意数字n,求1-n之间所有数字中
weixin_30265171
·
2020-06-27 15:05
python
爬虫学习
之路(3)——正则表达式(笔记)
定义正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的特定字符组成一个规则字符串,这个规则字符串用来表达对目标字符串的一种过滤逻辑。注意正则表达式字符串需要经过两次转义,这两次转义分别是“字符串转义”和正则转义。常见正则字符与含义模式描述模式描述.匹配任意字符,除换行符\s匹配空白字符*匹配前一个字符0次或多次\S匹配任何非空白字符+匹配前一个字符1次或多次\d匹配数字,等价与[0-9]?
迷茫的小羊
·
2020-06-27 14:17
Python
爬虫
python
爬虫学习
之路(2)——selenium
浏览器渲染引擎爬虫中有一种调用浏览器渲染引擎的爬取方法。就是模拟真正的上网方式去爬取html内容。这种方式不仅能够爬取静态网页的内容,还能爬取动态网页的内容。SeleniumSelenium是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,浏览器自动按照脚本代码做出单击、输入、打开、验证等操作,就像真正的用户在操作一样。注意新版本中使用Selenium调用浏览其渲染引擎需
迷茫的小羊
·
2020-06-27 14:17
Python
爬虫
Python--
基础程序设计
一简单的程序1.Pyhton会通过赋值给变量自动判定数据类型2.打印多项print(item1,item2,...,itemk)3.程序一(计算圆的面积)radius=20#radiusisnow20area=radius*radius*3.14159print("Thisareaforcircleofradius",radius,"is",area)4.从控制台读取输入radius=input(
xtaowang
·
2020-06-27 13:15
Python
Python--
学习记录
HTML+CSS+JS 编写拼图小程序
介绍最近基本的
爬虫学习
完后,感觉很有必要去学习关于前端的知识,要不然都爬虫里的很多东西都很模糊,很肤浅。
wangs0622
·
2020-06-27 13:49
html+css
python网络
爬虫学习
笔记(5)静态网页抓取(二)实践
文章目录1资料2笔记2-1准备2-2爬虫:豆瓣读书TOP250的所有图书的名称2-2-1源码及结果2-2-2完成爬虫的艰难探索1资料《Python网络爬虫从入门到实践》唐松,陈志铨。主要面向windows平台下的python3。百度知道可怜(误)的豆瓣读书其它见注脚2笔记2-1准备书中推荐的实践项目如下,我首先打算做一个类似的项目。本章实践项目的目的是获取豆瓣电影TOP250的所有电影的名称,网页
user_987654321
·
2020-06-27 10:25
python
爬虫
Python
爬虫学习
(一)使用Requests和正则表达式爬取简单网页
1.概述使用Requests库和正则表达式爬取猫眼电影TOP100中的电影信息,包括电影名称、主演、上映时间、评分、图片等信息。然后将获取的信息保存到文本文件。2.网页分析要爬取的网页为猫眼电影TOP100http://maoyan.com/board/4网页页面如下所示:看一下页面的显示规律是怎样的,一页是显示10部电影名称。第二页的url和内容如下所示:url为:http://maoyan.c
HJ_彼岸
·
2020-06-27 08:39
python
Python
爬虫学习
:爬取LeetCode的题目并且按照难度分类
过程:爬取LeeCode的所有题目,按照难度的分类。在爬取题号的时候比较麻烦,要判断一个字符串是不是整数,首先想到的是用int()但是会有“未处理的意外”发生,可以用”try…except”来解决。还有一个难点就是很难通过一次就直接扫描到关键,所以我Find()了很多次,效率比较低,最后按照题号为主键存到了字典里。Code:#-*-coding:utf-8-*-__author__='bigshi
bigbigship
·
2020-06-27 07:37
python学习笔记
上一页
30
31
32
33
34
35
36
37
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他