- 尚硅谷爬虫note007
CSDNy666999
爬虫
一、urllib—异常1.urllib.error.HTTPError2.urllib.error.URLError#_*_coding:utf-8_*_#@Time:2025/2/1411:33#@Author:20250206-里奥#@File:demo26_异常#@Project:PythonProject10-14importurllib.requestimporturllib.error
- 使用python对url编码解码 (转)
woodcol
Python
写cgi经常碰到的一个问题就是对url进行编码和解码,python提供了很方便的接口进行调用。url中的query带有特殊字符(不是url的保留字)时需要进行编码。当url中带有汉字时,需要特殊的处理才能正确编码,以下都只针对这种情形,当然也适用于纯英文字符的url。(1)url编码:importurlliburl='http://test.com/s?wd=哈哈'url=url.decode('
- Py-imaplib读取163邮箱
侃看网Ayong
pythonpython开发语言
Py-imaplib读取163邮箱引入包#-*-coding:utf-8-*-importosimportemailimportimaplibimportquopriimportdatetimeimportrequestsimportjsonimporttimeimporthmacimporthashlibimportbase64importurllib.parsefromoptparseimpo
- 第三天:爬取数据-urllib库.
朱剑君
Python爬虫训练营python爬虫
每天上午9点左右更新一到两篇文章到专栏《Python爬虫训练营》中,对于爬虫有兴趣的伙伴可以订阅专栏一起学习,完全免费。键盘为桨,代码作帆。这趟为期30天左右的Python爬虫特训即将启航,每日解锁新海域:从Requests库的浪花到Scrapy框架的深流,从反爬迷雾中的破局到数据清洗的澄澈。我们拆解网页结构如同解读星图,让XPath与正则表达式化作导航罗盘。每个深夜的代码调试,终将凝结成破晓时的
- python request 发送请求
pugss
jsonpython
requests继承了urllib2的所有特性。Requests支持HTTP连接保持和连接池,支持使用cookie保持会话,支持文件上传,支持自动确定响应内容的编码,支持国际化的URL和POST数据自动编码。可以说request是python接口测试中非常重要的一个内容。request主要功能发起请求(主要是get和post请求)获取结果发起请求发起get请求没有参数时,我们直接可以发起get请求
- unittest自动化测试-requests库实现http请求与requests库离线安装
herryone123
自动化测试自动化httppython
一、requests库离线安装1.1安装requests模块所需依赖包(1)所需依赖包chardet,idna,urllib3,certifi(2)下载地址:https://www.lfd.uci.edu/~gohlke/pythonlibs/chardet·PyPI(3)安装方式pipinstallxx.whlpycharmTerminal窗口执行pipinstallcertifi-2019.1
- python视频爬虫
zoujiahui_2018
pythonpython爬虫开发语言
文章目录爬虫的基本步骤一些工具模拟浏览器并监听文件视频爬取易错点一个代码示例参考爬虫的基本步骤1.抓包分析,利用浏览器的开发者工具2.发送请求3.获取数据4.解析数据5.保存数据一些工具requests,用于发送请求,可以通过get,post等方式。通常需要加标头headers将Cookies和User-Agent,referer带上。re,正则表达式,用于查找目标字符串,解析网页。urllib.
- Python爬虫:requests模块的基本使用
是Dream呀
python爬虫开发语言
学习目标:了解requests模块的介绍掌握requests的基本使用掌握response常见的属性掌握requests.text和content的区别掌握解决网页的解码问题掌握requests模块发送带headers的请求掌握requests模块发送带参数的get请求1为什么要重点学习requests模块,而不是urllibrequests的底层实现就是urllibrequests在python
- Python爬虫--伪装成浏览器
余十步
python爬虫开发语言
把爬虫伪装成浏览器1.技术原理我们不讲很官方的属于,简单的讲就是,一些论坛啊,博客啊为防止别人爬他们的文章,通常会判断是不是浏览器访问,如果不是那就屏蔽。2.实战由于urlopen()对于一些HTTP的高级功能不支持,所以,我们如果要修改报头,也就是添加header可以使用urllib.request.build_opener()进行,当然,也可以使用urllib.request.Request(
- 爬去网页时出现raise etree.ParserError(lxml.etree.ParserError: Document is empty问题,想知道哪里出现了错误源代码如下
SWDYSQBL
python开发语言pycharm网络爬虫
importrequestsfromurllibimportresponseimportlxml.htmlimportcsvfromrequestsimportResponsedoubanurl='https://movie.douban.com/top250?start={}&filter='defgetSource(url):#获取目标网页response=requests.get(url)r
- 8.flask+websocket
卷土重来…
flaskflaskwebsocketpython
http是短连接,无状态的。websocket是长连接,有状态的。flask中使用websocketfromflaskimportFlask,requestimportasyncioimportjsonimporttimeimportwebsocketsfromthreadingimportThreadfromurllib.parseimporturlparse,parse_qsfromfunct
- 头歌答案--爬虫实战
m0_54850303
爬虫java前端
目录urllib爬虫?第1关:urllib基础任务描述第2关:urllib进阶?任务描述requests爬虫第1关:requests基础任务描述第2关:requests进阶任务描述网页数据解析第1关:XPath解析网页?任务描述第2关:BeautifulSoup解析网页?任务描述JSON数据解析第1关:JSON解析?任务描述爬虫实战——网页抓取及信息提取第1关:利用URL获取超文本文件并保存至本地
- 网络爬虫的常用技术
mez_Blog
Pythonpython网络爬虫常用模块入门
Python中实现HTTP网络请求常见的3种方式为:urlib,urllib3和requests。下面将一一进行介绍1.urllib模块urllib是Python自带模块,该模块中提供了一个urlopen()方法,通过该方法指定URL发送网络请求来获取数据。urllib提供了多个子模块,具体的模块名称与含义如下:模块名称描述urllib.request该模块定义了打开url(主要是HTTP)的方法
- 【爬虫教程】python爬虫的66个经典案例(完整代码)
小北画画
python开发语言pycharm人工智能pip
文章目录一、基础爬虫案例二、进阶爬虫案例三、实际应用案例四、高级爬虫案例五、其他爬虫案例Python的爬虫案例非常丰富,涵盖了从简单到复杂的各种应用场景。以下是66个Python爬虫案例的简要介绍:一、基础爬虫案例爬取网页文本内容:使用urllib或requests库爬取网页的文本内容。爬取网页图片:使用requests和os库爬取网页上的图片并保存到本地。爬取网页表格数据:使用Beautiful
- 使用request库实现接口测试-笔记
陈志化
笔记python
目录request库request库的安装和查验request发送请求的语法获取响应结果指定内容案例Unittest框架集成Requests库Unittest框架语法Unittest框架基础代码案例request库request库是python编写的,基于urllib的HTTP库,使用方便。request库的安装和查验安装:方法一:pipinstallrequests方法二:pipinstall-
- ImportError: urllib3 v2.0 only supports OpenSSL 1.1.1+, currently the ‘ssl‘ module is compiled with
D11_
ssl服务器linux
pycharm运行python项目发送request请求时报错ImportError:urllib3v2.0onlysupportsOpenSSL1.1.1+,currentlythe'ssl'moduleiscompiledwith。。。。。。。的错误这个错误是由于你的pycharm环境中的urib3库版本与ss!模块的OpenSSL版本不兼容导致的。urlib3v2.0版本只支持OpenSSL
- python电影评价分析_用 Python 分析豆瓣电影 TOP250
weixin_39806413
python电影评价分析
用Python分析豆瓣电影TOP250既然要分析豆瓣电影TOP250,那么肯定就要把相关的数据采集下来,比如排名,电影名,导演,主演等信息.那就肯定使用一下爬虫咯,如果还不会的话,欢迎看之前的文章:Python爬虫学习(一)概述Python爬虫学习(二)urllib基础使用Python爬虫学习(三)urllib进阶使用Python爬虫学习(四)正则表达式Python爬虫学习(五)爬取电影排行榜及其
- Python常用库---pycurl
Bingo_大侠
python笔记pythonhttpx
pycurl简介PyCURL是一个Python接口,它是多协议文件传输库的LIbCURL。类似于URLLIBPython模块,PyCURL可以用来从Python程序获取URL所标识的对象。然而,除了简单的获取,PyCURL公开了LIbCURL的大部分功能,包括:速度-LIbCURL非常快,并且PycURL作为LiCURL之上的薄包装器也是非常快的。PycURL被标榜为比请求快几倍。特性包括多协议支
- python怎么爬网站视频教程_python爬虫爬取某网站视频的示例代码
weixin_39630247
python怎么爬网站视频教程
把获取到的下载视频的url存放在数组中(也可写入文件中),通过调用迅雷接口,进行自动下载。(请先下载迅雷,并在其设置中心的下载管理中设置为一键下载)实现代码如下:frombs4importBeautifulSoupimportrequestsimportos,re,timeimporturllib3fromwin32com.clientimportDispatchclassDownloadVide
- python自动下载阿里云数据库数据_阿里云数据库Redis备份下载(Python)
weixin_39844426
#!/usr/bin/envpython3.6#coding=utf-8importosimporturllib.request,json,datetime,timeimportsslfromaliyunsdkcore.clientimportAcsClientfromaliyunsdkr_kvstore.request.v20150101.DescribeBackupsRequestimport
- python span 抓取_python – Beautifulsoup获取span内容
weixin_39755952
pythonspan抓取
我已经解析了html页面:使用beautifulsoupuser_page=urllib2.urlopen(user_url)souping_page=bs(user_page)badges=souping_page.body.find('div',attrs={'class':'badges'})在此之后我的徽章对象看起来像这样:93856现在我想从中提取示例9金徽章,38个银徽章,我试图使用b
- Python中如何获取HTTP请求的Response Body
傻啦嘿哟
关于python那些事儿pythonhttp开发语言
目录一、引言二、使用urllib库获取ResponseBody1.基本用法2.发送POST请求三、使用requests库获取ResponseBody1.安装requests库2.基本用法3.发送POST请求4.处理JSON响应四、高级用法1.处理请求头2.设置超时3.处理Cookies五、案例:爬取网页内容六、总结在Python中进行网络编程和Web开发时,经常需要发送HTTP请求并处理服务器返回
- python字体反爬
纵码奔腾
python
python字体反爬importreimportbase64importrequestsimporturllib.requestasdownfromfontTools.ttLibimportTTFont#字体解析库fromxml.etree.ElementTreeimportparsefromdifflibimportSequenceMatcher#序列匹配器defsimilarity(a,b):
- python 离线翻译软件_简单翻译软件
好豆美食
python离线翻译软件
简单翻译软件是一个可以自助翻译的小工具,可以读入多种语种如英语、日语、韩语等的翻译服务。python写的,捣鼓了一个界面,输入英文单词,回车,如果词库存在该单词,输出对应的中文意思,不存在则提示不存在。软件特色:1、可以翻译菜单,编辑框等控件;2、支持中文版本;3、软件完全免费无毒!代码说明:importurllib.requestimporturllib.parseimportjsonimpor
- python3简单爬虫 (爬取各个网站上的图片)_Python简单爬取图片实例
神楽坂有木
python3简单爬虫(爬取各个网站上的图片)
都知道Python的语法很简单易上手,也很适合拿来做爬虫等等,这里就简单讲解一下爬虫入门——简单地爬取下载网站图片。效果就像这样自动爬取下载图片到本地:代码:其实很简单,我们直接看下整体的代码:#coding=utf-8importurllibimportredefgetHtml(url):page=urllib.urlopen(url)html=page.read()returnhtmldefg
- Python爬虫保姆级入门教程
大模型贰贰
python爬虫python爬虫python零基础python入门
01前言Python非常适合用来开发网页爬虫,理由如下:1、抓取网页本身的接口相比其他静态编程语言,如java,c#,c++,python抓取网页文档的接口更简洁;相比其他动态脚本语言,如perl,shell,python的urllib包提供了较为完整的访问网页文档的API。(当然ruby也是很好的选择)此外,抓取网页有时候需要模拟浏览器的行为,很多网站对于生硬的爬虫抓取都是封杀的。这时我们需要模
- Python 简单爬虫教程
ANTennaaa
Pythonpython
就是突然想玩一下这里是一个下载网页内图片的例子环境Python3.7需首先安装pipinstalllxml-ihttps://mirrors.aliyun.com/pypi/simple#fromurllib.requestimporturlretrieve#第一种方法importrequests#第二种方法frombs4importBeautifulSoup'''Ifthetargetdirec
- 100天精通Python(爬虫篇)——第113天:爬虫基础模块之urllib详细教程大全
袁袁袁袁满
100天精通Pythonpython爬虫开发语言urllib爬虫实战urllib模块教程网络爬虫
文章目录1.urllib概述2.urllib.request模块1.urllib.request.urlopen()2.urllib.request.urlretrieve()3.urllib.request.Request()4.urllib.request.install_opener()5.urllib.request.build_opener()6.urllib.request.Abstr
- 使用python实现mongodb的操作
qq_44801116
pythonmongodb开发语言
一、示例frompymongoimportMongoClientfromurllib.parseimportquoteclasstest_mongo:def__init__(self,host,port,user,pwd,db):self.host=hostself.port=portself.user=userself.pwd=pwdself.db=dbdefbuild_conn_mongo(s
- python爬虫实战
山猪
人工智能教学python爬虫开发语言
python爬虫实战1.爬取知乎某页html#导入urllib库的urlopen函数fromurllib.requestimporturlopen#发出请求,获取htmlhtml=urlopen("https://zhuanlan.zhihu.com/p/77560712")#获取的html内容是字节,将其转化为字符串html_text=bytes.decode(html.read())#打印ht
- Linux的Initrd机制
被触发
linux
Linux 的 initrd 技术是一个非常普遍使用的机制,linux2.6 内核的 initrd 的文件格式由原来的文件系统镜像文件转变成了 cpio 格式,变化不仅反映在文件格式上, linux 内核对这两种格式的 initrd 的处理有着截然的不同。本文首先介绍了什么是 initrd 技术,然后分别介绍了 Linux2.4 内核和 2.6 内核的 initrd 的处理流程。最后通过对 Lin
- maven本地仓库路径修改
bitcarter
maven
默认maven本地仓库路径:C:\Users\Administrator\.m2
修改maven本地仓库路径方法:
1.打开E:\maven\apache-maven-2.2.1\conf\settings.xml
2.找到
 
- XSD和XML中的命名空间
darrenzhu
xmlxsdschemanamespace命名空间
http://www.360doc.com/content/12/0418/10/9437165_204585479.shtml
http://blog.csdn.net/wanghuan203/article/details/9203621
http://blog.csdn.net/wanghuan203/article/details/9204337
http://www.cn
- Java 求素数运算
周凡杨
java算法素数
网络上对求素数之解数不胜数,我在此总结归纳一下,同时对一些编码,加以改进,效率有成倍热提高。
第一种:
原理: 6N(+-)1法 任何一个自然数,总可以表示成为如下的形式之一: 6N,6N+1,6N+2,6N+3,6N+4,6N+5 (N=0,1,2,…)
- java 单例模式
g21121
java
想必单例模式大家都不会陌生,有如下两种方式来实现单例模式:
class Singleton {
private static Singleton instance=new Singleton();
private Singleton(){}
static Singleton getInstance() {
return instance;
}
- Linux下Mysql源码安装
510888780
mysql
1.假设已经有mysql-5.6.23-linux-glibc2.5-x86_64.tar.gz
(1)创建mysql的安装目录及数据库存放目录
解压缩下载的源码包,目录结构,特殊指定的目录除外:
- 32位和64位操作系统
墙头上一根草
32位和64位操作系统
32位和64位操作系统是指:CPU一次处理数据的能力是32位还是64位。现在市场上的CPU一般都是64位的,但是这些CPU并不是真正意义上的64 位CPU,里面依然保留了大部分32位的技术,只是进行了部分64位的改进。32位和64位的区别还涉及了内存的寻址方面,32位系统的最大寻址空间是2 的32次方= 4294967296(bit)= 4(GB)左右,而64位系统的最大寻址空间的寻址空间则达到了
- 我的spring学习笔记10-轻量级_Spring框架
aijuans
Spring 3
一、问题提问:
→ 请简单介绍一下什么是轻量级?
轻量级(Leightweight)是相对于一些重量级的容器来说的,比如Spring的核心是一个轻量级的容器,Spring的核心包在文件容量上只有不到1M大小,使用Spring核心包所需要的资源也是很少的,您甚至可以在小型设备中使用Spring。
 
- mongodb 环境搭建及简单CURD
antlove
WebInstallcurdNoSQLmongo
一 搭建mongodb环境
1. 在mongo官网下载mongodb
2. 在本地创建目录 "D:\Program Files\mongodb-win32-i386-2.6.4\data\db"
3. 运行mongodb服务 [mongod.exe --dbpath "D:\Program Files\mongodb-win32-i386-2.6.4\data\
- 数据字典和动态视图
百合不是茶
oracle数据字典动态视图系统和对象权限
数据字典(data dictionary)是 Oracle 数据库的一个重要组成部分,这是一组用于记录数据库信息的只读(read-only)表。随着数据库的启动而启动,数据库关闭时数据字典也关闭 数据字典中包含
数据库中所有方案对象(schema object)的定义(包括表,视图,索引,簇,同义词,序列,过程,函数,包,触发器等等)
数据库为一
- 多线程编程一般规则
bijian1013
javathread多线程java多线程
如果两个工两个以上的线程都修改一个对象,那么把执行修改的方法定义为被同步的,如果对象更新影响到只读方法,那么只读方法也要定义成同步的。
不要滥用同步。如果在一个对象内的不同的方法访问的不是同一个数据,就不要将方法设置为synchronized的。
- 将文件或目录拷贝到另一个Linux系统的命令scp
bijian1013
linuxunixscp
一.功能说明 scp就是security copy,用于将文件或者目录从一个Linux系统拷贝到另一个Linux系统下。scp传输数据用的是SSH协议,保证了数据传输的安全,其格式如下: scp 远程用户名@IP地址:文件的绝对路径
- 【持久化框架MyBatis3五】MyBatis3一对多关联查询
bit1129
Mybatis3
以教员和课程为例介绍一对多关联关系,在这里认为一个教员可以叫多门课程,而一门课程只有1个教员教,这种关系在实际中不太常见,通过教员和课程是多对多的关系。
示例数据:
地址表:
CREATE TABLE ADDRESSES
(
ADDR_ID INT(11) NOT NULL AUTO_INCREMENT,
STREET VAR
- cookie状态判断引发的查找问题
bitcarter
formcgi
先说一下我们的业务背景:
1.前台将图片和文本通过form表单提交到后台,图片我们都做了base64的编码,并且前台图片进行了压缩
2.form中action是一个cgi服务
3.后台cgi服务同时供PC,H5,APP
4.后台cgi中调用公共的cookie状态判断方法(公共的,大家都用,几年了没有问题)
问题:(折腾两天。。。。)
1.PC端cgi服务正常调用,cookie判断没
- 通过Nginx,Tomcat访问日志(access log)记录请求耗时
ronin47
一、Nginx通过$upstream_response_time $request_time统计请求和后台服务响应时间
nginx.conf使用配置方式:
log_format main '$remote_addr - $remote_user [$time_local] "$request" ''$status $body_bytes_sent "$http_r
- java-67- n个骰子的点数。 把n个骰子扔在地上,所有骰子朝上一面的点数之和为S。输入n,打印出S的所有可能的值出现的概率。
bylijinnan
java
public class ProbabilityOfDice {
/**
* Q67 n个骰子的点数
* 把n个骰子扔在地上,所有骰子朝上一面的点数之和为S。输入n,打印出S的所有可能的值出现的概率。
* 在以下求解过程中,我们把骰子看作是有序的。
* 例如当n=2时,我们认为(1,2)和(2,1)是两种不同的情况
*/
private stati
- 看别人的博客,觉得心情很好
Cb123456
博客心情
以为写博客,就是总结,就和日记一样吧,同时也在督促自己。今天看了好长时间博客:
职业规划:
http://www.iteye.com/blogs/subjects/zhiyeguihua
android学习:
1.http://byandby.i
- [JWFD开源工作流]尝试用原生代码引擎实现循环反馈拓扑分析
comsci
工作流
我们已经不满足于仅仅跳跃一次,通过对引擎的升级,今天我测试了一下循环反馈模式,大概跑了200圈,引擎报一个溢出错误
在一个流程图的结束节点中嵌入一段方程,每次引擎运行到这个节点的时候,通过实时编译器GM模块,计算这个方程,计算结果与预设值进行比较,符合条件则跳跃到开始节点,继续新一轮拓扑分析,直到遇到
- JS常用的事件及方法
cwqcwqmax9
js
事件 描述
onactivate 当对象设置为活动元素时触发。
onafterupdate 当成功更新数据源对象中的关联对象后在数据绑定对象上触发。
onbeforeactivate 对象要被设置为当前元素前立即触发。
onbeforecut 当选中区从文档中删除之前在源对象触发。
onbeforedeactivate 在 activeElement 从当前对象变为父文档其它对象之前立即
- 正则表达式验证日期格式
dashuaifu
正则表达式IT其它java其它
正则表达式验证日期格式
function isDate(d){
var v = d.match(/^(\d{4})-(\d{1,2})-(\d{1,2})$/i);
if(!v) {
this.focus();
return false;
}
}
<input value="2000-8-8" onblu
- Yii CModel.rules() 方法 、validate预定义完整列表、以及说说验证
dcj3sjt126com
yii
public array rules () {return} array 要调用 validate() 时应用的有效性规则。 返回属性的有效性规则。声明验证规则,应重写此方法。 每个规则是数组具有以下结构:array('attribute list', 'validator name', 'on'=>'scenario name', ...validation
- UITextAttributeTextColor = deprecated in iOS 7.0
dcj3sjt126com
ios
In this lesson we used the key "UITextAttributeTextColor" to change the color of the UINavigationBar appearance to white. This prompts a warning "first deprecated in iOS 7.0."
Ins
- 判断一个数是质数的几种方法
EmmaZhao
Mathpython
质数也叫素数,是只能被1和它本身整除的正整数,最小的质数是2,目前发现的最大的质数是p=2^57885161-1【注1】。
判断一个数是质数的最简单的方法如下:
def isPrime1(n):
for i in range(2, n):
if n % i == 0:
return False
return True
但是在上面的方法中有一些冗余的计算,所以
- SpringSecurity工作原理小解读
坏我一锅粥
SpringSecurity
SecurityContextPersistenceFilter
ConcurrentSessionFilter
WebAsyncManagerIntegrationFilter
HeaderWriterFilter
CsrfFilter
LogoutFilter
Use
- JS实现自适应宽度的Tag切换
ini
JavaScripthtmlWebcsshtml5
效果体验:http://hovertree.com/texiao/js/3.htm
该效果使用纯JavaScript代码,实现TAB页切换效果,TAB标签根据内容自适应宽度,点击TAB标签切换内容页。
HTML文件代码:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml"
- Hbase Rest API : 数据查询
kane_xie
RESThbase
hbase(hadoop)是用java编写的,有些语言(例如python)能够对它提供良好的支持,但也有很多语言使用起来并不是那么方便,比如c#只能通过thrift访问。Rest就能很好的解决这个问题。Hbase的org.apache.hadoop.hbase.rest包提供了rest接口,它内嵌了jetty作为servlet容器。
启动命令:./bin/hbase rest s
- JQuery实现鼠标拖动元素移动位置(源码+注释)
明子健
jqueryjs源码拖动鼠标
欢迎讨论指正!
print.html代码:
<!DOCTYPE html>
<html>
<head>
<meta http-equiv=Content-Type content="text/html;charset=utf-8">
<title>发票打印</title>
&l
- Postgresql 连表更新字段语法 update
qifeifei
PostgreSQL
下面这段sql本来目的是想更新条件下的数据,可是这段sql却更新了整个表的数据。sql如下:
UPDATE tops_visa.visa_order
SET op_audit_abort_pass_date = now()
FROM
tops_visa.visa_order as t1
INNER JOIN tops_visa.visa_visitor as t2
ON t1.
- 将redis,memcache结合使用的方案?
tcrct
rediscache
公司架构上使用了阿里云的服务,由于阿里的kvstore收费相当高,打算自建,自建后就需要自己维护,所以就有了一个想法,针对kvstore(redis)及ocs(memcache)的特点,想自己开发一个cache层,将需要用到list,set,map等redis方法的继续使用redis来完成,将整条记录放在memcache下,即findbyid,save等时就memcache,其它就对应使用redi
- 开发中遇到的诡异的bug
wudixiaotie
bug
今天我们服务器组遇到个问题:
我们的服务是从Kafka里面取出数据,然后把offset存储到ssdb中,每个topic和partition都对应ssdb中不同的key,服务启动之后,每次kafka数据更新我们这边收到消息,然后存储之后就发现ssdb的值偶尔是-2,这就奇怪了,最开始我们是在代码中打印存储的日志,发现没什么问题,后来去查看ssdb的日志,才发现里面每次set的时候都会对同一个key