- python爬虫心得_python爬虫学习心得
weixin_39941721
python爬虫心得
爬虫新手一枚,因为工作原因需要学习相关的东西。发表下这段时间学习的心得,有说得不对的地方欢迎指指点点。一.什么是爬虫在学习爬虫之前只对爬虫有个概念性的认识。通过向服务器发送请求获取服务器传回信息,再根据其提取所需的信息。原理虽然简单,但是涉及的细节非常多,从一个坑爬出来又掉进另一个坑。二.post和getpost和get是两种向服务器发送请求的方式,有些http基础的同学应该都清楚他们的用处,在写
- Python大数据之Python爬虫学习总结——day16 数据可视化
笨小孩124
Python爬虫学习总结信息可视化python大数据
数据可视化Map_地图基础地图知识点:基础示例:实战练习:知识点:自定义模块:制作中国地图data1.txt文件内容python代码示例制作区域地图data2.txt文件内容python代码示例Line_折线图基础折线图实战练习:Bar_柱状图基础柱状图反转以及主题设置Json数据python数据转为json数据知识点:示例:json数据转为python数据知识点:json文件:示例:Map_地图
- python爬虫要不要学正则_Python爬虫学习(四)正则表达式
weixin_39583751
python爬虫要不要学正则
经过前面的学习之后,大家现在应该可以顺利地得到一个网页源码字符串,对于Python中的字符串,Python提供了很多操作,大家可以其去尝试提取网页源码字符串中想要的信息。在这里,给大家推荐的是正则表达式!文章最后还有爬取糗事百科的实例哦!什么是正则表达式说白了,正则表达式就是描述我们需要提取的那部分信息的规则的工具。举个栗子,比如,我们想要提取'Stayhungry,123stayfoolish!
- python爬虫学习
小叶丶
Python爬虫(1):基本原理Python爬虫(2):Requests的基本用法Python爬虫(3):Requests的高级用法Python爬虫(4):BeautifulSoup的常用方法Python爬虫(5):豆瓣读书练手爬虫Python爬虫(6):煎蛋网全站妹子图爬虫Python爬虫(7):多进程抓取拉钩网十万数据Python爬虫(8):分析Ajax请求爬取果壳网Python爬虫(9):C
- Python爬虫学习
曹博Blog
Pythonpython爬虫学习
1.1搭建爬虫程序开发环境爬取未来七天天气预报frombs4importBeautifulSoupfrombs4importUnicodeDammitimporturllib.requesturl="http://www.weather.com.cn/weather/101120901.shtml"try:headers={"User-Agent":"Mozilla/5.0(WindowsNT10
- python爬虫学习day2—百度翻译
2401_82964032
爬虫学习python百度
##第零步安装requests库以及了解AJAX请求##第一步打开百度翻译网址,随便输入一个英文单词,我们可以发现网页进行了局部刷新,而非整体性的,因此我们可以猜测,这是一个AJAX请求。##第二步F12打开控制台,点击网络(network),因为我们已经猜测这是一个AJAX请求,因此我们选择XHR(实现网页得局部刷新)或者叫Fetch/XHR。然后输入一个英文单词,例如write。我们挨个点击,
- python爬虫学习day3—KFC肯德基餐厅信息查询
2401_82964032
爬虫学习beautifulsoup
##第零步安装requests库以及了解AJAX请求##第一步打开肯德基餐厅信息查询(kfc.com.cn)随便输入一个地址后发现页面没有整体刷新,并且点击下一页页面也仍然是局部刷新,因此判断是AJAX请求。##第二步F12打开控制台,点击网络(network),选择XHR(实现网页得局部刷新)或者叫Fetch/XHR。选择一个地址后,我们可以得到点击后我们可以得到:其url为https://ww
- python爬虫学习day1—Books to Scrape
2401_82964032
pythonbeautifulsoup
##第零步安装requests库与BeautifulSoup库,以及学习一点点html知识##第一步导入requests库与BeautifulSoup库importrequestsfrombs4importBeautifulSoup##第三步查看网站是否有反爬机制如果有可以选择伪装浏览器headers={"User-Agent":"自己浏览器的标识"}按F12找到网络(network)然后刷新网页
- python爬虫beautifulsoup实例-Python爬虫学习(二)使用Beautiful Soup库
weixin_37988176
(一)使用BeautifulSoup库(默认将HTML转换为utf-8编码)1,安装BeautifulSoup库:pipinstallbeautifulsoup42,简单使用:importrequests;from_socketimporttimeoutfrombs4importBeautifulSoup#使用BeautifulSoup库需要导包#fromaifcimportdatadefgetH
- python爬虫学习步骤和推荐资料
suoge223
python爬虫学习
学习Python爬虫是一项非常实用的技能,可以帮助你获取网络上的数据,进行信息抓取和分析。以下是一系列学习步骤和对应的参考资料,帮助你入门和深入学习Python爬虫。###学习步骤:####Step1:基础Python编程在学习爬虫之前,首先要确保你对基础的Python语法有一定的了解。参考资料:-[Python官方文档](https://docs.python.org/3/)-[w3school
- Python爬虫学习之scrapy库
蜀道之南718
python爬虫学习笔记scrapy
一、scrapy库安装pipinstallscrapy-ihttps://pypi.douban.com/simple二、scrapy项目的创建1、创建爬虫项目打开cmd输入scrapystartproject项目的名字注意:项目的名字不允许使用数字开头也不能包含中文2、创建爬虫文件要在spiders文件夹中去创建爬虫文件cd项目的名字\项目的名字\spiderscdscrapy_baidu_09
- Python大牛写的爬虫学习路线,分享给大家!
IT青年
今天给大家带来我的python爬虫学习路线,供大家参考!第一步,学会自己安装python、库和你的编辑器并设置好它我们学习python的最终目的是要用它来达到我们的目的,它本身是作为工具的存在,我们一定要掌握自己的工具的各类设置,比如安装、环境配置、库的安装,编辑器的设置等等。当然也可以用比如Anaconda来管理你的版本和各种库!为了帮助大家更轻松的学好Python开发,爬虫技术,Python数
- python爬虫学习笔记之数据提取
py爱好者~
笔记1024程序员节python爬虫
参考博客:python爬虫学习笔记_fdk少东家的博客-CSDN博客1、XPath语法和lxml库1.01、什么是XPath?xpath(XMLPathLanguage)是一门在XML和HTML文档中查找信息的语言,可用来在XML和HTML文档中对元素和属性进行遍历。1.02、XPath工具Chrome插件XPathHelper。Firefox插件XPathChecker。1.03、XPath语法
- python爬虫学习笔记之数据存储
py爱好者~
笔记python爬虫
参考博客:python爬虫学习笔记_fdk少东家的博客-CSDN博客1、json文件处理:1.01、什么是json:JSON(JavaScriptObjectNotation,JS对象标记)是一种轻量级的数据交换格式。它基于ECMAScript(w3c制定的js规范)的一个子集,采用完全独立于编程语言的文本格式来存储和表示数据。简洁欸和清晰的层次结构使得JSON成为理想的数据交换语言。易于人阅读和
- python爬虫学习笔记之网络请求
py爱好者~
笔记分类爬虫python
参考博客:python爬虫学习笔记_fdk少东家的博客-CSDN博客'requests'库安装和文档地址:利用pip进行安装:pipinstallrequests中文文档:Requests:让HTTP服务人类—Requests2.18.1文档发送GET请求:1.最简单的发送get请求就是通过requests.get来调用:response=requests.get('http://www.baid
- Python爬虫学习之scrapy库
蜀道之南718
python爬虫笔记学习
一、scrapy库安装pipinstallscrapy-ihttps://pypi.douban.com/simple二、scrapy项目的创建1、创建爬虫项目打开cmd输入scrapystartproject项目的名字注意:项目的名字不允许使用数字开头也不能包含中文2、创建爬虫文件要在spiders文件夹中去创建爬虫文件cd项目的名字\项目的名字\spiderscdscrapy_baidu_09
- Python爬虫学习之requests库
蜀道之南718
python爬虫笔记学习
目录一、requests的基本使用二、get请求三、post请求四、代理的使用五、cookie登录以及验证码图片识别一、requests的基本使用importrequestsurl='http://www.baidu.com'response=requests.get(url=url)#一个类型和六个属性#Response类型#print(type(response))#设置响应的编码格式resp
- Python爬虫学习之解析_jsonpath
蜀道之南718
python爬虫笔记
一、jsonpath的基本使用importjsonimportjsonpathobj=json.load(open('json文件','r',encoding='utf-8'))ret=jsonpath.jsonpath(obj,'jsonpath语法')二、jsonpath语法e.g.importjsonimportjsonpathobj=json.load(open('jsonpath.jso
- Python爬虫学习之requests库
蜀道之南718
爬虫python笔记学习
目录一、requests的基本使用二、get请求三、post请求四、代理的使用五、cookie登录以及验证码图片识别一、requests的基本使用importrequestsurl='http://www.baidu.com'response=requests.get(url=url)#一个类型和六个属性#Response类型#print(type(response))#设置响应的编码格式resp
- Python爬虫学习之urllib库
蜀道之南718
python爬虫学习
目录一、urllib库的基本使用二、一个类型和六个方法三、用urllib下载1、下载网页2、下载图片3、下载视频四、urllib请求对象的定制1、url的组成https://www.baidu.com/s?wd=参数2、UA反爬五、编解码1、get请求方式之urllib.parse.quote()2、get请求方式之urllib.parse.urlencode()3、post请求方式六、ajax的
- Python爬虫学习之解析_xpath
蜀道之南718
python爬虫开发语言
一、xpath的基本使用(1)导入lxml.etreefromlxmlimportetree(2)etree.parse()解析本地文件tree=etree.parse('xpath的基本使用.html')print(tree)(3)etree.HTML()服务器响应文件html_tree=etree.HTML(content)(4)html_tree.xpath(xpath路径)二、xpath语
- python爬虫学习之解析_BeautifulSoup
蜀道之南718
python爬虫学习
目录一、bs4的基本使用(1)导入(2)创建对象二、节点定位1、根据标签名查找节点2、基本函数使用(1)find(2)find_all(3)select三、节点信息1、获取节点内容2、获取节点属性附:bs4的基本使用.html四、bs4的应用注:Python3.10+,使用BeautifulSoup时出现错误“AttributeError'collections'hasnoattribute'Ca
- Python爬虫学习之selenium库
蜀道之南718
python爬虫学习
目录一、selenium库的基本使用二、selenium元素定位三、selenium元素信息四、selenium交互一、selenium库的基本使用#(1)导入seleniumfromseleniumimportwebdriver#(2)创建浏览器操作对象path='chromedriver.exe'browser=webdriver.Chrome(path)#(3)访问网站url='https:
- python爬虫学习之selenium_chrome handless的使用
蜀道之南718
python爬虫学习
目录一、Chromehandless简介二、Chromehandless的系统要求三、Chromehandless的基本配置(直接复制放在.py文件开头)四、Chromehandless的应用五、Chromehandless的封装一、Chromehandless简介Chromehandless模式,Google针对Chrome浏览器59版新增的一种模式,可以让你不打开UI界面的情况下使用Chrom
- python hack-requests_Python爬虫学习笔记(二)——requests库的使用
weixin_39832628
pythonhack-requests
准备工作requests库不是python自带的库,可以用pip安装。在使用时导入requests即可。基本用法GET请求r=requests.get(url)print(r.text)其中,网页返回的内容是json格式的字符串类型,所以可以直接调用json()方法得到字典格式的内容print(r.json())此外,如果需要附加额外的信息,可以用params这个参数,示例如下:data={'na
- python爬虫学习笔记(一)——requests库
梦独吟
python爬虫pythonpython
一.HTTP基本原理1.URL和URIURL是URI的子集,URI还包括URN,在互联网中,我们一般的网页链接可以被称为URL或者URI,大多数人称为URL。2.超文本我们平常在网站浏览的网页就是超文本解析而成的,这些源代码是一系列的HTML代码,如img:显示图片,p:指定显示段落等。HTML可以被称为超文本。3.http和httpsHTTP,HypertextTransferProtocol,
- Python网络爬虫步骤是什么?新手小白必看 !
Python小远
python爬虫开发语言
python网络爬虫步骤:首先准备所需库,编写爬虫调度程序;然后编写url管理器,并编写网页下载器;接着编写网页解析器;最后编写网页输出器即可。本教程操作环境:windows7系统、python3.9版,DELLG3电脑。文末领取全套Python爬虫学习资源python网络爬虫步骤(1)准备所需库我们需要准备一款名为BeautifulSoup(网页解析)的开源库,用于对下载的网页进行解析,我们是用
- python爬虫的原理以及步骤-python学习之python爬虫原理
weixin_37988176
原标题:python学习之python爬虫原理今天我们要向大家详细解说python爬虫原理,什么是python爬虫,python爬虫工作的基本流程是什么等内容,希望对这正在进行python爬虫学习的同学有所帮助!前言简单来说互联网是由一个个站点和网络设备组成的大网,我们通过浏览器访问站点,站点把HTML、JS、CSS代码返回给浏览器,这些代码经过浏览器解析、渲染,将丰富多彩的网页呈现我们眼前;一、
- Python爬虫学习笔记(一)---Python入门
摩卡摩卡~
2024科研python爬虫学习
一、pycharm的安装及使用二、python的基础使用1、字符串连接2、单双引号转义3、换行4、三引号跨行字符串5、命名规则6、注释7、优先级not>and>or8、列表(list)9、字典(dictionary)10、元组(tuple)11、迭代12、format方法13、引入模块14、文件15、异常与测试一、pycharm的安装及使用pycharm的安装可以自行去搜索教程。pycharm的使
- 第一个Python程序_获取网页 HTML 信息[Python爬虫学习笔记]
宇宙超粒终端控制中心
PythonPython爬虫pythonhtml爬虫
使用Python内置的urllib库获取网页的html信息。注意,urllib库属于Python的标准库模块,无须单独安装,它是Python爬虫的常用模块。获取网页HTML信息1)获取响应对象向百度(http://www.baidu.com/)发起请求,获取百度首页的HTML信息,代码如下:#导包,发起请求使用urllib库的request请求模块importurllib.request#urlo
- jvm调优总结(从基本概念 到 深度优化)
oloz
javajvmjdk虚拟机应用服务器
JVM参数详解:http://www.cnblogs.com/redcreen/archive/2011/05/04/2037057.html
Java虚拟机中,数据类型可以分为两类:基本类型和引用类型。基本类型的变量保存原始值,即:他代表的值就是数值本身;而引用类型的变量保存引用值。“引用值”代表了某个对象的引用,而不是对象本身,对象本身存放在这个引用值所表示的地址的位置。
- 【Scala十六】Scala核心十:柯里化函数
bit1129
scala
本篇文章重点说明什么是函数柯里化,这个语法现象的背后动机是什么,有什么样的应用场景,以及与部分应用函数(Partial Applied Function)之间的联系 1. 什么是柯里化函数
A way to write functions with multiple parameter lists. For instance
def f(x: Int)(y: Int) is a
- HashMap
dalan_123
java
HashMap在java中对很多人来说都是熟的;基于hash表的map接口的非同步实现。允许使用null和null键;同时不能保证元素的顺序;也就是从来都不保证其中的元素的顺序恒久不变。
1、数据结构
在java中,最基本的数据结构无外乎:数组 和 引用(指针),所有的数据结构都可以用这两个来构造,HashMap也不例外,归根到底HashMap就是一个链表散列的数据
- Java Swing如何实时刷新JTextArea,以显示刚才加append的内容
周凡杨
java更新swingJTextArea
在代码中执行完textArea.append("message")后,如果你想让这个更新立刻显示在界面上而不是等swing的主线程返回后刷新,我们一般会在该语句后调用textArea.invalidate()和textArea.repaint()。
问题是这个方法并不能有任何效果,textArea的内容没有任何变化,这或许是swing的一个bug,有一个笨拙的办法可以实现
- servlet或struts的Action处理ajax请求
g21121
servlet
其实处理ajax的请求非常简单,直接看代码就行了:
//如果用的是struts
//HttpServletResponse response = ServletActionContext.getResponse();
// 设置输出为文字流
response.setContentType("text/plain");
// 设置字符集
res
- FineReport的公式编辑框的语法简介
老A不折腾
finereport公式总结
FINEREPORT用到公式的地方非常多,单元格(以=开头的便被解析为公式),条件显示,数据字典,报表填报属性值定义,图表标题,轴定义,页眉页脚,甚至单元格的其他属性中的鼠标悬浮提示内容都可以写公式。
简单的说下自己感觉的公式要注意的几个地方:
1.if语句语法刚接触感觉比较奇怪,if(条件式子,值1,值2),if可以嵌套,if(条件式子1,值1,if(条件式子2,值2,值3)
- linux mysql 数据库乱码的解决办法
墙头上一根草
linuxmysql数据库乱码
linux 上mysql数据库区分大小写的配置
lower_case_table_names=1 1-不区分大小写 0-区分大小写
修改/etc/my.cnf 具体的修改内容如下:
[client]
default-character-set=utf8
[mysqld]
datadir=/var/lib/mysql
socket=/va
- 我的spring学习笔记6-ApplicationContext实例化的参数兼容思想
aijuans
Spring 3
ApplicationContext能读取多个Bean定义文件,方法是:
ApplicationContext appContext = new ClassPathXmlApplicationContext(
new String[]{“bean-config1.xml”,“bean-config2.xml”,“bean-config3.xml”,“bean-config4.xml
- mysql 基准测试之sysbench
annan211
基准测试mysql基准测试MySQL测试sysbench
1 执行如下命令,安装sysbench-0.5:
tar xzvf sysbench-0.5.tar.gz
cd sysbench-0.5
chmod +x autogen.sh
./autogen.sh
./configure --with-mysql --with-mysql-includes=/usr/local/mysql
- sql的复杂查询使用案列与技巧
百合不是茶
oraclesql函数数据分页合并查询
本片博客使用的数据库表是oracle中的scott用户表;
------------------- 自然连接查询
查询 smith 的上司(两种方法)
&
- 深入学习Thread类
bijian1013
javathread多线程java多线程
一. 线程的名字
下面来看一下Thread类的name属性,它的类型是String。它其实就是线程的名字。在Thread类中,有String getName()和void setName(String)两个方法用来设置和获取这个属性的值。
同时,Thr
- JSON串转换成Map以及如何转换到对应的数据类型
bijian1013
javafastjsonnet.sf.json
在实际开发中,难免会碰到JSON串转换成Map的情况,下面来看看这方面的实例。另外,由于fastjson只支持JDK1.5及以上版本,因此在JDK1.4的项目中可以采用net.sf.json来处理。
一.fastjson实例
JsonUtil.java
package com.study;
impor
- 【RPC框架HttpInvoker一】HttpInvoker:Spring自带RPC框架
bit1129
spring
HttpInvoker是Spring原生的RPC调用框架,HttpInvoker同Burlap和Hessian一样,提供了一致的服务Exporter以及客户端的服务代理工厂Bean,这篇文章主要是复制粘贴了Hessian与Spring集成一文,【RPC框架Hessian四】Hessian与Spring集成
在
【RPC框架Hessian二】Hessian 对象序列化和反序列化一文中
- 【Mahout二】基于Mahout CBayes算法的20newsgroup的脚本分析
bit1129
Mahout
#!/bin/bash
#
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information re
- nginx三种获取用户真实ip的方法
ronin47
随着nginx的迅速崛起,越来越多公司将apache更换成nginx. 同时也越来越多人使用nginx作为负载均衡, 并且代理前面可能还加上了CDN加速,但是随之也遇到一个问题:nginx如何获取用户的真实IP地址,如果后端是apache,请跳转到<apache获取用户真实IP地址>,如果是后端真实服务器是nginx,那么继续往下看。
实例环境: 用户IP 120.22.11.11
- java-判断二叉树是不是平衡
bylijinnan
java
参考了
http://zhedahht.blog.163.com/blog/static/25411174201142733927831/
但是用java来实现有一个问题。
由于Java无法像C那样“传递参数的地址,函数返回时能得到参数的值”,唯有新建一个辅助类:AuxClass
import ljn.help.*;
public class BalancedBTree {
- BeanUtils.copyProperties VS PropertyUtils.copyProperties
诸葛不亮
PropertyUtilsBeanUtils
BeanUtils.copyProperties VS PropertyUtils.copyProperties
作为两个bean属性copy的工具类,他们被广泛使用,同时也很容易误用,给人造成困然;比如:昨天发现同事在使用BeanUtils.copyProperties copy有integer类型属性的bean时,没有考虑到会将null转换为0,而后面的业
- [金融与信息安全]最简单的数据结构最安全
comsci
数据结构
现在最流行的数据库的数据存储文件都具有复杂的文件头格式,用操作系统的记事本软件是无法正常浏览的,这样的情况会有什么问题呢?
从信息安全的角度来看,如果我们数据库系统仅仅把这种格式的数据文件做异地备份,如果相同版本的所有数据库管理系统都同时被攻击,那么
- vi区段删除
Cwind
linuxvi区段删除
区段删除是编辑和分析一些冗长的配置文件或日志文件时比较常用的操作。简记下vi区段删除要点备忘。
vi概述
引文中并未将末行模式单独列为一种模式。单不单列并不重要,能区分命令模式与末行模式即可。
vi区段删除步骤:
1. 在末行模式下使用:set nu显示行号
非必须,随光标移动vi右下角也会显示行号,能够正确找到并记录删除开始行
- 清除tomcat缓存的方法总结
dashuaifu
tomcat缓存
用tomcat容器,大家可能会发现这样的问题,修改jsp文件后,但用IE打开 依然是以前的Jsp的页面。
出现这种现象的原因主要是tomcat缓存的原因。
解决办法如下:
在jsp文件头加上
<meta http-equiv="Expires" content="0"> <meta http-equiv="kiben&qu
- 不要盲目的在项目中使用LESS CSS
dcj3sjt126com
Webless
如果你还不知道LESS CSS是什么东西,可以看一下这篇文章,是我一朋友写给新人看的《CSS——LESS》
不可否认,LESS CSS是个强大的工具,它弥补了css没有变量、无法运算等一些“先天缺陷”,但它似乎给我一种错觉,就是为了功能而实现功能。
比如它的引用功能
?
.rounded_corners{
- [入门]更上一层楼
dcj3sjt126com
PHPyii2
更上一层楼
通篇阅读完整个“入门”部分,你就完成了一个完整 Yii 应用的创建。在此过程中你学到了如何实现一些常用功能,例如通过 HTML 表单从用户那获取数据,从数据库中获取数据并以分页形式显示。你还学到了如何通过 Gii 去自动生成代码。使用 Gii 生成代码把 Web 开发中多数繁杂的过程转化为仅仅填写几个表单就行。
本章将介绍一些有助于更好使用 Yii 的资源:
- Apache HttpClient使用详解
eksliang
httpclienthttp协议
Http协议的重要性相信不用我多说了,HttpClient相比传统JDK自带的URLConnection,增加了易用性和灵活性(具体区别,日后我们再讨论),它不仅是客户端发送Http请求变得容易,而且也方便了开发人员测试接口(基于Http协议的),即提高了开发的效率,也方便提高代码的健壮性。因此熟练掌握HttpClient是很重要的必修内容,掌握HttpClient后,相信对于Http协议的了解会
- zxing二维码扫描功能
gundumw100
androidzxing
经常要用到二维码扫描功能
现给出示例代码
import com.google.zxing.WriterException;
import com.zxing.activity.CaptureActivity;
import com.zxing.encoding.EncodingHandler;
import android.app.Activity;
import an
- 纯HTML+CSS带说明的黄色导航菜单
ini
htmlWebhtml5csshovertree
HoverTree带说明的CSS菜单:纯HTML+CSS结构链接带说明的黄色导航
在线体验效果:http://hovertree.com/texiao/css/1.htm代码如下,保存到HTML文件可以看到效果:
<!DOCTYPE html >
<html >
<head>
<title>HoverTree
- fastjson初始化对性能的影响
kane_xie
fastjson序列化
之前在项目中序列化是用thrift,性能一般,而且需要用编译器生成新的类,在序列化和反序列化的时候感觉很繁琐,因此想转到json阵营。对比了jackson,gson等框架之后,决定用fastjson,为什么呢,因为看名字感觉很快。。。
网上的说法:
fastjson 是一个性能很好的 Java 语言实现的 JSON 解析器和生成器,来自阿里巴巴的工程师开发。
- 基于Mybatis封装的增删改查实现通用自动化sql
mengqingyu
DAO
1.基于map或javaBean的增删改查可实现不写dao接口和实现类以及xml,有效的提高开发速度。
2.支持自定义注解包括主键生成、列重复验证、列名、表名等
3.支持批量插入、批量更新、批量删除
<bean id="dynamicSqlSessionTemplate" class="com.mqy.mybatis.support.Dynamic
- js控制input输入框的方法封装(数字,中文,字母,浮点数等)
qifeifei
javascript js
在项目开发的时候,经常有一些输入框,控制输入的格式,而不是等输入好了再去检查格式,格式错了就报错,体验不好。 /** 数字,中文,字母,浮点数(+/-/.) 类型输入限制,只要在input标签上加上 jInput="number,chinese,alphabet,floating" 备注:floating属性只能单独用*/
funct
- java 计时器应用
tangqi609567707
javatimer
mport java.util.TimerTask; import java.util.Calendar; public class MyTask extends TimerTask { private static final int
- erlang输出调用栈信息
wudixiaotie
erlang
在erlang otp的开发中,如果调用第三方的应用,会有有些错误会不打印栈信息,因为有可能第三方应用会catch然后输出自己的错误信息,所以对排查bug有很大的阻碍,这样就要求我们自己打印调用的栈信息。用这个函数:erlang:process_display (self (), backtrace).需要注意这个函数只会输出到标准错误输出。
也可以用这个函数:erlang:get_s