- 爬虫学习笔记-scrapy链接提取器爬取读书网链接写入MySQL数据库
DevCodeMemo
爬虫学习笔记
1.终端运行scrapystartprojectscrapy_read,创建项目2.登录读书网,选择国学(随便点一个)3.复制链接(后面修改为包括其他页)4.创建爬虫文件,并打开5.滑倒下方翻页处,右键2,点击检查,查看到a标签网址,复制6.修改爬虫文件规则allow(正则表达式),'\d'表示数字,'+'表示多个,'\.'使'.'生效7.在parse_item中编写打印,scrapycrawlr
- 爬虫学习笔记-scrapy爬取电影天堂(双层网址嵌套)
DevCodeMemo
爬虫学习笔记
1.终端运行scrapystartprojectmovie,创建项目2.接口查找3.终端cd到spiders,cdscrapy_carhome/scrapy_movie/spiders,运行scrapygenspidermvhttps://dy2018.com/4.打开mv,编写代码,爬取电影名和网址5.用爬取的网址请求,使用meta属性传递name,callback调用自定义的parse_sec
- 爬虫学习笔记-scrapy爬取当当网
DevCodeMemo
爬虫学习笔记
1.终端运行scrapystartprojectscrapy_dangdang,创建项目2.接口查找3.cd100个案例/Scrapy/scrapy_dangdang/scrapy_dangdang/spiders到文件夹下,创建爬虫程序4.items定义ScrapyDangdangItem的数据结构(要爬取的数据)src,name,price5.爬取src,name,price数据导入items
- 爬虫学习笔记-scrapy爬取汽车之家
DevCodeMemo
爬虫学习笔记
1.终端运行scrapystartprojectscrapy_carhome,创建项目2.接口查找3.终端cd到spiders,cdscrapy_carhome/scrapy_carhome/spiders,运行scrapygenspideraudihttps://car.autohome.com.cn/price/brand-33.html4.打开audi,编写代码,xpath获取页面车型价格列
- 爬虫学习笔记-scrapy安装及第一个项目创建问题及解决措施
DevCodeMemo
爬虫学习笔记
1.安装scrapypycharm终端运行pipinstallscrapy-ihttps://pypi.douban.com/simple2.终端运行scrapystartprojectscrapy_baidu,创建项目问题1:lxml版本低导致无法找到解决措施:更新或者重新安装lxml3.项目创建成功4.终端cd到项目的spiders文件夹下,cdscrapy_baidu\scrapy_baid
- python爬虫学习笔记之数据提取
py爱好者~
笔记1024程序员节python爬虫
参考博客:python爬虫学习笔记_fdk少东家的博客-CSDN博客1、XPath语法和lxml库1.01、什么是XPath?xpath(XMLPathLanguage)是一门在XML和HTML文档中查找信息的语言,可用来在XML和HTML文档中对元素和属性进行遍历。1.02、XPath工具Chrome插件XPathHelper。Firefox插件XPathChecker。1.03、XPath语法
- python爬虫学习笔记之数据存储
py爱好者~
笔记python爬虫
参考博客:python爬虫学习笔记_fdk少东家的博客-CSDN博客1、json文件处理:1.01、什么是json:JSON(JavaScriptObjectNotation,JS对象标记)是一种轻量级的数据交换格式。它基于ECMAScript(w3c制定的js规范)的一个子集,采用完全独立于编程语言的文本格式来存储和表示数据。简洁欸和清晰的层次结构使得JSON成为理想的数据交换语言。易于人阅读和
- python爬虫学习笔记之网络请求
py爱好者~
笔记分类爬虫python
参考博客:python爬虫学习笔记_fdk少东家的博客-CSDN博客'requests'库安装和文档地址:利用pip进行安装:pipinstallrequests中文文档:Requests:让HTTP服务人类—Requests2.18.1文档发送GET请求:1.最简单的发送get请求就是通过requests.get来调用:response=requests.get('http://www.baid
- 爬虫学习笔记-Cookie登录古诗文网
DevCodeMemo
爬虫学习笔记
1.导包请求importrequests2.获取古诗文网登录接口url='https://so.gushiwen.cn/user/login.aspxfrom=http%3a%2f%2fso.gushiwen.cn%2fuser%2fcollect.aspx'#请求头headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWe
- 爬虫学习笔记-handless的使用
DevCodeMemo
爬虫学习笔记
1.封装handless函数#定义函数defshare_browser():#导包fromseleniumimportwebdriverfromselenium.webdriver.chrome.optionsimportOptionschrome_options=Options()chrome_options.add_argument('--headless')chrome_options.ad
- 爬虫学习笔记-requests的使用
DevCodeMemo
爬虫学习笔记
get请求百度北京源码importrequestsurl='http://www.baidu.com/s?'headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/120.0.0.0Safari/537.36'}data={'wd':'北京'}respo
- 爬虫学习笔记-selenium交互
DevCodeMemo
python开发语言
1.导包fromseleniumimportwebdriverimporttimefromselenium.webdriver.common.byimportBy2.打开浏览器访问百度页面,睡眠2秒url='https://www.baidu.com'browser=webdriver.Chrome()browser.get(url)time.sleep(2)3.获取输入框,输入搜索的内容,睡眠2
- 爬虫学习笔记-post请求获取翻译详情
DevCodeMemo
爬虫学习笔记
1.导入爬虫需要使用的包importurllib.requestimporturllib.parse2.定义url如图查看请求urlurl='https://fanyi.baidu.com/v2transapi?from=en&to=zh'3.定义请求头查看preview带有数据的请求接口,复制headers中requestheaders所有内容,格式如下:headers={'Accept':'*
- 爬虫学习笔记-站长素材网站图片下载
DevCodeMemo
爬虫学习笔记
1.导入必要的模块:-`urllib.request`:用于发送HTTP请求和获取响应。-`urllib.parse`:用于解析URL。-`lxml.etree`:用于解析HTML内容。2.创建一个`create_request`函数该函数接受一个参数`page`表示页面编号。根据`page`的值,构造相应的URL,并设置请求头信息。3.创建一个`get_content`函数该函数接受一个参数`r
- python hack-requests_Python爬虫学习笔记(二)——requests库的使用
weixin_39832628
pythonhack-requests
准备工作requests库不是python自带的库,可以用pip安装。在使用时导入requests即可。基本用法GET请求r=requests.get(url)print(r.text)其中,网页返回的内容是json格式的字符串类型,所以可以直接调用json()方法得到字典格式的内容print(r.json())此外,如果需要附加额外的信息,可以用params这个参数,示例如下:data={'na
- python爬虫学习笔记(一)——requests库
梦独吟
python爬虫pythonpython
一.HTTP基本原理1.URL和URIURL是URI的子集,URI还包括URN,在互联网中,我们一般的网页链接可以被称为URL或者URI,大多数人称为URL。2.超文本我们平常在网站浏览的网页就是超文本解析而成的,这些源代码是一系列的HTML代码,如img:显示图片,p:指定显示段落等。HTML可以被称为超文本。3.http和httpsHTTP,HypertextTransferProtocol,
- Python爬虫学习笔记(一)---Python入门
摩卡摩卡~
2024科研python爬虫学习
一、pycharm的安装及使用二、python的基础使用1、字符串连接2、单双引号转义3、换行4、三引号跨行字符串5、命名规则6、注释7、优先级not>and>or8、列表(list)9、字典(dictionary)10、元组(tuple)11、迭代12、format方法13、引入模块14、文件15、异常与测试一、pycharm的安装及使用pycharm的安装可以自行去搜索教程。pycharm的使
- 爬虫学习笔记(十八)—— 点触验证码:超级鹰、12306自动登录
别呀
Python系列#爬虫学习篇
一、打码平台点触验证码是一种常见的反爬手段。解决方案有两种:一种是直接解决,这需要深度学习机器学习等图像处理技术,以大量的数据训练识别模型,最终达到模型足矣识别图片中的文字提示和应该点击的区域之间的对应关系。这需要非常专业的设备,比如TPU运算,和专业的开发和维护人员。因此市面上有专业解决此类问题的OCR解决提供商。也就是第二种间接解决的方案,调用第三方接口。接下来将给大家介绍一款好用的第三方接口
- 第一个Python程序_获取网页 HTML 信息[Python爬虫学习笔记]
宇宙超粒终端控制中心
PythonPython爬虫pythonhtml爬虫
使用Python内置的urllib库获取网页的html信息。注意,urllib库属于Python的标准库模块,无须单独安装,它是Python爬虫的常用模块。获取网页HTML信息1)获取响应对象向百度(http://www.baidu.com/)发起请求,获取百度首页的HTML信息,代码如下:#导包,发起请求使用urllib库的request请求模块importurllib.request#urlo
- 爬虫爬取裁判文书网_爬取中国裁判文书网的初步尝试——爬虫学习笔记(3)...
我投三分
爬虫爬取裁判文书网
今天在CSDN上看了不少帖子,发现裁判文书网的爬取难度很高,据说是由国内顶尖的瑞数信息提供的防护措施,在请求参数中加入了三个加密参数,什么DES3加密直接把我看懵了。对于初学者,我们只好另找一种笨办法——selenium。如果说requests是将我们伪装成浏览器发送请求,那么selenium就是将浏览器当做我们的提线木偶。相比requests,selenium既有优点也有缺点。优点在于selen
- 爬虫学习笔记(一)
蛋黄果
importrequestsURL=’http://www.douban.com‘data=requests.get(URL)print(data.text)说明:importrequests.#调入需要的库requestsURL:将变量网址URL赋值为网址地址data=requests.get(URL)#利用requests库的get方法,向此URL发起请求,并将服务器返回的内容存入变量data
- Python爬虫学习笔记 (9) [初级] 小练习 爬取慕课网课程清单
Alice
Python爬虫python爬虫xlwings
更新日期:2021.03.28本节学习内容:练习使用bs4和xlwings-爬取慕课网免费课程清单并存为Excel文件。目录1.目标信息2.爬取步骤3.代码5.几个想法~~1.目标信息目标网站:https://www.imooc.com/目标信息:所有免费课程的名称,链接,方向,分类,讲师,难度,时长等。2020.03.28日慕课网免费课程清单有20个网页,每页有40个课程,点击课程的链接可进一步
- c#使用正则表达式获取TR中的多个TD_python爬虫学习笔记:XPath语法和使用示例
weixin_39845206
python获取class下所有td内容xpath第一个元素
python爬虫:XPath语法和使用示例XPath(XMLPathLanguage)是一门在XML文档中查找信息的语言,可以用来在XML文档中对元素和属性进行遍历。选取节点XPath使用路径表达式来选取XML文档中的节点或者节点集。这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似。常用路径表达式:实例在下面的表格中,列出一些路径表达式以及表达式的结果:
- 爬虫学习笔记(1)-- 利用Python从网页抓取数据
baliang9989
爬虫python开发工具
最近想从一个网站上下载资源,懒得一个个的点击下载了,想写一个爬虫把程序全部下载下来,在这里做一个简单的记录Python的基础语法在这里就不多做叙述了,黑马程序员上有一个基础的视频教学,可以跟着学习一下本篇博客为基础章:利用Python从网页端抓取数据,闲话不多说,开始正题:首先需要学习这几个模块:1webbrowser:Python自带的模块,打开浏览器获取到指定的页面2requests:从英特网
- python爬虫笔记_Python 爬虫学习笔记之多线程爬虫
weixin_39854681
python爬虫笔记
likeoneliketwolikethreehateonehatetwohatethree百度一下好123
- 爬虫学习笔记(一)——爬取酷狗TOP500
roadkiller.
Python爬虫
参考学习网址:https://python123.io/python/muxiatong/5dd14d1b71efdc10be55ee22---------------------------------------------------------------------------------------------------------------------工具:用到requests库
- 爬虫学习笔记
大鱼不会飞丶
爬虫笔记爬虫笔记
爬虫学习笔记爬虫的概念模拟浏览器发起请求,获取响应数据爬虫的流程url--->响应内容--->抓取数据--->保存到数据库爬虫要根据当前URL地址对应的响应为准,当前URL地址的elements的内容和URL的响应不一样当前URL地址对应的响应中其他URL地址对应的响应中比如ajax请求中js生成的部分数据在响应中全部通过js生成URL组成部分形式scheme://host[:port#]/pat
- 【Python爬虫学习笔记_day04】
LKL1026
Python爬虫学习笔记python爬虫学习
1.爬虫入门网络爬虫:(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。爬虫步骤:1.准备有效的URL2.发送请求,获取响应对象3.从响应对象中提取数据4.检索自己想要的数据5.数据保存或者数据可视化requests模块:模拟人去浏览器中发送请求给web服
- 【笔记】2、初学python3网络爬虫——爬虫的基本原理
BenkoZhao
初学python爬虫python网络爬虫
python3网络爬虫——爬虫的基本原理这是我的第二篇python3网络爬虫学习笔记学习指引:视频教程《python3网络爬虫实战》为了避免学习后短时间内遗忘,让自己随时可以查阅前方自己学过的知识,特意注册csdn博客,方便自己学习时做笔记,也方便随时回顾。也希望自己的学习过程能给同样初学python爬虫的你带来一点指引!由于自己是新手,只有一点点的python基础,所以笔记中难免会有很多纰漏,还
- 商业爬虫学习笔记day1
weixin_30617737
day1一.HTTP1.介绍:https://www.cnblogs.com/vamei/archive/2013/05/11/3069788.htmlhttp://blog.csdn.net/guyuealian/article/details/525352942.当用户输入网址(如www.baidu.com),发送网络请求的过程是什么?上图应该还有往回的箭头(即服务器从数据库获取得到指定的请求
- jQuery 跨域访问的三种方式 No 'Access-Control-Allow-Origin' header is present on the reque
qiaolevip
每天进步一点点学习永无止境跨域众观千象
XMLHttpRequest cannot load http://v.xxx.com. No 'Access-Control-Allow-Origin' header is present on the requested resource. Origin 'http://localhost:63342' is therefore not allowed access. test.html:1
- mysql 分区查询优化
annan211
java分区优化mysql
分区查询优化
引入分区可以给查询带来一定的优势,但同时也会引入一些bug.
分区最大的优点就是优化器可以根据分区函数来过滤掉一些分区,通过分区过滤可以让查询扫描更少的数据。
所以,对于访问分区表来说,很重要的一点是要在where 条件中带入分区,让优化器过滤掉无需访问的分区。
可以通过查看explain执行计划,是否携带 partitions
- MYSQL存储过程中使用游标
chicony
Mysql存储过程
DELIMITER $$
DROP PROCEDURE IF EXISTS getUserInfo $$
CREATE PROCEDURE getUserInfo(in date_day datetime)-- -- 实例-- 存储过程名为:getUserInfo-- 参数为:date_day日期格式:2008-03-08-- BEGINdecla
- mysql 和 sqlite 区别
Array_06
sqlite
转载:
http://www.cnblogs.com/ygm900/p/3460663.html
mysql 和 sqlite 区别
SQLITE是单机数据库。功能简约,小型化,追求最大磁盘效率
MYSQL是完善的服务器数据库。功能全面,综合化,追求最大并发效率
MYSQL、Sybase、Oracle等这些都是试用于服务器数据量大功能多需要安装,例如网站访问量比较大的。而sq
- pinyin4j使用
oloz
pinyin4j
首先需要pinyin4j的jar包支持;jar包已上传至附件内
方法一:把汉字转换为拼音;例如:编程转换后则为biancheng
/**
* 将汉字转换为全拼
* @param src 你的需要转换的汉字
* @param isUPPERCASE 是否转换为大写的拼音; true:转换为大写;fal
- 微博发送私信
随意而生
微博
在前面文章中说了如和获取登陆时候所需要的cookie,现在只要拿到最后登陆所需要的cookie,然后抓包分析一下微博私信发送界面
http://weibo.com/message/history?uid=****&name=****
可以发现其发送提交的Post请求和其中的数据,
让后用程序模拟发送POST请求中的数据,带着cookie发送到私信的接入口,就可以实现发私信的功能了。
- jsp
香水浓
jsp
JSP初始化
容器载入JSP文件后,它会在为请求提供任何服务前调用jspInit()方法。如果您需要执行自定义的JSP初始化任务,复写jspInit()方法就行了
JSP执行
这一阶段描述了JSP生命周期中一切与请求相关的交互行为,直到被销毁。
当JSP网页完成初始化后
- 在 Windows 上安装 SVN Subversion 服务端
AdyZhang
SVN
在 Windows 上安装 SVN Subversion 服务端2009-09-16高宏伟哈尔滨市道里区通达街291号
最佳阅读效果请访问原地址:http://blog.donews.com/dukejoe/archive/2009/09/16/1560917.aspx
现在的Subversion已经足够稳定,而且已经进入了它的黄金时段。我们看到大量的项目都在使
- android开发中如何使用 alertDialog从listView中删除数据?
aijuans
android
我现在使用listView展示了很多的配置信息,我现在想在点击其中一条的时候填出 alertDialog,点击确认后就删除该条数据,( ArrayAdapter ,ArrayList,listView 全部删除),我知道在 下面的onItemLongClick 方法中 参数 arg2 是选中的序号,但是我不知道如何继续处理下去 1 2 3
- jdk-6u26-linux-x64.bin 安装
baalwolf
linux
1.上传安装文件(jdk-6u26-linux-x64.bin)
2.修改权限
[root@localhost ~]# ls -l /usr/local/jdk-6u26-linux-x64.bin
3.执行安装文件
[root@localhost ~]# cd /usr/local
[root@localhost local]# ./jdk-6u26-linux-x64.bin&nbs
- MongoDB经典面试题集锦
BigBird2012
mongodb
1.什么是NoSQL数据库?NoSQL和RDBMS有什么区别?在哪些情况下使用和不使用NoSQL数据库?
NoSQL是非关系型数据库,NoSQL = Not Only SQL。
关系型数据库采用的结构化的数据,NoSQL采用的是键值对的方式存储数据。
在处理非结构化/半结构化的大数据时;在水平方向上进行扩展时;随时应对动态增加的数据项时可以优先考虑使用NoSQL数据库。
在考虑数据库的成熟
- JavaScript异步编程Promise模式的6个特性
bijian1013
JavaScriptPromise
Promise是一个非常有价值的构造器,能够帮助你避免使用镶套匿名方法,而使用更具有可读性的方式组装异步代码。这里我们将介绍6个最简单的特性。
在我们开始正式介绍之前,我们想看看Javascript Promise的样子:
var p = new Promise(function(r
- [Zookeeper学习笔记之八]Zookeeper源代码分析之Zookeeper.ZKWatchManager
bit1129
zookeeper
ClientWatchManager接口
//接口的唯一方法materialize用于确定那些Watcher需要被通知
//确定Watcher需要三方面的因素1.事件状态 2.事件类型 3.znode的path
public interface ClientWatchManager {
/**
* Return a set of watchers that should
- 【Scala十五】Scala核心九:隐式转换之二
bit1129
scala
隐式转换存在的必要性,
在Java Swing中,按钮点击事件的处理,转换为Scala的的写法如下:
val button = new JButton
button.addActionListener(
new ActionListener {
def actionPerformed(event: ActionEvent) {
- Android JSON数据的解析与封装小Demo
ronin47
转自:http://www.open-open.com/lib/view/open1420529336406.html
package com.example.jsondemo;
import org.json.JSONArray;
import org.json.JSONException;
import org.json.JSONObject;
impor
- [设计]字体创意设计方法谈
brotherlamp
UIui自学ui视频ui教程ui资料
从古至今,文字在我们的生活中是必不可少的事物,我们不能想象没有文字的世界将会是怎样。在平面设计中,UI设计师在文字上所花的心思和功夫最多,因为文字能直观地表达UI设计师所的意念。在文字上的创造设计,直接反映出平面作品的主题。
如设计一幅戴尔笔记本电脑的广告海报,假设海报上没有出现“戴尔”两个文字,即使放上所有戴尔笔记本电脑的图片都不能让人们得知这些电脑是什么品牌。只要写上“戴尔笔
- 单调队列-用一个长度为k的窗在整数数列上移动,求窗里面所包含的数的最大值
bylijinnan
java算法面试题
import java.util.LinkedList;
/*
单调队列 滑动窗口
单调队列是这样的一个队列:队列里面的元素是有序的,是递增或者递减
题目:给定一个长度为N的整数数列a(i),i=0,1,...,N-1和窗长度k.
要求:f(i) = max{a(i-k+1),a(i-k+2),..., a(i)},i = 0,1,...,N-1
问题的另一种描述就
- struts2处理一个form多个submit
chiangfai
struts2
web应用中,为完成不同工作,一个jsp的form标签可能有多个submit。如下代码:
<s:form action="submit" method="post" namespace="/my">
<s:textfield name="msg" label="叙述:">
- shell查找上个月,陷阱及野路子
chenchao051
shell
date -d "-1 month" +%F
以上这段代码,假如在2012/10/31执行,结果并不会出现你预计的9月份,而是会出现八月份,原因是10月份有31天,9月份30天,所以-1 month在10月份看来要减去31天,所以直接到了8月31日这天,这不靠谱。
野路子解决:假设当天日期大于15号
- mysql导出数据中文乱码问题
daizj
mysql中文乱码导数据
解决mysql导入导出数据乱码问题方法:
1、进入mysql,通过如下命令查看数据库编码方式:
mysql> show variables like 'character_set_%';
+--------------------------+----------------------------------------+
| Variable_name&nbs
- SAE部署Smarty出现:Uncaught exception 'SmartyException' with message 'unable to write
dcj3sjt126com
PHPsmartysae
对于SAE出现的问题:Uncaught exception 'SmartyException' with message 'unable to write file...。
官方给出了详细的FAQ:http://sae.sina.com.cn/?m=faqs&catId=11#show_213
解决方案为:
01
$path
- 《教父》系列台词
dcj3sjt126com
Your love is also your weak point.
你的所爱同时也是你的弱点。
If anything in this life is certain, if history has taught us anything, it is
that you can kill anyone.
不顾家的人永远不可能成为一个真正的男人。 &
- mongodb安装与使用
dyy_gusi
mongo
一.MongoDB安装和启动,widndows和linux基本相同
1.下载数据库,
linux:mongodb-linux-x86_64-ubuntu1404-3.0.3.tgz
2.解压文件,并且放置到合适的位置
tar -vxf mongodb-linux-x86_64-ubun
- Git排除目录
geeksun
git
在Git的版本控制中,可能有些文件是不需要加入控制的,那我们在提交代码时就需要忽略这些文件,下面讲讲应该怎么给Git配置一些忽略规则。
有三种方法可以忽略掉这些文件,这三种方法都能达到目的,只不过适用情景不一样。
1. 针对单一工程排除文件
这种方式会让这个工程的所有修改者在克隆代码的同时,也能克隆到过滤规则,而不用自己再写一份,这就能保证所有修改者应用的都是同一
- Ubuntu 创建开机自启动脚本的方法
hongtoushizi
ubuntu
转载自: http://rongjih.blog.163.com/blog/static/33574461201111504843245/
Ubuntu 创建开机自启动脚本的步骤如下:
1) 将你的启动脚本复制到 /etc/init.d目录下 以下假设你的脚本文件名为 test。
2) 设置脚本文件的权限 $ sudo chmod 755
- 第八章 流量复制/AB测试/协程
jinnianshilongnian
nginxluacoroutine
流量复制
在实际开发中经常涉及到项目的升级,而该升级不能简单的上线就完事了,需要验证该升级是否兼容老的上线,因此可能需要并行运行两个项目一段时间进行数据比对和校验,待没问题后再进行上线。这其实就需要进行流量复制,把流量复制到其他服务器上,一种方式是使用如tcpcopy引流;另外我们还可以使用nginx的HttpLuaModule模块中的ngx.location.capture_multi进行并发
- 电商系统商品表设计
lkl
DROP TABLE IF EXISTS `category`; -- 类目表
/*!40101 SET @saved_cs_client = @@character_set_client */;
/*!40101 SET character_set_client = utf8 */;
CREATE TABLE `category` (
`id` int(11) NOT NUL
- 修改phpMyAdmin导入SQL文件的大小限制
pda158
sqlmysql
用phpMyAdmin导入mysql数据库时,我的10M的
数据库不能导入,提示mysql数据库最大只能导入2M。
phpMyAdmin数据库导入出错: You probably tried to upload too large file. Please refer to documentation for ways to workaround this limit.
- Tomcat性能调优方案
Sobfist
apachejvmtomcat应用服务器
一、操作系统调优
对于操作系统优化来说,是尽可能的增大可使用的内存容量、提高CPU的频率,保证文件系统的读写速率等。经过压力测试验证,在并发连接很多的情况下,CPU的处理能力越强,系统运行速度越快。。
【适用场景】 任何项目。
二、Java虚拟机调优
应该选择SUN的JVM,在满足项目需要的前提下,尽量选用版本较高的JVM,一般来说高版本产品在速度和效率上比低版本会有改进。
J
- SQLServer学习笔记
vipbooks
数据结构xml
1、create database school 创建数据库school
2、drop database school 删除数据库school
3、use school 连接到school数据库,使其成为当前数据库
4、create table class(classID int primary key identity not null)
创建一个名为class的表,其有一