- scrapy学习笔记0827
github_czy
scrapy学习笔记
1.总之先启动先安装scrapy,pipinstallscrapy创建scrapy项目,生成的项目结构应该如图所示,scrapystartprojectexample选择需要爬取的页面并分析,这里选定的页面是Allproducts|BookstoScrape-Sandbox一个供给爬虫学者练手的网站,我们需要爬取上面的书籍信息,解析我们需要的内容在那一段html标签里可以使用浏览器自带的开发者工具
- scrapy学习笔记0828-下
github_czy
scrapy学习笔记
1.爬取动态页面我们遇见的大多数网站不大可能会是单纯的静态网站,实际中更常见的是JavaScript通过HTTP请求跟网站动态交互获取数据(AJAX),然后使用数据更新HTML页面。爬取此类动态网页需要先执行页面中的JavaScript代码渲染页面,再进行爬取。在这里我们采用scrapy官方推荐的Splash渲染引擎,我们需要通过docker来安装splash并使其运行起来,这里就暂时不展开,安装
- 爬虫框架Scrapy学习笔记-3
friklogff
爬虫python爬虫scrapy学习
Scrapy管道详解:数据存储和图片下载引言在网络爬虫开发中,数据的存储和处理是至关重要的环节。Scrapy作为Python中一款强大的网络爬虫框架,提供了丰富的数据存储和处理功能,其中最重要的概念之一就是管道(Pipeline)。本文将深入探讨Scrapy管道的使用,包括如何将爬取的数据保存到不同的数据存储中,以及如何下载和处理图片数据。摘要本文将围绕以下主题展开讨论:CSV文件写入:介绍如何将
- Scrapy学习笔记(一)——使用Pycharm搭建编写Scrapy项目的环境
DivingKitten
EnvPython
写在前面:Python版本:3.6.1Pycharm版本:2018.1.4第一步:命令行构建Scrapy项目Pycharm中没有直接构建Scrapy项目的模板和指令,所以需要自行在命令行中通过指令进行项目的创建。格式:scrapy[指令][项目名]eg:scrapystartproject[project]第二步:使用Pycharm打开项目并配置编译环境项目创建完成后,便可以通过Pycharm打开
- Scrapy+Selenium自动化获取个人CSDN文章质量分
friklogff
python爬虫scrapyselenium自动化python学习
前言本文将介绍如何使用Scrapy和Selenium这两个强大的Python工具来自动获取个人CSDN文章的质量分数。我们将详细讨论Scrapy爬虫框架的使用,以及如何结合Selenium浏览器自动化工具来实现这一目标。无需手动浏览每篇文章,我们可以轻松地获取并记录文章的质量分数,从而更好地了解我们的博客表现。CSDN文章质量分查询链接Scrapy相关基础知识:爬虫框架Scrapy学习笔记-1爬虫
- 爬虫框架Scrapy学习笔记-2
friklogff
爬虫python爬虫scrapy学习
前言Scrapy是一个功能强大的Python爬虫框架,它被广泛用于抓取和处理互联网上的数据。本文将介绍Scrapy框架的架构概览、工作流程、安装步骤以及一个示例爬虫的详细说明,旨在帮助初学者了解如何使用Scrapy来构建和运行自己的网络爬虫。Scrapy架构概览Scrapy由以下主要组件构成:引擎(Engine):负责控制数据流在各个组件之间的流动,触发事务。调度器(Scheduler):接收引擎
- Scrapy学习笔记-Anaconda下安装
肥叔菌
安装Scrapy参考自Scrapy的官方手册:https://docs.scrapy.org/en/latest/intro/install.htmlScrapy在CPython(默认Python实现)和PyPy(从PyPy5.9开始)下的Python3.5或更高版本上运行。Anaconda下安装如果您使用的是Anaconda或Miniconda,则可以从conda-forge渠道安装该软件包,该
- Scrapy学习笔记(8)-使用signals来监控spider的状态
leeyis
场景介绍有时候我们需要在spider启动或者结束的时候执行一些特定的操作,比如说记录日志之类的,在scrapy中我们可以使用signals来实现。主要实现代码如下:#-*-coding:utf-8-*-fromscrapyimportsignalsfromscrapy.xlib.pydispatchimportdispatcherfromscrapy.linkextractorsimportLin
- 【Python_Scrapy学习笔记(一)】Scrapy框架简介
禾戊之昂
Python学习笔记#Scrapy学习笔记pythonscrapy爬虫网络爬虫
Scrapy框架简介前言Scrapy框架是一个用python实现的为了爬取网站数据、提取数据的应用框架,使用Twisted异步网络库来处理网络通讯,可以高效的完成数据爬取。本文主要介绍Scrapy框架的构成与工作原理。正文1、Scrapy安装Windows安装:-m-pipinstallScrapy或使用PyCharm可视化界面安装。2、Scrapy框架构成爬虫文件Spider:负责数据的解析提取
- 【Python_Scrapy学习笔记(十二)】基于Scrapy框架实现POST请求爬虫
禾戊之昂
Python学习笔记#Scrapy学习笔记python爬虫scrapy网络爬虫
基于Scrapy框架实现POST请求爬虫前言本文中介绍如何基于Scrapy框架实现POST请求爬虫,并以抓取指定城市的KFC门店信息为例进行展示正文1、Scrapy框架处理POST请求方法Scrapy框架提供了FormRequest()方法来发送POST请求;FormRequest()方法相比于Request()方法多了formdata参数,接受包含表单数据的字典或者可迭代的元组,并将其转化为请求
- 【Python_Scrapy学习笔记(十三)】基于Scrapy框架的图片管道实现图片抓取
禾戊之昂
Python学习笔记#Scrapy学习笔记pythonscrapy网络爬虫爬虫
基于Scrapy框架的图片管道实现图片抓取前言本文中介绍如何基于Scrapy框架的图片管道实现图片抓取,并以抓取360图片为例进行展示。正文1、Scrapy框架抓取图片原理利用Scrapy框架提供的图片管道类ImagesPipeline抓取页面图片,在使用时需要导入,并且重新get_media_requests()方法,如果对保存的文件名有要求,则需要重写file_path()方法,在settin
- 【Python_Scrapy学习笔记(十四)】基于Scrapy框架的文件管道实现文件抓取(基于Scrapy框架实现多级页面的抓取)
禾戊之昂
Python学习笔记#Scrapy学习笔记pythonscrapy网络爬虫爬虫
基于Scrapy框架的文件管道实现文件抓取(基于Scrapy框架实现多级页面的抓取)前言本文中介绍如何基于Scrapy框架的文件管道实现文件抓取(基于Scrapy框架实现多级页面的抓取),并以抓取第一PPT网站的PPT模板为例进行展示,同时抓取此网站数据的方式也是对如何使用Scrapy框架实现多级页面的抓取进行详解。正文1、Scrapy框架抓取文件原理Scrapy框架提供了文件管道类FilesPi
- 【Python_Scrapy学习笔记(十一)】基于Scrapy框架的下载器中间件添加Cookie参数
禾戊之昂
Python学习笔记#Scrapy学习笔记pythonscrapy中间件网络爬虫爬虫
基于Scrapy框架的下载器中间件添加Cookie参数前言本文中介绍如何基于Scrapy框架的下载器中间件添加Cookie参数。正文1、添加中间件的流程在middlewares.py中新建Cookie参数中间件类在settings.py中添加此下载器中间件,设置优先级并开启2、基于Scrapy框架的下载器中间件添加Cookie参数的流程在middlewares.py中新建Cookie参数中间件类#
- 【Python_Scrapy学习笔记(六)】Scrapy框架基本使用流程
禾戊之昂
#Scrapy学习笔记Python学习笔记pythonscrapy爬虫网络爬虫
Scrapy框架基本使用流程前言本文中介绍Scrapy框架的基本使用流程,并以抓取汽车之家二手车数据为例进行讲解。正文1、Scrapy框架基本使用流程创建爬虫项目:scrapystartprojecct项目名cd到项目文件夹:cd项目名创建爬虫文件:scrapygenspider爬虫文件名浏览器地址栏中的域名定义抓取的数据结构:编写items.py文件importscrapyclass项目名ite
- 【Python_Scrapy学习笔记(七)】基于Scrapy框架实现数据持久化
禾戊之昂
Python学习笔记#Scrapy学习笔记pythonscrapy网络爬虫爬虫
基于Scrapy框架实现数据持久化前言本文中介绍如何基于Scrapy框架实现数据持久化,包括Scrapy数据持久化到MySQL数据库、MangoDB数据库和本地csv文件、json文件。正文1、Scrapy数据持久化到MySQL数据库在settings.py中定义MySQL相关变量#定义MySQL数据库的相关变量MYSQL_HOST='xxxxxxxxx'MYSQL_USER='xxxx'MYSQ
- 【Python_Scrapy学习笔记(八)】基于Scrapy框架实现多级页面数据抓取
禾戊之昂
Python学习笔记#Scrapy学习笔记pythonscrapy网络爬虫爬虫
基于Scrapy框架实现多级页面数据抓取前言本文中介绍如何基于Scrapy框架实现多级页面数据的抓取,并以抓取汽车之家二手车数据为例进行讲解。正文在介绍如何基于Scrapy框架实现多级页面数据的抓取之前,先介绍下Scrapy框架的请求对象request和响应对象response。1、请求对象request属性及方法request.url:请求的url地址request.headers:请求头-字典
- 【Python_Scrapy学习笔记(二)】创建Scrapy爬虫项目
禾戊之昂
Python学习笔记#Scrapy学习笔记pythonscrapy网络爬虫爬虫
创建Scrapy爬虫项目前言本文主要介绍如何创建并运行Scrapy爬虫项目。正文1、创建Scrapy框架Scrapy框架提供了scrapy命令用来建立Scrapy工程,在终端terminal中输入以下命令:scrapystartproject自定义的项目名称创建好爬虫项目文件夹后先cd进入创建的爬虫项目,然后执行下列语句,即可生成一个爬虫文件:cd自定义的项目名称scrapygenspider创建
- 【Python_Scrapy学习笔记(三)】Scrapy框架之全局配置文件settings.py详解
禾戊之昂
Python学习笔记#Scrapy学习笔记pythonscrapy网络爬虫爬虫
Scrapy框架之全局配置文件settings.py详解前言settings.py文件是Scrapy框架下,用来进行全局配置的设置文件,可以进行User-Agent、请求头、最大并发数等的设置,本文中介绍settings.py文件下的一些常用配置正文1、爬虫的项目目录名、爬虫文件名BOT_NAME:Scrapy项目实现的bot的名字。用来构造默认User-Agent,同时也用来log。当使用sta
- 【Python_Scrapy学习笔记(四)】Scrapy框架之数据封装文件items.py详解
禾戊之昂
Python学习笔记#Scrapy学习笔记pythonscrapy网络爬虫爬虫
Scrapy框架之数据封装文件items.py详解前言items.py文件是Scrapy框架下,用来进行数据封装的文件,可以自定义爬取的字段,本文中介绍items.py文件的基本使用方法。正文1、items介绍Scrapy提供Item类来定义公共输出数据格式,Item对象是用于收集所抓取的数据的简单容器。当使用startproject命令创建项目时,items.py文件自动被创建。2、items定
- 【Python_Scrapy学习笔记(五)】Scrapy框架之管道文件pipelines.py详解
禾戊之昂
Python学习笔记#Scrapy学习笔记pythonscrapy网络爬虫爬虫
Scrapy框架之管道文件pipelines.py详解前言pipelines.py文件是Scrapy框架下,用于接收网络爬虫传过来的数据,以便做进一步处理的文件。例如验证实体的有效性、清除不需要的信息、存入数据库(持久化实体)、存入文本文件等。本文中介绍pipelines.py文件的基本使用方法。正文1、pipelines介绍管道文件pipelines.py主要用来对抓取的数据进行处理:一般一个类
- Scrapy学习笔记(9)-使用scrapy-deltafetch实现增量爬取
leeyis
前言在之前的文章中我们都是对目标站点进行全量爬取,只要爬虫run起来就会对所有的链接都爬取一遍,这其实是很傻的做法,因为很多情况下我们并不需要爬取已经爬过的链接,除非你需要定期更新这个链接对应页面上的数据。好了,回归正题,本文介绍scrapy使用scrapy-deltafetch这个插件来实现增量爬取,这里以爬取【美食杰】上的菜谱信息为例。正文安装scrapy-deltafetch$pipinst
- Python Scrapy 学习笔记
python
title:PythonScrapy学习笔记summary:在慕课网学习Scrapy时所作的笔记author:小Kdatetime:2021-08-1716:442021-08-2812:09tags:PythonScrapy笔记webcrawlingseleniumCSSselectorXPath[TOC]PythonScrapy学习笔记Scrapy爬虫编码一般过程创建项目。这个项目可用包含爬取
- Python爬虫框架Scrapy学习笔记
梦幻python
pygamepython爬虫爬虫python数据挖掘
scrapy.png本文主要内容针对Scrapy有初步了解的同学。结合作者的实际项目中遇到的一些问题,汇成本文。之后会写一些具体的爬虫demo,放到https://github.com/hanguangchao/scrapy_awesome鉴于作者接触爬虫不久,水平有限,文章难免出现纰漏,还请各位达人留言指导。内容提要Scrapy问题记录Scrapy问题示例代码Scrapy常用代码片段Scrapy
- Scrapy学习笔记(1)
啊啊啊海@
python
Scrapy学习笔记(1)介绍什么是Scrapy框架?Scrapy是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广泛。多用于抓取大量静态页面。框架的力量:用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内容以及各种图片,非常之方便。Scrapy使用了Twisted['twɪstɪd](其主要对手是Tornado)异步网络框架来处理网络通讯,可以
- Python爬虫框架Scrapy学习笔记原创
wxystyle
python
scrapy[TOC]开始scrapy安装首先手动安装windows版本的Twistedhttps://www.lfd.uci.edu/~gohlke/pythonlibs/#twistedpipinstallTwisted-18.4.0-cp36-cp36m-win_amd64.whl安装scrapypipinstall-ihttps://pypi.douban.com/simple/scrap
- Scrapy学习笔记(3)爬取知乎首页问题及答案
浅零半泣
Scrapy爬虫
目标:爬取知乎首页前x个问题的详情及问题指定范围内的答案的摘要powerby:Python3.6Scrapy1.4jsonpymysql项目地址:https://github.com/Dengqlbq/ZhiHuSpider.gitStep1——相关简介本文将注意力放在代码实现上,代码思路的描述将另开一文代码思路:http://blog.csdn.net/sinat_34200786/articl
- scrapy学习笔记(〇)
ATangYaaaa
人若无名,便可潜心练剑。本篇补冲基础知识:scrapy架构安装和shell用法。安装顺序:1.Python3.62.python-mpipinstallpywin323.python-mpipinstalllxml4.python-mpipinstallsetuptools5.python-mpipinstallzope.interface6.下载对应已编译版本:https://www.lfd.u
- Python爬虫框架Scrapy学习笔记
codefine
scrapy.png本文主要内容针对Scrapy有初步了解的同学。结合作者的实际项目中遇到的一些问题,汇成本文。之后会写一些具体的爬虫demo,放到https://github.com/hanguangchao/scrapy_awesome鉴于作者接触爬虫不久,水平有限,文章难免出现纰漏,还请各位达人留言指导。内容提要Scrapy问题记录Scrapy问题示例代码Scrapy常用代码片段Scrapy
- 西山小菜鸟之Scrapy学习笔记---splash简介
依然关注
Scrapy爬虫
前言 本文主要介绍scrapy-splash的理论知识。文中如有不正确的地方望大家指正。本文的主要内容出自书:《精通Scrapy网络爬虫》《虫术——Python绝技》背景 近几年随着前端技术和手机端App的飞速发展,互联网架构也发生了巨大的变化,尤其是一些前端框架的大面积应用,过去基于纯后端的Web结构已经明显过时了。越来越多的网站采用前后端分离的架构。 所谓前后端分离,就是指一
- 西山小菜鸟之Scrapy学习笔记---在Scrapy中使用代理
依然关注
Scrapy爬虫
前言本文中如有错误,请各位指正。背景 在爬取各大网页信息时,通过会遇到各种各样的反爬措施:很多网站会检测某一段时间某个IP的访问次数,如果访问频率太快以至于看起来不像正常的访客,那么它就可能就会禁止此IP的访问(有兴趣的小伙伴可以试试天眼查这个网站)。所以我们需要设置一些代理服务器,每隔一段时间换一个代理,就算IP被禁止,依然可以换个IP继续爬取,同时也不会暴露自己。 虽然网上有各在代
- scala的option和some
矮蛋蛋
编程scala
原文地址:
http://blog.sina.com.cn/s/blog_68af3f090100qkt8.html
对于学习 Scala 的 Java™ 开发人员来说,对象是一个比较自然、简单的入口点。在 本系列 前几期文章中,我介绍了 Scala 中一些面向对象的编程方法,这些方法实际上与 Java 编程的区别不是很大。我还向您展示了 Scala 如何重新应用传统的面向对象概念,找到其缺点
- NullPointerException
Cb123456
androidBaseAdapter
java.lang.NullPointerException: Attempt to invoke virtual method 'int android.view.View.getImportantForAccessibility()' on a null object reference
出现以上异常.然后就在baidu上
- PHP使用文件和目录
天子之骄
php文件和目录读取和写入php验证文件php锁定文件
PHP使用文件和目录
1.使用include()包含文件
(1):使用include()从一个被包含文档返回一个值
(2):在控制结构中使用include()
include_once()函数需要一个包含文件的路径,此外,第一次调用它的情况和include()一样,如果在脚本执行中再次对同一个文件调用,那么这个文件不会再次包含。
在php.ini文件中设置
- SQL SELECT DISTINCT 语句
何必如此
sql
SELECT DISTINCT 语句用于返回唯一不同的值。
SQL SELECT DISTINCT 语句
在表中,一个列可能会包含多个重复值,有时您也许希望仅仅列出不同(distinct)的值。
DISTINCT 关键词用于返回唯一不同的值。
SQL SELECT DISTINCT 语法
SELECT DISTINCT column_name,column_name
F
- java冒泡排序
3213213333332132
java冒泡排序
package com.algorithm;
/**
* @Description 冒泡
* @author FuJianyong
* 2015-1-22上午09:58:39
*/
public class MaoPao {
public static void main(String[] args) {
int[] mao = {17,50,26,18,9,10
- struts2.18 +json,struts2-json-plugin-2.1.8.1.jar配置及问题!
7454103
DAOspringAjaxjsonqq
struts2.18 出来有段时间了! (貌似是 稳定版)
闲时研究下下! 貌似 sruts2 搭配 json 做 ajax 很吃香!
实践了下下! 不当之处请绕过! 呵呵
网上一大堆 struts2+json 不过大多的json 插件 都是 jsonplugin.34.jar
strut
- struts2 数据标签说明
darkranger
jspbeanstrutsservletScheme
数据标签主要用于提供各种数据访问相关的功能,包括显示一个Action里的属性,以及生成国际化输出等功能
数据标签主要包括:
action :该标签用于在JSP页面中直接调用一个Action,通过指定executeResult参数,还可将该Action的处理结果包含到本页面来。
bean :该标签用于创建一个javabean实例。如果指定了id属性,则可以将创建的javabean实例放入Sta
- 链表.简单的链表节点构建
aijuans
编程技巧
/*编程环境WIN-TC*/ #include "stdio.h" #include "conio.h"
#define NODE(name, key_word, help) \ Node name[1]={{NULL, NULL, NULL, key_word, help}}
typedef struct node { &nbs
- tomcat下jndi的三种配置方式
avords
tomcat
jndi(Java Naming and Directory Interface,Java命名和目录接口)是一组在Java应用中访问命名和目录服务的API。命名服务将名称和对象联系起来,使得我们可以用名称
访问对象。目录服务是一种命名服务,在这种服务里,对象不但有名称,还有属性。
tomcat配置
- 关于敏捷的一些想法
houxinyou
敏捷
从网上看到这样一句话:“敏捷开发的最重要目标就是:满足用户多变的需求,说白了就是最大程度的让客户满意。”
感觉表达的不太清楚。
感觉容易被人误解的地方主要在“用户多变的需求”上。
第一种多变,实际上就是没有从根本上了解了用户的需求。用户的需求实际是稳定的,只是比较多,也比较混乱,用户一般只能了解自己的那一小部分,所以没有用户能清楚的表达出整体需求。而由于各种条件的,用户表达自己那一部分时也有
- 富养还是穷养,决定孩子的一生
bijian1013
教育人生
是什么决定孩子未来物质能否丰盛?为什么说寒门很难出贵子,三代才能出贵族?真的是父母必须有钱,才能大概率保证孩子未来富有吗?-----作者:@李雪爱与自由
事实并非由物质决定,而是由心灵决定。一朋友富有而且修养气质很好,兄弟姐妹也都如此。她的童年时代,物质上大家都很贫乏,但妈妈总是保持生活中的美感,时不时给孩子们带回一些美好小玩意,从来不对孩子传递生活艰辛、金钱来之不易、要懂得珍惜
- oracle 日期时间格式转化
征客丶
oracle
oracle 系统时间有 SYSDATE 与 SYSTIMESTAMP;
SYSDATE:不支持毫秒,取的是系统时间;
SYSTIMESTAMP:支持毫秒,日期,时间是给时区转换的,秒和毫秒是取的系统的。
日期转字符窜:
一、不取毫秒:
TO_CHAR(SYSDATE, 'YYYY-MM-DD HH24:MI:SS')
简要说明,
YYYY 年
MM 月
- 【Scala六】分析Spark源代码总结的Scala语法四
bit1129
scala
1. apply语法
FileShuffleBlockManager中定义的类ShuffleFileGroup,定义:
private class ShuffleFileGroup(val shuffleId: Int, val fileId: Int, val files: Array[File]) {
...
def apply(bucketId
- Erlang中有意思的bug
bookjovi
erlang
代码中常有一些很搞笑的bug,如下面的一行代码被调用两次(Erlang beam)
commit f667e4a47b07b07ed035073b94d699ff5fe0ba9b
Author: Jovi Zhang <
[email protected]>
Date: Fri Dec 2 16:19:22 2011 +0100
erts:
- 移位打印10进制数转16进制-2008-08-18
ljy325
java基础
/**
* Description 移位打印10进制的16进制形式
* Creation Date 15-08-2008 9:00
* @author 卢俊宇
* @version 1.0
*
*/
public class PrintHex {
// 备选字符
static final char di
- 读《研磨设计模式》-代码笔记-组合模式
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.util.ArrayList;
import java.util.List;
abstract class Component {
public abstract void printStruct(Str
- 利用cmd命令将.class文件打包成jar
chenyu19891124
cmdjar
cmd命令打jar是如下实现:
在运行里输入cmd,利用cmd命令进入到本地的工作盘符。(如我的是D盘下的文件有此路径 D:\workspace\prpall\WEB-INF\classes)
现在是想把D:\workspace\prpall\WEB-INF\classes路径下所有的文件打包成prpall.jar。然后继续如下操作:
cd D: 回车
cd workspace/prpal
- [原创]JWFD v0.96 工作流系统二次开发包 for Eclipse 简要说明
comsci
eclipse设计模式算法工作swing
JWFD v0.96 工作流系统二次开发包 for Eclipse 简要说明
&nb
- SecureCRT右键粘贴的设置
daizj
secureCRT右键粘贴
一般都习惯鼠标右键自动粘贴的功能,对于SecureCRT6.7.5 ,这个功能也已经是默认配置了。
老版本的SecureCRT其实也有这个功能,只是不是默认设置,很多人不知道罢了。
菜单:
Options->Global Options ...->Terminal
右边有个Mouse的选项块。
Copy on Select
Paste on Right/Middle
- Linux 软链接和硬链接
dongwei_6688
linux
1.Linux链接概念Linux链接分两种,一种被称为硬链接(Hard Link),另一种被称为符号链接(Symbolic Link)。默认情况下,ln命令产生硬链接。
【硬连接】硬连接指通过索引节点来进行连接。在Linux的文件系统中,保存在磁盘分区中的文件不管是什么类型都给它分配一个编号,称为索引节点号(Inode Index)。在Linux中,多个文件名指向同一索引节点是存在的。一般这种连
- DIV底部自适应
dcj3sjt126com
JavaScript
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml&q
- Centos6.5使用yum安装mysql——快速上手必备
dcj3sjt126com
mysql
第1步、yum安装mysql
[root@stonex ~]# yum -y install mysql-server
安装结果:
Installed:
mysql-server.x86_64 0:5.1.73-3.el6_5 &nb
- 如何调试JDK源码
frank1234
jdk
相信各位小伙伴们跟我一样,想通过JDK源码来学习Java,比如collections包,java.util.concurrent包。
可惜的是sun提供的jdk并不能查看运行中的局部变量,需要重新编译一下rt.jar。
下面是编译jdk的具体步骤:
1.把C:\java\jdk1.6.0_26\sr
- Maximal Rectangle
hcx2013
max
Given a 2D binary matrix filled with 0's and 1's, find the largest rectangle containing all ones and return its area.
public class Solution {
public int maximalRectangle(char[][] matrix)
- Spring MVC测试框架详解——服务端测试
jinnianshilongnian
spring mvc test
随着RESTful Web Service的流行,测试对外的Service是否满足期望也变的必要的。从Spring 3.2开始Spring了Spring Web测试框架,如果版本低于3.2,请使用spring-test-mvc项目(合并到spring3.2中了)。
Spring MVC测试框架提供了对服务器端和客户端(基于RestTemplate的客户端)提供了支持。
&nbs
- Linux64位操作系统(CentOS6.6)上如何编译hadoop2.4.0
liyong0802
hadoop
一、准备编译软件
1.在官网下载jdk1.7、maven3.2.1、ant1.9.4,解压设置好环境变量就可以用。
环境变量设置如下:
(1)执行vim /etc/profile
(2)在文件尾部加入:
export JAVA_HOME=/home/spark/jdk1.7
export MAVEN_HOME=/ho
- StatusBar 字体白色
pangyulei
status
[[UIApplication sharedApplication] setStatusBarStyle:UIStatusBarStyleLightContent];
/*you'll also need to set UIViewControllerBasedStatusBarAppearance to NO in the plist file if you use this method
- 如何分析Java虚拟机死锁
sesame
javathreadoracle虚拟机jdbc
英文资料:
Thread Dump and Concurrency Locks
Thread dumps are very useful for diagnosing synchronization related problems such as deadlocks on object monitors. Ctrl-\ on Solaris/Linux or Ctrl-B
- 位运算简介及实用技巧(一):基础篇
tw_wangzhengquan
位运算
http://www.matrix67.com/blog/archives/263
去年年底写的关于位运算的日志是这个Blog里少数大受欢迎的文章之一,很多人都希望我能不断完善那篇文章。后来我看到了不少其它的资料,学习到了更多关于位运算的知识,有了重新整理位运算技巧的想法。从今天起我就开始写这一系列位运算讲解文章,与其说是原来那篇文章的follow-up,不如说是一个r
- jsearch的索引文件结构
yangshangchuan
搜索引擎jsearch全文检索信息检索word分词
jsearch是一个高性能的全文检索工具包,基于倒排索引,基于java8,类似于lucene,但更轻量级。
jsearch的索引文件结构定义如下:
1、一个词的索引由=分割的三部分组成: 第一部分是词 第二部分是这个词在多少