- spiderkeeper 部署&操作
VictorChi
前言最近发现了一个spdierkeeper的库,这个库的主要用途是在于.配合这scrpyd管理你的爬虫,支持一键式部署,定时采集任务,启动,暂停等一系列的操作.简单来说将scrapyd的api进行封装,最大限度减少你跟命令行交互次数.不得说这个是很棒的事情.https://github.com/DormyMo/SpiderKeeperSpiderKeeper的github连接环境配置由于scrap
- 爬虫学习笔记-scrapy爬取当当网
DevCodeMemo
爬虫学习笔记
1.终端运行scrapystartprojectscrapy_dangdang,创建项目2.接口查找3.cd100个案例/Scrapy/scrapy_dangdang/scrapy_dangdang/spiders到文件夹下,创建爬虫程序4.items定义ScrapyDangdangItem的数据结构(要爬取的数据)src,name,price5.爬取src,name,price数据导入items
- Scrapyd服务及其应用
北游_
Scrapyd是一个用于部署和运行Scrapyd项目的工具,可以依靠它将Scrapy项目上传到云主机并通过API来控制它的运行。1.pip安装该服务pip3installScrapyd2.配置服务(centos7下),1.2版本默认没有配置文件,需自行创建mkdir/etc/scrapydvim/etc/scrapyd/scrapyd.conf#配置一下信息[scrapyd]eggs_dir=eg
- 爬虫工作量由小到大的思维转变---<第四十五章 Scrapyd 关于gerapy遇到问题>
大河之J天上来
scrapy爬虫开发爬虫scrapy分布式
前言:本章主要是解决一些gerapy遇到的问题,会持续更新这篇!正文:问题1:1400-build.py-gerapy.server.core.build-78-build-erroroccurred(1,['E:\\项目文件名\\venv\\Scripts\\python.exe','setup.py','clean','-a','bdist_uberegg','-d','C:\\Users\\
- 爬虫工作量由小到大的思维转变---<第四十四章 Scrapyd 用gerapy管理多台机器爬虫>
大河之J天上来
scrapy爬虫开发爬虫scrapy分布式
前言:之前讲过关于如何在gerapy中部署本地爬虫,爬虫工作量由小到大的思维转变---<第三十四章Scrapy的部署scrapyd+Gerapy>_gerapy如何登录-CSDN博客爬虫工作量由小到大的思维转变---<第三十五章Scrapy的scrapyd+Gerapy部署爬虫项目>_scrapy部署到gerapy-CSDN博客这次讲讲,如何把不同服务器上的爬虫部署到gerapy上面!!!正文:要
- python爬虫框架Scrapy
hixiaoyang
python
爬虫框架ScrapyScrapy简介第一个Scrapy应用Scrapy核心概念ScrapySpider(爬虫)ScrapyRequest(请求)ScrapyResponse(响应)ScrapyItem(数据项)ScrapyPipeline(管道)ScrapyMiddleware(中间件)ScrapyDownloaderMiddleware(下载器中间件)ScrapySpiderMiddleware
- Python爬虫---scrapy框架---当当网管道封装
velpro_!
python爬虫scrapy
项目结构:dang.py文件:自己创建,实现爬虫核心功能的文件importscrapyfromscrapy_dangdang_20240113.itemsimportScrapyDangdang20240113ItemclassDangSpider(scrapy.Spider):name="dang"#名字#如果是多页下载的话,那么必须要调整的是allowed_domains的范围一般情况下只写城
- 学习计划
alfred88
tp5,tp6laravel5.8swoole,easyswoolevue,小程序pythonscrapydjiangotensorFlowelasticsearchlogstashkibana
- Scrapy_settings配置文件设置
大聪明_花
Scrapyscrapypythonjava
文章目录Scrapy_setting文件配置Scrapy常用参数Scrapy_setting文件配置代码未动,配置先行。本篇文章主要讲述一下Scrapy中的配置文件settings.py的参数含义官文配置参数说明url:https://docs.scrapy.org/en/latest/topics/settings.html#ScrapysettingsforScrapyDemoproject#
- 爬虫工作量由小到大的思维转变---<第三十四章 Scrapy 的部署scrapyd+Gerapy>
大河之J天上来
scrapy爬虫开发爬虫scrapyscrapy-redis
前言:scrapy-redis没被部署,感觉讲起来很无力;因为实在编不出一个能让scrapy-redis发挥用武之地的案子;所以,索性直接先把分布式爬虫的部署问题给讲清楚!!然后,曲线救国式地再在部署的服务器上,讲scrapyredis我感觉这样才好!正文:现在还有不少人在用scrapyweb进行爬虫管理,但我个人感觉是那玩意儿BUG挺多的;且不灵光!而Gerapy和scrapyweb都是基于sc
- 爬虫工作量由小到大的思维转变---<第三十五章 Scrapy 的scrapyd+Gerapy 部署爬虫项目>
大河之J天上来
scrapy爬虫开发爬虫scrapy
前言:项目框架没有问题大家布好了的话,接着我们就开始部署scrapy项目(没搭好架子的话,看我上文爬虫工作量由小到大的思维转变---<第三十四章Scrapy的部署scrapyd+Gerapy>-CSDN博客)正文:1.创建主机:首先gerapy的架子,就相当于部署服务器上的;所以,我们先要连接主机(用户名/密码随你填不填)----ps:我建议你填一下子,养成习惯;别到时候布到云服务上去了,被人给扫
- Python 爬虫 教程
山塘小鱼儿
python爬虫开发语言
python爬虫框架:Scrapyd,Feapder,Gerapy参考文章:python爬虫工程师,如何从零开始部署Scrapyd+Feapder+Gerapy?-知乎神器!五分钟完成大型爬虫项目-知乎爬虫框架-feapder-知乎scrapy/scrapydGit库GitHub-scrapy/scrapyd:AservicedaemontorunScrapyspidersfeapderGit库G
- Scrapy入门到放弃07:scrapyd、gerapy,界面化启停爬虫
叫我阿柒啊
Scrapy爬虫scrapy爬虫engine
前言上一篇的枯燥无味,就用这一篇来填补一下。写到插件篇了,终于能写点有意思的东西了,接下来就Scrapy基本概念和插件篇来穿插着写一写。在我们以往开发的爬虫中,不论是Java的Jsoup,还是Python的requests,启动方式和普通的应用程序没什么两样,都是通过命令来本机运行。但Scrapy提供了远程启停爬虫的服务Scrapyd。Scrapyd基于http协议开放了API,以此来远程启停爬虫
- 爬虫工作量由小到大的思维转变---<第二十六章 Scrapy通一通中间件的问题>
大河之J天上来
scrapy爬虫开发爬虫scrapy中间件
前言:准备迈入scrapy-redis或者是scrapyd的领域进行一番吹牛~忽然想到,遗漏了中间件这个环节!讲吧~太广泛了;不讲吧,又觉得有遗漏...所以,本章浅谈中间件;(有问题,欢迎私信!我写文告诉你解法)正文:当我们谈到Scrapy的中间件时,可以将其比作一个特殊的助手,负责在爬虫的不同阶段进行处理和干预。Scrapy有两种类型的中间件:爬虫中间件和下载中间件。它们可以对请求、响应和爬虫的
- spiderkeeper 部署&操作
俊采星驰_87e0
环境配置由于scrapyd是基于python3+以上的版本兼容性较好,所以我们需要的环境为python3.4+scrapydscrapy&scrapy相关的库scrapy_reids如果缺少这个在部署任务会报错(Reids.KeyErroe:'xxx'),xxx我们部署的任务.SpiderKeeper`pipinstallspiderkeeper'就可以安装.启动&配置安装完成之后,便可以启动服务
- Scrapyd部署详解(转)
Yo_3ba7
使用scrapyd管理爬虫scrapyd是由scrapy官方提供的爬虫管理工具,使用它我们可以非常方便地上传、控制爬虫并且查看运行日志。参考官方文档http://scrapyd.readthedocs.org/en/latest/api.html使用scrapyd和我们直接运行scrapycrawlmyspider有什么区别呢?scrapyd同样是通过上面的命令运行爬虫的,不同的是它提供一个JSO
- Scrapy部署总结
liuchungui
1、如何开放6800,让本地能访问首先,在阿里云安全组进行设置,开放对应的端口,并且允许对应的ip访问。(注意:若是不是阿里云,自己的服务器,没有设置防火墙,最好别这么处理,可以使用nginx做反向代理,并设置账号和用户名)2、然后,建立scrpyd.conf文件,scrapyd启动的时候,会自动搜索配置文件,配置文件加载顺序为:/etc/scrapyd/scrapyd.conf/etc/scra
- 如何通过 Scrapyd + ScrapydWeb 简单高效地部署和监控分布式爬虫项目
权力博
第一步首先在我们的远程服务器安装scrapyd需要远程连接服务器,需要更改bind-ip。将127.0.0.1改为0.0.0.0修改配置文件:可以让任何主机可以链接(我这里是创建了虚拟环境所以我要找到我的虚拟环境下的scrapyd编辑default_scrapyd.conf):vim/root/.virtualenvs/scrapy/lib/python3.5/site-packages/scra
- scrapyd及gerapy的使用及docker-compse部署
ximeneschen
#docker容器运维
一、scrapyd的介绍scrapyd是一个用于部署和运行scrapy爬虫的程序,它允许你通过JSONAPI(也即是webapi)来部署爬虫项目和控制爬虫运行,scrapyd是一个守护进程,监听爬虫的运行和请求,然后启动进程来执行它们scrapyd的安装scrapyd服务端:pipinstallscrapydscrapyd客户端:pipinstallscrapyd-client启动scrapyd服
- 爬虫框架Scrapy
hixiaoyang
爬虫scrapy
爬虫框架ScrapyScrapy简介第一个Scrapy应用Scrapy核心概念ScrapySpider(爬虫)ScrapyRequest(请求)ScrapyResponse(响应)ScrapyItem(数据项)ScrapyPipeline(管道)ScrapyMiddleware(中间件)ScrapyDownloaderMiddleware(下载器中间件)ScrapySpiderMiddleware
- python 5 分布式爬虫(Distributed crawls)
爱玩电脑的呆呆
python分布式爬虫
scrapy分布式爬虫文档:CommonPractices—Scrapy2.11.0documentationScrapy并没有提供内置的机制支持分布式(多服务器)爬取。不过还是有办法进行分布式爬取,取决于您要怎么分布了。如果您有很多spider,那分布负载最简单的办法就是启动多个Scrapyd,并分配到不同机器上。如果想要在多个机器上运行一个单独的spider,那您可以将要爬取的url进行分块,
- scrapy部署
沦陷_99999
验证命令行输入:scrapyd输出如下表示打开成功:bdccl@bdccl-virtual-machine:~$scrapydRemovingstalepidfile/home/bdccl/twistd.pid2017-12-15T19:01:09+0800[-]Removingstalepidfile/home/bdccl/twistd.pid2017-12-15T19:01:09+0800[-
- 《Python网络爬虫实战》读书笔记2
每天看一遍,防止恋爱&&堕落
IT书籍读书笔记python网络爬虫pyspiderscrapygepary
文章目录更强大的爬虫网站反爬虫多进程编程与异步爬虫抓取用异步的形式抓取数据更多样的爬虫编写Scrapy爬虫新建一个Scrapy项目创建爬虫Scrapyd使用Gerapy部署和管理爬虫添加主机(在本机可以创建多个主机,只需要修改cfg文件的端口)爬虫实践:下载网页中的小说和购物评论爬取小说网的内容下载京东购物评论爬虫实践:保存感兴趣的图片爬虫实践:网上影评分析爬虫实践:使用PySpider爬虫框架全
- 基于Scrapyd与Gerapy部署scrapy爬虫方案【可用于分布式爬虫部署】
Jesse_Kyrie
python爬虫综合scrapy爬虫分布式
scrapyd部署爬虫Scrapyd是一个基于Scrapy的开源项目,它提供了一个简单的方式来部署、运行和监控Scrapy爬虫。它是一个用于集成Scrapy爬虫到分布式架构中的工具,允许您在分布式环境中运行爬虫,并提供了一组WebAPI,用于管理和监控爬虫的部署和运行。Scrapyd的主要功能和特点包括:部署爬虫:Scrapyd允许用户将Scrapy爬虫部署到远程服务器,而不必手动在每台服务器上安
- 【爬虫】将 Scrapy 部署到 k8s
惜鸟
一.概述因为学习了docker和k8s,不管什么项目都想使用容器化部署,一个最主要的原因是,使用容器化部署是真的方便。上一篇文章【爬虫】从零开始使用Scrapy介绍了如何使用scrapy,如果需要启动或者定时运行scrapy项目可以部署如下两个组件:scrapyd:它本质上就是帮我们执行了scrapycrawlspidername这个命令来启动scrapy项目。spiderkeeper:它是scr
- scrapyd-deploy 打包发布后服务器代码没有改变
青铜搬砖工
scrapyd-deploy--version版本号可以指定发布的版本号.如果不指定--version的时候会把时间戳作为版本号image.png例如上图一开始我没有指定--version生成的版本号为image.png然后我又修改了一下东西,指定版本号为2上传后,发现修改的东西并没有生效.有手动指定版本号为image.png后修改的东西生效了.scrapyd是选用最大的数字作为使用的版本所以如果
- scrapyd的Windows管理客户端
东方彧卿00
ScrapydManageGitHub地址:https://github.com/kanadeblisst/ScrapydManage码云:https://gitee.com/kanadeblisst/ScrapydManagescrapyd的Windows管理客户端,软件只是将scrapyd的api集成到exe文件中,软件是由aardio写的,GitHub有源码,可以自行编译,也可以下载GitH
- scrapyd 使用
mr_酱
远程访问设置查找配置文件sudofind/-namedefault_scrapyd.conf配置文件路径如下图:scrapyd配置文件路径.png编辑配置文件内容,由于默认bind_address=127.0.0.1现需要远程访问需要更改为bind_address=0.0.0.0[scrapyd]eggs_dir=eggslogs_dir=logsitems_dir=jobs_to_keep=5d
- scrapyd
丷菜菜呀
1.安装scrapyd支持以HTTP命令方式通过jsonAPI进行发布、删除、启动、停止爬虫,而且可以同时管理多个爬虫,每个爬虫还可以有多个版本。两种常用安装方式:pipinstallscrapyd;从https://github.com/scrapy/scrapyd下载源码,运行pipsetup.pyinstall命令安装。scrapyd-client专门用来发布scrapy爬虫的工具,安装后会
- 电信集团政企项目爬虫部分
yyqq188
架构scrapyddocker
电信集团政企项目爬虫部分1项目用到的技术点有scrapyscrapydscrapyd-clientdockerdocker-compose2需求是要爬取全国各个省级以及省会的招投标信息。之前做过浙江省级的招投标爬取,利用的scarpy的本地爬取,这次的爬取网站多,而且要用到定时去爬取,并做到项目的架构的可复用以及可扩充。所以我在scrapy的基础上,利用docker以及scrapyd的技术特点来实
- mysql主从数据同步
林鹤霄
mysql主从数据同步
配置mysql5.5主从服务器(转)
教程开始:一、安装MySQL
说明:在两台MySQL服务器192.168.21.169和192.168.21.168上分别进行如下操作,安装MySQL 5.5.22
二、配置MySQL主服务器(192.168.21.169)mysql -uroot -p &nb
- oracle学习笔记
caoyong
oracle
1、ORACLE的安装
a>、ORACLE的版本
8i,9i : i是internet
10g,11g : grid (网格)
12c : cloud (云计算)
b>、10g不支持win7
&
- 数据库,SQL零基础入门
天子之骄
sql数据库入门基本术语
数据库,SQL零基础入门
做网站肯定离不开数据库,本人之前没怎么具体接触SQL,这几天起早贪黑得各种入门,恶补脑洞。一些具体的知识点,可以让小白不再迷茫的术语,拿来与大家分享。
数据库,永久数据的一个或多个大型结构化集合,通常与更新和查询数据的软件相关
- pom.xml
一炮送你回车库
pom.xml
1、一级元素dependencies是可以被子项目继承的
2、一级元素dependencyManagement是定义该项目群里jar包版本号的,通常和一级元素properties一起使用,既然有继承,也肯定有一级元素modules来定义子元素
3、父项目里的一级元素<modules>
<module>lcas-admin-war</module>
<
- sql查地区省市县
3213213333332132
sqlmysql
-- db_yhm_city
SELECT * FROM db_yhm_city WHERE class_parent_id = 1 -- 海南 class_id = 9 港、奥、台 class_id = 33、34、35
SELECT * FROM db_yhm_city WHERE class_parent_id =169
SELECT d1.cla
- 关于监听器那些让人头疼的事
宝剑锋梅花香
画图板监听器鼠标监听器
本人初学JAVA,对于界面开发我只能说有点蛋疼,用JAVA来做界面的话确实需要一定的耐心(不使用插件,就算使用插件的话也没好多少)既然Java提供了界面开发,老师又要求做,只能硬着头皮上啦。但是监听器还真是个难懂的地方,我是上了几次课才略微搞懂了些。
- JAVA的遍历MAP
darkranger
map
Java Map遍历方式的选择
1. 阐述
对于Java中Map的遍历方式,很多文章都推荐使用entrySet,认为其比keySet的效率高很多。理由是:entrySet方法一次拿到所有key和value的集合;而keySet拿到的只是key的集合,针对每个key,都要去Map中额外查找一次value,从而降低了总体效率。那么实际情况如何呢?
为了解遍历性能的真实差距,包括在遍历ke
- POJ 2312 Battle City 优先多列+bfs
aijuans
搜索
来源:http://poj.org/problem?id=2312
题意:题目背景就是小时候玩的坦克大战,求从起点到终点最少需要多少步。已知S和R是不能走得,E是空的,可以走,B是砖,只有打掉后才可以通过。
思路:很容易看出来这是一道广搜的题目,但是因为走E和走B所需要的时间不一样,因此不能用普通的队列存点。因为对于走B来说,要先打掉砖才能通过,所以我们可以理解为走B需要两步,而走E是指需要1
- Hibernate与Jpa的关系,终于弄懂
avords
javaHibernate数据库jpa
我知道Jpa是一种规范,而Hibernate是它的一种实现。除了Hibernate,还有EclipseLink(曾经的toplink),OpenJPA等可供选择,所以使用Jpa的一个好处是,可以更换实现而不必改动太多代码。
在play中定义Model时,使用的是jpa的annotations,比如javax.persistence.Entity, Table, Column, OneToMany
- 酸爽的console.log
bee1314
console
在前端的开发中,console.log那是开发必备啊,简直直观。通过写小函数,组合大功能。更容易测试。但是在打版本时,就要删除console.log,打完版本进入开发状态又要添加,真不够爽。重复劳动太多。所以可以做些简单地封装,方便开发和上线。
/**
* log.js hufeng
* The safe wrapper for `console.xxx` functions
*
- 哈佛教授:穷人和过于忙碌的人有一个共同思维特质
bijian1013
时间管理励志人生穷人过于忙碌
一个跨学科团队今年完成了一项对资源稀缺状况下人的思维方式的研究,结论是:穷人和过于忙碌的人有一个共同思维特质,即注意力被稀缺资源过分占据,引起认知和判断力的全面下降。这项研究是心理学、行为经济学和政策研究学者协作的典范。
这个研究源于穆来纳森对自己拖延症的憎恨。他7岁从印度移民美国,很快就如鱼得水,哈佛毕业
- other operate
征客丶
OSosx
一、Mac Finder 设置排序方式,预览栏 在显示-》查看显示选项中
二、有时预览显示时,卡死在那,有可能是一些临时文件夹被删除了,如:/private/tmp[有待验证]
--------------------------------------------------------------------
若有其他凝问或文中有错误,请及时向我指出,
我好及时改正,同时也让我们一
- 【Scala五】分析Spark源代码总结的Scala语法三
bit1129
scala
1. If语句作为表达式
val properties = if (jobIdToActiveJob.contains(jobId)) {
jobIdToActiveJob(stage.jobId).properties
} else {
// this stage will be assigned to "default" po
- ZooKeeper 入门
BlueSkator
中间件zk
ZooKeeper是一个高可用的分布式数据管理与系统协调框架。基于对Paxos算法的实现,使该框架保证了分布式环境中数据的强一致性,也正是基于这样的特性,使得ZooKeeper解决很多分布式问题。网上对ZK的应用场景也有不少介绍,本文将结合作者身边的项目例子,系统地对ZK的应用场景进行一个分门归类的介绍。
值得注意的是,ZK并非天生就是为这些应用场景设计的,都是后来众多开发者根据其框架的特性,利
- MySQL取得当前时间的函数是什么 格式化日期的函数是什么
BreakingBad
mysqlDate
取得当前时间用 now() 就行。
在数据库中格式化时间 用DATE_FORMA T(date, format) .
根据格式串format 格式化日期或日期和时间值date,返回结果串。
可用DATE_FORMAT( ) 来格式化DATE 或DATETIME 值,以便得到所希望的格式。根据format字符串格式化date值:
%S, %s 两位数字形式的秒( 00,01,
- 读《研磨设计模式》-代码笔记-组合模式
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.util.ArrayList;
import java.util.List;
abstract class Component {
public abstract void printStruct(Str
- 4_JAVA+Oracle面试题(有答案)
chenke
oracle
基础测试题
卷面上不能出现任何的涂写文字,所有的答案要求写在答题纸上,考卷不得带走。
选择题
1、 What will happen when you attempt to compile and run the following code? (3)
public class Static {
static {
int x = 5; // 在static内有效
}
st
- 新一代工作流系统设计目标
comsci
工作算法脚本
用户只需要给工作流系统制定若干个需求,流程系统根据需求,并结合事先输入的组织机构和权限结构,调用若干算法,在流程展示版面上面显示出系统自动生成的流程图,然后由用户根据实际情况对该流程图进行微调,直到满意为止,流程在运行过程中,系统和用户可以根据情况对流程进行实时的调整,包括拓扑结构的调整,权限的调整,内置脚本的调整。。。。。
在这个设计中,最难的地方是系统根据什么来生成流
- oracle 行链接与行迁移
daizj
oracle行迁移
表里的一行对于一个数据块太大的情况有二种(一行在一个数据块里放不下)
第一种情况:
INSERT的时候,INSERT时候行的大小就超一个块的大小。Oracle把这行的数据存储在一连串的数据块里(Oracle Stores the data for the row in a chain of data blocks),这种情况称为行链接(Row Chain),一般不可避免(除非使用更大的数据
- [JShop]开源电子商务系统jshop的系统缓存实现
dinguangx
jshop电子商务
前言
jeeshop中通过SystemManager管理了大量的缓存数据,来提升系统的性能,但这些缓存数据全部都是存放于内存中的,无法满足特定场景的数据更新(如集群环境)。JShop对jeeshop的缓存机制进行了扩展,提供CacheProvider来辅助SystemManager管理这些缓存数据,通过CacheProvider,可以把缓存存放在内存,ehcache,redis,memcache
- 初三全学年难记忆单词
dcj3sjt126com
englishword
several 儿子;若干
shelf 架子
knowledge 知识;学问
librarian 图书管理员
abroad 到国外,在国外
surf 冲浪
wave 浪;波浪
twice 两次;两倍
describe 描写;叙述
especially 特别;尤其
attract 吸引
prize 奖品;奖赏
competition 比赛;竞争
event 大事;事件
O
- sphinx实践
dcj3sjt126com
sphinx
安装参考地址:http://briansnelson.com/How_to_install_Sphinx_on_Centos_Server
yum install sphinx
如果失败的话使用下面的方式安装
wget http://sphinxsearch.com/files/sphinx-2.2.9-1.rhel6.x86_64.rpm
yum loca
- JPA之JPQL(三)
frank1234
ormjpaJPQL
1 什么是JPQL
JPQL是Java Persistence Query Language的简称,可以看成是JPA中的HQL, JPQL支持各种复杂查询。
2 检索单个对象
@Test
public void querySingleObject1() {
Query query = em.createQuery("sele
- Remove Duplicates from Sorted Array II
hcx2013
remove
Follow up for "Remove Duplicates":What if duplicates are allowed at most twice?
For example,Given sorted array nums = [1,1,1,2,2,3],
Your function should return length
- Spring4新特性——Groovy Bean定义DSL
jinnianshilongnian
spring 4
Spring4新特性——泛型限定式依赖注入
Spring4新特性——核心容器的其他改进
Spring4新特性——Web开发的增强
Spring4新特性——集成Bean Validation 1.1(JSR-349)到SpringMVC
Spring4新特性——Groovy Bean定义DSL
Spring4新特性——更好的Java泛型操作API
Spring4新
- CentOS安装Mysql5.5
liuxingguome
centos
CentOS下以RPM方式安装MySQL5.5
首先卸载系统自带Mysql:
yum remove mysql mysql-server mysql-libs compat-mysql51
rm -rf /var/lib/mysql
rm /etc/my.cnf
查看是否还有mysql软件:
rpm -qa|grep mysql
去http://dev.mysql.c
- 第14章 工具函数(下)
onestopweb
函数
index.html
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/
- POJ 1050
SaraWon
二维数组子矩阵最大和
POJ ACM第1050题的详细描述,请参照
http://acm.pku.edu.cn/JudgeOnline/problem?id=1050
题目意思:
给定包含有正负整型的二维数组,找出所有子矩阵的和的最大值。
如二维数组
0 -2 -7 0
9 2 -6 2
-4 1 -4 1
-1 8 0 -2
中和最大的子矩阵是
9 2
-4 1
-1 8
且最大和是15
- [5]设计模式——单例模式
tsface
java单例设计模式虚拟机
单例模式:保证一个类仅有一个实例,并提供一个访问它的全局访问点
安全的单例模式:
/*
* @(#)Singleton.java 2014-8-1
*
* Copyright 2014 XXXX, Inc. All rights reserved.
*/
package com.fiberhome.singleton;
- Java8全新打造,英语学习supertool
yangshangchuan
javasuperword闭包java8函数式编程
superword是一个Java实现的英文单词分析软件,主要研究英语单词音近形似转化规律、前缀后缀规律、词之间的相似性规律等等。Clean code、Fluent style、Java8 feature: Lambdas, Streams and Functional-style Programming。
升学考试、工作求职、充电提高,都少不了英语的身影,英语对我们来说实在太重要