- HBase+ZooKeeper+Hadoop2.6.0的ResourceManager HA集群高可用配置
jerry_jiang2017
Hadoop
问题导读:0、了解常规JDK安装以及Linux系统配置1、了解集群规划以及集群场景2、熟悉HBase的集群搭建3、熟悉ZooKeeper集群搭建4、熟悉Hadoop2.6.0版本HA集群搭建5、验证HBase、ZooKeeper、Hadoop等集群运行情况参考:Hadoop2.4的ResourceManagerHA高可用配置hadoop2.0已经发布了稳定版本了,增加了很多特性,比如HDFSHA、
- hadoop环境搭建———Hadoop安装教程_伪分布式配置_CentOS6.4/Hadoop2.6.0【转载搬运】
JYeontu
hadoop伪分布大数据hadoop环境配置hdfs
最近开始学习大数据,想自己在虚拟机上搭建个伪分布,在网上也找了很多教程,踩了很多坑,最后发现了厦门大学大数据实验室林子雨老师的这个教程,按着步骤终于成功搭建,所以想分享一下,大家可以少踩一些坑,还有就是林子雨老师在慕课上的课程也都很有趣,在这里我也推荐有兴趣的可以去看看,以下均为转载内容,如有侵权,可以联系我删除。本Hadoop教程由厦门大学数据库实验室出品,转载请注明。本教程适合于在CentOS
- Eclipse创建包含Scala的Maven工程_Spark学习demo
DevinShuai
sparkeclipsescalamavensparkhadoop
为了学习spark,在mac上使用eclipse创建包含scala的maven工程,并打包至于服务器运行。1.1hadoop安装安装hadoop2.6.0,参考博客1.2spark下载下载spark-1.6.0-bin-hadoop2.6.tgz,在官网下载,在chooseadownloadtype中建议选择selectapachemirror。下载完成之后放在自己的相应目录,运行spark命令:
- hadoop2.6.0(单节点)下Sqoop-1.4.6安装与配置(数据读取涉及hadoop、hbase和hive)
weixin_33921089
大数据数据库python
下载Sqoophttp://sqoop.apache.org/或http://archive-primary.cloudera.com/cdh5/cdh/5/(这个就是版本已经对应好了,不需去弄版本兼容问题了)或通过CM、Ambari很多同行,也许都知道,对于我们大数据搭建而言,目前主流,分为Apache和Cloudera和Ambari。后两者我不多说,是公司必备和大多数高校科研环境所必须的!分别
- Hadoop3 - HDFS 文件存储策略
小毕超
Hadoophdfshadoop大数据
一、HDFS文件存储策略Hadoop允许将不是热数据或者活跃数据的数据分配到比较便宜的存储上,用于归档或冷存储。可以设置存储策略,将较旧的数据从昂贵的高性能存储上转移到性价比较低(较便宜)的存储设备上。Hadoop2.5及以上版本都支持存储策略,在该策略下,不仅可以在默认的传统磁盘上存储HDFS数据,还可以在SSD(固态硬盘)上存储数据。异构存储异构存储是Hadoop2.6.0版本出现的新特性,可
- Wrong FS: hdfs:, expected:file:///
yxdydSky
hadoophdfsWrongFSfilehadoop
这是在对hdfs进行写入操作时发现的错误,最终解决了,给大家分享一下,希望对遇到同样问题的朋友有所帮助,我使用的是hadoop2.6.0版本。Pathpath=newPath("hdfs://master:9000/hadoopdata/dfs/name/WriteSample.log");Configurationconf=newConfiguration();FileSystemfs=File
- Hbase跨集群数据迁移-快照方式
粮忆雨
说明:原集群为散装集群,hbase版本为1.1.1,hadoop2.7.2;目标集群通过CDH5搭建,hbase版本为1.2.0,hadoop2.6.0。由于业务需要原集群不能停,目前数据基本在hbase上。所以计划使用hbase快照使用数据迁移。1、原集群hbaseshell中创建快照#查看已有快照list_snapshots#创建快照snapshot'test_meter_data','tes
- Hadoop 3.2.1‖联邦模式下突破router的性能瓶颈的实践
hadoop数据库大数据
上两集回顾:在第一集(点击可参阅详情)中,我们通过性能故障排查解决了Hadoop2.6.0版本的瓶颈问题;在第二集(点击可参阅详情)中,我们将集群由Hadoop2.6.0版本升级到Hadoop3.2.1版本,且启用联邦模式,解决了Hadoop的第二次瓶颈;本次,我们将分享一下在联邦模式下如何解决router延迟较大的问题。下面,enjoy:一、基于非联邦和联邦模式的测试在成功将Hadoop2.6.
- 数据库‖上千节点Hadoop集群升级过程分享
hadoop数据库
在上一次我进行了超万亿规模的HadoopNameNode问题的排查,通过为时四天的努力,终于解决了Hadoop2.6.0版本的瓶颈问题,但是生活往往就是墨菲定律,你所极力避免的那些最坏的可能也许终将会发生。为了防止遇到NameNode的第二次瓶颈,我决定将当前集群由Hadoop2.6.0版本升级到Hadoop3.2.1版本,且启用联邦模式。但是在升级之后,我们还是遇到了很多意向不到的问题,虽然最终
- Hadoop 3.2.1‖联邦模式下突破router的性能瓶颈的实践
hadoop数据库大数据
上两集回顾:在第一集(点击可参阅详情)中,我们通过性能故障排查解决了Hadoop2.6.0版本的瓶颈问题;在第二集(点击可参阅详情)中,我们将集群由Hadoop2.6.0版本升级到Hadoop3.2.1版本,且启用联邦模式,解决了Hadoop的第二次瓶颈;本次,我们将分享一下在联邦模式下如何解决router延迟较大的问题。下面,enjoy:一、基于非联邦和联邦模式的测试在成功将Hadoop2.6.
- 数据库‖上千节点Hadoop集群升级过程分享
hadoop数据库
在上一次我进行了超万亿规模的HadoopNameNode问题的排查,通过为时四天的努力,终于解决了Hadoop2.6.0版本的瓶颈问题,但是生活往往就是墨菲定律,你所极力避免的那些最坏的可能也许终将会发生。为了防止遇到NameNode的第二次瓶颈,我决定将当前集群由Hadoop2.6.0版本升级到Hadoop3.2.1版本,且启用联邦模式。但是在升级之后,我们还是遇到了很多意向不到的问题,虽然最终
- Hadoop安装教程(单机/伪分布式环境搭建)/Ubuntu18.04
auhjin_ai8
从零开始自学大数据hadoopubuntulinuxssh
Hadoop安装教程(单机/伪分布式环境搭建)/Ubuntu18.04本教程使用Ubuntu18.04LTS64位作为系统环境(Ubuntu16.04,Ubuntu20.04也行,32位、64位均可),请自行安装系统。本教程基于原生Hadoop2,在Hadoop2.6.0(stable)版本下验证通过,可适合任何Hadoop2.x.y版本,如Hadoop2.7.1、2.6.3、2.4.1等。前期工
- window7使用eclipse提交Hadoop作业到Hadoop集群运行方法
cz-神算子
linux&hadoop
Hadoop集群:Hadoop2.6.0,系统:windows7,开发环境:eclipseEclipse调用Hadoop运行MapReduce程序其实就是普通的java程序可以提交MR任务到集群执行而已。1、首先需要配置环境变量:在系统变量中新增:然后再Path中增加:%HADOOP_HOME%\bin;2、需要在开发的MapReduce的main函数中指定配置如下:Configurationco
- hadoop多次格式化namenode造成datanode无法启动问题解决
z骑士
错误
今天在机器上新装了hadoop2.6.0想体验一把新版本特征,安装好后发现启动dfs时datanode老是启动不了查看namenode日志发现以下问题:按日志内容来看,namenode和datanode的clusterID不一致。突然想起来之前格式化了两次namenode,应该是由于namenode多次格式化造成了namenode和datanode的clusterID不一致!每次格式化时,name
- Hadoop集群安装配置教程_Hadoop2.6.0/Ubuntu 14.04
chijiaodaxie
本文转载自给力星原文地址:http://www.powerxing.com/install-hadoop-cluster/前言当开始着手实践Hadoop时,安装Hadoop往往会成为新手的一道门槛。尽管安装其实很简单,书上有写到,官方网站也有Hadoop安装配置教程,但由于对Linux环境不熟悉,书上跟官网上简略的安装步骤新手往往Hold不住。加上网上不少教程也甚是坑,导致新手折腾老几天愣是没装好
- Container exited with a non-zero exit code 127
levy_cui
最近帮助一个朋友查看hadoop2.6.0部署的问题,群集可以正常启动,但运行mapreducewordcount时候,报错误error:Containerexitedwithanon-zeroexitcode127找了一天的原因,才发现core-site.xml中hadoop.tmp.dir/usr/hadoop/tmpAbaseforothertemporarydirectories./tm
- 基于Hadoop2.6.0的Mahout0.12.1的配置与使用
是可大吖哈
Hadoop
一.Mahout的安装1.下载在http://mirror.bit.edu.cn/apache/mahout/0.12.1/下载地址中下载apache-mahout-distribution-0.12.1.tar.gz2.解压tar-C/opt/Mahout-zxvfmahout-distribution-0.12.1.tar.gz(我将压缩包解压到了/opt/Mahout目录下,用户可以根据自己
- hadoop端口
bingoabin
大数据hadoophadoop进程hadoop端口hadoop进程整理进程和端口spark
应用场景Hadoop部署完分布式集群后,运行了一些组件,会产生很多进程,和web可以访问的端口,容易混淆,这里把一些常见的进程,进程的作用和端口进行归纳,总结,方便区分。操作步骤1.HDFS进程及端口HDFS启动后包含的进程有:NameNode,DataNode,SecondaryNameNode启动方法,在主节点:#cd/opt/hadoop2.6.0/sbin/#./start-dfs.sh启
- 解决 Linux-Ubuntu 报错E212: Can't open file for writing
SophiaSSSSS
练手纠错帖集结
为了装spark,先装Hadoop;为了装Hadoop,先搭建Linux环境和设置环境变量,于是有了本文的报错“E212:Can’topenfileforwriting”。照着帖子中指示安装JDKing(如下图)随附链接:http://dblab.xmu.edu.cn/blog/install-hadoop/Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04其
- Linux 7 Hadoop2.6.0单机和集群搭建
张建闯
大数据hadoop
搭建Hadoop前的准备工作/etc/hosts这个文件是记载LAN内接续的各主机的对应[HostName和IP]用的。在LAN内,我们各个主机间访问通信的时候,用的是内网的IP地址进行访问(例:192.168.1.22,192.168.1.23),从而确立连接进行通信。除了通过访问IP来确立通信访问之外,我们还可以通过HostName进行访问,我们在安装机器的时候都会给机器起一个名字,这个名字就
- hadoop2.6.0中配置hbase比较简单的
董世森 学习
大数据基础篇
我没有配置hbase的ha。我使用的是集群中的zk,而不是hbase中自带的zk下载好hbase解压配置hbase-env.shjavahomezk配置hbase-site.sh配置全局变量exporthbasehome分发scp-rhbase目录hadoop02(目标主机):路径启动集群start-hbase.sh查看webuihadoop01:160101总结hbase是依赖于hdfs,和zk
- 基于Spark ALS在线推荐系统
fansy1990
sparkhadoop推荐系统ALS
所用技术:Bootstrap、flat-ui、Servlet、Spark1.4.1、Hadoop2.6.0、JDK说明:本系统不涉及ssh相关内容,只有简单的Servlet和JSP、HTML页面,系统架构相对简单。系统部署:1.拷贝spark-assembly-1.4.1-hadoop2.6.0.jar到WebContent/WEB-INF/lib目录;(spark-assembly-1.4.1-
- Hadoop 2.7.1发布啦
过往记忆
大数据
ApacheHadoop2.7.1于美国时间2015年07月06日正式发布,本版本属于稳定版本,是自Hadoop2.6.0以来又一个稳定版,同时也是Hadoop2.7.x版本线的第一个稳定版本,也是2.7版本线的维护版本,变化不大,主要是修复了一些比较严重的Bug(其中修复了131个Bugs和patches)。
- 阿里云搭建集群的过程记录(一)
Mr.Jansor
hadoop的那些事
参考网址:1、http://www.bcmeng.com/hadoop-zookeeper-hbase/(阿里云ECS的Hadoop2.6.0|Zookeeper3.4.6|Hbase0.98.13集群搭建)2、https://help.aliyun.com/knowledge_detail/6943447.html(安全组和安全组规则介绍)一、购买服务器如果是学生,可先进行学生认证二、SSH登录
- [完]Spark安装学习实践
namelessml
spark大数据
【参考】http://dblab.xmu.edu.cn/blog/804-2/一、前提安装Hadoop2.6.0以上;安装JAVAJDK1.7以上。二、下载Spark官方网站:http://spark.apache.org/downloads.html1.选择版本:Spark1.6.22.选择包类型:Pre-buildwithuser-providedHadoop[canusewithmostHa
- 64位Ubuntu 编译 hadoop源码
weixin_30663471
本人下载了最新版的ubuntu64(14.04)位桌面版系统,在安装hadoop2.6.0时,由于官方的hadoop是在32位机子上编译的,故需下载hadoop源码进行编译。准备:hadoop-2.6.0-srcjdk1.7.0_75(由于最新版的jdk是1.8.0_31版本的,而我在用这个版本编译hadoop时出现了问题,后来发现1.8.0是在hadoop出来之后出来的,所以可能有些不支持,故建
- ubuntu14.04中编译Hadoop2.6.0 64位版本
luonango
hadoop
ubuntu14.04中编译Hadoop2.6.064位版本安装JDK下载安装包jdk1.8.0_50,解压,改下环境变量和jdk版本即可。(JDK切换版本文章后面有讲)安装maven31.下载并解压maven3:http://maven.apache.org/download.cgi解压到指定目录,如:/usr/local/apache-maven-3.3.92.设置maven环境变量:编辑~/
- Ubuntu12.04编译hadoop2x-eclipse-plugin-master插件
我心明月
Hadoop
一、环境搭建1、Eclipse(http://www.eclipse.org/downloads/download.php?file=/technology/epp/downloads/release/luna/SR2/eclipse-jee-luna-SR2-linux-gtk-x86_64.tar.gz)2、JDK下载安装参见另一篇博文《Ubuntu12.04编译hadoop2.6.0源码与源
- 32位ubuntu14.04手动编译hadoop2.6.0
ggzone
Hadoop
下载官方编译好的包安装老是报错:Unabletoloadnative-hadooplibraryforyourplatform用file命令查看发现官方包里的libhadoop.so.1.0.0文件竟然是64位的。假设应该安装了jdk,教程:http://blog.csdn.net/ggz631047367/article/details/423666871.安装mavensudoapt-geti
- 创建MapReduce程序,并在hadoop集群中运行
封巍
关键词:MapReduce,hadoop2.6.0,intellijIDEA,Maven1、在intellijIDEA下创建maven项目2、引入hadoop相关jar包2.6.0org.apache.hadoophadoop-common${hadoop.version}org.apache.hadoophadoop-mapreduce-client-core${hadoop.version}o
- 枚举的构造函数中抛出异常会怎样
bylijinnan
javaenum单例
首先从使用enum实现单例说起。
为什么要用enum来实现单例?
这篇文章(
http://javarevisited.blogspot.sg/2012/07/why-enum-singleton-are-better-in-java.html)阐述了三个理由:
1.enum单例简单、容易,只需几行代码:
public enum Singleton {
INSTANCE;
- CMake 教程
aigo
C++
转自:http://xiang.lf.blog.163.com/blog/static/127733322201481114456136/
CMake是一个跨平台的程序构建工具,比如起自己编写Makefile方便很多。
介绍:http://baike.baidu.com/view/1126160.htm
本文件不介绍CMake的基本语法,下面是篇不错的入门教程:
http:
- cvc-complex-type.2.3: Element 'beans' cannot have character
Cb123456
springWebgis
cvc-complex-type.2.3: Element 'beans' cannot have character
Line 33 in XML document from ServletContext resource [/WEB-INF/backend-servlet.xml] is i
- jquery实例:随页面滚动条滚动而自动加载内容
120153216
jquery
<script language="javascript">
$(function (){
var i = 4;$(window).bind("scroll", function (event){
//滚动条到网页头部的 高度,兼容ie,ff,chrome
var top = document.documentElement.s
- 将数据库中的数据转换成dbs文件
何必如此
sqldbs
旗正规则引擎通过数据库配置器(DataBuilder)来管理数据库,无论是Oracle,还是其他主流的数据都支持,操作方式是一样的。旗正规则引擎的数据库配置器是用于编辑数据库结构信息以及管理数据库表数据,并且可以执行SQL 语句,主要功能如下。
1)数据库生成表结构信息:
主要生成数据库配置文件(.conf文
- 在IBATIS中配置SQL语句的IN方式
357029540
ibatis
在使用IBATIS进行SQL语句配置查询时,我们一定会遇到通过IN查询的地方,在使用IN查询时我们可以有两种方式进行配置参数:String和List。具体使用方式如下:
1.String:定义一个String的参数userIds,把这个参数传入IBATIS的sql配置文件,sql语句就可以这样写:
<select id="getForms" param
- Spring3 MVC 笔记(一)
7454103
springmvcbeanRESTJSF
自从 MVC 这个概念提出来之后 struts1.X struts2.X jsf 。。。。。
这个view 层的技术一个接一个! 都用过!不敢说哪个绝对的强悍!
要看业务,和整体的设计!
最近公司要求开发个新系统!
- Timer与Spring Quartz 定时执行程序
darkranger
springbean工作quartz
有时候需要定时触发某一项任务。其实在jdk1.3,java sdk就通过java.util.Timer提供相应的功能。一个简单的例子说明如何使用,很简单: 1、第一步,我们需要建立一项任务,我们的任务需要继承java.util.TimerTask package com.test; import java.text.SimpleDateFormat; import java.util.Date;
- 大端小端转换,le32_to_cpu 和cpu_to_le32
aijuans
C语言相关
大端小端转换,le32_to_cpu 和cpu_to_le32 字节序
http://oss.org.cn/kernel-book/ldd3/ch11s04.html
小心不要假设字节序. PC 存储多字节值是低字节为先(小端为先, 因此是小端), 一些高级的平台以另一种方式(大端)
- Nginx负载均衡配置实例详解
avords
[导读] 负载均衡是我们大流量网站要做的一个东西,下面我来给大家介绍在Nginx服务器上进行负载均衡配置方法,希望对有需要的同学有所帮助哦。负载均衡先来简单了解一下什么是负载均衡,单从字面上的意思来理解就可以解 负载均衡是我们大流量网站要做的一个东西,下面我来给大家介绍在Nginx服务器上进行负载均衡配置方法,希望对有需要的同学有所帮助哦。
负载均衡
先来简单了解一下什么是负载均衡
- 乱说的
houxinyou
框架敏捷开发软件测试
从很久以前,大家就研究框架,开发方法,软件工程,好多!反正我是搞不明白!
这两天看好多人研究敏捷模型,瀑布模型!也没太搞明白.
不过感觉和程序开发语言差不多,
瀑布就是顺序,敏捷就是循环.
瀑布就是需求、分析、设计、编码、测试一步一步走下来。而敏捷就是按摸块或者说迭代做个循环,第个循环中也一样是需求、分析、设计、编码、测试一步一步走下来。
也可以把软件开发理
- 欣赏的价值——一个小故事
bijian1013
有效辅导欣赏欣赏的价值
第一次参加家长会,幼儿园的老师说:"您的儿子有多动症,在板凳上连三分钟都坐不了,你最好带他去医院看一看。" 回家的路上,儿子问她老师都说了些什么,她鼻子一酸,差点流下泪来。因为全班30位小朋友,惟有他表现最差;惟有对他,老师表现出不屑,然而她还在告诉她的儿子:"老师表扬你了,说宝宝原来在板凳上坐不了一分钟,现在能坐三分钟。其他妈妈都非常羡慕妈妈,因为全班只有宝宝
- 包冲突问题的解决方法
bingyingao
eclipsemavenexclusions包冲突
包冲突是开发过程中很常见的问题:
其表现有:
1.明明在eclipse中能够索引到某个类,运行时却报出找不到类。
2.明明在eclipse中能够索引到某个类的方法,运行时却报出找不到方法。
3.类及方法都有,以正确编译成了.class文件,在本机跑的好好的,发到测试或者正式环境就
抛如下异常:
java.lang.NoClassDefFoundError: Could not in
- 【Spark七十五】Spark Streaming整合Flume-NG三之接入log4j
bit1129
Stream
先来一段废话:
实际工作中,业务系统的日志基本上是使用Log4j写入到日志文件中的,问题的关键之处在于业务日志的格式混乱,这给对日志文件中的日志进行统计分析带来了极大的困难,或者说,基本上无法进行分析,每个人写日志的习惯不同,导致日志行的格式五花八门,最后只能通过grep来查找特定的关键词缩小范围,但是在集群环境下,每个机器去grep一遍,分析一遍,这个效率如何可想之二,大好光阴都浪费在这上面了
- sudoku solver in Haskell
bookjovi
sudokuhaskell
这几天没太多的事做,想着用函数式语言来写点实用的程序,像fib和prime之类的就不想提了(就一行代码的事),写什么程序呢?在网上闲逛时发现sudoku游戏,sudoku十几年前就知道了,学生生涯时也想过用C/Java来实现个智能求解,但到最后往往没写成,主要是用C/Java写的话会很麻烦。
现在写程序,本人总是有一种思维惯性,总是想把程序写的更紧凑,更精致,代码行数最少,所以现
- java apache ftpClient
bro_feng
java
最近使用apache的ftpclient插件实现ftp下载,遇见几个问题,做如下总结。
1. 上传阻塞,一连串的上传,其中一个就阻塞了,或是用storeFile上传时返回false。查了点资料,说是FTP有主动模式和被动模式。将传出模式修改为被动模式ftp.enterLocalPassiveMode();然后就好了。
看了网上相关介绍,对主动模式和被动模式区别还是比较的模糊,不太了解被动模
- 读《研磨设计模式》-代码笔记-工厂方法模式
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
package design.pattern;
/*
* 工厂方法模式:使一个类的实例化延迟到子类
* 某次,我在工作不知不觉中就用到了工厂方法模式(称为模板方法模式更恰当。2012-10-29):
* 有很多不同的产品,它
- 面试记录语
chenyu19891124
招聘
或许真的在一个平台上成长成什么样,都必须靠自己去努力。有了好的平台让自己展示,就该好好努力。今天是自己单独一次去面试别人,感觉有点小紧张,说话有点打结。在面试完后写面试情况表,下笔真的好难,尤其是要对面试人的情况说明真的好难。
今天面试的是自己同事的同事,现在的这个同事要离职了,介绍了我现在这位同事以前的同事来面试。今天这位求职者面试的是配置管理,期初看了简历觉得应该很适合做配置管理,但是今天面
- Fire Workflow 1.0正式版终于发布了
comsci
工作workflowGoogle
Fire Workflow 是国内另外一款开源工作流,作者是著名的非也同志,哈哈....
官方网站是 http://www.fireflow.org
经过大家努力,Fire Workflow 1.0正式版终于发布了
正式版主要变化:
1、增加IWorkItem.jumpToEx(...)方法,取消了当前环节和目标环节必须在同一条执行线的限制,使得自由流更加自由
2、增加IT
- Python向脚本传参
daizj
python脚本传参
如果想对python脚本传参数,python中对应的argc, argv(c语言的命令行参数)是什么呢?
需要模块:sys
参数个数:len(sys.argv)
脚本名: sys.argv[0]
参数1: sys.argv[1]
参数2: sys.argv[
- 管理用户分组的命令gpasswd
dongwei_6688
passwd
NAME: gpasswd - administer the /etc/group file
SYNOPSIS:
gpasswd group
gpasswd -a user group
gpasswd -d user group
gpasswd -R group
gpasswd -r group
gpasswd [-A user,...] [-M user,...] g
- 郝斌老师数据结构课程笔记
dcj3sjt126com
数据结构与算法
<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<
- yii2 cgridview加上选择框进行操作
dcj3sjt126com
GridView
页面代码
<?=Html::beginForm(['controller/bulk'],'post');?>
<?=Html::dropDownList('action','',[''=>'Mark selected as: ','c'=>'Confirmed','nc'=>'No Confirmed'],['class'=>'dropdown',])
- linux mysql
fypop
linux
enquiry mysql version in centos linux
yum list installed | grep mysql
yum -y remove mysql-libs.x86_64
enquiry mysql version in yum repositoryyum list | grep mysql oryum -y list mysql*
install mysq
- Scramble String
hcx2013
String
Given a string s1, we may represent it as a binary tree by partitioning it to two non-empty substrings recursively.
Below is one possible representation of s1 = "great":
- 跟我学Shiro目录贴
jinnianshilongnian
跟我学shiro
历经三个月左右时间,《跟我学Shiro》系列教程已经完结,暂时没有需要补充的内容,因此生成PDF版供大家下载。最近项目比较紧,没有时间解答一些疑问,暂时无法回复一些问题,很抱歉,不过可以加群(334194438/348194195)一起讨论问题。
----广告-----------------------------------------------------
- nginx日志切割并使用flume-ng收集日志
liyonghui160com
nginx的日志文件没有rotate功能。如果你不处理,日志文件将变得越来越大,还好我们可以写一个nginx日志切割脚本来自动切割日志文件。第一步就是重命名日志文件,不用担心重命名后nginx找不到日志文件而丢失日志。在你未重新打开原名字的日志文件前,nginx还是会向你重命名的文件写日志,linux是靠文件描述符而不是文件名定位文件。第二步向nginx主
- Oracle死锁解决方法
pda158
oracle
select p.spid,c.object_name,b.session_id,b.oracle_username,b.os_user_name from v$process p,v$session a, v$locked_object b,all_objects c where p.addr=a.paddr and a.process=b.process and c.object_id=b.
- java之List排序
shiguanghui
list排序
在Java Collection Framework中定义的List实现有Vector,ArrayList和LinkedList。这些集合提供了对对象组的索引访问。他们提供了元素的添加与删除支持。然而,它们并没有内置的元素排序支持。 你能够使用java.util.Collections类中的sort()方法对List元素进行排序。你既可以给方法传递
- servlet单例多线程
utopialxw
单例多线程servlet
转自http://www.cnblogs.com/yjhrem/articles/3160864.html
和 http://blog.chinaunix.net/uid-7374279-id-3687149.html
Servlet 单例多线程
Servlet如何处理多个请求访问?Servlet容器默认是采用单实例多线程的方式处理多个请求的:1.当web服务器启动的