- Hadoop学习第三课(HDFS架构--读、写流程)
小小程序员呀~
数据库hadoop架构bigdata
1.块概念举例1:一桶水1000ml,瓶子的规格100ml=>需要10个瓶子装完一桶水1010ml,瓶子的规格100ml=>需要11个瓶子装完一桶水1010ml,瓶子的规格200ml=>需要6个瓶子装完块的大小规格,只要是需要存储,哪怕一点点,也是要占用一个块的块大小的参数:dfs.blocksize官方默认的大小为128M官网:https://hadoop.apache.org/docs/r3.
- HBase+ZooKeeper+Hadoop2.6.0的ResourceManager HA集群高可用配置
jerry_jiang2017
Hadoop
问题导读:0、了解常规JDK安装以及Linux系统配置1、了解集群规划以及集群场景2、熟悉HBase的集群搭建3、熟悉ZooKeeper集群搭建4、熟悉Hadoop2.6.0版本HA集群搭建5、验证HBase、ZooKeeper、Hadoop等集群运行情况参考:Hadoop2.4的ResourceManagerHA高可用配置hadoop2.0已经发布了稳定版本了,增加了很多特性,比如HDFSHA、
- hadoop环境搭建———Hadoop安装教程_伪分布式配置_CentOS6.4/Hadoop2.6.0【转载搬运】
JYeontu
hadoop伪分布大数据hadoop环境配置hdfs
最近开始学习大数据,想自己在虚拟机上搭建个伪分布,在网上也找了很多教程,踩了很多坑,最后发现了厦门大学大数据实验室林子雨老师的这个教程,按着步骤终于成功搭建,所以想分享一下,大家可以少踩一些坑,还有就是林子雨老师在慕课上的课程也都很有趣,在这里我也推荐有兴趣的可以去看看,以下均为转载内容,如有侵权,可以联系我删除。本Hadoop教程由厦门大学数据库实验室出品,转载请注明。本教程适合于在CentOS
- 搭建基于 HDFS 碎片文件存储服务
无良人斜杆人生
实验内容HDFS是Hadoop的分布式文件系统,HDFS中的文件在物理上是分块(block)存储的,块的大小可以通过配置参数(dfs.blocksize)来规定。在Hadoop2.x版本中默认大小是128M,一般将1M的文件定义为碎片文件,该类文件如果需要存储到HDFS中的话,需要合并成一个大文件存储在HDFS中的一个块中,这样可以节约存储空间。本教程从零开始,带您一步步搭建基于HDFS的碎片文件
- HDFS的文件块大小(重点)
bankq
hdfshadoop大数据
HDFS中的文件在物理上是分块存储(Block),块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在Hadoop2.x/3.x版本中是128M,1.x版本中是64M。如果一个文件文件小于128M,该文件会占用128M的空间吗?不是的,它只占用文件本身大小的空间,其它空间别的文件也可以用,所以这128M的含义是HDFS数据块的大小,和每个文件的大小没有关系。把下图的流程过一下思
- Eclipse创建包含Scala的Maven工程_Spark学习demo
DevinShuai
sparkeclipsescalamavensparkhadoop
为了学习spark,在mac上使用eclipse创建包含scala的maven工程,并打包至于服务器运行。1.1hadoop安装安装hadoop2.6.0,参考博客1.2spark下载下载spark-1.6.0-bin-hadoop2.6.tgz,在官网下载,在chooseadownloadtype中建议选择selectapachemirror。下载完成之后放在自己的相应目录,运行spark命令:
- HDFS架构和读写流程
冰可乐~
Hadoophdfshadoop架构
HDFS读写流程HDFS组成架构HDFS,是一个文件系统,用于存储文件,通弄个目录树来定位文件,(分布式的)HDFS的使用场景:适合一次写入,多次读的场景,且不支持文件的修改HDFS快的大小HDFS中文件物理上是分块存储(Block),块的大小可以通过(dfs.blocksize)来规定,默认大小Hadoop2.x版本128M,老版本中是64M思考:为什么块的大小不能设置太小,也不能设置太大1.H
- HDFS 文件块的大小
Gerald Kwok
HDFS
HDFS文件块的大小HDFS中的文件在物理磁盘上是通过分块存储的,块的大小可以通过参数配置(dfs.blocksize)来决定,在Hadoop>=2.x版本中是128M,老版本是64M举个栗子假如磁盘的寻址时间约为10ms,即查找到目标Block的时间为10ms根据规定,寻址时间为传输时间的1%时,为最佳状态。因此传输时间=10ms/0.1=1s若磁盘的传输速率为100M/s那么块的大小最佳为10
- Hadoop HDFS 文件块大小
Transkai47
hdfshadoopbigdata
HDFS文件块大小HDFS中的文件在物理上是分块存储(block),块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在hadoop2.x版本中是128M,老版本中是64MHDFS的块比磁盘的块大,其目的是为了最小化寻址开销。如果块设置得足够大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。因而,传输一个由多个块组成的文件的时间取决于磁盘传输速率。如果寻址时间约为
- HDFS文件块大小
高个子男孩
Hadoophdfshadoop大数据
HDFS中的文件在物理上是分块存储(Block),块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在Hadooop2X版本中是128M,老版本中是64M。思考:为什么块的大小不能设置太小,也不能设置太大?HDFS的块设置太小,会增加寻址时间,程序一直在找块的位置;如果块设置的太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需要的时间。导致程序在处理这块数据时,会非常慢
- 【Hadoop学习之HDFS】_05HDFS文件块大小
easy_sir
Hadoop学习笔记大数据hadoophdfs
一、HDFS文件块大小HDFS中的文件在物理上是分块(Block)存储的,块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在Hadoop2.x版本中为128M,老版本中是64M寻址时间为传输时间的1%时,为最佳状态二、为什么块大小不能设置太小,也不能设置太大?若HDFS的块设置太小,会增加寻址时间,程序一直在找块的开始位置;若HDFS的块设置太大,从磁盘传输数据的时间会明显大
- 【HDFS】HDFS文件块大小(重点)
yabi亚比
大数据基础学习hadoophdfs大数据
HDFS中的文件在物理上是分块存储(Block),块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在Hadoop2.x版本中是128M,老版本中是64M。那么,问题来了,为什么一个block的大小就是128M呢?默认为128M的原因,基于最佳传输损耗理论!不论对磁盘的文件进行读还是写,都需要先进行寻址!最佳传输损耗理论:在一次传输中,寻址时间占用总传输时间的1%时,本次传输的
- 大数据-HDFS文件块大小的设置
hmyqwe
大数据
HDFS中的文件在物料上是分块存储,块的大小可以通过配置参数dfs.blocksize来规定,默认大小再Hadoop2.X版本中是128M,Hadoop1.X版本中是64MHDFS的块设置太小,会增加寻址时间,程序一直在找块的开始位置HDFS的块设置太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。导致程序再出来这块数据时非常慢总结:HDFS块的大小设置主要取决于磁盘传输速率,即机
- hdfs之块大小
Lucky1016
大数据大数据
块大小hdfs默认的块大小为128M,可以在官网查看参数dfs.blocksize。假如一个文件的大小为130M,往HDFS里面存储时,先将128M存储到第一个块里面,剩余的2M则会存储到第二个块里面,但第二个快的实际大小为2M。
- HDFS文件块大小(重点)
孙晨c
网络javahadoop大数据python
HDFS中的文件在物理上是分块存储(Block),块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在Hadoop2.x版本中是128M,老版本中是64M。那么,问题来了,为什么一个block的大小就是128M呢?默认为128M的原因,基于最佳传输损耗理论!不论对磁盘的文件进行读还是写,都需要先进行寻址!最佳传输损耗理论:在一次传输中,寻址时间占用总传输时间的1%时,本次传输的
- HDFS的文件块大小
小小花生酱
hdfs大数据hdfs
HDFS中的文件在物理上是分块存储(Block),块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在Hadoop2.x版本中是128M,老版本中是64M。HDFS中块(block)的大小为什么设置为128M?HDFS中平均寻址时间大概为10ms;经过前人的大量测试发现,寻址时间为传输时间的1%时,为最佳状态;所以最佳传输时间为10ms/0.01=1000ms=1s目前磁盘的传
- hadoop2.6.0(单节点)下Sqoop-1.4.6安装与配置(数据读取涉及hadoop、hbase和hive)
weixin_33921089
大数据数据库python
下载Sqoophttp://sqoop.apache.org/或http://archive-primary.cloudera.com/cdh5/cdh/5/(这个就是版本已经对应好了,不需去弄版本兼容问题了)或通过CM、Ambari很多同行,也许都知道,对于我们大数据搭建而言,目前主流,分为Apache和Cloudera和Ambari。后两者我不多说,是公司必备和大多数高校科研环境所必须的!分别
- Hadoop3 - HDFS 文件存储策略
小毕超
Hadoophdfshadoop大数据
一、HDFS文件存储策略Hadoop允许将不是热数据或者活跃数据的数据分配到比较便宜的存储上,用于归档或冷存储。可以设置存储策略,将较旧的数据从昂贵的高性能存储上转移到性价比较低(较便宜)的存储设备上。Hadoop2.5及以上版本都支持存储策略,在该策略下,不仅可以在默认的传统磁盘上存储HDFS数据,还可以在SSD(固态硬盘)上存储数据。异构存储异构存储是Hadoop2.6.0版本出现的新特性,可
- Wrong FS: hdfs:, expected:file:///
yxdydSky
hadoophdfsWrongFSfilehadoop
这是在对hdfs进行写入操作时发现的错误,最终解决了,给大家分享一下,希望对遇到同样问题的朋友有所帮助,我使用的是hadoop2.6.0版本。Pathpath=newPath("hdfs://master:9000/hadoopdata/dfs/name/WriteSample.log");Configurationconf=newConfiguration();FileSystemfs=File
- Hadoop:为什么集群默认块大小是128MB
小赵呢
javahadoophdfsbigdata
今天在学习MapReduce中FileInuptFormat对文件切片的源码时,发现一个问题在本地windows运行时默认Block大小是32MB在集群上是128MB,突然联想到在HDFS中的块大小也是128MBblock块大小的设置:HDFS中的文件在物理上是分块存储(Block),块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在Hadoop2.x版本中是128M,老版本
- Hbase跨集群数据迁移-快照方式
粮忆雨
说明:原集群为散装集群,hbase版本为1.1.1,hadoop2.7.2;目标集群通过CDH5搭建,hbase版本为1.2.0,hadoop2.6.0。由于业务需要原集群不能停,目前数据基本在hbase上。所以计划使用hbase快照使用数据迁移。1、原集群hbaseshell中创建快照#查看已有快照list_snapshots#创建快照snapshot'test_meter_data','tes
- Hadoop 3.2.1‖联邦模式下突破router的性能瓶颈的实践
hadoop数据库大数据
上两集回顾:在第一集(点击可参阅详情)中,我们通过性能故障排查解决了Hadoop2.6.0版本的瓶颈问题;在第二集(点击可参阅详情)中,我们将集群由Hadoop2.6.0版本升级到Hadoop3.2.1版本,且启用联邦模式,解决了Hadoop的第二次瓶颈;本次,我们将分享一下在联邦模式下如何解决router延迟较大的问题。下面,enjoy:一、基于非联邦和联邦模式的测试在成功将Hadoop2.6.
- 数据库‖上千节点Hadoop集群升级过程分享
hadoop数据库
在上一次我进行了超万亿规模的HadoopNameNode问题的排查,通过为时四天的努力,终于解决了Hadoop2.6.0版本的瓶颈问题,但是生活往往就是墨菲定律,你所极力避免的那些最坏的可能也许终将会发生。为了防止遇到NameNode的第二次瓶颈,我决定将当前集群由Hadoop2.6.0版本升级到Hadoop3.2.1版本,且启用联邦模式。但是在升级之后,我们还是遇到了很多意向不到的问题,虽然最终
- Hadoop 3.2.1‖联邦模式下突破router的性能瓶颈的实践
hadoop数据库大数据
上两集回顾:在第一集(点击可参阅详情)中,我们通过性能故障排查解决了Hadoop2.6.0版本的瓶颈问题;在第二集(点击可参阅详情)中,我们将集群由Hadoop2.6.0版本升级到Hadoop3.2.1版本,且启用联邦模式,解决了Hadoop的第二次瓶颈;本次,我们将分享一下在联邦模式下如何解决router延迟较大的问题。下面,enjoy:一、基于非联邦和联邦模式的测试在成功将Hadoop2.6.
- 数据库‖上千节点Hadoop集群升级过程分享
hadoop数据库
在上一次我进行了超万亿规模的HadoopNameNode问题的排查,通过为时四天的努力,终于解决了Hadoop2.6.0版本的瓶颈问题,但是生活往往就是墨菲定律,你所极力避免的那些最坏的可能也许终将会发生。为了防止遇到NameNode的第二次瓶颈,我决定将当前集群由Hadoop2.6.0版本升级到Hadoop3.2.1版本,且启用联邦模式。但是在升级之后,我们还是遇到了很多意向不到的问题,虽然最终
- Hadoop安装教程(单机/伪分布式环境搭建)/Ubuntu18.04
auhjin_ai8
从零开始自学大数据hadoopubuntulinuxssh
Hadoop安装教程(单机/伪分布式环境搭建)/Ubuntu18.04本教程使用Ubuntu18.04LTS64位作为系统环境(Ubuntu16.04,Ubuntu20.04也行,32位、64位均可),请自行安装系统。本教程基于原生Hadoop2,在Hadoop2.6.0(stable)版本下验证通过,可适合任何Hadoop2.x.y版本,如Hadoop2.7.1、2.6.3、2.4.1等。前期工
- 大数据-Hadoop文件系统- 学习笔记 -BH2
SoFeelLove
大数据大数据Hadoop文件系统HDFS
Hadoop文件系统(HDFS)HDFS的概念和特性首先,它是一个文件系统,用于存储文件,通过统一的命名空间——目录树来定位文件其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务器有各自的角色重要特性如下:HDFS中的文件在物理上是分块存储(block),块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在hadoop2.x版本中是128M,老版本中是64MHDF
- window7使用eclipse提交Hadoop作业到Hadoop集群运行方法
cz-神算子
linux&hadoop
Hadoop集群:Hadoop2.6.0,系统:windows7,开发环境:eclipseEclipse调用Hadoop运行MapReduce程序其实就是普通的java程序可以提交MR任务到集群执行而已。1、首先需要配置环境变量:在系统变量中新增:然后再Path中增加:%HADOOP_HOME%\bin;2、需要在开发的MapReduce的main函数中指定配置如下:Configurationco
- hadoop多次格式化namenode造成datanode无法启动问题解决
z骑士
错误
今天在机器上新装了hadoop2.6.0想体验一把新版本特征,安装好后发现启动dfs时datanode老是启动不了查看namenode日志发现以下问题:按日志内容来看,namenode和datanode的clusterID不一致。突然想起来之前格式化了两次namenode,应该是由于namenode多次格式化造成了namenode和datanode的clusterID不一致!每次格式化时,name
- HDFS存储文件的特点
kangshuangzhu
hadoop
HDFS(HadoopFileSystem),是Hadoop的分布式文件存储系统,但其本质上仍然是一个文件的存储系统,所以文件存储的命令大多数可以在HDS上直接使用。所以HDFS最主要的特点是存储的方式上:1.HDFS是对数据进行分块存储,块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在hadoop2.x版本中是128M,之前的版本中是64M。这样可以对所有节点分别进行数据
- Java实现的简单双向Map,支持重复Value
superlxw1234
java双向map
关键字:Java双向Map、DualHashBidiMap
有个需求,需要根据即时修改Map结构中的Value值,比如,将Map中所有value=V1的记录改成value=V2,key保持不变。
数据量比较大,遍历Map性能太差,这就需要根据Value先找到Key,然后去修改。
即:既要根据Key找Value,又要根据Value
- PL/SQL触发器基础及例子
百合不是茶
oracle数据库触发器PL/SQL编程
触发器的简介;
触发器的定义就是说某个条件成立的时候,触发器里面所定义的语句就会被自动的执行。因此触发器不需要人为的去调用,也不能调用。触发器和过程函数类似 过程函数必须要调用,
一个表中最多只能有12个触发器类型的,触发器和过程函数相似 触发器不需要调用直接执行,
触发时间:指明触发器何时执行,该值可取:
before:表示在数据库动作之前触发
- [时空与探索]穿越时空的一些问题
comsci
问题
我们还没有进行过任何数学形式上的证明,仅仅是一个猜想.....
这个猜想就是; 任何有质量的物体(哪怕只有一微克)都不可能穿越时空,该物体强行穿越时空的时候,物体的质量会与时空粒子产生反应,物体会变成暗物质,也就是说,任何物体穿越时空会变成暗物质..(暗物质就我的理
- easy ui datagrid上移下移一行
商人shang
js上移下移easyuidatagrid
/**
* 向上移动一行
*
* @param dg
* @param row
*/
function moveupRow(dg, row) {
var datagrid = $(dg);
var index = datagrid.datagrid("getRowIndex", row);
if (isFirstRow(dg, row)) {
- Java反射
oloz
反射
本人菜鸟,今天恰好有时间,写写博客,总结复习一下java反射方面的知识,欢迎大家探讨交流学习指教
首先看看java中的Class
package demo;
public class ClassTest {
/*先了解java中的Class*/
public static void main(String[] args) {
//任何一个类都
- springMVC 使用JSR-303 Validation验证
杨白白
springmvc
JSR-303是一个数据验证的规范,但是spring并没有对其进行实现,Hibernate Validator是实现了这一规范的,通过此这个实现来讲SpringMVC对JSR-303的支持。
JSR-303的校验是基于注解的,首先要把这些注解标记在需要验证的实体类的属性上或是其对应的get方法上。
登录需要验证类
public class Login {
@NotEmpty
- log4j
香水浓
log4j
log4j.rootCategory=DEBUG, STDOUT, DAILYFILE, HTML, DATABASE
#log4j.rootCategory=DEBUG, STDOUT, DAILYFILE, ROLLINGFILE, HTML
#console
log4j.appender.STDOUT=org.apache.log4j.ConsoleAppender
log4
- 使用ajax和history.pushState无刷新改变页面URL
agevs
jquery框架Ajaxhtml5chrome
表现
如果你使用chrome或者firefox等浏览器访问本博客、github.com、plus.google.com等网站时,细心的你会发现页面之间的点击是通过ajax异步请求的,同时页面的URL发生了了改变。并且能够很好的支持浏览器前进和后退。
是什么有这么强大的功能呢?
HTML5里引用了新的API,history.pushState和history.replaceState,就是通过
- centos中文乱码
AILIKES
centosOSssh
一、CentOS系统访问 g.cn ,发现中文乱码。
于是用以前的方式:yum -y install fonts-chinese
CentOS系统安装后,还是不能显示中文字体。我使用 gedit 编辑源码,其中文注释也为乱码。
后来,终于找到以下方法可以解决,需要两个中文支持的包:
fonts-chinese-3.02-12.
- 触发器
baalwolf
触发器
触发器(trigger):监视某种情况,并触发某种操作。
触发器创建语法四要素:1.监视地点(table) 2.监视事件(insert/update/delete) 3.触发时间(after/before) 4.触发事件(insert/update/delete)
语法:
create trigger triggerName
after/before 
- JS正则表达式的i m g
bijian1013
JavaScript正则表达式
g:表示全局(global)模式,即模式将被应用于所有字符串,而非在发现第一个匹配项时立即停止。 i:表示不区分大小写(case-insensitive)模式,即在确定匹配项时忽略模式与字符串的大小写。 m:表示
- HTML5模式和Hashbang模式
bijian1013
JavaScriptAngularJSHashbang模式HTML5模式
我们可以用$locationProvider来配置$location服务(可以采用注入的方式,就像AngularJS中其他所有东西一样)。这里provider的两个参数很有意思,介绍如下。
html5Mode
一个布尔值,标识$location服务是否运行在HTML5模式下。
ha
- [Maven学习笔记六]Maven生命周期
bit1129
maven
从mvn test的输出开始说起
当我们在user-core中执行mvn test时,执行的输出如下:
/software/devsoftware/jdk1.7.0_55/bin/java -Dmaven.home=/software/devsoftware/apache-maven-3.2.1 -Dclassworlds.conf=/software/devs
- 【Hadoop七】基于Yarn的Hadoop Map Reduce容错
bit1129
hadoop
运行于Yarn的Map Reduce作业,可能发生失败的点包括
Task Failure
Application Master Failure
Node Manager Failure
Resource Manager Failure
1. Task Failure
任务执行过程中产生的异常和JVM的意外终止会汇报给Application Master。僵死的任务也会被A
- 记一次数据推送的异常解决端口解决
ronin47
记一次数据推送的异常解决
需求:从db获取数据然后推送到B
程序开发完成,上jboss,刚开始报了很多错,逐一解决,可最后显示连接不到数据库。机房的同事说可以ping 通。
自已画了个图,逐一排除,把linux 防火墙 和 setenforce 设置最低。
service iptables stop
- 巧用视错觉-UI更有趣
brotherlamp
UIui视频ui教程ui自学ui资料
我们每个人在生活中都曾感受过视错觉(optical illusion)的魅力。
视错觉现象是双眼跟我们开的一个玩笑,而我们往往还心甘情愿地接受我们看到的假象。其实不止如此,视觉错现象的背后还有一个重要的科学原理——格式塔原理。
格式塔原理解释了人们如何以视觉方式感觉物体,以及图像的结构,视角,大小等要素是如何影响我们的视觉的。
在下面这篇文章中,我们首先会简单介绍一下格式塔原理中的基本概念,
- 线段树-poj1177-N个矩形求边长(离散化+扫描线)
bylijinnan
数据结构算法线段树
package com.ljn.base;
import java.util.Arrays;
import java.util.Comparator;
import java.util.Set;
import java.util.TreeSet;
/**
* POJ 1177 (线段树+离散化+扫描线),题目链接为http://poj.org/problem?id=1177
- HTTP协议详解
chicony
http协议
引言
- Scala设计模式
chenchao051
设计模式scala
Scala设计模式
我的话: 在国外网站上看到一篇文章,里面详细描述了很多设计模式,并且用Java及Scala两种语言描述,清晰的让我们看到各种常规的设计模式,在Scala中是如何在语言特性层面直接支持的。基于文章很nice,我利用今天的空闲时间将其翻译,希望大家能一起学习,讨论。翻译
- 安装mysql
daizj
mysql安装
安装mysql
(1)删除linux上已经安装的mysql相关库信息。rpm -e xxxxxxx --nodeps (强制删除)
执行命令rpm -qa |grep mysql 检查是否删除干净
(2)执行命令 rpm -i MySQL-server-5.5.31-2.el
- HTTP状态码大全
dcj3sjt126com
http状态码
完整的 HTTP 1.1规范说明书来自于RFC 2616,你可以在http://www.talentdigger.cn/home/link.php?url=d3d3LnJmYy1lZGl0b3Iub3JnLw%3D%3D在线查阅。HTTP 1.1的状态码被标记为新特性,因为许多浏览器只支持 HTTP 1.0。你应只把状态码发送给支持 HTTP 1.1的客户端,支持协议版本可以通过调用request
- asihttprequest上传图片
dcj3sjt126com
ASIHTTPRequest
NSURL *url =@"yourURL";
ASIFormDataRequest*currentRequest =[ASIFormDataRequest requestWithURL:url];
[currentRequest setPostFormat:ASIMultipartFormDataPostFormat];[currentRequest se
- C语言中,关键字static的作用
e200702084
C++cC#
在C语言中,关键字static有三个明显的作用:
1)在函数体,局部的static变量。生存期为程序的整个生命周期,(它存活多长时间);作用域却在函数体内(它在什么地方能被访问(空间))。
一个被声明为静态的变量在这一函数被调用过程中维持其值不变。因为它分配在静态存储区,函数调用结束后并不释放单元,但是在其它的作用域的无法访问。当再次调用这个函数时,这个局部的静态变量还存活,而且用在它的访
- win7/8使用curl
geeksun
win7
1. WIN7/8下要使用curl,需要下载curl-7.20.0-win64-ssl-sspi.zip和Win64OpenSSL_Light-1_0_2d.exe。 下载地址:
http://curl.haxx.se/download.html 请选择不带SSL的版本,否则还需要安装SSL的支持包 2. 可以给Windows增加c
- Creating a Shared Repository; Users Sharing The Repository
hongtoushizi
git
转载自:
http://www.gitguys.com/topics/creating-a-shared-repository-users-sharing-the-repository/ Commands discussed in this section:
git init –bare
git clone
git remote
git pull
git p
- Java实现字符串反转的8种或9种方法
Josh_Persistence
异或反转递归反转二分交换反转java字符串反转栈反转
注:对于第7种使用异或的方式来实现字符串的反转,如果不太看得明白的,可以参照另一篇博客:
http://josh-persistence.iteye.com/blog/2205768
/**
*
*/
package com.wsheng.aggregator.algorithm.string;
import java.util.Stack;
/**
- 代码实现任意容量倒水问题
home198979
PHP算法倒水
形象化设计模式实战 HELLO!架构 redis命令源码解析
倒水问题:有两个杯子,一个A升,一个B升,水有无限多,现要求利用这两杯子装C
- Druid datasource
zhb8015
druid
推荐大家使用数据库连接池 DruidDataSource. http://code.alibabatech.com/wiki/display/Druid/DruidDataSource DruidDataSource经过阿里巴巴数百个应用一年多生产环境运行验证,稳定可靠。 它最重要的特点是:监控、扩展和性能。 下载和Maven配置看这里: http
- 两种启动监听器ApplicationListener和ServletContextListener
spjich
javaspring框架
引言:有时候需要在项目初始化的时候进行一系列工作,比如初始化一个线程池,初始化配置文件,初始化缓存等等,这时候就需要用到启动监听器,下面分别介绍一下两种常用的项目启动监听器
ServletContextListener
特点: 依赖于sevlet容器,需要配置web.xml
使用方法:
public class StartListener implements
- JavaScript Rounding Methods of the Math object
何不笑
JavaScriptMath
The next group of methods has to do with rounding decimal values into integers. Three methods — Math.ceil(), Math.floor(), and Math.round() — handle rounding in differen