- hive学习笔记之五:分桶
程序员欣宸
欢迎访问我的GitHubhttps://github.com/zq2599/blog_demos内容:所有原创文章分类汇总及配套源码,涉及Java、Docker、Kubernetes、DevOPS等;《hive学习笔记》系列导航基本数据类型复杂数据类型内部表和外部表分区表分桶HiveQL基础内置函数Sqoop基础UDF用户自定义聚合函数(UDAF)UDTF本篇概览本文是《hive学习笔记》的第五篇
- hive学习(五)
2301_79721847
hive学习hadoop
一、hive的DML操作1.load(向表中装载数据)hive>loaddata[local]inpath'路径'[overwrite]intotable表名[partition(partcol1=val1,…)];特殊说明1)local:标识从本地加载数据到Hive表,若没有local的话从HDFS加载数据到Hive表2)overwrite:表示覆盖原有数据,若没有追加在原有数据上3)若目标是分
- hive学习记录
2302_80695227
hive学习hadoop
一、Hive的基本概念定义:Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类SQL查询功能。Hive将HQL(HiveQueryLanguage)转化成MapReduce程序或其他分布式计算引擎(如Tez、Spark)的任务进行计算。数据存储:Hive处理的数据存储在HDFS(HadoopDistributedFileSystem)上。执行引擎:Hive的
- hive学习(四)
2301_79721847
hive学习hadoop
一、分区表的数据导入1.静态分区(需要手动指定分区字段的值)直接将文件数据导入到分区表语法:loaddata[local]inpath'filepath'intotabletablenamepartition(分区字段1='分区值1',分区字段2='分区值2'...);loaddata[local]inpath'/root/hive/data/c.txtintotablenickypartitio
- Python大数据之Hadoop学习——day06_hive学习02
笨小孩124
大数据hadoop学习
一.hive内外表操作1.建表语法create[external]table[ifnotexists]表名(字段名字段类型,字段名字段类型,...)[partitionedby(分区字段名分区字段类型)]#分区表固定格式[clusteredby(分桶字段名)into桶个数buckets]#分桶表固定格式[sortedby(排序字段名asc|desc)][rowformatdelimitedfiel
- hive学习笔记之九:基础UDF
程序员欣宸
欢迎访问我的GitHubhttps://github.com/zq2599/blog_demos内容:所有原创文章分类汇总及配套源码,涉及Java、Docker、Kubernetes、DevOPS等;《hive学习笔记》系列导航基本数据类型复杂数据类型内部表和外部表分区表分桶HiveQL基础内置函数Sqoop基础UDF用户自定义聚合函数(UDAF)UDTF本篇概览本文是《hive学习笔记》的第九篇
- hive学习笔记之三:内部表和外部表
程序员欣宸
欢迎访问我的GitHubhttps://github.com/zq2599/blog_demos内容:所有原创文章分类汇总及配套源码,涉及Java、Docker、Kubernetes、DevOPS等;《hive学习笔记》系列导航基本数据类型复杂数据类型内部表和外部表分区表分桶HiveQL基础内置函数Sqoop基础UDF用户自定义聚合函数(UDAF)UDTF本篇概览本文是《hive学习笔记》系列的第
- Hive学习-高级版一(其他客户端使用介绍)
刘子栋
操作hive的方法前面只介绍了hive客户端方式,但是被官方定义为过时(虽然还是最常用的),其他操作hive的方式有beeline、webUI、JavaAPI(官方最推荐的方式是beeline)。这几种客户端方式需要服务hiveserver2的支持,所以首先我们需要先启动该服务。1、hiveserver2启动默认启动方式,默认端口10000$./hiveserver2$hive--serviceh
- hive学习笔记
一加六
hivehadoop
安装配置安装hive下载hive解压重命名添加环境变量Vi/etc/proflie使环境变量生效Source/etc/profile修改配置文件cphive-env.sh.templatehive-env.shHiveMetastore配置将自带的derby数据库替换为mysql数据库参考文章https://my.oschina.net/u/4292373/blog/3497563登录mysql创
- hive学习之------hive的数据类型
创作者mateo
hivehivehadoopbigdata
文章目录SQL练习:Hive数据类型整型:TINYINT、SMALLINT、INT、BIGINT浮点:FLOAT、DOUBLE布尔类型:BOOL(False/True)字符串:STRING时间类型:复杂数据类型:HiveHQLDDLDMLSQL练习:1、count(*)、count(1)、count(‘字段名’)区别2、HQL执行优先级:from、where、groupby、having、orde
- 大数据Hadoop/Hive学习笔记一(基础概念)
lucky_myj
大数据hadoop
大数据Hadoop/Hive学习笔记一(基础概念)一,概念介绍:大数据:大数据一般用来描述一种数量庞大,复杂的数据集,传统数据处理应用程序难以应对。大数据通常应用于预测分析,用户行为分析或从数据中提取有价值的信息用于高级数据分析方法,并不局限与指某种特定规模的数据集大数据的特征:大数据具有多样性、体量(volume)和价值密度(value)/精准性(veracity)体量Volume:非结构化数据
- hive学习笔记之十:用户自定义聚合函数(UDAF)
程序员欣宸
欢迎访问我的GitHub这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos本篇概览本文是《hive学习笔记》的第十篇,前文实践过UDF的开发、部署、使用,那个UDF适用于一进一出的场景,例如将每条记录的指定字段转为大写;除了一进一出,在使用groupby的SQL中,多进一出也是常见场景,例如hive自带的avg、sum都是多进一出
- Hive学习笔记(Hive数据的定义与操作)
ジ時光不老
Hive学习java开发语言后端
Hive学习笔记(Hive数据的定义与操作)Hive数据定义与操作HiveQL数据定义语言创建数据库删除数据库创建表1.管理表外部表修改表删除表分区表静态分区动态分区HiveQL数据操作向管理表中装载数据经查询语句向表中插入数据单个查询语句中创建表并加载数据导入数据导出数据Hive数据定义与操作HiveQL数据定义语言Hive数据仓库中的HiveQL数据定义语言,类似于数据仓库DDL,用来数据仓库
- Hive学习之 DDL(数据定义)心得
顺其自然的济帅哈
Hivehive
Hive之DDL(数据定义):1.创建数据库:createdatabase***;(数据库在HDFS上的默认存储路径是/user/hive/warehouse/)标准写法:createdatabaseifnotexists***;2.指定数据库创建的位置:createdatabase***location'/';3.显示数据库,数据表:showdatabase/table;4.模糊显示数据库:sh
- hive学习笔记之四:分区表
程序员欣宸
欢迎访问我的GitHubhttps://github.com/zq2599/blog_demos内容:所有原创文章分类汇总及配套源码,涉及Java、Docker、Kubernetes、DevOPS等;《hive学习笔记》系列导航基本数据类型复杂数据类型内部表和外部表分区表分桶HiveQL基础内置函数Sqoop基础UDF用户自定义聚合函数(UDAF)UDTF本篇概览本文是《hive学习笔记》系列的第
- Hive学习(14)json解析get_json_object()函数
一个天蝎座 白勺 程序猿
hive学习jsonsql数据仓库
一、语法目的:在一个标准JSON字符串中,按照指定方式抽取指定的字符串。stringget_json_object(string,string)参数说明json:必填。STRING类型。标准的JSON格式对象,格式为{Key:Value,Key:Value,…}。如果遇到英文双引号("),需要用两个反斜杠(\)进行转义。如果遇到英文单引号('),需要用一个反斜杠(\)进行转义。path:必填。ST
- 【大数据进阶第三阶段之Hive学习笔记】Hive基础入门
伊达
大数据Hive大数据hive学习
目录1、什么是Hive2、Hive的优缺点2.1、优点2.2、缺点2.2.1、Hive的HQL表达能力有限2.2.2、Hive的效率比较低3、Hive架构原理3.1、用户接口:Client3.2、元数据:Metastore3.3、Hadoop3.4、驱动器:DriverHive运行机制4、Hive和数据库比较4.1、数据更新4.2、执行延迟4.3、数据规模1、什么是HiveHive:由Facebo
- 【大数据进阶第三阶段之Hive学习笔记】Hive查询、函数、性能优化
伊达
大数据hive学习
【大数据进阶第三阶段之Hive学习笔记】Hive安装-CSDN博客【大数据进阶第三阶段之Hive学习笔记】Hive常用命令和属性配置-CSDN博客【大数据进阶第三阶段之Hive学习笔记】Hive基础入门-CSDN博客【大数据进阶第三阶段之Hive学习笔记】Hive查询、函数、性能优化-CSDN博客————————————————1、查询查询语句语法:[WITHCommonTableExpressi
- 【大数据进阶第三阶段之Hive学习笔记】Hive常用命令和属性配置
伊达
大数据Hive大数据hive学习
【大数据进阶第三阶段之Hive学习笔记】Hive安装-CSDN博客【大数据进阶第三阶段之Hive学习笔记】Hive常用命令和属性配置-CSDN博客【大数据进阶第三阶段之Hive学习笔记】Hive基础入门-CSDN博客【大数据进阶第三阶段之Hive学习笔记】Hive查询、函数、性能优化-CSDN博客1、Hive安装【大数据进阶第三阶段之Hive学习笔记】Hive安装-CSDN博客2、HiveJDBC
- 【大数据进阶第三阶段之Hive学习笔记】Hive的数据类型与数据操作
伊达
大数据Hiveoracle数据库大数据
【大数据进阶第三阶段之Hive学习笔记】Hive安装-CSDN博客【大数据进阶第三阶段之Hive学习笔记】Hive常用命令和属性配置-CSDN博客【大数据进阶第三阶段之Hive学习笔记】Hive基础入门-CSDN博客【大数据进阶第三阶段之Hive学习笔记】Hive查询、函数、性能优化-CSDN博客1、Hive数据类型1.1、基本数据类型红标为常用的数据类型;对于Hive的String类型相当于数据
- 【大数据进阶第三阶段之Hive学习笔记】Hive安装
伊达
Hive大数据大数据hive学习
1、环境准备安装hadoop以及zookeeper、mysql【大数据进阶第二阶段之Hadoop学习笔记】Hadoop运行环境搭建-CSDN博客《zookeeper的安装与配置》自行百度《Linux环境配置MySQL》自行百度2、下载安装CSDN下载:https://download.csdn.net/download/liguohuaty/88702104Hive官网下载:Downloads(a
- Hive学习(13)lag和lead函数取偏移量
一个天蝎座 白勺 程序猿
大数据hivehadoopsql大数据数据仓库
hive里面lag函数在数据处理和分析中,窗口函数是一种重要的技术,用于在数据集中执行聚合和分析操作。Hive作为一种大数据处理框架,也提供了窗口函数的支持。在Hive中,Lag函数是一种常用的窗口函数,可以用于计算前一行或前N行的值。窗口函数简介窗口函数是一种用于根据特定条件对数据进行分组和排序的函数,它可以在查询中使用。窗口函数配合分析函数一起使用,能够对数据进行更加灵活和高效的处理。Hive
- hive知识简单全面详解
AnAn-66.
hivebigdata大数据hive
hive学习整理1、认识Hive1.1hive认识1.1.1优点1.1.1缺点1.2hive架构1.3为什么用Hive而不用关系型数据库?2、hive安装2.1安装及配置环境2.2hive启动并使用2.2.1使用mysql作为hive的元数据2.2.2使用JDBC连接远程Hive服务3、hive的基础使用3.1数据结构3.2STRUCT、MAP、ARRAY4、DDL数据定义4.2查询数据库4.2.
- Hive学习——企业级调优
雷神乐乐
#Hive学习大数据javahive
目录一、计算资源调优(一)Yarn资源配置——集群1.Yarn配置说明(1)yarn.nodemanager.resource.memory-mb(2)yarn.nodemanager.resource.cpu-vcores(3)yarn.scheduler.maximum-allocation-mb(4)yarn.scheduler.minimum-allocation-mb(二)MapRedu
- hive学习笔记
不爱吃鱼的馋猫
hive大数据hadoop
一、Hive基本概念1.1hive是什么hive是基于hadoop的一个数仓分析工具,hive可以将hdfs上存储的结构化的数据,映射成一张表,然后让用户写HQL(类SQL)来分析数据telupdown138383843813451567138383843953451567138383844012411657713838384413453157571383838434353551567567按照手
- (三)hive学习笔记——1.1hive入门
我是菜鸟程序员
大数据学习之路hive大数据数据仓库
(三)hive学习笔记——1.1hive入门1.Hive介绍2.Hive的安装3.Hive数据的存储4.配置安装mysql5.配置Hive元数据保存到mysql中6.元数据的结构7.jdbc连接hive8.Hive常见属性配置1.Hive介绍Hive是一个数据仓库软件Hive可以使用sql来促进对已经存在分布式设备中的数据进行读,写和管理等操作!Hive在使用时,需要对已经存储的数据进行结构的投影
- 大数据高级开发工程师——Hive学习笔记(3)
讲文明的喜羊羊拒绝pua
大数据hivebigdatahadoophql
文章目录Hive提高篇Hive的使用Hive的常用函数1.系统内置函数2.数值计算取整函数:round向下取整函数:floor向上取整函数:ceil向上取整函数:ceiling取随机数函数:rand3.日期函数UNIX时间戳转日期函数:from_unixtime日期转UNIX时间戳函数:unix_timestamp日期时间转日期函数:to_date日期转年函数:year日期转月函数:month日期
- Hive学习笔记(一)—— Hive的入门
Alienware^
#Hive数据仓库hive
文章目录Hive基本概念1.1什么是Hive1.2Hive的优缺点1.2.1优点1.2.2缺点1.3Hive架构原理1.4Hive和数据库比较1.4.1查询语言1.4.2数据存储位置1.4.3数据更新1.4.4索引1.4.5执行1.4.6执行延迟1.4.7可扩展性1.4.8数据规模Hive基本概念1.1什么是HiveHive:由Facebook开源用于解决海量结构化日志的数据统计。Hive是基于H
- Hive学习笔记(1)——Hive原理初探
Zhou.Y.M
Hadoophivehadoop大数据mapreduce
文章目录前言一、hive的特点二、hive体系架构及基本原理三、Hive的存储四、总结前言相信大家通过学习MapReduce,已经认识到hadoop利用多台廉价机器集群进行并行计算的优势,了解了HDFS、Yarn、MapReduce的工作原理,也对hadoop生态体系有了一定的了解。但是问题也随之出现,我们对MapReduce程序并不了解,编写起来语法也比较复杂,这无疑降低了我们的开发效率。这时,
- Hive学习笔记 —— Hive的数据类型
慢行慢行
Hive大数据HadoopHive
Hive本质上是一个数据库,可以创建表,表有列组成,而列支持的主要类型有:基本数据类型、复杂数据类型、时间数据类型。1.Hive的数据类型之基本数据类型tinyint/smallint/int/bigint:整数类型float/double:浮点数类型boolean:布尔类型string:字符串类型varchar(20):能存储小于20个字符的数据char(20):存储的大小固定为20个字符2.H
- Nginx负载均衡
510888780
nginx应用服务器
Nginx负载均衡一些基础知识:
nginx 的 upstream目前支持 4 种方式的分配
1)、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
2)、weight
指定轮询几率,weight和访问比率成正比
- RedHat 6.4 安装 rabbitmq
bylijinnan
erlangrabbitmqredhat
在 linux 下安装软件就是折腾,首先是测试机不能上外网要找运维开通,开通后发现测试机的 yum 不能使用于是又要配置 yum 源,最后安装 rabbitmq 时也尝试了两种方法最后才安装成功
机器版本:
[root@redhat1 rabbitmq]# lsb_release
LSB Version: :base-4.0-amd64:base-4.0-noarch:core
- FilenameUtils工具类
eksliang
FilenameUtilscommon-io
转载请出自出处:http://eksliang.iteye.com/blog/2217081 一、概述
这是一个Java操作文件的常用库,是Apache对java的IO包的封装,这里面有两个非常核心的类FilenameUtils跟FileUtils,其中FilenameUtils是对文件名操作的封装;FileUtils是文件封装,开发中对文件的操作,几乎都可以在这个框架里面找到。 非常的好用。
- xml文件解析SAX
不懂事的小屁孩
xml
xml文件解析:xml文件解析有四种方式,
1.DOM生成和解析XML文档(SAX是基于事件流的解析)
2.SAX生成和解析XML文档(基于XML文档树结构的解析)
3.DOM4J生成和解析XML文档
4.JDOM生成和解析XML
本文章用第一种方法进行解析,使用android常用的DefaultHandler
import org.xml.sax.Attributes;
- 通过定时任务执行mysql的定期删除和新建分区,此处是按日分区
酷的飞上天空
mysql
使用python脚本作为命令脚本,linux的定时任务来每天定时执行
#!/usr/bin/python
# -*- coding: utf8 -*-
import pymysql
import datetime
import calendar
#要分区的表
table_name = 'my_table'
#连接数据库的信息
host,user,passwd,db =
- 如何搭建数据湖架构?听听专家的意见
蓝儿唯美
架构
Edo Interactive在几年前遇到一个大问题:公司使用交易数据来帮助零售商和餐馆进行个性化促销,但其数据仓库没有足够时间去处理所有的信用卡和借记卡交易数据
“我们要花费27小时来处理每日的数据量,”Edo主管基础设施和信息系统的高级副总裁Tim Garnto说道:“所以在2013年,我们放弃了现有的基于PostgreSQL的关系型数据库系统,使用了Hadoop集群作为公司的数
- spring学习——控制反转与依赖注入
a-john
spring
控制反转(Inversion of Control,英文缩写为IoC)是一个重要的面向对象编程的法则来削减计算机程序的耦合问题,也是轻量级的Spring框架的核心。 控制反转一般分为两种类型,依赖注入(Dependency Injection,简称DI)和依赖查找(Dependency Lookup)。依赖注入应用比较广泛。
- 用spool+unixshell生成文本文件的方法
aijuans
xshell
例如我们把scott.dept表生成文本文件的语句写成dept.sql,内容如下:
set pages 50000;
set lines 200;
set trims on;
set heading off;
spool /oracle_backup/log/test/dept.lst;
select deptno||','||dname||','||loc
- 1、基础--名词解析(OOA/OOD/OOP)
asia007
学习基础知识
OOA:Object-Oriented Analysis(面向对象分析方法)
是在一个系统的开发过程中进行了系统业务调查以后,按照面向对象的思想来分析问题。OOA与结构化分析有较大的区别。OOA所强调的是在系统调查资料的基础上,针对OO方法所需要的素材进行的归类分析和整理,而不是对管理业务现状和方法的分析。
OOA(面向对象的分析)模型由5个层次(主题层、对象类层、结构层、属性层和服务层)
- 浅谈java转成json编码格式技术
百合不是茶
json编码java转成json编码
json编码;是一个轻量级的数据存储和传输的语言
在java中需要引入json相关的包,引包方式在工程的lib下就可以了
JSON与JAVA数据的转换(JSON 即 JavaScript Object Natation,它是一种轻量级的数据交换格式,非
常适合于服务器与 JavaScript 之间的数据的交
- web.xml之Spring配置(基于Spring+Struts+Ibatis)
bijian1013
javaweb.xmlSSIspring配置
指定Spring配置文件位置
<context-param>
<param-name>contextConfigLocation</param-name>
<param-value>
/WEB-INF/spring-dao-bean.xml,/WEB-INF/spring-resources.xml,
/WEB-INF/
- Installing SonarQube(Fail to download libraries from server)
sunjing
InstallSonar
1. Download and unzip the SonarQube distribution
2. Starting the Web Server
The default port is "9000" and the context path is "/". These values can be changed in &l
- 【MongoDB学习笔记十一】Mongo副本集基本的增删查
bit1129
mongodb
一、创建复本集
假设mongod,mongo已经配置在系统路径变量上,启动三个命令行窗口,分别执行如下命令:
mongod --port 27017 --dbpath data1 --replSet rs0
mongod --port 27018 --dbpath data2 --replSet rs0
mongod --port 27019 -
- Anychart图表系列二之执行Flash和HTML5渲染
白糖_
Flash
今天介绍Anychart的Flash和HTML5渲染功能
HTML5
Anychart从6.0第一个版本起,已经逐渐开始支持各种图的HTML5渲染效果了,也就是说即使你没有安装Flash插件,只要浏览器支持HTML5,也能看到Anychart的图形(不过这些是需要做一些配置的)。
这里要提醒下大家,Anychart6.0版本对HTML5的支持还不算很成熟,目前还处于
- Laravel版本更新异常4.2.8-> 4.2.9 Declaration of ... CompilerEngine ... should be compa
bozch
laravel
昨天在为了把laravel升级到最新的版本,突然之间就出现了如下错误:
ErrorException thrown with message "Declaration of Illuminate\View\Engines\CompilerEngine::handleViewException() should be compatible with Illuminate\View\Eng
- 编程之美-NIM游戏分析-石头总数为奇数时如何保证先动手者必胜
bylijinnan
编程之美
import java.util.Arrays;
import java.util.Random;
public class Nim {
/**编程之美 NIM游戏分析
问题:
有N块石头和两个玩家A和B,玩家A先将石头随机分成若干堆,然后按照BABA...的顺序不断轮流取石头,
能将剩下的石头一次取光的玩家获胜,每次取石头时,每个玩家只能从若干堆石头中任选一堆,
- lunce创建索引及简单查询
chengxuyuancsdn
查询创建索引lunce
import java.io.File;
import java.io.IOException;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Docume
- [IT与投资]坚持独立自主的研究核心技术
comsci
it
和别人合作开发某项产品....如果互相之间的技术水平不同,那么这种合作很难进行,一般都会成为强者控制弱者的方法和手段.....
所以弱者,在遇到技术难题的时候,最好不要一开始就去寻求强者的帮助,因为在我们这颗星球上,生物都有一种控制其
- flashback transaction闪回事务查询
daizj
oraclesql闪回事务
闪回事务查询有别于闪回查询的特点有以下3个:
(1)其正常工作不但需要利用撤销数据,还需要事先启用最小补充日志。
(2)返回的结果不是以前的“旧”数据,而是能够将当前数据修改为以前的样子的撤销SQL(Undo SQL)语句。
(3)集中地在名为flashback_transaction_query表上查询,而不是在各个表上通过“as of”或“vers
- Java I/O之FilenameFilter类列举出指定路径下某个扩展名的文件
游其是你
FilenameFilter
这是一个FilenameFilter类用法的例子,实现的列举出“c:\\folder“路径下所有以“.jpg”扩展名的文件。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
- C语言学习五函数,函数的前置声明以及如何在软件开发中合理的设计函数来解决实际问题
dcj3sjt126com
c
# include <stdio.h>
int f(void) //括号中的void表示该函数不能接受数据,int表示返回的类型为int类型
{
return 10; //向主调函数返回10
}
void g(void) //函数名前面的void表示该函数没有返回值
{
//return 10; //error 与第8行行首的void相矛盾
}
in
- 今天在测试环境使用yum安装,遇到一个问题: Error: Cannot retrieve metalink for repository: epel. Pl
dcj3sjt126com
centos
今天在测试环境使用yum安装,遇到一个问题:
Error: Cannot retrieve metalink for repository: epel. Please verify its path and try again
处理很简单,修改文件“/etc/yum.repos.d/epel.repo”, 将baseurl的注释取消, mirrorlist注释掉。即可。
&n
- 单例模式
shuizhaosi888
单例模式
单例模式 懒汉式
public class RunMain {
/**
* 私有构造
*/
private RunMain() {
}
/**
* 内部类,用于占位,只有
*/
private static class SingletonRunMain {
priv
- Spring Security(09)——Filter
234390216
Spring Security
Filter
目录
1.1 Filter顺序
1.2 添加Filter到FilterChain
1.3 DelegatingFilterProxy
1.4 FilterChainProxy
1.5
- 公司项目NODEJS实践0.1
逐行分析JS源代码
mongodbnginxubuntunodejs
一、前言
前端如何独立用nodeJs实现一个简单的注册、登录功能,是不是只用nodejs+sql就可以了?其实是可以实现,但离实际应用还有距离,那要怎么做才是实际可用的。
网上有很多nod
- java.lang.Math
liuhaibo_ljf
javaMathlang
System.out.println(Math.PI);
System.out.println(Math.abs(1.2));
System.out.println(Math.abs(1.2));
System.out.println(Math.abs(1));
System.out.println(Math.abs(111111111));
System.out.println(Mat
- linux下时间同步
nonobaba
ntp
今天在linux下做hbase集群的时候,发现hmaster启动成功了,但是用hbase命令进入shell的时候报了一个错误 PleaseHoldException: Master is initializing,查看了日志,大致意思是说master和slave时间不同步,没办法,只好找一种手动同步一下,后来发现一共部署了10来台机器,手动同步偏差又比较大,所以还是从网上找现成的解决方
- ZooKeeper3.4.6的集群部署
roadrunners
zookeeper集群部署
ZooKeeper是Apache的一个开源项目,在分布式服务中应用比较广泛。它主要用来解决分布式应用中经常遇到的一些数据管理问题,如:统一命名服务、状态同步、集群管理、配置文件管理、同步锁、队列等。这里主要讲集群中ZooKeeper的部署。
1、准备工作
我们准备3台机器做ZooKeeper集群,分别在3台机器上创建ZooKeeper需要的目录。
数据存储目录
- Java高效读取大文件
tomcat_oracle
java
读取文件行的标准方式是在内存中读取,Guava 和Apache Commons IO都提供了如下所示快速读取文件行的方法: Files.readLines(new File(path), Charsets.UTF_8); FileUtils.readLines(new File(path)); 这种方法带来的问题是文件的所有行都被存放在内存中,当文件足够大时很快就会导致
- 微信支付api返回的xml转换为Map的方法
xu3508620
xmlmap微信api
举例如下:
<xml>
<return_code><![CDATA[SUCCESS]]></return_code>
<return_msg><![CDATA[OK]]></return_msg>
<appid><