- HIVE优化场景七--数据倾斜--group by 倾斜
xuanxing123
HIVE优化场景七--数据倾斜:GROUPBY场景下的数据倾斜JOIN场景下的数据倾斜1)由于空值导致的数据倾斜问题2)由于数据类型不一致,导致的转换问题,导致的数据倾斜3)业务数据本身分布不均,导致的数据倾斜,下面4个小场景i.大表与小表JOIN(MapJOIN)ii.大表与大表JOIN,一张表数据分布均匀,另一张表数据特定的KEY(有限几个)分布不均iii.大表与大表JOIN,一张表数据分布均
- HIVE优化场景七--数据倾斜--Join 倾斜
xuanxing123
2)由于数据类型不一致,导致的转换问题,导致的数据倾斜场景说明:用户表中user_id字段为int,log表中user_id为既有string也有int的类型。当按照两个表的user_id进行join操作的时候,默认的hash操作会按照int类型的id进行分配,这样就会导致所有的string类型的id就被分到同一个reducer当中。解决方案:将INT类型id,转换为STRING类型的id.SEL
- 京东面试总结
小小少年Boy
1数据仓库的概念?和数据库的区别?2hdfs上传文件有哪几种方式?3Hive的优化问题?4Hive的数据倾斜问题?5数据分析?概念和总结6Django源码?7python的浅拷贝和深拷贝?总结:HDFS基本命令总结Hive基本命令总结HBase基本命令总结Hive优化问题?HBase优化问题?出现的问题:大数据开发没有理论支撑,应该可以涉及多一点的应用方面;其次引导面试官提问MapReduce;在
- 大数据学习(32)hive优化方法总结
viperrrrrrr
大数据学习hive
&&大数据学习&&系列专栏:哲学语录:承认自己的无知,乃是开启智慧的大门如果觉得博主的文章还不错的话,请点赞+收藏⭐️+留言支持一下博主哦Hive优化主要从以下几个方面考虑:数据倾斜:对于数据倾斜问题,可以尝试进行数据重分布,将倾斜的数据进行重新整理。也可以通过多线程处理和数据分箱等技术进行优化。减少job数:对于大量的小任务,可以尝试进行任务的合并,减少任务的启动次数,从而提高效率。合理设置ma
- 学了这一篇,你对Hive优化会更上一层楼
语兴数据
hivehadoop数据仓库调优
球友提问汪哥问题1:sethive.exec.max.dynamic.partitions=1000;–所有节点的总(默认)限制为1000个动态分区sethive.exec.max.dynamic.partitions.pernode=100;–默认值为每个节点100个动态分区我看某个博客上:sethive.exec.max.dynamic.partitions.pernode=100#表示每个m
- HIVE优化场景三-合理并行控制
xuanxing123
场景三.合理进行并行控制合理的使用并行化参数控制并行化参数有以下几个:开启任务并行执行sethive.exec.parallel=true;允许并行任务的最大线程数sethive.exec.parallel.thread.number=8;这个只是开启并行化建议,具体最终能不能并行,还是依赖于之间有无依赖关系。有依赖关系,既使开启了优化参数也是不行的。如何查看每个阶段间是否有依赖关系,我们可以通过
- Hive 优化总结
Byyyi耀
hivehadoop数据仓库Hive优化
Hive优化本质:HDFS+MapReduce问题原因:倾斜:分区:有的分区没有数据,有的分区数据堆积。(若按天分区,每一天数据差别大就叫倾斜。)groupby:有的分组键在表中数据很多,有的分组键数据很少。小表join大表:小表数据小,大表数据多,造成倾斜。如何识别倾斜?-若表为分区分桶表,以分区字段作为聚合条件聚合,并进行抽样。-若有HDFS的权限,查看分区文件夹的大小是否存在明显差异。过多:
- HIVE优化之map和reduce数量
莱特昂
hivehadoop数据仓库
1、控制hive任务中的map数我们先来了解下什么情况要设置map数量。一般来讲,map数量默认,不需要我们设置,一般情况下,Hive自己就可以知道到底使用多少个map。但是,当我们明确知道表的数据量不大,而Hive运行启动了几千个map的时候,就有必要减小map的数量了。好比1000个西瓜没必要安排100辆车去拉,安排2辆车就可以搞定了。另一方面,当我们发现map数量不多,但map运行速度极慢的
- HIVE优化场景一:去重场景问题
xuanxing123
场景一.去重场景问题1)UNION--UNIONALL之间的区别,如何取舍2)DISTINCT替代方式GROUPBY1)UNION--UNIONALL之间的区别,如何取舍注意SQL中UNIONALL与UNION是不一样的,UNIONALL不会对合并的数据去重UNION会对合并的数据去重例子:EXPLAINSELECTcompany_name,dep_name,user_id,user_nameFR
- hive优化
DIY……
hivehadoop大数据
一、执行计划(Explain)基本语法EXPLAIN[EXTENDED|DEPENDENCY|AUTHORIZATION]querydemo:hive(dyhtest)>explainselect*fromemp;OKExplainSTAGEDEPENDENCIES:Stage-0isarootstageSTAGEPLANS:Stage:Stage-0**FetchOperator**limit:
- HIVE优化场景九--减少IO次数
xuanxing123
场景九.减少IO次数1)通过多表插入FROMAINSERTBSELECTA,....INSERTCSELECTA...2)一次输入,多次使用WITHTABLEAS(....)1)通过多表插入FROMAINSERTBSELECTA,....INSERTCSELECTA...Hive支持多表插入,可以在同一个查询中使用多个insert子句,这样的好处是我们只需要扫描一遍源表就可以生成多个不相交的输出!
- Hive优化总结
July2333
1.小表大表join(MapJOIN):使用mapjoin让小的维度表先进内存,在map端完成joinsethive.auto.convert.join=true;默认为truesethive.mapjoin.smalltable.filesize=25000000;默认25M以下是小表2.大表join大表:(1)空key过滤:一般业务场景不常用(2)空key转换:nvl(n.id,rand())
- Hive优化-SQL调优
ShyGlow
大数据#Hivehive大数据
Hive优化-SQL调优此博客参考了其他博客:hivesqlhttps://www.cnblogs.com/fnlingnzb-learner/p/13087976.html后续还会继续更新和优化优化的根本思想:尽早尽量过滤数据,减少每个阶段的数据量减少job数解决数据倾斜问题尽早尽量过滤数据,减少每个阶段的数据量列裁剪例如某表有a,b,c,d,e五个字段,但是我们只需要a和b,那么请用selec
- 【美团大数据面试】大数据面试题附答案
话数Science
大数据面试大数据面试
目录1.hdfs读写流程解析2.hdfs副本机制,三副本原因,副本存放策略3.hdfs容错机制原理4.MapReduce执行流程详解5.spark和mr的区别6.TopN求法,大数据量无法完全写入内存解决方案,MapReduce实现方法7.spark部署、调度原理8.spark的stage划分方法9.reducejoin执行过程10.大数据量join优化方法11.hive优化手段12.hiveSQ
- Hive优化(十三)-小文件进行合并
bigdata张凯翔
小文件进行合并在Map执行前合并小文件,减少Map数:CombineHiveInputFormat具有对小文件进行合并的功能(系统默认的格式)。HiveInputFormat没有对小文件合并功能。1)参数设置setmapred.max.split.size=112345600;setmapred.min.split.size.per.node=112345600;setmapred.min.spl
- 技本功|Hive优化之监控(三)
云掣YUNCHE
技术文档数据库运维hive大数据mysql
Hive是大数据领域常用的组件之一,主要是大数据离线数仓的运算,关于Hive的性能调优在日常工作和面试中是经常涉及的一个点,因此掌握一些Hive调优是必不可少的技能。影响Hive效率的主要有数据倾斜、数据冗余、job的IO以及不同底层引擎配置情况和Hive本身参数和HiveSQL的执行等因素。本文主要是从监控运维的角度对Hive进行整体性能把控,通过对hive元数据监控,提前发现Hive表的不合理
- 技本功|Hive优化之Spark执行引擎参数调优(二)
云掣YUNCHE
技术文档sparkhive
Hive是大数据领域常用的组件之一,主要是大数据离线数仓的运算,关于Hive的性能调优在日常工作和面试中是经常涉及的的一个点,因此掌握一些Hive调优是必不可少的一项技能。影响Hive效率的主要有数据倾斜、数据冗余、job的IO以及不同底层引擎配置情况和Hive本身参数和HiveSQL的执行等因素。本文主要结合实际业务情况,在使用Spark作为底层引擎时,通过一些常见的配置参数对报错任务进行调整优
- Hive优化
新鲜氧气
大数据#hive#hadoophivehadoop数据仓库
Hive优化Hive的存储层依托于HDFS,Hive的计算层依托于MapReduce,一般Hive的执行效率主要取决于SQL语句的执行效率,因此,Hive的优化的核心思想是MapReduce的优化。1、查看Hive执行计划(小白慎用)Hive的SQL语句在执行之前需要将SQL语句转换成MapReduce任务,因此需要了解具体的转换过程,可以在SQL语句中输入如下命令查看具体的执行计划。--查看执行
- HIVE优化场景八-数据裁剪问题
xuanxing123
场景八_数据裁剪问题1)记录数裁剪i.通过分区,分桶表的优势去构建分桶表的构建过程与使用:https://blog.csdn.net/qq_26803795/article/details/105205702分区表与分桶表本身就是一个一个优化策略。分区表更适用可以合理方式进行数据组织的列,比如每天的log日志,由于每天的数据都差不多,可以按分区进行组织!!分桶表适用于无法形成合理分区的场景,并且可
- Hive优化
耗子背刀PK猫
hive数据仓库
一、问题背景Hive离线数仓开发,一个良好的数据任务,它的运行时长一般是在合理范围内的,当发现报表应用层的指标数据总是产出延迟,排查定位发现是有些任务执行了超10小时这样肯定是不合理的,此时就该想想如何优化ETL任务链路,主要从以下几个角度来考虑问题解决:1、从数据任务本身Hive逻辑代码出发,即Hive逻辑优化,偏理解业务角度。2、从集群的资源设置出发,即Hive参数调优,偏理解技术角度。3、从
- HIVE优化场景二--减少job数量
xuanxing123
场景二.减少JOB的数量1)巧妙的使用UNIONALL减少JOB数量2)利用多表相同的JOIN关联条件字段,去减少JOB的数量1)巧妙的使用UNIONALL减少JOB数量假如如下的场景,我们需要统计每多张表的数据量。首先我们可以编写多条SQL进行统计,这样的效率不高。(没意义)或者我们采用UNIONALL的形式把多个结果合并起来,但是这样效率也比较低如:SELECT'a'AStype,COUNT(
- 大数据开发之Hive优化篇6-Hive on spark
只是甲
大数据和数据仓库#Hivehiveonsparkhadoophivespark
备注:Hive版本2.1.1一.HiveonSpark介绍Hive是基于Hadoop平台的数据仓库,最初由Facebook开发,在经过多年发展之后,已经成为Hadoop事实上的SQL引擎标准。相较于其他诸如Impala、Shark(SparkSQL的前身)等引擎而言,Hive拥有更为广泛的用户基础以及对SQL语法更全面的支持。Hive最初的计算引擎为MapReduce,受限于其自身的Map+Red
- 07-Hive优化---高级部分3
YuPangZa
大数据hivehadoop数据仓库
一、Hive优化大数据的学习:1、学习工具及其原理(50%~70%)2、学习重要的(java、scala、python、sql[mysql\hivesql\sparksql\flinksql])(30%~40%)1、开启本地模式大多数的HadoopJob是需要Hadoop提供的完整的可扩展性来处理大数据集的。不过,有时Hive的输入数据量是非常小的。在这种情况下,为查询触发执行任务消耗的时间可能会
- Hive优化
肥大毛
大数据hivehadoop数据仓库
文章目录1.CBO优化2.谓词下推3.矢量化查询优化4.Fetch抓取优化5.本地模式6.并行执行7.严格模式1.CBO优化#启用CBO优化sethive.cbo.enable=true;2.谓词下推通俗的来讲就是,在不影响最终结果的情况下,将where条件提前,减少后续数据的量。#开启谓词下推sethive.optimize.pdd=true;3.矢量化查询优化如下图,矢量化计算简单来说就是将每
- 大数据学习(13)-join优化详解
viperrrrrrr
大数据学习
&&大数据学习&&系列专栏:哲学语录:承认自己的无知,乃是开启智慧的大门如果觉得博主的文章还不错的话,请点赞+收藏⭐️+留言支持一下博>主哦MapJoinMapJoin有两种触发方式,一种是用户在SQL语句中增加hint提示,另外一种是Hive优化器根据参与join表的数据量大小,自动触发。1)Hint提示用户可通过如下方式,指定通过mapjoin算法,并且ta将作为mapjoin中的小表。这种方
- hive插入多条数据sql_30分钟入门 Hive SQL(HQL 入门篇)
高中物理宋老师
hive插入多条数据sql
HiveSQL几乎是每一位互联网分析师的必备技能,相信每一位面试过大厂的童鞋都有被面试官问到Hive优化问题的经历。所以掌握扎实的HQL基础尤为重要,既能帮分析师在日常工作中“如鱼得水”提高效率,也能在跳槽时获得一份更好的工作offer。本篇为Hive入门篇,主要为HiveSQL基础语法介绍,文章争取做到言简意赅,让大家30分钟入门HQL。文中视角多处HQL对比关系型数据库SQL,适合有一定SQL
- Hive优化--小文件合并
谨言&慎独
hive大数据hadoop
小文件合并优化,分别是Map端输入的小文件合并和Reduce端输出的小文件合并。Map端输入文件合并合并Map端输入的小文件,是指将多个小文件划分到一个切片中,进而由一个MapTask去处理。目的是防止为单个小文件启动一个MapTask,浪费计算资源--可将多个小文件切片,合并为一个切片,进而由一个map任务处理sethive.input.format=org.apache.hadoop.hive
- 七、Hive数据仓库应用之Hive优化(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)
七层楼的疯子
Hive数据仓库应用数据仓库hivehadoop大数据hdfs
Hive远程模式部署参考:一、Hive数据仓库应用之Hive部署(超详细步骤指导操作,WIN10,VMwareWorkstation15.5PRO,CentOS-6.7)文章目录一、Hive存储优化二、Hive参数优化1、配置MapReduce压缩2、配置Map个数3、配置reduce个数4、配置合并文件5、配置并行执行6、配置本地模式7、配置分组三、HiveQL语句优化技巧一、Hive存储优化H
- BD就业复习第五天
密斯特.张先生
数据仓库
1.核心组件的优化:hive、spark、flink针对Hive、Spark和Flink这三个核心组件,以下是它们的优化和一些常见面试题以及详细的回答:1.Hive优化面试问题1:什么是Hive?为什么需要对Hive进行优化?回答:Hive是一个数据仓库工具,它建立在Hadoop之上,用于分析和查询大规模数据。Hive将SQL查询转化为MapReduce任务,但由于MapReduce的延迟,性能可
- Hive 优化建议与策略
夜夜流光相皎洁_小宁
大数据#Hive#hadoophivehadoop数据仓库大数据
目录编辑一、Hive优化总体思想二、具体优化措施、策略2.1分析问题得手段2.2Hive的抓取策略2.2.1策略设置2.2.2策略对比效果2.3Hive本地模式2.3.1设置开启Hive本地模式2.3.2对比效果2.3.2.1开启前2.3.2.2开启后2.4Hive并行模式2.5Hive严格模式2.5.1严格模式实现2.5.2严格模式下的限制2.5.2.1分区表查询限制2.5.2.1.1举证2.5
- 项目中 枚举与注解的结合使用
飞翔的马甲
javaenumannotation
前言:版本兼容,一直是迭代开发头疼的事,最近新版本加上了支持新题型,如果新创建一份问卷包含了新题型,那旧版本客户端就不支持,如果新创建的问卷不包含新题型,那么新旧客户端都支持。这里面我们通过给问卷类型枚举增加自定义注解的方式完成。顺便巩固下枚举与注解。
一、枚举
1.在创建枚举类的时候,该类已继承java.lang.Enum类,所以自定义枚举类无法继承别的类,但可以实现接口。
- 【Scala十七】Scala核心十一:下划线_的用法
bit1129
scala
下划线_在Scala中广泛应用,_的基本含义是作为占位符使用。_在使用时是出问题非常多的地方,本文将不断完善_的使用场景以及所表达的含义
1. 在高阶函数中使用
scala> val list = List(-3,8,7,9)
list: List[Int] = List(-3, 8, 7, 9)
scala> list.filter(_ > 7)
r
- web缓存基础:术语、http报头和缓存策略
dalan_123
Web
对于很多人来说,去访问某一个站点,若是该站点能够提供智能化的内容缓存来提高用户体验,那么最终该站点的访问者将络绎不绝。缓存或者对之前的请求临时存储,是http协议实现中最核心的内容分发策略之一。分发路径中的组件均可以缓存内容来加速后续的请求,这是受控于对该内容所声明的缓存策略。接下来将讨web内容缓存策略的基本概念,具体包括如如何选择缓存策略以保证互联网范围内的缓存能够正确处理的您的内容,并谈论下
- crontab 问题
周凡杨
linuxcrontabunix
一: 0481-079 Reached a symbol that is not expected.
背景:
*/5 * * * * /usr/IBMIHS/rsync.sh
- 让tomcat支持2级域名共享session
g21121
session
tomcat默认情况下是不支持2级域名共享session的,所有有些情况下登陆后从主域名跳转到子域名会发生链接session不相同的情况,但是只需修改几处配置就可以了。
打开tomcat下conf下context.xml文件
找到Context标签,修改为如下内容
如果你的域名是www.test.com
<Context sessionCookiePath="/path&q
- web报表工具FineReport常用函数的用法总结(数学和三角函数)
老A不折腾
Webfinereport总结
ABS
ABS(number):返回指定数字的绝对值。绝对值是指没有正负符号的数值。
Number:需要求出绝对值的任意实数。
示例:
ABS(-1.5)等于1.5。
ABS(0)等于0。
ABS(2.5)等于2.5。
ACOS
ACOS(number):返回指定数值的反余弦值。反余弦值为一个角度,返回角度以弧度形式表示。
Number:需要返回角
- linux 启动java进程 sh文件
墙头上一根草
linuxshelljar
#!/bin/bash
#初始化服务器的进程PId变量
user_pid=0;
robot_pid=0;
loadlort_pid=0;
gateway_pid=0;
#########
#检查相关服务器是否启动成功
#说明:
#使用JDK自带的JPS命令及grep命令组合,准确查找pid
#jps 加 l 参数,表示显示java的完整包路径
#使用awk,分割出pid
- 我的spring学习笔记5-如何使用ApplicationContext替换BeanFactory
aijuans
Spring 3 系列
如何使用ApplicationContext替换BeanFactory?
package onlyfun.caterpillar.device;
import org.springframework.beans.factory.BeanFactory;
import org.springframework.beans.factory.xml.XmlBeanFactory;
import
- Linux 内存使用方法详细解析
annan211
linux内存Linux内存解析
来源 http://blog.jobbole.com/45748/
我是一名程序员,那么我在这里以一个程序员的角度来讲解Linux内存的使用。
一提到内存管理,我们头脑中闪出的两个概念,就是虚拟内存,与物理内存。这两个概念主要来自于linux内核的支持。
Linux在内存管理上份为两级,一级是线性区,类似于00c73000-00c88000,对应于虚拟内存,它实际上不占用
- 数据库的单表查询常用命令及使用方法(-)
百合不是茶
oracle函数单表查询
创建数据库;
--建表
create table bloguser(username varchar2(20),userage number(10),usersex char(2));
创建bloguser表,里面有三个字段
&nbs
- 多线程基础知识
bijian1013
java多线程threadjava多线程
一.进程和线程
进程就是一个在内存中独立运行的程序,有自己的地址空间。如正在运行的写字板程序就是一个进程。
“多任务”:指操作系统能同时运行多个进程(程序)。如WINDOWS系统可以同时运行写字板程序、画图程序、WORD、Eclipse等。
线程:是进程内部单一的一个顺序控制流。
线程和进程
a. 每个进程都有独立的
- fastjson简单使用实例
bijian1013
fastjson
一.简介
阿里巴巴fastjson是一个Java语言编写的高性能功能完善的JSON库。它采用一种“假定有序快速匹配”的算法,把JSON Parse的性能提升到极致,是目前Java语言中最快的JSON库;包括“序列化”和“反序列化”两部分,它具备如下特征:  
- 【RPC框架Burlap】Spring集成Burlap
bit1129
spring
Burlap和Hessian同属于codehaus的RPC调用框架,但是Burlap已经几年不更新,所以Spring在4.0里已经将Burlap的支持置为Deprecated,所以在选择RPC框架时,不应该考虑Burlap了。
这篇文章还是记录下Burlap的用法吧,主要是复制粘贴了Hessian与Spring集成一文,【RPC框架Hessian四】Hessian与Spring集成
 
- 【Mahout一】基于Mahout 命令参数含义
bit1129
Mahout
1. mahout seqdirectory
$ mahout seqdirectory
--input (-i) input Path to job input directory(原始文本文件).
--output (-o) output The directory pathna
- linux使用flock文件锁解决脚本重复执行问题
ronin47
linux lock 重复执行
linux的crontab命令,可以定时执行操作,最小周期是每分钟执行一次。关于crontab实现每秒执行可参考我之前的文章《linux crontab 实现每秒执行》现在有个问题,如果设定了任务每分钟执行一次,但有可能一分钟内任务并没有执行完成,这时系统会再执行任务。导致两个相同的任务在执行。
例如:
<?
//
test
.php
- java-74-数组中有一个数字出现的次数超过了数组长度的一半,找出这个数字
bylijinnan
java
public class OcuppyMoreThanHalf {
/**
* Q74 数组中有一个数字出现的次数超过了数组长度的一半,找出这个数字
* two solutions:
* 1.O(n)
* see <beauty of coding>--每次删除两个不同的数字,不改变数组的特性
* 2.O(nlogn)
* 排序。中间
- linux 系统相关命令
candiio
linux
系统参数
cat /proc/cpuinfo cpu相关参数
cat /proc/meminfo 内存相关参数
cat /proc/loadavg 负载情况
性能参数
1)top
M:按内存使用排序
P:按CPU占用排序
1:显示各CPU的使用情况
k:kill进程
o:更多排序规则
回车:刷新数据
2)ulimit
ulimit -a:显示本用户的系统限制参
- [经营与资产]保持独立性和稳定性对于软件开发的重要意义
comsci
软件开发
一个软件的架构从诞生到成熟,中间要经过很多次的修正和改造
如果在这个过程中,外界的其它行业的资本不断的介入这种软件架构的升级过程中
那么软件开发者原有的设计思想和开发路线
- 在CentOS5.5上编译OpenJDK6
Cwind
linuxOpenJDK
几番周折终于在自己的CentOS5.5上编译成功了OpenJDK6,将编译过程和遇到的问题作一简要记录,备查。
0. OpenJDK介绍
OpenJDK是Sun(现Oracle)公司发布的基于GPL许可的Java平台的实现。其优点:
1、它的核心代码与同时期Sun(-> Oracle)的产品版基本上是一样的,血统纯正,不用担心性能问题,也基本上没什么兼容性问题;(代码上最主要的差异是
- java乱码问题
dashuaifu
java乱码问题js中文乱码
swfupload上传文件参数值为中文传递到后台接收中文乱码 在js中用setPostParams({"tag" : encodeURI( document.getElementByIdx_x("filetag").value,"utf-8")});
然后在servlet中String t
- cygwin很多命令显示command not found的解决办法
dcj3sjt126com
cygwin
cygwin很多命令显示command not found的解决办法
修改cygwin.BAT文件如下
@echo off
D:
set CYGWIN=tty notitle glob
set PATH=%PATH%;d:\cygwin\bin;d:\cygwin\sbin;d:\cygwin\usr\bin;d:\cygwin\usr\sbin;d:\cygwin\us
- [介绍]从 Yii 1.1 升级
dcj3sjt126com
PHPyii2
2.0 版框架是完全重写的,在 1.1 和 2.0 两个版本之间存在相当多差异。因此从 1.1 版升级并不像小版本间的跨越那么简单,通过本指南你将会了解两个版本间主要的不同之处。
如果你之前没有用过 Yii 1.1,可以跳过本章,直接从"入门篇"开始读起。
请注意,Yii 2.0 引入了很多本章并没有涉及到的新功能。强烈建议你通读整部权威指南来了解所有新特性。这样有可能会发
- Linux SSH免登录配置总结
eksliang
ssh-keygenLinux SSH免登录认证Linux SSH互信
转载请出自出处:http://eksliang.iteye.com/blog/2187265 一、原理
我们使用ssh-keygen在ServerA上生成私钥跟公钥,将生成的公钥拷贝到远程机器ServerB上后,就可以使用ssh命令无需密码登录到另外一台机器ServerB上。
生成公钥与私钥有两种加密方式,第一种是
- 手势滑动销毁Activity
gundumw100
android
老是效仿ios,做android的真悲催!
有需求:需要手势滑动销毁一个Activity
怎么办尼?自己写?
不用~,网上先问一下百度。
结果:
http://blog.csdn.net/xiaanming/article/details/20934541
首先将你需要的Activity继承SwipeBackActivity,它会在你的布局根目录新增一层SwipeBackLay
- JavaScript变换表格边框颜色
ini
JavaScripthtmlWebhtml5css
效果查看:http://hovertree.com/texiao/js/2.htm代码如下,保存到HTML文件也可以查看效果:
<html>
<head>
<meta charset="utf-8">
<title>表格边框变换颜色代码-何问起</title>
</head>
<body&
- Kafka Rest : Confluent
kane_xie
kafkaRESTconfluent
最近拿到一个kafka rest的需求,但kafka暂时还没有提供rest api(应该是有在开发中,毕竟rest这么火),上网搜了一下,找到一个Confluent Platform,本文简单介绍一下安装。
这里插一句,给大家推荐一个九尾搜索,原名叫谷粉SOSO,不想fanqiang谷歌的可以用这个。以前在外企用谷歌用习惯了,出来之后用度娘搜技术问题,那匹配度简直感人。
环境声明:Ubu
- Calender不是单例
men4661273
单例Calender
在我们使用Calender的时候,使用过Calendar.getInstance()来获取一个日期类的对象,这种方式跟单例的获取方式一样,那么它到底是不是单例呢,如果是单例的话,一个对象修改内容之后,另外一个线程中的数据不久乱套了吗?从试验以及源码中可以得出,Calendar不是单例。
测试:
Calendar c1 =
- 线程内存和主内存之间联系
qifeifei
java thread
1, java多线程共享主内存中变量的时候,一共会经过几个阶段,
lock:将主内存中的变量锁定,为一个线程所独占。
unclock:将lock加的锁定解除,此时其它的线程可以有机会访问此变量。
read:将主内存中的变量值读到工作内存当中。
load:将read读取的值保存到工作内存中的变量副本中。
- schedule和scheduleAtFixedRate
tangqi609567707
javatimerschedule
原文地址:http://blog.csdn.net/weidan1121/article/details/527307
import java.util.Timer;import java.util.TimerTask;import java.util.Date;
/** * @author vincent */public class TimerTest {
 
- erlang 部署
wudixiaotie
erlang
1.如果在启动节点的时候报这个错 :
{"init terminating in do_boot",{'cannot load',elf_format,get_files}}
则需要在reltool.config中加入
{app, hipe, [{incl_cond, exclude}]},
2.当generate时,遇到:
ERROR