- HIVE优化场景七--数据倾斜--group by 倾斜
xuanxing123
HIVE优化场景七--数据倾斜:GROUPBY场景下的数据倾斜JOIN场景下的数据倾斜1)由于空值导致的数据倾斜问题2)由于数据类型不一致,导致的转换问题,导致的数据倾斜3)业务数据本身分布不均,导致的数据倾斜,下面4个小场景i.大表与小表JOIN(MapJOIN)ii.大表与大表JOIN,一张表数据分布均匀,另一张表数据特定的KEY(有限几个)分布不均iii.大表与大表JOIN,一张表数据分布均
- HIVE优化场景七--数据倾斜--Join 倾斜
xuanxing123
2)由于数据类型不一致,导致的转换问题,导致的数据倾斜场景说明:用户表中user_id字段为int,log表中user_id为既有string也有int的类型。当按照两个表的user_id进行join操作的时候,默认的hash操作会按照int类型的id进行分配,这样就会导致所有的string类型的id就被分到同一个reducer当中。解决方案:将INT类型id,转换为STRING类型的id.SEL
- 京东面试总结
小小少年Boy
1数据仓库的概念?和数据库的区别?2hdfs上传文件有哪几种方式?3Hive的优化问题?4Hive的数据倾斜问题?5数据分析?概念和总结6Django源码?7python的浅拷贝和深拷贝?总结:HDFS基本命令总结Hive基本命令总结HBase基本命令总结Hive优化问题?HBase优化问题?出现的问题:大数据开发没有理论支撑,应该可以涉及多一点的应用方面;其次引导面试官提问MapReduce;在
- 大数据学习(32)hive优化方法总结
viperrrrrrr
大数据学习hive
&&大数据学习&&系列专栏:哲学语录:承认自己的无知,乃是开启智慧的大门如果觉得博主的文章还不错的话,请点赞+收藏⭐️+留言支持一下博主哦Hive优化主要从以下几个方面考虑:数据倾斜:对于数据倾斜问题,可以尝试进行数据重分布,将倾斜的数据进行重新整理。也可以通过多线程处理和数据分箱等技术进行优化。减少job数:对于大量的小任务,可以尝试进行任务的合并,减少任务的启动次数,从而提高效率。合理设置ma
- 学了这一篇,你对Hive优化会更上一层楼
语兴数据
hivehadoop数据仓库调优
球友提问汪哥问题1:sethive.exec.max.dynamic.partitions=1000;–所有节点的总(默认)限制为1000个动态分区sethive.exec.max.dynamic.partitions.pernode=100;–默认值为每个节点100个动态分区我看某个博客上:sethive.exec.max.dynamic.partitions.pernode=100#表示每个m
- HIVE优化场景三-合理并行控制
xuanxing123
场景三.合理进行并行控制合理的使用并行化参数控制并行化参数有以下几个:开启任务并行执行sethive.exec.parallel=true;允许并行任务的最大线程数sethive.exec.parallel.thread.number=8;这个只是开启并行化建议,具体最终能不能并行,还是依赖于之间有无依赖关系。有依赖关系,既使开启了优化参数也是不行的。如何查看每个阶段间是否有依赖关系,我们可以通过
- Hive 优化总结
Byyyi耀
hivehadoop数据仓库Hive优化
Hive优化本质:HDFS+MapReduce问题原因:倾斜:分区:有的分区没有数据,有的分区数据堆积。(若按天分区,每一天数据差别大就叫倾斜。)groupby:有的分组键在表中数据很多,有的分组键数据很少。小表join大表:小表数据小,大表数据多,造成倾斜。如何识别倾斜?-若表为分区分桶表,以分区字段作为聚合条件聚合,并进行抽样。-若有HDFS的权限,查看分区文件夹的大小是否存在明显差异。过多:
- HIVE优化之map和reduce数量
莱特昂
hivehadoop数据仓库
1、控制hive任务中的map数我们先来了解下什么情况要设置map数量。一般来讲,map数量默认,不需要我们设置,一般情况下,Hive自己就可以知道到底使用多少个map。但是,当我们明确知道表的数据量不大,而Hive运行启动了几千个map的时候,就有必要减小map的数量了。好比1000个西瓜没必要安排100辆车去拉,安排2辆车就可以搞定了。另一方面,当我们发现map数量不多,但map运行速度极慢的
- HIVE优化场景一:去重场景问题
xuanxing123
场景一.去重场景问题1)UNION--UNIONALL之间的区别,如何取舍2)DISTINCT替代方式GROUPBY1)UNION--UNIONALL之间的区别,如何取舍注意SQL中UNIONALL与UNION是不一样的,UNIONALL不会对合并的数据去重UNION会对合并的数据去重例子:EXPLAINSELECTcompany_name,dep_name,user_id,user_nameFR
- hive优化
DIY……
hivehadoop大数据
一、执行计划(Explain)基本语法EXPLAIN[EXTENDED|DEPENDENCY|AUTHORIZATION]querydemo:hive(dyhtest)>explainselect*fromemp;OKExplainSTAGEDEPENDENCIES:Stage-0isarootstageSTAGEPLANS:Stage:Stage-0**FetchOperator**limit:
- HIVE优化场景九--减少IO次数
xuanxing123
场景九.减少IO次数1)通过多表插入FROMAINSERTBSELECTA,....INSERTCSELECTA...2)一次输入,多次使用WITHTABLEAS(....)1)通过多表插入FROMAINSERTBSELECTA,....INSERTCSELECTA...Hive支持多表插入,可以在同一个查询中使用多个insert子句,这样的好处是我们只需要扫描一遍源表就可以生成多个不相交的输出!
- Hive优化总结
July2333
1.小表大表join(MapJOIN):使用mapjoin让小的维度表先进内存,在map端完成joinsethive.auto.convert.join=true;默认为truesethive.mapjoin.smalltable.filesize=25000000;默认25M以下是小表2.大表join大表:(1)空key过滤:一般业务场景不常用(2)空key转换:nvl(n.id,rand())
- Hive优化-SQL调优
ShyGlow
大数据#Hivehive大数据
Hive优化-SQL调优此博客参考了其他博客:hivesqlhttps://www.cnblogs.com/fnlingnzb-learner/p/13087976.html后续还会继续更新和优化优化的根本思想:尽早尽量过滤数据,减少每个阶段的数据量减少job数解决数据倾斜问题尽早尽量过滤数据,减少每个阶段的数据量列裁剪例如某表有a,b,c,d,e五个字段,但是我们只需要a和b,那么请用selec
- 【美团大数据面试】大数据面试题附答案
话数Science
大数据面试大数据面试
目录1.hdfs读写流程解析2.hdfs副本机制,三副本原因,副本存放策略3.hdfs容错机制原理4.MapReduce执行流程详解5.spark和mr的区别6.TopN求法,大数据量无法完全写入内存解决方案,MapReduce实现方法7.spark部署、调度原理8.spark的stage划分方法9.reducejoin执行过程10.大数据量join优化方法11.hive优化手段12.hiveSQ
- Hive优化(十三)-小文件进行合并
bigdata张凯翔
小文件进行合并在Map执行前合并小文件,减少Map数:CombineHiveInputFormat具有对小文件进行合并的功能(系统默认的格式)。HiveInputFormat没有对小文件合并功能。1)参数设置setmapred.max.split.size=112345600;setmapred.min.split.size.per.node=112345600;setmapred.min.spl
- 技本功|Hive优化之监控(三)
云掣YUNCHE
技术文档数据库运维hive大数据mysql
Hive是大数据领域常用的组件之一,主要是大数据离线数仓的运算,关于Hive的性能调优在日常工作和面试中是经常涉及的一个点,因此掌握一些Hive调优是必不可少的技能。影响Hive效率的主要有数据倾斜、数据冗余、job的IO以及不同底层引擎配置情况和Hive本身参数和HiveSQL的执行等因素。本文主要是从监控运维的角度对Hive进行整体性能把控,通过对hive元数据监控,提前发现Hive表的不合理
- 技本功|Hive优化之Spark执行引擎参数调优(二)
云掣YUNCHE
技术文档sparkhive
Hive是大数据领域常用的组件之一,主要是大数据离线数仓的运算,关于Hive的性能调优在日常工作和面试中是经常涉及的的一个点,因此掌握一些Hive调优是必不可少的一项技能。影响Hive效率的主要有数据倾斜、数据冗余、job的IO以及不同底层引擎配置情况和Hive本身参数和HiveSQL的执行等因素。本文主要结合实际业务情况,在使用Spark作为底层引擎时,通过一些常见的配置参数对报错任务进行调整优
- Hive优化
新鲜氧气
大数据#hive#hadoophivehadoop数据仓库
Hive优化Hive的存储层依托于HDFS,Hive的计算层依托于MapReduce,一般Hive的执行效率主要取决于SQL语句的执行效率,因此,Hive的优化的核心思想是MapReduce的优化。1、查看Hive执行计划(小白慎用)Hive的SQL语句在执行之前需要将SQL语句转换成MapReduce任务,因此需要了解具体的转换过程,可以在SQL语句中输入如下命令查看具体的执行计划。--查看执行
- HIVE优化场景八-数据裁剪问题
xuanxing123
场景八_数据裁剪问题1)记录数裁剪i.通过分区,分桶表的优势去构建分桶表的构建过程与使用:https://blog.csdn.net/qq_26803795/article/details/105205702分区表与分桶表本身就是一个一个优化策略。分区表更适用可以合理方式进行数据组织的列,比如每天的log日志,由于每天的数据都差不多,可以按分区进行组织!!分桶表适用于无法形成合理分区的场景,并且可
- Hive优化
耗子背刀PK猫
hive数据仓库
一、问题背景Hive离线数仓开发,一个良好的数据任务,它的运行时长一般是在合理范围内的,当发现报表应用层的指标数据总是产出延迟,排查定位发现是有些任务执行了超10小时这样肯定是不合理的,此时就该想想如何优化ETL任务链路,主要从以下几个角度来考虑问题解决:1、从数据任务本身Hive逻辑代码出发,即Hive逻辑优化,偏理解业务角度。2、从集群的资源设置出发,即Hive参数调优,偏理解技术角度。3、从
- HIVE优化场景二--减少job数量
xuanxing123
场景二.减少JOB的数量1)巧妙的使用UNIONALL减少JOB数量2)利用多表相同的JOIN关联条件字段,去减少JOB的数量1)巧妙的使用UNIONALL减少JOB数量假如如下的场景,我们需要统计每多张表的数据量。首先我们可以编写多条SQL进行统计,这样的效率不高。(没意义)或者我们采用UNIONALL的形式把多个结果合并起来,但是这样效率也比较低如:SELECT'a'AStype,COUNT(
- 大数据开发之Hive优化篇6-Hive on spark
只是甲
大数据和数据仓库#Hivehiveonsparkhadoophivespark
备注:Hive版本2.1.1一.HiveonSpark介绍Hive是基于Hadoop平台的数据仓库,最初由Facebook开发,在经过多年发展之后,已经成为Hadoop事实上的SQL引擎标准。相较于其他诸如Impala、Shark(SparkSQL的前身)等引擎而言,Hive拥有更为广泛的用户基础以及对SQL语法更全面的支持。Hive最初的计算引擎为MapReduce,受限于其自身的Map+Red
- 07-Hive优化---高级部分3
YuPangZa
大数据hivehadoop数据仓库
一、Hive优化大数据的学习:1、学习工具及其原理(50%~70%)2、学习重要的(java、scala、python、sql[mysql\hivesql\sparksql\flinksql])(30%~40%)1、开启本地模式大多数的HadoopJob是需要Hadoop提供的完整的可扩展性来处理大数据集的。不过,有时Hive的输入数据量是非常小的。在这种情况下,为查询触发执行任务消耗的时间可能会
- Hive优化
肥大毛
大数据hivehadoop数据仓库
文章目录1.CBO优化2.谓词下推3.矢量化查询优化4.Fetch抓取优化5.本地模式6.并行执行7.严格模式1.CBO优化#启用CBO优化sethive.cbo.enable=true;2.谓词下推通俗的来讲就是,在不影响最终结果的情况下,将where条件提前,减少后续数据的量。#开启谓词下推sethive.optimize.pdd=true;3.矢量化查询优化如下图,矢量化计算简单来说就是将每
- 大数据学习(13)-join优化详解
viperrrrrrr
大数据学习
&&大数据学习&&系列专栏:哲学语录:承认自己的无知,乃是开启智慧的大门如果觉得博主的文章还不错的话,请点赞+收藏⭐️+留言支持一下博>主哦MapJoinMapJoin有两种触发方式,一种是用户在SQL语句中增加hint提示,另外一种是Hive优化器根据参与join表的数据量大小,自动触发。1)Hint提示用户可通过如下方式,指定通过mapjoin算法,并且ta将作为mapjoin中的小表。这种方
- hive插入多条数据sql_30分钟入门 Hive SQL(HQL 入门篇)
高中物理宋老师
hive插入多条数据sql
HiveSQL几乎是每一位互联网分析师的必备技能,相信每一位面试过大厂的童鞋都有被面试官问到Hive优化问题的经历。所以掌握扎实的HQL基础尤为重要,既能帮分析师在日常工作中“如鱼得水”提高效率,也能在跳槽时获得一份更好的工作offer。本篇为Hive入门篇,主要为HiveSQL基础语法介绍,文章争取做到言简意赅,让大家30分钟入门HQL。文中视角多处HQL对比关系型数据库SQL,适合有一定SQL
- Hive优化--小文件合并
谨言&慎独
hive大数据hadoop
小文件合并优化,分别是Map端输入的小文件合并和Reduce端输出的小文件合并。Map端输入文件合并合并Map端输入的小文件,是指将多个小文件划分到一个切片中,进而由一个MapTask去处理。目的是防止为单个小文件启动一个MapTask,浪费计算资源--可将多个小文件切片,合并为一个切片,进而由一个map任务处理sethive.input.format=org.apache.hadoop.hive
- 七、Hive数据仓库应用之Hive优化(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)
七层楼的疯子
Hive数据仓库应用数据仓库hivehadoop大数据hdfs
Hive远程模式部署参考:一、Hive数据仓库应用之Hive部署(超详细步骤指导操作,WIN10,VMwareWorkstation15.5PRO,CentOS-6.7)文章目录一、Hive存储优化二、Hive参数优化1、配置MapReduce压缩2、配置Map个数3、配置reduce个数4、配置合并文件5、配置并行执行6、配置本地模式7、配置分组三、HiveQL语句优化技巧一、Hive存储优化H
- BD就业复习第五天
密斯特.张先生
数据仓库
1.核心组件的优化:hive、spark、flink针对Hive、Spark和Flink这三个核心组件,以下是它们的优化和一些常见面试题以及详细的回答:1.Hive优化面试问题1:什么是Hive?为什么需要对Hive进行优化?回答:Hive是一个数据仓库工具,它建立在Hadoop之上,用于分析和查询大规模数据。Hive将SQL查询转化为MapReduce任务,但由于MapReduce的延迟,性能可
- Hive 优化建议与策略
夜夜流光相皎洁_小宁
大数据#Hive#hadoophivehadoop数据仓库大数据
目录编辑一、Hive优化总体思想二、具体优化措施、策略2.1分析问题得手段2.2Hive的抓取策略2.2.1策略设置2.2.2策略对比效果2.3Hive本地模式2.3.1设置开启Hive本地模式2.3.2对比效果2.3.2.1开启前2.3.2.2开启后2.4Hive并行模式2.5Hive严格模式2.5.1严格模式实现2.5.2严格模式下的限制2.5.2.1分区表查询限制2.5.2.1.1举证2.5
- PHP如何实现二维数组排序?
IT独行者
二维数组PHP排序
二维数组在PHP开发中经常遇到,但是他的排序就不如一维数组那样用内置函数来的方便了,(一维数组排序可以参考本站另一篇文章【PHP中数组排序函数详解汇总】)。二维数组的排序需要我们自己写函数处理了,这里UncleToo给大家分享一个PHP二维数组排序的函数:
代码:
functionarray_sort($arr,$keys,$type='asc'){
$keysvalue= $new_arr
- 【Hadoop十七】HDFS HA配置
bit1129
hadoop
基于Zookeeper的HDFS HA配置主要涉及两个文件,core-site和hdfs-site.xml。
测试环境有三台
hadoop.master
hadoop.slave1
hadoop.slave2
hadoop.master包含的组件NameNode, JournalNode, Zookeeper,DFSZKFailoverController
- 由wsdl生成的java vo类不适合做普通java vo
darrenzhu
VOwsdlwebservicerpc
开发java webservice项目时,如果我们通过SOAP协议来输入输出,我们会利用工具从wsdl文件生成webservice的client端类,但是这里面生成的java data model类却不适合做为项目中的普通java vo类来使用,当然有一中情况例外,如果这个自动生成的类里面的properties都是基本数据类型,就没问题,但是如果有集合类,就不行。原因如下:
1)使用了集合如Li
- JAVA海量数据处理之二(BitMap)
周凡杨
java算法bitmapbitset数据
路漫漫其修远兮,吾将上下而求索。想要更快,就要深入挖掘 JAVA 基础的数据结构,从来分析出所编写的 JAVA 代码为什么把内存耗尽,思考有什么办法可以节省内存呢? 啊哈!算法。这里采用了 BitMap 思想。
首先来看一个实验:
指定 VM 参数大小: -Xms256m -Xmx540m
- java类型与数据库类型
g21121
java
很多时候我们用hibernate的时候往往并不是十分关心数据库类型和java类型的对应关心,因为大多数hbm文件是自动生成的,但有些时候诸如:数据库设计、没有生成工具、使用原始JDBC、使用mybatis(ibatIS)等等情况,就会手动的去对应数据库与java的数据类型关心,当然比较简单的数据类型即使配置错了也会很快发现问题,但有些数据类型却并不是十分常见,这就给程序员带来了很多麻烦。
&nb
- Linux命令
510888780
linux命令
系统信息
arch 显示机器的处理器架构(1)
uname -m 显示机器的处理器架构(2)
uname -r 显示正在使用的内核版本
dmidecode -q 显示硬件系统部件 - (SMBIOS / DMI)
hdparm -i /dev/hda 罗列一个磁盘的架构特性
hdparm -tT /dev/sda 在磁盘上执行测试性读取操作
cat /proc/cpuinfo 显示C
- java常用JVM参数
墙头上一根草
javajvm参数
-Xms:初始堆大小,默认为物理内存的1/64(<1GB);默认(MinHeapFreeRatio参数可以调整)空余堆内存小于40%时,JVM就会增大堆直到-Xmx的最大限制
-Xmx:最大堆大小,默认(MaxHeapFreeRatio参数可以调整)空余堆内存大于70%时,JVM会减少堆直到 -Xms的最小限制
-Xmn:新生代的内存空间大小,注意:此处的大小是(eden+ 2
- 我的spring学习笔记9-Spring使用工厂方法实例化Bean的注意点
aijuans
Spring 3
方法一:
<bean id="musicBox" class="onlyfun.caterpillar.factory.MusicBoxFactory"
factory-method="createMusicBoxStatic"></bean>
方法二:
- mysql查询性能优化之二
annan211
UNIONmysql查询优化索引优化
1 union的限制
有时mysql无法将限制条件从外层下推到内层,这使得原本能够限制部分返回结果的条件无法应用到内层
查询的优化上。
如果希望union的各个子句能够根据limit只取部分结果集,或者希望能够先排好序在
合并结果集的话,就需要在union的各个子句中分别使用这些子句。
例如 想将两个子查询结果联合起来,然后再取前20条记录,那么mys
- 数据的备份与恢复
百合不是茶
oraclesql数据恢复数据备份
数据的备份与恢复的方式有: 表,方案 ,数据库;
数据的备份:
导出到的常见命令;
参数 说明
USERID 确定执行导出实用程序的用户名和口令
BUFFER 确定导出数据时所使用的缓冲区大小,其大小用字节表示
FILE 指定导出的二进制文
- 线程组
bijian1013
java多线程threadjava多线程线程组
有些程序包含了相当数量的线程。这时,如果按照线程的功能将他们分成不同的类别将很有用。
线程组可以用来同时对一组线程进行操作。
创建线程组:ThreadGroup g = new ThreadGroup(groupName);
&nbs
- top命令找到占用CPU最高的java线程
bijian1013
javalinuxtop
上次分析系统中占用CPU高的问题,得到一些使用Java自身调试工具的经验,与大家分享。 (1)使用top命令找出占用cpu最高的JAVA进程PID:28174 (2)如下命令找出占用cpu最高的线程
top -Hp 28174 -d 1 -n 1
32694 root 20 0 3249m 2.0g 11m S 2 6.4 3:31.12 java
- 【持久化框架MyBatis3四】MyBatis3一对一关联查询
bit1129
Mybatis3
当两个实体具有1对1的对应关系时,可以使用One-To-One的进行映射关联查询
One-To-One示例数据
以学生表Student和地址信息表为例,每个学生都有都有1个唯一的地址(现实中,这种对应关系是不合适的,因为人和地址是多对一的关系),这里只是演示目的
学生表
CREATE TABLE STUDENTS
(
- C/C++图片或文件的读写
bitcarter
写图片
先看代码:
/*strTmpResult是文件或图片字符串
* filePath文件需要写入的地址或路径
*/
int writeFile(std::string &strTmpResult,std::string &filePath)
{
int i,len = strTmpResult.length();
unsigned cha
- nginx自定义指定加载配置
ronin47
进入 /usr/local/nginx/conf/include 目录,创建 nginx.node.conf 文件,在里面输入如下代码:
upstream nodejs {
server 127.0.0.1:3000;
#server 127.0.0.1:3001;
keepalive 64;
}
server {
liste
- java-71-数值的整数次方.实现函数double Power(double base, int exponent),求base的exponent次方
bylijinnan
double
public class Power {
/**
*Q71-数值的整数次方
*实现函数double Power(double base, int exponent),求base的exponent次方。不需要考虑溢出。
*/
private static boolean InvalidInput=false;
public static void main(
- Android四大组件的理解
Cb123456
android四大组件的理解
分享一下,今天在Android开发文档-开发者指南中看到的:
App components are the essential building blocks of an Android
- [宇宙与计算]涡旋场计算与拓扑分析
comsci
计算
怎么阐述我这个理论呢? 。。。。。。。。。
首先: 宇宙是一个非线性的拓扑结构与涡旋轨道时空的统一体。。。。
我们要在宇宙中寻找到一个适合人类居住的行星,时间非常重要,早一个刻度和晚一个刻度,这颗行星的
- 同一个Tomcat不同Web应用之间共享会话Session
cwqcwqmax9
session
实现两个WEB之间通过session 共享数据
查看tomcat 关于 HTTP Connector 中有个emptySessionPath 其解释如下:
If set to true, all paths for session cookies will be set to /. This can be useful for portlet specification impleme
- springmvc Spring3 MVC,ajax,乱码
dashuaifu
springjquerymvcAjax
springmvc Spring3 MVC @ResponseBody返回,jquery ajax调用中文乱码问题解决
Spring3.0 MVC @ResponseBody 的作用是把返回值直接写到HTTP response body里。具体实现AnnotationMethodHandlerAdapter类handleResponseBody方法,具体实
- 搭建WAMP环境
dcj3sjt126com
wamp
这里先解释一下WAMP是什么意思。W:windows,A:Apache,M:MYSQL,P:PHP。也就是说本文说明的是在windows系统下搭建以apache做服务器、MYSQL为数据库的PHP开发环境。
工欲善其事,必须先利其器。因为笔者的系统是WinXP,所以下文指的系统均为此系统。笔者所使用的Apache版本为apache_2.2.11-
- yii2 使用raw http request
dcj3sjt126com
http
Parses a raw HTTP request using yii\helpers\Json::decode()
To enable parsing for JSON requests you can configure yii\web\Request::$parsers using this class:
'request' =&g
- Quartz-1.8.6 理论部分
eksliang
quartz
转载请出自出处:http://eksliang.iteye.com/blog/2207691 一.概述
基于Quartz-1.8.6进行学习,因为Quartz2.0以后的API发生的非常大的变化,统一采用了build模式进行构建;
什么是quartz?
答:简单的说他是一个开源的java作业调度框架,为在 Java 应用程序中进行作业调度提供了简单却强大的机制。并且还能和Sp
- 什么是POJO?
gupeng_ie
javaPOJO框架Hibernate
POJO--Plain Old Java Objects(简单的java对象)
POJO是一个简单的、正规Java对象,它不包含业务逻辑处理或持久化逻辑等,也不是JavaBean、EntityBean等,不具有任何特殊角色和不继承或不实现任何其它Java框架的类或接口。
POJO对象有时也被称为Data对象,大量应用于表现现实中的对象。如果项目中使用了Hiber
- jQuery网站顶部定时折叠广告
ini
JavaScripthtmljqueryWebcss
效果体验:http://hovertree.com/texiao/jquery/4.htmHTML文件代码:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title>网页顶部定时收起广告jQuery特效 - HoverTree<
- Spring boot内嵌的tomcat启动失败
kane_xie
spring boot
根据这篇guide创建了一个简单的spring boot应用,能运行且成功的访问。但移植到现有项目(基于hbase)中的时候,却报出以下错误:
SEVERE: A child container failed during start
java.util.concurrent.ExecutionException: org.apache.catalina.Lif
- leetcode: sort list
michelle_0916
Algorithmlinked listsort
Sort a linked list in O(n log n) time using constant space complexity.
====analysis=======
mergeSort for singly-linked list
====code======= /**
* Definition for sin
- nginx的安装与配置,中途遇到问题的解决
qifeifei
nginx
我使用的是ubuntu13.04系统,在安装nginx的时候遇到如下几个问题,然后找思路解决的,nginx 的下载与安装
wget http://nginx.org/download/nginx-1.0.11.tar.gz
tar zxvf nginx-1.0.11.tar.gz
./configure
make
make install
安装的时候出现
- 用枚举来处理java自定义异常
tcrct
javaenumexception
在系统开发过程中,总少不免要自己处理一些异常信息,然后将异常信息变成友好的提示返回到客户端的这样一个过程,之前都是new一个自定义的异常,当然这个所谓的自定义异常也是继承RuntimeException的,但这样往往会造成异常信息说明不一致的情况,所以就想到了用枚举来解决的办法。
1,先创建一个接口,里面有两个方法,一个是getCode, 一个是getMessage
public
- erlang supervisor分析
wudixiaotie
erlang
当我们给supervisor指定需要创建的子进程的时候,会指定M,F,A,如果是simple_one_for_one的策略的话,启动子进程的方式是supervisor:start_child(SupName, OtherArgs),这种方式可以根据调用者的需求传不同的参数给需要启动的子进程的方法。和最初的参数合并成一个数组,A ++ OtherArgs。那么这个时候就有个问题了,既然参数不一致,那