- HIVE
Yagami_
--------hive数据仓库hive底层执行引擎有MapReduceTezSpark压缩GZIPLZOSnappyBZIP2等存储TextFileSequenceFileRCFileORCParquetUDF自定义函数环境搭建1)hive下载http://archive.clordera.com/cdh5/cdh/5/wgethttp://archive.cloudera.com/cdh5/c
- CentOS7 编译C++遇到/usr/bin/ld: cannot find -l***
zxfBdd
Linux
centos7编译C++遇到如下问题:/usr/bin/ld:cannotfind-ltcmalloc/usr/bin/ld:cannotfind-lz/usr/bin/ld:cannotfind-lsnappy/usr/bin/ld:cannotfind-lbz2等问题:这是因为编译器找不到相应的库解决方案:1.安装了,但是未指定链接库的路径。如查找snappy库,查看在/usr/lib中有无对
- 记 doris 加载压缩文件(lzo、snappy)pr
howard_shooter
Doris信息技术笔记压缩
做了一个case,是doris支持加载lzo压缩文件。[improvement](load)Enablelzo&RemovedependencyonMarkusF.X.J.Oberhumer'slzolibrarybyHowardQin·PullRequest#30573·apache/doris(github.com)其实doris里已经支持了lzo,这个case源自一个issue,[Enhan
- Hive调优
我走之後
hivehadoop数据仓库
改硬件.(CPU,磁盘,内存)开启或者增大某些设置(配置).负载均衡,严格模式(禁用低效SQL),动态分区数...关闭或者减小某些设置(配置).严格模式(动态分区),推测执行...减少IO传输.Input(输入)/Output(输出),列存储orc,压缩协议snappy,join优化Hive调优--参数概述:hive的参数配置,就是在那里配置hive的参数信息,根据配置地方不同,作用范围也不一样.
- Impala实践:解析glog打印的 C++ 报错堆栈
stiga-huang
Impalac++impala
Impala实践:解析glog打印的C++报错堆栈Impala使用glog生成日志。生产环境用的都是releasebuild,glog产生的报错堆栈里没有函数名,很难像Java报错堆栈那样方便定位问题。下面是Impalad日志中的一个报错:I052209:07:16.00205620222status.cc:128]Snappy:RawUncompressfailed@0xae26c9@0x107
- pika 安装问题
面向未来的历史
linuxpikaredis
一般按照官网安装pika是没什么问题。但是在有些使用环境不全的的服务器上。就会要求手动安装一些软件。同时,其依赖的环境也可能需要更新,这样就导致安装pika并不是那么顺利。此时单纯的只是将在其他机器上编译好的pika,复制过来用,也不一定能成功,所以还是需要按照要求配置环境。问题1openkvdbfailed,Invalidargument:CompressiontypeSnappyisnotli
- GBase 8a 数据迁移工具2---数据加载 “SQL 接口 LOAD DATA INFILE”
Linux有意思吗
GBASEsql数据库database数据仓库dba
GBase8aMPPCluster根据不同场景需求提供多种便于用户操作的数据迁移工具。功能简介GBase8aMPPCluster提供了面向用户的SQL接口加载方式。支持如下功能:支持本地文件加载支持从通用数据服务器拉取数据加载;支持FTP/HTTP/HDFS/SFTP等多种协议;支持多加载机对单表的并行加载,最大化加载性能;支持普通文本、gzip压缩、snappy压缩、lzo压缩等多种格式数据文件
- 八.压缩和存储
临时_01e2
8.1Hadoop源码编译支持Snappy压缩(了解)8.1.1资源准备1)CentOS联网配置CentOS能连接外网。Linux虚拟机pingwww.baidu.com是畅通的注意:采用root角色编译,减少文件夹权限出现问题2)jar包准备(hadoop源码、JDK8、maven、protobuf)(1)hadoop-2.8.4-src.tar.gz(2)jdk-8u144-linux-x64
- GBase 8a MPP分析型数据库集群并行加载
kaixin.1
数据库hdfsdatabasehadoop
GBase8aMPPCluster中,集群加载功能直接集成在GBase8aMPPCluster内部,提供了面向用户的SQL接口,集群和单机加载方式统一,支持如下功能:支持从通用数据服务器拉取数据,支持ftp/http/hdfs/sftp等多种协议;支持多加载机对单表的并行加载,最大化加载性能;支持普通文本、gzip压缩、snappy压缩、lzo压缩等多种格式数据文件;支持普通文本与定长文本的
- Ubuntu 16.04 + caffe环境搭建(CPU)
默写年华Antifragile
1.安装依赖sudoapt-getinstalllibprotobuf-devlibleveldb-devlibsnappy-devlibopencv-devlibhdf5-serial-devprotobuf-compilersudoapt-getinstall--no-install-recommendslibboost-all-devsudoapt-getinstalllibgflags-d
- HBase选择压缩算法Block Encoding Type
codeforces
HBaseHBase
如何选择压缩算法以及BlockEncodingType?如果Key很长,或者有很多Column,那么推荐使用FAST_DIFF如果数据是冷数据,不经常被访问,那么使用GZIP压缩格式.因为虽然它比Snappy/LZO需要占用更多而CPU,但是它的压缩比率更高,更节省磁盘.如果是热点数据,那么使用Snappy/LZO压缩格式.它们相比GZIP,占用的CPU更少.在大多数情况下,Snappy/LZO的
- Kafka系列之:kafka.errors.UnsupportedCodecError: UnsupportedCodecError: Libraries for snappy compression
最笨的羊羊
KafkaKafka系列snappycompression
Kafka系列之:kafka.errors.UnsupportedCodecError:UnsupportedCodecError:Librariesforsnappycompression一、完整错误二、错误原因三、解决方法一、完整错误kafka.errors.UnsupportedCodecError:UnsupportedCodecError:Librariesforsnappycompre
- Hive 在工作中的调优总结
fx67ll
大数据开发文档hive大数据hadoop
总结了一下在以往工作中,对于HiveSQL调优的一些实际应用,是日常积累的一些优化技巧,如有出入,欢迎在评论区留言探讨~一、EXPLAIN查看执行计划二、建表优化2.1分区分区表基本操作,partitioned二级分区动态分区2.2分桶分桶表基本操作,clustered分桶表主要是抽样查询,找出具有代表性的结果2.3选择合适的文件格式和压缩格式LZO,拉兹罗Snappy压缩速度快,压缩比高三、Hi
- 电商数仓项目----笔记七(数仓DIM层)
zmx_messi
笔记
所谓的维度层其实就是分析数据的角度,维度层保存的表其实是分析数据的角度,比如:--性别,年龄,品牌,品类这层的表主要用于统计分析,因此DIM层的数据存储格式为orc列式存储+snappy压缩(时间短)orc列式存储的好处:查询的时候不需要扫描全部的数据,而只需要读取每次查询涉及的列,这样可以将I/O消耗降低N倍,另外可以保存每一列的统计信息(min、max、sum等),实现部分的谓词下推。由于每一
- Hive 存储与压缩
月亮给我抄代码
Hive杂谈hivehadoop大数据
文章目录存储格式行存储与列存储存储格式解析TextFile格式ORC格式Parquet格式存储效率对比TextFile格式ORC格式(推荐)Parquet格式对比压缩ORC——ZLIB压缩ORC——SNAPPY压缩Parquet——GZIP压缩Parquet——SNAPPY压缩总结本文中用到的数据源下载:log.data存储格式Hive支持多种存储格式,常用的有三种:TEXTFILE、ORC、PA
- Hive存储格式和压缩算法
Kazi_1024
Hivehive
Hive存储格式和压缩算法在实际的项目开发当中,hive表的存储格式一般选择:ORC或PARQUET,压缩算法一般选择Zlib和SNAPPY存储格式分类逻辑表中的数据,最终需要落到磁盘上,以文件的形式存储,有两种常见的存储形式:行式存储和列式存储行式存储优点:1、相关的数据保存在一起,比较符合面向对象的思维,因为一行数据就是一条记录2、方便进行insert或update操作缺点:1、如果仅需要查询
- Hive压缩、存储与优化
zeroLinked
博学谷学习记录hivehadoop大数据
1、Hive压缩概述:Hive的压缩是MR的压缩,分为Map端结果文件压缩和Reduce端结果文件压缩压缩性能比较压缩算法原始文件大小压缩文件大小压缩速度解压速度gzip8.3GB1.8GB17.5MB/s58MB/sbzip28.3GB1.1GB2.4MB/s9.5MB/sLZO8.3GB2.9GB49.3MB/s74.6MB/sSnappy8.3GB3G250MB/S500MB/s按照Hive
- hive数据存储与压缩
Anla Likes Sunshine
hive
存储文件压缩比总结:ORC>Parquet>textFile存储文件的查询速度总结:(selectcount(*))ORC>TextFile>Parquet存储方式和压缩总结:在实际的项目开发当中,hive表的数据存储格式一般选择:orc或parquet。压缩方式一般选择snappy。1.hive创建表:createtablelog_text(track_timestring,urlstring,
- Hive文件存储与压缩
新鲜氧气
大数据#hive#hadoophivehadoop数据仓库
压缩和存储1、Hadoop压缩配置1)MR支持的压缩编码压缩格式工具算法文件扩展名是否可切分DEFAULT无DEFAULT.deflate否GzipgzipDEFAULT.gz否bzip2bzip2bzip2.bz2是LZOlzopLZO.lzo否LZ4无LZ4.lz4否Snappy无Snappy.snappy否为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器,如下表所示压缩格式对应的
- 【Kafka每日一问】kafka三种压缩方式差别?
jianjun_fei
Kafka每日一问kafka分布式
Kafka提供了三种压缩算法,分别是GZIP、Snappy和LZ4。这三种压缩算法的差异主要在以下方面:压缩比:GZIP压缩比最高,DEFLATE算法,但压缩和解压缩速度相对较慢;Snappy压缩比次之,但压缩和解压缩速度非常快;LZ4压缩比最低,但压缩和解压缩速度最快。压缩速度:GZIP压缩和解压缩速度相对较慢;Snappy和LZ4压缩和解压缩速度都非常快。压缩效率:GZIP压缩效率最高,但需要
- 2019-12-13 Hadoop中压缩方式对比
开心的小猫咪
原文:https://www.jianshu.com/p/c8c97a9462ff1、压缩Compression压缩有两大好处:可以减少文件存储所需要的磁盘空间,其次是可以加快数据在网络和磁盘上的传输压缩的缺点:CUP消耗大Hadoop中常见的压缩方式有:GZIP、BZIP2、LZO(LZF/LZ4)、Snappy工作中如何选择压缩方式需要考虑的因素有2个:压缩比(压缩前后百分比)、压缩/解压的速
- Hadoop学习(二)自己编译Hadoop安装包
匿名啊啊啊
HDFS
CentOS-6.7编译hadoop-2.6.5(只需输入命令即可)目录1、阅读编译文档2、准备编译环境3、安装gcc4、安装gcc-c++5、安装make6、安装maven(必须)7、安装jdk(必须)8、安装ant(重要)9、安装findbugs(可选,最好装)10、安装cmake(重要)11、安装protobuf(重要)12、安装Snappy13、编译hadoop1、阅读编译文档(1)准备一
- pandas parquet文件读取pyarrow、feather文件保存与读取;requests 或wget下载图片文件
loong_XL
知识点python爬虫
**pandas读取文件填写绝对路径,相对路径可能出错读不了安装fastparquet库,需要安装python-snappy,一直安装错误,所以使用了pyarrowpipinstallpyarrow参考:https://arrow.apache.org/docs/python/importglobimportpandasaspdimportpyarrow.parquetaspqaaaaa=glob
- caffe+ubuntu18.04+cuda10.2编译配置
s1037222866
caffe人工智能深度学习
安装相应依赖apt-getinstalllibprotobuf-devlibleveldb-devlibsnappy-devlibopencv-devlibhdf5-serial-devprotobuf-compilerapt-getinstall--no-install-recommendslibboost-all-devapt-getinstallpython-devapt-getinstal
- HBase本地安装Snappy
AlstonWilliams
笔者最近要调试一个线上的HBasebug,所以需要做到本地配置等跟线上完全一样。其它的都还好说,但是到了Snappy这儿却碰了一鼻子灰。所以,在这篇文章,我会介绍如何在本地,安装Snappy,并配置HBase使用它。环境HBasecdh5-1.2.0_5.12.1环境特别重要。它直接关系到需要使用的Snappy以及Hadoop的版本。如果版本对不上,很可能出现链接本地动态链接库时的错误。操作操作其
- RN环境搭建中的问题
Jump_Monkey
androidios
==>Installingdependenciesforffmpeg:nasm,pkg-config,gettext,texi2html,lame,libogg,libvorbis,libvpx,opus,sdl2,snappy,theora,x264,x265,xvidandxz==>Installingffmpegdependency:nasm==>Downloadinghttps://hom
- 2023.11.17 -hivesql调优,数据压缩,数据存储
白白的wj
hivehadoop数据仓库sql大数据数据库database
目录1.hive命令和参数配置2.hive数据压缩3.hive数据存储0.原文件大小18.1MB1.textfile行存储格式,压缩后size:18MB2.行存储格式:squencefile,压缩后大小8.89MB3.列存储格式orc-ZILIB,压缩后大小2.78MB4.列存储格式orc-snappy,压缩后大小3.75MB5.列存储格式之parquets,压缩后大小13.09MB4.在linu
- java kafka producer_详解Kafka生产者Producer配置
邵云卿
javakafkaproducer
基本配置metadata.broker.list:broker服务器集群列表,格式为host1:port1,host2:port2...producer.type:消息发送类型同步还是异步,默认为同步compression.codec:消息的压缩格式,默认为none不压缩,也可以为gzip,snappy,lz4serializer.class:消息加密格式,默认为kafka.serializer.
- 2. Spark报错,Task is Failed,errorMsg: FileNotFoundException xxxx
helloooi
#Sparkspark大数据分布式
完整报错信息21304,TaskisFailed,errorMsg:FileNotFoundException:Filedoesnotexist:hdfs://xxxx-bigdata-nameservice/user/hive/warehouse/edw_ic.db/xxxx/part-00000-c8a718b3-54b3-42de-b36c-d6eedefd2e02-c000.snappy.
- 压缩在hive中的使用
Deng_huakai
大数据hivesqoop文件压缩snappyhivesqooplzolzop
用sqoop将数据从MySQL中以snappy压缩格式导入至hive中hive(default)>createtableproduct_info_snappyasselect*fromproduct_infowhere1=2;(在hive中创建一张表,结构与product_info相同。这张表在MySQL的ruozedata5数据库下面。)[hadoop@hadoop001~]$sqoopimpo
- jvm调优总结(从基本概念 到 深度优化)
oloz
javajvmjdk虚拟机应用服务器
JVM参数详解:http://www.cnblogs.com/redcreen/archive/2011/05/04/2037057.html
Java虚拟机中,数据类型可以分为两类:基本类型和引用类型。基本类型的变量保存原始值,即:他代表的值就是数值本身;而引用类型的变量保存引用值。“引用值”代表了某个对象的引用,而不是对象本身,对象本身存放在这个引用值所表示的地址的位置。
- 【Scala十六】Scala核心十:柯里化函数
bit1129
scala
本篇文章重点说明什么是函数柯里化,这个语法现象的背后动机是什么,有什么样的应用场景,以及与部分应用函数(Partial Applied Function)之间的联系 1. 什么是柯里化函数
A way to write functions with multiple parameter lists. For instance
def f(x: Int)(y: Int) is a
- HashMap
dalan_123
java
HashMap在java中对很多人来说都是熟的;基于hash表的map接口的非同步实现。允许使用null和null键;同时不能保证元素的顺序;也就是从来都不保证其中的元素的顺序恒久不变。
1、数据结构
在java中,最基本的数据结构无外乎:数组 和 引用(指针),所有的数据结构都可以用这两个来构造,HashMap也不例外,归根到底HashMap就是一个链表散列的数据
- Java Swing如何实时刷新JTextArea,以显示刚才加append的内容
周凡杨
java更新swingJTextArea
在代码中执行完textArea.append("message")后,如果你想让这个更新立刻显示在界面上而不是等swing的主线程返回后刷新,我们一般会在该语句后调用textArea.invalidate()和textArea.repaint()。
问题是这个方法并不能有任何效果,textArea的内容没有任何变化,这或许是swing的一个bug,有一个笨拙的办法可以实现
- servlet或struts的Action处理ajax请求
g21121
servlet
其实处理ajax的请求非常简单,直接看代码就行了:
//如果用的是struts
//HttpServletResponse response = ServletActionContext.getResponse();
// 设置输出为文字流
response.setContentType("text/plain");
// 设置字符集
res
- FineReport的公式编辑框的语法简介
老A不折腾
finereport公式总结
FINEREPORT用到公式的地方非常多,单元格(以=开头的便被解析为公式),条件显示,数据字典,报表填报属性值定义,图表标题,轴定义,页眉页脚,甚至单元格的其他属性中的鼠标悬浮提示内容都可以写公式。
简单的说下自己感觉的公式要注意的几个地方:
1.if语句语法刚接触感觉比较奇怪,if(条件式子,值1,值2),if可以嵌套,if(条件式子1,值1,if(条件式子2,值2,值3)
- linux mysql 数据库乱码的解决办法
墙头上一根草
linuxmysql数据库乱码
linux 上mysql数据库区分大小写的配置
lower_case_table_names=1 1-不区分大小写 0-区分大小写
修改/etc/my.cnf 具体的修改内容如下:
[client]
default-character-set=utf8
[mysqld]
datadir=/var/lib/mysql
socket=/va
- 我的spring学习笔记6-ApplicationContext实例化的参数兼容思想
aijuans
Spring 3
ApplicationContext能读取多个Bean定义文件,方法是:
ApplicationContext appContext = new ClassPathXmlApplicationContext(
new String[]{“bean-config1.xml”,“bean-config2.xml”,“bean-config3.xml”,“bean-config4.xml
- mysql 基准测试之sysbench
annan211
基准测试mysql基准测试MySQL测试sysbench
1 执行如下命令,安装sysbench-0.5:
tar xzvf sysbench-0.5.tar.gz
cd sysbench-0.5
chmod +x autogen.sh
./autogen.sh
./configure --with-mysql --with-mysql-includes=/usr/local/mysql
- sql的复杂查询使用案列与技巧
百合不是茶
oraclesql函数数据分页合并查询
本片博客使用的数据库表是oracle中的scott用户表;
------------------- 自然连接查询
查询 smith 的上司(两种方法)
&
- 深入学习Thread类
bijian1013
javathread多线程java多线程
一. 线程的名字
下面来看一下Thread类的name属性,它的类型是String。它其实就是线程的名字。在Thread类中,有String getName()和void setName(String)两个方法用来设置和获取这个属性的值。
同时,Thr
- JSON串转换成Map以及如何转换到对应的数据类型
bijian1013
javafastjsonnet.sf.json
在实际开发中,难免会碰到JSON串转换成Map的情况,下面来看看这方面的实例。另外,由于fastjson只支持JDK1.5及以上版本,因此在JDK1.4的项目中可以采用net.sf.json来处理。
一.fastjson实例
JsonUtil.java
package com.study;
impor
- 【RPC框架HttpInvoker一】HttpInvoker:Spring自带RPC框架
bit1129
spring
HttpInvoker是Spring原生的RPC调用框架,HttpInvoker同Burlap和Hessian一样,提供了一致的服务Exporter以及客户端的服务代理工厂Bean,这篇文章主要是复制粘贴了Hessian与Spring集成一文,【RPC框架Hessian四】Hessian与Spring集成
在
【RPC框架Hessian二】Hessian 对象序列化和反序列化一文中
- 【Mahout二】基于Mahout CBayes算法的20newsgroup的脚本分析
bit1129
Mahout
#!/bin/bash
#
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information re
- nginx三种获取用户真实ip的方法
ronin47
随着nginx的迅速崛起,越来越多公司将apache更换成nginx. 同时也越来越多人使用nginx作为负载均衡, 并且代理前面可能还加上了CDN加速,但是随之也遇到一个问题:nginx如何获取用户的真实IP地址,如果后端是apache,请跳转到<apache获取用户真实IP地址>,如果是后端真实服务器是nginx,那么继续往下看。
实例环境: 用户IP 120.22.11.11
- java-判断二叉树是不是平衡
bylijinnan
java
参考了
http://zhedahht.blog.163.com/blog/static/25411174201142733927831/
但是用java来实现有一个问题。
由于Java无法像C那样“传递参数的地址,函数返回时能得到参数的值”,唯有新建一个辅助类:AuxClass
import ljn.help.*;
public class BalancedBTree {
- BeanUtils.copyProperties VS PropertyUtils.copyProperties
诸葛不亮
PropertyUtilsBeanUtils
BeanUtils.copyProperties VS PropertyUtils.copyProperties
作为两个bean属性copy的工具类,他们被广泛使用,同时也很容易误用,给人造成困然;比如:昨天发现同事在使用BeanUtils.copyProperties copy有integer类型属性的bean时,没有考虑到会将null转换为0,而后面的业
- [金融与信息安全]最简单的数据结构最安全
comsci
数据结构
现在最流行的数据库的数据存储文件都具有复杂的文件头格式,用操作系统的记事本软件是无法正常浏览的,这样的情况会有什么问题呢?
从信息安全的角度来看,如果我们数据库系统仅仅把这种格式的数据文件做异地备份,如果相同版本的所有数据库管理系统都同时被攻击,那么
- vi区段删除
Cwind
linuxvi区段删除
区段删除是编辑和分析一些冗长的配置文件或日志文件时比较常用的操作。简记下vi区段删除要点备忘。
vi概述
引文中并未将末行模式单独列为一种模式。单不单列并不重要,能区分命令模式与末行模式即可。
vi区段删除步骤:
1. 在末行模式下使用:set nu显示行号
非必须,随光标移动vi右下角也会显示行号,能够正确找到并记录删除开始行
- 清除tomcat缓存的方法总结
dashuaifu
tomcat缓存
用tomcat容器,大家可能会发现这样的问题,修改jsp文件后,但用IE打开 依然是以前的Jsp的页面。
出现这种现象的原因主要是tomcat缓存的原因。
解决办法如下:
在jsp文件头加上
<meta http-equiv="Expires" content="0"> <meta http-equiv="kiben&qu
- 不要盲目的在项目中使用LESS CSS
dcj3sjt126com
Webless
如果你还不知道LESS CSS是什么东西,可以看一下这篇文章,是我一朋友写给新人看的《CSS——LESS》
不可否认,LESS CSS是个强大的工具,它弥补了css没有变量、无法运算等一些“先天缺陷”,但它似乎给我一种错觉,就是为了功能而实现功能。
比如它的引用功能
?
.rounded_corners{
- [入门]更上一层楼
dcj3sjt126com
PHPyii2
更上一层楼
通篇阅读完整个“入门”部分,你就完成了一个完整 Yii 应用的创建。在此过程中你学到了如何实现一些常用功能,例如通过 HTML 表单从用户那获取数据,从数据库中获取数据并以分页形式显示。你还学到了如何通过 Gii 去自动生成代码。使用 Gii 生成代码把 Web 开发中多数繁杂的过程转化为仅仅填写几个表单就行。
本章将介绍一些有助于更好使用 Yii 的资源:
- Apache HttpClient使用详解
eksliang
httpclienthttp协议
Http协议的重要性相信不用我多说了,HttpClient相比传统JDK自带的URLConnection,增加了易用性和灵活性(具体区别,日后我们再讨论),它不仅是客户端发送Http请求变得容易,而且也方便了开发人员测试接口(基于Http协议的),即提高了开发的效率,也方便提高代码的健壮性。因此熟练掌握HttpClient是很重要的必修内容,掌握HttpClient后,相信对于Http协议的了解会
- zxing二维码扫描功能
gundumw100
androidzxing
经常要用到二维码扫描功能
现给出示例代码
import com.google.zxing.WriterException;
import com.zxing.activity.CaptureActivity;
import com.zxing.encoding.EncodingHandler;
import android.app.Activity;
import an
- 纯HTML+CSS带说明的黄色导航菜单
ini
htmlWebhtml5csshovertree
HoverTree带说明的CSS菜单:纯HTML+CSS结构链接带说明的黄色导航
在线体验效果:http://hovertree.com/texiao/css/1.htm代码如下,保存到HTML文件可以看到效果:
<!DOCTYPE html >
<html >
<head>
<title>HoverTree
- fastjson初始化对性能的影响
kane_xie
fastjson序列化
之前在项目中序列化是用thrift,性能一般,而且需要用编译器生成新的类,在序列化和反序列化的时候感觉很繁琐,因此想转到json阵营。对比了jackson,gson等框架之后,决定用fastjson,为什么呢,因为看名字感觉很快。。。
网上的说法:
fastjson 是一个性能很好的 Java 语言实现的 JSON 解析器和生成器,来自阿里巴巴的工程师开发。
- 基于Mybatis封装的增删改查实现通用自动化sql
mengqingyu
DAO
1.基于map或javaBean的增删改查可实现不写dao接口和实现类以及xml,有效的提高开发速度。
2.支持自定义注解包括主键生成、列重复验证、列名、表名等
3.支持批量插入、批量更新、批量删除
<bean id="dynamicSqlSessionTemplate" class="com.mqy.mybatis.support.Dynamic
- js控制input输入框的方法封装(数字,中文,字母,浮点数等)
qifeifei
javascript js
在项目开发的时候,经常有一些输入框,控制输入的格式,而不是等输入好了再去检查格式,格式错了就报错,体验不好。 /** 数字,中文,字母,浮点数(+/-/.) 类型输入限制,只要在input标签上加上 jInput="number,chinese,alphabet,floating" 备注:floating属性只能单独用*/
funct
- java 计时器应用
tangqi609567707
javatimer
mport java.util.TimerTask; import java.util.Calendar; public class MyTask extends TimerTask { private static final int
- erlang输出调用栈信息
wudixiaotie
erlang
在erlang otp的开发中,如果调用第三方的应用,会有有些错误会不打印栈信息,因为有可能第三方应用会catch然后输出自己的错误信息,所以对排查bug有很大的阻碍,这样就要求我们自己打印调用的栈信息。用这个函数:erlang:process_display (self (), backtrace).需要注意这个函数只会输出到标准错误输出。
也可以用这个函数:erlang:get_s