- Hive3:列注释、表注释等乱码解决方案
生产队队长
HIVEhive
--在Hive的MySQL元数据库中执行usehive;1).修改字段注释字符集altertableCOLUMNS_V2modifycolumnCOMMENTvarchar(256)charactersetutf8;2).修改表注释字符集altertableTABLE_PARAMSmodifycolumnPARAM_VALUEvarchar(4000)charactersetutf8;3).修改分
- Hive3:数据随机抽样查询
生产队队长
HIVEhivehadoop
一、适用场景大数据体系下,在真正的企业环境中,很容易出现很大的表,比如体积达到TB级别。对这种表一个简单的SELECT*都会非常的慢,哪怕LIMIT10想要看10条数据,也会走MapReduce流程,这个时间等待是不合适的。于是,Hive提供了快速抽样的解决办法,可以快速从大表中随机抽取一些数据供用户查看。二、实操1、基于随机分桶抽样语法SELECT...FROMtblTABLESAMPLE(BU
- Hive基础知识(十五):Hive中SQL排序方式全解
依晴无旧
大数据hivehadoop数据仓库
1.全局排序(OrderBy)OrderBy:全局排序,只有一个Reducer1)使用ORDERBY子句排序ASC(ascend):升序(默认)DESC(descend):降序2)ORDERBY子句在SELECT语句的结尾3)案例实操(1)查询员工信息按工资升序排列hive(hive3)>selecte.ename,e.salfromempeorderbye.sal;e.enamee.salKIN
- Hive基础知识(十六):Hive-SQL分区表使用与优化
依晴无旧
大数据hivehadoop数据仓库
1.分区表分区表实际上就是对应一个HDFS文件系统上的独立的文件夹,该文件夹下是该分区所有的数据文件。Hive中的分区就是分目录,把一个大的数据集根据业务需要分割成小的数据集。在查询时通过WHERE子句中的表达式选择查询所需要的指定的分区,这样的查询效率会提高很多。2.分区表基本操作1)引入分区表(需要根据日期对日志进行管理,通过部门信息模拟)2)创建分区表语法hive(hive3)>create
- Linux中操作Hive常用命令
cxzm_1024
Linux中操作Hive常用命令1、连接hivehiveshell2、输入hive的用户名和密码username:hivepassword:hive3、查询所有数据库showdatabases;4、查询所有数据表showtables;5、创建数据库createdatabase数据库名称;比如:createdatabasetest;6、删除数据库dropdatabase数据库名称;比如:dropda
- Hive客户端hive与beeline的区别
对许
#Hive#Hadoop生态圈hivehadoop
hive与beeline简介1、背景2、hive3、beeline4、hive与beeline的关系1、背景Hive的hive与beeline命令都可以为客户端提供Hive的控制台连接。两者之间有什么区别或联系吗?Hive-cli(hive)是Hive连接hiveserver2的命令行工具,从Hive出生就一直存在,但随着Hive功能的增强、BUG的修复及版本升级,Hive-cli结构的局限性已经
- Hive3 on Spark3配置
江畔独步
Hivehive
1、软件环境1.1大数据组件环境大数据组件版本Hive3.1.2Sparkspark-3.0.0-bin-hadoop3.21.2操作系统环境OS版本MacOSMonterey12.1Linux-CentOS7.62、大数据组件搭建2.1Hive环境搭建1)HiveonSpark说明Hive引擎包括:默认mr、spark、Tez。HiveonSpark:Hive既作为存储元数据又负责SQL的解析优
- hive实现获取当前季度第一天
¤睿
hive
hive3中现在支持了selecttrunc(‘2021-03-01’,‘Q’)即可获得当前季度第一天,但是低版本的还是要自己实现。首先可以通过(floor(substr(current_timestamp,6,2)/3.1)*3)+1--获取的是本季度的月份例:selectcurrent_timestamp,(floor(substr(current_timestamp,6,2)/3.1)*3)
- Hive On Spark 概述、安装配置、计算引擎更换、应用、异常解决
月亮给我抄代码
hivesparkhadoop数据仓库大数据
文章目录Hadoop安装Hive安装HiveOnSpark与SparkOnHive区别HiveOnSparkSparkOnHive部署HiveOnSpark查询Hive对应的Spark版本号下载Spark解压Spark配置环境变量指定Hadoop路径在Hive配置Spark参数上传Jar包并更换引擎测试HiveOnSpark解决依赖冲突问题前言:本篇文章在已经安装Hadoop3.3.4与Hive3
- Hive 中的 ACID 和 Transaction,事务表支持简介
高斯纯牛奶
Hive3Warning由Hive3之前的Hive版本创建的任何事务表都需要在每个分区上运行MajorCompaction,然后才能升级到3.0.更准确地说,自上次重大压缩以来已对其执行任何更新/删除/合并语句的任何分区,都必须进行另一次重大压缩。在将Hive升级到Hive3之后,此分区上再也不会发生更新/删除/合并。什么是ACID,为什么要使用它?ACID代表数据库事务的四个Feature:原子
- 安装hive3报表信息 Unknown column ‘B0.CTLG_NAME‘ in ‘where clause‘)
侠客刀
hive3
Norowsaffected(0seconds)0:jdbc:mysql://hive2-meta-1.ccqa5e4vmj6e.us->/*!40101SETcharacter_set_client=utf8/Norowsaffected(0seconds)0:jdbc:mysql://hive2-meta-1.ccqa5e4vmj6e.us->CREATETABLEIFNOTEXISTSDAT
- Hadoop----Hive的使用
沙糖桔45
hadoophive大数据Java
1.数据库的安装,通过网上教程,使用yum进行安装即可,一定删除干净,下载与Hive版本对应的MySQL。2.Hive的安装,在官网下载.tar.gz包解压至对应目录(/export/server),可以根据网上教程进行一定的配置。3.元数据的初始化,在使用在hive中执行命令,会给MySQL导入一些基本的表于hive3架构4.连接问题,有直接连接还有使用metastore进行连接,但是一般还要再
- Hive Hooks介绍
叁金
Hive作为SQLonHadoop最稳定、应用最广泛的查询引擎被大家所熟知。但是由于基于MapReduce,查询执行速度太慢而逐步引入其他的近实时查询引擎如Presto等。值得关注的是Hive目前支持MapReduce、Tez和Spark三种执行引擎,同时Hive3也会支持联邦数据查询的功能。所以Hive还是有很大进步的空间的。当然,诸如SparkSQL和Presto有着他们非常合适的应用场景,我
- Hive3远程模式安装
Yunis尤尼斯
大数据Hivehive大数据hadoop
本文环境:Hadoop3.2.2JDK1.8.0_291MySQL5.7.35Hive3.1.2一、安装Hadoop集群Hadoop集群部署参考这篇文章:《Hadoop完全分布式集群搭建详细图文教程》二、安装MySQLMySQL5.7安装参考这篇文章:《通过yum方式安装MySQL5.7》MySQL8.0安装参考这篇文章:《通过yum方式安装MySQL8.0》三、安装Hive1、上传Hive安装包
- Hadoop生态圈中的Hive数据仓库技术
Augenstern K
Hadoophadoop数据仓库hive
Hadoop生态圈中的Hive数据仓库技术一、Hive数据仓库的基本概念二、Hive的架构组成三、Hive和数据库的区别四、Hive的安装部署五、Hive的基本使用六、Hive的元数据库的配置问题七、Hive的相关配置项八、Hive的基本使用方式1、Hive的命令行客户端的使用2、使用hiveserver2方法操作Hive3、Hive的JDBC客户端的使用九、Hive中HQL语法1、DDL语法2、
- hive3升级
侠客刀
hive3
文章目录一、hive2升级到hive3步骤1.备份hive2元数据库2.导入到hive3对应的hive元数据表3.更新hive_metastore数据表信息3.1需要新增的表3.2需要更新字段的表3.3需要更改数据的表4.hive3上集群需要的操作4.1更改元数据对应的库名4.2重启HiveMetaStore对应服务二、hive3新特性一、hive2升级到hive3步骤1.备份hive2元数据库m
- Hive3第四章:分区表和分桶表
超哥--
hivehive大数据hadoop
系列文章目录Hive3第一章:环境安装Hive3第二章:简单交互Hive3第三章:DML数据操作Hive3第三章:DML数据操作(二)Hive3第四章:分区表和分桶表文章目录系列文章目录前言一、分区表分区表1.准备数据2.创建分区表3.加载数据4.查询5.增加分区6.删除分区7.查看分区表二、二级分区1.创建二级分区2.上传数据3.数据关联三、分桶表(了解)1.数据准备2.创建分桶表3.上传数据总
- Hive3第三章:DML数据操作(二)
超哥--
hivehive大数据数据库
系列文章目录Hive3第一章:环境安装Hive3第二章:简单交互Hive3第三章:DML数据操作Hive3第三章:DML数据操作(二)文章目录系列文章目录前言一、基本查询1.创建想要的表2.全表查询3.选择特定列查询4.列别名4.常用函数5.Where语句6.比较运算符(Between/In/IsNull)7.Like8.逻辑运算符二、分组1.GroupBy语句2.Having语句三、Join语句
- Hive3第三章:DML数据操作
超哥--
hivehadoophive大数据
系列文章目录Hive3第一章:环境安装Hive3第二章:简单交互Hive3第三章:DML数据操作提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录系列文章目录前言一、数据导入1.向表中装载数据(load)2.通过查询语句导入(insert)二、数据导出1.hadoop导出2.insert导出3.shell导出4.Export导出到HDFS上总结前言这一次学习DML数据操作的导
- Hive3第一章:环境安装
超哥--
hivehivehadoop大数据
系列文章目录Hive3第一章:环境准备文章目录系列文章目录前言一、hive3安装1.上传文件2.配置环境变量3.修复日志错误(可忽略)4.初始化元数据库二、启动hive1.启动Hadoop2.启动hive三、安装mysql1.解压tar包并安装3.初始化数据库四、Hive元数据配置到MySQL1.拷贝jdbc2.编辑hive-site.xml创建hive数据库总结前言此专栏是在学习完Hadoop专
- Hive3第二章:简单交互
超哥--
hivehivehadoop大数据
系列文章目录Hive3第一章:环境安装Hive3第二章:简单交互文章目录系列文章目录前言一、jdbc连接hive1.配置修改2.启动hiveserver2二、脚本封装1.编辑脚本2.运行脚本三、命令行交互1.直接插入hql2.间接插入四、常见属性配置1.日志信息2.打印库/表头总结前言今天紧接着上一章继续学习hive,学一些简单的交互。一、jdbc连接hive驱动文件的上传的配置上一章说过了,这里
- Hive3第六章:更换引擎
超哥--
线上问诊hivehive
系列文章目录Hive3第一章:环境安装Hive3第二章:简单交互Hive3第三章:DML数据操作Hive3第三章:DML数据操作(二)Hive3第四章:分区表和分桶表Hive3第五章:函数Hive3第六章:更换引擎文章目录系列文章目录前言一、更换hive二、安装hive三、更换引擎1.部署Spark纯净版2.修改配置文件3.HDFS创建目录4.上传jar包5.hive测试总结前言这个博客主要是作为
- Hive3新特性
clive0x
1.执行引擎变更:TEZ不用支持缓慢过时的MapReduce了,14年测试时TEZ比MapReduce快100%。2.鉴权变更:RangerHive默认使用storage-basedauthorization(SBA),HDP使用Ranger,Cloudera使用Sentry,Sentry到后面感觉复杂又不好用。不知道Hortonworks和Cloudera合并后哪个占优势。3.HDFSACLs默
- Hive环境搭建(保姆级教程)
JJustRight
BigData#HadoophiveMariaDBbeelinehive环境安装hive环境搭建
目录一、Hive简介二、Hive环境安装1.准备工作1)安装Hadoop2)安装MariaDB(1)查看MariaDB安装情况(2)卸载MariaDB/MySQL(3)安装MariaDB(4)简单配置MariaDB(5)常见问题及解决2.Hive安装1)下载Hive安装包2)安装Hive3)上传MySQL驱动4)修改配置文件5)元数据初始化(1)数据库对账号授权(2)初始化元数据3.测试环境1)启
- Hive3.1.2 适配Ranger1.2.1
ThomasgGx
hivehadoopjava
Hive3的权限接口新增了getHivePolicyProvider方法,因此需要在ranger1.2.1RangerHiveAuthorizer类中实现此方法,对比了最新版本的Ranger2.x有这个方法的实现但是涉及的代码很多因此这里又参考了hive本身的一些权限实现发现并没有提供此方法的实现,因此这里也是直接提供了空的实现。在RangerHiveAuthorizer类中添加如下实现(这里需要
- 大数据技术之Hive3
海星?海欣!
#大数据-Hive大数据
目录标题5、DML数据操作5.1数据导入5.1.1向表中装载数据load5.1.2通过查询语句向表中插入数据insert5.1.3查询语句中创建表并加载数据5.1.4创建表时通过Location指定加载数据路径5.2数据导出5.2.1insert导出5.2.2Hadoop命令导出到本地5.3清除表中数据(Truncate)6、查询6.1注意点6.2笛卡尔积6.2.1笛卡尔积会在下面条件中产生6.3
- 【Hive实战】Hive的事务表
顧棟
hivehadoop数据仓库
HiveTransactions在升级到Hive3之前,需要把在事务表上MajorCompaction。主要是为了合并掉增量文件。更准确地说,自上次MajorCompaction以来在其上执行过任何更新/删除/合并语句的任何分区都必须进行另一次MajorCompaction。在Hive升级到Hive3之前,此分区上不会再发生更新/删除/合并。WhatisACIDandwhyshouldyouuse
- 如何用Spark SQL实现多Catalog联邦查询
咬定青松
sparksql大数据hivehadoop
目前对多Catalog的支持俨然成为计算引擎的标配,因为在OLAP场景,跨数据源的联合查询是一大刚需。但是,传统的计算引擎如Hive、Spark2对多Catalog支持能力很弱,也许是受Flink、Presto(Trino)的步步紧逼,Hive3也开始支持多Catalog,但是仅限于存储层面和API层面,还没有推进到SQL层。Spark相比Hive要进展好得多,在多Catalog的实现方式上甚至成
- [Hadoop]数据仓库基础与Apache Hive入门
热咖啡不太冷
数据仓库hivehadoop
目录大数据导论与Linux基础ApacheHadoop、HDFS大数据导论与Linux基础数据仓库基本概念数据仓库概念数据仓库主要特征数据仓库主流开发语言--SQLApacheHive入门ApacheHive概述场景设计:如何模拟实现Hive功能ApacheHive架构、组件ApacheHive安装部署ApacheHive元数据Hive3安装ApacheHive客户端使用HiveSQL语言数据仓库
- HIVE 安装与部署(一路通畅)
Alexander plus
大数据分布式集群系列hivemysql数据库
Hive3安装Mysql安装卸载Centos7自带的mariadb[root@node3~]#rpm-qa|grepmariadbmariadb-libs-5.5.64-1.el7.x86_64[root@node3~]#rpm-emariadb-libs-5.5.64-1.el7.x86_64--nodeps[root@node3~]#rpm-qa|grepmariadb[root@node3~
- 开发者关心的那些事
圣子足道
ios游戏编程apple支付
我要在app里添加IAP,必须要注册自己的产品标识符(product identifiers)。产品标识符是什么?
产品标识符(Product Identifiers)是一串字符串,它用来识别你在应用内贩卖的每件商品。App Store用产品标识符来检索产品信息,标识符只能包含大小写字母(A-Z)、数字(0-9)、下划线(-)、以及圆点(.)。你可以任意排列这些元素,但我们建议你创建标识符时使用
- 负载均衡器技术Nginx和F5的优缺点对比
bijian1013
nginxF5
对于数据流量过大的网络中,往往单一设备无法承担,需要多台设备进行数据分流,而负载均衡器就是用来将数据分流到多台设备的一个转发器。
目前有许多不同的负载均衡技术用以满足不同的应用需求,如软/硬件负载均衡、本地/全局负载均衡、更高
- LeetCode[Math] - #9 Palindrome Number
Cwind
javaAlgorithm题解LeetCodeMath
原题链接:#9 Palindrome Number
要求:
判断一个整数是否是回文数,不要使用额外的存储空间
难度:简单
分析:
题目限制不允许使用额外的存储空间应指不允许使用O(n)的内存空间,O(1)的内存用于存储中间结果是可以接受的。于是考虑将该整型数反转,然后与原数字进行比较。
注:没有看到有关负数是否可以是回文数的明确结论,例如
- 画图板的基本实现
15700786134
画图板
要实现画图板的基本功能,除了在qq登陆界面中用到的组件和方法外,还需要添加鼠标监听器,和接口实现。
首先,需要显示一个JFrame界面:
public class DrameFrame extends JFrame { //显示
- linux的ps命令
被触发
linux
Linux中的ps命令是Process Status的缩写。ps命令用来列出系统中当前运行的那些进程。ps命令列出的是当前那些进程的快照,就是执行ps命令的那个时刻的那些进程,如果想要动态的显示进程信息,就可以使用top命令。
要对进程进行监测和控制,首先必须要了解当前进程的情况,也就是需要查看当前进程,而 ps 命令就是最基本同时也是非常强大的进程查看命令。使用该命令可以确定有哪些进程正在运行
- Android 音乐播放器 下一曲 连续跳几首歌
肆无忌惮_
android
最近在写安卓音乐播放器的时候遇到个问题。在MediaPlayer播放结束时会回调
player.setOnCompletionListener(new OnCompletionListener() {
@Override
public void onCompletion(MediaPlayer mp) {
mp.reset();
Log.i("H
- java导出txt文件的例子
知了ing
javaservlet
代码很简单就一个servlet,如下:
package com.eastcom.servlet;
import java.io.BufferedOutputStream;
import java.io.IOException;
import java.net.URLEncoder;
import java.sql.Connection;
import java.sql.Resu
- Scala stack试玩, 提高第三方依赖下载速度
矮蛋蛋
scalasbt
原文地址:
http://segmentfault.com/a/1190000002894524
sbt下载速度实在是惨不忍睹, 需要做些配置优化
下载typesafe离线包, 保存为ivy本地库
wget http://downloads.typesafe.com/typesafe-activator/1.3.4/typesafe-activator-1.3.4.zip
解压r
- phantomjs安装(linux,附带环境变量设置) ,以及casperjs安装。
alleni123
linuxspider
1. 首先从官网
http://phantomjs.org/下载phantomjs压缩包,解压缩到/root/phantomjs文件夹。
2. 安装依赖
sudo yum install fontconfig freetype libfreetype.so.6 libfontconfig.so.1 libstdc++.so.6
3. 配置环境变量
vi /etc/profil
- JAVA IO FileInputStream和FileOutputStream,字节流的打包输出
百合不是茶
java核心思想JAVA IO操作字节流
在程序设计语言中,数据的保存是基本,如果某程序语言不能保存数据那么该语言是不可能存在的,JAVA是当今最流行的面向对象设计语言之一,在保存数据中也有自己独特的一面,字节流和字符流
1,字节流是由字节构成的,字符流是由字符构成的 字节流和字符流都是继承的InputStream和OutPutStream ,java中两种最基本的就是字节流和字符流
类 FileInputStream
- Spring基础实例(依赖注入和控制反转)
bijian1013
spring
前提条件:在http://www.springsource.org/download网站上下载Spring框架,并将spring.jar、log4j-1.2.15.jar、commons-logging.jar加载至工程1.武器接口
package com.bijian.spring.base3;
public interface Weapon {
void kil
- HR看重的十大技能
bijian1013
提升能力HR成长
一个人掌握何种技能取决于他的兴趣、能力和聪明程度,也取决于他所能支配的资源以及制定的事业目标,拥有过硬技能的人有更多的工作机会。但是,由于经济发展前景不确定,掌握对你的事业有所帮助的技能显得尤为重要。以下是最受雇主欢迎的十种技能。 一、解决问题的能力 每天,我们都要在生活和工作中解决一些综合性的问题。那些能够发现问题、解决问题并迅速作出有效决
- 【Thrift一】Thrift编译安装
bit1129
thrift
什么是Thrift
The Apache Thrift software framework, for scalable cross-language services development, combines a software stack with a code generation engine to build services that work efficiently and s
- 【Avro三】Hadoop MapReduce读写Avro文件
bit1129
mapreduce
Avro是Doug Cutting(此人绝对是神一般的存在)牵头开发的。 开发之初就是围绕着完善Hadoop生态系统的数据处理而开展的(使用Avro作为Hadoop MapReduce需要处理数据序列化和反序列化的场景),因此Hadoop MapReduce集成Avro也就是自然而然的事情。
这个例子是一个简单的Hadoop MapReduce读取Avro格式的源文件进行计数统计,然后将计算结果
- nginx定制500,502,503,504页面
ronin47
nginx 错误显示
server {
listen 80;
error_page 500/500.html;
error_page 502/502.html;
error_page 503/503.html;
error_page 504/504.html;
location /test {return502;}}
配置很简单,和配
- java-1.二叉查找树转为双向链表
bylijinnan
二叉查找树
import java.util.ArrayList;
import java.util.List;
public class BSTreeToLinkedList {
/*
把二元查找树转变成排序的双向链表
题目:
输入一棵二元查找树,将该二元查找树转换成一个排序的双向链表。
要求不能创建任何新的结点,只调整指针的指向。
10
/ \
6 14
/ \
- Netty源码学习-HTTP-tunnel
bylijinnan
javanetty
Netty关于HTTP tunnel的说明:
http://docs.jboss.org/netty/3.2/api/org/jboss/netty/channel/socket/http/package-summary.html#package_description
这个说明有点太简略了
一个完整的例子在这里:
https://github.com/bylijinnan
- JSONUtil.serialize(map)和JSON.toJSONString(map)的区别
coder_xpf
jqueryjsonmapval()
JSONUtil.serialize(map)和JSON.toJSONString(map)的区别
数据库查询出来的map有一个字段为空
通过System.out.println()输出 JSONUtil.serialize(map): {"one":"1","two":"nul
- Hibernate缓存总结
cuishikuan
开源sshjavawebhibernate缓存三大框架
一、为什么要用Hibernate缓存?
Hibernate是一个持久层框架,经常访问物理数据库。
为了降低应用程序对物理数据源访问的频次,从而提高应用程序的运行性能。
缓存内的数据是对物理数据源中的数据的复制,应用程序在运行时从缓存读写数据,在特定的时刻或事件会同步缓存和物理数据源的数据。
二、Hibernate缓存原理是怎样的?
Hibernate缓存包括两大类:Hib
- CentOs6
dalan_123
centos
首先su - 切换到root下面1、首先要先安装GCC GCC-C++ Openssl等以来模块:yum -y install make gcc gcc-c++ kernel-devel m4 ncurses-devel openssl-devel2、再安装ncurses模块yum -y install ncurses-develyum install ncurses-devel3、下载Erang
- 10款用 jquery 实现滚动条至页面底端自动加载数据效果
dcj3sjt126com
JavaScript
无限滚动自动翻页可以说是web2.0时代的一项堪称伟大的技术,它让我们在浏览页面的时候只需要把滚动条拉到网页底部就能自动显示下一页的结果,改变了一直以来只能通过点击下一页来翻页这种常规做法。
无限滚动自动翻页技术的鼻祖是微博的先驱:推特(twitter),后来必应图片搜索、谷歌图片搜索、google reader、箱包批发网等纷纷抄袭了这一项技术,于是靠滚动浏览器滚动条
- ImageButton去边框&Button或者ImageButton的背景透明
dcj3sjt126com
imagebutton
在ImageButton中载入图片后,很多人会觉得有图片周围的白边会影响到美观,其实解决这个问题有两种方法
一种方法是将ImageButton的背景改为所需要的图片。如:android:background="@drawable/XXX"
第二种方法就是将ImageButton背景改为透明,这个方法更常用
在XML里;
<ImageBut
- JSP之c:foreach
eksliang
jspforearch
原文出自:http://www.cnblogs.com/draem0507/archive/2012/09/24/2699745.html
<c:forEach>标签用于通用数据循环,它有以下属性 属 性 描 述 是否必须 缺省值 items 进行循环的项目 否 无 begin 开始条件 否 0 end 结束条件 否 集合中的最后一个项目 step 步长 否 1
- Android实现主动连接蓝牙耳机
gqdy365
android
在Android程序中可以实现自动扫描蓝牙、配对蓝牙、建立数据通道。蓝牙分不同类型,这篇文字只讨论如何与蓝牙耳机连接。
大致可以分三步:
一、扫描蓝牙设备:
1、注册并监听广播:
BluetoothAdapter.ACTION_DISCOVERY_STARTED
BluetoothDevice.ACTION_FOUND
BluetoothAdapter.ACTION_DIS
- android学习轨迹之四:org.json.JSONException: No value for
hyz301
json
org.json.JSONException: No value for items
在JSON解析中会遇到一种错误,很常见的错误
06-21 12:19:08.714 2098-2127/com.jikexueyuan.secret I/System.out﹕ Result:{"status":1,"page":1,&
- 干货分享:从零开始学编程 系列汇总
justjavac
编程
程序员总爱重新发明轮子,于是做了要给轮子汇总。
从零开始写个编译器吧系列 (知乎专栏)
从零开始写一个简单的操作系统 (伯乐在线)
从零开始写JavaScript框架 (图灵社区)
从零开始写jQuery框架 (蓝色理想 )
从零开始nodejs系列文章 (粉丝日志)
从零开始编写网络游戏 
- jquery-autocomplete 使用手册
macroli
jqueryAjax脚本
jquery-autocomplete学习
一、用前必备
官方网站:http://bassistance.de/jquery-plugins/jquery-plugin-autocomplete/
当前版本:1.1
需要JQuery版本:1.2.6
二、使用
<script src="./jquery-1.3.2.js" type="text/ja
- PLSQL-Developer或者Navicat等工具连接远程oracle数据库的详细配置以及数据库编码的修改
超声波
oracleplsql
在服务器上将Oracle安装好之后接下来要做的就是通过本地机器来远程连接服务器端的oracle数据库,常用的客户端连接工具就是PLSQL-Developer或者Navicat这些工具了。刚开始也是各种报错,什么TNS:no listener;TNS:lost connection;TNS:target hosts...花了一天的时间终于让PLSQL-Developer和Navicat等这些客户
- 数据仓库数据模型之:极限存储--历史拉链表
superlxw1234
极限存储数据仓库数据模型拉链历史表
在数据仓库的数据模型设计过程中,经常会遇到这样的需求:
1. 数据量比较大; 2. 表中的部分字段会被update,如用户的地址,产品的描述信息,订单的状态等等; 3. 需要查看某一个时间点或者时间段的历史快照信息,比如,查看某一个订单在历史某一个时间点的状态, 比如,查看某一个用户在过去某一段时间内,更新过几次等等; 4. 变化的比例和频率不是很大,比如,总共有10
- 10点睛Spring MVC4.1-全局异常处理
wiselyman
spring mvc
10.1 全局异常处理
使用@ControllerAdvice注解来实现全局异常处理;
使用@ControllerAdvice的属性缩小处理范围
10.2 演示
演示控制器
package com.wisely.web;
import org.springframework.stereotype.Controller;
import org.spring