- Spark 简介与原理
桑榆嗯
sparkpythonspark
目录标题1Spark简介与原理1.1Spark与Hadoop的区别1.2Spark的应用场景1.3Spark的作业运行流程1.4Spark2.X与Spark1.X的区别1Spark简介与原理Spark是一个大规模数据处理的统一分析引擎。具有迅速、通用、易用、支持多种资源管理器的特点。Spark生态系统:SparkSQL是一种结构化的数据处理模块。它提供了一个称为DataFrame的编程抽象,也可以
- 大数据--spark
像影子追着光梦游_
大数据大数据spark
什么是SparkApacheSpark的架构基础是弹性分布式数据集(RDD),这是一种只读的多组数据项,分布在机器集群上,以容错方式维护。[2]DataframeAPI作为RDD之上的抽象发布,随后是DatasetAPI。在Spark1.x中,RDD是主要的应用程序编程接口(API),但从Spark2.x开始,鼓励使用数据集API[3],即使RDDAPI没有被弃用。[4][5]RDD技术仍然是Da
- 基于Idea的Spark大数据分析--scala
haerxiluo
spark大数据hadoopscala
问题重述•基于Eclipse或IDEA完成Spark大数据分析•Spark1.x或2.x版本均可•能够读取给定的数据文件•出租车GPS数据文件(taxi_gps.txt)•北京区域中心坐标及半径数据文件(district.txt)•能够输出以下统计信息•A:该出租车GPS数据文件(taxi_gps.txt)包含多少量车?•B:北京每个城区的车辆位置点数(每辆车有多个位置点,允许重复)开发环境:Sp
- CDH-5.9.2整合spark2
weixin_30239339
1.编写目的:由于cdh-5.9.2自带spark版本是spark1.6,现需要测试spark2新特性,需要整合spark2,且spark1.x和spark2.x可以同时存在于cdh中,无需先删除spark1.x;2.安装包下载2.1首先下载csd包,地址:http://archive.cloudera.com/spark2/csd/2.2parcel包下载地址:http://archive.cl
- Spark2 的 Whole-stage Code Generation、Vectorization 技术 与Spark1 的 Volcano Iterator Model 技术 的对比分析
tamir_2017
spark
目录1、Spark1的VolcanoIteratorModel技术2、Spark2的Whole-stageCodeGeneration、vectorization技术3、总结1、Spark1的VolcanoIteratorModel技术Spark1.x会使用一种最流行、最经典的查询求值策略,该策略主要基于VolcanoIteratorModel。在这种模型中,一个查询会包含多个operator,每
- Spark1.x和2.x如何读取和写入csv文件
lzw2016
Hadoop及Spark学习大数据学习进阶
看很多资料,很少有讲怎么去操作读写csv文件的,我也查了一些。很多博客都是很老的方法,还有好多转来转去的,复制粘贴都不能看。下面我在这里归纳一下,以免以后用到时再费时间去查通过sc.textFilevalinput=sc.textFile("test.csv")valresult=input.map{line=>valreader=newCSVReader(newStringReader(line
- spark自定义函数之——UDF使用详解及代码示例
weixin_30892889
前言本文介绍如何在SparkSql和DataFrame中使用UDF,如何利用UDF给一个表或者一个DataFrame根据需求添加几列,并给出了旧版(Spark1.x)和新版(Spark2.x)完整的代码示例。关于UDF:UDF:UserDefinedFunction,用户自定义函数创建测试用DataFramespark2.0创建DataFrame//构造测试数据,有两个字段、名字和年龄valuse
- spark1.x和spark2.x兼容Iterable和Iterator问题
aoayyu826824
大数据java
1.spark1.x升级到spark2.x对于普通的spark来说,变动不大:举一个最简单的实例:spark1.x1publicstaticJavaRDDworkJob(JavaRDDspark1Rdd){23JavaPairRDDtestRdd=spark1Rdd4.flatMapToPair(newPairFlatMapFunction(){56@Override7publicIterable
- Spark Streaming接收Kafka数据存储到Hbase
weixin_30826095
大数据javascala
SparkStreaming接收Kafka数据存储到Hbaseflysparkhbasekafka主要参考了这篇文章https://yq.aliyun.com/articles/60712([点我])(https://yq.aliyun.com/articles/60712),不过这篇文章使用的spark貌似是spark1.x的。我这里主要是改为了spark2.x的方式kafka生产数据闲话少叙,
- spark2.2 SparkSession思考与总结1
about云
问题导读1.你认为为何出现SparkSession?2.SparkSession如何创建RDD?3.SparkSession通过那个类来实例化?4.bulider包含哪些函数?为何出现SparkSession对于spark1.x的版本,我们最常用的是rdd,如果我们想使用DataFrame,则需要通过rdd转换。随着dataframe和dataset使用的越来越多,所以spark就寻找了新的切入点
- Spark2.x 快速入门教程 1
oxuzhenyi
实验楼课程
Spark2.x课程介绍一、实验介绍1.1实验内容Spark是Apache高级项目里面较火的大数据处理的计算引擎,对比Spark1.x版本,Spark2.x有哪些改进,本节课主要讲解Spark2.x新特性。1.2先学课程Scalahttps://www.shiyanlou.com/courses/?course_type=all&tag=Scala&fee=all为了保证可以在实验楼环境中完成本次
- 【2018-04-10】【2.1.1】spark sql操作mysql和hdfs
jackLee
spark2.X与1.x的区别sparksql2.x以上版本和1.x版本有个很大的区别:spark1.x的sqlContext在spark2.0中被整合到sparkSession,故而利用spark-shell客户端操作会有些许不同,具体如下文所述。载入外部数据的load方法在sparksql中有一个DataStreamReader封装了读取各种格式的外部数据的方法,其中,format(str)用
- 184、Spark 2.0之Spark 2.x与1.x对比以及分析
ZFH__ZJ
Spark2.x与1.x对比Spark1.x:SparkCore(RDD)、SparkSQL(SQL+Dataframe+Dataset)、SparkStreaming、SparkMLlib、SparkGraphxSpark2.x:SparkCore(RDD)、SparkSQL(ANSI-SQL+Subquery+Dataframe/Dataset)、SparkStreaming、Structur
- 183、Spark 2.0新特性之新特性介绍-whole-stage code generation技术和vectorization技术
ZFH__ZJ
VolcanoIteratorModelSpark2.x的第二代tungsten引擎原理之前,先看一下当前的Spark的工作原理。我们可以通过一个SQL来举例,这个SQL扫描了单个表,然后对属性等于指定值的记录进行汇总计数。SQL语句如下:selectcount(*)fromstore_saleswheress_item_sk=1000。要执行这个查询,Spark1.x会使用一种最流行、最经典的查
- Spark中SparkSQL的基础用法
木楚
大数据
SparkSQL其实说白了就是方便开发人员对RDD进行间接的操作,之我前在阿里巴巴架构数据中台的时候本来想随笔的写写今天有时间就随便写点。SparkSQL中的DataFrame本质上还是一个RDD但是DataFrame本质上又是一个DataSet,SparkSQL的中心是一个SparkCore,SparkCorez中RDD是核心。不说了直接上第一种写法使用spark1.x版本packagecom.
- 184、Spark 2.0之Spark 2.x与1.x对比以及分析
ZFH__ZJ
Spark入坑
Spark2.x与1.x对比Spark1.x:SparkCore(RDD)、SparkSQL(SQL+Dataframe+Dataset)、SparkStreaming、SparkMLlib、SparkGraphxSpark2.x:SparkCore(RDD)、SparkSQL(ANSI-SQL+Subquery+Dataframe/Dataset)、SparkStreaming、Structur
- spark-sql的几种创建方式
LJ2415
spark-sql
Spark1.x//sparksql用来处理结构化数据类似数据库中的表一样存储数据Spark1.xvalsc=newSparkContext(conf)valsqlContext=newSQLContext(sc)//将RDD和schema信息关联到一起,1.RDD和caseclass2.RDD和StructType//caseclassPerson将RDD中的数据转换成caseclass属性相对
- Spark学习(肆)- 从Hive平滑过渡到Spark SQL
-无妄-
Spark学习笔记
文章目录SQLContext的使用HiveContext的使用SparkSession的使用spark-shell&spark-sql的使用spark-shellspark-sqlthriftserver&beeline的使用jdbc方式编程访问SQLContext的使用Spark1.x中SparkSQL的入口点:SQLContextvalsc:SparkContext//AnexistingSp
- 2 、SparkSQL编程入口SparkSession
风中一叶(Liko)
Spark
1.要编写SparkSQL程序,必须通SparkSession对象pyspark.sql.SparkSession(sparkContext,jsparkSession=None)在spark1.x之前的版本中,SparkSQL程序的编程入口是pyspark.sql.SQLContext(sparkContext,sparkSession=None,jsqlContext=None)这个是需要大家
- Spark作业运行架构原理解析
xpleaf
大数据Spark架构Spark
[TOC]1说明根据之前oldli(百度高级大数据工程师)给的一张草图重新整理,并用processon绘图一下,这样就更加清晰了。需要注意的是,这里是基于Spark2.x以下的版本,因为在之前,底层通信是基于AKKAACTOR的方式,但是之后就是使用RPC的方式了。(最近原来是想把spark2.x的源码好好阅读一下,但是公司已有的系统都是基于spark1.x的,并且最近才更新到spark1.6.3
- Spark之RDD编程快速入门
在屋顶听歌
spark
注:笔者用的spark1.6.3版本的,计划是用spark1.x版本大致了解一遍spark,然后再用spark2.x正式玩玩。RDD基本原理可见RDD基本原理一、RDD的简单介绍RDD是一种只读的、分区的记录集合。RDD分为两类,transformation(map/filter/groupBy/join等)与action(count/take/collect/first/reduce等)其中转换
- Spark UDF使用详解及代码示例
董可伦
spark大数据DataFrameSpark
我的原创地址:https://dongkelun.com/2018/08/02/sparkUDF/前言本文介绍如何在SparkSql和DataFrame中使用UDF,如何利用UDF给一个表或者一个DataFrame根据需求添加几列,并给出了旧版(Spark1.x)和新版(Spark2.x)完整的代码示例。关于UDF:UDF:UserDefinedFunction,用户自定义函数。1、创建测试用Da
- 【四】Spark SQL中SQLContext的使用(从json文件中加载数据)
jy02268879
sparkSQLSparkSQL
SQLContext是Spark1.X中SparkSQL的入口点。项目目录pom.xml4.0.0com.sid.comsparksqltrain1.0-SNAPSHOT20082.11.82.2.0scala-tools.orgScala-ToolsMaven2Repositoryhttp://scala-tools.org/repo-releasesscala-tools.orgScala-T
- Spark2.X 使用累加器AccumulatorV2实现字符串拼接下的字母统计
Winner941112
Spark2.XAccumulatorRDD
Spark2.X中的累加器和Spark1.X中有着很大不同,下面将实现的功能是:将一个集合,集合中含有字母"A","B","A","D","E","D","G","H","I","A","B","I","G","D","I",目的是统计这个集合中字母的个数,并将其拼接成一个字符串:A=3|B=2|C=0|D=3|E=1|F=0|G=2|H=1|I=31、先准备拆分字符串的工具类StringUtil
- 【Spark】Spark性能优化之Whole-stage code generation
weixin_30692143
大数据java操作系统
一、技术背景Spark1.x版本中执行SQL语句,使用的是一种最经典,最流行的查询求职策略,该策略主要基于VolcanoIteratorModel(火山迭代模型)。一个查询会包含多个Operator,每个Operator都会实现一个接口,提供一个next()方法,该方法返回OperatorTree的下一个Operator,能够让查询引擎组装任意Operator,而不需要去考虑每个Operator具
- 在windows下搭建spark1.x开发环境小记(winutils.exe找不到报错)
dataastron
Spark
在windows下搭建spark1.x开发环境尝试小记先说明安装的版本idea20160204jdk7maven3.1.1scala2.10.4这里hadoop和spark的版本选了个较新2.6的:spark-1.6.3-bin-hadoop2.6;因为spark2的用法出现了较大的变化,需要hadoop2.7。所以这次我们就用的是第一个等级的hadoop,选2.6。spark选了1.x。整体的安
- (一)Spark本地开发环境搭建与远程debug设置
ping_hu
spark
快速看完《Spark大数据处理技术、应用与性能优化》前四章后,对Spark有了一个初步的了解,终于踏出了第一步,现在需要在Spark集群中做些测试例子,熟悉一下开发环境和开发的流程。本文主要总结了如何在本地使用Maven搭建开发环境以及如何进行远程debug。由于采用的Spark是今年5月24号才发布的Spark2.1.1,网上大多数例子都是Spark1.X,因此走了不少弯路,才搭建好开发环境。一
- 基于spark2.0整合spark-sql + mysql + parquet + HDFS
CaramelCapucchino
大数据架构
一、概述spark2.0做出的改变大家可以参考官网以及其他资料,这里不再赘述由于spark1.x的sqlContext在spark2.0中被整合到sparkSession,故而利用spark-shell客户端操作会有些许不同,具体如下文所述二、spark额外配置1.正常配置不再赘述,这里如果需要读取MySQL数据,则需要在当前用户下的环境变量里额外加上JDBC的驱动jar包例如我的是:mysql-
- Hadoop优化与调整
buster2014
文章来源:http://www.iteblog.com/archives/1003Hadoop优化与调整Hadoop、Hive、Hbase、Flume等QQ交流群:138615359(已满),请加入新群:1498924832014Spark亚太峰会会议资料下载、《Hadoop从入门到上手企业开发视频下载[70集]》、《炼数成金-Spark大数据平台视频百度网盘免费下载》、《Spark1.X大数据平
- Spark发布1.3.0版本
张逸
3月13日,Spark1.3.0版本与我们如约而至。这是Spark1.X发布计划中的第四次发布,距离1.2版本发布约三个月时间。据Spark官方网站报道,此次发布是有史以来最大的一次发布,共有174位开发者为代码库做出贡献,提交次数超过1000次。此次版本发布的最大亮点是新引入的DataFrameAPI。对于结构型的DataSet,它提供了更方便更强大的操作运算。事实上,我们可以简单地将DataF
- Maven
Array_06
eclipsejdkmaven
Maven
Maven是基于项目对象模型(POM), 信息来管理项目的构建,报告和文档的软件项目管理工具。
Maven 除了以程序构建能力为特色之外,还提供高级项目管理工具。由于 Maven 的缺省构建规则有较高的可重用性,所以常常用两三行 Maven 构建脚本就可以构建简单的项目。由于 Maven 的面向项目的方法,许多 Apache Jakarta 项目发文时使用 Maven,而且公司
- ibatis的queyrForList和queryForMap区别
bijian1013
javaibatis
一.说明
iBatis的返回值参数类型也有种:resultMap与resultClass,这两种类型的选择可以用两句话说明之:
1.当结果集列名和类的属性名完全相对应的时候,则可直接用resultClass直接指定查询结果类
- LeetCode[位运算] - #191 计算汉明权重
Cwind
java位运算LeetCodeAlgorithm题解
原题链接:#191 Number of 1 Bits
要求:
写一个函数,以一个无符号整数为参数,返回其汉明权重。例如,‘11’的二进制表示为'00000000000000000000000000001011', 故函数应当返回3。
汉明权重:指一个字符串中非零字符的个数;对于二进制串,即其中‘1’的个数。
难度:简单
分析:
将十进制参数转换为二进制,然后计算其中1的个数即可。
“
- 浅谈java类与对象
15700786134
java
java是一门面向对象的编程语言,类与对象是其最基本的概念。所谓对象,就是一个个具体的物体,一个人,一台电脑,都是对象。而类,就是对象的一种抽象,是多个对象具有的共性的一种集合,其中包含了属性与方法,就是属于该类的对象所具有的共性。当一个类创建了对象,这个对象就拥有了该类全部的属性,方法。相比于结构化的编程思路,面向对象更适用于人的思维
- linux下双网卡同一个IP
被触发
linux
转自:
http://q2482696735.blog.163.com/blog/static/250606077201569029441/
由于需要一台机器有两个网卡,开始时设置在同一个网段的IP,发现数据总是从一个网卡发出,而另一个网卡上没有数据流动。网上找了下,发现相同的问题不少:
一、
关于双网卡设置同一网段IP然后连接交换机的时候出现的奇怪现象。当时没有怎么思考、以为是生成树
- 安卓按主页键隐藏程序之后无法再次打开
肆无忌惮_
安卓
遇到一个奇怪的问题,当SplashActivity跳转到MainActivity之后,按主页键,再去打开程序,程序没法再打开(闪一下),结束任务再开也是这样,只能卸载了再重装。而且每次在Log里都打印了这句话"进入主程序"。后来发现是必须跳转之后再finish掉SplashActivity
本来代码:
// 销毁这个Activity
fin
- 通过cookie保存并读取用户登录信息实例
知了ing
JavaScripthtml
通过cookie的getCookies()方法可获取所有cookie对象的集合;通过getName()方法可以获取指定的名称的cookie;通过getValue()方法获取到cookie对象的值。另外,将一个cookie对象发送到客户端,使用response对象的addCookie()方法。
下面通过cookie保存并读取用户登录信息的例子加深一下理解。
(1)创建index.jsp文件。在改
- JAVA 对象池
矮蛋蛋
javaObjectPool
原文地址:
http://www.blogjava.net/baoyaer/articles/218460.html
Jakarta对象池
☆为什么使用对象池
恰当地使用对象池化技术,可以有效地减少对象生成和初始化时的消耗,提高系统的运行效率。Jakarta Commons Pool组件提供了一整套用于实现对象池化
- ArrayList根据条件+for循环批量删除的方法
alleni123
java
场景如下:
ArrayList<Obj> list
Obj-> createTime, sid.
现在要根据obj的createTime来进行定期清理。(释放内存)
-------------------------
首先想到的方法就是
for(Obj o:list){
if(o.createTime-currentT>xxx){
- 阿里巴巴“耕地宝”大战各种宝
百合不是茶
平台战略
“耕地保”平台是阿里巴巴和安徽农民共同推出的一个 “首个互联网定制私人农场”,“耕地宝”由阿里巴巴投入一亿 ,主要是用来进行农业方面,将农民手中的散地集中起来 不仅加大农民集体在土地上面的话语权,还增加了土地的流通与 利用率,提高了土地的产量,有利于大规模的产业化的高科技农业的 发展,阿里在农业上的探索将会引起新一轮的产业调整,但是集体化之后农民的个体的话语权 将更少,国家应出台相应的法律法规保护
- Spring注入有继承关系的类(1)
bijian1013
javaspring
一个类一个类的注入
1.AClass类
package com.bijian.spring.test2;
public class AClass {
String a;
String b;
public String getA() {
return a;
}
public void setA(Strin
- 30岁转型期你能否成为成功人士
bijian1013
成功
很多人由于年轻时走了弯路,到了30岁一事无成,这样的例子大有人在。但同样也有一些人,整个职业生涯都发展得很优秀,到了30岁已经成为职场的精英阶层。由于做猎头的原因,我们接触很多30岁左右的经理人,发现他们在职业发展道路上往往有很多致命的问题。在30岁之前,他们的职业生涯表现很优秀,但从30岁到40岁这一段,很多人
- [Velocity三]基于Servlet+Velocity的web应用
bit1129
velocity
什么是VelocityViewServlet
使用org.apache.velocity.tools.view.VelocityViewServlet可以将Velocity集成到基于Servlet的web应用中,以Servlet+Velocity的方式实现web应用
Servlet + Velocity的一般步骤
1.自定义Servlet,实现VelocityViewServl
- 【Kafka十二】关于Kafka是一个Commit Log Service
bit1129
service
Kafka is a distributed, partitioned, replicated commit log service.这里的commit log如何理解?
A message is considered "committed" when all in sync replicas for that partition have applied i
- NGINX + LUA实现复杂的控制
ronin47
lua nginx 控制
安装lua_nginx_module 模块
lua_nginx_module 可以一步步的安装,也可以直接用淘宝的OpenResty
Centos和debian的安装就简单了。。
这里说下freebsd的安装:
fetch http://www.lua.org/ftp/lua-5.1.4.tar.gz
tar zxvf lua-5.1.4.tar.gz
cd lua-5.1.4
ma
- java-14.输入一个已经按升序排序过的数组和一个数字, 在数组中查找两个数,使得它们的和正好是输入的那个数字
bylijinnan
java
public class TwoElementEqualSum {
/**
* 第 14 题:
题目:输入一个已经按升序排序过的数组和一个数字,
在数组中查找两个数,使得它们的和正好是输入的那个数字。
要求时间复杂度是 O(n) 。如果有多对数字的和等于输入的数字,输出任意一对即可。
例如输入数组 1 、 2 、 4 、 7 、 11 、 15 和数字 15 。由于
- Netty源码学习-HttpChunkAggregator-HttpRequestEncoder-HttpResponseDecoder
bylijinnan
javanetty
今天看Netty如何实现一个Http Server
org.jboss.netty.example.http.file.HttpStaticFileServerPipelineFactory:
pipeline.addLast("decoder", new HttpRequestDecoder());
pipeline.addLast(&quo
- java敏感词过虑-基于多叉树原理
cngolon
违禁词过虑替换违禁词敏感词过虑多叉树
基于多叉树的敏感词、关键词过滤的工具包,用于java中的敏感词过滤
1、工具包自带敏感词词库,第一次调用时读入词库,故第一次调用时间可能较长,在类加载后普通pc机上html过滤5000字在80毫秒左右,纯文本35毫秒左右。
2、如需自定义词库,将jar包考入WEB-INF工程的lib目录,在WEB-INF/classes目录下建一个
utf-8的words.dict文本文件,
- 多线程知识
cuishikuan
多线程
T1,T2,T3三个线程工作顺序,按照T1,T2,T3依次进行
public class T1 implements Runnable{
@Override
 
- spring整合activemq
dalan_123
java spring jms
整合spring和activemq需要搞清楚如下的东东1、ConnectionFactory分: a、spring管理连接到activemq服务器的管理ConnectionFactory也即是所谓产生到jms服务器的链接 b、真正产生到JMS服务器链接的ConnectionFactory还得
- MySQL时间字段究竟使用INT还是DateTime?
dcj3sjt126com
mysql
环境:Windows XPPHP Version 5.2.9MySQL Server 5.1
第一步、创建一个表date_test(非定长、int时间)
CREATE TABLE `test`.`date_test` (`id` INT NOT NULL AUTO_INCREMENT ,`start_time` INT NOT NULL ,`some_content`
- Parcel: unable to marshal value
dcj3sjt126com
marshal
在两个activity直接传递List<xxInfo>时,出现Parcel: unable to marshal value异常。 在MainActivity页面(MainActivity页面向NextActivity页面传递一个List<xxInfo>): Intent intent = new Intent(this, Next
- linux进程的查看上(ps)
eksliang
linux pslinux ps -llinux ps aux
ps:将某个时间点的进程运行情况选取下来
转载请出自出处:http://eksliang.iteye.com/admin/blogs/2119469
http://eksliang.iteye.com
ps 这个命令的man page 不是很好查阅,因为很多不同的Unix都使用这儿ps来查阅进程的状态,为了要符合不同版本的需求,所以这个
- 为什么第三方应用能早于System的app启动
gqdy365
System
Android应用的启动顺序网上有一大堆资料可以查阅了,这里就不细述了,这里不阐述ROM启动还有bootloader,软件启动的大致流程应该是启动kernel -> 运行servicemanager 把一些native的服务用命令启动起来(包括wifi, power, rild, surfaceflinger, mediaserver等等)-> 启动Dalivk中的第一个进程Zygot
- App Framework发送JSONP请求(3)
hw1287789687
jsonp跨域请求发送jsonpajax请求越狱请求
App Framework 中如何发送JSONP请求呢?
使用jsonp,详情请参考:http://json-p.org/
如何发送Ajax请求呢?
(1)登录
/***
* 会员登录
* @param username
* @param password
*/
var user_login=function(username,password){
// aler
- 发福利,整理了一份关于“资源汇总”的汇总
justjavac
资源
觉得有用的话,可以去github关注:https://github.com/justjavac/awesome-awesomeness-zh_CN 通用
free-programming-books-zh_CN 免费的计算机编程类中文书籍
精彩博客集合 hacke2/hacke2.github.io#2
ResumeSample 程序员简历
- 用 Java 技术创建 RESTful Web 服务
macroli
java编程WebREST
转载:http://www.ibm.com/developerworks/cn/web/wa-jaxrs/
JAX-RS (JSR-311) 【 Java API for RESTful Web Services 】是一种 Java™ API,可使 Java Restful 服务的开发变得迅速而轻松。这个 API 提供了一种基于注释的模型来描述分布式资源。注释被用来提供资源的位
- CentOS6.5-x86_64位下oracle11g的安装详细步骤及注意事项
超声波
oraclelinux
前言:
这两天项目要上线了,由我负责往服务器部署整个项目,因此首先要往服务器安装oracle,服务器本身是CentOS6.5的64位系统,安装的数据库版本是11g,在整个的安装过程中碰到很多的坑,不过最后还是通过各种途径解决并成功装上了。转别写篇博客来记录完整的安装过程以及在整个过程中的注意事项。希望对以后那些刚刚接触的菜鸟们能起到一定的帮助作用。
安装过程中可能遇到的问题(注
- HttpClient 4.3 设置keeplive 和 timeout 的方法
supben
httpclient
ConnectionKeepAliveStrategy kaStrategy = new DefaultConnectionKeepAliveStrategy() {
@Override
public long getKeepAliveDuration(HttpResponse response, HttpContext context) {
long keepAlive
- Spring 4.2新特性-@Import注解的升级
wiselyman
spring 4
3.1 @Import
@Import注解在4.2之前只支持导入配置类
在4.2,@Import注解支持导入普通的java类,并将其声明成一个bean
3.2 示例
演示java类
package com.wisely.spring4_2.imp;
public class DemoService {
public void doSomethin