- spark-streaming与kafka的整合
王大为学习笔记
1.概述在2.x中,spark有两个用来与kafka整合的代码,版本代号为0.8和0.10,由于在0.8,kafka有两套消费者api,根据高级api得到了Receiver-basedApproach,根据低级api得到了DirectApproach,而在0.10由于kafka只有一套消费者api了,所以也只有DirectApproach2.DirectApproach由于0.8与0.10的Dir
- Spark-Streaming+Kafka+mysql实战示例
大数据魔法师
大数据大数据kafkaspark
文章目录前言一、简介1.Spark-Streaming简介2.Kafka简介二、实战演练1.MySQL数据库部分2.导入依赖3.编写实体类代码4.编写kafka主题管理代码5.编写kafka生产者代码6.编写Spark-Streaming代码7.查看数据库8.代码下载总结前言本文将介绍一个使用SparkStreaming和Kafka进行实时数据处理的示例。通过该示例,您将了解到如何使用SparkS
- Spark-Streaming KafkaClient 异常解决
大猪大猪
在使用Spark-Streaming消费Kafka数据的时候,使用如下命令提交到yarnCausedby:java.lang.IllegalArgumentException:Couldnotfinda'KafkaClient'entryintheJAASconfiguration.Systemproperty'java.security.auth.login.config'isnotsetato
- Flink(一) Flink是什么,特点和优势,应用场景
plenilune-望月
Flink实时计算引擎
在当前数据量激增的时代,各种业务场景都有大量的业务数据产生,对于这些不断产生的数据应该如何进行有效的处理,成为当下大多数公司所面临的问题。目前比较流行的大数据处理引擎ApacheSpark,基本上已经取代了MapReduce成为当前大数据处理的标准。但对实时数据处理来说,ApacheSpark的Spark-Streaming还有性能改进的空间。对于Spark-Streaming的流计算本质上还是批
- 【Spark Streaming】(二)Spark Streaming - 实时数据采集
屡傻不改
SparkStreamingSparkStreaming实时数据采集
导入spark和spark-streaming依赖包org.apache.sparkspark-core_2.112.4.5org.apache.sparkspark-streaming_2.112.4.5案例一:SparkStreaming接受socket数据,实现单词计数WordCountspark版本从本机的7777端口源源不断地收到以换行符分隔的文本数据流,并计算单词个数packagecn
- 2018-12-25
宇智波_佐助
spark-streaming消费kafka数据:首次消费截图:手动kill,再次启动:KafkaManager类:packageorg.apache.spark.streaming.kafkaimportkafka.common.TopicAndPartitionimportkafka.message.MessageAndMetadataimportkafka.serializer.Decode
- 第五篇|Spark-Streaming编程指南(2)
大数据技术与数仓
第四篇|Spark-Streaming编程指南(1)对SparkStreaming执行机制、Transformations与OutputOperations、SparkStreaming数据源(Sources)、SparkStreaming数据汇(Sinks)进行了讨论。本文将延续上篇内容,主要包括以下内容:有状态的计算基于时间的窗口操作持久化检查点Checkpoint使用DataFrames&S
- Spark-Streaming之window滑动窗口应用
kwu_ganymede
Sparksparkstreaming实时
Spark-Streaming之window滑动窗口应用,SparkStreaming提供了滑动窗口操作的支持,从而让我们可以对一个滑动窗口内的数据执行计算操作。每次掉落在窗口内的RDD的数据,会被聚合起来执行计算操作,然后生成的RDD,会作为windowDStream的一个RDD。网官图中所示,就是对每三秒钟的数据执行一次滑动窗口计算,这3秒内的3个RDD会被聚合起来进行处理,然后过了两秒钟,又
- spark-streaming windows netcat
数据萌新
问题描述SparkStreaming的WordCountCentos下安装nc命令工具netcat(nc)是一个简单而有用的工具,被誉为网络安全界的“瑞士军刀”,不仅可以通过使用TCP或UDP协议的网络连接读写数据,同时还是一个功能强大的网络调试和探测工具,能够建立你需要的几乎所有类型的网络连接。在Linux终端窗口可以直接使用yum工具进行安装:[root@master01spark]#yumi
- spark-streaming笔记
最美不过你回眸
老师笔记
SparkStreaming笔记框架的类型:1.离线批处理:mapreduce、hive、SparkCore、Sparksql=》mapreducespark2.SQL的交互式查询:hive、SparkSQL3.流式框架:flume、kafka、SparkStreaming4.实时计算:SparkStreamingStrom(Clojure编写的)/jStrom(java编写的)完全实时的流式数据
- spark 调度优化
skyjunjun
1.问题在做spark-streaming的时候最近遇到个特别的问题:每个batch的任务调度执行的时候,某些excutor上调度的任务特别多,其他的excutor上只调度一个image.png甚至200个task只会调度到2个excutor上:image.png2.分析第二个图上看到下面所有的LocalityLevel都为:NODE_LOCAL第一个图上的调度很多的task也是NODE_LOCA
- 淘宝双11实时数据分析项目报告
阿坨
数据分析kafkasparkhivesocketio
文章目录环境部署项目主要架构具体步骤流计算步骤python连接kafkaspark-streaming集成kafka编写并运行spark-streaming程序(实时词频统计)编写并运行spark-streaming程序(累加词频统计)在kafka上查看数据统计结果批量计算步骤往hive中导入数据sqoop导出数据到mysql淘宝RFM用户划分Flask-SocketIO实时推送数据Echarts
- 11 sparkstreaming监控端口信息
张力的程序园
前面我们已经了解了sparksql的使用,这一节我们将了解spark当中的流处理即spark-streaming。1系统、软件以及前提约束CentOS764工作站作者的机子ip是192.168.100.200,请读者根据自己实际情况设置已完成spark中的DataFrame编程https://www.jianshu.com/nb/37554943xshell为去除权限对操作的影响,所有操作都以ro
- spark jdbc java_spark之JDBC开发(实战)
weixin_39937312
sparkjdbcjava
一、概述SparkCore、Spark-SQL与Spark-Streaming都是相同的,编写好之后打成jar包使用spark-submit命令提交到集群运行应用$SPARK_HOME/bin#./spark-submit--masterspark://Master01:7077--classMainClassFullName[--files$HIVE_HOME/conf/hive-site.xm
- kafka consumer 日志疯狂输出 marking the coordinator host:9092 for dead group consumer-test
xc丶卡卡
kafkakafka
最近在调试spark-streaming消费kafka消息时发现日志疯狂输出markingthecoordinatorhost:9092fordeadgroupconsumer-testkafkaserver为集群,连接时使用的是hostname:9092方法去连接,程序也不报错,去kafkaserver当中查询consumer-test组也存在,经过排查发现是由于我的kafka集群某些hostn
- Spark框架 及 pyspark库
劫径
大数据框架spark大数据
Spark简介开启sparklocal模式(用于调试代码)集群模式spark-core(RDD)RDD的常用算子transformationvalue型transformationkey-value型transformationactionpersist关闭spark案例SparkSQL(DataFrame)DataFrame简介DataFrame常用算子流式计算Spark-Streaming(基
- spark-streaming pull方式拉取 flume-1.6.0-cdh5.10.1数据
sunnyboy_4
hadoopsparkflume
注意:文章末尾提供apache-flume-1.6.0-cdh5.10.1-bin网盘资源连接1、flume配置文件flume-conf-spark-netcat-pull.propertiesa1.sources=r1a1.sinks=k1a1.channels=c1a1.sources.r1.type=netcata1.sources.r1.bind=0.0.0.0a1.sources.r1.
- Apache Flink 在同程艺龙实时计算平台的研发与应用实践
Apache Flink
Flink实时计算大数据大数据实时计算流计算云计算flink
本文主要介绍ApacheFlink在同程艺龙的应用实践,从当前同程艺龙实时计算平台现状、建设过程、易用性提升、稳定性优化四方面分享了同城艺龙实时计算平台的建设经验,供大家参考。1.背景介绍在2015年初,为了能够采集到用户在PC,APP等平台上的行为轨迹,我们开始开发实时应用。那时可选的技术架构还是比较少的,实时计算框架这块,当时比较主流的有Storm和Spark-streaming。综合考虑实时
- 让Spark-Streaming在Yarn上长时间运行
数大招疯
对于长时间运行的SparkStreaming作业,一旦提交到YARN群集便需要永久运行,直到有意停止。任何中断都会引起严重的处理延迟,并可能导致数据丢失或重复。YARN和ApacheSpark都不是为了执行长时间运行的服务而设计的。但是,它们已经成功地满足了近实时数据处理作业的常驻需求。成功并不一定意味着没有技术挑战。这篇博客总结了在安全的YARN集群上,运行一个关键任务且长时间的SparkStr
- spark实时处理hdfs流数据
gk4030
项目说明Spark构建一个实时数据处理及展示系统流数据数据处理:scala调用spark-SQL:python如图:Paste_Image.png问题总结1、spark-streaming流处理2、sbt打包3、hdfs小文件(20150701_记,后续补充)后续1、flume、kafka结合spark2、spark处理数据存放到hbase
- Spark-streaming源码走读(一)
小五_555
继续一下源码的走读啊,最近看了点别的源代码,发现自己好像一个不会写代码的孩子一样。。。。总觉得自己差了一点什么,但是又说不上来,只能继续努力了。继续上一个部分,start方法里面有个eventLoop,估计是监听一堆事件的,command+B,看下JobSchedulerEvent有什么类型Event类型eventLoop内部看到这里的第一反应是,里面是用队列来做的,而且长度没限制,当然也没法限制
- 基于flink sql构建实时数据仓库
愤怒的谜团
1、需求背景根据目前大数据这一块的发展,已经不局限于离线的分析,挖掘数据潜在的价值,数据的时效性最近几年变得刚需,实时处理的框架有storm,spark-streaming,flink等。想要做到实时数据这个方案可行,需要考虑以下几点:1、状态机制2、精确一次语义3、高吞吐量4、可弹性伸缩的应用5、容错机制,刚好这几点,flink都完美的实现了,并且支持flinksql高级API,减少了开发成本,
- 大数据-序篇
太菜了-Andy
大数据
工作多年,回首以前,个人做的技术面宽,而深度不够。而如今失业再次面试,屡屡碰壁,痛定思痛,从基础再次着手,开始巩固定学习.java很核心,但个人一般,javaweb每一段都能自主开发,但不核心scala,python都可以玩,但不够精通大数据中,hive,spark-streaming,spark-sql,kafka都一般般那就大数据领域开始学吧,从mr开始,java/scala/python能满
- 大数据开发-Spark-Streaming处理数据到mysql
大数据
前面一篇讲到streamin读取kafka数据加工处理后写到kafka数据,大数据开发-Spark-开发Streaming处理数据&&写入Kafka是针对比如推荐领域,实时标签等场景对于实时处理结果放到mysql也是一种常用方式,假设一些车辆调度的地理位置信息处理后写入到mysql1.说明数据表如下:createdatabasetest;usetest;DROPTABLEIFEXISTScar_g
- 2021-03-08~09~10~11~12 大数据课程笔记 day47day48day49day50day51
Rich Dad
西行日记lampscipyzkmakefilecrm
@R星校长大数据技术之Flink第一章初识Flink 在当前数据量激增的时代,各种业务场景都有大量的业务数据产生,对于这些不断产生的数据应该如何进行有效的处理,成为当下大多数公司所面临的问题。目前比较流行的大数据处理引擎ApacheSpark,基本上已经取代了MapReduce成为当前大数据处理的标准。但对实时数据处理来说,ApacheSpark的Spark-Streaming还有性能改进的空间
- 【转载】Yarn上常驻Spark-Streaming程序调优
大数据技术进阶
对于长时间运行的SparkStreaming作业,一旦提交到YARN群集便需要永久运行,直到有意停止。任何中断都会引起严重的处理延迟,并可能导致数据丢失或重复。YARN和ApacheSpark都不是为了执行长时间运行的服务而设计的。但是,它们已经成功地满足了近实时数据处理作业的常驻需求。成功并不一定意味着没有技术挑战。这篇博客总结了在安全的YARN集群上,运行一个关键任务且长时间的SparkStr
- 必备干货 | Hbase简介以及数据结构和表详解
陈敬雷-充电了么-CEO兼CTO
人工智能大数据Hbase人工智能大数据数据库hbase分布式
注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷先生的新书《分布式机器学习实战》(人工智能科学与技术丛书)【陈敬雷编著】【清华大学出版社】文章目录前言Hbase原理和功能介绍1.Hbase特性2.Hbase的架构核心组件Hbase数据结构和表详解总结前言Hbase经常用来存储实时数据,比如Storm/Flink/Spark-Streaming消费用户行为日志数据进行处理后存储到Hbase
- spark-streaming-kafka-0-10源码分析
tracy_668
[TOC]spark-streaming为了匹配0.10以后版本的kafka客户端变化推出了一个目前还是Experimental状态的spark-streaming-kafka-0-10客户端首先看下初始化kafkastream的方法声明,defcreateDirectStream[K,V](ssc:StreamingContext,locationStrategy:LocationStrateg
- 如何创建 SparkContext,SQLContext,StreamingContext 的几种方式?
曲健磊
【Spark】
首先,使用ScalaIDE或IDEA创建Scala的Maven工程。需要用到spark-core,spark-sql,spark-streaming的jar包,pom文件如下:2.1.02.11org.apache.sparkspark-core_${scala.version}${spark.version}org.apache.sparkspark-streaming_${scala.vers
- Spark streaming基于kafka 以Receiver方式获取数据 原理和案例实战
二府村
Spark梦想
本博文讲述的内容主要包括:1,SparkStreamingonKafkaReceiver工作原理机制2,SparkStreamingonKafkaReceiver案例实战3,SparkStreamingonKafkaReceiver源码解析一:SparkStreamingonKafkaReceiver简介:1、Spark-Streaming获取kafka数据的两种方式-Receiver与Direc
- 辗转相处求最大公约数
沐刃青蛟
C++漏洞
无言面对”江东父老“了,接触编程一年了,今天发现还不会辗转相除法求最大公约数。惭愧惭愧!
为此,总结一下以方便日后忘了好查找。
1.输入要比较的两个数a,b
忽略:2.比较大小(因为后面要的是大的数对小的数做%操作)
3.辗转相除(用循环不停的取余,如a%b,直至b=0)
4.最后的a为两数的最大公约数
&
- F5负载均衡会话保持技术及原理技术白皮书
bijian1013
F5负载均衡
一.什么是会话保持? 在大多数电子商务的应用系统或者需要进行用户身份认证的在线系统中,一个客户与服务器经常经过好几次的交互过程才能完成一笔交易或者是一个请求的完成。由于这几次交互过程是密切相关的,服务器在进行这些交互过程的某一个交互步骤时,往往需要了解上一次交互过程的处理结果,或者上几步的交互过程结果,服务器进行下
- Object.equals方法:重载还是覆盖
Cwind
javagenericsoverrideoverload
本文译自StackOverflow上对此问题的讨论。
原问题链接
在阅读Joshua Bloch的《Effective Java(第二版)》第8条“覆盖equals时请遵守通用约定”时对如下论述有疑问:
“不要将equals声明中的Object对象替换为其他的类型。程序员编写出下面这样的equals方法并不鲜见,这会使程序员花上数个小时都搞不清它为什么不能正常工作:”
pu
- 初始线程
15700786134
暑假学习的第一课是讲线程,任务是是界面上的一条线运动起来。
既然是在界面上,那必定得先有一个界面,所以第一步就是,自己的类继承JAVA中的JFrame,在新建的类中写一个界面,代码如下:
public class ShapeFr
- Linux的tcpdump
被触发
tcpdump
用简单的话来定义tcpdump,就是:dump the traffic on a network,根据使用者的定义对网络上的数据包进行截获的包分析工具。 tcpdump可以将网络中传送的数据包的“头”完全截获下来提供分析。它支 持针对网络层、协议、主机、网络或端口的过滤,并提供and、or、not等逻辑语句来帮助你去掉无用的信息。
实用命令实例
默认启动
tcpdump
普通情况下,直
- 安卓程序listview优化后还是卡顿
肆无忌惮_
ListView
最近用eclipse开发一个安卓app,listview使用baseadapter,里面有一个ImageView和两个TextView。使用了Holder内部类进行优化了还是很卡顿。后来发现是图片资源的问题。把一张分辨率高的图片放在了drawable-mdpi文件夹下,当我在每个item中显示,他都要进行缩放,导致很卡顿。解决办法是把这个高分辨率图片放到drawable-xxhdpi下。
&nb
- 扩展easyUI tab控件,添加加载遮罩效果
知了ing
jquery
(function () {
$.extend($.fn.tabs.methods, {
//显示遮罩
loading: function (jq, msg) {
return jq.each(function () {
var panel = $(this).tabs(&
- gradle上传jar到nexus
矮蛋蛋
gradle
原文地址:
https://docs.gradle.org/current/userguide/maven_plugin.html
configurations {
deployerJars
}
dependencies {
deployerJars "org.apache.maven.wagon
- 千万条数据外网导入数据库的解决方案。
alleni123
sqlmysql
从某网上爬了数千万的数据,存在文本中。
然后要导入mysql数据库。
悲剧的是数据库和我存数据的服务器不在一个内网里面。。
ping了一下, 19ms的延迟。
于是下面的代码是没用的。
ps = con.prepareStatement(sql);
ps.setString(1, info.getYear())............;
ps.exec
- JAVA IO InputStreamReader和OutputStreamReader
百合不是茶
JAVA.io操作 字符流
这是第三篇关于java.io的文章了,从开始对io的不了解-->熟悉--->模糊,是这几天来对文件操作中最大的感受,本来自己认为的熟悉了的,刚刚在回想起前面学的好像又不是很清晰了,模糊对我现在或许是最好的鼓励 我会更加的去学 加油!:
JAVA的API提供了另外一种数据保存途径,使用字符流来保存的,字符流只能保存字符形式的流
字节流和字符的难点:a,怎么将读到的数据
- MO、MT解读
bijian1013
GSM
MO= Mobile originate,上行,即用户上发给SP的信息。MT= Mobile Terminate,下行,即SP端下发给用户的信息;
上行:mo提交短信到短信中心下行:mt短信中心向特定的用户转发短信,你的短信是这样的,你所提交的短信,投递的地址是短信中心。短信中心收到你的短信后,存储转发,转发的时候就会根据你填写的接收方号码寻找路由,下发。在彩信领域是一样的道理。下行业务:由SP
- 五个JavaScript基础问题
bijian1013
JavaScriptcallapplythisHoisting
下面是五个关于前端相关的基础问题,但却很能体现JavaScript的基本功底。
问题1:Scope作用范围
考虑下面的代码:
(function() {
var a = b = 5;
})();
console.log(b);
什么会被打印在控制台上?
回答:
上面的代码会打印 5。
&nbs
- 【Thrift二】Thrift Hello World
bit1129
Hello world
本篇,不考虑细节问题和为什么,先照葫芦画瓢写一个Thrift版本的Hello World,了解Thrift RPC服务开发的基本流程
1. 在Intellij中创建一个Maven模块,加入对Thrift的依赖,同时还要加上slf4j依赖,如果不加slf4j依赖,在后面启动Thrift Server时会报错
<dependency>
- 【Avro一】Avro入门
bit1129
入门
本文的目的主要是总结下基于Avro Schema代码生成,然后进行序列化和反序列化开发的基本流程。需要指出的是,Avro并不要求一定得根据Schema文件生成代码,这对于动态类型语言很有用。
1. 添加Maven依赖
<?xml version="1.0" encoding="UTF-8"?>
<proj
- 安装nginx+ngx_lua支持WAF防护功能
ronin47
需要的软件:LuaJIT-2.0.0.tar.gz nginx-1.4.4.tar.gz &nb
- java-5.查找最小的K个元素-使用最大堆
bylijinnan
java
import java.util.Arrays;
import java.util.Random;
public class MinKElement {
/**
* 5.最小的K个元素
* I would like to use MaxHeap.
* using QuickSort is also OK
*/
public static void
- TCP的TIME-WAIT
bylijinnan
socket
原文连接:
http://vincent.bernat.im/en/blog/2014-tcp-time-wait-state-linux.html
以下为对原文的阅读笔记
说明:
主动关闭的一方称为local end,被动关闭的一方称为remote end
本地IP、本地端口、远端IP、远端端口这一“四元组”称为quadruplet,也称为socket
1、TIME_WA
- jquery ajax 序列化表单
coder_xpf
Jquery ajax 序列化
checkbox 如果不设定值,默认选中值为on;设定值之后,选中则为设定的值
<input type="checkbox" name="favor" id="favor" checked="checked"/>
$("#favor&quo
- Apache集群乱码和最高并发控制
cuisuqiang
apachetomcat并发集群乱码
都知道如果使用Http访问,那么在Connector中增加URIEncoding即可,其实使用AJP时也一样,增加useBodyEncodingForURI和URIEncoding即可。
最大连接数也是一样的,增加maxThreads属性即可,如下,配置如下:
<Connector maxThreads="300" port="8019" prot
- websocket
dalan_123
websocket
一、低延迟的客户端-服务器 和 服务器-客户端的连接
很多时候所谓的http的请求、响应的模式,都是客户端加载一个网页,直到用户在进行下一次点击的时候,什么都不会发生。并且所有的http的通信都是客户端控制的,这时候就需要用户的互动或定期轮训的,以便从服务器端加载新的数据。
通常采用的技术比如推送和comet(使用http长连接、无需安装浏览器安装插件的两种方式:基于ajax的长
- 菜鸟分析网络执法官
dcj3sjt126com
网络
最近在论坛上看到很多贴子在讨论网络执法官的问题。菜鸟我正好知道这回事情.人道"人之患好为人师" 手里忍不住,就写点东西吧. 我也很忙.又没有MM,又没有MONEY....晕倒有点跑题.
OK,闲话少说,切如正题. 要了解网络执法官的原理. 就要先了解局域网的通信的原理.
前面我们看到了.在以太网上传输的都是具有以太网头的数据包. 
- Android相对布局属性全集
dcj3sjt126com
android
RelativeLayout布局android:layout_marginTop="25dip" //顶部距离android:gravity="left" //空间布局位置android:layout_marginLeft="15dip //距离左边距
// 相对于给定ID控件android:layout_above 将该控件的底部置于给定ID的
- Tomcat内存设置详解
eksliang
jvmtomcattomcat内存设置
Java内存溢出详解
一、常见的Java内存溢出有以下三种:
1. java.lang.OutOfMemoryError: Java heap space ----JVM Heap(堆)溢出JVM在启动的时候会自动设置JVM Heap的值,其初始空间(即-Xms)是物理内存的1/64,最大空间(-Xmx)不可超过物理内存。
可以利用JVM提
- Java6 JVM参数选项
greatwqs
javaHotSpotjvmjvm参数JVM Options
Java 6 JVM参数选项大全(中文版)
作者:Ken Wu
Email:
[email protected]
转载本文档请注明原文链接 http://kenwublog.com/docs/java6-jvm-options-chinese-edition.htm!
本文是基于最新的SUN官方文档Java SE 6 Hotspot VM Opt
- weblogic创建JMC
i5land
weblogicjms
进入 weblogic控制太
1.创建持久化存储
--Services--Persistant Stores--new--Create FileStores--name随便起--target默认--Directory写入在本机建立的文件夹的路径--ok
2.创建JMS服务器
--Services--Messaging--JMS Servers--new--name随便起--Pers
- 基于 DHT 网络的磁力链接和BT种子的搜索引擎架构
justjavac
DHT
上周开发了一个磁力链接和 BT 种子的搜索引擎 {Magnet & Torrent},本文简单介绍一下主要的系统功能和用到的技术。
系统包括几个独立的部分:
使用 Python 的 Scrapy 框架开发的网络爬虫,用来爬取磁力链接和种子;
使用 PHP CI 框架开发的简易网站;
搜索引擎目前直接使用的 MySQL,将来可以考虑使
- sql添加、删除表中的列
macroli
sql
添加没有默认值:alter table Test add BazaarType char(1)
有默认值的添加列:alter table Test add BazaarType char(1) default(0)
删除没有默认值的列:alter table Test drop COLUMN BazaarType
删除有默认值的列:先删除约束(默认值)alter table Test DRO
- PHP中二维数组的排序方法
abc123456789cba
排序二维数组PHP
<?php/*** @package BugFree* @version $Id: FunctionsMain.inc.php,v 1.32 2005/09/24 11:38:37 wwccss Exp $*** Sort an two-dimension array by some level
- hive优化之------控制hive任务中的map数和reduce数
superlxw1234
hivehive优化
一、 控制hive任务中的map数: 1. 通常情况下,作业会通过input的目录产生一个或者多个map任务。 主要的决定因素有: input的文件总个数,input的文件大小,集群设置的文件块大小(目前为128M, 可在hive中通过set dfs.block.size;命令查看到,该参数不能自定义修改);2. 
- Spring Boot 1.2.4 发布
wiselyman
spring boot
Spring Boot 1.2.4已于6.4日发布,repo.spring.io and Maven Central可以下载(推荐使用maven或者gradle构建下载)。
这是一个维护版本,包含了一些修复small number of fixes,建议所有的用户升级。
Spring Boot 1.3的第一个里程碑版本将在几天后发布,包含许多