- Spark SQL中掌控sql语句的执行 - 了解你的查询计划
鸿乃江边鸟
本文翻译自BeinchargeofQueryExcutioninSparkSQL背景自spark2.x的sql以及申明行DataFrameAPi以来,在spark查询数据越来越方便。仅仅用几行代码就能表达出复杂的查询逻辑以及实现复杂的操作。这个api最大的优势在于用户不需要考虑太多的执行情况,自动有优化器优化出最有效率的执行方式去执行此次查询。而且有效的查询语句执行不仅是因为能够节约资源,而且能够
- 基于Spark2.x新闻网大数据实时分析可视化系统项目
飞雪雪团队
课程大纲第一章:案例需求分析与设计1.全套课程内容概述2.案例需求分析3.系统架构设计4.系统数据流程设计5.集群资源规划设计第二章:linux环境准备与设置1.Linux系统常规设置2.克隆虚拟机并进行相关的配置3.对集群中的机器进行基本配置第三章:Hadoop2.X分布式集群部署1.Hadoop2.X版本下载及安装2.Hadoop2.X分布式集群配置3.分发到其他各个机器节点4.HDFS启动集
- Spark权威指南(中文版)--第23章 生产环境中的结构化流
登峰大数据
SparkTheDefinitiveGuide(Spark权威指南)中文版。本书详细介绍了Spark2.x版本的各个模块,目前市面上最好的Spark2.x学习书籍!!!关注:登峰大数据,阅读中文Spark权威指南(完整版),系统学习Spark大数据框架!如果您觉得作者翻译的内容有帮助,请分享给更多人。您的分享,是作者翻译的动力本书前几章已经从用户的角度介绍了结构化流。这自然是应用程序的核心。本章将
- Spark3-AQE-数据倾斜Join优化
zuoseve01
spark
AdaptiveQueryExection(自适应查询计划)简称AQE,在最早在spark1.6版本就已经有了AQE;到了spark2.x版本,intel大数据团队进行了相应的原型开发和实践;到了spark3.0时代,AQE终于面向用户可以使用了注:以下代码分析基于Spark3.0.1版本1Join的自适应数据倾斜处理代码位于sql.core模块的org.apache.spark.sql.exec
- spark 提交java_java中使用SparkLauncher提交spark应用
米佗耶目
spark提交java
将开发好的sparkapplication(对于java/scala来说是jar)提交到spark集群执行的方式通常包括两种,一种是通常使用的sparksubmit脚本(spark2.x版本是spark2-shell,可以参考https://www.jianshu.com/p/1d41174441b6),另一种是spark官方提供的javaAPISparkLauncher类。下面来介绍使用Spar
- Spark之自定义AccumulatorV2
阿坤的博客
本文介绍如何使用Spark2中自定义累加器来实现数据的统计。Spark2.x之后,之前的的accumulator被废除,用AccumulatorV2代替;1.自定义AccumulatorclassStrAccumulatorextendsAccumulatorV2[String,String]{//a=10|b=20privatevarv=""overridedefisZero:Boolean=v
- Spark-通信架构
布莱安托
Spark2.x版本使用Netty通讯框架作为内部通讯组间。Spark基于Netty新的RPC框架借鉴了Akka中的设计,基于Actor模型。Spark通讯框架中各个组件(Client/Master/Worker)可以认为是一个个独立的实体,各个实体之间通过消息来进行通信。Endpoint(Client/Master/Worker)有1个InBox和多个OutBox(数量取决于当前Endpoint
- 【Spark】用scala2.11编译打包构建镜像
runzhliu
KubernetesSpark
如果关注Spark社区的同学已经知道,从Spark3.0开始,就不再支持用Scala2.11来编译了,Scala2.11相关的依赖也被Owen去掉了,所以如果要用Spark3.0的同学就需要用Scala2.12去编译打包了。而如果还在用Spark2.x版本的,至少在2.4.5的版本中,已经是将Scala2.12作为默认的Scala版本了,如果用户的程序是用Scala2.11写的,也需要将Spark
- Spark2.x精通:Master端循环消息处理源码剖析(二)
大数据开发运维架构
微信公众号:大数据开发运维架构关注可了解更多大数据相关的资讯。问题或建议,请公众号留言;如果您觉得“大数据开发运维架构”对你有帮助,欢迎转发朋友圈从微信公众号拷贝过来,格式有些错乱,建议直接去公众号阅读上一篇文章Spark2.x精通:Master端循环消息处理源码剖析(一)主要讲解了:1主节点切换后,数据恢复app、driver、executor恢复流程;2.完成数据恢复后对应App、Worker
- Spark3-AQE-数据倾斜Join优化
蠟筆小噺没有烦恼
AdaptiveQueryExection(自适应查询计划)简称AQE,在最早在spark1.6版本就已经有了AQE;到了spark2.x版本,intel大数据团队进行了相应的原型开发和实践;到了spark3.0时代,AQE终于面向用户可以使用了注:以下代码分析基于Spark3.0.1版本1Join的自适应数据倾斜处理代码位于sql.core模块的org.apache.spark.sql.exec
- Spark2.x精通:Master端循环消息处理源码剖析(一)
大数据开发运维架构
微信公众号:大数据开发运维架构关注可了解更多大数据相关的资讯。问题或建议,请公众号留言;如果您觉得“大数据开发运维架构”对你有帮助,欢迎转发朋友圈从微信公众号拷贝过来,格式有些错乱,建议直接去公众号阅读上篇文章:Spark2.x精通:Standalone模式Master节点启动源码剖析,讲了Standalone模式下Master节点的启动过程中如何进行主函数调用和初始化的,但是Master启动后还
- 基于Spark3的个性化推荐系统——理论知识
程研板
#推荐系统推荐系统算法协同过滤机器学习
本博客整理自慕课网实战《基于Spark2.x的个性化推荐系统》目录一.推荐系统的生态介绍1.生态概述2.常见问题3.效果评测二.协同过滤推荐算法原理1.基于用户的协同过滤2.基于物品的协同过滤3.基于模型的协同过滤4.缺失值填充三.ALS算法原理一.推荐系统的生态介绍1.生态概述数据算法基于关联的推荐算法:如购买鞋子的顾客,会有10%的顾客会买袜子。有Apriori算法和FP-Growth算法。基
- spark广播变量的原理_Spark2.x(六十二):(Spark2.4)共享变量 - Broadcast原理分析...
杨良枝
spark广播变量的原理
之前对Broadcast有分析,但是不够深入《Spark2.3(四十三):SparkBroadcast总结》,本章对其实现过程以及原理进行分析。带着以下几个问题去写本篇文章:1)driver端如何实现broadcast的装备,是否会把broadcast数据发送给executor端?2)executor如何获取到broadcast数据?导入Spark一个非常重要的特征就是共享变量。共享变量分为广播变
- Sparklyr
Liam_ml
Sparklyr是rstudio社区维护的一个spark的接口。文档Sparklyr文档:https://spark.rstudio.com安装Sparklyr:sparklyr::spark_install(version="2.3.0",hadoop_version="2.7"),不依赖于Spark版本,spark2.X完美兼容1.X。Spark环境配置需要注意的问题:下载和Hadoop对应版
- PySpark:DataFrame及其常用列操作
Sun_Sherry
PySparkPySpark
Spark版本:V3.2.11.DataFrame虽然RDD是Spark最基本的抽象,但RDD的计算函数对Spark而言是不透明的。也就是说Spark并不知道你要在计算函数里干什么。无论你是要做连接、过滤、选择还是聚合,对Spark来说都是一个lambda表达式而已。正是由于不能掌握RDD中的计算或表达式,因此Spark无法对表达式进行优化。为了解决上述问题,从Spark2.x开始,RDD被降级为
- spark dataframe 如何保存到本地
zy_now
在Spark2.x里面,可以直接使用以下命令df.write.format("csv").save(filepath)
- Spark2.x精通:TaskScheduler的Task任务提交源码剖析
大数据开发运维架构
微信公众号:大数据开发运维架构关注可了解更多大数据相关的资讯。问题或建议,请公众号留言;如果您觉得“大数据开发运维架构”对你有帮助,欢迎转发朋友圈从微信公众号拷贝过来,格式有些错乱,建议直接去公众号阅读接上篇文章:Spark2.x精通:Job触发流程源码深度剖析(二),我们这里继续讲解TaskScheduler如何进行Task任务提交的。1.上篇文章中最后是通过调用taskScheduler.su
- 大数据--spark
像影子追着光梦游_
大数据大数据spark
什么是SparkApacheSpark的架构基础是弹性分布式数据集(RDD),这是一种只读的多组数据项,分布在机器集群上,以容错方式维护。[2]DataframeAPI作为RDD之上的抽象发布,随后是DatasetAPI。在Spark1.x中,RDD是主要的应用程序编程接口(API),但从Spark2.x开始,鼓励使用数据集API[3],即使RDDAPI没有被弃用。[4][5]RDD技术仍然是Da
- java中使用SparkLauncher提交spark应用
alexlee666
将开发好的sparkapplication(对于java/scala来说是jar)提交到spark集群执行的方式通常包括两种,一种是通常使用的sparksubmit脚本(spark2.x版本是spark2-shell,可以参考https://www.jianshu.com/p/1d41174441b6),另一种是spark官方提供的javaAPISparkLauncher类。下面来介绍使用Spar
- Spark2.x精通:Standalone模式Master节点启动源码剖析
大数据开发运维架构
微信公众号:大数据开发运维架构关注可了解更多大数据相关的资讯。问题或建议,请公众号留言;如果您觉得“大数据开发运维架构”对你有帮助,欢迎转发朋友圈从微信公众号拷贝过来,格式有些错乱,建议直接去公众号阅读对于Spark生产环境部署模式通常是SparkStandalone或SparkOnYarn,这里我们跟踪下源码,分析Standalone模式下Master节点的启动流程,已经相关的初始化流程:源码版
- Spark2.x机器学习视频教程
菜花小噗噗
Spark2.x机器学习视频教程课程学习址:http://www.xuetuwuyou.com/course/311课程出自学途无忧网:http://www.xuetuwuyou.com本课程讲解Spark在机器学习中的应用,并介绍如何从各种公开渠道获取用于机器学习系统的数据。内容涵盖推荐系统、回归、聚类、分类等经典机器学习算法及其实际应用,涵盖使用SparkMLPipelineAPI创建和调试机
- Spark2.x 机器学习视频教程
菜花小噗噗
Spark2.x机器学习视频教程讲师:轩宇老师课程观看地址:http://www.xuetuwuyou.com/course/311课程出自学途无忧网:http://www.xuetuwuyou.com本课程讲解Spark在机器学习中的应用,并介绍如何从各种公开渠道获取用于机器学习系统的数据。内容涵盖推荐系统、回归、聚类、分类等经典机器学习算法及其实际应用,涵盖使用SparkMLPipelineA
- spark内核解析和调优指南
HUC-暖阳
spark技术篇大数据之调优篇mysqlsparkhadoophdfsjava
Spark内存管理Spark作为一个基于内存的分布式计算引擎,其内存管理模块在整个系统中扮演着非常重要的角色。理解Spark内存管理的基本原理,有助于更好地开发Spark应用程序和进行性能调优。本文中阐述的原理基于Spark2.X版本。在执行Spark的应用程序时,Spark集群会启动Driver和Executor两种JVM进程,前者为主控进程,负责创建Spark上下文,提交Spark作业(Job
- 【spark系列3】spark 3.0.1 AQE(Adaptive Query Exection)分析
鸿乃江边鸟
AQE简介从sparkconfiguration,到在最早在spark1.6版本就已经有了AQE;到了spark2.x版本,intel大数据团队进行了相应的原型开发和实践;到了spark3.0时代,Databricks和intel一起为社区贡献了新的AQEspark3.0.1中的AQE的配置配置项默认值官方说明分析spark.sql.adaptive.enabledfalse是否开启自适应查询此处
- 【spark系列3】spark 3.0.1 AQE(Adaptive Query Exection)分析
鸿乃江边鸟
spark大数据
AQE简介从sparkconfiguration,到在最早在spark1.6版本就已经有了AQE;到了spark2.x版本,intel大数据团队进行了相应的原型开发和实践;到了spark3.0时代,Databricks和intel一起为社区贡献了新的AQEspark3.0.1中的AQE的配置配置项默认值官方说明分析spark.sql.adaptive.enabledfalse是否开启自适应查询此处
- 【spark系列3】spark 3.0.1 AQE(Adaptive Query Exection)分析
鸿乃江边鸟
spark大数据
AQE简介从sparkconfiguration,到在最早在spark1.6版本就已经有了AQE;到了spark2.x版本,intel大数据团队进行了相应的原型开发和实践;到了spark3.0时代,Databricks和intel一起为社区贡献了新的AQEspark3.0.1中的AQE的配置配置项默认值官方说明分析spark.sql.adaptive.enabledfalse是否开启自适应查询此处
- HCIA-Big Data华为认证大数据工程师在线课程笔记
L小Ray想有腮
文章目录一、简介二、HDFS分布式文件系统三、MapReduce分布式离线批处理和Yarn资源协调四、Spark2.x基于内存的分布式计算五、HBase分布式NoSQL数据库HBase架构关键流程和特性FusionInsightHBase优化六、Hive分布式数据仓库概述和架构数据存储模型七、Streaming分布式流计算引擎简介系统架构Streaming特性华为StreamCQL介绍八、Flin
- spark 合并github (pull request)pr 的正确姿势
鸿乃江边鸟
spark
最近在做内部spark版本升级的工作,涉及到github上合并pr的工作,具体的是spark2.x升级到spark3.0.1时兼容hdfscdh-2.6.0-5.13.1,报编译错误[INFO]Compiling25Scalasourcesto/Users/libinsong/Documents/codes/tongdun/spark-3.0/resource-managers/yarn/targ
- Spark2.X java.net.URISyntaxException完美解决办法
zhangjunli
Sparksparkspark2.xURIException
windows下使用intellij开发sparkmllib程序发现如下错误。varspark=SparkSession.builder().master("local").appName("test").getOrCreate()运行时报错:6/08/1115:39:20INFOSharedState:Warehousepathis'file:D:\development\intellij_id
- spark2.x由浅入深深到底系列七之py4j在spark中python api的使用
weixin_34318326
大数据pythonscala
学习spark的任何技术前请先正确理解spark,可以参考:正确理解Spark我们知道spark的RDD支持scalaapi、javaapi以及pythonapi,我们分别对scalaapi与javaapi做了详细的介绍,本文我们将探讨rddpythonapi是怎么使用py4j来调用scala/java的api的,从而来实现pythonapi的功能。首先我们先介绍下py4j。一、py4jpy4j是
- PHP如何实现二维数组排序?
IT独行者
二维数组PHP排序
二维数组在PHP开发中经常遇到,但是他的排序就不如一维数组那样用内置函数来的方便了,(一维数组排序可以参考本站另一篇文章【PHP中数组排序函数详解汇总】)。二维数组的排序需要我们自己写函数处理了,这里UncleToo给大家分享一个PHP二维数组排序的函数:
代码:
functionarray_sort($arr,$keys,$type='asc'){
$keysvalue= $new_arr
- 【Hadoop十七】HDFS HA配置
bit1129
hadoop
基于Zookeeper的HDFS HA配置主要涉及两个文件,core-site和hdfs-site.xml。
测试环境有三台
hadoop.master
hadoop.slave1
hadoop.slave2
hadoop.master包含的组件NameNode, JournalNode, Zookeeper,DFSZKFailoverController
- 由wsdl生成的java vo类不适合做普通java vo
darrenzhu
VOwsdlwebservicerpc
开发java webservice项目时,如果我们通过SOAP协议来输入输出,我们会利用工具从wsdl文件生成webservice的client端类,但是这里面生成的java data model类却不适合做为项目中的普通java vo类来使用,当然有一中情况例外,如果这个自动生成的类里面的properties都是基本数据类型,就没问题,但是如果有集合类,就不行。原因如下:
1)使用了集合如Li
- JAVA海量数据处理之二(BitMap)
周凡杨
java算法bitmapbitset数据
路漫漫其修远兮,吾将上下而求索。想要更快,就要深入挖掘 JAVA 基础的数据结构,从来分析出所编写的 JAVA 代码为什么把内存耗尽,思考有什么办法可以节省内存呢? 啊哈!算法。这里采用了 BitMap 思想。
首先来看一个实验:
指定 VM 参数大小: -Xms256m -Xmx540m
- java类型与数据库类型
g21121
java
很多时候我们用hibernate的时候往往并不是十分关心数据库类型和java类型的对应关心,因为大多数hbm文件是自动生成的,但有些时候诸如:数据库设计、没有生成工具、使用原始JDBC、使用mybatis(ibatIS)等等情况,就会手动的去对应数据库与java的数据类型关心,当然比较简单的数据类型即使配置错了也会很快发现问题,但有些数据类型却并不是十分常见,这就给程序员带来了很多麻烦。
&nb
- Linux命令
510888780
linux命令
系统信息
arch 显示机器的处理器架构(1)
uname -m 显示机器的处理器架构(2)
uname -r 显示正在使用的内核版本
dmidecode -q 显示硬件系统部件 - (SMBIOS / DMI)
hdparm -i /dev/hda 罗列一个磁盘的架构特性
hdparm -tT /dev/sda 在磁盘上执行测试性读取操作
cat /proc/cpuinfo 显示C
- java常用JVM参数
墙头上一根草
javajvm参数
-Xms:初始堆大小,默认为物理内存的1/64(<1GB);默认(MinHeapFreeRatio参数可以调整)空余堆内存小于40%时,JVM就会增大堆直到-Xmx的最大限制
-Xmx:最大堆大小,默认(MaxHeapFreeRatio参数可以调整)空余堆内存大于70%时,JVM会减少堆直到 -Xms的最小限制
-Xmn:新生代的内存空间大小,注意:此处的大小是(eden+ 2
- 我的spring学习笔记9-Spring使用工厂方法实例化Bean的注意点
aijuans
Spring 3
方法一:
<bean id="musicBox" class="onlyfun.caterpillar.factory.MusicBoxFactory"
factory-method="createMusicBoxStatic"></bean>
方法二:
- mysql查询性能优化之二
annan211
UNIONmysql查询优化索引优化
1 union的限制
有时mysql无法将限制条件从外层下推到内层,这使得原本能够限制部分返回结果的条件无法应用到内层
查询的优化上。
如果希望union的各个子句能够根据limit只取部分结果集,或者希望能够先排好序在
合并结果集的话,就需要在union的各个子句中分别使用这些子句。
例如 想将两个子查询结果联合起来,然后再取前20条记录,那么mys
- 数据的备份与恢复
百合不是茶
oraclesql数据恢复数据备份
数据的备份与恢复的方式有: 表,方案 ,数据库;
数据的备份:
导出到的常见命令;
参数 说明
USERID 确定执行导出实用程序的用户名和口令
BUFFER 确定导出数据时所使用的缓冲区大小,其大小用字节表示
FILE 指定导出的二进制文
- 线程组
bijian1013
java多线程threadjava多线程线程组
有些程序包含了相当数量的线程。这时,如果按照线程的功能将他们分成不同的类别将很有用。
线程组可以用来同时对一组线程进行操作。
创建线程组:ThreadGroup g = new ThreadGroup(groupName);
&nbs
- top命令找到占用CPU最高的java线程
bijian1013
javalinuxtop
上次分析系统中占用CPU高的问题,得到一些使用Java自身调试工具的经验,与大家分享。 (1)使用top命令找出占用cpu最高的JAVA进程PID:28174 (2)如下命令找出占用cpu最高的线程
top -Hp 28174 -d 1 -n 1
32694 root 20 0 3249m 2.0g 11m S 2 6.4 3:31.12 java
- 【持久化框架MyBatis3四】MyBatis3一对一关联查询
bit1129
Mybatis3
当两个实体具有1对1的对应关系时,可以使用One-To-One的进行映射关联查询
One-To-One示例数据
以学生表Student和地址信息表为例,每个学生都有都有1个唯一的地址(现实中,这种对应关系是不合适的,因为人和地址是多对一的关系),这里只是演示目的
学生表
CREATE TABLE STUDENTS
(
- C/C++图片或文件的读写
bitcarter
写图片
先看代码:
/*strTmpResult是文件或图片字符串
* filePath文件需要写入的地址或路径
*/
int writeFile(std::string &strTmpResult,std::string &filePath)
{
int i,len = strTmpResult.length();
unsigned cha
- nginx自定义指定加载配置
ronin47
进入 /usr/local/nginx/conf/include 目录,创建 nginx.node.conf 文件,在里面输入如下代码:
upstream nodejs {
server 127.0.0.1:3000;
#server 127.0.0.1:3001;
keepalive 64;
}
server {
liste
- java-71-数值的整数次方.实现函数double Power(double base, int exponent),求base的exponent次方
bylijinnan
double
public class Power {
/**
*Q71-数值的整数次方
*实现函数double Power(double base, int exponent),求base的exponent次方。不需要考虑溢出。
*/
private static boolean InvalidInput=false;
public static void main(
- Android四大组件的理解
Cb123456
android四大组件的理解
分享一下,今天在Android开发文档-开发者指南中看到的:
App components are the essential building blocks of an Android
- [宇宙与计算]涡旋场计算与拓扑分析
comsci
计算
怎么阐述我这个理论呢? 。。。。。。。。。
首先: 宇宙是一个非线性的拓扑结构与涡旋轨道时空的统一体。。。。
我们要在宇宙中寻找到一个适合人类居住的行星,时间非常重要,早一个刻度和晚一个刻度,这颗行星的
- 同一个Tomcat不同Web应用之间共享会话Session
cwqcwqmax9
session
实现两个WEB之间通过session 共享数据
查看tomcat 关于 HTTP Connector 中有个emptySessionPath 其解释如下:
If set to true, all paths for session cookies will be set to /. This can be useful for portlet specification impleme
- springmvc Spring3 MVC,ajax,乱码
dashuaifu
springjquerymvcAjax
springmvc Spring3 MVC @ResponseBody返回,jquery ajax调用中文乱码问题解决
Spring3.0 MVC @ResponseBody 的作用是把返回值直接写到HTTP response body里。具体实现AnnotationMethodHandlerAdapter类handleResponseBody方法,具体实
- 搭建WAMP环境
dcj3sjt126com
wamp
这里先解释一下WAMP是什么意思。W:windows,A:Apache,M:MYSQL,P:PHP。也就是说本文说明的是在windows系统下搭建以apache做服务器、MYSQL为数据库的PHP开发环境。
工欲善其事,必须先利其器。因为笔者的系统是WinXP,所以下文指的系统均为此系统。笔者所使用的Apache版本为apache_2.2.11-
- yii2 使用raw http request
dcj3sjt126com
http
Parses a raw HTTP request using yii\helpers\Json::decode()
To enable parsing for JSON requests you can configure yii\web\Request::$parsers using this class:
'request' =&g
- Quartz-1.8.6 理论部分
eksliang
quartz
转载请出自出处:http://eksliang.iteye.com/blog/2207691 一.概述
基于Quartz-1.8.6进行学习,因为Quartz2.0以后的API发生的非常大的变化,统一采用了build模式进行构建;
什么是quartz?
答:简单的说他是一个开源的java作业调度框架,为在 Java 应用程序中进行作业调度提供了简单却强大的机制。并且还能和Sp
- 什么是POJO?
gupeng_ie
javaPOJO框架Hibernate
POJO--Plain Old Java Objects(简单的java对象)
POJO是一个简单的、正规Java对象,它不包含业务逻辑处理或持久化逻辑等,也不是JavaBean、EntityBean等,不具有任何特殊角色和不继承或不实现任何其它Java框架的类或接口。
POJO对象有时也被称为Data对象,大量应用于表现现实中的对象。如果项目中使用了Hiber
- jQuery网站顶部定时折叠广告
ini
JavaScripthtmljqueryWebcss
效果体验:http://hovertree.com/texiao/jquery/4.htmHTML文件代码:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title>网页顶部定时收起广告jQuery特效 - HoverTree<
- Spring boot内嵌的tomcat启动失败
kane_xie
spring boot
根据这篇guide创建了一个简单的spring boot应用,能运行且成功的访问。但移植到现有项目(基于hbase)中的时候,却报出以下错误:
SEVERE: A child container failed during start
java.util.concurrent.ExecutionException: org.apache.catalina.Lif
- leetcode: sort list
michelle_0916
Algorithmlinked listsort
Sort a linked list in O(n log n) time using constant space complexity.
====analysis=======
mergeSort for singly-linked list
====code======= /**
* Definition for sin
- nginx的安装与配置,中途遇到问题的解决
qifeifei
nginx
我使用的是ubuntu13.04系统,在安装nginx的时候遇到如下几个问题,然后找思路解决的,nginx 的下载与安装
wget http://nginx.org/download/nginx-1.0.11.tar.gz
tar zxvf nginx-1.0.11.tar.gz
./configure
make
make install
安装的时候出现
- 用枚举来处理java自定义异常
tcrct
javaenumexception
在系统开发过程中,总少不免要自己处理一些异常信息,然后将异常信息变成友好的提示返回到客户端的这样一个过程,之前都是new一个自定义的异常,当然这个所谓的自定义异常也是继承RuntimeException的,但这样往往会造成异常信息说明不一致的情况,所以就想到了用枚举来解决的办法。
1,先创建一个接口,里面有两个方法,一个是getCode, 一个是getMessage
public
- erlang supervisor分析
wudixiaotie
erlang
当我们给supervisor指定需要创建的子进程的时候,会指定M,F,A,如果是simple_one_for_one的策略的话,启动子进程的方式是supervisor:start_child(SupName, OtherArgs),这种方式可以根据调用者的需求传不同的参数给需要启动的子进程的方法。和最初的参数合并成一个数组,A ++ OtherArgs。那么这个时候就有个问题了,既然参数不一致,那