- spark从入门到放弃二十八:Spark Sql (1)Data Set
意浅离殇
文章地址:http://www.haha174.top/article/details/257834项目源码:https://github.com/haha174/spark.git1.简介SparkSql是Spark中的一个模块,主要是用于进行结构化数据处理。它提供的最核心的编程抽象,就是DataFrame。同时SparkSql还可以作为分布式sql查询引擎。SaprkSql最重要的功能之一,就
- SparkSession对象操作--学习笔记
祈愿lucky
大数据学习笔记javascript
1,SparkSession对象操作frompyspark.sqlimportSparkSessionfrompysparkimportSparkConffrompyspark.sqlimportfunctionsasF"""创建ss对象时可以指定一些参数如果参数在脚本中不生效,就需要通过saprk-submit指令中进行设置sparksql的分区数是由catalyst引擎的优化器决定发生shuf
- Saprk SQL基础知识
MSJ3917
sql数据库
一.SparkSQL基本介绍1.什么是SparkSQLSparkSQL是Spark多种组件中其中一个,主要是用于处理大规模的[结构化数据]SparkSQL的特点:1).融合性:既可以使用SQL语句,也可以编写代码,同时支持两者混合使用.2).统一的数据访问:SparkSQL用统一的API对接不同的数据源3).Hive的兼容性:SparkSQL可以和Hive进行整合,合并后将执行引擎换成Spark,
- 如何设置和读取Spark配置
话数Science
大数据Sparkspark大数据
设置在SaprkConf中设置,如valconf=newSparkConf().setMaster("local").setAppName("Myapplication").set("spark.executor.memory","1g")valsc=newSparkContext(conf)或者通过System.properties设置,如System.setProperty("spark.ex
- wiondow系统-python中缺少JDK安装(超详解)!!!
干净的颜色
java开发语言pythonjdk
因为学习python中,用到Pysaprk,但因缺少JDK而报错,解决方法如下下载新款且稳定的17版本(21不推荐)官网下载有限速设置,压缩包我已经放在下面了,注意提取百度网盘链接:https://pan.baidu.com/s/1FCd3fkj3AzpVjrQqG4yPGA?pwd=0000提取码:0000解压,注意文件夹尽量不要中文命名,以防后续报错打开解压后的文件,双击该程序,点击下一步找到
- 初识scala
松松土_0b13
为什么要用scala大数据很多框架是用scala写的,如:saprk、kafka、flink代码简洁多范式:面向对象编程(抽象现实世界)和函数式编程(编程简洁)兼容java环境并发模式使用Actor,可以简化编程scala安装前置条件需要jdk8,并配置了JAVA_HOME的环境变量,以及PATH下载安装文件,配置SCALA_HOME和PATH(SCALA_HOME/bin)对比javaArray
- 大数据分析与应用实验任务八
陈希瑞
spark
大数据分析与应用实验任务八实验目的进一步熟悉pyspark程序运行方式;熟练掌握pysaprkRDD基本操作相关的方法、函数。实验任务进入pyspark实验环境,在图形界面的pyspark命令行窗口中完成下列任务:在实验环境中自行选择路径新建以自己姓名拼音命名的文件夹,后续代码中涉及的文件请保存到该文件夹下(需要时文件夹中可以创建新的文件夹)。一、参考书上例子,理解并完成RDD常用操作(4.1.2
- 大数据分析与应用实验任务九
陈希瑞
数据分析数据挖掘spark
大数据分析与应用实验任务九实验目的进一步熟悉pyspark程序运行方式;熟练掌握pysaprkRDD基本操作相关的方法、函数,解决基本问题。实验任务进入pyspark实验环境,打开命令行窗口,输入pyspark,完成下列任务:在实验环境中自行选择路径新建以自己姓名拼音命名的文件夹,后续代码中涉及的文件请保存到该文件夹下(需要时文件夹中可以创建新的文件夹)。一、参考书中相应代码,练习RDD持久性、分
- SaprkStreaming广告日志分析实时数仓
是阿威啊
scalasparkmysqlkafkazookeeper
一、系统简介参考尚硅谷的spark教程中的需求,参考相关思路,详细化各种代码,以及中间很多逻辑的实现方案采用更加符合项目开发的方案,而不是练习,包括整体的流程也有很大的差别,主要是参考需求描述和部分代码功能实现。需求一:广告黑名单实现实时的动态黑名单机制:将每天对某个广告点击超过100次的用户拉黑。注:黑名单保存到MySQL中。1)读取Kafka数据之后,并对MySQL中存储的黑名单数据做校验;2
- Spark Core----Spark常用算子
新手小农
Sparkspark大数据分布式
1、Spark代码可以分成三个部分:读取数据,得到第一个RDD处理数据,RDD之间的转化保存数据,将RDD保存到存储系统。2、在Saprk中所有的算子可以分成两种:Transformation算子(转换算子):由一个RDD转化成另一个RDD,转换算子(懒执行)并不会自己执行,需要行为算子进行触发执行。Action算子(行为算子):可以出发Spark的Job,一个Action算子对应一个Job3、S
- Spark的driver理解和executor理解
一个大数据小菜鸟
spark大数据bigdata
Driver:Driver即运行Application的main()函数,并且创建SparkContext,创建SparkContext的目的是为了准备Spark应用程序的运行环境,在Spark中由SparkContext负责与ClusterManager通讯,进行资源的申请,任务的分配和监控等。当Executor部分运行完毕后,Driver同时负责将SaprkContext关闭,通常SparkC
- 大数据笔记--Spark(第四篇)
是小先生
大数据08-SparkSaprkGC
目录一、RDD的容错机制二、RDD持久化机制1、RDD持久化(缓存)2、使用缓存3、缓存数据的清除4、持久化理解三、CheckPoint机制1、概述2、示例代码:3、总结4、Saprk懒执行的意义四、GC回收机制及算法1、概述2、哪些内存数据需要被回收?Ⅰ、引用计数法判定Ⅱ、可达性分析法3、常见的垃圾回收算法Ⅰ、标记-清除算法Ⅱ、复制算法Ⅲ、标记-整理算法Ⅳ、分代收集算法五、GC收集器1、概述2、
- pyspark学习(一)—pyspark的安装与基础语法
starry0001
Pythonsparkpython
pyspark学习(一)原创StarryChallengeHub公众号一Pysaprk的安装最近想学pyspark,于是想起了要更这个系列,由于本人也是不是特别熟悉,如果有什么错误的地方希望大家多多见谅,要是指正的话那就更好了。条件简陋,只有一台笔记本,于是该系列应该全部都是在本地运行了。首先,pyspark的安装,单机版的Pyspark安装起来也十分简单。1pip install pyspark
- 【Spark】win10配置IDEA、saprk、hadoop和scala
请给我一脚
分布式sparkintellij-ideahadoop
终于,要对并行计算下手了哈哈哈。一直讲大数据大数据,我单次数据处理量大概在1t上下,是过亿级的轨迹数据。用python调用multiprogress编写的代码,用多线程也要一个多月跑完。我对这个效率不太满意,希望能快一点再快一点,这是学习Spark的前提。安装过程见:spark出pyspark了,可直接用python调用。但是我想接触下scala。所以先装scala试试。博客园:windows上安
- Spark【Spark SQL(二)RDD转换DataFrame、Spark SQL读写数据库 】
让线程再跑一会
Spark数据库sparksql大数据
从RDD转换得到DataFrameSaprk提供了两种方法来实现从RDD转换得到DataFrame:利用反射机制推断RDD模式使用编程方式定义RDD模式下面使用到的数据people.txt:Tom,21Mike,25Andy,181、利用反射机制推断RDD模式在利用反射机制推断RDD模式的过程时,需要先定义一个case类,因为只有case类才能被Spark隐式地转换为DataFrame对象。obj
- windows运行saprk程序:Did not find winutils.exe、Could not locate Hadoop executable:
枪枪枪
Spark
21/08/1522:38:58WARNShell:Didnotfindwinutils.exe:{}java.io.FileNotFoundException:CouldnotlocateHadoopexecutable:D:\main\hadoop-3.1.3\bin\winutils.exe-seehttps://wiki.apache.org/hadoop/WindowsProblemsa
- Hadoop:数值型数据的朴素贝叶斯分类
Zeabin
朴素贝叶斯分类器用在符号型数据上比较多,如何处理数值型数据能找到的资料比较少,《数据算法:Hadoop/Saprk大数据处理技巧》这本书简要介绍了如何处理数值型数据。假设数据服从一定的分布,通常假设为高斯分布(正态分布),于是只需要从训练数据中计算出每一类每一维度的均值和方差,就可以估计给定任一数值的后验概率。对于一条新的数据x,x的第i维上的数据在给定类别时出现的概率:x在给定类别时出现的概率:
- (已解决)RuntimeError: Java gateway process exited before sending its port number
白莲居仙
javagateway开发语言spark
今天用Pycharm远程使用pysaprk解释器时,跑代码出现了这个错误:RuntimeError:Javagatewayprocessexitedbeforesendingitsportnumber找了好多博客都没解决问题,有说重装spark的,有说本地配Java_home的,后面我自己发现是linux上有个文件忘记配了如图:在根目录打开.barshc然后在文件的最末端配置下图这两行:注意:配置
- 分布式kmeans(scala原码实现)
好记性+烂笔头
#Spark计算分布式kmeansscala
scala分布式kmeans1.分布式Kmeans算法设计思路2.分布式Kmeans算法代码实现2.1Driver(主要负责分配、汇总数据)2.2Executor(主要负责计算)2.3Executor2(主要负责计算)3.分布式Kmeans算法spark集群部署3.1将三个代码打成jar包上传到三个saprk节点上3.2第一个spark节点上运行Driver3.3第二个spark节点上运行Exec
- spark期末考试选择题精选
孤独之风。
sparksparkscala大数据
以下哪一个不是saprk的特点A、随处运行B、代码简洁C、使用复杂D、运行快速Scala属于哪种编程语言A、函数式编程语言B、汇编语言C、机器语言D、多范式编程语言注意:scala也是一种函数式编程语言,如果考试多范式和函数式都出现了选多范式。如果只有函数式则选函数式。以下哪种不属于的特性?A、命令式编程B、函数式编程C、静态类型D、不可扩展性以下哪种可以正确计算数组a的长度?A、count()B
- Spark 内核调度
北海怪兽Monster
大数据spark大数据hadoop
面试高发SparkDAG(重点理解)Spark的核心是根据RDD来实现的,SaprkSchedule则为Spark核心实现的重要一环,其作用就是任务调度。Spark的任务调度就是如何组织任务去处理RDD中每个分区的数据,根据RDD的依赖关系构建DAG,基于DAG划分Stage,将每个Stage中的任务发到指定节点运行。基于Spark的任务调度原理,可以合理规划资源利用,做到尽可能用最少的资源高效地
- 数据湖之iceberg系列(三)iceberg快速入门
hellozhxy
iceberg
1环境准备准备大数据集群.安装HDFS,HIVE,SAPRK,FLINK下载运行集群环境运行是需要的jar包下载地址:http://iceberg.apache.org/releases/2spark将读写iceberg表中数据准备spark集群,并配置iceberg环境在spark的配置目录中添加hadoop和hive的配置文件方便spark与hadoop和hive整合在spark的jars包中
- saprk sql查询mysql的两种方法
IMezZ
Sparkmysqlsqlspark大数据
saprksql查询mysql的两种方法:packagecom.spark.testimportorg.apache.spark.sql.SparkSessionimportorg.apache.spark.sql.SaveModeimportjava.util.Propertiesimportjava.util.Mapimportjava.util.HashMapobjectMysqlDemo{
- Saprk面试
Rinma
1.谈谈SparkRDD的几大特性,并深入讲讲体现在哪?Spark的RDD有五大特性:Alistofpartitions:RDD是由多个分区(partition)组成的集合。Afunctionforcomputingeachsplit:对于RDD的计算,其实是RDD的每个分区都会执行这个计算。AlistofdependenciesonotherRDDs:RDD是一条依赖链,每一个RDD都会记录其父
- 大数据 Spark 架构
起飞后的菜鸟
大数据Spark架构一.Spark的产生背景起源1.spark特点1.1轻量级快速处理Saprk允许传统的hadoop集群中的应用程序在内存中已100倍的速度运行即使在磁盘上也比传统的hadoop快10倍,Spark通过减少对磁盘的io达到性能上的提升,他将中间处理的数据放到内存中,spark使用了rdd(resilientdistributeddatasets)数据抽象这允许他在内存中存储数据,
- 简述Spark基础及架构
我玩的很开心
基础及架构spark
简述Spark基础及架构一、spark简介二、spark技术栈三、spark架构四、saprk常用API4.1SparkContext4.2SparkSession五、spark数据核心--RDD5.1RDD概念5.2RDD的五大特性5.2.1分区(Partition)5.2.2compute函数5.2.3RDD依赖(DAG)5.2.4分区器(Partitioner)5.2.5分区优先位置列表六、
- (4)SparkSQL中如何定义UDF和使用UDF
NBI大数据可视化分析
SparkSQL中用户自定义函数,用法和SparkSQL中的内置函数类似;是saprkSQL中内置函数无法满足要求,用户根据业务需求自定义的函数。首先定义一个UDF函数:packagecom.udf;importorg.apache.spark.sql.api.java.UDF1;importorg.apache.spark.sql.api.java.UDF2;importorg.apache.s
- spark.1
瓜皮小咸鱼
Spark的组成:SparkCore:将分布式数据抽象为弹性分布式数据集(RDD),实现了应用任务调度,RPC,序列化和压缩,并为运行在其上的上层组件提供APISparkSQL:SparkSQL是Saprk来操作结构化数据的程序包,可以让我们使用SQL语句的方式来查询数据,Spark支持多种数据源,包含hive表,parquest以及json等内容。SparkStreaming:Spark提供的实
- pysaprk数据倾斜怎么解决?
BlackEyes_SY
pyspark数据倾斜
一、数据倾斜危害?单个或少数的节点数据量特别大,但一个Stage所耗费的时间,是由最慢的那个Task决定,所以数据倾斜会导致两个后果:OOM(单或少数的节点);拖慢整个Job执行时间(其他已经完成的节点都在等这个还在做的节点)。二、数据倾斜的现象当发现如下现象时,十有八九是发生数据倾斜了:绝大多数task执行得都非常快,但个别task执行极慢,整体任务卡在某个阶段不能结束。原本能够正常执行的Spa
- PySaprk之Spark DataFrame的构建方法
飞Link
Spark计算引擎sparkbigdatahivepythonpandas
一、基于RDD的方式一通过SparkSession对象的createDataFrame方法来将RDD转换为DataFrame。这里只传入列名称,类型从RDD中进行推断,是否允许为空默认为允许(True)frompyspark.sqlimportSparkSessionimportosos.environ["SPARK_HOME"]='/export/server/spark'PYSPARK_PYT
- Spring4.1新特性——Spring MVC增强
jinnianshilongnian
spring 4.1
目录
Spring4.1新特性——综述
Spring4.1新特性——Spring核心部分及其他
Spring4.1新特性——Spring缓存框架增强
Spring4.1新特性——异步调用和事件机制的异常处理
Spring4.1新特性——数据库集成测试脚本初始化
Spring4.1新特性——Spring MVC增强
Spring4.1新特性——页面自动化测试框架Spring MVC T
- mysql 性能查询优化
annan211
javasql优化mysql应用服务器
1 时间到底花在哪了?
mysql在执行查询的时候需要执行一系列的子任务,这些子任务包含了整个查询周期最重要的阶段,这其中包含了大量为了
检索数据列到存储引擎的调用以及调用后的数据处理,包括排序、分组等。在完成这些任务的时候,查询需要在不同的地方
花费时间,包括网络、cpu计算、生成统计信息和执行计划、锁等待等。尤其是向底层存储引擎检索数据的调用操作。这些调用需要在内存操
- windows系统配置
cherishLC
windows
删除Hiberfil.sys :使用命令powercfg -h off 关闭休眠功能即可:
http://jingyan.baidu.com/article/f3ad7d0fc0992e09c2345b51.html
类似的还有pagefile.sys
msconfig 配置启动项
shutdown 定时关机
ipconfig 查看网络配置
ipconfig /flushdns
- 人体的排毒时间
Array_06
工作
========================
|| 人体的排毒时间是什么时候?||
========================
转载于:
http://zhidao.baidu.com/link?url=ibaGlicVslAQhVdWWVevU4TMjhiKaNBWCpZ1NS6igCQ78EkNJZFsEjCjl3T5EdXU9SaPg04bh8MbY1bR
- ZooKeeper
cugfy
zookeeper
Zookeeper是一个高性能,分布式的,开源分布式应用协调服务。它提供了简单原始的功能,分布式应用可以基于它实现更高级的服务,比如同步, 配置管理,集群管理,名空间。它被设计为易于编程,使用文件系统目录树作为数据模型。服务端跑在java上,提供java和C的客户端API。 Zookeeper是Google的Chubby一个开源的实现,是高有效和可靠的协同工作系统,Zookeeper能够用来lea
- 网络爬虫的乱码处理
随意而生
爬虫网络
下边简单总结下关于网络爬虫的乱码处理。注意,这里不仅是中文乱码,还包括一些如日文、韩文 、俄文、藏文之类的乱码处理,因为他们的解决方式 是一致的,故在此统一说明。 网络爬虫,有两种选择,一是选择nutch、hetriex,二是自写爬虫,两者在处理乱码时,原理是一致的,但前者处理乱码时,要看懂源码后进行修改才可以,所以要废劲一些;而后者更自由方便,可以在编码处理
- Xcode常用快捷键
张亚雄
xcode
一、总结的常用命令:
隐藏xcode command+h
退出xcode command+q
关闭窗口 command+w
关闭所有窗口 command+option+w
关闭当前
- mongoDB索引操作
adminjun
mongodb索引
一、索引基础: MongoDB的索引几乎与传统的关系型数据库一模一样,这其中也包括一些基本的优化技巧。下面是创建索引的命令: > db.test.ensureIndex({"username":1}) 可以通过下面的名称查看索引是否已经成功建立: &nbs
- 成都软件园实习那些话
aijuans
成都 软件园 实习
无聊之中,翻了一下日志,发现上一篇经历是很久以前的事了,悔过~~
断断续续离开了学校快一年了,习惯了那里一天天的幼稚、成长的环境,到这里有点与世隔绝的感觉。不过还好,那是刚到这里时的想法,现在感觉在这挺好,不管怎么样,最要感谢的还是老师能给这么好的一次催化成长的机会,在这里确实看到了好多好多能想到或想不到的东西。
都说在外面和学校相比最明显的差距就是与人相处比较困难,因为在外面每个人都
- Linux下FTP服务器安装及配置
ayaoxinchao
linuxFTP服务器vsftp
检测是否安装了FTP
[root@localhost ~]# rpm -q vsftpd
如果未安装:package vsftpd is not installed 安装了则显示:vsftpd-2.0.5-28.el5累死的版本信息
安装FTP
运行yum install vsftpd命令,如[root@localhost ~]# yum install vsf
- 使用mongo-java-driver获取文档id和查找文档
BigBird2012
driver
注:本文所有代码都使用的mongo-java-driver实现。
在MongoDB中,一个集合(collection)在概念上就类似我们SQL数据库中的表(Table),这个集合包含了一系列文档(document)。一个DBObject对象表示我们想添加到集合(collection)中的一个文档(document),MongoDB会自动为我们创建的每个文档添加一个id,这个id在
- JSONObject以及json串
bijian1013
jsonJSONObject
一.JAR包简介
要使程序可以运行必须引入JSON-lib包,JSON-lib包同时依赖于以下的JAR包:
1.commons-lang-2.0.jar
2.commons-beanutils-1.7.0.jar
3.commons-collections-3.1.jar
&n
- [Zookeeper学习笔记之三]Zookeeper实例创建和会话建立的异步特性
bit1129
zookeeper
为了说明问题,看个简单的代码,
import org.apache.zookeeper.*;
import java.io.IOException;
import java.util.concurrent.CountDownLatch;
import java.util.concurrent.ThreadLocal
- 【Scala十二】Scala核心六:Trait
bit1129
scala
Traits are a fundamental unit of code reuse in Scala. A trait encapsulates method and field definitions, which can then be reused by mixing them into classes. Unlike class inheritance, in which each c
- weblogic version 10.3破解
ronin47
weblogic
版本:WebLogic Server 10.3
说明:%DOMAIN_HOME%:指WebLogic Server 域(Domain)目录
例如我的做测试的域的根目录 DOMAIN_HOME=D:/Weblogic/Middleware/user_projects/domains/base_domain
1.为了保证操作安全,备份%DOMAIN_HOME%/security/Defa
- 求第n个斐波那契数
BrokenDreams
今天看到群友发的一个问题:写一个小程序打印第n个斐波那契数。
自己试了下,搞了好久。。。基础要加强了。
&nbs
- 读《研磨设计模式》-代码笔记-访问者模式-Visitor
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.util.ArrayList;
import java.util.List;
interface IVisitor {
//第二次分派,Visitor调用Element
void visitConcret
- MatConvNet的excise 3改为网络配置文件形式
cherishLC
matlab
MatConvNet为vlFeat作者写的matlab下的卷积神经网络工具包,可以使用GPU。
主页:
http://www.vlfeat.org/matconvnet/
教程:
http://www.robots.ox.ac.uk/~vgg/practicals/cnn/index.html
注意:需要下载新版的MatConvNet替换掉教程中工具包中的matconvnet:
http
- ZK Timeout再讨论
chenchao051
zookeepertimeouthbase
http://crazyjvm.iteye.com/blog/1693757 文中提到相关超时问题,但是又出现了一个问题,我把min和max都设置成了180000,但是仍然出现了以下的异常信息:
Client session timed out, have not heard from server in 154339ms for sessionid 0x13a3f7732340003
- CASE WHEN 用法介绍
daizj
sqlgroup bycase when
CASE WHEN 用法介绍
1. CASE WHEN 表达式有两种形式
--简单Case函数
CASE sex
WHEN '1' THEN '男'
WHEN '2' THEN '女'
ELSE '其他' END
--Case搜索函数
CASE
WHEN sex = '1' THEN
- PHP技巧汇总:提高PHP性能的53个技巧
dcj3sjt126com
PHP
PHP技巧汇总:提高PHP性能的53个技巧 用单引号代替双引号来包含字符串,这样做会更快一些。因为PHP会在双引号包围的字符串中搜寻变量, 单引号则不会,注意:只有echo能这么做,它是一种可以把多个字符串当作参数的函数译注: PHP手册中说echo是语言结构,不是真正的函数,故把函数加上了双引号)。 1、如果能将类的方法定义成static,就尽量定义成static,它的速度会提升将近4倍
- Yii框架中CGridView的使用方法以及详细示例
dcj3sjt126com
yii
CGridView显示一个数据项的列表中的一个表。
表中的每一行代表一个数据项的数据,和一个列通常代表一个属性的物品(一些列可能对应于复杂的表达式的属性或静态文本)。 CGridView既支持排序和分页的数据项。排序和分页可以在AJAX模式或正常的页面请求。使用CGridView的一个好处是,当用户浏览器禁用JavaScript,排序和分页自动退化普通页面请求和仍然正常运行。
实例代码如下:
- Maven项目打包成可执行Jar文件
dyy_gusi
assembly
Maven项目打包成可执行Jar文件
在使用Maven完成项目以后,如果是需要打包成可执行的Jar文件,我们通过eclipse的导出很麻烦,还得指定入口文件的位置,还得说明依赖的jar包,既然都使用Maven了,很重要的一个目的就是让这些繁琐的操作简单。我们可以通过插件完成这项工作,使用assembly插件。具体使用方式如下:
1、在项目中加入插件的依赖:
<plugin>
- php常见错误
geeksun
PHP
1. kevent() reported that connect() failed (61: Connection refused) while connecting to upstream, client: 127.0.0.1, server: localhost, request: "GET / HTTP/1.1", upstream: "fastc
- 修改linux的用户名
hongtoushizi
linuxchange password
Change Linux Username
更改Linux用户名,需要修改4个系统的文件:
/etc/passwd
/etc/shadow
/etc/group
/etc/gshadow
古老/传统的方法是使用vi去直接修改,但是这有安全隐患(具体可自己搜一下),所以后来改成使用这些命令去代替:
vipw
vipw -s
vigr
vigr -s
具体的操作顺
- 第五章 常用Lua开发库1-redis、mysql、http客户端
jinnianshilongnian
nginxlua
对于开发来说需要有好的生态开发库来辅助我们快速开发,而Lua中也有大多数我们需要的第三方开发库如Redis、Memcached、Mysql、Http客户端、JSON、模板引擎等。
一些常见的Lua库可以在github上搜索,https://github.com/search?utf8=%E2%9C%93&q=lua+resty。
Redis客户端
lua-resty-r
- zkClient 监控机制实现
liyonghui160com
zkClient 监控机制实现
直接使用zk的api实现业务功能比较繁琐。因为要处理session loss,session expire等异常,在发生这些异常后进行重连。又因为ZK的watcher是一次性的,如果要基于wather实现发布/订阅模式,还要自己包装一下,将一次性订阅包装成持久订阅。另外如果要使用抽象级别更高的功能,比如分布式锁,leader选举
- 在Mysql 众多表中查找一个表名或者字段名的 SQL 语句
pda158
mysql
在Mysql 众多表中查找一个表名或者字段名的 SQL 语句:
方法一:SELECT table_name, column_name from information_schema.columns WHERE column_name LIKE 'Name';
方法二:SELECT column_name from information_schema.colum
- 程序员对英语的依赖
Smile.zeng
英语程序猿
1、程序员最基本的技能,至少要能写得出代码,当我们还在为建立类的时候思考用什么单词发牢骚的时候,英语与别人的差距就直接表现出来咯。
2、程序员最起码能认识开发工具里的英语单词,不然怎么知道使用这些开发工具。
3、进阶一点,就是能读懂别人的代码,有利于我们学习人家的思路和技术。
4、写的程序至少能有一定的可读性,至少要人别人能懂吧...
以上一些问题,充分说明了英语对程序猿的重要性。骚年
- Oracle学习笔记(8) 使用PLSQL编写触发器
vipbooks
oraclesql编程活动Access
时间过得真快啊,转眼就到了Oracle学习笔记的最后个章节了,通过前面七章的学习大家应该对Oracle编程有了一定了了解了吧,这东东如果一段时间不用很快就会忘记了,所以我会把自己学习过的东西做好详细的笔记,用到的时候可以随时查找,马上上手!希望这些笔记能对大家有些帮助!
这是第八章的学习笔记,学习完第七章的子程序和包之后