- 【kafka】简单运用go语言操作kafka实现生产者和消费者功能的包,confluent-kafka-go和sarama
{⌐■_■}
kafkagolang分布式
confluent-kafka-go和sarama对比特性confluent-kafka-gosarama底层实现基于librdkafkaC库完全用Go实现性能高吞吐量、低延迟吞吐量较低,适合常规应用安装依赖需要C编译器和librdkafka无需外部依赖,纯Go实现功能支持Kafka所有功能,包括事务支持Kafka核心功能,事务支持较弱使用难度配置复杂,需理解底层C库使用简便,快速上手社区支持由C
- 142. Go操作Kafka(confluent-kafka-go库)
百里守约学编程
gogolangkafka
文章目录Apachekafka简介开始使用ApacheKafka构建生产者构建消费者总结之前已经有两篇文章介绍过Go如何操作kafka28.windows安装kafka,Go操作kafka示例(sarama库)51.Go操作kafka示例(kafka-go库)Apachekafka简介ApacheKafka是一个开源分布式事件流平台,用于高性能数据管道、流式分析、数据集成和关键任务应用程序。它提供
- 开源组件Kafka Connect推荐
佛系小懒
KafkaConnect简介KafkaConnect是Kafka的开源组件Confluent提供的功能,用于实现Kafka与外部系统的连接。KafkaConnect同时支持分布式模式和单机模式,另外提供了一套完整的REST接口,用于查看和管理KafkaConnectors,还具有offset自动管理,可扩展等优点。使用KafkaConnect连接Kafka和Elasticsearch1测试环境准备
- CDC 整合方案:Flink 集成 Confluent Schema Registry 读取 Debezium 消息写入 Hudi
Laurence
大数据专题付费专栏flinkhudidebeziumavroconfluentschemaregistry
本文介绍的整体方案选型是:使用KafkaConnect的DebeziumMySQLSourceConnector将MySQL的CDC数据(Avro格式)接入到Kafka之后,通过Flink读取并解析这些CDC数据,其中,数据是以Confluent的Avro格式存储的,也就是说,Avro格式的数据在写入到Kafka以及从Kafka读取时,都需要和ConfluentSchemaRegistry进行交互
- confluent入库hive安全认证问题
建康_木子
使用confluent将Kafka中的数据入库hive失败的解决方案应用场景:用户想在HD平台使用confluent开源组件将Kafka中的数据直接导入到hive中,测试环境中已经实现,但生产环境中由于平台开启了Kerberos安全认证服务,所以一直报认证失败的日志.5caab36655bd3confluent:confluent将数据导入hive库:先将数据导入到hdfs上指定的目录下,然后通过
- 制作 MSK Connect 的 Confluent Avro Converter + Debezium MySQL Connector 插件包
Laurence
大数据专题付费专栏kafkaconnectavrodebeziumconfluentconnectorconverter
MSKConnect的插件包需要将各种插件的Jar包及其依赖包放到一起,打成Zip包,上传到S3,然后在MSKConsole上创建插件时指定好Zip位置即可。为了便于维护,我们不建议将各种插件的Jar包混在一起放入同一个文件内,最好还是按插件原来的名称单独创建文件夹,单独放置各自的Jar包。我们以DebeziumMySQLConnector和ConfluentAvroConverter这两个插件为
- Flink 集成 Debezium Confluent Avro ( format=debezium-avro-confluent )
Laurence
大数据专题付费专栏flinkcdcdebeziumavroconfluentschema-registrykafka
博主历时三年精心创作的《大数据平台架构与原型实现:数据中台建设实战》一书现已由知名IT图书品牌电子工业出版社博文视点出版发行,点击《重磅推荐:建大数据平台太难了!给我发个工程原型吧!》了解图书详情,京东购书链接:https://item.jd.com/12677623.html,扫描左侧二维码进入京东手机购书页面。本文介绍的场景是:使用KafkaConnect的DebeziumMySQLSourc
- 查看 Avro 格式的 Kafka 消息(启用了 Confluent Schema Registry )
Laurence
付费专栏kafkaavroconfluentschemaregistry
使用Avro格式传递Kafka消息要比Json更加高效,因为它是二进制格式,在启用了ConfluentSchemaRegistry的情况下,会进一步地提升传输效率,因为Avro中的Schema信息将不再出现在消息中,消息体积会进一步压缩,同时,还可以利用到SchemaRegistry的其他好处,例如SchemaEvolution管理。但是,由于Avro是二进制格式,且使用了ConfluentSch
- 解决celery与kafka的联用问题
LzSkyline
0X01背景大数据过滤、导入,用celery下发任务,任务内容为kafka生产一些数据。0X02问题使用confluent_kafka或python-kafka模块向kafka生产数据,本地调试时代码可以正常生产消息,但是套上celery后,kafka就无法将新消息生产到topic队列中了,具体表现为调用Producer函数后无任何反应。https://www.cnblogs.com/dplear
- docker 快速启动 Confluent Kafka
秀强
Kafkakafka
文章目录参考资料来自ConfluentKafka与Confluent创建docker-compose.yml启动服务创建Topic向quickstart中写入数据消费quickstart中的数据关闭Kafka总结参考资料来自Confluenthttps://developer.confluent.io/quickstart/kafka-docker/Kafka与Confluent随着Kafka代码
- Java程序员:世界有三个伟大的发明「火、轮子、kafka」
Java旺
一、Kafka是什么?有人说世界上有三个伟大的发明:火,轮子,以及Kafka。发展到现在,ApacheKafka无疑是很成功的,Confluent公司曾表示世界五百强中有三分之一的企业在使用Kafka。在流式计算中,Kafka一般用来缓存数据,例如Flink通过消费Kafka的数据进行计算。关于Kafka,我们最先需要了解的是以下四点:Java程序员:世界有三个伟大的发明「火、轮子、kafka」A
- Confluent 与阿里云将携手拓展亚太市场,提供消息流平台服务
阿里云云原生
阿里云云计算
10月31日,杭州云栖大会上,阿里云云原生应用平台负责人丁宇宣布,Confluent成为阿里云技术合作伙伴,合作全新升级,一起拓展和服务亚太市场。本次合作伙伴签约,阿里云与消息流开创领导者Confluent将进一步加深合作。根据协议,双方将共同拓展亚太市场,为中国内地、中国香港、印度尼西亚、马来西亚、新加坡、泰国和菲律宾等地的用户提供消息流平台服务。Confluent是一家专注动态数据(DataI
- laravel框架引用kafka
蹲在角落数蚂蚁
laravelkafkaphp
在Laravel中操作Kafka,可以使用php-rdkafka扩展或confluent-kafka-php扩展。以下展示如何使用confluent-kafka-php扩展来在Laravel中使用Kafka。操作步骤说明:1、安装confluent-kafka-php扩展。您可以使用Composer进行安装:composerrequireedenhill/php-rdkafka2、需要在Larav
- KSQL是什么
摇响檐下风铃
linqc#sql
KSQL是一个能够方便地对Kafka中的流数据进行实时处理和分析的SQL引擎,使用标准的SQL语法,可以快速地实现对流数据的查询、过滤、聚合和连接等操作.KSQL是一种基于流式处理的SQL引擎,它是由Confluent公司开发的一个开源项目,用于在ApacheKafka上对流数据进行实时处理和分析。Kafka是一个高吞吐、分布式的消息系统,KSQL则是为了方便对应用于Kafka上的消息进行实时的处
- 向本地maven中加载依赖
Mr_Huang_1
mavenjava
1、现在maven官网仓库找到相应依赖MavenRepository:Search/Browse/Explore(mvnrepository.com)2、下载相应jar包3、使用maven命令在jar所在文件加内cmd运行注意修改参数-DgroupId:表示jar对应的groupIdio.confluent-DartifactId:表示jar对应的artifactIdkafka-schema-re
- Java程序员说:世界上有三个伟大的发明【火、轮子、kafka】
Java李太白
一、Kafka是什么?有人说世界上有三个伟大的发明:火,轮子,以及Kafka。发展到现在,ApacheKafka无疑是很成功的,Confluent公司曾表示世界五百强中有三分之一的企业在使用Kafka。在流式计算中,Kafka一般用来缓存数据,例如Flink通过消费Kafka的数据进行计算。关于Kafka,我们最先需要了解的是以下四点:imageApacheKafka是一个开源「消息」系统,由Sc
- 【Kafka】Confluent Schema Registry
九师兄
大数据-kafka
原文:https://cloud.tencent.com/developer/article/13365681.schema注册表无论是使用传统的AvroAPI自定义序列化类和反序列化类还是使用Twitter的Bijection类库实现Avro的序列化与反序列化,这两种方法都有一个缺点:在每条Kafka记录里都嵌入了schema,这会让记录的大小成倍地增加。但是不管怎样,在读取记录时仍然需要用到整
- 项目编译失败,kafka-schema-registry-client
iwonder123
flinkmavenjava
编译报错信息Couldnotfindartifactio.confluent:kafka-schema-registry-client:pom:3.3.1inaliyunmaven(https://maven.aliyun.com/repository/public)下载地址:http://packages.confluent.io/maven/io/confluent/kafka-schema-
- Flink1.14 源码报错Could not transfer artifact io.confluent:kafka-schema-registry-client from/to maven地址
Better~Me
大数据flink
Flink1.14源码报错Couldnottransferartifactio.confluent:kafka-schema-registry-clientfrom/tomaven地址解决办法:1.删除maven本地仓库中的以lastUpdated结尾的文件2.然后将maven的配置文件中的仓库镜像改为阿里云或者其他国内进行地址,重新import一下
- Kafka(二):在WSL搭建Schema Registry
yunyun1886358
kafka分布式
目录1Avro与SchemaRegistry2搭建SchemaRegistry2.1下载Confluent并解压2.2设置环境变量2.3修改配置2.4启动服务3API列表1Avro与SchemaRegistryApacheAvro是一种高效的数据序列化系统,用于在不同的应用程序和平台之间传输和存储数据。它提供了一种紧凑且高效的二进制数据编码格式,相比其他常见的序列化方式,Avro能够实现更快的序列
- 大师拷贝---kafka和zookeeper结合搭建系统
考白大师
微服务kafkazookeeper
一、参考二、javajdk安装配置三、Zookeeper安装配置四、Kafka集群搭建五、测试验证一、参考http://www.cnblogs.com/luotianshuai/p/5206662.htmlhttps://docs.confluent.io/2.0.0/kafka/ssl.htmlhttp://www.cnblogs.com/huxi2b/p/7382144.htmlhttp://
- Kafka核心API——Connect API
端碗吹水
KafkaConnect基本概念介绍KafkaConnect是一个用于将数据流输入和输出Kafka的框架。Confluent平台附带了几个内置connector,可以使用这些connector进行关系数据库或HDFS等常用系统到Kafka的数据传输,也是用来构建ETL的一种方案。KafkaConnect基本概念:KafkaConnect实际上是Kafka流式计算的一部分KafkaConnect主要
- 全网唯一实现Grafana添加KafKa报警机制
会飞的猪_password
Grafana的官方参考资料在https://grafana.com/docs/grafana/latest/alerting/notifications/截图官方描述太少,等于没说向kafka发送消息,需要kafkaRESTproxy,我使用的中间件是confluent,安装过程没什么特别之外,配置(confluent_home/etc/kafka-rest/kafka-rest.propert
- 基于docker的confluent-kafka搭建及python接口使用
摇光65535
MISCkafkadockerpythonconfluent-kafka
基于docker的confluent-kafka搭建及python接口使用1.安装docker以及docker-compose1.1安装docker1.2安装docker-compose2.安装confluent-kafka3.python接口使用3.1安装依赖包3.2创建、查看topic3.3python接口-broker3.4python接口-consumer参考链接本文介绍基于docker搭
- Kafka 开启SASL/SCRAM认证 及 ACL授权(二)ACL
代码讲故事
架构师成长之路kafka分布式saslscramacl认证授权
Kafka开启SASL/SCRAM认证及ACL授权(二)ACL。官网地址:https://kafka.apache.org/kafkaauthentorization:https://docs.confluent.io/platform/current/kafka/authorization.html一、开启ZKACL(可选,内网环境,用户无机器访问权限时)给kafkameta都加上zk的acl,
- Java进阶之光!百万数据分页查询的方法及其优化方式
Java范德萨
程序员java经验分享面试
前言:有人说世界上有三个伟大的发明:火,轮子,以及Kafka。发展到现在,ApacheKafka无疑是很成功的,Confluent公司曾表示世界五百强中有三分之一的企业在使用Kafka。在流式计算中,Kafka一般用来缓存数据,例如Flink通过消费Kafka的数据进行计算。而要谈对Kafka有多熟悉,我相信还是阿里的大佬们最有发言权,所以今天分享的内容,就是Alibaba内部首发的“限量笔记”,
- python操作kafka-python操作kafka(confluent_kafka 生产)
weixin_39872123
#!/usr/bin/python#-*-coding:utf-8-*-fromconfluent_kafkaimportProducerimportjsonimporttimeimportsysdefdelivery_report(err,msg):"""Calledonceforeachmessageproducedtoindicatedeliveryresult.Triggeredbypol
- confluent-kafka-go安装简明教程
数据小菜鸟
新公司使用这个库,来了没啥文档。网上的各种教程也是比较粗浅。自己研读了下官方的文档。外加测试把整个流程给走通了。mark下方便后人吧。官方推荐使用#macbrewinstalllibrdkafka#Debian和Ubuntuaptinstalllibrdkafka-dev#RedHat,CentOS,Fedorayuminstalllibrdkafka-devel#我推荐使用源码安装,因为通用,定
- Java程序员:世界有三个伟大的发明「火、轮子、kafka」
吃井不忘挖水人呢
一、Kafka是什么?有人说世界上有三个伟大的发明:火,轮子,以及Kafka。发展到现在,ApacheKafka无疑是很成功的,Confluent公司曾表示世界五百强中有三分之一的企业在使用Kafka。在流式计算中,Kafka一般用来缓存数据,例如Flink通过消费Kafka的数据进行计算。关于Kafka,我们最先需要了解的是以下四点:ApacheKafka是一个开源「消息」系统,由Scala写成
- datahub 修改logo及网站名
李春田
datahub修改logo及网站名建议首先将docker关闭,再开启datahub,然后再进行jar包的修改!第一步:列出dockerdockerpsCONTAINERIDIMAGECOMMANDCREATEDSTATUSPORTSNAMES790c0cee9ceaconfluentinc/cp-schema-registry:5.4.0"/etc/confluent/do..."2daysago
- 关于旗正规则引擎规则中的上传和下载问题
何必如此
文件下载压缩jsp文件上传
文件的上传下载都是数据流的输入输出,大致流程都是一样的。
一、文件打包下载
1.文件写入压缩包
string mainPath="D:\upload\"; 下载路径
string tmpfileName=jar.zip; &n
- 【Spark九十九】Spark Streaming的batch interval时间内的数据流转源码分析
bit1129
Stream
以如下代码为例(SocketInputDStream):
Spark Streaming从Socket读取数据的代码是在SocketReceiver的receive方法中,撇开异常情况不谈(Receiver有重连机制,restart方法,默认情况下在Receiver挂了之后,间隔两秒钟重新建立Socket连接),读取到的数据通过调用store(textRead)方法进行存储。数据
- spark master web ui 端口8080被占用解决方法
daizj
8080端口占用sparkmaster web ui
spark master web ui 默认端口为8080,当系统有其它程序也在使用该接口时,启动master时也不会报错,spark自己会改用其它端口,自动端口号加1,但为了可以控制到指定的端口,我们可以自行设置,修改方法:
1、cd SPARK_HOME/sbin
2、vi start-master.sh
3、定位到下面部分
- oracle_执行计划_谓词信息和数据获取
周凡杨
oracle执行计划
oracle_执行计划_谓词信息和数据获取(上)
一:简要说明
在查看执行计划的信息中,经常会看到两个谓词filter和access,它们的区别是什么,理解了这两个词对我们解读Oracle的执行计划信息会有所帮助。
简单说,执行计划如果显示是access,就表示这个谓词条件的值将会影响数据的访问路径(表还是索引),而filter表示谓词条件的值并不会影响数据访问路径,只起到
- spring中datasource配置
g21121
dataSource
datasource配置有很多种,我介绍的一种是采用c3p0的,它的百科地址是:
http://baike.baidu.com/view/920062.htm
<!-- spring加载资源文件 -->
<bean name="propertiesConfig"
class="org.springframework.b
- web报表工具FineReport使用中遇到的常见报错及解决办法(三)
老A不折腾
finereportFAQ报表软件
这里写点抛砖引玉,希望大家能把自己整理的问题及解决方法晾出来,Mark一下,利人利己。
出现问题先搜一下文档上有没有,再看看度娘有没有,再看看论坛有没有。有报错要看日志。下面简单罗列下常见的问题,大多文档上都有提到的。
1、repeated column width is largerthan paper width:
这个看这段话应该是很好理解的。比如做的模板页面宽度只能放
- mysql 用户管理
墙头上一根草
linuxmysqluser
1.新建用户 //登录MYSQL@>mysql -u root -p@>密码//创建用户mysql> insert into mysql.user(Host,User,Password) values(‘localhost’,'jeecn’,password(‘jeecn’));//刷新系统权限表mysql>flush privileges;这样就创建了一个名为:
- 关于使用Spring导致c3p0数据库死锁问题
aijuans
springSpring 入门Spring 实例Spring3Spring 教程
这个问题我实在是为整个 springsource 的员工蒙羞
如果大家使用 spring 控制事务,使用 Open Session In View 模式,
com.mchange.v2.resourcepool.TimeoutException: A client timed out while waiting to acquire a resource from com.mchange.
- 百度词库联想
annan211
百度
<!DOCTYPE html>
<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
<title>RunJS</title&g
- int数据与byte之间的相互转换实现代码
百合不是茶
位移int转bytebyte转int基本数据类型的实现
在BMP文件和文件压缩时需要用到的int与byte转换,现将理解的贴出来;
主要是要理解;位移等概念 http://baihe747.iteye.com/blog/2078029
int转byte;
byte转int;
/**
* 字节转成int,int转成字节
* @author Administrator
*
- 简单模拟实现数据库连接池
bijian1013
javathreadjava多线程简单模拟实现数据库连接池
简单模拟实现数据库连接池
实例1:
package com.bijian.thread;
public class DB {
//private static final int MAX_COUNT = 10;
private static final DB instance = new DB();
private int count = 0;
private i
- 一种基于Weblogic容器的鉴权设计
bijian1013
javaweblogic
服务器对请求的鉴权可以在请求头中加Authorization之类的key,将用户名、密码保存到此key对应的value中,当然对于用户名、密码这种高机密的信息,应该对其进行加砂加密等,最简单的方法如下:
String vuser_id = "weblogic";
String vuse
- 【RPC框架Hessian二】Hessian 对象序列化和反序列化
bit1129
hessian
任何一个对象从一个JVM传输到另一个JVM,都要经过序列化为二进制数据(或者字符串等其他格式,比如JSON),然后在反序列化为Java对象,这最后都是通过二进制的数据在不同的JVM之间传输(一般是通过Socket和二进制的数据传输),本文定义一个比较符合工作中。
1. 定义三个POJO
Person类
package com.tom.hes
- 【Hadoop十四】Hadoop提供的脚本的功能
bit1129
hadoop
1. hadoop-daemon.sh
1.1 启动HDFS
./hadoop-daemon.sh start namenode
./hadoop-daemon.sh start datanode
通过这种逐步启动的方式,比start-all.sh方式少了一个SecondaryNameNode进程,这不影响Hadoop的使用,其实在 Hadoop2.0中,SecondaryNa
- 中国互联网走在“灰度”上
ronin47
管理 灰度
中国互联网走在“灰度”上(转)
文/孕峰
第一次听说灰度这个词,是任正非说新型管理者所需要的素质。第二次听说是来自马化腾。似乎其他人包括马云也用不同的语言说过类似的意思。
灰度这个词所包含的意义和视野是广远的。要理解这个词,可能同样要用“灰度”的心态。灰度的反面,是规规矩矩,清清楚楚,泾渭分明,严谨条理,是决不妥协,不转弯,认死理。黑白分明不是灰度,像彩虹那样
- java-51-输入一个矩阵,按照从外向里以顺时针的顺序依次打印出每一个数字。
bylijinnan
java
public class PrintMatrixClockwisely {
/**
* Q51.输入一个矩阵,按照从外向里以顺时针的顺序依次打印出每一个数字。
例如:如果输入如下矩阵:
1 2 3 4
5 6 7 8
9
- mongoDB 用户管理
开窍的石头
mongoDB用户管理
1:添加用户
第一次设置用户需要进入admin数据库下设置超级用户(use admin)
db.addUsr({user:'useName',pwd:'111111',roles:[readWrite,dbAdmin]});
第一个参数用户的名字
第二个参数
- [游戏与生活]玩暗黑破坏神3的一些问题
comsci
生活
暗黑破坏神3是有史以来最让人激动的游戏。。。。但是有几个问题需要我们注意
玩这个游戏的时间,每天不要超过一个小时,且每次玩游戏最好在白天
结束游戏之后,最好在太阳下面来晒一下身上的暗黑气息,让自己恢复人的生气
&nb
- java 二维数组如何存入数据库
cuiyadll
java
using System;
using System.Linq;
using System.Text;
using System.Windows.Forms;
using System.Xml;
using System.Xml.Serialization;
using System.IO;
namespace WindowsFormsApplication1
{
- 本地事务和全局事务Local Transaction and Global Transaction(JTA)
darrenzhu
javaspringlocalglobaltransaction
Configuring Spring and JTA without full Java EE
http://spring.io/blog/2011/08/15/configuring-spring-and-jta-without-full-java-ee/
Spring doc -Transaction Management
http://docs.spring.io/spri
- Linux命令之alias - 设置命令的别名,让 Linux 命令更简练
dcj3sjt126com
linuxalias
用途说明
设置命令的别名。在linux系统中如果命令太长又不符合用户的习惯,那么我们可以为它指定一个别名。虽然可以为命令建立“链接”解决长文件名的问 题,但对于带命令行参数的命令,链接就无能为力了。而指定别名则可以解决此类所有问题【1】。常用别名来简化ssh登录【见示例三】,使长命令变短,使常 用的长命令行变短,强制执行命令时询问等。
常用参数
格式:alias
格式:ali
- yii2 restful web服务[格式响应]
dcj3sjt126com
PHPyii2
响应格式
当处理一个 RESTful API 请求时, 一个应用程序通常需要如下步骤 来处理响应格式:
确定可能影响响应格式的各种因素, 例如媒介类型, 语言, 版本, 等等。 这个过程也被称为 content negotiation。
资源对象转换为数组, 如在 Resources 部分中所描述的。 通过 [[yii\rest\Serializer]]
- MongoDB索引调优(2)——[十]
eksliang
mongodbMongoDB索引优化
转载请出自出处:http://eksliang.iteye.com/blog/2178555 一、概述
上一篇文档中也说明了,MongoDB的索引几乎与关系型数据库的索引一模一样,优化关系型数据库的技巧通用适合MongoDB,所有这里只讲MongoDB需要注意的地方 二、索引内嵌文档
可以在嵌套文档的键上建立索引,方式与正常
- 当滑动到顶部和底部时,实现Item的分离效果的ListView
gundumw100
android
拉动ListView,Item之间的间距会变大,释放后恢复原样;
package cn.tangdada.tangbang.widget;
import android.annotation.TargetApi;
import android.content.Context;
import android.content.res.TypedArray;
import andr
- 程序员用HTML5制作的爱心树表白动画
ini
JavaScriptjqueryWebhtml5css
体验效果:http://keleyi.com/keleyi/phtml/html5/31.htmHTML代码如下:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml"><head><meta charset="UTF-8" >
<ti
- 预装windows 8 系统GPT模式的ThinkPad T440改装64位 windows 7旗舰版
kakajw
ThinkPad预装改装windows 7windows 8
该教程具有普遍参考性,特别适用于联想的机器,其他品牌机器的处理过程也大同小异。
该教程是个人多次尝试和总结的结果,实用性强,推荐给需要的人!
缘由
小弟最近入手笔记本ThinkPad T440,但是特别不能习惯笔记本出厂预装的Windows 8系统,而且厂商自作聪明地预装了一堆没用的应用软件,消耗不少的系统资源(本本的内存为4G,系统启动完成时,物理内存占用比
- Nginx学习笔记
mcj8089
nginx
一、安装nginx 1、在nginx官方网站下载一个包,下载地址是:
http://nginx.org/download/nginx-1.4.2.tar.gz
2、WinSCP(ftp上传工
- mongodb 聚合查询每天论坛链接点击次数
qiaolevip
每天进步一点点学习永无止境mongodb纵观千象
/* 18 */
{
"_id" : ObjectId("5596414cbe4d73a327e50274"),
"msgType" : "text",
"sendTime" : ISODate("2015-07-03T08:01:16.000Z"
- java术语(PO/POJO/VO/BO/DAO/DTO)
Luob.
DAOPOJODTOpoVO BO
PO(persistant object) 持久对象
在o/r 映射的时候出现的概念,如果没有o/r映射,就没有这个概念存在了.通常对应数据模型(数据库),本身还有部分业务逻辑的处理.可以看成是与数据库中的表相映射的java对象.最简单的PO就是对应数据库中某个表中的一条记录,多个记录可以用PO的集合.PO中应该不包含任何对数据库的操作.
VO(value object) 值对象
通
- 算法复杂度
Wuaner
Algorithm
Time Complexity & Big-O:
http://stackoverflow.com/questions/487258/plain-english-explanation-of-big-o
http://bigocheatsheet.com/
http://www.sitepoint.com/time-complexity-algorithms/