- Transformer+目标检测,这一篇入门就够了
BIT可达鸭
▶深度学习-计算机视觉transformer深度学习目标检测计算机视觉自然语言处理
VisionTransformerforObjectDetection本文作者:Encoder-Decoder简介:Encoder-Decoder的缺陷:Attention机制:Self-Attention机制:Multi-HeadAttention:Transformer结构:图像分类之ViT:图像分类之PyramidViT:目标检测之DETR:目标检测之DeformableDETR:本文作者:
- 【笔记】Encoder-Decoder模型
808130260
python/机器学习
Encoder-DecoderFrameworkEncoder-DecoderEncoderDecoderDecoderwithAttention参考Encoder-DecoderEncoder输入:X=(x1,x2,...,xTx)X=(x_1,x_2,...,x_{T_x})X=(x1,x2,...,xTx)输出:上下文向量(contextvector)ccc步骤:ht=f(xt,ht−1)c
- 大模型时代,图像描述生成(image caption)怎么走?
Only_one_road
博闻强识自然语言处理人工智能图像处理计算机视觉视觉检测
背景Imagecaption是计算机视觉研究领域中的一个重要分支,其主要目标是根据输入的图像信息,生成相应的文字描述,从而完成对图像内容的准确描述。对于图像描述任务而言,最关键的是能够将图片中的信息以清晰准确的文字形式展现出来。对于熟悉图像领域的专家而言,这个问题应该并不陌生。主流结构:Transformer为了实现图像描述的任务,常见的方法是采用编码器-解码器(encoder-decoder)的
- 为什么现在的LLM都是Decoder only的架构
u013250861
LLM人工智能深度学习
结论:LLM之所以主要都用Decoder-only架构,除了训练效率和工程实现上的优势外,在理论上是因为Encoder的双向注意力会存在低秩问题,这可能会削弱模型表达能力,就生成任务而言,引入双向注意力并无实质好处。而Encoder-Decoder架构之所以能够在某些场景下表现更好,大概只是因为它多了一倍参数。所以,在同等参数量、同等推理成本下,Decoder-only架构就是最优选择了。为什么现
- LLM都是Decoder only的架构原因解读
u013250861
LLM架构
最近知乎上有这个问题:为什么现在的LLM都是Decoderonly的架构?稍微总结下:从模型实用层面来说:Decoder-only架构计算高效:相对于Encoder-Decoder架构,Decoder-only架构不需要编码器先编码整个输入序列,所以训练推理速度更快。Decoder-only架构内存占用少:Encoder-Decoder架构由于编码器的特点,每个patch的sentence都需要用
- 经典的语义分割(semantic segmentation)网络模型(综合篇)
花花少年
深度学习语义分割
重要说明:本文从网上资料整理而来,仅记录博主学习相关知识点的过程,侵删。一、参考资料Imagesegmentation二、语义分割相关介绍1.基础的语义分割架构project_summaryConvolutionalencoder-decoderarchitectureofpopularSegNetmodel.主流的语义分割网络大都是基于Encoder-Decoder结构的。在很多情况下,这些语义
- 预训练语言模型transformer
Icevivina
语言模型transformer人工智能
预训练语言模型的学习方法有三类:自编码(auto-encode,AE)、自回归(autoregressive,AR),Encoder-Decoder结构。决定PTM模型表现的真正原因主要有以下几点:更高质量、更多数量的预训练数据增加模型容量及复杂度,例如GoogleT5增加纵向复杂度,ALBERT增加横向复杂度,GPT3结合两者。更充分地训练模型,例如RoBERTa,增大batch_size和ep
- 大语言模型系列-T5
学海一叶
LLM语言模型人工智能自然语言处理深度学习神经网络
文章目录前言一、T5的网络结构和流程二、T5的预训练过程三、其他训练结论总结前言目前已经讲解了目前LLM的三大流派的两个起始模型:GPT-1(Decoderonly)、BERT(Encoderonly),但是这两个模型针对不同下游不同的NLP任务时还需要进行一定的修改(如添加一些线性层),Google经过庞大的预训练,最终提出了一个通用框架T5模型(Encoder-Decoder),将所有NLP任
- 51-12 多模态论文串讲—BLIP 论文精读
深圳季连AIgraphX
AutoGPT自动驾驶大模型transformer自动驾驶智慧城市人工智能gpt-3
视觉语言预训练VLP模型最近在各种多模态下游任务上获得了巨大的成功,目前还有两个主要局限性:(1)模型角度:大多数方法要么采用encoder模型,要么采用encoder-decoder模型。然而,基于编码器的模型不太容易直接转换到文本生成任务(如图像字幕),而编码器-解码器模型尚未成功用于图像文本检索任务。(2)数据角度:如CLIP、ALBEF等从web上收集到的图文对上进行预训练,目前用有噪声的
- python Seq2Seq模型源码实战,超详细Encoder-Decoder模型解析实战;早期机器翻译模型源码demo
医学小达人
NLPGPTLLMspythonseq2seq机器翻译编码器解码器
1.Seq2Seq(Encoder-Decoder)模型简介Seq2Seq(Encoder-Decoder)模型是一种常用于序列到序列(sequence-to-sequence)任务的深度学习模型。它由两个主要的组件组成:编码器(Encoder)和解码器(Decoder)。编码器负责将输入序列编码成一个固定长度的向量,该向量包含了输入序列的语义信息。常用的编码器模型有循环神经网络(RNN)和Tra
- 学习笔记之 机器学习之预测雾霾
JNU freshman
机器学习
文章目录Encoder-DecoderSeq2Seq(序列到序列)Encoder-Decoder基础的Encoder-Decoder是存在很多弊端的,最大的问题就是信息丢失。Encoder将输入编码为固定大小的向量的过程实际上是一个“信息有损的压缩过程”,如果信息量越大,那么这个转化向量的过程对信息的损失就越大,同时,随着序列长度(sequencelength)的增加,意味着时间维度上的序列很长,
- ChatGLM vs ChatGPT
南宫凝忆
大模型ChatGLMChatGPT
所有的NLP大模型都是transformer结构1.Maskattention的策略不同2.训练任务目标不同国内大模型nb公司:百度、清华智谱一、主流大模型粉色:Encoder-only。绿色:Encoder-Decoder,尽头智谱ChatGLM。蓝色:Decoder-only,尽头OpenAIGPT4。二、OpenAI与智谱发展时间线三、ChatGLMGLM支持国产GPU轻量化部署优势四、搜索
- Transformer模型
惊雲浅谈天
深度学习transformer深度学习人工智能
前置知识:Attention机制结构Transformer主要包括四部分,其中2,3两部分是Transformer的重点,Transformer是一个基于Encoder-Decoder框架的模型原理输入自然语言序列到编码器:Whydowework?(为什么要工作);编码器输出的隐藏层,再输入到解码器;输入(终止符),即序列生成完成。维度Transformer中的维度是指输入序列、输出序列、词嵌入、
- Self-Attention
惊雲浅谈天
深度学习深度学习人工智能
前置知识:RNN,Attention机制在一般任务的Encoder-Decoder框架中,输入Source和输出Target内容是不一样的,比如对于英-中机器翻译来说,Source是英文句子,Target是对应的翻译出的中文句子,Attention机制发生在Target的元素和Source中的所有元素之间。Self-Attention是在Source内部元素或者Target内部元素之间发生的Att
- LLM主流框架:Causal Decoder、Prefix Decoder和Encoder-Decoder
TFATS
GPT大模型nlp深度学习causaldecoderprefixdecoderencoderdecoderAIGC大模型
本文将介绍如下内容:transformer中的mask机制CausalDecoderPrefixDecoderEncoderDecoder总结一、transformer中的mask机制在Transformer模型中,mask机制是一种用于在self-attention中的技术,用以控制不同token之间的注意力交互。具体来说,Transformer中使用两种类型的mask:paddingmask和
- Transformer 是拥抱数据不确定性的艺术
孙庚辛
Transformer的架构、训练及推理等都是在Bayesian神经网络不确定性数学思维下来完成的。Encoder-Decoder架构、Multi-head注意力机制、Dropout和残差网络等都是Bayesian神经网络的具体实现;基于Transformer各种模型变种及实践也都是基于Bayesian思想指导下来应对数据的不确定性;混合使用各种类型的Embeddings来提供更好Prior信息其
- 【读文献】Attention is all your need - Transformer
无名草鸟
ai#文献transformer深度学习自然语言处理
题目:AttentionIsAllYouNeed主要作者:AshishVaswani,NoamShazeer主要机构:GoogleBrain,GoogleResearch发表时间:2017年1.要解决什么问题?基于RNN/CNN的Encoder-Decoder或者RNN带Attention的Encoder-Decoder不能并行计算或者并行计算的复杂度会随着输入输出距离的增加而大幅度增加,以及RN
- 论文阅读 Attention is all u need - transformer
highoooo
论文阅读transformer深度学习
文章目录1摘要1.1核心2模型架构2.1概览2.2理解encoder-decoder架构2.2.1对比seq2seq,RNN2.2.2我的理解3.Sublayer3.1多头注意力multi-headself-attention3.1.1缩放点乘注意力ScaledDot-ProductAttention3.1.2QKV3.1.3multi-head3.1.4masked3.2线性层MLP3.3emb
- 2024.1.7周报
Nyctophiliaa
深度学习人工智能机器学习
目录摘要ABSTRACT一、文献阅读1、题目2、摘要3、模型架构4、文献解读一、Introduction二、创新点三、实验过程四、结论二、深度学习知识一、从Encoder-Decoder框架中理解为什么要有Attention机制二、Attention思想三、Seq2Seq+Attention代码逐行实现总结摘要本周,我阅读了一篇名为NamedEntityRecognitionwithBidirec
- 学习周报2.26
hehehe2022
学习深度学习人工智能
文章目录前言文献阅读摘要方法结果深度学习Encoder-Decoder(编码-解码)信息丢失的问题Attention机制总结前言Thisweek,Ireadanarticleaboutdailystreamflowprediction.Thisstudyshowstheresultsofanin-depthcomparisonbetweentwodifferentdailystreamflowpr
- 第三十八周周报:文献阅读 +BILSTM+GRU+Seq2seq
m0_66015895
lstm人工智能rnn
目录摘要Abstract文献阅读:耦合时间和非时间序列模型模拟城市洪涝区洪水深度现有问题提出方法创新点XGBoost和LSTM耦合模型XGBoost算法编辑LSTM(长短期记忆网络)耦合模型研究实验数据集评估指标研究目的洪水深度预测实验结果LSTM变体BidirectionalLSTM(双向LSTM)GRU(门循环控制单元)Seq2seq模型编码器-解码器(encoder-decoder)架构Se
- 机器学习-基于attention机制来实现对Image Caption图像描述实验
septnancye
02学习笔记(随记)机器学习人工智能attention机制
机器学习-基于attention机制来实现对ImageCaption图像描述实验实验目的基于attention机制来实现对ImageCaption图像描述实验内容1.了解一下RNN的Encoder-Decoder结构在最原始的RNN结构中,输入序列和输出序列必须是严格等长的。但在机器翻译等任务中,源语言句子的长度和目标语言句子的长度往往不同,因此我们需要将原始序列映射为一个不同长度的序列。Enco
- Attention机制
惊雲浅谈天
机器学习深度学习神经网络自然语言处理
前置知识:RNN,LSTM/GRU提出背景Attention模型是基于Encoder-Decoder框架提出的。Encoder-Decoder框架,也就是编码-解码框架,主要被用来处理序列-序列问题。Encoder:编码器,将输入的序列编码,使其转化为一个语义编码C,这个C中就储存了序列的信息。Decoder:解码器,根据输入的语义编码C,然后将其解码成序列数据编码方式有很多种,在文本处理领域主要
- 不用再找了,这是大模型最全的面试题库
机器学习社区
大模型自然语言CV面试职场和发展大模型面试题算法工程师
本项目是作者们根据个人面试和经验总结出的大模型(LLMs)面试准备的学习笔记与资料,该资料目前包含大模型(LLMs)各领域的面试题积累。大模型(LLMs)基础面目前主流的开源模型体系有哪些?prefixDecoder和causalDecoder和Encoder-Decoder区别是什么?大模型LLM的训练目标是什么?涌现能力是啥原因?为何现在的大模型大部分是Decoderonly结构?简单介绍一下
- Scaling Down, LiTting Up: Efficient Zero-Shot Listwise Reranking with Seq2seq Encoder-Decoder Models
步子哥
人工智能
Q:这篇论文试图解决什么问题?A:这篇论文介绍了两种基于T5模型的零样本列表重排方法,旨在提高列表重排的效率。作者提出了两个研究问题:1)序列到序列的编码器-解码器模型是否可以适应列表重排?2)是否可以将更大模型的重排效果提炼到更小的序列到序列编码器-解码器重排模型中?为了回答这些问题,作者提出了两种方法:LiT5-Distill和LiT5-Score。LiT5-Distill通过蒸馏从更大的Ra
- Encoder-Decoder综述理解(推荐)
爱科研的徐博士
【算法】深度学习从0到1机器学习深度学习算法
文章目录一、Encoder-Decoder(编码-解码)介绍几点说明信息丢失的问题应用二、Seq2Seq(序列到序列)介绍Seq2Seq与Encoder-Decoder三、代码实现任务描述数据集设计模型模型的实现过程数据预处理代码如下:四种Encoder-Decoder模式参考文献一、Encoder-Decoder(编码-解码)介绍Encoder-Decoder是一个模型构架,是一类算法统称,并不
- 大语言模型的三种主要架构 Decoder-Only、Encoder-Only、Encoder-Decoder
Charles_yy
LLM大语言模型
现代大型语言模型(LLM)的演变进化树,如下图:https://arxiv.org/pdf/2304.13712.pdf基于Transformer模型以非灰色显示:decoder-only模型在蓝色分支,encoder-only模型在粉色分支,encoder-decoder模型在绿色分支。模型在时间线上的垂直位置表示它们的发布日期。开源模型由实心方块表示,而闭源模型由空心方块表示。右下角的堆积条形
- 常见注意力机制原理介绍与对比
林ch
文本生成
1.引言自从2014年Seq2Seq提出以来,神经机器翻译取得了很多的进展,但是大部分模型都是基于encoder-decoder的结构,这就要求encoder对于输入序列的编码能力要足够强,才能确保得到的输入序列的上下文向量能够尽可能地保留输入序列的信息。而我们知道,随着句子的长度逐渐变长,上下文向量的表达能力其实是会逐渐下降的,因为它没法完全保留输入序列的大部分信息。因此,为了克服这个问题,使得
- Encoder-Decoder和Auto-Encoder的简介
碧蓝的天空丶
深度学习人工智能
目录#一、Encoder-Decoder1.Encoder2.Decoder3.Encoder-Decoder几点说明存在的问题Auto-Encoder简介Auto-Encoder代码实现(以MNIST手写数据集为例)#一、Encoder-Decoder1.EncoderEncoder也就是编码器,作用是将输入序列转化成一个固定维度的向量,这个向量就可以看成输入序列的语义,利用语义可以做一些下游的
- GRU,LSTM,encoder-decoder架构,seq2seq的相关概念
hadiii
grulstm人工智能深度学习pythonrnn
门控记忆单元(GRU)GRU模型有专门的机制来确定应该何时更新隐状态,以及应该何时重置隐状态。这些机制是可学习的。门控循环单元具有以下两个显著特征:重置门有助于捕获序列中的短期依赖关系;更新门有助于捕获序列中的长期依赖关系。计算门控循环单元模型中的隐状态GRU中的四个计算公式(符号⊙是Hadamard积,按元素乘积):Rt=σ(XtWxr+Ht−1Whr+br)R_t=σ(X_tW_{xr}+H_
- github中多个平台共存
jackyrong
github
在个人电脑上,如何分别链接比如oschina,github等库呢,一般教程之列的,默认
ssh链接一个托管的而已,下面讲解如何放两个文件
1) 设置用户名和邮件地址
$ git config --global user.name "xx"
$ git config --global user.email "
[email protected]"
- ip地址与整数的相互转换(javascript)
alxw4616
JavaScript
//IP转成整型
function ip2int(ip){
var num = 0;
ip = ip.split(".");
num = Number(ip[0]) * 256 * 256 * 256 + Number(ip[1]) * 256 * 256 + Number(ip[2]) * 256 + Number(ip[3]);
n
- 读书笔记-jquey+数据库+css
chengxuyuancsdn
htmljqueryoracle
1、grouping ,group by rollup, GROUP BY GROUPING SETS区别
2、$("#totalTable tbody>tr td:nth-child(" + i + ")").css({"width":tdWidth, "margin":"0px", &q
- javaSE javaEE javaME == API下载
Array_06
java
oracle下载各种API文档:
http://www.oracle.com/technetwork/java/embedded/javame/embed-me/documentation/javame-embedded-apis-2181154.html
JavaSE文档:
http://docs.oracle.com/javase/8/docs/api/
JavaEE文档:
ht
- shiro入门学习
cugfy
javaWeb框架
声明本文只适合初学者,本人也是刚接触而已,经过一段时间的研究小有收获,特来分享下希望和大家互相交流学习。
首先配置我们的web.xml代码如下,固定格式,记死就成
<filter>
<filter-name>shiroFilter</filter-name>
&nbs
- Array添加删除方法
357029540
js
刚才做项目前台删除数组的固定下标值时,删除得不是很完整,所以在网上查了下,发现一个不错的方法,也提供给需要的同学。
//给数组添加删除
Array.prototype.del = function(n){
- navigation bar 更改颜色
张亚雄
IO
今天郁闷了一下午,就因为objective-c默认语言是英文,我写的中文全是一些乱七八糟的样子,到不是乱码,但是,前两个自字是粗体,后两个字正常体,这可郁闷死我了,问了问大牛,人家告诉我说更改一下字体就好啦,比如改成黑体,哇塞,茅塞顿开。
翻书看,发现,书上有介绍怎么更改表格中文字字体的,代码如下
 
- unicode转换成中文
adminjun
unicode编码转换
在Java程序中总会出现\u6b22\u8fce\u63d0\u4ea4\u5fae\u535a\u641c\u7d22\u4f7f\u7528\u53cd\u9988\uff0c\u8bf7\u76f4\u63a5这个的字符,这是unicode编码,使用时有时候不会自动转换成中文就需要自己转换了使用下面的方法转换一下即可。
/**
* unicode 转换成 中文
- 一站式 Java Web 框架 firefly
aijuans
Java Web
Firefly是一个高性能一站式Web框架。 涵盖了web开发的主要技术栈。 包含Template engine、IOC、MVC framework、HTTP Server、Common tools、Log、Json parser等模块。
firefly-2.0_07修复了模版压缩对javascript单行注释的影响,并新增了自定义错误页面功能。
更新日志:
增加自定义系统错误页面功能
- 设计模式——单例模式
ayaoxinchao
设计模式
定义
Java中单例模式定义:“一个类有且仅有一个实例,并且自行实例化向整个系统提供。”
分析
从定义中可以看出单例的要点有三个:一是某个类只能有一个实例;二是必须自行创建这个实例;三是必须自行向系统提供这个实例。
&nb
- Javascript 多浏览器兼容性问题及解决方案
BigBird2012
JavaScript
不论是网站应用还是学习js,大家很注重ie与firefox等浏览器的兼容性问题,毕竟这两中浏览器是占了绝大多数。
一、document.formName.item(”itemName”) 问题
问题说明:IE下,可以使用 document.formName.item(”itemName”) 或 document.formName.elements ["elementName&quo
- JUnit-4.11使用报java.lang.NoClassDefFoundError: org/hamcrest/SelfDescribing错误
bijian1013
junit4.11单元测试
下载了最新的JUnit版本,是4.11,结果尝试使用发现总是报java.lang.NoClassDefFoundError: org/hamcrest/SelfDescribing这样的错误,上网查了一下,一般的解决方案是,换一个低一点的版本就好了。还有人说,是缺少hamcrest的包。去官网看了一下,如下发现:
- [Zookeeper学习笔记之二]Zookeeper部署脚本
bit1129
zookeeper
Zookeeper伪分布式安装脚本(此脚本在一台机器上创建Zookeeper三个进程,即创建具有三个节点的Zookeeper集群。这个脚本和zookeeper的tar包放在同一个目录下,脚本中指定的名字是zookeeper的3.4.6版本,需要根据实际情况修改):
#!/bin/bash
#!!!Change the name!!!
#The zookeepe
- 【Spark八十】Spark RDD API二
bit1129
spark
coGroup
package spark.examples.rddapi
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.SparkContext._
object CoGroupTest_05 {
def main(args: Array[String]) {
v
- Linux中编译apache服务器modules文件夹缺少模块(.so)的问题
ronin47
modules
在modules目录中只有httpd.exp,那些so文件呢?
我尝试在fedora core 3中安装apache 2. 当我解压了apache 2.0.54后使用configure工具并且加入了 --enable-so 或者 --enable-modules=so (两个我都试过了)
去make并且make install了。我希望在/apache2/modules/目录里有各种模块,
- Java基础-克隆
BrokenDreams
java基础
Java中怎么拷贝一个对象呢?可以通过调用这个对象类型的构造器构造一个新对象,然后将要拷贝对象的属性设置到新对象里面。Java中也有另一种不通过构造器来拷贝对象的方式,这种方式称为
克隆。
Java提供了java.lang.
- 读《研磨设计模式》-代码笔记-适配器模式-Adapter
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
package design.pattern;
/*
* 适配器模式解决的主要问题是,现有的方法接口与客户要求的方法接口不一致
* 可以这样想,我们要写这样一个类(Adapter):
* 1.这个类要符合客户的要求 ---> 那显然要
- HDR图像PS教程集锦&心得
cherishLC
PS
HDR是指高动态范围的图像,主要原理为提高图像的局部对比度。
软件有photomatix和nik hdr efex。
一、教程
叶明在知乎上的回答:
http://www.zhihu.com/question/27418267/answer/37317792
大意是修完后直方图最好是等值直方图,方法是HDR软件调一遍,再结合不透明度和蒙版细调。
二、心得
1、去除阴影部分的
- maven-3.3.3 mvn archetype 列表
crabdave
ArcheType
maven-3.3.3 mvn archetype 列表
可以参考最新的:http://repo1.maven.org/maven2/archetype-catalog.xml
[INFO] Scanning for projects...
[INFO]
- linux shell 中文件编码查看及转换方法
daizj
shell中文乱码vim文件编码
一、查看文件编码。
在打开文件的时候输入:set fileencoding
即可显示文件编码格式。
二、文件编码转换
1、在Vim中直接进行转换文件编码,比如将一个文件转换成utf-8格式
&
- MySQL--binlog日志恢复数据
dcj3sjt126com
binlog
恢复数据的重要命令如下 mysql> flush logs; 默认的日志是mysql-bin.000001,现在刷新了重新开启一个就多了一个mysql-bin.000002
- 数据库中数据表数据迁移方法
dcj3sjt126com
sql
刚开始想想好像挺麻烦的,后来找到一种方法了,就SQL中的 INSERT 语句,不过内容是现从另外的表中查出来的,其实就是 MySQL中INSERT INTO SELECT的使用
下面看看如何使用
语法:MySQL中INSERT INTO SELECT的使用
1. 语法介绍
有三张表a、b、c,现在需要从表b
- Java反转字符串
dyy_gusi
java反转字符串
前几天看见一篇文章,说使用Java能用几种方式反转一个字符串。首先要明白什么叫反转字符串,就是将一个字符串到过来啦,比如"倒过来念的是小狗"反转过来就是”狗小是的念来过倒“。接下来就把自己能想到的所有方式记录下来了。
1、第一个念头就是直接使用String类的反转方法,对不起,这样是不行的,因为Stri
- UI设计中我们为什么需要设计动效
gcq511120594
UIlinux
随着国际大品牌苹果和谷歌的引领,最近越来越多的国内公司开始关注动效设计了,越来越多的团队已经意识到动效在产品用户体验中的重要性了,更多的UI设计师们也开始投身动效设计领域。
但是说到底,我们到底为什么需要动效设计?或者说我们到底需要什么样的动效?做动效设计也有段时间了,于是尝试用一些案例,从产品本身出发来说说我所思考的动效设计。
一、加强体验舒适度
嗯,就是让用户更加爽更加爽的用
- JBOSS服务部署端口冲突问题
HogwartsRow
java应用服务器jbossserverEJB3
服务端口冲突问题的解决方法,一般修改如下三个文件中的部分端口就可以了。
1、jboss5/server/default/conf/bindingservice.beans/META-INF/bindings-jboss-beans.xml
2、./server/default/deploy/jbossweb.sar/server.xml
3、.
- 第三章 Redis/SSDB+Twemproxy安装与使用
jinnianshilongnian
ssdbreidstwemproxy
目前对于互联网公司不使用Redis的很少,Redis不仅仅可以作为key-value缓存,而且提供了丰富的数据结果如set、list、map等,可以实现很多复杂的功能;但是Redis本身主要用作内存缓存,不适合做持久化存储,因此目前有如SSDB、ARDB等,还有如京东的JIMDB,它们都支持Redis协议,可以支持Redis客户端直接访问;而这些持久化存储大多数使用了如LevelDB、RocksD
- ZooKeeper原理及使用
liyonghui160com
ZooKeeper是Hadoop Ecosystem中非常重要的组件,它的主要功能是为分布式系统提供一致性协调(Coordination)服务,与之对应的Google的类似服务叫Chubby。今天这篇文章分为三个部分来介绍ZooKeeper,第一部分介绍ZooKeeper的基本原理,第二部分介绍ZooKeeper
- 程序员解决问题的60个策略
pda158
框架工作单元测试
根本的指导方针
1. 首先写代码的时候最好不要有缺陷。最好的修复方法就是让 bug 胎死腹中。
良好的单元测试
强制数据库约束
使用输入验证框架
避免未实现的“else”条件
在应用到主程序之前知道如何在孤立的情况下使用
日志
2. print 语句。往往额外输出个一两行将有助于隔离问题。
3. 切换至详细的日志记录。详细的日
- Create the Google Play Account
sillycat
Google
Create the Google Play Account
Having a Google account, pay 25$, then you get your google developer account.
References:
http://developer.android.com/distribute/googleplay/start.html
https://p
- JSP三大指令
vikingwei
jsp
JSP三大指令
一个jsp页面中,可以有0~N个指令的定义!
1. page --> 最复杂:<%@page language="java" info="xxx"...%>
* pageEncoding和contentType:
> pageEncoding:它