- 自然语言处理领域论文整理(持续更新)
零戚
自然语言处理人工智能
一、所有看过的论文序号标题+年份作者标签github代码链接内容简述原文链接状态1AttentionIsAllYouNeed(2017年)AshishVaswani∗,NoamShazeer∗模型,transformer,自然语言处理https://github.com/tensorflow/tensor2tensor主要讲了transformer的内容[1706.03762]AttentionI
- 深度了解Transformer【1】
小菜学AI
基础相关深度学习人工智能nlp
深度了解Transformer【1】前言:Transformer由论文《AttentionisAllYouNeed》提出,谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。本文采取逐一的介绍论文里面的核心概念,希望让普通读者也能轻易理解。论文下载:A
- SinusoidalPositionalEmbedding/tensor2tensor中实现的绝对位置编码
云帆@
torchpython深度学习pytorch
一、目录代码二、实现代码importtorch.nnasnnimportmathimporttorchfromtypingimportOptional,AnyclassSinusoidalPositionalEmbedding(nn.Embedding):"""Thismoduleproducessinusoidalpositionalembeddingsofanylength.Wedon'twa
- tensor2tensor 1.10--Modality
chao0804
tensor2tensor中抽象出了一个Modality类,用来解耦模型主干和依赖任务的数据形式转化。例如一个self-attention模块既可以用于离散的字词序列,也可以用于图像的某个维度向量序列上,前提是需要转换成特定格式。Modality就是负责具体数据转化,包括词嵌入、交换维度、输出映射、计算损失值等,所以Modality是在Problem类中的hparams方法中设置的,依赖于具体数据
- 论文精读Transformer: Attention is all you need
EEPI
transformer深度学习人工智能
1基础背景2Motivation3解决思路3.1Encoder3.2Decoder4复杂度分析5结果6知识补充7评价1基础背景由Google机器翻译GoogleBrain团队发表。论文链接:https://arxiv.org/abs/1706.03762源码链接:https://github.com/tensorflow/tensor2tensor一句话概述:Attention机制摒弃了循环神经网
- Attention is all you need 官方 tensorflow 1.x 实现
Eloudy
tensorflowtransformer
https://github.com/tensorflow/tensor2tensor/blob/master/tensor2tensor/models/transformer.py1,搭建cuda10.0环境,2,安装tensorflow1.14.03,安装python3的tensor2tensor包4,示例代码:importtensorflowastfimporttensor2tensoras
- 在Seq2Seq和注意力机制中如何可视化模型细节
2cd1
参考:https://www.jianshu.com/p/df7906a2a28e上面的参考博文中重点介绍了Bert的可视化后的结果,将Bert中的注意力机制通过Tensor2Tensor工具描述出来。另外另一个开源库BertViz有含有Transformer模型的各种模型更详细的可视化。https://github.com/jessevig/bertvizBertViz是用于可视化Transfo
- Attention Is All You Need
watersink
NLP深度学习tensorflow人工智能
论文:AttentionIsAllYouNeedGithub:GitHub-tensorflow/tensor2tensor:LibraryofdeeplearningmodelsanddatasetsdesignedtomakedeeplearningmoreaccessibleandaccelerateMLresearch.打破传统基于cnn,lstm等的序列翻译模型,论文提出了一个新的网络结
- Tensor2Tensor使用入门
Nevrast
1.简介Tensor2Tensor是google出品的一个神仙级工具包,能大大简化类似模型的开发调试时间。在众多的深度学习工具中,个人认为这货属于那种门槛还比较高的工具。并且google家的文档一向做得很辣鸡,都是直接看源码注释摸索怎么使用。Tensor2Tensor的版本和Tensorflow版本是对应的,我电脑上是tensorflow1.14.0,就这样安装了pipinstalltensor2
- Unable to determine the device handle for GPU 0000:02:00.0: GPU is lost. Reboot the sys
hpulfc
机器学习GPUtensor2tensorissue
在使用tensor2tensor进行训练的时候,设置worker_gpu=4(显卡总数为4),运行一会儿就会出现下面的情况:UnabletodeterminethedevicehandleforGPU0000:02:00.0:GPUislost.RebootthesystemtorecoverthisGPU暂时还没查到原因,有查找的可以私信或是在评论中探讨一下!最近看到了一些解决方式,可以参考。不
- Transformer浅析
Chermack
注意力机制深度学习人工智能机器学习
原论文地址:https://arxiv.org/abs/1706.03762原解析地址:https://jalammar.github.io/illustrated-transformer/代码地址:https://github.com/tensorflow/tensor2tensor一、概述本文内容是对《AttentionIsAllYouNeed》所提出的Transformer模型进行的简单梳理
- Transformer模型详解(图解最完整版)
初识-CV
计算机视觉transformer自注意力Self-AttentionRNNMulti-Head
前言Transformer由论文《AttentionisAllYouNeed》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。在本文中,我们将试图把模型简化一点,并逐一介绍里面的核心概念,希望让普通读者也能轻易理解。Attentioni
- 【转载】The Annotated Transformer
不会爆冲不改名
NLP深度学习自然语言处理
最近在看Transformer,但是本人并不是NLP研究方向的,所以有诸多细节不理解,网上大多数博客讲的模棱两可又权威性不够,翻看了《attentionisallyouneed》论文中给的源码链接tensor2tensor,工程化的代码又实在太复杂,不适合初学者阅读。今天在BERT中发现作者在引用transformer的同时引用了harvard的这个链接http://nlp.seas.harvar
- NIPS-2017-原始变压器: Attention Is All You Need 阅读笔记
菜菜子hoho
深度学习transformer
论文地址:https://proceedings.neurips.cc/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf代码地址:https://github.com/tensorflow/tensor2tensor整体架构:编码器(Encoder):编码器由N=6个相同层的Encoders堆叠组成。每个Encoder两个子层。第
- image caption (四)Transformer
刘咚咚的记事本
imagecaption
Transformer:《attentionisallyourneed》Attention机制将任意位置的两个单词的距离转换成1,有效的解决了NLP中棘手的长期依赖问题。Transformer的结构在NLP领域中已经得到了广泛应用,并且作者已经发布在TensorFlow的tensor2tensor库中Encoder:(可并行)1)输入:单词Embedding位置Embedding(因为Transf
- 李沐精读论文:transformer 《Attention Is All You Need》 by Google
iwill323
李沐读论文transformer深度学习自然语言处理人工智能神经网络
论文:AttentionIsAllYouNeed视频:Transformer论文逐段精读【论文精读】_哔哩哔哩_bilibili课程(推荐先看这个):李宏毅机器学习:self-attention(自注意力机制)和transformer及其变形代码:https://github.com/tensorflow/tensor2tensor《TheAnnotatedTransformer》翻译——注释和代
- transformer版本翻译——从torch到tf2
小李飞刀李寻欢
Recommendationtransformerattentiontorchtf2
hi,各位大佬好,我依旧是小菜鸟。allyouneedisattention这个paper说的transformer附带的官方transformer代码太复杂了(就是tensor2tensor),哈佛NLP附带了torch版本的代码,本菜鸟要将torch转为tf,如果这个成功,所有公开的torch代码我都能转成tf了。ForRecommendationinDeeplearningQQSecondG
- 论文解析[6] Transformer: Attention Is All You Need
默_silence
#论文阅读transformer深度学习人工智能
发表年份:2017论文地址:https://arxiv.org/abs/1706.03762代码地址:https://github.com/tensorflow/tensor2tensor文章目录摘要3模型结构3.1编码器和解码器3.2注意力3.2.1ScaledDot-ProductAttention3.2.2多头注意力3.2.3模型中注意力的使用3.3Position-wiseFeed-For
- Pytorch中Tensor与各种图像格式(PIL 和 Numpy)的相互转化
Phoenixtree_DongZhao
随笔pythonpytorch
目录前言格式转换PIL与Tensor1PIL读取图片转化为Tensor2将PIL图片转化为Tensor3Tensor转化为PIL图片4直接展示tensor格式图片5直接保存tensor格式图片Numpy与Tensor1numpy转化为tensor2tensor转化为numpy3展示numpy格式图片4展示tensor格式图片前言在pytorch中经常会遇到图像格式的转化,例如将PIL库读取出来的图
- Transformer:Attention Is All You Need
不存在的c
transformer深度学习人工智能
《AttentionIsAllYouNeed》6Dec2017Transformer开山之作https://github.com/tensorflow/tensor2tensor;0摘要主要的序列转导模型基于包括编码器和解码器的复杂RNN和CNN。性能最好的模型还通过注意力机制连接编码器和解码器。我们提出了一种新的简单网络架构,即Transformer,它完全基于注意力机制,完全不用递归和卷积。在
- Transformer最详细解析
不可能打工
自然语言处理
Transformer由论文《AttentionisAllYouNeed》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。在本文中,我们将试图把模型简化一点,并逐一介绍里面的核心概念,希望让普通读者也能轻易理解。AttentionisA
- 【NLP】Transformer详解
元宇宙iwemeta
短视频云计算
【NLP】Transformer详解 Transformer在Google的一篇论文AttentionisAllYouNeed被提出,为了方便实现调用TransformerGoogle还开源了一个第三方库,基于TensorFlow的Tensor2Tensor,一个NLP的社区研究者贡献了一个Torch版本的支持:guideannotatingthepaperwithPyTorchimplement
- Transformer 模型
淇时
自然语言处理
Transformer模型论文:AttentionIsAllYouNeed代码:Tensor2Tensor哈佛PytorchTransformer代码torch.nn.TransformerTransformer模型也是一种seq2seq模型结构,由Encoder和Decoder组成,输入是一个序列,输出也是一个序列,可用于文本生成等。其中Encoders和Decoders都是同质的堆叠架构。Tr
- ImportError: No module named tensorflow.compat.v1
summer如歌
tensorflowpython深度学习
Tensor2Tensor运行出错ImportError:Nomodulenamedtensorflow.compat.v1链接:相关连接.解决办法tensor2tensor=1.13.0对应mesh-tensorflow=0.0.5
- Tensor2Tensor手把手使用教程
Lorenly
tensor2tensortensorflow
Tensor2Tensor手把手使用教程1.模型介绍2.一些前期操作2.1安装依赖包2.2创建相关文件夹3数据准备3.1自己造数据3.2定义自己的问题3.3生成数据4.模型训练5.deocde1.模型介绍Tensor2Tensor是谷歌基于TensorFlow开发的一个非常好用的深度学习库,该深度学习库包含了很多方面的功能,适用于很多模型,包括图片分类、图片生成、问答系统、情感分析、语言模型等。官
- 图解Transformer,读完这篇就够了
喜欢打酱油的老鸟
人工智能
来源:CSDN博客作者:JayAlammar本文约7293字,建议阅读14分钟。本文介绍了Transformer的有关知识,用简化的模型,逐一介绍核心概念。Transformer由论文《AttentionisAllYouNeed》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一
- 项目总结之机器翻译(使用tensor2tensor框架,transformer算法实现)--实战篇(机器翻译,序列生成)
huangrs098
自然语言处理nlp
下面会分这几部分来介绍1tensor2tensor的介绍2使用tensor2tensor训练翻译模型的具体操作3模型部署4目前使用的一些数据预处理,清洗的方法T2T使用了TensorFlow进行的有监督学习和为序列任务提供支持。它由谷歌大脑团队得工程师和研究员进行维护和使用。该系统最初是希望完全使用Attention方法来建模序列到序列(Sequence-to-Sequence,Seq2Seq)的
- 机器翻译Transformer实战:利用nvidia-docker和Tensorflow Serving快速部署一个基于Tensor2Tensor的神经机器翻译服务
kudou1994
模型部署Tensor2TensorT2T#机器翻译学习神经机器翻译
Docker目前也只是跑通,能进行基本的使用。如果有需求,还可以使用DockerGPU版本,可以使用GPU。以GPU版本为例:卸载原有的Dockersudoapt-getremovedockersudoapt-getremovedocker-cesudoapt-getremovedockerdocker-enginedocker.iocontainerdrunc本机环境nvidia驱动:最新版Ub
- 【NLP】Transformer详解
马苏比拉米G
NLP
Transformer在Google的一篇论文AttentionisAllYouNeed被提出,为了方便实现调用TransformerGoogle还开源了一个第三方库,基于TensorFlow的Tensor2Tensor,一个NLP的社区研究者贡献了一个Torch版本的支持:guideannotatingthepaperwithPyTorchimplementation。Transformer模
- Attention机制详解(二)——Self-Attention与Transformer
你的雷哥
RNN由于其顺序结构训练速度常常受到限制,既然Attention模型本身可以看到全局的信息,那么一个自然的疑问是我们能不能去掉RNN结构,仅仅依赖于Attention模型呢,这样我们可以使训练并行化,同时拥有全局信息?这一篇就主要根据谷歌的这篇AttentionisAllyouneed论文来回顾一下仅依赖于Attention机制的Transformer架构,并结合Tensor2Tensor源代码进
- java责任链模式
3213213333332132
java责任链模式村民告县长
责任链模式,通常就是一个请求从最低级开始往上层层的请求,当在某一层满足条件时,请求将被处理,当请求到最高层仍未满足时,则请求不会被处理。
就是一个请求在这个链条的责任范围内,会被相应的处理,如果超出链条的责任范围外,请求不会被相应的处理。
下面代码模拟这样的效果:
创建一个政府抽象类,方便所有的具体政府部门继承它。
package 责任链模式;
/**
*
- linux、mysql、nginx、tomcat 性能参数优化
ronin47
一、linux 系统内核参数
/etc/sysctl.conf文件常用参数 net.core.netdev_max_backlog = 32768 #允许送到队列的数据包的最大数目
net.core.rmem_max = 8388608 #SOCKET读缓存区大小
net.core.wmem_max = 8388608 #SOCKET写缓存区大
- php命令行界面
dcj3sjt126com
PHPcli
常用选项
php -v
php -i PHP安装的有关信息
php -h 访问帮助文件
php -m 列出编译到当前PHP安装的所有模块
执行一段代码
php -r 'echo "hello, world!";'
php -r 'echo "Hello, World!\n";'
php -r '$ts = filemtime("
- Filter&Session
171815164
session
Filter
HttpServletRequest requ = (HttpServletRequest) req;
HttpSession session = requ.getSession();
if (session.getAttribute("admin") == null) {
PrintWriter out = res.ge
- 连接池与Spring,Hibernate结合
g21121
Hibernate
前几篇关于Java连接池的介绍都是基于Java应用的,而我们常用的场景是与Spring和ORM框架结合,下面就利用实例学习一下这方面的配置。
1.下载相关内容: &nb
- [简单]mybatis判断数字类型
53873039oycg
mybatis
昨天同事反馈mybatis保存不了int类型的属性,一直报错,错误信息如下:
Caused by: java.lang.NumberFormatException: For input string: "null"
at sun.mis
- 项目启动时或者启动后ava.lang.OutOfMemoryError: PermGen space
程序员是怎么炼成的
eclipsejvmtomcatcatalina.sheclipse.ini
在启动比较大的项目时,因为存在大量的jsp页面,所以在编译的时候会生成很多的.class文件,.class文件是都会被加载到jvm的方法区中,如果要加载的class文件很多,就会出现方法区溢出异常 java.lang.OutOfMemoryError: PermGen space.
解决办法是点击eclipse里的tomcat,在
- 我的crm小结
aijuans
crm
各种原因吧,crm今天才完了。主要是接触了几个新技术:
Struts2、poi、ibatis这几个都是以前的项目中用过的。
Jsf、tapestry是这次新接触的,都是界面层的框架,用起来也不难。思路和struts不太一样,传说比较简单方便。不过个人感觉还是struts用着顺手啊,当然springmvc也很顺手,不知道是因为习惯还是什么。jsf和tapestry应用的时候需要知道他们的标签、主
- spring里配置使用hibernate的二级缓存几步
antonyup_2006
javaspringHibernatexmlcache
.在spring的配置文件中 applicationContent.xml,hibernate部分加入
xml 代码
<prop key="hibernate.cache.provider_class">org.hibernate.cache.EhCacheProvider</prop>
<prop key="hi
- JAVA基础面试题
百合不是茶
抽象实现接口String类接口继承抽象类继承实体类自定义异常
/* * 栈(stack):主要保存基本类型(或者叫内置类型)(char、byte、short、 *int、long、 float、double、boolean)和对象的引用,数据可以共享,速度仅次于 * 寄存器(register),快于堆。堆(heap):用于存储对象。 */ &
- 让sqlmap文件 "继承" 起来
bijian1013
javaibatissqlmap
多个项目中使用ibatis , 和数据库表对应的 sqlmap文件(增删改查等基本语句),dao, pojo 都是由工具自动生成的, 现在将这些自动生成的文件放在一个单独的工程中,其它项目工程中通过jar包来引用 ,并通过"继承"为基础的sqlmap文件,dao,pojo 添加新的方法来满足项
- 精通Oracle10编程SQL(13)开发触发器
bijian1013
oracle数据库plsql
/*
*开发触发器
*/
--得到日期是周几
select to_char(sysdate+4,'DY','nls_date_language=AMERICAN') from dual;
select to_char(sysdate,'DY','nls_date_language=AMERICAN') from dual;
--建立BEFORE语句触发器
CREATE O
- 【EhCache三】EhCache查询
bit1129
ehcache
本文介绍EhCache查询缓存中数据,EhCache提供了类似Hibernate的查询API,可以按照给定的条件进行查询。
要对EhCache进行查询,需要在ehcache.xml中设定要查询的属性
数据准备
@Before
public void setUp() {
//加载EhCache配置文件
Inpu
- CXF框架入门实例
白糖_
springWeb框架webserviceservlet
CXF是apache旗下的开源框架,由Celtix + XFire这两门经典的框架合成,是一套非常流行的web service框架。
它提供了JAX-WS的全面支持,并且可以根据实际项目的需要,采用代码优先(Code First)或者 WSDL 优先(WSDL First)来轻松地实现 Web Services 的发布和使用,同时它能与spring进行完美结合。
在apache cxf官网提供
- angular.equals
boyitech
AngularJSAngularJS APIAnguarJS 中文APIangular.equals
angular.equals
描述:
比较两个值或者两个对象是不是 相等。还支持值的类型,正则表达式和数组的比较。 两个值或对象被认为是 相等的前提条件是以下的情况至少能满足一项:
两个值或者对象能通过=== (恒等) 的比较
两个值或者对象是同样类型,并且他们的属性都能通过angular
- java-腾讯暑期实习生-输入一个数组A[1,2,...n],求输入B,使得数组B中的第i个数字B[i]=A[0]*A[1]*...*A[i-1]*A[i+1]
bylijinnan
java
这道题的具体思路请参看 何海涛的微博:http://weibo.com/zhedahht
import java.math.BigInteger;
import java.util.Arrays;
public class CreateBFromATencent {
/**
* 题目:输入一个数组A[1,2,...n],求输入B,使得数组B中的第i个数字B[i]=A
- FastDFS 的安装和配置 修订版
Chen.H
linuxfastDFS分布式文件系统
FastDFS Home:http://code.google.com/p/fastdfs/
1. 安装
http://code.google.com/p/fastdfs/wiki/Setup http://hi.baidu.com/leolance/blog/item/3c273327978ae55f93580703.html
安装libevent (对libevent的版本要求为1.4.
- [强人工智能]拓扑扫描与自适应构造器
comsci
人工智能
当我们面对一个有限拓扑网络的时候,在对已知的拓扑结构进行分析之后,发现在连通点之后,还存在若干个子网络,且这些网络的结构是未知的,数据库中并未存在这些网络的拓扑结构数据....这个时候,我们该怎么办呢?
那么,现在我们必须设计新的模块和代码包来处理上面的问题
- oracle merge into的用法
daizj
oraclesqlmerget into
Oracle中merge into的使用
http://blog.csdn.net/yuzhic/article/details/1896878
http://blog.csdn.net/macle2010/article/details/5980965
该命令使用一条语句从一个或者多个数据源中完成对表的更新和插入数据. ORACLE 9i 中,使用此命令必须同时指定UPDATE 和INSE
- 不适合使用Hadoop的场景
datamachine
hadoop
转自:http://dev.yesky.com/296/35381296.shtml。
Hadoop通常被认定是能够帮助你解决所有问题的唯一方案。 当人们提到“大数据”或是“数据分析”等相关问题的时候,会听到脱口而出的回答:Hadoop! 实际上Hadoop被设计和建造出来,是用来解决一系列特定问题的。对某些问题来说,Hadoop至多算是一个不好的选择,对另一些问题来说,选择Ha
- YII findAll的用法
dcj3sjt126com
yii
看文档比较糊涂,其实挺简单的:
$predictions=Prediction::model()->findAll("uid=:uid",array(":uid"=>10));
第一个参数是选择条件:”uid=10″。其中:uid是一个占位符,在后面的array(“:uid”=>10)对齐进行了赋值;
更完善的查询需要
- vim 常用 NERDTree 快捷键
dcj3sjt126com
vim
下面给大家整理了一些vim NERDTree的常用快捷键了,这里几乎包括了所有的快捷键了,希望文章对各位会带来帮助。
切换工作台和目录
ctrl + w + h 光标 focus 左侧树形目录ctrl + w + l 光标 focus 右侧文件显示窗口ctrl + w + w 光标自动在左右侧窗口切换ctrl + w + r 移动当前窗口的布局位置
o 在已有窗口中打开文件、目录或书签,并跳
- Java把目录下的文件打印出来
蕃薯耀
列出目录下的文件文件夹下面的文件目录下的文件
Java把目录下的文件打印出来
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
蕃薯耀 2015年7月11日 11:02:
- linux远程桌面----VNCServer与rdesktop
hanqunfeng
Desktop
windows远程桌面到linux,需要在linux上安装vncserver,并开启vnc服务,同时需要在windows下使用vnc-viewer访问Linux。vncserver同时支持linux远程桌面到linux。
linux远程桌面到windows,需要在linux上安装rdesktop,同时开启windows的远程桌面访问。
下面分别介绍,以windo
- guava中的join和split功能
jackyrong
java
guava库中,包含了很好的join和split的功能,例子如下:
1) 将LIST转换为使用字符串连接的字符串
List<String> names = Lists.newArrayList("John", "Jane", "Adam", "Tom");
- Web开发技术十年发展历程
lampcy
androidWeb浏览器html5
回顾web开发技术这十年发展历程:
Ajax
03年的时候我上六年级,那时候网吧刚在小县城的角落萌生。传奇,大话西游第一代网游一时风靡。我抱着试一试的心态给了网吧老板两块钱想申请个号玩玩,然后接下来的一个小时我一直在,注,册,账,号。
彼时网吧用的512k的带宽,注册的时候,填了一堆信息,提交,页面跳转,嘣,”您填写的信息有误,请重填”。然后跳转回注册页面,以此循环。我现在时常想,如果当时a
- 架构师之mima-----------------mina的非NIO控制IOBuffer(说得比较好)
nannan408
buffer
1.前言。
如题。
2.代码。
IoService
IoService是一个接口,有两种实现:IoAcceptor和IoConnector;其中IoAcceptor是针对Server端的实现,IoConnector是针对Client端的实现;IoService的职责包括:
1、监听器管理
2、IoHandler
3、IoSession
- ORA-00054:resource busy and acquire with NOWAIT specified
Everyday都不同
oraclesessionLock
[Oracle]
今天对一个数据量很大的表进行操作时,出现如题所示的异常。此时表明数据库的事务处于“忙”的状态,而且被lock了,所以必须先关闭占用的session。
step1,查看被lock的session:
select t2.username, t2.sid, t2.serial#, t2.logon_time
from v$locked_obj
- javascript学习笔记
tntxia
JavaScript
javascript里面有6种基本类型的值:number、string、boolean、object、function和undefined。number:就是数字值,包括整数、小数、NaN、正负无穷。string:字符串类型、单双引号引起来的内容。boolean:true、false object:表示所有的javascript对象,不用多说function:我们熟悉的方法,也就是
- Java enum的用法详解
xieke90
enum枚举
Java中枚举实现的分析:
示例:
public static enum SEVERITY{
INFO,WARN,ERROR
}
enum很像特殊的class,实际上enum声明定义的类型就是一个类。 而这些类都是类库中Enum类的子类 (java.l