- 李沐55_循环神经网络RNN简洁实现——自学笔记
Rrrrrr900
rnn深度学习神经网络pytorch循环神经网络python李沐
读取《时间机器》数据集!pipinstalld2l!pipinstall--upgraded2l==0.17.5#d2l需要更新importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFfromd2limporttorchasd2lbatch_size,num_steps=32,35train_iter,vocab=d2l.load_da
- BERT开源代码分析(一)——dataset数据加载模块
时光诺言
机器学习—NLP领域bert人工智能深度学习pythonnlp
dataset模块pytorch版本的BERT的源码链接我将会为大家梳理代码,解读代码。并提出自己的一些见解基本注释已经穿插在代码块中,另外一些看法单独拿出来说1.vocab.py#导包importpickleimporttqdmfromcollectionsimportCounterclassTorchVocab(object):def__init__(self,counter,max_size
- ValueError: The model‘s vocab size is set to -1 in params.json. 部署llama-2-chat-7B
qq_45719856
llamalinuxjson语言模型
部署llama-2-chat-7B模型时,遇到以下问题输入以下命令python3convert.py--outfile./models/llama-2-7b-chat../llama/llama-2-7b-chat/出现以下问题。Traceback(mostrecentcalllast):File"/home/zack/llama.cpp/convert.py",line1658,inmain(s
- Finetune时更改tokenizer词表
Alicesla
pythonpytorchnlp
由于模型训练的需要,当前词表对分词操作不理想,因此选择修改tokenizer词表~在special_tokens中添加不想被拆分开的单词或者文字special_tokens=[]withopen("待添加词所在文件","r")asf_vocab:forlineinf_vocab:special_tokens.append(line.strip())tokenizer=AutoTokenizer.f
- [玩转AIGC]LLaMA2训练中文文章撰写神器(数据准备,数据处理,模型训练,模型推理)
六五酥
玩转AIGCAIGC
目录一、下载并加载中文数据集二、中文数据集处理1、数据格式2、数据集处理之tokenizer训练格式1)先将一篇篇文本拼凑到一起(只是简单的拼凑一起,用于训练tokenizer)2)将数据集进行合并3、数据集处理之模型(llama2)训练(train.py)格式三、训练一个tokenizer四、使用训练的tokenizer预编码输入数据五、训练llama2模型1、修改参数1)vocab_size2
- 单词和单词编号对应字典的写法
__心似大海__
小技巧NLP
最近看到两种实现,第一种是用循环,第二种很值得借鉴:#vocab:['xx','xx',...]word_to_idx={word:ifori,wordinenumerate(vocab)}idx_to_word={i:wordfori,wordinenumerate(vocab)}
- huggingface实战bert-base-chinese模型(训练+预测)
tangjunjun-owen
huggingfacebert人工智能深度学习huggingfacenlp
文章目录前言一、bert模型词汇映射说明二、bert模型输入解读1、input_ids说明2、attention_mask说明3、token_type_ids说明4、模型输入与vocab映射内容二、huggingface模型数据加载1、数据格式查看2、数据dataset处理3、tokenizer处理dataset数据三、huggingface训练bert分类模型1、huggingface训练ber
- opennmt安装踩坑记录
p_w
两种安装方式:1、pipinstall这种安装方式装的opennmt是1.2.0版本,会导致onmt_build_vocab等命令无法识别。解决方法:pipinstall--upgradeOpenNMT-py==2.0.0rc12、buildgitclonehttps://github.com/OpenNMT/OpenNMT-py.gitcdOpenNMT-pypythonsetup.pyinst
- CharRNN实现简单的文本生成
一壶浊酒..
自然语言处理深度学习python开发语言自然语言处理nlp
文本数字表示统计文档中的字符,并且统计字符个数。这里是为了将文字转换为数字表示。importnumpyasnpimportreimporttorchclassTextConverter(object):def__init__(self,text_path,max_vocab=5000):"""建立一个字符索引转换,主要还是为了生成一个词汇表:paramtext_path:文本位置:parammax
- Stable Diffusion Webui在Linux服务器第一次运行不能连接huggingface
Moriton
stablediffusion
第一次运行stable-diffusion-webui出现了如下错误'(MaxRetryError("HTTPSConnectionPool(host='huggingface.co',port=443):Maxretriesexceededwithurl:/openai/clip-vit-large-patch14/resolve/main/vocab.json(CausedbyConnectT
- [tf]定义默认初始化的方式,
VanJordan
使用withtf.variable_scope()指定统一的initializer,那么在模型里面的话就self.src_embedding=tf.get_variable("src_emb",[SRC_VOCAB_SIZE,HIDDEN_SIZE])这样就行了,不用每一个都指定initializer。initializer=tf.random_uniform_initializer(-0.05,
- import pyLDAvis as gensimvis报错
MilkLeong
自然语言处理pythonnlp
想对LDA模型分析结果可视化的时候,调用pyLDAvis模块反复报错,错误主要有如下两个:(1)odule'pyLDAvis.gensim_models'hasnoattribute'enable_notebook'(2)prepare()missing2requiredpositionalarguments:'vocab'and'term_frequency'可能跟自己对这些第三方package
- Python统计文本的单词数和句子数
Pr 彭儒
深度学习工具
#!/usr/bin/envpythonimportnumpyimportjsonimportsysimportfileinputfromcollectionsimportOrderedDictimporttorch#计算pt文件下的单词数##计算源端的词汇##src_vocab_a=checkpoint_a['src'].base_field.vocab#tgt_vocab_a=checkpoi
- Keras实现Transformer
缘起性空、
keras深度学习机器学习transformer
#导入所需的库importnumpyasnpfromkeras.modelsimportModelfromkeras.layersimportInput,Dense,Embedding,MultiHeadAttentionfromkeras.optimizersimportAdam#定义模型参数vocab_size=10000#词汇表大小embedding_dim=256#嵌入维度num_head
- 【模型整体的结构1】2021-04-28
star星陨
#五个部分结构图#1模型参数(超参数)data{'name':'aishell','vocab':'egs/aishell/data/text2.txt','batch_size':8,'dataset_type':'online','model_unit':'chars','train':{'feat':['egs/aishell/data/train/wav.scp'],'text':['eg
- Transformer实现的一个Demo
极乐净土0822
transformerpython深度学习
RT,直接上代码,可以跑通:#encoding:utf-8importtorchimporttorch.nnasnnimportnumpyasnpimportmathclassConfig(object):def__init__(self):self.vocab_size=6self.d_model=512self.n_heads=4assertself.d_model%self.n_heads=
- 【PyTorch】torch.data.Field 参数与方法详解 & Embedding 层浅谈
Anova.YJ
PyTorch
以下内容基于torchtext0.8.0Docs\rmtorchtext~0.8.0~Docstorchtext0.8.0Docs展开。文章目录Field类功能.构造参数.成员函数build_vocab.Embedding.Field类功能.Field\rmFieldField类对可以用张量Tensor\rmTensorTensor表示的常见文本处理数据类型进行处理,包含一个Vocab\rmVoc
- GPT每预测一个token就要调用一次模型
Takoony
gpt人工智能
问题:下图调用了多少次模型?不久以前我以为是调用一次通过看代码是输出多少个token就调用多少次,如图所示:我理解为分类模型预测下一个token可以理解为分类模型,类别是vocab的所有token,每一次调用都是在分类为什么不能一次输出呢从数学维度来讲,本质是条件概率,每次预测token都要基于前面的token为条件;比如说预测了某个token,设为t1,然后要预测t2,这个时候t1要成为t2的条
- gemsim Doc2Vec infer_vector()输入相同的句子,得到不同的向量
hi_lan
造成这个原因是因为Doc2Vec是不关注vocab的顺序的word_vocabs=[model.vocab[w]forwindoc_wordsifwinmodel.vocabandmodel.vocab[w].sample_int>model.random.rand()*2**32]解决方案每次要调用infer_vector()的时候,重新loadmodel
- AttributeError: Can‘t get attribute ‘WordVocab‘ on <module ‘__main__‘ from ‘genetic_algorithm.py‘>
Billie使劲学
BUG前端python
原因:背景:在看代码的时候想看看一个pkl文件的文件结构和里面的数据,于是就用pickle.load打开,但是出现了AttributeError:Can'tgetattribute'WordVocab'on'WordVocab':withopen(vocab_path,"rb")asf:returnpickle.load(f)解决方法,在“genetic_algorithm.py”文件中导入“Wo
- 【FunASR】Paraformer语音识别-中文-通用-16k-离线-large-onnx
太空眼睛
人工智能语音识别达摩院docker长音频语音转写离线FunASR
模型亮点模型文件:damo/speech_paraformer-large-vad-punc_asr_nat-zh-cn-16k-common-vocab8404-pytorchParaformer-large长音频模型集成VAD、ASR、标点与时间戳功能,可直接对时长为数小时音频进行识别,并输出带标点文字与时间戳:ASR模型:Parformer-large模型结构为非自回归语音识别模型,多个中文
- 1 NLP分类之:FastText
汀沿河
#6自然语言处理自然语言处理人工智能
0数据https://download.csdn.net/download/qq_28611929/88580520?spm=1001.2014.3001.5503数据集合:0NLP:数据获取与EDA-CSDN博客词嵌入向量文件:embedding_SougouNews.npz词典文件:vocab.pkl1模型基于fastText做词向量嵌入然后引入2-gram,3-gram扩充,最后接入一个ML
- 手撕transformer-基于numpy实现
AlgorithmWillBeFine
transformernumpy深度学习人工智能计算机视觉nlp
Attentionisallyouneed在Transformer模型中,输入首先通过一个嵌入层,得到每个词的嵌入表示,然后再加上位置编码(PositionalEncoding)得到每个词的最终表示。得到这个最终表示后,为了计算注意力权重,我们需要为每个输入生成Q(Query),K(Key),和V(Value)。具体的转换过程如下:词嵌入:首先,我们有一个嵌入矩阵,其大小为(vocab_size,
- [nlp] id2str的vocab.json转换为str2id
心心喵
nlp前端
importjson#加载包含ID对应字符串的JSON文件withopen("base_vocab.json","r",encoding='utf-8')asfile:id_to_str=json.load(file)#将ID对应字符串的JSON转换为字符串对应ID的JSON#注意:这里我们假设id_to_str字典的键都是字符串类型str_to_id={value:int(key)forkey,
- [论文笔记] tiktoken中的gpt4 tokenizer
心心喵
论文笔记论文阅读
亲测可用!!!!!注意是bytelevel的BPE!!只有vocab.json是不ok的,只能encode单字节的字符,对于中文这种会encode之后tokens,ids都是[]。gpt-tokenizer-npmGitHub-openai/tiktoken:tiktokenisafastBPEtokeniserforusewithOpenAI'smodels.GitHub-weikang-wan
- 人工智能|机器学习——循环神经网络的简洁实现
博士僧小星
#机器学习【算法】人工智能人工智能机器学习rnn循环神经网络
循环神经网络的简洁实现如何使用深度学习框架的高级API提供的函数更有效地实现相同的语言模型。我们仍然从读取时光机器数据集开始。importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFfromd2limporttorchasd2lbatch_size,num_steps=32,35train_iter,vocab=d2l.load_dat
- nn.Embedding
佛系调参
自然语言处理大模型embedding
在PyTorch中,针对词向量有一个专门的层nn.Embedding,用来实现词与词向量的映射。nn.Embedding具有一个权重(.weight),形状是(vocab_size,embedding_dim)Embedding层的输入形状是batch_size×seq_len(seq_len是输入序列长度,token个数),输出层的形状是batch_size×seq_len×embedding_
- BERT|add tokens后tokenizer一直加载中...
柯薇求何
情况是:我用add_tokens()方法添加自己的新词后,BertTokenizer.from_pretrained(model)一直处于加载中。原因:有说是词典太大,耗时hours才加载出来(我也没有真的等到过)暂时的解决办法:打印出新加的added_tokens.json文件中的词,手动(或代码)加到vocab.txt最后一个词的末尾;#printaddedtokensimportosimpo
- 人工智能-循环神经网络的简洁实现
白云如幻
代码笔记人工智能深度学习人工智能rnn深度学习
循环神经网络的简洁实现如何使用深度学习框架的高级API提供的函数更有效地实现相同的语言模型。我们仍然从读取时光机器数据集开始。importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFfromd2limporttorchasd2lbatch_size,num_steps=32,35train_iter,vocab=d2l.load_dat
- 动手学深度学习——循环神经网络的简洁实现(代码详解)
緈福的街口
深度学习深度学习rnn人工智能
文章目录循环神经网络的简洁实现1.定义模型2.训练与预测循环神经网络的简洁实现#使用深度学习框架的高级API提供的函数更有效地实现相同的语言模型importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFfromd2limporttorchasd2lbatch_size,num_steps=32,35train_iter,vocab=d2l
- java封装继承多态等
麦田的设计者
javaeclipsejvmcencapsulatopn
最近一段时间看了很多的视频却忘记总结了,现在只能想到什么写什么了,希望能起到一个回忆巩固的作用。
1、final关键字
译为:最终的
&
- F5与集群的区别
bijian1013
weblogic集群F5
http请求配置不是通过集群,而是F5;集群是weblogic容器的,如果是ejb接口是通过集群。
F5同集群的差别,主要还是会话复制的问题,F5一把是分发http请求用的,因为http都是无状态的服务,无需关注会话问题,类似
- LeetCode[Math] - #7 Reverse Integer
Cwind
java题解MathLeetCodeAlgorithm
原题链接:#7 Reverse Integer
要求:
按位反转输入的数字
例1: 输入 x = 123, 返回 321
例2: 输入 x = -123, 返回 -321
难度:简单
分析:
对于一般情况,首先保存输入数字的符号,然后每次取输入的末位(x%10)作为输出的高位(result = result*10 + x%10)即可。但
- BufferedOutputStream
周凡杨
首先说一下这个大批量,是指有上千万的数据量。
例子:
有一张短信历史表,其数据有上千万条数据,要进行数据备份到文本文件,就是执行如下SQL然后将结果集写入到文件中!
select t.msisd
- linux下模拟按键输入和鼠标
被触发
linux
查看/dev/input/eventX是什么类型的事件, cat /proc/bus/input/devices
设备有着自己特殊的按键键码,我需要将一些标准的按键,比如0-9,X-Z等模拟成标准按键,比如KEY_0,KEY-Z等,所以需要用到按键 模拟,具体方法就是操作/dev/input/event1文件,向它写入个input_event结构体就可以模拟按键的输入了。
linux/in
- ContentProvider初体验
肆无忌惮_
ContentProvider
ContentProvider在安卓开发中非常重要。与Activity,Service,BroadcastReceiver并称安卓组件四大天王。
在android中的作用是用来对外共享数据。因为安卓程序的数据库文件存放在data/data/packagename里面,这里面的文件默认都是私有的,别的程序无法访问。
如果QQ游戏想访问手机QQ的帐号信息一键登录,那么就需要使用内容提供者COnte
- 关于Spring MVC项目(maven)中通过fileupload上传文件
843977358
mybatisspring mvc修改头像上传文件upload
Spring MVC 中通过fileupload上传文件,其中项目使用maven管理。
1.上传文件首先需要的是导入相关支持jar包:commons-fileupload.jar,commons-io.jar
因为我是用的maven管理项目,所以要在pom文件中配置(每个人的jar包位置根据实际情况定)
<!-- 文件上传 start by zhangyd-c --&g
- 使用svnkit api,纯java操作svn,实现svn提交,更新等操作
aigo
svnkit
原文:http://blog.csdn.net/hardwin/article/details/7963318
import java.io.File;
import org.apache.log4j.Logger;
import org.tmatesoft.svn.core.SVNCommitInfo;
import org.tmateso
- 对比浏览器,casperjs,httpclient的Header信息
alleni123
爬虫crawlerheader
@Override
protected void doGet(HttpServletRequest req, HttpServletResponse res) throws ServletException, IOException
{
String type=req.getParameter("type");
Enumeration es=re
- java.io操作 DataInputStream和DataOutputStream基本数据流
百合不是茶
java流
1,java中如果不保存整个对象,只保存类中的属性,那么我们可以使用本篇文章中的方法,如果要保存整个对象 先将类实例化 后面的文章将详细写到
2,DataInputStream 是java.io包中一个数据输入流允许应用程序以与机器无关方式从底层输入流中读取基本 Java 数据类型。应用程序可以使用数据输出流写入稍后由数据输入流读取的数据。
- 车辆保险理赔案例
bijian1013
车险
理赔案例:
一货运车,运输公司为车辆购买了机动车商业险和交强险,也买了安全生产责任险,运输一车烟花爆竹,在行驶途中发生爆炸,出现车毁、货损、司机亡、炸死一路人、炸毁一间民宅等惨剧,针对这几种情况,该如何赔付。
赔付建议和方案:
客户所买交强险在这里不起作用,因为交强险的赔付前提是:“机动车发生道路交通意外事故”;
如果是交通意外事故引发的爆炸,则优先适用交强险条款进行赔付,不足的部分由商业
- 学习Spring必学的Java基础知识(5)—注解
bijian1013
javaspring
文章来源:http://www.iteye.com/topic/1123823,整理在我的博客有两个目的:一个是原文确实很不错,通俗易懂,督促自已将博主的这一系列关于Spring文章都学完;另一个原因是为免原文被博主删除,在此记录,方便以后查找阅读。
有必要对
- 【Struts2一】Struts2 Hello World
bit1129
Hello world
Struts2 Hello World应用的基本步骤
创建Struts2的Hello World应用,包括如下几步:
1.配置web.xml
2.创建Action
3.创建struts.xml,配置Action
4.启动web server,通过浏览器访问
配置web.xml
<?xml version="1.0" encoding="
- 【Avro二】Avro RPC框架
bit1129
rpc
1. Avro RPC简介 1.1. RPC
RPC逻辑上分为二层,一是传输层,负责网络通信;二是协议层,将数据按照一定协议格式打包和解包
从序列化方式来看,Apache Thrift 和Google的Protocol Buffers和Avro应该是属于同一个级别的框架,都能跨语言,性能优秀,数据精简,但是Avro的动态模式(不用生成代码,而且性能很好)这个特点让人非常喜欢,比较适合R
- lua set get cookie
ronin47
lua cookie
lua:
local access_token = ngx.var.cookie_SGAccessToken
if access_token then
ngx.header["Set-Cookie"] = "SGAccessToken="..access_token.."; path=/;Max-Age=3000"
end
- java-打印不大于N的质数
bylijinnan
java
public class PrimeNumber {
/**
* 寻找不大于N的质数
*/
public static void main(String[] args) {
int n=100;
PrimeNumber pn=new PrimeNumber();
pn.printPrimeNumber(n);
System.out.print
- Spring源码学习-PropertyPlaceholderHelper
bylijinnan
javaspring
今天在看Spring 3.0.0.RELEASE的源码,发现PropertyPlaceholderHelper的一个bug
当时觉得奇怪,上网一搜,果然是个bug,不过早就有人发现了,且已经修复:
详见:
http://forum.spring.io/forum/spring-projects/container/88107-propertyplaceholderhelper-bug
- [逻辑与拓扑]布尔逻辑与拓扑结构的结合会产生什么?
comsci
拓扑
如果我们已经在一个工作流的节点中嵌入了可以进行逻辑推理的代码,那么成百上千个这样的节点如果组成一个拓扑网络,而这个网络是可以自动遍历的,非线性的拓扑计算模型和节点内部的布尔逻辑处理的结合,会产生什么样的结果呢?
是否可以形成一种新的模糊语言识别和处理模型呢? 大家有兴趣可以试试,用软件搞这些有个好处,就是花钱比较少,就算不成
- ITEYE 都换百度推广了
cuisuqiang
GoogleAdSense百度推广广告外快
以前ITEYE的广告都是谷歌的Google AdSense,现在都换成百度推广了。
为什么个人博客设置里面还是Google AdSense呢?
都知道Google AdSense不好申请,这在ITEYE上也不是讨论了一两天了,强烈建议ITEYE换掉Google AdSense。至少,用一个好申请的吧。
什么时候能从ITEYE上来点外快,哪怕少点
- 新浪微博技术架构分析
dalan_123
新浪微博架构
新浪微博在短短一年时间内从零发展到五千万用户,我们的基层架构也发展了几个版本。第一版就是是非常快的,我们可以非常快的实现我们的模块。我们看一下技术特点,微博这个产品从架构上来分析,它需要解决的是发表和订阅的问题。我们第一版采用的是推的消息模式,假如说我们一个明星用户他有10万个粉丝,那就是说用户发表一条微博的时候,我们把这个微博消息攒成10万份,这样就是很简单了,第一版的架构实际上就是这两行字。第
- 玩转ARP攻击
dcj3sjt126com
r
我写这片文章只是想让你明白深刻理解某一协议的好处。高手免看。如果有人利用这片文章所做的一切事情,盖不负责。 网上关于ARP的资料已经很多了,就不用我都说了。 用某一位高手的话来说,“我们能做的事情很多,唯一受限制的是我们的创造力和想象力”。 ARP也是如此。 以下讨论的机子有 一个要攻击的机子:10.5.4.178 硬件地址:52:54:4C:98
- PHP编码规范
dcj3sjt126com
编码规范
一、文件格式
1. 对于只含有 php 代码的文件,我们将在文件结尾处忽略掉 "?>" 。这是为了防止多余的空格或者其它字符影响到代码。例如:<?php$foo = 'foo';2. 缩进应该能够反映出代码的逻辑结果,尽量使用四个空格,禁止使用制表符TAB,因为这样能够保证有跨客户端编程器软件的灵活性。例
- linux 脱机管理(nohup)
eksliang
linux nohupnohup
脱机管理 nohup
转载请出自出处:http://eksliang.iteye.com/blog/2166699
nohup可以让你在脱机或者注销系统后,还能够让工作继续进行。他的语法如下
nohup [命令与参数] --在终端机前台工作
nohup [命令与参数] & --在终端机后台工作
但是这个命令需要注意的是,nohup并不支持bash的内置命令,所
- BusinessObjects Enterprise Java SDK
greemranqq
javaBOSAPCrystal Reports
最近项目用到oracle_ADF 从SAP/BO 上调用 水晶报表,资料比较少,我做一个简单的分享,给和我一样的新手 提供更多的便利。
首先,我是尝试用JAVA JSP 去访问的。
官方API:http://devlibrary.businessobjects.com/BusinessObjectsxi/en/en/BOE_SDK/boesdk_ja
- 系统负载剧变下的管控策略
iamzhongyong
高并发
假如目前的系统有100台机器,能够支撑每天1亿的点击量(这个就简单比喻一下),然后系统流量剧变了要,我如何应对,系统有那些策略可以处理,这里总结了一下之前的一些做法。
1、水平扩展
这个最容易理解,加机器,这样的话对于系统刚刚开始的伸缩性设计要求比较高,能够非常灵活的添加机器,来应对流量的变化。
2、系统分组
假如系统服务的业务不同,有优先级高的,有优先级低的,那就让不同的业务调用提前分组
- BitTorrent DHT 协议中文翻译
justjavac
bit
前言
做了一个磁力链接和BT种子的搜索引擎 {Magnet & Torrent},因此把 DHT 协议重新看了一遍。
BEP: 5Title: DHT ProtocolVersion: 3dec52cb3ae103ce22358e3894b31cad47a6f22bLast-Modified: Tue Apr 2 16:51:45 2013 -070
- Ubuntu下Java环境的搭建
macroli
java工作ubuntu
配置命令:
$sudo apt-get install ubuntu-restricted-extras
再运行如下命令:
$sudo apt-get install sun-java6-jdk
待安装完毕后选择默认Java.
$sudo update- alternatives --config java
安装过程提示选择,输入“2”即可,然后按回车键确定。
- js字符串转日期(兼容IE所有版本)
qiaolevip
TODateStringIE
/**
* 字符串转时间(yyyy-MM-dd HH:mm:ss)
* result (分钟)
*/
stringToDate : function(fDate){
var fullDate = fDate.split(" ")[0].split("-");
var fullTime = fDate.split("
- 【数据挖掘学习】关联规则算法Apriori的学习与SQL简单实现购物篮分析
superlxw1234
sql数据挖掘关联规则
关联规则挖掘用于寻找给定数据集中项之间的有趣的关联或相关关系。
关联规则揭示了数据项间的未知的依赖关系,根据所挖掘的关联关系,可以从一个数据对象的信息来推断另一个数据对象的信息。
例如购物篮分析。牛奶 ⇒ 面包 [支持度:3%,置信度:40%] 支持度3%:意味3%顾客同时购买牛奶和面包。 置信度40%:意味购买牛奶的顾客40%也购买面包。 规则的支持度和置信度是两个规则兴
- Spring 5.0 的系统需求,期待你的反馈
wiselyman
spring
Spring 5.0将在2016年发布。Spring5.0将支持JDK 9。
Spring 5.0的特性计划还在工作中,请保持关注,所以作者希望从使用者得到关于Spring 5.0系统需求方面的反馈。