- 预训练语言模型的前世今生 - 从Word Embedding到BERT
脚步的影子
语言模型embeddingbert
目录一、预训练1.1图像领域的预训练1.2预训练的思想二、语言模型2.1统计语言模型2.2神经网络语言模型三、词向量3.1独热(Onehot)编码3.2WordEmbedding四、Word2Vec模型五、自然语言处理的预训练模型六、RNN和LSTM6.1RNN6.2RNN的梯度消失问题6.3LSTM6.4LSTM解决RNN的梯度消失问题七、ELMo模型7.1ELMo的预训练7.2ELMo的Fea
- 基于Bert-base-chinese训练多分类文本模型(代码详解)
一颗洋芋
bert分类自然语言处理
目录一、简介二、模型训练三、模型推理一、简介BERT(BidirectionalEncoderRepresentationsfromTransformers)是基于深度学习在自然语言处理(NLP)领域近几年出现的、影响深远的创新模型之一。在BERT之前,已经有许多预训练语言模型,如ELMO和GPT,它们展示了预训练模型在NLP任务中的强大性能。然而,这些模型通常基于单向的上下文信息,即只考虑文本中
- 【论文精读】BERT
None-D
文本生成bert人工智能深度学习自然语言处理transformer
摘要以往的预训练语言表示应用于下游任务时的策略有基于特征和微调两种。其中基于特征的方法如ELMo使用基于上下文的预训练词嵌入拼接特定于任务的架构;基于微调的方法如GPT使用未标记的文本进行预训练,并针对有监督的下游任务进行微调。但上述两种策略都使用从左到右的架构,每个token只能处理self-attention层中的前一个token,这种限制在将基于微调的方法应用于问答等token级任务时可能非
- 知识图谱与语言预训练:深度融合的智能问答时代
cooldream2009
AI技术NLP知识知识图谱知识图谱人工智能预训练
目录前言1直接使用预训练模型vs.知识图谱与预训练相结合1.1直接使用预训练模型1.2构建知识图谱后与预训练相结合2预训练语言模型的发展历程2.1Word2Vec和GloVe2.2ELMo2.3BERT3知识图谱对预训练的助力3.1弥补低频实体信息的不足3.2提供领域知识的支持4典型知识驱动的语言预训练模型4.1ERNIE4.2KnowBERT4.3WKLM4.4K-Adapter结语前言在自然语
- bert 是单标签还是多标签 的分类_搞定NLP领域的“变形金刚”!手把手教你用BERT进行多标签文本分类...
weixin_39629617
bert是单标签还是多标签的分类
过去的一年,深度神经网络的应用开启了自然语言处理的新时代。预训练模型在研究领域的应用已经令许多NLP项目的最新成果产生了巨大的飞跃,例如文本分类,自然语言推理和问答。ELMo,ULMFiT和OpenAITransformer是其中几个关键的里程碑。所有这些算法都允许我们在大型数据库(例如所有维基百科文章)上预先训练无监督语言模型,然后在下游任务上对这些预先训练的模型进行微调。这一年里,在这一领域中
- 关于最近的NLP模型Bert、Elmo、GPT(下--2)
吴祺育的笔记
这篇这个系列的最后一篇文章,还是关于Bert,的下半部分。今天又读了一遍Bert的论文,这篇结尾主要从两个方面来介绍bert,一个是怎么用,一个是比较这个三个模型。Bert使用方法将bert当做一个词向量的模型,bert的输出可以作为你模型的输入,然后主要任务是你的模型做。这样的任务可以用在文本分类,语义分析等多种场景,比transformer,elmo,word2vector的效果要好。利用be
- Big Model Basics1-2
ringthebell
大模型深度学习人工智能
thetriptobigmodels13年word2vec、14年rnn、15年attentionmechanism、17年transformer、18年elmo、bert不断增加他的参数,数据,显著提升各种任务的性能,参数每年10倍速增长,所需数据也变大,大模型具有很强的小样本或者少次学习的能力,引导,提取相关知识去解决具体的问题,如机器翻译,我们以前会需要大量的平行语料去做,但对于GPT-3的
- 【昇思技术公开课笔记-大模型】Bert理论知识
JeffDingAI
笔记bert人工智能
NLP中的预训练模型语言模型演变经历的几个阶段word2vec/Glove将离散的文本数据转换为固定长度的静态词向量,后根据下游任务训练不同的语言模型ELMo预训练模型将文本数据结合上下文信息,转换为动态词向量,后根据下游任务训练不同的语言模型BERT同样将文本数据转换为动态词向量,能够更好地捕捉句子级别的信息与语境信息,后续只需对BERT参数进行微调,仅重新训练最后的输出层即可适配下游任务GPT
- 大语言模型系列-GPT-1
学海一叶
LLM语言模型gpt人工智能深度学习自然语言处理
文章目录前言一、GPT-1网络结构和流程二、GPT-1的创新点总结前言前文提到的ELMo虽然解决了词嵌入多义词的问题,但存在如下缺点:基于RNN的网络结构使得其特征提取能力弱,训练难且时间长预训练模型(仅用于特征抽取)和实际下游任务模型仍是分开的、非端到端的GPT-1基于上述缺点进行了改进。提示:以下是本篇文章正文内容,下面内容可供参考一、GPT-1网络结构和流程网络结构方面,GPT-1使用Tra
- 大语言模型系列-ELMo
学海一叶
语言模型人工智能自然语言处理深度学习迁移学习
文章目录前言一、ELMo的网络结构和流程二、ELMo的创新点总结前言在前文大语言模型系列-word2vec已经提到word2vec的缺点:为每个词汇表中每个分词静态生成一个对应的词向量表示,没有考虑到语境,因此无法无法处理多义词ps:先训练一个词嵌入模型,生成词向量表示,然后将生成的词向量输入下游任务新的模型中进行具体NLP任务训练,由于下游任务不再需要使用这些词嵌入模型,因此整个过程计算效率方面
- Mindspore 公开课 - BERT
coyote_xujie
bert人工智能深度学习
BERTBERT模型本质上是结合了ELMo模型与GPT模型的优势。相比于ELMo,BERT仅需改动最后的输出层,而非模型架构,便可以在下游任务中达到很好的效果;相比于GPT,BERT在处理词元表示时考虑到了双向上下文的信息;BERT结构BERT(BidirectionalEncoderRepresentationfromTransformers)是一个仅有Encoder的Transformer。我
- 语境化语言表示模型-ELMO、BERT、GPT、XLnet
Algorithm_Engineer_
人工智能深度学习自然语言处理
一.语境化语言表示模型介绍语境化语言表示模型(ContextualizedLanguageRepresentationModels)是一类在自然语言处理领域中取得显著成功的模型,其主要特点是能够根据上下文动态地学习词汇和短语的表示。这些模型利用了上下文信息,使得同一词汇在不同语境中可以有不同的表示。以下是一些著名的语境化语言表示模型:ELMo(EmbeddingsfromLanguageModel
- 探索大型预训练模型:解析人工智能的通用知识引擎
cooldream2009
大模型基础AI技术NLP知识人工智能预训练模型大模型
目录前言1大型预训练模型的演进与重要性1.1Word2Vec1.2Transformer1.3GPT模型2大型预训练模型的发展趋势2.1参数规模与速度的飞跃提升2.2数据量的持续增长2.3知识丰富性与少样本学习的突破3大型预训练模型的核心机制结语前言在当今迅猛发展的人工智能领域,大型预训练模型如Word2Vec、RNN、AttentionMechanism、Transformer、ELMo、BER
- cs224n-笔记-lecture13-contextual-representations
AugBoost
之前的WordRepresentation方法如Word2Vec,GloVe,fastText等对每个单词仅有一种表示,而通常单词的含义依赖于其上下文会有所不同,而且每个单词不仅有一方面特征,而应有各方面特征如语义特征,语法特征等,这一讲集中讨论contextualwordrepresentation,主要比较了ELMO,GPT与BERT模型。ELMOELMO的基本思想是利用双向的LSTM结构,对
- BERT学习笔记
哈哈不爱学习
bert深度学习transformer自然语言处理
BERT全称为BidirectionalEncoderRepresentationsfromTransformers,是Google在2018年提出的一种新的语言表示方法。它结合了Transformer网络结构和大规模无标注数据,实现了语言的深度双向表示学习。BERT让Transformer在NLP上有了更广泛的应用,特别是在语言理解方面有了很大提高,标志着NLP进入了新时代。目录0ELMO1总体
- 自然语言处理阅读第一弹
u013308709
自然语言处理自然语言处理人工智能
Transformer架构encoder和decoder区别EmbeddingsfromLanguageModel(ELMO)一种基于上下文的预训练模型,用于生成具有语境的词向量。原理讲解ELMO中的几个问题BidirectionalEncoderRepresentationsfromTransformers(BERT)BERT就是原生transformer中的Encoder两个学习任务:MLM和
- 李宏毅gpt个人记录
小趴菜日记
gpt自然语言处理人工智能
参考&转载:李宏毅机器学习--self-supervised:BERT、GPT、Auto-encoder-CSDN博客目录GPT1基本实现模型参数量ELMO94MBERT340MGPT-21542M用无标注资料的任务训练完模型以后,它本身没有什么用,GPT1只能够把一句话补完,可以把Self-SupervisedLearning的Model做微微的调整,把它用在其他下游的任务裡面,对于下游任务的训
- “圆柱-计算公式“技术支持网址
weixin_42782982
前端
该软件可以计算圆柱的底面圆周长、底面积、侧面积和体积。您在使用中有遇到任何问题都可以和我们联系。我们会在第一时间回复您。邮箱地址:
[email protected]谢谢!
- elmo 实验心得及elmo个人理解
小小兰哈哈
1.名词:ELMO:哈工大LTP开发的动态词向量。问题一:何为动态词向量:普通的词向量,是静态的,也就是一个词代表一个N维向量,这种向量不随着语境的变化而变化,不管在任何语境下embedding的值都是不变的;elmo词向量,是基于深度学习神经网络的词向量。是动态的。elmo的output随着语境的变化而变化,在不同的句子里面有不同的表现。比如:“我今天吃的苹果很好吃”;“苹果手机非常好用”。这两
- 2021秋招-总目录
LBJ_King2020
2021秋招数据结构
2021秋招-目录知识点总结预训练语言模型:Bert家族1.1BERT、attention、transformer理解部分B站讲解–强烈推荐可视化推倒结合代码理解代码部分常见面试考点以及问题:word2vec、fasttext、elmo;BN、LN、CN、WNNLP中的loss与评价总结4.1loss_function:深度学习-Loss函数L1、L2正则化总结:L1,L2正则所有问题-视频-PP
- Transformer详解一:transformer的由来和先导知识
好喜欢吃红柚子
transformer深度学习人工智能机器学习神经网络python
目录参考资料前言一、预训练二、神经网络语言模型(NNLM):预测下一个词one-hot编码的缺陷词向量(wordembedding)三、Word2Vec模型:得到词向量CBOWSkip-gramWord2Vec和NNLM的区别Word2Vec的缺陷四、ELMO模型:通过预训练得到词向量参考资料感谢我的互联网导师:水论文的程序猿参考资料和图片来源:Transformer、GPT、BERT,预训练语言
- Bert浅谈
lanmengyiyu
一点一滴NLPbert人工智能深度学习自然语言处理
优点首先,bert的创新点在于利用了双向transformer,这就跟openai的gpt有区别,gpt是采用单向的transformer,而作者认为双向transformer更能够融合上下文的信息。这里双向和单向的区别在于,单向只跟当前位置之前的tocken相连,双向与当前位置之后的tocken也有连接。跟ELMo相比的优势在于,transformer对特征的提取能力比lstm要强得多。模型输入
- 01_文本向量表示(one-hot,TF-IDF,Embedding)学习总结(不对的地方欢迎留言指正)
竹林风w
tf-idf学习机器学习
是什么?能做什么?怎么做的?优缺点?一.文本的表示文本表示的就是把文本或者字词,变换成向量或者矩阵的形式,以便于机器更加容易或者方便的处理,同时文本表示是自然语言处理的开始的环节。文本表示分为离散表示和分布式表示,离散表示代表有词袋模型,One-hot向量,TF-IDF,n-gram这些都可以看作词袋子模型,分布式表示也叫做词嵌入,经典的模型有word2vec,包括后来的ELMO,GPT,BERT
- 22[NLP训练营]Word2Vec
oldmao_2000
NLPBootcamp(完结)
文章目录GlobalGenerationvsLocalGenerationIntuitionofWord2Vec参数θ目标函数的形式AnotherFormulationNegativeSamplingSG的负采样负采样的梯度下降SG的缺点LearningwithSubwordSubword小结ELMO简介公式输入请参考:在线Latex公式之前在深度带读里面有写过,再重新整理一下,不然缺22课。ht
- #最全面# NLP获取词向量的方法(Glove、n-gram、word2vec、fastText、ELMo 对比分析)
energy_百分百
NLP深度学习elmo词向量embeddingword2vecNLP
文章目录1Glove-基于统计方法1.1实现步骤1.2优点1.3存在的问题2基于语言模型的方法2.1基于n-gram的语言模型2.2基于神经网络的语言模型2.2.1word2vec2.2.2fastText2.2.3ELMo1.ELMo得到词向量的过程2.ELMo网络结构3.得到ELMo的词向量4.ELMo优点5.ELMo缺点自然语言处理的第一步就是获取词向量,获取词向量的方法总体可以分为两种两种
- ELMo模型、word2vec、独热编码(one-hot编码)的优缺点进行对比
chunmiao3032
LLMword2vec人工智能自然语言处理
下面是对ELMo模型、word2vec和独热编码(one-hot编码)的优缺点进行对比:独热编码(One-hotEncoding):优点:简单,易于理解。适用于词汇表较小的场景。缺点:高维度。向量长度等于词汇表的大小,可能会非常大(例如数万)。独热编码无法表示词之间的相似性。即使两个词在语义上相似,它们的独热编码也是正交的,无法体现这种相似性。数据稀疏。每个词的编码中只有一个1,其余全为0,浪费了
- Transformer和ELMo模型、word2vec、独热编码(one-hot编码)之间的关系
chunmiao3032
LLM人工智能
下面简要概述了Transformer和ELMo模型、word2vec、独热编码(one-hot编码)之间的关系:独热编码(One-hotEncoding)是一种最基本的词表示方法,将词表示为高维稀疏向量。它与ELMo、word2vec和Transformer的关系是,它们都是用于表示词的方法,但相较于其他方法,独热编码无法捕捉词之间的相似性和上下文信息。Word2Vec是一种词嵌入(wordemb
- 2022最新版-李宏毅机器学习深度学习课程-P50 BERT的预训练和微调
QwQllly
李宏毅机器学习深度学习深度学习机器学习bert人工智能自然语言处理
模型输入无标签文本(Textwithoutannotation),通过消耗大量计算资源预训练(Pre-train)得到一个可以读懂文本的模型,在遇到有监督的任务是微调(Fine-tune)即可。最具代表性是BERT,预训练模型现在命名基本上是源自于动画片《芝麻街》。芝麻街人物经典的预训练模型:ELMo:EmbeddingsfromLanguageModelsBERT:BidirectionalEn
- 2022最新版-李宏毅机器学习深度学习课程-P46 自监督学习Self-supervised Learning(BERT)
QwQllly
深度学习机器学习学习
一、概述:自监督学习模型与芝麻街参数量ELMO:94MBERT:340MGPT-2:1542MMegatron:8BT5:11BTuringNLG:17BGPT-3:175BSwitchTransformer:1.6T二、Self-supervisedLearning⇒UnsupervisedLearning的一种“自监督学习”数据本身没有标签,所以属于无监督学习;但是训练过程中实际上“有标签”,
- 来自Transformers的双向编码器表示(BERT)
流萤数点
自然语言处理bert深度学习机器学习
word2vec和GloVe等词嵌入模型与上下文无关。它们将相同的预训练向量赋给同一个词,而不考虑词的上下文(如果有的话)。它们很难处理好自然语言中的一词多义或复杂语义。对于上下文敏感的词表示,如ELMo和GPT,词的表示依赖于它们的上下文。ELMo对上下文进行双向编码,但使用特定于任务的架构(然而,为每个自然语言处理任务设计一个特定的体系架构实际上并不容易);而GPT是任务无关的,但是从左到右编
- 统一思想认识
永夜-极光
思想
1.统一思想认识的基础,才能有的放矢
原因:
总有一种描述事物的方式最贴近本质,最容易让人理解.
如何让教育更轻松,在于找到最适合学生的方式.
难点在于,如何模拟对方的思维基础选择合适的方式. &
- Joda Time使用笔记
bylijinnan
javajoda time
Joda Time的介绍可以参考这篇文章:
http://www.ibm.com/developerworks/cn/java/j-jodatime.html
工作中也常常用到Joda Time,为了避免每次使用都查API,记录一下常用的用法:
/**
* DateTime变化(增减)
*/
@Tes
- FileUtils API
eksliang
FileUtilsFileUtils API
转载请出自出处:http://eksliang.iteye.com/blog/2217374 一、概述
这是一个Java操作文件的常用库,是Apache对java的IO包的封装,这里面有两个非常核心的类FilenameUtils跟FileUtils,其中FilenameUtils是对文件名操作的封装;FileUtils是文件封装,开发中对文件的操作,几乎都可以在这个框架里面找到。 非常的好用。
- 各种新兴技术
不懂事的小屁孩
技术
1:gradle Gradle 是以 Groovy 语言为基础,面向Java应用为主。基于DSL(领域特定语言)语法的自动化构建工具。
现在构建系统常用到maven工具,现在有更容易上手的gradle,
搭建java环境:
http://www.ibm.com/developerworks/cn/opensource/os-cn-gradle/
搭建android环境:
http://m
- tomcat6的https双向认证
酷的飞上天空
tomcat6
1.生成服务器端证书
keytool -genkey -keyalg RSA -dname "cn=localhost,ou=sango,o=none,l=china,st=beijing,c=cn" -alias server -keypass password -keystore server.jks -storepass password -validity 36
- 托管虚拟桌面市场势不可挡
蓝儿唯美
用户还需要冗余的数据中心,dinCloud的高级副总裁兼首席营销官Ali Din指出。该公司转售一个MSP可以让用户登录并管理和提供服务的用于DaaS的云自动化控制台,提供服务或者MSP也可以自己来控制。
在某些情况下,MSP会在dinCloud的云服务上进行服务分层,如监控和补丁管理。
MSP的利润空间将根据其参与的程度而有所不同,Din说。
“我们有一些合作伙伴负责将我们推荐给客户作为个
- spring学习——xml文件的配置
a-john
spring
在Spring的学习中,对于其xml文件的配置是必不可少的。在Spring的多种装配Bean的方式中,采用XML配置也是最常见的。以下是一个简单的XML配置文件:
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.or
- HDU 4342 History repeat itself 模拟
aijuans
模拟
来源:http://acm.hdu.edu.cn/showproblem.php?pid=4342
题意:首先让求第几个非平方数,然后求从1到该数之间的每个sqrt(i)的下取整的和。
思路:一个简单的模拟题目,但是由于数据范围大,需要用__int64。我们可以首先把平方数筛选出来,假如让求第n个非平方数的话,看n前面有多少个平方数,假设有x个,则第n个非平方数就是n+x。注意两种特殊情况,即
- java中最常用jar包的用途
asia007
java
java中最常用jar包的用途
jar包用途axis.jarSOAP引擎包commons-discovery-0.2.jar用来发现、查找和实现可插入式接口,提供一些一般类实例化、单件的生命周期管理的常用方法.jaxrpc.jarAxis运行所需要的组件包saaj.jar创建到端点的点到点连接的方法、创建并处理SOAP消息和附件的方法,以及接收和处理SOAP错误的方法. w
- ajax获取Struts框架中的json编码异常和Struts中的主控制器异常的解决办法
百合不是茶
jsjson编码返回异常
一:ajax获取自定义Struts框架中的json编码 出现以下 问题:
1,强制flush输出 json编码打印在首页
2, 不强制flush js会解析json 打印出来的是错误的jsp页面 却没有跳转到错误页面
3, ajax中的dataType的json 改为text 会
- JUnit使用的设计模式
bijian1013
java设计模式JUnit
JUnit源代码涉及使用了大量设计模式
1、模板方法模式(Template Method)
定义一个操作中的算法骨架,而将一些步骤延伸到子类中去,使得子类可以不改变一个算法的结构,即可重新定义该算法的某些特定步骤。这里需要复用的是算法的结构,也就是步骤,而步骤的实现可以在子类中完成。
 
- Linux常用命令(摘录)
sunjing
crondchkconfig
chkconfig --list 查看linux所有服务
chkconfig --add servicename 添加linux服务
netstat -apn | grep 8080 查看端口占用
env 查看所有环境变量
echo $JAVA_HOME 查看JAVA_HOME环境变量
安装编译器
yum install -y gcc
- 【Hadoop一】Hadoop伪集群环境搭建
bit1129
hadoop
结合网上多份文档,不断反复的修正hadoop启动和运行过程中出现的问题,终于把Hadoop2.5.2伪分布式安装起来,跑通了wordcount例子。Hadoop的安装复杂性的体现之一是,Hadoop的安装文档非常多,但是能一个文档走下来的少之又少,尤其是Hadoop不同版本的配置差异非常的大。Hadoop2.5.2于前两天发布,但是它的配置跟2.5.0,2.5.1没有分别。 &nb
- Anychart图表系列五之事件监听
白糖_
chart
创建图表事件监听非常简单:首先是通过addEventListener('监听类型',js监听方法)添加事件监听,然后在js监听方法中定义具体监听逻辑。
以钻取操作为例,当用户点击图表某一个point的时候弹出point的name和value,代码如下:
<script>
//创建AnyChart
var chart = new AnyChart();
//添加钻取操作&quo
- Web前端相关段子
braveCS
web前端
Web标准:结构、样式和行为分离
使用语义化标签
0)标签的语义:使用有良好语义的标签,能够很好地实现自我解释,方便搜索引擎理解网页结构,抓取重要内容。去样式后也会根据浏览器的默认样式很好的组织网页内容,具有很好的可读性,从而实现对特殊终端的兼容。
1)div和span是没有语义的:只是分别用作块级元素和行内元素的区域分隔符。当页面内标签无法满足设计需求时,才会适当添加div
- 编程之美-24点游戏
bylijinnan
编程之美
import java.util.ArrayList;
import java.util.Arrays;
import java.util.HashSet;
import java.util.List;
import java.util.Random;
import java.util.Set;
public class PointGame {
/**编程之美
- 主页面子页面传值总结
chengxuyuancsdn
总结
1、showModalDialog
returnValue是javascript中html的window对象的属性,目的是返回窗口值,当用window.showModalDialog函数打开一个IE的模式窗口时,用于返回窗口的值
主界面
var sonValue=window.showModalDialog("son.jsp");
子界面
window.retu
- [网络与经济]互联网+的含义
comsci
互联网+
互联网+后面是一个人的名字 = 网络控制系统
互联网+你的名字 = 网络个人数据库
每日提示:如果人觉得不舒服,千万不要外出到处走动,就呆在床上,玩玩手游,更不能够去开车,现在交通状况不
- oracle 创建视图 with check option
daizj
视图vieworalce
我们来看下面的例子:
create or replace view testview
as
select empno,ename from emp where ename like ‘M%’
with check option;
这里我们创建了一个视图,并使用了with check option来限制了视图。 然后我们来看一下视图包含的结果:
select * from testv
- ToastPlugin插件在cordova3.3下使用
dibov
Cordova
自己开发的Todos应用,想实现“
再按一次返回键退出程序 ”的功能,采用网上的ToastPlugins插件,发现代码或文章基本都是老版本,运行问题比较多。折腾了好久才弄好。下面吧基于cordova3.3下的ToastPlugins相关代码共享。
ToastPlugin.java
package&nbs
- C语言22个系统函数
dcj3sjt126com
cfunction
C语言系统函数一、数学函数下列函数存放在math.h头文件中Double floor(double num) 求出不大于num的最大数。Double fmod(x, y) 求整数x/y的余数。Double frexp(num, exp); double num; int *exp; 将num分为数字部分(尾数)x和 以2位的指数部分n,即num=x*2n,指数n存放在exp指向的变量中,返回x。D
- 开发一个类的流程
dcj3sjt126com
开发
本人近日根据自己的开发经验总结了一个类的开发流程。这个流程适用于单独开发的构件,并不适用于对一个项目中的系统对象开发。开发出的类可以存入私人类库,供以后复用。
以下是开发流程:
1. 明确类的功能,抽象出类的大概结构
2. 初步设想类的接口
3. 类名设计(驼峰式命名)
4. 属性设置(权限设置)
判断某些变量是否有必要作为成员属
- java 并发
shuizhaosi888
java 并发
能够写出高伸缩性的并发是一门艺术
在JAVA SE5中新增了3个包
java.util.concurrent
java.util.concurrent.atomic
java.util.concurrent.locks
在java的内存模型中,类的实例字段、静态字段和构成数组的对象元素都会被多个线程所共享,局部变量与方法参数都是线程私有的,不会被共享。
- Spring Security(11)——匿名认证
234390216
Spring SecurityROLE_ANNOYMOUS匿名
匿名认证
目录
1.1 配置
1.2 AuthenticationTrustResolver
对于匿名访问的用户,Spring Security支持为其建立一个匿名的AnonymousAuthenticat
- NODEJS项目实践0.2[ express,ajax通信...]
逐行分析JS源代码
Ajaxnodejsexpress
一、前言
通过上节学习,我们已经 ubuntu系统搭建了一个可以访问的nodejs系统,并做了nginx转发。本节原要做web端服务 及 mongodb的存取,但写着写着,web端就
- 在Struts2 的Action中怎样获取表单提交上来的多个checkbox的值
lhbthanks
javahtmlstrutscheckbox
第一种方法:获取结果String类型
在 Action 中获得的是一个 String 型数据,每一个被选中的 checkbox 的 value 被拼接在一起,每个值之间以逗号隔开(,)。
所以在 Action 中定义一个跟 checkbox 的 name 同名的属性来接收这些被选中的 checkbox 的 value 即可。
以下是实现的代码:
前台 HTML 代码:
- 003.Kafka基本概念
nweiren
hadoopkafka
Kafka基本概念:Topic、Partition、Message、Producer、Broker、Consumer。 Topic: 消息源(Message)的分类。 Partition: Topic物理上的分组,一
- Linux环境下安装JDK
roadrunners
jdklinux
1、准备工作
创建JDK的安装目录:
mkdir -p /usr/java/
下载JDK,找到适合自己系统的JDK版本进行下载:
http://www.oracle.com/technetwork/java/javase/downloads/index.html
把JDK安装包下载到/usr/java/目录,然后进行解压:
tar -zxvf jre-7
- Linux忘记root密码的解决思路
tomcat_oracle
linux
1:使用同版本的linux启动系统,chroot到忘记密码的根分区passwd改密码 2:grub启动菜单中加入init=/bin/bash进入系统,不过这时挂载的是只读分区。根据系统的分区情况进一步判断. 3: grub启动菜单中加入 single以单用户进入系统. 4:用以上方法mount到根分区把/etc/passwd中的root密码去除 例如: ro
- 跨浏览器 HTML5 postMessage 方法以及 message 事件模拟实现
xueyou
jsonpjquery框架UIhtml5
postMessage 是 HTML5 新方法,它可以实现跨域窗口之间通讯。到目前为止,只有 IE8+, Firefox 3, Opera 9, Chrome 3和 Safari 4 支持,而本篇文章主要讲述 postMessage 方法与 message 事件跨浏览器实现。postMessage 方法 JSONP 技术不一样,前者是前端擅长跨域文档数据即时通讯,后者擅长针对跨域服务端数据通讯,p