- 文本向量化-词嵌入方法系列1:静态词嵌入(Word2Vec+GloVe)
学习ml的小菜鸡
nlp自然语言处理word2vec
文本分散化表示指将语言表示成低维、稠密、连续的向量,分为静态嵌入和动态嵌入两种方式。静态词嵌入有Word2Vec,Sen2Vec,Doc2Vec,以及GloVe模型;而动态词嵌入有ELMO,Transformer,GPT,Bert和XLNet等等。本文主要对静态词嵌入方法做一个整体介绍,动态词嵌入会在系列2中更新。目录1.Word2Vec1.1CBOW1.2Skip-gram1.3Sen2Vec+
- Word2Vec 模型 PyTorch 实现并复现论文中的数据集
Illusionna.
word2vecpytorch人工智能算法自然语言处理nlpmatplotlib
详细注解链接:https://www.orzzz.net/directory/codes/Word2Vec/index.html欢迎咨询!
- python搭建NPL模型的详细步骤和代码
百锦再@新空间代码工作室
包罗万象python开发语言djangoflaskpygamepip
目录**一、环境准备****二、数据准备****三、文本预处理****1.清理文本****四、特征工程****1.TF-IDF****2.Word2Vec****五、搭建NLP模型****1.逻辑回归****2.LSTM深度学习模型****六、使用预训练的BERT模型****七、模型评估****八、部署模型****总结**1.**人机交互的核心技术**2.**推动AI技术发展的动力**3.**广泛
- Word2Vec向量化语句的计算原理
堕落年代
AIword2vec人工智能机器学习
一、Word2Vec的核心理念Word2Vec由Google团队于2013年提出,是一种通过无监督学习生成词向量的模型。其核心思想是“相似的词拥有相似的上下文”,通过上下文关系捕捉词汇的语义和语法特征。生成的向量具有低维(通常100-300维)、连续且稠密的特点,解决了传统One-Hot编码的高维稀疏和语义缺失问题。二、向量化的核心步骤(以Skip-Gram模型为例)示例句子假设句子为:“Theq
- 别只会用别人的模型了,自学Ai大模型,顺序千万不要搞反了!刚入门的小白必备!
ai大模型应用开发
人工智能pdf机器学习面试AI
在使用诸如DeepSeek、ChatGPT、豆包、文心一言等大模型之余,你是否知道这些大模型背后的技术原理是什么?假如让你从头开始学习大模型,你知道应该遵循什么样的路线嘛?今天给大家介绍一下Ai大模型的学习路线,顺序千万不要搞反了!,大家可以按照这个路线进行学习。一、前置阶段数学:线性代数、高等数学自然语言处理:Word2Vec、Seq2SeqPython:Pyotch、Tensorflow二、基
- 什么是预训练语言模型下游任务?
衣衣困
语言模型人工智能自然语言处理
问题:Word2Vec模型是预训练模型吗?由于训练的特性,word2Vec模型一定是与训练模型。给定一个词先使用独热编码然后使用预训练好的Q矩阵得到这个词的词向量。这里指的是词向量本身就是预训练的语言模型。什么是下游任务?在自然语言处理(NLP)和机器学习领域,下游任务(downstreamtasks)指的是使用已经训练好的模型或表示(如词向量、预训练的模型等)来解决的具体任务。这些任务通常依赖于
- Word2Vec的使用,一些思考,含示例——包括使用预训练Word2Vec模型和自训练Word2Vec模型
热爱生活的猴子
NLP_自然语言处理word2vec人工智能自然语言处理
词嵌入模型(WordEmbeddings)——Word2Vec简介:Word2Vec是由Google团队提出的一种词嵌入方法,通过神经网络模型将词语映射到一个低维的连续向量空间中。你可以直接通过它训练生成词向量,也就是一个新的Word2Vec,也可以使用预训练好的词向量,也就是那里直接用。它有两种模型结构:CBOW(ContinuousBagofWords)和Skip-Gram。CBOW(连续词袋
- 2W8000字 LLM架构文章阅读指北
人工智能
大模型架构专栏已经更新了30多篇文章。完整的专栏内容欢迎订阅:LLM架构专栏1、LLM大模型架构专栏||从NLP基础谈起2、LLM大模型架构专栏||自然语言处理(NLP)之建模3、LLM大模型架构之词嵌入(Part1)3、LLM大模型架构之词嵌入(Part2)3、LLM大模型架构之词嵌入(Part3)4、LLM架构从基础到精通之Word2Vec训练全解析5、LLM架构从基础到精通之循环神经网络(R
- word2vec(一) CBOW与Skip-Gram模型基础
浮汐
自然语言处理
1.词向量词向量就是用来将语言中的词进行数学化的一种方式,顾名思义,词向量就是把一个词表示成一个向量。这样做的初衷就是机器只认识01符号。所以,词向量是自然语言到机器语言的转换。Word2Vec其实就是通过学习文本来用词向量的方式表征词的语义信息,即通过一个嵌入空间使得语义上相似的单词在该空间内距离很近。Embedding其实就是一个映射,将单词从原先所属的空间映射到新的多维空间中,也就是把原先词
- python自然语言处理—Word2vec模型之Skip-gram
诗雨时
python
Word2vec模型之Skip-gram(跳字)模型一、skip-gram模型图二、skip-gram模型图示例说明举个例子来说明这个图在干嘛:1、假设我们的文本序列有五个词,["the","man","loves","his","son"]。2、假设我们的窗口大小为skip-window=2,中心词为"loves",那么上下文的词即为:"the"、"man"、"his"、"son"。这里的上下文
- word2vec之skip-gram算法原理
cuixuange
推荐算法word2vecskipgram
skip-gram算法原理1.input,output,targetinput的某个单词的one-hot编码(11000词汇量的总数目)output其他所有单词的概率(softmax输出也是11000)target是相近单词的one-hot形式2.Losstarget和output的矩阵的交叉熵最小or平方差最小3.NNet3.1隐层300个神经元,需要训练的权重矩阵大小是1000300本层的输出
- 产品经理的人工智能课 02 - 自然语言处理
平头某
人工智能产品经理自然语言处理
产品经理的人工智能课02-自然语言处理1自然语言处理是什么2一个NLP算法的例子——n-gram模型3预处理与重要概念3.1分词Token3.2词向量化表示与Word2Vec4与大语言模型的交互过程参考链接大语言模型(LargeLanguageModels,LLMs)是自然语言处理(NLP)领域的一个重要分支和核心技术,两者关系密切。所以我们先了解一些自然语言处理的基础概念,为后续了解大语言模型做
- TfidfVectorizer 和 word2vec
SpiritYzw
sklearnpython机器学习
一、TfidfVectorizer简单使用例子,可以统计子变量的频次类特征fromsklearn.feature_extraction.textimportTfidfVectorizertext_list=['aaa,bbb,ccc,aaa','bbb,aaa,aaa,ccc']vectorizer=TfidfVectorizer(stop_words=[',',':','','.','-'],m
- 【自然语言处理(NLP)】Word2Vec 原理及模型架构(Skip-Gram、CBOW)
道友老李
自然语言处理(NLP)自然语言处理word2vec
文章目录介绍Word2Vec介绍Word2Vec的核心概念Word2Vec的优点Word2Vec的缺点Word2Vec的应用场景Word2Vec的实现工具总结Word2Vec数学推导过程1.CBOW模型的数学推导(1)输入表示(2)词向量矩阵(3)输出层(4)损失函数(5)参数更新2.Skip-Gram模型的数学推导(1)输入表示(2)词向量矩阵(3)输出层(4)损失函数(5)参数更新3.优化技巧
- 【小白学AI系列】NLP 核心知识点(三)Word2Vec
Blankspace空白
人工智能自然语言处理word2vec
Word2Vec定义:Word2Vec是一种将单词转化为向量的技术,基于神经网络模型,它能够将单词的语义关系通过向量空间的距离和方向进行表示。通过Word2Vec,我们可以将单词从一个离散的符号转化为一个稠密的向量(一般是高维的),并且能够捕捉到单词之间的语义关系和相似性。历史来源:Word2Vec由TomasMikolov等人于2013年在谷歌提出,它迅速成为了词向量表示(wordembeddi
- pytorch基于GloVe实现的词嵌入
纠结哥_Shrek
pytorch人工智能python
PyTorch实现GloVe(GlobalVectorsforWordRepresentation)的完整代码,使用中文语料进行训练,包括共现矩阵构建、模型定义、训练和测试。1.GloVe介绍基于词的共现信息(不像Word2Vec使用滑动窗口预测)适合较大规模的数据(比Word2Vec更稳定)学习出的词向量能捕捉语义信息(如类比关系)importtorchimporttorch.nnasnnimp
- 自然语言处理-词嵌入 (Word Embeddings)
纠结哥_Shrek
自然语言处理人工智能
词嵌入(WordEmbedding)是一种将单词或短语映射到高维向量空间的技术,使其能够以数学方式表示单词之间的关系。词嵌入能够捕捉语义信息,使得相似的词在向量空间中具有相近的表示。常见词嵌入方法基于矩阵分解的方法LatentSemanticAnalysis(LSA)LatentDirichletAllocation(LDA)非负矩阵分解(NMF)基于神经网络的方法Word2Vec(Google提
- 基于Python的自然语言处理系列(2):Word2Vec(负采样)
会飞的Anthony
自然语言处理人工智能信息系统自然语言处理word2vec人工智能
在本系列的第二篇文章中,我们将继续探讨Word2Vec模型,这次重点介绍负采样(NegativeSampling)技术。负采样是一种优化Skip-gram模型训练效率的技术,它能在大规模语料库中显著减少计算复杂度。接下来,我们将通过详细的代码实现和理论讲解,帮助你理解负采样的工作原理及其在Word2Vec中的应用。1.Word2Vec(负采样)原理1.1负采样的背景在Word2Vec的Skip-g
- 一行代码搞定加载glove预训练词向量
peanutwang
python机器学习人工智能
加载glove预训练词向量再也不用glove2word2vec转换啦!以前加载glove预训练词向量的方法fromgensim.scripts.glove2word2vecimportglove2word2vecglove2word2vec('glove.6B.50d.txt','word2vec50d.txt')其实就是在原来的txt文件前面加上了一行信息,行和列。word10.1230.134
- 知识图谱中的word2vec 技术是做什么的?
kcarly
知识图谱入门知识图谱word2vec人工智能
Word2Vec是一种将单词转换为向量表示的技术,由Google在2013年提出。这项技术的核心思想是通过大规模文本数据训练神经网络模型,从而将单词映射到低维稠密的向量空间中。这些向量能够捕捉到单词之间的语义和语法关系,使得相似或相关的单词在向量空间中彼此靠近。Word2Vec的基本原理Word2Vec主要包括两种训练模型:CBOW(ContinuousBagofWords)和Skip-gram。
- BERT详解
comli_cn
大模型笔记bert人工智能深度学习
1.背景结构1.1基础知识BERT(BidirectionalEncoderRepresentationsfromTransformers)是谷歌提出,作为一个Word2Vec的替代者,其在NLP领域的11个方向大幅刷新了精度,可以说是前几年来自残差网络最优突破性的一项技术了。论文的主要特点以下几点:使用了双向Transformer作为算法的主要框架,之前的模型是从左向右输入一个文本序列,或者将l
- 预训练语言模型的前世今生 - 从Word Embedding到BERT
脚步的影子
语言模型embeddingbert
目录一、预训练1.1图像领域的预训练1.2预训练的思想二、语言模型2.1统计语言模型2.2神经网络语言模型三、词向量3.1独热(Onehot)编码3.2WordEmbedding四、Word2Vec模型五、自然语言处理的预训练模型六、RNN和LSTM6.1RNN6.2RNN的梯度消失问题6.3LSTM6.4LSTM解决RNN的梯度消失问题七、ELMo模型7.1ELMo的预训练7.2ELMo的Fea
- 【大模型实战篇】大模型周边NLP技术回顾及预训练模型数据预处理过程解析(预告)
源泉的小广场
大模型自然语言处理人工智能大模型LLM预训练模型数据预处理高质量数据
1.背景介绍进入到大模型时代,似乎宣告了与过去自然语言处理技术的结束,但其实这两者并不矛盾。大模型时代,原有的自然语言处理技术,依然可以在大模型的诸多场景中应用,特别是对数据的预处理阶段。本篇主要关注TextCNN、FastText和Word2Vec等低成本的自然语言处理技术,如何在大模型时代发挥其余热。今天先抛出这个主题预告,接下来会花些时间,逐步细化分析这些周边技术的算法原理、数学分析以及大模
- 自然语言处理系列五十一》文本分类算法》Python快速文本分类器FastText
陈敬雷-充电了么-CEO兼CTO
算法人工智能大数据自然语言处理分类pythonchatgpt人工智能ai机器学习
注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《自然语言处理原理与实战》(人工智能科学与技术丛书)【陈敬雷编著】【清华大学出版社】文章目录自然语言处理系列五十一Python开源快速文本分类器FastText》算法原理FastText和Word2vec的区别FastText代码实战总结自然语言处理系列五十一Python开源快速文本分类器FastText》算法原理自然语言处理(N
- 每天一个数据分析题(五百二十)- 词嵌入模型
跟着紫枫学姐学CDA
数据分析题库数据分析数据挖掘
关于词嵌入模型,以下说法错误的是?A.GloVe模型属于词嵌入模型B.Word2Vec模型属于词嵌入模型C.词袋模型属于词嵌入模型D.词嵌入模型基本假设是出现在相似的上下文中的词含义相似数据分析认证考试介绍:点击进入数据分析考试大纲下载题目来源于CDA模拟题库点击此处获取答案
- CnOpenData公共数据专区上新 | 中文金融情感词典
CnOpenData
数据列表深度学习python自然语言处理
中文金融情感词典一、数据简介 姜富伟教授及其研究团队于2021年第4期《经济学(季刊)》发表了《媒体文本情绪与股票回报预测》,并在文中介绍了一项极富创造力的金融学科研究成果——中文金融情感词典。 “本文在LoughranandMacDonald(2011)词典的基础上通过人工筛选和word2vec算法扩充,构建了一个更新更全面的中文金融情感词典。我们使用该情感词典计算我国财经媒体文本情绪指标,
- 23 注意力机制—BERT
Unknown To Known
动手学习深度学习bert人工智能深度学习
目录BERT预训练NLP里的迁移学习BERTBERT动机BERT预训练NLP里的迁移学习在计算机视觉中比较流行,将ImageNet或者更大的数据集上预训练好的模型应用到其他任务中,比如小数据的预测、图片分类或者是目标检测使用预训练好的模型(例如word2vec或语言模型)来抽取词、句子的特征做迁移学习的时候,一般不更新预训练好的模型在更换任务之后,还是需要构建新的网络来抓取新任务需要的信息使用预训
- 基于seq2seq的SKchat语言模型
eric-sjq
语言模型人工智能自然语言处理
SKchat语言模型是由小思框架开放的中文语言模型,基于seq2seq以及word2vec。v3模型的对话功能界面~在代码方面,我们优化了seq2seq算法,降低了内存的占用,并构建了新的模型。whileTrue:model.fit([x_encoder,x_decoder],y,batchsize,1,verbose=1,)"""解码模型"""decoder_h_input=Input(shap
- 【自然语言处理】:实验1布置,Word2Vec&TranE的实现
X.AI666
自然语言处理人工智能机器学习自然语言处理
清华大学驭风计划因为篇幅原因实验答案分开上传,答案链接http://t.csdnimg.cn/5cyMG如果需要详细的实验报告或者代码可以私聊博主有任何疑问或者问题,也欢迎私信博主,大家可以相互讨论交流哟~~实验1:Word2Vec&TranE的实现案例简介Word2Vec是词嵌入的经典模型,它通过词之间的上下文信息来建模词的相似度。TransE是知识表示学习领域的经典模型,它借鉴了Word2Ve
- Task5 基于深度学习的文本分类2
listentorain_W
Task5基于深度学习的文本分类2在上一章节,我们通过FastText快速实现了基于深度学习的文本分类模型,但是这个模型并不是最优的。在本章我们将继续深入。基于深度学习的文本分类本章将继续学习基于深度学习的文本分类。学习目标学习Word2Vec的使用和基础原理学习使用TextCNN、TextRNN进行文本表示学习使用HAN网络结构完成文本分类文本表示方法Part3词向量本节通过word2vec学习
- iOS http封装
374016526
ios服务器交互http网络请求
程序开发避免不了与服务器的交互,这里打包了一个自己写的http交互库。希望可以帮到大家。
内置一个basehttp,当我们创建自己的service可以继承实现。
KuroAppBaseHttp *baseHttp = [[KuroAppBaseHttp alloc] init];
[baseHttp setDelegate:self];
[baseHttp
- lolcat :一个在 Linux 终端中输出彩虹特效的命令行工具
brotherlamp
linuxlinux教程linux视频linux自学linux资料
那些相信 Linux 命令行是单调无聊且没有任何乐趣的人们,你们错了,这里有一些有关 Linux 的文章,它们展示着 Linux 是如何的有趣和“淘气” 。
在本文中,我将讨论一个名为“lolcat”的小工具 – 它可以在终端中生成彩虹般的颜色。
何为 lolcat ?
Lolcat 是一个针对 Linux,BSD 和 OSX 平台的工具,它类似于 cat 命令,并为 cat
- MongoDB索引管理(1)——[九]
eksliang
mongodbMongoDB管理索引
转载请出自出处:http://eksliang.iteye.com/blog/2178427 一、概述
数据库的索引与书籍的索引类似,有了索引就不需要翻转整本书。数据库的索引跟这个原理一样,首先在索引中找,在索引中找到条目以后,就可以直接跳转到目标文档的位置,从而使查询速度提高几个数据量级。
不使用索引的查询称
- Informatica参数及变量
18289753290
Informatica参数变量
下面是本人通俗的理解,如有不对之处,希望指正 info参数的设置:在info中用到的参数都在server的专门的配置文件中(最好以parma)结尾 下面的GLOBAl就是全局的,$开头的是系统级变量,$$开头的变量是自定义变量。如果是在session中或者mapping中用到的变量就是局部变量,那就把global换成对应的session或者mapping名字。
[GLOBAL] $Par
- python 解析unicode字符串为utf8编码字符串
酷的飞上天空
unicode
php返回的json字符串如果包含中文,则会被转换成\uxx格式的unicode编码字符串返回。
在浏览器中能正常识别这种编码,但是后台程序却不能识别,直接输出显示的是\uxx的字符,并未进行转码。
转换方式如下
>>> import json
>>> q = '{"text":"\u4
- Hibernate的总结
永夜-极光
Hibernate
1.hibernate的作用,简化对数据库的编码,使开发人员不必再与复杂的sql语句打交道
做项目大部分都需要用JAVA来链接数据库,比如你要做一个会员注册的 页面,那么 获取到用户填写的 基本信后,你要把这些基本信息存入数据库对应的表中,不用hibernate还有mybatis之类的框架,都不用的话就得用JDBC,也就是JAVA自己的,用这个东西你要写很多的代码,比如保存注册信
- SyntaxError: Non-UTF-8 code starting with '\xc4'
随便小屋
python
刚开始看一下Python语言,传说听强大的,但我感觉还是没Java强吧!
写Hello World的时候就遇到一个问题,在Eclipse中写的,代码如下
'''
Created on 2014年10月27日
@author: Logic
'''
print("Hello World!");
运行结果
SyntaxError: Non-UTF-8
- 学会敬酒礼仪 不做酒席菜鸟
aijuans
菜鸟
俗话说,酒是越喝越厚,但在酒桌上也有很多学问讲究,以下总结了一些酒桌上的你不得不注意的小细节。
细节一:领导相互喝完才轮到自己敬酒。敬酒一定要站起来,双手举杯。
细节二:可以多人敬一人,决不可一人敬多人,除非你是领导。
细节三:自己敬别人,如果不碰杯,自己喝多少可视乎情况而定,比如对方酒量,对方喝酒态度,切不可比对方喝得少,要知道是自己敬人。
细节四:自己敬别人,如果碰杯,一
- 《创新者的基因》读书笔记
aoyouzi
读书笔记《创新者的基因》
创新者的基因
创新者的“基因”,即最具创意的企业家具备的五种“发现技能”:联想,观察,实验,发问,建立人脉。
第一部分破坏性创新,从你开始
第一章破坏性创新者的基因
如何获得启示:
发现以下的因素起到了催化剂的作用:(1) -个挑战现状的问题;(2)对某项技术、某个公司或顾客的观察;(3) -次尝试新鲜事物的经验或实验;(4)与某人进行了一次交谈,为他点醒
- 表单验证技术
百合不是茶
JavaScriptDOM对象String对象事件
js最主要的功能就是验证表单,下面是我对表单验证的一些理解,贴出来与大家交流交流 ,数显我们要知道表单验证需要的技术点, String对象,事件,函数
一:String对象;通常是对字符串的操作;
1,String的属性;
字符串.length;表示该字符串的长度;
var str= "java"
- web.xml配置详解之context-param
bijian1013
javaservletweb.xmlcontext-param
一.格式定义:
<context-param>
<param-name>contextConfigLocation</param-name>
<param-value>contextConfigLocationValue></param-value>
</context-param>
作用:该元
- Web系统常见编码漏洞(开发工程师知晓)
Bill_chen
sqlPHPWebfckeditor脚本
1.头号大敌:SQL Injection
原因:程序中对用户输入检查不严格,用户可以提交一段数据库查询代码,根据程序返回的结果,
获得某些他想得知的数据,这就是所谓的SQL Injection,即SQL注入。
本质:
对于输入检查不充分,导致SQL语句将用户提交的非法数据当作语句的一部分来执行。
示例:
String query = "SELECT id FROM users
- 【MongoDB学习笔记六】MongoDB修改器
bit1129
mongodb
本文首先介绍下MongoDB的基本的增删改查操作,然后,详细介绍MongoDB提供的修改器,以完成各种各样的文档更新操作 MongoDB的主要操作
show dbs 显示当前用户能看到哪些数据库
use foobar 将数据库切换到foobar
show collections 显示当前数据库有哪些集合
db.people.update,update不带参数,可
- 提高职业素养,做好人生规划
白糖_
人生
培训讲师是成都著名的企业培训讲师,他在讲课中提出的一些观点很新颖,在此我收录了一些分享一下。注:讲师的观点不代表本人的观点,这些东西大家自己揣摩。
1、什么是职业规划:职业规划并不完全代表你到什么阶段要当什么官要拿多少钱,这些都只是梦想。职业规划是清楚的认识自己现在缺什么,这个阶段该学习什么,下个阶段缺什么,又应该怎么去规划学习,这样才算是规划。
- 国外的网站你都到哪边看?
bozch
技术网站国外
学习软件开发技术,如果没有什么英文基础,最好还是看国内的一些技术网站,例如:开源OSchina,csdn,iteye,51cto等等。
个人感觉如果英语基础能力不错的话,可以浏览国外的网站来进行软件技术基础的学习,例如java开发中常用的到的网站有apache.org 里面有apache的很多Projects,springframework.org是spring相关的项目网站,还有几个感觉不错的
- 编程之美-光影切割问题
bylijinnan
编程之美
package a;
public class DisorderCount {
/**《编程之美》“光影切割问题”
* 主要是两个问题:
* 1.数学公式(设定没有三条以上的直线交于同一点):
* 两条直线最多一个交点,将平面分成了4个区域;
* 三条直线最多三个交点,将平面分成了7个区域;
* 可以推出:N条直线 M个交点,区域数为N+M+1。
- 关于Web跨站执行脚本概念
chenbowen00
Web安全跨站执行脚本
跨站脚本攻击(XSS)是web应用程序中最危险和最常见的安全漏洞之一。安全研究人员发现这个漏洞在最受欢迎的网站,包括谷歌、Facebook、亚马逊、PayPal,和许多其他网站。如果你看看bug赏金计划,大多数报告的问题属于 XSS。为了防止跨站脚本攻击,浏览器也有自己的过滤器,但安全研究人员总是想方设法绕过这些过滤器。这个漏洞是通常用于执行cookie窃取、恶意软件传播,会话劫持,恶意重定向。在
- [开源项目与投资]投资开源项目之前需要统计该项目已有的用户数
comsci
开源项目
现在国内和国外,特别是美国那边,突然出现很多开源项目,但是这些项目的用户有多少,有多少忠诚的粉丝,对于投资者来讲,完全是一个未知数,那么要投资开源项目,我们投资者必须准确无误的知道该项目的全部情况,包括项目发起人的情况,项目的维持时间..项目的技术水平,项目的参与者的势力,项目投入产出的效益.....
- oracle alert log file(告警日志文件)
daizj
oracle告警日志文件alert log file
The alert log is a chronological log of messages and errors, and includes the following items:
All internal errors (ORA-00600), block corruption errors (ORA-01578), and deadlock errors (ORA-00060)
- 关于 CAS SSO 文章声明
denger
SSO
由于几年前写了几篇 CAS 系列的文章,之后陆续有人参照文章去实现,可都遇到了各种问题,同时经常或多或少的收到不少人的求助。现在这时特此说明几点:
1. 那些文章发表于好几年前了,CAS 已经更新几个很多版本了,由于近年已经没有做该领域方面的事情,所有文章也没有持续更新。
2. 文章只是提供思路,尽管 CAS 版本已经发生变化,但原理和流程仍然一致。最重要的是明白原理,然后
- 初二上学期难记单词
dcj3sjt126com
englishword
lesson 课
traffic 交通
matter 要紧;事物
happy 快乐的,幸福的
second 第二的
idea 主意;想法;意见
mean 意味着
important 重要的,重大的
never 从来,决不
afraid 害怕 的
fifth 第五的
hometown 故乡,家乡
discuss 讨论;议论
east 东方的
agree 同意;赞成
bo
- uicollectionview 纯代码布局, 添加头部视图
dcj3sjt126com
Collection
#import <UIKit/UIKit.h>
@interface myHeadView : UICollectionReusableView
{
UILabel *TitleLable;
}
-(void)setTextTitle;
@end
#import "myHeadView.h"
@implementation m
- N 位随机数字串的 JAVA 生成实现
FX夜归人
javaMath随机数Random
/**
* 功能描述 随机数工具类<br />
* @author FengXueYeGuiRen
* 创建时间 2014-7-25<br />
*/
public class RandomUtil {
// 随机数生成器
private static java.util.Random random = new java.util.R
- Ehcache(09)——缓存Web页面
234390216
ehcache页面缓存
页面缓存
目录
1 SimplePageCachingFilter
1.1 calculateKey
1.2 可配置的初始化参数
1.2.1 cach
- spring中少用的注解@primary解析
jackyrong
primary
这次看下spring中少见的注解@primary注解,例子
@Component
public class MetalSinger implements Singer{
@Override
public String sing(String lyrics) {
return "I am singing with DIO voice
- Java几款性能分析工具的对比
lbwahoo
java
Java几款性能分析工具的对比
摘自:http://my.oschina.net/liux/blog/51800
在给客户的应用程序维护的过程中,我注意到在高负载下的一些性能问题。理论上,增加对应用程序的负载会使性能等比率的下降。然而,我认为性能下降的比率远远高于负载的增加。我也发现,性能可以通过改变应用程序的逻辑来提升,甚至达到极限。为了更详细的了解这一点,我们需要做一些性能
- JVM参数配置大全
nickys
jvm应用服务器
JVM参数配置大全
/usr/local/jdk/bin/java -Dresin.home=/usr/local/resin -server -Xms1800M -Xmx1800M -Xmn300M -Xss512K -XX:PermSize=300M -XX:MaxPermSize=300M -XX:SurvivorRatio=8 -XX:MaxTenuringThreshold=5 -
- 搭建 CentOS 6 服务器(14) - squid、Varnish
rensanning
varnish
(一)squid
安装
# yum install httpd-tools -y
# htpasswd -c -b /etc/squid/passwords squiduser 123456
# yum install squid -y
设置
# cp /etc/squid/squid.conf /etc/squid/squid.conf.bak
# vi /etc/
- Spring缓存注解@Cache使用
tom_seed
spring
参考资料
http://www.ibm.com/developerworks/cn/opensource/os-cn-spring-cache/
http://swiftlet.net/archives/774
缓存注解有以下三个:
@Cacheable @CacheEvict @CachePut
- dom4j解析XML时出现"java.lang.noclassdeffounderror: org/jaxen/jaxenexception"错误
xp9802
java.lang.NoClassDefFoundError: org/jaxen/JaxenExc
关键字: java.lang.noclassdeffounderror: org/jaxen/jaxenexception
使用dom4j解析XML时,要快速获取某个节点的数据,使用XPath是个不错的方法,dom4j的快速手册里也建议使用这种方式
执行时却抛出以下异常:
Exceptio