- 【深度学习】BERT变体—BERT-wwm
DonngZH
人工智能深度学习机器学习深度学习bert人工智能
1.BERT-wwm1-1WholeWordMaskingWholeWordMasking(wwm)是谷歌在2019年5月31日发布的一项BERT的升级版本,主要更改了原预训练阶段的训练样本生成策略。原有基于WordPiece的分词方式会把一个完整的词切分成若干个子词,在生成训练样本时,这些被分开的子词会随机被mask。在WholeWordMasking(wwm)中,如果一个完整的词的部分Word
- BERT论文解读
EthanZhang1412
bert深度学习自然语言处理
1.Introduction1.1相关链接论文下载链接:https://arxiv.org/pdf/1810.04805.pdfGoogle中文BERT预训练大模型下载链接:GitHub-ymcui/Chinese-BERT-wwm:Pre-TrainingwithWholeWordMaskingforChineseBERT(中文BERT-wwm系列模型)在该页面上,可以找到BERT-wwm-ex
- 序列标注ner原理,CRF作用以及transformers ner使用
HxShine
pytorchnlp深度学习
1.参考Pre-TrainingwithWholeWordMaskingforChineseBERT(中文BERT-wwm系列模型)https://github.com/ymcui/Chinese-BERT-wwmTransformers:State-of-the-artNaturalLanguageProcessingforTensorFlow2.0andPyTorch.https://gith
- 中国星级景点可视化知识图谱问答系统的设计与实现
TerryBlog
大学四年#知识图谱知识图谱知识抽取D3.jsdjangouni-app
中国星级景点可视化知识图谱问答系统数据采集模块中半结构化数据使用Scrapy框架对异构数据源(专业旅游网站)进行爬取。同时,通过CN-DBpedia百科知识图谱提供的API将已获得的景区名称与该知识库中的实体进行对齐,采集结构化的知识三元组。在文本数据的关系抽取中,使用开源的关系抽取框架OpenNRE和基于全词掩码技术的中文预训练语言模型BERT-wwm-ext训练关系抽取模型。数据库模块分别采用
- wwm-bert
拼搏向上001
中文说明|English中文预训练BERT-wwm(Pre-TrainedChineseBERTwithWholeWordMasking)在自然语言处理领域中,预训练模型(Pre-trainedModels)已成为非常重要的基础技术。为了进一步促进中文信息处理的研究发展,我们发布了基于全词遮罩(WholeWordMasking)技术的中文预训练模型BERT-wwm,以及与此技术密切相关的模型:BE
- 几种预训练模型:bert-wwm,RoBERTa,RoBERTa-wwm
谁怕平生太急
阅读
bert-large:24层,330M参数bert-base:12层,110M参数1.bert-wwmwwm即wholewordmasking(对全词进行mask),谷歌2019年5月31日发布,对bert的升级,主要更改了原预训练阶段的训练样本生成策略。改进:用mask标签替换一个完整的词而不是字。2.bert-wwm-extbert-wwm的升级版,改进:增加了训练数据集同时也增加了训练步数。
- 基于 bert-wwm-ext + roberta-large实现新馆疫情语句的文本匹配问答
甜辣uu
自然语言处理-nlp-NLPbert深度学习自然语言处理文本匹配
新冠疫情相似句对判定算法说明代码说明运行环境运行说明参考资料1.算法说明本解决方案使用了基于病名\药名的数据增强+模型融合+训练时-测试时增强+伪标签的解决方案基于病名\药名的数据增强Dataaugmentation
- bert做文本摘要_BERT-WWM
sunhanwu
bert做文本摘要
NewMay31st,2019:WholeWordMaskingModels(google-research)https://github.com/google-research/bertWholeWordMasking(wwm)是谷歌在2019年5月31日发布的一项BERT的升级版本,主要更改了原预训练阶段的训练样本生成策略。简单来说,原有基于WordPiece的分词方式会把一个完整的词切分成若
- bert4keras加载BERT模型并获取文本字向量、句向量CLS
Dusk2090
NLP自然语言处理bertkeras深度学习tensorflow
bert4keras加载BERT模型并获取文本字向量、句向量CLS环境依赖tensorflow2.3+bert4keras开源BERT模型下载BERT模型https://github.com/ymcui/Chinese-BERT-wwm,BERT-wwm-ext,ChineseTF版模型解压后文件目录如下:bert_config.json:保存的是BERT模型的一些主要参数设置bert_model
- 【回答问题】ChatGPT上线了!推荐30个以上比较好的中文bert系列的模型/压缩模型
源代码杀手
ChatGPTchatgptbert人工智能
推荐30个以上比较好的中文bert系列的模型以下是一些中文BERT系列的模型:BERT-Base,Chinese:中文BERT基础版BERT-Large,Chinese:中文BERT大型版BERT-WWM,Chinese:中文BERT加入了wholewordmasking的版本BERT-WWM-Ext,Chinese:中文BERT加入了wholewordmasking且扩展了训练数据的版本ALBE
- 使用中文预训练模型 bert-wwm 获得字向量和词向量
nero_my
NLPbertpytorch深度学习
使用中文预训练模型bert-wwm获得字向量和词向量1.下载2.解压3.使用bert获得字向量和词向量通过下载模型的形式,要比直接调用库的快很多。1.下载链接:github(使用宽带打不开的话可尝试手机热点)打开以后是这样滴:我下载了这个版本的PyTorch,大小不到0.5G(并不知道有什么区别,随便下的)2.解压解压之后里面有三个文件,需要把bert_config.json改名为config.j
- 从jieba分词到BERT-wwm——中文自然语言处理(NLP)基础分享系列(12)
moronism189
自然语言处理bert深度学习transformerpytorch
在Huggingfacetransformers平台上微调BERT-wwm-ext今天是本系列的最后一期。transformer与transformers为了避免命名带来的混淆,我们首先来厘清一下:transformer与transformers。•transformer在上一期里,我们已经做过介绍,transformer是一种具有多头自注意力机制的、可以取代RNN/LSTM的神经网络单元结构。本
- 从jieba分词到BERT-wwm——中文自然语言处理(NLP)基础分享系列(10)
moronism189
自然语言处理深度学习lstmpytorch
训练孪生LSTM深度学习网络的代码首先,我们把需要导入的包集中放在最前面。importnumpyasnpimportpandasaspdimportpickleimporttorchimporttorch.nnasnnfromtorchtext.vocabimportbuild_vocab_from_iteratorfromtorchtext.data.functionalimportsimple
- 从jieba分词到BERT-wwm——中文自然语言处理(NLP)基础分享系列(6)
moronism189
自然语言处理python
第一个机器学习模型上一回我们得到新闻标题文档的压缩到64维的LSI向量表示,我们用它来训练一个机器学习(MachineLearning)模型。首先我们运行代码,重新在内存中加载它。importpandasaspdimportpicklefromsklearn.feature_extraction.textimportTfidfVectorizerpkl_file_rb=open(r'./save_
- 从jieba分词到BERT-wwm——中文自然语言处理(NLP)基础分享系列(7)
moronism189
自然语言处理深度学习pytorch
从『词袋』到『词序列』我们之前对于文档的数字化表示,采用的是向量空间模型(例如TF-IDF),又被形象地称为『词袋』模型(Bag-of-wordsmodel)。就像是把文档里的词汇,放入到以词典作为标签的袋子里。我们可以看到,基于词袋模型的文档表示方法,虽然考虑了词的重要程度,但它只是根据词的统计特性表示一个文档,而没有考虑到词在文中的次序。比方说有这样两句话:•“熊二/的/哥哥/是/熊大。”•“
- 从jieba分词到BERT-wwm——中文自然语言处理(NLP)基础分享系列(8)
moronism189
自然语言处理深度学习word2vec
优化代码&谈谈『词向量』让代码更好看一些在看torchtext参考手册文档的时候,发现之前代码里手工编写的功能(如根据空格的分词、索引序列的截断和补齐等)已有封装函数实现,引用它的成品函数会让代码简洁一些。另外将读取文件、构造语料库等前续步骤,也合并到myDataset类的**init**方法里。优化后新的代码如下:importnumpyasnpimportpandasaspdimportpick
- 从jieba分词到BERT-wwm——中文自然语言处理(NLP)基础分享系列(5)
moronism189
自然语言处理机器学习python
使用LSI(潜在语义索引)进行维度归约对于之前训练的TF-IDF向量空间表示,我们重新跑一遍代码,看一下它有些什么特点。importpandasaspdimportpicklefromsklearn.feature_extraction.textimportTfidfVectorizerpkl_file_rb=open(r'./save_file','rb')train=pickle.load(p
- 从jieba分词到BERT-wwm——中文自然语言处理(NLP)基础分享系列(2)
moronism189
自然语言处理bert深度学习
用直觉找出基线这是今天的任务,后面会对基线这个词有所解释。现在任务目标明确了,就是要将有32万笔数据的训练数据集(TrainingSet)交给NLP模型,让它「阅读」每一列里头的假新闻A与新闻B的标题并了解它们之间的关系(不相关、B同意A、B不同意A)。理想上,在看过一大堆案例以后,我们的模型就能够「学会」一些法则,让它在被给定一组从来没看过的假新闻标题A以及新闻标题B的情况下,也能正确判断新闻A
- 从jieba分词到BERT-wwm——中文自然语言处理(NLP)基础分享系列(3)
moronism189
python机器学习中文分词nlp
中文的分词和文档的数字表示要让电脑或是任何NLP模型理解一篇新闻标题在说什么,我们不能将自己已经非常习惯的语言文字直接扔给电脑,而是要转换成它熟悉的形式:数字。中文的分词这里我们将一篇新闻标题视为一个“文档”,在中文的语言特征里,文档的基本单位主要由词构成。不同于英文的是,中文句子中没有词的界限,因此进行中文文档的数字表示时,通常需要先做分词以及词的编码。常见的基于中文分词算法有:正向最大匹配法、
- 从jieba分词到BERT-wwm——中文自然语言处理(NLP)基础分享系列(4)
moronism189
自然语言处理机器学习nlp
TF-IDF向量距离度量和数据分析我们完成了新闻标题文档的TF-IDF向量空间模型,现在我们来看看它对于我们的任务目标(辨别新闻标题A和B的关系)有什么帮助。用TF-IDF模型度量新闻标题A和B的距离我们把之前用pickle持久化保存的分词结果加载进来,继续下面的内容。importpandasaspdimportpicklepkl_file_rb=open(r'./save_file','rb')
- 从jieba分词到BERT-wwm——中文自然语言处理(NLP)基础分享系列(1)
moronism189
自然语言处理bert人工智能
起源及致谢原作因为编写内部培训材料的需要,近期又重读了之前收藏的一篇博客《进入NLP世界的最佳桥梁:写给所有人的自然语言处理与深度学习入门指南》https://leemeng.tw/shortest-path-to-the-nlp-world-a-gentle-guide-of-natural-language-processing-and-deep-learning-for-everyone.h
- 从jieba分词到BERT-wwm——中文自然语言处理(NLP)基础分享系列(11)
moronism189
自然语言处理bert深度学习transformer
Transformer改变一切前面我们已经学习了针对我们的业务目标——「辨别新闻标题A和B的关系」,如何训练一个LSTM孪生神经网络模型,并获得较好的测试验证结果。这期我们跟着NLP技术路线的进化,认识一下一个划时代的全新网络「Transformer」。是的,名不虚传,它真的就像「变形金刚」一样厉害。同样,今天的内容没有代码。AttentionIsAllYouNeedTransformer的故事开
- 从jieba分词到BERT-wwm——中文自然语言处理(NLP)基础分享系列(9)
moronism189
自然语言处理深度学习rnnlstm
上周因病住了个院,因此更新暂停了几天……从RNN和LSTM开始理解深度学习网络看到这个标题,是不是已经觉得有点高级了?……在系列的下一期将会呈现针对我们的业务目标——「辨别新闻标题A和B的关系」的完整的LSTM模型神经网络训练和测试代码。在那之前,我们将试图把原理部分解释清楚。因此,这期内容没有代码。深度学习尽管很容易从网上搜到,这里还是简单介绍一下深度学习的概念:深度学习是机器学习的一种,深度学
- 将tensorflow版本的预训练模型转换成pytorch版本的
coding_xian
nlpgitpytorchtensorflow
参考:pytorch_transformers使用之获取bert词向量_yecp1的博客-CSDN博客1、安装pytorch1.1+pipinstalltorch2、安装pytorch-transformerspipinstalltransformers3、下载预训练好的模型tensorflow版本,例如bert-base-chinese哈工大中文bert-wwm:GitHub-ymcui/Chi
- BERT-wwm、BERT-wwm-ext
谨慎殷勤
1.Bert-wwmwwm即WholeWordMasking(对全词进行Mask),是谷歌在2019年5月31号发布的一项bert升级版本,主要更改了原预训练阶段的训练样本生成策略。相比于bert的改进是用Mask标签替换一个完整的词而不是字词,中文和英文不同,英文最小的token是一个单词,而中文中最小的token却是字,词是由一个或多个字组成,且每个词之间没有明显的分割,包含更多信息的是词,对
- Bert不完全手册6. Bert在中文领域的尝试 Bert-WWM & MacBert & ChineseBert
风雨中的小七
一章我们来聊聊在中文领域都有哪些预训练模型的改良方案。Bert-WWM,MacBert,ChineseBert主要从3个方向在预训练中补充中文文本的信息:词粒度信息,中文笔画信息,拼音信息。与其说是推荐帖,可能更多需要客观看待以下'中文'改良的在实际应用中的效果~
- BERT-wwm-ext
Johann_Liang
BERT-wwm-ext是由哈工大讯飞联合实验室发布的中文预训练语言模型,是BERT-wwm的一个升级版。BERT-wwm-ext主要是有两点改进:预训练数据集做了增加,次数达到5.4B;训练步数增大,训练第一阶段1M步,训练第二阶段400K步。WholeWordMasking(wwm),暂翻译为全词Mask或整词Mask,是谷歌在2019年5月31日发布的一项BERT的升级版本,主要更改了原预训
- 首个金融领域的开源中文预训练语言模型FinBERT了解下
PaperWeekly
大数据自然语言处理编程语言计算机视觉机器学习
背景及下载地址为了促进自然语言处理技术在金融科技领域的应用和发展,熵简科技AILab近期开源了基于BERT架构的金融领域预训练语言模型FinBERT1.0。据我们所知,这是国内首个在金融领域大规模语料上训练的开源中文BERT预训练模型。相对于Google发布的原生中文BERT、哈工大讯飞实验室开源的BERT-wwm以及RoBERTa-wwm-ext等模型,本次开源的FinBERT1.0预训练模型在
- 金融领域首个开源中文BERT预训练模型,熵简科技推出FinBERT 1.0
AI科技大本营
大数据自然语言处理编程语言计算机视觉机器学习
出品|AI科技大本营头图|CSDN付费下载于东方IC为了促进自然语言处理技术在金融科技领域的应用和发展,熵简科技AILab近期开源了基于BERT架构的金融领域预训练语言模型FinBERT1.0。据悉,这是国内首个在金融领域大规模语料上训练的开源中文BERT预训练模型。相对于Google发布的原生中文BERT、哈工大讯飞实验室开源的BERT-wwm以及RoBERTa-wwm-ext等模型,本次开源的
- BERT-wwm、RoBERTa-wwm、SpanBERT、ERNIE2
要努力的鱼~
深度学习
BERT-wwm、RoBERTa、SpanBERT、ERNIE2BERT-wwm/RoBERTa-wwmwwm是WholeWordMasking(对全词进行Mask)。简单来说,原有基于WordPiece的分词方式会把一个完整的词切分成若干个子词,在生成训练样本时,这些被分开的子词会随机被mask。在全词Mask中,如果一个完整的词的部分WordPiece子词被mask,则同属该词的其他部分也会被
- 数据采集高并发的架构应用
3golden
.net
问题的出发点:
最近公司为了发展需要,要扩大对用户的信息采集,每个用户的采集量估计约2W。如果用户量增加的话,将会大量照成采集量成3W倍的增长,但是又要满足日常业务需要,特别是指令要及时得到响应的频率次数远大于预期。
&n
- 不停止 MySQL 服务增加从库的两种方式
brotherlamp
linuxlinux视频linux资料linux教程linux自学
现在生产环境MySQL数据库是一主一从,由于业务量访问不断增大,故再增加一台从库。前提是不能影响线上业务使用,也就是说不能重启MySQL服务,为了避免出现其他情况,选择在网站访问量低峰期时间段操作。
一般在线增加从库有两种方式,一种是通过mysqldump备份主库,恢复到从库,mysqldump是逻辑备份,数据量大时,备份速度会很慢,锁表的时间也会很长。另一种是通过xtrabacku
- Quartz——SimpleTrigger触发器
eksliang
SimpleTriggerTriggerUtilsquartz
转载请出自出处:http://eksliang.iteye.com/blog/2208166 一.概述
SimpleTrigger触发器,当且仅需触发一次或者以固定时间间隔周期触发执行;
二.SimpleTrigger的构造函数
SimpleTrigger(String name, String group):通过该构造函数指定Trigger所属组和名称;
Simpl
- Informatica应用(1)
18289753290
sqlworkflowlookup组件Informatica
1.如果要在workflow中调用shell脚本有一个command组件,在里面设置shell的路径;调度wf可以右键出现schedule,现在用的是HP的tidal调度wf的执行。
2.designer里面的router类似于SSIS中的broadcast(多播组件);Reset_Workflow_Var:参数重置 (比如说我这个参数初始是1在workflow跑得过程中变成了3我要在结束时还要
- python 获取图片验证码中文字
酷的飞上天空
python
根据现成的开源项目 http://code.google.com/p/pytesser/改写
在window上用easy_install安装不上 看了下源码发现代码很少 于是就想自己改写一下
添加支持网络图片的直接解析
#coding:utf-8
#import sys
#reload(sys)
#sys.s
- AJAX
永夜-极光
Ajax
1.AJAX功能:动态更新页面,减少流量消耗,减轻服务器负担
2.代码结构:
<html>
<head>
<script type="text/javascript">
function loadXMLDoc()
{
.... AJAX script goes here ...
- 创业OR读研
随便小屋
创业
现在研一,有种想创业的想法,不知道该不该去实施。因为对于的我情况这两者是矛盾的,可能就是鱼与熊掌不能兼得。
研一的生活刚刚过去两个月,我们学校主要的是
- 需求做得好与坏直接关系着程序员生活质量
aijuans
IT 生活
这个故事还得从去年换工作的事情说起,由于自己不太喜欢第一家公司的环境我选择了换一份工作。去年九月份我入职现在的这家公司,专门从事金融业内软件的开发。十一月份我们整个项目组前往北京做现场开发,从此苦逼的日子开始了。
系统背景:五月份就有同事前往甲方了解需求一直到6月份,后续几个月也完
- 如何定义和区分高级软件开发工程师
aoyouzi
在软件开发领域,高级开发工程师通常是指那些编写代码超过 3 年的人。这些人可能会被放到领导的位置,但经常会产生非常糟糕的结果。Matt Briggs 是一名高级开发工程师兼 Scrum 管理员。他认为,单纯使用年限来划分开发人员存在问题,两个同样具有 10 年开发经验的开发人员可能大不相同。近日,他发表了一篇博文,根据开发者所能发挥的作用划分软件开发工程师的成长阶段。
初
- Servlet的请求与响应
百合不是茶
servletget提交java处理post提交
Servlet是tomcat中的一个重要组成,也是负责客户端和服务端的中介
1,Http的请求方式(get ,post);
客户端的请求一般都会都是Servlet来接受的,在接收之前怎么来确定是那种方式提交的,以及如何反馈,Servlet中有相应的方法, http的get方式 servlet就是都doGet(
- web.xml配置详解之listener
bijian1013
javaweb.xmllistener
一.定义
<listener>
<listen-class>com.myapp.MyListener</listen-class>
</listener>
二.作用 该元素用来注册一个监听器类。可以收到事件什么时候发生以及用什么作为响
- Web页面性能优化(yahoo技术)
Bill_chen
JavaScriptAjaxWebcssYahoo
1.尽可能的减少HTTP请求数 content
2.使用CDN server
3.添加Expires头(或者 Cache-control) server
4.Gzip 组件 server
5.把CSS样式放在页面的上方。 css
6.将脚本放在底部(包括内联的) javascript
7.避免在CSS中使用Expressions css
8.将javascript和css独立成外部文
- 【MongoDB学习笔记八】MongoDB游标、分页查询、查询结果排序
bit1129
mongodb
游标
游标,简单的说就是一个查询结果的指针。游标作为数据库的一个对象,使用它是包括
声明
打开
循环抓去一定数目的文档直到结果集中的所有文档已经抓取完
关闭游标
游标的基本用法,类似于JDBC的ResultSet(hasNext判断是否抓去完,next移动游标到下一条文档),在获取一个文档集时,可以提供一个类似JDBC的FetchSize
- ORA-12514 TNS 监听程序当前无法识别连接描述符中请求服务 的解决方法
白糖_
ORA-12514
今天通过Oracle SQL*Plus连接远端服务器的时候提示“监听程序当前无法识别连接描述符中请求服务”,遂在网上找到了解决方案:
①打开Oracle服务器安装目录\NETWORK\ADMIN\listener.ora文件,你会看到如下信息:
# listener.ora Network Configuration File: D:\database\Oracle\net
- Eclipse 问题 A resource exists with a different case
bozch
eclipse
在使用Eclipse进行开发的时候,出现了如下的问题:
Description Resource Path Location TypeThe project was not built due to "A resource exists with a different case: '/SeenTaoImp_zhV2/bin/seentao'.&
- 编程之美-小飞的电梯调度算法
bylijinnan
编程之美
public class AptElevator {
/**
* 编程之美 小飞 电梯调度算法
* 在繁忙的时间,每次电梯从一层往上走时,我们只允许电梯停在其中的某一层。
* 所有乘客都从一楼上电梯,到达某层楼后,电梯听下来,所有乘客再从这里爬楼梯到自己的目的层。
* 在一楼时,每个乘客选择自己的目的层,电梯则自动计算出应停的楼层。
* 问:电梯停在哪
- SQL注入相关概念
chenbowen00
sqlWeb安全
SQL Injection:就是通过把SQL命令插入到Web表单递交或输入域名或页面请求的查询字符串,最终达到欺骗服务器执行恶意的SQL命令。
具体来说,它是利用现有应用程序,将(恶意)的SQL命令注入到后台数据库引擎执行的能力,它可以通过在Web表单中输入(恶意)SQL语句得到一个存在安全漏洞的网站上的数据库,而不是按照设计者意图去执行SQL语句。
首先让我们了解什么时候可能发生SQ
- [光与电]光子信号战防御原理
comsci
原理
无论是在战场上,还是在后方,敌人都有可能用光子信号对人体进行控制和攻击,那么采取什么样的防御方法,最简单,最有效呢?
我们这里有几个山寨的办法,可能有些作用,大家如果有兴趣可以去实验一下
根据光
- oracle 11g新特性:Pending Statistics
daizj
oracledbms_stats
oracle 11g新特性:Pending Statistics 转
从11g开始,表与索引的统计信息收集完毕后,可以选择收集的统信息立即发布,也可以选择使新收集的统计信息处于pending状态,待确定处于pending状态的统计信息是安全的,再使处于pending状态的统计信息发布,这样就会避免一些因为收集统计信息立即发布而导致SQL执行计划走错的灾难。
在 11g 之前的版本中,D
- 快速理解RequireJs
dengkane
jqueryrequirejs
RequireJs已经流行很久了,我们在项目中也打算使用它。它提供了以下功能:
声明不同js文件之间的依赖
可以按需、并行、延时载入js库
可以让我们的代码以模块化的方式组织
初看起来并不复杂。 在html中引入requirejs
在HTML中,添加这样的 <script> 标签:
<script src="/path/to
- C语言学习四流程控制if条件选择、for循环和强制类型转换
dcj3sjt126com
c
# include <stdio.h>
int main(void)
{
int i, j;
scanf("%d %d", &i, &j);
if (i > j)
printf("i大于j\n");
else
printf("i小于j\n");
retu
- dictionary的使用要注意
dcj3sjt126com
IO
NSDictionary *dict = [NSDictionary dictionaryWithObjectsAndKeys:
user.user_id , @"id",
user.username , @"username",
- Android 中的资源访问(Resource)
finally_m
xmlandroidStringdrawablecolor
简单的说,Android中的资源是指非代码部分。例如,在我们的Android程序中要使用一些图片来设置界面,要使用一些音频文件来设置铃声,要使用一些动画来显示特效,要使用一些字符串来显示提示信息。那么,这些图片、音频、动画和字符串等叫做Android中的资源文件。
在Eclipse创建的工程中,我们可以看到res和assets两个文件夹,是用来保存资源文件的,在assets中保存的一般是原生
- Spring使用Cache、整合Ehcache
234390216
springcacheehcache@Cacheable
Spring使用Cache
从3.1开始,Spring引入了对Cache的支持。其使用方法和原理都类似于Spring对事务管理的支持。Spring Cache是作用在方法上的,其核心思想是这样的:当我们在调用一个缓存方法时会把该方法参数和返回结果作为一个键值对存放在缓存中,等到下次利用同样的
- 当druid遇上oracle blob(clob)
jackyrong
oracle
http://blog.csdn.net/renfufei/article/details/44887371
众所周知,Oracle有很多坑, 所以才有了去IOE。
在使用Druid做数据库连接池后,其实偶尔也会碰到小坑,这就是使用开源项目所必须去填平的。【如果使用不开源的产品,那就不是坑,而是陷阱了,你都不知道怎么去填坑】
用Druid连接池,通过JDBC往Oracle数据库的
- easyui datagrid pagination获得分页页码、总页数等信息
ldzyz007
var grid = $('#datagrid');
var options = grid.datagrid('getPager').data("pagination").options;
var curr = options.pageNumber;
var total = options.total;
var max =
- 浅析awk里的数组
nigelzeng
二维数组array数组awk
awk绝对是文本处理中的神器,它本身也是一门编程语言,还有许多功能本人没有使用到。这篇文章就单单针对awk里的数组来进行讨论,如何利用数组来帮助完成文本分析。
有这么一组数据:
abcd,91#31#2012-12-31 11:24:00
case_a,136#19#2012-12-31 11:24:00
case_a,136#23#2012-12-31 1
- 搭建 CentOS 6 服务器(6) - TigerVNC
rensanning
centos
安装GNOME桌面环境
# yum groupinstall "X Window System" "Desktop"
安装TigerVNC
# yum -y install tigervnc-server tigervnc
启动VNC服务
# /etc/init.d/vncserver restart
# vncser
- Spring 数据库连接整理
tomcat_oracle
springbeanjdbc
1、数据库连接jdbc.properties配置详解 jdbc.url=jdbc:hsqldb:hsql://localhost/xdb jdbc.username=sa jdbc.password= jdbc.driver=不同的数据库厂商驱动,此处不一一列举 接下来,详细配置代码如下:
Spring连接池  
- Dom4J解析使用xpath java.lang.NoClassDefFoundError: org/jaxen/JaxenException异常
xp9802
用Dom4J解析xml,以前没注意,今天使用dom4j包解析xml时在xpath使用处报错
异常栈:java.lang.NoClassDefFoundError: org/jaxen/JaxenException异常
导入包 jaxen-1.1-beta-6.jar 解决;
&nb