- 预训练语言模型的前世今生 - 从Word Embedding到BERT
脚步的影子
语言模型embeddingbert
目录一、预训练1.1图像领域的预训练1.2预训练的思想二、语言模型2.1统计语言模型2.2神经网络语言模型三、词向量3.1独热(Onehot)编码3.2WordEmbedding四、Word2Vec模型五、自然语言处理的预训练模型六、RNN和LSTM6.1RNN6.2RNN的梯度消失问题6.3LSTM6.4LSTM解决RNN的梯度消失问题七、ELMo模型7.1ELMo的预训练7.2ELMo的Fea
- 【大模型实战篇】大模型周边NLP技术回顾及预训练模型数据预处理过程解析(预告)
源泉的小广场
大模型自然语言处理人工智能大模型LLM预训练模型数据预处理高质量数据
1.背景介绍进入到大模型时代,似乎宣告了与过去自然语言处理技术的结束,但其实这两者并不矛盾。大模型时代,原有的自然语言处理技术,依然可以在大模型的诸多场景中应用,特别是对数据的预处理阶段。本篇主要关注TextCNN、FastText和Word2Vec等低成本的自然语言处理技术,如何在大模型时代发挥其余热。今天先抛出这个主题预告,接下来会花些时间,逐步细化分析这些周边技术的算法原理、数学分析以及大模
- 自然语言处理系列五十一》文本分类算法》Python快速文本分类器FastText
陈敬雷-充电了么-CEO兼CTO
算法人工智能大数据自然语言处理分类pythonchatgpt人工智能ai机器学习
注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《自然语言处理原理与实战》(人工智能科学与技术丛书)【陈敬雷编著】【清华大学出版社】文章目录自然语言处理系列五十一Python开源快速文本分类器FastText》算法原理FastText和Word2vec的区别FastText代码实战总结自然语言处理系列五十一Python开源快速文本分类器FastText》算法原理自然语言处理(N
- 每天一个数据分析题(五百二十)- 词嵌入模型
跟着紫枫学姐学CDA
数据分析题库数据分析数据挖掘
关于词嵌入模型,以下说法错误的是?A.GloVe模型属于词嵌入模型B.Word2Vec模型属于词嵌入模型C.词袋模型属于词嵌入模型D.词嵌入模型基本假设是出现在相似的上下文中的词含义相似数据分析认证考试介绍:点击进入数据分析考试大纲下载题目来源于CDA模拟题库点击此处获取答案
- CnOpenData公共数据专区上新 | 中文金融情感词典
CnOpenData
数据列表深度学习python自然语言处理
中文金融情感词典一、数据简介 姜富伟教授及其研究团队于2021年第4期《经济学(季刊)》发表了《媒体文本情绪与股票回报预测》,并在文中介绍了一项极富创造力的金融学科研究成果——中文金融情感词典。 “本文在LoughranandMacDonald(2011)词典的基础上通过人工筛选和word2vec算法扩充,构建了一个更新更全面的中文金融情感词典。我们使用该情感词典计算我国财经媒体文本情绪指标,
- 23 注意力机制—BERT
Unknown To Known
动手学习深度学习bert人工智能深度学习
目录BERT预训练NLP里的迁移学习BERTBERT动机BERT预训练NLP里的迁移学习在计算机视觉中比较流行,将ImageNet或者更大的数据集上预训练好的模型应用到其他任务中,比如小数据的预测、图片分类或者是目标检测使用预训练好的模型(例如word2vec或语言模型)来抽取词、句子的特征做迁移学习的时候,一般不更新预训练好的模型在更换任务之后,还是需要构建新的网络来抓取新任务需要的信息使用预训
- 基于seq2seq的SKchat语言模型
eric-sjq
语言模型人工智能自然语言处理
SKchat语言模型是由小思框架开放的中文语言模型,基于seq2seq以及word2vec。v3模型的对话功能界面~在代码方面,我们优化了seq2seq算法,降低了内存的占用,并构建了新的模型。whileTrue:model.fit([x_encoder,x_decoder],y,batchsize,1,verbose=1,)"""解码模型"""decoder_h_input=Input(shap
- 【自然语言处理】:实验1布置,Word2Vec&TranE的实现
X.AI666
自然语言处理人工智能机器学习自然语言处理
清华大学驭风计划因为篇幅原因实验答案分开上传,答案链接http://t.csdnimg.cn/5cyMG如果需要详细的实验报告或者代码可以私聊博主有任何疑问或者问题,也欢迎私信博主,大家可以相互讨论交流哟~~实验1:Word2Vec&TranE的实现案例简介Word2Vec是词嵌入的经典模型,它通过词之间的上下文信息来建模词的相似度。TransE是知识表示学习领域的经典模型,它借鉴了Word2Ve
- Task5 基于深度学习的文本分类2
listentorain_W
Task5基于深度学习的文本分类2在上一章节,我们通过FastText快速实现了基于深度学习的文本分类模型,但是这个模型并不是最优的。在本章我们将继续深入。基于深度学习的文本分类本章将继续学习基于深度学习的文本分类。学习目标学习Word2Vec的使用和基础原理学习使用TextCNN、TextRNN进行文本表示学习使用HAN网络结构完成文本分类文本表示方法Part3词向量本节通过word2vec学习
- 使用word2vec+tensorflow自然语言处理NLP
取名真难.
机器学习自然语言处理word2vectensorflow机器学习深度学习神经网络
目录介绍:搭建上下文或预测目标词来学习词向量建模1:建模2:预测:介绍:Word2Vec是一种用于将文本转换为向量表示的技术。它是由谷歌团队于2013年提出的一种神经网络模型。Word2Vec可以将单词表示为高维空间中的向量,使得具有相似含义的单词在向量空间中距离较近。这种向量表示可以用于各种自然语言处理任务,如语义相似度计算、文本分类和命名实体识别等。Word2Vec的核心思想是通过预测上下文或
- 使用Word Embedding+Keras进行自然语言处理NLP
取名真难.
机器学习keraspython深度学习神经网络人工智能自然语言处理
目录介绍:one-hot:pad_sequences:建模:介绍:WordEmbedding是一种将单词表示为低维稠密向量的技术。它通过学习单词在文本中的上下文关系,将其映射到一个连续的向量空间中。在这个向量空间中,相似的单词在空间中的距离也比较接近,具有相似含义的单词在空间中的方向也比较一致。WordEmbedding可以通过各种方法来实现,包括基于统计的方法(如Word2Vec和GloVe)和
- 知识图谱与语言预训练:深度融合的智能问答时代
cooldream2009
AI技术NLP知识知识图谱知识图谱人工智能预训练
目录前言1直接使用预训练模型vs.知识图谱与预训练相结合1.1直接使用预训练模型1.2构建知识图谱后与预训练相结合2预训练语言模型的发展历程2.1Word2Vec和GloVe2.2ELMo2.3BERT3知识图谱对预训练的助力3.1弥补低频实体信息的不足3.2提供领域知识的支持4典型知识驱动的语言预训练模型4.1ERNIE4.2KnowBERT4.3WKLM4.4K-Adapter结语前言在自然语
- word2vec工具学习笔记
适说心语
今天是第一次听说这个工具,本来是为了解决非目标客户的问题,但是要从头了解这个内容,所以边找资料边记录一下!一、简介Word2vec,是为一群用来产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。网络以词表现,并且需猜测相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示
- 图解word2vec,入门自然语言处理必看
学术Fun
(关注'AI新视野'公众号,发送‘资料’二字,免费获取50G人工智能视频教程!)图解word2vec精翻版,加入了自己的理解,和稍微有点出入,http://jalammar.github.io/illustrated-word2vec/image词嵌入(embedding)是机器学习中最惊人的创造,如果你有使用过Siri、GoogleAssistant、Alexa、Google翻译,输入法打字预测
- Tensorflow 实现 Word2Vec
王小鸟_wpcool
今天学习了一下《Tensorflow实战》这本书中第7章内容,利用tensorflow实现word2vec。其实书中内容就是Tensorflow教程中的例子,现在挣钱真容易。附链接https://github.com/tensorflow/tensorflow/blob/r0.12/tensorflow/examples/tutorials/word2vec/word2vec_basic.py代码
- 自然语言处理N天-Day0503句向量模型 Doc2Vec
我的昵称违规了
新建MicrosoftPowerPoint演示文稿(2).jpg说明:本文依据《中文自然语言处理入门实战》完成。目前网上有不少转载的课程,我是从GitChat上购买。第五课句向量模型Doc2VecDoc2VecDoc2Vec模型是在Word2Vec模型上提出的计算长文本向量的工具。Doc2vec接收一个由LabeledSentence对象组成的迭代器作为其构造函数的输入参数。其中,LabeledS
- 揭秘Word2Vec:探索语言的魔法世界
洞深视界
word2veceasyui人工智能机器学习深度学习git自然语言处理
欢迎来到Word2Vec的世界!在自然语言处理的舞台上,Word2Vec犹如一位神秘的魔术师,带领我们探索语言的魔法世界。今天,让我们一同踏上这段充满惊喜的旅程,揭秘Word2Vec的神秘面纱。背景:语言的奥秘语言是人类沟通交流的重要工具,但其中隐藏着许多奥秘。在过去,计算机很难理解和处理语言,直到Word2Vec的出现,才让计算机开始懂得了语言的奥秘。Word2Vec的基本原理Word2Vec是
- gensim模型(1)——Word2Vec
qqqh777
Word2Vec模型介绍Gensim的Word2Vec模型且展示其在LeeEvaluationCorpus上的用法。importlogginglogging.basicConfig(format='%(asctims)s:%(levelname)s:%(message)s',level=logging.INFO)如果你错过了提示,Word2Vec是基于神经网络的广泛使用的算法,通常被称为"深度学习
- 刘知远LLM——神经网络基础
李日音
神经网络人工智能深度学习
文章目录神经网络基础基本构成如何训练?Word2Vec例子负采样:循环神经网络RNN门控计算单元GRU长短时记忆网络LSTM遗忘门输入门输出门双向RNN卷积神经网络CNNpytorch实战神经网络基础基本构成全称:人工神经网络。启发于生物神经细胞单个神经元单层神经网络前向计算激活函数的作用:没有激活函数的话,多层神经网络就会退化为单层输出层线性输出:回归问题sigmoid:二分类softmax:多
- Gensim详细介绍和使用:一个Python文本建模库
Bigcrab__
Python库介绍和使用python
Gensim=“GenerateSimilar”一、安装二、文本预处理2.1中文语料处理2.2英文语料处理2.3BOW语料建立三、模型使用3.1word2vecThealgorithmsinGensim,suchasWord2Vec,FastText,LatentSemanticIndexing(LSI,LSA,LsiModel),LatentDirichletAllocation(LDA,Lda
- 【爬虫实战】python文本分析库——Gensim
认真写程序的强哥
爬虫pythonPython爬虫Python学习Python文本分析Gensim开发语言
文章目录01、引言02、主题分析以及文本相似性分析03、关键词提取04、Word2Vec嵌入(词嵌入WordEmbeddings)05、FastText嵌入(子词嵌入SubwordEmbeddings)06、文档向量化01、引言Gensim是一个用于自然语言处理和文本分析的Python库,提供了许多强大的功能,包括文档的相似度计算、关键词提取和文档的主题分析,要开始使用Gensim,您需要安装它,
- 探索NLP中的N-grams:理解,应用与优化
冷冻工厂
程序人生
简介n-gram[1]是文本文档中n个连续项目的集合,其中可能包括单词、数字、符号和标点符号。N-gram模型在许多与单词序列相关的文本分析应用中非常有用,例如情感分析、文本分类和文本生成。N-gram建模是用于将文本从非结构化格式转换为结构化格式的众多技术之一。n-gram的替代方法是词嵌入技术,例如word2vec。N-grams广泛用于文本挖掘和自然语言处理任务。示例通过计算每个唯一的n元语
- 智慧海洋建设-Task3 特征工程
1598903c9dd7
关于本次智慧海洋特征构建分为时间类特征、分箱特征(x、y、v)、DataFrame特征(计数特征和偏移量特征)、统计特征(聚合)、embedding特征(word2vec、NMF)这几方面进行考虑的。分箱特征的重要性:一般在建立分类模型时,需要对连续变量离散化,特征离散化后,模型会更稳定,降低了模型过拟合的风险。离散特征的增加和减少都很容易,易于模型的快速迭代;稀疏向量内积乘法运算速度快,计算结果
- Vision Transformer及其变体(自用)
ST-Naive
transformer深度学习人工智能
0回顾Transformer0.1encoder在正式开始ViT之前,先来复习一遍transformer的核心机制相关的文章有很多,我选了一遍最通俗易懂的放在这:Transformer通俗笔记:从Word2Vec、Seq2Seq逐步理解到GPT、BERT所谓注意力机制,就是Attention=∑similarity(Query,Key)*Value,Q可以理解为单词在当前的表示,K为单词的标签,V
- 学习知识记录
想努力的人
面试算法cnn深度学习tensorflow
1、nnlm神经网络语言模型:ANeuralProbabilisticLanguageModel------阅读笔记_hx14301009的博客-CSDN博客2、Word2vec的skipgram模型输入是中心词和背景词NLP之---word2vec算法skip-gram原理详解_Ricky-CSDN博客_skipgram层级的softmax:本质是将N分类问题转换成logN(底数为2)次的二分类
- NLP_词的向量表示Word2Vec 和 Embedding
you_are_my_sunshine*
NLP自然语言处理word2vecembedding
文章目录词向量Word2Vec:CBOW模型和Skip-Gram模型通过nn.Embedding来实现词嵌入Word2Vec小结词向量下面这张图就形象地呈现了词向量的内涵:把词转化为向量,从而捕捉词与词之间的语义和句法关系,使得具有相似含义或相关性的词语在向量空间中距离较近。我们把语料库中的词和某些上下文信息,都“嵌入”了向量表示中。将词映射到向量空间时,会将这个词和它周围的一些词语一起学习,这就
- 利用Bert模型进行命名实体识别
刘单纯
之前两天也写了word2vec和Transformer,其实都是在为今天的内容做铺垫。最近正好使用bert做了命名实体识别项目,借这个契机分享出来,希望能帮到有需要的人。自然语言的表示之所以之前自然语言处理的发展没有达到CV领域,很大一部分原因是很难把抽象的语言用准确的数学方式表示。one-hot只能说对词进行编码,毫无“相似度”的概念,例如【川老师】和【特朗普】的距离与【川老师】和【苍老师】的距
- 【NLP】 Word2Vec模型 & Doc2Vec模型
Sonhhxg_柒
自然语言处理(NLP)自然语言处理word2vec机器学习
大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流个人主页-Sonhhxg_柒的博客_CSDN博客欢迎各位→点赞+收藏⭐️+留言系列专栏-机器学习【ML】自然语言处理【NLP】深度学习【DL】foreword✔说明⇢本人讲解主要包括Python、机器学习(ML)、深度学习(DL)、自然语言处理(NLP)等内容。如果你对这个系列感兴趣的话,可以关注订阅哟Word
- 大模型|基础_word2vec
晓源Galois
word2vec人工智能自然语言处理
文章目录Word2Vec词袋模型CBOWContinuousBag-of-WordsContinuousSkip-Gram存在的问题解决方案其他技巧Word2Vec将词转化为向量后,会发现king和queen的差别与man和woman的差别是类似的,而在几何空间上,这样的差别将会以平行的关系进行表达。会使用滑动窗口的机制。滑动窗口内会有一个target目标词(上图蓝色部分),滑动窗口其他部分就是c
- 自然语言处理中的深度学习
qiufeng1ye
教材选用《动手学深度学习》,李沐等著;词嵌⼊(word2vec)⾃然语⾔是⼀套⽤来表达含义的复杂系统。把词映射为实数域向量的技术也叫词嵌⼊(wordembedding)。近年来,词嵌⼊已逐渐成为⾃然语⾔处理的基础知识。Word2vec⼯具包含了两个模型:跳字模型(skip-gram)和连续词袋模型(continuousbagofwords,简称CBOW)。跳字模型假设基于中⼼词来⽣成背景词,连续词
- Nginx负载均衡
510888780
nginx应用服务器
Nginx负载均衡一些基础知识:
nginx 的 upstream目前支持 4 种方式的分配
1)、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
2)、weight
指定轮询几率,weight和访问比率成正比
- RedHat 6.4 安装 rabbitmq
bylijinnan
erlangrabbitmqredhat
在 linux 下安装软件就是折腾,首先是测试机不能上外网要找运维开通,开通后发现测试机的 yum 不能使用于是又要配置 yum 源,最后安装 rabbitmq 时也尝试了两种方法最后才安装成功
机器版本:
[root@redhat1 rabbitmq]# lsb_release
LSB Version: :base-4.0-amd64:base-4.0-noarch:core
- FilenameUtils工具类
eksliang
FilenameUtilscommon-io
转载请出自出处:http://eksliang.iteye.com/blog/2217081 一、概述
这是一个Java操作文件的常用库,是Apache对java的IO包的封装,这里面有两个非常核心的类FilenameUtils跟FileUtils,其中FilenameUtils是对文件名操作的封装;FileUtils是文件封装,开发中对文件的操作,几乎都可以在这个框架里面找到。 非常的好用。
- xml文件解析SAX
不懂事的小屁孩
xml
xml文件解析:xml文件解析有四种方式,
1.DOM生成和解析XML文档(SAX是基于事件流的解析)
2.SAX生成和解析XML文档(基于XML文档树结构的解析)
3.DOM4J生成和解析XML文档
4.JDOM生成和解析XML
本文章用第一种方法进行解析,使用android常用的DefaultHandler
import org.xml.sax.Attributes;
- 通过定时任务执行mysql的定期删除和新建分区,此处是按日分区
酷的飞上天空
mysql
使用python脚本作为命令脚本,linux的定时任务来每天定时执行
#!/usr/bin/python
# -*- coding: utf8 -*-
import pymysql
import datetime
import calendar
#要分区的表
table_name = 'my_table'
#连接数据库的信息
host,user,passwd,db =
- 如何搭建数据湖架构?听听专家的意见
蓝儿唯美
架构
Edo Interactive在几年前遇到一个大问题:公司使用交易数据来帮助零售商和餐馆进行个性化促销,但其数据仓库没有足够时间去处理所有的信用卡和借记卡交易数据
“我们要花费27小时来处理每日的数据量,”Edo主管基础设施和信息系统的高级副总裁Tim Garnto说道:“所以在2013年,我们放弃了现有的基于PostgreSQL的关系型数据库系统,使用了Hadoop集群作为公司的数
- spring学习——控制反转与依赖注入
a-john
spring
控制反转(Inversion of Control,英文缩写为IoC)是一个重要的面向对象编程的法则来削减计算机程序的耦合问题,也是轻量级的Spring框架的核心。 控制反转一般分为两种类型,依赖注入(Dependency Injection,简称DI)和依赖查找(Dependency Lookup)。依赖注入应用比较广泛。
- 用spool+unixshell生成文本文件的方法
aijuans
xshell
例如我们把scott.dept表生成文本文件的语句写成dept.sql,内容如下:
set pages 50000;
set lines 200;
set trims on;
set heading off;
spool /oracle_backup/log/test/dept.lst;
select deptno||','||dname||','||loc
- 1、基础--名词解析(OOA/OOD/OOP)
asia007
学习基础知识
OOA:Object-Oriented Analysis(面向对象分析方法)
是在一个系统的开发过程中进行了系统业务调查以后,按照面向对象的思想来分析问题。OOA与结构化分析有较大的区别。OOA所强调的是在系统调查资料的基础上,针对OO方法所需要的素材进行的归类分析和整理,而不是对管理业务现状和方法的分析。
OOA(面向对象的分析)模型由5个层次(主题层、对象类层、结构层、属性层和服务层)
- 浅谈java转成json编码格式技术
百合不是茶
json编码java转成json编码
json编码;是一个轻量级的数据存储和传输的语言
在java中需要引入json相关的包,引包方式在工程的lib下就可以了
JSON与JAVA数据的转换(JSON 即 JavaScript Object Natation,它是一种轻量级的数据交换格式,非
常适合于服务器与 JavaScript 之间的数据的交
- web.xml之Spring配置(基于Spring+Struts+Ibatis)
bijian1013
javaweb.xmlSSIspring配置
指定Spring配置文件位置
<context-param>
<param-name>contextConfigLocation</param-name>
<param-value>
/WEB-INF/spring-dao-bean.xml,/WEB-INF/spring-resources.xml,
/WEB-INF/
- Installing SonarQube(Fail to download libraries from server)
sunjing
InstallSonar
1. Download and unzip the SonarQube distribution
2. Starting the Web Server
The default port is "9000" and the context path is "/". These values can be changed in &l
- 【MongoDB学习笔记十一】Mongo副本集基本的增删查
bit1129
mongodb
一、创建复本集
假设mongod,mongo已经配置在系统路径变量上,启动三个命令行窗口,分别执行如下命令:
mongod --port 27017 --dbpath data1 --replSet rs0
mongod --port 27018 --dbpath data2 --replSet rs0
mongod --port 27019 -
- Anychart图表系列二之执行Flash和HTML5渲染
白糖_
Flash
今天介绍Anychart的Flash和HTML5渲染功能
HTML5
Anychart从6.0第一个版本起,已经逐渐开始支持各种图的HTML5渲染效果了,也就是说即使你没有安装Flash插件,只要浏览器支持HTML5,也能看到Anychart的图形(不过这些是需要做一些配置的)。
这里要提醒下大家,Anychart6.0版本对HTML5的支持还不算很成熟,目前还处于
- Laravel版本更新异常4.2.8-> 4.2.9 Declaration of ... CompilerEngine ... should be compa
bozch
laravel
昨天在为了把laravel升级到最新的版本,突然之间就出现了如下错误:
ErrorException thrown with message "Declaration of Illuminate\View\Engines\CompilerEngine::handleViewException() should be compatible with Illuminate\View\Eng
- 编程之美-NIM游戏分析-石头总数为奇数时如何保证先动手者必胜
bylijinnan
编程之美
import java.util.Arrays;
import java.util.Random;
public class Nim {
/**编程之美 NIM游戏分析
问题:
有N块石头和两个玩家A和B,玩家A先将石头随机分成若干堆,然后按照BABA...的顺序不断轮流取石头,
能将剩下的石头一次取光的玩家获胜,每次取石头时,每个玩家只能从若干堆石头中任选一堆,
- lunce创建索引及简单查询
chengxuyuancsdn
查询创建索引lunce
import java.io.File;
import java.io.IOException;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Docume
- [IT与投资]坚持独立自主的研究核心技术
comsci
it
和别人合作开发某项产品....如果互相之间的技术水平不同,那么这种合作很难进行,一般都会成为强者控制弱者的方法和手段.....
所以弱者,在遇到技术难题的时候,最好不要一开始就去寻求强者的帮助,因为在我们这颗星球上,生物都有一种控制其
- flashback transaction闪回事务查询
daizj
oraclesql闪回事务
闪回事务查询有别于闪回查询的特点有以下3个:
(1)其正常工作不但需要利用撤销数据,还需要事先启用最小补充日志。
(2)返回的结果不是以前的“旧”数据,而是能够将当前数据修改为以前的样子的撤销SQL(Undo SQL)语句。
(3)集中地在名为flashback_transaction_query表上查询,而不是在各个表上通过“as of”或“vers
- Java I/O之FilenameFilter类列举出指定路径下某个扩展名的文件
游其是你
FilenameFilter
这是一个FilenameFilter类用法的例子,实现的列举出“c:\\folder“路径下所有以“.jpg”扩展名的文件。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
- C语言学习五函数,函数的前置声明以及如何在软件开发中合理的设计函数来解决实际问题
dcj3sjt126com
c
# include <stdio.h>
int f(void) //括号中的void表示该函数不能接受数据,int表示返回的类型为int类型
{
return 10; //向主调函数返回10
}
void g(void) //函数名前面的void表示该函数没有返回值
{
//return 10; //error 与第8行行首的void相矛盾
}
in
- 今天在测试环境使用yum安装,遇到一个问题: Error: Cannot retrieve metalink for repository: epel. Pl
dcj3sjt126com
centos
今天在测试环境使用yum安装,遇到一个问题:
Error: Cannot retrieve metalink for repository: epel. Please verify its path and try again
处理很简单,修改文件“/etc/yum.repos.d/epel.repo”, 将baseurl的注释取消, mirrorlist注释掉。即可。
&n
- 单例模式
shuizhaosi888
单例模式
单例模式 懒汉式
public class RunMain {
/**
* 私有构造
*/
private RunMain() {
}
/**
* 内部类,用于占位,只有
*/
private static class SingletonRunMain {
priv
- Spring Security(09)——Filter
234390216
Spring Security
Filter
目录
1.1 Filter顺序
1.2 添加Filter到FilterChain
1.3 DelegatingFilterProxy
1.4 FilterChainProxy
1.5
- 公司项目NODEJS实践0.1
逐行分析JS源代码
mongodbnginxubuntunodejs
一、前言
前端如何独立用nodeJs实现一个简单的注册、登录功能,是不是只用nodejs+sql就可以了?其实是可以实现,但离实际应用还有距离,那要怎么做才是实际可用的。
网上有很多nod
- java.lang.Math
liuhaibo_ljf
javaMathlang
System.out.println(Math.PI);
System.out.println(Math.abs(1.2));
System.out.println(Math.abs(1.2));
System.out.println(Math.abs(1));
System.out.println(Math.abs(111111111));
System.out.println(Mat
- linux下时间同步
nonobaba
ntp
今天在linux下做hbase集群的时候,发现hmaster启动成功了,但是用hbase命令进入shell的时候报了一个错误 PleaseHoldException: Master is initializing,查看了日志,大致意思是说master和slave时间不同步,没办法,只好找一种手动同步一下,后来发现一共部署了10来台机器,手动同步偏差又比较大,所以还是从网上找现成的解决方
- ZooKeeper3.4.6的集群部署
roadrunners
zookeeper集群部署
ZooKeeper是Apache的一个开源项目,在分布式服务中应用比较广泛。它主要用来解决分布式应用中经常遇到的一些数据管理问题,如:统一命名服务、状态同步、集群管理、配置文件管理、同步锁、队列等。这里主要讲集群中ZooKeeper的部署。
1、准备工作
我们准备3台机器做ZooKeeper集群,分别在3台机器上创建ZooKeeper需要的目录。
数据存储目录
- Java高效读取大文件
tomcat_oracle
java
读取文件行的标准方式是在内存中读取,Guava 和Apache Commons IO都提供了如下所示快速读取文件行的方法: Files.readLines(new File(path), Charsets.UTF_8); FileUtils.readLines(new File(path)); 这种方法带来的问题是文件的所有行都被存放在内存中,当文件足够大时很快就会导致
- 微信支付api返回的xml转换为Map的方法
xu3508620
xmlmap微信api
举例如下:
<xml>
<return_code><![CDATA[SUCCESS]]></return_code>
<return_msg><![CDATA[OK]]></return_msg>
<appid><