- 【AI】在Windows10下部署本地LLM RAG服务
每日出拳老爷子
ai人工智能ailangchainGPT
【背景】上一篇介绍了如何用Ubuntu命令行部署ollamaLLM+RAG服务。部署后等于拥有了基于内网的AISaas服务,其它内网用户可以通过默认的网址访问Playground对AI进行问答。【概念】RAG:通过词向量技术,将文件内容向量化后,通过语言模型以自然交流的形式得到文本相关的内容。可以形容为与文件库或知识库对话的系统。RAG的后台向量库并不需要对LLM产生影响,LLM是人与向量库(知识
- 预训练语言模型的前世今生 - 从Word Embedding到BERT
脚步的影子
语言模型embeddingbert
目录一、预训练1.1图像领域的预训练1.2预训练的思想二、语言模型2.1统计语言模型2.2神经网络语言模型三、词向量3.1独热(Onehot)编码3.2WordEmbedding四、Word2Vec模型五、自然语言处理的预训练模型六、RNN和LSTM6.1RNN6.2RNN的梯度消失问题6.3LSTM6.4LSTM解决RNN的梯度消失问题七、ELMo模型7.1ELMo的预训练7.2ELMo的Fea
- fastText 情感分类
dreampai
情感分类任务就是看一段文本,然后分辨这个人是否喜欢他们在讨论的这个东西。情感分类一个最大的挑战就是可能标记的训练集没有那么多,但是有了词嵌入,即使只有中等大小的标记的训练集,你也能构建一个不错的情感分类器image.pngimage.png假设有一个句子:“这个衣服质量不错”通过分词、去除停用词等预处理操作,得到“衣服/质量/不错”获取“衣服”、“质量”、“不错”的对应词向量(可以通过TF-IDF
- 基于Bert-base-chinese训练多分类文本模型(代码详解)
一颗洋芋
bert分类自然语言处理
目录一、简介二、模型训练三、模型推理一、简介BERT(BidirectionalEncoderRepresentationsfromTransformers)是基于深度学习在自然语言处理(NLP)领域近几年出现的、影响深远的创新模型之一。在BERT之前,已经有许多预训练语言模型,如ELMO和GPT,它们展示了预训练模型在NLP任务中的强大性能。然而,这些模型通常基于单向的上下文信息,即只考虑文本中
- NLP中的词向量及其应用
喜欢打酱油的老鸟
NLP词向量
https://www.toutiao.com/a6643219722961682947/2019-01-0611:25:24词向量基本上是一种单词表示形式,它将人类对语言的理解与机器的理解连接起来。词向量是文本在n维空间中的分布式表示。这些是解决大多数NLP问题所必需的。领域适应是一种技术,它允许机器学习和转移学习模型来映射小生境数据集,这些数据集都是用同一种语言编写的,但在语言上仍然不同。例如
- 深度学习100问28:什么是RNNLM(RNN语言模型)
不断持续学习ing
人工智能自然语言处理机器学习
嘿,你知道RNNLM是啥不?简单来说,它就像是一个语言小魔法师。想象一下,RNNLM是一个特别会猜词的小伙伴。它的任务呢,就是预测一个句子出现的概率,或者当你给它一些上文的时候,它能猜出下一个词会是啥。它是怎么做到的呢?它有一个像魔法盒子一样的结构,由输入层、隐藏层和输出层组成。输入层就像是接收魔法信号的入口,把词的表示,比如一些特别的编码或者词向量给接收进来。隐藏层可神奇啦,它就像有个记忆小口袋
- 深度学习100问10-什么是CBOW模型
不断持续学习ing
人工智能自然语言处理机器学习深度学习
CBOW(ContinuousBagofWords)模型是一种用于训练词向量的方法。想象一下,CBOW就像是一个猜词游戏。它从一个文本中选取一个词作为目标词,然后把这个目标词周围的几个词当成线索。CBOW的任务就是根据这些线索来猜出目标词是什么。为了完成这个任务,CBOW会先把这些线索词(周围的词)都转换成向量,然后把这些向量加起来或者求平均,得到一个综合的向量表示。接着,CBOW会用这个综合向量
- 单词向量化
西域记
1.使用CountVectorizer将文本转化为向量fromsklearn.feature_extraction.textimportCountVectorizervect=CountVectorizer()dialog=['Ihaveaddictedintocybersecurityforyears']vect.fit(dialog)print(vect.vocabulary_)输出结果是一个
- 使用Python实现文本向量化(一)——腾讯词向量
Shy960418
Python使用技巧深度学习python人工智能
Docs向量化(Embedding)Embedding也是文本语义含义的信息密集表示,每个嵌入都是一个浮点数向量,使得向量空间中两个嵌入之间的距离与原始格式中两个输入之间的语义相似性相关联。例如,如果两个文本相似,则它们的向量表示也应该相似,这一组向量空间内的数组表示描述了文本之间的细微特征差异。简单来说,Embedding帮助计算机来理解如人类信息所代表的“含义”,Embedding可以用来获取
- Transformer、BERT和GPT 自然语言处理领域的重要模型
Jiang_Immortals
人工智能自然语言处理transformerbert
Transformer、BERT和GPT都是自然语言处理领域的重要模型,它们之间有一些区别和联系。区别:架构:Transformer是一种基于自注意力机制的神经网络架构,用于编码输入序列和解码输出序列。BERT(BidirectionalEncoderRepresentationsfromTransformers)是基于Transformer架构的双向编码模型,用于学习上下文无关的词向量表示。GP
- 计算机设计大赛 深度学习的智能中文对话问答机器人
iuerfee
python
文章目录0简介1项目架构2项目的主要过程2.1数据清洗、预处理2.2分桶2.3训练3项目的整体结构4重要的API4.1LSTMcells部分:4.2损失函数:4.3搭建seq2seq框架:4.4测试部分:4.5评价NLP测试效果:4.6梯度截断,防止梯度爆炸4.7模型保存5重点和难点5.1函数5.2变量6相关参数7桶机制7.1处理数据集7.2词向量处理seq2seq7.3处理问答及答案权重7.4训
- SPSSAU【文本分析】|文本聚类
spssau
支持向量机机器学习人工智能
SPSSAU共提供两种文本聚类方式,分别是按词聚类和按行聚类。按词聚类是指将需要分析的关键词进行聚类分析,并且进行可视化展示,即针对关键词进行聚类,此处关键词可以自由选择。按行聚类分析是指针对以‘行’为单位进行聚类分析,将原始文本中多行数据聚为几个类别,并且可将具体聚类类别信息进行下载等。按词聚类分析按词聚类分析操作如下图:默认情况下,系统会将词频靠前的20个关键词提取,并且得到其词向量值,并且其
- 【论文精读】BERT
None-D
文本生成bert人工智能深度学习自然语言处理transformer
摘要以往的预训练语言表示应用于下游任务时的策略有基于特征和微调两种。其中基于特征的方法如ELMo使用基于上下文的预训练词嵌入拼接特定于任务的架构;基于微调的方法如GPT使用未标记的文本进行预训练,并针对有监督的下游任务进行微调。但上述两种策略都使用从左到右的架构,每个token只能处理self-attention层中的前一个token,这种限制在将基于微调的方法应用于问答等token级任务时可能非
- 自然语言处理N天-AllenNLP学习(实现简单的词性标注)
我的昵称违规了
新建MicrosoftPowerPoint演示文稿(2).jpg1.前言在了解了Transformer之后,这个模型是否可用呢?现在遇到的问题是,目前试了几个模型(LSTM、GRU、Transformer),但是还没有放入实践中,具体应该怎么操作?有一篇帖子总结了一下学习处理NLP问题中间的坑。NLP数据预处理要比CV的麻烦很多。去除停用词,建立词典,加载各种预训练词向量,Sentence->Wo
- Task5 基于深度学习的文本分类2
listentorain_W
Task5基于深度学习的文本分类2在上一章节,我们通过FastText快速实现了基于深度学习的文本分类模型,但是这个模型并不是最优的。在本章我们将继续深入。基于深度学习的文本分类本章将继续学习基于深度学习的文本分类。学习目标学习Word2Vec的使用和基础原理学习使用TextCNN、TextRNN进行文本表示学习使用HAN网络结构完成文本分类文本表示方法Part3词向量本节通过word2vec学习
- 使用word2vec+tensorflow自然语言处理NLP
取名真难.
机器学习自然语言处理word2vectensorflow机器学习深度学习神经网络
目录介绍:搭建上下文或预测目标词来学习词向量建模1:建模2:预测:介绍:Word2Vec是一种用于将文本转换为向量表示的技术。它是由谷歌团队于2013年提出的一种神经网络模型。Word2Vec可以将单词表示为高维空间中的向量,使得具有相似含义的单词在向量空间中距离较近。这种向量表示可以用于各种自然语言处理任务,如语义相似度计算、文本分类和命名实体识别等。Word2Vec的核心思想是通过预测上下文或
- 大模型位置编码、长度外推问题、ALiBi知识
lichunericli
LLM人工智能语言模型
1什么是位置编码?位置编码是一种用于在序列数据中为每个位置添加位置信息的技术。在自然语言处理中,位置编码通常用于处理文本序列。由于传统的神经网络无法直接捕捉输入序列中的位置信息,位置编码的引入可以帮助模型更好地理解和处理序列数据。在Transformer模型中,位置编码通过为输入序列中的每个位置分配一个固定的向量来实现。这些向量会与输入序列中的词向量相加,以融合位置信息。位置编码的设计目的是使模型
- 知识图谱与语言预训练:深度融合的智能问答时代
cooldream2009
AI技术NLP知识知识图谱知识图谱人工智能预训练
目录前言1直接使用预训练模型vs.知识图谱与预训练相结合1.1直接使用预训练模型1.2构建知识图谱后与预训练相结合2预训练语言模型的发展历程2.1Word2Vec和GloVe2.2ELMo2.3BERT3知识图谱对预训练的助力3.1弥补低频实体信息的不足3.2提供领域知识的支持4典型知识驱动的语言预训练模型4.1ERNIE4.2KnowBERT4.3WKLM4.4K-Adapter结语前言在自然语
- word2vec工具学习笔记
适说心语
今天是第一次听说这个工具,本来是为了解决非目标客户的问题,但是要从头了解这个内容,所以边找资料边记录一下!一、简介Word2vec,是为一群用来产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。网络以词表现,并且需猜测相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示
- Keras使用使用动态LSTM/RNN
Sailist
TensorFlow
padding:defgenerate(mtp=100,batch=50):#最长时间步,词向量长度为200,batch_size=50origin_input=np.random.random_sample([batch,np.random.randint(mtp/2,mtp),200])#时间长随机从mtp/2-mtp选择returnpad_sequences(origin_input,mtp
- 【简单文本相似度分析】( LCS | Trie | DP | 词频统计 | hash | 单词分割 )
XNB's Not a Beginner
算法哈希算法算法c++数据结构链表hashtable
两个文本的相似度的指标有很多,常见的有词袋分析,词向量余弦,LCS(子串,子序列),Jaccard相似度分析(单词集合的对称差和最小全集比值),编辑距离等等我在自己的程序里只定义两个指标:1单词重复度2最长公共子序列长度首先用c++builtin的字符输入流对象istringstream做单词分割然后用我自己写的patriacatrie树当作词袋,把词量小的string做映射集合(类似重链合并),
- Python与自然语言处理库Gensim实战
心梓知识
python自然语言处理easyui
一、Gensim简介Gensim是一款Python自然语言处理库。它能够自动化训练出一个文本语料库,然后用该语料库来训练出一个词向量模型。在语料库中,每个语料库都是由一个个文档组成,每个文档则是由若干个单词组成。Gensim相对于其他Python自然语言处理库的优点在于它的速度和内存占用率较低。同时它还提供了许多文本处理的功能,比如文档相似度计算和主题建模等。二、安装Gensim在安装Gensim
- 【NLP 自然语言处理(一)---词向量】
y_dd
深度学习自然语言处理人工智能
文章目录什么是NLP自然语言处理发展历程自然语言处理模型模型能识别单词的方法词向量分词一个向量vector表示一个词词向量的表示-one-hot多维词嵌入wordembeding词向量的训练方法CBOWSkip-gram词嵌入的理论依据一个vector(向量)表示短语或者文章vectorspaceModelbag-of-wordvectorspaceModel+bag-of-word实现信息搜索改
- NLP自然语言处理实战(三):词频背后的语义--5.距离和相似度&反馈及改进
Nobitaxi
NLP自然语言处理实战学习自然语言处理机器学习人工智能
目录1.距离和相似度2.反馈及改进线性判别分析1.距离和相似度我们可以使用相似度评分(或距离),根据两篇文档的表达向量间的相似度(或距离)来判断文档间有多相似。LSA能够保持较大的距离,但它并不能总保持较小的距离(文档之间关系的精细结构)。LSA底层的SVD算法的重点是使新主题向量空间中所有文档之间的方差最大化。特征向量(词向量、主题向量、文档上下文向量等)之间的距离驱动着NLP流水线或任何机器学
- 人工智能|深度学习——使用多层级注意力机制和keras实现问题分类
博士僧小星
人工智能#深度学习【算法】人工智能深度学习keras多层注意力问题分类
代码下载使用多层级注意力机制和keras实现问题分类资源-CSDN文库1准备工作1.1什么是词向量?”词向量”(词嵌入)是将一类将词的语义映射到向量空间中去的自然语言处理技术。即将一个词用特定的向量来表示,向量之间的距离(例如,任意两个向量之间的L2范式距离或更常用的余弦距离)一定程度上表征了的词之间的语义关系。由这些向量形成的几何空间被称为一个嵌入空间。传统的独热表示(one-hotrepres
- 词共现矩阵表示词向量和点互信息
浅白Coder
自然语言处理自然语言处理深度学习人工智能
1.文档中某些字/词出现的频次往往能反应该字在文档中的重要程度,也从侧面反应了文档的主题,比如一个新闻,如果出现很多类似“足球”“篮球”词汇的描述,我们可以大概率推断这是一个关于体育的新闻。但是有些高频词会影响我们对文档的分析,比如“我”“你”“。、,!”这种词汇在文档中的数目非常多,但对于我们分析文档,没有什么益处,毕竟所有的文档,基本都包括这些内容。2.NLP中对于给定一个句子,其中是一个单词
- NLP_词的向量表示Word2Vec 和 Embedding
you_are_my_sunshine*
NLP自然语言处理word2vecembedding
文章目录词向量Word2Vec:CBOW模型和Skip-Gram模型通过nn.Embedding来实现词嵌入Word2Vec小结词向量下面这张图就形象地呈现了词向量的内涵:把词转化为向量,从而捕捉词与词之间的语义和句法关系,使得具有相似含义或相关性的词语在向量空间中距离较近。我们把语料库中的词和某些上下文信息,都“嵌入”了向量表示中。将词映射到向量空间时,会将这个词和它周围的一些词语一起学习,这就
- word2vec
e237262360d2
将词表征为实数值向量的高效工具,采用的模型有CBOW(Continuesbag-of-words连续词袋模型)和Skip-Gram两种。word2vec通过训练,可以把对文本内容的处理简化为K维向量空间中的向量运算词向量:把一个词表示成一个向量One-hotRepresentation维度是词典的大小DistributedRepresentation维度以50,100比较常见CBOW:用上下文预测
- 【PyTorch][chapter 14][李宏毅深度学习][Word Embedding]
明朝百晓生
深度学习pytorchembedding
前言:这是用于自然语言处理中数据降维的一种方案。我们希望用一个向量来表示每一个单词.有不同的方案目录:one-hotEncodingword-class词的上下文表示count-basedperdition-basedCBOWSkip-GramwordEmbedding词向量相似度一one-hotEncoding假设英文有10万个单词,那每个单词用1个10万维的one-hot编码表示。其中只有1个
- Word2Vec ——gensim实战教程
王同学死磕技术
最近斯坦福的CS224N开课了,看了下课程介绍,去年google发表的Transformer以及最近特别火的ContextualWordEmbeddings都会在今年的课程中进行介绍。NLP领域确实是一个知识迭代特别快速的领域,每年都有新的知识冒出来。所以身处NLP领域的同学们要时刻保持住学习的状态啊。笔者又重新在B站上看了这门课程的第一二节课。这里是课程链接。前两节课的主要内容基本上围绕着词向量
- 对股票分析时要注意哪些主要因素?
会飞的奇葩猪
股票 分析 云掌股吧
众所周知,对散户投资者来说,股票技术分析是应战股市的核心武器,想学好股票的技术分析一定要知道哪些是重点学习的,其实非常简单,我们只要记住三个要素:成交量、价格趋势、振荡指标。
一、成交量
大盘的成交量状态。成交量大说明市场的获利机会较多,成交量小说明市场的获利机会较少。当沪市的成交量超过150亿时是强市市场状态,运用技术找综合买点较准;
- 【Scala十八】视图界定与上下文界定
bit1129
scala
Context Bound,上下文界定,是Scala为隐式参数引入的一种语法糖,使得隐式转换的编码更加简洁。
隐式参数
首先引入一个泛型函数max,用于取a和b的最大值
def max[T](a: T, b: T) = {
if (a > b) a else b
}
因为T是未知类型,只有运行时才会代入真正的类型,因此调用a >
- C语言的分支——Object-C程序设计阅读有感
darkblue086
applec框架cocoa
自从1972年贝尔实验室Dennis Ritchie开发了C语言,C语言已经有了很多版本和实现,从Borland到microsoft还是GNU、Apple都提供了不同时代的多种选择,我们知道C语言是基于Thompson开发的B语言的,Object-C是以SmallTalk-80为基础的。和C++不同的是,Object C并不是C的超集,因为有很多特性与C是不同的。
Object-C程序设计这本书
- 去除浏览器对表单值的记忆
周凡杨
html记忆autocompleteform浏览
&n
- java的树形通讯录
g21121
java
最近用到企业通讯录,虽然以前也开发过,但是用的是jsf,拼成的树形,及其笨重和难维护。后来就想到直接生成json格式字符串,页面上也好展现。
// 首先取出每个部门的联系人
for (int i = 0; i < depList.size(); i++) {
List<Contacts> list = getContactList(depList.get(i
- Nginx安装部署
510888780
nginxlinux
Nginx ("engine x") 是一个高性能的 HTTP 和 反向代理 服务器,也是一个 IMAP/POP3/SMTP 代理服务器。 Nginx 是由 Igor Sysoev 为俄罗斯访问量第二的 Rambler.ru 站点开发的,第一个公开版本0.1.0发布于2004年10月4日。其将源代码以类BSD许可证的形式发布,因它的稳定性、丰富的功能集、示例配置文件和低系统资源
- java servelet异步处理请求
墙头上一根草
java异步返回servlet
servlet3.0以后支持异步处理请求,具体是使用AsyncContext ,包装httpservletRequest以及httpservletResponse具有异步的功能,
final AsyncContext ac = request.startAsync(request, response);
ac.s
- 我的spring学习笔记8-Spring中Bean的实例化
aijuans
Spring 3
在Spring中要实例化一个Bean有几种方法:
1、最常用的(普通方法)
<bean id="myBean" class="www.6e6.org.MyBean" />
使用这样方法,按Spring就会使用Bean的默认构造方法,也就是把没有参数的构造方法来建立Bean实例。
(有构造方法的下个文细说)
2、还
- 为Mysql创建最优的索引
annan211
mysql索引
索引对于良好的性能非常关键,尤其是当数据规模越来越大的时候,索引的对性能的影响越发重要。
索引经常会被误解甚至忽略,而且经常被糟糕的设计。
索引优化应该是对查询性能优化最有效的手段了,索引能够轻易将查询性能提高几个数量级,最优的索引会比
较好的索引性能要好2个数量级。
1 索引的类型
(1) B-Tree
不出意外,这里提到的索引都是指 B-
- 日期函数
百合不是茶
oraclesql日期函数查询
ORACLE日期时间函数大全
TO_DATE格式(以时间:2007-11-02 13:45:25为例)
Year:
yy two digits 两位年 显示值:07
yyy three digits 三位年 显示值:007
- 线程优先级
bijian1013
javathread多线程java多线程
多线程运行时需要定义线程运行的先后顺序。
线程优先级是用数字表示,数字越大线程优先级越高,取值在1到10,默认优先级为5。
实例:
package com.bijian.study;
/**
* 因为在代码段当中把线程B的优先级设置高于线程A,所以运行结果先执行线程B的run()方法后再执行线程A的run()方法
* 但在实际中,JAVA的优先级不准,强烈不建议用此方法来控制执
- 适配器模式和代理模式的区别
bijian1013
java设计模式
一.简介 适配器模式:适配器模式(英语:adapter pattern)有时候也称包装样式或者包装。将一个类的接口转接成用户所期待的。一个适配使得因接口不兼容而不能在一起工作的类工作在一起,做法是将类别自己的接口包裹在一个已存在的类中。 &nbs
- 【持久化框架MyBatis3三】MyBatis3 SQL映射配置文件
bit1129
Mybatis3
SQL映射配置文件一方面类似于Hibernate的映射配置文件,通过定义实体与关系表的列之间的对应关系。另一方面使用<select>,<insert>,<delete>,<update>元素定义增删改查的SQL语句,
这些元素包含三方面内容
1. 要执行的SQL语句
2. SQL语句的入参,比如查询条件
3. SQL语句的返回结果
- oracle大数据表复制备份个人经验
bitcarter
oracle大表备份大表数据复制
前提:
数据库仓库A(就拿oracle11g为例)中有两个用户user1和user2,现在有user1中有表ldm_table1,且表ldm_table1有数据5千万以上,ldm_table1中的数据是从其他库B(数据源)中抽取过来的,前期业务理解不够或者需求有变,数据有变动需要重新从B中抽取数据到A库表ldm_table1中。
- HTTP加速器varnish安装小记
ronin47
http varnish 加速
上午共享的那个varnish安装手册,个人看了下,有点不知所云,好吧~看来还是先安装玩玩!
苦逼公司服务器没法连外网,不能用什么wget或yum命令直接下载安装,每每看到别人博客贴出的在线安装代码时,总有一股羡慕嫉妒“恨”冒了出来。。。好吧,既然没法上外网,那只能麻烦点通过下载源码来编译安装了!
Varnish 3.0.4下载地址: http://repo.varnish-cache.org/
- java-73-输入一个字符串,输出该字符串中对称的子字符串的最大长度
bylijinnan
java
public class LongestSymmtricalLength {
/*
* Q75题目:输入一个字符串,输出该字符串中对称的子字符串的最大长度。
* 比如输入字符串“google”,由于该字符串里最长的对称子字符串是“goog”,因此输出4。
*/
public static void main(String[] args) {
Str
- 学习编程的一点感想
Cb123456
编程感想Gis
写点感想,总结一些,也顺便激励一些自己.现在就是复习阶段,也做做项目.
本专业是GIS专业,当初觉得本专业太水,靠这个会活不下去的,所以就报了培训班。学习的时候,进入状态很慢,而且当初进去的时候,已经上到Java高级阶段了,所以.....,呵呵,之后有点感觉了,不过,还是不好好写代码,还眼高手低的,有
- [能源与安全]美国与中国
comsci
能源
现在有一个局面:地球上的石油只剩下N桶,这些油只够让中国和美国这两个国家中的一个顺利过渡到宇宙时代,但是如果这两个国家为争夺这些石油而发生战争,其结果是两个国家都无法平稳过渡到宇宙时代。。。。而且在战争中,剩下的石油也会被快速消耗在战争中,结果是两败俱伤。。。
在这个大
- SEMI-JOIN执行计划突然变成HASH JOIN了 的原因分析
cwqcwqmax9
oracle
甲说:
A B两个表总数据量都很大,在百万以上。
idx1 idx2字段表示是索引字段
A B 两表上都有
col1字段表示普通字段
select xxx from A
where A.idx1 between mmm and nnn
and exists (select 1 from B where B.idx2 =
- SpringMVC-ajax返回值乱码解决方案
dashuaifu
AjaxspringMVCresponse中文乱码
SpringMVC-ajax返回值乱码解决方案
一:(自己总结,测试过可行)
ajax返回如果含有中文汉字,则使用:(如下例:)
@RequestMapping(value="/xxx.do") public @ResponseBody void getPunishReasonB
- Linux系统中查看日志的常用命令
dcj3sjt126com
OS
因为在日常的工作中,出问题的时候查看日志是每个管理员的习惯,作为初学者,为了以后的需要,我今天将下面这些查看命令共享给各位
cat
tail -f
日 志 文 件 说 明
/var/log/message 系统启动后的信息和错误日志,是Red Hat Linux中最常用的日志之一
/var/log/secure 与安全相关的日志信息
/var/log/maillog 与邮件相关的日志信
- [应用结构]应用
dcj3sjt126com
PHPyii2
应用主体
应用主体是管理 Yii 应用系统整体结构和生命周期的对象。 每个Yii应用系统只能包含一个应用主体,应用主体在 入口脚本中创建并能通过表达式 \Yii::$app 全局范围内访问。
补充: 当我们说"一个应用",它可能是一个应用主体对象,也可能是一个应用系统,是根据上下文来决定[译:中文为避免歧义,Application翻译为应
- assertThat用法
eksliang
JUnitassertThat
junit4.0 assertThat用法
一般匹配符1、assertThat( testedNumber, allOf( greaterThan(8), lessThan(16) ) );
注释: allOf匹配符表明如果接下来的所有条件必须都成立测试才通过,相当于“与”(&&)
2、assertThat( testedNumber, anyOf( g
- android点滴2
gundumw100
应用服务器android网络应用OSHTC
如何让Drawable绕着中心旋转?
Animation a = new RotateAnimation(0.0f, 360.0f,
Animation.RELATIVE_TO_SELF, 0.5f, Animation.RELATIVE_TO_SELF,0.5f);
a.setRepeatCount(-1);
a.setDuration(1000);
如何控制Andro
- 超简洁的CSS下拉菜单
ini
htmlWeb工作html5css
效果体验:http://hovertree.com/texiao/css/3.htmHTML文件:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title>简洁的HTML+CSS下拉菜单-HoverTree</title>
- kafka consumer防止数据丢失
kane_xie
kafkaoffset commit
kafka最初是被LinkedIn设计用来处理log的分布式消息系统,因此它的着眼点不在数据的安全性(log偶尔丢几条无所谓),换句话说kafka并不能完全保证数据不丢失。
尽管kafka官网声称能够保证at-least-once,但如果consumer进程数小于partition_num,这个结论不一定成立。
考虑这样一个case,partiton_num=2
- @Repository、@Service、@Controller 和 @Component
mhtbbx
DAOspringbeanprototype
@Repository、@Service、@Controller 和 @Component 将类标识为Bean
Spring 自 2.0 版本开始,陆续引入了一些注解用于简化 Spring 的开发。@Repository注解便属于最先引入的一批,它用于将数据访问层 (DAO 层 ) 的类标识为 Spring Bean。具体只需将该注解标注在 DAO类上即可。同时,为了让 Spring 能够扫描类
- java 多线程高并发读写控制 误区
qifeifei
java thread
先看一下下面的错误代码,对写加了synchronized控制,保证了写的安全,但是问题在哪里呢?
public class testTh7 {
private String data;
public String read(){
System.out.println(Thread.currentThread().getName() + "read data "
- mongodb replica set(副本集)设置步骤
tcrct
javamongodb
网上已经有一大堆的设置步骤的了,根据我遇到的问题,整理一下,如下:
首先先去下载一个mongodb最新版,目前最新版应该是2.6
cd /usr/local/bin
wget http://fastdl.mongodb.org/linux/mongodb-linux-x86_64-2.6.0.tgz
tar -zxvf mongodb-linux-x86_64-2.6.0.t
- rust学习笔记
wudixiaotie
学习笔记
1.rust里绑定变量是let,默认绑定了的变量是不可更改的,所以如果想让变量可变就要加上mut。
let x = 1; let mut y = 2;
2.match 相当于erlang中的case,但是case的每一项后都是分号,但是rust的match却是逗号。
3.match 的每一项最后都要加逗号,但是最后一项不加也不会报错,所有结尾加逗号的用法都是类似。
4.每个语句结尾都要加分