- Simple and Scalable Strategies to Continually Pre-train Large Language Models
liferecords
LLM语言模型深度学习神经网络
SimpleandScalableStrategiestoContinuallyPre-trainLargeLanguageModels相关链接:arxiv关键字:LargeLanguageModels、Pre-training、ContinualLearning、DistributionShift、Adaptation摘要大型语言模型(LLMs)通常会在数十亿个tokens上进行预训练,然后新数
- 第六课:Prompt
一条大蟒蛇6666
昇思技术公开课学习笔记prompt
文章目录第六课:Prompt1、学习总结:Prompt介绍预训练和微调模型回顾挑战Pre-train,Prompt,PredictPrompting是什么?prompting流程prompt设计课程ppt及代码地址2、学习心得:3、经验分享:4、课程反馈:5、使用MindSpore昇思的体验和反馈:6、未来展望:第六课:Prompt1、学习总结:Prompt介绍Fine-tuningRecapan
- Mindspore 公开课 - prompt
coyote_xujie
prompt
prompt介绍Fine-TuningtoPromptLearningPre-train,Fine-tuneBERTbidirectionaltransformer,词语和句子级别的特征抽取,注重文本理解Pre-train:MakedLanguageModel+NextSentencePredictionFine-tune:根据任务选取对应的representation(最后一层hiddensta
- 自然语言处理笔记
zoujiahui_2018
#自然语言处理自然语言处理笔记人工智能
文章目录情感词典中文分词情感词典英文的情感词典有:LIWC,SentiWordNet等中文的情感词典有:NTUSD,正文褒贬词典TSING,知网HowNet等中文分词中文分词的工具有:jieba(核心算法是张华平的Nshort算法),SnowNLP,NLPIR汉语分词系统,THULAC,PkuSeg等
- 工智能基础知识总结--什么是BERT
北航程序员小C
机器学习专栏人工智能学习专栏深度学习专栏bert人工智能深度学习
什么是BERTBERT的全称是BidirectionalEncoderRepresentationfromTransformers,是Google2018年提出的预训练模型,其结构采用Transformer的Encoder部分,主要创新点都在pre-train方法上,即用了MaskedLM和NextSentencePrediction两种方法分别捕捉词语和句子级别的representation。B
- CVPR 2017部分论文小结
DRACO于
语义分割与物体识别One-ShotVideoObjectSegmentation本文处理了视频物体分割的问题。本文提出模型OSVOS,利用第一帧标注的图片来实现整个视频序列中该物体的分割。所有帧都均为独立处理,但结果却很稳定连贯,并达到state-of-the-art。具体方法为:ForegroundBranch(图1.1):模型利用ImageNet,pre-train一个类似VGG的网络。修改包
- UCAS - AI学院 - 自然语言处理专项课 - 第4讲 - 课程笔记
支锦铭
UCAS-课程笔记自然语言处理人工智能
UCAS-AI学院-自然语言处理专项课-第4讲-课程笔记语料库与语言知识库语料库基本概念语料库技术的发展语料库类型典型语料库介绍问题与现状语言知识库WordNet知网HowNet概念层次网络知识图谱语料库与语言知识库语料库基本概念语言数据库:大规模语言数据(模型参数标准、评测标准)NLP知识库(词汇语义库、词法句法规则库、常识库)语料库:用于存放语言数据的文件语料库语言学:研究自然语言文本的彩集、
- 2022最新版-李宏毅机器学习深度学习课程-P51 BERT的各种变体
QwQllly
李宏毅机器学习深度学习深度学习机器学习bert
之前讲的是如何进行fine-tune,现在讲解如何进行pre-train,如何得到一个pretrain好的模型。CoVe其实最早的跟预训练有关的模型,应该是CoVe,是一个基于翻译任务的一个模型,其用encoder的模块做预训练。但是CoVe需要大量的翻译对,这是不容易获得的,能不能通过一大段没有标注的语料进行预训练呢?因为有监督的标注是十分费时费力的,因此采用自监督的方法。即给定一个无标签的语料
- 大语言模型(LLM)预训练数据集调研分析
PaperWeekly
语言模型人工智能自然语言处理
©作者|汪涉洋研究方向|大数据、AI背景大语言模型涉及数据的通常有有多个阶段(Aligninglanguagemodelstofollowinstructions[1]):pre-train、sft(supervisedfinetune)、rlhf(optional).StateofGPT:大神Andrej揭秘OpenAI大模型原理和训练过程。supervisedfinetune一般在basemo
- 机器学习笔记
czyxw
机器学习人工智能
目录机器学习基本概念介绍深度学习反向传播前向传播反向传播pytorch梯度下降算法卷积神经网络(CNN)卷积层池化层自注意力机制(self-attention)循环神经网络(RNN)长短期记忆递归神经网络(LSTM)Transformer自监督学习(Self-SupervisedLearning)BERT预训练(Pre-train)微调(Fine-tune)机器学习基本概念介绍机器学习≈机器自动寻
- 浅谈BERT
进步中的coder
笔记自然语言处理nlp
浅谈BERT本文将主要介绍BERT模型以及BERT相关的一些东西。过去在NLP的领域通常是一个任务对应一个model,但是今年来已经发展到可以让机器先了解人类的语言再来解决各式各样的NLP任务。可以通过给机器大量的文字,让机器读懂,这个过程叫预训练(pre-train),然后再根据特定的任务给机器特定的有限的有关数据对pre-train的model进行微调(fine-tune)。这种pre-tra
- ZEN-基于N-gram的中文Encoder(从论文到源码)
lynne233
数据结构和算法
相关背景深度学习的encoder都是基于大规模的未标注数据,但是这些encoder是否完整利用了语料的所有信息,这是未被证实的。类似于Bert的这些预训练模型使用的是文本的最小单位——字。但是中文的最小单位并不是字,中文的语义和N-gram有很大的关系。目前模型的缺陷1.基于wordmasking,encoder只能学习到已有的词和句的信息2.基于mask的方法在pre-train和fine-tu
- 2022最新版-李宏毅机器学习深度学习课程-P50 BERT的预训练和微调
QwQllly
李宏毅机器学习深度学习深度学习机器学习bert人工智能自然语言处理
模型输入无标签文本(Textwithoutannotation),通过消耗大量计算资源预训练(Pre-train)得到一个可以读懂文本的模型,在遇到有监督的任务是微调(Fine-tune)即可。最具代表性是BERT,预训练模型现在命名基本上是源自于动画片《芝麻街》。芝麻街人物经典的预训练模型:ELMo:EmbeddingsfromLanguageModelsBERT:BidirectionalEn
- BERT 理解
Carlosi
神经网络ITbert自然语言处理深度学习
BERT的全称是BidirectionalEncoderRepresentationfromTransformers,即双向Transformer的Encoder。模型的主要创新点都在pre-train方法上,即用了MaskedLM和NextSentencePrediction两种方法分别捕捉词语和句子级别的representation。作为一个Word2Vec的替代者,其在NLP领域的11个方向
- 李宏毅生成式AI课程笔记(持续更新
吃豆人编程
机器学习人工智能笔记
01ChatGPT在做的事情02预训练(Pre-train)ChatGPTG-GenerativeP-Pre-trainedT-TransformerGPT3---->InstructGPT(经过预训练的GPT3)生成式学习的两种策略我们在使用ChatGPT的时候会注意到,网站上的回答几乎是一个字一个字给出来的,这里就是生成式学习的两种策略:“逐个击破”(文字)与“一次到位”(影像)三种结构数据:
- 01.ChatGPT原理剖析
oldmao_2000
李宏毅-AIGC相关chatgpt大模型
目录ChatGPT初体验对ChatGPT的误解ChatGPT的本质模型的训练ChatGPT的关键技术监督学习预训练(Pre-train)GPT系列的历史预训练的好处强化学习ChatGPT带来的研究问题部分截图来自原课程视频《2023李宏毅最新生成式AI教程》,B站自行搜索ChatGPT初体验ChatGPT:Chat表示聊天,G表示Generative,P表示Pre-train,T表示Transfo
- 论文笔记 Unified Language Model Pre-training for Natural Language Understanding and Generation
RunningQzh
语言模型r语言深度学习
一、干啥用的?一个新的预训练语言模型(UNILM),它可以用于自然语言理解NLU和生成任务NLG。UNILM由多个语言建模目标共同预训练,共享相同的参数。二、和别的pre-train模型有啥区别?UNILM是一个多层Transformer网络,使用三种类型的语言建模任务进行预训练:单向(包括l-to-r和r-to-l)、双向和seq2seq预测。该模型在大量文本上联合预训练,针对三种类型的无监督语
- 试谈语言模型中无监督非结构化知识融入
gunjianpan
ReadingGroup的pdf版本blog版本结构化/纯文本之前的一系列将知识融入BERT的工作大多基于entity三元组这种结构化数据.这就要求有大量且高质量的人工标注(当然我们有HowNet,WordNet,WikiData),人工标注必然出现大量噪声,结构化数据更新周期普遍更长.MLM的无监督是否是无监督的极限(当然ERNIE2.0那种偏语法的任务也可以算),能否有一种无监督或者弱监督的任
- 白话详细解读(七)----- Batch Normalization
底层研究生
DeepLearning深度学习BN批量标准化
转载:https://www.cnblogs.com/guoyaohua/p/8724433.htmlBatchNormalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个经验领先于理论分析的偏经验的一门学问。本文是对论文《BatchNor
- Chinese Relation Extraction with Multi-Grained Information and External Linguistic Knowledge
SwordIng
本文思想主要为针对论文Chinesenerusinglatticelstm进行改进,引入了外部信息hownet手工标注的多义词,目的是解决使用NLP工具的产生的分词错误。Abstract中文关系抽取是使用基于字符的或基于词的输入的神经网络来进行的,并且大多数现有的方法通常遭受分词错误和多义的歧义。本文针对当前问题:(1)将字级信息集成到字符序列输入中,从而避免分割错误。(2)利用外部语言知识,从而
- 【综述】Pre-train, Prompt and Recommendation: A Comprehensive Survey of Language Modelling Paradigm
Cynthiainuq
语言模型人工智能深度学习
论文链接:https://arxiv.org/pdf/2302.03735.pdf目录摘要1.Introduction2.GenericArchitectureofLMRS3.DataTypes4.LMRSTrainingStrategies摘要预训练模型和学习到的表示有助于一系列下游任务,本文系统调研了如何从不同PLM(Pre-trainedLanguageModels)相关的训练范式学习到的预
- 自然语言处理: 第七章GPT的搭建
曼城周杰伦
自然语言处理自然语言处理gpt人工智能
理论基础在以transformer架构为框架的大模型遍地开花后,大模型的方向基本分成了三类分别是:decoder-only架构,其中以GPT系列为代表encoder-only架构,其中以BERT系列为代表encoder-decoder架构,标准的transformer架构以BART和T5为代表大模型的使用方法如下:分解成pre-train和fine-tuning,其中pre-train是收集大量的
- 【学习笔记】生成式AI(ChatGPT原理,大型语言模型)
沐兮Krystal
人工智能chatgpt学习
ChatGPT原理剖析语言模型==文字接龙ChatGPT在测试阶段是不联网的。ChatGPT背后的关键技术:预训练(Pre-train)又叫自监督式学习(Self-supervisedLearning),得到的模型叫做基石模型(FoundationModel)。在自监督学习中,用一些方式“无痛”生成成对的学习资料。GPT1->GPT2->GPT3(参数量增加,通过大量网络资料学习,这一过程称为预训
- 【GPT LLM】跟着论文学习gpt
学渣渣渣渣渣
学术前沿gpt学习人工智能
GPT1开山之作:Improvinglanguageunderstandingbygenerativepre-training本文提出了gpt1,即使用无标签的数据对模型先进行训练,让模型学习能够适应各个任务的通用表示;后使用小部分task-aware的数据对模型进行微调,可以在各个task上实现更强大的功能。设计框架分为两块,pre-train和fine-tune,使用transformer模型
- 权重初始化方法
卖女孩的潇火柴
常用的初始化方法:全0初始化、随机初始化全0初始化在线性回归、逻辑回归这类简单模型中全0初始化一般是work的;但在深度模型中全0初始化会导致每层的参数都一样,反向传播梯度也一样,没有意义。随机初始化深度模型中一般都能用,但有缺陷:随机数生成其实也是在均值为0、方差为1的高斯分布中采样,当神经网络的层数增多,激活函数(tanh)的输出值越接近0,会导致梯度非常接近0,然后梯度消失pre-train
- NLP新宠——浅谈Prompt的前世今生
Adenialzz
自然语言处理自然语言处理人工智能深度学习
NLP新宠——浅谈Prompt的前世今生转自:NLP新宠——浅谈Prompt的前世今生作者:闵映乾,中国人民大学信息学院硕士,目前研究方向为自然语言处理。《Pre-train,Prompt,andPredict:ASystematicSurveyofPromptingMethodsinNaturalLanguageProcessing》导读:本文的目标是对近期火爆异常的Prompt相关研究作一些追
- Pre-train, Prompt, and Predict A Systematic Survey of Prompting Methods in Natural Language Process
UnknownBody
综述文章人工智能深度学习
这是Prompt系列文章的第一篇,对《Pre-train,Prompt,andPredict:ASystematicSurveyofPromptingMethodsinNaturalLanguageProcessing》的翻译。预训练、提示与预测:自然语言处理中提示方法的系统综述摘要1自然语音处理中的两次巨变2对提示的正式描述2.1NLP中的监督学习2.2提示基础知识2.2.1提示添加2.2.2回
- OpenPrompt使用记录
湫兮如风i
提示学习OpenPrompt深度学习nlp
一、Prompt提示学习Prompt是继预训练-精调范式(Pre-train,Fine-tune)后的第四范式。Fine-tuning中:是预训练语言模型“迁就“各种下游任务。具体体现就是通过引入各种辅助任务loss,将其添加到预训练模型中,然后继续pre-training,以便让其更加适配下游任务。总之,这个过程中,预训练语言模型做出了更多的牺牲。Prompting中,是各种下游任务“迁就“预训
- 对比式无监督预训练(Contrastive Pre-training)
要努力的小菜鸟
深度学习深度学习学习计算机视觉
一、背景知识1.Pre-train深度学习发展起来至今已在许多领域取得非凡成就,但是dataefficiency仍然是一个难题。为取得较好的性能,常常需要很大的数据集,对于各式各样的新领域和新任务而言,这无疑是耗费巨大的。解决这一难题的一个有效途径是探索深度领域的“可转移性”,即,人们从少量的样本和其他相关的事情中获取知识用于新的任务。深度学习应用的生命周期常被划分为pre-train阶段和ada
- ChatGPT原理剖析
阿牛大牛中
chatgpt人工智能
文章目录ChatGPT常见误解1.罐头回应2.网络搜寻重组ChatGPT真正做的事——文字接龙ChatGPT背后的关键技术——预训练(Pre-train)一般机器是怎样学习的?ChatGPT带来的研究问题1.如何精准提出需求2.如何更改错误3.侦测AI生成的物件4.不小心泄露秘密?ChatGPT常见误解1.罐头回应由开发者准备好的罐头回应:下面是一个问答,让ChatGPT讲一个关于人工智慧的笑话,
- PHP如何实现二维数组排序?
IT独行者
二维数组PHP排序
二维数组在PHP开发中经常遇到,但是他的排序就不如一维数组那样用内置函数来的方便了,(一维数组排序可以参考本站另一篇文章【PHP中数组排序函数详解汇总】)。二维数组的排序需要我们自己写函数处理了,这里UncleToo给大家分享一个PHP二维数组排序的函数:
代码:
functionarray_sort($arr,$keys,$type='asc'){
$keysvalue= $new_arr
- 【Hadoop十七】HDFS HA配置
bit1129
hadoop
基于Zookeeper的HDFS HA配置主要涉及两个文件,core-site和hdfs-site.xml。
测试环境有三台
hadoop.master
hadoop.slave1
hadoop.slave2
hadoop.master包含的组件NameNode, JournalNode, Zookeeper,DFSZKFailoverController
- 由wsdl生成的java vo类不适合做普通java vo
darrenzhu
VOwsdlwebservicerpc
开发java webservice项目时,如果我们通过SOAP协议来输入输出,我们会利用工具从wsdl文件生成webservice的client端类,但是这里面生成的java data model类却不适合做为项目中的普通java vo类来使用,当然有一中情况例外,如果这个自动生成的类里面的properties都是基本数据类型,就没问题,但是如果有集合类,就不行。原因如下:
1)使用了集合如Li
- JAVA海量数据处理之二(BitMap)
周凡杨
java算法bitmapbitset数据
路漫漫其修远兮,吾将上下而求索。想要更快,就要深入挖掘 JAVA 基础的数据结构,从来分析出所编写的 JAVA 代码为什么把内存耗尽,思考有什么办法可以节省内存呢? 啊哈!算法。这里采用了 BitMap 思想。
首先来看一个实验:
指定 VM 参数大小: -Xms256m -Xmx540m
- java类型与数据库类型
g21121
java
很多时候我们用hibernate的时候往往并不是十分关心数据库类型和java类型的对应关心,因为大多数hbm文件是自动生成的,但有些时候诸如:数据库设计、没有生成工具、使用原始JDBC、使用mybatis(ibatIS)等等情况,就会手动的去对应数据库与java的数据类型关心,当然比较简单的数据类型即使配置错了也会很快发现问题,但有些数据类型却并不是十分常见,这就给程序员带来了很多麻烦。
&nb
- Linux命令
510888780
linux命令
系统信息
arch 显示机器的处理器架构(1)
uname -m 显示机器的处理器架构(2)
uname -r 显示正在使用的内核版本
dmidecode -q 显示硬件系统部件 - (SMBIOS / DMI)
hdparm -i /dev/hda 罗列一个磁盘的架构特性
hdparm -tT /dev/sda 在磁盘上执行测试性读取操作
cat /proc/cpuinfo 显示C
- java常用JVM参数
墙头上一根草
javajvm参数
-Xms:初始堆大小,默认为物理内存的1/64(<1GB);默认(MinHeapFreeRatio参数可以调整)空余堆内存小于40%时,JVM就会增大堆直到-Xmx的最大限制
-Xmx:最大堆大小,默认(MaxHeapFreeRatio参数可以调整)空余堆内存大于70%时,JVM会减少堆直到 -Xms的最小限制
-Xmn:新生代的内存空间大小,注意:此处的大小是(eden+ 2
- 我的spring学习笔记9-Spring使用工厂方法实例化Bean的注意点
aijuans
Spring 3
方法一:
<bean id="musicBox" class="onlyfun.caterpillar.factory.MusicBoxFactory"
factory-method="createMusicBoxStatic"></bean>
方法二:
- mysql查询性能优化之二
annan211
UNIONmysql查询优化索引优化
1 union的限制
有时mysql无法将限制条件从外层下推到内层,这使得原本能够限制部分返回结果的条件无法应用到内层
查询的优化上。
如果希望union的各个子句能够根据limit只取部分结果集,或者希望能够先排好序在
合并结果集的话,就需要在union的各个子句中分别使用这些子句。
例如 想将两个子查询结果联合起来,然后再取前20条记录,那么mys
- 数据的备份与恢复
百合不是茶
oraclesql数据恢复数据备份
数据的备份与恢复的方式有: 表,方案 ,数据库;
数据的备份:
导出到的常见命令;
参数 说明
USERID 确定执行导出实用程序的用户名和口令
BUFFER 确定导出数据时所使用的缓冲区大小,其大小用字节表示
FILE 指定导出的二进制文
- 线程组
bijian1013
java多线程threadjava多线程线程组
有些程序包含了相当数量的线程。这时,如果按照线程的功能将他们分成不同的类别将很有用。
线程组可以用来同时对一组线程进行操作。
创建线程组:ThreadGroup g = new ThreadGroup(groupName);
&nbs
- top命令找到占用CPU最高的java线程
bijian1013
javalinuxtop
上次分析系统中占用CPU高的问题,得到一些使用Java自身调试工具的经验,与大家分享。 (1)使用top命令找出占用cpu最高的JAVA进程PID:28174 (2)如下命令找出占用cpu最高的线程
top -Hp 28174 -d 1 -n 1
32694 root 20 0 3249m 2.0g 11m S 2 6.4 3:31.12 java
- 【持久化框架MyBatis3四】MyBatis3一对一关联查询
bit1129
Mybatis3
当两个实体具有1对1的对应关系时,可以使用One-To-One的进行映射关联查询
One-To-One示例数据
以学生表Student和地址信息表为例,每个学生都有都有1个唯一的地址(现实中,这种对应关系是不合适的,因为人和地址是多对一的关系),这里只是演示目的
学生表
CREATE TABLE STUDENTS
(
- C/C++图片或文件的读写
bitcarter
写图片
先看代码:
/*strTmpResult是文件或图片字符串
* filePath文件需要写入的地址或路径
*/
int writeFile(std::string &strTmpResult,std::string &filePath)
{
int i,len = strTmpResult.length();
unsigned cha
- nginx自定义指定加载配置
ronin47
进入 /usr/local/nginx/conf/include 目录,创建 nginx.node.conf 文件,在里面输入如下代码:
upstream nodejs {
server 127.0.0.1:3000;
#server 127.0.0.1:3001;
keepalive 64;
}
server {
liste
- java-71-数值的整数次方.实现函数double Power(double base, int exponent),求base的exponent次方
bylijinnan
double
public class Power {
/**
*Q71-数值的整数次方
*实现函数double Power(double base, int exponent),求base的exponent次方。不需要考虑溢出。
*/
private static boolean InvalidInput=false;
public static void main(
- Android四大组件的理解
Cb123456
android四大组件的理解
分享一下,今天在Android开发文档-开发者指南中看到的:
App components are the essential building blocks of an Android
- [宇宙与计算]涡旋场计算与拓扑分析
comsci
计算
怎么阐述我这个理论呢? 。。。。。。。。。
首先: 宇宙是一个非线性的拓扑结构与涡旋轨道时空的统一体。。。。
我们要在宇宙中寻找到一个适合人类居住的行星,时间非常重要,早一个刻度和晚一个刻度,这颗行星的
- 同一个Tomcat不同Web应用之间共享会话Session
cwqcwqmax9
session
实现两个WEB之间通过session 共享数据
查看tomcat 关于 HTTP Connector 中有个emptySessionPath 其解释如下:
If set to true, all paths for session cookies will be set to /. This can be useful for portlet specification impleme
- springmvc Spring3 MVC,ajax,乱码
dashuaifu
springjquerymvcAjax
springmvc Spring3 MVC @ResponseBody返回,jquery ajax调用中文乱码问题解决
Spring3.0 MVC @ResponseBody 的作用是把返回值直接写到HTTP response body里。具体实现AnnotationMethodHandlerAdapter类handleResponseBody方法,具体实
- 搭建WAMP环境
dcj3sjt126com
wamp
这里先解释一下WAMP是什么意思。W:windows,A:Apache,M:MYSQL,P:PHP。也就是说本文说明的是在windows系统下搭建以apache做服务器、MYSQL为数据库的PHP开发环境。
工欲善其事,必须先利其器。因为笔者的系统是WinXP,所以下文指的系统均为此系统。笔者所使用的Apache版本为apache_2.2.11-
- yii2 使用raw http request
dcj3sjt126com
http
Parses a raw HTTP request using yii\helpers\Json::decode()
To enable parsing for JSON requests you can configure yii\web\Request::$parsers using this class:
'request' =&g
- Quartz-1.8.6 理论部分
eksliang
quartz
转载请出自出处:http://eksliang.iteye.com/blog/2207691 一.概述
基于Quartz-1.8.6进行学习,因为Quartz2.0以后的API发生的非常大的变化,统一采用了build模式进行构建;
什么是quartz?
答:简单的说他是一个开源的java作业调度框架,为在 Java 应用程序中进行作业调度提供了简单却强大的机制。并且还能和Sp
- 什么是POJO?
gupeng_ie
javaPOJO框架Hibernate
POJO--Plain Old Java Objects(简单的java对象)
POJO是一个简单的、正规Java对象,它不包含业务逻辑处理或持久化逻辑等,也不是JavaBean、EntityBean等,不具有任何特殊角色和不继承或不实现任何其它Java框架的类或接口。
POJO对象有时也被称为Data对象,大量应用于表现现实中的对象。如果项目中使用了Hiber
- jQuery网站顶部定时折叠广告
ini
JavaScripthtmljqueryWebcss
效果体验:http://hovertree.com/texiao/jquery/4.htmHTML文件代码:
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title>网页顶部定时收起广告jQuery特效 - HoverTree<
- Spring boot内嵌的tomcat启动失败
kane_xie
spring boot
根据这篇guide创建了一个简单的spring boot应用,能运行且成功的访问。但移植到现有项目(基于hbase)中的时候,却报出以下错误:
SEVERE: A child container failed during start
java.util.concurrent.ExecutionException: org.apache.catalina.Lif
- leetcode: sort list
michelle_0916
Algorithmlinked listsort
Sort a linked list in O(n log n) time using constant space complexity.
====analysis=======
mergeSort for singly-linked list
====code======= /**
* Definition for sin
- nginx的安装与配置,中途遇到问题的解决
qifeifei
nginx
我使用的是ubuntu13.04系统,在安装nginx的时候遇到如下几个问题,然后找思路解决的,nginx 的下载与安装
wget http://nginx.org/download/nginx-1.0.11.tar.gz
tar zxvf nginx-1.0.11.tar.gz
./configure
make
make install
安装的时候出现
- 用枚举来处理java自定义异常
tcrct
javaenumexception
在系统开发过程中,总少不免要自己处理一些异常信息,然后将异常信息变成友好的提示返回到客户端的这样一个过程,之前都是new一个自定义的异常,当然这个所谓的自定义异常也是继承RuntimeException的,但这样往往会造成异常信息说明不一致的情况,所以就想到了用枚举来解决的办法。
1,先创建一个接口,里面有两个方法,一个是getCode, 一个是getMessage
public
- erlang supervisor分析
wudixiaotie
erlang
当我们给supervisor指定需要创建的子进程的时候,会指定M,F,A,如果是simple_one_for_one的策略的话,启动子进程的方式是supervisor:start_child(SupName, OtherArgs),这种方式可以根据调用者的需求传不同的参数给需要启动的子进程的方法。和最初的参数合并成一个数组,A ++ OtherArgs。那么这个时候就有个问题了,既然参数不一致,那