- LLM 词汇表
落难Coder
LLMsNLP大语言模型大模型llama人工智能
Contextwindow“上下文窗口”是指语言模型在生成新文本时能够回溯和参考的文本量。这不同于语言模型训练时所使用的大量数据集,而是代表了模型的“工作记忆”。较大的上下文窗口可以让模型理解和响应更复杂和更长的提示,而较小的上下文窗口可能会限制模型处理较长提示或在长时间对话中保持连贯性的能力。Fine-tuning微调是使用额外的数据进一步训练预训练语言模型的过程。这使得模型开始表示和模仿微调数
- 【有啥问啥】刷爆各大榜单的Reflection 70B模型背后的错误自我纠正(Reflection-Tuning)技术解析:一种革新AI模型的方法
Chauvin912
大模型行业调研人工智能算法
刷爆各大榜单的Reflection70B模型背后的错误自我纠正(Reflection-Tuning)技术解析:一种革新AI模型的方法在快速发展的AI领域,尤其是大型语言模型(LLM)的竞争中,错误自我纠正技术(Reflection-Tuning)正逐步成为提升模型性能的关键突破。该技术通过赋予模型自我检测和纠正错误的能力,显著提高了输出的准确性和可靠性。本文将深入解析Reflection-Tunn
- 大模型多机多卡脚本实例 - 增量预训练 -accelerate和deepspeed命令多机多卡训练有什么不同
AI生成曾小健
大模型/增量预训练CPT深度学习python机器学习
第一步,同步权重ls-l/data/xxx/gpu008/MoeRemake/train/etuning/LLaMA-Factory2/models/xxx-Base-10B-200k-Llama第二步,同步环境:./scp_batch.sh"/data/xxx/miniconda3/envs/etuning4/""/data/vayu/miniconda3/envs/etuning4/"gpu0
- 超越传统:Reflection 70B如何革新AI语言处理
黑金IT
人工智能AI编程
Reflection70B:AI语言模型的新里程碑AI领域迎来了革命性的变革,HyperWrite公司推出的开源AI大模型Reflection70B,以其卓越的性能在多个基准测试中超越了GPT-4o和Llama3.1。这款基于Meta的Llama3.170BInstruct构建的模型,采用了先进的“Reflection-Tuning”技术,能够在最终确定回答前检测并纠正自身的错误,显著提高了输出的
- mysql5.7 myisam 优化_MySQL5.7优化配置参数
weixin_39866974
mysql5.7myisam优化
#Otherdefaulttuningvalues#MySQLServerInstanceConfigurationFile#----------------------------------------------------------------------#GeneratedbytheMySQLServerInstanceConfigurationWizard###Installatio
- 大模型推理框架 RTP-LLM 架构解析
阿里技术
架构LLM推理阿里巴巴RPT
RTP-LLM是阿里巴巴智能引擎团队推出的大模型推理框架,支持了包括淘宝、天猫、闲鱼、菜鸟、高德、饿了么、AE、Lazada等多个业务的大模型推理场景。RTP-LLM与当前广泛使用的多种主流模型兼容,使用高性能的CUDAkernel,包括PagedAttention、FlashAttention、FlashDecoding等,支持多模态、LoRA、P-Tuning、以及WeightOnly动态量化
- LLM系列(3):探索大模型RLHF优化之道:DeepSpeed-Chat超快速入门,对齐训练精度提升一步到位
汀、人工智能
LLM工业级落地实践人工智能promptLLM自然语言处理大模型RLHFDeepSpeed
LLM系列(3):探索大模型RLHF优化之道:DeepSpeed-Chat超快速入门,对齐训练精度提升一步到位随着ChatGPT的惊艳表现,各类大模型产品如雨后春笋丛出不穷。作为有一定算法能力的同学一定会想是否可以自己在有限的物理条件下去定制化自己的大模型。学术界对此也进行了一定的研究,如PromptTuning的技术等(不调试原始大模型,只调试相关的Prompt)。最近微软做了一个Deepspe
- 百篇论文博文导航AI工程之路:FT、KG、RAG与Agent技术全方位探索
汀、人工智能
AIAgent人工智能深度学习机器学习自然语言处理大模型AgentRAG
百篇论文博文导航AI工程之路:FT、KG、RAG与Agent技术全方位探索1.FTScalingDowntoScaleUp:AGuidetoParameter-EfficientFine-Tuning:https://arxiv.org/abs/2303.15647TowardsaUnifiedViewofParameter-EfficientTransferLearning:https://ar
- 【大模型】Agent基础知识
idiotyi
大模型人工智能自然语言处理
目录1.基本框架2.常见推理模式2.1ReAct:SynergizingReasoningandActinginLanguageModels2.2Reflection2.3LATS:LanguageAgentsTreeSearch3.微调3.1全模型微调(FullModelFine-Tuning)3.2冻结部分层微调(Layer-wiseFine-Tuning)3.3适配器(Adapters)3.
- 深度解析:大模型微调的原理、应用与实践
longfei.li
人工智能神经网络
引言最近在公司落地AI产品的过程中,与团队小伙伴深入探讨和测试了大模型微调,同时也跟多个业内专家进行了交流和学习。相信很多人在实际落地大模型应用的时候都会有个疑问:到底要不要做微调模型?我的结论是在实际落地的过程中绝大多数场景是不需要做的,所以今天主要跟大家分享一下什么是Fine-tuning、Fine-tuning的原理以及Fine-tuning的应用,以帮助大家在工作中更好的理解大模型微调。什
- CLIP-Adapter: Better Vision-Language Models with Feature Adapters
Tsukinousag
对比语言图像预训练(CLIP)虽然prompt-tuning用于textualinputs,但是建议CLIPAdapter在视觉或语言分支上使用功能适配器进行fine-tuneCLIPAdapter采用了一个额外的瓶颈层来学习新的特征,并将剩余的特征与原始的预训练特征进行混合。为了更好地适应vision语言模型,使用功能适配器,而不是快速调整1.ClassifierWeightGeneration
- MasaCtrl:Tuning-free mutual self-attention control for consistent image synthesis and editing
Kun Li
图像视频生成大模型stablediffusion
https://github.com/TencentARC/MasaCtrl/issues/13https://github.com/TencentARC/MasaCtrl/issues/13QuestionaboutMask·Issue#31·TencentARC/MasaCtrl·GitHub
- Code Llama: Open Foundation Models for Code论文阅读
yang_daxia
大模型llamacodellama
整体介绍CodeLlama发布了3款模型,包括基础模型、Python专有模型和指令跟随模型,参数量分别为7B、13B、34B和70B。这些模型在长达16ktokens的序列上训练。都是基于Llama2。作者针对infilling(FIM)、长上下文、指令专门做了微调long-contextfine-tuning(LCFT).codellama细节CodeLlama模型家族初始化:所有CodeLla
- 大模型18:微调大模型方法PEFT(LoRA等) — 训练 “ChatGLM2“ 项目
bluewelkin
大模型
微调大模型的方法之一是PEFT(Parameter-EfficientFine-Tuning),其中包括LoRA(Low-RankAdaptation)等技术。PEFT方法能够在不显著增加计算资源消耗的情况下,微调大模型,从而适应特定任务。这种方法特别适用于像“ChatGLM2”这样的预训练大模型。什么是PEFT(Parameter-EfficientFine-Tuning)?PEFT是一种优化微
- 大模型19:微调大模型方法
bluewelkin
大模型
有监督微调(SFT)、奖励模型(RM)训练,以及基于人类反馈的强化学习(RLHF)训练1.有监督微调(SFT-SupervisedFine-Tuning)数据处理数据收集:首先,需要收集大量的对话数据。这些数据通常包括人工标注的问答对,或者从已有的高质量对话系统中获取的数据集。数据预处理:对收集的数据进行清洗、标注和格式化。预处理包括移除噪音数据、分词、生成模型输入输出格式等。模型训练模型初始化:
- 大模型微调方法总结:LoRA、Adapter、Prefix-tuning、P-tuning、Prompt-tuning
百度_开发者中心
prompt人工智能大模型
随着深度学习技术的不断发展,大型预训练模型已成为许多任务的重要工具。然而,微调(finetuning)这些大模型以适应特定任务是一个复杂且计算密集型的过程。本文将重点介绍五种不同的微调方法:LoRA、Adapter、Prefix-tuning、P-tuning和Prompt-tuning,并对它们进行总结。LoRA(LearnedRepresentationsforFinetuning)LoRA是
- Prompt-Tuning:大模型微调技术
百度_开发者中心
prompt自然语言处理大模型
随着深度学习技术的不断发展,大模型(如GPT、BERT等)在各种自然语言处理(NLP)任务中取得了显著的成功。然而,训练和部署大模型需要大量的计算资源和时间,这限制了其在一些资源有限场景中的应用。为了解决这个问题,研究人员提出了各种大模型微调技术,以减少模型的大小和计算复杂度,同时保持模型的性能。本文将重点介绍一些常见的大模型微调技术,包括Adapter-Tuning、Prefix-Tuning、
- 大模型微调技术(Adapter-Tuning、Prefix-Tuning、Prompt-Tuning(P-Tuning)、P-Tuning v2、LoRA)_adapter微调 p tuning
Cc不爱吃洋葱
prompt
2022年11月30日,ChatGPT发布至今,国内外不断涌现出了不少大模型,呈现“百模大战”的景象,比如ChatGLM-6B、LLAMA、Alpaca等模型及在此模型基础上进一步开发的特定领域的大模型。今年3月15日,GPT-4发布后,也出现了一些多模态的大模型,比如百度的文心一言、讯飞星火认知大模型等等。要想训练一个针对特定领域的大模型,如果采用全量参数微调(FullParameterFutu
- Rocksdb Tuning
MOONICK
数据库
Rocksdb配置选项尤其繁多,想要获得真正的高性能,需要进行详细的调优,这是项复杂的工作,需要在实践中积累经验:https://www.jianshu.com/p/8e0018b6a8b6https://cloud.tencent.com/developer/article/2329992调优RocksDB通常就是在三个amplification之间做取舍:Writeamplification-
- 大模型应用中什么是SFT(监督微调)?
Chauvin912
大模型语言模型深度学习算法
大模型应用中什么是SFT(监督微调)?一、SFT的基本概念监督微调(SupervisedFine-Tuning,SFT)是对已经预训练的模型进行特定任务的训练,以提高其在该任务上的表现。预训练模型通常在大量通用数据上进行训练,学到广泛的语言知识和特征。在SFT过程中,利用特定任务的数据,对模型进行进一步调整,使其更适合该任务。二、SFT的原理SFT的过程可以分为以下几个步骤:预训练模型:在大规模通
- AI推介-大语言模型LLMs论文速览(arXiv方向):2024.02.20-2024.02.25
小小帅AIGC
LLMs论文时报人工智能语言模型深度学习LLM大语言模型论文推送
论文目录~1.Zero-shotcross-lingualtransferininstructiontuningoflargelanguagemodel2.ScalingEfficientLLMs3.LLM-DA:DataAugmentationviaLargeLanguageModelsforFew-ShotNamedEntityRecognition4.WhoseLLMisitAnyway?L
- AI推介-大语言模型LLMs论文速览(arXiv方向):2024.02.25-2024.03.01
小小帅AIGC
LLMs论文时报人工智能语言模型自然语言处理LLM大语言模型深度学习论文推送
论文目录~1.ArithmeticControlofLLMsforDiverseUserPreferences:DirectionalPreferenceAlignmentwithMulti-ObjectiveRewards2.KeepingLLMsAlignedAfterFine-tuning:TheCrucialRoleofPromptTemplates3.Meta-TaskPrompting
- 大模型训练——PEFT与LORA介绍
MarkHD
人工智能深度学习机器学习
大模型训练中的PEFT(Parameter-EfficientFine-Tuning)与LoRA(Low-RankAdaptation)是两种重要的技术,它们在大型预训练模型的应用中发挥着重要作用。首先,让我们来了解一下PEFT。PEFT是一种参数高效的微调技术,由Huggingface发布。这种方法的核心思想是仅微调少量(额外)模型参数,同时冻结预训练LLM的大部分参数。这样做的好处是大大降低了
- 学习笔记:使用 Amazon Bedrock 进行图像生成
AmazonBedrock全新发布在2023年的亚马逊云科技re:Invent全球云计算大会上,最令人瞩目的一项更新莫过于AmazonBedrock的全新升级。亚马逊云科技此次为其大模型托管服务引入了Fine-tuning、Agents、KnowledgeBases和Guardrails等一系列创新功能。这些功能的加入意味着客户现在能以更加高效、智能和安全的方式构建各种应用,标志着亚马逊云科技在推
- 预训练和微调在迁移学习中的作用
一条小小yu
迁移学习人工智能机器学习
在机器学习和深度学习中,"pre-training"(预训练)和"fine-tuning"(微调)是两个常见且重要的概念,它们通常在迁移学习场景中使用,以提高模型在特定任务上的性能。预训练(Pre-training)预训练是指在一个大型且通常与目标任务相关但不完全相同的数据集上训练模型的过程。这个阶段的目的是让模型学习到一些通用的特征或知识,这些特征或知识可以帮助模型在后续的特定任务上表现更好。预
- 大模型微调大杂烩知识总结
lichunericli
LLM人工智能语言模型
1.前缀微调(Prefix-Tuning)前缀微调是一种针对预训练模型的微调方法,通过在模型输入前添加特定任务相关的连续前缀表示,从而引导模型生成适应特定任务的输出。在微调过程中,只更新前缀表示的参数,而预训练模型的参数保持不变。微调方法:首先,为每个任务设计一个可学习的前缀表示。然后,将这个前缀表示与输入序列进行拼接,输入到预训练模型中。最后,通过优化前缀表示的参数,使得模型能够生成适应特定任务
- Prompt Tuning:深度解读一种新的微调范式
lichunericli
LLM人工智能语言模型prompt
阅读该博客,您将系统地掌握如下知识点:什么是预训练语言模型?什么是prompt?为什么要引入prompt?相比传统fine-tuning有什么优势?自20年底开始,prompt的发展历程,哪些经典的代表方法?面向不同种类NLP任务,prompt如何选择和设计?面向超大规模模型,如何借助prompt进行参数有效性训练?面向GPT3,什么是In-ContextLearning?什么是Chain-Of-
- ACK Timeout 相关论文
小超超爱超超
论文中提到了ACKTimeout《AReal-TimeUpdatingAlgorithmofRTS-CTSThresholdtoEnhanceEDCAMACPerformanceinIEEE802.11eWirelessLANs》Timeout论文中《RTSThresholdSelf-TuningAlgorithmBasedonDelayAnalysison802.11DCF》提到冲突时间:
- 大模型推理优化实践:KV cache 复用与投机采样
阿里技术
RTP-LLM大模型KVcache推理优化投机采样
作者:米基一、背景RTP-LLM是阿里巴巴大模型预测团队开发的大模型推理加速引擎,作为一个高性能的大模型推理解决方案,它已被广泛应用于阿里内部。该引擎与当前广泛使用的多种主流模型兼容,并通过采用高性能的CUDA算子来实现了如PagedAttention和ContinuousBatching等多项优化措施。RTP-LLM还支持包括多模态、LoRA、P-Tuning、以及WeightOnly动态量化等
- 大语言模型ChatGLM + P-Tuning微调实践
North_D
AI人工智能人工智能自然语言处理chatgptnlptransformer深度学习机器学习
大语言模型ChatGLM+P-Tuning微调实践文章目录大语言模型ChatGLM+P-Tuning微调实践LLM微调基础本次实践环境说明ChatGLM部署以及激活conda环境安装依赖禁用W&B训练数据集、测试数据集准备微调参数调整(train.sh\evaluate.sh)参数说明备查训练推理验证可能会遇到的问题及解决LLM微调基础LLM微调可以对原有预模型进行专业领域知识的训练,相关领域知识
- C/C++Win32编程基础详解视频下载
择善Zach
编程C++Win32
课题视频:C/C++Win32编程基础详解
视频知识:win32窗口的创建
windows事件机制
主讲:择善Uncle老师
学习交流群:386620625
验证码:625
--
- Guava Cache使用笔记
bylijinnan
javaguavacache
1.Guava Cache的get/getIfPresent方法当参数为null时会抛空指针异常
我刚开始使用时还以为Guava Cache跟HashMap一样,get(null)返回null。
实际上Guava整体设计思想就是拒绝null的,很多地方都会执行com.google.common.base.Preconditions.checkNotNull的检查。
2.Guava
- 解决ora-01652无法通过128(在temp表空间中)
0624chenhong
oracle
解决ora-01652无法通过128(在temp表空间中)扩展temp段的过程
一个sql语句后,大约花了10分钟,好不容易有一个结果,但是报了一个ora-01652错误,查阅了oracle的错误代码说明:意思是指temp表空间无法自动扩展temp段。这种问题一般有两种原因:一是临时表空间空间太小,二是不能自动扩展。
分析过程:
既然是temp表空间有问题,那当
- Struct在jsp标签
不懂事的小屁孩
struct
非UI标签介绍:
控制类标签:
1:程序流程控制标签 if elseif else
<s:if test="isUsed">
<span class="label label-success">True</span>
</
- 按对象属性排序
换个号韩国红果果
JavaScript对象排序
利用JavaScript进行对象排序,根据用户的年龄排序展示
<script>
var bob={
name;bob,
age:30
}
var peter={
name;peter,
age:30
}
var amy={
name;amy,
age:24
}
var mike={
name;mike,
age:29
}
var john={
- 大数据分析让个性化的客户体验不再遥远
蓝儿唯美
数据分析
顾客通过多种渠道制造大量数据,企业则热衷于利用这些信息来实现更为个性化的体验。
分析公司Gartner表示,高级分析会成为客户服务的关键,但是大数据分析的采用目前仅局限于不到一成的企业。 挑战在于企业还在努力适应结构化数据,疲于根据自身的客户关系管理(CRM)系统部署有效的分析框架,以及集成不同的内外部信息源。
然而,面对顾客通过数字技术参与而产生的快速变化的信息,企业需要及时作出反应。要想实
- java笔记4
a-john
java
操作符
1,使用java操作符
操作符接受一个或多个参数,并生成一个新值。参数的形式与普通的方法调用不用,但是效果是相同的。加号和一元的正号(+)、减号和一元的负号(-)、乘号(*)、除号(/)以及赋值号(=)的用法与其他编程语言类似。
操作符作用于操作数,生成一个新值。另外,有些操作符可能会改变操作数自身的
- 从裸机编程到嵌入式Linux编程思想的转变------分而治之:驱动和应用程序
aijuans
嵌入式学习
笔者学习嵌入式Linux也有一段时间了,很奇怪的是很多书讲驱动编程方面的知识,也有很多书将ARM9方面的知识,但是从以前51形式的(对寄存器直接操作,初始化芯片的功能模块)编程方法,和思维模式,变换为基于Linux操作系统编程,讲这个思想转变的书几乎没有,让初学者走了很多弯路,撞了很多难墙。
笔者因此写上自己的学习心得,希望能给和我一样转变
- 在springmvc中解决FastJson循环引用的问题
asialee
循环引用fastjson
我们先来看一个例子:
package com.elong.bms;
import java.io.OutputStream;
import java.util.HashMap;
import java.util.Map;
import co
- ArrayAdapter和SimpleAdapter技术总结
百合不是茶
androidSimpleAdapterArrayAdapter高级组件基础
ArrayAdapter比较简单,但它只能用于显示文字。而SimpleAdapter则有很强的扩展性,可以自定义出各种效果
ArrayAdapter;的数据可以是数组或者是队列
// 获得下拉框对象
AutoCompleteTextView textview = (AutoCompleteTextView) this
- 九封信
bijian1013
人生励志
有时候,莫名的心情不好,不想和任何人说话,只想一个人静静的发呆。有时候,想一个人躲起来脆弱,不愿别人看到自己的伤口。有时候,走过熟悉的街角,看到熟悉的背影,突然想起一个人的脸。有时候,发现自己一夜之间就长大了。 2014,写给人
- Linux下安装MySQL Web 管理工具phpMyAdmin
sunjing
PHPInstallphpMyAdmin
PHP http://php.net/
phpMyAdmin http://www.phpmyadmin.net
Error compiling PHP on CentOS x64
一、安装Apache
请参阅http://billben.iteye.com/admin/blogs/1985244
二、安装依赖包
sudo yum install gd
- 分布式系统理论
bit1129
分布式
FLP
One famous theory in distributed computing, known as FLP after the authors Fischer, Lynch, and Patterson, proved that in a distributed system with asynchronous communication and process crashes,
- ssh2整合(spring+struts2+hibernate)-附源码
白糖_
eclipsespringHibernatemysql项目管理
最近抽空又整理了一套ssh2框架,主要使用的技术如下:
spring做容器,管理了三层(dao,service,actioin)的对象
struts2实现与页面交互(MVC),自己做了一个异常拦截器,能拦截Action层抛出的异常
hibernate与数据库交互
BoneCp数据库连接池,据说比其它数据库连接池快20倍,仅仅是据说
MySql数据库
项目用eclipse
- treetable bug记录
braveCS
table
// 插入子节点删除再插入时不能正常显示。修改:
//不知改后有没有错,先做个备忘
Tree.prototype.removeNode = function(node) {
// Recursively remove all descendants of +node+
this.unloadBranch(node);
// Remove
- 编程之美-电话号码对应英语单词
bylijinnan
java算法编程之美
import java.util.Arrays;
public class NumberToWord {
/**
* 编程之美 电话号码对应英语单词
* 题目:
* 手机上的拨号盘,每个数字都对应一些字母,比如2对应ABC,3对应DEF.........,8对应TUV,9对应WXYZ,
* 要求对一段数字,输出其代表的所有可能的字母组合
- jquery ajax读书笔记
chengxuyuancsdn
jQuery ajax
1、jsp页面
<%@ page language="java" import="java.util.*" pageEncoding="GBK"%>
<%
String path = request.getContextPath();
String basePath = request.getScheme()
- JWFD工作流拓扑结构解析伪码描述算法
comsci
数据结构算法工作活动J#
对工作流拓扑结构解析感兴趣的朋友可以下载附件,或者下载JWFD的全部代码进行分析
/* 流程图拓扑结构解析伪码描述算法
public java.util.ArrayList DFS(String graphid, String stepid, int j)
- oracle I/O 从属进程
daizj
oracle
I/O 从属进程
I/O从属进程用于为不支持异步I/O的系统或设备模拟异步I/O.例如,磁带设备(相当慢)就不支持异步I/O.通过使用I/O 从属进程,可以让磁带机模仿通常只为磁盘驱动器提供的功能。就好像支持真正的异步I/O 一样,写设备的进程(调用者)会收集大量数据,并交由写入器写出。数据成功地写出时,写入器(此时写入器是I/O 从属进程,而不是操作系统)会通知原来的调用者,调用者则会
- 高级排序:希尔排序
dieslrae
希尔排序
public void shellSort(int[] array){
int limit = 1;
int temp;
int index;
while(limit <= array.length/3){
limit = limit * 3 + 1;
- 初二下学期难记忆单词
dcj3sjt126com
englishword
kitchen 厨房
cupboard 厨柜
salt 盐
sugar 糖
oil 油
fork 叉;餐叉
spoon 匙;调羹
chopsticks 筷子
cabbage 卷心菜;洋白菜
soup 汤
Italian 意大利的
Indian 印度的
workplace 工作场所
even 甚至;更
Italy 意大利
laugh 笑
m
- Go语言使用MySQL数据库进行增删改查
dcj3sjt126com
mysql
目前Internet上流行的网站构架方式是LAMP,其中的M即MySQL, 作为数据库,MySQL以免费、开源、使用方便为优势成为了很多Web开发的后端数据库存储引擎。MySQL驱动Go中支持MySQL的驱动目前比较多,有如下几种,有些是支持database/sql标准,而有些是采用了自己的实现接口,常用的有如下几种:
http://code.google.c...o-mysql-dri
- git命令
shuizhaosi888
git
---------------设置全局用户名:
git config --global user.name "HanShuliang" //设置用户名
git config --global user.email "
[email protected]" //设置邮箱
---------------查看环境配置
git config --li
- qemu-kvm 网络 nat模式 (四)
haoningabc
kvmqemu
qemu-ifup-NAT
#!/bin/bash
BRIDGE=virbr0
NETWORK=192.168.122.0
GATEWAY=192.168.122.1
NETMASK=255.255.255.0
DHCPRANGE=192.168.122.2,192.168.122.254
TFTPROOT=
BOOTP=
function check_bridge()
- 不要让未来的你,讨厌现在的自己
jingjing0907
生活 奋斗 工作 梦想
故事one
23岁,他大学毕业,放弃了父母安排的稳定工作,独闯京城,在家小公司混个小职位,工作还算顺手,月薪三千,混了混,混走了一年的光阴。 24岁,有了女朋友,从二环12人的集体宿舍搬到香山民居,一间平房,二人世界,爱爱爱。偶然约三朋四友,打扑克搓麻将,日子快乐似神仙; 25岁,出了几次差,调了两次岗,薪水涨了不过百,生猛狂飙的物价让现实血淋淋,无力为心爱银儿购件大牌
- 枚举类型详解
一路欢笑一路走
enum枚举详解enumsetenumMap
枚举类型详解
一.Enum详解
1.1枚举类型的介绍
JDK1.5加入了一个全新的类型的”类”—枚举类型,为此JDK1.5引入了一个新的关键字enum,我们可以这样定义一个枚举类型。
Demo:一个最简单的枚举类
public enum ColorType {
RED
- 第11章 动画效果(上)
onestopweb
动画
index.html
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/
- Eclipse中jsp、js文件编辑时,卡死现象解决汇总
ljf_home
eclipsejsp卡死js卡死
使用Eclipse编辑jsp、js文件时,经常出现卡死现象,在网上百度了N次,经过N次优化调整后,卡死现象逐步好转,具体那个方法起到作用,不太好讲。将所有用过的方法罗列如下:
1、取消验证
windows–>perferences–>validation
把 除了manual 下面的全部点掉,build下只留 classpath dependency Valida
- MySQL编程中的6个重要的实用技巧
tomcat_oracle
mysql
每一行命令都是用分号(;)作为结束
对于MySQL,第一件你必须牢记的是它的每一行命令都是用分号(;)作为结束的,但当一行MySQL被插入在PHP代码中时,最好把后面的分号省略掉,例如:
mysql_query("INSERT INTO tablename(first_name,last_name)VALUES('$first_name',$last_name')");
- zoj 3820 Building Fire Stations(二分+bfs)
阿尔萨斯
Build
题目链接:zoj 3820 Building Fire Stations
题目大意:给定一棵树,选取两个建立加油站,问说所有点距离加油站距离的最大值的最小值是多少,并且任意输出一种建立加油站的方式。
解题思路:二分距离判断,判断函数的复杂度是o(n),这样的复杂度应该是o(nlogn),即使常数系数偏大,但是居然跑了4.5s,也是醉了。 判断函数里面做了3次bfs,但是每次bfs节点最多