- LLM 词汇表
落难Coder
LLMsNLP大语言模型大模型llama人工智能
Contextwindow“上下文窗口”是指语言模型在生成新文本时能够回溯和参考的文本量。这不同于语言模型训练时所使用的大量数据集,而是代表了模型的“工作记忆”。较大的上下文窗口可以让模型理解和响应更复杂和更长的提示,而较小的上下文窗口可能会限制模型处理较长提示或在长时间对话中保持连贯性的能力。Fine-tuning微调是使用额外的数据进一步训练预训练语言模型的过程。这使得模型开始表示和模仿微调数
- 【有啥问啥】刷爆各大榜单的Reflection 70B模型背后的错误自我纠正(Reflection-Tuning)技术解析:一种革新AI模型的方法
Chauvin912
大模型行业调研人工智能算法
刷爆各大榜单的Reflection70B模型背后的错误自我纠正(Reflection-Tuning)技术解析:一种革新AI模型的方法在快速发展的AI领域,尤其是大型语言模型(LLM)的竞争中,错误自我纠正技术(Reflection-Tuning)正逐步成为提升模型性能的关键突破。该技术通过赋予模型自我检测和纠正错误的能力,显著提高了输出的准确性和可靠性。本文将深入解析Reflection-Tunn
- 大模型多机多卡脚本实例 - 增量预训练 -accelerate和deepspeed命令多机多卡训练有什么不同
AI生成曾小健
大模型/增量预训练CPT深度学习python机器学习
第一步,同步权重ls-l/data/xxx/gpu008/MoeRemake/train/etuning/LLaMA-Factory2/models/xxx-Base-10B-200k-Llama第二步,同步环境:./scp_batch.sh"/data/xxx/miniconda3/envs/etuning4/""/data/vayu/miniconda3/envs/etuning4/"gpu0
- 超越传统:Reflection 70B如何革新AI语言处理
黑金IT
人工智能AI编程
Reflection70B:AI语言模型的新里程碑AI领域迎来了革命性的变革,HyperWrite公司推出的开源AI大模型Reflection70B,以其卓越的性能在多个基准测试中超越了GPT-4o和Llama3.1。这款基于Meta的Llama3.170BInstruct构建的模型,采用了先进的“Reflection-Tuning”技术,能够在最终确定回答前检测并纠正自身的错误,显著提高了输出的
- mysql5.7 myisam 优化_MySQL5.7优化配置参数
weixin_39866974
mysql5.7myisam优化
#Otherdefaulttuningvalues#MySQLServerInstanceConfigurationFile#----------------------------------------------------------------------#GeneratedbytheMySQLServerInstanceConfigurationWizard###Installatio
- 大模型推理框架 RTP-LLM 架构解析
阿里技术
架构LLM推理阿里巴巴RPT
RTP-LLM是阿里巴巴智能引擎团队推出的大模型推理框架,支持了包括淘宝、天猫、闲鱼、菜鸟、高德、饿了么、AE、Lazada等多个业务的大模型推理场景。RTP-LLM与当前广泛使用的多种主流模型兼容,使用高性能的CUDAkernel,包括PagedAttention、FlashAttention、FlashDecoding等,支持多模态、LoRA、P-Tuning、以及WeightOnly动态量化
- LLM系列(3):探索大模型RLHF优化之道:DeepSpeed-Chat超快速入门,对齐训练精度提升一步到位
汀、人工智能
LLM工业级落地实践人工智能promptLLM自然语言处理大模型RLHFDeepSpeed
LLM系列(3):探索大模型RLHF优化之道:DeepSpeed-Chat超快速入门,对齐训练精度提升一步到位随着ChatGPT的惊艳表现,各类大模型产品如雨后春笋丛出不穷。作为有一定算法能力的同学一定会想是否可以自己在有限的物理条件下去定制化自己的大模型。学术界对此也进行了一定的研究,如PromptTuning的技术等(不调试原始大模型,只调试相关的Prompt)。最近微软做了一个Deepspe
- 百篇论文博文导航AI工程之路:FT、KG、RAG与Agent技术全方位探索
汀、人工智能
AIAgent人工智能深度学习机器学习自然语言处理大模型AgentRAG
百篇论文博文导航AI工程之路:FT、KG、RAG与Agent技术全方位探索1.FTScalingDowntoScaleUp:AGuidetoParameter-EfficientFine-Tuning:https://arxiv.org/abs/2303.15647TowardsaUnifiedViewofParameter-EfficientTransferLearning:https://ar
- 【大模型】Agent基础知识
idiotyi
大模型人工智能自然语言处理
目录1.基本框架2.常见推理模式2.1ReAct:SynergizingReasoningandActinginLanguageModels2.2Reflection2.3LATS:LanguageAgentsTreeSearch3.微调3.1全模型微调(FullModelFine-Tuning)3.2冻结部分层微调(Layer-wiseFine-Tuning)3.3适配器(Adapters)3.
- 深度解析:大模型微调的原理、应用与实践
longfei.li
人工智能神经网络
引言最近在公司落地AI产品的过程中,与团队小伙伴深入探讨和测试了大模型微调,同时也跟多个业内专家进行了交流和学习。相信很多人在实际落地大模型应用的时候都会有个疑问:到底要不要做微调模型?我的结论是在实际落地的过程中绝大多数场景是不需要做的,所以今天主要跟大家分享一下什么是Fine-tuning、Fine-tuning的原理以及Fine-tuning的应用,以帮助大家在工作中更好的理解大模型微调。什
- CLIP-Adapter: Better Vision-Language Models with Feature Adapters
Tsukinousag
对比语言图像预训练(CLIP)虽然prompt-tuning用于textualinputs,但是建议CLIPAdapter在视觉或语言分支上使用功能适配器进行fine-tuneCLIPAdapter采用了一个额外的瓶颈层来学习新的特征,并将剩余的特征与原始的预训练特征进行混合。为了更好地适应vision语言模型,使用功能适配器,而不是快速调整1.ClassifierWeightGeneration
- MasaCtrl:Tuning-free mutual self-attention control for consistent image synthesis and editing
Kun Li
图像视频生成大模型stablediffusion
https://github.com/TencentARC/MasaCtrl/issues/13https://github.com/TencentARC/MasaCtrl/issues/13QuestionaboutMask·Issue#31·TencentARC/MasaCtrl·GitHub
- Code Llama: Open Foundation Models for Code论文阅读
yang_daxia
大模型llamacodellama
整体介绍CodeLlama发布了3款模型,包括基础模型、Python专有模型和指令跟随模型,参数量分别为7B、13B、34B和70B。这些模型在长达16ktokens的序列上训练。都是基于Llama2。作者针对infilling(FIM)、长上下文、指令专门做了微调long-contextfine-tuning(LCFT).codellama细节CodeLlama模型家族初始化:所有CodeLla
- 大模型18:微调大模型方法PEFT(LoRA等) — 训练 “ChatGLM2“ 项目
bluewelkin
大模型
微调大模型的方法之一是PEFT(Parameter-EfficientFine-Tuning),其中包括LoRA(Low-RankAdaptation)等技术。PEFT方法能够在不显著增加计算资源消耗的情况下,微调大模型,从而适应特定任务。这种方法特别适用于像“ChatGLM2”这样的预训练大模型。什么是PEFT(Parameter-EfficientFine-Tuning)?PEFT是一种优化微
- 大模型19:微调大模型方法
bluewelkin
大模型
有监督微调(SFT)、奖励模型(RM)训练,以及基于人类反馈的强化学习(RLHF)训练1.有监督微调(SFT-SupervisedFine-Tuning)数据处理数据收集:首先,需要收集大量的对话数据。这些数据通常包括人工标注的问答对,或者从已有的高质量对话系统中获取的数据集。数据预处理:对收集的数据进行清洗、标注和格式化。预处理包括移除噪音数据、分词、生成模型输入输出格式等。模型训练模型初始化:
- 大模型微调方法总结:LoRA、Adapter、Prefix-tuning、P-tuning、Prompt-tuning
百度_开发者中心
prompt人工智能大模型
随着深度学习技术的不断发展,大型预训练模型已成为许多任务的重要工具。然而,微调(finetuning)这些大模型以适应特定任务是一个复杂且计算密集型的过程。本文将重点介绍五种不同的微调方法:LoRA、Adapter、Prefix-tuning、P-tuning和Prompt-tuning,并对它们进行总结。LoRA(LearnedRepresentationsforFinetuning)LoRA是
- Prompt-Tuning:大模型微调技术
百度_开发者中心
prompt自然语言处理大模型
随着深度学习技术的不断发展,大模型(如GPT、BERT等)在各种自然语言处理(NLP)任务中取得了显著的成功。然而,训练和部署大模型需要大量的计算资源和时间,这限制了其在一些资源有限场景中的应用。为了解决这个问题,研究人员提出了各种大模型微调技术,以减少模型的大小和计算复杂度,同时保持模型的性能。本文将重点介绍一些常见的大模型微调技术,包括Adapter-Tuning、Prefix-Tuning、
- 大模型微调技术(Adapter-Tuning、Prefix-Tuning、Prompt-Tuning(P-Tuning)、P-Tuning v2、LoRA)_adapter微调 p tuning
Cc不爱吃洋葱
prompt
2022年11月30日,ChatGPT发布至今,国内外不断涌现出了不少大模型,呈现“百模大战”的景象,比如ChatGLM-6B、LLAMA、Alpaca等模型及在此模型基础上进一步开发的特定领域的大模型。今年3月15日,GPT-4发布后,也出现了一些多模态的大模型,比如百度的文心一言、讯飞星火认知大模型等等。要想训练一个针对特定领域的大模型,如果采用全量参数微调(FullParameterFutu
- Rocksdb Tuning
MOONICK
数据库
Rocksdb配置选项尤其繁多,想要获得真正的高性能,需要进行详细的调优,这是项复杂的工作,需要在实践中积累经验:https://www.jianshu.com/p/8e0018b6a8b6https://cloud.tencent.com/developer/article/2329992调优RocksDB通常就是在三个amplification之间做取舍:Writeamplification-
- 大模型应用中什么是SFT(监督微调)?
Chauvin912
大模型语言模型深度学习算法
大模型应用中什么是SFT(监督微调)?一、SFT的基本概念监督微调(SupervisedFine-Tuning,SFT)是对已经预训练的模型进行特定任务的训练,以提高其在该任务上的表现。预训练模型通常在大量通用数据上进行训练,学到广泛的语言知识和特征。在SFT过程中,利用特定任务的数据,对模型进行进一步调整,使其更适合该任务。二、SFT的原理SFT的过程可以分为以下几个步骤:预训练模型:在大规模通
- AI推介-大语言模型LLMs论文速览(arXiv方向):2024.02.20-2024.02.25
小小帅AIGC
LLMs论文时报人工智能语言模型深度学习LLM大语言模型论文推送
论文目录~1.Zero-shotcross-lingualtransferininstructiontuningoflargelanguagemodel2.ScalingEfficientLLMs3.LLM-DA:DataAugmentationviaLargeLanguageModelsforFew-ShotNamedEntityRecognition4.WhoseLLMisitAnyway?L
- AI推介-大语言模型LLMs论文速览(arXiv方向):2024.02.25-2024.03.01
小小帅AIGC
LLMs论文时报人工智能语言模型自然语言处理LLM大语言模型深度学习论文推送
论文目录~1.ArithmeticControlofLLMsforDiverseUserPreferences:DirectionalPreferenceAlignmentwithMulti-ObjectiveRewards2.KeepingLLMsAlignedAfterFine-tuning:TheCrucialRoleofPromptTemplates3.Meta-TaskPrompting
- 大模型训练——PEFT与LORA介绍
MarkHD
人工智能深度学习机器学习
大模型训练中的PEFT(Parameter-EfficientFine-Tuning)与LoRA(Low-RankAdaptation)是两种重要的技术,它们在大型预训练模型的应用中发挥着重要作用。首先,让我们来了解一下PEFT。PEFT是一种参数高效的微调技术,由Huggingface发布。这种方法的核心思想是仅微调少量(额外)模型参数,同时冻结预训练LLM的大部分参数。这样做的好处是大大降低了
- 学习笔记:使用 Amazon Bedrock 进行图像生成
AmazonBedrock全新发布在2023年的亚马逊云科技re:Invent全球云计算大会上,最令人瞩目的一项更新莫过于AmazonBedrock的全新升级。亚马逊云科技此次为其大模型托管服务引入了Fine-tuning、Agents、KnowledgeBases和Guardrails等一系列创新功能。这些功能的加入意味着客户现在能以更加高效、智能和安全的方式构建各种应用,标志着亚马逊云科技在推
- 预训练和微调在迁移学习中的作用
一条小小yu
迁移学习人工智能机器学习
在机器学习和深度学习中,"pre-training"(预训练)和"fine-tuning"(微调)是两个常见且重要的概念,它们通常在迁移学习场景中使用,以提高模型在特定任务上的性能。预训练(Pre-training)预训练是指在一个大型且通常与目标任务相关但不完全相同的数据集上训练模型的过程。这个阶段的目的是让模型学习到一些通用的特征或知识,这些特征或知识可以帮助模型在后续的特定任务上表现更好。预
- 大模型微调大杂烩知识总结
lichunericli
LLM人工智能语言模型
1.前缀微调(Prefix-Tuning)前缀微调是一种针对预训练模型的微调方法,通过在模型输入前添加特定任务相关的连续前缀表示,从而引导模型生成适应特定任务的输出。在微调过程中,只更新前缀表示的参数,而预训练模型的参数保持不变。微调方法:首先,为每个任务设计一个可学习的前缀表示。然后,将这个前缀表示与输入序列进行拼接,输入到预训练模型中。最后,通过优化前缀表示的参数,使得模型能够生成适应特定任务
- Prompt Tuning:深度解读一种新的微调范式
lichunericli
LLM人工智能语言模型prompt
阅读该博客,您将系统地掌握如下知识点:什么是预训练语言模型?什么是prompt?为什么要引入prompt?相比传统fine-tuning有什么优势?自20年底开始,prompt的发展历程,哪些经典的代表方法?面向不同种类NLP任务,prompt如何选择和设计?面向超大规模模型,如何借助prompt进行参数有效性训练?面向GPT3,什么是In-ContextLearning?什么是Chain-Of-
- ACK Timeout 相关论文
小超超爱超超
论文中提到了ACKTimeout《AReal-TimeUpdatingAlgorithmofRTS-CTSThresholdtoEnhanceEDCAMACPerformanceinIEEE802.11eWirelessLANs》Timeout论文中《RTSThresholdSelf-TuningAlgorithmBasedonDelayAnalysison802.11DCF》提到冲突时间:
- 大模型推理优化实践:KV cache 复用与投机采样
阿里技术
RTP-LLM大模型KVcache推理优化投机采样
作者:米基一、背景RTP-LLM是阿里巴巴大模型预测团队开发的大模型推理加速引擎,作为一个高性能的大模型推理解决方案,它已被广泛应用于阿里内部。该引擎与当前广泛使用的多种主流模型兼容,并通过采用高性能的CUDA算子来实现了如PagedAttention和ContinuousBatching等多项优化措施。RTP-LLM还支持包括多模态、LoRA、P-Tuning、以及WeightOnly动态量化等
- 大语言模型ChatGLM + P-Tuning微调实践
North_D
AI人工智能人工智能自然语言处理chatgptnlptransformer深度学习机器学习
大语言模型ChatGLM+P-Tuning微调实践文章目录大语言模型ChatGLM+P-Tuning微调实践LLM微调基础本次实践环境说明ChatGLM部署以及激活conda环境安装依赖禁用W&B训练数据集、测试数据集准备微调参数调整(train.sh\evaluate.sh)参数说明备查训练推理验证可能会遇到的问题及解决LLM微调基础LLM微调可以对原有预模型进行专业领域知识的训练,相关领域知识
- iOS http封装
374016526
ios服务器交互http网络请求
程序开发避免不了与服务器的交互,这里打包了一个自己写的http交互库。希望可以帮到大家。
内置一个basehttp,当我们创建自己的service可以继承实现。
KuroAppBaseHttp *baseHttp = [[KuroAppBaseHttp alloc] init];
[baseHttp setDelegate:self];
[baseHttp
- lolcat :一个在 Linux 终端中输出彩虹特效的命令行工具
brotherlamp
linuxlinux教程linux视频linux自学linux资料
那些相信 Linux 命令行是单调无聊且没有任何乐趣的人们,你们错了,这里有一些有关 Linux 的文章,它们展示着 Linux 是如何的有趣和“淘气” 。
在本文中,我将讨论一个名为“lolcat”的小工具 – 它可以在终端中生成彩虹般的颜色。
何为 lolcat ?
Lolcat 是一个针对 Linux,BSD 和 OSX 平台的工具,它类似于 cat 命令,并为 cat
- MongoDB索引管理(1)——[九]
eksliang
mongodbMongoDB管理索引
转载请出自出处:http://eksliang.iteye.com/blog/2178427 一、概述
数据库的索引与书籍的索引类似,有了索引就不需要翻转整本书。数据库的索引跟这个原理一样,首先在索引中找,在索引中找到条目以后,就可以直接跳转到目标文档的位置,从而使查询速度提高几个数据量级。
不使用索引的查询称
- Informatica参数及变量
18289753290
Informatica参数变量
下面是本人通俗的理解,如有不对之处,希望指正 info参数的设置:在info中用到的参数都在server的专门的配置文件中(最好以parma)结尾 下面的GLOBAl就是全局的,$开头的是系统级变量,$$开头的变量是自定义变量。如果是在session中或者mapping中用到的变量就是局部变量,那就把global换成对应的session或者mapping名字。
[GLOBAL] $Par
- python 解析unicode字符串为utf8编码字符串
酷的飞上天空
unicode
php返回的json字符串如果包含中文,则会被转换成\uxx格式的unicode编码字符串返回。
在浏览器中能正常识别这种编码,但是后台程序却不能识别,直接输出显示的是\uxx的字符,并未进行转码。
转换方式如下
>>> import json
>>> q = '{"text":"\u4
- Hibernate的总结
永夜-极光
Hibernate
1.hibernate的作用,简化对数据库的编码,使开发人员不必再与复杂的sql语句打交道
做项目大部分都需要用JAVA来链接数据库,比如你要做一个会员注册的 页面,那么 获取到用户填写的 基本信后,你要把这些基本信息存入数据库对应的表中,不用hibernate还有mybatis之类的框架,都不用的话就得用JDBC,也就是JAVA自己的,用这个东西你要写很多的代码,比如保存注册信
- SyntaxError: Non-UTF-8 code starting with '\xc4'
随便小屋
python
刚开始看一下Python语言,传说听强大的,但我感觉还是没Java强吧!
写Hello World的时候就遇到一个问题,在Eclipse中写的,代码如下
'''
Created on 2014年10月27日
@author: Logic
'''
print("Hello World!");
运行结果
SyntaxError: Non-UTF-8
- 学会敬酒礼仪 不做酒席菜鸟
aijuans
菜鸟
俗话说,酒是越喝越厚,但在酒桌上也有很多学问讲究,以下总结了一些酒桌上的你不得不注意的小细节。
细节一:领导相互喝完才轮到自己敬酒。敬酒一定要站起来,双手举杯。
细节二:可以多人敬一人,决不可一人敬多人,除非你是领导。
细节三:自己敬别人,如果不碰杯,自己喝多少可视乎情况而定,比如对方酒量,对方喝酒态度,切不可比对方喝得少,要知道是自己敬人。
细节四:自己敬别人,如果碰杯,一
- 《创新者的基因》读书笔记
aoyouzi
读书笔记《创新者的基因》
创新者的基因
创新者的“基因”,即最具创意的企业家具备的五种“发现技能”:联想,观察,实验,发问,建立人脉。
第一部分破坏性创新,从你开始
第一章破坏性创新者的基因
如何获得启示:
发现以下的因素起到了催化剂的作用:(1) -个挑战现状的问题;(2)对某项技术、某个公司或顾客的观察;(3) -次尝试新鲜事物的经验或实验;(4)与某人进行了一次交谈,为他点醒
- 表单验证技术
百合不是茶
JavaScriptDOM对象String对象事件
js最主要的功能就是验证表单,下面是我对表单验证的一些理解,贴出来与大家交流交流 ,数显我们要知道表单验证需要的技术点, String对象,事件,函数
一:String对象;通常是对字符串的操作;
1,String的属性;
字符串.length;表示该字符串的长度;
var str= "java"
- web.xml配置详解之context-param
bijian1013
javaservletweb.xmlcontext-param
一.格式定义:
<context-param>
<param-name>contextConfigLocation</param-name>
<param-value>contextConfigLocationValue></param-value>
</context-param>
作用:该元
- Web系统常见编码漏洞(开发工程师知晓)
Bill_chen
sqlPHPWebfckeditor脚本
1.头号大敌:SQL Injection
原因:程序中对用户输入检查不严格,用户可以提交一段数据库查询代码,根据程序返回的结果,
获得某些他想得知的数据,这就是所谓的SQL Injection,即SQL注入。
本质:
对于输入检查不充分,导致SQL语句将用户提交的非法数据当作语句的一部分来执行。
示例:
String query = "SELECT id FROM users
- 【MongoDB学习笔记六】MongoDB修改器
bit1129
mongodb
本文首先介绍下MongoDB的基本的增删改查操作,然后,详细介绍MongoDB提供的修改器,以完成各种各样的文档更新操作 MongoDB的主要操作
show dbs 显示当前用户能看到哪些数据库
use foobar 将数据库切换到foobar
show collections 显示当前数据库有哪些集合
db.people.update,update不带参数,可
- 提高职业素养,做好人生规划
白糖_
人生
培训讲师是成都著名的企业培训讲师,他在讲课中提出的一些观点很新颖,在此我收录了一些分享一下。注:讲师的观点不代表本人的观点,这些东西大家自己揣摩。
1、什么是职业规划:职业规划并不完全代表你到什么阶段要当什么官要拿多少钱,这些都只是梦想。职业规划是清楚的认识自己现在缺什么,这个阶段该学习什么,下个阶段缺什么,又应该怎么去规划学习,这样才算是规划。
- 国外的网站你都到哪边看?
bozch
技术网站国外
学习软件开发技术,如果没有什么英文基础,最好还是看国内的一些技术网站,例如:开源OSchina,csdn,iteye,51cto等等。
个人感觉如果英语基础能力不错的话,可以浏览国外的网站来进行软件技术基础的学习,例如java开发中常用的到的网站有apache.org 里面有apache的很多Projects,springframework.org是spring相关的项目网站,还有几个感觉不错的
- 编程之美-光影切割问题
bylijinnan
编程之美
package a;
public class DisorderCount {
/**《编程之美》“光影切割问题”
* 主要是两个问题:
* 1.数学公式(设定没有三条以上的直线交于同一点):
* 两条直线最多一个交点,将平面分成了4个区域;
* 三条直线最多三个交点,将平面分成了7个区域;
* 可以推出:N条直线 M个交点,区域数为N+M+1。
- 关于Web跨站执行脚本概念
chenbowen00
Web安全跨站执行脚本
跨站脚本攻击(XSS)是web应用程序中最危险和最常见的安全漏洞之一。安全研究人员发现这个漏洞在最受欢迎的网站,包括谷歌、Facebook、亚马逊、PayPal,和许多其他网站。如果你看看bug赏金计划,大多数报告的问题属于 XSS。为了防止跨站脚本攻击,浏览器也有自己的过滤器,但安全研究人员总是想方设法绕过这些过滤器。这个漏洞是通常用于执行cookie窃取、恶意软件传播,会话劫持,恶意重定向。在
- [开源项目与投资]投资开源项目之前需要统计该项目已有的用户数
comsci
开源项目
现在国内和国外,特别是美国那边,突然出现很多开源项目,但是这些项目的用户有多少,有多少忠诚的粉丝,对于投资者来讲,完全是一个未知数,那么要投资开源项目,我们投资者必须准确无误的知道该项目的全部情况,包括项目发起人的情况,项目的维持时间..项目的技术水平,项目的参与者的势力,项目投入产出的效益.....
- oracle alert log file(告警日志文件)
daizj
oracle告警日志文件alert log file
The alert log is a chronological log of messages and errors, and includes the following items:
All internal errors (ORA-00600), block corruption errors (ORA-01578), and deadlock errors (ORA-00060)
- 关于 CAS SSO 文章声明
denger
SSO
由于几年前写了几篇 CAS 系列的文章,之后陆续有人参照文章去实现,可都遇到了各种问题,同时经常或多或少的收到不少人的求助。现在这时特此说明几点:
1. 那些文章发表于好几年前了,CAS 已经更新几个很多版本了,由于近年已经没有做该领域方面的事情,所有文章也没有持续更新。
2. 文章只是提供思路,尽管 CAS 版本已经发生变化,但原理和流程仍然一致。最重要的是明白原理,然后
- 初二上学期难记单词
dcj3sjt126com
englishword
lesson 课
traffic 交通
matter 要紧;事物
happy 快乐的,幸福的
second 第二的
idea 主意;想法;意见
mean 意味着
important 重要的,重大的
never 从来,决不
afraid 害怕 的
fifth 第五的
hometown 故乡,家乡
discuss 讨论;议论
east 东方的
agree 同意;赞成
bo
- uicollectionview 纯代码布局, 添加头部视图
dcj3sjt126com
Collection
#import <UIKit/UIKit.h>
@interface myHeadView : UICollectionReusableView
{
UILabel *TitleLable;
}
-(void)setTextTitle;
@end
#import "myHeadView.h"
@implementation m
- N 位随机数字串的 JAVA 生成实现
FX夜归人
javaMath随机数Random
/**
* 功能描述 随机数工具类<br />
* @author FengXueYeGuiRen
* 创建时间 2014-7-25<br />
*/
public class RandomUtil {
// 随机数生成器
private static java.util.Random random = new java.util.R
- Ehcache(09)——缓存Web页面
234390216
ehcache页面缓存
页面缓存
目录
1 SimplePageCachingFilter
1.1 calculateKey
1.2 可配置的初始化参数
1.2.1 cach
- spring中少用的注解@primary解析
jackyrong
primary
这次看下spring中少见的注解@primary注解,例子
@Component
public class MetalSinger implements Singer{
@Override
public String sing(String lyrics) {
return "I am singing with DIO voice
- Java几款性能分析工具的对比
lbwahoo
java
Java几款性能分析工具的对比
摘自:http://my.oschina.net/liux/blog/51800
在给客户的应用程序维护的过程中,我注意到在高负载下的一些性能问题。理论上,增加对应用程序的负载会使性能等比率的下降。然而,我认为性能下降的比率远远高于负载的增加。我也发现,性能可以通过改变应用程序的逻辑来提升,甚至达到极限。为了更详细的了解这一点,我们需要做一些性能
- JVM参数配置大全
nickys
jvm应用服务器
JVM参数配置大全
/usr/local/jdk/bin/java -Dresin.home=/usr/local/resin -server -Xms1800M -Xmx1800M -Xmn300M -Xss512K -XX:PermSize=300M -XX:MaxPermSize=300M -XX:SurvivorRatio=8 -XX:MaxTenuringThreshold=5 -
- 搭建 CentOS 6 服务器(14) - squid、Varnish
rensanning
varnish
(一)squid
安装
# yum install httpd-tools -y
# htpasswd -c -b /etc/squid/passwords squiduser 123456
# yum install squid -y
设置
# cp /etc/squid/squid.conf /etc/squid/squid.conf.bak
# vi /etc/
- Spring缓存注解@Cache使用
tom_seed
spring
参考资料
http://www.ibm.com/developerworks/cn/opensource/os-cn-spring-cache/
http://swiftlet.net/archives/774
缓存注解有以下三个:
@Cacheable @CacheEvict @CachePut
- dom4j解析XML时出现"java.lang.noclassdeffounderror: org/jaxen/jaxenexception"错误
xp9802
java.lang.NoClassDefFoundError: org/jaxen/JaxenExc
关键字: java.lang.noclassdeffounderror: org/jaxen/jaxenexception
使用dom4j解析XML时,要快速获取某个节点的数据,使用XPath是个不错的方法,dom4j的快速手册里也建议使用这种方式
执行时却抛出以下异常:
Exceptio