- 使用LoRA微调LLaMA3
想胖的壮壮
深度学习人工智能
使用LoRA微调LLaMA3的案例案例概述在这个案例中,我们将使用LoRA微调LLaMA3模型,进行一个文本分类任务。我们将使用HuggingFace的Transformers库来完成这个过程。步骤一:环境搭建安装必要的Python包pipinstalltransformersdatasetstorch配置GPU环境确保你的环境中配置了CUDA和cuDNN,并验证GPU是否可用。importtor
- 基于MATLAB的遗传算法优化BP神经网络航空发动机寿命预测
默默科研仔
发动机寿命预测matlab神经网络发动机寿命预测
基于MATLAB的遗传算法优化BP神经网络航空发动机寿命预测一、基本原理与优化框架遗传算法(GA)与BP神经网络的结合(GA-BP)主要通过全局搜索优化BP神经网络的初始权值和阈值,解决传统BP易陷入局部最优、收敛速度慢的问题。具体优化形式包括:初始参数优化:GA仅优化初始参数,后续仍依赖BP反向传播微调。全局参数优化:GA直接优化全部网络参数,无需BP参与。混合优化:GA优化初始参数后,再通过B
- 五、AIGC大模型_05模型的vLLM部署与LangChain调用
学不会lostfound
AI人工智能langchainopenaivLLMAIGC
0、概述要搭建一个大模型应用服务,通常需要包含以下五层结构,即:基础环境、模型层、推理层、对外接口、外挂应用在了解了模型的微调训练之后,本文将以vLLM、OpenAI、LangChain为例,介绍大模型的推理部署以及对外接口开放调用1、vLLM1.1定义vLLM(VirtualLargeLanguageModel)是一个开源的大语言模型高速推理框架,由加州大学伯克利分校的LMSYS组织开发,它旨在
- LLaMA-Factory 微调训练
zsh_abc
llamadocker深度学习人工智能pythonlinux
LLaMA-Factory微调训练该框架功能,标注-微调-导出-合并-部署,一整条流程都有,而且训练时消耗的gpu算力也会小一些一,安装(推荐在linux中训练,win可以用wsl+docker)gitclonehttps://github.com/hiyouga/LLaMA-Factory.gitcdLLaMA-Factory#根据cuda版本选择安装pytoch版本pip3installtor
- llama-factory微调
AI Echoes
深度学习人工智能机器学习deepseek
大模型微调实操--llama-factoryllama-factory环境安装前置准备英伟达显卡驱动更新地址下载NVIDIA官方驱动|NVIDIAcuda下载安装地址CUDAToolkit12.2Downloads|NVIDIADeveloperpytorch下载安装地址PreviousPyTorchVersions|PyTorchllama-factory项目和文档地址https://githu
- 从零学习大模型(六)-----LoRA(上)
懒惰才能让科技进步
大语言模型gpt-3人工智能深度学习chatgpt语言模型
LoRA简介LoRA(Low-RankAdaptation)是一种参数高效的微调技术,旨在降低微调大规模预训练模型的存储和计算成本。**其核心思想是通过对模型的特定参数进行低秩分解,仅对少量附加参数进行训练,从而完成任务适应,而无需更新整个模型的权重。**这种方法通过引入额外的低秩矩阵来适应新的任务,保持了预训练模型的核心知识,使其更具灵活性和高效性。在大规模语言模型的实际应用中,微调需要耗费巨大
- 部署微调框架LLaMA-Factory
高原魔女
llama
LLaMAFactory1.我们在ChatGLM3的github官方页面上能看到对LLaMA-Factory的推荐2.LLaMAFactorygithub链接hiyouga/LLaMA-Factory:UnifyEfficientFine-Tuningof100+LLMs(github.com)步骤一:安装LLaMAFactory进入DSW开发环境。登录PAI控制台。在页面左上方,选择DSW实例所
- 【大模型实战篇】使用GPTQ量化QwQ-32B微调后的推理模型
源泉的小广场
大模型大模型量化推理模型量化量化qwq32bgptq量化大模型推理性能调优
1.量化背景之所以做量化,就是希望在现有的硬件条件下,提升性能。量化能将模型权重从高精度(如FP32)转换为低精度(如INT8/FP16),内存占用可减少50%~75%。低精度运算(如INT8)在GPU等硬件上计算效率更高,推理速度可提升2~4倍。我们的任务是,将QwQ-32B微调后的推理模型,也就是bf16的精度,通过量化,压缩到int4。关于QwQ-32B微调,可以参考《利用ms-swift微
- LORA 微调大模型:从入门到入土
大模型.
人工智能开发语言gptagi架构大模型
在当今人工智能领域,预训练的大模型已经成为推动技术发展的核心力量。然而,在实际项目中,我们往往会发现这些预训练模型虽然强大,但直接就去应用于一些特定的任务时,往往无法完全满足需求。这时,微调就成为了必不可少的一步。而在众多微调方法中,LORA全名(Low-RankAdaptation)以高效性和实用性,逐渐成为了许多开发者训练模型的首选项。作为一名小有经验的咸鱼开发者,我深知在实际项目中高效的进行
- 【源码阅读】olmocr中的prompts
海绵波波107
#大模型pdf
目录一、PDF转换为训练数据二、使用微调模型三、比较差异总结一、PDF转换为训练数据让ChatGPT-4将文档(如PDF文件)转换为结构化的“银级”训练数据(silvertrainingdata)#Thisisthepromptweuseforgettingchatgpt4otoconvertdocumentsintooursilvertrainingdatadefbuild_openai_sil
- PlanLLM: 首个支持开放词汇与封闭集任务的跨模态视频程序规划框架
数据集
2025年1月7号,由杨德杰、赵子敬、刘洋联合提出PlanLLM,一种基于可微调大型语言模型(LLM)的跨模态联合学习框架,用于解决视频程序规划任务。通过引入LLM增强规划模块和互信息最大化模块,PlanLLM突破了现有方法依赖封闭集标签和固定语义描述的限制,实现了对新步骤和任务的泛化能力。该方法在COIN、CrossTask、NIV三个基准数据集上取得显著性能提升,展现了其在弱监督学习中的有效性
- 从零开始大模型开发与微调:PyCharm的下载与安装
AI天才研究院
AI大模型企业级应用开发实战AI大模型应用入门实战与进阶DeepSeekR1&大数据AI人工智能大模型计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
从零开始大模型开发与微调:PyCharm的下载与安装1.背景介绍随着人工智能和深度学习技术的不断发展,大型语言模型(LargeLanguageModels,LLMs)已经成为当前最引人注目的研究热点之一。LLMs能够在各种自然语言处理任务上展现出惊人的性能,例如机器翻译、文本生成、问答系统等。PyTorch和TensorFlow等深度学习框架为训练和微调大型语言模型提供了强大的支持。PyCharm
- AI技术学习笔记系列001:FastLanguageModel.get_peft_model 函数各参数的详细解释
新说一二
人工智能学习笔记
以下是关于代码中FastLanguageModel.get_peft_model函数各参数的详细解释,以及企业实际微调时的选择考量:参数详解及对微调的影响1.r=32(秩)作用:控制LoRA适配器的低秩矩阵的维度(秩),直接影响可训练参数数量。影响:r越大:适配器表达能力更强,能捕捉更复杂的任务特征,但可能导致过拟合(尤其数据量少时),训练时间和显存占用增加。r越小:参数量少,训练更快,显存占用低
- 大模型巅峰对决:DeepSeek vs GPT-4/Claude/PaLM-2 全面对比与核心差异揭秘
accurater
机器学习科技人工智能
喜欢可以到主页订阅专栏目录技术架构对比性能表现与基准测试多模态与多语言能力推理效率与成本分析开源生态与行业适配应用场景与案例研究未来发展与技术趋势代码实现与调用示例1.技术架构对比DeepSeek:动态稀疏激活的混合专家系统(MoE)动态路由机制:每个输入仅激活约5.5%的参数(如6710亿参数中激活370亿),显著降低计算能耗40%。模块化设计:支持金融、医疗等领域的即插即用式微调,行业适配能力
- 大语言模型微调和大语言模型应用区别
AI Echoes
深度学习人工智能自然语言处理
大语言模型微调和大语言模型应用区别微调与应用LLM的区别微调大语言模型(LLM)是指取一个已经预训练好的模型,进一步用特定数据集训练,使其更好地适应某个任务或领域,比如为医疗聊天机器人优化医疗术语理解。应用LLM则是直接使用这些预训练模型来完成任务,如通过提示生成文本或回答问题,无需更改模型本身。研究表明,微调适合需要领域专精的任务,而应用更适合通用任务,效果因模型和任务复杂性而异。学习所需技术栈
- LLaMA-Factory 训练数据默认使用 instruction、input、output 三个 key
背太阳的牧羊人
模型微调llama人工智能大模型微调
在LLaMA-Factory进行SFT(Directivesupervisionfine-tuning指令监督微调)时,训练数据的格式非常重要,因为大模型依赖标准化的数据结构来学习指令-响应模式。identity.json文件的数据采用了“instruction”、“input”、“output”这三个key,它们的作用如下:Key作用示例“instruction”代表用户给AI的指令(问题或任务
- 从零开始大模型开发与微调:PyTorch 2.0深度学习环境搭建
AI智能涌现深度研究
DeepSeekR1&大数据AI人工智能Python入门实战计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
从零开始大模型开发与微调:PyTorch2.0深度学习环境搭建作者:禅与计算机程序设计艺术/ZenandtheArtofComputerProgramming1.背景介绍1.1问题的由来随着深度学习在各个领域的广泛应用,大模型开发与微调成为了当前研究的热点。大模型能够学习到丰富的知识,并在各个下游任务上取得优异的性能。然而,大模型开发与微调需要强大的计算资源和专业的知识背景,这对于许多初学者和研究
- Deepseek-R1大模型微调实战技术深度解析
大势下的牛马
搭建本地gptDeepseek大模型评测微调
一、Deepseek-R1架构特性与微调适配性分析1.1核心架构创新对微调的影响Deepseek-R1基于Deepseek-V3-Base架构,通过MoE(Mixture-of-Experts)与MLA(Multi-HeadLatentAttention)的协同设计,实现了参数规模与计算效率的平衡。其6710亿参数总量中,每个token仅激活37B参数的机制,使得微调过程中可针对不同任务动态调整专
- 大模型工程师学习日记(十五):Hugging Face 模型微调训练(基于 BERT 的中文评价情感分析)
MMMMMMMay Love Code
学习bert人工智能深度学习自然语言处理全量微调
1.datasets库核心方法1.1.列出数据集使用datasets库,你可以轻松列出所有HuggingFace平台上的数据集:fromdatasetsimportlist_datasets#列出所有数据集all_datasets=list_datasets()print(all_datasets)1.2.加载数据集你可以通过load_dataset方法加载任何数据集:fromdatasetsim
- (大模型微调大模型学习路线大模型入门)_大模型 学习,吹爆!2025最详细的大模型学习路线已整理!手把手带你高效入门,大模型论文全打通!
大模型老炮
学习人工智能大模型学习AI大模型大模型微调大模型教程
一、初聊大模型1、什么是大模型?大模型,通常指的是在人工智能领域中的大型预训练模型。你可以把它们想象成非常聪明的大脑,这些大脑通过阅读大量的文本、图片、声音等信息,学习到了世界的知识。这些大脑(模型)非常大,有的甚至有几千亿个参数,这些参数就像是大脑中的神经元,它们通过复杂的计算来理解和生成语言、图片等。举个例子,你可能听说过GPT-3,它就是一个非常著名的大模型。GPT-3可以通过理解你提出的问
- 使用 Ollama 对 LLaMA-2 模型进行微调的详细指南
软件职业规划
llama
1.环境准备在开始微调之前,需要确保硬件和软件环境满足要求。合适的环境配置可以显著提高微调效率,并减少潜在的错误。1.1硬件要求大语言模型的微调需要强大的计算能力,尤其是GPU资源。以下是推荐的硬件配置:GPU:建议使用至少NVIDIARTX3090或更高配置的GPU。如果条件允许,使用多卡GPU(如RTX4090或A100)可以显著加快训练速度。对于更大的模型(如LLaMA-213B或33B),
- 长文本、知识库、微调对比
司南锤
程序院学习人工智能
长文本、知识库和微调是三种不同的技术手段,用于增强大模型的能力。1.长文本处理•核心目标:理解和生成长篇内容。•优点:•连贯性强,适合处理需要深入理解背景信息的任务。•适合复杂任务,如长篇阅读理解或文章生成。•缺点:•资源消耗大,处理长文本需要更多的计算资源和内存。•受上下文长度限制,可能会丢失一些细节信息。•适用场景:•写作助手:生成长篇博客、报告或故事。•阅读理解:处理长篇阅读理解任务,如学术
- 增量预训练和微调的区别
做个天秤座的程序猿
大模型原理webkit
文章目录前言一、增量预训练和微调的区别二、代码示例1.增量预训练示例2.微调示例3.代码的区别三、数据格式1.增量预训练2.微调3.示例4.小结四、数据量要求1.指导原则2.示例3.实际操作中的考虑4.小结前言增量预训练是一种在现有预训练模型的基础上,通过引入新的数据或任务来进一步训练模型的方法。这种方法的主要目的是在不从头开始训练模型的情况下,利用新数据或特定领域的数据增强模型的能力和性能。增量
- 【Transformer-Hugging Face手册 07/10】 微调预训练模型
无水先生
人工智能高级阶段人工智能综合transformer深度学习人工智能
微调预训练模型-目录一、说明二、在本机PyTorch中微调预训练模型。2.1加载数据2.2训练2.2.1使用PyTorchTrainer进行训练2.3训练超参数2.4评价2.5训练类三、使用Keras训练TensorFlow模型3.1为Keras加载数据3.2将数据加载为tf.data.Dataset3.3数据加载器3.4优化器和学习率调度器3.5训练循环3.6评价四、结论一、说明 使用预训练模
- 基于LangChain-Chatchat实现的RAG-本地知识库的问答应用[5]-高阶实战微调
汀、人工智能
LLM工业级落地实践LLM技术汇总langchain人工智能大模型推理大模型微调p-tuningfastchatRAG
基于LangChain-Chatchat实现的RAG-本地知识库的问答应用[5]-高阶实战微调1.推荐的模型组合在默认的配置文件中,我们提供了以下模型组合LLM:Chatglm2-6bEmbeddingModels:m3e-baseTextSplitter:ChineseRecursiveTextSplitterKb_dataset:faiss我们推荐开发者根据自己的业务需求进行模型微调,如果不需
- 基于纯视觉的 GUI 代理的屏幕解析工具(OmniParser)
deepdata_cn
应用软件GUI
OmniParser是一款开源工具,可通过解析用户界面截图生成结构化数据,助力打造视觉驱动的GUI自动化代理,赋能跨平台交互。一、技术原理1.数据集构建:从流行网页和应用中提取数据,构建可交互图标检测数据集和图标描述数据集,为模型训练提供基础。2.检测模型:使用YOLOv8模型在可交互图标检测数据集上进行微调,能够识别和定位用户界面中的可交互区域,如按钮、图标等。3.描述模型:利用BLIP-v2模
- 大模型LLM基于PEFT的LoRA微调详细步骤---第一篇:模型下载篇
素雪风华
大模型下载Huggingface魔搭社区transformer
模型下载:HuggingFace官网:https://huggingface.co/----需要VPN魔搭社区:https://modelscope.cn/home----国内映射,不需要VPN写在篇始:国内关注方法一即可。其余几种都需要VPN,而且在服务器下载的速度有限~~。下一篇:微调详细流程以及环境...方法一:魔搭(modelscope)下载#需要安装pipinstallmodelscop
- 大语言模型微调和大语言模型应用的区别?
AI Echoes
深度学习人工智能机器学习
1.基本概念微调(Fine-tuning)定义:微调是指在预训练大语言模型的基础上,通过在特定领域或任务的数据上进一步训练,从而使模型在该特定任务上表现更优。目的:适应具体的任务需求,比如法律文书写作、医疗问答、金融分析等,使得模型能更好地理解和生成符合领域要求的内容。过程:通常涉及准备领域特定的数据集、设计合适的损失函数、调整超参数(例如学习率、批量大小等),以及选择冻结或解冻部分参数来更新模型
- 十分钟学会微调大语言模型
喝不喝奶茶丫
语言模型人工智能自然语言处理大模型大模型应用AI大模型微调
在之前的文章中,我分享了一些使用大语言模型开发应用的方法,也介绍了几个开源大语言模型的部署方式,有同学给我留言说想知道怎么训练自己的大语言模型,让它更贴合自己的业务场景。完整的大语言模型训练成本比较高昂,不是我们业余玩家能搞的,如果我们只是想在某个业务场景或者垂直的方面加强大模型的能力,可以进行微调训练。本文就来介绍一种大语言模型微调的方法,使用的工具是我最近在用的TextGenerationWe
- 大语言模型微调和大语言模型应用的区别?
AI Echoes
人工智能深度学习机器学习
大语言模型微调和大语言模型应用的区别?1.定义与目标微调(Fine-tuning)目标:调整预训练模型(如GPT、LLaMA、PaLM)的参数,使其适应特定任务或领域。核心:通过额外的训练(使用特定数据集)优化模型的性能,提升其在特定场景下的效果。例如:将通用模型微调为法律咨询、医疗诊断或金融分析的专业模型。应用(Application)目标:直接使用预训练或微调后的模型解决实际问题,无需修改模型
- [黑洞与暗粒子]没有光的世界
comsci
无论是相对论还是其它现代物理学,都显然有个缺陷,那就是必须有光才能够计算
但是,我相信,在我们的世界和宇宙平面中,肯定存在没有光的世界....
那么,在没有光的世界,光子和其它粒子的规律无法被应用和考察,那么以光速为核心的
&nbs
- jQuery Lazy Load 图片延迟加载
aijuans
jquery
基于 jQuery 的图片延迟加载插件,在用户滚动页面到图片之后才进行加载。
对于有较多的图片的网页,使用图片延迟加载,能有效的提高页面加载速度。
版本:
jQuery v1.4.4+
jQuery Lazy Load v1.7.2
注意事项:
需要真正实现图片延迟加载,必须将真实图片地址写在 data-original 属性中。若 src
- 使用Jodd的优点
Kai_Ge
jodd
1. 简化和统一 controller ,抛弃 extends SimpleFormController ,统一使用 implements Controller 的方式。
2. 简化 JSP 页面的 bind, 不需要一个字段一个字段的绑定。
3. 对 bean 没有任何要求,可以使用任意的 bean 做为 formBean。
使用方法简介
- jpa Query转hibernate Query
120153216
Hibernate
public List<Map> getMapList(String hql,
Map map) {
org.hibernate.Query jpaQuery = entityManager.createQuery(hql);
if (null != map) {
for (String parameter : map.keySet()) {
jp
- Django_Python3添加MySQL/MariaDB支持
2002wmj
mariaDB
现状
首先,
[email protected] 中默认的引擎为 django.db.backends.mysql 。但是在Python3中如果这样写的话,会发现 django.db.backends.mysql 依赖 MySQLdb[5] ,而 MySQLdb 又不兼容 Python3 于是要找一种新的方式来继续使用MySQL。 MySQL官方的方案
首先据MySQL文档[3]说,自从MySQL
- 在SQLSERVER中查找消耗IO最多的SQL
357029540
SQL Server
返回做IO数目最多的50条语句以及它们的执行计划。
select top 50
(total_logical_reads/execution_count) as avg_logical_reads,
(total_logical_writes/execution_count) as avg_logical_writes,
(tot
- spring UnChecked 异常 官方定义!
7454103
spring
如果你接触过spring的 事物管理!那么你必须明白 spring的 非捕获异常! 即 unchecked 异常! 因为 spring 默认这类异常事物自动回滚!!
public static boolean isCheckedException(Throwable ex)
{
return !(ex instanceof RuntimeExcep
- mongoDB 入门指南、示例
adminjun
javamongodb操作
一、准备工作
1、 下载mongoDB
下载地址:http://www.mongodb.org/downloads
选择合适你的版本
相关文档:http://www.mongodb.org/display/DOCS/Tutorial
2、 安装mongoDB
A、 不解压模式:
将下载下来的mongoDB-xxx.zip打开,找到bin目录,运行mongod.exe就可以启动服务,默
- CUDA 5 Release Candidate Now Available
aijuans
CUDA
The CUDA 5 Release Candidate is now available at http://developer.nvidia.com/<wbr></wbr>cuda/cuda-pre-production. Now applicable to a broader set of algorithms, CUDA 5 has advanced fe
- Essential Studio for WinRT网格控件测评
Axiba
JavaScripthtml5
Essential Studio for WinRT界面控件包含了商业平板应用程序开发中所需的所有控件,如市场上运行速度最快的grid 和chart、地图、RDL报表查看器、丰富的文本查看器及图表等等。同时,该控件还包含了一组独特的库,用于从WinRT应用程序中生成Excel、Word以及PDF格式的文件。此文将对其另外一个强大的控件——网格控件进行专门的测评详述。
网格控件功能
1、
- java 获取windows系统安装的证书或证书链
bewithme
windows
有时需要获取windows系统安装的证书或证书链,比如说你要通过证书来创建java的密钥库 。
有关证书链的解释可以查看此处 。
public static void main(String[] args) {
SunMSCAPI providerMSCAPI = new SunMSCAPI();
S
- NoSQL数据库之Redis数据库管理(set类型和zset类型)
bijian1013
redis数据库NoSQL
4.sets类型
Set是集合,它是string类型的无序集合。set是通过hash table实现的,添加、删除和查找的复杂度都是O(1)。对集合我们可以取并集、交集、差集。通过这些操作我们可以实现sns中的好友推荐和blog的tag功能。
sadd:向名称为key的set中添加元
- 异常捕获何时用Exception,何时用Throwable
bingyingao
用Exception的情况
try {
//可能发生空指针、数组溢出等异常
} catch (Exception e) {
 
- 【Kafka四】Kakfa伪分布式安装
bit1129
kafka
在http://bit1129.iteye.com/blog/2174791一文中,实现了单Kafka服务器的安装,在Kafka中,每个Kafka服务器称为一个broker。本文简单介绍下,在单机环境下Kafka的伪分布式安装和测试验证 1. 安装步骤
Kafka伪分布式安装的思路跟Zookeeper的伪分布式安装思路完全一样,不过比Zookeeper稍微简单些(不
- Project Euler
bookjovi
haskell
Project Euler是个数学问题求解网站,网站设计的很有意思,有很多problem,在未提交正确答案前不能查看problem的overview,也不能查看关于problem的discussion thread,只能看到现在problem已经被多少人解决了,人数越多往往代表问题越容易。
看看problem 1吧:
Add all the natural num
- Java-Collections Framework学习与总结-ArrayDeque
BrokenDreams
Collections
表、栈和队列是三种基本的数据结构,前面总结的ArrayList和LinkedList可以作为任意一种数据结构来使用,当然由于实现方式的不同,操作的效率也会不同。
这篇要看一下java.util.ArrayDeque。从命名上看
- 读《研磨设计模式》-代码笔记-装饰模式-Decorator
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.io.BufferedOutputStream;
import java.io.DataOutputStream;
import java.io.FileOutputStream;
import java.io.Fi
- Maven学习(一)
chenyu19891124
Maven私服
学习一门技术和工具总得花费一段时间,5月底6月初自己学习了一些工具,maven+Hudson+nexus的搭建,对于maven以前只是听说,顺便再自己的电脑上搭建了一个maven环境,但是完全不了解maven这一强大的构建工具,还有ant也是一个构建工具,但ant就没有maven那么的简单方便,其实简单点说maven是一个运用命令行就能完成构建,测试,打包,发布一系列功
- [原创]JWFD工作流引擎设计----节点匹配搜索算法(用于初步解决条件异步汇聚问题) 补充
comsci
算法工作PHP搜索引擎嵌入式
本文主要介绍在JWFD工作流引擎设计中遇到的一个实际问题的解决方案,请参考我的博文"带条件选择的并行汇聚路由问题"中图例A2描述的情况(http://comsci.iteye.com/blog/339756),我现在把我对图例A2的一个解决方案公布出来,请大家多指点
节点匹配搜索算法(用于解决标准对称流程图条件汇聚点运行控制参数的算法)
需要解决的问题:已知分支
- Linux中用shell获取昨天、明天或多天前的日期
daizj
linuxshell上几年昨天获取上几个月
在Linux中可以通过date命令获取昨天、明天、上个月、下个月、上一年和下一年
# 获取昨天
date -d 'yesterday' # 或 date -d 'last day'
# 获取明天
date -d 'tomorrow' # 或 date -d 'next day'
# 获取上个月
date -d 'last month'
#
- 我所理解的云计算
dongwei_6688
云计算
在刚开始接触到一个概念时,人们往往都会去探寻这个概念的含义,以达到对其有一个感性的认知,在Wikipedia上关于“云计算”是这么定义的,它说:
Cloud computing is a phrase used to describe a variety of computing co
- YII CMenu配置
dcj3sjt126com
yii
Adding id and class names to CMenu
We use the id and htmlOptions to accomplish this. Watch.
//in your view
$this->widget('zii.widgets.CMenu', array(
'id'=>'myMenu',
'items'=>$this-&g
- 设计模式之静态代理与动态代理
come_for_dream
设计模式
静态代理与动态代理
代理模式是java开发中用到的相对比较多的设计模式,其中的思想就是主业务和相关业务分离。所谓的代理设计就是指由一个代理主题来操作真实主题,真实主题执行具体的业务操作,而代理主题负责其他相关业务的处理。比如我们在进行删除操作的时候需要检验一下用户是否登陆,我们可以删除看成主业务,而把检验用户是否登陆看成其相关业务
- 【转】理解Javascript 系列
gcc2ge
JavaScript
理解Javascript_13_执行模型详解
摘要: 在《理解Javascript_12_执行模型浅析》一文中,我们初步的了解了执行上下文与作用域的概念,那么这一篇将深入分析执行上下文的构建过程,了解执行上下文、函数对象、作用域三者之间的关系。函数执行环境简单的代码:当调用say方法时,第一步是创建其执行环境,在创建执行环境的过程中,会按照定义的先后顺序完成一系列操作:1.首先会创建一个
- Subsets II
hcx2013
set
Given a collection of integers that might contain duplicates, nums, return all possible subsets.
Note:
Elements in a subset must be in non-descending order.
The solution set must not conta
- Spring4.1新特性——Spring缓存框架增强
jinnianshilongnian
spring4
目录
Spring4.1新特性——综述
Spring4.1新特性——Spring核心部分及其他
Spring4.1新特性——Spring缓存框架增强
Spring4.1新特性——异步调用和事件机制的异常处理
Spring4.1新特性——数据库集成测试脚本初始化
Spring4.1新特性——Spring MVC增强
Spring4.1新特性——页面自动化测试框架Spring MVC T
- shell嵌套expect执行命令
liyonghui160com
一直都想把expect的操作写到bash脚本里,这样就不用我再写两个脚本来执行了,搞了一下午终于有点小成就,给大家看看吧.
系统:centos 5.x
1.先安装expect
yum -y install expect
2.脚本内容:
cat auto_svn.sh
#!/bin/bash
- Linux实用命令整理
pda158
linux
0. 基本命令 linux 基本命令整理
1. 压缩 解压 tar -zcvf a.tar.gz a #把a压缩成a.tar.gz tar -zxvf a.tar.gz #把a.tar.gz解压成a
2. vim小结 2.1 vim替换 :m,ns/word_1/word_2/gc  
- 独立开发人员通向成功的29个小贴士
shoothao
独立开发
概述:本文收集了关于独立开发人员通向成功需要注意的一些东西,对于具体的每个贴士的注解有兴趣的朋友可以查看下面标注的原文地址。
明白你从事独立开发的原因和目的。
保持坚持制定计划的好习惯。
万事开头难,第一份订单是关键。
培养多元化业务技能。
提供卓越的服务和品质。
谨小慎微。
营销是必备技能。
学会组织,有条理的工作才是最有效率的。
“独立
- JAVA中堆栈和内存分配原理
uule
java
1、栈、堆
1.寄存器:最快的存储区, 由编译器根据需求进行分配,我们在程序中无法控制.2. 栈:存放基本类型的变量数据和对象的引用,但对象本身不存放在栈中,而是存放在堆(new 出来的对象)或者常量池中(字符串常量对象存放在常量池中。)3. 堆:存放所有new出来的对象。4. 静态域:存放静态成员(static定义的)5. 常量池:存放字符串常量和基本类型常量(public static f