- 【大模型系列】SFT(Supervised Fine-Tuning,监督微调)
Kwan的解忧杂货铺@新空间代码工作室
s2AIGC大模型
欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。推荐:kwan的首页,持续学习,不断总结,共同进步,活到老学到老导航檀越剑指大厂系列:全面总结java核心技术,jvm,并发编程redis,kafka,Spring,微服务等常用开发工具系列:常用的开发工具,IDEA,Mac,Alfred,Git,
- 一、大语言模型微调 vs. 大语言模型应用
AI Echoes
深度学习人工智能deepseek机器学习算法
一、大语言模型微调vs.大语言模型应用1.微调(Fine-Tuning)的含义与特点定义与作用微调指在预训练好(通用)的基础模型上,通过在特定领域或任务的数据集上进一步训练来调整模型参数,使其在该领域任务中获得更优表现。这种方法可以使通用模型“定制化”,更好地理解专业术语和领域知识,从而提升准确性和响应质量。例如,为医疗、法律、金融等垂直领域构建专属模型,往往需要在预训练模型基础上进行微调。特点参
- 模型微调:让AI更懂你的魔法棒
带上一无所知的我
pytorch人工智能python
模型微调:让AI更懂你的魔法棒✨在人工智能的世界里,模型微调(Fine-tuning)就像是一位魔法师用魔法棒对预训练模型进行“个性化改造”,让它更适应特定的任务。今天,我们就来深入探讨模型微调的技术细节,让你也能像魔法师一样,轻松驾驭AI模型!什么是模型微调?模型微调是指在预训练模型的基础上,通过少量的特定任务数据进行训练,使模型更好地适应新任务的技术。预训练模型通常是基于大规模数据集(如Ima
- Chapter 4-16. Troubleshooting Congestion in Fibre Channel Fabrics
mounter625
Linuxkernel服务器运维linuxkernel
ShowFCSIeExample4-17showstheNX-OScommandshowfcsieonCiscoMDSswitches.例4-17显示了CiscoMDS交换机上的NX-OS命令showfcsie。Example4-17NX-OScommandshowfcsieonCiscoMDSswitchesMDS9706-C#showfcsieIEListforVSAN:20---------
- Liunx 删除 /boot 恢复方法
IT 敲你鸡娃
linux
用公网的包(1)进入救援模式将CentOS7.9安装DVD插入光驱,设置计算机从DVD启动。不同计算机进入BIOS/UEFI设置启动顺序的方式不同,常见的有按Del、F2、F10等键。在启动界面选择Troubleshooting(故障排查)选项。接着选择RescueaCentOSsystem(救援CentOS系统)。等待系统加载相关文件,加载完成后,按提示选择Continue,系统会自动将原系统挂
- Centos 7拯救boot下的文件
IT小饕餮
linux基础centoslinux运维
1.进入救援模式插入CentOS7安装光盘,重启系统。在开机时按BIOS设置对应的按键(通常是F2等),将启动顺序调整为CD-ROM优先。系统从光盘启动后,选择“Troubleshooting”,然后选择“RescueaCentOSsystem”,按提示选择语言等设置,进入救援模式。系统会提示你如何挂载现有的系统,选择“Continue”选项,系统会将你的现有系统挂载到/mnt/sysimage目
- 部署微调框架LLaMA-Factory
高原魔女
llama
LLaMAFactory1.我们在ChatGLM3的github官方页面上能看到对LLaMA-Factory的推荐2.LLaMAFactorygithub链接hiyouga/LLaMA-Factory:UnifyEfficientFine-Tuningof100+LLMs(github.com)步骤一:安装LLaMAFactory进入DSW开发环境。登录PAI控制台。在页面左上方,选择DSW实例所
- 论文阅读笔记——QLORA: Efficient Finetuning of Quantized LLMs
寻丶幽风
论文阅读笔记论文阅读笔记人工智能深度学习语言模型
QLoRA论文4-bit标准浮点数量化常见的量化技术是最大绝对值量化:XInt8=round(127absmax(XFP32)XFP32)=round(cFP32,XFP32)式(1)X^{Int8}=round(\frac{127}{absmax(X^{FP32})}X^{FP32})=round(c^{FP32},X^{FP32})\qquad\qquad\text{式(1)}XInt8=ro
- LLaMA-Factory 训练数据默认使用 instruction、input、output 三个 key
背太阳的牧羊人
模型微调llama人工智能大模型微调
在LLaMA-Factory进行SFT(Directivesupervisionfine-tuning指令监督微调)时,训练数据的格式非常重要,因为大模型依赖标准化的数据结构来学习指令-响应模式。identity.json文件的数据采用了“instruction”、“input”、“output”这三个key,它们的作用如下:Key作用示例“instruction”代表用户给AI的指令(问题或任务
- 大语言模型微调和大语言模型应用的区别?
AI Echoes
深度学习人工智能机器学习
1.基本概念微调(Fine-tuning)定义:微调是指在预训练大语言模型的基础上,通过在特定领域或任务的数据上进一步训练,从而使模型在该特定任务上表现更优。目的:适应具体的任务需求,比如法律文书写作、医疗问答、金融分析等,使得模型能更好地理解和生成符合领域要求的内容。过程:通常涉及准备领域特定的数据集、设计合适的损失函数、调整超参数(例如学习率、批量大小等),以及选择冻结或解冻部分参数来更新模型
- 大语言模型微调和大语言模型应用的区别?
AI Echoes
人工智能深度学习机器学习
大语言模型微调和大语言模型应用的区别?1.定义与目标微调(Fine-tuning)目标:调整预训练模型(如GPT、LLaMA、PaLM)的参数,使其适应特定任务或领域。核心:通过额外的训练(使用特定数据集)优化模型的性能,提升其在特定场景下的效果。例如:将通用模型微调为法律咨询、医疗诊断或金融分析的专业模型。应用(Application)目标:直接使用预训练或微调后的模型解决实际问题,无需修改模型
- Common Solder Defects and Root Cause Analysis
px5213344
pcb工艺
Generalguidanceitiswellknownthat60-70%ofallsolderdefectscanbetracedbacktotheprintingdefectssuchassolderbridging,coldslumpandUnevenSolderPasteDepositwhilefinetuningthereflowprofiledobenefitandavoidsome
- 大模型高效优化技术全景解析:微调、量化、剪枝、梯度裁剪与蒸馏
时光旅人01号
人工智能剪枝算法深度学习数据挖掘人工智能
目录微调(Fine-tuning)量化(Quantization)剪枝(Pruning)梯度裁剪(GradientClipping)知识蒸馏(KnowledgeDistillation)技术对比与协同策略总结与趋势1.微调(Fine-tuning)核心思想在预训练模型(如BERT、GPT)基础上,通过领域数据调整参数,适配下游任务。方法流程预训练模型加载:加载通用模型权重(如HuggingFace
- 【漫话机器学习系列】137.随机搜索(Randomized Search)
IT古董
漫话机器学习系列专辑机器学习人工智能
随机搜索(RandomizedSearch)详解在机器学习和深度学习的模型训练过程中,超参数调优(HyperparameterTuning)是至关重要的一环。随机搜索(RandomizedSearch)是一种高效的超参数优化方法,它通过在候选超参数的数值分布(如正态分布、均匀分布等)中随机选择超参数组合,从而找到最优的超参数配置。1.超参数调优的必要性超参数是模型在训练之前需要人为设定的参数,例如
- 大语言模型(LLM)的微调与应用
AI Echoes
语言模型人工智能自然语言处理
一、微调与应用的核心区别目标差异微调(Fine-tuning):针对预训练模型进行参数调整,使其适应特定任务或领域(如医疗问答、法律文本分析)。需通过有监督微调(SFT)或低秩适配(LoRA)等技术优化模型权重。应用(Application):基于现有模型的能力构建实际系统(如智能客服、文档摘要),侧重于工程化集成和交互设计,通常不修改模型参数,而是通过Prompt工程、RAG(检索增强生成)或A
- LLM大模型技术实战6:一文总结大模型微调方法
AIG暴躁猫叔
人工智能深度学习机器学习
大模型会成为AI时代的一项基础设施。作为像水、电一样的基础设施,预训练大模型这样的艰巨任务,只会有少数技术实力强、财力雄厚的公司去做。绝大多数人,是水、电的应用者。对这部分人来说,掌握如何用好大模型的技术,更加重要。用好大模型的第一个层次,是掌握提示词工程(PromptEngineering)用好大模型的第二个层次,是大模型的微调(FineTuning),这也是今天这篇文章的主题。为什么要对大模型
- Adapter-Tuning:高效适配预训练模型的新任务
花千树-010
TuningpromptembeddingAIGC机器学习chatgptpytorch
1.引言近年来,预训练语言模型(PLM)如BERT、GPT和T5在自然语言处理(NLP)任务中取得了巨大成功。然而,Fine-Tuning这些大型模型通常需要大量计算资源,并且每个新任务都需要存储一套完整的微调权重,这导致存储成本高昂。Adapter-Tuning作为一种高效的模型调优方法,允许我们在预训练模型的基础上,通过引入轻量级“Adapter”层来进行任务特定的学习。Adapter层只占用
- 【模型调优的深入分析与Python实践】
蝉叫醒了夏天
机器学习python开发语言模型调优
模型调优的深入分析与Python实践一、模型调优的定义与目标模型调优(ModelTuning)是通过系统化调整机器学习模型的超参数和结构参数,使模型在特定数据集上达到最佳性能的过程。其核心目标是在以下两者间找到平衡:泛化能力∝1过拟合风险\text{泛化能力}\propto\frac{1}{\text{过拟合风险}}泛化能力∝过拟合风险1二、调优注意事项1.数据层面确保训练集/验证集/测试集的独立
- “大语言模型微调”(Fine-tuning)与“大语言模型应用”(LLM Applications)之间的区别
AI Echoes
人工智能机器学习深度学习
1.概念与定义大语言模型微调微调指的是在一个经过大规模预训练的通用语言模型基础上,利用针对性较强的小规模数据集对模型进行进一步训练,从而使模型在特定领域或任务上表现得更优秀。目标:使模型更好地适应特定任务(如医疗问答、法律咨询、编程辅助等),提高准确性和专业性。方法:可以是全参数微调,也可以采用参数高效微调(如LoRA、Adapter、PrefixTuning等),后者只调整部分参数而保持原有权重
- 如何对大模型进行微调?从原理到实战全解析
挣扎与觉醒中的技术人
人工智能外包转型集成学习chatgptgpt-3软件工程
随着大语言模型(LLM)的快速发展,微调(Fine-tuning)已成为将通用模型转化为垂直领域专家的核心技术。本文将从原理、方法到实战步骤,结合OpenAI、HuggingFace等平台的最佳实践,详解大模型微调全流程。文末附赠独家资料包,助你快速上手!一、什么是大模型微调?微调指在预训练大模型(如GPT-3.5、LLaMA)的基础上,使用特定领域的数据进行二次训练,使模型适应新任务或领域需求。
- Chapter 4-6. Troubleshooting Congestion in Fibre Channel Fabrics
mounter625
Linuxkernel网络运维服务器linuxkerneltcp/ip
Oncethecongestionischasedtotheadjacentswitch(Switch-1inFigure4-8),thencontinuelookingforcongestiononthatswitchandrepeatthesesteps.IfthecongestionindicationontheISLportonthelocalswitch(Switch-3inFigure
- Chapter 4-8. Troubleshooting Congestion in Fibre Channel Fabrics
mounter625
Linuxkernel服务器网络kernellinux
Utilizingtheshowtech-supportslowdrainCommandTheshowtech-supportslowdrainisasinglecommandonCiscoMDSswitchesthataggregatesalltheothercommandsnormallynecessaryfortroubleshootingcongestionintoasingleoutpu
- Bert学习笔记
缓释多巴胺。
大模型相关知识语言模型bert
一、Bert架构BERT使用了双向的TransformerGPT使用从左到右的单向信息ELMo把单独训练的从左到右及从右到左的LSTM模型进行合并二、Bert预训练任务2.1遮蔽语言模型MLM任务:随机屏蔽(masking)部分输入token,然后只预测那些被屏蔽的token。问题:预训练任务与微调任务不一致原因:在finetuning期间从未看到[MASK]token,预训练和finetunin
- llama-factory 记录
嘟嘟Listing
llama
GitHub-hiyouga/LLaMA-Factory:UnifiedEfficientFine-Tuningof100+LLMs&VLMs(ACL2024)安装gitclonehttps://github.com/hiyouga/LLaMA-Factory.gitcondacreate-nllama_factorypython=3.10condaactivatellama_factorycdL
- LLaMA-Factory使用命令
asd8705
llama
Weprovidediverseexamplesaboutfine-tuningLLMs.MakesuretoexecutethesecommandsintheLLaMA-Factorydirectory.TableofContentsLoRAFine-TuningQLoRAFine-TuningFull-ParameterFine-TuningMergingLoRAAdaptersandQuan
- 微调(Fine-tuning)
路野yue
人工智能深度学习
微调(Fine-tuning)是自然语言处理(NLP)和深度学习中的一种常见技术,用于将预训练模型(Pre-trainedModel)适配到特定任务上。它的核心思想是:在预训练模型的基础上,通过少量任务相关的数据进一步训练模型,使其更好地适应目标任务。1.微调的核心思想预训练模型:像BERT、GPT这样的模型,已经在大量通用文本数据上进行了预训练,学习到了丰富的语言知识(如语法、语义、上下文关系等
- llama_factory微调QWen1.5
Kun Li
大语言模型llamaqwen
GitHub-hiyouga/LLaMA-Factory:UnifyEfficientFine-Tuningof100+LLMsUnifyEfficientFine-Tuningof100+LLMs.Contributetohiyouga/LLaMA-FactorydevelopmentbycreatinganaccountonGitHub.https://github.com/hiyouga/L
- 前言:什么是大模型微调
伯牙碎琴
大模型微调深度学习人工智能机器学习大模型微调训练
一、大模型微调的基础知识1.什么是大模型微调?大模型微调(Fine-tuning)是指在预训练模型的基础上,针对特定的任务或数据集进行进一步训练的过程。预训练模型通常在大规模的通用数据上训练,具备广泛的语言理解和生成能力。通过微调,我们可以让模型更好地适应特定的领域或任务,例如情感分析、问答系统、文本生成等。2.为什么需要微调?适应特定任务:通用模型虽然功能强大,但在特定任务上可能表现不够精准。微
- Python微调DeepSeek-R1-Distill-Qwen-1.5B模型:使用Transformers和PyTorch进行训练
煤炭里de黑猫
pytorchpython人工智能机器学习
前言近年来,基于Transformer架构的预训练语言模型如GPT、BERT等已经取得了显著的成果,广泛应用于自然语言处理(NLP)的各个领域。为了让这些模型更加适应特定任务,我们通常会进行微调(Fine-tuning)。本博客将详细介绍如何微调一个名为Qwen-1.5B的模型,使用HuggingFace的Transformers库与PyTorch框架来实现。我们将通过一步步的代码解析,帮助你理解
- your HTTP request connection start duration too long
hshpy
http网络协议网络
IfyourHTTPrequestconnectionstartdurationistakingmorethan7seconds,herearesomepossiblecausesandtroubleshootingsteps:PossibleCauses:NetworkLatency–Slowinternetornetworkcongestion.DNSResolutionDelay–SlowD
- jquery实现的jsonp掉java后台
知了ing
javajsonpjquery
什么是JSONP?
先说说JSONP是怎么产生的:
其实网上关于JSONP的讲解有很多,但却千篇一律,而且云里雾里,对于很多刚接触的人来讲理解起来有些困难,小可不才,试着用自己的方式来阐释一下这个问题,看看是否有帮助。
1、一个众所周知的问题,Ajax直接请求普通文件存在跨域无权限访问的问题,甭管你是静态页面、动态网页、web服务、WCF,只要是跨域请求,一律不准;
2、
- Struts2学习笔记
caoyong
struts2
SSH : Spring + Struts2 + Hibernate
三层架构(表示层,业务逻辑层,数据访问层) MVC模式 (Model View Controller)
分层原则:单向依赖,接口耦合
1、Struts2 = Struts + Webwork
2、搭建struts2开发环境
a>、到www.apac
- SpringMVC学习之后台往前台传值方法
满城风雨近重阳
springMVC
springMVC控制器往前台传值的方法有以下几种:
1.ModelAndView
通过往ModelAndView中存放viewName:目标地址和attribute参数来实现传参:
ModelAndView mv=new ModelAndView();
mv.setViewName="success
- WebService存在的必要性?
一炮送你回车库
webservice
做Java的经常在选择Webservice框架上徘徊很久,Axis Xfire Axis2 CXF ,他们只有一个功能,发布HTTP服务然后用XML做数据传输。
是的,他们就做了两个功能,发布一个http服务让客户端或者浏览器连接,接收xml参数并发送xml结果。
当在不同的平台间传输数据时,就需要一个都能解析的数据格式。
但是为什么要使用xml呢?不能使json或者其他通用数据
- js年份下拉框
3213213333332132
java web ee
<div id="divValue">test...</div>测试
//年份
<select id="year"></select>
<script type="text/javascript">
window.onload =
- 简单链式调用的实现技术
归来朝歌
方法调用链式反应编程思想
在编程中,我们可以经常遇到这样一种场景:一个实例不断调用它自身的方法,像一条链条一样进行调用
这样的调用你可能在Ajax中,在页面中添加标签:
$("<p>").append($("<span>").text(list[i].name)).appendTo("#result");
也可能在HQ
- JAVA调用.net 发布的webservice 接口
darkranger
webservice
/**
* @Title: callInvoke
* @Description: TODO(调用接口公共方法)
* @param @param url 地址
* @param @param method 方法
* @param @param pama 参数
* @param @return
* @param @throws BusinessException
- Javascript模糊查找 | 第一章 循环不能不重视。
aijuans
Way
最近受我的朋友委托用js+HTML做一个像手册一样的程序,里面要有可展开的大纲,模糊查找等功能。我这个人说实在的懒,本来是不愿意的,但想起了父亲以前教我要给朋友搞好关系,再加上这也可以巩固自己的js技术,于是就开始开发这个程序,没想到却出了点小问题,我做的查找只能绝对查找。具体的js代码如下:
function search(){
var arr=new Array("my
- 狼和羊,该怎么抉择
atongyeye
工作
狼和羊,该怎么抉择
在做一个链家的小项目,只有我和另外一个同事两个人负责,各负责一部分接口,我的接口写完,并全部测联调试通过。所以工作就剩下一下细枝末节的,工作就轻松很多。每天会帮另一个同事测试一些功能点,协助他完成一些业务型不强的工作。
今天早上到公司没多久,领导就在QQ上给我发信息,让我多协助同事测试,让我积极主动些,有点责任心等等,我听了这话,心里面立马凉半截,首先一个领导轻易说
- 读取android系统的联系人拨号
百合不是茶
androidsqlite数据库内容提供者系统服务的使用
联系人的姓名和号码是保存在不同的表中,不要一下子把号码查询来,我开始就是把姓名和电话同时查询出来的,导致系统非常的慢
关键代码:
1, 使用javabean操作存储读取到的数据
package com.example.bean;
/**
*
* @author Admini
- ORACLE自定义异常
bijian1013
数据库自定义异常
实例:
CREATE OR REPLACE PROCEDURE test_Exception
(
ParameterA IN varchar2,
ParameterB IN varchar2,
ErrorCode OUT varchar2 --返回值,错误编码
)
AS
/*以下是一些变量的定义*/
V1 NUMBER;
V2 nvarc
- 查看端号使用情况
征客丶
windows
一、查看端口
在windows命令行窗口下执行:
>netstat -aon|findstr "8080"
显示结果:
TCP 127.0.0.1:80 0.0.0.0:0 &
- 【Spark二十】运行Spark Streaming的NetworkWordCount实例
bit1129
wordcount
Spark Streaming简介
NetworkWordCount代码
/*
* Licensed to the Apache Software Foundation (ASF) under one or more
* contributor license agreements. See the NOTICE file distributed with
- Struts2 与 SpringMVC的比较
BlueSkator
struts2spring mvc
1. 机制:spring mvc的入口是servlet,而struts2是filter,这样就导致了二者的机制不同。 2. 性能:spring会稍微比struts快。spring mvc是基于方法的设计,而sturts是基于类,每次发一次请求都会实例一个action,每个action都会被注入属性,而spring基于方法,粒度更细,但要小心把握像在servlet控制数据一样。spring
- Hibernate在更新时,是可以不用session的update方法的(转帖)
BreakingBad
Hibernateupdate
地址:http://blog.csdn.net/plpblue/article/details/9304459
public void synDevNameWithItil()
{Session session = null;Transaction tr = null;try{session = HibernateUtil.getSession();tr = session.beginTran
- 读《研磨设计模式》-代码笔记-观察者模式
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.util.ArrayList;
import java.util.List;
import java.util.Observable;
import java.util.Observer;
/**
* “观
- 重置MySQL密码
chenhbc
mysql重置密码忘记密码
如果你也像我这么健忘,把MySQL的密码搞忘记了,经过下面几个步骤就可以重置了(以Windows为例,Linux/Unix类似):
1、关闭MySQL服务
2、打开CMD,进入MySQL安装目录的bin目录下,以跳过权限检查的方式启动MySQL
mysqld --skip-grant-tables
3、新开一个CMD窗口,进入MySQL
mysql -uroot
 
- 再谈系统论,控制论和信息论
comsci
设计模式生物能源企业应用领域模型
再谈系统论,控制论和信息论
偶然看
- oracle moving window size与 AWR retention period关系
daizj
oracle
转自: http://tomszrp.itpub.net/post/11835/494147
晚上在做11gR1的一个awrrpt报告时,顺便想调整一下AWR snapshot的保留时间,结果遇到了ORA-13541这样的错误.下面是这个问题的发生和解决过程.
SQL> select * from v$version;
BANNER
-------------------
- Python版B树
dieslrae
python
话说以前的树都用java写的,最近发现python有点生疏了,于是用python写了个B树实现,B树在索引领域用得还是蛮多了,如果没记错mysql的默认索引好像就是B树...
首先是数据实体对象,很简单,只存放key,value
class Entity(object):
'''数据实体'''
def __init__(self,key,value)
- C语言冒泡排序
dcj3sjt126com
算法
代码示例:
# include <stdio.h>
//冒泡排序
void sort(int * a, int len)
{
int i, j, t;
for (i=0; i<len-1; i++)
{
for (j=0; j<len-1-i; j++)
{
if (a[j] > a[j+1]) // >表示升序
- 自定义导航栏样式
dcj3sjt126com
自定义
-(void)setupAppAppearance
{
[[UILabel appearance] setFont:[UIFont fontWithName:@"FZLTHK—GBK1-0" size:20]];
[UIButton appearance].titleLabel.font =[UIFont fontWithName:@"FZLTH
- 11.性能优化-优化-JVM参数总结
frank1234
jvm参数性能优化
1.堆
-Xms --初始堆大小
-Xmx --最大堆大小
-Xmn --新生代大小
-Xss --线程栈大小
-XX:PermSize --永久代初始大小
-XX:MaxPermSize --永久代最大值
-XX:SurvivorRatio --新生代和suvivor比例,默认为8
-XX:TargetSurvivorRatio --survivor可使用
- nginx日志分割 for linux
HarborChung
nginxlinux脚本
nginx日志分割 for linux 默认情况下,nginx是不分割访问日志的,久而久之,网站的日志文件将会越来越大,占用空间不说,如果有问题要查看网站的日志的话,庞大的文件也将很难打开,于是便有了下面的脚本 使用方法,先将以下脚本保存为 cutlog.sh,放在/root 目录下,然后给予此脚本执行的权限
复制代码代码如下:
chmo
- Spring4新特性——泛型限定式依赖注入
jinnianshilongnian
springspring4泛型式依赖注入
Spring4新特性——泛型限定式依赖注入
Spring4新特性——核心容器的其他改进
Spring4新特性——Web开发的增强
Spring4新特性——集成Bean Validation 1.1(JSR-349)到SpringMVC
Spring4新特性——Groovy Bean定义DSL
Spring4新特性——更好的Java泛型操作API
Spring4新
- centOS安装GCC和G++
liuxihope
centosgcc
Centos支持yum安装,安装软件一般格式为yum install .......,注意安装时要先成为root用户。
按照这个思路,我想安装过程如下:
安装gcc:yum install gcc
安装g++: yum install g++
实际操作过程发现,只能有gcc安装成功,而g++安装失败,提示g++ command not found。上网查了一下,正确安装应该
- 第13章 Ajax进阶(上)
onestopweb
Ajax
index.html
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/
- How to determine BusinessObjects service pack and fix pack
blueoxygen
BO
http://bukhantsov.org/2011/08/how-to-determine-businessobjects-service-pack-and-fix-pack/
The table below is helpful. Reference
BOE XI 3.x
12.0.0.
y BOE XI 3.0 12.0.
x.
y BO
- Oracle里的自增字段设置
tomcat_oracle
oracle
大家都知道吧,这很坑,尤其是用惯了mysql里的自增字段设置,结果oracle里面没有的。oh,no 我用的是12c版本的,它有一个新特性,可以这样设置自增序列,在创建表是,把id设置为自增序列
create table t
(
id number generated by default as identity (start with 1 increment b
- Spring Security(01)——初体验
yang_winnie
springSecurity
Spring Security(01)——初体验
博客分类: spring Security
Spring Security入门安全认证
首先我们为Spring Security专门建立一个Spring的配置文件,该文件就专门用来作为Spring Security的配置