- Hyperparameter Tuning 原理与代码实战案例讲解
AGI大模型与大数据研究院
DeepSeekR1&大数据AI人工智能计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
HyperparameterTuning原理与代码实战案例讲解作者:禅与计算机程序设计艺术/ZenandtheArtofComputerProgramming关键词:超参数调优,模型选择,性能提升,代码实战1.背景介绍1.1问题的由来在机器学习中,模型的选择和调优是至关重要的。模型选择涉及选择合适的算法和架构,而调优则集中在优化模型参数以提升性能。然而,模型参数众多,且每个参数的取值范围可能很广,
- 【大模型】数据集构造方式
油泼辣子多加
深度学习人工智能chatgpt
1.Alpaca数据格式Alpaca数据格式最早由StanfordAlpaca项目提出,目的是用来微调大语言模型(LLM),特别是用于InstructionTuning(指令微调)。它基于Self-Instruct方法,即使用更强大的模型(如OpenAI的GPT-3)来自动生成高质量的指令数据,从而让小型模型也能理解和执行指令任务。数据格式示例Alpaca数据集的格式通常是JSON,包含以下几个字
- SFT(监督微调)和RLHF(基于人类反馈的强化学习)的区别
钟小宇
LLM人工智能语言模型
SFT(监督微调)和RLHF(基于人类反馈的强化学习)的区别STF(SupervisedFine-Tuning)和RLHF(ReinforcementLearningfromHumanFeedback)是两种不同的模型训练方法,分别用于不同的阶段和目的。以下是它们的主要区别:1.方法概述STF(监督微调):定义:STF是指在已经预训练好的模型基础上,使用标注好的数据进一步训练模型,使其在特定任务上
- sql server 跟踪存储过程
woshilys
sqlserversqlserver数据库
使用sqlserverprofile跟踪,选择模板Tuning,筛选列spid,选择执行的spid
- 一、大模型微调的前沿技术与应用
伯牙碎琴
大模型微调人工智能大模型微调Deepseek
大模型微调的前沿技术与应用随着大规模预训练模型(如GPT、BERT、T5等)的广泛应用,大模型微调(Fine-Tuning,FT)成为了提升模型在特定任务中性能的关键技术。通过微调,开发者可以根据实际需求调整预训练模型的参数,使其更好地适应特定应用场景。本文将介绍大模型微调技术的前沿发展,分析不同微调方法的特点、适用场景以及优缺点,并对它们进行系统分类。微调技术的重要性大模型微调能够帮助开发者根据
- 大语言模型常用微调与基于SFT微调DeepSeek R1指南
知来者逆
LLM深度学习人工智能自然语言处理DeepSeekSFT微调
概述大型语言模型(LLM,LargeLanguageModel)的微调(Fine-tuning)是指在一个预训练模型的基础上,使用特定领域或任务的数据对模型进行进一步训练,以使其在该领域或任务上表现更好。微调是迁移学习的一种常见方法,能够显著提升模型在特定任务上的性能。在大型语言模型(LLM)的微调中,有几种常见的方法,包括SFT(监督微调)、LoRA(低秩适应)、P-tuningv2和**Fre
- LLM大模型中文开源数据集集锦(三)
悟乙己
付费-智能写作专栏LLM大模型开源大模型LLMGPT微调
文章目录1ChatGLM-Med:基于中文医学知识的ChatGLM模型微调1.1数据集1.2ChatGLM+P-tuningV2微调1.3Llama+Alpaca的Lora微调版本2LawGPT_zh:中文法律大模型(獬豸)2.1数据集2.1.1利用ChatGPT清洗CrimeKgAssitant数据集得到52k单轮问答:2.1.2带有法律依据的情景问答92k:2.1.3法律知识问答2.2模型3C
- 如何微调(Fine-tuning)大语言模型?看完这篇你就懂了!!
datian1234
语言模型人工智能chatgptLLMaiAI大模型大模型微调
前言本文介绍了微调的基本概念,以及如何对语言模型进行微调。从GPT3到ChatGPT、从GPT4到GitHubcopilot的过程,微调在其中扮演了重要角色。什么是微调(fine-tuning)?微调能解决什么问题?什么是LoRA?如何进行微调?本文将解答以上问题,并通过代码实例展示如何使用LoRA进行微调。微调的技术门槛并不高,如果微调的模型规模不大10B及10B以下所需硬件成本也不高(10B模
- 【深度学习】常见模型-GPT(Generative Pre-trained Transformer,生成式预训练 Transformer)
IT古董
深度学习人工智能深度学习gpttransformer
GPT(GenerativePre-trainedTransformer)1️⃣什么是GPT?GPT(GenerativePre-trainedTransformer,生成式预训练Transformer)是由OpenAI开发的基于Transformer解码器(Decoder)的自回归(Autoregressive)语言模型。它能够通过大量无监督数据预训练,然后微调(Fine-tuning)以适应特
- Dav_笔记12:Automatic SQL Tuning 之 3 SQL-Tuning
Dav_2099
Oracle优化系列笔记sql数据库oracle
使用SQLTuningAdvisor进行无限调优您可以手动调用SQLTuningAdvisor以按需调整一个或多个SQL语句。要调整多个语句,必须创建SQL调优集(STS)。SQL调优集是一个数据库对象,它存储SQL语句及其执行上下文。您可以使用命令行API或企业管理器创建SQL调优集。请参见“Dav_笔记12:AutomaticSQLTuning之4管理SQL调优集”。输入源SQLTuningA
- 一文读懂RAG
wangziling123456
人工智能深度学习
目录一、RAG是什么?二、为什么需要RAG?三、RAG的特点四、基础RAG架构数据准备阶段应用阶段:五、RAG分类基础RAG(NaiveRAG)缺点高级RAG(AdvancedRAG)模块化RAG(ModularRAG)六、RAG(检索增强生成)vsFine-Tuning(微调)八、高效和准确的检索1)来源检索源的类型检索单元的粒度2)索引优化1.分块策略2.元数据附件3.结构指数3)查询优化1.
- Kamailio(OPENSER) 3.1.x INSTALL
gangban_lau
VoipSIPmysqldatabasefiledomainincludepasswords
1,GettingsourcesfromGITmkdirsrc;cdsrcgitclone--depth1git://git.sip-router.org/sip-routerkamailiocdkamailiogitcheckout-b3.1origin/3.12,TuningMakefilesmakeFLAVOUR=kamailiocfgNextstepistoenabletheMySQLmo
- 大模型入门(六)—— RLHF微调大模型
LLM.
人工智能语言模型机器学习自然语言处理LLM大模型RLHF
一、RLHF微调三阶段参考:https://huggingface.co/blog/rlhf1)使用监督数据微调语言模型,和fine-tuning一致。2)训练奖励模型奖励模型是输入一个文本序列,模型给出符合人类偏好的奖励数值,这个奖励数值对于后面的强化学习训练非常重要。构建奖励模型的训练数据一般是同一个数据用不同的语言模型生成结果,然后人工打分。如果是训练自己领域的RLHF模型,也可以尝试用ch
- 【oracle 学习路线图】
Larry Chow
Oracle数据库入门
【oracle学习路线图】来源:https://www.cnblogs.com/tango-dg/p/3771768.html初级阶段:可以从OCP教材开始,还有文档中的Administrator'sGuide、Concepts、PerformanceTuningGuide、BackupandRecoveryAdvancedUser'sGuide、BackupandRecoveryBasics。特
- 接入deepseek构建RAG企业智能问答系统
da pai ge
prometheuskubernetesjavascript
RAG基础流程AI大模型回答问题的方式AI大模型基于其训练的数据回答所有问题。如果未针对特定业务(如美团)进行专门“学习”,面对直接相关的问题时,无法给出理想的答案。让AI大模型“学习”业务知识的两种主要方法:微调(Fine-Tuning):在预训练模型基础上根据特定任务和数据集调整参数。RAG(Retrieval-AugmentedGeneration,检索增强生成):使用泛化的大模型,通过对问
- 大模型(LLM)微调并不复杂,数据才是关键:3个实例详解数据准备
程序员二飞
深度学习机器学习人工智能金融学习chatgpt大数据
今天咱们聊聊一个听起来很高大上的词——微调(Fine-Tuning)。听说过吗?别担心,今天我们不打算深挖那些复杂的技术细节,而是要告诉你们一个简单的事实:微调其实一点都不复杂,真正的关键在于——数据!前排提示,文末有大模型AGI-CSDN独家资料包哦!在这篇文章里,我们不仅会深入浅出地介绍什么是微调,还会通过三个具体的实例,教你们如何准备高质量的数据集,让你们的模型表现出色。准备好了吗?让我们一
- Linux nmcli 命令使用详解
linux
简介nmcli是与NetworkManager交互的命令行工具,用于管理Linux系统上的网络连接。它提供了一种配置、监控和排除网络连接故障的全面方法。nmcli特性Networkmanagement:轻松配置网络接口(Wi-Fi、以太网、VPN等)Automation:通过脚本自动执行网络设置或状态检查Monitoring:检查网络状态和统计数据Troubleshooting:从终端快速诊断网络
- 【机器学习】机器学习重要方法——迁移学习:理论、方法与实践
E绵绵
Everything机器学习迁移学习人工智能pythonAIGC应用
文章目录迁移学习:理论、方法与实践引言第一章迁移学习的基本概念1.1什么是迁移学习1.2迁移学习的类型1.3迁移学习的优势第二章迁移学习的核心方法2.1特征重用(FeatureReuse)2.2微调(Fine-Tuning)2.3领域适应(DomainAdaptation)第三章迁移学习的应用实例3.1医疗影像分析3.2文本分类3.3工业故障检测第四章迁移学习的未来发展与挑战4.1领域差异与模型适
- 【大模型LLM面试合集】训练数据_数据格式
X.AI666
人工智能bigdata
数据格式1.SFT(有监督微调)的数据集格式?对于大语言模型的训练中,SFT(SupervisedFine-Tuning)的数据集格式可以采用以下方式:输入数据:输入数据是一个文本序列,通常是一个句子或者一个段落。每个样本可以是一个字符串或者是一个tokenized的文本序列。标签数据:标签数据是与输入数据对应的标签或类别。标签可以是单个类别,也可以是多个类别的集合。对于多分类任务,通常使用one
- LLM 算法工程师的速成指南:微调、强化学习微调与偏好微调
大模型玩家
算法机器学习深度学习chatgpt人工智能ai大模型
OpenAI近期在直播中,提到了两个新的概念:①强化学习微调(ReinforcementFine-Tuning):仅需少量高质量数据(数十到数千个),模型即可通过强化学习处理复杂任务。②偏好微调(PreferenceFine-Tuning,PFT):采用直接偏好优化(例如DirectPreferenceOptimization,DPO)算法,通过比较不同的模型输出,让AI能够学习并区分“更好”的回
- 【漫话机器学习系列】079.超参数调优(Hyperparameter Tuning)
IT古董
漫话机器学习系列专辑机器学习深度学习人工智能
超参数调优(HyperparameterTuning)是机器学习中优化模型性能的重要步骤之一。超参数是模型在训练之前设定的参数,而不是通过训练数据学习到的参数。正确地选择超参数可以显著提高模型的预测能力,反之,错误的超参数选择可能会导致过拟合、欠拟合或训练过程缓慢。1.超参数的定义超参数是控制学习过程的外部参数,不同于模型参数(例如权重和偏置),超参数不通过训练过程自动优化。常见的超参数包括:学习
- Linux: 一切皆文件; peekfd: 偷看一切文件读写
后端服务器
引内容简介Linux大部分数据流动,包括进程间通讯,socket……均通过文件描述符(fd)读写实现。在troubleshooting时,如果可以偷看到fd的流量,那么很多问题可以加速证明/证伪。本文介绍一个老工具peekfd,可以在一定环境中完成这个任务。我遇到的问题我在《小编码,我输给AI了——简记一次父子进程互锁的坑,自己挖的》中说了一个场景。下面是进程父子关系图,我想用kill-QUIT$
- AI模型升级版0.02
pps-key
pythonAI写作学习gpt
根据您的需求,我将提供一个升级版的AI对话模型的实现代码,该模型可以在Windows上运行,并支持训练和微调。我们将使用HuggingFace的transformers库和torch库来实现这个目标。同时,我会结合最新的技术趋势,例如强化微调(ReinforcementFine-Tuning),来提升模型的性能。步骤1:安装必要的库首先,确保您的Windows系统上安装了Python(推荐Pyth
- 在Windows上用Llama Factory微调Llama 3的基本操作
蛐蛐蛐
深度学习Python技巧科研工具llama
这篇博客参考了一些文章,例如:教程:利用LLaMA_Factory微调llama3:8b大模型_llama3模型微调保存-CSDN博客也可以参考LlamaFactory的Readme:GitHub-hiyouga/LLaMA-Factory:UnifyEfficientFine-Tuningof100+LLMsUnifyEfficientFine-Tuningof100+LLMs.Contribu
- 【llm对话系统】大模型 Llama 源码分析之 LoRA 微调
kakaZhui
llama深度学习pytorchAIGCchatgpt
1.引言微调(Fine-tuning)是将预训练大模型(LLM)应用于下游任务的常用方法。然而,直接微调大模型的所有参数通常需要大量的计算资源和内存。LoRA(Low-RankAdaptation)是一种高效的微调方法,它通过引入少量可训练参数,固定预训练模型的权重,从而在保持性能的同时大大减少了计算开销。本文将深入分析LoRA的原理,并结合Llama源码解读其实现逻辑,最后探讨LoRA的优势。2
- 【学习心得】Python好库推荐——PEFT
小oo呆
【学习心得】人工智能python语言模型
一、PEFT是什么?PEFT(Parameter-EfficientFine-Tuning)是一种在深度学习中进行参数高效微调的技术。这种技术主要应用于大型预训练模型的微调过程中,目的是在保持模型性能的同时减少所需的计算资源和时间。通过PEFT,可以有效地调整模型以适应特定任务或数据集,而无需对整个模型的所有参数进行全面微调。二、PEFT使用场景在计算资源有限的情况下,如边缘设备、移动设备或低成本
- AI大模型在智能客服系统中的应用
季风泯灭的季节
AI大模型应用技术二人工智能
目录引言1.基于大模型的智能客服系统架构2.对话生成与上下文管理对话生成上下文管理3.提高客服系统响应精度的策略1.使用专门训练的数据集2.引入实体识别和意图分类3.反馈循环和持续优化4.AI大模型在企业中的优化与调优策略1.模型微调(Fine-tuning)2.模型蒸馏(ModelDistillation)3.响应延迟优化4.持续监控与反馈结论引言随着人工智能(AI)技术的不断发展,AI大模型在
- 表格化数据处理中大语言模型的微调优化策略研究
C7211BA
人工智能自然语言处理大语言模型
论文地址ResearchonFine-TuningOptimizationStrategiesforLargeLanguageModelsinTabularDataProcessing论文主要内容这篇论文的主要内容是研究大型语言模型(LLMs)在处理表格数据时的微调优化策略。具体来说,论文探讨了以下几个关键方面:背景与挑战:大型语言模型(LLMs)在自然语言处理(NLP)领域取得了显著进展,但在处
- Ubuntu交叉编译 arm板子上的TVM
陈有爱
TVMubuntu人工智能
目录X86Ubuntu的TVM安装LLVM下载tvm配置config.cmake编译源码python安装测试是否安装成功可以在安装一些库,用于RPCTracker和auto-tuning交叉编译801arm的TVM交叉编译链下载配置config.cmake编译源码编译的时候可能会遇到错误ONNX模型转换为TVM模型创建pre.py,将onnx模型编译成tvm.so文件测试TVM模型修改demo程序
- DeepSeek V3 模型微调(SFT)技术详解
zhangjiaofa
大模型DeepSeek模型微调
DeepSeekV3模型微调(SFT)技术详解目录引言背景知识2.1深度学习与预训练模型2.2微调(Fine-tuning)的概念2.3监督微调(SupervisedFine-tuning,SFT)DeepSeekV3模型概述3.1模型架构3.2预训练任务3.3模型性能监督微调(SFT)技术详解4.1数据准备4.1.1数据收集与清洗4.1.2数据标注4.1.3数据增强4.2模型初始化4.2.1预训
- jquery实现的jsonp掉java后台
知了ing
javajsonpjquery
什么是JSONP?
先说说JSONP是怎么产生的:
其实网上关于JSONP的讲解有很多,但却千篇一律,而且云里雾里,对于很多刚接触的人来讲理解起来有些困难,小可不才,试着用自己的方式来阐释一下这个问题,看看是否有帮助。
1、一个众所周知的问题,Ajax直接请求普通文件存在跨域无权限访问的问题,甭管你是静态页面、动态网页、web服务、WCF,只要是跨域请求,一律不准;
2、
- Struts2学习笔记
caoyong
struts2
SSH : Spring + Struts2 + Hibernate
三层架构(表示层,业务逻辑层,数据访问层) MVC模式 (Model View Controller)
分层原则:单向依赖,接口耦合
1、Struts2 = Struts + Webwork
2、搭建struts2开发环境
a>、到www.apac
- SpringMVC学习之后台往前台传值方法
满城风雨近重阳
springMVC
springMVC控制器往前台传值的方法有以下几种:
1.ModelAndView
通过往ModelAndView中存放viewName:目标地址和attribute参数来实现传参:
ModelAndView mv=new ModelAndView();
mv.setViewName="success
- WebService存在的必要性?
一炮送你回车库
webservice
做Java的经常在选择Webservice框架上徘徊很久,Axis Xfire Axis2 CXF ,他们只有一个功能,发布HTTP服务然后用XML做数据传输。
是的,他们就做了两个功能,发布一个http服务让客户端或者浏览器连接,接收xml参数并发送xml结果。
当在不同的平台间传输数据时,就需要一个都能解析的数据格式。
但是为什么要使用xml呢?不能使json或者其他通用数据
- js年份下拉框
3213213333332132
java web ee
<div id="divValue">test...</div>测试
//年份
<select id="year"></select>
<script type="text/javascript">
window.onload =
- 简单链式调用的实现技术
归来朝歌
方法调用链式反应编程思想
在编程中,我们可以经常遇到这样一种场景:一个实例不断调用它自身的方法,像一条链条一样进行调用
这样的调用你可能在Ajax中,在页面中添加标签:
$("<p>").append($("<span>").text(list[i].name)).appendTo("#result");
也可能在HQ
- JAVA调用.net 发布的webservice 接口
darkranger
webservice
/**
* @Title: callInvoke
* @Description: TODO(调用接口公共方法)
* @param @param url 地址
* @param @param method 方法
* @param @param pama 参数
* @param @return
* @param @throws BusinessException
- Javascript模糊查找 | 第一章 循环不能不重视。
aijuans
Way
最近受我的朋友委托用js+HTML做一个像手册一样的程序,里面要有可展开的大纲,模糊查找等功能。我这个人说实在的懒,本来是不愿意的,但想起了父亲以前教我要给朋友搞好关系,再加上这也可以巩固自己的js技术,于是就开始开发这个程序,没想到却出了点小问题,我做的查找只能绝对查找。具体的js代码如下:
function search(){
var arr=new Array("my
- 狼和羊,该怎么抉择
atongyeye
工作
狼和羊,该怎么抉择
在做一个链家的小项目,只有我和另外一个同事两个人负责,各负责一部分接口,我的接口写完,并全部测联调试通过。所以工作就剩下一下细枝末节的,工作就轻松很多。每天会帮另一个同事测试一些功能点,协助他完成一些业务型不强的工作。
今天早上到公司没多久,领导就在QQ上给我发信息,让我多协助同事测试,让我积极主动些,有点责任心等等,我听了这话,心里面立马凉半截,首先一个领导轻易说
- 读取android系统的联系人拨号
百合不是茶
androidsqlite数据库内容提供者系统服务的使用
联系人的姓名和号码是保存在不同的表中,不要一下子把号码查询来,我开始就是把姓名和电话同时查询出来的,导致系统非常的慢
关键代码:
1, 使用javabean操作存储读取到的数据
package com.example.bean;
/**
*
* @author Admini
- ORACLE自定义异常
bijian1013
数据库自定义异常
实例:
CREATE OR REPLACE PROCEDURE test_Exception
(
ParameterA IN varchar2,
ParameterB IN varchar2,
ErrorCode OUT varchar2 --返回值,错误编码
)
AS
/*以下是一些变量的定义*/
V1 NUMBER;
V2 nvarc
- 查看端号使用情况
征客丶
windows
一、查看端口
在windows命令行窗口下执行:
>netstat -aon|findstr "8080"
显示结果:
TCP 127.0.0.1:80 0.0.0.0:0 &
- 【Spark二十】运行Spark Streaming的NetworkWordCount实例
bit1129
wordcount
Spark Streaming简介
NetworkWordCount代码
/*
* Licensed to the Apache Software Foundation (ASF) under one or more
* contributor license agreements. See the NOTICE file distributed with
- Struts2 与 SpringMVC的比较
BlueSkator
struts2spring mvc
1. 机制:spring mvc的入口是servlet,而struts2是filter,这样就导致了二者的机制不同。 2. 性能:spring会稍微比struts快。spring mvc是基于方法的设计,而sturts是基于类,每次发一次请求都会实例一个action,每个action都会被注入属性,而spring基于方法,粒度更细,但要小心把握像在servlet控制数据一样。spring
- Hibernate在更新时,是可以不用session的update方法的(转帖)
BreakingBad
Hibernateupdate
地址:http://blog.csdn.net/plpblue/article/details/9304459
public void synDevNameWithItil()
{Session session = null;Transaction tr = null;try{session = HibernateUtil.getSession();tr = session.beginTran
- 读《研磨设计模式》-代码笔记-观察者模式
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.util.ArrayList;
import java.util.List;
import java.util.Observable;
import java.util.Observer;
/**
* “观
- 重置MySQL密码
chenhbc
mysql重置密码忘记密码
如果你也像我这么健忘,把MySQL的密码搞忘记了,经过下面几个步骤就可以重置了(以Windows为例,Linux/Unix类似):
1、关闭MySQL服务
2、打开CMD,进入MySQL安装目录的bin目录下,以跳过权限检查的方式启动MySQL
mysqld --skip-grant-tables
3、新开一个CMD窗口,进入MySQL
mysql -uroot
 
- 再谈系统论,控制论和信息论
comsci
设计模式生物能源企业应用领域模型
再谈系统论,控制论和信息论
偶然看
- oracle moving window size与 AWR retention period关系
daizj
oracle
转自: http://tomszrp.itpub.net/post/11835/494147
晚上在做11gR1的一个awrrpt报告时,顺便想调整一下AWR snapshot的保留时间,结果遇到了ORA-13541这样的错误.下面是这个问题的发生和解决过程.
SQL> select * from v$version;
BANNER
-------------------
- Python版B树
dieslrae
python
话说以前的树都用java写的,最近发现python有点生疏了,于是用python写了个B树实现,B树在索引领域用得还是蛮多了,如果没记错mysql的默认索引好像就是B树...
首先是数据实体对象,很简单,只存放key,value
class Entity(object):
'''数据实体'''
def __init__(self,key,value)
- C语言冒泡排序
dcj3sjt126com
算法
代码示例:
# include <stdio.h>
//冒泡排序
void sort(int * a, int len)
{
int i, j, t;
for (i=0; i<len-1; i++)
{
for (j=0; j<len-1-i; j++)
{
if (a[j] > a[j+1]) // >表示升序
- 自定义导航栏样式
dcj3sjt126com
自定义
-(void)setupAppAppearance
{
[[UILabel appearance] setFont:[UIFont fontWithName:@"FZLTHK—GBK1-0" size:20]];
[UIButton appearance].titleLabel.font =[UIFont fontWithName:@"FZLTH
- 11.性能优化-优化-JVM参数总结
frank1234
jvm参数性能优化
1.堆
-Xms --初始堆大小
-Xmx --最大堆大小
-Xmn --新生代大小
-Xss --线程栈大小
-XX:PermSize --永久代初始大小
-XX:MaxPermSize --永久代最大值
-XX:SurvivorRatio --新生代和suvivor比例,默认为8
-XX:TargetSurvivorRatio --survivor可使用
- nginx日志分割 for linux
HarborChung
nginxlinux脚本
nginx日志分割 for linux 默认情况下,nginx是不分割访问日志的,久而久之,网站的日志文件将会越来越大,占用空间不说,如果有问题要查看网站的日志的话,庞大的文件也将很难打开,于是便有了下面的脚本 使用方法,先将以下脚本保存为 cutlog.sh,放在/root 目录下,然后给予此脚本执行的权限
复制代码代码如下:
chmo
- Spring4新特性——泛型限定式依赖注入
jinnianshilongnian
springspring4泛型式依赖注入
Spring4新特性——泛型限定式依赖注入
Spring4新特性——核心容器的其他改进
Spring4新特性——Web开发的增强
Spring4新特性——集成Bean Validation 1.1(JSR-349)到SpringMVC
Spring4新特性——Groovy Bean定义DSL
Spring4新特性——更好的Java泛型操作API
Spring4新
- centOS安装GCC和G++
liuxihope
centosgcc
Centos支持yum安装,安装软件一般格式为yum install .......,注意安装时要先成为root用户。
按照这个思路,我想安装过程如下:
安装gcc:yum install gcc
安装g++: yum install g++
实际操作过程发现,只能有gcc安装成功,而g++安装失败,提示g++ command not found。上网查了一下,正确安装应该
- 第13章 Ajax进阶(上)
onestopweb
Ajax
index.html
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/
- How to determine BusinessObjects service pack and fix pack
blueoxygen
BO
http://bukhantsov.org/2011/08/how-to-determine-businessobjects-service-pack-and-fix-pack/
The table below is helpful. Reference
BOE XI 3.x
12.0.0.
y BOE XI 3.0 12.0.
x.
y BO
- Oracle里的自增字段设置
tomcat_oracle
oracle
大家都知道吧,这很坑,尤其是用惯了mysql里的自增字段设置,结果oracle里面没有的。oh,no 我用的是12c版本的,它有一个新特性,可以这样设置自增序列,在创建表是,把id设置为自增序列
create table t
(
id number generated by default as identity (start with 1 increment b
- Spring Security(01)——初体验
yang_winnie
springSecurity
Spring Security(01)——初体验
博客分类: spring Security
Spring Security入门安全认证
首先我们为Spring Security专门建立一个Spring的配置文件,该文件就专门用来作为Spring Security的配置