- Transformer底层原理解析及基于pytorch的代码实现
LiRuiJie
人工智能transformerpytorch深度学习
1.Transformer底层原理解析1.1核心架构突破Transformer是自然语言处理领域的革命性架构,其核心设计思想完全摒弃了循环结构,通过自注意力机制实现全局依赖建模。整体架构图如下:以下是其核心组件:1)自注意力机制(Self-Attention)-输入序列的每个位置都能直接关注所有位置-数学公式(缩放点积注意力):-Q:查询矩阵(当前关注点)-K:键矩阵(被比较项)-V:值矩阵(实际
- 大模型笔记10:LoRA微调
errorwarn
笔记
LoRA微调的原理矩阵的秩矩阵的秩代表一个矩阵中所含信息的大小。行秩:矩阵中互相不重复、不依赖(即线性无关)的行的最大数目。列秩:矩阵中互相不重复、不依赖的列的最大数目。事实上,行秩和列秩总是相等的,因此我们通常直接称之为“矩阵的秩”。Transformer中微调哪些参数:LoRA的改进版本
- 大语言模型(LLM)量化基础知识(一)
-派神-
RAGNLPChatGPT语言模型人工智能自然语言处理
承接各类AI相关应用开发项目(包括但不限于大模型微调、RAG、AI智能体、NLP、机器学习算法、运筹优化算法、数据分析EDA等)!!!有意愿请私信!!!随着大型语言模型(LLM)的参数数量的增长,与其支持硬件(加速器内存)增长速度之间的差距越来越大,如下图所示:上图显示,从2017年到2022年,语言模型的大小显著增加:2017年:Transformer模型(0.05B参数)2018年:GPT(0
- 基于Transformer实现机器翻译
yyyyurina.
transformer机器翻译深度学习
目录一、前言1.1什么是Transformer?1.2Transfomer的基本结构1.2Transformer的重要组成部分1.2.1位置编码(PositionalEncode)1.2.2自注意力机制(Self-Attention)1.2.3多头注意力(Multi-HeadAttention)1.2.4位置感知前馈层(Position-wiseFFN)1.2.5残差连接与层归一化二、AutoDL
- LLM推理入门实践:基于 Hugging Face Transformers 和 vLLM
ctrl A_ctrl C_ctrl V
#大模型llmpython自然语言处理人工智能
文章目录1.HuggingFace模型下载2.HuggingFaceTransformers库模型推理3.关于prompt的组成:system、user、assistant4.vLLM模型推理vLLM的多卡推理踩坑1.HuggingFace模型下载模型在HuggingFace下载,如果下载速度太慢,可以在HuggingFace镜像网站或ModelScope进行下载。使用HuggingFace的下载
- 不用公式!用生活例子讲透Transformer,大模型为何强大
九章云极DataCanvas
技术干货人工智能
想象一下,你现在是个翻译员,手头有一本厚厚的英文书,要把它翻译成中文。这可不是个轻松活儿!以前的翻译方法(老派翻译官:RNNs)过去,我们的电脑(也就是老模型,比如RNNs)是这样翻译的:就像一个超级认真的翻译官,他会逐字逐句地读英文书。他读到一个英文词时,会琢磨这个词之前讲了什么,以及他到现在为止记住了多少内容,然后才决定怎么翻译。这种方法有两个大毛病:太慢,不能分工合作:就像一个翻译官,他必须
- GRU与Transformer结合:新一代序列模型
AI大模型应用工坊
grutransformer深度学习ai
GRU与Transformer结合:新一代序列模型关键词:GRU、Transformer、序列模型、结合、深度学习摘要:本文深入探讨了GRU与Transformer结合所形成的新一代序列模型。先介绍了GRU和Transformer各自的核心概念及工作原理,然后阐述了二者结合的原因、方式和优势。通过代码实际案例展示了如何搭建结合的模型,还探讨了其在自然语言处理、语音识别等领域的实际应用场景。最后对未
- ⼤模型(LLMs)基础⾯
cv2016_DL
LLM大模型计算机视觉人工智能llama
1.⽬前主流的开源模型体系有哪些?⽬前主流的开源LLM(语⾔模型)模型体系包括以下⼏个:1.GPT(GenerativePre-trainedTransformer)系列:由OpenAI发布的⼀系列基于Transformer架构的语⾔模型,包括GPT、GPT-2、GPT-3等。GPT模型通过在⼤规模⽆标签⽂本上进⾏预训练,然后在特定任务上进⾏微调,具有很强的⽣成能⼒和语⾔理解能⼒。2.BERT(B
- PD分离与EP分离技术
静谧之心
LLMAI相关算力调度k8spd分离llmep专家并行kvcache
一、Prefill与Decode的底层原理剖析1.1Prefill阶段的数学本质(以Transformer架构为例)计算密集型的核心原因:#自注意力计算伪代码Q=X@W_Q#[batch,seq_len,d_model]→[batch,seq_len,d_k]K=X@W_K#O(n^2)复杂度开始显现V=X@W_Vattn=(
[email protected](-2,-1))/sqrt(d_k)#[bat
- Java如何导出word(根据模板生成),通过word转成pdf,放压缩包
R-sz
javawordpdf
com.deepoovepoi-tl1.10.0-betaorg.apache.poipoi4.1.2org.apache.poipoi-ooxml4.1.2org.apache.poipoi-scratchpad4.1.2com.documents4jdocuments4j-local1.0.3com.documents4jdocuments4j-transformer-msoffice-wor
- 使用Hugging Face的Sentence Transformers进行文本嵌入
2501_92325368
语言模型langchain
概述HuggingFace的SentenceTransformers是一种用于生成文本和图像嵌入的Python框架,提供了最新的技术。这个框架可以通过HuggingFaceEmbeddings类来使用嵌入模型。尽管它功能强大,但在本地运行可能会受到操作系统和其他因素的影响,因此推荐给有经验的用户使用。核心原理解析SentenceTransformers基于BERT等深度学习模型,通过转化输入文本为
- Kaggle金牌方案复现:CGO-Transformer-GRU多模态融合预测实战
1背景分析在2023年Kaggle"GlobalMultimodalDemandForecastingChallenge"竞赛中,CGO-Transformer-GRU方案以领先第二名1.8个百分点的绝对优势夺冠,创下该赛事三年来的最佳成绩。本方案创新性地融合了协方差引导优化(CGO)、注意力机制和时序建模三大技术模块,解决了多模态数据融合中的关键挑战:模态对齐、特征冲突和时序依赖建模。(1)多模
- LSTM、GRU 与 Transformer网络模型参数计算
suixinm
lstmgrutransformer
参数计算公式对比模型类型参数计算公式关键组成部分LSTM4×(embed_dim×hidden_size+hidden_size²+hidden_size)4个门控结构GRU3×(embed_dim×hidden_size+hidden_size²+hidden_size)3个门控结构Transformer(Encoder)12×embed_dim²+9×embed_dim×ff_dim+14×e
- 多头注意力机制中全连接函数
不知更鸟
深度学习
在神经网络(特别是Transformer中的多头注意力机制)中,全连接函数(FullyConnectedLayer,FCLayer)通常指的是一个线性变换层,即nn.Linear在PyTorch中的实现。它本质上是一个矩阵乘法加上偏置(bias)的操作,用于对输入数据进行线性变换。1.全连接函数(nn.Linear)是什么?nn.Linear(d_model,d_model)表示一个全连接层,它的
- 大语言模型全流程开发技术详解:从架构、训练到对齐与量化
艾墨舟启航
大模型实战架构人工智能大语言模型
github:https://github.com/mlabonne/llm-course大语言模型全流程开发技术详解:从架构、训练到对齐与量化大模型实战指南:多模型生态实战与论文解读一、LLM架构(TheLLMarchitecture)不需要对Transformer架构有深入的了解,但了解现代LLM的主要步骤很重要:通过分词化将文本转换为数字,通过包括注意力机制在内的层处理这些分词,最后通过各种
- 预训练语言模型
lynnzon
语言模型人工智能自然语言处理
1.1Encoder-onlyPLMEncoder-only架构是Transformer的重要分支,专注于自然语言理解(NLU)任务,核心代表是BERT及其优化模型(RoBERTa、ALBERT)。其特点是:仅使用Encoder层:堆叠多层TransformerEncoder,捕捉文本双向语义。预训练任务:通过掩码语言模型(MLM)学习上下文依赖。应用场景:文本分类、实体识别、语义匹配等NLU任务
- 大模型学习 (Datawhale_Happy-LLM)笔记4: 预训练语言模型
lxltom
学习笔记语言模型人工智能bertgpt
大模型学习(Datawhale_Happy-LLM)笔记4:预训练语言模型一、概述本章按Encoder-Only、Encoder-Decoder、Decoder-Only的顺序来依次介绍Transformer时代的各个主流预训练模型,分别介绍三种核⼼的模型架构、每种主流模型选择的预训练任务及其独特优势,这也是目前所有主流LLM的模型基础。二、Encoder-onlyPLM代表:BERT及其优化版本
- 预训练语言模型之:Encoder-only PLM
抱抱宝
大模型语言模型人工智能自然语言处理
1.基础架构:TransformerEncoder所有模型的基石都是TransformerEncoder结构,其核心是自注意力机制:Attention(Q,K,V)=softmax(QKTdk)V\text{Attention}(Q,K,V)=\text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)VAttention(Q,K,V)=softmax(dk
- CVPR2025
摸鱼的肚子
论文阅读深度学习
CVPR论文列表大论文相关,abstactSphereUFormer:AU-ShapedTransformerforSpherical360Perception对360rgb图的深度进行估计CroCoDL:Cross-deviceCollaborativeDatasetforLocalization(没有)SemAlign3D:SemanticCorrespondencebetweenRGB-Im
- CVPR 2024 图像处理方向总汇(图像去噪、图像增强、图像分割和图像恢复等)
点云SLAM
图形图像处理深度学习计算机视觉图像分割图像增强CVPR2024人工智能
1、ImageProgress(图像处理)去鬼影GeneratingContentforHDRDeghostingfromFrequencyView去阴影HomoFormer:HomogenizedTransformerforImageShadowRemoval去模糊UnsupervisedBlindImageDeblurringBasedonSelf-EnhancementLatencyCorr
- Python 调用大模型:解锁人工智能的无限可能
CarlowZJ
AI应用落地+Pythonpython人工智能
目录一、大模型的概念与特点(一)大模型的定义(二)大模型的特点(三)大模型的原理(四)大模型的发展历史二、Python调用大模型的实现方法(一)使用OpenAIAPI设置API密钥定义提示文本调用OpenAIAPI输出生成的文本加载预训练模型和分词器2.使用HuggingFaceTransformers库三、Python调用大模型的流程图四、Python调用大模型注意事项的1.数据隐私与安全2.成
- 第8章:智能菜谱生成器——语言模型如何解析烹饪秘方
白嫖不白嫖
深度求索-DeepSeek语言模型人工智能自然语言处理
第8章:智能菜谱生成器——语言模型如何解析烹饪秘方从语义理解到操作执行的完整技术解密工业案例背景:法国里昂的Bocused’Or国际烹饪大赛选手手册中记载这样一道经典指令:“将酱汁熬煮至Nappé状态(即勺子划过痕迹缓慢回填)”。当传统NLP系统将其简单译为"煮浓",新一代Transformer模型却精准解析出粘度为1500-2000cP的物性指标,并据此生成控温方案。这背后的核心技术便是基于烹饪
- LeRobot: 让机械臂接入大模型
小众AI
AI开源人工智能AI编程
HuggingFace推出的开源项目LeRobot引发了业界广泛关注。这一项目通过整合最先进的机器学习算法和便捷的开发工具链,为开发者提供了一个高效、易用的机器人AI开发平台,堪称机器人领域的“Transformer时刻”。LeRobot旨在为PyTorch中的真实机器人技术提供模型、数据集和工具。目标是降低机器人技术的准入门槛,以便每个人都可以从共享数据集和预训练模型中受益。LeRobot包含最
- 一起学习swin-transformer(一)
Vertira
pytorch学习transformer深度学习
Transform学习链接从零开始设计Transformer模型(1/2)——剥离RNN,保留Attention-CSDN博客Transformer-PyTorch实战项目——文本分类_transformer文本分类pytorch-CSDN博客从零开始设计Transformer模型(2/2)——从Attention层到transformer网络_trasformer输入矩阵,吐出一个矩阵?-CSD
- Transformer 中 QKV 流向全解析(含注意力机制箭头图示)
Accelemate
transformer人工智能深度学习
QKV是什么?在Attention机制中,我们通过Query(查询)与一组Key-Value(键-值)对计算注意力权重,然后用这些权重对Value进行加权求和,从而输出当前时刻关注上下文的结果。Transformer中注意力模块分布Transformer结构中含有三种注意力机制,每个机制都会涉及Q、K、V的构建和使用:编码器自注意力(EncoderSelf-Attention)解码器自注意力(De
- 基础RAG实现,最佳入门选择(二)
人工智能
初次创建embeddings向量安装相关依赖pipinstallsentence-transformerstorchprotobufsentencepiecepipinstallsentence-transformerstorchprotobufsentencepiecepipinstallsentence-transformerstorchprotobufsentencepiece代码froms
- 从零到一RedisVL 安装与运行全攻略
1、安装RedisVL1.1使用pip(推荐)需求指令说明核心功能pipinstall-Uredisvl仅依赖redis-py≥5与pydantic≥2向量化器pipinstallredisvl[all]额外安装sentence-transformers、NumPy等开发环境pipinstallredisvl[dev]flake8、pytest、black…hiredis加速pipinstallr
- Patch Position Embedding (PPE) 在医疗 AI 中的应用编程分析
Allen_Lyb
数智化教程(第二期)embedding人工智能机器学习健康医疗
一、PPE的核心原理与医疗场景适配性位置编码的本质需求在医疗影像(如CT、MRI、病理切片)中,Transformer需要将图像划分为若干Patch并作为序列输入。但如果不注入空间信息,模型难以区分同一病灶在不同坐标的语义差异。传统的绝对位置编码(如SinusoidalPE)对等距网格有效,却无法灵活适配病灶大小多变、图像分辨率不一的医学场景。PatchPositionEmbedding(PPE)
- Transformer-LSTM+SHAP可解释性分析的回归预测Matlab代码
默默科研仔
SHAP分析transformerlstm回归
代码示例:%基于Transformer-LSTM+SHAP可解释性分析的回归预测Matlab代码%多输入单输出版本%步骤1:数据预处理function[X_train,y_train,X_test,y_test]=prepareData(data,windowSize)%假设数据格式为[N_samplesxT_stepsxN_features],y为单输出序列N=size(data,1);%样本数
- llamafactory 微调模型出现TypeError: argument of type ‘NoneType‘ is not iterable
成都犀牛
python开发语言人工智能深度学习神经网络LoRALLamaFactory
问题介绍本文作者碰到的问题是File“/root/miniconda3/lib/python3.12/site-packages/transformers/modeling_utils.py”,line1969,inpost_initifvnotinALL_PARALLEL_STYLES:^^^^^^^^^^^^^^^^^^^^^^^^^^^^TypeError:argumentoftype‘No
- Java实现的简单双向Map,支持重复Value
superlxw1234
java双向map
关键字:Java双向Map、DualHashBidiMap
有个需求,需要根据即时修改Map结构中的Value值,比如,将Map中所有value=V1的记录改成value=V2,key保持不变。
数据量比较大,遍历Map性能太差,这就需要根据Value先找到Key,然后去修改。
即:既要根据Key找Value,又要根据Value
- PL/SQL触发器基础及例子
百合不是茶
oracle数据库触发器PL/SQL编程
触发器的简介;
触发器的定义就是说某个条件成立的时候,触发器里面所定义的语句就会被自动的执行。因此触发器不需要人为的去调用,也不能调用。触发器和过程函数类似 过程函数必须要调用,
一个表中最多只能有12个触发器类型的,触发器和过程函数相似 触发器不需要调用直接执行,
触发时间:指明触发器何时执行,该值可取:
before:表示在数据库动作之前触发
- [时空与探索]穿越时空的一些问题
comsci
问题
我们还没有进行过任何数学形式上的证明,仅仅是一个猜想.....
这个猜想就是; 任何有质量的物体(哪怕只有一微克)都不可能穿越时空,该物体强行穿越时空的时候,物体的质量会与时空粒子产生反应,物体会变成暗物质,也就是说,任何物体穿越时空会变成暗物质..(暗物质就我的理
- easy ui datagrid上移下移一行
商人shang
js上移下移easyuidatagrid
/**
* 向上移动一行
*
* @param dg
* @param row
*/
function moveupRow(dg, row) {
var datagrid = $(dg);
var index = datagrid.datagrid("getRowIndex", row);
if (isFirstRow(dg, row)) {
- Java反射
oloz
反射
本人菜鸟,今天恰好有时间,写写博客,总结复习一下java反射方面的知识,欢迎大家探讨交流学习指教
首先看看java中的Class
package demo;
public class ClassTest {
/*先了解java中的Class*/
public static void main(String[] args) {
//任何一个类都
- springMVC 使用JSR-303 Validation验证
杨白白
springmvc
JSR-303是一个数据验证的规范,但是spring并没有对其进行实现,Hibernate Validator是实现了这一规范的,通过此这个实现来讲SpringMVC对JSR-303的支持。
JSR-303的校验是基于注解的,首先要把这些注解标记在需要验证的实体类的属性上或是其对应的get方法上。
登录需要验证类
public class Login {
@NotEmpty
- log4j
香水浓
log4j
log4j.rootCategory=DEBUG, STDOUT, DAILYFILE, HTML, DATABASE
#log4j.rootCategory=DEBUG, STDOUT, DAILYFILE, ROLLINGFILE, HTML
#console
log4j.appender.STDOUT=org.apache.log4j.ConsoleAppender
log4
- 使用ajax和history.pushState无刷新改变页面URL
agevs
jquery框架Ajaxhtml5chrome
表现
如果你使用chrome或者firefox等浏览器访问本博客、github.com、plus.google.com等网站时,细心的你会发现页面之间的点击是通过ajax异步请求的,同时页面的URL发生了了改变。并且能够很好的支持浏览器前进和后退。
是什么有这么强大的功能呢?
HTML5里引用了新的API,history.pushState和history.replaceState,就是通过
- centos中文乱码
AILIKES
centosOSssh
一、CentOS系统访问 g.cn ,发现中文乱码。
于是用以前的方式:yum -y install fonts-chinese
CentOS系统安装后,还是不能显示中文字体。我使用 gedit 编辑源码,其中文注释也为乱码。
后来,终于找到以下方法可以解决,需要两个中文支持的包:
fonts-chinese-3.02-12.
- 触发器
baalwolf
触发器
触发器(trigger):监视某种情况,并触发某种操作。
触发器创建语法四要素:1.监视地点(table) 2.监视事件(insert/update/delete) 3.触发时间(after/before) 4.触发事件(insert/update/delete)
语法:
create trigger triggerName
after/before 
- JS正则表达式的i m g
bijian1013
JavaScript正则表达式
g:表示全局(global)模式,即模式将被应用于所有字符串,而非在发现第一个匹配项时立即停止。 i:表示不区分大小写(case-insensitive)模式,即在确定匹配项时忽略模式与字符串的大小写。 m:表示
- HTML5模式和Hashbang模式
bijian1013
JavaScriptAngularJSHashbang模式HTML5模式
我们可以用$locationProvider来配置$location服务(可以采用注入的方式,就像AngularJS中其他所有东西一样)。这里provider的两个参数很有意思,介绍如下。
html5Mode
一个布尔值,标识$location服务是否运行在HTML5模式下。
ha
- [Maven学习笔记六]Maven生命周期
bit1129
maven
从mvn test的输出开始说起
当我们在user-core中执行mvn test时,执行的输出如下:
/software/devsoftware/jdk1.7.0_55/bin/java -Dmaven.home=/software/devsoftware/apache-maven-3.2.1 -Dclassworlds.conf=/software/devs
- 【Hadoop七】基于Yarn的Hadoop Map Reduce容错
bit1129
hadoop
运行于Yarn的Map Reduce作业,可能发生失败的点包括
Task Failure
Application Master Failure
Node Manager Failure
Resource Manager Failure
1. Task Failure
任务执行过程中产生的异常和JVM的意外终止会汇报给Application Master。僵死的任务也会被A
- 记一次数据推送的异常解决端口解决
ronin47
记一次数据推送的异常解决
需求:从db获取数据然后推送到B
程序开发完成,上jboss,刚开始报了很多错,逐一解决,可最后显示连接不到数据库。机房的同事说可以ping 通。
自已画了个图,逐一排除,把linux 防火墙 和 setenforce 设置最低。
service iptables stop
- 巧用视错觉-UI更有趣
brotherlamp
UIui视频ui教程ui自学ui资料
我们每个人在生活中都曾感受过视错觉(optical illusion)的魅力。
视错觉现象是双眼跟我们开的一个玩笑,而我们往往还心甘情愿地接受我们看到的假象。其实不止如此,视觉错现象的背后还有一个重要的科学原理——格式塔原理。
格式塔原理解释了人们如何以视觉方式感觉物体,以及图像的结构,视角,大小等要素是如何影响我们的视觉的。
在下面这篇文章中,我们首先会简单介绍一下格式塔原理中的基本概念,
- 线段树-poj1177-N个矩形求边长(离散化+扫描线)
bylijinnan
数据结构算法线段树
package com.ljn.base;
import java.util.Arrays;
import java.util.Comparator;
import java.util.Set;
import java.util.TreeSet;
/**
* POJ 1177 (线段树+离散化+扫描线),题目链接为http://poj.org/problem?id=1177
- HTTP协议详解
chicony
http协议
引言
- Scala设计模式
chenchao051
设计模式scala
Scala设计模式
我的话: 在国外网站上看到一篇文章,里面详细描述了很多设计模式,并且用Java及Scala两种语言描述,清晰的让我们看到各种常规的设计模式,在Scala中是如何在语言特性层面直接支持的。基于文章很nice,我利用今天的空闲时间将其翻译,希望大家能一起学习,讨论。翻译
- 安装mysql
daizj
mysql安装
安装mysql
(1)删除linux上已经安装的mysql相关库信息。rpm -e xxxxxxx --nodeps (强制删除)
执行命令rpm -qa |grep mysql 检查是否删除干净
(2)执行命令 rpm -i MySQL-server-5.5.31-2.el
- HTTP状态码大全
dcj3sjt126com
http状态码
完整的 HTTP 1.1规范说明书来自于RFC 2616,你可以在http://www.talentdigger.cn/home/link.php?url=d3d3LnJmYy1lZGl0b3Iub3JnLw%3D%3D在线查阅。HTTP 1.1的状态码被标记为新特性,因为许多浏览器只支持 HTTP 1.0。你应只把状态码发送给支持 HTTP 1.1的客户端,支持协议版本可以通过调用request
- asihttprequest上传图片
dcj3sjt126com
ASIHTTPRequest
NSURL *url =@"yourURL";
ASIFormDataRequest*currentRequest =[ASIFormDataRequest requestWithURL:url];
[currentRequest setPostFormat:ASIMultipartFormDataPostFormat];[currentRequest se
- C语言中,关键字static的作用
e200702084
C++cC#
在C语言中,关键字static有三个明显的作用:
1)在函数体,局部的static变量。生存期为程序的整个生命周期,(它存活多长时间);作用域却在函数体内(它在什么地方能被访问(空间))。
一个被声明为静态的变量在这一函数被调用过程中维持其值不变。因为它分配在静态存储区,函数调用结束后并不释放单元,但是在其它的作用域的无法访问。当再次调用这个函数时,这个局部的静态变量还存活,而且用在它的访
- win7/8使用curl
geeksun
win7
1. WIN7/8下要使用curl,需要下载curl-7.20.0-win64-ssl-sspi.zip和Win64OpenSSL_Light-1_0_2d.exe。 下载地址:
http://curl.haxx.se/download.html 请选择不带SSL的版本,否则还需要安装SSL的支持包 2. 可以给Windows增加c
- Creating a Shared Repository; Users Sharing The Repository
hongtoushizi
git
转载自:
http://www.gitguys.com/topics/creating-a-shared-repository-users-sharing-the-repository/ Commands discussed in this section:
git init –bare
git clone
git remote
git pull
git p
- Java实现字符串反转的8种或9种方法
Josh_Persistence
异或反转递归反转二分交换反转java字符串反转栈反转
注:对于第7种使用异或的方式来实现字符串的反转,如果不太看得明白的,可以参照另一篇博客:
http://josh-persistence.iteye.com/blog/2205768
/**
*
*/
package com.wsheng.aggregator.algorithm.string;
import java.util.Stack;
/**
- 代码实现任意容量倒水问题
home198979
PHP算法倒水
形象化设计模式实战 HELLO!架构 redis命令源码解析
倒水问题:有两个杯子,一个A升,一个B升,水有无限多,现要求利用这两杯子装C
- Druid datasource
zhb8015
druid
推荐大家使用数据库连接池 DruidDataSource. http://code.alibabatech.com/wiki/display/Druid/DruidDataSource DruidDataSource经过阿里巴巴数百个应用一年多生产环境运行验证,稳定可靠。 它最重要的特点是:监控、扩展和性能。 下载和Maven配置看这里: http
- 两种启动监听器ApplicationListener和ServletContextListener
spjich
javaspring框架
引言:有时候需要在项目初始化的时候进行一系列工作,比如初始化一个线程池,初始化配置文件,初始化缓存等等,这时候就需要用到启动监听器,下面分别介绍一下两种常用的项目启动监听器
ServletContextListener
特点: 依赖于sevlet容器,需要配置web.xml
使用方法:
public class StartListener implements
- JavaScript Rounding Methods of the Math object
何不笑
JavaScriptMath
The next group of methods has to do with rounding decimal values into integers. Three methods — Math.ceil(), Math.floor(), and Math.round() — handle rounding in differen