- 【大模型】Transformer架构完全解读:从“盲人摸象“到“通晓万物“的AI进化论
全栈追梦人
大模型#提示工程transformer架构深度学习
Transformer架构完全解读:从"盲人摸象"到"通晓万物"的AI进化论——一位大模型探索者的技术日记☕第一章:为什么说Transformer是AI界的"蒸汽机革命"?1.1从RNN到Transformer:一场效率革命场景:咖啡厅里两位开发者的对话实习生小雨:“学长,为什么现在都用Transformer?RNN不是也能处理文本吗?”资深工程师老张:(掏出纸巾画图)“想象RNN是个严格的图书管
- 【2024 CVPR-Backbone】RepViT: Revisiting Mobile CNN From ViT Perspective
无敌悦悦王
文献阅读cnn人工智能神经网络计算机视觉图像处理python深度学习
摘要近期,轻量级视觉Transformer(ViT)在资源受限的移动设备上表现出比轻量级卷积神经网络(CNN)更优异的性能和更低的延迟。研究人员已发现轻量级ViT与轻量级CNN之间存在许多结构关联,但二者在模块结构、宏观和微观设计上的显著架构差异尚未得到充分研究。本研究从ViT视角重新审视轻量级CNN的高效设计,并强调其在移动设备上的应用前景。具体而言,我们通过整合轻量级ViT的高效架构设计,逐步
- 使用vllm部署 Nanonets-OCR-s
没刮胡子
软件开发技术实战专栏Linux服务器技术人工智能AIocrpython深度学习
使用vLLM部署Nanonets-OCR-s模型的完整指南Nanonets-OCR-s作为基于Qwen2.5-VL-3B的多模态OCR模型,结合vLLM的高效推理引擎可显著提升部署性能。一、环境准备与依赖安装1.安装vLLM与多模态依赖#安装vLLM(含CUDA加速)pipinstallvllm==0.3.21#建议使用稳定版本pipinstalltransformers==4.35
- LLaMA Factory 微调后,迁移模型
激进小猪1002
llamallamafactory人工智能python
方法1:使用HuggingFaceHub(最推荐)fromtransformersimportAutoModelForCausalLM,AutoTokenizer#在源服务器上保存模型到Hubmodel.push_to_hub("your-username/your-model-name")tokenizer.push_to_hub("your-username/your-model-name")
- Transformer底层原理解析及基于pytorch的代码实现
LiRuiJie
人工智能transformerpytorch深度学习
1.Transformer底层原理解析1.1核心架构突破Transformer是自然语言处理领域的革命性架构,其核心设计思想完全摒弃了循环结构,通过自注意力机制实现全局依赖建模。整体架构图如下:以下是其核心组件:1)自注意力机制(Self-Attention)-输入序列的每个位置都能直接关注所有位置-数学公式(缩放点积注意力):-Q:查询矩阵(当前关注点)-K:键矩阵(被比较项)-V:值矩阵(实际
- 大模型笔记10:LoRA微调
errorwarn
笔记
LoRA微调的原理矩阵的秩矩阵的秩代表一个矩阵中所含信息的大小。行秩:矩阵中互相不重复、不依赖(即线性无关)的行的最大数目。列秩:矩阵中互相不重复、不依赖的列的最大数目。事实上,行秩和列秩总是相等的,因此我们通常直接称之为“矩阵的秩”。Transformer中微调哪些参数:LoRA的改进版本
- 大语言模型(LLM)量化基础知识(一)
-派神-
RAGNLPChatGPT语言模型人工智能自然语言处理
承接各类AI相关应用开发项目(包括但不限于大模型微调、RAG、AI智能体、NLP、机器学习算法、运筹优化算法、数据分析EDA等)!!!有意愿请私信!!!随着大型语言模型(LLM)的参数数量的增长,与其支持硬件(加速器内存)增长速度之间的差距越来越大,如下图所示:上图显示,从2017年到2022年,语言模型的大小显著增加:2017年:Transformer模型(0.05B参数)2018年:GPT(0
- 基于Transformer实现机器翻译
yyyyurina.
transformer机器翻译深度学习
目录一、前言1.1什么是Transformer?1.2Transfomer的基本结构1.2Transformer的重要组成部分1.2.1位置编码(PositionalEncode)1.2.2自注意力机制(Self-Attention)1.2.3多头注意力(Multi-HeadAttention)1.2.4位置感知前馈层(Position-wiseFFN)1.2.5残差连接与层归一化二、AutoDL
- LLM推理入门实践:基于 Hugging Face Transformers 和 vLLM
ctrl A_ctrl C_ctrl V
#大模型llmpython自然语言处理人工智能
文章目录1.HuggingFace模型下载2.HuggingFaceTransformers库模型推理3.关于prompt的组成:system、user、assistant4.vLLM模型推理vLLM的多卡推理踩坑1.HuggingFace模型下载模型在HuggingFace下载,如果下载速度太慢,可以在HuggingFace镜像网站或ModelScope进行下载。使用HuggingFace的下载
- 不用公式!用生活例子讲透Transformer,大模型为何强大
九章云极DataCanvas
技术干货人工智能
想象一下,你现在是个翻译员,手头有一本厚厚的英文书,要把它翻译成中文。这可不是个轻松活儿!以前的翻译方法(老派翻译官:RNNs)过去,我们的电脑(也就是老模型,比如RNNs)是这样翻译的:就像一个超级认真的翻译官,他会逐字逐句地读英文书。他读到一个英文词时,会琢磨这个词之前讲了什么,以及他到现在为止记住了多少内容,然后才决定怎么翻译。这种方法有两个大毛病:太慢,不能分工合作:就像一个翻译官,他必须
- GRU与Transformer结合:新一代序列模型
AI大模型应用工坊
grutransformer深度学习ai
GRU与Transformer结合:新一代序列模型关键词:GRU、Transformer、序列模型、结合、深度学习摘要:本文深入探讨了GRU与Transformer结合所形成的新一代序列模型。先介绍了GRU和Transformer各自的核心概念及工作原理,然后阐述了二者结合的原因、方式和优势。通过代码实际案例展示了如何搭建结合的模型,还探讨了其在自然语言处理、语音识别等领域的实际应用场景。最后对未
- ⼤模型(LLMs)基础⾯
cv2016_DL
LLM大模型计算机视觉人工智能llama
1.⽬前主流的开源模型体系有哪些?⽬前主流的开源LLM(语⾔模型)模型体系包括以下⼏个:1.GPT(GenerativePre-trainedTransformer)系列:由OpenAI发布的⼀系列基于Transformer架构的语⾔模型,包括GPT、GPT-2、GPT-3等。GPT模型通过在⼤规模⽆标签⽂本上进⾏预训练,然后在特定任务上进⾏微调,具有很强的⽣成能⼒和语⾔理解能⼒。2.BERT(B
- PD分离与EP分离技术
静谧之心
LLMAI相关算力调度k8spd分离llmep专家并行kvcache
一、Prefill与Decode的底层原理剖析1.1Prefill阶段的数学本质(以Transformer架构为例)计算密集型的核心原因:#自注意力计算伪代码Q=X@W_Q#[batch,seq_len,d_model]→[batch,seq_len,d_k]K=X@W_K#O(n^2)复杂度开始显现V=X@W_Vattn=(
[email protected](-2,-1))/sqrt(d_k)#[bat
- Java如何导出word(根据模板生成),通过word转成pdf,放压缩包
R-sz
javawordpdf
com.deepoovepoi-tl1.10.0-betaorg.apache.poipoi4.1.2org.apache.poipoi-ooxml4.1.2org.apache.poipoi-scratchpad4.1.2com.documents4jdocuments4j-local1.0.3com.documents4jdocuments4j-transformer-msoffice-wor
- 使用Hugging Face的Sentence Transformers进行文本嵌入
2501_92325368
语言模型langchain
概述HuggingFace的SentenceTransformers是一种用于生成文本和图像嵌入的Python框架,提供了最新的技术。这个框架可以通过HuggingFaceEmbeddings类来使用嵌入模型。尽管它功能强大,但在本地运行可能会受到操作系统和其他因素的影响,因此推荐给有经验的用户使用。核心原理解析SentenceTransformers基于BERT等深度学习模型,通过转化输入文本为
- Kaggle金牌方案复现:CGO-Transformer-GRU多模态融合预测实战
1背景分析在2023年Kaggle"GlobalMultimodalDemandForecastingChallenge"竞赛中,CGO-Transformer-GRU方案以领先第二名1.8个百分点的绝对优势夺冠,创下该赛事三年来的最佳成绩。本方案创新性地融合了协方差引导优化(CGO)、注意力机制和时序建模三大技术模块,解决了多模态数据融合中的关键挑战:模态对齐、特征冲突和时序依赖建模。(1)多模
- LSTM、GRU 与 Transformer网络模型参数计算
suixinm
lstmgrutransformer
参数计算公式对比模型类型参数计算公式关键组成部分LSTM4×(embed_dim×hidden_size+hidden_size²+hidden_size)4个门控结构GRU3×(embed_dim×hidden_size+hidden_size²+hidden_size)3个门控结构Transformer(Encoder)12×embed_dim²+9×embed_dim×ff_dim+14×e
- 多头注意力机制中全连接函数
不知更鸟
深度学习
在神经网络(特别是Transformer中的多头注意力机制)中,全连接函数(FullyConnectedLayer,FCLayer)通常指的是一个线性变换层,即nn.Linear在PyTorch中的实现。它本质上是一个矩阵乘法加上偏置(bias)的操作,用于对输入数据进行线性变换。1.全连接函数(nn.Linear)是什么?nn.Linear(d_model,d_model)表示一个全连接层,它的
- 大语言模型全流程开发技术详解:从架构、训练到对齐与量化
艾墨舟启航
大模型实战架构人工智能大语言模型
github:https://github.com/mlabonne/llm-course大语言模型全流程开发技术详解:从架构、训练到对齐与量化大模型实战指南:多模型生态实战与论文解读一、LLM架构(TheLLMarchitecture)不需要对Transformer架构有深入的了解,但了解现代LLM的主要步骤很重要:通过分词化将文本转换为数字,通过包括注意力机制在内的层处理这些分词,最后通过各种
- 预训练语言模型
lynnzon
语言模型人工智能自然语言处理
1.1Encoder-onlyPLMEncoder-only架构是Transformer的重要分支,专注于自然语言理解(NLU)任务,核心代表是BERT及其优化模型(RoBERTa、ALBERT)。其特点是:仅使用Encoder层:堆叠多层TransformerEncoder,捕捉文本双向语义。预训练任务:通过掩码语言模型(MLM)学习上下文依赖。应用场景:文本分类、实体识别、语义匹配等NLU任务
- 大模型学习 (Datawhale_Happy-LLM)笔记4: 预训练语言模型
lxltom
学习笔记语言模型人工智能bertgpt
大模型学习(Datawhale_Happy-LLM)笔记4:预训练语言模型一、概述本章按Encoder-Only、Encoder-Decoder、Decoder-Only的顺序来依次介绍Transformer时代的各个主流预训练模型,分别介绍三种核⼼的模型架构、每种主流模型选择的预训练任务及其独特优势,这也是目前所有主流LLM的模型基础。二、Encoder-onlyPLM代表:BERT及其优化版本
- 预训练语言模型之:Encoder-only PLM
抱抱宝
大模型语言模型人工智能自然语言处理
1.基础架构:TransformerEncoder所有模型的基石都是TransformerEncoder结构,其核心是自注意力机制:Attention(Q,K,V)=softmax(QKTdk)V\text{Attention}(Q,K,V)=\text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)VAttention(Q,K,V)=softmax(dk
- CVPR2025
摸鱼的肚子
论文阅读深度学习
CVPR论文列表大论文相关,abstactSphereUFormer:AU-ShapedTransformerforSpherical360Perception对360rgb图的深度进行估计CroCoDL:Cross-deviceCollaborativeDatasetforLocalization(没有)SemAlign3D:SemanticCorrespondencebetweenRGB-Im
- CVPR 2024 图像处理方向总汇(图像去噪、图像增强、图像分割和图像恢复等)
点云SLAM
图形图像处理深度学习计算机视觉图像分割图像增强CVPR2024人工智能
1、ImageProgress(图像处理)去鬼影GeneratingContentforHDRDeghostingfromFrequencyView去阴影HomoFormer:HomogenizedTransformerforImageShadowRemoval去模糊UnsupervisedBlindImageDeblurringBasedonSelf-EnhancementLatencyCorr
- Python 调用大模型:解锁人工智能的无限可能
CarlowZJ
AI应用落地+Pythonpython人工智能
目录一、大模型的概念与特点(一)大模型的定义(二)大模型的特点(三)大模型的原理(四)大模型的发展历史二、Python调用大模型的实现方法(一)使用OpenAIAPI设置API密钥定义提示文本调用OpenAIAPI输出生成的文本加载预训练模型和分词器2.使用HuggingFaceTransformers库三、Python调用大模型的流程图四、Python调用大模型注意事项的1.数据隐私与安全2.成
- 第8章:智能菜谱生成器——语言模型如何解析烹饪秘方
白嫖不白嫖
深度求索-DeepSeek语言模型人工智能自然语言处理
第8章:智能菜谱生成器——语言模型如何解析烹饪秘方从语义理解到操作执行的完整技术解密工业案例背景:法国里昂的Bocused’Or国际烹饪大赛选手手册中记载这样一道经典指令:“将酱汁熬煮至Nappé状态(即勺子划过痕迹缓慢回填)”。当传统NLP系统将其简单译为"煮浓",新一代Transformer模型却精准解析出粘度为1500-2000cP的物性指标,并据此生成控温方案。这背后的核心技术便是基于烹饪
- LeRobot: 让机械臂接入大模型
小众AI
AI开源人工智能AI编程
HuggingFace推出的开源项目LeRobot引发了业界广泛关注。这一项目通过整合最先进的机器学习算法和便捷的开发工具链,为开发者提供了一个高效、易用的机器人AI开发平台,堪称机器人领域的“Transformer时刻”。LeRobot旨在为PyTorch中的真实机器人技术提供模型、数据集和工具。目标是降低机器人技术的准入门槛,以便每个人都可以从共享数据集和预训练模型中受益。LeRobot包含最
- 一起学习swin-transformer(一)
Vertira
pytorch学习transformer深度学习
Transform学习链接从零开始设计Transformer模型(1/2)——剥离RNN,保留Attention-CSDN博客Transformer-PyTorch实战项目——文本分类_transformer文本分类pytorch-CSDN博客从零开始设计Transformer模型(2/2)——从Attention层到transformer网络_trasformer输入矩阵,吐出一个矩阵?-CSD
- Transformer 中 QKV 流向全解析(含注意力机制箭头图示)
Accelemate
transformer人工智能深度学习
QKV是什么?在Attention机制中,我们通过Query(查询)与一组Key-Value(键-值)对计算注意力权重,然后用这些权重对Value进行加权求和,从而输出当前时刻关注上下文的结果。Transformer中注意力模块分布Transformer结构中含有三种注意力机制,每个机制都会涉及Q、K、V的构建和使用:编码器自注意力(EncoderSelf-Attention)解码器自注意力(De
- 基础RAG实现,最佳入门选择(二)
人工智能
初次创建embeddings向量安装相关依赖pipinstallsentence-transformerstorchprotobufsentencepiecepipinstallsentence-transformerstorchprotobufsentencepiecepipinstallsentence-transformerstorchprotobufsentencepiece代码froms
- PHP,安卓,UI,java,linux视频教程合集
cocos2d-x小菜
javaUIlinuxPHPandroid
╔-----------------------------------╗┆
- zookeeper admin 笔记
braveCS
zookeeper
Required Software
1) JDK>=1.6
2)推荐使用ensemble的ZooKeeper(至少3台),并run on separate machines
3)在Yahoo!,zk配置在特定的RHEL boxes里,2个cpu,2G内存,80G硬盘
数据和日志目录
1)数据目录里的文件是zk节点的持久化备份,包括快照和事务日
- Spring配置多个连接池
easterfly
spring
项目中需要同时连接多个数据库的时候,如何才能在需要用到哪个数据库就连接哪个数据库呢?
Spring中有关于dataSource的配置:
<bean id="dataSource" class="com.mchange.v2.c3p0.ComboPooledDataSource"
&nb
- Mysql
171815164
mysql
例如,你想myuser使用mypassword从任何主机连接到mysql服务器的话。
GRANT ALL PRIVILEGES ON *.* TO 'myuser'@'%'IDENTIFIED BY 'mypassword' WI
TH GRANT OPTION;
如果你想允许用户myuser从ip为192.168.1.6的主机连接到mysql服务器,并使用mypassword作
- CommonDAO(公共/基础DAO)
g21121
DAO
好久没有更新博客了,最近一段时间工作比较忙,所以请见谅,无论你是爱看呢还是爱看呢还是爱看呢,总之或许对你有些帮助。
DAO(Data Access Object)是一个数据访问(顾名思义就是与数据库打交道)接口,DAO一般在业
- 直言有讳
永夜-极光
感悟随笔
1.转载地址:http://blog.csdn.net/jasonblog/article/details/10813313
精华:
“直言有讳”是阿里巴巴提倡的一种观念,而我在此之前并没有很深刻的认识。为什么呢?就好比是读书时候做阅读理解,我喜欢我自己的解读,并不喜欢老师给的意思。在这里也是。我自己坚持的原则是互相尊重,我觉得阿里巴巴很多价值观其实是基本的做人
- 安装CentOS 7 和Win 7后,Win7 引导丢失
随便小屋
centos
一般安装双系统的顺序是先装Win7,然后在安装CentOS,这样CentOS可以引导WIN 7启动。但安装CentOS7后,却找不到Win7 的引导,稍微修改一点东西即可。
一、首先具有root 的权限。
即进入Terminal后输入命令su,然后输入密码即可
二、利用vim编辑器打开/boot/grub2/grub.cfg文件进行修改
v
- Oracle备份与恢复案例
aijuans
oracle
Oracle备份与恢复案例
一. 理解什么是数据库恢复当我们使用一个数据库时,总希望数据库的内容是可靠的、正确的,但由于计算机系统的故障(硬件故障、软件故障、网络故障、进程故障和系统故障)影响数据库系统的操作,影响数据库中数据的正确性,甚至破坏数据库,使数据库中全部或部分数据丢失。因此当发生上述故障后,希望能重构这个完整的数据库,该处理称为数据库恢复。恢复过程大致可以分为复原(Restore)与
- JavaEE开源快速开发平台G4Studio v5.0发布
無為子
我非常高兴地宣布,今天我们最新的JavaEE开源快速开发平台G4Studio_V5.0版本已经正式发布。
访问G4Studio网站
http://www.g4it.org
2013-04-06 发布G4Studio_V5.0版本
功能新增
(1). 新增了调用Oracle存储过程返回游标,并将游标映射为Java List集合对象的标
- Oracle显示根据高考分数模拟录取
百合不是茶
PL/SQL编程oracle例子模拟高考录取学习交流
题目要求:
1,创建student表和result表
2,pl/sql对学生的成绩数据进行处理
3,处理的逻辑是根据每门专业课的最低分线和总分的最低分数线自动的将录取和落选
1,创建student表,和result表
学生信息表;
create table student(
student_id number primary key,--学生id
- 优秀的领导与差劲的领导
bijian1013
领导管理团队
责任
优秀的领导:优秀的领导总是对他所负责的项目担负起责任。如果项目不幸失败了,那么他知道该受责备的人是他自己,并且敢于承认错误。
差劲的领导:差劲的领导觉得这不是他的问题,因此他会想方设法证明是他的团队不行,或是将责任归咎于团队中他不喜欢的那几个成员身上。
努力工作
优秀的领导:团队领导应该是团队成员的榜样。至少,他应该与团队中的其他成员一样努力工作。这仅仅因为他
- js函数在浏览器下的兼容
Bill_chen
jquery浏览器IEDWRext
做前端开发的工程师,少不了要用FF进行测试,纯js函数在不同浏览器下,名称也可能不同。对于IE6和FF,取得下一结点的函数就不尽相同:
IE6:node.nextSibling,对于FF是不能识别的;
FF:node.nextElementSibling,对于IE是不能识别的;
兼容解决方式:var Div = node.nextSibl
- 【JVM四】老年代垃圾回收:吞吐量垃圾收集器(Throughput GC)
bit1129
垃圾回收
吞吐量与用户线程暂停时间
衡量垃圾回收算法优劣的指标有两个:
吞吐量越高,则算法越好
暂停时间越短,则算法越好
首先说明吞吐量和暂停时间的含义。
垃圾回收时,JVM会启动几个特定的GC线程来完成垃圾回收的任务,这些GC线程与应用的用户线程产生竞争关系,共同竞争处理器资源以及CPU的执行时间。GC线程不会对用户带来的任何价值,因此,好的GC应该占
- J2EE监听器和过滤器基础
白糖_
J2EE
Servlet程序由Servlet,Filter和Listener组成,其中监听器用来监听Servlet容器上下文。
监听器通常分三类:基于Servlet上下文的ServletContex监听,基于会话的HttpSession监听和基于请求的ServletRequest监听。
ServletContex监听器
ServletContex又叫application
- 博弈AngularJS讲义(16) - 提供者
boyitech
jsAngularJSapiAngularProvider
Angular框架提供了强大的依赖注入机制,这一切都是有注入器(injector)完成. 注入器会自动实例化服务组件和符合Angular API规则的特殊对象,例如控制器,指令,过滤器动画等。
那注入器怎么知道如何去创建这些特殊的对象呢? Angular提供了5种方式让注入器创建对象,其中最基础的方式就是提供者(provider), 其余四种方式(Value, Fac
- java-写一函数f(a,b),它带有两个字符串参数并返回一串字符,该字符串只包含在两个串中都有的并按照在a中的顺序。
bylijinnan
java
public class CommonSubSequence {
/**
* 题目:写一函数f(a,b),它带有两个字符串参数并返回一串字符,该字符串只包含在两个串中都有的并按照在a中的顺序。
* 写一个版本算法复杂度O(N^2)和一个O(N) 。
*
* O(N^2):对于a中的每个字符,遍历b中的每个字符,如果相同,则拷贝到新字符串中。
* O(
- sqlserver 2000 无法验证产品密钥
Chen.H
sqlwindowsSQL ServerMicrosoft
在 Service Pack 4 (SP 4), 是运行 Microsoft Windows Server 2003、 Microsoft Windows Storage Server 2003 或 Microsoft Windows 2000 服务器上您尝试安装 Microsoft SQL Server 2000 通过卷许可协议 (VLA) 媒体。 这样做, 收到以下错误信息CD KEY的 SQ
- [新概念武器]气象战争
comsci
气象战争的发动者必须是拥有发射深空航天器能力的国家或者组织....
原因如下:
地球上的气候变化和大气层中的云层涡旋场有密切的关系,而维持一个在大气层某个层次
- oracle 中 rollup、cube、grouping 使用详解
daizj
oraclegroupingrollupcube
oracle 中 rollup、cube、grouping 使用详解 -- 使用oracle 样例表演示 转自namesliu
-- 使用oracle 的样列库,演示 rollup, cube, grouping 的用法与使用场景
--- ROLLUP , 为了理解分组的成员数量,我增加了 分组的计数 COUNT(SAL)
- 技术资料汇总分享
Dead_knight
技术资料汇总 分享
本人汇总的技术资料,分享出来,希望对大家有用。
http://pan.baidu.com/s/1jGr56uE
资料主要包含:
Workflow->工作流相关理论、框架(OSWorkflow、JBPM、Activiti、fireflow...)
Security->java安全相关资料(SSL、SSO、SpringSecurity、Shiro、JAAS...)
Ser
- 初一下学期难记忆单词背诵第一课
dcj3sjt126com
englishword
could 能够
minute 分钟
Tuesday 星期二
February 二月
eighteenth 第十八
listen 听
careful 小心的,仔细的
short 短的
heavy 重的
empty 空的
certainly 当然
carry 携带;搬运
tape 磁带
basket 蓝子
bottle 瓶
juice 汁,果汁
head 头;头部
- 截取视图的图片, 然后分享出去
dcj3sjt126com
OSObjective-C
OS 7 has a new method that allows you to draw a view hierarchy into the current graphics context. This can be used to get an UIImage very fast.
I implemented a category method on UIView to get the vi
- MySql重置密码
fanxiaolong
MySql重置密码
方法一:
在my.ini的[mysqld]字段加入:
skip-grant-tables
重启mysql服务,这时的mysql不需要密码即可登录数据库
然后进入mysql
mysql>use mysql;
mysql>更新 user set password=password('新密码') WHERE User='root';
mysq
- Ehcache(03)——Ehcache中储存缓存的方式
234390216
ehcacheMemoryStoreDiskStore存储驱除策略
Ehcache中储存缓存的方式
目录
1 堆内存(MemoryStore)
1.1 指定可用内存
1.2 驱除策略
1.3 元素过期
2 &nbs
- spring mvc中的@propertysource
jackyrong
spring mvc
在spring mvc中,在配置文件中的东西,可以在java代码中通过注解进行读取了:
@PropertySource 在spring 3.1中开始引入
比如有配置文件
config.properties
mongodb.url=1.2.3.4
mongodb.db=hello
则代码中
@PropertySource(&
- 重学单例模式
lanqiu17
单例Singleton模式
最近在重新学习设计模式,感觉对模式理解更加深刻。觉得有必要记下来。
第一个学的就是单例模式,单例模式估计是最好理解的模式了。它的作用就是防止外部创建实例,保证只有一个实例。
单例模式的常用实现方式有两种,就人们熟知的饱汉式与饥汉式,具体就不多说了。这里说下其他的实现方式
静态内部类方式:
package test.pattern.singleton.statics;
publ
- .NET开源核心运行时,且行且珍惜
netcome
java.net开源
背景
2014年11月12日,ASP.NET之父、微软云计算与企业级产品工程部执行副总裁Scott Guthrie,在Connect全球开发者在线会议上宣布,微软将开源全部.NET核心运行时,并将.NET 扩展为可在 Linux 和 Mac OS 平台上运行。.NET核心运行时将基于MIT开源许可协议发布,其中将包括执行.NET代码所需的一切项目——CLR、JIT编译器、垃圾收集器(GC)和核心
- 使用oscahe缓存技术减少与数据库的频繁交互
Everyday都不同
Web高并发oscahe缓存
此前一直不知道缓存的具体实现,只知道是把数据存储在内存中,以便下次直接从内存中读取。对于缓存的使用也没有概念,觉得缓存技术是一个比较”神秘陌生“的领域。但最近要用到缓存技术,发现还是很有必要一探究竟的。
缓存技术使用背景:一般来说,对于web项目,如果我们要什么数据直接jdbc查库好了,但是在遇到高并发的情形下,不可能每一次都是去查数据库,因为这样在高并发的情形下显得不太合理——
- Spring+Mybatis 手动控制事务
toknowme
mybatis
@Override
public boolean testDelete(String jobCode) throws Exception {
boolean flag = false;
&nbs
- 菜鸟级的android程序员面试时候需要掌握的知识点
xp9802
android
熟悉Android开发架构和API调用
掌握APP适应不同型号手机屏幕开发技巧
熟悉Android下的数据存储
熟练Android Debug Bridge Tool
熟练Eclipse/ADT及相关工具
熟悉Android框架原理及Activity生命周期
熟练进行Android UI布局
熟练使用SQLite数据库;
熟悉Android下网络通信机制,S