- Bert学习笔记
缓释多巴胺。
大模型相关知识语言模型bert
一、Bert架构BERT使用了双向的TransformerGPT使用从左到右的单向信息ELMo把单独训练的从左到右及从右到左的LSTM模型进行合并二、Bert预训练任务2.1遮蔽语言模型MLM任务:随机屏蔽(masking)部分输入token,然后只预测那些被屏蔽的token。问题:预训练任务与微调任务不一致原因:在finetuning期间从未看到[MASK]token,预训练和finetunin
- YOLOv12改进之A2(区域注意力)
清风AI
深度学习算法详解及代码复现深度学习机器学习计算机视觉人工智能算法
注意力回顾注意力机制作为深度学习领域的核心技术,已广泛应用于自然语言处理和计算机视觉等多个领域。在YOLOv12改进之A2中,注意力机制扮演着关键角色。已有研究成果包括:Transformer架构:引入了自注意力机制,有效捕捉输入序列中的长距离依赖关系。CBAM模块:提出了通道和空间注意力的结合,显著提升了图像分类和目标检测的性能。SENet:引入了通道注意力机制,通过自适应学习特征通道的重要性,
- 目前市场上的人工智能大模型有哪些?
国货崛起
大模型人工智能人工智能
截至最后更新时间(2024年3月中旬),以下是国内外部分知名的人工智能大模型,按类别和用途大致分类如下:国外:自然语言处理(NLP)大模型:OpenAIGPT系列:GPT-3:迄今为止最为知名的自然语言处理大模型之一,具备强大的文本生成、理解和对话能力。GPT-4:后续版本,性能和参数量比GPT-3更高,各项指标均有所提升。Google的Transformer系列:BERT(Bidirection
- 自动驾驶---LSTM模型用于轨迹预测
智能汽车人
自动驾驶lstm人工智能自然语言处理
1前言在下面几篇博客中,笔者简单介绍过Transformer,Transformer的内部结构虽然比较清晰,但对于入门者来说还是复杂了一些。《人工智能---什么是Transformer?》《自动驾驶---视觉Transformer的应用》《自动驾驶---Parking端到端架构》中介绍的轨迹Decoder模块本篇博客和读者朋友们探讨一种比较早的模型(理解起来也相对容易一些):LSTM(LongSh
- 大模型入门
24k小善
AI编程AI写作prompt
大模型技术演进的核心脉络当前大模型技术已进入"参数规模+架构创新"双轮驱动阶段。2025年的最新趋势显示,万亿级参数模型在稀疏激活(如Mixture-of-Experts)与动态路由技术加持下,推理成本较传统密集模型降低57%。Transformer架构的持续演进体现在位置编码改进(如RoPE旋转位置编码)、注意力机制优化(FlashAttention算法提升30%训练速度)以及层级结构创新(深度
- AI语言模型的技术之争:DeepSeek与ChatGPT的架构与训练揭秘
m0_74825466
面试学习路线阿里巴巴chatgpt人工智能语言模型
-CSDN博客目录第一章:DeepSeek与ChatGPT的基础概述1.1DeepSeek简介1.2ChatGPT简介第二章:模型架构对比2.1Transformer架构:核心相似性2.2模型规模与参数第三章:训练方法与技术3.1预训练与微调:基础训练方法3.2强化学习与奖励建模3.3知识蒸馏与量化技术第四章:训练数据与应用4.1训练数据集:数据源的差异4.2特定领域任务:应用场景的差异第五章:代
- 完整代码详解:Python实现基于文本内容的用户隐私泄露风险评估
mosquito_lover1
python开发语言
主要应用场景:社交网络隐私风险评估实现一个基于文本内容的用户隐私泄露风险评估系统,涉及多个步骤和技术。以下是一个完整的Python代码示例,涵盖了基于BERT的文本表示、基于聚类的文本隐私体系构建、基于命名实体识别的隐私信息提取、以及基于信息熵的文本隐私量化。1.安装所需的库首先,确保你已经安装了以下Python库:pipinstalltransformersscikit-learnnumpypa
- Transformer 代码剖析15 - Transformer模型代码 (pytorch实现)
lczdyx
Transformer代码剖析transformerpytorch深度学习embedding人工智能python
一、模型架构全景解析1.1类定义与继承关系classTransformer(nn.Module):该实现继承PyTorch的nn.Module基类,采用面向对象设计模式。核心架构包含编码器-解码器双塔结构,通过参数配置实现NLP任务的通用处理能力。TransformerEncoderDecoderMulti-HeadAttentionFeedForwardMaskedMulti-HeadAtten
- 详解DeepSeek模型底层原理及和ChatGPT区别点
瞬间动力
语言模型机器学习AI编程云计算阿里云
一、DeepSeek大模型原理架构基础DeepSeek基于Transformer架构,Transformer架构主要由编码器和解码器组成,在自然语言处理任务中,通常使用的是Transformer的解码器部分。它的核心是自注意力机制(Self-Attention),这个机制允许模型在处理输入序列时,关注序列中不同位置的信息。例如,在处理句子“Thecatchasedthemouse”时,自注意力机制
- 2万字长文,九篇论文读懂大语言模型的前世今生
人工智能
2万字长文,九篇论文读懂大语言模型的前世今生友情提示:这是一篇2W字长文,但我保证,它绝对值得一读!如果感兴趣的话,感谢关注,点赞转发在看收藏,五键四连,谢谢~更多LLM架构文章:LLM架构专栏近日热文:1.全网最全的神经网络数学原理(代码和公式)直观解释2.大模型进化史:从Transformer到DeepSeek-R1的AI变革之路3.2W8000字深度剖析25种RAG变体:全网最全~没有之一4
- Transformer架构简略:DeepSeek 的底层基石
windwant
人工智能人工智能transformer架构
2017年,一篇名为《AttentionisAllYouNeed》的论文横空出世,提出了Transformer架构,彻底改变了自然语言处理(NLP)领域的格局。它不仅在各种NLP任务上取得了突破性进展,更成为了当今人工智能领域最具影响力的架构之一。一、从RNN到Transformer:突破瓶颈,开创先河在Transformer出现之前,循环神经网络(RNN)及其变体(如LSTM、GRU)是处理序列
- QKV 注意力机制在Transformer架构中的作用,和卷积在卷积神经网络中的地位,有哪些相似之处?
安意诚Matrix
机器学习笔记transformercnn深度学习
QKV注意力机制在Transformer架构中的作用,和卷积在卷积神经网络中的地位,有哪些相似之处?QKV(Query-Key-Value)注意力机制在Transformer架构和卷积在卷积神经网络(CNN)中都起着核心作用,它们有以下一些相似之处:特征提取QKV注意力机制:在Transformer中,QKV注意力机制通过Query与Key的计算来确定对不同位置Value的关注程度,从而自适应地提
- 深入理解 Transformer:用途、原理和示例
范吉民(DY Young)
简单AI学习transformer深度学习人工智能
深入理解Transformer:用途、原理和示例一、Transformer是什么Transformer是一种基于注意力机制(AttentionMechanism)的深度学习架构,在2017年的论文“AttentionIsAllYouNeed”中惊艳登场。它打破了传统循环神经网络(RNN)按顺序处理序列、难以并行计算以及卷积神经网络(CNN)在捕捉长距离依赖关系上的局限,另辟蹊径地采用多头注意力机制
- DeepSeek到TinyLSTM的知识蒸馏
猴的哥儿
笔记python机器学习深度学习神经网络AI编程
一、架构设计与适配模型结构对比:DeepSeek(教师模型):基于Transformer,多头自注意力机制,层数≥12,隐藏层维度≥768TinyLSTM(学生模型):单层双向LSTM,隐藏单元128,全连接输出层表示空间对齐:classAdapter(nn.Module):def__init__(self,in_dim=768,out_dim=128):super().__init__()sel
- Deepseek的底层架构思维构成
堕落年代
AI架构人工智能
专业解释一、核心架构组件:注意力机制与专家模型的革新1.多头潜在注意力机制(MLA)功能与作用:MLA是DeepSeek对传统Transformer注意力机制的创新改进。通过低秩联合压缩技术,将键(Key)和值(Value)矩阵压缩到潜在空间,显著减少推理时的显存占用。例如,MLA可将显存需求降至传统多头注意力(MHA)的个位数百分比。优势:显存效率:KV缓存需求降低80%以上,支持更长上下文处理
- 计算机视觉|ConvNeXt:CNN 的复兴,Transformer 的新对手
紫雾凌寒
AI炼金厂#计算机视觉#深度学习机器学习计算机视觉人工智能transformerConvNeXt动态网络神经网络
一、引言在计算机视觉领域,卷积神经网络(ConvolutionalNeuralNetworks,简称CNN)长期以来一直是核心技术,自诞生以来,它在图像分类、目标检测、语义分割等诸多任务中都取得了令人瞩目的成果。然而,随着VisionTransformer(ViT)的出现,计算机视觉领域的格局发生了重大变化。ViT通过自注意力机制,打破了传统卷积神经网络的局部感知局限,能够捕捉长距离依赖关系,在图
- BERT 和 Milvus 构建智能问答系统的全面技术解析,涵盖从原理到实践的完整流程
结合BERT和Milvus构建智能问答系统的全面技术解析,涵盖从原理到实践的完整流程。下面Python代码示例和优化策略:一、技术栈协作原理BERT的语义编码能力BERT作为预训练语言模型,通过双向Transformer结构将文本转换为高维向量(如768维),捕捉上下文语义信息。例如,句子"Milvus是向量数据库"会被编码为类似[0.2,-1.3,0.5,...]的向量19。Milvus的向量检
- BERT 模型 和 Milvus 向量数据库分步骤讲解如何实现「文本相似度搜索」
结合BERT模型和Milvus向量数据库,通过一个Python示例分步骤讲解如何实现「文本相似度搜索」。整个过程分为:文本向量化→存储到Milvus→相似度搜索。1️⃣环境准备安装必要的库:pipinstallpymilvustransformerstorch2️⃣流程图解BERT模型↓将文本转为向量Milvus数据库(存储所有向量)↓输入问题文本Milvus搜索相似向量→返回最相似的答案3️⃣完
- 【深度学习】Hopfield网络:模拟联想记忆
T-I-M
深度学习人工智能
Transformer优化,什么是稀疏注意力?Transformer模型自2017年被提出以来,已经成为自然语言处理(NLP)领域的核心架构,并在计算机视觉、语音处理等其他领域也取得了显著的成功。然而,随着模型规模的不断增大和任务复杂性的提升,Transformer的计算成本和内存需求也随之激增。为了解决这一问题,研究者们提出了多种优化方法,其中稀疏注意力(SparseAttention)是一种备
- 创新引领的人工智能模型系列:MiniMax-01 系列震撼登场
MiniMaxMiniMax发布并开源了全新系列模型——MiniMax-01。这个系列模型中包含两个模型,基础语言大模型MiniMax-Text-01和视觉多模态大模型MiniMax-VL-01。MiniMax-01MiniMax-01MiniMax-01系列模型首次大规模实现线性注意力机制,传统Transformer架构不再是唯一的选择。这个模型的参数量高达4560亿,其中单次激活459亿。模型
- transformers.deepspeed
icesord
人工智能python
报错:nomodulenamedtransformers.deepspeed原因:版本更新后,已取消transformers.deepspeed新版本中更改为transformers.integrations.deepspeed解决方案:根据trace信息,将原先的importtransformers.deepspeedfromtransformers.deepspeedimport......全
- 【AI大模型】Transformers大模型库(九):大模型微调之计算微调参数占比
LDG_AGI
人工智能
目录一、引言二、计算微调参数占比2.1概述2.2模型参数结构一览2.3微调参数占比计算三、总结一、引言这里的Transformers指的是huggingface开发的大模型库,为huggingface上数以万计的预训练大模型提供预测、训练等服务。Transformers提供了数以千计的预训练模型,支持100多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的NLP技术人人
- 大模型微调入门(Transformers + Pytorch)
昵称不能为null
pythonllm机器学习人工智能
目标输入:你是谁?输出:我们预训练的名字。训练为了性能好下载小参数模型,普通机器都能运行。下载模型#方式1:使用魔搭社区SDK下载#down_deepseek.pyfrommodelscopeimportsnapshot_downloadmodel_dir=snapshot_download('deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B')#方式2:gitl
- 大语言模型技术专栏(三):Attention机制——从RNN到Transformer的惊世一跃!
北海yy
大语言模型技术专栏语言模型rnntransformer
文章目录概要一、Attention机制:让AI学会「划重点」二、Attention机制的核心原理三、Self-Attention:Transformer的核心四、代码实战:用PyTorch实现Attention五、Attention的进化:从Transformer到GPT概要大家好,我是北海yy,继续带来大语言模型技术专栏的深度解析!在上一期《RNN语言模型——让AI真正「记住」上下文的秘密武器》
- Transformer 代码剖析7 - 词元嵌入(TokenEmbedding) (pytorch实现)
lczdyx
Transformer代码剖析transformerpytorch深度学习人工智能python
一、类定义与继承关系剖析1.1代码结构图示神经网络基础模块词嵌入基类自定义词元嵌入构造函数定义基类初始化词汇量参数维度参数填充标识参数1.2代码实现精讲"""@author:Hyunwoong@when:2019-10-22@homepage:https://github.com/gusdnd852"""fromtorchimportnnclassTokenEmbedding(nn.Embeddi
- Transformer模型详解
Yuki-^_^
Transformer模型详解人工智能transformer深度学习人工智能
导读Transformer在许多的人工智能领域,如自然语言处理(NaturalLanguageProcessing,NLP)、计算机视觉(ComputerVision,CV)和语音处理(SpeechProcessing,SP)取得了巨大的成功。因此,自然而然的也吸引了许多工业界和学术界的研究人员的兴趣。到目前为止,已经提出了大量基于Transformer的相关工作和综述。本文基于邱锡鹏[1]老师近
- Transformer架构深度研究报告(二、分层原理)
jiaojieran
transformer深度学习人工智能
一、Transformer不同层作用剖析1.1低层作用在Transformer架构中,低层(1-3层)主要承担着局部语法建模的关键任务,其对语言基础结构的理解和处理为后续高层语义分析奠定了坚实基础。在词性标注(POStagging)任务中,低层通过对相邻词之间关系的细致捕捉,能够精准判断每个词的词性。例如在句子“Thedogrunsfast”中,对于“runs”这个词,低层模型会关注其与相邻词“d
- 1.7 Kaggle大白话:Eedi竞赛Transformer框架解决方案07-调用AI模型输出结果
AI量金术师
Kaggle竞赛人工智能transformer深度学习python算法
目录0.本栏目竞赛汇总表1.本文主旨2.调用AI模型输出结果架构3.模型准备3.1代码实现3.2大白话模型准备4.数据处理4.1代码实现4.2大白话数据处理5.特征提取5.1代码实现5.2大白话特征提取6.相似度匹配6.1代码实现6.2大白话相似度匹配7.系列总结7.1章节回顾7.2竞赛排名7.3其他优秀项目(皆为竞赛金牌)0.本栏目竞赛汇总表Kaggle竞赛汇总1.本文主旨大白话:上一篇文章中,
- 深度学习五大模型:CNN、Transformer、BERT、RNN、GAN解析
大模型_学习路线
深度学习cnntransformer人工智能AI大模型大模型LLM
今天探讨它们各自适用的场景,让您知道在何种情况下选择何种模型;同时分析它们的优势与局限,助您全面评估这些模型的性能。一、卷积神经网络(ConvolutionalNeuralNetwork,CNN)原理:CNN主要由卷积层、池化层和全连接层组成。卷积层通过卷积核在输入数据上进行卷积运算,提取局部特征;池化层则对特征图进行下采样,降低特征维度,同时保留主要特征;全连接层将特征图展开为一维向量,并进行分
- Llama 2架构深度解析:Meta开源的70B参数大模型设计哲学
AI时代已来!
llama架构
一、架构设计理念Llama2作为Meta开源的商用级大语言模型,其架构设计体现了三大核心原则:效率优先:在7B/13B/70B参数规模下保持线性计算复杂度扩展性强化:通过改进注意力机制支持4k上下文长度安全性内嵌:在预训练阶段融入5%安全语料,降低有害输出概率(较前代下降34%)二、核心模块创新1.改进型Transformer架构标准化方案:采用RMSNorm替代LayerNorm,计算效率提升1
- Java实现的简单双向Map,支持重复Value
superlxw1234
java双向map
关键字:Java双向Map、DualHashBidiMap
有个需求,需要根据即时修改Map结构中的Value值,比如,将Map中所有value=V1的记录改成value=V2,key保持不变。
数据量比较大,遍历Map性能太差,这就需要根据Value先找到Key,然后去修改。
即:既要根据Key找Value,又要根据Value
- PL/SQL触发器基础及例子
百合不是茶
oracle数据库触发器PL/SQL编程
触发器的简介;
触发器的定义就是说某个条件成立的时候,触发器里面所定义的语句就会被自动的执行。因此触发器不需要人为的去调用,也不能调用。触发器和过程函数类似 过程函数必须要调用,
一个表中最多只能有12个触发器类型的,触发器和过程函数相似 触发器不需要调用直接执行,
触发时间:指明触发器何时执行,该值可取:
before:表示在数据库动作之前触发
- [时空与探索]穿越时空的一些问题
comsci
问题
我们还没有进行过任何数学形式上的证明,仅仅是一个猜想.....
这个猜想就是; 任何有质量的物体(哪怕只有一微克)都不可能穿越时空,该物体强行穿越时空的时候,物体的质量会与时空粒子产生反应,物体会变成暗物质,也就是说,任何物体穿越时空会变成暗物质..(暗物质就我的理
- easy ui datagrid上移下移一行
商人shang
js上移下移easyuidatagrid
/**
* 向上移动一行
*
* @param dg
* @param row
*/
function moveupRow(dg, row) {
var datagrid = $(dg);
var index = datagrid.datagrid("getRowIndex", row);
if (isFirstRow(dg, row)) {
- Java反射
oloz
反射
本人菜鸟,今天恰好有时间,写写博客,总结复习一下java反射方面的知识,欢迎大家探讨交流学习指教
首先看看java中的Class
package demo;
public class ClassTest {
/*先了解java中的Class*/
public static void main(String[] args) {
//任何一个类都
- springMVC 使用JSR-303 Validation验证
杨白白
springmvc
JSR-303是一个数据验证的规范,但是spring并没有对其进行实现,Hibernate Validator是实现了这一规范的,通过此这个实现来讲SpringMVC对JSR-303的支持。
JSR-303的校验是基于注解的,首先要把这些注解标记在需要验证的实体类的属性上或是其对应的get方法上。
登录需要验证类
public class Login {
@NotEmpty
- log4j
香水浓
log4j
log4j.rootCategory=DEBUG, STDOUT, DAILYFILE, HTML, DATABASE
#log4j.rootCategory=DEBUG, STDOUT, DAILYFILE, ROLLINGFILE, HTML
#console
log4j.appender.STDOUT=org.apache.log4j.ConsoleAppender
log4
- 使用ajax和history.pushState无刷新改变页面URL
agevs
jquery框架Ajaxhtml5chrome
表现
如果你使用chrome或者firefox等浏览器访问本博客、github.com、plus.google.com等网站时,细心的你会发现页面之间的点击是通过ajax异步请求的,同时页面的URL发生了了改变。并且能够很好的支持浏览器前进和后退。
是什么有这么强大的功能呢?
HTML5里引用了新的API,history.pushState和history.replaceState,就是通过
- centos中文乱码
AILIKES
centosOSssh
一、CentOS系统访问 g.cn ,发现中文乱码。
于是用以前的方式:yum -y install fonts-chinese
CentOS系统安装后,还是不能显示中文字体。我使用 gedit 编辑源码,其中文注释也为乱码。
后来,终于找到以下方法可以解决,需要两个中文支持的包:
fonts-chinese-3.02-12.
- 触发器
baalwolf
触发器
触发器(trigger):监视某种情况,并触发某种操作。
触发器创建语法四要素:1.监视地点(table) 2.监视事件(insert/update/delete) 3.触发时间(after/before) 4.触发事件(insert/update/delete)
语法:
create trigger triggerName
after/before 
- JS正则表达式的i m g
bijian1013
JavaScript正则表达式
g:表示全局(global)模式,即模式将被应用于所有字符串,而非在发现第一个匹配项时立即停止。 i:表示不区分大小写(case-insensitive)模式,即在确定匹配项时忽略模式与字符串的大小写。 m:表示
- HTML5模式和Hashbang模式
bijian1013
JavaScriptAngularJSHashbang模式HTML5模式
我们可以用$locationProvider来配置$location服务(可以采用注入的方式,就像AngularJS中其他所有东西一样)。这里provider的两个参数很有意思,介绍如下。
html5Mode
一个布尔值,标识$location服务是否运行在HTML5模式下。
ha
- [Maven学习笔记六]Maven生命周期
bit1129
maven
从mvn test的输出开始说起
当我们在user-core中执行mvn test时,执行的输出如下:
/software/devsoftware/jdk1.7.0_55/bin/java -Dmaven.home=/software/devsoftware/apache-maven-3.2.1 -Dclassworlds.conf=/software/devs
- 【Hadoop七】基于Yarn的Hadoop Map Reduce容错
bit1129
hadoop
运行于Yarn的Map Reduce作业,可能发生失败的点包括
Task Failure
Application Master Failure
Node Manager Failure
Resource Manager Failure
1. Task Failure
任务执行过程中产生的异常和JVM的意外终止会汇报给Application Master。僵死的任务也会被A
- 记一次数据推送的异常解决端口解决
ronin47
记一次数据推送的异常解决
需求:从db获取数据然后推送到B
程序开发完成,上jboss,刚开始报了很多错,逐一解决,可最后显示连接不到数据库。机房的同事说可以ping 通。
自已画了个图,逐一排除,把linux 防火墙 和 setenforce 设置最低。
service iptables stop
- 巧用视错觉-UI更有趣
brotherlamp
UIui视频ui教程ui自学ui资料
我们每个人在生活中都曾感受过视错觉(optical illusion)的魅力。
视错觉现象是双眼跟我们开的一个玩笑,而我们往往还心甘情愿地接受我们看到的假象。其实不止如此,视觉错现象的背后还有一个重要的科学原理——格式塔原理。
格式塔原理解释了人们如何以视觉方式感觉物体,以及图像的结构,视角,大小等要素是如何影响我们的视觉的。
在下面这篇文章中,我们首先会简单介绍一下格式塔原理中的基本概念,
- 线段树-poj1177-N个矩形求边长(离散化+扫描线)
bylijinnan
数据结构算法线段树
package com.ljn.base;
import java.util.Arrays;
import java.util.Comparator;
import java.util.Set;
import java.util.TreeSet;
/**
* POJ 1177 (线段树+离散化+扫描线),题目链接为http://poj.org/problem?id=1177
- HTTP协议详解
chicony
http协议
引言
- Scala设计模式
chenchao051
设计模式scala
Scala设计模式
我的话: 在国外网站上看到一篇文章,里面详细描述了很多设计模式,并且用Java及Scala两种语言描述,清晰的让我们看到各种常规的设计模式,在Scala中是如何在语言特性层面直接支持的。基于文章很nice,我利用今天的空闲时间将其翻译,希望大家能一起学习,讨论。翻译
- 安装mysql
daizj
mysql安装
安装mysql
(1)删除linux上已经安装的mysql相关库信息。rpm -e xxxxxxx --nodeps (强制删除)
执行命令rpm -qa |grep mysql 检查是否删除干净
(2)执行命令 rpm -i MySQL-server-5.5.31-2.el
- HTTP状态码大全
dcj3sjt126com
http状态码
完整的 HTTP 1.1规范说明书来自于RFC 2616,你可以在http://www.talentdigger.cn/home/link.php?url=d3d3LnJmYy1lZGl0b3Iub3JnLw%3D%3D在线查阅。HTTP 1.1的状态码被标记为新特性,因为许多浏览器只支持 HTTP 1.0。你应只把状态码发送给支持 HTTP 1.1的客户端,支持协议版本可以通过调用request
- asihttprequest上传图片
dcj3sjt126com
ASIHTTPRequest
NSURL *url =@"yourURL";
ASIFormDataRequest*currentRequest =[ASIFormDataRequest requestWithURL:url];
[currentRequest setPostFormat:ASIMultipartFormDataPostFormat];[currentRequest se
- C语言中,关键字static的作用
e200702084
C++cC#
在C语言中,关键字static有三个明显的作用:
1)在函数体,局部的static变量。生存期为程序的整个生命周期,(它存活多长时间);作用域却在函数体内(它在什么地方能被访问(空间))。
一个被声明为静态的变量在这一函数被调用过程中维持其值不变。因为它分配在静态存储区,函数调用结束后并不释放单元,但是在其它的作用域的无法访问。当再次调用这个函数时,这个局部的静态变量还存活,而且用在它的访
- win7/8使用curl
geeksun
win7
1. WIN7/8下要使用curl,需要下载curl-7.20.0-win64-ssl-sspi.zip和Win64OpenSSL_Light-1_0_2d.exe。 下载地址:
http://curl.haxx.se/download.html 请选择不带SSL的版本,否则还需要安装SSL的支持包 2. 可以给Windows增加c
- Creating a Shared Repository; Users Sharing The Repository
hongtoushizi
git
转载自:
http://www.gitguys.com/topics/creating-a-shared-repository-users-sharing-the-repository/ Commands discussed in this section:
git init –bare
git clone
git remote
git pull
git p
- Java实现字符串反转的8种或9种方法
Josh_Persistence
异或反转递归反转二分交换反转java字符串反转栈反转
注:对于第7种使用异或的方式来实现字符串的反转,如果不太看得明白的,可以参照另一篇博客:
http://josh-persistence.iteye.com/blog/2205768
/**
*
*/
package com.wsheng.aggregator.algorithm.string;
import java.util.Stack;
/**
- 代码实现任意容量倒水问题
home198979
PHP算法倒水
形象化设计模式实战 HELLO!架构 redis命令源码解析
倒水问题:有两个杯子,一个A升,一个B升,水有无限多,现要求利用这两杯子装C
- Druid datasource
zhb8015
druid
推荐大家使用数据库连接池 DruidDataSource. http://code.alibabatech.com/wiki/display/Druid/DruidDataSource DruidDataSource经过阿里巴巴数百个应用一年多生产环境运行验证,稳定可靠。 它最重要的特点是:监控、扩展和性能。 下载和Maven配置看这里: http
- 两种启动监听器ApplicationListener和ServletContextListener
spjich
javaspring框架
引言:有时候需要在项目初始化的时候进行一系列工作,比如初始化一个线程池,初始化配置文件,初始化缓存等等,这时候就需要用到启动监听器,下面分别介绍一下两种常用的项目启动监听器
ServletContextListener
特点: 依赖于sevlet容器,需要配置web.xml
使用方法:
public class StartListener implements
- JavaScript Rounding Methods of the Math object
何不笑
JavaScriptMath
The next group of methods has to do with rounding decimal values into integers. Three methods — Math.ceil(), Math.floor(), and Math.round() — handle rounding in differen