- MOBILEVIT: 轻量级、通用且适用于移动设备的视觉Transformer
AI专题精讲
Paper阅读transformer深度学习人工智能计算机视觉
摘要轻量级卷积神经网络(CNN)是移动视觉任务的事实标准。它们的空间归纳偏置使得它们能够在不同的视觉任务中以较少的参数学习表示。然而,这些网络在空间上是局部的。为了学习全局表示,基于自注意力的视觉Transformer(ViT)被采用。与CNN不同,ViT是重量级的。本文提出了以下问题:是否有可能将CNN和ViT的优势结合起来,构建一个适用于移动视觉任务的轻量级低延迟网络?为此,我们介绍了Mobi
- 【LLM论文阅读】
一只齐刘海的猫
论文阅读
LLM论文阅读论文重点论文链接RopeRoFormer:EnhancedTransformerwithRotaryPositionEmbeddingRoPE论文阅读YarnUnderstandingYaRN:ExtendingContextWindowofLLMs论文YaRN笔记T5ExploringtheLimitsofTransferLearningwithaUnifiedText-to-Te
- Deepoc光电研发垂直大模型的技术实现突破与核心模块
Deepoch
无人机人工智能科技ai
一、模型架构与算法创新领域专用混合架构设计多模态Transformer扩展:在标准Transformer架构基础上,引入光子器件特性感知模块(如非线性光学参数编码器),支持光路拓扑结构与电磁场分布的联合建模,解决传统电芯片架构无法模拟光子干涉效应的难题。量子-光电混合计算层:通过量子线路模拟光子量子态演化,结合经典计算层优化参数搜索空间,实现NP难问题(如光子芯片布线优化)的指数级加速。物理约束的
- 仿 Twitter 点赞爱心动画效果 其中用到 animation
hackchen
html前端css
大概的原理,准备一张雪碧图,通过hover改变雪碧图的X坐标,达到动画的效果HTML:CSS:.heart{width:100px;height:100px;position:absolute;left:50%;top:50%;transform:translate(-50%,-50%);background:url("data:image/png;base64,iVBORw0KGgoAAAANS
- 目标检测在国防和政府的应用实例
MzKyle
计算机视觉目标检测人工智能计算机视觉
一、目标检测技术概述目标检测是计算机视觉的核心任务,通过算法对图像/视频中的物体进行识别与定位,当前主流技术包括:经典算法:YOLO系列(实时性强)、FasterR-CNN(精度高)、SSD(平衡速度与精度)技术升级:结合深度学习(CNN、Transformer)、多模态融合(视觉+红外+雷达)、边缘计算实时处理二、国防领域核心应用实例(一)军事侦察与监控系统无人机侦察与目标识别应用场景:战术无人
- AI大模型探索之路-训练篇15:大语言模型预训练之全量参数微调
寻道AI小兵
AI大模型预训练微调进阶AIGC人工智能语言模型自然语言处理pythonAI编程agi
系列篇章AI大模型探索之路-训练篇1:大语言模型微调基础认知AI大模型探索之路-训练篇2:大语言模型预训练基础认知AI大模型探索之路-训练篇3:大语言模型全景解读AI大模型探索之路-训练篇4:大语言模型训练数据集概览AI大模型探索之路-训练篇5:大语言模型预训练数据准备-词元化AI大模型探索之路-训练篇6:大语言模型预训练数据准备-预处理AI大模型探索之路-训练篇7:大语言模型Transforme
- BERT(Bidirectional Encoder Representations from Transformers)
jerwey
bert人工智能深度学习
BERT(BidirectionalEncoderRepresentationsfromTransformers)是由Google于2018年提出的一种基于Transformer架构的预训练语言模型,属于大型语言模型(LLM)的一种重要类型。其核心特点和技术定位如下:1.核心架构Encoder-Only结构:BERT仅使用Transformer的编码器(Encoder),通过多层堆叠捕捉文本的双向
- 大语言模型(LLM)按架构分类
jerwey
语言模型分类人工智能
大语言模型(LLM)按架构分类的深度解析1.仅编码器架构(Encoder-Only)原理双向注意力机制:通过Transformer编码器同时捕捉上下文所有位置的依赖关系#伪代码示例:BERT的MLM任务masked_input="The[MASK]satonthemat"output=encoder(masked_input)#预测[MASK]="cat"预训练任务:掩码语言建模(MLM):随机遮
- 深入了解Transformer模型及其优缺点
目录前言1Transformer结构特点1.1注意力机制(Self-Attention)1.2编码器-解码器架构1.3位置编码和基于注意力的损失函数2Transformer模型优缺点分析2.1Transformer模型的优点2.2Transformer模型的缺点3应用领域结语前言在当今人工智能领域,自然语言处理的关键问题之一是解决文本理解和生成中的挑战。传统的循环神经网络虽然在处理序列数据方面取得
- Day44
1.预训练概念:在大规模数据上训练模型学习通用知识,再迁移到下游任务微调2.常见模型:图像有AlexNet、ResNet、ViT;NLP有BERT、GPT3.图像模型发展:从手工特征到深度学习,从CNN到Transformer、多模态4.预训练策略:数据增强、自监督/监督训练、模型微调、多模态学习作业1.importtorchimporttorch.nnasnnimporttorch.optima
- Spark从入门到熟悉(篇二)
本文介绍Spark的RDD编程,并进行实战演练,加强对编程的理解,实现快速入手知识脉络包含如下8部分内容:创建RDD常用Action操作常用Transformation操作针对PairRDD的常用操作缓存操作共享变量分区操作编程实战创建RDD实现方式有如下两种方式实现:textFile加载本地或者集群文件系统中的数据用parallelize方法将Driver中的数据结构并行化成RDD示例"""te
- Qwen3 Embedding 结构-加载-训练 看透模型设计哲学
看透一个顶级AI句向量模型的设计秘密,从文件结构到加载原理,再到其背后的训练哲学。1Qwen3-Embedding模型结构拆解说明:目录包含了运行一个基于Transformer的句向量模型所需的所有组件文件类别核心文件作用核心模型model.safetensors,config.jsonmodel.safetensors存储了模型所有训练好的权重分词器tokenizer.json,vocab.js
- 实现边框设置0.5px
岁月如歌_
前端
border-top:1pxsolid#ededed; 显示太粗或者不满足UI设计稿显示修改position:relative;&::after{content:"";position:absolute;top:0;left:0;box-sizing:border-box;width:200%;height:2px;border-top:1pxsolid#ededed;transform-orig
- Llama改进之——RoPE旋转位置编码
愤怒的可乐
NLP项目实战#LLaMARoPE旋转位置编码
引言旋转位置编码(RotaryPositionEmbedding,RoPE)将绝对相对位置依赖纳入自注意力机制中,以增强Transformer架构的性能。目前很火的大模型LLaMA、QWen等都应用了旋转位置编码。之前在[论文笔记]ROFORMER中对旋转位置编码的原始论文进行了解析,重点推导了旋转位置编码的公式,本文侧重实现,同时尽量简化数学上的推理,详细推理可见最后的参考文章。复数与极坐标复数
- Llama改进之——分组查询注意力
愤怒的可乐
#NLP项目实战自然语言处理llama深度学习人工智能分组查询注意力旋转位置编码
引言今天介绍LLAMA2模型引入的关于注意力的改进——分组查询注意力(Grouped-queryattention,GQA)1。Transformer中的多头注意力在解码阶段来说是一个性能瓶颈。多查询注意力2通过共享单个key和value头,同时不减少query头来提升性能。多查询注意力可能导致质量下降和训练不稳定,因此常用的是分组查询注意力。然后我们结合上篇文章3探讨的旋转位置编码,将选择位置编
- Llama改进之——均方根层归一化RMSNorm
愤怒的可乐
NLP项目实战#llama
引言在学习完GPT2之后,从本文开始进入Llama模型系列。本文介绍Llama模型的改进之RMSNorm(均方根层归一化)。它是由RootMeanSquareLayerNormalization论文提出来的,可以参阅其论文笔记1。LayerNorm层归一化(LayerNorm)对Transformer等模型来说非常重要,它可以帮助稳定训练并提升模型收敛性。LayerNorm针对一个样本所有特征计算
- 强人工智能是否会诞生于现在的AI之中
一花·一叶
人工智能语言模型
为什么我认为当前AI方法无法实现真正的人工智能?随着大模型的发展日新月异,越来越多的人开始相信我们正在接近通用人工智能(AGI)。然而,作为一名人工智能领域的算法工程师,我反而越来越确信:现有的技术路径——以Transformer为核心的深度神经网络,可能已经达到了它的能力上限。我们或许正站在一个新时代的门槛上:真正的强人工智能将不会诞生于现有的范式中,而需要一条全新的算法路径。Transform
- 从零实现Llama3:深入解析Transformer架构与实现细节
祁婉菲Flora
从零实现Llama3:深入解析Transformer架构与实现细节llama3-from-scratchllama3一次实现一个矩阵乘法。项目地址:https://gitcode.com/gh_mirrors/ll/llama3-from-scratch引言本文将深入探讨如何从零开始实现Llama3语言模型。我们将从最基本的张量操作开始,逐步构建完整的Transformer架构。通过这个过程,读者
- 解密GPT工作原理:Transformer架构详解与自注意力机制剖析
AI智能应用
gpttransformer架构ai
解密GPT工作原理:Transformer架构详解与自注意力机制剖析关键词:GPT、Transformer、自注意力机制、神经网络、语言模型、深度学习、人工智能摘要:本文将深入浅出地解析GPT模型的核心架构——Transformer,重点剖析其革命性的自注意力机制。我们将从基本概念出发,通过生活化的比喻解释复杂的技术原理,并用Python代码示例展示实现细节,最后探讨这一技术的应用场景和未来发展方
- 讯飞星火深度推理模型X1,为教育医疗带来革新
在科技飞速发展的今天,人工智能大模型已经成为推动各行业变革的重要力量。科大讯飞作为人工智能领域的佼佼者,其研发的星火深度推理模型X1,凭借独特的技术优势和强大的功能,为教育和医疗两大关乎国计民生的领域带来了前所未有的革新。技术原理与创新讯飞星火深度推理模型X1基于Transformer架构,并在此基础上进行了一系列创新。它通过大规模多阶段强化学习训练方法,在复杂推理、数学、代码、语言理解等场景全面
- Hamiltonian Transformer理论:融合哈密顿力学与Transformer架构的新范式
墨顿
transformer架构深度学习
HamiltonianTransformer理论是一种将经典哈密顿力学原理与现代Transformer架构相结合的新型神经网络范式。这一理论框架试图解决当前深度学习模型在效率、动态系统建模和长期依赖处理等方面的核心挑战。本文将系统梳理HamiltonianTransformer的理论基础、关键创新点、实现方法以及应用前景,并分析其相对于传统Transformer架构的优势与潜在限制。哈密顿力学与T
- Spring AI ETL Pipeline使用指南
超级小忍
SpringAIspring人工智能
前言(Introduction)版本声明:本文基于SpringAI1.0.0版本编写。由于SpringAI目前仍处于活跃开发阶段,API和组件可能在后续版本中发生变化,请注意及时关注官方文档更新以保持兼容性。在当今大数据和人工智能快速发展的背景下,ETL(Extract,Transform,Load)系统已经不再只是简单的数据搬运工。ETL是数据仓库和数据分析流程中的核心环节,它负责将分散的数据从
- html5 原生 弹窗,HTML5 Popmotion.js实现的弹窗控件
weixin_39564527
html5原生弹窗
JavaScript语言:JaveScriptBabelCoffeeScript确定const{css,transform,chain,delay,tween,easing,parallel}=window.popmotion;const{interpolate}=transform;lettrigger;letisClosing=false;//SelectDOMconstmodalTrigge
- 结合LangGraph、DeepSeek-R1和Qdrant 的混合 RAG 技术实践
大模型之路
RAGrag
一、引言:混合RAG技术的发展与挑战在人工智能领域,检索增强生成(RAG)技术正成为构建智能问答系统的核心方案。传统RAG通过向量数据库存储文档嵌入并检索相关内容,结合大语言模型(LLM)生成回答,有效缓解了LLM的“幻觉”问题。然而,单一的稠密向量检索(如基于Transformer的嵌入模型)在处理关键词匹配和多义词歧义时存在局限性,而稀疏向量检索(如BM25)虽擅长精确关键词匹配,却缺乏语义理
- YOLOv12_ultralytics-8.3.145_2025_5_27部分代码阅读笔记-augment.py
augment.pyultralytics\data\augment.py目录augment.py1.所需的库和模块2.classBaseTransform:3.classCompose:4.classBaseMixTransform:5.classCutMix(BaseMixTransform):6.classCopyPaste(BaseMixTransform):7.defv8_transfo
- 解释LLM怎么预测下一个词语的
ZhangJiQun&MXP
教学2024大模型以及算力2021AIpython语言模型python深度学习人工智能机器学习
解释LLM怎么预测下一个词语的通过上文词的向量进行映射在Transformer架构的大语言模型(如GPT系列、BERT等)中,词语会先被转化为词向量。在预测下一个词时,模型会基于之前所有词的向量表示(并非仅仅上一个词,但上一个词的向量是重要信息来源之一)进行计算。以GPT-2为例,在生成文本时,它会将输入文本中每个词对应的词向量依次输入到模型的多层Transformer编码器-解码器结构中。每一层
- 【人工智能】 AI的进化之路:大模型如何重塑技术格局
蒙娜丽宁
Python杂谈人工智能人工智能python
《PythonOpenCV从菜鸟到高手》带你进入图像处理与计算机视觉的大门!解锁Python编程的无限可能:《奇妙的Python》带你漫游代码世界本文深入探讨了人工智能大模型的进化历程及其对技术格局的深远影响。从早期神经网络到现代大模型的突破,文章分析了关键技术进步,如Transformer架构、预训练机制和分布式计算。结合数学公式和代码示例,详细阐述了大模型的训练原理、优化方法及实际应用场景。文
- ReBEL模型的本地部署与运行,用于三元组抽取任务(事件抽取、知识抽取)
1.服务器CUDA11.72.依赖condacreate-nrebel_envpython=3.10-ycondaactivaterebel_env#安装PyTorch(建议与CUDA11.7配合)pipinstalltorchtorchvisiontorchaudio--index-urlhttps://download.pytorch.org/whl/cu117#安装Transformers和
- 大模型-FlashAttention 算法分析
清风lsq
大模型推理算法算法大模型推理LLMflashattention
一、FlashAttention的概述FlashAttention是一种IO感知精确注意力算法。通过感知显存读取/写入,FlashAttention的运行速度比PyTorch标准Attention快了2-4倍,所需内存也仅是其5%-20%。随着Transformer变得越来越大、越来越深,但它在长序列上仍然处理的很慢、且耗费内存。(自注意力时间和显存复杂度与序列长度成二次方),现有近似注意力方法,
- 变幻莫测:CoreData 中 Transformable 类型面面俱到(八)
大熊猫侯佩
Apple开发入门CoreDataTransformableDataSwiftData类型转换CodableSwift
概述各位似秃似不秃小码农们都知道,在苹果众多开发平台中CoreData无疑是那个最简洁、拥有“官方认证”且最具兼容性的数据库框架。使用它可以让我们非常方便的搭建出App所需要的持久存储体系。不过,大家是否知道在CoreData中还存在一个Transformable类型,它到底是个啥?应用场景有哪些?在最新的SwiftData中有没有对应物?对于开发者又有哪些“见雀张罗”的撸码陷阱和最佳实践呢?在本
- mysql主从数据同步
林鹤霄
mysql主从数据同步
配置mysql5.5主从服务器(转)
教程开始:一、安装MySQL
说明:在两台MySQL服务器192.168.21.169和192.168.21.168上分别进行如下操作,安装MySQL 5.5.22
二、配置MySQL主服务器(192.168.21.169)mysql -uroot -p &nb
- oracle学习笔记
caoyong
oracle
1、ORACLE的安装
a>、ORACLE的版本
8i,9i : i是internet
10g,11g : grid (网格)
12c : cloud (云计算)
b>、10g不支持win7
&
- 数据库,SQL零基础入门
天子之骄
sql数据库入门基本术语
数据库,SQL零基础入门
做网站肯定离不开数据库,本人之前没怎么具体接触SQL,这几天起早贪黑得各种入门,恶补脑洞。一些具体的知识点,可以让小白不再迷茫的术语,拿来与大家分享。
数据库,永久数据的一个或多个大型结构化集合,通常与更新和查询数据的软件相关
- pom.xml
一炮送你回车库
pom.xml
1、一级元素dependencies是可以被子项目继承的
2、一级元素dependencyManagement是定义该项目群里jar包版本号的,通常和一级元素properties一起使用,既然有继承,也肯定有一级元素modules来定义子元素
3、父项目里的一级元素<modules>
<module>lcas-admin-war</module>
<
- sql查地区省市县
3213213333332132
sqlmysql
-- db_yhm_city
SELECT * FROM db_yhm_city WHERE class_parent_id = 1 -- 海南 class_id = 9 港、奥、台 class_id = 33、34、35
SELECT * FROM db_yhm_city WHERE class_parent_id =169
SELECT d1.cla
- 关于监听器那些让人头疼的事
宝剑锋梅花香
画图板监听器鼠标监听器
本人初学JAVA,对于界面开发我只能说有点蛋疼,用JAVA来做界面的话确实需要一定的耐心(不使用插件,就算使用插件的话也没好多少)既然Java提供了界面开发,老师又要求做,只能硬着头皮上啦。但是监听器还真是个难懂的地方,我是上了几次课才略微搞懂了些。
- JAVA的遍历MAP
darkranger
map
Java Map遍历方式的选择
1. 阐述
对于Java中Map的遍历方式,很多文章都推荐使用entrySet,认为其比keySet的效率高很多。理由是:entrySet方法一次拿到所有key和value的集合;而keySet拿到的只是key的集合,针对每个key,都要去Map中额外查找一次value,从而降低了总体效率。那么实际情况如何呢?
为了解遍历性能的真实差距,包括在遍历ke
- POJ 2312 Battle City 优先多列+bfs
aijuans
搜索
来源:http://poj.org/problem?id=2312
题意:题目背景就是小时候玩的坦克大战,求从起点到终点最少需要多少步。已知S和R是不能走得,E是空的,可以走,B是砖,只有打掉后才可以通过。
思路:很容易看出来这是一道广搜的题目,但是因为走E和走B所需要的时间不一样,因此不能用普通的队列存点。因为对于走B来说,要先打掉砖才能通过,所以我们可以理解为走B需要两步,而走E是指需要1
- Hibernate与Jpa的关系,终于弄懂
avords
javaHibernate数据库jpa
我知道Jpa是一种规范,而Hibernate是它的一种实现。除了Hibernate,还有EclipseLink(曾经的toplink),OpenJPA等可供选择,所以使用Jpa的一个好处是,可以更换实现而不必改动太多代码。
在play中定义Model时,使用的是jpa的annotations,比如javax.persistence.Entity, Table, Column, OneToMany
- 酸爽的console.log
bee1314
console
在前端的开发中,console.log那是开发必备啊,简直直观。通过写小函数,组合大功能。更容易测试。但是在打版本时,就要删除console.log,打完版本进入开发状态又要添加,真不够爽。重复劳动太多。所以可以做些简单地封装,方便开发和上线。
/**
* log.js hufeng
* The safe wrapper for `console.xxx` functions
*
- 哈佛教授:穷人和过于忙碌的人有一个共同思维特质
bijian1013
时间管理励志人生穷人过于忙碌
一个跨学科团队今年完成了一项对资源稀缺状况下人的思维方式的研究,结论是:穷人和过于忙碌的人有一个共同思维特质,即注意力被稀缺资源过分占据,引起认知和判断力的全面下降。这项研究是心理学、行为经济学和政策研究学者协作的典范。
这个研究源于穆来纳森对自己拖延症的憎恨。他7岁从印度移民美国,很快就如鱼得水,哈佛毕业
- other operate
征客丶
OSosx
一、Mac Finder 设置排序方式,预览栏 在显示-》查看显示选项中
二、有时预览显示时,卡死在那,有可能是一些临时文件夹被删除了,如:/private/tmp[有待验证]
--------------------------------------------------------------------
若有其他凝问或文中有错误,请及时向我指出,
我好及时改正,同时也让我们一
- 【Scala五】分析Spark源代码总结的Scala语法三
bit1129
scala
1. If语句作为表达式
val properties = if (jobIdToActiveJob.contains(jobId)) {
jobIdToActiveJob(stage.jobId).properties
} else {
// this stage will be assigned to "default" po
- ZooKeeper 入门
BlueSkator
中间件zk
ZooKeeper是一个高可用的分布式数据管理与系统协调框架。基于对Paxos算法的实现,使该框架保证了分布式环境中数据的强一致性,也正是基于这样的特性,使得ZooKeeper解决很多分布式问题。网上对ZK的应用场景也有不少介绍,本文将结合作者身边的项目例子,系统地对ZK的应用场景进行一个分门归类的介绍。
值得注意的是,ZK并非天生就是为这些应用场景设计的,都是后来众多开发者根据其框架的特性,利
- MySQL取得当前时间的函数是什么 格式化日期的函数是什么
BreakingBad
mysqlDate
取得当前时间用 now() 就行。
在数据库中格式化时间 用DATE_FORMA T(date, format) .
根据格式串format 格式化日期或日期和时间值date,返回结果串。
可用DATE_FORMAT( ) 来格式化DATE 或DATETIME 值,以便得到所希望的格式。根据format字符串格式化date值:
%S, %s 两位数字形式的秒( 00,01,
- 读《研磨设计模式》-代码笔记-组合模式
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.util.ArrayList;
import java.util.List;
abstract class Component {
public abstract void printStruct(Str
- 4_JAVA+Oracle面试题(有答案)
chenke
oracle
基础测试题
卷面上不能出现任何的涂写文字,所有的答案要求写在答题纸上,考卷不得带走。
选择题
1、 What will happen when you attempt to compile and run the following code? (3)
public class Static {
static {
int x = 5; // 在static内有效
}
st
- 新一代工作流系统设计目标
comsci
工作算法脚本
用户只需要给工作流系统制定若干个需求,流程系统根据需求,并结合事先输入的组织机构和权限结构,调用若干算法,在流程展示版面上面显示出系统自动生成的流程图,然后由用户根据实际情况对该流程图进行微调,直到满意为止,流程在运行过程中,系统和用户可以根据情况对流程进行实时的调整,包括拓扑结构的调整,权限的调整,内置脚本的调整。。。。。
在这个设计中,最难的地方是系统根据什么来生成流
- oracle 行链接与行迁移
daizj
oracle行迁移
表里的一行对于一个数据块太大的情况有二种(一行在一个数据块里放不下)
第一种情况:
INSERT的时候,INSERT时候行的大小就超一个块的大小。Oracle把这行的数据存储在一连串的数据块里(Oracle Stores the data for the row in a chain of data blocks),这种情况称为行链接(Row Chain),一般不可避免(除非使用更大的数据
- [JShop]开源电子商务系统jshop的系统缓存实现
dinguangx
jshop电子商务
前言
jeeshop中通过SystemManager管理了大量的缓存数据,来提升系统的性能,但这些缓存数据全部都是存放于内存中的,无法满足特定场景的数据更新(如集群环境)。JShop对jeeshop的缓存机制进行了扩展,提供CacheProvider来辅助SystemManager管理这些缓存数据,通过CacheProvider,可以把缓存存放在内存,ehcache,redis,memcache
- 初三全学年难记忆单词
dcj3sjt126com
englishword
several 儿子;若干
shelf 架子
knowledge 知识;学问
librarian 图书管理员
abroad 到国外,在国外
surf 冲浪
wave 浪;波浪
twice 两次;两倍
describe 描写;叙述
especially 特别;尤其
attract 吸引
prize 奖品;奖赏
competition 比赛;竞争
event 大事;事件
O
- sphinx实践
dcj3sjt126com
sphinx
安装参考地址:http://briansnelson.com/How_to_install_Sphinx_on_Centos_Server
yum install sphinx
如果失败的话使用下面的方式安装
wget http://sphinxsearch.com/files/sphinx-2.2.9-1.rhel6.x86_64.rpm
yum loca
- JPA之JPQL(三)
frank1234
ormjpaJPQL
1 什么是JPQL
JPQL是Java Persistence Query Language的简称,可以看成是JPA中的HQL, JPQL支持各种复杂查询。
2 检索单个对象
@Test
public void querySingleObject1() {
Query query = em.createQuery("sele
- Remove Duplicates from Sorted Array II
hcx2013
remove
Follow up for "Remove Duplicates":What if duplicates are allowed at most twice?
For example,Given sorted array nums = [1,1,1,2,2,3],
Your function should return length
- Spring4新特性——Groovy Bean定义DSL
jinnianshilongnian
spring 4
Spring4新特性——泛型限定式依赖注入
Spring4新特性——核心容器的其他改进
Spring4新特性——Web开发的增强
Spring4新特性——集成Bean Validation 1.1(JSR-349)到SpringMVC
Spring4新特性——Groovy Bean定义DSL
Spring4新特性——更好的Java泛型操作API
Spring4新
- CentOS安装Mysql5.5
liuxingguome
centos
CentOS下以RPM方式安装MySQL5.5
首先卸载系统自带Mysql:
yum remove mysql mysql-server mysql-libs compat-mysql51
rm -rf /var/lib/mysql
rm /etc/my.cnf
查看是否还有mysql软件:
rpm -qa|grep mysql
去http://dev.mysql.c
- 第14章 工具函数(下)
onestopweb
函数
index.html
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/
- POJ 1050
SaraWon
二维数组子矩阵最大和
POJ ACM第1050题的详细描述,请参照
http://acm.pku.edu.cn/JudgeOnline/problem?id=1050
题目意思:
给定包含有正负整型的二维数组,找出所有子矩阵的和的最大值。
如二维数组
0 -2 -7 0
9 2 -6 2
-4 1 -4 1
-1 8 0 -2
中和最大的子矩阵是
9 2
-4 1
-1 8
且最大和是15
- [5]设计模式——单例模式
tsface
java单例设计模式虚拟机
单例模式:保证一个类仅有一个实例,并提供一个访问它的全局访问点
安全的单例模式:
/*
* @(#)Singleton.java 2014-8-1
*
* Copyright 2014 XXXX, Inc. All rights reserved.
*/
package com.fiberhome.singleton;
- Java8全新打造,英语学习supertool
yangshangchuan
javasuperword闭包java8函数式编程
superword是一个Java实现的英文单词分析软件,主要研究英语单词音近形似转化规律、前缀后缀规律、词之间的相似性规律等等。Clean code、Fluent style、Java8 feature: Lambdas, Streams and Functional-style Programming。
升学考试、工作求职、充电提高,都少不了英语的身影,英语对我们来说实在太重要