- 【vLLM 学习】使用 Neuron 安装
HyperAI超神经
vLLMvLLM开源人工智能深度学习源代码GPU机器学习
vLLM是一款专为大语言模型推理加速而设计的框架,实现了KV缓存内存几乎零浪费,解决了内存管理瓶颈问题。更多vLLM中文文档及教程可访问→https://vllm.hyper.ai/从vLLM0.3.3版本起,支持在带有NeuronSDK的AWSTrainium/Inferentia上进行模型推理和服务。目前NeuronSDK不支持分页注意力(PagedAttention),但Transforme
- YOLOv5 + SE注意力机制:提升目标检测性能的实践
那年一路北
YoloYOLO目标跟踪人工智能
一、引言目标检测是计算机视觉领域的一个重要任务,广泛应用于自动驾驶、安防监控、工业检测等领域。YOLOv5作为YOLO系列的最新版本,以其高效性和准确性在实际应用中表现出色。然而,随着应用场景的复杂化,传统的卷积神经网络在处理复杂背景和多尺度目标时可能会遇到性能瓶颈。为此,引入注意力机制成为了一种有效的改进方法。本文将详细介绍如何在YOLOv5中引入SE(Squeeze-and-Excitatio
- Transformer 代码剖析1 - 数据处理 (pytorch实现)
lczdyx
Transformer代码剖析人工智能transformer深度学习pytorchpython
引言Transformer架构自《AttentionIsAllYouNeed》论文发表以来,在自然语言处理领域引起了巨大的变革。它摒弃了传统的循环结构,完全基于注意力机制,显著提高了处理序列数据的效率和性能。本文将通过对一个具体的项目代码结构进行详细分析,带领大家深入了解Transformer模型的数据处理部分。项目结构概述首先,让我们来看看项目的整体结构:(参考项目代码)transformer-
- 注意力机制中的查询Q、键K、值V与态势感知
人机与认知实验室
机器学习人工智能
注意力机制中的查询(Q)、键(K)、值(V)与态势感知中的态、势、感、知之间存在一定的对应关系。可以把查询对应于态和势,键对应于感,值对应于知,这种对应关系体现了两者在信息处理过程中的相似性,即从大量信息中提取出对当前任务最有用的部分,为决策提供支持。但是,注意力机制中的查询(Query,Q)、键(Key,K)、值(Value,V)与态势感知中的“态、势、感、知”之间并没有严格的直接对应关系,因为
- 注意力机制是如何提取有用信息的?
人机与认知实验室
我们用通俗的方式解释注意力机制是如何通过比较查询(Query,Q)和键(Key,K)的相似度,来决定从值(Value,V)中提取多少有用信息的。场景:图书馆找书假设你在图书馆里,脑海中的问题是:“我想找一本关于人工智能的书。”(这就是你的查询,Q)。图书馆里的每本书都有一个标签,比如“人工智能入门”或“历史小说”(这些是键,K)。每本书的详细内容(比如具体的章节、知识点等)就是值,V。1、计算相似
- DeepSeek技术全景解析:架构创新与行业差异化竞争力
二进制coder
人工智能架构AGIAI
一、DeepSeek技术体系的核心突破架构设计:效率与性能的双重革新Multi-headLatentAttention(MLA):通过将注意力头维度与隐藏层解耦,实现显存占用降低30%的同时支持4096超长上下文窗口。深度优化的MoE架构:结合256个路由专家与1个共享专家,实现稀疏激活机制(每个Token仅激活8个专家),在代码生成任务中推理速度提升40%。混合模态支持:支持文本、代码、数学符号
- 【llm对话系统】大模型源码分析之 LLaMA 模型的 Masked Attention
kakaZhui
llama人工智能AIGCchatgptpython
在大型语言模型(LLM)中,注意力机制(AttentionMechanism)是核心组成部分。然而,在自回归(autoregressive)模型中,例如LLaMA,我们需要对注意力进行屏蔽(Masking),以防止模型“偷看”未来的信息。本文将深入探讨LLaMA模型中MaskedAttention的实现逻辑,并对比其他类型大模型中常用的MaskedAttention方案。1.什么是MaskedAt
- 阿里巴巴DIN模型原理与Python实现
eso1983
python开发语言算法推荐算法
阿里巴巴的DeepInterestNetwork(DIN)是一种用于点击率预测(CTR)的深度学习模型,特别针对电商场景中用户兴趣多样化和动态变化的特性设计。其核心思想是通过注意力机制动态捕捉用户历史行为中与当前候选商品相关的兴趣。1.DIN模型原理1.核心问题传统推荐模型(如Embedding+MLP)将用户历史行为视为固定长度的向量,忽略了用户兴趣的多样性。例如,用户历史行为中可能包含多个互不
- 浅析 DeepSeek 开源的 FlashMLA 项目
X.Cristiano
FlashMLADeepSeek深度学习
浅析DeepSeek开源的FlashMLA项目DeepSeek开源周Day1(2025年2月24日)放出的开源项目——FlashMLA,是一款针对Hopper架构GPU高效多层级注意力(Multi-LevelAttention,MLA)解码内核,专门为处理变长序列问题而设计。趁热浏览一下:GitHub-deepseek-ai/FlashMLA一、概述传统的注意力计算方法在面对变长序列或长序列推理时
- 注意力机制(Attention Mechanism)详细分类与介绍
Jason_Orton
分类数据挖掘人工智能
注意力机制(AttentionMechanism)是近年来在深度学习中非常流行的一种技术,特别是在自然语言处理(NLP)、计算机视觉等任务中,具有显著的效果。它的核心思想是模仿人类在处理信息时的注意力分配方式,根据不同部分的重要性给予不同的关注程度。1.注意力机制的背景与动机在传统的深度学习模型(如RNN、CNN等)中,信息处理通常是按照固定的规则和结构进行的,模型对输入的各个部分给予相同的关注。
- VIT(Vision Transformer)【超详细 pytorch实现
周玄九
计算机视觉transformer深度学习人工智能
CNN的局限性:传统的CNN通过局部卷积核提取特征,虽然可以通过堆叠多层卷积扩大感受野,但仍然依赖于局部信息的逐步聚合,难以直接建模全局依赖关系。ViT的优势:ViT使用自注意力机制(Self-Attention),能够直接捕捉图像中所有patch(图像块)之间的全局关系。这种全局建模能力在处理需要长距离依赖的任务(如图像分类、目标检测)时表现更好。全流程图像预处理+分块图像尺寸标准化,如(224
- 深度学习的前沿与挑战:从基础到最新进展
Jason_Orton
深度学习人工智能数据挖掘机器学习
目录引言什么是深度学习?深度学习的工作原理深度学习的关键技术1.卷积神经网络(CNN)2.循环神经网络(RNN)3.生成对抗网络(GAN)4.变分自编码器(VAE)5.自注意力机制与Transformer深度学习的应用1.计算机视觉2.自然语言处理(NLP)3.语音识别与合成4.推荐系统5.医学影像分析深度学习面临的挑战结语引言深度学习(DeepLearning)近年来成为人工智能领域的核心技术之
- 云上玩转DeepSeek系列之五:实测优化16%, 体验FlashMLA加速DeepSeek-V2-Lite推理
deepseekllm人工智能
2月25日,DeepSeek-AI面向社区开源了其技术成果FlashMLA(https://github.com/deepseek-ai/FlashMLA),这是一个面向推理优化的高效多层注意力(Multi-HeadLatentAttention)解码内核。该技术通过优化多头潜在注意力机制和分页KV缓存系统,显著提升了大语言模型的长序列处理能力与推理效率。我们第一时间在人工智能平台PAI上进行拆箱
- 技术硬核:突出FP8、3倍速度、90%成本暴降等技术参数,强化可信度
guzhoumingyue
AIpython
DeepSeek近期开源项目详细分析1.FlashMLA:大模型推理效率革命技术特点:首个开源项目FlashMLA是针对英伟达Hopper架构GPU(如H800)优化的高效多头潜在注意力(MLA)解码内核,支持可变长度序列的动态处理,显著降低显存占用并提升推理速度。在H800上可实现每秒3000GB的数据吞吐和580万亿次浮点运算(TFLOPS),接近硬件性能极限。行业影响:通过压缩KV矩阵和优化
- AI岗位面试指南:高频文档问题解析与应答策略
阿三0812
ai人工智能面试
一、必问文档类问题与应答模板1.简历深挖类典型问题:"请详细解释简历中提到的「基于Transformer的文本生成优化项目」,你如何量化性能提升?"应答框架:背景与目标:"项目源于客户需要将文本生成延迟从2秒压缩至800ms以内,同时保证BLEU分数不低于0.82"技术创新点:"采用知识蒸馏+动态量化方案,设计分层注意力裁剪策略"量化成果:"推理速度提升2.7倍(2150ms→780ms),内存占
- HarmonyOS Next典型布局案例:运营横幅(Banner)
harmonyos
本文旨在深入探讨华为鸿蒙HarmonyOSNext系统的技术细节,基于实际开发实践进行总结。主要作为技术分享与交流载体,难免错漏,欢迎各位同仁提出宝贵意见和问题,以便共同进步。本文为原创内容,任何形式的转载必须注明出处及原作者。在HarmonyOSNext应用开发中,运营横幅(Banner)是吸引用户注意力、展示重要信息的关键元素。而Swiper组件则是实现Banner轮播效果的得力助手。今天,咱
- 云原生周刊:云原生和 AI
云计算
开源项目推荐FlashMLADeepSeek于北京时间2025年2月24日上午9点正式开源了FlashMLA项目。FlashMLA是专为NVIDIAHopper架构GPU(如H100、H800)优化的高效多头潜在注意力(MLA)解码内核,旨在提升大模型推理性能,特别是针对可变长度序列进行了优化。性能表现:在NVIDIAH800SXM5GPU上,FlashMLA展现了卓越的性能:内存带宽:高达300
- 大模型知识蒸馏:技术突破与应用范式重构——从DeepSeek创新看AI基础设施演进路径
大模型服务器厂商
重构人工智能
一、知识蒸馏的技术哲学演进知识蒸馏(KnowledgeDistillation)作为模型压缩领域的核心技术突破,其发展轨迹折射出人工智能从"规模崇拜"向"效率优先"的范式转变。传统知识蒸馏框架主要关注概率分布层面的知识迁移,但DeepSeek等前沿项目展示出更复杂的知识萃取机制。最新研究表明,知识传递已从单纯的输出层模仿,发展到注意力模式迁移(AttentionTransfer)、隐层特征对齐(H
- 【YOLOv11改进[注意力]】引入YOLOv12的A2C2f模块改进v11
Jackilina_Stone
【改进】YOLO系列YOLOpython计算机视觉OD
本文将进行在YOLOv11中引入A2C2f模块魔改v11,文中含全部代码、详细修改方式。助您轻松理解改进的方法。目录一YOLOv121区域注意力(AreaAttention)2R-ELAN(残差高效层聚合网络)3架构优化4实验二魔改YOLOv111整体修改
- MoBA:LLM长文本救星!月之暗面开源新一代注意力机制:处理1000万token能快16倍,已在Kimi上进行验证
蚝油菜花
人工智能开源人工智能开源
❤️如果你也关注AI的发展现状,且对AI应用开发感兴趣,我会每日分享大模型与AI领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!AI在线答疑->智能检索历史文章和开源项目->尽在微信公众号->搜一搜:蚝油菜花「你的LLM还在为长文本「爆内存」?Moonshot突破性方案:千万token推理速度提升16倍!」大家好,我是蚝油菜花。当同行还在为以下问题头疼时——32k上下文跑批处
- 即插即用的注意力机制21种
@Mr_LiuYang
论文阅读AttentionModule注意力机制即插即用
提示:谬误之处请指出更正摘要随着深度学习特别是自然语言处理领域的飞速发展,注意力机制(AttentionMechanism)已成为提升模型表现的关键技术,本文主要记录了即插即用的注意力机制结构的功能、出处及核心代码。1、SEBlock(Squeeze-and-Excitation)功能:自适应学习通道权重,增强重要通道特征。出处:SENet#SEBlock(PyTorch)classSEBlock
- GPT-2源码实现及GPT-3、GPT-3.5、GPT-4及GPT-5内幕解析(二)
段智华
深入理解ChatGPTChatGPT国内OpenAIGPT-3GPT-4
GPT-2源码实现及GPT-3、GPT-3.5、GPT-4及GPT-5内幕解析(二)Gavin大咖微信:NLP_Matrix_Space5.2GPT-2源码实现逐行解析本节讲解GPT-2源码,gpt2.py是一个使用NumPy实现的代码,在代码中实现了GELU激活函数、softmax函数、层归一化、线性层、前馈神经网络、多头自注意力机制、Transformer块、GPT2模型以及文本生成函数,通过
- YOLOv12:以注意力为中心的物体检测
那雨倾城
PiscTraceYOLO机器学习目标检测深度学习图像处理
YOLOv12是YOLO系列中的最新版本,它引入了一种以注意力为中心的架构,旨在进一步提升物体检测的精度和速度。相比以往的YOLO模型,YOLOv12摒弃了传统基于卷积神经网络(CNN)的结构,采用了全新的方法,融合了自注意力机制和高效的网络架构优化,提供了一个高精度、低延迟的实时目标检测模型。1.主要功能YOLOv12在多个关键点进行了优化和创新,以下是它的主要功能:1.1区域注意机制(Regi
- DeepSeek-R1秘籍轻松迁移,只需原始数据0.3% | 邱锡鹏团队联合出品
量子位
DeepSeek-R1背后关键——多头潜在注意力机制(MLA),现在也能轻松移植到其他模型了!而且只需原始数据的0.3%~0.6%。这项研究由复旦大学、华东师范大学、上海AILab等联合提出,复旦教授邱锡鹏(Moss大模型项目负责人)也在作者名单之列。他们提出了MHA2MLA这种数据高效的微调方法,使基于MHA(多头注意力)的大语言模型(LLMs)能够顺利转换到MLA架构。以Llama2-7B为例
- TMI‘24 | 注意力感知的非刚性图像配准加速磁共振成像
小白学视觉
医学图像处理论文解读深度学习论文解读医学图像顶刊医学图像处理TMI
论文信息题目:Attention-AwareNon-RigidImageRegistrationforAcceleratedMRImaging注意力感知的非刚性图像配准加速磁共振成像作者:AyaGhoul,JiazhenPan,AndreasLingg,JensKübler,PatrickKrumm,KerstinHammernik,DanielRueckert,SergiosGatidis,an
- 为什么词向量和权重矩阵dot运算就能得到想要的效果呢?
cjl30804
矩阵线性代数nlp
最近在学习NLP算法的时候,进入到了深水区以后,发现了弄懂这个才是核心中的核心,抓住了主要矛盾了。特意拿出来跟大家分享。词向量(WordEmbeddings)和权重矩阵的点积运算之所以能够帮助我们实现特定的效果,主要是因为它们在神经网络架构中扮演的角色以及背后的数学原理。具体来说,在自然语言处理任务中,这种操作通常出现在如Transformer模型中的自注意力机制里。让我们深入探讨一下为什么这种方
- 如何在Java中实现多头注意力机制:从Transformer模型入手
省赚客app开发者
javatransformer开发语言
如何在Java中实现多头注意力机制:从Transformer模型入手大家好,我是微赚淘客系统3.0的小编,是个冬天不穿秋裤,天冷也要风度的程序猿!多头注意力机制(Multi-HeadAttention)是Transformer模型中的关键组件,广泛用于自然语言处理(NLP)任务中。它允许模型在不同的子空间中并行地关注输入序列的不同部分,从而提高了模型的表达能力。在本文中,我们将详细介绍如何在Jav
- Transformer大模型实战 教师 学生架构
AI智能涌现深度研究
DeepSeekR1&大数据AI人工智能Python入门实战计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
Transformer大模型实战教师学生架构作者:禅与计算机程序设计艺术/ZenandtheArtofComputerProgramming1.背景介绍1.1问题的由来近年来,随着深度学习技术的飞速发展,自然语言处理(NLP)领域取得了显著的进步。其中,Transformer模型作为一种基于自注意力机制的深度神经网络结构,因其优越的性能和灵活的适用性,在NLP任务中得到了广泛应用。然而,Trans
- 如何在Java中设计高效的Transformer模型架构
省赚客app开发者
javatransformer架构
如何在Java中设计高效的Transformer模型架构大家好,我是微赚淘客系统3.0的小编,是个冬天不穿秋裤,天冷也要风度的程序猿!Transformer模型自从2017年提出以来,凭借其出色的性能和灵活性,在自然语言处理(NLP)和其他领域取得了显著的成功。Transformer的核心在于其自注意力机制和位置编码,它使得模型能够处理长距离依赖,并有效地进行序列到序列的转换。本文将介绍如何在Ja
- YOLOv8与DAttention机制的融合:复杂场景下目标检测性能的增强
向哆哆
YOLO目标检测目标跟踪yolov8
文章目录1.YOLOv8简介2.DAttention(DAT)注意力机制概述2.1DAttention机制的工作原理3.YOLOv8与DAttention(DAT)的结合3.1引入DAT的动机3.2集成方法3.3代码实现4.实验与结果分析4.1实验设置4.2结果分析推理速度性能对比5.深度分析:DAttention在YOLOv8中的作用5.1DAttention的有效性5.2适用于小物体检测5.3
- java责任链模式
3213213333332132
java责任链模式村民告县长
责任链模式,通常就是一个请求从最低级开始往上层层的请求,当在某一层满足条件时,请求将被处理,当请求到最高层仍未满足时,则请求不会被处理。
就是一个请求在这个链条的责任范围内,会被相应的处理,如果超出链条的责任范围外,请求不会被相应的处理。
下面代码模拟这样的效果:
创建一个政府抽象类,方便所有的具体政府部门继承它。
package 责任链模式;
/**
*
- linux、mysql、nginx、tomcat 性能参数优化
ronin47
一、linux 系统内核参数
/etc/sysctl.conf文件常用参数 net.core.netdev_max_backlog = 32768 #允许送到队列的数据包的最大数目
net.core.rmem_max = 8388608 #SOCKET读缓存区大小
net.core.wmem_max = 8388608 #SOCKET写缓存区大
- php命令行界面
dcj3sjt126com
PHPcli
常用选项
php -v
php -i PHP安装的有关信息
php -h 访问帮助文件
php -m 列出编译到当前PHP安装的所有模块
执行一段代码
php -r 'echo "hello, world!";'
php -r 'echo "Hello, World!\n";'
php -r '$ts = filemtime("
- Filter&Session
171815164
session
Filter
HttpServletRequest requ = (HttpServletRequest) req;
HttpSession session = requ.getSession();
if (session.getAttribute("admin") == null) {
PrintWriter out = res.ge
- 连接池与Spring,Hibernate结合
g21121
Hibernate
前几篇关于Java连接池的介绍都是基于Java应用的,而我们常用的场景是与Spring和ORM框架结合,下面就利用实例学习一下这方面的配置。
1.下载相关内容: &nb
- [简单]mybatis判断数字类型
53873039oycg
mybatis
昨天同事反馈mybatis保存不了int类型的属性,一直报错,错误信息如下:
Caused by: java.lang.NumberFormatException: For input string: "null"
at sun.mis
- 项目启动时或者启动后ava.lang.OutOfMemoryError: PermGen space
程序员是怎么炼成的
eclipsejvmtomcatcatalina.sheclipse.ini
在启动比较大的项目时,因为存在大量的jsp页面,所以在编译的时候会生成很多的.class文件,.class文件是都会被加载到jvm的方法区中,如果要加载的class文件很多,就会出现方法区溢出异常 java.lang.OutOfMemoryError: PermGen space.
解决办法是点击eclipse里的tomcat,在
- 我的crm小结
aijuans
crm
各种原因吧,crm今天才完了。主要是接触了几个新技术:
Struts2、poi、ibatis这几个都是以前的项目中用过的。
Jsf、tapestry是这次新接触的,都是界面层的框架,用起来也不难。思路和struts不太一样,传说比较简单方便。不过个人感觉还是struts用着顺手啊,当然springmvc也很顺手,不知道是因为习惯还是什么。jsf和tapestry应用的时候需要知道他们的标签、主
- spring里配置使用hibernate的二级缓存几步
antonyup_2006
javaspringHibernatexmlcache
.在spring的配置文件中 applicationContent.xml,hibernate部分加入
xml 代码
<prop key="hibernate.cache.provider_class">org.hibernate.cache.EhCacheProvider</prop>
<prop key="hi
- JAVA基础面试题
百合不是茶
抽象实现接口String类接口继承抽象类继承实体类自定义异常
/* * 栈(stack):主要保存基本类型(或者叫内置类型)(char、byte、short、 *int、long、 float、double、boolean)和对象的引用,数据可以共享,速度仅次于 * 寄存器(register),快于堆。堆(heap):用于存储对象。 */ &
- 让sqlmap文件 "继承" 起来
bijian1013
javaibatissqlmap
多个项目中使用ibatis , 和数据库表对应的 sqlmap文件(增删改查等基本语句),dao, pojo 都是由工具自动生成的, 现在将这些自动生成的文件放在一个单独的工程中,其它项目工程中通过jar包来引用 ,并通过"继承"为基础的sqlmap文件,dao,pojo 添加新的方法来满足项
- 精通Oracle10编程SQL(13)开发触发器
bijian1013
oracle数据库plsql
/*
*开发触发器
*/
--得到日期是周几
select to_char(sysdate+4,'DY','nls_date_language=AMERICAN') from dual;
select to_char(sysdate,'DY','nls_date_language=AMERICAN') from dual;
--建立BEFORE语句触发器
CREATE O
- 【EhCache三】EhCache查询
bit1129
ehcache
本文介绍EhCache查询缓存中数据,EhCache提供了类似Hibernate的查询API,可以按照给定的条件进行查询。
要对EhCache进行查询,需要在ehcache.xml中设定要查询的属性
数据准备
@Before
public void setUp() {
//加载EhCache配置文件
Inpu
- CXF框架入门实例
白糖_
springWeb框架webserviceservlet
CXF是apache旗下的开源框架,由Celtix + XFire这两门经典的框架合成,是一套非常流行的web service框架。
它提供了JAX-WS的全面支持,并且可以根据实际项目的需要,采用代码优先(Code First)或者 WSDL 优先(WSDL First)来轻松地实现 Web Services 的发布和使用,同时它能与spring进行完美结合。
在apache cxf官网提供
- angular.equals
boyitech
AngularJSAngularJS APIAnguarJS 中文APIangular.equals
angular.equals
描述:
比较两个值或者两个对象是不是 相等。还支持值的类型,正则表达式和数组的比较。 两个值或对象被认为是 相等的前提条件是以下的情况至少能满足一项:
两个值或者对象能通过=== (恒等) 的比较
两个值或者对象是同样类型,并且他们的属性都能通过angular
- java-腾讯暑期实习生-输入一个数组A[1,2,...n],求输入B,使得数组B中的第i个数字B[i]=A[0]*A[1]*...*A[i-1]*A[i+1]
bylijinnan
java
这道题的具体思路请参看 何海涛的微博:http://weibo.com/zhedahht
import java.math.BigInteger;
import java.util.Arrays;
public class CreateBFromATencent {
/**
* 题目:输入一个数组A[1,2,...n],求输入B,使得数组B中的第i个数字B[i]=A
- FastDFS 的安装和配置 修订版
Chen.H
linuxfastDFS分布式文件系统
FastDFS Home:http://code.google.com/p/fastdfs/
1. 安装
http://code.google.com/p/fastdfs/wiki/Setup http://hi.baidu.com/leolance/blog/item/3c273327978ae55f93580703.html
安装libevent (对libevent的版本要求为1.4.
- [强人工智能]拓扑扫描与自适应构造器
comsci
人工智能
当我们面对一个有限拓扑网络的时候,在对已知的拓扑结构进行分析之后,发现在连通点之后,还存在若干个子网络,且这些网络的结构是未知的,数据库中并未存在这些网络的拓扑结构数据....这个时候,我们该怎么办呢?
那么,现在我们必须设计新的模块和代码包来处理上面的问题
- oracle merge into的用法
daizj
oraclesqlmerget into
Oracle中merge into的使用
http://blog.csdn.net/yuzhic/article/details/1896878
http://blog.csdn.net/macle2010/article/details/5980965
该命令使用一条语句从一个或者多个数据源中完成对表的更新和插入数据. ORACLE 9i 中,使用此命令必须同时指定UPDATE 和INSE
- 不适合使用Hadoop的场景
datamachine
hadoop
转自:http://dev.yesky.com/296/35381296.shtml。
Hadoop通常被认定是能够帮助你解决所有问题的唯一方案。 当人们提到“大数据”或是“数据分析”等相关问题的时候,会听到脱口而出的回答:Hadoop! 实际上Hadoop被设计和建造出来,是用来解决一系列特定问题的。对某些问题来说,Hadoop至多算是一个不好的选择,对另一些问题来说,选择Ha
- YII findAll的用法
dcj3sjt126com
yii
看文档比较糊涂,其实挺简单的:
$predictions=Prediction::model()->findAll("uid=:uid",array(":uid"=>10));
第一个参数是选择条件:”uid=10″。其中:uid是一个占位符,在后面的array(“:uid”=>10)对齐进行了赋值;
更完善的查询需要
- vim 常用 NERDTree 快捷键
dcj3sjt126com
vim
下面给大家整理了一些vim NERDTree的常用快捷键了,这里几乎包括了所有的快捷键了,希望文章对各位会带来帮助。
切换工作台和目录
ctrl + w + h 光标 focus 左侧树形目录ctrl + w + l 光标 focus 右侧文件显示窗口ctrl + w + w 光标自动在左右侧窗口切换ctrl + w + r 移动当前窗口的布局位置
o 在已有窗口中打开文件、目录或书签,并跳
- Java把目录下的文件打印出来
蕃薯耀
列出目录下的文件文件夹下面的文件目录下的文件
Java把目录下的文件打印出来
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
蕃薯耀 2015年7月11日 11:02:
- linux远程桌面----VNCServer与rdesktop
hanqunfeng
Desktop
windows远程桌面到linux,需要在linux上安装vncserver,并开启vnc服务,同时需要在windows下使用vnc-viewer访问Linux。vncserver同时支持linux远程桌面到linux。
linux远程桌面到windows,需要在linux上安装rdesktop,同时开启windows的远程桌面访问。
下面分别介绍,以windo
- guava中的join和split功能
jackyrong
java
guava库中,包含了很好的join和split的功能,例子如下:
1) 将LIST转换为使用字符串连接的字符串
List<String> names = Lists.newArrayList("John", "Jane", "Adam", "Tom");
- Web开发技术十年发展历程
lampcy
androidWeb浏览器html5
回顾web开发技术这十年发展历程:
Ajax
03年的时候我上六年级,那时候网吧刚在小县城的角落萌生。传奇,大话西游第一代网游一时风靡。我抱着试一试的心态给了网吧老板两块钱想申请个号玩玩,然后接下来的一个小时我一直在,注,册,账,号。
彼时网吧用的512k的带宽,注册的时候,填了一堆信息,提交,页面跳转,嘣,”您填写的信息有误,请重填”。然后跳转回注册页面,以此循环。我现在时常想,如果当时a
- 架构师之mima-----------------mina的非NIO控制IOBuffer(说得比较好)
nannan408
buffer
1.前言。
如题。
2.代码。
IoService
IoService是一个接口,有两种实现:IoAcceptor和IoConnector;其中IoAcceptor是针对Server端的实现,IoConnector是针对Client端的实现;IoService的职责包括:
1、监听器管理
2、IoHandler
3、IoSession
- ORA-00054:resource busy and acquire with NOWAIT specified
Everyday都不同
oraclesessionLock
[Oracle]
今天对一个数据量很大的表进行操作时,出现如题所示的异常。此时表明数据库的事务处于“忙”的状态,而且被lock了,所以必须先关闭占用的session。
step1,查看被lock的session:
select t2.username, t2.sid, t2.serial#, t2.logon_time
from v$locked_obj
- javascript学习笔记
tntxia
JavaScript
javascript里面有6种基本类型的值:number、string、boolean、object、function和undefined。number:就是数字值,包括整数、小数、NaN、正负无穷。string:字符串类型、单双引号引起来的内容。boolean:true、false object:表示所有的javascript对象,不用多说function:我们熟悉的方法,也就是
- Java enum的用法详解
xieke90
enum枚举
Java中枚举实现的分析:
示例:
public static enum SEVERITY{
INFO,WARN,ERROR
}
enum很像特殊的class,实际上enum声明定义的类型就是一个类。 而这些类都是类库中Enum类的子类 (java.l