- 【深度学习基础】什么是注意力机制
我的青春不太冷
深度学习人工智能注意力机制
文章目录一、注意力机制的核心地位:从补充到主导二、技术突破:从Transformer到多模态融合三、跨领域应用:从NLP到通用人工智能四、未来挑战与趋势结语参考链接注意力机制:深度学习的核心革命与未来基石在深度学习的发展历程中,注意力机制(AttentionMechanism)的引入堪称一场革命。它不仅解决了传统模型的根本性缺陷,更通过动态聚焦关键信息的能力,重塑了人工智能处理复杂任务的范式。本文
- 【论文精读】Sparse4D v2: Recurrent Temporal Fusion with Sparse Model
EEPI
自动驾驶人工智能论文阅读深度学习目标检测
1背景团队:地平线时间:代码:简介:这篇论文是Sparse4D的续作,区别主要在于特征时序融合上,新版提高了运算效率。后续端到端SparseDrive的基本框架与这篇基本类似。2存在的问题2.1其他稀疏3D检测的问题PETR是query-based方法,但是为了实现特征融合,进行了全局注意力机制,导致高计算量。2.2Sparse4Dv1的问题Sparse4Dv1的时序特征融合hierarchyfu
- DeepSeek底层揭秘——多头潜在注意力MLA
9命怪猫
AIai人工智能大模型
目录1.多头潜在注意力(MLA)2.核心功能3.技术要素4.难点挑战暨含解决方案5.技术路径6.应用场景7.实际案例:DeepSeek8.最新研究与技术进展9.未来趋势猫哥说1.多头潜在注意力(MLA)(1)定义“多头潜在注意力(Multi-HeadLatentAttention,MLA)”是一种基于注意力机制的深度学习方法,旨在通过多个注意力头(Multi-HeadAttention)对潜在空间
- AI大模型的技术突破与传媒行业变革
AIQL
行业分析人工智能传媒
性能与成本:AI大模型的“双轮驱动”过去几年,AI大模型的发展经历了从实验室到产业化的关键转折。2025年初,以DeepSeekR1为代表的模型在数学推理、代码生成等任务中表现超越国际头部产品,而训练成本仅为传统模型的几十分之一。这一突破的核心在于三大技术创新:MoE架构升级:通过部署256个细粒度专家网络,减少知识冗余,提升模型效率;MLA注意力机制:动态压缩推理过程中的缓存需求,降低GPU内存
- 轻量级的注意力网络(LANMSFF)模型详解及代码复现
清风AI
深度学习算法详解及代码复现深度学习人工智能神经网络python计算机视觉
定义与特点在深度学习领域,轻量化网络设计已成为一个重要的研究方向。LANMSFF模型作为一种新型的轻量级网络架构,在保持高性能的同时,显著降低了模型的复杂度。LANMSFF模型的核心特点可以概括为以下几个方面:轻量级设计:通过精心设计的网络结构和参数优化,在保持较高性能的同时,显著降低了模型的复杂度。注意力机制:引入了一种新的注意力机制,能够有效地捕捉图像中的关键特征,提高模型的表达能力。多尺度特
- Bengio新作Aaren:探索Transformer性能与RNN效率的融合
AI记忆
深度学习论文与相关应用transformerrnn深度学习AarenBengio
论文链接:https://arxiv.org/pdf/2405.13956一、摘要总结:本文提出了一种新的注意力机制,名为Aaren,它将注意力视为一种特殊的递归神经网络(RNN),能够高效地计算其多对一RNN输出。Aaren不仅能够并行训练,而且能够在推理时高效地更新新令牌,仅需要常数内存。实验表明,Aaren在四个流行的序列问题设置(强化学习、事件预测、时间序列分类和时间序列预测)的38个数据
- 发文新思路!双通道CNN的惊人突破,准确率接近100%!
沃恩智慧
深度学习人工智能cnn人工智能神经网络
双通道CNN作为一种创新的卷积神经网络架构,正引领深度学习领域的新趋势。其核心优势在于并行卷积层设计,能够同时处理更多特征信息,从而显著提升模型的特征表示能力和识别精度。这种架构不仅提高了计算效率,还有效降低了过拟合风险,使其在复杂视觉任务中表现卓越。例如,最新的研究提出了一种名为DDTransUNet的混合网络,结合了Transformer和CNN的优势,通过双分支编码器和双重注意力机制,有效解
- 上下文扩展技术-详细解释Longformer和BigBird的主要创新;详细说明bert原理,并说一说他的上下文限制是怎么来的
AI生成曾小健
人工智能
答案LongformerLongformer是为有效处理长文本序列而设计的Transformer模型,它通过结合滑动窗口注意力机制和扩张注意力模式来捕捉局部和远距离的上下文信息,并通过全局注意力来捕捉整个文档的广泛背景和联系1.Keyinnovations:滑动窗口注意力Longformer使用滑动窗口方法处理本地上下文信息1.扩张注意力模式扩张注意力模式能够捕捉到远处的上下文信息,这对于处理冗长
- 【Transformer】小白入门指南
静静喜欢大白
随记医疗影像transformer深度学习人工智能
目录1、简介2、Transformer解决问题技术概览核心组成自注意力机制(Self-AttentionMechanism)多头注意力机制(Multi-HeadAttention)前馈神经网络(Feed-ForwardNeuralNetwork)位置编码(PositionalEncoding)残差连接与标准化框架认识1.输入输出2.Encoder3.Decoder4.训练过程5.Positione
- 【AI系列】从零开始学习大模型GPT (2)- Build a Large Language Model (From Scratch)
Tasfa
AI人工智能教程人工智能学习gpt
前序文章【AI系列】从零开始学习大模型GPT(1)-BuildaLargeLanguageModel(FromScratch)BuildaLargeLanguageModel背景第1章:理解大型语言模型第2章:处理文本数据第3章:编码Attention机制什么是Attention机制?Attention机制的基本原理数学表示应用总结为什么要使用注意力机制如何实现?简单注意力机制带训练权重的注意力机
- 微软 LayoutLMv3:通过统一文本和图像掩码进行文档人工智能预训练
人工智能
LayoutLMv3:通过统一文本和图像掩码进行文档人工智能预训练LayoutLMv3应用统一的文本-图像多模态Transformer来学习跨模态表示。Transformer具有多层架构,每层主要由多头自注意力机制和逐位置全连接前馈网络组成。Transformer的输入是文本嵌入$Y=y_{1:L}$和图像嵌入$X=x_{1:M}$序列的连接,其中$L$和$M$分别是文本和图像的序列长度。通过Tr
- 微软 LayoutLMv3:通过统一文本和图像掩码进行文档人工智能预训练
人工智能
LayoutLMv3:通过统一文本和图像掩码进行文档人工智能预训练LayoutLMv3应用统一的文本-图像多模态Transformer来学习跨模态表示。Transformer具有多层架构,每层主要由多头自注意力机制和逐位置全连接前馈网络组成。Transformer的输入是文本嵌入$Y=y_{1:L}$和图像嵌入$X=x_{1:M}$序列的连接,其中$L$和$M$分别是文本和图像的序列长度。通过Tr
- 深度学习语义分割实战:ResNet 与 ViT 结合的模型解析
高山仰星
深度学习
1.引言语义分割是计算机视觉中的重要任务,其目标是将输入图像中的每个像素分类到特定的类别。本项目结合了ResNet(ResidualNetwork)和ViT(VisionTransformer),构建了高性能的语义分割模型。本文将详细解析该模型的架构、训练流程及其应用。2.语义分割模型解析本项目采用ResNet和ViT结合的方式进行语义分割,并使用CBAM注意力机制增强特征提取能力。涉及的核心文件
- Transformer细节(九)——Transformer位置编码
多学学多写写
transformer深度学习人工智能
一、总述Transformer模型中的位置编码(PositionalEncoding)是用于向模型提供序列中各个元素位置信息的机制。由于Transformer没有卷积神经网络或循环神经网络中固有的序列顺序信息,它必须通过位置编码显式地引入这些信息。二、为什么需要位置编码Transformer模型依赖于自注意力机制(self-attentionmechanism),该机制在计算时对序列中的所有位置一
- Bahdanau 注意力
彬彬侠
自然语言处理BahdanauAttention注意力Seq2Seqpytorchpython自然语言处理
Bahdanau注意力(AdditiveAttention)Bahdanau注意力,也被称为加性注意力(AdditiveAttention),是一种广泛用于序列到序列(Seq2Seq)模型中的注意力机制,由DzmitryBahdanau等人在2014年提出。它是处理序列对序列(seq2seq)任务(如机器翻译)的关键技术之一。在Bahdanau提出的模型中,注意力机制通过引入一个额外的上下文信息来
- 【NLP算法面经】NLP算法面经 -- 腾讯 VS 美团(附面题)
青松ᵃⁱ
NLP百面百过AI面试NLP面试算法面试人工智能
博客主页:[青松]目录【NLP百面百过】大模型算法高频面题(全面整理ʘ‿ʘ)一、大模型(LLMs)基础面大模型(LLMs)架构篇注意力机制(Attention)篇Transformer理论篇二、大模型微调面有监督微调(SFT)篇高效微调篇提示学习篇人类对齐训练(RLHF)篇Prompt工程篇三、大模型进阶面大模型压缩篇分布式训练篇大模型魔改篇四、NLP任务实战面文本分类篇命名实体识别(NER)篇关
- Transformer:基于注意力机制的序列转换模型
金外飞176
论文精读transformer深度学习人工智能
Transformer:基于注意力机制的序列转换模型最近,我研究了一篇非常有趣的论文——《AttentionIsAllYouNeed》,由GoogleBrain团队的AshishVaswani等人撰写。这篇论文提出了一种全新的神经网络架构——Transformer,它完全基于注意力机制,摒弃了传统的循环(RNN)和卷积(CNN)网络结构,用于序列转换任务,如机器翻译和英语成分句法分析等。Trans
- StripedHyena 模型介绍
qq_27390023
深度学习python机器学习pytorch生物信息学
StripedHyena是近年来提出的一种新型神经网络架构,旨在替代或补充传统的Transformer模型。其核心目标是解决Transformer在处理长序列数据时的计算效率瓶颈(如自注意力机制的高复杂度),同时保持或提升模型在语言建模、长上下文理解等任务上的性能。发明背景(1)Transformer的局限性Transformer模型因其自注意力机制(Self-Attention)在自然语言处理(
- ai大模型学习和实践
编程ID
AI人工智能学习
ai大模型学习和实践一、初探大模型:起源与发展1、预热篇:解码注意力机制1.1注意力机制最早是在哪个领域得到应用的1.2以下哪些方法被用于处理序列数据?1.3以下方法被用于处理序列数据的是1.4注意力机制是什么2、变革里程碑:transformer的崛起2.1Transformer模型和注意力机制的关系2.2Transformer模型和注意力机制在数据训练上有差异2.3Transformer模型和
- AI大模型系列之七:Transformer架构讲解
m0_74823683
面试学习路线阿里巴巴人工智能transformer深度学习
目录Transformer网络是什么?输入模块结构:编码器模块结构:解码器模块:输出模块结构:Transformer具体是如何工作的?Transformer核心思想是什么?Transformer的代码架构自注意力机制是什么?多头注意力有什么用?前馈神经网络编码器(Encoder)解码器(Decoder):基于卷积神经网络(CNN)的编码器-解码器结构基于Transformer架构的主流语言模型有哪
- 深度学习和机器学习的区别|自注意力机制和多头注意力机制的展示|售前面试题
Red Red
面经深度学习机器学习人工智能学习笔记aiNLP
深度学习和机器学习的区别|自注意力机制和多头注意力机制的展示|售前面试题分类机器学习是人工智能的一个分支深度学习是机器学习下的一个分支模型结构机器学习较为简单,可能就是几层,比如线性层深度学习较为复杂,比如有些卷积层数据机器学习的数据量较少,一些分类任务可能几百几十个数据即可完成深度学习所需数据较多,且数据维度大,需要成百上千个数据计算资源机器学习使用普通计算机即可完成,占用资源少深度学习可能需要
- 【电力负荷预测】时间卷积双向门控循环单元融合注意力机制TCN-BiGRU-Attention负荷多变量时间序列预测【含Matlab源码 4752期】
Matlab领域
matlab
✅博主简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,Matlab项目合作可私信。个人主页:海神之光代码获取方式:海神之光Matlab王者学习之路—代码获取方式⛳️座右铭:行百里者,半于九十。更多Matlab仿真内容点击Matlab图像处理(进阶版)路径规划(Matlab)神经网络预测与分类(Matlab)优化求解(Matlab)语音处理(Matlab)信号处理(Matlab)车间调度
- 多头注意力机制的创新优化:MLA架构解析
耶耶Norsea
网络杂烩Deepseek
摘要MLA(Multi-headLatentAttention)架构是对Transformer模型中多头注意力(MHA)结构的创新优化,旨在提高推理阶段的效率并降低资源消耗。传统MHA中,每个注意力头需独立存储键和值矩阵,导致内存与计算成本增加。MLA通过低秩联合压缩技术,将键值对压缩为一个潜在向量,显著减少缓存容量需求,从而优化了推理效率和资源利用。关键词MLA架构,多头注意力,低秩压缩,推理效
- CNN-day11-注意力机制
谢眠
深度学习cnn深度学习人工智能
day12-注意力机制一、卷积注意力机制神经网络能够在同样的计算资源下获得更强的表征能力和更优的性能表现。1注意力认知AM:AttentionMechanism,注意力机制。注意力机制是一种让模型根据任务需求动态地关注输入数据中重要部分的机制。通过注意力机制,模型可以做到对图像中不同区域、句子中的不同部分给予不同的权重,从而增强感兴趣特征,并抑制不感兴趣区域。2注意力应用注意力机制最初应用于机器翻
- SCI一区级 | SAO-CNN-LSTM-Mutilhead-Attention雪消融算法优化卷积长短期记忆神经网络融合多头注意力机制多变量时间序列预测Matlab实现
天天Matlab代码科研顾问
神经网络cnnlstm
✅作者简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,代码获取、论文复现及科研仿真合作可私信。个人主页:Matlab科研工作室个人信条:格物致知。更多Matlab完整代码及仿真定制内容点击智能优化算法神经网络预测雷达通信无线传感器电力系统信号处理图像处理路径规划元胞自动机无人机物理应用机器学习内容介绍光伏发电作为一种清洁能源,在能源转型中扮演着至关重要的角色。准确预测光伏发电量对于提高
- 注意力机制:查询(Query)、键(Key)、值(Value)
彬彬侠
自然语言处理QueryKeyValue注意力attentionNLP自然语言处理
注意力机制:查询(Query)与键(Key)在注意力机制中,查询(Query)和键(Key)是两个非常关键的概念,它们通过计算相似度来决定模型在某一时刻应该“关注”输入序列的哪一部分。它们通常是来自编码器或解码器的表示,通过它们的交互,模型能够聚焦于最相关的信息部分,从而提高预测的准确性。1.查询(Query)查询(Query)是用来在输入序列中查找相关信息的向量。它代表了当前模型对于某一特定输出
- 深度学习的文本生成:从seq2seq到GPT2和GPT3
AI天才研究院
AI大模型应用入门实战与进阶ChatGPT大数据人工智能语言模型AILLMJavaPython架构设计AgentRPA
文章目录1.背景介绍1.1序列到序列(seq2seq)模型1.1.1编码器1.1.2解码器1.1.3训练1.2Transformer模型1.2.1自注意力机制1.2.2位置编码1.2.3多头注意力1.2.4训练1.3GPT(GenerativePre-trainedTransformer)模型1.3.1预训练1.3.2微调1.3.3生成1.4GPT-2和GPT-31.4.1GPT-21.4.2GP
- 【AI原理解析】— Gemini模型
coolkidlan
AI学习路径AIGC人工智能AIGC
目录1.模型概述定义特点2.模型基础与架构模型架构模型尺寸3.多模态处理能力输入处理数据处理训练过程4.技术细节与优化预训练上下文长度注意机制5.安全性与编程能力安全性评估编程能力6.模型发布与应用发布时间应用方向7.性能评估8.数学基础8.1Transformer解码器基础8.1.1自注意力机制(Self-Attention)8.1.2前馈神经网络(Feed-ForwardNeuralNetwo
- YOLOv10改进 | 独家创新- 注意力篇 | YOLOv10引入结合SimAM和SKAttention形成全新的SKAM注意力机制和C2f_SKAM(全网独家创新)
小李学AI
YOLOv10有效涨点专栏YOLO机器学习深度学习人工智能计算机视觉目标检测pytorch
1.SKAM介绍SKAM(SimAMandSKAttentionModule)注意力机制结合了SimAM和SKAttention的优点,能够在图像特征提取中表现出更为优异的性能。SimAM注意力机制SimAM(SimplifiedAttentionModule)是一种简单但有效的注意力机制,旨在增强重要特征,同时抑制不相关的特征。SimAM的主要优点包括:(1).计算简单:SimAM仅需计算均值和
- Flash Attention介绍
TAICHIFEI
大模型面试人工智能
FlashAttention是一种优化Transformer模型中注意力机制的技术,旨在提高计算效率并减少内存使用。以下是对FlashAttention的详细介绍:FlashAttention的关键点效率与速度:FlashAttention的目标是加快注意力机制的计算速度,同时提高内存利用效率。它将注意力机制的复杂度从传统的(O(N^2))降至(O(N\logN))甚至线性时间,其中(N)表示序列
- html页面js获取参数值
0624chenhong
html
1.js获取参数值js
function GetQueryString(name)
{
var reg = new RegExp("(^|&)"+ name +"=([^&]*)(&|$)");
var r = windo
- MongoDB 在多线程高并发下的问题
BigCat2013
mongodbDB高并发重复数据
最近项目用到 MongoDB , 主要是一些读取数据及改状态位的操作. 因为是结合了最近流行的 Storm进行大数据的分析处理,并将分析结果插入Vertica数据库,所以在多线程高并发的情境下, 会发现 Vertica 数据库中有部分重复的数据. 这到底是什么原因导致的呢?笔者开始也是一筹莫 展,重复去看 MongoDB 的 API , 终于有了新发现 :
com.mongodb.DB 这个类有
- c++ 用类模版实现链表(c++语言程序设计第四版示例代码)
CrazyMizzz
数据结构C++
#include<iostream>
#include<cassert>
using namespace std;
template<class T>
class Node
{
private:
Node<T> * next;
public:
T data;
- 最近情况
麦田的设计者
感慨考试生活
在五月黄梅天的岁月里,一年两次的软考又要开始了。到目前为止,我已经考了多达三次的软考,最后的结果就是通过了初级考试(程序员)。人啊,就是不满足,考了初级就希望考中级,于是,这学期我就报考了中级,明天就要考试。感觉机会不大,期待奇迹发生吧。这个学期忙于练车,写项目,反正最后是一团糟。后天还要考试科目二。这个星期真的是很艰难的一周,希望能快点度过。
- linux系统中用pkill踢出在线登录用户
被触发
linux
由于linux服务器允许多用户登录,公司很多人知道密码,工作造成一定的障碍所以需要有时踢出指定的用户
1/#who 查出当前有那些终端登录(用 w 命令更详细)
# who
root pts/0 2010-10-28 09:36 (192
- 仿QQ聊天第二版
肆无忌惮_
qq
在第一版之上的改进内容:
第一版链接:
http://479001499.iteye.com/admin/blogs/2100893
用map存起来号码对应的聊天窗口对象,解决私聊的时候所有消息发到一个窗口的问题.
增加ViewInfo类,这个是信息预览的窗口,如果是自己的信息,则可以进行编辑.
信息修改后上传至服务器再告诉所有用户,自己的窗口
- java读取配置文件
知了ing
1,java读取.properties配置文件
InputStream in;
try {
in = test.class.getClassLoader().getResourceAsStream("config/ipnetOracle.properties");//配置文件的路径
Properties p = new Properties()
- __attribute__ 你知多少?
矮蛋蛋
C++gcc
原文地址:
http://www.cnblogs.com/astwish/p/3460618.html
GNU C 的一大特色就是__attribute__ 机制。__attribute__ 可以设置函数属性(Function Attribute )、变量属性(Variable Attribute )和类型属性(Type Attribute )。
__attribute__ 书写特征是:
- jsoup使用笔记
alleni123
java爬虫JSoup
<dependency>
<groupId>org.jsoup</groupId>
<artifactId>jsoup</artifactId>
<version>1.7.3</version>
</dependency>
2014/08/28
今天遇到这种形式,
- JAVA中的集合 Collectio 和Map的简单使用及方法
百合不是茶
listmapset
List ,set ,map的使用方法和区别
java容器类类库的用途是保存对象,并将其分为两个概念:
Collection集合:一个独立的序列,这些序列都服从一条或多条规则;List必须按顺序保存元素 ,set不能重复元素;Queue按照排队规则来确定对象产生的顺序(通常与他们被插入的
- 杀LINUX的JOB进程
bijian1013
linuxunix
今天发现数据库一个JOB一直在执行,都执行了好几个小时还在执行,所以想办法给删除掉
系统环境:
ORACLE 10G
Linux操作系统
操作步骤如下:
第一步.查询出来那个job在运行,找个对应的SID字段
select * from dba_jobs_running--找到job对应的sid
&n
- Spring AOP详解
bijian1013
javaspringAOP
最近项目中遇到了以下几点需求,仔细思考之后,觉得采用AOP来解决。一方面是为了以更加灵活的方式来解决问题,另一方面是借此机会深入学习Spring AOP相关的内容。例如,以下需求不用AOP肯定也能解决,至于是否牵强附会,仁者见仁智者见智。
1.对部分函数的调用进行日志记录,用于观察特定问题在运行过程中的函数调用
- [Gson六]Gson类型适配器(TypeAdapter)
bit1129
Adapter
TypeAdapter的使用动机
Gson在序列化和反序列化时,默认情况下,是按照POJO类的字段属性名和JSON串键进行一一映射匹配,然后把JSON串的键对应的值转换成POJO相同字段对应的值,反之亦然,在这个过程中有一个JSON串Key对应的Value和对象之间如何转换(序列化/反序列化)的问题。
以Date为例,在序列化和反序列化时,Gson默认使用java.
- 【spark八十七】给定Driver Program, 如何判断哪些代码在Driver运行,哪些代码在Worker上执行
bit1129
driver
Driver Program是用户编写的提交给Spark集群执行的application,它包含两部分
作为驱动: Driver与Master、Worker协作完成application进程的启动、DAG划分、计算任务封装、计算任务分发到各个计算节点(Worker)、计算资源的分配等。
计算逻辑本身,当计算任务在Worker执行时,执行计算逻辑完成application的计算任务
- nginx 经验总结
ronin47
nginx 总结
深感nginx的强大,只学了皮毛,把学下的记录。
获取Header 信息,一般是以$http_XX(XX是小写)
获取body,通过接口,再展开,根据K取V
获取uri,以$arg_XX
&n
- 轩辕互动-1.求三个整数中第二大的数2.整型数组的平衡点
bylijinnan
数组
import java.util.ArrayList;
import java.util.Arrays;
import java.util.List;
public class ExoWeb {
public static void main(String[] args) {
ExoWeb ew=new ExoWeb();
System.out.pri
- Netty源码学习-Java-NIO-Reactor
bylijinnan
java多线程netty
Netty里面采用了NIO-based Reactor Pattern
了解这个模式对学习Netty非常有帮助
参考以下两篇文章:
http://jeewanthad.blogspot.com/2013/02/reactor-pattern-explained-part-1.html
http://gee.cs.oswego.edu/dl/cpjslides/nio.pdf
- AOP通俗理解
cngolon
springAOP
1.我所知道的aop 初看aop,上来就是一大堆术语,而且还有个拉风的名字,面向切面编程,都说是OOP的一种有益补充等等。一下子让你不知所措,心想着:怪不得很多人都和 我说aop多难多难。当我看进去以后,我才发现:它就是一些java基础上的朴实无华的应用,包括ioc,包括许许多多这样的名词,都是万变不离其宗而 已。 2.为什么用aop&nb
- cursor variable 实例
ctrain
variable
create or replace procedure proc_test01
as
type emp_row is record(
empno emp.empno%type,
ename emp.ename%type,
job emp.job%type,
mgr emp.mgr%type,
hiberdate emp.hiredate%type,
sal emp.sal%t
- shell报bash: service: command not found解决方法
daizj
linuxshellservicejps
今天在执行一个脚本时,本来是想在脚本中启动hdfs和hive等程序,可以在执行到service hive-server start等启动服务的命令时会报错,最终解决方法记录一下:
脚本报错如下:
./olap_quick_intall.sh: line 57: service: command not found
./olap_quick_intall.sh: line 59
- 40个迹象表明你还是PHP菜鸟
dcj3sjt126com
设计模式PHP正则表达式oop
你是PHP菜鸟,如果你:1. 不会利用如phpDoc 这样的工具来恰当地注释你的代码2. 对优秀的集成开发环境如Zend Studio 或Eclipse PDT 视而不见3. 从未用过任何形式的版本控制系统,如Subclipse4. 不采用某种编码与命名标准 ,以及通用约定,不能在项目开发周期里贯彻落实5. 不使用统一开发方式6. 不转换(或)也不验证某些输入或SQL查询串(译注:参考PHP相关函
- Android逐帧动画的实现
dcj3sjt126com
android
一、代码实现:
private ImageView iv;
private AnimationDrawable ad;
@Override
protected void onCreate(Bundle savedInstanceState)
{
super.onCreate(savedInstanceState);
setContentView(R.layout
- java远程调用linux的命令或者脚本
eksliang
linuxganymed-ssh2
转载请出自出处:
http://eksliang.iteye.com/blog/2105862
Java通过SSH2协议执行远程Shell脚本(ganymed-ssh2-build210.jar)
使用步骤如下:
1.导包
官网下载:
http://www.ganymed.ethz.ch/ssh2/
ma
- adb端口被占用问题
gqdy365
adb
最近重新安装的电脑,配置了新环境,老是出现:
adb server is out of date. killing...
ADB server didn't ACK
* failed to start daemon *
百度了一下,说是端口被占用,我开个eclipse,然后打开cmd,就提示这个,很烦人。
一个比较彻底的解决办法就是修改
- ASP.NET使用FileUpload上传文件
hvt
.netC#hovertreeasp.netwebform
前台代码:
<asp:FileUpload ID="fuKeleyi" runat="server" />
<asp:Button ID="BtnUp" runat="server" onclick="BtnUp_Click" Text="上 传" />
- 代码之谜(四)- 浮点数(从惊讶到思考)
justjavac
浮点数精度代码之谜IEEE
在『代码之谜』系列的前几篇文章中,很多次出现了浮点数。 浮点数在很多编程语言中被称为简单数据类型,其实,浮点数比起那些复杂数据类型(比如字符串)来说, 一点都不简单。
单单是说明 IEEE浮点数 就可以写一本书了,我将用几篇博文来简单的说说我所理解的浮点数,算是抛砖引玉吧。 一次面试
记得多年前我招聘 Java 程序员时的一次关于浮点数、二分法、编码的面试, 多年以后,他已经称为了一名很出色的
- 数据结构随记_1
lx.asymmetric
数据结构笔记
第一章
1.数据结构包括数据的
逻辑结构、数据的物理/存储结构和数据的逻辑关系这三个方面的内容。 2.数据的存储结构可用四种基本的存储方法表示,它们分别是
顺序存储、链式存储 、索引存储 和 散列存储。 3.数据运算最常用的有五种,分别是
查找/检索、排序、插入、删除、修改。 4.算法主要有以下五个特性:
输入、输出、可行性、确定性和有穷性。 5.算法分析的
- linux的会话和进程组
网络接口
linux
会话: 一个或多个进程组。起于用户登录,终止于用户退出。此期间所有进程都属于这个会话期。会话首进程:调用setsid创建会话的进程1.规定组长进程不能调用setsid,因为调用setsid后,调用进程会成为新的进程组的组长进程.如何保证? 先调用fork,然后终止父进程,此时由于子进程的进程组ID为父进程的进程组ID,而子进程的ID是重新分配的,所以保证子进程不会是进程组长,从而子进程可以调用se
- 二维数组 元素的连续求解
1140566087
二维数组ACM
import java.util.HashMap;
public class Title {
public static void main(String[] args){
f();
}
// 二位数组的应用
//12、二维数组中,哪一行或哪一列的连续存放的0的个数最多,是几个0。注意,是“连续”。
public static void f(){
- 也谈什么时候Java比C++快
windshome
javaC++
刚打开iteye就看到这个标题“Java什么时候比C++快”,觉得很好笑。
你要比,就比同等水平的基础上的相比,笨蛋写得C代码和C++代码,去和高手写的Java代码比效率,有什么意义呢?
我是写密码算法的,深刻知道算法C和C++实现和Java实现之间的效率差,甚至也比对过C代码和汇编代码的效率差,计算机是个死的东西,再怎么优化,Java也就是和C