E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
卷积注意力机制
深度学习 PyTorch 中 18 种数据增强策略与实现
深度学习pytorch之简单方法自定义9类
卷积
即插即用数据增强通过对训练数据进行多种变换,增加数据的多样性,它帮助我们提高模型的鲁棒性,并减少过拟合的风险。
@Mr_LiuYang
·
2025-03-10 16:25
计算机视觉基础
数据增强
深度学习
torchvision
transforms
深度学习在SSVEP信号分类中的应用分析
目录前言1.SSVEP信号分类的处理流程2.模型输入和数据预处理3.模型结构设计3.1
卷积
神经网络(CNN)3.2长短期记忆网络(LSTM)4.训练方法与激活函数5.性能评估与挑战6.未来方向前言随着脑机接口
自由的晚风
·
2025-03-10 12:00
深度学习
分类
人工智能
PSPNet在图像超分辨率中的应用
近年来,随着深度学习的发展,基于
卷积
神经网络(ConvolutionalNeuralNetwork,CNN)的
AI天才研究院
·
2025-03-10 12:55
AI大模型企业级应用开发实战
AI大模型应用入门实战与进阶
DeepSeek
R1
&
大数据AI人工智能大模型
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
Pytorch 第九回:
卷积
神经网络——ResNet模型
Pytorch第九回:
卷积
神经网络——ResNet模型本次开启深度学习第九回,基于Pytorch的ResNet
卷积
神经网络模型。这是分享的第四个
卷积
神经网络模型。
Start_Present
·
2025-03-10 09:05
pytorch
cnn
python
分类
深度学习
每天五分钟深度学习pytorch:基于Pytorch搭建ResNet模型的残差块
残差块我们分析一下这个残差块,x经过两个
卷积
层得到F(x),然后F(x)+x作为残差块的输出,此时就有一个问题,这个问题就是F(x)+x的维度问题,如果图片数据经过两个
卷积
层之后F(x)变小(height
每天五分钟玩转人工智能
·
2025-03-10 08:59
深度学习框架pytorch
深度学习
pytorch
人工智能
ResNet
机器学习
【Transformer优化】Transformer的局限在哪?
一、全局注意力的"诅咒":从**O(n²)**到O(n³)的计算困境自
注意力机制
的数学表达式:Attention(Q,K,V)=softmax(QK⊤dk)V\text{
T-I-M
·
2025-03-10 04:26
transformer
深度学习
人工智能
基于CNN-BIGRU-Attention模型的功率预测(模型详解及代码复现)
整体架构基于CNN-BiGRU-Attention模型的功率预测模型是一种融合了
卷积
神经网络(CNN)、双向门控循环单元(BiGRU)和
注意力机制
(Attention)的深度学习架构。
清风AI
·
2025-03-09 18:59
深度学习算法详解及代码复现
深度学习
人工智能
算法
机器学习
计算机视觉
cnn
神经网络
深入探索Deeplearning4j(DL4J):Java深度学习的全面指南
DL4J支持多种深度学习模型,包括
卷积
神经网络(CNN)、循环神经网络(RNN)、长短期记忆网络(LSTM)等。自2014年首次发布以来,DL4J已经成为Java深度学习领域的
软件职业规划
·
2025-03-09 15:07
java
深度学习
开发语言
2025最新Transformer模型及深度学习前沿技术应用
第一章、注意力(Attention)机制1、
注意力机制
的背景和动机(为什么需要
注意力机制
?
注意力机制
的起源和发展里程碑)。2、
注意力机制
的基本原理(什么是
注意力机制
?
weixin_贾
·
2025-03-09 06:35
Python
MATLAB
python
深度学习
MATLAB编程
深度学习模型
图神经网络
自编码
物理信息神经网络
目标检测
大语言模型
PyTorch深度学习框架60天进阶学习计划第14天:循环神经网络进阶
今天,我们将深入探讨循环神经网络的进阶内容,包括BiLSTM的工作机制、
注意力机制
的数学原理,以及Transformer编码层的实现。
凡人的AI工具箱
·
2025-03-09 00:03
深度学习
pytorch
学习
人工智能
python
AI编程
YOLOv12改进策略【
注意力机制
篇】| 引入MobileNetv4中的Mobile MQA,轻量化注意力模块 提高模型效率(二次改进A2C2f)
一、本文介绍本文记录的是基于MobileMQA模块的YOLOv12目标检测改进方法研究。MobileNetv4中的MobileMQA模块是用于模型加速,减少内存访问的模块,相比其他全局的自注意力,其不仅加强了模型对全局信息的关注,同时也显著提高了模型效率。文章目录一、本文介绍二、MobileMQA注意力原理三、MobileMQA的实现代码四、创新模块4.1改进点⭐五、添加步骤5.1修改一5.2修改
Limiiiing
·
2025-03-08 15:21
YOLOv12改进专栏
YOLOv12
计算机视觉
深度学习
目标检测
ResNet 改进:轻量级的混合本地信道注意机制MLCA
目录1.MLCA
注意力机制
2.改进位置3.完整代码Tips:融入模块后的网络经过测试,可以直接使用,设置好输入和输出的图片维度即可1.MLCA
注意力机制
MLCA(MixedLocalChannelAttention
听风吹等浪起
·
2025-03-08 06:29
AI
改进系列
深度学习
opencv
计算机视觉
python前闭后开_opencv 形态学变换(开运算,闭运算,梯度运算)
译文形态学使用python+opencv讲解开运算开运算:对图像先进行腐蚀,然后对腐蚀后的图进行膨胀morphologyEx运算结果=cv2.morphologyEx(源图像img,cv2.MORPH_OPEN,
卷积
核
weixin_39814126
·
2025-03-08 05:09
python前闭后开
新型模型架构(参数化状态空间模型、状态空间模型变种)
然而,Transformer的自
注意力机制
在计算每个词元时都需要利用到序列中所有词元的信息,这导致计算和存储复杂度随输入序列长度的平方级别增长。
三月七꧁ ꧂
·
2025-03-08 00:28
LLM
语言模型
gpt
文心一言
prompt
embedding
AIGC
agi
如何通过
卷积
神经网络(CNN)有效地提取图像的局部特征,并在CIFAR-10数据集上实现高精度的分类?
目录1.CNN提取图像局部特征的原理2.在CIFAR-10数据集上实现高精度分类的步骤2.1数据准备2.2构建CNN模型2.3定义损失函数和优化器2.4训练模型2.5测试模型3.提高分类精度的技巧
卷积
神经网络
浪九天
·
2025-03-07 19:27
人工智能理论
python
后端
深度学习
神经网络
人工智能
机器学习
pytorch
YOLOv12改进之A2(区域注意力)
注意力回顾
注意力机制
作为深度学习领域的核心技术,已广泛应用于自然语言处理和计算机视觉等多个领域。在YOLOv12改进之A2中,
注意力机制
扮演着关键角色。
清风AI
·
2025-03-07 00:39
深度学习算法详解及代码复现
深度学习
机器学习
计算机视觉
人工智能
算法
YOLOv5的Conv是什么,Conv就是
卷积
吗(1)
不论是看YOLOv5还是最新的YOLOv12的网络结构,里面都有一个看起来雷打不动的部分,ConvConvolutionConvolution是
卷积
的意思,我们看一张图来简单理解一下神经网络里面的
卷积
的过程是什么样的
hjs314159
·
2025-03-06 20:33
YOLO
深度学习
人工智能
【故障诊断】三角测量拓扑聚合器优化双向时间
卷积
神经网络TTAO-BiTCN轴承数据故障诊断【含Matlab源码 5101期】
Matlab武动乾坤博客之家
Matlab武动乾坤
·
2025-03-06 20:58
matlab
基于Python深度学习的【害虫识别】系统~
卷积
神经网络+TensorFlow+图像识别+人工智能
一、介绍害虫识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建
卷积
神经网络算法,并收集了12种常见的害虫种类数据集【"蚂蚁(ants)","蜜蜂(bees)","甲虫(beetle
·
2025-03-06 18:38
图像识别人工智能深度学习
大模型入门
Transformer架构的持续演进体现在位置编码改进(如RoPE旋转位置编码)、
注意力机制
优化(FlashAttention算法提升30%训练速度)以及层级结构创新(深度
24k小善
·
2025-03-06 17:05
AI编程
AI写作
prompt
成为LLM大师的必读书籍:这几本大模型书籍,详细到让你一篇文章就收藏足够
书中详细讲解了神经网络、
卷积
神经网络、循环神经网
AGI大模型老王
·
2025-03-06 13:58
产品经理
大模型教程
学习
大模型
人工智能
LLM
大模型书籍
TensorFlow.js - 使用 CNN(
卷积
神经网络) 识别手写数字
目录index.htmldata.jsscript.js备注参考文献index.htmlTensorFlow.jsTutorialdata.js/***@license*Copyright2018GoogleLLC.AllRightsReserved.*LicensedundertheApacheLicense,Version2.0(the"License");*youmaynotusethisf
宁静_致远_
·
2025-03-06 13:53
前端开发
javascript
tensorflow
cnn
卷积
神经网络应用-训练手写体数字数据集并展示识别精度
#
卷积
神经网络(CNN)训练手写体数据集importnumpyasnpimportmatplotlib.pyplotaspltimporttensorflow.kerasaskaimportdatetime
yeahamen
·
2025-03-06 12:17
深度学习
python
机器学习
卷积神经网络
手写体数字识别
深度学习实战:用TensorFlow构建高效CNN的完整指南
在自动驾驶汽车识别路标的0.1秒里,在医疗AI诊断肺部CT片的精准分析中,甚至在手机相册自动分类宠物的日常场景里,
卷积
神经网络(CNN)正悄然改变着我们的世界。
芯作者
·
2025-03-06 11:13
DD:日记
深度学习
TensorFlow\Keras实战100例——BP\CNN神经网络~MINST手写数字识别
卷积
神经网络(Convolu
AI街潜水的八角
·
2025-03-06 08:45
tensorflow
人工智能
python
详解DeepSeek模型底层原理及和ChatGPT区别点
它的核心是自
注意力机制
(Self-Attention),这个机制允许模型在处理输入序列时,关注序列中不同位置的信息。例如,在处理句子“Thecatchasedthemouse”时,自
注意力机制
瞬间动力
·
2025-03-06 01:16
语言模型
机器学习
AI编程
云计算
阿里云
从专利数据中提取IPC代码,构建共现矩阵(IPC共同出现在同一专利为1,否则为0),利用GCN提取特征,并进行链路预测以评估IPC之间的相似度概率
图
卷积
网络(GCN):使用GCN提取特征。链路预测:评估IPC之间的相似度概率。
pk_xz123456
·
2025-03-05 23:59
算法
深度学习
矩阵
线性代数
沃丰科技AI浅谈|语音交互的三驾马车:ASR、NLP、TTS
基于深度神经学算法和
卷积
神经网络算法的AI外呼机器人,它是融合自
沃丰科技
·
2025-03-05 20:08
人工智能
科技
自然语言处理
《YOLOv12魔术师专栏》专栏介绍 & 专栏目录
《YOLOv12魔术师专栏》将从以下各个方向进行创新(更新日期25.03.05):【原创自研模块】【多组合点优化】【
注意力机制
】【主干篇】【neck优化】【
卷积
魔改】【block&多尺度融合结合】【损失
AI小怪兽
·
2025-03-05 15:24
YOLOv8
11
v12成长师
YOLO
深度学习
人工智能
目标检测
计算机视觉
图像处理中
注意力机制
的解析与代码详解
1.
注意力机制
的原理
注意力机制
(AttentionMechanism)是一种模拟人类视觉系统的机制,它使模型能够聚焦于图像的关键部分,从而提升图像处理任务的性能。
业余小程序猿
·
2025-03-05 10:08
笔记
QKV
注意力机制
在Transformer架构中的作用,和
卷积
在
卷积
神经网络中的地位,有哪些相似之处?
QKV
注意力机制
在Transformer架构中的作用,和
卷积
在
卷积
神经网络中的地位,有哪些相似之处?
安意诚Matrix
·
2025-03-05 08:56
机器学习笔记
transformer
cnn
深度学习
深入理解 Transformer:用途、原理和示例
深入理解Transformer:用途、原理和示例一、Transformer是什么Transformer是一种基于
注意力机制
(AttentionMechanism)的深度学习架构,在2017年的论文“AttentionIsAllYouNeed
范吉民(DY Young)
·
2025-03-05 01:55
简单AI学习
transformer
深度学习
人工智能
DeepSeek到TinyLSTM的知识蒸馏
一、架构设计与适配模型结构对比:DeepSeek(教师模型):基于Transformer,多头自
注意力机制
,层数≥12,隐藏层维度≥768TinyLSTM(学生模型):单层双向LSTM,隐藏单元128,
猴的哥儿
·
2025-03-04 21:29
笔记
python
机器学习
深度学习
神经网络
AI编程
Deepseek的底层架构思维构成
专业解释一、核心架构组件:
注意力机制
与专家模型的革新1.多头潜在
注意力机制
(MLA)功能与作用:MLA是DeepSeek对传统Transformer
注意力机制
的创新改进。
堕落年代
·
2025-03-04 19:09
AI
架构
人工智能
计算机视觉|ConvNeXt:CNN 的复兴,Transformer 的新对手
一、引言在计算机视觉领域,
卷积
神经网络(ConvolutionalNeuralNetworks,简称CNN)长期以来一直是核心技术,自诞生以来,它在图像分类、目标检测、语义分割等诸多任务中都取得了令人瞩目的成果
紫雾凌寒
·
2025-03-04 16:20
AI
炼金厂
#
计算机视觉
#
深度学习
机器学习
计算机视觉
人工智能
transformer
ConvNeXt
动态网络
神经网络
DynamicSparse-MobileNet (DSMNet) 用于低功耗图像分类
DynamicSparse-MobileNet(DSMNet)用于低功耗图像分类一、模型背景与动机二、模型创新点详细解析1.动态稀疏计算路径2.自适应通道缩放3.熵感知知识蒸馏三、数据集与预处理四、网络结构详解1.输入层与熵估计模块2.动态稀疏
卷积
块
闲人编程
·
2025-03-04 01:29
人工智能实战教程—论文创新点
分类
人工智能
数据挖掘
DSMNet
动态稀疏
熵感知
自适应
创新引领的人工智能模型系列:MiniMax-01 系列震撼登场
MiniMax-01MiniMax-01MiniMax-01系列模型首次大规模实现线性
注意力机制
,传统Transformer架构不再是唯一的选择。这个模型的参数量高达4560亿,其中单次激活459亿。
·
2025-03-03 17:52
卷积
神经网络(Convolutional Neural Network,CNN)详细解释(带示例)
目录
卷积
神经网络示例Python案例代码解释
卷积
神经网络概述:
卷积
神经网络是一种专门为处理具有网格结构数据(如图像、音频)而设计的深度学习模型。
浪九天
·
2025-03-02 21:19
人工智能理论
人工智能
神经网络
深度学习
机器学习
matlab连接散射点,使用小波散射做信号分类
并且我们演示了如何用时频变换,和基于
卷积
神经网络的迁移学习来做心电图信号的分类。
死月絲卡蕾特
·
2025-03-02 18:21
matlab连接散射点
注意力机制
:让机器学会“挑重点”
注意力机制
:让机器学会“挑重点”前言在日常生活中,我们总是无意识地选择性地关注某些信息,而忽略其他部分。比如,听音乐时,我们可能会更关注旋律或歌词;阅读文章时,我们会优先留意标题和核心观点。
·
2025-03-02 17:54
人工智能计算机视觉
深度学习五大模型:CNN、Transformer、BERT、RNN、GAN解析
一、
卷积
神经网络(ConvolutionalNeuralNetwork,CNN)原理:CNN主要由
卷积
层、池化层和全连接层组成。
大模型_学习路线
·
2025-03-02 16:04
深度学习
cnn
transformer
人工智能
AI大模型
大模型
LLM
Llama 2架构深度解析:Meta开源的70B参数大模型设计哲学
一、架构设计理念Llama2作为Meta开源的商用级大语言模型,其架构设计体现了三大核心原则:效率优先:在7B/13B/70B参数规模下保持线性计算复杂度扩展性强化:通过改进
注意力机制
支持4k上下文长度安全性内嵌
AI时代已来!
·
2025-03-02 14:46
llama
架构
Transformer 代码剖析9 - 解码器模块Decoder (pytorch实现)
其独特的三级
注意力机制
架构使其在机器翻译、文本生成等任务中表现出色。
lczdyx
·
2025-03-02 13:05
Transformer代码剖析
transformer
pytorch
深度学习
人工智能
python
pytorch与深度学习随记——AlexNet
AlexNet和LeNet的设计理念非常相似,但也存在显著差异:基本结构对比网络深度:AlexNet比LeNet-5要深得多,AlexNet由八层组成:五个
卷积
层、两个全连接隐藏层和一个全连接输出层。
黑色的山岗在沉睡
·
2025-03-02 08:46
深度学习随记
深度学习
pytorch
人工智能
卷积
这个词在
卷积
神经网络中应该怎么理解
卷积
的定义数学概念:在数学上,
卷积
是一种操作,通常用于两个函数之间的运算。对于图像处理而言,这些函数通常是输入图像和一个称为“
卷积
核”或“滤波器”的小矩阵。
abments
·
2025-03-02 06:05
人工智能
cnn
深度学习
计算机视觉
卷积
核在初始阶段的数据是怎么获取的
卷积
核的初始化随机初始化:在大多数情况下,
卷积
核(滤波器)的权重在模型训练开始时是随机初始化的。常用的随机初始化方法包括以下几种:均匀分布初始化:权重从一个均匀分布中抽取值。
abments
·
2025-03-02 06:05
人工智能
深度学习
人工智能
如何用 DeepSeek 进行
卷积
神经网络(CNN)的优化
如何用DeepSeek进行
卷积
神经网络(CNN)的优化
卷积
神经网络(CNN)在计算机视觉任务中取得了巨大的成功,例如图像分类、目标检测和图像生成。
一碗黄焖鸡三碗米饭
·
2025-03-01 20:57
人工智能前沿与实践
cnn
人工智能
神经网络
机器学习
深度学习
图像识别-pytorch
Pytorch神经网络工具箱神经网络核心组件神经网络的基本组件层:包括
卷积
层、池化层、全连接层等。层是神经网络的基本结构,输入张量通过层后变为输出张量。
星辰瑞云
·
2025-03-01 17:08
机器学习
cnn
pytorch
基于 Pytorch 的全
卷积
网络人脸表情识别:从数据到部署的实战之旅
前言:本文将详细介绍基于Pytorch框架,利用全
卷积
网络进行人脸表情识别的完整过程,涵盖从数据集的准备、模型的设计与训练,再到模型的部署与预测,通过代码实现以及详细讲解,帮助读者深入理解并掌握这一技术
那年一路北
·
2025-03-01 14:16
Pytorch理论+实践
pytorch
网络
人工智能
YOLOv5 + SE
注意力机制
:提升目标检测性能的实践
然而,随着应用场景的复杂化,传统的
卷积
神经网络在处理复杂背景和多尺度目标时可能会遇到性能瓶颈。为此,引入
注意力机制
成为了一种有效的改进方法。
那年一路北
·
2025-03-01 13:09
Yolo
YOLO
目标跟踪
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他