E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
人工智能深度学习注意力神经网络
Vision Transformer (ViT) 详细描述及 PyTorch 代码全解析
它摒弃了传统卷积
神经网络
(CNN)的卷积操作,而是将图像分割成patches,并将这些patches视为序列输入到Transformer编码器中。
AIGC_ZY
·
2025-03-17 02:23
CV
transformer
pytorch
深度学习
YOLOv5+UI界面在车辆检测中的应用与实现
近年来,深度学习技术的突破,特别是卷积
神经网络
(CNN)的崛起,使得目标检测技术取得了显著进展。
深度学习&目标检测实战项目
·
2025-03-16 23:03
YOLOv5实战项目
YOLO
ui
分类
数据挖掘
目标跟踪
人工智能
【人工智能基础2】机器学习、深度学习总结
文章目录一、人工智能关键技术二、机器学习基础1.监督、无监督、半监督学习2.损失函数:四种损失函数3.泛化与交叉验证4.过拟合与欠拟合5.正则化6.支持向量机三、深度学习基础1、概念与原理2、学习方式3、多层
神经网络
训练方法一
roman_日积跬步-终至千里
·
2025-03-16 23:02
人工智能习题
人工智能
机器学习
深度学习
YOLO11改进-模块-引入多尺度差异融合模块MDFM
近年来,卷积
神经网络
(CNN)在具有挑战性的RSCD任务中展现出了良好的效果。然而,这些方法未能有效地融合双时相特征,也未提取出对后续RSCD任务有益的有用信息。
一勺汤
·
2025-03-16 19:05
YOLOv11模型改进系列
深度学习
人工智能
YOLO
YOLOv11
目标检测
模块
改进
DG-Manba模型详解及代码复现
这种机制允许模型根据输入数据的特征动态调整其行为,类似于递归
神经网络
(RNN)中的门控机制,但在状态空间模型(SSM)的框架下提供了更广泛的应用可能性。通过这种方式,DG-Ma
清风AI
·
2025-03-16 19:03
深度学习
计算机视觉
pytorch
人工智能
神经网络
YOLO优化之扫描融合模块(SimVSS Block)
传统的卷积
神经网络
(CNN)虽然在目标检测领域取得了显著进展,但仍存在局限性,如局部关注性导致难以有效检测不同尺度的目标。
清风AI
·
2025-03-16 19:00
人工智能
计算机视觉
YOLO
目标检测
深度学习
目标跟踪
即插即用模块--KANLinear
KAN网络KAN网络即Kolmogorov-Arnold网络,是一类基于Kolmogorov-Arnold表示定理的
神经网络
架构,具有强大的非线性表达能力。
苏格拉没有鞋底
·
2025-03-16 17:51
模型训练
深度学习
人工智能
python
【杨乐昆何凯明AI论文】没有归一化的Transformer模型
摘要:归一化层在现代
神经网络
中无处不在,长期以来一直被视为不可或缺的组成部分。本研究表明,通过使用一种极其简单的技术,没有归一化的Transformer模型可以达到相同或更好的性能。
东临碣石82
·
2025-03-16 11:02
人工智能
transformer
深度学习
深入探究YOLO系列的骨干网路
其通过将整个图像作为输入,并且直接在图像上通过一个单独的
神经网络
输出每个检测框的类别预测和边界框信息。为了更好地理解YOLO系列,我们需要先了解它所使用的骨干网路。
编码实践
·
2025-03-16 10:59
YOLO
深度学习
计算机视觉
《Python深度学习》第四讲:计算机视觉中的深度学习
其实,这一切都离不开深度学习中的卷积
神经网络
(CNN)。今天,我们就来深入了解一下CNN是如何工作的。5.1卷积
神经网络
简介先来看下卷积
神经网络
(CNN)是什么。
earthzhang2021
·
2025-03-16 10:56
2025讲书课专栏
python
深度学习
计算机视觉
1024程序员节
numpy
算法
人工智能
第5课 树莓派的Python IDE—Thonny
初始的用户界面会删除可能分散初学者
注意力
的所有功能。查看变量方便。当写完代码后,可
嵌入式老牛
·
2025-03-16 09:21
树莓派之基本应用
树莓派
Thonny
IDE
【手撕算法系列】多头自
注意力
机制MHSA
importtorch.nnasnnclassAttention(nn.Module):def__init__(self,dim,num_heads=8,qkv_bias=False,qk_scale=None,attn_drop=0.,proj_drop=0.,num_classes=20):super().__init__()self.num_classes=num_classesself.n
Nastu_Ho-小何同学
·
2025-03-16 07:10
python
深度学习
机器学习
FastDVDnet:基于深度学习的视频去噪框架
它利用了时间域的连续性和深层
神经网络
的力量,确保在
陆可鹃Joey
·
2025-03-16 07:38
手撕multi-head self attention 代码
在深度学习和自然语言处理领域,多头自
注意力
(Multi-HeadSelf-Attention)机制是Transformer模型中的核心组件之一。
心若成风、
·
2025-03-16 07:07
自然语言处理
语言模型
transformer
算法手撕面经系列(1)--手撕多头
注意力
机制
多头
注意力
机制 一个简单的多头
注意力
模块可以分解为以下几个步骤:先不分多头,对输入张量分别做变换,得到Q,K,VQ,K,VQ,K,V对得到的Q,K,VQ,K,VQ,K,V按头的个数进行split;用Q,
夜半罟霖
·
2025-03-16 07:37
算法
python
深度学习
深度学习 Deep Learning 第2章 线性代数
张量操作是
神经网络
计算的基石,矩阵乘法是前向传播的核心,范数约束模型复杂度,而生成空间理论揭示模型表达能力的本质。本章介绍线性代数的基本内容,为进一步学习深度学习做准备。
odoo中国
·
2025-03-16 07:07
AI编程
人工智能
深度学习
线性代数
人工智能
【AI】Transformer布道:让AI学会“左顾右盼”的超级大脑!(扫盲帖)
你可以想象我们是从“什么是
注意力
”开始,一步步搭积木,直到把整个Transformer这台“机器”组装起来,然后再看看它能干什么、怎么训练、为什么厉害。
碣石潇湘无限路
·
2025-03-16 03:37
人工智能
transformer
深度学习
【数字IC验证】博客内容全览
“凡是能用钱买来的时间就是便宜的;凡是能用时间换来的
注意力
持续就是有价值的。”(附上超链接
MoorePlus
·
2025-03-16 02:32
数字IC验证百宝箱
经验分享
面试
数字IC
芯片验证
SV
NPU的工作原理:
神经网络
计算的流水线
NPU的工作原理可以概括为以下几个步骤:1.模型加载·将训练好的
神经网络
模型加载到NPU的内存中。2.数据输入·输入数据(如图像、语音)通过接口传输到NPU。
绿算技术
·
2025-03-16 02:28
NPU架构介绍
神经网络
人工智能
深度学习
仅仅使用pytorch来手撕transformer架构(3):编码器模块和编码器类的实现和向前传播
:仅仅使用pytorch来手撕transformer架构(1):位置编码的类的实现和向前传播最适合小白入门的Transformer介绍仅仅使用pytorch来手撕transformer架构(2):多头
注意力
KangkangLoveNLP
·
2025-03-16 01:53
手撕系列
#transformer
pytorch
transformer
人工智能
深度学习
架构
机器学习
python
Transformer动画讲解 - 工作原理
Transformer工作原理四部曲:Embedding(向量化)、Attention(
注意力
机制)、MLPs(多层感知机)和Unembedding(模型输出)。
ghx3110
·
2025-03-15 19:16
transformer
深度学习
人工智能
模型的秘密武器:利用
注意力
改善长上下文推理能力
【导语】在大语言模型(LLM)不断刷新各项任务记录的今天,很多模型宣称能处理超长上下文内容,但在实际推理过程中,复杂问题往往因隐性事实的遗漏而败下阵来。今天,我们就以《AttentionRevealsMoreThanTokens:Training-FreeLong-ContextReasoningwithAttention-guidedRetrieval》为蓝本,带大家通俗解读如何利用Transf
步子哥
·
2025-03-15 16:51
人工智能
自然语言处理
深度学习
语言模型
OpenAI 团队组织架构和研发技术栈
他在
神经网络
和深度学习方面的研究具有重要影响,曾与
AI天才研究院
·
2025-03-15 16:50
ChatGPT
人工智能
CIR-DFENet:结合跨模态图像表示和双流特征增强网络进行活动识别
想做这件事情很久了,这次我更新了自己所写过的所有博客,汇集成了Python从0到100,共一百节课,帮助大家一个月时间里从零基础到学习Python基础语法、Python爬虫、Web开发、计算机视觉、机器学习、
神经网络
以及人工智能相关知识
是Dream呀
·
2025-03-15 15:42
神经网络
计算机视觉
人工智能
神经网络
深度学习
3 招学会 UI 色彩搭配,让你的设计亮眼出众
一个优秀的UI色彩搭配方案,不仅能够吸引用户的
注意力
,提升产品的视觉吸引力,还能引导用户行为,增强用户对产品的认知与情感共鸣。接下来,我们将详细介绍3招学会UI色彩搭配的技巧,助你让设计亮眼出众。
大千UI工场
·
2025-03-15 14:00
ui
工控界面
前端
UI设计
百度快速收录2025最新科普
东盟电子报关’长尾词覆盖量暴涨4.2倍✅日均有效询盘突破300+技术三板斧:标题智能提取引擎(支持38种语义变异)动态阻抗参数混淆(误差≤0.15μΩ)实时工商特征同步(每2小时更新)2025生存指南:采用
神经网络
语义映射
SEORoal
·
2025-03-15 13:53
百度
从静态PPT到智能演讲——人工智能在演示文稿中的应用
1.概述在这个信息过载的时代,能够吸引并持续吸引观众的
注意力
无疑成为了一项艰巨的任务。公众演讲领域正经历着一场由人工智能(AI)引领的革命。
知来者逆
·
2025-03-15 12:19
智能算法
人工智能
powerpoint
LLM
大语言模型
GPT
PPT
cv君独家视角 | AI内幕系列七:EfficientViT模型:基于多尺度线性
注意力
模块,实现高效的高分辨率密集预测
专题概况cv君独家视角|AI内幕系列是一个专注于人工智能领域的深度专题,旨在为读者揭开AI所有领域技术的神秘面纱,展示其背后的科学原理和实际应用。通过一系列精心策划的文章,我们将带您深入了解AI的各个领域,从计算机视觉到文本语音等多模态领域,从基础理论到前沿技术,从行业应用到未来趋势。无论您是AI领域的工程师或者专家,还是对这一领域充满好奇的读者,这个系列都将为您提供高价值的见解和启发,为您带来横
cv君
·
2025-03-15 09:19
cv君独家视角
AI内幕系列
原创项目级实战项目
深度学习与计算机视觉精品
1024程序员节
EfficientViT
高分辨率密集预测任务
高分辨率视觉模型
Transformer
人工智能
计算机视觉
UNet 改进:添加Transformer
注意力
机制增强捕捉长距离依赖关系的能力
目录1.Transformer
注意力
机制2.Unet改进3.代码1.Transformer
注意力
机制TransformerBlock是Transformer模型架构的基本组件,广泛应用于机器翻译、文本摘要和情感分析等自然语言处理任务
听风吹等浪起
·
2025-03-15 08:41
AI
改进系列
transformer
深度学习
人工智能
CCF CSP 第30次(2023.05)(2_矩阵运算_C++)(暴力破解)(矩阵相乘)
:样例解释:子任务:提示:解题思路:思路一(暴力破解):代码实现代码实现:部分代码解读时间限制:5.0s空间限制:512.0MB题目背景:Softmax(Q×KT/√d)×V是Transformer中
注意力
模块的核心算式
Dream it possible!
·
2025-03-15 05:41
CCF
CSP认证
矩阵
c++
算法
神经网络
完成训练的详细过程
神经网络
完成训练的详细过程一、
神经网络
的基本概念
神经网络
是一种模拟人脑神经系统的计算模型,由大量的神经元(节点)和它们之间的连接(权重)组成。
每天五分钟玩转人工智能
·
2025-03-15 04:34
神经网络
人工智能
深度学习
pytorch
机器学习
优化算法包括梯度下降法
事件驱动架构模型_模型驱动架构简介
最近几个月,许多组织已开始将
注意力
集中在模型驱动的体系结构(MDA)1上,作为应用程序设计和实现的一种方法。由于几个原因,这是一个非常积极的发展。
cusi77914
·
2025-03-15 04:30
大数据
编程语言
python
机器学习
人工智能
数据挖掘技术介绍
方法:决策树、支持向量机、
神经网络
、逻辑回归、
柒柒钏
·
2025-03-14 23:25
数据挖掘
数据挖掘
人工智能
PINN物理信息网络 | 基于物理信息
神经网络
PINN求解Burger方程
基于物理信息
神经网络
(PINN)求解Burger方程的研究背景源于对非线性偏微分方程(PDE)求解方法的不断探索和改进。
算法如诗
·
2025-03-14 23:23
物理信息网络(PINN)
神经网络
人工智能
深度学习
物理信息网络
PINN物理信息网络 | 利用物理信息
神经网络
进行流体动力学建模
背景物理信息
神经网络
(Physics-InformedNeuralNetworks,PINN)是一种结合了
神经网络
和物理方程的方法,用于建模和求解物理问题。
算法如诗
·
2025-03-14 23:23
物理信息网络(PINN)
神经网络
机器学习
人工智能
流体动力学建模
PINN物理信息网络
图
神经网络
学习笔记—高级小批量处理(专题十四)
小批量(mini-batch)的创建对于让深度学习模型的训练扩展到海量数据至关重要。与逐条处理样本不同,小批量将一组样本组合成一个统一的表示形式,从而可以高效地并行处理。在图像或语言领域,这一过程通常通过将每个样本缩放或填充为相同大小的形状来实现,然后将样本在一个额外的维度中分组。该维度的长度等于小批量中分组的样本数量,通常称为batch_size。由于图是能够容纳任意数量节点或边的最通用的数据结
AI专题精讲
·
2025-03-14 23:52
图神经网络入门到精通
人工智能
Deepseek:物理
神经网络
PINN入门教程
一、物理信息网络(PINN)的概念与原理1.定义与来源物理信息网络(Physics-InformedNeuralNetworks,PINN)是一种将物理定律(如偏微分方程、守恒定律等)嵌入
神经网络
训练过程的深度学习方法
天一生水water
·
2025-03-14 23:50
神经网络
人工智能
深度学习
生成对抗网络优化医疗影像分析方法
值得注意的是,算法优化过程中采用的三阶段特征工程策略——包括基于
注意力
机制的特征选择、多尺度特征融合以及可解释性特征映射——使模型决策透明度提升约37.6%。临床实践表明,将联邦学习
智能计算研究中心
·
2025-03-14 22:43
其他
深度学习项目--基于DenseNet网络的“乳腺癌图像识别”,准确率90%+,pytorch复现
本文为365天深度学习训练营中的学习记录博客原作者:K同学啊前言如果说最经典的
神经网络
,ResNet肯定是一个,从ResNet发布后,很多人做了修改,denseNet网络无疑是最成功的一个,它采用密集型连接
羊小猪~~
·
2025-03-14 22:08
深度学习
网络
pytorch
人工智能
python
机器学习
分类
2024年最佳Todo清单APP:从效率到协作全覆盖
在多任务处理时,大脑需要频繁切换
注意力
,每次切换都会消耗时间和精力,这种现象被称为“切换成本”(SwitchingCost)。
·
2025-03-14 22:36
任务管理工具todolist
从零到一:Transformer模型的原理与实战之旅
1.2自
注意力
机制的核心1.3Transformer的结构2.实战:构建Transformer模型2.1任务目标2.2环境准备2.3数据准备2.4模型构建2.5模型训练3.推理实战:完整示例与输出结果3.1
樽酒ﻬق
·
2025-03-14 21:06
AI
transformer
深度学习
人工智能
人工智能概念
机器学习、深度学习、大模型机器学习提供框架,使得系统可以从数据中学习算法:线性回归、逻辑回归、支持向量机、决策树、随机森林、K近邻算法深度学习是实现这一目标的工具,模仿人脑,使用多层
神经网络
进行学习算法
zhangpeng455547940
·
2025-03-14 19:13
计算机
人工智能
神经网络
中常用语言特性(python)(待完善)
1.元类在Python中,abc模块(AbstractBaseClasses,抽象基类)提供了创建抽象基类的机制,这些抽象基类可以用来定义接口,强制子类实现特定的方法,有助于实现多态性和代码的可维护性。下面从多个方面详细介绍abc元类相关内容。ABCMeta是abc模块中的元类,ABC类实际上就是使用ABCMeta作为元类创建的。你也可以直接使用ABCMeta来创建抽象基类。classShape(
邪恶的贝利亚
·
2025-03-14 17:31
python
开发语言
DeepSeek 面试题精选
创新点:使用多头潜在
注意力
(MLA)技术,通过低秩压缩降低KV缓存需求
CarlowZJ
·
2025-03-14 14:00
DeepSeek
卷积
神经网络
可视化
卷积
神经网络
(CNN)的可视化是理解模型行为、调试性能和解释预测结果的重要工具。
天行者@
·
2025-03-14 13:25
cnn
人工智能
神经网络
【大模型学习】第十五章 Transformer技术 看这一篇就足够了
目录一、引言二、Transformer起源背景1.从"健忘症"到"过目不忘"的进化之路三、一个简单的例子让你理解什么是Transformer四、技术要点与底层原理1.自
注意力
机制(Self-Attention
好多渔鱼好多
·
2025-03-14 12:46
AI大模型
transformer
深度学习
AI
人工智能
大模型
AI的发展历程,你知道是从什么时候开始的吗?
基础理论奠基:1943年,美国神经生理学家沃伦·麦卡洛克和数学家沃尔特·皮茨发表了《Alogicalcalculusofideasimmanentinnervousactivity》论文,提出M-P模型,为
神经网络
的研究奠定了基础
A达峰绮
·
2025-03-14 12:15
人工智能
ai
经验分享
大模型开发教程:从零开始的入门指南!
概述大模型开发教程引领人工智能领域前沿,从基础概念至实战项目,全面覆盖Python与深度学习框架使用,指导初学者构建线性回归、逻辑回归、
神经网络
等模型,深入探索图像分类、情感分析等复杂应用,为探索未来智能世界提供坚实基石
程序员二飞
·
2025-03-14 11:41
人工智能
java
数据库
职场和发展
深度学习
目前人工智能的发展,判断10年、20年后的人工智能发展的主要方向,或者带动的主要产业
中国通过DeepSeek等技术创新(如MLA
注意力
机制、FP8混合精度训练)突破算力瓶颈,实现与美国顶尖模型性能对标,成本降低至558万美元/项目。技术突破:量子
meisongqing
·
2025-03-14 09:23
人工智能
深度学习中常用的优化器
梯度下降是优化
神经网络
的首选方法。
无能者狂怒
·
2025-03-14 04:16
深度学习
计算机视觉
人工智能
深度学习
算法
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他