E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
机器学习深度学习神经网络注意力
深度学习批次数据处理的理解
基础介绍在计算机视觉深度学习网络中,在训练阶段数据输入通常是一个批次,即不是一次输入单张图片,而是一次性输入多张图片,而
神经网络
的结构内部一次只能处理一张图片,这时候很自然就会考虑为什么要这样的输入?
_DCG_
·
2025-02-26 22:28
计算机视觉
深度学习
人工智能
技术硬核:突出FP8、3倍速度、90%成本暴降等技术参数,强化可信度
DeepSeek近期开源项目详细分析1.FlashMLA:大模型推理效率革命技术特点:首个开源项目FlashMLA是针对英伟达Hopper架构GPU(如H800)优化的高效多头潜在
注意力
(MLA)解码内核
guzhoumingyue
·
2025-02-26 20:45
AI
python
AI岗位面试指南:高频文档问题解析与应答策略
应答框架:背景与目标:"项目源于客户需要将文本生成延迟从2秒压缩至800ms以内,同时保证BLEU分数不低于0.82"技术创新点:"采用知识蒸馏+动态量化方案,设计分层
注意力
裁剪策略"量化成果:"推理速度提升
阿三0812
·
2025-02-26 19:07
ai
人工智能
面试
HarmonyOS Next典型布局案例:运营横幅(Banner)
在HarmonyOSNext应用开发中,运营横幅(Banner)是吸引用户
注意力
、展示重要信息的关键元素。而Swiper组件则是实现Banner轮播效果的得力助手。今天,咱
·
2025-02-26 19:02
harmonyos
云原生周刊:云原生和 AI
FlashMLA是专为NVIDIAHopper架构GPU(如H100、H800)优化的高效多头潜在
注意力
(MLA)解码内核,旨在提升大模型推理性能,特别是针对可变长度序列进行了优化。
·
2025-02-26 19:58
云计算
【人工智能数学基础篇】线性代数基础学习:深入解读矩阵及其运算
矩阵不仅在数据科学中广泛应用,更是
神经网络
、图像处理、自然语言处理等领域的重要工具。
猿享天开
·
2025-02-26 14:33
人工智能基础知识学习
线性代数
人工智能
学习
矩阵及其运算
大模型知识蒸馏:技术突破与应用范式重构——从DeepSeek创新看AI基础设施演进路径
最新研究表明,知识传递已从单纯的输出层模仿,发展到
注意力
模式迁移(AttentionTransfer)、隐层特征对齐(H
大模型服务器厂商
·
2025-02-26 13:20
重构
人工智能
训练
神经网络
出现nan
在理解和修改QARV的代码时,出现了训练会因为nan而终止的问题,因此学习记录。参考资料Pytorch训练模型损失Loss为Nan或者无穷大(INF)原因Pytorch训练模型损失Loss为Nan或者无穷大(INF)原因_pytorchnan-CSDN博客文章浏览阅读5.6w次,点赞135次,收藏489次。常见原因-1一般来说,出现NaN有以下几种情况:相信很多人都遇到过训练一个deepmodel
崧小果
·
2025-02-26 11:12
AI学习记录
神经网络
深度学习
机器学习
【TVM教程】为 NVIDIA GPU 自动调度
神经网络
本文介绍如何使用auto-scheduler为NVIDIAGPU调优整个
神经网络
。为自动调优
神经网络
,需要将网络划分为小的子图并独立调优。每个子图被视为
HyperAI超神经
·
2025-02-26 09:57
TVM
神经网络
人工智能
深度学习
TVM
GPU
NVIDIA
语言模型
从零开始玩转TensorFlow:小明的机器学习故事 4
有一天,小明在学校图书馆翻看杂志时,看到这样一句话:“就像人的大脑有上百亿神经元,
神经网络
能够学习复杂的信息映射,从而取得卓越的表现。”他瞬间来了灵感:“或许我
山海青风
·
2025-02-26 07:42
机器学习
tensorflow
人工智能
GAN(Generative Adversarial Network)—生成对抗网络
GAN(GenerativeAdversarialNetwork)代表了深度学习中生成建模的尖端方法,通常利用卷积
神经网络
等架构。
算法资料吧!
·
2025-02-26 06:06
深度学习
机器学习
人工智能
在PyTorch中使用插值法来优化卷积
神经网络
(CNN)所需硬件资源
适用场景:在卷积
神经网络
(CNN)中的应用场景中,经常遇到计算资源有限,比如显存不够或者处理速度慢,需要用插值来降低计算量。
mosquito_lover1
·
2025-02-26 03:45
pytorch
cnn
人工智能
BP算法的python实现 + 男女生分类器
BP算法是
神经网络
中十分经典的算法之一,要把它解释清楚实在需要很多时间,我只想重点讲一下基于BP算法的男女生分类器python实现,理论方面推荐看知乎大
乐宝不是酒
·
2025-02-26 00:21
机器学习
机器学习
神经网络
算法
Pytorch:以CIFAR-10分类为例,给出了
神经网络
的训练流程
下面给出了
神经网络
的训练流程,包括数据加载与预处理、网络定义、损失函数和优化器定义、网络训练和网络测试。
Xiao_Ya__
·
2025-02-25 23:49
深度学习
pytorch
pytorch
分类
神经网络
梯度累加(结合DDP)梯度检查点
梯度累加目的梯度累积是一种训练
神经网络
的技术,主要用于在内存有限的情况下处理较大的批量大小(batchsize)。
糖葫芦君
·
2025-02-25 23:16
LLM
算法
人工智能
大模型
深度学习
Tensorflow2.x框架-
神经网络
八股扩展-acc曲线与loss曲线
loss/loss可视化,可视化出准确率上升、损失函数下降的过程博主微信公众号(左)、Python+智能大数据+AI学习交流群(右):欢迎关注和加群,大家一起学习交流,共同进步!目录摘要一、acc曲线与loss曲线二、完整代码摘要loss/loss可视化,可视化出准确率上升、损失函数下降的过程一、acc曲线与loss曲线history=model.fit(训练集数据,训练集标签,batch_siz
诗雨时
·
2025-02-25 23:15
卷积
神经网络
八股(一)------20行代码搞定鸢尾花分类
卷积
神经网络
八股(一)------20行代码搞定鸢尾花分类引言用TensorflowAPI:tf.keras实现
神经网络
搭建八股Sequential的用法compile的用法fit的用法(batch是每次喂入
神经网络
的样本数
有幸添砖java
·
2025-02-25 22:11
opencv
深度学习笔记——循环
神经网络
RNN
本文详细介绍面试过程中可能遇到的循环
神经网络
RNN知识点。
好评笔记
·
2025-02-25 22:10
补档
深度学习
rnn
人工智能
机器学习
计算机视觉
神经网络
AIGC
第三讲-
神经网络
八股
一、搭建
神经网络
六部法tf.keras搭建
神经网络
六部法1、import相关模块 2、train,test #训练集、测试集3、model=tf.keras.models.Sequential #逐层搭建网络结构
loveysuxin
·
2025-02-25 22:38
Tensorflow
tensorflow
神经网络
八股(3)
1.什么是梯度消失和梯度爆炸梯度消失是指梯度在反向传播的过程中逐渐变小,最终趋近于零,这会导致靠前层的
神经网络
层权重参数更新缓慢,甚至不更新,学习不到有用的特征。
SylviaW08
·
2025-02-25 22:37
神经网络
人工智能
深度学习
机器学习笔记——特征工程
热门专栏机器学习机器学习笔记合集深度学习深度学习笔记合集文章目录热门专栏
机器学习深度学习
特征工程(FzeatureEngineering)1.特征提取(FeatureExtraction)手工特征提取(
好评笔记
·
2025-02-25 22:37
补档
机器学习
笔记
人工智能
AIGC
深度学习
计算机视觉
面试八股
【PyTorch 实战2:UNet 分割模型】10min揭秘 UNet 分割网络如何工作以及pytorch代码实现(详细代码实现)
UNet是一种常用于图像分割的卷积
神经网络
架构,其特点在于其U型结构,包括一个收缩路径
xiaoh_7
·
2025-02-25 22:37
pytorch
网络
图像处理
计算机视觉
【PyTorch项目实战】图像分割 —— U-Net:Semantic segmentation with PyTorch
、环境搭建2.1.1、下载源码2.1.2、下载预训练模型2.1.3、下载训练集2.2、环境配置2.3、代码优化+架构优化2.4、模型预测:predict.pyU-Net是一种用于生物医学图像分割的卷积
神经网络
架构
胖墩会武术
·
2025-02-25 21:04
深度学习
PyTorch项目实战
python
unet
pytorch
【YOLOv11改进[
注意力
]】引入YOLOv12的A2C2f模块改进v11
目录一YOLOv121区域
注意力
(AreaAttention)2R-ELAN(残差高效层聚合网络)3架构优化4实验二魔改YOLOv111整体修改
Jackilina_Stone
·
2025-02-25 19:20
【改进】YOLO系列
YOLO
python
计算机视觉
OD
为AI聊天工具添加一个知识系统 之122 详细设计之63 实体范畴论和神经元元模型:命名法函子
神经元元模型(三层含义)暨三种
神经网络
构造型既神经元三个功能约束即神经细胞元元模型。”注:第一行是实体的范畴论的三种论法。
一水鉴天
·
2025-02-25 16:59
智能制造
软件智能
人工语言
人工智能
月之暗面开源新一代
注意力
机制:处理1000万token能快16倍,已在Kimi上进行验证
❤️如果你也关注AI的发展现状,且对AI应用开发感兴趣,我会每日分享大模型与AI领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!AI在线答疑->智能检索历史文章和开源项目->尽在微信公众号->搜一搜:蚝油菜花「你的LLM还在为长文本「爆内存」?Moonshot突破性方案:千万token推理速度提升16倍!」大家好,我是蚝油菜花。当同行还在为以下问题头疼时——32k上下文跑批处
蚝油菜花
·
2025-02-25 15:53
人工智能
开源
人工智能开源
论文学习3:深度学习增强的光声成像(PAI)的最新进展(综述)
详细说明代表性DL架构:卷积
神经网络
(CNN)、U-形
神经网络
(U-Net)和
superace7911
·
2025-02-25 15:50
基于机器学习的光声图像处理
机器学习
图像处理
即插即用的
注意力
机制21种
提示:谬误之处请指出更正摘要随着深度学习特别是自然语言处理领域的飞速发展,
注意力
机制(AttentionMechanism)已成为提升模型表现的关键技术,本文主要记录了即插即用的
注意力
机制结构的功能、出处及核心代码
@Mr_LiuYang
·
2025-02-25 14:40
论文阅读
AttentionModule
注意力机制
即插即用
GPT-2源码实现及GPT-3、GPT-3.5、GPT-4及GPT-5内幕解析(二)
NLP_Matrix_Space5.2GPT-2源码实现逐行解析本节讲解GPT-2源码,gpt2.py是一个使用NumPy实现的代码,在代码中实现了GELU激活函数、softmax函数、层归一化、线性层、前馈
神经网络
段智华
·
2025-02-25 09:35
深入理解
ChatGPT
ChatGPT国内
OpenAI
GPT-3
GPT-4
PyTorch实现DARTS:可微分架构搜索指南
DARTS(DifferentiableArchitectureSearch)是一种创新的
神经网络
架构
余伊日Estra
·
2025-02-25 05:07
神经网络
与深度学习入门:理解ANN、CNN和RNN
无论是智能手机的语音助手,还是推荐系统,背后都有一项核心技术在支撑,那就是
神经网络
与深度学习。今天,我们就来聊一聊这个听起来高大上的话题,其实它也没那么难懂!什么是
神经网络
?
shandianfk_com
·
2025-02-25 03:49
ChatGPT
AI
神经网络
深度学习
cnn
深度学习与搜索引擎优化的结合:DeepSeek的创新与探索
目录引言1.传统搜索引擎的局限性2.深度学习在搜索引擎中的作用3.DeepSeek实现搜索引擎优化的关键技术3.1
神经网络
与搜索引擎优化3.2自然语言处理与查询理解3.3深度强化学习与搜索结果排序4.DeepSeek
m0_74825634
·
2025-02-25 01:37
面试
学习路线
阿里巴巴
深度学习
搜索引擎
人工智能
深度学习入门篇--来瞻仰卷积
神经网络
的鼻祖LeNet
B站视频讲解:深度学习入门篇:使用pytorch搭建LeNet网络并代码详解实战前言大家在学习
神经网络
的时候肯定会有这样的感受,有很多的文章和视频,有的文章也很好,但是总是不成体系,总是学起来东一榔锤,
智算学术
·
2025-02-25 00:31
深度学习图像分类篇
深度学习
轻量级网络设计原理与代码实战案例讲解
轻量级网络设计原理与代码实战案例讲解作者:禅与计算机程序设计艺术/ZenandtheArtofComputerProgramming1.背景介绍1.1问题的由来随着深度学习在各个领域的广泛应用,
神经网络
模型变得越来越庞大和复杂
AI天才研究院
·
2025-02-25 00:00
AI大模型企业级应用开发实战
DeepSeek
R1
&
大数据AI人工智能大模型
计算
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
YOLOv12:以
注意力
为中心的物体检测
YOLOv12是YOLO系列中的最新版本,它引入了一种以
注意力
为中心的架构,旨在进一步提升物体检测的精度和速度。
那雨倾城
·
2025-02-24 23:21
PiscTrace
YOLO
机器学习
目标检测
深度学习
图像处理
大模型学习完整路径(一站式汇总),从零基础到精通!新手友好级指南
先来一张整体结构图,越是下面部分,越是基础:可以按以下步骤学习:1.理解基础概念需要了解深度学习的基本原理和常见术语,如
神经网络
、梯度下降、反向传播、监督学习、无监督学习、分类、回归、聚类
Python程序员罗宾
·
2025-02-24 22:45
学习
语言模型
知识图谱
人工智能
数据库
java
DeepSeek-R1秘籍轻松迁移,只需原始数据0.3% | 邱锡鹏团队联合出品
DeepSeek-R1背后关键——多头潜在
注意力
机制(MLA),现在也能轻松移植到其他模型了!而且只需原始数据的0.3%~0.6%。
·
2025-02-24 19:13
量子位
TMI‘24 |
注意力
感知的非刚性图像配准加速磁共振成像
论文信息题目:Attention-AwareNon-RigidImageRegistrationforAcceleratedMRImaging
注意力
感知的非刚性图像配准加速磁共振成像作者:AyaGhoul
小白学视觉
·
2025-02-24 17:11
医学图像处理论文解读
深度学习
论文解读
医学图像顶刊
医学图像处理
TMI
为什么词向量和权重矩阵dot运算就能得到想要的效果呢?
词向量(WordEmbeddings)和权重矩阵的点积运算之所以能够帮助我们实现特定的效果,主要是因为它们在
神经网络
架构中扮演的角色以及背后的数学原理。
cjl30804
·
2025-02-24 15:02
矩阵
线性代数
nlp
浅显介绍图像识别的算法卷积
神经网络
(CNN)中的激活函数
激活函数的作用激活函数在
神经网络
中扮演着至关重要的角色,其主要作用包括但不限于以下几点:引入非线性:如果没有激活函数或仅使用线性激活函数,无论
神经网络
有多少层或多复杂,整个模型仍然只能表达线性映射。
cjl30804
·
2025-02-24 15:31
算法
cnn
人工智能
Engineering A Large Language Model From Scratch
Atinuke是一种基于Transformer的
神经网络
,通过使用独特的配置来优化各种语
UnknownBody
·
2025-02-24 15:31
语言模型
人工智能
自然语言处理
深度学习(5)-卷积
神经网络
我们将深入理解卷积
神经网络
的原理,以及它为什么在计算机视觉任务上如此成功。我们先来看一个简单的卷积
神经网络
示例,它用干对MNIST数字进行分类。
yyc_audio
·
2025-02-24 14:26
深度学习
cnn
人工智能
深度学习(2)-深度学习关键网络架构
关键网络架构深度学习有4种类型的网络架构:密集连接网络、卷积
神经网络
、循环
神经网络
和Transformer。
yyc_audio
·
2025-02-24 14:26
人工智能
机器学习
深度学习
如何在Java中实现多头
注意力
机制:从Transformer模型入手
如何在Java中实现多头
注意力
机制:从Transformer模型入手大家好,我是微赚淘客系统3.0的小编,是个冬天不穿秋裤,天冷也要风度的程序猿!
省赚客app开发者
·
2025-02-24 14:26
java
transformer
开发语言
Transformer大模型实战 教师 学生架构
其中,Transformer模型作为一种基于自
注意力
机制的深度
神经网络
结构,因其优越的性能和灵活的适用性,在NLP任务中得到了广泛应用。然而,Trans
AI智能涌现深度研究
·
2025-02-24 14:19
DeepSeek
R1
&
大数据AI人工智能
Python入门实战
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
如何在Java中设计高效的Transformer模型架构
Transformer的核心在于其自
注意力
机制和位置编码,它使得模型能够处理长距离依赖,并有效地进行序列到序列的转换。本文将介绍如何在Ja
省赚客app开发者
·
2025-02-24 13:43
java
transformer
架构
LLM的MoE架构的“动态路由”为什么能训练出来?
以下是具体原因和技术原理的解析:一、动态路由的可微分性与端到端优化门控网络的可训练性动态路由的核心是门控网络(GatingNetwork),它是一个可训练的
神经网络
,通过输入数据生成专家权重分布。
互联网之路.
·
2025-02-24 09:46
知识点
架构
解锁机器学习核心算法|朴素贝叶斯:分类的智慧法则
这十大算法包括线性回归、逻辑回归、决策树、随机森林、K-近邻算法、K-平均算法、支持向量机、朴素贝叶斯算法、主成分分析(PCA)、
神经网络
。
紫雾凌寒
·
2025-02-24 08:05
AI
炼金厂
#
机器学习算法
机器学习
算法
分类
朴素贝叶斯
python
深度学习
人工智能
深入探索连续变量量子
神经网络
:开启量子计算新纪元
深入探索连续变量量子
神经网络
:开启量子计算新纪元quantum-neural-networksThisrepositorycontainsthesourcecodeusedtoproducetheresultspresentedinthepaper"Continuous-variablequantumneuralnetworks
倪姿唯Kara
·
2025-02-23 23:08
YOLOv8与DAttention机制的融合:复杂场景下目标检测性能的增强
文章目录1.YOLOv8简介2.DAttention(DAT)
注意力
机制概述2.1DAttention机制的工作原理3.YOLOv8与DAttention(DAT)的结合3.1引入DAT的动机3.2集成方法
向哆哆
·
2025-02-23 21:22
YOLO
目标检测
目标跟踪
yolov8
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他