E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
机器学习深度学习神经网络注意力
三大顶流AI模型场景化横评:Claude3.7 vs GPT4.5 vs Grok3开发者该如何选?
一、模型技术画像速览维度Claude3.7GPT4.5Grok3核心架构改进型ConstitutionalAI混合专家(MoE)架构动态稀疏
注意力
机制上下文窗口500Ktokens128Ktokens1M
AWS官方合作商
·
2025-04-24 07:41
人工智能
aws
云计算
编辑器
论文阅读-Quantum Annealing and Graph Neural Networks for Solving TSP with QUBO
A:这篇论文探讨了如何应用量子退火(QuantumAnnealing,QA)算法和图
神经网络
(GraphNeuralNetworks,GNNs)解决旅行商问题(TravellingSalesmanProblem
酒饮微醉-
·
2025-04-24 06:01
论文阅读
大模型相关 XSS等 漏洞事件深度剖析
大语言模型系以Transformer架构为基础,自主研发的深度
神经网络
模型。
阳光普照世界和平
·
2025-04-24 06:00
xss
web安全
从零开始实现 MobileViT
注意力
机制——轻量级Transformer Vision Model 的新思路
从零开始实现MobileViT
注意力
机制——轻量级TransformerVisionModel的新思路近年来,计算机视觉领域中Transformer模型的崛起为图像处理带来了新的活力。
RockLiu@805
·
2025-04-24 06:28
深度学习模块
机器视觉
transformer
深度学习
人工智能
ECA
注意力
机制:让你的卷积
神经网络
更上一层楼
ECA
注意力
机制:让你的卷积
神经网络
更上一层楼在深度学习领域,
注意力
机制已经成为提升模型性能的重要手段。从自
注意力
(Self-Attention)到各种变体,研究人员不断探索更高效、更有效的注意方法。
RockLiu@805
·
2025-04-24 06:28
机器视觉
深度学习模块
cnn
人工智能
神经网络
【YOLOv10多模态融合改进】| SDFM 表层细节融合模块,利用通道-空间
注意力
机制,实现跨模态特征融合,抑制噪声干扰
SDFM模块(SurfaceDetailFusionModule,表层细节融合模块)通过在特征提取网络的浅层引入通道-空间
注意力
机制,动态生成跨模态特征融合权重。
Limiiiing
·
2025-04-24 02:38
YOLO多模态融合改进
YOLO
多模态
目标检测
计算机视觉
【YOLOv11多模态融合改进】| SDFM 表层细节融合模块,利用通道-空间
注意力
机制,实现跨模态特征融合,抑制噪声干扰
SDFM模块(SurfaceDetailFusionModule,表层细节融合模块)通过在特征提取网络的浅层引入通道-空间
注意力
机制,动态生成跨模态特征融合权重。
Limiiiing
·
2025-04-24 02:38
YOLO多模态融合改进
YOLO
多模态
目标检测
计算机视觉
深度学习---(2)卷积
神经网络
前言卷积
神经网络
(ConvolutionalNeuralNetwork,简称CNN)是一种深度学习模型,特别适合处理图像和视频等数据。它通过模拟生物视觉皮层的工作方式,能够有效提取图像中的特征。
rain雨雨编程
·
2025-04-24 00:53
深度学习
python
深度学习
卷积神经网络
神经网络
Python Transformers库【NLP处理库】全面讲解
核心组件:Tokenizer:文本分词与编码Model:
神经网络
模型架构Pipeline:快速推理的封装接口2.安
老胖闲聊
·
2025-04-23 19:49
Python库大全
python
自然语言处理
开发语言
【机器学习】优化器/SAM
损失函数与优化器在机器学习中,优化器是用于更新和优化模型参数(如
神经网络
中的权重和偏置)的算法,即根据损失函数的梯度信息,指导模型参数的更新,使其逐步逼近最佳状态,从而达到更高的预测准确性或泛化能力。
LOST P
·
2025-04-23 17:33
机器学习
机器学习
人工智能
算法
激活函数:
神经网络
的 “魔法开关”,开启智能之门(三)
引言在
神经网络
的复杂架构中,激活函数扮演着至关重要的角色,堪称
神经网络
的“魔法开关”。它赋予了
神经网络
强大的能力,让其能够处理各种复杂的任务。
心想事“程”
·
2025-04-23 14:14
机器学习
神经网络
人工智能
深度学习
实战深度学习--进行蘑菇分类
数据集:https://pan.quark.cn/s/4d3526600c0c概述本笔记将介绍如何使用Python和深度学习库(如TensorFlow和Keras)来构建一个卷积
神经网络
(CNN)模型,
AKIKZ
·
2025-04-23 13:08
实战深度学习
深度学习
分类
人工智能
卷积
神经网络
(CNN)详细教程
卷积
神经网络
(CNN)详细教程一、引言卷积
神经网络
(ConvolutionalNeuralNetworks,CNN)是一种深度学习模型,广泛应用于图像识别、视频分析、自然语言处理等领域。
AI糊涂是福
·
2025-04-23 12:33
人工智能
cnn
人工智能
神经网络
小朋友都能懂的人工智能⓾大白话数据库(中)
—————小朋友都能懂的人工智能⓵开篇大吉(上)小朋友都能懂的人工智能⓵开篇大吉(中)小朋友都能懂的人工智能⓵开篇大吉(下)————————————————————————小朋友都能懂的人工智能②卷机
神经网络
初探
收获不止数据库
·
2025-04-23 08:38
大白话人工智能
数据库
大模型
人工智能
数据分析
教育
小朋友
童话
残差连接residual connection
残差连接residualconnection,假设
神经网络
某一层对inputx进行了一个F操作,变为F(x),那么正常的
神经网络
输出为F(x),而加入残差连接以后,输出为x+F(x)那么残差结构有什么好处呢
dou957
·
2025-04-23 08:04
神经网络
深度学习
残差(Residual)
残差的核心思想是通过引入“跳跃连接”(SkipConnection),使得
神经网络
能够学习输入和输出之间的差异(即残差),而不是直接学习输出本身。
running_Turtle1
·
2025-04-23 07:32
人工智能
Residual
大模型面经 | 春招、秋招算法面试常考八股文附答案(RAG专题二)
大模型面经|春招、秋招算法面试常考八股文附答案(RAG专题一)大模型面经|春招、秋招算法面试常考八股文附答案(一)大模型面经|春招、秋招算法面试常考八股文附答案(二)一文搞懂DeepSeek核心技术-多头潜在
注意力
皮先生!
·
2025-04-23 06:25
大模型面经
算法
大模型
面试
自然语言处理
人工智能
RAG(检索增强生成)
八股文
神经网络
入门指南:从零开始的深度学习之旅
在当今数字化时代,
神经网络
作为人工智能的核心技术之一,正深刻地改变着我们的生活和工作。从语音识别到图像分类,从自然语言处理到自动驾驶,
神经网络
的应用无处不在。
人工智能那些事儿
·
2025-04-23 05:15
深度学习
神经网络
人工智能
python
java
c++
机器学习
神经网络
权重优化秘籍:梯度下降法全解析(五)
引言在
神经网络
的训练过程中,权重更新是提升模型性能的关键环节,而梯度下降法及其优化算法则是实现这一关键环节的核心工具。理解并掌握这些方法,对于打造高效的
神经网络
模型至关重要。
心想事“程”
·
2025-04-23 02:31
深度学习
人工智能
机器学习
floyd matlab 无向图 最短路径 数学建模_在数学建模中常用的方法
、数学规划(线性规划,非线性规划,整数规划,动态规划,目标规划)、机理分析、排队方法、对策方法、决策方法、模糊评判方法、时间序列方法、灰色理论方法、现代优化算法(禁忌搜索算法,模拟退火算法,遗传算法,
神经网络
李培智
·
2025-04-22 20:23
floyd
matlab
无向图
最短路径
数学建模
可发1区的超级创新思路(python 、MATLAB实现):基于区域
注意力
双通道MABMA的时间序列预测模型
一、模型核心构成1.1核心模块说明(1)双通道输入层(2)区域
注意力
机制(RA)(3)MABMA融合模块二、完整模型架构2.1Pytho
清风AI
·
2025-04-22 19:16
深度学习算法详解及代码复现
毕业设计代码实现
python
matlab
深度学习
人工智能
lstm
conda
CNN(卷积
神经网络
)、RNN(循环
神经网络
)、DNN(深度
神经网络
)的内部网络结构有什么区别?深度学习算法应该怎么学习?
今天抽时间和大家一起唠一唠首先解答大家的问题,先看CNN(卷积
神经网络
)。它的核心组件是卷积层,通过卷积核在图像上滑动,提取局部特征,就像在图像里“扫描”关键信息。
深度学习入门
·
2025-04-22 19:15
深度学习
cnn
rnn
人工智能
算法
神经网络
自然语言处理
深度学习(Deep Learning) 原理与代码实例讲解
其核心思想是通过多层
神经网络
来模拟人脑的工作方式,从而实现对复杂数据的自动学习和特征提取。深度学习的兴起可以追溯到20世
AI天才研究院
·
2025-04-22 18:41
计算
AI大模型企业级应用开发实战
DeepSeek
R1
&
大数据AI人工智能大模型
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
深度学习在地质勘探中的应用:使用Python构建卷积
神经网络
进行地震数据分析
目录引言数据准备和预处理构建卷积
神经网络
模型模型训练和评估模型优化1.使用学习率衰减2.使用数据增强3.使用早停法结论引言地质勘探是一种重要的科学方法,用于研究地球的结构、组成和地球演化过程。
人工智能_SYBH
·
2025-04-22 18:40
python
深度学习
cnn
人工智能
# 手写数字识别:使用PyTorch构建MNIST分类器
手写数字识别:使用PyTorch构建MNIST分类器在这篇文章中,我将引导你通过使用PyTorch框架构建一个简单的
神经网络
模型,用于识别MNIST数据集中的手写数字。
www_pp_
·
2025-04-22 11:23
深度学习
神经网络
EfficientNet 改进:添加高效轻量级通道
注意力
机制(FFCM)
实际应用示例2.完整代码3.网络结构在计算机视觉领域,
注意力
机制已经成为提升模型性能的重要工具。
听风吹等浪起
·
2025-04-22 09:40
AI
改进系列
python
开发语言
深度学习
人工智能
探索大语言模型(LLM):Transformer 与 BERT从原理到实践
Transformer与BERT:从原理到实践前言一、背景介绍二、核心公式推导1.
注意力
机制(AttentionMechanism)2.多头
注意力
机制(Multi-HeadAttention)3.Transformer
艾醒(AiXing-w)
·
2025-04-22 09:09
探索大语言模型(LLM)
语言模型
transformer
bert
考研单词笔记 2025.04.21
attentionn兴趣,关注,
注意力
,殷勤,照料,维修attentivea注意的,殷勤的centern中心,中央,中心点v以…为中心,围绕着,将…放在中央concentratev专注,专心,集中(
注意力
丰锋ff
·
2025-04-22 06:48
笔记
transformer
注意力
机制
单头
注意力
机制importtorchimporttorch.nn.functionalasFdefscaled_dot_product_attention(Q,K,V):#Q:(batch_size,seq_len
__Chuya
·
2025-04-22 01:22
transformer
深度学习
人工智能
DeepSeek投喂数据训练AI教程
其采用的稀疏激活混合专家(MoE)架构和多头潜在
注意力
(MLA)机制,显著提升了模型对垂直领域数据的适应能力。
摆烂大大王
·
2025-04-22 00:47
deepseek
人工智能
deepseek
自然语言处理
个人开发
开源
【人工智能数学基础】——反向传播算法详解:从链式法则到
神经网络
训练实战
目录编辑前言:反向传播——深度学习的"学习引擎"一、反向传播的数学基石1.1链式法则:反向传播的核心1.2计算图视角下的反向传播二、从零实现反向传播2.1Python实现双层
神经网络
2.2代码解析:三、
Sonal_Lynn
·
2025-04-21 20:57
AI专题
人工智能
算法
神经网络
深度学习
机器学习
吴恩达深度学习复盘(19)XGBoost简介|
神经网络
与决策树
XGBoost多年来,机器学习研究人员提出了许多构建决策树的方法,目前最常用的方法是对样本或决策树的实现收费。其中,XGBoost是一种非常快速且易于使用的开源实现,已成功用于赢得许多机器学习竞赛和商业应用。算法原理基本思想:在构建决策树时,不是每次都以等概率选择训练样本,而是对那些之前已训练的树集合仍判断错误的样本给予更高的选择概率。这类似于在训练和教育中的“刻意练习”,例如学钢琴时专注于弹奏不
wgc2k
·
2025-04-21 20:56
#
深度学习
深度学习
神经网络
决策树
transformer--编码器2(前馈全连接层、规范化层、子层链接结构、编码器层、编码器)
前馈全连接层什么是前馈全连接层:在Transformer中前馈全连接层就是具有两层线性层的全连接网络前馈全连接层的作用:考虑
注意力
机制可能对复杂过程的拟合程度不够,通过增加两层网络来增强模型的能力code
zsffuture
·
2025-04-21 17:07
自然语言处理
transformer
深度学习
人工智能
1、什么是Transformer
目录Transformer架构概览编码器层(EncoderLayer)解码器层(DecoderLayer)
注意力
机制自
注意力
(Self-Attention)多头
注意力
(Multi-HeadAttention
O_meGa
·
2025-04-21 17:37
AIGC有问必答
transformer
深度学习
人工智能
大模型时代的核心引擎——Transformer架构
一、Transformer概念1.架构革命性突破2017年Google提出的Transformer架构,通过三大创新彻底改变了AI发展轨迹:全
注意力
机制:替代传统RNN/CNN,实现序列数据的全局建模并行计算范式
AI大模型团团
·
2025-04-21 16:03
transformer
深度学习
人工智能
ai
大模型
python
算法
JVM基础认知:JVM到底是什么?为什么它如此重要?
初学者往往会把
注意力
集中在Java代码本身,却忽视了背后那台“看不见的机器”——JVM。本文将从“JVM是什么”“JVM做了什么”“为什么它如此重要”三个层面,带你构建对JVM的完整认知。
阿文_ing
·
2025-04-21 15:30
JVM修炼笔记
jvm
多输入多输出 | MATLAB实现CNN-LSTM-Attention卷积
神经网络
-长短期记忆网络结合SE
注意力
机制的多输入多输出预测
内容介绍摘要:本文探讨了基于卷积
神经网络
(CNN)、长短期记忆网络(LSTM)以及Squeeze-and-Excitation(SE)
注意力
机制的多输入多输出预测模型。
Matlab算法改进和仿真定制工程师
·
2025-04-21 14:53
matlab
cnn
lstm
基于图
神经网络
的甘草-甘遂-代谢酶三元互作网络建模与解析
甘遂萜酯等活性成分通过CYP2D6、CYP3A4等代谢酶网络产生协同/拮抗效应动态剂量依赖:毒性效应随配伍比例(如1:4至4:1)呈现非线性变化(图1)代谢异质性:患者基因型(如CYP2D6*10突变)显著影响毒性阈值图
神经网络
百态老人
·
2025-04-21 10:01
神经网络
人工智能
深度学习
深度学习应用
1.深度学习概述1.1定义与发展深度学习是机器学习的一个子领域,它基于人工
神经网络
的学习算法,通过模拟人脑的
神经网络
结构来处理数据和创建模式。
胡萝卜不甜
·
2025-04-21 09:58
机器学习
深度学习
人工智能
机器学习
HarmonyOS-ArkUI-动画分类简介
可以吸引用户的
注意力
,提
曹小满2579
·
2025-04-21 08:50
HarmonyOS学习笔记
harmonyos
华为
ArkUI
ArkTS
移动端开发
图
神经网络
实战(12)——图同构网络(Graph Isomorphism Network, GIN)
图
神经网络
实战(12)——图同构网络0.前言1.图同构网络原理2.构建GIN模型执行图分类2.1图分类任务2.2PROTEINS数据集分析2.3构建GIN实现图分类2.4GCN与GIN性能差异分析3.提升模型性能小结系列链接
盼小辉丶
·
2025-04-21 08:18
图神经网络从入门到项目实战
GNN
图神经网络
深度学习
直播带货AI电商系统超级进化:从实时推荐到虚拟主播的全栈实现(附完整代码)
直播电商3.0时代2023年直播电商市场规模突破4.9万亿,传统直播间面临三大痛点:用户停留时长B{AI网关}B-->C[实时推荐引擎]B-->D[虚拟主播系统]B-->E[智能场控系统]C-->F[图
神经网络
夏末之花
·
2025-04-21 02:16
人工智能
山东科技大学深度学习考试回忆
论述题(四个,四十分)五、计算题(二个,三十五分)所有下载资源见简介一、填空(五个空,十分)关键词:卷积层、池化层梯度爆炸,梯度衰减二、选择题(五个,十分)1.梯度下降法的步骤2.哪个不是激活函数3.卷积
神经网络
的缺点
around_01
·
2025-04-21 00:28
cs专业课
科技
人工智能
实验4基于
神经网络
的模式识别实验
2.离散Hopfield
神经网络
的联想记忆过程分为学习和联想两个阶段。在给定样本的条件
around_01
·
2025-04-20 21:08
cs专业课
神经网络
人工智能
深度学习
pytorch dataloader 中collate_fn是什么
在训练
神经网络
时,通常会将数据划分成小批量进行处理,collate_fn就是用来指定如何将单个样本组合成小批量的。collate_fn接受一个批量的样本列表作为输入,并将它们组合成一个批量的数据。
zhaoyqcsdn
·
2025-04-20 19:31
深度学习
pytorch
人工智能
python
(论文阅读)RNNoise 基于递归
神经网络
的噪声抑制库
RNNoise是一个基于递归
神经网络
的噪声抑制库。有关该算法的描述见以下论文:J.
先验
·
2025-04-20 16:13
论文阅读
Ai创作系统源码的原理是什么?如何开发一套属于企业私有的AIGC工具
首先,AI创作系统源码是AI工作的基础,它的原理主要包括深度学习、
神经网络
等先进技术。这些技术模拟人脑的工作机制,通过学习大量数据来形成自己的知识库和推理能
qq855006889
·
2025-04-20 16:42
人工智能
AI写作
AI作画
aigc
大模型esrgan 大模型概念股
大模型使用了许多高级技术,主要包括以下几个方面:深度
神经网络
(DeepNeuralNetworks,DNNs):大模型通常采用深度神
ghjhjjjbjibh
·
2025-04-20 14:27
人工智能
学习
AIGC
语言模型
自然语言处理
文本生成:ChatGPT技术详解以及应用案例
它背后的技术源于Transformer架构,这是一种高效处理序列数据的
神经网络
结构。为什么ChatGPT这么受欢迎?因为它降低了AI应用的门槛,让非专业人士也能轻松使
计算机学长
·
2025-04-20 11:42
人工智能
chatgpt
注意力
机制与Transformer
注意力
机制序列算法序列算法的核心在于建立样本与样本之间的关联,并借助这一种关联提炼出对序列数据的理解。
放荡不羁的野指针
·
2025-04-20 10:34
人工智能
transformer
深度学习
人工智能
上一页
25
26
27
28
29
30
31
32
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他