E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
轻量化神经网络
深度强化学习 _Actor-Critic 王树森课程笔记
Actor):π(a∣s;θ)\pi(a|s;\bm\theta)π(a∣s;θ)2.Valuenetwork(Critic):q(s,a;w)q(s,a;\textbf{w})q(s,a;w)二、训练
神经网络
淀粉爱好者
·
2024-01-29 12:06
神经网络
深度学习
机器学习
Yann LeCun荣获全球AI大奖!Keras之父和Deepmind创始人也曾获奖
YannLeCun因为为深度学习作出的杰出贡献(主要是发明了CNN卷积
神经网络
)和Hinton和Bengio三人共同获得了图灵奖。最近几年,LeCun所领
夕小瑶
·
2024-01-29 12:21
人工智能
keras
深度学习
softplus函数和Rectified Linear Unit (ReLU) 函数的区别是什么?
稀疏激活:由于任何负输入都会被置零,使用ReLU激活的
神经网络
通常会在其隐藏层具有稀疏激活。这意味着在任何时
CA&AI-drugdesign
·
2024-01-29 12:27
线性代数&人工智能
线性代数
人工智能
剑指RT-DETR改进主干EfficientNet模型:重新思考卷积
神经网络
的模型扩展,使得RT-DETR目标检测模型高效涨点
本篇内容:剑指RT-DETR改进主干EfficientNet模型:重新思考卷积
神经网络
的模型扩展,YOLO系列高效涨点CSDN芒果汁没有芒果:RT-DETR最新首发创新点改进源代码!!
芒果汁没有芒果
·
2024-01-29 11:52
剑指RT-DETR算法改进
目标检测
深度学习
神经网络
PINN物理信息网络 | 全局自适应物理信息
神经网络
SA-PINN
概述本文提出的自适应加权方法在于权重适用于不同损失组件中的个别训练点,而不是整个损失组件。之前的方法可以被看作是这个方法的一个特例,当所有针对特定损失组件的自适应权重同时更新时。在之前的方法中,独立开发的极小极大加权方案[16]与SA-PINNs最为相近,因为它也通过梯度下降来更新权重;然而,这些权重仍然适用于整个损失组件。本文呈现的多项经验和理论证据表明,在各种损失项中为每个训练点加权的灵活性,
算法如诗
·
2024-01-29 11:17
物理信息网络(PINN)
神经网络
人工智能
PINN物理信息网络
1.23
神经网络
框架(sig函数),逆向参数调整法(梯度下降法,链式法则(理解,及处理多层
神经网络
的方式))
框架输入层隐藏层存在一个阈值,如果低于某一阈值就不激活;高于了就激活输出层逆向参数调整方法初始阶段,随机设置权重值w1,w2依据训练集两个数学方法(梯度下降、链式法则)调参借助两个数学方法当导数为负时,步幅为正就是说,这个调参是建立在预测结果与实际结果基础上的;自变量是参数,权重,因变量是反映预测结果与实际间的差距(为误差平方和),目的是要让这个差距最小就是不同的权重参数下,有不同的误差差距,由此
CQU_JIAKE
·
2024-01-29 11:15
数学方法
数模
机器学习&神经网络
神经网络
人工智能
深度学习
训练和部署之间的区别-模型压缩
神经网络
训练
神经网络
训练的本质就是找到一个f(x),只不过是一个参数量很大的f(x)那么
神经网络
训练和部署之间的区别就是减少参数量为什么要减少参数量1.大模型不方便进行部署,网络的推断速度比较慢2.对于移动端等设备也没有这么强的算力
An_ich
·
2024-01-29 11:08
深度学习
python
开发语言
人工智能
网络
算法
深度学习
机器学习
跨任务
神经网络
架构搜索
跨任务
神经网络
架构搜索华为杯企业赛题:
神经网络
架构搜索对提高模型精度,减少模型计算量,提高推理速度起着很大的作用。
技术小鹅
·
2024-01-29 10:00
NAS
深度学习
神经网络
人工
神经网络
算法有哪些,人工
神经网络
算法优点
神经网络
算法的人工
神经网络
人工
神经网络
(ArtificialNeuralNetworks,ANN)系统是20世纪40年代后出现的。
「已注销」
·
2024-01-29 10:28
算法
神经网络
神经架构搜索的算法与技巧
1.背景介绍神经架构搜索(NeuralArchitectureSearch,NAS)是一种自动设计
神经网络
的方法,它可以帮助我们自动发现高效的
神经网络
架构。
OpenChat
·
2024-01-29 10:57
架构
算法
政安晨的机器学习笔记——基于Anaconda安装TensorFlow并尝试一个
神经网络
小实例
准备工作如果想要在机器学习的过程中马上动手尝试点什么,比较好的方案是把环境配置起来后,上手跑一把程序,现在让我们开始吧。先安装一个Anaconda,然后把Python环境跑起来。下载地址:FreeDownload|AnacondaAnaconda'sopen-sourceDistributionistheeasiestwaytoperformPython/Rdatascienceandmachin
政安晨
·
2024-01-29 09:51
政安晨的机器学习笔记
tensorflow
人工智能
python
深度学习
机器学习
神经网络
conda
2024.1.28周报
目录摘要ABSTRACT一、文献阅读1、题目2、摘要3、解决的问题4、算法模型5、总结二、PINN方法三、PINN
神经网络
源码总结摘要本周我阅读了一篇题目为PhysicsInformedDeepLearning
Nyctophiliaa
·
2024-01-29 09:19
机器学习
深度学习
人工智能
深度学习核心技术与实践之深度学习研究篇
对数据进行标准化对标准化后的数据进行扭转,将其映射到表征能力更大的空间上有效性分析內部协移(1)内部协移是由于
神经网络
中每层的输入发生了变化,造成每层的参数要不断地适应新分布的问题(2)BN可以在数据经过多层
神经网络
后
__如果
·
2024-01-29 09:15
深度学习
人工智能
论文精读--BERT
不像视觉领域,在Bert出现之前的nlp领域还没有一个深的网络,使得能在大数据集上训练一个深的
神经网络
,并应用到很多nlp的任务上AbstractWeintroduceanewlanguagerepresentationmodelcalledBERT
__如果
·
2024-01-29 09:43
bert
人工智能
深度学习
论文笔记
自然语言处理
机器学习笔记(1) 逻辑回归
逻辑回归与之后的
神经网络
有着千丝万缕的联系,经常被用来当神经元激活算法讲,所以吴恩达教授的deeplearning也是从逻辑回归开始入手,其重要性不容小觑。
TheStudent_LifeLong
·
2024-01-29 09:01
机器学习笔记
机器学习
笔记
逻辑回归
Deeplearning
NumpyDeepLearningBasic
神经网络
:algorithm1input1outputinput2input3input4algorithm2监督学习:1个x对应1个y;Sigmoid:激活函数
stoAir
·
2024-01-29 08:26
机器学习
逻辑回归
人工智能
毕业设计过程学习
早期基于深度学习的目标检测算法的研究方向仍然是将目标定位任务和图像分类任务分离开来的,与传统目标检测方法思想一致,但是对特征的提取不再通过人工设计完成,而是使用
神经网络
提取目标区域的深层特征。
pythonSuperman
·
2024-01-29 08:55
毕业设计
知识点
学习
RNN预测下一句文本简单示例
RNN(RecurrentNeuralNetwork,循环
神经网络
)是一种用于处理序列数据的强大
神经网络
模型。与传统的前馈
神经网络
不同,RNN能够通过其循环结构捕获序列内部的时间依赖性或顺序信息。
木下瞳
·
2024-01-29 08:43
NLP
机器学习
深度学习
模型
rnn
人工智能
深度学习
PyTorch复现网络模型VGG
VGG以其对卷积
神经网络
(ConvolutionalNeuralNetworks,CNNs)结构的研究而闻名,特别是在ILSVRC(ImageNetLargeScal
DogDaoDao
·
2024-01-29 08:13
深度学习
人工智能
VGG
深度学习
python
Pycharm
PyTorch
机器学习_集成学习之Stacking/Blending(以预测结果作为新特征)
我的问题是,能不能集成不同类型的机器学习算法,比如随机森林、
神经网络
、逻辑回归、AdaBoost等,然后优中选优,以进一步提升性能。集成学习分为两大类同质集成,就是基模型都是通过一个基础
you_are_my_sunshine*
·
2024-01-29 08:00
机器学习
机器学习
集成学习
人工智能
【深度学习】
神经网络
可视化工具,超全汇总!
神经网络
可视化是指通过图形化的方式展示
神经网络
的结构、参数、输入、输出、中间结果等信息,可以帮助用户更好地
神经网络
的内部工作原理和特征提取过程,以优化
神经网络
模型。扩展阅读:
神经网络
学习到的是什么?
风度78
·
2024-01-29 08:49
深度学习
神经网络
人工智能
机器学习
【吴恩达-
神经网络
与深度学习】第3周:浅层
神经网络
目录
神经网络
概览
神经网络
表示含有一个隐藏层的
神经网络
(双层
神经网络
)计算
神经网络
的输出多样本的向量化向量化实现的解释激活函数(Activationfunctions)一些选择激活函数的经验法则:为什么需要非线性激活函数
倏然希然_
·
2024-01-29 08:48
深度学习与神经网络
神经网络
深度学习
人工智能
数据科学与机器学习 —
神经网络
(第 02 部分):前馈
神经网络
架构设计
如果您使用python-keras函数库来构建
神经网络
,即便架构很复杂,您也能减少配置和编译的工作,这就是我希望我们能够在MQL5中达成的目标
赫兹股票期货量化软件
·
2024-01-29 08:18
python
深度学习
开发语言
神经网络
人工智能
AI:人工智能关系概览—人工智能与数据挖掘/机器学习/深度学习/
神经网络
的概念定义与关系阐述、梳理之详细攻略(建议收藏)
AI:人工智能关系概览—人工智能与数据挖掘/机器学习/深度学习/
神经网络
的概念定义与关系阐述、梳理之详细攻略(建议收藏)目录相关文章01:《数据挖掘Vs机器学习Vs人工智能Vs深度学习》
一个处女座的程序猿
·
2024-01-29 08:17
AI/AGI
NLP/LLMs
人工智能
机器学习
深度学习
自适应差分进化算法(SaDE)优化BP
神经网络
自适应差分进化算法(SaDE)优化BP
神经网络
自适应差分进化算法(SaDE)可以用于优化
神经网络
中的参数,包括
神经网络
的权重和偏置。
树洞优码
·
2024-01-29 06:09
算法
神经网络
人工智能
自适应差分进化算法
模拟退火算法(SA)优化BP
神经网络
模拟退火算法(SA)优化BP
神经网络
模拟退火算法(SA)可以用于优化
神经网络
中的参数,包括
神经网络
的权重和偏置。在优化BP
神经网络
中,SA可以帮助找到更好的权重和偏置的组合,以提高
神经网络
的性能。
树洞优码
·
2024-01-29 06:09
模拟退火算法
神经网络
算法
2023年算法OOA-CNN-BiLSTM-ATTENTION回归预测(matlab)
OOA-CNN-BiLSTM-Attention鲸鱼算法优化卷积-长短期记忆
神经网络
结合注意力机制的数据回归预测Matlab语言。
树洞优码
·
2024-01-29 06:37
算法
cnn
回归
自定义目标检测:探索YOLO流程并在自定义数据上进行训练
深度学习在过去的十年里取得了巨大的进展,尽管早期模型难以理解和应用,但现代框架和工具使得每个具备一些代码理解能力的人都能训练自己的
神经网络
来处理计算机视觉任务。
小北的北
·
2024-01-29 06:51
目标检测
YOLO
人工智能
计算机视觉
【MATLAB第95期】#源码分享 | 基于MATLAB的卷积
神经网络
CNN图像分类源代码分享(含两个案例)
【MATLAB第95期】#源码分享|基于MATLAB的卷积
神经网络
CNN图像分类源代码分享(含两个案例)一、案例一1、背景介绍目的:训练和测试卷积
神经网络
,以检测钻头三种类型。
随风飘摇的土木狗
·
2024-01-29 06:20
matlab
cnn
图像分类
卷积神经网络
裂纹识别
图像识别
回归预测 | MATLAB实现PSO-GRNN粒子群优化广义回归
神经网络
多输入单输出预测(含优化前后预测可视化)
回归预测|MATLAB实现PSO-GRNN粒子群优化广义回归
神经网络
多输入单输出预测目录回归预测|MATLAB实现PSO-GRNN粒子群优化广义回归
神经网络
多输入单输出预测预测效果基本介绍程序设计参考资料预测效果
机器学习之心
·
2024-01-29 05:34
#
GRNN广义回归神经网络
PSO-GRNN
粒子群优化
广义回归神经网络
多输入单输出预测
多维时序 | Matlab实现DBO-LSTM蜣螂算法优化长短期记忆
神经网络
多变量时间序列预测
多维时序|Matlab实现DBO-LSTM蜣螂算法优化长短期记忆
神经网络
多变量时间序列预测目录多维时序|Matlab实现DBO-LSTM蜣螂算法优化长短期记忆
神经网络
多变量时间序列预测效果一览基本介绍程序设计参考资料效果一览基本介绍
机器学习之心
·
2024-01-29 05:31
时序预测
DBO-LSTM
蜣螂算法优化
长短期记忆神经网络
多变量时间序列预测
学习笔记-李沐动手学深度学习(五)(14-15,数值稳定性、模型初始化和激活函数、Kaggle房价预测)
总结14-数值稳定性(梯度爆炸、梯度消失)尤其是对于深度
神经网络
(即
神经网络
层数很多),最终的梯度就是每层进行累乘理论t:为第t层y:不是之前的预测值,而是包括了损失函数L所有的h都是向量(向量关于向量的导数是矩阵
kgbkqLjm
·
2024-01-29 05:17
李沐动手学深度学习
学习
笔记
深度学习
深度学习-卷积
神经网络
作用:快速定位图像中某些边缘特征英文:convolition将图片与轮廓滤波器进行卷积运算,可快速定位固定轮廓特征的位置卷积
神经网络
的核心计算机根据样本图片,自动寻找合适的轮廓过滤器,对新图片进行轮廓匹配自动求解
小旺不正经
·
2024-01-29 03:54
人工智能
深度学习
cnn
人工智能
深度学习-卷积
神经网络
的结构&经典网络介绍
卷积
神经网络
的结构总体结构通产情况下,卷积
神经网络
由若干个卷积层、激活层、池化层、以及全连接层构成。卷积层卷积层是卷积
神经网络
的核心所在,通过卷积运算可以达到提取特征和降维处理两个重要的目的。
AI_王布斯
·
2024-01-29 03:54
深度学习
神经网络
深度学习
人工智能
深度学习-卷积
神经网络
实现图像风格转换
卷积
神经网络
可以实现图像风格的转换。小浪也来写个程序,实现下这个功能。
寻风浪
·
2024-01-29 03:24
深度学习
卷积神经网络
cnn
深度学习
风格迁移
tensorflow
深度强化学习之策略学习-王树森课程笔记
学习资料深度强化学习课程-王树森目录一、Policy-basedlearning二、PolicyNetwork三、Policy-BasedReinforcementLearning(策略学习)1.用
神经网络
近似状态价值函数
淀粉爱好者
·
2024-01-29 03:23
学习
神经网络
深度学习
机器学习
deformable convolutional networks
转自:点击打开链接上一篇我们介绍了:深度学习方法(十二):卷积
神经网络
结构变化——SpatialTransformerNetworks,STN创造性地在CNN结构中装入了一个可学习的仿射变换,目的是增加
麦兜ppig
·
2024-01-29 02:11
Deeplearning
deformable
convoluti
自然语言处理中的注意力机制与Transformer架构
随着深度学习技术的发展,
神经网络
在自然语言处理领域取得了显著的进展。2017年,Vaswani等人提出了一种新的
神经网络
架构—
OpenChat
·
2024-01-29 00:24
自然语言处理
transformer
人工智能
深度学习
双线性插值(Bilinear Interpol)原理及应用
在很多
神经网络
上采样过程中会用到双线性插值,其为基础的图像resize操作。以前一直没时间仔细研究,今天探究并记录一下原理和自己的理解。
interesting233333
·
2024-01-28 22:22
双线性插值
Bilinear
上采样
插值
计算机毕业设计:python车牌识别系统 Django框架 深度学习 CNN算法 (源码) ✅
1、项目介绍1、关键词:Python语言、TensorFlow、卷积
神经网络
CNN算法、PyQt5界面、Django框架、深度学习包含:训练
q_3548885153
·
2024-01-28 22:20
biyesheji0002
biyesheji0001
毕业设计
python
深度学习
课程设计
大数据
毕业设计
车牌识别
车牌
2022-03-07依恋的神经生物学依据
当母亲的温柔触摸、柔和的声音、平静的面容等激发了婴儿的大脑活动,同步放电的神脑神经元相互建立起
神经网络
,将这些母性的刺激和一种安全的感觉联系在一起,通过这种重复体验的方式,塑造了大脑的环路。在冷漠的母
心理咨询师庆贤
·
2024-01-28 22:01
1章 TensorFlow
Google开源的基于数据流图的科学计算库,适合用于机器学习TensorFlow不仅只是使用于机器学习,甚至更高层的
神经网络
的构建。TensorFlow的含义张量数据表征的一种方式,让张量在图中流动。
啊哈JC熙
·
2024-01-28 22:01
第1周学习:深度学习和pytorch基础
第1周学习:深度学习和pytorch基础01-绪论一、机器学习简介二、几种学习模型三、名词解释02-
神经网络
基础一、为什么说
神经网络
是黑盒的?
随风漂流l
·
2024-01-28 21:03
深度学习
pytorch
机器学习
python
孪生网络(Siamese Network)是一种具体的网络结构还是一种通用的框架结构?
它基于两个人工
神经网络
建立的耦合构架,以两个样本为输入,输出其嵌入高维度空间的表征,以比较两个样本的相似程度。狭义的孪生
神经网络
由两个结构相同,且权重共享的
神经网络
拼接而成。
小桥流水---人工智能
·
2024-01-28 21:02
机器学习算法
Python程序代码
python
深度学习
孪生卷积
神经网络
(Siamese Convolutional Neural Network)的设计思路
孪生卷积
神经网络
(SiameseConvolutionalNeuralNetwork)是一种特殊类型的卷积
神经网络
,主要用于处理需要成对比较的数据,例如判断两个输入是否相似。
小桥流水---人工智能
·
2024-01-28 21:02
Python程序代码
机器学习算法
cnn
深度学习
神经网络
scheduler:pytorch训练过程中自动调整learning rate
importtorch.optimasoptimoptimizer=optim.Adam(net.parameters(),lr=1e-3,betas=(0.9,0.99))在使用PyTorch训练
神经网络
时
robin_ze
·
2024-01-28 21:32
pytorch
python
深度学习
神经网络
神经架构搜索与图像生成:创造新的艺术形式
1.背景介绍随着深度学习技术的发展,
神经网络
在图像生成领域取得了显著的进展。图像生成的主要目标是通过训练有误的
神经网络
,生成与训练集中的图像相似的新图像。
OpenChat
·
2024-01-28 20:17
架构
并发卷积
神经网络
(ConCNN)的英文全称是Concurrent Convolutional Neural Network (ConCNN) ,相对于普通卷积有什么优势?
问题描述:并发卷积
神经网络
(ConCNN)的英文全称是ConcurrentConvolutionalNeuralNetwork(ConCNN),相对于普通卷积有什么优势?
神笔馬良
·
2024-01-28 19:48
cnn
深度学习
神经网络
神经架构搜索的主要概念:理解基本原理
1.背景介绍神经架构搜索(NeuralArchitectureSearch,NAS)是一种自动设计
神经网络
的方法,它可以帮助我们找到一个高性能的
神经网络
架构,而无需手动设计。
OpenChat
·
2024-01-28 18:32
架构
【GPU】CUDA是什么?以及学习路线图!
3、
神经网络
能加速的有很多,当然使用硬件加速是最可观的了,而目前除了专用的NPU(
神经网络
加速单元),就属于GPU对
神经网络
加速效果最好了:
Hcoco_me
·
2024-01-28 16:14
GPU
学习
Soc
GPU
人工智能
CUDA
上一页
21
22
23
24
25
26
27
28
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他