E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
神经网络学习
【
神经网络学习
】人工智能与神经网络基础
目录1.人工智能的三个学派:2.机器学习(MachineLearning)3.生物神经元与人工神经元4.用计算机模仿神经网络的步骤:1.人工智能的三个学派:1、行为主义:基于控制论,构建感知-动作体系。如控制论,如平衡、行走、避障等自适应控制系统;2、符号主义:基于算术逻辑表达式,求解问题时先把问题描述为表达式,再求解表达式,可以用公式描述、实现理性思维,例如专家系统;3、连接主义:基于仿生学,模
楼下小黑邢则拯
·
2023-02-03 16:24
神经网络学习
神经网络
tensorflow
机器学习
深度前馈网络(一)、
神经网络学习
XOR
参考深度前馈网络(一)、
神经网络学习
XOR-云+社区-腾讯云XOR函数("异或"逻辑)是两个二进制值和的运算。当这些二进制值中恰好有一个为1时,XOR函数提供了我们想要学习的目标函数。
Wanderer001
·
2023-02-03 07:03
机器学习理论
计算机视觉
深度学习
机器学习
卷积神经网络的卷积层到底在学习什么?——图像的特征
——图像的特征利用简单的全连接
神经网络学习
图像时,会损失掉图像像素之间的空间信息。
Liu Haiwen
·
2023-02-02 13:03
深度学习-笔记
深度学习
cnn
pytorch
DataWhale 深度学习 第三次打卡
因为
神经网络学习
过程本质就是为了学习数据分布,一旦训练数据与测试数据的分布不同,那么网络的泛化能力也大大降低;另外一方面,一旦每批训练数据的分布各不相
H_opeful
·
2023-02-02 11:01
计算机视觉
卷积神经网络
神经网络
神经网络学习
(四)----神经网络各层知识的简单总结
**卷积层**卷积后为什么通道数会增加?答:卷积核的个数,卷积完进行叠加,如下图所示神经网络卷积层是为了提取特征,但提取的是什么特征?这个问题我也不太清楚,只能说明自己的拙见,如果有懂的集美,我很乐意你们在评论区给出,互相学习。个人认为:卷积的特征提取不同于图像角度的特征提取,它更多的是一种卷积运算。卷积的特征提取是针对图像的像素点进行的,例如一张RGB图我们人眼可以很清楚的知道图像的内容,但计算
红枣燕麦
·
2023-02-02 03:01
学习总结
神经网络
学习
深度学习
神经网络学习
(六)----深度学习与机器学习的关系理解
1.复杂场景与多场景复杂场景是指某一种场景(场所)的环境复杂程度。复杂程度包括目标的复杂性和背景环境的复杂性。目标的复杂性通常是指目标姿态、尺度、速度的变化和目标遮挡、消失等问题,背景环境的复杂性是指动态背景、光照变化、摄像机抖动等问题,目标和背景环境的复杂性严重影响了现有目标检测算法的准确性和应用范围。多场景是指多种类场景(场所),例如交通十字路口、海岸边、花园里、室内和室外等。2.人工智能、机
红枣燕麦
·
2023-02-02 03:01
学习总结
神经网络
深度学习
机器学习
神经网络学习
(五)----常见的网络结构对比
1.常见的R-CNN系列上图网络是自底向上卷积,然后使用最后一层特征图进行预测,像SPP-Net,FastR-CNN,FasterR-CNN就是采用这种方式,即仅采用网络最后一层的特征。以VGG16为例子,假如feat_stride=16,表示若原图大小是1000600,经过网络后最深一层的特征图大小是6040,可理解为特征图上一像素点映射原图中一个1616的区域;那原图中有一个小于1616大小的
红枣燕麦
·
2023-02-02 03:30
学习总结
神经网络
学习
深度学习
pytorch搭建孪生网络比较人脸相似性
参考文献:
神经网络学习
小记录52——Pytorch搭建孪生神经网络(Siamesenetwork)比较图片相似性_Bubbliiiing的博客-CSDN博客_神经网络图片相似性Python-深度学习系列
xukobe97
·
2023-02-01 14:03
人工智能
深度学习
图像相似算法
pytorch
深度学习
人工智能
“深度学习”学习日记。与学习有关的技巧--权重的初始值
这关系到神经网络的学习能否成功;在以前误差反向传播法和
神经网络学习
的算法实现这两篇文章中,对权重的初始值的确定是这样的:classTwoLayerNet:def__init__(self,input,hidden
Anthony陪你度过漫长岁月
·
2023-01-31 09:55
深度学习
人工智能
python
MNIST
Datawhale 深入浅出Pytorch【第三~四章:Pytorch模块和基础实践】
Pytorch主要组成模块前言深度学习基础知识
神经网络学习
步骤Pytorch深度学习模块基本配置数据读入模型构建损失函数优化器训练与评估总结前言预期完成本课后可以使用Pytorch完成简单的图像分类任务
beckygong001
·
2023-01-31 09:53
pytorch
深度学习
神经网络
神经网络学习
之感知器
基于M-P模型中权重参数需要人为设置的问题,1958年罗森布拉特(Roseblatt)提出了感知器,经过训练,计算机能够确定神经元的连接权重,由此,神经网络迎来了第一次热潮。单层感知器感知器结构感知器主要有输入层和输出层,其中,输入层接收外界输入信号后传递给输出层,输出层是M-P神经元。表达式感知器如何自动确定参数?误差修正学习策略:设定训练样本和期望输出,然后调整实际输出和期望输出之差。参数自动
Vechin-Huang
·
2023-01-30 09:31
人工智能
人工智能
神经网络
机器学习
深度学习
五个步骤完成深度学习模型的构建和训练
PS:
神经网络学习
的目的是寻找合适的参数,使得损失函数的值尽可能小
windmyself
·
2023-01-30 05:41
神经网络
深度学习
PyTorch:tensor、torch.nn、autograd、loss等
神经网络学习
手册(持续更新)
PyTorch1:tensor2、torch.nn、autograd、loss等
神经网络学习
手册(持续更新)链接:画图、读写图片文章目录一、tensor二、完整训练过程:数据、模型、可学习参数、保存与加载
享子
·
2023-01-29 19:30
基础知识
pytorch
神经网络
深度学习
神经网络论文复现结果不一样,神经网络样本太少
1、
神经网络学习
样本越多,泛化能力越强?是的。构复杂性和样本复杂性:神经网络的容量以及规模称之为神经网络的结构复杂性,样本复杂性是训练某一固定结构神经网络所需的样本数目。
阳阳2013哈哈
·
2023-01-29 11:07
学习教程
神经网络
深度学习
机器学习
cnn
深度学习入门笔记
文章目录前言感知机神经网络激活函数损失函数
神经网络学习
中的技巧参数更新方法权重的初始化抑制过拟合的方法超参数的选择感知机信号特征:感知机有多输入,而仅一输出。
life情怀
·
2023-01-28 13:24
神经网络
机器学习
极限学习机ELM回归预测(MATLAB代码实现)
本文目录如下:目录1概述2运行结果3参考文献4Matlab代码实现1概述极限学习机(ExtremeLearningMachine,ELM)作为前馈
神经网络学习
中一种全新的训练框架,在行为识别、情感识别和故障诊断等方面被广泛应用
荔枝科研社
·
2023-01-26 16:12
#
机器学习
深度学习
matlab
回归
开发语言
Pytorch中
神经网络学习
率衰减方法
1.为什么要衰减学习率(learningrate,lr)代表梯度下降的步长,与传统智能优化算法(比如粒子群算法)类似,如果搜索步长太大有可能会跳出最优区间,如果搜索步长太小,有可能陷于局部最优值。在神经网络刚开始训练的时候,可以将学习率lr设置的大一点(比如0.01),后面随着训练代数的增加将学习率逐步减小,这样平衡了探索和开发的能力。2.衰减方法参考pytorch官方文档pytorch官方给我们
Hello3q3q
·
2023-01-25 10:40
Python学习
机器学习
深度学习
python
神经网络
机器学习
bp神经网络matlab实例_人工
神经网络学习
笔记2——MATLAB神经网络工具箱
神经网络理论的初学者可以利用MATLAB自带的神经网络工具箱来理解ANN算法。神经网络工具箱模型包括如下内容:·感知器·线性网络·BP网络·径向基函数网络·竞争型神经网络·自组织网络和学习向量量化网络·反馈网络神经网络工具箱的使用在命令行窗口输入nnstart,可以打开MATLAB提供的神经网络图形用户界面,如图1所示:图1神经网络图形用户界面再次点击该界面的‘Fittingapp’按钮,打开神经
weixin_39853210
·
2023-01-23 13:47
bp神经网络matlab实例
matlab
bp神经网络工具箱
matlab
高斯过程
工具箱
matlab神经网络工具箱
人工势场法matlab讲解
吴恩达机器学习day5(神经网络:表述)
神经网络学习
:表述一.非线性假设【1】前提引入【2】实例体验二.神经元和大脑三.模型表示1【1】了解实际神经系统【2】模型思考:三.模型表示2四.特征和直观解释1一.非线性假设【1】前提引入我们之前学的
晨沉宸辰
·
2023-01-21 21:56
吴恩达机器学习笔记
神经网络
机器学习
李沐动手学深度学习第四章-4.8. 数值稳定性和模型初始化
初始化方案的选择在
神经网络学习
中起着举足轻重的作用,它对保持数值稳定性至关重要。
nousefully
·
2023-01-21 19:27
深度学习
人工智能
机器学习
数据科学导论--2.理论基础
2.常用的统计学知识:3.统计学与机器学习的区别与联系4.数据科学视角下的统计学2.3机器学习1.机器学习基本思路2.机器学习三要素3.KNN算法4.概念学习5.决策树学习6.人工
神经网络学习
7.贝叶斯学习
虾滑桦虾
·
2023-01-21 16:02
数据科学导论
数据挖掘
人工智能
大数据
机器学习06:决策树学习
——曾国藩专栏地址《机器学习》专栏地址专栏系列文章机器学习01:绪论机器学习02:模型评估机器学习03:线性回归与多分类学习机器学习04:支持向量机机器学习05:
神经网络学习
机器学习06:决策树学习机器学习
非妃是公主
·
2023-01-21 13:48
机器学习
决策树
机器学习09:无监督学习
——曾国藩专栏地址《机器学习》专栏地址专栏系列文章机器学习01:绪论机器学习02:模型评估机器学习03:线性回归与多分类学习机器学习04:支持向量机机器学习05:
神经网络学习
机器学习06:决策树学习机器学习
非妃是公主
·
2023-01-21 13:48
机器学习
聚类
机器学习10:集成学习
——曾国藩专栏地址《机器学习》专栏地址专栏系列文章机器学习01:绪论机器学习02:模型评估机器学习03:线性回归与多分类学习机器学习04:支持向量机机器学习05:
神经网络学习
机器学习06:决策树学习机器学习
非妃是公主
·
2023-01-21 13:48
机器学习
集成学习
人工智能
机器学习12:演化学习
——曾国藩专栏地址《机器学习》专栏地址专栏系列文章机器学习01:绪论机器学习02:模型评估机器学习03:线性回归与多分类学习机器学习04:支持向量机机器学习05:
神经网络学习
机器学习06:决策树学习机器学习
非妃是公主
·
2023-01-21 13:48
机器学习
学习
算法
数据挖掘
机器学习05:
神经网络学习
——曾国藩专栏地址《机器学习》专栏地址专栏系列文章机器学习01:绪论机器学习02:模型评估机器学习03:线性回归与多分类学习机器学习04:支持向量机机器学习05:
神经网络学习
机器学习06:决策树学习机器学习
非妃是公主
·
2023-01-21 13:18
机器学习
神经网络
学习
机器学习07:贝叶斯学习
——曾国藩专栏地址《机器学习》专栏地址专栏系列文章机器学习01:绪论机器学习02:模型评估机器学习03:线性回归与多分类学习机器学习04:支持向量机机器学习05:
神经网络学习
机器学习06:决策树学习机器学习
非妃是公主
·
2023-01-21 13:18
机器学习
人工智能
机器学习08:最近邻学习
——曾国藩专栏地址《机器学习》专栏地址专栏系列文章机器学习01:绪论机器学习02:模型评估机器学习03:线性回归与多分类学习机器学习04:支持向量机机器学习05:
神经网络学习
机器学习06:决策树学习机器学习
非妃是公主
·
2023-01-21 13:18
机器学习
人工智能
机器学习03:线性回归与多分类学习
——曾国藩专栏地址《机器学习》专栏地址专栏系列文章机器学习01:绪论机器学习02:模型评估机器学习03:线性回归与多分类学习机器学习04:支持向量机机器学习05:
神经网络学习
机器学习06:决策树学习机器学习
非妃是公主
·
2023-01-21 13:48
机器学习
学习
人工智能
机器学习02:模型评估
——曾国藩专栏地址《机器学习》专栏地址专栏系列文章机器学习01:绪论机器学习02:模型评估机器学习03:线性回归与多分类学习机器学习04:支持向量机机器学习05:
神经网络学习
机器学习06:决策树学习机器学习
非妃是公主
·
2023-01-21 13:47
机器学习
人工智能
数据挖掘
机器学习04:支持向量机
——曾国藩专栏地址《机器学习》专栏地址专栏系列文章机器学习01:绪论机器学习02:模型评估机器学习03:线性回归与多分类学习机器学习04:支持向量机机器学习05:
神经网络学习
机器学习06:决策树学习机器学习
非妃是公主
·
2023-01-21 13:47
机器学习
人工智能
机器学习11:代价敏感学习
——曾国藩专栏地址《机器学习》专栏地址专栏系列文章机器学习01:绪论机器学习02:模型评估机器学习03:线性回归与多分类学习机器学习04:支持向量机机器学习05:
神经网络学习
机器学习06:决策树学习机器学习
非妃是公主
·
2023-01-21 12:45
机器学习
人工智能
深度学习与
神经网络学习
一,什么是神经网络我们常常用深度学习这个术语来指训练神经网络的过程。有时它指的是特别大规模的神经网络训练。从一个房价预测的例子说起,我们可以用房屋面积和价格来拟合一条直线来表示两者之间的关系,特别地,房屋的价格永远不可能小于0,这时我们能够得到一条修正过的函数当我们加入许多其他因素,像房屋位置,邮政编码等等,我们可以基于这些因素更好地预测房屋价格,这就是神经网络的基础模型。而神经网络的神奇之处在于
iimmy_o
·
2023-01-19 09:10
深度学习
神经网络
神经网络学习
算法中梯度下降简洁证明
已知光滑函数C(V1,V2),∥△V∥=ε是一个趋近于0正数,求证使得函数△C尽可能小时,则△V=−η▽C,其中η=ε/∥▽C∥。已知光滑函数C(V_1,V_2),\parallel\bigtriangleupV\parallel=\varepsilon是一个趋近于0正数,求证使得函数\bigtriangleupC尽可能小时,则\bigtriangleupV=-\eta\bigtriangledo
Ocodotial
·
2023-01-18 14:28
PyTorch入门
算法
神经网络
学习
Stitch it in Time: GAN-Based Facial Editing of Real Videos翻译
我们利用StyleGAN的自然对齐和
神经网络学习
低频函数的趋势
jjw_zyfx
·
2023-01-18 10:47
学术论文
生成对抗网络
人工智能
深度学习
神经网络学习
笔记(三)——长短时记忆(LSTM)网络
LSTM网络是循环神经网络的一种特殊类型,它可以学习长期以来的信息,它是一种拥有三个“门”结构的特殊网络结构。1.LSTM网络结构原始RNN的隐藏层只有一个状态h,如图1(a),它对于短期的输入非常敏感。LSTM网络增加一个状态c,让它保存长期的状态,如图1(b)。图1新增状态c,称为单元状态。把图1(b)按照时间维度展开,如图2所示。图2由上图可以看出:在t时刻,LSTM网络的输入有三个,即当前
shuyitingting
·
2023-01-17 15:23
机器学习
对抗生成网络_生成性对抗网络技术实现
生成性对抗网络技术实现GenerativeAdversarialNetworks以某种形式,使用深度
神经网络学习
从数据点到标签的映射。这种学习被称为区别性学习,因为希望能够区分猫和狗的照片。
weixin_39612849
·
2023-01-17 10:06
对抗生成网络
注意力机制
1.注意力机制可以解决信息过载问题在
神经网络学习
中,一般而言模型的参数越多则模型的表达能力越强,模型所存储的信息量也越大,但这会带来信息过载的问题。
瞻邈
·
2023-01-16 10:12
机器学习
深度学习
人工智能
神经网络
gitchat训练营15天共度深度学习入门课程笔记(八)
5.5.2Sigmoid层5.6Affine/Softmax层的实现5.6.1Affine层5.6.2批版本的Affine层5.6.3Softmax-with-Loss层5.7误差反向传播法的实现5.7.1
神经网络学习
的全貌图
weixin_43114885
·
2023-01-16 08:50
笔记
深度学习入门
新手
python编程
经典书籍
<3>LSTM(Long Short-Term Memory)原文解读
原文:LongShort-TermMemory,1997作者:SeppHochreiter,JürgenSchmidhuber1.核心问题:通过循环
神经网络学习
较长时间间隔的任务通常需要很长的时间,这是因为误差在反传的过程中表现了严重的不充分与衰减
liu_xfx
·
2023-01-16 04:15
深度学习经典导读
人工智能
rnn
吴恩达卷积
神经网络学习
笔记(一)
一.卷积神经网络(一)1.1计算机视觉图片分类和图片识别,目标检测,图片风格迁移特征向量的维度卷积神经网络一般应用于计算机视觉领域,由于有的时候图片的像素点很多,导致神经网络输入特征值的维数很多。1.2边缘检测示例弄清一张照片中的物体,利用电脑进行去识别,垂直边缘检测,水平边缘检测。如下图所示,原图是一个661的矩阵,卷积核是一个331的矩阵,经过卷积后得到一个441的矩阵。(为了检测图像中的垂直
星_阳
·
2023-01-16 00:46
深度学习
cnn
计算机视觉
神经网络学习
(十四)卷积神经网络TensorFlow实现
系列博客是博主学习神经网络中相关的笔记和一些个人理解,仅为作者记录笔记之用,不免有很多细节不对之处。说明上一节,我们简单实现了一个卷积神经网络,本节我们采用TensorFlow实现手写字的识别。本节代码参考自《TensorFlow实战》。实现首先载入MNIST数据,并创建默认的InteractiveSession:importtensorflowastffromtensorflow.example
oio328Loio
·
2023-01-15 15:03
神经网络
000102感知机到神经网络
从感知机到
神经网络学习
深度学习入门的学习记录。总忘,记录。只记录各部分源码和少部分原理。
tryiiii
·
2023-01-14 20:11
学习记录
python
深度学习
图
神经网络学习
6
基于图神经网络的图表征学习方法图表征学习要求在输入节点属性、边和边的属性(如果有的话)得到一个向量作为图的表征,基于图表征进一步的我们可以做图的预测。本文以一个经典的同构网络GIN来举例。网络实现基于图同构网络的图表征学习主要包含以下两个过程:首先计算得到节点表征;其次对图上各个节点的表征做图池化(GraphPooling),或称为图读出(GraphReadout),得到图的表征(GraphRep
to2
·
2023-01-14 15:46
神经网络
“深度学习”学习日记。误差反向传播法--计算图
2023.1.14在昨天的
神经网络学习
算法的实现中,遇到使用数值微分法连续计算梯度运行速度慢的问题,然后使用了误差反向传播法去连续计算梯度而大幅提高运行速度。今天就开始学习误差反向传播法这一个章节。
Anthony陪你度过漫长岁月
·
2023-01-14 12:51
深度学习
学习
人工智能
“深度学习”学习日记。神经网络的学习。--学习算法的实现
2023.1.13愿望世界没有新冠,复阳的感觉真的难受这一段时间学习了“损失函数”、“mini-batch”、“梯度”、“梯度下降法”,今天通过他们取实现
神经网络学习
算法的实现,做一次总结。
Anthony陪你度过漫长岁月
·
2023-01-14 12:47
深度学习
神经网络
算法
神经网络是如何运用梯度下降算法进行学习
这个调整自身然后让自己预测更加准确的过程就是学习我们知道,预测的是否准确是又W和b来决定的,所以
神经网络学习
的目的就是找到合适的W和b。通过一个叫做梯度下降的算法可以达到这个目的。
zha_zha_wei
·
2023-01-13 22:08
人工智能
算法
神经网络
学习
神经网络学习
----如何利用训练好的神经网络模型进行预测
预测会用到两个文件,分别是yolo.py和predict.py。yolo.py里面修改model_path以及classes_path,这两个参数必须要修改。model_path指向训练好的权值文件,在logs文件夹里。classes_path指向自己目标类别所对应的txt。predict.py也要修改图片路径和保存路径。该代码可以选择不同模式进行单张图片、多张图片、视频及FPS的预测。修改好后,
红枣燕麦
·
2023-01-13 22:08
神经网络
深度学习
python
学校食堂明厨亮灶监控系统 Python
学校食堂明厨亮灶监控系统通过Python基于YOLOv7卷积
神经网络学习
与图像识别技术,对现场画面进行24小时实时分析,如:厨房出现老鼠狗猫、厨师未戴口罩、厨师未戴厨师帽、厨师服穿戴识别、抽烟识别、玩手机识别
燧机科技
·
2023-01-12 15:05
深度学习
人工智能
神经网络
目标检测
python
神经网络学习
随笔
神经网络神经网络简介深度学习简介神经网络介绍神经元是如何工作的激活函数Sigmoid/logistics函数:tanh(双曲正切曲线)RELULeakReLuSoftMax其他激活函数如何选择激活函数隐藏层输出层参数初始化随机初始化标准初始化Xavier初始化He初始化神经网络的搭建通过Sequential构建利用functionAPI构建通过model的子类构建神经网络的优缺点优点缺点总结神经网
最白の白菜
·
2023-01-12 01:05
#
深度学习与计算机视觉
神经网络
人工智能
深度学习
python
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他