E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
神经网络与深度学习
吴恩达深度学习第一课 —
神经网络与深度学习
1.2
cal构建神经网络·2.1二分分类(BinaryClassification)计算机保存一张图片,要保存三个独立矩阵:红,绿,蓝(其他颜色都是由这三原色组合形成),如果保存的图片是64x64的,那每个矩阵也是64x64的。且每个矩阵里的元素值,代表着颜色的强度。把像素值取出放入一个特征向量x(三个矩阵元素变成一列向量),且特征向量的维度是64x64x3=12288(三个矩阵元素总数量)。在二分分类
今天没有瘦
·
2023-02-03 11:44
深度学习基础学习笔记
深度学习
深度学习
吴恩达深度学习课程第一课 —
神经网络与深度学习
目录1.神经网络(NeuralNetwork)1.1.神经网络1.2.用神经网络进行监督学习(SupervisedLearningwithNeuralNetworks)2.神经网络基础(BasicsofNeuralNetworkProgramming)2.1.逻辑回归(LogisticRegression)2.2.损失函数(LossFunction)2.3.梯度下降法(GradientDescen
你的莽莽没我的好吃
·
2023-02-03 11:10
机器学习
深度学习
卷积神经网络
1.2 什么是神经网络-深度学习第一课《
神经网络与深度学习
》
什么是神经网络?我们常常用深度学习这个术语来指训练神经网络的过程。有时它指的是特别大规模的神经网络训练。那么神经网络究竟是什么呢?在这个视频中,我会讲解一些直观的基础知识。让我们从一个房价预测的例子开始。让我们假设有一个数据集,它包含了六栋房子的信息。所以,我们知道房屋的面积是多少平方米,和对应的房屋价格。这时,你想要用一个函数来根据房屋面积去预测房价。如果你对线性回归很熟悉,你可能会说:“好吧,
ygl_9913
·
2023-02-03 11:10
#
深度学习
神经网络
人工智能
HBU_
神经网络与深度学习
作业12 网络优化与正则化
目录写在前面的一些内容习题7-1习题7-2习题7-9EX写在前面的一些内容本次习题来源于
神经网络与深度学习
pdf电子书的第204页(对应纸质版第189页)的习题7-1、7-2和7-9,具体内容详见NNDL
ZodiAc7
·
2023-02-03 07:32
深度学习
神经网络
HBU_
神经网络与深度学习
作业9 随时间反向传播算法的实现
目录写在前面的一些内容习题1习题2写在前面的一些内容本次习题来源于NNDL作业9:分别使用numpy和pytorch实现BPTT。水平有限,难免有误,如有错漏之处敬请指正。习题1推导循环神经网络反向传播算法BPTT.一些已知的东西:z1=Uh0+Wx1+bz2=Uh1+Wx2+bz3=Uh2+Wx3+bh1=f(z1)y1^=g(h1)z_1=Uh_0+Wx_1+b\\z_2=Uh_1+Wx_2+
ZodiAc7
·
2023-02-03 07:32
人工智能
深度学习
神经网络
python
HBU_
神经网络与深度学习
实验14 网络优化与正则化:不同优化算法的比较分析
目录不同优化算法的比较分析1.优化算法的实验设定(1)2D可视化实验(2)简单拟合实验2.学习率调整(1)AdaGrad算法(2)RMSprop算法3.梯度估计修正(1)动量法(2)Adam算法4.不同优化器的3D可视化对比(1)构建一个三维空间中的被优化函数不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经网络优化的重要因素。神经网络优化中常用的优化方法也主要是
ZodiAc7
·
2023-02-03 07:31
深度学习
人工智能
HBU_
神经网络与深度学习
作业4 前馈神经网络
目录写在前面的一些内容习题4-2习题4-3习题4-7习题4-8习题4-9写在前面的一些内容本次习题来源于
神经网络与深度学习
pdf电子书的第117页和第118页(对应纸质版第102页和第103页)的习题4
ZodiAc7
·
2023-02-03 07:31
深度学习
神经网络
机器学习
HBU_
神经网络与深度学习
作业1 机器学习概述
目录写在前面的一些内容习题2-1习题2-12写在前面的一些内容本次习题来源于
神经网络与深度学习
pdf电子书的第66页和第67页(对应纸质版第51页和第52页)的习题2-1和习题2-12。
ZodiAc7
·
2023-02-03 07:31
HBU_
神经网络与深度学习
作业7 卷积神经网络
目录写在前面的一些内容习题5-2习题5-3习题5-4习题5-7EX总结写在前面的一些内容本次习题来源于
神经网络与深度学习
pdf电子书的第142页(对应纸质版第127页)的习题5-2、5-3、5-4和5-
ZodiAc7
·
2023-02-03 07:31
python
深度学习
cnn
Michael Nielsen
神经网络与深度学习
notes(2)
Part3改进神经网络的方法3-0交叉熵代价函数二次代价函数权重和偏置的偏导数在神经元的输出接近于1时,代价函数对w和b的偏导很小,因此学习速率下降。为了解决这个问题引入交叉熵代价函数。交叉熵代价函数关于权重的偏导数简化为:上述算式表明权重的学习速度受到输出中的误差的控制,与S型函数的导数无关。类似地,关于权重的偏导数3-1过度拟合和规范化(1)过拟合下图为分类准确率在测试集上的表现,看到在280
Sherlyn_CHEN
·
2023-02-02 02:33
神经网络与深度学习
第三章阅读
第三章线性模型线性模型的公式W是d维权重集合,X是d维样本集合,得到的预测结果y,,但是这个结果是一些离散标签,需要引入一个非线性的决策函数g()来预测输出目标这里主要介绍的四中不同的线性分类模型:logistic回归,softmax回归,感知器(MLP),支持向量机(SVM)3.1线性判别函数和决策边界3.1.1二分类3.1.2多类分类分类的类别数C大于2,需要多个线性判别函数。如果类别为,常用
我的昵称违规了
·
2023-02-01 12:34
神经网络与深度学习
(七)循环神经网络(3)LSTM的记忆能力实验
6.3LSTM的记忆能力实验长短期记忆网络(LongShort-TermMemoryNetwork,LSTM)是一种可以有效缓解长程依赖问题的循环神经网络.LSTM的特点是引入了一个新的内部状态(InternalState)和门控机制(GatingMechanism).不同时刻的内部状态以近似线性的方式进行传递,从而缓解梯度消失或梯度爆炸问题.同时门控机制进行信息筛选,可以有效地增加记忆能力.例如
Sun.02
·
2023-02-01 11:55
深度学习
神经网络
rnn
NLP Beginner 任务一:基于机器学习的文本分类
这里提示一下,任务的参考书籍是邱老师的《
神经网络与深度学习
》一书。以任务一为例,我在阅读了此书前两章后,才着手任务一。但是由于我个
m0_61688615
·
2023-01-26 07:08
自然语言处理
分类
人工智能
深度学习
深入浅出神经网络pdf,神经网络 pdf
求《
神经网络与深度学习
讲义》全文免费下载百度网盘资源,谢谢~谷歌人工智能写作项目:神经网络伪原创《深度学习入门基于Python的理论与实现》pdf下载在线阅读,求百度网盘云资源写作猫。
普通网友
·
2023-01-23 08:23
神经网络
深度学习
人工智能
机器学习11种优化器推导过程详解(SGD,BGD,MBGD,Momentum,NAG,Adagrad,Adadelta,RMSprop,Adam,Nadma,Adamx)
前言在网上看了很多关于优化函数的讲解,基本都是从两本书完全照抄搬运到知乎和CSDN等各大技术论坛,而且搬运的过程中错误很多:一本是李沐的《动手学深度学习》,另一本是邱锡鹏的《
神经网络与深度学习
》,这里从新总结和修正一下
量化交易领域专家:杨宗宪
·
2023-01-21 19:33
机器学习零散知识点总结
算法
机器学习
keras
深度学习
神经网络
Mechine Learning 机器学习笔记
笔记作者:OUC_Shizue参考课程:复旦大学邱锡鹏《
神经网络与深度学习
》第一章:机器学习概论一、机器学习的定义1、直接定义机器学习≈计算机自动构建映射函数MachineLearning是指从有限的观测数据中学习出具有一般性的规律
OUC_Shizue
·
2023-01-20 08:13
机器学习
人工智能
python
神经网络深度学习个人笔记 第一章·识别手写数字(持续更新中...)
神经网络与深度学习
Ⅰ.使用神经网络识别手写数字1.1.感知器工作方式:个感知器接受几个二进制输⼊,x1,x2,……,并产生⼀个二进制输出:Rosenblatt引⼊权重,w1,w2,w3,……,表示相应输
Mr__NEO
·
2023-01-19 19:59
神经网络
Deep Learning学习笔记(4)——长短期记忆网络LSTM
读《
神经网络与深度学习
》一书,随笔。在NLP领域几乎都是序列标注问题,上下文信息非常重要,与图像有明显不同。本节需要HMM、Collins感知机、CRF等传统序列标注模型的基础才能好理解。
Amy
·
2023-01-17 15:19
Deep
Learning
神经网络
人工智能
深度学习
吴恩达深度学习deeplearning.ai——第一门课:
神经网络与深度学习
——第二节:神经网络基础(上)
2.1二元分类(BinaryClassification)这周我们将学习神经网络的基础知识,其中需要注意的是,当实现一个神经网络的时候,我们需要知道一些非常重要的技术和技巧。例如有一个包含mmm个样本的训练集,你很可能习惯于用一个for循环来遍历训练集中的每个样本,但是当实现一个神经网络的时候,我们通常不直接使用for循环来遍历整个训练集,所以在这周的课程中你将学会如何处理训练集。另外在神经网络的
Lishier99
·
2023-01-16 13:21
深度学习
深度学习
人工智能
神经网络
逻辑回归
回归算法
神经网络与深度学习
笔记(五)validation_data 的作用
**为何要用validation_data而不是test_data来防止过度拟合?为何要用validation_data而不是test_data来设置更好的超参数?**如果我们设置超参数是基于test_data的话,可能我们最终就会得到过度拟合于test_data的超参数,但是网络性能并不能够泛化到其他数据集合。我们用validation_data来克服这个问题,一旦获得了理想的超参数,就用tes
dsjdjsa
·
2023-01-16 11:37
神经网络和深度学习
深度学习
神经网络
Andrew Ng
神经网络与深度学习
week2
神经网络与深度学习
文章目录
神经网络与深度学习
Logistic回归sigmaLogistic回归另一种表示法Logistic回归的损失函数(costfunction)notation:为什么convexfunction
不爱写程序的程序猿
·
2023-01-16 06:35
AI
神经网络
机器学习
人工智能
python
深度学习
Andrew Ng
神经网络与深度学习
week3
文章目录神经网络的表示:双层神经网络的表示计算神经网络的输出多个训练样本的向量化实现将其向量化向量化实现的解释总结:推理演绎Activationfunctiontanh函数(对sigmoid函数做一定平移得到的新的函数)**Relu函数(修正线性单元)**总结:Whyweneedtousetheactivationfunction?**激活函数的导数**sigmoidTanhReLuandLeak
不爱写程序的程序猿
·
2023-01-16 06:35
AI
神经网络
python
机器学习
深度学习
人工智能
神经网络与深度学习
笔记——梯度消失问题
神经网络与深度学习
笔记系列一共有五个专题,分别是第一章使用神经网络识别手写数字——梯度下降算法是什么。主要介绍了神经网络的基础例如感知器激活函数等概念,最主要介绍了梯度下降算法。
刘爱然
·
2023-01-16 06:04
神经网络与机器学习笔记
神经网络
深度学习
人工智能
机器学习
《
神经网络与深度学习
》邱希鹏 学习笔记 (1)
《
神经网络与深度学习
》邱希鹏学习笔记(1)完成进度第一章绪论深度学习与神经网络人工智能图灵测试达特茅斯*(Dartmouth)*会议人工智能的研究领域人工智能发展历史机器学习传统机器学习的数据处理流程表示学习语义鸿沟特征表示的方法嵌入
第89号
·
2023-01-16 06:01
神经网络与深度学习学习笔记
神经网络
人工智能
神经网络与深度学习
——神经网络基础——梯度下降法
梯度下降法是我们训练参数的途径,这里还是以logistic回归函数为例首先回顾一下logistic回归函数,其中J(w,b)表示成本函数我们的目的是要找到使成本函数尽可能小的参数w和b梯度下降法:从初始点开始,向最陡的下坡走一步,使参数尽可能快的接近最优点参数沿导数方向下降最快一个参数时我们得到下面的公式其中Ø导数之后写代码的时候用dw变量声明Øα是学习率,表示每次迭代的步长两个参数时我们得到
kazuhura
·
2023-01-16 06:29
深度学习
《
神经网络与深度学习
》 邱希鹏 学习笔记(一)
一、机器学习的基本要素机器学习的基本要素:模型学习准则优化算法其中模型分为线性和非线性。学习准则有用损失函数来评价模型的好坏,还有经验风险最小化准则,大概意思就是在平均损失函数中获得最小的损失函数,但是因为样本可能很小,不全面,会造成过拟合问题,因此引入结构风险最小化准则,也就是参数的正则化来限制模型能力,防止模型过拟合。模型定义:通过学习算法在训练集上进行优化参数θ\thetaθ,能够获得在测试
空心菜使者
·
2023-01-16 06:27
深度学习
机器学习
深度学习
神经网络
学习
【深度学习】吴恩达深度学习-Course1
神经网络与深度学习
-第二周神经网络基础作业
视频链接:【中英字幕】吴恩达深度学习课程第一课—
神经网络与深度学习
本文题目来源:【中英】【吴恩达课后测验】Course1-神经网络和深度学习-第二周测验吴恩达深度学习第一部分第二周作业打卡目录英文习题中文习题答案英文习题
passer__jw767
·
2023-01-14 09:11
深度学习
深度学习
神经网络
用深层神经网络识别猫咪图片:吴恩达Course1-
神经网络与深度学习
-week3&week4作业
代码有参考吴恩达老师的源代码,神经网络的图片为转载,图片来源见水印以下文件的【下载地址】,提取码:dv8a所有文件存放位置C:.│dnn_utils.py│buildingdeepneuralnetwork:stepbystep.py│lr_utils.py│testCases.py│├─datasetstest_catvnoncat.h5test_image1.pngtest_image2.pn
蛋挞挞挞
·
2023-01-14 07:34
深度学习
深度学习
神经网络
python
神经网络与深度学习
——神经网络基础——python中的广播,关于python/numpy向量的说明
原则:当一个mn的矩阵加减乘除一个1n的矩阵,广播机制会将1n的矩阵扩成mn的矩阵,然后进行正常的运算,同理对m1的的矩阵也会扩成mn的——————————————————————————————-这里主要是介绍一个小技巧在构建向量的时候,用这样的语句a=np.random.randn(5)会创建形状为(5,)这样的向量,这种向量在运算的过程中会出现一些奇奇怪怪的bug,所以在构建的时候,我们这样
kazuhura
·
2023-01-13 21:06
深度学习
神经网络与深度学习
作业5-卷积
作业1:importnumpyasnpimportmatplotlib.pyplotaspltfromPILimportImageimportnumpyasnpdefcov2(img,kernel,strde):inw,inh=img.shapew,h=kernel.shapeoutw=int((inw-w)/strde+1)outh=int((inh-h)/strde+1)arr=np.zero
小鬼缠身、
·
2023-01-13 13:12
十大机器学习算法(一)
##参考书籍《数学建模算法与应用》--司守奎、孙兆亮[1]##Python代码参考-邱锡鹏
神经网络与深度学习
[2]##部分图片参考知乎文章MachineLearni
Mooan
·
2023-01-11 20:56
建模
机器学习
线性回归
svm
吴恩达-deep learning 01.
神经网络与深度学习
Week3
Week3:浅层神经网络(Shallowneuralnetworks)3.1神经网络概述(NeuralNetworkOverview)本节先从整体结构上来看一下神经网络模型。逻辑回归梯度下降算法——正向传播和反向传播两个过程假设某个样本有两个特征x1,x2x_1,x_2x1,x2,如下图所示:正向传播(黑线):z=wTx+by^=a=σ(z)L(a,y)=−(ylog(a)+(1−y)log(1−
Paul-Huang
·
2023-01-08 09:12
吴恩达-深度学习笔记
深度学习
python
机器学习
鹅的学习日记 22/6/3
文章目录前言一、关于概率的基本概念二、机器学习定义三、机器学习类型四、机器学习四要素五、泛化与正则化六、线性回归七、模型选择与“偏差-方差”分解八、常用定理八、传统特征学习总结前言 这篇笔记写的是《
神经网络与深度学习
不在南极的企鹅大王
·
2023-01-07 22:19
概率论
机器学习
人工智能
Sigmoid型函数、ReLU函数
以下内容主要来自邱锡鹏老师的《
神经网络与深度学习
》第四章和博客的整理。1Sigmoid型函数Sigmoid型函数是指一类S型曲线函数,为两端饱和函数。
长路漫漫2021
·
2023-01-06 20:31
Deep
Learning
Machine
Learning
Sigmod型函数
Logistic函数
Tanh函数
ReLu函数
激活函数
numpy搭建简易神经网络(保姆级教程)
参考教材:邱锡鹏《
神经网络与深度学习
》项目开始一、确定要创建
Tao_XXXX
·
2023-01-05 20:01
numpy
神经网络
机器学习
神经网络与深度学习
复习大纲
第一章(问答题)1.神经网络是什么?深度学习是什么?神经网络:一种以(人工))神经元为基本单元的模型深度学习:一类机器学习问题,主要解决贡献度分配问题2.常用的深度学习框架是什么?PaddlePaddle、Tensorflow、Caffe、Theano、MXNet、Torch和PyTorch3.人工智能的研究领域是什么?机器感知(计算机视觉、语音信息处理)学习(模式识别、机器学习、强化学习)语言(
怡怡小可爱咩
·
2023-01-05 14:20
深度学习
神经网络
笔记:
神经网络与深度学习
——神经网络
一、生物神经元单个细胞只有两种状态“兴奋和抑制二、神经网络如何学习赫布法则Hebb’sRule1.人工神经元最左侧一列表示神经元接受的信号,权重用来模拟不同神经元之间的连接强度。人工神经网络主要由大量的神经元以及它们之间的有向连接构成。因此考虑三方面:2.人工神经网络人工神经网络由神经元模型构成,这种由许多神经元组成的信息处理网络具有并行分布结构。神经网络结构大体上分为上图所示三种类型,但是大多数
zhenpigmilk
·
2023-01-05 09:59
神经网络
深度学习
网络
吴恩达Course1《
神经网络与深度学习
》week2:神经网络基础
1.二元分类举例说明逻辑回归logisticregression是一个用于二分类的算法。什么是二分类呢?举一个例子:输入一张图片到逻辑回归模型中,该算法输出得到1(是猫)或0(不是猫)。更具体来说,应该如何将一张图片转化为输入值呢?在计算机中,一张图片的存储方式是用三个矩阵分别存储图片中的红、绿、蓝。假设一张图片的大小为64*64px,则一张图片的总数据量为64*64*3=12288。顺序取出红、
weixin_44748589
·
2023-01-05 09:58
吴恩达深度学习课程笔记
逻辑回归
神经网络
【讨论】学习深度学习是否要先学习机器学习?
回答一作者:莫笑傅立叶链接:https://www.zhihu.com/question/382278216/answer/1117203012写在最前面:强烈推荐邱锡鹏老师的
神经网络与深度学习
,阅读起来极其流畅
风度78
·
2023-01-04 11:31
算法
神经网络
人工智能
机器学习
深度学习
吴恩达Course1《
神经网络与深度学习
》week2:神经网络基础 测验及作业
第二周测验1.神经元节点先计算线性函数(z=Wx+b),再计算激活。注:神经元的输出是a=g(Wx+b),其中g是激活函数(sigmoid,tanh,ReLU,…)2.逻辑回归损失函数:(^(),())=−()log^()−(1−())log(1−^())3.假设img是一个(32,32,3)数组,具有3个颜色通道:红色、绿色和蓝色的32x32像素的图像。如何将其重新转换为列向量?x=img.re
weixin_44748589
·
2023-01-02 15:59
吴恩达深度学习课程笔记
深度学习
神经网络
神经网络层数、神经元数、梯度下降学习率和训练次数都会影响神经网络的效果
《
神经网络与深度学习
》一书说过,只在输⼊层和输出层之间存在⼀个中间层的情况下,不论我们想要计算什么样的函数,我们都确信存在⼀个神经⽹络可以计算它。但是不同层数和神经元数的神经网络的工作正确率并不一样。
Love, Day After Tomorrow
·
2023-01-02 07:08
神经网络
机器学习
人工智能
《
神经网络与深度学习
》-模型独立的学习方式
模型独立的学习方式1.集成学习1.1AdaBoost算法2.自训练和协同训练2.1自训练2.2协同训练3.多任务学习4.迁移学习4.1归纳迁移学习4.2转导迁移学习5.终身学习6.元学习6.1基于优化器的元学习6.2模型无关的元学习 本文介绍集成学习、协同学习、自训练、多任务学习、迁移学习、终身学习、小样本学习、元学习等学习方式。这些学习方式不限于具体的模型,不管是前馈神经网络、RNN或其他模型
你电吴彦祖
·
2023-01-01 09:24
《神经网络与深度学习》
神经网络
神经网络与深度学习
---train_loss和val_loss(test_lost)分析
1.train_loss不断下降,val_loss(test_lost)不断下降说明网络训练正常,最好情况2.train_loss不断下降,val_loss(test_lost)趋于不变说明网络过拟合,可以添加dropout和最大池化maxpooling3.train_loss趋于不变,val_loss(test_lost)不断下降说明数据集有问题,建议重新选择4.train_loss趋于不变,v
小天才才
·
2023-01-01 01:59
#
课外知识学习
深度学习
神经网络
【
神经网络与深度学习
】笔记 ——邱锡鹏著
Neuralnetworksanddeeplearning第一部分机器学习基础一、绪论机器学习表示学习二、机器学习概述第二部分基础模型1/4卷积神经网络-CNN2/4循环神经网络-RNN3/4生成对抗网络-GANs4/4深度强化学习-RL第三部分进阶模型第一部分机器学习基础一、绪论机器学习使用机器学习模型包含的步骤:(传统机器学习处理流程)特征处理原始数据数据预处理特征提取特征转换预测结果表示学习
周祁安
·
2022-12-29 22:18
神经网络和深度学习
深度学习
神经网络
人工智能
神经网络与深度学习
二:神经网络的基础编程
1二分分类当你要构建一个神经网络,有些技巧是相当重要的,例如m个样本的训练集,你可能习惯性地使用一个for循环来遍历这m个样本,但事实上,实现一个神经网络如果你要遍历整个训练集并不需要直接使用for循环。还有就是神经网络的计算过程中通常有一个正向过程或者叫正向传播步骤,接着会有一个反向步骤,也叫反向传播步骤,下面会介绍为什么神经网络的计算过程可以分为前向传播和反向传播两个分开的过程,接下来会用lo
开始King
·
2022-12-28 15:54
深度学习
深度学习
神经网络
人工智能
神经网络与深度学习
系列 -反向传播算法
矩阵的在神经网络中的应用本系列的上一节介绍了梯度下降算法,本节将介绍反向传播算法。利用矩阵在神经网络中,可以大大简化公式的复杂性,同时矩阵运算在反向传播中使用起来极为方便。上图给出了神经网络中对权重的标注方式,wjklw_{jk}^lwjkl表示从(l−i)th{(l-i)}^{th}(l−i)th层的第kthk^{th}kth个神经元到lth{l}^{th}lth层的第jthj^{th}jth个
Mr2021
·
2022-12-28 12:07
Deep
Learning
深度学习 学习笔记总结
文章目录前言一、
神经网络与深度学习
二、神经网络的过拟合与正则化三、深度学习的优化算法四、卷积神经网络五、循环神经网络从第五章开始重点就将在NLP领域了六、长短期记忆网络七、自然语言处理与词向量八、word2vec
欢桑
·
2022-12-27 20:21
深度学习
学习
机器学习(Machine Learning)&深度学习(Deep Learning)资料
《DeepLearninginNeuralNetworks:AnOverview》介绍:这是瑞士人工智能实验室JurgenSchmidhuber写的最新版本《
神经网络与深度学习
综述》本综述的特点是以
RYP_S
·
2022-12-27 15:16
机器学习
机器学习
深度学习
机器学习(Machine Learning)&深度学习(Deep Learning)资料
《DeepLearninginNeuralNetworks:AnOverview》介绍:这是瑞士人工智能实验室JurgenSchmidhuber写的最新版本《
神经网络与深度学习
综述》本综述的特点是以
暁樱
·
2022-12-27 09:27
机器学习
机器学习
神经网络与深度学习
day09-卷积神经网络2:基础算子
神经网络与深度学习
day09-卷积神经网络2:基础算子5.2卷积神经网络的基础算子5.2.1卷积算子5.2.1.1多通道卷积5.2.1.2多通道卷积层算子5.2.1.3卷积算子的参数量和计算量5.2.2
小鬼缠身、
·
2022-12-27 06:26
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他