E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《深度学习笔记》
吴恩达
深度学习笔记
(4)-为什么深度学习会兴起?
为什么深度学习会兴起?(WhyisDeepLearningtakingoff?)本节视频主要讲了推动深度学习变得如此热门的主要因素。包括数据规模、计算量及算法的创新。(3个重点概念!请背书!)深度学习和神经网络之前的基础技术理念已经存在大概几十年了,为什么它们现在才突然流行起来呢?对啊,为什么?看过我之前文章:人工智能的冷落与兴起,那么你就会了解发展历程了,但是这个深度学习为什么会独引爆全场呢?本
极客Array
·
2020-07-29 15:08
深度学习
吴恩达深度学习笔记
【
深度学习笔记
】Windows 下 pip 安装paddle.fluid
环境准备Windows7/8/10专业版/企业版(64bit)(GPU版本支持CUDA9.0/10.0,且仅支持单卡)Python版本2.7.15+/3.5.1+/3.6/3.7(64bit)pip或pip3版本9.0.1+(64bit)注意事项确认需要安装PaddlePaddle的Python是您预期的位置,因为您计算机可能有多个Python如果您是使用Python2,使用以下命令输出Pytho
Li xiang007
·
2020-07-29 14:40
Deep
learning
深度学习笔记
3:手动搭建深度神经网络(DNN)
欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tsaiedu,并注明消息来源,邀请你进入数据爱好者交流群,数据爱好者们都在这儿。作者简介:鲁伟:一个数据科学践行者的学习日记。数据挖掘与机器学习,R与Python,理论与实践并行。个人公众号:
天善智能
·
2020-07-29 11:00
神经网络与
深度学习笔记
——第4章 神经网络可以计算任何函数的可视化证明
第4章神经网络可以计算任何函数的可视化证明神经网络拥有一种普遍性。不论我们想要计算什么样的函数,我们都确信存在一个神经网络可以计算它。而且,这个普遍性定理甚至在我们限制了神经网络只在输入层和输出层之间存在一个中间层的情况下成立。所以即使是很简单的网络架构都极其强大。普遍性定理在使用神经网络的人群中是众所周知的。但是它为何正确却不被广泛地理解。现有的大多数的解释都具有很强的技术性。两个预先声明关于神
zhzhx0318
·
2020-07-29 03:31
fast.ai
深度学习笔记
:第一部分第一课
原文:DeepLearning2:Part1Lesson1作者:HiromiSuenaga课程论坛入门[0:00]:为了训练神经网络,你肯定需要图形处理单元(GPU)-特别是NVIDIAGPU,因为它是唯一支持CUDA(几乎所有深度学习库和从业者都使用的语言和框架)的设备。租用GPU有几种方法:Crestle[04:06],Paperspace[06:10]Jupyter笔记本和猫狗识别的介绍[1
布客飞龙
·
2020-07-28 23:03
机器学习
吴恩达_深度学习概论
吴恩达
深度学习笔记
,不严谨之处还请斧正。2.什么是神经网络?由一个或多个参数输入信息经过算法计算、计算后结果输出的过程可以看做一个计算单元,可以比作神经元。
太和վ'ᴗ' ի
·
2020-07-28 23:42
机器学习
深度学习
深度学习笔记
(6)卷积
1.卷积神经网络convolutionalneuralnetwork卷积神经网络是有生物学意义的,每个视觉神经元只对特定的一定范围的图形进行感知。相对于普通神经元来说,它会大大减少参数量。2.卷积网络的计算过程在卷积神经网络中有个卷积核的概念,每个卷积核与相应的图像区块进行乘积运算,然后通过激活函数。接着可以连接池化层,池化可以增加图像的旋转、平移和缩放的不变性。多通道下的卷积,是每个通道卷积核运
无事扯淡
·
2020-07-28 20:57
【连载】
深度学习笔记
5:正则化与dropout
在笔记4中,详细阐述了机器学习中利用正则化防止过拟合的基本方法,对L1和L2范数进行了通俗的解释。为了防止深度神经网络出现过拟合,除了给损失函数加上L2正则化项之外,还有一个很著名的方法——dropout.废话少说,咱们单刀直入正题。究竟啥是dropout?dropout是指在神经网络训练的过程中,对所有神经元按照一定的概率进行消除的处理方式。在训练深度神经网络时,dropout能够在很大程度上简
linux那些事
·
2020-07-28 17:36
深度学习笔记
——理论与推导之Reinforcement Learning(十三)
ReinforcementLearning(强化学习)ReinforcementLearning机器学习的分支:有监督学习是机器学习任务的一种,它从有标记的训练数据中推导出预测函数。有标记的训练数据是指每个训练实例都包括输入和期望的输出。即:给定数据,预测标签。无监督学习是机器学习任务的一种,它从无标记的训练数据中推断结论。最典型的无监督学习就是聚类分析,它可以在探索性数据分析阶段用于发现隐藏的模
R3
·
2020-07-28 12:43
学习ing
深度学习笔记
——深度学习框架TensorFlow(六)[TensorFlow线性模型教程]
参考资料:https://www.tensorflow.org/versions/r0.12/tutorials/wide/index.html#tensorflow-linear-model-tutorialTensorFlowLinearModelTutorialInthistutorial,wewillusetheTF.LearnAPIinTensorFlowtosolveabinarycl
R3
·
2020-07-28 12:11
深度学习
深度学习笔记
------卷积神经网络
深度学习笔记
------卷积神经网络相关概念卷积运算互相关运算稀疏交互参数共享卷积核填充步幅多输入通道多输出通道层级分布卷积层归一化整流(激活函数)池化层全连接层相关概念卷积运算卷积函数:h(x)=∫f
yzsorz
·
2020-07-28 11:51
深度学习笔记
卷积神经网络(CNN)之一维卷积、二维卷积、三维卷积详解
如果你对卷积维度的计算不清楚,可以参考我之前的博客吴恩达
深度学习笔记
(
星蕴w
·
2020-07-28 06:36
机器学习
深度学习笔记
(十二)--深度学习数据集MNIST、ImageNet、 COCO 、 VOC介绍
原文链接:https://www.cnblogs.com/antflow/p/7261901.html1.MNIST深度学习领域的“HelloWorld!”,入门必备!MNIST是一个手写数字数据库,它有60000个训练样本集和10000个测试样本集,每个样本图像的宽高为28*28。此数据集是以二进制存储的,不能直接以图像格式查看,不过很容易找到将其转换成图像格式的工具。最早的深度卷积网络LeNe
小熊猫3
·
2020-07-28 06:21
深度学习笔记
吴恩达
深度学习笔记
(43)-动量梯度下降法(Momentum)
动量梯度下降法(GradientdescentwithMomentum)还有一种算法叫做Momentum,或者叫做动量梯度下降法,运行速度几乎总是快于标准的梯度下降算法,简而言之,基本的想法就是计算梯度的指数加权平均数,并利用该梯度更新你的权重,在本笔记中,我们要一起拆解单句描述,看看你到底如何计算。例如,如果你要优化成本函数,函数形状如图,红点代表最小值的位置,假设你从这里(蓝色点)开始梯度下降
极客Array
·
2020-07-28 03:43
【
深度学习笔记
】优化算法( Optimization Algorithm)
本文依旧是吴恩达《深度学习工程师》课程的笔记整理与拓展。一、优化算法的目的与挑战优化算法主要是用来加快神经网络的训练速度,使得目标函数快速收敛。优化问题面临的挑战有病态解、鞍点、梯度爆炸与梯度消失……具体可见参考文献【1】241页到249页。其中深度学习不太可能陷入局部最优,因为loss函数通常涉及多个维度(w1,w2...)二、常见的优化算法1、基本算法小批量梯度下降即各种变体批量梯度下降(Ba
云若祯初
·
2020-07-28 03:04
深度学习
深度学习
优化算法
深度学习笔记
2:手写一个单隐层的神经网络
笔记1中我们利用numpy搭建了神经网络最简单的结构单元:感知机。笔记2将继续学习如何手动搭建神经网络。我们将学习如何利用numpy搭建一个含单隐层的神经网络。单隐层顾名思义,即仅含一个隐藏层的神经网络,抑或是成为两层网络。继续回顾一下搭建一个神经网络的基本思路和步骤:[if!supportLists]·[endif]定义网络结构(指定输出层、隐藏层、输出层的大小)[if!supportLists
linux那些事
·
2020-07-28 02:47
深度学习笔记
4:卷积层的实现
卷积层的推导卷积层的前向计算如下图,卷积层的输入来源于输入层或者pooling层。每一层的多个卷积核大小相同,在这个网络中,我使用的卷积核均为5*5。如图输入为28*28的图像,经过5*5的卷积之后,得到一个(28-5+1)*(28-5+1)=24*24、的map。卷积层2的每个map是不同卷积核在前一层每个map上进行卷积,并将每个对应位置上的值相加然后再加上一个偏置项。每次用卷积核与map中对
kanei_ri
·
2020-07-28 01:30
深度学习
Oracle
深度学习笔记
——shared_pool底层知识大集合
1sharedpoolhttp://www.360doc.com/content/16/0410/22/31263000_549565302.shtml--LibraryCahce锁挣用Oracle引入SharedPool就是为了帮助我们实现代码的共享和重用。SharedPool主要由两部分组成,一部分是库缓存(LibraryCahce),另一部分是数据字典缓存(DataDictionaryCac
Demonson
·
2020-07-27 21:49
Oracle
优化
SQL优化
ORA-
Oracle体系结构
主动维护与性能管理
【Deeplearning.ai 】吴恩达
深度学习笔记
及课后作业目录
吴恩达深度学习课程的课堂笔记以及课后作业代码下载:https://github.com/douzujun/Deep-Learning-Coursera课程1-神经网络和深度学习周数名称类型地址week1深度学习简介测验略week2神经网络基础笔记逻辑回归逻辑回归推导具有神经网络思维的Logistic回归编程作业识别猫week3浅层神经网络笔记浅层神经网络带有一个隐藏层的平面数据分类编程作业平面数据
Douzi1024
·
2020-07-27 17:50
深度学习笔记
一
1.
深度学习笔记
一1.1绪论(1)关于人工智能、机器学习与深度学习之间的关系:人工智能是一种科技领域,分为机器学习,数据挖掘(大概是大数据方向)以及其他方面如作为AL分支的NLP等。
脂环
·
2020-07-25 21:00
深度学习笔记
这个是在公众号中看到的,提供一个笔记。从深度学习基础、卷积网络和循环网络三个方面介绍该笔记。深度学习基础1.深度学习基本概念监督学习:所有输入数据都有确定的对应输出数据,在各种网络架构中,输入数据和输出数据的节点层都位于网络的两端,训练过程就是不断地调整它们之间的网络连接权重。左上:列出了各种不同网络架构的监督学习,比如标准的神经网络(NN)可用于训练房子特征和房价之间的函数,卷积神经网络(CNN
胖墩哥
·
2020-07-24 15:00
神经网络和
深度学习笔记
(一)
神经网络和
深度学习笔记
(一)Logistic回归算法(LogisticRegression)[用于二分分类的算法](一)基础知识二分分类CreatedwithRaphaël2.1.0InputInputOutputOutput0
AmIWalruS
·
2020-07-16 06:42
机器学习
动手学
深度学习笔记
5卷积神经网络基础
一、卷积神经网络二维卷积层将输入和卷积核做互相关运算,并加上一个标量偏置来得到输出。卷积层的模型参数包括卷积核和标量偏置。卷积运算:卷积层得名于卷积运算,但卷积层中用到的并非卷积运算而是互相关运算。我们①将核数组上下翻转、左右翻转,②再与输入数组做互相关运算。这一过程就是卷积运算。由于卷积层的核数组是可学习的,所以使用互相关运算与使用卷积运算并无本质区别。特征图与感受野:特征图(featurema
programer_cao
·
2020-07-16 04:54
深度学习笔记
16_猫狗案例优化_使用预训练模型(fine-tuning)
模型微调概念微调是指将其顶部的几层“解冻”,并将这解冻的几层和新增加的部分联合训练。详细的理解见下图[外链图片转存失败(img-ih2x0XIm-1569374299326)(https://upload-images.jianshu.io/upload_images/19296570-9e2d990bdaf2d549.jpg?imageMogr2/auto-orient/strip%7Cimag
瓦力人工智能
·
2020-07-15 23:25
keras深度学习笔记
深度学习笔记
14_猫狗分类案例优化 - 数据增强
猫狗分类案例优化-数据增强数据增强的基本概念**数据增强:**利用多种数字图像处理方法(旋转,剪切,错切,缩放,翻转,边缘填充)生成可信图像.其目标是,模型在训练时不会两次查看完全相同的图像。这让模型能够观察到数据的更多内容,从而具有更好的泛化能力。在keras中可以通过:ImageDataGenerator函数来实现图像的随机变换.rotation_range是角度值(在0~180范围内),表示
瓦力人工智能
·
2020-07-15 23:24
keras深度学习笔记
深度学习笔记
(25)- 远程桌面
每天需要接收上级文件通知,我们有专门的公文管理系统(windows7系统),在三楼机房。在windows平台工作时,我每天需要远程登录这台计算机查看是否有通知,对于深度系统是否也有这样的功能呢?今天咱们来实践一下。一、安装软件 Remmina是一款远程桌面客户端软件,提供了多种远程连接协议。打开深度商店,在搜索栏中输入:Remmina,搜索到之后单击安装。 二、配置 三楼公文管理系统的计
annigeng5139
·
2020-07-15 20:36
【
深度学习笔记
系列】卷积神经网络(CNN)详解
博主声明该
深度学习笔记
系列为个人学习笔记整理。内容来源于网上的大牛和机器学习专家所无私奉献的资料,仅供学习交流,非商用。具体引用的资料请看参考文献。
fpzRobert
·
2020-07-15 18:44
深度学习
深度学习笔记
17_卷积神经网络数据可视化_中间激活
可视化的概念深度学习模型是“黑盒”,即模型学到的表示很难用人类可以理解的方式来提取和呈现。但是我们现在的学习的卷积伸进网络却可以通过可视化很形象的说明深度学习在卷积神经网络方面可以很表示的,并不是黑盒。目前比较容易理解的三种可视化的方法如下:可视化卷积神经网络的中间输出(中间激活)就是可以展示网络中各个卷积层和池化层输出的特征图理解卷积神经网络连续的层如何对输入进行变换于初步了解卷积神经网络每个过
瓦力人工智能
·
2020-07-15 14:17
keras深度学习笔记
2020-3-27
深度学习笔记
15 - 表示学习 4(分布式表示)
第十五章表示学习官网英文2020-3-24
深度学习笔记
15-表示学习1(贪心逐层无监督预训练-目前已经不太使用)2020-3-25
深度学习笔记
15-表示学习2(迁移学习和领域自适应)2020-3-26
深度学习笔记
没人不认识我
·
2020-07-15 07:39
深度学习
IT
2020-3-21
深度学习笔记
14 - 自编码器 5(使用自编码器学习流形-降维,收缩自编码器CAE)
第十四章自编码器官网英文推荐2020-3-8
深度学习笔记
14-自编码器1(欠完备自编码器)2020-3-8
深度学习笔记
14-自编码器2(正则自编码器-稀疏自编码器(增加惩罚项)/去噪自编码器(改变重构误差项
没人不认识我
·
2020-07-15 07:39
深度学习
IT
2020-2-18
深度学习笔记
8 - 深度学习中的优化4(优化策略和元算法-- 批标准化 / 坐标下降 / Polyak平均 / 监督预训练 /设计有助于优化的模 / 延拓法和课程学习)
第八章深度学习中的优化官网python实现代码2020-2-15
深度学习笔记
8-深度学习中的优化1(与纯优化区别-基于梯度下降,神经网络优化-下降到足够小即可)2020-2-16
深度学习笔记
8-深度学习中的优化
没人不认识我
·
2020-07-15 07:39
深度学习
IT
2020-1-29
深度学习笔记
5 - 机器学习基础(构建机器学习算法)
第5章机器学习基础官网学习算法机器学习算法是一种能够从数据中学习的算法。所谓学习是指,对于某类任务T和性能度量P,一个计算机程序被认为可以从经验E中学习是指,通过经验E改进后,它在任务T上由性能度量P衡量的性能有所提升。【任务T】机器学习可以让我们解决一些人为设计和使用确定性程序很难解决的问题。学习过程本身不能算是任务。学习是我们所谓的获取完成任务的能力。例如,我们的目标是使机器人能够行走,那么行
没人不认识我
·
2020-07-15 07:38
深度学习
IT
深度学习第60讲:
深度学习笔记
系列总结与感悟
通过2018年底的一番紧赶慢赶,深度学习系列终于写满60篇笔记了,半年前定下了学习目标,勉强达成了吧。虽然现在再回头翻看前面的一些笔记会有很多不成熟、甚至是错误的地方,但和大家一样,你我都是在学习中进步、在坚持中成长。去年这个时候,我还是一个对深度学习一无所知的R语言用户,去年年终总结的时候给2018定的一大目标就是深入人工智能方向的学习。半年前,也就是6月份的时候,决定结合AndrewNG的de
louwill12
·
2020-07-15 06:38
深度学习笔记
(七)SSD 论文阅读笔记简化
一.算法概述本文提出的SSD算法是一种直接预测目标类别和boundingbox的多目标检测算法。与fasterrcnn相比,该算法没有生成proposal的过程,这就极大提高了检测速度。针对不同大小的目标检测,传统的做法是先将图像转换成不同大小(图像金字塔),然后分别检测,最后将结果综合起来(NMS)。而SSD算法则利用不同卷积层的featuremap进行综合也能达到同样的效果。算法的主网络结构是
weixin_30871905
·
2020-07-15 03:01
神经网络和
深度学习笔记
(一)
1.1什么是神经网络(NeuralNetwork)?所谓“深度学习”指的是训练神经网络。一个神经网络中的重要函数:ReLU函数(修正线性单元)ReLU函数神经网络中含有隐藏单元。当你输入x时,经过神经网络会映射成y。从外部整体上看可以理解为输入数据得到输出的系统,神经网络可以理解为输入变成输出的在逻辑的分析过程,而隐藏单元则为分析过程的中间思考节点。只要给够足够多的x、y训练样本,神经网络便能计算
变身的大恶魔
·
2020-07-13 14:01
深度学习笔记
:交叉熵(cross-entropy)损失函数解决二次型带来的学习速率下降问题
我们都希望我们的神经网络能够根据误差来加快学习的速度。但实际是什么样的呢?让我们先来看一个例子:这个网络只有一个神经元,一个输入一个输出:我们训练这个网络做一个简单的任务,输入1,输出0.当然这种简单的任务我们可以不用任何学习算法就可以手动算出权重值。但我们这次试用梯度下降法尝试获得权重值和偏置值,损失函数使用二次型函数。接下来让我们看看这个神经元是怎么学习的。首先,我选择输入x=1,w=0.6,
fanchenxinok
·
2020-07-13 14:14
深度学习
深度学习笔记
(五)---损失函数与优化器
以下笔记来源:[1].《pytorch深度学习实战》[2].pytorch损失函数总结(https://blog.csdn.net/jacke121/article/details/82812218)[3].PyTorch学习之十种优化函数(https://blog.csdn.net/shanglianlm/article/details/85019633)如有侵权,请联系删除!pytorch框架
Jayden yang
·
2020-07-13 12:06
深度学习笔记
fast.ai-
深度学习笔记
-Part1-lesson2
数据集文件结构以「猫狗识别」为例训练结果epoch(训练次数)trainingloss(训练集损失值)validationloss(测试集损失值)accuracy(准确率)[epoch,trainingloss,validationloss,accuracy][0.0.049550.026050.98975]学习率寻找器(Learningratefinder)学习率的核心目的:训练过程,迭代的步伐
adi0229
·
2020-07-13 07:18
深度学习笔记
六:常见激活函数总结
一.激活函数概览基本上,入门深度学习的第一件事情就是了解”神经元”的构造,激活函数算是最基本的一个”部件”了吧.那激活函数到底有什么用呢?为什么需要激活函数?激活函数的定义是什么呢?下面这篇论文提供了激活函数的定义以及常见的”饱和”的定义,以及对于激活函数的一些思考.大家可以参考一下.NoisyActivationFunctions引用这篇论文的定义:激活函数就是映射,且函数几乎处处可导.那为什么
谢小小XH
·
2020-07-12 17:58
深度学习理论
MXNet动手学
深度学习笔记
:卷积神经网络实现
#coding:utf-8'''卷积神经网络'''importmxnetasmxfrommxnet.gluonimportnnfrommxnetimportndarrayasndfrommxnetimportgluontry:ctx=mx.gpu()_=nd.zeros((1,),ctx=ctx)except:ctx=mx.cpu()deftransform(data,label):returnd
视觉智能
·
2020-07-12 16:44
深度学习
MXNet动手学
深度学习笔记
:VGG神经网络实现
#coding:utf-8'''VGG网络'''frommxnet.gluonimportnnfrommxnetimportndarrayasndimportmxnetasmxfrommxnetimportinitimportosimportsyssys.path.append(os.getcwd())importutilsdefvgg_block(num_convs,channels):out=
视觉智能
·
2020-07-12 16:13
深度学习
防止过拟合(三):数据增强(增加训练样本)
深度学习笔记
:欠拟合、过拟合防止过拟合(一):正则化防止过拟合(二):Dropout数据增强(DateAugmentation)增加数据集大小是解决过拟合最重要的途径。
AI 菌
·
2020-07-12 15:06
深度学习理论
深度学习笔记
(五):欠拟合、过拟合
防止过拟合(一):正则化防止过拟合(二):Dropout防止过拟合(三):数据增强前言这里先介绍一个名词,模型容量:通俗的讲,模型的容量或表达能力,是指模型拟合复杂函数的能力。当模型的容量越大时,函数的假设空间就越大,就越有可能找到一个函数更逼近真实分布的函数模型。注:在卷积神经网络中,模型容量通常由网络层数、待优化参数的量来衡量。欠拟合、过拟合(1)当模型的容量过大时,网络模型除了学习到训练集数
AI 菌
·
2020-07-12 15:05
深度学习理论
深度学习笔记
(34):第五课第一周第一次作业
前言本实验实现了RNN和LSTM的正向传播和反向传播RNN实现一个cell#GRADEDFUNCTION:rnn_cell_forwarddefrnn_cell_forward(xt,a_prev,parameters):"""ImplementsasingleforwardstepoftheRNN-cellasdescribedinFigure(2)Arguments:xt--yourinput
良夜星光
·
2020-07-12 12:43
神经网络
吴恩达深度学习笔记
笔记
深度学习笔记
(14):第二课第一周第二次作业
剖析与心得这一部分也比较简单啦。主要是练习实践一下正则化的两个手段:L2正则化和dropoutdropoutdropout方法。先码一下知识点:1,L2正则化是在代价函数的尾部追加所有权重矩阵的F范数再乘以λ2m\frac{\lambda}{2m}2mλ.在反向传播的时候求导结果是在dwdwdw[i]后面追加了一个λm∗w\frac{\lambda}{m}*wmλ∗w[i](也就是:dzdzdz[
良夜星光
·
2020-07-12 12:43
吴恩达深度学习笔记
神经网络
笔记
深度学习笔记
(38):第五课第二周第二次作业
前言实现一个如图所示的句子情感判断器,找出对应的emoji(np序列把我小坑一下)v1#GRADEDFUNCTION:sentence_to_avgdefsentence_to_avg(sentence,word_to_vec_map):"""Convertsasentence(string)intoalistofwords(strings).ExtractstheGloVerepresentat
良夜星光
·
2020-07-12 12:43
神经网络
吴恩达深度学习笔记
笔记
深度学习笔记
(13):第二课第一周第一次作业
剖析与心得(代码很简单啦这次我们来探究初始化对于模型收敛速度与准确度的影响。我们主要从以下三种情况来进行这次的作业实验:1,全部初始化为零,我们将看到很差的成果2,初始化为数值较大的矩阵,我们将看到收敛速度较慢,拟合效果一般的情况。3,使用He方法,让初始矩阵适中大小。收敛效果好。数据初始化为零的结果性能确实很差,损失也没有真正降低,该算法的性能甚至不如随机猜测。为什么呢?让我们看一下预测的详细信
良夜星光
·
2020-07-12 12:42
吴恩达深度学习笔记
笔记
神经网络
深度学习笔记
(22):第四课第一周第一次作业
前言本次作业练习了卷积神经网络的一些基本操作,比如padding,卷积(convolution),还有池化(pooling),以及额外拓展了一下卷积神经网络的反向传播。其中,多个数据和多个频道使得维数还是蛮多的比较容易混乱,我们应当注意;另外就是对应关系不想清楚的话是有一点乱套的,我们需要把握好input和output之间下标的对应以及映射的对应,代码就会比较好写了。即:卷积的输出维度与输入维度相
良夜星光
·
2020-07-12 12:11
吴恩达深度学习笔记
笔记
神经网络
深度学习笔记
(25):第四课第二周第二次作业
前言本次实验实现了残差网络ResNet。残差网络的一个重要的思想是skip,这样可以加深神经网络,使得深层次的神经网络能够下降,进而训练出更好的神经网络来。这次实验我们可以从中了解到Reg50残差网络的结构,他的基本构成,并且使用论文所提供的参数搭建出一个这样的神经网络来。本次实验能够帮助大家学习更多的keras构建,更加熟练地搭建或者复现自己想要搭建的神经网络。代码IdentityBlock#G
良夜星光
·
2020-07-12 12:11
神经网络
吴恩达深度学习笔记
笔记
深度学习笔记
(24):第四课第二周第一次作业
前言本次作业讲了一些keras的基本用法,允许搭建自由度很高的CNN。代码(参数是参考的)Keras非常适合快速制作原型,你可以在很短的时间内,建立一个能够获得出色结果的模型。这是Keras中的模型构建示例:defmodel(input_shape):#Definetheinputplaceholderasatensorwithshapeinput_shape.Thinkofthisasyouri
良夜星光
·
2020-07-12 12:11
吴恩达深度学习笔记
笔记
神经网络
上一页
20
21
22
23
24
25
26
27
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他