E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《神经网络与深度学习》
Coursera 吴恩达《
神经网络与深度学习
》第三周编程作业
#Packageimportsimportnumpyasnpimportmatplotlib.pyplotaspltfromtestCasesimport*importsklearnimportsklearn.datasetsimportsklearn.linear_modelfromplanar_utilsimportplot_decision_boundary,sigmoid,load_pla
dt_cumt_xjtu
·
2018-09-30 18:03
吴恩达深度学习专项课程课后作业
大数据----机器学习---神经网络
1.
神经网络与深度学习
的发展历程:2.神经网络与大脑神经元神经网络的起源、结构、个体间的信息交互方式是以我们大脑神经元为模板的,我们的大脑神经元如下所示:3.神经网络源头--M-P神经元模型M-P模型问题
j_ys
·
2018-09-25 16:57
DeepLearning.ai 学习资源汇总
在线课程资源学习笔记目录课后作业目录以下会更新博主个人学习中遇到的问题记录,供大家参考第一章
神经网络与深度学习
(NeuralNetwork&Deeplearning)DeepLearning.ai学习笔记
DZzz丶
·
2018-09-19 10:00
优质资源汇总
github.com/ty4z2008/Qix/blob/master/pg.mdpython爱好者社区学习资源汇总https://ask.hellobi.com/blog/python_shequ/14009
神经网络与深度学习
awakeljw
·
2018-08-13 14:54
python
03.
神经网络与深度学习
-第三周-浅层神经网络
1.神经网络的层数如图的简单神经网络,隐藏层和输出层称为第1层和第2层,可以将输入层称为第0层;一般来讲习惯称这个神经网络是一个双层神经网络/单隐藏层神经网络。2.图一中的神经网络的向量化3.几种激活函数(1)sigmoid函数:有梯度消失问题;输出不是以0为中心,值区间在0-1之间,优化困难;收敛缓慢。因此,除非用在二分类的输出层,不然几乎不用。其它场合,tanh函数几乎都比它更优越。导数:(2
@wefree
·
2018-08-06 20:42
AI
AI之我见我行
神经网络(二)——深入理解反向传播的四个基本方程
本章参考书籍《
神经网络与深度学习
》以及三蓝一棕的B站视频。
ChiiZhang
·
2018-08-06 10:24
深度学习
机器学习深度学习相关书籍简评
有个小缺点是代码用的是python2,感觉将来趋势是python3(2)
神经网络与深度学习
,michaelnielsen,这本书也很不错,网上可以直接下载,有中文翻译版,翻译质量不错。
___ddc___
·
2018-08-05 21:41
深度学习
机器学习
十、如何选择神经网络的超参数
本博客主要内容为图书《
神经网络与深度学习
》和NationalTaiwanUniversity(NTU)林轩田老师的《MachineLearning》的学习笔记,因此在全文中对它们多次引用。
kingzone_2008
·
2018-07-30 21:36
深度学习
吴恩达深度学习课程笔记(一):
神经网络与深度学习
吴恩达深度学习课程笔记(一):
神经网络与深度学习
吴恩达深度学习课程笔记(一):
神经网络与深度学习
第一周:深度学习概论第二周神经网络基础2.1二分类2.2逻辑回归2.3逻辑回归的代价函数2.4梯度下降2.5
lovecencen1893
·
2018-07-10 12:16
机器学习
深度学习
神经网络与深度学习
笔记(五)
第五章深度神经网络为何很难训练在深度网络中,不同的层学习的速度差异很大。当网络中后面的层学习的情况很好的时候,先前的层常常会在训练时停滞不变,基本学不到东西。根本原因是学习的速度下降了,学习速度的下降和基于梯度的学习技术有关。5.1消失的梯度问题对于MNIST分类问题,理论上说,增加一个神经网络额外的隐藏层应该让网络能够学到更加复杂的分类函数,然后再分类时表现得更好,但是事情并不是这样子的,随着隐
Jayxbx
·
2018-07-09 11:00
初学深度学习
神经网络与深度学习
笔记(四)
第四章神经网络可以计算任何函数的可视化证明神经网络的一个最显著的事实就是它可以计算任何的函数。不管这个函数是什么样,总会确保有一个神经网络能够对任何可能的输入xx,其值f(x)f(x)(或者某个足够准确的近似)是网络的输出。即使这个函数有很多输入和输出,这个结果都是成立的。这个结果表明神经网络拥有一种普遍性。4.1两个预先声明第一点,不是说一个网络可以被用来准确地计算任何函数。而是说,我们可以获得
Jayxbx
·
2018-07-08 20:35
初学深度学习
神经网络与深度学习
笔记(三)
第三章改进神经网络的学习方法3.1交叉熵代价函数理想的情况:我们希望神经网络可以从错误中快速地学习。例子:只包含一个输入的神经元,要做的是让输入1转化为0.一开始的时候,随机初始化权重w=0.6w=0.6和偏置b=0.9b=0.9,那么初始神经元的输出是0.82。设置学习率η=0.15η=0.15,使用二次函数作为代价函数C=12(y−a)2C=12(y−a)2。训练之后,神经元的输出、权重、偏置
Jayxbx
·
2018-07-07 22:33
初学深度学习
吴恩达 深度学习
神经网络与深度学习
神经网络基础 课程作业
Part1:PythonBasicswithNumpy(optionalassignment)1-BuildingbasicfunctionswithnumpyNumpyisthemainpackageforscientificcomputinginPython.Itismaintainedbyalargecommunity(www.numpy.org).Inthisexerciseyouwill
Andy Wang
·
2018-07-07 17:35
USTC进击之旅
《深度学习》吴恩达--学习笔记
神经网络与深度学习
笔记(二)
第二章反向传播算法如何工作如何计算代价函数的梯度?——反向传播反向传播的核心:一个代价函数C关于任何权重w(或者偏置b)的偏导数的表达式。2.1热身:神经网络中使用矩阵快速计算输出的方法2.2关于代价函数的两个假设第一个假设第二个假设:代价函数可以写成神经网络输出的函数2.3Hadamard乘积Hadamard乘积表示两个矩阵按元素求乘积。如:2.4反向传播四个基本方程
Jayxbx
·
2018-07-07 10:56
初学深度学习
神经网络与深度学习
笔记(一)
第一章使用神经网络识别手写数字1.1感知器一个感知器一个感知器接受几个二进制输入,并产生一个二进制输出:神经元的输出:0或者1,由分配权重后的总和大于或小于阈值来决定。权重衡量这个输入的重要程度,权重被赋予更大的值,则意味着这个输入对于结果很重要。多个感知器第一列感知器权衡输入做出三个非常简单的决定;第二列感知器中的每一个都在权衡第一列的决策结果并做出决策。以这种方式,第二列中的感知器比第一列的感
Jayxbx
·
2018-07-07 10:11
初学深度学习
深入浅出
神经网络与深度学习
-深度学习(四)
1深度学习现在IT界人工智能、深度学习、机器学习很火,都能说出个123来,但真正知道他们的关系的我想只有真正去我们先来看下深度学习是个什么东东。他和人工智能,神经网络有什么关系?l深度学习网络:这里明确具体的概念,他是具有五层至十层,甚至更多的神经网络,并且引入了更有效的算法,而传统神经网络一般只有2层至3层神经网络。深度学习首先利用无监督学习对每一层进行逐层训练去学习特征;每次单独训练一层,并将
浮生梦浮生
·
2018-06-05 19:22
深度学习与神经网络
人工智能
机器学习
神经网络和深度学习系统教程
神经网络和深度学习系列:
神经网络与深度学习
(1)——感知器本系列全部为原创文章,如果想跟随作者的脚步,可以关注微信公众号极客原创。回复“”gailv“”,免费得概率论和数理统计视频下载地址!
skyme
·
2018-06-05 15:00
深入浅出
神经网络与深度学习
--神经元感知机单层神经网络介绍(-)
1概述写
神经网络与深度学习
方面的一些知识,是一直想做的事情。但本人比较懒惰,有点时间想玩点游戏呀什么的,一直拖到现在。也由于现在已经快当爸了,心也沉了下来,才能去梳理一些东西。
浮生梦浮生
·
2018-05-31 18:18
深度学习与神经网络
[
神经网络与深度学习
] Shallow Neural Networks习题解析
这是[
神经网络与深度学习
]课程第三周的习题,一共10道。解答:本课程中[i]表示第i层神经网络,(i)代表第i个样本,而下标i表示某层神经网络上第i个神经元。
云水木石
·
2018-05-31 16:11
0.人工智能
[
神经网络与深度学习
] Neural Network Basics习题解析
要完成本周的习题,需要对NumPy和矩阵运算比较熟悉。如果做题时不太确定答案是哪一个,可以将代码运行一下,就可以很清楚答案。比如我开始不太清楚矩阵的AxB运算和numpy.dot(A,B)有什么不同,实际运行之后才明白x运算是元素逐一相乘,而numpy.dot则是数学上的矩阵乘法运算。闲话少说,下面就来逐个分析习题。通常一个神经元就是对输入做线性运算,然后使用激活函数(sigmoid、tanh、R
云水木石
·
2018-05-24 09:00
0.人工智能
无需深度学习框架——利用Python实现一个神经网络
MichaelNielsen
神经网络与深度学习
mnist代码的Python3版本,并在代码中做了详细注释。定义一个神经网络定义一个神经网络类,在类方法中,最重要的是梯度下降法中的,即SGD#!
愤怒的Tudou
·
2018-05-22 09:55
神经网络与深度学习
一、人工神经网络初步
本文转载这里写链接内容“””人工神经网络其实在很久以前就被提出来了,苦于当时没有足够强大的硬件(比如现在也有点烂大街的GPU)去支撑理论的实践(其实还有一部分原因是面对图像这样的高维数据,最初的神经网络确实没有做卷积神经网络这样特殊的处理,从而参数极大),因此消停了非常长的时间。当然,它的热度在近两年被推到了一个近乎极端的状态,似乎是个好点的实验室,是个大型点的互联网公司,不说自己会点深度学习和神
junchengberry
·
2018-05-15 00:08
深度学习学习历程
吴恩达深度学习流程3部分笔记--强烈推荐(这里是重点Review的)
第一个是github的https://github.com/marsggbo/deeplearning.ai_JupyterNotebooks,以下就是:第一章
神经网络与深度学习
(NeuralNetwork
黑洲非人lyf
·
2018-05-13 18:13
深度学习
机器学习
深度学习
吴恩达-神经网络和深度学习课程-学习心得(一)
前言:陆陆续续学完了吴恩达老师在网易云课堂上开设的深度学习工程师微专业的部分内容(01.
神经网络与深度学习
,04.卷积神经网络,02.改善深层神经网络),在进一步应用实践之前,对之前的学习的内容做个回顾
lixincan_hit
·
2018-04-22 21:10
神经网络与深度学习
(五):深度网络训练难点
想象一下你是一位工程师,需要从头开始设计一台电脑。有一天你正在办公室里设计你的逻辑电路,设置AND门,OR门,等等,然后你的老板进来了,带来一个坏消息:客户加了一个不可思议的需求,就是整个电脑的设计必须只包含两层,如下图:你彻底傻了,跟老板抱怨:客户疯了吧。老板说:我也觉得他们疯了,但是客户是上帝,他们要什么我们就得给什么。事实上,也不能说客户完全疯了。假定你的AND逻辑电路的输入可以是任意多个,
jony0917
·
2018-04-19 11:57
神经网络与深度学习
(二):BP算法
上一章中我们学习了神经网络怎么通过梯度下降算法学习权重和偏移的。但是我们的讨论中缺了一块:我们没有讨论如何去计算损失函数的梯度。本章中,我将介绍一个计算梯度的快速算法:逆向传播算法(backpropagation)。BP算法在1970年代首次被提出,但是直到DavidRumelhart,GeoffreyHinton,和RonaldWilliams1986年的一篇论文,人们才意识到它的重要性。论文中
jony0917
·
2018-04-19 10:48
学习Andrew Ng的
神经网络与深度学习
的课程Part(一) 笔记一
2.1二分类2.2Logisticsregression2.3logisticsregressioncostfunction2.4Gradientdescent
Roy-Better
·
2018-04-03 22:29
Andrew
Ng课程学习笔记
2.5 《
神经网络与深度学习
》课程系列之导数
在这节课里,我想让你对微积分和导数有直观的理解,或许你认为自从大学后,你再也没有接触微积分,这取决于你什么时候毕业,也许有一段时间了。如果你顾虑到这点,请不要担心,你并不需要非常深入理解微积分,就能高效应用神经网络和深度学习。我在这里画了一个函数,f(a)=3a,它是一条直线,直观的解释导数。假定a=2,那么f(a)等于a的3倍,等于6。也就是说,如果a=2,那么函数f(a)=6,。我们稍微改变a
杜佳豪
·
2018-04-03 21:01
人工智能
神经网络与神经学习
2.4 吴恩达《
神经网络与深度学习
》——梯度下降法
【上节回顾】在上一讲里,我们学习了logistic回归模型,也知道了损失函数。损失函数,是衡量单一训练样例的效果。你还知道了成本函数,成本函数用于衡量参数w和b的效果,在全部训练集上来衡量。下面我们讨论如何使用梯度下降法,来训练或学习训练集上的参数w和b。回顾一下,这里是熟悉的logistic回归算法。第二行是成本函数J,成本函数J是参数w和b的函数,它被定义为平均值,即1/m的损失函数之和。损失
杜佳豪
·
2018-04-03 21:27
人工智能
DeepLearning.ai code笔记1:
神经网络与深度学习
说明一下,这和系列是对编程作业的作一些我认为比较重要的摘抄、翻译和解释,主要是为了记录不同的模型的主要思想或者流程,以及一些coding中常见的错误,作为查漏补缺之用。作业链接:https://github.com/Wasim37/deeplearning-assignment。感谢大佬们在GitHub上的贡献。1、随机数的生成np.random.randn()和np.random.rand()的
Dod_Jdi
·
2018-04-02 22:09
机器学习
深度学习
吴恩达深度学习编程作业梳理
DeepLearning.ai code笔记1:
神经网络与深度学习
说明一下,这和系列是对编程作业的作一些我认为比较重要的摘抄、翻译和解释,主要是为了记录不同的模型的主要思想或者流程,以及一些coding中常见的错误,作为查漏补缺之用。作业链接:https://github.com/Wasim37/deeplearning-assignment。感谢大佬们在GitHub上的贡献。1、随机数的生成np.random.randn()和np.random.rand()的
Dod_Jdi
·
2018-04-02 22:09
机器学习
深度学习
吴恩达深度学习编程作业梳理
eary stop(收藏,待整理)
Tensorflow实现卷积神经网络,用于人脸关键点识别-
神经网络与深度学习
-炼数成金-Dataguru专业数据分析社区http://f.dataguru.cn/thread-843155-1-1.html
kyang624823
·
2018-03-29 09:21
学完吴恩达全部深度学习课程,这有一份课程解读
目前Coursera上可用的课程中,有三门课非常值得关注:1.
神经网络与深度学习
(NeuralNetworks
杜佳豪
·
2018-03-22 19:29
人工智能
人工智能之路
深度学习系列教程
出处:http://blog.csdn.net/jiangjunshow目录请先点击下面查看序言序言1
神经网络与深度学习
1.1介绍神经网络1.1.1什么是神经网络1.1.2监督学习型神经网络1.1.3什么使深度学习火起来了
mahoon411
·
2018-03-18 21:35
机器学习
神经网络
前两天,我读到MichaelNielsen的开源教材《
神经网络与深度学习
》(NeuralNetworksandDeepLearning),意外发现里面的解释非常好懂。下面,我就按照这本书,
pragma_g
·
2018-02-23 11:11
机器视觉
caffe+神经网络+深度学习全零基础系列学习链接
caffe+神经网络+深度学习,系列学习教程0.NeuralNetworksandDeepLearning(
神经网络与深度学习
)-学习笔记https://www.cnblogs.com/LittleHann
Snoopy_Dream
·
2018-02-17 18:21
caffe
Coursera吴恩达《
神经网络与深度学习
》课程笔记(5)-- 深层神经网络
上节课我们主要介绍了浅层神经网络。首先介绍神经网络的基本结构,包括输入层,隐藏层和输出层。然后以简单的2layerNN为例,详细推导了其正向传播过程和反向传播过程,使用梯度下降的方法优化神经网络参数。同时,我们还介绍了不同的激活函数,比较各自优缺点,讨论了激活函数必须是非线性的原因。最后介绍了神经网络参数随机初始化的必要性,特别是权重W,不同神经元的W不能初始化为同一零值。本节课是对上节课的延伸和
放牛娃不吃草
·
2018-02-05 18:12
AI
AI实战派
浅层
神经网络与深度学习
对比
一、BP神经网络衰落1986年,GeoffreyHinton和DavidRumelhart联合在Nature上发表论文,将BP算法用于神经网络模型,实现了对权重参数的快速计算。1990年,YannLeCun发表文章,采用BP神经网络实现对手写数字的识别,这可以被视作神经网络的“第一个”重大应用。俄罗斯学者VladmirVapnik在1963年提出的支撑向量机(SupportVectorMachin
double_black
·
2018-01-09 21:45
《
神经网络与深度学习
》编程笔记
环境建议使用Anaconda下载链接:https://www.anaconda.com/download/Theano+Python3.5项目结构)加载数据源importnumpyasnpimportgzipimportpickledefload_data():f=gzip.open('./data/mnist.pkl.gz','rb')training_data,validation_data,
Star先生
·
2017-12-25 15:08
python
深度学习
神经网络
机器学习
【
神经网络与深度学习
】卷积与反卷积
1.卷积与反卷积如上图演示了卷积核反卷积的过程,定义输入矩阵为I(4×4),卷积核为K(3×3),输出矩阵为O(2×2):卷积的过程为:Conv(I,W)=O反卷积的过称为:Deconv(W,O)=I(需要对此时的O的边缘进行延拓padding)2.步长与重叠卷积核移动的步长(stride)小于卷积核的边长(一般为正方行)时,变会出现卷积核与原始输入矩阵作用范围在区域上的重叠(overlap),卷
Zhang_P_Y
·
2017-12-13 15:40
神经网络与深度学习
【计算机视觉】【
神经网络与深度学习
】深度学习在图像超分辨率重建中的应用
摘要:超分辨率技术(Super-Resolution)是指从观测到的低分辨率图像重建出相应的高分辨率图像,在监控设备、卫星图像和医学影像等领域都有重要的应用价值。SR可分为两类:从多张低分辨率图像重建出高分辨率图像和从单张低分辨率图像重建出高分辨率图像。超分辨率技术(Super-Resolution)是指从观测到的低分辨率图像重建出相应的高分辨率图像,在监控设备、卫星图像和医学影像等领域都有重要的
Zhang_P_Y
·
2017-12-08 22:14
计算机视觉
神经网络与深度学习
神经网络与深度学习
_吴恩达 学习笔记(一)
第二章神经网络基础符号说明样本:(x,y),x∈Rnx,y∈{0,1}m个训练样本:{(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))}训练样本:m_train测试样本:m_test总样本:X=(x(1),x(2),…,x(m))X.shape=(nx,m)Y=(y(1),y(2),…,y(m))Y.shape=(1,m)模型参数:w,b1Logistic回归1.0使用场
chucksonwheel
·
2017-12-03 10:10
神经网络
深度学习
神经网络
深度学习
学习笔记
AI_Cousera笔记(吴恩达)_开篇
开设的课程:1:
神经网络与深度学习
2:改善深层神经网络:超参数调试、正则化以及优化3:结构化机器学习项目4:卷积神经网络5:序列模型课程的目标:第一门课:学习神经网络和深度学习的基础、如何建立神经网络(
笨小白学python的日子
·
2017-12-01 10:26
读书笔记
吴恩达 《
神经网络与深度学习
》笔记(持续更新)
第一周深度学习概论1.2什么是神经网络?Theterndeeplearningreferstotrainingneuralnetworks.“深度学习”指的是训练神经网络“修正线性单元”即ReLU单神经元神经网络。1.3用神经网络进行监督学习几乎目前所有的神经网络的经济价值都在“监督学习”的环境下面。神经网络在预测广告方面做得非常好。过去几年里,计算机视觉,也有了很大的进展。这就要感谢深度学习。语
songyuequan
·
2017-11-23 11:33
深度学习
神经网络
《
神经网络与深度学习
》读后感
上周六公选课老师讲了一些新知识,并推荐我们去看这本书,看完之后,我发现我长知识了。书中第一章,使用神经网络识别手写数字,讲到了感应器,而神经网络和深度学习的角色:作者已经探讨过机器学习会成为⼀个技术上的新机遇创建者。那么神经网络和深度学习作为⼀种技术又会有什么样独特的贡献呢?为了更好地回答这个问题,作者在文中回顾了历史。而在1980年代,人们对神经⽹络充满了兴奋和乐观,尤其是在BP被大家广泛知晓后
qazuhb
·
2017-11-19 00:47
神经网络与深度学习
的读后感
神经网络是基于对机器对于人脑的研究,使机器学习技术正在走进数据中心,它既能改善内部IT管理,还能使关键业务流程更加智能化。你可能已经听说过深度学习的神秘性了,它涉及到一切领域,从系统管理到自动驾驶汽车。到底深度学习是一个刚刚在世人面前揭开面纱的非常聪明的新兴人工智能,还是仅仅一种营销宣传手段,将已有的复杂机器学习算法重新包装成为新的卖点?深度学习无疑激发了大众的想象力,但它其实并不那么复杂。在技术
张少博
·
2017-11-18 08:45
《
神经网络与深度学习
》读后感
这本书的目的,在书中都已经表达出来了,是为了让读者更好地去深刻理解神经⽹络和深度学习,⽽不是像⼀张冗⻓的洗⾐单⼀样模糊地列出⼀堆想法。如果你很好理解了核⼼理念,你就可以很快地理解其他新的推论。而我们可以说它是源于生物,而一种被称为“感知器”的⼈⼯神经元。感知器在20世纪五、六⼗年代由科学家FrankRosenblatt发明在神经⽹络中,代价函数C是⼀个关于所有权重和偏置的多元函数,因此在某种意义上
帥氣的名字
·
2017-11-18 08:19
神经网络与深度学习
本书结合日常生活中的寻常小事,生动形象地阐述了
神经网络与深度学习
的基本概念、原理和实践,案例丰富,深入浅出。对于正在进入人工智能时代的我们,这些内容无疑可以帮助我们更好地理解人工
I颜竹I
·
2017-11-18 07:23
《
神经网络与深度学习
》读后感
《
神经网络与深度学习
》是一本启发我们利用全新编程和技术去分析学习计算机识别问题的书籍。神经网络,一种受生物学启发的编程范式。可以让计算机以观测数据中学习。
请叫我熊爸
·
2017-11-18 00:07
【
神经网络与深度学习
】生成式对抗网络GAN研究进展(五)——Deep Convolutional Generative Adversarial Nerworks,DCGAN
【前言】本文首先介绍生成式模型,然后着重梳理生成式模型(GenerativeModels)中生成对抗网络(GenerativeAdversarialNetwork)的研究与发展。作者按照GAN主干论文、GAN应用性论文、GAN相关论文分类整理了45篇近两年的论文,着重梳理了主干论文之间的联系与区别,揭示生成式对抗网络的研究脉络。本文涉及的论文有:GoodfellowIan,Pouget-Abadi
Zhang_P_Y
·
2017-11-09 21:37
神经网络与深度学习
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他