E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《神经网络与深度学习》
070704:从前有只经常加班的程序猿,后来他死了.....
「人傻就要多读书」《
神经网络与深度学习
》神经网络和深度学习是一本免费的在线书。
知加
·
2019-11-29 19:42
推荐资源|
神经网络与深度学习
最近深度学习越来越火......就像这些字一样,越来越火......有一天,浩彬老撕在整理团队的学习资源,发现了一本好书:这本书就是《
神经网络与深度学习
》更重要的是:本书作者是一位量子物理学家,有兴趣的读者可以去其主页查看更多内容
浩彬老撕
·
2019-11-03 22:46
深度学习-入门与实践
生物
神经网络与深度学习
对比(1)生物神经网络:一般指生物的大脑神经元,细胞,触点等组成的网络,用于产生生物的意识,帮助生物进行思考和行动。
翁支和
·
2019-11-03 09:14
【深度学习与自然语言处理 01】循环神经网络RNN
本篇学习过程中参考了很多邱锡鹏老师的《
神经网络与深度学习
》,这本书对神经网络的推导非常详细,推荐同为入门者的大家阅读。前言深度学习,准确
mottled233
·
2019-09-29 19:22
机器学习
NLP
十三、神经网络梯度不稳定问题(即梯度消失 & 梯度爆炸问题)
本博客主要内容为图书《
神经网络与深度学习
》和NationalTaiwanUniversity(NTU)林轩田老师的《MachineLearning》的学习笔记,因此在全文中对它们多次引用。
独孤呆博
·
2019-09-26 18:12
七、改进神经网络的学习方法(3):过拟合及改进方法(正则化、Dropout)
本博客主要内容为图书《
神经网络与深度学习
》和NationalTaiwanUniversity(NTU)林轩田老师的《MachineLearning》的学习笔记,因此在全文中对它们多次引用。
独孤呆博
·
2019-09-26 18:11
神经网路与深度学习第一章练习
原文链接:https://github.com/shazhongcheng/machine_learing_study/blob/master/复旦-
神经网络与深度学习
/finished/chap1_warmup
我是蓝银草
·
2019-09-18 14:37
深度学习
二、神经网络的结构
本篇博客主要内容参考图书《
神经网络与深度学习
》,李航博士的《统计学习方法》NationalTaiwanUniversity(NTU)李宏毅老师的《MachineLearning》的课程,在下文中如果不正确的地方请积极指出
独孤呆博
·
2019-09-03 23:54
神经网络与深度学习
笔记
1、代价函数:,它是遍及每个训练样本代价的平均值。在实践中,利用梯度下降,需要为每个训练输入x单独地计算梯度值,然后求平均值。但训练输入数量过大时会花费很长时间,借助随机梯度下降的算法能加速学习。其思想是:通过随机选取小量训练输入样本(mini-batch)计算,进而估算梯度:在当前小批量数据中的所有训练样本上训练结束,再挑选另一随机选定的小批量数据去训练,直到用完所有的训练输入,这被称为完成了一
colourgxk
·
2019-08-30 17:07
《
神经网络与深度学习
》摘录与笔记
作者:liuz_notes来源:CSDN原文:https://blog.csdn.net/liuz_notes/article/details/99228814版权声明:本文为博主原创文章,转载请附上博文链接!目录0写在前面1感知机2神经网络的架构3反向传播算法3.1反向传播的四个基本方程(利用链式求导法则证明)3.2反向传播算法流程(反向传播误差得以修正权重和偏置)3.3梯度下降学习算法流程4改
liuz_notes
·
2019-08-12 11:07
学习成长
深度学习
神经网络
卷积神经网络
深度学习入门
【吴恩达课后编程作业】《
神经网络与深度学习
》
本文需要使用数据集dataset,点击下载。使用的运行环境是Python3.7。详细注释所有代码,以供自己复习使用。第一部分实验说明一、实验目的搭建一个能够【识别猫】的简单的神经网络二、实验过程建立神经网络的主要步骤:1—定义模型结构(例如输入特征的数量)2—初始化模型的参数3-循环3.1-计算当前损失(正向传播)3.2—计算当成梯度(反向传播)3.3—更新参数(梯度下降)三、代码函数说明—具体代
6个小石头
·
2019-07-26 11:08
深度学习
神经网络与深度学习
笔记(四):向量化以提高计算速度
我们在计算模型w的转置乘上x的时候,往往需要把w和x分别进行向量化然后运算,因为这样会使我们的计算机得到结果的时间更快,而且这种方法不管是在CPU还是在GPU上都是成立的,首先我们来看看代码:importnumpyasnpimporttimea=np.random.rand(1000000)b=np.random.rand(1000000)toc=time.time()c=np.dot(a,b)t
Geeksongs
·
2019-07-07 11:00
神经网络与深度学习
笔记(三):逻辑回归的损失函数
以上是之前我们所学习的sigmoid函数以及logistic函数,下面是我们代价函数的普遍定义形式:虽然普遍形式是有了,当然这个函数也仅仅是对第i个x才成立,如果想要得到连续的x的值则需要不断累加第i个的代价的值。如果想要上面的那种形式来作为代价函数,那么我们得到的代价函数不是凸函数因此不可能进行优化,于是引入了下面的这种形式来进行的,其具体形式是怎样的呢?我们来看看:代价函数是使用实际的值和拟合
Geeksongs
·
2019-07-05 13:00
nlp-journey: 一段学习nlp的痛苦旅程
基础基础知识常见问题实践笔记经典书目(百度云提取码:b5qq)算法入门算法的乐趣.原书地址深度学习DeepLearning.深度学习必读.原书地址NeuralNetworksandDeepLearning.入门必读.原书地址复旦大学《
神经网络与深度学习
mazaiyunshangfei
·
2019-07-04 22:26
深度学习与NLP
deep
learning
keras
tensorflow
nlp
ai
TensorFlow 2.0 / TF2.0 入门教程实战案例
用最白话的语言,讲解机器学习、
神经网络与深度学习
示例基于TensorFlow1.4和TensorFlow2.0实现相关链接知乎专栏机器学习笔试面试题,GithubTensorFlow2.0中文文档,GithubTensorFlow2.0
极客兔兔
·
2019-06-21 00:00
python
机器学习
tensorflow
关于LSTM的核心点理解
《
神经网络与深度学习
》5.为什么LSTM模型中既存在sigmoid又存在tanh两种激活函数?6.深度学习之GRU网络7.为什么相比于RNN,LSTM在梯度消失上表现更好?
达瓦里氏吨吨吨
·
2019-06-13 14:58
深度学习
那些年我看过的深度学习领域的神文(带注释版)
深度学习500问更新,GitHub2.6W星(附完整下载)-红色石头的文章-知乎https://zhuanlan.zhihu.com/p/71979604
神经网络与深度学习
(github,国人总结整理的
婉妃
·
2019-06-13 08:50
学习 《
神经网络与深度学习
》 笔记5
2019年6月5日上午11点反向传播的四个基本方程反向传播是对权重和偏置的变化影响代价函数过程的理解。其根本含义就是计算偏导数和。书中将对计算误差的流程转化到基本两个偏导数和上。为了便于理解,我们假设网络中有一个调皮鬼,这个调皮鬼在第l层第j个神经元上。当有输入进来时,他会在神经元的带权输入上增加一个很小的变化,是的神经元输出由变成,这个变化会向网络后面的层次进行传播,最终导致整个代价产生的改变。
颜值为0
·
2019-06-05 21:24
机器学习笔记
学习 《
神经网络与深度学习
》 笔记4
2019年5月28日晚上8点40对之前内容一个零碎的后续书中尝试了一组参数为隐藏层神经元30个,学习迭代期为30,小批量数据大小为10,学习速率η=3.0的网络识别率的峰值为95.42%,但是我们要注意的是我们在一直按照这组参数做实验训练网络也不一定能得到相同的结果,因为我们使用的是随即权重和偏置来初始化我们的网络,后面的训练过程就可能会有所出入。之后我们再吃尝试隐藏层神经元数量为100个,其余参
颜值为0
·
2019-05-28 23:52
机器学习笔记
学习 《
神经网络与深度学习
》 笔记3
2019年5月25日晚上十一点半使用梯度下降算法进行学习代价函数我们希望找到一个合理的网络权重和偏置,为了量化我们如何实现这个目标,我们定义了一个代价函数:其中ω是表示所有网络中权重的集合,b是所有的偏置,n是训练输入数据的个数,a表示输入为x时输出的向量,y(x)表示对应的期望的输出。我们把C称作二次代价函数,又叫做均方误差.当C≈0时,也就是对于所有的训练输入x,y(x)接近于输出a相反,如果
颜值为0
·
2019-05-26 01:19
机器学习笔记
学习 《
神经网络与深度学习
》 笔记2
2019年5月23日晚上十点S型神经元现在我们试图对于感知器网络中的权重和偏置进行一个微小的改动,试图只是引起输出一个微小的变化。例如对于手写体输出的识别,其中网络错误的将一幅“9”的图像识别成“8”的图像,我们尝试着通过对于权重和偏置微小的调整矫正这个错误。但是当我们这个网络是感知器网络的时候,这种情况是做不到的,相反的,对于这样一个微小的改动有时候会引起感知器输出的完全翻转,0变1或者1变0,
颜值为0
·
2019-05-23 23:23
机器学习笔记
学习 《
神经网络与深度学习
》 笔记1
2019年5月22日晚上八点半感知器这是一种人工神经元,我的理解感知器像是判断器,这个判断器有一输入和一个输出,而且这个判断要求设置一个阈值(threshold),输出一般是0或者1,超过这个阈值输出1,没有超过输出0。经过进一步的改进,对于不同的感知器也许会有不同的重要程度,所以我们可以对每个感知器设置不同的权重(w)以便于区分之间的重要性,一般是用输入值乘以该感知器的权重作为真正的输入然后再和
颜值为0
·
2019-05-22 21:48
机器学习笔记
NLP实战干货汇总
1、中文资料【1】复旦大学NLP上手教程:NLP-Beginner(2019.5)邱锡鹏老师《
神经网络与深度学习
》链接:https://nndl.github.io/复旦大学NLP上手教程:https:
NLP_victor
·
2019-05-19 21:30
NLP实战
对《
神经网络与深度学习
》(邱锡鹏 )的知识梳理(一)
第一部分·入门篇写在前面第一章绪论1.1人工智能1.2神经网络1.3机器学习1.4表示学习1.5深度学习1.6本书的组织结构1.7总结与深入阅读写在前面四月初,《
神经网络与深度学习
》又重新发布了,相信有不少人注意到这本书
berryfish
·
2019-04-29 19:29
《神经网络与深度学习》
[Archieve]
github.com/pdollar/edgesOnlineBook:NeuralNetworksandDeepLearningNeuralNetworksandDeepLearning中文翻译(Gitbook)
神经网络与深度学习
BinaryWoodB
·
2019-04-19 10:45
学习笔记(一):《
神经网络与深度学习
》(邱锡鹏)(2019.4.14)
改模型调参数的同时,用java和python实现今日的算法,用习惯了C++写算法,真是不习惯用java.抽时间阅读了邱老师的新书《
神经网络与深度学习
》,最近会做一些整理。
ruiding.neu
·
2019-04-14 14:09
复旦邱锡鹏教授公布《
神经网络与深度学习
》,中文免费下载 | 极客头条
点击上方↑↑↑蓝字关注我们~「2019Python开发者日」,购票请扫码咨询↑↑↑整理|Jane出品|AI科技大本营优质的人工智能学习资源一直是大家非常关注的,以往我们也推荐过很多优秀的课程、书籍等,不过大多来自国外的名校、名师,英文资源学起来吃力,而中文译本书籍费钱,一本中文书价格动辄好几十,精品书上百元也不足为奇。如果能有一本中文的、免费还优质的学习书,该有多好!现在还真有一本这样的新鲜出炉的
AI科技大本营
·
2019-04-08 19:41
神经网络与深度学习
: 使用神经网络识别手写数字1
1.感知机(感知神经元)一个感知机就是接受几个输入,并产生一个输出.输入与那条边对应的权重的乘积求和就是我们用来计算输出的第一步.我们通过比较这个和值与指定阈值的相对大小产生0和1不同的输出:2.感知机的结构名词我们改写原有的分段函数,将阈值用-b代替:这里的b我们称作偏置.3.S型神经元S型神经元同样有很多输入,但是不仅限于0和1,它们可以是0和1之间任意值,比如0.618对于不同的输入,也具有
Day_and_Night_2017
·
2019-04-03 20:34
Neural
Network
And
Deep
Learni
浅层神经网络:反向传播公式推导
借鉴:https://www.zxxblog.cn/article/109
神经网络与深度学习
课程笔记:https://blog.csdn.net/red_stone1/article/details/77799014
ML_akai
·
2019-04-02 15:33
神经网络与深度学习
人工智能教程
1
神经网络与深度学习
:1.1介绍神经网络;1.1.1什么是神经网络1.1.2监督学习型神经网络1.1.3什么使深度学习火起来了1.2神经网络基础;1.2.1如何将待预测数据输入到神经网络中1.2.2神经网络是如何进行预测的
Veritas丶
·
2019-03-28 00:00
11
人工智能
Neuroph初次尝试(Maven Java)
此文是阅读《
神经网络与深度学习
》按照书内容而进行的尝试。因为没有接触过Java,所以某些操作可能有些多余或错误,望见谅。
Clauria
·
2019-03-26 13:50
神经网络
Neuroph初次尝试(Maven Java)
此文是阅读《
神经网络与深度学习
》按照书内容而进行的尝试。因为没有接触过Java,所以某些操作可能有些多余或错误,望见谅。
Clauria
·
2019-03-26 13:50
神经网络
卷积
神经网络与深度学习
基础
发现了几篇写的比较好的文章,以后有类似的好文章直接吧网址粘贴这篇博客里面。卷积神经网络:https://mp.weixin.qq.com/s/287vamTc6QD4wo6maX0dbQCNN,RNN,前馈神经网络:https://mp.weixin.qq.com/s/2VhQOrZ5G-auQrXbwSLo7A机器学习与深度学习等6门课程吴恩达教学:https://study.163.com/c
帅的被人砍1996
·
2019-03-14 21:05
计算机视觉
卷积
神经网络与深度学习
基础
发现了几篇写的比较好的文章,以后有类似的好文章直接吧网址粘贴这篇博客里面。卷积神经网络:https://mp.weixin.qq.com/s/287vamTc6QD4wo6maX0dbQCNN,RNN,前馈神经网络:https://mp.weixin.qq.com/s/2VhQOrZ5G-auQrXbwSLo7A机器学习与深度学习等6门课程吴恩达教学:https://study.163.com/c
帅的被人砍1996
·
2019-03-14 21:05
计算机视觉
卷积神经网络综述
卷积神经网络是人工
神经网络与深度学习
相结合,通过反向传播算法训练卷积神经网络中的权重,从而实现深度学习的方法。
青春不迷、夜半听雨
·
2019-02-25 14:38
卷积神经网络
《
神经网络与深度学习
》~人工神经网络+单层(Perceptron)感知器原理及matlab实现
目录人工神经网络-->>神经元人工神经网络(ANN)神经元仿生:单层感知器性能评估函数:MATLAB实际操作实例人工神经网络-->>神经元人工神经网络(ANN)是迄今为止几乎最为成功的仿生学数学模型,是机器学习领域的热点,符合智能化机器的时代潮流有统一的模型框架,很多算法问题可以归为神经网络系统学习问题加以解决(SVM支持向量机)容易硬件化、元器件化、高集成化、并行化,性能优异神经网络设计具有较高
人工智能博士
·
2019-01-21 17:05
MATLAB
神经网络与深度学习
联发科AI芯片再度提升,Helio P90押对方向
从人工智能发展史来看,经历了早期以控制论和简单神经网络的推理时代、以逻辑过程与编程革命为基础的知识时代,再到如今以人工
神经网络与深度学习
的数据时代,人工智能技术进程在算法与算力的不断迭代中演化至今。
数码蜀黍
·
2018-12-19 16:06
吴恩达深度学习 | (6)
神经网络与深度学习
专项课程第四周学习笔记
课程视频课程PPT吴恩达深度学习专项课程共分为五个部分,本篇博客将介绍第一部分神经网络和深度学习专项的第四周课程:深层神经网络,深层指的是多隐藏层神经网络。截止目前我们已经学习了单隐层神经网络和逻辑回归的前向/反向传播,向量化以及随机初始化参数的重要性等内容。本周我们会把之前学的内容组合起来,构建深层神经网络。目录1.深层神经网络2.深层网络中的前向传播3.核对矩阵的维数4.为什么使用深层表示5.
CoreJT
·
2018-12-04 17:21
吴恩达深度学习
神经网络与深度学习
课程学习笔记(第二章)
第二章神经网络基础自学AndrewNg老师的神经网络公开课,作一些笔记,老师讲的非常详细,通俗易懂,感觉不需要做第一章的笔记,所以没有文章目录第二章神经网络基础2.1二分分类2.2logistic回归2.3代价函数2.4梯度下降法2.5导数2.6更多导数例子2.7计算图2.8计算图的导数计算2.9logistic回归中的梯度下降法2.10向量化2.11向量化的更多例子2.12向量化的logisti
P2Tree
·
2018-11-22 20:28
学习笔记
机器学习
神经网络
Andrew
Ng
吴恩达
神经网络与深度学习
——深度神经网络习题4:构建DNN架构
吴恩达
神经网络与深度学习
——深度神经网络习题4构建DNN架构包作业大纲初始化2层NNL层NN前向传播2层NN线性部分激活函数线性+激活函数L层NN代价函数反向传播2层NN线性部分激活函数+线性部分L层NN
cherry1307
·
2018-11-03 12:23
神经网络与深度学习
吴恩达
神经网络与深度学习
——深度神经网络
吴恩达
神经网络与深度学习
——深度神经网络深度神经网络符号前向传播矩阵维度m个样本为什么使用深层表示搭建深层神经网络块正向传播和反向传播前向和反向传播前向传播反向传播参数和超参数和大脑的关系深度神经网络符号
cherry1307
·
2018-11-02 23:07
神经网络与深度学习
吴恩达
神经网络与深度学习
——浅层神经网络习题3
吴恩达
神经网络与深度学习
——浅层神经网络习题3浅层神经网络包数据集X和Y的尺寸可视化逻辑回归神经网络定义神经网络结构初始化参数前向传播代价函数反向传播梯度下降model预测测试调整隐藏层大小其他数据集的性能浅层神经网络实现具有单个隐藏层的两分类神经网络使用具有非线性激活
cherry1307
·
2018-11-02 09:40
神经网络与深度学习
吴恩达
神经网络与深度学习
——浅层神经网络
吴恩达
神经网络与深度学习
——浅层神经网络神经网络概述神经网络表示计算神经网络的输出m个样本的向量化forloop向量化向量化实现的解释激活函数sigmoidtanh函数ReLu函数LeakyReLu函数为什么需要非线性激活函数激活函数的导数
cherry1307
·
2018-11-02 09:13
神经网络与深度学习
吴恩达
神经网络与深度学习
——神经网络基础习题1
吴恩达
神经网络与深度学习
——神经网络基础习题pythonnumpy基础用numpy建立一个基础函数sigmoid函数math库numpy库Sigmoid导数sigmoid_derivative.pyReshapingarraysNormalizingrowsBroadcastingandthesoftmaxfunctionVectorizationImplementtheL1andL2lossfu
cherry1307
·
2018-11-02 09:02
神经网络与深度学习
吴恩达
神经网络与深度学习
——神经网络基础习题2
吴恩达
神经网络与深度学习
——神经网络基础习题2神经网络思维的逻辑回归判断图像上是否有猫图像预处理问题叙述包可视化数据集尺寸reshape标准化数据集总结学习算法的一般结构构建我们算法的各个部分sigmoid
cherry1307
·
2018-11-02 09:29
神经网络与深度学习
吴恩达
神经网络与深度学习
——神经网络概述
吴恩达
神经网络与深度学习
——神经网络基础神经网络基础2.1二分分类识别图像中是否有猫一些符号2.2logistic回归2.3Logistic回归损失函数损失函数代价函数2.4梯度下降梯度下降法的思想2.5
cherry1307
·
2018-11-02 09:56
神经网络与深度学习
逻辑回归(Logistic Regression)对非线性可分数据集分类效果差的原因
开篇学习了吴恩达
神经网络与深度学习
第一部分的课程后,赶紧做一做课后习题巩固一下。于是把第二周和第三周的课后编程练习跟着相关资料一步一步的理解与实现。对逻辑回归和单隐层神经网络有了逐渐深入的理解。
CharlesHy
·
2018-10-21 22:51
反向传播公式推导
参考:《
神经网络与深度学习
》https://legacy.gitbook.com/book/xhhjin/neural-networks-and-deep-learning-zh该笔记主要是反向传播公式的推导
feixian15
·
2018-10-17 23:04
深度学习与计算机视觉
算法工程师之路——Deeplearning.ai
神经网络与深度学习
篇Week1
写在前面——一点碎碎念天将降大任于斯人也,必先苦其心志,劳其筋骨,饿其体肤,空乏其身,行拂乱其所为。——《孟子•告子下》尘埃落定,在好好学(wan)习(shua)三年之后,我成功侥幸收获了UESTCMSE的Offer,心里万分激动,想着BrightFuture应该是在向着自己招手了,hhhh。兴奋劲儿已过,回归现实,需要好好做下未来的学习生活规划。其实在未来选择无非两种:继续攻读PhD或是工作。无
Mr_Rum
·
2018-10-07 15:27
机器学习
算法
深度学习
神经网络学习笔记
神经网络学习笔记前言本笔记主要是我研读《
神经网络与深度学习
》一书之后,对重要知识点的整理和公式的推导。这里讲的神经网络是最简单的前馈神经网络,学习算法采用基于误差反向传播的(随机)梯度下降算法。
_Daibingh_
·
2018-10-03 20:38
机器学习
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他