E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《深度学习笔记》
下载量过百万的吴恩达机器学习和
深度学习笔记
更新了!(附PDF下载)
2018-4-28公布了
深度学习笔记
的word和markdown文件!目前仅在github渠道,累计
风度78
·
2020-07-01 23:09
深度学习Note
记录一下个人看了王小草
深度学习笔记
之后的理解,目录如下,0.Overview1.逻辑回归2.神经元感知器3.DNNvsCNNvsRNN4.CNN-输入层-去均值-归一化-PCA-白化-卷积计算层-激励层
chenfh5
·
2020-07-01 22:38
吴恩达
深度学习笔记
(27)-深度学习与大脑的区别
深度学习和大脑有什么关联性吗?回答是:关联不大。那么人们为什么会说深度学习和大脑相关呢?当你在实现一个神经网络的时候,那些公式是你在做的东西,你会做前向传播、反向传播、梯度下降法,其实很难表述这些公式具体做了什么,深度学习像大脑这样的类比其实是过度简化了我们的大脑具体在做什么,但因为这种形式很简洁,也能让普通人更愿意公开讨论,也方便新闻报道并且吸引大众眼球,但这个类比是非常不准确的。一个神经网络的
极客Array
·
2020-07-01 11:26
深度学习笔记
-----基于TensorFlow2.2.0代码练习(第二课)
写在正文之前:这篇紧接着上一篇的博文
深度学习笔记
-----基于TensorFlow2.2.0代码练习(第一课)主要写的是TensorFlow2.0的代码练习,跟随着KGPTalkie的【TensorFlow2.0
zdswyh123
·
2020-06-30 12:50
深度学习
深度学习笔记
-----基于TensorFlow2.2.0代码练习(第五课)
**写在正文之前:**这篇紧接着上一篇的博文
深度学习笔记
-----基于TensorFlow2.2.0代码练习(第三课&第四课)主要写的是TensorFlow2.0的代码练习,跟随着[KGPTalkie的
zdswyh123
·
2020-06-30 12:50
深度学习
tensorflow
深度学习
神经网络
深度学习笔记
-----基于TensorFlow2.2.0代码练习(第三课&第四课)
写在正文之前:这篇紧接着上一篇的博文
深度学习笔记
-----基于TensorFlow2.2.0代码练习(第二课)主要写的是TensorFlow2.0的代码练习,跟随着[KGPTalkie的【TensorFlow2.0
zdswyh123
·
2020-06-30 12:50
深度学习
深度学习笔记
-----基于TensorFlow2.2.0代码练习(第七课)
写在正文之前:这篇紧接着上一篇的博文
深度学习笔记
-----基于TensorFlow2.2.0代码练习(第五课)主要写的是TensorFlow2.0的代码练习,跟随着[KGPTalkie的【TensorFlow2.0
zdswyh123
·
2020-06-30 12:50
深度学习
tensorflow
深度学习
大佬原创 | 深度学习60讲453页pdf下载
目前也正在撰写《
深度学习笔记
》一书已成
视学算法
·
2020-06-30 12:39
吴恩达
深度学习笔记
(70)-何时需要端到端的深度学习?
是否要使用端到端的深度学习?(Whethertouseend-to-endlearning?)假设你正在搭建一个机器学习系统,你要决定是否使用端对端方法,我们来看看端到端深度学习的一些优缺点,这样你就可以根据一些准则,判断你的应用程序是否有希望使用端到端方法。这里是应用端到端学习的一些好处,首先端到端学习真的只是让数据说话。所以如果你有足够多的(x,y)数据,那么不管从x到y最适合的函数映射是什么
极客Array
·
2020-06-30 04:50
神经网络-误差反向传播算法(一)
图解
深度学习笔记
误差反向传播算法误差反向传播算法通过比较实际输出和期望输出得到误差信号,把误差信号从输出层逐层向前传播得到各层的误差信号,再通过调整各层的连接权重以减小误差。
Xu_mWam
·
2020-06-30 03:40
神经网络与深度学习
原创的《深度学习 60 讲.pdf》下载
目前也正在撰写《
深度学习笔记
》一书已成
算法channel
·
2020-06-30 03:41
动手入门
深度学习笔记
-线性回归&softmax回归
线性回归从0开始的实现importtorchimportmatplotlib.pyplotaspltimportnumpyasnpimportrandomfromIPythonimportdisplay###显示torch版本print(torch.__version__)##生成1000个样本数据num_inputs=2num_examples=1000true_w=[2,-3.4]true_b
mensyne
·
2020-06-29 23:50
动手入门深度学习
深度学习笔记
(一):卷积层+激活函数+池化层+全连接层
写在前面:大家好!我是【AI菌】,一枚爱弹吉他的程序员。我热爱AI、热爱分享、热爱开源!这博客是我对学习的一点总结与记录。如果您也对深度学习、机器视觉、算法、Python、C++感兴趣,可以关注我的动态,我们一起学习,一起进步~我的博客地址为:【AI菌】的博客我的Github项目地址是:【AI菌】的Github本教程会持续更新,如果对您有帮助的话,欢迎star收藏~文章目录1.卷积层1.1单通道输
AI 菌
·
2020-06-29 19:38
深度学习笔记
深度学习笔记
三:线性神经网络,delta学习规则,梯度下降法
这里我们提出一个神经网络解决异或问题异或问题出现四个点,此时一条直线无法正确地区分出正负样本X=np.array([[1,0,0],[1,0,1],[1,1,0],[1,1,1]])Y=np.array([-1,1,1,-1])x1=[0,1]y1=[1,0]x2=[0,1]y2=[0,1]于是我们引入线性神经网络线性神经网络解决线性不可分问题下面给出实现代码:importnumpyasnpimp
wjd1994
·
2020-06-29 19:02
人工智能
吴恩达
深度学习笔记
(第五课时)
title:吴恩达
深度学习笔记
(第五课时)categories:人工智能tags:nlpdate:2019-12-0516:22:04cover:https://www.github.com/OneJane
布丁和尚
·
2020-06-29 17:01
人工智能
吴恩达
深度学习笔记
(第三课时)
title:吴恩达
深度学习笔记
(第三课时)date:2019-10-0916:38:16categories:人工智能tags:nlpcover:https://www.github.com/OneJane
布丁和尚
·
2020-06-29 17:59
人工智能
吴恩达
深度学习笔记
(第四课时)
title:吴恩达
深度学习笔记
(第四课时)date:2019-12-0515:38:39categories:人工智能tags:nlpcover:https://www.github.com/OneJane
布丁和尚
·
2020-06-29 17:59
人工智能
吴恩达
深度学习笔记
(第一课时)
title:吴恩达
深度学习笔记
(第一课时)date:2019-12-0418:03:25categories:人工智能tags:nlpcover:https://www.github.com/OneJane
布丁和尚
·
2020-06-29 17:27
人工智能
深度学习笔记
---卷积层和池化层的实现
#1.卷积层这里为了叙述简便,仅考虑一个数据(三维)。卷积层前向函数实现原理:将输入三维数据的每个应用滤波器的部分展平为一行得到输入数据矩阵,将每个滤波器展平为一列得到权重矩阵,再将输入数据矩阵与权重矩阵相乘得到二维的中间数据,最后将二维中间数据reshape为三维输出数据。(其中展平三维数据至二维数据用到了im2col函数。这种降维的方法可以有效利用线性代数库,以实现高效的运算)im2col函数
武松111
·
2020-06-29 14:59
python与深度学习
深度学习笔记
---简单卷积神经网络的整体结构
#1.从普通神经网络到CNN#基于全连接层(Affine层)的5层神经网络结构图的例子#基于CNN的5层神经网络结构图的例子从上图可见,CNN(卷积神经网络)中的计算层新增了卷积层(Convolution)和池化层(Pooling)。前3个隐藏层将Affine-ReLU结构替换成了Conv-ReLU-(Pooling)结构,最后一个隐藏层依然是Affine-ReLU结构,输出层也依然是Affine
武松111
·
2020-06-29 14:29
python与深度学习
深度学习笔记
---MNIST数据集的介绍以及下载使用
#1.MNIST数据集简介1.MNIST数据集即MNIST手写数字图像集,是机器学习领域非常经典的一个数据集。2.MNIST数据集由0到9的数字图像构成。训练图像有六万张,测试图像有一万张。这些图像可以用于学习和推理。3.MNIST的图像数据是28px*28px的灰度图像,各个像素的取值在0到255之间。每个图像都相应地标有“0”、“1”、“2”、“3”、“4”、“5”...等标签。4.MNIST
武松111
·
2020-06-29 14:29
python与深度学习
深度学习笔记
---池化层简单介绍
#1.池化的基本概念池化是缩小高、长方向上的空间的运算。下图是Max池化的一个例子,将2*2的区域集约成一个元素。上述池化过程:按照步幅为2的间隔,依次对每一个2*2的区域取最大值,并将结果存到对应位置。一般来说,池化窗口的大小会和步幅设为相同的值。除了Max池化,还有Average池化等。Average池化就是计算目标区域的平均值。但在图像识别领域,主要使用Max池化。#2.池化层的特征1.没有
武松111
·
2020-06-29 14:29
python与深度学习
深度学习笔记
之基本概念
引言深度学习(deeplearning)通过其他较简单的表示来表达复杂表示,解决了表示学习中的核心问题。2.前馈深度网络或多层感知机(multilayerperceptron,MLP)3.人工神经网络(artificialneuralnetwork,ANN)线性代数标量(scalar):一个标量就是一个单独的数,它不同于线性代数中研究的其他大部分对象(通常是多个数的数组)。我们用斜体表示标量。标量
三分冷月是佳人
·
2020-06-29 09:44
深度学习
深度学习笔记
—线性回归(实战)
上篇博客地址如下:
深度学习笔记
—线性回归(基础)数据分析在我们使用线性回归解决问题之前,我们先来看一下数据集:Boston房价数据集是一个506行x13列的二维表,包含506个样本,每个样本有13个数值特征
要练腹肌呀
·
2020-06-29 07:54
深度学习笔记
深度学习笔记
—线性回归(基础)
线性回归在深度学习的基础学习阶段总是逃不过几个经典的实战问题,其中之一就是线性回归的经典数据集:Boston房价预测。要解决这个问题我们需要用到一种很常见的机器学习算法:线性回归,使用线性回归解决问题之前,我们要搞清楚什么是线性回归,线性回归有什么用,怎么用线性回归去解决Boston房价预测问题。1.什么是线性回归让我们看一看数学上对回归的定义:回归,指研究一组随机变量(Y1,Y2,…,Yi)和另
要练腹肌呀
·
2020-06-29 07:54
深度学习笔记
2020-2-15
深度学习笔记
7 - 深度学习中的正则化5(对抗训练-增强鲁棒性,切面距离、正切传播和流形正切分类器-克服维数灾难)
第七章深度学习中的正则化官网链接2020-2-9
深度学习笔记
7-深度学习中的正则化1(参数范数惩罚和范数惩罚约束)2020-2-12
深度学习笔记
7-深度学习中的正则化2(欠约束,数据集增强,噪声鲁棒性,
没人不认识我
·
2020-06-29 05:01
深度学习
IT
2020-2-14
深度学习笔记
7 - 深度学习中的正则化4(稀疏表示-稀疏化激活单元(元素稀疏),Bagging和其他集成方法,Dropout-廉价Bagging近似)
第七章深度学习中的正则化官网链接2020-2-9
深度学习笔记
7-深度学习中的正则化1(参数范数惩罚和范数惩罚约束)2020-2-12
深度学习笔记
7-深度学习中的正则化2(欠约束,数据集增强,噪声鲁棒性,
没人不认识我
·
2020-06-29 05:01
深度学习
python
IT
2020-2-13
深度学习笔记
7 - 深度学习中的正则化3(半监督,多任务,提前终止-解决过拟合,参数绑定与参数共享)
第七章深度学习中的正则化官网链接2020-2-9
深度学习笔记
7-深度学习中的正则化1(参数范数惩罚和范数惩罚约束)2020-2-12
深度学习笔记
7-深度学习中的正则化2(欠约束,数据集增强,噪声鲁棒性,
没人不认识我
·
2020-06-29 05:00
深度学习
IT
2020-2-9
深度学习笔记
7 - 深度学习中的正则化1(参数范数惩罚和范数惩罚约束)
第七章深度学习中的正则化官网链接机器学习中的一个核心问题是设计不仅在训练数据上表现好,并且能在新输入上泛化好的算法。在机器学习中,许多策略显式地被设计来减少测试误差(可能会以增大训练误差为代价)。这些策略被统称为正则化。++++++++++++++++【补充】+++++++++++++++++++++https://www.cnblogs.com/Belter/p/8536939.html前面使用
没人不认识我
·
2020-06-29 05:00
深度学习
python
IT
2020-2-12
深度学习笔记
7 - 深度学习中的正则化2(欠约束,数据集增强,噪声鲁棒性,输出目标注入噪声)
第七章深度学习中的正则化官网链接2020-2-9
深度学习笔记
7-深度学习中的正则化1(参数范数惩罚和范数惩罚约束)3-正则化和欠约束问题机器学习中许多线性模型,包括线性回归和PCA,都依赖于对矩阵XTXX
没人不认识我
·
2020-06-29 05:29
深度学习
IT
动手学
深度学习笔记
--LR_scratch
作图defuse_svg_display():#用矢量图显示display.set_matplotlib_formats('svg')defset_figsize(figsize=(4.5,2.5)):use_svg_display()#设置图的尺寸plt.rcParams['figure.figsize']=figsizeset_figsize()#设置fig大小plt.scatter(feat
tracking my heart
·
2020-06-29 04:42
深度学习笔记
(一)入门
深度学习与其他的区别机器学习:热点领域、给数据+学习数据深度学习:前言领域、强调模型深度学习与传统神经网络之间的区别和联系:联系:分层结构区别:训练机制(初始值)深度学习的训练过程无监督预训练(LayerwisePre-Training)+有监督微调(fine-tune)过程:(1)自下而上非监督学习特征(2)自顶向下有监督微调深度学习和神经网络的关系对于深度学习,首先第一步定义方法-神经网络。深
大王叫我来巡山呀
·
2020-06-29 01:22
深度学习
深度学习笔记
——全连接层
1.概观卷积取的是局部特征,全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图。因为用到了所有的局部特征,所以叫全连接。全连接层(fullyconnectedlayers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。2.全连接层的理解————————
_kimcho
·
2020-06-29 00:15
学习总结
深度学习
CNN
Ubuntu18.04+CUDA10.2 深度学习开发环境配置指南
深度学习笔记
15:ubuntu16.04下深度学习开发环境搭建与配置显卡与服务器等硬件设备装机完成后就需要配置本机环境。本篇配置主要包括Nvidia驱动安装、CUDA安装和
louwill12
·
2020-06-28 20:26
《DeepLearning.ai
深度学习笔记
》发布,黄海广博士整理
深度学习入门首推课程就是吴恩达的深度学习专项课程系列的5门课。该专项课程最大的特色就是内容全面、通俗易懂并配备了丰富的实战项目。今天,给大家推荐一份关于该专项课程的核心笔记!这份笔记只能用两个字形容:全面!课程概述关于该深度学习专项课程,红色石头非常推荐!它对于理解各种算法背后的原理非常有帮助,同时提供了大量的应用场景,涉及图像、语音、自然语言理解等各方面,还提供了一些工具函数、数据集。这个系列课
weixin_34320724
·
2020-06-28 16:59
【
深度学习笔记
】(一)Octave
【
深度学习笔记
】(一)Octave介绍OctaveOctave是一种面向科学数学运算的原型语言,内置了强大的数学函数及图形展示工具。
weixin_34001430
·
2020-06-28 09:27
深度学习笔记
(十二)车道线检测 LaneNet
论文:TowardsEnd-to-EndLaneDetection:anInstanceSegmentationApproach代码:https://github.com/MaybeShewill-CV/lanenet-lane-detection参考:车道线检测算法LaneNet+H-Net(论文解读)数据集:TusimpleOverview本文提出一种端到端的车道线检测算法,包含LanNet+
weixin_30674525
·
2020-06-27 23:20
TensorFlow
深度学习笔记
卷积神经网络
ConvolutionalNetworks转载请注明作者:梦里风林Github工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue区讨论官方教程地址视频/字幕下载deepdiveintoimagesandconvolutionalmodelsConvnetBackGround人眼在识别图像时,往往从局部到全局局部与局部之间联系往往
weixin_30507481
·
2020-06-27 20:13
深度学习笔记
(二):各种梯度下降优化算法总结
1.批量梯度下降(BatchGradientDescent)定义代价函数为所有样本的代价J(θ)=12m∑i=1m(hθ(x(i))−y(i))2J(\theta)=\frac{1}{2m}\sum^m_{i=1}(h_{\theta}(x^{(i)})-y^{(i)})^2J(θ)=2m1i=1∑m(hθ(x(i))−y(i))2θj=θj−α⋅∇θjJ(θ)(forj=0:n)\theta_j
君莫笑9102
·
2020-06-27 12:02
深度学习
深度学习笔记
(七):正则化
文章目录正则化L2正则化定义及公式介绍实验L1正则化L1和L2正则化的区别总结正则化在上次笔记中,提到了过拟合,如何解决过拟合呢,其中正则化就是常见的减少过拟合的方法。其中常见的两种正则化方法分别是L2和L1正则化。L2正则化定义及公式介绍L2正则化又叫做weightdecay(权重下降),顾名思义,让神经网络尽可能学习比较小的权重。拿之前的损失函数:交叉熵(cross-entropy)来举例子,
放不完的风筝
·
2020-06-27 05:17
深度学习
网易云课堂吴恩达Andrew Ng
深度学习笔记
(二)
01.神经网络和深度学习第二周神经网络基础先说明最简单的二分类,即可以把结果分为0和1两类,或者说是否两种的分类情况。比如说判定图片中是否有猫,标记为有(1)或者无(0)。特征则是图片中像素点RGB三色的深度,对应于64x64像素的图像,特征量为64x64x3=12288。为了操作解释方便,我们会把特征进行排列,重组成纵列。一个特征对应一个标签,最后组成数据对(x,y)m个数据组合后把特征和标签组
山羊君
·
2020-06-27 00:44
深度学习
网易云课堂吴恩达Andrew Ng
深度学习笔记
(一)
时不时给自己充电,记笔记巩固记忆。我以前也接触过机器学习,往简单说就是以前统计理论的曲线拟合的概念包装,数据一多就变成机器学习或者叫做人工智能,也就是用数据做分析,得出分类或者回归的结果。以前是用SVM支持向量机做的毕业设计,用数据往函数里面一塞算上1~2天。所以在我的印象中,机器学习其实是个很学术的东西,实用意义不大。第一次听说深度学习是在AlphaGo的围棋比赛,把人类棋手一网打尽之后,才知道
山羊君
·
2020-06-27 00:12
深度学习
卷积神经网络详解 - 卷积层逻辑篇
本系列文章为
深度学习笔记
,方便自己回看。卷积计算概述对于图像识别来说,卷积神经网络的效果要好于全连接神经网络。我在首次接触卷积时,隐约记得在大一高数课程中曾经提及,但具体已经无法名状。
tjlakewalker
·
2020-06-26 19:03
深度学习
深度学习笔记
(一)---神经网络
神经网络一、概述以监督学习为例,假设我们有训练样本集,那么神经网络算法能够提供一种复杂且非线性的假设模型,它具有参数W,b,可以以此参数来拟合我们的数据。为了描述神经网络,我们先从最简单的神经网络讲起,这个神经网络仅由一个“神经元”构成,以下即是这个“神经元”的图示:这个“神经元”是一个以及截距+1为输入值的运算单元,其输出为,其中函数被称为“激活函数”。在本教程中,我们选用sigmoid函数作为
如今我已剑指天涯
·
2020-06-26 16:05
深度学习
深度学习
神经网络
深度学习笔记
目录大全(吴恩达)--终于有翻译版本了
第一门课神经网络和深度学习(NeuralNetworksandDeepLearning)第一周:深度学习引言(IntroductiontoDeepLearning)1.1欢迎(Welcome)11.2什么是神经网络?(WhatisaNeuralNetwork)1.3神经网络的监督学习(SupervisedLearningwithNeuralNetworks)1.4为什么神经网络会流行?(Whyis
做一个坏人
·
2020-06-26 12:18
王小草【深度学习】笔记第一弹--神经网络
王小草
深度学习笔记
课程来自:寒小阳笔记整理者:王小草时间:2016/08/15欢迎交流:qq:10570421311.神经网络前言1.1背景在进入神经网络之前,先讲述两个略带血腥的实验。
王小小小草
·
2020-06-26 11:14
王小草深度学习笔记
Keras,model.compile详解
kerasmodel.compile(loss='目标函数',optimizer='adam',metrics=['accuracy'])
深度学习笔记
目标函数的总结与整理目标函数,或称损失函数,是网络中的性能函数
sinat_16388393
·
2020-06-26 10:54
Matlab
深度学习笔记
——深度学习工具箱说明
本文是RasmusBergPalm发布在Github上的Deep-learningtoolbox的说明文件,作者对这个工具箱进行了详细的介绍(原文链接:https://github.com/rasmusbergpalm/DeepLearnToolbox#deeplearntoolbox点击打开链接)。警告:这个工具箱已经过时,并且不再被保留。有很多比这个工具箱更好的工具可用于深度学习,如Thean
raiden_chen_42
·
2020-06-26 05:49
Matlab
深度学习
深度学习笔记
--多层感知器以及BP算法
简介多层感知器,是指包含1个或多个隐层的前馈神经网络。前馈神经网络的特点:第0层为输入层,最后一层为输出层,中间层为隐层。整个网络无反馈,信号从输入层向输出层单向传播,整个网络为有向无环图。激活函数多使用连续非线性函数,如logistic函数。3.激活函数多使用连续非线性函数,如logistic函数。可看成多层logistic回归模型的组合。具有解决复杂模式分类的能力,解决简单感知不能解决的线性不
HFUT_qianyang
·
2020-06-26 04:08
深度学习(Deep
Learning)
深度学习算法原理与代码剖析
深度学习笔记
-第4章-《深度学习入门——基于Python的理论与实现》
这个系列的文章肯定不是很长,整个整合到机器学习-笔记目录
深度学习笔记
——《深度学习入门——基于Python的理论与实现》第4章——神经网络的学习e.g:机器学习中的特征是人为设定,而深度学习则不是。
mayavii
·
2020-06-26 00:20
深度学习
深度学习笔记
上一页
23
24
25
26
27
28
29
30
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他