E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《深度学习笔记》
深度学习和神经网络_深度学习概论——吴恩达DeepLearning.ai
深度学习笔记
之神经网络和深度学习(一)...
公众号关注“DL_NLP”设为“星标”,重磅干货,第一时间送达!◎原创|深度学习算法与自然语言处理◎作者|Dedsecr1.什么是神经网络?1.1房价预测已知房屋的面积、价格,想要拟合一个根据房屋面积预测房价的函数。按照传统的方法,我们使用线性回归来解决这个问题,我们可以拟合出一条直线。并且我们知道价格永远不会是负数的。因此,为了替代一条可能会让价格为负的直线,我们把直线弯曲一点,让它最终在零结束
weixin_39859061
·
2020-12-06 00:17
深度学习和神经网络
深度学习读取数据很慢
ubuntu安装python3.6_百度零基础
深度学习笔记
(一) 安装飞桨paddle
安装飞桨paddlepaddle官网提供了相应系统的安装流程。官网安装飞浆我的环境是Ubuntu18.04+Python3.6+GTX970X,切记paddle暂没编译Python3.8+版本,现只支持3.5.1+/3.6/3.7。安装显卡驱动1# 查看适合显卡的驱动信息,安装带recommended的版本2➜ ~ ubuntu-drivers devices 3== /sys
weixin_39677106
·
2020-11-25 19:53
深度学习笔记
李宏毅2020机器学习深度学习(完整版)国语一、CourseIntroduction转自Sakura的知识库下图中,同样的颜色指的是同一个类型的事情蓝色方块指的是scenario,即学习的情境。通常学习的情境是我们没有办法控制的,比如做强化学习(reinforcementLearning)是因为我们没有data、没有办法来做supervisedLearning(监督学习)的情况下才去做的。如果有d
Ghost在低语
·
2020-11-25 15:30
学习笔记
深度学习
Keras
深度学习笔记
非线性回归
生成数据importkerasimportnumpyasnpimportmatplotlib.pyplotasplt#Sequential按顺序构成的模型fromkeras.modelsimportSequential#Dense全连接层fromkeras.layersimportDense,Activationfromkeras.optimizersimportSGD#使用numpy生成200个
imxlw00
·
2020-11-21 19:34
keras
keras
Keras
深度学习笔记
线性回归
定义与公式线性回归(Linearregression)是利用回归方程(函数)对一个或多个自变量(特征值)和因变量(目标值)之间关系进行建模的一种分析方式。特点:只有一个自变量的情况称为单变量回归,多于一个自变量情况的叫做多元回归。单变量回归当只有一个变量时,线性模型的函数定义为:其中,权值w0为函数在y轴上的截距,w1为解释变量的系数。我们的目标是通过学习得到线性方程的这两个权值,并用它们描述解释
imxlw00
·
2020-11-21 18:41
keras
keras
深度学习
深度学习笔记
(一)深度学习入门——基于Python的理论与实现
笔记来自斋藤康毅的《深度学习入门–基于Python的理论与实现》这本书用简洁的语言讲解了比较基础的原理,适合初学者了解。Numpy和Matplotlib1.NumpyNumPy数组提供了便捷的计算数组和矩阵的方法,比较常用。(1)生成NumPy数组与访问importnumpyasnpx=np.array([1.0,2.0,3.0])#一维数组y=np.array([2.0,4.0,6.0])#一维
WeatheringWithU
·
2020-11-18 18:06
深度学习
Python
深度学习笔记
第一周
第一章Python入门有关类的介绍NumPy导入NumPy生成NumPy数组NumPy的算术运算NumPy的N维数组广播访问元素Matplotlib绘制简单图形pyplot中一些函数的功能显示图像有关类的介绍用户自己定义类,将会创建新的数据类型,同时可以定义相关类的函数和属性。Python中的class可以定义类:class类名:def__int__(self,参数,...):#构造函数...de
frank______123
·
2020-11-11 22:48
Python深度学习入门
python
numpy
机器学习
深度学习笔记
损失函数反向传播理解记录
深度学习笔记
损失函数反向传播公式过程理解记录深度学习的第三周课程损失函数的反向传播卡了一点时间,发现卡顿的根本原因是对前边的一些细节符号没有准确记忆,同时过程中一些同一含义的符号发生变化。
特别能挨打
·
2020-11-09 09:14
学习记录
深度学习
神经网络
经验分享
Ng
深度学习笔记
——卷积神经网络基础
卷积神经网络计算机视觉(Computervision)边缘检测示例(Edgedetectionexample)Padding卷积步长(Stridedconvolutions)三维卷积(Convolutionsovervolumes)单层卷积网络(Onelayerofaconvolutionalnetwork)池化层(Poolinglayers)经典网络(Classicnetworks)LeNet-
CeciliaFinch
·
2020-11-08 20:11
【
深度学习笔记
】task4 网络八股扩展
深度学习-网络八股扩展4.1搭建网络八股概览4.2自制数据集,解决本领域问题4.2数据增强,扩充数据集4.3断点续训,存取模型4.4参数提取,把参数存入文本4.6acc&loss可视化,查看训练效果4.6应用程序,给图识物依依旧是跟着曹健老师的课程学习,之前主要是给予所给的训练集和测试集进行训练和测试,这一节中讲授了如何自制数据集以及模型保存的问题,非常有实用价值视频地址https://www.b
一一张xi
·
2020-10-27 21:31
强化学习
动手学习
深度学习笔记
3
importnumpyasnpimporttorchfromtorchimportnn,optimimporttorch.nn.functionalasFimportrandomimportmathimporttimedefsgd(params,lr,batch_size):#为了和原书保持一致,这里除以了batch_size,但是应该是不用除的,因为一般用PyTorch计算loss时就默认已经#
Tony涤生
·
2020-10-11 04:18
【深度学习】深入理解卷积神经网络(CNN)
CNNAuthor:louwillFrom:
深度学习笔记
本文将为大家介绍一种用途更为广泛、性能更加优越的神经网络结构——卷积神经网络(ConvolutionalNeuralNetwork,CNN)。
风度78
·
2020-10-02 11:00
卷积
神经网络
计算机视觉
机器学习
人工智能
F47.深度神经网络中权值初始化(即:卷积核的数值(权值)初始化)
注:神经网络训练时需要对权重进行初始化,若使用迁移学习则不需进行权重初始化(需使用预训练模型中的权重作为深度神经网络的初始权重)1.吴恩达
深度学习笔记
(21)-神经网络的权重初始化为什么要随机初始化?
米亚123
·
2020-09-17 06:11
深度学习
权值初始化
卷积核的选取
神经网络权重
卷积的权值初始化
【Tensorflow与
深度学习笔记
day01】Tensorflow与深度学习介绍+关于 TensorFlow+什么是数据流图(Data Flow Graph)?+Tensorflow的特征
文章目录关于TensorFlow什么是数据流图(DataFlowGraph)?Tensorflow的特征认识Tensorflow1.1.下载以及安装1.2.初识tfTensorflow进阶2.1.张量的阶和数据类型2.2.张量操作2.3.变量的的创建、初始化2.4.名称域与共享变量2.5.图与会话2.6.模型保存与恢复、自定义命令行参数TensorflowIO操作3.1.读取数据3.2.线程和队列
汪雯琦
·
2020-09-17 05:25
【机器学习与深度学习】
图像识别
神经网络
可视化
网络
python
TensorFlow+
深度学习笔记
1
TensorFlow+
深度学习笔记
1这阶段掌握的知识:1TensorFlow运行机制、Tensorflow一些函数的调用、深度学习初步;2CNN模型的构建与它的优点,成功使用python编写了一个识别MNIST
潘承远
·
2020-09-17 04:13
深度学习
TensorFlow
深度学习
Coursera deeplearning.ai
深度学习笔记
1-4-Deep Neural Networks-深度神经网络原理推导与代码实现
在掌握了浅层神经网络算法后,对深度神经网络进行学习。1.原理推导1.1深度神经网络表示定义:L表示神经网络总层数,上标[l]代表第l层网络,n[l]代表第l层的节点数,a[l]代表第l层的激活,W[l]和b[l]为第l层的参数。输入层为第0层a[0]=x,输出层为第L层a[L]。1.2正向传播(ForwardPropagation)类似浅层神经网络的推导可以得到,对于第l层,针对单个样本,正向传播
tu天马行空
·
2020-09-17 03:32
Coursera
深度学习
深度学习笔记
(21) 边缘检测
深度学习笔记
(21)边缘检测1.边缘检测简介2.过滤器3.垂直和水平边缘检测4.合适的过滤器1.边缘检测简介在计算机视觉中使用的比较多的就是卷积神经网络卷积运算是卷积神经网络最基本的组成部分边缘检测相对比较容易理解
氢键H-H
·
2020-09-17 03:20
深度学习笔记
边缘检测
过滤器
深度学习笔记
2--TensorFlow基础
安装跟往常一样,我们用Conda来安装TensorFlow。你也许已经有过TensorFlow的环境,但确认一下你有所有必要的包。OSX或Linux运行下列命令来配置开发环境condacreate-ntensorflowpython=3.5sourceactivatetensorflowcondainstallpandasmatplotlibjupyternotebookscipyscikit-l
handsome_happy
·
2020-09-17 03:19
机器学习
吴恩达老师
深度学习笔记
第二课(第二周)
第二周优化算法2.1Mini_batch梯度下降算法①向量化可以让你相对较快的处理所有m个样本,但是如果m很大,处理速度仍然缓慢②传统的梯度下降算法,需要先处理所有数据,然后进行下一步梯度下降算法把训练集分割成小一点的子训练集,这些子集取名为Mini_batch(然后每处理一个子集,就把他传下去进行下一步梯度下降算法),同样也要拆分y训练集。③我的理解:就是不再把所有数据向量化一个大向量,而是多个
我爱编程皮肤好好
·
2020-09-17 03:30
吴恩达老师
深度学习笔记
第四课第二周
深度卷积网络实例探究2.1为什么要进行实例探究通过研究别人神经网络的架构,是一个学习深度学习不错的方法接下来学习的几种典型的networksLeNet-5AlexNetVGGResNet残差网络Inception2.2经典网络LeNet-5介绍:针对灰度图像处理,大约有6万参数AlexNet介绍:AlexNet包含约6000万个参数,当用于训练图像和数据集时,AlexNet能够处理非常相似的基本构
我爱编程皮肤好好
·
2020-09-17 03:30
笔记
网络
神经网络
深度学习
人工智能
机器学习
吴恩达老师
深度学习笔记
第四课第三周
目标检测3.1目标定位定位分类问题例如图像分类问题:不仅仅要判断是否是汽车,还要标注出他的位置通过检测到中心点,并且输出bxbybhbw给出图片对象的边界框,概括的说:神经网络可以通过输出图片上特征点的(x,y)坐标,来实现对目标特征的识别3.2特征点检测举了一个例子:关于识别人脸特征点先选定特征点的个数并生成包括这些特征点的标签训练集,然后利用神经网络输出脸部关键特征点的位置具体做法是准备一个卷
我爱编程皮肤好好
·
2020-09-17 03:30
笔记
深度学习
神经网络
卷积
算法
网络
吴恩达老师
深度学习笔记
第二课(第三周)
第三周超参数调整,Batch正则化和程序框架3.1调试处理对于超参数而言,你要如何找到一套好的设定呢?分享一些指导原则,一些关于如何系统地组织超参数调试过程的技巧。如何使用mpmentum或Adam的优化算法的参数,α,ββ1,β2,ε,#layers,#hiddenlimits,learningratedecay,你可能需要选择Mini-batch,结果证实,一些超参数比其他的更为重要。我认为最
我爱编程皮肤好好
·
2020-09-17 03:30
笔记
机器学习
python
神经网络
深度学习
人工智能
深度学习笔记
(17):Batch Norm简介
剖析与心得我们已经发现了在初始化的时候将输入数据归一化会得到更快的梯度下降速度与效果。那么其实很容易就会想到,如果我们能在神经网络的每一个隐藏层中都控制这些数值的分布,也许效果会不错。那么Batchnorm就诞生了。它可以使你训练更深层次的神经网络,并且使得下降更快。实现过程只需要四步:1)求出来每一行的zzz均值μ\muμ2)求出来每一行的方差σ\sigmaσ23)得到归一化的zzznorm,此
良夜星光
·
2020-09-17 03:24
吴恩达深度学习笔记
神经网络
笔记
吴恩达老师
深度学习笔记
第三课第二周
结构化机器学习2.1进行误差分析①(定义)错误分析:通过对网络分析,找到问题,使网络达到自己想要的效果②举例(猫分类)你的分类猫的系统错误率达到10%,你发现错误识别中有很多狗,被错认为猫这时,你可以选择直接通过一些办法来解决狗的问题但是更好的做法是,先找到狗的错误识别的“表现上限”,先找100张错误识别(注意:是在验证集里),如果里边有5张是狗,那么意味着狗的“表现上限”就是5%。这就是错误分析
我爱编程皮肤好好
·
2020-09-17 02:04
机器学习
人工智能
深度学习
python
算法
吴恩达
深度学习笔记
(54)-测试时的 Batch Norm
测试时的BatchNorm(BatchNormattesttime)Batch归一化将你的数据以mini-batch的形式逐一处理,但在测试时,你可能需要对每个样本逐一处理,我们来看一下怎样调整你的网络来做到这一点。回想一下,在训练时,这些就是用来执行Batch归一化的等式。在一个mini-batch中,你将mini-batch的z((i))值求和,计算均值,所以这里你只把一个mini-batch
极客Array
·
2020-09-17 02:38
深度学习
吴恩达深度学习笔记
深度学习笔记
——深度学习框架TensorFlow(二)
一.学习网站:https://www.tensorflow.org/versions/r0.12/tutorials/index.htmlhttp://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/overview.htmlhttp://www.tensorfly.cn/tfdoc/tutorials/mnist_beginners.ht
R3
·
2020-09-16 23:09
深度学习
04.卷积神经网络 W1.卷积神经网络
作业参考:吴恩达视频课
深度学习笔记
1.计算机视觉举例:图片猫识别,目标检测(无人驾驶),图像风格转换(比如转成素描)等等面临的挑战:数据的输入可能会非常大一张1000×1000的图片,特征向量的维度达到了
Michael阿明
·
2020-09-16 12:12
《深度学习》学习笔记
[
深度学习笔记
][CNN/GCN]Graph Convolutional Network学习笔记
本文仅为个人的学习笔记,对论文或者网上的资料作总结以及加入个人的理解,对论文或者在线资料可能有诸多理解不准确的地方,见谅。主要参考资料:如何理解GraphConvolutionalNetwork(GCN)?-superbrother的回答-知乎https://www.zhihu.com/question/54504471/answer/332657604Chebyshev多项式作为GCN卷积核-s
猎人伯爵
·
2020-09-16 00:21
深度学习笔记
深度学习
机器学习
[
深度学习笔记
][CNN/GCN]卷积神经网络基础
注:这是写给自己看的学习笔记,如有错误敬请指出。1.卷积神经网络的结构由四层构成,分别为:输入、卷积、池化、输出层。2.卷积神经网络的形象理解2.1卷积层的形象理解卷积层的目的实际上是进行特征的提取。在卷积层(conventionlayer)中,使用一个过滤器(kernel)去扫描一个图像,这个过滤器的参数是需要学习的。过滤器与图像进行卷积并滑动,会生成这个图像的特征映射(featuremap)。
猎人伯爵
·
2020-09-16 00:49
深度学习笔记
深度学习
神经网络
03.结构化机器学习项目 W1.机器学习策略(1)
训练/开发/测试集划分6.开发集和测试集的大小7.什么时候该改变开发/测试集和指标8.人类的表现水准9.可避免偏差10.理解人的表现11.超过人的表现12.改善你的模型的表现测试题作业参考:吴恩达视频课
深度学习笔记
Michael阿明
·
2020-09-15 05:41
《深度学习》学习笔记
深度学习,周志华,机器学习,西瓜书,TensorFlow,Google,吴军,数学之美,李航,统计学习方法,吴恩达,
深度学习笔记
,pdf下载
1.机器学习入门经典,李航《统计学习方法》2.周志华的《机器学习》pdf3.《数学之美》吴军博士著pdf4.Tensorflow实战Google深度学习框架.pdf5.《TensorFlow实战》黄文坚高清完整PDF6.复旦大学邱希鹏老师编写的讲义《神经网络与深度学习》pdf7.图像处理、分析与机器视觉(第三版).pdf下载8.深度学习2017讲义9.TensorFlowMachineLearni
剑之所致,心之所往
·
2020-09-15 04:36
深度学习
理解mini-batch梯度下降法对loss的影响
核心思想:batchsize太大->loss很快平稳,batchsize太小->loss会震荡(需要理解mini-batch)根据吴恩达
深度学习笔记
中的内容总结mini-batch梯度下降法的作用和原理
wujieer96
·
2020-09-14 23:29
深度学习笔记
【Deep Learning 】深度模型中的优化问题(六)之RMSprop(自适应算法2)
以下节选自个人
深度学习笔记
。内容整合来源于网络与个人理解。RMSprop口RMSprop是一种改进的Adagrad,通过引入一个衰减系数ρ,让r每回合都衰减一定比例。
Lindsay.Lu丶
·
2020-09-14 19:59
算法
Python
深度学习
吴恩达
深度学习笔记
(41)-深度解析指数加权平均数
理解指数加权平均数(Understandingexponentiallyweightedaverages)上个笔记中,我们讲到了指数加权平均数,这是几个优化算法中的关键一环,而这几个优化算法能帮助你训练神经网络。本笔记中,我希望进一步探讨算法的本质作用。回忆一下这个计算指数加权平均数的关键方程。v_t=βv_(t-1)+(1-β)θ_t比如β=0.9的时候,得到的结果是红线,如果它更接近于1,比如
极客Array
·
2020-09-14 18:16
深度学习
吴恩达深度学习笔记
Adam优化算法原理详解(吴恩达
深度学习笔记
)
在介绍Adam之前首先介绍一下momentum和RMSprop优化算法。一、momentum1、指数加权平均数指数加权平均数不仅考虑了当前数值也涵盖了以前的数据对现在的影响。解释指数加权平均值名称的由来:指数加权平均值的应用:使用这种方法进行数据的估计可能不是最精确的,但是这种方法计算简单,节省内存。指数加权平均数因为设置的第0个值为0,所以对于前几个数都会出现严重的偏差,所以引入了偏差修正。2.
爱笑的李
·
2020-09-13 16:26
深度学习笔记
(35) 滑动窗口的卷积实现
深度学习笔记
(35)滑动窗口的卷积实现1.卷积实现2.减少计算成本1.卷积实现为了构建滑动窗口的卷积应用,首先要知道如何把神经网络的全连接层转化成卷积层假设对象检测算法输入一个14×14×3的图像,图像很小
氢键H-H
·
2020-09-13 10:58
深度学习笔记
吴恩达神经网络和
深度学习笔记
Python广播运算cal=A.sum(axis=0)矩阵A竖直相加,每一列相加,如果axis=1就是每一行求和用reshape指令来确定矩阵的形式,如果不是非常清楚矩阵的行列的话,用reshape自己定义一下用一个m*n的矩阵加减乘除一个1*n的矩阵,Python会把后者复制成一个m*n的矩阵,然后逐个元素计算避免Python程序和NUMPY出现bug的方法:1.避免使用秩为1的定义,如a=np
刘爱然
·
2020-09-13 03:26
深度学习
深度学习
吴恩达神经网络和
深度学习笔记
(广播,激活函数)
吴恩达神经网络和
深度学习笔记
往期回顾广播A.sum(axis=0)中的参数axis。
Zzjw527
·
2020-09-13 00:19
深度学习
机器学习
python
深度学习
神经网络
神经网络与
深度学习笔记
汇总四
神经网络与
深度学习笔记
汇总四往期回顾将之前掘金写的学习笔记所遇困难搬到这里,方便查看复习学习内容1、在信号处理中认为信号具有较大的方差,噪声有较小的方差,信噪比就是信号与噪声的方差比,越大越好。
Zzjw527
·
2020-09-13 00:19
深度学习
python
机器学习
深度学习
神经网络
人工智能
神经网络与
深度学习笔记
汇总二
神经网络与
深度学习笔记
汇总二正交化(方便调整参数)迭代单实数评估指标(判断几种手段/方法哪个更好)指标选取训练集、开发集、测试集作用与用途评估指标判断算法是好是坏迁移学习总结往期回顾结构化机器学习项目正交化
Zzjw527
·
2020-09-13 00:48
深度学习
深度学习
神经网络
机器学习
python
神经网络与
深度学习笔记
汇总一
神经网络与
深度学习笔记
汇总一梯度下降法:向量化:代替for循环广播ReLU激活函数逻辑回归损失函数(误差函数)代价函数卷积神经网络往期回顾梯度下降法:通过最小化代价函数(成本函数)来训练的参数w和b步骤
Zzjw527
·
2020-09-13 00:46
深度学习
卷积
神经网络
深度学习
机器学习
神经网络与
深度学习笔记
汇总五
神经网络与
深度学习笔记
汇总五往期回顾将之前掘金写的学习笔记所遇困难搬到这里,方便查看复习遇到问题:报错(未解决)学习内容:1、报错operandshouldcontain1columnsin条件后面有多个字段
Zzjw527
·
2020-09-13 00:46
深度学习
python
机器学习
深度学习
神经网络
神经网络与
深度学习笔记
汇总三
神经网络与
深度学习笔记
汇总三往期回顾将之前掘金写的学习笔记所遇困难搬到这里,方便查看复习遇到问题:异常值处理学习内容1、.drop()返回的是一个新对象,原对象不会被改变。
Zzjw527
·
2020-09-13 00:46
深度学习
深度学习
机器学习
神经网络
python
深度学习笔记
(2) - 神经网络的数学基础
神经网络的数学基础数学概念:张量、张量运算、微分、梯度下降。深度学习中的数据概念张量常见的张量类型张量:它是一个数据容器,模型中最基本的数据结构,比如,矩阵(2维张量)标量(0D张量)标量:仅仅包含一个数字的张量(标量张量,零维张量,0D张量)在Numpy中,一个float32或float64的数字,可以通过ndim属性来查询轴的个数。向量(1D张量)向量:数字组成的数组,只有一维,一个轴矩阵(2
瓦力人工智能
·
2020-09-12 16:45
深度学习笔记
keras深度学习笔记
神经网络与
深度学习笔记
(四)为什么用交叉熵代替二次代价函数
1、为什么不用二次方代价函数我们用的loss方程是a是神经元的输出,其中a=σ(z),z=wx+b使用链式法则求权重和偏置的偏导数有:可知,偏导数受激活函数的导数影响再由sigmoid函数可知,sigmoid的导数在输出接近0和1的时候是非常小的,这会导致一些实例在刚开始训练时学习得非常慢:2、为什么要用交叉熵先看公式:求权重和偏置的偏导数:根据σ′(z)=σ(z)(1−σ(z)),知由以上公式可
dsjdjsa
·
2020-09-11 22:49
神经网络和深度学习
深度学习笔记
1
自学笔记第1章引言人工智能真正的挑战在于解决那些对人类来说容易执行、但很难形式化描述的任务。如何将非形式化的知识传给计算机呢?AI深度学习可以让计算机从经验中学习,并根据层次化的概念体系来理解世界。一些人工智能项目力求将关于世界的知识用形式化的语言进行编码(hard-code),使计算机可以使用逻辑推理规则来自动地理解这些形式化语言中的声明。人们设法设计足够复杂的形式化规则来准确的描述世界,这些项
我是谁_谁是我
·
2020-09-10 18:55
深度学习
Google
深度学习笔记
文本与序列的深度模型
DeepModelsforTextandSequence转载请注明作者:梦里风林Github工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue区讨论官方教程地址视频/字幕下载RareEvent与其他机器学习不同,在文本分析里,陌生的东西(rareevent)往往是最重要的,而最常见的东西往往是最不重要的。语法多义性一个东西可能有
梦里茶
·
2020-09-10 18:39
机器学习
Google深度学习笔记
深度学习
tensorflow
rnn
lstm
embedding
Google
深度学习笔记
循环神经网络实践
转载请注明作者:梦里风林Github工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue区讨论官方教程地址视频/字幕下载加载数据使用text8作为训练的文本数据集text8中只包含27种字符:小写的从a到z,以及空格符。如果把它打出来,读起来就像是去掉了所有标点的wikipedia。直接调用lesson1中maybe_downlo
梦里茶
·
2020-09-10 18:07
机器学习
Google深度学习笔记
深度学习
tensorflow
rnn
lstm
embedding
Google
深度学习笔记
卷积神经网络
ConvolutionalNetworks转载请注明作者:梦里风林Github工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue区讨论官方教程地址视频/字幕下载deepdiveintoimagesandconvolutionalmodelsConvnetBackGround人眼在识别图像时,往往从局部到全局局部与局部之间联系往往
梦里茶
·
2020-09-10 18:06
机器学习
Google深度学习笔记
深度学习
神经网络
tensorflow
卷积
pooling
深度学习笔记
(4):1.11 为什么要使用卷积运算?
1.11为什么要使用卷积(whyconvolutions?)首先直观上,使用卷积比全连接网络少很多参数,如下图所示:对于32*32*3的图像,令f=5,使用6个filter,参数值为5*5*6+6=156个参数,权重参数个数为5*5*6,偏差为6个,所以是156。但是全连接会产生多少个参数呢?将这两个图片都flatten成向量,分别是3072维和4704维向量,这时使用全连接就会有3072*470
起个名字好难.JPG
·
2020-09-10 14:28
深度学习
parameter
sharing
sparsity
connection
上一页
16
17
18
19
20
21
22
23
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他