E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
limu深度学习笔记
吴恩达
深度学习笔记
(26)-神经网络中的参数和超参数
参数VS超参数(ParametersvsHyperparameters)想要你的深度神经网络起很好的效果,你还需要规划好你的参数以及超参数。什么是超参数?比如算法中的learningratea(学习率)、iterations(梯度下降法循环的数量)、L(隐藏层数目)、n^([l])(隐藏层单元数目)、choiceofactivationfunction(激活函数的选择)都需要你来设置,这些数字实际
极客Array
·
2020-04-08 02:21
fast.ai
深度学习笔记
:第一部分第一课
原文:DeepLearning2:Part1Lesson1作者:HiromiSuenaga课程论坛入门[0:00]:为了训练神经网络,你肯定需要图形处理单元(GPU)-特别是NVIDIAGPU,因为它是唯一支持CUDA(几乎所有深度学习库和从业者都使用的语言和框架)的设备。租用GPU有几种方法:Crestle[04:06],Paperspace[06:10]Jupyter笔记本和猫狗识别的介绍[1
布客飞龙
·
2020-04-07 18:53
吴恩达
深度学习笔记
(39)-更进一步理解mini-batch梯度下降法
理解mini-batch梯度下降法(Understandingmini-batchgradientdescent)在上一个笔记中,你知道了如何利用mini-batch梯度下降法来开始处理训练集和开始梯度下降,即使你只处理了部分训练集,即使你是第一次处理,本笔记中,我们将进一步学习如何执行梯度下降法,更好地理解其作用和原理。使用batch梯度下降法时,每次迭代你都需要历遍整个训练集,可以预期每次迭代
极客Array
·
2020-04-07 02:21
深度学习笔记
- 101 - 学习Anaconda & Jupyter Notebook
Anaconda是什么?Anaconda实际上是一个软件发行版,它附带了conda、Python和150多个科学包及其依赖项。应用程序conda是包和环境管理器。Anaconda的下载文件比较大(约500MB),因为它附带了Python中最常用的数据科学包。如果只需要某些包,或者需要节省带宽或存储空间,也可以使用Miniconda这个较小的发行版(仅包含conda和Python)。但你仍可以使用c
Kimichen7764
·
2020-04-02 05:18
吴恩达
深度学习笔记
(58)-深度学习框架Tensorflow
TensorFlow有很多很棒的深度学习编程框架,其中一个是TensorFlow,很期待帮助你开始学习使用TensorFlow,我想在这个笔记中向你展示TensorFlow程序的基本结构,然后让你自己练习,学习更多细节先提一个启发性的问题,假设你有一个损失函数J需要最小化,在本例中,我将使用这个高度简化的损失函数,Jw=w^2-10w+25,这就是损失函数,也许你已经注意到该函数其实就是(w-5)
极客Array
·
2020-04-01 17:35
从零开始的
深度学习笔记
(二)CNN卷积神经网络简介与使用Pytorch搭建自己的第一个卷积神经网络
从MNIST学习CNN首先我们需要大概知道CNN(convolutionalneuralnetwork)是一个比较适合进行图像处理的一个神经网络,它主要是完成了特征抽出的操作。也许现在我们还不是特别了解CNN具体的步骤与一些细节,没关系,接着往下看。其次我们来看看CNN都是由那些部分组成的。对于上图,我们可以看到想要识别一张图片,我们可能需要经过对图形卷积->ReLU激活->池化->之后再一次**
白鹿如昔
·
2020-04-01 17:26
深度学习
神经网络
深度学习
卷积
人工智能
深度学习笔记
—应用部分
[问题]应用部分1.语音识别声学信号投影到说话人的词序列上语音识别系统历史1)隐马尔科夫模型和高斯混合模型的结合2)受限玻尔兹曼机的无向概率模型3)由因素识别→大规模词汇语音识别创新点1)卷积网络→时域和频域上复用了权重2)深度循环神经网络3)利用语音层级的信息排列声学层级的信息2.自然语音处理基于语言模型定义了自然语言中的字、字符、字节序列的概率分布基于词的语言模型语言模型1)n-gram模型2
no_repeat
·
2020-03-29 02:46
深度学习笔记
(5) mnist识别
手写数字识别在TensorFlow是一个非常常见的例子,本文将使用卷积神经网络来实现手写字体识别。我这里没有直接使用系统中已经提供好的数据来实现,而是从数据最开始的状态来一步步实现。1.图像数据的获取数据下载地址需要下载的数据2.图像数据读取importstruct#训练集文件train_images_idx3_ubyte_file='./train-images-idx3-ubyte/train
无事扯淡
·
2020-03-28 09:08
深度学习笔记
- 102 - 回归模型
image.png配置环境#选择Python2版本condacreate-npython2python=2#安装pandas,matplotlib,scikit-learncondainstallpandasmatplotlibscikit-learnLinearRegression:根据动物的大脑重量来预测对应体重importpandasaspdfromsklearnimportlinear_m
Kimichen7764
·
2020-03-27 00:11
TensorFlow
深度学习笔记
文本与序列的深度模型
DeepModelsforTextandSequence转载请注明作者:梦里风林Github工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue区讨论官方教程地址视频/字幕下载RareEvent与其他机器学习不同,在文本分析里,陌生的东西(rareevent)往往是最重要的,而最常见的东西往往是最不重要的。语法多义性一个东西可能有
梦里茶
·
2020-03-25 21:57
分享我的《Tensorflow和
深度学习笔记
》
我的《Tensorflow和
深度学习笔记
》,憋了1个月终于完工,一共100页,截图如下查看笔记,可以前往"http://book.aqinet.cn"。
_木豆_
·
2020-03-24 00:49
深度学习笔记
- 104 - 用Numpy构建神经网络
image.pngCodefromnumpyimportexp,array,random,dotclassNeuralNetwork():def__init__(self):#Seedtherandomnumbergenerator,soitgeneratesthesamenumbers#everytimetheprogramruns.random.seed(1)#Wemodelasinglene
Kimichen7764
·
2020-03-21 15:36
深度学习笔记
(一)——神经网络和深度学习(Neural Networks and Deep Learning)
什么是神经网络?(WhatisaNeuralNetwork)我们常常用深度学习这个术语来指训练神经网络的过程。有时它指的是特别大规模的神经网络训练。那么神经网络究竟是什么呢?在这个视频中,我会讲解一些直观的基础知识。让我们从一个房价预测的例子开始讲起。假设你有一个数据集,它包含了六栋房子的信息。所以,你知道房屋的面积是多少平方英尺或者平方米,并且知道房屋价格。这时,你想要拟合一个根据房屋面积预测房
HJ_sky
·
2020-03-20 21:49
深度学习笔记
4:深度神经网络的正则化
欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tsaiedu,并注明消息来源,邀请你进入数据爱好者交流群,数据爱好者们都在这儿。作者简介:鲁伟:一个数据科学践行者的学习日记。数据挖掘与机器学习,R与Python,理论与实践并行。个人公众号:
天善智能
·
2020-03-17 06:38
深度学习笔记
(3)破解验证码
验证码生成程序:fromcaptcha.imageimportImageCaptcha#pipinstallcaptchaimportnumpyasnpimportmatplotlib.pyplotaspltfromPILimportImageimportrandom#验证码中的字符,就不用汉字了number=['0','1','2','3','4','5','6','7','8','9']alp
无事扯淡
·
2020-03-17 02:38
【连载】
深度学习笔记
4:深度神经网络的正则化
今天要说的是关于机器学习和深度学习中的一项关键技术:正则化。相信在机器学习领域摸爬滚打多年的你一定知道正则化是防止模型过拟合的核心技术之一总的来说,监督机器学习的核心原理莫过于如下公式:该公式可谓是机器学习中最核心最关键最能概述监督学习的核心思想的公式了:所有的有监督机器学习,无非就是正则化参数的同时最小化经验误差函数。最小化经验误差是为了极大程度的拟合训练数据,正则化参数是为了防止过分的拟合训练
linux那些事
·
2020-03-10 09:46
深度学习笔记
2:反向传播算法
1、损失函数损失函数在统计学中是一种衡量损失和误差程度的函数,它一般包括损失项(lossterm)和正则项(regularizationterm)损失项损失项比较常见的有平方损失,常用在回归问题;以及对数损失函数,常用在分类问题。正则项加入正则项目的是减小权重的幅度,防止过度拟合。常用的有L1-regularization和L2-regularization。关于损失函数发现一篇文章讲的比较详细,
readilen
·
2020-03-05 05:57
JavaScript的那些书
作者:
limu
原文地址:http://
limu
.iteye.com/blog/1267475又好久没写东西了,写上一篇的时候还以为接下来的工作会轻松一些,结果未从我所愿呐,又是一阵忙碌。
IT程序狮
·
2020-03-04 02:49
深度学习笔记
8:利用Tensorflow搭建神经网络
欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tsaiedu,并注明消息来源,邀请你进入数据爱好者交流群,数据爱好者们都在这儿。作者简介:鲁伟:一个数据科学践行者的学习日记。数据挖掘与机器学习,R与Python,理论与实践并行。个人公众号:
天善智能
·
2020-03-03 02:57
GitHub值得关注记录
GitHub关注记录@Date2017.06.02AI
深度学习笔记
https://github.com/exacity/deeplearningbook-chineseNLTK下载使用的数据https:
voltric
·
2020-02-28 05:28
深度学习笔记
- 105 - 神经网络预测单车数量
Predictdailybikerentalridershipusingneuralnetwork#IMPORT%matplotlibinline%configInlineBackend.figure_format='retina'importnumpyasnpimportpandasaspdimportmatplotlib.pyplotaspltLoadandpreparethedatadata
Kimichen7764
·
2020-02-27 22:41
【连载】
深度学习笔记
8:利用Tensorflow搭建神经网络
在笔记7中,笔者和大家一起入门了Tensorflow的基本语法,并举了一些实际的例子进行了说明,终于告别了使用numpy手动搭建的日子。所以我们将继续往下走,看看如何利用Tensorflow搭建神经网络模型。尽管对于初学者而言使用Tensorflow看起来并不那么习惯,需要各种步骤,但简单来说,Tensorflow搭建模型实际就是两个过程:创建计算图和执行计算图。在deeplearningai课程
linux那些事
·
2020-02-27 01:02
深度学习笔记
(三)——归一化&残差网络
6.1批量归一化和残差网络浅层模型:处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。深层模型:利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。全连接层位置:全连接层中的仿射变换和激活函数之间。分母加上很小的数值以保证不为零,同时可以引入拉伸参数与偏移参数,可以使归一化效果不好的时候无效化。卷积层位置:卷积计算之后、应⽤激活函数之
Jeremy Cui
·
2020-02-25 21:33
深度学习
卷积
神经网络
深度学习
卷积神经网络
python
深度学习笔记
之线性回归
文章目录线性回归样例线性回归线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,其表达形式为y=w’x+e。笔者这里简单记录下学习PaddlePaddle的笔记。文章所用的例子百度AIStudio。样例给定5个样例,每个样例有12个属性。根据线性回归输出指定值的预测值。"""ThisisademousingPaddlePaddletoimplement
Z o n g
·
2020-02-25 17:50
深度学习
PaddlePaddle
深度学习
神经网络
python
深度学习笔记
(三)Cv方向
一.批量归一化和残差网络批量归一化对输入的标准化(浅层模型)处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。标准化处理输入数据使各个特征的分布相近。批量归一化(深度模型)利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。对全连接层进行批量归一化3.对卷积层做批量归一化位置:卷积计算之后、应⽤激活函数之前。如果卷积计算输出多个通道,
SCwine559
·
2020-02-25 10:11
神经网络
计算机视觉
[深度学习]动手学
深度学习笔记
-13
Task9——图像风格迁移13.1样式迁移如果你是一位摄影爱好者,也许接触过滤镜。它能改变照片的颜色样式,从而使风景照更加锐利或者令人像更加美白。但一个滤镜通常只能改变照片的某个方面。如果要照片达到理想中的样式,经常需要尝试大量不同的组合,其复杂程度不亚于模型调参。在本节中,我们将介绍如何使用卷积神经网络自动将某图像中的样式应用在另一图像之上,即样式迁移(styletransfer)。这里我们需要
田纳尔多
·
2020-02-24 11:46
深度学习
深度学习
TensorFlow
深度学习笔记
从线性分类器到深度神经网络
转载请注明作者:梦里风林Github工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue区讨论官方教程地址视频/字幕下载LimitofLinearModel实际要调整的参数很多如果有N个Class,K个Label,需要调整的参数就有(N+1)K个LinearModel不能应对非线性的问题LinearModel的好处GPU就是设计用
梦里茶
·
2020-02-18 03:37
深度学习笔记
11:利用numpy搭建一个卷积神经网络
欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tsaiedu,并注明消息来源,邀请你进入数据爱好者交流群,数据爱好者们都在这儿。作者简介:鲁伟:一个数据科学践行者的学习日记。数据挖掘与机器学习,R与Python,理论与实践并行。个人公众号:
天善智能
·
2020-02-17 12:26
深度学习笔记
1:利用numpy从零搭建一个神经网络
很多人说深度学习就是个黑箱子,把图像预处理之后丢进tensorflow就能出来预测结果,简单有效又省时省力。如果你已是一名功力纯厚的深度学习工程师,这么做当然没问题。但我想大多数人也和我一样,都是走在学习深度学习的路上,一上来就上框架并没有什么特别不妥之处,但总归是对你理解深度学习的黑箱机制是了无裨益的。所以,我建议在学习深度学习的路上,从最简单的感知机开始写起,一步一步捋清神经网络的结构,以至于
linux那些事
·
2020-02-16 01:20
深度学习笔记
- 线性模型
线性模型:给定许多数据点,找到一个函数拟合这些数据点,使其误差最小。image.pngimage.png线性模型,是试图学习一个通过属性的线性组合来进行预测的函数。wb都是需要学习的参数,模型通过不断调整w,b,得到一个使得损失函数最小的优化模型。线性模型有很好的可解释性,权重的大小可以表示这个属性的重要程度。优化参数的核心在于y'和y之前差别最小(拟合效果好),可以用均方误差来衡量误差。数学解释
上弦酱QwQ
·
2020-02-15 15:27
深度学习笔记
(二)——卷积神经网络,过拟合欠拟合及解决方案
3.1过拟合、欠拟合及解决方案训练误差(trainingerror):模型在训练数据集上表现出的误差;泛化误差(generalizationerror):模型在任意一个测试数据样本上表现出的误差的期望;(泛化样本是指除训练样本之外的all)验证集:用于调参过拟合、欠拟合如下图所示:L2范数正则化(regularization):在模型原损失函数加上L2范数惩罚项(权重参数W中每个元素平方和与一个正
Jeremy Cui
·
2020-02-15 13:17
深度学习
深度学习
python
机器学习
人工智能
tensorflow
咖啡原来是这样啊
图片发自App埃塞俄比亚的哈拉尔、
limu
、吉马、sidamo、yergacheffe等地产出的咖啡都非常有名
何以笙歌
·
2020-02-15 01:53
动手学
深度学习笔记
——线性回归
线性回归主要内容包括:线性回归的基本要素线性回归模型从零开始的实现线性回归模型使用pytorch的简洁实现线性回归的基本要素模型为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系:线性回归主要内容包括:线性回归的基本要素线性回归模型从零开始的实现线性回归模型使用pytorch
awpc21
·
2020-02-14 21:23
读书笔记整理总结
[深度学习]动手学
深度学习笔记
-1
这个寒假由于新冠肺炎疫情严重,影响了各高校返校时间,在家就是做贡献。自己有幸参与Datawhale的公益AI线上训练营,14天挑战李沐老师的**《动手学深度学》pytorch版**,在此记录自己的学习过程。1.1环境配置1.1.1AnacondaAnaconda是Python的一个开源发行版本,主要面向科学计算。我们可以简单理解为,Anaconda是一个预装了很多我们用的到或用不到的第三方库的Py
田纳尔多
·
2020-02-14 19:52
深度学习
深度学习
动手学
深度学习笔记
1线性回归
线性回归、softmax与多层感知机一、线性回归1.线性模型:2.损失函数第一个是单样本的损失,第二个是多样本的损失3.优化函数-SGD:常用的是小批量随机梯度下降:优化函数的两个步骤:(i)初始化模型参数,一般来说使用随机初始化;(ii)我们在数据上迭代多次,通过在负梯度方向移动参数来更新每个参数。4.矢量计算向量相加的一种方法是,将这两个向量按元素逐一做标量加法。向量相加的另一种方法是,将这两
programer_cao
·
2020-02-14 17:51
神经网络
吴恩达
深度学习笔记
(19)-非线性激活函数的作用
为什么需要非线性激活函数?(whyneedanonlinearactivationfunction?)为什么神经网络需要非线性激活函数?事实证明:要让你的神经网络能够计算出有趣的函数,你必须使用非线性激活函数,证明如下:这是神经网络正向传播的方程(看图中公式)现在我们去掉函数g,然后令a^([1])=z^([1]),或者我们也可以令g(z)=z,这个有时被叫做线性激活函数(更学术点的名字是恒等激励
极客Array
·
2020-02-12 02:02
TensorFlow
深度学习笔记
Tensorboard入门
转载请注明作者:梦里风林Github工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue区讨论官方教程:https://www.tensorflow.org/versions/master/how_tos/graph_viz/index.htmlTensorFlow自带的一个强大的可视化工具功能这是TensorFlow在MNIST
梦里茶
·
2020-02-10 09:17
TensorFlow
深度学习笔记
卷积神经网络
转载请注明作者:梦里风林Github工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue区讨论官方教程地址视频/字幕下载deepdiveintoimagesandconvolutionalmodelsConvnetBackGround人眼在识别图像时,往往从局部到全局局部与局部之间联系往往不太紧密我们不需要神经网络中的每个结点都掌
梦里茶
·
2020-02-10 07:23
吴恩达
深度学习笔记
(83)-LeNet-5、AlexNet和VGGNet网络知多少
经典网络(Classicnetworks)这节课,我们来学习几个经典的神经网络结构,分别是LeNet-5、AlexNet和VGGNet。LeNet-5首先看看LeNet-5的网络结构,假设你有一张32×32×1的图片,LeNet-5可以识别图中的手写数字,比如像这样手写数字7。LeNet-5是针对灰度图片训练的,所以图片的大小只有32×32×1。实际上LeNet-5的结构和我们上周讲的最后一个范例
极客Array
·
2020-02-09 15:00
Deeplearning.ai课程笔记-神经网络和深度学习
参考笔记:
深度学习笔记
神经网络和深度学习结构化数据:如数据库里的数据非结构化数据:hardtounderstand:如图像、文本一.深度学习的优势算法、硬件计算能力的提高使神经网络运行速度变快大数据(带
z1xiang
·
2020-01-15 13:00
【连载】
深度学习笔记
12:卷积神经网络的Tensorflow实现
在上一讲中,我们学习了如何利用numpy手动搭建卷积神经网络。但在实际的图像识别中,使用numpy去手写CNN未免有些吃力不讨好。在DNN的学习中,我们也是在手动搭建之后利用Tensorflow去重新实现一遍,一来为了能够对神经网络的传播机制能够理解更加透彻,二来也是为了更加高效使用开源框架快速搭建起深度学习项目。本节就继续和大家一起学习如何利用Tensorflow搭建一个卷积神经网络。我们继续以
linux那些事
·
2020-01-06 08:31
TensorFlow
深度学习笔记
GoogleDeepLearningNotesGoogle
深度学习笔记
经常总结是个好习惯,笔记目录奉上。
梦里茶
·
2019-12-31 13:44
深度学习笔记
总结(2) 改善深层神经网络:超参数调试、 正则化以及优化
1第一周深度学习的实用层面1.1训练集、验证集、测试集训练集用来训练模型内参数的数据集验证集用于在训练过程中检验模型的状态、收敛情况。验证集通常用于调整超参数,根据几组模型验证集上的表现决定哪组超参数拥有最好的性能。同时也可以用评价指标评估模型、比如准确率、召回率、平均误差。测试集用于评估模型的泛化能力在机器学习中,我们通常将样本分成训练集,验证集和测试集三部分,数据集规模相对较小,适用传统的划分
致Great
·
2019-12-29 09:47
深度学习笔记
2-神经网络的基本内容
「学习内容总结自coursera和udacity的深度学习课程,部分截图来自udacity的课件」一.最简单的神经网络及其输出如上图所示是最简单的神经网络模型,包含输入x,神经元(又称为感知器)和输出y。对这个神经网络再具体一点就是下图所示,对输入的x给与权重(在其他较复杂的神经网络中,往往有很多个输入,一个较大的权重意味着神经网络认为这个输入比其它输入更重要,较小的权重意味着该数据不是那么重要)
caoqi95
·
2019-12-28 21:00
深度学习笔记
representationlearning简单的机器学习需要人为设计特征,但是有时候人并不知道哪些特征更有效。而表示学习可以自主学习特征。autoencoder是一种典型的表示学习方法:encoder将输入数据转换为另一种更有效的表达,该表达能够更高效地用于机器学习。decoder则将接受的表达数据还原为原始的表达形式。deeplearning深度学习通过组合简单的概念来表达复杂的概念。(遗留问
ylonge
·
2019-12-28 01:28
TensorFlow
深度学习笔记
Logistic Classification
LogisticClassificationGithub工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue区讨论官方教程地址视频/字幕下载AboutsimplebutimportantclassifierTrainyourfirstsimplemodelentirelyendtoend下载、预处理一些图片以分类Runanactu
梦里茶
·
2019-12-25 18:49
深度学习笔记
(一)感知器、梯度下降、反向传播
本文是在学习优达学城深度学习课程第一部分后做的笔记,只供查阅使用,具体公式推导与代码实践在文中给了参考资料的链接。深度学习神经网络是一种机器学习算法,模型如下。神经网络神经网络由输入层、隐藏层、输出层组成,当隐藏层的层数大于等于2时,叫做深层神经网络,使用深层神经网络算法进行机器学习就叫做深度学习。感知器perceptron神经网络是由神经元组成的,而激活函数为阶跃函数的神经元就是感知器。感知器的
唐晓阳_雪球行动
·
2019-12-25 09:14
深度学习笔记
1--线性回归模型
「学习内容总结自udacity的深度学习课程,截图来自udacity的课件」一.建立简单线性回归任务:本节练习提供的数据为各国男性人口的BMI与该国人口平均寿命。数据来自Gapminder:https://www.gapminder.org数据文件位于"bmi_and_life_expectancy.csv"中。其中"Country"列记录出生国家,"Lifeexpectancy"列记录该国平均寿
caoqi95
·
2019-12-20 16:56
吴恩达
深度学习笔记
(46)-学习率衰减优化(Learning rate decay)
学习率衰减(Learningratedecay)加快学习算法的一个办法就是随时间慢慢减少学习率,我们将之称为学习率衰减,我们来看看如何做到,首先通过一个例子看看,为什么要计算学习率衰减。假设你要使用mini-batch梯度下降法,mini-batch数量不大,大概64或者128个样本,在迭代过程中会有噪音(蓝色线),下降朝向这里的最小值,但是不会精确地收敛,所以你的算法最后在附近摆动,并不会真正收
极客Array
·
2019-12-19 09:31
深度学习笔记
- 103 - Gradient Descent in Linear Regression
image.pngfromnumpyimport*defcompute_error_for_given_points(b,m,points):totalError=0foriinrange(0,len(points)):x=points[i,0]y=points[i,1]totalError+=(y-(m*x+b))**2returntotalError/float(len(points))def
Kimichen7764
·
2019-12-15 09:26
上一页
26
27
28
29
30
31
32
33
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他