E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
limu深度学习笔记
深度学习笔记
(五):SoftMax激活函数介绍
SoftMax激活函数介绍上次笔记介绍了一个新的Cost函数,改进了神经网络,这个笔记将介绍一张面向多分类的SoftMax激活函数SoftMax定义了神经网络新型的输出方法,他不改变神经网络的加权输入(即中间量Z):zLj=∑kwLjkaL−1k+bLjzjL=∑kwjkLakL−1+bjL回顾下神经网络的输入输出流程神经网络结构神经元输入输出过程前一层的输出值作为后一层的输入值,经过加权求和并加
放不完的风筝
·
2020-08-01 02:56
深度学习
【
深度学习笔记
】Batch Normalization (BN)
BatchNormalization:AcceleratingDeepNetworkTrainingbyReducingInternalCovariateShift这篇文章是谷歌2015年提出的一个深层网络训练技巧,BatchNormalization(简称BN)不仅可以加快了模型的收敛速度,而且更重要的是在一定程度缓解了深层网络中“梯度弥散”的问题(梯度弥散:,在BN中,通过将activatio
通信程序猿
·
2020-08-01 01:11
机器学习
深度学习笔记
(四)用Torch实现MNIST手写数字识别
本节代码地址:https://github.com/vic-w/torch-practice/tree/master/mnistMNIST是手写数字识别的数据库。在深度学习流行的今天,MNIST数据库已经被大家玩坏了。但是用它来学习卷积神经网络是再好不过的了。这一次,我们就用Torch来实现MNIST数据库的识别。这一次的代码用到了mnist库,如果之前没有安装,可以在命令行键入:luarocks
山猫小队长
·
2020-07-31 23:56
深度学习笔记
(六)---初识图像处理
以下笔记来源:[1].《pytorch深度学习实战》深度学习中图像处理函数的总结:图像处理包括滤波,变换,图像插值,旋转,仿射,形态学的处理。一般我们常用的图像处理库有opencv,scipy,sickit,pillow等,其中opencv功能之强大,opencv-python的安装请查看:https://blog.csdn.net/qq_41997920/article/details/8874
Jayden yang
·
2020-07-31 23:07
深度学习笔记
深度学习笔记
2:手写一个单隐层的神经网络
欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tsaiedu,并注明消息来源,邀请你进入数据爱好者交流群,数据爱好者们都在这儿。作者简介:鲁伟:一个数据科学践行者的学习日记。数据挖掘与机器学习,R与Python,理论与实践并行。个人公众号:
天善智能
·
2020-07-31 17:30
吴恩达
深度学习笔记
2.6~2.9 logistic中的梯度下降
之前我们已经了解了CossFunction的定义,它是一个convex,所以我们能找到它的全局最优解,我们可以先可以先随便选取一组w,b,求得刚开始J(w,b)对w的偏导,用公式:我们可以对w进行更新,其中α为学习率,为梯度下降的步长,α越大,步长越大,同理也可以对b更新,最后经过一步步迭代,我们能够找到最优解使得CostFunction最小.逻辑回归中包含了正向传播和反向传播,用一个计算图来表示
banghu8816
·
2020-07-31 16:28
深度学习笔记
(三):BatchNorm(BN)层
文章目录一、背景二、提出三、原理四、计算五、ScaleandShift六、BN层实现学习记录:
深度学习笔记
(一):卷积层+激活函数+池化层+全连接层
深度学习笔记
(二):激活函数总结
深度学习笔记
AI 菌
·
2020-07-31 13:38
深度学习->基础理论
深度学习笔记
(1)——张量
深度学习笔记
(由于项目需要,开始了深度学习的学习,留下笔记自用)参考书目:《Python深度学习》2018中文版深度学习是机器学习的一个分支,近年来发展迅速机器学习有三个要素:1、输入数据点2、预期输出示例
岁月静好tjj
·
2020-07-31 10:06
深度学习笔记
深度学习
【
深度学习笔记
】关键点检测——标签(Ground Truth)构建
首先介绍一下关键点回归的GroundTruth的构建问题,主要有两种思路,Coordinate和Heatmap,Coordinate即直接将关键点坐标作为最后网络需要回归的目标,这种情况下可以直接得到每个坐标点的直接位置信息;Heatmap即将每一类坐标用一个概率图来表示,对图片中的每个像素位置都给一个概率,表示该点属于对应类别关键点的概率,比较自然的是,距离关键点位置越近的像素点的概率越接近1,
Li xiang007
·
2020-07-30 22:30
Deep
learning
【数学基础】特征值,特征向量与SVD奇异值分解
来自:纸鱼AI本文是
深度学习笔记
系列文章,本次文章将介绍线性代数里比较重要的概念:特征值,特征向量以及SVD奇异值分解。向量回顾线性代数中,含有n个元素的向
zenRRan
·
2020-07-30 16:18
吴恩达
深度学习笔记
(68)-多任务学习
多任务学习(Multi-tasklearning)在迁移学习中,你的步骤是串行的,你从任务A里学习只是然后迁移到任务B。在多任务学习中,你是同时开始学习的,试图让单个神经网络同时做几件事情,然后希望这里每个任务都能帮到其他所有任务。我们来看一个例子,假设你在研发无人驾驶车辆,那么你的无人驾驶车可能需要同时检测不同的物体,比如检测行人、车辆、停车标志,还有交通灯各种其他东西。比如在左边这个例子中,图
极客Array
·
2020-07-29 20:47
吴恩达
深度学习笔记
(4)-为什么深度学习会兴起?
为什么深度学习会兴起?(WhyisDeepLearningtakingoff?)本节视频主要讲了推动深度学习变得如此热门的主要因素。包括数据规模、计算量及算法的创新。(3个重点概念!请背书!)深度学习和神经网络之前的基础技术理念已经存在大概几十年了,为什么它们现在才突然流行起来呢?对啊,为什么?看过我之前文章:人工智能的冷落与兴起,那么你就会了解发展历程了,但是这个深度学习为什么会独引爆全场呢?本
极客Array
·
2020-07-29 15:08
深度学习
吴恩达深度学习笔记
【
深度学习笔记
】Windows 下 pip 安装paddle.fluid
环境准备Windows7/8/10专业版/企业版(64bit)(GPU版本支持CUDA9.0/10.0,且仅支持单卡)Python版本2.7.15+/3.5.1+/3.6/3.7(64bit)pip或pip3版本9.0.1+(64bit)注意事项确认需要安装PaddlePaddle的Python是您预期的位置,因为您计算机可能有多个Python如果您是使用Python2,使用以下命令输出Pytho
Li xiang007
·
2020-07-29 14:40
Deep
learning
深度学习笔记
3:手动搭建深度神经网络(DNN)
欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tsaiedu,并注明消息来源,邀请你进入数据爱好者交流群,数据爱好者们都在这儿。作者简介:鲁伟:一个数据科学践行者的学习日记。数据挖掘与机器学习,R与Python,理论与实践并行。个人公众号:
天善智能
·
2020-07-29 11:00
神经网络与
深度学习笔记
——第4章 神经网络可以计算任何函数的可视化证明
第4章神经网络可以计算任何函数的可视化证明神经网络拥有一种普遍性。不论我们想要计算什么样的函数,我们都确信存在一个神经网络可以计算它。而且,这个普遍性定理甚至在我们限制了神经网络只在输入层和输出层之间存在一个中间层的情况下成立。所以即使是很简单的网络架构都极其强大。普遍性定理在使用神经网络的人群中是众所周知的。但是它为何正确却不被广泛地理解。现有的大多数的解释都具有很强的技术性。两个预先声明关于神
zhzhx0318
·
2020-07-29 03:31
fast.ai
深度学习笔记
:第一部分第一课
原文:DeepLearning2:Part1Lesson1作者:HiromiSuenaga课程论坛入门[0:00]:为了训练神经网络,你肯定需要图形处理单元(GPU)-特别是NVIDIAGPU,因为它是唯一支持CUDA(几乎所有深度学习库和从业者都使用的语言和框架)的设备。租用GPU有几种方法:Crestle[04:06],Paperspace[06:10]Jupyter笔记本和猫狗识别的介绍[1
布客飞龙
·
2020-07-28 23:03
机器学习
吴恩达_深度学习概论
吴恩达
深度学习笔记
,不严谨之处还请斧正。2.什么是神经网络?由一个或多个参数输入信息经过算法计算、计算后结果输出的过程可以看做一个计算单元,可以比作神经元。
太和վ'ᴗ' ի
·
2020-07-28 23:42
机器学习
深度学习
深度学习笔记
(6)卷积
1.卷积神经网络convolutionalneuralnetwork卷积神经网络是有生物学意义的,每个视觉神经元只对特定的一定范围的图形进行感知。相对于普通神经元来说,它会大大减少参数量。2.卷积网络的计算过程在卷积神经网络中有个卷积核的概念,每个卷积核与相应的图像区块进行乘积运算,然后通过激活函数。接着可以连接池化层,池化可以增加图像的旋转、平移和缩放的不变性。多通道下的卷积,是每个通道卷积核运
无事扯淡
·
2020-07-28 20:57
【连载】
深度学习笔记
5:正则化与dropout
在笔记4中,详细阐述了机器学习中利用正则化防止过拟合的基本方法,对L1和L2范数进行了通俗的解释。为了防止深度神经网络出现过拟合,除了给损失函数加上L2正则化项之外,还有一个很著名的方法——dropout.废话少说,咱们单刀直入正题。究竟啥是dropout?dropout是指在神经网络训练的过程中,对所有神经元按照一定的概率进行消除的处理方式。在训练深度神经网络时,dropout能够在很大程度上简
linux那些事
·
2020-07-28 17:36
深度学习笔记
——理论与推导之Reinforcement Learning(十三)
ReinforcementLearning(强化学习)ReinforcementLearning机器学习的分支:有监督学习是机器学习任务的一种,它从有标记的训练数据中推导出预测函数。有标记的训练数据是指每个训练实例都包括输入和期望的输出。即:给定数据,预测标签。无监督学习是机器学习任务的一种,它从无标记的训练数据中推断结论。最典型的无监督学习就是聚类分析,它可以在探索性数据分析阶段用于发现隐藏的模
R3
·
2020-07-28 12:43
学习ing
深度学习笔记
——深度学习框架TensorFlow(六)[TensorFlow线性模型教程]
参考资料:https://www.tensorflow.org/versions/r0.12/tutorials/wide/index.html#tensorflow-linear-model-tutorialTensorFlowLinearModelTutorialInthistutorial,wewillusetheTF.LearnAPIinTensorFlowtosolveabinarycl
R3
·
2020-07-28 12:11
深度学习
深度学习笔记
------卷积神经网络
深度学习笔记
------卷积神经网络相关概念卷积运算互相关运算稀疏交互参数共享卷积核填充步幅多输入通道多输出通道层级分布卷积层归一化整流(激活函数)池化层全连接层相关概念卷积运算卷积函数:h(x)=∫f
yzsorz
·
2020-07-28 11:51
深度学习笔记
卷积神经网络(CNN)之一维卷积、二维卷积、三维卷积详解
如果你对卷积维度的计算不清楚,可以参考我之前的博客吴恩达
深度学习笔记
(
星蕴w
·
2020-07-28 06:36
机器学习
深度学习笔记
(十二)--深度学习数据集MNIST、ImageNet、 COCO 、 VOC介绍
原文链接:https://www.cnblogs.com/antflow/p/7261901.html1.MNIST深度学习领域的“HelloWorld!”,入门必备!MNIST是一个手写数字数据库,它有60000个训练样本集和10000个测试样本集,每个样本图像的宽高为28*28。此数据集是以二进制存储的,不能直接以图像格式查看,不过很容易找到将其转换成图像格式的工具。最早的深度卷积网络LeNe
小熊猫3
·
2020-07-28 06:21
深度学习笔记
吴恩达
深度学习笔记
(43)-动量梯度下降法(Momentum)
动量梯度下降法(GradientdescentwithMomentum)还有一种算法叫做Momentum,或者叫做动量梯度下降法,运行速度几乎总是快于标准的梯度下降算法,简而言之,基本的想法就是计算梯度的指数加权平均数,并利用该梯度更新你的权重,在本笔记中,我们要一起拆解单句描述,看看你到底如何计算。例如,如果你要优化成本函数,函数形状如图,红点代表最小值的位置,假设你从这里(蓝色点)开始梯度下降
极客Array
·
2020-07-28 03:43
【
深度学习笔记
】优化算法( Optimization Algorithm)
本文依旧是吴恩达《深度学习工程师》课程的笔记整理与拓展。一、优化算法的目的与挑战优化算法主要是用来加快神经网络的训练速度,使得目标函数快速收敛。优化问题面临的挑战有病态解、鞍点、梯度爆炸与梯度消失……具体可见参考文献【1】241页到249页。其中深度学习不太可能陷入局部最优,因为loss函数通常涉及多个维度(w1,w2...)二、常见的优化算法1、基本算法小批量梯度下降即各种变体批量梯度下降(Ba
云若祯初
·
2020-07-28 03:04
深度学习
深度学习
优化算法
深度学习笔记
2:手写一个单隐层的神经网络
笔记1中我们利用numpy搭建了神经网络最简单的结构单元:感知机。笔记2将继续学习如何手动搭建神经网络。我们将学习如何利用numpy搭建一个含单隐层的神经网络。单隐层顾名思义,即仅含一个隐藏层的神经网络,抑或是成为两层网络。继续回顾一下搭建一个神经网络的基本思路和步骤:[if!supportLists]·[endif]定义网络结构(指定输出层、隐藏层、输出层的大小)[if!supportLists
linux那些事
·
2020-07-28 02:47
深度学习笔记
4:卷积层的实现
卷积层的推导卷积层的前向计算如下图,卷积层的输入来源于输入层或者pooling层。每一层的多个卷积核大小相同,在这个网络中,我使用的卷积核均为5*5。如图输入为28*28的图像,经过5*5的卷积之后,得到一个(28-5+1)*(28-5+1)=24*24、的map。卷积层2的每个map是不同卷积核在前一层每个map上进行卷积,并将每个对应位置上的值相加然后再加上一个偏置项。每次用卷积核与map中对
kanei_ri
·
2020-07-28 01:30
深度学习
Oracle
深度学习笔记
——shared_pool底层知识大集合
1sharedpoolhttp://www.360doc.com/content/16/0410/22/31263000_549565302.shtml--LibraryCahce锁挣用Oracle引入SharedPool就是为了帮助我们实现代码的共享和重用。SharedPool主要由两部分组成,一部分是库缓存(LibraryCahce),另一部分是数据字典缓存(DataDictionaryCac
Demonson
·
2020-07-27 21:49
Oracle
优化
SQL优化
ORA-
Oracle体系结构
主动维护与性能管理
【Deeplearning.ai 】吴恩达
深度学习笔记
及课后作业目录
吴恩达深度学习课程的课堂笔记以及课后作业代码下载:https://github.com/douzujun/Deep-Learning-Coursera课程1-神经网络和深度学习周数名称类型地址week1深度学习简介测验略week2神经网络基础笔记逻辑回归逻辑回归推导具有神经网络思维的Logistic回归编程作业识别猫week3浅层神经网络笔记浅层神经网络带有一个隐藏层的平面数据分类编程作业平面数据
Douzi1024
·
2020-07-27 17:50
深度学习笔记
一
1.
深度学习笔记
一1.1绪论(1)关于人工智能、机器学习与深度学习之间的关系:人工智能是一种科技领域,分为机器学习,数据挖掘(大概是大数据方向)以及其他方面如作为AL分支的NLP等。
脂环
·
2020-07-25 21:00
深度学习笔记
这个是在公众号中看到的,提供一个笔记。从深度学习基础、卷积网络和循环网络三个方面介绍该笔记。深度学习基础1.深度学习基本概念监督学习:所有输入数据都有确定的对应输出数据,在各种网络架构中,输入数据和输出数据的节点层都位于网络的两端,训练过程就是不断地调整它们之间的网络连接权重。左上:列出了各种不同网络架构的监督学习,比如标准的神经网络(NN)可用于训练房子特征和房价之间的函数,卷积神经网络(CNN
胖墩哥
·
2020-07-24 15:00
神经网络和
深度学习笔记
(一)
神经网络和
深度学习笔记
(一)Logistic回归算法(LogisticRegression)[用于二分分类的算法](一)基础知识二分分类CreatedwithRaphaël2.1.0InputInputOutputOutput0
AmIWalruS
·
2020-07-16 06:42
机器学习
动手学
深度学习笔记
5卷积神经网络基础
一、卷积神经网络二维卷积层将输入和卷积核做互相关运算,并加上一个标量偏置来得到输出。卷积层的模型参数包括卷积核和标量偏置。卷积运算:卷积层得名于卷积运算,但卷积层中用到的并非卷积运算而是互相关运算。我们①将核数组上下翻转、左右翻转,②再与输入数组做互相关运算。这一过程就是卷积运算。由于卷积层的核数组是可学习的,所以使用互相关运算与使用卷积运算并无本质区别。特征图与感受野:特征图(featurema
programer_cao
·
2020-07-16 04:54
深度学习笔记
16_猫狗案例优化_使用预训练模型(fine-tuning)
模型微调概念微调是指将其顶部的几层“解冻”,并将这解冻的几层和新增加的部分联合训练。详细的理解见下图[外链图片转存失败(img-ih2x0XIm-1569374299326)(https://upload-images.jianshu.io/upload_images/19296570-9e2d990bdaf2d549.jpg?imageMogr2/auto-orient/strip%7Cimag
瓦力人工智能
·
2020-07-15 23:25
keras深度学习笔记
深度学习笔记
14_猫狗分类案例优化 - 数据增强
猫狗分类案例优化-数据增强数据增强的基本概念**数据增强:**利用多种数字图像处理方法(旋转,剪切,错切,缩放,翻转,边缘填充)生成可信图像.其目标是,模型在训练时不会两次查看完全相同的图像。这让模型能够观察到数据的更多内容,从而具有更好的泛化能力。在keras中可以通过:ImageDataGenerator函数来实现图像的随机变换.rotation_range是角度值(在0~180范围内),表示
瓦力人工智能
·
2020-07-15 23:24
keras深度学习笔记
深度学习笔记
(25)- 远程桌面
每天需要接收上级文件通知,我们有专门的公文管理系统(windows7系统),在三楼机房。在windows平台工作时,我每天需要远程登录这台计算机查看是否有通知,对于深度系统是否也有这样的功能呢?今天咱们来实践一下。一、安装软件 Remmina是一款远程桌面客户端软件,提供了多种远程连接协议。打开深度商店,在搜索栏中输入:Remmina,搜索到之后单击安装。 二、配置 三楼公文管理系统的计
annigeng5139
·
2020-07-15 20:36
【
深度学习笔记
系列】卷积神经网络(CNN)详解
博主声明该
深度学习笔记
系列为个人学习笔记整理。内容来源于网上的大牛和机器学习专家所无私奉献的资料,仅供学习交流,非商用。具体引用的资料请看参考文献。
fpzRobert
·
2020-07-15 18:44
深度学习
深度学习笔记
17_卷积神经网络数据可视化_中间激活
可视化的概念深度学习模型是“黑盒”,即模型学到的表示很难用人类可以理解的方式来提取和呈现。但是我们现在的学习的卷积伸进网络却可以通过可视化很形象的说明深度学习在卷积神经网络方面可以很表示的,并不是黑盒。目前比较容易理解的三种可视化的方法如下:可视化卷积神经网络的中间输出(中间激活)就是可以展示网络中各个卷积层和池化层输出的特征图理解卷积神经网络连续的层如何对输入进行变换于初步了解卷积神经网络每个过
瓦力人工智能
·
2020-07-15 14:17
keras深度学习笔记
2020-3-27
深度学习笔记
15 - 表示学习 4(分布式表示)
第十五章表示学习官网英文2020-3-24
深度学习笔记
15-表示学习1(贪心逐层无监督预训练-目前已经不太使用)2020-3-25
深度学习笔记
15-表示学习2(迁移学习和领域自适应)2020-3-26
深度学习笔记
没人不认识我
·
2020-07-15 07:39
深度学习
IT
2020-3-21
深度学习笔记
14 - 自编码器 5(使用自编码器学习流形-降维,收缩自编码器CAE)
第十四章自编码器官网英文推荐2020-3-8
深度学习笔记
14-自编码器1(欠完备自编码器)2020-3-8
深度学习笔记
14-自编码器2(正则自编码器-稀疏自编码器(增加惩罚项)/去噪自编码器(改变重构误差项
没人不认识我
·
2020-07-15 07:39
深度学习
IT
2020-2-18
深度学习笔记
8 - 深度学习中的优化4(优化策略和元算法-- 批标准化 / 坐标下降 / Polyak平均 / 监督预训练 /设计有助于优化的模 / 延拓法和课程学习)
第八章深度学习中的优化官网python实现代码2020-2-15
深度学习笔记
8-深度学习中的优化1(与纯优化区别-基于梯度下降,神经网络优化-下降到足够小即可)2020-2-16
深度学习笔记
8-深度学习中的优化
没人不认识我
·
2020-07-15 07:39
深度学习
IT
2020-1-29
深度学习笔记
5 - 机器学习基础(构建机器学习算法)
第5章机器学习基础官网学习算法机器学习算法是一种能够从数据中学习的算法。所谓学习是指,对于某类任务T和性能度量P,一个计算机程序被认为可以从经验E中学习是指,通过经验E改进后,它在任务T上由性能度量P衡量的性能有所提升。【任务T】机器学习可以让我们解决一些人为设计和使用确定性程序很难解决的问题。学习过程本身不能算是任务。学习是我们所谓的获取完成任务的能力。例如,我们的目标是使机器人能够行走,那么行
没人不认识我
·
2020-07-15 07:38
深度学习
IT
深度学习第60讲:
深度学习笔记
系列总结与感悟
通过2018年底的一番紧赶慢赶,深度学习系列终于写满60篇笔记了,半年前定下了学习目标,勉强达成了吧。虽然现在再回头翻看前面的一些笔记会有很多不成熟、甚至是错误的地方,但和大家一样,你我都是在学习中进步、在坚持中成长。去年这个时候,我还是一个对深度学习一无所知的R语言用户,去年年终总结的时候给2018定的一大目标就是深入人工智能方向的学习。半年前,也就是6月份的时候,决定结合AndrewNG的de
louwill12
·
2020-07-15 06:38
深度学习笔记
(七)SSD 论文阅读笔记简化
一.算法概述本文提出的SSD算法是一种直接预测目标类别和boundingbox的多目标检测算法。与fasterrcnn相比,该算法没有生成proposal的过程,这就极大提高了检测速度。针对不同大小的目标检测,传统的做法是先将图像转换成不同大小(图像金字塔),然后分别检测,最后将结果综合起来(NMS)。而SSD算法则利用不同卷积层的featuremap进行综合也能达到同样的效果。算法的主网络结构是
weixin_30871905
·
2020-07-15 03:01
神经网络和
深度学习笔记
(一)
1.1什么是神经网络(NeuralNetwork)?所谓“深度学习”指的是训练神经网络。一个神经网络中的重要函数:ReLU函数(修正线性单元)ReLU函数神经网络中含有隐藏单元。当你输入x时,经过神经网络会映射成y。从外部整体上看可以理解为输入数据得到输出的系统,神经网络可以理解为输入变成输出的在逻辑的分析过程,而隐藏单元则为分析过程的中间思考节点。只要给够足够多的x、y训练样本,神经网络便能计算
变身的大恶魔
·
2020-07-13 14:01
深度学习笔记
:交叉熵(cross-entropy)损失函数解决二次型带来的学习速率下降问题
我们都希望我们的神经网络能够根据误差来加快学习的速度。但实际是什么样的呢?让我们先来看一个例子:这个网络只有一个神经元,一个输入一个输出:我们训练这个网络做一个简单的任务,输入1,输出0.当然这种简单的任务我们可以不用任何学习算法就可以手动算出权重值。但我们这次试用梯度下降法尝试获得权重值和偏置值,损失函数使用二次型函数。接下来让我们看看这个神经元是怎么学习的。首先,我选择输入x=1,w=0.6,
fanchenxinok
·
2020-07-13 14:14
深度学习
深度学习笔记
(五)---损失函数与优化器
以下笔记来源:[1].《pytorch深度学习实战》[2].pytorch损失函数总结(https://blog.csdn.net/jacke121/article/details/82812218)[3].PyTorch学习之十种优化函数(https://blog.csdn.net/shanglianlm/article/details/85019633)如有侵权,请联系删除!pytorch框架
Jayden yang
·
2020-07-13 12:06
深度学习笔记
fast.ai-
深度学习笔记
-Part1-lesson2
数据集文件结构以「猫狗识别」为例训练结果epoch(训练次数)trainingloss(训练集损失值)validationloss(测试集损失值)accuracy(准确率)[epoch,trainingloss,validationloss,accuracy][0.0.049550.026050.98975]学习率寻找器(Learningratefinder)学习率的核心目的:训练过程,迭代的步伐
adi0229
·
2020-07-13 07:18
深度学习笔记
六:常见激活函数总结
一.激活函数概览基本上,入门深度学习的第一件事情就是了解”神经元”的构造,激活函数算是最基本的一个”部件”了吧.那激活函数到底有什么用呢?为什么需要激活函数?激活函数的定义是什么呢?下面这篇论文提供了激活函数的定义以及常见的”饱和”的定义,以及对于激活函数的一些思考.大家可以参考一下.NoisyActivationFunctions引用这篇论文的定义:激活函数就是映射,且函数几乎处处可导.那为什么
谢小小XH
·
2020-07-12 17:58
深度学习理论
上一页
20
21
22
23
24
25
26
27
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他