E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《深度学习笔记》
深度学习笔记
(6):第一课第二周作业第二部分详解与代码
前言笔者使用的是下面的平台资源,欢迎大家也一起fork参与到深度学习的代码实践中来。链接如下https://www.kesci.com/home/project/5dd23dbf00b0b900365ecef1本章导读其实还是走的是用神经网络思想去做一个罗杰斯特回归的实践这一思路,而在这一部分,我们的任务是去做一个简单的二分类,构建一个模型,判断图片中的物体是否是猫题目要求用神经网络思想实现Log
良夜星光
·
2020-07-12 12:10
吴恩达深度学习笔记
神经网络
深度学习笔记
(15):第二课第一周第三次作业
剖析与心得在本次实验中,我们使用梯度检验方法,将输入的参数稍稍改变一点,因为我们有很大把握使得最后的损失值是对的,所以,我们直接用损失值的变化量除以自变量的改变量,得到的就是导数值的近似值,在一定误差允许范围内,如果其和我们使用梯度下降求出来的值相近,那么说明,我们梯度下降的算法的书写没有问题;否则则说明有问题。本次实验中,写了两部分代码:第一部分是针对简单的单元变量进行检验,热身;第二部分是对于
良夜星光
·
2020-07-12 12:10
吴恩达深度学习笔记
神经网络
笔记
深度学习笔记
(5):第一课第二周的作业题第一部分详解与代码
前言,这里笔者使用的是这个网站下的计算资源,感兴趣的同学也可以来fork练练手https://www.kesci.com/home/project/5dd236a800b0b900365eca9bHelloWorld任务熟悉一下平台,没啥好说的注意两点1)记住shift+Entershift+Entershift+Enter快捷键2)记住要从import那一段代码开始一直运行到你需要的部分,否则可
良夜星光
·
2020-07-12 12:40
吴恩达深度学习笔记
神经网络
动手学
深度学习笔记
线性回归从零开始实现线性回归一.生成数据集模型定义y=w1x1+w2x2+by:labelx:输入的featuresb:偏差.randn(a,b)输出a行b列正态分布采样点在这里插入代码片%matplotlibinlineimporttorchfromIPythonimportdisplayfrommatplotlibimportpyplotaspltimportnumpyasnpimportra
三维视觉工作室
·
2020-07-12 11:22
深度学习笔记
(一):logistic分类
深度学习笔记
(一):logistic分类
深度学习笔记
(二):简单神经网络,后向传播算法及实现
深度学习笔记
(三):激活函数和损失函数
深度学习笔记
:优化方法总结(BGD,SGD,Momentum,AdaGrad
multiangle
·
2020-07-12 04:47
机器学习&深度学习
算法
深度学习
神经网络
算法
logistic
分类
深度学习笔记
:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam)
深度学习笔记
(一):logistic分类
深度学习笔记
(二):简单神经网络,后向传播算法及实现
深度学习笔记
(三):激活函数和损失函数
深度学习笔记
:优化方法总结
深度学习笔记
(四):循环神经网络的概念,结构和代码注释
深度学习笔记
multiangle
·
2020-07-12 04:16
机器学习&深度学习
深度学习
优化
深度学习笔记
(2):caffe 加新层 Attention LSTM layer
上一篇文章,详细地分析了LSTMlayer的源码和流程图,本篇将在caffe加入新层,Attentionlstmlayer。在代码之前,我们先分析一下一些论文里的attentionmodel的公式和流程图。(1):RecurrentModelsofVisualAttentionA、GlimpseSensor:在t时刻,选取不同大小的区域,组合成数据ρB、GlimpseNetwork:图片局部信息与
少年冬郎
·
2020-07-12 03:35
lstm
深度学习笔记
---摆数操作 NCHW和NHWC区别
深度学习中,经常出现摆数的要求;经常会对数据的不同格式出现疑惑,这里记录下来;说到的NHWC或者NCHW其中每个代表的含义如下:N代表数量,C代表channel,H代表高度,W代表宽度。1、NCHW其实代表的是[WHCN],第一个元素是000,第二个元素是沿着w方向的,即001,这样下去002003,再接着呢就是沿着H方向,即004005006007…这样到019后,沿C方向,轮到了020,之后0
hairuiJY
·
2020-07-12 01:52
机器/深度学习
深度学习笔记
(三)用Torch实现多层感知器
代码地址:https://github.com/vic-w/torch-practice/tree/master/multilayer-perceptron上一次我们使用了输出节点和输入节点直接相连的网络。网络里只有两个可变参数。这种网络只能表示一条直线,不能适应复杂的曲线。我们将把它改造为一个多层网络。一个输入节点,然后是两个隐藏层,每个隐藏层有3个节点,每个隐藏节点后面都跟一个非线性的Sigm
山猫小队长
·
2020-07-11 21:52
算法
深度学习
torch
HashMap源码解析
吴恩达老师的机器学习和深度学习课程笔记打印版黄海广博士的github:fengdu78(HuangHaiguang)·GitHub机器学习笔记:GitHub-fengdu78/Coursera-ML-AndrewNg-Notes:吴恩达老...
深度学习笔记
qq_20865047
·
2020-07-11 15:17
动手学
深度学习笔记
6BN和残差网络
一、批量归一化BN对输入的归一化(浅层模型):1.处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。2.标准化处理输入数据使各个特征的分布相近批量归一化(深度模型):利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。BN有两种情况:1.对全连接层进行批量归一化:位置:全连接层中的仿射变换和激活函数之间。全连接:此时BN:这⾥ϵ>0是
programer_cao
·
2020-07-11 14:09
深度学习笔记
3
过拟合、欠拟合过拟合、欠拟合的概念权重衰减丢弃法模型选择、过拟合和欠拟合训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(trainingerror)和泛化误差(generalizationerror)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函
HernandoMX
·
2020-07-11 13:38
深度学习笔记
7:激活函数层的实现
如果有什么疑问或者发现什么错误,欢迎在评论区留言,有时间我会一一回复激活函数是用来引入非线性因素的。网络中仅有线性模型的话,表达能力不够。比如一个多层的线性网络,其表达能力和单层的线性网络是相同的(可以化简一个3层的线性网络试试)。我们前边提到的卷积层、池化层和全连接层都是线性的,所以,我们要在网络中加入非线性的激活函数层。一般一个网络中只设置一个激活层。激活函数一般具有以下性质:非线性:线性模型
kanei_ri
·
2020-07-11 10:13
深度学习
深度学习笔记
Day6 python基础知识系列(仅本人自用)
文章目录变量的作用域全局变量局部变量局部变量和全局变量效率测试参数的传递浅拷贝和深拷贝传递不可变对象是浅拷贝参数的几种类型位置参数命名参数可变参数强制命名参数lambda表达式和匿名函数eval()函数递归函数函数也是对象,内存底层分析Python中,“一切都是对象”。实际上,执行def定义函数后,系统就创建了相应的函数对象。变量的作用域变量起作用的范围称为变量的作用域,不同作用域内同名变量之间互
ω@
·
2020-07-11 07:01
防止过拟合(二):Dropout
深度学习笔记
:欠拟合、过拟合防止过拟合(一):正则化防止过拟合(三):数据增强Dropout在2012年,Hinton等人在其论文《Improvingneuralnetworksbypreventingco-adaptationoffeaturedetectors
AI 菌
·
2020-07-10 19:51
深度学习理论
深度学习笔记
(二):激活函数总结
目录一、激活函数的前世今生二、不得不知的激活函数1.Sigmoid2.Tanh3.ReLU4.LeakyReLU5.Softmax一、激活函数的前世今生早在1958年,美国心理学家FrankRosenblatt就提出了第一个可以自动学习权重的神经元模型,称为感知机。它的模型如下:从图中可以看出,他使用的是一个简单的一层网络,其中激活函数是阶跃函数(这也是最早使用的激活函数)。于是这个感知机模型的公
AI 菌
·
2020-07-10 19:50
深度学习理论
深度学习笔记
(39):第五课第三周第一次作业
带注意力机制的机器翻译即我们要在实验中实践下图其中下面的图片是对于上面的图片注意力部分的展开,使用所有的encoder的隐藏层输入和上一个s来得到这一次的context代码代码主要是keras都得现学挺恶心的#GRADEDFUNCTION:one_step_attentiondefone_step_attention(a,s_prev):"""Performsonestepofattention:
良夜星光
·
2020-07-10 19:52
吴恩达深度学习笔记
笔记
神经网络
深度学习笔记
(40):第五课第三周第二次作业
这一部分的实验我觉得挺跳跃的,突然就到语音识别了时间重叠判定#GRADEDFUNCTION:is_overlappingdefis_overlapping(segment_time,previous_segments):"""Checksifthetimeofasegmentoverlapswiththetimesofexistingsegments.Arguments:segment_time-
良夜星光
·
2020-07-10 19:52
神经网络
吴恩达深度学习笔记
笔记
深度学习总结——CS231n课程深度学习(机器视觉相关)笔记整理
深度学习笔记
整理说明基本知识点一:模型的设置(基本)1.激活函数的设置2.损失函数的设置(1)分类问题(2)属性问题(3)回归问题3.正则化方式的设置(1)损失函数添加正则化项(2)最大范式约束(3)随机失活
Jichao_Peng
·
2020-07-10 11:30
深度学习
【
深度学习笔记
】使用knn实现特征向量分类
这是一个使用knn把特征向量进行分类的demo。Knn算法的思想简单说就是:看输入的sample点周围的k个点都属于哪个类,哪个类的点最多,就把sample归为哪个类。也就是说,训练集是一些已经被手动打好标签的数据,knn会根据你打好的标签来挖掘同类对象的相似点,从而推算sample的标签。Knn算法的准确度受k影响较大,可能需要写个循环试一下选出针对不同数据集的最优的k。至于如何拿到特征向量,可
Li xiang007
·
2020-07-10 11:16
Deep
learning
深度学习笔记
(27):残差网络ResNet50简介
前言想要训练足够强大的神经网络,我们就需要搭建足够深度的网络,但是深的网络会不可避免地产生梯度爆炸或者梯度消失问题,使得训练缓慢亦或者根本见不到明显的下降。如下图我们的Relu函数和Batchnorm等都在解决这种问题,使得更加深的神经网络的训练能够被实现。本次我们介绍另一种很有效的解决思路,ResNet。什么是ResNetCNN的核心组件是convolutionalfilter和poolingl
良夜星光
·
2020-07-10 10:52
吴恩达深度学习笔记
笔记
神经网络
吴恩达
深度学习笔记
(五)
吴恩达
深度学习笔记
(五)自然语言处理NLP:序列模型循环神经网络RNN自然语言处理与词嵌入序列模型和注意力机制序列模型编程作业自然语言处理NLP:序列模型循环神经网络RNN为什么选择序列模型?
love_pegy
·
2020-07-10 10:54
深度学习
旅程的博文目录
第二章:离散几何量和算子【彭家贵版】微分几何第五章部分习题【计算几何】Voronoi图和Delaunay三角剖分【几何处理】基于二次误差测量的网格简化(二)【几何处理】基于二次误差度量的网格简化(一)【
深度学习笔记
旅程TSH
·
2020-07-10 03:08
深度学习笔记
-1.使用ANN分类animal实例
主要为了理解ANN使用方法importcv2importnumpyasnpfromrandomimportrandint#ANN网络初始化animals_net=cv2.ml.ANN_MLP_create()animals_net.setTrainMethod(cv2.ml.ANN_MLP_RPROP|cv2.ml.ANN_MLP_UPDATE_WEIGHTS)animals_net.setAct
业余狙击手19
·
2020-07-10 03:23
#
DL学习笔记
深度学习笔记
(一):模型微调fine-tune
深度学习中的fine-tuning一.什么是模型微调1.预训练模型(1)预训练模型就是已经用数据集训练好了的模型。(2)现在我们常用的预训练模型就是他人用常用模型,比如VGG16/19,Resnet等模型,并用大型数据集来做训练集,比如Imagenet,COCO等训练好的模型参数;(3)正常情况下,我们常用的VGG16/19等网络已经是他人调试好的优秀网络,我们无需再修改其网络结构。2.常用的预训
熊宝宝爱学习
·
2020-07-10 02:52
深度学习
深度学习笔记
(八)---语义分割的前世今生
Background语义分割是一种典型的计算机视觉问题,其涉及将一些原始数据(例如,平面图像)作为输入并将它们转换为具有突出显示的感兴趣区域的掩模。许多人使用术语全像素语义分割(full-pixelsemanticsegmentation),其中图像中的每个像素根据其所属的感兴趣对象被分配类别ID。早期的计算机视觉问题只发现边缘(线条和曲线)或渐变等元素,但它们从未完全按照人类感知的方式提供像素级
Jayden yang
·
2020-07-10 00:11
深度学习笔记
深度学习笔记
——分类模型(二)AlexNet
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportSequentialfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefmain():width=227height=227batch_size=16generator=ImageDa
wind_700
·
2020-07-09 18:18
深度神经网络
深度学习笔记
——分类模型(一)LeNet-5
#-*-coding:utf-8-*-importdatetimefromkeras.datasetsimportmnistfromkeras.utilsimportnp_utilsfromkeras.modelsimportSequentialfromkeras.layersimport*defmain():(x_train,y_train),(x_test,y_test)=mnist.load
wind_700
·
2020-07-09 18:17
深度神经网络
深度学习笔记
-人工智能绪论(学习笔记)
深度学习笔记
-人工智能绪论(学习笔记)人功智能:让机器获得像人一样的智能机制的技术人工智能,机器学习,神经网络,深层神经网络四者关系机器学习可以分为,有监督学习,无监督学习和强化学习。
冒牌的帕德里克
·
2020-07-09 15:17
深度学习
深度学习笔记
--使用keras创建和加载VGG模型
VGG16模型,顾名思义,有16层,通过学习github上的源码,发现其中有13层为卷积层(conv),3层为全连接(Dense),还有若干层pooling层。使用keras建立一个模型的instance有两种方式,一个是通过Input类构建,一个则是通过model类构建,具体的形式有所不同,本文采用Input类构建,这里默认输入图片大小为(50,50,3)。使用代码可以清晰看出VGG的每一层参数
hellosonny
·
2020-07-09 14:18
人工智能-
深度学习笔记
2 猫和非猫引起的二分类
在学习神经网络基础知识时,需要注意的是,去实现一个神经网络时,是需要知道一些非常重要的技术和技巧的:例如数据集,该如何表示和处理呢?;选用什么的算法方式呢,激活函数的确定;成本函数和代价函数怎么确定?;多少也得知道前向传播和反向传播的过程以及会产生怎样的结果吧。在学习什么是神经网络时拿线性回归做了示例,此次将以猫和非猫的二分类问题来传达以上的这些想法,逻辑回归是解决二分类(binaryclassi
clyfk
·
2020-07-09 14:48
MachineLearning
人工智能-
深度学习笔记
2 猫和非猫引起的二分类-续
在学习神经网络基础知识时,需要注意的是,去实现一个神经网络时,是需要知道一些非常重要的技术和技巧的:例如数据集,该如何表示和处理呢?;选用什么的算法方式呢,激活函数的确定;成本函数和代价函数怎么确定?;多少也得知道前向传播和反向传播的过程以及会产生怎样的结果吧。在上一篇的学习笔记中,进行到了代价函数的设计技巧,接下来就是通过让代价达到最小来进行神经网络的训练,下面就看看神经网络是怎么做的?1、梯度
clyfk
·
2020-07-09 14:48
MachineLearning
DeepLearning
深度学习笔记
15:ubuntu16.04 下深度学习开发环境搭建与配置
欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tstoutiao,并注明消息来源,邀请你进入数据爱好者交流群,数据爱好者们都在这儿。作者:鲁伟,热爱数据,坚信数据技术和代码改变世界。R语言和Python的忠实拥趸,为成为一名未来的数据科学家
R3eE9y2OeFcU40
·
2020-07-09 11:29
深度学习笔记
(5)——学术界的霸主Resnet
前言在当今学术界的论文里,几个baseline网络LeNet、AlexNet、VGGNet、GoogLeNet、ResNet都是大家用的多的CNN网络。其中LeNet、AlexNet、VGGNet这三个都是很古老的CNN线性网络,属于新手喜欢用的VGGlike网络,这些网络结构简单,从输入到输出一条路走到黑,所以工业界对这些网络都有很有效的加速优化,但是在学术界却因为泛化能力有限近年逐渐被淘汰。而
迷川浩浩_ZJU
·
2020-07-09 08:07
深度学习
深度学习笔记
——分类模型(四)Inceptionv3
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefconv2d_bn(x,filters,num_row,num_col,padding='same',strides=(1
wind_700
·
2020-07-09 08:43
深度神经网络
深度学习笔记
——分类模型(八)Xception
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefXception(input_shape=(299,299,3),classes=1000):img_input=Inpu
wind_700
·
2020-07-09 08:43
深度神经网络
深度学习笔记
——分类模型(七)DenseNet121
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefdense_block(x,blocks,name):foriinrange(blocks):x=conv_block(x
wind_700
·
2020-07-09 08:43
深度神经网络
深度学习笔记
——分类模型(六)ResNeXt50
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefGroupConv2D(input,filters,kernel_size,strides=(1,1),padding='
wind_700
·
2020-07-09 08:43
深度神经网络
深度学习笔记
——分类模型(五)ResNet50
#-*-coding:utf-8-*-importdatetimefromkeras.modelsimportModelfromkeras.layersimport*fromkeras.preprocessing.imageimportImageDataGeneratordefidentity_block(input_tensor,kernel_size,filters,stage,block):
wind_700
·
2020-07-09 07:24
深度神经网络
深度学习笔记
(四)——神经网络和深度学习(浅层神经网络)
1.神经网络概览神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多一层,多出来的中间那层称为隐藏层或中间层。从计算上来说,神经网络的正向传播和反向传播过程只是比逻辑回归多了一次重复的计算。正向传播过程分成两层,第一层是输入层到隐藏层,用上标[1]来表示;第二层是隐藏层到输出层,用上标[2]来表示。方括号上标[i]表示当前所处的层数;圆括号上标(i)表示第i个样本。同样,反向传播过程也分成
Laura2017
·
2020-07-09 05:31
吴恩达深度学习工程师
吴恩达老师深度学习课程完整笔记
为了方便学习深度学习课程,转载一个吴恩达老师的一个
深度学习笔记
,转载的网站是下面这个https://blog.csdn.net/red_stone1/article/details/80207815从去年
Miracle8070
·
2020-07-09 01:51
深度学习系列
深度学习
机器学习
人工智能
fast.ai
深度学习笔记
:第一部分第三课
原文:DeepLearning2:Part1Lesson3作者:HiromiSuenaga课程论坛学生创建的有用材料:AWS操作方法TMUX第2课总结学习率查找器PyTorch学习率与批量大小误差表面的平滑区域与泛化5分钟搞定卷积神经网络解码ResNet架构另一个ResNet教程我们离开的地方:回顾[08:24]:KaggleCLI:如何下载数据1:从Kaggle下载时,KaggleCLI是一个很
布客飞龙
·
2020-07-09 00:49
机器学习
2020-4-7
深度学习笔记
17 - 蒙特卡罗方法 5 ( 不同的峰值之间的混合挑战)
第十七章蒙特卡罗方法中文英文2020-4-4
深度学习笔记
17-蒙特卡罗方法1(采样和蒙特卡罗方法-必要性和合理性)2020-4-4
深度学习笔记
17-蒙特卡罗方法2(重要采样–采样数量一定,提高准确度,减少方差
没人不认识我
·
2020-07-08 20:14
深度学习
IT
深度学习笔记
4:深度神经网络的正则化
总的来说,监督机器学习的核心原理莫过于如下公式:该公式可谓是机器学习中最核心最关键最能概述监督学习的核心思想的公式了:所有的有监督机器学习,无非就是正则化参数的同时最小化经验误差函数。最小化经验误差是为了极大程度的拟合训练数据,正则化参数是为了防止过分的拟合训练数据。你看,多么简约数学哲学。正如之前所说,监督机器学习是为了让我们建立的模型能够发现数据中普遍的一般的规律,这个普遍的一般的规律无论对于
louwill12
·
2020-07-08 18:33
Coursera deeplearning.ai
深度学习笔记
2-2-Optimization algorithms-优化算法与代码实现
1.优化算法1.1小批量梯度下降(Mini-batchGradientDescent)对于很大的训练集m,可以将训练集划分为T个mini-batch,分批量来学习,这样将第t个mini-batch的参数定义为X{t}、Y{t}。训练流程如下:fort=1,…,TforwardpropagationonX{t},computecostJ{t},backwardpropagationtocompute
tu天马行空
·
2020-07-08 08:55
Coursera
深度学习
深度学习笔记
(四)第四章 数值计算
过大或者过小在计算机中,我们通常会去处小数操作,那么对于过小的数字,在计算机中有可能被表示为0,而对于有些深度学习的函数来说,一个数值为0和这个数值是一个很小的数值,结果会非常不同。比如除0错误或者log0。另外一个情况就是过大。softmax函数通常用来计算多项式概率分布,定义如下:如果xi都为常数c,那么结果应该是1/n。但是如果c是一个无限小的负数,那么c的exp会是过小的数,那么softm
ouyangshixiong
·
2020-07-07 18:56
机器学习
37.Oracle
深度学习笔记
——RAC的相关等待事件
37.Oracle
深度学习笔记
——RAC的相关等待事件欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/50891037在性能BENCHMARK
badman250
·
2020-07-07 18:19
Oracle
29.Oracle
深度学习笔记
——分析函数
29.Oracle
深度学习笔记
——分析函数欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/508308861.分析函数分析函数是Oracle
badman250
·
2020-07-07 18:19
27.Oracle
深度学习笔记
——ORACLE审计
27.Oracle
深度学习笔记
——ORACLE审计欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/50830894审计(Audit)
badman250
·
2020-07-07 18:19
Oracle
28.Oracle
深度学习笔记
——ORACLE自带DBMS函数包
28.Oracle
深度学习笔记
——ORACLE自带DBMS函数包欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/5083088912C
badman250
·
2020-07-07 18:19
Oracle
上一页
21
22
23
24
25
26
27
28
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他