E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CS231n深度学习笔记
吴恩达神经网络和
深度学习笔记
(广播,激活函数)
吴恩达神经网络和
深度学习笔记
往期回顾广播A.sum(axis=0)中的参数axis。
Zzjw527
·
2020-09-13 00:19
深度学习
机器学习
python
深度学习
神经网络
神经网络与
深度学习笔记
汇总四
神经网络与
深度学习笔记
汇总四往期回顾将之前掘金写的学习笔记所遇困难搬到这里,方便查看复习学习内容1、在信号处理中认为信号具有较大的方差,噪声有较小的方差,信噪比就是信号与噪声的方差比,越大越好。
Zzjw527
·
2020-09-13 00:19
深度学习
python
机器学习
深度学习
神经网络
人工智能
神经网络与
深度学习笔记
汇总二
神经网络与
深度学习笔记
汇总二正交化(方便调整参数)迭代单实数评估指标(判断几种手段/方法哪个更好)指标选取训练集、开发集、测试集作用与用途评估指标判断算法是好是坏迁移学习总结往期回顾结构化机器学习项目正交化
Zzjw527
·
2020-09-13 00:48
深度学习
深度学习
神经网络
机器学习
python
神经网络与
深度学习笔记
汇总一
神经网络与
深度学习笔记
汇总一梯度下降法:向量化:代替for循环广播ReLU激活函数逻辑回归损失函数(误差函数)代价函数卷积神经网络往期回顾梯度下降法:通过最小化代价函数(成本函数)来训练的参数w和b步骤
Zzjw527
·
2020-09-13 00:46
深度学习
卷积
神经网络
深度学习
机器学习
神经网络与
深度学习笔记
汇总五
神经网络与
深度学习笔记
汇总五往期回顾将之前掘金写的学习笔记所遇困难搬到这里,方便查看复习遇到问题:报错(未解决)学习内容:1、报错operandshouldcontain1columnsin条件后面有多个字段
Zzjw527
·
2020-09-13 00:46
深度学习
python
机器学习
深度学习
神经网络
神经网络与
深度学习笔记
汇总三
神经网络与
深度学习笔记
汇总三往期回顾将之前掘金写的学习笔记所遇困难搬到这里,方便查看复习遇到问题:异常值处理学习内容1、.drop()返回的是一个新对象,原对象不会被改变。
Zzjw527
·
2020-09-13 00:46
深度学习
深度学习
机器学习
神经网络
python
深度学习笔记
(2) - 神经网络的数学基础
神经网络的数学基础数学概念:张量、张量运算、微分、梯度下降。深度学习中的数据概念张量常见的张量类型张量:它是一个数据容器,模型中最基本的数据结构,比如,矩阵(2维张量)标量(0D张量)标量:仅仅包含一个数字的张量(标量张量,零维张量,0D张量)在Numpy中,一个float32或float64的数字,可以通过ndim属性来查询轴的个数。向量(1D张量)向量:数字组成的数组,只有一维,一个轴矩阵(2
瓦力人工智能
·
2020-09-12 16:45
深度学习笔记
keras深度学习笔记
cs231n
-2017-assignments2-TensorFlow.ipynb 心得体会
新手菜鸟级别,大神请绕道今天较好的完成了
cs231n
-2017-assignments2-TensorFlow.ipynb中的最后一个部分:构建一个model对cifar数据集进行训练,今天的精度在train
魔方QaQ
·
2020-09-12 07:06
tensorflow
CS231n
Assignment 1(一)
@[TOC](
CS231n
Assignment1(一))这篇文章就用来说说
CS231n
A1Q1-Q3主要教的东西,还有计算SVM、Softmax损失函数和梯度的全矢量化(fully-vectorized
正在上路的猎兔犬
·
2020-09-12 04:02
图像识别
神经网络与
深度学习笔记
(四)为什么用交叉熵代替二次代价函数
1、为什么不用二次方代价函数我们用的loss方程是a是神经元的输出,其中a=σ(z),z=wx+b使用链式法则求权重和偏置的偏导数有:可知,偏导数受激活函数的导数影响再由sigmoid函数可知,sigmoid的导数在输出接近0和1的时候是非常小的,这会导致一些实例在刚开始训练时学习得非常慢:2、为什么要用交叉熵先看公式:求权重和偏置的偏导数:根据σ′(z)=σ(z)(1−σ(z)),知由以上公式可
dsjdjsa
·
2020-09-11 22:49
神经网络和深度学习
斯坦福大学深度学习公开课
cs231n
学习笔记(1)softmax函数理解与应用
我学习使用的是带中文翻译字幕的网易课程,公开课地址:http://study.163.com/course/courseLearn.htm?courseId=1003223001#/learn/video?lessonId=1003734105&courseId=1003223001该节课中提到了一种叫作softmax的函数,因为之前对这个概念不了解,所以本篇就这个函数进行整理,如下:维基给出的解
Naruto_Q
·
2020-09-11 22:38
深度学习(deep
learning)
cs231学习笔记一 图像识别与KNN
课程地址:http://
cs231n
.github.io/classification/图像识别图像识别就是给你一张图,将其分类成一组给定类别中的一种。
poorfriend
·
2020-09-11 15:48
机器学习
cs231
条件数、奇异值与海森矩阵
问题
CS231n
:ConvolutionalNeuralNetworksforVisualRecognition/Lecture7:TrainingNeuralNetworks,Part2在讲到Optimization
Zachzqh
·
2020-09-10 23:22
机器学习
CNN网络中的 1 x 1 卷积是什么?
上面是一个1x1卷积核的输出示意图,如果是K个1x1卷积核,那么结果就是将通道数由D变为K降维或升维特征通道数变化:256—>64—>256http://
cs231n
.github.io/convolutional-networks
O天涯海阁O
·
2020-09-10 22:49
CNN网络结构和模型
深度学习笔记
1
自学笔记第1章引言人工智能真正的挑战在于解决那些对人类来说容易执行、但很难形式化描述的任务。如何将非形式化的知识传给计算机呢?AI深度学习可以让计算机从经验中学习,并根据层次化的概念体系来理解世界。一些人工智能项目力求将关于世界的知识用形式化的语言进行编码(hard-code),使计算机可以使用逻辑推理规则来自动地理解这些形式化语言中的声明。人们设法设计足够复杂的形式化规则来准确的描述世界,这些项
我是谁_谁是我
·
2020-09-10 18:55
深度学习
深度学习-分类卷积网络
分类卷积网来自
cs231n
LeNet1990‘s第一次成功应用卷积网络。LeNet被用来识别手写数字。
why_here
·
2020-09-10 18:31
ML
Google
深度学习笔记
文本与序列的深度模型
DeepModelsforTextandSequence转载请注明作者:梦里风林Github工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue区讨论官方教程地址视频/字幕下载RareEvent与其他机器学习不同,在文本分析里,陌生的东西(rareevent)往往是最重要的,而最常见的东西往往是最不重要的。语法多义性一个东西可能有
梦里茶
·
2020-09-10 18:39
机器学习
Google深度学习笔记
深度学习
tensorflow
rnn
lstm
embedding
Google
深度学习笔记
循环神经网络实践
转载请注明作者:梦里风林Github工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue区讨论官方教程地址视频/字幕下载加载数据使用text8作为训练的文本数据集text8中只包含27种字符:小写的从a到z,以及空格符。如果把它打出来,读起来就像是去掉了所有标点的wikipedia。直接调用lesson1中maybe_downlo
梦里茶
·
2020-09-10 18:07
机器学习
Google深度学习笔记
深度学习
tensorflow
rnn
lstm
embedding
Google
深度学习笔记
卷积神经网络
ConvolutionalNetworks转载请注明作者:梦里风林Github工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue区讨论官方教程地址视频/字幕下载deepdiveintoimagesandconvolutionalmodelsConvnetBackGround人眼在识别图像时,往往从局部到全局局部与局部之间联系往往
梦里茶
·
2020-09-10 18:06
机器学习
Google深度学习笔记
深度学习
神经网络
tensorflow
卷积
pooling
CNN笔记(
CS231N
)——深度学习软件(Deep Learning Software)
深度学习框架我们在使用CNN的时候往往会采用深度学习框架来减小我们的工作量,以下是现在常用的一些深度学习框架深度学习框架有以下意义下面让我们来看看如果我们用numpy从头构建一个计算图是怎么样的,我们可以看出它有以下两个问题:不能在GPU上运行以及梯度需要我们手动计算我们采用深度学习的框架可以很好的解决以上问题:让程序在GPU上运行仅仅需要一行代码,以及程序可以自动为我们计算梯度TensorFlo
Veropatrinica
·
2020-09-10 17:31
CNN
神经网络框架
TensorFlow
PyTorch
Caffe
静态图vs动态图
Lecture 8: Deep Learning Software
CS231n
Lecture8:DeepLearningSoftwareCPU
qq_36356761
·
2020-09-10 16:28
CS231n
深度学习笔记
(4):1.11 为什么要使用卷积运算?
1.11为什么要使用卷积(whyconvolutions?)首先直观上,使用卷积比全连接网络少很多参数,如下图所示:对于32*32*3的图像,令f=5,使用6个filter,参数值为5*5*6+6=156个参数,权重参数个数为5*5*6,偏差为6个,所以是156。但是全连接会产生多少个参数呢?将这两个图片都flatten成向量,分别是3072维和4704维向量,这时使用全连接就会有3072*470
起个名字好难.JPG
·
2020-09-10 14:28
深度学习
parameter
sharing
sparsity
connection
CS231n
8. Deep Learning Software 笔记 tensorflow数据类型
placeholder占位符相当于形参没有具体值x=tf.placeholder(tf.float32,shape=(N,D))assign幅值函数改变参数值后依然保存new_w1=w1.assign(w1-learning_rate*grad_w1)#后面没出现new_w1,但是w1一直在更(后面session里要run)group仿制节点减少CPU/GPU之间的操作updates=tf.gro
ferb2015
·
2020-09-10 13:53
CS231n
吴恩达
深度学习笔记
course2 week3 超参数调试,Batch Norm,和程序框架
1.TuningProcess对超参数的一个调试处理一般而言,在调试超参数的过程中,我们通常将学习率learning_rate看作是最重要的一个超参数,其次是动量梯度下降因子β(一般为0.9),隐藏层单元个数,mini-batchsize,再然后是layers,learningratedecacy.当然,这并不是绝对的.在adam算法中,β1,β2,ε通常取值为0.9,0.999,10-8调试超参
banghu8816
·
2020-09-10 12:05
CNN & Tensorflow 入门——以Cifar-10为例
其实这是算分Project的内容,受到
CS231n
启发,我和晶晶打算做图像分类的机器学习项目。很多人向我推荐tensorflow训练数据,因为有模板,不用手推python公式。
Victor的草原
·
2020-09-10 12:24
Computer
Vision
CS231N
-13-Generative Models
GenerativemodelsPixelRNNCNNVAEVariationalAutoencodersAutoencodersVAE变分自动解码器GAN生成对抗网络2017.12.3更新VAElossfunction————————————————————————————————深度学习给机器学习带来的变革,不仅是supervisedlearning监督学习,最近两年将烽火指向无监督学习uns
Victor的草原
·
2020-09-10 12:52
Computer
Vision
CS231N
-14-Reinforcement Learning
WhatisReinforcementLearningMarkovDecisionProcessMDPValueFunctionQ-valueFunctionBellmanEquationQ-learningPolicyGradient最后一节。Sofar,wehavemainlytalkedaboutsupervisedlearninglikeimageclassification,segmen
Victor的草原
·
2020-09-10 12:52
Computer
Vision
CS231n
Convolutional Neural Networks for Visual Recognition 自翻译
CS231n
ConvolutionalNeuralNetworksforVisualRecognitionConvolutionalNeuralNetworks(CNNs/ConvNets)ConvolutionalNeuralNetworksareverysimilartoordinaryNeuralNetworksfromthepreviouschapter
炸天小王子
·
2020-09-10 11:17
深度学习笔记
(2):3.1 参数调试过程 | 3.2 使用适当的尺度选择参数 | 3.3 调参实践
3.1调试过程(tuningprocess)在训练神经网络过程中,我们会有很多的超参数需要调试,比如学习率,momentum参数,adam参数、和,神经网络层数(layers),每层神经网络隐藏的神经元(hiddenunits),如果使用learningratedecay,还会有其他参数,还有mini-batch的大小。但这些参数重要性有区别,如下图所示:红色圈起来的学习率是最重要的,其次是黄色,
起个名字好难.JPG
·
2020-09-10 10:17
深度学习
CS231N
-8&9-Deep Learning Hard/Software & CNN Case Study
HardwareFrameworkTensorflowPyTorchStaticvsDynamicGraphsConclusionCNNCaseStudyAlexNet2012MontrealVGGNet2014OxfordGoogleNet2015GoogleResNet2016MSRAOthers今日议程:deeplearning的软硬件。关于Framework的细节,就不展开了,只要掌握个概
Victor的草原
·
2020-09-10 10:08
Computer
Vision
吴恩达
深度学习笔记
04——卷积神经网络1
一、计算机视觉计算机视觉(ComputerVision)的高速发展标志着新型应用产生的可能,例如自动驾驶、人脸识别、创造新的艺术风格。人们对于计算机视觉的研究也催生了很多机算机视觉与其他领域的交叉成果。一般的计算机视觉问题包括以下几类:图片分类(ImageClassification);目标检测(Objectdetection);神经风格转换(NeuralStyleTransfer)。应用计算机视
阿尔基亚
·
2020-08-26 23:59
吴恩达深度学习
神经网络向量化与矩阵维度 [Andrew Ng
深度学习笔记
]
成本函数:单样本时,假设成本函数为:,为预测值,为标签值那么多样本时,假设样本数为m,成本函数为:就是把每个样本分别算出成本函数再相加。大概的思路是把m个样本的每次实验当作独立同分布的,所以总共m次实验在概率上应该全部乘起来。对累乘的结果取对数,增减性不变。把对数符号里的累乘符号提出,就变成累加的了。为了方便后续计算,使m不同时,成本函数依然在一个数量级(保持和单样本时一样的尺度),故要对成本函数
Originum
·
2020-08-26 16:35
人工智能
理论分析
Andrew
Ng
深度学习笔记
CS231n
课程图像分类学习笔记
教程目的:介绍图像分类方法和数据驱动方法内容列表:图像分类、数据驱动方法和流程NearestNeighbor分类器验证集、交叉验证集和超参数调参NearestNeighbor的优劣小结:应用kNN实践图像分类、数据驱动方法和流程图像分类目标:所谓图像分类问题,就是已有固定的分类标签集合,然后对于输入的图像,从分类标签集合中找出一个分类标签,最后把分类标签分配给该输入图像。计算机视觉领域中很多看似不
天外飞仙6
·
2020-08-26 14:52
机器学习
最全目标检测相关资料整理 (目标检测+数据增强+卷价神经网络+类别不均衡...)
1小目标检测:综述:综述论文Augmentationforsmallobjectdetection
深度学习笔记
(十)Augmentationforsmallobjectdetection(翻译)吴建明wujianning
stay_foolish12
·
2020-08-26 14:15
ppython
深度学习笔记
(2)——卷积神经网络(Convolutional Neural Network)
卷积神经网络(ConvolutionalNeuralNetwork,CNN)是深度学习转折的标志性成果,在深度学习的早期,以Hinton等为代表的学者们研究主要集中在RBM(限制波尔兹曼机),AE(自编码器)等传统的全连接神经网络框架上,这个时期虽然出现了很多无监督、优化函数改进之类的研究,使得传统的神经网络层数有所增加,但是终究没有脱离全连接神经网络框架的约束,以至于最终网络可训练的参数量还是遇
迷川浩浩_ZJU
·
2020-08-26 13:30
深度学习
CS231n
笔记|1 引言
转载自:https://zhuanlan.zhihu.com/p/40403014首发于
CS231n
深度视觉笔记
CS231n
笔记|1引言1引言(Introduction)历史、概述、重点图像分类1.1计算视觉历史
荷叶田田_
·
2020-08-26 13:45
Deep
Learning基础
2020
cs231n
作业1笔记 svm
目录MulticlassSupportVectorMachineloss(SVMloss)求loss:求梯度:svm_loss_naivesvm_loss_vectorizedSGDtunehyperparametersMulticlassSupportVectorMachineloss(SVMloss)求loss:SVM的损失函数想要SVM在正确分类上的得分始终比不正确分类上的得分高出一个边界值
cheetah023
·
2020-08-25 17:36
cs231n
Paddle
深度学习笔记
这些天我收获了什么Day1python信息可视化使用百度开源可视化框架pyecharts,绘制基本图表,地图图表pipinstallpyechartspipinstallpyechartsdemo://导入柱状图-BarfrompyechartsimportBar//设置行名columns=["Jan","Feb","Mar","Apr","May","Jun","Jul","Aug","Sep"
Simonn_z
·
2020-08-25 17:13
总结
【
cs231n
作业笔记】二:SVM分类器
可以参考:
cs231n
assignment1SVM完整代码231n作业多类SVM的损失函数及其梯度计算(最好)https://blog.csdn.net/NODIECANFLY/article/details
weixin_34378045
·
2020-08-25 17:18
第四期 | 带学斯坦福
CS231n
计算机视觉课+带打全球顶级kaggle大赛
入坑计算机视觉领域后,你更关注行业未来还是如何学习?关于这个问题,我问了好几个在计算机视觉领域的朋友,有研究生、在职的、转行的,几乎每个人的回答都很有意思。入坑完全是因为导师计算机视觉方向..肯定更关注学习啊..研究生太苦逼了,导师不管,自己都不知道看什么...还要发论文..不然不让过...——研究生关注未来发展啊...我是从事游戏开发的,做了3年感觉要到头,总想要不往AI方向转,不过本来平时加班
l7H9JA4
·
2020-08-25 17:42
重磅 | 带学斯坦福
CS231n
计算机视觉课+带打全球顶级kaggle大赛
人工智能,学到什么程度才能找一份好工作?前几天,我们和阿里蚂蚁金服事业部的AI专家聊起了他是如何招人的。他说阿里面试的重点,已经远远不止代码编写能力,而是对算法的透彻理解和推导能力。因为仅仅靠代码无法区分面试者的差距,只有懂得详细的算法机理,才能从底层对算法进行调优,让结果产生质的区别,体现出每个应聘者的不同。简单来说,对于深度学习工程师真正看重的已经不是简单的调包和调参,而是你对使用python
PaperWeekly
·
2020-08-25 17:40
如何做视频教程笔记(以吴恩达课程为例)
本人写过机器学习笔记和
深度学习笔记
,细心的朋友可以发现我有参考视频的字幕。我推荐我记笔记的方法和几个工具(所有工具现在都有最新版,但还是旧版好用)。
风度78
·
2020-08-25 00:20
人工智能
编程语言
反编译
wordpress
大数据
卷积神经网络详细讲解 及 Tensorflow实现
523331232】Reference本文主要参考以下链接:Google《Tensorflow实战》http://neuralnetworksanddeeplearning.com/chap6.htmlhttp://
cs231n
.github
柳玉豹
·
2020-08-24 19:43
人工智能
Sigmoid ,tanh,ReLU常用的非线性激励函数的代码实现——
深度学习笔记
~2018年11月22
三大激励函数importnumpyasnpimportmatplotlib.pyplotaspltx=np.arange(-10,10,0.1)#随机生成-10到10之间的数据,步长为0.1y=1/(1+np.exp(-x))#函数plt.figure(1)#图号p1=plt.subplot(211)#绘图位置p1.set_title('Sigmoid')#标题名称p1.axhline(0.5,l
冷心笑看丽美人
·
2020-08-24 17:28
Deep
Learning
池化层学习笔记(C++实现)
参考文章:《
深度学习笔记
5:池化层的实现》池化层的理解:池化层是卷积神经网络中常用的操作,属于前馈神经网络的一部分。
张杰_
·
2020-08-24 15:51
C++
CV
MatrixOperation
CNN学习(一)
参考:>
CS231n
ConvolutionalNeuralNetworksforVisualRecognition**一、卷积神经网络(CNN/ConvNet)概述由神经元组成,这些神经元具有可以被训练的权重和偏置
我就是想试试名字可以多长
·
2020-08-24 04:51
CS231n
学习笔记--15. Efficient Methods and Hardware for Deep Learning
AgendaHardware101:theFamilyHardware101:NumberRepresentationHardware101:NumberRepresentation1.AlgorithmsforEfficientInference1.1PruningNeuralNetworksIterativelyRetraintoRecoverAccuracyPruningRNNandLSTM
Kuekua-seu
·
2020-08-24 03:40
深度学习
CS231n学习笔记
【
深度学习笔记
整理-6.4】GRU
GRU相比于LSTM运算量小了许多,其中LSTM是SimpleRNN四倍,GRU是三倍。GRU只有更新门和重置门,其中更新门类似将遗忘门和输入门使用这一个门统一调控,重置门会将上一次的记忆重置后投入“信息门”使用。更新门使用更新门用以调控以往数据遗忘的比例和当下数据的输入比例重置门重置门用来重置上一次的记忆,然后再投入到信息门中形成当下的信息。整合其中类似LSTM中的遗忘门,类似LSTM中的输入门
Y·Not·Try
·
2020-08-24 02:11
深度学习
机器学习
python
深度学习笔记
(六)卷积神经网络
参考资料【1】深度学习cnn卷积神经网络原理(图文详解)https://www.sumaarts.com/share/620.html【2】大话卷积神经网络(CNN)https://my.oschina.net/u/876354/blog/1620906【3】大话CNN经典模型:LeNethttps://my.oschina.net/u/876354/blog/1632862【4】直白介绍卷积神经
Lzjusc2017
·
2020-08-24 02:02
深度学习
MATLAB2018a
深度学习笔记
一(CNN)(参考价值不大只有我自己能看懂)
downloadALEXnetdeepnet=alexnetclassifyimagepred=classify(deepnet,img)Savelayersly=deepnet.layersExtractfistlayerinlayer=ly(1)Extractinputsizeinsz=inlayer.InputSizeExtractlastlayeroutlayer=ly(end)Extra
我要成为程序艺术家
·
2020-08-24 01:35
上一页
27
28
29
30
31
32
33
34
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他