E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CS231n深度学习笔记
CS231n
学习笔记-Python&Numpy学习
在这篇笔记里我将会把
CS231n
课程用到的一些Python和Numpy的用法用通俗易懂的语言和例子记录下来,方便自己复习也方便他人学习。这里附上Numpy的官方链接。
MLjoy_HDU
·
2021-05-11 20:23
深度学习笔记
3-模型训练及模型评估指标
「学习内容总结自udacity和coursera的深度学习课程,截图来自udacity课件」一.模型训练1.为模型创建测试集建立好一个模型之后我们要怎么评估它的好坏以及泛化的能力(由具体的,个别的扩大为一般的能力)呢?这时候就需要引进测试集的概念。如上图,空心代表测试集数据,实心代表训练集数据。我们对两个模型分别进行了不同的拟合,那么两个模型哪个效果比较好呢?从拟合角度来看两者的拟合效果差不多。但
caoqi95
·
2021-05-11 12:11
numpy中np.nditer、flags=[''multi_index''] 的用法说明
在看
CS231n
的时候,有这么一行代码it=np.nditer(x,flags=['multi_index'],op_flags=['readwrite'])查了查np.nditer原来是numpyarray
·
2021-05-10 13:22
吴恩达
深度学习笔记
(69)-端到端的深度学习
什么是端到端的深度学习?(Whatisend-to-enddeeplearning?)深度学习中最令人振奋的最新动态之一就是端到端深度学习的兴起,那么端到端学习到底是什么呢?简而言之,以前有一些数据处理系统或者学习系统,它们需要多个阶段的处理。那么端到端深度学习就是忽略所有这些不同的阶段,用单个神经网络代替它。我们来看一些例子,以语音识别为例,你的目标是输入x,比如说一段音频,然后把它映射到一个输
极客Array
·
2021-05-08 04:16
CS231N
学习笔记 Lecture 5&6 CNN及训练神经网络
Lecture5:CNN1.卷积层:卷积核的深度与原图相同卷积层:感觉这里写错了,应该是6个5x5x3的卷积核使用的激活函数:ReLU,多层卷积第一层卷积是获取低级特征,例如边界;之后的mid-level获取更复杂的功能,例如拐点和斑点;之后的卷积层获取高级特征。卷积之后的大小N是输入,F是filter,stride是步长padding:原因---保持与以前相同的输入大小使用0去填充图片的边界卷积
best___me
·
2021-05-05 19:48
np.nditer、flags=['multi_index'] 用法
在看
CS231n
的时候,有这么一行代码it=np.nditer(x,flags=['multi_index'],op_flags=['readwrite'])查了查np.nditer原来是numpyarray
赤乐君
·
2021-05-05 18:34
Learn Artificial Intelligence | Day 1
我做了什么在bilibili刷了一个up主关于tensorflow的教程准备开始学习
cs231n
和cs224d在kaggle上digitsreco项目上提交了自己的实现我学到了什么今天提交了digits
quoniammm
·
2021-05-05 08:40
fnn
importnumpyasnptry:from
cs231n
.im2col_cythonimportcol2im_cython,im2col_cythonfrom
cs231n
.im2col_cythonimportcol2im
withism
·
2021-05-03 18:20
学习计划
1、整体学习规划:(1)MachineLearning(2)
cs231n
(3)机器学习进阶记录学习笔记,至少包含每个知识点的说明。
Larry007
·
2021-05-01 01:08
机器学习资料合计(二)
如果不能使用的,请在评论区告知(ps:最近在刷李飞飞
CS231n
2017,有兴趣的小伙伴多多交流哇!)
云时之间
·
2021-04-30 23:54
cs231n
:assignment2——Q2: Batch Normalization
视频里AndrejKarpathy上课的时候说,这次的作业meatybuteducational,确实很meaty,作业一般是由.ipynb文件和.py文件组成,这次因为每个.ipynb文件涉及到的.py文件较多,且互相之间有交叉,所以每篇博客只贴出一个.ipynb或者一个.py文件.(因为之前的作业由于是一个.ipynb文件对应一个.py文件,所以就整合到一篇博客里)还是那句话,有错误希望帮我指
X_Y
·
2021-04-30 17:12
吴恩达
深度学习笔记
(7)--逻辑回归的代价函数(Cost Function)
在上一篇文章中,我们讲了逻辑回归模型,这里,我们讲逻辑回归的代价函数(也翻译作成本函数)。吴恩达让我转达大家:这一篇有很多公式,做好准备,睁大眼睛!代价函数很重要!为什么需要代价函数:为了训练逻辑回归模型的参数w和参数b我们,需要一个代价函数,通过训练代价函数来得到参数w和参数b。先看一下逻辑回归的输出函数:为了让模型通过学习调整参数,你需要给予一个m样本的训练集,这会让你在训练集上找到参数w和参
极客Array
·
2021-04-29 16:47
CS231n
Spring 2019 Assignment 3—StyleTransfer-PyTorch风格迁移
在上次的NetworkVisualization之后,这次接着是StyleTransfer,选择的还是PyTorch版本,个人认为这次代码还是比较简单有趣,也是直接在StyleTransfer-PyTorch.ipynb编写完成的。这次自己编一编,感觉再去看教程和视频就非常有感觉,也有很多收获(之前看lecturepdf一点感觉都没有)。按教程看来,风格迁移(styletransfer)的思想其实
赖子啊
·
2021-04-29 03:41
Pytorch教程(二)—— 网络搭建篇
前置知识本篇主要介绍用Pytorch搭建神经网络的代码实现,在学习这些之前需要一些前置知识如下,如果不太了解的话可以先去B站看吴恩达系列的深度学习入门教程+
CS231N
课程。
Vo Racci
·
2021-04-24 14:48
深度学习
cs231n
:assignment2——Q3: Dropout
视频里AndrejKarpathy上课的时候说,这次的作业meatybuteducational,确实很meaty,作业一般是由.ipynb文件和.py文件组成,这次因为每个.ipynb文件涉及到的.py文件较多,且互相之间有交叉,所以每篇博客只贴出一个.ipynb或者一个.py文件.(因为之前的作业由于是一个.ipynb文件对应一个.py文件,所以就整合到一篇博客里)还是那句话,有错误希望帮我指
X_Y
·
2021-04-24 03:25
深度学习(一)简单神经网络【识别猫】
对于深度学习这一门课,我是在B站上跟着吴恩达老师的课程,再加上黄海广老师整理的
深度学习笔记
来学习,目前我已经学习完课程一的内容,现在开始做吴恩达老师的实验课。
zhiguo98
·
2021-04-23 11:07
深度学习
神经网络
python
深度学习
深度学习笔记
- 理解LSTM网络
转载:《理解LSTM网络|我爱计算机》RecurrentNeuralNetworks人类对事物的理解并不是从一片空白开始的,往往都是基于对先前所见所闻的理解来对看到的进行推断;我们的思想有持久性,对市场历史的理解对将来的走势也具有一定的参考和借鉴。传统的神经网络一大弊端就是只是在每个时间点对事件类型进行分类,很难根据先前的事件对后续进行推断。RNN解决了这个问题,RNN包含循环网络,允许信息的持久
Kimichen7764
·
2021-04-23 06:51
深度学习笔记
- 理解LSTM网络
转载:《理解LSTM网络|我爱计算机》RecurrentNeuralNetworks人类对事物的理解并不是从一片空白开始的,往往都是基于对先前所见所闻的理解来对看到的进行推断;我们的思想有持久性,对市场历史的理解对将来的走势也具有一定的参考和借鉴。传统的神经网络一大弊端就是只是在每个时间点对事件类型进行分类,很难根据先前的事件对后续进行推断。RNN解决了这个问题,RNN包含循环网络,允许信息的持久
Kimichen7764
·
2021-04-23 06:51
深度学习笔记
(1) 线性回归
文章目录一、线性回归的介绍二、解决方法1.解析法2.梯度下降法一、线性回归的介绍 回归分析研究自变量和因变量之间的一种统计关系,在深度学习中通常指给定一个输入,得到一个数作为输出,输入可以是多种形态,比如图像、序列等,如下图所示: 线性回归指输入和输出之间满足线性关系,假设输入数据为xxx,它有ddd个特征,输入可以表示为(x1,x2,...,xd)T(x_1,x_2,...,x_d)^T(x
LW缥JS缈T
·
2021-04-21 18:10
深度学习
机器学习
神经网络
深度学习笔记
(1):损失函数和激活函数的选择关系
参考:链接代码:fromabcimportABC,abstractmethodimportnumpyasnpimporttimeimportrefromcollectionsimportOrderedDictclassActivationBase(ABC):def__init__(self,**kwargs):super().__init__()def__call__(self,z):ifz.nd
梅津太郎
·
2021-04-21 16:24
动手学深度学习
机器学习
深度学习笔记
(十)—— 语义分割网络 FaceNet
0.前言本实验是本实验为中山大学数据科学与计算机技术课程,实验课第六周的实验安排和内容。请各位同学按照本实验指导书的引导和独立完成实验内容。在实验的过程中,有任何不解的内容(代码)或者发现了实验设置部分的Bug,非常欢迎您能够截图保存下来发送到邮箱
[email protected]
(崔志颖)中,我会尽快给予回复和修正。您的反馈,是对我们最大的鼓励!0.1实验内容和要求体验语义分割网络
Nino_Lau
·
2021-04-19 09:19
深度学习笔记
(吴恩达)在更
一、深度学习概论1.1欢迎以下是吴恩达老师的原话:深度学习改变了传统互联网业务,例如如网络搜索和广告。但是深度学习同时也使得许多新产品和企业以很多方式帮助人们,从获得更好的健康关注。深度学习做的非常好的一个方面就是读取X光图像,到生活中的个性化教育,到精准化农业,甚至到驾驶汽车以及其它一些方面。如果你想要学习深度学习的这些工具,并应用它们来做这些令人窒息的操作,本课程将帮助你做到这一点。当你完成c
·
2021-03-16 17:22
程序员人工智能深度学习
深度学习笔记
(五)—— 激活函数[Activation Functions]
这是
深度学习笔记
第五篇,完整的笔记目录可以点击这里查看。
zeeq_
·
2021-03-12 17:19
Deep
Learning
CS231n深度学习笔记
神经网络
深度学习
人工智能
机器学习
python
吴恩达
深度学习笔记
(81)-为什么使用卷积?(Why convolutions?)
为什么使用卷积?(Whyconvolutions?)我们来分析一下卷积在神经网络中如此受用的原因,然后对如何整合这些卷积,如何通过一个标注过的训练集训练卷积神经网络做个简单概括。和只用全连接层相比,卷积层的两个主要优势在于参数共享和稀疏连接,举例说明一下。假设有一张32×32×3维度的图片,这是上节课的示例,假设用了6个大小为5×5的过滤器,输出维度为28×28×6。32×32×3=3072,28
极客Array
·
2021-03-11 02:44
深度学习笔记
(吴恩达)在更
一、深度学习概论1.1欢迎以下是吴恩达老师的原话:深度学习改变了传统互联网业务,例如如网络搜索和广告。但是深度学习同时也使得许多新产品和企业以很多方式帮助人们,从获得更好的健康关注。深度学习做的非常好的一个方面就是读取X光图像,到生活中的个性化教育,到精准化农业,甚至到驾驶汽车以及其它一些方面。如果你想要学习深度学习的这些工具,并应用它们来做这些令人窒息的操作,本课程将帮助你做到这一点。当你完成c
·
2021-03-09 22:18
程序员人工智能深度学习
深度学习笔记
(三十一)三维卷积及卷积神经网络
一、RGB三维图像的卷积首先复习以下二维卷积运算的过程:然后让我们看看三维图像如何进行有效的卷积运算。计算方法和二维卷积类似,从三维图像中划分出3×3×33\times3\times33×3×3的方块(称为卷积立方体),对这27个像素点进行卷积,即逐个元素与过滤器相乘求和,得到输出二维矩阵中的一个值。三维图像和过滤器可以有不同的高和宽,但是必须有相同的通道数。在RGB这个例子中,就是有RGB三个颜
Mr.zwX
·
2021-02-13 16:31
深度学习
[AI Studio] 飞桨PaddlePaddle Python零基础入门
深度学习笔记
<五>
[AIStudio]飞桨PaddlePaddlePython零基础入门
深度学习笔记
<五>新需求橄榄球教练Roger,拿出了自己的数据结构,我们的队员除了速度训练,还需要进行力量的练习。
络秋
·
2021-02-09 19:43
python
多态
类
[AI Studio] 飞桨PaddlePaddle Python零基础入门
深度学习笔记
<四>
[AIStudio]飞桨PaddlePaddlePython零基础入门
深度学习笔记
需求:选手的最好的三次成绩Kelly教练每天在训练场忙的焦头烂额,根本没有时间摆弄计算机,需要人帮他处理选手的数据!
络秋
·
2021-02-07 23:30
python
深度学习笔记
(五):学习率过大过小对于网络训练有何影响以及如何解决
文章目录1.学习率的作用2.学习率太大有何影响3.学习率太小有何影响4.如何进行学习率设置5.学习率缓减机制1.学习率的作用学习率(learningrate),作为监督学习以及深度学习中重要的超参,它控制网络模型的学习进度,决定这网络能否成功或者需要多久成功找到全局最小值,从而得到全局最优解,也就是最优参数。换句话说学习率和stride(步长)性质差不多。2.学习率太大有何影响首先我们要认识到学习
ZZY_dl
·
2021-01-31 01:11
深度学习
网络
深度学习
人工智能
python
深度学习笔记
(六):如何运用梯度下降法来解决线性回归问题
文章目录1.梯度下降法2.线性回归问题3.具体代码1.梯度下降法梯度下降法是一种常用的迭代方法,其目的是让输入向量找到一个合适的迭代方向,使得输出值能达到局部最小值。在拟合线性回归方程时,我们把损失函数视为以参数向量为输入的函数,找到其梯度下降的方向并进行迭代,就能找到最优的参数值。我们看下面这个二维平面:也就是说我们要运用梯度下降法顺利且快速的找到全局最优解,也就是最低的地方,我们运用的公式如下
ZZY_dl
·
2021-01-30 22:13
深度学习
网络
深度学习
人工智能
机器学习
计算机视觉
CS231n
Course Introduction
CS231n
是非常经典的计算机视觉课程,为了方便新手学习,尤其是英文不好的同学,特意将该课程亲自翻译成中文,希望能对大家学习CV有一定的帮助。
herosunly
·
2021-01-27 17:45
计算机视觉之CS231n
机器学习
计算机视觉
CS231n
公开课
深度学习笔记
整理(持续更新)
portainer新建container并修改相关配置pytorch中tensorboardX可视化网络使用踩坑【语义分割semanticsegmentation】–DeepLab(ASPP)系列学习笔记
Booo0m
·
2021-01-17 19:14
深度学习
pytorch
神经网络
吴恩达--
深度学习笔记
这是一个督促自己学习的笔记文章目录这是一个督促自己学习的笔记1.logistic回归1.神经网络基础----二分分类2.logistic回归3.logistic回归损失函数4.梯度下降法5.logistic回归中的梯度下降法6.m个样本的梯度下降7.向量化8.更多向量化的例子9.向量化logistic回归10.向量化logistic回归的输出11.Python中的广播12.关于python_num
NP_hard
·
2021-01-15 22:00
机器学习
深度学习笔记
(二):神经网络之优化损失函数算法介绍
神经网络优化算法:梯度下降法、Momentum、RMSprop和Adamhttps://www.cnblogs.com/jiaxblog/p/9695042.html
ZZY_dl
·
2021-01-14 15:24
深度学习
算法
深度学习
深度学习和神经网络_深度学习概论——吴恩达DeepLearning.ai
深度学习笔记
之神经网络和深度学习(一)...
公众号关注“DL_NLP”设为“星标”,重磅干货,第一时间送达!◎原创|深度学习算法与自然语言处理◎作者|Dedsecr1.什么是神经网络?1.1房价预测已知房屋的面积、价格,想要拟合一个根据房屋面积预测房价的函数。按照传统的方法,我们使用线性回归来解决这个问题,我们可以拟合出一条直线。并且我们知道价格永远不会是负数的。因此,为了替代一条可能会让价格为负的直线,我们把直线弯曲一点,让它最终在零结束
weixin_39859061
·
2020-12-06 00:17
深度学习和神经网络
深度学习读取数据很慢
【
CS231n
】Spring 2020 Assignments - Assignment1 - Features
Content前言TrainSVMonfeaturesNeuralNetworkonimagefeatures前言我的作业是在GoogleColaboratory上完成的,还是挺方便的。本次作业的主要内容为:使用方向梯度直方图HOG(HistogramofOrientedGradients)和使用色相通道的颜色直方图来构成图像的特征,将这些特征作为输入而不是原始的图像。我遇到的主要问题还是参数范围
Mister_Yu
·
2020-12-01 17:08
CS231n
神经网络
机器学习
深度学习
计算机视觉
ubuntu安装python3.6_百度零基础
深度学习笔记
(一) 安装飞桨paddle
安装飞桨paddlepaddle官网提供了相应系统的安装流程。官网安装飞浆我的环境是Ubuntu18.04+Python3.6+GTX970X,切记paddle暂没编译Python3.8+版本,现只支持3.5.1+/3.6/3.7。安装显卡驱动1# 查看适合显卡的驱动信息,安装带recommended的版本2➜ ~ ubuntu-drivers devices 3== /sys
weixin_39677106
·
2020-11-25 19:53
深度学习笔记
李宏毅2020机器学习深度学习(完整版)国语一、CourseIntroduction转自Sakura的知识库下图中,同样的颜色指的是同一个类型的事情蓝色方块指的是scenario,即学习的情境。通常学习的情境是我们没有办法控制的,比如做强化学习(reinforcementLearning)是因为我们没有data、没有办法来做supervisedLearning(监督学习)的情况下才去做的。如果有d
Ghost在低语
·
2020-11-25 15:30
学习笔记
深度学习
matlab 图像分割 提取人像_几种典型的图像处理技术(分类 目标提取 目标跟踪 语义分割 实例分割)...
从包含舰艇的图片中,标识舰艇的位置本文的学习笔记,主要基于Stanford大学计算机视觉课程:ConvolutionalNeuralNetworksforVisualRecognitionhttp://
cs231n
.stanford.edu
weixin_39643255
·
2020-11-23 21:08
matlab
图像分割
提取人像
Keras
深度学习笔记
非线性回归
生成数据importkerasimportnumpyasnpimportmatplotlib.pyplotasplt#Sequential按顺序构成的模型fromkeras.modelsimportSequential#Dense全连接层fromkeras.layersimportDense,Activationfromkeras.optimizersimportSGD#使用numpy生成200个
imxlw00
·
2020-11-21 19:34
keras
keras
Keras
深度学习笔记
线性回归
定义与公式线性回归(Linearregression)是利用回归方程(函数)对一个或多个自变量(特征值)和因变量(目标值)之间关系进行建模的一种分析方式。特点:只有一个自变量的情况称为单变量回归,多于一个自变量情况的叫做多元回归。单变量回归当只有一个变量时,线性模型的函数定义为:其中,权值w0为函数在y轴上的截距,w1为解释变量的系数。我们的目标是通过学习得到线性方程的这两个权值,并用它们描述解释
imxlw00
·
2020-11-21 18:41
keras
keras
深度学习
深度学习笔记
(一)深度学习入门——基于Python的理论与实现
笔记来自斋藤康毅的《深度学习入门–基于Python的理论与实现》这本书用简洁的语言讲解了比较基础的原理,适合初学者了解。Numpy和Matplotlib1.NumpyNumPy数组提供了便捷的计算数组和矩阵的方法,比较常用。(1)生成NumPy数组与访问importnumpyasnpx=np.array([1.0,2.0,3.0])#一维数组y=np.array([2.0,4.0,6.0])#一维
WeatheringWithU
·
2020-11-18 18:06
深度学习
Python
深度学习笔记
第一周
第一章Python入门有关类的介绍NumPy导入NumPy生成NumPy数组NumPy的算术运算NumPy的N维数组广播访问元素Matplotlib绘制简单图形pyplot中一些函数的功能显示图像有关类的介绍用户自己定义类,将会创建新的数据类型,同时可以定义相关类的函数和属性。Python中的class可以定义类:class类名:def__int__(self,参数,...):#构造函数...de
frank______123
·
2020-11-11 22:48
Python深度学习入门
python
numpy
机器学习
深度学习笔记
损失函数反向传播理解记录
深度学习笔记
损失函数反向传播公式过程理解记录深度学习的第三周课程损失函数的反向传播卡了一点时间,发现卡顿的根本原因是对前边的一些细节符号没有准确记忆,同时过程中一些同一含义的符号发生变化。
特别能挨打
·
2020-11-09 09:14
学习记录
深度学习
神经网络
经验分享
Ng
深度学习笔记
——卷积神经网络基础
卷积神经网络计算机视觉(Computervision)边缘检测示例(Edgedetectionexample)Padding卷积步长(Stridedconvolutions)三维卷积(Convolutionsovervolumes)单层卷积网络(Onelayerofaconvolutionalnetwork)池化层(Poolinglayers)经典网络(Classicnetworks)LeNet-
CeciliaFinch
·
2020-11-08 20:11
【
深度学习笔记
】task4 网络八股扩展
深度学习-网络八股扩展4.1搭建网络八股概览4.2自制数据集,解决本领域问题4.2数据增强,扩充数据集4.3断点续训,存取模型4.4参数提取,把参数存入文本4.6acc&loss可视化,查看训练效果4.6应用程序,给图识物依依旧是跟着曹健老师的课程学习,之前主要是给予所给的训练集和测试集进行训练和测试,这一节中讲授了如何自制数据集以及模型保存的问题,非常有实用价值视频地址https://www.b
一一张xi
·
2020-10-27 21:31
强化学习
动手学习
深度学习笔记
3
importnumpyasnpimporttorchfromtorchimportnn,optimimporttorch.nn.functionalasFimportrandomimportmathimporttimedefsgd(params,lr,batch_size):#为了和原书保持一致,这里除以了batch_size,但是应该是不用除的,因为一般用PyTorch计算loss时就默认已经#
Tony涤生
·
2020-10-11 04:18
【深度学习】深入理解卷积神经网络(CNN)
CNNAuthor:louwillFrom:
深度学习笔记
本文将为大家介绍一种用途更为广泛、性能更加优越的神经网络结构——卷积神经网络(ConvolutionalNeuralNetwork,CNN)。
风度78
·
2020-10-02 11:00
卷积
神经网络
计算机视觉
机器学习
人工智能
cs231n
基于CIFAR10的 svm_loss 实现
内容概括数据集–CIFAR1060000张彩色图像–这些图像是32*32,分为10个类,每类6000张图。50000张–用于训练–构成了5个训练批,每一批10000张图;10000张–用于测试–单独构成一批下载链接:http://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gzlossfunction:SVM**步骤**对于某组参数每一个不正确的类别不
Luyoom
·
2020-09-17 10:10
DeepLearning
svmloss
深度学习
神经网络
python
F47.深度神经网络中权值初始化(即:卷积核的数值(权值)初始化)
注:神经网络训练时需要对权重进行初始化,若使用迁移学习则不需进行权重初始化(需使用预训练模型中的权重作为深度神经网络的初始权重)1.吴恩达
深度学习笔记
(21)-神经网络的权重初始化为什么要随机初始化?
米亚123
·
2020-09-17 06:11
深度学习
权值初始化
卷积核的选取
神经网络权重
卷积的权值初始化
上一页
25
26
27
28
29
30
31
32
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他