E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
nndl
nndl
-book-笔记-基础模型第五章-卷积神经网络
第5章卷积神经网络卷积神经网络(ConvolutionalNeuralNetwork,CNN或ConvNet)是一种具有局部连接、权重共享等特性的深层前馈神经网络。1)最早是主要用来处理图像信息。使用全连接处理图像有两个缺点,:参数过多;局部不变特性(所以出现卷积操作)。2)卷积神经网络一般是由卷积层、汇聚层和全连接层交叉堆叠而成的前馈神经网络,使用反向传播算法进行训练(更新参数。3)CNN特性:
_Wooden_
·
2022-09-29 07:55
NNDL
实验五 前馈神经网络(2)自动梯度计算&优化问题
4.3自动梯度计算虽然我们能够通过模块化的方式比较好地对神经网络进行组装,但是每个模块的梯度计算过程仍然十分繁琐且容易出错。在深度学习框架中,已经封装了自动梯度计算的功能,我们只需要聚焦模型架构,不再需要耗费精力进行计算梯度。飞桨提供了paddle.nn.Layer类,来方便快速的实现自己的层和模型。模型和层都可以基于paddle.nn.Layer扩充实现,模型只是一种特殊的层。继承了paddle
HBU_David
·
2022-09-29 07:25
DeepLearning
NNDL
读书笔记第六章RNN
循环神经网络RNN具有短期记忆能力,参数的学习可以通过随时间反向传播算法来学习。随时间反向传播算法按照时间的逆序讲错误一步步地往前传递,当输入序列比较长,会有梯度的爆炸和消失的问题,即长程依赖问题,引入门控机制。网络增加记忆能力延时神经网络延时神经网络是在前馈网络中的非输出层都添加一个延时器,记录神经元的最近几次活性值.在第t个时刻:有外部输入的非线性自回归模型自回归模型,用一个变量yty_ty
wolf totem
·
2022-09-29 07:55
读书笔记
神经网络
NNDL
第五章笔记CNN
文章目录卷积神经网络卷积一维卷积二维卷积互相关卷积的变种卷积的数学性质交换性导数(难点)5.2卷积神经网络使用卷积来代替全连接卷积层汇聚层卷积网络的整体结构参数学习卷积神经网络的方向传播算法:几种典型的卷积神经网络LeNet-5ALexNetinception,残差网络,略其他卷积方式转置卷积
wolf totem
·
2022-09-29 07:24
读书笔记
神经网络
机器学习
NNDL
第四章笔记
文章目录
NNDL
第四章笔记4.1神经元sigmoid型函数logistic函数:Tanh函数:Hard—logistic函数和Hard—Tanh函数ReLU函数带泄露的ReLU和带参数的ReLUELU函数
wolf totem
·
2022-09-29 07:24
读书笔记
神经网络
机器学习
HBU-
NNDL
实验五 前馈神经网络(1)二分类任务
目录4.1神经元4.1.1净活性值4.1.2激活函数4.2基于前馈神经网络的二分类任务4.2.1数据集构建4.2.2模型构建4.2.3损失函数4.2.4模型优化4.2.5完善Runner类:RunnerV2_14.2.6模型训练equal–张量比较eq–逐元素判断拓展:eq_–将判断结果返回并替换原tensor4.2.7性能评价【思考题】对比心得体会:参考链接:4.1神经元神经网络的基本组成单元为
不是蒋承翰
·
2022-09-29 07:48
神经网络
分类
算法
深度学习
pytorch
NNDL
作业2:第三章课后题
习题3-2在线性空间中,证明一个点到到平面的距离为理论推导:设平面内有一点,使得垂直于此平面又因为垂直于此平面,所以有平行于即:(为常数)因此点x到平面距离为又所以带入两边同时取模:习题3-5在Logistic回归中,是否可以用去逼近正确的标签,并用平方损失函数最小化来优化参数?用sigmoid函数去逼近正确的标签是非常明智的选择,但是不能使用平方损失函数最小化来优化参数。1.主观理解:因为Log
笼子里的薛定谔
·
2022-09-29 07:18
DL实验
机器学习
人工智能
NNDL
实验五前馈神经网络-二分类任务
前言:附上kaggle连接,前馈神经网络实验,这次实验是使用Pytorch做神经网络,已经通过学习对前馈神经网络进行进一步的了解。这次实验主要是神经网络和对其进行二分类任务。大体思路是利用模型的构建步骤,构建数据集=>构建模型=>损失函数=>模型优化=>模型训练=>模型评估=>保存模型进行模型训练。文章目录4.1神经元4.1.1净活性值4.1.2激活函数4.1.2.1Sigmoid型函数4.1.2
刘先生TT
·
2022-09-29 07:35
神经网络
分类
深度学习
NNDL
实验五 前馈神经网络(1)二分类任务
NNDL
实验五前馈神经网络(1)二分类任务4.1神经元4.1.1净活性值思考题4.1.2激活函数4.1.2.1Sigmoid型函数4.1.2.2ReLU型函数4.2基于前馈神经网络的二分类任务4.2.1
笼子里的薛定谔
·
2022-09-29 07:35
DL实验
神经网络
分类
深度学习
NNDL
作业1:第二章课后题
习题2-1分析为什么平方损失函数不适用于分类问题,交叉熵损失函数不适用于回归问题.平方损失函数(MSE)表达式:交叉熵损失函数(CrossEntropyLoss)表达式:1.交叉熵的由来交叉熵最早可以追溯到上学期学习信息论知识,交叉熵是信息论中的一个重要概念,主要用于度量衡量同一个随机变量中的两个不同概率分布的差异程度,在机器学习中就表示为真实概率分布与预测概率分布之间的差异,是从相对熵(KL散度
笼子里的薛定谔
·
2022-09-22 07:14
DL实验
深度学习
人工智能
NNDL
实验三 线性回归
2.2线性回归2.2.1数据集构建构造一个小的回归数据集:生成150个带噪音的样本,其中100个训练样本,50个测试样本,并打印出训练数据的可视化分布。defcreate_toy_data(func,interval,sample_num,noise=0.0,add_outlier=False,outlier_ratio=0.001):#均匀采样#使用torch.rand在生成sample_num
笼子里的薛定谔
·
2022-09-22 07:13
DL实验
线性回归
深度学习
机器学习
NNDL
实验二 pytorch入门
张量在深度学习的实践中,我们通常使用向量或矩阵运算来提高计算效率。比如w1x1+w2x2+⋯+wNxN的计算可以用w⊤x来代替(其中w=[w1w2⋯wN]⊤,x=[x1x2⋯xN]⊤),这样可以充分利用计算机的并行计算能力,特别是利用GPU来实现高效矩阵运算。在深度学习框架中,数据经常用张量(Tensor)的形式来存储。张量是矩阵的扩展与延伸,可以认为是高阶的矩阵。1阶张量为向量,2阶张量为矩阵。
笼子里的薛定谔
·
2022-09-22 07:13
DL实验
pytorch
深度学习
人工智能
NNDL
实验一 numpy
头一次写博客,真的是很潦草了,字体大小颜色、排版都还不太懂numpy的array操作1.导入numpy库importnumpyasnp2.建立一个一维数组a初始化为[4,5,6](1)输出a的类型(type)(2)输出a的各维度的大小(shape)(3)输出a的第一个元素(值为4)a=np.array([4,5,6])print(a.dtype)print(a.shape)print(a[0])输
笼子里的薛定谔
·
2022-09-22 07:43
DL实验
numpy
python
NNDL
实验四 线性分类
第3章线性分类3.1基于Logistic回归的二分类任务3.1.1数据集构建构建一个简单的分类任务,并构建训练集、验证集和测试集。本任务的数据来自带噪音的两个弯月形状函数,每个弯月对一个类别。我们采集1000条样本,每个样本包含2个特征。importmathimportcopyimporttorchdefmake_moons(n_samples=1000,shuffle=True,noise=No
笼子里的薛定谔
·
2022-09-22 07:02
DL实验
深度学习
机器学习
人工智能
NNDL
实验一 numpy
神经网络与深度学习——numpy基础知识新学期,依照教书先生的要求,发表这篇博客,诸多纰漏,还望指正。一、numpy的array操作1.导入numpy库importnumpy2.建立一个一维数组a初始化为[4,5,6],(1)输出a的类型(type)(2)输出a的各维度的大小(shape)(3)输出a的第一个元素(值为4)a=np.array([4,5,6])print(type(a))print
红肚兜
·
2022-09-12 07:00
numpy
python
机器学习
NNdl
初学
NNDL
一、实践基础张量在深度学习框架中,数据经常用张量(Tensor)的形式来存储。张量是矩阵的扩展与延伸,可以认为是高阶的矩阵。1阶张量为向量,2阶张量为矩阵。
英语小霸王
·
2022-09-12 07:30
python
深度学习
人工智能
深度学习实验二
NNDL
实验二pytorch入门一.概念:张量、算子1.张量:在深度学习框架中,数据经常用张量(Tensor)的形式来存储。张量是矩阵的扩展与延伸,可以认为是高阶的矩阵,是标量,向量,矩阵的高维拓展。
zc.9495
·
2022-09-11 07:28
深度学习
python
pytorch
NNDL
实验一 numpy
文章目录前言一、numpy的重要性二、numpy的array操作三、array的数学运算总结前言新的学期开始了,开始学习深度学习和神经网络了,之后要在这发实验了,最希望的还是,请各位大佬多批评指正,让我学到更多的知识,同时也希望我写的东西能够在大家查东西时提供一些帮助,更欢迎大家指出我的错误或者教教我深度学习咋学。一、numpy的重要性各位大佬,我知道你们不想听我废话了,可是我还是要说,在上学期学
别被打脸
·
2022-09-09 07:00
numpy
python
机器学习
人工智能
深度学习
NNDL
实验二 Pytorch入门
文章目录一.概念:张量、算子1.1张量1.2算子二.使用pytorch实现张量运算1.2张量1.2.1创建张量1.2.2张量的属性1.2.2.1张量的形状1.2.2.2形状的改变1.2.2.3张量的数据类型1.2.2.4张量的设备位置1.2.3张量与Numpy数组转换1.2.4张量的访问1.2.4.1索引和切片1.2.4.2访问张量1.2.4.3修改张量1.2.5张量的运算1.2.5.1数学运算1
plum-blossom
·
2022-09-09 07:45
NNDL实验
pytorch
深度学习
python
NNDL
实验二pytorch入门
一、概念:张量,算子张量(Tensor):和numpy类似,张量就是一个多维数组。张量的维度和数组的维度一样。如下图所示:举例:RGB就是一个三维图像,RGB中的每一个像素为一个维度。Tensor有三个属性:rank:numberofdimensions(维度的数目)shape:numberofrowsandcolumns(行和列的数目)type:datatypeoftensor’selement
刘先生TT
·
2022-09-09 07:45
pytorch
python
numpy
HBU-
NNDL
实验二 pytorch入门
一.概念:张量、算子1.张量定义:张量是多维数组张量是一种不随坐标系的改变而改变的几何对象张量是向量和余向量,不会随着坐标系的改变而改变张量是多重线性映射,即张量通俗来说是一个多维数组,我们可以把标量视为零阶张量,矢量视为一阶张量,那么矩阵就是二阶张量。高阶张量是由多个低一阶的张量组成的。2.算子定义:是一个函数空间到函数空间上的映射O:X→X。广义上的算子可以推广到任何空间,如内积空间等。对任何
不是蒋承翰
·
2022-09-09 07:08
pytorch
深度学习
python
NNDL
实验二 pytorch入门
文章目录一.概念:张量、算子1、张量2、算子二.使用pytorch实现张量运算1.2张量1.2.1创建张量1.2.2张量的属性1.2.4张量的访问1.2.5张量的运算三.数据预处理实验体会一.概念:张量、算子抱歉各位可能有点废话,但是真的查了好多资料,实在不想浪费了1、张量张量的概念有很多种,首先我们来看一下pytorch官方给出的定义:Tensorsareaspecializeddatastru
别被打脸
·
2022-09-09 07:00
python
pandas
数据分析
深度学习
pytorch
NNDL
实验五 前馈神经网络
pytorch4.1神经元4.2基于前馈神经网络的二分类任务4.3自动梯度计算4.4优化问题4.5实践:基于前馈神经网络完成鸢尾花分类ref:
NNDL
实验4(上)-HBU_DAVID-博客园(cnblogs.com
HBU_David
·
2022-09-08 07:35
DeepLearning
神经网络
人工智能
深度学习
神经网络与深度学习-课后习题
《神经网络与深度学习-邱锡鹏》习题解答https://github.com/
nndl
/solutions面试锦囊之LR面试篇——线性回归怎么问?
数学工具构造器
·
2022-06-18 16:05
神经网络
面试
深度学习
3-1和3-2和3-3(
nndl
)
问题证明在两类线性分类中,权重向量www与决策平面正交。解析最头大的就是证明题了。我们来看一下具体二分类的基本知识,从知识入手来寻找解决思路。在二分类问题中,我们需要一个线性判别函数f(x;w)=wTx+bf(x;w)=w^Tx+bf(x;w)=wTx+b特征空间中所有满足f(x;w)=0f(x;w)=0f(x;w)=0的点组成一个分割超平面(Hyperplane),称为决策边界或决策平面。决策边
Refrain*
·
2022-03-23 13:49
nndl
课后作业
机器学习
nndl
读书笔记 附录A 线性代数
github开源:https://
nndl
.github.io/
nndl
作者:邱锡鹏笔记作者:Isaac.
_Isaac_
·
2022-02-17 12:45
研习计划 2018-01-25
一、整体长远计划内容——强化内力修为(1)sml(PRML+ESL+MLAPP+BRML)(2)dl(
nndl
+dl)(3)paper、paper、paperandrelatedcodes二、ML相关的数学理论基础
西方失败9527
·
2022-02-09 14:26
nndl
读书笔记 附录 E 信息论
github开源:https://
nndl
.github.io/
nndl
作者:邱锡鹏笔记作者:Isaac.
_Isaac_
·
2021-06-25 10:34
nndl
读书笔记 第4章 前馈神经网络
github开源:https://
nndl
.github.io/
nndl
作者:邱锡鹏笔记作者:Isaac.(原创)本书其他章节的笔记目录我们主要关注于采用误差反向传播来进行学习的神经网络。
_Isaac_
·
2021-06-13 03:37
nndl
读书笔记 第1章 绪论
github开源:https://
nndl
.github.io/
nndl
作者:邱锡鹏笔记作者:Isaac.(原创)本书其他章节的笔记目录深度学习(DeepLearning)是机器学习的一个分支。
_Isaac_
·
2021-04-24 05:33
《神经网络与深度学习》课后习题四——前馈神经网络
《神经网络与深度学习》(邱锡鹏):https://
nndl
.github.io/《神经网络与深度学习》官方课后习题交流:https://github.com/
nndl
/solutions习题4-1对于一个神经元
信息门下赌狗
·
2020-09-16 08:33
神经网络与深度学习
笔记
神经网络
深度学习
Gradient Descent
//李宏毅视频官网:http://speech.ee.ntu.edu.tw/~tlkagk/courses.html点击此处返回总目录//邱锡鹏《神经网络与深度学习》官网:https://
nndl
.github.io
/home/liupc
·
2020-08-23 06:45
15
机器学习
nlp课程学习mark
av14153689/index_23.html#page=23https://github.com/neubig/nn4nlp2017-code复旦邱锡鹏老师《神经网络与深度学习》教程分享https://
nndl
饭饭风
·
2020-08-20 15:36
学机械的学习Matlab深度学习过程笔记01
概念的理解对于深度学习的概念理解可以查看邱锡鹏老师的教材https://
nndl
.github.io/(我目前只看了前一章半,写的很系统,而且还在更新中)的前两章,在一些公开课上
zthcool
·
2020-08-19 06:23
Matlab深度学习
学习笔记
【邱希鹏】
nndl
-chap5-数字识别(pytorch)
1.导入包importosimporttorchimporttorch.nnasnnfromtorch.autogradimportVariableimporttorch.utils.dataasDataimporttorchvisionimporttorch.nn.functionalasFimportnumpyasnpfromtorchvisionimportdatasets,transfor
Douzi1024
·
2020-08-14 13:33
3. 使用Keras实现全连接神经网络完成手写数字识别
//李宏毅视频官网:http://speech.ee.ntu.edu.tw/~tlkagk/courses.html点击此处返回总目录//邱锡鹏《神经网络与深度学习》官网:https://
nndl
.github.io
/home/liupc
·
2020-08-03 02:43
17
深度学习
《神经网络与深度学习》—学习笔记
[
nndl
.github.io][神经网络与深度学习][
nndl
-book]深度学习基础深度学习是机器学习的一个分支,是指一类问题以及解决这类问题的方法。
studyeboy
·
2020-07-30 00:03
深度学习
Tensorflow2.0学习率衰减详细汇总
学习率调度器的实现参考:https://
nndl
.github.io/《神经网络与深度学习》第7章,作者:邱锡鹏tensorflow官方API1.总结α0\alpha_{0}α0——
Light2077
·
2020-07-10 22:39
CNN学到的到底是啥?
//李宏毅视频官网:http://speech.ee.ntu.edu.tw/~tlkagk/courses.html点击此处返回总目录//邱锡鹏《神经网络与深度学习》官网:https://
nndl
.github.io
/home/liupc
·
2020-07-05 01:09
17
深度学习
资源分享 | Github 9.9K Star的《神经网络与深度学习》
项目地址:https://github.com/
nndl
/
nndl
.github.io书籍介绍本课程主要介绍神经网络与深度学习中的基础知识、主要模型(前馈网络、卷积网络、
机器学习算法那些事
·
2020-07-01 16:51
深度学习领域的神文(带注释版)
,GitHub2.6W星(附完整下载)-红色石头的文章-知乎https://zhuanlan.zhihu.com/p/71979604神经网络与深度学习(github,国人总结整理的)https://
nndl
.github.io
weixin_42774642
·
2020-06-21 12:59
机器学习
nndl
:chapter4-simple neural network
《神经网络与深度学习》作业github来复习一遍fullconnectionnumpy#-*-coding:utf-8-*-importnumpyasnpfromtensorflow.examples.tutorials.mnistimportinput_dataclassModel():def__init__(self):print("init...")mnist=input_data.read
Nicoleqwerty
·
2020-04-14 12:22
那些年我看过的深度学习领域的神文(带注释版)
,GitHub2.6W星(附完整下载)-红色石头的文章-知乎https://zhuanlan.zhihu.com/p/71979604神经网络与深度学习(github,国人总结整理的)https://
nndl
.github.io
婉妃
·
2019-06-13 08:50
numpy 笔记
题来源https://github.com/
nndl
/exercise/blob/master/warmup/numpy_%20tutorial.ipynb1.引入numpy库fromnumpyimport
半米_47dc
·
2019-05-31 22:14
2019日常工作学习安排
周末回顾,温习学习AI领域知识(学习资料:https://github.com/
nndl
/
nndl
.github.io)*针对性研究和实践(学而时习之,不亦乐乎。
pppost
·
2019-05-23 09:55
NLP实战干货汇总
1、中文资料【1】复旦大学NLP上手教程:NLP-Beginner(2019.5)邱锡鹏老师《神经网络与深度学习》链接:https://
nndl
.github.io/复旦大学NLP上手教程:https:
NLP_victor
·
2019-05-19 21:30
NLP实战
优质资源汇总
Qix/blob/master/pg.mdpython爱好者社区学习资源汇总https://ask.hellobi.com/blog/python_shequ/14009神经网络与深度学习https://
nndl
.github.io
awakeljw
·
2018-08-13 14:54
python
Notes on
NNDL
(Neural Networks and Deep Learning)
关于代价函数的假设:(1)代价函数可以被写成一个在每个训练样本x上的代价函数Cx的均值C=1n∑xCx.反向传播实际上是对一个独立的训练样本计算了∂Cx∂ω和∂Cx∂b.然后通过在所有训练样本上进行平均化得到∂C∂ω和∂C∂b.实际上,有了这个假设,我们会认为训练样本x已经被固定住了,丢掉其下标,将代价函数Cx看作C.(2)代价可以写成神经网络输出的函数costC=C(aL)反向传播的四个基本方程
Vision_Learning
·
2017-05-12 15:23
深度学习
DeepLearning
Notes on
NNDL
(Neural Networks and Deep Learning)
关于代价函数的假设:(1)代价函数可以被写成一个在每个训练样本x上的代价函数Cx的均值C=1n∑xCx.反向传播实际上是对一个独立的训练样本计算了∂Cx∂ω和∂Cx∂b.然后通过在所有训练样本上进行平均化得到∂C∂ω和∂C∂b.实际上,有了这个假设,我们会认为训练样本x已经被固定住了,丢掉其下标,将代价函数Cx看作C.(2)代价可以写成神经网络输出的函数costC=C(aL)反向传播的四个基本方程
Vision_Learning
·
2017-05-12 15:23
DeepLearning
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他