E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
nndl
NNDL
作业7:第五章课后题
目录习题5-2证明宽卷积具有交换性,即公式(5.13)习题5-3分析卷积神经网络中用1×1的卷积核的作用习题5-4对于一个输入为100×100×256的特征映射组,使用3×3的卷积核,输出为100×100×256的特征映射组的卷积层,求其时间和空间复杂度。如果引入一个1×1的卷积核,先得到100×100×64的特征映射,再进行3×3的卷积,得到100×100×256的特征映射组,求其时间和空间复杂
Persevere~~~
·
2022-11-14 07:25
深度学习
cnn
神经网络
NNDL
作业8:RNN - 简单循环网络
SRN1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRNnn.RNNCellnn.RNN总结:5.实现“Character-LevelLanguageModels”源代码(必做)7.“编码器-解码器”的简单实现(必做)实现原理总结SRNSRN是只有一个隐藏层的循环卷积神经网络,如图所示。其中W、U、b共享权重,1.使用Nump
刘先生TT
·
2022-11-14 07:17
rnn
python
深度学习
NNDL
实验五 前馈神经网络(3)鸢尾花分类 深入理解Iris数据集
深入研究鸢尾花数据集画出数据集中150个数据的前两个特征的散点分布图:#coding:utf-8importtorch.utils.dataimporttorchimporttorch.nnasnnfromtorchimportoptimimportmatplotlib.pyplotaspltimportpandasaspdimportnumpyasnpdefinit_Iris():df=pd.r
真不想再学了
·
2022-10-31 11:39
神经网络
分类
python
NNDL
实验五 前馈神经网络(3)鸢尾花分类
NNDL
实验五前馈神经网络(3)鸢尾花分类深入研究鸢尾花数据集4.5实践:基于前馈神经网络完成鸢尾花分类4.5.1小批量梯度下降法4.5.2数据处理4.5.2.1自定义加载数据集4.5.2.2用DataLoader
笼子里的薛定谔
·
2022-10-31 11:33
DL实验
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
目录基于LeNet实现手写体数字识别实验数据数据预处理模型构建模型训练模型评价模型预测选做总结参考基于LeNet实现手写体数字识别实验数据手写体数字识别是计算机视觉中最常用的图像分类任务,让计算机识别出给定图片中的手写体数字(0-9共10个数字)。由于手写体风格差异很大,因此手写体数字识别是具有一定难度的任务。我们采用常用的手写数字识别数据集:MNIST数据集。MNIST数据集是计算机视觉领域的经
白小码i
·
2022-10-30 07:15
cnn
人工智能
机器学习
NNDL
作业6:基于CNN的XO识别
一、实现卷积池化激活代码1、numpy版本图像生成卷积核生成卷积操作池化操作最大池化平均池化池化在CNN中的作用:最大池化核平均池化效果比较:激活操作:2、pytorch版本(利用pytorch框架)2.1用到的函数2.2代码实现2.1生成图像并定义卷积核2.2进行卷积操作2.3进行池化最大池化平均池化2.4激活函数进行激活3、图像结果可视化二、基于CNN的XO识别1、数据集准备2、构建模型3、训
刘先生TT
·
2022-10-30 07:14
cnn
python
深度学习
NNDL
实验六卷积神经网络(2)基础算子
5.2卷积神经网络的基础算子5.2.1卷积算子二维卷积提取原理(动图!!!)温故而知新——常用的卷积核:均值滤波:高斯滤波:锐化卷积核:sobel算子5.2.1.1多通道卷积5.2.1.2多通道卷积层算子5.2.1.3卷积算子的参数量和计算量5.2.2汇聚层算子选做题:使用pytorch实现ConvolutionDemo总结:不足:参考:5.2卷积神经网络的基础算子卷积神经网络是目前计算机视觉中使
刘先生TT
·
2022-10-30 07:44
python
人工智能
《神经网络与深度学习》学习笔记
电子版:https://
nndl
.github.io/B站视频:https://www.bilibili.com/video/BV1P3411u7c1神经网络与深度学习第一部分机器学习基础1.绪论1.1
SDUer_DZL
·
2022-10-30 07:05
神经网络
深度学习
人工智能
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
5.3基于LeNet实现手写体数字识别实验5.3.1数据5.3.1.1数据预处理5.3.2模型构建小疑问:为什么权重和AIStudio差异这么大?(我也不知道)5.3.3模型训练5.3.4模型评价5.3.5模型预测使用前馈神经网络实现MNIST识别,与LeNet效果对比。(选做)网络模型优化网络模型,需按照最优参数一层线性层,500个神经元增加一层含有200个神经元的线性层将第二层隐层200个神经
刘先生TT
·
2022-10-30 07:27
深度学习
python
pytorch
cnn
NNDL
实验五 前馈神经网络(1)二分类任务
目录4.1神经元4.1.1净活性值4.1.2激活函数4.1.2.1Sigmoid型函数4.1.2.2ReLU型函数4.2基于前馈神经网络的二分类任务4.2.1数据集构建4.2.2模型构建4.2.2.1线性层算子4.2.2.2Logistic算子4.2.2.3层的串行组合4.2.3损失函数4.2.4模型优化4.2.4.1反向传播算法4.2.4.2损失函数4.2.4.3Logistic算子4.2.4.
AI-2 刘子豪
·
2022-10-14 07:39
神经网络
分类
算法
NNDL
实验五 前馈神经网络—鸾尾花分类
通过前两次对前馈神经网络的探究实验,基础掌握了前馈神经网络的基本概念、网络结构及代码实现,利用前馈神经网络完成一个分类任务,并通过两个简单的实验,观察前馈神经网络的梯度消失问题和死亡ReLU问题,以及对应的优化策略。接下来便落实实例,完成基于前馈神经网络完成鸾尾花分类。目录深入研究鸾尾花数据集小批量梯度下降法数据分组数据处理用DataLoader进行封装模型构建完善Runner类模型训练模型评价模
白小码i
·
2022-10-14 07:09
神经网络
分类
算法
NNDL
作业4 第四章作业
这里写目录标题习题4-2试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络有两个隐藏神经元和一个输出神经元,并使用RELU作为激活函数。神经元的建立求得权重如下求解结果代码如下问题分析:习题4-3试着说明死亡ReLU问题,并提出解决方法。习题4-7为什么在神经网络模型的结构化风险函数中不对偏置b进行正则化?问题4-8为什么在用反向传播算法进行参数学习时要采用随机参数初始化的方式而不是直接令
刘先生TT
·
2022-10-14 07:38
python
深度学习
pytorch
NNDL
实验: Moon1000数据集 - 弯月消失之谜
目录弯月在哪里?真正的弯月一位同学的弯月适合Logistics与FNN二分类对比的数据集感谢以下两位同学破解“弯月消失之谜”弯月在哪里?怎么看也不像书上说的,两个弯月形状。但是源代码运行后就是这个样子,凑合着用吧。实验课本源代码,运行后效果:第三章Logistics回归,用这个数据集没问题。第四章FNN二分类,用这个数据集,看不出Logistics回归与FNN的区别。感觉存在一些问题。真正的弯月找
HBU_David
·
2022-10-14 07:35
DeepLearning
算法
深度学习
HBU-
NNDL
实验五 前馈神经网络(3)鸢尾花分类
目录深入研究鸢尾花数据集4.5实践:基于前馈神经网络完成鸢尾花分类4.5.1小批量梯度下降法4.5.1.1数据分组4.5.2数据处理4.5.2.2用DataLoader进行封装4.5.3模型构建4.5.4完善Runner类4.5.5模型训练4.5.6模型评价4.5.7模型预测思考题1.对比Softmax分类和前馈神经网络分类。2.自定义隐藏层层数和每个隐藏层中的神经元个数,尝试找到最优超参数完成多
不是蒋承翰
·
2022-10-14 07:31
神经网络
分类
算法
pytorch
NNDL
实验五 前馈神经网络(3)鸢尾花分类
深入研究鸢尾花数据集4.5实践:基于前馈神经网络完成鸢尾花分类4.5.1小批量梯度下降法4.5.1.1数据分组4.5.2数据处理4.5.2.2用DataLoader进行封装4.5.3模型构建4.5.4完善Runner类4.5.5模型训练4.5.6模型评价4.5.7模型预测思考1.对比Softmax分类和前馈神经网络分类。2.自定义隐藏层层数和每个隐藏层中的神经元个数,尝试找到最优超参数完成多分类。
刘先生TT
·
2022-10-14 07:53
深度学习
python
机器学习
【基础整理】attention:浅谈注意力机制与自注意力模型(附键值对注意力 + 多头注意力)
划水休息两天不看论文了~来重新复习一下基础qaq以下讲解参考大名鼎鼎的
nndl
邱锡鹏《神经网络与深度学习》部分内容(详见第八章,注意力与外部记忆)是对于不太行的初学者也比较友好的一本,当然不能要求一本书既全面又深入
HicSuntLeones
·
2022-10-12 22:30
神经网络与深度学习(
nndl
)——2 机器学习概述
机器学习概述机器学习(ML)定义:就是让计算机从数据中进行自动学习,从而得到某种知识(或规律)早期称为模式识别(PR)2.1基本概念样本、特征、标签、模型、学习算法等概念特征又称为属性(如水果的颜色、大小、产地、品牌、形状等)标签:是我们需要进行预测的,可以是连续值(如水果的甜度、水分、成熟度的综合打分),也可以是离散的(如好、坏这类标签)完成标记的标签和特征的东西可以看成一个样本或示例。数据集(
kokotao
·
2022-10-10 20:02
神经网络与深度学习笔记
深度学习
机器学习
神经网络
损失函数
线性模型
NNDL
实验六 卷积神经网络(2)基础算子
5.2卷积神经网络的基础算子我们先实现卷积网络的两个基础算子:卷积层算子和汇聚层算子。5.2.1卷积算子卷积层是指用卷积操作来实现神经网络中一层。为了提取不同种类的特征,通常会使用多个卷积核一起进行特征提取。5.2.1.1多通道卷积5.2.1.2多通道卷积层算子1.多通道卷积卷积层的代码实现2.与paddleAPI运算结果比较,Pytorch:torch.nn.Conv2d();5.2.1.3卷积
HBU_David
·
2022-10-10 09:34
DeepLearning
cnn
深度学习
人工智能
NNDL
作业7:第五章课后题(1×1 卷积核 | CNN BP)
卷积神经网络(CNN)反向传播算法-刘建平Pinard-博客园(cnblogs.com)BackpropagationInConvolutionalNeuralNetworks|DeepGrid(jefkine.com)ConvolutionalNeuralNetworksbackpropagation:fromintuitiontoderivation–GrzegorzGwardys(wordp
HBU_David
·
2022-10-10 09:04
深度学习
NNDL
作业6:XO识别
1.Numpy版本:手工实现卷积-池化-激活2.Pytorch版本:调用函数实现卷积-池化-激活3.可视化:了解数字与图像之间的关系参考代码:卷积-池化-激活_HBU_David的博客-CSDN博客CNN实现XO识别QQ群内下载的数据集没有分测试集和训练集。共2000张图片,X、O各1000张。从X、O文件夹,分别取出150张作为测试集。文件夹train_data:放置训练集1700张图片文件夹t
HBU_David
·
2022-10-10 09:03
深度学习
人工智能
NNDL
作业5:卷积
一、用自己的语言,说说对卷积、卷积核、特征图、特征选择的理解。二、探究不同卷积核的作用,简述卷积能够提取特征的原理。参考:ImageKernelsexplainedvisually(setosa.io)三、编程实现:实现灰度图的边缘检测、锐化、模糊。(必做)调整卷积核参数,测试并总结。(必做)使用不同尺寸图片,测试并总结。(必做)探索更多类型卷积核。(选做)尝试彩色图片边缘检测。(选做)【总结】本
HBU_David
·
2022-10-10 09:34
深度学习
python
人工智能
NNDL
实验五 前馈神经网络(1) 二分类任务
liyong目录4.1神经元4.1.1净活性值4.1.2激活函数4.1.2.1Sigmoid型函数4.1.2.2ReLU型函数4.2基于前馈神经网络的二分类任务4.2.1数据集构建4.2.2模型构建4.2.2.1线性层算子4.2.2.2Logistic算子(激活函数)4.2.2.3层的串行组合4.2.3损失函数4.2.4模型优化4.2.4.1反向传播算法4.2.4.2损失函数4.2.4.3Logi
_Gypsophila___
·
2022-10-07 12:22
神经网络
分类
深度学习
NNDL
实验五 前馈神经网络(1)二分类任务
文章目录4.1神经元4.1.1净活性值4.1.2激活函数4.1.2.1Sigmoid型函数4.1.2.2ReLU型函数4.2基于前馈神经网络的二分类任务4.2.1数据集构建4.2.2模型构建4.2.2.1线性层算子4.2.2.2Logistic算子(激活函数)4.2.2.3层的串行组合4.2.3损失函数4.2.4模型优化4.2.4.1反向传播算法4.2.4.2损失函数4.2.4.3Logistic
plum-blossom
·
2022-10-07 12:21
NNDL实验
神经网络
分类
深度学习
NNDL
实验五 前馈神经网络(3)鸢尾花分类
目录深入研究鸢尾花数据集4.5实践:基于前馈神经网络完成鸢尾花分类4.5.1小批量梯度下降法4.5.2数据处理4.5.3模型构建4.5.4完善Runner类4.5.5模型训练4.5.6模型评价4.5.7模型预测思考题总结深入研究鸢尾花数据集画出数据集中150个数据的前两个特征的散点分布图:【统计学习方法】感知机对鸢尾花(iris)数据集进行二分类4.5实践:基于前馈神经网络完成鸢尾花分类继续使用第
HBU_David
·
2022-10-07 12:20
DeepLearning
神经网络
分类
深度学习
NNDL
实验五 前馈神经网络 (1)二分类任务
目录4.1神经元4.1.1净活性值4.1.2激活函数4.1.2.1Sigmoid型函数4.1.2.2ReLU型函数4.2基于前馈神经网络的二分类任务4.2.1数据集构建4.2.2模型构建4.2.2.1线性层算子4.2.2.2Logistic算子4.2.2.3层的串行组合4.2.3损失函数4.2.4模型优化4.2.4.1反向传播算法4.2.4.2损失函数4.2.4.3Logistic算子4.2.4.
LzeKun
·
2022-10-07 12:19
神经网络
分类
算法
NNDL
实验五 前馈神经网络(2)自动梯度计算&优化问题
目录4.3.1利用预定义算子重新实现前馈神经网络1,使用pytorch的预定义算子来重新实现二分类任务。2.增加一个3个神经元的隐藏层,再次实现二分类,并与1做对比。(必做)3.自定义隐藏层层数和每个隐藏层中的神经元个数,尝试找到最优超参数完成二分类。可以适当修改数据集,便于探索超参数。(选做)4.4.2梯度消失问题4.4.3死亡ReLU问题4.3自动梯度计算虽然我们能够通过模块化的方式比较好地对
captainMo_11
·
2022-10-07 12:49
神经网络
深度学习
人工智能
NNDL
实验五 前馈神经网络(2)
前言4.3自动梯度计算和预定义算子4.3.1使用torch的预定义算子来重新实现二分类任务。4.3.2增加一个3个神经元的隐藏层,再次实现二分类,并与1做对比。4.3.3自定义隐藏层层数和每个隐藏层中的神经元个数,尝试找到最优超参数完成二分类。可以适当修改数据集,便于探索超参数。更改学习率为0.1、0.5、1、2、5,结果如下更改神经元的参数【思考题】自定义梯度计算和自动梯度计算:从计算性能、计算
刘先生TT
·
2022-10-07 12:47
深度学习
pytorch
python
NNDL
作业2:第三章课后习题
习题3-2在线性空间中,证明一个点x到平面的距离为设平面上有点x1,使得x-x1与该平面垂直w也与该平面垂直,所以w和x-x1平行即:x-x1=kw(k是常数)点x到平面的距离为|k|||w||即两边同时取模得点到平面的距离即证得习题3-5在Logistic回归中,是否可以用去逼近正确的标签y,并用平方损失最小化来优化参数w在以sigmoid为激活函数时,不能使用平方损失作为lossfunctio
_Gypsophila___
·
2022-10-02 07:15
NNDL
作业2: 第三章课后题
习题3-2:在线性空间中,证明一个点x到平面的距离为证明:对于任一点,设其在超平面上的投影点为x1,则,且向量与垂直于该平面,即与超平面的法向量平行。同时就是我们要求的值。易得与平行,即=(k为常数),因此点到平面的距离是,又因为所以带入两边同时取模:证毕习题3-5:在Logistic回归中,是否可以用去逼近正确的标签y,并用平方损最小化来优化参数w?在Logistic回归中可以用sigmoid函
喝无糖雪碧
·
2022-10-02 07:58
NNDL
作业1:第二章课后题
本章为深度学习第一次习题作业,内容是第二章课后题,考察对于基础概念的掌握,掌握这些概念后较为容易解答。习题2-1分析为什么平方损失函数不适用于分类问题,交叉熵损失函数不适用于回归问题.首先要知道什么是平方损失函数和交叉熵损失函数:平方损失函数是MSE的单个样本损失,又叫平方损失性能,是指预测值与实际值差的平方。在机器学习中,平方损失函数是直接测量机器学习模型的输出结果与实际结果之间的距离,若定义机
白小码i
·
2022-10-02 07:57
ui
深度学习
NNDL
实验五 前馈神经网络(1)二分类任务
二分类任务4.1神经元4.1.1净活性值4.1.2激活函数4.1.2.1Sigmoid型函数4.1.2.2ReLU型函数4.2基于前馈神经网络的二分类任务4.2.1数据集构建4.2.2模型构建4.2.2.1线性层算子4.2.2.2Logistic算子4.2.2.3层的串行组合4.2.3损失函数4.2.4模型优化4.2.4.1反向传播算法4.2.4.2损失函数4.2.4.3Logistic算子4.2
乳酸蔓越莓吐司
·
2022-10-02 07:57
神经网络
分类
深度学习
NNDL
作业2:第三章课后题
习题3-2:证明:首先证明权重向量w与决策平面正交:任取决策平面上向量a,有:若两向量正交,则向量内积为0,所以w与平面正交。设平面内有一点x',使得x-x'垂直于此平面。又因为w与平面正交,所以有x-x'平行于w,即:(k为常数).因此点x到平面的距离为|k|||w||.因为,x'在平面内,所以满足联立得,,将代入得:,两边同时取模,得:因此点x到平面的距离为.习题3-5:不能。若以平方损失最小
乳酸蔓越莓吐司
·
2022-10-02 07:27
算法
线性代数
机器学习
NNDL
实验四 线性分类
NNDL
实验四线性分类3.1基于Logistic回归的二分类任务3.1.1数据集构建3.1.2模型构建3.1.3损失函数3.1.4模型优化3.1.4.1梯度计算3.1.4.2参数更新3.1.5评价指标3.1.6
乳酸蔓越莓吐司
·
2022-10-02 07:26
分类
机器学习
深度学习
NNDL
实验三 线性回归
使用pytorch实现线性回归2.2线性回归2.2.1数据集构建2.2.2模型构建2.2.3损失函数2.2.4模型优化2.2.5模型训练2.2.6模型评估2.2.7样本数量&正则化系数2.3多项式回归2.3.1数据集构建2.3.2模型构建2.3.3模型训练2.3.4模型评估2.4Runner类介绍2.5基于线性回归的波士顿房价预测2.5.1数据处理2.5.1.1数据清洗2.5.1.2数据集划分2.
乳酸蔓越莓吐司
·
2022-10-02 07:56
线性回归
python
机器学习
NNDL
实验二 pytorch入门
一.概念:张量、算子写出定义,并用通俗易懂的语言描述自己的理解。张量(Tensor):深度学习中表示和存储数据的主要形式。张量概念是矢量概念的推广,矢量是一阶张量。张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数。它是一个定义在一些向量空间和一些对偶空间的笛卡尔积上的多重线性映射,其坐标是|n|维空间内,有|n|个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这
乳酸蔓越莓吐司
·
2022-10-02 07:26
pytorch
python
深度学习
NNDL
作业3:分别使用numpy和pytorch实现FNN例题
过程推导-了解BP原理数值计算-手动计算,掌握细节代码实现-numpy手推+pytorch自动过程推导、数值计算,以下三种形式可任选其一:直接在博客用编辑器写在电子设备手写,截图在纸上写,拍照发图代码实现:对比【numpy】和【pytorch】程序,总结并陈述。激活函数Sigmoid用PyTorch自带函数torch.sigmoid(),观察、总结并陈述。激活函数Sigmoid改变为Relu,观察
HBU_David
·
2022-10-02 07:23
DeepLearning
numpy
pytorch
python
NNDL
作业2:第三章课后题
习题3-2:在线性空间中,证明一个点x到平面f(x,w)=wTx+b=0f(x,w)=w^{T}x+b=0f(x,w)=wTx+b=0的距离为∣f(x;w)∣/∣∣w∣∣|f(x;w)|/||w||∣f(x;w)∣/∣∣w∣∣.这就是立体几何的拓展问题,具体证明如下:对于任一点x0=(x10,x20,....,xn0)Tx_{0}=(x_{1}^{0},x_{2}^{0},....,x_{n}^{
mmmooonnneeeyyy
·
2022-10-02 07:50
NNDL
作业2:第三章课后题
目录习题3-2习题3-5习题3-6习题3-2在线性空间中,证明一个点到平面的距离为。答:设平面内有一点,使得垂直于此平面,又因为垂直于此平面,所以有平行于即:(k为常数)因此点到平面的距离为又所以代入两边同时取模:得到点到平面的距离为证明完毕习题3-5在Logistic回归中,是否可以用去逼近正确的标签,并用平方损失最小化来优化参数?答:结论为:在使用sigmoid为激活函数时,不能使用平方损失作
Persevere~~~
·
2022-10-02 07:47
java
前端
开发语言
NNDL
作业1:第二章课后习题
习题2-1分析为什么平方损失函数不适用于分类问题,交叉熵损失函数不适用于回归问题.因为分类问题不连续,使用平方损失函数,只要分类错误其loss便相等,没有距离概念,在分类错误的情况下无法判断优化的好坏。举个例子,若有类型,使用one-hot编码,,无论是预测为还是,loss都一样。但在实际中,有可能使用decode之后的结果计算。当MSE和交叉熵同时应用到多分类场景下时,(标签的值为1时表示属于此
Sun.02
·
2022-10-02 07:47
深度学习
NNDL
第三次作业
文章目录前言作业神经网络原理数值计算代码实现代码激活函数Sigmoid用PyTorch自带函数torch.sigmoid(),观察、总结并陈述。激活函数Sigmoid改变为Relu,观察、总结并陈述。损失函数MSE用PyTorch自带函数t.nn.MSELoss()替代,观察、总结并陈述。损失函数MSE改变为交叉熵,观察、总结并陈述。改变步长,训练次数,观察、总结并陈述。改变步长和训练次数权值w1
刘先生TT
·
2022-10-02 07:04
机器学习
深度学习
人工智能
NNDL
作业3:分别使用numpy和pytorch实现FNN例题
分别使用numpy和pytorch实现FNN例题1.过程推导-了解BP原理2.数值计算-手动计算,掌握细节3.代码实现-numpy手推+pytorch自动3.1对比【numpy】和【pytorch】程序,总结并陈述。3.2激活函数Sigmoid用PyTorch自带函数torch.sigmoid(),观察、总结并陈述。3.3激活函数Sigmoid改变为Relu,观察、总结并陈述。3.4损失函数MSE
乳酸蔓越莓吐司
·
2022-10-02 07:04
numpy
pytorch
python
HBU-
NNDL
第三章习题作业
习题3-2在线性空间中,证明一个点到平面(;)==0的距离为|(;)|/‖‖。取平面(;)=0中任意一点,得到向量(即),其中点x到平面的距离d为向量在平面法向量w上的投影,,θ为与法向量w的夹角。因为点在平面内,所以有带入d中得:习题3-5在Logistic回归中,是否可以用去逼近正确的标签,并用平方损失最小化来优化参数?不可以。logistic回归目的是从特征学习出一个0/1分类模型,而这个模
不是蒋承翰
·
2022-09-30 07:42
HBU-
NNDL
实验四 线性分类
第3章线性分类线性回归和线性分类之间有着很大的联系,从某种意义上来说,线性分类就是线性回归函数使用激活函数的结果。同时也可以看成是线性回归降维的结果。对于一个线性回归函数,我们可以通过添加全局函数的形式来将其转换为线性分类函数,3.1基于Logistic回归的二分类任务Logistic回归,是一种广义的线性回归分析模型,属于机器学习中的监督学习。其推导过程与计算方式类似于回归的过程,但实际上主要是
不是蒋承翰
·
2022-09-30 07:42
逻辑回归
算法
机器学习
pytorch
深度学习
HBU-
NNDL
实验三 线性回归
2.2线性回归回归:一个或多个自变量与因变量之间的关系之间建模的方法,经常用来表示输入和输出之间的关系分类:预测数据属于一组类别的哪一个一个简单的线性模型线性回归是对n维输入的加权,外加偏差使用平方损失来衡量预测值与真实值的差异(乘1/2为了求导方便,并没有太大影行)线性回归有显示解线性回归可以看成单层神经网络2.2.1数据集构建首先,我们构造一个小的回归数据集。假设输入特征和输出标签的维度都为1
不是蒋承翰
·
2022-09-30 07:41
线性回归
机器学习
pytorch
深度学习
python
NNDL
实验五 前馈神经网络(1)二分类任务
文章目录4.1神经元4.1.1净活性值【思考题】加权相加与仿射变换之间有什么区别和联系?4.1.2激活函数4.1.2.1Sigmoid型函数4.1.2.2ReLU型函数4.2基于前馈神经网络的二分类任务4.2.1数据集构建4.2.2模型构建4.2.2.1线性层算子4.2.2.2Logistic算子(激活函数)4.2.2.3层的串行组合4.2.3损失函数4.2.4模型优化4.2.4.1反向传播算法4
牛奶园雪梨
·
2022-09-30 07:41
神经网络
分类
深度学习
NNDL
第三章课后作业
电子版3-2在线性空间中,证明一个点xxx到平面f(x;w)=wx+b=0f(x;w)=w^x+b=0f(x;w)=wx+b=0的距离为∣f(x,w)∣/∣∣w∣∣|f(x,w)|/||w||∣f(x,w)∣/∣∣w∣∣|公式推导cosθ=∣AB⃗−w⃗∣∣∣AB⃗∣∣∣∣w⃗∣∣\cos\theta=\frac{|\vec{AB}-\vec{w}|}{||\vec{AB}||||\vec{w}
刘先生TT
·
2022-09-29 07:28
NNDL
实验四 线性分类
前言:在做这次实验的时候是在Kaggle上运行的,因为Kaggle上有小小的免费的GPU加速,同时小小的体会到了在训练模型的时候,GPU加速和CPU加速之间的一种区别。Kaggle是一个很好的网站,有各式各样的大佬。同时Kaggle上已经导入了机器学习中的很多包,例如torch、tensorflow等等,非常方便。kaggle官网文章目录第3章线性分类3.1基于Logistic回归3.1.1数据集
刘先生TT
·
2022-09-29 07:28
分类
机器学习
逻辑回归
NNDL
0作业1:第二章课后习题
NNDL
作业1:第二章课后习题习题2-1分析为什么平方损失函数不适用于分类问题,交叉熵损失函数不适用于回归问题.明确了解分类和回归。才能知道什么是合适,什么是不合适的。
刘先生TT
·
2022-09-29 07:27
人工智能
pytorch
机器学习
人工智能
NNDL
实验三 线性模型
目录2.2实现一个简单的线性模型引言2.2.1数据集构建2.2.2模型构建2.2.3损失函数2.2.4模型优化2.2.5模型训练2.2.6模型评估2.3多项式回归2.3.1数据集构建2.3.2模型构建与训练2.3.3模型评估Runner类介绍2.5基于线性回归的波士顿房价预测2.5.1数据清洗2.5.1.1数据清洗2.5.1.2数据集划分2.5.1.2特征工程2.5.2模型构建2.5.3完善Run
刘先生TT
·
2022-09-29 07:27
python
机器学习
深度学习
NNDL
实验一 numpy
numpy的array操作1.导入numpy库importnumpyasnp###导入numpy库issoeasy,nodifficult2.建立一个一维数组a初始化为[4,5,6],(1)输出a的类型(type)(2)输出a的各维度的大小(shape)(3)输出a的第一个元素(值为4)importnumpyasnpa=np.array([4,5,6])print(type(a));#输出a的类型
刘先生TT
·
2022-09-29 07:57
人工智能
numpy
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他