E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
动手学深度学习课堂笔记
动手学深度学习
笔记day5
多层感知机1、模型输出并不是和每一个特征都是线性相关的,在特征之间的右复杂的相关交互作用。2、每一层都输出到上面的层,直到生成最后的输出。我们可以把前L−1层看作表示,把最后一层看作线性预测器。这种架构通常称为多层感知机(multilayerperceptron),通常缩写为MLP。多层感知机中的层数为隐藏层和输出层。(不包含输入层)。没有加激活函数的话,仿射函数的仿射函数本身就是仿射函数,我们没
努力学习的廖同学
·
2023-01-17 22:34
深度学习
动手学深度学习
笔记day6
前向传播前向传播(forwardpropagation或forwardpass)指的是:按顺序(从输入层到输出层)计算和存储神经网络中每层的结果。反向传播反向传播(backwardpropagation或backpropagation)指的是计算神经网络参数梯度的方法。简言之,该方法根据微积分中的链式规则,按相反的顺序从输出层到输入层遍历网络。该算法存储了计算某些参数梯度时所需的任何中间变量(偏导
努力学习的廖同学
·
2023-01-17 22:34
深度学习
神经网络
动手学深度学习
笔记day8
层和块块由类(class)表示。它的任何子类都必须定义一个将其输入转换为输出的前向传播函数,并且必须存储任何必需的参数。每个块必须提供的基本功能:将输入数据作为其前向传播函数的参数。通过前向传播函数来生成输出。请注意,输出的形状可能与输入的形状不同。例如,我们上面模型中的第一个全连接的层接收一个20维的输入,但是返回一个维度为256的输出。计算其输出关于输入的梯度,可通过其反向传播函数进行访问。通
努力学习的廖同学
·
2023-01-17 22:34
深度学习
神经网络
动手学深度学习
笔记day11
图像增广图像增广在对训练图像进行一系列的随机变化之后,生成相似但不同的训练样本,从而扩大了训练集的规模。此外,应用图像增广的原因是,随机改变训练样本可以减少模型对某些属性的依赖,从而提高模型的泛化能力。常用的图像增广方法使用下面这个图像作为示例。定义辅助函数apply。此函数在输入图像img上多次运行图像增广方法aug并显示所有结果。%matplotlibinlineimporttorchimpo
努力学习的廖同学
·
2023-01-17 22:34
深度学习
计算机视觉
动手学深度学习
笔记day2
动手学深度学习
笔记day2数据预处理读取数据集1、创建一个人工数据集,并存储在CSV(逗号分隔值)文件…/data/house_tiny.csv中。
努力学习的廖同学
·
2023-01-17 22:04
深度学习
动手学深度学习
笔记day7
实战:预测房价预测价格的对数与真实标签价格的对数之间出现以下均方根误差:1、调用库函数importhashlibimportosimporttarfileimportzipfileimportrequests#如果你没有安装pandas,请取消下一行的注释#!pipinstallpandas%matplotlibinlineimportnumpyasnpimportpandasaspdimport
努力学习的廖同学
·
2023-01-17 22:04
深度学习
动手学深度学习
Day02
1.数据操作详细请参考教学文档https://zh.d2l.ai/chapter_preliminaries/ndarray.html#id21.1N维数组N维数组是机器学习和神经网络的主要数据结构0-d(标量)1.0一个类别1-d(向量)[...]一个特征向量2-d(矩阵)[[...]]一个样本-特征矩阵3-d[[[...]]]RGB图片(宽x高x通道)4-d[[[[[....]]]]一个RGB
南邮在读本科生
·
2023-01-17 22:00
动手学深度学习
深度学习
人工智能
算法
3.2 Python 实例3-天天向上的力量
本文内容为北京理工大学Python慕课课程的课程讲义,将其整理为OneNote笔记同时添加了本人上课时的
课堂笔记
,且主页中的思维导图就是根据课件内容整理而来,为了方便大家和自己查看,特将此上传到CSDN
孤柒「一起学计算机」
·
2023-01-17 19:44
#
Python课件
Python
实例
天天向上
长短时记忆神经网络(LSTM)——【torch学习笔记】
长短时记忆(LSTM)引用翻译:《
动手学深度学习
》在潜变量模型中解决长期信息保存和短期输入跳过的挑战已经存在很长时间了。
一个语文不好的NLPer
·
2023-01-17 15:22
深度学习——torch学习笔记
lstm
神经网络
学习
沐神学习笔记——长短期记忆网络(LSTM)【
动手学深度学习
v2】
理论部分记忆细胞C类似于之前RNN里面的h。上面的如果:Ft是0的话尽量的去遗忘,如果I==0,就把现在的记忆单元丢掉。这两个是相互独立的,也就是说:可以全部不要,也可以全部要,也可以一个要一个不要。隐藏状态隐藏状态:对候选记忆单元又做一个tanh(变到-1~+1之间)。所以这个Ct可以到-2~+2之间。所以为了保证隐藏状态是-1~+1之间,又对Ct做一次tanh。上图的Ot是说要不要输出
东方-教育技术博主
·
2023-01-17 15:50
深度学习理论和实践应用
深度学习
lstm
学习
DJL-Java开发者
动手学深度学习
之归一化处理及源代码
在深度学习训练中,通过会对数据进行归一化处理。通常讲,归一化有两点好处:1、使不同量纲的特征处于同一数值量级,减少方差大的特征的影响,使模型更准确。2、加快学习算法的收敛速度。MinMax归一化将数据缩放到0和1之间,公式如下:Y=Xi−min(Xi)max(Xi)−min(xi)Y=\frac{X_i-min(X_i)}{max(X_i)-min(x_i)}Y=max(Xi)−min(xi)Xi
ousinka
·
2023-01-17 10:55
d2lcoder
Java开发者动手学习深度学习
DJL
深度学习
java
人工智能
DJL-Java开发者
动手学深度学习
之使用自己训练的模型进行图片分类预测
在我们上期文章中(文章请见《深度学习之图片分类》),我们使用MNIST数据集训练了自己的图片分类模型,并保存在build/model目录下。接下来,我们将使用上期训练的模型进行预测图片。加载模型privatestaticClassificationspredict()throwsIOException,ModelException,TranslateException{Imageimg=Image
ousinka
·
2023-01-17 10:54
d2lcoder
DJL
Java开发者动手学习深度学习
分类
数据挖掘
人工智能
动手学深度学习
第二章练习(Pytorch版)
记录一下学习《
动手学深度学习
》的过程中完成的课后练习以及自己整理的课程相关知识点,部分内容有参考课程讨论区和网上一些大佬的解答。如有错误欢迎指教!
看星星的花栗鼠
·
2023-01-17 09:29
动手学深度学习
深度学习
python
pytorch
动手学深度学习
(第二版)注释后代码【持续更新】
文章目录前言预备知识线性神经网络线性回归从零实现线性回归简洁实现softmax从零实现softmax简洁实现前言
动手学深度学习
的代码中用到一些python的特性,但是并没有解释,而且一些torch库函数也并没有做解释
亦梦亦醒乐逍遥
·
2023-01-17 09:29
人工智能
深度学习
python
机器学习
《
动手学深度学习
》第二章——预备知识_2.2数据预处理_学习思考与习题答案
文章目录2.2数据预处理习题解答过程读取数据集处理缺失值转换为张量格式2.2数据预处理作者github链接:github链接习题创建包含更多行和列的原始数据集。删除缺失值最多的列。将预处理后的数据集转换为张量格式。解答过程为了能用深度学习来解决现实世界的问题,我们经常从预处理原始数据开始,而不是从那些准备好的张量格式数据开始。在Python中常用的数据分析工具中,我们通常使用pandas软件包。像
coder_sure
·
2023-01-17 09:58
深度学习
深度学习
python
r语言
【
动手学深度学习
】 2预备知识
李沫《动手学习深度学习》课程学习需要预备的知识原因重点线性代数处理表格数据矩阵运算微积分决定以何种方式调整参数损失函数(lossfunction)——衡量“模型有多糟糕”这个问题的分数梯度(gradient)——连结一个多元函数对其所有变量的偏导数,简单理解就是求导概率在不确定的情况下进行严格的推断目录2.1.数据操作——张量2.1.1.入门2.1.2.运算符2.1.3.广播机制2.1.4.索引和
sumshine_
·
2023-01-17 09:56
知识学习
深度学习
python
pytorch
《
动手学深度学习
》课后习题3
《
动手学深度学习
》学习网址:参考资料《
动手学深度学习
》中文版官网教材:PyTorch中文文档:部分PyTorch代码来自GitHub开源仓库:《动手学》:批量归一化和残差网络nn.BatchNorm2d
极客阿宝
·
2023-01-17 09:55
动手学深度学习
李沐——
动手学深度学习
课后练习calculus
1.6练习绘制函数=()=3−1y=f(x)=x3−1x和其在=1x=1处切线的图像。求函数()=321+52f(x)=3x12+5ex2的梯度。函数()=‖‖2f(x)=‖x‖2的梯度是什么?你可以写出函数=(,,)u=f(x,y,z),其中=(,)x=x(a,b),=(,)y=y(a,b),=(,)z=z(a,b)的链式法则吗?1.x=np.arange(0.9,1.2,0.1)defg(x)
Alphable
·
2023-01-17 09:23
深度学习
人工智能
python
《
动手学深度学习
》参考答案(第二版)-第二章
最近在学习《
动手学深度学习
》,结合百度和课后的大家的讨论(侵删),整理出这一份可能并不完全正确的参考答案(菜鸡的做题记录),因为个人水平有限,有错误的地方欢迎在公众号联系我,后面我对错误进行更正时候
平平无奇小扑街
·
2023-01-17 09:51
《动手学深度学习》参考答案
python
深度学习
pytorch
线性回归pytorch实现笔记
线性回归pytorch实现笔记实例一【用Pytorch实现一个简单的线性回归】实例三【线性回归的从零开始实现】本周首先学的是《
动手学深度学习
(pytorch版)》里面的线性回归的实现,但是有些东西看不懂
Far_Rainbow
·
2023-01-17 07:52
笔记
pytorch
python
深度学习
动手学深度学习
Pytorch(一)——数据操作与预处理
文章目录1.数据操作的实现1.1创建张量1.2张量的属性1.3张量的操作1.4节省内存2.数据预处理参考资料张量(tensor)比Numpy的ndarray多一些重要功能。张量表示一个数组组成的数组。(1)GPU很好地支持加速计算,而Numpy仅支持CPU计算。(2)张量类支持自动微分。1.数据操作的实现首先需要导入torch:importtorch1.1创建张量有四种方式可以创建张量。创建随机张
冠long馨
·
2023-01-17 07:21
深度学习
机器学习
人工智能
强化学习
李沐
动手学深度学习
V2-深度循环神经网络和代码实现
一.深度循环神经网络1.介绍与多层感知机一样,循环神经网络也可以将多层循环神经网络堆叠在一起,通过对几个简单层的组合,产生了一个灵活的机制。特别是,数据可能与不同层的堆叠有关。下图所示描述了一个具有个隐藏层的深度循环神经网络,每个隐状态都连续地传递到当前层的下一个时间步输入和当前层下一层的当前时间步输入。2.函数依赖关系假设在时间步ttt有一个小批量的输入数据Xt∈Rn×d\mathbf{X}_t
cv_lhp
·
2023-01-17 07:19
李沐动手学深度学习笔记
深度学习
rnn
lstm
gru
自然语言处理
李沐
动手学深度学习
V2-语义分割和Pascal VOC2012数据集加载代码实现
一.语义分割和数据集1.介绍目标检测问题中使用方形边界框来标注和预测图像中的目标,而语义分割(semanticsegmentation)问题,重点关注于如何将图像分割成属于不同语义类别的区域。与目标检测不同,语义分割可以识别并理解图像中每一个像素的内容:其语义区域的标注和预测是像素级的。如下图所示展示了语义分割中图像有关狗、猫和背景的标签,与目标检测相比,语义分割标注的像素级的边框显然更加精细。2
cv_lhp
·
2023-01-17 07:49
李沐动手学深度学习笔记
深度学习
计算机视觉
pytorch
语义分割
python
1李沐
动手学深度学习
v2/数据预处理
#创建数据集并存储到csv文件中importosos.makedirs(os.path.join('..','data'),exist_ok=True)data_file=os.path.join('..','data','house_tiny.csv')withopen(data_file,'w')asf:#列名f.write('NumRooms,Alley,Price\n')#数据,NA表示未
xcrj
·
2023-01-17 07:48
深度学习
深度学习
python
机器学习
【李沐-
动手学深度学习
v2】04数据操作+数据预处理
1、数据操作#查看pytorch中的所有函数名或属性名importtorchprint(dir(torch.distributions))print('1.张量的创建')#ones函数创建一个具有指定形状的新张量,并将所有元素值设置为1t=torch.ones(4)print('t:',t)运行结果:x=torch.arange(12)print('x:',x)print('xshape:',x.
杳杳捞到月亮了吗
·
2023-01-17 07:43
深度学习
深度学习
python
pytorch
吴恩达《深度学习专项》笔记+代码实战(四):深度神经网络(全连接网络)
课堂笔记
深度神经网络概述与符号标记所谓深度神经网络,只是神经网络的隐藏层数量比较多而已,它的本质结构和前两课中的神经网络是
大局观选手周弈帆
·
2023-01-16 13:21
吴恩达深度学习
深度学习
dnn
神经网络
机器学习
python
动手学深度学习
需要的环境遇到的小问题
可能因为我没有按照书上的顺序下载库,导致d2l和mxnet所需的numpy等库的版本矛盾解决如下:先下载好d2lpipinstalld2l==0.17.5GetStarted|ApacheMXNet利用官网下载好mxnetpipinstallmxnet==1.3.1希望可以帮到你
白衣纵马
·
2023-01-16 12:27
深度学习
人工智能
大数据预处理kettle
课堂笔记
大数据预处理kettle
课堂笔记
第一章数据预处理概述第二章Kettle工具的基本使用第三章基于kettle的书导入与导出第四章数据清理第五章Kettle的作业设计第六章构建数据仓库第七章基于Pythond
阿楷不当程序员
·
2023-01-16 10:47
大数据
【
动手学深度学习
v2李沐】学习笔记04:Softmax回归、损失函数、图片分类数据集、详细代码实现
前文回顾:线性回归、基础优化算法、线性回归实现文章目录一、Softmax回归1.1多类分类1.1.1回归vs分类1.1.2均方损失1.2校验比例1.3Softmax和交叉熵损失1.4总结二、损失函数2.1均方损失L2Loss2.2绝对值损失L1Loss2.3哈珀鲁棒损失Huber'sRobustLoss三、图片分类数据集3.1获取数据集3.2查看数据集3.3读取小批量数据3.4封装四、Softma
鱼儿听雨眠
·
2023-01-16 09:03
深度学习笔记整理
深度学习
pytorch
分类
图像处理
09 Softmax 回归 + 损失函数 + 图片分类数据集【
动手学深度学习
v2】
分类问题分类问题只关心对正确类的预测梯度下降理解https://zhuanlan.zhihu.com/p/335191534(强推)图像分类数据集importmatplotlib.pyplotaspltimporttorchimporttorchvisionfromtorch.utilsimportdatafromtorchvisionimporttransformsfromd2limportto
sueong
·
2023-01-16 09:02
pytorch
深度学习
09 Softmax回归+损失函数+图片分类数据集 [
动手学深度学习
v2]
Huber’sRobustLossl(y,y′)={∣y−y′∣−12if∣y−y′∣>112(y−y′)2otherwisel\left(y,y^{\prime}\right)=\begin{cases}\left|y-y^{\prime}\right|-\frac{1}{2}&\text{if}\left|y-y^{\prime}\right|>1\\\frac{1}{2}\left(y-y^
Grin*
·
2023-01-16 09:28
跟李沐学AI
人工智能
深度学习
【
动手学深度学习
】多层感知机(MLP)
1多层感知机的从零开始实现torch.nn继续使用Fashion-MNIST图像分类数据集导入需要的包importtorchfromtorchimportnnfromd2limporttorchasd2lbatch_size=256train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)##获取迭代器1.1初始化模型参数nn.Para
Ya_nnnG
·
2023-01-16 09:57
深度学习
深度学习
【
动手学深度学习
】线性回归+基础优化算法
参考:08线性回归+基础优化算法【
动手学深度学习
v2】_哔哩哔哩_bilibili【pytorch系列】withtorch.no_grad():用法详解_大黑山修道的博客-CSDN博客_torch.no_grad
Ya_nnnG
·
2023-01-16 09:26
深度学习
线性回归
算法
【
动手学深度学习
】Softmax 回归 + 损失函数 + 图片分类数据集
学习资料:09Softmax回归+损失函数+图片分类数据集【
动手学深度学习
v2】_哔哩哔哩_bilibilitorchvision.transforms.ToTensor详解|使用transforms.ToTensor
Ya_nnnG
·
2023-01-16 09:24
深度学习
深度学习
神经网络
【
动手学深度学习
】06-ResNet解析
目录ResNet解析0前言1基础2残差块3总结参考ResNet解析0前言论文:《DeepResidualLearningforImageRecognition》论文地址:DeepResidualLearningforImageRecognition|IEEEConferencePublication|IEEEXplore1基础经典网络ResNet(ResidualNetworks)由Kaiming
是安澜啊
·
2023-01-16 08:08
动手学深度学习
pytorch
深度学习
机器学习
动手学深度学习
v2-文本预处理
#文本预处理核心:数据变成所需的训练资料importcollectionsimportrefromd2limporttorchasd2l#将数据集读取由多条文本行组成的列表中d2l.DATA_HUB['time_machine']=(d2l.DATA_URL+'timemachine.txt','090b5e7e70c295757f55df93cb0a180b9691891a')#load一本书d
Hzt_dreamer
·
2023-01-15 10:19
深度学习
python
自然语言处理
《
动手学深度学习
》Task02-3:循环神经网络
循环神经网络本节介绍循环神经网络,下图展示了如何基于循环神经网络实现语言模型。我们的目的是基于当前的输入与过去的输入序列,预测序列的下一个字符。循环神经网络引入一个隐藏变量HHH,用HtH_{t}Ht表示HHH在时间步ttt的值。HtH_{t}Ht的计算基于XtX_{t}Xt和Ht−1H_{t-1}Ht−1,可以认为HtH_{t}Ht记录了到当前字符为止的序列信息,利用HtH_{t}Ht对序列的下
努力!才能被爱慕~
·
2023-01-15 10:48
Pytorch学习
动手学深度学习
(七、语言模型与循环神经网络)
动手学深度学习
(七、语言模型与循环神经网络)参考链接:循环神经网络一、语言模型语言模型是自然语言处理的重要技术。N元语法是基于n−1阶马尔可夫链的概率语言模型,其中n权衡了计算复杂度和模型准确性。
jiangchao98
·
2023-01-15 10:17
深度神经网络
神经网络
python
循环神经网络
深度学习
【cs231n Lesson6】Batch Normalization批量归一化
参考:李沐
动手学深度学习
v2批量归一化李宏毅批量归一化为什么要引入BatchNormalizationBackpropagation过程中,随着层数的深入,每一层的梯度变得越来越小,就导致上层的参数更新速度快
我什么都不懂zvz
·
2023-01-14 12:48
cs231n
batch
深度学习
L1正则化与L2正则化
这里推荐李沐老师以及王木头学科学的视频12权重衰退【
动手学深度学习
v2】_哔哩哔哩_bilibili“L1和L2正则化”直观理解(之一),从拉格朗日乘数法角度进行理解_哔哩哔哩_bilibili以上是拉格朗日乘子法理解以下是权重衰减角度理解
Adhere_Chris
·
2023-01-14 10:06
深度学习
人工智能
门控循环单元(GRU)——【torch学习笔记】
门控循环单元(GRU)引用翻译:《
动手学深度学习
》在一个递归神经网络中计算梯度,矩阵的长积会导致梯度消失或发散。可能会遇到这样的情况:早期的观察结果对于预测所有未来的观察结果来说是非常重要的。
一个语文不好的NLPer
·
2023-01-14 10:20
深度学习——torch学习笔记
gru
学习
深度学习
GRU门控循环单元自学笔记(
动手学深度学习
)
前言:在上一章节中,通过对RNN模型计算图进行反向传播链式求导推理,可以看出普通RNN模型可能存在梯度爆炸或梯度消失的问题(因为存在矩阵的次幂项)。因此在本章中提出了若干模型可以缓解梯度消失或梯度爆炸,并且这些模型可以做到对不同时间步设置不同权重(为重要时间节点赋予较大权重并更新隐状态,为不重要的时间节点赋予较小权重并且不更新隐状态)。LSTM出现时间早于GRU,但由于GRU架构较为简单,所以先进
王大大可
·
2023-01-14 10:50
深度学习
gru
神经网络
python
jupter
现代循环神经网络-1.门控循环单元(GRU)【
动手学深度学习
v2】
文章目录1.门控循环单元(GRU)1.1门控隐状态A.重置门与更新门B.候选隐状态C.隐状态1.2GRU的实现A.从零实现B.简洁实现1.门控循环单元(GRU)GRU是一个比较新的提出来的,在LSTM之后提出,但是相比LSTM思想更简单一点,效果也差不多,但是GRU的计算速度比LSTM更快。在RNN中,太长的信息处理效果并不好,因为RNN将所有信息都放进隐藏单元里,当时间步很长时,隐藏状态可能累积
紫色银杏树
·
2023-01-14 10:19
动手学深度学习v2
笔记
rnn
深度学习
gru
pytorch
Pytorch基本操作(6)——神经网络基本骨架、卷积操作与卷积层
1前言在学习李沐在B站发布的《
动手学深度学习
》PyTorch版本教学视频中发现在操作使用PyTorch方面有许多地方看不懂,往往只是“动手”了,没有动脑。
Xujl99
·
2023-01-14 00:04
pytorch
深度学习
pytorch
神经网络
深度学习
【无标题】
Vscode中使用Jupyter时,图片不显示问题,只有文字问题描述因为最近开始学习沐神的
动手学深度学习
,听完课之后就想着来自己敲一下代码,熟悉理论的同时,还能够学习python。
Elite_H
·
2023-01-13 19:54
python
开发语言
jupyter
vscode
查询文档 - 基于 mxnet
本博文来自于《
动手学深度学习
》本博文只是记录学习笔记,方便日后查缺补漏,如有侵权,联系删除查阅文档查找模块里的所有函数和类当我们想知道一个模块里面提供了哪些可以调用的函数和类的时候,可以使用dir函数。
帅到没朋友fx
·
2023-01-13 11:56
深度学习
python
人工智能
机器学习
动手学深度学习
--4.多层感知机
detach()用法目的:神经网络的训练有时候可能希望保持一部分的网络参数不变,只对其中一部分的参数进行调整,或者训练部分分支网络,并不让其梯度对主网络的梯度造成影响,这个时候我妈就需要使用detach()函数来切断一些分支的反向传播。tensor.detach()tensor.detach()会返回一个新的tensor,从当前的计算图中分离下来,但是仍指向原变量的存放位置,不同之处只是requi
为啥不能修改昵称啊
·
2023-01-13 09:46
深度学习
人工智能
python
【
动手学深度学习
】线性回归的简洁实现【代码】
更详细的解释地址importnumpyasnpimporttorchfromtorch.utilsimportdatafromd2limporttorchasd2ltrue_w=torch.tensor([2,-3.4])true_b=4.2features,labels=d2l.synthetic_data(true_w,true_b,1000)defload_array(data_arrays
I"ll carry you
·
2023-01-13 01:25
深度学习
深度学习
【笔记】
动手学深度学习
-线性回归
注:期望(mean)(或均值,亦简称期望):为试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一。它反映随机变量平均取值的大小。方差:为各个数据与平均数之差的平方的和的平均数梯度:数学上就是f(x,y)中,f对x的偏导和对y的偏导两者的和。图像上可以理解为指向f函数值最快增加方向。梯度讲解简洁实现使用nn模具,和预处理模块来使得实现更为简单1importnumpyasnpimport
echo_gou
·
2023-01-13 01:23
#
动手学深度学习
动手学深度学习
_线性回归
目录线性回归平方损失函数pytorch实现线性回归线性回归(LinearRegression)可以追溯到19世纪初,它在回归的各种标准工具中最简单而且最流行。线性回归基于几个简单的假设:首先,假设自变量x和因变量y之间的关系是线性的,即y可以表示为x中元素的加权和,这里通常允许包含观测值的一些噪声;其次,我们假设任何噪声都比较正常,如噪声遵循正态分布。线性模型可以表示为:向量版本:线性模型可以看做
CV小Rookie
·
2023-01-13 01:23
边学边记
深度学习
线性回归
机器学习
上一页
33
34
35
36
37
38
39
40
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他