E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《动手学深度学习》自学之路
《
动手学深度学习
(PyTorch版)》笔记8.3
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter8RecurrentNeuralNetworks8.3LanguageModelsandtheDataset假设长度为TTT的文本序列中
南七澄江
·
2024-02-11 07:15
python
深度学习笔记
深度学习
pytorch
笔记
人工智能
python
《
动手学深度学习
(PyTorch版)》笔记8.4
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter8RecurrentNeuralNetworks8.4RecurrentNeuralNetworks对nnn元语法模型,单词xtx_tx
南七澄江
·
2024-02-11 07:15
深度学习笔记
python
深度学习
pytorch
笔记
算法
人工智能
python
《
动手学深度学习
(PyTorch版)》笔记8.1
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter8RecurrentNeuralNetworks8.1SequenceModels用xtx_txt表示在时间步(timestep)t∈Z
南七澄江
·
2024-02-10 18:28
python
深度学习笔记
深度学习
pytorch
笔记
算法
人工智能
python
《
动手学深度学习
(PyTorch版)》笔记8.2
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter8RecurrentNeuralNetworks8.2TextPreprocessing文本的预处理步骤通常包括:将文本作为字符串加载到
南七澄江
·
2024-02-10 18:25
深度学习笔记
python
深度学习
pytorch
笔记
算法
人工智能
python
零基础转行自学java,拿到12k工资,来看看我的心得!
我的
自学之路
大学时期临近毕业,幡然醒悟,好好读书学习一门技术是有多么的重要。毕业季找工作,苦于学习期间没有好好学习,手里没有一门过硬的技术。
代码敲到深夜
·
2024-02-10 13:08
《
动手学深度学习
(PyTorch版)》笔记7.6
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter7ModernConvolutionalNeuralNetworks7.6ResidualNetworks(ResNet)随着我们设计越
南七澄江
·
2024-02-09 15:48
深度学习笔记
python
深度学习
pytorch
笔记
算法
人工智能
python
《
动手学深度学习
(PyTorch版)》笔记7.7
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter7ModernConvolutionalNeuralNetworks7.7DenselyConnectedNetworks(DenseN
南七澄江
·
2024-02-09 15:16
python
深度学习笔记
深度学习
pytorch
笔记
算法
人工智能
python
李沐《
动手学深度学习
》注意力机制
系列文章李沐《
动手学深度学习
》预备知识张量操作及数据处理李沐《
动手学深度学习
》预备知识线性代数及微积分李沐《
动手学深度学习
》线性神经网络线性回归李沐《
动手学深度学习
》线性神经网络softmax回归李沐《
丁希希哇
·
2024-02-07 16:27
李沐《动手学深度学习》学习笔记
深度学习
人工智能
算法
pytorch
动手学深度学习
-02打卡
过拟合、欠拟合及其解决方案1.过拟合、欠拟合的概念2.权重衰减3.丢弃法模型选择、过拟合和欠拟合训练误差和泛化误差训练误差:模型在训练数据集上表现出的误差。泛化误差:模型在任意一个测试数据样本上表现出的误差的期望。模型选择验证数据集除训练集和测试集之外的数据。目的是为了从训练误差估计泛化误差。k折交叉验证把原始训练数据集分割成k个不重合的子数据集,然后做k次模型训练和验证。每一次我们使用一个子数据
一技破万法
·
2024-02-07 09:06
《
动手学深度学习
(PyTorch版)》笔记7.4
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter7ModernConvolutionalNeuralNetworks7.4NetworkswithParallelConnections
南七澄江
·
2024-02-06 18:23
深度学习笔记
python
深度学习
pytorch
笔记
人工智能
python
算法
《
动手学深度学习
(PyTorch版)》笔记7.5
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter7ModernConvolutionalNeuralNetworks7.5BatchNormalization批量规范化应用于单个可选层
南七澄江
·
2024-02-06 17:51
python
深度学习笔记
深度学习
pytorch
笔记
人工智能
python
《
动手学深度学习
(PyTorch版)》笔记7.3
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter7ModernConvolutionalNeuralNetworks7.3NetworkinNetworks:NiNNiN的想法是在每个
南七澄江
·
2024-02-06 17:50
python
深度学习笔记
深度学习
pytorch
笔记
算法
人工智能
python
李沫
动手学深度学习
之2.1
本博文复现李沫
动手学深度学习
,网页链接在此,(第一版)【建议实操之前先通读一遍2.1章节的文档与本教程的文字说明】2.1.获取和运行本书的代码(完成)一些过程总结:(windows)(GPU)1、本人安装的是
一卒2018
·
2024-02-06 07:33
李沫动手学深度学习
深度学习
自然语言处理中的深度学习
教材选用《
动手学深度学习
》,李沐等著;词嵌⼊(word2vec)⾃然语⾔是⼀套⽤来表达含义的复杂系统。把词映射为实数域向量的技术也叫词嵌⼊(wordembedding)。
qiufeng1ye
·
2024-02-06 01:37
动手学深度学习
-13 循环神经网络进阶
循环神经网络进阶GRURNN存在的问题:梯度较容易出现衰减或爆炸(BPTT)⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系•重置⻔有助于捕捉时间序列⾥短期的依赖关系;•更新⻔有助于捕捉时间序列⾥⻓期的依赖关系。载入数据集importosos.listdir('/home/kesci/input')#['d2lzh1981','houseprices2807','jaychou_lyric
Xavier学长
·
2024-02-06 00:52
深度学习
1-3
动手学深度学习
v2-线性回归的从零开始实现-笔记
手动创建训练数据集根据带有噪声的线性模型构造一个人造数据集。我们使用线性模型参数w=[2,−3.4]T\pmb{w}=[2,-3.4]^{T}w=[2,−3.4]T、b=4.2b=4.2b=4.2和噪声项ϵ\epsilonϵ生成数据集及其标签:y=Xw+b+ϵ\pmb{y}=\pmb{Xw}+b+\epsilony=Xw+b+ϵ%matplotlibinline#在plot的时候,默认嵌入到not
Alkali!
·
2024-02-05 13:57
深度学习/机器学习入门
深度学习
线性回归
笔记
《
动手学深度学习
(PyTorch版)》笔记7.2
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter7ModernConvolutionalNeuralNetworks7.2NetworkUsingBlocks:VGGimportmat
南七澄江
·
2024-02-05 08:20
python
深度学习笔记
深度学习
pytorch
笔记
算法
人工智能
python
《
动手学深度学习
(PyTorch版)》笔记7.1
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter7ModernConvolutionalNeuralNetworks7.1DeepConvolutionalNeuralNetwork:
南七澄江
·
2024-02-05 08:45
python
深度学习笔记
pytorch
笔记
算法
深度学习
人工智能
python
动手学深度学习
v2-基础优化方法-笔记
最常见的算法——梯度下降当一个模型没有显示解的时候,该怎么办呢?首先挑选一个参数的随机初始值,可以随便在什么地方都没关系,然后记为w0\pmb{w_{0}}w0在接下来的时刻里面,我们不断的去更新w0\pmb{w_{0}}w0,使得它接近我们的最优解具体来说:挑选一个初始值w0\pmb{w_{0}}w0重复迭代参数t=1,2,3t=1,2,3t=1,2,3wt=wt−1−η∂ℓ∂wt−1\pmb{
Alkali!
·
2024-02-04 19:07
深度学习/机器学习入门
深度学习
基础优化算法
梯度下降
动手学深度学习
v2-线性回归-笔记
简化核心模型假设1:影响房价的关键因素是卧室个数,卫生间个数和居住面积,记为x1x_{1}x1,x2x_{2}x2,x3x_{3}x3假设2:成交价是关键因素的加权和y=w1x1+w2x2+w3x3+by=w_{1}x_{1}+w_{2}x_{2}+w_{3}x_{3}+by=w1x1+w2x2+w3x3+b权重和偏差的实际值在后面决定线性一般模型给定nnn维输入x=[x1,x2,...,xn]T
Alkali!
·
2024-02-04 19:35
深度学习/机器学习入门
深度学习
线性回归
[
动手学深度学习
-PyTorch版]-5.11卷积神经网络-残差网络(ResNet)
5.11残差网络(ResNet)让我们先思考一个问题:对神经网络模型添加新的层,充分训练后的模型是否只可能更有效地降低训练误差?理论上,原模型解的空间只是新模型解的空间的子空间。也就是说,如果我们能将新添加的层训练成恒等映射f(x)=x,新模型和原模型将同样有效。由于新模型可能得出更优的解来拟合训练数据集,因此添加层似乎更容易降低训练误差。然而在实践中,添加过多的层后训练误差往往不降反升。即使利用
蒸饺与白茶
·
2024-02-04 15:45
李沐《
动手学深度学习
》循环神经网络 经典网络模型
系列文章李沐《
动手学深度学习
》预备知识张量操作及数据处理李沐《
动手学深度学习
》预备知识线性代数及微积分李沐《
动手学深度学习
》线性神经网络线性回归李沐《
动手学深度学习
》线性神经网络softmax回归李沐《
丁希希哇
·
2024-02-04 14:43
李沐《动手学深度学习》学习笔记
深度学习
人工智能
pytorch
神经网络
李沐《
动手学深度学习
》卷积神经网络 经典网络模型
系列文章李沐《
动手学深度学习
》预备知识张量操作及数据处理李沐《
动手学深度学习
》预备知识线性代数及微积分李沐《
动手学深度学习
》线性神经网络线性回归李沐《
动手学深度学习
》线性神经网络softmax回归李沐《
丁希希哇
·
2024-02-04 14:42
李沐《动手学深度学习》学习笔记
深度学习
cnn
神经网络
算法
pytorch
动手学深度学习
(二)——正则化(从零开始)
文章作者:Tyan博客:noahsnail.com|CSDN|注:本文为李沐大神的《
动手学深度学习
》的课程笔记!
SnailTyan
·
2024-02-04 14:13
《
动手学深度学习
(PyTorch版)》笔记6.3
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter6ConvolutionalNeuralNetwork(CNN)6.3LeNetLeNet模型中每个卷积块中的基本单元是一个卷积层、一个
南七澄江
·
2024-02-03 13:31
python
深度学习笔记
深度学习
pytorch
笔记
人工智能
python
算法
《
动手学深度学习
(PyTorch版)》笔记6.1
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter6ConvolutionalNeuralNetwork(CNN)6.1BasicConcepts卷积神经网络将空间不变性(spatial
南七澄江
·
2024-02-03 13:57
深度学习笔记
python
深度学习
pytorch
笔记
算法
人工智能
python
《
动手学深度学习
(PyTorch版)》笔记6.2
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,同时对于书上部分章节也做了整合。Chapter6ConvolutionalNeuralNetwork(CNN)6.2ImageConvolutionOperation6.2.1Con
南七澄江
·
2024-02-03 13:57
深度学习笔记
python
深度学习
pytorch
笔记
开发语言
人工智能
python
算法
pytorch-
动手学深度学习
目录2.预备知识2.1数据操作torch.arange()x.shapex.numel()x.reshape(m,n)torch.zeros((2,3,4))torch.ones((2,3,4))torch.randn(3,4)torch.tensor([[2,1,4,3],[1,2,3,4],[4,3,2,1]])x+y,x-y,x*y,x/y,x**y,x==ytorch.exp(x)torc
比三毛多一根头发
·
2024-02-03 07:25
pytorch
学习
人工智能
Python
自学之路
-内置函数说明及实例(三)
1.filter(function,iterable)filter函数用于过滤序列。过滤的方式则是采用传入的函数,去循环序列的元素调用,如果函数计算的结果为True则保留元素,否则将舍弃该元素。当function参数传入None时,序列中的元素值如果为False,也会自动舍弃。2.float([x])函数功能将一个数值或者字符转换成浮点型数值。不提供参数的时候,返回0.0。字符串必须能正确转换成浮
Bug生活2048
·
2024-02-02 18:19
我的Python
自学之路
有什么不一样?
这个社会,竞争太TMD激烈了。你能做好,但能做好的人太多了。做好可以崭露头角,做到极致才是凤毛麟角。什么是做事极致?规定时间和能力范围内做到最好,就是极致。但这个定义貌似没什么实际意义,听上去很美,但没有现实指导意义。这个不可再优化不是绝对的,而是相对的,是在规定时间、能力范围、资源结构内,你做到了不可再优化。每次当你做完一件事,准备收工时,多问自己一句:我真的没办法做得更好一点了么?哪怕一点点?
不秃头的程序猿
·
2024-01-31 15:19
Accumulator类(李沐
动手学深度学习
)
classAccumulator:def__init__(self,n):self.data=[0.0]*ndefadd(self,*args):self.data=[a+float(b)fora,binzip(self.data,args)]defreset(self):self.data=[0.0]*len(self.data)def__getitem__(self,idx):returnse
代码猪猪傻瓜coding
·
2024-01-31 02:57
python
开发语言
《
动手学深度学习
(PyTorch版)》笔记5
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过,对于书上部分章节也做了整合。Chapter5DeepLearningComputation5.1LayersandBlocksimporttorchfromtorchimportnn
南七澄江
·
2024-01-30 06:10
python
深度学习笔记
深度学习
pytorch
笔记
python
人工智能
动手学深度学习
(一)深度学习介绍1
目录一、引言1.日常生活中的机器学习:2.机器学习中的关键组件:2.1数据:2.2模型:2.3目标函数:2.4优化算法:3.各种机器学习问题:3.1监督学习:3.1.1回归:3.1.2分类:3.1.3标记问题:3.1.4搜索:3.1.5推荐系统:3.1.6序列学习:3.2无监督学习:3.3与环境互动:3.4强化学习:一、引言时至今日,人们常用的计算机程序几乎都是软件开发人员从零编写的。比如,现在开
Shining0596
·
2024-01-30 02:32
学习
人工智能
深度学习
深度学习
人工智能
学习
其他
动手学深度学习
(一)深度学习介绍2
目录二、起源三、深度学习的成功案例:四、特点:五、小结:二、起源为了解决各种各样的机器学习问题,深度学习提供了强大的工具。虽然许多深度学习方法都是最近才有重大突破,但使用数据和神经网络编程的核心思想已经研究了几个世纪。事实上,人类长期以来就有分析数据和预测未来结果的愿望,而自然科学大部分都植根于此。例如,伯努利分布是以雅各布•伯努利(1654-1705)命名的。而高斯分布是由卡尔•弗里德里希•高斯
Shining0596
·
2024-01-30 02:00
深度学习
人工智能
学习
深度学习
人工智能
学习
其他
学习笔记-李沐
动手学深度学习
(五)(14-15,数值稳定性、模型初始化和激活函数、Kaggle房价预测)
总结14-数值稳定性(梯度爆炸、梯度消失)尤其是对于深度神经网络(即神经网络层数很多),最终的梯度就是每层进行累乘理论t:为第t层y:不是之前的预测值,而是包括了损失函数L所有的h都是向量(向量关于向量的导数是矩阵)(博客):①MLP:多层感知机。②对角矩阵(diagonalmatrix)是一个主对角线之外的元素皆为0的矩阵,常写为diag(a1,a2,…,an)。③diag*W把diag和W分开
kgbkqLjm
·
2024-01-29 05:17
李沐动手学深度学习
学习
笔记
深度学习
《
动手学深度学习
(PyTorch版)》笔记4.9
Chapter4MultilayerPerceptron4.9EnvironmentandDistributionShift4.9.1TypesofDistributionShift在一个经典的情景中,假设训练数据是从某个分布pS(x,y)p_S(\mathbf{x},y)pS(x,y)中采样的,但是测试数据将包含从不同分布pT(x,y)p_T(\mathbf{x},y)pT(x,y)中抽取的未标
南七澄江
·
2024-01-28 18:44
python
深度学习笔记
深度学习
pytorch
笔记
python
人工智能
《
动手学深度学习
(PyTorch版)》笔记4.8
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过。Chapter4MultilayerPerceptron4.8NumericalStabilityandModelInitialization4.8.1GradientVanishi
南七澄江
·
2024-01-28 08:01
python
深度学习笔记
深度学习
pytorch
笔记
算法
python
人工智能
《
动手学深度学习
(PyTorch版)》笔记4.6
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过。Chapter4MultilayerPerceptron4.6DropoutRegularization4.6.1ReexamineOverfitting当面对更多的特征而样本不足时
南七澄江
·
2024-01-28 08:00
深度学习笔记
python
深度学习
pytorch
笔记
算法
python
人工智能
《
动手学深度学习
(PyTorch版)》笔记4.7
Chapter4MultilayerPerceptron4.7Forward/BackwardPropagationandComputationalGraphs本节将通过一些基本的数学和计算图,深入探讨反向传播的细节。首先,我们将重点放在带权重衰减(L2L_2L2正则化)的单隐藏层多层感知机上。4.7.1ForwardPropagation前向传播(forwardpropagation或forwa
南七澄江
·
2024-01-28 08:00
python
深度学习笔记
深度学习
pytorch
笔记
人工智能
python
EXCEL常用函数公式和VBA汇总
EXCEL
自学之路
第一节1.test01excel生成目录2.test02打开全部隐藏工作表3.test03多个工作表汇总到一个工作表4.test04隔m列(行)插入n列空白列(行)5.test05合并工作簿
用余生去守护
·
2024-01-27 21:28
VBA
EXCEL
excel
vba
大数据
《
动手学深度学习
(PyTorch版)》笔记4.4
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过。Chapter4MultilayerPerceptron4.4ModelSelection作为机器学习科学家,我们的目标是发现模式(pattern)。但是,我们如何才能确定模型是真正
南七澄江
·
2024-01-27 06:18
python
笔记
深度学习
pytorch
笔记
python
人工智能
《
动手学深度学习
(PyTorch版)》笔记4.1
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过。Chapter4MultilayerPerceptron4.1BasicConcepts4.1.1HiddenLayer我们在第三章中描述了仿射变换,它是一种带有偏置项的线性变换。如
南七澄江
·
2024-01-27 06:48
python
笔记
深度学习
pytorch
笔记
人工智能
python
开发语言
《
动手学深度学习
(PyTorch版)》笔记4.2 4.3
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过。Chapter4MultilayerPerceptron4.2ImplementationsofMultilayer-perceptronfromScratchimportmatpl
南七澄江
·
2024-01-27 06:48
python
笔记
深度学习
pytorch
笔记
算法
python
人工智能
《
动手学深度学习
(PyTorch版)》笔记4.5
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过。Chapter4MultilayerPerceptron4.5WeightDecay前一节我们描述了过拟合的问题,本节我们将介绍一些正则化模型的技术。我们总是可以通过去收集更多的训练
南七澄江
·
2024-01-27 06:03
笔记
python
深度学习
pytorch
笔记
人工智能
python
《
动手学深度学习
(PyTorch版)》笔记3.3
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过。Chapter3LinearNeuralNetworks3.3ConciseImplementationsofLinearRegressionimportnumpyasnpimpor
南七澄江
·
2024-01-26 18:34
python
笔记
深度学习
pytorch
笔记
python
开发语言
算法
人工智能
学习笔记-李沐
动手学深度学习
(二)(08-09、线性回归、优化算法、梯度下降、Softmax回归、损失函数、图片分类)
总结以_结尾的方法,好像是原位替换(即原地修改,就地修改变量)如fill_()感恩的心:(沐神的直播环境)08-线性回归+基础优化算法引言(如何在美国买房)根据现在行情预测房价线性回归(简化模型)、线性模型、神经网络b为偏差扩展到一般化线性模型每个箭头代表一个权重当层单层神经网络原因:不看输出层,将权重层和input放一起带权重的层只有一层【书中】衡量预估质量1/2是为了求导时把2消去线性回归(求
kgbkqLjm
·
2024-01-26 17:59
李沐动手学深度学习
算法
回归
学习
学习笔记-李沐
动手学深度学习
(一)(01-07,概述、数据操作、tensor操作、数学基础、自动求导(前向计算、反向传播))
个人随笔第三列是jupyter记事本官方github上啥都有(代码、jupyter记事本、胶片)https://github.com/d2l-ai多体会【梯度指向的是值变化最大的方向】符号维度(弹幕说)2,3,4越后面维度越低4就是一维有4个标量00-预告01-课程安排02-深度学习介绍【语言是一个符号】【深度学习是机器学习的一种】最热的方向:深度学习和CV、NLP结合【AI地图】①如下图所示,X
kgbkqLjm
·
2024-01-26 17:28
李沐动手学深度学习
学习
笔记
深度学习
学习笔记-李沐
动手学深度学习
(三)(10-11,隐藏层、多层感知机、激活函数、模型超参数选择、欠过拟合)
总结多体会(宏观、哲学)【深度学习的核心】首先是要模型足够大,在此基础上通过各种手段来控制模型容量,使得最终得到较小的泛化误差【一般深度学习特指神经网络这一块】【学习的核心是要学习本质上不变的那些核心思想,如欠过拟合、数据集怎么弄、训练误差泛化误差等等,因为很可能过几年有新的语言、新的技术出现。整个工科本质上都差不多,从某个方向深入学习到精髓,很容易向其他工科迁移】世界上有三种东西:艺术:我做了一
kgbkqLjm
·
2024-01-26 17:28
李沐动手学深度学习
学习
笔记
深度学习
学习笔记-李沐
动手学深度学习
(四)(12-13,权重衰退、L2正则化、Dropout)
总结【trick】过拟合及正则化项参数的理解实际数据都有噪音,一般有噪音后,模型实际学习到的权重w就会比理论上w的最优解(即没有噪音时)大。(QA中讲的)【好问题】(1)不使用正则化(真正学习到的w=13理论上的w=0.01,相差的还是很大)(2)正则化权重lambd=3:明显已经减轻了过拟合的程度(但学到的w是0.3还是比实际的w=0.01偏大的多)因为实际上数据中有很多噪音,模型在学习时也会受
kgbkqLjm
·
2024-01-26 17:55
李沐动手学深度学习
学习
笔记
深度学习
《
动手学深度学习
(PyTorch版)》笔记3.6
注:书中对代码的讲解并不详细,本文对很多细节做了详细注释。另外,书上的源代码是在JupyterNotebook上运行的,较为分散,本文将代码集中起来,并加以完善,全部用vscode在python3.9.18下测试通过。Chapter3LinearNeuralNetworks3.6ImplementationsofSoftmaxRegressionfromScratchimporttorchimpo
南七澄江
·
2024-01-26 09:52
python
笔记
深度学习
pytorch
笔记
python
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他