E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《动手学深度学习
深度学习(
动手学深度学习
pytorch)1
目录预备知识数据操作数据预处理线性代数微积分预备知识数据操作1.行对应样本,列对应属性2.张量(n维数组),Numpy包中的ndarray。用torch的arange,下面是生成行向量,从0开始的前十二个整数。shape访问每个轴长度(形状),size访问元素个数,reshape改变形状【可以写-1让它自动计算,如x.reshape(-1,4)】importtorchx=torch.arange(
智能打工人
·
2024-01-14 07:26
深度学习
深度学习
pytorch
python
《
动手学深度学习
》组队学习——Task1-2打卡
一、环境安装配置在本次学习前已在电脑安装过Anaconda,由于条件所限暂不考虑使用GPU的情况,根据李沐老师书上的安装步骤进行尝试,并作如下记录。1.在Navigator界面,尝试创建d2l环境,并在base和d2l环境下安装了pytorch(咱也不知道这步是不是多余)。2.根据书上的安装步骤进行torch和d2l包的安装,期间出现一些因网络连接错误造成的失败情况,重新安装后得到解决。3.使用书
Jessy佳音
·
2024-01-14 07:55
深度学习
学习
python
[
动手学深度学习
]预备知识学习笔记
动手学深度学习
-李沐:04数据操作+数据预处理【
动手学深度学习
v2】_哔哩哔哩_bilibili
动手学深度学习
-李沐(pdf):2.预备知识—
动手学深度学习
2.0.0documentation(d2l.ai
夏莉莉iy
·
2024-01-14 07:53
深度学习笔记
学习
笔记
人工智能
深度学习
cnn
李沐 《
动手学深度学习
》预备知识 线性代数与微积分
系列文章目录李沐《
动手学深度学习
》预备知识张量操作与数据处理文章目录系列文章目录一、线性代数(一)标量、向量、矩阵、张量(二)张量运算的基本性质(三)降维(四)点积(五)矩阵向量积、矩阵乘法(六)范数二
丁希希哇
·
2024-01-14 07:52
李沐《动手学深度学习》学习笔记
深度学习
线性代数
人工智能
pytorch
李沐《
动手学深度学习
》线性神经网络 线性回归
系列文章李沐《
动手学深度学习
》预备知识张量操作及数据处理李沐《
动手学深度学习
》预备知识线性代数及微积分目录系列文章一、线性回归(一)线性回归的基本元素(二)随机梯度下降(三)矢量化加速(实例化说明)(四
丁希希哇
·
2024-01-14 06:01
李沐《动手学深度学习》学习笔记
深度学习
神经网络
线性回归
pytorch
《
动手学深度学习
》学习笔记 第9章 现代循环神经网络
本系列为《
动手学深度学习
》学习笔记书籍链接:
动手学深度学习
笔记是从第四章开始,前面三章为基础知识,有需要的可以自己去看看关于本系列笔记:书里为了让读者更好的理解,有大篇幅的描述性的文字,内容很多,笔记只保留主要内容
北方骑马的萝卜
·
2024-01-12 15:02
《手动深度学习》笔记
深度学习
学习
笔记
《
动手学深度学习
》学习笔记 第8章 循环神经网络
本系列为《
动手学深度学习
》学习笔记书籍链接:
动手学深度学习
笔记是从第四章开始,前面三章为基础知识,有需要的可以自己去看看关于本系列笔记:书里为了让读者更好的理解,有大篇幅的描述性的文字,内容很多,笔记只保留主要内容
北方骑马的萝卜
·
2024-01-12 15:54
《手动深度学习》笔记
深度学习
学习
笔记
【深度学习】
动手学深度学习
(PyTorch版)李沐 2.4.3 梯度【公式推导】
2.4.3.梯度 我们可以连接一个多元函数对其所有变量的偏导数,以得到该函数的梯度(gradient)向量。具体而言,设函数f:Rn→Rf:\mathbb{R}^{n}\to\mathbb{R}f:Rn→R的输入是一个nnn维向量x⃗=[x1x2⋅⋅⋅xn]\vecx=\begin{bmatrix}x_1\\x_2\\···\\x_n\end{bmatrix}x=x1x2⋅⋅⋅xn,输出是一个标
ninding
·
2024-01-11 15:43
深度学习
人工智能
Pytorch1 使用tensor和autograd模块实现线性模型
(1)基础方法声明:本文章是根据《
动手学深度学习
pytorch版》进行学习,如有侵犯请告知,必删除"""简单的线性回归实现本节将介绍如何只利用tensor和autograd实现一个线性回归的训练"""获取数据
小菜鸡变形记
·
2024-01-11 14:52
深度学习
深度学习
动手学深度学习
-卷积神经网络
卷积神经网络在前面的章节中,我们遇到过图像数据。这种数据的每个样本都由一个二维像素网格组成,每个像素可能是一个或者多个数值,取决于是黑白还是彩色图像。到目前为止,我们处理这类结构丰富的数据方式还不够有效。我们仅仅通过将数据展平成一维向量而忽略每个图象的空间结构信息,再将数据送入一个全连接的多层感知机中。因为这些网络特征元素的顺序是不变的,因此最优的结果是利用先验知识,即利用相近像素之间的互关联性,
oceancoco
·
2024-01-11 08:23
深度学习
cnn
人工智能
[
动手学深度学习
-PyTorch版]-3.13深度学习基础-丢弃法
3.13丢弃法除了前一节介绍的权重衰减以外,深度学习模型常常使用丢弃法(dropout)[1]来应对过拟合问题。丢弃法有一些不同的变体。本节中提到的丢弃法特指倒置丢弃法(inverteddropout)。3.13.1方法image.pngimage.pngimage.png图3.5隐藏层使用了丢弃法的多层感知机3.13.2从零开始实现根据丢弃法的定义,我们可以很容易地实现它。下面的dropout函
蒸饺与白茶
·
2024-01-09 21:56
动手学深度学习
4 线性代数
动手学深度学习
4线性代数1.线性代数--数学意义2.线性代数的实现3.按特定轴求和4.线性代数QA1.线性代数–数学意义视频:https://www.bilibili.com/video/BV1eK4y1U7Qy
陌上阳光
·
2024-01-09 07:10
动手学深度学习
深度学习
线性代数
人工智能
pytorch
动手学深度学习
—深度学习计算
深度学习计算1.层和块之前首次介绍神经网络时,关注的是具有单一输出的线性模型。在这里,整个模型只有一个输出。注意,单个神经网络(1)接受一些输入;(2)生成一些相应的标量输出;(3)具有一组相关参数,更新这些参数可以优化某目标函数。然后,当考虑具有多个输出的网路时,我们利用矢量化算法来描述整层神经元。像单个神经元一样,层(1)接受一组输入,层(2)生成相应的输出,层(3)由一组可调整参数描述。当我
oceancoco
·
2024-01-08 20:26
深度学习
人工智能
softmax回归+损失函数
本文章借鉴李沐老师动手深度学习,只作为个人笔记.3.4.softmax回归—
动手学深度学习
2.0.0documentation(d2l.ai)文章目录前言一、回归vs分类二、分类问题独热编码(One-HotEncoding
笔写落去
·
2024-01-08 13:42
深度学习
人工智能
深度学习
算法
李沐-《
动手学深度学习
-02-目标检测
一、目标检测算法1.R-CNNa.算法步骤使用启发式搜索算法来选择锚框(选出多个锚框大小可能不一,需要使用Rolpooling)使用预训练好的模型(去掉分类层)对每个锚框进行特征抽取(如VGG,AlexNet…)训练一个SVM来对每个类进行分类训练一个线性回归模型来预测边缘框偏移b.RolPooling每个锚框的大小是不一样的大的,所以需要对锚框进行处理2.FastR-CNNR-CNN对于每个锚框
叮咚Zz
·
2024-01-08 08:40
深度学习
目标检测
人工智能
64 注意力机制 | 65 注意力分数【
动手学深度学习
v2】
文章目录64注意力机制总结65注意力分数【
动手学深度学习
v2】总结代码加性注意力,还是看书吧有解释可视化这个图,看哪一帧比较重要?!
联系丝信
·
2024-01-08 06:51
【杂学】
深度学习
人工智能
权重初始化和激活函数小结
本文章参考李沐老师的动手深度学习,作为个人的笔记.4.8.数值稳定性和模型初始化—
动手学深度学习
2.0.0documentation(d2l.ai)文章目录前言首先我们理想的神经网络是什么样子的?
笔写落去
·
2024-01-07 07:55
深度学习
深度学习
机器学习
算法
《
动手学深度学习
》学习笔记 第5章 深度学习计算
本系列为《
动手学深度学习
》学习笔记书籍链接:
动手学深度学习
笔记是从第四章开始,前面三章为基础知道,有需要的可以自己去看看关于本系列笔记:书里为了让读者更好的理解,有大篇幅的描述性的文字,内容很多,笔记只保留主要内容
北方骑马的萝卜
·
2024-01-07 03:13
《手动深度学习》笔记
深度学习
学习
笔记
李沐-《
动手学深度学习
》-- 01-预备知识
一、线性代数知识1.矩阵计算a.矩阵求导当y和x分别为标量和向量时候,进行求导得到的矩阵形状,矩阵求导就是矩阵A中的每一个元素对矩阵B中的每一个元素求导梯度指向的是值变化最大的方向分子布局和分母布局:b.常识axis=1代表行axis=0代表列nn.model.eval()将模型设置为评估模式,只输入数据然后得出结果而不会做反向传播xxx_下划线在后面的函数代表替换函数,不是返回一个值,而是直接替
叮咚Zz
·
2024-01-07 00:17
深度学习
深度学习
人工智能
机器学习
神经网络
pytorch
mat1 and mat2 shapes cannot be multiplied (10x1 and 2x1)
动手学深度学习
v2的线性回归的简洁实现中训练过程中出现了以下的错误mat1andmat2shapescannotbemultiplied(10x1and2x1)问题出在net中的Linear的x和w的shape
m0_66467467
·
2024-01-05 21:02
深度学习
动手学深度学习
(八) 优化算法进阶
11.6Momentum在Section11.4中,我们提到,目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepestdescent)。在每次迭代中,梯度下降根据自变量当前位置,沿着当前位置的梯度更新自变量。然而,如果自变量的迭代方向仅仅取决于自变量当前位置,这可能会带来一些问题。对于noisygradient,我们需要谨慎的选取学习率和
致Great
·
2024-01-05 00:19
动手学深度学习
之卷积神经网络之池化层
池化层卷积层对位置太敏感了,可能一点点变化就会导致输出的变化,这时候就需要池化层了,池化层的主要作用就是缓解卷积层对位置的敏感性二维最大池化这里有一个窗口,来滑动,每次我们将窗口中最大的值给拿出来还是上面的例子,这里的最大池化窗口为2*2填充、步幅和多个通道这里基本与卷积层类似,与卷积层不同的是,池化层不需要学习任何的参数平均池化层与最大池化层不同的地方在于将最大操作子变为平均,最大池化层是将每个
baidu_huihui
·
2024-01-04 12:35
CNN
卷积神经网络
池化层
《
动手学深度学习
》学习笔记 第7章 现代卷积神经网络
本系列为《
动手学深度学习
》学习笔记书籍链接:
动手学深度学习
笔记是从第四章开始,前面三章为基础知识,有需要的可以自己去看看关于本系列笔记:书里为了让读者更好的理解,有大篇幅的描述性的文字,内容很多,笔记只保留主要内容
北方骑马的萝卜
·
2024-01-03 20:58
《手动深度学习》笔记
深度学习
学习
笔记
《
动手学深度学习
》学习笔记 第4章 多层感知机
本系列为《
动手学深度学习
》学习笔记书籍链接:
动手学深度学习
笔记是从第四章开始,前面三章为基础知道,有需要的可以自己去看看关于本系列笔记:书里为了让读者更好的理解,有大篇幅的描述性的文字,内容很多,笔记只保留主要内容
北方骑马的萝卜
·
2024-01-03 20:58
《手动深度学习》笔记
深度学习
学习
笔记
《
动手学深度学习
》学习笔记 第6章 卷积神经网络
本系列为《
动手学深度学习
》学习笔记书籍链接:
动手学深度学习
笔记是从第四章开始,前面三章为基础知道,有需要的可以自己去看看关于本系列笔记:书里为了让读者更好的理解,有大篇幅的描述性的文字,内容很多,笔记只保留主要内容
北方骑马的萝卜
·
2024-01-03 20:24
《手动深度学习》笔记
深度学习
学习
笔记
[
动手学深度学习
-PyTorch版]-7.2优化算法-梯度下降和随机梯度下降
7.2梯度下降和随机梯度下降在本节中,我们将介绍梯度下降(gradientdescent)的工作原理。虽然梯度下降在深度学习中很少被直接使用,但理解梯度的意义以及沿着梯度反方向更新自变量可能降低目标函数值的原因是学习后续优化算法的基础。随后,我们将引出随机梯度下降(stochasticgradientdescent)。7.2.1一维梯度下降image.png%matplotlibinlineimp
蒸饺与白茶
·
2024-01-03 15:47
《
动手学深度学习
》
阅读全文-->《
动手学深度学习
》内容简介《
动手学深度学习
》旨在向读者交付有关深度学习的交互式学习体验。书中不仅阐述深度学习的算法原理,还演示它们的实现和运行。
leonbamboo
·
2024-01-03 10:36
深度学习
人工智能
批量归一化(Batch normalization)
动手学深度学习
笔记-批量归一化Batchnormalization什么是批量归一化?为什么需要批量归一化?批量归一化如何起作用?总结与注意事项什么是批量归一化?
安静的钢琴
·
2023-12-26 11:28
batch
深度学习
机器学习
python
动手学深度学习
(五) 梯度消失、梯度爆炸
梯度消失、梯度爆炸以及Kaggle房价预测梯度消失和梯度爆炸考虑到环境因素的其他问题Kaggle房价预测梯度消失和梯度爆炸深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。当神经网络的层数较多时,模型的数值稳定性容易变差。假设一个层数为的多层感知机的第层的权重参数为,输出层的权重参数为。为了便于讨论,不考虑偏差参数,且设所有隐藏层的激活函数为恒等映射(ide
致Great
·
2023-12-25 20:17
[
动手学深度学习
-PyTorch版]-4.5深度学习计算-读取和存储
4.5读取和存储到目前为止,我们介绍了如何处理数据以及如何构建、训练和测试深度学习模型。然而在实际中,我们有时需要把训练好的模型部署到很多不同的设备。在这种情况下,我们可以把内存中训练好的模型参数存储在硬盘上供后续读取使用。4.5.1读写Tensor我们可以直接使用save函数和load函数分别存储和读取Tensor。save使用Python的pickle实用程序将对象进行序列化,然后将序列化的对
蒸饺与白茶
·
2023-12-24 03:07
动手学深度学习
PyTorch-task1(线性回归;Softmax与分类模型;多层感知机)
elites/course/cZu18YmweLv10OeV部分PyTorch代码来自GitHub开源仓库:https://github.com/ShusenTang/Dive-into-DL-PyTorch《
动手学深度学习
weixin_43756073
·
2023-12-22 08:18
深度学习
pytorch
《机器学习实战》简介与中英文pdf、源码分享
1前言前几天,StrongerTang分享了《
动手学深度学习
》(点击即可阅读),受到了不少朋友的肯定。
StrongerTang
·
2023-12-21 06:43
【无标题】
动手学深度学习
-pytorch简记线性网络线性回归简单实现#importnumpyasnpimporttorchfromtorch.utilsimportdatafromd2limporttorchasd2limportmatplotlib.pyplotaspltimportpylab
会编程的道君
·
2023-12-20 15:56
代码实践
理论学习
实践操作
python
深度学习
【10大专题,2.8w字详解】:从张量开始到GPT的《
动手学深度学习
》要点笔记
《
动手学深度学习
PyTorch版》复习要点全记录专注于查漏补缺、巩固基础,这份笔记将带你深入理解深度学习的核心概念。通过一系列精心整理的小专题,逐步构建起你的AI知识框架。
hadiii
·
2023-12-20 11:11
gpt
深度学习
笔记
人工智能
transformer
动手学深度学习
1 导学
深度学习导学课课程基础信息整理00预告01课程安排02深度学习介绍QA课程基础信息整理课程安排:https://courses.d2l.ai/zh-v2/ppt代码视频等链接都在文档里有展现李沐老师课程所用电子书:https://zh-v2.d2l.ai/B站课程链接:https://space.bilibili.com/1567748478/channel/seriesdetail?sid=35
陌上阳光
·
2023-12-19 22:20
动手学深度学习
深度学习
人工智能
pytorch
动手学深度学习
2 安装环境
pytorch环境安装1.windows环境安装2.mac环境安装3.linux环境安装1.申请云服务器链接机器--Ubuntu2.环境配置4.不安装环境直接使用colabQA课程链接:https://www.bilibili.com/video/BV18p4y1h7Dr?p=1&vd_source=eb04c9a33e87ceba9c9a2e5f09752ef81.windows环境安装http
陌上阳光
·
2023-12-19 22:19
动手学深度学习
深度学习
人工智能
pytorch
动手学深度学习
笔记(二)
1.线性回归简化模型房价预测的模型可以理解为用一些能够表示房子特点的因素如卧室个数、卫生间个数、面积等nnn个属性组成的特征向量:x=[x1x2⋮xn]\mathbf{x}=\left[\begin{matrix}x_1\\x_2\\\vdots\\x_n\end{matrix}\right]x=⎣⎢⎢⎢⎡x1x2⋮xn⎦⎥⎥⎥⎤房价的预测是这些属性的加权和:y=w1x1+w2x2+⋯+wnxn+
上官永石
·
2023-12-19 18:31
动手学深度学习
人工智能
机器学习
深度学习
动手学深度学习
-d2l的plot使用
绘制函数y=x的3次方-x的-1次方在x=1处的切线x=np.arange(0,3,0.1)d2l.plot(x,[f(x),4*(x-1)],'x','f(x)',legend=['f(x)','Tangentline(x=1)'])绘制不同均值、不同方差的正态分布defnormal(x,mu,sigma):p=1/math.sqrt(2*math.pi*sigma**2)returnp*np.
heibut不相信眼泪
·
2023-12-19 08:17
深度学习
人工智能
动手学深度学习
-注意力机制
10.1注意力提示自主性注意力机制有意识的注意力机制。非自主性注意力机制无意识的注意力机制。小结:人类的注意力是有限的,有价值和稀缺的资源。受试者使用非自主性和自主性提示有选择的引导注意力,前者基于突出性,后者则依赖于意识。注意力机制与全连接层或者汇聚层的区别源于增加的自主提示。由于包含了自主性提示,注意力机制与全连接的层或汇聚层不同。注意力机制通过注意力汇聚使选择偏向于值(感官输入),其中包含查
jieHeEternity
·
2023-12-18 14:09
深度学习
人工智能
动手学深度学习
-自然语言处理:应用
自然语言处理中的应用主要有哪些?自然语言处理:应用情感分析及数据集情感分析研究人们在文本中的情感,这被认为是一个文本分类问题,它将可变长度的文本序列进行转换为固定长度的文本类别。经过预处理后,我们可以使用词表将IMDb评论数据集加载到数据迭代器中。情感分析:使用循环神经网络预训练的词向量可以表示文本序列中的各个词元。双向循环神经网络可以表示文本序列。例如通过连结初始和最终时间步的隐状态,可以使用全
jieHeEternity
·
2023-12-18 14:09
深度学习
深度学习
自然语言处理
人工智能
动手学深度学习
-自然语言处理-预训练
词嵌入模型将单词映射到实向量的技术称为词嵌入。为什么独热向量不能表达词之间的相似性?自监督的word2vec。word2vec将每个词映射到一个固定长度的向量,这些向量能更好的表达不同词之间的相似性和类比关系。word2vec分为两类,两类模型都是自监督模型。跳元模型(SKip-Gram)。连续词袋(CBOW)模型。小结词向量是用于表示单词意义的向量,也可以看作词的特征向量。将词映射到实向量的技术
jieHeEternity
·
2023-12-18 14:36
深度学习
深度学习
自然语言处理
人工智能
[
动手学深度学习
-PyTorch版]-4.4深度学习计算-自定义层
4.4自定义层深度学习的一个魅力在于神经网络中各式各样的层,例如全连接层和后面章节中将要介绍的卷积层、池化层与循环层。虽然PyTorch提供了大量常用的层,但有时候我们依然希望自定义层。本节将介绍如何使用Module来自定义层,从而可以被重复调用。4.4.1不含模型参数的自定义层我们先介绍如何定义一个不含模型参数的自定义层。事实上,这和4.1节(模型构造)中介绍的使用Module类构造模型类似。下
蒸饺与白茶
·
2023-12-17 09:04
【机器学习】044_Kaggle房价预测(机器学习模型实战)
参考自《
动手学深度学习
》中“Kaggle比赛实战:预测房价”一节一、数据准备首先从网站上下载要获取的房价数据。DATA_HUB是一个字典,用来将数据集名称的字符串和数据集相关的二元组一一对应。
Cyan.__
·
2023-12-17 09:05
机器学习
机器学习
深度学习
人工智能
python
SSD目标检测
SSD目标检测本次所使用的数据集是香蕉数据集,当然是参考https://zh.d2l.ai/chapter_computer-vision/ssd.html
动手学深度学习
这本书的首先是香蕉数据集的读取,
平平平安喔
·
2023-12-17 04:19
目标检测
人工智能
计算机视觉
【python】Debian安装miniconda、spyder、tushare
1.miniconda安装—
动手学深度学习
2.0.0documentation中有安装Miniconda的一些说明。
一尘之中
·
2023-12-16 22:33
python
编程
linux
python
开发语言
【
动手学深度学习
】(十二)现代卷积神经网络
文章目录一、深度卷积神经网络AlexNet1.理论知识2.代码二、使用块的网络VGG三、网络中的网络(NiN)1.理论2.代码四、含并行结的网络(GoogLeNet)2.代码五、批量归一化1.理论2.代码六、残差网络ResNet【相关总结】torch.nn.AdaptiveAvgPool2d()一、深度卷积神经网络AlexNet1.理论知识ImageNet(2010)图片自然物体的彩色图片手写数字
释怀°Believe
·
2023-12-16 14:28
#
动手学深度学习
深度学习
cnn
人工智能
【
动手学深度学习
】(十三)深度学习硬件
文章目录一、CPU和GPU二、更多的芯片1.DSP:数字信号处理2.可编程阵列(FPGA)3.AIASIC三、单机多卡并行一、CPU和GPU提升CPU利用率在计算a+b之前,需要准备数据主内存->L3->L2->L1->寄存器(数据只有进入寄存器才可以参与运算)提升空间和时间的内存本地性时间:重要数据使得保持它们在缓存里空间:按序读写数据使得可以预读取GPUCPUvsGPU提升GPU利用率并行使用
释怀°Believe
·
2023-12-16 14:58
#
动手学深度学习
深度学习
人工智能
【
动手学深度学习
】(十一)池化层+LeNet
文章目录一、池化层1.理论知识2.代码二、LeNet1.理论知识2.代码实现【相关总结】nn.MaxPool2d()卷积层对位置比较敏感一、池化层1.理论知识二维最大池化填充、步幅和多个通道池化层与卷积层类似,都具有填充和步幅没有可学习的参数在每个输入通道应用池化层以获得相应的输出通道输出通道数=输入通道数平均池化层最大池化层:每个窗口中最强的模式信号平均池化层:将最大池化层中的“最大”操作替换为
释怀°Believe
·
2023-12-16 14:28
#
动手学深度学习
深度学习
人工智能
【
动手学深度学习
】(十四)数据增广+微调
文章目录一、数据增强1.理论知识2.代码二、微调1.理论知识一、数据增强1.理论知识增加一个已有数据集,使得有更多的多样性在语言里面加入各种不同的背景噪音改变图片的颜色和形状使用增强数据训练翻转左右翻转上下翻转不总是可行切割从图片中切割一块,然后变形到固定形状随机高宽比随机大小随机位置颜色改变色调,饱和度,明亮度[总结]数据增广通过变形数据来获取多样性从而使得模型泛化性能更好常见图片增广包括翻转、
释怀°Believe
·
2023-12-16 14:49
#
动手学深度学习
深度学习
人工智能
注意力机制,Transformer相关详解
本文遵循《
动手学深度学习
pytorch版》的内容组织,从注意力机制开始讲到Transfomer,偏重关键知识理解并附带图解和公式,未加说明时,插图均来自于该书,文本内容较长(9414字),建议收藏慢慢复习
hadiii
·
2023-12-16 08:35
transformer
深度学习
人工智能
神经网络
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他