E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
动手学深度学习
动手学深度学习
——读取和存储
"""读写TENSOR"""#我们可以直接使用save函数和load函数分别存储和读取Tensor。#save函数使用Python的pickle实用程序将对象进行序列化,然后将序列化对象保存在disk,使用save可以保存各种对象,包括模型、张量和字典等。#load函数使用pickleunpickle工具将pickle的对象文件反序列化为内存。importtorchfrompyexpatimpor
橙子吖21
·
2022-03-01 07:26
动手学深度学习
深度学习
python
人工智能
pytorch
动手学深度学习
——自定义层
"""不含模型参数的自定义层"""#如何定义一个不含模型的自定义层:#下面的CenteredLayer类通过继承Module类自定义了一个将输入减掉均值后输出的层,并将层的计算定义在了forward函数里。#这个层里不含模型参数importtorchfromtorchimportnnclassCenteredLayer(nn.Module):def__init__(self,**kwargs):s
橙子吖21
·
2022-03-01 07:26
动手学深度学习
深度学习
pytorch
python
人工智能
动手学深度学习
——卷积层里的填充和步幅
1、填充填充(padding)是指在输⼊⾼和宽的两侧填充元素(通常是0元素)。给定(32x32)输入图像;应用5x5大小的卷积核,第一层得到输出大小28x28,第七层得到输出大小4x4;更大的卷积核可以更快的减少输出大小,形状从减少到。也就是行数和列数会较少。注:当想用一个大的卷积核又不想减少输出怎么办?就是进行填充,在输入的周围添加额外的行或者列。在很多情况下,我们会设置和来使输⼊和输出具有相同
橙子吖21
·
2022-03-01 07:26
动手学深度学习
深度学习
cnn
计算机视觉
动手学深度学习
(第五章 卷积神经网络)
5.1二维卷积层卷积神经网络(convolutionalneuralnetwork)是含有卷积层(convolutionallayer)的神经网络。本章中介绍的卷积神经网络均使用最常见的二维卷积层。它有高和宽两个空间维度,常用来处理图像数据。本节中,我们将介绍简单形式的二维卷积层的工作原理。5.1.1二维互相关运算二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二
4wes0me
·
2022-03-01 07:55
#
动手学深度学习
卷积神经网络
神经网络
pytorch
深度学习
动手学深度学习
之全连接卷积神经网络
全连接卷积神经网络(FCN)FCN是用深度神经网络来做语义分割的奠基性工作他用转置卷积层来替换CNN最后的全连接层,从而可以实现每个像素的预测代码实现%matplotlibinlineimporttorchimporttorchvisionfromtorchimportnnfromtorch.nnimportfunctionalasFfromd2limporttorchasd2l#使用在Image
哈哈哈捧场王
·
2022-03-01 07:23
机器学习&深度学习
神经网络
pytorch
深度学习
LSTM(长短期记忆网络)原理介绍
-CSDN博客_lstm原理LSTM这一篇就够了_yingqubaifumei的博客-CSDN博客LSTM原理及实现(一)_bill_b的博客-CSDN博客_lstm6.8.长短期记忆(LSTM)—《
动手学深度学习
GoAI
·
2022-03-01 07:52
深度学习
深度学习
RNN
神经网络
lstm
CRNN
动手学深度学习
(六、卷积神经网络)
动手学深度学习
(六、卷积神经网络)原文链接:
动手学深度学习
各种网络机构记录以及实验效果显示网络结构提出时间实验效果网络结构说明LeNet1998testacc输出通道defnin_block(in_channels
jiangchao98
·
2022-03-01 07:44
深度神经网络
神经网络
卷积神经网络
python
动手学深度学习
(四十一)——深度循环神经网络(Deep-RNN)
文章目录一、深度循环神经网络二、函数依赖关系三、简介实现3.1网络构建3.2训练与预测四、总结 本节非常简单,就是在RNN的基础上加了层的概念,毕竟之前讨论的RNN、GRU和LSTM我们都是在单层神经网络的基础上讨论的一、深度循环神经网络 到目前为止,我们只讨论了具有一个单向隐藏层的循环神经网络。其中,隐变量和观测值与具体的函数形式的交互方式是相当随意的。只要我们可以对不同的交互类型建模具有足
留小星
·
2022-03-01 07:44
动手学深度学习:pytorch
深度学习
rnn
神经网络
动手学深度学习
(二十九)——SSD目标检测算法理论到实践
文章目录一、SSD目标检测算法1.1采用多尺度特征图用于检测1.2采用卷积进行检测1.3设置先验框二、SSD目标检测算法实现(简易版本)2.1类别预测层2.2边界框预测层(Boundingbox)2.3连接多尺度的预测2.4高和宽减半块2.5基本网络块2.6完整的模型2.7模型训练2.8预测目标三、参考整理一、SSD目标检测算法SSD(单发多框检测)设计理念参考:这篇Blog讲得非常详细了,我也从
留小星
·
2022-03-01 07:43
动手学深度学习:pytorch
pytorch
SSD
动手学深度学习
目标检测
动手学深度学习
(四)——用numpy和torch实现单层神经网络对比
文章目录用numpy和torch实现单层神经网络对比1.使用numpy实现2.使用torch实现3.使用optim自动更新的代码用numpy和torch实现单层神经网络对比单层神经网络的基本原理请参考机器学习——神经网络(四):BP神经网络主要的过程为:forwardpass(正向传递)loss(计算损失)backwardpass(反向更新)1.使用numpy实现importnumpyasnpim
留小星
·
2022-03-01 07:43
动手学深度学习:pytorch
深度学习
python
神经网络
机器学习
tensorflow
动手学深度学习
——卷积神经网络3
白嫖伯禹平台,还是要感谢一下,打波广告。主要是学习笔记,解决问题的可以忽略本博客,以免浪费时间与精力深度卷积神经网络优缺点分析:LeNet:在大的真实数据集上的表现并不尽如⼈意。1.神经网络计算复杂。2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。机器学习的特征提取:手工定义的特征提取函数神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。神经网络发展的限制
inventertom
·
2022-03-01 07:12
神经网络
深度学习
卷积神经网络
动手学深度学习
——卷积神经网络2 LeNet
白嫖伯禹平台,还是要感谢一下,打波广告。主要是学习笔记,解决问题的可以忽略本博客,以免浪费时间与精力主要介绍三个方面lenet模型介绍lenet网络搭建运用lenet进行图像识别-fashion-mnist数据集LeNet模型LeNet分为卷积层块和全连接层块两个部分。下面我们分别介绍这两个模块。模型结构如下包括:输入层,两层卷积层,两层全连接隐藏层,和一个全连接输出层卷积层块里的基本单位是卷积层
inventertom
·
2022-03-01 07:12
神经网络
深度学习
卷积神经网络
《
动手学深度学习
》task5_2 LeNet
系统学习《
动手学深度学习
》点击这里:《
动手学深度学习
》task1_1线性回归《
动手学深度学习
》task1_2Softmax与分类模型《
动手学深度学习
》task1_3多层感知机《
动手学深度学习
》task2
shiinerise
·
2022-03-01 07:05
深度学习
cnn
动手学深度学习
lenet
《
动手学深度学习
》task5_1 卷积神经网络基础
系统学习《
动手学深度学习
》点击这里:《
动手学深度学习
》task1_1线性回归《
动手学深度学习
》task1_2Softmax与分类模型《
动手学深度学习
》task1_3多层感知机《
动手学深度学习
》task2
shiinerise
·
2022-03-01 07:04
深度学习
卷积神经网络
卷积
动手学深度学习
动手学深度学习
V2.0(Pytorch)——20. 卷积层里的填充和步幅
文章目录P1填充和步幅1.1填充1.2步幅1.3总结1.4卷积输出维度计算公式理解P2代码P3Q&A✨1.这几个超参数的影响重要程度排序是怎么样的,核大小,填充和步幅✨2.为什么卷积核的边长一般取奇数?✨3.一般卷积处理完,输出维度都要减半,为什么这里提到输入输出保持不变✨4.步幅和填充这两个超参数,为什么实际中一般不怎么调节?✨5.现在已经有很多经典的网络结构了,对应于各种任务有各种结构,那平时
吨吨不打野
·
2022-03-01 07:00
动手学深度学习pytorch
深度学习
pytorch
计算机视觉
动手学深度学习
V2.0(Pytorch)——21. 卷积层里的多输入多输出通道
文章目录P1卷积层里的多输入多输出通道1.1多输入/输出通道1.2多输入卷积1.3多输出卷积1.5多输入输出的作用1.61X1卷积层1.7二维卷积计算复杂度P2代码实现P3Q&A1.卷积可以解决输入大小变化的情况,有什么方法能解决channel动态变化的情况吗?只能下采样?2.网络越深,Padding0越多,是否会影响性能3.每个通道的卷积核都不一样吗?同一层不同通道的卷积核大小必须一样吗?4.计
吨吨不打野
·
2022-03-01 07:00
动手学深度学习pytorch
深度学习
pytorch
计算机视觉
动手学深度学习
——卷积层
从全连接到卷积1、简单例子:分类猫和狗的图片使用一个还不错的相机采集图片(12M像素)RGB图片有36M元素使用100大小的单隐藏层MLP,模型有3.6B元素,远多于世界上所有猫和狗总数(900M狗,600M猫)2、重新考察全连接层将输入和输出变形为矩阵(宽度,高度);将权重变形为4-D张量(h,w)到(h‘,w’)V是W的重新索引3、二维交叉相关4、二维卷积层5、交叉相关和卷积由于对称性,在实际
橙子吖21
·
2022-03-01 07:57
动手学深度学习
深度学习
计算机视觉
cnn
神经网络
人工智能
《
动手学深度学习
》Seq2Seq、attention、transformer相关问题的总结与反思
相关博文AttentionIsAllYouNeed论文精读笔记《
动手学深度学习
》Seq2Seq代码可能出错的原因及适当分析文章目录关于Seq2Seq相关问题的总结一、数据集相关二、
琦子k
·
2022-02-27 10:26
transformer
深度学习
人工智能
attention
rnn
Attention Is All You Need论文精读笔记
部分内容参考了Transformer论文逐段精读【论文精读】-哔哩哔哩(bilibili.com)相关博文:《
动手学深度学习
》Seq2Seq、attention、transformer相关问题的总结与反思
琦子k
·
2022-02-27 10:26
transformer
深度学习
人工智能
attention
rnn
《
动手学深度学习
》Seq2Seq代码可能出错的原因及适当分析
关于沐神《
动手学深度学习
》Seq2Seq代码可能出错的原因及适当分析先放训练结果:沐神的300个epoch:go.=>vaau!,bleu0.000ilost.
琦子k
·
2022-02-27 10:55
深度学习
python
rnn
人工智能
机器学习
经典卷积神经网络模型
PPT来自:计算机视觉与深度学习北京邮电大学鲁鹏代码来自沐神《
动手学深度学习
》。文章目录卷积概述卷积特征图池化层AlexNet(2012)贡献结构呆码*重要规律反思:卷积层到底在做什么?
琦子k
·
2022-02-27 10:51
cnn
深度学习
计算机视觉
卷积神经网络
pytorch
还未被超越的两本深度学习,一本用来入门,一本用来进阶
入门深度学习请看《
动手学深度学习
》入门优势:书的每一章用文字、数学、图示和代码来多方面介绍一个知识点。它是一个Jupyter记事本,可以独立运行。包含20个左右的文字和代码块,可以15分钟左右读完。
人邮异步社区
·
2022-02-27 07:37
深度学习
人工智能
机器学习
《
动手学深度学习
》读书笔记:第1章 深度学习简介
目录第1章深度学习简介1.1起源1.2发展1.3成功案例1.4特点小结第1章深度学习简介通俗来说,机器学习是一门讨论各式各样的适用于不同问题的函数形式,以及如何使用数据来有效地获取函数参数具体值的学科。深度学习是指机器学习中的一类函数,它们的形式通常为多层神经网络。近年来,仰仗着大数据集和强大的硬件,深度学习已逐渐成为处理图像、文本语料和声音信号等复杂高维数据的主要方法。1.1起源虽然深度学习似乎
feiwen110
·
2022-02-22 07:33
《动手学深度学习》
深度学习
人工智能
机器学习打卡(一)
这个公益AI个人感觉还是不错的,主要是根据《
动手学深度学习
》(PyTorch版)这个来讲解的,主办方还提供了一些学习的视频和远程的主机使用。第一次打卡的内容包括:1.Task01:线性回归;Softm
luckyQAQ
·
2022-02-21 18:03
Task03:
动手学深度学习
——过拟合和欠拟合、梯度消失和梯度爆炸、
(学习笔记,待补充)本文目录如下:1.过拟合和欠拟合1.1过拟合和欠拟合的概念1.2.防止过拟合的方法1.3.防止欠拟合的方法2.梯度消失和梯度爆炸2.1梯度消失(vanishing)和梯度爆炸(explosion)的概念2.2随机初始化模型参数2.3考虑环境因素1.过拟合和欠拟合1.1过拟合和欠拟合的概念1.1.1训练误差和泛化误差顾名思义,训练误差是指模型在训练集上的误差,而泛化误差是指模型在
且不了了
·
2022-02-21 08:25
R-CNN系列演变:(区别与联系)
来自沐神
动手学深度学习
系列教程框的选择采用启发式搜索(selectivesearch),此处的卷积神经网络主要用来提取特征,SVM用于对每一个框进行分类。
枫丫头爱学习
·
2022-02-20 07:34
【
动手学深度学习
----现代循环神经网络笔记】
GRU介绍门控循环单元包含重置门和更新门两种,输入是由当前时间步的输入和前一时间步的隐状态给出。两个门的输出是由使用sigmoid激活函数的两个全连接层给出。二者的特点:重置门有助于捕获序列中的短期依赖关系。更新门有助于捕获序列中的长期依赖关系。两种门的数学表达式:重置门Rt与常规隐状态更新机制集成后,可以得到时间步t的候选隐状态H_hat(nxh的大小):得到候选隐状态H_hat后,与更新们Zt
瞲_大河弯弯
·
2022-02-19 07:06
DL和ML笔记
深度学习
rnn
lstm
《
动手学深度学习
》task07 目标检测基础;图像风格迁移;图像分类案例1 课后作业
目标检测基础1、我们一般通过哪些参数来生成一组锚框A、锚框左上角xy坐标和右下角xy坐标B、锚框中心像素xy坐标和锚框长宽C、锚框中心像素xy坐标、锚框大小和宽高比D、锚框左上角xy坐标和锚框长宽答案解析:【C】其中A选项为边界的定义,根据锚框的定义可选择C。2、已知图像宽为w,锚框大小为s,宽高比为r,那么锚框的宽为答案解析:3、关于IoU说法错误的是A、IoU是两个边界框相交面积与相并面积之比
AI_er
·
2022-02-14 23:12
词向量 Word2Vec, Glove, FastText
词嵌入:word2vec—
动手学深度学习
文档词嵌入:GloVe和fastText—
动手学深度学习
文档理解GloVe模型(Globalvectorsforwordrepresentation)-CSDN博客
菜鸟瞎编
·
2022-02-13 11:11
Github | 李沐《
动手学深度学习
》的PyTorch实现
可打印版本附pdf下载链接早上王博Kings和吴博士聊了许久,吴博士很踏实努力,所处学习环境也很棒,他对中文版《
动手学深度学习
》中的代码进行整理,用Pytorch实现,内容很棒!推荐给大家!
SophiaCV
·
2022-02-04 15:29
神经网络
编程语言
人工智能
深度学习
机器学习
《
动手学深度学习
》第二章习题答案
《
动手学深度学习
》第二章地址:https://zh-v2.d2l.ai/chapter_preliminaries/index.html2.1练习运行本节中的代码。
休提前事
·
2022-01-06 14:22
机器学习岗位年薪50万+,现在有个提供免费学习实操的入门平台,你不了解下?
前有编写「
动手学深度学习
」,成就圈内入门经典,后又在B站免费讲斯坦福AI课,一则艰深硬核讲论文的视频播放量36万,不少课题组从导师到见习本科生都在追番。
·
2021-12-22 10:18
机器学习
机器学习岗位年薪50万+,现在有个提供免费学习实操的入门平台,你不了解下?
前有编写「
动手学深度学习
」,成就圈内入门经典,后又在B站免费讲斯坦福AI课,一则艰深硬核讲论文的视频播放量36万,不少课题组从导师到见习本科生都在追番。
·
2021-12-21 17:24
机器学习
动手学深度学习
——图像分类数据集Fashion-MNIST
Fashion-MNIST是⼀个10类服饰分类数据集。torchvision包:它是服务于PyTorch深度学习框架的,主要⽤来构建计算机视觉模型。torchvision主要由以下⼏部分构成:torchvision.datasets:⼀些加载数据的函数及常⽤的数据集接⼝;torchvision.models:包含常⽤的模型结构(含预训练模型),例如AlexNet、VGG、ResNet等;torch
橙子吖21
·
2021-11-23 20:08
动手学深度学习
线性代数
深度学习
人工智能
pytorch
动手学深度学习
——softmax回归简单介绍
1、首先我们解释一下回归和分类的区别:回归估计一个连续值,比如说预测房子的价格;分类预测一个离散类别,比如说我预测一个图片里面是猫还是狗。例1:MNIST(手写数字识别)10类例2:ImageNet(自然物体分类)1000类2、Kaggle上的典型的分类问题例1、将人类蛋白质显微镜图片分成28类例2、将恶意软件分成9个类别例3、将恶意的Wikipedia评论分成7类3、从回归到多类分类回归:单连续
橙子吖21
·
2021-11-23 11:20
动手学深度学习
深度学习
人工智能
python
回归
pytorch
动手学深度学习
——线性回归的简洁实现
1、导入的数据包importnumpyasnpimporttorchimporttorch.utils.dataasData#PyTorch提供了data包来读取数据。由于data常⽤作变量名,我们将导⼊的data模块⽤Data代替。fromtorchimportnn,optimfromtorch.nnimportinit2、生成数据集,其中features是训练数据特征,labels是标签。nu
橙子吖21
·
2021-11-22 12:14
动手学深度学习
深度学习
机器学习
人工智能
线性回归
pytorch
动手学深度学习
——线性回归的从零开始实现
我们将从零开始实现整个方法,包括流水线、模型、损失函数和小批量随机梯度下降优化器。importosimportmatplotlib.pyplotasplt#其中matplotlib包可用于作图,且设置成嵌入式importtorchfromIPythonimportdisplayfrommatplotlibimportpyplotaspltimportnumpyasnpimportrandom我们构
橙子吖21
·
2021-11-22 10:20
动手学深度学习
深度学习
算法
人工智能
线性回归
pytorch
动手学深度学习
——链式法则、自动求导及实现
1、向量链式法则标量链式法则:拓展到向量:例子1:x,w是长为n的向量,y是一个标量。z函数是x和w做累积减去y做平方。计算z关于w的一个导数。对z进行分解。例子2:X是mxn的一个矩阵,w是一个长为n的向量,y是一个长为m的向量z为X乘以w减去y然后进行L2norm计算z对w的导数自动求导自动求导计算了一个函数在指定值上的导数,他有别于符号求导,数值求导。符号求导:数值求导:自动求导是怎么做出来
橙子吖21
·
2021-11-18 22:50
动手学深度学习
深度学习
人工智能
python
pytorch
自动求导
《
动手学深度学习
》| 1 预备工作和简介
预备知识2.1数据操作2.1.1创建tensor2.1.2运算2.1.3广播机制2.1.4索引2.1.5运算的内存开销2.1.6tensor和numpy相互变换2.2自动求梯度2.3查阅文档前言李沐老师的《
动手学深度学习
Marlowe.
·
2021-11-18 09:59
深度学习
tensorflow
深度学习
动手学深度学习
——矩阵计算
标量导数导数的作用主要是进行梯度下降导数是切线的斜率亚导数将导数拓展到不可微的函数另一个例子梯度就是将导数拓展到向量第一种情况,y是标量,x是向量x为列向量,求导完变成行向量。举例说明:梯度指向的是你的值变化最大的那个方向,梯度和正交线是正交的。样例:a是常数,与x无关的数第二种情况,x是标量,y是向量列向量关于标量的导数还是列向量。这个被称为分子布局符号,反过来的版本叫分母布局符号。拓展:向量关
橙子吖21
·
2021-11-16 20:31
动手学深度学习
深度学习
机器学习
人工智能
动手学深度学习
——线性代数按特定轴求和
按特定轴求和原理举例说明:2x4x5的张量:,如果按照来进行求和的话,就相当于消去了这个维度,,从而会得到一个的矩阵,同理,如果按照来进行求和的话,那就消去了这个维度,,从而会得到一个个元素的矩阵。那假如按照多个维度来进行求和呢,2x4x5的张量,如果按照来进行求和,那就相当于消去了这两个维度,,那就会得到一个只有个元素的向量。特别注意的是,在计算维度求和的时候,有一个参数keepdims=TRU
橙子吖21
·
2021-11-16 20:22
动手学深度学习
深度学习
算法
人工智能
线性代数
pytorch
动手学深度学习
——线性代数的实现
"""标量由只有一个元素的张量表示"""importtorchx=torch.tensor([3.0])y=torch.tensor([2.0])print(x+y)print(x*y)print(x/y)print(x**y)"""你可以将向量视为标量值组成的列表"""x=torch.arange(4)print(x)"""通过张量的索引来访问任一元素"""print(x[3])"""访问张量的
橙子吖21
·
2021-11-16 19:54
动手学深度学习
机器学习
python
人工智能
深度学习
线性代数
最近 火火火 的 GitHub 项目!
攀升比较高的开源项目,喜欢的转发收藏点赞:0.30天搞定Git1.Telegram官方桌面客户端2.Nocobd:开源Airtable替代品3.BliBli搜集的API4.新一代NAT内网穿透工具5.自动生成字幕6.
动手学深度学习
逛逛GitHub
·
2021-11-16 15:00
python
java
编程语言
人工智能
机器学习
深度学习PyTorch笔记(11):线性神经网络——线性回归
5.1.2解析解5.1.3数值解5.2线性回归的从零开始实现5.2.1生成数据集5.2.2读取数据5.2.3建立模型5.3线性回归的简洁实现5.3.1生成数据集5.3.2读取数据5.3.3建立模型这是《
动手学深度学习
三耳01
·
2021-11-15 22:32
深度学习
pytorch
深度学习
神经网络
动手学深度学习
——线性代数基本知识
标量向量矩阵范数:取决于如何衡量b和c的长度常见范数矩阵范数:最小的满足的上面公式的值Frobenius范数:特殊矩阵
橙子吖21
·
2021-11-15 10:58
动手学深度学习
线性代数
深度学习
人工智能
矩阵
机器学习
动手学深度学习
——数据预处理
1、创建一个人工数据集,并存储在csv(逗号分隔值)文件"""创建一个人工数据集,并存储在csv(逗号分隔值)文件"""importosos.makedirs(os.path.join('..','data'),exist_ok=True)data_file=os.path.join('..','data','house_tiny.csv')#文件名withopen(data_file,'w')a
橙子吖21
·
2021-11-15 09:43
动手学深度学习
深度学习
r语言
人工智能
pytorch
python
深度学习PyTorch笔记(8):线性代数
深度学习PyTorch笔记(8):线性代数3线性代数3.1标量、向量、矩阵、张量3.2降维3.2.1非降维求和3.3点积、向量积、矩阵乘3.4范数这是《
动手学深度学习
》(PyTorch版)(Dive-into-DL-PyTorch
三耳01
·
2021-11-14 22:15
深度学习
深度学习
pytorch
线性代数
动手学深度学习
实践—文献阅读
文章目录一.
动手学深度学习
实践1.1Bi-RNN1.2编码器-解码器结构1.3使用API实现(encoder-decoder)1.4序列到序列学习(seq2seq)二.文献阅读—Adual-headattentionmodelfortimeseriesdataimputation2.1
CatcousCherishes
·
2021-11-14 20:39
周报
深度学习
人工智能
线性代数
《
动手学深度学习
》 pytorch版-数据操作
1、算术操作(加法为例)importtorch'''算术操作(加法)'''#算术操作#在PyTorch中,同一种操作可能有很多种形式,下面用加法作为例子。x=torch.empty(5,3)x=x.new_ones(5,3,dtype=torch.float64)#返回的tensor默认具有相同的torch.dtype和torch.deviceprint(x,'自定义数据类型')#加法形式一y=t
小夭crying
·
2021-11-11 14:44
pytorch
python
pytorch
深度学习
python
transformer及动手学习transformer
学习了深度学习将近一年,年初的时候便开始了transformer的学习,然而当时刚起步对于transformer一知半解,学习的是第一版《
动手学深度学习
》。
jiangchao98
·
2021-11-09 17:33
深度神经网络
transformer
深度学习
人工智能
上一页
28
29
30
31
32
33
34
35
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他