NNDL 实验二 pytorch入门

一. 概念:张量、算子

写出定义,并用通俗易懂的语言描述自己的理解。

二. 使用pytorch实现张量运算

1.2 张量

1.2.1 创建张量

1.2.1.1 指定数据创建张量

1.2.1.2 指定形状创建

1.2.1.3 指定区间创建

1.2.2 张量的属性

1.2.2.1 张量的形状

1.2.2.2 形状的改变

1.2.2.3 张量的数据类型

1.2.2.4 张量的设备位置

1.2.3 张量与Numpy数组转换

1.2.4 张量的访问

1.2.4.1 索引和切片

1.2.4.2 访问张量

1.2.4.3 修改张量

1.2.5 张量的运算

1.2.5.1 数学运算

1.2.5.2 逻辑运算

1.2.5.3 矩阵运算

1.2.5.4 广播机制

三. 数据预处理

1. 读取数据集 house_tiny.csv、boston_house_prices.csv、Iris.csv

2. 处理缺失值

3. 转换为张量格式


ref:

NNDL 实验1 - HBU_DAVID - 博客园 (cnblogs.com)

在深度学习框架中,数据经常用张量(Tensor)的形式来存储。张量是矩阵的扩展与延伸,可以认为是高阶的矩阵。1阶张量为向量,2阶张量为矩阵。

如果你对Numpy熟悉,那么张量是类似于Numpy的多维数组(ndarray)的概念,可以具有任意多的维度。 

深度学习算法由一个个计算单元组成,我们称这些计算单元为算子(Operator,简称OP)。在网络模型中,算子对应层中的计算逻辑,例如:卷积层(Convolution Layer)是一个算子;全连接层(Fully-connected Layer, FC layer)中的权值求和过程,是一个算子。

再例如:tanh、ReLU等,为在网络模型中被用做激活函数的算子。
————————————————
原文链接:https://blog.csdn.net/devcloud/article/details/125461576

《动手学深度学习》 — 动手学深度学习 2.0.0-beta1 documentation (d2l.ai)

 2.1. 数据操作

  • 1. 入门
  • 2. 运算符
  • 3. 广播机制
  • 4. 索引和切片
  • 5. 节省内存
  • 6. 转换为其他Python对象
  • 7. 小结

2.2. 数据预处理 

  • 1. 读取数据集
  • 2. 处理缺失值
  • 3. 转换为张量格式
  • 4. 小结

你可能感兴趣的:(DeepLearning,pytorch,深度学习,人工智能)