学习+科研+做项目 PyTorch最详细视频讲解

PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】
《PyTorch深度学习实践》完结合集
莫烦Python-PyTorch 神经网络
Pytorch 入门到精通全教程 卷积神经网络 循环神经网络
学习+科研+做项目 PyTorch最详细视频讲解_第1张图片
更多相关资料请关注公众号:计算机视觉与图形学实战

PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】

目录(播放量41.6万)
P1.PyTorch环境的配置及安装(Configuration and Installation of PyTorch)【PyTorch教程】14:26
P2. Python编辑器的选择、安装及配置(PyCharm、Jupyter安装)【PyTorch教程】 12:42
P3 【FAQ】为什么torch.cuda.is_available返回False 05:53
P4.Python学习中的两大法宝函数(当然也可以用在PyTorch) 09:12
P5.PyCharm及Jupyter使用及对比 16:39
P6 PyTorch加载数据初认识 11:11
P7 Dataset类代码实战 25:17
P8. TensorBoard的使用(一) 16:31
P9. TensorBoard的使用(二) 11:16
P10. Transforms的使用(一) 18:28
P11. Transforms的使用(二) 08:03
P12 常见的Transforms(一) 18:20
P13 常见的Transforms(二) 21:24
P14 torchvision中的数据集使用 22:51
P15 DataLoader的使用 22:16
P16 神经网络的基本骨架-nn.Module的使用 15:57
P17 土堆说卷积操作(可选看) 26:37
P18 神经网络-卷积层 28:46
P19 神经网络-最大池化的使用 24:26
P20 神经网络-非线性激活 13:23
P21 神经网络-线性层及其他层介绍 23:22
P22 神经网络-搭建小实战和Sequential的使用 26:00
P23 损失函数与反向传播 31:58
P24 优化器(一) 17:38
P25 现有网络模型的使用及修改 23:29
P26 网络模型的保存与读取 16:49
P27 完整的模型训练套路(一) 27:34
P28 完整的模型训练套路(二) 22:22
P29 完整的模型训练套路(三) 05:22
P30 利用GPU训练(一) 15:21
P31 利用GPU训练(二) 08:11
P32 完整的模型验证套路 18:41
P33 【完结】看看开源项目 11:16

《PyTorch深度学习实践》完结合集

目录(播放量41.6万)
P1 1. Overview 1:18:48
P3 03.梯度下降算法 41:30
P5 05.用PyTorch实现线性回归 55:03
P7 07.处理多维特征的输入 43:41
P9 09.多分类问题 54:30
P11 11.卷积神经网络(高级篇) 59:49
P13 13.循环神经网络(高级篇) 1:06:56

莫烦Python-PyTorch 神经网络

目录(播放量73.7万)
P1 科普: 人工神经网络 VS 生物神经网络 04:40
P3 神经网络 : 梯度下降 (Gradient Descent in Neural Nets) 04:08
P5 1.1 Why? 03:56
P7 2.1 Numpy Torch 对比 08:55
P9 什么是激励函数 (深度学习)? 03:49
P11 3.1 Regression 回归 16:14
P13 3.3 快速搭建法 05:16
P15 3.5 批数据训练 09:32
P17 3.6 Optimizer 优化器 10:49
P19 4.1 CNN 卷积神经网络 25:32
P21 什么是 LSTM RNN 循环神经网络 (深度学习)? 03:55
P23 4.3 RNN 循环神经网络 回归 12:47
P25 4.4 AutoEncoder 自编码 11:48
P27 4.5 DQN 强化学习 19:09
P29 4.6 GAN 生成对抗网络 15:22
Pytorch 是动态 Dynamic 06:32
P32 什么是过拟合 (深度学习)? 04:23
P34 什么是 Batch Normalization 批标准化 05:09

Pytorch 入门到精通全教程 卷积神经网络 循环神经网络

目录(播放量6.9万)
P1 1. 1 机器学习和深度学习的介绍 13:02
P3 3. 3 感知机和多层神经网路的介绍 21:10
P5 5. 1Pytorch的安装方法 03:55
P7 7. 3Pytorch的入门操作(二) 20:23
P9 9. 5Pytorch的入门操作(三) 13:23
P11 11. 2 梯度下降的过程 27:24
P13 13. 4 手动实现线性回归 20:19
P15 15. 6 知识点回归 13:23
P17 17. 5 在GPU上执行程序 15:17
P19 19. 1 数据集类的使用 07:57
P21 21. 3Pytorch中自带数据的使用介绍 06:10
P23 23. 5 torchvision中transforms方法的使用 19:09
P25 25. 2 损失函数的学习 10:56
P27 27. 4 模型的评估 24:49
P29 29. 6 word embedding的理解 08:03
P31 31. 8 小结 09:53
P33 33. 2 collate fn的实现 07:36
P35 35. 4 ws的保存 16:55
P37 37. 1 RNN结果的介绍 14:59
P39 39. 3 LSTM的GRU的学习 32:21
P41 41. 5 LSTM api的介绍 44:52
P43 43. 7 文本情感分类模型的修改 42:43
P45 45. 9Pytorch的序列化容器 10:05
P47 47. 2 聊天机器人的介绍 25:19
P49 49. 4 项目流程介绍 12:26
P51 51. 6 词典的准备 18:05
P53 53. 8 相似问题的准备 18:06
P55 55. 1 文本分类的介绍 10:24
P57 57. 3 分类语料的准备 32:06
P59 59. 5 模型的评估 10:47
P61 61. 7 fasttext原理介绍 16:56
P63 63. 1 .复习 04:43
P65 65. 3 哈夫曼树和哈夫曼编码 26:09
P67 67. 5 seq2seq原理的认识 12:18
P69 69. 7 案例数据集的准备 28:37
P71 71. 9 编码器的完成 31:22
P73 73. 11 解码器的流程 24:19
P75 75. 13 模型的训练(二) 25:50
P77 77. 15 复习 33:51
P79 79. 17 seq2seq模型小结 11:33
P81 81. 19 闲聊机器人准备语料 51:06
P83 83. 21 dataset的准备 18:35
P85 85. 1 attention的介绍 21:24
P87 87. 3 attention weight的计算的结果 43:03
P89 89. 5 复习 56:09
P91 91. 7 解码的过程中使用attention 13:59
P93 93. 1 beam search的介绍 26:12
P95 95. 3 模型的优化方法 10:44
P97 97. 1 问答机器人的介绍 09:31
P99 99. 3 使用tfidf实现召回 57:50
P101 101. 5 BM25算法的介绍 13:14
P103 103. 7 复习 1:04:31
P105 105. 9 排序介绍 36:18
P107 107. 11 模型的搭建(一) 26:37
P109 109. 13 损失函数的模型的训练 30:21
P111 111. 15 封装的介绍 20:13

你可能感兴趣的:(周末时光-我的有趣灵魂,pytorch,深度学习,神经网络)