E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
动手学深度学习
【
动手学深度学习
| Week1a】02+03+04 数据操作与数据处理
02深度学习简介感知领域是什么:人可以快速感知、处理的阶段(英语转中文)。深度学习、计算机视觉、自然语言处理可以说是目前AI领域最大的三块内容。深度学习的应用图片分类(IMAGENET),目前图片分类的误差已经可以媲美人类的精度了物体检测和分割(Mask_RCNN)样式迁移(MxNet-style-transfer)人脸合成(2018)文字生成图片(openai)文字生成(gpt3)无人驾驶广告推
大胃羊
·
2023-02-05 02:25
动手学深度学习
人工智能
深度学习
计算机视觉
《
动手学深度学习
》第一次打卡
一、线性回归其实正在看《
动手学深度学习
》,不过一来自己一个人有的时候想偷懒,看的慢,二来这次组队能认识到人,一起做题,更有动力。便趁着这次伯禹教育在这次疫情中免费开的这堂课,一起组队学习。
yuwenhenhao
·
2023-02-04 13:32
《动手学深度学习》笔记
pytorch
深度学习
神经网络
【
动手学深度学习
】笔记持续更新
主要是根据李沐老师的b站课程,会把自己遇到的各种问题总结写出来,包括一些要点一、安装环境(具体日后再补,准备写这个笔记的时候环境已经装好了)二、数据操作1、torch.arange/torch.tensor的用法在上一篇中列举了,此处不再赘述以及,torch.cat的时候注意dim,0和1代表行连接或者列连接2、独热编码问题inputs=data.iloc[:,0:2]inputs=inputs.
PokiFighting
·
2023-02-03 13:41
深度学习
深度学习
pytorch
人工智能
注意力汇聚:Nadaraya-Watson 核回归
参考10.2.注意力汇聚:Nadaraya-Watson核回归—
动手学深度学习
2.0.0documentation框架下的注意力机
流萤数点
·
2023-02-03 11:43
自然语言处理
回归
深度学习
动手学深度学习
(四十八)——使用注意力机制的seq2seq
文章目录一、动机二、Bahdanau注意力模型1.定义Attention解码器2.训练3.使用BLEU评估4.可视化权重总结一、动机机器翻译时,每个生成的词可能相关于源句子中不同的词二、Bahdanau注意力 我们在seq2seq中研究了机器翻译问题,在那里我们设计了一个基于两个循环神经网络的编码器-解码器架构,用于顺序到序列的学习。具体来说,循环神经网络编码器将可变长度序列转换为固定形状的上下
留小星
·
2023-02-03 11:43
动手学深度学习:pytorch
深度学习
机器翻译
自然语言处理
注意力机制与seq2seq
Bahdanau 注意力
参考10.4.Bahdanau注意力—
动手学深度学习
2.0.0documen
流萤数点
·
2023-02-03 11:39
自然语言处理
人工智能
深度学习
数值稳定性
李沐《
动手学深度学习
》中《数值稳定性+模型初始化和激活函数》这一章,由于花了很多精力理解数学公式,一开始没有听明白这一章的目的。
杜仲Don
·
2023-02-03 11:38
动手学深度学习
深度学习
《
动手学深度学习
》第一次打卡
本篇博客记录学习《
动手学深度学习
》课程过程中的一些笔记。第一次打卡,包括Task1和Task2。
Vincent Lee ~
·
2023-02-03 08:27
深度学习
【笔记】
动手学深度学习
- 锚框
42锚框【
动手学深度学习
v2】_哔哩哔哩_bilibili目录锚框交并比IoU:赋予锚框编号非极大抑制(NMS)输出:总结:锚框所谓锚框,就是目标检测算法中,以锚点为中心,由算法预定义的多个不同长宽比的先验框
echo_gou
·
2023-02-03 07:44
#
动手学深度学习
python
48 全连接卷积神经网络 FCN【
动手学深度学习
v2】
48全连接卷积神经网络FCN【
动手学深度学习
v2】深度学习学习笔记学习视频:https://www.bilibili.com/video/BV1af4y1L7Zu/?
Blueming_first
·
2023-02-03 07:14
深度学习
深度学习
cnn
python
47 转置卷积【
动手学深度学习
v2】】
47转置卷积【
动手学深度学习
v2】】深度学习学习笔记学习视频:https://www.bilibili.com/video/BV17o4y1X7Jn/?
Blueming_first
·
2023-02-03 07:13
深度学习
深度学习
计算机视觉
cnn
41 锚框【
动手学深度学习
v2】】
41锚框【
动手学深度学习
v2】】深度学习学习笔记学习视频:https://www.bilibili.com/video/BV1if4y147hS/?
Blueming_first
·
2023-02-03 07:13
深度学习
深度学习
计算机视觉
人工智能
16 PyTorch神经网络基础 [
动手学深度学习
v2]
参数绑定在不同的网络之间共享权重shared=nn.Linear(8,8)net=nn.Sequential(nn.Linear(4,8),nn.ReLU(),shared,nn.ReLU(),shared,nn.ReLU(),nn.Linear(8,1))print(net[2].weight.data[0]==net[4].weight.data[0])#tensor([True,True,T
Grin*
·
2023-02-02 16:49
跟李沐学AI
深度学习
pytorch
Pytorch神经网络基础
学习了李沐——《
动手学深度学习
》的视频课程,在此对知识点进行整理以及记录动手实践中遇到的一些问题和想法。
深度不学习。
·
2023-02-02 16:16
pytorch
神经网络
深度学习
卸载TensorFlow1.14,安装2.0
最近有时间,想把李沐的《
动手学深度学习
》代码码一遍,这本书用的是tengsorflow2的版本,所以我也对应装一下。
月笼纱lhz
·
2023-02-02 09:03
深度学习
tensorflow
人工智能
python
动手学深度学习
3——优化和深度学习
鞍点一维梯度下降学习率小批量随机梯度下降动量法图像增广d2l.set_figsize()img=Image.open('../../img/cat1.jpg')d2l.plt.imshow(img)defshow_images(imgs,num_rows,num_cols,scale=2):figsize=(num_cols*scale,num_rows*scale)_,axes=d2l.plt.
123梦野
·
2023-02-02 08:18
深度学习
动手学深度学习
:3.2线性回归从零开始实现
3.2线性回归的从零开始实现在了解了线性回归的背景知识之后,现在我们可以动手实现它了。尽管强大的深度学习框架可以减少大量重复性工作,但若过于依赖它提供的便利,会导致我们很难深入理解深度学习是如何工作的。因此,本节将介绍如何只利用Tensor和autograd来实现一个线性回归的训练。首先,导入本节中实验所需的包或模块,其中的matplotlib包可用于作图,且设置成嵌入显示。%matplotlib
AI_Younger_Man
·
2023-02-02 08:17
#
深度学习
python
机器学习
深度学习
神经网络
动手学深度学习
笔记(二)
从零开始写多层感知机多层感知机本节中,我们将以多层感知机(multilayerperceptron,简称MLP)为例,介绍多层神经网络的概念。importsyssys.path.insert(0,'..')importgluonbookasgbbatch_size=256train_data,test_data=gb.load_data_fashion_mnist(batch_size)隐藏层多层
文武_665b
·
2023-02-02 04:36
10.转置卷积
视频:47转置卷积【
动手学深度学习
v2】_哔哩哔哩_bilibili教材:13.10.转置卷积—
动手学深度学习
2.0.0-beta0documentation(d2l.ai)PPT:part-2_14.
七仔啊
·
2023-02-01 04:31
动手学深度学习
计算机视觉
计算机视觉
深度学习
pytorch
《
动手学深度学习
》目标检测基础;图像风格迁移;图像分类案例1
目标检测基础;图像风格迁移;图像分类案例1目标检测基础锚框交并比标注训练集的锚框图像风格迁移模型损失函数内容损失样式损失总变差损失总损失函数图像分类案例1任务模型目标检测基础在图像中标出目标图像的位置,成为目标检测。锚框以每个像素为中心,生成多个大小和宽高比不用的边界框,这些边界框就是锚框。设输入图像高为hhh,宽为www,锚框大小为s∈(0,1]s\in(0,1]s∈(0,1]且宽高比为r>0r
Void_Pointer -
·
2023-01-31 16:00
动手学深度学习
深度学习
计算机视觉
【
动手学深度学习
v2李沐】学习笔记05:多层感知机、详细代码实现
前文回顾:Softmax回归、损失函数、图片分类数据集、详细代码实现文章目录一、感知机1.1单层感知机1.2训练感知机1.3收敛定理1.4XOR问题1.5总结二、多层感知机2.1解决XOR问题2.2激活函数2.2.1Sigmoid激活函数2.2.2Tanh激活函数2.2.3ReLU激活函数2.3单隐藏层2.3.1单分类问题2.3.2多分类问题2.4多隐藏层2.5总结三、代码实现3.1从零开始实现3
鱼儿听雨眠
·
2023-01-31 14:59
深度学习笔记整理
深度学习
人工智能
分类
pytorch
动手学深度学习
笔记第四章(多层感知器)
4.1多层感知器y.backward(torch.ones_like(x),retain_graph=True)这里的retain_graph=True参数:pytorch进行一次backward之后,各个节点的值会清除,这样进行第二次backward会报错,因为虽然计算节点数值保存了,但是计算图结构被释放了,如果加上retain_graph==True后,可以再来一次backward。关于det
冬青庭院
·
2023-01-31 14:25
我的动手学深度学习笔记
深度学习
pytorch
python
44物体检测算法:R-CNN,SSD,YOLO【
动手学深度学习
v2】
44物体检测算法:R-CNN,SSD,YOLO【
动手学深度学习
v2】深度学习学习笔记学习视频:https://www.bilibili.com/video/BV1if4y147hS/?
Blueming_first
·
2023-01-31 11:20
深度学习
深度学习
【
动手学深度学习
】线性回归从零实现
动手学深度学习
线性回归从零实现生成数据集tf.zeros()tf.random.normaltf.reshape()tf.matmul()读取数据range()random.shuffle()tf.constantyield
往阳光走
·
2023-01-31 09:32
深度学习
线性回归
python
ch10.1 注意力机制的生物起源
文章参考,
动手学深度学习
;10.1生物学中的注意机制10.1.1影响注意力的两种因素人类的注意力会受到两种因素的影响:非自主性提示:通常是由外界的因素主导,比如基于环境中物体的突出性和易见性。
mingqian_chu
·
2023-01-31 05:36
#
深度学习
query
key
的来源
Pytorch实现Kaggle比赛:房价预测问题(House Prices - Advanced Regression Techniques)
d2lzh_pytorch是
动手学深度学习
书中Pytorch的包,离线安装比较方便下载链接:百度网盘提取码:6666放置在所在虚拟环境中的Lib/site-packages目录下即可实现代码:importtorchimporttorch.nnasnnimportpandasaspdimportd2lzh_pytorchasd2ltorch.set_default_tensor_type
一只水熊虫
·
2023-01-30 13:57
机器学习
Pytorch
pytorch
深度学习
python
动手学深度学习
读书笔记-5
模型选择、欠拟合和过拟合训练误差和泛化误差训练误差指模型在训练数据集上表现出的误差泛化误差指模型在任意⼀个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。让我们以⾼考为例来直观地解释训练误差和泛化误差这两个概念。训练误差可以认为是做往年⾼考试题(训练题)时的错误率,泛化误差则可以通过真正参加⾼考(测试题)时的答题错误率来近似。假设训练题和测试题都随机采样于⼀个未知的依照相同考
wxl1999
·
2023-01-30 11:53
机器学习
动手学深度学习
-学习笔记(五)
本文的主要内容有::卷积神经网络基础;leNet;卷积神经网络进阶一、卷积神经网络基础本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。二维卷积层本节介绍的是最常见的二维卷积层,常用于处理图像数据。二维互相关运算二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中
花花世界1202
·
2023-01-30 10:15
动手学习深度学习
深度学习
《
动手学深度学习
》笔记一 ------机器学习中的基础概念
写在前面:本文按照书中的脉络做的笔记,包含概念的定义、自己的理解以及阅读时的小思考。感受:深度学习很奥妙,很有趣!1.2机器学习中的关键组件可以⽤来学习的数据(data);如何转换数据的模型(model);⼀个⽬标函数(objectivefunction),⽤来量化模型的有效性;当任务在试图预测数值时,最常⻅的损失函数是平⽅误差(squarederror),即预测值与实际值之差的平⽅。当试图解决分
迎风809
·
2023-01-30 10:06
深度学习
深度学习
人工智能
深度学习优化算法:RMSProp算法
原文链接:
动手学深度学习
pytorch版:7.6RMSProp算法github:https://github.com/ShusenTang/Dive-into-DL-PyTorch原论文:[1]Tieleman
ywm_up
·
2023-01-30 02:47
NLP/ML/DL
深度学习
pytorch
优化算法
RMSProp
学习笔记1:视频要点-B站(UP主:跟李沐学AI)“Windows 下安装 CUDA 和 Pytorch 跑深度学习 -
动手学深度学习
v2”
文章目录学习笔记1:视频要点-B站(UP主:跟李沐学AI)“Windows下安装CUDA和Pytorch跑深度学习-
动手学深度学习
v2”一、windows下查看GPU二、anaconda指令三.安装cuda
强化神经
·
2023-01-29 14:54
学习笔记
python
学习笔记:
动手学深度学习
01安装 windows
声明:学习内容来自跟李沐学AI安装anaconda,教程中是安装miniconda,由于我提前安装了anaconda,此步骤跳过下载D2LNotebook在浏览器的地址栏中输入 https://zh.d2l.ai/d2l-zh-1.1.zip 并按回车键进行下载。下载完成后,创建文件夹“d2l-zh”并将以上压缩包解压到这个文件夹。在该目录文件资源管理器的地址栏输入cmd进入命令行模式。第三步是使
进击的番茄~
·
2023-01-29 14:23
深度学习
windows
人工智能
解决“李沐:
动手学深度学习
pytorch版”install d2l时报错:ERROR:Could not build wheels for pandas, which is required to
初学不太懂原理,先记录一下以防下回再次被卡住。pipinstalld2l——>pipinstalld2lpandas==1.5.3好像是pandas版本不兼容,d2l包里的是1.2.4版本。win11系统
Yog_Los
·
2023-01-29 14:11
深度学习
pytorch
python
win11配置torch笔记(李沐:
动手学深度学习
)conda环境
首先cuda版本通过shell中nvdia-smi查询,安装对应torch的大版本号需和cuda一致更小(老版本),torchvision对应的torch版本号一般数字上大1如torch==1.12.0,torchvision==0.13.0此时可用(因为先打torch包再打torchvision时,不选择版本号默认torchvision最新版本,自动更新了torch,导致与cuda版本不兼容)。
Yog_Los
·
2023-01-29 14:36
深度学习
pytorch
人工智能
【
动手学深度学习
】卷积层(CNN)
MLP(感知神经网络)存在的问题对于高维感知机,会存在参数过多,模型训练困难的问题。两个原则平移不变性,局部性二维交叉相关和二维卷积二维交叉相关和二维卷积由于对称性,在实际使用中没有区别00+11+32+43=19卷积层实现的是二维交叉相关操作一维交叉相关卷积层将输入和核矩阵进行交叉相关,加上偏移后得到输出核矩阵和偏移是可以学习的参数核矩阵的大小是超参数给定(3232)输入图像应用55大小的卷积核
xyy ss
·
2023-01-29 09:28
动手学深度学习
深度学习
cnn
人工智能
动手学深度学习
v2-卷积层
importtorchfromtorchimportnnfromd2limporttorchasd2l#互相关运算defcorr2d(X,K):#X表示样本输入,K表示核矩阵h,w分别表示长和高h,w=K.shapeY=torch.zeros((X.shape[0]-h+1,X.shape[1]-w+1))foriinrange(Y.shape[0]):forjinrange(Y.shape[1]
Hzt_dreamer
·
2023-01-29 09:58
pytorch
深度学习
神经网络
【笔记】
动手学深度学习
- 卷积层
从全连接到卷积主要是应用于图片识别,其次还有自然语言处理等。卷积神经网络不再是对每个输入像素进行处理,而是把图片分成一小块区域来进行处理,这样就加强了图片信息的连续性。加深了神经网络对于图片的理解和识别。这里卷积部分看的不是特别懂,所以又去看了吴恩达的深度学习视频。视频中的这个式子就是对应吴恩达视频中的这个没有加偏置的效果。其中a,b就是用来限制过滤器的大小的。计算机视觉的网络结构具有两个性质:平
echo_gou
·
2023-01-29 09:26
#
动手学深度学习
深度学习
机器学习
python
【
动手学深度学习
】19.卷积层
1、实现互相关运算importtorchfromtorchimportnnfromd2limporttorchasd2ldefcorr2d(X,K)://X为输入,K为卷积核"""计算二维互相关运算。"""h,w=K.shape//获取Y=torch.zeros((X.shape[0]-h+1,X.shape[1]-w+1))foriinrange(Y.shape[0]):forjinrange(
ShadoooWM
·
2023-01-29 09:26
动手学深度学习课堂笔记
深度学习
python
人工智能
21 卷积层里的多输入多输出通道 [
动手学深度学习
v2]
多个输入通道:每个通道都有一个卷积核,结果是所有通道卷积结果的和输入X\mathbf{X}X:ci×nh×nwc_i\timesn_h\timesn_wci×nh×nw核W\mathbf{W}W:ci×kh×kwc_i\timesk_h\timesk_wci×kh×kw输出Y\mathbf{Y}Y:mh×mwm_h\timesm_wmh×mwY=∑i=0ciXi,:,:∗⋆Wi,:,:\mathb
Grin*
·
2023-01-29 09:55
跟李沐学AI
深度学习
pytorch
卷积层
【
动手学深度学习
】丢弃法
学习资料:代码实现_哔哩哔哩_bilibili1丢弃法1.1概念介绍4.6.暂退法(Dropout)—
动手学深度学习
2.0.0documentation(d2l.ai)正则化(即降低权重w)通常被用来避免过拟合
Ya_nnnG
·
2023-01-29 09:24
深度学习
深度学习
【
动手学深度学习
】反向传播+神经网络基础
学习资料:[5分钟深度学习]#02反向传播算法_哔哩哔哩_bilibili4.7.前向传播、反向传播和计算图—
动手学深度学习
2.0.0documentation(d2l.ai)[5分钟深度学习]#01梯度下降算法
Ya_nnnG
·
2023-01-29 09:24
深度学习
深度学习
神经网络
人工智能
【
动手学深度学习
】卷积层
学习资料:20卷积层里的填充和步幅【
动手学深度学习
v2】_哔哩哔哩_bilibili19卷积层【
动手学深度学习
v2】_哔哩哔哩_bilibili卷积神经网络原理-11-通道的概念_哔哩哔哩_bilibili
Ya_nnnG
·
2023-01-29 09:23
深度学习
深度学习
激活函数sigmoid、tanh、relu
转载自《
动手学深度学习
》(PyTorch版)在线书籍:https://tangshusen.me/Dive-into-DL-PyTorchgithub:https://github.com/ShusenTang
ywm_up
·
2023-01-29 09:21
NLP/ML/DL
激活函数
relu
sigmod
tanh
深度学习之-玄学调参
``##深度学习之-玄学调参**在code
动手学深度学习
的Resnet代码时,出现了如下错误:RuntimeError:oneofthevariablesneededforgradientcomputationhasbeenmodifiedbyaninplaceoperation
4sheng
·
2023-01-28 10:12
杂记
python
pytorch
深度学习
从Encoder-Decoder到Attention
参考大白话浅谈注意力机制64注意力机制【
动手学深度学习
v2】Attention机制详解(二)——Self-Attention与TransformerEncoder-Decoder架构文本处理和语音识别的
HDU-Dade
·
2023-01-28 08:29
DL
深度学习
机器学习
人工智能
动手学深度学习
_风格迁移
风格迁移(styletransfer)是让一张图片内容不发生改变,但样式改为另一张图片效果。这里所使用的风格迁移并不是基于GAN的,而是基于卷积神经网络的风格迁移方法(当然现在主流的风格迁移是基于GAN的,感兴趣的可以了解一下之间写过的一些GAN的介绍)首先,我们初始化合成图像,例如将其初始化为内容图像。该合成图像是风格迁移过程中唯一需要更新的变量,即风格迁移所需迭代的模型参数。然后,我们选择一个
CV小Rookie
·
2023-01-27 09:26
边学边记
深度学习
神经网络
风格迁移
动手学深度学习
(二十二)——GoogLeNet:CNN经典模型(五)
文章目录1.含并行连结的网络(GoogLeNet)1.1Inception块1.2GoogLeNet模型2.动手实现简化的GoogLeNet模型2.1实现Inception块2.2构建GoogleNet模型2.3验证网络架构2.4训练网络2.5绘图查看效果3.总结《GoingDeeperwithConvolutions》去读文章1.含并行连结的网络(GoogLeNet) 在2014年的Image
留小星
·
2023-01-26 12:24
动手学深度学习:pytorch
GoogLeNet
CNN经典网络
Inception
pytorch深度学习
3.4 Softmax回归【李沐
动手学深度学习
】
目录1.从回归到多分类——均方损失Softmax回归2.Softmax和交叉熵损失损失梯度3.损失函数3.1均方损失(L2Loss)3.2绝对值损失函数(L1Loss)3.3鲁棒损失Huber'sRobustLoss4.小结回归问题&分类问题回归:单输出分类:多输出(输出i是预测为第i类的置信度)1.从回归到多分类——均方损失Softmax回归1.类似线性回归:非规范化的预测=权重(矩阵)与输入特
iCiven
·
2023-01-25 10:39
李沐动手学深度学习
回归
数据挖掘
人工智能
深度学习PyTorch笔记(1):创建Tensor
Tensor1.Tensor预备知识1.1创建Tensor1.1.1创建未初始化的Tensor1.1.2生成随机数1.1.3torch.Tensor()与torch.tensor()1.1.4一些特殊值矩阵这是《
动手学深度学习
三耳01
·
2023-01-25 09:04
机器学习
深度学习
pytorch
深度学习
python
动手学深度学习
——批量归一化
1、批量归一化损失出现在最后,后面的层训练较快;数据在最底部,底部的层训练的慢;底部层一变化,所有都得跟着变;最后的那些层需要重新学习多次;导致收敛变慢;固定小批量里面的均差和方差:然后再做额外的调整(可学习的参数):2、批量归一化层可学习的参数为γ和β;作用在全连接层和卷积层输出上,激活函数前;全连接层和卷积层输入上;对全连接层,作用在特征维;对于卷积层,作用在通道维上。3、批量归一化在做什么最
橙子吖21
·
2023-01-25 09:04
动手学深度学习
深度学习
人工智能
pytorch
神经网络
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他