E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
动手学深度学习学习整理
32李沐
动手学深度学习
v2/含并行连结的网络,GoogLeNet
Inception块importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFfromd2limporttorchasd2l#GoogLeNet的v1版本的inception块classInception(nn.Module):def__init__(self,in_channels,c1,c2,c3,c4,**kwargs):'''in
xcrj
·
2022-12-29 23:08
深度学习
网络
深度学习
cnn
动手学深度学习
系列笔记02预备知识-02数据预处理pandas
读取数据集注释#@save是一个特殊的标记,该标记下方的函数、类或语句将保存在d2l软件包中,以便以后可以直接调用它们(例如d2l.mkdir_if_not_exist(path))而无需重新定义将数据集按行写入csv文件中。importosos.makedirs(os.path.join('/home','data'),exist_ok=True)#确保目录存在data_file=os.path
kira_Y
·
2022-12-29 20:19
动手学深度学习
pytorch
python
python
计算机视觉
《
动手学深度学习
》之深度卷积神经网络(AlexNet)
参考深度卷积神经网络(AlexNet)importtimeimporttorchfromtorchimportnn,optimimporttorchvisionimportsyssys.path.append("..")importd2lzh_pytorchasd2ldevice=torch.device('cuda'iftorch.cuda.is_available()else'cpu')cla
乾巽
·
2022-12-29 17:44
pytorch深度学习
神经网络
卷积
深度学习
卷积神经网络
动手学深度学习
(四十三)——机器翻译及其数据构建
文章目录一、机器翻译二、机器翻译数据集1.下载和预处理数据集1.1文本预处理1.2词元化[tokenization](https://zhuanlan.zhihu.com/p/371300063)1.3词汇表([wordembedding](https://www.zhihu.com/question/32275069))2.加载数据集小结练习 这篇Blog开始介绍翻译,都是NLP的相关内容,翻
留小星
·
2022-12-29 15:12
动手学深度学习:pytorch
机器翻译
深度学习
自然语言处理
【
动手学深度学习
v2】注意力机制—2 使用注意力机制Seq2Seq
使用注意力机制的seq2seq动机Seq2Seq+Attention(Bahdanau注意力模型)总结参考系列文章在【
动手学深度学习
v2】注意力机制—1注意力评分函数,讲解了注意力评分函数的两种形式,但未阐明何为
Hannah2425
·
2022-12-29 14:49
DeepLearning
深度学习
神经网络
人工智能
《
动手学深度学习
》tensorflow2.0版 第三章笔记
《
动手学深度学习
》tensorflow2.0版第三章笔记线性回归训练图像分类数据集(Fashion-MNIST)训练误差(trainingerror)和泛化误差(generalizationerror)
「已注销」
·
2022-12-28 18:08
神经网络与深度学习
tensorflow
深度学习
机器学习
python
神经网络
动手学深度学习
---从全连接层到卷积层篇
卷积神经网络1.从全连接层到卷积层前言:MLP适合处理表格数据,行对应样本,列对应特征。但对于高维感知数据,就会变得不实用(数据量过于庞大,需要大量GPU和耐心)采用卷积神经网路(convolutionalneuralnetworks,CNN)时机器学习利用自然图像中一些已知结构的创造性方法不变性不变性意味着即使目标的外观发生了某种变化,但是你依然可以把它识别出来。这对图像分类来说是一种很好的特性
yijie_01
·
2022-12-28 16:21
动手学深度学习
深度学习
计算机视觉
人工智能
动手学深度学习
之经典的卷积神经网络之VGG
VGGVGG块深vs宽5*5卷积3*3卷积深但窄效果更好VGG块3*3卷积(填充1)(n层,m通道)。也就是说一个VGG块中可以有n个卷积层,每个卷积层的通道数都是一样的2*2最大池化层(步幅2)。每个VGG块的最后一层VGG架构其实就是替换掉AlexNet的整个卷积的部分在多个VGG块之后连接全连接层不同次数的重复块得到不同的架构VGG-16,VGG-19…进度总结VGG有两个思想影响了后来的研
哈哈哈捧场王
·
2022-12-28 10:36
机器学习&深度学习
【
动手学深度学习
】使用块的网络(VGG)
经典卷积神经网络VGG介绍激活函数ReLu函数实现VGG-11tf.keras.layers.Conv2D()f.keras.layers.MaxPool2D()定义块卷积层部分全连接层tf.keras.layers.Flatten()tf.keras.layers.Dense()查看每个层输出的形状构建通道数较少的网络定义学习率、轮次和批大小训练结果介绍经典卷积神经网络的基本组成部分是下面的这个
往阳光走
·
2022-12-28 08:50
深度学习
网络
神经网络
【
动手学深度学习
PyTorch版】18 使用块的网络 VGG
上一篇请移步【
动手学深度学习
PyTorch版】17深度卷积神经网络AlexNet_水w的博客-CSDN博客目录一、使用块的网络VGG1.1AlexNet--->VGG◼VGG网络简介1.2VGG架构1.3
水w
·
2022-12-28 08:48
#
深度学习
深度学习
pytorch
python
神经网络
网络
Pytorch 使用块的网络 VGG
Pytorch使用块的网络VGG0.环境介绍环境使用Kaggle里免费建立的Notebook教程使用李沐老师的
动手学深度学习
网站和视频讲解小技巧:当遇到函数看不懂的时候可以按Shift+Tab查看函数详解
哇咔咔负负得正
·
2022-12-28 08:17
#
CV
pytorch
动手学深度学习
———使用块的网络VGG
1、VGG块VGG块的组成规律是:连续使用数个相同的填充为1、窗口形状为2×2的最大池化层。卷积层保持输入的高和宽不变,而池化层则对其减半。我们使用vgg_block函数来实现这个基础的VGG块,它可以指定卷积层的数量和输入输出通道数。2、VGG架构多个VGG块后接全连接层;不同次数的重复块得到不同的架构VGG-16、VGG-19,...3、VGG网络与AlexNet和LeNet一样,VGG网络由
橙子吖21
·
2022-12-28 08:17
动手学深度学习
深度学习
网络
cnn
神经网络
pytorch
20李沐
动手学深度学习
v2/参数管理
参数访问#单隐藏层MLP,参数获取importtorchfromtorchimportnnnet=nn.Sequential(nn.Linear(4,8),nn.ReLU(),nn.Linear(8,1))X=torch.rand(size=(2,4))net(X)#访问指定层所有参数#net[2]拿到0,1,2。拿到nn.Linear(8,1)#nn.Sequential(nn.Linear(4
xcrj
·
2022-12-28 06:25
深度学习
深度学习
python
神经网络
Pytorch入门(3)—— 构造网络模型
参考:
动手学深度学习
注意:由于本文是jupyter文档转换来的,代码不一定可以直接运行,有些注释是jupyter给出的交互结果,而非运行结果!!
云端FFF
·
2022-12-28 04:22
#
PyTorch
pytorch
深度学习
权重共享
模型构造
自定义层
04 数据操作 + 数据预处理【
动手学深度学习
v2】
04数据操作+数据预处理【
动手学深度学习
v2】P1数据操作N维数组样例N维数组是机器学习和神经网络的主要数据创建数组形状:例如3×4矩阵每个元素的数据类型:例如32位浮点数每个元素的值,例如全是0,或者随机数访问元素
程序员小勇
·
2022-12-28 01:03
动手学深度学习笔记(更新中)
pytorch
深度学习
机器学习
李沐
python
15李沐
动手学深度学习
v2/丢弃法 (dropout) 从0开始实现
importtorchfromtorchimportnnfromd2limporttorchasd2ldefdropout_layer(X,dropout):'''训练过程中,依概率dropout变化隐藏层的全连接层的输出'''assert0dropout).float()returnmask*X/(1.0-dropout)#测试dropout函数,float32的速度更快X=torch.aran
xcrj
·
2022-12-27 23:53
深度学习
深度学习
python
人工智能
循环神经网络的实现
参考8.5.循环神经网络的从零开始实现—
动手学深度学习
2.0.0documentation参考循环神经网络(MLP——>RNN)_流萤数点的博客-CSDN博客我们可以训练一个基于循环神经网络的字符级语言模型
流萤数点
·
2022-12-27 21:47
自然语言处理
rnn
人工智能
深度学习
循环神经网络的简洁实现
参考8.6.循环神经网络的简洁实现—
动手学深度学习
2.0.0documentation本节将展示如何使用深度学习框架的高级API提供的函数更有效地实现相同的语言模型。我们仍然从读取时光机器数据集开始。
流萤数点
·
2022-12-27 21:41
自然语言处理
rnn
深度学习
人工智能
动手学深度学习
之经典的卷积神经网络之AlexNet
AlexNetAlexNet本质是是一个更深更大的LeNet,本质上并没有什么区别主要的改进加入的丢弃发激活函数改为了ReLUAlexNet取的是MaxPooling改变了计算机视觉的观念,不在拘泥于人工抽取特征,二十一个端到端的一个学习AlexNet架构AlexNet的输入是一个224*224的矩阵,它的通道数为3,因为它是一个RGB的图片。第一个卷积层:它的卷积核的大小是11*11,通道数为9
哈哈哈捧场王
·
2022-12-27 07:32
机器学习&深度学习
第03周:吴恩达 Andrew Ng 机器学习
学习目标:完成过拟合问题与神经网络的理论
学习整理
笔记完成编程作业并整理学习内容:7过拟合问题7.1什么是过拟合过拟合问题出现在变量过多的时候,这时训练出的假设函数能很好地拟合训练集,所以此时的代价函数也可能非常接近于
MANDYBOOM
·
2022-12-27 06:49
机器学习
人工智能
深度学习
负采样及其在skip-gram中的实现
简介skip-gram(跳元模型)负采样算法结构取样方法简介本文参考了李沐老师在《
动手学深度学习
》中的代码,加入了自己的理解,希望能让各位更理解负采样在skip-gram中的应用。
苏炘
·
2022-12-26 12:50
深度学习
人工智能
自然语言处理
【
动手学深度学习
PyTorch版】4 多层感知机 + 代码实现
上一篇移步【
动手学深度学习
】3Softmax回归+损失函数_水w的博客-CSDN博客目录◼softlabel的训练策略一、感知机1.1感知机◼感知机◼训练感知机1.2感知机的收敛定理1.3感知机的问题:
水w
·
2022-12-26 08:56
#
深度学习
动手学深度学习
(Pytorch)1预备知识代码
第1章预备知识#-*-coding:utf-8-*-"""CreatedonSunAug1517:41:372021@author:23820"""importtorchprint("版本号为:{}".format(torch.__version__))tensor_a=torch.arange(0,12)print(tensor_a)print("张量的存储位置:{}".format(tenso
醉一心
·
2022-12-26 08:25
Python
机器学习
深度学习
人工智能
python
李沐 《
动手学深度学习
》学习笔记 (6)第一章 预备知识 第四节 微分
1.4微分1.4.1导数与微分#作用是当你调用matplotlib.pyplot的绘图函数plot()进行绘图的时候,#或者生成一个figure画布的时候,可以直接在你的pythonconsole里面生成图像。%matplotlibinlinefromIPythonimportdisplayfrommxnetimportnp,npxfromd2limportmxnetasd2lnpx.set_np
Artificial Idiots
·
2022-12-26 08:21
机器学习
李沐——
动手学深度学习
Pytorch版2.2节代码调试
目录1.矢量图显示函数use_svg_display()内部报错2.矢量图不显示1.矢量图显示函数use_svg_display()内部报错报错如下:DeprecationWarning:`set_matplotlib_formats`isdeprecatedsinceIPython7.23,directlyuse`matplotlib_inline.backend_inline.set_matp
bhdwxtyyds
·
2022-12-26 08:20
深度学习
pytorch
python
【
动手学深度学习
:卷积神经网络基础】【二维卷积层+填充和步幅+多输入通道和多输出通道+卷积层与全连接层的对比+卷积层的简洁实现+池化】
文章目录二维卷积层二维互相关运算二维卷积层互相关运算与卷积运算特征图与感受野填充和步幅填充步幅多输入通道和多输出通道多输入通道多输出通道1x1卷积层卷积层与全连接层的对比卷积层的简洁实现池化二维池化层池化层的简洁实现二维卷积层常用于处理图像数据。二维互相关运算二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数
LinGavinQ
·
2022-12-25 01:02
python
深度学习
Pytorch 卷积核填充和步幅、多输入多输出通道、池化层
Pytorch卷积层里的填充和步幅0.环境介绍环境使用Kaggle里免费建立的Notebook教程使用李沐老师的
动手学深度学习
网站和视频讲解小技巧:当遇到函数看不懂的时候可以按Shift+Tab查看函数详解
哇咔咔负负得正
·
2022-12-25 01:31
#
CV
pytorch
李沐
动手学深度学习
V2-VGG11模型和代码实现
1.VGG11虽然AlexNet证明深层神经网络卓有成效,但它没有提供一个通用的模板来指导后续的研究人员设计新的网络。研究人员开始从单个神经元的角度思考问题,发展到整个层,现在又转向块(不断使用重复层的模式)。1.1VGG块经典卷积神经网络的基本组成部分是下面的这个序列:带填充以保持分辨率(保持输入输出形状尺寸大小相同)的卷积层;非线性激活函数,如ReLU;汇聚层,如最大汇聚层。一个VGG块与之类
cv_lhp
·
2022-12-25 01:29
李沐动手学深度学习笔记
深度学习
神经网络
pytorch
机器学习
人工智能
动手学深度学习
(四十四)——Seq2Seq原理与实现
文章目录一、什么是seq2seq(序列到序列的学习)二、动手实现Seq2Seq1.编码器2.解码器3.损失函数4.训练5.预测6.预测和评估7.用训练好的Seq2Seq模型将英语翻译成法语三、总结一、什么是seq2seq(序列到序列的学习) 使用两个RNN设计Encoder-Decoder结构,并将其应用于机器翻译Sutskever.Vinyals.Le.2014,Cho.VanMerrienb
留小星
·
2022-12-24 19:31
深度学习
机器翻译
自然语言处理
hadoop
学习整理
——mapreduce数据分析案例(1)
有一份源数据文件,描述的是某餐饮公司各个分店在2019年和2020年的营业数据,源数据如下,请根据需求,编写MapReduce代码。劲松店,600,350,2019年劲松店,800,250,2020年王府井店,1900,600,2020年王府井店,2000,900,2019年回龙观店,6700,1800,2020年西单店,3000,1000,2019年西单店,5000,1000,2020年,350
Coder_Cjp
·
2022-12-24 18:15
#
大数据练习题
hadoop
大数据
mapreduce
java
动手学深度学习
——卷积层里的多个输入和输出通道
1、多个输入通道彩色图像可能有RGB三个通道,转化为灰度会丢失信息。每个通道都有一个卷积核,结果是所有通道卷积结果的和。用公式表示:2、多个输出通道无论有多少个输入通道,到目前为止我们只用到单输出通道;我们可以有多个三维卷积核,每个核生成一个输出通道。每个输出通道可以识别特定模式;输入通道核识别并组合输入中的模式。3、1x1的卷积层kh=kw=1是一个受欢迎的选择,他不识别空间模式,只是融合通道;
橙子吖21
·
2022-12-24 17:47
动手学深度学习
深度学习
cnn
人工智能
神经网络
pytorch
【Pytorch】Pytorch学习笔记01
一、准备工作官网:https://pytorch.org中文文档:https://pytorch.apachecn.org/#/docs/1.7/
动手学深度学习
:http://zh.d2l.ai/安装pytorch
KmBase
·
2022-12-24 15:50
#
Python
pytorch
学习
python
【李沐
动手学深度学习
】读书笔记 01前言
沐神的课非常好呀,很全面,包括了卷积神经网络的backbone、cv两个细分领域——目标检测和语义分割,原书链接在这里《
动手学深度学习
》。前言:机器学习基础背景想象一下,你正和你最聪明的一群
咯吱咯吱咕嘟咕嘟
·
2022-12-24 15:17
沐神之动手学深度学习课
学习
机器学习
李沐
动手学深度学习
V2-多尺度目标检测
一.多尺度目标检测以输入图像的每个像素为中心,生成多个锚框,这些锚框代表了图像不同区域的样本。然而,如果为每个像素都生成的锚框,最终可能会得到太多需要计算的锚框。想象一个561×728的输入图像,如果以每个像素为中心生成五个形状不同的锚框,就需要在图像上标记和预测超过200万个锚框(561×728×5)。减少图像上的锚框数量并不困难,比如可以在输入图像中均匀采样一小部分像素,并以它们为中心生成锚框
cv_lhp
·
2022-12-24 14:15
李沐动手学深度学习笔记
深度学习
目标检测
计算机视觉
pytorch
python
BERT微调finetune笔记
zhihu.com)详解Transformer(AttentionIsAllYouNeed)-知乎(zhihu.com)从Transformer到Bert-知乎(zhihu.com)14.10.预训练BERT—
动手学深度学习
Kakaluotuo
·
2022-12-24 14:50
深度学习
机器学习
pytorch
自然语言处理
Spring中事件机制学习总结
spring事件驱动模型
学习整理
我们在使用spring进行开发的时候,会有一些这样的需求,就是当我们在某些事件发生后,对这些事件有对应的相应来进行数据处理。
EvanJiemo
·
2022-12-24 00:04
spring
mvc
spring
机器学习初探
是个集成开发软件,写Python的NumPy(NumericalPython)是Python的一种开源的数值计算扩展Pandas是Python语言的一个扩展程序库,用于数据分析不得不说,这本书还对新手挺好的–>《
动手学深度学习
复杂的哈皮狗
·
2022-12-23 22:23
机器学习
机器学习
动手学深度学习
(三十五)——文本预处理(NLP)
文章目录文本预处理(Pre-processing)1.读取数据集2.标记化3.词汇4.整合上述功能总结文本预处理(Pre-processing)NLP中自然语言处理离不开对文本数据的预处理操作以方便后期神经网络的训练。通常文本预处理包含有:原始数据加载(rawdata)分词(segmentation)数据清洗(Cleaning)数据标准化(Normalization):Stemming/Lemma
留小星
·
2022-12-23 07:11
动手学深度学习:pytorch
自然语言处理
深度学习
文本预处理
李沐
动手学深度学习
V2-NLP文本预处理和代码实现
一.文本预处理1.文本预处理对于序列数据处理问题,上篇文章:李沐
动手学深度学习
V2-序列模型和代码实现评估了所需的统计工具和预测时面临的挑战,这样的数据存在许多种形式,文本是最常见例子之一。
cv_lhp
·
2022-12-23 07:40
李沐动手学深度学习笔记
深度学习
pytorch
nlp
自然语言处理
python
Pytorch 文本预处理
Pytorch文本预处理0.环境介绍环境使用Kaggle里免费建立的Notebook教程使用李沐老师的
动手学深度学习
网站和视频讲解小技巧:当遇到函数看不懂的时候可以按Shift+Tab查看函数详解。
哇咔咔负负得正
·
2022-12-22 19:33
#
NLP
pytorch
深度学习
python
李沐
动手学深度学习
V2-自然语言推断与数据集SNLI和代码实现
一.斯坦福自然语言推断(SNLI)数据集1.介绍自然语言推断(naturallanguageinference)主要研究假设(hypothesis)是否可以从前提(premise)中推断出来,其中两者都是文本序列。换言之,自然语言推断决定了一对文本序列之间的逻辑关系。这类关系通常分为三种类型:蕴涵(entailment):假设可以从前提中推断出来。矛盾(contradiction):假设的否定可以
cv_lhp
·
2022-12-22 16:27
李沐动手学深度学习笔记
深度学习
bert
bert微调
SNLI
自然语言处理
李沐
动手学深度学习
V2-LeNet模型和代码实现
1.LeNetLeNet是最早发布的卷积神经网络之一,因其在计算机视觉任务中的高效性能而受到广泛关注。这个模型是由AT&T贝尔实验室的研究员YannLeCun在1989年提出的(并以其命名),目的是识别图像中的手写数字。1.1LeNet架构:总体来看,LeNet由两个部分组成:卷积块(有两个卷积层组成)和全连接块(由三个全连接层组成),架构如下图所示。**每个卷积块中的基本单元是一个卷积层、一个s
cv_lhp
·
2022-12-22 14:49
李沐动手学深度学习笔记
深度学习
机器学习
神经网络
pytorch
计算机视觉
李沐
动手学深度学习
代码标注----4.4模型的选择
自己在学习的时候标注的,分享出来让大家学习时能够快速理解代码的意思,如有标注不足之处,敬请指正!importmathimportmatplotlib.pyplotaspltimportnumpyasnpimporttorchfromtorchimportnnfromd2limporttorchasd2l'--------------------------------制作人工数据(按照公示)---
漂泊的小森
·
2022-12-22 14:48
李沐动手学深度学习
深度学习
python
机器学习
GPU计算
《
动手学深度学习
pytorch》部分学习笔记,仅用作自己复习。GPU计算对复杂的神经⽹络和⼤规模的数据来说,使⽤CPU来计算可能不够⾼效。在本节中,我们将介绍如何使⽤单块NVIDIAGPU来计算。
Clark-dj
·
2022-12-22 08:54
#
动手深度学习
SPSS实现单样本t检验
总目录:SPSS
学习整理
SPSS实现单样本t检验目的适用情景数据处理SPSS操作SPSS输出结果分析知识点目的判断样本均值和指定检验值之间差异是否显著适用情景数据处理SPSS操作SPSS输出结果分析基本信息
sayasora
·
2022-12-22 00:25
SPSS学习整理
数据分析
spss
微信保护社交隐私的几个小细节
内容
学习整理
自知识星球——产品学徒(张佳)1、拉群:群主把30个以内的人来进一个群的时候,只要不在群内发消息,做任何事(改群名、再拉人、T人)被拉的人都不会知道。记住30这个上限。
Shao Kaiyang
·
2022-12-21 14:22
产品学徒
微信保护隐私细节
SPSS实现多因素方差分析
总目录:SPSS
学习整理
SPSS实现多因素方差分析目的适用情景数据处理SPSS操作SPSS输出结果分析知识点目的检验多个因素对因变量的作用和影响,以及因素共同作用的影响。
sayasora
·
2022-12-21 13:16
SPSS学习整理
数据分析
spss
PyTorch基本操作练习
实现了一些PyTorch基本操作,原理可参考《神经网络与深度学习》《
动手学深度学习
》中的内容。个人练习,切勿与任何作业和考试挂钩。代码运行在Python3.9.7版本以及Pytorch1.10版本中。
JMDou
·
2022-12-21 13:16
深度学习练习题
pytorch
python
人工智能
深度学习
动手学深度学习
Task05
Task051.卷积神经网络基础用一个边缘检测的例子来说明卷积过程:给定的filter在输入图像上进行平移,每移动到一个位置上就把filter和input重合位置上的两个像素值相乘,再把该位置上所有的乘积加和,得到一个新的数值,作为输出output对应位置的一个像素,由此也可以得到维度计算公式如下:(nh,kh)×(nw,kw)=(nh-kh+1,nw-kw+1)二维卷积层二维互相关(cross-
l852131652
·
2022-12-21 01:07
神经网络
卷积
深度学习
卷积神经网络
动手学深度学习
pytorch版-填坑-TypeError: normal() received an invalid combination of arguments
在8章的序列模型这里:%matplotlibinlineimporttorchfromtorchimportnnfromd2limporttorchasd2lT=1000#总共产⽣1000个点time=torch.arange(1,T+1,dtype=torch.float32)x=torch.sin(0.01*time)+torch.normal(0,0.2,(T,))d2l.plot(time
不爱写程序的程序猿
·
2022-12-20 15:46
python
深度学习
人工智能
上一页
25
26
27
28
29
30
31
32
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他