E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
【深度学习笔记】
【
深度学习笔记
(十六)】之tensorflow2中模型的保存与恢复
本文章由公号【开发小鸽】发布!欢迎关注!!!老规矩–妹妹镇楼:一.tensorflow2中模型的保存(一)概述Tensorflow2中提供了tf.train,Checkpoint这个变量保存与恢复类,可以使用save()和restore()方法将Tensorflow中所有包含CheckPointableState的对象进行保存和恢复。如,优化器tf.keras.optimizer,变量tf.Var
开发小鸽
·
2023-01-06 08:53
#
深度学习
python
tensorflow
深度学习
动手学
深度学习笔记
-线性回归的简洁实现
文章目录引入所需库生成带噪声的人造数据集随机取小批量函数定义线性回归模型(线性神经网络)初始化模型参数定义损失函数定义小批量随机梯度下降优化算法训练模块引入所需库importnumpyasnpimporttorchfromtorch.utilsimportdatafromd2limporttorchasd2lfromtorchimportnn#nn为神经网络的缩写生成带噪声的人造数据集#生成带噪声
lalula1999
·
2023-01-06 04:10
动手学深度学习笔记
深度学习
线性回归
神经网络
python
pytorch
深度学习笔记
4:线性回归+基础优化方法
线性回归应用:如何在美国买房(房价预测问题)房价预测一个简化模型假设1:影响房价的关键因素是卧室个数、卫生间个数、居住面积,记为x1,x2,x3假设2:成交价是关键因素的加权和(权重和偏差的实际值在后面决定)线性模型给定n维输入x=[x1,x2,…,xn]T线性模型有一个n维权重和一个标量偏差w=[w1,w2,…,wn]T,b输出是输入的加权和y=w1x1+w2x2+…+wnxn+b向量版本:y=
燏羡
·
2023-01-06 04:09
深度学习(pytorch)笔记
深度学习
线性回归
人工智能
动手学
深度学习笔记
-线性回归的从零开始实现
文章目录引入所需库生成带噪声的人造数据集随机取小批量函数定义线性回归模型定义损失函数定义小批量随机梯度下降优化算法初始化模型参数训练模块引入所需库若有ModuleNotFoundError:NoModulenamed'matplotlib_inline’错误,可参考博客生成带噪声的人造数据集#生成带噪声的人造数据集w=[2,-3.4]Tb=4.2defsynthetic_data(w,b,num_
lalula1999
·
2023-01-06 04:09
动手学深度学习笔记
深度学习
线性回归
python
pytorch
动手学
深度学习笔记
1-线性回归从0到1实现
fromIPythonimportdisplayfrommatplotlibimportpyplotaspltfrommxnetimportautograd,ndimportrandom#生成数据集,训练数据集样本数1000,输入个数特征数2num_inputs=2num_examples=1000#真实权重true_w=[2,-3.4]#偏差true_b=4.2features=nd.rando
输入法打可爱按第五
·
2023-01-06 04:09
动手学深度学习
深度学习
线性回归
python
动手学
深度学习笔记
第二章(预备知识)
研0深度学习小白,python也忘了很多,学习沐神的课程顺便记录一下笔记和自己遇到的一些疑问2.1数据操作求张量的形状和元素总数x=torch.arange(12)x.shape#torch.size(12)x.numel()#12reshape中的-1自动计算维度x.reshape(-1,4)==x.reshape(3,4)torch.randntorch.randn(3,4)#3行4列的均值为
冬青庭院
·
2023-01-06 04:09
我的动手学深度学习笔记
深度学习
python
numpy
动手学
深度学习笔记
第三章(线性回归网络)
3.1线性网络偏置目的是当所有特征都为0时,预测值应该为多少。线性公式就是一种放射变化,放射变化是通过加权和对特征进行线性变换,而偏置项则是来进行平移。梯度下降小批量样本回归:随机抽样一个小批量的训练样本,然后计算小批量的平均损失关于模型参数的导数(梯度)。复习python面向对象:类有一个名为init()的特殊方法(构造方法),类的实例化操作会自动调用init()方法。如下实例化类MyClass
冬青庭院
·
2023-01-06 04:08
我的动手学深度学习笔记
深度学习
线性回归
python
2020-3-7
深度学习笔记
13 - 线性因子模型 2(慢特征分析SFA,稀疏编码,PCA的流形解释)
第十三章线性因子模型官网原版2020-3-6
深度学习笔记
13-线性因子模型1(降维技术:概率主成分分析PCA和因子分析,独立成分分析ICA)慢特征分析(SlowFeatureAnalysis,SFA)慢特征分析是使用来自时间信号的信息学习不变特征的线性因子模型
没人不认识我
·
2023-01-05 22:45
深度学习
IT
2020-3-6
深度学习笔记
13 - 线性因子模型 1(降维技术:概率主成分分析PCA和因子分析,独立成分分析ICA)
第十三章线性因子模型官网原版许多深度学习算法被设计为处理无监督学习问题,但不像深度学习已经在很大程度上解决了各种任务的监督学习问题,没有一个算法能以同样的方式真正解决无监督学习问题。无监督学习困难的核心原因是被建模的随机变量的高维度。这带来了两个不同的挑战:统计挑战和计算挑战。统计挑战与泛化相关:我们可能想要区分的配置数会随着感兴趣的维度数指数增长,并且这快速变得比可能具有的(或者在有限计算资源下
没人不认识我
·
2023-01-05 22:44
深度学习
IT
深度学习 颜色识别_吴恩达
深度学习笔记
(136) | 语音识别
语音识别(Speechrecognition)现今,最令人振奋的发展之一,就是seq2seq模型(sequence-to-sequencemodels)在语音识别方面准确性有了很大的提升。这门课程已经接近尾声,现在我想通过剩下笔记,来告诉你们,seq2seq模型是如何应用于音频数据的(audiodata),比如语音(thespeech)。什么是语音视频问题呢?现在你有一个音频片段x(anaudio
weixin_39747577
·
2023-01-05 11:53
深度学习
颜色识别
深度学习笔记
(2)——神经网络的组成
神经网络由这几部分组成1、层2、输入数据和相应的目标3、损失函数:用于学习的反馈信号4、优化器:决定学习过程如何进行层:神经网络的基本数据结构;图像数据保留在4D张量中,一般用二维卷积层来处理损失函数和优化器:损失函数——在训练过程中需要将其最小化,它能衡量当前任务是否成功完成优化器——决定如何根据损失函数对神经网络的参数进行更新,它执行的是随机梯度下降的某个变体。神经网络的优化过程:1)抽取训练
岁月静好tjj
·
2023-01-05 09:58
深度学习笔记
神经网络
深度学习
深度学习笔记
(一)——什么是神经网络
生物学中的神经元的定义神经元有很多种类,下图就是其中的一种,锥体神经元。它由三部分组成,分别是树突,胞体和轴突。树突是接受输入,轴突是用于输出的。神经元的树突在接收到特定的输入刺激后,其胞体就会被激活,并通过轴突向其它神经元或神经元群输出兴奋,从而导致更多的神经元被激活,形成此起彼伏的神经元网络激活现象,而神经元间的有序激活就是产生我们的思维和行为的根本原因。神经元由静息态切换为发放动作电位状态,
yangmishiwonvshen
·
2023-01-05 09:43
深度学习
神经网络
深度学习笔记
——生成模型
什么是生成模型生成模型可以描述一个生成数据的模型,属于一种概率模型。通过这个模型我们可生成不包含在训练数据集中的新的数据。每次生成模型要输出不同的内容。如果说某些特定的图片服从某些概率分布,生成模型就是尽可能的去模仿这个概率分布产生新的图像。生成模型和判别模型的区别判别模型可以简单的理解为分类生成模型的数据集是没有和判别模型类似的lable的(即标记信息,生成模型也是可以有标签的,生成模型可以根据
不愿透露姓名的小段
·
2023-01-05 02:28
深度学习
人工智能
Transformer - PyTorch
动手学
深度学习笔记
一、模型1.基于位置的前馈神经网络2.残差连接和层归一化二、编码器三、解码器四、训练和预测一、模型Transformer模型是完全基于注意力机制,所以在学习Transformer之前要知道什么是注意力
葫芦娃啊啊啊啊
·
2023-01-04 20:39
深度学习知识点
transformer
pytorch
深度学习
机器翻译
深度学习笔记
(1):caffe 添加新层 attention LSTM layer和LSTM layer代码精读
总结一下最近的工作:LSTMlayer代码,caffe加入新层AttentionLSTMlayerLSTMlayer关键代码如下,可以参考图1进行阅读,图一来自博客namespacecaffe{templatevoidLSTMLayer::RecurrentInputBlobNames(vector*names)const{names->resize(2);(*names)[0]="h_0";(*
少年冬郎
·
2023-01-04 14:20
lstm
LSTM
深度学习
caffe
深度学习笔记
-自适应选择感受野
概述最近对卷积神经网络中的“自适应调整感受野”这样的操作很感兴趣,从字面的意思可以理解:如果可以自适应的调整感受野的大小,其背后说得应该就是自适应的选择卷积核的大小。看上去不难理解,但是仔细想想,大多的网络模型,他的BankBone和Neck和Prediction三个网络组成了神经网络,作为特征提取,卷积核是关键因素,卷积核都是固定设置的,那么如何做到对于输入的特征图,做到自适应的选择卷积核。所以
勇敢牛牛@
·
2023-01-04 10:39
深度学习专栏
深度学习
神经网络
[
深度学习笔记
一] batch大小对训练的影响
batch的选择,决定的是梯度下降的方向。对小的数据集,可以采用FullBatchSize,这样可以更加准确地找出最佳的梯度方向。但是不同的权重的梯度值差距巨大,因此选择全局学习率困难。可以使用Rprop单独更新各权值对大的数据集,全部载入数据,会被内存大小限制,Rprop会因为采样差异性,导致梯度互相抵消。在合理范围内,增大batch,可以提高内存利用率,更快地跑完一次数据集,下降方向更准,减少
小牛有梦想
·
2023-01-04 08:57
机器学习
机器学习
深度学习笔记
01
1、下周计划(周四之前):完成深度学习的基本环境搭建。包括在Linux环境中安装显卡驱动、CUDA驱动、CUDNN、Anaconda,利用Anaconda创建虚拟环境,虚拟环境下安装Pytorch库。注意Pytorch安装gpu版本,并与显卡要求的版本对应。显卡驱动安装:(46条消息)安装linux下显卡驱动_木黎.的博客-CSDN博客_linux安装显卡驱动CUDA等环境配置:(46条消息)【L
laihan1227
·
2023-01-03 08:01
深度学习
pytorch
人工智能
台大应用
深度学习笔记
deeplearningend-to-endtraining1.神经元1.1为什么需要bias?为了给对应位置一个prior,给它一个初始值,b越大,σ(z)=11+e−z\sigma(z)=\frac{1}{1+e^{-z}}σ(z)=1+e−z1越大,越趋向于1.多层神经网络:神经网络输入输出关系3.激活函数3.1为啥要非线性激活函数?4.模型评估:LossFunctioncrossentro
紫砂痕
·
2023-01-03 06:58
深度学习
深度学习
人工智能
【学习周报】研究生
深度学习笔记
9.12~9.17
学习目标:深度学习花书一篇A类会议论文学习内容:蒙特卡罗方法——深度学习第十七章GL-RG:Global-LocalRepresentationGranularityforVideoCaptioning(IJCAI2022)了解退火算法认识MSR-VTT和MSVD了解BLEU,METEOR,ROUGE,CIDEr四种评价指标了解强化学习学习时间:9.12~9.17学习输出:蒙特卡罗方法——深度学习
Bohemian_mc
·
2023-01-02 18:52
深度学习
学习
机器学习
深度学习笔记
1:RNN神经网络及实现
首先贴出一张一般的神经网络应该有的结构图:输入层是数据输入层,隐层是模型训练的权重,输出层是经过激活函数后得出的特征。在深度学习这个领域之中,既然我们已经有了比较完善的人工神经网络和卷积神经网络,那为什么还要用循环神经网络呢?我们知道,一张图片中,各个像素点之间是没有逻辑关系的,我们输入一张图片,无论是在左上角开始输入还是在右下角输入,最终得到的结果分类都是一样的,这也就说明图像之间没有存在必然的
陆撄宁
·
2023-01-01 19:40
神经网络
RNN神经网络
深度学习笔记
-----增加网络不变性的方法(对空间变换网络和数据增强的方法进行了总结)
目录1,常见的变换2,从模型本身获取不变性2.1从网络结构获取不变性2.2学习数据变换2.2.1为什么提出空间变换网络STN(Why)2.2.2STN是什么(What)2.2.3STN是怎么做的(How)2.2.4STN小结3从数据中学习不变性3.1空间转换(随机尺寸,裁剪,翻转,旋转任意角度...)3.2像素内容变换(亮度,色度,饱和度,颜色扰动等)3.3多样本合成数据增强(SMOTE,Samp
YOULANSHENGMENG
·
2023-01-01 13:45
深度学习基础知识
深度学习
网络
人工智能
深度学习笔记
6 卷积神经网络
目录1.概念2.结构及每层详解3.CNN特征4.卷积神经网络的流程5.可变形卷积(DCN)6.一些小问题1.1x1卷积作用2.卷积层和池化层有什么区别?3.怎样才能减少卷积层参数量4.瓶颈结构和沙漏结构5.全连接、局部连接、全卷积与局部卷积1.概念卷积神经网络(ConvolutionalNeuralNetworks,CNN),由纽约大学的YannLecun于1998年提出,其本质是一个多层感知机,
李同学_道阻且行
·
2022-12-31 15:21
深度学习笔记(理论)
深度学习
cnn
【
深度学习笔记
(十四)】之Tensorflow2构建多层感知机网络并训练,测试
本文章由公号【开发小鸽】发布!欢迎关注!!!老规矩–妹妹镇楼:一.Tensorflow2构建网络以及训练,测试流程使用tf,keras,datasets获取数据集并预处理使用tf.keras,Model和tf.keras.layers搭建模型训练模型,使用tf.keras.losses计算损失函数,使用tf.keras.optimizer优化模型测试模型,使用tf.keras.metrics计算评
开发小鸽
·
2022-12-31 11:30
#
深度学习
tensorflow
深度学习
唐宇迪
深度学习笔记
【b站视频—唐宇迪深度学习网址】https://www.bilibili.com/video/BV1CE411Q7dn?from=search&seid=4714546485764005493多层感知机(MLP)多个神经元以全连接层次相连被称为前馈神经网络万能逼近原理:非线性函数的有限次复合能逼近任何函数。MLP的困境:目标函数通常为非凸函数;极容易陷入局部最优值;网络层数增加后,存在梯度消失或梯
怀着对美好生活的向往而努力
·
2022-12-31 08:52
学习笔记
神经网络
机器学习
【
深度学习笔记
】PyTorch的torch.cat()函数
一、定义torch.cat是将两个张量(tensor)拼接在一起,cat是concatnate的意思,即拼接,联系在一起。二、例子三、注意事项使用torch.cat((A,B),dim)时,除拼接维数dim数值可不同外其余维数数值需相同,方能对齐。
月满星沉
·
2022-12-30 23:07
学习笔记
深度学习
深度学习
深度学习笔记
(李宏毅)DataWhale八月组队
文章目录机器学习介绍回归模型步骤模型假设-线性模型模型评估-损失函数最佳模型-梯度下降验证模型好坏ERRORbias大,欠拟合var大,过拟合K-fold交叉验证梯度下降法(GD)调整学习率自适应学习率Adagrad算法RMSProp算法Adam=RMSProp+MomentumLearningRateScheduling随机梯度下降(SGD)特征缩放(FeatureNormalization)标
zhaoliguaner
·
2022-12-30 11:22
ML
人工智能
动手
深度学习笔记
(三十五)6.5. 汇聚层
动手
深度学习笔记
(三十五)6.5.汇聚层6.卷积神经网络6.5.汇聚层6.5.1.最大汇聚层和平均汇聚层6.5.2.填充和步幅6.5.3.多个通道6.5.4.小结6.5.5.练习6.卷积神经网络6.5.
落花逐流水
·
2022-12-30 07:41
pytorch实践
pytorch
pytorch
计算机视觉与
深度学习笔记
鲁鹏老师的课十分紧凑、思路十分清晰、简明扼要、一气呵成,充满激情、十分推荐官方资料网站CV-XUEBAhttps://cv-xueba.club/点击课程资源有下图:点下载就能获取课件,速度极快内容示例:其它渠道:lulu计算机视觉(北邮-鲁鹏)课程总结-知乎(zhihu.com)点这个链接,可以找到以下信息:详情如下:推荐两个高质量笔记:但是这两个笔记都只更新到2020年,最多到第十四讲就是说这
Cai-Gbro
·
2022-12-30 07:09
计算机视觉与深度学习笔记
深度学习
计算机视觉
人工智能
动手
深度学习笔记
(四十一)7.5. 批量规范化
动手
深度学习笔记
(四十一)7.5.批量规范化7.5.批量规范化7.5.1.训练深层网络7.5.2.批量规范化层7.5.2.1.全连接层7.5.2.2.卷积层7.5.2.3.预测过程中的批量规范化7.5.3
落花逐流水
·
2022-12-30 07:38
pytorch实践
深度学习
深度学习笔记
(二):backpropagation算法
backpropagation算法原理Backpropagation核心解决的问题:∂C/∂w和∂C/∂b的计算,针对cost函数Cω324:ω243:表示第从第(3-1)层的的第4个神经元到第3层的第2个神经元的权重weightb23:b32:表示第2层的第3个神经元的偏向bais正向传播公式:αlj=σ(∑kωljkαl−1k+blj)αjl=σ(∑kωjklαkl−1+bjl)分为两步:1.
放不完的风筝
·
2022-12-30 03:11
深度学习
深度学习
backpropagation
反向传播
PyTorch
深度学习笔记
-线性模型
1.DataSet数据集2.Model选择模型3.Training模型训练4.inferring推理
shmilyhnhb
·
2022-12-30 02:47
深度学习
pytorch
动手
深度学习笔记
(四十)7.4. 含并行连结的网络(GoogLeNet)
动手
深度学习笔记
(四十)7.4.含并行连结的网络(GoogLeNet)7.4.含并行连结的网络(GoogLeNet)7.4.1.Inception块7.4.2.GoogLeNet模型7.4.3.训练模型
落花逐流水
·
2022-12-29 23:39
pytorch实践
pytorch
PyTorch
深度学习笔记
(八)Transforms的使用
课程学习笔记,课程链接一、Transforms的结构及用法torchvision中的transforms主要是对图片进行一些变换。tranforms对应tranforms.py文件,里面定义了很多类,输入一个图片对象,返回经过处理的图片对象。transforms更多指的是python文件,transforms.py就像一个工具箱,里面定义的各种类就像各种工具,特定格式的图片就是输入对象,经过工具处
小于同学饿了
·
2022-12-29 23:04
PyTorch
python
pytorch
深度学习
自然语言处理与词嵌入-吴恩达
深度学习笔记
文章目录自然语言处理与词嵌入词汇表征(WordRepresentation)Visualizingwordembeddings——t-SNE算法PropertiesofWordEmbeddings——CosinesimilarityEmbeddingmatrix学习词嵌入(LearningWordEmbeddings)Word2VecSkip-Gram模型负采样(NegativeSampling)
PengxiangZhou
·
2022-12-29 23:29
深度学习
深度学习
nlp
自然语言处理
深度学习笔记
:为什么(预)特征提取不能与数据增强结合使用
关于这个方法的实验参见:
深度学习笔记
:利用预训练模型之特征提取训练小数据集上的图像分类器http
笨牛慢耕
·
2022-12-29 16:11
深度学习
深度学习
cnn
预训练模型
特征提取
数据增强
深度学习笔记
:在小数据集上从头训练卷积神经网络
目录0.前言1.数据下载和预处理¶2.搭建一个小的卷积网络3.数据预处理4.模型训练¶5.在测试集进行模型性能评估6.小结¶0.前言本文(以及接下来的几篇)介绍如何搭建一个卷积神经网络用于图像分类的深度学习问题,尤其是再训练数据集比较小的场合。通常来说,深度学习需要大量的数据进行训练,尤其是像在图像处理这种通常数据维度非常高的场合。但是当你没有一个足够大的数据集进行训练的时候应该怎么办呢?解决训练
笨牛慢耕
·
2022-12-29 16:10
深度学习
深度学习
cnn
图像分类
过拟合
python
深度学习笔记
:利用数据增强在小数据集上从头训练卷积神经网络
目录0.前言1.数据增强处理2.为什么要数据增强?3.模型训练4.测试集上的性能5.小结0.前言本文(以及接下来的几篇)介绍如何搭建一个卷积神经网络用于图像分类的深度学习问题,尤其是再训练数据集比较小的场合。通常来说,深度学习需要大量的数据进行训练,尤其是像在图像处理这种通常数据维度非常高的场合。但是当你没有一个足够大的数据集进行训练的时候应该怎么办呢?解决训练数据集太小的方法通常有两种:(1)使
笨牛慢耕
·
2022-12-29 16:10
深度学习
深度学习
cnn
数据增强
图像分类
过拟合
深度学习笔记
:利用预训练模型之特征提取训练小数据集上的图像分类器
目录0.前言1.为什么可以用预训练模型?1.1特征提取1.2模型微调2.加载预训练模型3.特征提取4.训练以及评估4.1训练4.2loss和accuracy曲线4.3.在测试集进行模型性能评估5.小结0.前言本文(以及接下来的几篇)介绍如何搭建一个卷积神经网络用于图像分类的深度学习问题,尤其是再训练数据集比较小的场合。通常来说,深度学习需要大量的数据进行训练,尤其是像在图像处理这种通常数据维度非常
笨牛慢耕
·
2022-12-29 16:10
深度学习
深度学习
卷积神经网络
预训练模型
VGG16
特征提取
深度学习笔记
:使用预训练模型之模型微调+数据增强
目录0.前言1.模型微调的步骤2.在已经训练好的基网络(basenetwork)上添加了自定义网络3.数据生成4.冻结基网络,训练所添加的部分5.释放基网络最后若干层,重新训练6.总结7.Reference0.前言本系列介绍如何搭建一个卷积神经网络用于图像分类的深度学习问题,尤其是再训练数据集比较小的场合。通常来说,深度学习需要大量的数据进行训练,尤其是像在图像处理这种通常数据维度非常高的场合。但
笨牛慢耕
·
2022-12-29 16:38
深度学习
深度学习
人工智能
cnn
预训练模型
模型微调
深度学习笔记
-快速查看torchvision中的模型架构
在模型创建的时候,经常需要对模型进行修改,修改的时候需要查看模型架构。下面使用终端中调用IPython的方法对torchvision中的模型架构进行展示查询代码:首先ipython激活ipythonfromtorchvisionimportmodelsprint(models.resnet152())注意:resnet152后面要加()
地表最菜研究生
·
2022-12-29 12:52
深度学习笔记
深度学习
架构
人工智能
深度学习笔记
(四):神经网络之链式法则详解
简单的说链式法则就是原本y对x求偏导,但是由于过程较为复杂,我们引入了一个中间层z,先利用y对z求偏导,在乘上z对x求偏导,这样会使整个计算更为简单。作用:通过链式法则我们就可以把最后一层的误差,一层一层的输出到中间层上面去,从而得到中间层的梯度信息,通过梯度信息我们就能很好的更新权值,从而达到更好的优化效果。从上面可以知道E为最右边,当E对w1做偏微分,可以更新w1;同理E对w2做偏微分,就更新
ZZY_dl
·
2022-12-29 12:33
深度学习
神经网络
python
深度学习
深度学习笔记
:感知机
感知机(perceptron)为神经网络的起源算法。感知机接受多个输入信号,输出一个信号。感知机信号只有0和1。在上图的感知机中,x1和x2两个输入信号会分别乘以其对应权重(weight)w1和w2,传入神经元。神经元计算传来信号综合,当总和超过某一阈值时输出1,否则输出0。阈值一般用θ表示为了后续了解神经网络,我们把θ改为-b,其中b被称为偏置。感知机计算输入信号和偏置和,如果和大于0输出1,否
Raine_Yang
·
2022-12-29 12:00
人工智能
实习记录
深度学习
python
人工智能
感知机
深度学习笔记
:python的numpy和matplotlib库
1numpy库numpy为python数学计算库,里面的数组类提供大量便捷的数组和矩阵运算方法创建numpy数组:importnumpyasnpx=np.array([1.0,2.0,3.0])创建二维数组:importnumpyasnpa=np.array([[1,2],[3,4]])a.shape#output:(2,2)a.dtype#output:dtype('int64')shape:查
Raine_Yang
·
2022-12-29 12:30
人工智能
实习记录
numpy
matplotlib
python
深度学习
开发语言
深度学习笔记
:神经网络(1)
对于感知机相关内容,可以参考我上一篇文章:https://blog.csdn.net/Raine_Yang/article/details/128461600?spm=1001.2014.3001.5501在图示中,最左边一列为输入层,最右边一列为输出层,中间为中间层,也叫隐藏层。一般把输入层到输出层以此称为第0层,第1层,第2层等对于感知机,我们将输入和权重乘积相加并和阈值比较,阈值又可以表示为
Raine_Yang
·
2022-12-29 12:57
人工智能
实习记录
深度学习
神经网络
python
矩阵
卷积神经网络需不需要Linux,【连载】
深度学习笔记
9:卷积神经网络(CNN)入门...
前面的八篇学习笔记,基本上都是围绕着深度神经网络(DNN)和全连接网络(FCN)在学习。从本篇开始,将带着大家一起学习和研究深度学习的另一个主题——卷积神经网络(ConvolutionalNeuralNetwork),也就是我们平常眼熟的CNN。卷积神经网络作为当前计算机视觉领域的核心技术,发展到如今已是枝繁叶茂。笔者对于这一块的初步打算是从卷积网络的基本原理讲起,将卷积网络的前向传播和反向传播过
岩笑
·
2022-12-28 08:49
卷积神经网络需不需要Linux
深度学习笔记
- FCN全卷积神经网络
感受域感受野的计算公式:RFl+1=RFl+(kernel_size-1)×stridelayer1的感受野:RF1=1layer2的感受野:RF2=1+(3-1)×1=3layer3的感受野:RF2=3+(3-1)×1=5感受野越大,分割时获取的全局信息越多,分割越准确。存在的问题在全卷积神经网络中感受域问题存在和熊掌不可兼得的问题:增大stride能够获得更大的感受野,但同时会丢失图像中的信息
地表最菜研究生
·
2022-12-28 08:48
深度学习笔记
深度学习
深度学习笔记
(基础篇)——(六)全卷积神经网络(FCN)
通常CNN在卷积层之后会接上若干个全连接层,将卷积层产生的特征图(FeatureMap)映射成一个固定长度的特征向量进行分类。以AlexNet为代表的经典CNN结构适合于图像级的分类和回归任务,因为它们最后都期望得到整个输入图像的一个数值描述,如AlexNet的ImageNet模型输出一个1000维的向量,表示输入图像属于每一类的概率。例如,图4.15中的猫,输入AlexNet,得到一个长为100
马大哈先生
·
2022-12-28 08:47
深度学习
CNN
动手
深度学习笔记
(三十八)7.2. 使用块的网络(VGG)
动手
深度学习笔记
(三十八)7.2.使用块的网络(VGG)7.2.使用块的网络(VGG)7.2.1.VGG块7.2.2.VGG网络7.2.3.训练模型7.2.4.小结7.2.5.练习7.2.使用块的网络(
落花逐流水
·
2022-12-28 08:46
pytorch实践
pytorch
深度学习笔记
012:AlexNet+.nn.Sequential构建神经网络使用实例+object to parameter ‘0’ (torch.nn.Parameter or None……
AlexNet对原始图片进行了数据增强:随机截取,亮度与色温的改变对原始图片进行了数据增强:随机截取,亮度与色温的改变对原始图片进行了数据增强:随机截取,亮度与色温的改变torch.nn.Sequential源码链接nn.SequentialAsequentialcontainer.Moduleswillbeaddedtoitintheordertheyarepassedintheconstruc
FakeOccupational
·
2022-12-28 07:31
深度学习
深度学习
pytorch
人工智能
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他