E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CNN-
卷积神经网络
CNN-
猫狗预测
卷积:轮廓特征池化:保留核心信息,实现降维缩减fromkeras.preprocessing.imageimportImageDataGenerator#加载数据train_datagen=ImageDataGenerator(rescale=1./255)trainning_set=train_datagen.flow_from_directory("datas/dataset/training
y_7539
·
2024-01-12 08:45
CNN-
[deep learning with python]学习笔记
在学习笔记P20-CNN中已经介绍了CNN的一些知识,这篇主要是补充和更深程度的梳理:上文中提到"从效果上来看,卷积层相比于全连接层减少了参数、实现了参数共享。”即,本质上卷积和全连接的区别是,全连接层从输入特征空间中学习的是全局模式,而卷积层学习到的是局部模式,对于图像来说,学到的就是输入图像的二维小窗口(filter)中发现的模式。这个重要的特性使卷积神经网络具有如下两个性质:1)卷积网络学习
幸运六叶草
·
2023-11-19 15:24
深度学习
人工智能之机器学习篇
CNN-
卷积神经网络
一、基本的神经网络结构神经网络其实就是按照一定规则连接起来的多个神经元,输入向量的维度和输入层(InputLayer)神经元个数相同,分类问题的类别个数决定输入层(OutputLazyer)的神经元个数。第N层的神经元与第N-1层的所有神经元连接,称为全连接,输入层和输出层之间的层叫做隐藏层(HIddenLayer),因为它们对于外部来说是不可见的,层与层的每条连接上都有一个权值。然而,用全连接神
学AI的同学
·
2023-11-08 05:21
深度学习
CNN-
卷积操作pytorch实现
一、导入需要的模块importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFimportnumpyasnp二、选择MNIST数据集,图像大小为28X28,通过卷积操作转换向量。三、创建两套卷积核以及定义池化层,dropout层classNet(nn.Module):def__init__(self):super().__init__()#
学AI的同学
·
2023-10-23 15:32
深度学习
cnn
深度学习
pytorch
Tensorflow 入门手册(代码与原理释义)
人工智能与深度学习-人工智能={机器学习,........else}-机器学习={深度学习(表示学习),........else}·神经网络·卷积神经网络(ConvolutionalNeuralNetworks)
CNN
码农邦
·
2023-10-12 00:51
Python
Python
tensorflow
【深度学习-卷积神经网络
CNN-
基础】
文章目录发展历史卷积神经网络的应用领域卷积的原理和作用卷积和传统的神经网络的区别卷积网络的整体架构输入层卷积层池化层全连接层卷积和池化叠加多层卷积可以处理什么类型的数据卷积的超参数卷积最大的优势卷积的细节卷积的原理卷积的参数卷积的次数步长卷积核尺寸边缘填充卷积核个数卷积的特征尺寸计算卷积参数共享最大池化卷积的层数感受野本文介绍深度学习中极为重要的一个神经网络CNN,卷积神经网络发展历史最早98年y
y_dd
·
2023-07-24 16:56
深度学习
cnn
人工智能
卷积神经网络
CNN-
池化层
池化层(Poolinglayer)在CNN中负责特征选择,池化层通常也叫做子采样(subsampling)或降采样(Downsampling)。对输入的特征图(FeatureMap)进行压缩,一方面使特征图变小,简化网络计算复杂度和所需显存;一方面进行特征压缩,提取主要特征。就是将输入图像进行缩小,减少像素信息,只保留重要信息。池化层会不断地减小数据的空间大小,往往是用在卷积层之后,通过池化层来降
好菜一男的
·
2023-06-21 07:43
cnn
网络
人工智能
MLP-Mixer论文与代码阅读
不得不说,MLP->
CNN-
>Transformer->MLP,CV是个循环还是螺旋上升?
黑洞是不黑
·
2023-04-01 07:55
图像分割
神经网络RNN,CNN,DNN-MLP,LSTM 详解
神经网络的变种目前有,如误差反向传播(BackPropagation,BP)神经网路、概率神经网络、RNN-循环神经网络DNN-深度神经网络
CNN-
卷积神经网络(-适用于图像识别)、LSTM-时间递归神经网络
@ni,study
·
2023-03-29 14:25
机器学习
神经网络
深度学习
人工智能
python
机器学习
干货: 分享20个学习英语的网站,马上收藏起来!
cnn-
美国的4大新闻媒体之一。scientificamerican-美国的科普杂志economist-经济学人,大名鼎鼎。。一份英国的新闻周报nature-重大科研成果发
有智不在年糕
·
2023-03-14 03:12
PSO粒子群优化
CNN-
优化神经网络神经元个数dropout和batch_size等超参数
1、摘要本文主要讲解:PSO粒子群优化-
CNN-
优化神经网络神经元个数dropout和batch_size,目标为对沪深300价格进行预测主要思路:PSOParameters:粒子数量、搜索维度、所有粒子的位置和速度
AI信仰者
·
2023-02-01 07:50
时序预测
参数优化
群体优化算法
神经网络
cnn
PSO
超参数优化
神经元个数
Deep Learning Networks:
CNN-
, RNN-
*没有详细展开,只是做一个整理*持续整理中年份表:yearBasesCNN-RNN-其他1974BP1986JordanNet1989UAT1990ElmanNet1993SN1997BRNNLSTM1998LeNet52010ReLU2012DropoutDAAlexNet2014R-CNNSPPNetNINGRUGANAttention2015BNVGGFastR-CNNResNetFCN20
gogottt
·
2023-01-22 08:51
DL
cnn
深度学习
神经网络
rnn
CNN-
卷积核大小是奇数的原因
绝大多数卷积核的大小尺寸都是奇数,类似最常见的3×3、5×5等,那么为什么不会出现2×2或者4×4大小的卷积核呢?一卷积核的最大作用就是将输入的图像数据提取成特征的形式并输出,关键就是提取操作。我们假设输入的图像数据是n×nn\timesnn×n的,且不是彩色图片,也就是它的通道数为1。设卷积核的大小为m×mm\timesmm×m,这里我们可以看到,卷积核和输入都是方阵。设卷积核在输入数据上的移动
Pijriler
·
2023-01-08 15:14
机器学习笔记
文本分类中CNN-LSTM融合原理
怎么把CNN结合LSTM做文本分类,宏观的看,我以为有三种方法:
CNN-
>LSTM:将文本先经过CNN提取局部特征,再用LSTM提取这些局部特征的长距离特征,再经变换输入全连接层。
NLP饶了我
·
2023-01-06 17:36
CNN
LSTM
NLP
神经网络
NLP CNN
CNN-
卷积层(参数,不同维度下的特征提取)卷积核的通道数和输入数据的通道数一致,卷积核个数等于输出通道数
CNN-
池化层摊平(Flatten)在test-CNN中卷积核宽度是与词向量的维度一致用卷积核进行卷积时
内蒙金刚狼
·
2022-12-22 15:57
NLP
打通tensorflow版Unet_v1代码
目录知识积累:代码调试:构建Unet网络:1.Conv2DModelCheckpointmodel.fit()代码data.pyunet.py运行情况最终结果(必还有优化的空间)知识积累:卷积、池化->
CNN
WRStop
·
2022-12-08 00:33
图像分割
图像处理
tensorflow
Listen,Attend,and Spell(LAS)——李宏毅人类语言处理学习笔记3
ListenEncoder目标:去掉noises,提取出相关信息encoder有很多做法:CNN见文章:
CNN-
卷积神经网络self-attention见文章self-attentionPyramidRNN
我是小蔡呀~~~
·
2022-12-02 20:25
李宏毅人类语言处理
学习
深度学习
神经网络
深度学习- 卷积神经网络(基础篇)Basic
CNN-
自用笔记8
上一讲我们介绍的全连接的神经网络所谓的全连接就是说网络里全都是用的线性层,如果我们的网络全都是这种线性层串联起来,我们就把这种网络叫做全连接的网络接下来我们介绍一种处理图像的卷积的神经网络,卷积层他能保留图像的空间特征。简单介绍一下先是对输入的图像进行卷积,然后进行池化下采样,再进行卷积,再进行池化下采样,再进行view变成一位的tensor,再进行全连接层最后输出十维的张量类型。经过卷积输出的值
松松酱
·
2022-12-01 08:08
深度学习
pytorch
深度学习
pytorch
神经网络:多层感知器-MLP
1.神经网络的种类:误差反向传播(BackPropagation,BP)神经网络概率神经网络卷积神经网络(ConvolutionalNeuralNetwork,
CNN-
适用于图像识别)时间递归神经网络(
易冷cheng
·
2022-11-30 17:56
深度学习
神经网络
基于CNN-LSTM及深度学习的风电场时空组合预测模型
CNN用于提取不同站点的空间特征,LSTM则用于获取多个站点的风电数据的时间依赖信息,据此设计
CNN-
米朵儿技术屋
·
2022-11-30 12:26
大数据及数据管理(治理)专栏
深度学习
cnn
lstm
神经网络:多层感知机-MLP
我自己做笔记玩的最基本的神经网络:MLP相应的变种的神经网络:误差反向传播(BackPropagation,BP)神经网路、概率神经网络、卷积神经网络(ConvolutionalNeuralNetwork,
CNN
平平无奇的搬砖仔
·
2022-11-25 08:27
神经网络
神经网络
深度学习
人工智能
DNN、CNN、RNN、LSTM的区别,最全最详细解答
*DNN、CNN、RNN、LSTM的区别,最全最详细解答**神经网络的变种目前有,如误差反向传播(BackPropagation,BP)神经网路、概率神经网络、RNN-循环神经网络DNN-深度神经网络
CNN
Jfightingk
·
2022-11-25 02:56
深度学习
深度学习
神经网络
利用DCGAN-生成对抗网络和
CNN-
卷积神经网络对图像进行训练和分类
利用DCGAN-生成对抗网络和
CNN-
卷积神经网络对图像进行训练和分类总体流程步骤一、图像处理部分如下图,分别是由SAR卫星获取的极化SAR图像及其标签图根据不同的颜色标签(红、绿、黄、白)可以将原图分为四个部分
从->零<-开始
·
2022-11-24 12:52
个人笔记
python
神经网络
卷积
深度学习
程序人生
初识
CNN-
卷积神经网络
初识卷积神经网络卷积神经网络是什么?卷积层基本介绍特征值计算特征矩阵大小计算为什么要权重共享池化层如何池化总结对于卷积神经网络的概念、特点等叙述,百度一搜都有很多,本篇文章主要介绍卷积神经网络中的卷积层以及池化层的基本原理。卷积神经网络是什么?卷积神经网络,顾名思义分为卷积和神经网路,传统神经网络的输入层通常是一维的,或者将二维转换成一维,再进行全连接,这样使得神经网络中有大量的权重参数W,迭代效
IT_小白:-)
·
2022-11-23 03:09
神经网络
卷积
神经网络
深度学习
卷积、池化->
CNN-
>FCN->Unet
目录卷积池化传统CNNFCN(全卷积网络)Unet卷积深度学习---图像卷积与反卷积(最完美的解释)_Dean0Winchester的博客-CSDN博客_卷积图像矩阵进行卷积的过程区分卷积的三种模式与padding的两种模式:卷积的三种模式full,same,valid以及padding的same,valid-知乎4.26找到一个很nice的up讲解:【卷积神经网络】8分钟搞懂CNN,动画讲解喜闻
WRStop
·
2022-10-10 12:44
图像分割
图像处理
深度学习
06 卷积神经网络
CNN-
学习笔记-李宏毅深度学习2021年度
上一篇:05Classification-学习笔记-李宏毅深度学习2021年度下一篇:07SelfAttention-学习笔记-李宏毅深度学习2021年度本节内容及相关链接CNN的相关概念视频链接PPT链接课堂作业课程笔记卷积神经网络(ConvolutionalNeuralNetwork,CNN)是专门为图片识别设计的,当然也可以用在其他的任务上卷积层:将图片各区域依次与多个Filter进行内积(
iioSnail
·
2022-10-10 09:15
机器学习
cnn
深度学习
学习
深度学习模型理解-
CNN-
手写数据字代码
系列文章目录提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加例如:第一章Python机器学习入门之pandas的使用提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录系列文章目录前言一、卷积神经网络是什么什么是卷积网络结构二、动图理解卷积计算过程激活函数池化层全连接层不同的卷积核会得到不同的效果三、手写数字数据集代码数据集查看数据集分析数据集可视化数据处理网络
一颗西柚子
·
2022-10-01 07:33
深度学习
深度学习
cnn
神经网络
CNN-
运动鞋品牌识别
本文为365天深度学习训练营中的学习记录博客参考文章地址:365天深度学习训练营-第5周:运动鞋品牌识别作者:K同学啊一、前期工作1.设置GPUfromtensorflowimportkerasfromtensorflow.kerasimportlayers,modelsimportos,PIL,pathlibimportmatplotlib.pyplotaspltimporttensorflow
老师我作业忘带了
·
2022-09-23 22:39
cnn
深度学习
tensorflow
吴恩达深度学习笔记(四)
吴恩达深度学习笔记(四)卷积神经网络
CNN-
第二版卷积神经网络深度卷积网络:实例探究目标检测特殊应用:人脸识别和神经风格转换卷积神经网络编程作业卷积神经网络
CNN-
第二版卷积神经网络更新部分:1.122.82.92.103.113.123.133.14
love_lqz
·
2022-09-11 07:23
深度学习
深度学习
计算机视觉
卷积神经网络
AI圈真魔幻!谷歌最新研究表明卷积在NLP预训练上竟优于Transformer?LeCun暧昧表态...
也是让人在调侃MLP->
CNN-
>Transform
深度学习技术前沿
·
2022-06-09 09:55
机器学习
人工智能
深度学习
计算机视觉
编程语言
深入浅出图解
CNN-
卷积神经网络
首先,介绍一下卷积的来源:它经常用在信号处理中,用于计算信号的延迟累积。假设一个信号发生器每个时刻t产生一个信号xt,其信息的衰减率为wk,即在k−1个时间步长后,信息为原来的wk倍,假设w1=1,w2=1/2,w3=1/4。时刻t收到的信号yt为当前时刻产生的信息和以前时刻延迟信息的叠加。然后,介绍卷积诞生思想:在80年代,Fukushima在感受野概念的基础之上提出了神经认知机的概念,可以看作
SmartBrain
·
2022-05-29 07:58
人工智能核心技术解析
深度学习
机器学习
算法
深度学习-神经网络
CNN-
感受野大小的计算公式有哪些?可能会遇到哪些坑?如何理解感受野大小的计算公式?
Reference下面这个B站视频,属于讲感受野的专栏视频之一,使用的是正向公式,强烈推荐大家观看。深度理解感受野(二):抓住卷积神经网络的内在特性,学习感受野的计算少不了下面这篇CSDN文章,把感受野的所有公式总结出来了,包括正向和反向。CNN感受野最全计算公式_骚年,你渴望力量嘛?的博客-CSDN博客_感受野计算公式一、感受野的公式有哪些?前向公式,或称为正向公式,计算方向是从神经网络的浅层到
dssgresadfsrgre
·
2022-03-21 07:17
机器学习
神经网络
深度学习
cnn
CNN-
卷积神经网络简单入门(2)
在上篇中,对卷积神经网络的卷积层以及池化层模块进行了简单的介绍,接下来将对卷积神经网络的整个运作流程进行分析,以便对CNN有个总体上的认知和掌握。如下图,卷积神经网络要完成对图片数字的识别任务。网络的输入是数字为7的RGB图片,大小为32×32×3,其中32×32为图片的像素大小,3表示图片的红、绿、蓝三个通道。图中示例的卷积神经网络共有7层(不包括输入层):第一层卷积层Conv1,第二层池化层P
前进的小蜗牛
·
2022-02-06 19:00
CNN-
卷积神经网络简单入门(1)
卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是深度学习(deeplearning)的代表算法之一,通常由输入层、卷积层、池化层、全连接层、输出层结构组成,其中卷积层、池化层、全连接层可能有多层。CNN的结构特性有:(1)局部连接在传统的神经网络结构中,神经元之间的
前进的小蜗牛
·
2022-02-04 22:00
[人工智能-深度学习-37]:卷积神经网络CNN - 重构神经网络的疑惑与思考?
作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客本文网址:[人工智能-深度学习-37]:卷积神经网络
CNN-
重构神经网络的疑惑与思考?
文火冰糖的硅基工坊
·
2021-10-23 18:15
人工智能-PyTorch
人工智能-TensorFlow
人工智能-深度学习
人工智能
深度学习
cnn
重构
思考
CV圈太卷了!继谷歌提出MLP-Mixer之后,清华、牛津等学者又发表三篇MLP相关论文...
MLP->
CNN-
>Transformer->MLP的圈难道要成真?一石激起千层浪,就在5月5日,清华大学图形学实验室Jittor团队
深度学习技术前沿
·
2021-05-08 13:00
卷积
大数据
计算机视觉
神经网络
机器学习
2019秋招复习笔记--面试经历记录总结
CNN-
底层是VGG16,之前用的是p
weixin_30604651
·
2020-09-17 00:10
面试
数据库
java
CNN-
卷积神经网络防止过拟合的方法
过拟合出现的原因训练的数据过少,无法准确获得数据中的特征全连接神经网络中参数增多也会导致过拟合问题(还可以导致计算速度减慢)过拟合解决的办法1.dataaugmentation:这点不需要解释太多,所有的过拟合无非就是训练样本的缺乏和训练参数的增加。一般要想获得更好的模型,需要大量的训练参数,这也是为什么CNN网络越来越深的原因之一,而如果训练样本缺乏多样性,那再多的训练参数也毫无意义,因为这造成
小码仔
·
2020-09-15 01:57
机器学习
cnn-
过拟合(over-fitting)
概念为了得到一致假设而使假设变得过度严格称为过拟合[1]给定一个假设空间H,一个假设h属于H,如果存在其他的假设h’属于H,使得在训练样例上h的错误率比h’小,但在整个实例分布上h’比h的错误率小,那么就说假设h过度拟合训练数据。过拟合的示意图:在上图中训练样本存在噪声,为了照顾它们,分类曲线的形状非常复杂,导致在真实测试时会产生错分类.直白理解:在神经网络中,首先根据训练数据集进行训练,训练结果
飞湘
·
2020-09-13 00:22
cnn
cnn-
欠拟合(underfitting)
模型不能很好拟合数据,称之为欠拟合直白的说:模型没有找到数据规律或不完整,泛化能力不强。在训练和测试数据集上,预测或训练结果都和真实结果相差很远。一般解决方法增加新特征,可以考虑加入进特征组合、高次特征,来增大假设空间;添加多项式特征,这个在机器学习算法里面用的很普遍,例如将线性模型通过添加二次项或者三次项使模型泛化能力更强;减少正则化参数,正则化的目的是用来防止过拟合的,但是模型出现了欠拟合,则
飞湘
·
2020-09-12 21:13
cnn
R-CNN学习笔记
目标检测reference:https://www.cnblogs.com/zf-blog/p/6740736.html技术路线:selectivesearch->
CNN-
>SVMs->BBR具体步骤:
三分明月落
·
2020-08-23 06:21
Keras框架神经网络算法训练MNIST分类准确率(实验)
CNN-
手写体识别
MNIST数据集信息参考:http://yann.lecun.com/exdb/mnist/index.htmlMNIST是手写数字0~10图片数据集,每一张图片包含28*28个像素。MNIST训练数据集包含:(1.)60000张图片的像素信息,因为神经网络的输入层表示特征的维度,所以将图像表示成一个[60000,28,28]的pixel张量;(2.)60000张图片的标签信息,表示成一个[600
追求卓越583
·
2020-08-22 15:48
Keras
关于图像处理——运用CNN实现数字手写体识别的调研
CNN正文数据处理特征提取(FeatureExtractor)卷积层设计池化层设计分类器(Multi-classifier)输入层设计隐层设计输出层设计后向传播的实现(Backward)算法实现主程序部分
CNN
Andrea_K
·
2020-08-19 09:41
深度学习入门
cs231n学习笔记-
CNN-
目标检测、定位、分割
转载来自:http://blog.csdn.net/myarrow/article/details/518780041.基本概念1)CNN:ConvolutionalNeuralNetworks2)FC:FullyConnected3)IoU:IntersectionoverUnion(IoU的值定义:RegionProposal与GroundTruth的窗口的交集比并集的比值,如果IoU低于0.
小白aaa
·
2020-08-17 15:32
行人检测
参考leNet5 卷积网络代码,使用cifar-10数据集训练模型,识别彩色图片(未完成)
/models/tree/master/tutorials/image/cifar10官网https://www.jianshu.com/p/6ca363520596Tensorflow-卷积神经网络
CNN
快乐成长吧
·
2020-08-16 05:54
机器学习笔记-
CNN-
神经网络
转自:http://blog.csdn.net/kevin_bobolkevin/article/details/50494034深度学习之一---什么是神经网络刚开始学习深度学习,最近把所学的整理了一下,也是对所学的一个总结。深度学习的概念源于人工神经网络的研究。为了更好地理解深度学习,首先要先了解下什么是神经网络,它的工作原理、应用及发展。逻辑性的思维是指根据逻辑规则进行推理的过程;它先将信息
weixin_30408739
·
2020-08-13 20:31
transformer算法详解
概况来说在深度学习为基础的体系中,特征抽取经历了以下几个阶段:DNN->
CNN-
>RNN->Transformer。
listwebit
·
2020-08-12 00:44
自然语言处理
深度学习算法之
CNN-
验证码识别
使用CNN算法,特征提取使用二维向量:X,Y,testX,testY=mnist.load_data(one_hot=True)X=X.reshape([-1,28,28,1])testX=testX.reshape([-1,28,28,1])实例化CNN算法并训练10轮:model=tflearn.DNN(network,tensorboard_verbose=0)model.fit({'inp
zqzq19950725
·
2020-08-04 10:08
CNN-
利用1*1进行降维和升维
降维:比如某次卷积之后的结果是W*H*6的特征,现在需要用1*1的卷积核将其降维成W*H*5,即6个通道变成5个通道:通过一次卷积操作,W*H*6将变为W*H*1,这样的话,使用5个1*1的卷积核,显然可以卷积出5个W*H*1,再做通道的串接操作,就实现了W*H*5。升维:比如某次卷积之后的结果是W*H*6的特征,现在需要用1*1的卷积核将其降维成W*H*7,即6个通道变成7个通道:通过一次卷积操
weixin_30446613
·
2020-08-01 03:11
Fast Rcnn 之数据准备阶段 code 分享
关于objectdetection系列的算法思想介绍,有很多博客介绍的很清晰,推荐cs231n学习笔记-
CNN-
目标检测、定位、分割,但是关于fastrcnn或者是fas
MultiMediaGroup_USTC
·
2020-07-28 14:35
Deep
Learning
coding
算法
上一页
1
2
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他