E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CIFAR10
深度学习tensorflow 之 distorted_inputs
cifar10
_input.py文件里还有个功能强大的函数——distorted_inputs,可以在代码中找到其实现。
my_share
·
2020-10-11 14:34
深度学习tensorflow
深度学习
tensorflow
人工智能
python
Caffe(一) Cifar-10 数据集测试
caffe示例实现之1在CIFAR-10数据集上训练与测试Caffe网速太慢,在windows上用迅雷下载然后拷贝到data/
cifar10
下面,再依次执行get_
cifar10
.sh中的解压和重命名操作
NoneLand
·
2020-10-11 03:25
深度学习:使用pytorch训练
cifar10
数据集(基于Lenet网络)
文档基于b站视频:https://www.bilibili.com/video/BV187411T7Ye流程model.py——定义LeNet网络模型train.py——加载数据集并训练,训练集计算loss,测试集计算accuracy,保存训练好的网络参数predict.py——得到训练好的网络参数后,用自己找的图像进行分类测试文件目录结构截图:1.model.py先给出代码,模型是基于LeNet
Allen Chou
·
2020-09-23 20:25
深度学习
Pytorch中文教程
深度学习
机器学习
pytorch
cs231n 基于
CIFAR10
的 svm_loss 实现
内容概括数据集–
CIFAR10
60000张彩色图像–这些图像是32*32,分为10个类,每类6000张图。
Luyoom
·
2020-09-17 10:10
DeepLearning
svmloss
深度学习
神经网络
python
RTX2080Ti 对比 GTX1080Ti 的
CIFAR10
0 混合精度训练
雷锋网AI科技评论按:本文作者SanyamBhutani是一名机器学习和计算机视觉领域的自由职业者兼Fast.ai研究员。在文章中,他将2080Ti与1080Ti就训练时长进行了全方位的对比。雷锋网(公众号:雷锋网)AI科技评论对此进行了详尽编译。前言特别感谢:如果没有来自TuatiniGODARD(他是我的一名好朋友,同时也是一名活跃的自由职业者)的帮助,这个基准比较工作是不可能完成的。如果你想
weixin_34007291
·
2020-09-17 06:16
python
人工智能
TensorFlow的tfrecord形式输入 及 mat文件转化为tfrecord文件
官方所给的mnist和
cifar10
的文件压缩成二进制,其实和我们平常所需的要求不一致,所以我这里使用的是TensorFlow的tfrecord形式输入。
weixin_43565762
·
2020-09-17 05:02
【TensorFlow报错】AttributeError: module 'tensorflow' has no attribute 'merge_all_summaries'
报错提示:
cifar10
_train.py: AttributeError:module'tensorflow'hasnoattribute'merge_all_summaries'报错原因:Tensorflow
长行
·
2020-09-17 03:08
Python报错排坑
tensorflow
python
pytorch 彩色图像转灰度图像
pytorch彩色图像转灰度图像pytorch库pytorch本身具有载入
cifar10
等数据集的函数,但是载入的是3*200*200的张量,当碰到要使用灰度图像时,可以使用他本身的函数进行修改,以较快速的完成彩色图像转灰度图像
zzw小凡
·
2020-09-16 21:59
python
caffe RGB转gay存储为Leveldb 格式(
CIFAR10
)示例
不多说,放源码://Copyright2014BVLCandcontributors.////ThisscriptconvertstheCIFARdatasettotheleveldbformatused//bycaffetoperformclassification.//Usage://convert_cifar_datainput_folderoutput_db_file//TheCIFARd
yanmingtop
·
2020-09-16 21:25
机器学习
Caffe代码导读(3):LevelDB例程
Caffe自带例子
Cifar10
中使用leveldb存储输入数据,为此我们研究一下怎样使用它。
卜居
·
2020-09-16 18:27
深度学习框架
Caffe
源码导读
数据库
使用CNN对CIFAR-10数据集进行分类(tensorflow)
一、
CIFAR10
数据集如果下载不了就直接官网下载CIFAR-10数据集http://www.cs.toronto.edu/~kriz/cifar.html下载CIFAR-10binaryversion
luoqibo
·
2020-09-16 12:22
CIFAR-10
卷积神经网络
tensorflow
数据增强
波士顿房价数据集
Keras中常见的集成数据集名称说明boston_sousing波士顿房价数据集
CIFAR10
10种类别的图片集
qinzhongyuan
·
2020-09-16 03:04
python
机器学习
数据分析
深度学习
人工智能
tersorflow实战
cifar10
时,自动下载速度太慢的解决方法
一、百度下载压缩包cifar-10-python.tar.gz二、将下载的压缩包放到,C:\Users{你的用户名}.keras\datasets里面去三、你会发现里面已经有一个
cifar10
的压缩包,
尚墨1111
·
2020-09-15 11:59
深度学习
编程出错之路
卷积神经网络实战——
CIFAR10
0
CIFAR10
0数据集60K(50K+10K)PipelineLoaddatasetsBuildNetworkTrainTestNetworkStructure卷积层+全连接层。
八月_
·
2020-09-14 23:40
深度学习
PyTorch复现经典网络————AlexNet
importtorchfromtorchimportnnimportnumpyasnpfromtorch.autogradimportVariablefromtorchvision.datasetsimport
CIFAR10
classAlexNet
起步晚就要快点跑
·
2020-09-14 18:35
PyTorch
[经典阅读]Alexnet 论文读书笔记以及代码复现
比饱和激活函数具有更快的收敛速度3.使用两个GPU并行训练4.使用LocalResponseNormalization进行优化5.网络结构:5层卷积层,3层全连接层,1,2,5层卷积层后接最大池化,使用的是重叠池化令步长s
cifar10
IZUMIXINGI
·
2020-09-14 17:07
深度学习
使用h5py存储
cifar10
的数据集图片
使用h5py存储
cifar10
的数据集图片h5py简介HDF5HDF5是用于存储和管理数据的数据模型,库和文件格式。它支持无限种类的数据类型,旨在实现灵活高效的I/O以及高容量和复杂数据。
xufabing1993
·
2020-09-14 14:20
机器学习
图像分类
【图像识别】基于pytorch 的入门demo——
CIFAR10
数据集识别及其可视化
目录环境配置1.数据集2.模型训练3.训练结果4.Batch_size的作用5.参考资料pytorch使用是动态图计算思想,符合一般的计算逻辑,集成了caffe,容易上手灵活方便,方便使用GPU加速、自动求导数,更适用于学术界。tensorflow采用的是静态图计算思想,静态图需要提前定义计算图,然后使用创建的计算图运算,运算过程中不利于查看中间变量,但是框架的生态成熟,部署便利,更适合工业界。p
潇萧客
·
2020-09-14 14:51
深度学习
编程笔记
机器学习
训练
cifar10
数据集 基于tensorflow2
结论代码训练过程1.Import所需的库2.获取数据3建立模型MiniVGG模型训练模型运行其他此项目使用了MiniVGG,MiniVGGwithdataaugmentation和ResNet三种CNN网络结构训练
cifar10
followUrheart6
·
2020-09-14 13:03
Deep
Learning
tensorflow
深度学习
cs231n:assignment1——Q3: Implement a Softmax classifier (MemoryError: )
当运行第一步的获取数据的时候,出现了MemoryError:的错误,主要原因如下:加载数据代码:importrandomimportnumpyasnpfromcs231n.data_utilsimportload_
CIFAR10
importmatplotlib.pyplotaspltfrom
qq_29750461
·
2020-09-14 07:04
Python
训练神经网络中最基本的三个概念:Epoch, Batch, Iteration
3.示例
CIFAR10
数据集有50000张训练图片,10000张测试图片。现在选择BatchSize=25
Arvid Y
·
2020-09-14 05:13
ML
清新脱俗的TensorFlow
CIFAR10
例程的代码重构——更简明更快的数据读取、loss accuracy实时输出
遂转而看
CIFAR10
例程,但是光数据读取就啃了一个星期,现在都比较迷糊其中队列的用法。经过这一个月的折腾,我发现Ten
kcheng_
·
2020-09-13 19:03
数据
博客
用tornado爬素材网站
用tornado爬素材网站(第一篇技术笔记)工作需要建立一个飞机图片和视频库,一方面,可以从开源数据集中抽取需要的数据,如PascalVOC,
CIFAR10
,COCO和ILSVRC等都包含飞机类别图片,
ziweipolaris
·
2020-09-12 21:00
机器学习——KNN、SVM、MLP、CNN实现
cifar10
0
机器学习——KNN、SVM、MLP、CNN实现
cifar10
01.KNN-
cifar10
01.1KNN实验结果1.2KNN实验代码2.SVM-
cifar10
02.1SVM实验结果2.2SVM实验代码3.
weixin_45562632
·
2020-09-12 21:29
机器学习
机器学习
python
keras
cifar10
.load_data()自己下载数据
keras
cifar10
.load_data()自己下载数据1.使用keras时,导入
cifar10
数据会自动下载(https://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gz
聿默
·
2020-09-12 10:14
《机器学习从入门到入职》卷积神经网络-keras-
CIFAR10
-参数调优-图像数据增强
代码链接:CSDN:https://download.csdn.net/download/qq_38649386/12677269GitHub:实验原理:参数调优改进代码:#构建卷积模型model=Sequential()model.add(Conv2D(20,kernel_size=5,padding="same",input_shape=input_shape))model.add(Activ
KernStarc
·
2020-09-11 22:03
keras
神经网络
深度学习
Pytorch 模型训练入门
=torch.device("cuda"iftorch.cuda.is_available()else"cpu")训练数据:BATCH_SIZE=64:批处理尺寸,即一次处理图像的张数加载训练数据:以
cifar10
maxruan
·
2020-09-11 22:06
Deep
Learning
编程
PyTorch:数据读取1 - Datasets
在输入流水线中,准备数据的代码是这么写的data=datasets.
CIFAR10
(".
-柚子皮-
·
2020-09-11 15:14
Pytorch
pytorch
datasets
caffe笔记3(matlab程序)
引言:在caffe提供的例程当中,例如mnist与
cifar10
中,数据集的准备均是通过调用代码自己完成的,而对于ImageNet1000类的数据库,对于个人而言,常常面临电脑内存不足的尴尬境地。
flowrush
·
2020-09-11 08:48
caffe
tensorflow笔记第五讲CNN
目录引入卷积感受野全零填充tensorflow描述卷积层函数tf.ketas.layers.conv2D批标准化池化Poolingtf.keras.layers.MaxPool2D函数舍弃DropoutCNN总结
Cifar10
Drone_xjw
·
2020-09-10 21:46
机器学习算法
神经网络
卷积
网络
深度学习
人工智能
给Resnet加人工经验提升30%的准确率
今日做人脸识别验证时候突然灵感一现若将人工经验告诉神经网络那么不就提高准确率了吗当然这不是神经网络提高是网络后期输出的提高具体类似如果你知道你的表没几小时快几分钟你就能知道真实的时间而一个已经训练好的模型的输出,一定会有误差,人工将误差统计起,告诉给模型比如你使用resnet训练一个
cifar10
东方佑
·
2020-09-10 19:24
机器学习(深度学习)
Resnet
ML&DL - TensorFlow2.1快速入门学习笔记05——卷积神经网络
5.9
CIFAR10
数据集5.10卷积神经网络搭建示例5.11LeNet、AlexNet、VGGNe
Jason - Lee
·
2020-08-26 23:48
#
TensorFlow2.1
keras输入数据的方法:model.fit和model.fit_generator
1.第一种,普通的不用数据增强的fromkeras.datasetsimportmnist,
cifar10
,
cifar10
0(X_train,y_train),(X_valid,Y_valid)=
cifar10
weixin_41012399
·
2020-08-26 15:55
pytorch 入门 修改学习率
importnumpyasnpimporttorchfromtorchimportnnimporttorch.nn.functionalasFfromtorch.autogradimportVariablefromtorchvision.datasetsimport
CIFAR10
fromj
JChowCUG
·
2020-08-26 11:37
习惯养成
Deep
Learning
pytorch
keras学习笔记(一)
之前看了一个用karas构建的一个GAN网络,这个网络的目的是基于
cifar10
中数据,生成出和真实数据相似的数据。
帅的被人砍1996
·
2020-08-25 16:38
keras学习笔记
视频数据集UCF101的处理与加载(未使用深度学习框架)
1需求所在PyTorch提供了像对
CIFAR10
这样计算机视觉中经常会用到的数据集的接口,直接调用即可方便的获取到我们想要的train_x,train_y,test_x,test_y.而我这次需要的UCF101
与阳光共进早餐
·
2020-08-25 01:33
【不可忽视的这一种】Dynamic ReLU:自适应参数化ReLU(调参记录6)
本文继续调整超参数,测试自适应参数化ReLU在
Cifar10
上的效果,其基本原理如下图所
杰jie
·
2020-08-24 17:20
机器学习
人工智能
深度学习
tensorflow
神经网络
深度残差网络+自适应参数化ReLU激活函数(调参记录21)
Cifar10
~95.12%
本文在调参记录20的基础上,将残差模块的个数,从27个增加到60个,继续测试深度残差网络ResNet+自适应参数化ReLU激活函数在
Cifar10
数据集上的表现。
lishu
·
2020-08-24 17:58
机器学习
深度学习
人工智能
tensorflow
神经网络
深度残差网络+自适应参数化ReLU激活函数(调参记录18)
Cifar10
~94.28%
同样是在
Cifar10
数据集上进行测试。自适应参数化ReLU激活函数的基本原理如下:Keras代码如下:#!
lishu
·
2020-08-24 17:47
机器学习
人工智能
深度学习
数据挖掘
tensorflow
深度残差网络+自适应参数化ReLU激活函数(调参记录19)
Cifar10
~93.96%
由于调参记录18依然存在过拟合,本文将自适应参数化ReLU激活函数中最后一层的神经元个数减少为1个,继续测试深度残差网络+自适应参数化ReLU激活函数在
Cifar10
数据集上的效果。
lishu
·
2020-08-24 17:47
机器学习
人工智能
深度学习
数据挖掘
tensorflow
深度残差网络+自适应参数化ReLU激活函数(调参记录17)
在调参记录16的基础上,增加了两个残差模块,继续测试其在
Cifar10
数据集上的效果。自适应参数化ReLU激活函数的基本原理如下:Keras程序:#!
lishu
·
2020-08-24 17:47
机器学习
人工智能
深度学习
数据挖掘
tensorflow
深度残差网络+自适应参数化ReLU激活函数(调参记录16)
在调参记录15的基础上,将第一个残差模块的卷积核数量,从16个增加到32个,同时将自适应参数化ReLU激活函数中第一个全连接层的神经元个数改成原先的1/16,继续测试其在
Cifar10
数据集上的效果。
lishu
·
2020-08-24 17:46
机器学习
人工智能
深度学习
数据挖掘
tensorflow
深度残差网络+自适应参数化ReLU激活函数(调参记录10)
本文在调参记录9的基础上,在数据增强部分添加了shear_range=30,测试AdaptivelyParametricReLU(APReLU)激活函数在
Cifar10
图像集上的效果。
lishu
·
2020-08-24 17:44
机器学习
人工智能
深度学习
神经网络
tensorflow
深度残差网络+自适应参数化ReLU激活函数(调参记录9)
Cifar10
~93.71%
本文在调参记录6的基础上,继续调整超参数,测试AdaptivelyParametricReLU(APReLU)激活函数在
Cifar10
图像集上的效果。
lishu
·
2020-08-24 17:44
机器学习
人工智能
深度学习
神经网络
tensorflow
深度残差网络+自适应参数化ReLU激活函数(调参记录11)
本文在调参记录10的基础上,将残差模块的数量从27个增加到60个,测试采用AdaptivelyParametricReLU(APReLU)激活函数的深度残差网络,在
Cifar10
图像集上的效果。
lishu
·
2020-08-24 17:44
机器学习
人工智能
深度学习
神经网络
tensorflow
深度残差网络+自适应参数化ReLU激活函数(调参记录8)
激活函数(调参记录7)https://blog.csdn.net/dangqin...本文将层数设置得很少,只有两个残差模块,测试AdaptivelyParametricReLU(APReLU)激活函数在
Cifar10
lishu
·
2020-08-24 17:13
人工智能
机器学习
深度学习
神经网络
tensorflow
深度残差网络+自适应参数化ReLU激活函数(调参记录7)
/blog.csdn.net/dangqin...本文冒着过拟合的风险,将卷积核的个数增加成32个、64个和128个,继续测试AdaptivelyParametricReLU(APReLU)激活函数在
Cifar10
lishu
·
2020-08-24 17:12
机器学习
人工智能
深度学习
神经网络
tensorflow
深度残差网络+自适应参数化ReLU激活函数(调参记录6)
自适应参数化ReLU激活函数(调参记录5)https://blog.csdn.net/dangqin...本文继续调整超参数,测试AdaptivelyParametricReLU(APReLU)激活函数在
Cifar10
lishu
·
2020-08-24 17:11
神经网络
机器学习
人工智能
深度学习
tensorflow
深度残差网络+自适应参数化ReLU激活函数(调参记录5)
深度残差网络+自适应参数化ReLU激活函数(调参记录4)https://blog.csdn.net/dangqin...本文继续测试AdaptivelyParametricReLU(APReLU)激活函数在
Cifar10
lishu
·
2020-08-24 17:11
机器学习
人工智能
深度学习
tensorflow
神经网络
深度残差网络+自适应参数化ReLU激活函数(调参记录3)
续上一篇:深度残差网络+自适应参数化ReLU激活函数(调参记录2)https://blog.csdn.net/dangqin...本文继续测试深度残差网络和自适应参数化ReLU激活函数在
Cifar10
图像集上的表现
lishu
·
2020-08-24 17:10
机器学习
人工智能
深度学习
神经网络
tensorflow
上一页
13
14
15
16
17
18
19
20
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他