E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
莫烦Tensorflow笔记
学习: 人工智能实践:
Tensorflow笔记
(三)
主要是按照视频代码贴一下,出现的错误可以展示并给出解决方案。1#coding:utf-82#导入模块,生成模拟数据集3importtensorflowastf4importnumpyasnp5BATCH_SIZE=86seed=234557#seed(n)这样生成的随机数每次是一样的8#基于seed()产生随机数9rng=np.random.RandomState(seed)10#随机数返回32行
bufengzj
·
2018-09-26 21:01
linux
tensorflow
PyTorch学习
莫烦
Python的回归教程,有很多亮点值得学习,避免忘记,把代码贴一下#-*-coding:utf-8-*-importtorchfromtorch.autogradimportVariableimporttorch.nn.functionalasFimportmatplotlib.pyplotaspltimportwarningswarnings.filterwarnings
许孝发
·
2018-09-24 10:08
机器学习
tensorflow笔记
:reduce_mean()函数axis参数理解
tensorflow笔记
:reduce_mean()函数axis参数理解tf.reduce_mean(input_tensor,axis=None,keepdims=False,name=None,reduction_indices
ahou00
·
2018-09-22 22:20
莫烦
视频笔记--什么是GAN(生成对抗网络)?
最近最流行的一种生成网络叫做GAN,又称生成对抗网络,也是GenerativeAdversarialNets的简称。神经网络分很多种,有普通的前向传播网络,有分析图片的CNN卷积神经网络,有分析序列化数据比如语音或者文字的RNN循环神经网络,这些网络都是通过输入数据得到想要的结果,我们看中的是这些神经网络中很好的将数据与结果通过某种关系联系起来。但是还有那么一种形式的神经网络,它不是用来把数据对应
slbyzdgz
·
2018-09-19 09:08
tensorflow之overfitting(过拟合)问题
就参照
莫烦
的视频教程进行了练习。基于sklearn数据集进行了了过拟合实验。
邹小妹
·
2018-09-18 20:41
Python
莫烦
视频笔记--为什么要批标准化(Batch Normalization)?
BatchNormalization批标准化和普通的数据标准化类似,是将分散的数据统一的一种做法,也是优化神经网络的一种方法。在之前normalization的简介视频中我们提到具有统一规格的数据能让机器学习更容易学到数据之间的规律。在神经网络中,数据分布对训练会产生影响,比如某个神经元x的值为1,某个weights的初始值为0.1,这样后一层神经元计算的结果就是Wx=0.1,又或者x=20,这样
slbyzdgz
·
2018-09-18 15:22
莫烦视频笔记
莫烦
视频笔记--什么是自编码(Autoencoder)?神经网络的非监督学习
自编码是一种神经网络形式,可以这样理解:有一个神经网络,它要做的是接收一张图片,然后给它打码,最后再从打码后的图片还原,太抽象了,再具体一点。假设刚刚的神经网络是这样,对应上刚才的图片,我们可以看出图片是经过了压缩再解压的这一套工序。当压缩的时候,原有的图片质量被缩减,解压的时候,用信息量小、却包含了所有关键信息的文件恢复出原有图片。为什么要这样做呢?有时神经网络要接受大量的输入信息,比如输入信息
slbyzdgz
·
2018-09-17 21:28
莫烦视频笔记
Tensorflow利用其可视化工具tensorboard可视化神经网络
参考
莫烦
的B站教程20,利用tensorflow自带的可视化工具tensorboard,在Google浏览器上进行了简单神网路的可视化。一、将神经网络的结构可视化。
邹小妹
·
2018-09-17 20:54
Python
莫烦
python|
Tensorflow笔记
--什么是LSTM RNN循环神经网络(深度学习)
LSTM是LongShort-TermMemory的简称,中文又叫做长短期记忆,是当下最流行的RNN形式之一。之前说过RNN是在有序的数据上进行学习的。为了记住这些数据,RNN会像人一样产生对先前数据发生记忆,不过一般形式的RNN就像一位老爷爷,有的时候还是比较健忘的,为什么会这样呢?想象现在有这样一个RNN,它的输入值是一句话“我今天要做红烧排骨,首先要准备排骨,然后,,,最后美味的一道菜就出锅
slbyzdgz
·
2018-09-17 09:11
TensorFlow
莫烦
python|
Tensorflow笔记
--什么是循环神经网络RNN
我们在想象现在有一组数据序列,Data0,Data1,Data2,Data3,预测Results0的时候基于Data0,同意在预测其他结果的时候也是基于其他的数字。每次使用的神经网络都是同一个NN。如果这些数据是有关联顺序的,那么就要遵从它们之间的顺序,否则就串位了。但是普通的神经网络结构并不能让NN了解这些数据之间的关联。那么我们如何让数据间的关联也被NN加以分析呢?想想人类是怎么样分析各种事物
slbyzdgz
·
2018-09-16 10:42
TensorFlow
莫烦
python|
Tensorflow笔记
--CNN卷积神经网络
卷积神经网络是计算机视觉的一个飞跃的提升。第一个是图片,如果是彩色的话,它会分RGB三种显示的颜色叫做红色绿色蓝色,用这种三原色就可以产生各种各样的颜色。所以RGB就是高度,所以每一个像素点都有RGB的参数,相当于像素点的厚度,它要做的事情就是把长和宽还有RGB的宽度压缩。具体怎么压缩呢,就是我把我的长和宽压小一点,把厚度增高一点,到最后就变成了classifier。CNN具体来说就是不断压缩长和
slbyzdgz
·
2018-09-15 10:46
TensorFlow
莫烦
python|
Tensorflow笔记
--什么是卷积神经网络CNN
卷积网络是近些年来逐渐兴起的人工神经网络结构,因为利用卷积神经网络在语音和图片方面识别能够给出更优秀的测试结果,这种技术也被广泛的传播和应用,卷积神经网络最常被应用的方面是计算机图片识别,不过因为它的不断创新,它也应用在了视频分析、自然语言处理、药物发现等等,近期最火的AlaphGo能看懂围棋同样也是应用到了这门技术。我们来说说卷积神经网络具体是如何运作的吧,举一个识别图片的例子,我们知道神经网络
slbyzdgz
·
2018-09-14 22:52
TensorFlow
numpy、pandas学习
numpy、pandas学习本文主要是此前学习
莫烦
python的笔记,及个人的部分修改与注释,特发此博与大家分享。
lbweiwan
·
2018-09-14 16:26
莫烦
python|
Tensorflow笔记
--Classification 分类学习
Classification分类问题,定性输出是分类,或者说是离散变量预测。Regression回归问题,定量输出是回归,或者说是连续变量预测。from__future__importprint_function#强制使用python3版本,不管python使用的是什么版本importtensorflowastffromtensorflow.examples.tutorials.mnistimpo
slbyzdgz
·
2018-09-14 10:09
TensorFlow
Anaconda3安装Pytorch+torchvision
前言:暑假的时候导师让我学神经网络我没有好好学,最近老师又提了一嘴.吴恩达大法好,就是看不懂.于是在看
莫烦
Python.评论朋友的问题,我查阅文档后,发现conda可以一步到位:condainstalltorchvision-cpytorch1
国美学弟
·
2018-09-13 14:49
Anaconda
Python
莫烦
python|
Tensorflow笔记
--结果可视化、加速神经网络训练、优化器
结果可视化importtensorflowastfimportnumpyasnpimportmatplotlib.pyplotasplt#添加一个神经层,定义添加神经层的函数defadd_layer(inputs,in_size,out_size,activation_function=None):Weights=tf.Variable(tf.random_normal([in_size,out_
slbyzdgz
·
2018-09-13 10:20
TensorFlow
tensorflow—例子
有点小吃力,但参照着B站
莫烦
的python教学视频(https://www.bilibili.com/video/av16001891/?
邹小妹
·
2018-09-12 22:51
Python
莫烦
python|
Tensorflow笔记
--tf8、tf9
Placeholder传入值placeholder是tensorflow的占位符,暂时存储变量,tensorflow要从外部传入数据,就要用到placeholder。要给节点输入数据时用placeholder,在TensorFlow中用placeholder来描述等待输入的节点,只需要指定类型即可,然后在执行节点的时候用一个字典来“喂”这些节点。相当于先把变量hold住,然后每次从外部传入data
slbyzdgz
·
2018-09-12 19:01
TensorFlow
【TF】TensorFlow 学习资源
BacktoTensorFlowIndex官网教程
莫烦
的TensorFlow教程:有文章,有优酷视频,非常棒专题简单卷积神经网络的tensorflow实现:可以说写的很到位了,简单的流程都有了.
鹅城惊喜师爷
·
2018-09-09 21:20
ML
Tensorflow笔记
——(七)卷积神经网络
全连接神经网络:每个神经元与前后相邻层的每一个神经元都有连接关系,输入是特征,输出为预测的结果。参数个数:∑(前层×后层+后层)一张分辨率仅仅是28x28的黑白图像,就有近40万个待优化的参数。现实生活中高分辨率的彩色图像,像素点更多,且为红绿蓝三通道信息。待优化的参数过多,容易导致模型过拟合。为避免这种现象,实际应用中一般不会将原始图片直接喂入全连接网络。在实际应用中,会先对原始图像进行特征提取
90後_小熊大
·
2018-09-02 12:00
Tensorflow
Tensorflow笔记
——(六)MNIST手写数字识别后续处理
一、断点续训关键处理:加入ckpt操作:ckpt=tf.train.get_checkpoint_state(MODEL_SAVE_PATH)ifckptandckpt.model_checkpoint_path:saver.restore(sess,ckpt.model_checkpoint_path)1、注解:1)tf.train.get_checkpoint_state(checkpoint
90後_小熊大
·
2018-09-02 11:50
Tensorflow
Tensorflow笔记
——(五)MNIST数据集输出手写数字识别准确率
mnist数据集:包含7万张黑底白字手写数字图片,其中55000张为训练集,5000张为验证集,10000张为测试集。每张图片大小为28*28像素,图片中纯黑色像素值为0,纯白色像素值为1。数据集的标签是长度为10的一维数组,数组中每个元素索引号表示对应数字出现的概率。在将mnist数据集作为输入喂入神经网络时,需先将数据集中每张图片变为长度784一维数组,将该数组作为神经网络输入特征喂入神经网络
90後_小熊大
·
2018-09-01 23:38
Tensorflow
Tensorflow笔记
四:神经网络的优化
一,基本概念(1)神经元模型:用数学公式表示为;f为激活函数,神经网络是以神经元为基本单元构成的。(2)激活函数:引入非线性激活因素,提高模型的表达力。常用的激活函数有relu(),sigmoid(),tanh()等。1,激活函数relu():在Tensorflow中,用tf.nn.relu()表示。2,激活函数sigmoid():在Tensorflow中,用tf.nn.sigmoid()表示。3
被选召的孩子
·
2018-09-01 20:52
人工智能
Tensorflow笔记
——(四)神经网络优化
神经元模型:用数学公式表示为:f(xw+b),f()为激活函数。神经网络是以神经元为基本单元构成的。激活函数:引入非线性激活因素,提高模型的表达力。常用的激活函数有relu、sigmoid、tanh等。①激活函数relu:在Tensorflow中,用tf.nn.relu()表示relu()数学表达式relu()数学图形②激活函数sigmoid:在Tensorflow中,用tf.nn.sigmoid
90後_小熊大
·
2018-09-01 13:14
Tensorflow
Tensorflow笔记
三:神经网络的搭建
一,基本概念(1)基于Tensorflow的NN:用张量表示数据,用计算图搭建神经网络,用会话执行计算图,优化线上的权重(参数),得到模型。(2)张量:张量就是多维数组(列表),用“阶”表示张量的维度。(3)数据类型:Tensorflow的数据类型有tf.float32,tf.int32等importtensorflowastf#导入模块a=tf.constant([1.0,2.0])#定义一个张
被选召的孩子
·
2018-08-30 16:40
人工智能
Tensorflow笔记
二:Python语法
一,列表[]c=[1,2,3,4,5]d=["张三","李四"]e=[1,2,3,"4","5",d]列表可以类比c中的数组,只是没有数据类型限制。(1)用列表名[索引号]索引列表中的元素d[0](2)用列表名[起:止]表示切片,从列表中切出相应的元素(前闭后开区间)c[0:2]切出[1,2]c[:]切出[1,2,3,4,5](3)用列表名[起:止:步长]带步长的切片,步长有方向c=[1,2,3,
被选召的孩子
·
2018-08-29 19:12
人工智能
利用RNN做脑电信号的分类(一)
这里大概贴几个网址https://www.yunaitong.cn/understanding-lstm-networks.htmlhttp://feisky.xyz/machine-learning/rnn/还有
莫烦
的教程我自己尝试着用
岁月流星0824
·
2018-08-27 12:19
机器学习
keras运行实例(一):regression回归
小编在自学机器学习过程中,参考
莫烦
大佬的python教程进行了keras的实例运行,在此记录一下,以免忘记。
小熊猫3
·
2018-08-26 20:29
Deep
Learning
keras
python
Tensorflow基础架构
转自:https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/感谢
莫烦
!
Melo丶
·
2018-08-25 16:34
Tensorflow
Tensorflow
Python自学笔记001
最近在看
莫烦
的Python教程,留一些笔记方便以后回看。
闲鱼三金
·
2018-08-20 17:42
python
基于CNN的MNIST手写数字识别
CNN的具体理论知识可到百度或CSDN的其他博客中查找相关内容,下面主要给出完整的代码(代码源于“
莫烦
python”视频,https://morvanzhou.github.io/tutorials/machine-learning
忍耐恒_至拙胜至巧
·
2018-08-18 10:50
TensorFlow
深度学习
神经网络
Python 多进程爬虫初体验
最前近期根据助教的推荐,在
莫烦
Python上学习了Python爬虫的新操作,主要是多进程和多线程。本次结合课程作业,体验了一把多进程的速度。要求输入一座城市的名称,获取其百度百科的基本介绍。
CrazyBusby
·
2018-08-12 18:40
Python
python 从入门到砸门
Tensorflow笔记
入门篇001
**python从入门到砸门Tensorflow学习记录001MNIST**所谓学问,本有学有问,但此文乃学渣笔记,故其中竟多是问题,少是经验教学,不明之处恳请大牛赐教,本人适做整理工作,愿为广大程序猿尽绵薄之力尔。MNIST数据集关于tensorflow的安装,此处不做说明。先引用一下Tensorflowimporttensorflowastf再引用input_data:第一次使用代码时:imp
宇宙第一爸
·
2018-08-11 21:49
笔记
python 从入门到砸门
Tensorflow笔记
入门篇001
**python从入门到砸门Tensorflow学习记录001MNIST**所谓学问,本有学有问,但此文乃学渣笔记,故其中竟多是问题,少是经验教学,不明之处恳请大牛赐教,本人适做整理工作,愿为广大程序猿尽绵薄之力尔。MNIST数据集关于tensorflow的安装,此处不做说明。先引用一下Tensorflowimporttensorflowastf再引用input_data:第一次使用代码时:imp
宇宙第一爸
·
2018-08-11 21:49
笔记
深度学习笔记—什么是神经网络与TensorFlow实现神经网络?
自然语言处理实战-核心技术与算法书籍《涂铭刘详刘树春》)—推荐(吴恩达-深度学习)[http://mooc.study.163.com/smartSpec/detail/1001319001.htm]—推荐(
莫烦
系列
陈郑游
·
2018-08-10 11:08
@Python与深度学习
Python与深度学习
TensorFlow笔记
TensorFlow是什么?Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow为张量从流图的一端流动到另一端计算过程,是将复杂的数据结构传输至神经网络中进行分析和处理的系统。TensorFlow能干什么?图像识别,语音识别等什么是欠拟合,什么是过拟合?为什么要正则化?降低模型的复杂度以减少过拟合如何正则化?dropout:删除为零的神经元为什么要将数据
东都花神
·
2018-08-04 00:37
Python
莫烦
pytorch学习笔记(十三)——LSTM循环神经网络
高级神经网络——LSTM循环神经网络RNN的弊端之前我们说过,RNN是在有顺序的数据上进行学习的.为了记住这些数据,RNN会像人一样产生对先前发生事件的记忆.不过一般形式的RNN就像一个老爷爷,有时候比较健忘.为什么会这样呢?想像现在有这样一个RNN,他的输入值是一句话:‘我今天要做红烧排骨,首先要准备排骨,然后….,最后美味的一道菜就出锅了’,shua~说着说着就流口水了.现在请RNN来分析,我
小汤河河神
·
2018-08-03 09:42
pytorch
莫烦
pytorch学习笔记(十二)——循环神经网络RNN(Recurrent Neural Network)
高级神经网络结构——循环神经网络RNN序列数据我们想象现在有一组序列数据data0,1,2,3.在当预测result0的时候,我们基于的是data0,同样在预测其他数据的时候,我们也都只单单基于单个的数据.每次使用的神经网络都是同一个NN.不过这些数据是有关联顺序的,就像在厨房做菜,酱料A要比酱料B早放,不然就串味了.所以普通的神经网络结构并不能让NN了解这些数据之间的关联.处理序列数据的神经网络
小汤河河神
·
2018-08-03 09:52
pytorch
莫烦
pytorch学习笔记(十二)——什么是卷积神经网络CNN(Convolutional Neural Network)
高级神经网络——什么是什么是卷积神经网络CNN(ConvolutionalNeuralNetwork)卷积神经网络是近些年逐步兴起的一种人工神经网络结构,因为利用卷积神经网络在图像和语音识别方面能够给出更优预测结果,这一种技术也被广泛的传播可应用.卷积神经网络最常被应用的方面是计算机的图像识别,不过因为不断地创新,它也被应用在视频分析,自然语言处理,药物发现,等等.近期最火的AlphaGo,让计算
小汤河河神
·
2018-08-02 20:41
莫烦
pytorch学习笔记(十一)——Optimizer优化器
建造第一个神经网络——Optimizer优化器要点这节内容主要是用Torch实践,中起到的几种优化器。下图就是这节内容对比各种优化器的效果:伪数据为了对比各种优化器的效果,我们需要有一些数据,今天我们还是自己编一些伪数据,这批数据是这样的:importtorchimporttorch.utils.dataasDataimporttorch.nn.functionalasFimportmatplot
小汤河河神
·
2018-08-02 16:50
pytorch
莫烦
pytorch学习笔记(十)——加速神经网络训练
建造第一个神经网络——加速神经网络训练加速神经网络训练包括下面几种模式:MomentumAdaGradRMSPropAdamStochasticGradientDescent(SGD)越复杂的神经网络,越多的数据,我们需要在训练神经网络的过程上花费的时间也就越多.原因很简单,就是因为计算量太大了.可是往往有时候为了解决复杂的问题,复杂的结构和大数据又是不能避免的,所以我们需要寻找一些方法,让神经网
小汤河河神
·
2018-08-02 11:49
pytorch
莫烦
pytorch学习笔记(八)——保存提取
建造第一个神经网络——保存提取1.要点训练好一个模型,我们当然想要保存它,留到下次要用的时候直接提取直接用,这就是这节的内容啦。我们用回归的神经网络举例实现保存提取。2.保存我们快速地建造数据,搭建网络:torch.manual_seed(1)#reproducible#假数据x=torch.unsqueeze(torch.linspace(-1,1,100),dim=1)#xdata(tenso
小汤河河神
·
2018-08-01 16:53
pytorch
tensorflow笔记
(曹健老师):mnist数据集手写数字识别
分为三部分:前向传播,反向传播,数据测试。适应一下简单的结构化编程第一部分:前向传播(mnist_forward.py)#前向传播,两层神经网络importtensorflowastfimportnumpyasnpinput_data=784output_data=10layer_data=50defget_weight(shape,reg):w=tf.Variable(tf.truncated_
forever0_0love
·
2018-08-01 14:00
tensorflow
莫烦
pytorch学习笔记(六)——区分类型(分类)
建立第一个神经网络——区分类型(分类)1.要点上一节学习笔记(五)讲到,神经网络有两类,回归和分类,上节简单介绍了回归,本节介绍分类。2.建立数据集importtorchimportmatplotlib.pyplotasplt#假数据n_data=torch.ones(100,2)#数据的基本形态x0=torch.normal(2*n_data,1)#类型0xdata(tensor),shape=
小汤河河神
·
2018-07-31 20:17
pytorch
莫烦
pytorch学习笔记(五)——关系拟合(回归)
建造第一个神经网络——关系拟合(回归)1.要点神经网络分为两种类型,一种回归,一种分类。回归是连续的值,比如房价问题;分类是一堆数据,比如一堆图片,神经网络将起划分为两种不同类型。2.建立数据集我们创建一些假数据来模拟真实的情况.比如一个一元二次函数:y=a*x^2+b,我们给y数据加上一点噪声来更加真实的展示它。importtorchfromtorch.autogradimportVariabl
小汤河河神
·
2018-07-31 16:12
pytorch
莫烦
pytorch学习笔记(四)——激励函数(Activation)
1.什么是Activation普通神经网络出来的数据都是一个线性的数据,将输出来的结果用激励函数处理。2.Torch中的激励函数importtorchimporttorch.nn.functionalasF#激励函数都在这,nn是神经网络模块fromtorch.autogradimportVariable#做一些假数据来观看图像,-5到5,取200个点数据,x=torch.linspace(-5,
小汤河河神
·
2018-07-31 14:04
pytorch
tensorflow笔记
:常用函数说明
tensorflow笔记
:常用函数说明
tensorflow笔记
系列:(一)
tensorflow笔记
:流程,概念和简单代码注释(二)
tensorflow笔记
:多层CNN代码分析(三)
tensorflow笔记
duanyajun987
·
2018-07-31 10:19
神经网络
python
中国大学MOOC-人工智能实践:
Tensorflow笔记
-课程笔记 Chapter8 卷积网络实践
本篇博客为学习中国大学MOOC-人工智能实践:
Tensorflow笔记
课程时的个人笔记记录。具体课程情况可以点击链接查看。
tuzixini
·
2018-07-31 10:43
机器学习
莫烦
pytorch学习笔记(二)——变量(Variable)
1.什么是Variable在torch中的Variable就是一个存放会变化的值的地理位置。里面的值会不停发生变化,就像一个装鸡蛋的篮子,鸡蛋数会不断发生变化。那谁是里面的鸡蛋呢,自然就是torch的Tensor了(换言之就是torch是用tensor计算的,tensor里面的参数都是variable的形式),如果用Variable进行计算,那返回的也是一个同类型的Variable。Tensor:
小汤河河神
·
2018-07-30 20:00
莫烦
pytorch学习笔记(一)——torch or numpy
1.用Numpy还是TorchTorch自称为神经网络界的Numpy,因为他能将torch产生的tensor放在GPU中加速运算(前提是你有合适的GPU),就像Numpy会把array放在CPU中加速运算.所以神经网络的话,当然是用Torch的tensor形式数据最好咯.就像Tensorflow当中的tensor一样.当然,我们对Numpy还是爱不释手的,因为我们太习惯numpy的形式了.不过to
小汤河河神
·
2018-07-30 19:15
上一页
15
16
17
18
19
20
21
22
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他