E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
TensorFlow笔记
北京大学慕课:
Tensorflow笔记
9.1真实复杂场景手写英文体识别(复现笔记)
北京大学慕课:
Tensorflow笔记
9.1真实复杂场景手写英文体识别(复现笔记)前言一、配置二、准备工作三、训练模型四、测试模型补充:1.过程中遇到的问题1:某地址不存在原因分析解决方案2.过程中遇到的问题
Limulの小白笔记
·
2022-11-27 22:52
python
深度学习
python
深度学习
tensorflow
使用Keras搭建神经网络【
Tensorflow笔记
-ch3】
使用Keras搭建神经网络课程链接1tf.keras搭建神经网络八股1.1keras介绍tf.keras是tensorflow2引入的高封装度的框架,可以用于快速搭建神经网络模型,keras为支持快速实验而生,能够把想法迅速转换为结果,是深度学习框架之中最终易上手的一个,它提供了一致而简洁的API,能够极大地减少一般应用下的工作量,提高代码地封装程度和复用性。Keras官方文档深度学习编程框架中的
wykup
·
2022-11-27 01:22
AI
Tensorflow笔记
Tensorflow笔记
——第三讲:神经网络搭建八股
本节课目标:分享神经网络的搭建八股,用“六步法”,不到20行代码,写出手写数字识别训练模型。使用TensorflowAPI:tf.keras搭建网络八股。tf.keras是tensorflow2引入的高封装度的框架,可以用于快速搭建神经网络模型,keras为支持快速实验而生,能够把想法迅速转换为结果,是深度学习框架之中最终易上手的一个,它提供了一致而简洁的API,能够极大地减少一般应用下的工作量,
Ma Sizhou
·
2022-11-27 01:51
Tensorflow笔记
TensorFlow笔记
_04——八股搭建神经网络
目录4.八股搭建神经网络4.1神经网络搭建八股4.1.1Sequential搭建神经网络4.1.2类class搭建神经网络4.2MNist数据集4.2.1MNIST数据集说明4.2.2Sequential实现手写数字图片识别4.2.3类实现手写数字识别4.3Fashion数据集4.3.1Fashion数据集说明4.3.2Sequential实现fashion数据集4.3.3类实现fashion数据
要什么自行车儿
·
2022-11-27 01:15
#
TensorFlow2.0
tensorflow
神经网络
深度学习
TensorFlow笔记
_tf.keras搭建神经网络
1.import:导入相关模块2.train,test:指定输入网络的训练集和测试集3.model=tf.keras.models.Sequential:逐层搭建神经网络或classMyModel(Model)model=MyModel4.model.compile:配置训练方法,选择训练时使用的优化器、损失函数和最终评价指标5.model.fit:执行训练过程,告知训练集和测试集输入值和标签、每
jinlin_
·
2022-11-26 17:50
深度学习
tensorflow
keras
神经网络
Tensorflow笔记
之 全连接层tf.kera.layers.Dense()参数含义及用法详解
想了解Dense()全连接层函数的参数意义和用法,首先来一段官方文档,这是tf.keras.layers.Dense()函数的参数,这么多参数需要逐个去理解它的用法,我们先理解每个函数的含义,然后通过代码验证:tf.keras.layers.Dense(units,activation=None,use_bias=True,kernel_initializer='glorot_uniform',b
园游会的魔法糖
·
2022-11-26 16:07
CNN
tensorflow
深度学习
Tensorflow笔记
——tf.nn.conv2d_transpose反卷积
tf.nn.conv2d_transpose反卷积(转置卷积)首先无论你如何理解反卷积,请时刻记住一点反卷积操作是卷积的反向接下来介绍一下反卷积的函数conv2d_transpose(value,filter,output_shape,strides,padding=“SAME”,data_format=“NHWC”,name=None)除去name参数用以指定该操作的name,与方法有关的一共六
·城府、
·
2022-11-23 04:07
深度学习
卷积
TensorFlow笔记
_03——神经网络优化过程
正则化减少过拟合3.8神经网络参数优化器3.8.1SGD优化器3.8.2SGDM优化器3.8.3Adagrad优化器3.8.4RMSProp优化器3.8.4Adam优化器3.8.5Adam深入理解上一篇:
TensorFlow
要什么自行车儿
·
2022-11-22 21:28
#
TensorFlow2.0
tensorflow
神经网络
python
深度学习
永兴的
tensorflow笔记
-9 全连接MNIST初体验(手写字识别)
一、什么是全联接神经网络?全连接神经网络(fullyconnectedneuralnetwork),顾名思义,就是相邻两层之间任意两个节点之间都有连接。全连接神经网络是最为普通的一种模型(比如和CNN相比),由于是全连接,所以会有更多的权重值和连接,因此也意味着占用更多的内存和计算。全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数
深度探寻者
·
2022-11-21 21:28
永兴的TensorFlow笔记
算法
python
tensorflow
神经网络
人工智能实践:
Tensorflow笔记
Class 6:循环神经网络
目录6.1循环核1.循环核2.按时间步展开6.2循环计算层1.层数2.Tensorflow描述循环计算层6.3循环计算过程(Ⅰ)步骤代码6.4循环计算过程(Ⅱ)步骤代码6.5Embeddng编码输入一个字母6.6RNN实现股票预测6.7LSTM实现股票预测6.8GRU实现股票预测6.1循环核复习:卷积就是特征提取器(CBAPD),借助卷积核提取空间特征后,送入全连接网络1.循环核参数时间共享,循环
By4te
·
2022-11-20 16:55
Python
机器学习
tensorflow
人工智能
rnn
人工智能实践:
Tensorflow笔记
Class 4:网络八股拓展
目录4.1自制数据集4.2数据增强4.3断点续训4.5参数提取4.6acc&loss可视化4.7给图识物4.1自制数据集自制数据使用方法:例如:4.2数据增强4.3断点续训4.5参数提取4.6acc&loss可视化4.7给图识物
By4te
·
2022-11-20 16:25
Python
机器学习
tensorflow
人工智能
网络
Tensorflow笔记
(一)Tensor的数据类型转换
目前处于学习Tensorflow的第一阶段,记录一下我的笔记。文章目录一、tf.tensor的基础知识二、创建tensor三、数据类型1.Create(初始化)2.TensorProperty(属性)3.CheckTensorType(判断是否是Tensor)4.Convert(类型转换)5.tf.Variable6.Tonumpy一、tf.tensor的基础知识scaler(标量):56vect
#偏执I765
·
2022-11-16 18:41
tensorflow
python
numpy
人工智能实践:
Tensorflow笔记
14:cifiar彩色图片数据集,
cifiar彩色图片数据集,导入:显示一些内容:显示训练的第一章图片:显示第一个训练的内容:为32行32列3通道的三维数组:打印测试结果:打印输入的形状:
cc 提升ing 变优秀ing
·
2022-10-30 14:51
环境
神经网络常用优化器
神经网络常用优化器文章目录神经网络常用优化器前言一、预备知识和参数说明二、随机梯度下降SGD三、SGDM三、Adagrad四、RMSProp五、Adam前言 该内容为笔者学习中国大学慕课中北京大学曹健老师
Tensorflow
卷_心_菜
·
2022-10-22 07:28
深度学习
神经网络
深度学习
机器学习
Tensorflow笔记
———循环神经网络RNN
目录循环神经网络(RecurrentNeuralNetwork,RNN)1.卷积神经网络与循环神经网络简单对比2.详解RNN2.1循环核2.2循环核按时间步展开2.3循环计算层:向输出方向生长3.RNN训练3.1Tensorflow中实现循环计算层(简述)3.2循环计算过程之1prel4.实践4.1.用python实现单字母预测4.2.用python实现多字母预测4.3Embedding编码4.4
中意灬
·
2022-09-21 15:02
机器学习
Tensorflow笔记
——卷积神经网络
1.全连接网络全连接NN特点:每个神经元与前后相邻的每一个神经元都有连接关系。(可以实现分类和预测)全连接网络的参数个数位:(前层*后层+后层)如下面构建的这个全连接神经网络,其参数量为28*28*128w+128b+128*10w+10=101770个而上面的代码就是Mnist数据集分类的全连接神经网络模型,而在实际应用中,我们所处理的图像不是灰度图,大部分是彩色图,这样会涉及到更多的参数,虽然
中意灬
·
2022-09-21 15:26
机器学习
tensorflow
cnn
python
神经网络
TensorFlow神经网络(八)卷积神经网络之Lenet-5
一、Lenet神经网络基本结构【注】内容来自MOOC人工智能实践
TensorFlow笔记
课程第七讲第2课注意,最后将第二池化层后的输出拉直送入全连接层。
petSym
·
2022-09-08 08:56
python
tensorflow
machine
learning
Tensorflow笔记
——基于Mnist数据集图片分类的神经网络
目录1.所用到的函数解析打开图片显示图片保存图片转换图片模式转化为Numpy数组文件保存与读取回调函数2.构建神经网络模型数据集代码训练效果本文基于Mnist图像搭建其自己所需数据集,从而对其数据集进行保存,然后对模型进行训练,保存其最优参数,断点续训,实现acc,loss的可视化,对未知图片进行处理然后带入预测。1.所用到的函数解析打开图片img=Image.open('图片文件路径')显示图片
中意灬
·
2022-09-01 11:21
机器学习
python
开发语言
tensorflow
神经网络
分类
Tensorflow笔记
——第二讲:神经网络优化
目录2.1预备知识2.1.1tf.where()函数:2.1.2np.random.RandomState.rand()返回一个[0,1)之间的随机数:2.1.3np.vstack()将两个数组按垂直方向叠加:2.1.4np.mgrid[]、.ravel()、np.c_[]三个函数结合使用,生成网格坐标点:2.2神经网络(NN)复杂度学习率2.1.1神经网络(NN)复杂度:2.2.2学习率2.3激
Ma Sizhou
·
2022-08-24 11:57
Tensorflow笔记
Tensorflow笔记
——第一讲:神经网络计算
目录1.1人工智能三学派1.2神经网络设计过程1.3张量生成1.3.1创建张量:1.3.2将numpy数据类型转换为Tensor类型:1.3.3创建一些特殊的张量:1.3.4生成均匀分布随机数:1.4常用函数1.4.1求最大最小值等函数:1.4.2tf.Variable()函数将变量标记为“可训练”:1.4.3数学运算函数:1.4.4平方、次方与开方函数:1.4.5矩阵乘法函数tf.matmul(
Ma Sizhou
·
2022-08-24 11:56
Tensorflow笔记
Tensorflow笔记
——神经网络图像识别(五)手写数字识别
转载于:https://www.cnblogs.com/caiyishuai/p/9597642.html
weixin_30938149
·
2022-08-24 11:55
曹建老师
Tensorflow笔记
——神经网络搭建八股
'''前向传播就是搭建网络,设计网络结构forward.pyforward()get_weight()get_bias()'''defforward(x,regularizer):w=b=y=returnydefget_weight(shape,regularizer):w=tf.Variable()#如果使用正则化把每一个w的正则化损失加到总损失losses中ifregularizer!=Non
HelpMeMoon
·
2022-08-24 11:25
tensorflow
神经网络
机器学习
Tensorflow笔记
——卷积神经网络
实践反作用于理论一、概论。全连接NN:每个神经元与前后相邻层的每一个神经元都有连接关系,输入是特征,输出为预测的结果,参数的个数:∑(前层X后层+后层)为防止过拟合,实际应用中会先对原始图像进行特征提取,在把提取到的特征喂给全连接网络,卷积(Convolutional):可认为是一种有效提取图像特征的方法。一般会用一个正方形卷积核,遍历图片上的每个点。图片区域内,相对应的每一个像素值,乘以卷积核内
weixin_30730151
·
2022-08-24 11:25
人工智能
Tensorflow笔记
——第一讲 神经网络计算(1.4 1.5)
MOOC人工智能实践:
Tensorflow笔记
1.41.51.4TF2常用函数1tf.casttf.reduce_mintf.reduce_maxtf.reduce_meantf.reduce_sumtf.VariableTensorflow
HFUT_橘生淮南
·
2022-08-24 11:25
深度学习
tensorflow
深度学习
神经网络
Tensorflow笔记
——第一讲 神经网络计算(1.1 1.2 1.3)
MOOC人工智能实践:
Tensorflow笔记
1.11.21.31.1人工智能学派行为主义符号主义连接主义1.2神经网络设计过程准备数据搭建网络优化参数应用网络1.3张量生成张量的定义数据类型如何创建一个
HFUT_橘生淮南
·
2022-08-24 11:54
深度学习
tensorflow
神经网络
深度学习
Tensorflow笔记
——神经网络优化
目录1.常用函数:(1)tf.cast(2)tf.random.normal(3)tf.where2.神经网络复杂度(1)时间复杂度(2)空间复杂度3.学习率衰减策略(1)指数衰减(2)分段常数衰减4.激活函数(1)sigmoid(2)tanh(4)LeakyReLU(5)softmax(6)建议5.损失函数(1)均方误差损失函数(2)交叉熵损失函数tf.keras.losses.Categori
中意灬
·
2022-08-24 11:22
机器学习
神经网络
tensorflow
深度学习
Tensorflow笔记
——搭建神经网络
一、基本概念基于Tensorflow的NN:用张量表示数据用计算图搭建神经网络用会话执行计算图优化线上的权重(参数),得到模型1.张量:就是多维数组(列表),用“阶”表示张量的维度。0阶张量称作标量,表示一个单独的数:比如S=1231阶张量称作向量,表示一维数组:比如V=[1,2,3]2阶张量称作矩阵,表示二维数组:比如m=[[1,2,3],[4,5,6],[7,8,9]]判断张量是几阶的,就通过
蓑衣老汉
·
2022-08-24 11:22
Python机器学习
Tensorflow笔记
——新版本函数变化
tensorflow一些Op的变化Summary函数的改变基本运算mul->multiplysub->subtract
yhccc
·
2022-07-25 09:16
tensorflow
tensorflow
python
tensorflow中同时两个损失函数_深度学习
TensorFlow笔记
——损失函数
1.损失函数---------经典损失函数--------交叉熵:交叉熵刻画了两个概率分布之间的距离,它是分类问题中使用比较广的一种损失函数。通过q来表示p的交叉熵为:Softmax将神经网络前向传播得到的结果变成概率分布,原始神经网络的输出被用作置信度来生成新的输出,而新的输出满足概率分布的所有要求。交叉熵函数不是对称的,H(p,q)!=H(q,p),他刻画的是通过概率分布q来表达概率分布p的困
云海天狼
·
2022-07-25 09:43
TensorFlow笔记
——常用运算函数解析
1.矩阵乘法tf.matmul(a,b,transpose_a=False,transpose_b=False,adjoint_a=False,adjoint_b=False,a_is_sparse=False,b_is_sparse=False,name=None)函数实现了数学上的矩阵乘法,最简单的二维例子:a=np.array([[1,2],[3,4]])b=np.array([[5,6],
手撕机
·
2022-07-25 09:09
tensorflow笔记
(三)——损失函数
一、概述机器学习主要面对两类问题:回归和分类。不过一个问题属于分类还是回归的界定却并不清晰。比如点击率预估输入样本的Label是0-曝光和1-点击,输出的是用户点击的概率,是一个连续值,你说点击率是回归问题还是分类问题?从目标来看输出一个率值而非类别应该算回归,但从输入来看是标签离散的,应该算是分类。本质上这两类问题是一体两面的,分类模型可将回归模型的输出离散化,回归模型也可将分类模型的输出连续化
starxhong
·
2022-07-25 09:39
tensorflow
tensorflow
python
深度学习
loss
TensorFlow笔记
——OP
前言tensorflow是一个符号式编程框架,需要定义graph,然后用一个session来运行这个graph得到结果在graph中,我们需要定义数据和操作其中,数据就是Tensor对象;而操作就是Operation对象,简称OP记住这两点常见OP区分一下操作函数与操作对象:先举个例子:importtensorflowastfdefop_demo():a=tf.constant(5)print("
DAI_KAI_KAI
·
2022-07-25 09:38
tensorflow
TensorFlow笔记
——基本函数及概念
目录神经网络设计过程TensorFlow基本概念基本函数1.创建张量的方法2.数据类型转换3.取张量中最小值与最大值4.求和与平均值5.标记变量为可训练6.四则运算(维度和类型应一致)7.幂次运算8.矩阵相乘(数据类型应相同)9.自动生成特征/标签对10.计算梯度11.枚举12.独热码转换13.输出值符合概率分布14.对参数实现自更新15.得到最大(小)值的索引鸢尾花数据集分类TensorFlow
中意灬
·
2022-07-25 09:08
机器学习
tensorflow
深度学习
python
python如何获取tensor()数据类型中的值
目录获取tensor()数据类型的值一、问题二、解决方法
tensorflow笔记
:tensor数据类型常见的数据类型载体Tensor是什么Tensor支持的类型TensorProperty获取tensor
·
2022-07-16 12:50
DL with python(22)——tensorflow实现GRU股票预测
本文涉及到的是中国大学慕课《人工智能实践:
Tensorflow笔记
》第六讲第14节的内容,实现GRU型循环神经网络输入60天的价格预测第61天的价格。
素观江湖真
·
2022-06-29 07:17
Python深度学习
深度学习
tensorflow
python
rnn
TensorFlow笔记
_经典卷积神经网络_LeNet_AlexNet_VGGNet_InceptionNet_ResNet
1.LeNetLeNet是卷积神经网络的开篇之作,共享卷积核,减少网络参数。classLeNet5(Model):def__init__(self):super(LeNet5,self).__init__()self.c1=Conv2D(filters=6,kernel_size=(5,5),activation='sigmoid')self.p1=MaxPool2D(pool_size=(2,2
精灵耶
·
2022-05-25 07:31
深度学习
tensorflow
cnn
深度学习
TensorFlow笔记
_TFRecord生成和读取
学习视频链接:TFRecord生成和读取-深度学习框架应用开发-TensorFlow2.0|百科荣创在线学习平台TFRecord格式介绍正常读取数据集是从硬盘直接读取数据,这样需要先将数据读取出来再进行训练,这意味着需要通过IO对硬盘上的数据再次进行读取,再把数据放入内存中,之后再送入神经网络进行运算,由于读取数据需要等待时间,这样就造成了大部分资源的浪费,导致训练时间过长,基于此,tensorf
精灵耶
·
2022-05-25 07:31
深度学习
tensorflow
人工智能
python
TensorFlow笔记
_卷积神经网络搭建
1.预备知识在实际应用中,图像大多是彩色图像,虽然全连接网络一般被认为是分类预测的最佳网络,但待优化的参数过多,容易导致模型过拟合。为了解决参数量过大而导致模型过拟合的问题,一般不会将原始图像直接输入,而是先对图像进行特征提取,再将提取到的特征输入全连接网络。1.1卷积卷积是一种有效提取图像特征的方法。用一个正方形的卷积核,按指定步长在输入特征图上滑动,遍历输入特征图中的每个像素点。每一个步长,卷
精灵耶
·
2022-05-25 07:00
深度学习
tensorflow
cnn
深度学习
TensorFlow笔记
_采用迁移学习的方法搭建MobileNetV2网络实现自建数据集的图像分类任务
学习视频链接:图像分类项目实战-深度学习框架应用开发-TensorFlow2.0|百科荣创在线学习平台迁移学习把已训练好的模型参数迁移到新的模型来帮助新模型训练。考虑到大部分数据或任务是存在相关性的,所以通过迁移学习可以将已经学到的模型参数通过某种方式来分享给新模型从而加快并优化模型的学习效率,而不用像大多数网络那样从零学习。迁移学习常见的策略是采用在ImageNet上预训练好的模型,然后通过微调
精灵耶
·
2022-05-25 07:17
深度学习
tensorflow
迁移学习
深度学习
Tensorflow笔记
(基础篇):图与模型的加载与存储
前言自己学Tensorflow,现在看的书是《TensorFlow技术解析与实战》,不得不说这书前面的部分有点坑,后面的还不清楚.图与模型的加载写的不清楚,书上的代码还不能运行=-=,真是BI….咳咳.之后还是开始了查文档,翻博客的填坑之旅,以下为学习总结.快速应用存储与加载,简单示例#一般而言我们是构建模型之后,session运行,但是这次不同之处在于我们是构件好之后存储了模型#然后在sessi
weixin_30585437
·
2022-05-15 07:27
人工智能
Tensorflow笔记
之神经网络优化算法
神经网络中的优化算法最常用反向传播算法和梯度下降算法来调整神经网络中参数的取值。梯度下降算法主要用于优化单个参数的取值,而反向传播算法给出了一个高效的方式在所有参数上使用梯度下降算法,从而使神经网络模型在训练数据上的损失函数尽可能小。反向传播算法是训练神经网络的核心算法,他可以根据定义好的损失函数优化神经网络中参数的取值,从而使神经网络模型在训练数据集上的损失函数达到一个较小值。神经网络模型中参数
繁华落叶草
·
2022-05-13 07:13
神经网络
tensorflow
深度学习
Tensorflow笔记
之神经网络进一步优化
在前面已经介绍了神经网络优化的基本算法,通过梯度下降算法和反向传播算法。其中梯度下降算法学习率的设置尤为重要,因为它是控制参数更新的速度,决定了每次更新的幅度,如果幅度过大,那么可能导致参数在极优值得两侧来回移动。以为例,如果优化中使用的学习率为1,那么整个优化过程如下表所示:当学习率过大时,梯度下降算法的运行过程轮数当前轮参数值梯度X学习率更新后参数值152x5x1=105-10=-52-52x
繁华落叶草
·
2022-05-13 07:13
tensorflow
深度学习
神经网络
TensorFlow笔记
_神经网络实现鸢尾花分类
1.准备数据数据集读入数据集乱序生成训练集和测试集将输入特征和标签配对,每次读入一小撮(batch)2.搭建网络定义神经网络中所有可训练参数3.参数优化嵌套循环迭代,with结构更新参数,显示当前loss4.测试效果计算当前参数前向传播后的准确率,显示当前acc数据集介绍共有数据150组,每组包括花萼长、花萼宽、花瓣长、花瓣宽4个输入特征。同时给出了,这一组特征对应的鸢尾花类别。类别包括Setos
精灵耶
·
2022-05-13 07:11
深度学习
机器学习
人工智能
tensorflow
jupyter
神经网络
TensorFlow笔记
_常见函数
1.强制tensor转换为该数据类型tf.cast(张量名,dtype=数据类型)2.计算张量维度上元素的最小值/最大值tf.reduce_min(张量名) tf.reduce_max(张量名)3.计算张量沿着指定维度的平均值/和tf.reduce_mean(张量名,axis=操作轴)tf.reduce_sum(张量名,axis=操作轴)4.将变量标记为“可训练”,被标记的变量会在反向传播中记录梯
精灵耶
·
2022-05-13 07:10
深度学习
tensorflow
深度学习
人工智能
TensorFlow笔记
_初识神经网络设计过程
神经网络设计过程准备数据,要构成特征和标签对搭建神经网络的网络结构通过反向传播,优化连接的权重,直到模型的准确率达到要求,得到最优的连线权重,然后将模型保存起来用保存的模型,输入从未见过的新数据,它会通过前向传播输出概率值,概率值最大的就是分类和预测的结果鸢尾花分类为例1构建数据集数据集包括鸢尾花萼长、花萼宽、花瓣长、花瓣宽以及对应的类别,鸢尾花萼长、花萼宽、花瓣长、花瓣宽作为输入特征,类别作为标
精灵耶
·
2022-05-13 07:40
深度学习
神经网络
tensorflow
深度学习
TensorFlow笔记
_张量生成
TensorFlow中的Tensor表示张量,表示0阶到n阶数组(列表)创建一个张量tf.constant(张量内容,dtype=数据类型)将numpy的数据类型转换为Tensor类型tf.convert_to_tensor(数据名,dtype=数据类型)创建全为零的张量tf.zeros(维度)创建全为1的张量tf.ones(维度)创建指定值的张量tf.fill(维度,指定值)生成正态分布的随机数
精灵耶
·
2022-05-13 07:40
深度学习
tensorflow
人工智能
python
Tensorflow笔记
_神经网络优化
一:神经元模型#神经元模型:神经元模型用公式表示为::?(∑?????+?),其中f表示为激活函数,神经网络是以神经元为基本单位构成#激活函数:引入非线性激活因素,提高模型的表达能力常用的激活函数有#激活函数relutf.nn.relu()#激活函数sigmoldtf.nn.sigmold()#激活函数tanhtf.nn.tanh()#神经网络的复杂度:1:可用神经网络的层数和神经网络中待优化的参
weixin_34082695
·
2022-05-13 07:30
人工智能
python
Tensorflow 笔记:神经网络优化(1)
转载于人工智能实践:
Tensorflow笔记
神经元模型:用数学公式表示为:?(∑?????+?),f为激活函数。神经网络是以神经元为基本单元构成的。激活函数:引入非线性激活因素,提高模型的表达力。
一个莫得感情的代码机器
·
2022-05-13 07:56
#
Tensorflow笔记
TensorFlow笔记
之神经网络优化——损失函数
神经元模型:用数学公式表示为,f为激活函数。神经网络是以神经元为基本单位构成的。激活函数:引入非线性激活函数,提高模型的表达力。常用的激活函数有relu、sigmoid、tanh等。①relu:在TensorFlow中,用tf.nn.relu()表示②sigmoid:在TensorFlow中,用tf.nn.sigmoid()表示③tanh:在TensorFlow中,用tf.nn.tanh()表示损
ElephantFlySong
·
2022-05-13 07:54
TensorFlow
入门
tensorflow笔记
之神经网络优化
激活函数:神经网络的复杂度:通常采用神经网络的层数和神经网络的参数的个数表示。计算神经网络的层数的时候只计算具有计算能力的层。层数=隐藏层的层数+1个输出层总参数=总W+总b损失函数:预测值(y)与已知答案(y_)的差距。神经网络优化的目标:loss最小。主流的计算loss的方法:mse(meansquarederror均方误差)、自定义、ce(crossentropy交叉熵)栗子:预测酸奶日销量
韩韩的博客
·
2022-05-13 07:19
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他