E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《神经网络与深度学习》
反向传播算法及其实现
理清反向传播算法---背景---定义全连接网络---前向运算---链式求导---反向传播算法代码一(较粗糙,代码二会改进),预测sin(x)曲线代码二:添加Batch训练,替换激活函数—背景去年看了《
神经网络与深度学习
李奥去哪了
·
2022-12-26 22:12
python
BP反向传播算法
HBU_
神经网络与深度学习
实验2 pytorch入门
目录写在前面的一些内容一、张量与算子的概念二、张量的操作1.创建张量(1)指定数据创建张量(2)指定形状创建张量(3)指定区间创建张量2.张量的属性(1)张量的形状(2)形状的改变(3)张量的数据类型(4)张量的设备位置3.张量与Numpy数组转换(1)张量转化为numpy数组(2)numpy数组转化为张量4.张量的访问(1)索引和切片(2)访问张量(3)修改张量5.张量的运算(1)数学运算(2)
ZodiAc7
·
2022-12-25 10:44
吴恩达AI机器学习-01
神经网络与深度学习
week2中-神经网络基础
‼️博客为作者学习回顾知识点所用,并非商用,如有侵权,请联系作者删除‼️目录2.11向量化什么是向量化vectorization?loop循环向量化2.12向量化的更多例子2.13向量化Logistic回归2.14向量化Logistic回归的梯度输出2.15python中的广播2.11向量化什么是向量化vectorization?importnumpyasnpa=np.array[1,2,3,4]
SuzyBaiiyy:)
·
2022-12-24 13:41
机器学习
python
机器学习
深度学习
人工智能
机器学习十天学习计划四—
神经网络与深度学习
神经元模型M-P神经元模型:一个神经元接收到其他n个神经元传递过来的输入信号,这些信号通过带权重的连接进行传递,神经元接收到的总输入值将与神经元的阈值进行比较,然后通过“激活函数”(一般是sig(x)阶跃函数或者Sigmoid函数)进行处理以产生神经元的输出感知机模型:感知机是一个有若干输入和一个输出的模型,通过一些二进制的输入,x1,x2……,然后产生一个二进制的输出。神经元的输出要么是0要么是
北海星
·
2022-12-24 10:34
神经网络
python
机器学习
神经网络与深度学习
笔记——梯度下降算法是什么?
神经网络与深度学习
笔记系列一共有五个专题,分别是第一章使用神经网络识别手写数字——梯度下降算法是什么。主要介绍了神经网络的基础例如感知器激活函数等概念,最主要介绍了梯度下降算法。
刘爱然
·
2022-12-23 22:55
神经网络与机器学习笔记
深度学习
神经网络
【
神经网络与深度学习
】各种激活函数+前馈神经网络理论 ① S型激活函数 ② ReLU函数 ③ Swish函数 ④ GELU函数 ⑤ Maxout单元
文章目录一、常见的三种网络结构二、激活函数(1)S型激活函数logistic函数和Tanh函数:hard-logistic函数和hard-Tanh函数:(2)ReLU函数带泄露的ReLU【leakyReLU】带参数的ReLU【ParametricReLU或者PReLU】指数线性单元【ELU】ReLU函数的平滑版本【SoftPlus】四种函数的图像(3)Swish函数(4)GELU函数(5)Maxo
Bessie_Lee
·
2022-12-23 13:29
学习ML+DL
神经网络
深度学习
机器学习
激活函数
人工智能
【更新中】智能车的逻辑与决策——介绍、理论与应用
VSM)3.深度学习3.1“层”Layers3.1.1池化层3.1.2全连接层3.1.3卷积层3.1.4SOFTMAX3.1.5回归层REGRESSIONLAYER3.2长短时记忆网络LSTM0.置顶资料
神经网络与深度学习
你看不见我写的blog
·
2022-12-23 01:04
资料
车辆决策
PyTorch基本操作练习
实现了一些PyTorch基本操作,原理可参考《
神经网络与深度学习
》《动手学深度学习》中的内容。个人练习,切勿与任何作业和考试挂钩。代码运行在Python3.9.7版本以及Pytorch1.10版本中。
JMDou
·
2022-12-21 13:16
深度学习练习题
pytorch
python
人工智能
深度学习
HBU_
神经网络与深度学习
实验7 前馈神经网络:鸢尾花分类
数据处理(1)数据分组(2)数据读取(3)用DataLoader进行封装3.模型构建4.完善Runner类5.模型训练6.模型评价7.模型预测二、实验Q&A三、实验总结写在前面的一些内容本文为HBU_
神经网络与深度学习
实验
ZodiAc7
·
2022-12-21 06:38
HBU_
神经网络与深度学习
实验5 前馈神经网络:二分类任务
目录写在前面的一些内容一、神经元1.净活性值2.激活函数(1)Sigmoid型函数(2)ReLU型函数二、基于前馈神经网络的二分类任务1.数据集构建2.模型构建(1)线性层算子(2)Logistic算子(激活函数)(3)层的串行组合3.损失函数4.模型优化(1)反向传播算法(2)损失函数(3)Logistic算子(4)线性层(5)整个网络(6)优化器5.完善Runner类:RunnerV2_16.
ZodiAc7
·
2022-12-21 06:38
HBU_
神经网络与深度学习
实验6 前馈神经网络:自动梯度计算 及 优化问题
目录写在前面的一些内容一、自动梯度计算和预定义算子1.利用预定义算子重新实现前馈神经网络2.完善Runner类3.模型训练4.性能评价二、优化问题1.参数初始化2.梯度消失问题(1)模型构建(2)使用Sigmoid型函数进行训练(3)使用ReLU函数进行模型训练3.死亡ReLU问题(1)使用ReLU进行模型训练(2)使用LeakyReLU进行模型训练三、实验总结写在前面的一些内容本文为HBU_神经
ZodiAc7
·
2022-12-21 06:38
HBU_
神经网络与深度学习
实验1 numpy
目录一、numpy的array操作二、array的数学运算三、matplotlib在numpy中的简单应用四、实验总结注:本文为HBU_
神经网络与深度学习
实验(2022年秋)实验1的实验报告,此文对模板
ZodiAc7
·
2022-12-21 06:07
numpy
深度学习
神经网络
python
HBU_
神经网络与深度学习
实验3 线性回归
目录写在前面的一些内容一、实现一个简单的线性回归模型1.数据集构建2.模型构建3.损失函数4.模型优化5.模型训练6.模型评估二、多项式回归1.数据集构建2.模型构建3.模型训练4.模型评估三、Runner类介绍四、基于线性回归的波士顿房价预测1.数据处理(1)数据预览(2)数据清洗(3)数据集划分(4)特征工程2.模型构建3.完善Runner类4.模型训练5.模型测试6.模型预测五、实验Q&A六
ZodiAc7
·
2022-12-21 06:07
[2022-12-17]
神经网络与深度学习
第5章 - 循环神经网络(part 1)
contents循环神经网络part1-RNN记忆能力实验写在开头循环神经网络的记忆能力实验数据集构建数据集构建函数数据集加载构建Dataset类模型构建嵌入层SRN层自己实现torch框架实现比较线性层模型汇总模型训练训练指定长度的数字预测模型模型评价写在最后循环神经网络part1-RNN记忆能力实验写在开头在前面的作业中我们就已经提及,循环神经网络是带有记忆能力的一类神经网络结构,就像数字电路
三工修
·
2022-12-18 07:42
[DL]神经网络与深度学习
深度学习
神经网络
rnn
[2022-12-17]
神经网络与深度学习
hw9 - bptt
contentshw9-BackPropagationThroughTimetask1题目内容题目思路+题目解答题目总结task2题目内容题目思路+题目解答题目总结hw9-BackPropagationThroughTimetask1题目内容推导RNN反向传播算法BPTT。题目思路+题目解答首先我们要清楚RNN进行前向传播的过程:由输入层→state层:输入层部分除了原始的输入资料外会再加上t-1
三工修
·
2022-12-18 07:12
[DL]神经网络与深度学习
深度学习
神经网络
神经网络与深度学习
笔记(五)偏差与方差
文章目录前言什么是高偏差,高方差利用数据集误差判断拟合情况处理方式看模型在训练集上的表现看模型在开发集上的表现后记前言这篇文章的内容主要是偏差与方差的相关解释什么是高偏差,高方差在训练神经网络时,我们需要使用偏差与方差评估模型的准确度。但是,到底什么是高偏差?什么是高方差?我们举个靶心的例子。如果数据点集中于非靶心的地方,就是欠拟合。在这种情况下,模型属于高偏差如果数据点集中于靶心。拟合程度就刚刚
沧夜2021
·
2022-12-17 13:15
深度学习专项课程
神经网络
深度学习
机器学习
人工智能
《
神经网络与深度学习
》学习笔记_表示学习
表示学习:如何自动从数据中学习好的表示通过构建具有一定“深度”的模型,可以让模型来自动学习好的特征表示(从底层特征,到中层特征,再到高层特征),从而最终提升预测或识别的准确性原始数据——底层特征——中层特征——高层特征——预测——结果其中,“底层特征——中层特征——高层特征”称为表示学习1.特征提取VS表示学习特征提取:基于任务或先验对去除无用特征并不保证对分类器的结果有提供与帮助表示学习:通过深
全自动学习机器
·
2022-12-16 13:32
学习杂记
人工智能
吴恩达深度学习deeplearning.ai——第一门课:
神经网络与深度学习
——第三节:浅层神经网络
3.1神经网络概述(NeuralNetworkOverview)本章你将学习如何实现一个神经网络。在我们深入学习具体技术之前,我希望快速的带你预览一下本章你将会学到的东西。如果这个视频中的某些细节你没有看懂你也不用担心,我们将在后面的几个视频中深入讨论技术细节。现在我们开始快速浏览一下如何实现神经网络。上章我们讨论了逻辑回归,我们了解了这个模型(见图3.1.1)如何与下面公式3.1建立联系。图3.
Lishier99
·
2022-12-15 16:06
深度学习
深度学习
人工智能
神经网络
逻辑回归
TensorFlow2.1入门学习笔记(3)——Pillow数字图像处理
主要学习的资料西安科技大学:
神经网络与深度学习
——TensorFlow2.0实战,北京大学:人工智能实践Tensorflow笔记博客从tf常用的库开始,需要学习python
Wang Yuexin
·
2022-12-15 15:55
python
计算机视觉
深度学习
tensorflow
自动驾驶
1-4 Coursera吴恩达《
神经网络与深度学习
》第四周课程笔记-深层神经网络
记录吴恩达深度学习专项课程笔记,方便之后回顾,共5门课,这是第一门课《
神经网络与深度学习
》第四周深层神经网络的课程笔记,那我们开始吧。上节课课程1-3浅层神经网络我们主要介绍了浅层神经网络。
双木的木
·
2022-12-15 14:14
吴恩达深度学习笔记
笔记
AI
神经网络
机器学习
人工智能
深度学习
python
神经网络与深度学习
:人工神经网络(上)
人工神经网络(上)1.神经元与感知机2.实例:实现单层神经网络2.1神经网络的设计2.2神经网络的实现2.3具体步骤实现3.多层神经网络3.1异或问题3.2复杂边界问题3.3前馈神经网络3.4全连接网络3.5万能近似定理3.6隐含层的设计4.误差反向传播算法5.激活函数5.1sigmoid函数5.2ReLU函数5.3Leaky-ReLU函数5.4其它函数6.实例:实现多层神经网络6.1多层神经网络
Twinkle1231
·
2022-12-14 01:26
深度学习
神经网络
神经网络与深度学习
:人工神经网络(下)
人工神经网络(下)1.小批量梯度下降法1.1批量梯度下降1.2随机梯度下降1.3小批量梯度下降2.梯度下降法的优化2.1小批量样本的选择2.2批量大小2.3学习率2.4梯度3.Keras和tf.Keras4.Sequential模型3.1搭建模型3.2配置训练方法3.3训练模型3.4评估模型3.5使用模型5.实例:实现手写数字识别6.模型的保存和加载6.1保存模型参数6.2加载模型参数6.3保存整
Twinkle1231
·
2022-12-14 01:26
深度学习
神经网络
神经网络与深度学习
:卷积神经网络
卷积神经网络1.深度学习基础2.图像识别与深度学习3.图像卷积3.1图像卷积运算3.2图像卷积在机器学习中的应用4.卷积神经网络5.卷积神经网络的优化1.深度学习基础特征工程:尽可能选择和构建出好的特征,使得机器学习算法能够达到最佳性能。深度神经网络:有多层隐含层的神经网络。深度学习:自动的从数据中学习与任务相关的特征;提取出的特征缺乏可解释性。端到端学习:自动从数据中学习特征(端到端思想就是输入
Twinkle1231
·
2022-12-14 01:14
深度学习
神经网络
cnn
《
神经网络与深度学习
》算法伪代码汇总
目录第三章线性模型算法3.1两类感知器的参数学习算法算法3.2一种改进的平均感知器参数学习算法算法3.3广义感知器参数学习算法第四章前反馈神经网络算法4.1使用反向传播算法的随机梯度下降训练过程第七章网络优化与正则化算法7.2一种逐次减半的动态资源分配方法第十章模型独立的学习方式算法10.1二分类的AdaBoost算法算法10.2自训练的训练过程算法10.3协同训练的训练过程算法10.4多任务学习
是一个小迷糊吧
·
2022-12-12 18:06
神经网络与深度学习
神经网络
机器学习
人工智能
神经网络与深度学习
(八)网络优化与正则化(3)不同优化算法比较
7.3不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经网络优化的重要因素。神经网络优化中常用的优化方法也主要是如下两方面的改进,包括:学习率调整:主要通过自适应地调整学习率使得优化更稳定。这类算法主要有AdaGrad、RMSprop、AdaDelta算法等。梯度估计修正:主要通过修正每次迭代时估计的梯度方向来加快收敛速度。这类算法主要有动量法、Nesterov加
冰冻胖头鱼
·
2022-12-12 18:55
深度学习
算法
神经网络
神经网络与深度学习
(八)网络优化与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比参考7.3不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经网络
红肚兜
·
2022-12-12 09:42
深度学习
神经网络
算法
[2022-10-23]
神经网络与深度学习
hw6 - 基于CNN的XO识别
contents
神经网络与深度学习
hw6-基于CNN的XO识别task1实现卷积-池化-激活Numpy版本:手工实现卷积-池化-激活卷积池化激活拉平操作效果Pytorch版本:调用函数实现卷积-池化-激活
三工修
·
2022-12-12 09:32
[DL]神经网络与深度学习
[2022-10-30]
神经网络与深度学习
hw7 - 第五章课后题(1×1 卷积核 | CNN BP)
contentshw7-第五章课后题(1×1卷积核|CNNBP)task1(5-2)题目内容题目思路题目过程题目总结task2(5-3)题目内容题目思路题目过程题目总结task3(5-4)题目内容题目思路题目解答题目总结task4(5-7)题目内容题目思路题目解答前向计算过程反向计算过程题目总结taskex-1题目内容题目思路题目解答题目总结写在最后hw7-第五章课后题(1×1卷积核|CNNBP)
三工修
·
2022-12-12 09:01
[DL]神经网络与深度学习
深度学习
神经网络
卷积神经网络
cnn
神经网络与深度学习
作业12:第七章课后题
目录习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比.习题7-2在Adam算法中,说明指数加权平均的偏差修正的合理性(即公式(7.27)和公式(7.28)).习题7-9证明在标准的随机梯度下降中,权重衰减正则化和l,正则化的效果相同.并分析这一结论在动量法和Adam算法中是否依然成立.第七章总结习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比. 在小批量梯度下
红肚兜
·
2022-12-12 09:01
深度学习
神经网络
[2022-12-11]
神经网络与深度学习
hw12 - 小作业
contentshw12-不知道该起个什么名字task1题目内容题目分析+题目解答题目总结task2题目内容题目分析+题目解答题目总结task3题目内容题目分析+题目解答题目总结写在最后hw12-不知道该起个什么名字task1题目内容在小批量梯度下降中,尝试分析为什么学习率要和批量大小成正比。题目分析+题目解答首先是小批量梯度下降的中有:gt(θ)=1K∑(x,y)∈St∂L(y,f(x;θ)∂θ
三工修
·
2022-12-12 09:59
[DL]神经网络与深度学习
深度学习
神经网络
[2022-12-11]
神经网络与深度学习
第6章 - 网络优化与正则化
contents网络优化与正则化-不同优化算法比较写在开头不同优化算法的比较分析优化算法的实验设定2D可视化实验简单拟合实验学习率调整AdaGradRMSProp梯度估计修正动量法Adam算法不同优化器的3D可视化对比关于制作动画图像写在最后网络优化与正则化-不同优化算法比较写在开头我们通过学习,已经知道了在深度学习中各式各样的优化算法了。在本次实验中,我们将对不同的优化算法进行比较分析。除了批大
三工修
·
2022-12-12 08:52
[DL]神经网络与深度学习
深度学习
神经网络
python
神经网络与深度学习
(八)网络优化与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比7.3.4.1构建一个三维空间中的被优化函数【选做题】参考资料7.3不同优化算法的比较分析除了批大
Jacobson Cui
·
2022-12-11 14:25
神经网络与深度学习
深度学习
算法
神经网络
神经网络与深度学习
(七)循环神经网络(3)LSTM的记忆能力实验
目录6.3LSTM的记忆能力实验6.3.1模型构建6.3.1.1LSTM层6.3.1.2模型汇总6.3.2模型训练6.3.2.1训练指定长度的数字预测模型6.3.2.2多组训练6.3.2.3损失曲线展示【思考题1】LSTM与SRN实验结果对比,谈谈看法。6.3.3模型评价6.3.3.1在测试集上进行模型评价6.3.3.2模型在不同长度的数据集上的准确率变化图【思考题2】LSTM与SRN在不同长度数
Jacobson Cui
·
2022-12-11 14:24
神经网络与深度学习
深度学习
神经网络
rnn
神经网络与深度学习
作业12:第七章课后题
目录习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比习题7-2在Adam算法中,说明指数加权平均的偏差修正的合理性习题7-9证明在标准的随机梯度下降中,权重衰减正则化和编辑正则化的效果相同.并分析这一结论在动量法和Adam算法中是否依然成立第七章总结习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比在小批量梯度下降中:令,则:因此为参数最优的时候的常数,学习率和批
Jacobson Cui
·
2022-12-11 13:13
《神经网络与深度学习》课后习题
深度学习
神经网络
神经网络与深度学习
作业1:第二章课后题
习题2-1分析为什么平方损失函数不适用于分类问题,交叉熵损失函数不适用于回归问题.答:平方损失函数:平方损失函数较为容易理解,它直接测量机器学习模型的输出与实际结果之间的距离,为学习模型的输出,为实际结果。交叉熵损失函数:交叉熵是用来评估当前训练得到的概率分布与真实分布的差异情况,减少交叉熵损失就是在提高模型的预测准确率。是真实分布的概率,是模型通过数据计算出来的概率估计。从平方损失函数运用到多分
红肚兜
·
2022-12-11 09:39
神经网络与深度学习
作业4:第四章课后题
目录五道习题习题4-2习题4-3习题4-7习题4-8习题4-9参考文献心得体会五道习题习题4-2 试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用ReLU作为激活函数。1、XOR问题介绍 所谓XOR问题就是异或问题,(数学符号为“⨁\bigoplus⨁”,程序符号为“^”)不要被这个名字唬住了。我这里简单介绍一遍。异或真值表输入输出ABAXO
红肚兜
·
2022-12-11 09:39
神经网络与深度学习
作业7:第五章课后题(1×1 卷积核 | CNN BP)
目录习题5-2证明宽卷积具有交换性,即公式(5.13)。习题5-3分析卷积神经网络中用1x1的卷积核的作用。习题5-4对于一个输入为100x100x256的特征映射组,使用3x3的卷积核,输出为100x100x256的特征映射组的卷积层,求其时间和空间复杂度。如果引入一个1x1卷积核,先得到100x100x64的特征映射,再进行3x3的卷积,得到100x100x256的特征映射组,求其时间和空间复
Jacobson Cui
·
2022-12-11 09:39
《神经网络与深度学习》课后习题
深度学习
神经网络
cnn
《
神经网络与深度学习
》第8-9章习题解答
最近忙毕设论文,之前写的第8-9章个人解答也就从自己的私人博客进行转载到CSDN上进行分享,答案的正确性不能完全保证。第八章8-1LSTM输入层的特征长度为nnn,输出层的长度为mmm时,神经元个数为:Neuronsall=4×((n+m)×m+m)Neurons_{all}=4\times((n+m)\timesm+m)Neuronsall=4×((n+m)×m+m)去掉偏置项,则为:Neuro
FrancisQiu
·
2022-12-11 09:04
learning
Machine
Learning
nndl
深度学习
神经网络
机器学习
算法
《
神经网络与深度学习
》 邱锡鹏 第二章课后习题答案
题目目录序言第一题第二题第三题第四题第五题第六题第七题第八题第九题第十题第十一题第十二题序言邱老师的书针对于深度学习深入浅出讲解,让我受益良多,但是在学习过程中查找课后习题答案感觉十分麻烦,故写下此博客帮助后来学习者。本文主要参考邱锡鹏老师的github讨论区内容及知乎回答,个人认为本文更加详尽清晰,如有问题欢迎指正,后续章节会慢慢更新。第一题为什么平方损失函数不适用于分类问题答:平方误差过于严苛
Lissss_
·
2022-12-11 09:59
机器学习
深度学习
神经网络
神经网络与深度学习
day16:网络优化与正则化(3)不同优化算法比较
神经网络与深度学习
day16:网络优化与正则化(3)不同优化算法比较7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad
小鬼缠身、
·
2022-12-11 08:23
深度学习
神经网络
算法
神经网络与深度学习
作业7-第五章课后题(1×1 卷积核 | CNN BP)
神经网络与深度学习
作业7-第五章课后题(1×1卷积核|CNNBP)习题5-2证明宽卷积具有交换性。习题5-3分析卷积神经网络中用1×1的卷积核的作用。
小鬼缠身、
·
2022-12-11 08:53
机器学习
人工智能
深度学习
神经网络
神经网络与深度学习
作业12:第七章课后题
神经网络与深度学习
作业12:第七章课后题习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比.习题7-2在Adam算法中,说明指数加权平均的偏差修正的合理性(即公式(7.27)和公式(7.28
小鬼缠身、
·
2022-12-11 08:20
深度学习
神经网络
神经网络与深度学习
(一)——机器学习基础
神经网络与深度学习
(一)——机器学习基础1.人工智能基础概念2.机器学习2.1基本概念2.2机器学习的三个基本要素2.2.1模型2.2.2学习准则2.2.2.1损失函数LossFunction2.2.2.2
zxxRobot
·
2022-12-10 08:42
深度学习
NNDL 实验八 网络优化与正则化(1) 小批量梯度下降法
提醒在本书中,对《
神经网络与深度学习
》中一些术语的翻译进行修正。Normalization翻译为规范化、Dropout翻译
HBU_David
·
2022-12-09 16:48
DeepLearning
深度学习
神经网络
吴恩达老师深度学习专项学习笔记
文章目录(一)
神经网络与深度学习
一、概论二、神经网络基础三、浅层神经网络四、深层神经网络(二)改善深层神经网络一、深度学习的实用层面二、优化算法:三、超参数调试(三)机构化机器学习项目一、ML策略(一)
dayday up
·
2022-12-09 12:05
机器学习
神经网络
机器学习
算法
python
HBU_
神经网络与深度学习
实验9 卷积神经网络:基于两种经典卷积神经网络的手写体数字识别实验
三、实验Q&A写在前面的一些内容本文为HBU_
神经网络与深度学习
实验(2022年秋)实验7的实验报告,此文的基本内容参照[1]Github/卷积神经网络-上.ipynb的基于LeNet实现手写体数字识别实验和基于残差网络的手写体数字识
ZodiAc7
·
2022-12-09 09:07
python
深度学习
cnn
神经网络与深度学习
作业1:第二章课后题
习题2-1分析为什么平方损失函数不适用于分类问题,交叉熵损失函数不适用于回归问题.平方损失函数:平方损失函数较为容易理解,它直接测量机器学习模型的输出与实际结果之间的距离,为学习模型的输出,为实际结果。交叉熵损失函数:交叉熵是用来评估当前训练得到的概率分布与真实分布的差异情况,减少交叉熵损失就是在提高模型的预测准确率。是真实分布的概率,是模型通过数据计算出来的概率估计。1.为什么平方损失函数不适用
喝无糖雪碧
·
2022-12-08 11:04
深度学习
人工智能
笔记:
神经网络与深度学习
—人工智能
笔记:
神经网络与深度学习
—人工智能一、人工智能是什么?
zhenpigmilk
·
2022-12-07 20:25
机器学习
NNDL实验 优化算法3D轨迹 鱼书例题3D版
NNDL实验优化算法3D轨迹程序改编自《
神经网络与深度学习
:案例与实践》(Paddle版)https://blog.csdn.net/q
HBU_David
·
2022-12-07 20:38
DeepLearning
算法
3d
python
[2022-12-06]
神经网络与深度学习
hw11 - 各种优化算法比较
contentshw11-优化算法比较写在开头task1题目内容题目思路题目解答题目总结task2题目内容题目思路题目解答题目总结task3题目内容题目思路题目解答题目总结task4题目内容题目思路题目解答题目总结task5题目内容题目解答题目总结task6题目内容题目解答task7题目内容题目解答hw11-优化算法比较写在开头出租屋断网了,得等到几天后师傅才来装宽带,这篇是买了个流量包给电脑开热
三工修
·
2022-12-07 07:08
[DL]神经网络与深度学习
深度学习
算法
神经网络
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他