E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Hbu
基于Springboot开发的Javaweb作业管理系统[附源码]
毕设项目精品实战案例《1000套》文章目录基于Springboot开发的Javaweb作业管理系统[附源码]项目运行需求分析总体设计系统功能模块项目运行环境配置:Jdk1.8+Tomcat7.0+Mysql+
HBu
央顺技术团队
·
2024-02-01 21:06
成品程序项目
spring
boot
后端
java
作业管理系统
[精品毕设]PHP实现的书店网站-图书借阅购买购物商城
操作系统:Windows10、Windows7、Windows8开发语言:php前端技术:JavaScript、VUE.js(2.X)、css3开发工具:phpstorm、VisualStudioCode/
Hbu
IT实践课堂
·
2024-01-25 04:42
PHP
网站系统项目
毕业设计
php
开发语言
计算机毕业设计
mysql
课程设计
[数据结构大作业]
HBU
河北大学校园导航
校园导航实验报告问题描述:以我校为例,设计一个校园导航系统,主要为来访的客人提供信息查询。系统有两类登陆账号,一类是游客,使用该系统方便校内路线查询;一类是管理员,可以使用该系统查询校内路线,可对校园景点路线可编辑。需求分析:设计学校的平面图,至少包括10个以上景点(场所),每两个景点间可以有不同道路,且路长也可能不同,找出在游人所在景点到其他景点的最短路径,或游人输入的任意两个景点的最短路径。要
星河边采花
·
2024-01-16 05:47
数据结构
课程设计
大数据分析与挖掘-期末复习大纲[
HBU
]
前言这篇博客针对河北大学大数据分析与挖掘课程期末复习,目的是给同学们一个比较清晰的复习方向,具体的学习还需要平时认真听讲、写作业。我们使用的教材是这本:练习题目我只更新了部分答案,至于剩下的答案老师上课的时候会带着讲解的。在这里我只是为同学们提供一个复习纲要和复习方向。希望大家能快速抓到考试重点,不在其他方向上浪费精力。选择题答案:1.C2.D判断题答案:1.X2.√3.X4.X(若答案有误,请及
洛杉矶县牛肉板面
·
2024-01-12 00:54
AI学习
数据分析
数据挖掘
[23-24 秋学期] NNDL-作业2
HBU
前言:本文解决《神经网络与深度学习》-邱锡鹏第二章课后题。对于习题2-1,平方损失函数在机器学习课程中学习过,但是惭愧的讲,在完成这篇博客前我对均方误差和平方损失函数的概念还有些混淆。交叉熵损失函数我未曾了解过,只在决策树一节中学习过关于熵entropy的基本概念。借此机会弄清原理,并且尝试着学会应用它。对于习题2-12,考察对混淆矩阵的理解程度和计算。其中宏平均和微平均是我未曾学习过的概念,借此
洛杉矶县牛肉板面
·
2024-01-12 00:53
深度学习
人工智能
机器学习
深度学习
HBU
_神经网络与深度学习 实验10 卷积神经网络:基于ResNet18网络完成图像分类任务
实践:基于ResNet18网络完成图像分类任务1.数据处理(1)数据集介绍(2)数据读取(3)构造Dataset类2.模型构建3.模型训练4.模型评价5.模型预测二、实验Q&A写在前面的一些内容本文为
HBU
ZodiAc7
·
2024-01-12 00:52
cnn
深度学习
python
深度学习 常考简答题--[
HBU
]期末复习
目录1.为什么要引用非线性激活函数?2.什么是超参数?如何优化超参数?3.线性回归通常使用平方损失函数,能否使用交叉熵损失函数?4.平方损失函数为何不适用于解决分类问题?(和第3题一块复习)编辑5.什么是长程依赖问题,如何解决?6.什么是对称权重现象,有哪些解决方案?7.什么是损失函数?常见的损失函数有哪些?8.解释死亡ReLu问题,如何解决?9.解释步长、零填充、感受野10.LSTM与GRU的区
洛杉矶县牛肉板面
·
2024-01-12 00:22
深度学习
深度学习
人工智能
NNDL学期知识点总结 [
HBU
]
几种典型的卷积神经网络5.4.1LeNet-55.4.2AlexNet5.4.4ResNet5.5其他卷积方式循环神经网络BPTT随时间反向传播长程依赖问题LSTM3、期末考试复习总结-链接视频链接:
HBU
洛杉矶县牛肉板面
·
2024-01-04 07:24
深度学习
深度学习
人工智能
rnn
lstm
博弈论-策略式博弈矩阵、扩展式博弈树 习题 [
HBU
]
目录前言:题目与求解11.请将“田忌赛马”的博弈过程用策略式(博弈矩阵)和扩展式(博弈树)分别进行表示,并用文字分别详细表述。34.两个朋友在一起划拳喝酒,每个人有4个纯策略:杠子、老虎、鸡和虫子。输赢规则是:杠子降老虎,老虎降鸡,鸡降虫子,虫子降杠子。两个人同时出令,如果一方打败另一方,赢者的得益为1,输者的得益为-1,否则得益为0.请给出以上博弈的策略式描述并求出所有的纳什均衡。42.乙向甲索
洛杉矶县牛肉板面
·
2024-01-04 07:23
博弈论
算法
NNDL 作业12-优化算法2D可视化 [
HBU
]
老师作业原博客地址:【23-24秋学期】NNDL作业12优化算法2D可视化-CSDN博客目录简要介绍图中的优化算法,编程实现并2D可视化1.被优化函数编辑深度学习中的优化算法总结-ZingpLiu-博客园(cnblogs.com)SGD:Adagrad:RMSprop:Momentum:Adam:2.被优化函数编辑3D效果3.解释不同轨迹的形成原因简要介绍图中的优化算法,编程实现并2D可视化1.被
洛杉矶县牛肉板面
·
2024-01-04 07:23
深度学习
算法
深度学习
NNDL 作业13 优化算法3D可视化 [
HBU
]
老师作业原博客:【23-24秋学期】NNDL作业13优化算法3D可视化-CSDN博客NNDL作业13优化算法3D可视化-CSDN博客编程实现优化算法,并3D可视化1.函数3D可视化分别画出和的3D图NNDL实验优化算法3D轨迹鱼书例题3D版_优化算法3d展示-CSDN博客代码:frommpl_toolkits.mplot3dimportAxes3Dimportnumpyasnpfrommatplo
洛杉矶县牛肉板面
·
2024-01-04 07:08
深度学习
算法
3d
[23-24 秋学期] NNDL 作业4 前馈神经网络
HBU
目录:作业内容与要求:1.过程推导-了解BP原理2.数值计算-手动计算,掌握细节3.代码实现-numpy手推+pytorch自动1.)对比【numpy】和【pytorch】程序,总结并陈述。2.)激活函数Sigmoid用PyTorch自带函数torch.sigmoid(),观察、总结并陈述。3.)激活函数Sigmoid改变为Relu,观察、总结并陈述。4.)损失函数MSE用PyTorch自带函数t
洛杉矶县牛肉板面
·
2023-12-31 06:23
深度学习
神经网络
人工智能
深度学习
hbuilder打开终端没反应
shell='powershell.exe’修改为shell=‘C:/Windows/System32/WindowsPowerShell/v1.0/powershell.exe’;一共三处.保存后,关闭
HBu
南漂一时
·
2023-12-28 13:34
前端
javascript
开发语言
LSTM的记忆能力实验 [
HBU
]
目录模型构建LSTM层模型训练多组训练模型评价模型在不同长度的数据集上的准确率变化图模型汇总总结长短期记忆网络(LongShort-TermMemoryNetwork,LSTM)是一种可以有效缓解长程依赖问题的循环神经网络.LSTM的特点是引入了一个新的内部状态(InternalState)和门控机制(GatingMechanism).不同时刻的内部状态以近似线性的方式进行传递,从而缓解梯度消失或
洛杉矶县牛肉板面
·
2023-12-27 11:00
深度学习
lstm
人工智能
rnn
循环神经网络-RNN记忆能力实验 [
HBU
]
目录一、循环神经网络二、循环神经网络的记忆能力实验三、数据集构建数据集的构建函数加载数据并进行数据划分构造Dataset类四、模型构建嵌入层SRN层五、模型训练训练指定长度的数字预测模型多组训练损失曲线展示六、模型评价参考《神经网络与深度学习》中的公式(6.50),改进SRN的循环单元,加入隐状态之间的残差连接,并重复数字求和实验。观察是否可以缓解长程依赖问题?总结参考原文章:aistudio.b
洛杉矶县牛肉板面
·
2023-12-20 00:32
深度学习
rnn
深度学习
人工智能
NNDL 循环神经网络-梯度爆炸实验 [
HBU
]
目录6.2.1梯度打印函数6.2.2复现梯度爆炸现象6.2.3使用梯度截断解决梯度爆炸问题【思考题】梯度截断解决梯度爆炸问题的原理是什么?总结前言:造成简单循环网络较难建模长程依赖问题的原因有两个:梯度爆炸和梯度消失。循环网络的梯度爆炸问题比较容易解决,一般通过权重衰减或梯度截断可以较好地来避免;梯度消失问题,更加有效的方式是改变模型,比如通过长短期记忆网络LSTM来进行缓解。本节将首先进行复现简
洛杉矶县牛肉板面
·
2023-12-20 00:02
深度学习
rnn
人工智能
深度学习
博弈论习题-求解纳什均衡 [
HBU
]
目录前言题目题解20.简述“上策均衡法”的基本原理,优点和弊端。21.简述“严格下策反复消去法”的基本原理,优点和弊端。22.试比较“画线法”和“箭头法”的特点。50.严格下策反复消去法。51.箭头法求纳什均衡52.求解混合策略纳什均衡前言本篇博客解决几个求解纳什均衡的博弈论题目。题目来自河北大学王亮老师的网址:SoftwareSecurityLab,HebeiUniversity(hbusoft
洛杉矶县牛肉板面
·
2023-12-20 00:01
博弈论
算法
人工智能
NNDL 作业10 BPTT [
HBU
]
目录习题6-1P推导RNN反向传播算法BPTT.习题6-2推导公式(6.40)和公式(6.41)中的梯度.习题6-3当使用公式(6.50)作为循环神经网络的状态更新公式时,分析其可能存在梯度爆炸的原因并给出解决方法.没理解的部分:习题6-2P设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.顺便复习一下tanh激活函数的性质老师布置作业原博客链接:【23-24秋
洛杉矶县牛肉板面
·
2023-12-20 00:01
深度学习
深度学习
人工智能
[23-24 秋学期]NNDL 作业6 卷积 [
HBU
]
目录一、概念二、探究不同卷积核的作用后接:关于使用pycharm输出卷积图像后图片仍然不清晰的可能原因以及解决方法总结:前言:卷积常用于特征提取实验过程中注意认真体会“特征提取”,弄清楚为什么卷积能够提取特征。一、概念用自己的语言描述“卷积、卷积核、特征图、特征选择、步长、填充、感受野”。大致看了一遍邱锡鹏《神经网络与深度学习》的卷积一节。谈谈我对这些名词概念的理解(理解不足描述不准请见谅)。个人
洛杉矶县牛肉板面
·
2023-12-20 00:01
深度学习
深度学习
人工智能
卷积神经网络
NNDL 作业11 LSTM [
HBU
]
目录习题6-4推导LSTM网络中参数的梯度,并分析其避免梯度消失的效果>LSTM前向传播>反向传播求梯度>梯度消失和梯度爆炸怎么来的?>关键点:LSTM如何缓解梯度消失?习题6-3P编程实现下图LSTM运行过程1.使用Numpy实现LSTM算子2.使用nn.LSTMCell实现3.使用nn.LSTM实现总结引用的博客以及文章连接:老师博客:【23-24秋学期】NNDL作业11LSTM-CSDN博客
洛杉矶县牛肉板面
·
2023-12-20 00:29
深度学习
lstm
机器学习
人工智能
UniApp H5 跨域代理配置并使用(配置manifest.json、vue.config.js)
配置完成后,请求接口显示PleaseenableJavaScripttocontinue.的话,可以试试重启编辑器(尤其是
HBu
风吹落叶花飘荡
·
2023-12-17 21:00
javascript
vue.js
uni-app
44.0/认识前端
44.2.1Internet44.2.2IP44.2.3域名44.3.Web前端技术概述44.3.1html544.3.2CSS344.3.3Javascript44.4.Web前端开发工具44.4.1编辑器——(
HBu
光明是人的信仰
·
2023-12-14 16:29
前端
【23-24 秋学期】NNDL 作业13 优化算法3D可视化
展示-CSDN博客2.加入优化算法,画出轨迹分别画出和的3D轨迹图NNDL实验优化算法3D轨迹pytorch版-CSDN博客3.复现CS231经典动画NNDL实验优化算法3D轨迹复现cs231经典动画_
HBU
_David
HBU_David
·
2023-12-04 15:07
深度学习
前后端分离的vue项目如何合并?springboot 单体应用
执行命令:npmrunbuild,执行成功后,会在项目路径下多出一个dist文件夹,里面包含css+js+images+html等各种前端资源,执行结果如下>
[email protected]
:\
HBu
安之若素^
·
2023-11-09 17:17
HBU
_神经网络与深度学习 实验12 循环神经网络:梯度爆炸实验
目录一、梯度爆炸实验1.梯度打印函数2.复现梯度爆炸现象3.使用梯度截断解决梯度爆炸问题二、实验Q&A一、梯度爆炸实验造成简单循环网络较难建模长程依赖问题的原因有两个:梯度爆炸和梯度消失。一般来讲,循环网络的梯度爆炸问题比较容易解决,一般通过权重衰减或梯度截断可以较好地来避免;对于梯度消失问题,更加有效的方式是改变模型,比如通过长短期记忆网络LSTM来进行缓解。本节将首先进行复现简单循环网络中的梯
ZodiAc7
·
2023-10-11 11:57
深度学习
神经网络
rnn
vue书写一个uni-app小程序
框架):首先,我们需要把开发工具准备完善,这里之所以推荐大家使用HbuilderX来开发uni-app项目是因为它的好处有:模板丰富完善的智能提示一键运行大家可以去官网自行下载这个编辑器,官网地址如下:
HBu
执笔绘江山
·
2023-08-30 07:11
小程序
uni-app
解决uniapp运行手机基座出现的问题
方法二:简单粗暴也是最有效的,就是卸载干净
HBu
爱吃鱼的酱酱仔
·
2023-07-14 18:08
uniapp
uni-app
基于uniapp+vite4+vue3搭建跨端项目|uni-app+uview-plus模板
经过一番尝试果然真香~版本信息
HBu
xiaoyan2017
·
2023-06-17 09:00
【2022
HBU
天梯赛训练】7-1 日期格式化 (10 分)
7-1日期格式化(10分)任务描述世界上不同国家有不同的写日期的习惯。比如美国人习惯写成“月-日-年”,而中国人习惯写成“年-月-日”。于龙在写一些日期时不小心把年份写错位置了,可能在最前,可能在中间,也可能在最后。下面请你写个程序,自动把读入的于龙日期改写成中国习惯的日期。输入格式:输入在一行中按照“mm-dd-yyyy”或“mm-yyyy-dd”或“yyyy-mm-dd”的格式给出年、月、日。
码上游
·
2023-04-19 19:12
c++
算法
HBU
Medium problem set
可能没很多人看,后面没写思路,有问题单独问我吧目录7-1区间翻转7-2次大值的和7-3买东西7-4双重子串7-5对决7-6最大公约数7-7填数字7-8放小球7-9给树染色7-10摆放小球7-11区间的个数7-12选零食7-13小球之间的距离7-141还是27-15青春猪头之我没学过C语言7-16打怪兽7-17背上书包去旅行7-18向前走7-19热水器7-20走方格7-21朋友圈7-22走方格7-2
星河边采花
·
2023-04-18 06:50
贪心算法
算法
c++
2023
HBU
天梯赛第一次测试 题目集
目录1建校日期2发射小球3背上书包去旅行4吉利的数字5向前走6热水器7走方格8朋友圈9交保护费10走方格11和与积12缩短字符串13买木棒1建校日期在2022ICPC沈阳站上,东北大学命题组给参赛的选手们出了一道签到题,这道题目让选手们输出东北大学的建校日期,这当时可难倒了大家。在此,RainSure同学想让大家输出河北大学的建校日期。输入格式无输入输出格式输出河北大学的建校日期,格式为xxxx-
星河边采花
·
2023-04-18 06:20
团体程序设计天梯赛-练习集
算法
HBU
2023 Simple problem set
目录7-1递推公式7-2存钱罐7-3买东西7-4双重子串7-5放小球7-6最短路径7-7统计子序列的个数7-8摆放灯笼7-9选零食7-101还是27-11最少的门禁数量7-12青春猪头之开学了要好好学习7-13青春猪头之毕设真头大7-14青春猪头之我没学过C语言7-15发射小球7-16吉利的数字7-17买木棒7-18切割木棒7-19幸运数字7-20增加硬币7-21三分球7-22老虎机7-23正交性
星河边采花
·
2023-04-18 06:48
算法
c++
HBU
_神经网络与深度学习 作业12 网络优化与正则化
目录写在前面的一些内容习题7-1习题7-2习题7-9EX写在前面的一些内容本次习题来源于神经网络与深度学习pdf电子书的第204页(对应纸质版第189页)的习题7-1、7-2和7-9,具体内容详见NNDL作业12。水平有限,难免有误,如有错漏之处敬请指正。习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比。在小批量梯度下降中,有gt(θ)=1K∑(x,y)∈St∂L(y,f(x;θ
ZodiAc7
·
2023-02-03 07:32
深度学习
神经网络
HBU
_神经网络与深度学习 作业9 随时间反向传播算法的实现
目录写在前面的一些内容习题1习题2写在前面的一些内容本次习题来源于NNDL作业9:分别使用numpy和pytorch实现BPTT。水平有限,难免有误,如有错漏之处敬请指正。习题1推导循环神经网络反向传播算法BPTT.一些已知的东西:z1=Uh0+Wx1+bz2=Uh1+Wx2+bz3=Uh2+Wx3+bh1=f(z1)y1^=g(h1)z_1=Uh_0+Wx_1+b\\z_2=Uh_1+Wx_2+
ZodiAc7
·
2023-02-03 07:32
人工智能
深度学习
神经网络
python
HBU
_神经网络与深度学习 实验14 网络优化与正则化:不同优化算法的比较分析
目录不同优化算法的比较分析1.优化算法的实验设定(1)2D可视化实验(2)简单拟合实验2.学习率调整(1)AdaGrad算法(2)RMSprop算法3.梯度估计修正(1)动量法(2)Adam算法4.不同优化器的3D可视化对比(1)构建一个三维空间中的被优化函数不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经网络优化的重要因素。神经网络优化中常用的优化方法也主要是
ZodiAc7
·
2023-02-03 07:31
深度学习
人工智能
HBU
_神经网络与深度学习 作业4 前馈神经网络
本实验报告参考了
HBU
-NNDL作业4作者:不是蒋承翰的部分内容。水平有限,难免有误,如有错漏之处敬请指正。习题4-2试设计一个前馈
ZodiAc7
·
2023-02-03 07:31
深度学习
神经网络
机器学习
HBU
_神经网络与深度学习 作业1 机器学习概述
目录写在前面的一些内容习题2-1习题2-12写在前面的一些内容本次习题来源于神经网络与深度学习pdf电子书的第66页和第67页(对应纸质版第51页和第52页)的习题2-1和习题2-12。水平有限,难免有误,如有错漏之处敬请指正。习题2-1分析为什么平方损失函数不适用于分类问题。答:①平方损失函数定义如下:L(y,f(x;θ))=12(y−f(x;θ))2\begin{align}\mathcal{
ZodiAc7
·
2023-02-03 07:31
HBU
_神经网络与深度学习 作业7 卷积神经网络
目录写在前面的一些内容习题5-2习题5-3习题5-4习题5-7EX总结写在前面的一些内容本次习题来源于神经网络与深度学习pdf电子书的第142页(对应纸质版第127页)的习题5-2、5-3、5-4和5-7,具体内容详见NNDL作业7。水平有限,难免有误,如有错漏之处敬请指正。习题5-2证明宽卷积具有交换性,即公式rot180(W)⊗~X=rot180(X)⊗W~rot180(\boldsymbol
ZodiAc7
·
2023-02-03 07:31
python
深度学习
cnn
【
HBU
】2022秋线上作业——第六次——查找排序选择判断
目录判断题1-1希尔排序是稳定的算法。F1-2在散列表中,所谓同义词就是具有相同散列地址的两个元素。T1-3对AVL树中的任一结点,其左、右子树的高度一定是一样的。F1-4任何最小堆中从根结点到任一叶结点路径上的所有结点是有序的(从小到大)。T1-5将1、2、3、4、5、6顺序插入初始为空的AVL树中,当完成这6个元素的插入后,该AVL树的先序遍历结果是:4、2、1、3、5、6。T1-6将N个数据
刘_六六
·
2022-12-25 12:54
【HBU-DS】数据结构与算法
排序算法
算法
HBU
_神经网络与深度学习 实验2 pytorch入门
目录写在前面的一些内容一、张量与算子的概念二、张量的操作1.创建张量(1)指定数据创建张量(2)指定形状创建张量(3)指定区间创建张量2.张量的属性(1)张量的形状(2)形状的改变(3)张量的数据类型(4)张量的设备位置3.张量与Numpy数组转换(1)张量转化为numpy数组(2)numpy数组转化为张量4.张量的访问(1)索引和切片(2)访问张量(3)修改张量5.张量的运算(1)数学运算(2)
ZodiAc7
·
2022-12-25 10:44
HBU
_神经网络与深度学习 实验7 前馈神经网络:鸢尾花分类
小批量梯度下降法2.数据处理(1)数据分组(2)数据读取(3)用DataLoader进行封装3.模型构建4.完善Runner类5.模型训练6.模型评价7.模型预测二、实验Q&A三、实验总结写在前面的一些内容本文为
HBU
ZodiAc7
·
2022-12-21 06:38
HBU
_神经网络与深度学习 实验5 前馈神经网络:二分类任务
目录写在前面的一些内容一、神经元1.净活性值2.激活函数(1)Sigmoid型函数(2)ReLU型函数二、基于前馈神经网络的二分类任务1.数据集构建2.模型构建(1)线性层算子(2)Logistic算子(激活函数)(3)层的串行组合3.损失函数4.模型优化(1)反向传播算法(2)损失函数(3)Logistic算子(4)线性层(5)整个网络(6)优化器5.完善Runner类:RunnerV2_16.
ZodiAc7
·
2022-12-21 06:38
HBU
_神经网络与深度学习 实验6 前馈神经网络:自动梯度计算 及 优化问题
模型构建(2)使用Sigmoid型函数进行训练(3)使用ReLU函数进行模型训练3.死亡ReLU问题(1)使用ReLU进行模型训练(2)使用LeakyReLU进行模型训练三、实验总结写在前面的一些内容本文为
HBU
ZodiAc7
·
2022-12-21 06:38
HBU
_神经网络与深度学习 实验1 numpy
目录一、numpy的array操作二、array的数学运算三、matplotlib在numpy中的简单应用四、实验总结注:本文为
HBU
_神经网络与深度学习实验(2022年秋)实验1的实验报告,此文对模板
ZodiAc7
·
2022-12-21 06:07
numpy
深度学习
神经网络
python
HBU
_神经网络与深度学习 实验3 线性回归
目录写在前面的一些内容一、实现一个简单的线性回归模型1.数据集构建2.模型构建3.损失函数4.模型优化5.模型训练6.模型评估二、多项式回归1.数据集构建2.模型构建3.模型训练4.模型评估三、Runner类介绍四、基于线性回归的波士顿房价预测1.数据处理(1)数据预览(2)数据清洗(3)数据集划分(4)特征工程2.模型构建3.完善Runner类4.模型训练5.模型测试6.模型预测五、实验Q&A六
ZodiAc7
·
2022-12-21 06:07
HBU
-NNDL 作业12:第七章课后题
习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比.在小批量梯度下降中:令,则:因此我们要使得参数最优,则为最优的时候的常数,故学习率要和批量大小成正比。习题7-2在Adam算法中,说明指数加权平均的偏差修正的合理性(即公式(7.27)和公式(7.28)).公式7.27:公式7.28:在Adam算法中:因此当,的时候:因此可以发现此时梯度消失,因此需要进行偏差修正。习题7-9证明在
不是蒋承翰
·
2022-12-12 18:59
python
人工智能
算法
【
HBU
】2022秋线上作业-第五次-有关树的判断选择
判断题:1.一棵有124个结点的完全二叉树,其叶结点个数是确定的。√高度为n的完全二叉树的结点数为2ⁿ-1124位于64-1~128-1之间,所以这棵树的高度是7,前六层是满的有63个,第7层有124-63=61个64-61=3第6层有3/2(向下取整)=1个所以整棵树的叶子结点有61+1个2.二叉树中序线索化后,不存在空指针域。×非空二叉树中序遍历第一个结点无前驱,最后一个结点无后继,这两个结点
刘_六六
·
2022-12-11 22:14
【HBU-DS】数据结构与算法
数据结构
算法
HBU
-NNDL 实验八 网络优化与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比7.3.4.1构建一个三维空间中的被优化函数心得体
不是蒋承翰
·
2022-12-10 16:54
算法
人工智能
HBU
_神经网络与深度学习 实验9 卷积神经网络:基于两种经典卷积神经网络的手写体数字识别实验
三、实验Q&A写在前面的一些内容本文为
HBU
_神经网络与深度学习实验(2022年秋)实验7的实验报告,此文的基本内容参照[1]Github/卷积神经网络-上.ipynb的基于LeNet实现手写体数字识别实验和基于残差网络的手写体数字识
ZodiAc7
·
2022-12-09 09:07
python
深度学习
cnn
【NNDL 作业】优化算法比较 增加 RMSprop、Nesterov
NNDL作业11:优化算法比较_
HBU
_David的博客-CSDN博客作业第7题。写完程序后,调整不同的学习率,观察现象。
HBU_David
·
2022-12-07 20:45
算法
python
人工智能
上一页
1
2
3
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他