E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《神经网络与深度学习》
PyTorch框架从零实现Logistic回归(非torch.nn)
在《
神经网络与深度学习
》一书中,机器学习通常指一类问题以及解决这类问题的方法,即如何从观测数据(样本)中寻找规律,并利
JMDou
·
2022-12-07 06:04
深度学习练习题
pytorch
回归
python
深度学习
人工智能
Logistic 回归与 Softmax 回归在解决二分类问题的区别
Logistic回归与Softmax回归在解决二分类问题的区别在学习邱锡鹏老师的《
神经网络与深度学习
》的Softmax回归时,他在最后提出了此问题。久经思考后,没想出来有什么区别。
赵爱梅
·
2022-12-06 14:08
回归
分类
深度学习
卷积神经网络中卷积核的参数为什么是四个
卷积神经网络讲解内容可以b站搜索邱锡鹏老师的《
神经网络与深度学习
》第五章内容以及李宏毅老师的卷积神经网络,若有鱼书在身旁就更好。回到问题本身,我自己做了
赵爱梅
·
2022-12-06 14:37
深度学习
神经网络
卷积神经网络
【课程】《
神经网络与深度学习
》—— 部分习题答案
目录相关电子资源第二章相关电子资源
神经网络与深度学习
(包括PDF、PPT还有代码)第二章习题2-1分析为什么平方损失函数不适用于分类问题
可乐大牛
·
2022-12-06 06:35
杂谈
其他
神经网络与深度学习
作业11:优化算法比较
目录1.编程实现图6-1,并观察特征2.观察梯度方向3.编写代码实现算法,并可视化轨迹4.分析上图,说明原理(1)为什么SGD会走“之字形”?其它算法为什么会比较平滑?(2)Momentum、AdaGrad对SGD的改进体现在哪里?速度?方向?在图上有哪些体现?(3)仅从轨迹来看,Adam似乎不如AdaGrad效果好,是这样么?(4)四种方法分别用了多长时间?是否符合预期?(5)调整学习率、动量等
Jacobson Cui
·
2022-12-05 13:53
《神经网络与深度学习》课后习题
人工智能
人工智能:
神经网络与深度学习
复习总结
人工智能:
神经网络与深度学习
复习总结前馈网络(感知机为代表)单神经元感知机可将输入向量分成两类:权值矩阵与输入向量的内积大于等于-b,感知机的输出为1;否则,感知机的输出为-1。
努力学习DePeng
·
2022-12-05 13:49
神经网络
深度学习
神经网络与深度学习
作业11:优化算法比较
目录1.编程实现图6-1,并观察特征2.观察梯度方向3.编写代码实现算法,并可视化轨迹参考1.编程实现图6-1,并观察特征importnumpyasnpfrommatplotlibimportpyplotaspltfrommpl_toolkits.mplot3dimportAxes3Ddeffunc(x,y):returnx*x/20+y*ydefpaint_loss_func():x=np.li
红肚兜
·
2022-12-05 13:44
深度学习
算法
神经网络
NNDL实验 优化算法3D轨迹 pytorch版
程序改编自《
神经网络与深度学习
:案例与实践》(Paddle版)7.3不同优化算法的比较分析
神经网络与深度学习
(nndl.github.io)最终效果:动画:plt.show()看动画没问题。
HBU_David
·
2022-12-05 10:58
DeepLearning
pytorch
深度学习
机器学习
神经网络与深度学习
(七)循环神经网络(3)LSTM的记忆能力实验
目录6.3LSTM的记忆能力实验6.3.1模型构建6.3.1.1LSTM层6.3.1.2模型汇总6.3.2模型训练6.3.2.1训练指定长度的数字预测模型6.3.2.2多组训练6.3.2.3损失曲线展示6.3.3模型评价6.3.3.1在测试集上进行模型评价6.3.3.2模型在不同长度的数据集上的准确率变化图6.3.3.3LSTM模型门状态和单元状态的变化【思考题2】LSTM与SRN在不同长度数据集
红肚兜
·
2022-12-04 09:58
深度学习
神经网络
rnn
transformer(一)注意力机制
20210625;短教程:《Transformers》;特邀讲师:邱锡鹏教授_哔哩哔哩_bilibili
神经网络与深度学习
https://nndl.github.io/ppt/chap-%E6%B3%A8%
shchojj
·
2022-12-03 11:07
transformer
深度学习
人工智能
5-1 Coursera吴恩达《序列模型》 第一周课程笔记-循环序列网络(RNN)
第一门课《
神经网络与深度学习
》(NeuralNetworksandDeepLearning)的4周课程笔记请见如下链接:1-1Coursera吴恩达《
神经网络与深度学习
》第一周课程笔记-深度学习概论1-
双木的木
·
2022-12-03 03:01
吴恩达深度学习笔记
笔记
AI
自然语言处理
深度学习
神经网络
机器学习
python
阅读 | 001《人工智能导论》(二)知识获取篇
群智能算法6.1群智能算法产生的背景6.2遗传算法6.3粒子群优化算法及其应用6.4蚁群算法6.5本章小结第7章、机器学习7.1机器学习的发展7.2监督学习7.3无监督学习7.4弱监督学习第8章、人工
神经网络与深度学习
ThisAmy
·
2022-12-02 02:38
阅读笔记
人工智能
java导论pdf下载,人工智能导论 PDF 下载
其中,知识表示主要介绍概念表示、知识表示、知识图谱;知识获取主要介绍搜索技术、群智能算法、机器学习、人工
神经网络与深度学习
;知识应用涉及计算机视觉、自然语言处理、语音处理、专家系统、规划、多智能体系统与智能机器人六部分
张饭团
·
2022-12-02 02:38
java导论pdf下载
深度学习之图像识别核心技术与案例实战
《
神经网络与深度学习
讲义》pdf下载在线阅读全文,求百度网盘云资源求《
神经网络与深度学习
讲义》全文免费下载百度网盘资源,谢谢~《深度学习之图像识别核心技术与案例实战》pdf下载在线阅读全文,求百度网盘云资源
普通网友
·
2022-12-01 18:41
深度学习
计算机视觉
人工智能
机器学习&深度学习经典资料汇总,data.gov.uk大量公开数据
《DeepLearninginNeuralNetworks:AnOverview》介绍:这是瑞士人工智能实验室JurgenSchmidhuber写的最新版本《
神经网络与深度学习
综述》本综述的特点是以
weixin_34007879
·
2022-12-01 10:48
人工智能
r语言
java
神经网络与深度学习
学习笔记(一)——基本概念
1.什么是神经网络和深度学习随着神经科学、认知科学的发展,我们逐渐知道人类的智能行为都和大脑活动有关。受到人脑神经系统的启发,早期的神经科学家构造了一种模仿人脑神经系统的数学模型,称为人工神经网络,简称神经网络。在机器学习领域,神经网络是指由很多人工神经元构成的网络结构模型,这些人工神经元之间的连接强度是可学习的参数。典型的神经元结构大致可分为细胞体和细胞突起:(1)细胞体(Soma)中的神经细胞
克苏鲁貓
·
2022-12-01 08:26
神经网络与机器学习学习笔记
神经网络
深度学习
pytorch
人工智能概况笔记
文章目录一、人的智能与人工智能二、人工智能的发展历程三、人工智能的主要应用四、人工智能的伦理思考五、
神经网络与深度学习
六、国内外人工智能动向一、人的智能与人工智能智能:基于推理的学习、理解和做出判断或意见的能力人的智能
seh_sjlj
·
2022-11-30 17:30
人工智能的现代方法I
人工智能
深度学习
【
神经网络与深度学习
-TensorFlow实践】-中国大学MOOC课程(十一)(分类问题))
【
神经网络与深度学习
-TensorFlow实践】-中国大学MOOC课程(十一)(分类问题))11分类问题11.1逻辑回归11.1.1广义线性回归11.1.2逻辑回归11.1.2.1分类问题11.1.2.2
踏破万里无云
·
2022-11-30 12:28
深度学习
深度学习
tensorflow
神经网络
[2022-11-28]
神经网络与深度学习
hw10 - LSTM和GRU
contentshw10-LSTM和GRU相关习题task1题目内容题目分析题目解答题目总结task2题目内容题目分析题目解答题目总结task3题目内容题目分析题目解答题目总结task4题目内容题目分析题目解答问题总结hw10-LSTM和GRU相关习题task1题目内容当使用公式ht=ht−1+g(xt,ht−1;Θ)h_t=h_{t-1}+g(x_t,h_{t-1};\Theta)ht=ht−1
三工修
·
2022-11-30 07:12
[DL]神经网络与深度学习
深度学习
神经网络
lstm
神经网络与深度学习
作业10:(LSTM | GRU)
习题6-3当使用公式(6.50)作为循环神经网络得状态更新公式时,分析其可能存在梯度爆炸的原因并给出解决办法.公式(6.50)为:在计算误差项时,可能会出现梯度过大的情况,解决办法为:使用长短期神经网络。习题6-4推导LSTM网络中参数的梯度,并分析其避免梯度消失的效果.其中EEE为损失函数,由于LSTM中通过门控机制解决梯度问题,遗忘门,输入门和输出门是非0就是1的,并且三者之间都是相加关系,梯
captainMo_11
·
2022-11-29 21:39
深度学习
神经网络
lstm
卷积神经网络-keras识别数据集代码
目录
神经网络与深度学习
的历史tensorflowkerasimageNet经典卷积网络模型深度学习平台映射多层卷积核激活函数使用方案正则化手段Dropout的方法和特点池化卷积网络一般架构规则化卷积非线性映射池化模型
Nefelibat
·
2022-11-29 12:19
深度学习
卷积神经网络
keras
mnist数据集
《
神经网络与深度学习
》邱锡鹏编程练习_第一章numpy_tutorial答案分享
并非官方答案,仅供参考!欢迎提出更好的建议numpy练习题numpy的array操作1.导入numpy库importnumpyasnp2.建立一个一维数组a初始化为[4,5,6],(1)输出a的类型(type)(2)输出a的各维度的大小(shape)(3)输出a的第一个元素(值为4)a=np.array([4,5,6])type(a)#numpy.ndarraya.shape#(3,)a[0]#4
is_colorful
·
2022-11-29 05:53
深度学习
python
jupyter
python
numpy
《神经网络与深度学习》
神经网络与深度学习
7---注意力机制与seq2seq模型
目录注意力评分函数基于rnn的seq2seq模型带注意力机制的基于rnn的seq2seq模型多头注意力Transfomer本文是邱锡鹏教授撰写的《
神经网络与深度学习
》一书中第8章:注意力机制与外部记忆的读书笔记
muyuu
·
2022-11-29 05:48
深度学习
深度学习
神经网络与深度学习
笔记 Chapter 1.
转载请注明出处:http://www.cnblogs.com/zhangcaiwang/p/6875533.htmlsigmoidneuron微小的输入变化导致微小的输出变化,这种特性将会使得学习称为可能。但是在存在感知器的网络中,这是不可能的。有可能权重或偏置(bias)的微小改变将导致感知器输出的跳跃(从0到1),从而导致此感知器后面的网络以一种难以理解的方式发生巨大的改变。解决这一问题就要使
dashu5943
·
2022-11-29 05:15
【邱希鹏】
神经网络与深度学习
编程习题-chap1-warmup
1.numpy的array操作#1.导入numpy库importnumpyasnp#2.建立一个一维数组a初始化为[4,5,6],#(1)输出a的类型(type)#(2)输出a的各维度的大小(shape)#(3)输出a的第一个元素(值为4)a=np.array([4,5,6])print(type(a))print(a.shape)print(a[0])#3.建立一个二维数组b,初始化为[[4,5
Douzi1024
·
2022-11-29 05:13
神经网络与深度学习
6---网络优化与正则化
网络优化与正则化为什么神经网络可以拟合任何函数激活函数的选择参数初始化为什么不能将参数初始化为全零参数初始化的目的基于方差缩放的参数初始化正交初始化理解DropoutDropout起作用的原因Dropout的使用限制归一化BatchNormalizationLayerNormalization本文是邱锡鹏教授撰写的《
神经网络与深度学习
muyuu
·
2022-11-28 18:24
深度学习
深度学习
神经网络
网络
神经网络与深度学习
作业10:第六章课后题(LSTM | GRU)
目录习题6-3当使用公式(6.50)作为循环神经网络得状态更新公式时,分析其可能存在梯度爆炸的原因并给出解决办法.习题6-4推导LSTM网络中参数的梯度,并分析其避免梯度消失的效果.习题6-5推导GRU网络中参数的梯度,并分析其避免梯度消失的效果.(选做)附加题6-1P:什么时候应该用GRU?什么时候用LSTM?(选做)参考资料习题6-3当使用公式(6.50)作为循环神经网络得状态更新公式时,分析
Jacobson Cui
·
2022-11-28 15:53
神经网络与深度学习
《神经网络与深度学习》课后习题
深度学习
神经网络
lstm
神经网络与深度学习
:梯度下降法
梯度下降法1.基本原理2.梯度下降法实现线性回归问题3.模型评估1.基本原理一元凸函数求极值二元凸函数求极值2.梯度下降法实现线性回归问题一元线性回归可以转换为二元函数求极值的问题学习率:对于凸函数,只要学习率设置的足够小,可以保证一定收敛。超参数:在开始学习之前设置,不是通过训练得到的。(包含学习率、迭代次数等)归一化/标准化:将数据的值限制在一定的范围之内使所有属性处于同一个范围、同一个数量级
Twinkle1231
·
2022-11-28 13:12
深度学习
神经网络
神经网络与深度学习
:分类问题
分类问题1.逻辑回归1.1广义线性回归1.2逻辑回归1.3交叉熵损失函数2.线性分类器3.多分类问题3.1独热编码3.2softmax()函数3.3多分类交叉熵损失函数1.逻辑回归1.1广义线性回归分类问题:垃圾邮件识别、图片分类、疾病判断分类器:能够自动对输入的数据进行分类输入:特征;输出:离散值实现分类器准备训练样本、训练分类器、对新样本分类1.2逻辑回归1.3交叉熵损失函数反映概率分布之间的
Twinkle1231
·
2022-11-28 13:59
深度学习
神经网络
分类
神经网络与深度学习
作业8:RNN - 简单循环网络
1.使用Numpy实现SRNimportnumpyasnpinputs=np.array([[1.,1.],[1.,1.],[2.,2.]])#初始化输入序列print('inputsis',inputs)state_t=np.zeros(2,)#初始化存储器print('state_tis',state_t)w1,w2,w3,w4,w5,w6,w7,w8=1.,1.,1.,1.,1.,1.,1.
LzeKun
·
2022-11-28 08:17
深度学习
神经网络
rnn
[2022-11-26]
神经网络与深度学习
第5章 - 循环神经网络(part 2)
contents循环神经网络(part2)-梯度爆炸实验写在开头解决方式概览梯度爆炸实验梯度打印函数思考:什么是范数、L2范数、为什么要打印梯度范数复现梯度爆炸现象使用梯度截断解决梯度爆炸问题思考:梯度截断解决梯度爆炸问题的原理?写在最后循环神经网络(part2)-梯度爆炸实验写在开头经过前面的实验我们不难发现,我们所构建的简单神经网络,对于较短的序列预测效果尚佳,但是应对起长的序列效果却一塌糊涂
三工修
·
2022-11-28 07:40
[DL]神经网络与深度学习
深度学习
神经网络
rnn
网络优化与正则化学习
完整的xmind脑图本文的参考书《
神经网络与深度学习
》PDF1、网络优化1.1、高维变量的非凸优化低维空间的非凸优化问题问题主要是存在一些局部最优点基于梯度下降的优化方法会陷入局部最优点,因此在低维空间中非凸优化问题的主要难点是如何选择初始化参数和逃离局部最优点局部最小值要求在每一维度上都是最小值在高维空间中
qq_45947498
·
2022-11-27 19:07
网络优化与正则化
神经网络
笔记:
神经网络与深度学习
—绪论
笔记:
神经网络与深度学习
绪论绪论一、关于本课程1.知识结构2.推荐教材3.推荐课程二、常用的深度学习框架绪论最近开始学习机器学习,从B站找到了一篇网课:复旦大学——邱锡鹏的《神经网络与机器学习》,因此写了几篇课程笔记
zhenpigmilk
·
2022-11-27 17:07
机器学习
邱锡鹏
神经网络与深度学习
课程【一】——绪论1和绪论2
绪论神经网络:一种以(人工)神经元为基本单元的模型例如:FNN、MN、GN深度学习:一类机器学习问题,主要解决贡献度分配问题。课程安排:首先讲机器学习、再讲神经网络。之后了解概率图模型为无监督学习做铺垫,强化学习也会涉及。如何开发一个人工智能系统举例:芒果机器学习选取芒果的特征:颜色、大小形状、产地、品牌即输入变量,输出变量为成熟度、多汁或者是否甜蜜深度学习:机器学习可以解决很简单的线性问题,但是
桐原因
·
2022-11-27 17:59
邱锡鹏
神经网络与深度学习
深度学习
神经网络
机器学习
《
神经网络与深度学习
》邱锡鹏学习笔记(一):绪论
目录前言人工智能神经网络机器学习表示学习深度学习端到端学习常用深度学习框架前言深度学习是机器学习的一个分支,是一个机器学习问题,是指一类问题以及解决这类问题的方法。与传统机器学习不同的是,深度学习的模型一般比较复杂,样本的输入输出之间数据流要经过多个线性或非线性的组件,这个过程涉及到贡献度分配问题(CAP),即每个组件的贡献。而神经网络是一种可以较好的解决贡献度分配问题的模型,神经网络的参数可以通
小栗子pola
·
2022-11-27 17:59
神经网络与深度学习
神经网络与深度学习
(邱锡鹏)-学习笔记
神经网络与深度学习
第一章绪论第二章机器学习概述第三章线性模型深度学习是机器学习的一个分支,是指一类问题以及解决这类问题的方法。
ChanYeol666
·
2022-11-27 17:59
自然语言处理学习
自然语言处理
深度学习
【邱锡鹏-
神经网络与深度学习
】第一章绪论 知识点汇总
深度学习是机器学习的分支,从有限样例中通过算法总结出一般性的规律,应用到未知的数据上。深度学习:原始数据输入--->多个线性或非线性组件--->每个组件对信息进行加工,影响后续组件--->最后的输出结果。贡献度分配问题:关系到如何学习每个组件中的参数。神经网络模型可以使用误差反向传播算法,较好地解决贡献度分配问题。本书主要内容:深度学习、机器学习、概率图模型、神经网络。1.1机器学习浅层学习:不涉
踏下心来学点东西
·
2022-11-27 17:21
神经网络与深度学习
python
神经网络
深度学习
深度学习笔记(二十九)卷积神经网络之卷积运算和边缘检测
第一课中系统学习了
神经网络与深度学习
,从逻辑回归到浅层神经网络,最后到深层神经网络。
Mr.zwX
·
2022-11-27 09:21
【深度学习/神经网络】Deep
Learning
神经网络与深度学习
作业8:RNN - 简单循环网络
目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN4.分析“二进制加法”源代码5.实现“Character-LevelLanguageModels”源代码7.“编码器-解码器”的简单实现参考文献 简单循环网络(SimpleRecurrentNetwork,SRN)只有一个隐藏层的神经网络。1.使用Numpy实现SRNim
红肚兜
·
2022-11-27 09:44
cnn
深度学习
神经网络
神经网络与深度学习
作业10:(LSTM | GRU)
神经网络与深度学习
作业10:(LSTM|GRU)习题6-3当使用公式(6.50)作为循环神经网络的状态更新公式时,分析其可能存在梯度爆炸的原因并给出解决方法.习题6-4推导LSTM网络中参数的梯度,并分析其避免梯度消失的效果
小鬼缠身、
·
2022-11-27 07:50
深度学习
神经网络
lstm
神经网络与深度学习
-2- 机器学习简单示例-PyTorch
以及不同的学习准则经验风险最小化,结构风险最小,最大似然估计(最大后验估计)参考文档:【技术干货】PyTorch深度学习合集【全20集】深度学习入门|PyTorch入门|深度学习中的数学入门_哔哩哔哩_bilibili《
神经网络与深度学习
明朝百晓生
·
2022-11-27 07:53
人工智能
深度学习
机器学习
神经网络
神经网络与深度学习
:回归问题
回归问题1.机器学习基础1.1监督学习1.2无监督学习1.3半监督学习2.一元线性回归3.解析法实现一元回归3.1Python实现3.2NumPy实现3.3TensorFlow实现4.多元线性回归1.机器学习基础机器学习:从数据中学习。1.建立模型2.学习模型3.预测房价学习算法:从数据中产生模型的算法。1.1监督学习SupervisedLearning1.2无监督学习UnsupervisedLe
Twinkle1231
·
2022-11-26 23:05
深度学习
神经网络
回归
神经网络与深度学习
day06-前馈神经网络进阶
提示:本文面向
神经网络与深度学习
基础的人群,如果想初学神经网络,建议翻我之前的博客。
小鬼缠身、
·
2022-11-26 07:48
神经网络与深度学习
笔记(1)——实践基础
安装教程与学习参考:飞桨PaddlePaddle-源于产业实践的开源深度学习平台学习课程参考:AI算法大赛-飞桨AIStudio-人工智能学习实训社区(baidu.com)
神经网络与深度学习
PDF:
神经网络与深度学习
WHJ226
·
2022-11-25 21:43
神经网络与深度学习
神经网络与深度学习
笔记(2)——机器学习
目录1实现一个简单的线性回归模型1.1数据集构建1.2模型构建1.3损失函数1.4模型优化1.5模型训练1.6模型评估2多项式回归2.1数据集构建2.2模型构建2.3模型训练2.4模型评估这里,不知道为什么我的内核经常挂掉,所以在开头附上此代码:importosos.environ["KMP_DUPLICATE_LIB_OK"]="TRUE"#防止内核挂掉重启1实现一个简单的线性回归模型要通过机器
WHJ226
·
2022-11-25 21:43
神经网络与深度学习
机器学习
吴恩达深度学习课程笔记(初步认识神经网络)
吴恩达深度学习课程笔记1课程主要内容1.
神经网络与深度学习
介绍2.ImprovingDeepNeuralNetworks:超参数调整,正则化,优化方法3.结构化机器学习工程:比如如何分割训练集,比较集,
fuulish
·
2022-11-25 18:48
深度学习
神经网络
为什么深度神经网络这么难训练?| 赠书
导读:本文内容节选自《深入浅出
神经网络与深度学习
》一书,由MichaelNielsen所著,他是实验媒体研究工作室的联合创始人,曾是YCResearch的ResearchFellow。。
AI科技大本营
·
2022-11-25 15:35
神经网络
算法
编程语言
python
机器学习
神经网络与深度学习
——神经网络基础与反向传播(CS231n)Neural Network Basics & Back Propagation
回顾之前我们得出了分数函数、损失函数、进而得到数据损失+正则项我们要得到最好的W,为此使用了梯度下降进行优化。对于梯度下降,有数值法(慢)和解析法(快),在实践中,推导解析梯度,使用数值梯度来检查但问题是:线性分类并不强线性分类每类只能学到一个图像,而且只能进行线性决策边界神经网络“神经网络”是一个非常宽泛的术语;更准确地说,它们被称为“全连接网络”,有时也被称为“多层感知器”(MLP)2层3层神
DongDu_rabbit
·
2022-11-25 10:45
深度学习
神经网络
python
机器学习
人工智能
深度学习
笔记:
神经网络与深度学习
——机器学习1
一、关于概率的一些基本概念概率(Probability):一个随机事件发生的可能性大小,为0到1之间的实数。随机变量(RandomVariable)概率分布(ProbabilityDistribution)离散随机变量——伯努利分布二项分布连续随机变量——概率密度函数高斯分布累积分布函数(CumulativeDistributionFunction,CDF):随机变量X的取值小于等于x的概率随机向
zhenpigmilk
·
2022-11-25 10:17
机器学习
深度学习
神经网络
神经网络与深度学习
---单层感知器(matlab+实例)
单层感知器就像我们大脑中一个简单的神经元一样,神经元输入的是电流信号,而我们这个感知器输入的是一个具体的数。权向量就是输入的一个节点×对应的权值。输出节点的圆圈是两个符号函数,hardlims和hardlim。偏置因子就是各个权向量累加再加上的一个数(t=0.4也可以写成b,它的值不是固定的)。输出Y,它的值不是1就是0(也可以是1和-1,具体看你选择的函数)。hardlims和hardlim的函
clearlove131
·
2022-11-25 08:53
matlab
深度学习
神经网络
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他