E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
神经网络与深度学习
神经网络与深度学习
实验day13-循环神经网络:RNN记忆能力实验
神经网络与深度学习
实验day13-循环神经网络:RNN记忆能力实验6.1循环神经网络的记忆能力实验6.1.1数据集构建6.1.1.1数据集的构建函数6.1.1.2加载数据并进行数据划分6.1.1.3构造
小鬼缠身、
·
2022-11-19 00:34
深度学习
神经网络
rnn
《
神经网络与深度学习
》- 邱锡鹏(更新)
《
神经网络与深度学习
》第一章绪论1.1人工智能1.人工智能是什么?
正丶好
·
2022-11-16 10:45
读书笔记
人工智能
机器学习
深度学习
神经网络
[2022-11-13]
神经网络与深度学习
hw8 -RNN造轮子篇
contentshw8-RNN造轮子篇task1numpy实现RNN类和简单前向部分&task2增加tanh激活函数概念类基本构造类构造方法类初始化类前向传播Overview测试task3使用nn中的类实现task4Encoder-Decoder介绍EncoderDecoder代码实现写在最后hw8-RNN造轮子篇task1numpy实现RNN类和简单前向部分&task2增加tanh激活函数RNN
三工修
·
2022-11-15 17:42
[DL]神经网络与深度学习
深度学习
神经网络
rnn
[2022-10-25]
神经网络与深度学习
第4章 - 卷积神经网络(part 2)
contents
神经网络与深度学习
第4章-卷积神经网络(part2)-算子写在开头卷积神经网络的基础算子卷积算子多通道卷积卷积过程输入通道、输出通道多通道卷积层算子代码实现初始化类部分参数准备部分前向传播部分使用
三工修
·
2022-11-15 17:12
[DL]神经网络与深度学习
[2022-10-31]
神经网络与深度学习
第4章 - 卷积神经网络(part 3)
contents
神经网络与深度学习
第4章-卷积神经网络(part3)写在开头基于LeNet实现手写体数字识别实验MNIST数据集模型构建模型参数量模型计算量模型训练、模型评价模型测试一些小题写在最后
神经网络与深度学习
第
三工修
·
2022-11-15 17:12
[DL]神经网络与深度学习
深度学习
神经网络
cnn
[2022-11-06]
神经网络与深度学习
第4章 - 卷积神经网络(part 4)
contents卷积神经网络(part4)ResNet写在开头基于残差网络的手写体数字识别实验模型构建ResNet核心——恒等快捷链接ResNet18网络实例化没有残差连接的ResNet18带残差连接的ResNet18比较写在最后卷积神经网络(part4)ResNet写在开头虽然根据泛逼近定理,只要有足够的训练样本,单层前馈网络也能足以表示任何函数,但是该层可能非常庞大,网络和数据容易出现过拟合。
三工修
·
2022-11-15 17:12
[DL]神经网络与深度学习
深度学习
神经网络
cnn
[2022-10-09]
神经网络与深度学习
hw5 - 卷积
contentshw5卷积task1题目内容题目分析区分:卷积核和滤波器卷积核里面的数字是怎么得到的卷积的过程边上怎么办?对于边界的处理解答task2题目内容题目分析题目解答语言描述探究不同卷积核的作用编程实现各种操作灰度图操作调整卷积核参数使用不同尺寸照片测试并总结更多卷积核彩色图片边缘检测总结hw5卷积task1题目内容编程实现下图:题目分析这题是简单的使用卷积核对图像进行卷积运算的过程,本人
三工修
·
2022-11-15 17:42
[DL]神经网络与深度学习
[2022-10-17]
神经网络与深度学习
第4章 - 卷积神经网络(part 1)
contents卷积神经网络(part1)写在开头卷积(convolution)二维卷积运算卷积算子二维卷积算子二维卷积的参数量和计算量感受野卷积tricks步长零填充带步长和零填充的二维卷积算子带步长和填充的二维卷积算子实现使用卷积运算完成图像边缘检测任务写在最后卷积神经网络(part1)写在开头终于到了卷积神经网络了。卷积作为一个在数学中非常重要的概念,在深度学习中也有着举足轻重的作用。一般来
三工修
·
2022-11-15 17:42
[DL]神经网络与深度学习
[2022-10-13]
神经网络与深度学习
第3章-前馈神经网络(part3)
contents前馈神经网络(part3)写在开头鸢尾花数据集介绍Iris数据集背景和内容Iris数据集数据Iris数据集使用PCA降维呈现数据选取前两个特征绘制实践:基于前馈神经网络完成鸢尾花分类数据处理针对大量的数据:小批量梯度下降模型构建、损失函数、优化器和评价指标Runner类构建模型训练模型评价模型预测一些小问题对比Softmax分类和前馈神经网络分类使用mnist进行FNN实验写在最后
三工修
·
2022-11-15 17:41
[DL]神经网络与深度学习
[2022-09-29]
神经网络与深度学习
hw3 - 从0开始的FNN轮子制造
contentsnndl第三次作业-从0开始的FNN轮子制造过程推导前向传播过程反向传播过程数值计算前向传播反向传播代码实现numpy版本torch版本对比Sigmoid用PyTorch自带torch.sigmoid()激活函数Sigmoid改变为ReLU损失函数MSE用PyTorch自带torch.nn.MSELoss()损失函数MSE改变为交叉熵改变步长改变训练次数权值w1-w8初始值换为随机
三工修
·
2022-11-15 17:11
[DL]神经网络与深度学习
[2022-09-14]
神经网络与深度学习
hw1
nndl第一次作业(P522-1,2-12)一、分析为什么平方损失函数不适用于分类问题?答:1.平方损失函数通过计算预测值和真实值的偏差程度来计算误差,并且通过在高斯分布的数据上进行极大似然估计,先然适合回归问题;分类问题的分布一般来说并不适合平方损失计算;2.分类问题的数据并非连续的关系,通过计算平方得到的误差大小实际上并不能反映偏差大小,因此损失大小反映的偏差程度难以确定;3.分类问题的函数并
三工修
·
2022-11-15 17:40
[DL]神经网络与深度学习
[2022-11-07]
神经网络与深度学习
第4章 - 卷积神经网络(part 5)
contents卷积神经网络(part5)-使用预训练ResNet18实现CIFAR-10分类写在开头基于ResNet18网络完成图像分类任务库文件和初始化数据处理模型构建模型训练预训练和迁移学习模型训练比较模型预测一些小题5种深度的ResNetLeNet、AlexNet、VGG、GoogLeNet、ResNet写在最后References卷积神经网络(part5)-使用预训练ResNet18实现
三工修
·
2022-11-15 17:40
[DL]神经网络与深度学习
深度学习
神经网络
cnn
神经网络与深度学习
day07-实践:前馈神经网络实现鸢尾花数据集分类
神经网络与深度学习
day07-实践:前馈神经网络实现鸢尾花数据集分类深入研究鸢尾花数据集4.5实践:基于前馈神经网络完成鸢尾花分类4.5.1小批量梯度下降法4.5.2数据处理4.5.3模型构建4.5.4
小鬼缠身、
·
2022-11-14 07:17
机器学习
深度学习
人工智能
Pytorch实现CNN
神经网络与深度学习
实验报告一、实验名称Pytorch实现CNN二、实验要求用python的Pytorch模块实现卷积神经网络。网络结构为一个输入层、两个卷积层、一个全连接层、一个输出层。
StarryTank
·
2022-11-13 00:03
神经网络与深度学习
python
深度学习
pytorch
Numpy 实现全连接神经网络
神经网络与深度学习
实验报告一、实验名称Numpy实现全连接神经网络二、实验要求用python的numpy模块实现全连接神经网络。网络结构为一个输入层、一个隐藏层、一个输出层。
StarryTank
·
2022-11-13 00:33
神经网络与深度学习
numpy
神经网络
python
神经网络与深度学习
第5章:卷积神经网络 阅读提问
1.卷积神经网络的特点?与前馈神经网络的异同点?2.不同的卷积核的作用是什么?3.汇聚层(poolinglayer)的作用是什么?4.1x1卷积有什么作用?5.ResNet为什么可以训练那么深?残差连接为什么work?
爱睡觉的Raki
·
2022-11-12 11:06
神经网络与深度学习
神经网络
深度学习
cnn
人工智能
机器学习
神经网络与深度学习
-9- 网络结构 -PyTorch
参考《
神经网络与深度学习
》课时14张量数据类型-1_哔哩哔哩_bilibili深度神经网络(DNN)-_yanghh-博客园目录1:常见网络结构2:前馈神经网络3:反向传播算法4:Softmax分类例子
明朝百晓生
·
2022-11-11 23:45
人工智能
深度学习
神经网络
pytorch
人工智能导论
人工智能导论人工智能定义及其研究目标人工智能发展历史知识及其表示知识图谱人工智能关键技术机器学习(ML)
神经网络与深度学习
自然语言处理计算机视觉语音处理人工智能行业应用人工智能定义及其研究目标智能至少包括三个方面能力
卡卡龙zjq
·
2022-11-11 07:53
人工智能
机器学习资料汇总
《DeepLearninginNeuralNetworks:AnOverview》介绍:这是瑞士人工智能实验室JurgenSchmidhuber写的最新版本《
神经网络与深度学习
综述》本综述的特点是以
风化记忆
·
2022-11-09 13:08
机器学习
机器学习
【
神经网络与深度学习
-TensorFlow实践】-中国大学MOOC课程(十三)(人工神经网络(2)))
【
神经网络与深度学习
-TensorFlow实践】-中国大学MOOC课程(十三)(人工神经网络(2)))13人工神经网络(2)13.1小批量梯度下降法13.1.1批量梯度下降法13.1.2随机梯度下降法(
踏破万里无云
·
2022-11-07 23:34
深度学习
深度学习
tensorflow
神经网络
《
神经网络与深度学习
》学习笔记
电子版:https://nndl.github.io/B站视频:https://www.bilibili.com/video/BV1P3411u7c1
神经网络与深度学习
第一部分机器学习基础1.绪论1.1
SDUer_DZL
·
2022-10-30 07:05
神经网络
深度学习
人工智能
【
神经网络与深度学习
day10-基于torch使用Lenet实现手写数字识别】
神经网络与深度学习
day10-基于pytorch:LeNet实现MNIST5.3基于LeNet实现手写体数字识别实验5.3.1MNIST数据集5.3.1.1数据集介绍5.3.1.2数据集导入5.3.2模型构建
小鬼缠身、
·
2022-10-30 07:58
深度学习
机器学习
神经网络
人工智能
EM算法:含隐变量的参数估计
该篇博客是对邱锡鹏老师《
神经网络与深度学习
》的学习笔记。
Turbo-shengsong
·
2022-10-25 16:24
信息与通信
1024程序员节
吴恩达AI机器学习-01
神经网络与深度学习
week3上-浅层神经网络
‼️博客为作者学习回顾知识点所用,并非商用,如有侵权,请联系作者删除‼️目录3.1神经网络概览3.2神经网络的表现形式3.3计算神经网络的输出3.4多样本向量化3.5向量化实现的解释3.6激活函数3.1神经网络概览使用上标[1]来表示与这些节点相关的量,也就是所谓的层;之后,我们使用上标[2]来表示与这个节点有关的量,这是神经网络的另一层;上标(i)表示第i个训练样本;在这个神经网络中,我们要进行
睡觉特早头发特多
·
2022-10-18 10:33
机器学习
深度学习
机器学习
人工智能
pytorch入门学习
的一些小项目https://pytorch.org/tutorials/pytorch官方教程FastaiMichaelNielsen的《NeuralNetworkandDeepLearning》(《
神经网络与深度学习
阮扬才
·
2022-10-17 12:32
毕业设计三维点云
计算机视觉
深度学习
机器学习
神经网络与深度学习
(五)前馈神经网络(3)鸢尾花分类
目录4.5实践:基于前馈神经网络完成鸢尾花分类深入研究鸢尾花数据集4.5.1小批量梯度下降法4.5.1.1数据分组4.5.2数据处理4.5.2.2用DataLoader进行封装4.5.3模型构建4.5.4完善Runner类4.5.5模型训练4.5.6模型评价4.5.7模型预测思考题1.对比Softmax分类和前馈神经网络分类。2.对比SVM与FNN分类效果,谈谈自己看法。3.尝试基于MNIST手写
Jacobson Cui
·
2022-10-14 07:13
神经网络与深度学习
神经网络模型训练简记(一)
神经网络模型训练简记(一)一、概念介绍1.1人工智能、机器学习、
神经网络与深度学习
1.2backbone与pretrain_model1.3batch_size、learning_rate、epoch与
weixin_46846685
·
2022-10-13 10:56
机器视觉
神经网络
深度学习
人工智能
ResNet
ImageNet
【基础整理】attention:浅谈注意力机制与自注意力模型(附键值对注意力 + 多头注意力)
划水休息两天不看论文了~来重新复习一下基础qaq以下讲解参考大名鼎鼎的nndl邱锡鹏《
神经网络与深度学习
》部分内容(详见第八章,注意力与外部记忆)是对于不太行的初学者也比较友好的一本,当然不能要求一本书既全面又深入
HicSuntLeones
·
2022-10-12 22:30
机器学习之
神经网络与深度学习
HW4【详解及jupyter代码】
文章目录NeuralNetworks&DeepLearning1.导入所需的Python库2.加载数据并可视化3.全连接神经网络3.1初始化网络参数3.2定义神经网络的每一层Affine层Softmax-with-Loss层3.3搭积木3.4进行训练3.5梯度下降优化算法3.5.1AdaGrad3.5.2RMSprop3.5.3Momentum3.5.4NesterovMomentum3.5.5A
湘粤Ian
·
2022-10-12 22:52
机器学习基础
周志华 神经网络
1、《
神经网络与深度学习
讲义》pdf下载在线阅读全文,求百度网盘云资源《
神经网络与深度学习
讲义》百度网盘pdf最新全集下载:链接:https://pan.baidu.com/s/1RJ3mrqg_HR7UBzA1ut8c5g
wenangou
·
2022-10-12 13:55
神经网络
神经网络
人工智能
深度学习
神经网络与深度学习
(nndl)——2 机器学习概述
机器学习概述机器学习(ML)定义:就是让计算机从数据中进行自动学习,从而得到某种知识(或规律)早期称为模式识别(PR)2.1基本概念样本、特征、标签、模型、学习算法等概念特征又称为属性(如水果的颜色、大小、产地、品牌、形状等)标签:是我们需要进行预测的,可以是连续值(如水果的甜度、水分、成熟度的综合打分),也可以是离散的(如好、坏这类标签)完成标记的标签和特征的东西可以看成一个样本或示例。数据集(
kokotao
·
2022-10-10 20:02
神经网络与深度学习笔记
深度学习
机器学习
神经网络
损失函数
线性模型
随机森林的简单学习记录
随机森林小记这里采用的随机森林的库选择sklearn库1.首先是导入数据:path="D:/1课内学习/
神经网络与深度学习
/课程设计题目及要求/EpilepticSeizureClassification.csv
小陈皓
·
2022-10-06 07:45
随机森林
学习
机器学习
吴恩达AI机器学习-01
神经网络与深度学习
week2上-神经网络基础
函数求导链式规则推导部分和梯度下降代码思路部分重点理解目录2.1二分分类2.2逻辑线性回归2.3参数w&b以及损失函数2.4梯度下降法2.5导数+2.6更多导数的例子2.7计算图2.8计算图的导数计算2.9Logistic回归中的梯度下降算法2.10m个样本的梯度下降2.1二分分类Logistic回归是一个用于二分分类的算法;64*64*3=12288,;.2.2逻辑线性回归giveaninput
睡觉特早头发特多
·
2022-10-04 07:01
机器学习
机器学习
深度学习
人工智能
吴恩达AI机器学习-01
神经网络与深度学习
week1-深度学习概述
‼️博客为作者学习回顾知识点所用,并非商用,如有侵权,请联系作者删除‼️AIisthenewelectricity像100多年前的电力一样,人工智能正在使大量的行业发生巨变;(✅)吴恩达深度学习课程课后习题(第一课第一周)_无止境x的博客-CSDN博客《吴恩达深度学习》01神经网络和深度学习(第1周深度学习概论)_ZJ_Windy_Feng的博客-CSDN博客目录1.1深度学习概述Speciali
睡觉特早头发特多
·
2022-10-04 07:28
机器学习
人工智能
机器学习
深度学习
神经网络与深度学习
(五)—— 循环神经网络
邱锡鹏《
神经网络与深度学习
》学习笔记。
zxxRobot
·
2022-10-02 07:45
深度学习
神经网络与深度学习
(四)线性分类
目录3.1基于Logistic回归的二分类任务3.1.1数据集构建3.1.2模型构建3.1.3损失函数3.1.4模型优化3.1.4.1梯度计算3.1.4.2参数更新3.1.5评价指标3.1.6完善Runner类3.1.7模型训练3.1.8模型评价3.2基于Softmax回归的多分类任务3.2.1数据集构建3.2.2模型构建3.2.2.1Softmax函数3.2.2.2Softmax回归算子3.2.
Jacobson Cui
·
2022-10-02 07:12
神经网络与深度学习
分类
python
深度学习
pytorch
神经网络与深度学习
作业2:第三章课后习题
习题3-2:在线性空间中,证明一个点到平面的距离为.证明:设平面内有一点,使得垂直于此平面,因为垂直于此平面,因此又有平行与。即:(为常数),因此点到平面的距离为,又因为且。所以。代入,得到。对两边同时取模得到:,距离为。习题3-5:在Logistic回归中,是否可以用去逼近正确的标签,并用平方损失最小化来优化参数?在Logistic回归中可以用sigmoid函数去逼近正确的标签,但用平方损失最小
Jacobson Cui
·
2022-10-02 07:12
《神经网络与深度学习》课后习题
神经网络与深度学习
作业1:第二章课后题
习题2-1分析为什么平方损失函数不适用于分类问题,交叉熵损失函数不适用于回归问题.平方损失函数:使用平方损失函数处理分类问题时,由于分类问题的结果是离散值,分类正确的项之间以及分类错误的项之间误差都是一样的,不具有距离的意义,通过计算平方得到的误差大小实际上并不能很好地反映误差大小,且分类问题的函数不是凸函数,会陷入局部最小点,会对优化造成困难。平方损失函数:交叉熵损失函数之和分类正确的预测结果有
Jacobson Cui
·
2022-10-02 07:42
《神经网络与深度学习》课后习题
神经网络与深度学习
(三)线性回归与多项式回归
目录2.2线性回归2.2.1数据集构建2.2.2模型构建2.2.3损失函数2.2.4模型优化2.2.5模型训练2.2.6模型评估2.2.7样本数量&正则化系数2.3多项式回归2.3.1数据集构建2.3.2模型构建2.3.3模型训练2.3.4模型评估2.4Runner类介绍2.5基于线性回归的波士顿房价预测2.5.1数据处理2.5.1.2数据清洗2.5.1.3数据集划分2.5.1.4特征工程2.5.
Jacobson Cui
·
2022-10-02 07:41
神经网络与深度学习
机器学习
线性回归
pytorch
《
神经网络与深度学习
》-循环神经网络
循环神经网络1.给网络增加记忆能力1.1延时神经网络1.2有外部输入的非线性自回归模型1.3循环神经网络2.简单循环网络2.1循环神经网络的计算能力2.1.1循环神经网络的通用近似定理2.1.2图灵完备3.应用到机器学习3.1序列到类别模式3.2同步的序列到序列模式3.3异步的序列到序列模式4.参数学习4.1随时间反向传播算法4.2实时循环学习算法5.长程依赖问题5.1改进方案6.基于门控的循环神
你电吴彦祖
·
2022-10-02 07:10
《神经网络与深度学习》
神经网络
深度学习
神经网络与深度学习
作业3:分别使用numpy和pytorch实现FNN例题
目录过程推导——了解BP原理数值计算代码实现使用numpy实现使用pytorch实现1、对比【numpy】和【pytorch】程序,总结并陈述。2、激活函数Sigmoid用PyTorch自带函数torch.sigmoid(),观察、总结并陈述。3、激活函数Sigmoid改变为Relu,观察、总结并陈述。4、损失函数MSE用PyTorch自带函数t.nn.MSELoss()替代,观察、总结并陈述。5
Jacobson Cui
·
2022-10-02 07:06
《神经网络与深度学习》课后习题
深度学习
numpy
pytorch
神经网络与深度学习
(五)前馈神经网络(1)——二分类任务
神经网络是由神经元按照一定的连接结构组合而成的网络。神经网络可以看作一个函数,通过简单非线性函数的多次复合,实现输入空间到输出空间的复杂映射。前馈神经网络是最早发明的简单人工神经网络。整个网络中的信息单向传播,可以用一个有向无环路图表示,这种网络结构简单,易于实现。目录4.1神经元4.1.1净活性值4.1.2激活函数4.1.2.1Sigmoid型函数4.1.2.2ReLU型函数4.2基于前馈神经网
Jacobson Cui
·
2022-09-29 07:08
神经网络与深度学习
【
神经网络与深度学习
】卷积神经网络 ① 卷积 ② 互相关 ③ 卷积层和池化层 ④ 四种典型的卷积网络 ⑤ 转置卷积 ⑥ 空洞卷积 ⑦ 微步卷积
文章目录一、全连接前馈神经网络的缺陷二、卷积神经网络①卷积(Convolution)(1)一维卷积(2)二维卷积(3)卷积的变式==(4)卷积计算公式==(5)宽卷积,窄卷积和等宽卷积②互相关(Cross-Correlation)③用卷积来代替全连接④卷积层和池化层三、典型卷积神经网络【无详细介绍】①LeNet-5②AlexNet③Inception网络④残差网络四、其他卷积方式①转置卷积②微步卷
Bessie_Lee
·
2022-09-29 07:34
学习ML+DL
神经网络
深度学习
cnn
卷积神经网络
卷积
复旦大学邱锡鹏教授发布教科书《
神经网络与深度学习
》
点击“小詹学Python”,“星标”或"置顶"关键时刻,第一时间送达本文转载自“机器之心”从2016到2019,根据多年教学和研究经验,邱锡鹏教授完成了深度学习教科书《
神经网络与深度学习
》!
小詹学 Python
·
2022-09-29 07:03
神经网络与深度学习
day05---前馈神经网络
神经网络与深度学习
day05-前馈神经网络前言一、神经元简介1.1净活性值1.2激活函数1.2.1Sigmoid函数和Tanh函数1.2.2ReLU函数1.2.3(选做)其他函数二、基于前馈神经网络的二分类任务
小鬼缠身、
·
2022-09-29 07:06
神经网络与深度学习
期末考试满分过题库!
神经网络与深度学习
期末考试满分过题库!
博客zhu虎康
·
2022-09-15 00:22
日常学习
一些很有趣的故事集锦
神经网络
【深度学习】吴恩达深度学习-Course1
神经网络与深度学习
-第三周浅层神经网络作业
视频链接:【中英字幕】吴恩达深度学习课程第一课—
神经网络与深度学习
本文题目来源:【中英】【吴恩达课后测验】Course1-神经网络和深度学习-第三周测验目录英文习题中文习题答案英文习题1.Whichofthefollowingaretrue
passer__jw767
·
2022-09-14 07:54
深度学习
深度学习
神经网络
神经网络与深度学习
(一)- Logistic Regression as a Neural Network
这个系列的文章都将是对于deeplearning.ai开设的关于深度学习的相关课程的学习笔记,第一门课就是
神经网络与深度学习
。
mike112223
·
2022-09-14 07:24
神经网络
深度学习
机器学习
[2022-09-05]
神经网络与深度学习
第0章-basic‘s basic(part 2)
contentsbasic'sbasic(part2)写在开头PyTorch介绍引用一些概念张量算子张量的操作创建张量指定数据创建张量指定形状创建指定区间创建张量的属性张量的形状形状的改变张量的数据类型张量的设备位置张量与numpy数组转换张量的访问索引和切片访问张量修改张量张量的运算数学运算逻辑运算矩阵运算点积运算(torch.dot)矩阵和向量相乘(torch.mv)二维矩阵乘法(torch.
三工修
·
2022-09-14 07:53
[DL]神经网络与深度学习
深度学习
神经网络
python
神经网络与深度学习
第3章:线性模型 阅读提问
1.什么是决策边界?2.logisticregression的激活函数的作用是什么?3.logisticregression的公式?4.softmax和logistic回归的异同点,在二分类的时候是等价的吗?5.描述三类SVM6.核函数的作用?7.平方,hinge,交叉熵,感知器,0-1损失分别适用什么场景,有什么异同点
爱睡觉的Raki
·
2022-09-14 07:53
神经网络与深度学习
深度学习
神经网络
支持向量机
机器学习
人工智能
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他