E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
深度学习基础
神经网络与深度学习:卷积神经网络
卷积神经网络1.
深度学习基础
2.图像识别与深度学习3.图像卷积3.1图像卷积运算3.2图像卷积在机器学习中的应用4.卷积神经网络5.卷积神经网络的优化1.
深度学习基础
特征工程:尽可能选择和构建出好的特征
Twinkle1231
·
2022-12-14 01:14
深度学习
神经网络
cnn
深度学习基础
学习-RNN与LTSM、GRU
最近看文献看到了LTSM(LongShortTermMemory)相关的文献,所以把了解到的内容做一个记录RNN循环神经网络(RecurrentNeuralNetwork,RNN),以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursiveneuralnetwork)。因为与时间序列相关,所以多用于自然语言
小夭。
·
2022-12-13 10:58
深度学习
机器学习
机器学习
深度学习
神经网络
深度学习基础
16(softmax回归使用pytorch框架简洁实现)
softmax回归的简洁实现深度学习框架的高级API能够使实现softmax线性回归变得更加容易。同样,通过深度学习框架的高级API也能更方便地实现softmax回归模型。importtorchfromtorchimportnnfromd2limporttorchasd2lbatch_size=256train_iter,test_iter=d2l.load_data_fashion_mnist(
lj_FLR
·
2022-12-13 09:35
深度学习
python
深度学习
pytorch
经验分享
Python
深度学习基础
(四)——损失函数
损失函数前言损失函数均方误差(MSE)L2范式与闵可夫斯基距离交叉熵误差(cross_entropy_error)极大似然损失函数(LR)应用场景总结前言在进行深度学习的过程中我们需要有一个评判标准来评价模型,损失函数就是通过比较预测值与真实值的来对模型当前的权值进行评价的损失函数均方误差(MSE)均方误差也被称作最小二乘法,常用于解决回归问题公式这里原本的公式应该为E=1n∑k(yk−tk)2E
艾醒(AiXing-w)
·
2022-12-13 09:03
深度学习方法
python
深度学习
3.深度学习(一)
文章目录第三章
深度学习基础
3.1基本概念3.1.1神经网络组成?3.1.2神经网络有哪些常用模型结构?3.1.3如何选择深度学习开发平台?3.1.4为什么使用深层表示?
abolition cc
·
2022-12-12 10:42
深度学习
深度学习
神经网络
人工智能
深度学习基础
一、网络基础1.感知机单个感知机能够实现逻辑与、或,能实现自我学习。多个感知机组合能够实现逻辑异或。2.神经网络就是一个巨大的复合函数!!!多个感知机连在一起形成级联神经网络为“多层前馈神经网络”。3.激活函数激活函数能将输出转化为非线性,使得神经网络能够解决任意非线性问题。阶跃函数sigmoid函数用来做二分类,将任意实数映射到(0,1)区间。优点:平滑,易于求导。缺点:激活函数计算量大,容易出
青年君
·
2022-12-12 00:35
深度学习
深度学习
深度学习基础
----GAE和VGAE
就看这一个就行了:PytorchGeometricTutorial配合PyG的文档食用:torch_geometric.nn—pytorch_geometricdocumentation只有一个地方不理解,那个KL的实现如何理解,和我在别的地方看到的不一样:按我自己的理解就是:GAE其实就是GCN之后把得到的embedding经过内积(decoder)后送入交叉熵损失函数。VGAE会经过两个GCN
无意识积累中
·
2022-12-11 14:52
Pytorch
深度学习基础
深度学习
pytorch
人工智能
深度学习基础
----mAP和CMC,Recall和Precision,ROC和AUC,NDCG
就Re-ID的任务来说:已知:一个在训练集上训练好的模型,一个query(用于查询的集),一个gallery(在其中搜索结果,或test)求:mAP,CMCmAP:meanAveragePrecision针对:检索问题。是就query和gallery来讨论直述:每一张查询图片在查找集(query和gallery特征的相似度排序)里的匹配程度。由匹配正确的图片和它们的排序位置决定。主要是特征信息提取
无意识积累中
·
2022-12-11 14:52
Re_ID
推荐系统
深度学习基础
深度学习基础
----自监督学习入门
自监督学习初探一.自监督学习的解释:解释一:自监督学习让我们能够没有大规模标注数据也能获得优质的表征,反而我们可以使用大量的未标注数据并且优化预定义的pretext任务。然后我们可以使用这些特性来学习缺乏数据的新任务。解释二:self-supervisedlearning是无监督学习里面的一种,主要是希望能够学习到一种通用的特征表达用于下游任务。其主要的方式就是通过自己监督自己,比如把一段话里面的
无意识积累中
·
2022-12-11 14:22
深度学习基础
深度学习基础
----ROC曲线和AUC值
这个链接里的视频就很好:【小萌五分钟】机器学习|模型评估:ROC曲线与AUC值_哔哩哔哩_bilibili
无意识积累中
·
2022-12-11 13:51
深度学习基础
机器学习
深度学习基础
----Exponential Moving Average
pytorch实现的时候非常需要的基础知识:(参考:pytorch拷贝和梯度回传的问题-知乎)pytorch实现:(参考一下博客:深度学习性能提升技巧--指数加权平均(EMA)Pytorch实现_白又白胖又胖的博客-CSDN博客_emapytorchEMA指数滑动平均原理和实现(PyTorch)-知乎)
无意识积累中
·
2022-12-11 13:12
炼丹技巧
深度学习基础
深度学习
pytorch
人工智能
【
深度学习基础
】BatchNorm,LayerNorm,InstanceNorm,GroupNorm 和 WeightNorm 的原理与PyTorch逐行实现
都参考了讲解视频,感谢分享!!!!(我的理解不到位,存在纰漏,请指出!)1.整理NormalizationBatchNormalizationLayerNormalizationInstanceNormalizationGroupNormalizationWeightNormalization可视化(以图中为例)计算方法perchannelacrossmini-batch通道级别的归一化,根据整个
No pains, no GANs!
·
2022-12-09 15:58
深度学习基础
pytorch
深度学习
机器学习
深度学习基础
。入门到实战,深度学习到底有多深?
深度学习是机器学习的一个特定分支。我们要想充分理解深度学习,必须对机器学习的基本原理有深刻的理解。大部分机器学习算法都有超参数(必须在学习算法外手动设定)。机器学习本质上属于应用统计学,其更加强调使用计算机对复杂函数进行统计估计,而较少强调围绕这些函数证明置信区间;因此我们会探讨两种统计学的主要方法:频率派估计和贝叶斯推断。同时,大部分机器学习算法又可以分成监督学习和无监督学习两类;本文会介绍这两
奋进的贼牛批
·
2022-12-09 09:22
深度学习
人工智能
深度学习
神经网络
算法
深度学习基础
(1)——卷积、池化、全连接
文章目录卷积池化层全连接层Stride卷积层数计算在下图中左侧是一个32x32x3的图像,其中3代表RGB。每个卷积核是5x5x3,每个卷积核生成一个特征图(featuremap)。下图里面有6个5x5x3的卷积核,所以输出6个特征图,大小为28x28x6.下图中,第二层到第三层,其中每个卷积核大小为5x5x6,这里的6就是28x28x6中的6,两者需要相同,即每个卷积核的“层数”需要与输入的“层
刘啊咚咚锵
·
2022-12-08 18:07
深度学习
不是我放弃AI,是AI放弃了我!!
不知从何学起,也不知道学完做什么”“Python语法、机器学习/
深度学习基础
都能看懂,但一做项目就一行代码都写不好”“学了不少课程,但一面试就被别人说基础差、能力差,甚至开始怀疑自己天赋不行,不适合开发
AI科技大本营
·
2022-12-08 15:37
人工智能
编程语言
机器学习
python
数据挖掘
《动手学深度学习》第二天
今天学习
深度学习基础
。第一节讲述的是线性回归。
打着灯笼摸黑
·
2022-12-07 15:29
《动手学深度学习》
机器学习-支持向量机的SVM(Supprot Vector Machine)算法-linear separable
学习彭亮《
深度学习基础
介绍:机器学习》课程机器学习一般框架训练集=>提取特征向量=>结合一定算法(分类器:eg决策树,KNN)=>得到结果SVM概述深度学习出现之前,SVM被认为机器学习中近十几年来最成功的
YEN_csdn
·
2022-12-07 13:53
Python机器学习
深度学习与数据分析
机器学习
深度学习
SVM
支持向量机
深度学习基础
复习1:CNN系列
CNN原理1.CNN效果图使用两个三通道过滤器,从三通道RGB图像中生成两个卷积输出的详细过程:对应位置做乘法然后相加:第一列滑动窗格*中间第一个filter=右边第一个矩阵(1)中间是含有两个filter即两个神经元(下边还包括bias等参数),参数数depth=2。可知3*3滑动窗,且Stride=2。(2)每个神经元之所以各有三个小矩阵,是因为有RGB三个通道同时过滤计算。(3)输入的数据之
渣渣宇
·
2022-12-06 22:28
CNN原理
NLP
第二次作业:
深度学习基础
Assginment2:BasisofDeepLearning本博客为OUC2022秋季软件工程第二周作业文章目录Assginment2:BasisofDeepLearning一、问题二、作业内容Part1视频心得和问题总结==视频心得:==绪论部分:深度学习概述部分:1、前馈深度网络(1)单层卷积神经网络:(2)卷积神经网络:(3)卷积神经网络的特点:2、反馈深度网络(1)单层反卷积网络:(2)
OUC_SE_GROUP3
·
2022-12-06 15:37
深度学习
人工智能
深度学习基础
| 注意力机制原理总结
点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达Attention的产生起因:《SequencetoSequenceLearningwithNeuralNetworks》Attention模型的引入原因:seq2seq将输入序列都压缩成一个固定大小的隐变量,就像我们的压缩文件一样,这个过程是有损压缩的,会迫使丢失许多输入序列中的信息。存在着难以对齐的问题。比如中译音“我爱你”
小白学视觉
·
2022-12-06 06:00
卷积
大数据
算法
python
计算机视觉
【
深度学习基础
知识 - 49】Kmeans
Kmeans是一个原理较为简单的聚类模型,它的操作步骤是随机选择k个点作为初始类心。计算每个元素和k个类心之间的距离并归类到最近的类里面。以每个类的均值作为新的类心。重复2和3知道所有的类心不再变化。博主会持续更新一些深度学习相关的基础知识以及工作中遇到的问题和感悟,喜欢请关注、点赞、收藏。
雁宇up
·
2022-12-05 17:16
深度学习
kmeans
深度学习
神经网络
深度学习 | 一文掌握CNN卷积神经网络(4.3)
最近在恶补
深度学习基础
知识,以下为根据公众号“阿力阿哩哩”的《一文掌握CNN卷积神经网络》而总结的内容。可以结合作者在哔哩大学的视频。
running snail szj
·
2022-12-05 17:41
深度学习
深度学习
cnn
神经网络
动手学深度学习第二版——Day1(章节1——2.2)
动手学深度学习第二版——Day1(章节1——2.2)1、简单介绍1)、整体内容
深度学习基础
——线性神经网络,多层感知机卷积神经网络——LeNet,AlexNet,VGG,Inception,ResNet
Mrwei_418
·
2022-12-05 13:25
pytorch
Deel
Learning
深度学习
人工智能
pytorch
LeetCode题解PDF百度网盘下载
/s/13GslyxeHKe9wEz-MBYfH3Q密码:12fc其他学习资源都整理在这个Github了:https://github.com/leerumor/ai-study包含机器学习基础ML、
深度学习基础
李rumor
·
2022-12-05 12:04
算法
面试
程序人生
经验分享
leetcode
深度学习基础
之线性回归模型
深度学习基础
线性回归(LinearRegression)不同于分类问题,线性回归返回的都是连续值,而分类问题返回的是离散值。返回的值是用输入网络的值经过一系列的与网络中的参数运算而得到的。
刘聪UESTC
·
2022-12-05 08:42
深度学习基础
神经网络
多元
线性
回归
C语言
模型
深度学习基础
:实现线性回归
一、说在前面上一节总结了线性回归的基本要素。这一次用代码实现线性回归。在实际训练一个模型的时候,需要有以下一些步骤:实际上,每个部分都有一些小技巧在里面。只能慢慢学了~二、代码实现1.数据由于是自己学习,将随机生成数据。在线性回归中具体是生成哪些数据呢?我们要达到的目的,给定影响一个房子放假的若干因素,比如面积和房龄,来预测出其房价。所以,我们需要生成以下数据:很多很多个房子的面积和房龄,记为x1
zadarmo_
·
2022-12-05 07:56
深度学习
第二次作业:
深度学习基础
第二次作业:
深度学习基础
1.视频学习心得和总结关子琦绪论部分首先讲述了人工智能的起源和发展以及现况,将人工智能分为了三个层面。
qq_52390277
·
2022-12-04 19:54
深度学习基础
——深度学习计算
前几篇介绍了常用概念以及最简单的线性回归和多层感知机,本篇介绍深度学习中的关键步骤组件,如模型构建、参数访问与初始化、设计自定义层和块、将模型读到磁盘以及利用GPU加速运算。层和块前几篇讨论的模型复杂度有限,最复杂的是含一个隐藏层的多层感知机模型,然而实际情况中,这种模型过于简单,表达效果不够好,因此需要研究较为复杂的模型。然而较为复杂的模型也是由简单模型组成,因此有必要研究简单模型如何组成复杂模
希望变强的小菜鸟
·
2022-12-04 19:51
人工智能
深度学习
人工智能
python
深度学习基础
11(线性回归使用pytorch里的框架来实现)
线性回归的简洁实现接下来使用一些框架来实现线性回归学习框架可以自动化基于梯度的学习算法中重复性的工作。在上篇文章中,我们只运用了:(1)通过张量来进行数据存储和线性代数;(2)通过自动微分来计算梯度。实际上,由于数据迭代器、损失函数、优化器和神经网络层很常用,现代深度学习库也为我们实现了这些组件。下面将介绍如何通过使用深度学习框架来简洁地实现线性回归模型生成数据集与上篇文章类似,首先生成数据集。i
lj_FLR
·
2022-12-04 14:23
深度学习
python
深度学习
pytorch
线性回归
经验分享
[
深度学习基础
]1. jupyter-notebook 使用GPU简单配置
[JUpyter-notebook使用GPU]简单配置anaconda默认创建的虚拟环境中打开jupyter-notebook,是没有利用虚拟环境创建ipython的。需要我们将虚拟环境导入到jupyter-notebook下载导入虚拟环境需要的包condainstallipykernel或者pipinstallipykernel导入python-mipykernel--user--namemy_
终问鼎
·
2022-12-04 00:36
#
软件安装
#
深度学习
深度学习
jupyter
python
PyTorch入门项目之卷积神经网络实现Fashion-MNIST图像分类(详细注释!)
对于已经有了
深度学习基础
的学生而言
村里的小透明
·
2022-12-02 19:01
深度学习
python
人工智能
pytorch
卷积神经网络
深度学习
深度学习基础
——线性回归(Python实现)
文章目录前言一、线性回归原理1.线性回归模型2.损失函数3.优化算法二、线性回归的从零实现1.引入库2.生成数据集3.读取数据集4.初始化模型参数5.定义模型6.定义损失函数7.定义优化算法8.训练模型三.线性回归的简洁实现1.生成数据集2.读取数据集3.定义模型4.初始化模型参数5.定义优化算法6.训练模型总结前言本文主要对线性回归的原理以及基于Python的代码实现进行简单的讲解。ps:文中主
渡口归洲
·
2022-12-02 18:42
python
深度学习
线性回归
深度学习基础
——正则化和优化
正则化正则化所有损害优化的方法都是正则化提高神经网络泛化能力L1和L2正则化提前终止Dropout数据增强L1,L2正则化L1w一范数的加和:会起到产生更加稀疏解的作用L2导数为2W,正则化就是将权重按照其大小比例缩减,使权重更加接近原点提前终止,Dropout,数据增强提前终止我们使用验证集来测试每一次迭代的参数在验证集上是否最优.如果验证集上的错误率不再下降,就停止迭代Dropout对一个神经
无意识积累中
·
2022-12-02 01:16
深度学习基础
Pytorch
【
深度学习基础
】正则化
【
深度学习基础
】正则化L0&L11.为什么L1范数导致稀疏解?(解答包括部分L2范数的内容)2.为什么L0和L1都可以实现稀疏,而选择L1?3.如何选择$L1$范数的参数?
two_star
·
2022-12-02 01:13
python
深度学习
深度学习
深度学习基础
之正则化
文章目录概述1、正则化的定义2、正则化的理解一、正则化分析1、L2参数正则化(岭回归Ridge)2、L1参数正则化(Lasso)二、L1,L2的总结1、L1,L2正则化的选择2、总结概述1、正则化的定义**正则化技术广泛应用在机器学习和深度学习算法中,本质作用是防止过拟合、提高模型泛化能力。**过拟合简单理解就是训练的算法模型太过复杂了,过分考虑了当前样本结构。其是防止过拟合的其中一种技术手段。在
陈小虾
·
2022-12-02 01:10
机器学习
深度学习
数据挖掘与数据竞赛
深度学习
机器学习
正则化
规范化
[
深度学习基础
]正则化
正则化是深度学习神经网络模型在训练过程当中常用的一种手段,使用正则化处理的主要目的是给网络的损失函数加以限制,防止其在训练过程当中“失控”;其次,是为了通过降低模型的复杂度,降低模型对于数据的依赖程度,防止出现过拟合现象,提高模型对于不同类型数据的泛化能力。正则化本身是一种可以防止深度神经网络出现过拟合现象的技术,可以用于提高深度学习模型在面对新数据时的准确性和预测有效性。过拟合指的是神经网络模型
哒哒朔
·
2022-12-02 01:06
深度学习
人工智能
pytorch 矩阵相乘_深度学习之Pytorch入门教程
打好
深度学习基础
学习Pytorch的官方tutorial打开Github,多看看教程使用https://discuss.pytorch.org,阅读文档跑代码,项目,论文代码复现,实现模型,自己创造1.2
weixin_39980002
·
2022-12-02 00:06
pytorch
矩阵相乘
深度学习之环境配置 jupyter notebook
内容介绍
深度学习基础
:线性神经网络。
彭祥.
·
2022-12-01 19:40
Python
深度学习
深度学习
jupyter
python
深度学习基础
,矩阵论Xmind思维导图(一),为什么要学习矩阵论。
为什么要学习矩阵论矩阵论解决了什么问题矩阵理论这一部分我大概分以下6块来总结。首先,我们先谈谈为什么需要学好矩阵理论,对是的,你没有看错,不是学习,而是,学好!!!就拿我自身学习经历的血泪史来跟大家分享以下。在学习信号处理、通信、模式识别的过程中,我深刻的体会到矩阵分析在科学研究中起到的重要作用。很多新的理论、方法和技术的诞生与发展就是矩阵理论和线性代数应用和推广的结果。如果学不好真的是寸步难行。
Tinatianya
·
2022-12-01 10:54
矩阵论
矩阵论
深度学习基础
线性代数
深度学习基础
——神经网络起步
深度学习基础
——神经网络起步原文地址FundamentalsofDeepLearning–StartingwithArtificialNeuralNetwork前言深度学习和神经网络如今驱动着计算机科学的进步
若即
·
2022-12-01 08:06
机器学习
深度学习
神经网络
机器学习
深度学习基础
知识回顾
1.Dataset调用了什么接口?回答应该是__len__方法和__getitem__方法。之前写过一篇关于Dataset和Dataloader的介绍:http://t.csdn.cn/b4x0hhttp://t.csdn.cn/b4x0h2.目标检测里面用了哪些损失函数?我的回答是FocalLoss、CIOULoss、GIOULoss。追问:交叉熵怎么写?交叉熵公式:表示真实概率分布P(x)与预
大厂ballballyou
·
2022-12-01 08:59
深度学习
深度学习
人工智能
python-三层神经网络的分类回归问题
深度学习基础
文章目录
深度学习基础
1、加载IMDB数据集2、准备数据3、构建网络3.1、定义模型3.2编译模型3.3配置优化器3.4使用定义的损失和指标4验证4.1预留验证集4.2训练模型4.3绘制训练损失和验证损失
树盟
·
2022-12-01 01:47
深度学习框架
python
神经网络
python
深度学习
前馈神经网络_
深度学习基础
理解:以前馈神经网络为例
区别于传统统计机器学习的各类算法,我们从本篇开始探索深度学习模型。深度学习在应用上的重要性现如今已毋庸置疑,从2012年燃爆ImageNet,到2016年的AlphaGo战胜李世石,再到2018年的BERT作为NLP领域重要里程碑的出现,深度学习在计算机视觉、推荐、计算机广告、自然语言处理等很多领域全面铺开并逐步占据主导地位。经过多年的发展,深度学习适用于不同场景问题的各种网络结构、神经元结构、学
weixin_39966922
·
2022-11-30 21:41
前馈神经网络
深度学习基础
概念-Batch、Iteration、Epoch理解
1、概念理解Batch、Iteration、Epoch是在模型训练阶段的概念。在模型训练时,我们选择优化算法,如梯度下降法(全批量梯度下降法BGD、小批量梯度下降法mini-Batch、随机梯度下降法SGD),对模型参数进行调整训练。那么,这里梯度下降法使用的数据量即为batch_size,整个样本N需要的batchs数为:N/batch_size。而使用梯度下降法完成一次参数更新,称为一次迭代,
Just Jump
·
2022-11-30 21:31
神经网络和深度学习
概念理解
【
深度学习基础
】Epoch, Batch, Iteration这三个概念的区别与联系
文章目录1.Epoch,Batch,Iteration说明2.为什么要多个epoch3.为什么要分多个batch4.Rprop与RMSProp1.Epoch,Batch,Iteration说明相关概念的区别与联系如下表所示:名词解释Epoch所有训练样本在神经网络中都进行了一次正向传播和一次反向传播。也就是1个epoch等于使用训练集中的全部样本训练一次。Batch将整个训练样本分成若干个Batc
非晚非晚
·
2022-11-30 21:30
深度学习
深度学习
epoch
batch
iteration
梯度下降与随机梯度下降
PyTorch 01—
深度学习基础
与线性回归实例
前言该博客是自己在学习PyTorch过程中的笔记,仅仅为了督促自己,笔记中如有错误,欢迎批评指正。关于配置环境网上有很多教程,在这里就不赘述了。基础学习基础上图是一幅受教育情况与收入的数据集表现形似。单变量线性回归首先需要明白特征和标签的含义:特征:指输入变量,即简单线性回归中的x变量;简单的机器学习项目可能会使用单个特征,而比较复杂的机器学习项目可能会使用数百万个特征。标签:是我们要预测的事物,
心之所向便是光v
·
2022-11-30 17:55
PyTorch笔记
深度学习
pytorch
线性回归
小小几张图,把深度学习讲透彻
本文将从
深度学习基础
、卷积网络和循环网络三个方面介绍该笔记。一、
深度学习基础
1
AI科技大本营
·
2022-11-30 16:25
神经网络
卷积
计算机视觉
机器学习
人工智能
[
深度学习基础
]激活函数和损失函数
一、激活函数激活函数是深度学习神经网络模型的重要组成部分,旨在使神经网络模型能够更好地拟合数据分布,输出更为准确的结果。激活函数通常分为线性激活函数和非线性激活函数,因此激活函数的类型决定了网络该层的输出是线性的还是非线性的,并且激活函数的选择也对神经网络性能、模型收敛速率起到了很大的影响作用。本文章主要介绍三种常用的非线性激活函数。Sigmoid激活函数:Sigmoid函数的图像如下图所示,其函
哒哒朔
·
2022-11-30 13:12
深度学习
人工智能
深度强化学习(DRL)学习笔记(1 - 4章)
文章目录前言常用符号摘自课本概念、参数出处或者定义(方便理解和查阅)第一章概率论基础与蒙特卡洛概率论基础(具体自己补)蒙特卡洛第二章
深度学习基础
线性模型线性回归逻辑斯蒂回归Softmax分类器神经网络全连接神经网络
流荧静水
·
2022-11-30 10:03
人工智能
人工智能
深度学习
吴恩达推荐笔记:22张图总结深度学习全部知识
从
深度学习基础
、卷积网络和循环网络三个方面介绍该笔记
深度学习基础
1.深度学习基本概念监督
程序员生活志
·
2022-11-30 08:09
资源分享
吴恩达
学习笔记
深度学习
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他