E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达-深度学习笔记
deep learning日常小Bug汇总
“千里之堤,溃于蚁穴;”一些细节可能导致整个程序的问题,将在
吴恩达
作业中个人遇到的小bug总结一下。1.在做
吴恩达
深度学习课第一课第三周作业时,发现梯度不变,后来找到原因是因为1和1.0。。
AI算法札记
·
2023-10-19 10:29
Debug
deep
learning
带你少走弯路:强烈推荐的TensorFlow快速入门资料和翻译(可下载)
知识更新非常快,需要一直学习才能跟上时代进步,举个例子:
吴恩达
老师在深度学习课上讲的TensorFlow使用,这个肯定是他近几年才学的,因为谷歌开源了TensorFlow也就很短的时间。
湾区人工智能
·
2023-10-19 07:47
吴恩达
tensorflow2.0 实践系列课程(3):NLP
tensorflow2.0中的自然语言处理基本都是入门级的,而且也正如课程设计目标,主体放在tensorflow的基本使用上。围绕的NLP相关问题有:文本如何变为数字送入模型进行处理?(word-key/one-hot、embeddings)文本分类怎么做?比如情感分析?贴label做分类文本预测怎么做?比如模仿莎士比亚文笔?这里必须将文本视作序列,所以用LSTMs。0Aconversationw
Abandon_first
·
2023-10-19 07:16
tensorflow
tensorflow
深度学习
人工智能
机器学习笔记 四 :线性回归(Linear regression)及房屋数据集的回归
目录1.单变量线性回归:2.多变量线性回归 最近在学习
吴恩达
老师的机器学习课程,所以在这里记录一下,主要是完成他的课后作业。
Amyniez
·
2023-10-19 03:43
机器学习
机器学习
线性回归
python
吴恩达
机器学习作业(2):多元线性回归
目录1)数据处理2)代价函数3)Scikit-learn训练数据集4)正规方程练习1还包括一个房屋价格数据集,其中有2个变量(房子的大小,卧室的数量)和目标(房子的价格)。我们使用我们已经应用的技术来分析数据集。1)数据处理还是那个建议,大家拿到数据先看看数据长什么样子。path='ex1data2.txt'data2=pd.read_csv(path,header=None,names=['Si
自动驾驶小学生
·
2023-10-19 03:43
机器学习
机器学习
线性回归
python
深度学习笔记
(六):Encoder-Decoder模型和Attention模型
深度学习笔记
(二):简单神经网络,后向传播算法及实现
深度学习笔记
(三):激活函数和损失函数
深度学习笔记
:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam)
深度学习笔记
stay_foolish12
·
2023-10-17 21:14
面试经验
自然语言处理
阅读理解
深度学习
decoder
encoder
attention
RNN
吴恩达
深度学习--向量化的更多例子
需要记住的经验之谈:当你在编写神经网络或逻辑回归时,都要尽可能避免使用显示的for循环,有时候无法完全避免for循环,但如果能使用内置函数或其他方法来计算想要的答案,通常会比直接用for循环跟快例子1:你想要计算向量U,它是矩阵A和向量V的乘积:根据矩阵乘法的定义:非向量化的实现方法是;这是一个两层的for循环,分别对i和j进行循环向量化的实现方式是:消除了两层for循环,运行速度要快的多例子2:
862180935588
·
2023-10-17 11:12
如何判断你和优秀AI算法工程师之间的差异?
就连硅谷大佬
吴恩达
,都会利用碎片化的时间读AI论文,
吴恩达
老师不仅经常读AI论文,还给我们总结了读论文的方法。他认为,我们在读论文时,要带着4个问题去读:作者
边缘计算社区
·
2023-10-17 07:11
人工智能
机器学习
编程语言
数据挖掘
java
Deep Learning
深度学习笔记
1(基础知识)
参考:1.AndrewNg,Sparseautoencoder(Lecturenotes)2.tornadomeet的博客,大部分从此博客摘录[http://www.cnblogs.com/tornadomeet/archive/2013/03/14/2959138.html]基础知识1术语Modelrepresentation:其实就是指学习到的函数的表达形式,可以用矩阵表示。Vectorize
chenlongzhen_tech
·
2023-10-17 06:11
机器学习
r语言
python拟合曲线_[ML]从最简单的撸起-python实现线性拟合数据
目标:实现将图中的大量红色X状标记拟合为图中所示的一条蓝色直线基本思想:
吴恩达
的coursera机器学习课程变量线性回归章节;递度下降法实现:1.引入相关库:这里用到了python的科学计算库numpy
weixin_39693950
·
2023-10-17 03:19
python拟合曲线
吴恩达
机器学习——降维
1.降维能做的:1)数据压缩:占用更少的内存和硬盘空间。加速学习算法。2)数据可视化:维度降到2或3就可以可视化数据。(从图中推测各维度代表的意义大概是什么)2.降维:从高维度映射/投影到低维度空间上。试图找到一个低维度的空间,使投影误差最小。例如从n维降到k维,就是找k个向量,使得从n维空间数据投影的投影误差最小。3.线性回归和降维的区别:线性回归是要预测y值,所以要最小化的是y轴方向上点到线的
睡不好觉的梨
·
2023-10-16 18:01
如何理解深度学习中迁移学习、预训练、微调的概念
说明本文为观看
吴恩达
深度学习课程视频所做的学习笔记
吴恩达
deeplearning.aiPart3结构化机器学习项目第二周机器学习(ML)策略(2)2.7迁移学习正文假设已经训练好一个图像识别神经网络,如果让这个图像识别神经网络适应或者说迁移不同任务中学到的知识
全幼儿园最聪明
·
2023-10-15 04:13
计算机视觉
深度学习
迁移学习
机器学习
吴恩达
深度学习笔记
(31)-为什么正则化可以防止过拟合
为什么正则化有利于预防过拟合呢?(Whyregularizationreducesoverfitting?)为什么正则化有利于预防过拟合呢?为什么它可以减少方差问题?我们通过两个例子来直观体会一下。左图是高偏差,右图是高方差,中间是JustRight,这几张图我们在前面课程中看到过。现在我们来看下这个庞大的深度拟合神经网络。我知道这张图不够大,深度也不够,但你可以想象这是一个过拟合的神经网络。这是
极客Array
·
2023-10-14 20:17
深度学习自学2.0
深度学习自学学习路径别人推荐的学习的路径:快速上手:1.理论基础:
吴恩达
的机器学习和深度学习2.代码基础:Python3.框架基础:pytorch4.搭建模型:霹雳叭啦/Bubbliiing/深度学习麋了鹿进阶
咬树羊
·
2023-10-14 17:19
深度学习
python
人工智能
吴恩达
机器学习——Andrew Ng machine-learning-ex2 python实现
目录Exercise2:LogisticRegression1.LogisticRegression1.1Plotting1.2sigmoidfunction1.3Costfunctionandgradient1.4Optimize1.5Predict2.Regularizedlogisticregression2.1Plotting2.2Costfunctionandgradient2.3Opt
令狐傻笑
·
2023-10-14 05:24
机器学习
吴恩达
机器学习
python
逻辑回归
minigpt-4 本地部署
笔者参考了
深度学习笔记
–本地部署Mini-GPT4,使用了http链接,huggingface下载llama和vicuna权重的download.txt分别如下:http://huggingface.co
duoyasong5907
·
2023-10-13 21:07
AI与ML
python
从零开始基于LLM构建智能问答系统的方案
LLM的端到端问答系统,应该包括用户输入检验、问题分流、模型响应、回答质量评估、Prompt迭代、回归测试,随着规模增大,围绕Prompt的版本管理、自动化测试和安全防护也是重要的话题,部分代码参考自
吴恩达
老师
骑猪兜风233
·
2023-10-13 14:56
LLM应用构建实践笔记
大语言模型开发者教程
人工智能
自然语言处理
语言模型
gpt-3
DALL·E
2
bard
文心一言
深度学习笔记
(python 面向对象高级编程)
自己看的视频网址:【深度学习保姆级教学】草履虫都能看懂!理论到实战、入门到起飞!人工智能基础入门必看!【ML机器学习|DL深度学习|CV计算机视觉|NLP自然语言处理】_哔哩哔哩_bilibili机器学习流程数据获取特征工程(最核心的部分)建立模型评估与应深度学习解决了怎么提取特征?python入门知识来判断对象类型,使用type()函数lambdaargument_list:expression
NightHacker
·
2023-10-12 07:15
深度学习
深度学习
人工智能
自然语言处理
吴恩达
深度学习第二门课第一周总结
吴恩达
深度学习第二门课第一周总结一、梯度消失/爆炸及解决办法二、正则化方法先上目录:从目录可以看到第一周主要解决了两个问题:过拟合,预防梯度消失/梯度爆炸。现在分别来讨论并进行代码实现。
半个女码农
·
2023-10-12 00:37
深度学习
神经网络
吴恩达深度学习
正则化
吴恩达
深度学习第一门课学习总结
吴恩达
老师深度学习第一门课的核心就是理解前向传播,计算cost,反向传播三个步骤(其实只要静下心来把教程里的公式在草稿纸上推一遍,也不会很难),
吴恩达
老师主要是通过逻辑回归来讲解这些概念首先是如何处理输入样本
半个女码农
·
2023-10-12 00:37
神经网络
深度学习
神经网络概念
前向传播
反向传播
吴恩达
《Machine Learning》-machine-learning-ex1线性回归作业(一)
ex1.m%%MachineLearningOnlineClass-Exercise1:LinearRegression%Instructions%------------%%Thisfilecontainscodethathelpsyougetstartedonthe%linearexercise.Youwillneedtocompletethefollowingfunctions%inthis
丰brother
·
2023-10-11 12:30
人工智能
#
机器学习
深度学习DAY1:神经网络NN;二元分类
深度学习笔记
DAY1深度学习基本知识1.神经网络1.1单一神经元所有神经元将房屋大小size作为输入x,计算线性方程,结果取max(0,y),输出预测房价yReLU函数(线性整流函数)–max(0,y)
小白脸cty
·
2023-10-11 12:57
深度学习
深度学习
机器学习代码实现篇——SVM
1.4带约束的最优化问题求解1.5核函数(kernel)1.6SMO算法2.SVM代码详解2.1源码分析2.2实践检验
吴恩达
老师课程中的SVM介绍比较简单直观化,但是理论推导不够,这篇博客本着手写代码实现
lavendelion
·
2023-10-11 00:17
机器学习笔记
机器学习
SVM
代码实现
(一)线性回归与特征归一化(feature scaling)
吴恩达
机器学习视频https://study.163.com/course/courseMain.htm?
xiangkej
·
2023-10-11 00:46
机器学习
吴恩达
《微调大型语言模型》笔记
微调(fine-tuning)就是利用特有数据和技巧将通用模型转换为能执行具体任务的一种方式。例如,将GPT-3这种通用模型转换为诸如ChatGPT这样的专门用于聊天的模型。或者将GPT-4转换为诸如GitHubCoplot这样的专门用于写代码的模型。这里的微调特指生成式任务上的微调。在这种方式中,需要更新整个模型的权重,而不是像其他模型一样只更新部分权重微调的训练目标与预训练时的目标相同,目的是
小小白2333
·
2023-10-10 01:24
大模型
语言模型
人工智能
自然语言处理
深度学习笔记
之优化算法(四)Nesterov动量方法的简单认识
机器学习笔记之优化算法——Nesterov动量方法的简单认识引言回顾:梯度下降法与动量法Nesterov动量法Nesterov动量法的算法过程描述总结(2023/10/9)补充与疑问附:Nesterov动量法示例代码引言上一节对动量法进行了简单认识,本节将介绍Nesterov\text{Nesterov}Nesterov动量方法。回顾:梯度下降法与动量法关于梯度下降法的迭代步骤描述如下:θ⇐θ−η
静静的喝酒
·
2023-10-09 21:39
深度学习
最优化理论与方法
python
深度学习
动量法
nesterov动量法
深度学习笔记
之优化算法(五)AdaGrad算法的简单认识
机器学习笔记之优化算法——AdaGrad算法的简单认识引言回顾:动量法与Nesterov动量法优化学习率的合理性AdaGrad算法的简单认识AdaGrad的算法过程描述引言上一节对Nesterov\text{Nesterov}Nesterov动量法进行了简单认识,本节将介绍AdaGrad\text{AdaGrad}AdaGrad方法。回顾:动量法与Nesterov动量法关于动量法(Momentum
静静的喝酒
·
2023-10-09 21:05
深度学习
最优化理论与方法
机器学习
深度学习
Adagrad算法
吴恩达
机器学习(十九)—— 异常检测
吴恩达
机器学习系列内容的学习目录→\rightarrow→
吴恩达
机器学习系列内容汇总。
大彤小忆
·
2023-10-09 16:44
机器学习
异常检测
机器学习
中欧Mini-MBA
深度学习笔记
+总结 Day-2
一、学习笔记怎样缓和部门间冲突.png二、总结/心得《团队协作的五大障碍》的作者兰西奥尼曾在书中写到,阻碍高效团队形成的主要原因是行为问题和人际问题,今天我们学习的“怎样缓和部门间冲突”这一课,就收获了两大方向与七种工具:方向一:改变员工的行为工具1:自然分离法工具2:定下规则法方向二:改变员工的态度工具3:整合法工具4:谈判法工具5:第三方介入工具6:远景的设立工具7:群体培训七种工具分别适用于
Maggie雷玮
·
2023-10-09 12:04
《deep learning》前两周课程总结
学习深度学习,当然从
吴恩达
的《deeplearning》开始,原理讲得很透彻也很易懂,适合我这种没什么基
liuchungui
·
2023-10-09 06:16
LSTM在text embedding中的作用(Cross modal retrieval)
如图
吴恩达
深度学习课程中LSTM结构图: 相比于原始的RN
__main__
·
2023-10-09 01:00
深度学习
pytorch
cross
modal
retrieval
【
深度学习笔记
】过拟合与欠拟合
过拟合简答来说即模型在训练集上错误率较低,但在未知数据(包括测试集)上错误率很高。欠拟合简单来说是模型不能很好的拟合训练集,在训练集上就已经错误率较高。模型复杂度是影响拟合的一个因素。模型复杂度较低就会出现欠拟合的现象。模型复杂度较高,导致与训练集拟合非常好,模型参数训练出来是十分适合训练集的,可能出现过拟合的现象。影响欠拟合和过拟合的另⼀个重要因素是训练数据集的大小。⼀般来说,如果训练数据集中样
RealWeakCoder
·
2023-10-08 10:32
深度学习
机器学习
深度学习
神经网络
过拟合
欠拟合
吴恩达
深度学习<笔记>优化算法
吴恩达
深度学习优化算法一、1.Mini-batchgradientdescent二、GradientdescentwithmomentumRMSpropAdam优化算法学习率衰减一、1.Mini-batchgradientdescent
不自知的天才
·
2023-10-07 20:58
深度学习
python
人工智能
吴恩达
深度学习笔记
优化算法
一、Mini-batchgradientdescent(小批量梯度下降法)Mini-batch:把整个训练数据集分成若干个小的训练集,即为Mini-batch。为什么要分?梯度下降法必须处理整个训练数据集,才能进行下一次迭代。当训练数据集很大时,对整个训练集进行一次处理,处理速度较慢。但是如果每次迭代只使用一部分训练数据进行梯度下降法,处理速度就会变慢。而处理的这些一小部分训练子集即称为Mini-
uponwyz
·
2023-10-07 20:27
深度学习
算法
cnn
【深度学习】
吴恩达
-学习笔记 优化算法(动量梯度,RMSprop,Adam)、参数初始化、Batch Norm
目录动量梯度下降法:让梯度下降的过程中纵向波动减小RMSprop:消除梯度下降中的摆动Adam优化算法:神经网络参数初始化学习率衰减BatchNorm关于Batch_norm:Batch_norm在测试时:动量梯度下降法:让梯度下降的过程中纵向波动减小动量梯度下降法采用累积梯度来代替当前时刻的梯度。直观来讲,动量方法类似把球推下山,球在下坡时积累动力,在途中速度越来越快,如果某些参数在连续时间内梯
—Xi—
·
2023-10-07 20:55
深度学习
深度学习
python
人工智能
batch
机器学习
2.2
吴恩达
深度学习笔记
之优化算法
1.Mini_batchgradientdescent小批量梯度下降法思想:batchgd是一次性处理所有数据,在数据集较大时比如500万个样本,一次迭代的时间会很长,而mini_batchgd是把数据集分为多个子数据集,每个eopch中对子集进行一次处理实现:实现mini_batch分为两步,第一步shuffle,将原集打乱,乱序步骤确保将样本被随机分成不同的小批次。第二步partition分割
Traviscxy
·
2023-10-07 20:25
深度学习
深度学习
深度学习笔记
:优化算法
1、minibatch梯度下降传统的batch梯度下降是把所有样本向量化成一个矩阵,每一次iteration遍历所有样本,进行一次参数更新,这样做每一次迭代的计算量大,要计算所有样本,速度慢,但是收敛可以比较直接地收敛到costfunction的最小值。随机梯度下降(stochasticgradientdescent)是每次迭代以一个样本为输入,这种方法每次迭代更新参数时,参数不一定是朝着cost
a251844314
·
2023-10-07 20:23
笔记
深度学习
minibatch
指数加权平均
动量梯度下降
深度学习笔记
之优化算法(三)动量法的简单认识
机器学习笔记之优化算法——动量法的简单认识引言回顾:条件数与随机梯度下降的相应缺陷动量法简单认识动量法的算法过程描述附:动量法示例代码引言上一节介绍了随机梯度下降(StochasticGradientDescent,SGD)(\text{StochasticGradientDescent,SGD})(StochasticGradientDescent,SGD),本节将介绍动量法。回顾:条件数与随机
静静的喝酒
·
2023-10-07 20:20
深度学习
python
最优化理论与方法
深度学习
条件数与梯度下降法的缺陷
动量法
深度学习笔记
(二十一)—— CNN可视化
IntroductionOneofthemostdebatedtopicsindeeplearningishowtointerpretandunderstandatrainedmodel–particularlyinthecontextofhighriskindustrieslikehealthcare.Theterm“blackbox”hasoftenbeenassociatedwithdeep
Nino_Lau
·
2023-10-07 19:53
【无标题】
【机器学习】机器学习笔记(
吴恩达
)-CSDN博客1.误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择。2.梯度下降会自动采取更小的步骤,所以不需要随时间减小学习率a。
FlyingAnt_
·
2023-10-06 20:53
人工智能
机器学习
吴恩达
机器学习(八)
异常检测第一百二十三课:问题动机什么是异常检测?判断xtext,即新的飞机引擎是否能像一个正常的引擎一样工作?更正式的定义:建立模型p(x),将xtest与p(x)进行比较:欺诈检测:寻找网站中操作异常的用户工业生产领域计算机机群管理第一百二十四课:高斯分布正态分布两个参数,均值u;方差σ^2u控制钟形曲线的中心位置,σ控制钟形曲线的宽度例子:阴影面积的积分都是1!参数估计问题:参数估计问题就是给
带刺的小花_ea97
·
2023-10-06 10:31
深度学习笔记
-工具使用Anaconda, jupyter
关于在Anaconda3中配置环境,打开AnacondaPrompt通过输入命令:1.activategluon2.jupyternotebook如若打开指定的文件目录如学习的课件:1.activategluon进入环境gluon,然后选择文件目录-进入D:cdd:\d2l-zh2.jupyternotebookjupyternotebook几个常用的快捷键H查看本次使用jupyternotebo
古镇风雨
·
2023-10-06 07:24
深度学习入门
深度学习
mxnet
python
深度学习笔记
7:模型选择+过拟合和欠拟合
模型选择例子:预测谁会偿还贷款银行雇你来调查谁会偿还贷款你得到了100个申请人的信息其中五个人在3年内违约了发现:5个人在面试的时候都穿模型也发现了这个强信号这会有什么问题?训练误差和泛化误差训练误差:模型在训练数据上的误差泛化误差:模型在新数据上的误差(主要关注)例子:根据模考成绩来预测未来考试分数在过去的考试中表现很好(训练误差)不代表未来考试一定会好(泛化误差)学生A通过背书在模考中拿到好成
燏羡
·
2023-10-05 18:17
深度学习(pytorch)笔记
深度学习
人工智能
机器学习
sheng的学习笔记-【中文】【
吴恩达
课后测验】Course 1 - 神经网络和深度学习 - 第三周测验
课程1_第3周_测验题目录:目录第一题1.以下哪一项是正确的?A.【 】a[2](12)a^{[2](12)}a[2](12)是第12层,第2个训练数据的激活向量。B.【 】X是一个矩阵,其中每个列都是一个训练示例。C.【 】a4[2]a^{[2]}_4a4[2]是第2层,第4个训练数据的激活输出。D.【 】a4[2]a^{[2]}_4a4[2]是第2层,第4个神经元的激活输出。E.【 】a[2]
coldstarry
·
2023-10-05 09:54
吴恩达作业-深度学习
深度学习
python
深度学习笔记
_4、CNN卷积神经网络+全连接神经网络解决MNIST数据
1、首先,导入所需的库和模块,包括NumPy、PyTorch、MNIST数据集、数据处理工具、模型层、优化器、损失函数、混淆矩阵、绘图工具以及数据处理工具。importnumpyasnpimporttorchfromtorchvision.datasetsimportmnistimporttorchvision.transformsastransformsfromtorch.utils.datai
Element_南笙
·
2023-10-05 00:18
深度学习
深度学习
神经网络
笔记
sheng的学习笔记-【中英】【
吴恩达
课后测验】Course 1 - 神经网络和深度学习 - 第四周测验
课程1_第4周_测验题目录:目录第一题1.在我们的前向传播和后向传播实现中使用的“缓存”是什么?A.【 】它用于在训练期间缓存成本函数的中间值。B.【 】我们用它将在正向传播过程中计算的变量传递到相应的反向传播步骤。它包含了反向传播计算导数的有用值。C.【 】它用于跟踪我们正在搜索的超参数,以加快计算速度。D.【 】我们用它将反向传播过程中计算的变量传递到相应的正向传播步骤。它包含用于计算正向传播
coldstarry
·
2023-10-04 21:56
吴恩达作业-深度学习
深度学习
python
ubuntu之路——day10.4 什么是人的表现
结合
吴恩达
老师前面的讲解,可以得出一个结论:在机器学习的早期阶段,传统的机器学习算法在没有赶超人类能力的时候,很难比较这些经典算法的好坏。也许在不同的数据场景下,不同的ML算法有着不同的表现。
初仔仔
·
2023-10-04 20:31
人工智能
sheng的学习笔记-【中文】【
吴恩达
课后测验】Course 2 - 改善深层神经网络 - 第二周测验
课程2_第2周_测验题目录:目录第一题1.当输入从第8个mini-batch的第7个的例子的时候,你会用哪种符号表示第3层的激活?A.【 】a[3]{8}(7)a^{[3]\{8\}(7)}a[3]{8}(7)B.【 】a[8]{7}(3)a^{[8]\{7\}(3)}a[8]{7}(3)C.【 】a[8]{3}(7)a^{[8]\{3\}(7)}a[8]{3}(7)D.【 】a[3]{7}(8)
coldstarry
·
2023-10-04 19:46
吴恩达作业-深度学习
神经网络
深度学习
python
sheng的学习笔记-【中文】【
吴恩达
课后测验】Course 2 - 改善深层神经网络 - 第三周测验
课程2_第3周_测验题目录:目录第一题1.如果在大量的超参数中搜索最佳的参数值,那么应该尝试在网格中搜索而不是使用随机值,以便更系统的搜索,而不是依靠运气,请问这句话是正确的吗?A.【 】对B.【 】不对答案:B.【√】不对第二题2.每个超参数如果设置得不好,都会对训练产生巨大的负面影响,因此所有的超参数都要调整好,请问这是正确的吗?A.【 】对B.【 】不对答案:B.【√】不对第三题3.在超参数
coldstarry
·
2023-10-04 19:46
吴恩达作业-深度学习
神经网络
深度学习
sheng的学习笔记-【中文】【
吴恩达
课后测验】Course 2 - 改善深层神经网络 - 第一周测验
课程2_第1周_测验题目录:目录第一题1.如果你有10,000,000个例子,你会如何划分训练/验证/测试集?A.【 】33%训练,33%验证,33%测试B.【 】60%训练,20%验证,20%测试C.【 】98%训练,1%验证,20%测试答案:C.【√】98%训练,1%验证,20%测试第二题2.验证集和测试集应该:A.【 】来自同一分布B.【 】来自不同分布C.【 】完全相同(一样的(x,y)对
coldstarry
·
2023-10-04 19:45
吴恩达作业-深度学习
神经网络
深度学习
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他