E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习:week2
吴恩达机器学习
课程12——无监督学习
目录k-means聚类输入算法类别不明显优化目标随机初始化选取聚类数量如有不妥,请不吝指正~k-means聚类k-means聚类是当下比较火的一个无监督学习算法。我打算直接从k-means开始讲起,对于无监督学习的理解和定义我在前面已经做过相关工作了,大家还有不理解的可以移步之前的博客,我这里就直接从相关算法开始陈述了。吴恩达老师对于k-means算法的过程给出了一个非常通俗易懂的描述与演示:首先
CtrlZ1
·
2023-01-20 17:26
吴恩达机器学习课程
机器学习
聚类
人工智能
吴恩达机器学习
笔记week11——机器学习系统设计 Machine learning system design
吴恩达机器学习
笔记week11——机器学习系统设计Machinelearningsystemdesign11-1.确定执行的优先级Prioritizingwhattoworkon:Spamclassificationexample11
Saulty
·
2023-01-20 17:52
机器学习
吴恩达机器学习
(十六)—— 聚类
吴恩达机器学习
系列内容的学习目录→\rightarrow→
吴恩达机器学习
系列内容汇总。
大彤小忆
·
2023-01-20 17:50
机器学习
聚类
机器学习
吴恩达机器学习
笔记:(三)梯度下降法
梯度下降法知识点:偏导数、微积分、局部最优解概念介绍梯度下降法目的是为了“下降”,下降的方法是按照“梯度”。比如你在一座山上,当前你只能迈出一步,如何走才能使你的高度下降的最多呢,根据梯度的理论,我们沿着当前梯度的反方向走,会让我们的下降幅度最大。上述例子中,山就是一个函数,在山上的你就是函数中待优化的变量,人的坐标表示变量初始值,我们要求的是函数最小值即到达山底,人该如何走即如何迭代变量。所以我
时间之里
·
2023-01-20 15:56
机器视觉
Deep
learning
机器学习
吴恩达机器学习
笔记 多元梯度下降法
之前介绍的梯度下降中只有两个变量,现在考虑有0~n共n+1个变量的时候。与单变量线性回归类似,在多变量线性回归中,我们也构建一个代价函数,则这个代价函数是所有建模误差的平方和,多变量线性回归的批量梯度下降算法为注意多个变量的变化也是要同时计算更新。参数的范围会对梯度下降的算法产生影响,因此常用的梯度下降处理方法有特征缩放和选择合适大小的学习率特征缩放:要保证这些特征都具有相近的尺度,这将帮助梯度下
桃木————
·
2023-01-20 15:23
吴恩达机器学习
MATLAB代码笔记(1)梯度下降
吴恩达机器学习
MATLAB代码笔记(1)梯度下降单变量线性回归1.标记数据点(PlottingtheDate)fprintf(‘PlottingData’)data=load(‘D:\代码笔记\
吴恩达机器学习
Groot3
·
2023-01-20 15:52
MATLAB
matlab
机器学习
qiuzitao机器学习(一):
吴恩达机器学习
梯度下降
(一)qiuzitao3.25-3.30学习报告3.25(周一)机器学习的第一篇博客,接下来也会坚持更新,谢谢我的导师和CSDN这个平台!#吐槽一下这学期课很多,学费值了;开的语言也多(Python,Java,C++,汇编),不过我钟爱Python和Java,更有兴趣的还是机器学习,人工智能。晚上回顾了Python的文件语法,现在的Python算基础掌握了吧,也是入了这个门,还需要多练习提升,打打
qiuzitao
·
2023-01-20 15:19
机器学习系列
Python
机器学习
笔记
吴恩达机器学习
课程笔记1-2
19.5小时,112个视频先学定理再学概念1-3监督学习例子:预测房价--回归问题判断肿瘤是否良性—分类问题2.2代价函数找到Q0Q1的值,使得假设曲线与真实数据点尽可能的拟合如何得到Q0Q1–差的平方和最小,最小化问题代价函数J(Q0,Q1),也被称为平方误差函数。目标:最小化代价函数还有其他形式的代价函数,但是平方误差代价函数是解决回归问题最常用的手段2.3代价函数一让假设函数更加简单----
海星?海欣!
·
2023-01-20 14:12
机器学习
机器学习
逻辑回归
人工智能
1.
吴恩达机器学习
课程笔记:多元梯度下降法
1.
吴恩达机器学习
课程笔记:多元梯度下降法笔记来源:
吴恩达机器学习
课程笔记:多元梯度下降法仅作为个人学习笔记,若各位大佬发现错误请指正1.1多元特征(变量)每一列代表一个特征,例如:房屋大小、卧室数量、
Uncertainty!!
·
2023-01-20 14:39
机器学习基础
多元梯度下降
特征缩放
归一化
均值归一化
吴恩达机器学习
Day1
1.什么是机器学习:让计算机在没有明确编程的情况下学习的研究领域。2.机器学习的两种主要类型是监督学习和无监督学习。3监督学习:监督学习算法从正确答案中学习,给出固定的x按要求输出y;监督学习的两种主要类型是回归和分类;4.无监督学习:让算法自己找出什么是有趣的,或者什么模式或结构可能在这个数据集中与这个特定的数据集.无监督学习算法可能决定数据可以分配给两个不同的组或两个不同的集群,所以你可能会决
Tezzz
·
2023-01-19 12:43
人工智能
吴恩达机器学习
Day2
1.梯度下降:最小化代价函数;这个表达式的意思是通过获取w的当前值并对它进行少量调整来更新参数w;α:学习率,通常是0-1之间的一个小正数,基本上控制你下坡时的步幅。代价函数的导数项,决定下坡的方向;重复这两个式子,直到收敛(达到了一个局部最小值,在这个最小值下,参数w和b不再随着你采取的每一个额外步骤而改变很多)。w和b要求同时更新的情况:w和b没有同时更新(非正确方法):学习率α:过小:下降速
Tezzz
·
2023-01-19 12:43
人工智能
吴恩达机器学习
Day3
特征缩放(归一化):将范围缩小到0-1内;特征缩放会使梯度下降更快。学习曲线:帮助你看到你的成本J在每次大下降迭代后的变化;通过这学习曲线可以发现梯度下降是否收敛;成本函数J有时上升有时下降,表明梯度下降不能正常工作;可能是学习率α过大;可以适当调小学习率;学习率:按比例慢慢调;特征工程:通过转换或结合原有特征,利用直觉去构造一个新的特征;此例子中的x3。多项式回归:
Tezzz
·
2023-01-19 12:12
人工智能
吴恩达机器学习
打卡day7
本系列文档按课程视频的章节(P+第几集)进行分类,记录了学习时的一些知识点,方便自己复习。课程视频P64图1,2表示通过对特征向量的进一步细分,是一种提升邮件分类效率的方法。图1 图2 课程视频P65**在实践项目中,应该先简单粗暴的做出一个简单的算法,运行出学习曲线,然后根据曲线的特点对应查找当前模型存在的问题,是数据量不够还是特征向量太少等等…然后对症下药去把时间花在这些值得花的地方上,而不是
学吧 学无止境
·
2023-01-18 14:16
机器学习
人工智能
python
吴恩达机器学习
笔记:(二)代价函数
代价函数本例中如下图所示:代价函数实际目的是为了通过寻找θ1,θ2两个参数实现拟合的直线最接近数据点。本例中代价函数的定义θ1,θ2寻找θ1,θ2参数最优值寻找θ1的最优解当θ1=1时当θ1=0.5时当θ1=0时如上图右侧所示,寻当θ1的最优解相当于寻找曲线偏导数等于零的点上图为两个参数同时作用时候生成的数据三维图下图为数据对应的等高线:通过实际数据测试发现当在等高线最中央时拟合的直线最接近数据集
时间之里
·
2023-01-18 12:04
机器视觉
Deep
learning
机器学习
吴恩达机器学习
课程笔记(英文授课) Lv.1 新手村(回归)
目录1-1机器学习的相关名词1-2什么是机器学习?1.definition定义2.主要的机器学习算法的分类1-3有监督学习及常用算法1.定义2.两种数据类型补充:categoricaldata离散(分类型)数据与numericaldata连续(数值型)数据3.有监督学习与回归问题、分类问题的关系1-4无监督学习1.定义2.无监督学习之聚类算法的现实应用2-1第一个学习算法—线性回归算法1.课程中符
玉一
·
2023-01-18 12:01
机器学习
机器学习
吴恩达 机器学习课程笔记
吴恩达机器学习
课程笔记学习视频第1章1-2什么是机器学习1-3监督学习(supervisedlearningalgorithm)1-4无监督学习(unsupervisedlearningalgorithm
那胖手在星球表面缓慢移动
·
2023-01-18 11:24
机器学习
python
吴恩达机器学习
笔记(七):代价函数
吴恩达机器学习
笔记(七):代价函数Regularizedlinearregression如前言所述,正则化为了让模型更好地切合数据,同时降低过拟合的可能。
BANKA1_
·
2023-01-18 11:53
吴恩达机器学习笔记
python
机器学习
人工智能
线性代数
吴恩达机器学习
课程笔记:模型描述、假设函数、代价函数
1.
吴恩达机器学习
课程笔记:模型描述、假设函数、代价函数
吴恩达机器学习
课程笔记:模型描述
吴恩达机器学习
课程笔记:代价函数仅作为个人学习笔记,若各位大佬发现错误请指正什么是模型?
Uncertainty!!
·
2023-01-18 11:19
机器学习基础
模型
假设函数
代价函数
【学习周报】深度学习笔记第二周
学习目标:吴恩达深度学习课程
week2
学习内容:梯度下降法(GradientDescent)计算图(ComputationGraph)逻辑回归中的梯度下降(LogisticRegressionGradientDescent
不要卷我啊
·
2023-01-18 08:54
学习
【
吴恩达机器学习
笔记】第1周 - 线性回归与代价/成本函数
机器学习的模式用训练集的数据,匹配一种算法,生成一个函数(h),这个函数可以输入x,产出y所以机器学习的关键在于:1、选择正确的算法,选择算法之后,函数h的形态就确定了,但是参数未知2、确定函数h的参数值:监督学习:通过训练集的x和y,共同确定参数值无监督学习:通过训练集的x,确定参数值(还没搞懂)最简单的算法:一元线性回归(LinearRegression)相同的算法,不同的参数值:代价/成本函
Sun_Weiss
·
2023-01-17 09:01
机器学习
学习
机器学习
人工智能
吴恩达
如何在B站读一个深度学习的研究生?
越来越多人涌入这个领域,同时市面上的资料也是百花齐放,但是真正有价值的资料其实并不多,并且出品于大佬们的手这篇blog将会带领你在b站读一个深度学习的研究生保姆级清单,喜欢的话请点个赞~机器学习入门:
吴恩达机器学习
爱睡觉的Raki
·
2023-01-16 21:59
NLP
深度学习
人工智能
机器学习
自然语言处理
1-
吴恩达机器学习
Deeplearning.ai课程,监督学习
(强推|双字)2022
吴恩达机器学习
Deeplearning.ai课程【公开课】最新斯坦福李飞飞cs231n计算机视觉课程【附中文字幕】AI应用搜索引擎社交图片分享,分类电影推荐语音识别垃圾邮件识别气候变化优化风力发电医疗诊断工业质检自动驾驶通用
愚昧之山绝望之谷开悟之坡
·
2023-01-16 17:33
AI-快车道
人工智能
机器学习
计算机视觉
吴恩达机器学习
课程笔记:监督学习、无监督学习
1.
吴恩达机器学习
课程笔记:监督学习、无监督学习
吴恩达机器学习
系列课程:监督学习
吴恩达机器学习
系列课程:无监督学习仅作为个人学习笔记,若各位大佬发现错误请指正机器学习的学习算法:监督学习、无监督学习、半监督学习
Uncertainty!!
·
2023-01-16 17:31
机器学习基础
监督学习
无监督学习
模块二
week2
目录1、TensorFlow中训练神经网络的步骤2、TensorFlow在训练神经网络中做些什么2.1回顾::如何训练逻辑回归模型?
今天你吃了吗a
·
2023-01-16 09:42
机器学习
人工智能
tensorflow
深度学习
吴恩达机器学习
课程个人笔记(一)
课程传送门:List机器学习的定义:对于跳棋游戏来说,经验E就是电脑与自己下了数万次的跳棋游戏,任务T则是玩跳棋,那么性能度量P就是与新手下跳棋时赢的概率。下面是一个小问题:监督学习在例子中,给出了实际真实的、正确的数据样本,即房子卖价,而算法目的就是给出更多的正确答案,即为卖家估出750大小的房间价格;同时,这也是一个回归问题,给出连续数值的输出。在例子中,这属于一个分类问题,即离散值的输出,只
Dawning_2l
·
2023-01-16 08:08
学习
人工智能
超详细解析——
吴恩达机器学习
第三周作业Logistic Regression(逻辑回归)(Python实现)
文章目录一、LogisticRegression1.1Visualizingthedata1.2Implementation1.2.1SigmoidFunction1.2.2Costfunctionandgradient1.2.3Learningparametersusingfminunc1.2.4Evaluatinglogisticregression二、Regularizedlogisticr
Lucien Anderson
·
2023-01-16 08:40
机器学习
python
逻辑回归
Andrew Ng 神经网络与深度学习
week2
神经网络与深度学习文章目录神经网络与深度学习Logistic回归sigmaLogistic回归另一种表示法Logistic回归的损失函数(costfunction)notation:为什么convexfunction被译作凸函数?Lossfunction(用于单个训练样本(xi,yix^i,y^ixi,yi))为什么Lossfunction是这样?costfunction(衡量的在整个训练集上的表
不爱写程序的程序猿
·
2023-01-16 06:35
AI
神经网络
机器学习
人工智能
python
深度学习
【
吴恩达机器学习
】第五章 多变量线性回归
多功能多变量线性回归就是多特征量的情况下的假设形式,也就是用多个变量来预测Y值。下图为多变量线性回归的假设形式,即hθ(x)=θTx=θ0x0+θ1x1+θ2x2+...+θnxnh_θ(x)=θ^Tx=θ_0x_0+θ_1x_1+θ_2x_2+...+θ_nx_nhθ(x)=θTx=θ0x0+θ1x1+θ2x2+...+θnxn(其中x_0=1)多元梯度下降法上一课时我们知道了多变量线性回归的假
zxfhahaha
·
2023-01-15 12:28
机器学习
多变量线性回归
吴恩达
特征缩放
机器学习(正在更新)
目录自己疑问-----容易错误的点:训练集、验证集、测试集训练集验证集测试集以下视频地址:[中英字幕]
吴恩达机器学习
系列课程_哔哩哔哩_bilibili第二章2.1线性回归2-2代价函数(类似误差一样)
小小怪将军!
·
2023-01-15 11:23
机器学习
机器学习
深度学习
吴恩达机器学习
课程笔记(持续更新ing)
1.1什么是机器学习?定义:机器学习是用数据或以往的经验,以此优化计算机程序的性能标准。解释:计算机程序从经验E中学习,解决某一任务T,进行某一性能度量P,通过P测定在T上的表现因经验E而提高。例如:跳棋游戏E:程序与自己下几万次跳棋T:玩跳棋P:与新对手玩跳棋时赢的概率1.2监督学习定义:给算法一个数据集,其中包含了正确答案,算法的目的就是给出更多的正确答案。回归问题:目的:预测连续的数值例如:
最爱吃兽奶638
·
2023-01-15 11:15
2022
吴恩达机器学习
specialization Week 2 practice lab: Linear regression
Exercise1#UNQ_C1#GRADEDFUNCTION:compute_costdefcompute_cost(x,y,w,b):"""Computesthecostfunctionforlinearregression.Args:x(ndarray):Shape(m,)Inputtothemodel(Populationofcities)y(ndarray):Shape(m,)Label
wuuucj
·
2023-01-15 11:06
吴恩达机器学习
机器学习
线性回归
逻辑回归
【机器学习笔记】《统计学习方法》第二章 感知机+随机梯度下降法
有学习需求请绕道,参考
吴恩达机器学习
或以上书籍,讲得比大多数博客好。概念感知机(perceptron)是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1,-1二值。
Baolar_Code
·
2023-01-13 22:30
机器学习
机器学习
吴恩达机器学习
ex7 python实现
K-Means聚类我们将实施和应用K-means到一个简单的二维数据集,以获得一些直观的工作原理。K-means聚类算法2维实现寻找最近的聚类中心我们要实现的第一部分是找到数据中每个实例最接近的聚类中心的函数。importnumpyasnpimportpandasaspdimportmatplotlib.pyplotaspltimportseabornassbfromscipy.ioimportl
枸杞仙人
·
2023-01-13 09:41
机器学习
聚类
算法
python
机器学习
吴恩达机器学习
12.异常检测
异常检测1.问题的动机什么是异常检测?假想你是一个飞机引擎制造商,当你生产的飞机引擎从生产线上流出时,你需要进行QA(质量控制测试),而作为这个测试的一部分,你测量了飞机引擎的一些特征变量,比如引擎运转时产生的热量,或者引擎的振动等等这样一来,你就有了一个数据集,从x(1)x^{(1)}x(1)到x(m)x^{(m)}x(m),如果你生产了m个引擎的话,你将这些数据绘制成图表,看起来就是这个样子:
smile~。
·
2023-01-12 20:19
吴恩达机器学习
机器学习
C语言编程入门—顺序程序(
week2
)
今天更新第二弹~问题A:【C语言1】【1-1】求两数之差题目描述输入两个数,求两个数的差以下程序有语法错误,请改正#includeintmain(){intx,y;intr;scanf("%d%d",x,y);r=x-yprintf("%d-%d=\n",xyr);return0;}输入1224输出12-24=-12问题分析注意;scanfprintf函数即可...#includeintmain(
Извините.
·
2023-01-12 13:13
#
C语言编程
入门
c语言
吴恩达深度学习笔记 course3
week2
机器学习 策略(2)
1.Carryingouterroranalysis例:当我们在训练一个模型的时候,我们的准确率是90%,bayesoptimizedbias是0%,这个时候错误率达到了10%,那么我们如何分析是哪错了,并且快速改正,如果我们分析发现误将狗识别为猫,那我们是否又应该加入一些狗的图片,增强模型对负样本的训练?这个时候就引入了误差分析分析过程:这里吴恩达老师是取出100张被错误标记的图片,观察其中把狗
weixin_30888707
·
2023-01-12 11:22
人工智能
吴恩达深度学习笔记(三)
week2
机器学习策略
进行误差分析以一个简单的例子为例,在做一个猫图片的分类器时,若产生了5%5%的误差,其中有些图片误把狗分类为猫,是不是应该马上决定设计一个针对狗的识别系统?答案是否定的,若错误分类里面只有少数的是狗则不需要,所以有必要对误差进行分析。常用的误差分析是用一个表格做统计,如下图所示,统计每项可能引起系统误差的比例。清楚标记错误的数据吴恩达:人工干预,对误差进行分析,加入人对数据的理解在构建实际机器学习
lwmiracle
·
2023-01-12 11:16
吴恩达深度学习笔记
深度学习
机器学习
吴恩达深度学习笔记course3
week2
测验
第1个问题Tohelpyoupracticestrategiesformachinelearning,inthisweekwe’llpresentanotherscenarioandaskhowyouwouldact.Wethinkthis“simulator”ofworkinginamachinelearningprojectwillgiveataskofwhatleadingamachinel
banghu8816
·
2023-01-12 11:13
人工智能
开发工具
机器学习 笔记(继续更新)
学习内容跟随“
吴恩达机器学习
系列课程”。
M有在认真学习
·
2023-01-11 09:00
机器学习
python
吴恩达---机器学习的流程(持续更新)
参考:
吴恩达机器学习
的视频视频链接:[中英字幕]
吴恩达机器学习
系列课程_哔哩哔哩_bilibili本文用于我自己的内容总结以及层次理解。
M有在认真学习
·
2023-01-11 09:30
机器学习
回归
逻辑回归
吴恩达机器学习
第四周学习笔记及编程作业答案
一、理论基础1.神经网络非线性假设当特征太多时,计算的负荷会非常大,这时可以使用非线性的多项式项,能够帮助我们建立更好的分类模型。1.1模型表示第一层成为输入层(InputLayer),最后一层称为输出层(OutputLayer),中间一层成为隐藏层(HiddenLayers)。我们为每一层都增加一个偏差单位(biasunit),偏差单元的值为1ai(j)代表第j层的第i个激活单元。θ(j)代表从
欢欢吖
·
2023-01-10 19:31
深度学习
神经网络
数据挖掘
机器学习
自然语言处理
学习机器学习
必备基础:高数线代概率论基础,python基础(有基础即可,有些忘记了可以在之后的学习过程中用哪学哪)参考知乎答主的学习过程:我的机器学习入门学习清单及路线-桔了个仔的文章)入门
吴恩达机器学习
:了解为目的
乐呵。乐呵
·
2023-01-10 14:57
机器学习
python
开发语言
计算机视觉
吴恩达机器学习
python作业之K-means
参考链接:吴恩达|机器学习作业7.0.k-means聚类_学吧学吧终成学霸的博客-CSDN博客任务一:实现K-means算法任务二:使用K-means算法进行图像压缩任务一:实现K-means算法numpy中的norm()函数求范数_若水cjj的博客-CSDN博客_np.normimportnumpyasnpfrommatplotlibimportpyplotaspltfromscipyimpor
abcd1233463457347
·
2023-01-10 12:56
吴恩达机器学习作业
python
机器学习
kmeans
吴恩达机器学习
视频作业(Matlab实现)
吴恩达机器学习
视频的课后作业,使用matlab实现ex1线性回归1.热身建立一个5*5矩阵A=eye(5);2.单变量的线性回归需要根据城市人口数量,预测开小吃店的利润数据在ex1data1.txt里,
m0_57097042
·
2023-01-10 12:25
matlab
K-means算法简单理解
参考《
吴恩达机器学习
》要解释K-means算法,用图像说明再合适不过了。
Jnchin
·
2023-01-09 15:59
python
机器学习学习笔记
机器学习
吴恩达机器学习
笔记41-支持向量机的优化目标(Optimization Objective of Support Vector Machines)...
转载于:https://www.cnblogs.com/sl0309/p/10486958.html
weixin_33806509
·
2023-01-09 11:59
数据结构与算法
人工智能
吴恩达机器学习
14-降维
吴恩达机器学习
14-降维1.数据压缩数据压缩不仅压缩数据,因而使用较少的计算机内存或磁盘空间,而且加快了学习算法的收敛速度。如果你有几百个或成千上万的特征,它是它这往往容易失去你需要的特征。
小y同学在学习
·
2023-01-08 02:57
吴恩达机器学习系列笔记
机器学习
算法
人工智能
吴恩达机器学习
课后作业——K-means 和PCA(主成分分析)
kmeans聚类一、作业内容在本练习中,您将实现K-means聚类算法并应用它来压缩图像。数据集下载位置(包含吴恩达机器学课后作业全部数据集):data二、作业分析1、无监督学习:根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题,称之为无监督学习,“监督”的意思可以直观理解为“是否有标注的数据”。无监督学习的特点是,传递给算法的数据在内部结构中非常丰富,而用于训练的目标和奖励非常稀少。
荭凯
·
2023-01-08 02:57
机器学习
kmeans
聚类
吴恩达机器学习
——第15章 降维
第15章降维1、定义2、目的3、PCA降维3.1计算过程3.2主成分数量的选择3.2.1选择方法13.2.2选择方法23.3压缩重现3.4建议1、定义数据是由一个个特征组成的,假如数有n个特征,则称数据是n维的。降维就是在保证数据特征趋势不变的前提下,减少特征的个数。减少特征的依据是把多个相似、相关特征合并为1个特征。2、目的降维的目的分为两种:压缩数据:特征数量变少了,数据量自然也就变少了,压缩
丨知耻而后勇丨
·
2023-01-08 02:25
机器学习
吴恩达机器学习
(十一)—— 降维
降维1.动机1:数据压缩2.动机2:数据可视化3.主成分分析问题规划4.主成分分析算法5.重建压缩表示6.主成分数量的选择7.应用PCA的建议1.动机1:数据压缩 数据压缩不仅能对数据进行压缩,使得数据占用较少的内存或硬盘空间,还能让我们对学习算法进行加速。 假使我们要采用两种不同的仪器来测量一些东西的尺寸,其中一个仪器测量结果x1x_{1}x1的单位是厘米,另一个仪器测量的结果x2x_{2}
青春是首不老歌丶
·
2023-01-08 02:54
吴恩达《机器学习》
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他