E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习私人笔记
吴恩达机器学习
(十四)推荐系统(基于梯度下降的协同过滤算法)
目录0.前言1.基于内容的推荐算法(Content-basedrecommendations)2.计算电影特征3.基于梯度下降的协同过滤算法(Collaborativefiltering)4.低秩矩阵分解(Lowrankmatrixfactorization)5.应用到推荐学习完吴恩达老师机器学习课程的推荐系统,简单的做个笔记。文中部分描述属于个人消化后的理解,仅供参考。如果这篇文章对你有一点小小
zhq9695
·
2020-07-09 05:18
机器学习
西瓜书+实战+
吴恩达机器学习
(八)监督学习之朴素贝叶斯 Naive Bayes
文章目录0.前言1.朴素贝叶斯算法2.半朴素贝叶斯算法2.1.ODE2.2.SPODE2.3.TAN2.4.AODE如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言贝叶斯算法根据概率,选择概率最大的一类。1.朴素贝叶斯算法朴素贝叶斯(naiveBayes)采用了属性条件独立性假设:对已知类别,假设所有属性相互独立。P(c∣x)=P(c)P(x∣c)P(x)=P(c)
zhq9695
·
2020-07-09 05:46
机器学习
【机器学习】LR(逻辑分类&softmax分类)—— python3 实现方案
包含sigmoid和softmax模型,优化算法为批量梯度下降法使用数据是
吴恩达机器学习
第二第三节的作业。
zhenghaitian
·
2020-07-09 05:01
机器学习
吴恩达机器学习
——逻辑回归和分类算法
高效使用软件如下所示,是一个函数,这是一个求theta和x的积的和的公式,这个问题我们可以轻松地通过矩阵的方式解决。将theta和x以如下形式表示,theta和x的矩阵的积就是这个函数的结果。求解theta的值进行逻辑分解:Theta(i)=theta(i)–aββ=然后进行进一步分解:这个部分可以看做是两个矩阵的积:和矩阵的积依次这样慢慢划分,就能够实现这个theta的求解。分类算法Y={0,1
xclhs
·
2020-07-09 02:26
学习
机器学习
吴恩达机器学习
视频--神经网络反向传播算法公式推导
反向传播算法基础知识我们在计算神经网络预测结果时采用了正向传播方法,从第一层开始正向一层一层进行计算算,直到最后一层的hθ(x)h_\theta(x)hθ(x)。在不作正则化处理的情况下,逻辑回归中的代价函数如下所示:J(θ)=−1m[∑j=1my(i)loghθ(xi)+(1−y(i))log(1−hθ(x(i)))]J(\theta)=-\frac{1}{m}[\sum_{j=1}^my^{(
xuan_liu123
·
2020-07-09 02:04
ML&DL
机器学习中过拟合的解决办法
如图所示(图片来源:coursera
吴恩达机器学习
公开课)从图中可以看出,图一是欠拟合,模型不能很好地拟合数据;图二是最佳的情况;图三就是过拟合,采用了很复杂的模型。最后导致曲线波动很大,最后最可
小沫_jie
·
2020-07-08 11:44
面试
机器学习实战记录-Logistic回归
准备:梯度下降算法;(来自
吴恩达机器学习
)1.cost函数的引出定义的引出:确定模型计算出的值与测试样本值之间的差距;更适合大量的数据集;m代表样本点数,除以m是为了求平均误差(让参数m有了意义),除以
卡农配清风
·
2020-07-08 04:11
2020考研复试备考第2周总结
上星期完成的任务阅读了attentionisallyouneed这篇论文
吴恩达机器学习
课程看了一半左右,
untilyouydc
·
2020-07-08 01:44
备考
吴恩达机器学习
笔记(1)
前情介绍课程视频来源:http://open.163.com/special/opencourse/machinelearning.html参考笔记黄海广博士的个人笔记:http://www.ai-start.com/本笔记为个人学习笔记,作为初学者,实在是才疏学浅,也肯定存在问题,欢迎大家沟通交流。一、监督学习我们给计算机提供一组正确的数据集,也就是这个问题的标准答案(标准输入对应的标准输出),
Cynthia_code
·
2020-07-08 00:59
吴恩达机器学习
---编程练习7
博主只是初学机器学习的新人一枚,这篇博客旨在分享一下
吴恩达机器学习
课程编程练习7的答案,同时也是相当于自己对这一章的内容做一个回顾,让自己理解的更加的透彻,理性讨论,不喜勿喷本练习的主题是K-meansClusteringandPrincipalComponentAnalysis
DO-VIS
·
2020-07-07 23:05
吴恩达机器学习
笔记整理(Week6-Week11)
1.Week61.1应用机器学习的建议(AdviceforApplyingMachineLearning)1.1.1决定下一步做什么到目前为止,我们已经介绍了许多不同的学习算法,然而,在懂机器学习的人当中依然存在着很大的差距,一部分人确实掌握了怎样高效有力地运用这些学习算法。而另一些人可能没有完全理解怎样运用这些算法。因此总是把时间浪费在毫无意义的尝试上。本章是确保你在设计机器学习的系统时,你能够
Paul-Huang
·
2020-07-07 09:42
机器学习
吴恩达机器学习
笔记整理(Week1-Week5)
吴恩达机器学习
笔记整理1.Week11.1什么是机器学习(WhatisMachineLearning)1.2机器学习算法分类1.3单变量线性回归(LinearRegressionwithOneVariable
Paul-Huang
·
2020-07-07 09:41
机器学习
吴恩达机器学习
逻辑回归python实现[对应ex2-ex2data1.txt数据集]
研一学生,初学机器学习,重心放在应用,弱化公式推导,能力有限,文中难免会有错误,恳请指正!QQ:245770710此文是对网易云课堂上吴恩达老师的机器学习课程逻辑回归一章对应的课后作业的python实现。1.先对数据集进行观察,使用matplotlib将数据集绘制出散点图。拿到一份数据想从中分析出一些内容,首先要了解拿到的数据,因此我们先把数据以散点图的形式绘制出来,观察其中的规律以确定用什么模型
gy245770710
·
2020-07-07 08:22
机器学习笔记
Zencart 二次开发
私人笔记
3:如何开启、关闭zencart右栏?(2种方法)
Zencart二次开发
私人笔记
3:如何开启、关闭zencart右栏?(2种方法)zencart二次开发3:如何开启、关闭zencart右栏?
chenjinling2018
·
2020-07-07 05:15
zencart
吴恩达机器学习
Coursera-Week5
CostFunctionandBackPropagationCostFunction这一节主要讲了基本的符号表示,主要如下:L:表示总共有几层神经网络,假设有四层那么L=4sl:注意下标l(小写L),表示第l层的unit数,这个数不包含biasunitK:表示输出层有几个输出unit,即表示K分类问题,注意K=1或者K>=3。(因为K=2就成了一个二分类问题了,那么我们只需要使用一个输出就可以用二
geekpy
·
2020-07-06 10:20
吴恩达机器学习
中文版笔记:异常检测(Anomaly Detection)
在接下来的一系列视频中,我将向大家介绍异常检测(Anomalydetection)问题。这是机器学习算法的一个常见应用。这种算法的一个有趣之处在于:它虽然主要用于非监督学习问题,但从某些角度看,它又类似于一些监督学习问题。问题的动机参考文档:15-1-ProblemMotivation(8min).mkv在接下来的一系列视频中,我将向大家介绍异常检测(Anomalydetection)问题。这是机
weixin_34224941
·
2020-07-06 00:38
吴恩达机器学习
笔记32-小结神经网络的实现步骤
小结一下使用神经网络时的步骤:网络结构:第一件要做的事是选择网络结构,即决定选择多少层以及决定每层分别有多少个单元。第一层的单元数即我们训练集的特征数量。最后一层的单元数是我们训练集的结果的类的数量。如果隐藏层数大于1,确保每个隐藏层的单元个数相同,通常情况下隐藏层单元的个数越多越好。我们真正要决定的是隐藏层的层数和每个中间层的单元数。训练神经网络:1.参数的随机初始化2.利用正向传播方法计算所有
weixin_34082177
·
2020-07-06 00:56
吴恩达机器学习
课程个人总结4.0(神经网络及反向传播)
神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activationfunction)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。以上来自百
想成为大佬的菜鸟
·
2020-07-05 07:41
机器学习
minimize函数的使用(scipy.optimize)
2.minimize函数的寻找参数我接触到fminunc函数是在看
吴恩达机器学习
的视频时,对于在ma
stay hungry*
·
2020-07-05 06:15
Scipy
吴恩达机器学习
(十一)——系统设计
一、构建垃圾邮件分类器举一个垃圾邮件分类的例子:假如你想建立一个垃圾邮件分类器,假设我们已经有一些加过标签的训练集。包括标注的垃圾邮件表示为y=1和非垃圾邮件表示为y=0。我们如何以监督学习的方法来构造一个分类器来区分垃圾邮件和非垃圾邮件呢?为了应用监督学习,我们首先必须确定的是如何用邮件的特征,构造向量x给出训练集中的特征x和标签y,我们就能够训练出某种分类器,比如用逻辑回归的方法。这里有一种选
大鹏小站
·
2020-07-04 21:50
机器学习
吴恩达机器学习
笔记 | Chapter 1 绪论:初识机器学习
MachineLearning|Chapter1绪论:初识机器学习Lesson1什么是机器学习提供了机器学习的两个定义。亚瑟·塞缪尔将其描述为:“研究领域使计算机无需明确编程即可学习。”这是一个较旧的非正式定义。TomMitchell提供了一个更现代的定义:“说计算机程序从经验E中学习某些任务T和绩效测量P,如果它在T中的任务中的表现,由P测量,随经验E而提高。“示例:玩跳棋。E=玩许多跳棋游戏的
林璀·学术狂人
·
2020-07-04 16:47
Machine
Learning
Wu
Enda
吴恩达机器学习
作业(五):支持向量机
目录1)数据预处理2)Scikit-learn支持向量机3)决策边界比较4)非线性SVM5)最优超参数6)垃圾邮件过滤器在本练习中,我们将使用支持向量机(SVM)来构建垃圾邮件分类器。我们将从一些简单的2D数据集开始使用SVM来查看它们的工作原理。然后,我们将对一组原始电子邮件进行一些预处理工作,并使用SVM在处理的电子邮件上构建分类器,以确定它们是否为垃圾邮件。我们要做的第一件事是看一个简单的二
10点43
·
2020-07-04 12:39
机器学习
Centos 8 NAS环境搭建
Centos8NAS环境搭建之一Centos安装安装Centos安装系统配置基本环境配置docker环境docker软件功能安装
私人笔记
本leanote私人云网盘nextCloud远程文件管理私人音乐下载软件影音安装
欧曼
·
2020-07-04 10:25
吴恩达机器学习
笔记-神经网络
本文将会介绍一种叫“神经网络”(NeuralNetwork)的机器学习算法。非线性假设我们之前已经学习过线性回归和逻辑回归算法了,为什么还要研究神经网络?我们先看一个例子。下面是一个监督学习分类问题的训练集:如果利用逻辑回归算法来解决这个问题,首先需要构造一个包含很多非线性项的逻辑回归函数。如下所示:这里g仍是sigmod函数,我们能让函数,包含很多像这样的多项式项。事实上,当多项式项数足够多时,
Carey_Wu
·
2020-07-04 00:48
Coursera
吴恩达机器学习
课程 总结笔记及作业代码——第3周逻辑回归
LogisticRegression上一次的课程主要解决回归分析问题,这一次的课程主要为分类问题,分类问题也可看做将回归问题的连续性离散化。1.1Classification先来谈谈二分类问题。课程中先给出了几个例子。邮件是垃圾邮件还是非垃圾邮件;网上交易是的欺骗性(YorN);肿瘤是恶性的还是良性的。对于这些问题,我们可以通过输出值yϵ{0,1}来表示。通过上次的课程,我们可以想到利用假设函数y
启人zhr
·
2020-07-02 17:18
人工智能
机器学习吴恩达课程学习笔记
吴恩达机器学习
第二周学习笔记及编程作业答案
吴恩达机器学习
第二周学习笔记及编程作业答案一、理论基础1、机器学习定义:一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过P评判,程序在处理T时的性能有所提升机器学习都可以分为两大类
欢欢吖
·
2020-07-02 13:00
吴恩达机器学习
知识点和英语词汇总结
文章目录一、英语词汇二、章节要点2-5梯度下降4-6正规方程8-6样本和直观理解二9-2反向传播算法一、英语词汇2-5a:=b---->assignment赋值将b的值赋值给aa=btruthassertion真假判断derivativeterm导数项α:learningrate学习率gradientdescent:梯度下降------>simultaneousupdate:同步更新partial
miracleo_
·
2020-07-02 12:51
机器学习
【机器学习】
吴恩达机器学习
视频作业-逻辑回归二分类 II
二分类类型2本文件的程序是基于
吴恩达机器学习
视频逻辑回归的作业,使用正则化的逻辑回归,使用的数据是ex2data2.txt。数据背景是:预测来自制造工厂的微芯片是否通过质量保证(QA)。
菊子皮
·
2020-07-02 12:16
Machine
Learning
(ML)
吴恩达机器学习
课后作业深度解析(附答案)(ex2)
作业ex2题目及答案源码下载地址ex2题目及答案一、逻辑回归问题背景,根据学生两门课的成绩和是否入学的数据,预测学生能否顺利入学plotData.m:数据可视化%FindIndicesofPositiveandNegativeExamplespos=find(y==1);neg=find(y==0);%PlotExamplesplot(X(pos,1),X(pos,2),'k+','LineWid
布衣书生real
·
2020-07-02 11:03
机器学习
吴恩达机器学习
-课后习题
原题参考链接https://www.kesci.com/home/project/5e0f01282823a10036b280a7第1题一个计算机程序从经验E中学习任务T,并用P来衡量表现。并且,T的表现P随着经验E的增加而提高。假设我们给一个学习算法输入了很多历史天气的数据,让它学会预测天气。什么是P的合理选择?CA.计算大量历史气象数据的过程B.以上都不C.正确预测未来日期天气的概率D.天气预
爱淋雨的男人
·
2020-07-02 07:57
python
机器学习
吴恩达机器学习
(十)
大规模机器学习第一百四十课:大规模机器学习处理大数据集的算法近年来机器学习技术的发展归因于我们有极其庞大的数据用来训练我们的算法。处理如此海量数据的算法?我们为什么要用大的训练集呢?我们已经知道一种获取高性能的机器学习系统的途径是采用低偏差的学习算法,并用大数据进行训练。即决定效果好坏的往往不是算法的好坏,而是谁的训练数据多。如果你想使用大数据进行训练,至少要能获得大数据集。大数据学习的问题:计算
带刺的小花_ea97
·
2020-07-02 04:58
吴恩达机器学习
笔记_第五周
神经网络——模型学习CostFunction:从逻辑回归推广过来计算最小值,无论用什么方法,都需要计算代价和偏导。网络结构的前向传播和可向量化的特点:BP算法:总结:计算代价函数及偏导进一步理解FPBP:梯度检验:避免BP发生的小错误确保自己的确在计算代价函数的偏导数,对于向量形式,可以这么检验:检验无误后要记得关掉检验功能,否则速度会慢.记得!!数值方法计算梯度比BP算法慢.随机初始化权值:都初
hunterlew
·
2020-07-02 03:02
深度学习
深度学习_在路上
吴恩达机器学习
-第1周:监督学习与无监督学习
自学的教程
吴恩达机器学习
视频课程:https://study.163.com/course/courseMain.htm?
funiu666
·
2020-07-02 00:51
机器学习
下载量过百万的
吴恩达机器学习
和深度学习笔记更新了!(附PDF下载)
今天,我把
吴恩达机器学习
和深度学习课程笔记都更新了,并提供下载,这两本笔记非常适合机器学习和深度学习入门。
风度78
·
2020-07-01 23:09
机器学习入门笔记系列 | 西瓜书笔记(一)
看了很多前辈大神的推荐,从西瓜书(周志华老师《机器学习》)或者Coursera
吴恩达机器学习
视频入门比较好。我比较喜欢书籍,因为做起笔记比较方便。
chixu4685
·
2020-07-01 20:18
《机器学习实战》学习笔记第八章 —— 线性回归、L1、L2范数正则项
相关笔记:
吴恩达机器学习
笔记(一)——线性回归
吴恩达机器学习
笔记(三)——Regularization正则化(问题遗留:小可只知道引入正则项能降低参数的取值,但为什么能保证Σθ21,曲线的斜率很大,这就能加快梯度下降收敛的速度
alince20008
·
2020-07-01 16:26
吴恩达机器学习
学习笔记 之 六 Logistic Regression —— 逻辑回归
6.1Classification——分类下面是分类问题的一些例子:判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈;判断一个肿瘤是恶性的还是良性的。在所有这些问题中,我们需要预测的是一个变量y。我们将因变量(dependentvariable)可能属于的两个类分别称为负类(negativeclass)和正类(positiveclass),则因变量y∈{0,1},其中0表示负类,1表示正
张之海
·
2020-07-01 15:16
机器学习
吴恩达机器学习
第一次作业:线性回归
0.综述给出房价与房屋面积的关系,利用梯度下降的方法进行数据拟合,并对给定的房屋面积做出对房价的预测。1.warmUpExercise输出5*5的单位矩阵functionA=warmUpExercise()%WARMUPEXERCISEExamplefunctioninoctave%A=WARMUPEXERCISE()isanexamplefunctionthatreturnsthe5x5iden
GaoJieVery6
·
2020-07-01 14:22
机器学习
吴恩达机器学习
第二周测试及编程练习
代码:https://github.com/LiuZhe6/AndrewNGMachineLearning文章目录测验一:LinearRegressionwithMultipleVariables第一题第二题第三题第四题第五题测验二:Octave/MatlabTutorial第一题第二题第三题第四题第五题编程作业:LinearRegression作业1:计算CostFunction作业2:梯度下降
一叶知秋Autumn
·
2020-07-01 13:26
机器学习
机器学习
吴恩达机器学习
个人笔记(七)-聚类
聚类属于无监督学习。在之前的学习中,都是监督学习。监督学习与无监督学习的最大区别为训练数据集的特点,在监督学习中,训练集是有标签的,我们根据这些有标签的数据,训练出模型,输出相应的值。而在无监督学习中,我们的数据集没有标签,我们需要使用机器学习算法寻找出数据集中的内在结构。无监督学习的数据集如下所示训练的数据集可以写成只有一直到,没有任何的标签。上图中的数据可以看作两个分开的点集(称为簇),能找出
XiaoQQin1
·
2020-07-01 10:23
机器学习笔记
吴恩达机器学习
第二次编程作业答案+解析
第二次作业答案与解析文章目录第二次作业答案与解析1LogisticRegression1.1Visualizingthedata(plotData.m)1.2Implementation1.2.1sigmoidfunction(sigmoid.m)1.2.2Costfunctionandgradient(costFunction.m)1.2.3Learningparametersusingfmin
Clauria
·
2020-07-01 08:31
机器学习
吴恩达机器学习
(Machine Learning)课程总结笔记---Week8
文章目录0概述1.课程大纲2.课程内容2.1聚类2.1.1聚类算法简介2.1.2K-Means2.1.3K-Means目标函数2.1.4随机初始化2.1.5K值选择2.2维数约简2.2.1为什么要降维2.2.2PCA方法2.2.3PCA和线性回归的区别2.2.4算法流程2.2.5K的选择(1)尝试法(2)利用奇异值计算2.2.6特征还原2.2.7应用场景3.课后编程作业4.总结0概述 我们知道机
csdn_SUSAN
·
2020-07-01 08:45
吴恩达--机器学习
吴恩达机器学习
(四)逻辑回归(二分类与多分类)
目录0.前言1.假设函数(Hypothesis)2.决策边界(DecisionBoundary)3.代价函数(CostFunciton)4.梯度下降(GradientDescent)5.逻辑回归实现多分类6.其他求解参数的方法学习完吴恩达老师机器学习课程的逻辑回归,简单的做个笔记。文中部分描述属于个人消化后的理解,仅供参考。如果这篇文章对你有一点小小的帮助,请给个关注喔~我会非常开心的~0.前言逻
zhq9695
·
2020-07-01 07:02
机器学习
吴恩达机器学习
课程笔记——第一周
1.单变量线性回归(LinearRegressionwithOneVariable)1.1模型表示像上述公式,因为只含有一个特征/输入变量,因此这样的问题叫作单变量线性回归问题。例子如下:单变量线性方程,就是我们初中就学的一元一次函数。当然啦,除了这个模型之外,我们还有很多其他的线性模型,比如指数模型、对数模型等等,除了线性模型之外,还有非线性模型,有这么多的模型,其目的就是在于更好的拟合训练集的
这就是一头猪
·
2020-07-01 05:08
机器学习
吴恩达
吴恩达机器学习
笔记_第三周
LogisticRegression逻辑回归(分类):0:NegativeClass1:PositiveClass二元分类问题讲起,虽然有回归二字,其实为分类算法,处理离散y值。输出以以条件概率表示,若P(y=1|x;theta)=0.7,表示有70%的概率y=1.那么有30%的概率y=0决策边界(DecisionBoundary):当z=0,即thetaT*X的值等于零时,此时假设函数为0.5。
hunterlew
·
2020-07-01 02:35
深度学习
深度学习_在路上
吴恩达机器学习
第五次作业(python 实现):偏差与方差
偏差与方差数据在这先放上整体代码,后面对于具体函数有相应解释importnumpyasnpimportmatplotlib.pyplotaspltimporttimefromscipy.ioimportloadmatimportscipy.optimizeasoptdefloadfile(path):data=loadmat(path)returndatadefdraw_data(x,y):plt
浅唱、
·
2020-06-30 20:22
吴恩达机器学习作业练习
吴恩达机器学习
第一次作业(python实现):线性回归
数据放这里:单特征importmatplotlib.pyplotaspltimportnumpyasnpimportpandasaspd#读取原始数据defraw_data(path):data=pd.read_csv(path,names=['population','profit'])returndata#画原始数据defdraw_data(data):x=data['population']
浅唱、
·
2020-06-30 20:22
吴恩达机器学习作业练习
【
吴恩达机器学习
】第一章 绪论:初识机器学习
本来觉得第一章没什么好总结的,总了coursera上第一章的测验题后,我觉得有几个知识点有必要整理一下。机器学习的定义ArthurSamuel将机器学习定义为:在没有被明确设置的情况下,使计算机具有学习能力的研究领域。(这也是测验题第五题的答案)TomMitchell将机器学习定义为:计算机程序从经验(Experience)E中学习,解决某一任务(task)T,进行某一性能度量(performan
zxfhahaha
·
2020-06-30 20:39
机器学习
吴恩达机器学习
课程笔记——第一周
1.单变量线性回归(LinearRegressionwithOneVariable)1.1模型表示单变量线性回归像上述公式,因为只含有一个特征/输入变量,因此这样的问题叫作单变量线性回归问题。例子如下:回归函数图示单变量线性方程,就是我们初中就学的一元一次函数。当然啦,除了这个模型之外,我们还有很多其他的线性模型,比如指数模型、对数模型等等,除了线性模型之外,还有非线性模型,有这么多的模型,其目的
lan_ha
·
2020-06-30 18:36
吴恩达机器学习
课程笔记+代码实现(6)Python实现多变量线性回归、梯度下降和正规方程(Programming Exercise 1.2)
ProgrammingExercise1:LinearRegressionPython版本3.6编译环境:anacondaJupyterNotebook链接:ex1data1.txt、ex1data2.txt和编程作业ex1.pdf(实验指导书)提取码:i7co2多变量线性回归(Linearregressionwithmultiplevariable)本章课程笔记部分见:4.多变量线性回归、梯度下
geekxiaoz
·
2020-06-30 17:15
上一页
21
22
23
24
25
26
27
28
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他