E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《机器学习教程》
什么是次梯度(次导数)
我的
机器学习教程
「美团」算法工程师带你入门机器学习已经开始更新了,欢迎大家订阅~任何关于算法、编程、AI行业知识或博客内容的问题,可以随时扫码关注公众号「图灵的猫」,加入”学习小组“,沙雕博主在线答疑~
图灵的猫.
·
2020-06-21 05:42
Data
Science:机器学习
Data
Sciense:数值优化
快速排序 Vs. 归并排序 Vs. 堆排序——谁才是最强的排序算法
我的
机器学习教程
「美团」算法工程师带你入门机器学习已经开始更新了,欢迎大家订阅~任何关于算法、编程、AI行业知识或博客内容的问题,可以随时扫码关注公众号「图灵的猫」,加入”学习小组“,沙雕博主在线答疑~
图灵的猫.
·
2020-06-21 05:42
***算法与编程艺术***
算法之数据结构
***Data
Science***
用通俗易懂的方式告诉你什么是EM算法
我的
机器学习教程
「美团」算法工程师带你入门机器学习已经开始更新了,欢迎大家订阅~任何关于算法、编程、AI行业知识或博客内容的问题,可以随时扫码关注公众号「图灵的猫」,加入”学习小组“,沙雕博主在线答疑~
图灵的猫.
·
2020-06-21 05:42
Data
Science:统计学习
Data
Science:数据挖掘
***算法与编程艺术***
机器学习教程
一.初识机器学习与数据认识
这篇博客是本人学习机器学习系列教程时候做的笔记,虽然有点简陋,但也是对我自己知识总结,希望能对像我一样的行业萌新有所帮助,也许排版有些简陋(第一次写博客),我会在接下来的博客中慢慢改进。接下来这系列博客让你对机器学习有一个整体的理解,包括理论,应用,以及监督、无监督和深度学习算法的内部工作。我将介绍线性回归、K近邻、支持向量机(SVM)、层次聚类和神经网络等。对于我们所讨论的每一个算法,我们将讨论
会分析的小驼
·
2020-06-20 23:05
机器学习
机器学习
数据挖掘
python
入门教程
线程与进程最通俗易懂的解释(附面试题与答案)
我的
机器学习教程
「美团」算法工程师带你入门机器学习已经开始更新了,欢迎大家订阅~任何关于算法、编程、AI行业知识或博客内容的问题,可以随时扫码关注公众号「图灵的猫」,加入”学习小组“,沙雕博主在线答疑~
图灵的猫.
·
2020-06-20 21:33
***系统与网络***
系统:Linux与Shell
操作系统
计算机
编程
计算机系统
谷歌机器学习实战的7个步骤:用于结构化数据的TensorFlow示例
互联网上有很多很棒的
机器学习教程
。但是,它们大多数都专注于机器学习的特定部分,例如,探索数据,建立模型,训练和评估。其中很少有人介绍构建机器学习模型的完整步骤。
iyacontrol
·
2020-05-27 17:01
tensorflow
人工智能
categorical variable分类变量 kaggle
机器学习教程
机翻笔记
IntroductionAcategoricalvariabletakesonlyalimitednumberofvalues.分类变量仅接受有限数量的值。Considerasurveythataskshowoftenyoueatbreakfastandprovidesfouroptions:“Never”,“Rarely”,“Mostdays”,or“Everyday”.Inthiscase,t
chentao326
·
2020-05-06 21:52
kaggle
大数据
机器学习
kaggle
人工智能
[斯坦福大学2014
机器学习教程
笔记]第六章-假设陈述
在本节中,我们将学习假设陈述。也就是,当有一个分类问题的时候,我们要使用哪个方程表示我们的假设。此前我们说过,希望我们的分类器的输出值在0和1之间。因此,我们希望想出一个满足它的预测值要在0和1之间的假设。当我们使用线性回归的时候,假设形式为hθ(x)=θTx。对于逻辑回归,hθ(x)=g(θTx),并定义函数g为g(z)=1/(1+e-z)。稍后,我们将讨论一个学习算法来拟合参数θ。但是首先让我
不爱学习的Shirley
·
2020-04-15 18:00
[斯坦福大学2014
机器学习教程
笔记]第六章-分类回归
在这节以及接下来几节中,我们要开始讨论分类问题。这节将告诉我们为什么对于分类问题来说,使用线性回归并不是一个好主意。在分类问题中,你要预测的变量y是一个离散的值,我们将学习一种叫做逻辑回归(LogisticRegression)的算法,这是当今最流行、使用最广泛的学习算法之一。分类问题的例子有:垃圾邮件分类(判断一封电子邮件是否是垃圾邮件)、分类网上交易(判断某一个交易是否是欺诈,例如是否用盗取的
不爱学习的Shirley
·
2020-04-14 20:00
机器学习入门探索
在理论学习上,打算参考一些书籍和笔记有《统计学习方法》李航《机器学习》周志华吴恩达
机器学习教程
的笔记之前没有接触过python语言,所以算是从零开始。安装了python3.6和pycharm。
凌玥君
·
2020-04-13 12:20
[斯坦福大学2014
机器学习教程
笔记]第五章-矢量
在这节中,我们将学习有关向量化的内容。无论你是用Ocatve,还是别的语言,比如MATLAB或者你正在用Python、NumPy或Java、C、C++,所有这些语言都具有内置的,容易阅读和获取的各种线性代数库,它们通常写得很好,已经经过高度优化,通常是数值计算方面的博士或者专业人士开发的。而当你实现机器学习算法时,如果你能好好利用这些线性代数库,或者数值线性代数库,并联合调用它们,而不是自己去做那
不爱学习的Shirley
·
2020-04-10 23:00
[斯坦福大学2014
机器学习教程
笔记]第五章-控制语句:for,while,if语句
在本节中,我们将学习如何为Octave程序写控制语句。首先,我们先学习如何使用for循环。我们将v设为一个10行1列的零向量。接着,我们写一个for循环,让i等于1到10。写出来就是fori=1:10。我要设v(i)的值等于2的i次方,即输入v(i)=2^i,循环的最后要记得写上end。这里的空格其实是没有意义的,它们只是为了看起来更加好看。按照这样做,那么结果就如下图所示。所以这个语句的作用就是
不爱学习的Shirley
·
2020-04-08 21:00
[斯坦福大学2014
机器学习教程
笔记]第五章-数据绘制
当开发学习算法时,往往几个简单的图,可以让你更好地理解算法的内容,并且可以完整地检查下算法是否正常运行,是否达到了算法的目的。例如在之前的课程中,学了如何绘制成本函数J(θ),可以帮助确认梯度下降算法是否收敛。通常情况下,绘制数据或学习算法所有输出,也会启发如何改进学习算法。幸运的是,Octave有非常简单的工具用来生成大量不同的图。当用学习算法时,会发现绘制数据、绘制学习算法等,往往是获得想法来
不爱学习的Shirley
·
2020-04-07 21:00
[斯坦福大学2014
机器学习教程
笔记]第五章-计算数据
在这节中,我们将学习如何对数据进行运算操作。接下来,我们将会使用这些运算操作来实现我们的学习算法。我现在快速地初始化一些变量。比如设置A为一个3x2的矩阵,B为一个3x2的矩阵,c为一个2x2的矩阵。我想算两个矩阵的乘积,比如计算AxC,只需输入A*C,这是一个3x2矩阵乘以2x2矩阵,得到这样一个3x2矩阵。我们还可以对元素进行运算。当输入A.*B的时候,会将A中的各个元素与B中对应的元素相乘。
不爱学习的Shirley
·
2020-04-06 21:00
[斯坦福大学2014
机器学习教程
笔记]第五章-移动数据
在这节中将介绍如何在Ocatve中移动数据。如果你有些机器学习问题的数据,你如何将这些数据加载到Ocatve中?怎么把数据存入矩阵中?怎么对矩阵进行操作?如何保存计算结果?如何移动这些数据然后对它们进行操作?首先我们让A=[12;34;56],我们会得到一个3x2矩阵,我们可以用size(A)返回矩阵A的大小,这里返回的就是32。实际上,size(A)也可以看作是一个1x2的矩阵,我们可以用sz来
不爱学习的Shirley
·
2020-04-05 10:00
斯坦福大学吴恩达2014
机器学习教程
笔记目录(更至第五章,在更)
现在其实有很多关于机器学习的课程,但是最经典的还是吴恩达2014机器学习的课程。课程地址:https://www.coursera.org/course/ml这是我自己在学习过程中的笔记,争取每天都更新。目录第一周一、引言1.1欢迎1.2机器学习是什么?1.3监督学习1.4无监督学习二、单变量线性回归2.1模型描述2.2代价函数的数学定义2.3代价函数的直观理解Ⅰ2.4代价函数的直观理解Ⅱ2.5梯
不爱学习的Shirley
·
2020-04-04 12:00
[斯坦福大学2014
机器学习教程
笔记]第五章-基本操作
在这一章中我们将学习一些Octave编程语言。我们可以通过它迅速实现我们已经学过的或者后面要学的机器学习算法。在这节中,我们将学习一系列的Octave的命令。首先,我们先要打开Ocatve,接着我们输入一些简单的式子,可以看到我们很快就能得到结果。除了这些,我们还可以做一些逻辑运算。例如,1==2(显然这个结果为假),这里用%表示注释。我们可以看到这里用0表示结果为假。1~=2(1不等于2,结果为
不爱学习的Shirley
·
2020-04-04 11:00
[斯坦福大学2014
机器学习教程
笔记]第四章-正规方程在矩阵不可逆情况下的解决方法(选学)
上节中,我们讲了正规方程。在这节中,我们将学习正规方程以及不可逆性。本节的概念较为深入,所以可以将它看作是选学材料。我们要讨论的问题如下:当我们计算θ=(XTX)-1XTy的时候,万一矩阵XTX是不可逆的话怎么办?如果懂一点线性代数的知识,我们就会知道有些矩阵可逆,而有些矩阵不可逆。我们称不可逆的矩阵称为奇异或退化矩阵。其实XTX不可逆的情况很少发生,在Octave里,如果你用pinv(X'*X)
不爱学习的Shirley
·
2020-04-03 15:00
[斯坦福大学2014
机器学习教程
笔记]第四章-正规方程
到目前为止,我们一直在使用梯度下降法来求解(通过一步步迭代来收敛到全局最小值)。相反地,正规方程提供的一种求解θ的解法。所以我们不再需要运行迭代算法,而是可以直接一次性求解θ的最优值。事实上,正规方程也有优点,也有一些缺点。但在讲它的优缺点和如何使用正规方程之前,让我们先对这个算法有一个直观的理解。下面我们来看一个例子。我们假设有一个非常简单的代价函数J(θ)。它就是一个实数θ的函数。所以现在假设
不爱学习的Shirley
·
2020-04-02 18:00
[斯坦福大学2014
机器学习教程
笔记]第四章-特征和多项式回归
通过之前的学习,我们知道多变量的线性回归。在这节中,将介绍一些可供选择的特征以及如何得到不同的学习算法。当选择了合适的特征后,这些算法往往是非常有效的。另外还将介绍多项式回归。它使得我们能够使用线性回归的方法来拟合非常复杂的函数,甚至是非线性函数。下面以预测房价为例。假设有两个特征,分别是房子临街宽度和房子深度(实际上相当于长?)。下面是我们想要卖出的房子的图片。然后我们就可以建立一个这样的线性回
不爱学习的Shirley
·
2020-04-01 17:00
IBM
机器学习教程
学习路径:机器学习入门级别主题类型100机器学习简介文章101使用Python和scikit-learn构建并测试您的第一个机器学习模型教程201使用Python和scikit-learn学习回归算法教程202使用Python和scikit-learn学习分类算法教程203使用Python和scikit-learn学习聚类算法教程此学习路径是为想要快速熟悉机器学习的所有人而设计的。此学习路径包括若
-零
·
2020-04-01 12:00
[斯坦福大学2014
机器学习教程
笔记]第四章-多元梯度下降法演练Ⅱ:学习率
在这节中,我们将集中讨论学习率α。这是梯度下降算法的更新规则。在这节中,我们将学习调试(Debugging)是什么以及一些小技巧来确保梯度下降法是在进行正常工作的。此外,我们还将学习如何选择学习率α。梯度下降算法所做的事情就是为你找到一个θ值,并且希望它能够最小化代价函数J(θ)。因此,通常在梯度下降算法运行时,描出代价函数J(θ)的值。在这里x轴不再表示参数向量θ,这里的x轴表示的是梯度下降算法
不爱学习的Shirley
·
2020-03-31 18:00
[斯坦福大学2014
机器学习教程
笔记]第四章-多元梯度下降法演练Ⅰ:特征缩放
在本节和下一节中,我们将介绍一下梯度下降运中的实用技巧。本节主要介绍一个称为特征缩放的方法。这个方法如下:如果你有一个机器学习问题,这个问题有多个特征。如果你能确保这些特征都处在一个相似的范围(即不同特征的取值在相近的范围内),那么这样梯度下降法就能更快地收敛。具体来说,假如现在有一个具有两个特征的问题,其中x1是房屋大小,取值为0-2000,x2是卧室的数量,取值为1-5。如果我们画出代价函数J
不爱学习的Shirley
·
2020-03-31 17:00
[斯坦福大学2014
机器学习教程
笔记]第四章-多元梯度下降法
在这节中,我们将介绍如何设定该假设的参数,我们还会讲如何使用梯度下降法来处理多元线性回归。首先,我们回顾一下上节的知识点。假设形式:hθ(x)=θTX=θ0x0+θ1x1+θ2x2+θ3x3+……+θnxn。(x0=1)参数:θ0,θ1,θ2,……,θn。我们也可以把它想象成一个n+1维向量。代价函数:J(θ0,θ1,……,θn)=(1/2m)Σ(hθ(xi)-yi)2。(通过误差项的平方和来给定
不爱学习的Shirley
·
2020-03-31 16:00
[斯坦福大学2014
机器学习教程
笔记]第四章-多元线性回归的多特征量情况下的假设形式
在这节中,我们将开始讨论一种新的线性回归的版本。这是一种更为有效的形式,这种形式适用于多个变量或者多特征量的情况。在我们之前的学习中,我们只有一个单一特征变量x(如下面例子中的房屋面积),我们希望用这个特征量来预测y(如下面例子中的房屋价格)。我们的假设就为hθ(x)=θ0+θ1x。但是,我们在很多时候我们不仅有房屋面积这一个特征来预测房屋价格,我们还会有卧室的数量、楼层的数量和房子的年龄多个特征
不爱学习的Shirley
·
2020-03-31 14:00
[斯坦福大学2014
机器学习教程
笔记]第三章-逆和转置
在这节中,将介绍一些特殊的矩阵运算,也就是矩阵的逆运算以及矩阵的转置运算。矩阵的逆:假设我们有矩阵A,矩阵A是一个m×m矩阵,如果有逆矩阵,则AA-1=A-1A=I。A的逆矩阵写成A-1。只有m×m矩阵才有逆矩阵,m×m矩阵也被称为方阵。这类矩阵的行数和列数相等。下面我们看一个例子。那么怎么求逆矩阵呢?现在已经很少人用笔算了,我们可以通过一些软件(如Octave、Matlab)来求解。要注意的是:
不爱学习的Shirley
·
2020-03-30 21:00
[斯坦福大学2014
机器学习教程
笔记]第三章-矩阵乘法特征
矩阵乘法运算非常实用,因为你可以大量运算打包,然后用一次矩阵的乘法运算。但是要注意如何使用这个方法。在这节中,我们将介绍一些矩阵乘法的特性。实数的乘法或者说标量的乘法是可交换的。如:3×5=5×3。在这个乘法运算中顺序是不太重要的。但是,在矩阵中并不能交换顺序。即A×B≠B×A。下面看一个例子。显然,顺序不一样会导致结果不一样。所以,在通常情况下,如果要做一个矩阵运算,比如A×B,如果A是一个m×
不爱学习的Shirley
·
2020-03-30 20:00
[斯坦福大学2014
机器学习教程
笔记]第三章-矩阵乘法
本节主要讲的是矩阵与矩阵的乘法。我们讨论的这种方法在线性回归中用以同时解决θ1和θ0的计算问题,而不需要梯度下降法。首先我们先来看一个例子,比方说我有下面两个矩阵,现在我们要计算它们相乘之后的结果。上面这个例子中,一个2×3的矩阵与一个3×2的矩阵相乘得到的是一个2×2的矩阵。接下来,我们讲一下矩阵相乘的规则。接下来,让我们再来看一个例子。下面,我们假设我们要预测四个房子的价格,但是我们现在只有三
不爱学习的Shirley
·
2020-03-30 19:00
[斯坦福大学2014
机器学习教程
笔记]第三章-矩阵向量乘法
在这一节中,我们会讲如何将两个矩阵相乘。首先我们先从特例讲起,从矩阵向量相乘开始,即一个矩阵与一个向量相乘。下面来看一个例子。左边是一个矩阵,右边是一个向量。我们不难发现一个3×2的矩阵乘以一个2乘1的矩阵(或者说是二维向量)得到的结果是一个3×1的矩阵。具体的计算规则如下图所示。下面让我们再看一个例子。假设我们有四间房子,它们的大小不一样。我们有个函数可以预测房子的价格,我们需要计算每个房子对应
不爱学习的Shirley
·
2020-03-30 18:00
[斯坦福大学2014
机器学习教程
笔记]第三章-矩阵和向量
在本节中,我们会将矩阵和向量的概念。矩阵是指由数字组成的矩形阵列,并写在方括号内。矩阵也可以说是二维数组的另一种说法。下面是一些矩阵的例子。另外一个要注意的地方是:矩阵的维数=矩阵的行数×矩阵的列数。如上图的例子,左侧的矩阵是一个4×2的矩阵,右侧是一个2×3的矩阵。有的时候还会有另外一种表示方式。这个表示所有4×2的矩阵的集合,右侧的矩阵就可以看成是其中的一个元素。这种表示方式一般都是指定一个特
不爱学习的Shirley
·
2020-03-30 16:00
[斯坦福大学2014
机器学习教程
笔记]第二章-梯度下降线性回归
上一节中,我们讲了梯度下降算法,这一节我们将要将梯度下降和代价函数结合得到线性回归算法。它可以用直线模型来拟合数据。首先我们来回顾一下之前的知识点。左侧为梯度下降法,右侧为线性回归模型(包括线性假设和平方差代价函数)。我们要做的就是将梯度下降法应用到最小化平方差代价函数。为了应用梯度下降法,我们要弄清楚公式中的导数项。当我们计算完后,我们将它们代回到我们的梯度下降算法中。我们就会得到如下所示的式子
不爱学习的Shirley
·
2020-03-30 12:00
[斯坦福大学2014
机器学习教程
笔记]第二章-梯度下降的直观理解
在上一节中,我们给出了一个梯度下降的数学定义。在这节中,我们将更直观地感受一下这个算法是做什么的以及梯度下降算法的更新过程有什么意义。这个是我们上一节所讲的梯度下降算法。让我们先简单回顾一下。α是什么?参数α是被称为学习速率。它控制我们以多大的幅度更新这个参数θj。第二部分是一个导数项。接下来我们将主要讲这两部分分别是干什么的以及为什么要将这两部分放到一起。为了更好的理解,我们先举一个较为简单的例
不爱学习的Shirley
·
2020-03-30 11:00
[斯坦福大学2014
机器学习教程
笔记]第二章-梯度下降
之前我们已经讲了代价函数了,这节我们讲代价函数J最小化的梯度下降法。梯度下降是很常用的算法。它不仅被用在线性回归上,还被广泛应用于机器学习的众多领域。下面是问题概述。我们有一个函数J(θ0,θ1),这也许是个线性回归的代价函数,也许是个需要最小化的其他函数。我们需要用一个算法,来最小化函数J(θ0,θ1)。实际上,梯度下降算法可以应用于更一般的函数,如J(θ0,θ1,θ2,......θn),你希
不爱学习的Shirley
·
2020-03-29 20:00
深度学习Tensorflow人工智能AI
机器学习教程
(1)
课程目录:15套详细目录:深度学习原理+顶目实战+算法详解+主流框架专题教程第一套:python数据分析和机器学习实战第二套:深度学习入门视频课程(上篇)第1章深度学习必备基础知识点{1-1深度学习与人工智能简介11:271-2计算机视觉面临挑战与常规套路09:401-3用K近邻来进行图像分类10:011-4超参数与交叉验证10:311-5线性分类09:341-6损失函数09:181-7正则化惩罚
首席科学家
·
2020-03-28 23:55
[斯坦福大学2014
机器学习教程
笔记]第二章-代价函数(2)
这一节,我们将更直观得理解代价函数的作用。首先,我们复习一下之前讲的内容。和上一节不同,这节讨论的时候保留全部参数,即θ0和θ1。现在我们有一个关于住房价格的训练集,让我们来做一些假设,假设hθ(x)=50+0.06x,画出直线如下图,显然这是一个不太好的假设,我们此时能算出J(50,0.06)的值。在上一讲中,我们得到的图形为一个曲线,在这节中我们得到的是一个3D曲面图。(纵轴坐标为θ0和θ1)
不爱学习的Shirley
·
2020-03-28 11:00
[斯坦福大学2014
机器学习教程
笔记]第二章-代价函数(1)
本节通过看一些例子直观地来理解代价函数是用来做什么的以及为什么我们要使用它。为了更好理解代价函数的概念,我们使用简化的代价函数。现在有一个训练集,训练集有三个样本。如下图所示。我们先来给θ1赋值。当θ1=1时,我们可以得到一条直线,如下图所示。我们可以计算J(1)=(1/2m)Σ(hθ(xi)-yi)2=0。当θ1=0.5时,我们可以得到一条直线,如下图所示。实际上,J(θ1)是下图所画直线平方和
不爱学习的Shirley
·
2020-03-28 09:00
[斯坦福大学2014
机器学习教程
笔记]第二章-代价函数的数学定义
在这节,我们将定义代价函数的概念,这有助于我们弄清楚怎么样将最有可能的直线与数据相拟合。下面我们看一个例子。在线性回归中,我们有这样一个训练集。根据上一节的定义,我们知道m=47,而我们的假设函数的函数形式为hθ(x)=θ0+θ1x。这些θi被称为模型参数。而我们要做的就是如何选择这两个参数值θ0和θ1。选择不同的θ0和θ1,我们会得到不同的假设函数(如下图)。在线性回归中,我们有一个训练集,我们
不爱学习的Shirley
·
2020-03-27 19:00
[斯坦福大学2014
机器学习教程
笔记]第二章-模型描述
我们第一个学习算法是线性回归算法,在这节中,你会看到这个算法的概况,更重要的是你会了解整个监督学习过程。下面我们来举一个例子,我们要根据不同房屋尺寸所售出的价格,画出我的数据集。比方说,如果你朋友的房子是1250平方尺大小,你要告诉他这房子能卖多少钱。那么,你可以做的一件事就是构建一个模型,也许是条直线,从这个数据模型上来看,也许你可以告诉你的朋友,他能以大约220000(美元)左右的价格卖掉这个
不爱学习的Shirley
·
2020-03-27 16:00
[斯坦福大学2014
机器学习教程
笔记]第一章-引言(2)
本篇主要内容:无监督学习。(2)无监督学习在监督学习的时候,我们举的例子里,数据集中每条数据都标明是阴性或者是阳性。在无监督学习中,我们所给出的数据都是没有任何标签的或者是都是有着相同标签的。在这时,我们得到了一个数据集,但是我们并不知道要拿它来做什么,也不知道每个数据点究竟是什么。我们只是被告知,这里有个数据集,你能在其中找到某种数据结构吗?对于某个特定的数据集,无监督学习算法可能判定该数据集包
不爱学习的Shirley
·
2020-03-27 12:00
[斯坦福大学2014
机器学习教程
笔记]第一章-引言(1)
本篇主要内容为:机器学习的定义、监督学习什么是机器学习?ArthurSamuel将机器学习定义为:在没有明确设置的情况下,使计算机具有学习能力的研究领域。他编写了一个西洋棋程序,他虽然不是西洋棋高手,但是程序通过跟自己下上万盘棋以此来观察哪种布局容易赢,哪种布局容易输,以此来得出哪种布局会更好,哪种布局更差。最后程序玩得比他自己还要好。这是有点不正式、也是比较陈旧的一个定义。下面是一个更新的定义。
不爱学习的Shirley
·
2020-03-26 20:00
机器学习第一步,这是一篇手把手的随机森林入门实战
选自TowardsDataScience作者:AlexanderCheng机器之心编译参与:高璇、思到了2020年,我们已经能找到很多好玩的
机器学习教程
。
数据分析v
·
2020-03-16 08:03
day3- 斯坦福大学2014(吴恩达)
机器学习教程
中文笔记
R1D3(第一轮第三天)2018年9月30日星期日今天的进展:斯坦福大学2014(吴恩达)
机器学习教程
中文笔记课程地址:https://www.coursera.org/course/ml笔记在线阅读课程介绍机器学习视频下载链接
iOSDevLog
·
2020-03-06 05:58
适合各类人群的
机器学习教程
近年来人们对机器学习的认识也越来越多,很多人都希望学习相关的知识。但机器学习不是一个容易学习的领域,需要选择适合自己难度的学习资料。这里简单地将学习深度分为三个阶段,建议选择适合自己的难度。三个阶段为:初级:了解:机器学习是什么?了解机器学习的应用,并对机器学习有较为概念性的了解。适合非机器学习相关专业、希望对机器学习有大概了解的人群,比如产品经理。中级:应用:怎么实现机器学习?能使用编程语言编写
Laputia
·
2020-03-01 18:06
机器学习教程
系列二:TensorFlow快速开始
2.TensorFlow快速开始请先下载Kittenblock1.79或以上版本,点击左下角的扩展插件之后可以在列表中找到TensorFlow的插件。加载插件之后我们会看到TensorFlow有茫茫多的方块,不要害怕我们会在接下来的教程中讲解每个方块的作用。其实TensorFlow有更多的功能我们都没有将其图形化,这里的方块其实只是完整的TensorFlow引擎的冰山一角,但是足够完成我们平时的大
小喵编程教育
·
2020-02-29 02:18
第五章 机器是如何学习的
一什么是
机器学习教程
原文:机器学习就是让计算机程序(机器),不是通过人类直接指定的规则,而是通过自身运行,习得(学习)事物的规律,和事物间的关联。
merlinCry
·
2020-02-22 09:02
简明
机器学习教程
——实践篇(一):从感知机入手
建议你移步至我的博客阅览:KAAAsS‘sBlog-简明
机器学习教程
本篇教程的目标很明显,就是实践。进一步的来说,就是,当你学到了一些关于机器学习的知识后,怎样通过实践以加深对内容的理解。
KAAAsS
·
2020-02-12 14:36
机器学习教程
之3-逻辑回归(logistic regression)的sklearn实现
0.概述线性回归不仅可以做回归问题的处理,也可以通过与阈值的比较转化为分类的处理,但是其假设函数的输出范围没有限制,这样很大的输出被分类为1,较少的数也被分为1,这样就很奇怪。而逻辑回归的假设函数的输出范围是0~1。当数据集中含有误差点时,使用线性回归相应的误差也会很大。逻辑回归其实是分类算法,但是由于历史原因被称为逻辑回归。逻辑回归的假设函数以线性回归的假设函数为基础,通过S形函数进行复合形成的
东郭先生李
·
2020-02-05 20:00
深度学习和机器学习的视频和书单
deeplearning_ai#/c黄海广博士提供的视频的字幕地址:https://github.com/fengdu78/deeplearning_ai_books1.2机器学习斯坦福大学2014(吴恩达)
机器学习教程
课程地址
xuyaoli
·
2020-01-08 08:54
VMware安装Linux时'Operating System Not Found'的解决方法
我的
机器学习教程
「美团」算法工程师带你入门机器学习已经开始更新了,欢迎大家订阅~任何关于算法、编程、AI行业知识或博客内容的问题,可以随时扫码关注公众号「图灵的猫」,加入”学习小组“,沙雕博主在线答疑~
图灵的猫
·
2020-01-02 12:00
[NLP自然语言处理]谷歌BERT模型深度解析
我的
机器学习教程
「美团」算法工程师带你入门机器学习已经开始更新了,欢迎大家订阅~任何关于算法、编程、AI行业知识或博客内容的问题,可以随时扫码关注公众号「图灵的猫」,加入”学习小组“,沙雕博主在线答疑~
图灵的猫
·
2020-01-02 12:00
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他