E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CH4-李宏毅机器学习
李宏毅机器学习
笔记4:Brief Introduction of Deep Learning、Backpropagation(后向传播算法)
李宏毅老师的机器学习课程和吴恩达老师的机器学习课程都是都是ML和DL非常好的入门资料,在YouTube、网易云课堂、B站都能观看到相应的课程视频,接下来这一系列的博客我都将记录老师上课的笔记以及自己对这些知识内容的理解与补充。(本笔记配合李宏毅老师的视频一起使用效果更佳!)Lecture6:BriefIntroductionofDeepLearning本节课主要围绕DeepLearing三步骤:(
控球强迫症
·
2019-03-29 09:00
台大
李宏毅机器学习
公开课2019版上线
转载自:机器之心机器之心编辑参与:思源、泽南台大教授李宏毅的机器学习课程经常被认为是中文开放课程中的首选。李教授的授课风格风趣幽默,通俗易懂,其课程内容中不仅有机器学习、深度学习的基础知识,也会介绍ML领域里的各种最新技术。近日,2019版的课程资料与视频终于上线了!课程资料链接:http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML19.html课程视频(B
spearhead_cai
·
2019-03-19 08:00
李宏毅机器学习
(十二)Tips for DeepLearning
深度学习秘籍我们都知道深度学习分下图红框中的3步,然后我就就形成了自己的神经网络,我们就直接拿去测试集上实验吗,不,我们先要保证在训练集上有比较好的效果,否则训练集误差都比较大,那就说明之前的步骤有问题,导致整体有偏差,我们需要修改直到我们在训练集上有比较满意的结果,然后我们才可以在测试集测试,如果测试集上是比较好的效果,那我们的模型训练至此结束,如果不行,那就是训练集好测试集不好,就是过拟合了,
ca8519be679b
·
2019-03-14 20:11
李宏毅机器学习
笔记1:Regression、Error
李宏毅老师的机器学习课程和吴恩达老师的机器学习课程都是都是ML和DL非常好的入门资料,在YouTube、网易云课堂、B站都能观看到相应的课程视频,接下来这一系列的博客我都将记录老师上课的笔记以及自己对这些知识内容的理解与补充。(本笔记配合李宏毅老师的视频一起使用效果更佳!)今天这篇文章的主要内容是第1-2课的笔记。MLLecture1:Regression-Demo1.MachineLearnin
weixin_33896726
·
2019-03-13 10:00
李宏毅机器学习
(五)梯度下降
梯度下降TIP1:调整你的学习率下图左侧为loss曲线和选取学习率对应的情况,红色为选的刚好,蓝色选的比较小,所以需要很长时间来找到最低点,绿色较大导致在一定范围内震荡,黄色太大导致loss反而增大当然参数不一定是一个维度的,如果是高维度就不能单纯的把所有参数用可视曲线分析,我们这里就把每个参数和loss的影响做一个曲线,同样可以看出关系插图1我们可以为了找到最小值点,同时又为了保证一定的效率,可
ca8519be679b
·
2019-03-10 14:47
李宏毅机器学习
(三)回归实例
老师举的样例提出实际运行regression可能遇到的困难样例中初始x,y的数据为x_data,y_data,x,y,Z用于标出损失函数等高线,b,w为初始值为-120,-4,指定学习率lr=0.0000001,迭代次数iteration=100000画图中在最终实际参数w,b的位置画上了橘黄色的X,每次迭代画出历史w,b的位置插图1插图2插图3代码段(不得不吐槽没有好的程序块插入,行间隔太长了)
ca8519be679b
·
2019-03-08 10:21
李宏毅机器学习
Regression
文章目录1.Regression2.ExampleApplication3.Step3.1Step1:模型3.2Step2:函数的评估标准3.3Step3:最优函数4.梯度下降存在的问题5.线性回归中的梯度下降5.1单变量到多变量5.2正则化1.RegressionRegression(回归)的思想可以解决生活中的很多难题。比如根据过去的股票价格和时下的新闻资讯(NLP),从而预测未来的股票价格。
herosunly
·
2019-03-04 16:23
李宏毅机器学习
回归
Regression
李宏毅机器学习
Task1.1 Introduction
参考:https://blog.csdn.net/dukuku5038/article/details/82347021https://github.com/dafish-ai/NTU-Machine-learninghttps://blog.csdn.net/soulmeetliang/article/details/77461607https://blog.csdn.net/soulmeetl
dujiahei
·
2019-02-19 11:39
李宏毅机器学习
入门学习笔记(一)Regression - Case Study
文章目录课程简介回归定义和应用例子回归定义应用举例模型建立的3个基本步骤Pokemon精灵攻击力预测建模详细步骤Step1:模型假设-线性模型一元线性模型(单个特征)多元线性模型(多个特征)Step2:模型评估-损失函数(Goodnessoffunction)收集和查看训练数据如何判断众多模型的好坏Step3:最佳模型-梯度下降(GrdientDescent)如何筛选最优的模型(参数w,b)梯度下
DataScience
·
2019-02-18 12:40
Machine
Learning
Python
Excel
Analysis
《李宏毅机器学习》读书笔记
强化学习 - 小车爬山
以前主要是关注机器学习相关的内容,最近需要看
李宏毅机器学习
视频的时候,需要了解到强化学习的内容。本文章主要是关注【强化学习-小车爬山】的示例。
Spareribs
·
2019-02-14 23:08
softmax cross entropy loss 与 sigmoid cross entropy loss的区别
要了解两者的区别,当然要先知道什么是softmax,sigmoid,和crossentropy(交叉熵)了:1、softmax:图片来源:
李宏毅机器学习
课程sotfmax其实很简单,就是输入通过一个函数映射到
爱因斯坦爱思考
·
2019-02-06 23:55
深度学习
李宏毅机器学习
hw1预测PM2.5代码实现
`#authorbylixinyue#分析数据:训练数据,给了12个月的数据,每个月记录前20天,每一天记录18种物质24个整点时的值;#总共预测240笔数据,给出了18种物质某9个小时的值,求第10个小时的PM2.5#model,根据预测要求,根据前9小时求第10小时的PM2.5,特征确定为某9个小时的18中物质的含量,共162维;从训练集、测试集中构造训练特征矩阵、测试特征矩阵#构造权值向量(
极致 for 简单
·
2019-01-24 12:59
机器学习
反向传播(Backpropagation)算法详解
反向传播(backpropagation)算法详解反向传播算法是神经网络的基础之一,该算法主要用于根据损失函数来对网络参数进行优化,下面主要根据
李宏毅机器学习
课程来整理反向传播算法,原版视频在https
Flyingzhan
·
2018-11-05 15:10
深度学习
李宏毅机器学习
PTT的理解(1)深度学习的介绍
深度学习的介绍机器学习就像是寻找一个合适的函数,我们输入数据就可以得到想要的结果,比如:在语音识别中,我们输入一段语音,函数的输出值就是识别的结果;在图像识别中,输入一张照片,函数可以告诉我们分类的结果;在围棋游戏中,输出的下一步落子的位置等。学习的框架大致如下:创建的模型可以看成是一系列的函数,输入我们的训练数据后,计算代价函数的值,选择一个最好的函数形式用于我们的模型,然后在测试集上进行测试,
Forlogen
·
2018-10-19 16:50
Deep
Learning
李宏毅系列课程
李宏毅机器学习
笔记
2018.10.09开始看李宏毅的机器学习课,把重要的笔记记下来各种模型之间的关系10月10日为什么要使用Regulation正则项目的:使目标函数尽可能的平滑,尽量使Wi小一点Wi小的比较好(因为输入值有很大变化,对输出的影响相对没有那么大)λ越大,函数越平滑但是λ太大了,就太平滑,不能正确拟合函数了正则项不考虑b,因为b对函数的平滑程度没有影响10月11日biasVSvariancebias:
This_is_alva
·
2018-10-09 09:06
Deep
learning
李宏毅机器学习
笔记(1)-Regression
李宏毅机器学习
笔记(1)-Regression视频来自
李宏毅机器学习
2017·1-Regression,笔记个人学习用回归回归:预测有“问题”,有“答案”的例子,如房价预测,“问题”就是有关房子的多个变量
jamisoul95
·
2018-10-08 11:11
Machine
Learning
学习之乐土
TensorFlow实现RNN,原理到代码,非常详细RNN一个学生写的深度学习博客TensorFlowTensorFlowExample对于入门者非常有帮助我的TensorFlow学习之路机器学习李宏毅官方课程
李宏毅机器学习
cb_guo
·
2018-09-20 10:06
李宏毅机器学习
课程--回归(Regression)
近期在学习李宏毅老师的机器学习视频(https://www.bilibili.com/video/av10590361/?p=4),下面写一下自己的心得体会。李老师用的是精灵宝可梦做的比喻,假设进化后的宝可梦的cp值(CombatPower)与未进化之前的宝可梦的cp值相关,我们想找出这两者之间的函数关系,可以设进化后的cp值为y,进化之前的cp值为x:y=b+w*x(不只可以设一次项,还可以设置
Cossper
·
2018-09-12 21:18
机器学习
李宏毅机器学习
课程--回归(Regression)
近期在学习李宏毅老师的机器学习视频(https://www.bilibili.com/video/av10590361/?p=4),下面写一下自己的心得体会。李老师用的是精灵宝可梦做的比喻,假设进化后的宝可梦的cp值(CombatPower)与未进化之前的宝可梦的cp值相关,我们想找出这两者之间的函数关系,可以设进化后的cp值为y,进化之前的cp值为x:y=b+w*x(不只可以设一次项,还可以设置
Cossper
·
2018-09-12 21:18
机器学习
16、【
李宏毅机器学习
(2017)】Unsupervised Learning: Deep Auto-encoder(无监督学习:深度自动编码器)
本篇博客将介绍无监督学习算法中的DeepAuto-encoder。目录DeepAuto-encoderDeepAuto-encoder的降维作用Auto-encoder–TextRetrievalAuto-encoderforCNNAuto-encoder–Pre-trainingDNNDecoderDeepAuto-encoder输入28*28维度的图像像素,由NNencoder输出code,c
Jimmyzqb
·
2018-08-29 11:56
学习笔记
李宏毅机器学习(2017)
笔记
15、【
李宏毅机器学习
(2017)】Unsupervised Learning: Neighbor Embedding(无监督学习:邻域嵌套)
上一篇博客介绍了无监督学习在文字中的降维方法——WordEmbedding,本篇博客将继续介绍无监督学习算法的降维方法——NeighborEmbedding。目录LocallyLinearEmbedding(LLE)LaplacianEigenmapsT-distributedStochasticNeighborEmbedding(t-SNE)t-SNE算法t-SNE–SimilarityMeas
Jimmyzqb
·
2018-08-29 11:04
学习笔记
李宏毅机器学习(2017)
笔记
14、【
李宏毅机器学习
(2017)】Unsupervised Learning: Word Embedding(无监督学习:词嵌入)
上一篇博客介绍了无监督学习中的线性降维方法,本篇博客将继续介绍无监督学习在文字中的降维方法——WordEmbedding。目录WordEmbeddingWordEmbedding介绍利用上下文CountbasedPerditionbasedWordEmbeddingWordEmbedding介绍WordEmbedding希望通过训练大量的材料(结合上下文关系),将词汇描述成一个向量。一种最简单的词
Jimmyzqb
·
2018-08-29 11:16
学习笔记
李宏毅机器学习(2017)
笔记
13、【
李宏毅机器学习
(2017)】Unsupervised Learning: Linear Dimension Reduction(无监督学习:线性降维)
在前面的博客中介绍了监督学习和半监督学习,本篇博客将开始介绍无监督学习。目录无监督学习介绍监督学习、半监督学习、无监督学习无监督学习的用处聚类(Clustering)K均值聚类HierarchicalAgglomerativeClustering(HAC)降维(DimensionReduction)FeatureselectionPrincipleComponentAnalysis(PCA)PCA
Jimmyzqb
·
2018-08-29 11:01
学习笔记
李宏毅机器学习(2017)
笔记
12、【
李宏毅机器学习
(2017)】Semi-supervised Learning(半监督学习)
在前面的博客中主要介绍的算法全部都是监督学习的算法,接下来的博客将开始介绍半监督学习算法。目录半监督学习介绍半监督学习与监督学习半监督学习的用处Semi-supervisedLearningforGenerativeModel监督学习中的概率生成模型(SupervisedGenerativeModel)半监督学习中的概率生成模型(Semi-supervisedGenerativeModel)半监督
Jimmyzqb
·
2018-08-29 10:44
学习笔记
李宏毅机器学习(2017)
笔记
10、【
李宏毅机器学习
(2017)】Convolutional Neural Network(卷积神经网络)
上一篇博客介绍了神经网络构建的整个过程以及优化思路,本篇博客将进一步介绍卷积神经网络(CNN,ConvolutionalNeuralNetwork)。目录WhyCNN?CNN模型ConvolutionMaxPoolingConvolution+MaxPoolingKeras实战演练WhyCNN?CNN本质是原来full-connected神经网络的简化,参数大大减少,因此计算的效率比较高,且在一定
Jimmyzqb
·
2018-08-29 09:24
学习笔记
李宏毅机器学习(2017)
笔记
9、【
李宏毅机器学习
(2017)】Tips for Deep Learning(深度学习优化)
在上一篇博客中介绍了Keras,并使用Keras训练数据进行预测,得到的效果并不理想,接下来将以此为基础优化模型,提高预测的精度。目录误差分析模型误差原因分析模型优化方案NewactivationfunctionVanishingGradientProblemReLUMaxoutMaxout介绍Maxiout方法的训练AdaptiveLearningRateAdagradRMSPropMoment
Jimmyzqb
·
2018-08-29 09:18
学习笔记
李宏毅机器学习(2017)
笔记
8、【
李宏毅机器学习
(2017)】Keras
上一篇博客介绍了反向传播算法的理论部分,这一篇博客将利用python的模块Keras开始神经网络算法的实战。目录Keras介绍Keras使用step1step2step3使用keras模型进行预测神经网络中参数batch_size与nb_epoch介绍batch_size不同大小对计算耗时的影响batch_size不同大小对计算的影响原因Keras2.0Keras实战Keras介绍常用的神经网络模
Jimmyzqb
·
2018-08-28 20:52
学习笔记
李宏毅机器学习(2017)
笔记
7、【
李宏毅机器学习
(2017)】Backpropagation(反向传播算法)
上一篇博客介绍了深度学习的历史和思想,本篇博客将介绍在神经网络计算中常用的反向传播算法。目录复习GradientDescent链式求导法则Backpropagation反向传播算法介绍前向传播算法和反响传播算法复习GradientDescent在学习反向传播算法之前重新回归一下梯度下降算法,在神经网络求解最优化Lossfunction所使用的方法就是梯度下降算法,反向传播算法能够在神经网络计算中更
Jimmyzqb
·
2018-08-28 19:15
学习笔记
李宏毅机器学习(2017)
笔记
6、【
李宏毅机器学习
(2017)】Brief Introduction of Deep Learning(深度学习简介)
在上一篇博客逻辑回归基础上已经引出了神经网络(深度学习)的概念,在这篇博客中将进一步介绍时下如日中天的话题——深度学习。目录历史回顾ThreeStepsforDeepLearningstep1FullyConnectFeedforwardNetwork举例step2step3为什么需要深度学习历史回顾ThreeStepsforDeepLearning类似机器学习的三步骤,深度学习同样按照这一逻辑分
Jimmyzqb
·
2018-08-28 19:22
学习笔记
李宏毅机器学习(2017)
笔记
5、【
李宏毅机器学习
(2017)】Logistic Regression(Logistic回归)
本篇博客将在分类模型基础上继续,并开始学习一种常用的分类算法——Logistic回归,同样按照机器学习简介中机器学习建模步骤。目录step1step2step3LogisticRegression与LinearRegression差异为什么在Logistic回归中使用Crossentropy而非MSE做模型选择的标准?Multi-classClassificationDiscriminativev
Jimmyzqb
·
2018-08-28 14:03
学习笔记
李宏毅机器学习(2017)
笔记
3、【
李宏毅机器学习
(2017)】Gradient Descent(梯度下降)
本节课将深入学习机器学习简介中机器学习建模步骤3中优化方法GradientDescent(梯度下降)。目录梯度下降算法介绍自动调整学习速率学习速率对算法的影响Adagrad随机梯度下降FeatureScaling理论部分梯度下降算法的限制梯度下降算法介绍自动调整学习速率学习速率对算法的影响如果学习速率适合,那么优化Lossfunction的路径应该如红色线段;如果学习速率过大,那么优化Lossfu
Jimmyzqb
·
2018-08-28 12:07
学习笔记
李宏毅机器学习(2017)
笔记
1、【
李宏毅机器学习
(2017)】Regression - Case Study(回归-案例分析)
本篇博客将按照机器学习简介中机器学习建模步骤,结合宝可梦(神奇宝贝)具体数据进行案例分析。目录Objectivestep1:Modelstep2:GoodnessofFunctionstep3:BestFunctiondemoObjective通过训练宝可梦属性的历史数据构建回归模型,输入宝可梦进化前的属性数据,预测宝可梦进化后的CombatPower(CP)。step1:Model假设进化前的x
Jimmyzqb
·
2018-08-28 12:34
学习笔记
李宏毅机器学习(2017)
笔记
机器学习&深度学习入门历程
后来工作调动开始接触机器学习,caffe和tensorflow,主要是一些功能使用以及caffe源码学习修改,这段时间闲下来,总结下个人的学习经历:1.初期个人兴趣时候,看一些视频学习入门:1)B站:
李宏毅机器学习
深度学习讲的很细
hello小崔
·
2018-08-03 22:08
机器学习
《机器学习实战》ch1 ~ ch15 笔记目录
《机器学习实战》笔记(一):Ch1-机器学习基础《机器学习实战》笔记(二):Ch2-k-近邻算法《机器学习实战》笔记(三):Ch3-决策树《机器学习实战》笔记(四):
Ch4-
基于概率论的分类方
Lornatang
·
2018-05-23 17:44
李宏毅机器学习
笔记-12.3 循环神经网络(Recurrent Neural Network-RNN)- part 3
RecurrentNeuralNetwork(RNN)-循环神经网络(part3)GatedRNN0前言其实这节课的内容跟我其他这个系列的博客是不属于同一个课程的,但是因为是在B站看的视频,up主可能不小心弄混了,于是我就也一起看了,多学点总没什么错。虽然不是同一门课,但是确实是同一个老师,也是极其学习的内容,所以就当做一门课也没什么差别。这里给出这节课内容所属的课程网站AppliedDeepLe
MemoryD
·
2018-05-18 21:32
机器学习
李宏毅机器学习
笔记-10 卷积神经网络(Convolutional Neural Network-RNN)
ConvolutionalNeuralNetwork(CNN)1为什么用CNN识别图像1.1使用DNN的缺陷当我们用一般的全连接神经网络处理图像时,可能是这样子:第一层识别一些最基础的线条、特定方向的边界等等之类的最基本的模式。第二层就开始基于第一层的基础识别一些复杂一些的模式。往后的层以此类推,直至识别出一个预期中的目标。是我们这样直接处理的话,往往参数会太多,处理一张100*100像素的图像就
MemoryD
·
2018-05-18 13:23
机器学习
李宏毅机器学习
笔记-12.2 循环神经网络(Recurrent Neural Network-RNN)- part 2
RecurrentNeuralNetwork(RNN)-循环神经网络(part2)1训练RNN1.1定义Loss如上图中,每一个单词对应一个Slot,将句子按顺序丢进Network中,产生一个输出y,将每个y与预期的正确输出做crossentropy,然后累加起来,就是最终的Loss。(注意,顺序不能打乱)。1.2学习(learning)定义完Lossfuntion以后,就可以开始训练了,这次我们
MemoryD
·
2018-05-17 19:13
机器学习
李宏毅机器学习
笔记-12.1 循环神经网络(Recurrent Neural Network-RNN)- part 1
RecurrentNeuralNetwork(RNN)-循环神经网络(part1)1从一个例子说起假设要做一个智能客服系统或者智能订票系统之类的,需要用到一个叫做SlotFilling的技术,举个例子,如果做一个人对智能订票系统说”IwouldliketoarriveTaipeionNovember2nd“。那么你的系统会有一些Slot,在这里应该是Destination和timeofarriva
MemoryD
·
2018-05-17 11:44
机器学习
台湾-李宏毅教授的深度学习视频教程
该视频教程共分成5个部分:
李宏毅机器学习
(2017)https://www.bilibili.com/video/av10590361?
opengel
·
2018-03-31 21:45
计算机
深度学习
2018-3-19
李宏毅机器学习
视频学习笔记九----Classification: Probabilistic Generative Model
视频来源:
李宏毅机器学习
(2017)_哔哩哔哩(゜-゜)つロ干杯~-bilibilihttps://www.bilibili.com/video/av10590361/?
橘子甜不甜
·
2018-03-19 20:27
机器学习
李宏毅机器学习
:RNN(上)
以订票系统中的SlotFilling为例,我们希望订票系统听到用户说:”IwouldliketoarriveTaipeionNovember2nd.”时做好SlotFilling,即识别出语音中Taipei属于Destination这个slot,November2nd属于Timeofarrival这个slot,而其它词汇不属于任何slot。能否用Feedforwardnetwork解决这一问题呢?
sinat_32279627
·
2018-03-08 09:44
深度学习
李宏毅机器学习
笔记(五)-----Where does the error come from
视频来源:
李宏毅机器学习
(2017)_哔哩哔哩(゜-゜)つロ干杯~-bilibilihttps://www.bilibili.com/video/av10590361/?
橘子甜不甜
·
2018-03-02 12:58
机器学习
李宏毅机器学习
2016 第二十二讲 循环神经网络RNN
视频链接:
李宏毅机器学习
(2016)_演讲•公开课_科技_bilibili_哔哩哔哩课程资源:Hung-yiLee课程相关PPT已经打包命名好了:链接:https://pan.baidu.com/s/1c3Jyh6S
Joe-Peng_hitsz
·
2018-01-21 16:47
机器学习_Hungyi
Lee
2016
机器学习Hung-yi
Lee
2016
深度学习 -> 强化学习 ->迁移学习(杨强教授报告)
转自:http://blog.csdn.net/jiandanjinxin/article/details/54133521
李宏毅机器学习
课程-TransferLearning深度学习->强化学习->迁移学习
haima1998
·
2018-01-18 13:52
deep
learning
李宏毅机器学习
课程-Transfer Learning
深度学习->强化学习->迁移学习(杨强教授报告)
李宏毅机器学习
课程-TransferLearning迁移学习-吴恩达freeze待处理的理解深层神经网络中的迁移学习及TensorFlow实现TransferLearning
帅气的弟八哥
·
2017-12-13 09:30
机器学习
李宏毅学习机器
Transfer
Learning
[机器学习入门]
李宏毅机器学习
笔记-20 (Deep Generative Model-part 3:深度生成模型-part 3)
[机器学习入门]
李宏毅机器学习
笔记-20(DeepGenerativeModel-part3:深度生成模型-part3)PDFVIDEO上接part2,VAE从来没有去学习产生一张看起来能以假乱真的image
holeung
·
2017-12-11 13:49
[机器学习入门]
李宏毅机器学习
笔记-27(Structured SVM part 2;结构化支持向量机 part 2)
[机器学习入门]
李宏毅机器学习
笔记-27(StructuredSVMpart2;结构化支持向量机part2)PDFVIDEOStructureSVM接上篇这里写图片描述Regularization这里写图片描述番外篇
holeung
·
2017-11-10 11:34
[机器学习入门]
李宏毅机器学习
笔记-22(Transfer Learning part 2;迁移学习 part 2)
[机器学习入门]
李宏毅机器学习
笔记-22(TransferLearningpart2;迁移学习part2)PDFVIDEO接part1第四象限Targetdataunlabelled,SourceDatalabelledZero-shotlearning
holeung
·
2017-11-10 11:02
李宏毅机器学习
10.卷积神经网络 笔记
李宏毅机器学习
-10.卷积神经网络使用CNN处理图像的原因:性质一:Somepatternsaremuchsmallerthanthewholeimage(如鸟的图像中有鸟嘴这个小pattern).Aneurondoesnothavetoseethewholeimagetodiscoverthepattern.Connectingtosmallregionwithlessparameters
gdymind
·
2017-09-26 07:27
机器学习
李宏毅机器学习
课程12~~~半监督学习
Semi-supervisedLearningThedistributionoftheunlabeleddatatellussomething.Usuallywithsomeassumptions.Semi-SupervisedGenerativeModel对比学习见
李宏毅机器学习
课程
帅气的弟八哥
·
2017-09-13 07:58
李宏毅学习机器
上一页
14
15
16
17
18
19
20
21
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他