E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CH4-李宏毅机器学习
李宏毅机器学习
2022年春季班马上开始,深度学习圣经《深度学习》下载。
李宏毅(Hung-yiLee)目前任台湾大学电机工程学系和电机资讯学院的助理教授,他曾于2010年和2012年分别获得台湾大学硕士和博士学位,并于2013年赴麻省理工学院(MIT)计算机科学和人工智能实验室(CSAIL)做访问学者。他的研究方向主要是机器学习(深度学习)和语音识别。李宏毅的课程深入浅出,通俗易懂,课程中引用了大量的"二次元"元素,受广大机器学习爱好者的喜爱,每次课程都引来大量的机器
机器学习手艺人
·
2022-03-03 07:13
机器学习
深度学习
人工智能
李宏毅2021年机器学习作业2(classification)实验记录
2.3Normalization2.4Dropout2.5提高epoch2.6weight_decay2.7在2.5的基础上继续提升epoch到1202.8增加模型层数2.9增大batchsize三、总结前言声明:本文参考了
李宏毅机器学习
DogDog_Shuai
·
2022-03-03 07:31
李宏毅机器学习
机器学习
pytorch
深度学习
2021
李宏毅机器学习
课程笔记——Adversarial Attack
注:这个是笔者用于期末复习的一个简单笔记,因此难以做到全面详细,有疑问欢迎大家在评论区讨论https://speech.ee.ntu.edu.tw/~hylee/ml/ml2021-course-data/attack_v3.pptxI.ExampleofAttack从某种角度来说,深度学习模型可以简单理解为各种各样的矩阵乘给叠在一起。以图像分类为例,输入的图像也是一个矩阵,那么,实际上就有可能对
xiongxyowo
·
2022-03-03 07:30
杂文
划水
2021
李宏毅机器学习
课程笔记——Domain Adaptation
注:这个是笔者用于期末复习的一个简单笔记,因此难以做到全面详细,有疑问欢迎大家在评论区讨论https://speech.ee.ntu.edu.tw/~hylee/ml/ml2021-course-data/da_v6.pptxI.WhyDomainAdaptation存在DomainShift现象:训练数据与测试数据的分布差异较大。一个例子如下所示:这就会导致我们训练的模型在遇到“未见过的不同域样
xiongxyowo
·
2022-03-03 07:30
杂文
划水
深度强化学习浅析(
李宏毅机器学习
笔记
39.深度强化学习浅析(
李宏毅机器学习
笔记深度强化学习浅析强化学习的应用场景监督v.s.强化应用举例学习一个chat-bot交互搜索更多应用例子:玩视频游戏强化学习的难点强化学习的方法Policy-based
CHEN_BR
·
2022-03-03 07:19
AI
[机器学习入门]
李宏毅机器学习
笔记-21(Transfer Learning part 1 ; 迁移学习 part 1)
[机器学习入门]
李宏毅机器学习
笔记-21(TransferLearningpart1;迁移学习part1)PDFVIDEOTransferLearning利用与task没有直接相关的data什么叫没有直接相关呢
holeung
·
2022-02-14 17:48
[
李宏毅机器学习
]机器学习介绍
李宏毅机器学习
系列文章目录人工智能是人类长远以来的一个目标,而机器学习是实现这个目标的其中一种方法,深度学习则是机器学习的一种方法。
数据医生
·
2022-02-13 02:17
Matrix Factorization
参考资料:
李宏毅机器学习
24.13UnsupervisedLearning-LinearMe(Av10590361,P24).Flv每个用户又会一定的呆、傲成分,每个物品也有一定的呆、傲成分,用户买得越多
抬头挺胸才算活着
·
2022-02-11 09:32
李宏毅机器学习
13、14-深度学习和反向传播
李宏毅机器学习
13、14-深度学习和反向传播深度学习的步骤Step1:神经网络(Neuralnetwork)Step2:模型评估(Goodnessoffunction)Step3:选择最优函数(Pickbestfunction
冬于
·
2021-09-19 23:17
机器学习
深度学习
深度学习
神经网络
机器学习
李宏毅机器学习
03、04-误差和梯度下降
李宏毅机器学习
03、04-误差和梯度下降误差误差来源误差有三个来源:样本噪音noise;模型预测值的方差variance;预测值相对真实值的偏差bias。
冬于
·
2021-09-17 23:11
机器学习
机器学习
深度学习
李宏毅机器学习
02-回归Regression
李宏毅机器学习
02-回归Regression回归定义Regression就是找到一个函数function,通过输入特征x,输出一个数值Scalar。
冬于
·
2021-09-15 23:25
机器学习
机器学习
深度学习
李宏毅机器学习
笔记 3.误差和梯度下降
最近在跟着Datawhale组队学习打卡,学习李宏毅的机器学习/深度学习的课程。课程视频:https://www.bilibili.com/video/BV1Ht411g7Ef开源内容:https://github.com/datawhalechina/leeml-notes本篇文章对应视频中的P5-8。另外,最近我也在学习邱锡鹏教授的《神经网络与深度学习》,会补充书上的一点内容。通过上一次课2.
Simone Zeng
·
2021-08-22 19:28
机器学习
李宏毅机器学习
——机器学习概论
Learningmap【类型】(一)监督学习1.Model(1)Regression(2)Classification,非线性模型包括DeepLearning(3)StructuredLearning结构化学习(二)半监督学习解决问题:需要分类器判别是猫是狗,只有少量的labelled猫狗,剩下的样本都是unlabelled猫狗,需要通过人工标注label。(三)迁移学习TransferLearn
thisissally
·
2021-08-16 23:45
机器学习
机器学习
人工智能
李宏毅机器学习
part5-8
本篇文章主要基于以下资料:开源文档:https://datawhalechina.github.io/leeml-notes视频地址:https://www.bilibili.com/video/BV1Ht411g7Ef一、误差的来源Error的主要来源,分别是bias和variance。在研究过程中通常会遇到bias-variance-trade-off。在K-foldvalidation中,当
0b9a4786fbaf
·
2021-07-16 23:43
李宏毅机器学习
视频part3-4
本篇文章主要基于以下材料:视频链接:P3视频:https://www.bilibili.com/video/BV1Ht411g7Ef?p=3P4视频:https://www.bilibili.com/video/BV1Ht411g7Ef?p=4开源文档:https://datawhalechina.github.io/leeml-notes一、在确定自变量和损失函数后,回归问题的本质就变成了参数优
0b9a4786fbaf
·
2021-07-14 22:04
AI&UX 资料清单
课程Google:人工智能公开课莫烦机器学习
李宏毅机器学习
GoogleMachineLearningCrashCoursefast.ai吴恩达Coursera深度学习&机器学习亚马逊机器学习课程etc.
adi0229
·
2021-06-22 03:19
【Data_Talks】Python学习笔记
Ch4-
函数
1.def函数用来自定义一个函数声明。流程是:①先定义函数声明与参数②输入function()对函数进行调用,示例如下:相关参数:一共四类参数①必填参数②关键性参数③缺省参数④不定长参数,相关顺序如下:必选参数>默认参数>可变参数>关键字参数。2.匿名函数lambdapython使用lambda来创建匿名函数。lambda只是一个表达式,函数体比def简单很多。lambda的主体是一个表达式,而不
滢滢_5402
·
2021-06-03 22:19
[机器学习入门]
李宏毅机器学习
笔记-2(Regression:Case Study;回归:案例研究)
PDFVIDEO[机器学习入门]
李宏毅机器学习
笔记-2(Regression:CaseStudy;回归:案例研究)PDFVIDEORegression-pokemons正如我们在笔记一中提到的,Regression
holeung
·
2021-05-13 16:16
[机器学习入门]
李宏毅机器学习
笔记-26(Structured Support Vector Machine part 1;结构化支持向量机part 1)
[机器学习入门]
李宏毅机器学习
笔记-26(StructuredSupportVectorMachinepart1;结构化支持向量机part1)PDFVIDEO首先回顾一下StructuredLearning
holeung
·
2021-04-27 07:34
2021
李宏毅机器学习
1 机器学习基础 笔记
机器学习的任务:-regression:输出是一个标量scalar;-classification:给出多个classes,输出正确的类别;-structuredlearning:创造有结构的东西,比如生成一个图片或者文档;机器学习完成任务,是通过找到一个function来实现的,一个案例学习:以youtube每天的点击量预测为例1.先写出一个有未知参数的function作为model,想用哪个函
我能学会机器学习吗
·
2021-04-24 16:27
【飞桨】
李宏毅机器学习
特训营 PaddlePaddle学习回顾与心得
矫情一下第一次接触到这个课程,在满满的仪式感中开始,记录每一个时间节点然而现实是,直播课程经常听录播,作业总是赶到最后才提交,视频学习倒是每天下班都坚持,奈何在职学习,再加上最近看房子、搬家,时间很紧张地说。一点小遗憾,相信如果时间充裕一些,我会做得更好滴,未来也会继续参加飞桨组织的课程。学习心得本次课程以李宏毅老师的机器学习基础课程作为理论指导,结合paddlepaddle进行同步作业实践,对于
mying_三丘
·
2021-04-22 19:33
李宏毅机器学习
2021笔记—self-attention(上)
本文为李宏毅老师机器学习2021的selfattention一节的学习笔记,接在CNN之后。学习本节之前,需要有一定的基础知识。selfattention解决的问题到目前为止,我们network的input都是一个向量,输入可能是一个数值或者一个类别。但是假设我们需要输入的是一排向量,并且向量的个数可能会发生改变,这个时候要怎么处理。比如文字处理的时候:比如我们输入词汇,每个词汇都相当于一个向量,
zghnwsc
·
2021-04-21 23:10
李宏毅深度学习笔记
机器学习
深度学习
人工智能
【ML入门】
李宏毅机器学习
笔记-11(卷积神经网络CNN)
参考:[机器学习入门]
李宏毅机器学习
笔记-11(ConvolutionalNeuralNetwork;卷积神经网络)-Holeungblog-CSDN博客https://blog.csdn.net/soulmeetliang
BG大龍
·
2021-04-19 11:48
李宏毅机器学习
2021系列 作业1-PM2.5预测
李宏毅机器学习
2021系列作业1-PM2.5预测项目描述本次作业的资料是从行政院环境环保署空气品质监测网所下载的观测资料。希望大家能在本作业实现linearregression预测出PM2.5的数值。
闲人_Yty
·
2021-03-15 23:22
机器学习
笔记
学习
python
机器学习
【DL】2 Attention入门——
李宏毅机器学习
课程笔记
由RNN和Attention条件生成1.Generation2.Attention2.1Attention-basedmodel2.2MemoryNetwork2.3NeuralTuringMachine3.TipsforGeneration3.1ScheduledSampling3.2BeamSearch3.3强化学习4.PointerNetwork小结视频链接1.Generation按组件生成
Yang SiCheng
·
2021-03-08 19:43
【课程学习】
机器学习
人工智能
attention
神经网络
循环神经网络
【知识索引】【
李宏毅机器学习
】
李宏毅机器学习
知识索引本文为【
李宏毅机器学习
】知识索引文章目录
李宏毅机器学习
知识索引1.【
李宏毅机器学习
】01:机器学习介绍Introduction2.
BkbK-
·
2021-02-13 19:45
机器学习
#
李宏毅机器学习
知识索引
机器学习
人工智能
深度学习
李宏毅
知识图谱
李宏毅机器学习
——课后作业2
文章目录要求:代码介绍:1.加载库函数,设置路径2.加载数据3.进行数据标准化4.建立模型1.划分训练集2.模型内部函数介绍3.训练5.完整代码:要求:运用逻辑回归的方法,根据性别、年龄、学历、婚姻状况、从事的行业等特征,预测居民的个人收入是否大于5万美元。代码介绍:1.加载库函数,设置路径importnumpyasnpimportmatplotlib.pyplotaspltnp.random.s
不刷完1000题不改名
·
2021-02-06 09:23
深度学习基础
人工智能
机器学习
深度学习
python
李宏毅机器学习
——课后作业1
李宏毅机器学习
视频地址:【李宏毅深度学习19(完整版)国语】第一次作业参考地址:线性回归预测PM2.5----台大
李宏毅机器学习
作业1(HW1)文章目录作业要求:作业分析:模型分析:代码分析:数据预处理
不刷完1000题不改名
·
2021-02-02 06:08
深度学习基础
python
机器学习
李宏毅机器学习
03:误差Error
李宏毅机器学习
03:误差Error文章目录
李宏毅机器学习
03:误差Error一、Bias&Variance偏差和方差1.误差的来源2.偏差和方差的理解3.偏差和方差出现的原因4.模型的偏差和方差(1)Bias
BkbK-
·
2021-01-29 12:01
机器学习
#
李宏毅机器学习
机器学习
深度学习
人工智能
李宏毅机器学习
的数据下载解决方法——如何避开使用!gdown
针对“
李宏毅机器学习
2020春季作业三hw3”的数据不会用!gdown进行下载的问题,自己找到一些解决办法,希望对大家有所帮助。———————————————————————————————
Nefu_lyh
·
2021-01-28 21:07
Hong
_YiLi
机器学习
李宏毅机器学习
02:回归Regression
李宏毅机器学习
02:回归Regression文章目录
李宏毅机器学习
02:回归Regression一、回归(Regression)的定义1.Regression:Outputascalar2.ExampleofRegression
BkbK-
·
2021-01-28 11:06
#
李宏毅机器学习
机器学习
机器学习
人工智能
深度学习
李宏毅机器学习
01:机器学习介绍
李宏毅机器学习
01:机器学习介绍一、机器学习步骤MachineLearning≈LookingforaFunctionStep1:defineasetoffunctionStep2:goodnessoffunctionStep3
BkbK-
·
2021-01-26 11:29
#
李宏毅机器学习
机器学习
机器学习
深度学习
人工智能
李宏毅机器学习
2020春季作业一hw2(1)
文章目录作业介绍一、logisticregression1、Preparingdata2、SomeUsefulFunctions3、Functionsaboutgradientandloss4、Training5、PlottingLossandaccuracycurve6、Predictingtestinglabels作业介绍题目要求:二元分类是机器学习中最基础的问题之一,在这份教学中,你将学会如
Nefu_lyh
·
2021-01-25 12:26
Hong
_YiLi
机器学习
李宏毅机器学习
2020春季作业一hw1
文章目录作业介绍步骤分析:1、Load'train.csv'2、Preprocessing3、ExtractFeatures(1)3、ExtractFeatures(2)4、Normalize(1)5、Training(1)梯度下降法(BGD)优化(2)AdaGrad优化6、PreTesting7、Testing7、Prediction(上交作业)8、SavePredictiontoCSVFile
Nefu_lyh
·
2021-01-19 16:50
Hong
_YiLi
机器学习
python
李宏毅机器学习
作业4——Recurrent Neural Network
本作业来源于
李宏毅机器学习
作业说明,详情可看Homework4-RecurrentNeuralNetwork(友情提示,可能需要)参考李宏毅2020机器学习作业4-RNN:句子情感分类作业要求作业要求:
迷雾总会解
·
2020-12-24 21:21
python
李宏毅机器学习作业
机器学习
深度学习
神经网络
python
李宏毅机器学习
笔记4:Logistic Regression
LogisticRegressionReviewclassification通过样本点的均值uuu和协方差Σ\SigmaΣ来计算P(C1),P(C2),P(x∣C1),P(x∣C2)P(C_1),P(C_2),P(x|C_1),P(x|C_2)P(C1),P(C2),P(x∣C1),P(x∣C2),进而利用P(C1∣x)=P(C1)P(x∣C1)P(C1)P(x∣C1)+P(C2)P(x∣C2)P
chairon
·
2020-10-16 12:33
李宏毅机器学习
机器学习
深度学习
李宏毅机器学习
笔记1:Regression
损失函数梯度下降随机初始化起始位w0在w0处对损失函数求导(偏导)w1=w0-学习率*w0处的倒数一直重复计算,直到导数为0,或者达到最大迭代次数。Generalization泛化(generalization)是指神经网络对未在训练(学习)过程中遇到的数据可以得到合理的输出。使真实数据的误差更小。一个更复杂的模型可以使训练集上的误差更小,但是不一定能使测试集上的误差也更小(过泛化)损失函数+很小
chairon
·
2020-10-08 15:20
李宏毅机器学习
深度学习
机器学习
[机器学习-回归实例]
李宏毅机器学习
作业一:PM2.5 预测实例
[机器学习-回归实例]
李宏毅机器学习
作业一:PM2.5预测实例简介 这是一个回归预测的实例,数据集来自李宏毅的《机器学习》课程的第一次作业,可以用来训练一个线性回归模型或者其他的回归模型,动手实践学习到的理论知识
只爱学习的Gcy
·
2020-09-18 22:55
机器学习
李宏毅机器学习
2016 第十七讲 迁移学习
视频链接:
李宏毅机器学习
(2016)_演讲•公开课_科技_bilibili_哔哩哔哩课程资源:Hung-yiLee课程相关PPT已经打包命名好了:链接:https://pan.baidu.com/s/1c3Jyh6S
Joe-Peng_hitsz
·
2020-09-16 01:44
机器学习_Hungyi
Lee
2016
机器学习Hung-yi
Lee
2016
[机器学习入门]
李宏毅机器学习
笔记-21(Transfer Learning part 1 ; 迁移学习 part 1)
[机器学习入门]
李宏毅机器学习
笔记-21(TransferLearningpart1;迁移学习part1)PDFVIDEOTransferLearning利用与task没有直接相关的data什么叫没有直接相关呢
holeung
·
2020-09-16 01:02
机器学习
机器学习入门
[机器学习入门]
李宏毅机器学习
笔记-22(Transfer Learning part 2;迁移学习 part 2)
[机器学习入门]
李宏毅机器学习
笔记-22(TransferLearningpart2;迁移学习part2)PDFVIDEO接part1第四象限Targetdataunlabelled,SourceDatalabelledZero-shotlearning
holeung
·
2020-09-16 01:02
机器学习
机器学习入门
李宏毅机器学习
——Transfer learning迁移学习
文字摘要来自BlueCode,传送门:https://blueschang.github.io/TransferLearning要做的是:假设现在手上有与现在进行的task没有直接相关的data,使用这些data来帮助做一些事情。比如现在要做猫狗的分类器,所谓不直接相关的data就可能是Similardomain,differenttasks(大象与老虎的图片,与猫狗图片的分布是相像的)Diffe
mh_mpc
·
2020-09-16 01:50
机器学习
李宏毅机器学习
笔记-12:Semi-supervised Learning半监督学习
Machinelearning机器学习是Artificialinteligence的核心,分为四类:1.Supervisedlearning监督学习是有特征(feature)和标签(label)的,即便是没有标签的,机器也是可以通过特征和标签之间的关系,判断出标签。举例子理解:高考试题是在考试前就有标准答案的,在学习和做题的过程中,可以对照答案,分析问题找出方法。在高考题没有给出答案的时候,也是可
墨九南烟
·
2020-09-14 15:43
李宏毅机器学习笔记
李宏毅机器学习
笔记-9:Tips For Training DNN
我们训练一个神经网络首先就要在TrainingData上做测试,如果在TrainingData上的效果很好,再拿去TestingData测试。这是为啥?等下再解释下面是训练一个神经网络的大致过程有的时候TestData测试结果不好并不是过拟合的结果这是因为你的神经网络在Trainset的结果本来就不好,上图56层的神经网络在训练的结果就没20层的好,所以在Testset的结果自然就比20层差。如果
墨九南烟
·
2020-09-14 15:42
李宏毅机器学习笔记
机器学习
公开课列表
二免费公开课2.1机器学习类吴恩达机器学习
李宏毅机器学习
(2017)阿里巴巴机器学习系列课程人工智能实践:Tensorflow笔记人工智能PK人类智能Tensorflow搭建自己的神经网络(莫烦Python
weixin_30657999
·
2020-09-12 20:49
李宏毅机器学习
笔记-7 反向传播算法(Backpropagation)
Backpropagation-反向传播算法1前言1.1为什么要用Backpropagation在神经网络中的梯度下降算法和之前求线性回归方程中用的没有太大的区别,都是不断的计算微分,然后更新参数,最终找到一个最优解。但是在神经网络中,有着大量可能多达上百万个的参数,所以传统的求微分方法行不通,计算量太大无法快速有效的求出微分。1.2链式求导法则(ChainRule)Backprogation中设
MemoryD
·
2020-09-12 02:01
机器学习
【课程笔记】
李宏毅机器学习
[1]:Regression: Case study
本系列课程笔记为李宏毅2017,秋,台湾大学课程。视频网址链接:https://www.bilibili.com/video/av15889450?p=3更新日期:20200203机器学习应用StockMarketForecastSelf-drivingCarRecommendation机器学习范例模型/ModelAsetoffunction模型优劣/GoodnessoffunctionTrain
tjwyj
·
2020-09-10 18:19
李宏毅机器学习课程笔记
李宏毅机器学习
课程笔记Lesson1-Regression - Case Study
machinelearning有三个步骤:step1:选择asetoffunction,即选择一个modelstep2:评价goodnessoffunctionstep3:选出bestfunction采用梯度下降得到最佳答案gradientdescent的步骤是:先选择参数的初始值,再向损失函数对参数的负梯度方向迭代更新,learningrate控制步子大小、学习速度。梯度方向是损失函数等高线的法
长弓Smile
·
2020-09-10 18:44
机器学习
[机器学习入门]
李宏毅机器学习
笔记-9 (“Hello world” of deep learning;初探深度学习)
[机器学习入门]
李宏毅机器学习
笔记-9(“Helloworld”ofdeeplearning;初探深度学习)KerasExampleApplication-HandwritingDigitRecognitionStep1
holeung
·
2020-09-10 17:45
机器学习
机器学习入门
国立台湾大学
李宏毅机器学习
笔记
1.MLLecture0-1-IntroductionofMachineLearning(1)structuredlearning结构学习指的是输入和输出都是具有结构化的对象(数列、列表、树、边界框等)。在之前的学习中,输入和输出都是向量。然而在现实生活中,我们需要解决的问题并不都是此类问题。因此我们需要一个更加强大的函数-其输入输出都是对象,而对象可能是序列、列表、树或者是边界盒等等。举例来说,
Yuggie_Sue
·
2020-09-10 11:30
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他