E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CH4-李宏毅机器学习
李宏毅机器学习
2023年——快速入门机器学习,学习笔记
机器学习任务大致分为3类:回归、分类和生成式学习。这三类任务的区别在于它们的输出类型和目标不同。一、回归任务的输出是一个数值,例如预测房价、股票走势或测试成绩等。回归任务的目标是找到一个函数,能够最小化预测值和真实值之间的误差。二、分类任务的输出是一种类别,例如判断邮件是否为垃圾邮件、识别人脸或手写字符等。分类任务的目标是找到一个函数,能够最大化预测类别和真实类别之间的一致性。三、生成式学习任务的
抱抱小杠杠
·
2023-08-14 01:18
机器学习
人工智能
python
通俗易懂生成对抗网络GAN原理(二)
生成对抗网络(GenerativeAdversarialNetwork,GAN)的原理学习
李宏毅机器学习
课程总结。前面学习了GAN的直观的介绍,现在学习GAN的基本理论。
BarbaraChow
·
2023-08-12 02:56
深度学习
生成对抗网络
人工智能
神经网络
李宏毅机器学习
(十)Hello world! DeepLearning
老师这里讲述tensorflow和theano是类似的深度学习工具,他们非常弹性,如果学习起来是比较费事情的(之前学了的确费事,但是不能被老师骗啦)Keras(英文的意思是牛角)是一种tensorflow或thteano搭建起来的界面,相对前两个比较好学,模型api都经过了封装,当然它也有一定的弹性,如果你想修改模型的话可以通过写tensorflow或者theano代码.Keras作者是谷歌工作人
ca8519be679b
·
2023-08-07 21:25
【
李宏毅机器学习
·学习笔记】Tips for Training: Adaptive Learning Rate
本节课主要介绍了AdaptiveLearningRate的基本思想和方法。通过使用AdaptiveLearningRate的策略,在训练深度神经网络时程序能实现在不同参数、不同iteration中,学习率不同。本节课涉及到的算法或策略有:Adgrad、RMSProp、Adam、LearningRateDecay、WarmUp。本节课参考的资料有:MIT-DeepLearning:https://w
MilkLeong
·
2023-08-06 08:59
李宏毅机器学习
机器学习
学习
笔记
【
李宏毅机器学习
·学习笔记】Tips for Training: Batch and Momentum
本节课主要介绍了Batch和Momentum这两个在训练神经网络时用到的小技巧。合理使用batch,可加速模型训练的时间,并使模型在训练集或测试集上有更好的表现。而合理使用momentum,则可有效对抗criticalpoint。课程视频:Youtube:https://www.youtube.com/watch?v=zzbr1h9sF54知乎:https://www.zhihu.com/zvid
MilkLeong
·
2023-08-05 18:41
李宏毅机器学习
机器学习
学习
笔记
【
李宏毅机器学习
·学习笔记】Deep Learning General Guidance
本节课可视为机器学习系列课程的一个前期攻略,这节课主要对MachineLearning的框架进行了简单的介绍;并以trainingdata上的loss大小为切入点,介绍了几种常见的在模型训练的过程中容易出现的情况。课程视频:Youtube:https://www.youtube.com/watch?v=WeHM2xpYQpw课程PPT:https://view.officeapps.live.co
MilkLeong
·
2023-07-30 10:56
李宏毅机器学习
Python机器学习
机器学习
深度学习
学习
李宏毅机器学习
(一)导论
机器学习是什么老师列举了个实例漫画,一个机器人被切开了后里面都是if(else),这种机器人不具备自我学习的能力机器学习是根据我们的大量数据寻找到一个function函数,以获得对新数据的预测(回归)或识别(分类)的过程插图1训练好数据实现分类,输入一张猫图片,输出cat回归函数输出是个数值(连续或区间连续)分类函数输出是0,1,2,3……(包括多分类和二分类)二分类函数输出是0,1即yes,no
ca8519be679b
·
2023-07-30 02:23
李宏毅机器学习
(2):机器学习基本概念
LinearModel往往比较简单,y都是随着X(x1,x2...)的输入线性变化的,但在现实场景中问题往往不是LinearModel可以描述的。比如我们需要得到红色曲线时,用LinearModel就无法实现,这种模型无法拟合问题的情况下就叫做ModelBias。那么我们如何拟合红色的曲线呢?通过上图方式就可以拟合出任意的PiecewiseLinearCurves。PiecewiseLinearC
jenye_
·
2023-07-19 04:23
使用Optuna进行模型的自动调参
在做机器学习作业的时候苦于手动调参(甚至一度想自己简单写个函数自动调参,不过想来python库中肯定有相关函数,便有了这篇文章)在文章的结尾,我会以
李宏毅机器学习
hw01为例子介绍怎么插入这段代码关于课程说句题外话
Hoper.J
·
2023-06-09 20:25
机器学习
python
深度学习
自动调参
Understanding the Bias-Variance Tradeoff
参考资料:UnderstandingtheBias-VarianceTradeoff
李宏毅机器学习
视频5.2Wheredoestheerrorcomefrom(Av10590361,P5).Flv以下讨论的假设是基于
抬头挺胸才算活着
·
2023-04-19 09:48
李宏毅机器学习
(六)分类
对应课程视频有点小跳跃,因为课堂上2节视频是用游戏展示梯度下降找最低点示范,感觉没啥说的了常见的分类,如根据一个人的收入,储蓄,职业,年龄等判断是否给与贷款,(2分类)根据病人的各种检查指标,确定病人有哪种疾病(多分类)根据手写汉字,识别出手写内容(多分类,分类进8000个)插图1我们怎么做分类,按之前学的,可以把回归做分类工具吗?比如二分类,判断是就是1,不是就是-1,接近1的就是1,接近-1读
ca8519be679b
·
2023-04-15 00:10
机器学习笔记(5)
【
李宏毅机器学习
任务五】负责人:王佳旭课程设计人:王佳旭学习打卡内容:推导LR损失函数(1)学习LR梯度下降(2)利用代码描述梯度下降(选做)(3)Softmax原理(4)softmax损失函数(5)softmax
trying52
·
2023-04-10 19:53
李宏毅机器学习
(3):机器学习基本概念
注意这个L是所有的e加和平均,也就是说是整个数据集的数据都输入一遍得到的误差。实际的训练过程中,我们会把数据集划分为几个Batch,每一个Batch算一个L用于更新参数也就是一次Update(之前我们说的每次都会把所有数据输入做一个Upate,其实就是Batch大小就是数据集大小),完整的过一遍Batch叫一个epoch那为什么要分成一个Batch一个Bacht呢,跳转。在实际训练中,举一些例子:
jenye_
·
2023-04-10 10:59
【
李宏毅机器学习
】Gradient Descent_1 梯度下降(p5、p6、p7 )学习笔记
李宏毅机器学习
学习笔记汇总课程链接文章目录ReviewGradientDescentTipsTip1:Tuningyourlearningrate小心微调你的学习率Tip2StochasticGradientDescentSGD
duanyuchen
·
2023-04-08 13:46
Machine
Learning
机器学习
李宏毅
学习笔记
李宏毅机器学习
--P6梯度下降法
Review:gradientDescentLearningrates给优化过程中带来的影响自适应调整learningrate的方法梯度下降法的背后理论基础Review:gradientDescent在上一个视频里,已经介绍了使用梯度下降法求解Lossfunctionθ∗=argminL(θ)\theta^*=argmin\L(\theta)θ∗=argminL(θ)L:lossfunctionθ
韩向上
·
2023-04-08 13:38
李宏毅机器学习
机器学习
深度学习
李宏毅机器学习
笔记——生成模型
介绍了三种方法,pixelRNN,VAE,GAN。笔记以VAE为主。pixelRNN比较容易理解,由已知推未知。这种方法还能应用到语音生成等领域在这里有个tips值得说一下,图的每个像素一般RGB三色,问题出在当RGB三个值相差不大时最终的结果像素点的颜色趋向灰色,于是乎,为了使生成的图像更加鲜亮,就需要拉高三个值的差距。简而言之,原本用三个数表示颜色,现在只用一个。VAE是一个相对复杂的东西,事
荆棘鸟》
·
2023-04-04 13:14
深度学习
人工智能
李宏毅机器学习
笔记——概率模型
很有意思的一门课,但关于如何利用P(x)生成x还存在疑惑。在神经网络中y=w*x+b,为什么是这个形式?这门课将在最后归结到这一点上。举一个实际的例子,训练集中A类71个B类69个我们假定A类的71个点遵循gaussiondistribution,上图涉及的函数:输入一个点(代表一个实例的特征vector),输出sample中该点的概率,在下文中即为P(x|A)与P(x|B)该函数有两个参数,μ与
荆棘鸟》
·
2023-04-04 13:43
机器学习
人工智能
神经网络
深度学习介绍及反向传播机制#
李宏毅机器学习
Part4
目录深度学习的发展:发展历史未来展望【待整理】机器学习/深度学习的三步骤:Step1:神经网络(Neuralnetwork)1.前馈Feedforward2.全连接FullyConnect3.隐藏层4.普遍性定理Step2:模型评估(Goodnessoffunction)Step3:选择最优函数(Pickbestfunction)反向传播介绍1.梯度传播2.链式法则3.参数正向传递4.梯度反向传播
CHENYUZ-hub
·
2023-04-04 12:13
机器学习-李宏毅
深度学习
机器学习
人工智能
李宏毅机器学习
笔记
DataWhale–李宏毅老师机器学习P5-P8《误差来源》和《梯度下降法》学习笔记学习笔记本文是李宏毅老师B站–《机器学习》课程的学习笔记,在此非常感谢DataWhale提供的平台,希望大家加入到这个学习的大家庭中,共同成长。本文主要是关于误差来源及梯度下降法的介绍,是在老师的讲解视频和学习文档的基础上总结而来。一、误差来源在机器学习中,模型估计的误差可以分为两种,偏差(Bias)和方差(Var
learn_for_more
·
2023-04-02 06:26
机器学习
人工智能
深度学习
李宏毅机器学习
(十六)Why Deep
为什么Deeper更好,我们神经网络层数多,因为参数多,当然也表现得更好插图1我们比较胖短型和深瘦型,哪个有优势呢,我们需要在相同的参数量下进行比较插图2我们比较2种形状,当高瘦型是5*2K个神经元时,矮胖相同的参数量要1*3772个神经元,其准确率比左侧低,下一行类似,我们甚至可以把矮胖型的神经元增加到1*16K个,但是准确率还不如2*2K的左侧,所以我们增加参数时要把参数尽可能的增加到深度上而
ca8519be679b
·
2023-04-01 11:24
self-attention学习笔记
参考:https://blog.csdn.net/zghnwsc/article/details/115982794参考视频:
李宏毅机器学习
2021https://www.bilibili.com/video
rgb2gray
·
2023-03-31 05:28
笔记
机器学习
深度学习
人工智能
生成对抗网络(GAN)
注:本文理论部分的截图全部来自
李宏毅机器学习
及其深层与结构化课件。生成对抗网络有两个模型:判别模型和生成模型。
Aptitude
·
2023-03-22 01:48
机器学习笔记(7)
学习Datawhale对《
李宏毅机器学习
》决策树章节补充的内容:AdditionalReferences(熵的理解)学习目标:*信息量计算,原理*信息熵*证明0⩽H(p)⩽logn*联合概率,边缘概率*
trying52
·
2023-03-17 22:05
【ML入门】
李宏毅机器学习
笔记02-回归问题(Regression)
【ML入门】
李宏毅机器学习
笔记02-回归问题(Regression)-知乎https://zhuanlan.zhihu.com/p/74684108
BG大龍
·
2023-03-12 03:56
【
李宏毅机器学习
CP1-2】(task1)机器学习简介
目录一、机器学习介绍二、机器学习相关的技术2.1监督学习2.2半监督学习2.3迁移学习2.4无监督学习2.5监督学习中的结构化学习2.6强化学习三、为什么我们需要学习机器学习?一、机器学习介绍1950年人工智能(AI)、ArtificialIntelligence人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、
202xxx
·
2023-03-08 23:47
李宏毅机器学习
课程笔记9:Recurrent Neural Network
李宏毅机器学习
课程笔记9:RecurrentNeuralNetwork这篇文章是学习本课程第25-26课所做的笔记和自己的理解。
junchengberry
·
2023-02-17 12:58
李宏毅深度学习
李宏毅机器学习
(2017)——笔记1Introduction and Task
http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML17_2.html0IntroductionofMachineLearingAIhand-craftedrules(IFs)——>机器学习(Function)Asetoffunction(model)GoodnessoffunctinPickthe"best"function(好的演算法)Wheredoes
wc88
·
2023-02-17 04:58
李宏毅机器学习
2021作业7-Bert (Question Answering)
内容为自己对助教给出代码的自我理解(甚至可以理解为部分翻译。。)外加一些函数的查找以及其功能,欢迎大家指出我的不足,帖子主要是作为自己的笔记记录一下,不喜勿喷。3qTaskdescription-ChineseExtractiveQuestionAnswering-Input:Paragraph+Question-Output:Answer-Objective:Learnhowtofinetune
师父祭天法力无边
·
2023-02-04 21:30
笔记
bert
人工智能
深度学习
李宏毅机器学习
2021作业6(又名辉夜大小姐与辉夜大筒木的关系)
内容为自己对助教给出代码的自我理解(甚至可以理解为部分翻译。。)外加一些函数的查找以及其功能,欢迎大家指出我的不足,帖子主要是作为自己的笔记记录一下,不喜勿喷。3q作业内容为建立GAN模型来生成二次元人物facesSetuptheenvironmentPackagesInstallation#Youmayreplacetheworkspacedirectoryifyouwant.workspace
师父祭天法力无边
·
2023-02-04 21:29
笔记
机器学习
深度学习
pytorch
李宏毅机器学习
(卷积神经网络)
为什么用CNN当我们一般直接用fullyconnectfeedforwardnetwork来做影像处理的时候,往往我们会需要太多的参数,举例来说,假设这是一张100*100的彩色图(一张很小的imgage),你把这个拉成一个vector,(它有多少个pixel),它有100*1003的pixel。如果是彩色图的话,每个pixel需要三个value来描述它,就是30000维(30000dimensi
rainbowiridescent
·
2023-02-03 16:51
李宏毅机器学习
机器学习
cnn
深度学习
李宏毅机器学习
L5 Transformer
Transformerby熠熠发光的白Transformer是Sequence-to-sequence的model,输出长度由model决定通过把语音转化为中文,翻译成有办法阅读的文字台语转化普通话是有可能实现的,例如YouTube上的乡土剧问题:倒装可能较难实现Test-to-SpeechSynthesis文本转语音Seq2seqforChatbot训练大量对话,往往特质化特殊模型可以得到比se
熠熠发光的白
·
2023-02-03 14:36
彩笔暑假计划
bilstm+crf 实现ner
目录一、基础知识1、lstm(1)B站
李宏毅机器学习
课程(2)部分网友对应的课件文章:(3)损失函数(4)优化方法选择:(5)这种组合的优势:(6)lstm相较于普通RNN的优势:2、crf(1)课程(
月笼纱lhz
·
2023-02-02 09:33
深度学习
深度学习
L01_机器学习基本概念(
李宏毅机器学习
_学习笔记)
文章目录什么是机器学习不同类别的函数(Function)1.回归(Regression)2.分类3.结构化学习如何找到想要的函数(Function)1.建立一个含有位置参数的函数2.定义损失函数3.最优化(Optimization)模型的变形:Sigmoid→ReLUSigmoid\toReLUSigmoid→ReLU总结什么是机器学习让机器具有寻找一个函数(Function)的功能不同类别的函数
cporin
·
2023-02-02 08:24
李宏毅机器学习_学习笔记
机器学习
人工智能
深度学习
神经网络
2022
李宏毅机器学习
深度学习学习笔记第八周--batch和momentum
文章目录摘要一、Batch为什么要用batch?二、momentum总结摘要本节主要讲述了batch和momentum,主要讲述为什么要用batch,通过对比讲述了batch大小的特点;通过物理例子引出momentum,讲述了以前的梯度下降和加上动量的梯度下降。一、Batch实际在做微分的时候不是对所有数据算出来的L算微分,是把所有的数据分成一个一个的batch,每次是拿一个batch里的资料计算
hehehe2022
·
2023-02-02 08:22
batch
机器学习
深度学习
李宏毅机器学习
笔记第8周_批次与动量
文章目录一、Review:OptimizationwithBatch二、SmallBatchv.s.LargeBatch三、Momentum1.SmallGradient2.VanillaGradient3.GradientDescent+Momentum一、Review:OptimizationwithBatch在计算微分的时候,并不是把所有的data对计算出来的L做微分,而是把data分成一个
MoxiMoses
·
2023-02-02 08:52
机器学习
深度学习
李宏毅机器学习
2022春季-第四课和HW4
李宏毅2022课程视频全部以线上视频的形式给出(已经全部录好,你可以选择短时间全部学完),上课时间会直播讲解额外的内容(可以不听)和作业(建议一定要做),目前已更新到作业四。第四课主要内容是自注意力机制(self-attention),是目前自然语音处理、语音处理,甚至是图像处理中使用非常多的网络架构,详细内容见课程视频。课程视频:b站视频号:机器学习手艺人网址:https://www.bilib
机器学习手艺人
·
2023-01-31 18:20
机器学习
人工智能
深度学习
【
李宏毅机器学习
训练营】-PM2.5预测项目心得体会
【
李宏毅机器学习
训练营】-PM2.5预测项目心得体会利用飞桨实现PM2.5预测首先,很感谢百度飞桨给我们提供这样的一个机会可以接触到现在热门的机器学习以及深度学习知识,作为一名大二的学生,在进入大学的时候就对
极丨光
·
2023-01-31 09:58
机器学习
算法
李宏毅机器学习
作业1_PM2.5预测
data及代码链接:链接:https://pan.baidu.com/s/1BZvtDkuf3Mctzxs-NRA-VQ提取码:0uje复制这段内容后打开百度网盘手机App,操作更方便哦课程链接:https://aistudio.baidu.com/aistudio/course/introduce/1978项目描述:本次作业的资料是从行政院环境环保署空气品质监测网所下载的观测资料。希望大家能在本
愚昧之山绝望之谷开悟之坡
·
2023-01-31 09:56
李宏毅机器学习
课程作业-HW1
整篇文章是笔者自我一点点学习和理解其所给指导代码的记录学习。在读取文件的时候使用了pandas.read_csv()函数,其中enconding的参数时“big5”,这是因为在这份文件中里面含有繁体字,使用“gbk”编码时会报错data=pd.read_csv('./train.csv',encoding='big5')记事本打开是这样:使用该函数打开后是这样:PREPROCESSING部分dat
llllllhhhhj
·
2023-01-31 09:25
机器学习
python
李宏毅机器学习
作业1-PM2.5预测
项目描述本次作业的资料是从行政院环境环保署空气品质监测网所下载的观测资料。希望大家能在本作业实现linearregression预测出PM2.5的数值。数据集介绍本次作业使用丰原站的观测记录,分成trainset跟testset,trainset是丰原站每个月的前20天所有资料。testset则是从丰原站剩下的资料中取样出来。train.csv:每个月前20天的完整资料。test.csv:从剩下的
灰太狼家的小鸭子
·
2023-01-31 09:51
机器学习---李宏毅课程
人工智能
python
机器学习笔记3
李宏毅机器学习
任务四】负责人:王佳旭课程设计人:王佳旭#任务时间#请于5月25日22:00前完成,逾期尚未打卡的会被清退学习视频内容:观看观看李宏毅课程内容:p8视频连接:https://www.bilibili.com
trying52
·
2023-01-29 18:05
【ML入门】
李宏毅机器学习
笔记01-Learning Map
【ML入门】
李宏毅机器学习
笔记01-LearningMap-知乎https://zhuanlan.zhihu.com/p/74377397
BG大龍
·
2023-01-28 03:10
Datawhale-2021年10月组队学习-
李宏毅机器学习
打卡
Datawhale-2021年10月组队学习
李宏毅机器学习
打卡Task01Task02Task03
李宏毅机器学习
打卡Task01参照开源文档,观看视频P1-2:机器学习介绍在视频P1中,李宏毅老师对机器学习进行了整体概括性的介绍
Timothy_Liuu
·
2023-01-27 12:51
机器学习
深度学习
人工智能
李宏毅机器学习
—机器学习介绍
李宏毅机器学习
笔记github链接:https://github.com/datawhalechina/leeml-notes
李宏毅机器学习
笔记在线阅读链接:https://datawhalechina.github.io
修_远
·
2023-01-26 08:28
李宏毅机器学习
【
李宏毅机器学习
笔记】9、卷积神经网络(Convolutional Neural Network,CNN)
【
李宏毅机器学习
笔记】1、回归问题(Regression)【
李宏毅机器学习
笔记】2、error产生自哪里?
qqqeeevvv
·
2023-01-25 11:26
机器学习
深度学习
机器学习
深度学习
李宏毅机器学习
2022 HW2
语音音素分类,是一个41分类问题。给定前k个和后k个frame,来预测中间的一个label。直接运行代码训练,通过SimpleBaseline。简单添加网络层数,增加训练轮次,可以通过MediumBaseline。通过添加Dropout,BatchNorm,调整使用的frame数量,以及隐层数目,可以通过StrongBaseline。代码入下:首先下载数据集#Mainlink!wget-Olibr
张十八员外
·
2023-01-23 11:08
李宏毅机器学习2022
python
深度学习
李宏毅机器学习
2022 HW1
李宏毅机器学习
2022版Homework1新冠阳性人数预测,根据前四天的数据,预测第五天的阳性人数。(回归)首先下载数据集!
张十八员外
·
2023-01-23 11:37
李宏毅机器学习2022
python
深度学习
李宏毅机器学习
课程学习笔记(1)——机器学习基本概念
机器学习基本概念介绍让机器具备寻找一个所需函数的能力——两大任务Regression回归回归预测Classification分类判断是否符合要求:True/FlaseStructuredLearning让机器创造一些东西机器学习的步骤——训练1.带有未知的Parameters参数——Model模型已知的参数——featurey=wx+b:weigthbias2.找出Loss简称L(b,w)——损失
Raines_01
·
2023-01-21 11:55
机器学习
学习
人工智能
李宏毅机器学习
2022-HW3
系列文章目录
李宏毅机器学习
2022-hw1
李宏毅机器学习
2022-hw2文章目录系列文章目录问题概述实验部分Simplebaseline:0.50099Mediumbaseline:0.73207Strongbaseline
sama_AA
·
2023-01-20 17:12
李宏毅机器学习hw
机器学习
深度学习
人工智能
机器学习Machine Learning学习笔记——回归Regression
深度学习的课程笔记,参考
李宏毅机器学习
课程一、定义回归是通过输入特征向量来找到函数并输出数值标量。例如,深度学习应用于自动驾驶领域。
待落灯花
·
2023-01-20 08:15
深度学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他