E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
李宏毅机器学习笔记
李宏毅机器学习笔记
(二)Regression&&Classification
李宏毅机器学习笔记
(二)RegressionCaseStudy(P3)机器学习入门:回归,预测准确的数值。
咸鱼Wei
·
2022-11-20 05:27
机器学习
DW
李宏毅机器学习笔记
--Task01-机器学习介绍
文章目录前言一、机器学习介绍1.人工智能、机器学习与深度学习2.Hand-craftedrules与Machinelearning3.机器学习的思路二、机器学习相关的技术1.监督学习回归(Regression)问题分类(Classification)问题DeepLearning2.半监督学习3.迁移学习4.无监督学习5.监督学习中的结构化学习(structuredlearning)6.强化学习总结
湘玄书生
·
2022-11-20 04:23
李宏毅机器学习
人工智能
机器学习
李宏毅机器学习笔记
第17周_概述增强式学习(Reinforcement Learning)
文章目录一、WhatisRL?1.Step1:FunctionwithUnknown2.Step2:Define“Loss”3.Step3:Optimization二、PolicyGradient1.Howtocontrolyouractor2.PolicyGradient3.On-policyv.s.Off-policy4.ProximalPolicyOptimization5.Collecti
MoxiMoses
·
2022-11-19 23:19
机器学习
深度学习
李宏毅机器学习笔记
_introduction——Oct30 2020
本博客用于巩固和复习李宏毅机器学习课程一、任务类型regression回归问题输出为数字binaryclassification二元分类yesorno(posorneg)multi-classclassification多元分类到class1、class2…classNgeneration生成二、学习方式superviselearning/监督学习andreinforcementlearning/
eathotpot
·
2022-11-19 19:41
机器学习笔记
机器学习
李宏毅机器学习笔记
Regression含作业
欢迎学习李宏毅老师课程的小伙伴一起进群讨论:980704621本节课主要内容有Regressionregression应用regression训练方式Regression结果结论Regression作业作业说明官方答案**Load'train.csv'****Preprocessing****ExtractFeatures(1)****ExtractFeatures(2)****Normalize
若能变成海
·
2022-11-19 18:47
李宏毅2020机器学习课程笔记
python
机器学习
人工智能
深度学习
神经网络
李宏毅机器学习笔记
第1周-机器学习基本概念
文章目录一、机器学习的概念二、机器学习的应用领域三、监督学习(Supervisedlearning)四、加强学习(Reinforcementlearning)五、无监督学习(UnsupervisedLearning)六、损失函数(LossFunction)七、Sigmoid函数八、机器学习的三个步骤九、前沿研究一、机器学习的概念机器学习是从数据中自动分析获得模型,并利用模型对未知数据进行预测。简单
MoxiMoses
·
2022-11-19 08:10
机器学习
深度学习
李宏毅机器学习笔记
Day2—回归
Regression(回归)的步骤看似比较复杂,其实也就是上节课老师所讲的三步:引入一组model➡️评估这组model的好坏➡️得到最佳的function。老师引入了一个很有趣的例子:选择培养宝可梦。找一个function,输入一只宝可梦的信息,预测它的CP(战斗力)的值。一、初始的方法Model线性Model:y=b+w•xcp,w和b是参数,xcp是进化前的CP值。TrainingData:
RosieDragon
·
2022-11-19 04:35
机器学习
人工智能
深度学习
李宏毅机器学习笔记
day1
本来是直接记到印象笔记上的,想分享到这里来谁知道上传个图片居然不能直接复制粘贴。。。我只能把文字部分放这了,看图片点下面这个链接机器学习笔记day1导论regression*/rɪˈɡreʃn/n.回归;退化;逆行;复原机器学习就是让电脑自己去找函数bianryclassification二分类卷积神经网络CNNmulti-classclassification多类分类递归神经网络RNN机器学习不
世由心生
·
2022-11-19 04:56
机器学习
李宏毅机器学习笔记
p3-p4
文章目录前言一:Regression回归1.线性模型2.损失函数3.梯度下降二、验证模型好坏过拟合优化1.模型的拆分2.加入更多的参数,更多的input3.正则化三、代码的学习总结前言经过上一篇章的学习,我们得知了有很多种深度学习,比如监督学习,无监督学习,强化学习等,监督学习算是深度学习的入门第一手,所以我们先学习监督学习中的回归一:Regression回归定义:前期学习(通过很多正确的输入和输
鸿鹄一夏
·
2022-11-19 02:02
笔记
李宏毅机器学习笔记
p21:CNN
文章目录前言一、CNN与图像处理二、CNN架构convolution(卷积层)一些词语概念的理解maxpooling(池化层)flatten三、分析CNN学习1.分析filter2.分析全连接层3.分析output让图片更像数字DeepDreamDeepStyle总结前言前面都对深度学习的框架做了学习,现在学习最重要的CNN。一、CNN与图像处理CNN常用于影像处理。实际上在影像处理上,我们希望一
鸿鹄一夏
·
2022-11-19 02:02
机器学习
笔记
机器学习
cnn
计算机视觉
李宏毅机器学习笔记
:深度学习入门简介 反向传播
源视频链接:https://www.bilibili.com/video/BV1Ht411g7Ef?p=13学习笔记总结深度学习和传统机器学习处理特征的差异;做传统机器学习必须要做特征工程来选择合适的输入特征,但深度学习是可以不用事先做特征工程,而是在隐藏层中完成特征选择抽取深度学习本质就是神经网络的进一步延伸,每一层神经元运算都是矩阵运算神经网络架构非常重要,决定了潜在可能的函数集合,越复杂的架
麻麻在学习
·
2022-11-19 02:17
神经网络
深度学习
机器学习
2020
李宏毅机器学习笔记
-Condition Generation by RNN&Attention
目录概述1.Generation1.1ConditionalGeneration2.Attention2.1DynamicConditionalGeneration2.2MachineTranslation2.3ImageCaptionGeneration2.4MemoryNetwork3.TipsforGeneration3.1Attention的正则化3.2MismatchbetweenTra
ZN_daydayup
·
2022-11-18 11:14
机器学习
深度学习
人工智能
李宏毅机器学习笔记
5--RNN
其实感觉课程中关于RNN这部分讲的不是很细,很多都是泛泛而谈大体的框架,有点晕……RNN引入RecurrentNeuralNetwork搭建的目的是为了使神经网络有一定记忆,可以储存之前的输入,这对对话系统、机器翻译等等有很大帮助。见下图RNN神经元工作示意图:一个RNN神经元在第一个word输入后除去输出相应值,还会将隐藏层信息(Elman)或者输出层信息(Jordan)储存起来等待下次输入。这
Zach要努力
·
2022-11-18 11:07
#
李宏毅课程笔记
神经网络
深度学习
机器学习
李宏毅机器学习笔记
12:RNN(2)
RecurrentNeuralNetwork(Ⅱ)上一篇文章介绍了RNN的基本架构,像这么复杂的结构,我们该如何训练呢?1.LossFunction依旧是SlotFilling的例子,我们需要把model的输出yiy^iyi与映射到slot的referencevector求交叉熵,比如“Taipei”对应到的是“dest”这个slot,则referencevector在“dest”位置上值为1,其
chairon
·
2022-11-18 11:07
李宏毅机器学习
人工智能
深度学习
李宏毅机器学习笔记
二
Contents8Keras使用9-1TipsforTrainingDNN9-2kerasdemo11WhyDeep?8Keras使用adam高级优化方法不需要自己设置学习速率如果有100个batch,1个epoch就更新参数100次可以看出,batch_size为1和为10,参数更新速度是一样的(相同时间下,都用166s),这是由于vectorization带来的加速,并行运算。但随着batch
niuyoudao
·
2022-11-15 17:44
李宏毅机器学习笔记
2:Gradient Descent(附带详细的原理推导过程)
李宏毅老师的机器学习课程和吴恩达老师的机器学习课程都是都是ML和DL非常好的入门资料,在YouTube、网易云课堂、B站都能观看到相应的课程视频,接下来这一系列的博客我都将记录老师上课的笔记以及自己对这些知识内容的理解与补充。(本笔记配合李宏毅老师的视频一起使用效果更佳!)今天这篇文章的主要内容是第3课的笔记MLLecture3:GradientDescent1.要真正理解梯度下降算法的原理需要一
weixin_30629977
·
2022-11-15 08:52
人工智能
李宏毅机器学习笔记
5:CNN卷积神经网络
李宏毅老师的机器学习课程和吴恩达老师的机器学习课程都是都是ML和DL非常好的入门资料,在YouTube、网易云课堂、B站都能观看到相应的课程视频,接下来这一系列的博客我都将记录老师上课的笔记以及自己对这些知识内容的理解与补充。(本笔记配合李宏毅老师的视频一起使用效果更佳!)Lecture7:CNN目录一、CNN的引入二、CNN的层次结构三、CNN的小Demo加深对CNN的理解四、CNN的特点在学习
weixin_30628077
·
2022-11-15 08:22
人工智能
Meta Learning Gradient Descent as LSTM
李宏毅机器学习笔记
以上结构类似于RNN(LSTM)结构,其中θ类似于隐向量,trainingdata就是输入X以下具体说明。一、LSTMreviewCt-1和Ct改变会很小,所以保持了长期依赖,ht-1和ht变化大代表了短期依赖。zi输入门,zf遗忘门,zo输出门ct=z和zi做点乘+zf和ct-1点乘(选择选择ct-1还是遗忘)ht=zo和tanh(ct)yt=激活(W’ht)二、LSTM与Gradientdes
宋老板的笔记
·
2022-11-14 15:25
机器学习
Meta learning - metric-based approach
李宏毅机器学习笔记
SiameseNetwork孪生网络,通常不会放在metalearning里面但是李宏毅就要把这个网络放在metalearning里面讲所以为什么孪生网络可以看成metalearning呢?一、直观解释IntuitiveExplanation可以将train和test看成一组输入,就是一个简单的二分类问题。原理:用CNN将人脸图片投影到同一个空间上,考量这个空间上两张图片的距离(similarit
宋老板的笔记
·
2022-11-14 15:25
机器学习
2020
李宏毅机器学习笔记
——26.Conditional Generation by GAN(条件生成—GAN)
ConditionalGenerationbyGAN文章目录摘要1.SupervisedConditionalGAN1.1Traditionalsupervisedapproach1.2ConditionalGAN2.unsupervisedconditionalGAN2.1什么是unsupervisedconditionalGAN2.2unsupervisedconditionalGAN要怎么做
HSR CatcousCherishes
·
2022-11-14 13:48
机器学习基础课程知识
深度学习
神经网络
机器学习
李宏毅机器学习笔记
第14周_生成式对抗网络(GAN)
文章目录一、NetworkasGenerator二、Whydistribution?三、AnimeFaceGeneration四、Discriminator五、BasicIdeaofGAN六、Algorithm七、ProgressiveGAN八、OurObjective九、Samplingisgoodenough十、Discriminator十一、TipsforGAN1.JSdivergencei
MoxiMoses
·
2022-11-14 13:43
机器学习
深度学习
2021
李宏毅机器学习笔记
--23 Theory behind GAN
2021
李宏毅机器学习笔记
--23TheorybehindGAN摘要一、MaximumLikelihoodEstimation(最大似然估计)二、MLE=MinimizeKLDivergence(最小KL
guoxinxin0605
·
2022-11-14 13:12
【345】机器学习入门 -
李宏毅机器学习笔记
参考:[机器学习入门]经典台大李宏毅机器学习课程从这里开始TOPICBLOGPDFVIDEO【1】LearningMap(学习导图)blogpdfvideo【2】Regression:CaseStudy;回归:案例研究blogpdfvideo【3】GradientDescent;梯度下降blogpdfvideo【4】Wheredoestheerrorcomefrom?;误差分析blogpdfvid
sas???
·
2022-11-12 11:43
[机器学习入门]
李宏毅机器学习笔记
-19 (Deep Generative Model-part 2:深度生成模型-part 2)
[机器学习入门]
李宏毅机器学习笔记
-19(DeepGenerativeModel-part2:深度生成模型-part2)PDFVIDEOWhyVAE?
holeung
·
2022-11-12 11:42
机器学习
机器学习入门
机器学习
深度生成模型
生成学习
[机器学习入门]
李宏毅机器学习笔记
-20 (Deep Generative Model-part 3:深度生成模型-part 3)
[机器学习入门]
李宏毅机器学习笔记
-20(DeepGenerativeModel-part3:深度生成模型-part3)PDFVIDEO上接part2,VAE从来没有去学习产生一张看起来能以假乱真的image
holeung
·
2022-11-12 11:42
机器学习
机器学习入门
机器学习
深度学习
[机器学习入门]
李宏毅机器学习笔记
-18 (Deep Generative Model-part 1:深度生成模型-part 1)
[机器学习入门]
李宏毅机器学习笔记
-18(DeepGenerativeModel-part1:深度生成模型-part1)PDFVIDEOCreation据说在费曼死后,人们在他生前的黑板上拍到如图画片,
holeung
·
2022-11-12 11:41
机器学习
机器学习入门
机器学习
无监督学习
深度学习
李宏毅机器学习笔记
——生成式对抗网路(Generative Adversarial Network, GAN)
概念生成式对抗网络(GAN,GenerativeAdversarialNetworks)是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。模型通过框架中(至少)两个模块:生成模型(GenerativeModel)和判别模型(DiscriminativeModel)的互相博弈学习产生相当好的输出。输出是一个分布。z是简化的分布。举例输入过去的画面,通过网络预测出下一步的画面,在同时
vincewm
·
2022-11-11 11:05
机器学习
机器学习
深度学习
人工智能
李宏毅机器学习笔记
:自注意力机制
自注意力机制1.self-attention关注输入数据的全局信息没有考虑位置信息计算量是序列长度的平方每个输入ai乘以不同的矩阵,得到向量q、k、v,q表示查询向量,用q乘以所有输入的k向量得到的值再进行softmax归一化,作为输入a的权重和输入a的v向量进行点乘,加起来就得到了a对应的输出:bi把全部输入看成一个向量I,分别乘以WqW^qWq,WkW^kWk,WvW^vWv(模型学习出来的参
chairon
·
2022-11-07 23:56
李宏毅机器学习
机器学习
人工智能
深度学习
李宏毅机器学习笔记
—— 15. Network Compression( 网络压缩)
摘要:本章主要是讲解了为什么要去做网络压缩,以及怎样去做压缩的五种方式。分别是网络剪枝,知识蒸馏,参数量化,架构设计和动态计算。(本章仅从软件方面去考虑)网络剪枝的基本思想是先评估weight和neuron的重要性,然后把不重要的删除掉。知识蒸馏的基本思想是训练一个大网络,用小网络(StudentNet)学习大网络(teachernet)。并计算两者之间的cross-entropy,使其最小化,从
HSR CatcousCherishes
·
2022-11-06 14:32
机器学习基础课程知识
卷积
机器学习
人工智能
李宏毅机器学习笔记
第18周_神经网络压缩(Network Compression)
文章目录一、NetworkPruning1.Networkcanbepruned2.Weightpruning3.Neuronpruning4.WhyPruning?二、KnowledgeDistillation三、ParameterQuantization四、ArchitectureDesign1.DepthwiseSeparableConvolution2.Lowrankapproximati
MoxiMoses
·
2022-11-06 14:57
机器学习
深度学习
李宏毅机器学习笔记
——卷积神经网络
卷积神经网络为什么CNN来做图片识别CNN的整体框架卷积Convolution最大池化MaxPooling压平FlattenCNNinKerasCNN学习了什么DeepDreamCNN的应用为什么CNN来做图片识别图片一般有很多个像素,如果一个像素表示一个data的话,一般的神经网络的参数会很多很多,训练起来将会耗费大量时间。我们要求神经网络要做的其实是识别patterns,而patterns一般
Brandon1017
·
2022-11-06 14:50
李宏毅老师的《机器学习》
机器学习
cnn
深度学习
李宏毅机器学习—读书笔记
李宏毅机器学习笔记
(LeeML-Notes)leeml-notes机器学习人工智慧(ArtificialIntelligence)是我们想要达成的目标,希望机器可以跟人一样的聪明。
studyeboy
·
2022-11-06 07:41
深度学习
机器学习
人工智能
李宏毅svm_【
李宏毅机器学习笔记
】 18、支持向量机(Support Vector Machine,SVM)...
【
李宏毅机器学习笔记
】1、回归问题(Regression)【
李宏毅机器学习笔记
】2、error产生自哪里?
三毛不是三毛
·
2022-11-06 07:39
李宏毅svm
[机器学习入门]
李宏毅机器学习笔记
-23(Support Vector Machine;支持向量机)
[机器学习入门]
李宏毅机器学习笔记
-23(SupportVectorMachine;支持向量机)PDFVIDEOSupportVectorMachineOutlineHingeLossBinaryClassification
holeung
·
2022-11-06 07:08
机器学习
机器学习入门
机器学习
square
SVM
支持向量机
[机器学习入门]
李宏毅机器学习笔记
-26(Structured Support Vector Machine part 1;结构化支持向量机part 1)
[机器学习入门]
李宏毅机器学习笔记
-26(StructuredSupportVectorMachinepart1;结构化支持向量机part1)PDFVIDEO首先回顾一下StructuredLearning
holeung
·
2022-11-06 07:08
机器学习
机器学习入门
机器学习
结构化
结构化SVM
SVM
【
李宏毅机器学习笔记
】4、Classification
【
李宏毅机器学习笔记
】1、回归问题(Regression)【
李宏毅机器学习笔记
】2、error产生自哪里?
qqqeeevvv
·
2022-11-06 07:55
机器学习
机器学习
【
李宏毅机器学习笔记
】3、gradient descent
【
李宏毅机器学习笔记
】1、回归问题(Regression)【
李宏毅机器学习笔记
】2、error产生自哪里?
qqqeeevvv
·
2022-11-06 07:25
机器学习
机器学习
gradient
descent
梯度下降
tip
【
李宏毅机器学习笔记
】2、error产生自哪里?
【
李宏毅机器学习笔记
】1、回归问题(Regression)【
李宏毅机器学习笔记
】2、error产生自哪里?
qqqeeevvv
·
2022-11-06 07:54
机器学习
机器学习
error
李宏毅机器学习笔记
(2016年的课程):Support Vector Machine (SVM)
1.各种loss函数f=np.arange(-3,3+1e-8,0.001)py=np.array([1.]*len(f))defget_ideal(yf):returnnp.where(yf>=0,0,1)defsquare(yf):returnnp.square(yf-1.)defsigmoid(x):return1./(1+np.exp(-x))defsquare_sigmoid(yf):r
一杯敬朝阳一杯敬月光
·
2022-11-06 07:24
笔记
机器学习
深度学习
支持向量机
机器学习 - 李宏毅笔记
李宏毅机器学习笔记
1.机器学习简介1.1机器学习项目流程1.1.1找到未知函数1.1.2定义训练损失函数1.1.3优化2.机器学习攻略指南(实现一个好的模型)2.1训练集loss过大or过小2.1.1如果
EDG viper
·
2022-11-01 03:02
机器学习
机器学习
人工智能
2021
李宏毅机器学习笔记
--14 conditional generation by RNN & attention
2021
李宏毅机器学习笔记
--14ConditionalGenerationbyRNN&Attention摘要一、Generation1.1Generation1.2ConditionalGeneration
guoxinxin0605
·
2022-10-28 05:58
神经网络
机器学习
2021
李宏毅机器学习笔记
--22 Generative Adversarial Network 01
@[TOC](2021
李宏毅机器学习笔记
–22GenerativeAdversarialNetwork01(GAN,生成式对抗网络))摘要GAN是建立于神经网络的基础上的,其核心思想是“生成”与“对抗”
guoxinxin0605
·
2022-10-28 05:58
机器学习
神经网络
2020
李宏毅机器学习笔记
——19. Transformer(全自注意力网络)
摘要:本章主要是介绍了Transformer(全自注意力网络),首先通过sequence-to-sequence模型中的RNN存在问题——不能并行计算,CNN替换可以解决一部分问题,但也存在缺陷。是便引入了Self-AttentionLayer来替代RNN的sequence-to-sequence模型——Transformer,之后讲解Self-Attention的基本原理与具体过程。接着增加了一
HSR CatcousCherishes
·
2022-10-24 18:40
机器学习基础课程知识
深度学习
机器学习
神经网络
2021/2022
李宏毅机器学习笔记
-Transform
Transformer就是一个Sequence-to-sequence的model,他的缩写,我们会写做Seq2seq,那Sequence-to-sequence的model,又是什么呢?我们之前在讲inputasequence的,case的时候我们说input是一个sequence,那output有几种可能●一种是input跟output的长度-样,这个是在作业二的时候做的●有一个case是ou
nousefully
·
2022-10-24 18:04
深度学习
李宏毅机器学习笔记
【未完】
李宏毅2021/2022春机器学习课程【《2021机器学习-李宏毅》学习笔记】一、机器学习1.机器学习基本概念找一个函数。深度学习:使用类神经网络的函数。可以有各式各样的输入:向量,矩阵(如图像),序列(如语音,文本);也可以有各式各样的输出:数值(regression),类别(classification),文本图像…函数类别Regression(回归):输出是一个数值(scalar)Class
AbyssssssssssS
·
2022-10-24 18:30
计算机散养
机器学习
人工智能
李宏毅机器学习笔记
——Transformer
李宏毅机器学习笔记
——Transformer本章主要是介绍了Transformer(全自注意力网络):1.通过sequence-to-sequence模型中的RNN存在问题——不能并行计算,CNN替换可以解决一部分问题
NLP小白+
·
2022-10-19 19:41
自然语言处理
深度学习
2020
李宏毅机器学习笔记
-More about Auto-encoder
目录摘要1.MoreaboutAuto-Encoder1.1Whatisgoodembedding1.2BeyondReconstruction:Discriminator2.SequentialData2.1Skipthought2.2Quickthought2.3ContrastivePredictiveCoding(CPC)3.FeatureDisentangle(特征解耦)3.1Featu
ZN_daydayup
·
2022-10-10 10:36
机器学习
神经网络
深度学习
2020
李宏毅机器学习笔记
——22.More about Auto-encoder(自动编码器)
MoreaboutAuto-encoder文章目录摘要1.(最小化重构误差)minimizingreconstructionerror1.1回顾Auto-encode2.评估encoder2.1Whatisgoodembedding?2.2BeyondReconstruction:Discriminator2.3Typicalauto-encoderisaspecialcase3.auto-enc
HSR CatcousCherishes
·
2022-10-10 10:03
机器学习基础课程知识
自编码器
机器学习
深度学习
李宏毅机器学习笔记
——自编码器(Auto-encoder)
概念自编码器(autoencoder,AE)是一类在半监督学习和非监督学习中使用的人工神经网络(ArtificialNeuralNetworks,ANNs),其功能是通过将输入信息作为学习目标,对输入信息进行表征学习(representationlearning)。自编码器包含编码器(encoder)和解码器(decoder)两部分。Self-supervisedLearning自监督学习self
vincewm
·
2022-10-10 10:00
机器学习
机器学习
人工智能
深度学习
李宏毅机器学习笔记
第15周_自编码器(Auto-encoder)
文章目录前言一、BasicIdeaofAuto-encoder二、FeatureDisentanglement三、DiscreteLatentRepresentation四、MoreApplications总结前言自编码器(Auto-encoder)是一种能够通过无监督学习,学习到输入数据高效表示的人工神经网络。本文会简要地说明什么是自编码器(Auto-encoder),以及会介绍到自编码器(Au
MoxiMoses
·
2022-10-10 10:28
机器学习
深度学习
上一页
1
2
3
4
5
6
7
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他