E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Coursera机器学习笔记
自学
机器学习笔记
(二十一)
K-均值聚类假设空间由N个点{Xi},i=1,2,……N,我们把这N个点划分为K类,对每个点设置一个隐含变量{Zi}i=1,2,……N,Zi取值范围为1,2,……K。表示相应的Xi所属类别,我们要将同一类别的点的欧氏距离比较近,因此我们设置每一个类别的中心为C1,C2……CKK均值聚类的优化目标最小化:要合理选取每个点的类别和类别的中心,这是一个非连续的优化问题,我们把这类优化问题叫整数规划。问题
梦忆师
·
2023-04-02 21:10
机器学习
聚类
人工智能
机器学习笔记
--模型评估之二:准确率、精确率、召回率、F1Score与ROC
准确率(precision)P:其中,TP(真正,TruePositive)表示真正结果为正例,预测结果也是正例;FP(假正,FalsePositive)表示真实结果为负例,预测结果却是正例;TN(真负,TrueNegative)表示真实结果为正例,预测结果却是负例;FN(假负,FalseNegative)表示真实结果为负例,预测结果也是负例。显然,TP+FP+FN+TN=样本总数精确率(Prec
dudu妈
·
2023-04-02 10:18
学习笔记
机器学习
Coursera
Chaptereight:Lists Assignment 8.5
8.5Openthefilembox-short.txtandreaditlinebyline.Whenyoufindalinethatstartswith'From'likethefollowingline:
[email protected]
:14:162008YouwillparsetheFromlineusingsplit()andprintout
jhy2
·
2023-04-02 09:01
python
李宏毅
机器学习笔记
DataWhale–李宏毅老师机器学习P5-P8《误差来源》和《梯度下降法》学习笔记学习笔记本文是李宏毅老师B站–《机器学习》课程的学习笔记,在此非常感谢DataWhale提供的平台,希望大家加入到这个学习的大家庭中,共同成长。本文主要是关于误差来源及梯度下降法的介绍,是在老师的讲解视频和学习文档的基础上总结而来。一、误差来源在机器学习中,模型估计的误差可以分为两种,偏差(Bias)和方差(Var
learn_for_more
·
2023-04-02 06:26
机器学习
人工智能
深度学习
神经网络初始化
参考资料:作业来自
Coursera
课程ImprovingDeepNeuralNetworks:Hyperparametertuning,RegularizationandOptimization第1周作业
抬头挺胸才算活着
·
2023-04-02 05:38
2022-02-09 《为什么学生不喜欢上学》 Daniel T. Willingham
本书是认知心理学家写的,他的优秀同行也在
coursera
上的learninghowtolearn(学习如何学习)课程中有生动的动画版解释,可以参照步步登天方法论、步步走出厌学症。
思想筆記
·
2023-04-01 23:55
进大厂全靠自学,微软&头条实习生现身说法:我是这样自学深度学习的丨课程传送门...
她自学成才,有Udacity、deeplearning.ai、
Coursera
的一大堆课程认证,甚至连大学都是上的以自学、MOOC著称的Minerva大学,自学卓有成
小詹学 Python
·
2023-04-01 09:33
Deep Learning笔记:序
这个系列是
Coursera
上AndrewNG的专项课程DeepLearning的课程笔记。
帆_2065
·
2023-03-31 15:47
Coursera
:從頭自製計算機1--用Nand門搭建15個基本芯片(附全部芯片實現)
簡介項目1的要求是用Nand門搭建15個基本芯片.其理論基礎是:用And,Or和Not三種Boolean操作符就可以表示所有的Boolean函數用德摩根定律可以證明Or可以用And和Not表示And和Not可以僅用Nand表示根據以上結論,只需要使用Nand操作符,就可以表示所有的Boolean函數.講師在整個課程中"扮演"系統架構師(Systemarchitect)的角色,他們提供需要實現芯片的
離枝
·
2023-03-31 08:01
coursera
课程笔记:《如何学习》第三周
第一部分克服拖延症一、习惯:“僵尸”状态习惯是大脑的节能机制,它让我们的大脑可以同时处理其他的活动。当你习惯了做某件事,你就无须集中全部的注意力,这就为你节省了能量。习惯的四个阶段:第一阶段:信号cue这是你进入“僵尸状态”的触发器,触发器可能是你看到了待办事项清单上的第一件事,是时候做作业了;或是朋友发来的一条短信,是时候停止工作了。第二阶段:惯式routine这就是僵尸模式,你的大脑在接受线索
太空旅客007
·
2023-03-31 07:07
机器学习笔记
(4.1)
机器学习系列文章目录文章目录机器学习系列文章目录第九节一个例子算法原理算法的优缺点优点缺点关于K的选取尝试动手总结第十节一个例子算法原理算法的优缺点几个版本的决策树的比较优点缺点关于剪枝尝试动手扩展内容总结十一节一个例子算法原理如何处理连续值关于平滑算法的优缺点优点缺点尝试动手扩展内容总结第九节你好,从这一课时开始,我们将进入“模块三:分类问题”的学习。在算法部分,我会介绍一个跟算法思想相关的小例
临渊——摸鱼
·
2023-03-30 13:50
算法
数学建模
python
机器学习
算法
人工智能
机器学习笔记
(3)
预测PM2.5这次预测PM2.5的大作业,参考:https://github.com/Starscoder/Machine_LearningHomework/blob/master/MyPredict_PM2.5.ipynb,学习了利用pandas切片,以及利用ada梯度下降法计算w,收获很多,后面会在此基础上,把模型复杂化一些,将以前学习的线性回归方法用实例模拟一遍。
trying52
·
2023-03-30 12:22
机器学习笔记
(10)
学习打卡内容:阅读《李航统计学习方法》的65-74页学习Gini指数学习回归树剪枝根据自己阅读,先写出自己所认为的笔记。前面学习了决策树的建立方法。这样产生的树往往对训练数据的分类很准确,但对未知的测试数据的分类却没有那么准确,即出现过拟合现象。过拟合的原因在于学习时过多地考虑如何提高对训练数据的正确分类,从而构建出过于复杂的决策树。解决这个问题的办法是考虑决策树的复杂度,对已生成的决策树进行简化
trying52
·
2023-03-28 23:56
机器学习笔记
14: 独立成分分析
这一节的主题是独立成分分析(IndependentComponentsAnalysis,ICA)。和PCA的降维思路不同,ICA主要解决的是找到数据背后的“独立”成分。我们从一个鸡尾酒会问题开始说起。在一个鸡尾酒会中假设有n个人同时说话,屋子里的n个麦克风记录着这n个人说话时叠加的声音。由于每个麦克风离人的距离不同,它所采集到的声音是不同的,但都是这n个人声音的一种组合。那么问题是根据这些采集到的
secondplayer
·
2023-03-28 11:48
Coursera
.MachineLearning.Week10
MachineLearningWeek10:LargeScaleMachineLearningLargeScaleMachineLearning1.GradientDescentwithLargeDatasets1.1LearningwithlargeDatasets左侧是高方差,右侧是高偏差;对于高方差来说增大数据集是有效的改进方法,对于高偏差不需要增大数据集。Learningwithlarge
小异_Summer
·
2023-03-28 08:29
E-L-33的新年挑战--所有的瞬间
(洗面奶、爽肤水、乳液、防晒)、晚(洗面奶、爽肤水、乳液、面霜)百词斩:50词新年挑战v2.0挑战时间:#1903171446挑战内容:2019-03-27号更新完E1-E8系列笔记要求:笔记内容参见
机器学习笔记
EL33
·
2023-03-28 04:56
优化建模之MiniZinc(四) 复杂逻辑约束和调度问题实例
笔者对MiniZinc的学习多有赖于
Coursera
上的modellingfordiscretemodeling》系列以及MiniZinc的tutorial,如果对离散优化建模有兴趣,花些时间去上墨尔本大学和香港中文大学的这一系列课程必然能有所裨益
ChaoesLuol
·
2023-03-27 15:33
机器学习笔记
(1)--林轩田机器学习基石课程
MachineLearningandotherField机器学习和数据挖掘:机器学习是通过数据训练,借助设计的机器学习演算法,从众多的假说中,找到一个最接近最优映射关系f的过程。机器学习的模型就是机器学习演算法加上假设集。数据挖掘是从众多数据中,找到、挖掘出自己感兴趣的某个点。当你感兴趣的这个点正好是机器学习所要寻找的映射关系g的时候,数据挖掘就成了机器学习。机器学习和人工智能:人工智能是让机器做
数学系的计算机学生
·
2023-03-26 17:37
十大值得收藏的【国外学习网站】
N多【国外学习网站】学习网站,值得收藏~文章转自1纳米学习:1nami.com
coursera
免费大型公开在线课程项目http://https://www.
coursera
.org/Udemy一个在线教和学的平台
QY简录
·
2023-03-26 07:09
正则化(吴恩达
机器学习笔记
)
文章目录1.过拟合问题2.代价函数3.正则化线性回归1.梯度下降法2.正规方程4.正则化逻辑回归1.过拟合问题如图所示:第一个模型是线性的,属于欠拟合,不能很好的适应数据集,而第3个则是一个高次方的模型,过于拟合原始数据,从而不能很好的预测数据,属于欠拟合。也不难看出,当x的次数越高,训练出来的模型就会对数据集拟合的越好,但是其预测效果就会变差。解决方案:①减少特征的数量,丢弃掉一些非必要的特征。
是忘生啊
·
2023-03-26 07:02
机器学习
机器学习
逻辑回归
人工智能
2019-2-15晨间日记
,需要不断去写;说话方式模仿河小象;相机要重新买魔术腿;单词重新安排2.宝宝喜欢叫小名的游戏,相对比较活泼,快乐,可以参与更多内容3.要宝宝自己读一本,我读两本习惯养成:跑步周目标·完成进度20%写作
Coursera
0%
yesifeng
·
2023-03-25 14:37
机器学习正则化ppt_吴恩达
机器学习笔记
(三) —— Regularization正则化
主要内容:一.欠拟合和过拟合(over-fitting)二.解决过拟合的两种方法三.正则化线性回归四.正则化logistic回归五.正则化的原理一.欠拟合和过拟合(over-fitting)1.所谓欠拟合,就是曲线没能很好地拟合数据集,一般是由于所选的模型不适合或者说特征不够多所引起的。2.所谓过拟合,就是曲线非常好地拟合了数据集(甚至达到完全拟合地态度),这貌似是一件很好的事情,但是,曲线千方百
希望阳光下
·
2023-03-25 03:04
机器学习正则化ppt
机器学习笔记
(2-3)--林轩田机器学习基石课程
GuranteeofPLA这一小节,老师解决了我上一节中遗留的问题。首先,只有当数据集data是线性可分的时候,才存在f超平面,将空间没有错误地划分成两块。所以,PLA才能输出一个可行解g。其次,证明PLA可以在有限步输出g分为三部分:证明w_f·w_{t+1}>w_f·w_{t}(其中w_f是最优解f对应的权向量):这一证明意味着,经过不断的修正,w_t会变得越来越接近理想的w_f。证明w_{t
数学系的计算机学生
·
2023-03-24 12:54
Coursera
上课程学习——《Human-Computer Interaction》
大概是从一月八日开始学习,将
Coursera
上的一门课程——《Human-ComputerInteraction》给学完了,并整理了一些笔记。这里记录一下这个过程。
ConanXin
·
2023-03-23 15:13
Reinforcement Learning2
coursera
byUniversityofAlbertaSample-basedLearningMethodsWeek11、MonteCarlo蒙特卡洛方法使用DynamicProgramming的局限性在于
oword
·
2023-03-23 13:32
#1:
机器学习笔记
-入门
关于机器学习你需要知道的几件事:机器学习是人工智能的一个领域。机器学习是一种解决问题的方式。我们首先去定义一个问题,然后构建数据集,然后处理数据,训练模型,最后用这个训练好的模型去做一些预测机器学习听起来很神秘,他到底有什么样的应用呢?在诸如预测房价,未来天气等都会用到机器学习。还有我们的手机中也有很多AI产品的应用,比如拍照软件中的人脸识别,翻译软件通过语音输入来翻译成各国语言等。大概了解到机器
哇咔咔_wang
·
2023-03-23 05:45
Reinforcement Learning4
coursera
byUniversityofAlbertaACompleteReinforcementLearningSystem(Capstone)前面有很多都是复习之前的知识点,直接跳到新的地方1、
oword
·
2023-03-22 15:28
Coursera
C++ Part A [Week4] STL basic and C++11
这节课掌握重要情报,教授家里养了Googly和Hamster两只猫,名字取得好恶趣味233CourseOverviewEnumandenumclassPrim'sandKruskal'salgorithms重载and友元函数STLandSTLinC++11输出随机图SuggestedReadingsC++forCProgrammers,ch.8C++byDissection,ch.6-71.enu
小啾Kris
·
2023-03-22 14:56
机器学习基石第一次作业
coursera
林轩田的《机器学习基石》很有意思,我把一些编程作业总结在这里,参考了macJiang的答案:https://blog.csdn.net/a1015553840/article/details
ThomasYoungK
·
2023-03-21 23:57
【吴恩达
机器学习笔记
详解】第六章 逻辑回归
第五章主要讲的是编程语言的介绍,因为我们现在用python的比较多,所以就没有再看那一章。但是5.6值得看一下5.6矢量现在的变成语言包含了各种各样的矩阵库,所以通常进行矩阵计算的时候我们直接用命令即可,如果使用了合适的向量化方法,代码会简单很多。下面进行一些例子的讲解。这是线性回归的假设函数,他是从0到j的一个求和,我们也可以把他看作是矩阵的相乘,θ的转置×x,可以写成计算两个向量的内积。前面的
爱冒险的梦啊
·
2023-03-21 07:04
机器学习教程
机器学习
逻辑回归
人工智能
机器学习 | 吴恩达机器学习第三周学习笔记
课程视频链接:https://www.
coursera
.org/learn/machine-learning/home/welcome第三周PPT下载密码:8o4e上一篇博客主要介绍了第二周的课程的内容
CoreJT
·
2023-03-21 07:58
林轩田机器学习
机器学习
逻辑回归
过拟合
正则化
吴恩达
吴恩达
机器学习笔记
:逻辑回归分类、神经网络
机器学习笔记
:逻辑回归分类、神经网络逻辑回归LogisticRegression(不是很懂)正则化Regularization神经网络NeuralNetworks(也不太懂)建议评估假设算法模型选择和交叉验证集诊断偏差和方差正则化和偏差
流动的时间里找你的旋律
·
2023-03-21 07:26
神经网络
机器学习
深度学习
机器学习笔记
(吴恩达)——逻辑回归
假说表示我们引入一个新的模型,逻辑回归,该模型的输出变量范围始终在0和1之间。逻辑回归模型的假设是:hθ(x)=g(θTX)h_\theta\left(x\right)=g\left(\theta^{T}X\right)hθ(x)=g(θTX)其中:XXX代表特征向量ggg代表逻辑函数(logisticfunction)是一个常用的逻辑函数为S形函数(Sigmoidfunction),公式为:g(
Pyrs
·
2023-03-21 07:25
数据分析与机器学习
深度学习
python
机器学习
深度学习
算法
逻辑回归
机器学习笔记
(吴恩达)——逻辑回归作业
EX2逻辑回归1.1可视化数据importnumpyasnpimportmatplotlib.pyplotaspltimportpandasaspdfilepath=r'F:\jypternotebook\吴恩达机器学习python作业代码\code\ex2-logisticregression\ex2data1.txt'ex2_data1=pd.read_csv(filepath,header=
Pyrs
·
2023-03-21 07:25
数据分析与机器学习
深度学习
可视化
python
机器学习
深度学习
逻辑回归
逻辑回归(吴恩达
机器学习笔记
)
1.分类问题 在分类问题中,要预测的变量y是一个离散的值,尝试预测的结果是否属于某一个类,如:判断一封电子邮件是否是垃圾邮箱,区分一个肿瘤是恶性的还是良性的。 我们将因变量可能属于的两个类分别称为负向类和正向类,则因变量y∈0,1,其中0表示负向类,1表示正向类。2.假说表示 ,在逻辑回归中我们引入一个新的模型,该模型的输出变量范围始终在0和1之间。逻辑回归的假设是:hθ(x)=g(θTX)h_{
是忘生啊
·
2023-03-21 07:48
机器学习
逻辑回归
机器学习
算法
《deeplearning.ai》 课程一第三周 | Shallow neural networks
deeplearning.ai是机器学习领域大牛AndrewNg在
Coursera
上公布的新的深度学习的课程,相比之前机器学习的课程,本课程更偏重于深度学习的领域。
V怪兽
·
2023-03-19 17:24
机器学习笔记
(7)
学习Datawhale对《李宏毅机器学习》决策树章节补充的内容:AdditionalReferences(熵的理解)学习目标:*信息量计算,原理*信息熵*证明0⩽H(p)⩽logn*联合概率,边缘概率*联合熵,条件熵,条件熵公式推导*互信息,互信息公式推导*相对熵,交叉熵*回顾LR中的交叉熵*计算给定数据集中的香农熵1、什么是熵(entropy)熵是热力学中的名词,是指自然世界中事物的混乱程度,在
trying52
·
2023-03-17 22:05
“敬这大争之世,敬这小酌之时”——张仪
后来在
Coursera
上选修了吕世浩老师的课程,有一个作业是介绍一个历史人物的。本想写秦惠文王,无奈史书资料太少,所以便把目光转向王身边的张子。魏皮秦骨的张仪,
萧斐龙
·
2023-03-17 18:28
吴恩达
机器学习笔记
(3)——Logistic 回归
放假这么久,天天摸鱼,已经好久没更新了,希望后面的更新速度能达到日更吧,这次给大家介绍的是Logistic回归,虽然是名字带有回归,其实是一个分类算法。废话不多说,我们先从例题来引入我们今天的算法。引论我们这次不讨论房价的问题了,这次我们来讨论肿瘤大小判断肿瘤是否是良性的肿瘤。这是一个两项分布问题,输出的结果只可能是两个一个是是另一个是否。我们可以用0,1来表示输出的结果。那么我们如何来区分良性还
机智的神棍酱
·
2023-03-17 10:29
45、P1 W6 U6.7 总结
视频:如果本次课程对应的
Coursera
的视频打不开,可以点击下面链接P1W6U6.7-Perspectives首先回答同学的几个问题1.能不能在不变动Hack的机器指令和Hack的汇编语言的翻译规则的情况下
shazizm
·
2023-03-16 05:00
机器学习笔记
第3课:参数算法和非参数算法
什么是参数机器学习算法?它与非参数机器学习算法有何不同?“假设”通常会大大简化学习过程,但也会限制学到的东西。将函数简化为已知形式的算法,称为参数机器学习算法。它包括两个步骤:选择函数的形式。从训练数据中学习该函数的系数。常见的参数机器学习算法是线性回归和逻辑回归。相反地,不对映射函数的形式做出有力假设的算法,称为非参数机器学习算法。通过不作出任何假设,它可以自由地从训练数据中学习任何形式的函数。
首席IT民工
·
2023-03-15 10:01
机器学习笔记
:XGBoost 公式推导
目标函数=损失函数+正则化项:在时刻的目标函数。:当前预测结果,其中是在时刻要训练的CART树,是已经训练得到的CART树的线性组合。:正则项,具体如下:这里是时刻训练的CART树的叶子结点个数,是在编号为的叶子结点上的输出,和是超参数。使用二阶泰勒展式对使用二阶泰勒展式:其中是在时刻要训练的CART树,且并且所以因为是一个确定的数,可以归入,上式右边把换成叶子结点的输出,再把用定义展开,上式右边
李威威
·
2023-03-14 22:51
机器学习笔记
13: 主成分分析
上一节我们介绍了因子分析,该模型通过一系列变换可以将高维数据用低维数据来表示。因子分析基于的是概率模型,并且需要用到EM算法进行参数估计。这一节我们介绍主成分分析(PrincipalComponentsAnalysis,PCA),这也是一种可以将高维数据映射到低维数据的方法,但是这种方法更加直接,计算方法也更为简单。问题假设我们有一个数据集{x(i);i=1,...,m}表示m种不同汽车的特征,比
secondplayer
·
2023-03-14 14:20
机器学习笔记
- 基于传统方法/深度学习的图像配准
一、图像配准图像配准是将一个场景的不同图像变换到同一坐标系的过程。这些图像可以在不同的时间(多时间配准)、由不同的传感器(多模态配准)和/或从不同的视点拍摄。这些图像之间的空间关系可以是刚性的(平移和旋转)、仿射(例如剪切)、单应性或复杂的大变形模型。更多关于图像配准的描述,请参考下面的链接。计算机视觉什么是图像配准?_坐望云起的博客-CSDN博客_图像配准图像配准是叠加两个或多个来自不同来源、在
坐望云起
·
2023-03-13 16:48
机器学习
深度学习
人工智能
计算机视觉
图像配准
特征点
《scala学习笔记0 -了解scala》
本文引用地址:原地址,原地址2为什么选择scala火热的网上公开课网站
Coursera
采用了Scala来作为他们的首选编程语言。
yqyang
·
2023-03-13 06:53
BP神经网络判定笑傲江湖人物门派
翻看一下
Coursera
的课程目录,默默从积灰的书堆底下翻出十多年前的《人工神经网络》教材,过上一把怀旧瘾。金庸大侠笔下《笑傲江湖》一书中,既有正邪之判,复存门户之别,少林、武当、青城、
vincentqiao
·
2023-03-13 00:30
机器学习笔记
之—SVM
假定有一个训练集,它要么属于正例,要么属于负例。在分类问题当中,我们最基本的想法就是基于训练集D在样本空间中找到一个划分超平面,将不同的样本分开。这样的划分平面有很多,哪一个是最好的呢?1.png假设其中一个划分超平面是鲁棒性、泛化能力最好的,对训练样本局部扰动的“容忍性”也最好,这个划分超平面用如下方程式描述:2.png3.png样本空间到这个超平面的距离d表示为:3.png,沿用一般求点到直线
Seven_Xiong
·
2023-03-12 09:16
【ML入门】李宏毅
机器学习笔记
02-回归问题(Regression)
【ML入门】李宏毅
机器学习笔记
02-回归问题(Regression)-知乎https://zhuanlan.zhihu.com/p/74684108
BG大龍
·
2023-03-12 03:56
机器学习笔记
一
Typeofmachinelearning机器学习的四种类型SupervisedLearning监督式学习监督学习的含义是指训练的数据类型是已知的,换句话说就是已经打了标签分过类的数据(Correctclassesoftrainingdataareknown),依赖于人为输入训练的算法,减少人工审查相关性和编码的开支。SupervisedLearning监督学习的典型例子:1.png2.png3.
GXW1996
·
2023-03-11 22:31
coursera
课程笔记:《如何学习》第四周
一、比喻和形象化建立暗喻或者类比,使得概念更容易理解。比喻能让你发现两种事物的相似之处,比如国家地图和大公鸡。比喻有助于你从思维定势中解脱出来,并能加固记忆。人们通过理解自己感知到的信息来学习。二、工作记忆大小与创新拥有较小的工作记忆意味着更擅长把所学知识归纳为更有创意的新组合。
太空旅客007
·
2023-03-11 15:21
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他