转自:机器学习思维导图_wlkdb的博客 20180620
GitHub - dformoso/machine-learning-mindmap: A mindmap summarising Machine Learning concepts, from Data Analysis to Deep Learning.
转自:机器学习6种简单实用算法及学习曲线、思维导图 20200108
转自:一张机器学习算法的思维导图_麦田里的守望者 20190908
Density-Based Spatial Clustering of Applications with Noise (DBSCAN)
DBSCAN算法具有以下特点:
DBSCAN算法需要2个输入参数:epsilon, minpts;
对于一个样本点,只有满足“在其以epsilon为半径的邻域内至少包含有minpts(核心点的最少邻居数)个样本点”的条件,才能将其划分为一个簇;
The DBSCAN algorithm identifies three kinds of points:
Matlab工具箱中实现的DBSCAN算法的处理步骤:
DBSCAN算法尚存在的缺陷:
DBSCAN利用epsilon, minpts来度量数据的绝对全局密度,但只采用了一组参数,无法区分小的、靠近的、密集的簇和大的、稀疏的簇;
DBSCAN - MATLAB & Simulink - MathWorks 中国
DBSCAN聚类算法——机器学习(理论+图解+python代码)_huacha__的博客 20180726
20分钟看懂DBSCAN的基本原理 - 知乎 20191027
NBC聚类算法也是一种基于邻域的聚类算法,它根据数据的邻域特征/邻域关系发现簇(clusters)。
NBC算法具有以下优点:
实验表明,NBC在聚类效果和聚类效率上都优于DBSCAN。
作者不将NBC视作是现有聚类方法的一个替代,而是视为一个很好的补充。
NBC的核心概念是邻域密度因子NDF,NDF是一种相对局部密度度量,区别于DBSCAN中所使用的绝对全局密度度量;
“那些k-最近邻中包含点p的点的数量应该不少于点p的k-最近邻中所包含的点的数量;”这句话这么理解:点p的k-最近邻中所包含的点的数量即是k个,但点p肯定会落入 数量不少于k个的点 的k-最近邻中;
the definitions of k-nearest neighbors set and reverse k-nearest neighbors set.
the definitions of an object’s neighborhood.
the definitions of the reverse k-Neighborhood
def1 kNN§: 点p的k个最近邻点的集合;(点p不计数,即kNN§中不包含点p)
def2 R-kNN§: 那些k-最近邻中包含点p的点的集合;
def3 rNB§: 点p的邻域(以p为中心,r为半径)中所包含的点的集合;(rNB§中不包含点p)
def4 kNB§: 距点p距离等于“kNN§中距点p的最远距离”的点的集合;(例如,点p的k-th, (k+1)-th, …最近邻点与点p的距离可能相等呢)
def5 R-kNB§: 那些kNB()中包含点p的点的集合;
从局部视角看,数据库中的数据点可以唯一地分为三种类型:密集点、稀疏点和均匀分布点(dense point, sparse point and even/uniformly distribution point)。直觉上,簇内部的点应该是稠密点或偶数点,簇边界上的点大多为稀疏点;离群点和噪声也是稀疏点。
def6 NDF的定义
With NDF, we give the definitions of three types of data points in local sense: local even points, local dense points and local sparse points.
def10 基于邻域的密度直达
def11 基于邻域的密度可达
def12 基于邻域的密度相连
NBC算法的处理步骤:
数学公式粗体 \textbf{} 或者 m e m o r y {\bf memory} memory
数学公式粗斜体 \bm{}
摘录自“bookname_author”
此文系转载,原文链接:名称 20200505
高亮颜色说明:突出重点
个人觉得,:待核准个人观点是否有误
分割线
分割线
问题描述:
原因分析:
解决方案: