精通 ML 的关键: 欧式空间对映
By 高焕堂 / AI 建模师俱乐部会长
*** 本文摘自 高焕堂 的下列书籍 ***
*** 以及北京【电子世界杂志】连载专栏 ***
空间对映(Mapping)的涵意
ML(Machine Learning)的目的并不是拿数据来运算,而是在于〈观察〉 在此 X 空间里数据的大小、分布及重复出现频率(次数)等。每一笔数 据成为空间里的一个点,而每一笔的字段(特征)成为空间的维度 (Dimension)。于是,各笔数据的特征值成为该点的坐标值。
所以,您所观察、收集的数成为 ML 所看到的点(代表人看到自然界空 间的实际事物)的坐标值(如经纬度)。ML 观察这个 X 数据空间,如同 地理师在观察一个区域的风水,看出其龙脉、建物高低大小颜色形状、密度等等。
人类看到自然空间的实际事物,收集这些事物的特征,提供给 ML。 而 ML 则透过这些(训练)数据来(间接)观察实际事物。这些 X 数据并不 是 ML 拿来计算的目标,而是成为 X 空间里的坐标,来观察自然空间 里实际事物之间的关联性(Correlation)。
例如,所谓数据分析、回归分析等都是 ML 透过数据空间(如同故乡照 片)来间接观察自然空间(如同家乡)里的实际事物之间的关联性。
从 X 空间到 Y 空间映射(Mapping)就是把 X 空间的原始数据(代表自 然空间的实物)投影到 Y 空间。就如同把故乡(实物空间)的照片(X 空间 原始数据)放到投影机上投影到白板(Y 空间)上。人们可以设定投射的 角度、亮度等参数;还可以加上过虑镜片等等。
自然空间里人们所感兴趣的一项事物,并收集其特征,就成为一笔原 始资料(Raw data)。自然空间里的一项(人们所感兴趣的)实际事物各 对映到一笔原始资料。亦即各对映到 X 空间里的一点;然后再映射(过 滤)到 Y 空间;还可再从 Y 空间映射(过滤)到 z 空间。
由于 ML 和人一样都有记忆、比较的能力,所以在逐笔从 X 对映到 Y 空间的过程中,可以抽象出各笔之间的共相(共通性)。因此在持续映 射的过程中,会不断强化其对共性的记忆强度。
就如同一位见多识广、阅历愈丰富的人,其心中会从经验中累积(强化) 其所观察过事物的共同法则(即共相)。这也就是专家直觉的基础源头。 此时,在这个 X*W+B=Y 的对映公式,扮演核心角色。
现在就从简单的空间对映(Space Mapping)出发
例如:
其 mapping 公式:
以及:
以及:
其实,这里的空间,只是人人都知道的二维坐标平面:
这是 ML 的基础知识。
我们的基本动作就是,替每一行(Column)的数据,配上一个权重(Wn):
然后,ML 的任务就是找出最适合的 W。
现在,演练一下,假如您是 AI,您来找找 W:
W0 和 W1 可以为正或负。其空间对映如下:
请问您找出适合的 W0 和 W1 值为何呢? “适合”意味着,可能有多 个适合的答案。也请说明,何者最适合。理由是什么?
请继续练习:
其空间对映如下:
请问您找出适合的 W0 和 W1 值为何呢? “适合”意味着,可能有多 个适合的答案。也请说明,何者最适合。理由是什么?
请继续练习:
其空间对映如下:
请问您找出适合的 W0 和 W1 值为何呢? “适合”意味着,可能有多 个适合的答案。也请说明,何者最适合。理由是什么?
#=============== ============
欢迎加入…
<中国 AI 建模师俱乐部>微信群
新创期间,免入会费
询问:[email protected] Melody 收
*** *** *** *** *** *** *** *** ***
从简单的空间对映(Space Mapping)出发。精通 ML 的关键知识是:
潜藏空间(Latent Space)。例如:
其 mapping 公式:
以及:
其实,这里的空间,只是人人都知道的二维坐标平面和一维坐标数线:
这是 ML 的基础知识。
我们的基本动作就是,替每一行(Column)的数据,配上一个权重:
然后,ML 的任务就是找出最适合的 W。
换句话说,ML 在其 W 空间里寻找出最适合的[w0, w1]。这也可表示 成为维 W 空间里的一个坐标点。
于是,总共有 3 个空间:
X 空间就像,Y 空间就像,而 W 空间就像把考题与 答案进行”连连看”的。如下图:
现在,X和 Y都是已知了。就让 ML 来。
于是 ML 就去寻找出适合的[w0, w1]来将 X 空间的映射(Mapping)到 Y 空间。
例如,ML 找到了[0, 0],如下图:
这 Excel 表格里的数据,成为空间里的坐标值。如下图所示:
还有:
其对映关系就是:X * W + B = Y。在这个例子里,B 值为:0。
所以简化为:X * W = Y。例如,目前 X 空间里有 2 个点,就逐一映 射过去 Y 空间。首先,将 X 空间里的一个点,映射过去,如下图:
再来,将另一个点映射过去,如下图:
上述目的是让您熟悉这三个空间(X, Y 和 W)之映射关系。然后,在下 一小节里,将说明 ML 如何逐步找出最适合的[w0, w1]值。也会让您 理解到:这个最适解[w0, w1]是寻找出来的,而不是一般方程式计算出来的。
我们再从这个范例出发:
从这个范例,我们很容易看出来最适合的[w0, w1]值,如下图:
在这条在线的每一个点的坐标值,都是最适合的[w0, w1]值。
例如,其中的[0.5, -0.5]就是一个适合解:
兹拿一笔 X 数据来检验它的对映关系:
确实能将数据空间里的 X=[1,1],对映到潜藏空间里的 Y=[0]:
再拿另一笔 X 数据来检验它的对映关系:
确实能将数据空间里的 X=[0.5, 0.5],对映到潜藏空间里的 Y=[0]:
于是 W 空间记忆(录)了 X 与 Y 空间的对映关系。
最适解是 ML 寻找出来的,不是一般数学方程式计算出来的。
ML 有许多种寻找方法。例如,梯度下降法就是常见的方法之一。
寻找是一个过程,总有一个起始点,又称为:初期(Initial)权重值。
于是,人们就把起始点输入给 ML:
并且按下,此时 ML 就展开了,然后输出它 所寻找到的最适解[0.5, -0.5]:
它呈现于 W 空间里:
从不同的起始点出发,可能会寻找到不一样的最适解。例如,设定另 一个起始点(如[1, 1]):
于是,人们就把起始点输入给 ML,并且按下,此时 ML 就展开了,然后输出它所寻找到的最适解[0, 0]:
它呈现于 W 空间里:
再看看另一个不同的起始点,可能又会寻找到不一样的最适解。例如, 设定另一个起始点(如[-0.4, 0.8]):
于是,人们就把起始点输入给 ML,并且按下,此时 ML 就展开了,然后输出它所寻找到的最适解[-0.6, 0.6]:
它呈现于 W 空间里:
ML 的任务就是:探索 X 空间,找出从 X 对映到 Y 空间的相关性,然 后呈现并记忆于 W 空间里。呈现于 X 空间里的最适解,就表现了自 然空间里真实事物的最贴切的关联性(即相关性)。
◆◆◆
欢迎继续阅读第 3 集
*** *** *** *** *** ***
#=============== ============
欢迎加入…
<中国 AI 建模师俱乐部>微信群
新创期间,免入会费
询问:[email protected] Melody 收
*** *** *** *** *** *** *** *** ***