论文地址:https://arxiv.org/pdf/2003.00824
代码地址:https://github.com/gengchenmai/space2vec
近年来(注意文章时间是2020年),自监督的文本编码模型在自然语言处理(NLP)中大放异彩。像 Word2Vec、GloVe、ELMo、BERT 这些模型,核心思路都是将“词语”转化为向量形式,这些向量不仅考虑词语本身,还融入了它在句子中的位置与上下文关系。这种向量化的表示方式极大提升了模型对语义的理解能力,并推动了 NLP 的飞跃式发展。
而在空间信息科学(GIScience)中,我们其实面临着非常类似的问题:一个地点的意义,往往不只取决于它的坐标位置,更依赖于它周围的空间环境。比如,一个 POI(Point of Interest)周围若都是餐厅,那它大概率也是商业相关的设施。因此,能否像处理文本一样,也为“空间中的每一个点”构建语义丰富的向量表示,就成为了空间人工智能迈向通用性的重要一步。
目前主流的空间表示方法,大多采取固定规则将地理坐标“离散化”,例如将城市划分成规则格子(tile embedding),或者将坐标直接喂入神经网络模型中。然而,这些方法在面对现实世界的多样空间分布时显得力不从心。不同类型的 POI 分布形式差异极大,例如女装店往往集中在商业区,而学校则分布均匀。若只用一个固定大小的网格对所有类型统一建模,不是会导致过拟合(格子太小),就是信息稀疏(格子太大)。
如下图所示,女装类 POI 在地图上呈现出高度聚集的分布,而教育类 POI 则分布更均匀。使用 Ripley’s K 方法分析可以发现,不同 POI 类型的密度增长曲线在不同尺度下变化明显。如果我们强行用相同尺度对它们建模,只会让模型性能在不同类型间失衡。因此,亟需一种支持“多尺度表达”的新方法,能同时适应局部聚集与大范围均匀的分布模式。
值得一提的是,空间表示的“多尺度”问题,其实早已在生物学领域得到了回答。神经科学研究表明,哺乳动物的大脑中存在一种叫做“网格细胞(Grid Cells)”的神经元,它们以周期性的模式自动记录动物在空间中的位置。这种编码方式天然具有多尺度特性,帮助生物精准定位与路径导航。进一步研究发现,这种机制可以用多个角度相差 60° 的余弦函数叠加来模拟,构成一种六边形的周期性编码结构。
受到这一机制的启发,研究者提出了 Space2Vec 模型,通过引入多频率的正余弦函数,实现对地理位置的多尺度编码,并结合注意力机制来建模点与周围环境之间的空间关系。这个模型不仅在结构上模仿了大脑的导航系统,还在实际任务中展现出对不同空间分布的强适应性,为地理人工智能开辟了新的可能。
作者希望设计一个模型,能够对空间中的点进行“分布式表示”(Distributed Representation),即将地理空间中的每一个点表示成一个具有语义意义的向量。这种表示形式类似于自然语言处理中常见的词向量模型,但这里的“词”是地图上的“点”。
设一组空间点集合为:
P = p i \mathcal{P} = {p_i} P=pi
其中每个点 p i p_i pi 表示一个 POI(Point of Interest),可以用位置和属性表示为:
p i = ( x i , v i ) p_i = (\mathbf{x}_i, \mathbf{v}_i) pi=(xi,vi)
我们希望学习一个函数:
f P , θ ( x ) : R L → R d f_{\mathcal{P}, \theta}(\mathbf{x}) : \mathbb{R}^L \rightarrow \mathbb{R}^d fP,θ(x):RL→Rd
这个函数将任意坐标 x \mathbf{x} x 映射为一个 d-维的向量表示,其中 θ \theta θ 是模型的可训练参数。
这个函数的目标是捕捉空间中点的分布特性 f P , θ ( x ) f_{\mathcal{P}, \theta}(\mathbf{x}) fP,θ(x),从而为任意位置生成有意义的向量表示。换句话说,这个表示不仅仅反映了点的几何位置,也蕴含了其语义背景。
在类比自然语言处理任务中:
因此,属性 v i \mathbf{v}_i vi(例如“博物馆”)和坐标 x i \mathbf{x}_i xi 就分别类比为 NLP 中的“词的种类”和“词的位置”,而我们要构建的就是一种适用于空间点的“空间向量模型”。
为了实现空间点特征的分布式表示(distributed representation of point-features in space),Space2Vec 采用了一个 编码器-解码器(encoder-decoder) 的框架。整个过程可以分为两个阶段:编码(Encoding)与解码(Decoding)。
首先,对于任意一个点 p i = ( x i , v i ) p_i = (\mathbf{x}_i, \mathbf{v}_i) pi=(xi,vi),其中 x i \mathbf{x}_i xi 是该点的空间位置(如经纬度), v i \mathbf{v}_i vi 是其属性(例如 POI 类型、名称、容量等),将其分别进行编码:
最终,将两个向量拼接起来,形成该点的完整表示:
e i = [ e [ x i ] ; e [ v i ] ] ∈ R d , 其中 d = d ( x ) + d ( v ) \mathbf{e}_i = [\mathbf{e}[\mathbf{x}_i]; \mathbf{e}[\mathbf{v}_i]] \in \mathbb{R}^{d}, \quad \text{其中 } d = d^{(x)} + d^{(v)} ei=[e[xi];e[vi]]∈Rd,其中 d=d(x)+d(v)
这里的 [ ; ] 表示向量拼接操作。如果某些点的属性信息未知(例如某些预测区域),我们也可以只使用位置编码 e [ x j ] \mathbf{e}[\mathbf{x}_j] e[xj] 进行表示。
接下来,作者设计了两种解码器,用于从上述编码向量中“解读”出点的语义信息:
通过这种编码-解码机制,Space2Vec 实现了对空间中任意点的多尺度建模,既可以独立理解位置本身,也能结合空间邻居构建更丰富的语义表达。
Point Feature Encoder 的核心目标是:将空间中每个点所携带的属性信息(如 POI 类型、名称、功能等)编码为一个语义特征向量,记为 e [ v i ] ∈ R d ( v ) \mathbf{e}[\mathbf{v}_i] \in \mathbb{R}^{d^{(v)}} e[vi]∈Rd(v)。这种向量可以作为模型输入的一部分,帮助模型理解不同点的“是什么”。
在实际实现中,如果一个地理点 p i p_i pi 包含多个 POI 类型(这在现实中很常见,如“书店+咖啡厅”),我们会将这些类型各自的嵌入向量(embedding)取平均来获得该点的整体特征向量。具体公式如下:
e [ v i ] = 1 H ∑ h = 1 H t h ( γ ) \mathbf{e}[\mathbf{v}_i] = \frac{1}{H} \sum_{h=1}^{H} \mathbf{t}^{(\gamma)}_h e[vi]=H1h=1∑Hth(γ)
其中, H H H 是该点拥有的 POI 类型数量, t h ( γ ) \mathbf{t}^{(\gamma)}_h th(γ) 表示第 h h h 个 POI 类型的嵌入向量。为了保持数值稳定性,最终会对生成的特征向量进行 L 2 L_2 L2 归一化,使其具有统一的尺度。
但是作者没写某个POI类型的embedding是怎么来的。
在 Space2Vec 中,为了对空间位置(例如二维坐标)进行有效编码,作者提出了一种基于傅里叶变换原理的多尺度位置编码器 —— Point Space Encoder。我们可以将它看作是从大脑中“网格细胞”的周期性空间表示受到启发,结合傅里叶分析构建的一种编码方式。其目标是将任意二维位置向量 x ∈ R 2 \mathbf{x} \in \mathbb{R}^2 x∈R2 映射为一个高维的、方向敏感的、尺度可变的空间嵌入向量,用于表示空间中“某处”的语义特征。
傅里叶变换是一种经典的数学工具,它能将一个函数或信号表示为一组正弦函数和余弦函数的加权组合。在空间表示中,这种变换的一个显著优势是:能够通过不同频率的三角波对局部和全局结构进行编码。举个例子,我们可以用如下方式将一个标量坐标位置 x x x 编码为周期性向量:
[ sin ( f 1 ⋅ x ) , cos ( f 1 ⋅ x ) , sin ( f 2 ⋅ x ) , cos ( f 2 ⋅ x ) , … ] [\sin(f_1 \cdot x), \cos(f_1 \cdot x), \sin(f_2 \cdot x), \cos(f_2 \cdot x), \dots] [sin(f1⋅x),cos(f1⋅x),sin(f2⋅x),cos(f2⋅x),…]
其中每个频率 f i f_i fi 对应不同的尺度,能够捕捉位置 x x x 所在的环境在不同“分辨率”下的结构变化。这种编码方式不仅保留了位置之间的相对距离信息,还天然具有周期性,非常适合处理空间数据中重复结构的表达。事实上,Transformer 模型中的位置编码也是这一思想的变体。
在 Space2Vec 中,作者不仅使用多频率的正余弦函数,还引入了多个空间方向进行编码,以模拟生物神经系统中的网格细胞行为。具体来说,作者选择了三个互相夹角为 12 0 ∘ 120^\circ 120∘ 的方向向量:
a 1 = [ 1 0 ] , a 2 = [ − 1 2 3 2 ] , a 3 = [ − 1 2 − 3 2 ] \mathbf{a}_1 = \begin{bmatrix} 1 \ 0 \end{bmatrix},\quad \mathbf{a}_2 = \begin{bmatrix} -\frac{1}{2} \ \frac{\sqrt{3}}{2} \end{bmatrix},\quad \mathbf{a}_3 = \begin{bmatrix} -\frac{1}{2} \ -\frac{\sqrt{3}}{2} \end{bmatrix} a1=[1 0],a2=[−21 23],a3=[−21 −23]
对于一个二维空间位置 x \mathbf{x} x,在尺度 s s s 和方向 j j j 上的位置编码被定义为:
P E s , j ( t ) ( x ) = [ cos ( ⟨ x , a j ⟩ λ min ⋅ g s / ( S − 1 ) ) , sin ( ⟨ x , a j ⟩ λ min ⋅ g s / ( S − 1 ) ) ] ∀ j = 1 , 2 , 3 PE^{(t)}_{s,j}(\mathbf{x}) = \left[ \cos\left(\frac{\langle \mathbf{x}, \mathbf{a}_j \rangle}{\lambda_{\text{min}} \cdot g^{s/(S-1)}}\right), \sin\left(\frac{\langle \mathbf{x}, \mathbf{a}_j \rangle}{\lambda_{\text{min}} \cdot g^{s/(S-1)}}\right) \right] \quad \forall j = 1, 2, 3 PEs,j(t)(x)=[cos(λmin⋅gs/(S−1)⟨x,aj⟩),sin(λmin⋅gs/(S−1)⟨x,aj⟩)]∀j=1,2,3
其中:
这意味着,在每个尺度下,作者使用三个方向和两种波形(cos 和 sin),共生成 6 6 6 个数值,最终在 S S S 个尺度上拼接得到一个 6 S 6S 6S 维的向量作为位置的嵌入表示。
这种编码方式的优势在于它能实现“多尺度空间感知”。换言之,模型不仅能捕捉到空间中局部的微小变化(高频部分),还能同时理解更大范围的结构趋势(低频部分)。此外,相比于传统位置编码(例如 Transformer 中那种分别编码 x x x 和 y y y 维度的做法):
P E s , l ( g ) ( x ) = [ cos ( x [ l ] λ min ⋅ g s / ( S − 1 ) ) , sin ( x [ l ] λ min ⋅ g s / ( S − 1 ) ) ] ∀ l = 1 , 2 PE^{(g)}_{s,l}(\mathbf{x}) = \left[ \cos\left( \frac{x^{[l]}}{\lambda_{\text{min}} \cdot g^{s/(S-1)}} \right), \sin\left( \frac{x^{[l]}}{\lambda_{\text{min}} \cdot g^{s/(S-1)}} \right) \right] \quad \forall l = 1, 2 PEs,l(g)(x)=[cos(λmin⋅gs/(S−1)x[l]),sin(λmin⋅gs/(S−1)x[l])]∀l=1,2
Space2Vec 这种六边形方向周期编码方法具有更强的方向敏感性和空间结构表达能力,能模拟出类似于“网格状放电”的神经反应模式,显著提升对空间分布特征的建模能力。
Space2Vec 提出了解码器结构用于空间向量的反向建模,旨在解决两类典型的 GIS 问题:位置建模(Location Modeling)和空间上下文建模(Spatial Context Modeling)。
其中,Location Decoder 的核心目标是:仅通过一个点的位置向量,就能还原出这个点的语义特征信息。
在实际任务中,这种解码能力非常有用。例如,我们希望模型能仅根据一个地点的经纬度,预测出它的功能类型(如商店、公园、学校等),哪怕该地点没有明确标注标签。因此,Location Decoder 的任务可以理解为:位置 → 语义的学习过程。
具体来说,Location Decoder 被定义为一个前馈神经网络(Feed-forward Neural Network),记作 D e c s Dec_s Decs,它的输入是空间编码器输出的位置向量 e [ x i ] \mathbf{e}[\mathbf{x}_i] e[xi],输出是重构出的语义特征向量 e [ v i ] ’ \mathbf{e}[\mathbf{v}_i]’ e[vi]’。整个过程可以形式化为:
e [ v i ] ’ = D e c s ( x i ; θ d e c s ) = N N d e c ( e [ x i ] ) \mathbf{e}[\mathbf{v}_i]’ = Dec_s(\mathbf{x}_i; \theta_{dec_s}) = NN_{dec}(\mathbf{e}[\mathbf{x}_i]) e[vi]’=Decs(xi;θdecs)=NNdec(e[xi])
这里:
在训练过程中,作者采用了向量内积(dot product)作为相似性度量方式,通过比较预测向量 e [ v i ] ’ \mathbf{e}[\mathbf{v}_i]’ e[vi]’ 与真实语义嵌入 e [ v i ] \mathbf{e}[\mathbf{v}_i] e[vi] 的相似度,来优化模型参数。换句话说,目标是最大化它们之间的匹配程度,同时引入其他负样本(即来自其他位置的点的特征向量)作为对比,以增强判别能力。
这种从位置向语义的映射能力,是 Space2Vec 架构中最直接的地理推理方式,体现了“空间结构本身就蕴含语义”的基本假设。
除了基于位置的 Location Decoder,Space2Vec 还设计了一个更强大的模块:Spatial Context Decoder,它不仅使用中心点的位置,还结合了其邻近点的空间和语义信息,以更全面地预测该点的语义嵌入向量。这个设计非常适合处理地理信息系统(GIS)中常见的“空间上下文建模”任务,例如:一个位置的功能可能并不只是由自身决定,而是受其邻域环境影响(比如周围都是学校,那中间的点也可能是教育类设施)。
在具体实现中,对于一个中心点 p i = ( x i , v i ) p_i = (\mathbf{x}_i, \mathbf{v}_i) pi=(xi,vi),我们考虑它周围的 n n n 个邻居点 p i 1 , p i 2 , … , p i n {p_{i1}, p_{i2}, \dots, p_{in}} pi1,pi2,…,pin,每个邻居点都有自己的空间编码和语义向量。Spatial Context Decoder 的目标是使用这些邻居点的嵌入信息来重构中心点的语义向量 e [ v i ] \mathbf{e}[\mathbf{v}_i] e[vi]。
这个过程的整体形式如下:
e [ v i ] ’ = D e c c ( x i , e i 1 , … , e i n ; θ d e c ) = g ( 1 K ∑ k = 1 K ∑ j = 1 n α i j k e [ v i j ] ) \mathbf{e}[\mathbf{v}_i]’ = Dec_c(\mathbf{x}_i, {\mathbf{e}_{i1}, …, \mathbf{e}_{in}}; \theta_{dec}) = g\left(\frac{1}{K} \sum_{k=1}^K \sum_{j=1}^n \alpha_{ijk} \mathbf{e}[\mathbf{v}_{ij}]\right) e[vi]’=Decc(xi,ei1,…,ein;θdec)=g(K1k=1∑Kj=1∑nαijke[vij])
这里的含义如下:
这个结构类似于图注意力网络(Graph Attention Network, GAT),它将多个邻居点的特征通过加权平均聚合,以形成中心点的表示。每个注意力头都学习不同的关注模式,然后平均后作为最终输出。
注意力权重 α i j k \alpha_{ijk} αijk 的计算方式:
注意力机制的关键是计算每个邻居的重要性,即注意力得分 α i j k \alpha_{ijk} αijk。Space2Vec 中的注意力权重是通过 LeakyReLU 激活函数计算的“相似度评分”,公式如下:
σ i j k = L e a k y R e L U ( a k T [ e [ v i ] i n i t ; e [ v i j ] ; e [ x i − x i j ] ] ) \sigma_{ijk} = LeakyReLU\left( \mathbf{a}_k^T \left[ \mathbf{e}[\mathbf{v}i]_{init}; \mathbf{e}[\mathbf{v}_{ij}]; \mathbf{e}[\mathbf{x}_i - \mathbf{x}_{ij}] \right] \right) σijk=LeakyReLU(akT[e[vi]init;e[vij];e[xi−xij]])
解释如下:
然后再将这些打分通过 softmax 标准化为权重:
α i j k = exp ( σ i j k ) ∑ o = 1 n exp ( σ i o k ) \alpha_{ijk} = \frac{\exp(\sigma_{ijk})}{\sum_{o=1}^n \exp(\sigma_{iok})} αijk=∑o=1nexp(σiok)exp(σijk)
这样,模型就能自动学习:哪个邻居点在当前任务中最“相关”,而不是平均处理所有邻居。
关于初始语义估计 e [ v i ] i n i t \mathbf{e}[\mathbf{v}_i]_{init} e[vi]init:
由于目标是预测 e [ v i ] \mathbf{e}[\mathbf{v}_i] e[vi],而注意力打分又用到了它,所以作者引入了一个初始估计值 e [ v i ] i n i t \mathbf{e}[\mathbf{v}_i]_{init} e[vi]init,它是通过另一层类似的注意力机制得到的,但不包含 e [ v i ] \mathbf{e}[\mathbf{v}_i] e[vi] 本身,只用邻居信息:
σ ’ i j k = L e a k y R e L U ( a k T [ e [ v i j ] ; e [ x i − x i j ] ] ) \sigma’_{ijk} = LeakyReLU\left( \mathbf{a}_k^T \left[ \mathbf{e}[\mathbf{v}_{ij}]; \mathbf{e}[\mathbf{x}_i - \mathbf{x}_{ij}] \right] \right) σ’ijk=LeakyReLU(akT[e[vij];e[xi−xij]])
和前面类似,但此时不使用 e [ v i ] i n i t \mathbf{e}[\mathbf{v}_i]_{init} e[vi]init 作为输入,从而避免信息泄露。最终形成初始估计 e [ v i ] i n i t \mathbf{e}[\mathbf{v}_i]_{init} e[vi]init 后,才会用于 σ i j k = L e a k y R e L U ( a k T [ e [ v i ] i n i t ; e [ v i j ] ; e [ x i − x i j ] ] ) \sigma_{ijk} = LeakyReLU\left( \mathbf{a}_k^T \left[ \mathbf{e}[\mathbf{v}i]_{init}; \mathbf{e}[\mathbf{v}_{ij}]; \mathbf{e}[\mathbf{x}_i - \mathbf{x}_{ij}] \right] \right) σijk=LeakyReLU(akT[e[vi]init;e[vij];e[xi−xij]])的注意力打分。
Space2Vec 的训练是以无监督方式进行的,也就是说,它并不依赖人工标注的类别标签,而是利用地理点本身的位置与空间邻居信息,通过构造预测任务来学习语义表示。模型的核心任务是:让每个点能够“预测出自己是谁”,即仅通过自身的位置和邻域,重构出自己的语义表示。
整个训练过程以最大化自信息一致性为目标,模型结构由两部分组成:
1. 编码器:将位置与类型信息转换为向量表示
1.1 空间编码器(Point Space Encoder)
输入为一个点的位置坐标 x i ∈ R 2 \mathbf{x}_i \in \mathbb{R}^2 xi∈R2,编码器 E n c ( x ) Enc^{(x)} Enc(x) 使用傅里叶编码思想,对多个尺度下的位置投影应用正弦/余弦变换,输出一个高维位置嵌入向量 e [ x i ] ∈ R d ( x ) \mathbf{e}[\mathbf{x}_i] \in \mathbb{R}^{d^{(x)}} e[xi]∈Rd(x)。该模块的参数包括:
1.2 语义编码器(Point Feature Encoder)
每个点 p i p_i pi 还携带一个 POI 类型集合 γ 1 , … , γ H {\gamma_1, \dots, \gamma_H} γ1,…,γH,每个类型对应一个可训练的向量 t h ( γ ) ∈ R d ( v ) \mathbf{t}_h^{(\gamma)} \in \mathbb{R}^{d^{(v)}} th(γ)∈Rd(v)。这些类型向量通过平均得到语义向量:
e [ v i ] = 1 H ∑ h = 1 H t h ( γ ) \mathbf{e}[\mathbf{v}_i] = \frac{1}{H} \sum_{h=1}^{H} \mathbf{t}_h^{(\gamma)} e[vi]=H1h=1∑Hth(γ)
这些类型向量 t h ( γ ) \mathbf{t}_h^{(\gamma)} th(γ) 是模型参数的一部分,会在训练过程中更新。这一部分参数集合记作 θ e n c ( v ) \theta_{enc}^{(v)} θenc(v)。
2. 解码器:从编码中重建语义表示
模型的目标是根据编码向量 e [ x i ] \mathbf{e}[\mathbf{x}_i] e[xi] 或其邻域特征,预测出该点的语义向量 e [ v i ] ’ \mathbf{e}[\mathbf{v}_i]’ e[vi]’。
2.1 Location Decoder
Location Decoder 是一个前馈神经网络,用于根据位置编码预测语义向量:
e [ v i ] ’ = D e c s ( x i ; θ d e c s ) = N N d e c ( e [ x i ] ) \mathbf{e}[\mathbf{v}_i]’ = Dec_s(\mathbf{x}_i; \theta{dec_s}) = NN_{dec}(\mathbf{e}[\mathbf{x}_i]) e[vi]’=Decs(xi;θdecs)=NNdec(e[xi])
参数 θ d e c s \theta_{dec_s} θdecs 是该网络的权重,会被训练更新。
2.2 Spatial Context Decoder
该模块融合了邻域中多个点的位置 + 语义信息,通过注意力机制加权聚合邻居的语义向量,最终预测中心点 p i p_i pi 的语义嵌入 e [ v i ] ’ \mathbf{e}[\mathbf{v}_i]’ e[vi]’。整个过程涉及两个阶段:
该模块包含多组注意力头参数 a k \mathbf{a}_k ak,以及聚合网络参数 θ d e c c \theta_{dec_c} θdecc,也会在训练中被更新。
3. 损失函数设计:让预测语义尽量接近真实语义
训练的核心是一个匹配任务。我们希望预测出的语义向量 e [ v i ] ’ \mathbf{e}[\mathbf{v}_i]’ e[vi]’ 与真实语义 e [ v i ] \mathbf{e}[\mathbf{v}_i] e[vi] 尽可能一致。
这可以通过最大化 log-likelihood 实现:
L P ( θ ) = − ∑ p i ∈ P log exp ( e [ v i ] T e [ v i ] ’ ) ∑ p o ∈ P exp ( e [ v o ] T e [ v i ] ’ ) \mathcal{L}_{\mathcal{P}}(\theta) = - \sum_{p_i \in \mathcal{P}} \log \frac{ \exp\left( \mathbf{e}[\mathbf{v}_i]^T \mathbf{e}[\mathbf{v}_i]’ \right)} { \sum_{p_o \in \mathcal{P}} \exp\left( \mathbf{e}[\mathbf{v}_o]^T \mathbf{e}[\mathbf{v}_i]’ \right) } LP(θ)=−pi∈P∑log∑po∈Pexp(e[vo]Te[vi]’)exp(e[vi]Te[vi]’)
解释如下:
4. 负采样优化:提升训练效率
由于分母计算代价太大,作者采用了负采样(Negative Sampling)方法,改写损失为:
L ’ P ( θ ) = ∑ p i ∈ P ( log σ ( e [ v i ] T e [ v i ] ’ ) + 1 ∣ N i ∣ ∑ p o ∈ N i log σ ( − e [ v o ] T e [ v i ] ’ ) ) \mathcal{L}’_{\mathcal{P}}(\theta) = \sum_{p_i \in \mathcal{P}} \left( \log \sigma\left(\mathbf{e}[\mathbf{v}_i]^T \mathbf{e}[\mathbf{v}_i]’\right) + \frac{1}{|\mathcal{N}_i|} \sum_{p_o \in \mathcal{N}_i} \log \sigma\left(-\mathbf{e}[\mathbf{v}_o]^T \mathbf{e}[\mathbf{v}_i]’\right) \right) L’P(θ)=pi∈P∑ logσ(e[vi]Te[vi]’)+∣Ni∣1po∈Ni∑logσ(−e[vo]Te[vi]’)
其中:
这样,大大减少了每轮训练的计算量。
5. 训练过程:端到端参数更新
模型参数包括:
所有这些参数都在损失函数的反向传播过程中被更新。这构成了一个完整的端到端无监督学习框架。
最终,模型能够学会: