推荐算法(二)——FFM原理浅析及代码实践

目录

    • 1 介绍
    • 2 原理
    • 3 总结
    • 4 代码实战
    • 写在最后

1 介绍

FFM(Field-aware Factorization Machine)是 FM 的改进版,将域 (Field-aware) 的概念引入其中。因为作者认为一个特征在跟不同特征作交互时,会发挥不同的作用,因此应该具有不同的向量表示。

本文是推荐系统系列文章的第二篇,FFM原理及代码的详细介绍。


2 原理

先回顾一下 FM 算法原理。公式如下:

在这里插入图片描述
一个特征只对应一个隐向量 v, 与不同特征特征交互时都使用这个向量表示。


作者引入 field 的概念,把相同性质的特征 (经过onehot编码的类别特征) 归于同一个field,同一特征与属于不同域的特征作交互时,具有不同的隐向量表示。

FFM 将隐向量进一步细分,每个特征具有多个隐向量 (等于 field 的数目)。公式如下:

在这里插入图片描述
V i , f j V_{i,f_{j}} Vi,fj 表示特征 i 与 特征 j 交互时的隐向量表示,其中 f j f_{j} fj 表示第 j 个特征所属的 field。

FM与FFM对比:

FM:模型参数量为 1+n+nk,n 为特征数,k 为隐向量维度。公式可化简,化简之后的复杂度为 O ( n k ) O(nk) O(nk) 线性复杂度,随着特征数 n 线性增长。

FFM:模型参数量为 1+n+n(F-1)k,F 为 field 数。公式不可化简,复杂度为 O ( n 2 k ) O(n^{2}k) O(n2k),随着特征数 n 平方级增长。

[注]:因为公式无法化简,FFM训练复杂度要远高于FM,这点在代码实践中有所体现。并且FFM在特征数较多的场景中,复杂度指数级飙升,难以上线。FM可保持为线性复杂度,性质较好。

3 总结

优点:

  1. 引入 field 域的概念,让某一特征与不同特征做交互时,可发挥不同的重要性,提升模型表达能力;
  2. 可解释性强,可提供某些特征组合的重要性。

缺点:

  1. 复杂度高,不适用于特征数较多的场景。

4 代码实战

理论结合代码食用更佳, 代码中会加入充分注释,以易理解。

Tips: 模型搭建代码使用 TF2.0 实现

FFM层代码:

(将 FFM 封装成 Layer,随后在搭建 Model 时直接调用即可)

import tensorflow as tf
from tensorflow.keras.layers import Input, Layer
from tensorflow.keras.regularizers import l2

class FFM_Layer(Layer):
    def __init__(self, feature_columns, k, w_reg=1e-4, v_reg=1e-4):
        super(FFM_Layer, self).__init__()
        # FFM需要提前指定field的数目,因此需要传入数值特征与类别特征的列表feature_columns(具体可参照github中utils.py文件中对数据的处理过程)
        self.dense_feature_columns, self.sparse_feature_columns = feature_columns 
        self.k = k 		   # 隐向量v的维度
        self.w_reg = w_reg # 权重w的正则项系数
        self.v_reg = v_reg # 权重v的正则项系数

        self.feature_num = sum([feat['feat_onehot_dim'] for feat in self.sparse_feature_columns]) \
                           + len(self.dense_feature_columns) # 类别特征onehot处理之后数据集的总维度
        self.field_num = len(self.dense_feature_columns) + len(self.sparse_feature_columns) # field个数=数值特征个数+类别特征个数

    def build(self, input_shape):
        self.w0 = self.add_weight(name='w0', shape=(1,),   # shape:(1,)
                                  initializer=tf.zeros_initializer(),
                                  trainable=True) 
        self.w = self.add_weight(name='w', shape=(self.feature_num, 1),  # shape:(n, 1)
                                 initializer=tf.random_normal_initializer(),
                                 regularizer=l2(self.w_reg),
                                 trainable=True)
        self.v = self.add_weight(name='v',  # shape:(n, field, k),比FM的V矩阵多一个维度
                                 shape=(self.feature_num, self.field_num, self.k),
                                 initializer=tf.random_normal_initializer(),
                                 regularizer=l2(self.v_reg),
                                 trainable=True)

    def call(self, inputs, **kwargs):
    	# 输入为Criteo数据集,前13维为数值特征,后面为类别特征,可参照github中Data文件夹)
        dense_inputs = inputs[:, :13]  # 数值特征
        sparse_inputs = inputs[:, 13:] # 类别特征

        # one-hot encoding
        x = tf.cast(dense_inputs, dtype=tf.float32)  # 类型转换
        for i in range(sparse_inputs.shape[1]):      # 类别特征onehot处理
            x = tf.concat(
                [x, tf.one_hot(tf.cast(sparse_inputs[:, i], dtype=tf.int32),
                                   depth=self.sparse_feature_columns[i]['feat_onehot_dim'])], axis=1)  				 	 # shape:(None, n)
		
        linear_part = self.w0 + tf.matmul(x, self.w) # 线性部分 shape:(None, 1)
        
        inter_part = 0
        field_f = tf.tensordot(x, self.v, axes=1)    # 为了方便,先计算公式中的Vij*Xi. shape:[None, n] x [n, field, k] = [None, field, k]
        for i in range(self.field_num): 			 # 域之间两两相乘,[None, field, k]->[None, k],(因为公式无法化简,所以无法避免嵌套for循环的计算,导致了较高的复杂度)
            for j in range(i+1, self.field_num):
                inter_part += tf.reduce_sum(
                    tf.multiply(field_f[:, i], field_f[:, j]), # [None, k]
                    axis=1, keepdims=True
                )
        return linear_part + inter_part   			 # [None, k]

Model 搭建:

from layer import FFM_Layer
from tensorflow.keras import Model

class FFM(Model):
    def __init__(self, feature_columns, k, w_reg=1e-4, v_reg=1e-4):
        super(FFM, self).__init__()
        self.dense_feature_columns, self.sparse_feature_columns = feature_columns
        self.ffm = FFM_Layer(feature_columns, k, w_reg, v_reg)	# 定义FFM层

    def call(self, inputs, **kwargs):
        output = self.ffm(inputs)		# 输入FFM层
        output = tf.nn.sigmoid(output)	# 非线性转换
        return output

到此模型搭建就结束了。

完整的代码 (包括数据的处理以及模型的训练) 可参考 Github ,自行下载数据集到本地运行即可。

写在最后

下一篇预告:Wide&Deep 推荐算法与深度学习的碰撞

希望看完此文的你能够有所收获…

你可能感兴趣的:(推荐算法也可以很简单,机器学习,深度学习,tensorflow,推荐系统,python)