深度学习CTR预估(三)——FNM和FNN

DeepFM介绍过当前ctr预估的深度模型有两种结构,并行结构和串行结构,DeepFM是典型的并行结构,本文所介绍的FNN和FNM都是串行结构

1、FNN原理

  • FNN采用了FM经过预训练得到的隐含层和其权重(隐向量)作为DNN网络的初始值
  • FNN是FM+MLP的结构,但是并不是端到端的结构,MLP的输入是FM模型训练好之后的的向量作为MLP的输入
    其结构为:


    FNN结构.png

2、FNM原理

2.1 FM和FNM的比较

FNM模型在FM的二阶交互的基础上加入了一个DNN模型,FM的模型公式为:

FM公式.png

其中n为特征的个数,而其二阶表达式为:
FM二阶.png

观察二阶的推导公式,其中k为隐向量的维度,如果我们不把隐向量的维度进行相加,那么二阶特征组合输出的结果就是一个k为的向量,而这个k维的向量就是FNM模型中DNN的输入。
因此FNM的模型公式为
FNM公式.png

因为没有\sum^{k}_{f=1}的存在,所以f(x)括号中就是NFM模型的二阶特征交叉项,是一个k维的向量。将这个k维向量输入DNN结构中就得到了FNM的二阶交互的预测结果。

2.2 FNM的结构

FNM结构.png

图中显示的是二阶特征组合的DNN结构,也就是f(x)的结构模型。

  • 在二阶特征交叉的时候使用交互池,论文中在交互池之后对数据做Batch Normalization处理。
  • 当FNM的深层交互层为1的时候,也就是DNN没有隐层,那么NFM就变成了FM
  • FNM和FNN的主要区别就是DNN层的输入向量不同,FNM的在深度层的输入为两两特征向量元素相乘之后叠加,其维度跟特征向量的维度是一样的,而FNN输入深度层的向量为特征向量的concatenate,因此深度层的参数FNM会少很多。

3、实验代码

本次只实现了NFM的代码,根据DeepFM的代码进行修改程序,评测采用了RMSE

3.1 数据预处理

def get_feature_dict(df,num_col):
    '''
    特征向量字典,其格式为{field:{特征:编号}}
    :param df:
    :return: {field:{特征:编号}}
    '''
    feature_dict={}
    total_feature=0
    df.drop('rate',axis=1,inplace=True)
    for col in df.columns:
        if col in num_col:
            feature_dict[col]=total_feature
            total_feature += 1
        else:
            unique_feature = df[col].unique()
            feature_dict[col]=dict(zip(unique_feature,range(total_feature,total_feature+len(unique_feature))))
            total_feature += len(unique_feature)
    return feature_dict,total_feature

def get_data(df,feature_dict):
    '''

    :param df:
    :return:
    '''
    y = df[['rate']].values
    dd = df.drop('rate',axis=1)
    df_index = dd.copy()
    df_value = dd.copy()
    for col in df_index.columns:
        if col in num_col:
            df_index[col] = feature_dict[col]
        else:
            df_index[col] = df_index[col].map(feature_dict[col])
            df_value[col] = 1.0
    xi=df_index.values.tolist()
    xv=df_value.values.tolist()
    return xi,xv,y

3.2 NFM模型

模型实验过程:


FNM.png
3.2.1 设置权重初始化

根据上述公式原理,NFM模型可以分成两个部分,FM部分和DNN部分,FM部分的权重有偏置项w_0,一阶权重w,二阶权重v;DNN部分为全连接层权重

 '''1、权重初始化分为FM部分和Deep部分'''

    #FM权重
    w_0 = tf.Variable(tf.constant(0.1),name='bias')
    w = tf.Variable(tf.random_normal([feature_size, 1], mean=0, stddev=0.01),name='first_weight')
    v = tf.Variable(tf.random_normal([feature_size, embedding_size], mean=0, stddev=0.01),name='second_weight')
    #DeepLayer权重

    weights={}
    num_layer = len(deep_layers)
    input_size = embedding_size
    glorot = np.sqrt(2.0 / (input_size + deep_layers[0]))

    weights['layer_0'] = tf.Variable(
        np.random.normal(loc=0, scale=glorot, size=(input_size, deep_layers[0])), dtype=np.float32
    )
    weights['bias_0'] = tf.Variable(
        np.random.normal(loc=0, scale=glorot, size=(1, deep_layers[0])), dtype=np.float32
    )

    for i in range(1, num_layer):
        glorot = np.sqrt(2.0 / (deep_layers[i - 1] + deep_layers[i]))
        weights["layer_%d" % i] = tf.Variable(
            np.random.normal(loc=0, scale=glorot, size=(deep_layers[i - 1], deep_layers[i])),
            dtype=np.float32)  # layers[i-1] * layers[i]
        weights["bias_%d" % i] = tf.Variable(
            np.random.normal(loc=0, scale=glorot, size=(1, deep_layers[i])),
            dtype=np.float32)  # 1 * layer[i]
3.2.2 模型输入和Embedding层
#输入
feat_index = tf.placeholder(tf.int32,[None,None],name='feat_index')
feat_value = tf.placeholder(tf.float32,[None,None],name='feat_value')
label = tf.placeholder(tf.float32,shape=[None,1],name='label')
#Embedding Layer
embedding_first =tf.nn.embedding_lookup(w,feat_index)   #None*F *1   F是field_size大小,也就是不同域的个数
embedding = tf.nn.embedding_lookup(v,feat_index)      #None * F * embedding_size
feat_val = tf.reshape(feat_value,[-1,field_size,1])
3.2.3 模型输入和Embedding层

1)一阶和偏置项,得到的向量维度为None*1,None指的是输入的样本数

'''3、模型'''
    # first_order term +偏置
    y_first_order= tf.reduce_sum(tf.multiply(embedding_first,feat_val),2)  # None*F
    y_first_order_num = tf.reduce_sum(y_first_order,1,keepdims=True)    # None*1
    liner = tf.add(y_first_order_num, w_0)  # None*1

2)二阶交互池,得到一个k为的向量None*k,输入到DNN模型当中

    # second_order term 
    embeddings = tf.multiply(embedding,feat_val)    #N*F*K
    sum_square = tf.square(tf.reduce_sum(embedding,1)) #N*K
    square_sum = tf.reduce_sum(tf.square(embedding),1)  #N*k
    y_second_order = 0.5* tf.subtract(sum_square,square_sum)   #N*k

3)深度层,把交互池的结果经过神经网络,并输出结果N*1

    #DeepLayer
    y_deep = y_second_order
    for i in range(len(deep_layers)):
        y_deep = tf.add(tf.matmul(y_deep,weights['layer_%d'%i]),weights['bias_%d' %i])
        y_deep = tf.nn.relu(y_deep)
        y_deep = tf.nn.dropout(y_deep,dropout_deep[i])     #N*deep_layers[i]

4)最终输出

    # 输出
    out = tf.add(liner,tf.reduce_sum(y_deep,1,keepdims=True))  #N*1

5)损失函数

 loss = tf.nn.l2_loss(tf.subtract(out,label))
 optimizer = tf.train.AdamOptimizer(lr,beta1=0.9,beta2=0.999,epsilon=1e-8).minimize(loss)

完整代码见:
https://github.com/garfieldsun/recsys/tree/master/NFM

参考资料:
1、FNN论文
2、FNM论文
3、https://daiwk.github.io/posts/dl-dl-ctr-models.html
4、https://www.jianshu.com/p/4e65723ee632

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,036评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,046评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,411评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,622评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,661评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,521评论 1 304
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,288评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,200评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,644评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,837评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,953评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,673评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,281评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,889评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,011评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,119评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,901评论 2 355

推荐阅读更多精彩内容