百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

特征交叉系列:PNN向量积模型理论和实践,FM和DNN的串联

ztj100 2025-04-26 22:44 23 浏览 0 评论

关键词:PNN推荐算法FMDNN

内容摘要

  • PNN介绍和结构简述
  • 基于内积的IPNN
  • 基于外积的OPNN
  • 基于内外积融合的PNN*
  • PNN和FM,FNN,DeepFM的联系
  • PNN的三种形式在PyTorch下的实践

PNN介绍和结构简述

PNN(Product-based Neural Networks)是2016年提出的一种基于向量乘积和多层感知机的推荐排序算法,他将FMDNN串行结合,即先利用FM的向量乘积形式来表征二阶交叉信息,再输入给DNN这种全连接形式,使得二阶信息叠加非线性能力,期望这种组合能够学到更高阶的交叉信息。

PNN的网络结构如下

数据从最下层的input输入到最上层的CTR输出,其中Embedding Layer和Product Layer是FM,L1和L2 Fully Connected是DNN,Product Layer层对FM的内积做了拓展,不仅支持向量内积,还支持向量外积内外积融合一共三种向量积表征方式。

原始onehot输入经过Embedding Layer转化为隐向量,在Product Layer中计算出一阶特征z和交叉特征p,其中z是所有隐向量和常数1相乘,本质上就是将上一个嵌入层的embedding照搬过来,将所有特征的embedding进行拼接组合成z部分。

p部分是所有特征的两两向量乘积运算,只计算半三角因此一共有field_num×(field_num-1)个输出结果,其中field_num是特征域数量,根据乘积的方式不同有三种策略

  • 内积 IPNN:一对向量进行内积点乘输出一个标量,因此图中p部分的一个圈代表一个值
  • 外积 OPPN:A向量转置和B向量进行矩阵相乘,若隐向量的维度为M,则输出一个M×M的矩阵,为了能使矩阵做信息浓缩输入到下一层,PNN引入了同样是是M×M形状的可学习的权重矩阵W,对应位置的两矩阵做哈达马积(element-wise乘法)再求和输出一个标量,因此外积的策略下p部分的一个圈也代表一个值
  • 内外积融合 PNN*:将内积的输出向量,和外积的输出向量进行拼接,作为p部分的最终输出,此时输出维度为原来的两倍为field_num×(field_num-1)×2

p部分的结果和z部分再拼接形成了最终DNN的输入,经过两层隐藏层sigmoid输入二分类交叉熵完成模型损失迭代。


PNN和FM,FNN,DeepFM的联系

PNN和FM:

若删除PNN的两层DNN,采用内积Product,所有p的标量相加,则PNN退化为FM,本质上PNN是将FM的内积结果不直接相加输出,而是作为中间结果继续灌入多层感知机做训练。

PNN和FNN:

FNN也是将FM的结果作为DNN的输入,而FNN是两阶段模型,先训练一个FM得到每个特征的嵌入向量,再将所有嵌入向量拼接输入到全连接层,如果删除PNN的Product Layer,PNN退化为FNN。

PNN和DeepFM:

两者都是将FM融入和深度学习的算法策略,PNN是FM和MLP的串行,MLP依赖于FM的输出,而DeepFM是FM和MLP的并行,FM和MLP共享底层联合训练。


PNN的三种形式在PyTorch下的实践

本次实践的数据集和上一篇特征交叉系列:完全理解FM因子分解机原理,配代码实战一致,采用用户的购买记录流水作为训练数据,用户侧特征是年龄,性别,会员年限等离散特征,商品侧特征采用商品的二级类目,产地,品牌三个离散特征,随机构造负样本,一共有10个特征域,全部是离散特征,对于枚举值过多的特征采用hash分箱,得到一共72个特征。

通过PyTorch构造PNN网络结构如下

class Embedding(nn.Module):
    def __init__(self, feat_num, emb_size):
        super(Embedding, self).__init__()
        self.emb = nn.Embedding(feat_num, emb_size)
        nn.init.xavier_normal_(self.emb.weight.data)

    def forward(self, x):
        # [None, field_num] => [None, field_num, emb_size]
        return self.emb(x)


class InnerProductLayer(nn.Module):
    def __init__(self, field_num):
        super(InnerProductLayer, self).__init__()
        self.field_num = field_num

    def forward(self, x):
        # [None, field_num, emb_size]
        p_index = []
        q_index = []
        for i in range(self.field_num - 1):
            for j in range(i + 1, self.field_num):
                p_index.append(i)
                q_index.append(j)
        # [None, pair_size, emb_size] * [None, pair_size, emb_size] => [None, pair_size, emb_size] => [None, pair_size]
        return torch.sum(x[:, p_index] * x[:, q_index], dim=2)
    
    
class OuterProductLayer(nn.Module):
    def __init__(self, field_num, emb_size):
        super(OuterProductLayer, self).__init__()
        self.field_num = field_num
        self.pair_size = int(field_num * (field_num - 1) / 2)
        self.w = nn.Parameter(torch.zeros(self.pair_size, emb_size, emb_size))
        nn.init.xavier_normal_(self.w.data)

    def forward(self, x):
        # TODO 更优的写法
        """
        kernel = self.w.permute(2, 0, 1)
        kp = torch.sum(p.unsqueeze(1) * kernel, dim=-1).permute(0, 2, 1)
        return torch.sum(kp * q, -1)
        """
        # [None, field_num, emb_size]
        p_index = []
        q_index = []
        for i in range(self.field_num - 1):
            for j in range(i + 1, self.field_num):
                p_index.append(i)
                q_index.append(j)
        p = x[:, p_index]
        q = x[:, q_index]
        # [None, pair_size, emb_size, 1] * [None, pair_size, 1, emb_size] => [None, pair_size, emb_size, emb_size]
        pq = torch.unsqueeze(p, dim=-1) * torch.unsqueeze(q, dim=-2)
        return torch.sum(torch.sum(pq * self.w, dim=-1), dim=-1)


class InnerOuterProductLayer(nn.Module):
    def __init__(self, field_num, emb_size):
        super(InnerOuterProductLayer, self).__init__()
        self.inner = InnerProductLayer(field_num)
        self.outer = OuterProductLayer(field_num, emb_size)

    def forward(self, x):
        return torch.concat([self.inner(x), self.outer(x)], dim=1)


class PNN(nn.Module):
    def __init__(self, field_num, feat_num, emb_size, fc_dims=(64, 16), dropout=0.1, method="inner"):
        super(PNN, self).__init__()
        if method == 'inner':
            self.pn = InnerProductLayer(field_num)
        elif method == 'outer':
            self.pn = OuterProductLayer(field_num, emb_size)
        elif method == 'all':
            self.pn = InnerOuterProductLayer(field_num, emb_size)
        else:
            raise ValueError('unknown product type: ' + method)
        self.field_num = field_num
        self.emb_size = emb_size
        self.embedding = Embedding(feat_num, emb_size)
        cross_out_dim = int(field_num * (field_num - 1) / 2)
        if method == 'all':
            cross_out_dim *= 2
        fc_input_dim = cross_out_dim + field_num * emb_size
        fc_layers = []
        for fc_dim in fc_dims:
            fc_layers.append(torch.nn.Linear(fc_input_dim, fc_dim))
            fc_layers.append(torch.nn.BatchNorm1d(fc_dim))
            fc_layers.append(torch.nn.ReLU())
            fc_layers.append(torch.nn.Dropout(p=dropout))
            fc_input_dim = fc_dim
        fc_layers.append(nn.Linear(fc_input_dim, 1))
        self.mlp = nn.Sequential(*fc_layers)

    def forward(self, x):
        # [None, field_num] => [None, field_num, emb_size]
        emb = self.embedding(x)
        # [None, field_num * emb_size]
        linear = emb.reshape(-1, self.field_num * self.emb_size)
        # [None, field_num * (field_num - 1) / 2]
        cross = self.pn(emb)
        fc_input = torch.concat([linear, cross], dim=1)
        out = torch.sigmoid(self.mlp(fc_input))
        return out.squeeze(dim=1)

在PNN模型主模块中定义了inner,outer,all三种方式分别对应内积,外积,内外积融合,其中内外积融合分别调用内积和外积的子模块,将结果进行拼接作为输出结果。

本例全部是离散分箱变量,所有有值的特征都是1,因此只要输入有值位置的索引即可,一条输入例如

>>> train_data[0]
Out[120]: (tensor([ 2, 10, 14, 18, 34, 39, 47, 51, 58, 64]), tensor(0))

其中x的长度10代表10个特征域,每个域的值是特征的全局位置索引,从0到71,一共72个特征,索引的目的是在模型中通过nn.Embedding映射到对应的隐向量。
采用10次验证集AUC不上升作为早停依据,IPNN,OPNN,PNN*的验证集平均AUC如下,加入FM作为baseline做对比


FM

IPNN

OPNN

PNN*

AUC

0.6263

0.6322

0.6326

0.6342

从结果来看PNN模型利用并拓展了FM,AUC确实比FM有明显提升(+0.05),而三种不同的PNN向量积策略中,内外积融合的PNN*效果最好,外积效果略优于内积。

相关推荐

30天学会Python编程:16. Python常用标准库使用教程

16.1collections模块16.1.1高级数据结构16.1.2示例...

强烈推荐!Python 这个宝藏库 re 正则匹配

Python的re模块(RegularExpression正则表达式)提供各种正则表达式的匹配操作。...

Python爬虫中正则表达式的用法,只讲如何应用,不讲原理

Python爬虫:正则的用法(非原理)。大家好,这节课给大家讲正则的实际用法,不讲原理,通俗易懂的讲如何用正则抓取内容。·导入re库,这里是需要从html这段字符串中提取出中间的那几个文字。实例一个对...

Python数据分析实战-正则提取文本的URL网址和邮箱(源码和效果)

实现功能:Python数据分析实战-利用正则表达式提取文本中的URL网址和邮箱...

python爬虫教程之爬取当当网 Top 500 本五星好评书籍

我们使用requests和re来写一个爬虫作为一个爱看书的你(说的跟真的似的)怎么能发现好书呢?所以我们爬取当当网的前500本好五星评书籍怎么样?ok接下来就是学习python的正确姿...

深入理解re模块:Python中的正则表达式神器解析

在Python中,"re"是一个强大的模块,用于处理正则表达式(regularexpressions)。正则表达式是一种强大的文本模式匹配工具,用于在字符串中查找、替换或提取特定模式...

如何使用正则表达式和 Python 匹配不以模式开头的字符串

需要在Python中使用正则表达式来匹配不以给定模式开头的字符串吗?如果是这样,你可以使用下面的语法来查找所有的字符串,除了那些不以https开始的字符串。r"^(?!https).*&...

先Mark后用!8分钟读懂 Python 性能优化

从本文总结了Python开发时,遇到的性能优化问题的定位和解决。概述:性能优化的原则——优化需要优化的部分。性能优化的一般步骤:首先,让你的程序跑起来结果一切正常。然后,运行这个结果正常的代码,看看它...

Python“三步”即可爬取,毋庸置疑

声明:本实例仅供学习,切忌遵守robots协议,请不要使用多线程等方式频繁访问网站。#第一步导入模块importreimportrequests#第二步获取你想爬取的网页地址,发送请求,获取网页内...

简单学Python——re库(正则表达式)2(split、findall、和sub)

1、split():分割字符串,返回列表语法:re.split('分隔符','目标字符串')例如:importrere.split(',','...

Lavazza拉瓦萨再度牵手上海大师赛

阅读此文前,麻烦您点击一下“关注”,方便您进行讨论和分享。Lavazza拉瓦萨再度牵手上海大师赛标题:2024上海大师赛:网球与咖啡的浪漫邂逅在2024年的上海劳力士大师赛上,拉瓦萨咖啡再次成为官...

ArkUI-X构建Android平台AAR及使用

本教程主要讲述如何利用ArkUI-XSDK完成AndroidAAR开发,实现基于ArkTS的声明式开发范式在android平台显示。包括:1.跨平台Library工程开发介绍...

Deepseek写歌详细教程(怎样用deepseek写歌功能)

以下为结合DeepSeek及相关工具实现AI写歌的详细教程,涵盖作词、作曲、演唱全流程:一、核心流程三步法1.AI生成歌词-打开DeepSeek(网页/APP/API),使用结构化提示词生成歌词:...

“AI说唱解说影视”走红,“零基础入行”靠谱吗?本报记者实测

“手里翻找冻鱼,精心的布局;老漠却不言语,脸上带笑意……”《狂飙》剧情被写成歌词,再配上“科目三”背景音乐的演唱,这段1分钟30秒的视频受到了无数网友的点赞。最近一段时间随着AI技术的发展,说唱解说影...

AI音乐制作神器揭秘!3款工具让你秒变高手

在音乐创作的领域里,每个人都有一颗想要成为大师的心。但是面对复杂的乐理知识和繁复的制作过程,许多人的热情被一点点消磨。...

取消回复欢迎 发表评论: