1. 引言
SDM模型(Sequential Deep Matching Model)是阿里团队在2019年CIKM的一篇paper。模型属于序列召回模型,研究的是如何通过用户的历史行为序列去学习到用户的丰富兴趣。
SDM模型把用户的历史序列根据交互的时间分成了短期和长期两类,然后从短期会话和长期行为中分别采取相应的措施(短期的RNN+多头注意力机制, 长期的Att Net) 学习用户的短期兴趣和长期行为偏好,并巧妙的设计了一个门控网络将长短期兴趣进行融合,得到用户的最终兴趣向量。
创新点:长期偏好的行为表示,多头注意力机制学习多兴趣,长短期兴趣的融合机制等
目录如下:
- 背景与动机
- SDM的网络结构与细节剖析
- SDM模型的简易复现
2. 背景与动机
召回,是从海量商品中得到一个小的候选集,然后通过排序模型做精确的筛选。 因此召回模块对于候选对象的筛选中起着至关重要的作用。
淘宝目前的召回模型基于协同过滤,通过用户与商品的历史交互建模,得到用户的物品的表示向量,但这个过程是静态的,而用户的行为或者兴趣是时刻变化的,协同过滤并不能很好的捕捉到用户整个行为序列的动态变化。所以作者认为,序列顺序信息应当加到召回模块。
阿里在精排模型方面的进化从DIN->DIEN->DSIN,解决的问题和本文类似,只不过召回使用了SDM模型进行检索。
学习长序列行为过程中,用户的兴趣可能发生转移,因此需要以Session会话为单位,先把长序列进行切分。同时,与DSIN模型分成多个会话之后,直接进行Transformer不同,SDM模型把最近的一次会话,和之前的会话分别视为了用户短期行为和长期行为分别进行了建模,并采用不同的措施学习用户的短期兴趣和长期兴趣,然后通过一个门控机制融合得到用户最终的表示向量。
每个会话对于当前商品的预测,显然并不是同等重要的,往往是越邻近的会话,重要程度越大一些, 而比较久远的会话,可能影响程度小一些, 但并不一定没有影响。 因此需要把短期会话和长期会话分开建模。
- 对于短期会话,使用相对复杂的模型,从多方面考虑用户的短期兴趣
- 作者发现用户的兴趣点在一个会话里也是多重的
- 作者使用了LSTM学习序列关系,然后使用Multi-head attention机制,学习用户的多兴趣
- 对于长期会话,使用简单模型,获取一个用户的长期兴趣
同时,用户的长期行为也会影响当前的决策,比如用户的兴趣、爱好相关,因此长期偏好或者行为往往是复杂广泛的, 对于融合长短期兴趣,作者使用了一个门控循环单元。
总结:SDM模型首先使用RNN学习序列关系,其次通过多头注意力机制捕捉多兴趣,然后通过一个Attention Net加权得到短期兴趣表示,长期会话通过Attention Net融合,然后过DNN,得到用户的长期表示,并设计了一个类似于LSTM的门控单元,融合两种兴趣,得到用户最终的表示向量。
3. SDM的网络结构与细节剖析
3.1 问题定义
U 表示用户集合,I 表示item集合,模型考虑在时间 t 时刻用户 u 是否会对 i 产生交互。 对于 u,我们能够得到它的历史行为序列,会话的划分规则:
- 相同会话ID的商品算是一个会话
- 相邻的商品,时间间隔小于10分钟算一个会话
- 同一个会话中的商品不能超过50个
同时,对于用户u的短期行为定义是离目前最近的这次会话, 用Su序列表示。而长期的用户行为是过去一周内的会话,不包括短期的这次会话。
接收用户的短期行为和长期行为,然后分别通过两个盲盒得到表示向量,再通过门控融合就得到了最终的用户表示。 训练的时候, 用户向量与当前交互商品做softmax操作进行采样,然后计算损失,具体的可以参考YouTubeDNN。
训练好模型之后,在out与softmax层得到item的所有向量,当一个用户产生行为,通过这个模块拿到该用户表示,然后与所有item向量做最近邻检索,拿到相似的TOP-K推荐。
3.2 Input Embedding with side Information
在淘宝的推荐场景中,顾客与物品产生交互行为的时候,不仅考虑特定的商品本身,还考虑产品, 商铺,价格等。所以对于一个商品来说,不仅要用到Item ID,还用了更多的side info信息,包括leat category, fist level category, brand,shop。
所以,假设用户的短期行为是
S
u
=
[
i
1
u
,
…
,
i
t
u
,
…
,
i
m
u
]
\mathcal{S}^{u}=\left[i_{1}^{u}, \ldots, i_{t}^{u}, \ldots, i_{m}^{u}\right]
Su=[i1u,…,itu,…,imu] , 其中每个商品
i
t
u
i_{t}^{u}
itu 有5个属性表示,每个属性本质是ID,但转成 embedding之后,就得到了5个embedding,所以这里就涉及到了融合问题。这里用
e
t
u
∈
R
d
×
1
\boldsymbol{e}_{t}^{u} \in \mathbb{R}^{d \times 1}
etu∈Rd×1 来表示每个
i
t
u
i_{t}^{u}
itu ,但这里不是embedding 的pooling操作,而是Concat
e
i
t
u
=
concat
(
{
e
i
f
∣
f
∈
F
}
)
\boldsymbol{e}_{i_{t}^{u}}=\operatorname{concat}\left(\left\{\boldsymbol{e}_{i}^{f} \mid f \in \mathcal{F}\right\}\right)
eitu=concat({eif∣f∈F})
其中,
e
i
f
=
W
f
x
i
f
∈
R
d
f
×
1
\boldsymbol{e}_{i}^{f}=\boldsymbol{W}^{f} \boldsymbol{x}_{i}^{f} \in \mathbb{R}^{d_{f} \times 1}
eif=Wfxif∈Rdf×1 , 将每个side info的 id 通过 embedding layer 得到各自的embedding。这里 embedding的维度是
d
f
d_{f}
df ,拼接之后维度为
d
d
d 。
然后是用户的base表示向量就是用户的基础画像得到embedding,然后Concat:
e
u
=
concat
(
{
e
u
p
∣
p
∈
P
}
)
\boldsymbol{e}_{u}=\operatorname{concat}\left(\left\{\boldsymbol{e}_{u}^{p} \mid p \in \mathcal{P}\right\}\right)
eu=concat({eup∣p∈P})
其中,
e
u
p
e_{u}^{p}
eup 是特征
p
p
p 的 embedding。
3.3 短期用户行为建模
短期用户行为是下面的那个框,输入是用户最近的一次会话,里面各个商品加入了 side info信息之后,得到最终的 embedding表示
[
e
i
1
,
…
,
e
i
t
]
\left[\boldsymbol{e}_{i 1}, \ldots, \boldsymbol{e}_{i t}\right]
[ei1,…,eit] 。
然后通过LSTM模型学习序列信息,直接上公式:
i
n
t
u
=
σ
(
W
i
n
1
e
i
t
u
+
W
i
n
2
h
t
−
1
u
+
b
i
n
)
f
t
u
=
σ
(
W
f
1
e
i
t
u
+
W
f
2
h
t
−
1
u
+
b
f
)
o
t
u
=
σ
(
W
o
1
e
i
u
+
W
o
2
h
t
−
1
u
+
b
o
)
c
t
u
=
f
t
c
t
−
1
u
+
i
n
t
u
tanh
(
W
c
1
e
i
t
u
+
W
c
2
h
t
−
1
u
+
b
c
)
h
t
u
=
o
t
u
tanh
(
c
t
u
)
\begin{aligned} \boldsymbol{i} \boldsymbol{n}_{t}^{u} &=\sigma\left(\boldsymbol{W}_{i n}^{1} \boldsymbol{e}_{i t}^{u}+\boldsymbol{W}_{i n}^{2} \boldsymbol{h}_{t-1}^{u}+b_{i n}\right) \\ f_{t}^{u} &=\sigma\left(\boldsymbol{W}_{f}^{1} \boldsymbol{e}_{i t}^{u}+\boldsymbol{W}_{f}^{2} \boldsymbol{h}_{t-1}^{u}+b_{f}\right) \\ \boldsymbol{o}_{t}^{u} &=\sigma\left(\boldsymbol{W}_{o}^{1} \boldsymbol{e}_{i}^{u}+\boldsymbol{W}_{o}^{2} \boldsymbol{h}_{t-1}^{u}+b_{o}\right) \\ \boldsymbol{c}_{t}^{u} &=\boldsymbol{f}_{t} \boldsymbol{c}_{t-1}^{u}+\boldsymbol{i} \boldsymbol{n}_{t}^{u} \tanh \left(\boldsymbol{W}_{c}^{1} \boldsymbol{e}_{i t}^{u}+\boldsymbol{W}_{c}^{2} \boldsymbol{h}_{t-1}^{u}+b_{c}\right) \\ \boldsymbol{h}_{t}^{u} &=\boldsymbol{o}_{t}^{u} \tanh \left(\boldsymbol{c}_{t}^{u}\right) \end{aligned}
intuftuotuctuhtu=σ(Win1eitu+Win2ht−1u+bin)=σ(Wf1eitu+Wf2ht−1u+bf)=σ(Wo1eiu+Wo2ht−1u+bo)=ftct−1u+intutanh(Wc1eitu+Wc2ht−1u+bc)=otutanh(ctu)
采用了多输入多输出,即每个时间步都会有一个隐藏状态
h
t
u
h_{t}^{u}
htu 输出出来,经过LSTM之后,原始的序列就有了序列相关信息, 得到了
[
h
1
u
,
…
,
h
t
u
]
\left[\boldsymbol{h}_{1}^{u}, \ldots, \boldsymbol{h}_{t}^{u}\right]
[h1u,…,htu], 记为
X
u
\boldsymbol{X}^{u}
Xu 。这里的
h
t
u
∈
R
d
×
1
\boldsymbol{h}_{t}^{u} \in \mathbb{R}^{d \times 1}
htu∈Rd×1 表示时间
t
t
t 的序列偏好表示。
然后经过Multi-head self-attention层,学习
h
i
u
h_{i}^{u}
hiu 系列之间的相关性,类似聚类操作,因为我们先用多头矩阵把
h
i
u
h_{i}^{u}
hiu 系列映射到多个空间,然后从各个空间中互求相关性
head
i
u
=
Attention
(
W
i
Q
X
u
,
W
i
K
X
u
,
W
i
V
X
u
)
\text { head }{ }_{i}^{u}=\operatorname{Attention}\left(\boldsymbol{W}_{i}^{Q} \boldsymbol{X}^{u}, \boldsymbol{W}_{i}^{K} \boldsymbol{X}^{u}, \boldsymbol{W}_{i}^{V} \boldsymbol{X}^{u}\right)
head iu=Attention(WiQXu,WiKXu,WiVXu)
得到权重后,对原始的向量加权融合。使
Q
i
u
=
W
i
Q
X
u
,
K
i
u
=
W
i
K
X
u
,
V
i
u
=
W
i
V
X
u
Q_{i}^{u}=W_{i}^{Q} X^{u} , K_{i}^{u}=W_{i}^{K} \boldsymbol{X}^{u}, V_{i}^{u}=W_{i}^{V} X^{u}
Qiu=WiQXu,Kiu=WiKXu,Viu=WiVXu , 计算公式如下:
f
(
Q
i
u
,
K
i
u
)
=
Q
i
u
T
K
i
u
A
i
u
=
softmax
(
f
(
Q
i
u
,
K
i
u
)
)
head
i
u
=
V
i
u
A
i
u
T
\begin{gathered} f\left(Q_{i}^{u}, K_{i}^{u}\right)=Q_{i}^{u T} K_{i}^{u} \\ A_{i}^{u}=\operatorname{softmax}\left(f\left(Q_{i}^{u}, K_{i}^{u}\right)\right) \\ \operatorname{head}_{i}^{u}=V_{i}^{u} A_{i}^{u T} \end{gathered}
f(Qiu,Kiu)=QiuTKiuAiu=softmax(f(Qiu,Kiu))headiu=ViuAiuT
这是一个头的计算,接下来每个头都这么算,假设有
h
h
h 个头,这里会通过上面的映射矩阵
W
W
W 系列,先 把原始的
h
i
u
h_{i}^{u}
hiu 向量映射到
d
k
=
1
h
d
d_{k}=\frac{1}{h} d
dk=h1d 维度,然后计算
h
e
a
d
i
u
h e a d_{i}^{u}
headiu 也是
d
k
d_{k}
dk 维,这样
h
h
h 个head进行拼接,正好是
d
d
d 维,接下来过一个全连接或者线性映射得到Multi Head的输出。
X
^
u
=
MultiHead
(
X
u
)
=
W
O
concat
(
head
1
u
,
…
,
head
h
u
)
\hat{X}^{u}=\operatorname{MultiHead}\left(X^{u}\right)=W^{O} \operatorname{concat}\left(\operatorname{head}_{1}^{u}, \ldots, \text { head }_{h}^{u}\right)
X^u=MultiHead(Xu)=WOconcat(head1u,…, head hu)
相当于将相似的
h
i
u
h_{i}^{u}
hiu 融合到了一块,就能学习到用户的多兴趣。
注意,这里没有使用残差连接,
X
^
u
=
[
h
^
1
u
,
…
,
h
^
t
u
]
\hat{X}^{u}=\left[\hat{\boldsymbol{h}}_{1}^{u}, \ldots, \hat{\boldsymbol{h}}_{t}^{u}\right]
X^u=[h^1u,…,h^tu] 已经融合多兴趣。
得到这个东西之后,接下来再过一个User Attention层,挖掘更细粒度的用户个性化信息。当然,这个就是普通的embedding层了,用户的base向量
e
u
e_{u}
eu 作为 query,与
X
^
u
\hat{X}^{u}
X^u 的每个向量做Attention,然后加权求和得最终向量:
α
k
=
exp
(
h
^
k
u
T
e
u
)
∑
k
=
1
t
exp
(
h
^
k
u
T
e
u
)
s
t
u
=
∑
k
=
1
t
α
k
h
^
k
u
\begin{aligned} \alpha_{k} &=\frac{\exp \left(\hat{\boldsymbol{h}}_{k}^{u T} \boldsymbol{e}_{u}\right)}{\sum_{k=1}^{t} \exp \left(\hat{\boldsymbol{h}}_{k}^{u T} \boldsymbol{e}_{u}\right)} \\ \boldsymbol{s}_{t}^{u} &=\sum_{k=1}^{t} \alpha_{k} \hat{\boldsymbol{h}}_{k}^{u} \end{aligned}
αkstu=∑k=1texp(h^kuTeu)exp(h^kuTeu)=k=1∑tαkh^ku
其中
s
t
u
∈
R
d
×
1
s_{t}^{u} \in \mathbb{R}^{d \times 1}
stu∈Rd×1 ,形成了短期行为兴趣。
3.4 用户长期行为建模
从长期的视角来看,用户在不同的维度上可能积累了广泛的兴趣,用户可能经常访问一组类似的商店,并反复购买属于同一类别的商品。 所以长期行为
L
u
{L}^{u}
Lu来自于不同的特征尺度,并包含了各种side特征。
L
u
=
{
L
f
u
∣
f
∈
F
}
\mathcal{L}^{u}=\left\{\mathcal{L}_{f}^{u} \mid f \in \mathcal{F}\right\}
Lu={Lfu∣f∈F}
与短期行为不同,长期行为是从特征的维度进行聚合,把用户的历史长序列分成了多个特征,比如用户历史点击过的商品,历史逛过的店铺,历史看过的商品的类别,品牌等,分成了多个特征子集,然后这每个特征子集里面有对应的id,比如商品有商品id, 店铺有店铺id等,对于每个子集,通过user Attention layer,和用户的base向量求Attention, 相当于看看用户喜欢逛啥样的商店, 喜欢啥样的品牌,啥样的商品类别等等,得到每个子集最终的表示向量。每个子集的计算过程如下:
α
k
=
exp
(
g
k
u
T
e
u
)
∑
k
=
1
∣
L
f
u
∣
exp
(
g
k
u
T
e
u
)
z
f
u
=
∑
k
=
1
∣
L
f
u
∣
α
k
g
k
u
\begin{aligned} \alpha_{k} &=\frac{\exp \left(\boldsymbol{g}_{k}^{u T} \boldsymbol{e}_{u}\right)}{\sum_{k=1}^{\left|\mathcal{L}_{f}^{u}\right|} \exp \left(\boldsymbol{g}_{k}^{u T} \boldsymbol{e}_{u}\right)} \\ z_{f}^{u} &=\sum_{k=1}^{\left|\mathcal{L}_{f}^{u}\right|} \alpha_{k} \boldsymbol{g}_{k}^{u} \end{aligned}
αkzfu=∑k=1∣Lfu∣exp(gkuTeu)exp(gkuTeu)=k=1∑∣Lfu∣αkgku
每个子集都会得到一个加权的向量,把这个东西拼起来,然后通过DNN。
z
u
=
concat
(
{
z
f
u
∣
f
∈
F
}
)
p
u
=
tanh
(
W
p
z
u
+
b
)
\begin{aligned} &\boldsymbol{z}^{u}=\operatorname{concat}\left(\left\{z_{f}^{u} \mid f \in \mathcal{F}\right\}\right) \\ &\boldsymbol{p}^{u}=\tanh \left(\boldsymbol{W}^{p} z^{u}+b\right) \end{aligned}
zu=concat({zfu∣f∈F})pu=tanh(Wpzu+b)
这里的
p
u
∈
R
d
×
1
\boldsymbol{p}^{u} \in \mathbb{R}^{d \times 1}
pu∈Rd×1 ,得到用户的长期兴趣表示。
3.5 短长期兴趣融合
长短期兴趣融合,作者发现之前模型往往喜欢直接拼接起来,或者加和,注意力加权等,作者认为这样不能很好的将两类兴趣融合起来,因为长期序列里面,只有很少的一部分行为和当前有关,因此直接融合是有问题的。所以作者采用了门控机制:
G
t
u
=
sigmoid
(
W
1
e
u
+
W
2
s
t
u
+
W
3
p
u
+
b
)
o
t
u
=
(
1
−
G
t
u
)
⊙
p
u
+
G
t
u
⊙
s
t
u
\begin{gathered} G_{t}^{u}=\operatorname{sigmoid}\left(\boldsymbol{W}^{1} \boldsymbol{e}_{u}+\boldsymbol{W}^{2} s_{t}^{u}+\boldsymbol{W}^{3} \boldsymbol{p}^{u}+b\right) \\ o_{t}^{u}=\left(1-G_{t}^{u}\right) \odot p^{u}+G_{t}^{u} \odot s_{t}^{u} \end{gathered}
Gtu=sigmoid(W1eu+W2stu+W3pu+b)otu=(1−Gtu)⊙pu+Gtu⊙stu
这个和LSTM的这种门控机制很像,首先门控接收的输入有用户画像
e
u
e_{u}
eu ,用户短期兴趣
s
t
u
s_{t}^{u}
stu ,用户长期兴趣
p
u
p^{u}
pu ,经过sigmoid函数得到了
G
t
u
∈
R
d
×
1
G_{t}^{u} \in \mathbb{R}^{d \times 1}
Gtu∈Rd×1 ,用来决定在
t
t
t 时刻短期和长期兴趣的贡献程度。然后根据这个贡献程度对短期和长期偏好加权进行融合。
实验中证明了这种融合的有效性,因为,最终得到的短期或者长期兴趣都是 d 维的向量, 每一个维度可能代表着不同的兴趣偏好,比如第一维度代表品牌,第二个维度代表类别,第三个维度代表价格,第四个维度代表商店等。如果我们是直接相加或者是加权相加,其实都意味着长短期兴趣这每个维度都有很高的保留。
门控机制的巧妙就在于,我会给每个维度都学习到一个权重,而这个权重非0即1, 融合的时候,通过这个门控机制,取长期和短期兴趣向量每个维度上的其中一个,这样就不会有冲突发生。这样就使得用户长期兴趣和短期兴趣融合的时候,每个维度上的信息保留变得有选择。使得兴趣的融合方式更加灵活。
论文后面的实验就是作了方法对比,消融研究了各个模块的有效性等。
4. SDM模型的简易复现
参考DeepMatch,并在新闻推荐的数据集上进行召回任务。
关于数据集的介绍,可以参考YouTubeDNN那篇文章。
4.1 模型的输入
SDM模型将用户的行为序列分成了会话的形式,在构造模型输入和其他模型有较大区别。
产生数据集的时候, 需要传入短期会话长度及长期会话长度, 对于一个行为序列,构造数据集的时候要按照两个长度分成短期行为和长期行为,并且每一种都需要指明真实的序列长度。
另外,由于用到了商品的side info信息,所以这里加入了文章的两个类别特征cat_1和cat_2,作为文章的side info。
产生数据集:
"""构造sdm数据集"""
def get_data_set(click_data, seq_short_len=5, seq_prefer_len=50):
"""
:param: seq_short_len: 短期会话的长度
:param: seq_prefer_len: 会话的最长长度
"""
click_data.sort_values("expo_time", inplace=True)
train_set, test_set = [], []
for user_id, hist_click in tqdm(click_data.groupby('user_id')):
pos_list = hist_click['article_id'].tolist()
cat1_list = hist_click['cat_1'].tolist()
cat2_list = hist_click['cat_2'].tolist()
# 滑动窗口切分数据
for i in range(1, len(pos_list)):
hist = pos_list[:i]
cat1_hist = cat1_list[:i]
cat2_hist = cat2_list[:i]
# 序列长度只够短期的
if i <= seq_short_len and i != len(pos_list) - 1:
train_set.append((
# 用户id, 用户短期历史行为序列, 用户长期历史行为序列, 当前行为文章, label,
user_id, hist[::-1], [0]*seq_prefer_len, pos_list[i], 1,
# 用户短期历史序列长度, 用户长期历史序列长度,
len(hist[::-1]), 0,
# 用户短期历史序列对应类别1, 用户长期历史行为序列对应类别1
cat1_hist[::-1], [0]*seq_prefer_len,
# 历史短期历史序列对应类别2, 用户长期历史行为序列对应类别2
cat2_hist[::-1], [0]*seq_prefer_len
))
# 序列长度够长期的
elif i != len(pos_list) - 1:
train_set.append((
# 用户id, 用户短期历史行为序列,用户长期历史行为序列, 当前行为文章, label
user_id, hist[::-1][:seq_short_len], hist[::-1][seq_short_len:], pos_list[i], 1,
# 用户短期行为序列长度,用户长期行为序列长度,
seq_short_len, len(hist[::-1])-seq_short_len,
# 用户短期历史行为序列对应类别1, 用户长期历史行为序列对应类别1
cat1_hist[::-1][:seq_short_len], cat1_hist[::-1][seq_short_len:],
# 用户短期历史行为序列对应类别2, 用户长期历史行为序列对应类别2
cat2_hist[::-1][:seq_short_len], cat2_hist[::-1][seq_short_len:]
))
# 测试集保留最长的那一条
elif i <= seq_short_len and i == len(pos_list) - 1:
test_set.append((
user_id, hist[::-1], [0]*seq_prefer_len, pos_list[i], 1,
len(hist[::-1]), 0,
cat1_hist[::-1], [0]*seq_perfer_len,
cat2_hist[::-1], [0]*seq_prefer_len
))
else:
test_set.append((
user_id, hist[::-1][:seq_short_len], hist[::-1][seq_short_len:], pos_list[i], 1,
seq_short_len, len(hist[::-1])-seq_short_len,
cat1_hist[::-1][:seq_short_len], cat1_hist[::-1][seq_short_len:],
cat2_list[::-1][:seq_short_len], cat2_hist[::-1][seq_short_len:]
))
random.shuffle(train_set)
random.shuffle(test_set)
return train_set, test_set
根据会话的长短,把之前的一个长行为序列划分成了短期和长期两个,然后加入了两个新的side info特征。
下面产生模型的输入, 模型输入依然需要指明短期序列长度和长期序列长度,padding的时候会用到。
构造SDM模型的输入:
def gen_model_input(train_set, user_profile, seq_short_len, seq_prefer_len):
"""构造模型输入"""
# row: [user_id, short_train_seq, perfer_train_seq, item_id, label, short_len, perfer_len, cat_1_short, cat_1_perfer, cat_2_short, cat_2_prefer]
train_uid = np.array([row[0] for row in train_set])
short_train_seq = [row[1] for row in train_set]
prefer_train_seq = [row[2] for row in train_set]
train_iid = np.array([row[3] for row in train_set])
train_label = np.array([row[4] for row in train_set])
train_short_len = np.array([row[5] for row in train_set])
train_prefer_len = np.array([row[6] for row in train_set])
short_train_seq_cat1 = np.array([row[7] for row in train_set])
prefer_train_seq_cat1 = np.array([row[8] for row in train_set])
short_train_seq_cat2 = np.array([row[9] for row in train_set])
prefer_train_seq_cat2 = np.array([row[10] for row in train_set])
# padding操作
train_short_item_pad = pad_sequences(short_train_seq, maxlen=seq_short_len, padding='post', truncating='post', value=0)
train_prefer_item_pad = pad_sequences(prefer_train_seq, maxlen=seq_prefer_len, padding='post', truncating='post', value=0)
train_short_cat1_pad = pad_sequences(short_train_seq_cat1, maxlen=seq_short_len, padding='post', truncating='post', value=0)
train_prefer_cat1_pad = pad_sequences(prefer_train_seq_cat1, maxlen=seq_prefer_len, padding='post', truncating='post', value=0)
train_short_cat2_pad = pad_sequences(short_train_seq_cat2, maxlen=seq_short_len, padding='post', truncating='post', value=0)
train_prefer_cat2_pad = pad_sequences(prefer_train_seq_cat2, maxlen=seq_prefer_len, padding='post', truncating='post', value=0)
# 形成输入词典
train_model_input = {
"user_id": train_uid,
"doc_id": train_iid,
"short_doc_id": train_short_item_pad,
"prefer_doc_id": train_prefer_item_pad,
"prefer_sess_length": train_prefer_len,
"short_sess_length": train_short_len,
"short_cat1": train_short_cat1_pad,
"prefer_cat1": train_prefer_cat1_pad,
"short_cat2": train_short_cat2_pad,
"prefer_cat2": train_prefer_cat2_pad
}
# 其他的用户特征加入
for key in ["gender", "age", "city"]:
train_model_input[key] = user_profile.loc[train_model_input['user_id']][key].values
return train_model_input, train_label
4.2 模型的代码架构
整个SDM模型,参考deepmatch修改的一个简易版本:
def SDM(user_feature_columns, item_feature_columns, history_feature_list, num_sampled=5, units=32, rnn_layers=2,
dropout_rate=0.2, rnn_num_res=1, num_head=4, l2_reg_embedding=1e-6, dnn_activation='tanh', seed=1024):
"""
:param rnn_num_res: rnn的残差层个数
:param history_feature_list: short和long sequence field
"""
# item_feature目前只支持doc_id, 再加别的就不行了,其实这里可以改造下
if (len(item_feature_columns)) > 1:
raise ValueError("SDM only support 1 item feature like doc_id")
# 获取item_feature的一些属性
item_feature_column = item_feature_columns[0]
item_feature_name = item_feature_column.name
item_vocabulary_size = item_feature_column.vocabulary_size
# 为用户特征创建Input层
user_input_layer_dict = build_input_layers(user_feature_columns)
item_input_layer_dict = build_input_layers(item_feature_columns)
# 将Input层转化成列表的形式作为model的输入
user_input_layers = list(user_input_layer_dict.values())
item_input_layers = list(item_input_layer_dict.values())
# 筛选出特征中的sparse特征和dense特征,方便单独处理
sparse_feature_columns = list(filter(lambda x: isinstance(x, SparseFeat), user_feature_columns)) if user_feature_columns else []
dense_feature_columns = list(filter(lambda x: isinstance(x, DenseFeat), user_feature_columns)) if user_feature_columns else []
if len(dense_feature_columns) != 0:
raise ValueError("SDM dont support dense feature") # 目前不支持Dense feature
varlen_feature_columns = list(filter(lambda x: isinstance(x, VarLenSparseFeat), user_feature_columns)) if user_feature_columns else []
# 构建embedding字典
embedding_layer_dict = build_embedding_layers(user_feature_columns+item_feature_columns)
# 拿到短期会话和长期会话列 之前的命名规则在这里起作用
sparse_varlen_feature_columns = []
prefer_history_columns = []
short_history_columns = []
prefer_fc_names = list(map(lambda x: "prefer_" + x, history_feature_list))
short_fc_names = list(map(lambda x: "short_" + x, history_feature_list))
for fc in varlen_feature_columns:
if fc.name in prefer_fc_names:
prefer_history_columns.append(fc)
elif fc.name in short_fc_names:
short_history_columns.append(fc)
else:
sparse_varlen_feature_columns.append(fc)
# 获取用户的长期行为序列列表 L^u
# [<tf.Tensor 'emb_prefer_doc_id_2/Identity:0' shape=(None, 50, 32) dtype=float32>, <tf.Tensor 'emb_prefer_cat1_2/Identity:0' shape=(None, 50, 32) dtype=float32>, <tf.Tensor 'emb_prefer_cat2_2/Identity:0' shape=(None, 50, 32) dtype=float32>]
prefer_emb_list = embedding_lookup(prefer_fc_names, user_input_layer_dict, embedding_layer_dict)
# 获取用户的短期序列列表 S^u
# [<tf.Tensor 'emb_short_doc_id_2/Identity:0' shape=(None, 5, 32) dtype=float32>, <tf.Tensor 'emb_short_cat1_2/Identity:0' shape=(None, 5, 32) dtype=float32>, <tf.Tensor 'emb_short_cat2_2/Identity:0' shape=(None, 5, 32) dtype=float32>]
short_emb_list = embedding_lookup(short_fc_names, user_input_layer_dict, embedding_layer_dict)
# 用户离散特征的输入层与embedding层拼接 e^u
user_emb_list = embedding_lookup([col.name for col in sparse_feature_columns], user_input_layer_dict, embedding_layer_dict)
user_emb = concat_func(user_emb_list)
user_emb_output = Dense(units, activation=dnn_activation, name='user_emb_output')(user_emb) # (None, 1, 32)
# 长期序列行为编码
# 过AttentionSequencePoolingLayer --> Concat --> DNN
prefer_sess_length = user_input_layer_dict['prefer_sess_length']
prefer_att_outputs = []
# 遍历长期行为序列
for i, prefer_emb in enumerate(prefer_emb_list):
prefer_attention_output = AttentionSequencePoolingLayer(dropout_rate=0)([user_emb_output, prefer_emb, prefer_sess_length])
prefer_att_outputs.append(prefer_attention_output)
prefer_att_concat = concat_func(prefer_att_outputs) # (None, 1, 64) <== Concat(item_embedding,cat1_embedding,cat2_embedding)
prefer_output = Dense(units, activation=dnn_activation, name='prefer_output')(prefer_att_concat)
# print(prefer_output.shape) # (None, 1, 32)
# 短期行为序列编码
short_sess_length = user_input_layer_dict['short_sess_length']
short_emb_concat = concat_func(short_emb_list) # (None, 5, 64) 这里注意下, 对于短期序列,描述item的side info信息进行了拼接
short_emb_input = Dense(units, activation=dnn_activation, name='short_emb_input')(short_emb_concat) # (None, 5, 32)
# 过rnn 这里的return_sequence=True, 每个时间步都需要输出h
short_rnn_output = DynamicMultiRNN(num_units=units, return_sequence=True, num_layers=rnn_layers,
num_residual_layers=rnn_num_res, # 这里竟然能用到残差
dropout_rate=dropout_rate)([short_emb_input, short_sess_length])
# print(short_rnn_output) # (None, 5, 32)
# 过MultiHeadAttention # (None, 5, 32)
short_att_output = MultiHeadAttention(num_units=units, head_num=num_head, dropout_rate=dropout_rate)([short_rnn_output, short_sess_length]) # (None, 5, 64)
# user_attention # (None, 1, 32)
short_output = UserAttention(num_units=units, activation=dnn_activation, use_res=True, dropout_rate=dropout_rate)([user_emb_output, short_att_output, short_sess_length])
# 门控融合
gated_input = concat_func([prefer_output, short_output, user_emb_output])
gate = Dense(units, activation='sigmoid')(gated_input) # (None, 1, 32)
# temp = tf.multiply(gate, short_output) + tf.multiply(1-gate, prefer_output) 感觉这俩一样?
gated_output = Lambda(lambda x: tf.multiply(x[0], x[1]) + tf.multiply(1-x[0], x[2]))([gate, short_output, prefer_output]) # [None, 1,32]
gated_output_reshape = Lambda(lambda x: tf.squeeze(x, 1))(gated_output) # (None, 32) 这个维度必须要和docembedding层的维度一样,否则后面没法sortmax_loss
# 接下来
item_embedding_matrix = embedding_layer_dict[item_feature_name] # 获取doc_id的embedding层
item_index = EmbeddingIndex(list(range(item_vocabulary_size)))(item_input_layer_dict[item_feature_name]) # 所有doc_id的索引
item_embedding_weight = NoMask()(item_embedding_matrix(item_index)) # 拿到所有item的embedding
pooling_item_embedding_weight = PoolingLayer()([item_embedding_weight]) # 这里依然是当可能不止item_id,或许还有brand_id, cat_id等,需要池化
# 这里传入的是整个doc_id的embedding, user_embedding, 以及用户点击的doc_id,然后去进行负采样计算损失操作
output = SampledSoftmaxLayer(num_sampled)([pooling_item_embedding_weight, gated_output_reshape, item_input_layer_dict[item_feature_name]])
model = Model(inputs=user_input_layers+item_input_layers, outputs=output)
# 下面是等模型训练完了之后,获取用户和item的embedding
model.__setattr__("user_input", user_input_layers)
model.__setattr__("user_embedding", gated_output_reshape) # 用户embedding是取得门控融合的用户向量
model.__setattr__("item_input", item_input_layers)
# item_embedding取得pooling_item_embedding_weight, 这个会发现是负采样操作训练的那个embedding矩阵
model.__setattr__("item_embedding", get_item_embedding(pooling_item_embedding_weight, item_input_layer_dict[item_feature_name]))
return model
函数式API搭建模型的方式,首先需要传入封装好的用户特征描述以及item特征描述,比如:
# 建立模型
user_feature_columns = [
SparseFeat('user_id', feature_max_idx['user_id'], 16),
SparseFeat('gender', feature_max_idx['gender'], 16),
SparseFeat('age', feature_max_idx['age'], 16),
SparseFeat('city', feature_max_idx['city'], 16),
VarLenSparseFeat(SparseFeat('short_doc_id', feature_max_idx['article_id'], embedding_dim, embedding_name="doc_id"), SEQ_LEN_short, 'mean', 'short_sess_length'),
VarLenSparseFeat(SparseFeat('prefer_doc_id', feature_max_idx['article_id'], embedding_dim, embedding_name='doc_id'), SEQ_LEN_prefer, 'mean', 'prefer_sess_length'),
VarLenSparseFeat(SparseFeat('short_cat1', feature_max_idx['cat_1'], embedding_dim, embedding_name='cat_1'), SEQ_LEN_short, 'mean', 'short_sess_length'),
VarLenSparseFeat(SparseFeat('prefer_cat1', feature_max_idx['cat_1'], embedding_dim, embedding_name='cat_1'), SEQ_LEN_prefer, 'mean', 'prefer_sess_length'),
VarLenSparseFeat(SparseFeat('short_cat2', feature_max_idx['cat_2'], embedding_dim, embedding_name='cat_2'), SEQ_LEN_short, 'mean', 'short_sess_length'),
VarLenSparseFeat(SparseFeat('prefer_cat2', feature_max_idx['cat_2'], embedding_dim, embedding_name='cat_2'), SEQ_LEN_prefer, 'mean', 'prefer_sess_length'),
]
item_feature_columns = [SparseFeat('doc_id', feature_max_idx['article_id'], embedding_dim)]
这里需要注意的一个点是短期和长期序列的名字,必须严格的short__, prefer_ 进行标识,因为在模型搭建的时候就是靠着这个去找到短期和长期序列特征。
逻辑比较清晰,首先是建立Input层,然后是embedding层, 接下来,根据命名选择出用户的base特征列, 短期行为序列和长期行为序列。
长期序列通过Attention Pooling Layer层进行编码,本质就是注意力机制然后融合,需要注意的一个点是for循环,也就是长期序列行为里面的特征列,比如商品,cat_1, cat_2是for循环的形式求融合向量,再拼接起来过DNN,和论文图保持一致。
短期序列编码部分,是item_embedding, cat_1 embedding, cat_2 embedding拼接起来,过Dynamic Multi RNN 层学习序列信息, 通过Multi Head Attention学习多兴趣,最后通过User Attention Layer进行向量融合。
接下来,长期兴趣向量和短期兴趣向量以及用户base向量,过门控融合机制,得到最终的user_embedding。
后面的那块是为了模型训练完之后,方便取出user embedding和item embedding.
接下来,看几个重要的层。
4.3 Attention Sequence Pooling Layer层
首先是长期行为序列中使用的Att_Net层,本质上就是传统的求Attention机制。
class AttentionSequencePoolingLayer(Layer):
def __init__(self, dropout_rate=0, scale=True, **kwargs):
self.dropout_rate = dropout_rate
self.scale = scale
super(AttentionSequencePoolingLayer, self).__init__(**kwargs)
def build(self, input_shape):
self.projection_layer = Dense(units=1, activation='tanh')
super(AttentionSequencePoolingLayer, self).build(input_shape)
def call(self, inputs, mask=None, **kwargs):
# queries[None, 1, 64], keys[None, 50, 32], keys_length[None, 1], 表示真实的会话长度, 后面mask会用到
queries, keys, keys_length = inputs
hist_len = keys.get_shape()[1]
key_mask = tf.sequence_mask(keys_length, hist_len) # mask 矩阵 (None, 1, 50)
queries = tf.tile(queries, [1, hist_len, 1]) # [None, 50, 64] 为每个key都配备一个query
# 后面,把queries与keys拼起来过全连接, 这里是这样的, 本身接下来是要求queryies与keys中每个item相关性,常规操作我们能想到的就是直接内积求得分数
# 而这里的Attention实现,使用的是LuongAttention, 传统的Attention原来是有两种BahdanauAttention与LuongAttention, 这个在博客上整理下
# 这里采用的LuongAttention,对其方式是q_k先拼接,然后过DNN的方式
q_k = tf.concat([queries, keys], axis=-1) # [None, 50, 96]
output_scores = self.projection_layer(q_k) # [None, 50, 1]
if self.scale:
output_scores = output_scores / (q_k.get_shape().as_list()[-1] ** 0.5)
attention_score = tf.transpose(output_scores, [0, 2, 1])
# 加权求和 需要把填充的那部分mask掉
paddings = tf.ones_like(attention_score) * (-2 ** 32 + 1)
attention_score = tf.where(key_mask, attention_score, paddings)
attention_score = softmax(attention_score) # [None, 1, 50]
outputs = tf.matmul(attention_score, keys) # [None, 1, 64]
return outputs
这个层的实现注意力机制的方式是Q和key向量拼接,然后过一个全连接层得到权重,然后反乘到key上。
之前是直接向量内积得到权重不就行, 于是去查Attention的实现方法,结果发现了一点新东西:
传统的Attention其实是有两种经典注意力机制的,分别是Luong Attention和Bahdanau Attention,这两个在理念上大致相同,但是实现细节上有些区别。看下面两个图:
经常看到的计算注意力的方式是右边这个, 在NLP里面算注意力的时候,
t
t
t 步的注意力
c
t
c_{t}
ct 是由解码器的第
t
−
1
t-1
t−1 步隐藏状态
h
t
−
1
h_{t-1}
ht−1 与编 码器中的每个隐藏状态
h
‾
s
\overline{\mathbf{h}}_{s}
hs 加权计算得到的。称为Bahdanau Attention。
与其不一样的是左边的这个,计算
c
t
c_{t}
ct 的时候,用的是解码器第
t
t
t 步隐藏状态
h
t
h_{t}
ht 与编码器的隐藏状态
h
‾
s
\overline{\mathbf{h}}{ }_{s}
hs 得 到的,这种attention机制是要在解码器中先计算出
h
t
h_{t}
ht 来,然后这东西与编码器的各个隐层求出加权求和得到
c
t
c_{t}
ct ,然后这俩拼接起来,再过 一个全连接,得到
h
~
t
\tilde{h}_{t}
h~t ,用这个计算当前时间步的输出
y
^
t
\hat{\mathbf{y}}_{t}
y^t 。
所以这两种Attention机制的区别总结如下:
- 注意力计算方式不同。在 Luong Attention 机制中,第 t t t 步的注意力 c t c_{t} ct 是由 decoder 第 t \mathrm{t} t 步的 hidden state h t \mathbf{h}_{t} ht 与 encoder 中的每一 个 hidden state h ‾ s \overline{\mathbf{h}}_{s} hs 加权计算得出的。而在 Bahdanau Attention 机制中,第 t t t 步的注意力 c t c_{t} ct 是由 decoder 第 t − 1 t-1 t−1 步的 hidden state h t − 1 \mathbf{h}_{t-1} ht−1 与 encoder 中的每一个 hidden state h ‾ s \overline{\mathbf{h}}_{s} hs 加权计算得出的。
- decoder的输入输出不同。在 Bahdanau Attention 机制中, decoder 在第 t t t 步时,输入是由注意力 c t \mathbf{c}_{t} ct 与前一步的 hidden state h t − 1 \mathbf{h}_{t-1} ht−1 拼接 (concatenate) 得出的,得到第 t t t 步的 hidden state h t \mathbf{h}_{t} ht 并直接输出 y ^ t + 1 \hat{\mathbf{y}}_{t+1} y^t+1 。而 Luong Attention 机制在 decoder 部分建立了一层额外的网络结构,以注意力 c t \mathbf{c}_{t} ct 与原 decoder 第 t t t 步的 hidden state h t \mathbf{h}_{t} ht 拼接作为输入,得到第 t t t 步的 hidden state h ~ t \tilde{\mathbf{h}}_{t} h~t 并输出 y ^ t \hat{\mathbf{y}}_{t} y^t 。
- 因此,Bahdanau Attention 机制的计算流程为 h t − 1 → a t → c t → h t \mathbf{h}_{t-1} \rightarrow \mathbf{a}_{t} \rightarrow \mathbf{c}_{t} \rightarrow \mathbf{h}_{t} ht−1→at→ct→ht ,而 Luong attention 机制的计算流程为 h t → a t → \mathbf{h}_{t} \rightarrow \mathbf{a}_{t} \rightarrow ht→at→ c t → h ~ t \mathbf{c}_{t} \rightarrow \tilde{\mathbf{h}}_{t} ct→h~t 。相较而言,Luong attention 机制中的 decoder 在每一步使用当前步 (而非前一步) 的 hidden state 来计算注意力,从 逻辑上更自然,但需要使用一层额外的 RNN decoder 来计算输出。
- Bahdanau Attention只在 concat 对齐函数上进行了实验,Luong Attention在多种对齐函数进行了实验,下面为Luong Attention设计的 三种对齐函数
score ( h t , h ‾ s ) = { h t ⊤ h ‾ s dot h t ⊤ W a h ‾ s general v a ⊤ tanh ( W a [ h t ; h ‾ s ] ) concat \operatorname{score}\left(\boldsymbol{h}_{t}, \overline{\boldsymbol{h}}_{s}\right)= \begin{cases}\boldsymbol{h}_{t}^{\top} \overline{\boldsymbol{h}}_{s} & \text { dot } \\ \boldsymbol{h}_{t}^{\top} \boldsymbol{W}_{a} \overline{\boldsymbol{h}}_{s} & \text { general } \\ \boldsymbol{v}_{a}^{\top} \tanh \left(\boldsymbol{W}_{\boldsymbol{a}}\left[\boldsymbol{h}_{t} ; \overline{\boldsymbol{h}}_{s}\right]\right) & \text { concat }\end{cases} score(ht,hs)=⎩ ⎨ ⎧ht⊤hsht⊤Wahsva⊤tanh(Wa[ht;hs]) dot general concat
这样,关于经典Attention机制的内容就更加全面了,上面代码里面实现的就是最下面这种concat对齐函数下的Luong Attention。
后面的动态 RNN 以及多头注意力机制都是都比较常规的。
总结
SDM 模型一个标准的序列推荐召回模型,文章把用户的行为训练以会话的形式进行切分,然后再根据时间,分成了短期会话和长期会话,然后分别采用不同的策略去学习用户的短期兴趣和长期兴趣。
- 对于短期会话,和当前预测相关性较大,首先用RNN来学习序列信息,然后采用多头注意力机制得到用户的多兴趣,接下来就是和用户的base向量进行注意力融合得到短期兴趣
- 长期会话序列中,每个side info信息进行分开,然后分别进行注意力编码融合得到
- 为了使得长期会话中对当前预测有用的部分得以体现,在融合短期兴趣和长期兴趣的时候,采用了门控的方式,而不是普通的拼接或者加和等操作,使得兴趣保留信息变得有选择
可以借鉴的地方:
首先是多头注意力机制也能学习到用户的多兴趣, 这样对于多兴趣,就有了胶囊网络与多头注意力机制两种思路。 另外对于两个向量融合,提供了一种门控融合机制;
另外还学习到了传统的两种经典注意力机制以及区别。
参考:
- SDM原论文
- 一文读懂Attention机制
- 【推荐系统经典论文(十)】阿里SDM模型
- SDM-深度序列召回模型
- 推荐广告中的序列建模
- https://github.com/zhongqiangwu960812/AI-RecommenderSystem