在线咨询
QQ咨询
服务热线
服务热线:13125520620
TOP

贝叶斯个性化排序(BPR)算法小结

发布时间:2018-6-3 浏览:3661

 
 在矩阵分解在协同过滤推荐算法中的应用中,我们讨论过像funkSVD之类的矩阵分解方法如何用于推荐。今天我们讲另一种在实际产品中用的比较多的推荐算法:贝叶斯个性化排序(Bayesian Personalized Ranking, 以下简称BPR),它也用到了矩阵分解,但是和funkSVD家族却有很多不同之处。下面我们来详细讨论。
 
1.  BPR算法使用背景
    在很多推荐场景中,我们都是基于现有的用户和商品之间的一些数据,得到用户对所有商品的评分,选择高分的商品推荐给用户,这是funkSVD之类算法的做法,使用起来也很有效。但是在有些推荐场景中,我们是为了在千万级别的商品中推荐个位数的商品给用户,此时,我们更关心的是用户来说,哪些极少数商品在用户心中有更高的优先级,也就是排序更靠前。也就是说,我们需要一个排序算法,这个算法可以把每个用户对应的所有商品按喜好排序。BPR就是这样的一个我们需要的排序算法。
 
2.  排序推荐算法背景介绍
     排序推荐算法历史很悠久,早在做信息检索的各种产品中就已经在使用了。最早的第一类排序算法类别是点对方法(Pointwise Approach),这类算法将排序问题被转化为分类、回归之类的问题,并使用现有分类、回归等方法进行实现。第二类排序算法是成对方法(Pairwise Approach),在序列方法中,排序被转化为对序列分类或对序列回归。所谓的pair就是成对的排序,比如(a,b)一组表明a比b排的靠前。我们要讲到的BPR就属于这一类。第三类排序算法是列表方法(Listwise Approach),它采用更加直接的方法对排序问题进行了处理。它在学习和预测过程中都将排序列表作为一个样本。排序的组结构被保持。
 
    本文关注BPR,这里我们对排序推荐算法本身不多讲,如果大家感兴趣,可以阅读李航的A Short Introduction to Learning to Rank.
 
3. BPR建模思路
    在BPR算法中,我们将任意用户u对应的物品进行标记,如果用户u在同时有物品i和j的时候点击了i,那么我们就得到了一个三元组<u,i,j><u,i,j>,它表示对用户u来说,i的排序要比j靠前。如果对于用户u来说我们有m组这样的反馈,那么我们就可以得到m组用户u对应的训练样本。
 
    既然是基于贝叶斯,那么我们也就有假设,这里的假设有两个:一是每个用户之间的偏好行为相互独立,即用户u在商品i和j之间的偏好和其他用户无关。二是同一用户对不同物品的偏序相互独立,也就是用户u在商品i和j之间的偏好和其他的商品无关。为了便于表述,我们用>u>u符号表示用户u的偏好,上面的<u,i,j><u,i,j>可以表示为:i>uji>uj。
 
    在BPR中,这个排序关系符号>u>u满足完全性,反对称性和传递性,即对于用户集U和物品集I:
 
    完整性:∀i,j∈I:i≠j⇒i>uj∪j>ui∀i,j∈I:i≠j⇒i>uj∪j>ui
    反对称性:∀i,j∈I:i>uj∩j>ui⇒i=j∀i,j∈I:i>uj∩j>ui⇒i=j
    传递性:∀i,j,k∈I:i>uj∩j>uk⇒i>uk∀i,j,k∈I:i>uj∩j>uk⇒i>uk
    同时,BPR也用了和funkSVD类似的矩阵分解模型,这里BPR对于用户集U和物品集I的对应的U×IU×I的预测排序矩阵X¯¯¯¯X¯,我们期望得到两个分解后的用户矩阵WW(|U|×k|U|×k)和物品矩阵HH(|I|×k|I|×k),满足
X¯¯¯¯=WHT
X¯=WHT
    这里的k和funkSVD类似,也是自己定义的,一般远远小于|U|,|I||U|,|I|。
 
    由于BPR是基于用户维度的,所以对于任意一个用户u,对应的任意一个物品i我们期望有:
x¯¯¯ui=wu?hi=∑f=1kwufhif
x¯ui=wu?hi=∑f=1kwufhif
    最终我们的目标,是希望寻找合适的矩阵W,HW,H,让X¯¯¯¯X¯和XX最相似。读到这里,也许你会说,这和funkSVD之类的矩阵分解模型没有什么区别啊? 的确,现在还看不出,下面我们来看看BPR的算法优化思路,就会慢慢理解和funkSVD有什么不同了。
 
4. BPR的算法优化思路
    BPR 基于最大后验估计P(W,H|>u)P(W,H|>u)来求解模型参数W,HW,H,这里我们用θθ来表示参数WW和HH, >u>u代表用户u对应的所有商品的全序关系,则优化目标是P(θ|>u)P(θ|>u)。根据贝叶斯公式,我们有:
P(θ|>u)=P(>u|θ)P(θ)P(>u)
P(θ|>u)=P(>u|θ)P(θ)P(>u)
    由于我们求解假设了用户的排序和其他用户无关,那么对于任意一个用户u来说,P(>u)P(>u)对所有的物品一样,所以有:
P(θ|>u)∝P(>u|θ)P(θ)
P(θ|>u)∝P(>u|θ)P(θ)
    这个优化目标转化为两部分。第一部分和样本数据集D有关,第二部分和样本数据集D无关。
 
    对于第一部分,由于我们假设每个用户之间的偏好行为相互独立,同一用户对不同物品的偏序相互独立,所以有:
∏u∈UP(>u|θ)=∏(u,i,j)∈(U×I×I)P(i>uj|θ)δ((u,i,j)∈D)(1−P(i>uj|θ))δ((u,j,i)∉D)
∏u∈UP(>u|θ)=∏(u,i,j)∈(U×I×I)P(i>uj|θ)δ((u,i,j)∈D)(1−P(i>uj|θ))δ((u,j,i)∉D)
    其中,
δ(b)={10ifbistrueelse
δ(b)={1ifbistrue0else
   
 
    根据上面讲到的完整性和反对称性,优化目标的第一部分可以简化为:
∏u∈UP(>u|θ)=∏(u,i,j)∈DP(i>uj|θ)
∏u∈UP(>u|θ)=∏(u,i,j)∈DP(i>uj|θ)
    而对于P(i>uj|θ)P(i>uj|θ)这个概率,我们可以使用下面这个式子来代替:
P(i>uj|θ)=σ(x¯¯¯uij(θ))
P(i>uj|θ)=σ(x¯uij(θ))
    其中,σ(x)σ(x)是sigmoid函数。这里你也许会问,为什么可以用这个sigmoid函数来代替呢? 其实这里的代替可以选择其他的函数,不过式子需要满足BPR的完整性,反对称性和传递性。原论文作者这么做除了是满足这三个性质外,另一个原因是为了方便优化计算。
 
    对于x¯¯¯uij(θ)x¯uij(θ)这个式子,我们要满足当i>uji>uj时,x¯¯¯uij(θ)>0x¯uij(θ)>0, 反之当j>uij>ui时,x¯¯¯uij(θ)<0x¯uij(θ)<0,最简单的表示这个性质的方法就是
x¯¯¯uij(θ)=x¯¯¯ui(θ)−x¯¯¯uj(θ)
x¯uij(θ)=x¯ui(θ)−x¯uj(θ)
    而x¯¯¯ui(θ),x¯¯¯uj(θ)x¯ui(θ),x¯uj(θ),就是我们的矩阵X¯¯¯¯X¯对应位置的值。这里为了方便,我们不写θθ,这样上式可以表示为:
x¯¯¯uij=x¯¯¯ui−x¯¯¯uj
x¯uij=x¯ui−x¯uj
    注意上面的这个式子也不是唯一的,只要可以满足上面提到的当i>uji>uj时,x¯¯¯uij(θ)>0x¯uij(θ)>0,以及对应的相反条件即可。这里我们仍然按原论文的式子来。
 
    最终,我们的第一部分优化目标转化为:
∏u∈UP(>u|θ)=∏(u,i,j)∈Dσ(x¯¯¯ui−x¯¯¯uj)
∏u∈UP(>u|θ)=∏(u,i,j)∈Dσ(x¯ui−x¯uj)
    
 
    对于第二部分P(θ)P(θ),原作者大胆使用了贝叶斯假设,即这个概率分布符合正太分布,且对应的均值是0,协方差矩阵是λθIλθI,即
P(θ)∼N(0,λθI)
P(θ)∼N(0,λθI)
    原作者为什么这么假设呢?个人觉得还是为了优化方便,因为后面我们做优化时,需要计算lnP(θ)lnP(θ),而对于上面假设的这个多维正态分布,其对数和||θ||2||θ||2成正比。即:
lnP(θ)=λ||θ||2
lnP(θ)=λ||θ||2
    最终对于我们的最大对数后验估计函数lnP(θ|>u)∝lnP(>u|θ)P(θ)=ln∏(u,i,j)∈Dσ(x¯¯¯ui−x¯¯¯uj)+lnP(θ)=∑(u,i,j)∈Dlnσ(x¯¯¯ui−x¯¯¯uj)+λ||θ||2lnP(θ|>u)∝lnP(>u|θ)P(θ)=ln∏(u,i,j)∈Dσ(x¯ui−x¯uj)+lnP(θ)=∑(u,i,j)∈Dlnσ(x¯ui−x¯uj)+λ||θ||2   
 
    这个式子可以用梯度上升法或者牛顿法等方法来优化求解模型参数。如果用梯度上升法,对θθ求导,我们有:
∂lnP(θ|>u)∂θ∝∑(u,i,j)∈D11+ex¯¯¯ui−x¯¯¯uj∂(x¯¯¯ui−x¯¯¯uj)∂θ+λθ
∂lnP(θ|>u)∂θ∝∑(u,i,j)∈D11+ex¯ui−x¯uj∂(x¯ui−x¯uj)∂θ+λθ
    由于
x¯¯¯ui−x¯¯¯uj=∑f=1kwufhif−∑f=1kwufhjf
x¯ui−x¯uj=∑f=1kwufhif−∑f=1kwufhjf
    这样我们可以求出:
∂(x¯¯¯ui−x¯¯¯uj)∂θ=?????(hif−hjf)wuf−wufifθ=wufifθ=hififθ=hjf
∂(x¯ui−x¯uj)∂θ={(hif−hjf)ifθ=wufwufifθ=hif−wufifθ=hjf
 
 
    有了梯度迭代式子,用梯度上升法求解模型参数就容易了。下面我们归纳下BPR的算法流程。
 
5. BPR算法流程
    下面简要总结下BPR的算法训练流程:  
 
    输入:训练集D三元组,梯度步长αα, 正则化参数λλ,分解矩阵维度k。          
 
    输出:模型参数,矩阵W,HW,H
    1. 随机初始化矩阵W,HW,H
    2. 迭代更新模型参数:
 
wuf=wuf+α(∑(u,i,j)∈D11+ex¯¯¯ui−x¯¯¯uj(hif−hjf)+λwuf)
wuf=wuf+α(∑(u,i,j)∈D11+ex¯ui−x¯uj(hif−hjf)+λwuf)
hif=hif+α(∑(u,i,j)∈D11+ex¯¯¯ui−x¯¯¯ujwuf+λhif)
hif=hif+α(∑(u,i,j)∈D11+ex¯ui−x¯ujwuf+λhif)
hjf=hjf+α(∑(u,i,j)∈D11+ex¯¯¯ui−x¯¯¯uj(−wuf)+λhjf)
hjf=hjf+α(∑(u,i,j)∈D11+ex¯ui−x¯uj(−wuf)+λhjf)
    3. 如果W,HW,H收敛,则算法结束,输出W,H,否则回到步骤2.
 
    当我们拿到W,HW,H后,就可以计算出每一个用户u对应的任意一个商品的排序分:x¯¯¯ui=wu?hix¯ui=wu?hi,最终选择排序分最高的若干商品输出。
 
6. BPR小结
    BPR是基于矩阵分解的一种排序算法,但是和funkSVD之类的算法比,它不是做全局的评分优化,而是针对每一个用户自己的商品喜好分贝做排序优化。因此在迭代优化的思路上完全不同。同时对于训练集的要求也是不一样的,funkSVD只需要用户物品对应评分数据二元组做训练集,而BPR则需要用户对商品的喜好排序三元组做训练集。
 
    在实际产品中,BPR之类的推荐排序在海量数据中选择极少量数据做推荐的时候有优势,因此在某宝某东等大厂中应用也很广泛。由于BPR并不复杂。
 
 
 
 

TAG
软件定制,软件开发,瀚森HANSEN,辽宁,沈阳,抚顺
0
该内容对我有帮助