Matrix Factorization and Probabilistic Matrix Factorization

  MF的主要思想其实就是假设,我们有N个用户,M个items,我们正常会有一个M*N的评分矩阵,然而这个矩阵可能很稀疏,或者关联性很强,那么我们试图通过降维来达到一个更好的效果,降维的方法就是抽象出M个items的F个特征,这个所谓特征就叫latent feature,比如我们现在有M个电影,但是M太大,我们觉得没必要对于所有的电影进行一个个分析,我们宁愿把M看成多个标签组成的电影,比如电影《复仇者联盟》,我们不把它单独看成一个电影,而是看成多个标签的组合,如“科幻”,“漫画”,“超级英雄”等这几个标签。同时,我们把N个用户对于电影的评分转化为对这些标签的接受程度,如用户A特别喜欢看科幻类电影,那么他对于这一类标签的评分就很高,同时他特别讨厌言情,那么他对这一类标签的评分甚至可能为负值,那么对他来说,《复仇者联盟》这部电影可能就非常适合他,因为《复仇者联盟》的科幻类标签评分很高,而言情几乎没有。

  通过这样的转化,好处是显而易见的。首先我们存储的空间大大减小,M的值可能大到几百万,但是标签的数量可能只有几百。其次我们对于那些给出评分非常少的用户也能有比较好的预测,试想一下,有几百万个不同电影,那么只有几个电影评分的用户,你是很难直接找到他对其他电影的评分的。但是,由于我们的F很小,可能只要几个评分,非常少的样本也能拟合不错的数据,我们可以探测到他对某些标签的喜爱,再把这些标签得分较高的电影推荐给他。

 那么显然我们现在需要得到一个训练的损失函数,在MF里,这个函数是

loss function

这里的r就是原始的评分矩阵,qi指的是items的各项指标的评分,pu是用户对于各项指标的评分,后面的项是为了防止过拟合情况出现。


接下来是PMF,PMF引入了概率模型,首先假设,用户的评分相对于latent feature是满足高斯分布的,也就是说,如果我们已经掌握了items相对于标签的得分V和user相对于标签的评分U,那么用户的评分将会有很大的几率偏离这个预测值不远(高斯分布的特性)


同样的,对于各个标签的得分,我们也认为他满足高斯分布,不过这一次,他的均值应该为0,为什么为0呢?因为有可能喜欢有可能不喜欢,因此有正有负,那么为0应该是最可能的情况。


有了这三个假设的高斯分布,我们就可以使用贝叶斯推导了,我们关心的是在给定的三个方差参数和评分下,U和V分别会是多少,因为有了U和V,我们就能去预测之后的用户的评分了。

所以我们写出如下面公式的概率

然后我们的目的当然是使它尽可能的大,于是我们用它log函数来求最大值


这个函数是不是跟之前MF的函数非常像?仔细观察发现,其实不就是系数换了一个写法嘛...

其实MF的优化目标函数就是PMF的优化目标函数在

的情况下的一个特例而已。从这个角度上来讲,PMF似乎更加接近本质一些,从PMF的角度上来理解这个问题,我们对于过拟合情况的容忍程度(也就是lamda),其实无非就是我们对于原来的那个假设高斯分布的方差的选择而已。如果我们非常不希望过拟合情况出现,也就是说lamda非常大,那么用户和items对于标签的评分的变化程度相对于评分的变化程度就非常的小。这就是说,我们不希望通过选择一些非常“奇特”,变化特别大的latent feature

的系数,去保证我们的预测值跟原来的评分r保持一值。

同时,如果我们觉得现有的拟合情况并不理想,我们可以通过改变PMF的假设高斯分布的系数来得到更好的拟合状态。

比如constrained PMF

它的思想主要是基于,现在我们认为默认情况下用户对于标签的评分满足高斯分布,那么对于那些只给出很少评分的人,他们的评分很难对于整体的概率产生很大的影响,因此我们在拟合U和V的时候,把他们的影响忽略掉了,从而得出了一个跟“去掉他们也没什么不同”的U和V,这样从U和V的整体预测角度来说是没什么不对,但是对于这一个用户的预测就有了很大的区别,在这种时候,我们仅仅用U和V去预测这一个用户,会得到与平均值非常接近的评分。但是这显然不是我们想要的结果。因此我们引入了一个新的指标矩阵W


从而有了这样一个新的预测函数,这个函数应该要满足的需求是,他对于我们原来的整体参数不能有太大的修改,也就是对于评分很多的用户,不能有太大偏差,但是对于评分非常少的用户,我们希望能够有很大的不同。这个不同,就是基于用户已经有的评分,假设用户已经给这个电影进行了评分,那么这个电影的所有标签的评分都应该被纳入到考虑当中来了。也可以认为,我们假设U的高斯分布,它的均值已经不为0了,它的均值应该为已经被用户评分过的电影的标签的分数的平均。 

而Yi可以看做是一个偏差的随机变量,这样写只是为了方便,也可以把Ui写成满足均值为

而方差为原来的sigma(U)的一个高斯分布。本质上只是对于假设Ui所满足的高斯分布的一个变换而已。

我们可以从概率论的角度上来论证这样为何对于高评分和低评分用户的影响不同。实际上,可以把这个UI满足的新的均值看做一个随机变量P,假设用户I评分了k个电影,那么P的值是k个均值为0的高斯随机变量之和除以k,那么由概率论的知识,P的方差应该为W的方差的k分之一,也就是说,随着k增大,p的变化程度越来越小,越来越稳定在均值0的附近,于是Ui就跟Yi差不多了。也就是说,高评分用户在新的体系下,他们的评分预测与无约束PMF的预测变化不大。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容