利用pyspark实现基于用户的协同过滤的推荐

假如有一些用户对物品的评分数据,怎么预测用户的喜好并给他推送感兴趣的物品呢?我们常常能想到的一种成熟方法就是协同过滤,这里只谈谈基于用户相似度的协同过滤。原理很好理解,物以类聚,你感兴趣的物品很可能是和你相似的人喜欢的物品。

如下表是一个用户-物品评分矩阵,大写的"A","B","C"表示用户(user),小写的"a","b","c"表示物品(item),数字表示对应评分(rating)。缺的地方表示用户还没对物品进行评分,我们需要估计用户对这些没评过分的物品的大致评分,将评分高的物品推荐给他。假设A,B,C互相相似,相似度为1,那么我们可以得=算出A对b预估评分=(2*1+3*1)/(1+1)=2.5分。B对c预估评分3.5,依此类推。

用户/物品 a b c
A 2.0 2.0
B 1.0 2.0
C 3.0 5.0

真正的推荐系统里,数据量巨大,如新闻资讯类推荐,用户有1w个,新闻有20w条,我们难以在内存里计算这一过程,所以下面探究如何利用大数据工具(如spark)来实现推荐。

引入spark等相关包。

from pyspark import SparkConf, SparkContext
from pyspark.sql import HiveContext

#python packages
import numpy as np
import time

import pandas as pd
from pyspark.sql.types import *
from pyspark.ml.recommendation import ALS
from pyspark.sql.functions import col
import numpy as np
import json
from operator import itemgetter

构造我们的模拟数据ratings,转成spark里的dataframe格式,然后转成rdd并将数据按用户进行group。

ratings = [('A', 'a', 2.0), ('A', 'c', 2.0), ('B', 'a', 1.0), ('B', 'b', 2.0), ('C', 'b', 3.0), ('C', 'c', 5.0)]
mySchema = StructType([ StructField("user_id", StringType(), True) ,StructField("news_id", StringType(), True), StructField("rating", DoubleType(), True)])
ratings = spark.createDataFrame(ratings, schema=mySchema)

rating_by_user_rdd = ratings.rdd.map(lambda x: (x.user_id, (x.news_id, x.rating))).groupByKey().mapValues(list)

得到格式
[('A', [('a', 2.0), ('c', 2.0)]),
('B', [('a', 1.0), ('b', 2.0)]),
('C', [('b', 3.0), ('c', 5.0)])]

rating_cross = rating_by_user_rdd.cartesian(rating_by_user_rdd)

用户*用户作笛卡尔积,得到
[(('A', [(1, 2.0), (3, 2.0)]), ('A', [(1, 2.0), (3, 2.0)])),
(('A', [(1, 2.0), (3, 2.0)]), ('B', [(1, 1.0), (2, 2.0)])),
(('B', [(1, 1.0), (2, 2.0)]), ('A', [(1, 2.0), (3, 2.0)])),
(('B', [(1, 1.0), (2, 2.0)]), ('B', [(1, 1.0), (2, 2.0)])),
(('A', [(1, 2.0), (3, 2.0)]), ('C', [(2, 3.0), (3, 5.0)])),
(('B', [(1, 1.0), (2, 2.0)]), ('C', [(2, 3.0), (3, 5.0)])),
(('C', [(2, 3.0), (3, 5.0)]), ('A', [(1, 2.0), (3, 2.0)])),
(('C', [(2, 3.0), (3, 5.0)]), ('B', [(1, 1.0), (2, 2.0)])),
(('C', [(2, 3.0), (3, 5.0)]), ('C', [(2, 3.0), (3, 5.0)]))]
计算用户两两之间相似度

min_common_item_bar = 1

# 1.user_based CF. user_similarity
#common_item < min_common_item_bar则return None
def user_sim_func(xi):
    l1 = xi[0][1]
    l2 = xi[1][1]
    common_item = set([kv[0] for kv in l1]).intersection(set([kv[0] for kv in l2]))
    if len(common_item) >= min_common_item_bar:
        vector_1 = [kv[1] for kv in l1 if kv[0] in common_item]
        vector_2 = [kv[1] for kv in l2 if kv[0] in common_item]
        #保留3位小数
        cos = np.around(cos_sim(vector_1, vector_2),5)
        return (xi[0][0],  (xi[1][0], cos))


def cos_sim(vector_a, vector_b):
    vector_a = np.mat(vector_a)
    vector_b = np.mat(vector_b)
    num = float(vector_a * vector_b.T)
    denom = np.linalg.norm(vector_a) * np.linalg.norm(vector_b)
    cos = num / denom
    return cos


user_sim_rdd = rating_cross.map(user_sim_func).filter(lambda x: x is not None).groupByKey().mapValues(list)

得到
[('B', [('A', 1.0), ('B', 1.0), ('C', 1.0)]),
('C', [('A', 1.0), ('B', 1.0), ('C', 1.0)]),
('A', [('A', 1.0), ('B', 1.0), ('C', 1.0)])]
当然这里用共同评分的项算cosine相似度,假设共同评分的项如果只有1个,那么相似度就一定为1。这是不合理的。所以具体算相似度可以设置min_common_item_bar为一个大一点的值,保证只有较多公共评分的项时才能算相似度,或者用jaccard等相似度计算方法。

#将相似用户作为key
def f(x): return x
temp = user_sim_rdd.flatMapValues(f).map(lambda x:(x[1][0], (x[0], x[1][1])))

#join相似用户和用户对新闻评分
temp2 = temp.join(rating_by_user_rdd)

def prepare_rating(x):
    similar_user = x[0]
    target_user = x[1][0][0]
    similarity = float(x[1][0][1])
    articles = x[1][1] 
    
    res = []
    for article in articles:
        res.append((target_user, article[0], article[1], similarity))
        
    return res
    
temp3 = temp2.map(prepare_rating).flatMap(f)

这里进行一些格式的变换(flatten等)将数据变成
[('B', 'a', 2.0, 1.0),
('B', 'c', 2.0, 1.0),
('C', 'a', 2.0, 1.0),
('C', 'c', 2.0, 1.0),
('A', 'a', 2.0, 1.0),
('A', 'c', 2.0, 1.0),
('B', 'a', 1.0, 1.0),
('B', 'b', 2.0, 1.0),
('C', 'a', 1.0, 1.0),
('C', 'b', 2.0, 1.0)]
这里的每一条数据(user, item, rating, similarity)是说与user相似度为similarity的某个用户对item的评分为rating。所以预测user对未知项item的评分,可以通过所有(user, item,,)的评分和相似度来做加权平均得到一个估计值,这里我没找到更好方法直接对rdd操作,所以先转为dataframe,用sql来计算。

mySchema = StructType([ StructField("user_id", StringType(), True) ,StructField("news_id", IntegerType(), True), StructField("rating", DoubleType(), True), StructField("similarity", DoubleType(), True)])
for_rating1 = temp3.toDF(schema=mySchema)

for_rating1.createOrReplaceTempView("for_rating1")
predict_rating = spark.sql("SELECT user_id, news_id, SUM(rating*similarity)/SUM(similarity) AS weighted_rating FROM for_rating1 GROUP BY user_id, news_id")

最终得到评分
+-------+-------+---------------+
|user_id|news_id|weighted_rating|
+-------+-------+---------------+
| C| 3| 3.5|
| A| 3| 3.5|
| A| 1| 1.5|
| A| 2| 2.5|
| C| 1| 1.5|
| B| 1| 1.5|
| B| 3| 3.5|
| C| 2| 2.5|
| B| 2| 2.5|
+-------+-------+---------------+
当然这里把所有已知评分也预测了评分,其实应该把这部分剔除掉的。最后对user推荐的就是该user的weighted_rating较高的item了。还有就是做加权平均的时候可以取similarity最高的前k个,不用像这里一样拿所有来算。或者先对用户进行聚类,加权评分这个用户所在类的用户评分。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容