精华内容
下载资源
问答
  • 应用来自Delicious的数据集, 通过对精确度和召回率等指标的测评, 研究了协同矩阵分解对社会化标签系统中资源推荐的有效性问题, 由于用户、资源、标签之间具有一定的相似性, 采用了通过同时分解三者在不同方向的潜在...
  • 协同过滤与矩阵分解

    2020-12-28 21:14:24
    假设有m个用户,n个物品,每个用户会对n个物品中的一个或者几个进行评分,未评分的物品分值就用问号表示,则所有m个用户对物品的评分可形成一个m∗nm*nm∗n的评分矩阵,也就是协同过滤中的共现矩阵。 生成共现矩阵...

    1. 协同过滤

    “协同过滤”就是协同大家的反馈、评价和意见一起对海量的信息进行过滤,从中筛选出目标用户可能感兴趣的信息的推荐过程。下面介绍基于用户的UserCF:

    1. 生成共现矩阵。假设有m个用户,n个物品,每个用户会对n个物品中的一个或者几个进行评分,未评分的物品分值就用问号表示,则所有m个用户对物品的评分可形成一个mnm*n的评分矩阵,也就是协同过滤中的共现矩阵

    2. 生成共现矩阵后,推荐问题就转换成了预测矩阵中问号的值的过程。

    3. 通过每个用户对所有物品的评分向量,利用余弦相似度、皮尔逊相关系数(可以引入物品平均分的方式减少物品评分)等,找到与需要推荐用户X最相似的Top n用户

    4. 利用用户相似度和相似用户评分的加权平均偶的目标用户的评价预测。下式中,wu,sw_{u,s}是物品u和用户s的相似度,us,pu_{s,p}是用户s对物品p的评分。

      Ru,p=sS(wu,sRs,p)sSwu,sR_{u,p} = \frac{\sum_{s \in S}(w_{u,s} \cdot R_{s,p})}{\sum_{s \in S}w_{u,s}}

    userCF主要有量大缺点,(1) 在互联网场景下,用户数量远大于商品数量,而且还会持续增加,这导致用户相似度矩阵的存储开销很大;(2) 用户的历史数据很稀疏,找到相似用户的准确度很低。

    由于上面两大缺点,Amazon最终没有采用该方法,而是采用了ItemCF。ItemCF的计算过程和UserCF类似,但是在应用场景上有所不同。UserCT具备强社交属性,并且更适合发现热点以及跟踪热点的趋势。ItemCF更适用于兴趣变化较为稳定的应用。

    协同过滤有两大缺点,(1) 热门的物品具有很强的头部效应,容易跟大量物品产生相似性,而尾部物品则完全相反;(2) 协同过滤仅仅利用用户和物品的交互信息,造成了信息遗漏。

    2. 矩阵分解

    协同过滤是基于用户的观看历史,找到与目标用户看过同样视频的相似用户,然后找到这些相似用户喜欢看的其他视频,推荐给目标用户。矩阵分解算法则期望为每一位用户和视频生成一个隐向量,将用户和视频定位到隐向量的表示空间上,距离相近的用户和视频表明兴趣特点接近,在推荐过程中,就把距离相近的视频推荐给目标用户。

    在矩阵分解的算法框架下,用户和物品的隐向量是通过分解共现矩阵得到的。对矩阵进行矩阵分解的方法主要有三种,特征值分解、奇异值分解、梯度下降。其中,特征值分解只能作用于方阵,故排除。奇异值分解要求原始的共现矩阵是稠密的,所以必须对确实的元素值进行填充,并且计算复杂度为O(mn2)O(mn^2),所以也不合适。因此,梯度下降成了进行矩阵分解的主要方法,目标函数是让原始评分ruir_{ui}与用户向量和物品向量之积qiTpuq^T_ip_u的差尽量小,同时为了减少过拟合现象,加入正则化项。下式中,K是所有用户评分样本的集合。

    minq,p(u,i)K(ruiqiTpu)2+λ(qi2+pu2)\underset{q^*,p^*}{min}\underset{(u,i)\in K}{\sum}(r_{ui}-q_i^Tp_u)^2+\lambda(||q_i||^2+||p_u||^2)

    1. qiq_i求偏导,得hqi=2(ruiqiTpu)pu2λqi\frac{\partial h}{\partial q_i} = 2(r_{ui}-q_i^Tp_u)p_u-2\lambda q_i
    2. pup_u求偏导,得hqi=2(ruiqiTpu)qi2λpu\frac{\partial h}{\partial q_i} = 2(r_{ui}-q_i^Tp_u)q_i-2\lambda p_u
    3. 沿梯度反方向更新参数

    矩阵分解相比协同过滤有三个优点:(1) 泛化能力强,一定程度上解决了数据稀疏问题;(2) 空间复杂度低;(3)更好的扩展性和灵活性

    关注我带你拿大厂offer>_<

    展开全文
  • 本文简单扼要地介绍推荐算法中的两种经典算法:协同过滤和矩阵分解。内容有以下三部分协同过滤算法矩阵分解协同过滤与矩阵分解的关系早期的推荐系统以业务理解为核心,通过复杂的规则描述来向用户推荐商品,这种做法...

    本文简单扼要地介绍推荐算法中的两种经典算法:协同过滤和矩阵分解。内容有以下三部分

    1. 协同过滤算法
    2. 矩阵分解
    3. 协同过滤与矩阵分解的关系

    早期的推荐系统以业务理解为核心,通过复杂的规则描述来向用户推荐商品,这种做法具有透明性高、可移植性差、维护成本高、泛化能力差等特点。在这样一个背景下,协同过滤算法在Amazon推荐系统中的成功落地成为了当时的焦点。

    1. 协同过滤算法 (Collaborative Filtering)

    [PDF] Amazon.com Recommendations: Item-to-Item Collaborative Filtering | Semantic Scholarwww.semanticscholar.org
    24fd85af0785fa83ae95d8a15e2b8023.png
    “协同过滤“,顾名思义就是协同大家的反馈、评价和一件一起对海量信息进行过滤,进而从中筛选出目标用户可能感兴趣的信息的推荐过程。 —— 王喆《深度学习推荐系统》

    要理解协同过滤算法必须理解其中的两个关键名词:共现矩阵和相似矩阵。

    共现矩阵的行坐标为用户、列坐标为物品,矩阵中的值代表某个用户对某个物品的评分值(在不同的业务背景下该评分具有不同的实际意义)。

    相似矩阵的定义在UserCF中是用户到用户的相似度矩阵,在ItemCF中则是物品到物品的相似度矩阵。

    协同过滤的过程可以大致分为两个阶段:

    1. 离线阶段:根据共现矩阵计算出相似度矩阵。
    2. 线上阶段:根据相似度矩阵完成TopK推荐问题。

    离线阶段

    现假设从历史数据中可以获得M个用户对N个物品的正负反馈,将其转化成共现矩阵。

    数据:用户到物品的评分矩阵,即一个 MxN 的共现矩阵。

    目标:计算出 MxM 的用户相似度矩阵,或者 NxN 的物品相似度矩阵。

    UserCF:将共现矩阵视作M个长度为N维的用户向量,根据余弦相似度或皮尔逊相关系数计算出每两个用户之间的相似度,共需计算

    次,时间复杂度

    ItemCF:将共现矩阵视作N个长度为M维的物品向量,同样根据余弦相似度或皮尔逊相关系数计算出每两个物品之间的相似度,共需计算

    次,时间复杂度

    线上阶段

    数据:一个 MxN 的共现矩阵,MxM 的用户相似度矩阵或者 NxN的物品相似度矩阵。

    目标:收到一个用户A(非新用户)的线上请求,为该用户推荐K个用户可能感兴趣的物品。

    UserCF:根据用户相似度矩阵,找出与用户A最相似的Top m个用户,然后用下面的伪代码计算出该用户对不同物品的评价预测

    # 背景:向userA推荐Top K个物品
    
    # 计算出userA对每个候选item的得分
    item_scores = {}
    for item in 候选物品集:
        sim_sum = 0
        for sim_user in m个最相似的用户:
            item_scores[item] += sim_user对item的评分 * sim_user与userA的相似度
            sim_sum += sim_user与userA的相似度
        item_scores[item] /= sim_sum
    # 找出按score倒排找出Top K个item,代码忽略

    ItemCF:假设用户A的正反馈物品集为H,根据物品相似度矩阵,然后用下面的伪代码计算出该用户的Top K

    # 背景:向userA推荐Top K个物品
    
    # 计算出userA对每个候选item的得分
    item_scores = {}
    for item in 候选物品集:
        for item_h in 用户A的正反馈物品集H:
            item_scores[item] += 用户A对item_h的评分 * item与item_h的相似度
    # 找出按score倒排找出Top K个item,代码忽略

    UserCF与ItemCF的特点

    1. UserCF在“用户对物品的兴趣点比较分散和稀疏”的场景中比ItemCF表现更好,例如新闻推荐。
    2. UserCF需要离线对整个用户群体进行相似度矩阵的计算,从计算成本和存储成本上考虑都不太适合用户数量级远大于Item数量级的场景(如小说推荐),ItemCF会更适合这类场景。
    3. 协同过滤的计算方式决定了它推荐出来的物品往往集中在头部那些曝光多的热门商品,即头部效应严重,从长期的角度上并不利于推荐池的多样性。
    4. 协同过滤算法在用户、商品达到一定数量级之后,会面临着共现矩阵非常稀疏的问题,而协同过滤在稀疏性较强的数据中难以挖掘到用户真正的潜在兴趣。

    为了解决协同过滤存在的泛化性能不强的特点,矩阵分解法被提出。

    2. 矩阵分解 (Matrix Factorization)

    矩阵分解的含义是在协同过滤算法中的共现矩阵的基础上,加入隐向量的概念,加强了模型处理稀疏矩阵的能力。假设M个用户N个物品,共现矩阵为 MxN 维,那么矩阵分解算法最终会将共现矩阵拆成一个 MxF的用户向量矩阵和一个 NxF的物品向量矩阵(F即隐向量的长度),实际推荐过程中可以直接用线上请求的用户与候选集的物品进行相似度计算,再取Top K。

    矩阵分解的过程是怎么样的呢?在具体的算法实现上,矩阵分解主要有三种实现方法。

    1. 特征值分解
    2. 奇异值分解(SVD)
    3. 梯度下降

    其中特征值分解只能用于方阵,不适用于大部分场景下的矩阵分解。

    奇异值分解的计算方法在这里不详细介绍,它会将一个MxN的矩阵表示成MxM矩阵、MxN对角阵和NxN矩阵的乘积,然后取对角阵的对角线上前F大的元素,使得MxN的矩阵被分解为MxF、FxF和FxN三个矩阵的乘积,也就得到了用户和物品的向量矩阵。奇异值分解的方法本质上要求共现矩阵是稠密的(但大多数互联网场景下用户的行为都是稀疏的),并且时间复杂度为

    ,在用户量和物品数量很大的情况下计算的时间成本非常高。

    梯度下降法是矩阵分解的主流方法,梯度下降法的过程可以概括为以下几步:

    1. 确定待优化参数,预测值

    假设

    为用户向量矩阵,
    为物品向量矩阵,那么预测值就是
    ,
    为用户u对物品i的评分。

    2. 确定目标函数

    这里用均方误差,目标函数为

    为了防止模型在局部参数上过拟合,我们加入正则化项

    3. 求偏导,得梯度

    求偏导,得到的结果为

    求偏导,得到的结果为

    4. 利用梯度的反方向对参数进行更新,从i步到i+1步为

    其中

    为学习率

    3. 协同过滤与矩阵分解的关系

    协同过滤算法以用户或物品为单位,找出一个相似的群体,以该群体的整体偏好来估计当前用户的偏好。矩阵分解则借助隐变量,将整个共现矩阵在隐变量的空间内进行描述,用相似度来计算用户对某个商品的兴趣程度。后者在前者的基础上有以下几个点做出了改进:

    1. 泛化性能强,解决了数据稀疏的问题。协同过滤算法,以ItemCF为例,是以日志中用户有过正反馈的物品集来刻画用户的兴趣的,如果用户只对极少数物品有过正反馈,那么利用ItemCF的方法来进行推荐对用户兴趣的刻画是不准确的(UserCF中则体现在用户的相似度计算不够准确)。而矩阵分解则以隐变量来刻画用户的兴趣,由于所有用户隐变量的定义都是统一的,所以在计算的过程中,隐变量是可以在所有样本上进行更新的。
    2. 拓展性强,中间产物更加灵活。协同过滤算法的中间产物是相似度矩阵,而矩阵分解的产物是用户和物品的向量。相似度矩阵只能用于直接计算推荐结果,但是用户向量和物品向量却还可以进行聚类分析或者作为Embedding特征输入到其他模型当中。
    3. 空间复杂度由
      降到了

    该文章源自笔者结合自身的理解对相关知识点的整合,从个人的学习笔记的角度落笔,如有错漏不当之处,还望读者批评指正

    展开全文
  • 矩阵分解实际上就是一个利用更少数目的参数通过某种计算来表示原有数据,然后找到一个方法来计算这些参数的模型。已知的方法有SVD等矩阵分解的方法。SVD虽然在推荐系统中已经发挥了良好的效果,但是在利用SVD进行...

       矩阵分解实际上就是一个利用更少数目的参数通过某种计算来表示原有数据,然后找到一个方法来计算这些参数的模型。已知的方法有SVD等矩阵分解的方法。SVD虽然在推荐系统中已经发挥了良好的效果,但是在利用SVD进行矩阵分解应用于推荐系统时,不能有缺失值,而缺失值的填充又是一个很难以解决的问题。本节中,将介绍另一种可以不用考虑缺失值的适用于推荐系统的矩阵分解的方法。

        该算法由Simon Funk在其主页上写的一篇文章Nerflix update:Try This at Home提出。

        其核心思想就是假设用户对商品只关注k个属性,那么每个商品都用对应于这k个属性上的表现,即一个具有k个值的向量来表示,相对应的,每一个用户也用他们对这k个属性的偏好程度,即一个同样具有k个值的向量来表示。那么对用户i和商品j来说,就可以用用户i对某个属性的偏好程度和商品j对应的属性的值相乘,再将这k个值相加得到用户i对商品j的打分来表示用户i对商品j的感兴趣程度。

    图1 用户对商品的打分矩阵并将打分矩阵进行分解

        具体到推荐系统中,可以描述为已知有m个用户U={u1,u2,...um}和n种商品I={i1,i2,...in},用户对商品的感兴趣程度用一个m×n大小的打分矩阵R表示,分数越高表示该用户对该商品越感兴趣,而如果用户i没有使用过商品j,则矩阵中对应的值缺失。对于用户对商品的评分矩阵R来说,然后求出一个m×k大小的矩阵P和一个k×n大小的矩阵Q,对于打分矩阵R中每一个用户i对商品j进行打分的值R[i][j],都满足下式:

        其中矩阵P中的第i行表示用户i对这k个属性的偏好程度矩阵,而Q中的第j列表示商品j在这k个属性上的表现。以上所述恰恰是一个矩阵分解的过程,即将矩阵R分解成两个矩阵PQ相乘的形式,使得R≈P×Q。应用于推荐系统的这种矩阵分解的方法比起SVD有一个很明显的优点,就是它允许缺失值的存在,因为它在计算的时候只考虑原打分矩阵中得分不等于0的值,那么就可以得到其损失函数形式如下:

        其中,Rij表示在得分矩阵R中不为零的值。Pi代表矩阵P的第i行,Qj表示矩阵Q中的第j列。为了防止过拟合,利用L2范式对L进行正则化得到损失函数如下:

        利用梯度下降法对损失函数进行优化:

     

        其中,η是学习速率,代表学习的步长。得到的能够使得L最小化的PQ就是最终求出的由R分解出的用户特征矩阵P和商品特征矩阵Q 按照这种方法求出了PQ之后,就可以利用PQ的内积来对用户对商品的评分矩阵进行还原,对矩阵中原本存在的缺失值进行预测。

    展开全文
  • Matlab非负矩阵分解实现协同过滤,可用
  • item-based CF和user-based CF有何区别? 相似度计算方法都有哪些? 协同过滤算法的优点和缺点都有哪些? 什么是隐式反馈? 针对具体业务是如何考虑使用item-based还是user-based的CF...针对于矩阵分解的最优化问...
    1. item-based CF和user-based CF有何区别?
    2. 相似度计算方法都有哪些?
    3. 协同过滤算法的优点和缺点都有哪些?
    4. 什么是隐式反馈?
    5. 针对具体业务是如何考虑使用item-based还是user-based的CF算法?
    6. CF冷启动问题的解决方法都有哪些?
    7. 矩阵分解的核心思想是什么?本质上是什么?
    8. 隐向量的维度k取值大概范围是?
    9. 矩阵分解如何转换成机器学习问题?
    10. 针对于矩阵分解的最优化问题 ,工程上可以采用哪些方法求解?都分别有哪些优缺点?
    11. SVD方法在MF基础上做了哪些改进?
    12. SVD++方法又在SVD基础上做了哪些改进?
    13. MF有哪些优缺点?
    展开全文
  • 数据下载: https://github.com/apache/spark/tree/master/data/mllib/als 代码案例参考: ...需要注意代码里long(p[3])改成float ratingsRDD = pa...
  • 本文简单扼要地介绍推荐算法中的两种经典算法:协同过滤和矩阵分解。内容有以下三部分协同过滤算法矩阵分解协同过滤与矩阵分解的关系早期的推荐系统以业务理解为核心,通过复杂的规则描述来向用户推荐商品,这种做法...
  • 需要注意代码里long(p[3])改成float ratingsRDD = parts.map(lambda p: Row(userId=int(p[0]), movieId=int(p[1]), rating=float(p[2]), timestamp=float(p[3])))代码: from pyspark import SparkContext, ...
  • 利用基于矩阵分解协同过滤算法实现电影推荐系统基于矩阵分解协同过滤算法基于矩阵分解协同过滤算法思想基于矩阵分解协同过滤算法原理电影推荐系统实现电影评分数据构造用户-电影评分矩阵 基于矩阵分解协同...
  • 基于矩阵分解协同过滤的电影推荐系统,Python实现。
  • 协同过滤与矩阵分解协同过滤算法的基本原理计算用户相似度用户评分的预测矩阵分解算法总结 这里主要介绍几个推荐系统的模型。 推荐系统模型是最重要的一块,因为推荐模型直接决定了最终物品排序的结果,它的好坏也...
  • 矩阵分解协同过滤推荐算法中的应用和理解 原文链接 原Po写的很好,大致描述一下。 矩阵分解要解决的问题 协同过滤所要达到的目的是将整个user-item矩阵中空白的位置来预测出值,矩阵分解可以满足这一要求,将原...
  • 矩阵分解(MF,SVD)和协同过滤(CF)

    万次阅读 2017-08-30 15:08:54
    本介绍了协同过滤算法中基于近邻的过滤,然后介绍了矩阵分解的SVD方法和公式推导,以及和PCA的关系。概率意义,求解方法。最后介绍了矩阵分解和Ridge回归的联系。
  •   在协同过滤推荐算法总结中,我们讲到了用矩阵分解协同过滤是广泛使用的方法,这里就对矩阵分解协同过滤推荐算法中的应用做一个总结。 1. 矩阵分解用于推荐算法要解决的问题   在推荐系统中,我们常常遇到...
  • 矩阵分解

    2018-12-16 14:34:00
    矩阵分解 矩阵可以分解为多个矩阵的乘积。 这些矩阵的乘积是原矩阵的低秩近似。 一个矩阵的秩一定小于这个矩阵的min(行数,列数)。 \[rank(A) \leq min(M,N)\] 矩阵的秩表达了这个矩阵张成的空间的维度,如果矩阵...
  • 1.不同的数据集大小对于矩阵分解算法有什么影响吗? 或者下面这个表格的空着的一栏怎么填? ![图片说明](https://img-ask.csdn.net/upload/202001/17/1579224905_741341.png) eg:UserCF的描述我主要是针对...
  • 近年来,矩阵分解协同过滤算法得到了煤炭销售系统的广泛应用。但是,随着互联网的快速发展,煤炭电子销售记录呈现指数级增长,传统的基于矩阵分解协同聚类算法不能有效、快速地完成销售系统的推荐工作。文章针对大...
  • Matlab用半非负矩阵分解实现采样和协同过滤 http://www.cnblogs.com/hxsyl/
  • 矩阵分解结合了隐语义和机器学习的特性,能够挖掘更深层的用户和物品间的联系,因此预测的精度比较高,预测准确率要高于基于邻域的协同过滤以及基于内容的推荐算法; 比较容易编程实现,随机梯度下降法和交替最小...
  • 理解推荐系统和CTR预估任务中的数据特点; 理解协同过滤思想 运用FTRL和FM/FFM模型解决实际问题
  • 文章目录3.1 简介1.推荐系统的输入1)显式反馈2)隐式反馈2.本章重点3....公式3.2.2 Netflix 数据3.2.3 隐式反馈3.3 矩阵分解模型隐语义模型实例SVD的局限SVD的突破本节内容3.3.1 SVD—Singular Value...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 643
精华内容 257
关键字:

协同矩阵分解