ImageVerifierCode 换一换
格式:DOCX , 页数:20 ,大小:233.81KB ,
资源ID:17940694      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/17940694.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(小晨精品03机器学习第3天协同过滤推荐算法与应用优秀Word文档下载推荐.docx)为本站会员(b****3)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

小晨精品03机器学习第3天协同过滤推荐算法与应用优秀Word文档下载推荐.docx

1、用户A推荐?用户B用户C用户D现在需要基于上述数据,给A用户推荐一篇文档1.3 算法分析1.3.1 基于用户相似度的分析直觉分析:“用户A/B”都喜欢物品A和物品B,从而“用户A/B”的口味最为相近因此,为“用户A”推荐物品时可参考“用户B”的偏好,从而推荐D这种就是基于用户的协同过滤算法UserCF指导思想1.3.2 基于物品相似度的分析物品组合(A,D)被同时偏好出现的次数最多,因而可以认为A/D两件物品的相似度最高,从而,可以为选择了A物品的用户推荐D物品这种就是基于物品的协同过滤算法ItemCF指导思想1.4 算法要点1.4.1、指导思想这种过滤算法的有效性基础在于: 1、用户偏好具有

2、相似性,即用户可分类。这种分类的特征越明显,推荐准确率越高 2、物品之间具有相似性,即偏好某物品的人,都很可能也同时偏好另一件相似物品1.4.2、两种CF算法适用的场景什么情况下使用哪种算法推荐效果会更好?不同环境下这两种理论的有效性也不同,应用时需做相应调整。a. 如豆瓣上的文艺作品,用户对其的偏好程度与用户自身的品位关联性较强;适合UserCFb. 而对于电子商务网站来说,商品之间的内在联系对用户的购买行为影响更为显著。1.5 算法实现总的来说,要实现协同过滤,需要一下几个步骤:1收集用户偏好2找到相似的用户或物品3计算推荐1.5.1 收集用户偏好用户有很多方式向系统提供自己的偏好信息,而

3、且不同的应用也可能大不相同,下面举例进行介绍:用户行为类型特征作用评分显式整数量化值0,n可以得到精确偏好投票布尔量化值0|1转发保存书签标记书签Tag一些单词需要进一步分析得到偏好评论一些文字点击流隐式一组点击记录页面停留时间一组时间信息噪音偏大,不好利用购买1.5.2 原始偏好数据的预处理v 用户行为识别/组合在一般应用中,我们提取的用户行为一般都多于一种,关于如何组合这些不同的用户行为,比如,可以将用户行为分为“查看”和“购买”等等,然后基于不同的行为,计算不同的用户 / 物品相似度。类似于当当网或者京东给出的“购买了该图书的人还购买了 .”,“查看了图书的人还查看了 .”v 喜好程度加

4、权根据不同行为反映用户喜好的程度将它们进行加权,得到用户对于物品的总体喜好。一般来说,显式的用户反馈比隐式的权值大,但比较稀疏,毕竟进行显示反馈的用户是少数;同时相对于“查看”,“购买”行为反映用户喜好的程度更大,但这也因应用而异。v 数据减噪和归一化。1减噪:用户行为数据是用户在使用应用过程中产生的,它可能存在大量的噪音和用户的误操作,我们可以通过经典的数据挖掘算法过滤掉行为数据中的噪音,这样可以是我们的分析更加精确。2归一化:如前面讲到的,在计算用户对物品的喜好程度时,可能需要对不同的行为数据进行加权。但可以想象,不同行为的数据取值可能相差很大,比如,用户的查看数据必然比购买数据大的多,如

5、何将各个行为的数据统一在一个相同的取值范围中,从而使得加权求和得到的总体喜好更加精确,就需要我们进行归一化处理。最简单的归一化处理,就是将各类数据除以此类中的最大值,以保证归一化后的数据取值在 0,1 范围中。v 形成用户偏好矩阵一般是二维矩阵,一维是用户列表,另一维是物品列表,值是用户对物品的偏好,一般是 0,1 或者 -1, 1 的浮点数值。1.5.3 找到相似用户或物品当已经对用户行为进行分析得到用户喜好后,我们可以根据用户喜好计算相似用户和物品,然后基于相似用户或者物品进行推荐,这就是最典型的 CF 的两个分支:基于用户的 CF 和基于物品的 CF。这两种方法都需要计算相似度,下面我们

6、先看看最基本的几种计算相似度的方法。1.5.4 相似度的计算相似度的计算,现有的几种基本方法都是基于向量(Vector)的,其实也就是计算两个向量的距离,距离越近相似度越大。在推荐的场景中,在用户 - 物品偏好的二维矩阵中,我们可以将一个用户对所有物品的偏好作为一个向量来计算用户之间的相似度,或者将所有用户对某个物品的偏好作为一个向量来计算物品之间的相似度。CF的常用方法有三种,分别是欧式距离法、皮尔逊相关系数法、余弦相似度法。为了测试算法,给出以下简单的用好偏好数据矩阵:行表示三名用户,列表示三个品牌,对品牌的喜爱度按照15增加。用户苹果小米魅族zhangsan52Lisi34wangwu1

7、(1)欧氏距离法就是计算每两个点的距离,比如Nike和Sony的相似度。数值越小,表示相似度越高。def OsDistance(vector1, vector2): sqDiffVector = vector1-vector2 sqDiffVector=sqDiffVector*2 sqDistances = sqDiffVector.sum() distance = sqDistances*0.5 return distance(2)皮尔逊相关系数两个变量之间的相关系数越高,从一个变量去预测另一个变量的精确度就越高,这是因为相关系数越高,就意味着这两个变量的共变部分越多,所以从其中一个变量的

8、变化就可越多地获知另一个变量的变化。如果两个变量之间的相关系数为1或-1,那么你完全可由变量X去获知变量Y的值。 当相关系数为0时,X和Y两变量无关系。 当X的值增大,Y也增大,正相关关系,相关系数在0.00与1.00之间 当X的值减小,Y也减小,正相关关系,相关系数在0.00与1.00之间 当X的值增大,Y减小,负相关关系,相关系数在-1.00与0.00之间 当X的值减小,Y增大,负相关关系,相关系数在-1.00与0.00之间相关系数的绝对值越大,相关性越强,相关系数越接近于1和-1,相关度越强,相关系数越接近于0,相关度越弱。在python中用函数corrcoef实现,具体方法见参考资料(

9、3)余弦相似度通过测量两个向量内积空间的夹角的余弦值来度量它们之间的相似性。0度角的余弦值是1,而其他任何角度的余弦值都不大于1;并且其最小值是-1。从而两个向量之间的角度的余弦值确定两个向量是否大致指向相同的方向。两个向量有相同的指向时,余弦相似度的值为1;两个向量夹角为90时,余弦相似度的值为0;两个向量指向完全相反的方向时,余弦相似度的值为-1。在比较过程中,向量的规模大小不予考虑,仅仅考虑到向量的指向方向。余弦相似度通常用于两个向量的夹角小于90之内,因此余弦相似度的值为0到1之间。 def cosSim(inA,inB): num = float(inA.T*inB) denom =

10、 la.norm(inA)*la.norm(inB) return 0.5+0.5*(num/denom)注:本课程的实战案例基于皮尔逊相关系数法实现1.5.3 计算推荐UserCF基于用户相似度的推荐计算推荐的过程其实就是KNN算法的计算过程ItemCF基于物品相似度的推荐算法思路1. 构建物品的同现矩阵2. 构建用户对物品的评分矩阵3. 通过矩阵计算得出推荐结果推荐结果=用户评分矩阵*同现矩阵实质:计算各种物品组合的出现次数2. CF协同过滤算法Python实战2.1 电影推荐需求根据一个用户对电影评分的数据集来实现基于用户相似度的协同过滤算法推荐,相似度的算法采用皮尔逊相关系数法数据样例

11、如下:用户ID:电影ID:评分:时间1:1193:5:978300760661:3:978302109914:9783019683408:4:9783002752355:9788242911197:9783022681287:9783020392804:978300719594:919:9783013682.2 算法实现本案例使用的数据分析包为pandas,Numpy和matplotlib2.2.1 数据规整首先将评分数据从ratings.dat中读出到一个DataFrame 里: import pandas as pd from pandas import Series,DataFrame

12、rnames = user_id,movie_idratingtimestamp ratings = pd.read_table(rratings.dat,sep=,header=None,names=rnames) ratings:3 user_id movie_id rating timestamp0 1 1193 5 9783007601 1 661 3 9783021092 1 914 3 9783019683 rows x 4 columnsratings 表中对我们有用的仅是 user_id、movie_id 和 rating 这三列,因此我们将这三列取出,放到一个以 user 为

13、行,movie 为列,rating 为值的表 data 里面。 data = ratings.pivot(index=,columns=,values=) #形成一个透视表 data:5可以看到这个表相当得稀疏,填充率大约只有 5%,接下来要实现推荐的第一步是计算 user 之间的相关系数2.2.2 相关度测算DataFrame对象有一个很亲切的方法:.corr(method=pearson, min_periods=1) 方法,可以对所有列互相计算相关系数。其中:method默认为皮尔逊相关系数,min_periods参数,这个参数的作用是设定计算相关系数时的最小样本量,低于此值的一对列将不

14、进行运算。这个值的取舍关系到相关系数计算的准确性,因此有必要先来确定一下这个参数。2.2.3 min_periods 参数测定测定这样一个参数的基本方法:v 统计在 min_periods 取不同值时,相关系数的标准差大小,越小越好;但同时又要考虑到,我们的样本空间十分稀疏,min_periods 定得太高会导致出来的结果集太小,所以只能选定一个折中的值。这里我们测定评分系统标准差的方法为:v 在 data中挑选一对重叠评分最多的用户,用他们之间的相关系数的标准差去对整体标准差做点估计。在此前提下对这一对用户在不同样本量下的相关系数进行统计,观察其标准差变化。首先,要找出重叠评分最多的一对用户

15、。我们新建一个以 user 为行列的方阵 foo,然后挨个填充不同用户间重叠评分的个数: foo = DataFrame(np.empty(len(data.index),len(data.index),dtype=int),index=data.index,columns=data.index)#print(empt.shape): (6040, 6040) for i in foo.index: for j in foo.columns: foo.ixi,j = data.ixidata.ixj.notnull().dropna().count()这段代码特别费时间,因为最后一行语句要执行

16、 4000*4000 = 1600万遍;找到的最大值所对应的行列分别为 424 和 4169,这两位用户之间的重叠评分数为 998: foo.ixi,i=0 #先把对角线的值设为 0 ser = Series(np.zeros(len(foo.index) seri=fooi.max() #计算每行中的最大值 ser.idxmax() #返回ser的最大值所在的行号4169 ser4169 #取得最大值998 foofoo=9984169.dropna() #取得另一个 user_id424 4169Name: user_id, dtype: float64把 424 和 4169 的评分数据

17、单独拿出来,放到一个名为 test 的表里,另外计算了一下这两个用户之间的相关系数为 0.456,还算不错,另外通过柱状图了解一下他俩的评分分布情况: data.ix4169.corr(data.ix424)0.45663851303413217 test = data.reindex(424,4169,columns=data.ix4169data.ix424.notnull().dropna().index) testmovie_id 2 6 10 11 12 17 .424 4 4 4 4 1 5 .4169 3 4 4 4 2 5 . test.ix424.value_counts(s

18、ort=False).plot(kind=bar) test.ix4169.value_counts(sort=False).plot(kind=对这俩用户的相关系数统计,我们分别随机抽取 20、50、100、200、500 和 998 个样本值,各抽 20 次。并统计结果: periods_test = DataFrame(np.zeros(20,7),columns=10,20,50,100,200,500,998) for i in periods_test.index: for j in periods_test.columns: sample = test.reindex(colum

19、ns=np.random.permutation(test.columns):j) periods_test.ixi,j = sample.iloc0.corr(sample.iloc1) periods_test: 10 20 50 100 200 500 9980 -0.306719 0.709073 0.504374 0.376921 0.477140 0.426938 0.4566391 0.386658 0.607569 0.434761 0.471930 0.437222 0.430765 0.4566392 0.507415 0.585808 0.440619 0.634782

20、0.490574 0.436799 0.4566393 0.628112 0.628281 0.452331 0.380073 0.472045 0.444222 0.4566394 0.792533 0.641503 0.444989 0.499253 0.426420 0.441292 0.4566395 rows x 7 columns periods_test.describe() 10 20 50 100 200 500 #998略count 20.000000 20.000000 20.000000 20.000000 20.000000 20.000000 mean 0.3468

21、10 0.464726 0.458866 0.450155 0.467559 0.452448 std 0.398553 0.181743 0.103820 0.093663 0.036439 0.029758 min -0.444302 0.087370 0.192391 0.242112 0.412291 0.399875 25% 0.174531 0.320941 0.434744 0.375643 0.439228 0.435290 50% 0.487157 0.525217 0.476653 0.468850 0.472562 0.443772 75% 0.638685 0.6166

22、43 0.519827 0.500825 0.487389 0.465787 max 0.850963 0.709073 0.592040 0.634782 0.546001 0.513486 8 rows x 7 columns从 std 这一行来看,理想的 min_periods 参数值应当为 200 左右(标准差和均值、极值最接近)。2.2.3 算法检验为了确认在 min_periods=200 下本推荐算法的靠谱程度,最好还是先做个检验。具体方法为:在评价数大于 200 的用户中随机抽取 1000 位用户,每人随机提取一个评价另存到一个数组里,并在数据表中删除这个评价。然后基于阉割过的

23、数据表计算被提取出的 1000 个评分的期望值,最后与真实评价数组进行相关性比较,看结果如何。 check_size = 1000 check = check_data = data.copy() #复制一份 data 用于检验,以免篡改原数据 check_data = check_data.ixcheck_data.count(axis=1)200 #滤除评价数小于200的用户 for user in np.random.permutation(check_data.index): movie = np.random.permutation(check_data.ixuser.dropna(

24、).index)0 check(user,movie) = check_data.ixuser,movie check_data.ixuser,movie = np.nan check_size -= 1 if not check_size: break corr = check_data.T.corr(min_periods=200) corr_clean = corr.dropna(how=all corr_clean = corr_clean.dropna(axis=1,how=) #删除全空的行和列 check_ser = Series(check) #这里是被提取出来的 1000 个

25、真实评分 check_ser:(15, 593) 4(23, 555) 3(33, 3363) 4(36, 2355) 5(53, 3605) 4dtype:接下来要基于corr_clean 给 check_ser 中的 1000 个用户-影片对计算评分期望。计算方法为:对与用户相关系数大于 0.1 的其他用户评分进行加权平均,权值为相关系数 result = Series(np.nan,index=check_ser.index) for user,movie in result.index: #这个循环看着很乱,实际内容就是加权平均而已 prediction = if user in co

26、rr_clean.index: corr_set = corr_cleanusercorr_cleanuser0.1.dropna() #仅限大于 0.1 的用户 else:continue for other in corr_set.index: if not np.isnan(data.ixother,movie) and other != user:#注意bool(np.nan)=True prediction.append(data.ixother,movie,corr_setother) if prediction: result(user,movie) = sum(value*weight for value,weight in prediction)/sum(pair1 for pair in prediction) result.dropna(inplace=True) len(result)#随机抽取的 1000 个用户中也有被 min_periods=200 刷掉的862 result:(23, 555) 3.967617(33, 3363) 4.073205(36, 2355) 3.903497(53, 3605) 2.948003(62, 1488) 2.606582 result.corr(che

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1