【论文翻译】用知识图谱的多任务特征学习来增强推荐

Wang H, Zhang F, Zhao M, et al. Multi-task feature learning for knowledge graph enhanced recommendation[C]//The World Wide Web Conference. 2019: 2000-2010.
原文链接:https://arxiv.org/pdf/1901.08907.pdf
代码实现:https://github.com/hwwang55/MKR

摘要

在实际推荐场景中,协同过滤通常会遇到稀疏性和冷启动问题,因此,研究人员和工程师通常使用辅助信息来解决这些问题并提高推荐系统的性能。在本文中,我们将知识图谱视为辅助信息的来源。我们提出了MKR,一种用于知识图谱增强推荐的多任务特征学习方法。MKR是一个深层的端到端框架,它利用知识图谱嵌入任务来辅助推荐任务。这两个任务由交叉压缩单元关联,交叉压缩单元自动共享潜在特征,并学习推荐系统中的项目与知识图谱中的实体之间的高级交互。我们证明交叉压缩单元具有足够的多项式逼近能力,并且证明了MKR是推荐系统和多任务学习的几种代表性方法的广义框架。通过在现实世界数据集上进行的广泛实验,我们证明了MKR在最新的基线之上,在电影,书籍,音乐和新闻推荐方面取得了可观的收益。即使用户-物品交互稀疏,MKR也能保持良好的性能。

关键词

推荐系统;知识图谱;多任务学习

1 介绍

推荐系统(RS)旨在解决信息爆炸问题并满足用户的个性化兴趣。最受欢迎的推荐技术之一是协同过滤协作过滤(CF)[11],它利用用户的历史互动并根据他们的共同偏好进行推荐。但是,基于CF的方法通常遭受用户项目交互的稀疏性和冷启动问题。因此,研究人员建议使用推荐系统中的辅助信息,包括社交网络[10],属性[30]和多媒体(例如,文本[29],图像[40])。知识图谱(KGs)是RS的一种附带信息,通常包含丰富的事实和有关项目的联系。最近,研究人员提出了一些学术和商业KG,例如NELL1,DBpedia2,Google Knowledge Graph3和Microsoft Satori4。由于KG的高维性和异质性,通常通过知识图嵌入(KGE)方法对其进行预处理[27],该方法将实体和关系嵌入到低维向量空间中,同时保留其固有结构。

现有的知识图谱感知方法
受到在各种任务中成功应用KG的启发,研究人员最近尝试利用KG来提高推荐系统的性能[31,32,39,40,45]。个性化实体推荐(PER)[39]和带有组套索的分解机(FMG)[45]将KG视为异构信息网络,并提取基于元路径/元图的潜在特征来表示用户和项目之间的连通性不同类型的关系路径/图形。应当注意,PERFMG严重依赖于手动设计的元路径/元图,这限制了其在通用推荐方案中的应用。深度知识感知网络(DKN)[32]设计了一个CNN框架,将实体嵌入与单词嵌入相结合以进行新闻推荐。但是,在使用DKN之前需要实体嵌入,这导致DKN缺乏端到端的训练方式。关于DKN的另一个问题是,它几乎不能合并文字以外的辅助信息。RippleNet [31]是一种类似于内存网络的模型,可以在KG中传播用户的潜在偏好并探究他们的层次兴趣。但是,关系的重要性在RippleNet中几乎没有体现出来,因为关系R的嵌入矩阵很难训练为以二次形式vTRhv^TRhvTRh捕捉重要性(v和h是两个实体的嵌入向量)。协作知识库嵌入(CKE)[40]在一个统一的框架中将CF与结构知识,文本知识和视觉知识结合在一起。但是,CKE中的KGE模块(即TransR [13])更适合于图内应用(例如知识图谱补全和实体链接预测),而不是推荐应用。另外,在贝叶斯框架下的CKE中,CF模块和KGE模块之间的连接松散,KG对于推荐系统的监督不太明显。

提出的方法
为了解决先前工作的局限性,我们提出了MKR,一种用于知识图增强推荐的多任务学习(MTL)方法。MKR是一个通用的端到端深度推荐框架,旨在利用KGE任务来辅助推荐任务5^55(如实验部分所示,KGE任务也可以凭经验从推荐任务中受益)。注意,这两个任务不是相互独立的,而是高度相关的,因为RS中的一项可能与KG中的一个或多个实体相关联。因此,一个项目及其对应的实体在RS和KG中可能具有相似的邻近结构,并在低级和非特定于任务的潜在特征空间中共享相似的特征[15]。我们将在实验部分进一步验证相似性。为了建模项目和实体之间的共享功能,我们在MKR中设计了一个交叉压缩单元。交叉和压缩单元显式地建模项目和实体要素之间的高级交互,并自动控制两个任务的交叉知识转移。通过交叉压缩单元,项目和实体的表示形式可以相互补充,从而在避免拟合噪声和提高泛化性方面均有助于完成两项任务。可以通过以不同的频率交替优化两个任务来训练整个框架,这使MKR在实际推荐场景中具有很高的灵活性和适应性。我们探讨了MKR的表达能力,并通过理论分析表明,交叉压缩单元能够近似项和实体之间足够高阶的特征相互作用。
我们还表明,MKR是一种基于推荐系统和多任务学习的几种代表性方法的通用框架,包括分解机[22,23],深度和跨网络[34]和跨针网络[18]。根据经验,我们在四个推荐方案中评估我们的方法,即电影,书籍,音乐和新闻推荐。结果表明,MKR在点击率(CTR)预测(例如,电影的AUC平均提高11.6%)和前K推荐(例如,Recall @ 10为66.4%)方面都比最新基准有了实质性的提高 图书的平均改善)

贡献
值得注意的是,本文中研究的问题也可以建模为跨域推荐[26]或转移学习[21],因为我们更加关注推荐任务的性能。但是,关键的观察结果是,尽管跨域推荐和转移学习对目标域具有单一目标,但它们的损失函数仍包含用于测量源域中数据分布或两个域之间相似度的约束项。在我们提出的MKR中,KGE任务明确用作约束项,以为推荐系统提供正则化。我们想强调的是,本文的主要贡献是将问题准确地建模为多任务学习:如理论分析和实验结果所示,我们发现跨任务相似性不仅对推荐系统有用,而且知识图嵌入比跨域推荐和转移学习更进一步。

2 我们的方法

在本节中,我们首先制定知识图增强的推荐问题,然后介绍MKR的框架,并详细介绍交叉压缩单元,推荐模块和KGE模块的设计。我们最后讨论了MKR的学习算法。

2.1 问题的形式

我们在本文中制定了知识图谱增强推荐问题,在典型的推荐方案中,我们有一组M个用户U={u1,u2,...,uM}U=\{u_1,u_2,...,u_M\}U={u1,u2,...,uM}和一组N个物品V={v1,v2,...,vN}V = \{v_1,v2,...,v_N\}V={v1,v2,...,vN}。用户-物品交互矩Y∈RM×NY∈R^{M×N}YRM×N是根据用户的隐式反馈定义的,其中yuvy_uvyuv = 1表示用户u对物品v具有行为,例如点击,观看,浏览或购买行为。否则yuvy_uvyuv = 0。此外,我们还可以访问知识图谱G,它由实体-关系-实体三元组(h, r, t)组成。在这里,h,r和t分别表示知识三元组的头部,关系和尾部。例如,三元组(Quentin Tarantino, film.director.film, Pulp Fiction)说明了昆汀·塔伦蒂诺执导电影低俗小说的事实。在许多推荐场景中,项目v∈V可能与G中的一个或多个实体相关联。例如,在电影推荐中,Pulp Fiction与它在KG中的名字相关联,而在新闻推荐中,新闻与标题“特朗普承诺在技术会议期间向硅谷提供援助”与一个幼稚园中的“唐纳德·特朗普”和“硅谷”相关。给定用户与项目的交互矩阵Y以及知识图G,我们旨在预测用户u是否对项目v具有潜在的兴趣,而他之前从未与之交互。

2.2 架构

MKR的框架如图1(a)所示。 MKR由三个主要组件组成:推荐模块,KGE模块和交叉压缩单元。 (1)左侧的推荐模块将用户和物品作为输入,并使用多层感知器(MLP)和交叉压缩单元分别为用户和物品提取简短特征和密集特征。然后将提取的特征一起馈入另一个MLP,以输出预测的概率。 (2)与左侧类似,右侧的KGE模块也使用多层从知识三元组的头部和关系中提取特征,并在得分函数f和真实尾部的监督下输出预测尾部的表示。 (3)推荐模块和KGE模块通过特殊设计的交叉压缩单元桥接。提议的单位可以自动学习推荐系统和KG中实体的项目的高级特征交互。
在这里插入图片描述图1:(a)MKR的框架。左侧和右侧分别示出了推荐模块和KGE模块,它们由交叉和压缩单元桥接。 (b)交叉压缩单元的图示。交叉和压缩单元通过交叉操作从项目和实体向量生成交叉特征矩阵,并通过压缩操作将其向量输出到下一层。

2.3 交叉压缩单元

为了建模物品与实体之间的要素交互,我们在MKR框架中设计了一个交叉压缩单元。如图1(b)所示,对于第v项及其关联实体e,我们首先从层l构造其潜在特征vl∈Rdv_l∈R^dvlRdel∈Rde_l∈R^delRd的d×d成对相互作用:
Cl=vlelT=[vl(1)el(1)...vl(1)el(d)......vl(d)el(1)...vl(d)el(d)](1)C_l=v_le_l^T=\begin{bmatrix} v_l^{(1)}e_l^{(1)} & ... & v_l^{(1)}e_l^{(d)} \\ ... & & ... \\v_l^{(d)}e_l^{(1)} & ... & v_l^{(d)}e_l^{(d)} \end{bmatrix} \tag{1} Cl=vlelT=vl(1)el(1)...vl(d)el(1)......vl(1)el(d)...vl(d)el(d)(1)
其中C_l∈R^{d×d}是层l的交叉特征矩阵,d是隐藏层的尺寸。之所以称为交叉运算,是因为显式地建模了物品v及其关联实体e之间的每个可能的特征相互作用vl(i)el(j),∀(i,j)∈{1,...,d}2v_l^{(i)}e_l^{(j)},\forall(i,j)\in\{1,...,d\}^2vl(i)el(j),(i,j){1,...,d}2在交叉特征矩阵中明确建模了物品v及其关联实体e之间的关系。然后,通过将交叉特征矩阵投影到它们的潜在表示空间中,我们输出下一层的物品和实体的特征向量:
vl+1=ClwlVV+ClTwlEV+blV=vlelTwlVV+elvlTwlEV+blV,el+1=ClwlVE+ClTwlEE+blE=vlelTwlVE+elvlTwlEE+blE,(2)v_{l+1}=C_lw_l^{VV}+C_l^Tw_l^{EV}+b_l^V=v_le_l^Tw_l^{VV}+e_lv_l^Tw_l^{EV}+b_l^V,\\ e_{l+1}=C_lw_l^{VE}+C_l^Tw_l^{EE}+b_l^E=v_le_l^Tw_l^{VE}+e_lv_l^Tw_l^{EE}+b_l^E,\tag{2} vl+1=ClwlVV+ClTwlEV+blV=vlelTwlVV+elvlTwlEV+blV,el+1=ClwlVE+ClTwlEE+blE=vlelTwlVE+elvlTwlEE+blE,(2)
其中wl..∈Rdw_l^{..}\in R^dwl..Rdbl.∈Rdb_l^.\in R^dbl.Rd是可训练的权重和偏差向量。这被称为压缩操作,因为权重向量将交叉特征矩阵从Rd×dR^{d×d}Rd×d空间投影回特征空间RdR^dRd。注意在等式(2)中,为了对称起见,沿水平和垂直方向(通过对ClC_lClCl⊤C^⊤_lCl进行运算)压缩了交叉特征矩阵,但是我们将在3.2节中提供更多有关设计的见解。为简单起见,交叉压缩单元表示为:
[vl+1,el+1]=C(vl,el)(3)[v_{l+1}, e_{l+1}]=C(v_l,e_l) \tag{3} [vl+1,el+1]=C(vl,el)(3)
在下面的文章中,我们使用后缀[v]或[e]区分其两个输出。通过交叉压缩单元,MKR可以自适应地调整知识转移的权重并了解两个任务之间的相关性。应当注意,交叉压缩单元仅应存在于MKR的低层中,如图1(a)所示。这是因为:
(1)在深层架构中,功能通常会沿着网络从通用转换为特定功能,并且随着任务不相似性的增加,功能可传递性在更高层中会大大下降[38]。因此,共享高级层可能存在负迁移的风险,尤其是对于MKR中的异构任务而言。
(2)在MKR的高层中,物品特征与用户特征混合,而实体特征与关系特征混合。由于混合功能没有明确的关联,因此不适合共享。

2.4 推荐模块

MKR中推荐模块的输入由两个原始特征向量u和v组成,分别描述用户u和项目v。根据应用场景,可以将u和v定制为一键式ID [8],属性[30],词袋[29]或它们的组合。
给定用户u的原始特征向量u,我们使用L层MLP提取其潜在的压缩特征6^66(我们在等式中使用指数符号L为简单起见,本文中的(4)和下面的方程式使用,但是请注意,L层的参数实际上是不同的。):
uL=M(M(...M(u)))=ML(u),(4)u_L=M(M(...M(u)))=M^L(u), \tag{4} uL=M(M(...M(u)))=ML(u),(4)
其中M(x)=σ(Wx+b)M(x)=\sigma(W_x+b)M(x)=σ(Wx+b)是具有权重W,偏差b和非线性激活函数σ(⋅)σ(·)σ()的完全连接的神经网络层7^77(在推荐模块中探索更精细的层设计是未来工作的重要方向。)。对于物品v,我们使用L个交叉压缩单元提取其特征:
vL=Ee〜S(v)[CL(v,e)[v],(5)v_L = E_{e〜S(v)}[C^L(v,e)[v], \tag{5} vL=EeS(v)[CL(v,e)[v],(5)

其中S(v)是项目相关实体的集合 v。

在获得用户u的潜在特征uLu_LuL和物品v的潜在特征vLv_LvL之后,我们通过预测函数fRf_{R}fR(例如内部产品或H层MLP)将这两种途径结合起来。用户u参与项目v的最终预测概率为:
y^uv=σ(fRS(uL,vL))(6)\hat{y}_{uv}=\sigma(f_{RS}(u_L,v_L)) \tag{6} y^uv=σ(fRS(uL,vL))(6)

2.5 知识图谱嵌入模块

知识图嵌入是将实体和关系嵌入到连续的向量空间中,同时保留其结构。最近,研究人员提出了许多KGE方法,包括翻译距离模型[2,13]和语义匹配模型[14,19]。在MKR中,我们为KGE模块提出了一种深度语义匹配架构。与推荐模块类似,对于给定的知识三元组(h, r, t),我们首先利用多个交叉压缩单元和非线性层来处理头部h和关系r(包括ID [13],类型[36] ],文字说明[35]等)。然后将它们的潜在特征连接在一起,然后是用于预测尾部t的K层MLP:
hL=Ev~S(h)[CL(v,h)[e]],rL=ML(r),t^=MK([hLrL])(7)h_L = E_{v~S(h)}[C^L(v,h)[e]],\\ r_L = M^L(r),\\ \tag{7} \hat{t} = M^K(\begin{bmatrix} h_L \\r_L\end{bmatrix} ) hL=EvS(h)[CL(v,h)[e]],rL=ML(r),t^=MK([hLrL])(7)
其中S(h)是实体h的关联项的集合,t^\hat{t}t^是尾t的预测向量。最后,使用得分(相似度)函数fKGf_{KG}fKG计算三元组(h,r,t)(h,r,t)(h,r,t)的得分:
score(h,r,t)=fKG(t,t^).(8)score(h,r,t)= f_{KG}(t,\hat{t}).\tag{8}score(h,r,t)=fKG(t,t^).(8)其中t是真实特征t的向量。在本文中,我们使用归一化内积fKG(t,t^)=σ(t⊤,t^)f_{KG}(t,\hat{t})=σ(t^⊤,\hat{t})fKG(tt^)=σ(t,t^)作为得分函数的选择[18],但是在这里也可以应用其他形式的(非)相似性度量,例如KullbackĂŞLeibler分歧。

2.6 学习算法

MKR的完全损失函数如下:
L=LRS+LKG+LREG=∑u∈U,v∈VJ(y^uv,yuv)−λ1(∑(h,r,t)∈Gscore(h,r,t)−∑(h′,r′,t′)∉Gscore(h′,r′,t′))+λ2∣∣W∣∣22(9)L = L_{RS} + L_{KG}+ L{REG} =\sum_{u\in U,v\in V}J(\hat{y}_{uv},y_{uv})\\−λ_1(\sum_{(h,r,t)\in G}score(h,r,t)-\sum_{(h',r',t')\notin G}score(h',r',t')) \\ +\lambda_2||W||_2^2\tag{9} L=LRS+LKG+LREG=uU,vVJ(y^uv,yuv)λ1((h,r,t)Gscore(h,r,t)(h,r,t)/Gscore(h,r,t))+λ2W22(9)
在等式中 (9),第一个项在推荐模块中度量损失,其中u和v分别遍历用户集和物品集,而J是交叉熵函数。第二项在KGE模块中计算损失,我们的目标是增加所有真实三元组的得分,同时减少所有虚假三元组的得分。最后一项是防止过度拟合的正则化项,λ1λ_1λ1λ2λ_2λ2是平衡参数。(λ1λ_1λ1可以看作是两个任务的两个学习率之比。)
注意方程(9)中的损失函数,遍历所有可能的用户项对和知识三元组。为了使计算更有效,遵循[17],我们在训练期间使用负采样策略。算法1中介绍了MKR的学习算法,其中训练时期包括两个阶段:推荐任务(第3-7行)和KGE任务(第8-10行)。在每次迭代中,我们会先对推荐任务重复训练t次(t是超参数,通常t> 1),然后再在每个阶段对KGE任务进行训练,因为我们更加专注于提高推荐效果。我们将在实验部分讨论t的选择。

'''
算法1 MKR的多任务训练
输入:交互矩阵Y,知识图谱G
输出:预测函数F(u,v|Θ,Y,G)
'''
def train(args, data, show_loss, show_topk):n_user, n_item, n_entity, n_relation = data[0], data[1], data[2], data[3]train_data, eval_data, test_data = data[4], data[5], data[6]kg = data[7]model = MKR(args, n_user, n_item, n_entity, n_relation)# top-K evaluation settingsuser_num = 100k_list = [1, 2, 5, 10, 20, 50, 100]train_record = get_user_record(train_data, True)test_record = get_user_record(test_data, False)user_list = list(set(train_record.keys()) & set(test_record.keys()))if len(user_list) > user_num:user_list = np.random.choice(user_list, size=user_num, replace=False)item_set = set(list(range(n_item)))with tf.Session() as sess:sess.run(tf.global_variables_initializer())for step in range(args.n_epochs):# RS trainingnp.random.shuffle(train_data)start = 0while start < train_data.shape[0]:_, loss = model.train_rs(sess, get_feed_dict_for_rs(model, train_data, start, start + args.batch_size))start += args.batch_sizeif show_loss:print(loss)# KGE trainingif step % args.kge_interval == 0:np.random.shuffle(kg)start = 0while start < kg.shape[0]:_, rmse = model.train_kge(sess, get_feed_dict_for_kge(model, kg, start, start + args.batch_size))start += args.batch_sizeif show_loss:print(rmse)# CTR evaluationtrain_auc, train_acc = model.eval(sess, get_feed_dict_for_rs(model, train_data, 0, train_data.shape[0]))eval_auc, eval_acc = model.eval(sess, get_feed_dict_for_rs(model, eval_data, 0, eval_data.shape[0]))test_auc, test_acc = model.eval(sess, get_feed_dict_for_rs(model, test_data, 0, test_data.shape[0]))print('epoch %d    train auc: %.4f  acc: %.4f    eval auc: %.4f  acc: %.4f    test auc: %.4f  acc: %.4f'% (step, train_auc, train_acc, eval_auc, eval_acc, test_auc, test_acc))# top-K evaluationif show_topk:precision, recall, f1 = topk_eval(sess, model, user_list, train_record, test_record, item_set, k_list)print('precision: ', end='')for i in precision:print('%.4f\t' % i, end='')print()print('recall: ', end='')for i in recall:print('%.4f\t' % i, end='')print()print('f1: ', end='')for i in f1:print('%.4f\t' % i, end='')print('\n')

3 理论分析

在本节中,我们证明交叉压缩单元具有足够的多项式逼近能力。我们还表明,MKR是一个基于推荐系统和多任务学习的几种代表性方法的通用框架。

3.1多项式逼近

根据Weierstrass逼近定理[25],在一定平滑度假设下的任何函数都可以通过多项式逼近为任意精度。因此,我们研究了交叉压缩单元高阶交互逼近的能力。我们证明了交叉压缩单元可以对物品-实体特征交互的顺序进行建模,直至达到指数级:
定理1
分别用v=[v1,⋅⋅⋅,vd]⊤v = [v_1,···,v_d]^⊤v=[v1,,vd]e=[e1,⋅⋅⋅,ed]⊤e = [e_1,···,e _d]^⊤e=[e1,,ed]表示项目和实体在MKR网络中的输入。
∣∣v∣∣1||v_||_1v1∣∣eL∣∣1||e_L||_1eL1vLv_LvLeLe_LeL的L1-范数)中具有最大程度的关于v和e的交叉项是kα,βv1α1⋅⋅⋅vdαde1β1⋅⋅⋅edβdk_α,β^{v_1^{\alpha_1}}···v^{α_d}_de^{β1}_1···e^{βd}_dkα,βv1α1vdαde1β1edβd
其中kα,β∈R,αi,βi∈Nk_{α,β}\in R,α_i,β_i∈Nkα,βR,αi,βiN对于i∈{1,⋅⋅⋅,d},α1+⋅⋅⋅+αd=2L−1,β1+⋅⋅⋅+βd=2L−1(L≥1,v0=v,e0=e)i\in \{1,···,d\}, α_1+···+α_d= 2_{L-1},β_1+···+β_d= 2^{L-1}( L≥1,v_0 = v,e_0 = e)i{1,,d},α1++αd=2L1β1++βd=2L1L1,v0=v,e0=e)
在推荐系统中,∏i=1d\prod_{i=1}^di=1d也被称为组合特征,因为它测量多个原始特征的相互作用。定理1指出,交叉压缩单元可以自动对物品和实体的组合特征进行建模,以获得足够高的阶数,这证明了与现有工作(例如Wide&Deep [3],分解机[22、23]和DCN)相比,MKR具有更好的近似能力[34]。定理1的证明在附录中提供。注意,定理1给出了交叉压缩单元多项式逼近能力的理论视图,而不是为其实际性能提供保证。我们将在实验部分中凭经验评估交叉压缩单元。

3.2 代表方法的统一视图

接下来,我们通过展示它们是MKR的受限制版本或在理论上与MKR相关的模型,在推荐系统和多任务学习中提供几种代表模型的统一视图。这证明了交叉压缩单元的设计合理,并从概念上解释了与基准相比其强大的经验性能。

3.2.1因式分解机

分解机[22,23]是推荐系统的通用方法。在给定输入特征向量的情况下,FM使用分解参数对输入向量中变量之间的所有交互进行建模,从而能够估计具有稀疏性的问题(例如推荐系统)中的交互。 2度分解机的模型方程式定义为:
y^(x)=w0+∑i=1dwixi+∑i=1d∑j=i+1d<vi,vj>xixj,(10)\hat{y}(x)=w_0+\sum_{i=1}^dw_ix_i+\sum^{d}_{i=1}\sum_{j=i+1}^{d}<v_i,v_j>x_ix_j, \tag{10} y^(x)=w0+i=1dwixi+i=1dj=i+1d<vi,vj>xixj,(10)
其中xix_ixi是输入向量x的第i个单位,w⋅w_·w是权重标量,v⋅v_·v是权重向量,⟨⋅,⋅⟩⟨·,·⟩,是两个向量的点积。我们证明FM的本质在概念上类似于1层交叉压缩单元:
命题1v1v_1v1e1e_1e1的L1范数可以表示为以下形式:
∣∣v1∣∣1(or∣∣e1∣∣1)=∣b+∑i=1d∑j=1d<wi,wj>viej∣,(11)||v_1||_1(or||e_1||_1)=|b+\sum_{i=1}^d\sum_{j=1}^d<w_i,w_j>v_ie_j|, \tag{11} v11(ore11)=b+i=1dj=1d<wi,wj>viej,(11)
其中<wi,wj>=wi+wj<w_i,w_j>=w_i+w_j<wi,wj>=wi+wj是两个标量的总和。

有趣的是,没有像FM中那样将xixjx_ix_jxixj的权重参数分解为两个矢量的点积,而是将viejv_ie_jviej的权重分解为交叉压缩单元中两个标量的和,以减少参数数量并增加模型的鲁棒性。

3.2.2 Deep&Cross网络

DCN [34]通过引入以下层来学习显式和高阶叉形特征:
xl+1=x0xlTwl+xl+bl,(12)x_{l+1}=x_0x_l^Tw_l+x_l+b_l, \tag{12} xl+1=x0xlTwl+xl+bl,(12)其中xl,wlx_l,w_lxl,wlblb_lbl是第l阶的表示,权重和偏差层。我们通过以下命题证明DCN与MKR之间的联系:
命题2。在等式(2)中的vl+1v_{l +1}vl+1的公式,如果我们将第一项中的wVVw_{VV}wVV限制为满足el⊤wlVV=1e^⊤_lw^{VV}_l = 1elwlVV=1并将第二项中的ele_lel限制为e0e_0e0(并对el+1e_{l + 1}el+1施加类似的限制),则交叉压缩单元在概念上是等效的多任务学习意义上的DCN层:
vl+1=e0vlTwlEV+vl+blV,el+1=v0elTwlVE+el+blE(13)v_{l+1}=e_0v^T_lw_l^{EV}+v_l+b_l^V,\\ e_{l+1}=v_0e^T_lw_l^{VE}+e_l+b_l^E\tag{13} vl+1=e0vlTwlEV+vl+blV,el+1=v0elTwlVE+el+blE(13)
可以证明,上述等效DCN形式的多项式逼近能力(即vl和el的最大交叉项度)为O(l),比具有O(2l)逼近能力的原始交叉压缩单元弱 。

3.2.3 Cross-stitch网络

Cross-stitch[18]是卷​​积网络中的多任务学习模型,其中设计的Cross-stitch单元可以学习两个任务之间共享的和特定于任务的表示的组合。具体来说,给定两个任务的第l层的两个激活图xAx_AxAxBx_BxB,Cross-stitch网络将学习两个输入激活的线性组合A~\tilde{A}A~B~\tilde{B}B~,并将这些组合作为输入提供给下一层的过滤器。激活图中位置(i, j)的公式为:
[x~Aijx~Aij]=[αAAαABαBAαBB][xAijxBij](14)\begin{bmatrix} \tilde{x}_A^{ij} \\\tilde{x}_A^{ij}\end{bmatrix} =\begin{bmatrix} \alpha_{AA} & \alpha_{AB}\\\alpha_{BA} & \alpha_{BB} \end{bmatrix}\begin{bmatrix} x_A^{ij} \\ x_B^{ij} \end{bmatrix} \tag{14} [x~Aijx~Aij]=[αAAαBAαABαBB][xAijxBij](14)
其中α是任务A和任务B之间表示的可训练传递权重。我们证明了等式(14)中的Cross-stitch单元是以下命题的交叉压缩单元的简化版本:
命题3:如果我们忽略等式(2)中的所有偏差,交叉压缩单元可以写成:
[vl+1el+1]=[elTwlVVvlTwlEVelTwlVEvlTwlEE][vlel](15)\begin{bmatrix} v_{l+1} \\e_{l+1}\end{bmatrix} =\begin{bmatrix} e^T_lw_l^{VV} & v^T_lw_l^{EV}\\e^T_lw_l^{VE} & v^T_lw_l^{EE} \end{bmatrix}\begin{bmatrix} v_l \\ e_l \end{bmatrix} \tag{15} [vl+1el+1]=[elTwlVVelTwlVEvlTwlEVvlTwlEE][vlel](15)
等式(15)中的传递矩阵作为等式(14)中的Cross-stitch单元[αAAαAB;αBAαBB][α_{AA} α_{AB};α_{BA}α_{BB}][αAAαAB;αBAαBB]。像Cross-stitch网络一样,MKR网络可以通过将vl⊤wlEV(αAB)v^⊤_l w^{EV}_l(α_{AB})vlwlEV(αAB)el⊤wlVE(αBA)e^⊤_l w^{VE}_l(α_{BA})elwlVE(αBA)设置为零来决定使某些层特定于任务,或者通过分配较高的值来选择更共享的表示形式给他们。但由于交叉权重已从标量替换为两个矢量的点积,因此在交叉压缩单元中转移矩阵的粒度更细。注意到方程式相当有趣。等式(15)也可以被视为一种关注机制[1],因为转移权重的计算涉及特征向量vlv_lvlele_lel本身。

4 实验

4.1数据集

我们在实验中利用了以下四个数据集:•MovieLens-1M是电影推荐中广泛使用的基准数据集,它由MovieLens网站上的大约100万个明确等级(范围从1到5)组成。
Book-Crossing数据集包含Book-Crossing社区中的1,149,780本书的明确评分(从0到10)。
Last.FM数据集包含来自Last.fm在线音乐系统的2000名用户的音乐家收听信息。
Bing-News数据集包含从Bing News的服务器日志收集的从2016年10月16日至2017年8月11日期间的1,025,192条隐式反馈。每则新闻都有标题和摘要。

由于MovieLens-1M,Book-Crossing和Last.FM是显式反馈数据(Last.FM提供了听音计数作为每个用户-项目交互的权重),因此我们将它们转换为隐式反馈,其中每个条目都标有1,表示用户对该商品给予了正面评价,并为每个用户采样了一个标记为0的未监视商品。MovieLens1M的肯定评分阈值为4,而Book-Crossing和Last.FM由于稀疏而未设置阈值。我们使用Microsoft Satori为每个数据集构建KG,首先从整个KG中选择一个三元组的子集,其置信度大于0.9。对于MovieLens-1M和Book-Crossing,我们还从子KG中另外选择一个三元组子集,其子关系名称分别包含“电影”或“书”,以进一步减小KG的大小。给定子KG,对于MovieLens-1M,Book-Crossing和Last.FM,三元组分别为(head,film.film.name,tail),(head,book.book.title,tail)或(head,type.object.name,tail)。

为简单起见,排除了没有匹配或多个匹配实体的项目。然后,我们将ID与所有KG三元组的头部和尾部进行匹配,并从子KG中选择所有匹配良好的三元组。
Bing-News的构建过程类似,除了:(1)我们使用实体链接工具来提取新闻标题中的实体;(2)由于新闻标题中的实体不在一个特定域内,因此我们不对关系名称施加任何限制。表1中列出了这四个数据集的基本统计信息。请注意,由于我们过滤掉了KG中没有相应实体的项目,因此用户,项目和交互的数量比原始数据集要少。

4.2基准

我们将建议的MKR与以下基准进行比较。除非另有说明,否则基线的超参数设置与原始论文中所报告的相同或在其代码中作为默认设置。
PER [39]将KG视为异构信息网络,并提取基于元路径的特征来表示用户和项目之间的连通性。在本文中,我们使用手动设计的用户项-属性-项路径作为功能,即MovieLens20M的“用户电影导演导演电影”,“用户电影原版电影”和“用户电影明星电影”;用于书阅览的“用户书作者书”和“用户书类型书”; “用户音乐人类型的音乐人”,“用户音乐人国家的音乐人”和“用户音乐人的年龄音乐人”(年龄离散)为Last.FM。请注意,PER不能应用于新闻推荐,因为很难为新闻中的实体预先定义元路径。
CKE [40]在一个统一的建议框架中将CF与结构,文本和视觉知识相结合。
本文将CKE作为CF加结构知识模块来实现。四个数据集的用户和项目嵌入的维数分别设置为64、128、32、64。实体嵌入的尺寸为32。
DKN [32]将实体嵌入和词嵌入视为多个通道,并将它们组合在一起在CNN中进行CTR预测。在本文中,我们使用电影/书名和新闻标题作为DKN的文本输入。单词嵌入和实体嵌入的维数为64,每个窗口大小1、2、3的过滤器数为128。
RippleNet [31]是一种类似于内存网络的方法,可在知识图上传播用户的偏好以进行推荐。Last.FM的超参数设置为d = 8,H = 2,λ1= 10-6,λ2= 0.01,η= 0.02。
LibFM [23]是一种广泛使用的基于特征的分解模型。我们将用户和项目的原始特征以及从TransR [13]中学到的相应平均实体嵌入进行串联,作为LibFM的输入。维度为{1,1,8},训练时期数为50。TransR的维度为32。
Wide&Deep [3]是结合了(宽)线性通道和(深)非线性通道的深度推荐模型。Wide&Deep的输入与LibFM中的相同。用户,项目和实体的维度为64,我们使用两层深度为100和50的深层通道以及宽通道。

4.3实验设置

在MKR中,我们为所有三个数据集设置高级层数K = 1,fRSf_{RS}fRS作为内积,并且λ2=10−6λ_2= 10^{-6}λ2=106,其他超参数在表1中给出。超参数的设置通过在验证集上优化AUC来确定。对于每个数据集,训练,验证和测试集的比率为6:2:2。每个实验重复3次,并报告平均性能。我们在两个实验场景中评估我们的方法:(1)在点击率(CTR)预测中,我们将训练后的模型应用于测试集中的每个互动,并输出预测的点击概率。我们使用AUC和准确性来评估点击率预测的效果。 (2)在前K个推荐中,我们使用经过训练的模型为测试集中的每个用户选择K个预测点击概率最高的项目,然后选择Precision @ K和Recall @ K评估推荐的集合。

4.4 实证研究

我们进行了一项经验研究,以研究RS中项目与KG中相应实体的相关性。具体而言,我们旨在揭示KG中项目对的公共邻居数如何随RS中公共评分者数的变化而变化。为此,我们首先从MovieLens-1M中随机抽取一百万个项目对,然后根据其在RS中的常见评分者数量将其分为5类,并计算每个类别在KG中其常见邻居的平均数量。结果显示在图2a中,该图清楚地表明,如果两项在RS中具有更常见的评估者,则它们很可能在KG中共享更多的共同邻居。图2b从相反方向显示了正相关。以上发现从经验上证明了项目在KG和RS中具有相似的相似度结构,因此项目的交叉知识转移对MKR中的推荐任务和KGE任务均有利。

4.5 结果

4.5.1与基准的比较

在这里插入图片描述
在这里插入图片描述
表2和图3、4分别显示了CTR预测和top-K推荐中所有方法的结果。
我们有以下观察结果:
PER在电影,书籍和音乐推荐方面表现不佳,因为用户定义的元路径实际上很难达到最佳。此外,PER不能应用于新闻推荐。
CKE在电影,书籍和音乐推荐方面的表现要优于新闻。这可能是因为MovieLens-1M,BookCrossing和Last.FM比Bing-News更为密集,这对于CKE中的协作过滤部分更有利。
DKN与其他基准相比,在新闻推荐方面表现最佳,但在其他情况下表现最差。
这是因为电影,书籍和音乐家的名字太短且模棱两可,无法提供有用的信息。
RippleNet在所有基准中表现最佳,甚至在MovieLens-1M上也胜过MKR。
这表明RippleNet可以精确地捕获用户兴趣,尤其是在用户与项目交互密集的情况下。但是,RippleNet对数据集的密度更敏感,因为它在Book-Crossing,Last.FM和Bing-News中的表现比MKR差。我们将在
4.5.3节中进一步研究它们在稀疏场景中的性能。
MKR:一般情况下,我们的MKR在四个数据集的所有方法中表现最佳。
具体而言,MKR在电影,书籍,音乐和新闻推荐方面的平均准确率分别提高了11.6%,11.5%,12.7%和8.7%,这证明了MKR中多任务学习框架的功效。请注意,BingNews的前K个指标要低得多,因为新闻的数量明显大于电影,书籍和音乐家。

4.5.2与MKR变体的比较

我们进一步比较了MKR及其三个变体,以证明交叉压缩单元的功效:
MKR-1L是具有一层交叉压缩单元的MKR,它对应于命题1的FM模型。请注意,在MovieLens-1M的实验中,MKR-1L实际上是MKR。
MKR-DCN是基于等式(13)的MKR的变体,它对应于DCN模型。
MKR-stitch是与Cross-stitch网络相对应的MKR的另一种变体,其中转移权重表示在等式(15)中被四个可训练标量代替。

从表2中,我们观察到MKR优于MKR-1L和MKR-DCN,这表明对项目和实体要素之间的高阶交互进行建模有助于保持良好的性能。MKR的得分也比MKR-stitch更好。与简单的cross-stitch单元相比,这证实了对MKR中的知识转移进行细粒度控制的功效。

4.5.3稀疏方案中的结果

在MKR中使用知识图的一个主要目标是减轻推荐系统的稀疏性和冷启动问题。
为了研究KGE模块在稀疏场景中的功效,我们将MovieLens-1M训练集的比例从100%更改为10%(同时将验证和测试集保持固定),并在CTR预测中报告AUC的结果 对于所有方法。结果显示在表3中。我们观察到,随着训练集的减少,所有方法的性能都会下降。当r = 10%时,与充满时相比,PER,CKE,DKN,RippleNet,LibFM和Wide&Deep的AUC得分分别下降15.8%,15.9%,11.6%,8.4%,10.2%,12.2%。使用训练集(r = 100%)。

相反,MKR的AUC分数仅降低5.3%,这表明即使用户-物品交互很少,MKR仍然可以保持良好的性能。我们还注意到,在稀疏场景中,MKR的性能优于RippleNet,这与我们在4.5.1节中的观察一致,即RippleNet对用户-物品交互的密度更为敏感。

4.6 参数敏感性

在这里插入图片描述
在这里插入图片描述

4.6.1 KG尺寸的影响

我们改变KG的大小以进一步研究KG的使用效果。Bing-News上的AUC结果如图5a所示。具体而言,在三种情况下,KG的比率从0.1分别提高到1.0和1.0,AUC和Accuracy分别提高了13.6%和11.8%。这是因为Bing-News数据集非常稀疏,使得KG使用的影响相当明显。

4.6.2 RS训练频率的影响

我们通过将t从1更改为10来调查Mt中参数t的影响,同时保持其他参数不变。结果显示在图5b中。我们观察到,当t = 5时,MKR达到最佳性能。这是因为KGE模块的高训练频率会误导MKR的目标函数,而KGE的训练频率太小则无法充分利用从KG。

4.6.3嵌入尺寸的影响

我们还将在图5c中显示用户,项目和实体的维度如何影响MKR的性能。我们发现,随着尺寸的增加,性能最初得到了改善,因为嵌入层中的更多位可以编码更多有用的信息。但是,当维数进一步增加时,性能会下降,因为维数过多可能会引入噪声,从而误导了后续的预测。

5 相关工作

5.1 知识图谱嵌入

MKR中的KGE模块连接到KGE方法中的大量工作。KGE用于将知识中的实体和关系嵌入到低维向量空间中,同时仍保留结构信息[33]。KGE方法可分为以下两类:(1)当学习实体和关系的表示形式(例如TransE [2],TransH [35]和TransR [13])时,转换距离模型会利用基于距离的评分功能; (2)语义匹配模型通过匹配实体和关系的潜在语义(例如RESCAL [20],ANALOGY [19]和HolE [14])来衡量知识三元组的合理性。最近,研究人员还提议合并辅助信息,例如实体类型[36],逻辑规则[24]和文本描述[46]以帮助KGE。

上面的KGE方法也可以作为KGE模块的实现并入MKR,但是请注意,MKR中的交叉和压缩单元需要相应地重新设计。探索KGE模块的其他设计以及相应的桥接单元也是未来工作的重要方向。

5.2 多任务学习

多任务学习是机器学习中的一种学习范式,其目的是利用包含在多个相关任务中的有用信息来帮助提高所有任务的泛化性能[42]。假定所有学习任务都相互学习,发现与单独学习它们相比,共同学习这些任务可以提高性能。通常,MTL算法可以分为几类,包括特征学习方法[34、41],低等级方法[7、16],任务聚类方法[47],任务关系学习方法[12]和分解方法 [6]。例如,Cross-stitch网络[41]通过知识转移矩阵确定不同任务中隐藏层的输入; [47]旨在通过识别代表任务(它们是给定的m个任务的子集)来对任务进行聚类,即,如果任务Tj选择任务Ti作为代表任务,则可以预期Tj的模型参数与那些相似。MTL还可以与其他学习范例结合使用,以进一步提高学习任务的性能,包括半监督学习,主动学习,无监督学习和强化学习。

我们的工作可以看作是一个非对称的多任务学习框架[37、43、44],我们的目标是利用RS和KG之间的联系来帮助提高其性能,并且以不同的频率训练这两项任务。

5.3深度推荐系统

近年来,深度学习已使推荐器系统发生了革命性变化,并在许多推荐方案中获得了更好的性能。粗略地说,深度推荐系统可以分为两类:

(1)使用深度神经网络处理用户或项目的原始特征[5、28-30、40]; 例如,协作深度学习[29]设计了自动编码器,以从文本输入中提取简短和密集的特征,并将特征馈入协作过滤模块; DeepFM [5]在神经网络架构中结合了用于推荐的分解机器和用于特征学习的深度学习。

(2)使用深度神经网络来建模用户与项目之间的交互[3、4、8、9]。例如,神经协作过滤[8]用神经体系结构代替了内部产品,以对用户-项目交互进行建模。这些方法与我们的方法之间的主要区别在于,MKR部署了一个多任务学习框架,该框架利用KG的知识来辅助推荐。

6 结论和未来工作

本文提出了MKR,一种用于知识图增强推荐的多任务学习方法。MKR是一个深层的端到端框架,由两部分组成:推荐模块和KGE模块。这两个模块均采用多个非线性层,以从输入中提取潜在特征,并适应用户项和头部关系对的复杂交互。由于这两个任务不是独立的,而是由项目和实体连接的,因此我们在MKR中设计了一个交叉压缩单元来关联这两个任务,它可以自动学习项目和实体特征的高级交互,并在这两个任务之间传递知识。我们在四个推荐方案中进行了广泛的实验。结果表明,MKR优于强基线,并具有使用KG的功效。为了将来的工作,我们计划在MKR框架中研究其他类型的神经网络(例如CNN)。通过重新设计交叉压缩单元,我们还将其他KGE方法作为MKR中的KGE模块实现。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481132.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

LeetCode-二叉树算法总结-层次遍历,路径总和等

版权声明&#xff1a;本文为博主原创文章&#xff0c;欢迎转载&#xff0c;但请注明出处&#xff0c;谢谢愿意分享知识的你~~ https://blog.csdn.net/qq_32690999/article/details/80484440 </div><link rel"stylesheet" href"https://csdnimg.…

记录一次闲鱼维权事件

-----2017.11.16 最后一次更新----- 小夕也真的没有想到&#xff0c;在万般绝望之时竟然得到了这么多人的帮助。在本文发出后&#xff0c;多位阿里人员积极联系我了解了情况&#xff0c;很感激一位阿里的专家帮我将此事递交给相关部门&#xff0c;让专业的客服直接受理和重审此…

百度作业帮-产品分析

一、商业模式分析 1.1、问答时期&#xff08;2014年2月-2015年1月&#xff09; 商业模式之作业帮V1.0.png两点值得注意&#xff1a; 作业帮的出现有明显的历史原因&#xff0c;即由百度知道团队出品&#xff0c;因此切入K12教育初期&#xff0c;采取的是之前的问答模式&#xf…

【Python自然语言处理】中文分词技术——统计分词

中文分词方法 本文参考自书籍《Python自然语言处理实战&#xff1a;核心技术与算法》 用做个人的学习笔记和分享 1. 规则分词 规则分词的详细笔记 2. 统计分词 2.1 一般步骤 建立统计语言模型。句子划分为单词&#xff0c;对划分结果进行概率分析&#xff0c;获得概率最大的…

你的模型真的陷入局部最优点了吗?

小夕曾经收到过一个提问&#xff1a;“小夕&#xff0c;我的模型总是在前几次迭代后很快收敛了&#xff0c;陷入到了一个局部最优点&#xff0c;怎么也跳不出来&#xff0c;怎么办&#xff1f;”本文不是单纯对这个问题的回答&#xff0c;不是罗列工程tricks&#xff0c;而是希…

如何与深度学习服务器优雅的交互?(长期更新)

0. 故事序言 如果有人问小夕&#xff1a;"小夕&#xff0c;要是人工智能的就业岗位一夜之间消失了&#xff0c;你会去转行做什么呢&#xff1f;" 答曰&#xff1a;"当然是去做Linux运维啊23333" 小夕有一台自己负责的GPU服务器&#xff0c;她可让小夕操碎了…

风控模型师面试准备--技术篇(逻辑回归、决策树、集成学习)

原文地址&#xff1a;https://zhuanlan.zhihu.com/p/56175215 编辑于2019-02-12&#xff0c;持续更新中&#xff0c;有风控建模工作经验的&#xff0c;或者想转行风控建模的小伙伴可以互相交流下... 一.算法 逻辑回归决策树集成学习&#xff08;随机森林&#xff0c;Adaboost&…

step-by-step: 夕小瑶版神经网络调参指南(上)

距离上一篇文章已经过去好久好久好久啦。闭关几个月后&#xff0c;其实早有继续码文章的打算&#xff0c;先后写了一下核函数与神经网络的一些思考、文本预处理tricks、不均衡文本分类问题、多标签分类问题、tensorflow常用tricks、噪声对比估算与负采样等文章&#xff0c;结果…

谷歌发布端到端AI平台,还有用于视频和表格的AutoML、文档理解API等多款工具

谷歌又有了大动作。在大洋彼岸的谷歌Cloud Next conference大会上&#xff0c;谷歌一口气发布了多款AI新品和工具&#xff0c;主要包括&#xff1a; 端到端的AI平台 用于处理视频和表格数据的AutoML Tables和AutoML Video 文档理解API 联络中心AI 视觉产品搜索 对于开发者…

跨性别,你所不知道的事

今晚原计划在订阅号里推送南溪妹子前几天录制的跨性别科普视频&#xff0c;没想到今天收到南溪的私信&#xff0c;说不做科普了&#xff0c;还是算了吧。急忙去了解了一下原因 (http://www.zhihu.com/pin/963101597957644288) &#xff0c;才知道南溪因这段视频所遭受的无故攻击…

文本分类问题不需要ResNet?小夕解析DPCNN设计原理(上)

历史回顾回顾一下图像和文本的发展史&#xff0c;似乎这就是一场你追我赶的游戏。在上一阶段的斗争中&#xff0c;朴素贝叶斯、最大熵、条件随机场这些理论完备的统计机器学习模型使得文本分类、中文分词、NER等诸多自然语言处理问题取得了差强人意&#xff08;释义&#xff1a…

【Tensorflow】TensorFlow的嵌入layer和多层layer

计算图中的操作 # python 3.6 import tensorflow as tf import numpy as npsess tf.Session()# 将张量和占位符对象组成一个计算图&#xff0c;创建一个简单的分类器# 一、计算图中的操作 # 1. 声明张量和占位符&#xff0c;创建numpy数组&#xff0c;传入计算图操作 x_vals …

文本分类问题不需要ResNet?小夕解析DPCNN设计原理(下)

哎呀呀&#xff0c;说好的不拖稿的又拖了两天T_T&#xff0c;小夕过一阵子分享给你们这两天的开心事哦。后台催稿调参系列的小伙伴们不要急&#xff0c;下一篇就是第二篇调参文啦。好啦&#xff0c;接着上一篇文章&#xff0c;直接搬来DPCNN、ShallowCNN、ResNet的对比图。从图…

注意力机制-深度学习中的注意力机制+注意力机制在自然语言处理中的应用

1 深度学习中的注意力机制 https://mp.weixin.qq.com/s?__bizMzA4Mzc0NjkwNA&mid2650783542&idx1&sn3846652d54d48e315e31b59507e34e9e&chksm87fad601b08d5f17f41b27bb21829ed2c2e511cf2049ba6f5c7244c6e4e1bd7144715faa8f67&mpshare1&scene1&src…

【TensorFlow】常用的损失函数及其TensorFlow实现

1 损失函数 定义&#xff1a;将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。 应用&#xff1a;作为学习准则与优化问题相联系&#xff0c;即通过最小化损失函数求解和评估模型。 分类&#xff1a;回归问题、分类问题 2 回归问…

从经典文本分类模型TextCNN到深度模型DPCNN

如今深度学习已经成为NLP领域的标配技术&#xff0c;在图像中大为成功的卷积神经网络&#xff08;CNN&#xff09;也开始广泛渗透到文本分类、机器翻译、机器阅读等NLP任务中。但是&#xff0c;在ACL2017以前&#xff0c;word-level的文本分类模型&#xff08;以单词为语义单位…

从特征分解到协方差矩阵:详细剖析和实现PCA算法

从特征分解到协方差矩阵&#xff1a;详细剖析和实现PCA算法本文先简要明了地介绍了特征向量和其与矩阵的关系&#xff0c;然后再以其为基础解释协方差矩阵和主成分分析法的基本概念&#xff0c;最后我们结合协方差矩阵和主成分分析法实现数据降维。本文不仅仅是从理论上阐述各种…

NLP中常用文本分类模型汇总

如今深度学习已经成为NLP领域的标配技术&#xff0c;在图像中大为成功的卷积神经网络&#xff08;CNN&#xff09;也开始广泛渗透到文本分类、机器翻译、机器阅读等NLP任务中。但是&#xff0c;在ACL2017以前&#xff0c;word-level的文本分类模型&#xff08;以单词为语义单位…

【TensorFlow】随机训练和批训练的比较与实现

一、随机训练和批训练 随机训练&#xff1a;一次随机抽样训练数据和目标数据对完成训练。批训练&#xff1a;一次大批量训练取平均损失来进行梯度计算&#xff0c;批量训练大小可以一次上扩到整个数据集。批训练和随机训练的差异&#xff1a;优化器方法和收敛的不同批训练的难…