笔记:《The FacT: Taming Latent Factor Models for Explainability with Factorization》
作者:互联网
阅读日期:2020.2.25
论文题目:《The FacT: Taming Latent Factor Models for Explainability with Factorization》
发现问题:
现有的可解释推荐领域受限的原因:
- 解释的可靠性和推荐的质量长期以来被认为是不可调和的(基于内容的CF)。
- LFM潜因子模型是现代推荐系统中最有效准确的方法,但其统计结构复杂,难以解释。虽然已经提出了各种解决方案来近似LFM的潜在推荐机制进行解释,然而,这些近似的解释在多大程度上符合习得的潜在因素模型是未知的。【解释的质量上没有保证】
主要贡献:
- 通过将隐语义模型与解释规则学习无缝地结合起来,以实现可解释的推荐。
- 集成了回归树来指导LFM的学习,并使用学习到的树结构来解释产生的latent factor。具体来说,通过使用用户的评论分别在用户和物品上构建回归树,并将latent profile与树中的每个节点关联起来,以表示用户和物品。随着回归树的生长,latent factor在树结构的正则化作用下逐渐细化。最终能够通过查看回归树上的每个因子的路径来跟踪latent profile的创建,从而解释产生的建议。实验和用户研究均表明了该模型的有效性。
【The fidelity of explanation is guaranteed by modeling the latent factors as a function of explanation rules】
总结与感悟:
- 本篇文章通过现有的推荐准确度较高LFM模型,在应用于可解释推荐时存在的“不可靠解释”问题出发,将LFM于规则归纳学习结合起来,构建了回归树,将原本类似“黑盒”产生的隐语义因子的创建过程细化,从而生成对应的解释。这是本文的主要创新点。
标签:解释,Latent,Models,推荐,LFM,回归,Explainability,latent,模型 来源: https://blog.csdn.net/qq_38871942/article/details/104696210