首页 > TAG信息列表 > AAAI2021

知识图谱论文阅读(十九)【AAAI2021】Knowledge-Enhanced Hierarchical Graph Transformer Network for

题目: Knowledge-Enhanced Hierarchical Graph Transformer Network for Multi-Behavior Recommendation 论文链接: 代码链接:https://github.com/akaxlh/KHGT 论文 时间戳放入到关系中,可以参考这篇《Heterogeneous graph transformer》和《Attention is all you need》 想法

【AAAI2021】Dual-Level Collaborative Transformer for Image Captioning

【AAAI2021】Dual-Level Collaborative Transformer for Image Captioning 附: 论文下载地址 论文主要贡献 提出了一种新的双层协同Transformer网络(DLCT),实现了区域特征和网格特征的互补性。在MS-COCO数据集上的大量实验证明了该方法的优越性。提出了位置约束交叉注意(LCCA)

文献阅读(45)AAAI2021-Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting

本文是对《Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting》一文的浅显翻译与理解,如有侵权即刻删除。 更多相关文章,请移步: 文献阅读总结:图神经网络 文章目录 Title总结1 问题定义2 概率化注意力机制3 注意力蒸馏编码4 生成式解码 T

Informer:AAAI2021 最佳论文整理

前言 本文是在Transformer的基础上进行的改进,首先作者提出Transformer在长时间序列预测中的三个局限性: 自注意力的二次计算复杂度 O ( L

AAAI2021论文

Distilling Localization for Self-Supervised Representation Learning 探索了自监督表征学习中的目标定位问题。分类任务中,目不同目标具有相似的背景。作者使用显著性检测,提取前景信息,替换不同的背景做数据增强,提高了模型的表征能力。 参考:https://mp.weixin.qq.com/s/UexY

AMiner会议论文推荐第二十二期:AAAI2021,IJCAI2020,NeurIPS2020论文

订阅了解更多论文信息,定制您的个人科研动态信息流:https://www.aminer.cn/user/notification IJCAI 2020 论文推荐: 论文名称:Toward A Neuro-inspired Creative Decoder 推荐理由:造力,是一个产生新颖和有价值的想法的过程,它涉及到大脑中任务正激活(控制)和任务负激活(默认)网络之间