论文阅读《The Sketchy Database: Learning to Retrieve Badly Drawn Bunnies》
作者:互联网
如果没有啥基础的读者一定要看完这这个视频,然后看论文这样就好理解多了:
https://www.bilibili.com/video/BV1vQ4y1R7dr?spm_id_from=333.337.search-card.all.click
1Learning a Cross-domain Mapping
Overview:
在本节中,我们使用草图数据库来学习草图和照片的共享嵌入,这样学习到的特征空间中的距离就会与草图和照片之间的结构和语义相似性相关联.
我们的深度网络在基准测试上达到了最高的性能,这需要相当复杂的训练机制。这有两个原因:(1)虽然草图数据库相对于现有的草图数据库很大,但深度网络有数千万的自由参数需要学习,因此需要大量的训练数据。我们看到了对额外数据集进行预训练的好处,但也有复杂性。(2)我们有两个独立的相似性概念——草图和引起它的原始照片之间的实例级相似性,以及草图和该类别中的所有照片之间的类别级相似性。
我们使用了三种不同的损失函数的组合来训练网络——Siamese loss, Triplet loss, and Classifificationloss。接下来来概述一下这三个损失函数。
Siamese Network:
直接列出公式:
S是一个草图,I+是一个与草图相同类别的对象实例,I−是一个与草图不同类别的对象实例,d()欧几里德距离,m是一超参数,l∈{0,1}标签与1正对(表示与草图相同类别时)和0负对(表示与草图不同类别时)。不同的草图-图像对将被推开,而相同草图-图像类别将会拉近。
Triplet Network:
符号的表示和上面的相同
Classifification loss:
我们使用Siamese loss, Triplet loss使网络对细粒度的草图到照片的相似性保持敏感,我们也可以通过在训练我们的深度网络时包括分类损失来提高性能。我们使用传统的“softmax”分类损失的125个类别,这有助于确保检索结果与查询的类别匹配。
Network architectures:
我们实验了两种深度网络架构——AlexNet。并且我们忽略了GoogLeNet网络的辅助分类损失层,因为它们的影响在我们的实验中可以忽略不计。如图5:
标签:Badly,Bunnies,Retrieve,loss,草图,网络,相似性,类别,我们 来源: https://www.cnblogs.com/bujiandaoshitou/p/16180713.html