首页    |     本刊简介    |     征稿简则    |     征订启事    |     联系我们    |
天津科技大学学报欢迎您投稿!
 
   采编平台 /// 
 
    • 作者投稿  
    • 专家审稿  
    • 编辑办公  
 
   
 
   期刊论文 /// 
 
    • 全文浏览  
    • 论文检索  
    • 浏览排行  
 
   
 
   下载中心 /// 
 
    • 论文模板
    • 在研证明模板
    • 平台使用说明
 
   
 
 您现在的位置: 首页» 学报论文» 2024-4»  

融合语义增强和位置编码的图文匹配方法

赵婷婷,常玉广,郭 宇,陈亚瑞,王 嫄

摘  要:图文匹配是跨模态基础任务之一,其核心是如何准确评估图像语义与文本语义之间的相似度。现有方法是通过引入相关阈值,最大限度地区分相关和无关分布,以获得更好的语义对齐。然而,对于特征本身,其语义之间缺乏相互关联,且对于缺乏空间位置信息的图像区域与文本单词很难准确对齐,从而不可避免地限制了相关阈值的学习导致语义无法准确对齐。针对此问题,本文提出一种融合语义增强和位置编码的自适应相关性可学习注意力的图文匹配方法。首先,在初步提取特征的基础上构造图像(文本)无向全连通图,使用图注意力去聚合邻居的信息,获得语义增强的特征。然后,对图像区域的绝对位置信息编码,在具备了空间语义的图像区域与文本单词相似性的基础上获得最大程度区分的相关和无关分布,更好地学习两个分布之间的最优相关边界。最后,通过公开数据集 Flickr 30 k 和 MS-COCO,利用 Recall@K 指标对比实验,验证本文方法的有效性。



论文下载:
  • 09.pdf
  •   浏览次数:
     
     

    版权所有:《天津科技大学学报》编辑部

    网站设计与维护:天津科技大学信息化建设与管理办公室

    津科备27-1号