论文名称:Unifying Vision-and-Language Tasks via Text Generation
论文链接:https://www.aminer.cn/pub/601d3fe591e011945792250c?f=cs
现有的视觉和语言学习方法通常需要为每个任务设计特定于任务的架构和目标。例如,用于视觉问答的多标签答案分类器、用于参考表达式理解的区域评分器和用于图像字幕的语言解码器等。为了减轻这些麻烦,在这项工作中,我们提出了一个统一的框架,在同一个语言建模目标的单一体系结构中学习不同的任务,即多模态条件文本生成,我们的模型学习在基于视觉和文本输入的文本中生成标签。在7个流行的视觉和语言基准测试中,包括视觉问答,参考表达理解,视觉常识推理,其中大多数之前被建模为区别性任务,我们的生成方法(具有单一统一的体系结构)达到了与最近特定任务的最先进的视觉和语言模型相当的性能。此外,我们的生成方法在回答鲜有答案的问题时表现出更好的泛化能力。此外,我们还表明,我们的框架允许在单一体系结构中使用单一参数集进行多任务学习,其性能与单独优化的单任务模型相似。
AMiner,让AI帮你理解科学!



