用于开放式对话的基于示例基础的生成模型,基于由猎犬提供的示例,利用生成模型和检索模型来产生响应。然而,它们经常忽略所检索的示例,同时产生响应或产生超过拟接到检索的示例的响应。在本文中,我们认为这些缺点是从开放域对话的一对多问题中衍生出来的。当检索的示例与与金响应显着不同的给定上下文相关时,基于示例的基础生成模型验证以忽略示例,因为示例对于产生金响应并不有用。另一方面,当检索到的示例性与金响应类似时,经过高度的,生成模型训练以依赖于示例。因此,我们提出了一种选择与金响应有语义相关的示例性的训练方法,而是从黄金响应的词汇偏移以减轻上述缺点。在培训阶段,我们建议的培训方法首先使用黄金响应而不是对话背景作为查询,以选择与金响应有关的语义相关的样本。然后,它消除了这种示例性,其中词汇类似于金响应,以减轻生成模型对该示例性的依赖性。剩余的示例可以与给定的上下文无关紧要,因为它们是根据金响应搜索的。因此,我们建议的培训方法进一步利用了给定的上下文与示例之间的相关评分,以惩罚不相关的样权。广泛的实验表明,我们所提出的培训方法减轻了现有的基于示例的生成模型的缺点,并显着提高了适当性和信息性方面的性能。
translated by 谷歌翻译