已经证明,学习辅助任务可以改善主要任务的概括。然而,这是以手动标记附加任务为代价的,这些任务可能对主要任务有用,也可能没有用。我们提出了一种新方法,可以自动学习辅助任务的标签,这样就可以改进任何监督学习任务,而无需访问其他数据。该方法是训练两个神经网络:用于预测辅助标签的标签生成网络,以及用于训练辅助任务的主要任务的多任务网络。标签生成网络的损失包含了多任务网络的性能,因此两个网络之间的这种交互可以被视为元学习的一种形式。我们表明,我们提出的方法Meta AuXiliary Learning(MAXL)在7个图像数据集上的表现优于单一任务,而不需要额外的辅助标签。我们还展示了MAXLout执行其他几个基线来生成辅助标签,并且与人工定义的辅助标签相比,它们具有竞争力。我们方法的这种监督性质导致了一种朝着自动化概括的有希望的新方向。源代码可从\ url {https://github.com/lorenmt/maxl}获得。
translated by 谷歌翻译