当人类播放虚拟赛车游戏时,他们使用游戏屏幕上的视觉环境信息来了解环境中的规则。相比之下,优于人类玩家的最先进的现实赛车游戏AI代理商不使用基于图像的环境信息,而是由环境提供的紧凑和精确的测量。在本文中,提出了一种基于视觉的控制算法,并在使用Gran Turismo Sport(GTS)的现实赛车场景中的相同条件下与人类播放器性能进行比较,这被称为高保真逼真的赛车模拟器。在所提出的方法中,构成在传统最先进的方法中的部分观测的环境信息被从游戏屏幕图像中提取的特征表示替换。我们证明,即使使用游戏屏幕图像,所提出的方法也在高速驾驶场景下执行专家人级车辆控制,作为游戏屏幕图像作为高维输入。此外,它在时间试用任务中以GTS中内置的AI占此胜过,其分数将其分为大约28,000人的人类玩家。
translated by 谷歌翻译
Multilingual pretrained models are effective for machine translation and cross-lingual processing because they contain multiple languages in one model. However, they are pretrained after their tokenizers are fixed; therefore it is difficult to change the vocabulary after pretraining. When we extend the pretrained models to new languages, we must modify the tokenizers simultaneously. In this paper, we add new subwords to the SentencePiece tokenizer to apply a multilingual pretrained model to new languages (Inuktitut in this paper). In our experiments, we segmented Inuktitut sentences into subwords without changing the segmentation of already pretrained languages, and applied the mBART-50 pretrained model to English-Inuktitut translation.
translated by 谷歌翻译
卷积神经网络(CNNS)在许多计算机视觉任务中非常成功。然而,嵌入式和实时系统的推理成本很高,因此有很多关于压缩网络的研究。另一方面,自我关注模型的最新进步表明,卷积滤波器优选在较早层中的自我关注,这表明在较早的层中较强的电感偏差更好。如卷积滤波器所示,强大的偏置可以培训特定的滤波器并将不必要的过滤器构建为零。这类似于经典图像处理任务,其中选择合适的滤波器使得紧凑的字典表示特征。我们遵循这个想法,并将Gabor过滤器合并在较早的CNN层中进行压缩。通过BackProjagation学习Gabor滤波器的参数,因此该功能仅限于Gabor过滤器。我们表明,对于CIFAR-10的第一层VGG-16具有192个内核/功能,但学习Gabor过滤器需要平均29.4内核。此外,在改变的Reset-20上,使用Gabor滤波器,分别在第一和第二层中的平均83%和94%的内核,其中前五层与两层较大的核交换CiFar-10。
translated by 谷歌翻译