Winograd架构挑战 - 一套涉及代词参考消歧的双句话,似乎需要使用致辞知识 - 是由2011年的赫克托勒维克斯提出的。到2019年,基于大型预先训练的变压器的一些AI系统基于语言模型和微调这些问题,精度优于90%。在本文中,我们审查了Winograd架构挑战的历史并评估了其重要性。
translated by 谷歌翻译
最近,对生成自然语言解释(NLE)的模型的兴趣日益增长。但是,培训提供NLES的模型需要获取特定于任务的NLE,这是时间和资源的。潜在的解决方案是从域的域的域外逆转,通过几次射门传输学习,具有大量NLE的域与具有稀缺的域,但潜在的标签。在这项工作中,我们为几个NLE的案例引入了几次射门转移学习的三种香草方法,但标签很少,以及适应现有的香草微调方法。我们从自然语言推理域中传输解释性,其中人写入的NLES的大型数据集(E-SNLI),到代词解析的域名(1)代词分辨率的域,在那里我们在顶部引入了一个小型数据集Winogrande DataSet(小型e-winogrande)和(2)致辞验证(Comve)。我们的结果表明,NLES的转移优于单项任务方法,并建立四个已确定的培训制度中的最佳策略。我们还在培训数据和模型大小方面调查最佳方法的可扩展性。
translated by 谷歌翻译
制定了具有机器学习模拟(骆驼)项目的宇宙学和天体物理学,通过数千名宇宙的流体动力模拟和机器学习将宇宙学与天体物理学结合起来。骆驼包含4,233个宇宙学仿真,2,049个n-body和2,184个最先进的流体动力模拟,在参数空间中采样巨大的体积。在本文中,我们介绍了骆驼公共数据发布,描述了骆驼模拟的特性和由它们产生的各种数据产品,包括光环,次麦,银河系和空隙目录,功率谱,Bispectra,Lyman - $ \ Alpha $光谱,概率分布函数,光环径向轮廓和X射线光子列表。我们还释放了超过骆驼 - 山姆的数十亿个星系的目录:与Santa Cruz半分析模型相结合的大量N身体模拟。我们释放包含350多个Terabytes的所有数据,并包含143,922个快照,数百万光环,星系和摘要统计数据。我们提供有关如何访问,下载,读取和处理数据AT \ URL {https://camels.readthedocs.io}的进一步技术详细信息。
translated by 谷歌翻译