自然语言处理(NLP)通过分析社交媒体或新闻媒体的文本来证明支持财务决策的巨大潜力。在这项工作中,我们建立了一个平台,可以系统地研究NLP股票自动交易算法。与以前的工作相反,我们的平台具有三个功能:(1)我们为每个特定股票提供财务新闻。 (2)我们为每种股票提供各种股票因素。 (3)我们评估了更多与财务相关的指标的绩效。这样的设计使我们能够在更现实的环境中开发和评估NLP库存自动交易算法。除了设计评估平台和数据集集合外,我们还通过提出一个系统来自动从各种输入信息中学习良好的功能表示形式来做出技术贡献。我们算法的关键是一种称为语义角色标签池(SRLP)的方法,该方法利用语义角色标签(SRL)来创建每个新闻段的紧凑表示。基于SRLP,我们进一步纳入了其他股票因素以进行最终预测。此外,我们提出了一种基于SRLP的自我监督的学习策略,以增强系统的分布概括性能。通过我们的实验研究,我们表明所提出的方法可以实现更好的性能,并胜过所有基本线的年度回报率,以及CSI300指数和XIN9指数的最大减收率。我们的ASTOCK数据集和代码可在https://github.com/jinanzou/astock上找到。
translated by 谷歌翻译
最近,对深度学习进行了广泛的研究,以加速动态磁共振(MR)成像,并取得了令人鼓舞的进步。但是,如果没有完全采样的参考数据进行培训,当前方法可能在恢复细节或结构方面具有有限的能力。为了应对这一挑战,本文提出了一个自我监督的协作学习框架(SelfCollearn),以从无效的K-Space数据中进行准确的动态MR图像重建。拟议的框架配备了三个重要组成部分,即双网络协作学习,重新启动数据增强和专门设计的共同培训损失。该框架可以灵活地与数据驱动的网络和基于模型的迭代未滚动网络集成。我们的方法已在体内数据集上进行了评估,并将其与四种最新方法进行了比较。结果表明,我们的方法具有很强的能力,可以从无效的K空间数据捕获直接重建的基本和固有表示形式,因此可以实现高质量且快速的动态MR成像。
translated by 谷歌翻译
图像表示对于许多视觉任务至关重要。最近的一项研究,即局部隐式图像函数(LIIF),而不是用2D阵列代替图像,而是将图像表示为连续函数,其中像素值是通过使用相应的坐标作为输入来扩展的。由于其连续的性质,可以为任意规模的图像超分辨率任务采用LIIF,从而为各种提高因素提供了一个有效和有效的模型。但是,Liif通常遭受边缘周围的结构扭曲和响起的伪影,主要是因为所有像素共享相同的模型,因此忽略了图像的局部特性。在本文中,我们提出了一种新颖的自适应局部图像功能(A-LIIF)来减轻此问题。具体而言,我们的A-LIIF由两个主要组成部分组成:编码器和扩展网络。前者捕获了跨尺度的图像特征,而后者通过多个局部隐式图像函数的加权组合进行了连续升级函数。因此,我们的A-LIIF可以更准确地重建高频纹理和结构。多个基准数据集的实验验证了我们方法的有效性。我们的代码可在\ url {https://github.com/leehw-thu/a-liif}上找到。
translated by 谷歌翻译
在本文中,我们介绍了2022年多模式情感分析挑战(MUSE)的解决方案,其中包括Muse-Humor,Muse-Rection和Muse Surns Sub-Challenges。 2022年穆斯穆斯(Muse 2022)着重于幽默检测,情绪反应和多模式的情感压力,利用不同的方式和数据集。在我们的工作中,提取了不同种类的多模式特征,包括声学,视觉,文本和生物学特征。这些功能由Temma和Gru融合到自发机制框架中。在本文中,1)提取了一些新的音频功能,面部表达功能和段落级文本嵌入以进行准确的改进。 2)我们通过挖掘和融合多模式特征来显着提高多模式情感预测的准确性和可靠性。 3)在模型培训中应用有效的数据增强策略,以减轻样本不平衡问题并防止模型形成学习有偏见的主题字符。对于博物馆的子挑战,我们的模型获得了0.8932的AUC分数。对于Muse Rection子挑战,我们在测试集上的Pearson相关系数为0.3879,它的表现优于所有其他参与者。对于Muse Surst Sub-Challenge,我们的方法在测试数据集上的唤醒和价值都优于基线,达到了0.5151的最终综合结果。
translated by 谷歌翻译
激活压缩训练〜(ACT)已被证明是减少训练深神经网络中记忆消耗的一种有希望的方法。但是,现有的ACT工作依赖于在深神经网络(DNN)训练期间寻找最佳的位宽度以减少量化噪声,从而使过程变得复杂且透明。为此,我们提出了一种简单有效的DNN培训方法。我们的方法是由观察结果激励的:\ emph {DNN向后传播主要取决于激活图的低频组分〜(LFC),而不是高频组件〜(HFC)}。它表明激活图的HFC在DNN训练过程中是高度冗余和可压缩的,这激发了我们提出的双重激活精度〜(分裂)。在培训期间,分裂估计激活图的LFC和HFC,并将HFC压缩到低精度副本中以消除冗余。这可以大大减少记忆消耗,而不会对DNN向后传播的精度产生负面影响。这样,部门可以实现可比的表现与正常培训。三个基准数据集的实验结果表明,在记忆消耗,模型准确性和跑步速度方面,分裂的表现优于最先进的基线方法。
translated by 谷歌翻译
我们研究了协变量偏移下的线性回归,其中输入协变量的边际分布在源和目标域上有所不同,而在两个域中,给定输入协变量的输出的条件分布相似。我们根据针对此问题的目标数据(均由在线SGD进行的目标数据(均由在线SGD执行)进行预处理研究,研究了转移学习方法。我们为这种方法建立了尖锐的实例依赖性高风险上限和下限。我们的界限表明,对于大量的线性回归实例,使用$ O(n^2)$源数据(以及稀缺或无目标数据)转移学习与使用$ n $目标数据的监督学习一样有效。此外,我们表明,即使只有少量的目标数据,也可能会大大减少预处理所需的源数据量。我们的理论阐明了预处理的有效性和局限性以及对解决协变量转移问题的填补的好处。
translated by 谷歌翻译
无锚的检测器基本上将对象检测作为密集的分类和回归。对于流行的无锚检测器,通常是引入单个预测分支来估计本地化的质量。当我们深入研究分类和质量估计的实践时,会观察到以下不一致之处。首先,对于某些分配了完全不同标签的相邻样品,训练有素的模型将产生相似的分类分数。这违反了训练目标并导致绩效退化。其次,发现检测到具有较高信心的边界框与相应的地面真相具有较小的重叠。准确的局部边界框将被非最大抑制(NMS)过程中的精确量抑制。为了解决不一致问题,提出了动态平滑标签分配(DSLA)方法。基于最初在FCO中开发的中心概念,提出了平稳的分配策略。在[0,1]中将标签平滑至连续值,以在正样品和负样品之间稳定过渡。联合(IOU)在训练过程中会动态预测,并与平滑标签结合。分配动态平滑标签以监督分类分支。在这样的监督下,质量估计分支自然合并为分类分支,这简化了无锚探测器的体系结构。全面的实验是在MS Coco基准上进行的。已经证明,DSLA可以通过减轻上述无锚固探测器的不一致来显着提高检测准确性。我们的代码在https://github.com/yonghaohe/dsla上发布。
translated by 谷歌翻译
时尚兼容性模型使在线零售商可以轻松获得质量良好的大量服装作品。但是,有效的时尚建议需要更深入的时尚认知,为每个客户提供精确的服务。在本文中,我们进行了有关时尚认知学习的首次研究,这是以个人物理信息为条件的时尚建议。为此,我们提出了一个时尚认知网络(FCN),以了解服装组成的视觉语义嵌入和个人外观特征之间的关系。 FCN包含两个子模块,即装备编码器和多标签图神经网络(ML-GCN)。服装编码器使用卷积层将衣服编码到服装嵌入中。后一个模块通过堆叠的GCN学习标签分类器。我们对新收集的O4U数据集进行了广泛的实验,结果提供了有力的定性和定量证据,使我们的框架优于替代方法。
translated by 谷歌翻译
视觉异常检测通常用于工业质量检查。在本文中,我们提出了一个新的数据集以及一种新的自我监督学习方法,用于ImageNet预训练,以改善1级和2级和2级5/10/高光训练设置的异常检测和细分。我们释放视觉异常(Visa)数据集,该数据集由10,821个高分辨率颜色图像(9,621个正常和1200个异常样品)组成,涵盖了3个域中的12个对象,使其成为迄今为止最大的工业异常检测数据集。提供了图像和像素级标签。我们还提出了一个新的自我监督框架 - 斑点差异(SPD),该框架可以使对比度的自我监督预训练(例如Simsiam,Moco和Simc​​lr)更适合异常检测任务。我们在Visa和MVTEC-AD数据集上进行的实验表明,SPD始终改善这些对比的训练前基准,甚至是受监督的预训练。例如,SPD在Precision-Recall曲线(AU-PR)下改善了SIMSIAM比SIMSIAM的异常分割的面积,分别为6.8%,并分别监督了2级高弹药机制的预训练。我们通过http://github.com/amazon-research/spot-diff开放项目。
translated by 谷歌翻译
面部表达是传达人类情绪状态和意图的重要因素。尽管在面部表达识别任务(FER)任务中已经取得了显着进步,但由于表达模式的巨大变化和不可避免的数据不确定性而引起的挑战仍然存在。在本文中,我们提出了中级表示增强(MRE)和嵌入图形抑制(GUS)的图表,以解决这些问题。一方面,引入MRE是为了避免表达表示学习以有限数量的高度歧视模式主导。另一方面,引入GUS以抑制表示空间中的特征歧义。所提出的方法不仅具有更强的概括能力来处理表达模式的不同变化,而且具有更强的稳健性来捕获表达表示。对AFF-WILD2的实验评估已验证了该方法的有效性。
translated by 谷歌翻译