深度学习(DL)方法已显示出令人鼓舞的结果,以解决诸如从$ k $ -space数据中的MR图像重建等逆问题。但是,这些方法目前尚无重建质量的保证,并且这种算法的可靠性仅被了解不足。对抗攻击提供了一种有价值的工具,可以了解可能的故障模式和基于DL的重建算法的最坏情况。在本文中,我们描述了对多圈$ K $空间测量结果的对抗性攻击,并在最近提出的E2E-VARNET和更简单的基于UNET的模型上对其进行评估。与先前的工作相反,攻击旨在特异性改变诊断相关的区域。使用两种逼真的攻击模型(对抗性$ K $ - 空间噪声和对抗性旋转),我们能够证明,当前基于DL DL的最新重建算法确实对此类扰动敏感,而相关诊断信息可能会在某种程度上迷路。令人惊讶的是,在我们的实验中,UNET和更复杂的E2E-VARNET对此类攻击同样敏感。我们的发现进一步增加了以下证据:必须谨慎行事,因为基于DL的方法更接近临床实践。
translated by 谷歌翻译
这项工作探讨了随机竞争的激活效力,即随机本地获奖者 - 所有(LWTA),反对强大的(梯度)的白盒和黑匣子对抗攻击;我们特别关注对抗性训练环境。在我们的工作中,我们用包括当地和随机竞争的线性单元的块替换基于常规的基于Relu的非线性。每个网络层的输出现在产生稀疏输出,具体取决于每个块中的获胜者采样的结果。我们依靠变分的贝叶斯框架进行培训和推理;我们纳入了常规的基于PGD的对抗的对抗性培训论证,以增加整体对抗性鲁棒性。正如我们在实验表明,所产生的网络产生最先进的稳健性,这对于强大的对抗性攻击,同时保留了良性案例中的非常高的分类率。
translated by 谷歌翻译