Image generation has been a long sought-after but challenging task, and performing the generation task in an efficient manner is similarly difficult. Often researchers attempt to create a "one size fits all" generator, where there are few differences in the parameter space for drastically different datasets. Herein, we present a new transformer-based framework, dubbed StyleNAT, targeting high-quality image generation with superior efficiency and flexibility. At the core of our model, is a carefully designed framework that partitions attention heads to capture local and global information, which is achieved through using Neighborhood Attention (NA). With different heads able to pay attention to varying receptive fields, the model is able to better combine this information, and adapt, in a highly flexible manner, to the data at hand. StyleNAT attains a new SOTA FID score on FFHQ-256 with 2.046, beating prior arts with convolutional models such as StyleGAN-XL and transformers such as HIT and StyleSwin, and a new transformer SOTA on FFHQ-1024 with an FID score of 4.174. These results show a 6.4% improvement on FFHQ-256 scores when compared to StyleGAN-XL with a 28% reduction in the number of parameters and 56% improvement in sampling throughput. Code and models will be open-sourced at https://github.com/SHI-Labs/StyleNAT .
translated by 谷歌翻译
随着机器学习变得普遍,减轻培训数据中存在的任何不公平性变得至关重要。在公平的各种概念中,本文的重点是众所周知的个人公平,该公平规定应该对类似的人进行类似的对待。虽然在训练模型(对处理)时可以提高个人公平性,但我们认为在模型培训(预处理)之前修复数据是一个更基本的解决方案。特别是,我们表明标签翻转是改善个人公平性的有效预处理技术。我们的系统IFLIPPER解决了限制了个人公平性违规行为的最小翻转标签的优化问题,当培训数据中的两个类似示例具有不同的标签时,发生违规情况。我们首先证明问题是NP-HARD。然后,我们提出了一种近似的线性编程算法,并提供理论保证其结果与标签翻转数量有关的结果与最佳解决方案有多近。我们还提出了使线性编程解决方案更加最佳的技术,而不会超过违规限制。实际数据集上的实验表明,在看不见的测试集的个人公平和准确性方面,IFLIPPER显着优于其他预处理基线。此外,IFLIPPER可以与处理中的技术结合使用,以获得更好的结果。
translated by 谷歌翻译
已经开发了用于预测结直肠癌(CRC)在内的临床相关生物标志物(包括微卫星不稳定性(MSI))的人工智能(AI)模型。但是,当前的深度学习网络是渴望数据的,需要大型培训数据集,这些数据集通常缺乏医疗领域。在这项研究中,基于最新的层次视觉变压器使用移位窗口(SWIN-T),我们开发了CRC中生物标志物的有效工作流程(MSI,超突击,染色体不稳定性,CPG岛甲基表型,BRAF和TP53突变)需要相对较小的数据集,但实现了最新的(SOTA)预测性能。我们的SWIN-T工作流不仅在使用TCGA-CRC-DX数据集(n = 462)的研究内交叉验证实验中大大优于已发表的模型(n = 462),而且在跨研究的外部验证中表现出极好的普遍性,并提供了SOTA AUROC使用MCO数据集进行训练(n = 1065)和相同的TCGA-CRC-DX进行测试。 Echle及其同事在同一测试数据集上使用8000个培训样本(RESNET18)实现了类似的性能(AUROC = 0.91)。 Swin-T使用小型训练数据集非常有效,并且仅使用200-500个培训样本展示出强大的预测性能。这些数据表明,Swin-T的效率可能是基于RESNET18和Shufflenet的MSI当前最新算法的效率5-10倍。此外,SWIN-T模型显示出有望作为MSI状态和BRAF突变状态的预筛查测试,可以在级联的诊断工作流程中排除和减少样品,以允许降低周转时间和节省成本。
translated by 谷歌翻译
语言模型既展示了定量的改进,又展示了新的定性功能,随着规模的增加。尽管它们具有潜在的变革性影响,但这些新能力的特征却很差。为了为未来的研究提供信息,为破坏性的新模型能力做准备,并改善社会有害的效果,至关重要的是,我们必须了解目前和近乎未来的能力和语言模型的局限性。为了应对这一挑战,我们介绍了超越模仿游戏基准(Big Bench)。 Big Bench目前由204个任务组成,由132家机构的442位作者贡献。任务主题是多样的,从语言学,儿童发展,数学,常识性推理,生物学,物理学,社会偏见,软件开发等等。 Big-Bench专注于被认为超出当前语言模型的功能的任务。我们评估了OpenAI的GPT型号,Google内部密集变压器体系结构和大型基础上的开关稀疏变压器的行为,跨越了数百万到数十亿个参数。此外,一个人类专家评估者团队执行了所有任务,以提供强大的基准。研究结果包括:模型性能和校准都随规模改善,但绝对的术语(以及与评估者的性能相比);在模型类中的性能非常相似,尽管带有稀疏性。逐渐和预测的任务通常涉及大量知识或记忆成分,而在临界规模上表现出“突破性”行为的任务通常涉及多个步骤或组成部分或脆性指标;社交偏见通常会随着含糊不清的环境而随着规模而增加,但这可以通过提示来改善。
translated by 谷歌翻译
已经开发了几种深度学习算法,以使用整个幻灯片图像(WSIS)预测癌症患者的存活。但是,WSI中与患者的生存和疾病进展有关的WSI中的图像表型对临床医生而言都是困难的,以及深度学习算法。用于生存预测的大多数基于深度学习的多个实例学习(MIL)算法使用顶级实例(例如Maxpooling)或顶级/底部实例(例如,Mesonet)来识别图像表型。在这项研究中,我们假设WSI中斑块得分分布的全面信息可以更好地预测癌症的生存。我们开发了一种基于分布的多构度生存学习算法(DeepDismisl)来验证这一假设。我们使用两个大型国际大型癌症WSIS数据集设计和执行实验-MCO CRC和TCGA Coad -Read。我们的结果表明,有关WSI贴片分数的分布的信息越多,预测性能越好。包括每个选定分配位置(例如百分位数)周围的多个邻域实例可以进一步改善预测。与最近发表的最新算法相比,DeepDismisl具有优越的预测能力。此外,我们的算法是可以解释的,可以帮助理解癌症形态表型与癌症生存风险之间的关系。
translated by 谷歌翻译
由于缺乏注释的病理图像,转移学习是数字病理领域的主要方法。基于Imagenet数据库的Pre培训的神经网络通常用于提取“从架子”特征中,以预测组织类型实现巨大成功,分子特征和临床结果等。我们假设使用组织病理学图像进行微调的模型可以进一步改善特征提取,下游预测性能。我们使用了100,000个注释的他的结肠直肠癌(CRC)的图像斑块到FINetune通过TwoStep方法预先训练的Xcepion模型。通过:(1)来自CRC的图像的图像分类,从CRC的图像进行了比较了从FineTuned Xception(FTX2048)模型和图像预测(IMGNET2048)模型的特征; (2)预测免疫基因表达和(3)肺腺癌(Luad)基因突变.FiveFold交叉验证用于模型性能评估。来自FFTuned FTX2048的提取特征在于与基于Imagenet数据库的Xcepion直接从架子特征预测CRC的螺栓类型的螺栓类型的精度显着更高。特别是,FTX2048显着提高了87%至94%的基质的精度。类似地,来自FTX2048的特征促进了免疫烯丙基蛋白拉德转录组表达的预测。对于具有与图像诱导的脑状有关系的基因,特征FGROM FERUNED模型的预测是对大多数基因的预测。从FTX2048中携带灌注,改善了拉德中9个最常见的突变基因中的5个突变的预测。
translated by 谷歌翻译
古代定居点的检测是景观考古学的关键。传统上,通过行人调查确定了定居点,因为研究人员在物理上穿过景观和记录的结算位置。最近,古老遗骸的手动识别和标签在卫星图像上增加了考古数据收集的规模,但该过程仍然耗时耗时和艰巨。自我监督学习的发展(例如,对比学习)在使用未标记的卫星和历史空中图像定位考古地点提供可扩展的学习方案。然而,考古站点仅以整个景观的一部分出现,而现代对比监督的学习方法通​​常会在高度平衡的数据集中产生较差的性能,例如使用卫星图像在大面积上识别稀疏局部古城区化。在这项工作中,我们提出了一个解决这个长尾问题的框架。与通常分别处理标记和未标记数据的现有对比学习方法相反,所提出的方法在半监督环境下改革学习范例,以充分利用宝贵的注释数据(我们的设置中<7%)。具体地,通过在未unnotated图像斑块之间的相似性和注释的锚图像之间的相似性来形成数据的高度不平衡性质,以形成伪负对的先验知识。在这项研究中,我们使用了95,358个未标记的图像和5,830个标记的图像来解决从长尾卫星图像数据集检测古建筑的问题。从结果中,我们的半监督对比学习模式实现了79.0%的有前途的测试均衡准确性,而最先进的方法的改善是3.8%。
translated by 谷歌翻译
图表神经网络(GNN)基于故障诊断(FD)近年来收到了越来越多的关注,因为来自来自多个应用域的数据可以有利地表示为图。实际上,与传统的FD方法相比,这种特殊的代表性表格导致了卓越的性能。在本次审查中,给出了GNN,对故障诊断领域的潜在应用以及未来观点的简单介绍。首先,通过专注于它们的数据表示,即时间序列,图像和图形,回顾基于神经网络的FD方法。其次,引入了GNN的基本原则和主要架构,注意了图形卷积网络,图注意网络,图形样本和聚合,图形自动编码器和空间 - 时间图卷积网络。第三,通过详细实验验证基于GNN的最相关的故障诊断方法,结论是基于GNN的方法可以实现良好的故障诊断性能。最后,提供了讨论和未来的挑战。
translated by 谷歌翻译
最早的早期结肠直肠癌(CRC)患者可以单独通过手术治愈,只有某些高风险的早期CRC患者受益于佐剂化学疗法。然而,很少有验证的生物标志物可用于准确预测术后化疗的生存效果。我们开发了一种新的深度学习算法(CRCNET),使用来自分子和细胞肿瘤(MCO)的全滑动图像来预测II / III CRC中辅助化疗的存活效益。我们通过交叉验证和外部使用来自癌症基因组Atlas(TCGA)的独立队列的外部验证了CRCNet。我们表明,CRCNet不仅可以准确地预测生存预后,还可以进行佐剂化疗的治疗效果。 CRCNET鉴定了来自佐剂化疗的高危亚组益处,在化疗治疗的患者中,观察到辅助化疗最大而显着的存活率。相反,在CRCNET低和中风险亚组中观察到最小化疗益处。因此,CRCNET可能在阶段II / III CRC的指导治疗方面具有很大的用途。
translated by 谷歌翻译
Few Shot Instance Segmentation (FSIS) requires models to detect and segment novel classes with limited several support examples. In this work, we explore a simple yet unified solution for FSIS as well as its incremental variants, and introduce a new framework named Reference Twice (RefT) to fully explore the relationship between support/query features based on a Transformer-like framework. Our key insights are two folds: Firstly, with the aid of support masks, we can generate dynamic class centers more appropriately to re-weight query features. Secondly, we find that support object queries have already encoded key factors after base training. In this way, the query features can be enhanced twice from two aspects, i.e., feature-level and instance-level. In particular, we firstly design a mask-based dynamic weighting module to enhance support features and then propose to link object queries for better calibration via cross-attention. After the above steps, the novel classes can be improved significantly over our strong baseline. Additionally, our new framework can be easily extended to incremental FSIS with minor modification. When benchmarking results on the COCO dataset for FSIS, gFSIS, and iFSIS settings, our method achieves a competitive performance compared to existing approaches across different shots, e.g., we boost nAP by noticeable +8.2/+9.4 over the current state-of-the-art FSIS method for 10/30-shot. We further demonstrate the superiority of our approach on Few Shot Object Detection. Code and model will be available.
translated by 谷歌翻译