We consider the problem of data classification where the training set consists of just a few data points. We explore this phenomenon mathematically and reveal key relationships between the geometry of an AI model's feature space, the structure of the underlying data distributions, and the model's generalisation capabilities. The main thrust of our analysis is to reveal the influence on the model's generalisation capabilities of nonlinear feature transformations mapping the original data into high, and possibly infinite, dimensional spaces.
translated by 谷歌翻译
有监督的深度学习算法具有自动化筛查,监视和分级的医学图像的巨大潜力。但是,培训表现模型通常需要大量的标记数据,这在医疗领域几乎无法获得。自我监督的对比框架通过首先从未标记的图像中学习来放松这种依赖性。在这项工作中,我们表明使用两种对比方法进行了预处理,即SIMCLR和BYOL,就与年龄相关的黄斑变性(AMD)的临床评估有关深度学习的实用性。在实验中,使用两个大型临床数据集,其中包含7,912名患者的170,427个光学相干断层扫描(OCT)图像,我们评估了从AMD阶段和类型分类到功能性终点的七个下游任务,从七个下游任务进行预处理,从在标签较少的七个任务中,六个任务中有六个显着增加。但是,标准的对比框架具有两个已知的弱点,这些弱点不利于医疗领域的预处理。用于创建正面对比对的几种图像转换不适用于灰度医学扫描。此外,医学图像通常描绘了相同的解剖区域和疾病的严重程度,从而导致许多误导性负面对。为了解决这些问题,我们开发了一种新颖的元数据增强方法,该方法利用了丰富的固有可用患者信息集。为此,我们采用了患者身份,眼睛位置(即左或右)和时间序列数据的记录,以指示典型的不可知的对比关系。通过利用这种经常被忽视的信息,我们元数据增强的对比预处理可带来进一步的好处,并且在下游七个任务中有五个任务中的五个中的五分之一。
translated by 谷歌翻译
语言模型既展示了定量的改进,又展示了新的定性功能,随着规模的增加。尽管它们具有潜在的变革性影响,但这些新能力的特征却很差。为了为未来的研究提供信息,为破坏性的新模型能力做准备,并改善社会有害的效果,至关重要的是,我们必须了解目前和近乎未来的能力和语言模型的局限性。为了应对这一挑战,我们介绍了超越模仿游戏基准(Big Bench)。 Big Bench目前由204个任务组成,由132家机构的442位作者贡献。任务主题是多样的,从语言学,儿童发展,数学,常识性推理,生物学,物理学,社会偏见,软件开发等等。 Big-Bench专注于被认为超出当前语言模型的功能的任务。我们评估了OpenAI的GPT型号,Google内部密集变压器体系结构和大型基础上的开关稀疏变压器的行为,跨越了数百万到数十亿个参数。此外,一个人类专家评估者团队执行了所有任务,以提供强大的基准。研究结果包括:模型性能和校准都随规模改善,但绝对的术语(以及与评估者的性能相比);在模型类中的性能非常相似,尽管带有稀疏性。逐渐和预测的任务通常涉及大量知识或记忆成分,而在临界规模上表现出“突破性”行为的任务通常涉及多个步骤或组成部分或脆性指标;社交偏见通常会随着含糊不清的环境而随着规模而增加,但这可以通过提示来改善。
translated by 谷歌翻译
深度学习(DL)模型为各种医学成像基准挑战提供了最先进的性能,包括脑肿瘤细分(BRATS)挑战。然而,局灶性病理多隔室分割(例如,肿瘤和病变子区)的任务特别具有挑战性,并且潜在的错误阻碍DL模型转化为临床工作流程。量化不确定形式的DL模型预测的可靠性,可以实现最不确定的地区的临床审查,从而建立信任并铺平临床翻译。最近,已经引入了许多不确定性估计方法,用于DL医学图像分割任务。开发指标评估和比较不确定性措施的表现将有助于最终用户制定更明智的决策。在本研究中,我们探索并评估在Brats 2019-2020任务期间开发的公制,以对不确定量化量化(Qu-Brats),并旨在评估和排列脑肿瘤多隔室分割的不确定性估计。该公制(1)奖励不确定性估计,对正确断言产生高置信度,以及在不正确的断言处分配低置信水平的估计数,(2)惩罚导致更高百分比的无关正确断言百分比的不确定性措施。我们进一步基准测试由14个独立参与的Qu-Brats 2020的分割不确定性,所有这些都参与了主要的Brats细分任务。总体而言,我们的研究结果证实了不确定性估计提供了分割算法的重要性和互补价值,因此突出了医学图像分析中不确定性量化的需求。我们的评估代码在HTTPS://github.com/ragmeh11/qu-brats公开提供。
translated by 谷歌翻译
软机器人是一个新兴领域,对需要与环境或人类的安全性和强大的互动的任务产生了有希望的结果,例如抓握,操纵和人机互动。软机器依赖于本质上兼容的部件,并且难以配备传统的刚性传感器,这些传统传感器会干扰其合规性。我们提出了一种高度灵活的触觉传感器,在低成本且易于制造,同时独立于14个出租车测量接触压力。传感器由压阻织物构成,用于高度敏感,连续的响应,以及来自定制设计的柔性印刷电路板,提供高的Taxel密度。从这些TaxLes,可以推断出与传感器的接触位置和强度。在本文中,我们解释了所提出的传感器的设计和制造,表征其输入输出关系,在装备到软机器人RBO手2的硅树脂基气动执行器时,评估其对遵守的影响,并证明传感器提供基于学习的携手对象识别的丰富和有用的反馈。
translated by 谷歌翻译
我们介绍了一种可扩展的方法来实现高斯工艺推断,它将时空滤波与自然梯度变化推断相结合,导致用于多变量数据的非共轭GP方法,其相对于时间线性缩放。我们的自然梯度方法可以应用并行滤波和平滑,进一步降低时间跨度复杂性在时间步长的对数。我们得出了稀疏近似,该稀疏近似值在减少的空间诱导点上构造一个状态空间模型,并且显示用于可分离的马尔可夫内核,完整和稀疏的情况完全恢复标准变分GP,同时表现出有利的计算特性。为了进一步改善空间缩放,我们提出了一种平均场景假设空间位置之间的独立性,当与稀疏性和平行化连接时,这导致了大规模的时空问题的有效和准确的方法。
translated by 谷歌翻译
在本作的工作中,提出了两种基于机器学习的有限变形的本质型模型。使用输入凸神经网络,该模型是过度塑化的,各向异性的并且实现了多种凸起条件,这意味着椭圆形,因此确保了材料稳定性。第一本构模型基于一组多晶硅,各向异性和目标不变。第二种方法在变形梯度,其辅助因子和决定簇方面配制,使用组对称性来满足材料对称条件,以及数据增强以满足客观性大致。数据集的扩展为数据增强方法是基于机械考虑,不需要额外的实验或模拟数据。该模型具有高度具有挑战性的立方晶格超材料的模拟数据,包括有限变形和格子稳定性。基于在实验研究中通常应用的变形,使用适量的校准数据。虽然基于不变的模型显示了几种变形模式的缺点,但是仅基于变形梯度的模型能够非常好地再现和预测有效的材料行为,并且表现出优异的泛化能力。此外,使用分析多晶硅电位产生横向各向同性数据校准模型。在这种情况下,两种模型都表现出优异的结果,展示了PolyConvex神经网络本构模型对其他对称组的直接适用性。
translated by 谷歌翻译
背景:虽然卷积神经网络(CNN)实现了检测基于磁共振成像(MRI)扫描的阿尔茨海默病(AD)痴呆的高诊断准确性,但它们尚未应用于临床常规。这是一个重要原因是缺乏模型可理解性。最近开发的用于导出CNN相关性图的可视化方法可能有助于填补这种差距。我们调查了具有更高准确性的模型还依赖于先前知识预定义的判别脑区域。方法:我们培训了CNN,用于检测痴呆症和Amnestic认知障碍(MCI)患者的N = 663 T1加权MRI扫描的AD,并通过交叉验证和三个独立样本验证模型的准确性= 1655例。我们评估了相关评分和海马体积的关联,以验证这种方法的临床效用。为了提高模型可理解性,我们实现了3D CNN相关性图的交互式可视化。结果:跨三个独立数据集,组分离表现出广告痴呆症与控制的高精度(AUC $ \ GEQUQ $ 0.92)和MCI与控制的中等精度(AUC $ \约0.75美元)。相关性图表明海马萎缩被认为是广告检测的最具信息性因素,其其他皮质和皮质区域中的萎缩额外贡献。海马内的相关评分与海马体积高度相关(Pearson的r $ \大约$ -0.86,p <0.001)。结论:相关性地图突出了我们假设先验的地区的萎缩。这加强了CNN模型的可理解性,这些模型基于扫描和诊断标签以纯粹的数据驱动方式培训。
translated by 谷歌翻译
Semi-supervised learning (SSL) provides a powerful framework for leveraging unlabeled data when labels are limited or expensive to obtain. SSL algorithms based on deep neural networks have recently proven successful on standard benchmark tasks. However, we argue that these benchmarks fail to address many issues that SSL algorithms would face in real-world applications. After creating a unified reimplementation of various widely-used SSL techniques, we test them in a suite of experiments designed to address these issues. We find that the performance of simple baselines which do not use unlabeled data is often underreported, SSL methods differ in sensitivity to the amount of labeled and unlabeled data, and performance can degrade substantially when the unlabeled dataset contains out-ofdistribution examples. To help guide SSL research towards real-world applicability, we make our unified reimplemention and evaluation platform publicly available. 2 * Equal contribution 2 https://github.com/brain-research/realistic-ssl-evaluation 32nd Conference on Neural Information Processing Systems (NeurIPS 2018),
translated by 谷歌翻译
We demonstrate a proof-of-concept of a large language model conducting corporate lobbying related activities. We use an autoregressive large language model (OpenAI's text-davinci-003) to determine if proposed U.S. Congressional bills are relevant to specific public companies and provide explanations and confidence levels. For the bills the model deems as relevant, the model drafts a letter to the sponsor of the bill in an attempt to persuade the congressperson to make changes to the proposed legislation. We use hundreds of ground-truth labels of the relevance of a bill to a company to benchmark the performance of the model, which outperforms the baseline of predicting the most common outcome of irrelevance. However, we test the ability to determine the relevance of a bill with the previous OpenAI GPT-3 model (text-davinci-002), which was state-of-the-art on many language tasks until text-davinci-003 was released on November 28, 2022. The performance of text-davinci-002 is worse than simply always predicting that a bill is irrelevant to a company. These results suggest that, as large language models continue to improve core natural language understanding capabilities, performance on corporate lobbying related tasks will continue to improve. We then discuss why this could be problematic for societal-AI alignment.
translated by 谷歌翻译