几个世纪以来,人类文明设计了金属成型技术制作工具和物品;然而,定制的金属成形仍然昂贵和复杂。激光形成折纸}(Lasergami)是一种金属形成过程,其中激光束切割并折叠平面金属板以形成三维(3D)形状。然而,设计可由激光器可折叠的结构长期以来一直是试验和错误的实践,需要大量的心理努力,并阻碍了创造实际结构的可能性。这项工作首次演示了Lasergami可以形成先前被认为是不可能被激光形成的金属结构的自由形状的。这种技术突破通过新的计算折纸方法实现,该方法模仿花朵盛开和优化激光折叠指令。结合寻址激光视线和最小化制造能源的新想法,我们报告了一个低成本的制造框架,可以通过业余爱好者和专业人士易于采用。
translated by 谷歌翻译
As language models (LMs) scale, they develop many novel behaviors, good and bad, exacerbating the need to evaluate how they behave. Prior work creates evaluations with crowdwork (which is time-consuming and expensive) or existing data sources (which are not always available). Here, we automatically generate evaluations with LMs. We explore approaches with varying amounts of human effort, from instructing LMs to write yes/no questions to making complex Winogender schemas with multiple stages of LM-based generation and filtering. Crowdworkers rate the examples as highly relevant and agree with 90-100% of labels, sometimes more so than corresponding human-written datasets. We generate 154 datasets and discover new cases of inverse scaling where LMs get worse with size. Larger LMs repeat back a dialog user's preferred answer ("sycophancy") and express greater desire to pursue concerning goals like resource acquisition and goal preservation. We also find some of the first examples of inverse scaling in RL from Human Feedback (RLHF), where more RLHF makes LMs worse. For example, RLHF makes LMs express stronger political views (on gun rights and immigration) and a greater desire to avoid shut down. Overall, LM-written evaluations are high-quality and let us quickly discover many novel LM behaviors.
translated by 谷歌翻译
来自光场的大量空间和角度信息允许开发多种差异估计方法。但是,对光场的获取需要高存储和处理成本,从而限制了该技术在实际应用中的使用。为了克服这些缺点,压缩感应(CS)理论使光学体系结构的开发能够获得单个编码的光场测量。该测量是使用需要高计算成本的优化算法或深神经网络来解码的。从压缩光场进行的传统差异估计方法需要首先恢复整个光场,然后再恢复后处理步骤,从而需要长时间。相比之下,这项工作提出了通过省略传统方法所需的恢复步骤来从单个压缩测量中进行快速差异估计。具体而言,我们建议共同优化用于获取单个编码光场快照和卷积神经网络(CNN)的光学体系结构,以估计差异图。在实验上,提出的方法估计了与使用深度学习方法重建的光场相当的差异图。此外,所提出的方法在训练和推理方面的速度比估计重建光场差异的最佳方法要快20倍。
translated by 谷歌翻译
从有限的资源中获得最大收益可以进步自然语言处理(NLP)研究和实践,同时保守资源。这些资源可能是数据,时间,存储或能源。NLP的最新工作从缩放率产生了有趣的结果。但是,仅使用比例来改善结果意味着资源消耗也会扩展。这种关系激发了对有效方法的研究,这些方法需要更少的资源才能获得相似的结果。这项调查涉及NLP效率的方法和发现,旨在指导该领域的新研究人员并激发新方法的发展。
translated by 谷歌翻译
Terahertz(THZ)无线网络有望催化第五代(B5G)时代。但是,由于THZ链接的定向性质和视线需求以及THZ网络的超密集部署,因此需要面对中等访问控制(MAC)层的许多挑战。更详细地,通过合并能够在复杂且经常变化的环境中提供“实时”解决方案的人工智能(AI)来重新思考用户协会和资源分配策略的需求变得明显。此外,为了满足几种B5G应用的超可靠性和低延迟需求,需要采用新颖的移动性管理方法。在此激励的情况下,本文提出了一种整体MAC层方法,该方法可以实现智能用户协会和资源分配以及灵活和适应性移动性管理,同时通过阻止最小化最大化系统的可靠性。更详细地,记录了一个快速和集中的联合用户协会,无线电资源分配和避免避免阻塞的元数据映射机器学习框架,从而最大化THZ网络的性能,同时将关联延迟最小化大约三个幅度范围。 。为了支持访问点(AP)覆盖区域,移动性管理和避免阻塞,讨论了深入的强化学习(DRL)进行梁选择方法。最后,为了支持邻居AP的覆盖范围之间的用户移动性,报告了一种基于AI辅助快速通道预测的主动手部机制。
translated by 谷歌翻译
CT灌注(CTP)是一项体检,用于测量对比度溶液通过像素逐像素的大脑通过大脑的通过。目的是为缺血性病变迅速绘制“灌注图”(即脑血体积,脑血流量和峰值的时间),并能够区分核心和甲瘤区域。在缺血性中风的背景下,精确而快速的诊断可以确定脑组织的命运,并在紧急情况下指导干预和治疗。在这项工作中,我们介绍了UnitObrain数据集,这是CTP的第一个开源数据集。它包括一百多名患者的队列,并伴随着患者元数据和最新算法获得的地面真相图。我们还建议使用欧洲图书馆ECVL和EDDL进行图像处理和开发深度学习模型,提出了一种基于神经网络的新型算法。神经网络模型获得的结果与地面真相相匹配,并为所需数量的CT地图的潜在子采样开辟了道路,这对患者施加了重辐射剂量。
translated by 谷歌翻译
这项工作提出了两种统计方法,用于基于通用和用户依赖模型的击键生物识别数据的合成。两种方法在机器人检测任务上均经过验证,使用击键合成数据来更好地训练系统。我们的实验包括一个来自168,000名受试者的1.36亿击球事件的数据集。我们通过定性和定量实验分析了两种合成方法的性能。根据两个监督分类器(支持向量机和长期的短期内存网络)和一个包括人类和生成的样本在内的学习框架,考虑了不同的机器人探测器。我们的结果证明,所提出的统计方法能够生成现实的人类合成击键样品。此外,分类结果表明,在具有大型标记数据的情况下,可以高精度检测这些合成样品。但是,在几次学习方案中,它代表了一个重要的挑战。
translated by 谷歌翻译
磁共振成像(MRI)是中风成像的中心方式。它被用来接受患者的治疗决定,例如选择患者进行静脉溶栓或血管内治疗。随后在住院期间使用MRI来通过可视化梗塞核心大小和位置来预测结果。此外,它可以用来表征中风病因,例如(心脏) - 栓塞和非胚胎中风之间的区分。基于计算机的自动医疗图像处理越来越多地进入临床常规。缺血性中风病变分割(ISLE)挑战的先前迭代有助于生成鉴定急性和急性缺血性中风病变分割的基准方法。在这里,我们介绍了一个专家注册的多中心MRI数据集,以分割急性到亚急性中风病变。该数据集包括400个多供应商MRI案例,中风病变大小,数量和位置的可变性很高。它分为n = 250的训练数据集和n = 150的测试数据集。所有培训数据将公开可用。测试数据集将仅用于模型验证,并且不会向公众发布。该数据集是Isles 2022挑战的基础,目的是找到算法方法,以实现缺血性中风的稳健和准确分割算法的开发和基准测试。
translated by 谷歌翻译
语言模型既展示了定量的改进,又展示了新的定性功能,随着规模的增加。尽管它们具有潜在的变革性影响,但这些新能力的特征却很差。为了为未来的研究提供信息,为破坏性的新模型能力做准备,并改善社会有害的效果,至关重要的是,我们必须了解目前和近乎未来的能力和语言模型的局限性。为了应对这一挑战,我们介绍了超越模仿游戏基准(Big Bench)。 Big Bench目前由204个任务组成,由132家机构的442位作者贡献。任务主题是多样的,从语言学,儿童发展,数学,常识性推理,生物学,物理学,社会偏见,软件开发等等。 Big-Bench专注于被认为超出当前语言模型的功能的任务。我们评估了OpenAI的GPT型号,Google内部密集变压器体系结构和大型基础上的开关稀疏变压器的行为,跨越了数百万到数十亿个参数。此外,一个人类专家评估者团队执行了所有任务,以提供强大的基准。研究结果包括:模型性能和校准都随规模改善,但绝对的术语(以及与评估者的性能相比);在模型类中的性能非常相似,尽管带有稀疏性。逐渐和预测的任务通常涉及大量知识或记忆成分,而在临界规模上表现出“突破性”行为的任务通常涉及多个步骤或组成部分或脆性指标;社交偏见通常会随着含糊不清的环境而随着规模而增加,但这可以通过提示来改善。
translated by 谷歌翻译
语言模型预训练的最新进展利用大规模数据集创建多语言模型。但是,这些数据集中大多遗漏了低资源语言。这主要是因为网络上没有很好地表示口语,因此被排除在用于创建数据集的大规模爬网中。此外,这些模型的下游用户仅限于最初选择用于预训练的语言的选择。这项工作调查了如何最佳利用现有的预培训模型来为16种非洲语言创建低资源翻译系统。我们关注两个问题:1)如何将预训练的模型用于初始预培训中未包含的语言? 2)生成的翻译模型如何有效地转移到新域?为了回答这些问题,我们创建了一个新的非洲新闻语料库,涵盖16种语言,其中8种语言不属于任何现有评估数据集的一部分。我们证明,将两种语言转移到其他语言和其他领域的最有效策略是,以少量的高质量翻译数据微调大型预训练模型。
translated by 谷歌翻译