为什么普通语言模糊不清?我们认为,在合作扬声器没有完全了解世界的情况下,使用模糊表达可以在真实性(Gricean质量)和信息性之间提供最佳权衡(Gricean数量)。专注于诸如“周围”的近似的表达,这表明他们允许扬声器传达间接概率信息,这种信息可以使听众更准确地表示发言者可用的信息的信息。更精确的表达将是(之间的间隔“)。也就是说,模糊的句子可以比他们精确的对应物更有信息。我们对“周围”解释的概率处理,并提供了解释和使用“围绕” - 理性语音法(RSA)框架的典范。在我们的账户中,扬声器分配事项的形状不是由RSA框架标准用于模糊谓词的词汇不确定性模型的方式预测。我们利用我们的方法绘制关于模糊表达的语义灵活性的进一步教训及其对更精确的含义的不可缩短。
translated by 谷歌翻译
尽管大量的工作已经审查了条件句子的含义,但对其务实使用和解释的正式模型的关注要少得多。在这里,我们采用一种概率方法来实用务实的推理,以灵活地整合有关富有结构化世界国家的梯度信念。我们基于关于说话者的话语生产方案的假设,对听众对他们先前关于世界因果结构的信念以及随之而来的前身的共同概率进行了建模。我们表明,当提供自然上下文假设时,我们的模型统一地解释了文献中的许多推论,包括认识论推断,条件完美以及对条件和条件的依赖性。我们认为,这种方法还有助于解释杜文(Douven,2012)引入的三个难题有关有条件的更新:取决于话语背景,听众对先决条件的信念可能会增加,减少或保持不变。
translated by 谷歌翻译
语言是协调问题的强大解决方案:他们提供了稳定的,有关我们所说的单词如何对应于我们头脑中的信仰和意图的共同期望。然而,在变量和非静止社会环境中的语言使用需要语言表征来灵活:旧词在飞行中获取新的临时或合作伙伴特定含义。在本文中,我们介绍了柴(通过推理的连续分层适应),一个分层贝叶斯的协调理论和会议组织,旨在在这两个基本观察之间调和长期张力。我们认为,沟通的中央计算问题不仅仅是传输,如在经典配方中,而是在多个时间尺度上持续学习和适应。合作伙伴特定的共同点迅速出现在数型互动中的社会推论中,而社群范围内的社会公约是稳定的前锋,这些前锋已经抽象出与多个合作伙伴的互动。我们展示了新的实证数据,展示了我们的模型为多个现象提供了对先前账户挑战的计算基础:(1)与同一合作伙伴的重复互动的更有效的参考表达的融合(2)将合作伙伴特定的共同基础转移到陌生人,并(3)交际范围的影响最终会形成。
translated by 谷歌翻译
The notion of uncertainty is of major importance in machine learning and constitutes a key element of machine learning methodology. In line with the statistical tradition, uncertainty has long been perceived as almost synonymous with standard probability and probabilistic predictions. Yet, due to the steadily increasing relevance of machine learning for practical applications and related issues such as safety requirements, new problems and challenges have recently been identified by machine learning scholars, and these problems may call for new methodological developments. In particular, this includes the importance of distinguishing between (at least) two different types of uncertainty, often referred to as aleatoric and epistemic. In this paper, we provide an introduction to the topic of uncertainty in machine learning as well as an overview of attempts so far at handling uncertainty in general and formalizing this distinction in particular.
translated by 谷歌翻译
语言不仅用于通知。我们经常寻求通过争论赞成特定观点来说服。说服提出了许多对信仰更新的古典账户的挑战,因为信息不能以面值采取。在包含新信息时,应如何占发言者的“隐藏议程”?在这里,我们延长了最近的递归社会推理概率模型,以便有说服力的目标,并表明我们的模型为什么为什么弱良好的争论可能反馈,这是一种称为弱证据效应的现象。批判性地,我们的模型预测了信仰更新和演讲者期望之间的关系:当时扬声器在有说服力的目标下行动时,弱的证据应该只有反馈,这意味着没有更强的证据。我们介绍了一个简单的实验范式,称为棍棒竞赛,以衡量弱证据效应取决于发言者期望的程度,并表明务实的侦听器模型占经验数据比替代模型更好。我们的研究结果表明了社会推理的理性模型的潜在途径,以进一步照亮决策现象。
translated by 谷歌翻译
对指示性有条件的研究通常旨在确定其真实条件,或者解释我们应该如何与他们进行推理以及何时可以主张它们。本文通过阐明指示性有条件的三价,真实功能的真理条件来整合这些语义和认识论项目。基于此框架,我们提供了有条件概率的非经典说明,以及有条件推理的两个逻辑:(i)从某些前提中推断的逻辑C,可以推断推断推理;(ii)从不确定前提中推断的逻辑U,概括了不诚实的推理。两种逻辑在其领域都非常有吸引力。它们为有条件推理提供了一个统一的框架,概括了现有理论(例如,亚当斯的“合理推论”逻辑),并对有关Modus Ponens,Import-Export和其他条件逻辑原理的争议进行了深入的分析。
translated by 谷歌翻译
这项正在进行的工作旨在为统计学习提供统一的介绍,从诸如GMM和HMM等经典模型到现代神经网络(如VAE和扩散模型)缓慢地构建。如今,有许多互联网资源可以孤立地解释这一点或新的机器学习算法,但是它们并没有(也不能在如此简短的空间中)将这些算法彼此连接起来,或者与统计模型的经典文献相连现代算法出现了。同样明显缺乏的是一个单一的符号系统,尽管对那些已经熟悉材料的人(如这些帖子的作者)不满意,但对新手的入境造成了重大障碍。同样,我的目的是将各种模型(尽可能)吸收到一个用于推理和学习的框架上,表明(以及为什么)如何以最小的变化将一个模型更改为另一个模型(其中一些是新颖的,另一些是文献中的)。某些背景当然是必要的。我以为读者熟悉基本的多变量计算,概率和统计以及线性代数。这本书的目标当然不是​​完整性,而是从基本知识到过去十年中极强大的新模型的直线路径或多或少。然后,目标是补充而不是替换,诸如Bishop的\ emph {模式识别和机器学习}之类的综合文本,该文本现在已经15岁了。
translated by 谷歌翻译
我们基于电子价值开发假设检测理论,这是一种与p值不同的证据,允许毫不费力地结合来自常见场景中的几项研究的结果,其中决定执行新研究可能取决于以前的结果。基于E-V值的测试是安全的,即它们在此类可选的延续下保留I型错误保证。我们将增长速率最优性(GRO)定义为可选的连续上下文中的电力模拟,并且我们展示了如何构建GRO E-VARIABLE,以便为复合空缺和替代,强调模型的常规测试问题,并强调具有滋扰参数的模型。 GRO E值采取具有特殊前瞻的贝叶斯因子的形式。我们使用几种经典示例说明了该理论,包括一个样本安全T检验(其中右哈尔前方的右手前锋为GE)和2x2差价表(其中GRE之前与标准前沿不同)。分享渔业,奈曼和杰弗里斯·贝叶斯解释,电子价值观和相应的测试可以提供所有三所学校的追随者可接受的方法。
translated by 谷歌翻译
机器学习通常以经典的概率理论为前提,这意味着聚集是基于期望的。现在有多种原因可以激励人们将经典概率理论作为机器学习的数学基础。我们系统地检查了一系列强大而丰富的此类替代品,即各种称为光谱风险度量,Choquet积分或Lorentz规范。我们提出了一系列的表征结果,并演示了使这个光谱家族如此特别的原因。在此过程中,我们证明了所有连贯的风险度量的自然分层,从它们通过利用重新安排不变性Banach空间理论的结果来诱导的上层概率。我们凭经验证明了这种新的不确定性方法如何有助于解决实用的机器学习问题。
translated by 谷歌翻译
我们回顾了有关模型的文献,这些文献试图解释具有金钱回报的正常形式游戏所描述的社交互动中的人类行为。我们首先涵盖社会和道德偏好。然后,我们专注于日益增长的研究,表明人们对描述行动的语言做出反应,尤其是在激活道德问题时。最后,我们认为行为经济学正处于向基于语言的偏好转变的范式中,这将需要探索新的模型和实验设置。
translated by 谷歌翻译
知识可定义是合理的真实信念(“JTB”)?我们认为,人们可以积极地或负面地回答,具体取决于一个人的真实信仰是否合理,我们称之为足够的原因。为了促进我们的论点,我们介绍了一个简单的基于理性的信念的命题逻辑,并提出了充分性的概念的公理表征。我们表明,此逻辑足以灵活,以适应各种有用的功能,包括由于原因的量化。我们使用我们的框架对比JTB的两位概念进行对比:一个内部家,另一家族。我们认为Gettier案例基本上挑战了内部概念,但不是外科医生。我们的方法致力于一系列关于知识的非押金主义,但它也让我们陷入困境,即知识是否涉及只有足够的原因,或者留下房间的原因不足。我们赞成后者的立场,这反映了一个更温和和更现实的无押金主义。
translated by 谷歌翻译
语言模型通常仅在文本上进行培训,而无需其他基础。关于从这种过程中可以推断出多少自然语言语义的争论。我们证明,可以从理想的语言模型中提取句子之间的判断,该模型可以完美地了解其目标分布,假设训练句子是由Gricean Agents产生的,即遵循实用学语言学理论的基本交流原理的代理人。我们还表明,可以从对这种Gricean数据训练的语言模型的预测中解码需要判断。我们的结果揭示了一种理解未标记的语言数据中编码的语义信息的途径,以及从语言模型中提取语义的潜在框架。
translated by 谷歌翻译
保证案件旨在为其最高主张的真理提供合理的信心,这通常涉及安全或保障。那么一个自然的问题是,案件提供了“多少”信心?我们认为,置信度不能简化为单个属性或测量。取而代之的是,我们建议它应该基于以三种不同观点的属性为基础:正面,消极和残留疑问。积极的观点考虑了该案件的证据和总体论点结合起来的程度,以表明其主张的信念是正当的。我们为理由设置了一个高标准,要求它是不可行的。对此的主要积极度量是健全性,它将论点解释为逻辑证明。对证据的信心可以概率地表达,我们使用确认措施来确保证据的“权重”跨越了一定的阈值。此外,可以通过使用概率逻辑的参数步骤从证据中汇总概率,以产生我们所谓的索赔概率估值。负面观点记录了对案件的怀疑和挑战,通常表示为叛逆者及其探索和解决。保证开发商必须防止确认偏见,并应在制定案件时大力探索潜在的叛逆者,并应记录下来及其解决方案,以避免返工并帮助审阅者。残留疑问:世界不确定,因此并非所有潜在的叛逆者都可以解决。我们探索风险,可能认为它们是可以接受或不可避免的。但是,至关重要的是,这些判断是有意识的判断,并且在保证案例中记录下来。本报告详细介绍了这些观点,并指示了我们的保证2.0的原型工具集如何协助他们的评估。
translated by 谷歌翻译
基于AI和机器学习的决策系统已在各种现实世界中都使用,包括医疗保健,执法,教育和金融。不再是牵强的,即设想一个未来,自治系统将推动整个业务决策,并且更广泛地支持大规模决策基础设施以解决社会最具挑战性的问题。当人类做出决定时,不公平和歧视的问题普遍存在,并且当使用几乎没有透明度,问责制和公平性的机器做出决定时(或可能会放大)。在本文中,我们介绍了\ textit {Causal公平分析}的框架,目的是填补此差距,即理解,建模,并可能解决决策设置中的公平性问题。我们方法的主要见解是将观察到数据中存在的差异的量化与基本且通常是未观察到的因果机制收集的因果机制的收集,这些机制首先会产生差异,挑战我们称之为因果公平的基本问题分析(FPCFA)。为了解决FPCFA,我们研究了分解差异和公平性的经验度量的问题,将这种变化归因于结构机制和人群的不同单位。我们的努力最终达到了公平地图,这是组织和解释文献中不同标准之间关系的首次系统尝试。最后,我们研究了进行因果公平分析并提出一本公平食谱的最低因果假设,该假设使数据科学家能够评估不同影响和不同治疗的存在。
translated by 谷歌翻译
对未来观察的预测是一个重要且具有挑战性的问题。分别量化预测不确定性使用预测区域和预测分布的两种主流方法,后者认为更具信息性,因为它可以执行其他与预测相关的任务。有效性的标准概念(我们在这里称为1型有效性)着重于预测区域的覆盖范围,而与预测分布执行的其他与预测相关的任务相关的有效性概念则缺乏。在这里,我们提出了一个新概念,称为2型有效性,与这些其他预测任务有关。我们建立了2型有效性和相干性能之间的联系,并表明为实现它而需要不精确的概率考虑因素。我们继续表明,可以通过将共形预测输出作为辅音合理性度量的轮廓函数来实现两种类型的预测有效性。我们还基于新的非参数推论模型构建提供了保​​形预测的替代表征,其中辅音的出现是自然的,并证明了其有效性。
translated by 谷歌翻译
本文对法律合同签署的流程产生了逻辑理解,其申请在区间平台上的智能合同的法律承认智能合同的基础上。开发了许多公理和推论规则,可以用于证明从某些内容签署的事实中为合同形成的“思想会议”的前提。除了“提供和验收”的过程之外,该文件还考虑了同行的“签名”,这是一个独立的双方或可能,远程)签署合同的不同副本,而不是将他们的签名放在常见的副本上。有人认为,对应于同行的签名令人满意的签名与句法自我引用的逻辑。使用的公理由正式的语义支持,并研究了逻辑的一些进一步性质。特别是,表明逻辑意味着当合同已签署时,各方不仅仅是一致,而且是关于合同条款的相互协议(一个共同知识的概念)。
translated by 谷歌翻译
我们探索了一个新的强盗实验模型,其中潜在的非组织序列会影响武器的性能。上下文 - 统一算法可能会混淆,而那些执行正确的推理面部信息延迟的算法。我们的主要见解是,我们称之为Deconfounst Thompson采样的算法在适应性和健壮性之间取得了微妙的平衡。它的适应性在易于固定实例中带来了最佳效率,但是在硬性非平稳性方面显示出令人惊讶的弹性,这会导致其他自适应算法失败。
translated by 谷歌翻译
本文迈出了从实验中学习的逻辑的第一步。为此,我们调查了建模因果和(定性)认知推理的相互作用的正式框架。对于我们的方法至关重要是一种干预概念的想法,可以用作(真实或假设的)实验的正式表达。在第一步中,我们将众所周知的因果模型与代理人的认知状态的简单HITIKKA样式表示。在生成的设置中,不仅可以对关于变量值的知识以及干预措施如何影响它们,而且可以对其进行交谈,而且还可以谈论知识更新。由此产生的逻辑可以模拟关于思想实验的推理。但是,它无法解释从实验中学习,这显然是由它验证干预措施没有学习原则的事实。因此,在第二步中,我们实现更复杂的知识概念,该知识概念允许代理在进行实验时观察(测量)某些变量。该扩展系统确实允许从实验中学习。对于所有提出的逻辑系统,我们提供了一种声音和完整的公理化。
translated by 谷歌翻译
在本文中,我们得出了“上下文中的单词含义”的概念,将其描述为强化和概念。我们介绍了一个框架,用于在上下文中指定对单词含义的局部和全局约束以及它们的相互作用,从而建模在话语解释中观察到的各种词汇转移和歧义。我们将句子表示为“情况描述系统”,这是一种概率模型,它将话语理解是一种对自己描述一种或多种情况描述的心理过程,该过程将解释观察到的话语。我们展示了如何在实践中实现该系统,并将其应用于包含各种背景化现象的示例。
translated by 谷歌翻译
象征性的AI社区越来越多地试图在神经符号结构中接受机器学习,但由于文化障碍,仍在挣扎。为了打破障碍,这份相当有思想的个人备忘录试图解释和纠正统计,机器学习和深入学习的惯例,从局外人的角度进行深入学习。它提供了一个分步协议,用于设计一个机器学习系统,该系统满足符号AI社区认真对待所必需的最低理论保证,即,它讨论“在哪些条件下,我们可以停止担心和接受统计机器学习。 “一些亮点:大多数教科书都是为计划专门研究STAT/ML/DL的人编写的,应该接受术语。该备忘录适用于经验丰富的象征研究人员,他们听到了很多嗡嗡声,但仍然不确定和持怀疑态度。有关STAT/ML/DL的信息目前太分散或嘈杂而无法投资。此备忘录优先考虑紧凑性,并特别注意与象征性范式相互共鸣的概念。我希望这份备忘录能节省时间。它优先考虑一般数学建模,并且不讨论任何特定的函数近似器,例如神经网络(NNS),SVMS,决策树等。它可以对校正开放。将此备忘录视为与博客文章相似的内容,采用有关Arxiv的论文的形式。
translated by 谷歌翻译