在机器学习任务中,特别是在预测的任务中,科学家倾向于完全依赖于可用的历史数据,无视未经证实的见解,例如专家意见,民意调查和投注赔率。在本文中,我们提出了一般的三步框架,用于利用专家的洞察机器学习任务,并为体育比赛预测案例研究构建四种具体模型。对于案例研究,我们选择了预测NCAA男子篮球比赛的任务,这是一群近年来一群摇臂比赛的焦点。结果表明,过去模型的良好性能和高分度是偶然的导致,而不是因为良好的性能和稳定的模型。此外,与2019年竞争(> 0.503)的顶级解决方案相比,我们所提出的模型可以实现更低的日志损失平均水平(最佳0.489),并在2017年达到1%,10%和1%,2018年和2019年排行榜分别。
translated by 谷歌翻译
幽默检测和评级的自动化在现代技术中具有有趣的用例,例如人形机器人,聊天机器人和虚拟助手。在本文中,我们提出了一种基于流行的幽默语言理论的短文中检测和评级幽默的新颖方法。提出的技术方法通过将给定文本的句子分开并利用BERT模型来生成每个词来启动。将嵌入式馈送到神经网络中的隐藏层(每个句子的一行)中分离以提取潜在特征。最后,平行线是连接的,以确定句子之间的一致性和其他关系并预测目标值。我们伴随论文提供了一个新颖的数据集,用于幽默检测,其中包括200,000条正式的短文。除了评估我们在新颖数据集上的工作外,我们还参加了一场现场机器学习竞赛,该竞赛的重点是在西班牙推文中评估幽默。在幽默检测实验中,提出的模型获得了0.982和0.869的F1分数,这些实验超过了一般和最先进的模型。在两个对比设置上进行的评估证实了模型的强度和鲁棒性,并提出了在当前任务中实现高准确性的两个重要因素:1)使用句子嵌入和2)在设计拟议模型时利用幽默的语言结构。
translated by 谷歌翻译
Graph neural networks (GNNs) are susceptible to privacy inference attacks (PIAs), given their ability to learn joint representation from features and edges among nodes in graph data. To prevent privacy leakages in GNNs, we propose a novel heterogeneous randomized response (HeteroRR) mechanism to protect nodes' features and edges against PIAs under differential privacy (DP) guarantees without an undue cost of data and model utility in training GNNs. Our idea is to balance the importance and sensitivity of nodes' features and edges in redistributing the privacy budgets since some features and edges are more sensitive or important to the model utility than others. As a result, we derive significantly better randomization probabilities and tighter error bounds at both levels of nodes' features and edges departing from existing approaches, thus enabling us to maintain high data utility for training GNNs. An extensive theoretical and empirical analysis using benchmark datasets shows that HeteroRR significantly outperforms various baselines in terms of model utility under rigorous privacy protection for both nodes' features and edges. That enables us to defend PIAs in DP-preserving GNNs effectively.
translated by 谷歌翻译
对黑暗时代和系外行星(Farside)进行无线电科学调查的遥远阵列是对Lunar Far Side的拟议任务概念,试图在100正方形的区域内部署和操作128双极化的阵列,偶极天线公里。所得的干涉射电望远镜将提供遥远恒星系统的前所未有的无线电图像,从而可以研究冠状质量弹出和能量颗粒事件的微弱无线电特征,还可以导致在其母星的居住区内检测到磁层周围的磁层。同时,Farside还将在一系列红移(z大约50-100)中以全球21厘米信号的全局信号来测量早期宇宙的“黑暗年龄”。阵列中的每个离散天线节点都通过通信和电源系绳连接到中央集线器(位于降落器)。节点是由Cold =可操作的电子设备驱动的,该电子设备连续监测极宽的频率(200 kHz至40 MHz),该频率超过了基于地球的望远镜的能力,该望远镜的功能由两个数量级。实现这种开创性的能力需要在月球表面上制定强大的部署策略,这对于现有高的TRL技术(演示或正在积极发展)是可行的,并且能够在下一代商业地面上传递到地​​表,例如蓝色Origin的蓝月亮着陆器。本文介绍了一种天线包装,放置和表面部署贸易研究,该研究利用了NASA的Jet Propuls实验室开发的束缚移动机器人的最新进展,该机器人用于部署平坦的,天线隔离的,带有光学通信和电源传输的磁带。功能。
translated by 谷歌翻译
特洛伊木马后门是针对神经网络(NN)分类器的中毒攻击,对手试图利用(高度理想的)模型重用属性将特洛伊木马植入模型参数中,以通过中毒训练过程进行后门漏洞。大多数针对特洛伊木马攻击的防御措施都假设了白盒设置,其中防守者可以访问NN的内部状态,或者能够通过它进行后传播。在这项工作中,我们提出了一个更实用的黑盒防御,称为Trojdef,只能在NN上进行前进。 Trojdef试图通过监视输入因随机噪声反复扰动预测置信度的变化来识别和滤除特洛伊木马输入(即用Trojan触发器增强的输入)。我们根据预测输出得出一个函数,该函数称为预测置信度,以决定输入示例是否为特洛伊木马。直觉是,由于错误分类仅取决于触发因素,因此特洛伊木马的输入更加稳定,而由于分类特征的扰动,良性输入会受到损失。通过数学分析,我们表明,如果攻击者在注入后门时是完美的,则将训练特洛伊木马感染的模型以学习适当的预测置信度结合,该模型用于区分特洛伊木马和良性输入,并在任意扰动下。但是,由于攻击者在注入后门时可能不是完美的,因此我们将非线性转换引入了预测置信度,以提高实际环境中的检测准确性。广泛的经验评估表明,即使分类器体系结构,培训过程或超参数变化,Trojdef的表现明显优于州的防御能力,并且在不同的设置下也很稳定。
translated by 谷歌翻译
电子健康记录(EHR)可获得的丰富纵向个体水平数据可用于检查治疗效果异质性。但是,使用EHR数据估算治疗效果提出了几个挑战,包括时变的混杂,重复和时间不一致的协变量测量,治疗分配和结果以及由于辍学导致的损失。在这里,我们开发了纵向数据(SDLD)算法的亚组发现,该算法是一种基于树的算法,用于使用纵向相互作用树算法结合使用纵向相互作用的一般数据驱动的方法,与纵向驱动的方法与纵向驱动的方法结合使用纵向相互作用,以发现具有异质治疗效果的亚组,并进行纵向研究。目标最大似然估计。我们将算法应用于EHR数据,以发现患有人免疫缺陷病毒(HIV)的人群的亚组,他们在接受非Dolutegravir抗逆转录病毒疗法(ART)接受非Dolutegravir抗逆转录病毒疗法(艺术)时的体重增加风险较高。
translated by 谷歌翻译
深度学习模型容易受到对抗性例子的影响,用于产生此类示例的对抗性攻击引起了相当大的研究兴趣。尽管基于最陡峭下降的现有方法已经取得了很高的攻击成功率,但条件不足的问题偶尔会降低其性能。为了解决此限制,我们利用了对这种类型问题有效的共轭梯度(CG)方法,并提出了一种受CG方法启发的新型攻击算法,称为自动结合梯度(ACG)攻击。在最新的健壮模型上进行的大规模评估实验的结果表明,对于大多数模型而言,ACG能够找到比现有SOTA算法自动PGD(APGD)更少迭代的对抗性示例。我们研究了ACG和APGD在多元化和强化方面的搜索性能差异,并定义了一种称为多样性指数(DI)的度量,以量化多样性的程度。从使用该指数对多样性的分析中,我们表明对所提出方法的更多样化的搜索显着提高了其攻击成功率。
translated by 谷歌翻译
该报告概述了建模变革性AI风险(MTAIR)项目的工作,试图在有关高级AI的灾难性风险及其之间的关系中绘制关键的假设,不确定性和分歧。这是基于Ben Cottier和Rohin Shah的较早图,它们以视觉上列出了一些关键分歧(“ Cruxes”),并进行了一些解释。根据广泛的文献综述和与专家的参与,该报告解释了涉及的问题的模型以及最初的基于软件的实施,该实施可以纳入概率估计或其他定量因素,以实现探索,计划和/或决策支持。通过将各种辩论和讨论中的信息收集到一个更连贯的演讲中,我们希望能够更好地讨论和辩论有关的问题。该模型从通过类比的推理和对人工智能的一般性信念进行讨论开始。此后,它提出了一个不同的路径模型,并为高级机器智能提供了技术,以及这些系统能力的进步如何进行的模型,包括有关自我支持,不连续改进的辩论以及的可能性以及分布式,非代理高级智能或较慢的改进。该模型还专门研究了学习优化的问题,以及机器学习系统是否会创建MESA-OPTIMIZES。然后检查了不同的安全研究对先前问题集的影响,以了解研究以及如何在实现更安全的系统中有用。最后,我们讨论了一个不同的故障模式的模型以及控制或接管场景的丧失。
translated by 谷歌翻译
强化学习(RL)为解决各种复杂的决策任务提供了新的机会。但是,现代的RL算法,例如,深Q学习是基于深层神经网络,在Edge设备上运行时的计算成本很高。在本文中,我们提出了QHD,一种高度增强的学习,它模仿了大脑特性,以实现健壮和实时学习。 QHD依靠轻巧的大脑启发模型来学习未知环境中的最佳政策。我们首先建立一个新颖的数学基础和编码模块,该模块将状态行动空间映射到高维空间中。因此,我们开发了一个高维回归模型,以近似Q值函数。 QHD驱动的代理通过比较每个可能动作的Q值来做出决定。我们评估了不同的RL培训批量和本地记忆能力对QHD学习质量的影响。我们的QHD也能够以微小的本地记忆能力在线学习,这与培训批量大小一样小。 QHD通过进一步降低记忆容量和批处理大小来提供实时学习。这使得QHD适用于在边缘环境中高效的增强学习,这对于支持在线和实时学习至关重要。我们的解决方案还支持少量的重播批量大小,与DQN相比,该批量的速度为12.3倍,同时确保质量损失最小。我们的评估显示了实时学习的QHD能力,比最先进的Deep RL算法提供了34.6倍的速度和更高的学习质量。
translated by 谷歌翻译
With the increasing growth of information through smart devices, increasing the quality level of human life requires various computational paradigms presentation including the Internet of Things, fog, and cloud. Between these three paradigms, the cloud computing paradigm as an emerging technology adds cloud layer services to the edge of the network so that resource allocation operations occur close to the end-user to reduce resource processing time and network traffic overhead. Hence, the resource allocation problem for its providers in terms of presenting a suitable platform, by using computational paradigms is considered a challenge. In general, resource allocation approaches are divided into two methods, including auction-based methods(goal, increase profits for service providers-increase user satisfaction and usability) and optimization-based methods(energy, cost, network exploitation, Runtime, reduction of time delay). In this paper, according to the latest scientific achievements, a comprehensive literature study (CLS) on artificial intelligence methods based on resource allocation optimization without considering auction-based methods in various computing environments are provided such as cloud computing, Vehicular Fog Computing, wireless, IoT, vehicular networks, 5G networks, vehicular cloud architecture,machine-to-machine communication(M2M),Train-to-Train(T2T) communication network, Peer-to-Peer(P2P) network. Since deep learning methods based on artificial intelligence are used as the most important methods in resource allocation problems; Therefore, in this paper, resource allocation approaches based on deep learning are also used in the mentioned computational environments such as deep reinforcement learning, Q-learning technique, reinforcement learning, online learning, and also Classical learning methods such as Bayesian learning, Cummins clustering, Markov decision process.
translated by 谷歌翻译