网络安全已经关注了很长一段时间。在最近几年,网络理念的规模和复杂程度越来越大,通过技术的重大进步推动。如今,保护系统和数据对于业务连续性至关重要的不可避免的必要性。因此,已经创建了许多入侵检测系统,以试图减轻这些威胁并有助于及时检测。这项工作提出了一种可解释和解释的混合性入侵检测系统,它利用人工智能方法来实现更好,更持久的安全性。该系统将专家的书面规则和动态知识与决策树算法连续生成,因为从网络活动中出现了新的证据。
translated by 谷歌翻译
人工智能(AI)和机器学习(ML)在网络安全挑战中的应用已在行业和学术界的吸引力,部分原因是对关键系统(例如云基础架构和政府机构)的广泛恶意软件攻击。入侵检测系统(IDS)使用某些形式的AI,由于能够以高预测准确性处理大量数据,因此获得了广泛的采用。这些系统托管在组织网络安全操作中心(CSOC)中,作为一种防御工具,可监视和检测恶意网络流,否则会影响机密性,完整性和可用性(CIA)。 CSOC分析师依靠这些系统来决定检测到的威胁。但是,使用深度学习(DL)技术设计的IDS通常被视为黑匣子模型,并且没有为其预测提供理由。这为CSOC分析师造成了障碍,因为他们无法根据模型的预测改善决策。解决此问题的一种解决方案是设计可解释的ID(X-IDS)。这项调查回顾了可解释的AI(XAI)的最先进的ID,目前的挑战,并讨论了这些挑战如何涉及X-ID的设计。特别是,我们全面讨论了黑匣子和白盒方法。我们还在这些方法之间的性能和产生解释的能力方面提出了权衡。此外,我们提出了一种通用体系结构,该建筑认为人类在循环中,该架构可以用作设计X-ID时的指南。研究建议是从三个关键观点提出的:需要定义ID的解释性,需要为各种利益相关者量身定制的解释以及设计指标来评估解释的需求。
translated by 谷歌翻译
医学事物互联网(IOMT)允许使用传感器收集生理数据,然后将其传输到远程服务器,这使医生和卫生专业人员可以连续,永久地分析这些数据,并在早期阶段检测疾病。但是,使用无线通信传输数据将其暴露于网络攻击中,并且该数据的敏感和私人性质可能代表了攻击者的主要兴趣。在存储和计算能力有限的设备上使用传统的安全方法无效。另一方面,使用机器学习进行入侵检测可以对IOMT系统的要求提供适应性的安全响应。在这种情况下,对基于机器学习(ML)的入侵检测系统如何解决IOMT系统中的安全性和隐私问题的全面调查。为此,提供了IOMT的通用三层体系结构以及IOMT系统的安全要求。然后,出现了可能影响IOMT安全性的各种威胁,并确定基于ML的每个解决方案中使用的优势,缺点,方法和数据集。最后,讨论了在IOMT的每一层中应用ML的一些挑战和局限性,这些挑战和局限性可以用作未来的研究方向。
translated by 谷歌翻译
随着数字时代的出现,由于技术进步,每天的任务都是自动化的。但是,技术尚未为人们提供足够的工具和保障措施。随着互联网连接全球越来越多的设备,确保连接设备的问题以均匀的螺旋速率增长。数据盗窃,身份盗窃,欺诈交易,密码妥协和系统漏洞正在成为常规的日常新闻。最近的人工智能进步引起了网络攻击的激烈威胁。 AI几乎应用于不同科学和工程的每个领域。 AI的干预不仅可以使特定任务自动化,而且可以提高效率。因此,很明显,如此美味的传播对网络犯罪分子来说是非常开胃的。因此,传统的网络威胁和攻击现在是``智能威胁''。本文讨论了网络安全和网络威胁,以及传统和智能的防御方式,以防止网络攻击。最终,结束讨论,以潜在的潜在前景结束讨论AI网络安全。
translated by 谷歌翻译
异常检测领域中的大多数建议仅集中在检测阶段,特别是在最近的深度学习方法上。在提供高度准确的预测的同时,这些模型通常缺乏透明度,充当“黑匣子”。这种批评已经越来越多,即解释在可接受性和可靠性方面被认为非常相关。在本文中,我们通过检查ADMNC(混合数值和分类空间的异常检测)模型来解决此问题,这是一种现有的非常准确的,尽管不透明的异常检测器能够使用数值和分类输入进行操作。这项工作介绍了扩展EADMNC(在混合数值和分类空间上可解释的异常检测),这为原始模型获得的预测提供了解释性。通过Apache Spark Framework,我们保留了原始方法的可伸缩性。 EADMNC利用了先前的ADMNC模型的配方,以提供事前和事后解释性,同时保持原始体系结构的准确性。我们提出了一个事前模型,该模型在全球范围内通过将输入数据分割为均质组,仅使用少数变量来解释输出。我们设计了基于回归树的图形表示,主管可以检查以了解正常数据和异常数据之间的差异。我们的事后解释由基于文本的模板方法组成,该方法在本地提供了支持每个检测的文本参数。我们报告了广泛的现实数据,特别是在网络入侵检测领域的实验结果。使用网络入侵域中的专家知识来评估解释的有用性。
translated by 谷歌翻译
可解释的人工智能(XAI)是提高机器学习(ML)管道透明度的有前途解决方案。我们将开发和利用XAI方法用于防御和进攻性网络安全任务的研究越来越多(但分散的)缩影。我们确定3个网络安全利益相关者,即模型用户,设计师和对手,将XAI用于ML管道中的5个不同目标,即1)启用XAI的决策支持,2)将XAI应用于安全任务,3)3)通过模型验证通过模型验证xai,4)解释验证和鲁棒性,以及5)对解释的进攻使用。我们进一步分类文献W.R.T.目标安全域。我们对文献的分析表明,许多XAI应用程序的设计都几乎没有了解如何将其集成到分析师工作流程中 - 仅在14%的情况下进行了解释评估的用户研究。文献也很少解开各种利益相关者的角色。特别是,在安全文献中将模型设计师的作用最小化。为此,我们提出了一个说明性用例,突显了模型设计师的作用。我们证明了XAI可以帮助模型验证和可能导致错误结论的案例。系统化和用例使我们能够挑战几个假设,并提出可以帮助塑造网络安全XAI未来的开放问题
translated by 谷歌翻译
过去十年已经看到人工智能(AI)的显着进展,这导致了用于解决各种问题的算法。然而,通过增加模型复杂性并采用缺乏透明度的黑匣子AI模型来满足这种成功。为了响应这种需求,已经提出了说明的AI(Xai)以使AI更透明,从而提高关键结构域中的AI。虽然有几个关于Xai主题的Xai主题的评论,但在Xai中发现了挑战和潜在的研究方向,这些挑战和研究方向被分散。因此,本研究为Xai组织的挑战和未来的研究方向提出了系统的挑战和未来研究方向:(1)基于机器学习生命周期的Xai挑战和研究方向,基于机器的挑战和研究方向阶段:设计,开发和部署。我们认为,我们的META调查通过为XAI地区的未来探索指导提供了XAI文学。
translated by 谷歌翻译
Explainable Artificial Intelligence (XAI) is transforming the field of Artificial Intelligence (AI) by enhancing the trust of end-users in machines. As the number of connected devices keeps on growing, the Internet of Things (IoT) market needs to be trustworthy for the end-users. However, existing literature still lacks a systematic and comprehensive survey work on the use of XAI for IoT. To bridge this lacking, in this paper, we address the XAI frameworks with a focus on their characteristics and support for IoT. We illustrate the widely-used XAI services for IoT applications, such as security enhancement, Internet of Medical Things (IoMT), Industrial IoT (IIoT), and Internet of City Things (IoCT). We also suggest the implementation choice of XAI models over IoT systems in these applications with appropriate examples and summarize the key inferences for future works. Moreover, we present the cutting-edge development in edge XAI structures and the support of sixth-generation (6G) communication services for IoT applications, along with key inferences. In a nutshell, this paper constitutes the first holistic compilation on the development of XAI-based frameworks tailored for the demands of future IoT use cases.
translated by 谷歌翻译
机器学习(ML)代表了当前和未来信息系统的关键技术,许多域已经利用了ML的功能。但是,网络安全中ML的部署仍处于早期阶段,揭示了研究和实践之间的显着差异。这种差异在当前的最新目的中具有其根本原因,该原因不允许识别ML在网络安全中的作用。除非广泛的受众理解其利弊,否则ML的全部潜力将永远不会释放。本文是对ML在整个网络安全领域中的作用的首次尝试 - 对任何对此主题感兴趣的潜在读者。我们强调了ML在人类驱动的检测方法方面的优势,以及ML在网络安全方面可以解决的其他任务。此外,我们阐明了影响网络安全部署实际ML部署的各种固有问题。最后,我们介绍了各种利益相关者如何为网络安全中ML的未来发展做出贡献,这对于该领域的进一步进步至关重要。我们的贡献补充了两项实际案例研究,这些案例研究描述了ML作为对网络威胁的辩护的工业应用。
translated by 谷歌翻译
在该立场论文中,我们讨论将零信任(ZT)原理集成到下一代通信网络(5G/6G)中的关键需求。我们强调了挑战,并介绍了智能零信任体系结构(I-ZTA)作为具有不受信任组件的5G/6G网络中的安全框架的概念。尽管网络虚拟化,软件定义的网络(SDN)和基于服务的体系结构(SBA)是5G网络的关键推动者,但在不信任的环境中运行也已成为网络的关键功能。此外,与大量设备的无缝连通性扩大了信息基础设施的攻击表面。在动态不信任的环境中,网络保证要求超出现有静态安全框架以外的革命性体系结构。据我们所知,这是第一张呈现I-ZTA的建筑概念设计的立场论文,可以在其上开发现代人工智能(AI)算法以在不信任的网络中提供信息安全性。我们将关键的ZT原理作为对网络资产安全状态的实时监视,评估单个访问请求的风险以及使用动态信任算法(称为MED组件)决定访问授权的。为了确保易于集成,设想的体系结构采用了基于SBA的设计,类似于5G网络的3GPP规范,通过利用开放无线电访问网络(O-RAN)体系结构具有适当的实时引擎和网络接口来收集必要机器学习数据。因此,这项工作为设计基于机器学习的组件提供了新的研究方向,这些组件为未来的5G/6G网络有助于I-ZTA。
translated by 谷歌翻译
最近一年带来了电动汽车(EV)和相关基础设施/通信的大幅进步。入侵检测系统(ID)被广泛部署在此类关键基础架构中的异常检测。本文提出了一个可解释的异常检测系统(RX-ADS),用于在电动汽车中的CAN协议中进行入侵检测。贡献包括:1)基于窗口的特征提取方法; 2)基于深度自动编码器的异常检测方法; 3)基于对抗机器学习的解释生成方法。在两个基准CAN数据集上测试了提出的方法:OTID和汽车黑客。将RX-ADS的异常检测性能与这些数据集的最新方法进行了比较:HID和GID。 RX-ADS方法提出的性能与HIDS方法(OTIDS数据集)相当,并且具有超出HID和GID方法(CAR HACKING DATASET)的表现。此外,所提出的方法能够为因各种侵入而引起的异常行为产生解释。这些解释后来通过域专家使用的信息来检测异常来验证。 RX-ADS的其他优点包括:1)该方法可以在未标记的数据上进行培训; 2)解释有助于专家理解异常和根课程分析,并有助于AI模型调试和诊断,最终改善了对AI系统的用户信任。
translated by 谷歌翻译
随着网络攻击和网络间谍活动的增长,如今需要更好,更强大的入侵检测系统(IDS)的需求更加有必要。 ID的基本任务是在检测Internet的攻击方面充当第一道防线。随着入侵者的入侵策略变得越来越复杂且难以检测,研究人员已经开始应用新颖的机器学习(ML)技术来有效地检测入侵者,从而保留互联网用户对整个互联网网络安全的信息和整体信任。在过去的十年中,基于ML和深度学习(DL)架构的侵入检测技术的爆炸激增,这些架构在各种基于网络安全的数据集上,例如DARPA,KDDCUP'99,NSL-KDD,CAIDA,CAIDA,CTU--- 13,UNSW-NB15。在这项研究中,我们回顾了当代文献,并提供了对不同类型的入侵检测技术的全面调查,该技术将支持向量机(SVMS)算法作为分类器。我们仅专注于在网络安全中对两个最广泛使用的数据集进行评估的研究,即KDDCUP'99和NSL-KDD数据集。我们提供了每种方法的摘要,确定了SVMS分类器的作用以及研究中涉及的所有其他算法。此外,我们以表格形式对每种方法进行了批判性综述,突出了所调查的每种方法的性能指标,优势和局限性。
translated by 谷歌翻译
人工智能(AI)是塑造未来的颠覆性技术之一。它在主要智能城市解决方案中的数据驱动决策越来越多,包括运输,教育,医疗保健,公共治理和电力系统。与此同时,它在保护Cyber​​威胁,攻击,损害或未授权访问中保护关键网络基础设施时越来越受欢迎。然而,那些传统的AI技术的重要问题之一(例如,深度学习)是,复杂性和复杂性的快速进展推进,并原始是不可诠释的黑匣子。在很多场合,了解控制和信任系统意外或看似不可预测的输出的决策和偏见是非常具有挑战性的。承认,对决策可解释性的控制丧失成为许多数据驱动自动化应用的重要问题。但它可能会影响系统的安全性和可信度吗?本章对网络安全的机器学习应用进行了全面的研究,以表示需要解释来解决这个问题。在这样做的同时,本章首先探讨了智能城市智能城市安全应用程序的AI技术的黑匣子问题。后来,考虑到新的技术范式,解释说明的人工智能(XAI),本章讨论了从黑盒到白盒的过渡。本章还讨论了关于智能城市应用不同自治系统在应用基于AI的技术的解释性,透明度,可辨能力和解释性的过渡要求。最后,它介绍了一些商业XAI平台,在提出未来的挑战和机遇之前,对传统的AI技术提供解释性。
translated by 谷歌翻译
负责任的AI被广泛认为是我们时代最大的科学挑战之一,也是释放AI市场并增加采用率的关键。为了应对负责任的AI挑战,最近已经发布了许多AI伦理原则框架,AI系统应该符合这些框架。但是,没有进一步的最佳实践指导,从业者除了真实性之外没有什么。同样,在算法级别而不是系统级的算法上进行了重大努力,主要集中于数学无关的道德原则(例如隐私和公平)的一部分。然而,道德问题在开发生命周期的任何步骤中都可能发生,从而超过AI算法和模型以外的系统的许多AI,非AI和数据组件。为了从系统的角度操作负责任的AI,在本文中,我们采用了一种面向模式的方法,并根据系统的多媒体文献综述(MLR)的结果提出了负责任的AI模式目录。与其呆在道德原则层面或算法层面上,我们专注于AI系统利益相关者可以在实践中采取的模式,以确保开发的AI系统在整个治理和工程生命周期中负责。负责的AI模式编目将模式分为三组:多层次治理模式,可信赖的过程模式和负责任的逐设计产品模式。这些模式为利益相关者实施负责任的AI提供了系统性和可行的指导。
translated by 谷歌翻译
推荐系统已广泛应用于不同的应用领域,包括能量保存,电子商务,医疗保健,社交媒体等。此类应用需要分析和挖掘大量各种类型的用户数据,包括人口统计,偏好,社会互动等,以便开发准确和精确的推荐系统。此类数据集通常包括敏感信息,但大多数推荐系统专注于模型的准确性和忽略与安全性和用户隐私相关的问题。尽管使用不同的风险减少技术克服这些问题,但它们都没有完全成功,确保了对用户的私人信息的密码安全和保护。为了弥合这一差距,区块链技术作为推动推荐系统中的安全和隐私保存的有希望的策略,不仅是因为其安全性和隐私性突出特征,而且由于其恢复力,适应性,容错和信任特性。本文介绍了涵盖挑战,开放问题和解决方案的基于区块链的推荐系统的整体综述。因此,引入了精心设计的分类,以描述安全和隐私挑战,概述现有框架并在使用区块链之前讨论其应用程序和利益,以指示未来的研究机会。
translated by 谷歌翻译
数字双胞胎最近对工业控制系统(ICS)的模拟,优化和预测维护产生了重大兴趣。最近的研究讨论了在工业系统中使用数字双胞胎进行入侵检测的可能性。因此,这项研究为工业控制系统的基于数字双胞胎的安全框架做出了贡献,从而扩展了其模拟攻击和防御机制的能力。在独立的开源数字双胞胎上实施了四种类型的过程感知攻击方案:命令注入,网络拒绝服务(DOS),计算的测量修改和天真的测量修改。根据八种监督机器学习算法的离线评估,建议将堆叠的合奏分类器作为实时入侵检测。通过组合各种算法的预测,设计的堆叠模型就F1得分和准确性而言优于先前的方法,同时可以在接近实时(0.1秒)中检测和分类入侵。这项研究还讨论了拟议的基于数字双胞胎的安全框架的实用性和好处。
translated by 谷歌翻译
人工智能(AI)模型的黑框性质不允许用户理解和有时信任该模型创建的输出。在AI应用程序中,不仅结果,而且结果的决策路径至关重要,此类Black-Box AI模型还不够。可解释的人工智能(XAI)解决了此问题,并定义了用户可解释的一组AI模型。最近,有几种XAI模型是通过在医疗保健,军事,能源,金融和工业领域等各个应用领域的黑盒模型缺乏可解释性和解释性来解决有关的问题。尽管XAI的概念最近引起了广泛关注,但它与物联网域的集成尚未完全定义。在本文中,我们在物联网域范围内使用XAI模型对最近的研究进行了深入和系统的综述。我们根据其方法和应用领域对研究进行分类。此外,我们旨在专注于具有挑战性的问题和开放问题,并为未来的方向指导开发人员和研究人员进行未来的未来调查。
translated by 谷歌翻译
由于ICS网络中的错误配置/受损IDS导致的误报可能导致严重的经济和运行损坏。为了解决这个问题,研究专注于利用深度学习技术,有助于减少虚假警报。然而,缺点是这些工作通常需要或隐含地假设要值得信赖的物理和网络传感器。隐含数据的信任是使用人工智能或机器学习进行CPS安全的主要问题,因为在临界攻击检测时,它们更有风险,具有更大的可能性和影响,也受到损害。为了解决这个缺点,对如何在不确定性提供良好决策的情况下重新抑制了问题。然后,决定是检测,并且不确定性包括用于基于ML的ID的数据是否受到损害。因此,该工作提供了一种方法,可以通过在未经警报的先前分配知识的情况下处理不确定性来减少CPS电力系统中的误报的方法。具体而言,提出了一种利用Dempster Shafer组合规则的基于证据的方法,以减少虚假警报。设计了多假设质量函数模型,其利用各种监督学习分类器获得的概率分数。使用该模型,提出了一种基于位置域的基于域的融合框架,并以不同的组合规则评估,该规则融合了来自域间和域内传感器的多个证据。该方法在具有在大型合成电网中的中间攻击仿真测试的网络 - 物理电力系统中进行了证明。为了评估绩效,合理性,信仰,雕刻律等。考虑了决策功能的指标。为了提高性能,提出了一种考虑决策度量作为健身功能的特征选择的多目标基于遗传算法。
translated by 谷歌翻译
随着信息技术在所有生命领域中的日益增长的使用,黑客攻击变得比以往任何时候都变得更加有效。同样,随着技术的发展,攻击数字每隔几个月就会成倍增长,并变得更加复杂,因此传统ID效率低下。本文提出了一种解决方案,不仅检测具有更高检测率的新威胁和比已经使用的ID更低的假阳性,而且还可以检测集体和上下文安全攻击。我们通过使用网络聊天机器人(一个深度的复发神经网络:apache Spark框架上的长期短期内存(LSTM))来实现这些结果异常。我们建议合并语言处理,上下文分析,分布式深度学习,大数据,流量分析的异常检测的概念。我们提出了一个模型,该模型描述了网络在其上下文中从数百万数据包中的序列中抽象正常行为,并将它们实时分析以检测点,集体和上下文异常。实验是在MAWI数据集上进行的,它显示出比签名ID的检测率更好,而且比传统异常ID更好。该实验显示较低的假阳性,较高的检测率和更好的点异常检测。至于有上下文和集体异常检测的证明,我们讨论了我们的主张和假设背后的原因。但是,由于硬件限制,该实验是在数据集的随机小子集上进行的,因此我们分享了实验和未来的愿景思想,因为我们希望将来的其他感兴趣的研究人员将来能够充分证明,这些研究人员拥有比我们的硬件基础架构更好的研究人员。
translated by 谷歌翻译
The Internet of Things (IoT) is a system that connects physical computing devices, sensors, software, and other technologies. Data can be collected, transferred, and exchanged with other devices over the network without requiring human interactions. One challenge the development of IoT faces is the existence of anomaly data in the network. Therefore, research on anomaly detection in the IoT environment has become popular and necessary in recent years. This survey provides an overview to understand the current progress of the different anomaly detection algorithms and how they can be applied in the context of the Internet of Things. In this survey, we categorize the widely used anomaly detection machine learning and deep learning techniques in IoT into three types: clustering-based, classification-based, and deep learning based. For each category, we introduce some state-of-the-art anomaly detection methods and evaluate the advantages and limitations of each technique.
translated by 谷歌翻译