机器人通常不会以安全为主要问题创建。对比典型IT系统,私人系统依赖于安全性来处理安全方面。鉴于前者,诸如常见漏洞评分系统(CVS)之类的经典评分方法无法准确捕获机器人漏洞的严重程度。目前的研究工作侧重于创建一个开放,自由地访问机器人漏洞评分系统(RVSS),该系统(RVSS)考虑机器人中的主要相关问题,包括a)机器人安全方面,b)对给定漏洞,c)图书馆和第三个漏洞的下游影响的评估-Party评分评估和D)环境变量,例如自漏洞泄露或网络上的曝光率。最后,提供了与CVSS对比的RVSS的实验评估,并侧重于专注于机器人安全景观。
translated by 谷歌翻译
机器人在社会中取得了相关性,越来越越来越关注关键任务。尽管如此,机器人安全性被低估了。机器人安全性是一种复杂的景观,通常需要一个跨纪的横向落后的横向学科视角。要解决此问题,我们介绍了机器人安全框架(RSF),一种方法,用于在机器人中执行系统安全评估。我们提出,调整和开发特定术语,并提供了在四个主要层次(物理,网络,固件和应用程序)之后实现整体安全评估的指南。我们认为现代机器人应视为同样相关的内部和外部沟通安全。最后,我们倡导“通过默默无闻的安全”。我们得出结论,机器人中的安全领域值得进一步的研究努力。
translated by 谷歌翻译
机器人中的网络安全是一种新兴的主题,它已经获得了显着的牵引力。研究人员最近展示了网络攻击对机器人的一些潜力和影响。这意味着安全相关的不良后果导致人为的伤害,死亡或导致显着的诚信损失明确克服了古典IT世界的隐私问题。在网络安全研究中,使用漏洞数据库是一种非常可靠的工具,可负责揭示软件产品中的漏洞,并提高供应商的意愿来解决这些问题。在本文中,我们争辩说,现有的漏洞数据库的信息密度不足,并且在机器人中的漏洞中显示了一些偏见的内容。本文介绍了机器人漏洞数据库(RVD),该目录,用于机器人中的错误,弱点和漏洞的负责披露。本文旨在描述RVD后面的设计和过程以及相关的披露政策。此外,作者目前已经包含在RVD中的初步选择漏洞,并呼吁机器人和安全社区,以促进消除机器人中的零天漏洞的贡献。
translated by 谷歌翻译
机器人景观正在经历大变化。机器人正在蔓延,很快就会到处。传统上用于工业的系统正在被协作机器人所取代,而在人们的日常活动中介绍了越来越多的专业和消费机器人。机器人越来越多地与它的其他方面交织在一起,并设想以获得更多的自主权,与人类身体相互作用。我们声称,遵循个人计算机(PC)和智能手机,机器人是下一个技术革命,但制造商正在忽略机器人安全性。本文旨在警惕不仅有安全处理的需求,而是从即将到来的技术时代开始的机器人安全性。我们在此提供了一份评论机器人危险的文件,并分析了不面临这些问题的后果。我们强烈地提倡安全 - 首先是必须立即实施的安全方法。
translated by 谷歌翻译
机器人的不安全状态是在舞台上。有关于主要机器人脆弱性及其不利后果的新兴担忧。但是,机器人和网络安全域之间仍有相当大的差距。为了填补这种差距,目前的技术报告提供了机器人CTF(RCTF),一个在线游乐场,用于从任何浏览器中挑战机器人安全性。我们描述了RCTF的架构,并提供了9个方案,黑客可以挑战不同机器人设置的安全性。我们的工作使安全研究人员提供给a)本地复制虚拟机器人方案,b)将网络设置改为模拟真实机器人目标。我们倡导机器人中的黑客动力安全,并通过开放采购我们的场景贡献。
translated by 谷歌翻译
边缘计算是一个将数据处理服务转移到生成数据的网络边缘的范式。尽管这样的架构提供了更快的处理和响应,但除其他好处外,它还提出了必须解决的关键安全问题和挑战。本文讨论了从硬件层到系统层的边缘网络体系结构出现的安全威胁和漏洞。我们进一步讨论了此类网络中的隐私和法规合规性挑战。最后,我们认为需要一种整体方法来分析边缘网络安全姿势,该姿势必须考虑每一层的知识。
translated by 谷歌翻译
人工智能(AI)系统可以提供许多有益的功能,也可以提供不良事件的风险。一些AI系统可能会出现在社会规模上具有很高或灾难性后果的事件的风险。美国国家标准技术研究所(NIST)正在开发NIST人工智能风险管理框架(AI RMF),作为对AI开发人员和其他人的AI风险评估和管理的自愿指导。 NIST为了解决带有灾难性后果的事件的风险,表示有必要将高级原则转化为可操作的风险管理指导。在本文档中,我们提供了详细的可操作指示建议,旨在识别和管理具有很高或灾难性后果的事件的风险,旨在作为AI RMF版本1.0的NIST的风险管理实践资源(计划于2023年初发布),或适用于AI RMF用户或其他AI风险管理指南和标准。我们还为建议提供方法。我们为AI RMF 1.0提供了可行的指导建议:确定来自AI系统的潜在意外用途和滥用的风险;在风险评估和影响评估范围内包括灾难性风险因素;确定和减轻人权危害;并报告有关AI风险因素在内的信息,包括灾难性风险因素。此外,我们还为后来版本的AI RMF或补充出版物提供有关路线图的其他问题的建议。其中包括:提供AI RMF配置文件,并具有额外的多功能或通用AI的辅助指南。我们的目标是使这项工作成为具体的风险管理实践的贡献,并激发有关如何解决AI标准中灾难性风险和相关问题的建设性对话。
translated by 谷歌翻译
The optimal liability framework for AI systems remains an unsolved problem across the globe. In a much-anticipated move, the European Commission advanced two proposals outlining the European approach to AI liability in September 2022: a novel AI Liability Directive and a revision of the Product Liability Directive. They constitute the final, and much-anticipated, cornerstone of AI regulation in the EU. Crucially, the liability proposals and the EU AI Act are inherently intertwined: the latter does not contain any individual rights of affected persons, and the former lack specific, substantive rules on AI development and deployment. Taken together, these acts may well trigger a Brussels effect in AI regulation, with significant consequences for the US and other countries. This paper makes three novel contributions. First, it examines in detail the Commission proposals and shows that, while making steps in the right direction, they ultimately represent a half-hearted approach: if enacted as foreseen, AI liability in the EU will primarily rest on disclosure of evidence mechanisms and a set of narrowly defined presumptions concerning fault, defectiveness and causality. Hence, second, the article suggests amendments, which are collected in an Annex at the end of the paper. Third, based on an analysis of the key risks AI poses, the final part of the paper maps out a road for the future of AI liability and regulation, in the EU and beyond. This includes: a comprehensive framework for AI liability; provisions to support innovation; an extension to non-discrimination/algorithmic fairness, as well as explainable AI; and sustainability. I propose to jump-start sustainable AI regulation via sustainability impact assessments in the AI Act and sustainable design defects in the liability regime. In this way, the law may help spur not only fair AI and XAI, but potentially also sustainable AI (SAI).
translated by 谷歌翻译
随着数字时代的出现,由于技术进步,每天的任务都是自动化的。但是,技术尚未为人们提供足够的工具和保障措施。随着互联网连接全球越来越多的设备,确保连接设备的问题以均匀的螺旋速率增长。数据盗窃,身份盗窃,欺诈交易,密码妥协和系统漏洞正在成为常规的日常新闻。最近的人工智能进步引起了网络攻击的激烈威胁。 AI几乎应用于不同科学和工程的每个领域。 AI的干预不仅可以使特定任务自动化,而且可以提高效率。因此,很明显,如此美味的传播对网络犯罪分子来说是非常开胃的。因此,传统的网络威胁和攻击现在是``智能威胁''。本文讨论了网络安全和网络威胁,以及传统和智能的防御方式,以防止网络攻击。最终,结束讨论,以潜在的潜在前景结束讨论AI网络安全。
translated by 谷歌翻译
随着全球人口越来越多的人口驱动世界各地的快速城市化,有很大的需要蓄意审议值得生活的未来。特别是,随着现代智能城市拥抱越来越多的数据驱动的人工智能服务,值得记住技术可以促进繁荣,福祉,城市居住能力或社会正义,而是只有当它具有正确的模拟补充时(例如竭尽全力,成熟机构,负责任治理);这些智能城市的最终目标是促进和提高人类福利和社会繁荣。研究人员表明,各种技术商业模式和特征实际上可以有助于极端主义,极化,错误信息和互联网成瘾等社会问题。鉴于这些观察,解决了确保了诸如未来城市技术基岩的安全,安全和可解释性的哲学和道德问题,以为未来城市的技术基岩具有至关重要的。在全球范围内,有能够更加人性化和以人为本的技术。在本文中,我们分析和探索了在人以人为本的应用中成功部署AI的安全,鲁棒性,可解释性和道德(数据和算法)挑战的关键挑战,特别强调这些概念/挑战的融合。我们对这些关键挑战提供了对现有文献的详细审查,并分析了这些挑战中的一个可能导致他人的挑战方式或帮助解决其他挑战。本文还建议了这些域的当前限制,陷阱和未来研究方向,以及如何填补当前的空白并导致更好的解决方案。我们认为,这种严谨的分析将为域名的未来研究提供基准。
translated by 谷歌翻译
机器学习传感器代表了嵌入式机器学习应用程序未来的范式转移。当前的嵌入式机器学习(ML)实例化遭受了复杂的整合,缺乏模块化以及数据流动的隐私和安全问题。本文提出了一个以数据为中心的范式,用于将传感器智能嵌入边缘设备上,以应对这些挑战。我们对“传感器2.0”的愿景需要将传感器输入数据和ML处理从硬件级别隔离到更广泛的系统,并提供一个薄的界面,以模拟传统传感器的功能。这种分离导致模块化且易于使用的ML传感器设备。我们讨论了将ML处理构建到嵌入式系统上控制微处理器的软件堆栈中的标准方法所带来的挑战,以及ML传感器的模块化如何减轻这些问题。 ML传感器提高了隐私和准确性,同时使系统构建者更容易将ML集成到其产品中,以简单的组件。我们提供了预期的ML传感器和说明性数据表的例子,以表现出来,并希望这将建立对话使我们朝着传感器2.0迈进。
translated by 谷歌翻译
当新的计算机安全漏洞被公开披露时,只有一个文本描述。网络安全专家后来提供了使用常见漏洞评分系统(CVSS)的脆弱性严重性分析。具体地,漏洞的不同特征总结成矢量(由一组度量组成),从中计算严重性得分。但是,由于每天披露的漏洞数量大,此过程需要大量的人力,并且在分析漏洞之前,几天可能会通过。我们建议利用自然语言处理领域的最近进步(NLP)来确定CVSS向量和以可说明的方式从其文本描述中的漏洞的相关性严重性得分。为此目的,我们培训了多个BERT分类器,一个用于组成CVSS向量的每个度量。实验结果表明,我们的训练有素的分类器能够以高精度确定CVSS矢量的度量值。从预测的CVSS向量计算的严重性分数也非常接近人类专家归属的真实严重性分数。为了说明目的,基于梯度的输入显着性方法用于确定我们的分类器制作的给定预测的最相关的输入单词。通常,最重要的词语包括与人类社会安全专家的理由同意的术语,使最终用户的解释能够理解。
translated by 谷歌翻译
ROS 2迅速成为机器人行业的标准。基于DDS作为其默认通信中间件并用于安全至关重要的场景中,将安全性添加到机器人和ROS计算图中越来越引起人们的关注。目前的工作介绍了SROS2,这是一系列开发人员工具和库,可促进ROS 2图添加安全性。为了关注SROS2中以可用性为中心的方法,我们提出了一种在遵循DevSecops模型时系统地保护图形的方法。我们还通过提出了一项应用程序案例研究来证明使用安全工具的使用,该案例研究考虑使用Puctor Navigation2和SLAM Toolbox Stacks在Turtlebot3机器人中应用的图形。我们分析了SROS2的当前功能,并讨论了这些缺点,从而为未来的贡献和扩展提供了见解。最终,我们将SROS2呈现为ROS 2的可用安全工具,并认为如果没有可用性,机器人技术的安全性将受到极大的损害。
translated by 谷歌翻译
即将开发我们呼叫所体现的系统的新一代越来越自主和自学习系统。在将这些系统部署到真实上下文中,我们面临各种工程挑战,因为它以有益的方式协调所体现的系统的行为至关重要,确保他们与我们以人为本的社会价值观的兼容性,并且设计可验证安全可靠的人类-Machine互动。我们正在争辩说,引发系统工程将来自嵌入到体现系统的温室,并确保动态联合的可信度,这种情况意识到的情境意识,意图,探索,探险,不断发展,主要是不可预测的,越来越自主的体现系统在不确定,复杂和不可预测的现实世界环境中。我们还识别了许多迫切性的系统挑战,包括可信赖的体现系统,包括强大而人为的AI,认知架构,不确定性量化,值得信赖的自融化以及持续的分析和保证。
translated by 谷歌翻译
随着自主系统成为我们日常生活的一部分,确保其信任度至关重要。有许多用于证明可信赖性的技术。所有这些技术的共同点是需要阐明规格。在本文中,我们对规格进行了广泛的看法,专注于顶级要求,包括但不限于功能,安全性,安全性和其他非功能性属性。本文的主要贡献是对于与指定可信度相关的自主系统社区的一系列高级智力挑战。我们还描述了有关自主系统的许多应用程序域的独特规范挑战。
translated by 谷歌翻译
通过智能连接设备,技术正在逐步重塑国内环境,提高家庭安全和整体环境质量。然而,人口转移和流行病最近展示导致他们房屋中的老年人隔离,产生了可靠的辅助人物的需求。机器人助理是国内福利创新的新前沿。老年人监测只是一个可能的服务应用之一,智能机器人平台可以处理集体福祉。在本文中,我们展示了一个新的辅助机器人,我们通过模块化的基于层的架构开发,使灵活的机械设计与最先进的人工智能进行了灵活的人工智能,以便感知和声音控制。关于以前的机器人助手的作品,我们提出了一个设置有四个麦粉轮的全向平台,这使得自主导航与杂乱环境中的有效障碍物避免。此外,我们设计可控定位装置,以扩展传感器的视觉范围,并改善对用户界面的访问以进行远程呈现和连接。轻量级深度学习解决方案,用于视觉感知,人员姿势分类和声乐命令完全运行机器人的嵌入式硬件,避免了云服务私有数据收集产生的隐私问题。
translated by 谷歌翻译
软件中的质量通常被理解为“根据设计目的的执行”,而安全意味着“软件不会将数据或计算系统置于未经授权访问的风险”。这两个方面似乎有一个联系,但是,我们如何在机器人开发周期中整合它们?在本文中,我们在机器人学中引入Devsecops,这是一系列最佳实践,旨在帮助他们在开发和运营过程中深入植入的机器人植入安全性。首先,我们简要介绍Devops,介绍使用Devsecops添加的值并描述并说明这些实践如何在机器人字段中实现。我们讨论了安全,质量和安全,开放问题与未来研究问题之间的关系。
translated by 谷歌翻译
在迅速增长的海上风电场市场中出现了增加风力涡轮机尺寸和距离的全球趋势。在英国,海上风电业于2019年生产了英国最多的电力,前一年增加了19.6%。目前,英国将进一步增加产量,旨在增加安装的涡轮机容量74.7%,如最近的冠村租赁轮次反映。通过如此巨大的增长,该部门现在正在寻求机器人和人工智能(RAI),以解决生命周期服务障碍,以支持可持续和有利可图的海上风能生产。如今,RAI应用主要用于支持运营和维护的短期目标。然而,前进,RAI在海上风基础设施的全部生命周期中有可能发挥关键作用,从测量,规划,设计,物流,运营支持,培训和退役。本文介绍了离岸可再生能源部门的RAI的第一个系统评论之一。在当前和未来的要求方面,在行业和学术界的离岸能源需求分析了rai的最先进的。我们的评论还包括对支持RAI的投资,监管和技能开发的详细评估。通过专利和学术出版数据库进行详细分析确定的关键趋势,提供了对安全合规性和可靠性的自主平台认证等障碍的见解,这是自主车队中可扩展性的数字架构,适应性居民运营和优化的适应性规划人机互动对人与自治助理的信赖伙伴关系。
translated by 谷歌翻译
本报告介绍了Waymo关于系统疲劳风险管理框架的建议,该框架解决了在ADS技术的公路测试期间疲劳诱导的风险的预防,监测和缓解。所提出的框架仍然可以灵活地纳入持续的改进,并受到最先进的实践,研究,学习和经验的信息(内部和外部的Waymo)。疲劳是涉及人类驾驶员的大部分公路撞车事故的公认因素,缓解疲劳引起的风险仍然是全球研究的公开关注。虽然提出的框架是专门针对SAE 4级广告技术的公路测试而设计的,但它对较低的自动化也具有含义和适用性。
translated by 谷歌翻译
机器人在日常生活中的应用程序以前所未有的节奏增加。由于机器人即将在野外运行“出来”,我们必须确定他们将面临的安全和安全漏洞。机器人研究人员和制造商将注意力集中在新的,更便宜,更可靠的应用程序上。尽管如此,他们常常忽略对抗的环境中的可操作性,其中可信或不受信任的用户可以危害甚至改变机器人的任务。在本文中,我们在下一代机器人中确定了一个安全威胁的新范式。这些威胁掉了超出了已知的硬件或基于网络的威胁,我们必须找到解决它们的新解决方案。这些新威胁包括恶意使用机器人的特权访问,篡改机器人传感器系统,并欺骗机器人的审议陷入有害行为。我们提供了利用现实例子利用这些漏洞的攻击分类,我们概述了有效的对策,以防止更好,检测和减轻它们。
translated by 谷歌翻译