User equipment is one of the main bottlenecks facing the gaming industry nowadays. The extremely realistic games which are currently available trigger high computational requirements of the user devices to run games. As a consequence, the game industry has proposed the concept of Cloud Gaming, a paradigm that improves gaming experience in reduced hardware devices. To this end, games are hosted on remote servers, relegating users' devices to play only the role of a peripheral for interacting with the game. However, this paradigm overloads the communication links connecting the users with the cloud. Therefore, service experience becomes highly dependent on network connectivity. To overcome this, Cloud Gaming will be boosted by the promised performance of 5G and future 6G networks, together with the flexibility provided by mobility in multi-RAT scenarios, such as WiFi. In this scope, the present work proposes a framework for measuring and estimating the main E2E metrics of the Cloud Gaming service, namely KQIs. In addition, different machine learning techniques are assessed for predicting KQIs related to Cloud Gaming user's experience. To this end, the main key quality indicators (KQIs) of the service such as input lag, freeze percent or perceived video frame rate are collected in a real environment. Based on these, results show that machine learning techniques provide a good estimation of these indicators solely from network-based metrics. This is considered a valuable asset to guide the delivery of Cloud Gaming services through cellular communications networks even without access to the user's device, as it is expected for telecom operators.
translated by 谷歌翻译
Nowadays, distance learning technologies have become very popular. The recent pandemic has had a particularly strong impact on the development of distance education technologies. Kazan Federal University has a distance learning system based on LMS Moodle. This article describes the structure of the OntoMathEdu ecosystem aimed at improving the process of teaching school mathematics courses, and also provides a method for improving the OntoMathEdu ontology structure based on identifying new connections between contextually related concepts.
translated by 谷歌翻译
Reformulating the history matching problem from a least-square mathematical optimization problem into a Markov Decision Process introduces a method in which reinforcement learning can be utilized to solve the problem. This method provides a mechanism where an artificial deep neural network agent can interact with the reservoir simulator and find multiple different solutions to the problem. Such formulation allows for solving the problem in parallel by launching multiple concurrent environments enabling the agent to learn simultaneously from all the environments at once, achieving significant speed up.
translated by 谷歌翻译
ICECUBE是一种用于检测1 GEV和1 PEV之间大气和天体中微子的光学传感器的立方公斤阵列,该阵列已部署1.45 km至2.45 km的南极的冰盖表面以下1.45 km至2.45 km。来自ICE探测器的事件的分类和重建在ICeCube数据分析中起着核心作用。重建和分类事件是一个挑战,这是由于探测器的几何形状,不均匀的散射和冰中光的吸收,并且低于100 GEV的光,每个事件产生的信号光子数量相对较少。为了应对这一挑战,可以将ICECUBE事件表示为点云图形,并将图形神经网络(GNN)作为分类和重建方法。 GNN能够将中微子事件与宇宙射线背景区分开,对不同的中微子事件类型进行分类,并重建沉积的能量,方向和相互作用顶点。基于仿真,我们提供了1-100 GEV能量范围的比较与当前ICECUBE分析中使用的当前最新最大似然技术,包括已知系统不确定性的影响。对于中微子事件分类,与当前的IceCube方法相比,GNN以固定的假阳性速率(FPR)提高了信号效率的18%。另外,GNN在固定信号效率下将FPR的降低超过8(低于半百分比)。对于能源,方向和相互作用顶点的重建,与当前最大似然技术相比,分辨率平均提高了13%-20%。当在GPU上运行时,GNN能够以几乎是2.7 kHz的中位数ICECUBE触发速率的速率处理ICECUBE事件,这打开了在在线搜索瞬态事件中使用低能量中微子的可能性。
translated by 谷歌翻译
这项工作提出了使用遗传算法(GA)在追踪和识别使用计算机断层扫描(CT)图像的人心包轮廓的过程中。我们假设心包的每个切片都可以通过椭圆建模,椭圆形需要最佳地确定其参数。最佳椭圆将是紧随心包轮廓的紧密椭圆形,因此,将人心脏的心外膜和纵隔脂肪适当地分开。追踪和自动识别心包轮廓辅助药物的医学诊断。通常,由于所需的努力,此过程是手动完成或根本不完成的。此外,检测心包可能会改善先前提出的自动化方法,这些方法将与人心脏相关的两种类型的脂肪分开。这些脂肪的量化提供了重要的健康风险标记信息,因为它们与某些心血管病理的发展有关。最后,我们得出的结论是,GA在可行数量的处理时间内提供了令人满意的解决方案。
translated by 谷歌翻译
在水下活动期间获得的图像遭受了水的环境特性,例如浊度和衰减。这些现象会导致颜色失真,模糊和对比度减少。另外,不规则的环境光分布会导致色道不平衡和具有高强度像素的区域。最近的作品与水下图像增强有关,并基于深度学习方法,解决了缺乏生成合成基地真相的配对数据集。在本文中,我们提出了一种基于深度学习的水下图像增强的自我监督学习方法,不需要配对的数据集。提出的方法估计了水下图像中存在的降解。此外,自动编码器重建此图像,并使用估计的降解信息降解其输出图像。因此,该策略在训练阶段的损失函数中用降级版本代替了输出图像。此过程\ textIt {Misleads}学会补偿其他降解的神经网络。结果,重建的图像是输入图像的增强版本。此外,该算法还提出了一个注意模块,以减少通过颜色通道不平衡和异常区域在增强图像中产生的高强度区域。此外,提出的方法不需要基本真实。此外,仅使用真实的水下图像来训练神经网络,结果表明该方法在颜色保存,颜色铸造降低和对比度改进方面的有效性。
translated by 谷歌翻译
我们使用基于模型的k均值算法的概括来提出一种聚类时间序列数据的方法,我们称之为k模型。我们证明了该一般算法的收敛性,并将其与用于混合模型的硬EM算法相关联。然后,我们首先使用AR($ p $)聚类示例应用我们的方法,并展示如何使用最小值的偏置偏差标准使群集算法变得可靠。然后,我们为ARMA($ P,Q $)构建了聚类算法,并将其扩展到Arima($ P,D,Q $)。我们针对基于Ljung-Box统计量拟合的模型开发了拟合统计量的优点。我们使用模拟数据执行实验,以说明如何将算法用于离群检测,检测分布漂移以及讨论初始化方法对空簇的影响。我们还对真实数据进行实验,该实验表明我们的方法与其他现有方法竞争类似的时间序列聚类任务。
translated by 谷歌翻译
量子技术需要准备和操纵纠缠多片状状态的方法。但是,确定给定量子状态是否纠缠还是可分离的问题通常是NP硬性问题,甚至很难检测到给定量子状态的纠缠崩溃的任务。在这项工作中,我们开发了一种使用机器学习技术来揭示纠缠崩溃的方法,该技术被称为“混乱学习”。我们考虑了一个量子状态的家庭,该量子已被参数化,因此在该家族中有一个临界值将单个临界价值分为单独和纠缠。我们证明了“通过混乱的学习”计划使我们能够确定关键价值。具体而言,我们研究了两分,两Qutrit和两分点纠缠状态的方法的性能。此外,我们研究了混淆方案框架中局部去极化和广义振幅阻尼通道的特性。在我们的方法和设置特殊轨迹的参数化中,我们获得了量子通道的纠缠破裂的“相图”,该通道指示纠缠(可分离)状态和纠缠破裂区域的区域。然后,我们扩展了使用“通过混乱的学习”方案来识别任意给定状态是纠缠还是可分离的方式。我们表明,开发的方法为各种状态提供了正确的答案,包括具有积极部分转置的纠缠状态。我们还提出了该方法的更实用的版本,该版本适合研究嘈杂的中间量子设备中的纠缠崩溃。我们使用可用的基于云的IBM量子处理器演示其性能。
translated by 谷歌翻译
压力溃疡在ICU患者中具有很高的患病率,但如果以初始阶段识别,则可预防。在实践中,布拉登规模用于分类高风险患者。本文通过使用MIMIC-III V1.4中可用的数据调查了在电子健康中使用机器学习记录数据的使用。制定了两个主要贡献:评估考虑在住宿期间所有预测的模型的新方法,以及用于机器学习模型的新培训方法。结果与现有技术相比,表现出卓越的性能;此外,所有型号在精密召回曲线中的每个工作点都超过了Braden刻度。 - - les \〜oes por按\〜ao possuem alta preval \ ^ encia em pacientes de Uti e s \〜ao preven \'iveis ao serem endicidificadas em Est \'agios Iniciais。 na pr \'atica materiza-se a escala de braden para classifica \ c {c} \〜ao de pacientes em risco。 Este Artigo Investiga o Uso de Apenizado de M \'Aquina Em Dados de Registros Eletr \ ^ Onicos Para Este Fim,Parir Da Base dados Mimic-III V1.4。 s \〜ao feitas duas contribui \ c {c} \〜oes principais:uma nova abordagem para a avalia \ c {c} \〜ao dos modelos e da escala da escala de braden levando em conta todas作为predi \ c {c} \ 〜oes feitas ao longo das interna \ c {c} \〜oes,euro novo m \'etodo de treinamento para os modelos de aprendizo de m \'aquina。 os结果os overidos superam o estado da arte everifica-se que os modelos superam意义a escala de braden em todos oS pontos de Opera \ c {c} \〜〜ao da curva de precis \〜ao por sensibilidade。
translated by 谷歌翻译
最近已经提出了与紧急磁化动态的互连磁纳环阵列用于储层计算应用,但是对于它们进行计算有用,必须可以优化其动态响应。在这里,我们使用一种现象学模型来证明可以通过调整使用旋转磁场将数据的缩放和输入速率控制到系统中的超级参数来优化这些储存器。我们使用任务独立的指标来评估每组上的这些超参数的戒指的计算能力,并展示这些指标如何直接关联与口头和书面识别任务中的性能相关联。然后,我们通过扩展储库的输出来包括环阵列磁态的多个并发度量,可以进一步改善这些度量。
translated by 谷歌翻译