在本文中,我们引入了一种新算法,该算法基于原型分析,用于假设末日成员的线性混合,用于盲目的高光谱脉冲。原型分析是该任务的自然表述。该方法不需要存在纯像素(即包含单个材料的像素),而是将末端成员表示为原始高光谱图像中几个像素的凸组合。我们的方法利用了熵梯度下降策略,(i)比传统的原型分析算法为高光谱脉冲提供更好的解决方案,并且(ii)导致有效的GPU实现。由于运行我们算法的单个实例很快,我们还提出了一个结合机制以及适当的模型选择程序,该过程使我们的方法可鲁棒性到超参数选择,同时保持计算复杂性合理。通过使用六个标准的真实数据集,我们表明我们的方法的表现优于最先进的矩阵分解和最新的深度学习方法。我们还提供开源pytorch实施:https://github.com/inria-thoth/edaa。
translated by 谷歌翻译
光学相干断层扫描(OCT)有助于眼科医生评估黄斑水肿,流体的积累以及微观分辨率的病变。视网膜流体的定量对于OCT引导的治疗管理是必需的,这取决于精确的图像分割步骤。由于对视网膜流体的手动分析是一项耗时,主观和容易出错的任务,因此对快速和健壮的自动解决方案的需求增加了。在这项研究中,提出了一种名为Retifluidnet的新型卷积神经结构,用于多级视网膜流体分割。该模型受益于层次表示使用新的自适应双重注意(SDA)模块的纹理,上下文和边缘特征的学习,多个基于自适应的Skip Connections(SASC)以及一种新颖的多尺度深度自我监督学习(DSL)方案。拟议的SDA模块中的注意机制使该模型能够自动提取不同级别的变形感知表示,并且引入的SASC路径进一步考虑了空间通道相互依存,以串联编码器和解码器单元,从而提高了表示能力。还使用包含加权版本的骰子重叠和基于边缘的连接损失的联合损失函数进行了优化的retifluidnet,其中将多尺度局部损失的几个分层阶段集成到优化过程中。该模型根据三个公开可用数据集进行验证:润饰,Optima和Duke,并与几个基线进行了比较。数据集的实验结果证明了在视网膜OCT分割中提出的模型的有效性,并揭示了建议的方法比现有的最新流体分割算法更有效,以适应各种图像扫描仪器记录的视网膜OCT扫描。
translated by 谷歌翻译
当RIS反射系数得到精确调整时,在可重新配置的智能表面(RISS)中的被动横向形成可以可行,有效的通信方式。在本文中,我们提出了一个框架,以从Terahertz(THZ)通信系统中的时间序列预测的角度进行深入学习,以跟踪RIS反射系数。所提出的框架对类似的学习驱动的框架实现了两步的增强。具体而言,在第一步中,我们训练液态机器(LSM)在先前的时间步长(称为时间序列序列)上跟踪历史RIS反射系数,并预测其即将到来的时间步骤。我们还通过Xavier初始化技术微调了训练的LSM,以降低预测方差,从而导致更高的预测准确性。在第二步中,我们使用集合学习技术,该技术利用多个LSM的预测能力来最大程度地减少预测差异并提高第一步的精度。从数值上证明,在第一步中,采用Xavier初始化技术来微调LSM最多的LSM预测差异最多可使LSM降低26%,并且在现有的对应物中提高了46%可实现的光谱效率(SE),当部署11x11的RIS时。在第二步中,在训练单个LSM的相同计算复杂性下,具有多个LSM的集合学习降低了单个LSM的预测差异高达66%,并最多可提高可实现的SE系统。
translated by 谷歌翻译
本文着重于根据数据包输送比率(PDR)(即,在远程广阔的区域(Lorawan)中通过End Devices(EDS)发送)的数据包数量来改善资源分配算法。设置传输参数会显着影响PDR。我们采用强化学习(RL)提出了一种资源分配算法,该算法使ED可以以分布式方式配置其传输参数。我们将资源分配问题建模为多臂强盗(MAB),然后通过提出一种名为Mix-MAB的两相算法来解决它,该算法由探索和开发(EXP3)和连续消除(SE)组成,该算法由指数重量组成(SE)算法。我们通过仿真结果评估混合MAB性能,并将其与其他现有方法进行比较。数值结果表明,就收敛时间和PDR而言,所提出的解决方案的性能优于现有方案。
translated by 谷歌翻译