在本文中,我们提出了一种新型的模板匹配方法,其白色平衡调整称为n-White平衡,该方法是针对多胸罩场景提出的。为了减少照明效应的影响,将n-白平衡应用于多弹性颜色恒定的图像,然后通过使用调整后的图像进行模板匹配方法。在实验中,在各种照明条件下,提出的方法的有效性在对象检测任务中有效。
translated by 谷歌翻译
我们提出了一种考虑反射率一致性的新型内在图像分解网络。内在图像分解旨在将图像分解为照明 - 不变和照明变体组分,分别称为“反射率”和“遮荫”。虽然有三种一致性的反射率和阴影应该满足,但由于使用白光分解模型和缺乏捕获相同对象的训练图像,大多数传统工作都没有足够地占对反射率的一致性的一致性。照明 - 亮度和可核心条件。因此,通过使用色光模型在所提出的网络中考虑三个一致性,并利用从各种照明条件下拍摄的图像计算的损耗训练网络。另外,所提出的网络可以以自我监督的方式训练,因为可以容易地模拟各种照明条件。实验结果表明,我们的网络可以将图像分解成反射率和阴影组件。
translated by 谷歌翻译
The aim of colour constancy is to discount the effect of the scene illumination from the image colours and restore the colours of the objects as captured under a 'white' illuminant. For the majority of colour constancy methods, the first step is to estimate the scene illuminant colour. Generally, it is assumed that the illumination is uniform in the scene. However, real world scenes have multiple illuminants, like sunlight and spot lights all together in one scene. We present in this paper a simple yet very effective framework using a deep CNN-based method to estimate and use multiple illuminants for colour constancy. Our approach works well in both the multi and single illuminant cases. The output of the CNN method is a region-wise estimate map of the scene which is smoothed and divided out from the image to perform colour constancy. The method that we propose outperforms other recent and state of the art methods and has promising visual results.
translated by 谷歌翻译
在本文中,我们提出了一种添加在生成的对抗网络(GaN)中不可替代的约束的方法(GaN)的任意大小原始拜耳图像生成。理论上,通过使用GaN培训中的转换数据来说,它能够改善原始数据分布的学习,由于在可逆性和可微分的变换下的两个分布之间的Jensen-Shannon(JS)发散。受益于所提出的方法,可以通过将变换配置为Demosaicing来生成原始拜耳图案图像。结果表明,通过添加另一个变换,所提出的方法能够合成具有任意尺寸的高质量未加工拜耳图像。实验结果表明,所提出的方法生成的图像优于FR \'Echet Inception距离(FID)得分中的现有方法,峰值信号到噪声比(PSNR),以及平均结构相似度(MSSIM),训练过程更多稳定的。为了提出作者的最佳知识,未加工拜耳域中没有开源,大型图像数据集,这对于研究工程至关重要,旨在探索计算机视觉任务的图像信号处理(ISP)管道设计。将现有的常用彩色图像数据集转换为相应的博客版本,所提出的方法可以是对原始图像数据集问题的有希望的解决方案。我们还在实验中显示,通过使用合成的原始拜耳图像训练对象检测框架,可以以端到端的方式(从原始图像到视觉任务)使用,具有可忽略的性能下降。
translated by 谷歌翻译
兴趣点检测是计算机视觉和图像处理中最根本,最关键的问题之一。在本文中,我们对图像特征信息(IFI)提取技术进行了全面综述,以进行利益点检测。为了系统地介绍现有的兴趣点检测方法如何从输入图像中提取IFI,我们提出了IFI提取技术的分类学检测。根据该分类法,我们讨论了不同类型的IFI提取技术以进行兴趣点检测。此外,我们确定了与现有的IFI提取技术有关的主要未解决的问题,以及以前尚未讨论过的任何兴趣点检测方法。提供了现有的流行数据集和评估标准,并评估和讨论了18种最先进方法的性能。此外,还详细阐述了有关IFI提取技术的未来研究方向。
translated by 谷歌翻译
Mapping the seafloor with underwater imaging cameras is of significant importance for various applications including marine engineering, geology, geomorphology, archaeology and biology. For shallow waters, among the underwater imaging challenges, caustics i.e., the complex physical phenomena resulting from the projection of light rays being refracted by the wavy surface, is likely the most crucial one. Caustics is the main factor during underwater imaging campaigns that massively degrade image quality and affect severely any 2D mosaicking or 3D reconstruction of the seabed. In this work, we propose a novel method for correcting the radiometric effects of caustics on shallow underwater imagery. Contrary to the state-of-the-art, the developed method can handle seabed and riverbed of any anaglyph, correcting the images using real pixel information, thus, improving image matching and 3D reconstruction processes. In particular, the developed method employs deep learning architectures in order to classify image pixels to "non-caustics" and "caustics". Then, exploits the 3D geometry of the scene to achieve a pixel-wise correction, by transferring appropriate color values between the overlapping underwater images. Moreover, to fill the current gap, we have collected, annotated and structured a real-world caustic dataset, namely R-CAUSTIC, which is openly available. Overall, based on the experimental results and validation the developed methodology is quite promising in both detecting caustics and reconstructing their intensity.
translated by 谷歌翻译
虽然虚拟生产系统中使用的LED面板可以显示出宽阔的颜色范围的充满活力的图像,但由于狭窄带红色,绿色和蓝色LED的峰值光谱输出,它们在用作照明时会产生有问题的颜色转移。在这项工作中,我们为虚拟生产阶段提供了改进的颜色校准过程,可改善此颜色演绎问题,同时还通过准确的相机内背景颜色。我们通过优化1)在相机视野中可见的LED面板像素来完成此操作,2)相机视野外的像素照亮了对象,并作为后处理,3)相机记录的像素值。结果是,在RGB LED面板虚拟生产阶段拍摄的镜头可以表现出更准确的肤色和服装颜色,同时仍然重现相机内背景的所需颜色。
translated by 谷歌翻译
交通灯检测对于自动驾驶汽车在城市地区安全导航至关重要。公开可用的交通灯数据集不足以开发用于检测提供重要导航信息的遥远交通信号灯的算法。我们介绍了一个新颖的基准交通灯数据集,该数据集使用一对涵盖城市和半城市道路的狭窄角度和广角摄像机捕获。我们提供1032张训练图像和813个同步图像对进行测试。此外,我们提供同步视频对进行定性分析。该数据集包括第1920 $ \ times $ 1080的分辨率图像,覆盖10个不同类别。此外,我们提出了一种用于结合两个相机输出的后处理算法。结果表明,与使用单个相机框架的传统方法相比,我们的技术可以在速度和准确性之间取得平衡。
translated by 谷歌翻译
在本文中,提出了一种颜色边缘检测方法,其中使用多尺度Gabor滤波器从输入颜色图像获得边缘。该方法的主要优点是在保持良好的噪声稳健性的同时,达到了高边缘检测精度。提出的方法包括三个方面:首先,RGB颜色图像由于其宽阔的着色区域和均匀的颜色分布而转换为CIE L*A*B*空间。其次,使用一组Gabor过滤器来平滑输入图像,并提取了色边缘强度图,并将其融合到具有噪声稳健性和准确边缘提取的新ESM中。第三,将熔融ESM嵌入精美探测器的途径中会产生噪声颜色边缘检测器。结果表明,所提出的检测器在检测准确性和噪声过程中具有更好的经验。
translated by 谷歌翻译
The accurate detection and grasping of transparent objects are challenging but of significance to robots. Here, a visual-tactile fusion framework for transparent object grasping under complex backgrounds and variant light conditions is proposed, including the grasping position detection, tactile calibration, and visual-tactile fusion based classification. First, a multi-scene synthetic grasping dataset generation method with a Gaussian distribution based data annotation is proposed. Besides, a novel grasping network named TGCNN is proposed for grasping position detection, showing good results in both synthetic and real scenes. In tactile calibration, inspired by human grasping, a fully convolutional network based tactile feature extraction method and a central location based adaptive grasping strategy are designed, improving the success rate by 36.7% compared to direct grasping. Furthermore, a visual-tactile fusion method is proposed for transparent objects classification, which improves the classification accuracy by 34%. The proposed framework synergizes the advantages of vision and touch, and greatly improves the grasping efficiency of transparent objects.
translated by 谷歌翻译
图像协调旨在调整前景的外观,使其更兼容背景。由于对背景照明方向缺乏了解,现有的作品无法产生现实的前景着色。在本文中,我们将图像协调分解为两个子问题:1)背景图像的照明估计和前景对象的渲染。在解决这两个子问题之前,我们首先通过神经渲染框架学习方向感知的照明描述符,其中密钥是一个着色模块,其将阴影场分解为给定深度信息的多个着色组件。然后我们设计背景照明估计模块,以从背景中提取方向感知的照明描述符。最后,照明描述符与神经渲染框架结合使用,以生成包含新颖谐波阴影的统一前景图像。此外,我们构建了一种照片 - 现实的合成图像协调数据集,其包含基于图像的照明的许多阴影变化。对该数据集的广泛实验证明了该方法的有效性。我们的数据集和代码将公开可用。
translated by 谷歌翻译
就3D成像速度和系统成本而言,单摄像机系统投射单频模式是所有提议的条纹投影概要仪(FPP)系统中的理想选择。该系统需要具有强大的空间相解开(SPU)算法。但是,在复杂场景中,强大的SPU仍然是一个挑战。质量引导的SPU算法需要更有效的方法来识别相位图中不可靠的点,然后再拆卸。端到端深度学习SPU方法面临通用性和解释性问题。本文提出了一种混合方法,该方法结合了FPP中强大的SPU的深度学习和传统的路径跟踪。该混合型SPU方案比传统的质量引导的SPU方法表现出更好的鲁棒性,比端到端深度学习方案更好的解释性以及对看不见的数据的通用性。在多个照明条件和多个FPP系统的真实数据集上进行的实验,图像分辨率不同,条纹的数量,边缘方向和光学波长验证了所提出方法的有效性。
translated by 谷歌翻译
This paper presents a new neural network for enhancing underexposed photos. Instead of directly learning an image-to-image mapping as previous work, we introduce intermediate illumination in our network to associate the input with expected enhancement result, which augments the network's capability to learn complex photographic adjustment from expert-retouched input/output image pairs. Based on this model, we formulate a loss function that adopts constraints and priors on the illumination, prepare a new dataset of 3,000 underexposed image pairs, and train the network to effectively learn a rich variety of adjustment for diverse lighting conditions. By these means, our network is able to recover clear details, distinct contrast, and natural color in the enhancement results. We perform extensive experiments on the benchmark MIT-Adobe FiveK dataset and our new dataset, and show that our network is effective to deal with previously challenging images.
translated by 谷歌翻译
深面识别(FR)在几个具有挑战性的数据集上取得了很高的准确性,并促进了成功的现实世界应用程序,甚至表现出对照明变化的高度鲁棒性,通常被认为是对FR系统的主要威胁。但是,在现实世界中,有限的面部数据集无法完全涵盖由不同的照明条件引起的照明变化。在本文中,我们从新角度(即对抗性攻击)研究对FR的照明的威胁,并确定一项新任务,即对对抗性的重视。鉴于面部图像,对抗性的重新获得旨在在欺骗最先进的深FR方法的同时产生自然重新的对应物。为此,我们首先提出了基于物理模型的对抗重新攻击(ARA),称为反照率基于反击的对抗性重新攻击(AQ-ARA)。它在物理照明模型和FR系统的指导下生成了自然的对抗光,并合成了对抗性重新重新确认的面部图像。此外,我们通过训练对抗性重新确定网络(ARNET)提出自动预测性的对抗重新攻击(AP-ARA),以根据不同的输入面自动以一步的方式自动预测对抗光,从而允许对效率敏感的应用。更重要的是,我们建议将上述数字攻击通过精确的重新确定设备将上述数字攻击转移到物理ARA(PHY-AARA)上,从而使估计的对抗照明条件在现实世界中可再现。我们在两个公共数据集上验证了三种最先进的深FR方法(即面部,街道和符号)的方法。广泛而有见地的结果表明,我们的工作可以产生逼真的对抗性重新贴心的面部图像,轻松地欺骗了fr,从而揭示了特定的光方向和优势的威胁。
translated by 谷歌翻译
在弱光条件下获得的图像将严重影响图像的质量。解决较差的弱光图像质量的问题可以有效地提高图像的视觉质量,并更好地改善计算机视觉的可用性。此外,它在许多领域都具有非常重要的应用。本文提出了基于视网膜的Deanet,以增强弱光图像。它将图像的频率信息和内容信息结合到三个子网络中:分解网络,增强网络和调整网络。这三个子网络分别用于分解,变形,对比度增强和细节保存,调整和图像产生。我们的模型对于所有低光图像都具有良好的良好结果。该模型对公共数据集进行了培训,实验结果表明,就视力和质量而言,我们的方法比现有的最新方法更好。
translated by 谷歌翻译
推断从单个图像的场景照明是计算机视觉和计算机图形中的必不可少的且挑战性的任务。通过回归代表照明参数或直接生成照明映射来估计照明。然而,这些方法通常遭受差的准确性和泛化。本文介绍了几何移动器的光(GMLight),一种采用回归网络和用于有效照明估计的生成投影仪的照明估计框架。我们根据几何光分布,光强度,环境术语和辅助深度参数化照明场景,这可以由回归网络估计。灵感来自地球移动器的距离,我们设计了一种新颖的几何动力损失,以指导光分布参数的准确回归。利用估计的光参数,生成投影机用现实的外观和高频细节合成全景照明图。广泛的实验表明,GALLIVEVES实现了准确的照明估计和卓越的保真度,在欣赏3D对象插入时。该代码可在\ href {https://github.com/fnzhan/illumination- istimation} {https://github.com/fnzhan/illumination-istimation}。
translated by 谷歌翻译
A polarization camera has great potential for 3D reconstruction since the angle of polarization (AoP) and the degree of polarization (DoP) of reflected light are related to an object's surface normal. In this paper, we propose a novel 3D reconstruction method called Polarimetric Multi-View Inverse Rendering (Polarimetric MVIR) that effectively exploits geometric, photometric, and polarimetric cues extracted from input multi-view color-polarization images. We first estimate camera poses and an initial 3D model by geometric reconstruction with a standard structure-from-motion and multi-view stereo pipeline. We then refine the initial model by optimizing photometric rendering errors and polarimetric errors using multi-view RGB, AoP, and DoP images, where we propose a novel polarimetric cost function that enables an effective constraint on the estimated surface normal of each vertex, while considering four possible ambiguous azimuth angles revealed from the AoP measurement. The weight for the polarimetric cost is effectively determined based on the DoP measurement, which is regarded as the reliability of polarimetric information. Experimental results using both synthetic and real data demonstrate that our Polarimetric MVIR can reconstruct a detailed 3D shape without assuming a specific surface material and lighting condition.
translated by 谷歌翻译
在本文中,我们首次提出了一种具有秘密键的访问控制方法,以便没有秘密密钥的未经授权的用户无法从受过训练的模型的性能中受益。该方法使我们不仅可以为授权的用户提供高分段性能,还可以降低未经授权的用户的性能。我们首先指出,对于语义分割的应用,使用加密图像进行分类任务的常规访问控制方法由于性能退化而不直接适用。因此,在本文中,选定的特征图用训练和测试模型的秘密密钥加密,而不是输入图像。在一个实验中,受保护的模型允许授权用户获得与非保护模型的性能几乎相同的性能,但也具有鲁棒性,而无需键入未经授权的访问。
translated by 谷歌翻译
基于事件的相机(ECS)是受生物启发的传感器,它们异步报告每个像素的亮度变化。由于它们的高动态范围,像素带宽,时间分辨率,低功耗和计算简单性,它们对在挑战性照明条件下基于视觉的项目有益,并且可以通过微秒响应时间检测快速运动。第一代EC是单色的,但是颜色数据非常有用,有时对于某些基于视觉的应用程序至关重要。最新的技术使制造商能够建造颜色EC,交易传感器的大小,并与单色模型相比,尽管具有相同的带宽,但与单色模型相比大大降低了分辨率。此外,ECS仅检测光的变化,不会显示静态或缓慢移动的物体。我们介绍了一种使用结构化照明投影仪帮助的单色EC检测完整RGB事件的方法。投影仪在场景上迅速发出了光束的RGB图案,其反射是由EC捕获的。我们结合了ECS和基于投影的技术的好处,并允许将静态或移动物体与商用Ti LightCrafter 4500投影仪和单眼单色EC进行深度和颜色检测,为无框RGB-D传感应用铺平了道路。
translated by 谷歌翻译
卫星摄像机可以为大型区域提供连续观察,这对于许多遥感应用很重要。然而,由于对象的外观信息不足和缺乏高质量数据集,在卫星视频中实现移动对象检测和跟踪仍然具有挑战性。在本文中,我们首先构建一个具有丰富注释的大型卫星视频数据集,用于移动对象检测和跟踪的任务。该数据集由Jilin-1卫星星座收集,并由47个高质量视频组成,对象检测有1,646,038兴趣的情况和用于对象跟踪的3,711个轨迹。然后,我们引入运动建模基线,以提高检测速率并基于累积多帧差异和鲁棒矩阵完成来减少误报。最后,我们建立了第一个用于在卫星视频中移动对象检测和跟踪的公共基准,并广泛地评估在我们数据集上几种代表方法的性能。还提供了综合实验分析和富有魅力的结论。数据集可在https://github.com/qingyonghu/viso提供。
translated by 谷歌翻译