语音识别是一种技术,它将人类语音信号转换为文本或单词或以任何形式,可以通过计算机或其他机器容易地理解。有一些关于Bangla Digit识别系统的研究,其中大多数使用的小型数据集几乎没有变体,年龄,方言和其他变量。孟加拉国人民的录音,各种性别,年龄和方言,用于在本研究中创造一个大语音数据集。这里,已记录400个噪声和无噪音样本,用于创建数据集。 MEL频率谱系数(MFCC)已被用于从原始语音数据中提取有意义的功能。然后,为了检测Bangla数字,利用卷积神经网络(CNNS)。建议的技术在整个数据集中识别出“0-9”Bangla口语数字,精度为97.1%。还使用10倍的交叉透过来评估模型的效率,其精度为96.7%。
translated by 谷歌翻译
深度学习(DL)算法在不同领域显示出令人印象深刻的性能。其中,由于一些有趣的模式,在过去的几十年中,音频吸引了许多研究人员 - 尤其是在音频数据的分类中。为了更好地执行音频分类,功能选择和组合起着关键作用,因为它们有可能制造或破坏任何DL模型的性能。为了调查这一角色,我们对具有各种最先进的音频特征的多种尖端DL模型(即卷积神经网络,Extricnet,Mobilenet,Supper Vector Machine和Multi-Pecceptron)的性能进行了广泛的评估。 (即MEL频谱图,MEL频率Cepstral系数和零交叉率)在三个不同的数据集上独立或作为组合(即通过结合)(即免费的口语数据集,音频urdu数据集和Audio Gujarati Digits Digaset数据集) )。总体而言,结果建议特征选择取决于数据集和模型。但是,特征组合应仅限于单独使用时已经实现良好性能的唯一特征(即主要是MEL频谱图,MEL频率Cepstral系数)。这种功能组合/结合使我们能够胜过以前的最新结果,而与我们选择的DL模型无关。
translated by 谷歌翻译
这项研究工作是关于语音识别的最新发展。在这项研究工作中,在存在不同的比特速率和不同噪声水平的情况下对孤立的数字识别的分析。这项研究工作是使用Audacity和HTK工具包进行的。隐藏的马尔可夫模型(HMM)是用于执行此实验的识别模型。所使用的特征提取技术是MEL频率CEPSTRUM系数(MFCC),线性预测编码(LPC),感知线性预测(PLP),MEL SPECTRUM(MELSPEC),FILLE BANK(FBANK)。已经考虑了三种不同的噪声水平来测试数据。这些包括随机噪声,风扇噪声和实时环境中的随机噪声。这样做是为了分析可用于实时应用程序的最佳环境。此外,考虑到不同采样率的五种不同类型的常用比特率,以找出最佳的比特率。
translated by 谷歌翻译
当前的身份验证和可信系统依赖于经典和生物识别方法来识别或授权用户。这些方法包括音频语音识别,眼睛和手指签名。最近的工具利用深度学习和变压器来实现更好的结果。在本文中,我们使用Wav2Vec2.0和Hubert音频表示学习工具开发了阿拉伯语扬声器识别的深度学习构建模型。端到端Wav2Vec2.0范例通过随机掩蔽一组特征向量获取上下文化语音表示了解,然后应用变压器神经网络。我们使用了一个MLP分类器,可以区分不变的标记类。我们展示了几种实验结果,可以保护拟议模型的高精度。实验确保了某些扬声器的任意波信号分别可以分别在Wav2Vec2.0和Hubert的情况下以98%和97.1%的精度识别。
translated by 谷歌翻译
呼吸声分类中的问题已在去年的临床科学家和医学研究员团体中获得了良好的关注,以诊断Covid-19疾病。迄今为止,各种模型的人工智能(AI)进入了现实世界,从人类生成的声音等人生成的声音中检测了Covid-19疾病,例如语音/言语,咳嗽和呼吸。实现卷积神经网络(CNN)模型,用于解决基于人工智能(AI)的机器上的许多真实世界问题。在这种情况下,建议并实施一个维度(1D)CNN,以诊断Covid-19的呼吸系统疾病,例如语音,咳嗽和呼吸。应用基于增强的机制来改善Covid-19声音数据集的预处理性能,并使用1D卷积网络自动化Covid-19疾病诊断。此外,使用DDAE(数据去噪自动编码器)技术来产生诸如输入功能的深声特征,而不是采用MFCC(MEL频率跳跃系数)的标准输入,并且它更好地执行比以前的型号的准确性和性能。
translated by 谷歌翻译
Handwriting Recognition has been a field of great interest in the Artificial Intelligence domain. Due to its broad use cases in real life, research has been conducted widely on it. Prominent work has been done in this field focusing mainly on Latin characters. However, the domain of Arabic handwritten character recognition is still relatively unexplored. The inherent cursive nature of the Arabic characters and variations in writing styles across individuals makes the task even more challenging. We identified some probable reasons behind this and proposed a lightweight Convolutional Neural Network-based architecture for recognizing Arabic characters and digits. The proposed pipeline consists of a total of 18 layers containing four layers each for convolution, pooling, batch normalization, dropout, and finally one Global average pooling and a Dense layer. Furthermore, we thoroughly investigated the different choices of hyperparameters such as the choice of the optimizer, kernel initializer, activation function, etc. Evaluating the proposed architecture on the publicly available 'Arabic Handwritten Character Dataset (AHCD)' and 'Modified Arabic handwritten digits Database (MadBase)' datasets, the proposed model respectively achieved an accuracy of 96.93% and 99.35% which is comparable to the state-of-the-art and makes it a suitable solution for real-life end-level applications.
translated by 谷歌翻译
Vocal Bursts -- short, non-speech vocalizations that convey emotions, such as laughter, cries, sighs, moans, and groans -- are an often-overlooked aspect of speech emotion recognition, but an important aspect of human vocal communication. One barrier to study of these interesting vocalizations is a lack of large datasets. I am pleased to introduce the EmoGator dataset, which consists of 32,040 samples from 365 speakers, 16.91 hours of audio; each sample classified into one of 30 distinct emotion categories by the speaker. Several different approaches to construct classifiers to identify emotion categories will be discussed, and directions for future research will be suggested. Data set is available for download from https://github.com/fredbuhl/EmoGator.
translated by 谷歌翻译
音频是人类交流最常用的方式之一,但与此同时,它很容易被欺骗人们滥用。随着AI的革命,几乎每个人都可以访问相关技术,从而使罪犯犯罪和伪造变得简单。在这项工作中,我们引入了一种深度学习方法,以开发一种分类器,该分类器将盲目地将输入音频分类为真实或模仿。提出的模型接受了从大型音频数据集提取的一组重要功能的培训,以获取分类器,该分类器已在不同音频的相同功能上进行了测试。为这项工作创建了两个数据集;所有英语数据集和混合数据集(阿拉伯语和英语)。这些数据集已通过GitHub提供,可在https://github.com/sass7/dataset上使用研究社区。为了进行比较,还通过人类检查对音频进行了分类,主题是母语人士。随之而来的结果很有趣,并且表现出强大的精度。
translated by 谷歌翻译
这项工作的目的是研究互补的特征,这些特征可以帮助典型的MEL频率经系系数(MFCC),以封闭,有限的set set Word识别为不同母亲说话的英语说话者。与源自语音信号的光谱能量的MFCC不同,提议的频率饮食(FCS)封装了语音光谱不同带的光谱中心,由MEL FILLEC BANK定义。观察到这些功能与MFCC结合使用,可提供英语单词识别的相对性能提高,尤其是在各种嘈杂条件下。两阶段的卷积神经网络(CNN)用于模拟用阿拉伯语,法语和西班牙口音说出的英语单词的特征。
translated by 谷歌翻译
口吃是一种言语障碍,在此期间,语音流被非自愿停顿和声音重复打断。口吃识别是一个有趣的跨学科研究问题,涉及病理学,心理学,声学和信号处理,使检测很难且复杂。机器和深度学习的最新发展已经彻底彻底改变了语音领域,但是对口吃的识别受到了最小的关注。这项工作通过试图将研究人员从跨学科领域聚集在一起来填补空白。在本文中,我们回顾了全面的声学特征,基于统计和深度学习的口吃/不足分类方法。我们还提出了一些挑战和未来的指示。
translated by 谷歌翻译
日常生活中交流最关键的方面之一是言语识别。基于自然语言处理的语音识别是将一个系统转换为另一个系统的基本要素之一。在本文中,我们创建了一个界面,将语音和其他听觉输入转换为使用数字过滤器的文本。与这种转换的许多方法相反,语言缺陷偶尔出现,性别识别,语音识别,失败(无法识别声音)和性别识别失败。由于涉及技术问题,我们开发了一个程序,该程序充当调解人,以防止启动软件问题,以消除这种小偏差。其计划的MFCC和HMM与其AI系统同步。结果,已经避免了技术错误。
translated by 谷歌翻译
构建可用的无线电监控自动语音识别(ASR)系统是资源不足的语言的一项挑战性任务,但这在广播是公众沟通和讨论的主要媒介的社会中至关重要。联合国在乌干达的最初努力证明了如何理解被社交媒体排除在社交媒体中的农村人的看法在国家规划中很重要。但是,由于缺乏转录的语音数据集,这些努力正受到挑战。在本文中,Makerere人工智能研究实验室发布了155小时的Luganda Radio演讲语料库。据我们所知,这是撒哈拉以南非洲第一个公开可用的广播数据集。本文描述了语音语料库的开发,并使用开源语音识别工具包Coqui STT Toolkit提出了基线Luganda ASR绩效结果。
translated by 谷歌翻译
The people in the world who are hearing impaired face many obstacles in communication and require an interpreter to comprehend what a person is saying. There has been constant scientific research and the existing models lack the ability to make accurate predictions. So we propose a deep learning model trained on ASL i.e. American Sign Language which will take actions in the form of ASL as input and translate it into text. To achieve the translation a Convolution Neural Network model and a transfer learning model based on the VGG16 architecture are used. There has been an improvement in accuracy from 94% of CNN to 98.7% of Transfer Learning, an improvement of 5%. An application with the deep learning model integrated has also been built.
translated by 谷歌翻译
手写角色识别一直是模式识别和人工智能领域中的研究中心和基准问题,它仍然是一个充满挑战的研究主题。由于其庞大的应用程序,该领域的许多工作都集中在不同的语言上。阿拉伯语是一种多元化的语言,具有大量的研究范围,并带来了潜在的挑战。本文提出了一种用于识别阿拉伯语手写数字的卷积神经网络模型,该论文的数据集受到各种增强的约束,以增加深度学习方法所需的鲁棒性。提出的方法通过辍学的正则化来授权,以消除数据过度拟合的问题。此外,在激活函数中引入了合适的变化,以克服消失梯度的问题。通过这些修改,所提出的系统的精度为99.4 \%,其性能比数据集上的每项工作都更好。
translated by 谷歌翻译
学龄前评估至关重要,因为它为教师和父母提供了有关儿童成长和成长的关键知识。冠状病毒大流行强调了在线评估学龄前儿童的必要性。这种在线测试需要各种技术,从Web应用程序开发到各种标准(例如语音识别)的各种人工智能模型。由于声学的波动和儿童和成人之间语音频率的差异,因此很难采用自动语音识别(ASR)系统,因为它们是在成年人的声音上预先训练的。此外,培训新模型需要大量数据。为了解决此问题,我们使用具有新的预训练目标的WAV2VEC 2.0模型为认知测试系统构建了ASR,称为随机频率音调(RFP),而我们的新数据集则在无意义的单词(MW)和New DataSet上进行了测试(MW)和快速自动命名(RAN)测试。由于这两个测试的特殊性,我们探索了许多模型,包括卷积神经网络(CNN)和WAV2VEC 2.0模型。我们的新方法在CommonVoice数据集的波斯部分上达到6.45的单词错误率(WER)。此外,我们的新方法在零和少数场景中产生积极的结果。
translated by 谷歌翻译
Covid-19在全球范围内影响了223多个国家。迫切需要非侵入性,低成本和高度可扩展的解决方案来检测COVID-19,尤其是在PCR测试无普遍可用的低资源国家。我们的目的是开发一个深度学习模型,使用普通人群(语音录音和简短问卷)通过其个人设备自发提供的语音数据记录来识别Covid-19。这项工作的新颖性在于开发一个深度学习模型,以鉴定来自语音记录的199名患者。方法:我们使用了由893个音频样本组成的剑桥大学数据集,该数据集由4352名参与者的人群来源,这些参与者使用了COVID-19 Sounds应用程序。使用MEL光谱分析提取语音功能。根据语音数据,我们开发了深度学习分类模型,以检测阳性的Covid-19情况。这些模型包括长期术语记忆(LSTM)和卷积神经网络(CNN)。我们将它们的预测能力与基线分类模型进行了比较,即逻辑回归和支持向量机。结果:基于MEL频率CEPSTRAL系数(MFCC)功能的LSTM具有最高的精度(89%),其灵敏度和特异性分别为89%和89%,其结果通过提议的模型获得了显着改善,这表明该结果显着改善与艺术状态获得的结果相比,COVID-19诊断的预测准确性。结论:深度学习可以检测到199例患者的声音中的细微变化,并有令人鼓舞的结果。作为当前测试技术的补充,该模型可以使用简单的语音分析帮助卫生专业人员快速诊断和追踪Covid-19案例
translated by 谷歌翻译
自动扬声器识别算法通常使用预定义的过滤库,例如MEL频率和伽马酮滤波器,以表征语音音频。但是,已经观察到使用这些滤纸提取的功能对各种音频降解没有弹性。在这项工作中,我们提出了一种基于学习的技术,以从大量的语音音频中推断出滤纸设计。这种过滤库的目的是提取特征在非理想的音频条件下(例如退化,持续时间短和多语言语音)的功能。为此,1D卷积神经网络旨在直接从原始的语音音频中学习一个名为deepvox的时间域滤纸。其次,开发了一种自适应三重态挖掘技术,以有效地挖掘最适合训练过滤器的数据样本。第三,对DeepVox FilterBanks进行的详细消融研究揭示了提取特征中的声源和声带特征的存在。 Voxceleb2,NIST SRE 2008、2010和2018和Fisher Speech数据集的实验结果证明了DeepVox特征在各种退化,短期和多语言语音中的功效。 DeepVox的功能还显示出可提高现有说话者识别算法的性能,例如XVECTOR-PLDA和IVECTOR-PLDA。
translated by 谷歌翻译
甚至人类智能系统也无法提供100%的准确性来识别特定个人的演讲。Machine Intelligence试图通过各种语音提取和语音建模技术来模仿说话者识别问题。本文提出了一种独立于文本的扬声器识别系统,该系统采用了MEL频率曲线系数(MFCC)进行特征提取和K-Nearest邻居(KNN)进行分类。获得的最大交叉验证精度为60%。这将在随后的研究中得到改善。
translated by 谷歌翻译
语言识别(LID)是自动语音识别(ASR)的建议的第一步,用于检测音频标本的口语。但是,在能够多语言语音处理的最先进的系统中,用户必须在使用它们之前明确设置一种或多种语言。因此,盖子在基于ASR的系统无法在多语言环境中解析导致语音识别失败的语言的情况下起着非常重要的作用。我们提出了一个基于注意力的卷积复发性神经网络(CRNN),该网络与音频标本的Mel频率Cepstral系数(MFCC)功能一起工作。此外,我们重现了一些最先进的方法,即卷积神经网络(CNN)和卷积复发性神经网络(CRNN),并将它们与我们提出的方法进行比较。我们对13种不同的印度语言进行了广泛的评估,我们的模型分类精度超过98%。我们的盖子模型对噪声非常强大,并在嘈杂的情况下提供了91.2%的精度。提出的模型很容易扩展到新语言。
translated by 谷歌翻译
手写数字识别(HDR)是光学特征识别(OCR)领域中最具挑战性的任务之一。不管语言如何,HDR都存在一些固有的挑战,这主要是由于个人跨个人的写作风格的变化,编写媒介和环境的变化,无法在反复编写任何数字等时保持相同的笔触。除此之外,特定语言数字的结构复杂性可能会导致HDR的模棱两可。多年来,研究人员开发了许多离线和在线HDR管道,其中不同的图像处理技术与传统的机器学习(ML)基于基于的和/或基于深度学习(DL)的体系结构相结合。尽管文献中存在有关HDR的广泛审查研究的证据,例如:英语,阿拉伯语,印度,法尔西,中文等,但几乎没有对孟加拉人HDR(BHDR)的调查,这缺乏对孟加拉语HDR(BHDR)的研究,而这些调查缺乏对孟加拉语HDR(BHDR)的研究。挑战,基础识别过程以及可能的未来方向。在本文中,已经分析了孟加拉语手写数字的特征和固有的歧义,以及二十年来最先进的数据集的全面见解和离线BHDR的方法。此外,还详细讨论了一些涉及BHDR的现实应用特定研究。本文还将作为对离线BHDR背后科学感兴趣的研究人员的汇编,煽动了对相关研究的新途径的探索,这可能会进一步导致在不同应用领域对孟加拉语手写数字进行更好的离线认识。
translated by 谷歌翻译