由国家科学基金会(NSF)资助的DILPORT项目http://dialport.org/涵盖了一组工具和服务,旨在满足对话研究社区的需求。在六年的时间里,已经创建了几种产品,包括Dialport Portal和DialCrowd。本文描述了这些贡献,这些贡献将在Sigdial中进行演示,包括实施,先前的研究,相应的发现以及工具将继续可为社区免费提供的位置。
translated by 谷歌翻译
对话系统开发人员需要高质量的数据来训练,调整和评估其系统。他们经常为此使用众包,因为它提供了许多工人的大量数据。但是,数据质量可能不足。这可能是由于请求者提出任务以及他们如何与工人互动的方式。本文介绍了DialCrowd 2.0,以帮助请求者通过更清晰地介绍任务并促进与工人的有效沟通来帮助请求者获得更高质量的数据。DialCrowd 2.0指南开发人员创建了改进的人类智能任务(HITS),并且直接适用于开发人员和研究人员当前使用的工作流程。
translated by 谷歌翻译
对话研究的最终目标是开发可以在交互式设置中有效使用的系统。为此,我们在第9对话系统技术挑战中介绍了对话框的交互式评估。该曲目由两个子任务组成。第一个子任务涉及建立知识接地的响应生成模型。第二个子任务旨在通过与真实用户的交互式设置进行评估,旨在将对话模型扩展到静态数据集之外。我们的曲目挑战参与者开发强大的响应生成模型,并探索将它们扩展到与真实用户的来回互动的策略。从静态语料库到交互式评估的发展引入了独特的挑战,并促进了对开放域对话系统的更全面评估。本文概述了曲目,包括方法和结果。此外,它提供了有关如何最佳评估开放域对话框模型的见解
translated by 谷歌翻译
自2016年成立以来,Alexa奖计划使数百名大学生能够通过Socialbot Grand Challenge探索和竞争以发展对话代理商。挑战的目的是建立能够与人类在流行主题上连贯而诱人的代理人20分钟,同时达到至少4.0/5.0的平均评分。但是,由于对话代理商试图帮助用户完成日益复杂的任务,因此需要新的对话AI技术和评估平台。成立于2021年的Alexa奖Taskbot Challenge建立在Socialbot Challenge的成功基础上,通过引入交互式协助人类进行现实世界烹饪和做自己动手做的任务的要求,同时同时使用语音和视觉方式。这项挑战要求TaskBots识别和理解用户的需求,识别和集成任务和域知识,并开发新的方式,不分散用户的注意力,而不必分散他们的任务,以及其他挑战。本文概述了Taskbot挑战赛,描述了使用Cobot Toolkit提供给团队提供的基础架构支持,并总结了参与团队以克服研究挑战所采取的方法。最后,它分析了比赛第一年的竞争任务机器人的性能。
translated by 谷歌翻译
会话推荐系统(CRS)是交互式代理,通过多转交谈来支持其用户与建议相关的目标。通常,可以在各个维度上评估CRS。今天的CRS主要依靠离线(计算)措施来评估其算法与不同基线相比的性能。但是,离线措施可能会有局限性,例如,当将新生成的响应与地面真理进行比较的指标与人类的看法无关时,因为在给定的对话情况下,各种替代性产生的响应可能也是合适的。因此,对基于机器学习的CRS模型的当前研究认识到人类在评估过程中的重要性,知道纯离线测量可能不足以评估CRS等高度交互式系统。
translated by 谷歌翻译
自动评估对开放式对话系统开发有益。但是,标准的单词重叠度量(BLEU,Rouge)与开放式对话系统的人类判断不符合良好。在这项工作中,我们建议使用下一个用户话语的情绪转向或对话级别评估。具体来说,我们提出了三种方法:一种直接预测下一个情绪的方法,以及使用话语或反馈发生器模型预测下一个用户话语的另外两个,然后对其情绪进行分类。实验表明我们的模型在书面和口语开放域对话数据集上表现出现有的自动评估指标。
translated by 谷歌翻译
在过去的十年中,对对话系统的兴趣已经大大增长。从扩展过程中,也有兴趣开发和改进意图分类和插槽填充模型,这是两个组件,这些组件通常在以任务为导向的对话框系统中使用。此外,良好的评估基准对于帮助比较和分析结合此类模型的系统很重要。不幸的是,该领域的许多文献仅限于对相对较少的基准数据集的分析。为了促进针对任务的对话系统的更强大的分析,我们对意图分类和插槽填充任务进行了公开可用数据集的调查。我们分类每个数据集的重要特征,并就每个数据集的适用性,优势和劣势进行讨论。我们的目标是,这项调查有助于提高这些数据集的可访问性,我们希望它们能够在未来评估意图分类和填充插槽模型中用于以任务为导向的对话框系统。
translated by 谷歌翻译
本文报告了建立在线语言学习工具的进步,以通过使用对话系统作为对话实践伙伴为学习者提供对话体验。我们的系统可以随时适应用户的语言水平。我们还提供自动语法错误反馈,以帮助用户从错误中学习。根据我们的第一个采用者,我们的系统娱乐和有用。此外,我们将为学习技术社区提供有关语言学习和语法校正的大规模对话数据集。我们的下一步是通过使用强化学习算法使我们的系统更适应用户配置文件。
translated by 谷歌翻译
We introduce BotSIM, a modular, open-source Bot SIMulation environment with dialog generation, user simulation and conversation analytics capabilities. BotSIM aims to serve as a one-stop solution for large-scale data-efficient end-to-end evaluation, diagnosis and remediation of commercial task-oriented dialog (TOD) systems to significantly accelerate commercial bot development and evaluation, reduce cost and time-to-market. BotSIM adopts a layered design comprising the infrastructure layer, the adaptor layer and the application layer. The infrastructure layer hosts key models and components to support BotSIM's major functionalities via a streamlined "generation-simulation-remediation" pipeline. The adaptor layer is used to extend BotSIM to accommodate new bot platforms. The application layer provides a suite of command line tools and a Web App to significantly lower the entry barrier for BotSIM users such as bot admins or practitioners. In this report, we focus on the technical designs of various system components. A detailed case study using Einstein BotBuilder is also presented to show how to apply BotSIM pipeline for bot evaluation and remediation. The detailed system descriptions can be found in our system demo paper. The toolkit is available at: https://github.com/salesforce/BotSIM .
translated by 谷歌翻译
问答系统被认为是流行且经常有效的信息在网络上寻求信息的手段。在这样的系统中,寻求信息者可以通过自然语言提出问题来获得对他们的查询的简短回应。交互式问题回答是一种最近提出且日益流行的解决方案,它位于问答和对话系统的交集。一方面,用户可以以普通语言提出问题,并找到对她的询问的实际回答;另一方面,如果在初始请求中有多个可能的答复,很少或歧义,则系统可以将问题交通会话延长到对话中。通过允许用户提出更多问题,交互式问题回答使用户能够与系统动态互动并获得更精确的结果。这项调查提供了有关当前文献中普遍存在的交互式提问方法的详细概述。它首先要解释提问系统的基本原理,从而定义新的符号和分类法,以将所有已确定的作品结合在统一框架内。然后,根据提出的方法,评估方法和数据集/应用程序域来介绍和检查有关交互式问题解答系统的审查已发表的工作。我们还描述了围绕社区提出的特定任务和问题的趋势,从而阐明了学者的未来利益。 GitHub页面的综合综合了本文献研究中涵盖的所有主要主题,我们的工作得到了进一步的支持。 https://sisinflab.github.io/interactive-question-answering-systems-survey/
translated by 谷歌翻译
Most research on task oriented dialog modeling is based on written text input. However, users interact with practical dialog systems often using speech as input. Typically, systems convert speech into text using an Automatic Speech Recognition (ASR) system, introducing errors. Furthermore, these systems do not address the differences in written and spoken language. The research on this topic is stymied by the lack of a public corpus. Motivated by these considerations, our goal in hosting the speech-aware dialog state tracking challenge was to create a public corpus or task which can be used to investigate the performance gap between the written and spoken forms of input, develop models that could alleviate this gap, and establish whether Text-to-Speech-based (TTS) systems is a reasonable surrogate to the more-labor intensive human data collection. We created three spoken versions of the popular written-domain MultiWoz task -- (a) TTS-Verbatim: written user inputs were converted into speech waveforms using a TTS system, (b) Human-Verbatim: humans spoke the user inputs verbatim, and (c) Human-paraphrased: humans paraphrased the user inputs. Additionally, we provided different forms of ASR output to encourage wider participation from teams that may not have access to state-of-the-art ASR systems. These included ASR transcripts, word time stamps, and latent representations of the audio (audio encoder outputs). In this paper, we describe the corpus, report results from participating teams, provide preliminary analyses of their results, and summarize the current state-of-the-art in this domain.
translated by 谷歌翻译
We present BotSIM, a data-efficient end-to-end Bot SIMulation toolkit for commercial text-based task-oriented dialog (TOD) systems. BotSIM consists of three major components: 1) a Generator that can infer semantic-level dialog acts and entities from bot definitions and generate user queries via model-based paraphrasing; 2) an agenda-based dialog user Simulator (ABUS) to simulate conversations with the dialog agents; 3) a Remediator to analyze the simulated conversations, visualize the bot health reports and provide actionable remediation suggestions for bot troubleshooting and improvement. We demonstrate BotSIM's effectiveness in end-to-end evaluation, remediation and multi-intent dialog generation via case studies on two commercial bot platforms. BotSIM's "generation-simulation-remediation" paradigm accelerates the end-to-end bot evaluation and iteration process by: 1) reducing manual test cases creation efforts; 2) enabling a holistic gauge of the bot in terms of NLU and end-to-end performance via extensive dialog simulation; 3) improving the bot troubleshooting process with actionable suggestions. A demo of our system can be found at https://tinyurl.com/mryu74cd and a demo video at https://youtu.be/qLi5iSoly30. We have open-sourced the toolkit at https://github.com/salesforce/botsim
translated by 谷歌翻译
Many real-world applications of language models (LMs), such as code autocomplete and writing assistance, involve human-LM interaction, but the main LM benchmarks are non-interactive, where a system produces output without human intervention. To evaluate human-LM interaction, we develop a framework, Human-AI Language-based Interaction Evaluation (H-LINE), that expands non-interactive evaluation along three dimensions, capturing (i) the interactive process, not only the final output; (ii) the first-person subjective experience, not just a third-party assessment; and (iii) notions of preference beyond quality. We then design five tasks ranging from goal-oriented to open-ended to capture different forms of interaction. On four state-of-the-art LMs (three variants of OpenAI's GPT-3 and AI21's J1-Jumbo), we find that non-interactive performance does not always result in better human-LM interaction and that first-person and third-party metrics can diverge, suggesting the importance of examining the nuances of human-LM interaction.
translated by 谷歌翻译
我们在面向任务为导向的对话框(TOD)的端到端学习中提出了一种新问题,其中对话系统模仿故障排除代理,该故障排除代理通过诊断其问题(例如,汽车而未启动)帮助用户。这些对话框基于特定于域的流程图,该代理在对话期间应该遵循代理。我们的任务暴露了神经TOD的新颖技术挑战,例如在没有显式注释的情况下对流程图的话语接地,当用户询问澄清问题时,提及额外的手动页面,以及在测试时间遵循看不见的流程图。我们释放由2,738个对话框组成的数据集(浮雕),该对话框为12个不同的故障排除流程图。我们还设计了一个神经模型,扑腾,它使用检索增强的生成架构来训练对话框。我们的实验发现,Flonet可以对未来的流程图进行零射流传输,并为未来的研究设定强大的基线。
translated by 谷歌翻译
使用良好形成的书面文本编译了当前可用的语法错误校正(GEC)数据集,将这些数据集的适用性限制为其他域,例如非正式的写作和对话框。在本文中,我们介绍了从开放式Chatbot对话中汲取的新颖平行GEC数据集;此数据集是我们的知识,将第一个GEC数据集定为会话设置。为了演示数据集的实用程序,我们使用注释的数据来微调最先进的GEC模型,从而提高了模型精度的16点。这在GEC模型中特别重要,因为模型精度被认为比GEC任务中的召回更重要,因为误报可能导致语言学习者的严重混乱。我们还提出了一个详细的注释方案,通过对可靠性的影响来排名错误,使我们的数据集两个可重复和可扩展。实验结果表明,我们的数据在提高了GEC模型性能方面的效果。
translated by 谷歌翻译
创新是尝试新解决方案的关键组成部分,以使学生有效地学习,并以与自己的经验相对应的方式来学习聊天机器人是这些新解决方案之一。聊天机器人今天面临的主要问题之一是模仿人类的语言,他们试图找到对意见的最佳答案,这不是人类对话通常的运作方式,而是考虑到以前的消息并在其上构建。选择了极端的编程方法来使用Chatterbot,Pyside2,Web刮擦和TampermonKey作为测试用例。机器人发生的问题发生了,该机器人需要进行更多的培训才能完美工作,但是集成和网络刮擦有效,使我们可以与聊天机器人进行交谈。我们展示了将AI机器人集成到教育环境中的合理性。
translated by 谷歌翻译
视频可访问性对于盲人和低愿景用户来说至关重要,以获得教育,就业和娱乐的公平参与。尽管有专业和业余服务和工具,但大多数人类生成的描述都很昂贵且耗时。此外,人生成的描述的速率不能匹配视频产生的速度。为了克服视频可访问性的越来越多的空白,我们开发了两个工具的混合系统到1)自动生成视频的描述,2)提供响应于视频上的用户查询的答案或附加描述。与26例盲和低视力下的混合方法研究结果表明,当两种工具在串联中使用时,我们的系统会显着提高用户理解和享受所选视频的理解和享受。此外,参与者报告说,在呈现自生物的描述与人类修订的自动化描述相关时,没有显着差异。我们的结果表明了对发达系统的热情及其承诺提供对视频的定制访问。我们讨论了当前工作的局限性,并为自动视频描述工具的未来发展提供了建议。
translated by 谷歌翻译
开放域对话框的自动评估仍然是一个未解决的问题。此外,现有方法与人类注释没有密切相关。本文使用后续行动提出了一种新的自动化评估方法:我们衡量语言模型将继续使用固定的后续行动继续对话的可能性(例如,在这里不真正相关,您想说什么)。与现有的十二种方法进行比较时,我们的新评估与人类评估的最高相关性。
translated by 谷歌翻译
End-to-end task bots are typically learned over a static and usually limited-size corpus. However, when deployed in dynamic, changing, and open environments to interact with users, task bots tend to fail when confronted with data that deviate from the training corpus, i.e., out-of-distribution samples. In this paper, we study the problem of automatically adapting task bots to changing environments by learning from human-bot interactions with minimum or zero human annotations. We propose SL-AGENT, a novel self-learning framework for building end-to-end task bots. SL-AGENT consists of a dialog model and a pre-trained reward model to predict the quality of an agent response. It enables task bots to automatically adapt to changing environments by learning from the unlabeled human-bot dialog logs accumulated after deployment via reinforcement learning with the incorporated reward model. Experimental results on four well-studied dialog tasks show the effectiveness of SL-AGENT to automatically adapt to changing environments, using both automatic and human evaluations. We will release code and data for further research.
translated by 谷歌翻译
与自然语言中用户互动的对话推荐系统(CRS)利用了在配对人类的帮助下收集的建议对话框,其中一个人扮演寻求者的角色,而另一个则是推荐人。这些建议对话包括项目和实体,以披露寻求者自然语言的偏好。但是,为了精确地对寻求者的偏好进行建模并始终如一地做出反应,主要是CRS依赖于对话框中出现的明确注释的项目和实体,通常会利用域知识。在这项工作中,我们调查了受启发的数据集,该数据集包含有关社交对话建议的建议对话框,其中使用自动关键字或模式匹配技术明确注释项目和实体。为此,我们发现了大量案例,这些案例和实体根本被错误注释或缺少注释。然而,这个问题仍然在何种程度上有效的注释有效。此外,目前尚不清楚穷人和改善注释对CRS总体有效性的相对影响在响应的一致性和质量方面是什么。在这方面,首先,我们手动修复了注释并删除了受启发数据集中的噪声。其次,我们使用两个版本的数据集评估了几个基准CR的性能。我们的分析表明,使用数据集的改进版本,即Inspired2,各种基准CRS的表现优于且对话框与使用原始版本的使用相比,具有丰富的知识概念。我们在https://github.com/ahtsham58/inspired2公开发布改进的数据集(Inspired2)。
translated by 谷歌翻译