云服务器价格_云数据库_云主机【优惠】最新活动-搜集站云资讯

对象存储_优好云主机_测评

小七 141 0

设计对话的一半

机器人设计正处于一个十字路口。它总是回到同样的问题上,就像聊天机器人不断地对用户说"我没听懂",因为一分钟后用户越来越沮丧。我们前面有两条路:一个基于人工智能的未来,朝着真正理解一个人所说的话,然后产生正确的反应。这是很难做到的高度准确,并导致各种潜在的可怕的科幻未来。对一组固定命令的可控制、脚本化响应的未来。这些机器人可能充满个性,生成复杂的脚本,但它们的理解是基本的,它们不能保证反应的细微差别。选择正确的道路意味着选择正确的方式来理解谈话的另一面。机器人应该在多大程度上预见到墙另一边发生的事情?什么是对话?预测谈话的另一面并不是一个新的沟通问题。人与人之间的交流是极其错误的。我们参与对话不仅仅意味着听单词和分析它们,而是下意识地倾听其他许多因素——一个人的声音如何,他们的样子,他们的肢体语言,你们两个在哪里。会话的符号学是复杂的,甚至在你进入内容之前,内容也是有层次的:对话的主题,你想要达到的目标,你对所有这些的感觉。真是个奇迹,我们居然能沟通。为了分析所有这些,设计师Paul Pangaro提出了一个名为CLEAT的对话模型:上下文(共享)语言约定或交换协议交易或行动他说要达成一项行动,你必须首先达成协议。要达成协议,你必须有约定。要想开始接触,你必须有共同的语言。潘加罗说,如果做得对,我们就能达到崇高的目标——共享历史、建立关系、信任和团结。他说,所有这些都应该是优秀软件的目标,因为"以对话为核心的软件更人性化。"足够的沟通以对话为核心的软件更人性化。在过去的一年里,我们已经开始在对讲机上进行机器人设计的实验——我们之前已经写过一些关于机器人角色、名字、个性以及设计任务的设计考虑。我们的机器人故意只处理一些小的工作,其中最重要的是保持客户和企业(团队)的联系,即使团队不在。作为一个对话的参与者,它是故意克制的。关于其谈话风格的一切都是有意的,不是为了让谈话继续下去,而是为了激起有限的回应。因为我们更喜欢人与人之间的对话而不是自动化本身,我们的机器人被允许有足够的通信来完成任务,但不能再多了。这意味着我们摆脱了很多非必需品:没有问候,没有名字或性别,没有道歉。

如果没有人类日常对话的所有细节,这可能是现存最粗鲁的机器人。然而,我们发现,正如我们测试这个机器人一样,人们并不这么看。他们知道这是自动化的,觉得很有帮助,甚至感谢它为他们提供了他们需要的东西。最重要的是,他们不希望它做他们希望人类做的工作。一旦交易完成,他们不会要求或期望更多的对话。如果我们想设计世界上第一个内向的机器人,我们似乎已经成功了。改善谈话的关键我们的机器人哲学反映了Pangaro的对话模式。这种模式的关键在于,每一次谈话都有一个目标。虽然客户通常心里有一个问题,即他们的目标,但机器人试图吸引他们的方式更多的是了解他们的上下文和动机,而不是了解他们谈话的实际语义。如果我们想要世界上第一个内向的机器人,我们做到了我们把大部分时间花在理解上下文上,并确保我们能够以正确的方式,以正确的语气给出正确的答案。我们还确保机器人有一项工作要做,交换信息或吸引用户。我们要确保大家对机器人是什么以及它的角色达成一致。最后,我们达成了交易。我们希望这种模式能在使用对讲机的团队之间、与他们交谈的客户以及内部通话本身之间建立更牢固的关系,建立在信任的基础上。设计细微差别在现实世界中,即使我们完全听懂某人的话,我们仍然无法保证成功的沟通。真正的对话必须通过寻找上下文和线索来梳理这些细微差别。而真正的对话可能会弄错:我们总是对别人的目标和动机做出假设。我们是人类。根据上下文做出假设是我们模式匹配的方式,这样我们就可以首先进行对话。这正是我们作为设计师所做的,也是机器学习算法所做的——我们寻找模式,并将我们的反应与之相匹配。但是在我们的模式匹配中,就像在现实世界中一样,我们听到的东西是不完整的。我们搞错了。在现实世界中,一点点不完美是可以的。在机器人世界里,这是一种风险。允许有缺陷我们绕过错误的方法是缩小我们的限制——对谈话的目标或工作非常具体——并且在设计时丰富我们所意识到的上下文信号。约束是我们处理不完美的方法。我们只做我们知道会有帮助的事,而不会再做了,我们会在沉默的一方犯错。上下文是我们在交互中构建细微差别的方式,并使与bot的交互感觉简单、直接和积极。这就是为什么机器人为了更仔细地听,不得不从对话中向后倾斜:如果我们出错了,失去的信任远远大于两个人之间的信任。我们的机器人是为了在团队和客户之间建立信任。这是一项艰巨的工作,即使是在安静和克制下完成的。如果你像我们一样对聊天机器人如何促进你的业务增长感到兴奋,你可以从这里开始。