UI设计公司如何满足用户对人工智能的期望
基于研究的建议,以创建以人为本的 AI 体验
对于那些不熟悉人工智能(AI)的人来说,它是通过计算机系统或机器模拟人类智能(即学习,推理,自我纠正)。自1956年约翰·麦卡锡(John McCarthy)在达特茅斯会议上创造人工智能一词以来,人工智能就已经存在,但最近人们的兴趣有所复苏,因为现在可用的数据和计算能力比以往任何时候都多。几年前无法工作的神经网络正在一夜之间工作,这是由于更大的计算能力。
我们的 CRM 产品中应用 AI,使我们的客户能够做出更明智的决策并更快地完成任务。我们希望让每个人都能使用AI,而不仅仅是数据科学家,因为我们相信,人工智能民主化可以改善每个人的生活。
对于那些从事人工智能工作的人来说,这是一个激动人心的时刻,但我们仍然不知道很多。每天都有关于这个主题的新博客文章、文章和新闻报道,但其中大部分更多的是猜测和观点,而不是实际的实证研究。
为了确保我们做出数据驱动的决策,用户研究和分析团队对内部和外部用户对人工智能的研究进行了文献综述。多家UI设计公司(包括北京UI设计公司,武汉UI设计公司,上海UI设计公司,交互设计公司,深圳UED设计公司等)将我们自己的研究见解与学术界和工业界发表的研究相结合,以确定用户在与任何AI系统交互时的核心期望。基于这些期望,我们提供了有关如何在设计人工智能系统时考虑到用户的建议,无论工具(例如,聊天机器人、案例分类)或领域如何。这是一个快速发展的领域,因此,随着时间的推移,这些期望和建议将随着技术进步和用户体验而不断发展。
1. 了解自己的极限
没有人工智能是完美的,尤其是在学习时,因此了解系统的局限性并保持在它可以做的事情范围内以支持用户非常重要。不要允许用户犯错误或强迫他们记住系统识别的特定单词(尼尔森的 10 种启发式方法)。过度扩张,用户充其量会失望,最坏的情况会生气。
助手聊天机器人清楚地列出了它可以提供帮助的事情。
建议
不要假装是人类:并非所有消费者都知道“聊天机器人”是什么,因此传达人工助手不是人类尤为重要。假装成人类会把用户的期望设定得太高,如果他们觉得自己被系统“欺骗”了,他们可能会生气。
规范性:如果您没有智能支持自由文本的能力,请清晰简洁地传达可能的内容(例如,“您指的是哪种模型?A、B 还是 C?放眼国际。您需要知道如何响应,如果用户尝试使用您无法重新传达的语言进行通信。
传达确定性水平:使用“建议”、“提示”或提供置信度分数等词可以传达用户应该对建议投入的置信度,并且在建议不正确时不要过于失望。
承担责任:当事情没有按计划进行时,永远不要责怪用户。“对不起,但我似乎遇到了困难”让用户知道系统意识到这是罪魁祸首,而不是用户。
2. 建立即时价值
一旦您知道可以实现的极限,您必须确保您仍然可以为最终用户提供价值并立即展示它。工具/系统不能简单地使用或娱乐,它们也必须有用。
荷航的聊天机器人允许客户管理他们的旅行需求
建议
速度至关重要:不言而喻,如果人工智能不能帮助用户更快和/或更准确地完成他们的任务,那么拥有它就没有意义。必须编辑建议的响应或重复请求信息会浪费时间和用户的善意。简洁明了也是这里的关键。用户不必花费额外的时间来尝试理解建议。
可访问:人工智能系统/工具的可访问性与任何其他产品一样重要。不幸的是,并非所有聊天机器人都可以访问。在将您的智能工具推向世界之前,请确保它是普遍可用的。这两篇文章是帮助您入门的重要资源:如何为残障用户描述复杂的设计和每个设计师都需要了解的关于辅助功能的 7 件事。
提供逃生舱口:尼尔森的10条启发式方法之一是“用户控制和自由”。当系统出现故障时,用户需要一条出路。应该始终有一种方法可以拒绝/撤消系统所做的任何建议或更改。聊天机器人还应该提供一种在任何时候通过请求重定向到人类的方法(例如,提交案例,发布到用户社区)。用于检测用户何时生气的情绪分析应自动将用户与人联系起来。强迫用户与AI互动,特别是当它出错时,只会导致用户避开系统(例如,关闭建议,放弃产品)。
3. 随着时间的推移建立信任
建立您的品牌并赢得客户的信任可能需要数年时间,但在一个任何事情都可能传播开来的世界里,它可能会在几天或几分钟内受到严重损害。
DoNotPay是一个律师机器人,可以帮助人们对抗不公平的停车罚单。
建议
不要作恶:当一群科学家和技术人员最近被问及21世纪的巨大挑战时,经常提到对人工智能系统中的公平、道德和保护人类的担忧。用户希望人工智能不仅在准确性方面,而且在道德方面做出正确的建议。一个很好的例子是DoNotPay,这是一个律师机器人,可以帮助用户对抗不公平的停车罚单,让房东修复他们的宗旨建筑,并帮助难民申请庇护。
不要令人毛骨悚然:您不会期望也不想要一个新的人工行政助理重新安排与您的潜在客户的会议或在您的指示下为您回复电子邮件。人工智能助手也是如此。知道太多是令人毛骨悚然的,未经请求插入自己很烦人,尤其是当它是错误的时。任何人工智能系统都应该从提出建议并限制它提供的功能开始。展示随着时间的推移而学习的内容,并随着准确性的提高而提供更多操作。其中一个例子是MuseBot,它推荐日常活动来丰富孩子的生活。它实际上可以根据所学到的知识预测终生结果,但不与父母分享,因为这可能弊大于利。
保持透明:用户对“黑匣子”感到不舒服。他们希望了解提出建议的输入,并能够编辑可能对准确性产生负面影响的错误信息。亚马逊的推荐系统是一个很好的例子,它向客户展示了为什么提出特定推荐,并允许他们编辑信息以改进推荐。
接受反馈:用户不会信任它无法提供反馈的系统。用户应该能够评估人工智能预测的准确性,并告诉它纠正方向,以及在整个信息自动同步过程中管理各方(内部和外部)之间共享信息的方式。Netflix允许客户对电影进行评分,然后将其考虑在未来的推荐中。
有监护人:尽管有些用户会故意尝试破坏您的AI(例如Tay),但大多数用户希望公司能够采取保护措施来保护他们的数据,并在法律和道德上与他们互动。由于人工智能被设计为不断学习,它们可能会大大偏离程序员最初给他们的指导方针。随着复杂性的增加,它们将成为人类理解的“黑匣子”。任何人都几乎不可能监控这些不断的变化,理解并确定它们是否合法或道德,因此拥有人工智能监护人对于保护用户和维持信任非常重要。
4. 尊重社会规范
虽然聊天机器人不应该假装成人类,但它仍然必须尊重社会规范,以避免被视为“粗鲁”或进行不舒服的互动。
喜悦可以回应用户的情绪
建议
传达听众:如果机器人仅限于罐头响应并且不使用自然语言处理 (NLP),它可以立即提供整个句子来响应用户的请求,但这种即时响应会让人感觉很粗鲁,就好像系统没有“倾听”用户的请求一样。速度至关重要,但出于礼貌,自然停顿并使用各种语言来表示对请求的理解是值得的。考虑包括填充词,例如“啊,好吧。让我检查一下“,或者”我还在这里,只是在检查“,或者”仍然得到结果“,以填补长尾召回的时间。考虑对轮流结构进行建模,并围绕事务交互的最佳实践进行措辞。
不要打断:没有人喜欢被打断。人工智能系统不应该打断用户的任务,聊天机器人不应该在演讲中打断用户。
检测情绪:用微笑的表情符号或笑话来回应严重的客户问题只会激怒用户。机器人必须检测情绪并做出相应的反应,包括在用户生气时升级到人类。
上下文很重要:用户希望人类和系统都能记住以前的交互和内容。人工智能还应利用位置(例如机场)、一天中的时间(例如午夜)和问题类型(例如航班取消)等上下文信息来确定优先级并做出相应的响应。用户是在寻找娱乐性的交换还是他/她试图立即重新预订取消的航班?人工智能必须能够分辨出其中的区别。
保持礼貌:许多人说“谢谢”来回应机器人的帮助。机器人需要了解这些类型的礼貌以及如何回应(即“不客气”)。同样,当用户变得辱骂时,它应该礼貌但坚定地做出回应,以避免规范化辱骂互。
5.有个性
我们使用的每个系统/工具都应该是一种乐趣。
星巴克的机器人匹配他们的品牌,并使用他们产品的精美照片与客户交流。
建议
令人愉快:聊天机器人尤其应该有个性。理想情况下,聊天机器人应该像人类一样有趣。我们认同那些反映我们相信自己是谁或我们想成为谁的角色。聊天机器人应该能够适应不同的对话风格和偏好,并遵守它们。这包括如何回应用户变得咄咄逼人或故意试图打破它。Ask AmEx提供了多种选择,并通过提醒用户即将到来的假期来超越。
真实:机器人的声音和语气应与品牌相匹配。用户会发现不一致之处(例如,来自非常正式的金融服务公司的非正式俚语、笑话和表情符号),并可以敲响警钟。星巴克的机器人匹配他们的品牌,并使用他们产品的精美照片与客户交流。
山谷视觉UI设计公司在设计和开发新功能时正在利用这些准则。这些是活的指导方针,这意味着我们不断评估、添加和微调它们。我们很想听听您的团队在开发 AI 工具/系统时制定了哪些准则或见解!
留言