- 设计心理学4:未来设计
- (美)唐纳德·A·诺曼
- 2898字
- 2021-04-04 04:47:34
共同领域:人机沟通的基本限制
艾伦和芭芭拉开始有很多共同[4]的知识、信仰和臆想,他们认为彼此可以分享。这就是所谓的他们的共同领域……他们认为曾经一起参与的交谈就是建立在这个共同的领域之上。直到现在,艾伦和芭芭拉在一起的时间越长,这个共同领域也越广……他们之间行动的配合,需要根植在他们的共同领域上。
——克拉克,《语言使用》(Herbert Clark,Using Language)
沟通和谈判需要语言学家所谓的“共同领域”(common ground),即作为人与人之间互动平台的一种理解的共同基础。心理学家克拉克在上面的引述里,虚构人物艾伦和芭芭拉之间的任何活动——语言或其他,都要牵涉到他们的共同领域。从同样的文化和社会背景来的人,他们已有的共同看法和经验使他们能快速而有效地互动。你曾经偷听过别人的交谈吗?我在购物中心和公园走路时经常这样做(当然啦,是借由科学之名)。我不断地发现甚至在两个人热烈交谈之时,谈话内容也是那么贫乏。下面是一个很典型的交谈例子。
艾伦:“你知道吗?”
芭芭拉:“当然。”
对艾伦和芭芭拉而言,这也许是深入而重要的交谈。然而,由于我们了解他们交谈所需的重要资讯的缺失,我们不可能知道他们指的是什么,也就是说,我们不知道他们的共同领域。
缺乏共同领域就是我们无法与机器沟通的主要原因。人类和机器鲜有共同之处,因此谈不上共同领域。人与人之间、机器与机器之间呢?那就不一样了。人与人之间可以共享,机器与机器之间也可以联通。但人与机器之间呢?没有。
机器与机器之间有共同领域的说法也许让你惊讶,这是由于机器的设计者,通常是工程师,会花很多时间去确定机器之间可以共享所有的背景信息,以便做出有效的沟通。两部机器要开始沟通时,首先经过一系列的步骤确定它们之间有共同的资讯、状态,甚至它们交流的语法。用资讯工程师的话说,这步骤称为“握手”(handshaking)。这方面的工作非常重要,工程界开发了一大套国际通用的标准,以保证互相沟通的机器之间可以共享同样的逻辑与背景信息。建立标准很困难,互相竞争的公司需要经过很复杂的谈判去解决技术上、法律上和政治上所有相关的议题。不过,最后的结果是值得的:他们建立了共同的语言、程序和背景信息,以便建立机器间的共同领域,而进行有效的沟通。
想知道两部机器之间如何建立共同领域吗?对我们人类而言,尽管通常看不到、听不到机器之间的“握手”,但这程序几乎出现于所有电子设备之间需要互相沟通的时候。无论是你的电视机与机顶盒连接,还是机顶盒与电讯传输设备连接,还有你的电脑连上网络,抑或你的手机在开机时搜寻信号。当然,最明显的例子就是从传真机发出的奇怪声音。当你拨了一个传真号码后(顺便一提:打电话时的拨号音和电话铃声也都是握手的方式),就会听到一系列的颤声,那就是你的传真机正在和对方的传真机商议电码标准、传递速度和列印解析度。双方同意后,你的机器开始传送信号,对方同时继续提供正确收讯的消息。就像两个互相不认识的人第一次见面时,会比较拘谨和刻板,他们会先交换一下共同认识的人,包括可以分享的技艺和兴趣。
人与人之间可以享有共同领域,机器之间可以寻求一个共同领域。可是机器和人生活于两个不同的世界,一个是依逻辑界定的规则主导的互动;另一个是错综复杂,依背景状况而灵活反应。因此,表面上看来相同的前提会因“状况不同”而引导出不同的行动。而且,存在于目标、行动和感觉上的基本差别意味着机器和人甚至不能在一些基本的问题上达成一致,比如,世界上正在发生什么事?我们要采取什么行动?我们要达成什么目标?缺乏共同领域是个超级鸿沟,将人和机器彼此分离。
人们善于从以往的经历中学习,用前车之鉴来调整他们的行为。这也表示人与人之间的共同领域会随时间而增长。而且,人们对曾经共同参与的活动也比较敏感,因而即使在相似的状况下,艾伦与芭芭拉之间的互动也许和艾伦与查尔斯之间的互动大不一样。艾伦、查尔斯和芭芭拉之间有交换新资讯的能力,他们能从经验中学习,然后相应地改变行为。
相比之下,机器几乎不能学习。是的,成功或失败的经验能让机器改变做法,但除了实验室里的几个系统之外,它们归纳的能力很差,几乎没有。当然,机器的能力一直在进步。全球很多研究实验室都从事这方面的努力。然而,人和人之间的相同程度与机器和人之间的相同程度,有很大的鸿沟,这差距不可能在短期内填满。
回头看看本章开始时描述的三个未来假想状况,那些情形可能发生吗?机器怎么能知道一个人的心事?怎么能知道超出它们感应器侦察范围的其他活动?怎么能用颐指气使的建议来与人充分地表达自己的意见?答案是,它们不能。
我的冰箱不允许我吃鸡蛋?也许我不是自己要吃的,而是为了别人准备。是的,冰箱可以觉察出我在取蛋,可以经由一个包含我家和家庭医生办公室的医疗系统得知我的医疗记录,比如体重和胆固醇数值,可是这些资料仍不能让机器拥有读心术,看穿我在想什么、要做什么。
我的车子能否查询我的日程表,为我选择一条有趣的开车路线?是的,这状况里所描述的都有可能发生,或许,唯一的例外是自然语言的沟通。不过,系统发展得越来越好了,所以语言也会不成问题。我同意车子给我的提议吗?如果车子就像上述状况一样,那没关系,它提出一个有趣的、我也许没想到的建议,但允许我做主。那就是一个不错的、友善的互动,我很赞同这种方式。
我的房子可能嫉妒、羡慕邻居的房子吗?这不太可能,尽管与附近的房子比较设备和运作也是跟上时代的良策。在商业上,我们称这为“标杆”(benchmarking)和跟随“最佳实务范例”(best practices)。所以,再次说明,这种假想状况有可能发生,不过没有必要使用那种趾高气扬的语气。
机器的学习能力和预测新的互动结果方面的能力很有限。它们的设计者只能根据他们仅有的经费和当时的科技水准进行设计。一旦超出范畴,设计者只好想象机器可能要面对的世界。设计者从机器感应器得到的有限资料,推论实际可能发生的状况以及机器该如何应对。只要系统要做的工作是在一定的范围内且没有突发状况,这些系统大多都能表现良好。一旦面临的状况超出设计时预设的简单条件,那么,简单的感应器、智能决策系统和问题解决程序就不能完成任务。人和机器之间的鸿沟是很大的。
人要成功地与机器互动,基本的困难在于没有共同领域。可是,系统如果能避免这危险,只做建议而不强制执行,并且让人了解和选择,而不是强加以让人无法理解的操作,那么,这种系统还是非常切合实际的。虽然,共同领域的缺失使很多自然谈话式的互动不可能发生,然而,如果将假定和共通处都弄清楚,也许通过人与机器都能阐释的内在行为和自然互动,就能实现人与机器的互动,我完全认同这一点。这就是第三章要讲述的主题。
[1] “但是这方面的研究比较着重于工业和军事装备……”这方面的研究用了不同的名目,欲知一些重要的研究结果摘要,请参考帕拉休拉曼和瑞利(Parasuraman&Riley)(1997)、萨文迪(Salvendy)(2005)与谢里登(Sheridan)(2002)的著作。
[2] “这三个层次的描述……”[马克廉(MacLean),1990;马克廉和克拉尔(MacLean&Kral),1973]。
[3] “我在自己的书《情感化设计》……”欲知这方面的科学探讨,请参考我与奥特尼、雷维尔在2005年发表的研究报告[奥特尼,诺曼和雷维尔(Ortony,Norman,&Revelle),2005]。另请参考我的书。
[4] “艾伦和芭芭拉开始有很多共同……”[克拉克(Clark),1996,p.12]。