场景知觉及其研究范式(2)
(top-down)和自下而上(bottom-up)的加工方式来解释场景知觉中信息的提取与加工。这两种加工也被描述为基于刺激的加工(stimulus-based)和知识驱动的加工(knowledge-driven)(Henderson,2003)。Henderson(2007)把自上而下加工比喻为被“推”(push)的加工,而自下而上的加工是被“拉”(pull)的加工,这种比喻形象地说明了两种知觉加工方式的差异。场景的自下而上的加工是指由于场景中局部的视觉特性比较突出,而使被试被动地加工这些突出的区域。比如,场景中明亮而且色彩鲜艳的区域一般会受到更早和更多的注视。支持自下而上加工的典型解释就是“突显地图”(saliencymap)理论(Castelhano,Wieth,&Henderson,2007;Torralba,Oliva、Castelhano、&Henderson、2006;Underwood&Foulsham,2006;Underwood,Foulsham,van Loon,Humphreys,&Bloycc,2006)。这种理论认为,场景中的颜色、密集度、对比度和边际朝向(edgeorientation)等会造成一些区域突出于其他的周围区域,这些突出的区域会吸引人的注意,在视觉加工中会比较早地被注意和加工。自下而上的加工示例见图2。
, 百拇医药
而自上而下的加工则是指由于受到先前认知加工和知识经验的影响,人会主动加工场景中一些特定的信息。比如:当要求被试从客厅场景搜索钟表获得时间时,被试会激活相关的知识经验,根据任务的要求主动搜索目标物体而不管场景中其他的区域是否鲜艳和明亮。自上而下的加工强调已有知识经验的作用,这些知识经验包括对先前场景信息的短时记忆和情景记忆,存贮在长时记忆中类似场景的有关视觉、空间和语义信息,以及被试的目的和计划等。就短时记忆而言,刚才看到过的一幅图片,当再看这幅图片或者类似图片时,我们会积极关注我们感兴趣的区域,或者认为信息丰富的区域。长时记忆中也包含着一些场景的信息,比如,厨房场景一般都会包括灶具,办公桌的场景一般都会包括电脑。这些信息会影响我们对场景的知觉和加工。场景记忆的研究发现,对场景的知觉图式和原有经验在场景的编码和记忆中具有重要的作用(Pezdek&Maki,1988)。
由于图像本身的特性要比知识经验更容易量化和操作,所以很多的研究都倾向于采用自下而上的加工方式来建立视觉加工的计算模型或量化的预测。比较典型的代表就是突显地图模型(Henderson,2007;Humphreys&Bloyce,2006;Underwood&Foulsham,2006;Underwood,Foulsham,van Loon,Humphreys,&Bloyce,2006)。但是,场景的加工往往不是独立的加工能够完成的。场景知觉研究中有关背景对场景物体识别的结果发现,我们对场景的知觉可能受到两种加工的交互影响,无论是场景中突显的物体,还是场景中的模糊背景会通过相互的作用影响场景的知觉,所以很难用一种单一的加工方式来解释我们对真实复杂场景的知觉(Davenport&Potter,2004;Henderson&Hollingworth,2002;Underwood,Templeman,Lamming,&Foulsham,2008)。因此,也出现了将两者结合的背景引导模型(Contextual Guidance Model)(Torralba,Oliva,Castelhano,&Henderson,2006)。
, 百拇医药
3.有关场景知觉研究的不同范式
场景知觉研究不同于基础的视觉研究,场景中包含的信息比较多,对于实验变量的控制比较困难,所以研究者设计了不同的实验范式来探讨场景的知觉。根据已有研究中所采用的实验任务不同,对于场景知觉的研究大体上有5种常用的实验范式:眼动(Eye Movement)、背景提示(Contextual Cueing)、物体觉察(Object Detection)、变化觉察(ChangeDetection)和点线索追随(Fofiow-The-Dot)。这几种范式虽然名称和叫法各不相同,但是彼此之间也存在一定的重合和继承,下面将分别对这些研究范式进行简单的介绍。
3.1眼动范式
由于眼动跟踪技术允许被试在自由的状态下观看场景,所以很多的场景知觉研究采用眼动跟踪的方法。这些研究可以从两个方面来进行梳理。首先,从眼动的指标来看,对于场景知觉的眼动研究主要涉及三个方面,即场景知觉过程中眼睛的注视位置、注视时间和眼跳及信息整合(Henderson&Hollingworth,1999)。眼动范式主要关注前两个方面的眼动控制问题,即场景知觉过程中眼睛注视哪里,注视多久。对场景知觉的信息整合和眼跳,需要结合其他的任务(比如:变化探测)进行研究。对场景知觉的眼动研究发现,场景知觉的加工时间是对场景注视的空间和时间分布的函数。其次,眼动研究还会结合变化觉察、物体识别(objectidentification)和场景记忆(scene memory)等实验任务,探讨场景知觉过程中局部信息提取、场景中的物体识别以及把物体和场景信息进行编码存入短时或长时记忆等问题(Henderson,2007)。这些具体的研究范式,将在后面进行介绍。
, 百拇医药
眼动范式一般给被试呈现场景刺激,要求被试自由观看场景,在被试观看过程中记录被试的眼动信息,然后对眼动数据进行分析,参见图1(Castelhano,Wieth,&Henderson,2007;Henderson,2003;LoRus&Mackworth,1978)。刺激呈现的时间从几百毫秒到几秒不等。比较早的采用眼动范式研究场景知觉的是Loftus和Mackworth(1978)的研究,他们给被试呈现两组线条画,一组为场景中的物体与场景关系一致,比如拖拉机出现在农场场景中;一组为场景中物体与场景关系不一致,比如章鱼出现在农场场景中。研究发现,物体与场景的关系是否一致(即物体出现在该场景中是否合理)会影响被试对场景中物体的眼动注视。相比一致的物体而言,被试对于那些与场景不一致的物体给予了更多的注视,而且注视的持续时间也更长。对目标物体的注视持续时间被认为是物体识别速度的重要指标。由于能够即时地测查被试对场景知觉的过程性信息,所以后来的很多研究都采用眼动范式来研究场景知觉,并且取得了很多有意义的结果(Boyee&Pollatsek,1992;De Graef,Chisfiaens,&d'Ydewalle,1990;Friedman,1979;Underwood,Templeman,Lamming,&Foulsham,2008)。, 百拇医药(王福兴 田宏杰 申继亮)