01. Introducción. Historia y enfoque general

Las disciplinas científicas se configuran a lo largo de la historia. Son el resultado de complejas interacciones de un conjunto de factores sociales, económicos y científicos.

La forma de pensar actualmente sobre la percepción humana, al igual que sobre otros aspectos de la psicología o de la vida, es el resultado de unas formas de pensar sobre la ciencia y sobre la psicología en particular, que han tenido lugar a lo largo de siglos.

La investigación científica de la percepción en psicología depende en sus orígenes de la reflexión filosófica previa y de los avances científicos en otras disciplinas relacionadas con la psicología. En la segunda mitad del siglo XIX se configura la concepción científica clásica de la investigación de la percepción.

Influencias iniciales

Las primeras teorías científicas de la percepción no se formularon a partir de la nada, sino que estuvieron influidas por teorías previas basadas en el sentido común o en la reflexión filosófica. Para la filosofía, el estudio de la percepción formaba parte de la teoría del conocimiento que se interesaba por justificar su validez. La reflexión filosófica moderna tendió a polarizarse en torno a dos posturas contrapuestas: el racionalismo y el empirismo.

Para el racionalismo, los sentidos no eran una fuente fiable de conocimiento. No es que nos engañen siempre, pero nos pueden engañar y, por tanto, no pueden ser el fundamento último de un conocimiento cierto. El racionalismo estaba convencido de que el conocimiento indudable y cierto era posible, y creyó encontrar el fundamento de la certeza en la razón, no en los sentidos. Descartes, uno de los principales teóricos del racionalismo, pensaba que, en el proceso de intentar fundamentar el conocimiento, se podía dudar de todo menos del hecho de pensar: Cógito ergo sum, que significa: pienso, luego existo. Descartes encontró el fundamento de toda certeza, comenzando por la certeza de la propia existencia. El pensamiento y el razonamiento nos proporcionan un conocimiento más fiable que el conocimiento proporcionado por los sentidos. Para él, la mente humana está dotada de ideas innatas, que no dependen de la experiencia sensorial, y que constituyen el fundamento de nuestras certezas más fundamentales.

Lo que tiene importancia para nosotros es que el racionalismo concede una importancia fundamental, a la hora de explicar la naturaleza de nuestro conocimiento, por un lado a los procesos de pensamiento y, por otro, a factores innatos.

El empirismo representó en la discusión filosófica la postura opuesta al racionalismo. Los empiristas nunca estuvieron convencidos de que el conocimiento cierto fuera posible. Se interesaron más por determinar cómo era nuestro conocimiento y valorar después el grado de certeza que podía ofrecer. El punto de partida que adoptaron los empiristas afirmaba que, todo conocimiento empieza por los sentidos.

No existen ideas innatas, como defendían los racionalistas, sino que todo conocimiento procede de la experiencia y la experiencia es inicialmente sensorial. Locke pensaba que los elementos constitutivos de la mente eran las ideas que, a su vez, podían tener su origen bien en las sensaciones proporcionadas por los sentidos o en la reflexión, que fue un término utilizado por Locke para referirse al conocimiento que la mente tiene de sus propias operaciones. Los escritos que ejercieron una profunda influencia fue de Hume, quien utilizó el término impresión para referirse a los datos sensoriales y perceptivos y reservó el término idea para referirse a las “débiles copias” de esas impresiones que mantenemos en la memoria y en la imaginación. Se elaboró la idea de que las sensaciones eran los elementos irreductibles del conocimiento y que el conocimiento complejo era el resultado de la asociación de diferentes sensaciones simples.

Charles Bell y François Magendie demostraron que las funciones sensoriales estaban mediadas por un conjunto de nervios que eran diferentes de los que mediaban las funciones motoras. Müller formuló la doctrina de la energía específica de los nervios según la cual cada sensación estaba determinada por la actividad específica de los nervios sensoriales que le servían de medio de transmisión, independientemente de cuál fuera el estímulo que causara esa actividad. Tras ese esfuerzo dio origen a la psicofísica. Weber estaba interesado en estudiar si los nervios que responden al estado de nuestros músculos, también contribuyen a nuestro sentido del tacto cuando tratamos de juzgar el peso de los objetos. Éste introdujo el concepto de diferencia apenas perceptible y comprobó que no se trataba de una cantidad absoluta sino que se aproximaba a una razón constante del peso que se estaba juzgando. Fechner publicó sus Elementos de Psicofísica, libro fundamental en la historia de la psicología de la percepción y psicología experimental en general. Los métodos para construir escalas de las sensaciones y los resultados principales, representados por la Ley de Fechner, forman parte del patrimonio de la psicofísica actual.

El concepto de percepción tardó más en acuñarse que el de sensación. Reid uno de los teóricos más influyentes a la hora de establecer una distinción entre sensación y percepción, descontento con el excesivo énfasis en el valor de las sensaciones que adoptaba el empirismo inglés, pensaba que una teoría del conocimiento basada exclusivamente en sensaciones estaba abocada al escepticismo respecto del valor real de nuestros conocimientos. Era un realista filosófico y quería establecer el valor real y objetivo del conocimiento sobre sólidas bases filosóficas. Consideraba fundamental de distinción entre sensación y percepción. Para éste, la percepción es mucho más que una sensación, aunque depende de las sensaciones. La percepción incluye dos elementos que no están presentes en la sensación:

  1. Es una concepción del objeto.
  2. Es una irresistible convicción de la existencia de ese objeto.

Diferenció claramente entre sensación y percepción incluyendo en la percepción tanto la categorización del objeto como su existencia objetiva.

La teoría clásica

Fue formulada durante la segunda mitad del siglo XIX por Helmholtz y posteriormente reelaborada por Wundt. La teoría clásica constituye un punto de referencia obligado en el estudio de la percepción.

Helmholtz comenzó a publicar su Tratado de óptica Fisiológica y publicó su libro sobre La Sensación de Tono. Ambas publicaciones pueden considerarse como el fundamento de la moderna investigación científica de la percepción visual y auditiva respectivamente. En su Tratado de Óptica Fisiológica, Helmholtz trató los problemas más elementales de la sensación y los problemas más complejos de la percepción como parte de una única disciplina fisiológica. Para quien el uso de métodos comportamentales o introspectivos no suponía un cambio de disciplina sino el desarrollo de la fisiología por otros medios.

Wundt, que era discípulo de Helmholtz, publicó sus Fundamentos de Psicología Fisiológica y en 1879 fundó el primer laboratorio dedicado al estudio de la psicología experimental. La formulación de la teoría clásica de la percepción por el discípulo de Wundt, Titchener, suele conocerse con el nombre de estructuralismo.

El punto de vista clásico afirma que nuestra percepción de los objetos y de los acontecimientos está determinada por estructuras mentales que no nos han venido dadas de forma innata sino que son el resultado de un proceso de aprendizaje perceptivo a partir de experiencias sensoriales elementales. El punto de vista clásico fue fundamentalmente empirista y trató de integrar en una teoría unitaria las principales aportaciones que el desarrollo científico del momento podía hacer al estudio de la percepción. Tres aspectos de la teoría merecen especial atención:

  1. La sensación como unidad de análisis.
  2. La percepción como síntesis de sensaciones.
  3. La inferencia inconsciente.

La sensación como unidad de análisis

Para la teoría clásica de la percepción, la investigación perceptiva debe comenzar por el análisis de las sensaciones básicas. Primero se procede a diferenciar las modalidades sensoriales y a continuación se trata de subdividir cada modalidad en sus diferentes sensaciones elementales. Dado que la doctrina formulada por Müller afirmaba que cada sensación era el resultado de una energía nerviosa específica, parecía lógico pensar que a partir del análisis de las sensaciones se podría llegar a determinar esas energías. Para ello, los conceptos de umbral absoluto y de umbral diferencial acuñados por la psicofísica, así como los métodos ideados para medir esos umbrales, resultaban imprescindibles.

El concepto mismo de sensación no estaba libre de problemas. Por un lado, el análisis de las sensaciones llevó a describirlas en términos de atributos. Wundt propuso de modo relativamente informal que toda sensación tenía dos atributos: cualidad e intensidad, pero fue Külpe, quién utilizó de forma sistemática el término atributo para caracterizar las sensaciones. Los atributos no son entidades separables que al juntarse forman la sensación, son aspectos diferentes de la sensación que pueden variar de forma más o menos independiente pero que son necesarios para que se dé una sensación. Para Külpe, las sensaciones correspondientes a los cinco sentidos necesitan tener tres atributos: cualidad, intensidad y duración. Además, la visión y el tacto, poseían un cuarto atributo que era la extensión. Külpe hizo concesiones a las posiciones innatistas que consideraban que el espacio y el tiempo no dependían de la experiencia, sino que estaban dadas en la propia estructura mental. La teoría clásica se encontró con las grandes limitaciones de una posición empirista radical.

Otro aspecto tuvo que ver con el carácter de elemento fundamental que se le asignaba. Un problema importante para considerar a las sensaciones como unidades fundamentales, es que no podemos distinguirlas una vez que entran a formar parte de un compuesto. Para Titchener, para quien la introspección debía servir siempre para aislar las sensaciones componentes, cada matiz distinto de color era una sensación elemental diferente. Para Helmholtz, los resultados de los experimentos de mezcla de colores eran más fiables que la introspección para detectar los componentes elementales y, en el caso del color, sólo había tres componentes elementales.

Las sensaciones consideradas más simples, la idea de que las sensaciones constituían los elementos irreductibles de la experiencia consciente, se encontraba con problemas de difícil resolución.

La percepción como síntesis de sensaciones

Para comprender la teoría clásica de la percepción, es importante distinguir entre el estímulo distante y el estímulo próximo. Al hablar de estímulo distante se hace referencia a las propiedades físicas de los objetos mismos, por ejemplo su tamaño, su forma, etc. El concepto de estímulo próximo hace referencia a las propiedades de la estimulación que actúa sobre nuestros receptores. En el caso de la visión, el estímulo próximo hace referencia a la imagen del objeto que se proyecta sobre la retina de los ojos.

En la percepción, las características más importantes que captamos de los objetos son sus características distantes. Lo que se nos impone en la percepción visual son características que pertenecen a los objetos, no a nuestras imágenes retinianas. La percepción de las características distantes no son una respuesta sensorial directa, sino una percepción compleja aprendida. La percepción visual de los objetos se compone de sensaciones visuales no espaciales, tales como el matiz o el brillo, y de imágenes de sensaciones no visuales que han estado característicamente asociadas con esas sensaciones en la experiencia previa con esos objetos.

Un fenómeno de capital importancia en el estudio de la percepción es el de las constancias. Percibimos constante el color de un objeto a pesar de los cambios en las condiciones de iluminación, o el tamaño de ese mismo objeto a pesar de que se nos muestre a distancias diferentes. Helmholtz lo explicó también en términos de aprendizaje y formuló una regla, que más tarde se conoció como el principio de verosimilitud, y que viene a decir lo siguiente: percibimos aquellos objetos y acontecimientos que, bajo condiciones normales, serían los que produjeran el conjunto de estimulación sensorial efectiva que estamos recibiendo. Acabamos percibiendo aquellas características de los objetos que, sobre la base de la experiencia previa, son más probables.

La inferencia inconsciente

Helmholtz también proporcionó una teoría sobre la forma en que nuestro sistema perceptivo aplicaba la regla. Cuando percibimos un objeto del mismo tamaño a pesar de sus cambios en la distancia a que se encuentra de nosotros, es porque hemos aprendido a hacer algo que produce el mismo resultado que “tomar en cuenta la distancia”. Helmholtz no pensaba que este proceso de “tomar en cuenta” la distancia o la iluminación fuera un acto consciente de reflexión sobre la situación. Pensó que se trataba de una inferencia inconsciente a partir de sensaciones que nos pasan desapercibidas.

Hablar de sensaciones imperceptibles resultaba algo contradictorio en sí mismo para aquellos que creían que la sensación era el elemento constitutivo de la percepción. Otros consideraron que la explicación era excesivamente complicada y especulativa. Helmholtz describió el proceso perceptivo utilizando los términos que le proporcionaba la psicología de su tiempo, y lo describió como si fuera un proceso de resolución de problemas, que es el resultado de la experiencia previa pero que se desencadena al margen de la voluntad consciente del observador.

Vista desde nuestra perspectiva actual, la teoría de la percepción de Helmholtz es una teoría fuertemente cargada de elementos cognitivos. Para éste la percepción no estaba determinada por los procesos sensoriales, sino por toda la estructura mental que él resumió en el concepto de inferencia inconsciente.

La primera mitad del siglo XX

Una importante contrapropuesta a la teoría tricromática de Helmholtz, fue la teoría de los procesos oponentes formulada por Hering. Hubo que esperar al siglo XX para que se desarrollaran una alternativa teórica que representara un reto global a las posturas defendidas por la teoría clásica. Esta alternativa estuvo representada por la teoría de la Gestalt.

La Teoría de la Gestalt

Los postulados principales del racionalismo hicieron su aparición en el campo de la investigación científica de la percepción de la mano de la psicología de la Gestalt. Para la Gestalt las sensaciones, consideradas como elementos de la vida anímica, eran inexistentes. El término Gestalt proviene del alemán y significa configuración o forma total .

Fenomenología

La introspección que propugnaban los primeros psicólogos estructuralistas era una introspección que requería un complicado y largo entrenamiento, durante el cual el observador aprendía a observar sus propios estados mentales. Desafortunadamente, este entrenamiento con frecuencia inducía en el observador una tendencia a percibir sus estados mentales de acuerdo con las inclinaciones teóricas del investigador, influyendo así en los resultados de una forma que no tenía que ver con la naturaleza del problema que se estaba investigando sino que dependía del tipo de entrenamiento recibido.

Para la teoría de la Gestalt, la experiencia consciente del observador también constituía la fuente principal de datos de la investigación psicológica. La Gestalt estaba interesada en los datos de conciencia tal como aparecían de forma inmediata en la misma, sin contaminar con prejuicios teóricos inducidos por un entrenamiento particular. Más que de introspección, en el caso de la Gestalt debe hablarse de descripción fenomenológica para marcar la diferencia entre la introspección clásica y la actitud de auto-observación que buscaban los gestaltistas. Para ellos, no se trataba de forzar al observador a discriminar las sensaciones elementales que aparecían en su consciencia, sino de respetar los datos inmediatos de la misma e intentar describirlos de la forma más objetiva posible.

Configuración

Todos los principales líderes de la Gestalt, Wertheimer, Köhler y KofKa, rechazaron los supuestos fundamentales de atomismo y empirismo de la teoría clásica.

Pensar que la percepción es el resultado de la concatenación de sensaciones, como se éstas fueran los átomos de un compuesto, es para los gestaltistas el resultado de un artefacto introducido en la experimentación por la propia teoría clásica mediante el entrenamiento introspectivo. Lo importante en la percepción es la configuración del campo perceptivo, la forma en que se relacionan los componentes de la escena, la totalidad estructurada por esas relaciones. Para los gestaltistas, el todo es diferente de la suma de sus partes porque las relaciones entre los componentes del conjunto poseen por sí mismo. Una persona puede percibir que la intensidad de un estímulo es mayor que, igual o menor que la intensidad de otro sin necesidad de conocer los valores absolutos de intensidad de ninguno de ellos.

Los gestaltistas también rechazaron la analogía química que había utilizado la teoría clásica al considerar la percepción como un compuesto formado por sensaciones elementales. Preferían analogías tomadas de la física y hablaban del campo perceptivo como si fuera semejante a los campos magnéticos o eléctricos.

Innatismo

Los teóricos de la Gestalt también rechazaron el empirismo característico de la teoría clásica. Para ellos, los principios organizadores de la percepción no tenían su origen en la experiencia del individuo, ni eran el resultado de un aprendizaje previo.

Los principios de organización eran el resultado de la interacción de las estructuras cerebrales con el medio ambiente y esas estructuras eran innatas o, a lo sumo, resultado de la maduración. Los teóricos de la Gestalt, y en particular Köhler, recurrieron a la estructura de los mecanismos cerebrales a la hora de buscar explicación para los fenómenos perceptivos pero trataron también de introducir nuevas ideas en la neurofisiología de su tiempo. Ellos consideraban que el cerebro era un ejemplo de Gestalt física, es decir un sistema físico que funcionaba como una totalidad dinámica que tendía hacia un estado de equilibrio de energía mínima. Pensaban que los mecanismos causales subyacentes a los procesos perceptivos eran campos electromagnéticos generados por la actividad de las neuronas. La semejanza entre la dinámica de los campos electromagnéticos cerebrales y la de los campos perceptivos, les llevó a formular su doctrina del isomorfismo psicofísico. Esta doctrina venía a afirmar que tanto en el caso de la percepción del espacio como en la del tiempo o en la de la forma, la organización del capo perceptivo era una verdadera representación de la organización dinámica de los procesos fisiológicos subyacentes.

Los gestaltistas eran perfectamente conscientes de que en la percepción se producían fenómenos como las constancias o las ilusiones. La explicación que ellos propugnaron, no se basaba en la experiencia, como habían hecho Helmholtz y los empiristas, sino en las propiedades dinámicas del cerebro como una Gestalt física.

En oposición al principio de verosimilitud ellos formularon el principio de Prägnanz, que también se suele denominar el principio mínimo. Este principio establece que, en situaciones en las que son posibles más de una interpretación de la escena visual, el sistema perceptivo impondrá la interpretación más simple. El principio mínimo es un principio coherente con una forma de pensar que considera el funcionamiento de la mente isomórfico con el funcionamiento del cerebro y a éste como un sistema dinámico que tiende a un estado de energía mínima.

El conductismo

Para el conductismo los datos fundamentales se encontraban en el comportamiento y se centró en el estudio de los factores que modifican la conducta de los organismos.

Cuando los conductistas se interesaron por los procesos que determinan esa modificación, realizaron sus principales aportaciones en el campo del aprendizaje y de la motivación.

Es curioso que una psicología como la conductista, que anclaba la objetividad del estudio científico del comportamiento en las relaciones entre estímulos y respuestas, aportara tan poco al estudio de la estimulación y al estudio de los procesos motores.

Su interés se focalizó casi exclusivamente en la relación entre estímulos muy simples, en los que se manipulaba una única dimensión, y respuestas cuyo aspecto más interesante era el carácter mensurable de su resultado y la forma en que podía ser moldeada para lograr ese resultado.

Con el estudio del comportamiento, el conductismo abrió a la psicología de su tiempo todo un campo de investigación que estaba sin explorar, introdujo rigor en la experimentación y precisión en las medidas y en el lenguaje. El estudio de la conducta ha sido desde entonces crucial para el desarrollo de la psicología.

En el caso de la investigación en percepción, el conductismo la redujo al estudio de la conducta discriminativa y de esta conducta lo que más le interesó fue su adquisición y el análisis de las variables que determinaban el control de la conducta por parte de los estímulos. Cometieron el error de pensar que los estímulos manipulados por el investigador, que podemos llamar estímulos nominales, eran lo mismo que los estímulos funcionales, que son los que realmente influyen en el organismo, con lo cual pasaron por alto el problema central que se plantea el estudio de la percepción, que es la relación entre ambos tipos de estímulos.

Teoría de la percepción directa

También conocida como teoría ecológica de la percepción y fue desarrollada a lo largo de muchos años por Gibson. Este investigador estuvo muy influenciado por la teoría de la Gestalt, pero también comparte posiciones propias del conductismo. De la teoría de la Gestalt, Gibson adoptó su oposición a toda postura atomista que, como hiciera la teoría clásica, tratase de buscar elementos simples en la percepción. Al contrario que los gestaltistas, Gibson no creía que el fundamento de la teoría perceptiva estuviera en la estructura del organismo, sino en el estudio del medio ambiente en el que el organismo está inmerso. Se trata de analizar a fondo la estimulación para localizar la información relevante de la postura de Gibson.

Percepción ecológica

En el espíritu de la Gestalt, Gibson piensa que el análisis perceptivo debe centrarse en la conformación óptica ambiental. Con este término quiere indicar el patrón global de la estimulación, como son las sensaciones. Éstas se definen en términos de luminancia, mientras que la conformación óptica se mide en términos de los márgenes existentes entre áreas de diferente luminancia. Las luminancias cambian con cambios en la iluminación, mientras que la conformación óptica permanece invariante ante esos cambios. La conformación óptica es un concepto relacional, mientras que las luminancias son las cantidades de luz medidas por un fotómetro.

Gibson estaba convencido de que el patrón de estimulación que llega a los sentidos, como pensaba Helmholtz y los clásicos, contiene toda la información necesaria para determinar de forma inequívoca qué ha de percibirse en una situación determinada. La supuesta pobreza del estímulo es, según Gibson, el resultado de estudiar la percepción en condiciones restrictivas en las que se priva al organismo de información que está disponible en condiciones normales y habituales de la vida cotidiana. La percepción cotidiana es una percepción dinámica que cambia a medida que el observador se mueve con respecto a la escena total, y ese tipo de percepción es el que, según Gibson, debemos estudiar.

Gibson trató de ofrecer una óptica ecológica como alternativa a la óptica geométrica utilizada por la teoría clásica. La óptica geométrica construye sus representaciones sobre el concepto de rayo de luz. Dado que la trayectoria de un rayo corresponde aproximadamente a la de un fotón, la óptica geométrica puede utilizar líneas rectas para representar esas trayectorias y emplear técnicas geométricas para poder predecir con aceptable aproximación la posición de las imágenes formadas por los sistemas ópticos. Para Gibson, la utilización de la óptica geométrica como base para la descripción de los estímulos es un error porque está fundamentada en abstracciones que no pueden captar la riqueza de la conformación óptica ambiental. La óptica geométrica es una ciencia de la luz, no una ciencia de la visión. Una óptica adecuada a una teoría de la percepción visual necesita hacer referencia a la forma particular en que se configura para el organismo el ambiente con el que interactúa.

Para ello se necesita una óptica ecológica.

La óptica ecológica propuesta por Gibson está organizada en torno a conceptos fundamentales: información y propiedad funcional.

En su libro Los sentidos considerados como sistemas perceptivos, Gibson introdujo el concepto de información en contraposición al concepto de energía. La energía es la estimulación apropiada para las células receptoras; los receptores responden a una energía particular. Sin embargo los órganos sensoriales son sistemas perceptivos que responden a estímulos de un orden superior al de los estímulos de los receptores. Los sistemas perceptivos responden a la información que hace referencia a los objetos mismos. Gibson no formalizó el término sino que lo utilizó para acentuar el carácter objetivo de la percepción en cuento que ésta nos informa acerca de los objetos. La información en Gibson es “información sobre algo” y únicamente significa “especificidad respecto del algo”. Gibson quiere poner de manifiesto que, por ser sistemas perceptivos y no simplemente órganos receptores, los sentidos son capaces de captar características reales de los objetos que no nos son dadas propiamente en la energía que llega a nuestros receptores sino en las relaciones que determinan la estructura de la conformación óptica.

La idea central de Gibson consiste en remachar que la investigación de la percepción debe centrarse en estudiar las propiedades de nuestros sentidos considerados como sistemas perceptivos, es decir, como totalidades dinámicas estructuradas cuya capacidad de captar información y propiedades funcionales sobrepasa con mucho la de sus componentes. Pero considera que este objetivo investigador no se logrará a base de descomponer el sistema y ver lo que tenemos “dentro de la cabeza” sino estudiando el medio ambiente, dentro del cual se encuentran inmersos nuestros sistemas perceptivos.

Percepción directa

Al decir que la percepción es directa, Gibson quiere decir que toda la información necesaria para determinar la percepción se encuentra en el medio ambiente y que no necesitamos recurrir a procesos del organismo para su explicación.

Dos aspectos merecen ser resaltados en las palabras de Gibson que acabamos de transcribir. Por un lado, su oposición a cualquier tipo de mediación basada sobre representaciones; por otro, su concepción de la percepción como un proceso activo.

Gibson prácticamente ignoró, como carente de valor para la teoría de la percepción, todo un conjunto de datos fisiológicos que, en nuestra opinión, no se pueden ignorar.

Con respecto a las investigaciones neurofisiológicas Gibson mantuvo en percepción una postura similar a la mantenida por los primeros conductistas respecto al aprendizaje: no proporcionan datos relevantes para una teoría de la percepción.

En cuanto a la concepción de la percepción como un proceso activo, hay que caer en la cuenta de la significación que el término activo tiene en Gibson. Lo utiliza para poner de manifiesto la importancia que la locomoción del observador tiene para cambiar el patrón estimular y para especificar la información presente, por ejemplo, en el flujo óptico. También lo utiliza para reconocer la importancia que la motivación puede tener para captar una determinada propiedad funcional en el estímulo. Para

Gibson toda la información está en la estimulación, el observador no aporta información alguna sino que se limita a captar aquella información con la que se encuentra en sintonía. Gibson, al igual que Reid, es un realista.

Otras influencias

Estímulo y conducta se encuentran inmersos en un círculo de interacción que determina su definición mutua. Este transaccionalismo, como se llamó entonces, tuvo su origen en los escritos del filósofo Dewey y dio origen a interesantes trabajos de investigación entre los que destacan las influencias demostraciones del investigador Adelbert Ames.

También muy influyentes fue el funcionalismo probabilista formulado por Egon Brunswich quien, al igual que Gibson, acentuó la importancia de estudiar situaciones ecológicamente válidas, en las que la estimulación no estuviera empobrecida sino que fuera representativa tanto de las situaciones en las que el organismo vive, como de las situaciones a las que el investigador quiere generalizar sus conclusiones.

Brunswick también estuvo muy interesado en reformular la teoría perceptiva de Helmholtz dejando de lado sus sensaciones elementales y sus mecanismos sensoriales. Pensaba que el aprendizaje perceptivo es el proceso que lleva al organismo a confiar en aquellos indicios o claves estimulares que están altamente correlacionadas con alguna propiedad física de los objetos o de los acontecimientos.

A pesar de que el concepto de sensación fue progresivamente abandonado, el estudio, de las respuestas a cambios en aspectos simples de la estimulación, continuó siendo tarea de la psicofísica. Una aportación importante a su desarrollo, fue la aparición de los métodos directos ideados por Stevens con el fin de conseguir escalas de razón en la medición de esas respuestas sensoriales. Stevens formuló su ley potencial psicofísica y dio origen a lo que hoy se conoce como nueva psicofísica para distinguirla de la psicofísica fechneriana.

La segunda mitad del siglo XX

A mediados del siglo XX se produjo un cambio en la orientación predominante en la investigación psicológica que afectó a todas sus áreas de especialización. Las actitudes conductistas cedieron rápidamente el paso al interés por los procesos subyacentes a la conducta de los organismos. Pronto se cayó en la cuenta del carácter cognoscitivo de esos procesos, sobre todo en el caso de la conducta humana, y surgió la moderna psicología cognitiva. La psicología cognitiva proporcionó al estudio de la percepción un marco de referencia en el que muchas de las ideas de la teoría clásica pudieron ser reformuladas. También ayudó a integrar otras dos corrientes de investigación científica cruciales para el desarrollo de la investigación en percepción: los avances de la investigación fisiológica y el computacionalismo.

La psicología cognitiva

La psicología cognitiva ha sido el tipo de psicología más frecuente en la corta historia de la psicología experimental. La teoría clásica, el estructuralismo e incluso la Gestalt pueden ser consideradas versiones distintas de una psicología cognitiva. Sin embargo, el término psicología cognitiva se utiliza hoy para designar una versión particular que s urgió a mediados del siglo XX, que suele también conocerse como procesamiento de información. Esta versión ofreció una aproximación al estudio de los procesos cognitivos considerando la mente humana como un sistema capaz de manejar símbolos de una forma semejante a un ordenador electrónico. La metáfora del ordenador constituye la analogía que va a servir de guía para estudiar los procesos mentales.

Al igual que un programa de un ordenador, los procesos mentales pueden ser analizados como una serie de fases o estadios. Cada estadio recibe una información de entrada, opera sobre esa información transformándola de alguna forma y produce una información de salida. El funcionamiento final del sistema es el resultado del conjunto de operaciones que, a través de las distintas fases, transforman la información inicialmente recibida. El estudio de los procesos que transforman la información de entrada (input) y producen una determinada salida (output) constituye el objeto de estudio de la psicología. La percepción es una fase del procesamiento de la información mediante la cual el organismo construye una representación del medio ambiente que pueda guiar su actividad. Esta representación se consigue sobre la base de la información proporcionada por la estimulación y mediante las operaciones que el sistema aplica a su trasformación.

Sistemas

El procesamiento de información considera la cognición como una actividad resultante de la interacción de los componentes de un sistema. No niega la importancia de analizar los componentes del sistema pero concede mayor importancia a la estructura y a la organización funcional resultante de la interacción de sus componentes. El procesamiento de información se sitúa en una posición intermedia entre el estructuralismo y la Gestalt.

Una forma de representar el funcionamiento de un sistema y sus componentes principales ha consistido en utilizar diagramas de flujo. Un diagrama de flujo es una forma abstracta de representar la organización de los componentes de un sistema y su funcionamiento.

Un diagrama de flujo permite representar los sistemas perceptivos como conjuntos de subsistemas que están compuestos de una información de entrada (input), un conjunto de operaciones representadas por los rectángulos, y una información de salida (output).

Una propiedad importante de los sistemas de procesamiento de información es la que Palmer y Kimchi han llamado su descomposición recursiva. La posibilidad de subdividir un sistema en otros subsistemas componentes, cada uno de ellos dotado de un input, de una función y de un output. A medida que avanza la investigación de cada uno de esos componentes, es posible proceder a un análisis más detallado del funcionamiento de cada subsistema mediante la especificación de sistemas menores que componen los subsistemas. Este esquema de análisis es recursivo porque se puede aplicar una y otra vez siempre que lo requiera el análisis del sistema que se está estudiando hasta que se llega a un último nivel que no se puede descomponer más. A los componentes de este último nivel se les suele denominar características primitivas, cuando se trata de componentes de una representación o, si se trata de procesos, son llamados operaciones elementales.

Información, codificación y representación

Se trató de utilizar el concepto de información en el sentido técnico propuesto por la teoría de la información de Shannon, que trataba de medirla en términos de la probabilidad de emisión de un mensaje, pero los resultados no fueron alentadores. Los intentos de formalizar el concepto se abandonaron y el concepto de información pasó a ser utilizado como sinónimo de conocimiento. Información es la cantidad de conocimiento que una persona adquiere o posee el medio ambiente que le rodea. En el caso de la percepción, no se trata tanto de la cantidad de información que hay en la estimulación, como era el caso de Gibson, cuanto de la cantidad de conocimiento que el observador puede llegar a adquirir sobre la base de esa estimulación.

Íntimamente relacionados con esta forma de concebir la información están lso conceptos de codificación y de representación. Para el procesamiento de información el conocimiento está organizado en la mente humana en forma de imágenes o en otros posibles formatos de representación. La información del medio ambiente que nos llega a través de los sentidos necesita ser trasladada a esas formas o códigos de representación por medio de un conjunto de procesos a los que se les da el nombre de procesos de codificación. La percepción es fundamentalmente un conjunto de procesos de codificación mediante los cuales se genera en el observador una representación mental del medio ambiente.

Características de los procesos

Pueden estar organizados de forma serial o en paralelo. La organización es serial cuando los procesos se llevan a cabo en secuencia, uno después de otro, y cada uno de ellos recibe como input el output final del proceso que le precede, por lo que no empieza a funcionar hasta que el proceso anterior ha finalizado. Cuando los procesos se organizan en paralelo actúan simultáneamente y su input es independiente del output de otros procesos.

Los primeros modelos que el procesamiento de información utilizó para representar procesos mentales, mostraban una organización serial. Los modelos de organización en mayor o menor grado en paralelo fueron ganando terreno. La rapidez con que tienen lugar los procesos perceptivos visuales parecía requerir una estructura del sistema visual en la que numerosas operaciones pudieran realizarse simultáneamente. Esta estructura exigía una división del trabajo de forma que distintos componentes del sistema perceptivo se especializaran en llevar a cabo un determinado conjunto de funciones. Cuando un sistema presenta una organización especializada de este tipo se dice que tiene una estructura o arquitectura modular, y a los componentes del sistema se les llama módulos.

Otra dimensión que el procesamiento de información ha utilizado para caracterizar a los procesos está relacionada con la dirección que sigue el flujo de procesamientol cuando el procesamiento está constituido por un conjutno de operaciones que operan sobre los datos que proporciona el input para construir representaciones progresivamente más complejas, se dice que el procesamiento tiene lugar de abajo a arriba. Cuando el procesamiento tiene lugar en la dirección opuesta, de forma que las representaciones más complejas, tales como objetivos o creencias, actúan mediante feedback sobre las operaciones más simples, se dice que el procesamiento tiene lugar de arriba abajo. Una caracterización afín a esta, es la que distingue entre procesos dirigidos por los datos, cuando operan con independencia de esas influencias, y procesos dirigidos conceptualmente, cuando operan bajo su influencia.

La teoría de la visión de Marr es una teoría concebida en su totalidad de abajo a arriba y fundamentalmente dirigida por los datos. Por el contrario, otras teorías han acentuado el papel que el conocimiento previo, las intenciones y las creencias ejercen sobre lo percibido; son teorías preferentemente de arriba abajo. La mayor parte de las teorías defienden la coexistencia de los dos tipos de procesamiento; estas teorías suelen ser llamadas interactivas.

Una última caracterización de los procesos que se ha utilizado frecuentemente en la psicología cognitiva, es la que distingue entre procesos automáticos y procesos bajo control atencional, frecuentemente llamados simplemente procesos controlados. Esta clasificación está relacionada con el grado de dependencia de la atención que un proceso tiene para poder llevar a cabo su función. Se llama automático a un conjunto o a una secuencia de operaciones que se pone en funcionamiento ante la sola presencia de un estímulo. La secuencia puede incluir tanto procesamiento de abajo a arriba como de arriba abajo. Un proceso automático puede formar parte de un sistema perceptivo de formar innata o como resultado de la práctica. La automaticidad y la dependencia del control atencional son características complementarias de los procesos perceptivos. Cuanto más automático es un proceso, menor implicación atencional requiere y cuanto menor grado de automaticismo posee más necesaria es la implicación de la atención para poder operar.

Métodos

El método sustractivo introducido por el psicólogo holandés Donders fue ampliamente utilizado. De acuerdo con este método, el tiempo empleado pro una persona en la realización de una atarea podía dividirse en una serie de fases o estadios cada uno de los cuales correspondía a una operación elemental componente de la tarea. Donders utilizó tareas muy simples que denominó con las letras A, B y C. la tarea A, que se ha llamado también tarea de tiempo de reacción simple o tarea de detección, consiste en la presentación de un único estímulo al que el observador debe responder lo antes que pueda con una única respuesta. La tarea A consiste, por tanto, en la presentación de un estímulo por parte del experimentador y la realización de una respuesta por parte del observador. La tarea B de Donders, llamada también tarea de tiempo de reacción de elección o tarea de discriminación, consiste en la presentación de dos o más estímulos y un número equivalente de respuestas, cada una de ellas asociada a un estímulo determinado. Ante la presentación de un estímulo por parte del experimentador, el observador debe contestar con la respuesta asociada a ese estímulo. En la tarea C de Donders, también llamada tiempo de reacción selectivo o tarea de responde/no respondas se presentan dos o más estímulos pero el observador sólo debe responder a uno de ellos y no responder al resto.

La lógica utilizada por Donders para hacer inferencias acerca de los procesos mentales es tributaria de supuestos que acabaron por resultar excesivamente restrictivos, aún así la aplicación de su lógica ha producido resultados interesantes cuando se ha aplicado a situaciones que cumplían los supuestos. Sus tareas han quedado como tareas fundamentales en la investigación de la percepción. Los intentos de superar las limitaciones del método sustractivo llevaron a la formulación de nuevos métodos, como el método de los factores aditivos de Sternberg, que contribuyeron a profundizar en la investigación cognitiva.

Muy próxima al procesamiento de información puede considerarse la Teoría de Detección de Señales (TDS), que surgió en la investigación psicológica cuando la psicofísica comenzó a prestar atención a los procesos implicados en la respuesta a estímulos simples. Esta teoría puso de manifiesto que una respuesta tan simple como la que un observador puede emitir en una tarea de detección encaminada a determinar un umbral absoluto, no refleja de forma incontaminada el funcionamiento de un sistema sensorial, sino que hay que tomar en consideración a los procesos de decisión implicados en la emisión de la respuesta. La TDS ha sido utilizada dentro del procesamiento de información como un procedimiento para mejorar las inferencias basadas sobre medidas de precisión.

El desarrollo de los modelos matemáticos fue extraordinario pero sobre todo hizo su aparición, como método específicamente ligado a esta aproximación psicológica, la implementación de las teorías mediante simulación en ordenador. Una simulación es un programa que al incorporar en su funcionamiento una teoría, permite contrastar sus predicciones y explorar sus consecuencias con una precisión difícil de alcanzar por otros procedimientos.

El computacionalismo

El computacionalismo representa la madurez teórica del procesamiento e información y la apertura de la psicología cognitiva a la interacción con otras disciplinas interesadas en la investigación de los procesos cognoscitivos. El ordenador había sido una fuente de inspiración para la psicología cognitiva desde sus comienzos. La referencia al ordenador no tenía las mismas connotaciones para todos los investigadores. Para unos, el ordenador era preferentemente una metáfora , una analogía que nos permitía pensar acerca de los procesos cognitivos. Para otros, sin embargo, el ordenador era mucho más que una simple metáfora; el ordenador y la mente humana eran casos particulares de una clase de sistemas de procesamiento de información que Newell y Simon llamaron sistemas de símbolos físicos. El estudio de estos sistemas y la búsqueda de una teoría general de los mismos constituyeron los objetivos de una nueva empresa científica a la que se denominó ciencia cognitiva.

La ciencia cognitiva surgió como una empresa multidisciplinar en la que convergió el interés por investigar los procesos cognitivos de disciplinas aparentemente tan dispares como la psicología cognitiva, la neurociencia, la inteligencia artificial, la lingüística, la filosofía de la mente y la antropología.

La teoría de David Marr

Marr mostró pronto su insatisfacción con el carácter fragmentario tanto de la investigación psicofísica como de la investigación fisiológica de la visión. La psicofísica resultaba casi exclusivamente descriptiva y la fisiológica, aunque estaba interesada en los mecanismos cerebrales de la percepción, producía, en opinión de Marr, unas explicaciones excesivamente simples. De forma irónica decía que pretender entender la visión estudiando sólo neuronas era como pretender entender el vuelo de las aves analizando sólo plumas. Para comprender el vuelo de las aves necesitamos conocer la dinámica del proceso y una vez conocida podremos construir una máquina que vuele.

Para éste, una teoría de la visión adecuada debe interesarse por los procesos de construcción de las representaciones que permiten al cerebro ver. Para ello se requiere una aproximación computacional que, como resultado final, permita construir máquinas que vean. La aproximación de Marr proporcionó tanto una filosofía de la investigación computacional como una teoría concreta de las principales fases de procesamiento visual.

Los niveles de análisis

A los puntos de vista desde los que podemos estudiar un sistema Marr les da el nombre de niveles de análisis. Cada nivel de análisis está determinado por un tipo de pregunta que nos hacemos acerca del sistema y la explicación adecuada a cada nivel de análisis es la respuesta a esa pregunta. Marr propuso que los niveles de análisis fundamentales son tres:

a) Nivel computacional→ es el nivel que especifica de forma abstracta el problema que un sistema de procesamiento de información tiene que resolver. La pregunta que determina este nivel es: ¿qué hace el sistema? Una explicación a este nivel tiene que apuntar a los objetivos y a la finalidad del sistema en un contexto determinado. Marr utilizó como ejemplo sencillo de sistema de información una caja registradora. Lo que hace una caja registradora son operaciones aritméticas elementales, como sumar o multiplicar. En el caso de la visión, una teoría computacional de la visión deberá especificar los objetivos fundamentales del sistema, por ejemplo, siguiendo a Aristóteles, puede definirse como objetivo fundamental del sistema visual descubrir a partir de imágenes qué existe en el mundo y dónde está.

b) Nivel algorítmico→ es el nivel que especifica cómo se llevan a cabo las operaciones o procesos del sistema. En este nivel es necesario especificar una representación que codifique el input y el output del sistema y un algoritmo que lleve a cabo la correspondencia entre input y output. En el ejemplo de la caja registradora, el nivel algorítmico deberá determinar si la representación que se utiliza es decimal o binaria y cuál es el algoritmo concreto utilizado para efectuar las operaciones. En el caso de un ordenador, el nivel algorítmico es el nivel del programa donde se especifican, en un lenguaje concreto de programación, los pasos necesarios para resolver un problema. Este nivel se pregunta por, y busca explicaciones relacionadas con el modo en que un sistema resuelve los problemas.
c) Nivel de implementación→ este nivel se interesa por la naturaleza de la realización física del sistema, por la tecnología que utiliza. En el caso de la caja registradora las preguntas típicas de este nivel tendrían que ver con ruedas dentadas o con circuitos electrónicos; en el caso de un sistema visual, tendrían que ver con circuitos integrados o con neuronas si se trata de un sistema biológico.
Los niveles de organización del procesamiento visual

Para Marr, el problema fundamental de la percepción visual en su conjunto es construir una descripción invariante de la forma y de la posición de las cosas a partir de imágenes. El sistema visual logra este objetivo a través de tres grandes pasos o fases de procesamiento a partir de un input inicial. Este input es una imagen bidimensional de la escena visual generada por los valores de intensidad de cada uno de los puntos de la imagen correspondientes a la excitación de los receptores. Las tres fases de procesamiento son las siguientes:

a) El esbozo primario→ el objetivo de esta fase es hacer explícita la información acerca de la imagen bidimensional; en primer lugar los cambios de intensidad que hay en ella, después la distribución geométrica y la organización de esos cambios. El input de esta fase es la imagen inicial. El output está formado por un conjunto de primitivas simples –bordes, barras, manchas y terminaciones- agrupadas de acuerdo con principios de organización semejantes a los propuestos por la Gestalt. Estas primitivas constituyen los elementos simbólicos básicos a partir de los cuales se van a construir las representaciones de las fases siguientes.

b) El esbozo 2 1⁄2 -D→ en esta fase se hace explicita la información acerca de la orientación y de la profundidad de las superficies visibles. También se especifican los contornos y las discontinuidades en orientación y profundidad en un sistema de coordenadas centradas en el observador. Se trata por tanto de recuperar información acerca de las superficies que conforman la escena visual en un espacio tridimensional, pero la consecución de la tercera dimensión no es perfecta, por eso esta fase se llama esbozo 2 1⁄2 -D, ya que los valores de orientación y de profundidad obtenidos están referidos al observador. El procesamiento en esta fase tiene dos características fundamentales: modularidad y paralelismo. La modularidad implica que los procesos que tienen lugar en esta fase son llevados a cabo de una forma especializada por distintos componentes del sistema visual; así mientras un módulo procesa el color, otro procesa el movimiento, otro la textura, otro la disparidad binocular, etc. El paralelismo implica que el funcionamiento de cada módulo es independiente del funcionamiento módulo de esta fase es el resultado de la fase de esbozo primario. c) El modelo 3-D→ en esta fase el sistema visual consigue una representación de las formas y de su organización espacial en un marco de referencia centrado en el objetivo mismo, utilizando una representación jerárquica y modular de primitivas volumétricas y de superficie. El input a esta última fase es el resultado de la fase anterior y el resultado final son modelos tridimensionales organizados jerárquicamente cada uno de ellos constituidos por una configuración espacial de ejes en torno a los cuales se engarzan las primitivas volumétricas.

El conexionismo

A comienzos de los años ochenta en el siglo pasado, apareció en la ciencia cognitiva una alternativa a los sistemas simbólicos conocida con el nombre de conexionismo.

Su objetivo fundamental era aproximar la teoría de los procesos cognitivos a la teoría del cerebro. Para ello propusieron construir representaciones con “inspiración neuronal” y procesos que funcionaran “al estilo del cerebro”, de ahí que esta aproximación sea conocida también con el nombre genérico de redes neuronales.

Una red neuronal está compuesta de un conjunto de unidades elementales de procesamiento parecidas a las neuronas del cerebro que están conectadas entre sí de una forma determinada. Las conexiones entre unidades de la red pueden tener distinta fuerza de forma que la conexión entre dos unidades puede ser más o menos fuerte que la conexión de cada una de ellas con una tercera unidad. Las conexiones entre unidades pueden ser excitatorias, si la activación de una unidad provoca un aumento en el nivel de activación de la otra, o inhibitorias, si el nivel de activación de la segunda disminuye como consecuencia de la activación de la primera. Las diferentes fuerzas de las conexiones excitatorias e inhibitorias entre las unidades de una red definen lo que se llama un patrón de conectividad que puede cambiar como consecuencia de sucesivas experiencias de acuerdo con una regla de aprendizaje.

Otros conceptos importantes para entender el funcionamiento de una red neuronal son: la regla de activación que especifica la forma en que se combinan las diferencias entradas que una unidad recibe para determinar el estado de activación de la unidad. Finalmente una red neuronal debe de concretar una función de output que determine la correspondencia entre el estado de activación y el output del sistema, y un ambiente que especifique el medio en el que debe funcionar la red.

Las redes neuronales dan lugar a representaciones distribuidas en las que no se puede establecer una correspondencia uno a uno entre las entidades del mundo representado y las unidades de la red. En una representación distribuida cada entidad del mundo está representada por el patrón de activación del conjunto de unidades que forman parte de la red y, a su vez, cada unidad de la red puede estar implicada en la representación de muchas entidades diferentes del mundo representado.

La investigación con redes neuronales han puesto de manifiesto que la acción coordinada de las unidades de una red da origen a propiedades emergentes capaces de simular procesos cognitivos. Por ello se han convertido en un importante instrumento de formalización de teorías psicológicas a la vez que proporcionan una forma de pensar acerca del funcionamiento del cerebro que permite aproximar entre sí los conceptos mentales propios de la psicología cognitiva y los conceptos fisiológicos propios de la neurociencia.

Los avances de la fisiología

Entre los principales hallazgos que llevaron a conceptuar el cerebro como un sistema de procesamiento de información merece la pena resaltar las investigaciones realizadas en la retina de las ranas por investigadores talos como Barlow y Lettvin, Maturana, McCulloch y Pitts. Estos autores descubrieron un tipo particular de células ganglionares en la retina de las ranas que respondían únicamente cuando un pequeño disco oscuro aparecía en su campo de visión. Si ese mismo estímulo se presentaba a una rana intacta, ésta se orientaba hacia el objeto e iniciaba una serie de respuestas tendentes a cazar y comerse el objeto. Los investigadores denominaron a esas células “detectores de bicho” pues parecían preferentemente sintonizadas a la presencia de los pequeños insectos que constituyen una parte importante de la dieta de las ranas. La significación teórica de estos hallazgos iba más allá de la mera curiosidad que el hecho podía suscitar: “la retina de la rana era capaz de transmitir un mapa de las características relevantes en el mundo del animal, y su función principal no era tanto transformar los distintos niveles de luminancia en impulsos nerviosos de diferente frecuencia, cuanto responder de forma invariante a distintos patrones de estimulación externa a pesar de los cambios en luminancia”.

Marco teórico

La función de la visión

La visión proporciona información precisa y a distancia sobre los objetos y sobre la posición espacial de los mismos en el medio ambiente a partir de la luz que los objetos emiten o reflejan. Mediante esta información el organismo es capaz de dirigir las acciones que garantizan su supervivencia.

La precisión de la visión es un requisito indispensable para la supervivencia del organismo. Si la visión no fuera capaz de informarnos sobre la identidad y sobre la posición espacial de los objetos nunca habría evolucionado hasta el nivel de precisión que ha llegado a adquirir en las personas. No quiere esto decir que la visión sea infalible; a veces nos engaña, por eso las ilusiones ópticas constituyen un importante conjunto de fenómenos que una teoría de la percepción debe explicar. Normalmente la visión es verídica y proporciona al organismo una información lo suficientemente precisa como para guiar sus acciones de forma eficaz.

La información que proporciona la visión tiene la propiedad de ser una información a distancia, lo que representa un valor adicional para la supervivencia del organismo pues le permite adquirirla sin entrar en contacto con los objetos y sin comprometer su seguridad.

La característica más específica y definitoria de la visión es que la información sobre los objetos y sobre su posición espacial se obtiene a partir de la luz que emiten o reflejan. Pero la luz que llega al observador depende de numerosos factores, depende de la iluminación que el objeto o la escena reciben, de la reflectancia de sus superficies, de su geometría, del punto de vista del observador, etc...

La propuesta por Gibson, que consideramos los sentidos, y en nuestro caso concreto la visión, como canales de la percepción consiste en recuperar las propiedades válidas de ese mundo externo a partir de la información de los sentidos.

El procesamiento de la información

Es necesario tomar en consideración las diferentes fases mediante las cuales el sistema visual procesa la información estimular y la convierte en conocimiento para el organismo del medio ambiente en el que se desarrolla su actividad.

Llevar a cabo este análisis del procesamiento de la información implica describir los diferentes tipos de representaciones que el sistema visual construye y los procesos que permiten la codificación de los estímulos, la progresiva organización de la escena visual y la construcción de las representaciones fundamentales. El concepto de representación es central en una teoría del procesamiento de información, pero no debe entenderse de forma simplista como una especie de fotografía dentro de la cabeza que es observada por un homúnculo más o menos misterioso, sino como un complejo sistema de correspondencias entre características del medio y códigos neuronales que permiten al sistema visual recuperar internamente la información relevante del medio.

Las tres primeras corresponden en términos generales a las tres fases propuestas por Marr que hemos visto anteriormente. La primera está centrada en el análisis de la imagen bidimensional proporcionada por la distribución de luminancia que llega a nuestros receptores y que es objeto del procesamiento visual inicial. La segunda está dedicada a la recuperación del trazado tridimensional de las superficies visibles, y la tercera a la obtención de la representación volumétrica de los objetos en coordenadas centradas en los objetos mismos. Al final de la tercera fase el sistema visual ha sido capaz de obtener una representación perceptiva de los objetos individuales y de la escena concreta presente en la estimulación. Aún es preciso considerar una fase última de categorización en la que las representaciones perceptivas alcanzan un significado al entrar en relación con el mundo conceptual del observador. En esta última fase, el mundo percibido proporcionado por los sentidos es asimilado e integrado en el sistema de conocimiento del perceptor.

Mecanismos neuronales

A partir de la mitad del pasado siglo el panorama empezó a cambiar y en la actualidad la relación entre psicología y fisiología del cerebro es cada vez más estrecha. La moderna neurociencia cognitiva permite relacionar los fenómenos perceptivos tradicionalmente estudios por la psicología y las estructuras cerebrales de una forma que hasta ahora o había sido posible. Todo hace pensar que esta nueva empresa multidisciplinar marcará el futuro de la investigación sobre percepción, y probablemente de la investigación psicológica en general.