Una corriente especialmente influyente dentro del cognitivismo ha sido la teoría del procesamiento de la información, que compara la mente humana con un ordenador para elaborar modelos que expliquen el funcionamiento de los procesos cognitivos y el modo en que determinan la conducta.

En este artículo describiremos los planteamientos y modelos principales de la teoría del procesamiento de la información. Asimismo haremos un breve recorrido histórico por la concepción del ser humano como máquina, propuesta por todo tipo de teóricos desde hace siglos pero que llegó a su culmen con la aparición de este enfoque.

La teoría del procesamiento de la información

La teoría del procesamiento de la información es un conjunto de modelos psicológicos que conciben al ser humano como un procesador activo de los estímulos (información o “inputs”) que obtiene de su entorno. Esta visión se opone a la concepción pasiva de las personas que caracteriza a otras orientaciones, como el conductismo y el psicoanálisis.

Estos modelos se engloban en el cognitivismo, paradigma que defiende que los pensamientos y otros contenidos mentales influyen en la conducta y deben ser distinguidos de esta. Se popularizaron en la década de 1950 como reacción a la postura conductista, predominante en la época, que concebía los procesos mentales como formas de conducta.

Las investigaciones y modelos teóricos desarrollados en el marco de esta perspectiva se han aplicado a un gran número de procesos mentales. Cabe destacar el énfasis particular en el desarrollo cognitivo; desde la teoría del procesamiento de la información se analizan tanto las estructuras cerebrales en sí mismas como en su relación con la maduración y la socialización.

Los teóricos de esta orientación defienden una concepción fundamentalmente progresiva del desarrollo cognitivo, que se opone a los modelos cognitivo-evolutivos basados en estadios, como el de Jean Piaget, centrados en los cambios cualitativos que aparecen a medida que los niños crecen (y que también son reconocidos desde el procesamiento de la información).

El ser humano como ordenador

Los modelos surgidos de este enfoque se fundamentan en la metáfora de la mente como ordenador; en este sentido el cerebro se concibe como el soporte físico, o hardware, de funciones cognitivas (memoria, lenguaje, etc.), que equivaldrían a los programas o software. Tal planteamiento sirve como esqueleto a estas propuestas teóricas.

Los ordenadores son procesadores de información que responden a la influencia de “estados internos”, el software, que puede por tanto ser utilizado como herramienta para operativizar los contenidos y procesos mentales de las personas. De este modo se busca extraer hipótesis sobre la cognición humana a partir de sus manifestaciones no observables.

El procesamiento de la información empieza con la recepción de estímulos (inputs en lenguaje computacional) a través de los sentidos. A continuación codificamos la información de forma activa por tal de otorgarle significado y poder combinarla con la que almacenamos en la memoria a largo plazo. Finalmente se ejecuta una respuesta (output).

Evolución de esta metáfora

Distintos autores han llamado la atención sobre las similitudes entre las personas y las máquinas a lo largo de la historia. Las ideas de Thomas Hobbes, por ejemplo, manifiestan una visión de las personas como “animales máquina” que recogieron también el padre del conductismo, John Watson, y otros representantes de esta orientación, como Clark L. Hull.

Alan Turing, matemático y científico de la computación, publicó en 1950 el artículo “Maquinaria computacional e inteligencia”, en el que describió lo que posteriormente se conocería como inteligencia artificial. Su obra tuvo una gran influencia en el ámbito de la psicología científica, favoreciendo la aparición de modelos basados en la metáfora del ordenador.

Las propuestas psicológicas de tipo computacional nunca llegaron a ser hegemónicas en sí mismas; no obstante, dieron paso a la “revolución cognitiva”, que fue más bien una progresión natural desde el conductismo mediacional estadounidense, con el cual los procesos mentales ya habían sido añadidos a los planteamientos básicos de la tradición conductista.

Modelos y autores principales

A continuación explicaremos de forma sintética cuatro de los modelos más influyentes surgidos en el marco de la teoría del procesamiento de la información. 

En conjunto estas propuestas explican muchas de las fases del procesamiento de la información, en el cual la memoria juega un rol especialmente destacado.

1. El modelo multialmacén de Atkinson y Shiffrin

En 1968 Richard Atkinson y Richard Shiffrin propusieron un modelo que dividía la memoria en tres componentes (“programas”, desde la metáfora del ordenador): el registro sensorial, que permite la entrada de información, un almacén de corta duración que pasaría a conocerse como “memoria a corto plazo” y otro de larga duración, la memoria a largo plazo.

2. Los niveles de procesamiento de Craik y Lockhart

Poco después, en 1972, Fergus Craik y Robert Lockhart añadieron al modelo multialmacén la idea de que la información puede ser procesada en grados crecientes de profundidad en función de si sólo la percibimos o además le prestamos atención, la categorizamos y/o le otorgamos significado. El procesamiento profundo, opuesto al superficial, favorece el aprendizaje.

3. El modelo conexionista de Rumelhart y McClelland

En 1986 estos autores publicaron “Procesamiento distribuido en paralelo: investigaciones sobre la microestructura de la cognición”, que sigue siendo un libro de referencia fundamental en este enfoque. En esta obra presentaron su modelo de las redes neuronales de almacenamiento de la información, avalado por la investigación científica.

4. El modelo multicomponente de Baddeley

La propuesta de Alan Baddeley (1974, 2000) domina en la actualidad la perspectiva cognitivista sobre la memoria operativa. Baddeley describe un sistema ejecutivo central que supervisa los inputs obtenidos a través del lenguaje receptivo (bucle fonológico), las imágenes y la lectoescritura (agenda visoespacial). El búfer episódico equivaldría a la memoria a corto plazo.

Referencias bibliográficas:

  • Leahey, T. H. (2004). Historia de la Psicología, 6ª Edición. Madrid: Pearson Prentice Hall.
  • Atkinson, R. C. & Shiffrin, R. M. (1968). “Human memory: A proposed system and its control processes”. En Spence, K. W. & Spence, J. T. (Eds.), The psychology of learning and motivation (Vol. 2). Nueva York: Academic Press.
  • Baddeley, A. D. & Hitch, G. (1974). “Working memory”. En G. H. Bower (Ed.), The psychology of learning and motivation: advances in research and theory (Vol. 8). Nueva York: Academic Press.
  • Baddeley, A. D. (2000). The episodic buffer: a new component of working memory? Trends in Cognitive Science, 4: 417-423.
  • Craik, F. I. M. & Lockhart, R. S. (1972). Levels of processing: A framework for memory research. Journal of Verbal Learning & Verbal Behavior, 11(6): 671–84.
  • Rumelhart, D. E., McClelland, J. L. & PDP Research Group (1987). Parallel distributed processing: explorations in the microstructure of cognition. Cambridge, Massachussets: MIT Press.