martes, 7 de octubre de 2008

La nueva ciencia de la mente - H. Gardner

Ante todo, está la creencia de que, al referirnos a las actividades cognitivas de los seres humanos, es menester concebir representaciones mentales y postular un nivel de análisis totalmente separado del nivel biológico o neurológico, por un lado, y del sociológico o cultural, por el otro.
En segundo lugar, está la creencia de que para la comprensión de la mente humana es esencial la computadora electrónica.
El tercer rasgo es su deliberada decisión de restar énfasis a ciertos factores que, si bien pueden ser importantes para el funcionamiento cognitivo, complicarían innecesariamente los estudios científicos en estos momentos (afectos, emociones, elementos históricos y culturales, contexto, etc.).
El cuarto rasgo es que los científicos cognitivistas tienen el convencimiento de la gran utilidad de los estudios interdisciplinarios. Una quinta característica es la afirmación de que un ingrediente clave de la ciencia cognitiva contemporánea es el temario y el conjunto de inquietudes que los epistemólogos de la tradición filosófica occidental han debatido durante largo tiempo.

LOS CIMIENTOS DE LA CIENCIA COGNITIVA

El simposio de Hixon y el desafío del conductismo

En 1948 se reunió el Simposio de Hixon para estudiar la forma cómo el sistema nervioso controla la conducta, pero los debates desbordaron finalmente el tema oficial. Así, Von Neuman trazó una notable analogía entre la computadora y el cerebro, y McCulloch entre el cerebro y ciertos procesos lógicos para procesar la información.
El psicólogo Lashley, sin conocer tanto de informática y computación, comenzó a sentar las bases de una ciencia cognitiva y atacó las fuerzas que habían impedido su desarrollo. Años antes, ya el conductismo había empezado a atacar a la psicología de base filosófica especulativa y al introspeccionismo, proponiendo que la psicología debía estudiar lo objetivo: la conducta, y con un método también objetivo fundado en la observación.
El conductismo había postulado la decisiva influencia del medio en la conducta humana, y entendió a ésta como una respuesta pasiva frente a los estímulos ambientales. Lashley postuló que adherir demasiado a estos cánones conductistas obstaculizaría el avance en el conocimiento de la mente humana, pues dejaba de lado aspectos como la imaginación, los deseos, etc., así como también las conductas humanas complejas como jugar o hablar.
Tampoco la neuropsicología podía dar cuenta de ninguna conducta ordenada en forma secuencial. Según Lashley, esas conductas debían ser planeadas de antemano según una organización psíquica jerárquica. Llegó a la conclusión de que la forma o estructura (del sistema nervioso) antecede y determina toda conducta concreta: la organización no es impuesta desde afuera sino que emana del interior del organismo.
Criticó a la neuropsicología la idea según la cual la mayor parte del tiempo el cerebro está inactivo, y se activa como reflejos aislados cuando aparecen ciertos estímulos específicos. El sistema nervioso, para Lashley, está jerárquicamente organizado y siempre está activo, y el control proviene de su centro y no del estímulo ambiental. Para demostrar su teoría, estudió especialmente el lenguaje.
¿Por qué el simposio de HIXSON es relevante para las ciencias cognitivas?. Tuvo especial importancia a raíz de dos hechos: la vinculación que allí se hizo del cerebro con la computadora y su implacable desafío al conductismo prevaleciente en ese momento.


Un momento crítico en la historia de la ciencia

El momento se vivió en el Simposio de Hixon, donde se abrían grandes posibilidades para resolver el enigma de la mente humana. Muchos estudiosos formados en la filosofía ahora veían un campo en la psicología, la lingüística, la antropología, la sociología y diversas neurociencias para dar respuesta a aquel enigma.
Además del conductismo, otros factores impidieron el lanzamiento apropiado de una ciencia de la cognición: el positivismo y el verificacionismo con su obsesión por lo observable y verificable, el psicoanálisis con sus intuiciones poco científicas. La situación política y las guerras vinieron a retardar más los estudios científicos de la mente. Pero la guerra trajo también un adelanto, pues el perfeccionamiento de dispositivos bélicos dio a Wiener, por ejemplo, la pauta que los mecanismos de retroalimentación tenían mucha semejanza con los procesos homeostáticos que hacen que el sistema nervioso desarrolle una actividad intencional. Estas ideas de retroalimentación, planificación, etc., eran totalmente antitéticas con el modelo conductista.
Las lesiones cerebrales producto de la guerra, estimularon los estudios de las funciones de las diversas partes del cerebro. Luego de la guerra, se sintió más la necesidad de una nueva disciplina que abordase científicamente el problema de la mente.

Aportes teóricos claves para la ciencia cognitiva

 Matemática y computación: hacia fines del siglo 19 hubo muchos progresos en matemática y lógica, superándose la lógica aristotélica y unificando ambas disciplinas mediante sistemas de símbolos abstractos, lo cual influyó sobre matemáticos como Wiener y Von Neumann, que la aplicaron a la nueva ciencia cognitiva.
En la década del '30, el matemático A. Turing inventó una máquina muy simple (una tira de papel con varios recuadros) capaz de hacer muchas operaciones usando solamente dos signos (sistema binario); esto entusiasmó a quienes pensaron que entonces podrían construir computadoras sobre esa base, pero también a los psicólogos, pues se había dicho que la máquina de Turing podía incluso llegar a pensar tal como lo hacía el hombre. En base a ello Von Neumann advirtió la posibilidad de hacer una máquina similar al cerebro, en el sentido de que dicha máquina tuviese una memoria interna almacenada en función de la cual actuar, y no como hasta entonces donde ante cada nueva tarea había que reprogramar todo de nuevo a la máquina. Se pensó por primera vez en la posibilidad que una máquina preparase y ejecutase sus propios programas.

 El modelo de la neurona: McCulloch y Pitts demostraron en 1943 que las operaciones de una neurona y sus conexiones con otras (red neural) podían representarse mediante un modelo lógico. De A y B podía deducirse C, aunque A, B y C fueran neuronas o enunciados lógicos. Tales circuitos eran también equiparables a circuitos eléctricos recorridos por ciertas señales.
Desde entonces se pensó en fabricar una computadora tan perfecta como la del cerebro humano, que funcionase de acuerdo a la ley del 'todo o nada', o sea, circuitos que se abren o se cierran, neuronas que se conectan o no se conectan, etc.
Fue un importante impulso para el desarrollo de la ciencia cognitiva la posibilidad de investigar la analogía entre el pensar humano en la resolución de problemas y las estrategias encarnadas en un programa de computación.

 La síntesis cibernética: Von Neumann y Wiener acopiaron información sobre el sistema nervioso, la matemática y la lógica. En particular Wiener se interesó por los mecanismos, tanto mecánicos como humanos, de autorregulación de la retroalimentación. Quedó asimismo impresionado por la analogía de McCulloch sobre la conexión lógica y la conexión nerviosa.
Wiener advirtió que se estaba creando una nueva ciencia que reunía los modos de funcionar del sistema nervioso, la lógica y la computación, a la que llamó 'cibernética' (1948), y que estudia según él la teoría del control y la comunicación, ya sea en una máquina o en un animal, o sea la forma de procesar la información por medios eléctricos, mecánicos o nerviosos. Esta síntesis es valiosa como aporte interdisciplinario, aunque no fue la que en definitiva adoptó la ciencia cognitiva.

 Teoría de la información: Shannon, fundador de la teoría de la información, empezó viendo un paralelismo entre los principios de la lógica (verdad-falsedad) con los dos estados (abierto-cerrado) de las llaves electromecánicas. Sobre esa base fundó la teoría de la información. El 'bit' (que significa dígito binario) es la unidad básica de información, definida como la cantidad de información requerida para seleccionar un mensaje entre dos alternativas equiprobables. Por ejemplo, para elegir un mensaje entre ocho alternativas equiprobables necesitamos tres bits: el primero limita la elección de 8 a 4, el segundo de 4 a 2, y el tercer de 2 elige una, o sea la última.
La información no es materia ni energía: sólo es información, y esta puede vehiculizarse por cualquier medio: nervios, computadora, etc.

 Síndromes neuropsicológicos: las lesiones cerebrales aportaron nuevo conocimiento a la ciencia cognitiva, sobre todo porque refutó la teoría del estímulo-respuesta o arco reflejo lineal. Por ejemplo, había afasias donde se mantenía la estructura de la oración pero no se reconocía el significado de las palabras, y al revés, en otras, se sabían los significados pero se armaba mal la oración.

Encuentros catalizadores y escritos influyentes

Hacia 1940 estaban ya sentadas las bases sobre las que más tarde habría de fundarse la ciencia cognitiva. Von Neumann, Wiener y Simon intuyeron un nuevo campo de estudio, una ciencia interdisciplinaria que estudiara la mente (la ciencia cognitiva). El Simposio de Hixon fue importante en la medida en que mostró la vinculación cerebro-computadora, y en la medida en que se opuso al conductismo prevalente. Pero este Simposio no fue lo único determinante.
Primero se reunió la Fundación Macy bajo el auspicio de Von Neumann y Wiener, y luego, agregándose Mc Culloch, se hicieron reuniones para estudiar la retroalimentación, los mecanismos causales circulares tanto en sistemas biológicos como sociales. De aquí extrajo el antropólogo Bateson sus ideas sobre el 'doble vínculo' aplicado a la esquizofrenia. El físico Oppenheimer se interesó por estos conceptos dentro de la psicología, invitando a tal efecto a psicólogos como Miller y Bruner, que luego serían pilares para el surgimiento de la ciencia cognitiva. El interés de Oppenheimer tenía que ver con la percepción, pues en física existía el principio de indeterminación que aludía justamente al problema de la observación de partículas subatómicas.
Por esta época (1940-1950) hubo muchos encuentros entre todo estos investigadores y otros más, de todo lo cual surgieron nuevas ideas como consecuencia del intercambio de información entre ellos. Aparecieron luego libros como por ejemplo el de Ashby, inglés, que buscaba dar cuenta de la mente en forma mecanicista. Por ejemplo, la lógica podía explicar el aprendizaje y la conducta adaptativa. Entendió la mente como una máquina que se organiza a sí misma, responde a estímulos con el fin de alcanzar estabilidad. No obstante, Ashby nunca se apartó en estas concepciones del conductismo.
En lingüística, Jakobson empezó a discernir en el lenguaje unidades a partir de las cuales se construyen los fonemas o sonidos básicos. En neuropsicología, Hebb habló sobre el desarrollo e involución de la inteligencia, y en antropología Bateson habló de la retroalimentación en los sistemas sociales. También hubo aportes desde la matemática, como los modelos estocásticos. Todo ello fue una preparación de la escena donde surgiría la nueva ciencia cognitiva, cuyas bases ya estaba sentadas con los aportes de McCulloch, Turing, Von Neumann, Wiener y Pitts. Estas investigaciones no formaba aún parte de la ciencia oficial del momento, que eran el conductismo, la lingüística estructural, la antropología funcionalista y la neuropsicología animal.

LAS PRIMERAS DECADAS DE LA CIENCIA COGNITIVA

Una fecha de nacimiento aceptada

Hay acuerdo en considerar el inicio de la ciencia cognitiva el 11 de septiembre de 1956, cuando se hizo un Simposio sobre la Teoría de la Información en EEUU. Miller recuerda dos aportes: uno de Newell y Simon (la computadora podía demostrar un teorema) y otro de Chomsky (el lenguaje humano es como un sistema matemático).
Miller, Bruner y otros se dieron cuenta así que las computadoras, el lenguaje, etc. eran casos especiales de un sistema más general, objeto de estudio de una futura 'ciencia cognitiva'. Las ciencias cognitivas entonces abarcan muchas disciplinas diversas, desde la teoría de la información hasta la lingüística, pasando por la neurología y la psicología y hasta la etología animal.
Así, se advirtieron analogías entre la computadora y la mente: ambas tenían un soporte material, por un lado (hardware) y estados mentales o programas (software) por el otro.

La década de 1960: el movimiento toma fuerza

Bruner y Miller fundan en Harvard el Centro para Estudios Cognitivos dando así impulso y gran difusión a las nuevas ciencias cognitivas. En 1960 publican "Los planes y la estructura de la conducta", anunciando allí el fin del conductismo y la necesidad de un nuevo enfoque cibernético de la mente, reemplazando el arco reflejo simple por la retroalimentación.
Las investigaciones continuaron, y por ejemplo en 1967 se publica "Psicología cognitiva", de Neisser, quien propuso una concepción constructiva de la actividad humana: la cognición implica procesos analíticos y sintéticos inventivos. También, Simon en "Las ciencias de lo artificial" propuso que tanto la computadora como la mente humana debían concebirse como sistemas simbólicos capaces de procesar, transformar, elaborar y manipular símbolos de diversas especies.

La iniciativa de la fundación Sloan

Hacia 1970 la fundación privada Sloan impulsó y financió una serie de investigaciones, entre las cuales se encontraban una sobre neurociencias, dedicadas al estudio del sistema nervioso, con lo cual dieron gran impulso a la ciencia cognitiva integrando las neurociencias.
Así, poco a poco fueron identificándose las diferencias disciplinas o ciencias cognitivas que habrían de integrar la llamada ciencia cognitiva. Estas diferentes disciplinas fueron 6:

Filosofía
Psicología
Lingüística,
Inteligencia artificial
Antropología
Neurociencia

Entre ellas se establecieron vínculos interdisciplinarios, que fueron fuertes (de la psicología con todas las demás, de la lingüística con todas las demás, de la filosofía con la psicología y la lingüística, de la antropología con la lingüística, la psicología y la neurociencia, de la neurociencia con todas las otras menos con la filosofía, y de la inteligencia artificial con todas menos con la filosofía y la antropología). Es decir, también hubo vínculos débiles.
Estas seis ciencias forman el llamado en 1978, "hexágono cognitivo", el cual informaba por esta época sobre el cuadro de situación de la ciencia cognitiva.

Características fundamentales de la ciencia cognitiva

Gardner plantea cinco características básicas de la ciencia cognitiva. Las dos primeras son supuestos nucleares, mientras que las otras tres son rasgos metodológicos o estratégicos.
1) Representaciones.- La ciencia cognitiva plantea la legitimidad de identificar un nivel de análisis llamado "nivel de la representación". Las representaciones son símbolos, esquemas, ideas, imágenes que se amalgaman y transforman entre sí, y ello explica el funcionamiento de la mente. Como son inobservables y superfluas para explicar esto, las representaciones son cuestionadas por el conductismo.
2) Las computadoras.- Las computadoras son concebidas como una prueba de existencia: si es posible sostener que una máquina piensa, tiene metas, corrige su conducta, modifica información, etc., entonces los seres humanos pueden ser caracterizados de la misma manera.
Pero además de servir de modelo para la mente, la computadora es también usada por los cognitivistas para analizar sus datos, y hasta simular con ella procesos cognitivos (inteligencia artificial).
3) Atenuación de la importancia atribuida a los afectos, el contexto, la cultura y la historia.- Los cognitivistas, en la práctica tratan de deslindar estos factores en sus investigaciones en el mayor grado posible.
4) Creencia en la validez de los estudios interdisciplinarios.- Aunque aún está lejos el ideal de una ciencia cognitiva integrada, es preciso la colaboración interdisciplinaria entre las diferencias ciencias cognitivas, pues cada una puede aprovechar los datos provenientes de las demás.
5) Las raíces en la tradición filosófica clásica.- Los problemas filosóficos clásicos son claves en la ciencia cognitiva contemporánea, como por ejemplo qué es conocer, como conocemos, etc. El ser humano tiene aspectos que no se asemejan a la computadora (es la llamada paradoja computacional).