Estar ahí : cerebro, cuerpo y mundo en la nueva ciencia cognitiva
 9788449306709, 8449306701

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

ANDY CLARK

ESTAR AHÍ Cerebro, cuerpo y mundo en la nueva ciencia cognitiva

PAIDÓS 4

Barcelona • Buenos Aires • México

Título original: Being there: Putting Brain, Body, and World TogetherAgain Publicado en Inglés por The Mit Press, Cambridge, Massachusetts Traducción de Genis Sánchez Barberán Revisión técnica de Fernando Martínez Manrique

Cubierta de Ferran Caries y Montse Piass

Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del -Copyright-, bajo tas sanciones establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier m edio o procedimiento, comprendidos la reprogratia y el tratam iento informático, y la distribución de ejemplares d e el!¿ mediante alquiler o préstamo públicos.

© 1997, Massachusetts Institute ol Technology © 1999 de la traducción, Genis Sánchez Barberán © 1999 de todas las ediciones en castellano, Ediciones Paidós Ibérica, S. A., Mariano Cubf, 92 - 08021 Barcelona y Editorial Paidós, SAICF, Defensa, 599 - Buenos Aires. http://www.paidos.com ISBN: 84-493-0670-1 Depósito legal: B. 2.014-1999 I

Impreso en A&M Gráfic, s.l„ 08130 Sta. Perpetua de Mogoda (Barcelona) Impreso en España - Printed ¡n Spain

A mi padre, Jim Clark, el chicarrón escocés que me enseñó a preguntarme...

Sumario

Agradecimientos . ........................................................................................ Prólogo: Del conexionismo a ¡a mente corpórea y em b eb id a___ . . . . Prefacio: Pensamiento profundo contra acción flu id a............................ Bases ............................................................. ..................... ......................... .... Introducción: Un automóvil con cerebro de cucaracha .........................

13 15 31 35 39

Primera parte DE EXCURSIÓN POR I.A M ENTE 1. Agentes autónomos: un paseo por 3a luna .............................. 1.1 Bajo el volcán ..................................... ................ ..................... 1.2 Desfile de robots ...................... , ................................................... 1.3 Mentes sin modelos .................... ................................................. 1.4 N ic h o s.............................................................................. ............... 1.5 ¿Sensibilidad para los detalles? ............................................ .. 1.6 El robot refinado ..................................................................... 71

49 49 50 61 63 65

2. El niño situ ad o ..................................................................................... 2.1 Yo, robot ....................................................................................... 2.2 Bucles de acción ........................................... ............................... 2.3 Desarrollo sin diseñ os........................................ ......................... 2.4 «Montaje blando» y soluciones descentralizadas .................... 2.5 Mentes con andam iajes................................................................. 2.6 La mente como espejo frente a la mente como controladora .

75 75 76 79 83 86 88

10 I Estar ahí

3. Mente y mundo: la frontera p lástica.................................................. 3.1 La mente escurridiza........................................................................ 3.2 Las redes neuronales: una revolución in conclusa.................... 3-.3 Apoyarse en el en torno............................ .................................... 3.4 Planificación y resolución de p ro b lem as................................... 3.5 Después del archivador ...............................................................

93 93 93 100 104 109

4. Sabiduría colectiva al estilo de los hongos m ucilaginosos............. 4.1 Aquí llega el mucílago ................................................................. 4.2 Dos formas de em ergencia............................................................ 4.3 Tripulaciones m arinas..................................................................... 4.4 Las raíces de la arm o n ía............................................................... 4.5 Modelos de la mente oportunista................................................ Intermedio: una historia con den sada..................................................

113 113 116 119 120 123 126

Segunda parte EXPLICAR LA M ENTE EXTEND ID A 5. Robots en evolución .............................. ............................................. 5.1 Las elusivas estratagemas de la mente corpórea y embebida . 5.2 Un telón de fondo evolutivo......................................................... 5.3 Los algoritmos genéticos como instrumentos de exploración 5.4 Inteligencia corpórea en evolución ............................................ 5.5 La batalla de los simuladores (¡Viva lo auténtico!)............... .. 5.6 Cómo comprender los agentes evolucionados, corpóreos y em bebidos.................................................................

131 131 132 133 135 139

6. Emergencia y explicación ..................................... .............................. 6.1 ¿Estilos diferentes?................... ................................................... 6.2 De las partes a los t o d o s ............................................................... 6.3 Los sistemas dinámicos y la explicación basada en la em ergencia....................................................................................... 6.4 Matemáticos e ingenieros......................... 6.5 Decisiones, decisiones ................................................................. 6.6 El cerebro contraataca .................................................................

149 149 150

142

160 166 170 174

7. La imagen neurocientífica................................................................... 177 7.1 ¿Cerebros? ¡Para qué! ................................................................. 177 7.2 Los dedos del m o n o ..................................................................... 179

Sumario I 11

7.3 La visión de los primates: de la detección de características a los filtros sintonizados..................................... 182 7.4 Hipótesis del control neuronal.................................................... 184 7.5 Refinar la representación ............................................................ 190 8. Ser, computar, representar................................................................... 193 8.1 ¿Noventa por ciento de vida (artificial)?................................... 193 8.2 ¿Qué es eso que llamamos representación?.............................. 193 8.3 Representación orientada hacia la acción ............................ 200 8.4 Programas, fuerzas y programas parciales................................... 204 8.5 Seguir el ritm o.................................................................................. 213 8.6 Causalidad recíproca continua...................................................... 215 8.7 Problemas ávidos de representación .............................. 219 8.8 R aíces..................................................................................................224 8.9 Representacionalismo m ín im o...................................................... 228

Tercera parte MÁS ALLÁ 9. Mentes y mercados .............................. . ......................... ...................233 9.1 Cerebros salvajes, mentes andam iadas......................................... 233 9.2 Perdidos en el superm ercado.........................................................235 9.3 ¿Oficinas inteligentes?..................... 239 9.4 Dentro de la m áqu ina............................................... 241 9.5 Entornos de d iseñ o ..........................................................................245 10. Lenguaje: el artefacto d efin itiv o ...........................................................247 10.1 El poder de la palabra ...............................................................247 10.2 Más allá de la comunicación................................................. .... 248 10.3 Cambio de espacios ..................................................................... 255 10.4 Pensar sobre el pensar: el efecto del m an g la r........................263 10.5 La adaptación del lenguaje al cerebro ..................................... 267 10.6 ¿Dónde acaba la mente y empieza el resto del m u n d o ?---- 270 11. Mentes, cerebros y atunes: un resumen en salm uera......................277 Epílogo: habla un cereb ro................................. 281 Bibliografía ......................................................................................................287 Indice analítico y de n om b res..................................................................... 301

Agradecimientos

Parte de los capítulos 6 y 9 y del epílogo se basan en los siguientes ar­ tículos escritos por mí. Agradezco a los compiladores y editores su autoriza­ ción para utilizar este material. • «Happy complings: Emergence, exploratory styles and embodied, embedded cognition», en Readings in tbe Philosopby o f A rtificial Life, M. Boden (comp.), Oxford University Press. • «Economic reason: The interplay of individual learning and external structure», en Frontiers o f hutilutional Economics, J. Drobak (comp.), Academic Press. • «I am John’s brain», en Journal o f Consciomness Stttdies, 2 (1995), n° 2, págs. 144-148. La procedencia de las figuras se acredita en las notas al pie correspon­ dientes.

Prólogo: Del conexionismo a la mente corpórea y embebida

La visión un tanto idealizada que la ciencia cognitiva tiene de sí misma (por ejemplo, Gardner, 1985) es la de un área en la que confluyen los es­ fuerzos interdisciplinarios de fuentes tan diversas como la inteligencia artifi­ cial, la psicología, la lingüística o las neurociencias. Cada una de estas disci­ plinas es a su vez una ciencia en movimiento, en la que cada semana están apareciendo nuevas tecnologías, nuevas hipótesis y un caudal de datos que resulta difícil conjugar en un todo coherente. Si a esto añadimos que la ma­ teria de estudio, el fenómeno de lo mental, está plagada de embrollos filosó­ ficos, nos encontramos con una ciencia que está en un proceso continuo de redefinición de sus límites, de sus tareas y de su aparato conceptual. Es fácil que al adentrarse en busca de explicaciones uno se encuentre inmerso en unas arenas movedizas que amenazan con tragarle. Como sabe todo aquel que haya visto una película de la jungla, la mejor manera de salir de unas are­ nas movedizas no es por medio de brazadas bruscas y movimientos violen­ tos, sino sujetándose a alguna liana y tirando firmemente pero con paciencia. Estar ahí, el tercer libro de Andy Clark, nos proporciona una de esas lianas. A diferencia de sus dos obras anteriores, Microcogn ilion («Microcognición», 1989) y Associative Engines («Motores asociativos», 1993), centradas principalmente en analizar los supuestos que hay detrás del enfoque conexionista de la cognición y en articular las consecuencias de este enfoque para la concepción general de la mente, el conexionismo no es el tema central de Estar ahí, aunque siga ocupando un lugar preeminente. De hecho, y muy en consonancia con el enfoque de la ciencia cognitiva que se va a ofrecer, no es fácil ni conveniente identificar un aspecto determinado como el tema o ar­ gumento central de este libro, sino que existe toda una colección de concep­ tos clave que se entrelazan en un tejido explicativo común. Nociones como descentralización, emergencia, sistemas dinámicos, reconocimiento de p a­

16 ! Estar ahí

trones, conducta adaptativa, van a conformar un entramado caleidoscopio), aderezado por una multitud de ejemplos de procedencia tan diversa como la robótica, la etología, la economía o el desarrollo infantil. Todo ello con el ob­ jeto de recuperar para la ciencia cognitiva cuestiones relativas al cuerpo y al ambiente, que no sólo rodean a la mente sino que, de acuerdo con el autor, forman con ella un mismo sistema. A pesar del carácter notablemente diferente de este último libro respec to a los trabajos anteriores, hay un rastro de preocupaciones y motivos afines a lo largo de las tres obras. El objeto de este prólogo, por tanto, es poner a la vista la evolución del pensamiento de Clark en el contexto de sus primeras obras sobre conexionismo, de modo que el lector pueda apreciar, al menos a grandes rasgos, el proceso que desemboca en la imagen de la mente corpó­ rea y embebida que se plasma en Estar ahí.

Las redes del pensamiento Los sistemas conexionistas irrumpieron con fuerza en el ruedo cognitivo a mediados de la década de los ochenta. En ese momento la concepción do­ minante entre quienes emplean modelos computacionales de las funciones mentales se basa en la manipulación de representaciones simbólicas discre­ tas y sintácticamente estructuradas por medio de reglas sensibles a dicha es tructura. Las representaciones se conciben como símbolos capaces de reci­ bir una interpretación semántica en función de la relación particular que posean con el ambiente o con otros símbolos. Son, asimismo, capaces de combinarse con otros símbolos para formar estructuras más complejas. Los procesos cognitivos, por su parte, serán de carácter algorítmico. Una deter­ minada función se realizará a través de una serie de transformaciones de es­ tructuras simbólicas. Las transformaciones vienen dadas por un conjunto de reglas que determinan los pasos permisibles a partir de cada estado del sis­ tema. El enfoque que se deriva de esta visión ha recibido distintas etiquetas, más o menos afortunadas, como cognitivismo clásico, paradigma simbólico, computacionalismo ortodoxo, enfoque de representaciones y reglas, o el acróstico GOFAI (Good Old-Fasbioned A rtificial bitelligence o inteligencia artificial al viejo estilo). En oposición a este tipo de organización, los distintos tipos de sistemas conexionistas están constituidos por unidades simples interconectadas for­ mando una red cuya estructura está inspirada, de un modo muy general, en las características de la arquitectura neuronal del sistema nervioso, por lo que también reciben el nombre de redes neuronales artificiales. Las unida­ des o nodos poseen un determinado grado de activación, la cual se propaga

Prólogo I 17

a través de las conexiones hacia otras unidades, activándolas o inhibiéndolas en mayor o menor medida según el peso y valor (positivo o negativo) de las conexiones. Para llevar a cabo una tarea es preciso entrenar a la red, de ma­ nera que modifique los pesos de las conexiones entre las unidades hasta que se asiente en una solución estable al problema. La conducta del sistema es así el producto de la interacción de sus elementos. Este enfoque también ha sido bautizado de diversas maneras, como conexionismo, paradigma sub­ simbólico, neurocomputacionalismo o enfoque PDP (Procesamiento Distri­ buido en Paralelo). El conexionismo atrajo inmediatamente la atención de un nutrido grupo de insatisfechos con las aproximaciones computacionalistas simbólicas tradi­ cionales. Entre ellos se contaban investigadores de muy distintos credos, ta­ les como holistas, asociacionistas, eliminativistas, neurocomputacionalistas o anticomputacionalistas. Esta diversidad de partidarios se debe, en parte, al carácter opaco de los procesos en los que se basa la conducta de una red conexionista. La actividad es producto de los vínculos asociativos existentes en­ tre las unidades de la red, de ahí la etiqueta (o, para algunos, la acusación) de asociacionista. El sistema integra simultáneamente (en paralelo) un cúmulo de elementos de información que determinan conjuntamente la respuesta del sis­ tema ante un estímulo determinado, de ahí la etiqueta de bolista. Por otra parte, los neurocomputacionalistas confiaban en que los nuevos sistemas per­ mitirían integrar los datos procedentes de la neurociencia en modelos computacionales que idealizasen el funcionamiento de los sistemas nerviosos. Así, el conexionismo permitiría vislumbrar la forma básica de las representaciones en los sistemas biológicos. Los detractores del computacionalismo, por el contrario, veían en el carácter emergente de la conducta de la red con respec­ to a la actividad de las unidades un punto de apoyo para rechazar cualquier interpretación representacional y computacional de las estructuras y procesos internos responsables de dicha conducta. Los eliminativistas, sin embargo, in­ terpretaban la falta de vínculos claros entre las entidades que identificamos en nuestras explicaciones psicológicas de andar por casa (entidades tales como creencias y deseos) para decretar la expurgación de nuestro lenguaje psicológico científico de semejantes entidades ficticias. A la hora de contrastar el enfoque conexionista con el simbólico, el des­ concierto ha seguido siendo la norma. Las redes eran empleadas con éxito en la solución de problemas del mismo tipo que en el enfoque convencional, y la vocación de sus primeros promotores era más reformista que revolucio­ naria con respecto a la ortodoxia cognitiva. No obstante, las redes se resistí­ an al análisis clásico en términos de estructuras (los datos) y procesos (los programas) que caracterizaba a la inteligencia artificial típica. A primera vis­ ta es evidente que existe alguna diferencia entre ambas familias y para ca­

18 I Estar ahí

racterizarla se han señalado aspectos como los primitivos computacionales que emplean, la metodología de construcción del sistema, la capacidad re­ presen racional, la adecuación a los datos procedentes de la neurofisiología, la posesión de reglas, el nivel de explicación en el que se sitúan, el grado o tipo de innatismo que permiten, el modo de tratar las actitudes preposicio­ nales, el tipo de contenido, el tipo de conceptos y un sinfín de aspectos más; y prácticamente respecto a cada diferencia señalada ha habido quien ha ar­ gumentado que tal diferencia no existe. El conexionismo pedía a gritos un análisis de sus cualidades y supuestos que permitiera ubicar con mayor claridad su lugar dentro del estudio de la cognición. Microcognition, el primer libro de Clark, es uno de los hitos prin­ cipales en la tarea de llevar a cabo este análisis. Su objeto es delinear qué imagen de la mente y de la ciencia cognitiva se sigue si aceptamos los postu­ lados conexionistas. Clark evita los posicionamientos rupturistas y las con­ frontaciones estériles para rescatar una imagen de la cognición que haga jus­ ticia tanto a tres décadas de ciencia clásica como a los deseos de renovación. Una propiedad crucial con la que exhibir la diferencia entre los sistemas conexionistas y sus predecesores simbólicos es la transparencia semántica. En expresión de Clark U989, pág. 18), un sistema posee transparencia semánti­ ca cuando «es posible describir una correspondencia nítida entre una des­ cripción semántica simbólica (de nivel conceptual) de la conducta de un sis­ tema y una interpretación semántica proyectable de los objetos de su actividad computacional formal representados internamente». Las descrip­ ciones de nivel conceptual son, en general, aquellas que nos proporcionan los predicados psicológicos ordinarios que utilizamos para hablar de la con­ ducta propia y ajena. En estas descripciones tienen un papel destacado las referencias a creencias, deseos y otros términos con los que designamos es­ tados mentales, tales como ver, esperar, intentar, suponer, etc., pero también pertenece a este nivel todo aquello que identificamos normalmente como un concepto. Así, al ver un perro uno categoriza de una determinada manera una porción de realidad, esto es, la hace corresponder a un concepto. Los sistemas clásicos son inherentemente transparentes. Los objetos de computación son los símbolos que se transforman en las transiciones de es­ tado del sistema. Muchos de estos símbolos poseen una interpretación se­ mántica que corresponde a las entidades del nivel conceptual y los distintos estados mentales se diferencian en términos de los roles funcionales en que se puede hacer intervenir a los símbolos. Las reglas que gobiernan las transi­ ciones están definidas de modo que la conducta global del sistema sea se­ mánticamente coherente a través del tiempo, generalmente haciendo que el sistema respete una serie de principios lógicos. En el caso de los sistemas co­ nexionistas, por el contrario, la transparencia desaparece: los procesos com-

Prólogo I 19

putacionales que tienen lugar en una red neurona) no se llevan a cabo sobre elementos que posean una interpretación directa en el nivel conceptual. In­ cluso cuando se trata de una red local (aquella en que cada unidad sí corres­ ponde a una entidad de nivel conceptual, como objetos o proposiciones), la conducta viene determinada por el funcionamiento conjunto de todas las unidades, no por la transformación serial de unos símbolos en otros. Cada una de las pequeñas porciones de información codificadas en las unidades y en los pesos o fuerzas de las conexiones puede considerarse como una res­ tricción débil que influye en el resultado final de la conducta de la red. Una lección del conexionismo, por tanto, es que la relación entre los pensamien­ tos y lo computacional puede ser más laxa que lo supuesto inicialmente. Otro importante principio defendido en Microcognition es la multiplici­ dad de la mente. La polémica entre clásicos y conexionistas gravita, en bue­ na parte, en una sucesión de intentos de mostrar que el enfoque respectivo es capaz de constituir el sustrato único en el que se desarrolla toda la activi­ dad mental. En la terminología de Pylyshyn (1984), se puede decir que am­ bos campos se consideran capaces de proporcionar la arquitectura funcio­ nal, esto es, una suerte de punto fijo sobre el que se definen todas y cada una de las funciones mentales. Clark rechaza el supuesto de uniformidad que subyace en esta discusión: no tenemos motivos para pensar que todas las funciones mentales tengan que asentarse sobre el mismo tipo de arquitectura computacional. Al igual que es posible programar un determinado soporte computacional para que opere simulando el modo de funcionamiento de un soporte distinto, es po­ sible que el hardware de la mente esté formado en ocasiones por un sistema PDP que simula un sistema simbólico. Esto no significa, como algunos pro­ ponen (por ejemplo, Smolensky, 1988), que lo simbólico sólo sea una des­ cripción aproximada de un mecanismo causal genuinamente conexionista; más bien, lo simbólico podría constituir en ocasiones la descripción funcio­ nal correcta. Lo cierto es que no tiene por qué existir un solo tipo de rela­ ción entre ambos tipos de sistemas a lo largo de toda la mente. Es mejor con­ cebir que existe una pluralidad de máquinas virtuales adaptadas para distintos propósitos en el curso de la evolución, máquinas que dejan traslu­ cir sus propiedades en dominios de problemas diferentes. La idea de la multiplicidad de la mente cobra nuevos giros en Estar ahí, especialmente en el énfasis en los procesos descentralizados. La imagen sim­ bólica de la mente está a menudo asociada con la presencia de un sistema central que recibe y procesa la información de una variedad de sistemas pe­ riféricos. Por ejemplo, en la concepción modular de Fodor (1983) este pro­ cesador central llevaría a cabo la fijación de creencias atendiendo a toda la evidencia suministrada por los sistemas modulares de entrada, tales como la

20 ] Estar ahí

percepción visual o el lenguaje, para enviar la decisión adoptada a un siste­ ma motor de salida encargado de ejecutar la orden en cuestión. Clark, sin embargo, muestra una abigarrada colección de ejemplos en que la figura del sistema central desaparece y la mente se multiplica a lo largo de un sistema de entidades individuales enfrascadas en una tarea común. Podemos ver des­ centralización tanto en las conductas colectivas de las sociedades de insec­ tos, como en la estructura neuronal del sistema nervioso o en la organización de las funciones de un determinado grupo humano. Descentralización no entraña desorganización: el medio en el que se de­ sarrolla la conducta en cuestión impone una serie de restricciones que con­ figuran el resultado final tanto como la dinámica interna de los agentes im­ plicados. Si el conexionismo, al igual que los modelos clásicos, no puede fundamentar toda la cognición, los recursos de procesamiento de base esta­ dística con que cuenta necesitan ser complementados y potenciados. Estar ahí examina los modos en que tanto la misma constitución corporal como la manera en que ésta se relaciona con un ambiente que posee su propia es­ tructura y dinámica pueden proporcionar dicha complementariedad, en un delicado equilibrio de factores internos y externos.

Lo interno y lo externo: el caso de la sistematicidad El desplazamiento desde una posición conexionista baria una visión que otorga mayor relieve al papel del cuerpo y el medio externo es en parte una consecuencia natural de las propias ventajas y debilidades de las redes neuronales artificiales. Podemos tomar como ejemplo una de las más arduas po­ lémicas entre el cognitivismo clásico y el conexionismo: el argumento de la sistem aticidad, desarrollado por Fodor y Pylyshyn (1988). Existe una rela­ ción intrínseca entre pensamientos como Juan ama a María y María ama a Juan, de modo que las mentes capaces de pensar el primero son así mismo capaces de pensar el segundo. Una propiedad como ésta puede explicarse si consideramos que el medio en que se desarrollan los pensamientos posee una estructura de constituyentes que corresponden a cada uno de los ele­ mentos identificables en el pensamiento correspondiente {Juan, ama y Ma­ ría). Estos constituyentes son combinables entre sí, de modo que el signifi­ cado del compuesto viene determinado por el significado de los componentes más simples que intervienen. En otras palabras, la composicionalidad del lenguaje y el pensamiento sería un factor explicativo crucial para la sistematicidad. El argumento de la sistematicidad se emplea contra el conexionismo aduciendo que los sistemas conexionistas no poseen estructura de constitu­

Prólogo I 21

yentes, con lo cual no son capaces de explicar una propiedad omnipresente de lo mental. Pero lo que es más, de acuerdo con Fodor y Pylyshyn, poseer dicha estructura es, sumado a la presencia de procesos sensibles a ella, una característica que define a los sistemas clásicos. En consecuencia, si los conexionistas son capaces de dotar a sus sistemas de una estructura de consti­ tuyentes, lo máximo que habrán logrado es implementar un sistema clásico en una red neuronal artificial. Dicho de otro modo, la auténtica explicación psicológica seguiría siendo de naturaleza simbólica y el conexionismo sólo habría proporcionado el mecanismo, descrito a un nivel demasiado bajo para los propósitos de la ciencia cognitiva, en el que el sistema de símbolos se realiza. El conexionista se encuentra así ante un dilema: o bien sus mode­ los no son capaces de explicar la sistematicidad porque carecen de la estruc­ tura necesaria, o si lo hacen en realidad parasitan la explicación clásica. Ante este dilema la reacción de algunos partidarios del conexionismo (por ejemplo, Smolensky, 1988) es desarrollar metodologías para dotar a las redes de constituyentes y mostrar al mismo tiempo que los sistemas obteni­ dos no son implementaciones de modelos clásicos. Estas propuestas han sido objeto de una larga disputa con los cognitivistas clásicos, disputa difícil de resolver por cuanto comporta cuestiones espinosas (por ejemplo, cuándo podemos decir que un sistema tiene una estructura de constituyentes o qué condiciones deben cumplirse para afirmar que un sistema realiza o implementa a otro). Otros (por ejemplo, van Gelder, 1990) desarrollan una noción de composicionalidad que no requiere la concatenación de símbolos, una composicionalidad funcional que podría responder a las necesidades de los procesos conexionistas. En la posición adoptada por Clark, los intentos de emplear la sistematici­ dad como objeción contra el conexionismo son fútiles, puesto que la sistema­ ticidad no es una propiedad de la arquitectura interna de la mente. Clark (1989, cap. 8) insiste en que el hecho empírico a explicar es la sistematicidad de la conducta, no la sistematicidad del pensamiento. Esta última propiedad hace referencia a un hecho conceptual. No se trata de que no podamos encon­ trar organismos que posean capacidades mentales no sistemáticas (en el senti­ do de que falte la conexión intrínseca reclamada por Fodor y Pylyshyn), sino que precisamente la ausencia de sistematicidad sería motivo suficiente para no atribuir mente a tales entidades. En otras palabras, forma parte de nuestro concepto de mente el hecho de que los pensamientos estén sistemáticamente relacionados. Clark no niega que las causas internas (es decir, computacionales) tengan relevancia constitutiva para el pensamiento, pero no ve la necesi­ dad de que se preserve una correspondencia 1:1 entre pensamientos y estados computacionales. Ello se debe a que la individuación de los pensamientos de­ pende de otros factores (las conductas) cuya influencia es holística.

22 I Estar ahí

La adscripción de un determinado pensamiento a un agente, apunta Clark, se hace en función de una amplia porción de la conducta del agente. Supongamos que un organismo es capaz de responder a una determinada re­ lación entre dos objetos aRb (por ejemplo, a es más alto que b) pero no a bRa (por ejemplo, un animal al que fuera posible entrenar para que respondiera ante aRb, pero no ante bRa). De un hecho como éste no concluimos, argu­ menta Clark, que el organismo es capaz de pensar aRb e incapaz de pensar bRa, sino más bien que «su patente incapacidad de tener un espectro de pen­ samientos que involucren a a, b y la relación mayor-que debería frustrar el intento de adscribirle el pensamiento ‘a es mayor que b' en primera instan­ cia». (1989, pág. 147). En Associative Engittes, la sistematicidad va a ser contemplada más bien como una propiedad de determinados entornos. Se puede establecer un contraste entre «la sistematicidad como algo impuesto en una criatura por la forma básica de su arquitectura cognitiva y la sistematicidad como un ras­ go de uno o más dominios (esto es, como algo a aprender por parte de una criatura a medida que intenta dar sentido a un conjunto de datos de entre­ namiento)». (1993, pág. 148). En un entorno sistemático existen patrones recurrentes de estados de cosas, por ejemplo, individuos y propiedades aso­ ciados de maneras estables, que un mecanismo cuya capacidad básica es el reconocimiento de patrones puede llegar a aprehender. Un entorno siste­ mático por excelencia lo constituye el lenguaje. Su sugerencia, por tanto, es vincular las condiciones de aparición de la sistematicidad con las de la ad­ quisición de un lenguaje público estructurado sintácticamente. Pero el pro­ blema es, a sus ojos, tan intratable que recomienda ponerlo entre parénte­ sis mientras se investigan ulteriores métodos de procesamiento sensible a la estructura. La actividad de un organismo en su entorno pasa a un primerísimo pla­ no en Estar a h í, no sólo para la adscripción de estados mentales sino como parte integrante de ellos. Desde el cognitivismo tradicional, la conducta constituye una de las fuentes (o la principal) de evidencia acerca de las pro­ piedades y capacidades mentales. Pero lo mental propiamente dicho es algo que interviene entre los estímulos (la entrada o input, en términos de proce­ samiento de información) y las respuestas (la salida o output). A diferencia de esto, Clark va a proponer que la interacción cuerpo-mundo es constituti­ va de la mente. Esta posición podría parecer a primera vista un retorno al conductismo de viejo cuño, para el cual no existe lo mental como elemento explicativo ni ontológicamente sólido, sino tan sólo cadenas de estímulos y respuestas observables. Pero la postura de Clark dista mucho de esta disolu­ ción de la mente que realiza el conductista. Muy al contrario, su intención es extender lo mental, de modo que podamos abandonar la idea de una esfera

Prólogo I 23

desconectada de los avatares del cuerpo que realiza las acciones y del am­ biente en que éstas se llevan a cabo. Esta extensión puede interpretarse en dos fases o momentos. El primero tiene que ver con la metodología explicativa. Los constructos necesarios y su­ ficientes en una explicación cognitiva abarcan mucho más que los estados in­ ternos del sistema a explicar. No solamente se trata de que estos estados nos sean ininteligibles e indetectables si no es desentrañando las condiciones ex­ ternas en que la acción del sistema se lleva a cabo; se trata de que la explica­ ción misma será radicalmente incompleta si no hacemos referencia a tales condiciones. Esta ¡dea se encuentra ya plenamente presente en Associative Engines y permite repensar desde la perspectiva conexionista una clase am­ plia de fenómenos mentales olvidados en buena medida por la ciencia cogni­ tiva. Se trata de los fenómenos relacionados con el desenvolvimiento de la conducta en el tiempo, por ejemplo, todos aquellos implicados en el proceso de desarrollo y cambio conceptual. Los análisis de la ciencia cognitiva al uso (por ejemplo, Von Eckardt, 1993) dictaminan que su objeto de estudio típico es la cognición adulta, normal y típica. Los estudios del desarrollo de las fun­ ciones mentales tienen sólo una función secundaria, en la medida en que ayu­ den a esclarecer el funcionamiento de una mente formada. Una desafortuna­ da consecuencia de este enfoque es la concepción de la mente como un estadio «a alcanzar», una suerte de horizonte ideal cuyas bases constitutivas es posible estudiar con independencia de su proceso de adquisición. Los procesos de cambio en el tiempo forman, sin embargo, una parte consustancial del estudio de la mente para Clark. En estos procesos el am­ biente interviene de una manera crucial. Una red neuronal no alcanza una solución con igual facilidad (o incluso no la alcanza en absoluto) a partir de distintos conjuntos de entrenamiento. La disposición y dosificación de la in­ formación a lo largo del aprendizaje puede ser crucial para que el sistema no se asiente inicialmente en soluciones erróneas de las que es muy difícil ha­ cerle salir. Es preciso que la red discurra a través de una apropiada trayecto­ ria representacional de modo que acceda a las representaciones básicas en primer lugar y aprenda las complejas una vez consolidadas las primeras. El mundo proporciona lo que Clark denomina el andamiaje de esas trayecto­ rias, tema en el que Estar ah í va a ahondar. En otras palabras, el proceso de desarrollo adquiere un perfil que no se debe tanto a la naturaleza del meca­ nismo de procesamiento interno, como a la naturaleza y disposición de los datos con que se entrena al sistema. En la explicación de la sistematicidad deben figurar, por tanto, parámetros relativos a la arquitectura y parámetros relativos al proceso temporal de adquisición de propiedades del dominio. La sistematicidad de las capacidades es consecuencia de este proceso de apren dizaje.

24 I Estar ahí

Los aspectos temporales desempeñan un papel destacado en Estar ahí, en un doble sentido. Primeramente, respecto a la necesidad de considerar las conductas de los sistemas en tiempo real para calibrar los recursos que son capaces de ofrecer respuestas eficientes rápidas; en segundo lugar, respecto al desarrollo de dichas conductas eficientes tanto desde el punto de vista evolutivo como ontogenético. Ello va a requerir nuevos instrumentos de aná­ lisis más apropiados para captar el despliegue de actividad en el tiempo. Uno de estos instrumentos es la teoría matemática de sistemas dinámicos, a la cual Clark presta detallada atención. El segundo momento de esta extensión de lo mental va a ser ontológico, esto es, se refiere a la propia naturaleza de la mente e implica difuminar los confines que delimitan dónde acaba la mente y dónde comienza el entorno. Lo mental se extiende hacia los dominios en los que actúa, de modo que «gran parte de lo que identificamos como nuestras capacidades mentales en realidad pueden ser propiedades de los sistemas más amplios, y extendidos en el entorno, de los que los cerebros humanos mismos son sólo una parte {importante)» (1997, pág. 214; esta edición, pág. 255). En la concepción clá­ sica, los estados mentales internos se relacionan con el mundo externo por medio de mecanismos de transducción, es decir, dispositivos que transfor­ man la energía presente en un determinado medio (luz, sonido, etc.) en in­ formación manejable en un medio completamente distinto (por ejemplo, un sistema de símbolos). En expresión de Pylyshyn (1984), la transducción constituye «el puente entre lo físico y lo simbólico», o lo que es lo mismo, entre lo no mental y lo mental. Esto permite contemplar los fenómenos cognitivos como un coto cerrado que recibe información a partir de toda una se­ rie de periféricos y que realiza sus acciones a través de diferentes efectores. Pero como señala Dennett (1996, pág. 74), la realidad biológica es que exis­ ten transductores y efectores prácticamente en cada esquina del organismo, en los niveles mismos de las sinapsis neuronales o de las secreciones quími­ cas. La consecuencia es que lo externo y lo interno se entremezclan empe­ zando por nuestro propio cuerpo. Clark comparte esta idea de indisolubilidad de la unión entre mente y cuerpo, esto es, la idea de una mente esencialmente corporeizada (embodied). Esta mente corpórea se encuentra además encajada o embebida (embedded) en el mundo-en el que actúa. Las trayectorias representacionales, por tanto, no tienen su principio y fin dentro de la organización interna, sino que los mismos elementos del ambiente que proporcionan el andamiaje pueden verse como parte integrante de la trayectpria. La unidad de estudio, en consecuencia, ya no serán las transiciones de estado internas, sino que abarca las interacciones con el entorno, en las cuales dichas transiciones son un componente posible­ mente mucho más pequeño que lo sospechado en el enfoque clásico.

Prólogo I 25

En resumidas cuentas, el caso de la sistematicidad muestra cómo cambiar la forma de un problema al reconceptualizar como externa una propiedad que inicialmente se atribuye a la arquitectura interna. Si la sistematicidad es una propiedad del dominio externo con el que interacciona un agente y lo mental se extiende hacia lo externo, entonces toda explicación de la sistema­ ticidad debe incluir los procesos que se realizan en esa interacción entre agen te y entorno. Los requisitos de estructura de constituyentes y procesos sensi­ bles a dicha estructura no tienen por qué demandar una arquitectura clásica dentro del agente, toda vez que podemos incluir estructuras del ambiente y procesos sensibles a dichas estructuras dentro de nuestras explicaciones cognitivas. Esto permite al conexionista esquivar el dilema de Fodor y Pylyshyn: la arquitectura cognitiva puede seguir siendo fundamentalmente un sistema PDP siempre y cuando podamos explicar los procesos de interacción que permiten que un sistema de reconocimiento de patrones explote la estructu­ ra sistemática que el mundo le proporciona. Para los detractores del enfoque conexionista, éste puede parecer un caso paradigmático de cómo hacer de la necesidad virtud, puesto que es la propia carencia de la estructura interna necesaria en las redes neuronales lo que empuja al teórico a buscar una solución (descabellada, para el clásico) extendida en el entorno. Probablemente, como el mismo Clark señala, no sea posible solucionar la disputa en ausencia de ulteriores trabajos empíri­ cos, trabajos que muestren si es posible o no dar cuenta de funciones men­ tales complejas partiendo de un dispositivo básico de reconocimiento de pa­ trones y un ambiente estructurado. Pero el mensaje de fondo es claro: independientemente de la forma que la arquitectura de la mente acabe por tener, es bien posible que debamos aligerar el tipo de representaciones in­ ternas que el organismo precisa.

Representación sin textos El desarrollo de la inteligencia artificial (IA) se puede organizar en tomo a tres grandes debates (Franklin, 1995). El primero tendría que ver con la posibilidad misma de existencia de la disciplina, esto es, de la validez tanto de la metáfora del ordenador como de los supuestos filosóficos y metodoló­ gicos de la IA para proporcionar una comprensión satisfactoria de los fenó­ menos mentales. El segundo debate sería la polémica simbólico-conexionista. El tercer debate se centraría en la cuestión de las representaciones y en él se ven inmersas tanto la IA como la ciencia cognitiva en general. Aunque no puede decirse que los dos primeros debates se hayan disipado por completo ni tampoco que ninguno de ellos haya alcanzado una solución satisfactoria,

26 I Estar ahí

el más acuciante en el momento presente es el debate sobre la represen­ tación. Es un tema común de la filosofía de la mente hablar de la intencionalidad como una de las propiedades cruciales de los fenómenos mentales. Estados tales como percepciones, creencias o deseos tienen la característica de estar «dirigidos hacia», de tener un contenido que se refiere a algún otro aspecto de la realidad o incluso a lo inexistente. Si veo un gato, creo que mañana será martes o deseo que vengan los Reyes Magos, mis estados mentales apuntan hacia objetos y estados de cosas que son el objeto de mis pensamientos. Es un problema filosófico y cognitivo de primer orden elucidar cómo es posible que lo mental exhiba esta propiedad. La representación constituye el mo­ derno ensayo de una solución a este problema. Aunque hay muchas nocio­ nes de representación, podemos decir que en términos generales implica la idea de una entidad que sustituye o «está pOD> otra, a la cual se refiere o de­ nota. La idea de representación resulta más clara en los sistemas de repre­ sentación externos, como las palabras y los dibujos, así que no es extraño que las teorías acerca de la representación interna hayan tomado a menudo como modelo esos otros sistemas. Desde la aparición de E l lenguaje del pensam iento (Fodor, 1975) la teoría representacional de la mente se ha presentado como «el único jue­ go en la ciudad». Los argumentos a favor de las representaciones estruc­ turadas como elemento explicativo ineludible de los fenómenos cognitivos siempre han añadido como colofón la coletilla «({alguien tiene algo m ejor?». En consecuencia, el rechazo categórico a las representaciones tiene un aire de bravata, de mera estratagema por parte del aparato de propaganda de unos científicos deseosos de llamar la atención sobre su trabajo pero que «en el fondo» saben que el estudio de la mente no pue­ de prescindir de ellas en casi todos los ámbitos de interés. El empleo de nuevas herramientas descriptivas no ligadas al vocabulario representacio­ nal, como las de la teoría de sistemas dinámicos, puede funcionar para una gama de fenómenos de bajo nivel, como deambular o evitar obstácu­ los. Pero cuando se trata de dar cuenta de las capacidades del sistema que responden a las propiedades sem ánticas del entorno, las representaciones se hacen ineludibles. Así, cuando se trata de que el sistema distinga ‘pa­ red’ como algo bien distinto de ‘suelo’, y no como un mero conjunto de estímulos ante los que reaccionar, nos enfrentamos al problema de dotar al agente de una estructura conceptual. Uno de los aspectos claves de la IA clásica consiste en elegir la conceptualización adecuada para la resolución del problema dentro de un dominio determinado. Esto supone desarrollar el tipo de representación más acorde para representar los aspectos esen­ ciales de dicho dominio.

Prólogo I 27

La crítica de muchos partidarios del enfoque dinámico es que las conceptualizaciones intentan resolver el problema abarrotando los modelos mentales de detalles del mundo que no requieren ser representados. El clá­ sico malgasta recursos computacionales en dotar a su sistema de una fuerza expresiva (por ejemplo, por medio de lógicas cada vez más potentes) que es en el mejor de los casos innecesaria y, en el peor, un auténtico obstáculo en la resolución de problemas. En consecuencia, es preferible abandonar la no­ ción de representación y sustituirla por la de un sistema acoplado con el mundo, que toma de éste los elementos necesarios en el momento en que los precisa, sin necesidad de representarlos internamente. El problema es cómo mantener la idea de representación recogiendo a un tiempo lo que tienen de cierto las críticas dinámicas. En Associative Engines Clark no duda de que cualquier inteligencia que merezca la pena va a requerir el concurso de lo conceptual, pero descarta la visión clásica de los conceptos como «sólidos mentales» (1993, cap. 1} que se transparentan des­ de las entidades que identificamos en el habla ordinaria hasta los estados in­ ternos responsables causalmente de nuestros pensamientos y acciones. En su lugar, los conceptos podrían tener un carácter mucho más activo, relaciona­ do con la capacidad de poner en práctica diversas habilidades. Poseer y em­ plear un concepto podría ser en el fondo una acción de reconocer o com­ pletar un patrón y la naturaleza exacta del proceso computacional que subyace en este reconocimiento no tiene por qué mantenerse invariable a lo largo de todas las apariciones del concepto. De hecho, el propio carácter inestable de los conceptos desaconseja este postulado. El rechazo de la soli­ dificación de los conceptos es congruente con críticas desde dentro de la IA, que sugieren que la división tradicional entre percepción y cognición es in­ sostenible para poder hablar de conceptos fluidos (por ejemplo, Hofstadter y otros, 1995). El antirrepresentacionalista yerra el tiro porque apunta al blanco equi­ vocado. Como señala Cummins (1989), es posible distinguir entre el proble­ ma de la representación y el problema de las representaciones. El primero hace referencia a qué es lo que hace que representar sea posible, cuál es la fuente de la representacionalidad, y el segundo a qué caracterización pre­ sentan los estados y procesos representacionales. La solución de Clark pue­ de entenderse como una reorientación de los ataques del andrrepresentacionalismo desde el primero al segundo problema. Lo que los críticos esgrimen como un ataque frontal contra la noción misma de representación resulta ser, si lo observamos bien, un ataque contra las representaciones, esto es, contra una de las respuestas ofrecidas a la pregunta por la naturaleza de esos correlatos mentales de la realidad: una respuesta creada a imagen y semejan­ za de los textos lingüísticos, cuyas representaciones exhiben propiedades de

28 I Estar ahí

tipo lógico-sintáctico. Si en A ssoáative Engtnes Clark propone sustituir la imagen clásica de la mente como texto por la imagen de la mente como pro­ cero, en Estar ah iva a permitir que ese proceso abarque más que los sucesos con base cerebral, permitiendo al teórico dinámico entrar en el juego expli­ cativo. No obstante, el texto no desaparece del todo: el lenguaje público pro­ porciona a la mente todos los recursos textuales que necesita un dispositivo de reconocimiento de patrones. No es preciso moldear las características computacionales de éste en términos cuasiíingüísticos, puesto que el mismo lenguaje es capaz de adaptarse de modo inverso a un mecanismo que fue se­ leccionado por demandas ambientales bien distintas.

Conclusión: ¿un nuevo paradigma? Desde que el filósofo Thomas Kuhn caracterizara el desarrollo de una ciencia en términos de paradigmas, marcos normativos que se constituyen en un proceso histórico y que pueden desaparecer tras un proceso de ciencia re volucionaria, da la impresión de que el sueño de todo científico cognitivo que tiene entre sus manos alguna nueva herramienta o teoría es el de con­ vertirla en la base de un nuevo paradigma para el estudio de la mente. Una idea tentadora, por tanto, es calificar la imagen de la mente corpórea y em­ bebida como un nuevo paradigma. Sin embargo, una de las lecciones, a mi entender, del trabajo de Clark es que no debemos apresurarnos a rechazar el bagaje conceptual con el que contamos antes de considerar las posibilidades de una revisión menos traumática. La visión de la ciencia cognitiva que Clark presenta en Estar ah í puede calificarse, al igual que su trabajo sobre el conexionismo, de «razonadamen­ te ecléctica». No es el de Clark el único enfoque que conjuga una perspecti­ va favorable a los mecanismos conexionistas con una lectura desde la teoría de sistemas dinámicos (tal es, por ejemplo, la visión de Horgan y Tienson [1996], para quienes las matemáticas de los sistemas dinámicos constituyen un marco que engloba el computacionalismo tradicional como un caso es­ pecial). Ni es tampoco el único en intentar tender puentes entre disciplinas que trabajan en distintos niveles (como es el caso de Hardcastle [1996], que desarrolla yna idea de teoría cognitiva que cruza desde lo biológico hasta lo psicológico). Pero el rango de dominios empíricos que recorre y el esfuerzo integrador de todos ellos en una visión coherente es de mayor calado. La ciencia cognitiva es una amalgama de disciplinas que se disputan el papel vertebrador y Clark está dispuesto a admitir un heterogéneo cúmulo de tra­ bajos como parte integrante del estudio de la mente, no sólo como investi­ gaciones situadas en los márgenes de la tradición dominante y conspirando

Prólogo I 29

contra ésta. Una de las riquezas de Estar ahí es e! modo en que dirige nues­ tra atención hacia pautas generales y motivos básicos que aparecen de modo recurrente en los ámbitos y niveles más insospechados. Así, podemos pre­ senciar la influencia de las restricciones impuestas por la disposición parti cular del ambiente tanto si este ambiente consiste en un nicho ecológico, en un entramado de leyes económicas o en la presencia perenne del lenguaje. Confieso que mis propias intuiciones divergen respecto a algunas de las consecuencias que se desprenden de esta visión de la mente. Por ejemplo, la imagen del lenguaje como sistema representacional externo sometido a una adaptación inversa a los recursos computacionales de la mente parece des­ conectar en demasía los productos lingüísticos de los propios organismos productores, desatendiendo las características de organización interna que permiten que una mente cree un lenguaje en primer lugar. Igualmente, mien­ tras como metáfora me parece sugerente la concepción de una mente que se filtra y extiende hacia el entorno próximo, como tesis ontológica me resulta difícil de aceptar. Pero son tantas las intuiciones ordinarias que la moderna ciencia de la mente ha hecho añicos, que no parece conveniente rechazar in­ cluso estas conjeturas aparentemente extemporáneas sin someterlas primero al mas severo escrutinio, tanto en sus aspectos conceptuales como empíricos. Los conceptos clave de este libro también exigen un esfuerzo de acomo­ dación por parte del lector acostumbrado al punto de vista de la ciencia cognitiva más clásica. Le solicita que abandone su propia actitud mental centralizadora de buscar en alguna parte del libro la explicación o el conjunto de elegantes ecuaciones definitivas que da sentido a la totalidad; que sea pa­ ciente mientras ve emerger entre la barabúnda de insectos artificiales y mun­ dos simulados un patrón común que sus dispositivos de reconocimiento de­ ben ir entrenándose para captar; y que adapte su propia mirada al ritmo de la dinámica interna de la ciencia cognitiva que, como cualquier otro sistema vivo, también se desarrolla en el tiempo y obedece a la interacción de una miríada de mentes activas y mundos (reales y simulados) estructurados.

Referencias Clark, A., Microcognilion: Philosophy, CognitiveScience and Parallel Distributed Pro­ cessing, Cambridge, MA: MIT Press, 1989. Clark, A., Associative Engines: Conncctionism, Concep/s and Representational Chan­ ga, Cambridge, MA: MIT Press, 1993. Clark, A., Being There; Putting Brain, Body, and World Togelher Again, Cambridge, MA: MIT Press, 1997. Cummins, R., Meaning and Mental Representalion, Cambridge, MA: MIT Press, 1989.

30 1 Estar ahí

Dennett, D. C., Kittdsof Minds, Nueva York, Basic Books, 1996. Fodor, J. A., The Language o f Thought, Nueva York, Crowell, 1975 (trac!. cast.:E/ lenguaje del pensamiento, Madrid, Alianza, 1984) Fodor, J. A., The Modularity o f Miad, Cambridge, MA: Bradford/MIT Press, 1983 (trad. cast.:L/ modularidadde la mente, Madrid, Morata, 1986). Fodor, J. A. & Pylyshyn, Z. \V„ «Connectionism and Cognitive Architecture: A Critical Analysis», Cognition, 28, 1988, págs. 3-71. Franklin, S., Artificial Minds, Cambridge, MA: Bradford/MIT Press, 1995. Gardner, H., The Mind's New Science, Nueva York, Basic Books, 1985 (trad. cast.:Lt nueva ciencia de la mente Barcelona, Paidós, 1988). Hardcastle, V. G., How to Build a Theory in Cognitive Science, Albany, Nueva York, State University of New York Press, 1996. Hofstadter, D. and the Fluid Analogies Research Group, Fluid Concepts and Creati­ ve Analogies, Nueva York, Basic Books, 1995. Horgan, T. & Ticnson, J., Connectionism and the Phtlosophy o f Psychology, Cam­ bridge, MA: MIT Press,1996. Pylyshyn, Z. W., Computation and Cognition Cambridge, MA: Bradford/MIT Press, 1984 (trad. cast.: Computación y conocimiento, Madrid, Debate, 1988). Smolensky, P., «On the Proper Treatment of Connectionism», Behavioral and Brain Sciences, 1 1 ,1988, págs. 1-23. Van Gelder, T„ «Compositionality: A Connectionist Variation on a Classical Theme», Cognitive Science, 14, 1990, págs. 355-384. Von Eckardt, B., What Is Cognitive Science '■>,Cambridge, MA: MIT Press, 1993.

Prefacio

Pensar a fondo o actuar con fluidez Si tuviera el lector que construir un agente inteligente, ¿por dónde empeza­ ría? ¿Qué cree que es ese algo especial que separa el mundo no pensante de las rocas, las cascadas y los volcanes, de los reinos de la inteligencia sensible? ¿Qué es lo que permite que algunas partes del orden natural sobrevivan percibiendo y actuando, mientras el resto se queda al margen, inerte y sin pensamiento? «Mente», «intelecto», «ideas»: éstos son los elementos que marcan la dife­ rencia. Pero, ¿cómo los debemos entender? Estas palabras evocan reinos nebu­ losos. Hablamos de «intelecto puro» y decimos del sabio que está «sumido en el pensamiento». Nos cuesta muy poco dejarmos seducir por la visión de Descar­ tes de la mente como una esfera totalmente distinta de los reinos del cuerpo y el mundo.1Una esfera cuya esencia no debe nada a los accidentes del cuerpo y del entorno: el famoso (en lo bueno y en lo malo) «fantasma en la máquina».12 Esta extrema oposición entre mente y materia ya hace tiempo que ha sido abandonada. En su lugar nos encontramos con una amplia coalición de cien­ cias de la mente cuya meta común es llegar a comprender cómo es material­ mente posible el pensamiento mismo. Esta coalición recibe el nombre de ciencia cogniíiva y durante más de treinta años los modelos computacionales de la mente han estado entre sus instrumentos más importantes. Teorizando

1. Descartes describió la mente como una sustancia inmaterial que se comunicaba con el cuerpo mediante la interfaz de la glándula pineal. Véanse, por ejemplo, Meditations II y IV en The Philosophical Works o f Descartes, Cambridge University Press, 1991 (trad. cast.: Medita­ ciones metafísicas, Madrid, Alfaguara, 1997). 2. Véase Gilbert Ryle, The Coneept o/Mmd, Hutdiinson, 1949 (trad. cast.: El concepto de lo mental, Buenos Aires, Paidós, 1967).

32 I Estar ahi

en el vértice entre la ciencia ficción y la ingeniería pura y dura, las personas que trabajan en un subcampo conocido como inteligencia artificial (IA)’ han tratado de dar un cuerpo computational a las ideas sobre cómo puede surgir la mente a partir del funcionamiento de una máquina física que, en nuestro caso, es el cerebro. Como dijo Aaron Sloman en una ocasión, «Todo fantas­ ma inteligente debe contener una máquina».345Según parece, el cerebro hu­ mano es el puntal mecanicista de la mente humana. Cuando la evolución produjo cerebros complejos, cuerpos móviles y sistemas nerviosos, abrió la puerta (por medios puramente físicos) a maneras totalmente nuevas de vivir y de adaptarse, maneras que nos colocan en un lado de una línea divisoria natural, dejando en el otro a los volcanes, las cascadas y el resto de la crea­ ción cognitivamente inerte. Pero, a pesar de todo, persiste una versión de la antigua oposición entre mente y materia. Persiste en la manera en que estudiamos el cerebro y la mente, excluyendo como «periféricos» los papeles desempeñados por el res­ to del cuerpo y el entorno local. Persiste en la tradición de modelar la inteli­ gencia como la producción de soluciones codificadas simbólicamente a pro­ blemas expresados mediante símbolos. Persiste en la falta de atención a las maneras en que el cuerpo y el entorno local forman parte, literalmente, de los bucles de procesamiento que ocasionan la acción inteligente. Y persiste en la elección de los dominios de problemas: por ejemplo, modelamos el jue­ go del ajedrez mediante programas como Deep Thought1 cuando aún no he­ mos podido conseguir que un robot real atraviese con éxito una sala abarro­ tada y seguimos sin poder modelar completamente el éxito adaptativo de una cucaracha. En el contexto natural del cuerpo y el mundo, las maneras en que los ce rebros resuelven problemas se transforman radicalmente. No se trata de una cuestión filosófica profunda (aunque tiene profundas consecuencias). Es una cuestión práctica. Jim Nevíns, que trabaja en una planta de montaje con­ trolada por ordenador, cita un buen ejemplo. Ante el problema de conseguir que una máquina controlada por ordenador ensamble unos componentes con extrema precisión, una solución consiste en explotar múltiples bucles de 3. La inteligencia artificial estudia cómo hacer que los ordenadores realicen tareas para las que se considera que hace falta inteligencia, conocimiento o comprensión. 4. Sloman, «Notes on consciousness». /USB Quarterly 72 (1990), págs. 8-14. 5. Deep Thought (‘Pensamiento Profundo’) es un programa de ajedrez que juega al nivel de gran maestro. Se basa en una búsqueda exhaustiva que examina cerca de un millardo de movi­ mientos posibles por segundo. En cambio, los expertos humanos en ajedrez parecen emplear me nos la búsqueda y basarse más en estilos de razonamiento muy diferentes; véase, por ejemplo, H. Simón and K. Gilmartin, «A simulation of memory for chess positions», Cognitive Psycbology 5 (1973), págs. 29-46.

Prefacio I 33

retroalímentación. Estos bucles pueden decir al ordenador si ha fracasado en el ajuste para que lo intente otra vez con una orientación ligeramente di­ ferente. Esta es, si se quiere, la solución formulada mediante «pensamiento puro». La solución basada en el «pensamiento corpóreo» es bastante dife­ rente. Basta con armar los brazos de la máquina de montaje con articulacio­ nes de goma, permitiendo que cedan a lo largo de dos ejes espaciales. Una vez hecho esto, el ordenador puede prescindir de los detallados bucles de retroalimentación ya que las piezas «se mueven y deslizan hasta su lugar como si se estuvieran calculando continuamente millones de minúsculos ajustes de retroalímentación hacia un sistema rígido».* En esencia, todo esto significa que tratar la cognición como una pura resolución de problemas equivale a separarnos del mismísimo cuerpo y el mismísimo mundo en los que nuestros cerebros han evolucionado para guiarnos. ¿N o sería más fructífero pensar en los cerebros como controladores de la actividad corpórea? Este pequeño cambio de perspectiva tiene grandes con­ secuencias para nuestra manera de construir una ciencia de la mente. De he­ cho, exige una reforma radical de nuestra manera de concebir la conducta inteligente. Nos exige abandonar la idea (común desde Descartes) de lo mental como una esfera distinta del ámbito del cuerpo; abandonar la idea de unas limpias líneas divisorias entre percepción, cognición y acción;67 abando­ nar la ¡dea de un centro ejecutivo donde el cerebro lleva a cabo el razona­ miento de alto nivel;8 y, sobre todo, abandonar los métodos de investigación que separan artificialmente el pensamiento de la actuación corpórea. Lo que emerge es nada menos que una nueva ciencia de la mente; una ciencia que, por cierto, se basa en los frutos de tres décadas de investigación en colaboración, pero cuyos instrumentos y modelos son sorprendentemen­ te diferentes: una ciencia cognitiva de la mente corpórea. Este libro da testi­ monio de esta ciencia. Describe parte de sus orígenes, expone su sabor y hace frente a algunos de sus problemas. Seguramente no será la última cien­ cia nueva de la mente. Pero es un paso más en ese viaje tan fascinante de la mente en su intento de conocerse a sí misma y de comprender cuál es su lu­ gar en la naturaleza.

6. Este ejemplo se cita en Michie yjohnson, 198-1 y se comunica en Clark, 1989. El pasa­ je en sí procede de la pág. 95 de Michic yjohnson. 7. La expresión existente más clara de este punto de vista es probablemente el «marco de enacción» desarrollado en Varela y otros, 1991 8. Véase especialmente Dcnnctt, 1991

Bases

Estar ah í no ha surgido de la nada. La imagen de la mente unida inex­ tricablemente a cuerpo, mundo y acción, ya visible en Being and Time de Martin Heidegger (1927), encuentra una clara expresión en Structure ofbehavior, de Maurice Merleau-Ponty (1942). Algunos de los temas fundamen­ tales están presentes en el trabajo de los psicólogos soviéticos, especialmen­ te de Lev Vygotsky; otros deben mucho al trabajo de Jean Piaget sobre el papel de la acción en el desarrollo cognitivo. Entre las discusiones previas en la literatura de la ciencia cognitiva, destacan por su importancia e in­ fluencia Maturana y Vareta, 1987, Winograd y Flores, 1986 y, especialmen­ te, The Embodied Mind (Varela y otros, 1991). The Embodied Mind se en­ cuentra directamente en las raíces de varias de las tendencias identificadas y estudiadas en esta obra. Creo que mi propio contacto con estas tendencias empezó con la obra de Hubert Dreyfus What Computen Can't Do, publicada en 1979. El persisten­ te acoso de Dreyfus a la inteligencia artificial clásica contribuyó a motivar mis propias exploraciones de modelos computadonales alternativos {los en­ foques del conexionismo o del procesamiento distribuido en paralelo; véan­ se Clark, 1989 y Clark, 1993) y a consolidar mi interés en imágenes biológi­ camente plausibles de la mente y la cognición. Di mis primeros pasos en 1987 con un breve artículo también titulado (y no por coincidencia) «Being There» [Estar ahí], donde el tema explícito de la discusión era la cognición corpórea y embebida en el entorno. Desde entonces, el conexionismo, la neurociencia y la robótíca en mundo real han hecho unos grandes progresos. Y aquí, especialmente en la explosión de la investigación en la robótica y en la denominada vida artificial (véanse, por ejemplo, los artículos de Brooks y Maes, 1994), encontramos por fin el impulso más inmediato de la presente discusión. Por fin (me parece a mí) aparece una imagen más redonda, con-

36 I Estar ahi

víncente e integradora, que reúne muchos de los elementos de las discusio­ nes previas en un marco de referencia rico en ilustraciones prácticas y ejem píos concretos. Esta imagen, más amplia e integradora, es la que aquí me propongo exponer y examinar. La postura que desarrollo debe mucho a varios autores y amigos. Sin duda alguna, en el primer lugar de la lista se encuentran Paul Churchland y Dan Dennett, cuyas reconstrucciones cuidadosas y al mismo tiempo imagina­ tivas de la mente y la cognición han sido la inspiración constante que subya­ ce a todo mi trabajo. Más recientemente, he aprendido mucho en mis inte­ racciones y conversaciones con los especialistas en robótica Rodney Brooks, Randall Beer, Tim Smithers y John Hallam. También me han informado, en­ tusiasmado y desafiado varios fans de la teoría de los sistemas dinámicos, en particular Tim van Gelder, Linda Smith, Esther Thelen y Michael Wheeíer. Además, hay varios miembros del Sussex University Evolutionary Robotics Group que me han inspirado, enfurecido y siempre fascinado, especialmen­ te Dave Cliff e Inman Harvey. Un agradecimiento muy especial a Bill Bechtel, Morten Christiansen, David Chalmers, Keith Butler, Rick Grush, Tim Lañe, Pete Mandik, Rob Stufflebeam y a todos mis amigos, colegas y estudiantes del programa PNP (Philosophy/Neuroscience/Psychology) de la Universidad de Washington en St. Louis. También aquí tuve la buena fortuna de conocer a Dave Hilditch, cuyos pacientes intentos de integrar las visiones de Merleau Ponty con la ciencia cognitiva contemporánea fueron fuente de alegría e inspiración. Gra­ cias también a Roger Gibson, Larry May, Marilyn Friedman y Mark Rollins, así como a todos los miembros del Departamento de Filosofía de la Univer­ sidad de Washington por su inestimable ayuda, apoyo y crítica. David van Essen, Charlie Anderson y Tom Thach, de la Escuela Médica de la Universidad de Washington, merecen un agradecimiento especial por introducirme en el funcionamiento de la auténtica neurociencía, aunque pre­ cisamente aquí la expresión de mi agradecimiento no debe implicar culpa al­ guna por cualquier vestigio de error o malentendido. Doug North, Art Denzau, Norman Schofield y John Drobak hicieron mucho por aligerar y alentar la breve incursión en la teoría económica que aparece en el capítulo 9: gra­ cias también a los miembros del Hoover Institute Seminar on Collective Choice de la Universidad de Stanford. No debería olvidarme de mi gato, Lolo, que mantenía las cosas en su verdadera dimensión sentándose sobre muchas versiones del manuscrito, ni del Santa Fe Institute, que me ofreció tiempo de investigación y Reacciones críticas básica en varios momentos cru­ ciales: gracias especialmente a David Lañe, Brian Arthur, Chris Langton y Melanie Mitchell por hacer que mis diversas estancias allí fueran tan pro­ ductivas. Gracias también a Paul Bethge, Jerry Weinstein, Betty Stanton y al

Bases I 37

resto del personal de The MIT Press: vuestro apoyo, consejo y entusiasmo me han ayudado enormemente. Beth Stufflebeam me proporcionó una fan­ tástica ayuda durante la preparación del manuscrito. Y Josefa Toribio, mi es­ posa y colega, me ha ofrecido una combinación perfecta de crítica, apoyo e inspiración. Mi más sincero agradecimiento a todos.

Introducción: un automóvil con cerebro de cucaracha

¿Dónde están las mentes artificiales prometidas por la ciencia ficción de los años cincuenta y el periodismo científico de los sesenta? ¿Por qué inclu­ so nuestros mejores artefactos «inteligentes» son aún tan insoportable y mortalmente tontos? Una posibilidad es que, sencillamente, hemos malinterpretado la naturaleza de la inteligencia misma. Concebíamos la mente como una especie de dispositivo de razonamiento lógico asociado a un al­ macén de datos explícitos: una especie de combinación entre una máquina lógica y un archivador. Al adoptar esta perspectiva, desatendíamos el hecho de que las mentes han evolucionado para hacer que ocurran cosas. Desaten­ díamos el hecho de que la mente biológica es, antes que nada, un órgano para controlar el cuerpo biológico. Las mentes hacen movimientos y los de­ ben hacer con rapidez: antes de que el depredador nos pille o de que nues­ tra presa consiga escapar. Las mentes no son dispositivos incorpóreos de ra­ zonamiento lógico, Este simple cambio de perspectiva ha generado algunos de los trabajos más apasionantes e innovadores en el estudio contemporáneo de la mente. La investigación de modelos computacionales basados en «redes neuronaíes» ha empezado a desarrollar una visión radicalmente diferente de la es­ tructura computacional de la mente. La investigación en la neurociencia cognitiva ha empezado a sacar a la luz las maneras, siempre sorprendentes, con que los cerebros reales emplean sus recursos neuronales y sinápticos para re­ solver problemas. Y una oleada creciente de trabajos sobre robótica simple y en mundo real (por ejemplo, conseguir que una cucaracha robot camine, busque alimento y evite peligros) nos enseña cómo pueden los seres biológi­ cos llevar a cabo en el mundo real las acciones rápidas y fluidas necesarias para la supervivencia. Donde convergen estas investigaciones vislumbramos una nueva visión de la naturaleza de la cognición biológica: una visión que

40 I Estar ahí

coloca el almacenamiento de datos explícitos y la manipulación lógica en su lugar, es decir, como complemento secundario de la dinámica y los comple­ jos bucles de respuesta que unen entre sí cerebros, cuerpos y entornos rea­ les. Al parecer, la cognición natural no tiene tiempo (literalmente) para ar­ chivadores. Naturalmente, no todo el mundo está de acuerdo. Un ejemplo extremo del punto de vista opuesto es un reciente intento de inculcar el sentido co­ mún a un ordenador, previa inversión de 50 millones de dólares, dándole una inmensa colección de conocimientos explícitos. Este proyecto, conoci­ do como CYC (abreviatura de encyclopedia), pretende construir manual­ mente una vasta base de conocimientos que abarque una parte importante del conocimiento general que tiene a su disposición un ser humano adulto. Iniciado en 1984, el proyecto CYC se propuso llegar a codificar cerca de un millón de unidades de conocimiento hacia 1994. Para introducir los datos de este proyecto, una sola persona tardaría dos siglos. Se esperaba que al final de este proceso CYC daría «el gran salto»: llegaría a un punto en el que po­ dría leer y asimilar directamente textos escritos y, a partir de ahí, «autoprograman> el resto de su base de conocimientos. Desde mi punto de vista, el aspecto más notable del proyecto CYC es su fe extrema en el poder de la representación simbólica explícita: su fe en la in­ teriorización de estructuras construidas a imagen de las cadenas de palabras de un lenguaje público. El lenguaje de representación del proyecto CYC co­ difica la información en unidades (marcos) como la siguiente: Missouri Capital: (Jefferson City) Residentes: (Andy, Pepa, Beth) Estado de: (Estados Unidos de América)

Aunque este ejemplo está simplificado, la estructura básica siempre es la misma. La unidad tiene «descripciones» «ranuras» (los tres subtítulos de arriba) y cada ranura tiene como valor una lista de entidades. Las ranuras pueden hacer referencia a otras unidades (por ejemplo, la ranura «Residen­ tes» puede actuar como un puntero hacia otra unidad que contenga más in­ formación y así sucesivamente). Este sistema de unidades y ranuras está au­ mentado por un lenguaje más potente (el lenguaje de restricción CycL, [CYC Constraint langtiage]) que permite la expresión de relaciones lógicas más complejas como «Para, todo elemento, si un elemento es X entonces tie­ ne la propiedad Y». El razonamiento de CYC también puede explotar varios tipos simples de inferencia. Sin embargo, la idea básica es dejar que el cono­ cimiento codificado haga casi todo el trabajo y mantener la estructura de in­

Introducción: un automóvil con cerebro de cucaracha I 41

ferencia y control simple y dentro de los límites de la tecnología actual. Los creadores de CYC, Douglas Lenat y Edward Feigenbaum (1992, pág. 192), argumentan que el embudo para la inteligencia adaptativa es el conocimien­ to, no la inferencia o el control. La base de conocimientos de CYC intenta hacer explícito todo lo que sa­ bemos de nuestro mundo pero que normalmente no nos molestamos en decir. Por tanto, CYC se propone codificar unidades de conocimiento que todos te­ nemos pero que rara vez enumeramos, como las siguientes (ibíd., pág. 197): La mayoría de los automóviles de hoy circulan sobre cuatro ruedas. Si nos dormimos mientras conducimos, nuestro automóvil no tardará mucho en salirse de la calzada. Si hay algo grande entre nosotros y lo que queremos, probablemente debe­ remos rodearlo.

La idea es que, después de haber codificado explícitamente una gran parte de este «conocimiento consensuado de la realidad», CYC llegará a un nivel de comprensión que le permitirá responder con una inteligencia genuina. Incluso se espera que CYC emplee el razonamiento analógico para abordar con buen criterio situaciones novedosas, encontrando paralelismos parciales en otras partes de su inmensa base de conocimientos. CYC es un proyecto ambicioso e importante. Sin duda, la base de datos de sentido común que ahora codifica será de gran utilidad práctica como re­ curso para el desarrollo de mejores sistemas expertos. Pero deberíamos dis­ tinguir dos objetivos posibles para CYC. Uno sería ofrecer el mejor simulacro posible del sentido común mediante un sistema informático fundamental­ mente no pensante. El otro sería crear, a partir del fondo de conocimientos de CYC, el primer ejemplo de una mente artificial genuina. Hasta la fecha, en el rendimiento de CYC no hay nada que indique que el segundo objetivo esté al caer. CYC parece destinado a convertirse en un «sistema experto» más grande y más elaborado, pero todavía esencialmen­ te frágil y falto de entendimiento. Y el hecho de añadir más y más conoci­ mientos a CYC no será una solución. La razón es que CYC carece de los ti­ pos más básicos de respuestas de adaptación al entorno. Esta deficiencia no tiene nada que ver con la relativa escasez de los conocimientos que el siste­ ma codifica explícitamente. Más bien es atribuible a la falta de un acopla­ miento fluido entre el sistema y un entorno real que plantee problemas rea­ les de acción y sensación. Como veremos, incluso la humilde cucaracha manifiesta este tipo de acoplamiento fluido: una versión del tipo de inteli­ gencia práctica, sólida y flexible de la que carecen casi todos los sistemas in­ formáticos. ¡Pero un ser tan sencillo mal puede ser acusado de contar con

42 I Estar ahí

un gran almacén de conocimientos representados explícitamente! Por tan­ to, el proyecto CYC, entendido como un intento de crear una comprensión y una inteligencia genuinas en una máquina, falla por su base de una mane­ ra rotunda y total. Las raíces de la inteligencia y la comprensión no se en­ cuentran en la presencia y la manipulación de estructuras de datos explíci­ tas y de tipo lingüístico, sino en algo más terrenal: el ajuste de respuestas básicas a un mundo real que permite a un organismo corpóreo sentir, actuar y sobrevivir. Este diagnóstico no es nuevo. Importantes críticos filosóficos de la inte­ ligencia artificial han puesto en duda durante mucho tiempo el intento de in ducir la inteligencia por medio de la manipulación incorpórea de símbolos y también han insistido en la importancia de! razonamiento situado (es decir, del razonamiento llevado a cabo por seres corpóreos que actúan en un en­ torno físico real). Pero ha sido demasiado fácil atribuir estas incertidumbres a algún tipo de misticismo residual, a una fe carente de rigor científico en una esencia mental parecida al alma, o a un rechazo testarudo a permitir que la ciencia entre sin autorización en el terreno favorito de los filósofos. Pero ahora, cada vez es más evidente que la alternativa a la visión centrada en la «manipulación incorpórea de datos explícitos» de la inteligencia artificial no es apartarse de la ciencia pura y dura; es profundizar en una ciencia más dura todavía. Es colocar la inteligencia en el lugar que le corresponde: en el acoplamiento entre los organismos y el mundo que se encuentra en la raíz de la acción fluida cotidiana. Del CYC al ciclismo: así es el giro radical que ca­ racteriza a las nuevas ciencias de la mente corpórea. Consideremos, por ejemplo, a la humilde cucaracha. La cucaracha es de­ positaría de un considerable corpas de conocimientos sobre el sentido co­ mún de las cucarachas. ¡Por lo menos, así es como debe aparecer ante cual­ quier teórico que piense que el conocimiento explícito es la clave para un comportamiento sensato en el mundo real! Porque la cucaracha es una for­ midable artista del escapismo, capaz de emprender una acción de huida for­ jada por una multitud de factores externos e internos. He aquí una breve lis­ ta, extraída del detallado estudio de Ritzmann (1993) sobre las habilidades de evasión de la cucaracha americana, Periplaneta americana: La cucaracha siente las corrientes de aire provocadas por el movimiento de un depredador que ataca. Distingue las corrientes producidas por los depredadores de las corrientes y brisas normales. No evita el contacto con otras cucarachas. Cuando inicia un movimiento de huida, no corre simplemente al azar. En cambio, tiene en cuenta su propia orientación inicial, la presencia de obstáculos (como paredes y rincones), el grado de iluminación y la dirección del aire.

Introducción: un automóvil con cerebro de cucaracha I 43

jClaro que siempre se escabulle! Como indica Ritzmann, esta malla de consideraciones contextúales conduce a una respuesta mucho más inteligen­ te que el simple reflejo de «detectar al depredador y echar a correr al azar» que los expertos en cucarachas {que los hay) creyeron otrora que todo lo ex­ plicaba. La complejidad adicional se capta con precisión en las descripcio nes que hace Ritzmann de un automóvil con una «inteligencia» comparable. Este automóvil percibiría a los vehículos que se aproximan, pero ignoraría a los que se movieran de una manera normal. Si detectara una colisión inmi­ nente, iniciaría automáticamente un giro que tuviera en cuenta su propio es­ tado actual (diversos parámetros de la aceleración y del motor) y la orienta­ ción y la superficie de la carretera, evitando meterse en más peligros. Parece claro que un automóvil con la inteligencia de una cucaracha estaría muy por delante de la industria automovilística más puntera de hoy en día. Sin em­ bargo, a primera vista no es probable que la frase «Compre usted el automó­ vil con cerebro de cucaracha» tuviera mucho éxito como eslogan publicita­ rio. Nuestros prejuicios contra las formas básicas de inteligencia biológica y a favor de las «máquinas lógicas-archivadoras» más grandes y elaboradas son demasiado profundos. ¿Cómo consigue la cucaracha controlar sus huidas? Ahora empezamos a entender los mecanismos neuronales. Las corrientes de aire son detectadas por dos cercas (estructuras parecidas a antenas situadas en la parte posterior del abdomen) cubiertos con pelos sensibles a la velocidad y la dirección del aire. Los movimientos de escape sólo se activan si la aceleración del aire es igual o superior a 0,6 m/s2: así es como la cucuaracha distingue una brisa ordinaria de la embestida de un atacante. El intervalo entre la sensación y la respuesta es muy breve: 58 milisegundos para una cucaracha quieta y 14 milisegundos para una cucaracha en movimiento. La respuesta inicial es un giro que tarda entre 20 y 30 milisegundos (Ritzmann, 1993, págs. 113-116). El circuito neuronal básico que subyace a este giro está formado por poblaciones de neuronas cu­ yas posiciones y conexiones se conocen hoy bastante bien. En este circuito in­ tervienen más de cien intemeuronas que actúan para modular las diversas ór­ denes de giro en función de la información contextual sobre la posición actual de la cucaracha y el estado del entorno local. La información básica sobre el aire es transmitida por una población de interneuronas ventrales gigantes, pero la actividad final se basa en los resultados de la modulación de muchas otras poblaciones neuronales sensibles a esos aspectos contextúales. Ante la impresionante exhibición de rutinas de escape de la cucaracha, un teórico podría postular erróneamente que almacena de alguna clase de base de datos cuasi lingüística. De acuerdo con el espíritu de CYC, podría­ mos imaginar que la cucaracha accede a marcos de conocimiento que inclu­ yen elementos como éstos:

44 I Estar ahí

Si me atacan, no me estrellaré directamente contra una pared. Si algo grande se interpone entre la comida y yo, intentaré rodearlo. Las brisas suaves no son peligrosas. Como el filósofo Hubert Dreyfus (1991) y otros han señalado, el proble­ ma es que los cerebros verdaderos no parecen emplear estos recursos linguaformes, parecidos a textos, para codificar respuestas hábiles ante el mundo. Y mejor que sea así, ya que como estas estrategias exigirían el almacena­ miento de enormes cantidades de datos explícitos y la búsqueda consiguien­ te, no podrían producir las rápidas respuestas que requiere la acción real. De hecho, tras una breve reflexión vemos claramente que la tarea de anotar los conocimientos «de sentido común» necesarios para capturar todo lo que sabe un adulto humano no tendría fin. j Es probable que incluso para captu­ rar de manera detallada el conocimiento corpóreo de una cucaracha hicieran falta varios volúmenes! Pero, ¿de qué otra manera podría avanzar la inteligencia artificial? Un enfoque prometedor se basa en lo que se ha dado en llamar teoría de agenten autónomos. Un agente autónomo es un ente capaz de sobrevivir, actuar y moverse en tiempo real y en el seno de un entorno complejo y un tanto rea­ lista. Muchos agentes autónomos artificiales existentes son verdaderos ro­ bots capaces de caminar como insectos y de evitar obstáculos. Otros son si­ mulaciones por ordenador de robots de ese tipo que, en consecuencia, sólo se pueden mover y actuar en entornos simulados hechos por ordenador. Existen polémicas entre los investigadores que sólo son partidarios de las si­ tuaciones y de los robots reales, y los que se contentan con explotar «meras» simulaciones, aunque los dos bandos coinciden en destacar la necesidad de modelar conductas realistas y básicas y de desconfiar de las soluciones exce­ sivamente intelectualizadas al estilo de las del «razonamiento explícito in­ corpóreo». Teniendo presente esta imagen general de la investigación sobre los agen­ tes autónomos, volvamos muy brevemente a nuestra protagonista, la cucara­ cha. Randall Beer y Hillel Chiel han creado simulaciones informáticas y robóticas plausibles de la locomoción y la huida de la cucaracha. Para modelar la respuesta de escape, Beer y Chiel intentaron desarrollar un modelo de agente autónomo muy constreñido por datos etológicos y neurocientíficos. El objetivo era acercarse lo más posible hoy en día a los datos biológicos rea­ les. Para ello, combinaron la metodología de los agentes autónomos con modelos al estilo de las redes neuronales. También impusieron a este mode­ lo computacíonal unas restricciones coherentes con lo que se sabe de la ver­ dadera organización neuronal de (en este caso) la cucaracha. Utilizaron una red neuronal para controlar el cuerpo de un insecto simulado (Beer y Chiel

Introducción: un automóvil con cerebro de cucaracha I 45

1993). Los circuitos de esta red estaban limitados por los datos conocidos sobre las poblaciones y las conexiones neuronales que subyacen a la res­ puesta de escape de las cucarachas reales. Después de un entrenamiento, el controlador de la red neuroñal fue capaz de reproducir en el cuerpo del in­ secto simulado todas las características fundamentales de la respuesta de es­ cape mencionada anteriormente. En los capítulos que siguen trataremos de comprender, en parte, cómo se logran estos éxitos. Veremos con detalle cómo se combinan los tipos de investigación acabados de esbozar con ideas evolutivas, neurocientíficas y psicológicas para poder esclarecer una amplia gama de conductas, tanto simples como complejas. Y también exploraremos la sorprendente variedad de estrategias adaptativas de que disponen los agentes corpóreos y embebidos en un medio: los seres que se mueven por su mundo y actúan sobre él. Estos comentarios introductorios pretenden destacar un contraste fun­ damental entre la visión incorpórea, intemporal e intelectualista de la men­ te, y la imagen de la mente como controladora de la acción corpórea. Esta imagen de la mente como controladora nos obliga a tomarnos en serio las cuestiones del tiempo, el mundo y el cuerpo. Un dispositivo controlador debe generar con rapidez acciones apropiadas en función de la interacción en curso entre el cuerpo y su entorno cambiante. El sistema de planificación de la inteligencia artificial clásica suele ponerse cómodo y tomárselo con cal­ ma para, al final, producir una descripción expresada simbólicamente de un curso de acción plausible. El agente planificador corpóreo debe entrar en ac­ ción con rapidez, antes de que la acción de otro agente le quite la vida. Aún no está claro si las codificaciones simbólicas similares al texto tienen algún papel que desempeñar en estas decisiones de vida o muerte, pero hoy sí pa­ rece claro que no es un papel estelar. El camino que conduce a una comprensión computadonal completa de la mente está bloqueado -parafraseando a Lenat y Feigenbaum- por un col­ chón. Durante muchos años, los investigadores se han desviado para ro­ dearlo, han tratado de ignorarlo, han hecho de todo excepto ponerse a tra­ bajar para quitarlo de ahí. Lenat y Feigenbaum piensan que este colchón es el conocimiento y que los enigmas de la mente se disiparán en cuanto se haya construido una gran base de conocimientos repleto de fórmulas explícitas de sabiduría de sentido común. Las lecciones de la cognición natural nos ense­ ñan otra cosa. El colchón no es conocimiento sino capacidad de respuesta básica, en tiempo real y en el mundo real. La cucaracha tiene un tipo de sen­ tido común del que carecen los mejores sistemas artificiales de hoy, y segu­ ramente no es gracias a las codificaciones explícitas ni a las deducciones ló­ gicas que nos pueden servir en algunos ámbitos de cariz más abstracto. En su raíz, nuestras mentes también son órganos para iniciar con rapidez el pro

46 I Estar ahí

ximo movimiento en situaciones reales. Son unos órganos exquisitamente preparados para la producción de acciones que se despliegan en el espacio local y en tiempo real. Cuando la mente se formula como un dispositivo con­ trolador de la acción corporal, el conocimiento otrora recibido se desvanece capa tras capa. La distinción entre percepción y cognición, la noción de unos centros de control ejecutivo en el cerebro y una visión muy extendida de la racionalidad misma, son puestas en duda. También peligra el aparato meto­ dológico que estudia la mente y el cerebro con muy escasa consideración ha­ cia las propiedades del entorno local o las oportunidades proporcionadas por la acción y el movimiento corporal. La forma fundamental de las ciencias de la mente cambia continuamente. En los capítulos que siguen, deambula­ remos por el paisaje de la mente bajo este cambio de iluminación.

Primera parte DE EXCURSIÓN POR LA MENTE

Bueno, ¿y con qué crees que comprendes? ¿Con la cabeza? ¡Bah! Nlk'OS K a z a n t ZAKIS, Zorba el griego El noventa por ciento de la vida consiste, simplemente, en estar ahí. WOODY A l l e n

1

Agentes autónomos: un paseo por la luna

1.1 Bajo el volcán1 En el verano de 1994, un robot explorador de ocho patas y 770 kg de peso lla­ mado Dame II descendió por una pared muy empinada hacia el fondo del cráter de un volcán activo cerca de Anchorage, Alasita. En el transcurso de una misión de seis días, Dante II exploró las paredes y el fondo del cráter empleando una mezcla de control autónomo (autodirigido) y externo. Dante II es producto de un proyecto financiado por la NASA, con base en la Universidad de Camegie Mellon y en otros lugares, cuya meta final consiste en desarrollar robots verdade­ ramente autónomos con el fin de recoger y transmitir información detallada so­ bre las condiciones ambientales locales de otros planetas. Se espera enviar a Mar­ te otro robot mucho más pequeño y en gran parte autónomo en 1996, y el explorador lunar LunaCorp, que está basado en el software de Dante II, tiene una plaza reservada en el primer lanzamiento comercial a la luna, previsto para 1997. Los problemas a los que se enfrentan estos proyectos son muy instruc­ tivos. Los robots diseñados para explorar mundos lejanos no pueden de­ pender de una comunicación constante con científicos situados en la tie­ rra: los desfases de tiempo pronto conducirían a un desastre. Estos robots se deben programar para que busquen unas metas generales explorando y transmitiendo información. Para misiones largas deberán reabastecerse de energía, quizá explotando la energía solar. Deberán ser capaces de fun­ cionar ante dificultades inesperadas y resistir varias clases de daños. En resumen, deberán satisfacer muchas de las exigencias {aunque, desde lue-

t. Ei material acerca de Dante II se basa en un informe realizado por Peter Monaghcn (Chronicle o f Higber Educatton, 10 de agosto de 1994, págs. A6-A8).

50 I De excursión por la mente

go, no tocias) que la naturaleza ha planteado a los organismos móviles en evolución. El intento de construir robots móviles robustos conduce con sorpren­ dente rapidez a un replantcamiento radical de muchas de nuestras cómodas y viejas ¡deas sobre la naturaleza de la inteligencia adaptativa.

1.2 Desfile de robots Elmer y Elsie Los antepasados históricos de los sofisticados robots de hoy con aspecto animal (a veces llamados «animatas») fueron un par de «tortugas» cibernéti­ cas construidas en 1950 por el biólogo W. Grey Walter. Estas «tortugas» -llamadas Elmer y Elsie23- empleaban unos sencillos sensores de luz y de tac­ to y unos circuitos electrónicos para buscar luz, aunque evitando la luz in­ tensa. Además, cada tortuga llevaba unos pilotos luminosos que se encen­ dían cuando los motores estaban en marcha. Incluso un equipo incorporado tan simple como éste condujo a unas intrigantes muestras de conducta, es­ pecialmente cuando Elmer y Elsie interaccionaban entre sí (al ser atraídos por la luz de los pilotos) y con el entorno local (que incluía algunas fuentes de luz por cuya proximidad competían y un espejo que condujo a un diver­ tido «baile» de autoseguimiento). Lo extraño es que, a ojos de un observa­ dor casual, sería más fácil ver vida y propósito en la conducta de estas crea­ ciones tan simples que en los diagnósticos incorpóreos hechos por sistemas expertos tradicionales y de campanillas como M VCIN.3 2, Veanse, por e|cmplo, W. Grey Walter, «An imitation of life», Scientific American, 182 (1959), rT 5, págs. 42-45; Steven Lcvy, Artificial Ltfe The Qnesi for a New Creatton (Pantheon, 1992), págs. 285 284. 3, El trabajo inicial en inteligencia artificial, como el trabajo de Newell y Simón (1972) so­ bre el «Solucionador general de problemas» (General Problem Solver), tendían a acentuar el razonamiento y la resolución de problemas de utilidad general. Sin embargo, pronto se hizo evidente que, para muchos propósitos, una base de conocimientos detallados y ricos adaptado a un domipio de actividad especifico era un determinante crucial para el éxito. Este descubrí miento condujo a una explosión de trabajos con los denominados «sistemas expertos» a los que se proporcionaban datos específicos de ciertas tareas obtenidos de expertos humanos y que, en consecuencia, eran capaces de alcanzar niveles bastante elevados de competencia en dominios restringidos como el diagnostico medico. El programa MYCIN (Shortlíffe, 1976) se basaba en un conjunto de reglas y directrices explícitamente formuladas, como la siguiente re­ gla para extracciones de sangre: «Si 1) el lugar de cultivo es sangre, 2) el organismo es gram negativo, 3) el organismo tiene forma de varilla y 4) el paciente es un receptor en peligro, en­ tonces hay indicios de que la identidad del organismo sea pseudomonas aernginose»

Agentes autónomos: un paseo por la luna I 51

Herbert Uno de los precursores de las recientes investigaciones sobre los agentes autónomos es Rodney Brooks, del MÍT Mobile Robot Laboratory, Los ro­ bots móviles (mobile robots o «mobots») de Brooks son robots reales capa­ ces de funcionar en entornos reales, desordenados e imprevisibles como una oficina abarrotada. Dos características importantes de la investigación de Brooks son la utilización de micromundos horizontales y el empleo de des­ composiciones basadas en la actividad dentro de cada sección horizontal. El contraste entre micromundos horizontales y verticales se establece en Clark, 1989 y, en términos diferentes, en Dennett, 1978b. La idea es sencilla. Un micromundo es un ámbito de estudio restringido: no podemos resolver a la vez todos los enigmas de la inteligencia. Un micromundo vertical aísla como objeto de estudio una pequeña parte de la competencia cognitiva de nivel hu­ mano. Como ejemplos cabe citar jugar a ajedrez, generar las formas pretéritas de verbos ingleses y planificar un picnic, todas ellas actividades que han sido objeto de anteriores programas de inteligencia artificial. El problema evidente es que cuando nosotros, los seres humanos, resolvemos estos problemas avan zados, podemos echar mano de recursos computación ales forjados por otras necesidades más básicas para las que la evolución equipó a nuestros anteceso­ res. Por tanto, las soluciones ingeniosas y orientadas al diseños para estos pro­ blemas tan recientes pueden ser muy diferentes de las soluciones naturales dic tadas por la necesidad de explotar la maquinaria y las soluciones ya existentes. Podemos ser maestros de ajedrez gracias a nuestra capacidad para reconocer patrones, seleccionada para que pudiéramos reconocer parejas, alimentos y depredadores. En contraste con lo anterior, un micromundo horizontal es la

(Feigenbaum, 1977, pág. 1.016). Estos sistemas demostraron ser frágiles y limitados. Degene­ ran rápidamente en una estupidez automatizada si el usuario traspasa una fina línea divisoria gramatical o de expresión, o si emplea términos que tienen abundantes significados del mun­ do real que no se reflejan explícitamente en la base de datos específica de la tarea (por ejem­ plo, el automóvil oxidado al que se le diagnosticó sarampión; véase Lcnat y Feigenbaum, 1992, pág. 197). ¿Cómo se puede evitar este deslizamiento hacia la estupidez? Una posibilidad es que basta con «turboalimenar» los tipos de enfoques tradicionales antes mencionados. SOAR (Laird y otros, 1987) es un intento de crear una versión más poderosa del Solucionador gene­ ral de problemas. CYC (véanse la introducción a este volumen, y Lenat y Feigenbaum, 1992) es un intento de crear esta base de conocimientos más grande y más rica. SOAR y CYC com­ parten el compromiso con el empleo abundante de formas simbólicas tradicionales e inspira­ das en el texto para la codificación de conocimientos y metas. Pero puede que el problema fundamental resida en el enfoque tradicional mismo: que el modelo de la inteligencia como manipulación incorpórea de cadenas de símbolos dentro de la cabeza o del ordenador sea erróneo en sí mismo. La presente obra explora algunas de las alternativas.

52 I De excursión por la mente

capacidad conductual completa de un ser (verdadero o imaginario) completo pero relativamente simple. Al estudiar estos seres, simplificamos los problemas de la inteligencia de nivel humano sin perder de vista elementos biológicos bá­ sicos como las respuestas en tiempo real, la integración de diversas funciones motrices y sensoriales y la necesidad de hacer frente a los daños. Brooks (1991, pág. 143) establece cuatro requisitos para sus seres artifi­ ciales: Deben hacer frente de una manera adecuada y oportuna a los cambios de su entorno dinámico. Deben ser robustos en relación con su entorno... Deben poder mantener múltiples metas... Deben hacer algo en el mundo; su existencia debe tener algún propósito.

Los «seres» de Brooks se componen de varios subsistemas o «capas» productoras de actividad. Estas capas no crean ni pasan codificaciones o recodificaciones de entradas (inputs) explícitas y simbólicas. En cambio, cada capa es, en sí misma, una ruta completa que va de la entrada a la acción. La «comunicación» entre capas distintas se limita a pasar alguna señal simple. Una capa puede estimular, interrumpir o anular la actividad de otra. La or­ ganización resultante es lo que Brooks denomina una «arquitectura de subsunción» (porque las capas pueden subsumir mutuamente su actividad pero no pueden comunicarse de una manera más detallada). Por tanto, un ser se podría componer de tres capas (Brooks 1991, pág. 156): Capa 1: evitar objetos mediante un anillo de sensores de sonar ultrasónico. Es­ tos sensores hacen que el mobot se detenga si se encuentra con un objeto directa mente frente a él y le permiten reorientarse hacia una dirección desbloqueada. Capa 2: cuando la capa de evitar objetos está inactiva, un dispositivo incorpo­ rado puede generar rutas aleatorias para que el mobot «deambule» sin rumbo fijo. Capa 3: esta capa puede anular la capa de deambulación y establecer una meta distante que lleve al mobot a un escenario totalmente nuevo.

Una característica esencial de esta metodología es que se pueden añadir capas progresivamente y que cada incremento produce un ser completo y funcional. Obsérvese que estos seres no dependen de un depósito central de datos o de un dispositivo planificador o razonador central. En cambio, ve­ mos en ellos una «colección de conductas que compiten entre si» orquesta­ da por las entradas del entorno. No existe una línea divisoria clara entre la percepción y la cognición, ningún punto donde las entradas perceptivas se traduzcan a un código central compartido por varios dispositivos de razona­ miento incorporados. Esta imagen de múltiples dispositivos especializados

Agentes autónomos: un paseo por la luna I 53

de resolución de problemas, orquestados por entradas del entorno y por ti­ pos relativamente simples de señalización interna es, como argumentaré en un capítulo posterior, un modelo neurocientíficamente plausible incluso para los cerebros más avanzados. Herbert,4 construido en el MIT Mobot Lab durante los años ochenta, ex­ plotaba el tipo de arquitectura de subsunción acabada de describir. La mi­ sión de Herbert era recoger latas de refresco vacías esparcidas por el labora­ torio. No era una tarea trivial; el robot tenía que desenvolverse en un entorno abarrotado y cambiante, evitar tirar cosas, evitar tropezar con la gente, e identificar y recoger las latas. Nos podemos imaginar un dispositivo planifi­ cador clásico tratando de resolver este complejo problema real empleando abundantes datos visuales para generar un mapa interno detallado del en­ torno actual, distinguir las latas y planificar una ruta. Pero esta solución es a la vez costosa y frágil: el entorno puede cambiar rápidamente (como cuando entra alguien en la sala) y e! procesamiento visual intensivo (por ejemplo, el reconocimiento de escenas y objetos al nivel humano) se encuentra hoy en día más allá del alcance de cualquier sistema programado. Como hemos visto, las arquitecturas de subsunción adoptan un enfoque muy diferente. La meta es conseguir la conducta compleja, robusta y en tiem­ po real que emerge como resultado de interacciones simples entre subsiste­ mas productores de conductas relativamente independientes. A su vez, estos subsistemas están controlados de una manera bastante directa por las pro­ piedades del entorno encontrado.5 No existe un control central o un plan glo­ bal. En cambio, el entorno mismo orienta al ser hacia el éxito gracias a algu­ nas respuestas conductuales básicas. En el caso de Herbert, estas conductas simples incluían rutinas de evitación de obstáculos (detenerse, reorientarse, etc.) y de locomoción. Estas rutinas se interrumpían cuando su sencillo siste­ ma visual detectaba un contorno parecido al de una mesa. Cuando Herbert se encontraba al lado de una mesa, las rutinas de locomoción y evitación de obstáculos cedían el control a otros subsistemas que barrían la mesa con un láser y una cámara de vídeo. Cuando detectaba el perfil básico de una lata, el robot giraba hasta situar el objeto con aspecto de lata en el centro de su cam­ po de visión. En este momento las ruedas se paraban y se activaba un brazo 4. Véase información sobre Herbert en Connell, 1989. 5. Ron McCIamrock 0995) comunica un caso procedente de Marr en el que un bucle de control sale de la cabeza y se extiende al entorno local. En palabras de McCIamrock (pág. 85): «Resulta que las moscas no saben del todo que, para volar, deben agitar las alas. No empren­ den el vuelo enviando una señal del cerebro a las alas. En cambio, existe un enlace de control directo entre las patas y las alas de modo que cuando las patas dejan de estar en contacto con una superficie, las alas de la mosca empiezan a agitarse. Para despegar, la mosca simplemente da un salto y deja que la señal procedente de las patas active las alas».

54 I De excursión por la mente

mecánico que, equipado con unos sencillos sensores, exploraba cuidadosa­ mente la superficie de la mesa que tenia delante. Cuando Herbert encontra­ ba la forma característica de una lata se activaba la conducta de agarrar y, una vez recogida la lata, Herbert continuaba su búsqueda. Por tanto, Herbert es un «ser» sencillo que no tiene almacenado ni un plan a largo plazo ni un modelo de su entorno. Sin embargo, considerado como un animal artificial que busca latas en el nicho «alimenticio» propor­ cionado por el ecosistema del Mobot Lab, Herbert manifiesta una especie de inteligencia adaptativa simple donde la cooperación mutua entre sensores, circuitos incorporados y el entorno externo conduce al éxito.

Añila Rodney Brooks cree que unos robots más pequeños y flexibles que el tor­ pe y pesado Dame serian más adecuados para las necesidades de la explora­ ción espacial. Atóla6 pesa poco más de kilo y medio y usa múltiples «minice­ rebros» («máquinas de estado finito») especializados para controlar un conjunto de conductas locales que, unidas, hacen que se desplace con gran habilidad moviendo cada pata por separado, detectando las fuerzas ejercidas por el terreno para compensar las pendientes, etc. Attila también emplea sensores infrarrojos para detectar objetos cercanos. Es capaz de desplazarse por terrenos abruptos y hasta puede volver a ponerse de pie cuando se cae de espaldas. Según Rodney Brooks, Attila ya encarna algo parecido a la inte­ ligencia de un insecto.

Periplaneta Computatrix Esta es la cucaracha simulada mencionada anteriormente. Beer y Chiel (1993) describen un controlador de red neuronal para la locomoción hexápoda. Cada pata tiene un minicontrolador que explota una unidad «marcapasos»: un modelo idealizado de neurona cuya señal de salida oscila rítmica­ mente. Esta unidad se activa a intervalos determinados por el nivel tónico de excitación de una neurona dominante y de cualquier entrada adicional que reciba. La idea, sacada de un modelo biológico desarrollado por K. G. Pearson (1976), consiste en dar a cada pata su propio generador de patrones rít­ micos, teniendo en cuenta las influencias moduladoras locales asociadas a las diferentes retroalimentaciones sensoriales de cada pata, a medida que el in­ 6. Attila, descrito en las págs. 300-501 de Artificial Life, de Levy, fue diseñado por Colin Angle y Rodney Brooks. Un predecesor, Genghis, se describe en Brooks, 1993.

Agentes autónomos: un paseo por la luna I 55

secto avanza por un terreno desigual. La coordinación entre las patas se con­ sigue mediante enlaces inhibidores entre generadores de patrones adyacen­ tes. Cada pata tiene tres neuronas motrices: la primera controla la oscilación hacia adelante, la segunda controla la oscilación hacia atrás y la tercera hace que la pata se levante. Como antes, el circuito de control global está total­ mente distribuido. No existe un procesador central que deba orquestar una respuesta teniendo en cuenta todas las entradas sensoriales. En cambio, cada pata tiene una «inteligencia» individual y los simples enlaces inhibidores ga­ rantizan una conducta global coherente. Aparecen diferentes maneras de an­ dar a partir de las interacciones entre los distintos niveles de excitación tó­ nica procedentes de las unidades marcapasos (los generadores de patrones) y la retroalimentación sensorial local. El robot adoptará una marcha trípeda cuando las frecuencias de excitación sean elevadas y pasará a una marcha metacrómca cuando sean más bajas. En la marcha trípeda, las patas anterior y posterior de un lado se mueven en sincronía con la pata central del otro; en la marcha metacrónica, cada pata empieza a moverse justo después de la pata que tiene detrás, en una especie de movimiento ondulatorio. Aunque diseñado y puesto a prueba como una pura simulación por or­ denador, este circuito de locomoción se ha utilizado en el cuerpo de un ro­ bot real y ha demostrado su robustez en el mundo real de los rozamientos, la inercia, el ruido, los retrasos, etc. En la figura 1.1 se muestra el primer robot hexápodo, que se analiza con más detalle en Beer y Chiel, 1993, y en Quinn y Espenschied, 1993. El circuito de locomoción empleado también es capaz (al estar tan distribuido) de conservar la mayor parte de su funcionalidad cuando se dañan neuronas o conexiones individuales (Beer y otros, 1992). A pesar de la complejidad de la conducta que produce, el circuito de locomo­ ción en sí es bastante modesto: sólo consta de 37 «neuronas» estratégica­ mente situadas e interconectadas. Sin embargo, los vídeos del robot hexá­ podo y de sus sucesores constituyen un espectáculo fascinante. En una secuencia aparece un robot posterior, algo más complejo (figura 1.2), avan­ zando cautelosamente por un terreno desigual formado por trozos de poliestireno expandido. Una pata se alza y empieza a descender suavemente. Como no «hace pie» (a causa del terreno local), se levanta otra vez y vuelve a posarse en un punto ligeramente diferente. AI final, cuando encuentra un punto de apoyo adecuado, el robot prosigue su marcha. Esta conducta ex­ ploratoria y tanteadora tiene todo el sabor de la inteligencia biológica real.

Robot braquiador La braquiación (figura 1.3) es el movimiento pendular que emplean al­ gunos primates superiores para desplazarse de rama en rama por zonas den-

56 I De excursión por la mente

1.1 El primer robot hexápodo, construido por Ken Espenschied en la Case Western Reserve University bajo la supervisión de Roger Quinn. Fuente: Quinn y Espenschied, 1993. Reproducido con la autorización de K. Espenschied, R. Quinn y Academic Press. FIGURA

I

FIGURA 1.2 El segundo robot hexápodo, construido por Ken Espenschied en la

Case Western Reserve University bajo la supervisión de Roger Quinn. Fotografía ce­ dida gentilmente por Randall Becr.

Agentes autónomos: un paseo por la luna 1 57

FIGURA 1.3 Braquiacion de un gibóti. Fuente: Saito y Fukuda, 1994. Reproducido con la autorización de F. Saito, T. Fukuda y MIT Press.

sámente arboladas. Saito y Fukuda (1994) describen un dispositivo robótico que aprende a braquiar empleando un controlador de red neuronal. Esta ta­ rea es especialmente interesante puesto que incorpora una dimensión de aprendizaje y aborda una conducta para la que el tiempo tiene una impor­ tancia fundamental. Este robot utiliza un tipo de aprendizaje basado en redes neuronales denominado Q-aprendizaje conexionista (connectionist Q-learning).1 El Qaprendizaje implica intentar aprender el valor de distintas acciones en situa­ ciones diferentes. Un sistema de Q-aprendizaje debe tener un conjunto deli­ mitado de acciones y situaciones posibles y se le debe dar una señal de recompensa para comunicarle el valor (positivo) de una acción elegida en la situación que se le plantea. El objetivo consiste en aprender un conjunto de emparejamientos situación-acción que maximicen el éxito en relación con una señal de recompensa. Saito y Fukuda demuestran que estas técnicas per­ miten que una red neuronal artificial aprenda a controlar un robot braquiador real de dos brazos (figura 1.4). Un robot braquiador totalmente entre­ nado puede balancearse con éxito de una «ram a» a otra y, si no encuentra asidero, puede aprovechar el impulso inicial para balancearse hacia atrás y volverlo a intentar.7

7. Véase información sobre el conexiomsmo en c! capítulo 4 de este mismo libro. El Q aprendizaje es una forma de aprendizaje por refuerzo (véanse Kaelbling, 1995 y Sutton, 1991) desarrollado por Watkíns (1989). El empleo de redes neuronales en escenarios de Q-aprendi­ zaje se discute en Lin, 1993.

58 I De excursión por la mente

F igura 1.4 Robot braquiador de dos brazos. Fuente: Saito y Fukuda, 1994. Repro­ ducido con la autorización de F. Saito, T. Fukuda y MIT Press.

COG Seguramente, CO G (Brooks, 1994; Brooks y Stein, 1993) es el más am­ bicioso de todos los proyectos de la «nueva robótica» emprendidos hasta ahora. Este proyecto, éncabezado por Rodney Brooks, se propone crear un robot humanoide con un funcionamiento extremadamente complejo. Este ro­ bot, del tamaño de una persona (figura 1.5) no tiene capacidad de ambula­ ción; sin embargo puede mover las manos, los brazos, la cabeza y los ojos.

Agentes autónomos: un paseo por la luna I 59

F ig ura 1.5 Tres vistas del robot C O G . Fotografías cedidas por Rodney Brooks.

60 I De excursión por la mente

Aunque su base está firmemente sujeta a un tablero, puede girar a la altu­ ra de las caderas. Esta libertad de movimientos se obtiene a partir de 24 motores separados, dotados cada uno de un procesador exclusivamente dedicado a supervisar su funcionamiento (de acuerdo con el «espíritu» general de los mobots de evitar un control centralizado). Los brazos dis­ ponen de muelles que amortiguan los movimientos mecánicos. La mayor parte de los motores (salvo los de los ojos) disponen de sensores de calor que permiten a CO G reunir información sobre su propio funcionamiento en cada momento y conocer el nivel de trabajo de cada motor: una espe­ cie de versión robótica del sentido cinestésico que nos dice cómo se orien tan en el espacio las partes de nuestro cuerpo. Cada ojo consta de dos cá­ maras; una tiene un campo de visión amplio con una resolución baja y el otro tiene un campo de visión reducido con una resolución alta. Estas cá­ maras se pueden mover para inspeccionar una escena visual y las que tie­ nen el campo reducido realizan una función parecida a la de la fóvea de los mamíferos. CO G también recibe información de audio por medio de cuatro micrófonos. Toda esta abundancia de datos de entrada es procesa­ da por un «cerebro» compuesto por múltiples submáquinas (o «nodos», cada uno con un megabyte de ROM y de RAM y un sistema operativo d e­ dicado), que son capaces de comunicarse entre sí de maneras restringidas. Por tanto, el cerebro mismo de CO G es un sistema multiprocesador y su sistema nervioso también incluye otros dispositivos «inteligentes» (como los procesadores dedicados de los motores). Así pues, aunque la organi zación global de CO G refleja gran parte de la filosofía que guía el trabajo de Brooks con insectos robot, es lo suficientemente compleja como para traer a un primer plano problemas nuevos y acuciantes. Entre sus carac terísticas familiares se incluyen la ausencia de una memoria central com­ partida por todos los procesadores, la carencia de controles ejecutivos centrales, una comunicación restringida entre los diversos subdispositivos y el énfasis en la resolución de problemas en tiempo real que supone sen­ tir y actuar. Todos los problemas nuevos se centran en torno a la necesi­ dad de obtener conductas coherentes de un sistema complejo como éste sin volver a los métodos antiguos y poco prácticos de la planificación se­ rial y el control central. Los ingeniosos trucos y estrategias que permiten a los sistemas corpóreos mantener una coherencia mientras explotan múl­ tiples rutinas de resolución de problemas especializadas y cuasi inde­ pendientes (que se abordarán en capítulos posteriores), aportan luz so­ bre los papeles del Jenguaje, la cultura y las instituciones en la potenciación de la cognición humana. De momento, sin embargo, retro cederemos un poco e intentaremos extraer algunas conclusiones generales de este desfile de critters artificiales.

Agentes autónomos: un paseo por la luna I 61

1.3 Mentes sin modelos La revolución de la «nueva robótica» rechaza una parte fundamental de la imagen clásica de la mente. Rechaza la imagen de un planificador central que tenga conocimiento exclusivo de toda la información disponible en cual­ quier parte del sistema y que se dedique a descubrir posibles secuencias conductuales que satisfagan unas metas concretas. El problema del planificador central es que, en esencia, es muy poco práctico. Introduce lo que Rodney Brooks denominó acertadamente un «embotellamiento representacional» que bloquea cualquier respuesta rápida en tiempo real. La razón es que la in­ formación sensorial entrante debe ser traducida a un código simbólico único para que el mencionado planificador pueda encargarse de ella. Y la salida que produzca el planificador también se deberá traducir desde su propio código interno a los diversos formatos necesarios para controlar varios tipos de res­ puesta motriz. Estas fases de traducción consumen mucho tiempo y energía. Critters artificiales como Herbert y Attila destacan por su falta de plani­ ficación central. En su lugar, la arquitectura de subsunción sitúa múltiples dispositivos cuasi independientes, cada uno de los cuales constituye una vía autosuficiente que enlaza la entrada sensorial con la acción. En consecuen­ cia, las conductas de estos sistemas no están mediatizadas por ninguna base integrada de conocimientos que represente el estado actual del entorno glo­ bal. A estas bases de conocimientos se les suele llamar «modelos detallados del mundo» y un tema recurrente de los nuevos enfoques es que logran al­ canzar un éxito adaptativo sin emplear estos modelos. Sin embargo, sería fácil exagerar esta diferencia. Uno de los mayores pe­ ligros que acechan a toda propuesta revolucionaria en la ciencia es que se puede descartar una parte demasiado grande de la «visión antigua»: es decir, se puede tirar mucha fruta fresca junto con la pocha. Este mismo peligro existe, creo yo, en el rechazo de la nueva robótica frente a las representacio­ nes, los modelos y los mapas internos. Si sólo se interpreta como un aviso para prestar atención a los costes de los modelos centralizados, integrados y simbólicos, la crítica es oportuna e importante. Pero si se interpreta como un rechazo sistemático a las economías internas cuyas complejidades incluyen múltiples representaciones centradas en la acción y múltiples modelos par­ ciales del mundo, esto sería un error al menos por dos razones. En primer lugar es indudable que, en ocasiones, el cerebro humano inte­ gra múltiples fuentes de información. El área que rige los movimientos sacádicos (los movimientos rápidos de la fóvea de alta resolución hacia un nuevo objetivo) es capaz de responder a múltiples entradas sensoriales: podemos realizar un movimiento sacádico hacia el lugar donde hemos detectado un movimiento periférico, hacia el origen de un sonido o para examinar un ob-

62 I De excursión por la mente

jeto detectado solo por el tacto. Además, con frecuencia combinamos mo­ dalidades utilizando el tacto, la vista y el sonido en complejos bucles inter­ dependientes donde la información recibida en cada modalidad ayuda a sin­ tonizar y eliminar la ambigüedad del resto (como cuando nos encontramos con un objeto familiar en un rincón oscuro del armario). En segundo lugar, la presencia de modelos internos que intervienen en­ tre la entrada y la salida no siempre constituye un embudo costoso en cuan­ to a tiempo. La emulación motriz ofrece un ejemplo claro y convincente. Consideremos la tarea de alcanzar una taza. Una «solución» para estos pro­ blemas es el alcance balístico. Como indica su nombre, esta manera de asir depende de una trayectoria prefijada y no corrige errores a lo largo de la mis­ ma. Una manera de asir más hábil se basa en la retroalimentación sensorial para realizar correcciones sutiles y guiar el asimiento sobre la marcha. Una fuente de esta retroalimentación es la propiocepción, el sentido interno que nos dice cómo se sitúa nuestro cuerpo (en este caso, el brazo) en el espacio. Pero las señales propioceptivas deben hacer el viaje de vuelta desde las peri­ ferias corporales hasta el cerebro y esto requiere tiempo; de hecho, requiere demasiado tiempo para que las señales se puedan emplear en la generación de movimientos fluidos de asimiento. Para resolver este problema, el cere­ bro puede emplear un truco (muy empleado en los sistemas industriales de control) denominado emulación motriz. Un emulador es un circuito incor­ porado que duplica ciertos aspectos de la dinámica temporal del sistema más amplio. Toma como entrada una copia de una orden motriz y produce como salida una señal cuya forma es idéntica a la de una señal que vuelva de las pe­ riferias sensoriales. Es decir, predice cómo debe ser la retroalimentación propioceptiva. Si el dispositivo es fiable, se pueden utilizar estas prediccio­ nes en lugar de las señales sensoriales reales para generar una actividad de corrección de errores más rápida. Estos emuladores son el tema de numero­ sos tratamientos teóricos detallados (por ejemplo, Kawato y otros, 1987; Dean y otros, 1994) que muestran que el aprendizaje de redes neuronales simples puede producir emuladores fiables y en los que se especula sobre la manera de desarrollar estos emuladores en circuitos neuronales reales. Estos emuladores motrices no son embudos que obstaculicen el éxito en tiempo real. Al contrario, facilitan el éxito en tiempo real al ofrecer un tipo de «retroalimentación virtual» que supera la retroalimentación procedente de las periferias sensoriales reales, proporcionándonos una especie de «hipcragudeza» motriz que nos permite generar unas trayectorias de asimiento más fluidas y precisas de lo que sería posible, dadas las distancias y la velo­ cidad de conducción que gobiernan el regreso de las señales sensoriales des­ de las periferias corporales. Pero también es indudable que un emulador es una especie de modelo interno. Consturir modelos de aspectos destacados

Agentes autónomos: un paseo por la luna I 63

de la dinámica corporal de los agentes y se puede desplegar incluso en ausencia de las entradas sensoriales usuales. Con todo, es un modelo parcial dedicado a una clase específica de tareas y, en consecuencia, es compatible con el escepticismo de la nueva robótica acerca de los modelos del mundo detallados y centralizados y con su insistencia en el éxito conductual en tiem­ po real. También destaca la importancia intrínseca de los aspectos tempora­ les de la cognición biológica. El papel adaptativo del emulador depende tanto de su velocidad de operación (su capacidad de superar la retroalimentadón sensorial real) como de la información que codifica. Así pues, es evidente que el primer mensaje de la cognición corpórea es que se debe evitar un modelado excesivo del mundo y que los modelos se deben adaptar a las exigencias de los sistemas productores de conducta en tiempo real.

1.4 Nichos El segundo mensaje está muy relacionado con el primero. Se refiere a la necesidad de encontrar ajustes muy precisos entre las necesidades y los esti­ los de vida de sistemas específicos (sean animales, robots o humanos) por un lado, y los tipos de estructuras ambientales portadoras de información a las que responden estos sistemas por otro. La idea es reducir la carga de proce samiento de información, sensibilizando el sistema a determinados aspectos del mundo que tengan una trascendencia especial para él a causa del nicho ambiental en el que habita. Vimos algo de esto en el caso de Herbert, cuyo «nicho» es el entorno lle­ no de latas de Coca-Cola del MIT Mobile Robot Laboratory. Un hecho bas­ tante seguro de ese nicho es que las latas tienden a acumularse encima de las mesas. Otro es que las latas, por sí solas, no se mueven ni intentan escapar. A la vista de estos hechos, la carga computacional de Herbert se puede reducir considerablemente. En primer lugar, puede utilizar señales de baja resolu­ ción para detectar las mesas y acercarse a ellas. Cuando se encuentra junto a una mesa, puede iniciar una rutina especial dedicada a buscar latas. Para buscar las latas, Herbert no necesita (y de hecho, no puede) formar repre­ sentaciones internas de los otros objetos que hay en la mesa. El «mundo» de Herbert sólo está poblado de obstáculos, superficies de mesas y latas. Cuan do ha localizado una lata, Herbert lleva a cabo unos movimientos físicos de orientación con el fin de simplificar la tarea de cogerla. Todo lo que hace Herbert (emplear movimientos, basarse en señales fácilmente detectables y evitar modelos del mundo detallados y centralizados), constituye un ejemplo de sensación dependiente del nicho.

64 i Pe excursión por la mente

La nocion de sensación dependiente del nicho no es nueva. En 1934, Jakob Von Uexkull publicó una maravillosa monografía cuyo título se traduce por Un paseo por los mundos de animales y hombres: libro ilustrado de mun­ dos invisibles. En esta obra, con una elocuencia y una claridad parecidas a las de un cuento, Von Uexkull introduce la idea del Umwelt, definido como el conjunto de aspectos ambientales a los que está sensibilizado un tipo deter minado de animal. Describe el Umwelt de una garrapata, que es sensible al ácido butírico que se encuentra en la piel de los mamíferos. El ácido butíri­ co, cuando es detectado por la garrapata, induce a ésta a soltarse de la rama donde se encuentra para caer sobre el animal. El contacto táctil extingue la respuesta olfativa e inicia un procedimiento de corretear hasta que se detec­ ta calor. La detección del calor inicia la actividad de perforar y cavar. Es im posible resistirse a citar a Von Uexkull con cierta extensión: La garrapata cuelga inmóvil de la punta de una rama en el claro de un bos­ que. Su posición le da la oportunidad de dejarse caer sobre un mamífero que pase. De todo el entorno entero, no le afecta ningún estimulo hasta que se acer­ ca un mamífero, cuya sangre necesita para poderse reproducir. Y ahora sucede algo totalmente fantástico. De todos los efluvios que emanan del cuerpo del mamífero, sólo tres se convierten en estímulos y además en un or den definido. Del vasto mundo que rodea a la garrapata, tres aspectos refulgen como faros en la oscuridad y actúan como guias que conducen de una manera ¡n falible a la meta. Además de su cuerpo con sus receptores y efectores, la garra­ pata tiene la facultad de detectar tres señales que actúan como estímulos. Y es­ tas señales perceptivas prescriben el curso de sus acciones con tanta rigidez que sólo puede producir los impulsos efectores correspondientes. El mundo entero y rico que rodea a la garrapata se encoge para convertirse en un marco austero que consta, en esencia, de tres señales de recepción y tres señales efectoras: su Umwelt. Pero la pobreza misma de este mundo garantiza la indefectible certeza de sus acciones: la seguridad es más importante que la ri queza (ibíd., págs. 11-12).

Así pues, para Von Uexkull, cada especie animal habita en un entorno efectivo distinto. Este entorno efectivo está definido por los parámetros que tienen importancia para un animal y su estilo de vida concreto, y el entorno general es el mundo físico en todo su esplendor y complejidad. La monografía de Von Uexkull está repleta de imágenes maravillosas del aspecto que podría tener el mundo si se viera a través del cristal de la sensa ción dependiente del U m vell (figuras 1.6 a 1.8). Aunque las ilustraciones son muy caprichosas, sus ideas son profundas e importantes. La cognición biológica es muy selectiva y puede sensibilizar a un organismo a cualquier parámetro (con frecuencia simples) que especifique con fiabilidad las condi-

Agentes autónomos: un paseo por la luna I 65

dones que condernen a esa forma de vida concreta. La similitud entre los mundos operacionales de Herbert y de la garrapata es sorprendente: ambos se basan en señales simples que son específicas de sus necesidades y ambos salen ganando al no molestarse en representar otros tipos de detalles. Una extensión natural de esta idea, y que da bastante que pensar, es preguntarse si el ser humano también percibe el mundo de una manera sesgada y res­ tringida. Nuestro tercer mensaje afirma que así es, y de una forma mucho más espectacular de lo que pueda sugerir la experiencia cotidiana.

1.5 ¿Sensibilidad para los detalles? Sin duda, muchos lectores estarán de acuerdo en que incluso la avanza­ da percepción humana está sesgada hacia los aspectos del mundo que tienen importancia para los intereses y las necesidades del hombre. Según el último y más especulativo mensaje de nuestra breve lista, este sesgo es mucho más fuerte de lo que hayamos podido imaginar. Concretamente sugiere que nues­ tras experiencias cotidianas de percepción nos pueden inducir a error indi­ cando la presencia de unos modelos del mundo más duraderos y detallados que los que nuestros cerebros construyen en realidad. Esta idea, en cierto modo paradójica, exige una cuidadosa introducción.® Consideremos el acto de correr para atrapar una bola. Se trata de una habilidad que exhiben rutinariamente los jugadores de criquet y de béis­ bol. ¿Cómo se lleva a cabo? La experiencia común sugiere que vemos la pelota en movimiento, prevemos la continuación de su trayectoria y co­ rremos para estar en la posición adecuada para interceptarla. En cierto sentido esto es correcto. Pero la experiencia (la «fenomenología») puede ser engañosa si creemos que computamos activamente estas trayectorias. Investigaciones recientes’ indican que una estrategia más eficiente en cuan­ to a computación consiste, simplemente, en correr de manera que la acele­ ración de la tangente de elevación de la mirada del jugador hacia la bola se mantenga a cero. Si hacemos esto, siempreinterceptaremos la bola antes de que llegue al suelo. La observación de secuencias grabadas en vídeo de in­ terceptaciones reales indican que, en efecto, los seres humanos utilizan -inconscientemente- esta estrategia. Una estrategia como ésta evita mu­ chos costes de computación porque aísla los parámetros mínimos y más fá-89 8. Esto se expone con precisión en Churchland y otros, 1994 y está presente en gran par­ te de Dennett, 1991. 9. Estas investigaciones fueron llevadas a cabo por Zolten Dienes en la Universidad de Sussex (comunicación personal).

66 i De excursión por la mente

F ig u r a 1.6 Entorno y Umwcll de una vieira. Ilustración basada en la figura 19 de Von Ucxkull, 193-1; adaptada por Christinc Clark, con autorización de International Universities Press.

Agentes autónomos: un paseo por la luna I 67

FlGL'RA 1.7 Umwelt de un astrónomo. Ilustración basada en la figura 21 de Von Uexkull, 1934: adaptada por Christine Clark, con autorización de International Uni versities Press.

cilmente perceptibles que pueden apoyar la acción específica de la inter­ ceptación. Siguiendo una línea similar, un importante corpus de investigaciones co­ nocido como visión anim ada (Ballard, 1991; véase también P, S. Churchland y otros, 1994) indica que la resolución cotidiana de problemas guiada por la visión puede explotar una gran cantidad de estas estratagemas y rutinas es­ pecializadas. En vez de considerar la visión como la transformación de unas señales luminosas entrantes en un modelo detallado de un mundo externo tridimensional, la investigación de la visión animada estudia cómo se pueden apoyar respuestas adaptativas rápidas y fluidas mediante rutinas que requie­ ran menos intensidad computacional: rutinas que entrelacen la sensación con la acción y con el movimiento en el mundo. Com o ejemplos podemos ci­ tar el uso de movimientos sacádicos rápidos y repetidos para inspeccionar

63 I De excursión por la mente

F igura 1.8 Entorno y Umwell de una abeja. Ilustración basada en la figura 53 de Von Uexkull, 1934; adaptada por Christine Clark, con autorización de International Universities Press.

Agentes autónomos: un paseo por la luna I 69

una escena visual y extraer información detallada únicamente en posiciones foveales seleccionadas, y la explotación de señales más burdas (como el co­ lor) que se pueden detectar en las periferias de baja resolución. El caso de la exploración visual rápida es especialmente instructivo. Los ojos humanos utilizan una pequeña área (menos del 0,01 % del campo visual total) de resolución muy elevada. Los movimientos sacádicos desplazan esta ventana de alta resolución de un punto a otro en una escena visual. Yarbus (1967) mostró que estos movimientos pueden ser inteligentes en el sentido de que un sujeto humano situado frente a una escena idéntica realiza explo­ raciones sacádicas muy diferentes para llevar a cabo tareas distintas. Estos movimientos son muy rápidos (unos tres por segundo) y suelen incidir una y otra vez sobre la misma posición. En uno de los estudios de Yarbus, a los su­ jetos se les mostraba la imagen de una habitación con algunas personas en ella y se Ies pedía que dijeran las edades de estas personas, que adivinaran qué actividad habían realizado anteriormente o que recordaran las posicio­ nes de personas y objetos. Se identificaron pautas muy diferentes de movi­ mientos sacádicos en función de la tarea especificada. Según los investigadores de la visión animada, los movimientos sacádicos frecuentes nos permiten sortear la necesidad de construir modelos detallados y duraderos de nuestro entorno visual. Según Rodney Brooks, podemos utilizar el mundo como si fuera el mejor modelo de sí mismo e inspeccionar una y otra vez la escena real, tomando muestras detalladas en las posiciones concretas requeri­ das. Así se evita la costosa actividad de mantener y actualizar un modelo interno completo de una escena tridimensional. Además, podemos tomar muestras de la escena de maneras adecuadas a las necesidades concretas de cada momento. Aun así, realmente nos parece que, en general, disponemos de una ima­ gen tridimensional completa y detallada del mundo que nos rodea. Sin em­ bargo, como han destacado varios autores recientemente,10 esto puede ser una ilusión subjetiva que se apoya en nuestra capacidad para incidir rápida­ mente sobre cualquier parte de una escena y recuperar una información de­ tallada (aunque no duradera) de la región de la fóvea. Ballard (1991, pág. 59) comenta que «el sistema visual produce la ilusión de estabilidad tridimen­ sional por su capacidad de realizar conductas rápidas». El sentido del tacto nos ofrece una útil analogía." En los años sesenta, Mackay planteó la siguiente pregunta: imaginemos que estamos tocando una botella con los ojos cerrados y las yemas de los dedos separadas. Sólo recibimos sensaciones táctiles de unos cuantos puntos separados. ¿Por qué !0. Especialmente Dennett, 1991; Ballard, 1991 y Cliurchland y otros, 1994. 11. Véanse Mackay, 1967 y Mackay, 197). Encontré este ejemplo por primera vez en O'Regan, 1992, págs. 471-476.

70 I De excursión por ta mente

no tenemos la sensación de palpar un objeto con agujeros que correspon­ derían a los espacios que hay entre los dedos? La razón es, en cierto senti­ do, obvia. Utilizamos el tacto para explorar superficies y estamos acostum­ brados a desplazar las yemas de los dedos para encontrar más superficie, sobre todo cuando sabemos que lo que sostenemos es una botella. No tra­ tamos los espacios entre las entradas sensoriales como si fueran espacios en el mundo, porque estamos acostumbrados a utilizar los sentidos como ins­ trumentos exploratorios que pasan de un punto a otro. Tras reflexionar so­ bre este caso, un investigador propuso que lo que con frecuencia pensamos que es el acto sensorial pasivo de «sentir la botella», se entiende mejor si se concibe como un ciclo basado en la acción donde unas percepciones frag­ mentarias provocan nuevas exploraciones, y que este ciclo de acción es la base de la experiencia de percibir una botella completa.1- Este punto de vis­ ta radical, donde el tacto se formula como un instrumento exploratorio que se lanza de acá para allá para explorar una y otra vez el entorno local, se ex­ tiende de una manera completamente natural a la visión y a la percepción en general. La sospecha de que la visión no es todo lo que parece se expresa a la per­ fección en el artículo publicado en 1994 por Patricia Churchland, V. S. Ramachandran y Terrence Sejnowski con el título «A critique of puré visión» (Critica Je la visión paral. También ellos proponen que en lugar de una re­ presentación interna formada por «imágenes perfectas» sólo extraemos una sucesión de representaciones parciales, conjetura que caracterizan como la hipótesis de los «semimundos visuales» o de las «representaciones parciales por ojeada». Según ellos, esta hipótesis no sólo está apoyada por considera­ ciones computacionales generales relacionadas con la utilización de movi­ mientos sacádicos frecuentes, etc., sino también por algunos experimentos psicológicos sorprendentes.” Estos experimentos se basaban en mostrar imágenes en la pantalla de un ordenador y «engañar» a los sujetos alterando la imagen mostrada durante los movimientos sacádicos de los ojos. Resultó que los cambios efectuados durante los movimientos sacádicos rara vez se detectaban. En estos momen­ tos críticos se pueden cambiar de lugar objetos enteros, se pueden añadir otros objetos y se pueden modificar los colores, todo esto mientras el sujeto permanece (normalmente) en la más bendita ignorancia. Quizá sea aún más 12. «El “pcrcepto” dc(la botella es una acción: concretamente, la exploración visual o mental de la botella. ¡Vo es una simple sensación pasiva que obtenemos de la reúna o algún de­ rivado icónico de la información que hay en ella» (O'Regan, 1992, pág. 472). 13 Véanse McConkie y Rayner, 1976; McConkie, 1979; McConkie, 1990; O'Regan, 1990 y Rdvncr y otros, 1980

Agentes autónomos: un paseo por la luna I 71

sorprendente una investigación relacionada con la anterior, en la que se le pide a un sujeto que lea un texto presentado en una pantalla de ordenador. El texto en cuestión nunca está totalmente presente en la pantalla al mismo tiempo y se limita a una zona que abarca (para sujetos típicos) 17 o 18 ca­ racteres. Este texto está rodeado por caracteres aleatorios que no forman pa­ labras verdaderas. Pero (y aquí está el truco) la ventana de texto real se des­ plaza a lo largo de la pantalla de izquierda a derecha acompañando la mirada del sujeto. El texto no es repetitivo porque el programa que se ejecuta en el ordenador garantiza que el texto adecuado vaya apareciendo sistemática­ mente en lugar del texto aleatorio (aunque, como se trata de una ventana móvil, van apareciendo nuevos caracteres aleatorios donde antes había tex­ to real). Cuando este sistema está bien calibrado para un sujeto concreto, ¡éste no se da cuenta de la presencia de los caracteres extraños! Además, la impresión subjetiva es, con toda claridad, la de encontrarse frente a una pá­ gina llena de texto verdadero que abarca toda la periferia visual, de izquier­ da a derecha. En estos casos por lo menos podemos decir con seguridad que la naturaleza experimentada de la escena visual es una especie de ilusión subjetiva provocada por el empleo de una exploración rápida y una ventana pequeña de resolución y atención.

1.6 El robot refinado Hubo un tiempo en que el Mobile Robot Laboratory de Rodney Brooks tenía un lema: «Rápido, barato y fuera de control». Este es, de hecho, el mensaje inmediato de la visión de la nueva robótica. Sin una planificación central o incluso sin el empleo de un código simbólico central, estos sistemas artificiales navegan de una manera fluida y robusta por el mundo real. Y lo hacen gracias a unos acoplamientos cuidadosamente orquestados entre unos dispositivos incorporados relativamente independientes y unos aspectos se­ leccionados del entorno (el Urnwelt del robot, por así decir). A pesar de las apariencias, ahora parece imaginable que gran parte de la inteligencia hu­ mana se base en estrategias y ardides similares específicos del entorno, y que también nosotros podamos carecer de un modelo del mundo central e inte­ grado al estilo tradicional. Por tanto, en la medida en que nos tomemos en serio los mensajes generales de la nueva robótica, nos enfrentaremos a dos problemas inmediatos y acuciantes. El primero es un problema de descubrimiento. Si evitamos la imagen fá­ cil del planificador central que cavila sobre estructuras de datos similares a textos, y si no nos fiamos de nuestras intuiciones sobre la información que extraemos de los datos sensoriales, ¿qué debemos hacer? ¿Cómo podemos

72 [ De excursión por la mente

siquiera formular hipótesis acerca del posible funcionamiento y la estructu ra de estas mentes fragmentarias y que desafían nuestra intuición? Brooks y otros confían en desarrollar un nuevo conjunto de intuiciones basadas en la atención a conductas específicas y organizadas en torno a la idea general de una arquitectura de subsunción. Sin embargo, cuando tratemos de abordar casos cada vez más complejos, es dudoso que este enfoque «artesanal» pue­ da triunfar. En capítulos posteriores investigaremos algunas maneras de avanzar que parecen estar menos sujetas a las intuiciones humanas: trabajar con datos neurocientíficos y evolutivos reales, procurar que los sistemas robóticos aprendan por su cuenta e incluso intentar imitar el cambio genético para hacer evolucionar generaciones de robots cada vez más refinados. {O b­ servemos la naturaleza y dejemos que la naturaleza simulada siga su curso! El segundo problema es de coherencia. Tanto el poder como el misterio de la investigación de la nueva robótica residen en el empleo de múltiples subsistemas cuasi independientes de los que, en condiciones ecológicas ñor males, emerge con delicadeza una conducta orientada a metas. El poder es­ triba en la capacidad de respuesta robusta y en tiempo real de estos sistemas. El misterio es cómo mantener unas pautas de conducta coherentes cuando los sistemas se hacen más y más complejos y se les exige que muestren una variedad de conductas cada vez más amplia. Naturalmente, una respuesta a este problema es renunciar a la imagen básica e insistir en que las conductas complejas y avanzadas deben basarse en algo parecido a un sistema planifi­ cador simbólico central. Sin embargo, no deberíamos rendirnos antes de tiempo. En los capítulos que siguen, sacaremos a la luz una cantidad sor­ prendente de estrategias y ardides adicionales que pueden inducir una co­ herencia global. La mayoría de estas estrategias suponen el empleo de algún tipo de estructura externa o «andamiaje» para moldear y orquestar la con­ ducta. Entre los candidatos más evidentes se encuentran el entorno físico inmediato (recordemos a Herbert) y nuestra capacidad para reestructurar activamente ese entorno con el fin de apoyar y extender mejor nuestras ca­ pacidades naturales para la resolución de problemas. Estas estrategias son especialmente manifiestas en el desarrollo infantil. Entre otros factores menos evidentes pero que tienen una importancia crucial, se encuentran la presen­ cia restrictiva del lenguaje, la cultura y las instituciones públicas, la economía interna de las respuestas emocionales y diversos fenómenos relacionados con la inteligencia grupal o colectiva. En particular, el lenguaje y la cultura apa­ recen como unas especies avanzadas de andamiaje externo, «diseñadas» para extraer la máxima coherencia y utilidad de unas mentes fundamentalmente cortas de vista, especializadas e internamente fragmentadas. Por tamo, des­ de sus inicios en la simple robótica, nuestro viaje llegará a tocar -y en oca­ siones a poner en entredicho- algunos de los elementos más arraigados de la

Agentes autónomos: un paseo por la luna I 73

imagen intelectual que tenemos de nosotros mismos. El «deliberador racio­ nal» resulta ser un «respondedor adaptativo» bien camuflado. Cerebro, cuerpo, mundo y artefacto están estrechamente vinculados entre sí, forman­ do la más compleja de las conspiraciones. Y mente y acción se manifiestan en un íntimo abrazo.

2

El niño situado

2.1 Yo, robot Robots que recogen latas de refrescos, exploradores lunares, cucarachas: si todo esto nos suena extraño, pensémoslo mejor. La incipiente perspectiva sobre la cognición corpórea también nos puede ofrecer la mejor esperanza hasta el momento de comprender las características fundamentales del pen­ samiento y el desarrollo humanos. Un campo especialmente prometedor es el estudio de la infancia. La imagen que tiene la nueva robótica de «pensar con los pies» encuentra un complemento natural en nuestra comprensión creciente del desarrollo del pensamiento y la acción en los niños, porque el especialista en robótica y un número cada vez mayor de psicólogos del desa­ rrollo coinciden en destacar la delicada interacción entre cerebro, cuerpo y entorno local para determinar el éxito cognitivo inicial. De hecho (y para ser históricamente justos), es probable que los psicólo­ gos del desarrollo fueran de los primeros en destacar la verdadera relación entre los factores internos y externos para determinar el cambio y el éxito cognitivo. En este sentido, teóricos como Jean Piaget, James Gibson, Lev Vygotsky y Jeromc Bruner, aunque partiendo de enfoques muy diferentes, previeron muchas de las ideas de cariz más radical a las que ahora se dedica la robótica situada.’ Con todo, continúan existiendo abundantes posibilida­ des para un mutuo esclarecimiento, pues cada uno de los dos campos dispo­ ne de un conjunto distinto de instrumentos conceptuales y experimentales y de Corpus de datos diferentes. Por tanto, la alianza intelectual entre la psico­ logía del desarrollo y las otras ciencias de la mente corpórea puede acabar 1. Véanse, por ejemplo, Fiagei, 1952, 1976; Gibson, 1979; Bruner, 1968; Vygotsky, 1986.

76 I De excursión por la mente

siendo una de las empresas interdisciplinarias más apasionantes de la próxi­ ma década. En este capítulo se exploran cinco hitos de fundamental importancia que se encuentran a lo largo de esta frontera interdisciplinaria: la idea de bucles de ac­ ción que entrecruzan el organismo y su entorno (apartado 2.2); una visión muy interactiva del proceso de desarrollo según la cual mente, cuerpo y mundo ac túan en pie de igualdad (apartado 2.3); una imagen de la cognición biológica en la que emergen soluciones a problemas sin un control ejecutivo central (apar tado 2.4); el reconocimiento del papel fundamental desempeñado por apoyos y estructuras externas para posibilitar el éxito adaptativo y proporcionar la en voltura para el aprendizaje individual (apartado 2.5); y un escepticismo cre­ ciente, enraizado en todas las consideraciones anteriores, acerca del verdadero valor de las divisiones intuitivas entre percepción, acción y cognición (apartado 2.6). La conclusión a la que se llega es que el desarrollo cognitivo no se puede tratar con eficacia aislándolo del hecho de que el niño está embebido en el mundo e interacciona con él. En una imagen más adecuada de la cognición in­ fantil (y, de hecho, de toda cognición), percepción, acción y pensamiento se vin­ culan entre sí en una variedad de formas complejas e interpenetradas.

2.2 Bucles de acción Consideremos un puzzle. Una manera (improbable) de tratar de resolverlo consiste en mirar muy fijamente una pieza y tratar de determinar, sólo con la ra­ zón, si encaja en una posición determinada. Sin embargo, en la práctica real em­ pleamos una estrategia mixta en la que hacemos una determinación mental aproximada y luego probamos físicamente si la pieza encaja o no. En general, no nos representamos la forma detallada de una pieza lo suficientemente bien como para saber con certeza si encajará antes de realizar esta manipulación fí­ sica. Además, podemos hacer girar físicamente las piezas candidatas antes de probar si encajan para simplificar la tarea más «mental» de evaluar aproxima­ damente su ajuste potencial (recordemos el empleo por parte de Herbert de un procedimiento similar, girando sobre sí mismo para fijar una lata en una posi­ ción central canónica de su campo visual). Por tanto, acabar un puzzle supone una danza intrincada y repetida donde el «pensamiento puro» conduce a ac­ ciones que, a su vez, cambian o simplifican los problemas a los que se enfrenta este pensamiento. Probablemente, éste es uno de los ejemplos más sencillos de los fenómenos conocidos como bucles de acción.2 2. Véanse exposiciones de fenómenos de bucles de acción en Colé y otros, 1978; Rutkowska, 1986, 1993; Theíen y Smith, 1994.

El niño situado í 77

Recientes investigaciones sobre el desarrollo realizadas por Esther Thelen y Linda Smith, indican que estas interacciones entre pensamiento y ac­ ción puede ser tan omnipresentes y fundamentales, que estas investigado­ ras sospechan que todo nuestro conocimiento inicial se construye «mediante interacciones trabadas en el tiempo entre percepción y acción en contextos particulares» {Thelen y Smith, 1994, pág. 217). Para ver lo que esto significa, consideremos la conducta de los niños pequeños ante precipicios visuales (un precipicio visual es una caída vertical cubierta con una superficie fuerte, rígida y transparente de plexiglás u otro material si­ milar). Se ha demostrado que los niños que aún no pueden gatear son ca­ paces de distinguir los lados poco profundos del precipicio de la zona que se encuentra más allá de la caída. Muestran una atención y un interés ere cientes y, sorprendentemente, lloran menos cuando se encuentran encima del precipicio que cuando están sobre los lados menos profundos. Los ni­ ños de más edad y con mayor movilidad responden al precipicio con res­ puestas asociadas al miedo (Campos y otros, 1978).' Claramente, los dos grupos de niños pueden percibir la información visual que especifica la profundidad. La diferencia crucial parece residir en cómo se emplea esta información, es decir, en cómo interviene en la interacción entre percep ción y acción. Un trabajo reciente sobre las respuestas de los niños a las pendientes nos ofrece más información sobre esta interacción. En esta investigación, se co­ locaron niños pequeños con diferentes tipos de movilidad (niños que gatea­ ban y niños que caminaban) sobre pendientes con distintos grados de incli­ nación. Los que caminaban (14 meses) recelaban de las pendientes con 20° o más de inclinación y, o bien se negaban a descender, o bien bajaban desli­ zándose. Los niños que gateaban abordaban con intrepidez inclinaciones de 20° o más y, normalmente, acababan cayendo (aunque siempre se Ies cogía a tiempo). Sin embargo, tras un examen detallado apareció una pauta fascinante. A medida que los niños que gateaban iban aumentado su experiencia, apren­ dían a evitar las pendientes más inclinadas. Pero en el momento de transi­ ción en el que los niños empezaban a caminar, este conocimiento obtenido con tanto esfuerzo parecía desaparecer. Los niños que empezaban a caminar tuvieron que aprender sobre las pendientes desde el principio. En una prue­ ba, dos terceras partes de estos niños «se lanzaban sin vacilación por todas las pendientes, igual que hicieron al encontrarse con ellas por primera vez, cuando sólo gateaban» (Thelen y Smith, 1994, pág. 220)/’34 3. Véase también Rutkowska, 1993, pág. 60. 4. El trabajo comunicado fue llevado a cabo por Adolph y otros (1993).

78 I De excursión por la mente

Estas pruebas no sólo sugieren que los niños aprenden sobre el mundo realizando acciones, sino también que el conocimiento mismo que adquieren suele ser específico de la acción. Los niños pequeños no emplean su expe­ riencia de gatear para adquirir conocimientos sobre las pendientes en gene­ ral. En cambio, adquieren conocimientos sobre el papel de las pendientes en contextos específicos que implican una acción. O tros resultados relaciona­ dos con la especificidad del conocimiento de los niños pequeños apuntan en la misma dirección general/

Este fenómeno no se limita a la infancia. Investigaciones recientes sobre los mecanismos de compensación perceptiva de los adultos revelan un perfil espe­ cífico de la acción de carácter similar. Thach y otros (1992) presentan un ejem­ plo centrado en la adaptación perceptiva en condiciones inusuales." Thach y sus colegas estudiaron la adaptación humana a unas lentes especiales que despla­ zaban la imagen hacia la derecha o la izquierda. Es bien sabido que el sistema de percepción humano puede aprender a adaptarse a esta clase de distorsiones. De hecho, varios experimentos demuestran que los sujetos pueden adaptarse incluso a lentes que invierten por completo la escena visual haciendo que el mundo se vea cabeza abajo. Después de llevar estas lentes de inversión unos cuantos días, los sujetos comunican unos cambios súbitos donde los aspectos del mundo se reorientan correctamente. Naturalmente, cuando se ha produci­ do esta adaptación, los sujetos dependen de las lentes: si se las quitan, el mun­ do vuelve a aparecer invertido hasta que se produce una nueva adaptación. Lo que mostró el grupo de Thach es que, en el caso de las lentes de des­ plazamiento lateral, la adaptación parece ser específica de ciertos bucles mo­ tores. Se pidió a los sujetos que lanzaran dardos a una diana. Al principio fa­ llaban como resultado del desplazamiento lateral producido por las lentes. Sin embargo, con el tiempo se produjo una adaptación y fueron capaces de apuntar tan bien como antes (a diferencia de lo que ocurría en los experi­ mentos con lentes de inversión, esta adaptación no tuvo ninguna conse­ cuencia en la experiencia: los sujetos no comunicaron ningún «rebote» de la imagen visual consciente). Pero, en la mayoría de los casos, esta adaptación era específica del bucle motor. Al pedírseles que lanzaran los dardos sin le­ vantar el brazo por encima del hombro -en vez de tirarlos por encima de la cabeza- o que emplearan su brazo no dominante, los sujetos no mostraron una mejora comparable. La adaptación para los lanzamientos por alto y con el brazo dominante no se extendieron en absoluto a los otros casos. Lo que parece haber ocurrido es un adaptación restringida a la combinación especí­ fica del ángulo de visióh y el ángulo de tiro empleados en un lanzamiento 5. Véanse Shields y Rovee-Collier, 1992; Rovee-Collier, 1990. 6. Véase un estudio general de experimentos con lentes deformadoras en Welch, 1978

E! niño situado I 79

normal. Lo que no se produjo fue una adaptación perceptiva general que ofreciera «datos de entrada corregidos» para que fueran utilizados por cual quier subsistema cognitivo o motor. Thach y otros han relacionado sus resultados con algunas hipótesis muy específicas y fascinantes sobre el papel de una estructura nerviosa concreta -el cerebelo- en el aprendizaje de respuestas pautadas a estímulos encontra dos con frecuencia. Estas conjeturas encajan bien con la imagen que nos va­ mos forjando, puesto que indican que la antigua imagen que consideraba al cerebelo puramente implicado en tareas motrices es errónea y que las fun­ ciones motrices y algunas funciones cognítivas «superiores» pueden estar ín­ timamente relacionadas en el cerebro. Por ahora, sin embargo, sólo es nece­ sario destacar que puede hacer falta algún replanteamiento de la imagen «pasiva» de nuestro contacto perceptivo con el mundo. Al parecer, en mu­ chos casos la percepción no se debería contemplar como un proceso en el que se recopilan pasivamente datos del entorno. En cambio, la percepción puede estar orientada desde el principio hacia rutinas de acción específicas. Asi pues, el reto estriba en desarrollar «una estructura teórica que sea, por asi decir, más “motorcéntrica” que “visuocéntrica"» (P. S. Churchland y otros, 1994, pág. 60). Los estudios detallados de microdesarrollos, como el trabajo sobre el modo de superar pendientes, parecen ofrecer una prometedora base experimental sobre la que fundamentar una reorientación tan radical.

2.3 Desarrollo sin diseños Aquí entenderemos por diseño un plan o una especificación muy deta­ llados de -po r ejemplo- un automóvil o un edificio. Las explicaciones más sencillas (pero normalmente menos satisfactorias y admisibles) del desarro­ llo, describen la alteración y el crecimiento de las capacidades cognitivas de un niño como el despliegue gradual de un «diseño» para el cambio cogniti­ vo determinado genéticamente. Según la ingeniosa descripción de Thelen y Smith (1994, pág. 6), estas explicaciones, que predominaron durante los años treinta y cuarenta,78 conciben el desarrollo como «una progresión lineal y por etapas a través de una secuencia de conductas cada vez más funciona­ les que es dirigida hacia unas formas adultas por un plan global (que está programado por un cronometrador global)». Estas concepciones aún siguen con nosotros, pero con unas formas cada vez más sofisticadas. Por ejemplo, el desarrollo gradual de la capacidad para caminar se explica como el efecto 7. Recuérdense los ejemplos de visión animada descritos en el capítulo 1. 8. Véase, por ejemplo, Gesell 1939; McGraw, 1945, y e! capítulo 1 de Thelen y Smith, 1994.

80 I De excursión por la mente

de unos aumentos de la velocidad de procesamiento del cerebro que están determinados por la maduración y que permiten un control y una integra* ción motrices de carácter complejo (Zelazo, 1984). Sin embargo, desde la perspectiva altamente interactiva que hemos esta* do desarrollando, estos enfoques suelen incurrir en un error muy común. Toman un fenómeno complejo (por ejemplo, el desarrollo de la capacidad del niño para caminar) y buscan un solo factor determinante. Este error es lo que Mitchel Resnick, del MIT Media Lab, denomina «pensamiento centra­ lizado»: ...la gente tiende a buscar la causa, la razón, la fuerza impulsora, el factor decisi­ vo. Cuando la gente observa pautas y estructuras en el mundo (por ejemplo, las pautas de las bandadas de aves o las pautas de búsqueda de alimento de las hor­ migas), suele suponer unas causas centralizadas que en realidad no existen. Y cuando la gente intenta crear pautas o estructuras en el mundo (por ejemplo, nuevas organizaciones o máquinas), suele imponer un control centralizado que, en realidad, no es necesario (Resnick, 1994, pág. 120).

He citado este pasaje completo porque capta perfectamente un mensaje fundamental de nuestras investigaciones que aparecerá una y otra vez en este libro: los fenómenos complejos presentan una gran autoorganización. De he­ cho, las aves que vuelan en bandada no siguen a un líder. En cambio, cada ave sigue unas cuantas reglas sencillas que hacen que su conducta dependa de la conducta de las aves que tiene más cerca. La pauta de la bandada surge de la masa de estas interacciones locales: no está orquestada por un líder o por un plan general representado en la mente de cada ave. De manera similar, ciertos tipos de hormigas buscan alimento mediante un proceso de «recluta­ miento en masa». Cuando una hormiga encuentra alimento, vuelve al nido y, durante el recorrido, va soltando un marcador químico (una feromona). Cuando otra hormiga detecta este rastro, lo sigue hasta llegar a la fuente de alimento. Esto hace que, a su vez, esta hormiga refuerce el rastro químico. Este rastro más fuerte tiene más probabilidades de atraer a otra hormiga que, cuando encuentre el alimento, reforzará aún más la señal química aumentan­ do su potencia. Por tanto, lo que nos encontramos aquí es un proceso exten­ dido de retroalimentación positiva que pronto conduce a una concentración masiva de actividad, con centenares de hormigas recorriendo el camino arri­ ba y abajo. La cuestión es que esta organización se consigue mediante unas cuantas «reglas» locales sencillas que, en presencia de la fuente de alimento y de otras hormigas, dan origen a esta conducta aparentemente organizada.9 9, Véase una simulación por ordenador de este y otros fenómenos emergentes en Resnick, 1994, págs. 60^67.

El niño situado | 61

Algunos estudios recientes proponen que el desarrollo infantil también se puede comprender mejor desde el punto de vista de las interacciones de múltiples factores locales que incluyen, en pie de igualdad, el crecimiento corporal, los factores ambientales, la maduración del cerebro y el aprendiza­ je. No existe un «diseño» para la conducta ni en el cerebro ni en los genes, igual que no existe un diseño de la bandada en la cabeza de las aves. Para captar el sabor de esta propuesta, consideremos el caso de aprender a caminar. Los datos brutos son los siguientes: cuando un recién nacido es suspendido por encima del suelo, realiza unos movimientos de pisar bien co­ ordinados; hacia los dos meses de edad estos movimientos de pisar se pierden; los movimientos reaparecen entre los ocho y los diez meses de edad, cuando el niño empieza a apoyar su peso sobre los pies; hacia los doce meses, apare­ ce el andar independiente. Según el punto de vista «del plan global y el fac­ tor único», sería de esperar que estas transiciones fueran expresiones de la maduración o el desarrollo de una fuente central (por ejemplo, la apropia­ ción gradual de unos procesos similares a reflejos por parte de un centro cognítivo superior; véase Zelazo, 1984). Sin embargo, los estudios del microdesarrollo indican que estas transiciones no están orquestadas por una entidad central y que, al parecer, se deben a la interacción de múltiples fac­ tores en condiciones esenciales de igualdad. Por ejemplo, aunque es cierto que el reflejo de pisar desaparece hacia los dos meses de edad, todavía se producen unos movimientos cinemáticos casi idénticos cuando el niño está tendido sobre la espalda. Este «pataleo en de­ cúbito supino» persiste durante todo el primer año de vida. Ahora parece que el parámetro crucial que subyace a la desaparición del pisar a los dos meses es, simplemente, ¡la masa de las piernas! En la postura erguida, la re­ sistencia ejercida por la masa de las piernas hacia los dos meses de edad su­ pera la acción elástica de los músculos. Esta hipótesis está apoyada por unos experimentos (figura 2.1) donde el pisar desaparece cuando se añade peso a las piernas de un niño que pisa y por otros donde el pisar reaparece cuando niños de tres meses de edad que no pisan se sostienen erguidos dentro del agua para reducir la masa efectiva de las piernas.10 Las manipulaciones del entorno son igualmente eficaces para estudiar la segunda fase: la reaparición del pisar entre los ocho y los diez meses de edad. Cuando colocamos a niños más pequeños que no pisan en una rueda de an­ dar, pisan de una manera coordinada; incluso son capaces de ajustar el ritmo de su paso a la velocidad de la rueda y de adaptarse a restricciones asimétri­ cas cuando se les coloca sobre una rueda de andar con dos cintas indepen10. Véase Thelen y Smith, 1994, págs. 11-12. Véanse también Thelen y otros, 1982 y ThcIcn y otros, 1984.

82 i De excursión por la mente

FIGURA 2.1 Este niño de tres meses de edad fue sometido a prueba para ver si pisa­ ba erguido, primero sobre una mesa y después sumergido en agua tibia. Fuente: Thelen y Smith, 1994. Por gentileza de E. Thelen, L. Smith y MIT Press.

clientes que van a velocidades distintas. Se encontró que la conducta de pi* sar en ruedas de andar se daba en niños de edades comprendidas entre uno y siete meses de edad (Thelen y Smith, 1994, págs. 11-17).11 Estos últimos resultados indican que la pauta mecánica ocasionada por la extensión de las piernas hacia atrás, que a su vez está provocada por la rueda, tiene un papel fundamental. Este componente de pisar es indepen­ diente de las transiciones conductuales generales normales que reflejan la in­ fluencia de múltiples factores adicionales como la masa de las piernas. La pauta evolutiva no es la expresión de un diseño interno. Más bien refleja la compleja interacción de múltiples fuerzas, algunas corporales (como la masa de las piernas), otras mecánicas (la extensión de las piernas y las acciones elásticas), algunas totalmente externas (la presencia de ruedas de andar, agua, etc.) y otras más cognitivas e internas (la transición hacia un moviII. Véanse también Thelen, 1986; Thelen y otros, 1987 y Thelen y Ulrich, 1991.

El niño situado I 83

miento volitivo, es decir, deliberado). Centrarse exclusivamente en uno de estos parámetros equivale a pasar por alto la verdadera explicación del cam­ bio evolutivo, que se basa en comprender la interacción de diversas fuerzas y eliminar la necesidad de postular un solo factor controlador.

2.4 «Montaje blando» y soluciones descentralizadas Una perspectiva multifactorial conduce, de una manera bastante natural, a un respeto y un interés teórico crecientes hacia lo que podría denominarse «idiosincrasias históricas del desarrollo individual». Pero esto exige explicar el delicado equilibrio existente entre la variación individual y los logros evo­ lutivamente sólidos. Una noción fundamental para comprender esta acción de equilibrio es la de montaje blando. Un brazo robódco tradicional, gobernado por un programa clásico, pro­ porciona un ejemplo de «montaje duro». Dispone de un repertorio de movi­ mientos y su éxito depende de la precisión de la colocación, la orientación, el tamaño y otras características de los componentes que debe manipular. En cambio, el andar humano es de montaje blando en el sentido de que compensa de una manera natural cambios bastante importantes en el espacio del proble­ ma. Como indican Thelen y Smith, las aceras heladas, las ampollas en los pies y los zapatos de tacón «reclutan» diferentes pautas de marcha, control muscular, etc., mientras se mantiene el objetivo general de la locomoción. En general, el control centralizado con modelos internos o especificaciones de carácter deta­ llado parece ser desfavorable para esta adaptación fluida y contextual (recor­ demos las lecciones de la robótica situada en el capítulo 1). En cambio, los en­ foques multifactoriales y descentralizados suelen producir esta adaptación sólida y contextual como una consecuencia indirecta y sin coste alguno. La ra­ zón de esto es que, como vimos antes, estos sistemas crean acciones basándose en «asociaciones en pie de igualdad» donde el entorno local desempeña un pa­ pel fundamental en la selección de conductas. En situaciones donde una solu­ ción más clásica, dirigida por un modelo interno, fracasa como resultado de la incapacidad del modelo para reflejar cambios novedosos en el entorno, las so­ luciones basadas en «asociaciones en pie de igualdad» suelen ser capaces de funcionar porque el entorno mismo ayuda a orquestar la conducta. Siguiendo esta misma línea, Pattie Maes del MIT Media Laboratory des­ cribe un sistema de planificación cuyo objetivo consiste en emparejar proce­ sos (tareas o partes de tareas) con procesadores (máquinas).12 Se trata de una 12. Este ejemplo procede de Maes, 1994 (págs. 145-146), Los agentes de planificación clásicos se describen en Kleinrock y Nilsson, 1981

84 I De excursión por la mente

empresa compleja puesto que siempre se están creando tareas nuevas y el vo­ lumen de trabajo de cada máquina varía continuamente. Un solución tradi­ cional de montaje duro adoptaría un enfoque centralizado donde un sistema contendría un Corpus de conocimientos sobre las configuraciones de las di­ ferentes máquinas, las tareas típicas, etc. Este sistema también reuniría con cierta frecuencia datos procedentes de todas las máquinas acerca de su volu­ men de trabajo actual, los trabajos que hay en espera, etc. A continuación, y utilizando toda esta información y algunas reglas o heurísticos, el sistema tra­ taría de elaborar una programación (una asignación eficiente de tareas a má­ quinas). Ésta es la solución ofrecida por la «cognición centralizada pura». Ahora consideremos, en cambio, la solución descentralizada favorecida por Maes.!* Aquí, cada máquina controla su propio volumen de trabajo. Si una máquina A crea una tarea, envía una «solicitud de ofertas» a todas las má­ quinas restantes. Las otras máquinas responden a esta petición enviando un cálculo aproximado del tiempo que tardarían en realizar la tarea (las máqui­ nas que se utilicen poco o que ya tengan cargado un programa adecuado «pujarán» más que las máquinas muy utilizadas o mal preparadas). Enton­ ces, simplemente, la máquina original envía el trabajo a la máquina que más haya «pujado». Esta solución es a la vez sólida y de montaje blando. Si en una máquina se produce un fallo, el sistema lo compensa automáticamente. Y no hay una sola máquina que sea crucial: la planificación es más bien una propiedad emergente de las interacciones simples de «anunciar» y «pujar» entre las máquinas que estén activas en cada momento. Como no existe un modelo central de la configuración del sistema en ningún lugar, no se plan­ tean los problemas asociados con la actualización y la utilización de seme­ jante modelo. Los montajes blandos formados por múltiples componentes básicamen­ te independientes producen una mezcla característica de solidez y flexibili­ dad. Las soluciones que emergen se adaptan a las particularidades del con­ texto y al mismo tiempo satisfacen un objetivo general. Esta mezcla, que impregna todo el desarrollo, persiste en la resolución de problemas y la ac­ ción durante la madurez. Por tanto, la variabilidad individual no se debería desestimar como si fuera «mala información» o «ruido» que oscureciera, de alguna manera, unas pautas de desarrollo esenciales. En cambio, como in­ sisten Thelen y Smith, es una buena pista hacia la naturaleza de los procesos de montaje blando subyacentes.1314 Para ilustrar esto, Thelen y Smith describen el desarrollo de la conducta de alcanzar en varios niños pequeños. A pesar del carácter común de la con13. Se basa en Malone y otros, 1988. 14. Por tamo, la %'ariabilidad es un dato, no ruido; véase Smith y Thelen, 1994, págs. 86-88.

El niño situado I 85

ducta global final (la capacidad para alcanzar objetos), encontraron fuertes diferencias individuales. En cada caso concreto, la conducta de alcanzar re­ sultó ser el resultado del montaje blando de unos componentes un tanto di­ ferentes, que reflejaban diferencias en la dinámica intrínseca de los ni­ ños y en su experiencia histórica. Aunque la descripción que ofrecen Thelen y Smith es muy detallada, aquí nos limitaremos a examinar algunos aspectos destacados. Uno de los niños, Gabriel, era muy activo por naturaleza y agitaba los brazos con mucha rapidez. Para él, la tarea consistió en convertir estos mo­ vimientos en una conducta de alcance dirigido. Para conseguirlo, necesitó aprender a contraer los músculos cuando el brazo estaba cerca de un objeto con el fin de moderar los movimientos y establecer un contacto adecuado. En cambio, Hannah era más bien inactiva en el aspecto motor. Movía las manos con muy poca velocidad y escasa fuerza. Su problema no era moderar los movimientos, sino producir el impulso suficiente para vencer la gravedad. Otros niños presentaban distintas mezclas de dinámica intrínseca, pero en todos los casos el problema básico consistía en aprender a controlar esta dinámica intrínseca (cuya naturaleza, como hemos visto, puede variar consi­ derablemente) para alcanzar un objetivo. Para hacerlo, el sistema nervioso central (SNC) debe encontrar una solución que tenga en cuenta una amplia variedad de factores que incluyen la energía, el temperamento y el tono mus­ cular. Una propuesta prometedora15 es que, cuando hace esto, el SNC trata el sistema total como si fuera un conjunto de muelles y masas. Por tanto, no se ocupa de generar modelos internos de trayectorias de alcance, etc., sino de aprender a modular factores como la rigidez de las extremidades para que la energía transmitida se combine con una dinámica intrínseca parecida a la de los muelles y produzca una oscilación cuyo punto de reposo sea el objeto deseado. Es decir, el SNC se trata como un sistema de control para un cuer­ po cuya dinámica intrínseca desempeña un papel crucial en la determinación de la conducta. Por tanto, los problemas evolutivos a los que se enfrenta cada niño son diferentes, puesto que la dinámica intrínseca de cada niño es distinta. Lo que tienen en común es el problema de nivel superior de dominar esta dinámica individual para lograr alguna meta como la conducta de alcanzar. A lo largo del desarrollo, el trabajo del SNC no es «meter en vereda» cada vez más al cuerpo para que pueda llevar a cabo unas órdenes detalladas y representadas internamente que especifican, por ejemplo, las trayectorias que deben seguir los brazos. En cambio, su tarea consiste en aprender a modular parámetros (como la rigidez) que después interaccionarán con restricciones intrínsecas 15. PolityBizzi, 1978; Hogan y otros, 1987; Jordán y otros, 1994; Thelen y Smith, 1994.

86 I De excursión por la mente

corporales y ambientales para producir los resultados deseados. En resu­ men, la tarea consiste en aprender a armar conductas adaptativas mediante montajes blandos que respondan al contexto local y exploten la dinámica in­ trínseca. Así pues, mente, cuerpo y mundo intervienen en pie de igualdad en la construcción de conductas sólidas y flexibles.

2.5 Mentes con andamiajes Hay una propiedad final de las soluciones basadas en los montajes blan­ dos que se debe mencionar explícitamente porque ocupará un lugar desta­ cado en varios capítulos posteriores. Se refiere a la afinidad natural existen­ te entre el montaje blando y el empleo de andamiajes externos. Como ya se ha apuntado antes, cuando el sistema nervioso central aprende a modular parámetros como la rigidez, lo que hace en realidad es resolver un problema «suponiendo» un telón de fondo formado por una dinámica corporal intrín­ seca concreta (las propiedades elásticas de los músculos). Estos telones de fondo no tienen por qué limitarse al cuerpo del agente: con frecuencia po­ demos resolver problemas «a horcajadas» sobre ciertas propiedades fiables del entorno. Lo que quiero denotar con el término andamiaje es esta explo­ tación de la estructura externa. La noción de andamiaje tiene sus raíces en el trabajo del psicólogo sovié­ tico Lev Vygotsky.16 Vygotsky destacó que la experiencia con estructuras ex­ ternas (incluyendo las lingüísticas, como palabras y frases, véase el capítulo 10) puede alterar y dar contenido a los modos de procesamiento y compren­ sión intrínsecos de un individuo. La tradición que siguió incluía la noción de una zona de desarrollo proximal:17 la idea de que la ayuda de los adultos en momentos cruciales del desarrollo del niño, daría a éste la experiencia de una acción con éxito que el niño, por sí solo, no podría conseguir. Ofrecer apoyo durante los primeros pasos vacilantes de un niño que empieza a cami­ nar y sostener a un bebé en el agua para que pueda realizar movimientos de natación son dos buenos ejemplos. Sin embargo, la noción intuitiva de andamiaje es más amplia porque pue­ de abarcar toda clase de apoyos y ayudas externas, tanto si proceden de adultos como del entorno inanimado.18 Como ejemplos tenemos la utiliza­ ción de la estructura física del entorno de la cocina como ayuda externa para la memoria (agrupando las especias, los cacharros, etc.; Colé y otros, 1978) y 16. Véase, por ejemplo, Vygotsky, 1986. 17. Véanse, por ejemplo. Valsiner, 1987 y Wcrtsch, 1981. 18. Vcase esta utilización, por ejemplo, en Rutkowska, 1993, págs. 79-80

El niño situado I 87

el empleo de utensilios especiales para comer que reducen la libertad del niño para derramar y pinchar cosas, al tiempo que ofrecen un tosco simula­ cro del entorno de un adulto cuando come (Valsiner, 1987).19Para nuestros propósitos actuales, la cuestión es que las estructuras del entorno, como la elasticidad de los músculos, forman un telón de fondo en relación al cual se configuran los problemas computacionales individuales a los que se enfren­ ta cada niño. Este andamiaje es muy común en casos no cognitivos. La simple esponja, que se alimenta filtrando agua, explota la estructura de su entorno físico na­ tural para reducir la cantidad de bombeo que debe realizar: cambia de orien­ tación y aprovecha las corrientes del entorno para alimentarse.20 Aunque se trata de una estrategia manifiesta, los biólogos no la han reconocido hasta hace muy poco. La razón de esta tardanza es reveladora: los biólogos han tendido a centrarse únicamente en el organismo individual como sede de la estructura adaptativa. Han tratado el organismo como si se pudiera entender independientemente de su mundo físico. En este sentido, los biólogos se han parecido mucho a los científicos cognitivos que sólo han buscado explica­ ciones internas para los fenómenos cognitivos. En respuesta a estas tenden­ cias, el biólogo Vogel (1981, pág. 182) ha recalcado la necesidad de un prin­ cipio de parsimonia: «N o desarrollar explicaciones que requieran un gasto de energía metabólica (por ejemplo, la hipótesis de bombeo total para la es­ ponja) hasta que se puedan descartar los efectos físicos simples (por ejemplo, la utilización de las corrientes del entorno)». La extensión de la máxima de Vogel al ámbito cognitivo es simple. Es lo que una vez denominé «principio 007»: En general, los seres evolucionados no almacenarán ni procesarán informa­ ción de maneras costosas si pueden emplear la estructura del entorno y sus ope­ raciones sobre él como sustitutos convenientes de las operaciones implicadas en el procesamiento de la información. Es decir, no hace falta saber más de lo nece­ sario para cumplir una misión (Clark 1989, pág. 64).

Este principio se refleja en el lema de la mobótica: «El mundo es la me­ jor representación de sí mismo». También es un compañero natural de las nociones de montaje blando y de resolución de problemas descentralizada. En lugar de un dispositivo intelectual que cavila inmerso en un reino de mo­ delos internos detallados, nos enfrentamos a un agente corpóreo y embebi­ do que interviene, en pie de igualdad, en respuestas adaptativas que hacen 19. Véanse también el capítulo 4 de Clark, 1989 y el capítulo 3 de Rutkowska, 1993. 20. Véanse Vogel, 1981 y el capítulo 4 de Clark, 1989.

88 i De excursión por la mente

uso de recursos de la mente, el cuerpo y el mundo. Hasta ahora hemos visto unos cuantos ejemplos preliminares basados en la dinámica corporal y en el empleo de ciertos tipos sencillos de almacenamiento externo de memoria. En capítulos posteriores aplicaremos estas ideas a las esferas especiales de las estructuras externas puestas a nuestra disposición por el lenguaje, la cultura y las instituciones.

2.6 La mente como espejo frente a la mente como controladora Acabamos de ver que la cognición puede explotar de varias maneras la acción real para reducir la carga computacional. La perspectiva desarrollada en los apartados precedentes nos lleva un paso más allá, porque indica algu­ nas de las maneras en que las conductas sólidas y flexibles pueden depender de procesos descentralizados de montaje blando donde mente, cuerpo y mundo actúan en pie de igualdad en la determinación de la conducta adaptativa. Esta perspectiva conduce a un profundo cambio en nuestra concep­ ción de la mente y de la cognición, un cambio que yo caracterizo como la transición desde los modelos de la representación como reflejo o codifica­ ción, hasta los modelos de la representación como control (Clark, 1995). La idea es que el cerebro no se debería contemplar como la sede de unas des­ cripciones internas de situaciones externas; más bien se debería considerar la sede de unas estructuras internas que operan en el mundo mediante su papel en la determinación de acciones. Podemos encontrar un excelente ejemplo del empleo de estas represen­ taciones centradas en la acción en el trabajo de Maja Mataric, del MIT Arti­ ficial Intelligence Laboratory. Mataric ha desarrollado un modelo inspirado en la neurobiología de cómo se orientan las ratas en su entorno. Este mode­ lo se ha implementado en un robot móvil. La rata robot, que dispone de sen­ sores de sonar y de una brújula, consigue el éxito en tiempo real empleando la arquitectura de subsunción que se describe en el capítulo 1: utiliza un con­ junto de «capas» cuasi independientes, cada una de las cuales constituye una ruta de procesamiento completa desde la entrada hasta la salida, y que sólo se comunican pasándose unas señales muy simples. Una de estas capas ge­ nera el trazado de los contornos: el robot sigue las paredes al tiempo que evi­ ta los obstáculos. Otra capa detecta referencias físicas o «hitos» del entorno, que se registran como una combinación del movimiento del robot y de su entrada sensorial (así, un'corredor se recuerda como la combinación de un movimiento hacia delante y unas lecturas de distancias laterales cortas en los sensores de sonar). Otra capa emplea esta información para construir un mapa del entorno (figura 2.2). Este mapa consiste en una red de hitos que,

El niño situado I 89

FIGURA 2.2 Ejemplo de la conducta de orientación refleja de un robot en un entor no de oficina abarrotado. Las etiquetas incluyen ei tipo de referencia física y la orien­ tación según la brújula (PI8 = pared izquierda hacia el sur; 0 2 0 = corredor hacia e! norte; J = límite extenso irregular). Fuente: Mataric, 1991. Reproducido con la au­ torización de M. Mataric y MIT Press.

como hemos visto, son una combinación de lecturas motrices y sensoriales. Todos los nodos del mapa procesan información en paralelo y se comunican entre sí propagando estados de activación. La posición actual del robot es indicada por un nodo activo. El mapa construido representa la proximidad espacial de las referencias físicas mediante conexiones topológicas {a unas referencias adyacentes les corresponden unos nodos contiguos; véase la fi­ gura 2.3). Un nodo activo excita a sus vecinos en la dirección del recorrido, generando así unas «expectativas» sobre los próximos hitos que se van a en­ contrar. Supongamos ahora que el robot quiere encontrar el camino hacia una posición recordada. La actividad del nodo para esa posición aumenta. El nodo de la situación actual también está activo. A continuación, el proce­ so de propagación de la activación difunde una señal por el mapa cognitivo y se computa la trayectoria más corta hasta la meta (figura 2.4). Como los propios nodos del mapa combinan información sobre el movimiento del ro-

90 I De excursión por la mente

F igura 2 3 Mapa construido por un robot en el entorno mostrado en la figura 2.2. Las conexiones topológicas entre los hitos indican adyacencias espaciales. Fuente: Mataric, 1991. Reproducido con la autorización de M. Mataric y MIT Press.

FtGURA 2.4 El mapa lleva a cabo activamente la búsqueda de trayectorias. El nodo sombreado es el nodo meta. Las flechas indican la propagación de la activación a partir del nodo meta. Fuente: Mataric, 1991. Reproducido con la autorización de M. Mataric y MIT Press.

bot y la correspondiente entrada perceptiva, el propio mapa puede actuar como controlador. Resulta que utilizar el mapa y generar el plan para los mo­ vimientos reales es, exactamente, la misma actividad. Esta característica -la capacidad del propio mapa para actuar como con­ trolador- es la que tiene más interés para nosotros. Un enfoque más clásico postularía la presencia simultánea de un mapa almacenado y de un módulo de control central que accede a ese mapa y lo emplea para planificar los mo­ vimientos. En cambio, el robot de Mataric no emplea ningún dispositivo de razonamiento fuera del mapa mismo. El mapa es su propio usuario y su co­ nocimiento es al mismo tiempo descriptivo (de posiciones) y prescriptivo (representa la relación entre dos posiciones como la secuencia de movimien­ tos que permiten al robot desplazarse de una posición a la otra). Por tanto, este robot es un ejemplo perfecto de la noción de representaciones orientadas a la acción: representaciones que describen aspectos .del mundo y al mismo tiempo prescriben acciones posibles, y que se encuentran entre las puras es­ tructuras de control y las representaciones pasivas de la realidad externa. El psicólogo Jam es Gibson (1950, 1968, 1979) promovió una imagen de las representaciones internas relacionada con la anterior. Sin embargo este trabajo incurrió en el error de parecer atacar lout court la noción de unos estados internos mediadores complejos. A pesar de este desliz retóri­ co, los enfoques de Gibson tienen mucho más interés cuando sólo se ven

El niño situado | 91

en cuanto se oponen a la imagen de la representación interna como codifi­ cación o reflejo. La afirmación de Gibson, expresada de esta manera aséptica, era que la percepción, en general, no está mediada por unos modelos del mundo inter­ nos, detallados y neutrales respecto a la acción. No está mediada por estados internos que requieran más inspecciones o cómputos (por parte de otro agente interno) para producir acciones adecuadas. Por tanto, esto no signi­ fica negar totalmente la existencia y la importancia de unos estados media­ dores internos. Significa, más bien, insistir en que los estados internos están «centrados en la acción», tema en el que Gibson profundiza describiendo a los organismos como entes adaptados para detectar «facilitaciones (affordances)» en el entorno distal. Estas oportunidades no son nada más que las posibilidades de uso, intervención y acción que ofrece el entorno local a un tipo concreto de agente corpóreo. Por ejemplo, un ser humano percibe una silla como algo que «facilita un asiento», pero las facilitaciones ofrecidas por esa silla a un hámster serían totalmente diferentes. Interpretada de esta manera, la percepción está orientada desde el prin cipio a investigar posibilidades para la acción. En lugar de una re-prescntación pasiva seguida de una inferencia, Gibson postula la «percepción direc­ ta» de un complejo de oportunidades para la acción. Al representar (como diría yo, que no Gibson) el entorno como un complejo de posibilidades, creamos unos estados internos que describen aspectos parciales del mundo y que, al mismo tiempo, prescriben intervenciones y acciones posibles. Estos estados han sido bautizados acertadamente con el nombre de representacio­ nes «pushmi-pullyu» (animal imaginario de los relatos del doctor Dolittle, obra del escritor Hugh Lofting [n. del ed.]) por la filósofa Ruth Millikan.21 Al igual que esta quimérica fiera, estas representaciones miran en los dos sentidos a la vez: dicen cómo es el mundo y además prescriben un espacio de respuestas adaptativas. El tema común de estas diversas líneas de investigación es el rechazo a cualquier imagen global de la percepción como recepción pasiva de infor­ mación. Como vimos, las percepciones que tienen los niños de las pendientes parecen estar vinculadas profundamente con los hábitos motores específicos mediante los cuales se enfrentan activamente a ellas. En los experimentos con lentes distorsionadoras, parece que la habilidad de los adultos con los dardos implica la intervención de sistemas de percepción/acción a gran es­ cala, y no una percepción pasiva que actúe como fuente de datos que luego 21. Véanse Millikan, 1995 y Clark, 1995. También se puede encontrar una versión cíe tipo computacional de estas ideas en el empleo de Rutkowska (1995, págs. 67-78) de los «progra­ mas de acción» como constructo fundacional de las teorías del desarrollo

92 I De excursión por la mente

serán explotados por unos sistemas de acción independientes. Estos casos indican que los productos inmediatos de gran parte de la percepción no son tanto descripciones neutrales del mundo como especificaciones ligadas a la actividad de modos potenciales de acción e intervención. Tampoco estas es­ pecificaciones son neutrales en relación con el sistema. En cambio, como in­ dica la discusión sobre la acción de alcanzar, es probable que se adapten de maneras que simplemente supongan, como telón de fondo no representado, la dinámica corporal intrínseca de unos agentes específicos. Vale la pena ha­ cer una pausa para apreciar cuánta distancia separa esta visión de la clásica imagen «incorpórea». La percepción se suele formular como un proceso mediante el cual reci­ bimos información procedente del mundo. Por tanto, la cognición com prende unos procesos inteligentes definidos en tomo a alguna versión inter­ na de esa información. La acción intencional se interpreta como la ejecución de órdenes que constituyen la salida de un sistema «pensador» central. Pero el éxito en el mundo en tiempo real no respeta esta pulcra división tripartita del trabajo. En cambio, la misma percepción está enmarañada con unas po­ sibilidades específicas de acción: de hecho, está tan enmarañada que la tarea de la cognición central con frecuencia deja de existir. Por tanto, las representa­ ciones internas que emplea la mente para orientar las acciones se pueden en­ tender mejor como estructuras de control específicas de la acción y del con­ texto, en vez de como recapitulaciones pasivas de la realidad externa. Los modelos internos detallados y neutrales respecto a la acción que tenían que proporcionar el ámbito para un pensamiento incorpóreo y centralizado, apa­ recen ahora como un lujo lento, costoso y difícil de mantener que la natura­ leza preocupada por los costes generalmente se esforzará en evitar.

3

Mente y mundo: la frontera plástica

3.1 La mente escurridiza La mente es un órgano escurridizo, que se escapa constantemente de sus confines «naturales» y se mezcla descaradamente con el cuerpo y el mundo. ¿Qué tipo de cerebro necesita semejante apoyo externo y cómo deberíamos caracterizar sus interacciones con el entorno? Como veremos, emergerá una imagen del cerebro como una especie de motor asociativo cuyas interaccio­ nes con el entorno constituyen una serie repetida de cómputos sencillos orientados a completar patrones. A primera vista, esta imagen puede parecer profundamente inadecuada. ¿Cómo puede explicar la auténtica escala y dimensión del éxito cognitivo hu­ mano? Parte (pero sólo parte) de la respuesta es que, con frecuencia, núes tra conducta está esculpida y secuenciada por una clase especial de estruc­ turas externas complejas: los artefactos culturales y lingüísticos que estructuran la vida moderna, incluyendo mapas, textos y planes escritos. La comprensión de la compleja interacción entre nuestros recursos neuronales incorporados y en línea por un lado, y estos puntales y soportes externos por otro, es una tarea fundamental para las ciencias del pensamiento corpóreo. Empezaré poco a poco, presentando un protagonista destacado de nues­ tro incipiente escenario: la red neuronal artificial.

3.2 Las redes neuronales: una revolución inconclusa CYC, la enciclopedia electrónica descrita en la introducción, era un ejemplo extremo de inteligencia artificial basada en reglas y símbolos. No to­ dos los proyectos de la inteligencia artificial tradicional eran tan fanáticos

94 I De excursión por la mente

acerca del poder de las grandes bases de conocimientos y las codificaciones explícitas, pero persistía un sabor común subyacente a todos ellos: la ima­ gen general de la inteligencia como manipulación de símbolos siguiendo unas reglas. Por ejemplo, los programas de «física ingenua» pretendían es­ pecificar en forma lógica nuestro conocimiento cotidiano sobre cómo se de­ rraman los líquidos, cómo se amontonan los libros, etc. (Hayes, 1979). Pro­ gramas como STRIPS aplicaban técnicas de demostración de teoremas a la resolución de problemas ordinarios (Fikes y Nilsson, 1971), y sistemas gran­ des como SOAR incorporaban una amplia variedad de métodos y represen­ taciones de este tipo en una sola arquitectura computacional. Sin embargo, hasta la aparición (o la reaparición1) de los denominados modelos de redes neuronales de la mente, no se puso sobre la mesa una propuesta fundamen­ talmente diferente. Como indica su nombre, los modelos de redes neuronales están inspira­ dos, por lo menos vagamente, en una reflexión sobre la arquitectura del ce­ rebro. El cerebro se compone de muchas unidades simples de procesamiento (las neuronas) enlazadas en paralelo por una gran masa de cables y empal­ mes (axones y sinapsis). En general, las unidades individuales (las neuronas) sólo son sensibles a informaciones locales: cada neurona «escucha» lo que sus vecinas le cuentan. Pero a partir de esta masa de conexiones en paralelo, procesadores simples e interacciones locales, surge la asombrosa habilidad computacional y de resolución de problemas del cerebro humano. Durante los años ochenta, el campo de la inteligencia artificial fue trans­ formado por una explosión de interés en una clase de modelos computadonales que compartían esta tosca descripción de la funcionalidad del cerebro. Eran los modelos «conexionistas» (o «de redes neuronales» o «de procesa­ miento distribuido en paralelo») de la inteligencia y la cognición. El grado de similitud entre estos modelos iniciales y el cerebro no se debería exage­ rar/ Las diferencias seguían siendo enormes: la multiplicidad de tipos de

1. Algunas de las ideas originales fueron formuladas hace ya muchos años (desde la pers­ pectiva de la inteligencia artificial), en 1943; véanse McCulloch y Pitts, 1943; Hebb, 1949 y Rosenblatt, 1962. 2'. Consideremos el modelo de Mataric, descrito en el apartado 2.6 anterior. El tipo de mapa que detalla Mataric tiene fuertes afinidades con modelos recientes sobre la codifica­ ción de información espacial por parte del hipocampo (McNaughton, 1989). Sin embargo, hay una diferencia relacionada con el empleo en el modelo de Mataric de nodos únicos como codificadores de informaéión sobre «hitos». Es probable que el hipocampo emplee una for­ ma de representación mucho más distribuida, con muchas neuronas involucradas en la re­ presentación de cada «hito». Existen modelos más detallados de la función del hipocampo basados en redes neuronales artificiales que realmente reconocen el papel de esta distribución (veanse, por ejemplo O ’Keefe, 1989 y McNaughton y Nadel, 1990). Estos modelos sugieren

Mente y mundo: la frontera plástica I 95

neuronas y sinapsis y el empleo de propiedades temporales (como las fre­ cuencias de los picos) no entraban en los modelos, la conectividad no estaba restringida de la misma manera que en los sistemas nerviosos reales, etc. A pesar de todo esto, el sabor de los modelos era ciertamente diferente y, en un sentido muy real, biológicamente más atractivo. Para los investigadores de la inteligencia artificial que trabajaban en el nuevo paradigma, llegó a ser mu­ cho más fácil entrar en contacto con los resultados y las hipótesis de la neurociencia real. Por fin, los vocabularios de las diversas ciencias de la mente parecían acercarse entre sí. El estilo básico de este nuevo enfoque se transmite mejor mediante ejem­ plos. Consideremos la tarea de pronunciar textos escritos en inglés convir­ tiendo la entrada escrita (palabras) en salida fonética (habla). Este problema se resuelve mediante sistemas que codifiquen reglas para convertir textos a fonemas y listas de excepciones, todas ellas cuidadosamente codificadas a mano por programadores humanos. Por ejemplo, DECtallc es un programa comercial que realiza esta tarea y cuya salida puede gobernar un sintetizador de voz digital. Por tanto, DECtalk se basa en una base de conocimientos bas­ tante grande, formulada explícitamente y hecho a mano. En cambio, NETtalk aprende a resolver el problema usando una red neuronal artificial. A esta red no se le ha proporcionado ningún conjunto de reglas codificadas a mano para resolver el problema, y aprende a resolverlo mediante la exposi­ ción a un gran conjunto de ejemplos de parejas texto-fonemas y empleando una rutina de aprendizaje (que se detalla más adelante). La arquitectura de NETtalk es una red de unidades interconectadas que comparten toscamen­ te algunas de las propiedades de las redes neuronales reales. Y la conducta

que la estructura del hipocampo es una muy buena candidata para un sistema nervioso real que opere, en líneas generales, de manera similar a las redes neuronales artificiales descritas en el apartado 3.2. Sin embargo, es igual de evidente que harán falta unos modelos neurobiológicamente más realistas que incorporen muchas características no encontradas en la ma­ yoría de las redes artificiales. Por ejemplo, el tipo de retroalimentación correctora de errores muy detallada utilizada por los dispositivos de aprendizaje por retropropagación, probable mente no se encuentra en el cerebro aunque seguramente tiene lugar algún tipo de adapta­ ción dirigida por el error. Tampoco los circuitos neuronales reales exhiben la conectividad si métrica mostrada en la mayoría de las redes artificiales y, en cambio, nos solemos encontrar con una conectividad asimétrica y especializada. A pesar de estas diferencias (y hay muchas más; véanse McNaughton, 1989 y Churchland y Sejnowski, 1992), los modelos computacio nales de las estructuras neuronales reales siguen debiendo mucho más a los marcos de refe­ rencia de las redes neuronales artificiales que a los de la inteligencia artificia! clásica. Y la ca pacidad básica responsable de esto es la dependencia de sistemas de memoria asociativa, que sustituyen el razonamiento basado en reglas y símbolos por procesos ricos y potentes de compleción de patrones. 3 Digital Equipment Corporation DTC 01-AA.

96 I De excursión por (a mente

de esta red artificial es verdaderamente impresionante. Como las unidades de salida están conectadas a un sintetizador de voz, se puede escuchar al sis­ tema mientras aprende lentamente a hablar, pasando de un balbuceo entre­ cortado a palabras medio formadas y, por último, a una buena simulación de una pronunciación normal. NETtalk (al igual que DECtalk) no entiende nada. No se le ha dicho nada sobre el significado de las palabras y no puede emplear el lenguaje para lograr una meta mundo real. Pero, con todo, es una demostración de refe­ rencia de la capacidad de las redes neuronales artificíales para resolver pro­ blemas complejos y realistas. ¿Cómo funciona? Los elementos de este sistema informático son unas neuronas idealizadas o «unidades». Cada unidad es un dispositivo procesador simple que recibe señales de entrada de otras unidades mediante una red de conexiones en pa­ ralelo. Cada unidad combina sus entradas y produce una salida basándose en una simple función matemática.4 Por tanto, la unidad se activa en la me­ dida dictada por los datos de entrada y pasa una señal a las unidades vecinas. La señal que llega a estas unidades vecinas está determinada tanto por el ni­ vel de activación de la unidad «remitente» como por la naturaleza de la co nexión implicada. Cada conexión tiene un peso que modula la señal. Este peso puede ser positivo (excitador) o negativo (inhibidor). La señal que se recibe está determinada por el producto del peso numérico y la fuerza de la señal de la unidad «remitente». Una red conexionista típica como NETtalk consta de tres capas de uni­ dades: las «unidades de entrada» (que codifican los datos que se deben pro­ cesar), las «unidades ocultas» (que intervienen en el procesamiento}5 y las «unidades de salida» (que especifican la respuesta del sistema a los datos en forma de un vector de valores numéricos de activación). El conocimiento del sistema se codifica en los pesos de las conexiones entre las unidades, y estos pesos se adaptan durante el aprendizaje. El procesamiento supone la dise­ minación de la activación por toda la red, tras la presentación de un conjun­ to específico de valores de activación en las unidades de entrada. En el caso de NETtalk hay siete grupos de unidades de entrada con 29 unidades cada uno. Cada grupo representa una letra y la entrada consta de siete letras de las que la cuarta es el objetivo cuya contribución fonémica se debe determinar en cada momento (dentro del contexto proporcionado por las seis letras res­ 4. Estas fundones no,suelen ser lineales; es decir, la fuerza de la salida no es directamen­ te proporcional a la suma de las entradas. En cambio, puede ser proporcional cuando (por ejemplo) las señales entrantes son de intensidad media pero allanarse cuando son muy fuertes o muy débiles. 5. Las características de respuesta de las unidades ocultas se han descrito más arriba.

Mente y mundo: la frontera plástica

97

tantes). Las entradas se conectan a una capa de 80 unidades ocultas, que a su vez se conectan a 26 unidades de salida que codifican fonemas. En total, la red consta de 18.829 conexiones con sus correspondientes pesos. ¿Cómo aprende un sistema como éste? Aprende ajustando los pesos en tre las unidades según un algoritmo o procedimiento sistemático. Uno de es­ tos procedimientos es el «algoritmo de retropropagación» (backpropagadon), que funciona de la manera siguiente: el sistema se inicializa con una serie de pesos aleatorios (dentro de ciertos limites numéricos). Como los pe­ sos son aleatorios, el sistema no solucionará el problema planteado. Enton­ ces es cuando se entrena a la red. Se le da un conjunto de entradas y para cada entrada producirá (gracias a los pesos aleatorios iniciales) una salida, casi siempre incorrecta. Sin embargo, hay un sistema supervisor que consul­ ta la salida correcta para cada entrada (como un profesor que sabe las res­ puestas de antemano). El sistema supervisor compara automáticamente la salida real (un conjunto de valores numéricos de activación) con la salida co­ rrecta. Por ejemplo, un sistema de reconocimiento de rostros puede tomar como entrada la especificación de una imagen visual y se le puede exigir que dé como salida unos códigos artificiales que correspondan a unos individuos nombrados. En este caso, la salida correcta para una entrada visual dada po­ dría ser la sucesión numérica (1010) si hubiera sido designada de antemano como un código arbitrario para «Esther Russeíl». A causa de los pesos alea­ torios, el sistema quizás no acierte y dé, por ejemplo (0,7,0,4,0,2,0,2) como salida inicial. En este punto, el sistema supervisor compara la salida real con la deseada para cada unidad de salida y calcula el error correspondiente. Los errores se elevan al cuadrado (por razones que no hace falta especificar aquí) y se calcula su media, obteniéndose un error cuadrárico medio (ECM). Lue­ go el sistema se centra en el peso de una conexión y comprueba (mantenien­ do invariables los otros pesos) si aumentando o disminuyendo ligeramente el peso se reduce el ECM. Si es así, el peso se corrige en consecuencia. Este pro­ cedimiento se repite para cada peso y el ciclo total de entrada/salida/ajuste de peso se repite una y otra vez hasta que se alcanza un ECM bajo. En este mo­ mento la red funcionará bien (en nuestro caso, asignando el nombre correcto a cada imagen visual). Ahora es cuando cesa el entrenamiento y los pesos se conservan: la red ha aprendido a resolver el problema.6 Este tipo de aprendizaje se puede concebir como un descenso por un gra­ diente. Imaginemos que nos encontramos en algún punto de la pendiente in­ terior de un cráter en forma de cuenco gigante. Nuestra tarea es encontrar el fondo, es decir, la solución correcta o el error más bajo. Como tenemos los 6. Véase una explicación especialmente clara y accesible de estos enfoques en Church* land, 1995. Véanse también Clark, 1989 y Churchland, 1989.

98 I De excursión por la mente

ojos vendados, no podemos ver dónde está el fondo. Sin embargo, cada vez que damos un paso pequeño podemos determinar si nos movemos hacia arriba (es decir, en la dirección de más error) o hacia abajo (en la dirección de menos error). Simplemente utilizando esta retroalimentación local y avan­ zando paso a paso, nos acercaremos inexorablemente al fondo de la cuenca, que es donde nos detendremos. Los métodos de aprendizaje de descenso por un gradiente (de los que la retropropagación es un ejemplo) actúan esen­ cialmente de la misma manera: el sistema es empujado cuesta abajo por la pendiente del error decreciente hasta que no puede bajar más. En este pun to (en paisajes con forma de cuenco) se alcanza la solución y el problema se resuelve. Obsérvese que los pesos no se codifican a mano en ninguna etapa de este proceso. Para cualquier problema complejo, encontrar un conjunto funcio nal de pesos de conexión mediante un análisis reflexivo está mucho más allá de nuestras capacidades actuales. Lo que se nos ofrece es una arquitectura inicial con una cantidad dada de unidades y un tipo determinado de conectividad, y un conjunto de casos de entrenamiento (pares entrada-salida). O b­ sérvese también que, en general, el resultado final del aprendizaje no es que el sistema memorice como un papagayo los datos de entrenamiento. En el caso de NETtalk, por ejemplo, el sistema aprende aspectos generales de la relación entre el inglés escrito y hablado. Después del entrenamiento, la red puede enfrentarse con éxito a palabras nuevas que no estaban en el conjun­ to de entrenamiento inicial. Lo más importante es que el conocimiento de las transiciones de texto a fonemas de NETtalk no adopta la forma de codificaciones explícitas de re glas o principios mediante cadenas de símbolos. Este conocimiento se alma­ cena de una manera adecuada para su empleo directo medíante un sistema parecido al del cerebro: como pesos o conexiones entre unidades o «neuro­ nas» idealizadas. En cambio, las formas de tipo textual favorecidas por CYC y SOAR son adecuadas para que unos agentes avanzados como los seres hu­ manos las utilicen como estructuras de conocimiento externas y pasivas. Si miramos hacia atrás, sin duda consideraremos muy poco verosímil que nues­ tros propios cerebros (que no son tan diferentes de los de algunos seres que carecen de lenguaje) emplearan un formato similar al elegido por las débiles proyecciones de nuestros pensamientos en medios públicos como el papel y las moléculas de aire. Los códigos cerebrales deben ser activos en un sentido en el que el almacenamiento de textos no lo es. Por tanto, creo que la princi­ pal lección de la investigación de las redes neuronales ha sido expandir nues­ tra visión de las maneras en que un sistema físico como el cerebro puede co­ dificar y explotar informaciones y conocimientos. En este sentido, la revolución de las redes neuronales ha sido un éxito indudable.

Mente y mundo: la frontera plástica

99

Además, parece que la tecnología de las redes neuronaíes va a permane­ cer entre nosotros. Técnicas como las que acabamos de describir se han apli­ cado con éxito en una increíble variedad de campos, incluyendo el recono­ cimiento de códigos postales escritos a mano, tareas de procesamiento visual, el reconocimiento de rostros, el reconocimiento de firmas, el control robótico e incluso la planificación y la demostración automatizada de teore­ mas. La potencia y la utilidad de esta tecnología son indudables. Sin embar­ go, su capacidad para dilucidar la cognición biológica no depende simplemen­ te de utilizar un estilo de procesamiento que recuerda aproximadamente al de los sistemas nerviosos reales, aunque sea de una manera aproximada, sino también del despliegue de estos recursos de una manera biológicamente re­ alista. Creo que la elección de representaciones de entrada y salida muy arti­ ficiales y de ámbitos de problemas muy pobres ha privado a la revolución de las redes neuronaíes de parte de su impulso inicial. Esta inquietud está di­ rectamente relacionada con el énfasis creciente en la acción real y, en conse cuencia, merece una explicación más detallada. El problema es, en esencia, que gran parte de la investigación sobre las redes neuronaíes artificiales se ha apoyado demasiado en una concepción más bien clásica de la naturaleza de los problemas. Muchas redes se han de­ dicado a investigar lo que una vez denominé «mícromundos verticales» (Clark, 1989, capítulo 4; véase también el apartado 1.2 anterior): pequeñas piezas de cognición de nivel humano como producir el pretérito de verbos ingleses7 o aprender gramáticas simples.89Incluso en tareas aparentemente más básicas (por ejemplo, equilibrar bloques de construcción en una barra que se apoya sobre un fulcro móvil’), la elección de las representaciones de entrada y de salida solían ser muy artificiales. Por ejemplo, la salida de ios programas para equilibrar bloques no era un conjunto de acciones motrices reales de brazos robóticos o, por lo menos, una codificación de estas accio­ nes; era simplemente la actividad relativa de dos unidades de salida, inter­ pretada de modo que una actividad igual en las dos unidades indicaba la expectativa de un estado de equilibrio y una actividad excesiva en cualquier unidad indicaba la expectativa de un desequilibrio en la dirección corres­ pondiente. Las entradas proporcionadas al sistema también eran artificiales: una codificación arbitraria para el peso en un canal de entrada y otra para la distancia desde el fulcro en el otro canal. Es bastante razonable suponer que esta manera de establecer el espacio del problema puede conducir a solucio­ 7. Clark, 8. 9.

Véanse Rumelhart y McClelland, 1986 y las evaluaciones críticas en Clark, 1989 y 1993. Véase Elman, 1991. McClelland, 1989; Plunkctt y Sinha, 1991.

100 I De excursión por la mente

nes artificiales e irreales. Seguramente una estrategia alternativa y quizá me­ jor sería darle al sistema datos de entrada realistas (por ejemplo, proceden­ tes de cámaras) y hacer que produjera como salida acciones reales (desplazar bloques reales hasta el punto de equilibrio). Naturalmente, un sistema como éste requiere la solución de muchos problemas adicionales y la ciencia siem­ pre debe simplificar los experimentos cuando sea posible. Sin embargo, cabe la sospecha de que la ciencia cognitiva ya no puede permitirse más simplifi­ caciones que excluyan del bucle al mundo real y al organismo que actúa: es­ tas simplificaciones pueden oscurecer las soluciones a los problemas ecoló­ gicamente realistas que caracterizan a agentes corpóreos activos como los seres humanos. La aspiración de la ciencia cognitiva -dilucidar la cognición biológica real- no puede ser compatible con una estrategia basada en la abstracción continua de los anclajes de la percepción y de la acción en el mundo real. Creo que esta sospecha está totalmente confirmada por los im­ portantes Corpus de investigación descritos en este libro. Un tema funda­ mental, que ya ha aparecido anteriormente, es que abstraer los polos reales de la sensación y de la acción priva a nuestros sistemas artificiales de la opor­ tunidad de simplificar, o de transformar de otras maneras, sus tarcas de pro­ cesamiento de información mediante la explotación directa de la estructura de la realidad. Sin embargo, y como veremos a continuación, esta explota­ ción puede ser especialmente esencial si pretendemos abordar la resolución de problemas sofisticados utilizando los tipos de recursos biológicamente plausibles de compleción de patrones que nos ofrecen las redes neuronales artificiales.

3.3 Apoyarse en el entorno Las redes neuronales artificiales de tipo general descritas anteriormen­ te10 presentan una interesante combinación de ventajas e inconvenientes. Son capaces de tolerar datos «ruidosos», imperfectos o incompletos. Son resistentes a daños locales. Son rápidas. Y sobresalen en tareas que suponen la integración simultánea de muchas pequeñas señales o elementos de infor­ mación, una capacidad que es esencial para el reconocimiento perceptivo y el control motor en tiempo real. Estas ventajas se derivan del hecho de que estos sistemas se dedican a completar patrones con un procesamiento en pa­ ralelo masivo. La tolerancia a datos «ruidosos», incompletos o imperfectos equivale a la capacidad de recrear patrones completos a partir de señales parciales. La resistencia a los daños locales se debe al empleo de múltiples 10. Vease una descripción mucho más cuidadosa de esta clase de modelos en Clark, 1993.

Mente y mundo: la frontera plástica I 101

recursos, a nivel de unidad, para codificar cada pauta. La velocidad se debe al funcionamiento en paralelo, igual que la capacidad para tener en cuenta simultáneamente múltiples señales pequeñas." Incluso algunos fallos de es­ tos sistemas son atrayentes en el plano psicológico. Pueden sufrir «interfe­ rencias» cuando unas codificaciones similares se obstaculizan mutuamente (de manera similar a cuando aprendemos un número de teléfono que se pa­ rece a otro que ya sabemos y enseguida los confundimos, olvidándonos de los dos). Y no son intrínsecamente adecuados para la resolución de proble­ mas secuencial y gradual típica de la lógica y la planificación {Norman, 1988; Clark, 1989, capítulo 6). Estos sistemas se podrían caracterizar en pocas pa­ labras diciendo que son «buenos al fútbol pero malos en lógica», un perfil más que familiar. Los sistemas clásicos, con sus direcciones de memoria or­ denadas y bien definidas, son inmunes a estas interferencias y ofrecen un ren­ dimiento excelente en la resolución de problemas lógicos y secuenciales, pero rinden mucho peor en tareas de control en tiempo real. Por tanto, las redes neuronales artificiales son sistemas rápidos pero li mitados que, de hecho, sustituyen el razonamiento clásico por el reconoci­ miento de patrones. Como era de esperar, esto es a la vez una ventaja y un in­ conveniente. Es una ventaja en el sentido de que ofrecen, precisamente, los recursos necesarios para las tareas que los seres humanos realizan mejor y con más fluidez: control motor, reconocimiento de rostros, lectura de códigos postales escritos a mano, etc. (Jordán y otros, 1994; Cottrell, 1991; LeCun y otros, 1989). Pero es una desventaja cuando nos enfrentamos a tareas como razonar de manera secuencial o planificar a largo plazo. Esto no es necesaria­ mente malo. Si nuestro objetivo es modelar la cognición humana, se deben fa­ vorecer aquellos fundamentos computacionales que produzcan una pauta de puntos fuertes y débiles parecida a la nuestra. Y en general somos mejores al fútbol que en lógica. De todos modos, también somos capaces, por lo menos en ocasiones, de planificar a largo plazo y de llevar a cabo razonamientos se­ cuenciales. Si en el fondo somos dispositivos asociativos reconocedores de patrones,IJ ¿cómo es esto posible? Creo que nuestra capacidad para elevarnos12 11. Véanse los detalles completos en el capítulo 5 de Clark, 1989. 12. Naturalmente, esto sigue siendo objeto de debate. Pero cada vez parece más claro que, sean como sean realmente los cerebros, están más cerca del perfil de procesamiento de in­ formación de las redes neuronales artificiales que del perfil de los dispositivos clásicos. De he­ cho, parece probable (véase el apartado 3.4 más adelante) que los cerebros biológicos explo­ ten más mecanismos especializados que las redes neuronales artificiales típicas pero que el «tilo de representación y de procesamiento siga siendo similar a lo largo de varias dimensio­ nes importantes (como el empleo de codificaciones distribuidas en paralelo y de transforma­ ciones vector a vector; véanse, por ejemplo Churchland, 1989; Churchland y Sejnowski, 1992 yChurchland, 1995).

102 i De excursión por la mente

por encima de nuestras raíces computacionales es el resultado com b in ad o de varios factores. Algunos de ellos aparecerán en capítulos p o ste rio re s.” Sin embargo, hay uno que merece nuestra inmediata atención. E s el em p leo de nuestro viejo amigo, el andamiaje externo. Las mentes conexionistas son las candidatas ideales para utilizar un abun ­ dante andamiaje externo. Un ejem plo sencillo, detallado en P a ra lle l D istri­ buí ed Processing (la «b ib lia» en dos volúmenes de la investigación so b re las redes neuronales1314), es el caso de las multiplicaciones largas. E l argu m en to es que la mayoría de nosotros podem os aprender a reconocer d e un vistazo la respuesta a multiplicaciones sim ples como 7 x 7 = 49. E ste con ocim ien to se puede apoyar fácilmente en un dispositivo incorporado b ásico p a ra el reco­ nocimiento de patrones. Sin em bargo, las m ultiplicaciones m ás larg as plan­ tean un problema diferente. Si se nos pide que m ultipliquem os 7.222 x 9.422, la mayoría de nosotros echará mano de lápiz y papel (o de una calcu lad ora). Con el empleo de lápiz y papel, lo que conseguim os es redu cir un problem a complejo a una sucesión de problem as más sim ples que em p ieza con 2 x 2 . Utilizamos el m edio externo (un papel) para almacenar los resu ltad o s de es­ tos problemas simples y al final llegamos a una solución m edian te una serie interrelacionada de com pieciones de patrones sim ples y alm acenam ientos externos. Rumelhart y otros (1986, pág. 46), comentan: « L o qu e aq u í vemos es un verdadero procesamiento de sím bolos, y em pezam os a p en sar q u e es el principal procesamiento de sím bolos que som os capaces de realizar. D e he­ cho, desde este punto de vista, el entorno exterior se con vierte en una ex ­ tensión fundamental de nuestra mente». Naturalmente, algunas personas aprenden a hacer estos c álcu lo s m ental­ mente. En estos casos el truco parece consistir en apren der a m an ipu lar un modelo mental de la misma manera que antes m an ipu láb am os el m undo real. Este tipo de manipulación interna de sím bolos es fun dam en talm en te distinta de la concepción clásica de los sím bolos internos, p o rq u e no dice nada del sustrato com putacional de estas imágenes. L a cu estión es, pura y simplemente, que podem os sim ular mentalmente el entorno ex terio r y que, en consecuencia, a veces interiorizamos com petencias cognitivas q u e no por ello dejan de estar enraizadas en manipulaciones del m undo exterior. Dicho de otra manera: la ciencia cognitiva se encuentra con la p sicología soviética.” f

13- Véanse especialmente las exposiciones sobre la actividad colectiva (capítu lo 4) y so­ bre el papel mas amplio del lenguaje y la cultura (capítulos 9 y 10). 14. Parallel DistributedProcessing- Explorations tu the Microstructure o f Cogm tion, volu­ men 1. Poundations y volumen 2: Psycbologtcal and Btological Models (M IT P ress, Í986). El trabaio descrito (Rumelhart y otros, 1986) se encuentra en el capítulo 14. 15. Véase, por ejemplo, Vygatsky, 1962. Véanse también los ca p ítu lo s 9 y 10 d e este libro.

Mente y mundo: la frontera plástica I 103

Por tanto, podríamos decir que la combinación de unas capacidades bá­ sicas para la compleción de patrones con unos entornos complejos y bien es­ tructurados nos permite alzarnos del suelo tirando de nuestras propias orejas computacionales. Quizás la visión original de la inteligencia artificial clásica equivalía, en realidad, a considerar que las capacidades básicas de comple­ ción de patrones de los organismos estaban embebidas en un entorno per­ fectamente estructurado; una visión erróneamente proyectada en los recur­ sos de procesamiento básicos incorporados en el organismo. Dicho en otros términos, la inteligencia artificial clásica basada en reglas y símbolos puede haber comeddo un error fundamental, confundiendo el perfil cognitivo del agente más el entorno, con el perfil cognitivo del cerebro aislado (Clark, 1989, pág. 135; Hutchins, 1995, capítulo 9). La clásica separación limpia y tajante entre datos y procesos, entre estructuras de símbolos y procesadores centrales, quizás no haya reflejado nada más que la separación entre el agen­ te y un andamiaje externo de ideas que persisten sobre papel, en archivado­ res o en soportes electrónicos. Los atractivos de esta visión no deberían disimular sus defectos. El en­ torno externo humano está perfectamente estructurado en virtud de nues­ tro empleo de formalismos lingüísticos, lógicos y geométricos y de los múl­ tiples sistemas de memoria externa de la cultura y el aprendizaje. No todos los animales son capaces de crear estos sistemas ni se pueden beneficiar de ellos una vez establecidos. Por tanto, la insistencia en el andamiaje externo no puede soslayar el hecho evidente de que los cerebros humanos son espe­ ciales. Pero la diferencia computacional puede ser menor y menos radical de lo que en ocasiones creemos. Quizás el origen y la explotación de instru­ mentos lingüísticos y culturales simples se deba a una pequeña serie de di­ ferencias neurocognitivas. A partir de aquí se puede poner en marcha un efecto tipo bola de nieve (un bucle de retroalimentación positiva). Unos simples apoyos externos nos permiten pensar mejor y crear nuevos apoyos y prácticas de carácter más complejo que, a su vez, «turboalimentarán» nuestro pensamiento un poco más, lo que conduce al desarrollo de apoyos aun mejores... ¡Es como si la longitud de nuestra orejas creciera al tirar de ellas para alzarnos! De nuevo con los pies en el suelo, podemos profundizar en la idea de un razonamiento completador de patrones en algunos ámbitos más sencillos. Consideremos el estudio de David Kirsh (1995) sobre el empleo inteligente del espacio físico. Kirsh, que trabaja en el Departamento de Ciencias Cognitivas de la Universidad de California en San Diego, observa que los estudios típicos de inteligencia artificial tratan la planificación como un fenómeno muy incorpóreo: sobre todo, desatienden nuestra manera de utilizar las pro­ piedades espaciales reales del ámbito de trabajo para simplificar el cómputo

104 I De excursión por la mente

interno. Naturalmente, una vez expresada esta idea los ejemplos abundan. Veamos algunos de los ejemplos favoritos de Kirsh: • Si al seguir una dieta queremos consumir las 3/4 partes de la ración de requesón de un día (digamos 2/3 de taza) durante una comida, daremos una forma redonda a la ración de queso, la dividiremos en 4 porciones y nos ser­ viremos 3. De esta manera es fácil ver la cantidad requerida, pero calcular 3/4 de 2/3 ya no es tan fácil. (De la Rocha, 1985, citado en Kirsh, 1995). • Cuando reparamos un alternador, al desmontarlo colocaremos las pie­ zas en línea o formando grupos para que la tarea de volverlo a montar sea más fácil. • Para colocar comestibles en bolsas, crearemos lotes de artículos simila­ res encima del mostrador. Si agrupamos los artículos resistentes, los frágiles y los intermedios, simplificaremos el proceso de selección visual y el tamaño relativo de cada montón nos alertará sobre las necesidades de acomodación más urgentes. • Cuando resolvamos un puzzle, agruparemos las piezas similares y asi podremos comparar visualmente y de una manera detallada todas las piezas verdes (por ejemplo) que tengan un borde recto. El mensaje es claro: controlamos nuestro entorno físico y espacial de ma­ neras que alteran fundamentalmente las tareas de procesamiento de infor­ mación a las que se enfrenta nuestro cerebro (recordemos el «principio 007» del capítulo 2). Sí este enfoque cooperador es valioso se debe a la diferencia entre la na­ turaleza de los cómputos que surgen de una manera natural en el cerebro en sí y la naturaleza de los cómputos que se pueden realizar parasitando recur­ sos del entorno. Pero, como veremos, este parasitismo pone en duda los mis­ mos límites tradicionales que existen entre mente y mundo.

3.4 Planificación y resolución de problemas Existe una visión incorpórea clásica de la planificación que Phil Agre y David'Chapman (1990) han denominado «los planes como programas». Se trata de la idea (que ya encontramos en el capítulo 2) de que un plan especi­ fica una sucesión completa de acciones que basta realizar con éxito para lo­ grar una meta. Una lista de instrucciones para cocinar un huevo pasado por agua o para desmontar un alternador viene a ser una de estas especificacio­ nes. De hecho, gran parte del trabajo sobre la planificación «clásica» imagi­ na que las secuencias complejas de acciones están determinadas por una ver­

Mente y mundo: la frontera plástica I 105

sión interiorizada de uno de estos conjuntos de instrucciones (véanse, por ejemplo, Tate, 1985, y Fikes y Nilsson, 1971). Sin embargo, en cuanto observamos detenidamente las conductas de pla­ nificación de agentes reales, es evidente que existe una interacción bastante compleja entre el plan y el entorno de apoyo. Esta interacción va mucho más allá del hecho evidente de que unas acciones específicas, una vez realizadas, tal vez no tengan el efecto deseado y, en consecuencia, exijan replantear so­ bre la marcha la consecución de algunos subobjetivos concretos. En estos ca­ sos el plan interiorizado original sigue siendo una especificación completa, aunque falible, de un camino hacia el éxito. Sin embargo, en muchos casos el plan resulta ser mucho más parcial y dependiente de las propiedades del entorno local. El caso anterior del puzzle es un buen ejemplo. Aquí, un agente puede explotar una estrategia que incorpore la actividad física de una manera fun­ damental. Tomar piezas, hacerlas girar para buscar potenciales coincidencias espaciales y después probarlas son partes de la actividad de resolución de pro­ blem as. Imaginemos, en cambio, un sistema que primero resuelva el puzzle entero por puro pensamiento y que después emplee el mundo meramente como el campo donde la solución ya alcanzada se va a representar. Incluso un sistema que luego reconociera los fallos de ajuste físico y los empleara como señales para volver a planificar (una versión menos caricaturizada de la planificación clásica) seguiría utilizando el entorno mínimamente en com­ paración con las ricas interacciones (rotaciones, evaluaciones de piezas candidatas, etc.) que caracterizan la solución humana. Esta diferencia crucial es descrita con precisión por David Kirsh y Paul Maglio (1994) mediante la distinción entre acción pragm ática y acción episté mica. Una acción pragmática es una acción llevada a cabo por la necesidad de alterar el mundo con el fin de lograr alguna meta física (por ejemplo, hay que pelar las patatas antes de hervirlas). En cambio, una acción epistémica es una acción cuyo propósito principal es alterar la naturaleza de nuestras propias tareas mentales. En estos casos seguimos actuando sobre el mundo, pero los cambios que imponemos están impulsados por nuestras propias ne­ cesidades computacionales y de procesamiento de información. Ya hemos visto varios ejemplos de acción epistémica: recuérdese el em­ pleo de movimientos corporales y oculares en la visión animada para recu­ perar tipos específicos de información como y cuando sea necesario. Lo que Kirsh y Maglio añaden a este marco de referencia es la idea de que la clase de las acciones epistémicas es mucha más amplia de lo que muestran los ejem­ plos de visión animada. Incluye todo tipo de acciones e intervenciones cuyo papel adaptativo sea simplificar o alterar los problemas a los que se enfren­ tan los cerebros biológicos.

106 I De excursión por la mente

Un ejemplo sencillo, de nuevo procedente de Kirsh {1995, pág. 32), se re­ fiere al empleo de las fichas del juego Scrabble o Intelect. Mientras jugamos, ordenamos y reordenamos físicamente las fichas como método para estimu­ lar nuestros propios recursos neuronales en línea. Si relacionamos esto con la investigación sobre redes neuronales artificiales descrita en el apartado 3.2 anterior, podemos imaginar este recurso neuronal en línea como una especie de memoria asociativa completadora de patrones. Una estrategia para jugar al Scrabble es emplear una clase especial de manipulaciones externas para crear una variedad de entradas fragmentarias (nuevas cadenas de letras) ca­ paces de estimular al ingenio completador de patrones para que recuerde palabras enteras. El hecho de que encontremos tan útiles estas manipulacio­ nes externas indica claramente que nuestros ingenios computación ales in­ corporados (en el cerebro) no se prestan muy bien a estas manipulaciones (mientras que un programa clásico de inteligencia artificial encontraría tri­ viales estas operaciones internas). Este simple hecho habla en favor de un modelo de los recursos internos distinto al clásico. Es como si la imagen clá­ sica incluyera dentro de la máquina un conjunto de capacidades operativas que en la vida real sólo emergen a partir de las interacciones entre esa má­ quina (el cerebro) y el mundo. Una conclusión de estas observaciones es que las estructuras externas (incluyendo símbolos externos como las palabras y las letras) son especiales en la medida en que permiten realizar tipos de operaciones que difícilmente (o nunca) se pueden realizar en el ámbito interno.11' Un ejemplo más complejo, que conduce esencialmente a la misma con­ clusión, procede de los estudios detallados de Kirsh y Maglio (1994) sobre el rendimiento en el juego de ordenador Tetris. En este juego, el jugador debe colocar unas piezas geométricas multicolores (denominadas «zoides») formando hileras compactas (figura 3.1). Cuando se completa una hilera, ésta desaparece de la pantalla dejando espacio para nuevos zoides. Los zoides aparecen por la parte superior de la pantalla y caen a un ritmo que aumenta a medida que avanza la partida. Mientras un zoide cae, el jugador puede ha­ cerlo girar, desplazarlo hacia la derecha o la izquierda, o hacerlo caer directa­ mente al fondo. Por tanto, el objetivo es hacer encajar unas formas con unas oportunidades geográficas dentro de unas fuertes restricciones en tiempo real, Un resultado sorprendente de las investigaciones de Kirsh y Maglio fue16 16. En Clark, 1986 y Clark, 1988a examino resultados del ámbito del dibujo que ofrecen más apoyo a esta conjetura. En estos artículos también examino el trabajo de Chambers y Reisberg (1985) sobre las propiedades especiales de los dibujos reales en comparación con las imá­ genes mentales de dibujos. Esta investigación se cita también en Kirsh, 1995 y en Zhang y Nor­ man, 199*1.

Mente y mundo: la frontera plástica I 107

*

r -m “__ 1

Girar

Desplazar

Soltar

____ r ■ ■r j Ü 5E 1!i1 m H a



La hilera rompida

desaparece

FIGURA 3.1 El juego Tetris se caracteriza por unas piezas llamadas «zoides» que caen de una en una desde la parte superior de la pantalla y acaban depositándose directa­ mente en el fondo o sobre otras piezas que hayan caído antes. Mientas cae una pieza, el jugador puede hacerla girar, desplazarla hacia la derecha o hacia la izquierda, o ha­ cerla bajar de inmediato. Cuando se consigue que una hilera de cuadrados llene hori­ zontalmente toda la pantalla, la hilera en cuestión desaparece y las que se encuentran por encima de ella bajan un nivel. Fuente: Kirsh y Maglio, 1994. Reproducido con la autorización de D. Kirsh, R. Maglio y Ablex Publishing Corporation.

que los jugadores expertos realizaban una amplia variedad de acciones epistémícas: acciones cuyo propósito era reducir la cantidad de computación in­ terna en lugar de ganar terreno físico. Por ejemplo, un jugador puede hacer girar físicamente un zoide para determinar mejor su forma o para comprobar su coincidencia potencial con alguna oportunidad geográfica. Estas opera­ ciones externas parecen más rápidas y fiables que sus equivalentes internas (como imaginar la rotación del zoide). Es especialmente interesante destacar (como hacen Kirsh y Maglio) que, en el caso del Tetris, las operaciones inter­ nas y externas deben estar tan coordinadas en el tiempo que los sistemas in­ ternos y externos (el cerebro/SNC y las operaciones en pantalla) parecen fun cionar conjuntamente como una sola unidad computacional integrada.

108 i De excursión por la mente

Por tanto, el mundo puede funcionar de maneras que van mucho más allá de la simple memoria externa. Puede ofrecer un campo donde unas cla­ ses especiales de operaciones externas transformen sistemáticamente los problemas que se plantean a un cerebro.1 De la misma manera que Einstein sustituyó las nociones independientes del tiempo y el espacio por un constructo unificado (el espacio tiempo), Kirsh y Maglío proponen que para la ciencia cognitiva puede ser conveniente sustituir los constructos indepen­ dientes del espacio físico y el espacio del procesamiento de la información por un espacio «físico-informacional» unificado."* Como comentario final sobre la interacción entre la mente y la estructu­ ra del entorno, consideremos el caso de pacientes con la enfermedad de Alzheimer en estado avanzado. Muchos de estos pacientes llevan una vida sorprendentemente normal en la comunidad, a pesar de que las evaluacio­ nes estándar de sus capacidades indican que muchos de ellos deberían ser incapaces de sobrevivir fuera de instituciones especializadas. Al parecer, la clave de estos éxitos sorprendentes reside en la medida en que estas perso­ nas se basan en entornos muy estructurados que primero crean y después habitan. Estos entornos pueden incorporar múltiples letreros recordatorios colocados por toda la casa y el seguimiento estricto de unos hábitos con­ cretos. Una paciente vive, virtualmente, en un sofá que se encuentra en el centro de su apartamento, ya que esto le brinda una posición estratégica desde la cual puede acceder visualmente a la situación de cualquier cosa que necesite: este s í es, realmente, un caso de empleo del mundo como me­ moria externa. ¿Cómo encaja en todo esto la noción de planificación? Al parecer, la re­ solución sistemática de problemas de los cerebros biológicos no sigue real­ mente el modelo del plan como programa. En cambio, los agentes desplie­ gan unas estrategias generales que incorporan ciertas operaciones sobre el mundo como parte intrínseca de la actividad de resolución de problemas. Es evidente que esta actividad puede suponer unos planes formulados de una manera explícita (quizá por escrito). Pero incluso en estos casos, el plan ac­ túa más como una limitación externa sobre la conducta que como una rece­ ta completa para el éxito.1718920 En cierto sentido, somos como mobots muy inte­ ligentes dotados de archivadores. Nuestra inteligencia se demuestra en la t

17. Este tema se explora a fondo en el capítulo 10 posterior. 18. Véanse los comentarios de Kirsh y Maglio (1994, pág. 515) acerca de la necesidad de redefinir el espacio de estados donde tiene lugar la planificación. 19. Agradezco a Caroline Baum, directora de la Occupational Therapy Unit de la Was­ hington University School of Medicine, por comunicarme estos casos. Véanse Baum, 1993 y Edwards y otros, 1994. 20. Véanse, por ejemplo, Suchman, 1987 y Bratman y otros, 1991.

Mente y mundo: la frontera plástica I 109

capacidad de estructurar nuestro entorno y de operar activamente sobre él para simplificar nuestras tareas de resolución de problemas. Esta estructu­ ración y explotación activa va desde la simple utilización de distribuciones espaciales, pasando por el empleo de transformaciones específicas (mezclar las fichas de Scrabbíe, hacer girar los zoides del Tetris), hasta la producción de planes escritos explícitos que permiten reorganizar y cambiar el foco de atención con facilidad. Estos últimos casos comportan el empleo de la clase especial de estructuras externas formada por mapas, códigos, lenguajes y símbolos, estructuras que examinaremos con detalle en el capítulo 10.

3.5 Después del archivador Como hemos visto, las redes neuronales artificiales proporcionan un mo­ delo útil (aunque claramente parcial) de algunas de las estrategias computacionales que los cerebros reales parecen desplegar. Estas estrategias hacen hincapié en la compleción de patrones y en la memoria asociativa a costa de las manipulaciones lógicas y simbólicas más familiares. Por tanto, el trabajo con las redes neuronales artificiales proporciona un valioso antídoto contra lo que se ha denominado «imagen de archivador» de la mente: la imagen de la mente como un almacén de símbolos pasivos, parecidos al lenguaje, que esperan ser recuperados y manipulados por una especie de unidad central de procesamiento neuronal. Con todo, quedan por eliminar algunos aspectos residuales de esta «imagen de archivador. Al igual que un archivador, la mente ha sido tratada con demasiada frecuencia como un recurso pasivo: como un órgano para clasificar y transformar datos de entrada pero que no está intrínsecamente orientado a actuar en el mundo. Esta falta de atención a los problemas y las posibilidades que acompañan a las acciones en el mun­ do real y en tiempo real se manifiesta de varias maneras. La elección de ám­ bitos de tareas muy abstractos (como generar las formas pretéritas de verbos ingleses) y el empleo de formas de codificación de entrada y salida muy arti­ ficiales, son síntomas de una imagen de la mente que, en esencia, la conside­ ra el órgano de una razón intemporal e incorpórea. Naturalmente, nadie ha pensado que la percepción, el movimiento y la acción carezcan totalmente de importancia. Todo el mundo está de acuerdo en que, tarde o temprano, estos factores se deberán tener en cuenta. Sin embargo, según la creencia más arraigada, los problemas adicionales que plantean estas cuestiones se pueden separar sin riesgo alguno de la tarea principal de comprender la mente y la cognición, y las soluciones a estos problemas más «prácticos» sim­ plemente se pueden «adjuntan» a los dispositivos de procesamiento de la ra­ zón incorpórea.

110 I De excursión por la mente

Esta separación metodológica entre las tareas de explicar la razón y la mente (por un lado) y la acción en tiempo real y en el mundo real (por otro) es lo que la ciencia cognitiva de la mente corpórea se propone cuestionar. Cuando se abordan problemas del mundo real en su verdadero escenario y con toda su complejidad, se hace evidente que ciertos estilos de resolución de problemas simplemente no funcionan. Y los tipos de solución que s í fun­ cionan suelen fusionar los procesos de razonamiento y de acción de maneras inesperadas, atravesando una y otra vez los límites tradicionales entre men­ te, cuerpo y entorno. En cierto sentido, esto no nos debería sorprender. Nuestros cerebros evo­ lucionaron como controladores de unos cuerpos que se movían y actuaban en un mundo real (y con frecuencia hostil). Seguramente estos órganos evo­ lucionados desarrollaron unos recursos computacionales complementarios de las acciones e intervenciones que controlaban. Después de todo, el cere­ bro así entendido no necesita mantener una réplica interna y a pequeña es­ cala del mundo que sustente exactamente los mismos tipos de operación y manipulación que habitualmente aplicamos sobre él. La responsabilidad del cerebro es ofrecer prestaciones complementarias que apoyen la explotación reiterada de operaciones sobre el mundo. Su tarea consiste en proporcionar procesos computacionales (como una potente compleción de patrones) que el mundo, incluso cuando es manipulado por nosotros, no suele ofrecer.21 Entonces, ¿dónde se encuentra la mente? ¿Se encuentra realmente «den­ tro de la cabeza» o quizá ahora se ha extendido, de una manera un tanto li­ bertina, por el mundo? A primera vista, esta pregunta es extraña. Después de todo, cada cerebro individual sigue siendo la sede de la conciencia y la ex­ periencia. Pero, ¿qué ocurre con la razón? Cada pensamiento es considera­ do por un cerebro. Pero ahora vemos que el flujo de pensamientos y el éxito adaptativo de la razón dependen de interacciones reiteradas y cruciales con recursos externos. El papel de estas interacciones, en los casos que he desta­ cado, es claramente computacional e informacional: consiste en transformar entradas, simplificar búsquedas, contribuir al reconocimiento, estimular el recuerdo asociativo, descargar la memoria, etc. En cierto sentido, un ser hu­ mano que razona es un dispositivo cognitivo verdaderamente distribuido: re­ aliza llamadas a recursos externos para que lleven a cabo unas tareas de pro­ cesamiento específicas, de manera muy parecida a cuando un ordenador conectado a una red hace llamadas a otros ordenadores conectados para que t

2 !. Naturalmente, esto ya no es estrictamente cierto. Las mismas redes neuronales artifi­ ciales constituyen recursos externos completadores de patrones (Churchland, 1995, capitulo 11), Además, otros agentes y animales también constituyen recursos de compleción de patro­ nes externos al individuo. Véase más información al respecto en el capítulo 4.

Mente y mundo: la frontera plástica I 111

realicen unas tareas concretas. Por tanto, propongo que la demostración que hacen Kirsh y Maglio del papel de la acción epistémica tiene como conse­ cuencia una distribución correspondiente del mérito epistémico. El flujo de pensamientos o la generación de respuestas razonadas no son un mérito ex­ clusivo del cerebro. La colaboración entre cerebro y mundo es mucho más rica y está más impulsada por necesidades de computación e información de lo que se creía hasta ahora. Sería reconfortante suponer que esta imagen más integrada de la mente y el mundo no plantea ninguna amenaza a cualesquiera de nuestras ideas fa miliares sobre la mente, la cognición y el yo. Reconfortante, pero falso. Por­ que si bien los pensamientos concretos continúan estando vinculados a los cerebros individuales, el flujo de la razón y las transformaciones de informa­ ción que dicho flujo implica parecen entrecruzar el cerebro y el mundo. Sin embargo, sospecho que este flujo de ideas es lo que la mayoría de nosotros asocia con más fuerza con la idea de la mente como sede de la razón y del yo. Este flujo es más importante que las instantáneas que nos ofrecen los pensa mientos o las experiencias aisladas." Como veremos, el verdadero motor de la razón no está delimitado ni por la piel ni por el cráneo.2

22. El epílogo ilustra esta afirmación considerando e! papel del cerebro en la generación de una compleja corriente de ideas vinculadas. Véase también el apañado 10.5.

4

Sabiduría colectiva al estilo de los hongos mucilaginosos

4.1 Aquí llega el mucílago Es la primavera del año 1973 y el tiempo ha sido anormalmente húme­ do. Al mirar por la ventana que da al jardín, nuestra mirada es atraída por una proliferación de masas redondeadas de un intenso color amarillo. ¿Qué podrán ser? Intrigados, intentamos volver a trabajar pero somos in­ capaces de concentrarnos. Un poco después volvemos a mirar por la ven­ tana. Las masas gelatinosas de color amarillo siguen ahí, pero podríamos jurar que se han movido. Tenemos razón. Sin prisa, pero sin pausa, estos seres desconocidos se arrastran por el jardín y trepan por el poste telefóni­ co, acercándose a nosotros. Llenos de espanto, telefoneamos a la policía para comunicarles la probable visión de formas de vida extraterrestre. Pero en realidad lo que hemos visto (como han visto muchas otras perso­ nas) es un ser totalmente terrestre, aunque con un ciclo de vida ciertamen­ te muy extraño: se trata del Fuligo séptica, un tipo de hongo mucilaginoso acelular.1 Existen hongos mucilaginosos de muchas variedades12y tamaños, pero to­ dos pertenecen a la clase de los micetozoos. El nombre es revelador, ya que combina «miceto» (hongo) y «zoos» (animales). Les gustan los ambientes húmedos y suelen encontrarse sobre troncos podridos..., tocones o en mon­ tones de restos vegetales en descomposición. Su distribución geográfica es muy extensa y no parece limitarse a unos climas específicos. Como se dice en 1. Esta historia se basa en informes de Alexopouios y Mims, 1979 y Farr, 1981. 2. Existen dos tipos principales de hongos mucilaginosos: los acelularcs, donde las célu­ las se fusionan para formar una masa multinuclear y los celulares, donde las células se agrupan pero nunca se fusionan y donde la masa multicelular forma un cuerpo móvil (denominado ba­ bosa en ocasiones). Véase el capítulo 1 de Ashworth y Dee, 1975.

114 I De excursión por la mente

un manual, «muchas especies tienden a aparecer en cualquier lugar, de ma­ nera inesperada» (Farr, 1981, pág. 9). De interés especial es el ciclo de vida de los hongos mucilaginosos «celu­ lares». Tomemos, por ejemplo, la especie Dictyoslelium dtscoideunt,’ descu­ bierta por primera vez en 1935, en Carolina del Norte. El ciclo de vida del D. discoideum empieza con lo que se denomina una fase vegetativa, donde las células del hongo mucilaginoso existen individualmente, como las ame­ bas (se llaman mixoamebas). Mientras las fuentes locales de alimento duran (las mixoamebas se alimentan de bacterias), las células crecen y se dividen. Pero cuando las fuentes de alimento se agotan, ocurre una cosa verdadera­ mente extraña. Las células empiezan a agruparse formando una masa con as­ pecto de tejido llamada pseudoplasmodio. Aunque pueda parecer increíble, el pseudoplasmodio es un ser colectivo móvil, una especie de babosa en minia­ tura (figura 4.1) que puede arrastrarse por el suelo.'1Es atraído por la luz y si­ gue gradientes de temperatura y humedad. Estas señales le ayudan a encontrar un lugar con más alimento. Cuando encuentra un lugar adecuado, el pseudo­ plasmodio vuelve a cambiar de forma, esta vez diferenciándose por medio de un tallo y un cuerpo fructífero con una masa de esporas que comprende unos dos tercios del número total de células. Cuando las esporas se propagan, el ci­ clo vuelve a empezar con una nueva población de mixoamebas. ¿Cómo saben agruparse las células individuales (mixoamebas) del hon­ go mucilaginoso? Una solución -el equivalente biológico de un planificador central (véase el capítulo 3)- sería que la evolución hubiera elegido unas «células líder». Estas células estarían especialmente adaptadas para «lla­ mar» a las otras células, probablemente por medios químicos, cuando el ali­ mento empezara a escasear y, de alguna manera, orquestarían la construc­ ción del pseudoplasmodio. Sin embargo, parece que la naturaleza ha optado por una solución más «democrática». De hecho, las células del hon­ go mucilaginoso parecen comportarse como las hormigas descritas en el apartado 2.3 anterior. Cuando el alimento escasea, cada célula libera un compuesto químico (AMP cíclico) que atrae a otras células. A medida que las células se van agrupando aumenta la concentración de AMP cíclico, que atrae a más células. Por tanto, un proceso de retroalimentación positiva conduce a la agrupación de las células que constituyen un pseudoplasmo­ dio. Como comenta Mitchel Resnick (1994, pág. 51), este proceso es un buen ejemplo de lo que se conoce como autoorganización. En los sistemas autoorganizados emergen pautas de nivel superior a partir de las interaci3

3. La explicación sobre el D discotdewn se basa en Ashworth y Dee, 1975, págs. 32-36. A. Los hongos mucilaginosos acelulares como el Fuligo séptico no forman una babosa mó­ vil. En cambio, el piasmodio emigra mediante comentes de protoplasma.

Sabiduría colectiva al estilo de los hongos mucilaginosos I 115

FIGURA 4.1 Agrupaciones irigradoras (pseudoplasmodios) de un hongo mucilagi-

noso celular. Fuente: Morrissey, 1982. Reproducido con la autorización de Academic Press.

dones de múltiples componentes simples, sin necesidad de líderes, contro­ ladores ni orquestadores. Propondré que la autoorganización y la emergencia no se limitan a colecti vos primitivos como el hongo mucilaginoso. También se dan formas de una conducta adaptativa emergente en colectivos de agentes humanos. El cerebro biológico, que parasita el mundo externo (véase el capítulo 3) con el fin de au­ mentar su capacidad para resolver problemas, no traza el límite en las exten­ siones inorgánicas y ciertos aspectos cruciales de nuestro éxito adaptativo están determinados por las propiedades colectivas de grupos de agentes individuales.

116 I De excursión por la mente

4.2 Dos formas de emergencia La emergencia de fenómenos nuevos a partir de una actividad colectiva (sin líderes ni controladores centrales) se puede producir, por lo menos, de dos maneras. La primera, a la que denominaré emergencia directa, se basa principalmente en las propiedades de los elementos individuales (y en sus re laciones mutuas); en este caso, las condiciones ambientales sólo desempeñan un papel de contexto. La emergencia directa puede implicar múltiples ele­ mentos homogéneos (como cuando emergen la temperatura y la presión a partir de las interacciones entre las moléculas de un gas), o puede implicar elementos heterogéneos (como cuando emerge agua a partir de las interac­ ciones entre moléculas de oxígeno y de hidrógeno). La segunda forma de emergencia, a la que denominaré emergencia indirecta, también se basa en las interacciones de elementos individuales pero requiere que estas interaccio nes estén mediadas por unas estructuras ambientales activas y, con frecuen­ cia, bastante complejas. Por tanto, la diferencia reside en la medida en que podemos comprender la emergencia de un fenómeno dado centrándonos, principalmente, en las propiedades de los elementos individuales (emergen cía directa) o en la medida en que la explicación del fenómeno requiere aten­ der a detalles bastante específicos del entorno. Esta distinción está lejos de ser absoluta puesto que todos los fenómenos se basan en mayor o menor me­ dida en condiciones ambientales contextúales. (Se puede hacer un poco más precisa formulándola en función de los papeles explicativos de diferentes ti­ pos de «variables colectivas»; véase el capítulo 6). Pero podemos obtener una impresión intuitiva básica de esta diferencia examinando algunos casos sencillos. Un ejemplo clásico de emergencia directa es el familiar fenómeno de los atascos de tráfico. Puede producirse un atasco aun cuando no se pueda cul­ par de ello a ningún suceso externo inesperado (como una colisión o una se­ rie de semáforos averiados). Por ejemplo, mediante unas sencillas simulacio­ nes, Mitchel Resnick5 demuestra que se producirá un embotellamiento si cada automóvil sigue simplemente dos reglas intuitivas: «Si nos vamos acer­ cando al vehículo que tenemos delante, reduciremos la velocidad; si no, la aumentaremos (salvo sí ya hemos alcanzado la velocidad máxima permiti­ da)» {Resnick, 1994, págs. 69,73). Pero cuando se siguen estas dos reglas y no hay ningún obstáculo externo, ¿por qué el tráfico no acelera hasta la má­ xima velocidad permitida y se queda ahí? La respuesta se encuentra en las 5. Aquí, como en los apartados 4.1 y 4.2, sigo a Mitchel Resnick cuyo libro Turitrs, Termiles, and Tra/fic Jams (1994) es a la vez un modelo de claridad y un poderoso testimonio del alcance y la fuerza del pensamiento descentralizado.

Sabiduría colectiva al estilo de ios hongos muciiaginosos I 117

posiciones iniciales. Al principio de la simulación, la distancia entre los au­ tomóviles que circulan por la carretera es aleatoria. Por tanto, en ocasiones un automóvil empieza a acercarse a otro y pronto debe reducir la velocidad; esto hace, a su vez, que el vehículo que tiene detrás también reduzca la suya. El resultado final es una mezcla de tramos de tráfico rápido y de tráfico len­ to. De vez en cuando un automóvil sale del atasco, acelerando y dejando es­ pacio para el que tiene detrás. Pero con la misma rapidez con que el embo­ tellamiento se «desatasca» en una dirección, crece en la otra a medida que se incorporan nuevos automóviles por detrás y se ven obligados a reducir la marcha. Aunque cada vehículo avanza hacia adelante, el atasco de tráfico en sí, considerado como un tipo de entidad de orden superior, ¡se mueve hacia atrás! Por tanto, esta estructura de orden superior (a la que Resnick deno­ mina estructura colectiva) muestra una conducta fundamentalmente diferen­ te de la conducta de sus componentes. De hecho, los componentes no dejan de cambiar (a medida que unos vehículos van saliendo y otros nuevos se van incorporando), pero la integridad del colectivo de orden superior se conser­ va. (De una manera similar, el cuerpo humano no siempre está formado por la misma masa de materia: las células mueren y son reemplazadas por otras nuevas construidas a partir de la energía obtenida de los alimentos. También nosotros somos colectivos de orden superior cuya materia constituyente se encuentra en flujo constante.) Los atascos de tráfico se consideran casos de emergencia directa porque el necesario telón de fondo ambiental (las dis­ tancias variables entre los vehículos) es mínimo: seguramente el espaciado aleatorio es la condición por defecto y no requiere ninguna manipulación ambiental especial. Sin embargo, la emergencia indirecta es intuitivamente muy diferente, como veremos a continuación. Consideremos el siguiente ejemplo: tenemos que acordarnos de com­ prar una caja de latas de cerveza para una fiesta. Para refrescarnos la me­ moria, colocamos una lata de cerveza vacía sobre el felpudo de la puerta. Cuando volvemos a salir de casa, tropezamos con la lata y nos acordamos de nuestra misión. Hemos empleado lo que a estas alturas ya es un truco familiar (recordemos el capítulo 3): explotar algún aspecto de la realidad como sustituto parcial de la memoria incorporada. De hecho, hemos em­ pleado una alteración de nuestro entorno para comunicarnos algo a noso­ tros mismos. Este truco de emplear el entorno para provocar acciones y co­ municar señales figura en muchos casos de lo que yo denomino emergencia indirecta. Tomemos la conducta de construcción de algunas termitas. La conducta de construcción de una termita supone modificar su entorno local en res­ puesta a los estímulos proporcionados por alteraciones previas del entorno realizadas por otras termitas o por la misma termita en otra ocasión. Dicho

118 I De excursión por la mente

de otra manera, la construcción de un termitero está bajo el control de lo que se conoce como algoritmos estigmérgicos.6 Un ejemplo simple de estigmergia es la construcción de arcos (un aspec­ to básico de los termiteros) con pelotillas de barro. He aquí cómo funciona este proceso:7 todas las termitas hacen pelotillas de barro que, al principio, depositan al azar. Pero cada pelotilla incluye una señal química añadida por la termita. Las termitas prefieren dejar caer las pelotillas donde la señal quí­ mica es más fuerte. Por tanto, es probable que las pelotillas nuevas se depo­ siten encima de las antiguas, generándose entonces una fuerza de atracción aún mayor (¡sí, es la historia de siempre!). De esta manera se van formando columnas. Cuando dos columnas están muy próximas entre sí, las señales químicas de la columna vecina influyen en la conducta de soltar las peloti­ llas, incitando a los insectos a añadir barro en el lado de cada columna que encara a la otra. Este proceso continúa hasta que las puntas de las columnas se inclinan la una hacia la otra y se forma un arco. El producto final de una gran cantidad de estigmergias distintas es una estructura compleja de celdi­ llas, cámaras y túneles. En ningún punto de este prolongado proceso se sigue o se representa un plano del termitero. Ninguna termita actúa como líder durante la construcción. Ningún termita «sabe» nada, salvo responder cuan­ do se encuentra con una pauta específica en su entorno local. Las termitas no se hablan entre sí de ninguna manera, salvo mediante los productos am­ bientales de su propia actividad. Esta coordinación basada en el entorno no requiere ninguna codificación o descodificación lingüística y no impone car­ ga alguna a la memoria; además, las «señales» persisten aunque el individuo responsable de las mismas se haya ido a hacer otra cosa (Beckers y otros, 1994, pág. 188). Resumiendo: aprendemos lecciones importantes incluso a partir de estos casos simples de emergencia de fenómenos colectivos. Estos fenómenos se pueden producir de maneras directas o muy mediadas por el entorno. Pue­ den sustentar conductas adaptativas complejas sin necesidad de líderes, di­ seños o planificadores centrales. Y pueden manifestar rasgos característicos totalmente diferentes de los rasgos de los individuos cuya actividad reflejan. En el siguiente apartado veremos estas conductas en un contexto más fami­ liar: el de la actividad humana.

6, «Esúgmérgico», una combinación de «estigma» (señal) y «ergon» Itrabajo), implica la utilización del trabajo como señal para más trabajo. 7. Véanse Grasse, 1959 y Beckers y otros. 1994.

Sabiduría colectiva al estilo de los hongos mucilaginosos I 119

4.3 Tripulaciones marinas En la investigación más prolongada y con más éxito realizada basta la fe­ cha sobre las propiedades cognitivas de grupos humanos, Edwin Hutchins -antropólogo, científico cognitivo, marinero y oficial de derrota en regatas a mar abierto- ha descrito y analizado el papel de las estructuras externas y de las interacciones sociales en la navegación en alta mar. He aquí su descrip­ ción de cómo se realizan y coordinan algunas de las tareas necesarias (Hutchins, 1995, pág. 199; la nota al pie8es mía): De hecho, es posible que el equipo [de navegación] organice su conducta en una secuencia adecuada sin que exista un guión o un plan global en ninguna par­ te del sistema.8Cada miembro de la tripulación sólo necesita saber qué debe hacer cuando se producen ciertas condiciones en el entorno. Un examen de los debe­ res de los integrantes de la tripulación muestra que muchos de ellos se especifi­ can en la forma «hacer X cuando ocurra Y». He aquí algunos ejemplos extraídos de los procedimientos: A. Hacer sondeos y enviarlos al puente cuando se soliciten. B. Anotar hora y profundidad cada vez que se envíe un sondeo al puente. C. Medir y comunicar las demoras en relación con los objetos especificados por el piloto cuando éste lo ordene. Al parecer, cada miembro de la tripulación sólo debe seguir una especie de procedimiento estigmérgico9 esperando que una alteración del entorno local (como la colocación de una carta de navegación concreta sobre una mesa, la llegada de una petición verbal o el sonido de una campana) motive una conducta específica. Esa conducta, a su vez, influirá en el entorno local de otros miembros de la tripulación, provocará nuevos arranques de activi­ dad y así sucesivamente, hasta que la tarea se haya realizado. Naturalmente, estamos hablando de agentes humanos que se formarán ideas y modelos mentales del proceso global. Y como comenta Hutchins, esta tendencia general hace que el sistema sea más robusto y flexible, porque 8. De hecho, en muchos navios exisie un plan formal. Pero los miembros de la tripulación no lo emplean explícitamente para estructurar sus acciones; en realidad, como sugiere Hut­ chins (1995, pág. 178), el plan no funcionaría aunque lo hicieran. 9. La verdadera estigmergia requiere una falta total de flexibilidad de respuesta en pre­ sencia de una condición desencadenante. Por tamo, la actividad humana, en genera!, sólo es cuasi estigmérgica. Lo común es el empleo de condiciones ambientales como instigadoras de la acción y la capacidad global del grupo para realizar una actividad de resolución de pro­ blemas que sobrepasa el conocimiento y el alcance computacional de cada miembro por se parado.

120 I De excursión por la mente

los individuos pueden supervisar mutuamente su actividad (por ejemplo, pi­ diendo una demora que no se haya dado a tiempo) y, si es necesario, pueden encargarse de otras tareas (por ejemplo, si alguien cae enfermo). Sin embar­ go, ningún miembro de la tripulación tendrá interiorizados todos los cono­ cimientos y habilidades pertinentes. Además, vemos que una gran cantidad de trabajo la llevan a cabo, una vez más, estructuras externas: reglas de cálculo náuticas, alidadas, registros de demora, transportadores, cartas de navegación, sondas, etc.13 Estos dis­ positivos cambian la naturaleza de ciertos problemas computacionales, ha­ ciendo que sean más fáciles de abordar por unos cerebros que tienden a la percepción y la compleción de patrones. La regla de cálculo náutica, que es el ejemplo favorito de Hutchins, convierte operaciones matemáticas com­ plejas en operaciones de alinear escalas en el espacio físico." Por último, y recordando temas del capítulo 3, diremos que el espacio de trabajo mismo para la navegación está estructurado para reducir la comple­ jidad de la resolución de problemas. Por ejemplo, las cartas que se emplean para atracar en un puerto dado están reunidas en un tablero de cartas y co­ locadas unas sobre otras en el orden en que se van a utilizar (la que primero se necesite, encima de las restantes). Según Hutchins, todos estos factores se unen para posibilitar que el sis­ tema global formado por artefactos, agentes, el mundo natural y la organiza­ ción espacial, resuelva el problema de navegar. La conducta global (en el ni­ vel de la embarcación) no está controlada por un plan detallado en la cabeza del capitán. El capitán puede establecer los objetivos, pero la secuencia de reunir y transformar información para alcanzar estos objetivos no necesita representarse explícitamente en ningún lugar. En cambio, la potencia y la pericia computacionales necesarias se distribuyen por todo un conjunto he­ terogéneo de cerebros, cuerpos, artefactos y otras estructuras externas. Así navegan los cerebros que completan patrones por mares hostiles y matemá­ ticamente exigentes.

4.4 Las raíces de la armonía r

Pero, ¿cómo se produce esta delicada armonización entre cerebros, cuer­ pos y mundo? En los casos de lo que he llamado emergencia directa, este ♦

10. Hutchins (1995, capítulo 3) los describe de forma detallada. Una alidada es un dispo­ sitivo telescópico para dirigir visuales; los transportadores son semicírculos graduados que se emplean para trazar lineas o ángulos sobre cartas de navegación. 11 Véanse la pág. 171 de Hutchins, 1995 y los capilulos 3 y 10 de este libro

Sabiduría colectiva al estilo de los hongos mucilaginosos I 121

problema es menos acuciante porque las propiedades colectivas están direc­ tamente determinadas por la acción masiva de una tendencia individual uni­ forme. Por ejemplo, si la naturaleza hiciera evolucionar -¡n os libren los dio­ ses!- vehículos y carreteras (partiendo de una distribución inicial aleatoria y de las dos reglas expuestas en el apartado 4.2 anterior), inmediatamente se producirían embotellamientos de tráfico. A primera vista, la emergencia indirecta plantea un enigma mayor. En los casos de este tipo, la propiedad que hay que alcanzar (por ejemplo, la cons­ trucción de un termitero o navegar con éxito) surge a partir de interacciones múltiples y con frecuencia variadas entre un conjunto de individuos y un en­ torno estructurado con gran complejidad. Los individuos están aparente­ mente construidos o diseñados para que su dinámica, coordinada con estos entornos complejos, produzca un éxito adaptativo. En estos casos no hay ningún individuo que deba conocer un plan al completo. Sin embargo, en cierto sentido el sistema global está bien diseñado. Constituye un método ro­ busto y computacionalmente económico de lograr la conducta deseada. La pregunta ahora es, ¿cómo se produce este diseño? Para el sistema nervioso de cada una de las termitas, una parte impor­ tante de la respuesta” es, evidentemente, «mediante la evolución». Hutchins propone que en el grupo que forma una tripulación también puede estar ac­ tuando una especie de proceso cuasi evolutivo. La característica clave es, simplemente, que se producen cambios pequeños sin una actividad de dise­ ño previa y que estos cambios tienden a conservarse en la medida en que me joren el éxito biológico. Por tanto, los cambios evolutivos implican un acre­ cimiento gradual de pequeños cambios «oportunistas»: cambios que, a su vez, alteran el «paisaje adaptativo» para cambios posteriores, tanto para la misma especie como para otras especies que habiten en el mismo ecosistema. Ahora, y siguiendo todavía a Hutchins, consideremos el caso donde un colectivo cognitivo establecido (como una tripulación) se enfrenta a un reto nuevo e inesperado. Supongamos que este reto exige una respuesta rápida y que no hay tiempo para que el grupo se reúna y reflexione sobre la mejor manera de abordarlo.1213En estas condiciones, ¿cómo puede descubrir el gru­ po una nueva división social del trabajo que responda a las exigencias del en­ 12. No deseo (ni necesito) incurrir en una petición de principio acerca de las contribu­ ciones relativas de la variación ciega y la selección natural por un lado, y de propiedades de autoorganización más fundamentales de la materia, los compuestos químicos y las células, por otro. Véanse planteamientos al respecto en Kauffman, 1993; el capítulo 8 de Dennett, 1995 y las págs. 180-214 de Varela y otros, 1991. Gracias a Arantza Etxeberria por ayudarme a acla­ rar esta importante cuestión. 13. Hutchins (1995, capítulo 8) explica con detalle un caso concreto en el que un sistema de propulsión de una embarcación fracasó inesperadamente en un momento crítico.

122 I De excursión por la mente

torno? Lo que realmente sucede, como demuestra Hutchins, es que cada miembro del grupo trata de desempeñar las funciones básicas necesarias para evitar que la embarcación encalle; sin embargo, al actuar así, cada miembro limita la actividad de los demás e influye en ella, en una dinámica que equivale a una búsqueda colectiva y en paralelo de una división del tra­ bajo nueva y al mismo tiempo eficiente desde el punto de vista computacional. Por ejemplo, cuando un miembro de la tripulación se da cuenta de que no tiene tiempo suficiente para hacer una suma crucial, le encarga el cálculo a otro tripulante. Esto, a su vez, desencadena otros efectos. La solución al problema de evitar el desastre surge como una especie de punto de equili­ brio en una serie repetida de negociaciones locales centradas en la distribu­ ción de tareas, un punto de equilibrio que está determinado tanto por las ha­ bilidades de los individuos como por la frecuencia y la secuencia de los datos de entrada. Ningún miembro de la tripulación reflexiona sobre un plan glo­ bal para redistribuir las tareas. En cambio, cada tripulante hace lo que sabe hacer mejor, negociando cualquier ayuda local o cambio de procedimiento que necesite. En estos casos se produce una búsqueda rápida y en paralelo de una respuesta colectiva coherente, pero esta búsqueda no implica ningu­ na representación localizada y explícita del espacio de las soluciones globa­ les posibles. En este sentido, como observa Hutchins, la nueva solución se encuentra mediante un proceso más semejante a la adaptación evolutiva que al diseño racionalista global. He aquí una versión algo más sencilla de la misma idea:14 imaginemos que nuestra tarea consiste en determinar el trazado óptimo de unos senderos para conectar entre sí un complejo de edificios ya construidos (por ejemplo, el nuevo campus de una universidad). La estrategia usual es el diseño racio­ nalista global, donde una persona o un grupo pequeño consideran la utiliza­ ción de los diversos edificios, los números de viandantes, etc., y buscan una pauta de enlaces óptima que refleje las pautas de uso probable. Sin embar­ go, una solución alternativa sería establecer el campus sin ningún sendero y cubriendo de césped todos los espacios entre los edificios. Al cabo de unos meses, empezarán a surgir senderos que reflejarán tanto las verdaderas ne­ cesidades de los usuarios como la tendencia de las personas a seguir sende­ ros incipientes. Al cabo de un tiempo, los senderos más marcados se podrán pavimentar y el problema se habrá resuelto sin que nadie haya tenido que considerar el problema global de encontrar una distribución óptima de los senderos o haya necesitado saber o representar los usos a los que se destinan todos los edificios. La solución se habrá encontrado por medio de una serie interactiva de cálculos aislados pequeños como, por ejemplo, «Tengo que ir 14. Tuve noticia de este ejemplo por primera vez a través de Aaron Sloman.

Sabiduría colectiva al estilo de los hongos mucilaginosos I 123

desde aquí hasta los comedores: ¿cómo lo haré?» y «Tengo que llegar al la­ boratorio de física lo antes posible: ¿cómo lo hago?». El efecto acumulado de estas múltiples decisiones locales resuelve el problema global de una for­ ma que se parece más a una especie de evolución que a un diseño centraliza­ do clásico. Al parecer, la necesidad de explicar los orígenes del éxito colectivo no nos obliga a volver a la imagen de un agente planificador central que conoz­ ca la forma del espacio de problemas global. De hecho, en ocasiones pode­ mos estructurar nuestro propio entorno de resolución de problemas como una especie de subproducto de nuestra actividad básica de resolución de problemas. En nuestro campus hipotético, los primeros viandantes estruc­ turan el entorno como un subproducto de sus propias acciones, pero los viandantes posteriores se encontrarán con un entorno ya estructurado que, a su vez, puede ayudarles a resolver, precisamente, los mismos problemas.15

4.5 Modelos de la mente oportunista Espero que estos primeros capítulos hayan transmitido una impresión cada vez más clara del carácter oportunista de gran parte de la cognición biológica. Cuando el cerebro biológico se enfrenta a las fuertes limitaciones temporales propias de la acción en el mundo real y sólo dispone de un estilo de cómputo incorporado bastante restrictivo y orientado a la compleción de patrones, aceptará toda la ayuda que pueda conseguir. Esta ayuda incluye el empleo de estructuras físicas externas (tanto naturales como artificiales), el empleo del lenguaje y de instituciones culturales (véanse también los ca­ pítulos 9 y 10) y el empleo abundante de otros agentes. Sin embargo, reco­ nocer la naturaleza oportunista y extendida en el espacio-tiempo de la ver­ dadera resolución de problemas equivale a exponerse a una potencial pesadilla metodológica. ¿Cómo podemos estudiar y comprender estos siste­ mas extendidos, complejos y a menudo construidos de una manera poco o nada intuitiva? Existe una metodología científica cognitiva clásica que, claramente, no funciona en estos casos. Es la metodología de la reconstrucción racional, que consiste en formular inmediatamente cada problema en función de un siste­ ma abstracto de relaciones entre entradas y salidas, y buscar una solución óptima para el problema así definido. Aunque es probable que, en principio, esta metodología nunca haya sido defendida ni siquiera desde la inteligencia 15. Compárese con el tratamiento de unas hormigas en una playa llevado a cabo por Hutchins (1995, pág. 169).

124 F De excursión por la mente

artificial clásica, sí que parece haber dado origen a un gran Corpus de inves­ tigación.16Pensemos en todas esas investigaciones sobre micromundos abs­ tractos: jugar a damas, colocar bloques, planificar excursiones, hacer diag­ nósticos médicos, etc. En todos estos casos, el primer paso consiste en formular el problema en términos simbólicos canónicos y el segundo consiste en bus­ car una solución eficiente definida en un espacio de oportunidades de trans­ formación de símbolos. Hemos visto (capitulo 3} que también los conexionistas heredaron la pe­ nosa tendencia a estudiar la resolución de problemas como si fuera incorpó­ rea y a establecer correspondencias entrada salida abstractas y definidas sim­ bólicamente.17 Sin embargo, desde las perspectivas de la robótica y de la infancia presentadas en los primeros capítulos, ahora parece más razonable imaginar que el entorno real de muchas tareas influye profundamente en la naturaleza de los problemas que plantean estas tareas a unos agentes activos y corpóreos. Estos problemas reales se plantean en un entorno que incluye las propiedades elásticas de los músculos y la presencia de objetos reales y manipulables en el espacio. Estas disparidades, que con tanto empeño he tratado de exponer, con frecuencia pueden marcar la diferencia en la natu raleza de una tarea computacional. De hecho, la metodología de la reconstrucción racional puede inducir a error de varias maneras fundamentales. En primer lugar, la sustitución in­ mediata de cantidades físicas reales por elementos simbólicos puede ocultar estrategias oportunistas que impliquen actuar sobre el mundo real o explo­ tarlo de alguna manera que contribuya a la resolución de problemas (recor­ demos el «principio 007»). En segundo lugar, conceptualizar el problema en función de correspondencias entrada-salida también invita a concebir la cog­ nición como una computación pasiva. Es decir, describe la etapa de salida como el ensayo de una solución a un problema. Pero ya hemos visto muchos casos (por ejemplo, las estrategias de visión animada y el empleo del botón de rotación en Tetris) donde la salida es una acción cuyo papel consiste en descubrir o crear datos adicionales que, a su vez, contribuyan al éxito final. Estos casos de lo que Kirsh y Maglio llaman «acción episrémica»18amenazan con colarse por las rendijas de cualquier imagen del éxito cognitivo funda­ mentalmente incorpórea y basada en correspondencias entrada salida. (Otra amenaza es que la búsqueda de soluciones óptimas puede inducir aún más a 16. Véase una revisión en los capítulos I y 4 de Clark, 1989. Véase también CliíT, 199-1. Se puede encontrar algo parecido a un apoyo explícito de estas estrategias racionalistas en Newell y Simón, 1981. 17. Véase el apartado 3.2 anterior. Véanse también McClelland, 1989 y Plunkett y Sinha, 1991. 18. Véase el apartado 3.5 anterior. Véase también Kirsh y Maglio, 1994

Sabiduría colectiva al estilo de los hongos mucilaginosos I 125

error al ocultar el papel de la historia en la constricción del espacio de solu­ ciones biológicamente plausibles. Como veremos en el capítulo 5, la natura­ leza está muy limitada por las soluciones obtenidas para problemas encon­ trados anteriormente. En consecuencia, la actividad cognitiva rara vez está hecha de una pieza: normalmente comprende remiendos aplicados a toda prisa a estructuras y estrategias ya existentes.) Por todas estas razones, la metodología de la reconstrucción racional pa­ rece distorsionar extremadamente la forma y la naturaleza de la cognición biológica. En su lugar, ahora podemos vislumbrar los perfiles más escuetos de una metodología alternativa: una metodología para estudiar la cognición activa y corpórea. Las características fundamentales de esta metodología pa­ recen ser las siguientes: Centrarse en el mundo real, en tiempo real. Las tareas se identifican en función del mundo real. Las entradas son cantidades físicas, las salidas son acciones. La conducta se limita a marcos temporales que son biológicamen­ te realistas. Reconocer las soluciones descentralizadas. No se parte del simple supues­ to de que una acción coordinada inteligente requiere una planificación cen­ tral detallada. Con frecuencia pueden surgir acciones globales inteligentes a partir de múltiples interacciones más elementales en las que intervienen in­ dividuos, componentes y/o el entorno. Visión extendida de la cognición y la computación. Los procesos computacionales (con frecuencia) se consideran extendidos en el espacio y en el tiempo. Estos procesos se pueden extender más allá de la cabeza de un indi­ viduo e incluir transformaciones realizadas mediante el empleo de instru­ mentos externos, y también pueden incorporar las cabezas y los cuerpos de múltiples individuos en situaciones de resolución colectiva de problemas. Así interpretado, el estudio de la cognición activa y corpórea plantea cla­ ramente unos importantes retos conceptuales y metodológicos. Entre ellos se incluyen (aunque no son todos) los siguientes: El problema de la tratabilidad. Ante esta visión radicalmente promiscua de la cognición, siempre escurriéndose hacia su entorno local, ¿cómo pode­ mos aislar fenómenos tratables para poderlos estudiar? Este desenfrenado li­ beralismo cognitivo, ¿no hace que resulte absurda la esperanza de encontrar una ciencia genuina de la mente? E l problema de la cognición avanzada. ¿Hasta qué punto podemos espe­ rar llegar con una concepción descentralizada de la mente? Seguramente existe algún lugar para la planificación central en la cognición avanzada.

126 I De excursión por la mente

Además, ¿qué ocurre con la visión de la razón individual misma? ¿Qué ima­ gen de la elección y la toma de decisiones racional está implícita en una vi­ sión radicalmente emergentista y descentralizada del éxito adaptativo? El problema de la identidad. ¿Qué lugar ocupa en todo esto la persona in­ dividual? Si los procesos cognitivos y computacionales entrecruzan afanosa­ mente los límites de la piel y el cráneo, ¿implica esto alguna extensión corre­ lativa de la identidad personal hacia el entorno local? Dicho de una manera menos misteriosa, ¿implica esto que los cerebros y los organismos indivi­ duales no son objetos apropiados para el estudio científico? Desde luego, conclusiones como éstas serían bastante difíciles de discernir. Nos encontramos aquí con una mezcla de inquietudes prácticas (¿cómo podemos estudiar la mente corpórea y embebida?}, problemas sin resolver (¿funcionará el mismo tipo de explicación para la cognición verdaderamen­ te avanzada?) y anomalías conceptuales (una cognición escurridiza, ¿implica personas escurridizas? Los cerebros, ¿son en algún sentido objetos inade­ cuados para el estudio?). En los capítulos restantes abordaré todas estas cuestiones. Especialmente trataré de responder de manera detallada a las in­ quietudes prácticas y metodológicas (capítulos 5-7), trataré de aclarar los problemas conceptuales (capítulos 6 y 8) y empezaré a abordar el acuciante pro­ blema de la cognición avanzada (capítulos 9 y 10). Propondré que la clave para integrar los datos sobre la cognición avanzada con la visión de una cog­ nición activa y corpórea reside en comprender mejor los papeles de dos an­ damiajes o apoyos externos muy especiales: el lenguaje y la cultura. En resumen: la muerte de la reconstrucción racional crea una especie de vacío conceptual y metodológico. Nuestra tarea consiste ahora precisamen­ te en llenar este vacío.

Intermedio: una historia condensada La ciencia cognitiva, tal como se ha esbozado en los capítulos preceden­ tes, se puede contemplar como una progresión en tres etapas. La primera (el apogeo del cognitivismo clásico) describía la mente en función de un dispo­ sitivo lógico central, unas bases de datos simbólicas y algunos módulos peri­ féricos «sensoriales». Las características fundamentales de esta visión in­ cluían estas ideas: i la memoria como recuperación de una base de datos simbólica almace­ nada, la resolución de problemas como una inferencia lógica,

Sabiduría colectiva a! estilo de los hongos mucilaginosos I 127

la cognición como un proceso centralizado, el entorno como un (simple) ámbito de problemas, y el cuerpo como periférico de entrada. La revolución conexionista (redes neuronales artificiales) tenía como ob jetivo sustituir las tres primeras características por las siguientes: la memoria como re-creación de patrones, la resolución de problemas como compleción y transformación de dichos patrones, y la cognición como un proceso progresivamente descentralizado. Sin embargo, este replanteamiento radical de la naturaleza del dispositi­ vo cognitivo interno estaba acompañado, en gran medida, de una aceptación tácita de la clásica marginación del cuerpo y el mundo. A este clasicismo re­ sidual se enfrentan directamente las investigaciones antes presentadas. En estas investigaciones se mantienen los principios más generales de la con­ cepción conexionista, aunque potenciados por las siguientes imágenes: una imagen del entorno como recurso activo cuya dinámica intrínseca puede desempeñar importantes funciones en la resolución de problemas, y una imagen del cuerpo como parte del bucle computacional. Tomarse en serio de esta manera el cuerpo y el mundo invita a adoptar una perspectiva emergentista en relación con muchos fenómenos fundamen­ tales; equivale a considerar que el éxito adaptatívo es tan inherente a las complejas interacciones entre cuerpo, mundo y cerebro como a los procesos internos limitados por la piel y el cráneo. Sin embargo, los desafíos a los que se enfrenta este enfoque son numerosos y profundos. El más crucial es la acuciante necesidad de equilibrar de alguna forma el tratamiento de la apor­ tación interna (centrada en el cerebro) y el tratamiento de los factores exter­ nos, de una manera que haga justicia a cada cual. Este problema se mani­

128 ¡ De excursión por la mente

fiesta como una serie de inquietudes de cariz bastante abstracto, aunque son inquietudes con importantes consecuencias concretas para la dirección y la metodología de una ciencia de la mente corpórea. Estas inquietudes in­ cluyen: encontrar el vocabulario adecuado para describir y analizar los procesos que entrecruzan el límite agente/entorno, aislar para su estudio sistemas adecuados a gran escala y motivar alguna descomposición de estos sistemas en partes y procesos componentes que interaccionen entre sí, y comprender expresiones familiares como «representación», «computa­ ción» y «mente» de maneras que encajen con la nueva imagen (o, si no, rechazar por completo estas expresiones). En resumen: ¿cómo debemos concebir el tipo de fenómenos que hemos expuesto y cuántas de nuestras viejas ideas y prejuicios tendremos que aban­ donar para hacerlo? A esta cuestión se dedica la segunda parte.

Segunda parte EXPLICAR LA MENTE EXTENDIDA

N uestro propio cuerpo está en el mundo com o el corazón en el organism o... forma un sistema con él. M á URICE M erleau -Po n t y , Phenomenology o/Percepíion. Versión en castellano del pasaje traducido al inglés por David H ilditch en su tesis doctoral (Universidad de Washington, 1995).

LAMINA 1. Representación tridimensional de la corteza cerebral y de los principales centros visuales subcorticales del macaco. La figura abarca todo el hemisferio derecho. Fuente: van Essen Press.

y

GalJant, 1994 Reproducida por gentileza de David van Esten, Kack Gallant y Cell

A,

0,7

65,6 ■

O'*-

$ }{

'/ / / i|

% O l í

>I
M '# © OO

O u Cartesianas

Hiperbólicas

B. -

'

Polares

62,4

0,9 1ll

I ..

= -II $ •#