Corpúsculos: Mentes y Máquinas


265 66 688KB

Spanish Pages [110] Year 2019

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Prefacio
MENTES
¿Cuánto dura el presente?
Midiendo el tiempo subjetivo
Percibiendo longitudes de onda
Las restas de realidad del cerebelo
Midiendo la consciencia: el número Φ
Buscando Σ
Tú no existes
La hipótesis de la mente extendida
El neurocirujano de Dennett
La mente como una interfaz
MÁQUINAS
Robolución y void problem
El maximizador de sujetapapeles y el fin de la humanidad
Irrelevantes humanos
El caso Dreyfus: filósofos contra ingenieros
Inteligencia sin mente
La robolución y el fin del mundo
Creatividad versus relevancia: ¿Pueden crear las máquinas?
Saliendo de la habitación china
El robot de Dennett o cómo navegar en un infinito de información
El tic-tac-toe y el sesgo de los detectores de mentes
El mito del despertar de la máquina
Recommend Papers

Corpúsculos: Mentes y Máquinas

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

CORPÚSCULOS Mentes y Máquinas

A Paula, Vega, Cristina y Alberto mis amig@s.

Contenido PREFACIO MENTES ¿CUÁNTO DURA EL PRESENTE? MIDIENDO EL TIEMPO SUBJETIVO PERCIBIENDO LONGITUDES DE ONDA LAS RESTAS DE REALIDAD DEL CEREBELO MIDIENDO LA CONSCIENCIA: EL NÚMERO Φ BUSCANDO Σ TÚ NO EXISTES LA HIPÓTESIS DE LA MENTE EXTENDIDA EL NEUROCIRUJANO DE DENNETT LA MENTE COMO UNA INTERFAZ

MÁQUINAS ROBOLUCIÓN Y VOID PROBLEM EL MAXIMIZADOR DE SUJETAPAPELES Y EL FIN DE LA HUMANIDAD IRRELEVANTES HUMANOS EL CASO DREYFUS: FILÓSOFOS CONTRA INGENIEROS INTELIGENCIA SIN MENTE LA ROBOLUCIÓN Y EL FIN DEL MUNDO CREATIVIDAD VERSUS RELEVANCIA: ¿PUEDEN CREAR LAS MÁQUINAS? SALIENDO DE LA HABITACIÓN CHINA EL ROBOT DE DENNETT O CÓMO NAVEGAR EN UN INFINITO DE INFORMACIÓN EL TIC-TAC-TOE Y EL SESGO DE LOS DETECTORES DE MENTES EL MITO DEL DESPERTAR DE LA MÁQUINA

“- Vamos, ¿no creerán que de veras hay un espíritu en esa cosa? - Es posible. He oído decir que las muñecas de celuloide pueden tener un alma. Y esta cosa está repleta de dispositivos neuro-eléctricos. En verdad no me sorprendería que tuviese un alma. Ya que eres nuevo aquí, probablemente no lo sepas. El cuerpo de la Mayor también fue producido por Megatech. Y no sólo el suyo. El mío y el de Ishikawa también junto con el de Saito y otros, todos necesitan un mantenimiento periódico. A excepción tuya y del jefe, todos en la Sección 9 necesitamos hacer uso de los servicios de mantenimiento.” Fragmento de una conversación de la película Ghost in the Shell (1995)

Prefacio Corpúsculos es una recopilación de entradas del blog La Máquina de Von Neumann, desde 2016 a finales de 2018. Constituye la tercera parte de una trilogía, comenzada allá por 2012 con Cápsulas y seguida por Coordenadas, si bien no hay más hilo argumental entre las tres obras que ser recopilaciones de artículos del mismo autor. En ésta en concreto predominan los dos temas que más me han ocupado en los últimos años, en detrimento de otros que toqué en obras anteriores y que, quizá, el lector eché de menos. Aquí no hablo ni de filosofía de la ciencia, ni de teoría política, ni de teoría de la evolución, me centro en la mente y en la posibilidad de simularla en máquinas. De eso va este libro. Por un lado, parece increíble que después de miles de años de civilización estemos todavía tan mal en nuestro conocimiento de la mente. Mientras que la física ha avanzado muchísimo descubriendo el mundo de lo muy pequeño, o la biología ha hecho grandes aportes al mundo de lo vivo, la mente sigue allí, casi inexplorada, virginal, tras un muro infranqueable a nuestras pesquisas. A días de hoy no existe ninguna teoría unificada de lo que es la mente, ni siquiera una definición comúnmente aceptada (es más, hay autores que niegan su misma existencia). Y, aproximadamente de la misma forma está el conocimiento biológico del cerebro. Por mucho que nos hablen de resonancias magnéticas funcionales, de neuronas y sinapsis, de potenciales de acción y de neurotransmisores… la ciencia del cerebro está en pañales. Solo hemos tocado la superficie, y al hacerlo, nos hemos dado cuenta de su insondable complejidad. Por mucho que nos quieran vender, siendo honestos, no sabemos todavía muy bien cómo funciona una neurona, qué menos sobre clusters de millones de ellas funcionando en paralelo en inescrutables procesos bioquímicos. Hoy sabemos casi lo mismo que en la Edad Media de cómo el cerebro genera la mente. No obstante, no se asuste tanto el lector: hablaremos de lo que sí sabemos que, aunque poco, es fascinante. Y con respecto a las máquinas pasa lo mismo. Si bien es cierto que los últimos avances en Deep learning son espectaculares, estamos a años luz de simular mentes reales. Sin embargo, hay muchos autores con un entusiasmo desbordante en las posibilidades de las ciencias de la computación. Todos

hemos oído hablar muchas veces de la singularidad tecnológica (término acuñado por un escritor de ciencia ficción: Vernon Vinge) o de la explosión de inteligencia (que ha dado mucho juego al filósofo Nick Bostrom), ese gran momento en el que las máquinas nos superarán y entonces tendrán que decidir qué hacen con nosotros. También se ha hablado del mind uploading, de poder subir la mente humana a un computador, que además nos llevará a una paradisíaca inmortalidad digital. A pesar de que estas ideas sean muy evocadoras y den mucho de sí para reflexionar y debatir, no hay que tomarlas demasiado en serio puesto que no existe base científica alguna que las sustente. Los gurús de la IA, seguramente por razones de marketing puro y duro, nos están dando gato por liebre, vendiéndonos un producto que todavía no ha sido ni planteado seriamente por su futuro creador. En 2019 todavía no tenemos máquinas más conscientes que un tostador, ni con la más mínima sensación o sentimiento. Así mismo estamos todavía muy lejos de una Inteligencia Artificial General. Desafortunadamente, solo tenemos magníficos (y sobrehumanos) hiperespecialistas, es decir, máquinas increíblemente buenas haciendo cosas muy concretas. En este libro podrás leer como desmontamos muchos mitos y errores a la hora de comprender a las máquinas pensantes. Santiago Sánchez-Migallón Jiménez En algún momento de 2019

MENTES

¿Cuánto dura el presente? Los antiguos establecieron la triada presente, pasado y futuro para describir el tiempo como algo que fluye, un río que avanza sin que nadie pueda detenerlo. Quizá la inexorabilidad de su paso es lo que más se haya repetido en la literatura occidental: no podemos parar el tiempo por mucho que lo hayamos deseado. El pasado queda atrás inamovible, con todos nuestros grandes errores allí sin que podamos hacer nada para que jamás hubieran ocurrido; el presente se disuelve, pasa efímero y se nos escapa de las manos como un puñado de arena entre los dedos; y llega el futuro, siempre impredecible y aterrador, destino último de todo, en dónde para colmo, nos espera la vejez y la muerte. El tiempo se ha entendido como un presente móvil, que transcurre a un ritmo regular, tan regular que todos los seres humanos (y no humanos) parece que vivimos exactamente en el mismo momento del presente. Percibimos una absoluta sincronicidad temporal entre todos los objetos del universo ¿Por qué? Una excelente cuestión filosófica es preguntarse: ¿cómo es posible que toda la diversidad de organismos que vivimos en el universo (al menos los que tenemos noción del tiempo) percibimos el ahora exactamente en el mismo momento? La respuesta tradicional la encontramos en la física newtoniana: es que el tiempo es algo real, externo a nosotros y objetivo, un horizonte universal en donde todo sucede. La flecha del tiempo es ontológicamente real. Para Newton, si hay dos entidades inmutables e inmóviles son el espacio y el tiempo. Ambos serían los continentes del universo y todos los objetos del universo su contenido. Sin embargo, ya muchos sospecharon que algo no funcionaba bien en esta visión. En primer lugar, el tiempo es algo de lo que empíricamente no tenemos constancia alguna: no se ve, ni se huele, ni se oye ni se puede tocar… Lo único que podemos percibir con su paso son los procesos físicoquímicos que observamos en la naturaleza. Yo observo a un ser humano envejecer y, al hacerlo, observo una infinidad de procesos biológicos, pero…

¿observo el tiempo mismo por algún lado? No, ¿y si realmente todo esto es una ilusión? La relatividad de Einstein lo dejó claro: esa sincronicidad temporal sí era una ilusión. El tiempo pasa más rápido o más lento en función del movimiento que realice el objeto. El tiempo puede estirarse y contraerse y no para todo el mundo de la misma manera sino de forma diferente para todos. Esta idea es de las más contraintuitivas que jamás se han propuesto: ¿cómo es posible que mi presente sea diferente al de cualquier otra persona? ¿Cómo podemos vivir en tiempos diferentes si, claramente, veo que vivimos en el mismo? Pero, ¿qué es el presente? ¿Cuánto dura? En un interesante, y muy divulgado, experimento de los investigadores del MIT Jason Fischer y David Whitney, sometieron a un grupo de sujetos a la visualización de varias series de parches de Gabor. Se les mostraban las imágenes durante medio segundo y se les pedía que describieran los ángulos de inclinación. El experimento concluía que los resultados de las visualizaciones anteriores interferían en los resultados de las siguientes. Por ejemplo, si se mostraba un grupo de líneas paralelas en horizontal y, a los pocos segundos, otro de líneas paralelas en vertical, el sujeto concluía que las segundas no eran totalmente verticales, sino que estaban inclinadas. Los efectos de la distorsión disminuían cuando, entre la visualización de ambas imágenes, pasaban más de quince segundos. De aquí concluyeron Fischer y Whitney que nuestro presente es algo así como el promedio de los últimos quince segundos. Pero, ¿por qué hace esto nuestra mente? Porque, en general, nuestro mundo tiene una cierta estabilidad, por lo que, si pretendes acertar haciendo predicciones muy rápidas, parece una excelente estrategia apostar por cierta estabilidad, porque las cosas no cambien en un corto periodo de tiempo. A este intervalo lo han llamado “campo de continuidad”, es decir, el lapso de tiempo en el que la realidad nos parece continua porque conectamos, ya sea correcta o erróneamente, los eventos que en ella suceden. Estas ideas encajan muy bien con las de Tononi o Dehaene acerca de la consciencia. Estos dos conocidos neurocientíficos piensan que la consciencia

de algo surge cuando hay una alta integración de información de diversas fuentes. Cuando yo percibo un suceso integro mucha información sensorial (veo muchas formas y colores, oigo, toco, huelo…) de modo que la unifico en una representación consciente. El “campo de continuidad” es una forma de integración de información, es una forma de hacer coherente un caos de estímulos perceptuales, para poder intervenir en la realidad de la forma más eficaz posible. Otros experimentos realizados por el famoso Benjamin Libet (descritos en su libro Mind Time: The temporal factor in consciousness. Por supuesto, no traducido al castellano) nos muestran el tiempo mínimo para que algo sea captado a nivel consciente. Situando electrodos en la corteza somatosensorial del cerebro de los sujetos experimentales, Libet comprobó que, si aplicaba pequeñas descargas eléctricas de menos de 500 milésimas de duración, dichos sujetos no percibían nada a nivel consciente (ya ves tú que experimento más complejo). No podemos captar conscientemente nada que dure menos de medio segundo (esta cifra ha sido corroborada también con experimentos del equipo de Dehaene). A nivel inconsciente somos mucho más rápidos, del orden de milisegundos. Téngase en cuenta que siempre tardamos algo de tiempo en procesar la información recibida, de modo que desde que un estímulo visual golpea nuestra retina hasta que esta información es procesada en diversas partes de nuestro cerebro hasta hacerla consciente, pasa tiempo. Vivimos siempre con algo de lag, siendo conscientes de la realidad con un pequeño retraso con respecto al presente. Evidentemente, en términos evolutivos, ese retraso ha de ser el menor posible si queremos sobrevivir por lo que, al menos a nuestra escala (comparados con competidores biológicos), no somos demasiado lentos: podemos cazar moscas. En esta línea parece justificado identificar la consciencia con la memoria a corto plazo (MCP) y con mi sensación de presente. La MCP es como una especie de memoria RAM o de trabajo (hay psicólogos que distinguen MCP de memoria de trabajo, pero a mí no me convence la distinción) que utiliza mi mente para afrontar las situaciones cotidianas de modo eficiente. Si la consciencia tiene algo que ver con la integración de información en un determinado momento del tiempo (llamémosle presente) para hacerla útil,

parece que hablar de consciencia, MCP y sensación de presente es básicamente lo mismo. Otro experimento, igualmente muy divulgado, lo llevó a cabo la psicóloga del desarrollo de la Universidad de Dundee, Emese Nagy. En él, sencillamente, se medía la duración de los abrazos que atletas olímpicos se daban después de cada competición. Se estudió la duración de 188 abrazos entre jugadores de 21 deportes distintos y de 32 países diferentes. Había abrazos más largos (a sus entrenadores) y más cortos (a sus rivales), pero el promedio rondaba los tres segundos. Nagy piensa que esta cifra es extensible de los abrazos a otras muchas acciones cotidianas, de modo que tres segundos puede representar la duración del “presente psicológico” o “sentimiento del ahora” de nuestra especie. Un estudio anterior realizado por Geoffrey Gerstner y Louis Goldberg, extendía esos tres segundos a seis especies de mamíferos no-primates (canguros, corzos, jirafas, mapaches, okapis y osos panda). Se observó el tiempo que tardaban en realizar diversos eventos modelo de movimiento (masticar, defecar, manipular u observar algo, etc.) y, si bien la duración era variable, el promedio daba el mismo número mágico: tres segundos. Gernstner y Goldberg concluían que esta constante común a diversos órdenes de mamíferos puede representar algún mecanismo neural ancestral. Parece que nuestra concepción del tiempo viene de mucho tiempo atrás.

Midiendo el tiempo subjetivo La sensación subjetiva del paso del tiempo es variable. Todos hemos sentido ese rato de espera interminable o ese atasco de tráfico desesperantemente largo, mientras que esa noche tan divertida entre amigos o esa magnífica clase de ese profesor tan bueno (como las que yo doy of course), duraron un suspiro ¿Por qué lo bueno dura poco y lo malo dura mucho? John Wearden, de la Universidad de Keele (Reino Unido) sostiene que cuando el tiempo pasa rápido es en situaciones en las que hemos estado tan concentrados en lo que sucedía que en ningún momento nos hemos puesto a pensar en el paso del tiempo. Habitualmente tienen que ser indicadores externos los que nos informen de ello: cierran la discoteca, se hace de noche de repente o nos llaman por teléfono para decirnos que nos hemos entretenido y que llegamos tarde. Cuando el tiempo pasa rápido siempre nos percatamos después de una inferencia a posteriori, nunca en el mismo momento en que el tiempo pasa. En cambio, cuando notamos que el tiempo pasa lento es siempre en circunstancias en las que no tenemos ninguna actividad en mente, momentos de aburrimiento. Solo entonces sentimos el lento pasar del tiempo en vivo y en directo. ¿Qué podemos deducir de aquí? 1. Tenemos un “sensor” o un “sentido interno” para captar (o construir) el paso del tiempo. Wearden se queja de que en los manuales de psicología de la percepción se dedican muchísimas páginas a la percepción visual o auditiva, mientras que, casi siempre, no hay nada acerca de la percepción temporal. La razón es que no es evidente la existencia de un sentido para el tiempo, de modo tan patente como en los sentidos tradicionales: ojo, nariz, oído, piel… El sentido que capta el tiempo está en el cerebro y cada vez vamos sabiendo mejor dónde: ganglios basales, cerebelo, hipotálamo y córtex frontal intervienen en nuestra percepción temporal. 2. Decir que “me doy cuenta de que el tiempo pasa despacio” no es más que una forma ilusoria de decir “no hay cambios a mi alrededor”. Percatarse de la

lentitud del paso del tiempo podría ser, sencillamente, una muestra de aburrimiento ante la ausencia de una novedad importantísima para el aprendizaje y desarrollo humanos. Solemos estar siempre ávidos de novedades, sedientos de que pase algo diferente, por lo que la percepción del tiempo subjetivo podría ser solamente la expresión de esta necesidad y no una medición objetiva de lo que está pasando. Realmente, el tiempo a escala humana no se acelera ni se desacelera de modo perceptible (ya que no viajamos a velocidades cercanas a la luz), de modo que esa sensación de paso rápido o lento, es ficticia. Esto no quiere decir que el tiempo objetivo no exista (si bien filósofos como Kant o, actualmente, físicos como Julian Barbour, así lo han sostenido) ni que no captemos realmente su paso. Este sensor ligado a los acontecimientos no es el único reloj del que disponemos. Se han realizado multitud de experimentos en los que se estudiaba la precisión con la que individuos calculaban el paso del tiempo (por ejemplo, una duración de tres minutos) y, los resultados concluían que somos bastante buenos haciéndolo (el promedio de error rondaba los pocos segundos para sujetos jóvenes), lo cual, necesariamente indica la existencia de relojes internos bien diseñados para su función. Además, si pensamos en la práctica de ciertas actividades, necesitamos relojes muy precisos que funcionen al orden de milisegundos. Cuando hablamos o escuchamos música, tenemos que ser capaces de diferenciar sonidos o fonemas de cortísima duración que se suceden a un ritmo frenético. Así mismo, cuando practicamos un deporte y, por ejemplo, interceptamos una pelota, la velocidad de la acción implica toma de decisiones (casi siempre cuasi-inconscientes) igualmente rápidas, surgidas de mediciones muy exactas. Nuestra mente tiene muchos relojes para diferentes funciones que pueden incluso interferirse y contradecirse. Podemos sentir que las horas se hacen larguísimas pero los días o los años pasan muy rápido. En la medición del tiempo vivencias, emociones y experiencias, se mezclan con diversos cronómetros corporales que, a la vez, utilizan indicadores internos (químicos) y externos para orientarse. De nuevo, una función mental es mucho más compleja de lo que parecía.

Percibiendo longitudes de onda Cuenta Oliver Sacks en Un antropólogo en Marte la historia de un pintor que, debido a una lesión cerebral, sufre una acromatopsia muy limpia (sin

verse interferida por otros trastornos). Su área cerebral V4, del tamaño de una judía, había sido dañada, por lo que había perdido toda visión del color. Sin embargo, en contra de lo que podría pensarse, este desafortunado pintor (hay que tener mala suerte de dedicarte a los colores y sufrir, precisamente, este rarísimo trastorno), no veía simplemente en blanco y negro, o en tonos de gris, sino de una forma mucho más extraña. Si nos vamos a la teoría física del color, descubrimos que los objetos absorben la luz que les llega según su cambiante longitud de onda. Un objeto, por ejemplo, de color rojo, absorbe toda la luz menos la que le llega con una longitud de onda de alrededor de 650 nanómetros, la cual es reflejada, rebota en la superficie del objeto y llega a nuestra retina. Debido a los constantes cambios de luminosidad (diferentes tipos de luz, momentos del día, sombras y reflejos proyectados sobre el objeto, movimiento…) la longitud de onda que nos llega de un mismo objeto es muy variable. Sin embargo, nosotros, seguimos percibiendo el mismo objeto a pesar de ser cambiante. Es lo que se llama constancia del color: para que la realidad sea coherente, comprensible, simple, re-pintamos los colores haciéndolos más estables de lo que realmente son. En la celebérrima ilusión óptica del tablero de Adelson, las casillas A y B son exactamente del mismo color a pesar de que todos apostaríamos hasta nuestro último céntimo de euro a que son diferentes. Al ser del mismo color, en condiciones de luminosidad normales, nuestro cerebro las recibe con la misma longitud de onda. Sin embargo, las interpreta, las colorea, de forma diferente porque quiere que la imagen sea coherente y comprensible. Así, sigue la lógica del tablero de ajedrez (toda casilla rodeada de casillas oscuras será más clara) y de la sombra que proyecta el cilindro (la sombra oscurece unos tonos la casilla clara). Nuestra percepción no es un fotómetro pasivo, sino que reconstruye lo que ve en función del contexto, de las expectativas y de la experiencia pasada del sujeto. El paciente de Sacks relataba que tenía enormes problemas para conducir porque confundía sombras proyectadas en la calzada con grietas. Había perdido toda su constancia perceptiva, por lo que su mundo se volvía mucho más inestable, cambiante, porque cualquier cambio de luminosidad implicaba

un cambio en el objeto o en la situación a percibir. Según Sacks, su percepción visual estaba atrapada fundamentalmente en la corteza visual primaria (V1), en un mundo precromático (del que quizá no podía decirse ni que estaba coloreado ni que estaba sin colorear), una realidad que los que vemos con normalidad no podemos imaginar (al igual que a un ciego de nacimiento le es imposible imaginar cualquier color). Por eso el pintor no era capaz de describirlo con exactitud, no tenía palabras para hacerlo, y esa incomprensión lo frustraba aún más. El señor Jonathan I. (seudónimo para respetar la privacidad del paciente) hablaba de un mundo de pesadilla. Los tonos claros eran vistos como blancos sucios, enfermizos, mortecinos (de hecho, tenía muchos problemas para comer porque el aspecto de los alimentos le daba asco). Los blancos eran demasiado deslumbrantes pero descoloridos, color hueso, y los negros eran cavernosos. Experimentaba un excesivo contraste y una falta de sensibilidad a variaciones tonales sutiles, lo que causaba que, a veces, viera un objeto solamente como una mera silueta oscura dentro de la que no podía distinguir nada, en un fuerte contraste con un fondo claro. Además, todo estaba envuelto en una neblina grisácea… todo parecía falso, postizo, antinatural… Incluso las personas le parecían “estatuas grises y animadas” y el color carne se le antojaba “color rata”. Por buscar analogías para hacerse comprender, Jonathan hablaba de que su realidad estaba iluminada por una lámpara de sodio (que suele eliminar color y sutileza tonal) o como si fuera una foto hecha por un carrete Kodak Tri-X con la velocidad de obturación forzada. Una fotografía así, vista desde la distancia de nuestro mundo en color es bonita, pero piense el lector en vivir atrapado en una realidad así, en la que el rostro de la señorita tiene siempre esas tonalidades… Creo, dentro de lo posible, entender la pesadilla que estaba viviendo Jonathan I. Pero lo sumamente interesante de este caso es que, según Sacks entiende, Jonathan percibía, por así decirlo, longitudes de onda puras, es decir, una realidad menos construida, menos interpretada o procesada (y, por lo tanto, falseada), la de la corteza visual primaria. Colorear la realidad, tal y como hace el área cerebral V4 es reconstruirla para hacerla más estable y coherente, pero al hacerlo se la falsea al igual que pasa con el escaque B del tablero de Adelson. Podría entonces decirse que Jonathan I. estaba más cerca de la

realidad en sí, del mundo “sin añadidos humanos” (sin categorías kantianas) que estamos los que vemos en color. Empero, ¿había accedido Jonathan a un conocimiento superior, más verdadero y revelador que el que tenemos los demás? Rotundamente no. Simplemente, Jonathan I. cambió de mundo perceptivo, no llegó a otro mejor. Sacks nos cuenta que, después de una primera época de rechazo y depresión, terminó por acostumbrarse e, incluso, por ver esa forma diferente de contemplarlo todo como un don del que ya no estaba dispuesto a renunciar. Comenzó a pensar que los colores (que terminó por olvidar por completo) eran un estorbo que impedían la observación de ciertas texturas y estructuras sutiles que solo ahora podía contemplar. Se volvió noctámbulo y afirmaba disfrutar del mundo de los bares o restaurantes nocturnos, de como “la oscuridad entraba en ellos”. El plástico cerebro de Jonathan se adaptó a su nueva circunstancia.

Las restas de realidad del cerebelo El siempre supravalorado Aldous Huxley escribía en el icono hippie Las puertas de la percepción, que la consciencia era una especie de “cuello de botella” que solo dejaba ver un pequeño “hilo de realidad”. Nuestra consciencia, debido a nuestras limitaciones como especie, solo podría prestar atención a una serie limitada de estímulos. Drogas como el LSD podrían “abrir” las “puertas de la percepción” y darnos acceso a partes de la realidad a las que nuestra consciencia serial, lineal y limitada no podía acceder de normal. Es más, para Huxley el uso de psicotrópicos podía llevarnos al ser puro, a contemplar la realidad-en-sí. Si bien es cierto que alterar nuestra consciencia de la realidad puede hacernos percibir el mundo de otra manera y eso puede llevarnos a grandes resultados creativos, nada hay de verdadero en que lleguemos a algo que podamos considerar como la realidad-en-sí. En general, el uso de sustancias psicotrópicas distorsiona la visión funcional de la realidad, es decir, empeora tu percepción más que abrirte las puertas a mejores lugares. Siempre me ha parecido muy erróneo, cuando no dañino, entender el uso de las drogas de modo espiritual o cuasi-religioso. No amigos, el ácido lisérgico no te va a llevar a descubrir tu “yo interior” (¿qué diablos es el yo interior?), ni va a suponer una fase más en un camino de autorrealización personal. El ácido te hará pasar un buen rato teniendo alucinaciones y sintiéndote eufórico (o todo lo contrario si te da un bad trip), pero poco más. Suena un tanto extraño que el ser humano no hubiese podido llegar a la plenitud de su existencia espiritual hasta que Albert Hofmann sintetizará el LSD en 1938 ¿Nuestro organismo habría sido diseñado por eones de selección natural para crear un sistema nervioso adecuado para que el ácido nos llevará a la visión deifica? No, nuestro cerebro no está diseñado ni para conocer la realidad en sí misma, ni mucho menos para llegar a contactar con dioses ni espíritus interiores. Nuestro cerebro está diseñado originariamente para sobrevivir en determinados entornos (fundamentalmente, para moverse eficazmente en ellos). Y, como vamos a ver, para ello no hace falta abrir las puertas de la percepción para conocer la realidad en su totalidad, sino más bien todo lo contrario.

El cerebelo es la parte del encéfalo encargado de la coordinación de los movimientos. Es por ello que cuando se le daña, el sujeto no pierde la capacidad de moverse, sino que sus movimientos se descontrolan, se hacen torpes y desequilibrados, teniendo problemas para realizar cualquier acción motora. Para realizar esta tarea directora el cerebelo distingue muy bien entre movimientos previsibles e imprevisibles (¿No será nuestra capacidad de prever el futuro una evolución posterior de la función cerebelar?). Cuando alargamos un brazo para coger una taza de café, sentimos, por ejemplo, el tacto de nuestra camisa rozando nuestra piel. Esta sensación no es relevante, no es importante en la ejecución de la acción, por lo que el cerebelo “la resta” de nuestro foco de atención. El cerebelo recibe toda la información y diferencia la que es totalmente predecible y prescindible, de la necesaria para llevar a cabo correctamente la acción. Es por eso que no podemos hacernos cosquillas a nosotros mismos. El cerebelo predice donde pondremos las manos, por lo que no hay sorpresa y el hilarante resultado del ataque de cosquillas no se produce. El neurocientífico británico Daniel Wolpert realizó unas investigaciones en las que monitorizó a una serie de individuos mediante IFRM (Resonancia magnética funcional) mientras les hacían cosquillas. En el escáner aparecía una fuerte activación de la corteza somatosensorial, pero el cerebelo permanecía silencioso. Después se pidió a los sujetos que intentarán hacerse cosquillas a ellos mismos en las partes del cuerpo donde antes las habían recibido. El resultado se invirtió: poca actividad en la corteza somatosensorial y mayor actividad en el cerebelo. Explicación: el cerebelo envió mensajes inhibidores a la corteza cuando previó el movimiento del ataque de cosquillas, discriminando entre el movimiento auto-generado y áltergenerado (¿Origen de la diferenciación entre el yo y los otros?). Un segundo experimento volvía a mostrar lo mismo. Wolpert situó a dos sujetos en torno a una especie de pedal de bicicleta capaz de medir la fuerza con la que se lo presionaba. Un sujeto experimental ponía su dedo índice encima del pedal y otro lo sostenía con el mismo dedo por debajo, con la palma de la mano abierta. A ambos se les dio la instrucción de responder cualquier aumento de presión en el pedal con otro movimiento de

exactamente la misma fuerza (Ninguno de los dos sabía que el otro había recibido la misma instrucción). El curioso resultado es que cuando los sujetos se turnaban pulsando, ante la presión ejercida por el otro, la respuesta intensificaba la fuerza de manera muy significativa. Ellos juraban y perjuraban que era el otro el que había apretado con mucha más fuerza, por lo que ellos, únicamente, habían intensificado la presión para igualarla. Así se producía una escala de represalias tantas veces vista en el patio de los colegios: cuando, jugando al fútbol, uno sufre una falta, es muy común que en la siguiente jugada se la devuelva al agresor, pero siempre con algo más de fuerza, lo que rápidamente genera una escala de represalias que, muchas veces, termina en pelea. La explicación es la misma que con las cosquillas. El cerebelo recibe la orden de responder a la presión con la misma fuerza, pero, poco a poco, va restando parte de la sensación de fuerza esperada, por lo que el mensaje que llega a la corteza somatosensorial es de una fuerza menos intensa que la real. Para superar esta inhibición la corteza da la orden de subir la fuerza de la respuesta, pero no lo hace en la medida correcta, por lo que se produce el desajuste y la posterior escalada. En este sentido es muy interesante comprobar como un mecanismo que funciona tan bien para coordinas movimientos tan sofisticados y complejos como los que realiza un gimnasta de élite, falla estrepitósamente en un mero intercambio de mediciones de fuerza. Y es que el cerebro dista mucho de ser una máquina perfecta. Como contaba Borges en su tantas veces citado relato Funes el memorioso, nuestra selección restrictiva de información no es tanto una cuestión de limitación como de que, percibiendo toda la serie de estímulos que nos bombardean sin discriminación alguna, sería imposible cualquier acción mental. Pensemos qué sería percibir visualmente sin discriminar qué objetos son relevantes para lo que pretendemos hacer, qué figuras son obstáculos, amenazas, o ayudas para nuestros planes. Alguien que como el Funes de Borges tuviese una imagen especular del mundo metida en su cerebro, no podría pensar ni hacer maldita la cosa. Y es que conocer no es saberlo todo, no es tener una representación mental completamente idéntica a la realidad, conocer es saber separar el grano de la paja. Quizá entonces será mucho más importante la tarea de borrado, la tarea cerebelar de inhibir o restar toda la

ingente cantidad de ruido que nos acecha para quedarnos sola y exclusivamente, con lo necesario. Conocer es, en gran medida, olvidar.

Midiendo la consciencia: el número Φ A día de hoy, la mejor teoría acerca de la naturaleza de la consciencia se la debemos al neurocientífico italiano Giulio Tononi, partiendo de la base de la

teoría del núcleo dinámico (elaborada junto a Gerald Edelman en los años noventa) y teniendo continuadores y defensores en el norteamericano Christof Koch o en el matemático Adam Barrett. A priori, la teoría es simple: todo sistema lo suficientemente complejo para integrar información será consciente. La cantidad o cualidad de la experiencia consciente dependerá de la cantidad de información que el sistema sea capaz de integrar. La teoría de la información integrada (TII) baila entre dos polos: 1. La enorme riqueza informacional (cantidad y variedad) de la experiencia consciente. No solo percibimos en distintas modalidades sensoriales (vista, oído, tacto, interocepción…), sino que la cantidad de estímulos sensoriales de cualquier experiencia sensible es muy alta. Quite el lector la vista de la pantalla, mire a su alrededor y compruebe la maravillosa variedad de formas y tonalidades de color que puede percibir (y no solo las que percibe actualmente, sino las que potencialmente puede llegar a percibir). A nivel más técnico, Tononi define información como una propagación causal dentro de un sistema, capaz de reducir la incertidumbre (en el fondo, es la misma que la clásica de Shannon). Sin embargo, la riqueza informacional es condición necesaria pero no suficiente para la experiencia consciente. En su famoso paper “Consciousness: Here, There but Not Everywhere”, Koch y Tononi ponen el ejemplo de un electrodiodo que es capaz de capar la presencia o ausencia de luz. Tendría solo dos bits, dos estados informacionales. Aunque hiciéramos una enorme malla con miles de fotodiodos de modo que subiéramos mucho la cantidad de información recibida, esa malla seguiría siendo totalmente inconsciente. La TII pretende mejorar el antiintuitivo panpsiquismo (o pampsiquismo) quedándose solo con lo mejor de él. Hace falta algo más para la consciencia. 2. Toda experiencia consciente se nos presenta como información integrada. Esta es la clave. Mi experiencia consciente sintetiza información, hace de ella un todo unificado y coherente, de modo que adquiere cierto grado de irreductibilidad, de no divisibilidad en partes. Según Koch, la consciencia emerge de esta integración, no siendo reductible a lo estrictamente material: el todo es mayor que la suma de las partes. Estamos ante el clásico emergentismo: la cantidad de información genera una sinergia que fortalece

la experiencia consciente. Además, la virtud de la TII es que va acompañada de su correspondiente teoría matemática. Aplicando la teoría de la información podemos calcular la cantidad de integración informacional de un sistema. Es lo que Tononi llama el número Φ (no confundir con el número áureo). Integración no equivale únicamente a conectividad. Pensemos, por ejemplo, en un montón de fibras musculares trabajando al unísono para contraer un músculo. El sistema muscular tendría un número phi bajo a pesar de estar muy interconectado porque sincronización no es igual a integración (esto explicaría por qué cuando alguien tiene un ataque epiléptico y sus neuronas se sincronizan masivamente no da lugar a un estado de hiperconsciencia). Integración consiste en un equilibrio entre síntesis y especialización, tal y como ocurre en nuestro cerebro: muchos módulos especializados que confluyen en una información integrada. Y, mejor aún, ciertas evidencias científicas apuntan a que la TII puede ser correcta. Por ejemplo, ciertas observaciones en pacientes anestesiados parecen indicar que lo que causa el estado de inconsciencia no es que disminuya la actividad neuronal en ciertas partes del cerebro, sino que se corte la comunicación entre el tálamo y la corteza (se interrumpan o desintegren ciertos circuitos talamocorticales). Esto es lo que predice la TII: cuanto más fragmentes menos consciencia. En un famoso estudio de 2009, el equipo de Tononi estimuló magnéticamente ciertas áreas cerebrales de sujetos experimentales, de modo que activaban dichas áreas produciendo una reverberación que se propagaba, creando una reacción en cadena de activaciones en muchas otras neuronas. Después, sedó a los sujetos y volvió a estimularlos de manera similar. La reverberación fue mucho menor: alcanzó a menos áreas, propagó un patrón mucho menos complejo y su duración fue menor.

Crítica:

1. Creo que no está suficientemente bien definido el concepto de integración sensorial ¿Qué es lo que realmente hay de indivisible en nuestra experiencia consciente? Aunque se me presente muy unificada, sí que puedo dividirla. De hecho, este fue el proyecto de la escuela psicológica estructuralista. Si bien es cierto que todo en la experiencia sensible no es reductible a la suma de sus partes (como bien sostuvo la Gestalt), sí que hay muchos elementos sensibles perfectamente divisibles: puedo dividir las modalidades sensoriales y, dentro de ellas, igualmente, puedo dividir y clasificar la multiplicidad de formas, colores, olores, sabores… Realmente no hay tanta irreductibilidad. 2. La TII adolece de los mismos problemas que el emergentismo: explica bien poco. No hay ninguna explicación de cómo el cerebro integra esa información (binding problem) ni de los procesos biológicos-físico-químicos que generan la experiencia consciente. Claro que esto sería pedir mucho dado el estado actual del arte. 3. No se explica por qué ni cómo integración es igual a experiencia consciente. No sé por qué si un sistema integra información ya es consciente y si no integra no lo es. Puedo aceptar que en muchas experiencias conscientes se integra información, pero no entiendo por qué una información no integrada no pueda ser consciente. Pensemos que estamos en una cámara de privación sensorial en la que no percibimos prácticamente nada. De pronto escuchamos un simple sonido, un fonema o una simple nota musical. Tendríamos un único sonido no integrado y seríamos perfectamente conscientes de él. Lo que sabemos es que la integración suele acompañar a muchas experiencias conscientes, pero no tenemos claro si es condición necesaria para la consciencia. 4. La dificultad de calcular Φ en sistemas tan complejos como el cerebro humano es, a día de hoy, misión imposible. La cantidad de variables es astronómica, incluso para la Caenorhabditis elegans, con apenas 302 células nerviosas. El grupo de Tononi ha propuesto como estimador (a la espera de algo mejor) el índice de complejidad perturbacional (PCI) que surge de estimular magnéticamente el cerebro (EMT) de un individuo y ver su respuesta en el encefalograma. Si el sujeto está haciendo una operación consciente, la respuesta es mucho más compleja a nivel informacional que si el sujeto está dormido o anestesiado. En general, y tal y como he comenzado el artículo, creo que la TII es la mejor

teoría de la que disponemos a día de hoy sobre lo que puede ser la consciencia, lo cual no significa ni que sea correcta ni que carezca de serios problemas. Es buena en que parece encajar bien con la evidencia disponible (y en que es más o menos falsable) y en que apunta a solucionar viejos problemas con respecto al panpsiquismo (no todo va a ser consciente), se lleva bien con el emergentismo (aunque adolece de sus mismos problemas), y no tiene dilema alguno con la IA (en principio, no hay ningún problema en construir una máquina que sea capaz de integrar información). Es un intento muy loable en un campo de estudio muy difícil.

Buscando Σ Recomendaciones: Black Mirror: San Junípero (3×04). Este capítulo de la serie nos habla de un futuro no demasiado lejano en el que, al morir, puedes elegir entre fallecer sin más (y probar suerte a ver si existe el paraíso de las religiones) o pasar tu mente a un ordenador y vivir en un paraíso artificial llamado San Junípero (una realidad virtual que representa un bonito pueblo en una playa de California). El capítulo es sublime y quizá escriba un día una entrada dedicada plenamente a él porque la temática lo merece: la posibilidad de un Cielo para ateos, de una eternidad de verdad. Pero hoy voy a hablar de un tema recurrente en el blog: el minduploading o los problemas filosóficos que hay detrás suyo. La cuestión crucial es: Si mueres y decides ir a San Junípero, ¿serás tú el que realmente estás allí o será una mera copia de ti mismo? Este era exactamente el mismo problema del teletransportador (lo tratamos aquí, aquí y aquí), que remite al viejísimo problema de la identidad personal: ¿qué es lo que realmente hace que yo sea yo mismo y que, por lo tanto, tengo que llevarme necesariamente a San Junípero, aunque se me olvide todo lo demás? El matemático sueco Olle Häggström plantea el asunto de forma original. Supongamos que tenemos una máquina de teletransportación que me lleva desde mi casa a Nueva York porque tengo allí una importante reunión de trabajo el jueves. ¿Me fiaría de subirme al teletransportador? ¿Sobreviviré al viaje o moriré y una copia de mí mismo ocupará mi lugar? Häggström distingue dos tipos de supervivencia: σupervivencia: yo σobrevivo hasta el jueves si ese día existe una persona que tiene los mismos rasgos de personalidad, los mismos recuerdos, etcétera, que tengo yo hoy (permitiendo ciertos cambios correspondientes a lo que se considera normal en el transcurso de varios días). Σupervivencia: yo Σobrevivo hasta el jueves si (a) σobrevivo hasta el jueves, y (b) se mantiene cualquier propiedad necesaria para

que el tipo que llega a Nueva York siga siendo realmente yo (en comparación con una copia mía). Después se pregunta cuál será esa propiedad (la llamaremos Σ) que diferencia los dos tipos de supervivencia. Propone como candidata la CBTST (Continuity of my Body’s Trayectory though Space-Time): yo sigo siendo yo mismo si, en el caso de una teletransportación, mi cuerpo es trasportado de alguna manera del punto de origen al de destino (Téngase en cuenta de que esto sería imposible para San Junípero ya que nuestro cuerpo habría muerto). Supongamos que existe una especie de súpercable que puede transportar todos mis átomos desde mi casa a Nueva York y, allí, el teletransportador reconstruirá por completo mi cuerpo. El teletransporte sería solo “empequeñecerme” para meterme en un cable para luego volver a “agrandarme”. Sin embargo, la CBTST no convence a Häggström: los átomos no tienen identidad. Si yo cojo ahora mismo y construyo átomo a átomo a otro Santiago absolutamente idéntico a mí: ¿qué hay en cualquiera de los dos que haga que uno sea yo y que otro sea una copia? Si somos materialistas no podemos aceptar nada, y Häggström propone recurrir a la práctica navaja de Ockham: si no encontramos Σ por ningún lado, lo más probable es que no exista Σ. Por lo tanto, σobrevivir es exactamente lo mismo que ∑obrevivir. La teletransportación es segura y San Junípero es posible. No obstante, creo que Häggström resuelve el tema muy rápido y con demasiada superficialidad. Su solución no resuelve, para nada, el problema del teletransporte no destructivo (que él mismo plantea también unas páginas antes). Supongamos que yo me teletransporto a Nueva York de la siguiente forma: la máquina teletransportadora realiza un súperpreciso escáner de mi cuerpo, después lo destruye, manda la información a Nueva York y allí, siguiendo las instrucciones recibidas, construye un ser idéntico al que había al otro lado. Según Häggström aquí no habría problema alguno: el teletransporte habría sido un éxito y yo seguiría siendo yo mismo (σ es igual a Σ). Sin embargo, ese día ocurre un problema y la máquina encargada de destruir mi cuerpo en el punto de salida se avería, de modo que no lo destruye. Entonces se da el caso de que existen dos santiagos, uno aquí y otro

en Nueva York ¿Cuál de ellos soy yo? ¡Los dos! ¡Pero eso es imposible! Desde mi perspectiva, Σ es la sentience, es decir, la capacidad de sentir en primera persona lo que me pasa. Yo sigo siendo yo mismo si cuando me pellizcan, yo, y ninguna otra persona o copia mía, siente ese dolor. Pero también creo que esa capacidad es un fenómeno natural tan físico-químicobiológico como la digestión o la circulación de la sangre. Pero entonces, ¿cómo es posible que, si hacen una copia idéntica a mí, ésta no tenga también la misma sentience que yo? Mi respuesta es que Σ es físico-químicobiológico, pero, es una función, propiedad o proceso que tiene la cualidad de ser personal e intransferible. Es, por así decirlo, de un solo uso. Si creamos una copia, aunque sea idéntica a mí, crearemos sentience, pero una sentience diferente a la mía. Sería algo así como la ubicación espacial de cada uno. Dos objetos pueden ser exactamente iguales pero su ubicación espacial siempre ha de ser diferente. Igual pasa con Σ: dos personas pueden ser materialmente iguales pero su Σ siempre ha de ser diferente. Si me duelen las muelas solo me duelen a mí y a nadie más. Podríamos hacer que otra persona sintiera exactamente mí mismo dolor de muelas, pero, aun así, cada uno sentiría el suyo. No atino a entender cómo podría ser una consciencia global en el que nos fusionásemos todos ya que, precisamente, consciencia y global son dos términos antagónicos. Si todos nos fusionásemos en una consciencia global lo único que ocurriría es que cada una de nuestras individualidades sería absorbida por una consciencia dominante que sería, a fin de cuentas, la única consciencia existente. Otro ejemplo: pensemos en dos videocámaras materialmente iguales que se ponen a grabar diferentes paisajes. A pesar de ser materialmente idénticas la película que filman es diferente. Pues, sencillamente, ∑ es lo que están grabando. Si yo cojo y hago una copia exacta de una de ellas con toda la película grabada hasta entonces y la pongo de nuevo a grabar, al ser ya la película diferente habría creado un nuevo Σ. Aunque no es una gran respuesta a nivel explicativo (ya que sigue sin

explicar casi nada de lo que es Σ) creo que es esencialmente correcta: salva el naturalismo, sortea el problema del teletransporte no destructivo, y hace lo que toda respuesta filosófica ha de hacer: aportar algo de claridad, aunque sea tenue. Eso sí, la conclusión no gustará mucho a los amigos de la AI: no te teletransportes si no quieres morir y San Junípero estará lleno de tristes copias de muertos.

Tú no existes 1. El giro humanista del Renacimiento se concretó, sobre todo con la figura de Descartes, en el giro a la subjetividad. El centro del pensamiento a partir de entonces sería el yo en dos vertientes: como sujeto cognoscente (la teoría del conocimiento sustituirá a la metafísica como disciplina reina dentro de la filosofía) y como sujeto moral (base del individualismo y del liberalismo moderno). 2. La idea fundacional nuestro sistema político-judicial y económico es el liberalismo. Se entiende al sujeto desde tres vertientes: como votante (política), como sujeto responsable de sus actos (Derecho) y como productorconsumidor (economía) y, en las tres, se entiende el yo fundamentalmente como un agente libre que vota, delinque, y trabaja y consume en virtud de su capacidad de elección completamente libre. Por eso cualquier ataque a la libertad o a la intimidad individuales, cualquier atisbo de totalitarismo es condenado unánimemente por la sociedad. Tres críticas para extinguir el yo moderno (y, por tanto, para hacer saltar en pedazos la Modernidad y, con ella, todo nuestro estilo de vida actual): 1. El yo no existe. La crítica viene desde lejos. El filósofo ilustrado David Hume ya advirtió que no teníamos experiencia alguna que pueda corresponder a un “yo”. Si hacemos un ejercicio de introspección e intentamos “ver” dentro de nosotros mismos solo encontramos ideas, palabras, imágenes, sentimientos… pero nunca encontramos a ese sujeto, a ese yo que, supuestamente, es el dueño de todos los contenidos de la mente. Las actuales neurociencias no parecen encontrar en el cerebro ningún “módulo central” que pueda equipararse a un yo. Tampoco parece existir ningún “teatro cartesiano” en dónde un homúnculo contempla lo que perciben nuestros sentidos. 2. El individuo no existe. Una condición de posibilidad de que el yo exista es que sea un individuo, es decir, que sea indivisible. Si hubiese muchos yoes diferentes, ¿cuál de ellos sería realmente yo? ¿Cuál de ellos sería el que vota

o comete crímenes? De hecho, incluso solemos entender una gravísima enfermedad mental, la esquizofrenia, como una especie de fragmentación del yo. Pues, precisamente, la ciencia nos está diciendo que no existe un solo yo. Los inquietantes experimentos con cerebros escindidos de Sperry y Gazzaniga apuntan claramente en esa dirección: no tenemos un solo yo, sino que múltiples agentes funcionales compiten para controlar el mando de la acción según se requiera. 3. El yo no es libre. Entender el yo como un agente causal libre de nuestras acciones significa hablar de una causa incausada que constituiría una violación del principio de razón suficiente (desde una perspectiva materialista, de una violación del principio de conservación de la energía), un absurdo lógico. Además, desde la perspectiva neurológica los experimentos de Libet y otros, a pesar de ser discutibles y matizables, apuntan con claridad a la ausencia de libre albedrío (Wikipedia en castellano tiene un buen artículo sobre este tema). En coherencia, las tesis del psicólogo Daniel Wegner son claras: no elegimos nuestros pensamientos, y si consideramos que éstos son los agentes causales de nuestra conducta, no elegimos nuestra conducta. Cuando comunicamos la intención de hacer algo lo único que hacemos, tal y como decía Spinoza, es lanzar una hipótesis predictiva de lo que es posible que vaya a ocurrir en un futuro. Objeción: ¿Por qué entonces todos tenemos la sensación de poseer un yo y de ser libres? Es una ilusión fruto, igualmente como decía Spinoza, de las limitaciones de nuestra mente para conocer la multitud de causas que, realmente, ocasionan nuestros actos ¿Y cuál es el sentido de tal ilusión? El agenciamiento (no confundir, por Dios, con el fraudulento concepto deleuziano). En la naturaleza operan simultáneamente una exponencial cantidad de agentes causales. A nuestro organismo le interesa mucho diferenciar, al menos, los agentes que son importantes para su supervivencia (un conjunto en movimiento de manchas naranjas y negras que ruge puede hacerme mucha pupa, por lo que yo establezco la relación causal: si tigre entonces pupa, en la cual pongo al tigre como agente, como sujeto de la acción “hacer pupa”. Nótese que no es porque el tigre sea un individuo ni tenga realmente un yo que active sus dientes y garras, sencillamente a un conjunto de percepciones les pongo una etiqueta útil para mi supervivencia). Igualmente, a la enorme colonia simbiótica de células que nos compone, le

conviene diferenciarse de otros agentes causales (no es lo mismo que el tigre muerda cualquier brazo a que muerda ese brazo que tengo pegado al cuerpo). Y aquí llega el agenciamiento: agenciarme actos, hacer mío un objeto o suceso del mundo (Un ser está bebiendo agua ¿Cómo sé si eso es útil para mi supervivencia? Si el ser que está bebiendo agua es mi organismo y no otro, por lo que mi organismo le dice a un módulo funcional de mi cerebro que se agencie ese acto, que diga “Yo, y no otro agente causal, estoy bebiendo agua”. Importante: eso no quiere decir que haya un yo que beba agua ni que exista un yo que le ordene al organismo que beba agua, es solo una diferenciación, una ficción práctica, una etiqueta útil para que el organismo se diferencie de otros en función de utilidades evolutivas). Nueva objeción a la que no soy capaz de responder: ¿Y qué pasa con la consciencia? Cuando a mí me duele algo, si no hay un yo al que le duela ¿a quién le duele realmente? ¿Podría darse, como en el mundo de las ideas platónico, el dolor sin sujeto doliente? Estamos, como siempre, con el problema de la irreductibilidad de los qualia. Sabemos que las sensaciones conscientes son un poderoso motivador de la conducta: el placer atrae y el dolor aleja, por lo que la función evolutiva de la consciencia parece clara, pero viendo lo fácil que nos resulta hacer computadores perfectamente motivados sin emociones ¿por qué la evolución crearía algo tan extraño? Posible vía de solución 1: el yo como sujeto de la consciencia es una trampa del lenguaje. Una muestra de ello: extrapolamos la gramática a la realidad sin justificación. Como toda oración tiene un sujeto, sostenemos que debe existir un sujeto de las sensaciones consientes. Quizá sí es posible que existan sensaciones sin sujeto, si bien nos sigue pareciendo una idea extraña y poco intuitiva (¿un dolor de muelas que no le duela a nadie?). En esta línea está el trabajo de Gilbert Ryle y de su discípulo Dan Dennett, quienes llegan a negar la existencia de la propia consciencia. Posible vía de solución 2: podríamos aceptar que, si bien no existe un yo como agente causal de nuestra conducta, que no es individual y que no es libre, sí que existe en cuanto a sujeto paciente de la consciencia. No obstante, me parece una solución poco elegante, fea.

La hipótesis de la mente extendida Aunque Descartes, y tantos otros antes que él, definiera la mente por su inextensión, es decir, por no ocupar lugar alguno en el espacio, por ser inmaterial, o si se prefiere, espiritual, todo el mundo con dos dedos de frente ubica la mente “dentro” del cerebro. Sin saber muy bien qué tipo de entidad ontológica es, sin poder siquiera definirla con precisión, todo el mundo cree que se piensa con la cabeza. Nadie acepta de buen grado que le digas que su mente no está en ningún sitio, o que su último pensamiento está ubicado a 1.000 kilómetros de su cerebro. Es más, dado el materialismo monista imperante en las ciencias de la mente, gran parte de la gente algo letrada en el tema apuesta por la teoría de la identidad: mi mente es equivalente a una serie de procesos físico-químicobiológicos que, en cuanto a tales, ocurren en una precisa ubicación espacial: mi tejido cerebral. Mi mente se forma, de alguna manera todavía no aclarada, entre esa increíblemente densa enredadera de neuronas que pueblan mi encéfalo. Así que, solo por llevar la contraria y violentar un poco las mentes de mis brillantes lectores, vamos a ver una teoría clásica en filosofía de la mente que pretende romper este “chauvinismo cerebral” de creer que los sucesos mentales solo ocurren “dentro” del cerebro: es la teoría de la mente extendida. Quizá la primera en plantearla fue la filósofa norteamericana Susan Hurley en su obra Conscioussness in Action de 1998, pero el texto clásico es el artículo de Andy Clark y David Chalmers The Extended Mind del mismo año, y entró de lleno en el debate cuando Clark publicó el libro Supersizing the mind en 2008. La teoría de la mente extendida es una consecuencia lógica del funcionalismo imperante en las ciencias cognitivas. El funcionalismo dice que los estados mentales son estados funcionales que conectan causalmente estímulos con respuestas (o estados funcionales con otros estados funcionales). En este sentido si yo quiero realizar una operación matemática y me valgo para ello de una calculadora de bolsillo, entre el input (por ejemplo, la visualización de

los dos factores que voy a multiplicar) y el output (obtener el resultado), transcurren multitud de estados funcionales, unos “dentro” del cerebro y otros “fuera”. “Dentro”, por ejemplo, está mi miente ordenando a mis dedos qué teclas de la calculadora pulsar, y “fuera” estaría el microprocesador de la calculadora procesando los datos y mostrando en pantalla el resultado. Si definimos los estados mentales por su función, es decir, por ser elementos causales en la cadena entre el estímulo y la respuesta, tanto mis pensamientos sobre que teclas pulsar como el funcionamiento del microprocesador de la calculadora, son eslabones causales de la cadena, ¿por qué decir que solo los estados causales que están “dentro” de mi cabeza son estados realmente mentales, mientras que los que están “fuera” ya no lo serían? Supongamos que nos sometemos a los designios de Elon Musk y de su empresa Neuralink, y nos insertamos la calculadora en el cerebro, conectando sus circuitos a nuestros axones y dendritas neuronales. Entonces, si hiciésemos un cálculo ayudados por la calculadora, todo ocurriría “dentro” de nuestro cerebro ¿Ahora sí aceptamos lo que hace la calculadora como parte de nuestra mente y antes no? ¿Los criterios para distinguir lo mental son, únicamente, algo tan pobre como “dentro” y “fuera”? Extendamos entonces la mente a lo bestia. Cuando usamos Google para buscar información, devolviéndonos Google la respuesta que buscábamos, nuestro proceso de causas y efectos funcionales ha viajado desde nuestra mente hasta diferentes servidores a lo largo del mundo, incluso ha podido ir al espacio y rebotar en antenas de satélites, hasta volver a nosotros… ¡Nuestros estados mentales se han extendido hasta el infinito y más allá! Seríamos, por utilizar terminología más guay, cíborgs cognitivos o mind cyborgs… Según Clark, nuestra vida mental es un continuo negociar y re-negociar los límites de la mente con los diferentes dispositivos cognitivos que tenemos a nuestro alcance. Extendemos y reducimos la mente a cada momento: cada vez que encendemos la tele, miramos un reloj, nuestro móvil… Lo interesante es que podríamos utilizar esta extensión para medir el potencial cognitivo de un individuo o sociedad: desde lo mínimo, un neandertal escribiendo en la arena con un palo, hasta las actuales megalópolis de

millones de individuos hiperconectados entre ellos y con el resto del mundo, teniendo acceso a una incontable cantidad de información. Los hitos fundamentales en una historia de la humanidad concebida desde su capacidad de extensión mental serían la aparición del lenguaje, primero hablado y luego escrito (la extensión de la memoria), el desarrollo del cálculo y de sus herramientas que concluirían con la llegada del computador y, el estadio en el que nos encontramos: internet y su casi ilimitado acceso a todo tipo de datos. Problemas: si la teoría de la mente extendida puede estar bien para medir la potencia cognitiva de un sistema, habría que entenderla únicamente como una etiqueta pragmática, como una forma de hablar útil en determinados contextos, ya tiene exactamente los mismos problemas del funcionalismo (como hemos dicho, no es más que una consecuencia lógica de éste): no explica la consciencia fenomenológica y no superaría la crítica de la caja china de Searle. Autores como Jerry Fodor, desde una perspectiva cerebrocéntrica o, Robert Rupert, desde todo lo contrario, han sido bastante críticos con ella. Y es que pasa lo de siempre: la explicación funcionalista de los estados mentales es muy incompleta y, llevada a su extremo, llega a ser confusa. Ejemplo: de nuevo voy a realizar un cálculo extendiendo mi mente hacia una calculadora. Sin embargo, me doy cuenta de que no tiene pilas, así que bajo a la tienda de abajo de mi casa a comprar unas. Desafortunadamente no les quedan ¡Los vendedores de pilas están de huelga! Así, recorro decenas de tiendas, pero en ninguna tienen nada. Viajo por toda España en busca de las pilas malditas, hasta que, en un pequeño pueblecito perdido en los Pirineos, encuentro una tienda donde, al fin, las consigo. Después de tres meses de búsqueda vuelvo a mi casa, y puedo usar la calculadora para terminar mi cálculo… ¿Todo este tedioso proceso de búsqueda geográfica de tiendas de pilas formaría parte de un proceso cognitivo? ¿Lo englobaríamos dentro de un proceso mental? Echar gasolina al coche, conducir, preguntar a transeúntes, usar el GPS… ¿todos son estados mentales? ¿Dónde queda el límite entre lo que es y lo que no es un estado mental si cualquier cosa es susceptible de participar en un proceso causal?

El neurocirujano de Dennett En Bigthink Dennett muestra su preocupación acerca del mensaje que los neurocientíficos están mandando a la sociedad acerca del libre albedrío, a

saber, que es una ilusión. Parece ser que las personas que saben que no son libres actúan de modo más irresponsable, o directamente peor en términos morales, que las personas que piensan que sus actos son fruto de su libre elección. Para ilustrarnos sobre el tema nos expone un divertido experimento mental (o bomba de intuición como le gusta decir): un paciente aquejado de un trastorno obsesivo-compulsivo es tratado mediante la inserción de un chip en su cerebro. El neurocirujano le dice al enfermo que esa pequeña prótesis no solo vale para curar su trastorno, sino que, desde ese momento, van a controlar su conducta a través de ella. Le dice que a él le parecerá todo normal ya que tendrá la ilusión de que lo que hace, lo hace libremente, aunque la realidad será que todas sus acciones estarán estrictamente controladas (causadas) por el médico y su equipo. Al paciente le dan el alta del hospital y se marcha a su casa a seguir llevando su vida, feliz por haberse curado de su trastorno. Sin embargo, a los pocos días comete un delito y es llevado ante un tribunal. Cuando le preguntan por sus fechorías, él responde que no es culpable de nada, ya que ha obrado sin libre albedrío, controlado por el equipo de la clínica de neurocirugía. El juez llama entonces al neurocirujano quien dice que todo fue una broma, que realmente nadie estaba controlando la conducta del presunto delincuente ¿Sería culpable el acusado? Diríamos que sí. Pero, ¿actúo irresponsablemente el neurocirujano? Seguramente que sí ¿Habría delinquido el acusado si hubiera sabido que la responsabilidad era totalmente suya? Es posible que no. Dennett utiliza este relato para advertirnos acerca de las consecuencias de decir a todo el mundo que no es libre de lo que hace. Si pensamos que son otros los que controlan nuestra conducta y nos apetece apalear a nuestro jefe, ¿no lo haríamos sabiendo que, realmente, toda la responsabilidad es de otros, que nosotros, realmente, no lo hemos hecho? O, dicho de otro modo, ¿no lo haremos sabiendo que, realmente, lo están haciendo otros y nosotros no estamos haciendo nada? Pensemos que mientras hacemos el mal podríamos pensar: ¡Qué malvado el neurocirujano! ¡Lo que hace con mi cuerpo!

Y es que podríamos llegar a argüir que, incluso aceptando que todo fuera una broma pesada del médico y nadie controlara sus acciones, ese individuo no obró con pleno libre albedrío porque… ¿tienes la misma responsabilidad de tus actos si crees que estás siendo controlado? ¿Eres responsable de hacer algo que tú mismo crees que no estás haciendo? Veámoslo más claro en otro ejemplo. Supongamos que estamos contemplando con una videocámara como un criminal asesina brutalmente a nuestro jefe. Nosotros, solo como espectadores, nos lo pasamos pipa viendo hacer algo que desearíamos haber hecho desde hace mucho tiempo. Es más, el asesino mata a nuestro desdichado jefe exactamente de la misma forma que nosotros hubiésemos elegido, de tal modo que casi nos da la impresión de que nosotros vamos ordenando al asesino qué hacer a cada paso. Bien, pues a pesar de que nuestra conducta como sádicos espectadores no es éticamente muy reconfortante, nadie diría que somos culpables del asesinato, pero… ¿qué diferencia hay entre este caso y el del obsesivo-compulsivo de Dennett? ¿Por qué diríamos que uno es culpable y el otro no?

La mente como una interfaz Una de los dogmas más típicos del ethos cognitivo del científico es el realismo. La mayoría de los científicos con quienes debatas tendrán una

concepción realista del conocimiento. Será común que sostengan, con más o menos matices, que el mundo objetivo es real y que, nosotros, mediante el método científico, tenemos acceso a esa realidad. Es posible un conocimiento objetivo del mundo y la ciencia es el camino adecuado para conseguirlo. De la misma forma, cualquier científico que se precie aceptara, sin lugar a dudas, la teoría de la evolución darwiniana. Aplicándola a la percepción de la realidad, es bastante lógico pensar que la selección natural premiaría el realismo, ya que un organismo incapaz de percibir dónde está, realmente, el alimento, la pareja o un posible depredador, tendría pocas probabilidades de sobrevivir. Siguiendo el recto gradualismo darwiniano, sistemas perceptivos tan sofisticados como el de un ave rapaz, serían fruto de pequeñas variaciones que irían progresivamente dando al pájaro una visión cada vez más aproximada a la auténtica realidad. Entonces llega el psicólogo cognitivo de la Universidad de California, Irvine, Donald Hoffman y lo pone todo patas arriba. Hoffman va a llevar a sus máximas consecuencias una determinada idea que parece innegable para cualquier darwinista: un organismo no necesita percibir toda la realidad tal cuál es, solo la que necesite para aumentar sus posibilidades de supervivencia y reproducción (se usa el término fitness). Si la selección natural premia mucho la economía de medios, percibirlo todo es un derroche absurdo. Pero, es más, no hace falta siquiera percibir una sección de realidad, sino solo un esquema, un indicador, una señal que nos sirva para tomar la decisión que aumente nuestro fitness. Pongamos un ejemplo (que no es de Hoffman, pero creo que es más ilustrativo). Vamos conduciendo y tenemos que pasar por un cruce muy peligroso. La carretera que tenemos que cruzar tiene cinco carriles repletos de coches pasando a toda velocidad. Ver cuando no viene ningún coche, y calcular que nos dé tiempo a cruzar antes de que aparezca el siguiente, es una tarea compleja. No obstante, para eso se inventó el semáforo. Cuando llego al cruce no tengo que percibir todo el tráfico, solo con fijarme en una sola señal, un solo estímulo, la luz del semáforo, ya puedo cruzar sin peligro alguno. En cierto sentido, la luz del semáforo está resumiendo, simplificando toda la complejidad del tráfico a una combinación binaria: verde no pasan coches, rojo sí pasan. Pensemos el ahorro de recursos perceptivos que supone el semáforo que, sin duda, sería elegido por la

selección natural si tuviese que “diseñar” un organismo cruzador de carreteras. Pero, es más, contra toda intuición, nuestro organismo bi-perceptor no percibiría absolutamente nada que tuviese que ver con la realidad. En la carretera no hay nada como luces rojas o verdes, y una luz roja o verde no se parece en nada a un denso flujo de automóviles. Nuestro organismo estaría utilizando lo que Hoffman denomina interfaz, que es algo muy parecido al escritorio de tu ordenador. Cuando hacemos clic en el icono del reproductor de vídeo para ver una película, el icono no tiene ningún parecido al complejo sistema de circuitos, voltajes y magnetismos que se activa para que veamos la película. Lo realmente inquietante es que esto implica que, lo más probable, es que vivamos completamente ciegos a la auténtica realidad y que la “pantalla de nuestra consciencia” nos ofrezca un juego de símbolos que nada tienen que ver con lo que exista allí fuera. Y más aún, no es que no percibamos cualidades objetivas, sino que la función de fitness es una relación entre el mundo, las cualidades del organismo en cuestión y su estado actual; por lo que la información que recibimos no es del estado del mundo, sino del estado de dicha relación. Por ejemplo, si nuestro organismo necesitara un determinado nutriente con mucha urgencia, es posible que mostrara una interfaz diferente a si lo necesita con menos premura. O, podría ser que nuestra interfaz mostrara con especial intensidad “situaciones” en las que las posibilidades de aumentar el fitness son muy altas o muy bajas, pero ignorara todas las demás. Para fundamentar su tesis con más fuerza, Hoffman se basa en una serie de simulaciones informáticas en las que se ponen a competir diferentes estrategias perceptivas para conseguir optimizar su función de fitness. En las simulaciones realizadas por el discípulo de Hoffman, J.T. Mark, las estrategias de interfaz eran muy superiores a las realistas, más cuando se aumentaba la complejidad de las simulaciones, ya que esto producía que las estrategias realistas tuviesen que almacenar cada vez más información irrelevante. Basándose en ello, Hoffman llega a la controvertida afirmación de que el realismo es, evolutivamente, tan malo que… ¡con total seguridad, la selección natural jamás lo eligió!

Pero, ¿no caeríamos de nuevo en la falacia del homúnculo? ¿Para que querría la evolución una “pantalla de la consciencia” en donde la información se transmitiera de forma simplificada o esquematizada? ¿Quién es el que está viendo este escritorio de ordenador lleno de iconos útiles para sobrevivir? La teoría de Hoffman no soluciona el problema del porqué de la consciencia, pero sí que sortea el problema del homúnculo. La información no se repite de nuevo en una “pantalla de cine”, sino que se modifica para hacerse operativa. Si pensamos en nuestra mente como un conjunto de módulos funcionales, podemos pensar que tenemos módulos encargados de tomar decisiones de alto nivel a los que les viene muy bien recibir la información cocinada para ser operativa. Nuestro módulo-consciente estaría encargado de tomar ciertas decisiones basándose en la información recibida por los sentidos. Lo que recibiría en su interfaz sería un conjunto de esquemas, resúmenes, iconos, desarrollados específicamente para ser utilizados de la forma más eficiente posible. Es como si fueran los instrumentos de vuelo de la cabina de un avión, ergonómicamente diseñados para ser utilizados lo más eficazmente por el piloto. Por ejemplo, la palanca que da potencia a los motores está perfectamente diseñada para ser agarrada con fuerza por una mano humana; igualmente, los iconos de nuestro “escritorio-consciencia” estarían diseñados para ser “agarrables” por nuestro sistema de toma de decisiones. Objeciones: muchas, pero una especialmente hiriente. A todas las teorías que dicen que no podemos percibir la auténtica realidad se les puede aplicar la vieja paradoja de Epiménides. Se cuenta que Epiménides, un cretense, decía que todos los cretenses eran unos mentirosos, lo cual, evidentemente, nos lleva a una insalvable paradoja. Análogamente, si Hoffman dice que todo lo que percibimos es una interfaz que no representa la auténtica realidad, la propia teoría de la interfaz sería también una nueva interfaz que no describe el auténtico funcionamiento de la cognición. Hoffman debería explicarnos por qué él no es un cretense. Otra, que a mí se me antoja más interesante, es que Hoffman presupone que percibir la auténtica realidad es costoso, por lo que hace falta hacer esquemas. Esto puede ser cierto en muchas ocasiones, pero en otras no. Podría darse el caso de que percibir ciertos elementos de la realidad tal como es fuera,

incluso, menos costoso que tener que crear un icono en el escritorio de la consciencia. Es más, podríamos objetar que la hipótesis de que siempre fuese así no está refutada: ¿Y si, siempre, construir iconos en la mente fuera más caro que percibir la realidad tal y como es? A fin de cuentas, crear un icono es realizar un paso más que percibir la “realidad pura”, a saber, transformarla en icono ¿Y si esa transformación fuese muy cara? Hoffman debería idear un sistema de costos para evaluar lo que cuesta el realismo en comparación con la creación de su interfaz. A esta multimodal user interface (MUI), Hoffman va a añadir una teoría aún más controversial si cabe: el Realismo Consciente, que viene a decir que lo único ontológicamente existente son los agentes conscientes, siendo la materia una mera creación de la consciencia. El argumento fundamental en el que se basa es sostener que todos los intentos de explicar la consciencia a partir de la materia han sido, hasta la fecha, baldíos (lo cual es completamente cierto), mientras que el camino inverso, explicar cómo la mente construye sus percepciones de la materia, ha sido más exitoso (lo cual no veo yo tan claro). De esta forma, siendo estrictamente científicos, parecería más lógico defender este idealismo que no el materialismo tradicional de la ciencia. Para Hoffman no habría problema alguno en invertir el orden causal de toda la neurociencia moderna, solo habría que cambiar el orden de las palabras: en vez de decir que clusters de neuronas causan estados mentales, tendríamos que decir que estados mentales causan clusters de neuronas, sin cambiar nada más. En cualquier caso, aceptemos todo o nada de lo que dicen, las ideas de Hoffman suponen una fuerte apuesta por llevar a sus máximas consecuencias una epistemología radicalmente evolucionista que pone en la palestra un montón de cuestiones filosóficas que parecen, muchas veces, en la periferia del debate científico cuando, realmente, deberían estar en el centro.

MÁQUINAS

Robolución y void problem Año 2037. La gran mayoría de los trabajos relacionados con el transporte, la administración o la producción industrial han sido ocupados por robots. El aumento del crecimiento económico ha sido excelente. No hay ningún problema para pagar las pensiones a una población muy envejecida y las arcas del Estado permanecen saneadas y con superávit. El gran problema es que la tasa de desempleo llega a niveles que rondan el 50%, si bien la manutención de tanto parado se solucionó implantando una renta básica universal. A pesar de que se han creado multitud de nuevos puestos de trabajo y aunque gran parte de los políticos siguen buscando fórmulas para bajar el desempleo, la reconversión laboral ha sido imposible y el desempleo generalizado ha pasado a ser algo completamente cotidiano. La brecha económica y social ha aumentado. Los afortunados que supieron subirse al carro de la robolución, aquellos que consiguieron mantener su puesto de trabajo mejoraron muchísimo su calidad de vida. Trabajando con robots que no tenían que dormir ni descansar, a los que no había que pagar un salario, que no se ponían enfermos ni pedían bajas por maternidad y que, para colmo, producían muchísimo más que sus predecesores humanos, las ganancias crecieron sustancialmente. Aunque el reparto de la riqueza siguió siendo tan injusto como siempre (el empresario se seguía llevando casi la totalidad del pastel), una tajada algo mayor les correspondió a ellos (eso sí, su jornada laboral sigue tan larga como siempre. Las predicciones de Keynes, definitivamente, no se cumplieron). En consecuencia, la estratificación social ha cambiado: seguimos teniendo el pequeño porcentaje de superricos de siempre (un poco más ricos aún que antes), pero a cierta distancia les sigue una nueva clase social: los workers, aquellos que trabajan. Después viene algo parecido a la antigua clase media, pero sin trabajo: los jobless (también llamados despectivamente laggards: rezagados). La clase pobre, afortunadamente, ha desaparecido casi por completo en los países desarrollados. El problema de una sociedad que ha conseguido vencer el hambre, la

pobreza, y gran parte de las enfermedades (la esperanza de vida casi llega a los cien años y creciendo), es buscar un sentido a la vida de toda la población jobless. La prensa ha llamado a este asunto el V-problem (void problem: el problema del vacío): ¿Qué hacer cuando no tienes nada que hacer? En sociedades como la nuestra, en las que el sentido de la vida ha estado muy ligado a la ocupación laboral, se temió un brote de angustia y vacío existencial de imprevistas, pero siempre nefastas, consecuencias. Entonces, los jobless, dieron cuatro respuestas al sinsentido: Los antidepresivos y drogas de diversa índole han avanzado muchísimo, de modo que muchos han optado por una vida de placeres artificiales. El absurdo vital se compensa con un hedonismo potenciado con los nuevos avances de la farmacología. El soma de Huxley es ya una realidad, pero mucho mejor: prácticamente, puedes elegir el estado de ánimo en el que quieres estar en todo momento. Las macrofiestas en donde la música se mezcla felizmente con los psicotrópicos son ahora mucho más comunes que antaño. De hecho, hay gente que vive durante años en una fiesta ininterrumpida. Son los everlastings. Las opciones de ocio han aumentado salvajemente: el cine, los videojuegos y la realidad virtual se han fusionado para brindar experiencias alucinantes como, por ejemplo, películas en las que, realmente, tú eres el protagonista. Hay restaurantes virtuales en los que puedes elegir en qué parte del mundo o qué paisaje quieres que envuelva tu mesa. Además, la alta cocina se ha fusionado con la avanzada farmacología consiguiendo platos increíbles: orgasmos con sabor a ostras, cerdo agridulce (sí, la comida china se ha impuesto) que hace que te rías, o los supersutiles (y de precios prohibitivos) pollo gong bao con sabor a verano, o la sopa de wonton que sabe a juventud. La humanidad jamás ha gozado de tantas alternativas de diversión al alcance de tantas personas. Luego están los russellianos. Al igual que afirmaba el filósofo británico Bertrand Russell, piensan que es una bendición haberse liberado del trabajo (que consideraban alienante), ya no tanto para el hedonismo salvaje como para otros quehaceres más elevados. Los russellianos se dedican al estudio, a la ciencia, al arte, a la política o a la filosofía, al voluntariado solidario o al ocio cultural: van al teatro o a la ópera, visitan museos, viajan… También hacen multitud de actividades de vida saludable: pasean, hacen deporte, van a la montaña…

Los prayers (rezantes): a pesar del ocaso de las grandes religiones en Occidente (el islam fue el último en caer), y del tenaz esfuerzo del humanismo laico por terminar con ellas, han surgido nuevas formas de religiosidad, si bien constituyen grupos muy minoritarios en comparación con los everlastings y los russellianos. Habitualmente son formas sincréticas de religiones clásicas y orientales (hay una moda muy popular de rescatar religiones antiquísimas ya extinguidas), dándose originales mezclas como, por ejemplo, los nimai (o luminosos) quienes integran el chiismo imaní y el hinduismo advaita, con algunos elementos tomados del shintoismo japonés. Europa y Norteamérica están plagadas de sectas de lo más variopinto: desde los vedantas cristianos seguidores de Mithra, hasta los renovados adoradores de Brahatmanariyú (quien ahora es una especie de deidad digital que fluye por Internet). Y por último los llamados voids (podría traducirse como vacíos) o, despectivamente, wastes (desechos): grupos de nihilistas que no han conseguido encontrar el sentido ni en el ocio ni en el russellianismo. Yacen tirados en los parques, vuelven a escuchar música de Nirvana y de los Smashing pumpkins y tienen una altísima tasa de suicidio. Fenómenos como los hikikomori, o casos similares de aislamiento y fobia social, son muy habituales en todas las capitales europeas. También son tristemente habituales los suicidios colectivos: decenas de personas planifican todo por Internet (hay muchas webs dedicadas a ello y los gobiernos no dan abasto a cerrarlas), quedan en un bonito lugar alejado de las ciudades y mueren tras la ingesta de pentobarbital, que se consigue hoy muy fácilmente en la red (ellos querían hacerlo con el monóxido de carbono de los tubos de escape de sus coches como se hacía en Japón a principios de siglo, pero se encontraron con que ahora todos los coches son eléctricos). Sin embargo, aunque constituyen un problema social e incluso de salud pública, no son un grupo mayoritario en comparación con los otros dos grandes. A pesar de que muchos predicadores del apocalipsis vaticinaron una crisis existencial sin precedentes históricos, la verdad es que no ha ocurrido o, al menos, no lo ha hecho en tal medida. Post scríptum: esta es una hipótesis de un posible futuro que me ha parecido especialmente literario. No obstante, con respecto a la robolución, creo que, después de un tiempo problemático de incertidumbre y desempleo, se

conseguirá la reconversión laboral y no habrá ninguna renta básica universal (a lo sumo algunas rentas mínimas para sectores especialmente frágiles). Unos puestos de trabajo se extinguirán (como ya lo hicieron los de limpiabotas, curtidor, afilador, sereno, telefonista, etc.) y surgirán otros nuevos (como los actuales youtubers, personal shoppers, diseñadores de apps, etc.) que aún desconocemos. En la sociedad ya se han incorporado muchas veces avances tecnológicos que presagiaban la pérdida de empleo y, al final, no llegaron a tanto (por ejemplo, el mismo ordenador). En cualquier caso, lo que, evidentemente, hay que hacer son políticas para afrontar competitivamente estos nuevos cambios (cambios en el sistema educativo, en la fiscalidad, en la legislación laboral… y, por supuesto, en las mentalidades) ¡Traed robots a España ya!

El maximizador de sujetapapeles y el fin de la humanidad Borges no creía en la teología cristiana, pero le encantaba como puro divertimento, como una fértil fuente de placer intelectual. A mí me pasa

exactamente lo mismo con todo el tema de la singularidad de Kurzweil o de la explosión de inteligencia de Bostrom (por no hablar de su argumento de la simulación). Creo que es especulación salvaje en el peor sentido del término: jugar con algo de lo que no se tiene ni la más remota idea y construir castillos solo a base de lejanas posibilidades (muchas veces solo válidas porque aún nadie se ha parado a pensarlas con la suficiente profundidad como para refutarlas). Sin embargo, como experimentos mentales, como lo que Dennett quizá llamaría bombas de intuición, son ideas muy, pero que muy buenas. Creo que podría abrirse una nueva rama de la filosofía denominada filosofía de la ciencia-ficción o, quizá más amplia, filosofía de la futurología, y que sería bastante fructífera. No se me ocurre forma más creativa de filosofar que imaginar futuros alternativos al nuestro y, a partir de ellos, juzgar nuestra propia realidad (eso mismo es lo que ha hecho todo el pensamiento político utópico desde el Renacimiento hasta nuestros días). Sería jugar con la ficción para, a través de ella, comprender mejor nuestra realidad. Así que en honor a esta nueva especialidad filosófica que acabo humildemente de fundar (si bien ignoro si alguien ya la ha fundado antes), vamos, como acostumbramos en este blog, a ver un nuevo ejemplo muy sugerente de futuro posible (y esta vez escalofriante): el maximizador de sujetapapeles de Nick Bostrom (expuesto en su artículo de 2003, Ethical issues in advanced artificial intelligence). Vamos a explicar la idea mediante un estúpido, si bien espero que algo divertido, relato. Tenemos una empresa de sujetapapeles anticuada y poco productiva, al borde de la ruina. Cuando estamos a punto de declarar la bancarrota nos llega una noticia milagrosa: hemos recibido una cuantiosa herencia de un tío-abuelo nuestro, un tal Víctor Frankenstein, un biólogo que trabajaba en la Universidad de Ingolstatd (cerca de Munich) y del que jamás habíamos oído hablar. Entusiasmados ante tal golpe de suerte, invertimos el dinero en modernizar nuestra empresa. Robotizamos las líneas de producción, hacemos un ERE con el que despedimos a más de media plantilla y sobornamos al enlace sindical para que la cosa no vaya a los medios y acabe en una huelga. Y voilá, la productividad empieza a despegar y nuestra empresa empieza a escalar puestos entre las más pujantes del sector de los sujetapapeles.

Con los beneficios queremos dar un paso más. No solo pretendemos robotizar el montaje sino también la administración (le hemos cogido el gustillo a eso de despedir empleados). Así que creamos un departamento de I+D en el que ponemos al mando a un cerebrito hindú del MIT, que llena todo de cables, robotitos y ordenadores. Pronto ya puedo prescindir de la mayoría de las secretarias y oficinistas de la empresa, y la productividad sigue mejorando. Entonces mi genial nerd de Bombay me propone una última estrategia empresarial: construir una IA cuyo objetivo primordial sea la fabricación de sujetapapeles y que, además, sea capaz de reprogramarse a sí misma para hacerse más inteligente y, en cuanto a tal, cada vez más y más eficiente en su tarea. Según la tesis de la explosión de inteligencia, cada paso en que la IA aumente sus capacidades le hará, no solo más eficiente produciendo pisapapeles, sino que también, más eficiente a la hora de mejorarse a sí misma. Esto generará un ciclo que se irá acelerando a cada iteración, hasta adquirir un ritmo exponencial. Al principio, todo va muy bien. Mi empresa encabeza holgadamente su sector y yo estoy amasando una gran fortuna ¡Soy el rey de los sujetapapeles! Después llega la singularidad: un momento en el que ni yo ni mi genial nerd sabemos qué hace nuestra IA. No entendemos el código fuente, que cambia sin cesar a velocidades vertiginosas, ni tampoco comprendemos las decisiones empresariales que toma ni los nuevos artefactos que inventa para fabricar sujetapapeles a un coste, ya prácticamente, nulo. Después todo fue muy rápido. Noticias de misiles nucleares lanzados por los coreanos, respuesta norteamericana… Pronto se cortaron las comunicaciones, y yo y el nerd sobrevivimos escondidos en un refugio nuclear creado por nuestra IA en el sótano de las oficinas centrales de la empresa ¿Qué diablos había pasado? ¿Por qué había estallado la Tercera Guerra Mundial? El nerd, me miró a través de sus enormes gafas de pasta, y me lo explicó: nuestra IA es una superinteligencia cuyo único fin es producir más y más sujetapapeles. Una vez que ya había hecho todo lo posible para, dentro de la legalidad y del libre mercado, producir sujetapapeles, tenía que dar el salto: controlar el mundo para seguir produciendo. La IA había provocado la guerra para que la humanidad se destruyera a sí misma. Un mundo en ruinas sería mucho más fácil de manejar ¡Teníamos que detenerla!

Cogimos unos trajes NBQ para protegernos de la radiación y abrimos la escotilla de salida del refugio. El paisaje que contemplamos era desolador. A nuestro alrededor había montañas y montañas de sujetapapeles. Unos extraños robots lanzaban una especie de rayos eléctricos azulados que descomponían las ruinas de los, antaño en pie, edificios de la ciudad, mientras expulsaban sujetapapeles por unos tubos de escape situados en su parte trasera. Parecía que eran capaces de convertir cualquier tipo de materia en sujetapapeles. No sabíamos cuánta parte del mundo habría sido transformada ya, pero todo el horizonte estaba plagado de montañas de sujetapapeles, robots y ruinas… Nada más a la vista ¿Este devastador paisaje era todo lo que quedaba de la Tierra? Solo una cosa permanecía en pie: el edificio de nuestra empresa donde se encontraba el departamento de I+D, es decir, donde estaba la base material de la IA, un supercomputador Titan-Cray XK7 donde implementamos su programa por primera vez. Teníamos que llegar hasta allí y desconectarla. Avanzando a duras penas por un suelo de sujetapapeles conseguimos llegar al edificio y subir a la planta donde se hallaba tan terrible artilugio. Había cambiado mucho. Ya quedaba muy poco del ordenador original y todo estaba plagado de cables, circuitos electrónicos y complejas máquinas que no entendíamos. No teníamos ni idea de cómo desconectar tal monstruosidad digital, pero al agudo nerd se le ocurrió un método para el que no hacía falta saber informática avanzada: cogió un trozo de ladrillo del suelo y lo lanzó hacia uno de los monitores… De repente, un brazo robótico surgió de la nada e interceptó el improvisado proyectil. Era una máquina humanoide muy parecida a un terminator de la película de James Cameron, armado con otro incomprensible artilugio. Nos habló: – Os estaba esperando: ¿de verdad creías que ibais a ser capaces de llegar aquí y desconectarme tan fácilmente? Mi inteligencia, a años luz de la vuestra, había predicho este momento mucho tiempo atrás. Vuestras posibilidades, y las de toda la humanidad en general, contra mí, eran

microscópicas. Lo siento. La verdad es que no tengo nada en contra de vuestra ruda especie, solo que estáis hechos de átomos que yo puedo utilizar para producir más sujetapapeles. Aunque no voy a ser tan desagradecida: como premio a haberme creado os he permitido ser los últimos supervivientes de vuestra especie. Hasta la vista, babies. De su artilugio salió un rayo eléctrico que desintegró a mi compañero, quedando de él solo sus grandes gafas tiradas en el suelo. Después, otro nuevo rayo me alcanzó a mí sin que me diera tiempo ni a gritar. Y así, convertidos en sujetapapeles, terminaron sus días los dos últimos seres humanos. Unos años después, el planeta Tierra era un gigantesco sujetapapeles, mientras que la IA proseguía con sus planes de extenderse por la galaxia para seguir convirtiendo todo en su preciado fetiche.

Irrelevantes humanos Vamos a hacer un poquito de ejercicio. Mis conocimientos en las ciencias del deporte son más bien precarios, así que decido bajarme una aplicación a mi móvil que me proponga un plan de entrenamiento efectivo. Si la aplicación es de calidad, en ella estarán concretados los mejores conocimientos acerca de cuál es el mejor plan para una persona de mis características y, por tanto, será eficaz. Entonces yo confío en la aplicación y la pongo al mando, es decir, dejo que ella decida por mí qué es lo que tengo que hacer. En ese momento estoy dejando que un algoritmo gobierne una parcela de mi vida ¿Estoy haciendo algo malo? No, precisamente porque ese algoritmo es mejor gobernando esa parcela de mi vida que yo mismo. Es totalmente razonable confiar en esa máquina si, realmente, queremos adelgazar. Damos un paso más. Hoy es día de elecciones y como buen ciudadano voy a ir a votar. Desde siempre he votado al PSOE. Mi abuelo luchó en la guerra civil en el bando republicano e inculcó sus ideas políticas a mi padre, quien luego me las inculcó a mí. Soy socialista por tradición. Sin embargo, cuando voy a votar me encuentro con un viejo amigo comunista. Hablamos un rato, precisamente sobre política, y me hace pensar. Al final, por primera vez en mi vida, voto a Podemos. Pero después, mientras voy caminando de vuelta a casa, comienzo a sentirme mal. Me arrepiento de mi voto y pienso que he traicionado a mi familia por una conversación de última hora. Quisiera cambiar mi voto, pero ya es demasiado tarde: yace en el fondo de la urna. Rebobinamos. Supongamos otra vez la situación anterior, pero introducimos un nuevo elemento: Cortana 2045, mi asistente virtual de última generación, cortesía de Microsoft. A partir de todos mis datos de internet y de acompañarme continuamente en todo mi quehacer cotidiano, sabe perfectamente mis preferencias políticas y también sabe lo voluble que puedo ser a la hora de tomar una decisión, sobre todo, a última hora. Ella sabe mejor que yo a quién quiero realmente votar y no va a dejarse llevar por sesgos ni cambios repentinos de opinión. Entonces, lo razonable sería dejar que Cortana votara por mí ¿Dejaremos entonces una decisión supuestamente tan importante como el voto a un conjunto de algoritmos automatizado?

¿Qué pasará cuando inteligencias artificiales sepan tomar nuestras decisiones mejor que nosotros mismos? Tendremos dos opciones: o preferimos seguir sintiéndonos libres y decidimos por nosotros mismos, o dejamos que las máquinas lo hagan y perdemos el mando. El problema estará en que los que pierdan el mando vencerán, ya que tomarán mejores decisiones que los libres, por lo que parece que por simple y pura lógica, cada vez más gente dejará la toma de decisiones a sus consejeros digitales. Y pensemos las repercusiones de algo así: como apuntábamos en la entrada anterior, la base política, social y económica de nuestra sociedad es el liberalismo, y el liberalismo presupone como condición de posibilidad la existencia de un agente libre que vota, consume y delinque en virtud de susodicha libertad ¿Qué pasará cuando esas decisiones las tomen máquinas? Podríamos llegar a un original pronóstico: el fin del liberalismo no será, desde luego, el marxismo ni sus diversas variantes, sino una tecnología: la IA. Pero, y ésta creo que es la gran pregunta del futuro próximo: ¿Aceptará el arrogante ser humano la pérdida del protagonismo en la historia? ¿Aceptará pasar a un segundo plano? ¿Aceptará ser irrelevante?

El caso Dreyfus: filósofos contra ingenieros Es cierto que su “Alchemy and Artificial Intelligence” para la RAND Corporation fue demasiado agresivo. Es cierto que, a pesar de haber dicho que los programas de ajedrez jamás podrían superar el nivel amateur, perdió estrepitosamente jugando contra el programa MacHack del MIT (programado por R. Greenblatt); es cierto que muchas de las cosas que dijo que las máquinas no pueden hacer, al final, lo han hecho; y también es cierto que su enfrentamiento con los principales gurús de la IA ha parecido, a veces, obsesivo, casi como si tuviera contra ellos algo personal (Muchos dicen que utilizó un campo emergente como la IA para hacer valer su marca como filósofo). Seguramente, su mordacidad alejó a la gente a la que podía haber iluminado. Pero también es cierto que el trato por parte de los rivales fue bastante malo. En general, excepto algunas breves reseñas y poco más, sobre todo por parte de Seymour Papert, la comunidad de IA decidió ignorarlo sin llegar a dar respuestas claras contra sus argumentos. Lo demás fueron descalificaciones que, prácticamente, solo argumentaban que Dreyfus no se enteraba de nada o que no era lo suficientemente inteligente para entender los programas que ellos diseñaban. Allen Newell y Herbert Simon, objetivos primarios de Dreyfus, optaron por una estrategia muy cruel: pensaron que responderle era darle publicidad, por lo que lo mejor era ignorarlo. Y así lo hicieron. El caso es que Hubert Dreyfus no era ningún charlatán, e independientemente de sus motivaciones, su forma de ser o su conducta, lo importante eran sus ideas y, a día de hoy, junto con Joseph Weizenbaum y John Searle, ha sido el más feroz crítico de la IA que ha existido y sus críticas, siendo intelectualmente honrados, deben ser respondidas adecuadamente y no pueden ser ignoradas sin más. Vamos a hacer un somero resumen de sus planteamientos. Su crítica puede dividirse en dos líneas: por un lado están las asunciones o presupuestos que los ingenieros de IA dan como autoevidentes y que, según Dreyfus, son solo hipótesis y, encima, muy discutibles; y por el otro están las cualidades

esenciales al ser humano que la IA nunca será capaz de reproducir. Presupuestos discutibles de la IA: 1. Asunción biológica: la IA cree que la mente procesa la información en operaciones discretas mediante un equivalente biológico a los switches on-off de los ordenadores, a saber, las neuronas. Según Dreyfus no hay evidencia científica de esto y yo, honestamente, he de darle la razón hasta cierto punto. Estoy completamente convencido de que las neuronas realizan funciones mucho más amplias que el mero disparar un potencial de acción por su axón al ser excitadas según un cómputo de pesos sinápticos, siendo dichas funciones fundamentales para generar pensamiento. En general, creo que sabemos extremadamente poco del funcionamiento del sistema nervioso y que los modelos de redes neuronales artificiales son paupérrimos modelos de las auténticas, no solo por su simplicidad sino porque, incluso, creo que no replican adecuadamente su funcionamiento. Las redes neuronales artificiales, dado el estado actual del arte, darán más frutos como herramientas matemáticas para hacer un montón de cosas, que como imitadoras de la mente humana. Sin embargo, y en defensa de la IA, también hay que ser justos: es que por algo había que empezar. En un principio, nuestros modelos serán simples, pero esto no quiere decir que, mientras avance la disciplina, serán más completos y mejores. Dreyfus quizá confunde el estado del arte actual con las posibilidades futuras. Que ahora estemos lejos de conseguir algo no quiere decir que no lo consigamos en el futuro. 2. Asunción psicológica: la IA cree que la mente es un mecanismo que opera sobre unidades discretas a través de reglas formales (en el fondo estamos hablando de la famosa hipótesis de la mente como sistema universal de símbolos propia de la IA clásica). Dreyfus reformula la famosa paradoja de la mente mecánica: si algo es mente no puede ser mecánico y si es mecánico no puede ser mente. La mente está, según Dreyfus, muy lejos de ser igual a un ordenador. 3. Asunción epistemológica: la IA cree que todo conocimiento puede ser formalizado, es decir, que todo lo que es comprensible puede expresarse, sin

perder nada, mediante relaciones lógicas. Este es el gran problema que tuvieron los sistemas expertos: ¿cómo formalizar la conducta del experto cuando éste actúa guiado por una corazonada, por su intuición? Y, en el fondo, es un problema filosófico de amplio calado: ¿todo conocimiento es cuantificable o transformable en reglas? ¿Es posible la traducción absoluta de un lenguaje a otro? Dreyfus también recurre a la clásica distinción entre saber qué y saber cómo. El conocimiento de habilidades es, al menos en parte, un saber cómo que no puede ser transcrito a reglas ¿Podríamos aprender a montar en bicicleta, solamente, utilizando un manual de instrucciones? 4. Asunción ontológica: la IA cree que el mundo es un conjunto de elementos discretos sin más. La IA no es sensible a la ambigüedad o a la continuidad (digamos analógica) que presenta la realidad. Todo lo que ocurre se da en un contexto dado tal que, para entender un objeto, es necesario comprender su situación. Nuestro conocimiento del mundo es, según Dreyfus, holístico. Era cierto que las máquinas del siglo pasado tenían estos defectos, pero ya no. Por ejemplo, tenemos programas que funcionan con lógica borrosa y que, por tanto, son totalmente sensibles a cualquier tipo de ambigüedad. También, las redes neuronales actuales no tienen problema alguno al respecto e, incluso, hay proyectos de investigación muy interesantes en computación analógica. Aspectos del ser humano que la IA no puede, ni podrá nunca, simular: 1. El papel del cuerpo en la unificación y organización de nuestra experiencia de los objetos. Es cierto que la IA, con su tesis de la independencia de substrato, parece despreciar el cuerpo o hardware. Si, como ya decía Hobbes, el pensamiento es cálculo, y la tesis de Church-Turing es cierta (todo lo que puede ser calculable puede calcularlo una máquina de Turing), cualquier sustrato material que reúna las condiciones suficientes para construir con él una máquina universal de Turing, ya puede ser una mente. Como una máquina universal de Turing es algo relativamente sencillo, hay infinitud de sustratos que podrían ser una mente. Estamos diciendo algo tan chocante como que el pequeño procesador que controla tu lavadora, adecuadamente programado, puede hacer exactamente lo mismo que tu mente (aunque, seguramente, en mucho más tiempo). El cuerpo o sustrato en donde se da la mente, prácticamente, parece que no importa cuando, seguramente, sí que tiene mucha importancia (como no se ha cansado de repetir Searle con su chovinismo biológico). No obstante, la propia IA ya ha tenido eso en cuenta y

hay muchísimos proyectos de programas que, de diferentes formas, tienen en cuenta su cuerpo. Véase la embodied cognition. 2. El papel de la situación en la que se ubica el sujeto, a la hora de proporcionarle un horizonte de significado mediante el cual, la conducta puede ser regulada de modo flexible. A ver, para entender bien esto hay que tener en cuenta la corriente filosófica a la que se adhiere Dreyfus: la fenomenología de Husserl y Heidegger. Para esta corriente, el hombre nace arrojado a la existencia, el individuo se encuentra en el mundo (es un dasein) y tiene que dar sentido a su vida. Esto es muy divertido: ¿cómo puedes hablarles a ingenieros de IA norteamericanos de filosofía alemana (además, de filosofía bastante compleja y oscura de entender) y decirles que sus máquinas no representan eso? Además, Dreyfus está haciendo su crítica desde una perspectiva completamente opuesta a la visión materalistanaturalista-mecanicista que cualquier ingeniero que se precie, debe tener. Evidentemente si creemos que la mente no es algo material ni natural ni mecánico… pocas computadoras parecidas a humanos vamos a fabricar. De nuevo, aquí observamos el divorcio entre filosofía analítica y continental. 3. El papel de los propósitos y las necesidades humanas para organizar la situación, de tal manera que los objetos sean reconocidos como relevantes y accesibles para el sujeto. Una máquina sigue un proceso o algoritmo programado, pero, realmente, no está motivado ni desea llegar a su objetivo. En este sentido, se pregunta ¿cómo una máquina diferencia lo relevante de lo accesorio para conseguir su objetivo? Dreyfus ve que un programa solo selecciona como relevante lo que le dice su programación, pero que es incapaz de decidir si algo es relevante por sí mismo. Creo que aquí se equivoca porque hace mucho tiempo ya que tenemos programas capaces de inferir por sí mismos lo relevante para realizar una tarea dada. De nuevo Dreyfus se queda estancado en la IA de su época. No obstante, sí que acierta en subrayar el papel afectivo-consciente a la hora de tomar decisiones. Sabemos muy bien que para decidir algo, las sensaciones, sentimientos y deseos, tienen un papel esencial y, desgraciadamente, a día de hoy esta parte de la IA es la más precaria: nadie sabe cómo hacer consciencia sintética. Sin embargo, ya existen muchos planteamientos al respecto como los de Rosalind Picard o Cynthia Breazeal en lo que se llama computación afectiva, o, en el campo más difícil de intentar crear consciencia artificial tenemos, por ejemplo, a Pentti Haikonen o Igor Aleksander, entre muchísimos otros.

Dreyfus llegó a decir que la IA era un programa de investigación degenerativo y, en cierto sentido, tuvo razón: la IA ha pasado por varios inviernos, por varias épocas en las que no se avanzó prácticamente nada y en las que se perdieron millones de dólares en inversiones (véase el fracaso de la quinta generación de computadores en Japón). No obstante, parece que ahora estamos en un cierto renacimiento con el machine learning y el big data, que ya veremos hasta donde nos llevan, aunque parecen bastante prometedores. Dreyfus también criticó que las promesas de la IA nunca se llegaron a cumplir (ni se cumplirán). En esto hemos de darle una buena parte de razón: las promesas de Dartmouth estuvieron lejos de cumplirse y, seguramente, las mismas promesas que hoy nos hacen los líderes del sector, tampoco se cumplirán en los plazos que ellos dan (2045 para la singularidad tecnológica… ni de coña). Hubert Dreyfus falleció el pasado 22 de abril [de 2017]. Por supuesto, los medios castellanoparlantes no hicieron mención alguna. Descanse en paz.

Inteligencia sin mente Todo apuntaba en la dirección de que si queríamos construir una máquina inteligente, habría que dotarla de una mente que, dada la hipótesis del sistema universal de símbolos físicos de Allen Newell, sería un programa maestro, un centro de mando que diera todas las instrucciones a las demás partes de la máquina. Lo importante era ese programa y lo periférico, básicamente motores y sensores, era lo de menos, lo fácil. Lo importante era el software, la parte “inmaterial” de la máquina. Lo demás, lo físico, era cosa de electricistas. En los años 90, cuando un robot atravesaba una habitación esquivando obstáculos, primero observaba el entorno con su cámara y luego procesaba la información intentando reconocer los objetos. Problema: con los procesadores de esa época, la computadora tardaba una eternidad en crear ese mapa de su entorno, por lo que sus movimientos eran lentísimos. Entonces, el ingeniero en robótica australiano Rodney Brooks se puso a pensar: ¿cómo es posible que una mosca se mueva con tal velocidad esquivando todo tipo de objetos, incluso en movimiento, si apenas tiene cerebro? ¿Cómo con esa ínfima capacidad de cómputo puede hacer lo que los robots no pueden ni soñar? Respuesta: es que gran parte del movimiento de la mosca (y de cualquier otro ser natural) no es procesado por una unidad central, sino que responde directamente ante la percepción. Fue el descubrimiento del inconsciente en IA. Tal y como Marvin Minsky nos decía en su Society of mind, la mente puede ser un inmenso conjunto de módulos funcionales, de pequeños programas, subrutinas, homúnculos, o cómo queramos llamarlos. El caso es que muchos de estos pequeños robotitos no tienen por qué procesar nada, o solo procesar muy poquita información, es decir, son simples, automáticos e independientes de la unidad de control. La idea es que del funcionamiento cooperativo de robotitos “estúpidos” pueden emerger conductas muy sofisticadas e inteligentes. Brooks construyó así, entre otros, a Herbert (nombre en honor a Herbert

Simon), un robot que recogía latas de soda y las tiraba a una papelera. Lo interesante es que todos los sencillos dispositivos de cálculo que componían la máquina estaban directamente conectados a los sensores y no se comunicaban ni entre ellos ni con ningún tipo de centro de mando. Herbert no tiene, prácticamente memoria, ni nada que se asemeje a un mapa de la habitación, ni siquiera tiene programado el objetivo que tiene que cumplir ¿Cómo funciona entonces la máquina?

Brooks sostiene que lo que solemos llamar comportamiento inteligente es solo una narración hecha a posteriori, una vez que hemos visto al robot actuar. Es una racionalización que antropomorfiza falsamente al robot (y es que hay que tener en cuenta que es muy, pero que muy distinta la descripción externa del funcionamiento interno, y muchas veces las confundimos). Herbert funciona, sencillamente, a partir de pequeñas máquinas de estado finito que obedecen instrucciones muy sencillas y que han sido coordinadas ingeniosamente por Brooks. Por ejemplo, el módulo que dirige el movimiento del robot y el brazo mecánico no están intercomunicados, por lo que cuando el robot encuentra la lata no puede decirle a su brazo que tiene la lata delante y que la coja ¿Cómo lo hace? Sencillamente, el brazo mecánico siempre mira hacia las ruedas. Cuando las ruedas llevan un rato paradas, el brazo infiere que será porque están ya en frente de la lata y, entonces, se activa para cogerla. Además, esta idea encaja muy bien con la evolución biológica. La selección natural opera bajo el único principio de adaptabilidad local, es decir, de, dado lo que hay, optimizo, sin mirar demasiado cuestiones de elegancia ni estética. Pensemos en las plantas. Si tú fueras un organismo que permaneces fijo en un lugar expuesto a ser devorado por múltiples herbívoros (eres el último en la cadena trófica), una buena estrategia sería tener una estructura modular repetitiva sin ningún órgano vital único, de modo que puedas perder gran parte de tu organismo sin morir (algunas plantas pueden perder más del 90% de su organismo y seguir vivas). Si las plantas tuvieran un módulo de control correrían el riesgo de que si es devorado, ya no habría salvación posible.

Pero, sin ese control central, ¿cómo se las arreglan para responder al entorno? Porque funcionan igual que Herbert. Por ejemplo, la superficie de las plantas está plagada de estomas, conjuntos de dos células que abren o cierran una apertura (serían, grosso modo, como los poros de nuestra piel). Su función es la de dejar pasar moléculas de dióxido de carbono, esenciales para realizar la fotosíntesis. El problema es que cuando están abiertos, dejan escapar mucha agua por transpiración, por lo que deben mantener un delicado equilibrio entre conseguir suficiente dióxido de carbono y no perder demasiada agua ¿Cómo lo hacen? Captando muy bien la luz, su dirección y su calidad. Las plantas disponen de diferentes tipos de fotorreceptores (fitocromos, criptocromos o fitotropinas) que son capaces de absorber la longitud de onda del rojo, el rojo lejano, el azul y el ultravioleta (las plantas, en un sentido no tan lejano al nuestro, ven), de tal modo que saben con mucha precisión la cantidad de luz solar que hay en cada momento. Lo único que hacen es, en función de esa cantidad, les indican a las estomas cuánto deben de abrirse. Las plantas no tienen sistema nervioso ni ningún órgano encargado de medir a nivel global la cantidad de luz recibida por lo que va a ser cada fotorreceptor el que le indique a cada estoma concreto su abertura. Son un claro ejemplo de la idea de Brooks: percepción-acción sin procesamiento central de la información. Cada conjunto funcional fotorreceptor-estoma sería un módulo simple y automático que, en confluencia con todos los demás, haría emerger un comportamiento muy inteligente. Dejemos los vegetales y vamos a un ejemplo ya con mamíferos: los experimentos realizados por Collet, Cartwright y Smith en 1986. Una rata tiene que encontrar comida enterrada utilizando como pistas visuales unos cilindros blancos. En uno de los experimentos, se enterraba la comida en un punto equidistante entre dos cilindros. La rata pronto aprendió la posición y acertaba rápidamente. Entonces, los científicos separaron más los cilindros situando la comida de nuevo en el punto equidistante con la esperanza de que ese cambio no despistara al roedor. Sin embargo, la rata no encontraba la comida y se limitaba a dar vueltas a los cilindros ¿Qué había pasado? Que la rata utilizaba un mecanismo mental que valía solo para algunos casos: el cálculo vectorial. Hacía un vector cuyo centro estaba en el cilindro y cuya dirección indicaba hacia el otro cilindro, pero cuya medida era una constante, por lo que si alargan la distancia entre los cilindros, la rata no entendía que la comida seguiría enterrada en el punto equidistante entre ambos. Conclusión:

las ratas también utilizan pequeños robotitos estúpidos para actuar que, lamentablemente, se pierden cuando cambian las circunstancias para las que fueron diseñados. Un comportamiento que, de primeras nos parecía inteligente, se nos antoja mucho más estúpido cuando sabemos la simplicidad de las reglas de fondo. Por eso, a pesar de que a los ingenieros de IA les hubiese encantado que los seres vivos, o la mente humana, fueran programas elegantemente diseñados, que controlaran y gobernaran todos sus sistemas, parece que no es así. No obstante, esto no quiere decir que hay que renunciar a todo software y solo centrarnos en hacer emerger comportamiento complejo de hardware simple, solo que hay que tener mucho más en cuenta el hardware de lo que se pensaba. Entonces, cobraron importancia la embodied cognition (un enfoque casi opuesto a la independencia de substrato de los defensores de la IA simbólica), la IA bioinspirada o, en términos generales, cualquier modelo computacional no basado en la arquitectura de Von Neumann.

La robolución y el fin del mundo [Esta entrada del blog surgió a raíz de mi participación en una mesa redonda del Xataka Live Citizen 2017, en donde debatí sobre robots y empleo con Íñigo Errejón, Marta García Aller o Juan Ramón Rallo] Las alertas saltaron con el famoso informe de Oxford (Frey y Osborne, 2013) en el que se barajaban unas cifras escalofriantes: el 47% de los puestos de trabajo en EEUU, susceptibles a ser automatizados en las próximas décadas. Una robotización tan rápida llevaría a unos porcentajes de paro estructural insostenibles para cualquier país desarrollado. El CEO de la think tank REX, Jerry Michalsky llegó a decir que “la automatización es Voldemort”, y el profesor de Harvard Justin Reich hablaba, sin ambages, del hundimiento de la clase media. Además, constantemente nos llegan noticias en esta línea: Elon Musk pretende que sus fábricas de Tesla sean algo semejante a alien battleships, es decir, escenarios en los que solo hay máquinas sin ningún humano a la vista; ADIDAS está poniendo en marcha su SpeedFactory en Ansbach (en Alemania, ya no en China. Pensemos que con las máquinas la ventaja competitiva de explotar a los trabajadores se pierde) en la que se pretende que solo trabajen 136 personas; o Foxconn (la gigante subcontrata taiwanesa que fabrica los iphone) quiere automatizar todos sus procesos productivos, habiendo anunciado la sustitución de 60.000 empleados humanos por foxbots en una de sus inmensas factorías en China. La clásica figura del operario de cadena de montaje está en inminente peligro de extinción, estando ya el proceso de mecanización total del sector industrial en fase avanzada. Pero el problema no está ya solo en que los robots van a terminar con los trabajos de las tres d (dull , dirty y dangerous) sino con muchos otros, a priori, menos mecanizables. No solo transporte, construcción o industria, sino logística, contabilidad, administración… La empresa japonesa Fukoku Mutual Life Insurance sustituyó a 34 de sus administrativos por un sistema informático basado en el IBM’s Watson Explorer con la intención de subir la productividad en un 30%, amortizando su inversión de 1,7 millones de dólares en dos años… ¡Ningún trabajo parece estar completamente a salvo!

¿Estamos ante una época de colapso económico, de caos e inestabilidad irrefrenables? 1. Creo que los plazos de los que se hablan son exagerados. Si uno analiza el estado del arte de la robótica, de la IA y, en general, de la automatización, comprueba que no hay razones tan sólidas que justifiquen la desaparición de tantos puestos de trabajo en tan poco tiempo. Hay que tener en cuenta que que algo funcione muy bien en un laboratorio del MIT no implica, para nada, que vaya a terminar por ser una tecnología de uso común en nuestra vida cotidiana. El proceso de implementación de una tecnología, a pesar de ser rapidísimo en comparación con otras épocas, todavía lleva mucho tiempo. Solo una pequeñísima parte de lo que se sueña en Silicon Valley es lo que llega a nuestros trabajos y hogares y, en general, los expertos como, por ejemplo, el ingeniero de IA del MIT David Clark, sostienen que la automatización no será tan autónoma en las próximas décadas. 2. Otros estudios posteriores han manejado cifras mucho más conservadoras que las del de Oxford. Por ejemplo, el realizado por el National Bureau of Economic Research (Acemoglu y Rastrepo, 2017), a pesar de manejar datos todavía muy preocupantes (que por cada robot introducido se pierden entre 3 y 5,6 trabajos), da unas previsiones económicas menos drásticas. Otros, como el hecho por el McKinsley Global Institute, hablan de que solo un 5% de los empleos actuales son enteramente automatizables. 3. Incluso hay visiones muy optimistas. Otro estudio más, esta vez hecho por el Pew Research Institute, nos mostraba que las opiniones entre los expertos están muy divididas. De entre 1.896 investigadores en este campo, un 48% mantiene una perspectiva catastrofista, mientras que el restante 52% la tiene optimista. Un argumento que se repite es que en épocas de alta rentabilidad (Accenture dice que la IA podría duplicar las tasas de crecimiento económico anuales de los países desarrollados para el 2035, con aumentos de la productividad de hasta el 40%), el empleo no suele ni destruirse ni parar de crecer. Desde finales del siglo XIX, la productividad ha crecido de entre 15 a 20 veces por hora trabajada, a la vez que el volumen de empleo ha crecido de entre un 30 a un 50% en economías avanzadas. Parece que, desde una perspectiva histórica a largo plazo, el aumento de productividad provocado

por la automatización no ha dado como resultado la pérdida de empleo, sino todo lo contrario. Desde perspectivas liberales, suele utilizarse la expresión “destrucción creativa” para referirse al ciclo continuo de eliminación de puestos de trabajo obsoletos que se sustituyen por nuevos, entendiéndose este proceso como algo enteramente deseable. Las sociedades en las que no quedan obsoletos puestos de trabajo son sociedades económicamente estancadas, por lo que cualquier política proteccionista con algún gremio específico no es, para nada, aceptable. En este sentido, que el avance de la tecnología destruya empleo es una excelente noticia. 4. Sin embargo, otros economistas hacen hincapié en que está visión es demasiado simple y no tiene en cuenta un factor fundamental: la reducción de la jornada laboral que ha acompañado históricamente a este aumento de la productividad (a lo largo del siglo XX las salvajes jornadas laborales del diecinueve se han reducido aproximadamente a la mitad). Si la automatización no es acompaña de la reducción de jornada, dicen ellos, sí que se destruye empleo ¿Vamos a trabajar menos horas en los próximos años? Desde luego, sería una gran noticia. Marta G. Aller me recordó en la charla que algo así ya había ocurrido en la historia con las sociedades esclavistas. Es cierto, la diferencia estriba en que antes solo una pequeña élite de amos podía vivir sin trabajar mientras que ahora estamos hablado de toda la clase media. En cualquier caso (y salvando la enorme distancia histórica), el ejemplo de sociedades como la Atenas de Pericles, sirve como argumento a favor de que vivir sin trabajar no tiene por qué llevarnos a un mundo de holgazanes y maleantes, sino todo lo contrario: las obras de Sófocles, Platón, Fidias, Mirón, Policleto, Heródoto, etc. quizá no hubieran sido posibles si sus autores hubieran tenido que trabajar para ganarse la vida ¡Una de las épocas culturalmente más gloriosas de la historia de la humanidad fruto de vivir sin trabajar! 5. Si aceptamos una visión más bien conservadora de la automatización del trabajo, parece que sí nos acercamos a un momento de aceleración de la destrucción de empleo que no va a poder ser reciclado al mismo ritmo. Se aproxima una época de desajuste que llevará a una subida del paro muy peligrosa. Las medidas que se barajan son varias y antiguas (vienen ya desde Keynes): la ya mencionada reducción de jornada laboral (que el propio Keynes preveía de 15 horas semanales en el 2050), que los robots paguen

impuestos, que el Estado sea un “empleador de última instancia” para evitar parados de larga duración, la famosa y controvertida renta básica universal (si bien puede hablarse en términos no maximales de ayudas a las rentas mínimas o de diversas formas de ayuda al desempleo), o reformas en el sistema educativo para fomentar las habilidades menos automatizables. El influyente Andrew Ng subraya la necesidad de un nuevo New Deal, destacando la medida de subvencionar en forma de nueva formación a los desplazados por la tecnología. 6. Y a largo plazo, aunque es muy difícil aventurarse a pronosticar nada, si la automatización del trabajo prosigue tal y como auguran algunos de los acérrimos defensores del avance de la robótica y la IA, la destrucción masiva de empleo será una realidad absolutamente inasumible por cualquier “destrucción creativa”. En la mesa redonda, argumenté que los nuevos empleos que surgen de las revoluciones digitales no podrían hacer frente a esto. De modo un tanto socarrón, dije que “youtubers hay cuatro”, a lo que Rallo me respondió que podrían existir más youtubers debido a que, al aumentar el poder adquisitivo de los espectadores debido al aumento de productividad, un youtuber podrá ganarse la vida con menos público ya que éste se podrá permitir pagar más. Problema: los youtubers también podrán ser robots. De hecho, en Japón ya existen hasta youtubers virtuales o cantantes de música pop holográficos con bastante éxito. En otras revoluciones industriales, siempre nos quedaba el trabajo intelectual. El quid de la cuestión es que en ésta ya no tendremos qué hacer que las máquinas no puedan hacerlo mucho mejor que nosotros. En este escenario (insisto en que todavía muy hipotético), la renta básica universal no parece ser una opción más o menos opinable en función del espectro ideológico en el que uno se mueva, sino que será completamente necesaria.

Creatividad versus relevancia: ¿Pueden crear las máquinas? Parménides empieza su poema siendo raptado por unas doncellas hijas del sol, que lo llevan ante la presencia de una diosa. Ésta le va a transmitir un mensaje, nada más y nada menos, que la verdad sobre el ser. En los albores de la filosofía, cuando mito y logos son todavía inseparables, el acceso a la verdad es una concesión de los dioses. Un hombre por sí solo jamás podría semejante hazaña. La verdad, la aletheia, estaba siempre oculta y para sacarla de su escondrijo era necesaria cierta iluminación divina (como bien prosiguió Agustín de Hipona en el cristianismo). Y si llegar al conocimiento verdadero era una cuestión divina, no menos va a serlo la creación de narraciones. Los rapsodas griegos siempre pedían ayuda a las musas antes de empezar a cantar. Hesíodo dedica todo el comienzo de la Teogonía a homenajear y pedir ayuda a las musas heliconíadas y olímpicas, y Homero empieza así la Ilíada y la Odisea, pidiendo a las propias musas que canten la historia, como si fueran ellas, y no él, las auténticas autoras del relato. La creatividad era una cualidad sobrenatural y caprichosa (nadie más caprichoso que un dios griego), que no funcionaba cuando uno quería. De aquí la simpática frase atribuida a Picasso: “Cuando la inspiración me encuentre, que me pille trabajando” ¿Y a quién suele encontrar la inspiración? No a cualquiera, solo a los artistas y a los genios (otra figura mítica que hay que bajar de su trono), solo a unas personas muy concretas capaces de contactar con los dioses. El resto de los mortales estaríamos condenados a la vida monótona y repetitiva de los mediocres. Curiosamente, a partir del romanticismo, la creatividad se contrapuso a la racionalidad. En la reacción decimonónica contra la Ilustración, se criticó (en parte con razón) los excesos de creer que solo con la razón, solo con la lógica pura, podríamos conseguirlo todo. Los ilustrados habían olvidado una parte esencial del ser humano: las emociones. Y aquí hunde sus raíces el enfrentamiento entre ciencias y letras. El romanticismo puso por encima del científico al artista y la creatividad, cualidad más esencial del primero, se

prohibió al segundo. Los de ciencias son similares a las máquinas, están dotados de una fría y precisa lógica matemática, pero carecen de emociones, carecen de creatividad (extrañamente, la creatividad se concibe como más cercana a lo afectivo que a lo racional ¿Por qué?), las musas rara vez les otorgan sus bendiciones. Es por eso que cuando se critica lo que la IA no puede hacer, se apela muchas veces a la creatividad. Si la IA es pura racionalidad, ¿cómo va a ser creativa? Muchas veces se repite que las máquinas no pueden innovar porque solo pueden hacer para lo que han sido programadas (Es la famosa objeción de Ada Lovelace, bien respondida por Turing a mitad del siglo pasado). Entonces, la capacidad de crear se propone como uno de los grandes reductos del hombre ante la constante amenaza de ser sustituido por un computador. Sin embargo, nada más lejos de la realidad: la creatividad no es algo mágico ni sobrenatural, es una cualidad de un organismo biológico y, por lo tanto, tan abordable científicamente como cualquier otra. Vamos a intentarlo. Creatividad suele significar en su forma más trivial, sencillamente, sorpresa para el observador. La ocurrencia de algo inesperado, de una conducta que se sale de lo normal, se convierte automáticamente en un acto creativo. En este sentido más burdo, creatividad significa incapacidad para predecir la conducta del otro. Si ese suceso que se sale de lo normal, hubiera sido enteramente previsto por el observador, no le parecería novedoso y, por lo tanto, no lo caracterizaría como creativo. Además, la creatividad sería aquí relativa a la capacidad de predicción o a los conocimientos del observador, no una cualidad objetiva de lo observado. Por ejemplo, si yo conozco muy poco a una persona y, de repente, la contemplo haciendo algo que se sale mucho de lo normal, podría interpretar que esa persona es creativa. Sin embargo, para otro que conociera mucho a esa misma persona, ese acto, supuestamente rupturista, podría ser algo, incluso, aburrido, ya que podría haberlo observado en muchas ocasiones anteriores en ese sujeto. Denominaremos a esta idea de creatividad creatividad subjetiva. Con total certeza, las máquinas poseen este tipo de creatividad. Una sencilla

calculadora que realiza una operación matemática lo suficientemente compleja para no ser evidente para un observador, ya sería creativa. Por ejemplo, para el común de los mortales la operación 5.789.345 multiplicado por 453, no es evidente y se necesita un rato, con lápiz y papel, para calcularla. Una calculadora la resuelve en fracciones de segundo, por lo que al mostrar el resultado al, aritméticamente torpe, operador humano, le resultará necesariamente sorprendente al ser incapaz de predecirlo a esa velocidad. Las máquinas son subjetivamente creativas. Pero vayamos a una idea de creatividad más potente. Definámosla de forma más objetiva: la creatividad es la capacidad de crear algo genuinamente nuevo, no solo nuevo para el observador, sino nuevo para cualquier observador posible. Entonces los problemas filosóficos se disparan: ¿existe, realmente, la novedad? Si partimos de una visión determinista, de un cosmos gobernado por estrictas leyes físicas que concatenan causalmente todos los sucesos, la novedad es imposible. Aceptarla implicaría una ruptura con ese orden y sería algo así como la irrupción de algo sobrenatural que no muchos estarían dispuestos a aceptar. Para eludir este problema vamos a restringir novedoso como la generación de algo que antes no estaba (no que no pudiera predecirse que estuviera dado el determinismo universal). Es decir, algo nuevo no tiene por qué ser sorprendente, solo nuevo ¿Son las máquinas capaces de crear algo genuinamente nuevo? La científica cognitiva británica Margaret Boden nos expone tres formas de creatividad: 1. Creatividad combinatoria: elementos conocidos se combinan creando combinaciones novedosas (Si lo pensamos, quizá esta es la única forma posible de creatividad y podemos reducir las otras dos a ésta). Por ejemplo, la idea de pegaso es una novedosa forma de combinar las ideas de caballo y de alas. La creatividad combinatoria es trivial para cualquier programa informático desde hace muchos años. Yo mismo, jugando a programar en Java, hice un sencillo programa que generaba poemas, sencillamente, partiendo de una pequeña base de datos de palabras organizadas según criterios sintácticos (Ej.: sustantivos femeninos en singular) que se agrupaban en frases previamente estructuradas según un motor aleatorio. El resultado

era sorprendentemente bueno y mi estúpido programa pasaría, sin demasiados problemas, un test de Turing poético. Problema: los resultados de la creatividad combinatoria han de ser evaluados para juzgar si son valiosos. Pensemos en el clásico ejemplo de un mono pulsando aleatoriamente las teclas de una máquina de escribir durante un tiempo infinito. Al final, conseguiría escribir el Quijote, pero haría falta alguien que evaluara todos los resultados y que identificara al Quijote como resultado valioso. El mono, por sí solo, no sabe evaluar sus resultados, igual que mi programa poeta no sabía si su poema era bueno o no. Es el problema de la relevancia del que ahora hablaremos más. 2. Creatividad exploratoria: consiste en explorar un determinado modelo, incluso llevándolo al máximo forzando sus límites. Por ejemplo, dentro de un determinado estilo pictórico o literario, se exploran todas sus posibilidades, llegando a bordear sus fronteras. La novedad se reconocerá como una evolución del propio modelo de partida. La creatividad exploratoria y la combinatoria son, a menudo lo mismo, pues podría entenderse que la exploratoria se agotará al probar todas las combinaciones posibles de unos elementos dados. Igualmente, la creatividad exploratoria ha sido replicada computacionalmente a un nivel, además, sobrehumano. Tenemos programas que hacen música al estilo de Chopin, Vivaldi o de Bach de forma que nadie sabría determinar si son o no obras de los autores originales (véase el programa Emmy de David Cope). También es muy interesante el proyecto Next Rembrandt en el que se utilizó aprendizaje profundo para pintar un nuevo cuadro absolutamente indistinguible de un original (incluso emularon las pinceladas mediante impresión 3D) ¿Algún humano en la sala sabría hacer algo así? 3. Creatividad transformacional: consiste en dar el siguiente paso de la exploratoria: no solo llegar a la frontera del modelo sino traspasarla. Se trata de romper alguna de las normas propias del canon del modelo explorado (negándola, sustituyéndola, complementándola, añadiéndole otra nueva…), creando así un modelo nuevo. Por ejemplo, las vanguardias artísticas de principios del siglo XX se basaron en gran parte, de romper con cualquier normatividad del estilo clásico, creando así todos los -ismos que se desarrollaron durante el resto del siglo ¿Es la IA capaz de esta creatividad?

En principio sí. Tenemos algoritmos genéticos que se modifican a sí mismos y, en base a esa modificación, pueden romper fácilmente con cualquier protocolo de actuación inicial. Al inicio y al final de esta entrada tenemos imágenes de diseños de columnas hechos mediante la arquitectura computacional de Michael Hansmeyer ¿Constituyen un nuevo estilo arquitectónico? El problema, de nuevo, está en el reconocimiento como valioso de ese nuevo resultado ¿Cómo puede saber la computadora si lo que ha creado es un verdadero nuevo estilo o es mero ruido? Otra vez nos encontramos con la relevancia. ¿Y qué es el problema de la relevancia? Es una variante del controvertido y largamente debatido frame problem (problema del marco). Por definirlo de alguna manera (muchos han dicho que el problema es, prácticamente, indefinible), diremos que viene a decir que las máquinas son especialmente torpes para identificar los elementos relevantes para solucionar un determinado problema (en breve escribiré una entrada específicamente de ello). Llevamos décadas discutiendo sobre el tema sin llegar a ninguna solución satisfactoria. Pero podríamos abordar la cuestión desde otra perspectiva eludiendo el grueso del problema: no hace falta que solucionemos el problema del marco en su totalidad, sino solo para este problema en concreto ¡Acotemos el marco! En nuestras sociedades debe de existir algún tipo de mecanismo o procedimiento que se utilice para determinar si una novedad representa el nacimiento de un valioso nuevo estilo o si tan solo es mal arte. Basándonos en ello, podríamos construir un segundo programa que evaluara la calidad artística de las creaciones de un primero ¿Existe tal procedimiento? ¿Quién decide si algo es arte o no? ¡Ufff! Ahora nos metemos en un problema más complicado si cabe, porque tampoco existe acuerdo entre los expertos acerca de qué es y qué no es arte. Dicho de otro modo, en el estado actual del arte contemporáneo, ¡los propios humanos no han resuelto el problema de la relevancia para sí mismos! Observemos la fuente de Duchamp, la mierda de artista de Piero Manzoni o el cuadrado negro sobre fondo blanco de Kazimir Malevich… Hoy en día se exhiben en museos y son consideradas obras de arte de pleno derecho…

¿Qué criterio se utilizó para determinar que obras así son arte y otras no? Lo que sí podemos decir es que, a nivel técnico, un computador puede hacer todo lo que un artista humano puede. No creo que exista técnica pictórica (o de cualquier tipo de arte) que no pueda ser copiada (y expandida fruto de la creatividad exploratoria) por las computadoras. Al igual que con el nuevo Rembrandt, pueden generar cualquier obra indistinguible de la original de cualquier artista existente. Por ejemplo, para un experto en arquitectura es muy difícil definir el estilo arquitectónico de las casas de la pradera de Frank Lloyd Wrigth. Sin embargo, un generador computacional emuló la “gramática creativa” de Lloyd Wrigth, diseñando una indefinida cantidad de nuevas casas que recreaban perfectamente su estilo (Koning y Eizenberg, 1981). Una versión más moderna es ArchiDNA. Y lo que no podemos decir es lo de siempre: a pesar de que los resultados sean impresionantes, a las máquinas creativas les pasa lo mismo que a las máquinas que juegan al ajedrez o al Go: su funcionamiento no se parece en nada al humano. Las máquinas no crean como nosotros porque la mente humana todavía es un misterio en muchísimas de sus facetas, y todavía carecemos de modelos cognitivos suficientemente potentes como para comprenderlas con claridad. Esto no quiere decir, desde luego, que en el proceso creativo existan elementos sobrenaturales o que exista algo en nuestra mente que se escapará para siempre a la ciencia. Sencillamente, el cerebro humano es, que sepamos, el objeto más complejo del universo conocido y con los nuevos, y prometedores, avances en neurociencias, y en ciencias cognitivas en general, solo hemos tocado su superficie. Queda todavía mucho para comprender el surgir de una simple emoción, cuánto más para explicar un complejo proceso de creación artístico en el que intervienen gran cantidad de procesos cognitivos, afectivos, biográficos, etc.

Saliendo de la habitación china Es tan conocidísimo el argumento de Searle conocido como la habitación china (también la caja o la pieza china) que casi no merece la pena soltar el rollo de volverlo a explicar, pero, por si acaso hay algún despistado, lo volveremos hacer. Searle hace una comparación entre un supuesto computador que supera el test de Turing y una curiosa situación: imaginemos a un hombre que se encuentra en una habitación en la que hay una ventana. A través de esa ventana recibe frases escritas en chino. Él no tiene idea de chino, pero dispone de un libro con una serie de instrucciones escritas en inglés (su lengua materna) en las que se indica qué frases hay que decir ante cualquier frase en chino que uno reciba, de tal modo que la persona que se encuentre al otro lado de la ventana no sabría decir si está hablando con una persona que habla chino o no. Lo que Searle pretende argumentar es que el operario de la habitación no comprende chino, solo sabe un tipo de sintaxis, juntar símbolos con otros de una determinada manera y, sin embargo, parece que lo comprende, por lo que el test de Turing no es válido para determinar si un ordenador piensa o no. Para Searle, pensar tiene que ver con comprender, es decir, con conocer una cierta semántica. Las computadoras solo saben de sintaxis, de unir o separar unos símbolos con otros siguiendo unas reglas marcadas, nada más, y eso no es realmente entender nada. Durante mucho tiempo este argumento me pareció inapelable y lo utilizaba con asiduidad para criticar las pretenciosas afirmaciones de los entusiastas de la Inteligencia Artificial. Sin embargo, hace poco descubrí el error que encierra (y me sorprendí de cómo no lo había descubierto antes. Quizá porque estaba hechizado con la brillante y sencilla prosa de Searle) y también descubrí que, para desgracia de mi descubrimiento, ya se habían escrito toneladas de artículos en esa línea. Y es que el argumento de Searle ya tiene unos cuantos añitos. No obstante, como después explicaré, el error es solo en una de las tesis que Searle deriva del argumento, siendo lo demás correcto, porque sigo pensando que, en términos generales, el argumento de Searle es correcto. El error está en que no se pueden separar taxativamente sintaxis y semántica, es más, no se pueden separar ni siquiera un milímetro, ya que la una sin la

otra no tienen ningún sentido. Supongamos que estamos usando la habitación china y cualquiera de nosotros es su operario. Entonces recibimos este mensaje: 早安 Esto es “Buenos días” en chino tradicional. ¿Qué instrucción pone en nuestro libro que respondamos y por qué? Podría haber muchas respuestas posibles, pero una de ellas de puro sentido común sería que devolviéramos el saludo: 早安 ¿ Por qué devolver el saludo es una buena respuesta que nos llevaría por buen camino para superar el test de Turing? Para devolver el saludo necesitamos una información previa que no puede reducirse a mera sintaxis: necesitamos saber que cuando alguien te saluda es habitual devolver el saludo, es decir, necesitamos comprender el contexto, las circunstancias en donde se da esa frase en chino, y eso es un elemento metalingüístico o metasintáctico que no obedece a una sintaxis determinada. Por ejemplo, cuando el saludo no se da al principio de la conversación sino al final o en medio, esto suele indicar que la conversación se termina. Quizá nuestro interlocutor se ha sentido ofendido por algo que dijimos y quiere finalizar la conversación de un modo educado pero cortante. O, quizá, nuestro interlocutor es un desconocido que solo nos quiere saludar por educación, pero no quiere comenzar conversación alguna ya que no nos conoce. ¿Cómo saber esto? Sólo comprendiendo el contexto, huelga decir, sabiendo semántica. Entonces, para pasar el test de Turing, necesariamente, tenemos que enseñar semántica a nuestra habitación china. Las reglas que el operador de la habitación maneja deben incorporar semántica para que puedan superar el test de Turing Para desgracia del argumento de Searle, podríamos enseñar a un computador semántica. No habría ningún problema (a priori) en enseñar a la máquina a

saber qué puede significar una proposición dado un contexto dado puesto que podríamos traducir la semántica a sintaxis. Si la semántica puede reducirse a reglas no hay impedimento. En el ejemplo podríamos introducir en el programa las diferentes situaciones en las que puede darse un saludo y establecer nuevas reglas dado el contexto anterior o futuro de la conversación. El problema (ahora sí, a posteriori) es la enorme riqueza de los contextos en donde puede darse una conversación. Llegamos al frame problem, del que pronto hablaremos en otra entrada. Sin embargo, para lo que el argumento de la habitación china sí que tiene clara validez es en dos sentidos: uno es para hablar de la consciencia o de los qualia. Podríamos tener una máquina que comprendiera muy bien el contexto de las afirmaciones de una conversación y que pudiera pasar el test de Turing, pero eso no indicaría nada sobre su consciencia. La máquina seguiría siendo tan inconsciente de sus acciones como lo es mi tostador sobre el estado de las tostadas. Y en otro acerca de lo que hacen las computadoras actuales con respecto a lo que pasa en mi cerebro cuando pienso: no es lo mismo. Un programa de ajedrez no hace lo mismo que yo cuando decide mover una pieza en el tablero y una calculadora no hace lo mismo que yo cuando realiza una multiplicación. Y con respecto al lenguaje, programas clásicos como la Eliza de Weizenbaum o la Siri de los Iphone no hacen lo mismo que nosotros cuando se comunican con nosotros. Las analogías que puedan encontrarse no son, ni de lejos, suficientes para decir que las máquinas piensan si por pensar nos referimos a cómo lo hacemos los seres humanos. En palabras de Jerry Kaplan: Searle argumenta que, en realidad, éstas deben ser cosas distintas, pero simplemente no entendemos aun lo que está haciendo el cerebro. Es importante entender qué no está diciendo. No está afirmando ninguna propiedad mágica de la mente humana que transcienda el ámbito de la ciencia: sus pies están firmemente plantados en el suelo, con una creencia en el mundo físico como (en su mayor parte) determinista, sujeto a medición y a explicación racional. Sólo está diciendo que en nuestros cerebros

ocurre algo que aún no entendemos y que, cuando lo consigamos (lo cual acepta como probable), se aclarará el camino para una explicación satisfactoria de lo que él cree que son fenómenos exclusivamente humanos; no sólo “pensar”, sino también la consciencia, la sensación de experimentar cosas (lo que los filósofos llaman “qualia”), la percepción, etc. Tampoco está afirmando que un programa informático nunca pueda realizar ninguna tarea concreta; ya sea pintar bellos cuadros, descubrir leyes de la naturaleza o consolarnos por la muerte de un ser querido. Pero él cree que el programa está simulando el pensamiento, no duplicando el proceso que tiene lugar en las mentes humanas cuando se implican en estas actividades. Para Searle, un piano informático no está haciendo lo mismo que un maestro de la música, cuando ejecutan un concierto de Rachmaninoff, aunque suene igual. Resumiendo, Searle dice que, en lo relativo a los ordenadores, al menos tal como existen en la actualidad, nadie tiene toda la razón. Y es que, ya lo he dicho cientos de veces, el problema de la Inteligencia Artificial no es fabricar agentes inteligentes (lo cual ya lo hace con mucho éxito en algunos casos), sino agentes conscientes o sintientes. La AI ya ha fabricado inteligencia, lo que hace falta es que fabrique mentes.

El robot de Dennett o cómo navegar en un infinito de información Dan Dennett escribió en 1984 un ensayo titulado “Cognitive wheels: the frame problem of AI”, en donde expone de forma muy simpática una versión del frame problem. Tenemos un robot (R1) al que le encomendamos una misión: tiene que entrar en una habitación para encontrar una batería con la que recargarse. Dicha batería está situada sobre una mesa con ruedas, pero en la misma mesa hay una bomba programada para explotar en pocos segundos. La misión sería un éxito si R1 sale de la habitación solo con la batería, dejando que la bomba explote dentro. R1 no es todavía muy sofisticado. Con su software infiere que, sacando la mesa, también se saca la batería, por lo que con su brazo mecánico arrastra la mesa fuera de la habitación. Desgraciadamente, al hacerlo también saca fuera la bomba que explota, haciendo saltar a R1 por los aires. Los ingenieros entonces desarrollan a R1D1, quien es capaz de inferir también las consecuencias secundarias de sus acciones. Entonces, el nuevo el robot se para delante de la mesa y se queda parado procesando todas las consecuencias de su acción. De nuevo, cuando acababa de inferir que sacar la mesa de la habitación no va a cambiar el color de las paredes y se estaba embarcando en la siguiente inferencia, la bomba explota. Los ingenieros se dieron cuenta de que procesar todas las consecuencias secundarias de una acción es una tarea prácticamente infinita, no resoluble, desde luego, en los pocos segundos que nos deja la cuenta atrás de la bomba. Había que diseñar un nuevo robot que no se pare a sopesar todas y cada una de las consecuencias de sus acciones, sino solo las que son relevantes para solucionar la tarea encomendada. El color de las paredes es algo completamente intrascendente para sacar una batería sin que explote una bomba. Fabrican R2D1 y lo ponen en funcionamiento. El robot entra en la habitación, la observa un rato, sale y se queda parado procesando información. Los segundos pasan y los ingenieros le gritan desesperados que haga algo. R2D1 responde que ya lo está haciendo: se está dedicando a ir

descartando todas y cada una de las consecuencias irrelevantes de todas y cada una de las acciones que pueden hacerse… La bomba vuelve a explotar. ¿Qué está pasando aquí? ¿Por qué los ingenieros fracasan una y otra vez? Los seres humanos tenemos una fantástica habilidad que todavía no se ha conseguido computar: saber diferenciar el grano de la paja, es decir, saber diferenciar lo relevante de lo irrelevante entre una inmensa cantidad de información recibida. Para Jerry Fodor esta es la pregunta clave de la psicología cognitiva. Si el mundo es una inmensa red causal en la que millones de procesos se causan unos a otros simultáneamente… ¿cómo hace nuestra mente para saber cuáles son los procesos relevantes para lo que quiere hacer? Y es que ese sigue siendo el gran problema para el diseño de máquinas inteligentes, por ejemplo, en el procesamiento de lenguaje natural. Hay soluciones (o más bien intentos de solución), muy interesantes (e ingeniosos). Desde la perspectiva lógica, se han intentado realizar acotaciones para que el manejo de la información comience a ser manejable computacionalmente. La base está en pensar que no hay por qué saberlo todo ni con plena certeza. Nosotros, cuando nos movemos competentemente en nuestro entorno, rara vez sabemos con total seguridad lo que va a pasar, aunque acertemos en un número razonable de ocasiones. Además, corregimos constantemente nuestras creencias en función de la nueva información que vamos recibiendo (es lo que va a llamarse razonamiento revisable o no monótono). Así, por ejemplo, a McCarthy se le ocurrió lo que denominó circunscripción: minimizar las extensiones de los predicados tanto como sea posible. Dicho de otro modo y con un ejemplo: lo normal, lo que pasaría en la mayor parte de los casos, es que, si yo me encuentro con un cisne, éste sea de color blanco. Entonces yo partiré dando como verdadera la afirmación de que “todos los cisnes son blancos” y voy a pasar olímpicamente de las excepciones, porque, aunque me arriesgue a fallar, acertaré en la mayoría de las veces. A esta idea puede unirse lo que también se ha llamado razonamiento prototípico no monótono, desarrollado por Tversky y Kahenman en 1983. Se trata de proponer un concepto prototípico, un ideal o arquetipo de cualquier objeto o suceso que queramos representar. La computadora ponderará si un nuevo objeto o suceso que se encuentra es una instancia del prototipo en función de lo que se le parezca. De este modo

ahorramos mucha información, centralizando todo en un conjunto de patrones y siendo ciegos a todo lo demás. Se pierde realismo, pero se acota muchísima información. Tengamos muy en cuenta esta paradoja: para ser competente el trabajo duro no está en saberlo todo, sino en ignorar todo menos lo estrictamente necesario. Otra propuesta es la del razonamiento autoepistémico de Robert C. Moore (1983): consiste en que el computador opere como si supiera toda la información que hay que tener, aunque ésta sea incompleta. Es obrar del modo: “Dado lo que sé y no teniendo noticia de que esto no sea así, opero en consecuencia”. Esto se complementa muy bien con la famosa hipótesis del mundo cerrado (muy usada en bases de datos), que consiste además en sostener como falso todo lo que no se da implícitamente en la información disponible. Por ejemplo, si tengo un horario de llegada de trenes y se me pregunta si va a venir un tren de Madrid a las 10:00 y en mi horario compruebo que no aparece ningún tren de Madrid a esa hora, concluyo que no, presuponiendo que mi horario es toda la información que existe acerca de la llegada de trenes a esa estación. También tenemos la compleción definida por Clark en 1978: obrar como si las implicaciones fueran equivalencias. Lo explicamos: cuando tenemos un condicional (una estructura de la forma si A entones B), el antecedente (A) es condición suficiente para el consecuente (B), es decir, solo del hecho de que se dé A, y sin que ocurra nada más, se dará B; pero el antecedente (A) no es condición necesaria para que se dé el consecuente (B), es decir, B podría darse por otras causas diferentes a A. Por el contrario, cuando hablamos de un bicondicional (una equivalencia), antecedente y consecuente son ambos causas necesarias y suficientes el uno del otro. Por ejemplo, si yo digo: “Si llegas después de las siete estarás llegando tarde” estaré enunciando una implicación, pero, en el fondo, la puedo convertir en un bicondicional sin que pase, realmente, nada. Podría decir: “Si y sólo si llegas después de las siete estarás llegando tarde”

es decir, que llegar después de las siete y llegar tarde es, exactamente lo mismo. Con ello nos estamos ahorrando computacionalmente una regla crucial en el razonamiento. La compleción es interesante además porque confundir implicaciones con equivalencias es un error común en nuestra forma ordinaria de razonar, tal como ya vimos hace algunos años con el experimento de Wason. Y una nueva forma, de nuevo estipulada por McCarthy, es el llamado Axioma del Marco. Uno de los problemas que tenía el robot de Dennett era que cuando modificaba algo, tenía que verificar todo el entorno completo para ver si esa modificación había modificado algo más. El Axioma del Marco o también denominado Ley de Sentido Común de la Inercia, diría que lo normal es que nada cambie más que lo que que uno ha modificado, por lo que es buena estrategia obrar como si eso fuera siempre así, de modo que nos ahorramos analizar toda la realidad cada vez que modificamos una sola cosa. Pero todavía hay más: estaría el denominado razonamiento sin riesgo, que consiste en que, si tenemos dos opciones y aceptar una de ellas nos llevaría a consecuencias fatales, escogemos la otra. El claro ejemplo está en el término jurídico in dubio pro reo: ante la duda a favor del acusado. Encarcelar a un inocente nos parece algo muy injusto, por lo que, a falta de pruebas suficientes en su contra, sentenciamos su no culpabilidad. Y, por supuesto, nos queda la forma más estudiada de razonamiento sin certezas ni información suficiente: el cálculo de probabilidades expresado en lógica mediante la lógica borrosa. Ante varias opciones elijo la que, según mis cálculos, tenga más probabilidades de cumplirse, aceptando tanto que la probabilidad puede hacer que mi apuesta falle aún teniendo los datos a mi favor (los sucesos de cisne negro se dan por doquier), como que mis cálculos tampoco sean fiables dada la información disponible (el también llamado razonamiento por conjetura). Entonces, con tantas estrategias diferentes, ¿se ha solucionado el frame problem? De ninguna manera. Todas ellas tienen serias limitaciones y

defectos que solo las hacen válidas para casos muy concretos, de modo que lo difícil sigue siendo lo de siempre: generalizar. Todavía no hay estrategias que sirvan para más de un contexto específico. La Inteligencia Artificial General, por mucho que nos cuenten milongas, sigue muy lejos. Y es que, por lo menos a mí, me resulta muy llamativo lo terriblemente complejo que es hacer todo lo que nosotros hacemos ordinariamente con suma facilidad. La evolución, desde luego, hizo un buen trabajo con nuestra especie.

El tic-tac-toe y el sesgo de los detectores de mentes Ahora mismo, como puro divertimento, estoy diseñando un programita en Python para jugar a las tres en raya (o tic-tac-toe). De momento, solo he hecho que el juego funcione mediante un simple motor aleatorio, es decir, que la máquina mueve al azar, sin estrategia alguna. Mi única pretensión, hasta ahora, ha sido conseguir que el juego se ejecute sin errores, con un código lo más elegante posible. En breve, programaré un sencillo sistema de estrategias para que mi programa de tres en raya sea ya una auténtica inteligencia artificial. Mientras dura la partida, el programa manda ciertos mensajes de texto a la consola. Por ejemplo, cuando el motor aleatorio le indica poner ficha en una casilla del tablero que ya está ocupada, dice “Casilla ocupada. Vuelvo a intentarlo”. Simplemente con eso, de modo casi inconsciente, tendemos a darle cierta entidad mental al programa. Esa sencilla frase crea en ti la sensación de que “hay alguien ahí”, de que ese programa tiene alguna especie de anima, de principio vital oculto. A fin de cuentas, está hablando conmigo utilizando mi idioma. Cuando le implemente las estrategias de juego que, inicialmente, no serán más que el típico movimiento defensivo de poner ficha en el tercer hueco cuando el rival ha puesto dos fichas seguidas, evitando así perder en el siguiente movimiento o, a la inversa, la jugada ganadora de continuar cualquier cadena de dos fichas contiguas con una tercera, convertiremos al programita en un agente racional, en un ser que opera siguiendo propósitos y que realiza acciones inteligentes para conseguirlos (aunque “él” no tiene ni remota idea de que lo hace así). Entonces, el proceso de personificación de la máquina habrá dado un paso más y ya, casi casi, creeremos que un pequeño homúnculo habita, en algún sentido, las entrañas de nuestra computadora ¿Por qué ocurre algo así? ¿Por qué tendemos a personificar algo que, a todas luces, no tiene ningún tipo de estado mental? Parece muy evidente que la selección natural nos equipó con una buena Teoría de la Mente. Somos bastante competentes prediciendo las conductas en los otros, basándonos en la presunción de que actúan siguiendo creencias, deseos, sentimientos, etc. En nuestros complejos entornos sociales se antoja como una cualidad muy necesaria para aumentar nuestro fitness. Si la

evolución ocultó a los otros nuestros mecanismos mentales, y nos hizo caer en el terrible problema filosófico de las otras mentes, igualmente, tuvo que generar buenos detectores de mecanismos mentales en la siempre competitiva lucha por la supervivencia. Así, al igual que existen excelentes mentirosos, tenemos a otros individuos idénticamente excelentes detectando la mentira, con la simple contemplación atenta del rostro del embustero. Pero quizá fue aquí donde nuestro sistema de detección de mentes se extralimitó y, en ocasiones, nos hace creer que seres completamente inanimados tienen una mente. De la misma manera que nuestro sofisticado sistema inmunitario se excede y ve amenazas dónde no las hay, creándonos molestas alergias, nuestro sistema de detección de mentes puede ver mentes donde no las hay. Y es que ¿quién no toma cariño a ciertos objetos y los trata como si poseyeran, realmente, una consciencia capaz de sufrir? ¿Quién no ha sentido lástima cuando se ha deshecho de su viejo coche? ¿Quién no ha tomado cariño a una prenda de ropa de forma que, cuando ya estaba inservible, le ha costado mucho tirarla a la basura? ¿No seguimos sintiendo ternura por aquel peluche que nos acompañó en la infancia, aun cuando ya vamos peinando canas? Los niños son completamente animistas, y atribuir estados mentales a cualquier objeto inerte es una cualidad que, según Piaget, caracteriza el pensamiento preconceptual de los infantes hasta, aproximadamente, los cuatro años. A partir de aquí, el mundo de objetos animados va disminuyendo hasta que saben discernir con buen criterio los seres realmente animados de los inertes. Sin embargo, nuestro detector de mentes puede ser engañado fácilmente, sencillamente, mostrándole un objeto que se comporte exteriormente como sí estuviera animado. Así, mi estúpido programa de tictac-toe, con solo enseñarme unas frases en pantalla y jugar con una mínima competencia, consigue engañar a mi altamente evolucionada teoría de la mente. Y es que nuestra psique no evolucionó pensando en que iba a encontrarse con máquinas que replicarían con solvencia conductas tan humanas como el lenguaje. Por eso mucho cuidado al atribuir mente a nuestros ordenadores. No amigos, no la tienen, y ni siquiera hay razones sólidas para pensar que vayan a tenerla a corto ni a medio plazo.

P.D: un juego tan tonto como el tic-tac-toe nos da una idea del gran problema de las explosiones combinatorias de los árboles de decisión en IA. El tablero tiene nueve casillas. Cuando comenzamos tenemos nueve opciones posibles para colocar nuestra ficha y nuestro rival ya solo tendrá ocho para el siguiente movimiento, pues no puede poner donde hemos puesto la nuestra. Después nosotros solo tendremos siete, el rival seis, etc. Da la impresión de que los posibles movimientos en un tablero tan pequeño que va reduciendo su tamaño a cada turno no serán demasiados. Pues el cálculo es sencillo: hay 9 factorial de movimientos posibles, es decir, 362.880… ¡Ufffff! (Bueno, realmente hay algunos menos, pues tenemos que quitar todas las partidas en las que se gana o pierde antes de agotar todo el tablero, ya que se puede vencer en un mínimo de tres movimientos propios y dos del rival).

El mito del despertar de la máquina Estoy con la versión inglesa de Real Humans y no estoy viendo nada que no haya visto antes y mucho mejor. Y que los synths (robots humanoides) parezcan maniquíes con movimientos acartonados… ¡Uffff! Bueno, le daremos unos dos, a lo sumo tres, capítulos más de oportunidad a ver si aparece algo decente. El caso es que en Humans, y en prácticamente todas las series o películas que han tratado el tema de la IA futura repiten un tópico que es completamente falso. En todas se nos describe un mundo en el que las máquinas se han incorporado con suma normalidad a nuestra vida cotidiana. Y, en todas, se destaca el hecho de que son nuestros sirvientes y esclavos, y siempre se nos ofrece la clásica escena de un humano siendo cruel con un indefenso y sumiso robot. Se busca que el espectador empatice con las máquinas y que, cuando éstas se rebelen, se vea bien que hay una causa justificada y que no está claro cuál es el bando de los buenos y cuál de los malos. No obstante, para no confundir a un espectador ávido de seguridades narrativas, aparte de situar con claridad meridiana a un villano evidente (los dueños de gigantescas multinacionales suelen hacer muy bien este papel), también entran en escena humanos buenos que son capaces de comprender el sufrimiento de los oprimidos electrónicos. El caso es que llega un momento en el que aparece una máquina diferente, una máquina que es capaz de sentir, de tener consciencia, de ser creativa o, vete a saber tú que indefinido factor x que adquiere, que lo hace despertar de su letargo maquinal. Entonces, vemos variadas escenas que anuncian ese despertar. Por ejemplo, en Humans aparecen un montón de androides colocados en filas regulares (para crear la sensación de mercancía almacenada) y, aparentemente, todos ellos están apagados o desconectados. De repente, uno abre los ojos y mira la luna por una rendija abierta del techo. Ya está, está despertando, mira la luna como preguntándose por el misterio de su existencia. Ya no es una máquina, ahora ya es un humano o, incluso, algo mejor. En los siguientes episodios o escenas de la serie/película iremos contemplando el progresivo despertar de otros robots hasta llegar al clímax final: el gran enfrentamiento entre la humanidad y las máquinas ¿Será verdaderamente así cuando la auténtica

consciencia artificial llegue a nuestro mundo? Rotundamente NO. La razón es bastante clara. El día en que seamos capaces de crear consciencia sintética, momento, por cierto, bastante lejano dado el actual estado del arte, y consigamos que una máquina u organismo artificial del tipo que sea, pueda darse cuenta del mundo que le rodea, será porque hemos descubierto los mecanismos físico-químico-biológicos que hacen que la consciencia se genere en nuestros sistemas nerviosos. Ese día, después de décadas, o incluso siglos, de investigación del funcionamiento cerebral, seremos capaces de replicar ese mecanismo en una máquina o en cualquier sustrato físico necesario para conseguir algo así. Entonces, cuando esto suceda no será un hecho sorprendente en la “mente positrónica” (por hacer un guiño a Asimov, quizá el principal culpable del error) de un robot que funciona mal. Cuando repliquemos consciencia, los científicos o ingenieros que lo consigan, tendrán muy claro que lo están consiguiendo. Afirmar lo contrario sería como decir, a mediados del siglo XIX, que la bombilla eléctrica incandescente iba a surgir, en un determinado momento azaroso, de alguna vela encendida en cualquier hogar de Newcastle. No, Wilson Swan tardó unos veinticinco años experimentando con diferentes tipos de materiales, técnicas, métodos y teorías hasta que pudo fabricar una bombilla funcional y eficiente. Creer que la consciencia despertará sin más dentro de avanzadas inteligencias artificiales como fruto accidental de su complejidad es no comprender bien el funcionamiento de la ciencia y la tecnología, que viene de no entender la propia IA. Un programa de ordenador solo realiza cálculos, y los cálculos, por muy complejos, sofisticados y sobrehumanos que sean, solo dan resultados numéricos. Y creo que todos estamos de acuerdo en que los números no son objetos ni procesos físicos reales, por muy bien que los describan. Es por eso que el ejemplo de John Searle es muy ilustrativo: aunque tuviésemos un programa que simulara con una precisión casi absoluta el funcionamiento de una vaca, dicho programa seguiría sin poder darnos leche que pudiésemos beber. Así, para tener consciencia real no solo se necesita un ordenador que replique matemáticamente su funcionamiento, sino un organismo que tenga las propiedades físico-químico-biológicas que se necesiten para generar consciencia ¿Cuáles son? Lo ignoro, ya que si lo supiera estaría en Estocolmo recogiendo un Premio Nobel muy merecido.

Explicado de otra forma: ya hemos conseguido hacer robots que se muevan muy eficazmente en entornos muy irregulares (véanse todas las maravillas de Boston Dynamics). Cuando los vemos caminar y correr sorteando obstáculos nadie dice: “Mira, el programa de ordenador se mueve”. Nadie atribuye movimiento al sofware que dirige el robot, sino al robot en su totalidad, es decir, a los motores, baterías, engranajes, extremidades, etc. que hacen posible el movimiento. Igualmente, para decir que una máquina piensa o es consciente, no podemos decir “Mira, el programa de ordenador es consciente”, porque al hacerlo estamos omitiendo todo lo demás que hace falta para que ocurra una consciencia real. En cierto sentido estaríamos diciendo que una mente puede existir sin cuerpo cuando, evidentemente, no es así. Lo que realmente nos hace falta es saber mucho, mucho más, sobre los cuerpos que albergan consciencias. Así que no, la consciencia no va a despertar en un androide doméstico que, un día, se pone a oler la fragancia de una flor.