Los avances de la Inteligencia Artificial. 9788413246604


129 3 3MB

Spanish Pages [215] Year 2020

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Índice
A modo de preámbulo
Introducción
Parte I. Leibniz, sus antecedentes y sus descendientes intelectuales
Capítulo 1. Comentario sobre las proposiciones futuro-contingentes
Capítulo 2. Otras conexiones y divergencias
Capítulo 3. Tres visiones sobre Leibniz
Capítulo 4. Leibniz desde nuevas perspectivas
Capítulo 5. La multiplicidad de los valores veritativos
Capítulo 6. Leibniz y su conexión con las nuevas lógicas
Capítulo 7. Tarski, Banach, y otros más
Capítulo 8. Viejos parajes para los nuevos temas
Capítulo 9. Otros "viveros" de buenos resultados
Parte II. Nueva lógica y nueva matemática
Capítulo 10. Conjuntos difusos y lógica difusa
Capítulo 11. Medidas e integrales
Capítulo 12. El problema de la vaguedad
Capítulo 13. La lógica modal y las otras lógicas
Capítulo 14. Sobre la relación entre Gödel y Leibniz
Parte III. Nuevas exploraciones, ya en nuestro viejo suelo
Capítulo 15. Un 'estudio de caso': Acerca de la recepción de las lógicas multivaluadas y de la inteligencia artificial en la península ibérica
Capítulo 16. La situación en Portugal, así como otras digresiones
Capítulo 17. Nuevas Consideraciones
Capítulo 18. Y algunas conclusiones más
Capítulo 19. Historia de las controversias sobre la introducción de al lógica difusa
Capítulo 20. Lógica y computación
Capítulo 21. Ciencia oriental vs. Ciencia occidental
Capítulo 22. Los desafíos de la inteligencia artificial
Capítulo 23. Concretando los desafíos de la IA
Capítulo 24. La lógica multivaluada y el grupo Bourbaki
Capítulo 25. El futuro incierto de los libros
Capítulo 26. Con aires de Vichy
Capítulo 27. Evocando a Leibniz
Capítulo 28. Coda (casi) final
Capítulo 29. Para una breve historia de la robótica
Capítulo 30. Sobre el Zen y la técnica en Heidegger
Capítulo 31. Las nuevas matemáticas: la inteligencia artificial
Alguna bibliografía sobre el tema
Nueva bibliografía, ésta tal vez definitiva
Apéndice
Recommend Papers

Los avances de la Inteligencia Artificial.
 9788413246604

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Dykinson eBook

LOS AVANCES DE LA INTELIGENCIA ARTIFICIAL

ÁNGEL GARRIDO UNED

ISBN: 978-84-1324-660-4

No está permitida la reproducción total o parcial de este libro, ni su incorporación a un sistema informático, ni su transmisión en cualquier forma o por cualquier medio, sea este electrónico, mecánico, por fotocopia, por grabación u otros métodos, sin el permiso previo y por escrito del editor. La infracción de los derechos mencionados puede ser constitutiva de delito contra la propiedad intelectual (art. 270 y siguientes del Código Penal). Diríjase a Cedro (Centro Español de Derechos Reprográficos) si necesita fotocopiar o escanear algún fragmento de esta obra. Puede contactar con Cedro a través de la web www.conlicencia.com o por teléfono en el 917021970/932720407

©  Copyright by    Ángel Garrido    Madrid, 2020 Editorial DYKINSON, S.L. Meléndez Valdés, 61 - 28015 Madrid Teléfono (+34) 91 544 28 46 - (+34) 91 544 28 69 e-mail: [email protected] http://www.dykinson.es http://www.dykinson.com Consejo Editorial véase www.dykinson.com/quienessomos

ISBN: 978-84-1324-660-4

Ángel Garrido UNED

LOS AVANCES DE LA INTELIGENCIA ARTIFICIAL

Editorial Dykinson Madrid, 2020

RECUERDO:

Como sabemos, en los orígenes de la Inteligencia Artificial subyacen muchos grandes hallazgos de brillantes mentes (o inteligencias) `naturales´, como las de G. W. Leibniz, Alan M. Turing, Norbert Wiener, János Neumann, John McCarthy, Marvin Minsky, Jan Lukasiewicz, Alfred Tarski, Lofi E. Zadeh, Stephen C. Kleene, Pál Erdös, Béla Bollobás, Grigore C. Moisil, etc., pero también de otros, como los autores y directores de la conocida como Ciencia-Ficción, tales como Arthur C. Clarke, Isaac Asimov, Philip S. Dick, Stanley Kubrick o Steven Spielberg. Que este sea un sentido y merecido homenaje a todos ellos.

DEDICATORIA

Obra dedicada, muy especialmente, a la memoria de mis grandes profesores y amigos, hoy por desgracia desaparecidos: Javier Muguerza, Eloy Rada, Quintín Racionero, Maite Román, Miguel de Guzmán, José Javier Etayo Miqueo, Cabiria Andreian-Cazacu, Solomon Marcus y tantos más. También va dedicado a mi compañera de siempre, Piedad Yuste. Gracias por todo.

INDICE DEDICATORIA ..................................................................................................

5

A MODO DE PREÁMBULO ..............................................................................

8

INTRODUCCIÓN ................................................................................................

12

Parte I Leibniz, sus antecesores y sus descendientes intelectuales

Capítulo 1. COMENTARIO SOBRE LAS PROPOSICIONES FUTUROCONTINGENTES ................................................................................................

14

Capítulo 2. OTRAS CONEXIONES Y DIVERGENCIAS ..................................

25

Capítulo 3. TRES VISIONES SOBRE LEIBNIZ ................................................

28

Capítulo 4. LEIBNIZ DESDE OTRAS PERSPECTIVAS ..................................

32

Capítulo 5. LA MULTIPLICIDAD DE LOS VALORES VERITATIVOS ........

35

Capítulo 6. LEIBNIZ Y LAS NUEVAS LÓGICAS ............................................

39

Capítulo 7. VIEJOS PARAJES PARA NUEVOS TEMAS .................................

45

Capítulo 8. TARSKI, GÖDEL Y OTROS LÓGICOS .........................................

51

Capítulo 9. OTROS VIVEROS DE POSIBLES RESULTADOS........................

54

Parte 2 Nueva Lógica y Nueva Matemática

Capítulo 10. CONJUNTOS DIFUSOS Y LÓGICA DIFUSA .............................

58

Capítulo 11. MEDIDAS E INTEGRALES ..........................................................

62

—6—

Índice Capítulo 12. EL PROBLEMA DE LA VAGUEDAD ..........................................

64

Capítulo 13. LA LÓGICA MODAL Y LAS OTRAS LÓGICAS ........................

78

Capítulo 14. SOBRE LA RELACIÓN ENTRE GÖDEL Y LEIBNIZ ................

97

Parte 3 Nuevas exploraciones, algunas ya nacidas en nuestro viejo suelo

Capítulo 15. UN `ESTUDIO DE CASO´: ACERCA DE LA RECEPCIÓN DE LAS LÓGICAS MULTIVALUADAS Y DE LA INTELIGENCIA ARTIFICIAL EN LA PENÍNSULA IBÉRICA ...................................................

96

Capítulo 16. LA SITUACIÓN EN PORTUGAL Y OTRAS DIGRESIONES ....

102

Capítulo 17. NUEVAS CONSIDERACIONES ...................................................

106

Capítulo 18. Y ALGUNAS CONCLUSIONES MÁS..........................................

112

Capítulo 19. HISTORIA DE LAS CONTROVERSIAS SOBRE LA INTRODUCCION DE LA LOGICA DIFUSA .............................................

115

Capítulo 20. LÓGICA Y COMPUTACIÓN ........................................................

127

Capítulo 21. CIENCIA ORIENTAL VS. CIENCIA OCCIDENTAL ..................

138

Capítulo 22. LOS DESAFÍOS DE LA INTELIGENCIA ARTIFICIAL .............

153

Capítulo 23. CONCRETANDO LOS DESAFÍOS DE LA IA .............................

158

Capítulo 24. LA LÓGICA MULTIVALUADA Y EL GRUPO BOURBAKI .....

163

Capítulo 25. EL INCIERTO FUTURO DE LOS LIBROS ..................................

165

Capítulo 26. CON AIRES DE VICHY ................................................................

170

Capítulo 27. EVOCANDO A LEIBNIZ ...............................................................

173

Capítulo 28. `CODA´ (CASI) FINAL ..................................................................

175

Capítulo 29. PARA UNA BREVE HISTORIA DE LA ROBÓTICA..................

179

Capítulo 30: SOBRE EL ZEN Y LA TÉCNICA EN HEIDEGGER ...................

185

Capítulo 31: LAS NUEVAS MATEMÁTICAS: LA INTELIGENCIA ARTIFICIAL .......................................................................................................

195

BIBLIOGRAFIA (TAL VEZ DEFINITIVA) ......................................................

199

APÉNDICE (O ALGO MÁS). CON UNA POSIBLE ACLARACIÓN ..............

212

—7—

A MODO DE PREÁMBULO. Nuestro propósito inicial venía siendo desde siempre contribuir a la búsqueda de los orígenes de las lógicas multivaluadas (MVL, con su acrónimo, o en sus siglas inglesas), y de la Inteligencia Artificial (AI), su posible relación con la tradición filosófica derivada de G. W. Leibniz, y dentro de ellas, como un caso muy especial, el de la “Lógica difusa”, también llamada “Lógica Borrosa”, o Fuzzy Logic, en inglés. Debido a que Leibniz puede ser considerado como el verdadero precursor de la moderna lógica formal y esto se basa en dos cuestiones principales: La primera sería la de desarrollar una `ideografía´ lógica, o “characteristica universalis”; la segunda razón estaría en su investigación sobre el llamado `calculus racionator´. Por todas estas razones, sería un más que notable y digno precursor de las lógicas modernas. Nuestro modesto trabajo proviene de la comunicación presentada, por la Profesora Piedad Yuste y por mí, en el X. Leibniz Kongress, celebrado en la Universidad G. W. Leibniz, de Hannover (Baja Sajonia), durante el mes de Julio de 2016. Allí había sido aceptado, y tomamos parte luego con él en la Sección que se titulaba de Lógica II, siendo bien recibido. Luego, su buena aceptación llevó a que nos propusiéramos la ampliación del escrito, para alcanzar sobre un centenar de páginas. Contemplamos aquí la perspectiva desafiante de las nuevas lógicas, desde el punto de su entronque con Leibniz, y sobre todo, nos ocuparemos de sus geniales anticipaciones. También estará conectado nuestro trabajo, cuando habla sobre la Inteligencia Artificial y la Robótica, con aquel famoso poema, El Golem, de Jorge Luis Borges, que ahora transcribimos: Si (como afirma el griego en el Cratilo) el nombre es arquetipo de la cosa, en las letras de `rosa´ está la rosa y todo el Nilo en la palabra `Nilo´.

Y hecho de consonantes y vocales, habrá un terrible Nombre, que la esencia cifre de Dios y que la Omnipotencia guarde en letras y sílabas cabales. —8—

A modo de preámbulo

Adán y las estrellas lo supieron en el Jardín. La herrumbre del pecado (dicen los cabalistas) lo ha borrado y las generaciones lo perdieron.

Los artificios y el candor del hombre no tienen fin. Sabemos que hubo un día en que el pueblo de Dios buscaba el Nombre en las vigilias de la judería.

No a la manera de otras que una vaga sombra insinúan en la vaga historia; aún está verde y viva la memoria de Judá León, que era rabino en Praga.

Sediento de saber lo que Dios sabe, Judá León se dio a permutaciones de letras y a complejas variaciones, y al fin pronunció el Nombre que es la Clave, la Puerta, el Eco, el Huésped y el Palacio, sobre un muñeco que con torpes manos labró, para enseñarle los arcanos de las Letras, del Tiempo y del Espacio.

El simulacro alzó los soñolientos párpados y vio formas y colores que no entendió, perdidos en rumores y ensayó temerosos movimientos. —9—

A modo de preámbulo

Gradualmente se vio (como nosotros) aprisionado en esta red sonora de Antes, Después, Ayer, Mientras, Ahora, Derecha, Izquierda, Yo, Tú, Aquellos, Otros.

(El cabalista que ofició de numen a la vasta criatura apodó Golem; estas verdades las refiere Scholem en un docto lugar de su volumen.)

El rabí le explicaba el universo “esto es mi pie; esto el tuyo, esto la soga”, y logró, al cabo de años, que el perverso barriera bien o mal la sinagoga.

Tal vez hubo un error en la grafía o en la articulación del Sacro Nombre; a pesar de tan alta hechicería, no aprendió a hablar el aprendiz de hombre.

Sus ojos, menos de hombre que de perro y harto menos de perro que de cosa, seguían al rabí por la dudosa penumbra de las piezas del encierro.

Algo anormal y tosco hubo en el Golem, ya que a su paso el gato del rabino se escondía. (Ese gato no está en Scholem pero a través del tiempo lo adivino.)

— 10 —

A modo de preámbulo

Elevando a su Dios manos filiales, las devociones de su Dios copiaba o estúpido y sonriente, se ahuecaba en cóncavas zalemas orientales.

El rabí lo miraba con ternura y con algún horror. `¿Cómo (se dijo) pude engendrar este penoso hijo, y la inacción dejé, que es la cordura?'

`¿Por qué di en agregar a la infinita serie un símbolo más? ¿Por qué a la vana madeja que en lo eterno se devana, di otra causa, otro efecto y otra cuita?´

En la hora de angustia y de luz vaga, en su Golem los ojos detenía. ¿Quién nos dirá las cosas que sentía Dios, al mirar a su rabino en Praga?

— 11 —

INTRODUCCIÓN.

Es una de nuestras metas finales, la de analizar cómo fueron siendo acogidos varios de los más grandes pensadores: Leibniz, Lukasiewicz, Lofti A. Zadeh, y las lógicas modernas en nuestra Península Ibérica, como otra región que es, y de una importancia que fluctúa con el paso del tiempo, dentro del complejo universo que es el de la filosofía. La búsqueda de los orígenes de las MVL y de la AI podría llevarnos demasiado lejos y finalmente, dispersarnos, lo que como es bien conocido, no es muy conveniente para un trabajo de investigación como este pretende ser. En primer lugar, debemos estudiar el problema de los futuros contingentes, ya tratado por Aristóteles en su Perihermeneias (llamado De Interpretatione en latín), y luego por muchos otros grandes pensadores, dando lugar a enconadas polémicas doctrinales, como la famosa De Auxiliis, en la que subyacía el mismo problema. Esta acerba controversia, con sus prolongados e incluso a veces violentos ataques, sería zanjada por la intervención de sucesivos Papas, que veían cómo los padres jesuitas y los frailes dominicos se debatían en una casi sangrienta, aunque dialéctica, pero interminable lucha.

— 12 —

PARTE I

LEIBNIZ, SUS ANTECESORES Y SUS DESCENDIENTES INTELECTUALES

Capítulo 1.

COMENTARIO SOBRE LAS PROPOSICIONES FUTURO-CONTINGENTES.

Hay que recordar que son afirmaciones sobre estados de cosas en el futuro que no son ni necesariamente verdaderas ni necesariamente falsas. Supongamos que una batalla naval no se librará mañana. Pero entonces, también era cierto ayer (y la semana anterior, y el año pasado) que no va a ser librada, ya que cualquier declaración verdadera de lo que será el caso también era cierta en el pasado. Sin embargo, todas las verdades del pasado son ahora verdades necesarias. Por lo tanto, ahora es necesariamente cierto que la batalla no se librará, y por lo tanto, la afirmación de que se librará es necesariamente falsa. Por lo tanto, no es posible que la batalla se llegue a librar. En general, si hay algo que no será el caso, no es posible para que sea el caso: Porque un hombre puede predecir un evento de diez mil años antes, y otro puede predecir la inversa; lo que se había predicho realmente en el momento en el pasado tienen la necesidad de tener lugar en la plenitud de los tiempos.1

El “problema de los futuros contingentes” es una paradoja lógica en relación con la contingencia de un evento futuro. Fue planteado por primera vez por Diodorus Cronus (en el siglo IV a. C.), de la Escuela de Megara. Al ser un problema llamado Argumento Maestro (Master Argument), luego reactualizado por el Estagirita, ambos admitieron que sus leyes lógicas no se aplicaban a eventos futuros (cabe recordar la famosa “batalla naval”, o `Sea Battle Paradox´).

1

Aristóteles, Peri Hermeneias, capítulo 9.

— 14 —

Los avances de la Inteligencia Artificial A sea fight must either take place tomorrow or not, but it is not necessary that it should take place tomorrow, neither is it necessary that it should not take place, yet it is necessary that it either should or should not take place tomorrow2.

Este problema tan paradójico da origen a la lógica modal, y en los escritos del filósofo polaco Jan Lukasiewicz, a la lógica trivaluada, en la que se introduce un nuevo grado para la indeterminación, al expresarlo mediante un tercer valor de verdad: Tout d’abord, en tant que fondateur des systèmes de logique propositionelle multivalents, j’affirme que ces systèmes […] sont nés sur fond de recherches logiques portant sur les propositions modales et les concepts de possibilité et nécessité3.

Acerca de esto, y de acuerdo nuevamente con Lukasiewicz, If statements about the future events are already true or false, then the future is as much determined as the past and differs from the past only in so far as it has not yet come to pass4.

Por lo tanto, la proposición de la batalla naval cae dentro de la amplia categoría de las frases futuro-contingentes que se refieren a que el futuro no es necesario, o a eventos no determinados en realidad. Posiblemente, Aristóteles intuía aquí la existencia de un “tercer” status lógico de las proposiciones. Pero él no estaba interesado en desarrollar una teoría al estilo de lo que más tarde serían las lógicas de multivaluadas, o de valores múltiples (con tres, cuatro e incluso infinitos valores de verdad). Para Aristóteles, las proposiciones que se refieren a eventos (sucesos) futuros contingentes, o bien pueden tener más valores de verdad, y debe abandonarse entonces el principio de bivalencia (pero también, en consecuencia, debiera hacerse con el principio de tercio excluso), o bien se acepta el principio de bivalencia, y como consecuencia, ontológicamente, se viene a adoptar una postura determinista. La estructura de ese famoso capítulo IX de su tratado De Interpretatione sería la siguiente: I.

Introducción.

II.

Desarrollo de las dificultades “fatalistas” (o del fatalismo), subdividido en:

A.

Fatalismo, o Determinismo.

A1. De un par de proposiciones singulares de tipo futuro contingencial, ambas no pueden ser verdad. A2. Por lo tanto, la verdad de una disyunción implica el fatalismo.

2

M. a., De Int., Cap. 9. J. Luk., Écrits logiques et philosophiques, Vrin, 2013; p. 97. 4 J. Luk., “On determinism”. Selected Works, PWN 1970; p. 120. También se refiere allí a Leibniz y a dos famosos laberintos en los que con frecuencia nuestra razón se pierde. Uno sería el que plantea el problema de la libertad y la necesidad, y el otro, el concerniente a la continuidad y la infinitud. 3

— 15 —

Ángel Garrido

A3. Y la verdad pasada de una disyunción también implica el fatalismo. A4. De un par de proposiciones contradictorias, futuro-contingenciales, ambas no pueden ser ciertas a la vez. B.

Absurdo del Determinismo.

B1. El fatalismo implica que todo sucede necesariamente. B2. Pero este, obviamente, no es el caso. III.

Resolución de las dificultades del determinismo.

C1. Necesidad y necesidad condicional. C2. Predicando Necesidad, colectiva y distributivamente. C3. Aplicación sobre las expresiones singulares de tipo futuro-contingencial. Todo esto puede verse desarrollado y comentado (por cierto, con gran agudeza) en la mencionada obra. Recordemos que la discusión de Aristóteles en ese capítulo noveno del Peri Hermeneias es de tipo básicamente interpretativo. El contenido del De interpretatione ha venido suscitando desde entonces encendidas y a veces enconadas polémicas, tanto durante el periodo de la Patrística como en la filosofía cristiana medieval. Incluso es posible encontrar muy frecuentes rastros de ella en el pensamiento judío y en el islámico, a través de los averroístas, de Al-Farabi, o de Maimónides. Asimismo, de los llamados averroístas latinos, como Sigerio de Brabante (1240-1285). Porque el debate se remonta incluso más allá, como dijimos, hasta la Grecia Antigua. Como apuntamos, los argumentos que pudiéramos llamar “deterministas”, o “fatalistas”, se pueden hallar tanto en el “Master Argument”, de Diodorus Cronus, como en el De interpretatione del Estagirita. Pero dado que el primero sólo se encuentra en forma fragmentaria e indirecta (se ha perdido el texto original, como tantos otros), será mejor centrarse en el segundo. Pues las derivaciones que se puedan obtener a partir de este tipo de argumentos resultarían claramente conflictivas, si son miradas desde el pensamiento cristiano más ortodoxo. Porque si según la Santa Biblia, Dios conoce todos los hechos futuros, ¿deben entonces esos sucesos (que Él sabe con anticipación) ocurrir necesariamente? Dado también que si Él conoce el valor de verdad de todas las proposiciones, y según la “línea de fuga” propuesta por Aristóteles, e insatisfactoria para los cristianos, esas proposiciones no serían aún ni verdaderas ni falsas… Tanto desagradaba ese planteamiento a la ortodoxia religiosa que llegó a ser declarado como herético por el Papa Sixto IV, en 1474. Lo cual venía derivado precisamente de una conferencia dada en la Universidad de Lovaina por Peter de Rivo, en la que proponía una casi `larvaria´ lógica trivaluada para tales proposiciones (las contingentes). Pedro de Rivo (originariamente llamado Peter van den Becken) fue un controvertido filósofo de Flandes, que brilló en las polémicas suscitadas en la Universidad de Lovaina, centro donde comenzó sus estudios en 1437, llegando primero a ser Maestro de Artes, en — 16 —

Los avances de la Inteligencia Artificial

1442; pasaría luego a estudiar Teología, sin que alcanzara nunca el título de Maestro en Teología. Escribió numerosas obras, no sólo sobre el pensamiento de Aristóteles, sino incluso acerca de algunos temas que muchos pueden considerar bastante exóticos o extravagantes, como el del horóscopo o el de la interpretación del calendario. Pero lo que le hizo más famoso fue esa encendida polémica sobre los futuros contingentes. Todo ello comenzó en 1465, cuando en un debate quodlibetal, Peter de Rivo defendiera la posición de Pedro Auriol sobre el “libre albedrío”. Para poder preservar la existencia de éste, Peter De Rivo negaba cualquier determinación de los futuros contingentes antes de su realización, dado que tanto para De Rivo como para Auriol, el no hacerlo implicaría la negación de la aplicabilidad del principio de bivalencia a las proposiciones acerca de los futuros contingentes. Así, cuando decimos “el Anticristo vendrá”, esto no es ni verdadero ni falso, sino simplemente “neutro”. También aceptaba Peter de Rivo otros elementos del pensamiento de Pedro Auriol, como que el conocimiento divino es, si hablamos con propiedad, “Foreknowledge” (o de `Presciencia Divina´), y no impone predestinación alguna sobre el futuro. Decía Jan Lukasiewicz, en su artículo Sobre el Determinismo, que: Dos enunciados de los que uno es la negación del otro se llaman contradictorios. Voy a ilustrar esta noción mediante un ejemplo tomado de Aristóteles. «Mañana habrá una batalla naval» y «Mañana no habrá una batalla naval» son enunciados contradictorios. Dos famosos principios derivados de Aristóteles, el principio de contradicción y el principio de tercio excluso, hacen referencia a enunciados contradictorios. El primero de ellos enuncia que dos enunciados contradictorios no son verdaderos a la vez, es decir, que uno de ellos debe ser falso. En lo que sigue no me ocuparé de este importante principio que Aristóteles, y con él otros muchos pensadores, consideraron como el más profundo sostén de nuestro pensamiento. Me ocuparé aquí del principio de tercio excluso. Éste establece que dos enunciados contradictorios no son falsos a la vez, es decir, que uno de ellos ha de ser verdadero. O bien habrá mañana una batalla naval o bien no habrá mañana una batalla naval. Tertium non datur. No hay término medio entre los argumentos de esta alternativa: no hay una tercera cosa que siendo verdadera, invalidaría sus dos argumentos. Puede ocurrir a veces que de dos personas en disputa, de las que una considera blanco lo que otra considera negro, estén ambas equivocadas, y que la verdad esté en algún punto entre esas dos aserciones. No hay contradicción, sin embargo, entre considerar una cosa como blanca y considerar esa misma cosa como negra. Sólo los enunciados que afirman que la misma cosa es y no es blanca serían contradictorios. En casos semejantes, la verdad no puede estar entre esos enunciados, o fuera de ellos, sino en uno de ellos5.

El problema del valor de verdad de los futuros contingentes también ocuparía la mente de los grandes lógicos medievales, como en el caso del filósofo escocés Juan Duns Scoto, y sobre todo, de Guillermo de Ockham (por cierto, ambos eran frailes franciscanos). Porque fray Guillermo de Ockham, el filósofo inglés, distinguía entre éstos tres tipos de proposiciones: la propositio neutra, la propositio vera, y la propositio falsa. Sin embargo, no llegaría nunca a desarrollar un sistema lógico que estuviera basado en la polivalencia.

5

J. Lukasiewicz, S. W., PWN, 1970; pp. 114 ss.

— 17 —

Ángel Garrido

Los estoicos eran deterministas, mientras que por su parte, los epicúreos no lo eran. Estos problemas también fueron discutidos por Leibniz en sus Essais de Theodicée sur la bonté de Dieu, la liberté de l’homme, et l’origine du mal (I, §§36-55 and II, §§169-176), y en su Discours de méthaphysique (§13).

Godofredo Guillermo Leibniz

Su propósito, como el de Jan Lukasiewicz más de dos siglos después, fue tratar de conciliar la libertad humana con la predestinación divina. Sin embargo, para Leibniz los juicios sobre el futuro sólo pueden ser verdaderos o falsos, sin dejar opción a un tercer valor de verdad. Como todos conocemos, Leibniz abrió otra rama de la lógica modal: la Lógica Deóntica (en sus Elementa Juris Naturalis), o relativa al deber, muy relacionada con los problemas de decisión y de argumentación en Derecho. Leibniz distinguía dos tipos de necesidad: la necesidad necesaria y la necesidad contingente, o bien necesidad universal vs. necesidad singular. La necesidad universal concierne a verdades universales, mientras que la necesidad singular se refiere a algo necesario que podría no ser; y así, es una “necesidad contingente”6. Por lo tanto, y tratando de no caer en el determinismo, Leibniz propuso distinguir entre la necesidad absoluta y la necesidad hipotética. Esta última viene alcanzando acontecimientos contingentes cuando estos se producen. Por lo tanto, es posible asignar un valor de verdad a un cierto evento que ocurrirá o no en el futuro, sobre la base de las condiciones que determinan qué ocurre en la actualidad. Como se sabe, aunque el punto de partida de Leibniz para su cálculo `universalis´ fue la teoría original de silogismos del Estagirita, Leibniz termina por conseguir su independencia de las teorías de Aristóteles, para finalmente desarrollar su propio sistema

6

Leibniz, DM, § 8.

— 18 —

Los avances de la Inteligencia Artificial

axiomático, pero de un tipo más general, basado en la aplicación del `instrumento combinatorio´ para la Silogística. Este es otro aspecto común de Leibniz con Lukasiewicz: el intento de axiomatizar la silogística aristotélica, de un modo similar a como se desarrolló en Geometría.

Jan Lukasiewicz

Hay muchas similitudes entre ambos matemáticos y filósofos: por ejemplo, la búsqueda de un lenguaje universal rigurosa y unívoca a través del cual expresar no sólo las declaraciones de las ciencias, sino también los pensamientos filosóficos. En resumen: es necesario crear un método científico para la ciencia y la filosofía por medio de la lógica matemática o la logística; característica universal, según Leibniz. Lukasiewicz era consciente de que esta disciplina fue inventada por el pensador sajón, y aunque hubo algunas discrepancias en relación con su concepción metafísica del universo, el espíritu de Leibniz impregnó sus obras. El problema de los futuros contingentes resultaría crucial –como ya dijimos- en la Edad Media, ya que durante el escolasticismo, fue abordado por Guillermo de Ockham, por Juan Duns Scoto, o por Ricardo de Lavenham, así como los salmanticenses o los conimbricenses, dominicos y jesuitas, entre otros.

— 19 —

Ángel Garrido El jesuita español Luis de Molina

En cualquier caso, se fue atacando desde diferentes puntos de vista, por su relación con el determinismo y el `Foreknowledge´ Divino. Entonces, este tema fue tomado por el jesuita español Luis de Molina (1535-1600), con la famosa controversia `De Auxiliis´, que mantiene con el fraile dominico Domingo Báñez (1528-1604), del Convento de San Esteban, de Salamanca, quien fuera confesor de Santa Teresa de Jesús, a la cual ayudó en sus proyectos reformadores de la Orden del Carmelo. También jesuita fue el admirado y admirable Padre Francisco Suárez (por sus Disquisitiones Metaphysicae; por ejemplo, en Alemania aun hoy en día), gran filósofo y teólogo español.

Algunos de los maestros de la llamada Escuela de Salamanca

— 20 —

Los avances de la Inteligencia Artificial El jesuita español Francisco Suárez

Pues tanto Luis de Molina como Francisco Suárez se dice con frecuencia que formaron parte de los llamados “conimbricenses”, o “conimbrigenses”, brillante grupo de jesuitas de la Universidad portuguesa de Coimbra, que tomaron la antorcha del liderazgo espiritual que los dominicos habían disfrutado durante el siglo XVI. Estaríamos hablando de la paralela Escuela de Salamanca, más bien dominicana, y no sólo dedicada a los aspectos teológicos, o a comentar las obras aristotélicas, sino también ellos fueron los precursores del Derecho Internacional, del Natural y del de Gentes, con personajes de la valía de un Francisco de Vitoria, de Melchor Cano, Bartolomé de las Casas o Domingo de Soto, dominicos todos ellos, poniendo las bases del pensamiento económico moderno; en este caso, con un Martín de Azpilicueta o un Tomás de Mercado. Otro pensador eminente que suele adscribirse a esta floración de mentes que tuvo lugar en esa época es el Padre Francisco Suárez, ya mencionado. También el Padre Luis de Molina cabe ser incluido en este grupo. Los dominicos giraban en torno a los estudios profesados en el Colegio de San Gregorio, de Valladolid, y en el afamado Convento salmantino de San Esteban, de los dominicos. El propio San Ignacio de Loyola, fundador de la Compañía de Jesús, decía que la encendida polémica a que nos referimos fue creada básicamente para combatir el determinismo de los luteranos. Ya había expresado que: No debemos hablar mucho de la predestinación por vía de costumbre; mas si en alguna manera y algunas veces se hablare, así hable que el pueblo menudo no venga en error alguno, como a veces suele diciendo: si tengo que ser salvo o condenado, ya está determinado, y por mi bien hacer o mal no puede ser ya otra cosa; y con esto entorpeciendo se descuidan en las obras que conducen a la salud y provecho espiritual de sus ánimas7.

Y por supuesto, el gran pensador alemán, G. W. Leibniz, analizará este delicado tema, en su Teodicea. Tan acerba controversia implica dos libros, que son la clave del tema: -

Concordia liberi arbitrii cum gratiae donis, divina praescientia, providentia, praedestinatione et reprobatione (Lisboa, 1588), del Padre Luis de Molina, S. I., Vs.

-

7

Apologia fratrum praedicatorum in provincia Hispaniae sacrae theologiae professorum, adversus novas quasdam assertiones cuiusdam doctoris Ludovici

Ignacio de Loyola, Regla 15a de sus Ejercicios Espirituales.

— 21 —

Ángel Garrido

Molinae nuncupati (1595), de fray Domingo Báñez, O. P., obra escrita contra los argumentos del primero, por encargo de la Inquisición española. En esencia, lo que se representaba era el posible antagonismo entre el libre albedrío de los seres humanos y la eficacia de la gracia divina. En pocas palabras: ¿Cómo pueden ser la omnisciencia y la omnipotencia divina compatibles con la libertad del hombre? La discusión tomó una forma particularmente intensa y acerba, durante la Edad Media. En este período, la lógica conectada su disciplina filosófica con la teología. Y una de las cuestiones teológicas más importantes sería precisamente el problema de los futuros contingentes, en su relación directa con la doctrina cristiana. De acuerdo con esta tradición, el problema debe estar relacionado con la presciencia divina. Ello incluye el conocimiento de las posibilidades futuras a realizar por los seres humanos, y por tanto, de los futuros contingentes8. Así enlaza con los problemas que estamos tratando. Lo cual parece conducir a un argumento bastante sencillo, pero sutil. Se trata del conocimiento de la necesidad de los acontecimientos futuros: ahora conoce Dios (y yo mismo) que voy a tomar tal decisión de mañana, que es verdad que se va a dar esa elección mía. Mi elección, entonces, parece ser necesaria, pero no libre. Por lo tanto, no parece haber ninguna base para la afirmación de que tengamos libertad de elección entre alternativas. La conclusión, sin embargo, violaría la idea de la libertad humana y la de responsabilidad moral. Nadie sería responsable, si no es libre de sus actos. Y esto sería muy peligroso, desde el orden legal hasta el orden moral. Sin embargo, es muy discutible si existe evidencia de algo similar a los precedentes de todo ello, esto es, a una lógica trivaluada en los tratados de Aristóteles (de acuerdo con su mención a los futuros contingentes). Las ideas del Padre Luis de Molina fueron bien plasmadas y argumentadas en su mencionada obra, la Concordia (Lisboa, 1588), pero es cierto que tuvo sus precedentes. Por ejemplo, en el concilio tridentino hubo brillantes intervenciones en este sentido del Padre Diego Laínez (1512-1565), quien fue el segundo General de la Societas Iesu, tras su fundador, Ignacio de Loyola. Incluso estuvo el Padre Laínez por ser elegido Papa al año siguiente de ese nombramiento. Y la verdad es que bien pocos votos le faltaron para que pudiera llegar a conseguirlo. En Salamanca, el Padre jesuita Prudencio de Montemayor expresó, ya antes que Luis de Molina, en unos debates escolásticos dirigidos por el mercedario Francisco 8

No ha de olvidarse que a las dos ciencias divinas admitidas por los tomistas, la de simple inteligencia y la de visión, propone Luis de Molina añadir la ciencia media. En el caso de la primera, se trata de una ciencia de esencias, que antecede a todo acto libre de la voluntad divina. Y en el segundo, sería una ciencia de existencias. Con ella conocería Dios las conexiones contingentes de las cosas creadas. Gracias a la que añade Molina, conoce Dios en su esencia cómo va a actuar cualquier agente libre. Por lo cual puede decirse que es la ciencia de los futuros condicionados, esto es, de aquellos que no son ni posiblemente sean, pues van a depender de una cierta condición. A todo lo cual añadió Molina la idea de concausalidad” o “doble causalidad” en los actos: por un lado, la propiamente humana, y por otro, la divina, lo cual fue duramente criticado por Báñez. Causas ambas que son parciales, pero necesarias. A la causa divina la denomina el jesuita “concurso general” o “concurso indiferente”, ya que no obliga al ser humano a actuar de un modo determinado.

— 22 —

Los avances de la Inteligencia Artificial

Zúmel, unas ideas bastante similares a las que este último sistematizaría por extenso en su obra9. Lo cual le valdría ser muy atacado por los dominicos, que apoyados en una Inquisición o Santo Oficio, que controlaban, le prohibieron enseñar teología. Aunque es cierto que saliera en su defensa el agustino Fray Luis de León; también este sería sancionado, apartándole de su Cátedra salmantina, por ese motivo y por traducir partes de la Biblia, como el Cantar de los Cantares. De ahí la famosa anécdota del gran poeta retornando a su aula (conservada en su recuerdo hasta hoy), empezando sus clases con aquella frase de: -

Como decíamos ayer.

Hemos de reconocer, sin embargo, que el razonamiento del hábil dominico que fuera Báñez, acerado polemista, está bastante bien estructurado en su Apología, rebatiendo a Molina, como cuando dice: Entonces argumentamos contra Molina así: Dios pudo crear a unos hombres - que, puestos en un orden de cosas, presupo (Dios) que se condenarían - en otro orden de cosas, sabiendo por ciencia media que en este otro orden de cosas harían un buen uso de su libre arbitrio. Por tanto, es propio de alguien duro y feroz, antes que del clementísimo principio, que por su sola voluntad, haya querido y elegido ese orden de cosas y en él haya creado a esos hombres, presabiendo que en ese orden de cosas harían un mal uso de su libre arbitrio y se condenarían para siempre y, sin embargo, a otros los haya puesto en otro orden de cosas, presabiendo que, con seguridad, en este orden harían un buen uso de su libre arbitrio. Por tanto, queremos saber, ¿por qué decide establecer antes un orden de cosas que otro, sabiendo que en este orden algunos se van a salvar y otros van a perecer? (...) Ciertamente, a ninguna razón primera se podrá atribuir esta diferencia de efectos, salvo a la voluntad divina, que elige a algunos en particular y a todos los demás, por el contrario, no elige sino que permite que pequen, para así mostrar en éstos su justicia y su poder, y en aquéllos, en cambio, su misericordia. Pero por qué habrá querido en particular mostrar en algunos su misericordia y en todos los demás su justicia, no se puede atribuir a ninguna razón, excepto a la voluntad divina.

Con lo cual, según Hevia Echevarría10, esta polémica De Auxiliis marcaría un límite en la Ontoteología, la cual en este punto debería decidirse entre el fideísmo o su disolución. Es, desde luego, una de las cuestiones más profundas e interesantes de toda la historia de la filosofía y de la teología11.

9

Lo que allí postulaba el padre Montemayor era de gran relevancia doctrinal; sobre todo, para espíritus bastante quisquillosos: sería la tesis según la cual si Dios vino a darle a Cristo el precepto de morir, éste no lo habría entonces hecho libremente, por lo cual carecería de mérito por hacer lo que hizo. Por esto hubo de marcharse rápidamente se Salamanca dicho religioso, quien sin embargo, seguirá enseñando en otros colegios de la Compañía, como los que esta tenía en Medina del Campo, en Palencia o en Valladolid. Y esto a pesar que el Cardenal Quiroga pidiera al Provincial de la Societas Iesu que se le prohibiese la enseñanza de la Teología. Allí enseñó el Padre Montemayor también Filosofía, siendo, además, confesor y predicador. En la primera de esas ciudades morirá como Rector del Colegio, en 1599. Por cierto, que había sido uno de los alumnos de Francisco Suárez. 10 En http://www.modulo.org/ec/2003/n013p01.htm, La polémica de auxiliis y la Apología de Báñez. 11 Otra de las perspectivas desde la cual esta polémica cabe que sea contemplada es la de si existiría alguna posible relación con el pelagianismo, una doctrina condenada por la Iglesia como herética y que desde sus

— 23 —

Ángel Garrido

¿Tiene algo que ver –como decimos en la Nota a pie de página anterior- lo que postula Luis de Molina con las tesis de Pelagio? Recordemos que este fue un monje que generalmente gozó de gran prestigio y ascendencia entre el pueblo, hasta que fuera ferozmente denostado en sus escritos por San Agustín. Esto fue cuando huyendo Pelagio de la invasión de Roma por las huestes de Alarico, vino a dar en las costas del Norte de Africa (en el 411), donde el obispo de Hipona tenía su “territorio” particular bien controlado. Pues aparte de negar el pecado original, y la `mancha´ que este llevaría implícita para todos, como consecuencia, no acepta Pelagio aquello de que se han de bautizar los recién nacidos, para que no se condenen en caso de fallecimiento prematuro. Porque postulaba la no necesidad de la gracia divina para ser salvado, esto es, que con la sola fuerza de voluntad (del “libero arbitrio”) de quienes practican asiduamente el ascetismo y llevan una vida virtuosa les puede permitir para alcanzar la salvación. De ahí que los bañecianos acusaran a los molinistas de incurrir en un cierto pelagianismo. Pero si tantos desvelos tuvieron los de Molina tratando de acordar la libertad humana con la Gracia Divina, ello debía ser, sin duda, porque esta contaba para ellos, porque era importante para algo. Lo cual no querría decir que el individuo virtuoso no pudiera llegar a salvarse mediante sólo sus obras. Lo que sí está en claramente contra de Lutero, más inclinado al fatalismo y el determinismo. Sólo la Gracia divina salva, para el antiguo monje agustino. Y en cuanto a la opinión dogmática del Concilio de Trento, este, en su Canon 23, imponía que: Si alguien dice que el hombre, una vez justificado, no puede pecar ni perder la gracia […], o por lo contrario, que puede evitar durante toda su vida todos los pecados, incluso veniales […], que sea anatema.

En la Sesión VI, Canon 4, asevera que: Si alguien afirma que el libre albedrío, movido y estimulado por Dios, no coopera en ningún modo con Dios, que lo llama y estimula —por lo que se dispone y prepara a obtener la gracia de la justificación, y que no puede negar, si lo quiere—, sino que se comporta como un ser inanimado y de manera pura y sencillamente pasiva, que sea anatema.12

La idea central acabaría siendo, pues, la de no considerar libre y autónomo, autosuficiente, el libre albedrío de los humanos, de modo que no nos bastaría con las buenas obras para conseguir salvarnos. Así, no serían imprescindibles ni las diversas Iglesias ni toda la compleja estructura, de personas y sacramentos, que en torno a ellas se ha venido organizando a lo largo de los siglos.

orígenes, en los siglos IV y V, ha vuelto a revivir bajo distintas formas. ¿Tiene algo que ver lo que postula Luis de Molina con las tesis de Pelagio? 12 Denzinger, Enchiridion Fidei.

— 24 —

Capítulo 2.

OTRAS CONEXIONES Y DIVERGENCIAS.

A lo largo de la historia del pensamiento, se han venido produciendo otras polémicas y controversias, teniendo como aspecto esencial la libertad humana y el libre albedrío. Una de las más famosas de todas ellas fue la que mantuvieron G. W. Leibniz y Baruch (Benito) Spinoza, en la casa de este, en La Haya. Era este último pensador descendiente de una familia de judíos españoles expulsados de su patria y que llegaron a Holanda a través de Portugal. De ahí que algunos dijesen que eran judíos portugueses. Existe un libro, cuyo autor es Matthew Stewart, y que está centrado en lo que allí supuestamente discutieron ambos. Tal obra se llama El Cortesano y el Hereje13, y ya sabemos a quién corresponde cada papel. Dicho autor se inclina claramente por Spinoza, de modo que su figura queda realzada, mientras que la de Leibniz, disminuida. Esta reunión fue secreta, y sería un hecho bastante singular, pues Leibniz, que había atacado con vigor las ideas espinosistas, entonces quisiera conocer de primera mano esas opiniones, para tratar de así, mejor rebatirlas. Lo cierto es que Leibniz estaba realmente obsesionado por las ideas de aquel judío que vivía de pulir lentes, y por ello, le había dirigido diversa correspondencia, también secreta. Sus posiciones no podían ser más contrapuestas, y en muchas ocasiones, en aquella época de exacerbadas pasiones religiosas, eran muchos los que habían perdido la cabeza (en sentido literal) por mantener similares opiniones heterodoxas. Spinoza era ferozmente determinista, mientras que Leibniz propugnaba todo lo contrario: la libertad del ser humano a la hora de tomar sus propias decisiones. Otra línea de posible y de necesario análisis es la que tiene que ver con los precursores y principales personajes de la Reforma. Tal sería el caso de la conexión: Erasmo de Rotterdam, Martín Lutero, Juan Calvino… Del medievo se habían heredado tres instituciones que aún se mantenían vivas, a pesar de los estragos del tiempo. Estas eran la Iglesia, la Universidad y el Monasterio. Por 13

M. Stewart, 2007. La obra es: The Courtier and the Heretic: Leibniz, Spinoza, and the Fate of God in the Modern World: Leibniz, Spinoza and the Fate of God in the Modern World. W. W. Norton & Co.

— 25 —

Ángel Garrido

la degradación que habían venido sufriendo, ya no satisfacían a los mejores pensadores, y tanto menos cuanto más independientes ellos fueran. Tal sería la razón que llevara a muchos de ellos, como Erasmo o Lutero, a rechazar las cátedras que les ofrecían. Desiderio Erasmo (en realidad, llamado Gerardo, o Geert, en holandés) vivió desde 1466 hasta 1536. Fue el campeón por excelencia del Humanismo cristiano. Repudió los males de la Iglesia, tras su visita a Roma, que vio llena de corrupción y de escándalos. Destacaba por la agudeza y la calidad de sus escritos, donde critica toda esa decadencia y mundo de escándalos. No obstante, siempre le caracterizó su moderación y su pacifismo. Por lo cual fue rechazando todas las invitaciones que le hizo Martín Lutero para que se pusiese al frente de sus aguerridas huestes, es decir, al frente de la emergente Reforma. A la cual hubiera podido favorecer (y mucho) por su gran prestigio. Curiosamente, Erasmo fue a estudiar, en Holanda, con los Hermanos de la Vida Común, lo mismo que Martín Lutero y el futuro San Ignacio de Loyola, siendo muy influidos todos ellos por las ideas de este movimiento ascético (“crear arquetipos de santidad sólidos y profundos”), un grupo, el de la llamada “devotio moderna”, del cual fuera máximo exponente escrito un pequeño libro, la Imitación de Cristo, de Tomás de Kempis, es el más difundido en el mundo tras de la Biblia. Martín Lutero (1483-1546) era más decidido, belicoso y agresivo. Por ello será finalmente él quien llevará la bandera en la lucha abierta en contra de la Iglesia Romana y de sus corrompidas instituciones. Sería el defensor de la “justificación por la sola fe”; es decir, que no son las obras las que nos salvan, sino la fe y la voluntad divina. Juan Calvino (1509-1564) era de origen francés, aunque por estar asociada buena parte de su actividad con Ginebra, algunos le supongan suizo. En dicha ciudad creó, con su ímpetu vigoroso y tenaz, una especie de “república teocrática”, con el apoyo de Guillaume Budé, pero terminaron siendo expulsados de ella, para finalmente (y en vista la decadencia de la ciudad) pedírsele que volviera a ella, no así en el caso de Budé, que siguió en Lucerna. Esa bien organizada, ordenada y metódica institución (las cuales son también características personales del propio Calvino) será la Iglesia Calvinista, con numerosas ramificaciones; entre otras, en el Nuevo Mundo. Otros intentos de reforma, más o menos teóricos, algunos incluso tratando de ser llevados a la práctica con mejor o peor fortuna, serían los de John Colet (1467-1519), o los de Wycliff, o Wiclef (1320-1384), en Inglaterra; asimismo, los de Ulrico Zwinglio (1484-1531), predicador en la catedral de Zürich, muerto luego en el campo de batalla; o del checo Jan Hus, quien atraído con una supuesta protección a un Concilio en el que no quiso retractarse de sus ideas, terminaría quemado en Constanza (esto le volvió un héroe nacional en su tierra, y trajo consigo las guerras husitas). También podríamos mencionar al teólogo Philipp Melanchton (1497-1560), de una tendencia más moderada, reflexiva y conciliadora. Fue grande su influencia sobre Lutero y muy estimado por las novedades en educación que trajo con la Reforma en Alemania. Era auténticamente brillante, y por cierto, de origen judío. Complementaba con raciocinio sereno la voluntad vehemente de su amigo Lutero.

— 26 —

Los avances de la Inteligencia Artificial

Todo ello quedaría dentro de los márgenes de la polémica entre los que afirman y los que niegan la existencia del libre albedrío entre los humanos. Entre los deterministas más acérrimos tendríamos, por ejemplo, a Lutero14 y a Calvino, mientras que Erasmo sería defensor del indeterminismo. En cualquier caso, las discrepancias entre ellos, que contaban con la interesada ayuda de los príncipes alemanes, y su lucha en contra de la Iglesia oficial, la `nueva Babilonia´, la Católica Romana, convirtieron a la Europa Occidental en un matadero, un verdadero campo de batalla interminable, cruel, sanguinario, durante los siglos XVI y XVII.

14

Lutero, De servo arbitrio. Traducido al español para J. de Olañeta, editor. Es la respuesta del monje agustino al anterior opúsculo erasmiano, el De libero arbitrio diatribe sive collatio, que es de 1525.

— 27 —

Capítulo 3.

TRES VISIONES SOBRE LEIBNIZ.

Muchas son las visiones que proyectan de Leibniz los distintos autores. Vamos a recoger aquí tan sólo tres de ellas, porque las creemos representativas: son la de José Ortega y Gasset, la de Bertrand Russell y la de Louis Couturat, respectivamente. La visión que da Ortega se supone casi siempre que es la de La idea de principio en Leibniz, su obra póstuma, que ni vio publicada, pues no la llegó a completarla. Pero ha de tenerse en cuenta que como decía Jaime de Salas, “Ortega se encuentra en clara oposición a una concepción analítica del conocimiento como puede ser la leibniziana”. No obstante, reconoció sus indudables méritos. Decía el recientemente desaparecido filósofo don Gustavo Bueno que se trata de “un libro «técnico», tanto por su tema como por su ejecución. En él asoman abundantes citas de escolásticos (Escoto, Aquasparta, Suárez, Arriaga…), y de matemáticos (Euclides, Hilbert). Julián Marías ha sentido la tentación de decir que este libro es el más importante de Ortega, de todo cuanto escribió en su vida y más aún, que es el libro más importante publicado en lo que va de siglo [al XX se refiere]. La segunda tentación es, sin duda, hiperbólica, pero la primera está plenamente justificada”. En opinión de Ortega, el hombre español está inmerso en un mundo de sensaciones, de impresiones, que con ello se alejará del mundo de los conceptos, que sería más propio de las regiones septentrionales de Europa. Cree que “el concepto no ha sido nunca nuestro elemento”. Esto lo dice en las Meditaciones del Quijote. Volviendo a Leibniz, le presenta como el máximo exponente del `principialismo´, en el sentido de ser el primero en proponer y manejar varios de ellos, como son el Principio de Razón Suficiente, el de Identidad de los Indiscernibles, el de Continuidad, el de Mínimo Esfuerzo, o el Principio de Lo Mejor. Se basó para decir esto en el capítulo que Louis Couturat dedicara a la ciencia general en Leibniz. Ortega aprovecha la figura de Leibniz para subrayar en la Filosofía su papel lúdico, de juego (no olvidemos que tanto Leibniz como Descartes se ocuparon del ajedrez), y pide a sus discípulos matemáticos que trabajen teorizando sobre tales juegos, que se conviertan en una especie de `descifradores de enigmas´. — 28 —

Los avances de la Inteligencia Artificial

Otro detalle digno de mención es una de las teorías o doctrina filosóficas que propone, o con las quese alinea finalmente, Ortega y Gasset. En primer lugar, se trata del perspectivismo, el cual tuvo sus orígenes en el propio Leibniz y luego fue desarrollado por Friedrich Nietzsche. Según dicha teoría, toda ideación o percepción se realizaría desde un punto de vista, o perspectiva, particular. Por lo que llegamos a que existen distintos esquemas conceptuales, que pueden llevarnos a diferentes visiones del mundo, por lo que algunos las pueden considerar como `verdaderas´ o igualmente válidas, en el sentido de `definitivas´. Según Ernst Nolte, el término y la idea vendrían del filósofo alemán Gustav Teichmüller. La otra teoría que Ortega nos propone es la del raciovitalismo, intentando superar la extrema dicotomía entre realismo e idealismo. Todo ello dentro de aquella fascinación que su figura producía, pues “se le veía pensar”, según decía uno de sus discípulos, Julián Marías, quien le consideraba “el máximo filósofo español”15. En cuanto al filósofo y matemático inglés por excelencia (sobre todo, en tiempos recientes), Bertrand Russell, el maestro de L. Wittgenstein y amigo de A. N. Whitehead, tuvo de Leibniz el mejor de los conceptos, pues decía de él que era una de las mentes más brillantes de cuantas habían existido en la Humanidad. Es de Russell la controvertida obra que lleva por nombre A critical exposition of the philosophy of Leibniz, que fue publicada en 1900. Procedía de las lecciones que sobre tal tema impartiera en la Universidad de Cambridge, el año anterior a su publicación. Ese año se había desligado ya de la `teoría de las relaciones internas´, rompiendo por ello con su inicial hegelianismo, que le venía de su contacto con McTaggart. Su análisis en dicha obra es bastante detallado, minucioso y exhaustivo, aunque algunos autores posteriores no estuvieran muy de acuerdo con las conclusiones a las que llega. Como decía Russell16: [Leibniz] acarició a través de su vida la esperanza de descubrir una clase de matemáticas generalizadas, que llamaba Characteristica Universalis, por medio de la cual el pensamiento podía ser reemplazado por el cálculo. “Si tuviéramos esto –dice-, seríamos capaces de razonar en metafísica y en moral casi del mismo modo que en geometría y en análisis.” “Si surgían controversias, los filósofos no tendrían necesidad de más disputas que las que hay entre dos peritos en contabilidad: bastaría que cogieran los lápices, que se sentaran al lado de sus pizarras y se dijeran el uno al otro (con un amigo como testigo, si querían): Calculemos”.

Y un poco antes, en la misma obra, dentro del capítulo XI, dedicado a este filósofo, dice: Leibniz era un firme creyente en la importancia de la lógica, no sólo en su propia esfera, sino como base de la metafísica. Trabajó sobre la lógica matemática, lo que hubiera sido enormemente importante si lo hubiera publicado; en ese caso, habría sido el fundador de la lógica matemática, que hubiera sido conocida medio siglo antes de lo que lo fue realmente. Se abstuvo 15

J. Marías, Historia de la Filosofía. Revista de Occidente, Madrid, 1941. En este caso, es en el cap. XI de la Historia de la Filosofía Occidental del pensador inglés. Libro publicado en España por Alianza y reiteradamente por otras editoriales. Obra de fácil y agradable lectura. 16

— 29 —

Ángel Garrido de publicarlo porque continuó hallando pruebas de que la doctrina del silogismo, de Aristóteles, era errónea en algunos puntos; el respeto por Aristóteles le hacía imposible creer esto, por lo que erróneamente supuso que los errores tenían que ser suyos.”

También dijo en ese mismo capítulo Russell aquello tan famoso de: Leibniz (1646-1716) ha sido uno de los intelectos supremos de todos los tiempos.

Aunque añadía posteriormente que hubo en realidad dos Leibniz: uno, “de cara al público”, más optimista, amable y superficial, que corresponde a las obras que publicaba, muy al gusto de los protectores y de las princesas; y otro, más profundo e interesante, pero ya no tan ortodoxo, que viene a ser el de las obras que recogía en su cajón y no publicaba. Este segundo Leibniz es el que ha sido rescatado por los editores, como Louis Couturat, en los últimos tiempos. La influencia de Baruch Spinoza sobre este segundo Leibniz fue notable, un hecho que él disimulaba como podía y que muchas veces se negó a reconocer. De hecho, siendo mucho y seguramente profundo lo que trataría con él cuando se reunieron en La Haya, poco menos que decía luego que habían hablado “del tiempo”, que se habían limitado a entretenerse con anécdotas curiosas e irrelevantes. No olvidemos tampoco que Leibniz fue muy crítico con la educación que se daba en las Universidades de su tiempo, que transmitían lo que él llamaba una `visión monjil´17 de los `académicos, tan pedantes y petulantes por lo común´, vulgo `profesores´. Esto nos lo cuenta, entre otros investigadores, Hidé Ishiguro, en su famoso libro18. En esta línea de opinión coincidía bastante con Baruch Spinoza, el cual rechazó también diversas ofertas de cátedras, y en su caso, prefirió ganarse la vida puliendo lentes. Sólo que de Leibniz pudiera decirse que era más `engagé´, o persona `comprometida´, en cuanto que alguien deseoso de mejorar y de cambiar el mundo, a través de su acción como jurista, diplomático, etc., mientras que al holandés le gustaba más refugiarse en su habitación y en sus estudios. Y finalizaremos estos breves comentarios con la figura, tan brillante como desgraciadamente efímera, del francés Louis Couturat (1868-1940). Amigo personal de Bertrand Russell, fue el precursor en Francia de la Lógica Simbólica. Esta era por él concebida como una útil y capaz herramienta que podría llegar a perfeccionar la filosofía y las matemáticas. Por todo lo cual puede ser considerado como miembro de la corriente “logicista”, oponiéndose con ello a la corriente “intuicionista” de L. E. J. Brouwer, y a su precursor francés, Henri Poincaré.

17

Se refiere, obviamente, a ese espíritu como de `secta´, de un ambiente cerrado y opresivo que aún se respira en muchos departamentos universitarios, por extraño que pueda parecer a quienes sólo los han visto desde fuera. Siendo estos grupos reacios, e incluso inmunes, a toda idea verdaderamente nueva, a todo lo que se salga de lo rutinario y lo memorístico. No se ha avanzado tanto, en estos aspecos, desde la época de un Galileo. En resumen, todo un pequeño y asfixiante mundo de prejuicios, escrúpulos y `melindres´, una región llena de envidiosos y de `trepas´, cuando no de corruptos, como las noticias cada día nos recuerdan. Lo cual no es generalizable, por fortuna, a todas la Universidades y Departamentos. 18 H. Ishiguro, Leibniz´s Philosophy of Logic and Language. Duckworth Publ., London, 1972; p. 3.

— 30 —

Los avances de la Inteligencia Artificial

Couturat deslumbró a sus profesores, pues era tan bueno en ciencias como en letras. Cuando se volcó en los estudios sobre Leibniz comprobó que la metafísica de este autor descansaba totalmente sobre su lógica. Para ello, se fue a completar la información, los años 1901 y 1902, en la Biblioteca Real de Hannover (capital hoy de la Baja Sajonia). De estos esfuerzos procederán dos de sus obras más recordadas: La logique de Leibniz y los Inedits leibniziens (téngase en cuenta que el gran filósofo sajón escribió mucho y publicó poco; Couturat dio a conocer una cierta parte de lo que quedaba oculto hasta entonces). Dando también notable publicidad en sus tierras galas al libro Los principios de la matemática, de Bertrand Russell. F. C. Kreiling escribió sobre Couturat lo siguiente: Outside of France he is generally known for his Leibniz studies, but he was distinctly a philosopher in his own right, with a central interest in mathematical logic19.

A Louis Couturat le fascinaba, como al propio Leibniz, la posible construcción de lenguajes artificiales, por lo que introdujo uno, llamándolo el `ido´, y que era un derivado del (más famoso) esperanto del doctor Zamenhof. Al estallar la Gran Guerra, y queriendo ayudar a sobrevivir a sus primos, sufrió un grave accidente de automóvil que le costó la vida. Su coche se empotró contra uno que venía cargado de soldados recién movilizados. Hecho notable, morir nada más comenzar el conflicto, cuando él había sido desde siempre un encendido pacifista. En resumen, las dos obras antes mencionadas, L´Algebre de la Logique (de Couturat) y A Critical Exposition of the Philosophy of Leibniz (de B. Russell) aparecieron publicadas con sólo un año de diferencia: 1901 y 1900, respectivamente, siendo esenciales para subrayar la importancia de la lógica dentro del pensamiento leibniziano, inaugurando una cada vez más fuerte corriente de admiración por el pensador que puede considerarse como de Hannover, aunque fuera nacido en Leipzig. Un aprecio que hoy todavía seguimos observando, aparte de que incluso cada día tratamos de hacer que este vaya más en aumento.

19

Kreiling, 1971; p. 69.

— 31 —

Capítulo 4.

LEIBNIZ DESDE NUEVAS PERSPECTIVAS.

Todas estas versiones analizadas en el capítulo anterior, que son, si no enfrentadas, no siempre coincidentes, de lo que Leibniz ha significado, y significa aún hoy en la cultura occidental, tienen una base común de realidad: el pensador sajón sería el primero en utilizar de modo explícito la noción matemática de función para denotar los conceptos geométricos que derivan del estudio de una curva, desarrollando al tiempo su famoso sistema de cálculo infinitesimal, de modo independiente del inglés Newton. Asimismo, Leibniz reactivó el viejo método de utilización de matrices para resolver ecuaciones, ya propuesto por matemáticos chinos un par de milenios antes y olvidado después. Sin dejar de mencionar su ingeniosa calculadora (sobre los 1670´s), capaz no sólo de realizar las operaciones elementales, como la de Pascal, sino incluso la obtención de raíces. Junto con el uso del sistema binario, en el que le precediera por tres décadas nuestro Juan Caramuel. Porque no hemos de olvidar la en principio interesada, pero finalmente provechosa, estancia de los misioneros jesuitas franceses por la antigua China, a Beijing en particular, durante el reinado de Luis XIV en Francia y el emperador Kangsi en la China. En particular, lo fue la del Padre Joachim Bouvet (1656-1730), quien aparte de enseñar matemáticas y astronomía al emperador chino, detectó en los hexagramas del I Ching (Libro de los Cambios, o Libro de las Mutaciones) diversas pistas que serían precedentes del cálculo binario. Esto se lo hizo saber a Leibniz, en una de sus cartas (fechada en 1701), y de este modo, el pensador sajón lo vendrá a reconocer en su correspondencia posterior.

— 32 —

Los avances de la Inteligencia Artificial

El emperador Kangxi

Hexagrama del I Ching, enviado a Leibniz, en 1701, por el P. Bouvet, S. I.

Con todo ello, no sólo puso Leibniz las primeras piedras de lo que con el tiempo vendría a ser el enorme edificio de la computación moderna, sino que también abriría las puertas para que Gauss trabajara luego en álgebra lineal y sobre la teoría de matrices. Introduciendo nociones como la de “auto-semejanza”, o el principio de continuidad, que dió pie a la Topología. Con razón se le considera no sólo un gran metafísico, sino una de las luminarias de la lógica universal: el lógico más importante desde Aristóteles hasta Boole o De Morgan (otros dicen: hasta Frege). Parece obligado tratar el concepto de mónada, cuando se trata de Leibniz. Este lo utiliza para caracterizar sustancias individuales, que no constan de partes en que puedan subdividirse. Lo cual supone, en cierto modo, una prolongación de las tradiciones escolásticas. Pero con ello estaba haciendo frente al dualismo cartesiano, al monismo espinoziano, así como al atomismo de Pierre Gassendi. El responde con ese infinito número de sustancias ideales, individuales y dinámicas, que reflejan como si fuera sobre un espejo a la totalidad del mundo.

— 33 —

Ángel Garrido

Las mónadas tan sólo se distinguirían de acuerdo con sus percepciones. El dinamismo le vendría, precisamente, de las `apetencias´ (también llamadas apetitos), que van de percepción a percepción. Su principal característica es que son irreducibles e indivisibles: una especie de átomos metafísicos o filosóficos, que no deben confundirse con los átomos dados por las teorías físicas, ya que estos son por naturaleza materiales, y por tanto, han de ser divisibles. Su tesis más célebre es la del alma entendida como una mónada, `sin puertas ni ventanas´. Las almas humanas serían mónadas con razón y memoria. La relación entre mónadas vendría dada a través de la `armonía preestablecida´, que fue prefigurada por Dios. Puede que Leibniz llegase a tales doctrinas mediante la lectura de filósofos chinos, una cultura y una lengua que conocía bien, y que además, admiraba. También se han ido descubriendo ciertas conexiones de las ideas leibnizians con los postulados de la Teoría de la Relatividad20. Así, por ejemplo, el filósofo Gilles Deleuze afirmaba que: If space-time is not an empty area, but the order of coexistence and the succession of monads themselves, the order has to be marked out, oriented, vectored; in the instance of each monad movement has to go from the more-clear monad to the less-clear monad, or from the perfected accord to the less-perfected accord, for the clearest or the most perfected is reason itself. In the expression 'preestablished harmony', 'preestablished' is no less important than 'harmony'. Harmony is twice-established: by virtue of each expression, of each expressant that owes only to its own spontaneity or interiority, and by virtue of the common expression that establishes the concert of all these expressive spontaneities. It is as if Leibniz were delivering us an important message about communication: don't complain about not having enough communication, for there is always plenty of it. Communication seems to be of a constant and preestablished quantity in the world, akin to a sufficient reason.21

20

No olvidemos que la Teoría de la Relatividad fue perfeccionad y luego muy difundida por Albert Einstein, pero que sus orígenes se remontan a G. W. Leibniz, H. A. Lorentz y H. Minkowski, quien fue el primero en introducir la noción de espacio-tiempo. 21 Gilles Deleuze, The Fold; p. 154.

— 34 —

Capítulo 5.

LA MULTIPLICIDAD DE LOS VALORES VERITATIVOS.

La lógica con tres valores de verdad, o veritativos, la primera propuesta matemáticamente asentada que nos es conocida, fue la desarrollada en 1909, por el matemático ruso, y también poeta simbolista, Nikolai Alexeievich Vasiliev, con su “Lógica Imaginaria”. Se presentó por primera vez en la historia la idea de una lógica noaristotélica de este tipo, libre de las leyes del tercio excluso y de la ley o principio de contradicción. Por lo tanto, sería un precursor de la lógica paraconsistente, y también de las multivaluadas (LMVs). Por estas razones, en las últimas décadas, se ha venido desarrollando la Lógica, entre otras, en la dirección de una cada vez más potente `Fuzzy Mathematics´, o Matemática Difusa. En 1932, el famoso lógico de Moravia, Kurt Gödel (1906-1978), demostró que la llamada Lógica intuicionista no es una lógica plurivalente finito-valuada. Debido a esto, se define una fase intermedia entre lógica intuicionista y la lógica clásica, la llamada por él lógica intermedia. De este modo, el paradigma aristotélico no fue cuestionado en esencia hasta el siglo XX, cuando pensadores como Bertrand Russell, Max Black, Jan Lukasiewicz, Emil Leon Post, o Lofti Asker Zadeh, ya tenían suficientes herramientas teóricas disponibles para rescatar e interpretar la noción de la vaguedad que Aristóteles no se había interesado en analizar. Y después vendrían los trabajos seminales del mencionado Lofti A. Zadeh, de los que derivan muchas de las más innovadoras e interesantes nuevas Matemáticas, con muy buenas aplicaciones.

— 35 —

Ángel Garrido

Lofti Asker Zadeh

Desde la época medieval, es el mundo un escenario muy oscuro para la lógica, que reaparece en el siglo XIX, gracias a Cantor, De Morgan, Boole, Frege... Con ellos nació la nueva teoría de conjuntos, que ahora se llama “clásica” (or`crisp´), pero entonces ya tenía también terribles enemigos, como Leopold Kronecker, que desde su cátedra en Berlín hizo todo lo posible para obstaculizar el trabajo de Cantor, y combatir la difusión de esas nuevas ideas. Otro rival bastante difícil para esta nueva teoría sería el famoso matemático francés Henri Poincaré, quien la veía como una enfermedad, o como una moda pasajera. Pero matemáticos diferentes la aceptaron, ya sea el buen amigo de Cantor, Richard Dedekind (1831-1916), o ya sea el gran patriarca matemático de la Universidad de Göttingen, David Hilbert (1862-1943), que estaban entre quienes pueden contarse entre los defensores de las nuevas teorías. Y cerraremos este repaso de los mayores pensadores del campo de la Lógica y de las Matemáticas (por tanto, de la Filosofía) con una referencia a quienes siendo verdaderamente grandes, han quedado casi en el olvido, a pesar de haber sido predecesores en algunos casos en la obtención de sus presuntos resultados a los más famosos. Muchos de estos nombres puede que nos suenen poco, o nada, pero detrás de ellos está su obra, a veces sin publicar, o precedida por la de otros, que se `llevaron los honores´, y puede ser que no conocieran aún sus hallazgos. Tal es el caso del polacoamericano Emil León Post, precediendo a Kurt Gödel en su desvelamiento de la Incompletitud. También fue quien ideó la llamada `Máquina de Post´, un sistema formal equivalente al más conocido de la `Máquina de Turing´. De Post sabemos que tuvo muchos problemas, derivados de ser casi de continuo maniaco-depresivo: de él decía Martin Davis:

— 36 —

Los avances de la Inteligencia Artificial

“He suffered all his adult life from crippling manic-depressive disease at a time when no drug therapy was available for this malady.”22 Y el lógico Quine añade, en una de sus cartas23 “Modern proof theory, and likewise the modern theory of machine computation, hinge on the concept of the recursive function. This important number theoretic concept ... was discovered independently ... by four mathematicians, and one of these was Post. Subsequent work by Post was instrumental to the further progress of the theory of recursive functions. Quine completa ese comentario en 1972: “The theory of recursive functions of which Post was cofounder is now nearly twice as old as when I wrote that letter. What a fertile field it has proved to be.” O podemos mencionar al prometedor en su momento lógico francés Jacques Herbrand, pues cuando empezaba a brillar murió despeñado practicando su deporte favorito: el alpinismo. O la historia de Jean Cavaillés, quien aparte de un pensador de altura sobre estas ciencias denominadas “duras”, organizó y participó en eficaces actos de sabotaje antinazis durante la Resistencia francesa. Para terminar siendo delatado y capturado. Se le fusiló en Arrás, en 1944. Tampoco debemos olvidar a ciertos científicos húngaros, tales como Lászlo Kálmar (el fundador de la Lógica Matemática como disciplina y de la Teoría de la Computación en las tierras magiares), o Rosza Péter, su amiga y alumna, que por su condición de judía estuvo `confinada´durante un tiempo en el gheto de Budapest. De ella se dice que es la `madre de la teoría de funciones recursivas´. Ni tampoco debieran caer en el olvido algunos de los miembros más brillantes y sin embargo bastante desconocidos, de la LWS (o Escuela de Lvov-Varsovia) o del grupo o Círculo de Cracovia (en la línea neotomista, pero crítica, intentando ayudarse de la nueva “logística”). Tal podía ser el caso el caso del padre Jan Salamucha, o de Adolf Lindenbaum, o de tantos otros fusilados en aquellos tiempos, tan ciegos y turbulentos. Otro caso de sublime talento matemático sin la recompensa adecuada a sus méritos, o el suficiente reconocimiento en este mundo cruel sería el del hindú Srinivasa Ramanujan (1887-1920), un autodidacta de los más admirables. Por sus humildes orígenes, creciendo en un ámbito tan poco propicio, esto le hizo llevar una vida de miseria y enfermedad, soportada por un carácter espartano y su intensa espiritualidad. Así, llegó tan sólo, con una vida bastante precaria, hasta los 32 años: se lo llevó una tuberculosis. Tras su llegada a Cambridge, en Inglaterra, donde había acudido con reticencias, gozó 22

M. Davis, Emil L. Post : His life and work. In M Davis (ed.), Solvability, provability, definability : the collected works of Emil L Post (Boston, MA, 1994), pp. xi-xxviii. 23 De 1954, tras de la muerte de Post.

— 37 —

Ángel Garrido

del apoyo de Geoffrey H. Hardy, así como del amigo y colega de éste, Littlewood. Su gran intuición le llevaba a enunciar un resultado tras otro (3900 figuran en sus cuadernos de notas). Tales fórmulas y afirmaciones solían ser ciertas, aunque no vinieran acompañadas de pruebas. Trabajó en Teoría de Números, Series, Integrales y Fracciones Continuas. Hoy en día muchos premios y revistas intentan capitalizar la estela dejada por su nombre.

— 38 —

Capítulo 6.

LEIBNIZ Y SU CONEXIÓN CON LAS NUEVAS LÓGICAS.

Paralelamente a todo esto, surge un nuevo tipo de pensamiento y modo de ver cómo debe ser el acto de filosofar: se trata de la Escuela de Lvov-Varsovia, polaca (LWS, en su acrónimo, o sus siglas en inglés). Esto fue surgiendo como los afluentes de un gran río y los subafluentes del mismo, partiendo desde Leibniz, y yendo de maestros a discípulos. No se olvide que Leibniz es considerado con razón el máximo representante del Racionalismo, dentro de una época en la que tuvo muy grandes rivales (como Descartes o Spinoza, por ejemplo). Nuestro gran lógico sajón situaba el criterio de verdad del conocimiento en su necesidad intrínseca, en vez de hacerlo sobre la adecuación a la realidad. Como modelo de esas verdades necesarias proponía las matemáticas. Pero no sólo establecía estas “verdades de razón”, sino también las llamadas “verdades de hecho”, que no muestran por sí mismas la verdad, siendo como son contingentes. Ese carácter de contingencia le era debido, según él, a la naturaleza finita de la mente humana, por lo que a la hora de analizarlas no era esto posible, dada la interrelación que existe entre cada cosa concreta y todas las demás. De ahí que la cardinalidad del conjunto de sus propiedades sea infinita. Comienza la serie mencionada, partiendo de Leibniz, con Bernardo Bolzano (17811848), quien tuvo tanta influencia sobre su discípulo, o heredero intelectual, Franz Brentano. Esto, a su vez, influye en gran medida sobre todos sus estudiantes posteriores. Entre esos discípulos de Franz Brentano (1838-1917), será uno el que particularmente nos interese. Este es el filósofo polaco Kazimierz Twardowski (1866-1938).

— 39 —

Ángel Garrido

Diagrama que analiza las distintas conexiones de otras escuelas y pensadores con las tres generaciones de la LWS

Comienza la serie mencionada, partiendo de Leibniz, con Bernardo Bolzano (17811848), quien tuvo tanta influencia sobre su discípulo, o heredero intelectual, Franz Brentano. Esto, a su vez, influye en gran medida sobre todos sus estudiantes posteriores. Entre esos discípulos de Franz Brentano (1838-1917), será uno el que particularmente nos interese. Este es el filósofo polaco Kazimierz Twardowski (1866-1938). Y conjuntamente con él, la contribución de Jan Lukasiewicz (1878-1955), también por Alfred Tarski (1902-1983), quienes formularan una lógica de n valores de la verdad, siendo n mayor que dos, aclarando muchas cuestiones técnicas importantes, por la introducción inicial de un tercer valor, el llamado “posible”, o estado “indeterminado”, denotado por I o por ½, todo ello relacionado con la `Sea Battle Paradox´. Lukasiewicz considera tres valores veritativos, 0, 1 y 2, en el que el valor adicional (2 o ½) debe ser el valor de proposiciones futuro- contingentes, entonces interpretadas como “posibilidad”, o “indeterminación”, mientras que el 1 y 0 deben ser, como en la clásica, los valores de `completa verdad, o veracidad´, y de falsedad total, respectivamente.

— 40 —

Los avances de la Inteligencia Artificial

Existen muchas similitudes entre los dos filósofos (Leibniz y Lukasiewicz): la búsqueda de un lenguaje universal riguroso y unívoco a través del cual expresar no sólo las declaraciones de las ciencias, sino también los pensamientos filosóficos. Es necesario crear un método científico para la ciencia y la filosofía por medio de la lógica matemática, o como se llamaba en tiempos de Lukasiewicz, de la logística; recordemos la búsqueda de la característica universal, según Leibniz. Lukasiewicz era consciente de que esta disciplina fue primeramente introducida por el pensador sajón, y aunque hubiera algunas discrepancias en relación con su concepción metafísica del universo, el espíritu de Leibniz venía impregnando casi todas sus obras: Il faut se baser sur des propositions qui sont aussi claires et certaines que possible du point de vue intuitif et adopter ces propositions à titre d’axioms. Il faut tenter de réduire au maximum le nombre d’axiomes et de concepts primitifs et le compter tous avec soin…24.

El esplendor de la Escuela de lógicos y matemáticos polacos (de la LWS) fue durante el llamado “interbellum”, es decir, el período que va entre las dos guerras mundiales, que comprendería desde 1918 hasta 1939. Es posible encontrar muchos y grandes nombres, buscando entre los miembros de esta brillante Escuela, pero podríamos citar entre otros a:

Jan Lukasiewicz, Stanislaw Lesniewski, Kazimierz Ajdukiewicz, Tadeusz Kotarbinski, Mordechaj Wajsberg, Alfred Tarski, Jerzy Slupecki, Hugo Steinhaus, Stefan Banach, Kazimierz Kuratowski, Stanislaw Ulam, o Andrzej Mostowski.

24

J. Lukasiewicz, Écrits logiques et philosophiques. Vrin, París, 2013; p. 252.

— 41 —

Ángel Garrido

Alfred Teitelbaum (quien luego cambiaría su apellido por el `más prudente´ -por ser menos judío- de Tarski)

Dice Wolenski (el gran estudioso de la época y de su pensamiento) que se pueden reunir en cuatro los factores que llevan a la aparición y posterior desarrollo de la MVL en Polonia. El primero de los cuales sería el desarrollo de la Lógica Matemática en general, lo que le llevaría a disponer de poderosas herramientas formales. El segundo, cierta especulaciones filosóficas que conducían a una revisión de la Lógica Clásica. El tercero, la reflexión, llevada a cabo sobre todo por Lukasiewicz, acerca de los grandes pensadores del pasado, no sólo Aristóteles, sino también los Estoicos. Y como cuarto factor, que se dieran tan pronto cuenta de que el problema clave estaría en la Metalógica, y no en leyes lógicas particulares.

La ciudad de Lvov, también llamada Lviv o Lemberg.

Podemos distinguir también, dentro de la historia de la ELV, cinco especies de subperíodos: 1) El periodo de introducción, que duraría unos siete años. Se cierra éste intervalo temporal con la defensa de las primeras tesis doctorales dirigidas por Kazimierz

— 42 —

Los avances de la Inteligencia Artificial

Twardowski. Esto le iba a permitir la formación de un primer círculo de colaboradores científicos en torno a la figura de éste 2) El periodo de formación de los puntos de vista y de los temas de interés para sus alumnos. El cual empieza, según lo antes reseñado, en 1902, y vendría a concluir alrededor de los años 1916-1918. 3) El periodo de cristalización definitiva de la ELV, en los años que van desde ese de 1918 hasta el 1930. Es una época en la que surge una importante transformación. Podríamos decir que por ella pasa de ser la Escuela de Lvóv a la Escuela de LvóvVarsovia, con la creación del grupo varsoviano de lógica. 4) El periodo de desarrollo de la ELV, que es propio de la década de los 1930´s. Fue entonces cuando se obtuvieron los resultados más importantes por quienes la integraban, alcanzando renombre internacional; en especial, esto fue gracias a las aportaciones de la escuela de lógicos de Varsovia. 5) El periodo de dispersión geográfica de la ELV. Porque si admitimos que las actividades desarrolladas después de haberse dado por concluida la Segunda Guerra Mundial constituyen un elemento esencial dentro de la historia de la ELV, se produjo entonces una vertiginosa diáspora de muchos de los pensadores emparentados con la ELV, y esto no sólo a escala polaca, sino mundial. Así que se habrían dado un par de fases principales, en el desarrollo de nuestra ELV: - La de Lvóv, en tanto que fase preparatoria de la misma. - La de Lvóv-Varsovia, que es ya una época de madurez.

Vista de Lvov

Una observación importante es que aun cuando sólo suelan mencionarse las dos ciudades paradigmáticas sobre el tema: Lvóv y Varsovia, hubo algunas otras de

— 43 —

Ángel Garrido

importancia para la historia de esta corriente. Así, las de Vilnius, la de Cracovia, o la de Poznan. De todos modos, el centro de cultivo de la Lógica más importante en todo ese tiempo fue, sin duda, el de Varsovia. Estaba encabezado por Jan Lukasiewicz y por Stanislaw Lesniewski. De él derivaría pasado el tiempo Alfred Tarski (1902-1983), doctorando del segundo de ellos, y que en 1939 se quedó en los Estados Unidos, para terminar siendo profesor en la Universidad de California, en Berkeley. Otro de los discípulos de Jan Lukasiewicz, y de quien fue su director de tesis, Boleslaw Sobocinski (1906-1980), llegó a ser profesor en la Universidad de Nôtre Dame. Pero no sólo hubo ese florecimiento en Varsovia, sino también en la ciudad de Lvóv (antigua Lemberg), “alma mater” del propio Lukasiewicz. Algunos encuentran cierto parecido a esta Escuela polaca con el Círculo de Viena, como ya queda dicho en el capítulo anterior, o con el Círculo de Berlín, aunque la Escuela de Lvóv-Varsovia estaba más centrada en los estudios lógicos, y mantiene con los otros dos grupos diferencias fundamentales. Aunque no sólo cultivaron esta rama de la Filosofía, sino otras muchas, aun cuando fuese el campo de los estudios lógicos para ellos el prioritario.

La ciudad de Varsovia.

— 44 —

Capítulo 7.

TARSKI, BANACH, Y OTROS MÁS

Asimismo, los miembros de la LWS (Lvov-Warsaw Scool) apoyaron (y muy grandemente) el estudio de la Matemática; en especial, de la Teoría de Conjuntos y de la Topología, junto con sus aplicaciones a otras ramas de la investigación matemática, como las del Análisis Matemático; en particular, el Análisis Funcional, del que se considera padre al gran pensador que fuera Stefan Banach.

Sello polaco conmemorando a Stefan Banach

Un hecho clave para la historia de la ELV (o LWS) radicó en que no sólo Janiszewski, sino algunos matemáticos notables, como Waclaw Sierpinski y Stefan Mazurkiewicz, vieran la estrecha conexión entre el porvenir de la Escuela y la investigación en nuevas ramas de las Matemáticas, como la Teoría de Conjuntos o la Topología, dominios muy próximos a la Lógica Matemática. De ahí el alto grado de coincidencias entre los programas de Twardowski y de Janiszewski. Ambos querían modernizar sus respectivas disciplinas: interesándose por las últimas “novedades” científicas; tratando de establecer y mejorar las relaciones internacionales con otros investigadores, creando revistas especializadas, o nuevas instituciones de carácter científico, incluso fuera de la Universidad. Esto hizo que tanto Stanislaw Lesniewski — 45 —

Ángel Garrido

como Jan Lukasiewicz, los considerados fundadores de la escuela de lógicos varsovianos, se sintieran en su ambiente cuando estuvieron en Lvóv. También deben ser citados: Jan Wolenski (de la Universidad Jagelloniana de Cracovia), como reivindicador de la memoria de la LWS, Helena Rasiowa, Roman Sikorski, Zdislaw Pawlak, padre de los “conjuntos rugosos” (rough sets, otra aproximación al tema de la incertidumbre), etc. Entre ellos, uno de los pensadores más interesantes puede ser Jan Lukasiewicz, el padre de lógicas multivaluadas. Lukasiewicz comenzó a enseñar en la Universidad de Lvov, a continuación, en Varsovia, y después de la Segunda Guerra Mundial debió pasar a enseñar en la Real Academia de Irlanda (en Dublín), tras ser recibido y propuesto para la cátedra por el propio Eamon De Valera, el padre del nuevo estado y primer gobernante de la Irlanda independiente. En un primer momento, Jan Lukasiewicz introdujo la lógica trivaluada, y a continuación, de la lógica tetra-valuada. Por último, su generalización a la lógica infinitovaluada. Esta posibilidad de modulación puede ser expresada mediante una función de pertenencia (suele dnotarse mediante la letra griega ), que ha de tener como recorrido, o rango, todo el intervalo unidad real, el de [0, 1], en lugar de verse reducida a la mera , función característica: X → 0, 1. De cuando se asumía la dicotomía de la lógica clásica: Verdadero Vs. Falso, 0 vs. 1, Blanco vs. Negro, etc., permitiendo de este modo el tratamiento de la incertidumbre y de la vaguedad, lo cual es importante no sólo desde un punto de vista teórico, sino del también muy importante de las aplicaciones. Por otra parte, Lukasiewicz fue el mentor de Alfred Tarski, mientras que oficialmente lo era Stanislaw Lesniewski. Sus biógrafos, Anita y Salomón Feferman, nos dicen que: “along with his contemporary, Kurt Gödel, he changed the face of logic in the twentieth century, especially through his work on the concept of truth and the theory of models.”25

Alfred Tarski (1901-1983) había ido -como es sabido- a los EE.UU. para participar en una conferencia cuando las tropas nazis invadieron su Polonia natal y ya no pudo volver a ella. Con el tiempo, Tarski fue creando a su alrededor, en California, una de las escuelas más potentes de lógica de su siglo. De hecho, se puede considerar como la continuación de la tradición inaugurada por la LWS, fuera del continente en ruinas (Europa). Su `teoría semántica de la verdad´ es uno de los más grandes logros del pensamiento humano de todos los tiempos. De sí mismo dijo Alfred Tarski que se le podía considerar como “un matemático, también como un lógico, y tal vez como un filósofo de algún tipo.” Se trata, sin duda de uno de los mayores genios de la Lógica y la Matemática de todos los tiempos, no sólo del siglo XX, que le tocó vivir.

25

S. & A. Feferman, 2004; p. 12.

— 46 —

Los avances de la Inteligencia Artificial

En especial, se suele recordar (a Tarski) por sus caracterizaciones lógicomatemáticas de la Consecuencia Lógica y de la Verdad. Si bien cultivó muchos otros campos de ambos saberes (si es que no son el mismo, a pesar de que lo nieguen los ignorantes), como la Teoría de Conjuntos, las Lógicas Modales y Multivaluadas o la Teoría de Modelos, entre otras, como el estudio de las Álgebras Cilíndricas. Por otra parte, los escritos de Jan Lukasiewicz (quien fuera profesor de Tarski) sufrieron después un largo sueño, del que tuvo cuidado de despertarlos un ingeniero azerí, Lofti A. Zadeh, quien había estudiado en Teherán, a continuación, continuó con sus estudios en el MIT, y con el tiempo llegó como profesor a la Universidad de California, Berkeley. Tuvo éxito en su idea inicial, pero fue con la ayuda de un gran lógico, Stephen Cole Kleene. Lofti A. Zadeh sería el primero en descubrir la gran utilidad potencial, de tipo práctico, de las nuevas ideas, lo que fue ya a partir del año 1965.

S. C. Kleene

En primer lugar, tendría lugar la obtención, por parte de Lofti A. Zadeh, de una versión generalizada de la teoría clásica de conjuntos, con la creación de la ahora denotada por FST, acrónimo de la llamada “fuzzy set theory”, o “teoría de conjuntos difusos” (1965), y más tarde, logrando su aplicación a la lógica, con la creación de la “lógica difusa (o fuzzy)”. Esto fue ya a partir de 1975. Otro aspecto interesante que hemos de tener en cuenta es que incluso en ese momento, no era sólo Zadeh quien proponía métodos para el tratamiento de la incertidumbre. Porque tenemos el caso del polaco Emil León Post (1897-1954), Carl Gustav Hempel (Alemania, 1905-1997), Dieter Klaua (también alemán; 1930-2014), o Max Black (1909-1988; azerí, desde Bakú, como Zadeh), que sin llegar resonancia tanto, se propone ideas similares. No hay que olvidar que Zadeh, como ingeniero eléctrico que era, conocía todas las investigaciones de Jan Lukasiewicz, pero porque le fueron explicadas por Stephen Cole Kleene, que también era profesor en Berkeley. Pero con el tiempo, sería en los países orientales donde llegarían a buen término estas ideas, creando un poderoso auge tecnológico, con nuevas técnicas basadas en conceptos “fuzzy”.

— 47 —

Ángel Garrido

Esta tendencia sería particularmente potente en el Japón, y luego se iría extendiendo a otros países de Asia, como Corea del Sur, China o la India. Pero es en Japón donde la Lógica Difusa y sus aplicaciones industriales consiguieron su mayor desarrollo. Así, en el caso de Michio Sugeno, ya en su tesis doctoral había propuesto el uso de las integrales difusas y las medidas difusas. Tras él, han ido apareciendo muchos seguidores de esta especie de `movimiento´ científico-filosófico, tratando de obtener provecho y consecuencias de la lógica difusa y de tan potentes herramientas matemáticas. Tal es también el caso del profesor japonés Kaoru Hirota, entre otros muchos que podríamos mencionar.

El profesor japonés Michio Sugeno

Y mucho más tarde estas ideas, incluso su aplicación, llegaron, aunque con cierto retraso, a los países occidentales, tanto de Europa como de América. Hoy en día, algunos países emergentes, como Brasil, India o Turquía, más y más se relacionan con la investigación de todas estas teorías y de sus métodos asociados.

Stefan Dousa esculpió este Memorial Representa a Otto Nikodym y Stefan Banach. Y se encuentra en Cracovia.

— 48 —

Los avances de la Inteligencia Artificial

Las referencias se hacen ya inevitables al que seguramente sea uno de los más grandes matemáticos de nuestros tiempos, dado que también perteneciera a la llamada Escuela de Matemáticas de Lvov: se trata de Stefan Banach, nacido en la ciudad de Cracovia en 1892. Sus humildes orígenes (hijo de un soldado que tenía prohibido contraer matrimonio –un `private´- y de una sirvienta), cuidado por parientes y conocidos, no tuvo una vida nada fácil. Pero ya en el Gymnasium (o Instituto) de Cracovia mostró gran inclinación y capacidad para las matemáticas, aunque en principio quería estudiar en el Politécnico de Lvov estudios de Ingeniería. Por ello iba estudiando temas de Matemática en la Universidad Jagelloniana (la de Krakow, o Krakau, otros nombres de Cracovia). Sería el profesor Hugo Steinhaus quien descubriera a unos alumnos hablando sobre ciertos temas difíciles y entonces, poco conocidos, como las Integrales de Lebesgue. Luego diría que a pesar de sus propias aportaciones, fue Banach su mayor descubrimiento. También lo sería Otto Nikodym, otro de los más brillantes matemáticos polacos. Será el profesor Steinhaus quien le vaya introduciendo y acelerando su carrera; por ejemplo, le facilitó el acceso al famoso Scottish Café, de Lvov, donde debatían incansablemente sobre difíciles problemas muchos de los mejores. Trabajó como Ayudante en el Politécnico de Lvov, presentando una tesis doctoral en la Universidad Rey Kasimir, en 1920. Dicho trabajo mostraba ya algunas de las ideas que luego darían lugar a sus avances en Análisis Funcional, un campo de las Matemáticas abierto por él. Primero ayudando al profesor Lomnicki, y tras la tesis, consiguió la cátedra en el Politécnico. Pero al llegar los invasores nazis, que tomaron a sangre y fuego Lvov dentro de la Operación Barbarroja, todos los profesores de la Universidad fueron destituidos, y debió ganarse la vida de modo no sólo precario, sino sumamente peligroso. Se prestó a mantener alimentados con su propia sangre los piojos con que experimentaban los alemanes en el Centro de Investigación del Tifus de Rudolph Weigl. Así podía comer, pero poco y mal, viéndose de ese modo algo más protegido del constante de ser enviado a un campo de concentración. Su ciudad fue reconquistada por las tropas soviéticas en 1944 (dentro de la Operación Lvov-Sandomierz). Pero los nuevos invasores también estaban expulsando de sus cátedras a los profesores polacos, queriendo `sovietizar´ (o `rusificar´) Ucrania. Por ello, Stefan pensó en aceptar la cátedra que le habían prometido en la Universidad Jagelloniana de Cracovia. Incluso llegó a ser candidato a Ministro de Educación. Fumador empedernido, el cáncer de pulmón acabó con él en pocos meses. Falleció en 1945, cuando contaba tan sólo cincuenta y tres años. Introdujo la teoría de los llamados Espacios de Banach (o Espacios de tipo B, como se refiere a ellos en su obra Théorie des Opérations Lineaires). Son espacios vectoriales (o lineales) normados y completos. Había tenido algunos precursores en esta teoría, como el húngaro Frygies Riesz, Norbert Wiener, o el matemático Hans Hahn, quien dirigiera la tesis a Gödel.

— 49 —

Ángel Garrido

Estando asociados a su nombre muchos teoremas y resultados del Análisis Matemático, como aquel famoso `Teorema de Hahn-Banach´, o los siguientes: -

Banach-Tarski paradox Banach-Steinhaus theorem Banach-Alaoglu theorem Banach-Stone theorem

También es muy frecuentemente mencionado un curioso resultado: es precisamente esa, la también llamada Paradoja de Banach-Tarski. Stanislaw Ulam, otro brillante miembro de la Escuela de Lvov, mencionó esta frase que él atribuye al propio Banach:

“Good mathematicians see analogies. Great mathematicians see analogies between analogies.”

De cómo una bola sólida, en el espacio tridimensional, R3, se puede descomponer en una cantidad finita de subconjuntos que sean disjuntos entre sí, y que cabe volverlos a ensamblar, en dos o más bolas que serán idénticas a la anterior, según la Paradoja de Banach-Tarski. Para ello, bastarían los movimientos de traslación y de rotación. Puede probarse mediante el Axioma de Elección.

— 50 —

Capítulo 8.

VIEJOS PARAJES PARA LOS NUEVOS TEMAS.

Uno de los casos más interesantes, a la hora de analizar la historia de la Inteligencia Artificial, es el país de Rumanía. Tenemos como hito fundamental el del matemático Grigore Constantin Moisil (1906-1973), quien introdujo las Ciencias de la Computación en su país, y después dejó una escuela muy brillante de investigadores nacionales, dedicados a las matemáticas y a la Inteligencia Artificial, muchos de ellos repartidos hoy por todo el mundo, debido a la `diáspora´ económica y el fin del comunismo.

Grigore C. Moisil

Después de finalizada la Segunda Guerra Mundial, Grigore C. Moisil comenzó a enseñar lógica matemática y álgebra en Iasi y Bucarest, ya que entiendió que el nuevo campo emergente de los ordenadores tendría enormes repercusiones en el tejido social de la sociedad. Él fue quien continuó trabajando sobre las ideas de Claude E. Shannon acerca de los circuitos, y básicamente, sobre algunos avances fundamentales de Jan Lukasiewicz en Lógicas Multivaluadas, de donde finalmente se derivan las lógicas difusas.

— 51 —

Ángel Garrido

Las Álgebras de Lukasiewicz-Moisil (LMA, en acrónimo inglés) fueron creadas por Moisil como una contrapartida algebraica para las lógicas multivaluadas de Lukasiewicz. Serían un intento de dar coherencia semántica a las lógicas n-valuadas de este. Aunque el investigador Alan Rose probó en 1956 que puede haber objeciones, dependiendo del valor de n (el número de valores veritativos). Por ejemplo, si n  5, la LMA no modeliza una Lógica de Lukasiewicz. Dos años más tarde, C. C. Chang mostraba un modelo fiel para la lógica infinito-valuada de Lukasiewicz-Tarski. Para otras, más complejas desde el punto de vista axiomático propuso álgebras adecuadas Revaz Grigolia, en 1977. Y en 1982, Roberto Cignoli le añadió las restricciones necesarias para que las LMn-álgebras generen modelos propios para las Lógicas de Lukasiewicz n-valuadas. Este campo lógico-matemático se ha desarrollado en gran medida tanto como una teoría algebraica de interés intrínseco, como con vista a sus aplicaciones en lógica y teoría de conmutación. El estudio de las LMA es hoy seguido por Gheorge Georgescu y por Afrodita Iorgulescu, ambos de Bucarest. También son muy relevantes las aportaciones de Cristian Calude, las de Gheorge Paun (sobre la investigación de la computación de membranas, o `membrane computing´)), y muchos otros, en diferentes subáreas.

Otro buen amigo nuestro, el gran Profesor Solomon Marcus. Por desgracia, recientemente ha desaparecido.

También digna de mención sería la gran figura de Salomón Marcus (Bacau, 1925 Bucarest, 2016), que ha dejado este mundo hace bien poco tiempo. Era un discípulo inspirado del Prof. Grigore Moisil, pues el profesor Marcus había realizado muy importantes contribuciones a muchos campos de las matemáticas, como la lógica, el análisis matemático, o la lingüística computacional, de los cuales fue uno de los fundadores y un contribuyente de los más principales. Antonio Monteiro (1907-1980), matemático nacido en la Angola portuguesa, mostró que por cada B-álgebra monádico podemos construir un álgebra de L-3-valuada,

— 52 —

Los avances de la Inteligencia Artificial

y que cualquier álgebra L-3-valuada es isomorfa a un L-álgebra derivada de una B-álgebra monádica [siendo B, booleana, y L, Łukasiewicziana]. Roberto Cignoli dijo acerca de esto que: Desde que se demostró por Paul R. Halmos que las B-álgebras monádicas son la contrapartida algebraica de primer orden del cálculo monádico clásico, Monteiro considera que la representación de un valor de 3-L-álgebras en B-álgebras monádicas da una prueba de la consistencia de lógica 3-valuada-L, en relación con la lógica clásica.26

Probó que desde el punto de vista algebraico, la L-lógica trivalente se encuentra en la misma relación con la lógica constructiva con la negación fuerte como lo hace la lógica clásica con respecto de la lógica intuicionista. Y he aquí las vinculaciones y contactos entre los miembros de la Escuela de LvovVarsovia y los grupos de pensadores más o menos coetáneos, que les precedieron o coincidieron temporalmente con ellos (Bolzano, Brentano, Husserl, Frege, Gödel, Hilbert):

Otro diagrama de conexiones; en muchos casos, entre los propios miembros de la LWS, pero no sólo estas aparecen en él, como puede verse.

26

R. Cignoli, 2007; p. 6.

— 53 —

Capítulo 9.

OTROS “VIVEROS” DE BUENOS RESULTADOS.

Por supuesto que hay una gran producción (además, de carácter aceleradamente creciente) de publicaciones sobre esta área de investigación. Y muchos de los mejores trabajos sobre Lógicas Multivaluadas actualmente provienen de las mejores universidades europeas y de grupos de investigación muy importantes, frecuentemente asociados a ellas. Así, tenemos los casos de las de:

Varsovia, Praga, Ostrava, Viena, Linz, Lisboa, Oporto, Coimbra, Berlín, Leipzig, Bucarest, Timisoara, Cluj-Napoca, Bacau, Targu Mures, Alba Iulia, Toulouse, Budapest, Barcelona, Madrid, Pamplona, Granada, Oviedo,...

Esto es posible debido a que hay otros investigadores muy notables en LMVs (en particular, de la lógica difusa matemática), que han ido creando una base cada vez más sólida y consistente para estas teorías. Tal ha sido el caso de Petr Hájek, de la Universidad Charles, o Carolina (de Praga), Pável Cintula, Jan Pavelka, Libor Behounek, o el de Vilém Novak, de Ostrava. Tienen grupos de investigación de gran potencial, con publicaciones que se encuentran entre las más valoradas en este campo. Y no estaban solos en esa empresa, pues al igual que ellos, en Francia hemos tenido la importante tarea de difusión e investigación llevada a cabo por Didier Dubois y Henri Prade, así como tuvimos en el pasado como la de Elie Sánchez (1944-2014), u hoy la de Bernadette Bouchon-Meunier.

— 54 —

Los avances de la Inteligencia Artificial

En Alemania, podemos mencionar a Hans-Jürgen Zimmerman, o los notables trabajos, en su día, del profesor Siegfried Gottwald (1943-2015), de la Universidad de Leipzig, desgraciadamente también desaparecido. También nos encontramos con grandes investigadores en otras regiones geográficas, como Zhenyuan Wang, George Klir o Ronald R. Yager, en los Estados Unidos; o en Hungría (con Janos Fodor ...), o en Canadá (con Witold Pedrycz ...), o en el Reino Unido, en los Países Bajos (con Etienne Kerre, Bernard de Baets, Gerdt Cooman, Martine De Cock...), Italia (Giangiacomo Gerla, o Antonio di Nola...), Austria, Argentina, Brasil, Turquía, etc.

El profesor polaco Zdislaw Pawlak (1926-2006)

En Polonia siguen la gran tradición de la LWS de la lógica y las matemáticas, y con contribuciones a la investigación del tema incertidumbre a través de los conjuntos aproximados, por Zdislaw Pawlak (1926-2006), y continuaron por Andrzej Skowron, entre otros. La Teoría de Conjuntos Rugosos (los `Rough Sets´) propone una nueva aproximación matemática al conocimiento imperfecto, esto es, con presencia de lo vago (debido a la incertidumbre o imprecisión). En ésta aproximación, la vaguedad viene expresada mediante la región frontera de un conjunto. El concepto de Conjunto Rugoso (Rough Set) puede definirse por medio de operaciones topológicas, como las de interior y de clausura, que suelen denominarse aproximaciones. La función de pertenencia rugosa cuantificaría el grado de solapamiento relativo existente entre el conjunto X y la clase de equivalencia, R(x), a la cual pertenece el elemento x.

— 55 —

Ángel Garrido

Hoy día se sigue tratando de aplicar todas estas nuevas teorías a ciencias en crecimiento, que necesitan métodos de aproximación, así como sutiles herramientas para manejar la vaguedad y la incertidumbre.

— 56 —

PARTE II

NUEVA LÓGICA Y NUEVA MATEMÁTICA

Capítulo 10.

CONJUNTOS DIFUSOS Y LÓGICA DIFUSA. La lógica clásica no es suficiente para resolver muchos nuevos desafíos de la Inteligencia Artificial (AI). Así, vemos que es no sólo muy conveniente, sino imprescindible, producir nuevas herramientas que hagan posible la representación del conocimiento de los entornos con imprecisión e incertidumbre, como consigue la lógica difusa. Esa lógica introducida por Lofti A. Zadeh se deriva de su teoría de conjuntos difusos, una extensión de la cantoriana clásica, la de su teoría de conjuntos `crisp´ a otros `fuzzy´. En un conjunto difuso (llamémosle C), cada elemento, x, aparecerá asociado con su grado de pertenencia, C (x), un valor que pertenece al intervalo cerrado unidad de los reales, [0, 1]. Dicha función de pertenencia, designada , informa sobre el grado de compatibilidad de cada elemento con respecto de (w. r. t., en acrónimo inglés) la propiedad que lo define como tal conjunto. Sean, por ejemplo, F y G dos conjuntos difusos (fuzzy sets). Podemos definir estas Operaciones sobre dichos conjuntos difusos:

Inclusión: F  G, si F (x)  G (x), x  U.

Igualdad: F = G, si F (x) = G (x), x  U.

— 58 —

Los avances de la Inteligencia Artificial

Complementariedad: c (F) = x c (F) (x) = 1 - F (x), xU.

Unión: F  G = x FG (x) = máx [F (x), G (x)],  x  U

Intersección: F  G = x FG (x) = mín [F (x), G (x)], x  U

Recordemos que la familia de los conjuntos clásicos (o cantorianos, `crisps´´) tiene una estructura de álgebra de Boole, pero este no es el caso para la clase de los conjuntos borrosos, porque esta viola dos principios: el de no contradicción y el de Tercio Excluso, es decir, aquí serían, respectivamente:

X  c (X)   X  c (X)  U

siendo U el universo de discurso. Esto es, traducidos estos incumplimientos a las correspondientes funciones o grados de pertenencia:

X  c (X)   (X) = 0 X  c (X)  U (X) = 1

Observación: Sean X, Y, Z tres conjuntos clásicos, o Cantorianos (crisp). Entonces, en las Álgebras de Boole (o Boolean Algebras), la clase de tales conjuntos posee las siguientes propiedades:

— 59 —

Ángel Garrido

INVOLUCIÓN: C(C(X)) = X  C • C = Id.

CONMUTATIVIDAD: XY=YX XY=YX

ASOCIATIVIDAD: (X  Y)  Z = X  (Y  Z) (X  Y)  Z = X  (Y  Z)

DISTRIBUTIVIDAD: X  (Y  Z) = (X  Y)  (X  Z) X  (Y  Z) = (X  Y)  (X  Z)

IDEMPOTENCIA: XX=X XX=X

ABSORCIÓN: X  (X  Y) = X X  (X  Y) = X

ABSORCIÓN POR  Y U: XU=U X=

— 60 —

Los avances de la Inteligencia Artificial

IDENTIDAD: X=X XU=X

LEY O PRINCIPIO DE CONTRADICCIÓN: X  C(X) = 

PRINCIPIO O LEY DE TERCIO EXCLUÍDO, O EXCLUSO: X  C(X) = U

LEYES DE AUGUSTO DE MORGAN: C(X  Y) = C(X)  C(Y) C (X  Y) = C(X)  C(Y)

— 61 —

Capítulo 11.

MEDIDAS E INTEGRALES.

La medida (o `measure´, como suele decirse en inglés) es sin duda uno de los conceptos más importantes en matemáticas, y también lo es la integral con respecto a dicha medida. Ambas ideas están profundamente arraigadas en aquellas cavilaciones filosóficas propias de Leibniz. Las medidas e integrales clásicas posteriores serían propuestas ya por el alemán Bernhard Riemann (1826-1866), y por el francés Henri Lebesgue (1875-1941). Su principal característica sería la condición conocida como de aditividad. Siendo esta propiedad a veces muy conveniente, no obstante, en muchas ocasiones resulta ser demasiado rígida. Como solución a ese problema de exceso de “rigidez”, las medidas difusas fueron propuestas por el japonés Michio Sugeno (1940-), por el francés Gustave Choquet (1915-2006; por su `capacities´), y por algunos otros autores, que fueron planteando sus ideas alternativas. Una función definida en una familia de conjuntos se llama una `set function´, función de conjunto o función de ajuste. Las posibles propiedades que suelen acompañarlas son estas: -

aditividad:  (A  B) =  (A) +  (B)

-

monotonía: si A  B  A  B

-

normalización: mín A : A  X = 0

— 62 —

Los avances de la Inteligencia Artificial

máx A : A  X = 1

Una medida sobre X es una función no-negativa y aditiva definida sobre el conjunto X; es decir, que estaríamos hablando de la clase de X en [0, 1], esto es, de 2x. Una medida difusa sobre X es una función de conjuntos no negativa y no aditiva, , de las aplicaciones de X a [0, 1], es decir, se trata del conjunto [0, 1] x. Mencionemos algunos ilustrativos ejemplos: -

Un ejemplo de medida normalizada sería la medida de probabilidad. Un ejemplo de medida aditiva es la “signed measure”, o medida signada (esto es, con signo). Un ejemplo de medida muy clásico y bastante conocido es la medida de Lebesgue. Un ejemplo de medida difusa es la medida de Sugeno.

— 63 —

Capítulo 12.

EL PROBLEMA DE LA VAGUEDAD.

La problemática filosófica acerca de cuál sería el mejor tratamiento del problema de la “Vagueness” (o vaguedad) se mantiene no sólo hoy en día más que vigente, sino que crece el interés por él en círculos científicos y sobre todo, filosóficos. Y es que como sabemos, se trata de unas cuestiones estrechamente relacionadas (entre otras) con la aparición y la posible resolución de antinomias del tipo sorítico, como la del “montón de arena”, u otras similares. Hemos de analizar con cierto esmero y detalle estas aproximaciones: - La de la “fuzziness”, esto es, a través de la Lógica Fuzzy, siguiendo la propuesta de Lofti A. Zadeh, como una transición gradual desde la “perfecta falsedad” hasta la “perfecta verdad”, a las cuales se les asigna los valores de verdad 0 y 1, respectivamente. Al resto de las situaciones se les puede ir asignando un valor veritativo funcional comprendido dentro del intervalo abierto unidad, el (0, 1). Muchos han sido los pensadores que han apoyado esta aproximación. Aparte de los muchos ya mencionados, podríamos citar a K. F. Machine (1976), o a Dorothy Edgington (1993), filósofa inglesa activa aún en Metafísica y en Lógica Filosófica. - La de la “roughness”, que fue propuesta por el también profesor polaco (como también de allí fueran los miembros de la ELV) Zdzisław I. Pawlak. - La del “supervaluacionismo”, que es otro modo de abordar la “vagueness”. Este punto de vista, bastante diferente en su análisis, ha sido defendido por filósofos como Kit Fine, o Rosanna Keefe, entre otros. La postura de Fine es que con la aplicación a los casos frontera de los predicados vagos no serían estos ni verdaderos ni falsos. Más bien, podríamos hablar de “truth-value gaps”. Defienden con ello un sistema bastante complejo y sofisticado de “semántica vaga”, postulando que un predicado vago puede volverse preciso de diversos modos alternativos. Dada una semántica supervaluacionista, es posible definir el predicado super-verdadero, o “verdadero para todas las `precisifications´”. Con ello no se — 64 —

Los avances de la Inteligencia Artificial

cambia la semántica de las afirmaciones atómicas (como la de “Pedro es calvo”), pero sí que tiene consecuencias sobre las complejas. Así, por ejemplo, en tautologías como “Pedro es calvo o Pedro no es calvo”, esta sería super-verdad en ese sentido, pues para cualquier `precisification´ que se lleve a cabo, “o bien `Pedro es calvo´ o bien `Pedro no es calvo´” sería verdad”. La presencia de “borderline cases” lleva a rescatar el principio de tercio excluso, un hecho que ha sido considerado bastante valioso y que funciona a favor de este enfoque del problema. Más adelante ampliaremos esta línea de análisis de la “vagueness”. - La postura “epistémica”, que ha sido defendida por notables filósofos, como Timothy Williamson (en 1994), por Roy A. Sorensen (en 1988 y 2001, entre otras ocasiones), o por Nicholas Rescher (éste, en 2009). Postulan que los predicados vagos delimitan fronteras claras, sólo que no sabemos muy bien dónde están estas. Nuestro estado de confusión sobre si alguna palabra o término vago no resulta aplicable en los casos `fronterizos´ lo explican diciendo que puede ser debido a nuestra propia ignorancia. Por poner un ejemplo, bajo el punto de vista de los epistemicistas, es un hecho de importancia personal si se es joven o si se es viejo, aunque muchas veces prefiramos mantenernos en una discreta ignorancia sobre este hecho. - La vaguedad como una propiedad de los objetos. Una de las posibilidades a considerar es que las palabras y los conceptos que uno maneja sean completamente precisos, pero que sean los objetos en sí mismos los que sean vagos. Cabe poner el famoso ejemplo de Peter Unger, que trata sobre el término “cloud” (nube). Porque no está nada claro dónde empieza y dónde termina una nube, esto es, dónde estaría su frontera. Pues dada una porción de vapor de agua, podemos preguntarnos si éste pertenece o no pertenece a cierta formación nubosa, y en muchos casos, no cabe darle respuesta. Así que tal vez el término “nube” que tenemos denota un objeto vago con precisión. Hoy en día algunos filósofos están defendiendo que en la “vagueness” tenemos algún tipo de fenómeno de tipo metafísico, proponiendo reglas de deducción alternativas que lleven consigo la famosa ley de Leibniz, o Principio de Identidad de los Indiscernibles, u otras reglas similares acerca de la validez. Entre ellos, podemos mencionar a Peter van Inwagen (1990), Trenton Merricks, o Terence Parsons (2000).

Vamos a realizar un estudio más detallado de cada una de estos puntos de vista propuestos acerca del fenómeno de la “vagueness”. Este ha sido tratado muchas veces como un problema más de tipo lingüístico. Pues hablando de la “vaguedad”, solemos pensar que hay ciertos fallos en los nombres, predicados o sentencias. Pero eso no significa que no pueda haber problemas de vaguedad de tipo extralingüístico. Porque, e independientemente de si aceptamos la vaguedad en un mundo material o no la

— 65 —

Ángel Garrido

aceptamos, sigue siendo una cuestión aparte la de si la vaguedad lingüística tan sólo tiene un carácter de tipo pragmático, o también de tipo semántico. Es de interés introducir ahora un nuevo personaje: su nombre es Tadeusz Kubinski (1923-1991). Él fue otro bastante interesante filósofo polaco, también ya desaparecido; por cierto, que pertenecía a la tercera generación de la Escuela de LvóvVarsovia, lo cual le conecta con nuestros comentarios anteriores sobre la misma. Fue en su artículo de 1958, “Nazwy Nieostre”27, donde presentó sus tres aproximaciones a la definición de los “nombres vagos”:

- Definición pragmática: Un nombre, a, es vago en el lenguaje J si y sólo si existe un objeto que no esté considerado una designación del nombre a, o una designación de un nombre no-a, para todo usuario (“speaker”) del lenguaje J que entienda ese nombre. - Definición semántica: Un nombre, a, es vago, si su frontera es no vacía; esto es,  a  . - Definición sintáctica: Un nombre, a, es vago en un sistema, S, syss ni la expresión “b es a”, ni la expresión “b es no-a” son “statements” (sentencias o afirmaciones) dentro del sistema S. Donde “b” es un nombre propio, esto es, que designa únicamente un objeto.

Recordemos que la extensión positiva de un nombre vago estaría formada por aquellos objetos (o casos) de los que el nombre puede ser total y verdaderamente predicado. Por lo que la extensión negativa de un nombre vago está formada por aquellos objetos (o casos) de los que el nombre no puede ser totalmente y verdaderamente predicado. No cabe duda que la vaguedad tiene un cierto carácter pragmático. Tampoco se le podría negar su carácter semántico. Sin embargo, el carácter sintáctico es algo bastante inusual, y estaría relacionado con la aproximación de Kubinski a los “nombres vagos”, quien a su vez se inspira en la ontología de Stanislaw Lesniewski. La vaguedad está estrechamente vinculada con los llamados “casos frontera”; o “fronterizos”, “border cases” se podría también decir. La existencia de tales casos nos proporciona una prueba bien palpable de la existencia de la vaguedad. Ésa es la opinión sostenida por Roy A. Sorensen.

27

Recogido en T. Kubinski, Studies in the history of mathematical logic. Polish Academy of Science, Institute of Philosophy and Sociology, Warsaw 1974.

— 66 —

Los avances de la Inteligencia Artificial

La determinación precisa de los casos frontera requerirá, por tanto, la introducción de los conceptos de:

-

Extensión positiva, y

-

Extensión negativa.

De un nombre dado o de un predicado, se entiende. Se dice que un objeto cae dentro de la extensión positiva de un predicado cuando dicho objeto cumple la condición de poseer de modo definido la propiedad relevante. Por tanto, un objeto cae en la extensión negativa de un predicado cuando al objeto de modo definido le falta dicha propiedad. De otro modo, esto es, si no cae en ninguna de ellas, entonces el objeto sí que “caería”, pero en la zona o región de penumbra. Basta utilizar los conceptos de verdad y falsedad para que ambas extensiones puedan ser expresadas así: -

Un objeto, O, pertenece a la extensión positiva de un predicado, P, cuando una sentencia, P(O), que predica que el objeto O tiene una propiedad expresada mediante P, es verdad.

Análogamente, -

Un objeto, O, pertenece a la extensión negativa del predicado P, si una sentencia, P(O), que predica que el objeto O tiene una propiedad expresada mediante P, es falsa. La región de “penumbra” suele ser también llamada: - “border”, o `boundary´, por borde o frontera; - “vagueness area” (región de vaguedad); o - “border case area”, etc.

Pero la existencia de “borderline cases” no constituye una prueba de la vaguedad de un nombre o predicado, porque los casos frontera también caracterizan expresiones no especificadas o parcialmente definidas. Puede resultar clave que el área de vaguedad esté vagamente delimitada. Pues el distinguir entre lo vago y la penumbra, partiendo de cualquier extensión, parece constituir la esencia de la “vagueness”. Se podría proponer el ejemplo de Max Black, que consideraba una fila de objetos, el primero de los cuales sería una silla completa y perfecta, de un determinado modelo; al segundo, aun proviniendo del mismo modelo, ya le falta algo; al tercero, algo más aún le falta; etc.; así, hasta llegar a la última `silla´ de la cadena, que sólo consiste en — 67 —

Ángel Garrido

un trozo dañado de una pata. Lo cual se podría transferir igualmente al caso del montón de arena de las antinomias de tipo sorítico. La propiedad de “ser un montón”, la cual se podría denominar con un neologismo como “montoneidad”, cabe ser diseñada por medio de un esquema, en el cual la línea punteada (o discontinua) representaría la ausencia de un borde preciso, que se daría tanto entre la extensión negativa y la zona de penumbra, como entre dicha zona de penumbra y la extensión positiva.

Otro pensador interesante sería el italiano Achille C. Varzi, pues entiende la “vagueness” de un distinto modo: su definición contiene un elemento que nos muestra la imposibilidad de delimitar una frontera para una cierta colección de casos frontera. Aparte de esto, Varzi apunta la posibilidad de distintas interpretaciones de una y la misma definición. Pues para él, la expresión “posee casos frontera” no es precisa, y por ello sería responsable de la ambigüedad de la anterior definición. Sugiere Varzi dos extensiones alternativas de dicha definición, a las que denomina: definición “de re”, y definición “de dicto”. Así, el término t designa una entidad, x, tal que es indeterminada, si tales y cuales objetos objetos caen dentro de las fronteras de x. O para el otro caso, es indeterminada, si el término t designa una entidad, x, de modo que tales y cuales objetos no podemos determinar si caen o no dentro de las fronteras de x. Pues Achille Varzi relaciona la definición “de re” con lo ontológico, mientras que la “de dicto” la conecta con la interpretación lingüística o conceptual de la vaguedad. Él ilustra ambas definiciones por medio del ejemplo de la “alopeceidad”, esto es, la del predicado “ser calvo”. Este predicado sería vago en el primer sentido, esto es, ontológico, si definimos un conjunto vago de gente, pues ningún hecho objetivo puede decidir si un hombre que esté en el caso frontera de “lo alopécico” pertenece o no pertenece a dicho conjunto. El mismo predicado sería vago con respecto con respecto de la segunda definición, si ningún hecho objetivo puede decidir cuál de los dos posibles conjuntos de personas están definidos por el predicado “ser calvo”. Porque como sabemos, si n es el número de personas que viven hoy, entonces tendríamos 2n conjuntos distintos de personas, y según la definición “de dicto”, no está decidido a cuál de todos esos conjuntos le corresponde al predicado “ser calvo”. Por su parte, desde el punto de vista de la definición “de re”, ninguno de los anteriores conjuntos estaría definido para el predicado en cuestión. Cree Achile Varzi que algunas propuestas que pretenden identificar las dos formas de definir la vaguedad parecen ser poco afortunadas, y esto es porque algunas son reconocibles como “ontológicas”, y otras, como “lingüísticas”. Pero concluye Varzi que ambas interpretaciones no tienen por qué ser mutuamente excluyentes. — 68 —

Los avances de la Inteligencia Artificial

La “fuzziness” de una típica región de vaguedad puede llevarnos a obtener también algunas consecuencias, pues podemos considerar la vaguedad de la penumbra, y la vaguedad de la vaguedad,…, y así, hasta el infinito. Esto quiere decir que la vaguedad de un enunciado, o una expresión dada, puede generar sucesivas vaguedades, cuyo grado iría aumentando cuando avanzamos en ese proceso de gradualización, o disminuyendo, en caso de ir en el sentido contrario. Se trata de la así llamada “higher order vagueness”. De donde se podría llegar a poner en duda que tal meta-lenguaje nos consiga proporcionar herramientas que permitan tratar adecuadamente el problema de la vaguedad. Por lo que para resolver cuestiones como si la vaguedad es precisa, o de si la vaguedad es a su vez vaga, algunos pensadores plantean irle añadiendo condiciones, como que si el predicado “ser vago” es vagamente vago, o si no es vago en determinadas ocasiones, dependiendo del contexto, etc. Aun corriendo el riesgo de incurrir en la “circularidad”, estos autores tratan de resolver el problema por medio del análisis del sentido de lo que es la “vagueness”. Se podría construir, por ejemplo, una sucesión de predicados adecuada, que nos llevase de un modo, si se quiere, imperceptible, desde un predicado vago hasta uno preciso, y también el “camino de vuelta”. Bertrand Russell, en su famosa conferencia sobre la “Vagueness”, afirmaba que esta es un fenómeno que caracteriza sólo a aquello que se representa, y no a aquello que es representado. De manera que se trataría de un fenómeno puramente mental o de tipo lingüístico. Porque al considerar la vaguedad en objetos extra-lingüísticos es posible caer en el error típico del “verbalismo”, en el cual se incurre cuando las propiedades de las palabras son adscritas a los objetos representados por ellas. Por su lado, el filósofo Michael Dummett concluye que no es razonable compartir la opinión según la cual las cosas (en sí) son vagas, así como aquella otra que dice que las cosas lo que están es vagamente descritas. Con respecto de la cuestión de la “vagueness”, David Kellogg Lewis estuvo bastante próximo a las posiciones de Betrand Russell y de Michael Dummett. Dice D. K. Lewis que el pensamiento y el lenguaje son los únicos emplazamientos donde la vaguedad puede ser localizada. Cree que la causa de la vaguedad lingüística no es la existencia de objetos vagos, sino el gran número de objetos precisos, que van variando con respecto de la posición de sus fronteras. Por lo que la “vagueness” sería una especie de indecisión semántica. De una opinión similar es Timothy Williamson, quien como representante del `epistemicismo´ dice que: …no sólo niega la existencia de la vaguedad material, sino que también cree que las expresiones del lenguaje son precisas, y que la vaguedad sería tan sólo una consecuencia de la falta de conocimiento, o de habilidad, para reconocer las fronteras precisas que separan la extensión positiva de la extensión negativa. Tal interpretación es lo que se llamaría vaguedad epistémica28.

28

T. Williamson, 2002; cap. 12, p. 210.

— 69 —

Ángel Garrido

Aun cuando la posición filosófica que niega la existencia de vaguedad en el mundo material ha gozado de defensores, como son los tres anteriormente mencionados, también existen pensadores que no sólo admiten que tal vaguedad sea posible, sino que sostienen incluso que los objetos del mundo material son vagos en sí mismos. Dicha interpretación recibe diversos nombres, como: Objetiva, Metafísica, u Ontológica. La posición filosófica según la cual la vaguedad de las expresiones del lenguaje tienen su fuente en la vaguedad extralingüística presenta entre sus representantes a Tadeusz Pawlowski (1924-1996), el cual escribía que: …the cause of vagueness is not be found in a person´s lack of knowledge or actions, but in the nature of objects signified by vague expressions, in the specific features of those objects. They are, namely, gradual properties, such that moving from the state presence to the state of absence of a given property has successive character. This means that it is impossible to place a precise boundary between the two states29.

El professor Tye formula una opinión similar a la de Pawlowski, pero argumentándola de otro modo: puesto que el predicado “ser rojo” es vago, la propiedad expresada por él también lo será. Ahora bien; existen objetos que no son ni puramente rojos, ni puramente no-rojos. De donde se llega a que la vaguedad de una propiedad parece requerir de objetos que sean “posibles instancias fronterizas”. Acerca de los “supervaluacionistas”, debemos indicar que dicha teoría proviene principalmente de Kit Fine (1946-), y que éste la aplicó a la “vagueness”. Luego fue introducida en la Lógica Formal por Bas C. van Fraasen (1941-). Kit Fine nos dice que la clase de las valoraciones admisibles se basaría en las llamadas “precisifications”. Aún podemos hacer referencia a otras posiciones filosóficas, como son las “subvaluations”, o el “dialetheism”, incluso a otra que suele ser denominada “nihilism”. La opinión según la cual algunas sentencias pueden ser verdaderas y falsas a la vez es defendida por quienes abogan en favor de ese pensamiento dialeteico, que cree en las que ellos llaman “contradicciones verdaderas”. Además, según afirman, muchos ejemplos hay que confirmarían la validez del dialeteísmo basándose en las sentencias con términos vagos. Graham Priest propone el conocido ejemplo de una persona que está atravesando bajo el dintel de una puerta existente entre la habitación y el pasillo de una casa. En su opinión, la afirmación según la cual estaría en ese momento a la vez dentro y fuera de la habitación sería verdadera y falsa a la vez. La versión más conocida de la idea de “dialeteísmo” es la conocida como “Teoría de la Subvaluación”. Si bien su autoría se le suele atribuir al profesor australiano Dominic Hyde, lo cierto es que esto ya había sido presentado bastante antes; en concreto, 29

T. Pawlowski, 2011; p. 123.

— 70 —

Los avances de la Inteligencia Artificial

por el filósofo polaco Stanislaw Jaskowski (1906-1965), ya en el año 1948. Éste fue quien introdujo unos “sistemas de discusión” que formalizaban los diálogos entre personas que disintieran entre sí sobre sus opiniones acerca de la verdad de las sentencias utilizadas durante el debate. Dentro de este tipo de sistemas, el más notable es el designado como D2.

Stanislaw Jaskowski

Stanislaw Jaskowski se inspiró para sus sistemas en la aparición de términos vagos dentro del lenguaje natural: puede suceder que una misma sentencia sea entendida de distintos modos por los diversos participantes en una discusión, así que su valor lógico va a diferir de unos a otros. Observemos que dos sentencias aparentemente contradictorias, como la A y A, pueden entonces ser aceptadas simultáneamente, cuando A es aceptada con un significado de términos, mientras que  A lo es con otro significado distinto, pero de los mismos términos. Análogamente al caso de la teoría de la “super-valuation”, que aparecieron en la propuesta de D. Hyde, aquí nos apoyaríamos sobre la clase de las “precisifications”. Pero los conceptos de “super-verdad” y de “super-falsedad” serían sustituídos por los de “subverdad” y “sub-falsedad”. En ciertas precisificaciones, una sentencia verdadera sería sub-verdadera, mientras que una sentencia falsa puede que sea en otra sub-falsa, dependiendo de cuál `precisificación´ se aplique para cada caso. Por lo que algunas sentencias, o enunciados, pueden ser simultáneamente subverdaderas y subfalsas. De ahí que dicho autor introduzca nuevos conceptos, como los de: -

Definite truth.

-

Definite falsehood.

— 71 —

Ángel Garrido

Así que desde el punto de vista de la teoría de las “sub-valuations”, existen tres tipos de sentencias: -

Definitely True.

-

Definitely False. Y

-

Las que son a la vez verdaderas y falsas.

Las paradojas relacionadas con la vaguedad (o la “vagueness”) pueden llegar a ser evitadas, moviéndonos dentro del contexto de dichos sistemas. Entre ellas podemos señalar las siguientes: -

La llamada Paradoja de Bonini (en honor de quien la planteó, Charles Bonini). Viene a decirnos que las simulaciones o modelos “bien hechos” son imposibles de construir, pues cuanto más sencillo intentemos que sea, para hacerlo así más entendible, va a resultar menos completo, y con ello, menos preciso. Y recíprocamente, si el modelo se hace cada vez más preciso, entonces va a ser tan difícil de entender como el proceso del mundo real que pretendía modelizar. Esto lo resumían Dutton y Starbuck así, en 1971: As a model of a complex system becomes more complete, it becomes less understandable. Alternatively, as a model grows more realistic, it also becomes just as difficult to understand as the real-world processes it represents.30

Resumiendo: que hay que optar o bien por algo menos claro, pero más preciso, o bien por algo más claro, pero a costa de ser con ello menos preciso. Y esto con todas las posibles modulaciones introducidas por los respectivos grados que se le vayan asignando. - La “Code-Talker Paradox”, que hunde sus raíces en la Lingüística, al venir a cuestionar ideas fundamentales acerca del lenguaje, destacando el hecho de que éste puede servir tanto para facilitar la comunicación como para bloquearla. - La Paradoja del Barco de Teseo (o del `Ship of Teseus´). Supongamos que disponemos de un barco y que en él vamos reemplazando una a una todas las piezas. Reemplazamos una, y sigue siendo el barco. Reemplazamos otra, y también… Así hasta cuando resulta que hemos reemplazado todas las piezas. La pregunta sería: ¿sigue siendo en realidad el mismo barco? Tiene lógicamente que ver con el ejemplo ya comentado sobre la silla a la que se le van quitando

30

Dutton et al., “Location discovery system and method”, 2009, US 20100302056 A1.

— 72 —

Los avances de la Inteligencia Artificial

progresivamente un elemento tras otro, y si se puede seguir llamando con propiedad una silla, o cuándo dejaría de serlo. - Luego estarían las “Paradojas Soríticas”; en plural, porque como sabemos, existe toda una panoplia de ellas, que suponen unas variantes de la Paradoja del Montón de Arena (o Sorites, del griego `soros´, que significa montón). Entre ellas, tendríamos la “Bald Paradox”, o Paradoja del Calvo: ¿Cuántos pelos hay que perder para ser considerado calvo? ¿Todos o parte de ellos? Y en éste caso, ¿cuántos? Claro está que la antinomia queda disuelta, si se introducen los grados; en este caso, hablaríamos del nivel de “alopeceidad”, con grados de pertenencia al intervalo real unidad, [0, 1], según el cumplimiento de la propiedad de `ser alopécico´. -

Merecen, sin duda, una mención especial las dos paradojas que comenta Stanislaw Lesniewski: estás serían, en primer lugar, la de Alexius Meinong (recordemos que fue otro de los miembros de la ELV), y en segundo lugar, la de Nelson y Grelling.

La Paradoja de Meinong puede abordarse por una de estas dos vías: una, la directa, a través del rechazo de dicha antinomia; la otra, indirecta, abundando en la crítica de los por él llamados `objetos contradictorios´. El razonamiento de Meinong viene así planteado por Lesniewski: Si fuera verdad que no existen objetos contradictorios…, sería verdadero que `un objeto contradictorio no es un objeto´. Sin embargo, sólo puede ser verdadero que un objeto contradictorio no sea un objeto en el caso de que un cierto objeto sea `contradictorio´. Si algún objeto fuera `contradictorio´, entonces ninguna proposición sobre los objetos contradictorios podría ser verdadera, incluida la proposición `un objeto contradictorio no es un objeto´. Y sin embargo, si fuera verdad que un objeto contradictorio no fuera un objeto, entonces debería ser verdadero que un cierto objeto sea contradictorio… La aceptación de los objetos contradictorios se torna, pues, lógicamente inevitable.31

La solución que da Lesniewski a esta “paradoja de Meinong” es relativamente sencilla: si es verdadero que algún objeto sea `contradictorio´, entonces [y contrariamente a la opinión esgrimida por Meinong] la proposición `un objeto contradictorio no es un objeto´ es falsa, pues posee un objeto que no denota. De donde viene a deducirse, de paso, la no aceptabilidad de tales `objetos contradictorios´. Esta crítica de Lesniewski es directa y sin contemplaciones. Se basa en que Meinong no distingue entre el ámbito de la Lógica y el de la Metafísica, una distinción que sin embargo, sí que establece Lesniewski. Razón por la que éste deduce que el término `objeto contradictorio´ va a ejercer ahí una función lingüística de sujeto, mientras que no posee en absoluto una función simbólica. En cuanto a la segunda paradoja abordada por Lesniewski, la propuesta por Nelson y Grelling, esta surge cuando se intenta responder a la siguiente pregunta. Un J. Pásniczek, “Meinong's ontology VS. Leśniewski's ontology (toward a Meinongian calculus of names)”. Axiomathes, 7(1), 1996, p. 282. 31

— 73 —

Ángel Garrido

hombre que mata a todos los que no se suicidan, ¿deberá matarse a sí mismo? (Aquí se oyen resonar los ecos de la paradoja del barbero que afeita a todos aquellos que no se afeitan a sí mismos). En cualquiera de los casos que consideremos, según sus autores, esta proposición va a aparecer como falsa, porque si no se suicida, no está matando a todos los que no se suicidan; y si se suicida, está matando a uno que sí se suicida. ¡Contradicción (pero es sólo aparente)! Lesniewski la resuelve apoyándose en sus propios planteamientos: Aquel hombre que mata a todos los que no se suicidan, y no mata a los suicidas, no es objeto alguno… Por lo tanto, todas las proposiciones que posean tal sujeto son falsas32.

No existiendo, por tanto, contradicción finalmente, si ninguna de las frases en posesión de tal sujeto fuese verdadera. Luego estarían las llamadas Paradojas Insolubles, que como nos dice el profesor Sánchez Meca, se pueden clasificar en diversos subapartados, como son: 1.

Las proposiciones que expresan hechos generales.

2.

Las proposiciones que expresan hechos negativos.

3.

Las proposiciones que expresan creencias.

Las del primer tipo darían lugar a la siguiente paradoja: no se podrá decir que una proposición sea la simple conjunción de proposiciones atómicas, que signifiquen cosas como “éste cuervo es negro, y éste también, y éste…”; así, hasta que todos los cuervos hayan sido enumerados. Ya que aun admitiendo la posibilidad de llegar a enumerar todos los cuervos (lo cual es absurdo), habría que admitir finalmente que el cardinal del conjunto de los cuervos enumerados coincide con el cardinal de todos los cuervos existentes. Y con ello aparecería el elemento de generalidad. Así que lo que hace que una proposición como ésta sea verdadera o falsa no es la conjunción de una serie más o menos larga de hechos generales, sino la consideración final de un hecho irreductible general. Lo que nos hace ver que de la mera enumeración de cosas singulares nunca se va a poder establecer de modo axiomático una proposición general. El motivo es la imposibilidad de establecer que las cosas enumeradas singularmente sean todas las que existen. Las del segundo tipo corresponden a proposiciones del tipo: “Sócrates no está vivo”. Porque si es falsa, será porque no se corresponde con los hechos, pero ¿con qué hechos en concreto? Debería ser con el hecho de que no está vivo, pero si tal hecho no existe, y no se puede alcanzar del mismo experiencia directa, ¿cómo entonces cabe seguirla considerarla falsa? Así que la teoría de la verdad como simple correspondencia

32

Mismos autor y artículo.

— 74 —

Los avances de la Inteligencia Artificial

con los hechos particulares y presentes de la experiencia viene a dificultar la explicación de los hechos negativos. En cuanto a las del tercer tipo, dichas proposiciones vienen a incrementar el grado de dificultad, como ocurre con las frases del discurso indirecto. Un ejemplo podría ser “Juan cree que la Tierra es redonda”. Pero el problema radica en que aun cuando estas proposiciones parezcan moleculares, no lo son. Pues la verdad o falsedad de la proposición: “Esto es verde y aquello gris” va a depender del grado de verdad de cada una de las afirmaciones que contiene. Volviendo al ejemplo anterior, la afirmación acerca de la creencia o no de Juan en la redondez de la Tierra es independiente de que esta sea una característica de nuestro planeta, pues podría serlo y que no lo creyera. De modo que no está claro que este tipo de proposiciones sean funciones de verdad de las proposiciones atómicas. Por esa razón, Bertrand Russell llegó a admitir que los hechos atómicos resultan insuficientes a la hora de aclarar en qué consiste la verdad o falsedad de este tipo de proposiciones. No olvidemos que su discípulo, Ludwig Wittgenstein, hace un planteamiento más radical que el de su maestro. Porque para Wittgenstein, la unidad de significado es más la proposición que el término general, dado que una palabra sólo tiene un significado dentro de una proposición. Y una proposición sería una representación de la realidad. Dado que un objeto es algo que puede formar parte de una configuración, no puede ser que sea él mismo una configuración; esto es, debe ser simple. El problema está en que no todas las proposiciones son atómicas, en los distintos lenguajes posibles. Entonces, ¿cuáles han de ser las proposiciones que consideremos? La respuesta sería que las veritativo-funcionales, compuestas por proposiciones atómicas. Decía Ludwig Wittgenstein que: Entre los posibles grupos de condiciones de verdad, existen dos casos extremos. En uno, la proposición es verdadera, para todas las posibilidades de verdad de las proposiciones elementales. Nosotros decimos [en ése caso] que las condiciones de verdad son tautológicas. En el otro caso, la proposición es falsa, para todas las posibilidades de verdad: las condiciones de verdad son contradictorias. La proposición muestra aquello que dice: la tautología y la contradicción muestran que no dicen nada… Tautología y contradicción no son figuras de la realidad. No representan ningún posible estado de cosas.33

Son también fundamentales en la historia de las paradojas, en su sentido más matemático, los nombres de Cantor y de Frege. Georg Cantor (1845-1918) había nacido en San Petersburgo, pero de una familia danesa. Su padre era un próspero comerciante judío convertido al protestantismo. Cantor estudió, primero, en Zürich, y luego, en Berlín, teniendo como profesores a Karl Weierstrass, Ernst Kummer y Leopold Kronecker. Este último le tomó tal `ojeriza´ que le perseguiría ya por el resto de sus días. Lo malo para Cantor es que tal catedrático tenía grandes influencias como para poder lograrlo. Esto produjo notables desequilibrios en la personalidad sensible de Cantor, que terminó

33

L. Wittgenstein, Tractatus Logicus-Philosophicus, T. 5541 y ss.

— 75 —

Ángel Garrido

ingresado en instituciones psiquiátricas. Fundador de la Teoría de Conjuntos, hacia 1875; en principio, bajo la forma de una teoría `ingenua´ (o `naive´), lo que llevaba a ciertas contradicciones internas. Tales paradojas fueron empezando a ser señaladas por él mismo, por Cesare Burali-Forti, por Bertrand Russell, por Julius König, etc. En el intento de resolver estas dificultades, se formaron tres líneas de pensadores, o escuelas filosóficas. Estas son: -

La logística, cuyo principal representante sería el antes mencionado Gottlob Frege.

-

La formalista, con su máximo valedor en la figura del `pope´ matemático de la Universidad de Göttingen, David Hilbert.

Y

-

La intuicionista, encabezada por L. E. J. Brouwer y su discípulo, Arend Heyting; ambos, holandeses.

La diferencia entre ellos radica en la visión que cada uno de estos grupos tiene del origen de las paradojas. Para los logicistas, todo viene de errores comunes, procedentes del descuido de los matemáticos que los cometen. No son, por tanto, intrínsecos a la matemática, sino extrínsecos a ella. Para los intuicionistas, esas paradojas son la muestra clara de que las matemáicas clásicas distan mucho de ser perfectas. Por lo que estas debieran ser reconstruidas desde su base. Se trata, pues, de una visión constructivista, que rechaza algunos de los métodos clásicos de demostración, como el de la reducción al absurdo. En cuanto a la figura de Friedrich Ludwig Gottlob Frege (1848-1945), es más conocido por su gran obra, el Begriffsschrift (o Conceptografía), publicado en 1879. Defendía la visión según la cual las matemáticas no son más que una rama de la lógica; concretamente, son `lógica aplicada´. En sus Grundgesetze der Arithmetik (o Leyes Fundamentales de la Aritmética), que aparecieron en 1893 y 1903, intentaba deducir todas las leyes de la aritmética a partir de axiomas. Aunque esta corriente no triunfara finalmente, tuvo una repercusión enorme sobre un conjunto de discípulos, entre los que podemos citar a Rudolp Carnap, Giuseppe Peano, George Boole, Bertrand Russell, Alfred North Whitehead o Ludwig Wittgenstein. Pasándonos ahora al campo de la Física (más en concreto, de la Mecánica Cuántica), existe un Teorema de curioso nombre: el del Libre Albedrío (Free Will). Dice que si nuestras elecciones no son una función del pasado, sujetas a ciertas restricciones (o

— 76 —

Los avances de la Inteligencia Artificial

hipótesis, assumptions), que deberán representarlo algunas partículas elementales.34 Su demostración se basa en tres axiomas: FIN, SPIN y TWIN. Por ejemplo, el primero de ellos afirma que existe una velocidad máxima para la propagación de la información, y que esta no necesariamente coincide con la de la luz. Lo cual se apoya en la causalidad. En un artículo posterior35, sustituyen el FIN por otro axioma más débil, el MIN. Este viene a decir que dos observadores cualesquiera, separados entre sí en el espaciotiempo, pueden realizar mediciones independientes uno del otro. Con lo que ya no se postula que la velocidad de transmisión de la información tenga un límite máximo, sino sólo de la elección de mediciones para las partículas. Así prueban que el determinismo es incompatible con cierto número de hipótesis deseables a priori. El filósofo David Hodgson apoya36 este teorema, afirmando que lo que prueba es que el determinismo es anticientífico, que la QM (Quantum Mechanics, o Mecánica Cuántica) permite a los que observan la libertad de seleccionar las observaciones por ellos elegidas, lo cual deja abierta la puerta al libre albedrío.

34

John H. Conway & Simon Kochen, Foundations of Physics, 2006. Ibid., “The Strong Free Will Theorem”. Notices of the AMS, 56(2), pp. 226-232, 2009. 36 D. Hodgson, in “Science and Determinism”. Capítulo 7 de la obra Rationality + Consciousness = Free Will. Oxford U. P., 2012. 35

— 77 —

Capítulo 13.

LA LÓGICA MODAL Y LAS OTRAS LÓGICAS.

Se habla a menudo de Lógica Modal sin saber a ciencia cierta muchas veces ni su contenido ni sus orígenes, como el de tantas otras cosas. Dichas Lógicas (pues, como veremos, hay más de una versión) se remontan al Estagitita. Por ejemplo, en sus tratados lógicos, contenidos en el Órganon, se pueden hallar sus primeros planteamientos; en especial, en el Perihermeias (en latín, De Interpretatione), como también fuera el caso para las Lógicas Difusas, aunque no se implicase luego en su desarrollo. El término de `Modal´ le viene de los conocidos como “modos de verdad”, que son dos: el de necesidad (denotado por un cuadrado o por un rectángulo, ; el `square´, en inglés), y el de posibilidad (el `diamond´, que se representa por un rombo, ). Se traducirían, en una proposición, como `es necesario que´, o `es posible que´, respectivamente. Guardan una relación entre sí bastante clara, que permite transformar las afirmaciones que las contienen. Se expresaría de esta manera, en la notación moderna:

pp pp

Esto muestra que bastaría considerar sólo uno de los operadores modales, o bien el  o bien el , y a partir de él , con el vocabulario de la lógica proposicional, deducir el otro. Lo habitual es tomar como básico el operador de necesidad, . La gramática de la Lógica Modal es casi análoga a la de la Lógica Proposicional, salvo en que a esta se le añaden los operadores correspondientes a las modalidades. Tal gramática nos dirá qué

— 78 —

Los avances de la Inteligencia Artificial

secuencias de símbolos estarían bien construidas (son las wff, por `well-formed formulas´, en acrónimo inglés; o `fbf´, en su acrónimo español). Con el tiempo, pasaron estas ideas por diversos avatares, hasta llegar a la figura de Clarence Irving Lewis (1883-1964; usualmente, citado como C. I. Lewis, que no debe confundirse con el también filósofo David Kellogg Lewis [1941-2001], quien tanto trabajó en torno a la Causalidad y a los Mundos Posibles). Los conceptos de C. I. Lewis cristalizaron en una obra suya, la llamada Symbolic Logic, que escribió conjuntamente con C. H. Langford, publicándose en 1932. Contiene también su conocido sistema de la implicación estricta. Un decidido avance para los Lógicas Modales fue el dado por los trabajos de un entonces todavía adolescente: nos referimos a Saúl Aaron Kripke (1940-). Sus modelos y sistemas, llamados de Kripke, son muy familiares para quienes trabajan en Lógica Modal. Estos sistemas han ido extendiéndose y volviéndose cada vez más cmplejos (complejificándose), de acuerdo con las necesidades, para llegar así desde el más sencillo, que es el K (así denotado en su honor), o el S1, con el S2, el S3, y el S4, hasta el S5.

Saúl Aaron Kripke, otro de nuestros grandes lógicos.

Se llama Modelo de Kripke a toda terna, W, R, h, donde W es un conjunto de mundos posibles; R es un subconjunto del producto cartesiano de W por sí mismo, o sea, que R  W x W, denominándose la relación de accesibilidad entre mundos. Si nos restringiéramos al par W, R, estaríamos hablando de un Marco, o Frame, de Kripke. En cuanto a la aplicación h antes mencionada, esta se define como:

H: W x P → T, F — 79 —

Ángel Garrido

Tal h es una función de asignación veritativo-funcional, para cada mundo posible. Observemos que las proposiciones de P pueden verificarse en un mundo (como el mundo actual, que es sólo uno de los posibles), y no en los otros. Pues en un Modelo de Kripke las afirmaciones o sentencias (`statements´) van a ser ciertas o no lo serán, dependiendo (o relativas a) de qué mundo estemos considerando. La semántica proposicional vendría dada de esta forma:

hW (  ) = V syss hw () = V & hw() = V

y análogamente para la unión, complementario, etc. La semántica modal vendría dada por:

hW () = V syss  W´: W R W´, se tiene que hw´() = V

hW () = V syss  W´: W R W´, con hw´() = V

De una afirmación, , se dirá que es una tautología modal syss W, R, con h tal que:

hw () = V, w  W

Y se dirá que  es una consecuencia modal de  syss  W, R, h, si hw () = V, entonces:

hw () = V, wW

Hablemos algo más sobre las nociones de `mundo´, `mundo real´ y `mundo posible´, introducidas por Saúl Aaron Kripke, en su trabajo “Nombrar y Necesidad”, de 1963. Es una semántica ampliamente aceptada la que se obtiene introduciéndolos. Se traducirá como:  A  A es verdad en todos los mundos posibles

— 80 —

Los avances de la Inteligencia Artificial

A  A es verdad en el mundo real (uno de los posibles)  A  A es verdad en alguno (o algunos) de los mundos posibles

Un mundo posible será una descripción consistente y completa de cómo las cosas podrían ser en la realidad. En cada uno de tales mundos posibles se va a describir una serie de situaciones que en conjunto, puede que sean o no sean verdad. El mundo real no es ni más ni menos que uno de los mundos posibles, justo aquel en el que vivimos. Es el mejor de los posibles, según Leibniz. Conteniendo, pues una descripción completa y consistente de cómo las cosas son. Se dice de un enunciado que es necesario, si es verdadero en todos los mundos posibles. Se dice que el enunciado es verdadero, si resulta cierto en el mundo real, uno de los posibles. Y se dirá de un enunciado que es posible cuando es verdadero en uno de los mundos posibles, pudiendo no serlo en el resto; entre ellos, en el mundo real. Estas Lógicas Modales dan lugar a nuevas variaciones, en función del sentido que le vayamos dando a las modalidades: según estas sean interpretadas como `obligatorio´, `permitido´, o `prohibido´, `hasta ahora´, o `a partir de ahora´, etc., dando lugar a la Lógica Deóntica, muy útil y estudiada por investigadores vinculados al campo de lo jurídico (tal sería el caso de un Miguel Sánchez-Mazas, o de Lorenzo Peña, en España, o del mismo Jan Wolenski, el reconocido profesor de Cracovia); también a la Lógica Temporal, junto con otras más o menos afines. Si los mundos posibles son aplicados a la lógica temporal, en la que interviene el tiempo, con la distinción entre pasado y futuro, siempre en el futuro o algunas veces, siempre en el pasado o algunas veces. Se introduce el `ahora´ como punto temporal. Estos sistemas pueden contener referencias a otros puntos temporales, por medio de sus operadores modales. Así, Fp: p es verdadero en algún punto del futuro Gp: p es verdadero en todos los puntos del futuro Pp: p es verdadero en algún punto del pasado Hp: p es verdadero en todos los puntos del pasado. Aún otras se podrían mencionar, como es el caso de las Lógicas No-Monótonas, en las cuales una ampliación en la Base del Conocimiento (e. e., de las hipótesis) puede dar

— 81 —

Ángel Garrido

lugar a un cambio en las conclusiones, o a que en las anteriormente defendidas como casi verdades eternas, ahora quede en evidencia su (al menos, provisional) falsedad manifiesta. Es el caso que se observa con frecuencia en el campo de la Medicina, donde pronósticos y tratamientos de hoy son considerados como disparates y totalmente contraindicados al poco tiempo, a veces ni han transcurrido años, según va sabiéndose más. Y un caso claro del empleo de la Lógica Monótona es el de la Matemática Clásica. Y la lógica llamada estándar, o clásica, es también monótona, es decir, que una vez que hayamos probado en ella que algo es cierto, ya lo será para siempre. Lo cual no se ajusta demasiado bien a la realidad, donde las conclusiones son cambiantes, en función de la aportación de nuevos conocimientos a la base de estos. Dada una colección de hechos (o `facts´, por lo que se puede denotar mediante el símbolo F), que `entails´ (vincula, implica, o `lleva consigo´) alguna sentencia, digamos la `s´, que es una conclusión lógica de F, para toda nueva colección de hechos, F´, tal que: F  F´

Se tiene entonces que F´ también implica (`entails´) a s, lo que dicho con otras palabras, sería que s es también una conclusión lógica de todo superconjunto de F. Así que en sistemas no-monótonos, la circunstancia de añadir nuevos hechos puede ser que reduzca el conjunto de las conclusiones lógicas. Por lo que cabría que siendo s una conclusión lógica de F, no lo fuera necesariamente para:

F  nuevos hechos

No perdamos de vista que el uso de razonamientos no-monótonos por los seres humanos es constante. La clave del asunto está en que al añadir nueva información, la respuesta puede ir cambiando. Pues tanto los hechos como las reglas pueden ser modificados en cada momento de nuestra existencia. Por ello se dice que son `dinámicos´. Como muestra, el conocido lenguaje de programación PROLOG (PROgrammation LOGique) utiliza lógica no-monótona. Porque la Lógica Autoepistémica, tal y como veremos, reúne diversos planteamientos de las lógicas no-monótonas, con notables aplicaciones en programación lógica. Una de las principales características que se asocian con los Sistemas Inteligentes es la de su adaptabilidad. En el sentido de poseer un alto grado o capacidad de adaptación a un entorno cambiante. Pero tal adaptación requiere del sistema que este sea capaz de

— 82 —

Los avances de la Inteligencia Artificial

añadir y retirar creencias (Beliefs), según vaya apareciendo nueva información. Para lo cual se va a requerir del recurso al Razonamiento No-Monótono. Otra característica reseñable de estos Sistemas Inteligentes sería la habilidad para razonar bajo condiciones de incertidumbre, o sea, de manejar razonamiento cuando sólo se dispone de un conjunto incompleto de hechos. Un gran número de sistemas formales se han venido desarrollando para manejar esta `Default Logic´. Las Lógicas No-Monótonas formalizan no consistentes (pero sí, en cambio, razonables) patrones de razonamiento, cuando en estos sólo se dispone de información incierta, de diverso grado de incertidumbre incluso, una información que bien podría ser incompleta e inconsistente. Así, en la: -

Default Logic, o Lógica por Defecto, con nueva Regla de inferencia. Introducida por Reiter, en 1980. Abducción (el `abductive reasoning´), con nueva interpretación de lo que debe ser la implicación. Los Mecanismos de Circunscripción, que propuso y desarrolló primero John McCarthy, en 1986. Las Redes de Herencia, de Touretzky (1986). Lógica Modal No-Monótona, de Mc Dermott y Doyle (1980). La Lógica Autoepistémica, de R. C. Moore (1985). La negación por defecto de PROLOG, introducida por Clark (1978).

Recordemos la forma de los llamados `Razonamientos Autoepistémicos´. Serían del tipo mostrado en este ejemplo: -

Si fuera verdad, yo lo sabría. No lo sé. Luego es falso.

Lo cual parte de una hipótesis falsa: y es que quien la plantea lo conoce todo, siendo una especie de oráculo infalible, lo que se corresponde con muy conocidos personajes con corona, birrete, mitra, bastón de mando, etc., o sea, quienes creen que por su cargo o condición están en posesión absoluta de la verdad, no admitiendo que los demás osen dudar siquiera de ello. Cuando hablamos de Lógica Autoepistémica, nos estamos refiriendo a una lógica formal que es útil para la representación y el razonamiento del conocimiento sobre sí mismo, sobre el propio conocimiento. Así como la Lógica Proposicional sólo podía expresar hechos (facts), la Lógica Autoepistémica permite expresar tanto el conocimiento como la falta de él, acerca del conjunto de hechos. Su sintaxis parte de aquella que tenía la Lógica Proposicional, añadiéndole el operador modal , que aquí representa “conocimiento”; es decir, que:

— 83 —

Ángel Garrido

 A  A es conocido   A   A es conocido    A  A es desconocido

Obviamente, ese desconocimiento admitiría la cuestión de los grados, entrando con ello en el terreno de lo “fuzzy”. Su negación como fallo (o `failure´) puede ser expresada como:

A→A

Lo cual viene a decir que A se considera falsa, si no sabemos que sea verdadera. Y eso conecta con lo antes comentado del Razonamiento Autoepistémico. Comentemos a continuación, y brevemente, algunas de las lógicas que se infieren de todo este complejo entramado:

-

La Lógica Modal será útil para el modelado del razonamiento acerca del conocimiento, de acciones, tiempo u obligaciones.

-

La Lógica Epistémica, que aplica las técnicas de la Lógica Modal a lo que es el aquel razonamiento también relacionado con el conocimiento. Se trata de un campo de gran importancia para los protocolos de la comunicación y de la cooperación. La Lógica Deóntica (o del `deber´, de lo permitido y de lo prohibido) vendrá a formalizar las llamadas `modalidades normativas´, muy relacionadas con los campos del Derecho. Puede, por tanto, aplicarse a la representación de conocimiento normativo; es decir, jurídico, legal, forense, etc. Dentro de ésta área han investigado notables pensadores, como los españoles Miguel Sánchez-Mazas o Lorenzo Peña; también el profesor polaco Jan Wolenski, entre otros muchos, como Roman Murawski o Grzergorz Malinowski. No olvidemos que los orígenes de la Lógica Deóntica se remontarían hasta el propio Leibniz.

-

Como vemos, la lógica se ha venido ampliando, en los últimos tiempos, para mejor adaptarse a las circunstancias y nuevos desafíos (de la Inteligencia Artificial, principalmente), tomando para ello en cuenta formas de razonamiento hasta ahora desatendidas. Entre las cuales señalaríamos la del `Razonamiento de Sentido Común´. Se

— 84 —

Los avances de la Inteligencia Artificial

trata de inferencias que en mayor o menor grado van a depender del contexto, lo cual no deja de ser un desafío para llevar a cabo nuestros análisis lógicos. Y una forma de reflejar dicha dependencia contextual va a ser mediante los razonamientos `por defecto´, esto es, aquellos en los que se obtienen conclusiones provisionales, a la espera de poder ir completando la base de información, como conjunto dinámico, que no estático. Dentro de los sistemas tetravaluados, debemos mencionar el debido a Dunn y Belnap, surgido del estudio de las Lógicas de la Relevancia (Relevance Logic). Su interés es muy notable dentro de las aplicaciones computacionales. Estaría basado en cuatro valores veritativos: -

el de ninguna información sobre el estado de la cuestión (state of affairs);

-

el de información acerca de que el estado de la cuestión falla;

-

el de información de lo que el estado de la cuestión obtiene;

-

y finalmente, el de información conflictiva, esto es, de aquello que obtiene y aquello en lo que falla.

Con notación matemática, tendríamos la posibilidad de expresarlos mediante el conjunto de los valores de verdad. A veces, el primero de esos elementos se viene representando como `f´, por `false´, y el último, como `t´, por `true´.

Luego tendríamos también las lógicas basadas en las t-normas, también llamadas Normas Triangulares. De ellas las fundamentales son las de Lukasiewicz, la de Gödel y la Lógica Producto. Su interés queda más que justificado al conocer un Teorema Fundamental de Representación, según el cual toda t-norma arquimediana siempre se puede escribir como una suma ordinal de las tres mencionadas. Tengamos también presente que toda t-norma determina la función de verdad de una conjunción, y que su residuo lo que determina es la función veritativa de una implicación. Podemos hablar de la Basic Logic (BL, en acrónimo), de Petr Hájek. Su lenguaje puede ser dotado de una negación lógica. De modo que una t-norma siempre va a permitir que definamos la semántica de una lógica difusa. En el caso de los tres principales sistemas axiomáticos antes mencionados (el de Lukasiewicz, el de Gödel y el del Producto), basta considerar lo que para cada una de ellas significa la operación *, así como su residuo (en forma de aplicación, ). Volviendo sobre las lógicas no-monótonas, hemos de tener en cuenta que uno de los fundamentos de la Lógica Clásica era precisamente su carácter de monotonía, como

— 85 —

Ángel Garrido

el de la Matemática Clásica, apoyada en ella. Se tenía que si de un conjunto, S, de sentencias, se podía inferir la sentencia C (denotada así por conclusión), al añadirle a S otro conjunto de sentencias, S´ (lo que hemos llamado antes de `nuevos hechos´), se ha de poder seguir infiriendo C a partir de la unión de ambos conjuntos de sentencias, S  S´. Todo lo cual supone un fuerte inconveniente a la hora de poder abordar bien con este formalismo muchos de los problemas que van apareciendo en Inteligencia Artificial, dado su carácter no-monótono. Un claro ejemplo sería el del Razonamiento de Sentido Común, tan frecuente en los humanos (aunque el sentido común sea el menos común de los sentidos, según Descartes). Se caracteriza porque llega al establecimiento de conclusiones a partir de información parcial, la cual debe sucesivamente ser sometida a revisión y cambio, cada vez que obtenemos evidencia del dominio, consistente en nueva información. Un ejemplo, que no deja de ser ilustrativo por muy repetido que este sea, es que si alguien nos habla de un pájaro, puede que enseguida pensemos en que este vuela. Pero no tiene porqué ser así: cabe que sea un ave (concepto más general) y que se trate concretamente de un pingüino. Entonces, acabamos de darnos cuenta de que se trata de una excepción, y que por su peso y teniendo las alas prácticamente atrofiadas, no va a poder llegar siquiera a levantar el vuelo.

— 86 —

Capítulo 14.

SOBRE LA RELACIÓN ENTRE GÖDEL Y LEIBNIZ Para completar el estudio sobre las nuevas lógicas, será casi inevitable referirnos al que quizá sea uno de los más grandes; al menos, en los tiempos recientes. Nos referimos al moravo Kurt Gödel. Y concretamente, a su relación con el pensamiento leibniziano.

Kurt Gödel

Según sabemos, el interés de Gödel por la obra de Leibniz y por lo que pudiera suceder con ella (en su mayoría, aún no publicada), en aquellos tiempos, que ya empezaban a ser turbulentos (estamos hablando, en concreto, de la tercera década del siglo XX). Sobre esta cuestión, nos comenta el también lógico Hao Wang que en su día Karl Menger le preguntó a Gödel por quiénes tendrían interés en destruir los escritos de Leibniz, a lo que este le respondió que todos aquellos que quisieran impedir que la gente

— 87 —

Ángel Garrido

sea más inteligente.37 Pero cuando realmente comenzó Gödel a estudiar de modo sistemático la obra leibniziana sería en la década siguiente (la de los 1940´s).

Kurt con su hermano mayor, Rudolph.

En un cuestionario que le fue pasado a Gödel por Burke Grandjean, donde le preguntaba por cuáles serían sus principales influencias intelectuales, escribió que “the greatest philosophical influx on me came from Leibniz, which I studied (about) 19431946.”38 Pero esta respuesta la guardaría para sí, y no llegó a enviarla. Se ha encontrado luego en sus Archivos (o Nachlass).

Caricatura del gran pensador.

37

H. Wang, Beyond Analytic Philosophy: Doing Justice to what we know. Es de 1987, publicado en MIT Press, Cambridge, Massachusetts. No olvidemos que Hao Wang coincidiría con Gödel en el IAS de Princeton, manteniendo interesantes conversaciones con Kurt Gödel, entre 1967 y 1972, las cuales luego publicaría. 38 K. Gödel, CW, IV, pp. 449-450.

— 88 —

Los avances de la Inteligencia Artificial

Y cuál sería la razón última de ese interés (tan intenso y tan prolongado en el tiempo) por la obra leibniziana? Pues parece ser que Gödel trataba por aquel entonces de ir construyendo un nuevo sistema filosófico propio, que estuviera basado en la monadología de Leibniz. Para lo cual, como en la obra de su tan admirado maestro, se fueran interconectando cuestiones lógico-matemáticas con otras de Física y de teología natural.

Foto de la boda de Kurt con Adele (1938)

No olvidemos que el lógico Hao Wang coincidiría en el IAS de Princeton con Kurt Gödel, con el cual mantuvo interesantes conversaciones, entre 1967 y 1972, las cuales luego publicaría, ya en 199639. Recurriendo a las propias palabras de Kurt Gödel, este confesaba a Wang: “my theory is a monadology with a cental mona [namely God]. It is like the monads of Leibniz in its general structure”. También decía: “My philosophy is rationalistic, idealistic, optimistic, and theological”.

39

Se trata de A Logical Journey: From Gödel to Philosophy. Cambridge, Massachusetts: MIT Press, 1996. Pero también disponemos de una obra anterior suya, de indudable interés: Reflections on Kurt Gödel. Cambridge, Massachusetts: MIT Press, 1987.

— 89 —

Ángel Garrido

Lápida que hay sobre la tumba de Kurt y su esposa, Adele, en el cementerio de Princeton (New Jersey).

No olvidemos tampoco que Gödel definía la Lógica Matemática como una (y la más principal) de la ciencias matemáticas, ocupándose de objetos específicos, tales como las relaciones, las clases, las operaciones o combinaciones de símbolos (de ahí lo de `Simbólica´). De ahí su prevalencia y prioridad sobre los otros saberes científicos, ya que contiene las ideas y principios de todas las otras ciencias.

El entusiástico recibimiento de los nazis en Austria (entusiasmo no compartido en absoluto por Gödel)

Con todo ello, hemos pasado sobre las peripecias vitales de Gödel. Había nacido en Brünn (Brno), que entonces pertenecía al Imperio Austro-Húngaro. Tras la derrota en la Primera Guerra Mundial, el Imperio fue desmembrado en diferentes nacionalidades. A Kurt le tocó ahora ser checo, pero no se sentía tal cosa. De hecho, él pertenecía a la numerosa comunidad germanófona de la región de los Sudetes, aquella región que luego se anexionaría Hitler. Pero tampoco se vería como ciudadano alemán, cuando se produjo el Anchlüss de los territorios austriacos. Así que cuando pudo, tras la subida al poder de

— 90 —

Los avances de la Inteligencia Artificial

Hitler (en 1933), tuvieron que cruzar Europa con el Transiberiano, hasta llegar al Japón, y desde allí Kurt buscó que le acogieran en el IAS (Institut for Advanced Studies), de Princeton, donde ya le había precedido Albert Einstein, con el que llegó a tener gran amistad, así como con el lógico de origen chino, Hao Wang, que nos dejó constancia de sus numerosas conversaciones. Su esposa, de nombre inicial Adele Nimbursky Porket (luego Adele Gödel), seis años mayor que él, estaba divorciada de un tal Ny Simbursky, habiendo sido recepcionista y bailarina. La familia de Gödel no la veía por esto con muy `buenos ojos´.

David Hilbert

Otro detalle importante de su periodo de formación estuvo en el fuerte influjo que sobre él ejerciera David Hilbert, un geómetra y lógico del máximo prestigio. El sería quien detectase el brillante talento que subyacía en el tímido Gödel.

Hans Hahn

— 91 —

Ángel Garrido

No obstante, quien le dirigiría la Tesis sería otro matemático, Hans Hahn, quien le introdujo en el grupo de pensadores conocido como el Círculo de Viena, que comandaba el físico Moritz Schlick. A este le mataría un antiguo alumno, que luego `haría carrera´ en el ascensor social que representaba el nacional-socialismo. La muerte de Hahn y el asesinato de Schlick hundiría a Gödel en una de sus frecuentes y profundas crisis. Uno de los aspectos que más suelen señalar (algunos con cierta sorna) quienes escuchan su nombre (si es que acaso lo conocen) sería el de sus problemas (reales o imaginarios, quizá de ambos en parte) de salud. Y estos parece ser que le provendrían de unas fiebres reumáticas que padeció al menos durante su infancia, y que le convirtieron en alguien muy sensible y temeroso de padecer enfermedades: se `escuchaba´ demasiado y temía continuamente caer enfermo, incluso contemplaba la posibilidad de ser envenenado. Por eso se negaba a ingerir ningún alimento que no hubiera sido preparado por su esposa, Adele. Esto acabaría dañándole aún más, progresivamente, la salud; sobre todo, cuando tuvo que ser Adele ingresada en un hospital, sin la posibilidad de acceder más a la comida que para él era la única `de confianza´. Así que cabe concluir que Gödel murió de consunción, o de inanición (se dejó `morir de hambre´, podríamos decir), ya que tanto peso perdió que llegó, poco antes de fallecer, a los veintinueve kilos. Su esposa le sobrevivió tres años. Acabaron con él, pues, sus obsesiones, sus miedos, y así perdimos a uno de los más grandes talentos que hayamos tenido desde Aristóteles. Pero no cabe desdeñarlo como un simple `loco´, cual hacen tantos mediocres que con envidia le contemplan. Sus depresiones y sus estados de ánimo, tan variables, pueden hacernos pensar en un demente, pero de ser así, ¡cuántos más debiéramos tener en cada siglo!

Einstein y Gödel, dos grandes amigos. Durante su estancia en Princeton.

La `Gödel logic´ es una de las llamadas lógicas de primer orden (FOLs, firstorder logics), y se trata de un miembro importante de la familia de las lógicas finitas o — 92 —

Los avances de la Inteligencia Artificial

infinito-valuadas, junto con la Lógica de Jan Lukasiewicz, más conocida que ella. Estamos hablando de las MVL, o lógicas multivaluadas (many-valued logics). En ambas, el conjunto de valores de verdad, V, es un subconjunto cerrado del intervalo unidad, [0, 1], pero que deberá contener al 0 y al 1 (este sería el `designated value´: una fórmula será válida cuando se le asigna dicho valor). Se suele designar como Gv al conjunto de fórmulas que pueden ser evaluadas mediante el 1 en cada interpretación de V. De ahí que GV sea axiomatizable si y sólo si V es un conjunto finito, o bien no numerable, con el 0 aislado en V, o bien todo entorno del 0 en V sea no numerable. Las funciones de verdad (truth values) de la conjunción y la disyunción (como operaciones lógicas) serán el máximo (máx) y el mínimo (mín), respectivamente, y los cuantificadores se introducen por medio del ínfimo y del supremo, sobre subconjuntos del conjunto de valores de verdad. El condicional de Gödel sería: a → b = 1, si a  b & a → b = b, si a  b. Y puesto que los elementos del conjunto de valores de verdad, GV, están ordenados, incluso densamente ordenados, se deduce que la semántica de estas lógicas será adecuada para formalizar conceptos.

El modelo de universo de Gödel

Otra de las pasiones intelectuales de Kurt Gödel sería la Física. De hecho, cuando acudió a estudiar a la Universidad, esta fue la primera disciplina elegida, aunque luego se sintiera fascinado por las Matemáticas y su discreto encanto; principalmente, al escuchar las clases de aquel gigante que fuera David Hilbert.

— 93 —

Ángel Garrido

Luego, en el IAS (Institute for Advanced Salaries, como maliciosamente le llamaban algunos) tuvo ocasión de intercambiar ideas con su buen amigo Albert Einstein, el cual decía que su actividad más sobresaliente había sido conversar con Gödel. Dicho modelo cosmológico, el llamado “modelo de Gödel”, es una solución exacta de las ecuaciones de campo de Einstein de la Relatividad General. La propuso en 1949. Tiempo después lo generalizaría para dar cabida a la expansión del universo. Se encuentra dicho modelo, o solución exacta, lleno de materia polverulenta, con presencia de la constante cosmológica y sin presión (p = 0), dotado de movimiento rotatorio, en una especie de vórtice. Una característica peculiar e interesante (desde el punto de vista teórico) es que alrededor de cada punto hay curvas temporales cerradas. Según esta propiedad, un espectador podría viajar hacia el futuro, y regresar luego, pero ya desde el pasado, cerrando el ciclo o bucle sobre el que se mueve. Dicha propiedad causal puede parecer poco realista, y hacer creer que es una idea imaginativa, pero imposible. A pesar de ello, el modelo de Gödel es una buena herramienta pedagógica en el estudio de la Cosmología.

— 94 —

PARTE III

NUEVAS EXPLORACIONES, YA EN NUESTRO VIEJO SUELO

Capítulo 15.

UN `ESTUDIO DE CASO´: ACERCA DE LA RECEPCIÓN DE LAS LÓGICAS MULTIVALUADAS Y DE LA INTELIGENCIA ARTIFICIAL EN LA PENÍNSULA IBÉRICA.

Se puede mencionar a Ramón Llull (Raimundo Lulio, 1233-1315), y su famoso libro, el Ars Magna. En ella plantea un nuevo arte de razonamiento40, el que denomina ars combinatoria. Fue un incansable misionero balear, miembro de la Orden Tercera Franciscana, que durante su vida intentó evangelizar el Norte de África y allí murió, al regresar de Túnez, en 1315. Precisamente, para ese fin evangelizador diseñó el método a aplicar para rebatir a los infieles, e incluso la máquina que pudiera llevarlo a cabo.

Raimundo Lulio

40

En esa nueva manera de razonar que propone Lulio, clasifica el mundo según géneros, especies, cualidades, etc., a partir de los cuales se producirían los argumentos mediante combinación, y la máquina decidiría sobre su validez o no. De aquí que sea un precursor claro de Leibniz y de la Inteligencia Artificial moderna.

— 96 —

Los avances de la Inteligencia Artificial

Poeta, místico, excelente narrador (véase, si no, su obra novelada Blanquerna, lectura aún muy recomendable), notable filósofo, etc., su propósito era conseguir refutar los errores doctrinales de los musulmanes (particularmente, de los averroístas), así como de los judíos. Al poco de morir se abrió el proceso para su beatificación, pero luego este se detuvo, ya que se detectaron en sus obras supuestos visos de `desviaciones de la Doctrina´. Por tanto, aún no es “Beato” oficialmente, aunque se haya reabierto el proceso. Las gentes le consideran, no obstante, ya Beato, e incluso Santo. Era conocido por Doctor Inspiratus, o Doctor Illuminatus, siendo una de las mayores cimas literarias universales. Escribió en árabe y en catalán sus 280 obras. Entre sus libros tenemos el Ars Magna (Gran Arte), o Ars Generalis Ultima; él lo pensaba como el mejor libro del mundo, el más útil; y por él puede considerarse como un lejano precursor de la computación y de la Inteligencia Artificial. Porque diseña y construye una máquina lógica teórica, para con ella intentar probar la verdad o falsedad de las afirmaciones o de los postulados. Se trataría de organizar previamente las teorías, las proposiciones, etc., mediante figuras geométricas de las llamadas “perfectas”, como son los círculos, los cuadrados o los triángulos. Al hacer operar el mecanismo, digamos al darle a la manivela, este acabaría deteniéndose delante de la certeza (o postura positiva) o del error (postura negativa). Con ella se trataba, pues, de calibrar las verdades y falsedades tanto de la filosofía como de la teología. La dificultad que apareció fue la de si algo que fuera cierto en filosofía podría no serlo en teología o viceversa, es decir, el problema de la “doble verdad”. Lo cual le parecía imposible de admitir, porque filosofía y teología, para él, serían la misma cosa. Lulio es hoy en España: El “santo patrono”41 de los ingenieros informáticos.

41

Sin ser reconocido todavía como Santo (o ser canonizado) por la Iglesia Católica, a pesar de la veneración popular, por algunas vetas supuestamente heréticas en sus doctrinas.

— 97 —

Ángel Garrido Juan de Caramuel

También debería citarse a Juan de Caramuel y Lobkowitz (1606-1682), conocido como el “Leibniz español”, por la diversidad y vastedad de sus saberes. Fue monje cisterciense, y escribió numerosas obras de distintas materias y de gran nivel: tantos eran sus conocimientos e intereses (se le atribuyen 262 obras). Lógico, matemático, filósofo, lingüista, interesado por la criptografía… Se suele decir, y con razón, que en Teología fue “molinista” (tesis voluntarista, común en los jesuitas, aunque él no lo era), y en Moral, probabilista. Mantuvo una importante correspondencia con algunos de los más notables pensadores de su tiempo, como Pierre Gassendi o René Descartes, Johannes Hevelius, o Juan Eusebio Nierenberg, etc., lo que le da aún más parecido con la indudable pasión epistolar que observamos en Leibniz. A Juan Caramuel le debemos la primera descripción (al menos, la primera en haber sido impresa) del sistema binario, en su Mathesis Biceps (1648); son ideas que luego tomará Leibniz, y que estarán luego en la base de la informática y de las ciencias de la computación modernas. El muy reconocido Donald E. Knuth lo sostiene así en su obra The Art of Computer Programing42, afirmando que esa anticipación sería de unos 30 años, y que luego Leibniz se limitó a divulgarlo. Fue también Caramuel el primer español en publicar una Tabla de Logaritmos; una herramienta, entonces, tan útil como necesaria. También le obsesionaba la creación de una `lengua universal´, como a su amigo Athanasius Kirchner, por lo que ambos fueron precursores del esperanto. Fue, por tanto, un hombre fuera de serie, merecedor de nuestro recuerdo. Un gran vindicador de su memoria sería el profesor Juan Velarde, de la Universidad de Oviedo, que escribió una extensa obra sobre este personaje, libro que figura en nuestra Bibliografía.

Norbert Wiener, recibiendo explicaciones sobre El Ajedrecista, Dadas por el propio hijo de don Leonardo, Gonzalo.

42

D. Knuth, The Art of Programming, 2011, vol. 1, p. 264.

— 98 —

Los avances de la Inteligencia Artificial

De notable precursor –tanto de la Automática como de la Inteligencia Artificial-, tenemos al matemático e ingeniero español Leonardo Torres Quevedo (1852-1936). Construyó, entre otros muchos inventos, una máquina para jugar al ajedrez, un autómata creado en 1912; la primera en la historia sin fraude, porque le habían precedido otras con `trampa´, o `jugador oculto´, como la llamada El Turco, o la Ajeeb. Se puede ver al hijo de don Leonardo, sobre antiguas fotos, en la compañía de Norbert Wiener, explicándole el mecanismo del ingenio de su padre. Ya había presentado este a congresos, como el de Burdeos, y a diversas instituciones científicas, a finales del siglo XIX, sus escritos sobre máquinas algebraicas.

D. Leonardo Torres Quevedo

De 1914 son sus Ensayos sobre automática. Entonces, ya definió lo que es un autómata y en qué consiste la Inteligencia Artificial, anticipándose en cuarenta años al tan nombrado como conocido matemático inglés Alan Turing, a quien se suele asociar con los equipos secretos de decodificadores de Bletchley Park y la máquina Enigma. Dos años más tarde se inauguraría el transbordador sobre el Niágara, ideado por él (es el llamado `Spanish Aerocar´). Aún sigue prestando servicio sobre las famosas cataratas. En 1924 creaba don Leonardo su segundo autómata ajedrecista, siendo elegido entonces también elegido Presidente de la Sociedad Matemática Española. Apoyó decididamente el esperanto. Fueron muy conocidos sus funiculares y teleféricos, así como sus dirigibles, de estructura no-rígida, conseguida mediante cables, y por ello, más estables que los anteriores; comercializados por la compañía francesa Société Astra. Torres-Quevedo fue pionero, junto con Nikola Tesla (pero independientemente de él), del “mando a distancia”, con su invención del “telekino”; esto es, un sistema de control remoto por medio de ondas hertzianas. Desarrollando su conocido autómata “El Ajedrecista”, y por sus diversos escritos e invenciones, se le puede considerar un notable precursor de los ordenadores, así (como hemos dicho) de la Inteligencia Artificial.

— 99 —

Ángel Garrido

El `Hombre de Palo´, de Juanelo Turriano.

Como curioso antecesor de los autómatas ibéricos, tenemos un caso que es ya semilegendario, como el del toledano “hombre de palo”, construido de madera, tal y como su nombre indica. Fue un autómata antropomórfico, y digo fue, porque el “hombre de palo” sería quemado por alguien, aún en vida de su autor. Construido por el ingeniero Juanelo Turriano (nombre españolizado del hispano-milanés Giovanni Turriani, nacido en Cremona en 1501 y muerto en Toledo en 1585), quien era considerado “el otro Da Vinci”, por su creatividad, por su pasión por las máquinas y los mecanismos. Lo cual le podría emparentar también con otros pensadores, como nuestro Leibniz, o con los más contemporáneos: John Von Neumann, Norbert Wiener o Alan Turing, etc. También inventó Juanelo grúas, primitivas ametralladoras e ingenios voladores, al estilo de los que proyectara también Leonardo Da Vinci.

Juanelo Turriano. Obra de E. Merle

— 100 —

Los avances de la Inteligencia Artificial

Según se decía, dicho autómata realizaba todos los movimientos necesarios para pedir limosna y mostrar agradecimiento siempre que la obtenía. Dicen que anduvo por las calles de la Toledo de su época. Eran los tiempos de Carlos I de España y V de Alemania (del que fue Relojero Real), así como la de su hijo, Felipe II (de quien fuera Matemático Mayor). El Emperador Carlos fue quien le hizo venir (al mencionado inventor) como gran experto en relojes, ya que estos le fascinaban. Ingeniero y matemático, Juanelo se dedicó a cultivar también otras artes, como la “horología” (medida del tiempo, mediante clepsidras, diversos mecanismos, etc.), o dedicando su tiempo a su más famosa creación: el llamado “artificio de Juanelo”, para subir agua desde el rio Tajo hasta el Alcázar de la capital toledana, salvando un enorme desnivel, de más de cien metros, con una pendiente del 33%, obra muy admirada y nunca pagada, pero frecuentemente comentada por los autores de la época (el Siglo de Oro español):

Artificio de Juanelo

Lo de nunca pagada tal vez merezca un jugoso comentario: le llevó unos veinte años lo de pensar el diseño del ingenio, con unos tres y medio para su realización43, tras el encargo por parte de las autoridades municipales. Fue todo un éxito, y llevaba el agua desde el río Tajo hasta el Alcázar de Toledo, de modo muy eficiente, pero sucedía que dicho Alcázar era propiedad exclusivamente real y los toledanos no quisieron por ello pagar la obra, dado que el Rey no les permitía el acceso al agua. Así que debió hacer un segundo intento para la subida del líquido elemento, pero ahora a costa de las arcas municipales. Esta vez se dice que sí que le pagaron, quedando de su propiedad, pero haciéndose responsable de su mantenimiento. Aunque este encargo resultaba tan costoso que terminó por no poder afrontar los gastos y debió cederle el control a la ciudad. Juanelo pasó los últimos años de su vida en la pura miseria, razón por la que se dice que ideó “el hombre de palo”, para que fuera en su nombre a buscar una hogaza de pan al palacio episcopal, o pidiese por él en la puerta de la Catedral (hay distintas versiones). Algunos dicen que el autómata de madera se apostaba en la calle de las Asadurías, que hoy lleva el nombre del propio ingenio mecánico. En la Edad Media era esa calle donde

43

Según nos relataba el cronista del monarca Felipe II, Cristóbal de Morales.

— 101 —

Ángel Garrido

se encontraba el “Alcaná”, o Judería Menor, con muchos pequeños comercios, siendo cercana a la antigua Sinagoga y a la Plaza del Zocodover.

J. D. García Bacca.

Uno de los primeros estudiosos hispanos dejando constancia de las nuevas corrientes fue Juan David García Bacca (1901-1992), quien en 1936 publicaría su Introducción a la lógica moderna, una obra bien recibida y muy elogiada por I. M. Bochenski y Heinrich Schölz. Después tenemos algunos estudiosos e investigadores eminentes, como Alfredo Deaño (1944-1978; como introductor y editor de los Estudios de Lógica y Filosofía, selección de los de Jan Lukasiewicz), Miguel Sánchez-Mazas (1925-1995; con su exhaustiva reinterpretación de las ideas lógico-matemática de Leibniz), o Manuel Sacristán (1925-1985; perseguido por la `academia´ debido a sus puntos de vista marxistas. Muchos de ellos muy a menudo acabaron chocando contra un contexto muy conservador y nada proclive a las ideas innovadoras. La aplicación, la extensión y el estudio de la lógica matemática (y más concretamente, de las lógicas no-clásicas) tuvieron dificultades considerables en la Península Ibérica. Sin embargo, algunos de los mejores esfuerzos en lógica vinieron de algunos estudios iniciales sobre la base de temas de fundamentos de la matemática.

Miguel Sánchez-Mazas

— 102 —

Capítulo 16.

LA SITUACIÓN EN PORTUGAL, ASÍ COMO OTRAS DIGRESIONES.

En Portugal, los orígenes del estudio de la lógica y la Inteligencia Artificial están vinculados a los nombres de Luis Moniz Pereira, Helder Coelho y Fernando Pereira, y el LNEC (Laboratorio Nacional de Ingeniería Civil), dentro del cual formaron una división de Ciencias de la Computación. En 1977, el lenguaje de programación conocido llamado DEC-10 Prolog (PROgramation en LOGique, por Alain Colmerauer y Philippe Roussel) fue diseñado, y Helder Coelho contribuyó a divulgarlo en el Brasil. En 1984 se creó la Asociación Portuguesa de AI (APPIA, por sus siglas inglesas). Actualmente, existen en Portugal cuatro áreas básicas de investigación sobre la IA, relacionadas respectivamente con: -

Aprendizaje (Learning). Representación del conocimiento (KR, por Knowledge Representation). Conocimiento en general Diversas Aplicaciones.

Mantiene su vitalidad dicha investigación lusa con unas buenas publicaciones, así como mediante la organización de congresos, algunos de ellos muy importantes. Por lo tanto, se trata de una especie de floración tardía, en relación con la Lógica Difusa en nuestra Península. Sin embargo, es muy difícil avanzar en las nuevas vías de las Matemáticas, lo que no es tan extraño si se tiene en cuenta los problemas relacionados con personas como Miguel Sánchez-Mazas, o Manuel Sacristán, en España; o también de la persecución de alguien, tan brillante también, como Antonio Monteiro, en el Portugal de Salazar.

— 103 —

Ángel Garrido

Pero esto no sucede, afortunadamente, en todo el mundo, porque como dijo Simon Kochen, de la Universidad de Princeton: Gödel stood logic on the map of mathematics. Today, all reputable mathematical department or of worth (so serious) is staffed with a representative in the field of logic. You may not have more than one or two logical, but surely there will be some.44

La posible causa de todos estos despropósitos seguramente sea la dicotomía, que es una confrontación llevada hasta absurdo por los necios, de lo que se suele denominar:

Humanidades contra Ciencias

No olvidemos la frase que dicen fuera de Gottlob Frege45, tan sabia por cierto, según la cual: Every good mathematician is at least half a philosopher, and a very good philosopher is at least half a mathematician.

Hay que recordar también las sabias palabras de Leibniz, según quien: La matemática es la lógica de la imaginación.46

A pesar de que le hemos dejado para el final, un nombre no debiera ser omitido, por su interés. Es uno de los que aparecen sólo de vez en cuando en España. Nos referimos al Padre Pablo Domínguez Prieto (1966-2009), filósofo y teólogo español, que escribió el primer libro importante en España sobre la Escuela de Lvov-Varsovia, basándose en su tesis doctoral. Esta publicación en forma de libro es el llamado Indeterminación y Verdad. La polivalencia lógica en la Escuela de Lvov-Varsovia, y fue publicado en una modesta imprenta de Móstoles, el año 1995. Pablo puede ser considerado como uno de los precursores españoles en el estudio de las Lógicas Multivaluadas, analizadas desde un punto de vista filosófico y, en particular, de la gran contribución de Polonia (con su LWS) a la lógica y a otros diversos campos matemáticos, como la Topología o el Análisis Funcional. Recordemos esto también, que: 44

R. Goldstein, 2005; p. 24. Atribuido a Frege en: A. Aspeitia, “Mathematics as grammar: `Grammar´ in Wittgenstein´s philosophy of mathematics during the Middle Period.” Indiana University, 2000, p. 25. Y en la entrada `Gottlob Frege´, The New Encyclopedia Britannica (1992), Vol. 4, p. 968. 46 Según Leibniz, en sus Nuevos Ensayos sobre el Entendimiento Humano (IV, XVII, § 7. pp. 586-587), donde afirma que la lógica corriente es, frente a la lógica sublime o matemática universal, lo que los rudimentos del abecedario son a la erudición. 45

— 104 —

Los avances de la Inteligencia Artificial Probably no other country, taking into account the size of its population, has contributed so greatly to the development of mathematical logic and foundations of mathematics as Poland.47

Y Heinrich Schölz (el buen amigo y protector de los Lukasiewicz) dijo, en 1931: Warsaw became the main center of logical studies.48

Otro muy interesante autor español que ha estado informando estas nuevas corrientes y avances de la lógica es el Profesor Julián Velarde, de la Universidad de Oviedo, con artículos como el de “Lógica polivalente”, o su libro Lógica Formal, que en su volumen II pertenece a su Historia de la Lógica. También de gran interés puede resultarnos su Gnoseología de los Sistemas Difusos, donde analiza las conexiones filosóficas, tan profundas, de todos estos problemas. Un testimonio de recuerdo deseamos quedar en memoria de nuestro muy admirado profesor Quintín Racionero, quien fuera el presidente de la Sociedad Española Leibniz. Y un breve comentario final, sólo para señalar la conveniencia de mostrar esos ejemplos del ingenio ibérico para la construcción de mecanismos, de máquinas y autómatas, en cuanto que son una aplicación directa de la lógica, además de haber sido estos algunos de los `leitmotivs´ (o motores) del pensamiento leibniziano, de sus `obsesiones´, siendo además herramientas útiles para mejorar el prestigio y ayudar a la conservación de esas tradiciones del pensamiento.

47 48

A. Fraenkel & Bar-Hillel, 1958; p. 200. U. Wybraniec-Skardowska, Polish Logic. Stanford 2009.

— 105 —

Capítulo 17.

NUEVAS CONSIDERACIONES. El origen de todo el complejo desarrollo descrito es el conocido como problema de los futuros contingentes. Bien es cierto que fue ya, aunque tangencialmente, abordado por Aristóteles, pero sin querer este ponerse en riesgo, sin proponer claramente un tercer valor de verdad. En la Edad Media, fue verdaderamente una especie de corriente subterránea, en la que subyacían cuestiones teológicas bastante vidriosas e intrincadas, con temas como el determinismo, o como la compatibilidad entre la presciencia divina y la libertad humana. Dando lugar a agrias polémicas entonces, como la famosa De Auxiliis, ya mencionada, entre fray Domingo Báñez (O. P.) y el Padre Luis de Molina (S. I.), proponiendo este una manera de resolverlo mediante la que él llamaba la “ciencia media”, que algunos mantienen que posiblemente tuviera origen en las ideas de su maestro en la Universidad de Coimbra; nos referimos al ´Aristóteles portugués´, el también jesuita Pedro da Fonseca. Este `middle knowledge´, o conocimiento medio (la `scientia media´), es el/la que trata de lo que ocurriría en tales y tales condiciones o circunstancias, es decir, de los futuros contingentes, lo que le conecta con todo lo que venimos estudiando. La obra de Luis de Molina, su famosa Concordia, sería publicada en Lisboa, el año 1588, a pesar de los esfuerzos de los dominicos para evitarl. Pero esto fue posible sólo gracias a que la Inquisición portuguesa no había procedido a condenarla, esto es, no estaba en contra de su contenido aún explícitamente, y no como hiciera la castellana. Todo esto tuvo un notable punto de inflexión en nuestro Leibniz con su Theodicée, que la expone con profundidad y lucidez. Luego esta línea de pensamiento derivará de él, a través de Bernardo Bolzano y de Francisco Brentano, hasta que se llegue al siglo XX, que durante el periodo conocido como del “interbellum” (de 1918 a 1939) asiste a la aparición de la impresionante Escuela de Lvov-Varsovia (también llamada Círculo de Varsovia), mereciendo especial mención dos de sus miembros, Jan Lukasiewicz y Alfred Tarski, que aportaron su solución a través de sus lógicas multivaluadas, y también por la “teoría semántica de la verdad”, respectivamente. A principios de la década de los 1940´s, el rumano Grigore Constantin Moisil inició el estudio algebraico de las lógicas multivaluadas de Lukasiewicz. — 106 —

Los avances de la Inteligencia Artificial

Emil León Post, de modo independiente de los trabajos de Jan Lukasiewicz, había investigado también el cálculo finito-valuado. Parece que no le movía en este caso ninguna motivación de tipo filosófico; por el contrario, estaba interesado más bien en el problema de la completitud funcional, de carácter, por tanto, más bien algebraico y formal. Arendt Heyting introdujo un cálculo proposicional trivaluado en relación con la Lógica Intuicionista de su maestro y mentor, L. E. J. Brouwer, que había sido por él completada. Sería Kurt Gödel quien estableciese una jerarquía infinita de sistemas finitovaluados. Su propósito era demostrar la existencia de cálculos proposicionales no finitovaluados que son consistentes y completos para la Lógica Intuicionista. La que hoy se conoce como “Lógica de Gödel” es la versión infinito-valuada de sus sistemas. También podemos citar, por razones históricas, un par de artículos parcialmente vinculados con nuestras teorías. En 1942, el matemático Karl Menger introdujo las normas triangulares, o t-normas, pero lo llevó a cabo de un modo distinto a como actualmente se viene haciendo. Dilworth y Ward escribieron un primer artículo sobre retículos con residuos, o residuados (las `residuated lattices´). Igualmente podríamos citar (y pueden verse en la Bibliografía) los trabajos de A. Bochvar, los de Hans Reichenbach (con su Lógica Probabilística), o incluso el sorprendente escrito -en cierto modo, bastante premonitoriodel checo Zich. En la década de los 1950´s, tenemos el artículo de Mc Naughton, que en 1951 caracterizaba las funciones definibles mediante fórmulas de la lógica infinito-valuada de Lukasiewicz. Así, por ejemplo, lo serían las aplicaciones del n-cubo unidad de los reales, [0, 1]n, en el intervalo unidad, [0, 1], que son lineales a trozos (piecewise-linear) cuando las consideramos dotadas de coeficientes enteros. En 1957, Mostart y otros escribieron un artículo en el que probaban por primera vez la caracterización de las normas triangulares continuas, aunque en un contexto más general, como es el de los semigrupos sobre una variedad compacta. Representaba la tnorma de Lukasiewicz mediante el producto restringido por el “embedding” (inclusión) de Lukasiewicz en la lógica producto. El año siguiente resultó muy fructífero, puesto que los profesores Rose y Rosser dieron la primera demostración sobre la completitud de la lógica multivaluada de Lukasiewicz. Un año más tarde que ese artículo aparecería el de Michael Dummet, probando la completitud; en este caso, de la lógica infinito-valuada de Gödel. Más trabajos pueden y deben ser reseñados, como el de Stephen Cole Kleene, donde utilizaba una lógica trivaluada en su discusión acerca de funciones recursivas.

— 107 —

Ángel Garrido

También el lógico inglés Alonzo Church usó ciertas lógicas finito-valuadas en su demostración de la independencia axiomática de las lógicas bivaluadas. Entre los diversos investigadores que utilizaron este tipo de lógicas podemos mencionar a Thoralf Skolem, trabajando sobre la “teoría de conjuntos infinito-valuados”; también A. Rose, en su “Geometría 8-valuada”; o R. Taketuma, en su estudio de un cálculo proposicional 9valuado. Otro gran lógico fue el americano Haskel Brooks Curry (1900-1982), el cual estudió en Harvard y terminó una tesis en la universidad alemana de Göttingen, bajo la dirección de David Hilbert, en 1930. Luego dio clases en Princeton, en Harvard y en la Universidad Estatal de Pensilvania, para terminar alcanzando la plaza de profesor de Matemáticas en la de Amsterdam, ya en 1966. Llevó a cabo intensos estudios sobre Lógica Matemática, y en particular, sobre la Teoría de Sistemas y de los Procesos Formales. Asimismo, en Lógica Combinatoria, que como sabemos, se considera el fundamento de los lenguajes de programación funcionales. A esto se debe que a los programas de este tipo se les llame de Haskel, o bien de Curry, mientras que al proceso a través del cual se lleva a cabo esa formalización se le suele denominarndo “proceso de currificación”. Volviendo ahora a la línea argumental que nos ocupa, también hemos de mencionar los trabajos del notable lógico chino Moh Shaw-Kwei, quien señalaba que es posible eliminar las paradojas lógicas por medio de la introducción de una lógica multivaluada. Ya en la década siguiente, la de los 1960´s, siguen los artículos de C. C. Chang, conjuntamente con H. J. Keider. Trataban de la teoría general de modelos del cálculo de predicados infinito-valuado que satisfacen determinadas condiciones de continuidad, como puede ser el caso -en particular- del cálculo proposicional de Jan Lukasiewicz. A continuación, y ese mismo año, fue probado por B. Scarpellini que dicho cálculo no es recursivamente axiomatizable. Otros trabajos dignos de mención son los de Andrzej Mostowski; los de J. D. Rutledge, que son una primera descripción del cálculo de predicados infinito-valuado, o los de A. Horn, presentando un resultado acerca de la completitud de la Lógica de Gödel. La fundamental noción de norma triangular fue introducida en 1960 por B. Schweizer y A. Sklar49. Cinco años más tarde, C. H. Ling probará nuevamente la caracterización de la continuidad para las t-normas50. Con esto alcanzamos ya el año de 1965, cuando Lofti A. Zadeh publica su “seminal paper”, el famoso “Fuzzy Sets”, en la revista Information and Control. Desde aquí ya es más conocida, o al menos, más próxima, su historia. Observemos que este escrito del ingeniero eléctrico azerí abordaba los Conjuntos Borrosos, pero no todavía la Lógica Borrosa, generalización emprendida, una decena más tarde, por el propio Zadeh.

49 50

B. Schweizer and A. Sklar, 1960; vol. 10 (1), pp. 313-334. C. H. Ling, 1965. See J. Fodor, “Some results on weak t-norms”.

— 108 —

Los avances de la Inteligencia Artificial

Pero el primer artículo sobre Fuzzy Logic parece haber sido anterior: el del americano Joseph A. Goguen (1941-2006). En ese trabajo, los retículos residuados son tratados en el contexto de la Lógica Borrosa, o como él la llamaba, la lógica de los conceptos inexactos. Trabajando allí con los “fuzzy sets” que toman valores en una “lattice”, o retículo. Seguimos ahora por el año 1969. Recuérdese que en los años anteriores, las Lógicas Multi-Valuadas, que habían sido introducidas por Jan Lukasiewicz y Emil León Post en la tercera década del siglo XX, atrajeron fuertemente a la comunidad filosófica, a la matemática y a los científicos de la computación de los países más avanzados, y ello fue debido a su enorme potencial en la verificación tanto del software como del hardware. Asimismo, en el modelado del conocimiento, en los “Knowledge-Based Systems” (los KBS, o Sistemas Basados en el Conocimiento), etc. Tengamos también presente que el éxito de una lógica va a depender esencialmente de la posibilidad de disponer para ella de un cálculo efectivo y consistente, porque sea computacionalmente adecuado para el manejo de dicha herramienta. Dado que sin dicho cálculo operativo, vital para sus aplicaciones a la Ciencia Computacional (la “Computer Science”, o CSci) y a la Inteligencia Artificial, esa lógica quedaría confinada a un estadio puramente teórico. Afortunadamente, en el caso de las Lógicas Multi-Valuadas tal cálculo ha llegado a ser posible. Así, el análisis de sus cálculos ha sido realizado por autores como Takahashi, Rousseau, Carnielli o Schröter. Y en los Sistemas de Deducción Natural han trabajado otros investigadores, como Baaz, Fermüller y Zach. Dos años después, Helena Rasiowa (1917-1994) y Roman Sikorski (1920-1983), de la LWS, escribieron una monografía donde exponían mucho y muy nuevo material acerca de las estructuras algebraicas más relevantes para las Lógicas Multivaluadas, especialmente sobre las llamadas Álgebras de Arendt Heyting, a las cuales estos autores las denominan Álgebras Pseudo-Booleanas. Asimismo, hemos de citar la monografía de Robert J. Ackermann, que introdujo al estudio de las lógicas multivaluadas. O el artículo de Witold A. Pogorzelski51 sobre el teorema de deducción para el cálculo proposicional de Lukasiewicz infinito-valuado. En la década de los 1970´s, aparecen publicadas en inglés las Selected Works, de Jan Lukasiewicz, editadas por L. Borkowski. Helena Rasiowa trabajaba entonces denodadamente sobre un cálculo de predicados infinito-dimensional. Dana Scott (1932-), por su parte, discutía el posible significado de la multiplicidad de los valores de verdad, estableciendo una prueba alternativa de la completitud de la lógica de Lukasiewicz.

51

W. A. Pogorzelski; p. 214.

— 109 —

Ángel Garrido

De entre las muchas publicaciones de Lofti Asker Zadeh publicadas durante esos años podemos citar las que trataban del concepto de variable lingüística; o del análisis de los sistemas de gran escala, con los que introdujo el nuevo Modus Ponens Generalizado, así como la Regla Composicional de Inferencia. Ch. Chang y Richard Lee52 publicaron su obra acerca de la teoría continua de modelos, donde estudiaban el cálculo proposicional con máx-disyunción, mín-conjunción y la negación 1 – x, denominándolo “Fuzzy Logic”. La serie de artículos del investigador checo Jan Pavelka significa una contribución notable al estudio de la semántica y de la sintaxis de la Lógica Borrosa, realizado a un nivel muy grande de abstracción, y llegando a establecer un teorema de completitud para su sistema de lógica del tipo de Lukasiewicz. Se trataba de un esfuerzo pionero en muchos sentidos, aunque la objeción sería que con esto el sistema se vuelve innecesariamente artificial y complicado. R. C. T. Lee escribe el primer artículo acerca de la resolución en Lógica Borrosa. Ya en los 1980´s, M. E. Ragaz presenta cierto número de resultados sobre la complejidad aritmética de la MVL de Lukasiewicz. Font, Rodríguez y Torréns elaboraron la teoría llamada de las Álgebras de Wajsberg. También son interesantes los trabajos de Tomasa Calvo, de la Universidad de Alcalá de Henares, con Radko Mesiar y otros colaboradores. Los investigadores nipones Takeuti y Titani realizaron una importante contribución a la Lógica de Gödel, aunque no le atribuían ya ese nombre. Durante los años siguientes, Danielle Mundici escribirá toda una serie de trabajos acerca de las álgebras multi-valuadas y de la lógica de Lukasiewicz, llegando a probar que el conjunto de todas las 1-tautologías del cálculo proposicional de Lukasiewicz es coNP-completo. Son también de gran relevancia los trabajos del finés Jouko Väänänen (1950-), que versan sobre lógica y fundamentos de las matemáticas, y muy especialmente, aquellos que se refieren a la teoría de conjuntos, a la teoría de modelos, o a los cuantificadores generalizados, o a las lógicas infinitas. La obra de los franceses Didier Dubois y Henri Prade es desde luego amplísima y reconocida. Aparte de su obra enciclopédica, tienen numerosos trabajos acerca de la Lógica Difusa, y también sobre la hoy muy importante Teoría de las Medidas Borrosas (o Fuzzy Measure Theory), a la que modestamente algo creemos haber contribuido. Claudi Alsina, Enric Trillas y L. Valverde analizaron también las conectivas lógicas y sus consecuencias.

52

C.-L. Chang and R. C.-T. Lee, Symbolic Logic and Mechanical Theorem Proving. Academic Press, 1973.

— 110 —

Los avances de la Inteligencia Artificial

El investigador francés Didier Dubois le decía a Humberto Bustince, en una entrevista que éste le hiciera hace no demasiado tiempo53: Fuzzy logic is 47 years old. It means that in 2012, it already has a quite long history. The period that lasted until the late seventies was characterized by the great hopes of a few people and the disparaging attitude of many others. In the eighties, more tools and results were added to the theory, making it more respectable. Then in the late eighties came the fuzzy boom in Japan, after the pioneering works in fuzzy automatic control made in Western Europe by Abe Mamdani and his immediate followers. The nineties were the realm of fuzzy rule-based systems and more generally of neuro-fuzzy and soft computing applications. Meanwhile and quite independently many other areas had been developing such as fuzzy topology and fuzzy analysis, fuzzy aggregation operations, fuzzy relations, possibility theory, approximate reasoning, fuzzy operations research, fuzzy clustering and image processing, fuzzy databases and information retrieval. The last decade has seen the continuation of this diversification and specialization process, with a broader acceptance of fuzzy logic in general.

Lógicamente, en 2019 han pasado a ser 54 los mencionados años; en cualquier caso, ya sobrepasa la Lógica Borrosa esa cierta tradicional marca del medio siglo. El libro del alemán Siegfried Gottwald (1943-2015) ha sido durante muchos años la principal obra de referencia sobre las Lógicas Multivaluadas. También sería digna de mención la monografía debida a Schweizer y Sklar, de 1988; o la de Klir y Folger, del mismo año. Son también fundamentales las obras del matemático chino Zhenyuan Wang, que aparte de ser un notable investigador del Análisis Difuso, ha escrito dos monografías. La primera de ellas es la titulada Fuzzy Measure Theory, y de la misma luego ha elaborado una versión mucho más amplia, con nuevo material y que en cierto modo, subsumiría la anterior: se trata de la Generalized Fuzzy Measures. Contienen estos libros resultados del propio Wang y clarifican muy bien los aportes ajenos. Pueden verse más detalles en la Bibliografía. Y una mención muy especial merece la obra del gran filósofo polaco Jan Wolenski (1940-), profesor de la Universidad de Cracovia, por tratarse de la referencia fundamental sobre la historia de la lógica polaca, y muy en especial, sobre nuestra Escuela de LvóvVarsovia. Finalmente, mencionemos el artículo de Vilém Novák, que es de 1987, y donde se analiza la Lógica Borrosa de Primer Orden, pues constituye su primer trabajo acerca del Cálculo de Predicados en el estilo de Jan Pavelka. Lofti A. Zadeh será quien, con el apoyo de Stephen Cole Kleene, vea la aplicabilidad de una solución de este tipo en muchos campos, de la cual derivan dos teorías que han alcanzado un gran desarrollo posterior, como son la teoría de conjuntos difusos y lógica difusa. Actualmente ambos son unos campos en constante debate y progreso.

53

En la revista Mathware and Soft Computing, de la sociedad europea EUSFLAT. Esta entevista aparecía en el número de 2012.

— 111 —

Capítulo 18.

Y ALGUNAS CONCLUSIONES MÁS.

El nacimiento de la Inteligencia Artificial (I. A., o AI) se produjo en torno a las aplicaciones y las disciplinas matemáticas. Pero con unas implicaciones fuertemente filosóficas, cuyos resultados son aún muy útiles (y lo serán por mucho tiempo), tanto para la Neurociencia como para la Psicología, y para muchos otros saberes. Lo cierto es que desde sus orígenes desencadenó un gran desafío: el de si sería posible construir un `cerebro electrónico´ que pueda igualar e incluso superar al del ser humano, realizando operaciones intelectuales cada vez más complejas. Entre los primeros que sugirieron que tal cosa podría hacerse, estaba G. W. Leibniz, que pretendía zanjar con ellas las discusiones filosóficas más arduas, traduciéndolas a un lenguaje interpretable por la máquina, bastando al final con ponerla en marcha, el famoso: “Calculemus!”. Aquí estaría la polémica entre la I. A. fuerte (Strong AI) y la I. A. suave (Shoft AI), entre personajes de la talla de John McCarthy, Marvin Minsky, o Ray Kurzweil, etc., vs. Roger Penrose, o lo debatido en torno al argumento de la Habitación China, por John R. Searle y otros. De hecho, y basándose en la `Pascalina´, que sólo sumaba y restaba, Leibniz se dedicó al estudio de una máquina calculadora que implementase correctamente las operaciones fundamentales, incluyendo para ello no sólo el producto y la división, sino también la extracción de raíces cuadradas. Por todo lo cual no sólo debemos considerar a Leibniz como el padre del Cálculo Infinitesimal, aunque sea siempre desde una visión mucho más filosófica que la de Newton, sino también deben serle atribuidas muchas otras ideas, como bastante de aquellas que conducen a las nuevas lógicas, a la aparición con el tiempo de los cada vez más sofisticados robots, o a la hoy conocida como Inteligencia Computacional. Y es que las mismas Máquinas de Post-Turing desprenden un fuerte sabor leibniziano: son ingenios mecánicos teóricos del tipo de los que él hubiera seguramente diseñado, de haber vivido en nuestro tiempo. No olvidemos tampoco lo dicho por Denis Diderot en la Enciclopedia sobre él: “Quizás nunca haya un hombre que haya leído tanto, estudiado tanto, meditado más y

— 112 —

Los avances de la Inteligencia Artificial

escrito más que Leibniz... Lo que ha elaborado sobre el mundo, sobre Dios, la naturaleza y el alma es de la más sublime elocuencia. Si sus ideas hubiesen sido expresadas con el olfato de Platón, el filósofo de Leipzig no cedería en nada al filósofo de Atenas.” Y eso que eran rivales en su pensamiento. O aquello de: “Cuando uno compara sus talentos con los de Leibniz, uno tiene la tentación de tirar todos sus libros e ir a morir silenciosamente en la oscuridad de algún rincón olvidado.”54 Eso nos podría pasar a casi todos los humanos; cabe recordar el elogio sin límites sobre la figura de Leibniz (aquel de ser una de las mentes más prodigiosas de toda la historia de la Humanidad) de alguien tan poco dado a los panegíricos como Bertrand Russell. Y las tantas veces mencionadas burlas o chanzas, tan descalificatorias como conocidas, de Voltaire contra la idea de que estamos en `el mejor de los mundos posibles´ (véase su Cándido, o el optimismo)55 provendrían de no entender demasiado bien las ideas leibnizianas, y porque además de su manera de ser, bastante frívola, con ello mostraba innegables resabios de envidia ante la estatura de tal gigante. Se puede decir que alguien que ya nos plantea la existencia de un cierto isomorfismo entre la lógica y la metafísica (según el cual todas las proposiciones tendrían entonces una base ontológica) ya sólo por ello se hace merecedor del mayor de los respetos. En cuanto a la postura adversa de un Voltaire, no hemos de olvidar que tanto él como su amante, la famosa Madame du Châtelet, fueron algunos de los más acérrimos partidarios suyos, y conspicuos difusores de las teorías newtonianas en el Continente. También es cierto que Leibniz (tal y como Newton, pero no tanto) hizo algunas observaciones extrañas. Tal como cuando decía que la suma de una cantidad infinita de ceros sería igual a ½, y que esto apoyaba la creación ab nihilo, esto es, que sería una especie de análogo matemático de la creación del mundo a partir de la nada. O que la unidad imaginaria de los complejos, que se denota por i, mostraba una asombrosa mezcla entre existencia y no existencia. Incluso, que venía a ser como el Espíritu Santo, en cuanto a esas especiales características de existencia. Pero Newton se dedicó a cosas mucho más extrañas y esotéricas, del tipo de los alquimistas: eso hemos de reconocerlo. Así, pues, aun cuando sea cierto que tras un periodo inicial de la Lógica Matemática, en que Bertrand Russell y Louis Couturat llegaron a afirmar que toda la metafísica puede ser deducible a partir de la lógica proposicional leibniziana -como nos recordaba Quintín Racionero56, luego se fueron presentando varias e interesantes, nuevas y distintas perspectivas, como serían las de Jaako Hintikka, Julián Velarde, Nicholas Rescher o Hidé Ishiguro57, entre otros. K. D. Duc, “Leibniz dans l’Encyclopédie”. Recherches sur Diderot et sur l'Encyclopédie, numéro 48 Varia, [En ligne], 2014. 55 No se olvide que la aseveración de Leibniz no es tanto que el mundo real sea el mejor de todos los mundos posibles, sino el `most pleasant´ (como se diría en inglés), o más satisfactorio. 56 Q. Racionero, 1989; pp. 127 y 128. 57 H. Ishiguro, 1972, Leibniz´s Philosophy of Logic & Language, Duckworth Publ., London; p. 9. 54

— 113 —

Ángel Garrido

NOTA FINAL

Los Molinistas (que no deben confundirse con los `molinosistas´, seguidores del `heresiarca´ Miguel de Molinos, 1628-1696, el creador del `quietismo´) presentan el conocimiento de Dios como una secuencia de tres momentos lógicos. El primero sería el conocimiento de Dios de verdades necesarias, o “conocimiento natural”. Estas verdades son independientes de la voluntad de Dios y no son contingentes. Este conocimiento incluye toda la gama de posibilidades lógicas. Los ejemplos incluyen declaraciones como:

X no puede ser A y no-A, al mismo tiempo, de la misma manera, en el mismo lugar.

El segundo se llama “conocimiento medio” (o scientia media), y contiene todo el rango de posibles cosas que sucederían, dadas ciertas circunstancias. Algunos mantienen (sobre todo, los comentaristas lusos) que estas ideas le vendrían a Luis de Molina de su maestro en la Universidad de Coimbra, el también jesuita Pedro da Fonseca, llamado “el Aristóteles portugués”. Pero es algo que según otros, parece más que cuestionable. El tercer tipo de conocimiento sería uno propio de Dios, llamándose en este caso “conocimiento libre” (o `Free Knowledge´). Este se compone de las verdades contingentes que dependen de la voluntad de Dios; o las verdades que Dios traería consigo, pero que Él no tiene por qué llevarlas a cabo. Así, la doctrina de Luis de Molina (el `molinismo') se suele llamar “la de la ciencia media”, ya que se encuentra en medio de las dos categorías tradicionales de la epistemología divina tal como fueron dictadas por el Aquinate (Tomás de Aquino): serían el conocimiento natural y el conocimiento libre. Pues el medio comparte características de cada uno de ellos, y en el orden lógico del proceso de deliberación divina respecto a la creación, seguiría al conocimiento natural, a la vez que precediendo al conocimiento libre. Pero estos, que pudiéramos denominar “momentos” de los conocimientos, no deben ser considerados en absoluto como cronológicos; sería un error el hacerlo. Por el contrario, se han de entender como divididos entre sí, o clasificados, desde un punto de vista estrictamente “lógico”.

— 114 —

Capítulo 19.

Y ahora, pasaremos al trabajo que hubo aparecido en una importante revista, la denominada:

ÉNDOXA.

SERIES FILOSÓFICAS:

Es el `paper´:

HISTORY OF THE CONTROVERSY ON THE INTRODUCTION OF FUZZY LOGIC ÁNGEL GARRIDO Facultad de Ciencias UNED

RESUMEN: Los problemas de incertidumbre, imprecisión y vaguedad se han debatido durante muchos años. Estos problemas han sido temas importantes en los círculos filosóficos, con muchos debates, en particular, acerca de la naturaleza de la vaguedad y la capacidad de la lógica booleana tradicionales para hacer frente a los conceptos y percepciones que son imprecisas o vagas. La lógica difusa (que se suele traducir al castellano por “Lógica Borrosa", o "Lógica Difusa”, pero también por “Lógica Heurística”) puede ser considerada una lógica divergente o una “deviant logic” (lógica multivaluada, MVL, en su acrónimo). Se basa en, y está estrechamente relacionada con, la teoría de los conjuntos fuzzy –borrosos o difusos-, y está aplicándose con creciente éxito en el tratamiento de información y el control de distintos sistemas difusos. Se podría pensar que

— 115 —

Ángel Garrido la lógica difusa es muy reciente y que ha funcionado sólo desde hace poco tiempo, pero sus orígenes se remontan al menos a los filósofos griegos. Incluso parece posible rastrear sus orígenes en la China y la India antiguas. Porque parece que fueron ellos los primeros en tener en cuenta que todas las cosas no tienen por qué ser de un determinado tipo o dejar de serlo, sino que puede haber – y de hecho los hay- una amplia gama de estados intermedios. Es decir, que habrían de ser los pioneros en considerar que no deben ser sólo considerados un par de grados absolutos y totalmente contrapuestos, sino que puede haber –y de hecho la hay- toda una escala que abarca desde el mayor al menor grado tanto de verdad como de falsedad. En el caso de los colores, por ejemplo, entre el blanco y el negro hay toda una escala infinita: la de los tonos de grises. Algunos teoremas recientes muestran que, en principio, la lógica difusa se puede utilizar para modelar cualquier sistema continuo que se base en la inteligencia artificial, o la física o la biología, o la economía, …, por tanto, en muchos campos se puede encontrar que los modelos difusos y la lógica de sentido común son los más útiles, y mucho más convenientes o adecuados que aquellos que son estándar, entre los que podríamos considerar la matemática clásica. Analizaremos aquí la historia y el desarrollo de este problema: el de la Vagueness, o de la Fuzziness, "Borrosidad" en castellano, que resulta esencial para trabajar con la incertidumbre. PALABRAS CLAVE: Lógica Matemática, Lógicas No Clásicas, Lógica Difusa, Tratamiento de la Incertidumbre, Aspectos filosóficos de la Lógica Difusa. ABSTRACT: The problems of uncertainty, imprecision and vagueness have been under discussion for many years. These problems have been important themes in philosophical circles, with many debates, specifically regarding the nature of vagueness and the capability of traditional Boolean logic to deal with concepts and perceptions that are imprecise or vague. Fuzzy logic can be considered a “divergent” or "deviant" logic (a many-valued logic, with the acronym MVL). It is based on and closely related to the theory of fuzzy sets, and is applied with increasing success in the treatment of information and to control various fuzzy systems. Fuzzy logic might seem to be very recent and not to have been functioning for long, but its origins date back at least to the Greek philosophers. The origins of fuzzy logic may even be traceable to ancient China and India, where philosophers seem to have been the first to note that not everything has to belong to a certain type or not, but that there may be - and indeed are- a wide range of intermediate states. That is, they seem to have been the pioneers in feeling that not only should a few absolute and totally opposed degrees be considered, but that there might be and, indeed is, an entire scale from the highest to the lowest degree of both truth and falsehood. For colors, for example, there is an infinite scale of gray tones between black and white. Recent theorems show that, in principle, fuzzy logic can be used to model any continuous system based on artificial intelligence, or physics or biology, or economics... Therefore, in many fields fuzzy logic models and commonsense logics are found to be the most useful, and more convenient or a better fit than standard logics, including classic mathematics. We will discuss the history and development of the problem of vagueness or fuzziness, a concept that is essential to working with uncertainty. KEYWORDS: Mathematical logic, non-classic logics, fuzzy logic, treatment of uncertainty, philosophical aspects of fuzzy logic.

— 116 —

Los avances de la Inteligencia Artificial Lema: “Todo es vago en un grado del que no te das cuenta hasta que tratas de especificarlo.” Bertrand Russell, Vagueness

1. INTRODUCCIÓN Como sabemos, la lógica es el estudio de la estructura y los principios del razonamiento correcto, y más específicamente, los intentos de establecer los principios que garantizan la validez de los argumentos deductivos. El concepto central de la lógica es el de validez, porque cuando afirmamos la validez de un argumento se nos está diciendo que es imposible que su conclusión sea falsa si sus premisas son verdaderas. Las proposiciones son descripciones del mundo, es decir, son afirmaciones o negaciones de eventos en diferentes mundos posibles, de los cuales el “mundo real” es sólo uno de los posibles. Existe una larga tradición filosófica de distinguir entre la verdad como algo necesario (a priori, o “lógico”), y los hechos “contingentes” (a posteriori, o “de hecho”, factuales). Ambos han abarcado realmente los dos conceptos de la verdad lógica, sin que se opongan entre sí, aunque son muy diferentes: la concepción de la verdad como coherencia, y la concepción de la verdad como correspondencia. De acuerdo con el punto de vista de la coherencia, una proposición es verdadera o falsa dependiendo de su relación con respecto a un determinado conjunto de proposiciones, puesto que se han aplicado las normas de dicho sistema. Bajo los términos de dicha correspondencia, una proposición es verdadera o falsa, si está de acuerdo con la realidad, es decir, con el hecho de referencia. Otras opiniones han tratado de superar tal dicotomía. Entre las más notables se puede mencionar el punto de vista semántico, planteado por el brillante matemático y filósofo polaco Alfred Tarski (1902-1983).

2. VERDAD O FALSEDAD Para incrementar todavía más la complejidad del problema, hay que tener en cuenta que no sólo se predica la verdad o falsedad de las proposiciones, sino también de las teorías, ideas y modelos. Y así admitiremos una concepción nueva y diferente de lo que es la verdad. La idea básica que subyace a todos estos enfoques es el de una dicotomía intrínseca entre lo verdadero y lo falso. Esta oposición implica el necesario análisis sobre la validez de dos leyes fundamentales de la lógica clásica: - Principio del tercero excluido (tertium non datur): Toda proposición es verdadera o falsa, y no hay otra posibilidad. - Principio de no contradicción: No puede haber una proposición que sea verdadera y falsa al mismo tiempo.

— 117 —

Ángel Garrido Esta idea básica genera una serie de paradojas y una insatisfacción que se basa en la necesidad de superar la rigidez del concepto de verdad, esto es, la cómoda, pero estrecha bivalencia de la lógica clásica. Aceptar que una proposición acerca de un evento futuro es verdadera o falsa hace necesario o imposible, respectivamente, el evento expresado por la proposición. La solución propuesta por Jan Lukasiewicz en su artículo clásico de 1920, es la aceptación de una lógica de tres valores de verdad (o de tres grados), también llamada trivalente o trivaluada, que además de verdadero y falso, acepta un valor de verdad indeterminado, al que le atribuye un valor de verdad o grado de pertenencia del 0.5. Charles Sanders Peirce (1839-1914) lo anticipó en alguno de sus trabajos, pero ha habido muchos otros que también han ido contribuyendo a su construcción, así como al muchas veces agrio y tenso debate generado en torno a su introducción, como el mantenido contra el científico de la computación americano Bart Kosko. Bertrand Russell (1872-1970) es considerado por algunos como el padre de la Lógica Difusa, pues partió de la idea según la cual la lógica clásica, inevitablemente, conduciría a contradicciones, lo que expuso con su habitual agudeza en una conferencia sobre la “vagueness” del lenguaje , llegando a la conclusión de que dicha vaguedad es precisamente cuestión de grados.

3. LOS ORÍGENES DE LA LÓGICA DIFUSA Según esta nueva teoría, tenemos una función de transferencia que procede de la generalización de la llamada función característica. Se suele llamar la “función de pertenencia” (membership function), y se extiende desde el universo de discurso, U, hasta el intervalo unidad cerrado de los reales, que es el I = [0, 1]  R. No así en los llamados `crisp´ sets (conjuntos “clásicos”, o “conjuntos nítidos”), donde el rango de la función se reduce a un subconjunto que consta tan sólo de dos elementos, a saber, es el {0, 1}. Por lo tanto, la teoría de conjuntos difusos sería una generalización de la teoría de conjuntos clásica. Las nuevas ideas surgieron del estudio de varios pensadores de diversas disciplinas, quienes tenían una visión divergente de los problemas respecto de la presentada por la lógica tradicional. La paradoja del conjunto de todos los conjuntos que no se contienen a sí mismos, que es muy famosa, o la del barbero, que fue propuesta por Bertrand Russell. O el principio de incertidumbre de la física cuántica, de Werner Heisenberg, muy emparentado con lo anterior. La teoría de conjuntos “fuzzy” (los llamados conjuntos borrosos) parte en los tiempos modernos del físico cuántico y filósofo alemán Max Black (1937), que también analizó la cuestión de modelizar la “vaguedad”. Pero Black se diferencia de Russell en que admite que la lógica tradicional puede ser reinterpretada por la vaguedad, que representa un nivel adecuado de detalle, y sugiere que la definición de Russell de la vaguedad confunde la vaguedad con la generalidad. El mencionado autor analizaba la vaguedad de los términos o los símbolos mediante el uso de casos extremos, en donde no está claro si el término puede ser utilizado para describir la situación. Cuando habla de tal medida, señala que “la indeterminación que es consustancial en la vaguedad está presente también en todas las mediciones científicas”. Una idea propuesta por Black es la idea de un perfil de consistencia o de una curva que nos permita el análisis de la ambigüedad de — 118 —

Los avances de la Inteligencia Artificial una palabra o de un símbolo. Para el investigador de la lógica difusa de hoy en día, estas curvas tendrían un gran parecido con las llamadas funciones de pertenencia de los conjuntos difusos de Tipo-1. También puede considerarse como clave y de lo más esencial la contribución -algo posteriordel lógico y matemático polaco Jan Lukasiewiz (1878-1956). Por lo tanto, se debe en buena medida a tales influencias intelectuales el que Lofti Asker Zadeh (n. 1921) publicara su el conocido artículo [2] en la revista Información y Control, y tres años después (en 1968), otro sobre el llamado “algoritmo de aproximación” . Al dar a conocer de nuevo estas ideas en un modo más consistente y formalizado, los artículos publicados por Lotfi A. Zadeh no fueron nada bien recibidas en Occidente, sino que en muchos casos fueron rechazados con una extrema dureza por los elementos más conservadores de la comunidad científica. No obstante, con el tiempo comenzaron a ir ganando más y más adeptos, lo que llevó a que estas teorías se extendieran cada vez más, estableciéndose con firmeza entre los científicos más innovadores y especialmente, entre sus mejores profesionales. Más que en cualquier otro lugar lo fue inicialmente en el Japón, y luego en Corea del Sur, China y la India. Europa y Estados Unidos van siendo incorporadas a este nueva matemática, pero más lentamente. Como cuestión pintoresca o anecdótica, si se quiere, pero que es bien cierta, podemos referirnos a que el ahora reconocido por muchos como “el padre de la Lógica Difusa”, Lotfi A. Zadeh, en su día se reunió con los ejecutivos de la empresa IBM, quienes le dijeron que su “a su descubrimiento no le veían ningún interés, ni utilidad futura ninguna”. Por supuesto, esto puede ser considerado como un modelo muy claro, un paradigma, de la inteligencia y de la visión comercial de ciertas grandes empresas de Occidente. Si no hubiera sido así, probablemente se hubieran desarrollado en los Estados Unidos, y en otros países occidentales, muchos de los notables avances tecnológicos derivados de la nueva ciencia. La intención de Lofti Zadeh fue la de crear un formalismo que permitiera manejar de manera más eficiente la imprecisión del razonamiento humano. Sería en 1971 cuando él publicara los elementos formales que condujeron a la metodología de la lógica difusa y sus aplicaciones, tal como se conocen hoy en día. De lo anterior se deduce que es posible que necesitemos un replanteamiento radical de nuestros conceptos clásicos de la verdad y la falsedad, mediante la introducción del concepto de borrosidad (vaguedad o imprecisión), y como resultado de lo cual la verdad o falsedad de los casos serían sólo sus situaciones extremas. Por “vagueness” (o borrosidad) se puede entender el hecho de que una proposición puede ser parcialmente verdadera y parcialmente falsa al mismo tiempo. Una persona no es sólo alta o baja, sino que parcialmente puede participar de ambas características, mientras que en la zona intermedia de las dos alturas extremas debe existir como una graduación por la que está dejando de ser alta o empezando a ser baja. Parece intuitivamente claro que el concepto de borrosidad tiene sus raíces en gran medida dentro de nuestras formas de pensar y de hablar. Otra cuestión distinta es la valoración que cada individuo concede un carácter difuso (el vaso medio lleno o medio vacío), que dependen de los problemas psicológicos subjetivos y difíciles de evaluar. El principio difuso clave es el mencionado, según el cual todo es cuestión de grados. Podría ser ese su más famoso “leitmotiv”. Todas las proposiciones adquieren un valor de verdad entre uno (totalmente verdadera) y cero (totalmente falsa), admitiendo ambos inclusive. La asignación de estos valores extremos sólo se dará en el caso de las verdades lógicas o falsedades o — 119 —

Ángel Garrido inducciones fuertes: “Todos los hombres son mortales” puede ser un ejemplo de inducción fuerte, ya que no se han producido hasta el momento contraejemplos, aunque sí muchos candidatos a serlo, pero una vez y otra resultan fallidos. Los argumentos para introducir el concepto de borrosidad en la lógica ya han sido expuestos, pero será necesario examinar en detalle algunos aspectos clave: a) Los antecedentes históricos y el concepto metodológico. b) La posibilidad de construir un lenguaje formal de valor infinito, y si es así, que tratemos de definir sus propiedades y leyes. c) Las consecuencias filosóficas y prácticas derivadas de dicha introducción.

4. PUNTO DE VISTA ORIENTAL VS. PUNTO DE VISTA OCCIDENTAL El profesor norteamericano Bart Kosko puso de relieve las diferencias entre las filosofías orientales y occidentales con respecto del concepto de la verdad, que resume en la oposición de Aristóteles contra Buda. De hecho, B. Kosko cree que la filosofía occidental, en cuanto sucesora directa de Aristóteles, ha aceptado acríticamente la bivalencia como el sistema que resulta útil, pero que es demasiado simple para una realidad que es cada vez más compleja. En pocas palabras: lo que ha ganado en simplicidad se ha perdido en precisión. Por el contrario, las filosofías orientales: el Buda, Lao Tse, Confucio, etc., siempre han aceptado la estricta unidad de los opuestos, de lo que llaman (como sabemos), el yin y el yang, adoptando con naturalidad la teoría de los grados de verdad. No está muy de acuerdo el profesor Julián Velarde ni con la predicación ni con el personaje de Bart Kosko, y menos aún con sus críticas sobre las opiniones del Estagirita, pues como él dice “primero hay que leerlo”, y Aristóteles es mucho Aristóteles para trivializarlo así . Por otro lado, si bien es cierto que Aristóteles puede considerarse como el introductor de la bivalencia, no debemos por ello pensar que se le pasara por alto la existencia de las características o propuestas difusas, como cuando comentó que: “En cualquier caso, lo que se dice de acuerdo con ellos (cualidades) apoya sin duda el más y el menos” O cuando nos habla de que podemos llegar al conocimiento, pero sin la certeza de ello. Si Aristóteles (una mente tan brillante como aquella) no llegó a estudiar este concepto fue posiblemente porque faltaba aún el conocimiento matemático necesario para su desarrollo. No fue sino hasta la aparición de un Cálculo cada vez más sistemático y operacional, la combinatoria y la teoría de la probabilidad, la teoría de juegos, o la nueva teoría, conocida ahora como “Crisp Set Theory”, o teoría clásica de conjuntos, iniciada por Cantor, así como la estadística moderna y el cálculo matricial, entre otros. Como se dijo anteriormente, Aristóteles no tenía el aparato matemático que posibilitara el desarrollo de una lógica difusa. La gestación de esa construcción se inicia con Newton y Leibniz, que desarrollaron el cálculo en el siglo XVII. Tal vez por la obsesión con la exactitud de las matemáticas, se ha hecho perfectamente aplicable la famosa cita de Einstein:

— 120 —

Los avances de la Inteligencia Artificial “En la medida en que las matemáticas se refieren a la realidad, no son ciertas. Y en la medida en que son ciertas, no se refieren a la realidad”. Pero lo que no dijo Einstein es que sin duda, el aparato deductivo desarrollado por la matemática nos facilita y mucho la comprensión de la realidad. La explicación dada por el movimiento de Aristóteles se sustituye por el más innovador tratamiento de Newton, pero gracias a una fuerte apoyatura en el Cálculo, sin el cual no habría sido esto posible. Sin embargo, el cálculo infinitesimal en profundidad sólo fue utilizado para el estudio de la física en los siglos siguientes, experimentando luego un crecimiento espectacular, con Euler, Laplace, Lagrange, Fourier, y así sucesivamente. Hoy en día impregna todas las ciencias, tanto sociales y humanas como naturales. Pero también con el Calculus se introdujo –al menos, subliminalmente- la esencial cuestión del grado. La Lógica Clásica (de esencia aristotélica) se ha demostrado durante mucho tiempo muy eficaz en las ciencias llamadas “duras”, tales como las matemáticas o la física. Sin embargo, resulta insuficiente cuando los predicados contienen imprecisión, incertidumbre o vaguedad. Ahora bien; resulta que así es como el cerebro funciona realmente y se desenvuelven el razonamiento humano y el lenguaje natural; en general, es el modo como se comportan todos los sistemas que nos rodean. La lógica difusa también ha ayudado a que el software sea capaz de interpretar las sentencias de este tipo.

5. APLICACIONES DE LÓGICA `FUZZY´. En la lógica difusa, las declaraciones no son absolutamente ciertas o absolutamente falsas . Una cosa puede ser fiel a un 5% (técnicamente, su “grado de verdad” es de 0,05). Y las variables (o categorías) no son números, manifestándose sin nombres ni fronteras lingüísticamente precisas (alto o bajo, rico o pobre, gordo o delgado, sano o enfermo, viejo o joven, caliente o frío, o bien si es “normal” o con qué grado esto ocurre, etc. Los operadores que los modifican son los de “bastante”, “mucho”, “demasiado”, “casi”, “apenas”, o “no demasiado”. Son los llamados “fuzzy modifiers” (“linguistic hedges”, o “modificadores difusos”). Con esto se consigue atribuir un valor a cada una de esas características difusas, y ese valor se acentúa o se diluye según, por ejemplo, las diversas potencias o raíces de los valores iniciales o con expresiones polinómicas que dependan de dichas funciones. Por ello son llamados modificadores de la “intensificación” (el operador INT), o de la “expansión” (dilatación, el operador DIL), respectivamente, con efectos graduales y admitiendo todas las variaciones y combinaciones posibles. Las herramientas para trabajar con estas regiones fronterizas no se encuentran totalmente definidas en esta nueva área de las matemáticas . En 1973, con la teoría básica de Zadeh de los controladores borrosos, otros investigadores comenzaron a aplicar la lógica difusa a diversos procesos mecánicos e industriales, contribuyendo cada vez más a las mejoras existentes. Se establecieron varios grupos de investigación en universidades japonesas sobre procesos difusos. De este modo, los profesores Terano y Shibata en Tokio, junto con los profesores Tanaka y Asai en Osaka, hicieron importantes contribuciones tanto para el desarrollo de la teoría de la lógica difusa como de sus aplicaciones.

— 121 —

Ángel Garrido En 1980 el profesor Ebrahim Mamdani, trabajando en el Reino Unido, diseñó el primer controlador difuso para un motor de vapor, que se aplicó para controlar una planta de cemento en Dinamarca, y lo hizo -por cierto- con gran éxito. En 1987, Hitachi utilizó un controlador de lógica difusa para el control del tren de Sendai, que utiliza un innovador sistema para ser guiado autónomamente. Desde entonces, el controlador ha estado haciendo su trabajo de manera muy eficiente. Fue también durante este año de 1987 cuando la compañía Omron desarrolló los primeros controladores difusos con fines comerciales. Así que el año 1987 se considera el “fuzzy boom”, debido a la gran cantidad de productos basados en lógica difusa creados para ser objeto de comercio. En 1993, la lógica difusa fue aplicada por la casa Fuji al control químico de inyección en las plantas de tratamiento del agua, por primera vez en Japón. Fue allí mismo, en el país nipón y en Corea del Sur, donde la lógica difusa ha estado brillando a mayor altura, sobre todo, en su vertiente tecnológica, debido a una estrecha colaboración entre el gobierno, las universidades y la industria. Paralelamente al estudio de las aplicaciones de la lógica difusa, los profesores Takagi y Sugeno ha desarrollado el primer método para la construcción de Fuzzy Inference Rules (Reglas Difusas de Inferencia), a partir de los datos de formación o de Aprendizaje Automático (Fuzzy Learning). Las aplicaciones de la lógica difusa en la vida cotidiana han crecido desde entonces con suma rapidez. De hecho, ya es parte fundamental de ella. Por ejemplo, algunas marcas de lavadora utilizan la lógica difusa, entre las que podemos citar las de Electrolux, AEG y Miele, empleando esos métodos computacionales para moderar el programa, por ejemplo, si el programa de lavado ha de ser para ropa “no muy sucia”, que es un caso paradigmático de concepto vago. La técnica también está extendida para el ABS, esto es, los sistemas de frenado para los automóviles, las cámaras de enfoque automático o el control de los ascensores, los filtros de correo basura, también conocido como “spam”, y los videojuegos que ahora están en todas partes. Aunque los fabricantes no quieren dar mucha publicidad a la “fuzziness” implícita en estos hechos por una razón obvia. Decir que el freno de los vehículos está controlado por la lógica difusa no pertenece a la clase de mensajes que permite vender más coches. Para construir un sistema difuso, un científico o ingeniero podría comenzar con un conjunto de reglas difusas diseñadas por un experto. El científico-ingeniero puede definir los grados de pertenencia en la entrada de varios conjuntos borrosos, y los de salida mediante conjuntos de curvas. El sistema difuso se aproxima a una función matemática, o a una ecuación de causa y efecto. Un resultado muy importante dice que mediante los sistemas difusos se puede aproximar cualquier función matemática continua. Bart Kosko (1993) demostró este teorema de la convergencia uniforme, mostrando que si tomamos los “parches” borrosos lo suficientemente pequeños, estos permiten recubrir suficientemente la gráfica de cualquier función, o bien la entrada/salida de una relación. El teorema también muestra que podemos elegir de antemano el error máximo de la aproximación y estar seguros de que existe un número finito de reglas difusas para lograrlo. Y los últimos avances en las llamadas Neural Networks, las redes neuronales o redes neurales (en términos de los programas que aprenden de la experiencia), y en los Algoritmos Genéticos (programas que evolucionan con el tiempo) son sin duda un complemento adecuado a la lógica difusa. Otra de las razones clave para una mayor investigación en este campo sería el interés en dichas redes neuronales por el parecido con los sistemas difusos. Buscando las relaciones entre — 122 —

Los avances de la Inteligencia Artificial las dos técnicas, y obteniendo de esta manera Tecnologías y Lógicas Neuro-Fuzzy (NeuroDifusas), que utilizan métodos de aprendizaje basados en redes neuronales para identificar y optimizar sus parámetros. Entonces, como se dijo, aparecen los algoritmos genéticos, que junto con las redes neuronales y los sistemas difusos “son herramientas muy poderosas y por lo tanto de gran interés para la investigación futura, tanto para las matemáticas actuales como para la mayoría de las nuevas, que ya están aquí, y rápidamente van tomando forma” . Las redes neuronales son un modelo diseñado a partir de conjunto de “neuronas” y “sinapsis” artificiales, que cambian sus valores como respuesta a las entradas de las neuronas circundantes y de las sinapsis. La red neuronal actúa como una computadora, ya que asigna recursos y resultados. Las neuronas y las sinapsis pueden ser tanto componentes de silicio, o chips cuánticos, como ecuaciones en el software, que simulan su comportamiento. El Aprendizaje Supervisado (o “Supervised Learning”) llegó a través de las llamadas redes supervisadas, ajustando las reglas de un sistema difuso, como si fueran las sinapsis. El usuario proporciona el primer conjunto de reglas, que son refinadas por las redes neuronales mediante la ejecución a través de cientos de miles de entradas, que varían ligeramente de modo “fuzzy”, estableciendo cada vez cómo de bien está funcionando el sistema. La red tiende a mantener los cambios que vayan en la dirección de la mejora del rendimiento, y hacer caso omiso de los demás. El modelado difuso es muchas veces utilizado para transformar el conocimiento de un experto en un modelo matemático. El énfasis está en la construcción de un sistema experto difuso que sustituya al experto humano. Asimismo, como una herramienta que puede ayudar a los observadores humanos en la difícil tarea de transformar sus observaciones en un modelo matemático. En muchos campos de la ciencia, algunos observadores humanos han proporcionado descripciones lingüísticas y las explicaciones para los diferentes sistemas. Sin embargo, a la hora de estudiar estos fenómenos, existe una necesidad de construir un modelo matemático adecuado, un proceso que normalmente requiere una comprensión matemática muy sutil. El modelado difuso resulta, pues, un enfoque mucho más directo y natural para la transformación de la descripción lingüística en dicho modelo. Un modelo difuso representa el sistema real en una forma que se corresponde estrechamente con la manera en que los seres humanos lo percibimos. Así, el modelo es claramente comprensible, y cada parámetro tiene un significado fácilmente perceptible. El modelo puede ser hábilmente modificado para incorporar nuevos fenómenos, y si su comportamiento es diferente de lo esperado, por lo general es más fácil encontrar la regla que se debe modificar y saber cómo hacerlo. Además, los procedimientos matemáticos utilizados en el modelado difuso se han probado muchas veces, y sus técnicas están relativamente bien documentadas. La posible “mala reputación”, aparte de la agria polémica sobre la lógica difusa, además de los consabidos prejuicios, está posiblemente –al menos, en parte- basada en un nombre que debió ser posiblemente mal elegido, como se ha señalado muchas veces. Porque la lógica llamada difusa no es difusa en sí misma, ya que tiene una definición matemática precisa, aunque sí lo es, en cambio, el mundo sobre el cual se aplica, incluida nuestra percepción de sus límites y de las categorías.

— 123 —

Ángel Garrido 6. CONCLUSIONES La investigación sigue adelante con el apoyo de la lógica difusa, lo que sirve para seguir avanzando la Ciencia en los principales países, si hablamos en términos de progreso económico y tecnológico, incluso en países con menor cultura científica, o más tradicional y de tipo más estático, como bien puede ser la del territorio español, o países similares. Pero los grupos que se han formado al menos intentan hacer avanzar la ciencia siempre bastante precaria en diferentes “grados”, pero siguiendo esa misma y prometedora dirección. También cuando se analizan en profundidad tienen grandes derivaciones y consecuencias (sobre todo, en los fundamentos matemáticos y filosóficos), lo que influye –querámoslo o no- en los más apasionantes desafíos del futuro . Hay dos obstáculos principales que vienen impidiendo su divulgación completa, así como la absorción de esta nueva forma de pensar frente a la ciencia, por lo menos en algunos de sus campos. Se trata de la visión tradicional de los temas matemáticos, repetidos del mismo modo, hasta la saciedad, incluso cuando hace mucho que ya han perdido interés y eficacia. Por lo tanto, hay quienes ignoran esta nueva ciencia, en parte por ignorancia, por arraigados prejuicios, y en parte también por un visceral desprecio. Otra dificultad importante es que por algunos se vea la “fuzzy logic” como una herramienta útil para todo, pero no muy consistente desde el punto de vista teórico, considerada por ello con desdén, ya que son a menudo cuestiones técnicas ajenas a la torre de marfil en que se han atrincherado no pocos matemáticos. Y es que puede ser muy perniciosa y absurda esta situación, si por mucho tiempo subsiste, para determinados países no precisamente muy avanzados. La ciencia (con la filosofía) y la tecnología se perderán o se salvarán juntas. Todas ellas tienen un origen común y son poco más que una diferente visión, desde distintos enfoques, pero a menudo convergentes, de una misma realidad, que presenta muchas facetas. Lógicamente, si una cosa resulta además útil, será esta la mejor situación posible. Pues cuenta no sólo la belleza, sino también la utilidad. El mundo real no es preciso y las nociones de vaguedad, la incertidumbre, la imprecisión…, estos son conceptos y percepciones que resultan fundamentales en la manera en que los seres humanos abordan y resuelven los problemas. Es preciso señalar que algunos avances, como por ejemplo los operadores de agregación (las T-normas, las T-conormas, etc.), así como en el modelado difuso, son cruciales. Y junto a todo este desarrollo, nuevas generalizaciones de las teorías matemáticas que nos permitan avanzar en el tratamiento de la incertidumbre, a la espera de crear una nueva matemática, más “pegada” y próxima a la realidad. Es también importante observar que en ciertos otros campos, aparentemente alejados del tratamiento de la borrosidad, tales como son los de la simetría y la entropía, se ha entrado en nuevas vías de investigación, como la simetría aproximada, la entropía aproximada, los gráficos borrosos, y así sucesivamente. Acerca de mi país, por poner algunos ejemplos, debemos mencionar el grupo de trabajo que funciona en el Departamento de Inteligencia Artificial de la Universidad de Granada, o el Centro de Investigación en Inteligencia Artificial y Soft Computing, establecido en la localidad de Mieres, y que ha sido creado por el Gobierno del Principado de Asturias. También hay un esforzado grupo de investigadores trabajando en Barcelona, en Granada, Navarra o en Madrid, sobre diversos temas de Lógica Difusa.

— 124 —

Los avances de la Inteligencia Artificial

AGRADECIMIENTOS.

Este trabajo se ha realizado bajo los auspicios del Proyecto de Investigación FFI 2011-29623, que lleva por nombre “El papel de las polémicas en la producción de las prácticas teóricas y en el fortalecimiento de la sociedad civil”, cuyo investigador principal fue hasta su fallecimiento el añorado Profesor Quintín Racionero Carmona, y actualmente lo dirige la Profesora Cristina de Peretti. La institución convocante es el MYCINN español. Agradecemos públicamente su ayuda y sabio consejo.

REFERENCIAS

DUBOIS, D. Y PRADE, H. (1980), Fuzzy Sets and Systems: Theory and Applications, New York: Academic Press. GARRIDO, A. (2011), “Searching the Arcane Origins of Fuzzy Logic”, BRAIN (Broad Research in Artificial Intelligence and Neuroscience), vol. 2/2, pp. 51-57, Bacau. JANG, J. S. R. (1991), “Modelado Difuso: su uso generalizado en Redes Neuronales y el algoritmo de Kalman Filter”, Proceedings de la Conf. Nacional en Inteligencia Artificial (AAAI91), pp. 762-767. JANG, J. S. R. AND SUN, C. T. (1995), “Neuro-fuzzy modeling and control”. Proceedings of the IEEE, March, 1995. IBID. (1997), Neuro-Fuzzy Computing and Soft Computing. Prentice Hall. KOSKO, B. (1993), Fuzzy Thinking: The New Science of Fuzzy Logic, Hyperion. MAMDANI, E. H, AND ASSILIAN, S. (1975), “Un experimento en la síntesis lingüística con un controlador de lógica difusa”. International Journal on Man-Machine Studies, vol. 7/1, pp. 113. IBID. (1976), “Avances en la síntesis lingüística de los controladores difusos”. International Journal on Man-Machine Studies, vol. 8, pp. 669-678. IBID. (1977), “Aplicaciones de la lógica difusa para el razonamiento aproximado utilizando la síntesis lingüística”, IEEE Transactions on Computers, vol. 26/12, pp. 1182-1191. RUSSELL, B. (1988), “Vagueness”. Texto leído ante la Sociedad de Jowett, Oxford, 25 de noviembre de 1922. Publicado por primera vez en The Australasian Journal of Psichology and Philosophy, 1 (junio de 1923, pp. 84-92). Este texto puede también ser encontrado en sus Collected Papers, vol. 9: Essays on Language, Mind and Matter 1919-26, London: Routledge.

— 125 —

Ángel Garrido SUGENO, M., “Fuzzy Measures and Fuzzy Integrals” (MM Gupta, Saridis GN, y Gaines BR, editores), Fuzzy Automata and Decision Processes, pp. 89-102, North-Holland, NY, 1977. IBID. (1985), Industrial applications of Fuzzy Control. Elsevier Science Publ. Co. VELARDE, J. (1996), “Pensamiento difuso, pero no confuso: de Aristóteles a Zadeh y vuelta”. Psicothema, vol. 8/ 2, pp. 435-446. WILLIAMSON, T. (1994), Vagueness. London: Routledge. YAGER, R. (1980), “Sobre una clase general de conectivas difusas”. Fuzzy Sets and Systems, 4, pp. 235-242. ZADEH, L.A. (1965), “Fuzzy Sets”. Information and Control, vol. 8, pp. 338-353. IBID. (1973), “Esbozo de un nuevo enfoque para el análisis de sistemas complejos y los procesos de toma de decisiones”, IEEE Transactions on Systems, Man, and Cybernetics, vol. 3/1, pp. 2844. IBID. (1975), “El concepto de una variable lingüística y su aplicación al razonamiento aproximado, partes 1, 2 y 3”. Ciencias de la Información, vols. 8, pp. 199-249 y pp. 301-357; 9: pp. 43 -80. IBID. (1988), “Fuzzy Logic”, Informática, vol. 1, N ° 4, pp. 83-93, 1988. IBID. (1989), “La representación del conocimiento en lógica difusa”. IEEE Transactions on Knowledge and Data Engineering, vol. 1, pp. 89-100.

— 126 —

Capítulo 20.

Programa para la UNED en Radio 3:

Ángel Garrido & Piedad Yuste

LÓGICA Y COMPUTACIÓN

INTRODUCCIÓN: Desde sus primeros tiempos, los humanos han ido elaborando y mejorando procedimientos para la computación, y esto es cierto ya desde los mismos orígenes, como es el caso de Mesopotamia, o de las más modernas derivaciones de las Matemáticas, como es el campo de la Inteligencia Artificial. Para hablarnos de estos temas, hemos traído a los profesores Piedad Yuste y Ángel Garrido, de las Facultades de Filosofía y de Ciencias de la UNED, respectivamente. Empezaremos con Piedad Yuste. Como buena especialista en esa parte del saber de los mesopotamios, ¿qué nos puedes decir al respecto?

(Habla Piedad Yuste)

Las diversas culturas asentadas en Mesopotamia fueron precursoras en las artes de la computación y la agrimensura, origen respectivamente del álgebra, la aritmética y la geometría. Afortunadamente, estas civilizaciones nos han dejado miles de tablillas de

— 127 —

Ángel Garrido

arcilla en las que podemos identificar textos matemáticos muy variados: desde registros contables procedentes de las donaciones realizadas a los templos, pago de impuestos a la corona, reparto de bienes, medición de superficies, estimación de volúmenes, y lo que es más interesante para el tema que nos ocupa, métodos de cálculo, tablas numéricas, sistemas de numeración, etc. Toda una gama de ejercicios prácticos y manuales escolares (no teóricos) que descubren de qué manera pudo comenzar y desarrollarse esta ciencia. Con el paso del tiempo, y ya en la Grecia Clásica, la computación fue considerada una ciencia menor, al ser materia utilizada por comerciantes y mercaderes, y consistir, principalmente, en un conjunto de reglas prácticas con las que resolver cuestiones surgidas en la actividad diaria. La lógica, en cambio, desempeñó un papel fundamental desde sus inicios en la Escuela de Megara; cultivada después por Aristóteles - el cual dedicó seis obras a asuntos relacionados con la misma - Estoicos, etc. Computación y Lógica fueron conocimientos no afines, cultivados por sectores muy distintos de la población y enseñados en ámbitos diferentes; las escuelas de ábaco, por una parte y la universidad, por otra. Hoy en día esto ha cambiado mucho, como nos va a explicar a continuación el profesor Garrido.

Respuesta: Está claro que la ciencia actual se fundamenta en la Lógica, que es su base más importante. Y como se ha ido diversificando y volviendo cada vez más compleja, con el surgimiento de la Computación, tenemos nuevas lógicas, como las llamadas no-clásicas, de gran aplicación en Inteligencia Artificial, y muy especialmente, en la Fuzzy Logic, o Lógica Difusa. Son muy utilizadas para el tratamiento de problemas y datos con la presencia de incertidumbre. Dichos nuevos sistemas fueron desarrollados desde las primeras décadas del siglo XX, partiendo de algunas de las regiones (que luego, fueron naciones) del antiguo Imperio Austro-Húngaro; como sería el caso de Polonia y de su Escuela de Lvóv-Varsovia, la cuna de las lógicas multivaluadas, con personajes de la talla de Jan Lukasiewicz o Alfred Tarski. Porque este es el modo del razonamiento humano y nos permite conseguir una sutileza y una adaptabilidad de la que carecía el mundo bivaluado, de blanco y negro, introduciendo para ello toda la escala de grises. Luego sucede también que ha ido encontrando múltiples aplicaciones industriales (sobre todo, en el Japón), que vienen siendo de gran éxito comercial. Tal es el caso de su labor de mejora de los termostatos, de las cámaras fotográficas, de lavadoras, o de los microondas, de los frenos ABS de los coches, en robótica, etc.

Pregunta: De entre todas las épocas, recientes o no, de la historia de la humanidad, una de las más esplendorosas, sin duda, ha sido esa de la Centroeuropa de la primera mitad del siglo XX. Y lo ha sido en todos los aspectos de la cultura, como el científico, el literario, el filosófico, el artístico, etc.

— 128 —

Los avances de la Inteligencia Artificial

¿Puedes contarnos algo acerca de cómo fue posible todo aquel florecimiento, que luego de pronto se eclipsó?

Respuesta: Para poder responder a esta pregunta, hemos de remontarnos en el tiempo y relatar algo de la historia de lo que fuera ese gran Imperio Austro-Húngaro (IAH, en acrónimo), que le sirvió de caldo de cultivo. Su extensión era considerable: lo que hoy equivale a un puñado de países, por lo que luego se verá. También sus lenguas eran diversas, según la región: polaco, checo, serbio, ruteno, italiano, alemán, rumano, húngaro, etc. Formaban, pues, un mosaico bastante heterogéneo, que precisamente por eso, al estar ya infectado por las corrientes nacionalistas que venían del movimiento romántico, saltó por los aires tras soportar una amarga derrota en la Gran Guerra, esa que nosotros llamamos la Primera Guerra Mundial. A partir de entonces, esas piezas del `puzzle´ se fueron disgregando, separándose del conjunto, quedando así este muy mermado, reduciéndose casi a lo que ahora son Austria y Hungría. Pero desde allí radiaron muchas de las mentes y teorías más importantes del siglo.

Pregunta: ¿Cuál era digamos la cabeza de tan gigantesco cuerpo? Porque se habla mucho de diferentes ciudades que hicieron como de polos de atracción en el Imperio durante ese tiempo. Pero ¿cuáles eran estas, y de entre todas ellas, cuál era la esencial?

Respuesta: No cabe duda que a la cabeza de tan gran Imperio estaba la macro-ciudad (para la época) de Viena, ya que en esa época era no sólo la capital intelectual y artística, sino también financiera, de Europa. Hubo otras ciudades importantes, como es el caso de Budapest, que llegó a tener la capitalidad compartida con Viena, en aquel Reino bicéfalo de Austria-Hungría. También notable fueron Praga, Varsovia, o Lvov (Lemberg, en su nombre alemán; conocida entonces como `la pequeña París´). De allí provendrán luego muchos de los mejores científicos y pensadores (en buena parte, judíos) que llevaron el saber a los campus ingleses y americanos. Tal es el caso de János Neumann (John von Neumann, en los Estados Unidos), o de Léo Szilard, que procedían de Budapest, o de Alfred Tarski, el ayudante de Jan Lukasiewicz, procedentes de las Universidades de Lvov y de Varsovia; de Norbert Wiener, o de Stanislaw Ulam, entre otros. Hemos nombrado algunos de los más notables, pero también debemos citar aquí al moravo Kurt Gödel, quien enunció y probó, en 1931, sus afamados Teoremas de — 129 —

Ángel Garrido

Incompletitud, según los cuales si un sistema suficientemente rico para expresar la aritmética es consistente, entonces no es completo, y si es completo, no es consistente. Dicho de otro modo: Que no existe una axiomatización completa y computable de teorías de primer orden de los números naturales, esto es, que no cabe disponer de una lista razonable de axiomas a partir de los cuales se puedan demostrar exactamente todas las afirmaciones verdaderas de la teoría de números. O al austriaco Ludwig Wittgenstein, tan loado y comentado luego. Fue el discípulo en Cambridge de Bertrand Russell, aunque con el tiempo disentirían en muchos aspectos. Wittgenstein tuvo inicialmente que ver con el Círculo de Viena, cuyos miembros (especialmente, su fundador, Moritz Schlick) le profesaban auténtica veneración. De hecho, su obra Tractatus Logico-Philosophicus era tenida por ellos como una especie de “Biblia” o vademécum del grupo.

Pregunta: Has mencionado la ciencia y las diversas ramas artísticas, así como el pensamiento filosófico. ¿Puedes decirnos qué figuras sobresalieron en ese panorama tan rico, durante ese periodo del que hablamos; por ejemplo, en Filosofía o en Literatura?

Respuesta: Son tantas que sería imposible referirnos a todas, ni siquiera a las más importantes, en un tiempo tan reducido como este del que disponemos. Pero vamos a intentarlo, aun a costa de dejarnos algunas de ellas `en el tintero´, como suele decirse. Por lo que respecta a la Literatura, tenemos autores de lo más notable, muchos de los cuales (por cierto) habían estudiado Filosofía y eran de origen o ascendencia judía. Tal es el caso del famoso autor praguense Franz Kafka. Su mundo era oscuro y opresivo, un reflejo de cómo percibía el mundo exterior. Una imagen paradigmática es la del personaje Gregorio Samsa, de su famoso relato La metamorfosis. Pero tuvo este autor muchas otras obras notables, como son su famosa Carta al Padre, o aquellas otras inconclusas, entre las que caben citarse El proceso, El castillo o La muralla china. O el caso de Robert Musil, un ingeniero que escribiría algunas de las mejores creaciones literarias del pasado siglo, como la inacabada El hombre sin atributos. También es muy interesante su juvenil obra titulada Las tribulaciones del joven estudiante Törless. O la producción de Hermann Broch. También filósofo y escritor, el cual tradujo a Platón y fue autor (entre otras) de una obra, La muerte de Virgilio, de la cual dijera Thomas Mann que se trata “del poema en prosa más importante escrito en lengua alemana”. También es importante su trilogía de Los Sonámbulos, donde retrata la — 130 —

Los avances de la Inteligencia Artificial

decadencia del mundo que le rodeaba, que iba directamente hacia su autodestrucción total. Otro autor importante de aquellas naciones fue Jozef Roth, también de orígenes hebreos, y que no debe confundirse con el casi homónimo Philip Roth, autor norteamericano (y también judío) de El lamento de Portnoy. Entre las obras escritas por nuestro Jozef Roth estaría La Marcha Radetzky, que nos muestra también la irremisible decadencia del imperio; en este caso, entre las fanfarrias y los desfiles militares. De hecho, el título es una alusión irónica al general (Radetzky) que reprimió los movimientos nacionalistas, en una sociedad que idolatraba a un ejército que contaba por derrotas el número de sus batallas. Ya sabemos aquello que se decía: que el ejército austro-húngaro tenía mejores directores de bandas militares que generales. Cabe mencionar creadores de otros ámbitos literarios, como el poeta checo Rainer María Rilke, el mejor seguramente de los de lengua alemana de toda la primera mitad del siglo XX. Fue durante unos meses el secretario en París del escultor Auguste Rodin. En dicha ciudad escribió Los cuadernos de Malte Laurids Brigge, novela escrita a modo de diálogo. Sus grandes temas son el Amor y la Muerte. Y en Trieste compuso Las Elegías del Duino. En lo relativo a la Filosofía, esta creció fuertemente entrelazada con las Ciencias, especialmente con la Física y las Matemáticas. No debemos olvidar que se formaron varios grupos importantes de pensadores, como el muy renombrado Wiener Kreis (o Círculo de Viena), creado por Moritz Schlick, un físico y filósofo, profesor asesinado por un antiguo alumno nazi. A este grupo pertenecieron Philip Franck, Rudolf Carnap y otros (aunque se dice que también se integrara en él Ludwig Wittgenstein, no parece que esto sea del todo cierto, pues aunque sus miembros tuvieran cierta veneración por su Tractatus Logico-Philosophicus, especialmente Schlick, y Wittgenstein acudiera a alguna de las reuniones, no pareció hacerles demasiado caso, ni participar de sus opiniones). También existió por aquel entonces el mucho menos conocido Círculo de Berlín, l cual podemos decir que giraba en torno a la figura del físico y filósofo de la ciencia alemán Hans Reichenbach. O en el caso de Polonia, con la aparición de la impresionante Escuela de LvovVarsovia (ELV, en acrónimo), concentrada en la filosofía anti-irracionalista, científica y rigurosa, con caracteres propios que la distinguen claramente del Círculo de Viena antes mencionado. Provenía en realidad la ELV de esa línea de pensamiento centroeuropeo inaugurada por G. W. Leibniz, luego seguida por Bernardo Bolzano, y tras este por Francisco Brentano, uno de cuyos discípulos, Kazimierz Twardowski, fundará dicha escuela de pensadores. Constituyendo toda una tradición admirable, ya que sus aportaciones a la Lógica y a las Matemáticas han sido de las más notables de toda la historia. Basta mencionar a Stefan Banach, el padre y mayor cultivador del Análisis Funcional, en cuyos teoremas, resultados y paradojas aparece con frecuencia su nombre. O citar también merecidamente a Jan Lukasiewicz, el creador de las Lógicas Multivaluadas, teorías que luego han dado pie a las Lógicas Difusas, introducidas por el — 131 —

Ángel Garrido

ingeniero azerí Lofti A. Zadeh, técnicas que posteriormente tantas aplicaciones y tanto éxito han tenido. Quien inicialmente fuera el ayudante de Jan Lukasiewicz, el más conocido Alfred Tarski, formó en la Universidad de California uno de los grupos más potentes que haya habido nunca en Lógica Matemática; al menos, durante el pasado siglo, que se ramifica por lógicos tan brillantes como Alonzo Church, Alan Mathison Turing, Stephen Cole Kleene, etc. La `Teoría Semántica de la Verdad´ de Tarski es, sin duda, uno de los mayores logros científico-filosóficos de todo el siglo XX. Otros alumnos del antes mencionado Kazimierz Twardowski siguieron por otros derroteros, consiguiendo también gran renombre. Tal sería el caso de Sigmund Freud, el padre del psicoanálisis (recordemos que también Francisco Brentano cultivó la Psicología; su punto de vista era el de la `intencionalidad´). Otro pensador de gran relieve fue Edmund Husserl, el padre de la Fenomenología, para desarrollar la cual se inspiró precisamente en las ideas de Franz Brentano. Y entre los descendientes filosóficos de Husserl, podemos mencionar a un Maurice MerleauPonty, a Martin Heidegger o a Jean Paul Sartre, influyendo también sobre gran parte del pensamiento contemporáneo. En la ELV hubo varias generaciones, que se fueron sucediendo a lo largo del `interbellum´, o periodo de entreguerras (que va desde 1918 hasta 1939); en algunos casos, conectadas con los grupos de otras universidades, como la de Cracovia. De ellas sobresalen pensadores como Roman Ingarden (luego mentor de Karol Wojtyla, quien fuera doctor en Filosofía y luego Papa), o Wladyslaw Tatarkiewicz, gran historiador de la Estética, Stanislaw Lesniewski, Tadeusz Kotarbinski, Mordechaj Wajsberg, Stanislaw Jaskowski, Jerzy Slupecki, Helena Rasiowa, Roman Sikorski, etc. Como decíamos antes, otro grupo notable se formaba en torno a la Universidad Jagelloniana de Cracovia. Sería el conocido como Círculo de Cracovia. Este grupo trabajaba ya desde un punto de vista que estaba más dentro de la tradición católica y tomista, pero la novedad es que trataba de incorporar –modernizándolo- las nuevas herramientas de lo que entonces era conocido como `logística´. Por lo que sus miembros fueron muy criticados por los más ortodoxos y tradicionales elementos de la Iglesia católica polaca. Puede mencionarse aquí al Padre Jan Salamucha, lógico e historiador de la filosofía, eliminado por los nazis en uno de sus campos de concentración. También a Drewnowski. Pero el más notable sería, sin duda, un longevo dominico, el Padre I. M. Bochenski, que continuó la línea de historiador de la filosofía, con el soporte de las nuevas lógicas, que ya había sido inaugurado por Jan Lukasiewicz. Fue profesor en la Universidad suiza de Friburgo, y escribió muchas obras notables. Y no fue este el único grupo de pensadores en Centroeuropa, puesto que por ejemplo, en tierras que entonces eran de una densa población judía (como era el caso de Lvov), estaba también la Universidad Católica de Lublín, que dio lugar a otro famoso Círculo. Pregunta:

— 132 —

Los avances de la Inteligencia Artificial

Muy bien. Hasta ahora hemos ido repasando brevemente los filósofos, encontrándose estos muy relacionados con las corrientes científicas del momento. Pero ¿no hubo allí y entonces una gran ebullición dentro de las corrientes artísticas de ese periodo, sea esto cierto para la Música o para las otras artes?

Respuesta: Sin duda. Porque es bien conocida la afición musical de Viena, de su pueblo, y en tiempos, de su corte, pero también de cada una de las nacionalidades que componían ese complejo `puzzle´, heterogéneo y mal encajado, que entonces componía el IAH; muchas de ellas, como la húngara, conservaban una gran tradición de música popular, la cual trataron de conservar personas como Zoltan Kodaly o Béla Bártok. Pues muchos han sido los grandes compositores de aquellas tierras, por la tradición largamente mantenida y por la afición que todas las clases sociales allí le dispensaban a este arte, dependiendo –claro está- de las posibilidades económicas y del tipo de composición musical. Los salones de la alta sociedad y las viviendas particulares de las `gentes de posibles´ rivalizaban por llevar a sus `veladas´ intérpretes o grupos que les aliviaran el paso del tiempo y les permitieran crecer en relevancia social. Se solían preferir para ello las llamadas `piezas de bravura´, por su especial dificultad, teniendo curiosamente en menos las de un Ludwig van Beethoven, o las de Wolfgang Amadeus Mozart, por considerarlas demasiado sencillas. Por su parte, era bastante apreciado Franz Schubert, y en el otro extremo, era totalmente aborrecido Richard Wagner y su música, que además, era demasiado aparatosa para tan pequeños recintos. Y tanto era el aprecio que mostraban por la interpretación de composiciones musicales que hubo de publicarse una normativa en las ciudades que restringiera su ejecución a partir de una hora de la noche considerada `razonable´. Otra rama artística de logros notables fue la de la Arquitectura, generalmente siguiendo la corriente del llamado Jugendstil, o Art Nouveau. Un claro ejemplo fuera entonces el húngaro Ödon Lechner. Una enumeración de todos los nombres sería imposible y estaría fuera de este lugar, no disponiendo de tiempo para ello.

Pregunta: Y volviendo al tema ya iniciado, ¿cuál sería el estado actual del conocimiento de la Escuela de Lvov-Varsovia y de sus aportaciones? ¿Qué se ha escrito en los últimos tiempos acerca de ella? ¿Dónde podemos completar esa información?

Respuesta: — 133 —

Ángel Garrido

En España la recepción de las nuevas corrientes filosóficas ha venido siendo muy irregular, cuando existía. Pues en un principio, la Guerra Civil dejó a la Universidad sin cabezas pensantes, cayendo muchas veces, para el caso de la Filosofía, en manos de escolásticos y tomistas. Luego se fueron recibiendo lentamente y con suspicacia algunas de ellas, como las del neopositivismo o las del llamado `diamat´ (por materialismo dialéctico); en este caso, con la pesada rémora de nuevos dogmatismos. Algunas obras extranjeras fueron siendo poco a poco traducidas, como fuera el caso de la revista o de los cuadernos Teorema, donde apareció “Para una historia de la lógica de enunciados”, de Jan Lukasiewicz, una breve obrita de la que dijo Heinrich Scholz que era lo mejor que se había escrito nunca sobre la historia de la lógica. Y más adelante, hicieron bastante por dar a conocer las nuevas ideas pensadores como Javier Muguerza (quien publicara en Alianza los dos primeros tomos, correspondientes a una antología de textos, que aspiraba a ser de cinco volúmenes y que finalmente no se continuó), o Alfredo Deaño, quien aparte de sus atractivas clases de Lógica en la Universidad Autónoma de Madrid, publicó y comentó los Estudios de Lógica y Filosofía, de Jan Lukasiewicz, en la editorial `Revista de Occidente´. Luego su prematura muerte malogró lo que prometía llegar a ser un nuevo renacer de estos estudios en España. Tal y como había sucedido con otros pensadores españoles anteriores, como Miguel Sánchez-Mazas, gran estudioso de Leibniz y continuador de sus investigaciones acerca de la `characteristica universalis´, quien hubo de emigrar, condenado al ostracismo por sus ideas socialistas y su antifranquismo. Otro caso parecido sería el de Manuel Sacristán, quien por su ideología, de tipo marxista, no pudo conseguir la cátedra de Madrid, desde la cual difundir sus conocimientos lógicos, no fuese a contaminar a la juventud con sus ideas comunistas. Más adelante ha habido otros profesores de Lógica y Filosofía del Lenguaje (disciplina hoy muy entrelazada con la anterior); algunos de ellos muy notables, como sería el caso de Julián Velarde, de la Universidad de Oviedo, o de Juan José Acero (discípulo de Jaako Hintikka), en la de Granada, etc. Hay grupos de investigadores `punteros´ (principalmente, en torno a las Universidades de Barcelona, o al Instituto de IA de esa ciudad, perteneciente al CSIC, o en la de Granada, o en la UPNA), muy relacionados con el estudio de la Lógica Difusa y de sus aplicaciones, como es el caso de Humberto Bustince, o el de Miguel Delgado Calvo-Flores. Hubo también el caso muy reseñable de una tesis doctoral sobre la ELV de un sacerdote español, el P. Pablo Domínguez Prieto, que apareció luego publicada como Indeterminación y Verdad. Pero su vida se malogró en el monte Moncayo, en una desafortunada caída, cuando estaba practicando su más amado deporte: el de escalar

— 134 —

Los avances de la Inteligencia Artificial

nuevas cumbres. Hay un librito suyo, titulado Lukasiewicz, en Ediciones del Orto, que puede ser de gran interés informativo.

Pregunta: Y nos han dicho que tú mismo has terminado presentando una tesis doctoral sobre estas cuestiones, y que luego has publicado tres libros en los últimos tiempos. ¿Nos puedes informar algo más sobre esto?

Respuesta: Efectivamente. Llevo muchos años estudiando estos temas, dándoles más y más vueltas, mirándolos desde distintas perspectivas. Y como consecuencia de todo ello, me puse a elaborar mi conocida nueva tesis doctoral, tratando en ella de la ELV y en especial, de una de sus figuras más señeras, la del pensador polaco ya mencionado, Jan Lukasiewicz. Los ánimos y orientaciones iniciales me vinieron del sabio y tristemente desaparecido profesor Quintín Racionero, y luego, reanudamos esos esfuerzos, bajo la dirección del catedrático Diego Sánchez Meca y de la tuya propia, Piedad. Esa tesis se presentó a finales de 2013 y fue defendida a comienzos de 2014, con el nombre de “Filosofía y Matemáticas de la Vaguedad y de la Incertidumbre”. Con un tribunal de primeras figuras de la Lógica y del pensamiento español; como Julián Velarde, Juan José Acero, Eloy Rada, Gerardo López Sastre y Alejandro Escudero. Obteniendo muy buena acogida, con la calificación de Sobresaliente Cum Laude por Unanimidad, y siendo entonces propuesto para el Premio Extraordinario, que me fue concedido unos meses después. Y los propios componentes del Tribunal me pidieron que dado lo interesantes y desconocidos que eran estos temas en España, lo debía publicar, corregido y mejorado, cuanto antes. Así lo hice, dando lugar a tres nuevas publicaciones de la Editorial Dykinson, que han obtenido una notable difusión. Se trata de: - Lógicas de nuestro tiempo, editada en 2014. - Lógica Aplicada. Vaguedad e Incertidumbre. También del 2014. - Lógica Matemática e Inteligencia Artificial, ya del 2015.

Son obras bastante breves, de en torno a las doscientas páginas, que se pueden adquirir incluso por la red, aparte de estar disponibles en las buenas librerías, y que son

— 135 —

Ángel Garrido

de una lectura fácil y agradable (o al menos, eso esperamos). Se han publicado en rústica, para que el precio fuera más asequible. Y se pueden leer de un modo independiente. La primera de estas obras es más sobre las raíces histórico-filosóficas. La segunda está más relacionada con las matemáticas y las nuevas teorías de los conjuntos y de las medidas difusas. Y la tercera está bastante más vinculada con las relaciones que guardan entre sí los campos más en ebullición de la ciencia actual, como la Inteligencia Artificial y la Neurociencia. También se abordan las conexiones con la Relatividad o con la Mecánica Cuántica.

Pregunta: Nos queda todavía una pregunta: ¿qué relación guardan entre sí la Lógica y la Computación? ¿Qué evolución histórica llevó a la primera a ser una herramienta fundamental de las Ciencias Computacionales?

Respuesta: Como sabemos, la Lógica proviene de tiempos bien antiguos, incluso anteriores al precursor por antonomasia, que fue el filósofo griego Aristóteles. Luego, ya en tiempos medievales, aparecieron grandes comentaristas de sus obras, como Averroes y Santo Tomás de Aquino. Pero va a ser ya en el siglo XIX cuando la lógica matemática eche sus raíces, combinada con la nueva teoría de conjuntos. Floreciendo ésta con los trabajos de Georg Cantor. Y en el caso de la Lógica, los de Boole o Frege. El paso al siglo XX resultará crucial para estos campos. Pues se pensaba que todas las Matemáticas podían ser formalizadas y sus teoremas probados. Pero esa corriente de opinión (llamada del formalismo, cuyo principal exponente fue Hilbert) quedó frustrada ante la aparición de las primeras paradojas en las teorías conjuntistas, como la famosa de Bertrand Russell (la del conjunto de todos los conjuntos que no se contienen a sí mismos: si se contiene, no se contiene y viceversa). Esto hizo temblar todos los fundamentos de esta ciencia, que debieron replantearse, proponiendo nuevas axiomáticas. Lo cual vino a entrecruzarse con alguna de las cuestiones planteadas por Hilbert, como el Entscheidungproblem, o problema de la decisión. Trabajaron para resolverlo Alonzo Church y Alan M. Turing. La máquina teórica planteada por este será el modelo paradigmático en computación. Desde entonces se han ido requiriendo más y más nuevas herramientas lógicas, ante el desafío de nuevas áreas, como la Inteligencia Artificial o la Robótica. Para el diseño de

— 136 —

Los avances de la Inteligencia Artificial

las Redes Neuronales, de los Algoritmos Genéticos, etc., se va a precisar del apoyo de sistemas lógicos cada vez más sofisticados. Ahí es donde confluyen Lógica y Computación, como me preguntabas.

Conclusión: Muchas gracias, Ángel, por tus interesantes aportaciones, que nos sirven para esclarecer un poco más todos estos temas, pues no siempre son lo suficientemente bien conocidos, aunque sean muchos –y cada vez más, por una razón o por otra otra- quienes los comentan, ya que son de verdad cuestiones fascinantes, que por ello forman parte de la corriente que impera en los últimos tiempos.

Comentario final: El problema está en que para entender estos temas hay que tener una base matemática y física algo importante, que no todos por desgracia poseen. Pero aun así (o quizá por ello) debemos tratar de divulgarlos más y más.

Muchas gracias por todo.

— 137 —

Capítulo 21.

CIENCIA ORIENTAL VS. CIENCIA OCCIDENTAL

Entrevista al Profesor Doctor Ángel Garrido Bullón (de la Facultad de Ciencias de la UNED), para Radio 3 Fue realizada por la Profesora Dra. María Teresa Román López el día 2 de Diciembre de 2014

Decía Bertrand Russell que: “Hay dos clases de ciencia: la vieja, que es la oficial, y una nueva ciencia, que la mayoría de los viejos miran con horror. El resultado es una batalla constante entre las mentes viejas que admiran la ciencia de sus mayores, y las más jóvenes, que aprecian el valor del trabajo de sus coetáneos. Hasta cierto punto, esta lucha es útil, pero pasado cierto punto, se vuelve desastrosa.” Este lúcido comentario, muy típico del matemático y filósofo inglés, parece hecho a la medida para la polémica que constituye una de las cuestiones que vamos a comentar. Pocas veces se han dado tan amargas e injustas descalificaciones como las que se produjeron con la aparición y el despliegue de las Lógicas No-Clásicas, y muy en particular, de la Lógica Difusa. Pero es un hecho que en la actualidad su reconocimiento es cada vez mayor, y su presencia en los medios de comunicación, puesta ya fuera de duda su utilidad y el interés desde todos los puntos de vista. Vamos a tratar de dar una visión general de la situación actual de todas estas investigaciones, tanto en Oriente como en Occidente, comparando sus distintas aproximaciones.

— 138 —

Los avances de la Inteligencia Artificial

1.ª Pregunta: ¿Por qué hemos traído aquí esa aparente contraposición entre Oriente y Occidente? ¿Es que son no sólo distintas esas tradiciones, sino que ocurriría algo más: que son irreconciliables por esencia e incluso contradictorias entre sí?

Respuesta: Como bien sabemos, ciertos países asiáticos se están convirtiendo en las potencia geoestratégicas y culturales más poderosas del planeta. Y sin embargo, existen muchos prejuicios y desconocimiento de sus culturas milenarias. A mucha gente le parece que nada de lo que allí piensan puede considerarse “filosofía”, que eso es algo exclusivo de Occidente, y que lo oriental es a lo sumo clasificable como meras `religiones´, casi supersticiones. Claro está que se trata de cuestiones semánticas, de qué entendemos por tales términos. Tal vez fuera lo más razonable adoptar una posición intermedia, hablando, por ejemplo, de una `filosofía religiosa´. Ya sabemos que en el caso concreto del budismo, el tema de Dios y de su existencia es algo considerado como irrelevante; allí, en su lugar, se referirán a la nada, a la vacuidad, o al estado del nirvana. Resultan con ello dos posturas bastante contrapuestas, la del budismo y la del cristianismo; tanto es así que se afirma que nadie puede profesar ambas creencias a la vez. Hay muchas diferencias entre las dos, porque por ejemplo, en las escuelas orientales no vamos a encontrar ni dogmas de fe, ni clero fijo, ni sacramentos, etc.

2.ª Pregunta: Nos has comentado que en ciertos ambientes se considera que esto no es en realidad filosofía, que ni es verdadero pensamiento ni es en absoluto serio, sino que sería una especie de negocio o de montaje comercial, a veces muy rentable (desde el punto de vista `cramatístico´). ¿Puedes darnos más detalles sobre ello?

Respuesta: Es una buena pregunta, pues se trata de una cuestión bastante `vidriosa´ y no del todo resuelta. En lo que se conoce como `la academia´, esto es, en los círculos universitarios y todo lo que les rodea, muchos son los que opinan, tanto en Europa como en los EE. UU (y quizá, muy especialmente, en España) que la única y auténtica filosofía es la que arranca de la tradición griega. Por lo que los textos orientales son tenidos en — 139 —

Ángel Garrido

menos, son sistemáticamente infravalorados, etiquetándolos como algo anecdótico, casi folklórico, incluso más relacionado con la magia, el esoterismo, o con los ropajes naranjas de los `Hare Krishna´. Pero esto, además de falso, es terriblemente injusto. Se debe a prejuicios de tipo `historicista´, incurriendo en el razonamiento auto-epistémico, del tipo: “Si fuera verdad, yo lo sabría. No lo sé, luego es falso”. Tan filosofía y tan respetable se ha de considerar una como la otra. Corresponderían tan sólo a dos distintas (complementarias, pero no necesariamente contradictorias) visiones del mundo.

3.ª Pregunta: ¿Es que los orientales tienen un cerebro distinto (o es que les funciona de distinto modo) que el nuestro? ¿Acaso parten de algo que ya originalmente les venga dado, y que sería distinto de lo que se supone que constituye nuestro punto de partida occidental?

Respuesta: No es aceptable una idea de ese tipo, pues esto significaría caer en un cierto predeterminismo biológico. Si tomamos, por ejemplo, un niño oriental desde muy pequeño y le educamos en Occidente, al final va a tomar las decisiones como nosotros. Es decir, no vienen los niños provistos de una especie de programa preinstalado, o de un disco duro que les obligue, pues le habrían de obedecer sin más remedio, privados de libre albedrío. No marcan los genes en este sentido, por lo que no tiene sentido especular con la existencia de un `cerebro oriental´. Aquello que los distingue son los factores culturales y los de tipo social. Esto es lo que se va grabando en su mente, y les lleva a generar unas pautas o patrones de conducta concretos: es a eso a lo que podríamos denominar `oriental´. No obstante, sí que influye haber sido formado más tarde en uno u otro de ambos mundos. Así, el profesor japonés Kase y la profesora Slocum estudiaron el modo de abordar los procesos de toma de decisiones. Vieron que los occidentales necesitan un marco general de referencia para luego poder desarrollar los detalles, mientras que los orientales empiezan cuidando los detalles y luego se ocupan de la estructura global. O dicho de otro modo: que los orientales van desde lo particular hasta lo general, mientras que los occidentales parten de tener un esquema mental y luego, ya pueden descender a los detalles, considerados como elementos secundarios. En Occidente, quizá por la influencia cartesiana, se parte de la previsión y de la planificación, mientras que los orientales confían más en la intuición y en la improvisación, aparte de que buscan aprovechar ciertas argucias sociales. Por poner un ejemplo, en Occidente se evalúan teóricamente diversas propuestas, o alternativas, buscando cuál sería preferible. Pero los orientales las van probando, a ver cuál funciona mejor. Por lo que se puede decir que el occidental funciona sobre ejemplos, mientras que el oriental lo suele hacer mediante metáforas. Es que el pensamiento de Occidente resulta — 140 —

Los avances de la Inteligencia Artificial

más deductivo, y en el de Oriente se toman más en cuenta el carácter cambiante de las circunstancias.

4.ª Pregunta: ¿Son muy diferentes, entonces, la Ciencia Occidental y la Oriental? ¿Acaso se puede hablar de dos ciencias distintas, al considerar sus `versiones´ de cualquiera de sus ramas? ¿Se trata de dos modos de enfocar la realidad, de pensar nuestro mundo, o bien se trataría de una misma o similar perspectiva, pero adjudicándole en un caso u otro diversos grados y matices?

Respuesta: Ciertamente, sí, pero cada vez menos distinta, debido posiblemente a fenómenos como el de la globalización. Pues incluso en el pensamiento oriental hay cada vez más interés (lo cual no siempre es recíproco) por las ideas que rigen el Occidente. Son, pues, un camino de ida y vuelta, pero digamos que más sería de ida que de vuelta. Además, habría que distinguir diciendo: según en qué ciencias y en qué épocas. Ya sabemos que en la Antigüedad, los inventos de la China precedieron con mucho a los occidentales. Muchos de ellos se conocieron a través de las vías comerciales, como la Ruta de la Seda y el veneciano Marco Polo. También hubo luego un trasvase de ciencia india, esta vez transmitida por los árabes. Luego se produciría una cierta desconexión entre ambos mundos, aunque nunca llegó a ser total, estando producida, entre otras razones, por aquel retrotraerse hacia sus orígenes experimentado por los japoneses, rechazando todo lo occidental.

5.ª Pregunta: ¿Y cuál sería entonces la situación actual? ¿Qué puedes decirnos sobre lo que hoy se estudia, lo que se trabaja e investiga, etc., sobre estos temas, que a veces atemorizan, aunque sólo sea por el mero hecho de verlos tan especializados que más bien recuerdan a los relatos de ciencia-ficción?

Respuesta: En el campo que más conocemos, el de la Inteligencia Artificial y el de su importante subdominio, la Lógica Difusa, es bien cierto que se produjo un cierto rechazo inicial, enconado, hacia las ideas propuestas por Lofti A. Zadeh, en los EE. UU.; concretamente, de los técnicos de IBM, ya que no le veían utilidad práctica alguna. Por lo que estas ideas emigraron hacia Oriente, siendo bien recibidas y fructificando en el

— 141 —

Ángel Garrido

Japón; luego, en China, Corea del Sur, etc. Allí se han venido produciendo una gran marea de aplicaciones a la tecnología, que han facilitado un fuerte empuje a todas las innovaciones niponas. Al ser contemplado este fenómeno desde Occidente, nuestros científicos intentaron coger el tren, pero ya en marcha, pues se había dejado pasar, y lo hicieron con desigual fortuna. Por ello, el control difuso de sistemas, las aplicaciones a la diagnosis y al seguimiento de patologías y tratamientos en Medicina, entre otras aplicaciones, van ganando en importancia, así que hoy nos lo encontramos como un tema cada vez más frecuente en los medios.

Pregunta 6.ª: ¿Sería entonces Zadeh el `padre´ de esta `nueva ciencia´ de la Lógica Difusa? ¿O es que se trata de un saber con orígenes mucho más remotos, que luego se habría ido diversificando, reapareciendo en realidad una vez y otra a lo largo de toda la historia del pensamiento? Respuesta: Aunque algunos le asignen a Zadeh tal `paternidad´, esto no es esto así, o no es así del todo. En cualquier caso, el mérito de Zadeh podría ser el de haberse dado cuenta de que ahí había un considerable grado de aplicabilidad y luego haber contribuido lo más posible a su difusión, contra viento y marea, dicho sea en honor a la verdad. Pero las profundas raíces de todo ello están bastante más atrás: en las Lógicas Multivaluadas, que introdujo el polaco Jan Lukasiewicz, miembro de los más relevantes de la Escuela de Lvov-Varsovia. Fue durante el periodo de entreguerras. Dichas lógicas se adaptan mejor a la realidad que la lógica clásica, que aún era la bivaluada propia de Aristóteles (hasta entonces, algo intangible, como lo era la geometría de Euclides). Para dicha lógica sólo habría dos posibilidades para todo aquello que considerásemos: o es absolutamente verdadero o es absolutamente falso, o Blanco contra Negro, o Dios o el demonio, etc. Y todo estaría a su vez muy relacionado con la aparición de la `nueva´ teoría de conjuntos, en el siglo XIX, que hoy es llamada `clásica´, para dar una nueva lógica multivaluada: la lógica “fuzzy” (o difusa). Con ella se abre la gran posibilidad de una nueva teoría de conjuntos, que supone una generalización de la anterior: sería la Fuzzy Set Theory (o teoría de los conjuntos borrosos), con grandes perspectivas en muchos campos matemáticos (como la Fuzzy Measure Theory, o de las medidas difusas), en numerosas aplicaciones tecnológicas (como las de control o la robótica), y también –no lo olvidemoscon notables implicaciones filosóficas. Para ser más justos, habría que decir que los escritos de Jan Lukasiewicz fueron luego bastante bien estudiados por el lógico norteamericano Stephen Cole Kleene, quien estaba por entonces en la Universidad de California-Berkeley, y al ser muy buen amigo de Lofti A. Zadeh, le fue dando a conocer todo lo que sabía acerca del tema, mientras que Zadeh, digamos que en compensación, le iba ilustrando sobre cuestiones de ingeniería electrónica, ya que era su especialidad como profesor. De esa `conexión´, u oportuno

— 142 —

Los avances de la Inteligencia Artificial

trasvase intelectual, provendría en realidad toda la conocida `revolución del pensamiento´ que ha supuesto para todos nosotros la Lógica Difusa.

Pregunta 7.ª: ¿Cuál es la situación actual de estos estudios e investigaciones en Europa, y en particular, cómo estamos en nuestra patria? ¿Estamos tan atrasados como siempre, igual que en muchas otras materias?

Respuesta: El `estado del arte´ (como suele llamarse) en Europa va mejorando mucho en estos campos. Adquiriendo cada vez un mayor relieve internacional, pero siempre desde una vertiente más matemático-filosófica que la que tienen (por ejemplo) en el Japón, donde ha predominado más la tendencia `ingenieril´, o aplicada. Pero se debe hacer resaltar también que cada vez avanza más en la China, en la India o en Corea del Sur, con una inclinación en este caso más hacia lo teórico y los fundamentos que la nipona. Son muchos allí los departamentos, facultades, tesis doctorales, etc., que se dedican a estos temas. Se habla de unos treinta mil investigadores sólo en China, sobre estos campos del saber. Y serían muchos más, si se ampliase la perspectiva considerada a toda la Inteligencia Artificial, en la que como subcampo la Lógica Difusa se subsume. En cuanto a España, partiendo casi de la nada, se ha ido llegando a un nivel más que aceptable, con grupos de buenos investigadores, como (por ejemplo): - Los del Centro Europeo de Soft Computing, que estaba ubicado en la localidad de Mieres (en Asturias), impulsado por el profesor Enric Trillas, un pionero en España de la Lógica Difusa. Contando entre sus miembros a investigadores notables, como el famoso japonés Michio Sugeno. - Los del Instituto de Inteligencia Artificial del CSIC, en Barcelona, con Lluís Godó y Francesc Esteva, entre otros. - En la Universidad de Granada, el grupo de Miguel Delgado Calvo-Flores. - En la UPNA (acrónimo de la Universidad Pública de Navarra), la investigación liderada por el profesor Humberto Bustince. Se trata de colectivos muy activos y bastante reconocidos internacionalmente, cada uno de ellos con autores de multitud de publicaciones. Pero lo que es un verdadero problema es ahora el de su docencia; sobre todo, en las Facultades de Ciencias, y lo que es aún más asombroso: en las de Matemáticas, donde se

— 143 —

Ángel Garrido

supone que se habría de razonar de un modo lo más consistente posible. Sin embargo, hay resistencias (por las inercias e intereses creados) a su introducción la mayoría de las veces. Y así, la Lógica se debate entre las a veces algo anquilosadas enseñanzas en Filosofía, y las crecientes, pero más arrimadas a lo `práctico´, de los informáticos, que ahora se creen dueños del campo de batalla, por la retirada de los matemáticos. Y esto sucede no sólo en el campo de las Lógicas No-Clásicas o de la Lógica Difusa, sino de un modo bastante generalizado, al ir invadiendo progresivamente las Ciencias de la Computación el “nicho ecológico” que antes era de las Matemáticas. Si a un estudiante se le dan bien estas, la propia presión social le empuja hacia la Informática, con la esperanza (a veces, vana) de que eso les reportará grandes beneficios.

Pregunta 8.ª: ¿Cómo puede obtenerse más información sobre estos apasionantes temas, que por otra parte, resultan tan actuales y motivadores? ¿Existe alguna bibliografía o material de algún otro tipo disponible, para completar toda esta información en la que nos has introducido hoy?

Respuesta: Cabe obtenerlos en alguno de los programas sobre Lógica que imparten ciertas universidades, en facultades como las de Matemáticas, Filosofía o en ciertas Ingenierías, como la de Informática. O bien a través de enseñanzas como las de los cursos de Posgrado de la UNED, sobre Lógicas No-Clásicas, que venimos impartiendo. La Bibliografía es bastante amplia, y cada vez más, si bien casi toda está en inglés. Por todo ello, y por haber venido investigando en profundidad sobre estos temas en los últimos años, hemos considerado necesaria la publicación de dos obras recientemente, una aparecida en Octubre: -

LÓGICAS DE NUESTRO TIEMPO;

y otra de aparición inminente, en Diciembre de este mismo año, el de: -

LÓGICA APLICADA. VAGUEDAD E INCERTIDUMBRE.

Ambas publicadas por la Editorial Dykinson, en rústica y a un precio bastante asequible, de 19€. Son obras muy claras y no demasiado extensas. En ellas se trata no sólo de las Lógicas Multivaluadas; entre ellas, la Lógica Difusa, sino también del Razonamiento de Sentido Común, de la Lógica Modal y de las restantes más actuales. Pueden ser muy útiles para conocer el tema y para el tratamiento de los problemas en los entornos con vaguedad e incertidumbre, sobre los datos o dentro del contexto. En realidad, es que resulta así (casi) todo lo que nos rodea, o el lenguaje natural por medio del cual nos expresamos. — 144 —

Los avances de la Inteligencia Artificial

Pensamos que para cerrar toda esta visión de conjunto, nada mejor que una cita del gran Jorge Luis Borges, cuando dijo aquello de: “He conocido lo que ignoran los griegos: la incertidumbre”. [Del relato `La lotería de Babilonia´, contenido en su libro Ficciones]

Pregunta 9.ª: ¿Es cierto lo que algunos dicen, sobre que la Lógica Difusa es algo totalmente innecesario, superfluo, que se puede y se debe, por tanto, prescindir de ella? ¿Acaso no hay incluso quienes aseguran que no es más que otra cosa disfrazada? Respuesta: Ya hubo en su día (y sigue habiendo, por desgracia) una tan acerba como larga polémica de ciertos estadísticos contra los que fueran los pioneros de la `Fuzzy Logic´. Todo lo cual partiría de ciertas opiniones del patriarca italiano Bruno De Finetti, quien vino a decir que la `fuzziness´ (o vaguedad) no es más que una probabilidad disfrazada. Se trata de una polémica que de tan antigua, ya es rancia, y debiera considerarse superada por toda persona culta, aunque algún estadístico aún manifieste esa especie de `celos profesionales´, cuando creen ver intrusos que ponen en peligro su sagrada parcelita. Serían tal vez no mucho más que puros malentendidos, o tal vez se deriven de una supina ignorancia, por interpretaciones erróneas de aquellos para quienes parece haberse detenido el tiempo, cristalizado en su sistema. Es como si sólo hubieran existido los artículos iniciales de Zadeh, sin darse por enterados de toda la teoría sólida y consistente que se ha venido desarrollando después. Por ejemplo, todo lo investigado por el grupo del checo Petr Hájek, de la Universidad Carolina de Praga, o el de Vilem Novák, en la Universidad de Ostrava. Sus obras son muy completas, recogiendo los últimos avances de la investigación, de los cuales algunos no parecen querer enterarse, cuando lanzan todas esas objeciones y tan celosos reproches. Pues quien tenga el tiempo y la formación necesaria debería leerse el libro Metamathematics of Fuzzy Logic, una obra maestra del mencionado Hájek. También los escritos por Didier Dubois y Henri Prade, de la Université de Toulouse; o por Siegfried Gottwald, de la Universidad de Leipzig. Conviene informarse bien antes de hablar, estudiando todo lo que haya de interés sobre el campo en cuestión, en lugar de repetir descalificaciones que tal vez se hayan oído en algún sitio, dichas más para la galería (en este caso, la `academia´) que para personas verdaderamente críticas y formadas. Y sólo quedaría ahora leer y meditar: creemos firmemente en que nuestros libros pueden seros de gran ayuda en ese empeño, ya que han sido diseñados para ello.

Pregunta 10.ª — 145 —

Ángel Garrido

¿Queda alguna pregunta en el tintero, como se suele decir, O algo que te gustaría apuntar sobre estos temas?

RESPUESTA Siempre se queda algo sin decir, esto es inevitable, y cuando vamos repasando mentalmente lo dicho, aparecen cosas por decir, que suelen parecer más importantes que las mencionadas. Voy a decir un par de cosas, de interés también, pero que por unas cosas u otras, no siempre se dicen. Una es en relación con las reuniones de Zöllikon, y otra, su progresiva vinculación al Zen. Pues una observación final debemos añadir: sería esa referencia a los “Zollikon Seminars”, que Martin Heidegger impartió en la casa de su amigo, el psiquiatra suizo Medard Boss, entre 1959 y 1969. Tal vivienda estaba en una población próxima al lago de Zúrich, a unos seis kilómetros al Norte de esa bella y activa población. Versaban sobre Ontología y Fenomenología, siendo recibidos por un público formado por médicos y psiquiatras, que no entendían mucho de lo que decía ese hombre tan singular, aunque les impresionaban su terminología y su talante. Se dijo que era como si hubiera venido a verles un extraterrestre que se dirigiera a ellos en un idioma extraño, incomprensible. En esas reuniones Heidegger ya mostraba su interés por el Zen y la Filosofía Oriental, tras haber pasado ya hacía tiempo el “Kehre”, o Giro, que ya le hacía pasar a su nueva época, la llamada del “Segundo Heidegger”.

(MAITE) Y para finalizar, he aquí una cita que considero bastante oportuna:

“En todo hombre y en toda sociedad hay un oriente, un origen, una luz matutina, y un occidente, un crepúsculo, una luz vespertina”. [R. Panikkar]

BIBLIOGRAFÍA

- Acevedo Guerra, J., Heidegger y la época técnica. Editorial Universitaria de Chile. Tercera edición. Santiago de Chile, 2016. — 146 —

Los avances de la Inteligencia Artificial - Ibid.: Heidegger: existir en la era técnica. Col. Pensamiento Contemporáneo. Universidad Diego Portales, Santiago de Chile, 2014. - Anonymous, “Obituary: Jan Lukasiewicz (1878-1956)” (Polish), Studia Logica, 5, pp. 7-11, 1957. - Aristotle, Tratados de Lógica I y II (Organon). Contienen el De Interpretatione. Madrid, Biblioteca Clásica, Madrid, Editorial Gredos, 2000. - Berka, K. “Lukasiewicz on Aristotle's Syllogistic”, Ruch Filozoficzny, XXXVI, 1, 1978. - Betti, A., “The Incomplete Story of Lukasiewicz and Bivalence”. LOGICA 2001 Conference. - Black, M., “Vagueness: an exercise in logical analysis”. Philosophy of Science, 4, pp. 427-455, 1937. - Ibid., “Reasoning with loose concepts”. Dialogue, 2, pp. 1-12, 1963. - Boicescu, V., et al., Lukasiewicz-Moisil algebras, North Holland, Amsterdam, 1991. - Borkowski, L., and Slupecki, J., “The Logical Works of J. Lukasiewicz”, Studia Logica, 8, pp. 7-56, 1958. - Coniglione, F., “Filosofia e scienza in Jan Lukasiewicz”, Epistemologia, 17, 1, pp. 73-100, 1994. - Deaño, A., Introducción a la Lógica Formal. Alianza Universidad, Madrid, 2004. - Ibid., Łukasiewicz, Jan. Estudios de lógica y filosofía. Edición e introducción del profesor A. Deaño. Madrid, Revista de Occidente. También existe una edición electrónica de www.philosophia.cl / Escuela de Filosofía Universidad ARCIS. - Ibid., 1980, Las concepciones de la lógica. (Edición póstuma). Madrid, Taurus, 1980. - Domínguez Prieto, P., Indeterminación y Verdad. La polivalencia lógica en la Escuela de LvovVarsovia. Nossa y Jara Editores, Móstoles (Madrid), 1995. - Dubois, D., and Prade, H., Fuzzy Sets and Systems. Theory and Applications. New York, Academic Press, 1980. - Feferman, S., and A., Alfred Tarski: Life and Logic. Cambridge University Press, 2008. - García Bacca, J. D., Introducción a la Lógica Moderna. Ediciones Labor, Madrid, 1936. - Garrido, A., “Special functions in Fuzzy Analysis”. Opuscula Mathematica, vol. 26(3), pp. 457464. AGH University of Science and Technology, Krakow, 2006. - Ibid., “Searching the arcane origins of Fuzzy Logic”. BRAIN (Broad Research in Artificial Intelligence and Neuroscience), vol. 2(2), pp. 51-57, 2011. - Ibid., Filosofía y Matemáticas de la Vaguedad y de la Incertidumbre, PhD. Thesis in Mathematical Logic, qualified with Summa Cum Laude. First Extraordinary Doctorate Award. Madrid, UNED, 2013.

— 147 —

Ángel Garrido - Ibid., Lógicas de nuestro tiempo. Madrid, Editorial Dykinson, 2014. - Ibid., Lógica Aplicada. Vaguedad e Incertidumbre. Madrid, Editorial Dykinson, 2015. - Ibid, Lógica Matemática e Inteligencia Artificial. Madrid, Editorial Dykinson, 2016. - Ibid., Filosofía y Computación. Editorial Dykinson, 2017. - Ibid., Heidegger y Derrida. Sobre la cuestión de la Ciencia y la Técnica. Editorial Dykinson, 2018. - Ibid. con Wybraniec-Skardowska, coeds. The Lvov-Warsaw School. Series on Universal Logic. Springer-Birkhäuser Verlag, Basel, Berlin, 2018. - Gottwald, S., A Treatise on Many-Valued Logics. Baldock, Hertfordshire, England, Research Studies Press Ltd., 2001. - Klaua, D., Allgemeine Mengenlehre. Ein Fundament der Mathematik. Akademie-Verlag, 1964. - Kleene, S. C., Introduction to Metamathematics. Amsterdam, North-Holland Publ. Co., and New York, Van Nostrand, 1952. - Kotarbinski, K., “Jan Lukasiewicz´s works on the history of logic”. Studia Logica, 8, pp. 57-62, 1958. - Kwiatkowski, T., “Jan Lukasiewicz - A historian of logic”. Organon, 16-17, pp. 169-188, 19801981. - Lukasiewicz, J., Aristotle´s Syllogistic (en inglés). Oxford (UK): The Clarendon Press, 1957. - Ibid., Elements of Mathematical Logic (in Polish). Warsaw, PWN (Państwowe Wydawnictwo Naukowe), 1963. - Ibid., O zasadzie sprzecznosci u Arystotelesa (On the Principle of Contradiction in Aristotle) (1910), PWN, Warszawa 1987. Germ. transl., Über den Satz des Widerspruchs bei Aristoteles, Olms Verlag, 1994 (J. Barski). Eng. transl. by Owen LeBlanc in progress. French translation, París, L´Eclat. - Ibid., Selected Works. L. Borkowski, as editor. Amsterdam, NHC (North Holland C. Publ. Co.), 1970. - Ibid., Łukasiewicz, Jan, Para una historia de la Lógica de Enunciados. Valencia, Cuadernos Teorema, 1974. - Ibid., La silogística de Aristóteles desde el punto de vista de la lógica formal moderna. Madrid, Editorial Tecnos, 1977. English edition, Aristotle´s Syllogistic from the Standpoint of Modern Formal Logic, Clarendon Press, Oxford, 1951. - Ibid., Logika i metafizyka. Wydzial Filozofii i Socjologii Uniwersytetu Warszawskiego, Warsawa, 1998 (J. J. Jadacki ed.), including a precious collection of bio-bibliographical information, transcriptions of letters and an extended selection of photos.

— 148 —

Los avances de la Inteligencia Artificial - Ibid., Z zagadnien logiki i filozofii. Pisma wybrane. Warszawa, PWN ((Państwowe Wydawnictwo Naukowe; J. Slupecki as ed.), 1961. - Malinowski, G., Many-Valued Logics. OUP (Oxford University Press). - Marshall, D., “Lukasiewicz, Leibniz and the arithmetization of the syllogism”. Notre Dame Journal of Formal Logic, 18 (2), pp. 235-242, 1977. - Marcus, S., “Grigore C. Moisil: A life becoming a myth”, IJCCC, vol. 1, no. 1, 73–79, 2006. - Mira, J., et al., Aspectos Básicos de la Inteligencia Artificial. Ed. Sanz y Torres. UNED, 1995. - Moisil, G., Încercări vechi și noi în logica neclasică. Bucuresti, 1965. - Ibid., Elemente de logică matematică și teoria mulțimilor. Bucuresti, 1968. - Ibid.,“Recherches sur les Logiques Non-Chrysipiennes”. Annales Scientifiques de l'Université de Jassy, 26,431–466, 1940. - Mosterín, J., Los lógicos. Colección Austral. Editorial Espasa-Calpe, Madrid, 2007. - Mostowski, A., “L´oeuvre scientifique de Jan Lukasiewicz dans le domaine de la logique mathématique”, Fundamenta mathematicae, 44, pp. 1-11, 1957. - Murawski, R., Essays in the Philosophy and History of Logic and Mathematics. Poznan Studies in the Philosophy of the Sciences & the Humanities. Rodopi Verlag, 2010. - Novák, V., et al., Mathematical Principles of Fuzzy Logic. Kluwer Acad. Press, Dordrecht, Boston, 1999. - Ibid., and Perfilieva, I. (eds.), Discovering the World with Fuzzy Logic. Springer-Verlag, Heidelberg, 2000. - Pavelka, J., “On Fuzzy Logic I Many‐valued rules of inference”. Mathematical Logic Quarterly 25 (3‐6), pp. 45-52, 1979. - Ibid., “On Fuzzy Logic II. Enriched residuated lattices and semantics of propositional calculi”. Mathematical Logic Quarterly 25 (7‐12), pp. 119-134, 1979. - Ibid., “On Fuzzy Logic III. Semantical completeness of some many‐valued propositional calculi”. Mathematical Logic Quarterly 25 (25‐29), pp. 447-464, 1979. - Prior, A. N., “Three-valued logic and future contingents”. Philosophical Quarterly, 3, pp. 317326, 1953. - Ibid., “Lukasiewicz's contribution to logic”, in AA.VV., Philosophy in the mid-century, a survey, ed. by R. Klibanski, vol. I, Logic and philosophy of science, La Nuova Italia, Firenze, pp. 53-55, 1958. - Ibid., Historia de la Lógica. Editorial Tecnos, Madrid, 1976. - Rasiowa, H., and Sikorski, R., The Mathematics of Metamathematics. Warszawa, 1963.

— 149 —

Ángel Garrido - Rasiowa, H., An Algebraic Approach to Non-Classical Logics. Warsaw, PWN, and Amsterdam, North-Holland Publ. Co., 1974. - Ibid., “Toward fuzzy logic”. In L. A. Zadeh and J. Kacprzyk, as editors: Fuzzy Logic for the Management of Uncertainty. New York, Wiley, pp. 5-25, 1992. - Rosser, J. B., and Turquette, A. R., Many-Valued Logics. North-Holland Publ. Co, Amsterdam, 1952. - Rudeanu, S., et al., “G. C. Moisil memorial issue”. Multiple-Valued Logic 6, no. 1-2. Gordon and Breach, 2001. - Russell, S., and Norvig, P., Artificial Intelligence. A modern approach. Prentice Hall, 1995. - Russell, B., Autobiografía. Edhasa, 2010. - Sacristán, M., Introducción a la Lógica y al Análisis Formal. Círculo Universidad, Círculo de Lectores, Barcelona, 1990. - Sánchez-Mazas Ferlosio, M., Obras Escogidas. En dos volúmenes. Coordinados por A. Ibarra. UPV/EHU, Cátedra Miguel Sánchez-Mazas, 2003 y 2004. - Schiaparelli, A., “Aspetti della critica di Jan Lukasiewicz al principio aristotelico di non contraddizione”. Elenchos, 1, pp. 43-77, 1994. - Scholz, H., “In memoriam Jan Lukasiewicz”, Arch. Math. Logik Grundlagenforsch., 3, pp. 318, 1957. - Seddon, F., Aristotle & Lukasiewicz on the Principle of Contradiction: On the Principle of Contradiction. Modern Logic Pub., 1996. - Simons, P., “Lukasiewicz, Meinong, and Many-Valued Logic”, in K. Szaniawski (ed.), The Vienna Circle and the Lvov-Warsaw School, Kluwer Ac. Publ., Dordrecht, pp. 249-259, 1989 . - Slupecki, J., “Jan Lukasiewicz” (Polish). Wiadomosci matematyczne, (2) 15, pp. 73-78, 1972. - Smith, B., Austrian Philosophy: The Legacy of Franz Brentano. La Salle and Chicago. Open Court, 1994. - Tarski, A., Introduction to Logic and to the Methodology of Deductive Sciences. Dover, New York, 1994 (first edition, 1941). - Tarski, A., Logic, Semantics, Metamathematics. 2nd ed., Hackett Publ., 1983. - Trillas, E., Alsina, C., and Terricabras, J. M., Introducción a la Lógica Borrosa. Ediciones Ariel, Barcelona, 1995. - Trillas, E., “Lotfi A. Zadeh: On the man and his work”. Scientia Iranica, D 18(3), pp. 574-579, 2011. - Trzesicki, K., “Lukasiewiczian logic of tenses and the problem of determinism”, in K. Szaniawski (ed.), op. cit., pp. 293-312.

— 150 —

Los avances de la Inteligencia Artificial - Trzesicki, K., "Lukasiewicz on Philosophy and determinism", in F. Coniglione, R. Poli, J. Wolenski (eds.), Polish Scientific Philosophy, Rodopi Verlag, Amsterdam, pp. 251-297, 1993. - Velarde, J., Gnoseología de los Sistemas Difusos. Servicio de Publicaciones de la Universidad de Oviedo, 1990. - Ibid., Historia de la Lógica. Servicio de Publicaciones de la Universidad de Oviedo, 1989. - Ibid., “Análisis gnoseológico de la Teoría de los Sistemas Difusos”. El Basilisco: Revista de filosofía, ciencias humanas, teoría de la ciencia y de la cultura, 11, pp. 28-45, 1992. - Ibid., “Panorama de la Lógica en España”. Theoria: an international journal for theory, history and foundations of science, 7 (16-18), 1992. - Ibid., “Pensamiento difuso, pero no confuso: de Aristóteles a Zadeh y vuelta”. Psicothema, vol. 8, issue 2, pp. 435-446. Publicación de la Universidad de Oviedo. - Ibid., “Incertidumbre y grados de creencia”. Teorema: Revista internacional de filosofía, 24, pp. 27-41, 2005. - Wajsberg, M., Logical Works. S. J. Surma as editor. Wroclaw, Ossolineum Verlag, 1977. - Wolenski, J., Logic and Philosophy in the Lvov-Warsaw School. Kluwer Academic Publishers, Dordrecht, 1989. - Ibid., “Jan Lukasiewicz” (Polish), Mathematics at the turn of the twentieth century. Katowice, pp. 35-38, 1992. - Ibid., with J. Wolenski, as ed., Philosophical Logic in Poland (en inglés). Kluwer Academic Publishers, Dordrecht, 1994. - Ibid., “Jan Lukasiewicz on the Liar Paradox, Logical Consequence, Truth and Induction”, Modern Logic, 4, 394-400, 1994. - Ibid., Historico-Philosophical Essays, vol. I. Copernicus Center, Krakow, 2013. - Wójcicki, R. (ed.), Selected papers on Lukasiewicz's sentential calculus. Ossolineum Verlag, Wroclaw, 1977. - Wybraniec-Skardowska, U., Polish Logic. Some lines from a personal perspective. Stanford presentation, July 2009. - Zadeh, L. A., “Fuzzy Sets”. Information and Control, 8, pp. 338-353, 1965. - Ibid., “Fuzzy Logic and approximate reasoning”. Synthese, 30, pp. 407-428, 1975. - Ibid., “Fuzzy sets as a basis for a theory of possibility”. Fuzzy Sets and Systems, 1, pp. 3-28, 1978. - Ibid., Fuzzy Sets and Applications. Selected Papers. R. R. Yager et al. as editors. New York, Wiley, 1987. - Ibid., Fuzzy Sets, Fuzzy Logic, and Fuzzy Systems. Selected Papers. G. J. Klir and B. Yuan as editors. Singapore, World Scientific, 1996. — 151 —

Ángel Garrido - Zimmermann, H. J., Fuzzy Set. Theory and Applications. Boston, Kluwer Academic Press, 1991. - Zinoviev, A. A., Philosophical Problems of Many-Valued Logic. Dordrecht, Reidel Verlag, 1963.

— 152 —

Capítulo 22.

LOS DESAFÍOS DE LA INTELIGENCIA ARTIFICIAL

Prof. Dr. Ángel Garrido Facultad de Ciencias, UNED

INTRODUCCIÓN

El término “Inteligencia Artificial” (IA, en acrónimo español; AI, en acrónimo inglés) fue introducido en la Conferencia de Darmouth, de 1956, por John Mac Carthy, como “la ciencia e ingeniería necesaria para lograr que los ordenadores piensen y aprendan”. Especialmente, se refiere al desarrollo de `programas inteligentes´, que resuelvan problemas para los cuales no disponemos de algoritmos específicos. Recordemos que un algoritmo es una secuencia limitada de pasos, diseñada para resolver computacionalmente un problema. Aunque existen situaciones que se resisten al desarrollo de algoritmos, como son el `Learning´ (o Aprendizaje), el Reconocimiento de Patrones (un sonido, un rostro,…), o el análisis de grandes cantidades de datos, como al estudiar la evolución del clima, el comportamiento del consumo, o el de la Bolsa. Así que la IA va desarrollando nuevas técnicas para abordarlos. Cada vez son más los sistemas con los que interactuamos y que sin saberlo nosotros, están utilizando técnicas de IA. Por ejemplo, el modo de selección y ordenación de resultados en Google, para las búsquedas, sería una mezcla de esas técnicas de IA. También el necesario soporte a la navegación desde la torre de control de los aeropuertos, etc. Todo esto hace que empresas como Google, Twitter, Apple, Facebook, etc., intenten captar a mentes prometedoras. Comprando, de paso, todas aquellas pequeñas empresas que puedan resolver ese tipo de problemas. Con lo que la IA va a tener cada vez más influencia en

— 153 —

Ángel Garrido

nuestras vidas. Se trata de un cambio tecnológico y de paradigma, que transformará de modo radical las relaciones de producción y aun todo el panorama de la comunicación. Alan Mathison Turing nació el 23 de Junio de 1912, en Londres, y murió el 7 de Junio de 1954. Fue un brillante lógico y matemático, al cual debemos sus contribuciones al criptoanálisis, la filosofía o la biología, así como a nuevas áreas que luego serán conocidas como Ciencias de Computación, Ciencias Cognitivas, Inteligencia Artificial, etc. En 2012 conmemoramos el Año Turing, celebrando el centenario de su nacimiento. Son mencionadas con frecuencia sus grandes constructos y desafíos al pensamiento, como la Máquina de Turing, el Test de Turing (relacionado con el famoso debate de la `caja china´, sobre si una máquina que sea capaz de engañar a un humano sería con ello inteligente), o la Tesis de Church-Turing (según la cual todo algoritmo o procedimiento efectivo es computable en el sentido de Turing), etc. Marvin Minski, el gran `gurú´ de la IA, dijo en una entrevista, ante la pregunta de si los ordenadores serían algún día capaces de pensar, que “ellos ya piensan de una cierta manera, pero para que pasen a pensar de otra, es preciso que lleguemos a entender cómo se da el proceso de pensamiento”. A otra pregunta, sobre que muchos dicen que las CPU´s apenas siguen instrucciones, sólo que más rápido que nosotros, dijo que quienes mantienen esto se equivocan, ya que las CPU´s también pueden seguir otro tipo de procesos, pudiendo ser programadas para llevar a cabo una `búsqueda evolutiva´, resolviendo problemas por el método de `ensayo y error´.” Sobre si algún día las máquinas podrían desarrollar algo parecido a una `conciencia´, respondió que “si a una habilidad del cerebro que permite reflexionar sobre las propias acciones se le llama `conciencia´, ya hay programas que hacen cosas de ese estilo, por lo que se puede decir que poseen un cierto grado de conciencia. Acerca de si los defensores de la IA no cometen un error cuando consideran que el libre albedrío es una mera ilusión, que si alguien dice que usó de dicho libre albedrío para tomar una decisión, lo que en realidad quiere decir es que aún no sabe lo suficiente sobre su mente como para entender el porqué de que haya tomado tal decisión y no otra. Hubert Dreyfus opinaba que el sentido común es algo intangible, y que el ser inteligente consiste en ver las analogías (las relaciones analógicas) que existen entre las situaciones nuevas y las antiguas, de las cuales ya sabemos cómo `salir´. Edward Feigenbaum dijo que un día existirán robots `perfectos´. Entonces, el sentido común podrá ser almacenado en el banco de datos de un sistema. Y esto también valdría para la intuición o para la imaginación. Por lo que es posible la producción a gran escala de mentes brillantes. Bastaría con proporcionar a los ordenadores la capacidad de autoaprendizaje (self-learning). Ray Kurzweil (1948-) puede que sea una de las mentes más brillantes y activas de nuestros días; al menos, en el campo de la IA. Se trata de un inventor y de una especie de — 154 —

Los avances de la Inteligencia Artificial

`arúspice´, en el sentido de adivinador del futuro de la tecnología, sobre el cual ha hecho muchas predicciones (véase su obra The Age of Spiritual Machines), la mayoría de las cuales se han venido cumpliendo. Viene a ser una especie de Julio Verne más `a la moderna´, y mejor informado. Entre sus muchos inventos, se pueden mencionar el primer lector electrónico para ciegos, o el sistema de reconocimiento de voz que dio lugar al SIRI. También el primer escáner digital. Ha creado empresas y las ha vendido, para luego crear otras. En la actualidad, es jefe de investigación de Google, en la sede de San Francisco. Entre sus obras más notables, cabe citar: - The Singularity is Near. Se refiere al momento (llamado esa `singularidad´) en que se supone que las máquinas van a alcanzar y aun sobrepasar la potencia del pensamiento humano: él la cifra en el 2045. -

How Create a Mind?

Sobre el funcionamiento del cerebro (en especial, la estructura del neocórtex) y de cómo se podría imitar o llegar a simular dentro del ordenador. Ha sido traducido al español, como el anterior, para el grupo Lola Books. En una reciente entrevista (de 2015) se le preguntaba por la diferencia entre el cerebro humano y el ordenador. Respondió que “un ordenador no es capaz de hacer dos cosas a la vez. Hace sólo una, pero la hace muy rápido y con mucha precisión. Realiza miles de millones de operaciones por segundo, y apenas se equivoca. El cerebro es un poco al contrario. Apenas hace unas pocas operaciones por segundo, y esto lo hace más lento que el ordenador.” Sobre qué obstáculos habría para llegar a simular su funcionamiento por medio de un ordenador, contestó que “muchos, pero no es imposible. Turing nos hizo ver que todas las formas de computación, al final, son equivalentes entre sí. De modo que un dispositivo con suficiente memoria podría simular el funcionamiento de cualquier otro dispositivo. Lo cual sería también válido para el ordenador, ya que podría simularse el comportamiento del cerebro humano llevando a cabo las mismas operaciones, sólo que mucho más deprisa.” “¿Y cuándo será esto posible?”, le preguntaron. “No nos queda mucho –dijo- para llegar a ese punto… Ya escribí que haría falta una computadora capaz de llevar a cabo entre 100 billones y 100.000 billones de operaciones por segundo para `recrear´ el cerebro humano. Hoy día existen ordenadores `gigantes´ con esa capacidad. Mi opinión es que en apenas una década los habrá por mil dólares.” Se le cuestionó: “¿Tan pronto?” Y repuso que pensaba que sus observaciones eran incluso bastante conservadoras, que al final de la década habrá ordenadores muy baratos con la capacidad suficiente como para simular

— 155 —

Ángel Garrido

el cerebro humano. Lo cual ya es posible –por ejemplo- con los medios de los que dispone Google. Cuenta Kurzweil que en Google están creando un modelo capaz de manejar el lenguaje lo mismo que los humanos, esto es, no sólo para leer documentos, sino para comprenderlos. Un sistema capaz de leer miles de millones de páginas, por lo que aprenderá cualquier cosa de interés que aparezca en Internet, creando así una BC acerca del mundo, a la que podremos dirigirnos con preguntas. “¿Y qué es más difícil de simular en el cerebro humano?” le preguntaron. “El nivel de abstracción que es capaz de alcanzar”, repuso. “Pienso en la ironía o en el sarcasmo [o en la polisemia en general, que permite los `juegos de palabras´]. Porque implican varios niveles de interpretación, Y esto confunde a las computadoras. Lo que hace el cerebro humano es crear una jerarquía, respecto de su propio pensamiento: ahí está el secreto de cómo pensamos.” Él dice tener algunas ideas sobre cómo crearla en el ordenador: un proceso que se pueda interpretar, y replicar también. “¿Puede una computadora componer una sinfonía, o escribir una novela?”, le preguntaron también. Dijo que “esas son las creaciones más complejas de nuestro neocórtex, ya que funcionan a través de metáforas. Cada tipo de música es un lenguaje que muy pocas personas llegan a dominar. Sólo un puñado de genios alcanza el nivel de un Mozart, o de un J. S. Bach. Entre otras cosas, porque nuestro cerebro tiene una capacidad muy limitada: apenas 300 millones de módulos neuronales. Pero pronto vamos a poder mejorar nuestro cerebro, y tener una especie de neocórtex adicional, externo, que esté disponible en la `nube´, lo que nos permitirá superar esa limitación. Es necesario tener un cerebro especial para llegar a ser un genio como Mozart, y aún no comprendemos del todo los procesos que en ello intervienen. Pero las aptitudes serán menos importantes que lo han venido siendo hasta ahora, pues ya no tendremos un cerebro tan limitado, dado que nuestro neocórtex será mucho más potente. Podremos conectarlo con ese cerebro exterior en torno al año 2030, y también será un órgano flexible.” Puede considerarse a Kurzweil representante de la `hard AI´, como Minsky. Pero hay otros que defienden la `soft AI´, poniendo en duda que se vayan a conseguir tales cosas. Así, Roger Penrose, con su obra La nueva mente del emperador, donde asegura que nunca podrá un ordenador tener algo como intuición o imaginación. El húngaro János Neumann, al comienzo de la Segunda Guerra Mundial, comenzó a trabajar para el Gobierno de los EE.UU. Así hacia 1943 Neumann empezó a interesarse en la computación para ayudarse en su trabajo. En aquellos años había muchas computadoras en construcción; por ejemplo, la Mark I (H. Aiken) o el Complex Computer (G. Stibiz), pero con la que él se involucró fue la ENIAC (con J. P. Eckert y J. W. Mauchly). Una vez construido el ENIAC, al ver sus limitaciones, definieron todo un sistema lógico de computación, basándose en las ideas de Turing. Para ello, se concentraron en diseñar y construir una computadora aún más poderosa: sería el EDVAC (por Electronic Discrete Variable Arithmetic Computer).

— 156 —

Los avances de la Inteligencia Artificial

En la década de los 1950´s Neumann construyó la computadora IAS, cuyo diseño vino a ser una de las bases de los ordenadores actuales, conociéndose como la “arquitectura de von Neumann”. Muchas otras fueron sus contribuciones a la computación, como el uso de monitores para visualizar los datos o el diagrama de flujo (organigrama). Asimismo colaboró en el libro Cibernética: control y comunicación en el animal y en la máquina, escrito con Norbert Wiener, donde se explicaba la nueva teoría de la computación y la de autómatas. También cultivó János gran cantidad de campos, como el de la fundamentación matemática de la Mecánica Cuántica. Ambos serían de aquellos centroeuropeos que recalaron en los EE. UU., y especialmente, en el IAS de Princeton, del que se dijo aquello de:

`Hitler sacudió las ramas y nosotros recogimos el fruto.´

— 157 —

Capítulo 23.

CONCRETANDO LOS DESAFÍOS DE LA IA En Comunicación y Percepción tendríamos los siguientes: - Lenguaje Natural. - Visión Artificial. - Manipulación (por ejemplo, en los Robots). - Razonamiento Simbólico. - Ingeniería del Conocimiento (IC o KE). En cuanto a la Comunicación, ya se venido intentando, muy desde el principio, desarrollar un sistema de Traducción Automática, multilingüe, con un vocabulario de 100.000 palabras, basado en un sistema capaz de entender y expresarse con un lenguaje natural de 10.000 palabras distintas. Entre los problemas de procesamiento de lenguaje natural: -

El análisis de las oraciones, sintáctico y semántico. El tratamiento de la polisemia y de la ambigüedad de las palabras. El significado de las palabras que dependen del contexto.

En cuanto al Razonamiento Simbólico, sabemos que: Los Sistemas Inteligentes están basados en Reglas Heurísticas, esto es, del tipo de aquellas para las que se dispone de conocimiento previo del Dominio, para evitar así la `Blind Search´, o `Búsqueda a Ciegas´, una en la cual deberíamos explorar todos los estados o situaciones del grafo de búsqueda, esto es, la totalidad de los nodos del árbol en cuestión. — 158 —

Los avances de la Inteligencia Artificial

La IC (o `Knowledge Engineering´, KE) también tiene distintas subáreas, como las siguientes: - La Representación del Conocimiento. La adquisición de este puede llevarse a cabo mediante el aprendizaje supervisado, con Reglas de Lógica y sesiones de `entrenamiento´. - El método de inferencia, que según la cantidad de datos, se podría llevar a cabo mediante la Fuzzy Logic. - El procesamiento de lenguaje natural (NLP), que facilita la relación hombre-máquina. Haciendo posible que el especialista de cualquier área pueda -con ayuda tal vez de un ingeniero- `volcar´ sus conocimientos y sus técnicas, para elaborar con ellas un Sistema Experto (ES), que pueda funcionar bien sin él. Por ejemplo, un médico o un técnico de control. Para cada problema se ha de establecer cuál va a ser la herramienta más adecuada para resolverlo. A continuación, debe implementarse un pequeño modelo, que ha de ser experimentado y resuelto. De aquí los pasos para la IC: - Selección de las herramientas y de las estrategias adecuadas para resolverlos. - Análisis del conocimiento que vaya a ser necesario. Establecer con ello una KB (Knowledge Base, KB, o Base de Conocimientos, BC), y probarla en un gran número de casos. - Ampliar y modificar el programa, hasta conseguir que este funcione tal como queremos. - Mantener y actualizar el sistema. - Etc. El suponer que las propiedades bioquímicas del cerebro son las responsables de las creencias y pensamientos viene a ser una opinión análoga a la de que tales propiedades en las aves hacen posible su vuelo auto-sustentado. Hoy sabemos que son las propiedades aerodinámicas las que les permiten sustentarse. Así, se ha llegado a crear un cuerpo de conocimientos y de leyes que rigen tanto el vuelo de los pájaros como el de los aviones. Con lo que el `vuelo artificial´ ha progresado, pero no por una imitación directa del vuelo natural, ni tampoco de su observación. Así que la IA es un campo con una aún breve historia, pero que de continuo se expande, con asombrosos desafíos por delante. Para abordar estos desafíos y para resolver los problemas que se plantean, la IA viene disponiendo cada vez de unas herramientas más sofisticadas, como todas aquellas relacionadas con la Lógica: - Lógica Proposicional (o Secuencial).

— 159 —

Ángel Garrido

- Lógica de Primer Orden (o FOL, por First Order Logic). - Lógica Difusa (o Fuzzy Logic). - Sistemas Difusos (o Fuzzy Systems). - Lógica por Defecto (Default Reasoning). - Lógica No Monótona (NML, por Non-Monotonic Logic).

O lenguajes de programación derivados de ellas, como: el LISP o el PROLOG.

Aunque hay otros problemas en IA que requieren el manejo de información incompleta o con incertidumbre. Por lo que se han de diseñar herramientas diferentes (aparte de la FL), como son las: - Redes Bayesianas. Entre ellas, los llamados Modelos Ocultos de Markov; HMM, por Hidden Markov Models), o los Filtros de Kalman. - Redes Neuronales Artificiales (NNs, por Neural Networks), utilizadas como clasificadores de las imágenes recibidas por satélite, o para la detección de objetos en tiempo real. Disponen de gran capacidad de aprendizaje (learning). Intentan reproducir, de un modo sencillo, el proceso de las neuronas de nuestro cerebro (de ahí su nombre). - Los Algoritmos Genéticos (GAs, por Genetic Algorithms) son una clase de algoritmo adaptativo de tipo estocástico. Resultan útiles para procesos de búsqueda y de optimización. Fueron utilizadas primero en Holanda, en 1975. - Los Agentes Inteligentes, que serían entidades capaces de percibir su entorno y de procesar tales percepciones, para a partir de esta información actuar dentro de él de una manera `racional´, esto es, de modo correcto y optimizando los resultados. Se utilizan para los servicios web, adaptando contenidos educativos en plataformas de e-learning, etc. - Las Máquinas Super-Inteligentes: una esperanza, sobre todo, en el hardware del futuro, que prevé la creación de máquinas cada vez más potentes. Ahí aparece de nuevo la “singularidad”, aquella de la que nos hablaba Ray Kurzweil.

El haz y el envés de la IA (como metáfora vegetal), o dicho de otro modo: su `cara´ y su `cruz´, es hoy un tema muy debatido, entre quienes lo ven todo de color de rosa y quienes lo ven todo negro, sin que muchas veces haya los necesarios tonos de `grises´. Por ejemplo, según el sociólogo de la Ciencia Steve Fuller, “pronto el eje divisorio — 160 —

Los avances de la Inteligencia Artificial

fundamental no será el de Izquierda vs. Derecha, sino el de `precautorios´ frente a `proaccionarios´, o `proactivos´ [en este sentido]. Los primeros pondrán obstáculos éticos a la transferencia tecnológica, mientras que los segundos serán favorables, constituyendo algo así como la nueva izquierda, pese a que englobarán alos viejos liberales.” Sería un tanto cuestionable esa opinión, pues viene a establecer la vieja división entre lo reaccionario y lo revolucionario, que quizá sea un tanto trasnochada, tratando de estos temas, que pertecen a otro paradigma. Cabe decir, con Hubert Dreyfus, que: “Nuestro riesgo no es la aparición de computadoras superinteligentes, sino de seres humanos subinteligentes”. Una traducción, en el lenguaje popular español, podría ser aquella de: “Cada día que amanece el número de tontos crece.” Que sería el `leitmotiv´plausible de tantospolíticos, estafadores y otros embaucadores que nos rodean. En cuanto a la secta de los que pudiéramos `los alarmistas´, cabe mencionar a todo un Stephen Hawking. Lo cual no deja de ser sorprendente, pues sin la IA, él no podría ni haber mencionado esos comentarios. Ya falleció, pero tampoco era ningún `oráculo de Delfos´, si le consideramos fuera de su especialidad.

ALGUNA BIBLIOGRAFÍA QUE PUDIERA SER ESENCIAL

- A. Garrido, Lógicas de nuestro tiempo. Editorial Dykinson, 2014. - Ibid., Lógica Aplicada. Vaguedad e Incertidumbre. Editorial Dykinson, 2014. - Ibid., Lógica y Computación. Editorial Dykinson, 2015. - Ibid., with U. Wybraniec-Skardowska, co-editors. The Lvov-Warsaw School. Special Issue, AXIOMS, MDPI, Basel, Switzerland, 2017. - Ibid., with U. Wybraniec-Skardowska, co-editors. The Lvov-Warsaw School. Past and Present. Series on Universal Logic. Birkhäuser – Springer Science, Basel, Berlin, Heidelberg, 2018. - G. Grocco, Gödel, Leibniz and `Russell´s mathematical logic´. Ralf Kromer and Yannick Drian, co-editors. “En New Essays in Leibniz reception”, del libro Science and Philosophy of Science 1800-2000. Birkhäuser – Springer Science, pp. 217-256, Basel, Berlin, 2013.

— 161 —

Ángel Garrido

- J. Mira et al., Aspectos Básicos de la Inteligencia Artificial. UNED, 1995. - S. Russell, P. Norvig, Inteligencia Artificial. Un moderno enfoque. Prentice Hall, 1995. - A. Tarski, La concepción semántica de la verdad y los fundamentos de la semántica. Nueva Visión, Buenos Aires, 1972.

— 162 —

Capítulo 24.

LA LÓGICA MULTIVALUADA Y EL GRUPO BOURBAKI

Vamos referirnos a la historia de un grupo atípico y verdaderamente curioso de matemáticos, principalmente franceses: el llamado `Grupo Bourbaki´. Este sería un seudónimo tomado del nombre real de un oscuro general del ejército del emperador francés Napoleón III, que fuera derrotado en la guerra franco-prusiana, o bien ese nombre se escogió por `razones jocosas´, como una broma mantenida en el tiempo, por un grupo de antiguos alumnos de la ENS (École Normale Superieur) de Paris. La raíz griega del apellido pretendía -de modo indirecto- también hacer referencia a la tradición de Euclides de Alejandría y a los matemáticos de la Grecia Antigua, en cuya línea en cierto modo querían continuar. Durante una parte de la segunda mitad del siglo XX, los integrantes de este grupo intentaron exponer la matemática avanzada moderna del modo más completo y axiomatizado posible, basándose para ello en la Teoría de Conjuntos. Buscaban a un tiempo la mayor generalidad y el mayor rigor posibles. En parte, esta sería una reacción en la línea de David Hilbert, y en contra la deriva, que consideraban demasiado intuitiva, de Henri Poincaré. Decían los miembros del Grupo Bourbaki: Lo que el método axiomático se propone como objetivo esencial es precisamente lo que el formalismo lógico, por sí sólo, es incapaz de dar, esto es, la profunda inteligibilidad de las matemáticas... El método axiomático se basa en la convicción de que no sólo la matemática no es una mera concatenación al azar de silogismos, sino que tampoco es una colección de trucos, más o menos astutos, a los que se llega por una serie de afortunadas combinaciones... El método axiomático enseña a buscar las razones profundas... a encontrar las ideas comunes a varias teorías, sepultadas bajo la acumulación de detalles propios de cada una de ellas... El mencionado grupo de los Bourbaki alcanzaría una notable influencia en los medios matemáticos de la época, no sólo franceses, pero también contó y aún sigue contando con furibundos detractores, como ciertos analistas clásicos. Su propósito

— 163 —

Ángel Garrido

inicial había sido precisamente elaborar un manual de Análisis Matemático, a nivel universitario, que reemplazara los textos hasta entonces de rfrencia, elaborados por Camille Jordan y René Goursat. Pero lo que terminaron emprendiendo fue una titánica labor, aún inacabada: la de plasmar con la mayor claridad posible los fundamentos de la Matemática Pura. Una de las críticas más directas fue la dirigida contra el contenido del volumen primero, el de la Theorie des Ensembles, por haber adoptado como base para su desarrollo la axiomática de Zermelo, al ser esta más simple, en lugar de la posterior y más completa de la ZFC, esto es, la de Zermelo-Fraenkel con el axioma de elección. Entre sus componentes más notables podemos citar a Henri Cartan, Jean Dieudonné o André Weil. Más adelante, se les irían añadiendo otros brillantes matemáticos, como es el caso de Laurent Schwartz, Jean-Pierre Serre, Alexander Grothendieck, Serge Lang, o Roger Godement, entre otros. Casi todos sus miembros eran franceses, si bien con alguna rara excepción, como la del matemático polaco Samuel Eilenberg. Por tanto, lo que pretendían ellos era prolongar la tradición de la Escuela de Göttingen, que estuviera encabezada por el mencionado David Hilbert, y su ayudante, Wilhelm Ackermann, así como seguir la línea marcada por el álgebra moderna de Emmy Noether, Emil Artin y R. van der Waerden. Pero hay que aclarar que en los sucesivos volúmenes de sus Éléments de Mathématique la Lógica en sí misma apenas si se trata, de modo explícito al menos, a pesar de la tendencia `axiomatizadora´ que antes señalábamos, y que desde luego, recorre toda la obra. Sólo está de modo `subliminal´, o `subyacente´ (no hubiera sido posible sin ella como fundamento). Pero no nos cabe duda que tales Elementos fueran una forma de plantear la Matemática seria y consistente, que nos marcó a los matemáticos de toda una época. Aparte de esto, hay que decir que a los Bourbaki no les agradaba demasiado todo aquello que tuviese que ver con buscar una utilidad (lo `práctico´) para su ciencia (esto es, la intersección con la Matemática Aplicada); tal vez por no contar entre sus miembros con ningún especialista en dichas áreas, pero esa sería tal vez luego una de sus mayores debilidades. Se puede decir que los Bourbaki contribuyeron a la formalización matemática, pero sin aportar demasiado a los estudios de tipo lógico y de fundamentos; mucho menos, a la lógica multivaluada, cuya existencia ni mencionan siquiera.

— 164 —

Capítulo 25.

EL FUTURO INCIERTO DE LOS LIBROS El título de este trabajo final puede resultar inquietante para aquellos que como yo, aman desde siempre a los libros, incluso más que a la mayoría de las personas. Ellos nos acompañan y rara vez nos traicionan, salvo que queramos vernos traicionados por ellos. En los últimos tiempos la gente se ha venido volviendo superficial, cuando no van directamente hacia la necedad más absoluta, y “pasan” de todo lo que sea `cultura´, incluso desprecian, llamándoles `culturetas´, a quienes tienen aún interés por aumentar el saber158. Pero la información que nos llega a través de otras herramientas, o de ciertas `máquinas´, como el libro electrónico (e-book), o el ordenador, no deja de ser casi lo mismo, aunque vaya sobre otro `soporte´. Y digo `casi´, porque lo más difundido por esos nuevos medios suele ser lo más trivial, lo que es poco profundo, los enredos amorosos y familiares, junto con otras similares vaciedades, mostrándose como una tan mera y burda traslación del mundo, muy hortera y de chafarrinón, de Hollywood y la televisión, de todo lo americano, hoy por desgracia predominante, de un modo implícito o explícito, a los medios impresos.

58

Como dice el refrán popular: “No eres más tonto Porque no entrenas.”

Expresión, por cierto, muy quevediana, y por tanto, muy española, que ya hemos mencionado antes. Pero puede tener un fondo de verdad, pues según varios estudios científicos [como el de Morris y su equipo], desde el año 1975, el Coeficiente Intelectual Medio está bajando, y cada vez más deprisa, hasta llegar a unos niveles `infrahumanos´. La causa de todo esto se le adjudicaba, en un principio, al descenso de la natalidad entre las capas más altas y mejor preparadas de la sociedad. También podría atribuirse dicha relación causa-efecto al envejecimiento acelerado de la población; sobre todo, en ciertos países, como sucede en algunos de los occidentales, o en el Japón, que sobresalieran antes. Parece ser que mientras la memoria a corto plazo ha aumentado, la de trabajo ha disminuido notablemente. Es, por cierto, una memoria que disminuye con la edad, mientras que la otra tiende a mantenerse. Puede también que ver como una consecuencia de la invasión de las nuevas tecnologías, y que nos lo den casi “todo hecho”, sin requerir apenas nada del esfuerzo intelectual de antaño.

— 165 —

Ángel Garrido

Fue un gran avance para la Humanidad el invento de la imprenta por Guttenberg, ya que permitió la difusión de los textos clave, más allá de los escasos y valiosos trabajos (costosísimos y raros, por tanto), copiados hasta entonces con infinita paciencia por los monjes medievales. Se puede hablar entonces, como ahora, de un cambio de paradigma. Por cierto, que al gran G. W. Leibniz le pareció en su momento de lo más espantosa la invención de la imprenta, porque pensaba que entonces iban a caer los textos en manos de `indocumentados´, los `asnalfabeton´ de siempre, que a veces incluso regentan cátedras sin merecerlas, `robándolas´, como ya en su tiempo dijera el gran poeta y matemático persa Omar Khayán:

Ellos nos robaron nuestras cátedras. ¡Cuánto nos mintieron! ¡Cuánto robaron!

Pues ahora estaríamos asistiendo a otro de esos cambios, tal vez en una escala algo menor, desde lo que aparecía en papel a lo que viene en las pantallas de los Kindle u otros dispositivos electrónicos. Son más `llevaderos´, en el sentido de portabilidad, por muy numerosos que sean los archivos, que cabe aumentar en ellos el tamaño de la letra a voluntad, etc., pero al final no deja de ser más de lo mismo, aunque algo mejorado como soporte. Nos recuerdan el caso de los CDs, aquellos `compact discs´ que nos vendían como el invento del siglo, supuestamente tan perfectos, indestructibles, `no- rayables´, sin los problemas que daban los clásicos discos de vinilo. Y ahora se está volviendo a estos, y no sólo por un afán nostálgico de recuperar lo del pasado, sino que se ha venido a descubrir que el `todo lo más perfecto nunca visto´ no lo era tanto, sino una estrategia de Marketing o Mercadotecnia más. Se observa cada vez más, como en todas las épocas revueltas de la Historia, un puñado de oportunistas dispuestos a aprovecharse del mal ajeno, o de la escasez de recursos que acompaña a estos tiempos para un sector cada vez más amplio de la población. Así, en las grandes ciudades (como es el caso de Madrid) se abren unos establecimientos llamados de `libros de segunda mano´, donde los necesitados de espacio o algo más de dinero malvenden sus ejemplares por cantidades irrisorias, como a 20 céntimos de euro por ejemplar. Para esto no se discierne de qué tipo de obra se trata, de qué edición, de cómo está encuadernado, de la rareza del ejemplar. Se paga esa miseria como si ninguno valiera gran cosa. Luego, el caparrador de gangas, cual araña negra situada al fondo de su tela, va expurgando lo que vale más y a eso le asigna precios muchas veces altísimos. Los otros los va despachando a precios de saldo, pero siempre mayor al que había pagado por ellos. Así, se malbaratan muchas apreciables bibliotecas privadas, por el poco aprecio por la cultura de los descendientes de alguien, por la obsesión por la falta de espacio, etc. Ese desdén por el saber nos recuerda algunos textos

— 166 —

Los avances de la Inteligencia Artificial

del fascismo, como los del poeta Filippo Tomasso Marinetti u otros, cuando decían que apreciaban más un mercado que un museo o una biblioteca. Eso estaba muy en la línea del establecimiento de un soporte desde el cual impulsar el irracionalismo que lanzaba sus soflamas políticas: mucho deporte, exacerbado culto a la juventud y al poco cerebro. No pensar y sólo actuar, obedeciendo consignas. Algunos dirán que muy tonto habrá de ser alguien como para entregar por 20 céntimos lo que vale cien veces más, o más incluso, si se sabe dónde negociarlos, en las redes o en los lugares oportunos, entre gente entendida. Pero el problema principal radica en que todo esto parece pertenecer a la presencia de un mal que es cada vez más global, y que insidiosamente, como una plaga, se va apoderando de la sociedad; no setrataría de una moda pasajera, sino algo que vendría para quedarse, e iría yendo a más. Es el mundo de la imitación, de las acciones emprendidas para ser aceptados por los demás, sentir el “lana con lana” del rebaño, del “señorito satisfecho”, como recordaba nuestro don José Ortega y Gasset, o el muy similar síndrome del “niño mimado”, tal como decía Alfred Adler; o el mundo del “se”, del hacer aquello que se hace, que `se estila´ (en lenguaje castizo), lo que se dice, lo que se opina, para que no piensen mal de nosotros, para que no nos vayan a mirar mal, etc.; en resumen, se trata del mundo de la existencia inauténtica, tal como bien decía Martín Heidegger. Algo bueno tendría que tener esa especie de acelerada `sangría´ de buenas ediciones, malvendidas a los mencionados `usureros´ o `aves de rapiña´, `carroñeros´, y que muchas veces tales lotes contienen algunos de los mejores libros publicados en España, como fueran en su día los de la Editorial Aguilar, una casa que se fue a la ruina por problemas de pagos en Sudamérica, según se cuenta. Porque quien entienda de libros puede encontrar cuidados y aun lujosos volúmenes, en ediciones críticas y de precio aún asequible, a pesar que los timadores profesionales ya sepan el valor de lo que venden, y pidan el máximo de lo que piensan que te pueden `sacar´ por ellos. Aunque el número de los que merecen la pena se ha ido reduciendo a pasos agigantados, y cada vez más se encuentran sólo ejemplares repetidos de los autores que fueron conocidos en su tiempo y ahora son poco apreciados, como Jacinto Benavente, Wenceslao Fernández Flórez, Camilo José Cela u otros similares. La situación, con las variantes propias de las mentalidades y de las economías de los pueblos, puede encontrarse en otras tierras y otros ambientes, aculturados en su mayoría, incluso entre el profesorado, que en ciertas ocasiones, como en las Cátedras de Bachillerato (ahora llamado Secundaria), se habían obtenido con verdadero esfuerzo, mientras que en otros casos, como en muchas de las Facultades universitarias, suelen proceder del servilismo, del adocenamiento más atroz y deleznable, del no ser o no querer parecer problemático, aunque seas el más simple de todos. Tales docentes carecen de conocimientos que se salgan de la reducida esfera de su `especialidad´: son los `sabios ignorantes´ como decía Ortega. Y no les importa mucho (por no decir nada), ni transmiten tampoco ninguna admiración por el saber profundo a sus alumnos, que generalmente se conforman con las `pistas´ que se les conceden para

— 167 —

Ángel Garrido

conseguir el aprobado con el menor trabajo posible. Es un conglomerado de `agentes´ que persiguen cómo seguir la línea del mínimo esfuerzo. Muchos de los profesores no han vuelto a estudiar desde “sus tiempos mozos”, y por ello ven con aprensión todo lo que les suene a nuevo. Eso, al menos, sucede con demasiada frecuencia en España y es una rémora para el avance científico y cultural del país. ¿Qué cabría esperar de unas Universidades y un sistema que postergó, persiguió y obligó al exilio a sus más egregios hijos, como fueron don José Ortega y Gasset, Xavier Zubiri, Julián Marías, o Julio Rey Pastor, sustituyéndolos por el ganado pesebrista de la `Secta´? Así, sucede que algún descerebrado de los que presumen de ser profesores nos diga que: -

Aquí estamos porque “somos los mejores”.

Desde luego, es un acto que puede ser de todo menos de modestia, y es que además, resulta falso, pronunciado como con cierto disimulo, pero muy a conciencia, pues se sabe que al individuo(a) en cuestión le tocó la plaza en algo similar a una tómbola, y más que por `conocimientos´ reales fue por el `conocimiento´ de personas con influencias dentro del viciado y endogámico sistema (esto es, por buenos contactos y por adulación en los sitios y momentos oportunos). Por otra parte, y con razón, decía Friedrich Nietzsche, el desesperado profeta que predicaba en el desierto:

“¡Llega a ser el que eres!” (Werde, der Du bist!)

en su obra Ecce Homo. Y por aplicárselo a sí mismo, por su agudeza y su amor a la verdad, le `crucificaron´, como al Otro, en los mediocres ambientes universitarios de Basilea donde anduvo.

Dice Nicholas G. Carr: “Aún no somos conscientes de todos los cambios que van a ocurrir cuando el libro electrónico sustituya al libro.” A lo mejor, no es para tanto, sino que puede que se quede en algo como lo de Leibniz con la imprenta. En lo que sí que pudo estar acertado es cuando dijo ese N. G. Carr, en 2007, que la Wikipedia ejerce una dominación progresiva y todopoderosa, a través de sus páginas, que la va convirtiendo para muchos en la casi única fuente de información, lo cual lleva a rodearla de cierta (y bastante ilusoria) autoridad intelectual y moral.

— 168 —

Los avances de la Inteligencia Artificial

Y sigue comentando dicho autor que “se viene formando, de hecho, una nueva casta, la de los `wikícratas´, esto es, la burocracia que administra la Wikipedia. Todo lo cual acaba volviendo a la gente y su cultura en cada vez más superficiales, porque los usuarios se conforman con la información más simple y más rápida, sin contrastación, por preceria que esta sea. Lo peor de todo: sin acudir a ningún libro, porque su contenido ha de ser más complejo y profundo, lo que requeriría un mayor esfuerzo. Pero es que no se aprecia ni se valora la diferencia cualitativa; todo lo más, se tiene en cuenta lo más burdo, lo cuantitativo y monetizable.

[Véase: A. Garrido, Heidegger y Derrida. Sobre la cuestión de la Ciencia y la Técnica, Dykinson, Madrid, 2018; pp. 174-175].

— 169 —

Capítulo 26.

CON AIRES DE VICHY. Por guardar una estrecha relación con todo lo anteriormente expuesto, nos referiremos ahora al contenido de uno de los más profundos e interesantes congresos a los que he asistido: el que sobre Lógica, Matemáticas y temas conexos de Filosofía se ha celebrado el año 2018. Su lugar estaba muy bien elegido y era casi idílico: la antigua y señorial ciudad de Vichy, en el departamento francés de Allier - Aubergne - Les Alpes. Se le conoce a dicha población por varias razones. La primera de ellas es la gran abundancia de balnearios y de aguas termales, que dieron fama a la población, y por la cual pasaban para recibir tratamiento muchas personas que lo necesitaban y se lo podían permitir. Es la Auvernia tierra de volcanes y de esa situación geológica procede que tenga tan apreciadas aguas curativas. Aún hoy se encuentran en funcionamiento tales establecimientos, y se producen desde el siglo XIX las famosas `pastillas de Vichy´, conteniendo sales que facilitan los procesos digestivos. También otros productos relacionados con la belleza femenina. La segunda razón sería la de haber sido la sede del gobierno del “État Français”, es decir, del gobierno `colaboracionista´ de Vichy, durante la Segunda Guerra Mundial. Dicho gobierno estuvo presidido por el mariscal Phillippe Pétain, un héroe francés de la Gran Guerra. Lo de `colaboracionista´ le viene de su alianza estrecha con el Tercer Reich, y particularmente, con Hitler, llevando a cabo acciones que fueron el fruto de su visceral antisemitismo. El primer ministro era por entonces Pierre Laval, y tras la derrota, en 1945, sería fusilado por sus actos y no sólo por sus opiniones en la prisión de Fresnes. Uno de los perjudicados por la aparición de este gobierno títere sería el famoso filósofo Jacques Derrida, quien nacido en El Biar, suburbio de Argel, fue primero marginado y luego expulsado del Liceo, en su tierra natal argelina, a pesar de ser el alumno más brillante. La razón: ser de familia judía. Estos sucesos le condicionaron el resto de su vida. El aspecto que hoy en día tiene el centro de esta población es muy tranquilo, más que acomodado, con lujosas viviendas unifamiliares, antiguas embajadas, hoteles, — 170 —

Los avances de la Inteligencia Artificial

balnearios, etc., y se pueden dar muy agradables paseos por sus grandes zonas verdes, junto al río y el lago Allier. Las construcciones son muchas ellas de la época del Art Nouveau, o si se quiere decir así, recuerdan la Belle Époque. Allí acudimos para un Congreso Internacional del máximo nivel, el UNILOG 2018, organizado por el francés Jean-Yves Béziau, brillante contribuidor a la lógica paraconsistente, como colaborador del gran patriarca de esta lógica no-clásica: el brasileño Newton da Costa. En una de sus Workshops, de las más concurridas (la dedicada a la Escuela de Lvov-Varsovia; LWS, en acrónimo inglés), actué como Coordinador, junto con los investigadores polacos Urszula Wybraniec-Skardowska (discípula de Jerzy Slupecki) y Grzegorz Malinowski (gran especialista en Lógicas Multivaluadas). Este último vino en mi ayuda por el agravamiento en el mal estado de salud de Urszula, quien finalmente, no pudo acudir a un evento que tanto le debe. Siempre les guardaré un total agradecimiento, respeto y admiración por todo lo que hicieron por llevar adelante un acto de merecida memoria para un grupo tan brillante de filósofos, lógicos y matemáticos de los años 1920´s y 1930´s. Las intervencioes fueron muy brillantes y plenas de contenido, durante tres de los seis días que abarcaba el encuentro. Y para completar el gozo de tantos esfuerzos y desvelos, que nos habían llevado tres años, apareció publicado, apenas mediado el Congreso, nuestro esperado libro, publicado de un modo exquisito en las Series Universal Logic, de la Birkhäuser Verlag. Es el siguiente:

THE LVOV-WARSAW SCHOOL. PAST AND PRESENT

Que ha sido muy elogiado por personas del máximo relieve intelectual y muy buenos conocedores de estos temas, como son Peter Simons, Roman Murawski o Jan Wolenski, entre otros. Su origen estuvo en un pasado encuentro: el Pan-Hellenic Symposium de varios años antes, celebrado en la isla griega de Samos, la patria de Pitágoras y de Epicuro. Allí nos encontramos con Urszula y se nos ocurrió proponerle llevar adelante la publicación de nuevas investigaciones sobre la LWS. Le pareció bien y pensamos en proponérselo a quien también hacía allí de `maestro de ceremonias´, que no era otro que Jean –Yves Béziau. Su vinculación con la editorial Birkhäuser, de Basilea, como Editor-en-Jefe de la prestigiosa revista LOGICA UNIVERSALIS, le hacían el interlocutor más adecuado. Este aceptó y desde entonces, nos ha prestado su ayuda y su ánimo constante. Debemos agradecerle a Jean-Yves su parte de mérito indudable en que esta obra haya visto la luz, tan pronto y de forma tan oportuna, desde que fueron siendo recibidos los originales de los autores.

— 171 —

Ángel Garrido

Al profesor Grzegorz Malinowski también le deben ser dadas las más merecidas gracias por su labor constante, eficiente, para suplir las carencias que la enfermedad de Urszula planteaba.

— 172 —

Capítulo 27.

EVOCANDO A LEIBNIZ A nadie le cabe duda, si está en su sano juicio, de la gran valía de Godofredo Guillermo Leibniz (o Gottfried Whilhelm Leibnitz), nacido en Leipzig en 1646, y fallecido en Hannover el año 1716. De sus méritos se conoce relativamente poco, seguro que muchos menos que los de su gran rival, el inglés Isaac Newton. Suele considerarse como una especie de `tríada´ la de los grandes racionalistas del siglo XVII. Los otros dos componentes serían René Descartes y Baruch Spinoza. Pero sin duda, él les rebasaba ampliamente a los dos. Los conocimientos de Leibniz eran inmensos, y no menos lo era la capacidad de su mente. Abarcaba desde la filosofía y las matemáticas hasta la historia, la geología o la jurisprudencia. Con razón se ha dicho de él que fue `el último genio universal´. El pensador francés Denis Diderot decía de él, en la Enciclopedia, que: “Quizás nunca haya un hombre leído tanto, estudiado tanto, meditado más y escrito más que Leibniz… Lo que ha elaborado sobre el mundo, sobre Dios, la naturaleza y el alma es de la más sublime elocuencia. Si sus ideas hubiesen sido expresadas con el olfato de Platón, el filósofo de Leipzig no cedería en nada al filósofo de Atenas.” Aquí se supone que le hace una crítica subliminal, poniéndole por debajo de Platón, pero muy cerca. Los errores que por falta de olfato tuviera deberían referirse a planteamientos como el de la `armonía preestablecida´, o el de las `mónadas´, o al hecho de considerar este como `el mejor de los mundos posibles´, un aspecto del cual se burlaría luego cruel -y exageradamente- su colega Voltaire, en la breve novela Candide. La filosofía de Leibniz guardaba un fuerte vínculo (al menos, inicial) con la tradición escolástica; principalmente, con la lógica aristotélica. Por lo que más adelante se va a convertir en el bien reconocido como precursor (o creador) de la Lógica Matemática, también llamada Lógica Formal, Lógica Simbólica, o Lógica Moderna. Además de todo esto, Leibniz tuvo puestos de relieve en las cortes alemanas de la época, tales como el de bibliotecario o el de secretario, y fue a París comisionado por el — 173 —

Ángel Garrido

duque de Hannover para intentar de Luis XIV que cesara en sus afanes belicistas. Esfuerzo que resultaría vano. Pero entonces, aprovechó el viaje para leer lo escrito por Descartes. Por su lado, Isaac Newton protagonizó amargas y violentas polémicas con otros autores, que tal vez procedieran de haber tenido una infancia desgraciada y traumática. Tres serían las principales de tales muy acerbas controversias: Una, la que mantuvo con el astrónomo real John Flamsteed. Era por el llamado `Catálogo de las Estrellas´, una obra de dicho astrónomo de la que Isaac copió datos que precisaba para sus Principia, y que de otro modo, no podría haber obtenido. Otra, la tan rabiosa que mantuvo en contra de Robert Hooke, otro gran científico y Conservador de Experimentos de la Royal Society. En este caso, la `zona de fricción´ entre ellos era sobre la gravedad y la mecánica orbital. Y la peor de todas fue la que mantuviera con (o contra) Leibniz, sobre la prioridad en el descubrimiento y desarrollo del Cálculo Infinitesimal. Las ideas más profundas y filosóficas (derivada, diferencial, integral, infinitésimos), así como los aspectos notacionales que hasta hoy se utilizan, serían debidas al matemático de Hannover. Pero podríamos decir que Isaac Newton se mantuvo en un ambiente más propicio y ello le convirtió en una especie de estandarte dentro de las luchas por el predominio nacional en Europa, entre los insulares y los continentales, un enfrentamiento que produjo con demasiada frecuencia una casi absoluta desconexión entre ambos mundos, que ha llegado hasta cerca de nuestros días. Todo esto llevó a que (una de las ironías de la Historia) el anglosajón tuviera unos funerales de Estado, como un gran hombre que merecía ser enterrado en la londinense Abadía de Westminster, mientras que Leibniz fue cayendo cada vez más en el olvido y a su entierro sólo acudiría su secretario.

— 174 —

Capítulo 28.

CODA (CASI) FINAL Hay quien asegura rotundo que no quedaría ya nada por investigar sobre Leibniz. Con razón se dice que no hay nada más atrevido que la ignorancia. La propia naturaleza dispersa e irregular de los textos leibnizianos, que aún aparecen, sirve para asegurar la falsedad de tales prejuicios, de quienes no saben casi nada de ese gran filósofo y no podrían añadir nada a lo ya dicho por otros: ése es posiblemente el problema. Pero es que si fuera cierto que nada nuevo puede decirse sobre él, ¿qué sentido tendrían tan denodados trabajos de los últimos tiempos, como es la edición completa y meticulosa que viene haciéndose desde la Editorial Comares, de Granada, bajo la dirección de Juan Antonio Nicolás, o las aportaciones de grandes especialistas leibnizianos, como lo fuera Quintín Racionero, o ahora lo sean Concha Roldán, Eloy Rada o Javier Echeverría? Es una afirmación tan falaz que por sí misma se descalifica. Es sabido que aún existen doscientos mil manuscritos y quince mil cartas inéditos y sin estudio, guardados en el archivo dedicado a Leibniz en Hannover. Finalmente, recordemos lo que decía nuestro Ortega y Gasset sobre el pensador sajón: “Leibniz vivió en combate permanente con Newton. Esta polémica ha sido una de las más excelsas gigantomaquias que en el planeta se ha dado, y es una vergüenza que aquel egregio pugilato no haya sido aún contado de manera condigna, ni en su lado doctrinal ni en su lado ‘humano’. Este último es también sobremanera interesante, porque en él vemos que Newton es, de los dos, quien ha tenido siempre ‘buena prensa’, mientras que Leibniz la ha tenido siempre mala, empezando por el genio del periodismo: Voltaire. El caso es tanto más escandaloso cuanto que en aquella polémica, según ahora vemos, era Leibniz quien ‘llevaba la razón’ sobre la mayor parte de las discrepancias. Leibniz anticipaba con una clarividencia que produce escalofrío lo que en nuestro tiempo ha llegado a ser tanto la pura matemática más reciente como la más reciente física. Porque es preciso hacer constar que es Leibniz, de todos los filósofos pasados, aquel de quien resultan hoy vigentes mayor número de tesis. Por supuesto, que hoy no es mañana.” [J. O. y G., La idea de principio en Leibniz

— 175 —

Ángel Garrido

y la evolución de la teoría deductiva. Alianza, Madrid, 1992]

De Leibniz se suele decir que leyó todo cuanto estaba disponible en su tiempo, y que escribió `lo que no estaba escrito´ (admítasenos la broma), es decir, mucho y con muy diversos motivos, dentro de sus múltiples ocupaciones y aficiones, como bibliotecario, geólogo, jurista, embajador, matemático, lógico, teólogo, historiador, etcétera. En fin, que se trataría del último `sabio universal´, o el soñado por tantos `pensador total´.

Según el filósofo y matemático inglés Bertrand Russell, la obra de Leibniz podría ser clasificada en dos apartados: Uno, el de las obras suyas que fueran publicadas en su tiempo, y que estarían dentro de lo que se suele llamar la `philosophia perennis´, en cuanto que filosofía de corte clásico y que supondría la culminación de la metafísica occidental (recordemos su Tratado de Teodicea, o la Monadología). Y de otro lado, el complejo universo de todas sus notas y de su correspondencia, tan abundante y muchas veces tan repleta de todo tipo de consideraciones lógicas y matemáticas. Junto con los escritos de tema jurídico, o de la historia de la casa de Hannover, cuya redacción le fue encargada. Buen escritor, sin duda, y de los más prolíficos, lo publicara luego en vida o no. Su agudo ingenio resultaba también muy proclive a desentrañar los problemas de índole filosófica, lógica o matemática (si es que los tres no son subconjuntos o superconjuntos de lo mismo). Y por encima de todo, debido a circunstancias de los primeros años de su vida, como un niño huérfano que fue de un padre muy culto, quien le dejó una más que excelente y variada biblioteca, en la cual creció en edad y en sabiduría, se suele decir de él que en el nutrido ranking de pensadores alemanes debería ocupar seguramente la primera y más que bien merecida posición. Nos inclinamos por sumarnos a ello.

— 176 —

Los avances de la Inteligencia Artificial

Completar la cuidadosa traducción y edición de su legado, así como escudriñar en sus múltiples recovecos, ha sido la labor en los últimos tiempos de grandes académicos. En el caso de España, estaríamos hablando de Concha Roldán, de Javier Echeverría Ezponda, de Juan Antonio Nicolás, del desaparecido y añorado Quintín Racionero, de Eloy Rada y de tantos otros. En el caso de nuestros vecinos franceses, han sido muchas las aportaciones a su estudio, entre las que podemos citar la obra mencionada de Maurice Halbwachs, o las agudas observaciones de Gilles Deleuze, en su libro Le pli (El pliegue), donde estudia las relaciones entre el arte del Barroco, relleno de complicados pliegues, y el pensamiento sutil y complejo de nuestro Leibniz, en el que se vería reflejado. Por cierto, que en dicha obra se pregunta Deleuze: “¿Qué es la filosofía, qué es lo que hace un filósofo, de qué se ocupa?”. Para responder, más adelante que: “Un filósofo es, para mí, alguien que crea conceptos. Esto involucra muchas cosas: que el concepto sea algo por crear, que el concepto sea el término de una creación.” [Gilles Deleuze, Le pli, 2016. El pliegue, en español, editado por Kairós, en 2006, p. 18]

Comentario muy esclarecedor cuando se trata de `bucear´ en la gran figura de Leibniz.

No queremos terminar el libro sin la referencia a un `tercero en discordia´, un hombre de gran inventiva y capacidades para los objetos mecánicos más variopintos. Tal fuera el caso del inglés Robert Hooke (1636-1703). Era tal su intuición que esta le permitió iniciar muchos estudios y descubrimientos, que dejó sin terminar y otros vinieron a completar. Una de aquellas ideas brillantes fue la llamada Ley de Hooke, o la hipótesis de la gravitación universal, algo que le llevaría a otra enconada controversia con Isaac Newton. Pero no cabe duda que Hooke merece ser llamado `el Leonardo inglés´, o `el hombre que sabía demasiado´. Finalmente, decir que aquella famosa controversia sobre la prioridad en la invención del `calculus´, entre Newton y Leibniz, tuvo mucho de escándalo y de rivalidades nacionales, pero por bien conocida, no hemos querido extendernos más. En cambio, son otras, como las que mantuvo con Robert Hooke o con John Flamsteed las que debieran considerarse, pues al tener otro contendiente, y con ello variar las circustancias, podrían aclararnos mejor la idiosincrasia de aquel medio místico y alquimista que fuera Isaac Newton. Muchas más cosas podrían ser pensadas sobre Leibniz y la sombra que aún sobre nosotros proyecta. Lo cual puede hacerse con sus propias palabras o con las de otros, que parecen venir comentando las suyas. Así, Leibniz decía, en sus Nuevos ensayos sobre el

— 177 —

Ángel Garrido

entendimiento humano, que “la Matemática es la lógica de la imaginación.” Por lo que Albert Einstein pensaba que “la imaginación es más importante que el conocimiento.” Y pocos volaron tan alto como ambos. Louis Couturat, que como sabemos, era el gran estudioso francés de la obra leibniziana, dejaba escrito que el pensador sajón concebía su Lógica como una especie de `Matemática del Pensamiento´, o dicho de un modo más preciso, utilizando su propia expresión, como un Álgebra Universal59. Y para finalizar, lo haremos con dos citas, que de nuevo van a ser del gran Leibniz, como aquella de:

“los matemáticos tienen tanta necesidad de ser filósofos como los filósofos de ser matemáticos.”60 U otra, en la que concluía diciendo:

“mi metafísica es todo matemática.”61

59

L. Couturat, La logique de Leibniz, cap. VII. La Mathèmatique Universelle, pp. 317-8. Carta de Leibniz al Barón de L´Hôpital, del 27 de Diciembre de 1694(Math. II, p. 258. 61 Carta de Leibniz a N. Malebranche, 1694. Phil. I, p.356. 60

— 178 —

Capítulo 29.

PARA UNA BREVE HISTORIA DE LA ROBÓTICA

Cabe pensar en los autómatas o robots como el resultado del viejo sueño del ser humano de crear seres parecidos a ellos, pero que le sirvan a su vez para aliviarle de aquellos trabajos que son pesados o peligrosos. A esto se refería ya el gran Aristóteles, el Estagirita, en su obra Política:

“Si cada instrumento pudiera realizar su propio trabajo, obedeciendo o anticipándose a la voluntad de otros, como las estatuas de Dédalo, o los trípodes de Hefesto, que, dice el poeta, por su propio acuerdo entraron en la asamblea de los dioses; Si, de igual manera, el aparato tejiera y el plectro tocara la lira sin una mano que los guíe, los jefes de los obreros no querrían siervos, ni los amos esclavos.

Ya hubo creaciones de este tipo en Mesopotamia o en Egipto, donde se crearon ingeniosos dispositivos para las clepsidras, que así administraran el agua de un modo prefijado. Pero faltaban muchos elementos que con el tiempo se irían incorporando al saber humano. Así, un tiempo casi vacío, hasta llegar en el Renacimiento a un ser ingenioso por excelencia, Leonardo da Vinci, que diseñó un “Caballero Mecánico”, el cual imitaba, embutido dentro de su armadura, a los guerreros medievales, sólo que sustituyendo nervios, músculos y tendones por cuerdas y poleas. No hay constancia de que en su época fuera montado y hecho funcionar, pero en nuestro tiempo se ha podido reconstruir cómo sería, a partir de sus dibujos. Su finalidad fue pensada no tanto con fines ofensivos (no tenía cerebro que le diese instrucciones), sino más bien disuasorio, para producir temor en el enemigo. El nombre de “robot” (de `robota´, que quiere decir algo así como `esclavo´) vino a aparecer en una famosa obra de teatro: “R. U. R.”, del checo Karel Çapek. Contaba la

— 179 —

Ángel Garrido

historia de unos objetos creados para ayudar al ser humano y que finalmente, se rebelaban contra él. Hubo después grandes pensadores científicos, como Norbert Wiener (`padre de la Cibernética´), Alan Turing (desconocido entonces y famoso hoy por series y películas que tratan de la máquina Enigma y sobre el desencriptado de los mensajes cifrados alemanes durante la Segunda Guerra Mundial, a la que contribuyó a abreviar), o el inventor español Leonardo Torres Quevedo (`padre de la Automática´), … Todos ellos contribuyeron a explorar porciones de territorio inexplorado, de las que hoy derivan la Informática y la Robótica; en general, del ancho campo de la Inteligencia Artificial. Un nombre aún bastante desconocido por muchos es el de Charles Devol (19122011). Él fue quien ideó el primer robot industrial (de ahí que se le considere por muchos el `padre de la Robótica´). Pero se asoció con Joseph F. Engelberger, muy hábil en los negocios, para obtener más fruto de la creatividad de Charles Devol (de ahía que otros le consideren a él como `padre de la Robótica´). Ambos fundaron UNIMATION, la primera empresa de robótica de la historia. El primer robot industrial deriva de que en 1948 habían patentado un brazo robótico, y se llamaba UNIMATE.

Charles Devol

Sería en 1956 cuando acordaran la creación de la primera compañía fabricante de robots. Esta fue la CONSOLIDATED CONTROLS OPERATION, nombre luego abreviado a UNIMATION (por UNIversal AutoMATION). En 1960 firmaron un contrato con la General Motors, para la instalación de un brazo robótico en su factoría de Trenton (NJ). Con él movían, apilaban, etc, chapas de metal caliente. Ocho años más tarde viaja a Japón, llegando a acuerdos con KAWASAKI para producir robots del tipo UNIMATE. En 1978 lanzan el PUMA (acrónimo de Programmable Universal Machine), diseñado para mover objetos y cambiarlos de orientación. Uno de los investigadores más seguidos en la actualidad es el japonés Hiroshi Ishiguro. Son famosos sus trabajos encaminados a la creación de androides, como su famosa ERIKA, el TELENOID, o KOREMOROID, o ELFROID, ú OTOMOROID.

— 180 —

Los avances de la Inteligencia Artificial

Aplica métodos provenientes de la neurociencia, de las ciencias cognitivas y de la ingeniería, intentando profundizar en la tan necesaria interacción entre robots y humanos. Así, ha creado el GEMINOID-4, en un intento de conseguir una copia lo más parecida posible a sí mismo. Para ello utiliza un cráneo de plástico, un esqueleto metálico y una piel de silicona. Su funcionamiento se realiza mediante señales que son recibidas mediante auriculares dotados de sensores.

Hirpshi Ishiguro y su inquietante androide

Hoy en día se diseñan y fabrican muchos tipos de robots, tanto para uso industrial como para actividades lúdicas o de acompañamiento; por ejemplo, de los enfermos o de los ancianos en Japón, una población cada vez más envejecida. Tanto se ha sofisticado su elaboración que se intenta conseguir máquinas aptas para llevar a cabo el `pseudo-amor´ (sexo puramente mecánico, pero efectivo, aunque sin sentimientos), realizado con humanos. Un problema, sin duda, sería el de llegar a `simular´ esos sentimientos, o a conseguir cierta empatía (ya que lo puramente mecánico es más simple, y por tanto, más accesible).

Visualización del “valle inquietante”

— 181 —

Ángel Garrido

Es digna de consideración la cuestión del llamado “valle inquietante” (uncanny valley)62, que es la depresión o vaguada que se produce en la reacción del humano cuando contempla a un humanoide (ver el gráfico de respuesta). Lo acepta bien cuando no se parece en absoluto a él, o cuando se parece mucho, pero por el camino atraviesa una región donde se rechaza abiertamente.

Una mención recurrente es la de la figura clave de la mística judía: el Golem, que fuera construido a partir de arcilla o de barro por el rabino de Praga (llamado el Rabbi Judah Loew be Bezalel), quien Borges menciona. Parece ser que lo elaboró para defender a su comunidad de los ataques antisemitas. Este personaje lo plasmó también, literariamente, Gustav Meyrink (1885-1932), en su libro. Decía Borges que él aprendió alemán para poder irlo traduciendo, con ayuda de un diccionario. El problema de la plasmación de un Golem, como el de los artilugios más o menos rudimentarios o de feria que con el tiempo darían paso a los autómatas y a los robots, es esa falta de cerebro, pero eso mismo también le ocurre a infinidad de humanos, y lo más preocupante es que muchas veces sean hasta presidentes de gobierno. Ya dicho más `en serio´: necesitaban estar programados, saber qué hacer en cada caso y con qué secuencia, ser capaces de interactuar con el entorno.

El rabino de Praga y su creación

Para animar aquella criatura, había que introducirle, según algunas versiones, un trozo de pergamino en la boca, con las letras hebreas que corresponden a la palabra “Verdad”, y cuando este se le quitaba, volvía a quedar inanimado.

62

Concepto introducido por Masahiro Mori, en 1970.

— 182 —

Los avances de la Inteligencia Artificial

Ahora veamos el retrato de aquel autor (Meyrink), del cual dice Jorge Luis Borges (uno de sus grandes admiradores, con muchos otros, como fueran Franz Kafka o Carl Gustav Jung) que le encuentra parecido en las facciones con Macedonio Fernández, notable escritor argentino y precursor suyo. Por cierto, que El Golem fue prohibido por dos dictaduras, de modo consecutivo: por los nazis primero y por los invasores soviéticos después.

Gustav Meyrink

La figura del Golem va a ser la precursora de otra también muy inquietante: la del mostruo de Frankenstein, o el moderno Prometeo, que saliera de la pluma de Mary W. Shelley (su obra constituye una famosa novela gótica de 1818). Pero sin embargo, existe una diferencia esencial entre ambas, pues mientras la que deambulaba por la sinagoga de Praga estaba hecha de barro, la de Frankenstein era un ensamblaje de trozos de cuerpo humano a los que luego se le podía insuflar algún modo de vida.

Representación simbólica del Golem de Praga

— 183 —

Ángel Garrido

No olvidemos tampoco las famosas Leyes de la Robótica, enunciadas por Isaac Asimov en su libro “I, Robot”: 1. Un robot no hará daño a un ser humano, o por inacción, no permitirá que un ser humano sufra daño. 2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entren en conflicto con la Primera Ley. 3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o con la Segunda Ley. En dicha obra, el científico ruso-americano (Asimov) planteaba interesantes paradojas acerca de estas Leyes. Luego, mucha literatura de la llamada ciencia-ficción ha seguido por la senda marcada por Asimov, dejando algunas obras maestras, como las de Arthur C. Clarke, o las de Philip S. Dick.

— 184 —

Capítulo 30.

SOBRE EL ZEN Y LA TÉCNICA EN HEIDEGGER

Ángel Garrido UNED

A la memoria de mi tío, Agustín Bullón Vera. Que fue el más brillante abogado de Salamanca. Y que falleció cuando yo estaba preparando este trabajo.

RESUMEN: Siempre se queda algo por decir, esto es inevitable, y cuando vamos repasando mentalmente todo lo dicho, aparecen cosas ausentes, que suelen parecer ahora más importantes que las mencionadas. Alguna de estas observaciones las vamos a relatar, antes que el tiempo o el olvido se las lleven por delante.

1.

Sobre la interpretación heideggeriana de la Técnica.

Voy a incluir aquí una serie de comentarios, que espero sean de interés también, y que por unas razones u otras, no siempre se vienen diciendo. Una sería en relación con las reuniones celebradas con Heidegger en la localidad suiza de Zöllikon.

— 185 —

Ángel Garrido

Otra, recordar la progresiva vinculación al Zen del `mago de Messkirch´. Ha sido ya comentada por otros, pero siempre de modo tangencial. Y añadiremos también las referencias a varios autores interesantes, para contribuir al tema, y que por razones de espacio u olvido no fueron contenidas en el volumen anterior, aquel de Heidegger y Derrida. Sobre el concepto de la Ciencia y la Técnica, publicado en 2018 por la Editorial Dykinson. Entre tales autores omitidos podemos mencionar a Friedrich Georg Jünger (el hermano menor del novelista Ernst, el autor de Der Arbeiter (El Trabajador), obra muy relacionada con los temas aquí tratados, los de la Ciencia y la Técnica); asimismo, de varias novelas, como las tituladas Sobre los acantilados de mármol o la de Tempestades de Acero).

2.

Otras interesantes perspectivas.

Como pensador interesante podemos considerar el caso de don Julián Marías Aguilera, aquel fiel `escudero´ y discípulo que tuvo don José Ortega y Gasset. Y uno más: el filósofo chileno Jorge Acevedo Guerra (profesor allende los mares y padre de muchos libros interesantes sobre las cuestiones heideggerianas), quien nos recordó la importancia de los Zollikon Seminars, una observación por la que le damos las más calurosas gracias. Como una observación inicial, debemos añadir esa conveniente referencia a los “Zollikon Seminars”, que Martin Heidegger impartiría en la casa de su amigo, el psiquiatra suizo Medard Boss, entre 1959 y 1969. Su vivienda estaba en una población muy próxima al lago de Zúrich; concretamente, a unos seis kilómetros al Norte de esa tan bella como activa población. Tales Seminarios versaban sobre `Ontología y Fenomenología´, siendo recibidos por un público formado por médicos y psiquiatras, que no entendían mucho de lo que decía ese hombre tan singular, aunque les impresionaban su terminología y su talante. Se dijo que era como si hubiera venido a visitarles una especie de extraterrestre, que se dirigiera a ellos en un idioma extraño, sorprendente, pero incomprensible. En esas reuniones Heidegger ya mostraba su creciente interés por el Zen y por la Filosofía Oriental, tras haber sobrepasado desde hacía bastante tiempo el famoso “Kehre”, o Giro, que ya le hacía entrar en una nueva época, la llamada del “Segundo Heidegger”. Por su parte, el profesor Jorge Cecilio Acevedo Guerra estudió en la Facultad de Filosofía y Educación de la Universidad de Chile. También era chileno otro eminente profesor: Jorge Eduardo Rivera, quien sería el laborioso y nuevo traductor del Ser y Tiempo, de Heidegger, obra difícil donde las haya, por la dificultad de los conceptos y el manejo prodigioso del lenguaje, plagado de neologismos. Por eso le llevó muchos años ese trabajo, que era necesario, pues como él decía, la del maestro don José Gaos en muchas partes parecía incomprensible. Volviendo a tratar de Acevedo, éste tuvo en su — 186 —

Los avances de la Inteligencia Artificial

`alma mater´ la suerte de contar con buenos profesores, como un buen discípulo de José Ortega y Gasset; pero no sólo de este, sino también de esa especie de `escudero fiel´, heredero y gran estudioso suyo que fuera don Julián Marías. El nombre en cuestión era el de don Francisco Soler Grima. También recibió las clases de Jaime Sologuren y Cástor Narvarte. Tuvo a su cargo el profesor Acevedo una cátedra de Filosofía de la Técnica, en la Universidad de Santiago. Miembro asimismo de la Sociedad Iberoamericana de Estudios Heideggerianos (la SIEH, en acrónimo). Aparecen 14.652 `Reads´ de sus interesantes trabajos, en la base de datos que lleva por nombre Research Gate. De entre sus escritos, cabe destacar: - Martín Heidegger: Filosofía, Ciencia y Técnica. Donde el autor reúne y comenta escritos heideggerianos sobre esos temas. Ediciones de la Universidad de Santiago de Chile, 2017. - Heidegger y la época técnica. Existe una reedición chilena, en esas mismas ediciones, que es de 2016. - Heidegger: existir en la era técnica. Ahora se trataría de una obra editada por la Universidad (en este caso, una privada) Diego Portales, de Santiago de Chile. Es del año 2014. Acevedo ha trabajado en numerosos Proyectos Internacionales, como los que tratan sobre El pensamiento de Heidegger, El pensamiento de Ortega, o aquel de El pensamiento de Humberto Giannini. Vale la pena recomendar una creación: el Mauss: A Survivor Tale. Libro en cómics de Art Spiegelman (1986). Obra definitiva sobre el Holocausto. Consiguió el Premio Pulitzer. Representaba a los nazis como gatos, y a los judíos, como ratones. En cuanto al tema de qué significaba lo tecnológico para la mentalidad nacionalsocialista, hemos de recordar que el nazismo fue, sin duda, la `apoteosis de la Técnica´, en el sentido de que adoraban todo lo que fueran máquinas. Motocicletas, automóviles o aviones, y tanto más cuanto más veloces y peligrosos fueran. Lo preferían a las obras de arte y a los museos, como dijera el poeta fascista del movimiento futurista, Filippo Tomasso Marinetti. Y el caso más paradigmático pudiera ser el del mismo Adolf Hitler, quien siempre que podía utilizaba sin mesura las máquinas, siempre buscando impulsar con ellas sus campañas y su autopropaganda. Adoraba la Técnica; más aún, sentía una cierta idolatría por ella, como muchos de los jerifaltes nazis. Lo que también sucedía con la gente de a pie de esos movimientos fascistas, pues se le vendía el maquinismo como el más claro paradigma de los `nuevos´ y `revolucionarios´ tiempos. Un estudio bien interesante puede ser el que compara a Hitler con Stalin, que en principio puede que nos parezcan personajes tan disímiles, pero que luego resultan ser bastantes las coincidencias entre ambos: la baja extracción social, su escasa cultura y

— 187 —

Ángel Garrido

desprecio por los `intelectuales´, el carácter taimado y traicionero, tan violento y cruel, de ambos, que en el caso del segundo se revestía de una apariencia santurrona y palabrería eclesiástica (recordemos que estudió en un Seminario de Tbilisi – Tiflis), dejando hablar primero a los demás, para finalmente venir a hacer una especie de resumenobal, viendo lo que todos iban, sin duda, a aceptar . Las fechorías de ambos dictadores también guardan cierta inquietante `simetría´, pues al tan mencionado Holocausto nazi, que llegó a eliminar a cerca de seis millones de judíos, gitanos, homosexuales y disidentes políticos, no le dejó atrás algo de lo que se debe culpar a Stalin, pues estaba dentro de sus planes de colectivización forzada de la tierra en la URSS: es el llamado Holodomor, o Genocidio Ucraniano, una gran hambruna (al parecer, forzada); pues fue programada por el camarada `Acero´ (tal es el significado del sobrenombre Stalin). Puede ser que llegara hasta más de cuatro millones el número de sus víctimas. El Holodomor sucedió entre 1932 y 1933; principalmente, en la República Socialista Soviética de Ucrania. Como en el caso del otro genocidio, que por algunos aún viene siendo rechazado como `invento sionista´, este se ha pretendido encubrir por ciertos personajes de tendencia izquierdista, cual si fuera una leyenda negra urdida por el anticomunismo, como un subproducto de la traición y del derrotismo. No ha de extrañarnos, pues muchos serían los que intentaran `tapar´ las miserias y los crímenes estalinistas (muchos y notorios personajes, de todos conocidos). Dice la historiadora Anne Appelbaum que “la hambruna no fue causada por el caos ni por fallos, sino por culpa de las requisas, así que sólo se puede concluir que fue totalmente intencionada.” Además, lo padecieron otras etnias, no sólo los ucranianos; también los kazajos, los habitantes del Cáucaso o los de las riberas del Volga, entre otros. Se trató de evadir responsabilidades, culpabilizando a los llamados `kulaks´, o campesinos acomodados, que solían ser los más enérgicos y decididos habitantes del país, diciendo que todo era debido a que éstos acaparaban y ocultaban el grano, o destruían las cosechas, matando de paso al ganado. No olvidemos tampoco que Ucrania siempre había sido el granero de Rusia, incluso de Europa, con sus famosas y fértiles `tierras negras´. Pero ese es un argumento falaz, ya que resulta bien probado que miembros del Ejército Rojo, así como numerosas brigadas formadas por miembros del Partido y de la Policía, recorrieron las granjas, para irles requisando, primero, todo el cereal que guardasen, y luego, el resto de la comida que tuvieran, con lo que se les condenaba a la muerte por inanición. Les expulsaban también de sus casas, quedándose con sus otros bienes, y les enviaban, deportados, hacia el Norte y a las regiones más inhóspitas de Siberia, hacinados en trenes para el traslado de ganado. Así pretendían doblegar el que tradicionalmente era bastante recio nacionalismo ucraniano, y su tenaz oposición a la colectivización impuesta por Stalin, pretendiendo obligarles a integrarse a la fuerza en los `koljoses´, o granjas colectivas. También se llevó por delante ese proceso a otros campesinos por desconfianza o sospecha, en venganza de algún viejo rencor. Se calcula que en el proceso llamado de

— 188 —

Los avances de la Inteligencia Artificial

`deskulakización´ (1932-1934) fueron expulsadas de ese modo, más de tres millones de personas, de las cuales unas trescientas mil eran ucranianas. Otra semejanza indudable se puede ver entre los campos de concentración de los nazis y los `gulags´ soviéticos, verdaderas máquinas (ambas) de destrucción espiritual y de muerte para millones de seres humanos. Una observación que no conviene olvidar es que la cosecha de cereales del año anterior al Holodomor (1931) había sido excelente, y que por tanto, no había razón objetiva alguna para que tal hambruna se produjese, si no fuera por esa aviesa intención de infligirles un duro castigo que los dirigentes del Kremlin tenían contra ellos. Además, aparte de premiar con parte de los alimentos requisados a regiones más adictas a las órdenes del `aparatchik´ (el aparato del Partido), se dio el hecho terrible de estarles vendiendo (al mismo tiempo) los numerosos excedentes de grano requisados al extranjero. Si queremos conocer en detalle toda la secuencia de torturas, desapariciones, fusilamientos, etc., con que Stalin pagó a los que habían sido `compañeros de Lenin´, basta con seguir esta secuencia de acrónimos: OCHRANA → CHEKA→ OGPU → NKVD → KGB Organismos que eran de tipo inquisitorial, dado a las torturas y a las ejecuciones sumarias. Estas abarcarían desde los tiempos del zarismo (la primera de ellas) hasta las sucesivas transformaciones que fueron produciéndose desde la época estalinista, llegando hasta la actual, de Vladimir Putin, que por cierto, fue un agente de la última en la Alemania Oriental. Así, pues, tanto Stalin como Hitler eran individuos de complejos (y al mismo tiempo, megalomaníacos); además, mediocres, incultos, desconfiados, de pocas luces, pero a la vez taimados y sumamente peligrosos: unos verdaderos paranoicos narcisistas, asesinos de masas. El Parlamento Europeo reconoció oficialmente, el 23 de Octubre de 2008, que el Holodomor debe ser considerado también como otro Crimen Contra la Humanidad.

3.

Otros pensadores de interés

En cuanto a Friedrich Georg Jünger (1898-1977), que era el hermano menor de Ernst Jünger, podemos decir que se presentó a alistarse como voluntario a la Primera Guerra Mundial, de la que no salió muy bien parado, pues lo que consiguió fueron catorce heridas. Estudió Filosofía en la Universidad de Leipzig, completando con estudios de Biología y Zoología. Luego se doctoró en Derecho, en la Universidad de HalleWittenberg. Se vinculó al llamado Movimiento Revolucionario Conservador. Gran estudioso y notable escritor, es famosa su obra Griechist Myths (Mitos Griegos), de 1947.

— 189 —

Ángel Garrido

Y aunque sea menos conocida, es también muy digna de interés otra de sus obras, la que lleva por título La perfección de la Técnica, y que ahora ha sido reeditada por Páginas Indómitas. En ella podemos volver a escuchar una de las voces más incisivas y críticas, dentro de las corrientes anti-industriales de la época. Otro libro suyo de un cierto relieve es aquel que escribiera sobre Nietzsche; también reeditado recientemente por la casa Herder, como el antes citado de los Mitos. La figura de Julián Marías (1914-2005), asimismo, guarda una relación bastante estrecha con la de Martin Heidegger, incluso mediante su conocimiento personal, y no sólo por un paso intermedio: el de haber sido el alumno privilegiado de Ortega; este, a su vez, también fuera un buen admirador del filósofo de Messkirch. En las conversaciones que Julián Marías mantuviera con Heidegger, este le reconoció que no le sonaba de nada ese tal don Miguel de Unamuno, hecho que sorprendió al español, pues parece que pudiera haber una cierta conexión entre ambos autores. En cambio, le sorprendió que sí conociese a García Lorca. Puede que la explicación radique en la ausencia de don Miguel, que se encontraba por esa época en Francia. Nos referimos al tiempo posterior a la aparición del Ser y Tiempo, que es de 1927. El hecho justifica, hasta cierto punto, que Ortega lo leyera enseguida, viéndole sus claros y sus sombras, pero que en cambio, no fuera consciente de ello el profesor de Salamanca. Julián Marías se convirtió en el discípulo por antonomasia de Ortega, partiendo para ello de un legado filosófico, cuyo eje es el raciovitalismo orteguiano, en cuanto doctrina que pretende superar la dicotomía entre realismo e idealismo. Marías inició sus estudios en las Facultades de Ciencias y Filosofía, en 1931, pero terminó optando por esta última, cursándolos en la Universidad Complutense de Madrid. Participó en muchas reuniones internacionales; entre otras, en el famoso encuentro de pensadores de Cerissy, en 1954, junto con Gabriel Marcel y Martin Heidegger, entre otros. Sería Zubiri quien le dirigiera su Tesis Doctoral a Julián Marías. Versaba acerca del pensamiento del Padre Alfonso Gratry. Hubo una confabulación en el tribunal, especialmente amañado para poder suspenderle. Era 1941, y no sería hasta muchos años después cuando le pudo ser aprobada. Del tribunal tan sólo manifestó su disconformidad con el alevoso suspenso don Manuel García Morente. Ambos (Ortega y Marías) serían depurados de la enseñanza universitaria en la España franquista, debiendo irse `a hacer las Américas´, una circunstancia que compartieron con muchos de los mejores pensadores del país. Se les acusaba de “irreligiosidad, republicanismo y antiespañolismo”. En Argentina y el resto de Hispanoamérica, por ejemplo, serían muy apreciados y aun admirados, pero en su patria cainita no pudieron volver a desempeñar su docencia.

— 190 —

Los avances de la Inteligencia Artificial

Tal como le sucedería también a Xavier Zubiri Apalategui (1898-1983), filósofo y teólogo, discípulo, primero de Ortega, y luego, de Heidegger. Estudió en Friburgo, Madrid y Lovaina. Zubiri publicó, en 1962, su obra quizá más conocida, titulada Sobre la esencia, que aun en el nombre tiene claras connotaciones heideggerianas. Ortega le dirigió la Tesis Doctoral. Sabemos que la filosofía de Zubiri se ha de considerar cristiana, pero sin llegar a ser escolástica. Le escribió también a Julián Marías un `Prólogo´, para su famoso libro, Historia de la Filosofía, útil manual de tantos estudiantes. Se ordenó primero sacerdote, y luego abandonó los hábitos, para tomar como compañera a Carmen, la hija de Américo Castro; eso sucedía en el año 1936. Antes, en 1929, había tenido una estancia en la Universidad de Friburgo, donde acudió para el estudio de la Fenomenología, con Edmund Husserl y Martin Heidegger. Al año siguiente, en Berlín, conocería a Albert Einstein. Gran parte de la obra de Xavier Zubiri se va a ir formando, con el tiempo, como una casi perpetua discusión con la entonces desarrollada por Martin Heidegger. Así pudo el español ir avanzando en un pensamiento propio, contrastándolo con el que destilaba el de Messkirch. Pero ese diálogo lo va a establecer con el primer Heidegger, que es el que abarca hasta su Ser y Tiempo inclusive. No lo va a proseguir luego, tras el `Kehre´ (o `giro hermenéutico), cuando dé paso al segundo Heidegger, ya de obras más breves y de diferente sesgo (que es donde va a conectar con el Zen y el pensamiento oriental). Lo que Zubiri va a hacer es replantearse toda la historia de la filosofía; especialmente, de la griega. Partiendo para ello de lo pensado por Edmund Husserl y su discípulo, Martin Heidegger. Además, Xavier Zubiri estaba muy interesado en las teorías matemáticas y físicas, tan candentes en la época, como fueran la Relatividad o la Mecánica Cuántica. Colaborando con Louis de Broglie en París. De ahí provendrían luego sus libros de ensayos, como Naturaleza, Historia, Dios, que es de 1944, o el de Espacio. Tiempo. Materia (1992).

4. A vueltas de nuevo con Heidegger y el Zen Y todo esto gira en torno al llamado `mago de Messkirch´. Porque cada vez son más las críticas que se ceban en su persona y en su pensamiento, buscando no sólo desacreditar ambos, a él como si hubiera sido un inveterado nazi, e incluso, llegando a considerarle como un estrecho colaborador de Hitler. Asimismo, intentando que la `mancha´ recaiga también sobre sus `hijos´ intelectuales, como sería el caso de Jacques Derrida, judío y francés, pero de origen argelino. Lo cual es aún más que una manía persecutoria, una obsesión, en vez de un acto de justicia. Porque ambos vivieron en unas circunstancias concretas, distintas para cada uno de ellos, pero difíciles en cualquier caso, y estas debieran analizarse, para tratar al menos de `entender´, sin con ello tener que `justificar´ del todo.

— 191 —

Ángel Garrido

Lo curioso es que no se mide con el mismo patrón, ni se critique del mismo modo, a otros pensadores que siguieron una línea muy similar, como fue, por ejemplo, el caso de Emil Cioran, Vintila Horia, o Mircea Eliade, con sus respectivas vinculaciones a la `Garda de Fier´ (o Guardia de Hierro), movimiento nacido en Rumanía y con grandes afinidades con el nacional socialismo, sólo que más dado a lo religioso y lo místico. Otros autores, como los italianos Gabriele D´Annunzio (1863-1938), o Curzio Malaparte (1858-1957), ambos grandes intelectuales y escritores, pero también unos indudables soportes, como precursores del fascismo italiano. Algo parecido podría decirse de ciertos escritores franceses, que aun aparentando estar siendo algo marginados, se siguen leyendo y apreciando, al menos entre los `entendidos´, como es el caso de Pierre Drieu de la Rochelle o Louis-Ferdinad Cèline. En el caso de Martin Heidegger, parece ser que fue un producto del ambiente belicista y de una base tan vengativa, pero entonces reinante en Alemania: que se dejó arrastrar por él. No olvidemos que Adolf Hitler fuera creado por ese mismo ambiente, que crecía sin parar dentro de la sociedad germana; no fue tanto un gran orador (que lo fue siendo cada vez más), sino un oportunista con muy buen olfato para la política. Se creía él mismo el mayor filósofo del Reich, y se rodeó de otros que trataban de ejercer ese papel: tal fuera el caso de Joseph Goebbels, Doctor en Filosofía por la Universidad de Heidelberg y que sería el gran propagandista, Ernst Krieck, Alfred Baeumler, o Alfred Rosenberg, que aparte de Reichsleiter, acabó siendo nombrado Ministro del Reich para los Territorios Ocupados del Este, a pesar de que era muy despreciado (en su ausencia) por los gerifaltes del régimen, como lo hacían el mencionado Joseph Goebbels, o Hermann Goering, incluso Hitler. De la mente de Rosenberg procederán muchas de las `ideas´ puestas en práctica por el régimen nacionalsocialista, con las consecuencias de todos conocidas: como el `Lebensraum´ (o `espacio vital´, que les habilitaba para apoderarse cuantas tierras de Rusia y los alrededores quisieran), el ansia por derogar lo firmado en el Tratado de Versalles, la `solución final´ para el `problema judío´, que conducía directamente al Holocausto, o la implantación de un `cristianismo positivo´, en cuanto secta y nueva religión del régimen, que sustituyera al catolicismo, como despreciable y `vieja herencia judía´, o al protestantismo, que había fracasado (cuando la Reforma) en establecer una religión que fuese nacional. El caso de Heidegger era seguramente el de un `idealista´ (o dicho de otra manera, un iluso), que creyó que como él anhelaba ese puesto de `filósofo del Führer´, se lo iban a dejar disfrutar todos aquellos intrigantes que alrededor suyo pululaban. Quiso `enderezar´ un movimiento que era supuestamente `revolucionario´, cuando los que le rodeaban no querían que lo fuese, especialmente los más acaudalados o poderosos; entre ellos, el ejército (Reichswher). De milagro llegó a salvar la vida (no se sabe si fue avisado, seguramente), cuando la Noche de los Cuchillos Largos, pues era muy amigo de su líder, Ernst Röhm, y fueron sus `camisas pardas´ quienes le habían aupado al Rectorado de la Universidad de Friburgo.

— 192 —

Los avances de la Inteligencia Artificial

Dice el autor alemán Rüdiger Safranski que “Heidegger es un budista Zen europeo. Así habría que entender la palabra `Sein´ (Ser), en lugar de Dios, como negación de un contenido concreto.” Este filósofo y gran divulgador, que incluso lo ha venido siendo a través de un programa de televisión en su país, con Peter Sloterdijk, ha escrito una biografía extensa e intensa sobre Martin Heidegger. El maestro de Alemania. Pues son muchos los que ven estrechas conexiones entre el pensamiento heideggeriano y la filosofía subyacente en el Budismo Zen, por lo que piensan que podría resultar un buen puente entre Oriente y Occidente. La relación se puede percibir en algunos conceptos esenciales en Heidegger, que guardarían una fuerte relación con los del Taoísmo chino, el Budismo Mahayana o el Budismo Zen. Quizá por ello tuvieran las obras heideggerianas tan buena acogida en Oriente; tal es el caso del Japón, lo cual se fue reforzado por la atracción que sentían hacia Friburgo y Heidegger algunas de sus mentes más privilegiadas, como pasó con aquellos lúcidos integrantes de la Escuela de Kyoto. Es preciso recordar que las escuelas budistas guardan un origen común, que está en la India. De allí derivan luego a la China, que es donde alcanzarán su forma definitiva, pero con diversas variantes. Y a su vez, se diversifican por Corea, Japón y el sur de Vietnam. ¿Qué significa el término `zen´? Pues sería algo equivalente a `meditación´. En cuanto vía preferente para alcanzar el `nirvana´, según nos dicen los `sutras´ del budismo mahayana. Se considera como la tradición basada en la intuición y la espontaneidad. El substrato de holismo en el pensamiento oriental (y en particular, refiriéndonos aquí al budista) se puede observar meditando aquella evocadora frase de Dogen: “Hemos de ver el universo entero en un solo granito de polvo.” Otro pensador interesante, como gran divulgador del pensamiento oriental (y en particular, de la literatura budista Zen y Shin, que era antes poco conocida en Occidente) fue Teitaro Suzuki (1870-1966), filósofo japonés, autor de muchas y profundas obras. Tenía por nombre budista `Daisetsu´, que significa `Gran Simplicidad´, y este que le fue impuesto por su maestro Zen, Doyen Shaku. Se le suele vincular con la famosa Escuela de Kyoto, aunque no se considera por muchos que esa pertenencia se diera oficialmente. También estuvo muy interesado Suzuki por el misticismo cristiano; en especial, por el Maestro Eckhart. Apuntemos que dicha escuela de pensadores estaba vinculada a la Universidad Imperial ubicada en dicha antigua capital del Japón. Contribuyó al pensamiento occidental, pero desde una perspectiva puramente oriental. Estaban, en cierto modo y en distinto grado, fascinados por Heidegger. Esa denominación, la de `Escuela de Kyoto´, proviene de 1932. Partiría, esencialmente, de los escritos y reflexiones de Kitaro Nishida (18701945). Le sucedió, en su cátedra de la mencionada Universidad, su discípulo, Hajime Tanabe (1885-1962). Alcanzando su máximo esplendor luego con Keiji Nishitani (19001990). Incluso, se suele añadir un cuarto componente de la Escuela. Este sería Watsuji Tetsuro, dado que es afín al pensamiento de dicho grupo.

— 193 —

Ángel Garrido

Bien podemos ver la relación existente entre la Nada en Heidegger, por un lado, y la Vacuidad, o el vacío, en el Budismo Zen, por otro. Puesto que la comprensión del Dasein (el ser-ahí´, como eyectado en el mundo), en tanto que apertura y como una escucha atenta al ser del ente, por lo que se encuentra vinculada con ese silencio tan propio del Zen, y que permanecerá atento a la presentación del ente en cada circunstancia.

Conclusiones El Zen puede ser visualizado desde el marco filosófico de Martin Heidegger, quien se familiarizó e incluso identificó con él, dado ese su empeño en superar la dicotomía aparecida entre sujeto y objeto. Muchos son los autores y muchas las perspectivas desde las cuales puede seguir siendo explorado el fructífero pensamiento oriental, en relación con el `mago de Messkirch´.

— 194 —

Capítulo 31.

LAS NUEVAS MATEMÁTICAS: LA INTELIGENCIA ARTIFICIAL

El término “Inteligencia Artificial” (IA, en acrónimo español; AI, en acrónimo inglés) fue introducido en la famosa Conferencia de Darmouth, de 1956, por el matemático escocés John Mc Carthy, como “la ciencia e ingeniería necesaria para lograr que los ordenadores piensen y aprendan”. Especialmente, se refiere al desarrollo de `programas inteligentes´, que permitan resolver problemas para los cuales no disponemos aún muchas veces de algoritmos específicos. Recordemos que un algoritmo es una secuencia limitada de pasos, diseñada para resolver computacionalmente un problema. Aunque existen situaciones que se resisten al desarrollo de algoritmos, como serían las del llamado `Machine Learning´ (o Aprendizaje Automático), el Reconocimiento de Patrones (de un sonido, de un rostro,…), o el análisis de inmensas cantidades de datos, como cuando estudiamos la evolución del clima, la del consumo, o la de la Bolsa. Así que la IA va desarrollando nuevas técnicas para poder abordarlos [1, 2, 4]. Cada vez son más los sistemas con los que interactuamos y que sin saberlo nosotros, están utilizando diversas técnicas de IA. Por ejemplo, en el modo de selección y de ordenación de resultados en Google, para las búsquedas: lo cual implica toda una mezcla de esas técnicas de IA. También el necesario soporte a la navegación desde una torre de control en un aeropuerto, etc. Todo esto hace que empresas como Google, Twitter, Apple, Facebook, etc., intenten captar a las mentes más prometedoras. Para lo cual curiosamente prefieren a los matemáticos antes que a los ingenieros, pues dicen que tienen la cabeza mejor “amueblada”. Se necesita mejor de sutileza y de intuición, más que de rutinas: ésa es la clave. La imaginación sería lo más esencial, tratando de pensar con calma y con toda la profundidad posible. De ahí que en los últimos tiempos se estén incorporando a esos equipos de investigación también filósofos, por el peso que (cada vez más) tienen los desarrollos lógicos y por la necesidad de analizar los desafíos éticos que está proponiendo la IA. No es de extrañar esa predilección por cierto tipo de estudiosos de la Matemática, pues según el antes mencionado Mc Carthy, “ésa es una disciplina imprescindible para desarrollar la Inteligencia Artificial”. La historia de la Computación puede remontarse hasta mucho tiempo atrás [3-7]. Así, por ejemplo, partiendo de las máquinas diseñadas por Blaise Pascal (la `Pascalina´),

— 195 —

Ángel Garrido

o por G. W. F. Leibniz, filósofos y matemáticos ambos. Este último es probablemente quien más merecimientos tenga para ser elegido como el `progenitor de la criatura´. Pero también abarcaríamos toda una especie de superconjunto, una línea continua de pensamiento, que pasaría por genios matemáticos de la talla de Alan Turing, o de Janos Neumann (para los americanos, John von Neumann). Tiene esta ciencia muchas ramificaciones. Una de las más interesantes es la llamada “Teoría de Autómatas”, o “Cibernética”, tal como la denominaba su creador, Norbert Wiener. También son famosas las aportaciones de Claude E. Shannon, el padre de la Teoría de la Información [2]. Otro notable filósofo y matemático sería Edmund Husserl, el padre de la Fenomenología, quien, a su vez, fue maestro de Francisco Brentano (un heredero de las ideas de Bernard Bolzano), y maestro en Viena de Kazimierz Twardowski, de quien a su vez derivarían como discípulos Jan Lukasiewicz y Alfred Tarski, quienes generaron en torno suyo la gran Escuela de Lvov-Varsovia [7, 10], que era también de matemáticos y filósofos, coetánea del mucho más frecuentemente mencionado Círculo de Viena. Estaríamos hablando de finales del siglo XIX y del “período de entreguerras” (19181939). Fue Husserl quien dijo “que un buen filósofo ha de ser medio matemático, y que todo buen matemático ha de ser medio filósofo”, aunque otros atribuyan esta frase a Gottlob Frege, quien fue otro de los grandes. Asimismo, cabe citar a los integrantes del grupo del lógico David Hilbert y su escuela, o del geómetra Félix Klein, u otros, en la Universidad alemana de Göttingen; o los ingleses agrupados en torno a Alfred North Whitehead y Bertrand Russell, filósofos y matemáticos ambos (éste último, el maestro de su aún más famoso discípulo: el austriaco Ludwig Wittgenstein), todos ellos en la Universidad de Cambridge. O el maravilloso “tándem” formado en el Trinity College por J. E. Littlewood y G. H. Hardy, el descubridor de Srinivasa Ramanujan, al que consideraba su máximo descubrimiento [9]. Volviendo a Hilbert, éste profesor alemán soñaba con una Matemática perfecta, cerrada, sin fisuras. Con esa idea encabezaba la llamada `corriente formalista´. Pero llegó el moravo Kurt Gödel (de la minoría alemana de la ciudad de Brno), quien con sus famosos Teoremas de Incompletitud provocó un especie de `terremoto´ en el hasta entonces bastante estable edificio matemático, concluyendo que si un sistema es completo (esto es, si todo lo que abarca el sistema es en él demostrable), entonces no es consistente (aparecen en él contradicciones), y si es consistente, entonces no es completo. Desde entonces se han debido ir revisando y haciendo más sutiles los fundamentos de las Matemáticas. Otra línea de notable interés sería la procedente del matemático, nacido en San Petersburgo, pero dentro del círculo germánico: Georg Cantor, quien planteó la Teoría de Conjuntos, tan paralela al desarrollo de la Lógica y de la Topología. Desde entonces, se ha ido diversificando, creando herramientas muy útiles para la Computación. Tenemos como ejemplo la Teoría de Grafos, la Matemática Discreta, la Recursividad o los Algoritmos [2-8].

— 196 —

Los avances de la Inteligencia Artificial

No debiendo olvidar tampoco la gran contribución a estos temas de notables matemáticas, como sería el caso de la rusa Sonia Kobalevskaya, o de la germana la Emmy Noether, la primera en Análisis y la segunda en Álgebra. Otra gran lógica fue la judía húngara Rózsa Péter, amiga y discípula de Lászlo Kalmár. Pero también existen pioneras de la informática, como es el caso de Ada Lovelace, precursora de la programación e hija del famoso poeta inglés Lord Byron. Los problemas de la Inteligencia Artificial pueden abordarse o bien Sin (suponer) Conocimiento del Dominio (la `Blind Search´, como serían la Búsqueda en Amplitud, la Búsqueda en Profundidad, la Búsqueda con Retroceso –Backtracking-, o la Búsqueda Bidireccional), o bien puede realizarse con conocimiento del dominio (son las que se llaman Búsquedas Heurísticas, entre las cuales tendríamos el algoritmo A*, el Método del Gradiente, o de Búsqueda en Escalada, o la muy sutil y a veces dificultosa poda alfabeta). Porque los procedimientos con que se abordan éstos problemas [4] podrían dividirse en dos subclases: la de los Métodos de Búsqueda, como son los que acabamos de apuntar, y la de los Métodos de Representación, entre los que tendríamos las Lógicas Difusas, las Lógicas Modales, las Lógicas No-Monótonas, etc., junto con los Sistemas Basados en Reglas (RBS), los Sistemas de Marcos (Frames) o los Guiones (Scripts). Con notable voracidad vienen hoy en día absorbiendo las grandes compañías a todas aquellas pequeñas empresas que pueden directamente resolverle ese tipo de problemas, aparte de librarse de la futura competencia. Con lo que la IA está destinada a tener, sin duda, cada vez una mayor influencia en nuestras vidas. Se trata de un cambio tecnológico, y desde luego, de paradigma, que viene a transformar de un modo radical las relaciones de producción y aun completamente todo el ámbito de la comunicación. De éstas cuestiones y de otros proyectos, como aquellos en que se investiga el modo de simular, mediante computadoras, el funcionamiento del cerebro humano, vamos a ir tratando en sucesivas `entregas´. Éste ha sido tan sólo un “preludio”.

[Éste trabajo ya apareció publicado, con ciertas pequeñas modificaciones que se vieron necesarias, en la revista 100cias, de la Facultad de Ciencias de la UNED, en el número de 2019]

— 197 —

ALGUNA BIBLIOGRAFÍA SOBRE EL TEMA:

[1] Badiou, A. (2017), Éloge des mathématiques. Ed. Flammarion, París. [2] Boden, M. (2017), AI. His nature and future. Col. Noema. Eds. Turner. [3] Garrido, A. (2014), Lógicas de nuestro tiempo. Ed. Dykinson, Madrid. [4] Ibid. (2017), Filosofía y Computación. Ed. Dykinson, Madrid. [5] Ibid. (2015), Lógica Matemática e Inteligencia Artificial. Ed. Dykinson, Madrid. [6] Ibid. (2018), Heidegger y Derrida. Sobre la cuestión de la Ciencia y la Técnica. Ed. Dykinson, Madrid. [7] Ibid., with Wybraniec-Skardowska, U. (as eds.) (2018), The Lwow-Warsaw School. Past and Present. Series on Universal Logic. Birkhäuser Verlag – Springer Science, Basel, Berlin. [8] Ibid. (2013), Filosofía y Matemáticas de la Vaguedad y de la Incertidumbre. Tesis Doctoral calificada con Sobresaliente Cum Laude por Unanimidad. Premio Extraordinario de Doctorado. [9] Hardy, G. H. (2015), Apología de un matemático. Prólogo de C. P. Snow y M. de Guzmán. Eds. Nivola, Madrid. [10] Wolenski, J. (2011), L´Ecole de Lvov-Varsovie. Philosophie et Logique en Pologne, 1895-1939. Livr. Phil. Jacques Vrin, Paris.

— 198 —

NUEVA BIBLIOGRAFÍA, ÉSTA TAL VEZ DEFINITIVA.

- Acevedo Guerra, Jorge: Heidegger: existir en la era técnica. Editorial Universidad Diego Portales, Santiago de Chile, 2014. - Ibid.: Heidegger y la época técnica. Reedición, Santiago de Chile, Editorial Universitaria, 2016. - Ibid.: Martin Heidegger: Filosofía, ciencia y técnica. Santiago de Chile, Editorial Universitaria, 2017) - Agamben, Giorgio: El hombre sin contenido. Ediciones Áltera. Barcelona, 1998. - Ibid.: La comunidad que viene. Editorial Pre-Textos. Valencia, 1996. - Ibid.: ¿Qué es un dispositivo? Col. Argumentos. Editorial Anagrama, Barcelona, 2015. - Bauman, Zygmunt: Culture as Praxis. Routledge and Kegan Paul. London, 1987. - Ibid.: Modernity and the Holocaust. Cornell Univ. Press. Ithaca, 1989. - Ibid.: Liquid Modernity. Polity Press. Cambridge, 2000. - Ibid.: The Individualized Society. Polity Press. Cambridge, 2001. - Ibid.: Community: Seeking Safety in an Insecure World. Polity Press. Cambridge, 2001. - Ibid.: Liquid Love: On the Frailty of Human Bonds. Polity Press. Cambridge, 2003. - Belo, Fernando: Le jeu de Science, avec Heidegger et Derrida. La phénoménologie reformulée, en verité. L´Harmattan, Paris, 2007. - Ibid.: La philosophie avec sciences au XXe. Siècle. L´Harmattan, Paris, 2009. - Bennington, Geoffrey: Interrupting Derrida. Routledge, 2000. - Ibid.: Jacques Derrida. Ediciones Cátedra, Madrid, 1994.

— 199 —

Ángel Garrido

- Bourdieu, Pierre: La ontología política de Martin Heidegger. Paidós, Barcelona, 1992. - Carpio, Adolfo P.: Principios de Filosofía. Una introducción a su problemática. Ediciones Glauco, Buenos Aires, 1988. - Carter, Robert A.: La Escuela de Kioto. Una introducción. Eds. Bellaterra, Barcelona, 2015. - Castrodeza, Carlos: La marsopa de Heidegger. Editorial Dykinson, Madrid, 2003. - Charbonneau, Bernard: Prométhée réenchaîné. Table Ronde Éditeurs, París, 2001. - Ibid.: L´hommauto. Editions Denoël, coll. Mediations, 2003. - Ibid.: Le Feu vert - Autocritique du mouvement écologique. Éditeur L´Aventurine, 2009. - Ibid.: Le système et le chaos. Où va notre société? Sang de la Terre – Medial Éditeurs, 2012. - Ibid.: El Jardín de Babilonia. Ediciones El Salmón, 2016. - Cixous, Hélène: Voiles (avec Jacques Derrida). Galilée, Paris, 1998. - Ibid.: Portrait de Jacques Derrida en jeune saint juif. Galilée, Paris, 2001. - Cordua, Carla: Sloterdijk y Heidegger. La recepción filosófica. Santiago de Chile, Ediciones Universidad Diego Portales, 2008. - Dastur, Françoise: Heidegger et la question du temps. PUF, Collection Philosophies, n.º 26, Paris, 1990; troisième édition, 1999. - Ibid.: Husserl, Des mathématiques à l’histoire. PUF, collection Philosophies, nº 60, Paris, 1995; deuxième édition, 1999. - Ibid.: Heidegger et la question anthropologique. Peeters Verlag, Leuven, 2003. - Ibid.: Heidegger. La question du logos. Jacques Vrin, Paris, 2007. - Ibid.: Heidegger et la pensée à venir. Jacques Vrin, Paris, 2011. - Derrida, Jacques: Del espíritu. Heidegger y la pregunta. Pre-Textos, Valencia, 1989. - Ibid.: “Introduction” a Husserl, L´origine de la géométrie. PUF, París, 1962. - Ibid.: “Différance”. Bulletin de la Societé Française de Philosophie, LXII, n.º 3, 1968; pp. 73-101. Reeditada por Éditions Seuil, en 1968, dentro del volumen `Théorie d´ensemble´, colección de artículos de Jacques Derrida y de otros autores. - Ibid.: Márgenes de la filosofía. Ediciones Cátedra, Madrid, 1989. - Ibid.: Espectros de Marx. Editorial Trotta, tercera edición. Madrid, 2012. — 200 —

Los avances de la Inteligencia Artificial

- Ibid.: De la Gramatología. Siglo XXI Editores, Buenos Aires, 1998. - Ibid.: Ecografías de la Televisión. Eudeba, Buenos Aires, 1998. - Ibid.: Papel Máquina. Ediciones Trotta, Madrid, 2003. - Ibid.: “La mano de Heidegger”. En Archivos de Filosofía, números 6 y 7, 2011-2012. También fue publicado en Santiago de Chile. - Dessauer, F.: Discusión sobre la Técnica. En la edición original alemana, Philosophie der Technik, que es de 1926. En español, fue publicada por Ediciones Rialp, Madrid, 1958. - Diesel, Eugen: Das Phänomen der Technik, Zeugnisse, Deutung und Wirklichkeit. Philipp Reclam Jun. Verlag, Leipzig, VDI-Verlag Berlin, 1939. - Dogen, Shôbogenzô. Vol. 1: Tesoro del verdadero ojo del dharma. Ed. Kairós, Barcelona, 2015. - Domínguez Prieto, P., Indeterminación y Verdad. La polivalencia lógica en la Escuela de Lvov-Varsovia. Nossa y Jara Editores. Móstoles, Spain, 1995. - Duque, Félix: Filosofía de la técnica de la naturaleza. Tecnos. Madrid, 1986. - Ibid.: Filosofía para el fin de los tiempos. Tecnología y apocalipsis. Editorial Akal. Madrid, 2000. - Ibid.: En torno al humanismo. Heidegger, Gadamer, Sloterdijk. Tecnos. Madrid, 2002. - Ibid.: El cofre de la nada. Deriva del nihilismo en la Modernidad. Eds. Abada, Madrid, 2006. - Ellul, Jacques: El hombre y el dinero. Nova et Vetera, trad. Juan Gil Albert. Fomento de Lectura, Valencia, 1966. - Ibid.: El siglo XX y la técnica: análisis de las conquistas y peligros de la técnica en nuestro tiempo. Labor, Barcelona, 1960. - Ibid.: La edad de la técnica. Octaedro, Barcelona, 2003. - Ibid.: Autopsia de la revolución. Trad. Juan Teste Talaver. Unión Editorial S. A. Madrid, 1973. - Ibid.: Le système technicien. Calmann-Lévy. París, 1977. - Ibid.: Anarquía y cristianismo. Jus Editores, Mexico, 2005. - Ibid.: El islamismo y el judeocristianismo. Katz Editores S. A., Buenos Aires / Madrid, 2008. - Ibid.: Le bluff technologique. Pluriel Éditeurs, 2012. — 201 —

Ángel Garrido

- Escudero Pérez, Alejandro: “Ser y tiempo: una obra interrumpida”. Eikasia: revista de filosofía, Nº. 41, 2011; pp. 133-150. - Ibid.: “Dos lecturas de Ser y Tiempo”. Factótum: Revista de filosofía, 2011 (Un ejemplar dedicado a la Filosofía contemporánea); pp. 36-47. - Ibid.: “Entre fenomenología y hermenéutica: ensayo de ontología.” A Parte Rei: revista de filosofía, 69, 2010. - Ibid.: Heidegger en el laberinto de la modernidad. Arena Libros, Gijón, 2017. - Escudero, Jesús Adrián: El lenguaje de Heidegger. Diccionario filosófico 1912-1927. Herder Editorial, Barcelona, 2009. - Ibid.: Guía de lectura de Ser y Tiempo de Martin Heidegger. En dos volúmenes. Herder Editorial, Barcelona, 2015 y 2016. - Fedier, François: Entendre Heidegger et autres exercices d´écoute. Paris, Le Grand Souffle, 2008; reedición: Paris, Pocket, coll. “Agora”, 2013. - Ibid.: L´Art en liberté: Aristote, Baudelaire, Proust, Flaubert, Cézanne, Kant, Matisse, Heidegger. Paris, Pocket, 2006, coll. “Agora”. - Ibid.: Heidegger. Anatomie d´un scandale. Paris, Robert Laffont, 1988. - Ibid.: Martin Heidegger: le temps, le monde. 2005; reedición: Paris, Pocket, 2010, colección “Agora”. - Feinmann, José Pablo: La sombra de Heidegger. Biblioteca Feinmann. Ed. Planeta, Buenos Aires, 2006. - García Bacca, Juan David: Elogio de la técnica. Ed. Anthropos, Barcelona, 1987. - Garrido, A., “Searching the arcane origins of Fuzzy Logic”. BRAIN 2011, 2, 51–57. - Ibid., Lógicas de Nuestro Tiempo. Dykinson, Madrid, 2014. - Ibid., Lógica Aplicada. Vaguedad e Incertidumbre. Dykinson, Madrid, 2014. - Ibid., Lógica Matemática e Inteligencia Artificial. Dykinson, Madrid, 2015. - Ibid.: Filosofía y Computación. Dykinson, Madrid, 2017. - Ibid.: Heidegger y Derrida. Sobre la cuestión de Ciencia y Técnica. Editorial Dykinson, Madrid, 2018. - Ibid.: El paraíso de la Inteligencia Artificial. Editorial Dykinson. Madrid, 2019. - González Vallés, Jesús: Historia de la filosofía japonesa. Tecnos. Barcelona, 2000. - Han, Byung-Chul: La sociedad del cansancio. Editorial Herder, Barcelona, 2012.

— 202 —

Los avances de la Inteligencia Artificial

- Ibid.: La sociedad de la transparencia. Editorial Herder, Barcelona, 2015. - Ibid.: Martin Heidegger. UTB, Stuttgart, 1999. - Ibid.: Philosophie des Zen Buddhismus. Reclam Verlag, Stuttgart, 2002. Edición española: Filosofía del budismo Zen. Barcelona, Editorial Herder, 2015. - Ibid.: Topologie der Gewalt. Matthes und Seitz Verlag, Berlin, 2011. Edición española: Topología de la violencia. Barcelona, Herder Editorial, 2016. - Ibid.: Digitale Rationalität und das Ende des kommunikativen Handelns. Matthes und Seitz Verlag, Berlin, 2013. - Ibid.: Im Schwarm. Ansichten des Digitalen. Matthes und Seitz Verlag, Berlin, 2013. Edición española: En el enjambre. Barcelona, Herder Editorial, 2014. - Ibid.: Psychopolitik: Neoliberalismus und die neuen Machttechniken (Essay Collection). S. Fischer Verlag, Frankfurt, 2014. Ed. española: Psicopolítica. Barcelona, Herder Editorial, 2014. - Heidegger, Martin: Ser y Tiempo. Ediciones Trotta, 2012. FCE. Madrid, México, 2007. - Ibid.: La pregunta por la técnica. Ediciones Folio, S. A. Barcelona, 2007. `Die Frage nach der Technik´. En Vorträge und Aufsätze. Neske Verlag, Pfullingen, 1954. - Ibid.: Filosofía, ciencia y técnica. Editorial Universitaria. Santiago de Chile, 2007. - Ibid.: Conferencias y artículos. Ediciones del Serbal, Barcelona, segunda ed. revisada, 2001. - Ibid.: Carta sobre el humanismo. Taurus Ediciones. Madrid, 1959. - Ibid.: ¿Qué significa pensar? Editorial Trotta. Madrid, 2008. - Ibid.: Caminos del bosque. Alianza Editorial. Madrid, 1995. - Ibid.: Hitos. Alianza Editorial, Madrid, 2000. - Ibid.: “Conversación en `Der Spiegel´ con M. Heidegger.” Contenida en La autoafirmación de la Universidad alemana. Editorial Tecnos, Madrid, 1976. - Ibid.: Überlieferte Sprache und Technische Sprache (1962). Herausgegeben von Hermann Heidegger (St. Gallen, Erker, 1989). “Traditional Language and Technological Language”, trans. W. T. Gregory. Journal of Philosophical Research, 1998. Traducido al español como “Lenguaje de tradición y lenguaje técnico”. Artefacto. Pensamientos sobre la técnica, pp. 13-20.

— 203 —

Ángel Garrido

- Ibid.: Los “Seminarios de Zollikon”. Protocolos-Diálogos-Cartas. Edición de Medard Boss. Traducción de Ángel Xolocotzi Yáñez. Morelia, Michoacán, México: Red Utopía Asociación Civil / Jitanjafora Morelia, 2007. - Ibid.: Tiempo e Historia. Ediciones Trotta, Madrid, 2009. - Ibid.: Kant und das Problem der Metaphysic. Publicada también en español por el Fondo de Cultura Económica (FCE), México, 1973. - Ibid.: `Die onto-theo-logische Verfassung der Metaphysik´. En Identidad y Diferencia (Identität und Difference). Editorial Anthropos, Barcelona, 1988. - Ibid.: Tiempo y Ser. Editorial Tecnos, Madrid, 1999. Traducción de M. Garrido, J. L. Molinuevo y F. Duque. Introducción de M. Garrido. Título original: Zür Sache des Denkens. Max Niemeyer Verlag, Tübingen, 1969. - Ibid.: Introducción a la investigación fenomenológica. Síntesis, Madrid, 2008. - Ibid.: Prolegómenos para una Historia del Concepto de Tiempo. Alianza, Madrid, 2006. - Ibid.: Lógica. Subtítulo: La pregunta por la verdad. Alianza Editorial, Madrid, 2004. - Ibid.: Conceptos fundamentales de la filosofía antigua. Waldhuther Editores, Buenos Aires, 2014. - Ibid.: Principios Metafísicos de la Lógica. Ed. Síntesis, Madrid, 2009. - Ibid.: Introducción a la filosofía. Editorial Cátedra / Ediciones de la Universidad de Valencia. Madrid, segunda edición, 2001. - Ibid.: Los conceptos fundamentales de la metafísica. Mundo - Finitud - Soledad. Ed. Alianza, Madrid, 2007. - Ibid.: La fenomenología del espíritu de Hegel. Editorial Alianza, Madrid, 1992. - Ibid.: Los himnos de Hölderlin “Germania ” y “El Rin”. Ed. Biblos, Buenos Aires, 2010. - Ibid.: La pregunta por la cosa. Ed. Palamedes / Josep Borrell Bueno, Gerona (España), 2009. - Ibid.: Schelling y la libertad humana. Monte Ávila Editores, Caracas, 1990. - Ibid.: Preguntas fundamentales de la Filosofía. «Problemas» selectos de «Lógica». Editorial Comares, Granada, 2008. - Ibid.: Conceptos fundamentales. Editorial Alianza, Madrid, 1989. Y en Ediciones Altaya, Barcelona, 1997. - Ibid.: Parménides. Ediciones Akal, Madrid, 2005.

— 204 —

Los avances de la Inteligencia Artificial

- Ibid.: Heráclito. Eds. `El hilo de Ariadna´/Bibl. Intern. Martin Heidegger, Buenos Aires, 2012. - Ibid.: La idea de la filosofía y el problema de la concepción del mundo. Editorial Herder, Barcelona, 2005. - Ibid.: Problemas fundamentales de la fenomenología (1919/1920). Editorial Alianza, Madrid, 2014. - Ibid.: Estudios sobre mística medieval. Ediciones FCE, México, 1997. - Ibid.: Introducción a la fenomenología de la religión. Ediciones Siruela, Madrid, 2005. - Ibid.: Interpretaciones fenomenológicas sobre Aristóteles. Indicación de la situación hermenéutica. Informe Natorp. Editorial Trotta, Madrid, 2002. - Ibid.: Ontología. Hermenéutica de la facticidad. Alianza Editorial, Madrid, 1999. - Ibid.: El concepto de tiempo. Ed. Trotta, Madrid, 1999 [Cuarta edición, 2006]. - Ibid.: Aportes a la filosofía. Acerca del evento o Contribuciones a la Filosofía (Del acontecimiento). Bibl. Intern. Martin Heidegger, Ed. Biblos/Ed.Almagesto, Buenos Aires, 2003. - Ibid.: Meditación. Bibl. Intern. Martin Heidegger. Ed. Biblos, Buenos Aires, 2006. - Ibid.: Hegel. Editorial Almagesto, Buenos Aires, 2000. - Ibid.: La historia del ser. Ediciones `El Hilo de Ariadna´. Bibl. Intern. Martin Heidegger, Buenos Aires, 2011. - Ibid.: Sobre el comienzo. Editorial Biblos, Bibl. Intern. Martín Heidegger, Buenos Aires, 2007. - Ibid.: Pensamientos poéticos. Ediciones Herder, Barcelona, 2010. - Ibid.: Las posiciones metafísicas fundamentales del pensamiento occidental. Editorial Herder, Barcelona, 2012. - Ibid.: Acerca de Ernst Jünger. Editorial `El Hilo de Ariadna´ (Colección Sophia), Bibl. Intern. Martin Heidegger, Buenos Aires, 2014. - Ibid.: Cuadernos negros I (1931-1938) Reflexiones II-IV. Martin Heidegger. Edición de Peter Trawny. Traducción de Alberto Ciria. Trotta. Madrid, 2015. - Ibid.: Gesamtausgabe. Ausgabe letzer Hand. Edición completa, con la última revisión llevada a cabo por el propio autor. Vittorio Klostermannn – Verlag, Frankfurt. - Ibid.: BwHJ, Briefwechsel (Correspondencia con Karl Jaspers). Editado por Walter Wiemel y Hans Saner, Frankfurt, Munich, 1990.

— 205 —

Ángel Garrido

- Heisig, J. W. et al.: Japanese Philosophy: A Source Book. University of Haway Press, Honolulu, 2011. Trad. al castellano, La Filosofía japonesa en sus textos. Ed. Herder, Barcelona, 2016. - Ibid.: Filósofos de la Nada. Un ensayo sobre la Escuela de Kioto. Ed. Herder, Barcelona, 2009. - Hervier, Julien: Deux individus contre l´histoire: Drieu la Rochelle et Ernst Jünger. Klincksieck, Paris, 1990. - Husserl, Edmund: Investigaciones Lógicas. Traducción de José Gaos y Manuel García Morente. Alianza Editorial, Madrid, 2006. - Ibid.: La crisis de las ciencias europeas. Crítica, Barcelona, 1991. - Ibid.: Fenomenología de la Conciencia del Tiempo Inmanente. Editado por Martin Heidegger, traducción de Otto E. Langfelder. Nova, Buenos Aires, 1959. - Ibid.: Ideas Relativas a una Fenomenología Pura y una Filosofía Fenomenológica. Traducción de José Gaos, FCE (Fondo de Cultura Económica), México, 1949. - Ibid.: Lógica Formal y Lógica Trascendental. Ensayo de una Crítica de la Razón lógica (1929). Ediciones del Centro de Estudios Filosóficos de la UNAM, México, 1962. - Ibid.: Meditaciones Cartesianas. Ediciones Paulinas, Madrid, 1979. Otra edición: FCE, 1985, trad. de José Gaos y Miguel García Baró. - Ibid.: Problemas Fundamentales de la Fenomenología. Alianza Ed., Madrid, 1994. - Ibid.: La crisis de las ciencias europeas y la fenomenología trascendental. Una introducción a la filosofía fenomenológica. Editorial Crítica, Barcelona, 1991. - Ibid.: Renovación del hombre y de la cultura. Anthropos, México/ Barcelona, 2002. - Ingarden, Roman: Introducción a la fenomenología de Edmund Husserl. Lecciones de Oslo 1967. Avarigani Editores, 2017. - Jaspers, Karl: Notas sobre Heidegger. Grijalbo-Mondadori Editores, Barcelona, 1990. - Ibid.: Philosophische Autobiographie. Piper Verlag, München, 1978. - Jonas, Hans: El principio de responsabilidad: ensayo de una ética para la civilización tecnológica. Editorial Herder, 1995. - Ibid.: Técnica, medicina y ética: sobre la práctica del principio de responsabilidad. Ediciones Paidós Ibérica, Barcelona, 1997. - Ibid.: El principio de vida: hacia una biología filosófica. Editorial Trotta, 2000.

— 206 —

Los avances de la Inteligencia Artificial

- Jünger, Ernst: El trabajador (Der Arbeiter. Herrschaft und Gestalt). Editorial Tusquets, Barcelona, 2003. - Ibid., con Heidegger, Martin: Acerca del Nihilismo: Sobre la línea. Hacia la pregunta del Ser. Paidós Ibérica, Barcelona, 1994. - Ibid.: El mundo transformado. El instante peligroso. Pre-Textos. Valencia, 2005. - Kapp, Ernst: Grundlinien einer Philosophie der Technik, 1877. En castellano: Fundamentos de una Filosofía de la Técnica. Aparece en Google Books. - Latour, Bruno: Ciencia en Acción: Cómo seguir a los científicos e ingenieros a través de la sociedad. Editorial Labor, Barcelona, 1992. - Ibid.: We Have Never Been Modern. Harvard University Press, 1993. Versión española: Nunca fuimos modernos: Ensayo de antropología simétrica. Siglo XXI, 2007. - Ibid.: L´espoir de Pandore: Pour une version realiste de l´activité scientifique. La Decouverte, Paris, 2001. - Ibid., con Steve Woolgar: Laboratory Life: The Social Construction of Scientific Facts. Sage Publications, Los Angeles, 1979. - Ibid.: Aramis, or The Love of Technology. Harvard University Press, Cambridge, Mass., 1996. - Lyotard, Jean-François: La condición posmoderna: Informe sobre el saber (La condition postmoderne: rapport sur le savoir, en su versión original francesa). Éd. du Minuit, París, 1979). - Ibid.: Heidegger, and ‘‘the jews.’’ University of Minnesota Press, Minneapolis, 1990 (Edición original: Heidegger et ‘‘les juifs.’’ Galilée, Paris, 1988). - Martínez Marzoa, Felipe: Heidegger y su tiempo. Hipecu. Akal, Madrid, 1999. - Mate, Reyes: Heidegger y el Judaísmo. Colección `Pensamiento crítico. Pensamiento Utópico.´ Anthropos Editorial, Barcelona, 1998. - Mitcham, C.: ¿Qué es la filosofía de la tecnología? Eds. Anthropos, Barcelona, 1989. - Ibid.: Thinking Through Technology: the path between Engineering and Philosophy. University of Chicago Press, 1994. - Molina García, Diego: “Realidad y Ser: una lectura comparada de Zubiri y Heidegger”. Thémata. Revista de Filosofía, n.º 36, 2006, pp. 153-169. - Moreno Claros, Luis Fernando: “Un centenario polémico: Ernst Jünger en Alemania”. Revista de Occidente, n.º 175, 1995, pp. 129-149.

— 207 —

Ángel Garrido

- Ibid.: “Veinte años después: Hannah Arendt y Martín Heidegger”. Revista de Occidente, n.º 187, 1996, pp. 83-93. - Ibid.: “Nietsche para todos y para nadie.” Revista de Occidente, n.º 226, 2000, pp. 154167. - Ibid.: Martin Heidegger: el filósofo del ser. EDAF, Madrid, 2002. - Ibid.: Heidegger: el hombre es un ser que debe asumir su carácter de finitud. RBA Editores, 2016. - Mumford, Lewis: Technics and Civilization. 1934. Edición Española: Técnica y Civilización. Alianza Universidad, Madrid, 1992 y 2006. - Ibid.: El mito de la máquina. Emecé Editores. Buenos Aires, 1969 [1967]. También publicada en dos volúmenes por las Ediciones Pepitas de Calabaza, Logroño, 2013 y 2016. - Ibid.: Ensayos. Interpretaciones y Pronósticos. Pepitas de Calabaza, Logroño, 2016. - Ortega y Gasset, José: Meditación de la técnica y otros ensayos sobre Ciencia y Filosofía. Alianza Editorial, Madrid, 2004. - Ibid.: La rebelión de las masas. Espasa-Calpe Libros S. L. U., Madrid, 1999. - Ibid.: La idea de principio en Leibniz y la evolución de la teoría deductiva. Alianza Editorial, Madrid, 1992. - Ibid.: Sobre la razón histórica. Alianza Editorial, Madrid, 1996. - Ott, Hugo: Heidegger. Alianza Editorial, Madrid, 1992. - Peretti, Cristina de: “La superación heideggeriana de la metafísica”. UNED, Madrid, 1985. - Ibid.: Jacques Derrida. Texto y deconstrucción. Anthropos, Barcelona, 1989. - Ibid. (en colab. con Paco Vidarte): Jacques Derrida. Ediciones del Orto, Madrid, 1998. - Ibid.: Espectrografías: Desde Marx y Derrida. Editorial Trotta, Madrid, 2003. - Ibid. (junto con otros): Controversias del pensamiento. Homenaje a Quintín Racionero. Editorial Dykinson, Madrid, 2015. - Ibid. (junto con otros): Artes de la Controversia. Segundo volumen del Homenaje a Quintín Racionero. Ápeiron, Revista de Filosofía, n.º especial (VIII), 2018. - Ibid.: “Jacques Derrida (1930-2004)”, en C. de Peretti y C. R. Marciel (Eds.): 12 pensadores (y uno más) para el siglo XXI. Editorial Dykinson, Madrid, 2014. - Ibid.: “Entrevista a Jacques Derrida”. Política y Sociedad, n.º 3, 1989, pp. 101-108. — 208 —

Los avances de la Inteligencia Artificial

- Ibid.: “Ereignis y Différance: Derrida, intérprete de Heidegger.” Logos: Anales del Seminario de Metafísica, n.º 12, 1977, pp. 115-132. - Ibid.: “Herencias de Derrida.” Isegoría: revista de filosofía moral y política, n.º 32, 2005, pp. 119-134. - Ibid.: “Derrida, un pensador fuera de lo común.” Raíces: revista judía de cultura, n. º 101, 2014-2015, p. 1. - Peters, Benoît: Derrida. FCE, Madrid, México, 2013. - Petzet, H.: Erinnerungen an Martin Heidegger. Neske Verlag, Pfullingen, 1977. - Pöggeler, Otto: Filosofía y política en Heidegger. Laia, Barcelona, 1984. - Ibid.: El camino del pensar de Heidegger. Alianza, Madrid, 1993. - Quintanilla, Miguel Ángel: Tecnología: un enfoque filosófico. Fundesco, Madrid, 1989. - Rivera, Jorge Eduardo: Heidegger y Zubiri. Editorial Universitaria, Santiago de Chile, 2001. - Rocha, Delmiro: “La técnica en Heidegger y Derrida. Aproximaciones y divergencias.” Web CIFCYT 2017, del Cuarto Congreso de Filosofía de la Ciencia y la Tecnología, Salamanca, 2017. - Ibid.: “Las imágenes y el fantasma”. Escritura e imagen, vol. 6, 2010. - Safranski, Rüdiger: Martin Heidegger. Un maestro de Alemania. Ed. Tusquets, Barcelona, 1997. - Santandreu Niell, M.: “El concepto de técnica en Ortega y Gasset”. Revista Taula. Quaderns de Pensament (17-18), 1992; pp. 157-161. - Saviani, Carlo: El Oriente de Heidegger. Herder Editorial. Barcelona, 2004. - Simondon, Gilbert: Du mode d´existence des objects techniques. Aubier, Paris, 1989. En español: El modo de existencia de los objetos técnicos. Prometeo Libros, Buenos Aires, 2007. - Ibid.: Imaginación e Invención. Cactus Libros, Buenos Aires, 2013. - Ibid.: La individuación a la luz de las nociones de forma y de información (2.ª Ed.). Cactus Libros, Buenos Aires, 2015. - Sloterdijk, Peter: Normas para el parque humano. Una respuesta a la `Carta sobre el humanismo´ de Heidegger. Eds. Siruela, Madrid, 2003 [publicada en alemán el año 1999].

— 209 —

Ángel Garrido

- Ibid.: Sin salvación: tras las huellas de Heidegger. Trad. de Joaquín Chamorro Mielke. Editorial Akal, Madrid, 2011 [publicada en alemán en 2001]. - Ibid.: Derrida, un egipcio. El problema de la pirámide judía. Ediciones Amorrortu, Buenos Aires. - Ibid.: Has de cambiar tu vida. Sobre antropotécnica. Trad. de Pedro Madrigal. Ediciones Pre-Textos; 2012 [publicada en alemán en 2009]. - Ibid.: Muerte aparente en el pensar: sobre la filosofía y la ciencia como ejercicio. Ediciones Siruela, Madrid, 2013 [publicada en alemán en 2011]. - Ibid.: Los hijos terribles de la Edad Moderna: sobre el experimento antigenealógico de la modernidad. Ediciones Siruela. Madrid, 2015 [publicada en alemán en 2014]. - Ibid.: En el mismo barco; ensayo sobre la hiperpolítica. Ediciones Siruela, Madrid, 1994. - Ibid.: Crítica de la razón cínica. Ediciones Siruela, Madrid, 2014. - Ibid.: Temperamentos filosóficos. Ediciones Siruela, Madrid, 2011. - Spengler, Oswald: El hombre y la técnica. Contribución a una filosofía de la vida (Der Mensch und die Technik. Beitrag zu einer Philosophie des Lebens). Münich, 1931. En español, El hombre y la técnica: contribución a una filosofía de la vida. Trad. de Manuel García Morente. Espasa-Calpe, Madrid, 1934. - Ibid.: La decadencia de Occidente. Colección Austral. Espasa-Calpe, Madrid, 2011. - Ibid.: Los años decisivos. Ediciones Áltera, Madrid, 2005 y 2011. - Steiner, George: Heidegger. Fondo de Cultura Económica (FCE), Madrid, 2001. - Stevens, Bernard: Invitación a la filosofía japonesa. Ed. Bellaterra, Barcelona, 2008. - Stiegler, B.: “Derrida y la tecnología: la fidelidad en los límites de la deconstrucción y la prótesis de la fe”. En Jacques Derrida y las humanidades. Siglo XXI Editores, Buenos Aires, 2005. - Ibid: La técnica y el tiempo I: El pecado de Epimeteo. Ediciones Hiru, Hondarribia (Fuenterrabía), 2002. - Ibid: La técnica y el tiempo II: La desorientación. Hiru, Hondarribia (Fuenterrabía), 2003. - Ibid.: La técnica y el tiempo III: El tiempo del cine y la cuestión del malestar. Hiru, Hondarribia (Fuenterrabía), 2004. - Tanabe, Hajime: Filosofía como metanoética. Editorial Herder, Barcelona, 2014.

— 210 —

Los avances de la Inteligencia Artificial

- Vásquez Rocca, A.: “Sloterdijk y Heidegger. La recepción filosófica. Recensión y estudio crítico”, UNIVERSITAS © Revista de Filosofía, Derecho y Política, N.º 10, 2009, pp. 151-159. Universidad Carlos III de Madrid. http://universitas.idhbc.es/n10/1008.pdf - Ibid.: Peter Sloterdijk; Esferas, helada cósmica y políticas de climatización. Colección Novatores, Nº 28, Editorial de la Institución Alfons el Magnànim (IAM), Valencia, España, 2008. Cap. VI “Sloterdijk y Heidegger; Metáfora de la navegación, hiperpolítica y crítica del imaginario filoagrario”. - Vattimo, Gianni: Introducción a Heidegger. Gedisa, Barcelona, 1986. - Ibid.: La secularización de la filosofía. Gedisa, Barcelona, 2004. - Ibid.: El fin de la modernidad: nihilismo y hermenéutica en la cultura postmoderna. Gedisa Ediciones, Barcelona, 2009. - Ibid.: Creer que se cree. Paidós Ibérica, Barcelona, 1996. - Ibid.: Adiós a la verdad. Gedisa Ediciones, Barcelona, 2010. - Ibid.: Vocación y responsabilidad del filósofo. Herder Editorial, Barcelona, 2012. - Ibid.: “Ma Heidegger non era razzista”. La Stampa, 2 de Junio de 2012. - Ibid.: De la realidad. Límites de la filosofía. Herder Editorial, Barcelona, 2013. - Wolin, Richard: Los hijos de Heidegger: Hannah Arendt, Karl Löwith, Hans Jonas y Herbert Marcuse. Ediciones Cátedra, Madrid, 2003. - Young, J.: Heidegger´s Later Philosophy. CUP, 2002. - Zimmerman, M. E.: Heidegger´s Confrontation with Modernity. Technology, Politics, and Arts. IUP (Indiana University Press), Bloomington, 1990. - Zubiri, X.: Naturaleza, Historia, Dios. SEP, Madrid, 1944. - Ibid.: Sobre la esencia. Primera edición en SEP, Madrid, 1962. Alianza Ed., Madrid, 1998. - Ibid.: Cinco lecciones de Filosofía. SEP, Madrid, 1963. Reimpresión en Alianza Ed., 1997. - Ibid.: Espacio. Tiempo. Materia. SEP, Madrid, 1996. Segunda edición revisada, de 2008.

— 211 —

Apéndice:

O algo más: COMO UNA POSIBLE ACLARACIÓN: Que también podría servir como CV abreviado, ó bien como una NOTA PARA LA CONTRAPORTADA

El autor de esta obra, que es el Profesor Dr. D. Ángel Garrido Bullón, reúne las condiciones de ser matemático, filósofo y científico de la computación, habiendo profundizado últimamente en aquellas vertientes más filosóficas del conocimiento. Así, ha escrito una Tesis Doctoral, que ha recibido del tribunal una calificación de Sobresaliente Cum Laude Por Unanimidad, más tarde siendo merecedor del Premio Extraordinario de Doctorado. El título de dicha Tesis era: “Filosofía y Matemáticas de la Vaguedad y de la Incertidumbre”. De ella le viene en ocasiones la inspiración para emprender otros trabajos, que la completen y hagan avanzar las nuevas lógicas; principalmente, de todos aquellos aspectos relacionados con la Escuela de Lvov-Varsovia y su relación con otros grandes pensadores del pasado; entre ellos, con Leibniz. La raíz de tales trabajos estaría en un Congreso Internacional sobre Leibniz, celebrado en la Universidad de Hannover, y en otro, que fue el Panhellenic Symposium, celebrado en una isla griega: la de Samos, patria del gran Pitágoras. Sobre tales cuestiones ha publicado recientemente, como Guest-Editor, un Special Issue en la revista AXIOMS (Basel, Switzerland), y prepara, junto con la profesora polaca Urszula Wybraniec-Skardowska (de quien Jerzy Slupecki fuera su mentor), un volumen para la Birkhäuser-Springer Verlag, al que contribuyen muchos de los mejores especialistas mundiales sobre estos temas. Ha sido recientemente editado en las ´Series on Universal Logic´, colección de libros y revista que dirige el prestigioso profesor JeanYves Béziau. Otros Special Issues de los que ha sido Guest–Editor serían el de “Feature Papers”, o los dos aparecidos sobre “Symmetry in Complex Networks, I & II”, para las publicaciones AXIOMS y SYMMETRY, respectivamente; también otros volúmenes

— 212 —

Los avances de la Inteligencia Artificial

especiales, como el que trata sobre “La Escuela de Lvov-Varsovia. Pasado, Presente y Futuro”, o el de “Discrete Geometry and Symmetry”. Otras de sus publicaciones, de entre las 233 escritas por su autor (según la base de datos Research Gate, pero que son en realidad muchas más; veinticinco de las cuales son libros), se refieren a temas que comparten, a la vez que expanden, los ya mencionados. Las obras aludidas serían, por ejemplo: Lógicas de nuestro tiempo; Lógica Aplicada. Vaguedad e Incertidumbre; Lógica Matemática e Inteligencia Artificial; Filosofía y Computación; luego el de Heidegger y Derrida. Sobre la cuestión de la Ciencia y la Técnica, o esta que ahora tienes entre manos. Todas ellas han venido siendo publicadas por la prestigiosa Editorial Dykinson, de Madrid. La edición se ha hecho en rústica, para que pueda salir a precios razonables. Estos libros cuentan con prólogos de prestigiosos profesores, como Diego Sánchez Meca, Eloy Rada, Piedad Yuste o Alejandro Escudero.

El historial del profesor Garrido es más que amplio: Profesor Numerario, Catedrático de Matemáticas, Director, Administrador y Secretario de distintos Institutos de Madrid. Impartió clases de Acústica y de Física del Sonido en la Universidad de Manchester, así como de Cálculo Matemático en la Universidad Politécnica de Madrid. Profesor Doctor Permanente del Departamento de Matemáticas Fundamentales de la Facultad de Ciencias de la UNED, se ha encargado de la docencia en Licenciatura, Grado y Máster, de materias como Análisis Matemático, Inteligencia Artificial, Teoría de Autómatas, Geometría Diferencial, Integral de Lebesgue, Complementos para la Formación Matemática, Investigación e Innovación Educativa, Fundamentos Matemáticos de la Informática, diversas Estadísticas, etc., participando como Ponente en los distintos Cursos de Verano organizados por su Universidad, así como participando y dirigiendo más de 60 congresos internacionales.

— 213 —

Ángel Garrido

Coordinador-Tutor de los Proyectos ERASMUS+, obteniendo convenios con universidades de Transilvania. Dirige también el curso de PFP (Formación del profesorado) sobre Historia y Filosofía de las Matemáticas. Actualmente, forma parte de cuatro Proyectos Internacionales de Investigación. Se le ha concedido la Medalla de Oro de la Universidad de Bacau, por sus trabajos en investigación con profesores relevantes de diversos países europeos y no europeos, como son los de Francia, Rumanía (sobre todo, de las universidades transilvanas), Portugal, Alemania, Italia, Rusia, Turquía, Hungría, Polonia, Argentina, Grecia, Chile, Brasil, etc.

— 214 —