Diseño Inteligente(OCR y opt)

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Diseño Inteligente

Diseño Inteligente

¿Es ciencia? ¿Es religión? ¿Qué es exactamente? A medida que ha ido ganando terreno el movimiento del diseño inteligente, sus provocativas tesis han venido siendo, obviamente, blanco de las más enconadas críticas. En este libro, William Dembski aprovecha la ocasión para responder clara y conci-

samente a las más duras objeciones planteadas al programa del diseño inteligente. Dirigiéndose al gran público en general, Dembski responde a más de cuarenta cuestiones, unas espon-

táneamente expresadas por muchos de los oyentes no especializados que asistieron a sus numerosas conferencias públicas, y otras, más sutiles o más complejas, aducidas por profesionales en revistas especializadas. La ciencia y los hombres de ciencia gozan de gran autoridad hoy en día. Ahora bien, ¿qué es la ciencia? Todo el mundo parece tener una respuesta. Recientemente un grupo de científicos, matemáticos y filósofos pioneros del nuevo movimiento del diseño inteligente han puesto en cuestión cierta concepción de la ciencia: el enfoque que limita las investigaciones y procedimientos de ésta a las explicaciones exclusivamente regulares y

.. ·-..-

:.52

-

en .a

CD

William A. Dembski

e

Respuestas a las más graves objeciones al diseño inteligente

CI) O)

CD

e

o~

IC ~

CD

-ce

en ~

·- = e~

mecánicas. Los investigadores del diseño inteligente sostienen en cambio que no hay razón científica alguna para excluir la inteligencia, su intervención y el propósito en la genuina· investigación científica. Y en modo alguno debe sorprendernos el constatar que, de hecho, no es infrecuente que la misma práctica de la ciencia incluya ya todos estos factores. La revolución de.I diseño ha comenzado. Su éxito dependerá del modo en que acierte a responder a las cuestiones planteadas por sus detractores. La lectura de este libro proporcionará al lector una idea cabal de las perspectivas y de los desafíos que ha de afrontar esta revolución del pensamiento científico. ISBN 84-935182-4-7

~

9 788493 518240

HL IS

HOMO LEGENS [SCIENTIA

-

l

,.,,,,

DISENO INTELIGENTE RESPUESTAS A LAS CUESTIONES MÁS ESPINOSAS

DEL DISEÑO INTELIGENTE

William A. Dembski

HOMO LEGENS SCIENTIA 1

HOMO LEG ENS SCIENTIA i

© Publicado originalmente por InterVarsity Press como The Design Revolution por William A. Dembski. © 2004 by William A. Dembski. Traducido e impreso con permiso de InterVersity Press, P. O. Box 1400, Donners Grove, 1-60515, USA

A John y Dorothy Van Gorp, los padres de nu esposa, la sal de la tierra

© Horno Legens, S. L., 2006 Paseo de la Castellana, 36-38. 28046 Madrid Grupo Intereconomía [email protected] Casi invariablemente, la gente llega a sus creencias no sobre la base de alguna

© De la traducción: Carmen García Trevijano

prueba, sino sobre la base de lo que encuentra atractivo.

BLAISE PASCAL, EL ARTE DE LA PERSUASIÓN

ISBN: 84-935182-4-7 Depósito legal: M. 46.887-2006

Todos los derechos reservados. Queda rigurosamente prohibida la reproducción total o parcial de este libro por cualquier medio o procedimiento, comprendidos la reprografía, el tratamiento informático y la distribución de ejemplares mediante alquiler o préstamo público sin permiso previ y por escrito del editor.

w

ÍNDICE

Presentación por Charles W. Colson .................................................... Prefacio .... .... .... .... .... ..... ... ....... .. ...... ............. ..... ..... .... ............. .... .......... ...... Reconocimientos........................................................................................

11 15 27

PARTE UNA: DISTINCIONES BÁSICAS 1 DISEÑO INTELIGENTE............................................................... ¿Qué es el diseño inteligente?

31

2 CREACIÓN.....................................................................................

37

¿En qué difiere el díser1o inteligente de una doctrina teológica de la creación ? 3 CREACIONISMO CIENTÍFICO..................................................

40

¿Es el diseño inteligente una forma hábilmente disfrazada de creacionismo científico? 4 TEOLOGÍA DISFRAZADA..........................................................

44

Aun cuando el diseño inteligente pretende ser un programa de investigación científica, ¿no es en realidad una empresa teológica? 5 MOTIVACIÓN RELIGIOSA ......................... ........... ....................

50

¿Acaso el verdadero motivo del diseño inteligente pueda ser el temor de que las teorías evolucionistas, y el darwinismo en particular, desplazaran algún día toda necesidad de Dios? 6 DISEÑO ÓPTIMO.......................................................................... ¿Por qué colocar la palabra inteligente a continuación de diseño?

Una buena parte del diseño existente en la naturaleza es cualquier cosa menos inteligente.

58

7 EL ARGUMENTO DEL DESIGNIO........................................... ¿En qué difiere el diseño inteligente del argumento del designio?

67

PARTE TRES: INFORMACIÓN 16 INFORMACIÓN Y MATERIA.................................................... ¿Cuál es la diferencia entre información y materia, y qué papel juega cada una en la teorfo del diseño inteligente?

PARTE DOS: DETECTANDO DISEÑO 8 LA INFERENCIA DE DISEÑO................................................... ¿Qué es la inferencia de diseño? ¿En qué difiere la inferencia de diseiio del argumento del designio?

79

9 AZAR Y NECESIDAD ................................................................. . ¿Cómo concibe la comunidad científica las causas naturales, y por qué no figuran entre ellas las causas inteligentes?

83

10 COMPLEJIDAD ESPECIFICADA............................................... ¿Qué es la complejidad especificada, y cómo se determina si algo exhibe complejidad especificnda?

87

11 EL FILTRO EXPLICATIVO.......................................................... ¿De qué modo funciona la complejidad especificada como criterio de detección de diseño?

94

12 FIABILIDAD DEL CRITERIO...................................................... ¿Es la complejidad especificada un criterio fiable para detectar diseño?

102

13 OBJETIVIDAD Y SUBJETIVIDAD.............................................. ¿Describe la complejidad especificada una característica objetiva del mundo o es meramente un estado subjetivo de ignorancia sobre el funcionamiento del mundo?

110

14 AFIRMABILIDAD.......................................................................... Dado que la complejidad especificada es un criterio bien definido, objetivo y fiable para detectar diseño, ¿por qué habría que pensar que nunca podríamos estar justificados para afirmar que algún objeto natural exhibe complejidad especificnda?

117

15 EL AZAR DE LOS AGUJEROS ................................. .... ............. ¿Por qué ha de ser probabilista toda teoría cien tífica que se proponga detectar diseño?

130

145

17 TEORÍA DE LA INFORMACIÓN.............................................. 150 ¿Cómo se relaciona la teoría matenzáticn de la información con el diser'io inteligente; y más específicamente, con el criterio que éste emplea para detectar diseño, es decir, la complejidad especificada? 18 EL PROBLEMA DE LA INFORMACIÓN EN BIOLOGÍA.... ¿Cuál es el problenw de la información en biología, y cómo tratan los biólogos de resolverlo?

155

19 INFORMACIÓN EX NIHILO ...................................................... ¿Es la naturaleza completa en el sentido de poseer todas las capacidades necesarias para producir las estructuras ricas en información que vemos en el mundo y especialmente en biología? ¿O hay aspectos informacíonales del mundo de los cuales la naturaleza no puede dar cuenta por sí sola sino que requiere la guía de una inteligencia?

163

20 RECEPTIVIDAD DE LA NATURALEZA A LA INFORMACIÓN ................................................................................................ ¿Cómo ha de ser la naturaleza para que una inteligencia diseñadora interactúe coherentemente con el mundo y genere la complejidad especificada que vemos en los seres vivos? 21 LA LEY DE LA CONSERVACIÓN DE LA INFORMACIÓN ................................................................................................ ¿Qué significado tiene decir que se conserva la complejidad especificada o información compleja especificada?

169

179

PARTE CUATRO: CUESTIONES QUE PLANTEA EL NATURALISMO 22 VARIEDADES DEL NATURALISMO ....................................... ¿Es el naturalismo compatible de algún modo con el diseiio inteligente?

189

23 INTERVENCIONISMO................................................................. ¿Es el diseiio inteligente una teoría interz1encionísta en la que los

199

me11 to? 204

33 DISEÑO POR ELIMINACIÓN VERSUS DISEÑO POR COMPARACIÓN.....................................................................................

213

¿Sería el diseño producido por un diseñador incorpóreo accesible a la investigación científica de la misma manera en que lo es el diseño producido por un disáiador corpóreo? 27 EL REGRESO AL INFINITO EN EL DISEÑO.........................

219

223

¿Por qué es el escepticismo profesional tan declarado adversario del diseño inteligente? ¿Qué perspectivas tiene de desmontar al diseño inteligente?

35 EL DESPLAZAMIENTO Y EL PRINCIPIO DE «NO FREE LUNCH» .......................................................................................... ¿Cómo pueden los teoremas del No Free Lunch competir con la

230

PARTE CINCO: DESAFÍOS TEÓRICOS AL DISEÑO INTELIGENTE

Al atribuir diseño a los sistemas biológicos, ¿no está el diseño inteligente argumentando a partir de la ignorancia?

286

teoría darwiniana y apoyar el diseño inteligente?

¿Reivindica invariablemente el progreso científico al naturalismo y opera en contra del diseño inteligente?

30 ARGUMENTO DESDE LA IGNORANCIA..............................

281

al darwinismo de no ofrecer detalles sobre la emergencia de la complejidad biológica cuando tampoco los ofrece su propia teoría del diseiio inteligente?

36 LOS ÚNICOS JUEGOS EN LA CIUDAD................................. 29 EL PROGRESO DE LA CIENCIA ............. ..... ..... ...... ..... ............

261

¿Cómo se infieren adernadamente las hipótesis de disáio: eliminando sin más las hipótesis de azar o comparando la verosimilitud del azar y las hipótesis de diseiio? 34 LA DEMANDA DE DETALLES: EL TU QUOQUE DEL DARWINISMO ............................................................................... ¿No es el colmo de la hipocresía que los teóricos del diseiio acusen

Si la naturaleza exhibe diseño, ¿quién o qué diseñó al diseñador? 28 ESCEPTICISMO SELECTIVO......................................................

251

209

co1nplejidad biológica un agente sobrenatural que se enc11e11tra, por tan to, fuera de los límites de la ciencia? 26 DISEÑADORES CORPÓREOS E INCORPÓREOS..................

32 HUME, REID Y SIGNOS DE INTELIGENCIA........................

¿Acaso no demolió David Hume no sólo el argumento del designio en favor de la existencia de Dios, sino también cualquier tipo de inferencia de diseño basada en aspectos del mundo natural?

¿Requiere milagros el diseño inteligente? Y de ser así, ¿no situaría esto al diseño fuera de los límites de la ciencia? 25 LO SOBRENATURAL................................................................... ¿No será el diseñador al que el diseño inteligente atribuye la

246

1

casos de diser1o interrumpen una historia causal sin cuya intervención sería totalmente natural? 24 MILAGROS Y SUSTITUCIÓN CONTRAF ÁCTICA........ .. ... ...

31 INDUCCIÓN ELIMINATIV A...................................................... Si la i11.fl re11cit1 de diseJ/o 110 es rnb11l111e11te un 11rg11mcnto desde la ig11oranci11, ¿c11 qué sen ti do es superior a este tipo de 11rg11-

293

¿No es una actitud burda y simplista plantear el debate sobre la evolución biológica meramente como un duelo entre el darwinismo y el diseiio inteligente? Con seguridad, la biologfo evolutiva abre la puerta a muchas más opciones.

PARTE SEIS: UN NUEVO TIPO DE CIENCIA 239

37 ASPIRACIONES............................................................................. ¿Qué espera la ciencia obtener del diseiio inteligente, y qué puede

hacer el díseiio inteligente por la ciencia?

305

38 MECANISMO ................................................................................ . 312 Si el diseño inteligente no es una teoría mecnnícista del origen y desarrollo de la vida, ¿cómo puede ser científica? 39 TESTABILIDAD ............................................................................ .

318

Charles W. Colson

¿Es testable el diseño inteligente? ¿Es testable el darwinismo? 40 LA IMPORTANCIA DE MICHAEL BEHE .............................. . 331 ¿Por qué piensan los biólogos evolucionistas que la obra de Michael Behe sobre la complejidad irreducible ha quedado desacreditada? 41 EVALUACIÓN PARITARIA O EL FALLO DE LOS EXPERTOS................................................................................................... Si el diseño inteligente es un programa de investigación científica, ¿por qué los teóricos del diseño no publican ni ven citados sus trabajos en las bibliografías de evaluación parí ta ria? 42 LA «CUÑA»...................................................................................

341

349

¿No será realmente el diseiio inteligente una agenda política disfrazada de programa de im1estigación científica? 43 TEMAS A INVESTIGAR..............................................................

DEMBSKI ES, por encima de todo, un revolucionario. Y éste es un libro revolucionario. Durante años - demasiados años- la evolución darwiniana, la ortodoxia académica dominante, no se ha enfrentado con desafíos significativos. Los que creían en cualquier otra teoría sobre los orígenes biológicos eran tenidos por chiflados religiosos o locos. Esa situación está empezando a cambiar ahora. Bill Dembski está en la vanguardia de un prometedor movimiento de pensadores, cristianos y no cristianos, que efectivamente sostienen que la evolución naturalista no puede dar respuestas coherentes a las cuestiones más vitales de nuestro tiempo. En este libro ofrece Dembski una asombrosa refutación de la idea de que los hombres vivimos en un universo naturalista gobernado por el azar, y que el tiempo más el azar más la materia generan vida en toda su gloriosa complejidad. Immanuel Kant nos proporcionó unas espléndidas lentes con las que captar el actual dilema. Kant era un teísta profundamente influido por el pietismo cristiano. Como filósofo, formuló una radical propuesta que trastornó la epistemología, la rama de la filosofía que estudia nuestro modo de conocer lo que conocemos. Lo más sobresaliente de su propuesta era que había dos tipos de conocimiento: el de aquello que podía ser determinado como hecho, es decir, el conocimiento de fenómenos, y el de aquello que sólo era accesible a través de la fe, o sea: el conocimiento de noúmenos. Esta distinción entre hecho y fe revolucionó y cambió el modo en que el pensamiento occidental enfocaba la cuestión relativa a lo que se puede y no se puede conocer. Antes de Kant, todo el mundo estaba dispuesto a aceptar sin la menor reserva que puesto que Dios creó el universo, toda la verdad estaba en él y toda verdad podía ser conocida. Podíamos apoyarnos sin reservas BILL

354

¿Qué se supone que deba hacer, por la vía de la investigación científica, un científico interesado en el diseño inteligente? 44 HACER DEL DISEÑO INTELIGENTE UNA CIENCIA DIS-

CIPLINADA.................................................................................... Aun suponiendo que el diseño inteligente sea un programa de im1estigación científica, o que tenga al menos el potencial para serlo, ¿cómo puede evitar verse absorbido como parte de una agenda política y cultural más amplia?

364

Bibliografía selecta ......... .............. ...... ......... ........... ...... ... ................ ..... Índice de nombres................................................................................

373 380

13

12

Prc~C11tacití11

en la sabiduría y la autoridad de Dios. Sin embargo, con la presión de la Ilustración aumentando día a día, la gente fue abandonando paulatinamente la idea de que la noción de Dios era necesaria para explicar la creación. Y tras haber capitulado sobre este punto, se renunció también con facilidad a la idea de que Dios era necesario para la formulación de la ley moral o del comportamiento. Y con el paso de los años, la distinción hecho-fe se afianzó tanto en la mentalidad de la gente, que los intelectuales occidentales no encontraron apenas dificultad para fundar en el naturalismo no sólo la ciencia sino también la moralidad. Al mismo tiempo, los creyentes religiosos, atacados también por el mismo microbio de la Ilustración, salvaguardaron su fe confinándola en el ámbito de lo privado. Centrados en una piedad individualista, los creyentes olvidaron la concepción holista del mundo de las anteriores generaciones. Al adoptar la distinción hecho-fe, compartimentaron su propia fe y la aislaron del resto de su comprensión del mundo. El resultado de todo esto ha sido un abandono total del sentido de compromiso cultural. Esta «doble historia» del pensar se hizo casi inatacable y dejó el campo libre para que los científicos naturalistas dominaran el pensamiento occidental - científicos que ofrecían una explicación naturalista del universo biofísico sin referencia alguna a un creador o diseñador. Había religión por una parte y ciencia por otra. Y ninguna de ellas se entendió con la otra. Aunque ésta era -y sigue siendo - una falsa dicotomía, ha continuado dominando el pensamiento occidental incluso después de que las explicaciones naturalistas de la creación de la vida comenzaran a fracasar. En las escuelas públicas norteamericanas actuales está firmemente arraigada la idea de que la ciencia ofrece una explicación del mundo totalmente naturalista y que la fe es meramente una cuestión de religión (o peor aún, una cuestión de «valores») que debe permanecer alejada del aula. El movimiento del diseño inteligente, del cual Dembski es parte clave, está planteando un evidente desafío a ese modo de pensar. Ha atacado la evolución naturalista presentando argumentos lúcidos y evidencias claras de diseño. Cuanto más aprendemos acerca del mundo en que vivimos, más impresionados deberíamos mostrarnos ante lo que ha sido llamado el «principio antrópico». Como he escrito en otro lugar, el principio antrópico establece que, en nuestro propio universo, todas esas características

del mundo físico al parecer arbitrarias y no relacionadas - la distancia de la tierra al sol, las propiedades físicas de la tierra, la estructura de un átomo- tienen una cosa en común: ser precisamente lo que se necesita para que el mundo pueda albergar la vida. El entero universo biofísico parece haber sido pensado y diseñado -inteligentemente disefiado. Muchos científicos siguen manteniendo el modo de pensar de la doble-historia y preferirían más bien no considerar la posibilidad de un diseñador clarividente. En lugar de ello, optan por continuar adheridos a ese naturalismo que afirma un universo que se genera y explica a sí mismo en el cual todas las cosas proceden del azar y la necesidad, incluyendo la vida humana. Dembski y pensadores tales como Phillip Johnson, Michael Behe y Jonathan Wells han forzado a los científicos a tomar en serio al disefio y a un diseñador. Su argumentación no se apoya en la Biblia o en la religión, sino en la evidencia científica. En lugar de evolución naturalista, ellos proponen una teoría bien desarrollada del diseño inteligente. Puesto que estamos ante un caso de teoría científica frente a otra teoría científica, los pensadores seculares no encuentran ahora razones para menospreciar simplemente al diseño como una idea religiosa. Dembski es un brillante pensador pionero que está causando un tremendo impacto. Sus ideas no sólo están sacudiendo los círculos intelectuales, sino que se van filtrando en la conciencia popular. Como resultado, Dembski forma parte de un movimiento para volver a capturar el espíritu de nuestra cultura y reimplantar en las escuelas el equilibrio intelectual. Ésta será una de las mejores y más esperanzadoras cosas que le puedan suceder al mundo cristiano durante generaciones. En Diseño inteligente, Dembski cubrió un amplio abanico de tópicos respondiendo a las objeciones que se planteaban al diseño inteligente. Puede decirse que durante sus años de escritor, de docencia y de debate sobre el diseño inteligente ha escuchado todas las objeciones posibles. En este libro las vuelve a considerar por separado para responder al lector confuso, al escéptico y al hostil. Sus argumentos no sólo refuerzan la confianza de los que ya estamos convencidos del diseño inteligente, sino que sirven como catalizador del pensamiento para los escépticos escrupulosos. Albert Einstein dijo una vez, «En cualquier caso, yo estoy convencido de que Dios no juega a los dados». Ciertamente no lo hace. Dios creó cuidadosamente un mundo al que protege con su providencia. En este libro, Dembski ha hecho aún más clara esta verdad.

PREFACIO

DESDE QUE THOMAS KUHN publicara allá por los años de 1960 La estructura de las revoluciones científicas, todo tema relacionado con alguna nueva idea en ciencia ha sido presentado al público como la última revolución científica. No es de extrañar por tanto que la gran mayoría de las revoluciones científicas se hayan visto superadas por otras en el curso de unos pocos años. Yo mismo protagonicé uno de esos movimientos de superación a finales de la década de 1980 siendo aún estudiante de licenciatura en el laboratorio de física de Leo Kadanoff de la Universidad de Chicago. La teoría del caos, también llamada dinámica no-lineal, iba a revolucionar la ciencia. Diez años más tarde, tanto aquella promesa como las expectativas surgidas en torno a ella se habían evaporado en su mayor parte. La teoría del caos ofrecía sin duda algunas perspectivas interesantes sobre la interdependencia y la sensibilidad relativas a la perturbación de los procesos físicos. Y aunque la revolución había perdido su empuje, nuestra concepción científica del mundo continuaba prácticamente inalterada. Desde aquella experiencia, aplico una prudente dosis de escepticismo a todas las declaraciones relativas a una nueva gran revolución en ciencia. Sin embargo, día a día se fortalece mi convicción de que el diseño inteligente está llamado a revolucionar la ciencia y nuestra concepción del mundo. Naturalmente, en tanto que proponente activo del diseño inteligente, mantengo un firme interés en esta apuesta. Pero en cualquier caso, hay buenas razones para pensar que esta perspectiva cumple perfectamente los requisitos exigibles a una revolución teórica a gran escala. Semejante revolución no sólo constituirá un formidable desafío para el gran ídolo de la biología evolutiva (darwinismo ), sino que modificará también sin duda las reglas fundamentales que gobiernan las ciencias naturales. Desde los tiempos de Darwin, las ciencias naturales

16

Q¡c;[\l¡ 1\i lll.ICF\.I 1

han combatido la idea de que causas inteligentes puedan jugar un papel sustantivo empíricamente importante en el mundo natural. Es obvio que un proceso evolutivo ciego podría dar lugar a la emergencia de ciertas causas inteligentes, pero estas causas no serían en modo alguno fundamentales para el operar del mundo. El diseño inteligente rechaza esta exclusión del diseño en las ciencias naturales. Y con ello promete reconstruir tanto la ciencia como el mundo. Las revoluciones son un asunto turbio. Tampoco son inevitables. Para que surja una revolución ha de haber revolucionarios resueltos a colocar las cosas en su sitio. Tienen que proponerse acabar con los abusos, el ridículo y la intimidación que la elite dirigente puede y quiere imponer. La elite gobernante en este caso está formada por los darwinistas dogmáticos y los científicos naturalistas. Firmemente comprometidos a mantener fuera del ámbito de las ciencias naturales a la causación inteligente, ofrecen una falsa representación de ella en cada una de sus etapas al sostener que la crítica que los defensores del diseño inteligente dirigen al darwinismo (y de manera más general a las teorías naturalistas de la evolución) está claramente tergiversada y carece de fundamento. Bajo este subterfugio, la información que recibe el público es que el diseño inteligente no es más que religión disfrazada de ciencia. Además se le advierte también que el diseño inteligente anuncia la muerte de la ciencia, y que proponer este diseño equivale intelectualmente (si no moralmente) a afirmar, por ejemplo, que el Holocausto no sucedió nunca. La aceptación de ideas radicales que desafían el status qua (y el darwinismo en su condición actual es realmente un status qua) queda típicamente establecida mediante una serie de diversas etapas. Según Arthur Schopenhauer, «Toda verdad pasa por tres estadios. En el primero, es ridiculizada. En el segundo, ferozmente combatida. Y en el tercero, aceptada como algo autoevidente». En la misma línea, el científico evolucionista J.B.S. Haldane observaba, «Una teoría pasa por cuatro estadios de aceptación: «(i) es un sinsentido que carece de valor; (ii) es una perspectiva interesante, aunque perversa; (iii) es verdadera, aunque bastante trivial; (iv) yo la he afirmado siempre». Los cuatro estadios de Haldane pueden ser analizados del siguiente modo. En el primero, la idea es considerada ridícula: la elite dominante no se siente amenazada e ignora el desafío mientras puede, pero cuando el peligro aumenta afirma dogmáticamente que la tal idea es tan absurda que no merece siquiera la menor consideración. En el

Pre_f¡1cio

17

segundo estadio se la considera perniciosa: la elite establecida no puede seguir ignorando la amenaza y se apresta a tomar medidas activas que la invaliden proclamando dogmáticamente que la tal idea es confusa, irracional, rechazable, e incluso peligrosa (con lo que añaden una dimensión moral al debate). En el tercer estadio se la contempla como posible: la referida elite admite a regañadientes que la idea no es enteramente absurda, mas continúa sosteniendo que, a lo sumo, su interés es marginal; mientras tanto, la mayoría de sus miembros va tomando conciencia de que las consecuencias de la nueva teoría son de muy largo alcance y de que su importancia es mucho mayor de la que inicialmente se le concedía. Por último, y en cuarto lugar, se reconoce que la idea es plausible: en este momento preciso emerge un nuevo status qua, con una elite dominante que da su total asentimiento a la recién entronizada idea y en el que la mayoría de los ciudadanos no aciertan a imaginar siquiera cómo el común de los hombres de épocas anteriores pudo haber pensado de distinta manera. El diseño inteligente nos sitúa en el momento de transición desde el estadio dos al estadio tres: desde lo pernicioso a lo posible. Ésta es la más dura de las transiciones. El propósito de este libro es facilitar esa transición desde el estadio dos al tres dotando a los defensores del diseño inteligente con el instrumental adecuado para rebatir con éxito los ataques de sus críticos. Mas también hemos tenido muy en cuenta la legión de individuos que se muestran escépticos respecto a futuras revoluciones científicas. Este libro pretende igualmente rendir un cálido homenaje a tan saludable escepticismo respondiendo total y sistemáticamente a las cuestiones más arduas que los críticos hayan podido plantear relativas al diseño inteligente. Los lectores no tendrán ya que andar a tientas en busca de preguntas o respuestas. Ni tampoco echarán en falta la discusión de cuestiones realmente difíciles. A lo largo de los últimos diez años he disertado sobre diseño inteligente ante numerosos colegas en distintas universidades, tanto en Estados Unidos como en el resto del mundo. Igualmente he mantenido regularmente entrevistas con los medios sobre este tema. He introducido una enorme variedad de cuestiones en todo tipo de lugares, y mi obra ha provocado una intensa y amplia marea de publicaciones críticas por parte de los guardianes de la ortodoxia científica. El presente libro reúne en un solo volumen todas aquellas experiencias, todas aquellas preguntas y respuestas. La presente obra

18

DISEr\;CJ l'.\fELIGENTf

puede ser considerada por tanto como un manual capaz de reemplazar un paradigma científico anticuado (el darwinismo) por otro nuevo paradigma (el diseño inteligente) perfectamente preparado para poder respirar, crecer y prosperar. Cuando hablo de diseño inteligente, se me suelen plantear tres tipos de preguntas. Con frecuencia una de ellas se limita simplemente a pedir una clarificación adicional. A veces, sin embargo, una determinada pregunta pone al descubierto un obstáculo que hay que eliminar antes de seguir adelante con la investigación. Y finalmente, está la cuestión que no es en realidad una cuestión, sino más bien una objeción destinada a ahondar más profundamente en el diseño inteligente. En este libro trataré de los tres tipos de cuestiones, aunque mi interés se centra más particularmente en la relativa al obstáculo. El diseño inteligente está sembrado de impedimentos, sobre todo para los científicos y los teólogos. Lo que más busco en este libro es eliminar al máximo semejantes barreras. Librarse de ellas es al presente la tarea más importante en el proyecto de impulsar la revolución del diseño. Dicho de manera muy simple, el diseño inteligente es la ciencia que estudia los signos de la inteligencia. Así expresada, la tal revolución parece rectilínea y aproblemática. Mas dependiendo del lugar en donde la inteligencia se muestre a sí misma con toda evidencia, es posible toparse con una feroz resistencia al diseño inteligente. Que los arqueólogos atribuyan diseño inteligente a las puntas de flecha o a los túmulos fúnebres no provoca discusión alguna. Pero que los biólogos postulen un diseño inteligente en las estructuras biológicas provoca una gran ansiedad no sólo en el seno de la comunidad científica sino también en el de la cultura en general. ¿Por qué? En su obra Miracles, C.S. Lewis acusaba con toda razón al naturalismo. Según Lewis, el naturalismo es una toxina que impregna el aire que respiramos y una infección que se abre camino hasta nuestros huesos. El naturalismo es la concepción que postula que el mundo físico es un sistema auto-independiente que se gobierna mediante leyes ciegas e inmutables. El naturalismo no procede de parte alguna y afirma que fuera de la naturaleza no hay nada. Lo que esta afirmación viene a decir es que fuera de la naturaleza no puede haber nada que sea concebiblemente relevante para lo que sucede en ella. La respuesta del naturalismo al teísmo no es el ateísmo, sino un olvido benigno del primero. La gente se siente bien creyendo en Dios, aunque no en un Dios que introduzca ni un mínimo de diferencia en el orden natural.

Prefacio

19

El teísmo (ya sea cristiano, judío o musulmán) sostiene que la sabiduría de Dios creó el mundo. El origen del mundo y su ordenación subsiguiente es por tanto resultado de la actividad diseñadora de un agente inteligente: Dios. El naturalismo, por su parte, no reserva ningún lugar para una actividad inteligente, a excepción del final de un proceso material que no tiene propósito alguno. Dentro del naturalismo, toda inteligencia es inteligencia evolucionada. Por su parte, el mismo proceso evolutivo a cuyo través se desarrolla este tipo de inteligencia, es a su vez ciego y carente de finalidad. Consecuencia de todo esto es que el naturalismo no trata a la inteligencia como una fuerza creativa básica, sino como un subproducto evolutivo. Lo cual quiere decir en concreto que los seres humanos (los objetos naturales que máximamente exhiben inteligencia) no son la corona de la creación, ni el resultado primorosamente diseñado por la voluntad de un creador, ni por supuesto tampoco las criaturas hechas a imagen y semejanza de un Dios benevolente. Los seres humanos son más bien un accidente de la historia natural. El naturalismo constituye claramente una tentación para la ciencia, y son ciertamente muchos los científicos que han sucumbido a ella. Esta tentación consiste en la visión de un mundo sereno y ordenado donde todo es perfectamente comprensible en términos de una serie de reglas bien definidas o mecanismos gobernados por leyes naturales. De acuerdo con esto, el naturalismo mantiene la esperanza de que la ciencia pueda ofrecer algún día una «teoría de todas las cosas». Pero es evidente que esa esperanza no ha encontrado aún cumplimiento. El escándalo del diseño inteligente consiste precisamente en ir más allá y afirmar que semejante esperanza es un sueño irrealizable. Y esta afirmación es un insulto para la hybris del naturalismo. El diseño inteligente sostiene que la inteligencia es un rasgo fundamental del mundo y que todo intento de reducirla a mecanismos naturales está abocado al fracaso. El naturalismo desea que la naturaleza sea un libro abierto. Pero las inteligencias no son en absoluto libros abiertos: las inteligencias crean libros, producen nueva información. Son agentes libres capaces de vulnerar nuestras más fundadas expectativas. Tras todo esto se oculta una evidente ironía. El universo del naturalista - donde la inteligencia no es fundamental y el mundo no es diseñado - es supuestamente un mundo racional puesto que se mueve según una ley natural inalterable, o sea, donde la causa precede al efecto con regularidad inviolable. Por otra parte, el mundo del teórico del diseño, en donde la inteligencia es fundamental y el mundo es diseñado, no

' 20

Üliic

71

1

1

A todo lo largo de la era cristiana, los teólogos han sostenido que la naturaleza exhibe características que ella por sí sola no puede explicar, pues a este efecto se requiere una inteligencia que esté más allá de la naturaleza. Padres de la Iglesia como Minucius Felix (siglo III d.C.) y Gregorio Nacianceno (329-389 d.C.), escolásticos medievales como Moses Maimónides (1135-1204), y Tomás de Aquino (c. 1225-1274), y realistas del sentido común como Thomas Reid (1710-1796) y Charles Hodge (1797-1878) han construido todos ellos argumentos del designio partiendo desde características del mundo natural hasta llegar a una inteligencia que trasciende a la naturaleza. La quinta vía de Tomás de Aquino sobre la existencia de Dios es quizá la argumentación más conocida de este género. Con el surgimiento de la ciencia moderna en el siglo diecisiete, los argumentos del designio emprendieron una vía mecánica. La filosofía mecanicista prevalente en el nacimiento de la ciencia moderna consideraba al mundo como en ensamblaje de partículas materiales que interactuaban mediante fuerzas mecánicas. Dentro de esta concepción, el diseño fue interpretado como una forma externamente impuesta de materia inerte preexistente. Paradójicamente, el mismo reloj del universo que los primeros filósofos mecanicistas como Robert Boyle (1627-1691) utilizaban para apoyar el designio en la naturaleza, fue probablemente más responsable que ninguna otra cosa del derrocamiento de esa idea. En 1686, Boyle defendió la filosofía mecanicista porque veía en ella una refutación de la teleología inmanente de Aristóteles y los estoicos, para quienes el designio surgió como un resultado natural de procesos naturales. Para Boyle era una suerte de idolatría identificar la fuente de la creación no con Dios sino con la naturaleza. La filosofía mecanicista ofrecía un mundo que operaba por principios mecánicos y procesos imposibles de confundir con la actividad creativa de Dios pero que, sin embargo, permitían que la estructura del mundo mostrase claramente la mano divina y, por tanto, la presencia de designio. Y lo que es más, los teólogos naturalistas británicos consideraron siempre a los milagros como un modo de interacción divina que podía prescindir de los procesos mecánicos. Durante los siglos siguientes, sin embargo, lo que perduró fue la filosofía mecanicista mientras se arrojaba por la borda la necesidad de recurrir a los milagros o a Dios como diseñador. A partir de entonces, los procesos puramente mecánicos serían los únicos responsables de toda la obra diseñadora para cuya explicación tanto Aristóteles como los estoicos necesitaron una teleología

natural inmanente, mientras que Boyle y los teólogos naturales británicos requirieron a Dios. Finalmente, la propia vida dejó de ser considerada como algo que emergía simplemente de un proceso mecánico y pasó a ser ella misma contemplada como un proceso mecánico. Los teólogos naturales británicos de los siglos diecisiete, dieciocho y diecinueve, comenzando con Robert Boyle y John Ray (1627-1705) y culminando en la teología natural de William Paley (1743-1805), se volcaron sobre los sistemas biológicos en busca de la evidencia que mostrara la intervención de un diseñador en el mundo físico. Y de acuerdo con esto, se consideró increíble que los organismos, con su apabullante complejidad y soberbia adaptación de medios a fines, pudieran ser el producto de las ciegas fuerzas mecánicas de la naturaleza. La Teología Natural (1802) de Paley es claramente un catálogo de sistemas biológicos que su autor consideraba inexplicables sin la presencia de una inteligencia super-planificadora. ¿Quién era el diseñador para estos teólogos naturales británicos? Para muchos, el tradicional Dios cristiano, mas para otros sería un Dios deísta, que simplemente había creado el mundo pero no contribuía en nada a su gobierno. Nunca han faltado los críticos del argumento del designio. En los tiempos clásicos, Demócrito (c. 460-370 a.C.), Epicuro (c. 342-270 a.C.) y Lucrecio (c. 95-55 a.C.) concibieron al mundo natural como un torbellino de partículas en colisión, que a veces acertaban a formar configuraciones estables que exhibían orden y complejidad. David Hume (1711-1776) se refería a esta crítica del designio con el epíteto de «la hipótesis epicúrea». Modernas variantes de esta crítica continúan vigentes bajo la forma de cosmologías inflacionistas, interpretaciones pluri-mundiales de la mecánica cuántica y algunas formulaciones del principio antrópico (véase capítulo quince). Aunque Hume citó la hipótesis epicúrea, no insistió nunca mucho en ella. En su Diálogos sobre la religión natural (obra publicada póstumamente en 1779), Hume sostuvo principalmente que el argumento del diseño es débil como argumento por analogía y también como argumento por inducción (véase capítulo treinta y dos). Igualmente subrayó el problema del designio imperfecto, o disteleología. Aunque ampliamente aplaudido por desacreditar el argumento del designio, la crítica de Hume no es ya tan convincente como antes solía serlo. Hume analizó incorrectamente la lógica del argumento del designio, porque este argumento no es, propiamente hablando, ni un argumento por analogía ni uno por inducción, sino una inferencia que conduce a

72

DISE;\;O

73

Jt\:TELICENTE

la mejor explicación. La inferencia que conduce a la mejor explicación confirma la hipótesis en la medida en que ésta explique acertadamente los datos bajo consideración. Así un darwinista tan incondicional como Richard Dawkins (véase el comienzo de su libro El relojero ciego) reconoce que en los días de Hume el designio era la mejor explicación para la complejidad biológica. Mientras que Hume trató de ofrecer una refutación general del argumento del designio, Immanuel Kant (1724-1804) limitó su alcance. En su Crítica de la razón pura, Kant sostuvo que lo más que este argumento podía establecer era un «arquitecto del mundo que está constreñido por la adaptabilidad del material con el que trabaja, pero no un creador del mundo a cuya idea todo lo demás está sujeto». Lejos de rechazar el argumento del designio, Kant criticaba la excesiva amplitud de su interpretación. Para Kant, el argumento del designio establece legítimamente un «arquitecto» (esto es, una causa inteligente cuyas estrategias se ven limitadas por los materiales que forman el mundo), pero nunca puede postular un creador que origina hasta los mismos materiales que el arquitecto moldea luego. Charles Darwin (1809-1882) asestó al argumento del designio su golpe más demoledor, pues se encontraba históricamente situado en una posición ideal para hacerlo. Su Origen de las especies (1859) encajaba perfectamente con la emergente concepción positivista de la ciencia que se resistía a invocar causas inteligentes y buscaba asimilar, en tanto que fuera posible, la explicación científica a la pura ley natural. De aquí pues, que pese a que el mecanismo darwiniano de la selección natural fue un tema de disputa durante toda la segunda mitad del siglo diecinueve, el mero hecho de que Darwin hubiera propuesto un plausible mecanismo naturalista para dar cuenta de los sistemas biológicos, fue suficiente para convencer al mundo anglosajón de que una u otra explicación naturalista tenía que ser la correcta. Más incluso que la cosmología, la biología se había convertido, bajo la influencia de la teología natural británica, en la fortaleza más eficaz del argumento del designio. Era aquí, más que en ninguna otra parte, donde el designio podía encontrase más seguramente protegido. Amenazar a esta fortaleza era, por tanto, amenazar a la legitimidad del argumento del designio como empresa intelectual consagrada. Dawkins (en El relojero ciego) resume la situación de este modo: «Darwin abrió la posibilidad de ser un ateo intelectualmente satisfecho». Dios podría seguir existiendo, pero el mundo físico no necesitaba ya de su existencia.

Sin embargo, el argumento del designio no quedó marchito y muerto

con el auge del darwinismo. Por el contrario, ha echado aún más raíces desplegado aún más sus ramas por entre las leyes físicas que estructuel universo. Para muchos estudiosos de finales del diecinueve y a lo largo de todo el veinte, concebir el designio en términos d~ dispositivo biológico ha dejado de ser sostenible o intelectualmente satisfactono. El abjetivo se ha desplazado ahora de la búsqueda de instancias específicas de diseño dentro del universo, a determinar si y de qué modo fue dfseñado el mundo como totalidad. El principio antrópico está en la base de una buena parte de la discusión contemporánea en torno al diseño del universo. En su formulación original, el principio antrópico (cuyo término fue acuñado en 1970 por el astrofísico Brandon Carter) establece meramente que las leyes físicas y las constantes fundamentales que estructuran el universo han de ser compatibles con los observadores humanos. Puesto que los observadores humanos existen, el principio es obviamente verdadero. El principio antrópico está estrechamente relacionado con el diseño, pues las condiciones establecidas han de ser totalmente satisfechas para que el universo permita a los observadores humanos ser tan específicos que la más ligera variación en esas condiciones no sería ya compatible con los observadores mismos. Estas condiciones son usualmente expresadas en términos de las leyes y constantes fundamentales de la física. Por ejemplo, si la constante gravitacional fuera ligeramente mayor, las estrellas se tornarían tan calientes que no tardarían en abrasarse arrastrando con ellas toda posibilidad de vida. Por otra parte, si la constante gravitacional fuera ligeramente menor, las estrellas se tornarían tan frías que impedirían la fusión nuclear y con ello la producción de los elementos pesados necesarios para la vida. En cualquiera de los dos casos, los observadores humanos serían físicamente imposibles. El requisito de que estas condiciones tengan que cumplirse rigurosamente para que sea posible la existencia de observadores humanos, parece exigir a su vez una nueva explicación, y ello ha obligado tanto a teístas como a no teístas a la producción de nuevos argumentos sobre el designio o diseño. (Considérese, por ejemplo, la obra de Robin Collins, Paul Davies, John Leslie y Richard Swinburne). Todos ellos sostienen que el diseño es la mejor explicación de la exquisita sintonización entre leyes y constantes físicas. Sin embargo, el recurso al designio para explicar el perfecto ajuste del cosmos (o las coincidencias antrópicas, como también se les llama) está

:an

74

D1sEr\:C> 1'\TrLICLNTE

sujeto a controversia. La estrategia usual para refutar tales argumentos en pro del designio cosmológico es invocar el efecto de la selección. Según esto, la sintonía cosmológica no necesita explicación puesto que sin ella no existirían tampoco los observadores humanos que apreciaran su ausencia. Como ocurre en el juego de la lotería, en donde el ganador se ve gratamente sorprendido por haber ganado, del mismo modo los observadores humanos se ven gratamente sorprendidos por encontrarse en un universo tan maravilloso. No se requiere designio alguno para explicar el éxito en la lotería; del mismo modo, tampoco se lo necesita para explicar que los observadores humanos residan en un universo tan finamente ajustado. Así establecido, el argumento anti-designio por efecto de la selección es fácilmente refutable. Lo que hace del azar una alternativa viable contra el designio en su analogía con la lotería, es la existencia de otros participantes en el juego. La razón de que los ganadores en la lotería se sorprendan ante su buena fortuna está en que la mayoría de los restantes jugadores salen perdiendo. Supongamos que esa persona haya comprado sólo un billete y, por tanto, que la probabilidad de que ese billete salga ganador es infinitamente pequeña. ¿Qué ocurre si esa persona gana en la lotería? En tal caso, se seguiría una inferencia de designio. Y ésta es exactamente la situación en que nos encontramos respecto al universo. Toda nuestra evidencia empírica apunta a que hay justamente un solo jugador en la gran lotería cósmica: el universo en donde habitamos. Pero, ¿hay solamente un universo? Para que un efecto de selección refute con éxito un argumento de designio basado en una fina sintonía cosmológica, necesitamos una enorme cantidad de universos en la que la gran mayoría son perdedores en nuestra búsqueda de observadores humanos. Mas esta hipótesis requiere aumentar la propia ontología, con la consiguiente opacidad de la física y la metafísica, lo cual es en sí problemático. El Dios de la mayoría de las religiones teístas es al menos concebido como un ser causalmente activo dentro de nuestro universo. Pero los restantes universos situados más allá del nuestro, no pueden ser observados por definición ni ejercer un impacto de un modo u otro. (Para la ilegítima afirmación de que la infinidad de los mundos ejerce una influencia causal sobre el nuestro a través de la interferencia de efectos, véase la sección 2.8 de mi libro No Free Lunch). Según ello, estos universos se parecen mucho más a un objeto de fe que la propuesta de un diseñador que pretendiera influir en nuestro universo. ¿Por qué proponer algo tan fantasioso como un conjunto de

r '

.

El argumento del dc51gn10

75

universos inobservables y causalmente desconectados, entidades que por su misma definición no pueden ejercer ninguna influencia observable sobre nosotros? Su principal misión parece ser la de cortocircuitar el argumento del designio (véase capítulo quince). Será útil conservar en la mente una distinción final relativa al argumento del designio. Los argumentos de este género pueden centrarse sobre la cuestión de si el universo como totalidad es diseñado. O, alternativamente, cabe preguntarse si los casos de designio han tenido lugar dentro de un universo ya dado. El universo suministra un escenario causal bien definido. (Los físicos actuales lo conciben como un campo caracterizado por las ecuaciones de campo). Aunque cabe preguntar si ese escenario es a su vez diseñado, igualmente podría uno preguntarse si los sucesos y objetos que se den en él son también diseñados. Esta cuestión alberga dos tipos de diseño: en primer lugar el diseño del universo como totalidad, y en segundo, instancias de diseño dentro del universo. Para ilustrar la diferencia entre los dos tipos de diseño, consideremos la analogía de una pintura al óleo. Un cuadro al óleo está pintado de ordinario sobre un determinado lienzo. Uno puede preguntar a su vez si el lienzo es diseñado. Y alternativamente, cabe preguntar si alguna configuración de la pintura sobre el lienzo es diseñada. El diseño de los lienzos correspondería al diseño del universo como totalidad. Y el diseño de alguna configuración determinada de la pintura correspondería a alguna instancia de diseño dentro del universo. En esta analogía, el universo es un lienzo sobre el cual está representada la historia natural. Cabe preguntar ahora si el lienzo mismo es diseñado. Igualmente cabe preguntar a su vez si los sucesos de la historia natural pintados en ese lienzo son diseñados. En biología, por ejemplo, puede uno preguntar si una maquinaria bioquímica tan irreductiblemente compleja como el flagellum bacteria! es diseñada. Aunque el designio continúa siendo un tópico ampliamente discutido en cosmología (¿es el universo como totalidad diseñado?), al interesarse el diseño inteligente por la biología, la mayoría de las discusiones y controversias actuales se centran en ella (¿existe diseño en el universo y, específicamente, en biología?).

;

~1

'

1

r ¡

(

PARTE DOS 1

1

11:

! 1

i 1

DETECTANDO DISENO

~ 1

8

LA INFERENCIA DISEÑO ~DE l. ¿Qué es In inferencia de disáio? ¿En qué difiere la inferencia de diseiio del argumento del designio?

EL DISEÑO INTELIGENTE COMIENZA con el planteamiento de la siguiente posibilidad: ¿Podrían existir sistemas naturales que no fuesen totalmente explicables en términos de causas naturales y que mostrasen rasgos característicos de la inteligencia? Es perfectamente legítimo que la ciencia considere esta posibilidad. Mas para evaluarla científicamente es necesario contar con una manera fiable de distinguir entre sucesos u objetos que sean resultado de causas puramente naturales, y sucesos u objetos cuya emergencia requiera además el concurso de una inteligencia diseñadora. (Obsérvese que lo que aquí se plantea no es simplemente una disyunción exclusiva del tipo «O-esto-o-aquello», como ocurre en la oposición causas naturales versus diseño; lo que aquí nos preocupa es averiguar si las causas naturales son o no son susceptibles de ser suplementadas por el diseño). Problema principal en la inferencia de diseño es, por tanto, el de establecer una clara distinción entre causas naturales y causas inteligentes. En concreto, la inferencia de diseño se plantea la siguiente cuestión: si una inteligencia estuviera implicada en la ocurrencia de algún suceso o en la formación de algún objeto, y si no tuviéramos evidencia directa de tal actividad de una inteligencia, ¿cómo podríamos saber en absoluto que había una inteligencia comprometida en ello? Así planteada, la cuestión es bastante general y surge en numerosos contextos, entre los que se cuentan la arqueología, la criptografía, la generación de números al azar, la SETI (Búsqueda de inteligencia extraterrestre) y la falsificación de datos en ciencia. Voy a centrarme aquí en el caso de la falsificación

80

J": 111ICF\:1 E

81

de datos en la que estuvo implicado Hendrik Schün. Este caso pone de relieve la legitimidad de la inferencia de diseño y lo liga a una cuestión realmente urgente que afecta a la comunidad científica. El 23 de mayo de 2002, el New York Times informaba sobre el trabajo de «J. Hendrik Schün, de 31 años, físico en los Laboratorios Bel! en Murray Hill, N.J., y autor de un extraordinario volumen de trabajo durante los últimos dos años y medio, que incluía siete artículos en cada una de las dos prestigiosas revistas Science y Nature». A pesar de tan extraordinarias credenciales, la carrera de Schün estaba en entredicho. ¿Por qué? Según el New York Times, Schün había publicado «gráficos que eran casi idénticos aunque aparecían en artículos científicos diferentes y representaban datos procedentes de distintas fuentes. En algunos de ellos, incluso los finos trazos que suelen producir las fluctuaciones azarosas eran exactamente idénticos». Como consecuencia de aquello, los Laboratorios Bell contrataron a un equipo independiente de expertos para que determinasen si Schün «había manipulado impropiamente los datos en sus artículos de investigación publicados en revistas científicas muy acreditadas». En el año 2002, el equipo concluyó que Schün era sin duda culpable de falsificación de datos. Los Laboratorios Bell lo despidieron. Las cuestiones teóricas consideradas en este caso eran precisamente las referidas a la inferencia de diseño. Para determinar si Schün había manipulado los números, el equipo de control tuvo que reparar en dos cosas: que el gráfico publicado primeramente ofrecía un modelo independientemente dado o especificación para el segundo; y que la equiparación entre los dos gráficos en el artículo de Schün era altamente improbable (o «compleja», en el sentido descrito en el capítulo primero de este libro) bajo la suposición de que los gráficos eran resultado de fluctuaciones aleatorias. La aleatoriedad no suscitó aquí extrañeza alguna, cosa que se habría producido si Schün hubiera llevado a cabo el experimento tal y como dijo haberlo realizado. En consecuencia, el equipo de control abandonó la búsqueda de un desconocido mecanismo material o proceso natural para pasar a explicar de qué manera los gráficos de experimentos independientes realizados sobre dispositivos también independientes podían haber producido los mismos modelos de fluctuaciones aleatorias. Y a la vista de todo aquello, los controladores concluyeron con toda razón denunciando la manipulación de los datos y del diseño. En otras palabras: llegaron a esta conclusión mediante la identificación de un modelo altamente

improbable e independientemente dado, o de lo que nosotros llamamo,; complejidad especifirndn. No es manera de evitar la complejidad especificada cuando se infiere diseño. Las inferencias de diseño se dan en los casos en los que la evidencia es circunstancial y carecemos por tanto de certeza directa sobre la presencia de una inteligencia diseñadora. Cuando falta la evidencia directa, no hay problema alguno en explicar un suceso como resultado del azar, incluso aunque éste sea altamente improbable o complejo. Al fin y al cabo, sucesos altamente improbables y no especificados ocurren realmente por azar en cualquier tiempo y lugar. Arrojemos una moneda un millar de veces y apostemos por un resultado. La secuencia precisa de caras y cruces que puede observarse es increíblemente improbable, y nuestra probabilidad de acertar se mueve por debajo de 1 contra 10'00 Pero esta secuencia no está tampoco especificada. El recurso al azar para explicar un tal suceso sólo se torna en problema cuando ese suceso no sólo es altamente improbable o complejo, sino que concuerda también con un modelo o especificación independientemente dados. En el caso de los gráficos de Schon, bajo la relevante hipótesis de lo azaroso que caracteriza a las fluctuaciones aleatorias, la coincidencia entre los gráficos había de ser necesariamente muy improbable para despertar las sospechas contra Schün. (Si los mencionados gráficos hubieran sido simplemente unos histogramas de dos barras con sólo unas cuantas posibles gradaciones verticales, la coincidencia entre ellos hubiera sido razonablemente probable y nadie habría dudado nunca de la integridad de Schün). El equipo de controladores determinó que ciertamente era altamente improbable que los gráficos coincidieran de una manera tan precisa. Mas la improbabilidad no era suficiente. Las fluctuaciones aleatorias de cada gráfico individualmente tomado eran sin duda altamente improbables. Pero fue la coincidencia entre los gráficos lo que levantó las sospechas. Esa coincidencia hacía que uno de ellos fuera una especificación del otro de suerte que ante la presencia de improbabilidad, una inferencia de diseño estaba justificada. De por sí, la inferencia de diseño no implica ningún tipo de inteligencia particular. Una inferencia de diseño habría mostrado que los datos en los artículos de Schon estaban arteramente manipulados. Pero eso no mostraría, sin embargo, que Schün era el culpable. La identificación del culpable real requiere un análisis causal más detallado -análisis que en el caso de Schün fue realizado por el equipo independiente supervisor contratado por los Laboratorios Bel!. Sobre la base de aquel análisis, el

[)¡~¡ \()

82

D1c;r\o !NI ELICENTE

equipo concluyó que Schon era ciertamente culpable. Por otra parte, Schon no era sólo el primer autor de los artículos en cuestión, sino el único entre sus coautores que te1úa acceso a los mecanismos que producían la desconcertante coincidencia de los resultados experimentales. Y más aún: todos los protocolos experimentales cuya responsabilidad de mantenimiento recaía en el mismo Schéin, desaparecieron misteriosamente cuando los controladores expresaron su deseo de revisarlos. La inferencia de diseño realizada por el equipo independiente en el caso de Schéin ilustra a las claras la diferencia existente entre la inferencia de diseño y el argumento del diseño. El argumento del diseño está en la base de toda argumentación filosófica y teológica. Con él se pretende establecer la existencia y atributos de una causa inteligente que subyace al mundo y que está basada en ciertas características del mundo. En cambio, la inferencia de diseño es un razonamiento genérico para identificar los efectos de la inteligencia, con independencia de las particulares características de ésta y con independencia también de dónde, cómo, y por qué actúa la inteligencia. (Esa inteligencia puede ser animal, humana, extraterrestre, singular, plural, inmanente o trascendente). La inferencia de diseño se centra en un rasgo particular -la complejidad especificada- y lo utiliza como base para inferir un tipo de inteligencia. Así, cuando un suceso, objeto, o estructura del mundo exhiben complejidad especificada, uno infiere que tras esa complejidad hay una inteligencia responsable. Dicho en otras palabras, se realiza una inferencia de diseño.

'

NECESIDAD ¿Cómo concibe la comwzidad científica las causas naturales, y por qué no figuran entre ellas las causas inteligentes?

LA COMUNIDAD CIENTÍFICA ENTIENDE las causas naturales en términos de azar, necesidad, y la combinación de ambas cosas. El biólogo Jacques Monod escribió un libro, El azar y la necesidad, para subrayar este punto. ¿Por qué la comunidad científica limita las causas naturales al azar y a la necesidad, excluyendo así al diseño? Para muchos profesionales de las ciencias naturales, el diseño, en tanto que acción de un agente inteligente, no es una fuerza creativa fundamental de la naturaleza. Lo que más bien se piensa es que las ciegas fuerzas naturales, caracterizadas por el azar y la necesidad, son suficientes para realizar toda la obra creativa de la naturaleza. Tres objetos bastarán para ilustrar lo que está en juego con el azar y la necesidad: una calculadora, una ruleta y un instrumento agitador. Una calculadora opera por necesidad. Pulsemos 2 + 2 y la única respuesta posible será 4. Decir que algo es necesario es lo mismo que decir que ese algo tiene que suceder y que eso ocurrirá de una sola y única manera. Es necesario que el agua se hiele por debajo de los cero grados. Es necesario que los objetos sólidos dentro de un campo gravitacional se atraigan movidos por las fuerzas gravitacionales. Es necesario que dos más dos sumen cuatro. Lo opuesto a la necesidad es la contingencia. Decir que algo es contingente es afirmar que ese algo puede suceder de más de una manera. Cuando impulsamos la rueda de una ruleta, por ejemplo, la bola puede detenerse en cualquiera de las treinta y ocho casillas (numeradas de uno a treinta y seis más el cero y el doble cero). El lugar preciso en el que la bola se detenga es por tanto contingente. La contingencia presupone un

~ i'

I'

84

Dr~f\l)

IN¡ El ICrN fE

Azar y necesidad

1 1

1

1

abanico de posibilidades. Para ejercer un control sobre esas posibilidades, los científicos les asignan probabilidades. En la rueda de la ruleta, cada casilla tiene la misma probabilidad de que la bola se detenga en ella. La situación en la que las posibilidades tienen la misma probabilidad, es conocida como puro azar o casualidad. El puro azar o la casualidad son por tanto lo que caracteriza al juego de la ruleta. El puro azar o casualidad es la excepción más que la regla. La mayoría de las veces en que entran en juego causas naturales, el azar y la necesidad actúan conjuntamente más que por separado. Las probabilidades siguen siendo aplicables, aunque no tan directamente como cuando todas las posibilidades tienen la misma probabilidad. Consideremos, por tanto, el tercero de nuestros objetos: un agitador. Un agitador es un contenedor en cuyo interior colocamos algunas piedras y luego lo agitamos. Esta agitación constituye un proceso gobernado puramente por el azar que, aparte de cualquier otra consideración, arrojaría una disposición de las piedras totalmente desordenada. Sin embargo, aquí en la tierra contamos con otra fuerza adicional: la gravedad. La agitación del contenedor en presencia de una fuerza gravitacional que empuja hacia abajo, hará que las piedras mayores se eleven hasta la boca y que las más pequeñas se dirijan hacia el fondo del contenedor. Precisamente cuando a un nivel dado se detiene una piedra del mismo tamaño que las demás, ese nivel seguirá siendo el reino de la casualidad. Esta casualidad o puro azar sigue operando horizontalmente, y la verticalidad en él es claramente un orden impuesto sobre las piedras que se agitan bajo el efecto de la gravedad. El objetivo de un agitador es desplazar las piedras de acuerdo con su tamaño. Para este fin, el azar y la necesidad deben actuar conjuntamente: la necesidad toma aquí la forma de la gravedad, y el azar la de la agitación casual. Al agitar aleatoriamente un contenedor lleno de piedras en un campo gravitacional, el azar y la necesidad producen una disposición ordenada de piedras con las más pequeñas situadas en el fondo, las medianas en la zona media, y las mayores en la boca del recipiente. El ejemplo del agitador es relevante para el darwinismo. La principal aportación de Darwin que le valió la fama fue proponer una teoría que explicase el modo en que la acción conjunta de azar y necesidad podrían perturbar la materia y conducirla hacia la complejidad biológica. Darwin abrió su Origen de las especies describiendo experimentos sobre alimentación animal. Aunque similares a sus padres, los hijos de los animales

sujetos al experimento mostraban sin embargo algunas diferennas cm1 respecto a sus progenitores. Por todo lo que sabemos, esas diterenc1as son controladas por el azar. (Darwin las registraba como variaciones; Jos biólogos actuales las achacan a mutaciones en el ADN, que evidenternente está más sujeto al cambio. Darwin no llegó a especular sobre el rnodo en que surgían aquellas variaciones). Ahora bien, si los ganaderos arrojaran una moneda para decidir qué animales deberían destinar a la reproducción, entonces toda diferencia stre padres e hijos seguiría siendo libre. Pero si, en lugar de eso, los ganaderos seleccionan a sus animales y permiten que se reproduzcan sólo aquéllos que, aunque sea por azar, exhiben ciertas características deseables, entonces a lo largo del tiempo esos rasgos deseables se irán intensificando y extendiéndose por la población entera. Así pues, el azar, bajo la forma de variación entre padres e hijos, se vería obligado 0 constreñido por el ganadero a exhibir las características preferidas por el propietario. Conviene observar que el ganadero está limitado respecto a las características que el azar produce. Un criador de animales con pelo, no podrá obtener animales con piel suave si todos los individuos de su explotación tienen invariablemente el pelo hirsuto. Naturalmente, los ganaderos han brillado sin duda por su ausencia en la mayor parte de la historia de la vida. ¿Qué ha sido entonces lo que ha regulado la reproducción de las cosas vivientes en la naturaleza? Claramente la naturaleza misma. La naturaleza selecciona, por así decirlo, aquellos organismos que se reproducen bien y elimina a los que se muestran incapaces. Puesto que, prescindiendo de las regulaciones, la reproducción de los organismos procede de manera exponencial, y puesto que la naturaleza no posee evidentemente los recursos para asumir semejante aumento de población, sólo una pequeña proporción de organismos conseguirá reproducirse satisfactoriamente en cada generación. Aquellos cuyas características contribuyan mejor a la reproducción, serán los seleccionados para dejar descendencia, mientras que el resto morirá sin haberlo logrado. Así, según Darwin, la naturaleza misma se constituye en la suprema nodriza capaz de configurar sabiamente el camino de la vida. En particular se afirma que la necesidad - bajo la forma de selección natural-, y el azar - bajo la forma de variación aleatoria - , son capaces de explicar toda la complejidad y diversidad biológicas. ¿Dónde encaja el diseño o causación inteligente dentro de esta interacción dialéctica entre azar y necesidad? En ninguna parte. A lo

86

Ü!S[i\:0 INTELIGENTE

sumo, el diseño se torna en un subproducto del cambio y la necesidad. Si, por ejemplo, el mecanismo darwiniano de la variación aleatoria y la selección natural explican la emergencia de los seres humanos, entonces la inteligencia humana (con todas sus capacidades para el diseño) es meramente una capacidad de comportamiento que sitúa al hombre en la cima de unos ciegos procesos materiales. Sin duda, existe la posibilidad lógica de que el propósito, la inteligencia y el diseño puedan ser generados meramente por la vía del azar y la necesidad. Según esto, la inteligencia podría ser un instrumento de supervivencia sin más otorgado a los hombres a través de un proceso evolutivo darwiniano que premia la supervivencia y la reproducción y que no está inteligentemente guiado, sino regido únicamente por el azar y la necesidad. Las fuerzas creativas básicas de la naturaleza carecerían así de inteligencia. Mas incluso aunque ésta sea una posibilidad lógica, no es claramente la única. Otra posibilidad también lógica es que el propósito, la inteligencia y el diseño sean características fundamentales de la realidad y que no sean reducibles al azar y la necesidad. ¿Cuál es la actitud correcta? En lugar de prejuzgar la respuesta como hace el darwinismo, la inferencia de diseño proporciona un marco lógico para decidir sobre la corrección de cada una de ellas. El darwinismo destierra el diseño de la biología. La inferencia de diseño, en cambio, ni lo destierra ni lo exige. Lo que hace más bien es permitir que sea la evidencia de la biología la que decida.

10

/(OMPLEJ 1DAD \ESPECIFICADA \.

¿Qué es la complejidad especificada, y cómo se determina si algo exhibe complejidad especificada?

EL TÉRMINO «COMPLEJIDAD ESPECIFICADA» tiene unos treinta años de vida. Por lo que yo sé, el investigador del origen de la vida Leslie Orgel fue el primero en utilizarlo. Este término apareció en su libro de 1973 T/1e Origins of Lije, en donde escribía, «Los organismos vivos se distinguen por su complejidad especificada. Cristales tales como el granito no pueden ser considerados como organismos vivos porque carecen de complejidad; las mezclas azarosas de polímeros tampoco pueden serlo porque carecen de especificación». Más recientemente, en su libro de 1999 Tlie Fith Miracle, Paul Davies identificó la complejidad especificada con la clave para resolver el problema del origen de la vida: Los organismos vivos son misteriosos no por su complejidad per se, sino por su hermética complejidad especificada. Para comprender plenamente el surgimiento de la vida a partir de lo inanimado, tenemos que conocer no sólo el modo en que fue concentrada la información necesaria, sino saber también de qué manera llegó a ser especificada la información biológicamente útil. Sin embargo, ni Orgel ni Davies ofrecieron una explicación analítica precisa de la complejidad especificada. Una tal explicación aparece en mi libro The Design Inference (1998) y su secuela No Free Lunch (2002). Aquí sólo voy a ofrecer un esquema de aquella explicación sobre la complejidad especificada. En mi propia investigación la clasifiqué como criterio estadístico para identificar los efectos de la inteligencia. Tal

88

89

D 1~1 \ c1 1" r r 1_ 1e E"'< TE

como yo la he desarrollado, la complejidad especificada contiene cinco principales ingredientes: • una versión probabilista de la complejidad aplicable a los sucesos; • patrones condicionalmente independientes; • recursos probabilistas presentados bajo dos formas: de replicación y de especificación; • una versión especificacional de complejidad aplicable a patrones • un límite a la probabilidad universal. Consideremos brevemente estos cinco puntos. Complejidad probabilista. La probabilidad puede ser considerada como una forma de complejidad. Para entender este concepto examinemos una cerradura de apertura-cierre por combinación. Cuántas más combinaciones en la cerradura sean posibles, más complejo será el mecanismo y, por tanto, más improbable que el tal mecanismo pueda ser abierto por azar. Por ejemplo, una cerradura de combinación cuya esfera esté numerada de cero a treinta y nueve y que tenga que ser ~c­ tivada en tres direcciones alternativas admitirá 64.000 (es decir, 40 x 40 x 40) combinaciones posibles. Esta cifra da la medida de la complejidad de la cerradura, pero también da una probabilidad de 1 contra 64.000 de que la cerradura pueda ser abierta por casualidad (asumiendo que anteriormente no se sabía absolutamente nada sobre la combinación de la cerradura). Una combinación más compleja cuya esfera estuviese numerada desde cero a noventa y nueve y que tuviera que ser activada en cinco direcciones alternativas arrojaría la cifra de 10.000.000.000 (esto es, 100 x 100 x 100 x 100) combinaciones posibles y por tanto una probabilidad de 1 contra 10.000.000.000 de ser abierta por azar. Complejidad y probabilidad varían por tanto de manera inversa: cuanto mayor sea la complejidad, más pequeña será la probabilidad. La complejidad en la complejidad especificada se refiere a la improbabilidad. Patrones condicionalmente independientes. Los patrones o modelos que ante la presencia de complejidad o de improbabilidad implican una inteligencia diseñadora han de ser independientes del suceso cuyo diseño se está investigando. Crucial en este punto es que los aludidos patrones no se impongan artificialmente sobre los sucesos después del hecho. Por ejemplo, si un arquero dispara sus flechas contra una valla y luego pintamos los objetivos que rodean las flechas a fin de que puedan ser vistos con facilidad, estamos imponiendo un patrón después

.1

del hecho. Semejante patrón no es independiente de la trayectoria de

Ja flecha. Por otra parte, si los objetivos o blancos son establecidos de antemano («especificados») y luego el arquero acierta en todos ellos, sabelJlOS que eso no ocurrió por azar sino más bien por diseño (supuesto, desde luego, que dar en los blancos sea lo suficientemente improbable). El modo de caracterizar esta independencia de los patrones discurre a wavés de la noción probabilista de independencia condicional. Un patrón QIJ\Odelo es condicionalmente independiente de un suceso si la adición ele nuestro conocimiento del modelo a una hipótesis de azar no altera la probabilidad del suceso bajo tal hipótesis ..L~ especifico ~n la comp.lejidad especificada se refiere a estos patrones cond1c10nalmente mdepend1entes. y éstos son precisamente las especificaciones. Recursos probabilistas. Los recursos probabilistas están ligados al número de oportunidades para que un suceso ocurra o sea especificado. Un suceso al parecer improbable puede tornarse en algo bastante probable una vez que se multiplican las fuentes probabilistas. Por otra parte, un tal suceso puede seguir siendo improbable incluso después de que todas las posibles fuentes probabilistas hayan sido multiplicadas. Supóngase que en el juego de póquer estamos tratando de conseguir un «rubor real». Dependiendo de la cantidad de veces que lo intentemos, ese resultado, que de por sí es bastante improbable, puede seguir siendo improbable o tornarse en algo bastante probable. Si sólo se lo intenta unas docenas de veces, es altamente probable que no veamos nunca esa combinación de cartas. Pero si lo intentamos millones de veces, es muy probable que lo consigamos. Los recursos probabilistas se presentan bajo dos formas: la replicativa y la especificativa. Los recursos replicativos están referidos al número de oportunidades que comporta la ocurrencia de un determinado suceso. Los especificativos se refieren al número de oportunidades que necesita la especificación de un suceso. Para comprender lo que se ventila con estos dos tipos de recursos, imaginemos una gran valla con un número N de blancos de idéntico tamaño pintados sobre ella y un número M de flechas en el carcaj del arquero. Digamos que las probabilidades que éste tiene de acertar en alguno de esos blancos tomados individualmente con una sola flecha es p. Entonces la probabilidad de acertar en uno cualquiera de los blancos N, tomados colectivamente, con una única flecha está ligada a Np (es decir, la multiplicación de N por p); y la probabilidad de acertar en cualquiera de esos blancos con al menos una de las flechas del carcaj está dada por MNp (o sea, la multiplicación de M, N y p). En este

90

01-;E\IO IN IFLICEVJE

caso, el número de recursos replicativos corresponde a M (la cantidad de flechas que hay en el carcaj), el número de recursos especificativos corresponde a N (la cantidad de blancos sobre la valla), y el número total de recursos probabilistas corresponde al producto MN. Para que un suceso específico de probabilidad p sea razonablemente atribuido a la casualidad, el número MNp no debe ser demasiado pequeño. Complejidad especificativa. Puesto que estamos hablando de patrones o modelos, las especificaciones exhiben grados variables de complejidad. El grado de complejidad de una especificación determina el número de recursos especificativos que han de entrar en la multiplicación cuando haya que realizar un cálculo del nivel de improbabilidad para descartar el azar (véase el punto anterior). Cuanto más complejo sea el patrón, mayor será el número de recursos especificativos que hay que multiplicar. Los detalles son bastante técnicos y comportan una generalización de lo que los matemáticos llaman complejidad de Kolmogorov. Sin embargo, la intuición básica es rectilínea. La complejidad especificativa baja es importante para detectar el diseño, pues asegura que un suceso cuyo diseño es dudoso no fue descrito simplemente después del hecho y manipulado luego para hacerlo aparecer como descrito antes de ese hecho. Para comprender lo que está en juego, consideremos las dos siguientes secuencias de diez tiradas de una moneda (donde «Cara» y «Cruz» están respectivamente representadas por C y +): CCCCCCCCCC y CC+C+++C+C. ¿Cuál de estas dos secuencias se sentiría usted más inclinado a atribuir al azar? Las dos tienen la misma probabilidad, aproximadamente de 1 por 1.000. No obstante, el modelo que especifica la primera secuencia es mucho más simple que el de la segunda. Para la primera, el patrón o modelo puede ser especificado con la simple frase: «diez caras en una fila». Para la segunda secuencia, en cambio, el patrón que la especifique requiere una oración considerablemente más larga, por ejemplo: «dos caras, luego una cruz, a continuación una cara, luego tres cruces, y finalmente una cara, una cruz y una cara». Tengamos en cuenta que la complejidad especificativa (que no hay que confundir con la complejidad especificada) está concebida como una descripción de longitud mínima. (Para más detalles, véase www.mdl-research.org). Para que algo exhiba una complejidad especificada ha de tener una complejidad especificativa baja (como ocurre con la secuencia CCCCCCCCCC, que consiste en diez caras en una fila), aunque una complejidad probabilista alta (o sea, que su probabilidad debe ser pequeña).

Complejidad especificada

91

Es esta combinación de complejidad especificativa baja (un patrón fácil de describir en una secuencia relativamente corta) y una complejidad especificada alta (algo que es altamente improbable) lo que hace de la complejidad especificada un instrumento de triangulación enormemente eficaz para medir la inteligencia. Mas la importancia de la complejidad especificada no acaba con esto. Junto a su crucial posición en la inferencia del diseño, la complejidad especificada aparece también implícitamente en una buena parte de la literatura de la auto-organización, un campo que estudia el modo en que los sistemas complejos emergen a partir de la estructura y dinámica de sus partes. Puesto que la complejidad especificada combina una baja complejidad especificativa con una alta complejidad probabilista, la complejidad especificada se asienta en esa frontera entre el orden y el caos comúnmente conocida como el «límite del caos». El problema con el puro orden (baja complejidad especificativa) está en que éste es predecible y por tanto muy poco interesante. Ejemplo de esto es un cristal que repite una y otra vez el mismo modelo simple. El problema con el puro caos (alta complejidad probabilista) está en que su tremendo desorden lo hace también poco interesante. (No hay modelo significativo alguno que pueda surgir del puro caos. Ejemplo de esto podrían ser los escombros que dejan tras sí un tornado o una avalancha). Es más bien en el límite del caos, claramente situado entre el orden y el caos, donde suceden las cosas interesantes. Y aquí es donde encuentra su asiento la complejidad especificada. Límite de la probabilidad universal. En el universo observable, los recursos probabilistas se encuentran en cantidades limitadas. Los científicos estiman que el número de partículas elementales existentes dentro del universo físico conocido se mueve en torno a 1080 • Por su parte, las propiedades de la materia son tales que las transiciones desde un estado físico a otro no pueden darse a una velocidad mayor de 1045 veces por segundo. Esta frecuencia corresponde al tiempo de Planck, que es la mínima unidad de tiempo físicamente significativa. Finalmente, el universo mismo es más o menos un billón de veces más joven que la magnitud representada por 1025 segundos (suponiendo que la edad del universo oscila entre los 10 y los 20 billones de años). Si suponemos ahora que cualquier especificación de un suceso dentro del universo físico conocido requiere al menos una partícula elemental que lo especifique y que tal especificación no puede ser generada con una velocidad mayor que el tiempo de Planck, entonces estas limitaciones cosmológicas implican

93

92 que el número total de sucesos especificados a lo largo de la historia cósmica no puede exceder la cifra de 10"º x 10~:, x 10 2' = HJ 1' 11 • Así pues, cualquier caso especificado de probabilidad que sea menor que 1 sobre 10 150 seguirá siendo improbable incluso después de que todos los recursos probabilistas concebibles del universo observable hayan sido factorizados en él. Una probabilidad de 1 sobre 10 100 es por tanto un limite universal de la probabilidad. (Para los detalles que justifican este límite universal de la probabilidad, véase mi obra de 1998 The Design Inference). Un límite universal de la probabilidad es impermeable a todos los recursos probabilistas que puedan utilizarse contra él. En efecto, todos los recursos probabilistas del mundo físico conocido son incapaces de conspirar para convertir ni remotamente en probable un suceso cuya probabilidad sea menor que este límite universal de la probabilidad. Un límite de probabilidad universal de 1 sobre 10 150 es el más conservador de la literatura científica. El matemático francés Émile Borel propuso un 1 sobre 10 511 como un límite de probabilidad universal por debajo del cual el azar podría ser definitivamente excluido. (Es decir, un suceso especificado tan improbable como éste no podría nunca ser atribuido al azar). Los criptógrafos calculan la seguridad de los criptosistemas en términos de los ataques de una fuerza bruta que emplea todos los recursos probabilistas que el universo le pueda brindar para romper por azar un criptosistema. En su informe sobre el papel de la criptografía en la seguridad de la sociedad de la información, el Consejo Nacional de la Información estableció la cifra de 1 sobre 10 ~ como límite de la probabilidad universal para asegurar a los criptosistemas contra los ataques basados en el azar. (Véase el libro de Kenneth Darn y Herbert Lin Cryptography's Role in Securiting the lnformation Society, 1996). El científico computacional Seth Lloyd estableció la cifra de 10 120 como el máximo número de operaciones en bits que el universo podría realizar a todo lo largo de su historia (Physical Review Letters, 10 de Junio de 2002). Este número corresponde a un límite de probabilidad universal de 1 sobre 10 120 • En su libro más reciente, lnvestigations (2000), Stuart Kauffman aduce una cifra similar. Que una cosa exhiba una complejidad especificada significa por tanto que esa cosa se ajusta a un modelo condicionalmente independiente (o especificación) de baja complejidad especificacional, pero en donde el suceso correspondiente a ese modelo tiene una probabilidad menor que el límite de la probabilidad universal y por tanto una alta complejidad probabilista. La complejidad especificada es un criterio ampliamente 9

utilizado para detectar el diser1u. Por ejemplo, cu¿mdc1 los im estigaclores en su afán ele descubrir inteligencia extraterrestre (SET!) se afanan por detectar signos de inteligencia en el espacio exterior, lo que estan buscando es una complejidad especificada. (Recordemos la pelicula Ct111tact en la cual SETI detecta un modelo de sei1al inteligente cuando la secuencia de números primos les llega desde ese espacio exterior. Una secuencia como ésta exhibe complejidad especificada).

95

El filtro cx¡11icntiI'O

11

rE L . f ftr RcO EX PLI CA T 1V O

comienzo

¿De qué modo funciona la complejidad especificada como criterio de detección de diseño?

configuración CUANDO TRATAMOS DE EXPLICAR ALGO, recurrimos a tres amplios modos de explicación: necesidad, azar y diseño. Como criterio para detectar diseño, la complejidad especificada nos permite decidir cuál de estos modos conviene aplicar. Al responder a tres tipos de cuestiones acerca de las cosas, lo que tratamos de explicar es lo siguiente: ¿Se trata de algo contingente? ¿Es complejo? ¿Es especificado? Si ordenamos secuencialmente estas tres preguntas como nódulos de decisión en un diagrama de flujo, podemos representar la complejidad especificada como un criterio para detectar diseño. Este diagrama de flujo es actualmente conocido como Filtro Explicativo (véase figura 1). El Filtro Explicativo opera introduciendo sucesos en el nódulo «inicial» y enviándolos luego a los nódulos de decisión. Supongamos, por ejemplo, que deseamos explicar por qué es posible abrir una determinada caja de caudales bien construida con un artificio de cierre basado en una cierta combinación. ¿Cómo explicaríamos la apertura de la caja? Supongamos que la combinación del cierre consta de un centenar de números ordenados de 00 a 99 y que para abrir la caja se requieren cinco giros en direcciones alternativas. Asumimos que una y solo una secuencia de giros alternativos es la correcta (por ejemplo, 34-98-25-0971). Hay así 10 billones de combinaciones posibles de las cuales sólo una abre la caja. Introduzcamos ahora en el Filtro Explicativo los datos que podrían abrir la caja del banco. ¿De qué modo se comporta este acto en el primer nódulo de decisión? Puesto que no hay ninguna ley o regularidad de la naturaleza que exija que los datos introducidos se tornen en la combinación que abre la caja, esta apertura ha de ser contingente. Y esta respuesta

>----no--..i

necesidad



complejidad

>----no----~

oportunidad



especificación



s Figura 1.

t

El filtro explicativo

>----no--...,

oportunidad

rr1 .,

1

96

El filtro explimtiZ'o

al primer nódulo de decisión nos lleva inmediatamente al segundo. ¿Qué ocurre aquí? Ante 10 billones de posibilidades de combinación de las que sólo una es la correcta, sería absolutamente insensato pensar que una larga serie de giros del dial en una y otra dirección podría llevarnos finalmente hasta ella. En la práctica, descubrir el modo de abrir la caja es extremadamente complejo e improbable. (En rigor, la probabilidad tendría que ser menor que el límite de la probabilidad universal, pero, como ya se dijo en el capítulo anterior, a efectos prácticos esto es más que suficiente).

gecuencias regulares aritméticas que surgen durante el desarrollo de los sistemas biológicos - secuencias que en cambio deberían ser atribuidas a necesidades naturales. Por ejemplo, la serie de Fibonacci (en la cual cada número es la suma de los dos anteriores) que caracteriza la ordenación de las hojas en los tallos de las plantas deriva de un «proceso perfectamente na tura!». La contradicción aquí es sólo aparente. El error no proviene del Jliltro Explicativo sino de un equívoco acerca del término natural. ¿En qué sentido la secuencia de Fibonacci deriva de un «proceso natural perfectamente organizado»? O ¿es natural el origen de ese proceso? El hecho de que la operación de algo sea natural, no significa que su origen también lo sea. Es éste un punto ampliamente olvidado. De hecho, el ejemplo de Korthof dice sólo que los sistemas biológicos son naturales, no que lo sea su origen. Pero el origen, y por tanto el diseño, de sistemas biológicos que exhiben el comportamiento de Fibonacci está a su vez en cuestión. El ejemplo de Korthof es lógicamente equivalente a un programa de computador que produce la serie de Fibonacci. Una vez convenientemente programado, el computador opera por necesidad. En consecuencia, cuando sus resultados alimenten al filtro acabarán desembocando en el nódulo de la necesidad. La serie de Fibonacci generada por el computador deriva, como diría Korthof, de un «proceso perfectamente natural». Pero ¿de dónde procede el computador que ejecuta el programa? Y ¿de dónde el programa mismo? Toda la mecánica y la inteligencia del computador en nuestra experiencia ordinaria están propiamente referidas no a la necesidad sino al diseño. Las críticas de Korthof sugieren que las conclusiones extraídas por el Filtro Explicativo dependen de manera crucial de los sucesos que introduzcamos en él. Para examinar cualquier pretendido diseño que pueda permanecer oculto tras la serie de Fibonacci, el objeto de nuestro interés no es la programada operación de los sistemas biológicos que produzca la serie de Fibonacci (que, tratada como tal, acabaría en el nódulo de la necesidad del Filtro Explicativo). El centro de nuestro interés es, más bien, la estructuración del suceso que organice los sistemas biológicos de modo tal que puedan producir en primer lugar la serie de Fibonacci. Verificar que este suceso conduce al nódulo del diseño en el Filtro Explicativo es sencillo. En efecto, el «programa biológico» que produce la serie de Fibonacci es probablemente bastante simple y podría incluso estar basado en fuerzas puramente naturales como la presión selectiva. Sin embargo, el «hardware biológico» más simple para manipular este

El procedimiento para abrir la caja llega por tanto al tercer nódulo de decisión. Lo crucial aquí es la cuestión de decidir si este suceso es también especificado. Si fuera sólo complejo pero no especificado, la apertura de la caja del banco podría entonces ser legítimamente atribuida al azar. (El azar explica también la absoluta complejidad aparte de la especificación). Pero el suceso que nos ocupa es sin duda especificado. Efectivamente, la misma construcción de la cerradura especifica cuál de entre los diez billones de combinaciones es la que abre la caja. Así pues, este suceso es tanto complejo como especificado. Y como tal exhibe una complejidad especificada con lo que pasa al nódulo terminal «diseño». De este modo llegamos formalmente a lo que cualquier empleado de un banco reconocería inmediatamente: que alguien supo y eligió de antemano la combinación correcta del dial. El Filtro Explicativo ha sido objeto de innumerables críticas tanto en la prensa como en Internet. Quisiera por tanto responder aquí brevemente a las principales objeciones. Una de ellas, expresada por gentes que sólo de oídas conocen algo sobre el filtro, es que el tal filtro asigna al diseño sucesos o cosas que son meramente improbables. Pero es evidente que no es éste el caso en modo alguno, porque además de identificar la complejidad o la improbabilidad, el filtro ha de identificar también una cierta especificación antes de atribuir diseño al objeto de su examen. Otra crítica consiste en afirmar que el filtro asignará al diseño objetos geométricos regulares como los cristales de hielo en forma de estrellas que se producen en el frío invierno. Esta crítica es sencillamente inapropiada, pues tales formas no son más que una cuestión de necesidad física por la simple razón de las propiedades del agua. (Así pues, el filtro asignará los cristales a la necesidad y no al diseño). Consideraciones similares son aplicables a los sistemas auto-organizativos en general. Según el crítico de Internet Pert Korthof (www.home.planet.nl/ -gkorthf/kortho44,htm), el filtro atribuye erróneamente diseño a ciertas

97

98

O!SE\U 1"-'T[LICE"JTE

programa es una célula funcional. Y la célula funcional más simple es una célula asombrosamente compleja que acumula capas sobre capas de complejidad especificada y por tanto de diseño. La incapacidad de Korthof para distinguir entre la operación legiforme o «natural» de una cosa y su origen diseñado está muy extendida. Desgraciadamente, esta confusión no muestra signos de debilitamiento. Michael Polanyi la retrotrae a los años 1960 cuando distingue entre la operación mecánica de los organismos y sus aspectos maquinistas (véase capítulo veinte). Analicemos esta distinción con un ejemplo particularmente simple. Imaginemos una imagen gráfica en carretera que advierte sobre una intensa nevada caída en el entorno del restaurante Eat at Frank dejando al mismo anuncio semicubierto de nieve. A su vez, el propio anuncio ha caído al suelo como resultado de fuerzas naturales no dirigidas. Sobre esta base, el filtro no podría atribuir al diseño la impresión dejada en el suelo por ese anuncio. Sin embargo, hay en todo esto un suceso relevante cuyo diseño ha de ser afirmado: la estructura de la imagen grabada (bien sea en la nieve o bien en el anuncio). Este suceso ha de ser referido a la actividad del que construyó el anuncio, y el Filtro Explicativo lo adscribe correctamente al diseño. Las fuerzas naturales pueden servir de conductos para el diseño. Pero tal vez una simple inspección de esas fuerzas no suministre ninguna evidencia de diseño, y en tal caso habrá que explorar a más profundidad. El uso del Filtro Explicativo para identificar el diseño exige introducir en el filtro los correctos sucesos, objetos y estructuras. El hecho de que un determinado dato no revele ningún diseño, no significa que otro mejor elegido tampoco pudiera descubrirlo. En un artículo titulado «Las ventajas de la cara sobre la cruz: La inferencia del diseño y la argumentación a partir de la ignorancia», aparecido en la revista Bíology and Philosophy (2001), John Wilkins y Wesley Elsberry sostienen que el filtro no es un indicador fiable de diseño. Central para su argumento es la idea de que si nos declarásemos incapaces de caracterizar el entero abanico de necesidades naturales y procesos de cambio que pudiesen cooperar en la explicación de un fenómeno, podríamos omitir con ello toda causa natural indirecta que pudiese aumentar la probabilidad del fenómeno y con ello la posibilidad de una explicación adecuada con independencia del diseño. Así, con respecto a las probabilidades de abrir por azar la caja del banco acabada de considerar, para estos autores sería una construcción muy precaria una caja cuya posibilidad de apertura por azar fuera mucho

El filtro explicati1 10

99

rnayor que 1 sobre 10 billones. Concedamos que tal cosa podría suceder. Pero del mismo modo podría suceder también que el mecanismo exigiera introducir tan precisa y limpiamente la combinación correcta, que la probabilidad de abrir la caja por azar fuera realmente aún menor que 1 sobre 10 billones. Un ulterior examen del mecanismo de apertura podría por tanto trastocar o reforzar una inferencia de diseño. La perspectiva de que un conocimiento adicional pudiera trastocar una inferencia de diseño significa un riesgo para el Filtro Explicativo. Pero es un riego endémico en toda tarea de investigación científica, pues no es más que un reestablecimiento del problema de la inducción, o sea, que podemos estar equivocados respecto a las regularidades (tanto probabilistas como necesarias) que operaban en el pasado y que siguen teniendo aplicación en el presente. Wilkins y Elsberry se comportan realmente como si ningún volumen de investigación sobre un fenómeno fuera suficiente para desterrar razonablemente las necesidades naturales y los procesos de cambio como causa de ellas. Pero si el diseño en la naturaleza es real, las recomendaciones de estos autores nos aseguran que nunca lo descubriremos (véanse los capítulos veintiséis y treinta y dos). Frente a Wilkins y Elsberry, el riesgo de que un conocimiento posterior pueda trastornar la inferencia de diseño, no tiene nada que ver con la fiabilidad del filtro. Esta fiabilidad está referida a su precisión en la detección de diseño, supuesto que le hayamos introducido con toda exactitud las probabilidades en cuestión (véase capítulo doce). Wilkins y Elsberry se proponían criticar la fiabilidad del filtro pero lo que de hecho están criticando es su aplicabilidad (véase capítulo catorce). Son como una persona que tacha de no fiable una calculadora ante un amigo que intenta averiguar cuánto son nueve veces nueve y que obtiene una respuesta errónea porque accidentalmente marcó «6 x 6>>. Si esa persona se empeñara en seguir negando la utilidad de la calculadora pero se viera obligada a admitir que su amigo era el responsable del error, entonces podría insistir en que nadie puede estar absolutamente seguro de que usa correctamente la calculadora. Esto es en esencia lo que Wilkins y Elsberry han hecho con el Filtro Explicativo. Negar así la aplicabilidad del Filtro favorece indirectamente las causas naturales y las torna inmunes a la invalidación. La ciencia es supuestamente una empresa arriesgada. Nos acercamos a la naturaleza para descubrir sus secretos porque no sabemos cuáles son hasta que no la examinamos. De lo cual se sigue que lo que la naturaleza nos revela

98

DISEÑO

El fiJ.tro explicativo

l~TELICENTE

99

mayor que 1 sobre 10 billones. Concedamos que tal cosa podría suceder. Pero del mismo modo podría suceder también que el mecanismo exigiera introducir tan precisa y limpiamente la combinación correcta, que la probabilidad de abrir la caja por azar fuera realmente aún menor que 1sobre10 billones. Un ulterior examen del mecanismo de apertura podría por tanto trastocar o reforzar una inferencia de diseño. La perspectiva de que un conocimiento adicional pudiera trastocar una inferencia de diseño significa un riesgo para el Filtro Explicativo. Pero es un riego endémico en toda tarea de investigación científica, pues no es más que un reestablecimiento del problema de la inducción, o sea, que podemos estar equivocados respecto a las regularidades (tanto probabilistas como necesarias) que operaban en el pasado y que siguen teniendo aplicación en el presente. Wilkins y Elsberry se comportan realmente como si ningún volumen de investigación sobre un fenómeno fuera suficiente para desterrar razonablemente las necesidades naturales y los procesos de cambio como causa de ellas. Pero si el diseño en la naturaleza es real, las recomendaciones de estos autores nos aseguran que nunca lo descubriremos (véanse los capítulos veintiséis y treinta y dos). Frente a Wilkins y Elsberry, el riesgo de que un conocimiento posterior pueda trastornar la inferencia de diseño, no tiene nada que ver con la fiabilidad del filtro. Esta fiabilidad está referida a su precisión en la detección de diseño, supuesto que le hayamos introducido con toda exactitud las probabilidades en cuestión (véase capítulo doce). Wilkins y Elsberry se proponían criticar la fiabilidad del filtro pero lo que de hecho están criticando es su aplicabilidad (véase capítulo catorce). Son como una persona que tacha de no fiable una calculadora ante un amigo que intenta averiguar cuánto son nueve veces nueve y que obtiene una respuesta errónea porque accidentalmente marcó «6 x 6». Si esa persona se empeñara en seguir negando la utilidad de la calculadora pero se viera obligada a admitir que su amigo era el responsable del error, entonces podría insistir en que nadie puede estar absolutamente seguro de que usa correctamente la calculadora. Esto es en esencia lo que Wilkins y Elsberry han hecho con el Filtro Explicativo. Negar así la aplicabilidad del Filtro favorece indirectamente las causas naturales y las torna inmunes a la invalidación. La ciencia es supuestamente una empresa arriesgada. Nos acercamos a la naturaleza para descubrir sus secretos porque no sabemos cuáles son hasta que no la examinamos. De lo cual se sigue que lo que la naturaleza nos revela

programa es una célula funcional. Y la célula funcional más simple es una célula asombrosamente compleja que acumula capas sobre capas de complejidad especificada y por tanto de diseño. La incapacidad de Korthof para distinguir entre la operación legiforme o «natural» de una cosa y su origen diseñado está muy extendida. Desgraciadamente, esta confusión no muestra signos de debilitamiento. Michael Polanyi la retrotrae a los años 1960 cuando distingue entre la operación mecánica de los organismos y sus aspectos maquinistas (véase capítulo veinte). Analicemos esta distinción con un ejemplo particularmente simple. Imaginemos una imagen gráfica en carretera que advierte sobre una intensa nevada caída en el entorno del restaurante Eat at Frank dejando al mismo anuncio semicubierto de nieve. A su vez, el propio anuncio ha caído al suelo como resultado de fuerzas naturales no dirigidas. Sobre esta base, el filtro no podría atribuir al diseño la impresión dejada en el suelo por ese anuncio. Sin embargo, hay en todo esto un suceso relevante cuyo diseño ha de ser afirmado: la estructura de la imagen grabada (bien sea en la nieve o bien en el anuncio). Este suceso ha de ser referido a la actividad del que construyó el anuncio, y el Filtro Explicativo lo adscribe correctamente al diseño. Las fuerzas naturales pueden servir de conductos para el diseño. Pero tal vez una simple inspección de esas fuerzas no suministre ninguna evidencia de diseño, y en tal caso habrá que explorar a más profundidad. El uso del Filtro Explicativo para identificar el diseño exige introducir en el filtro los correctos sucesos, objetos y estructuras. El hecho de que un determinado dato no revele ningún diseño, no significa que otro mejor elegido tampoco pudiera descubrirlo. En un artículo titulado «Las ventajas de la cara sobre la cruz: La inferencia del diseño y la argumentación a partir de la ignorancia», aparecido en la revista Biology and Philosophy (2001), John Wilkins y Wesley Elsberry sostienen que el filtro no es un indicador fiable de diseño. Central para su argumento es la idea de que si nos declarásemos incapaces de caracterizar el entero abanico de necesidades naturales y procesos de cambio que pudiesen cooperar en la explicación de un fenómeno, podríamos omitir con ello toda causa natural indirecta que pudiese aumentar la probabilidad del fenómeno y con ello la posibilidad de una explicación adecuada con independencia del diseño. Así, con respecto a las probabilidades de abrir por azar la caja del banco acabada de considerar, para estos autores sería una construcción muy precaria una caja cuya posibilidad de apertura por azar fuera mucho

1

100

El filtro cxpliL"11tir 0

D1c,tr\io Il\JTELICENTE

101

1

puede ser inesperado e incluso desconcertante. (Pensemos en las dificultades que encontraron los físicos para dar sentido a la mecánica cuántica en los años 1920 y 1930). Pero cuando se trata del diseño, Wilkins y Elsberry desean una ciencia libre de riesgo. Quieren mimar a su ciencia y mantenerla a salvo bien resguardada en su capullo naturalista que le cierre el paso al diseño en las ciencias naturales. Mas semejante ciencia sin riesgos no es ciencia en absoluto. Conoce la verdad sin pararse a mirar. Así, cuando la evidencia le sale al paso, arbitrariamente decreta que la tal evidencia es inadmisible. Otros críticos objetan que al distinguir entre azar y necesidad, el filtro se muestra incapaz de conjuntar la acción del azar y de la necesidad, especialmente cuando ambos factores intervienen en el mecanismo darwiniano de la selección natural (el componente de necesidad) y la variación aleatoria (el componente de azar). En particular, el mecanismo darwiniano es supuestamente el dispensador de toda la complejidad biológica que el filtro atribuye al diseño. De ser correcta, esta objeción destruiría el Filtro Explicativo. Pero no lo es. Yo enfoco al azar y la necesidad como un probabilista, para quien la necesidad es un caso especial de azar en el que las probabilidades se reducen a cero y uno. (Pensemos en una moneda con dos caras: ¿cuál es la probabilidad de que arroje cara cuando se la lance? Y ¿cuál es la probabilidad de que salga cruz?) El azar, tal como yo lo caracterizo, incluye así a la necesidad, al azar (tal como de ordinario es usado) y a la combinación de ambos. Por tanto, el filtro admitiría ser comprimido asimilando el nódulo de la necesidad a los nódulos del azar, aunque a expensas de disminuir la facilidad de uso de los filtros. En cualquier caso, el filtro es sólido y totalmente aplicable a la evaluación de las pretensiones del darwinismo. Finalmente, la crítica de Michael Ruse al Filtro Explicativo consiste en afirmar que el tal filtro convierte a la necesidad, el azar y el diseño en conceptos mutuamente exclusivos y exhaustivos. Citando a Ronald Fisher, Ruse argumenta que los tres conceptos no necesitan funcionar «conjuntamente». Así, en Can a Darwinian Be a Christian? escribe,

viene a decir que la evolución progresa hacia adelante con lo cual ignora los procesos degenerativos regidos por la Segunda Ley de la Termodinámica. Y luego, como medida consoladora, ¡sostiene que absolutamente todo fue planeado por su Dios anglicano! 1

Así pues, éste es el modo en que Fisher reúne azar (concebido en general como mutaciones y desorden), necesidad (concebida en forma de leyes físicas y selección natural) y diseño (concebido como la planificación de un Dios anglicano). ¿Es semejante revoltijo compatible con el Filtro Explicativo? Lo es de hecho. Ruse está equivocado cuando dice que el Filtro Explicativo separa la necesidad, el azar, y el diseño en categorías exhaustivas y mutuamente exclusivas. El filtro imita nuestra práctica ordinaria de utilizar esos tres modos de explicación; y por su puesto, los tres pueden ser ensayados conjuntamente. Pero típicamente es uno de esos modos de explicación el que predomina. ¿Es diseñado el óxido que ha corroído la dirección de su viejo automóvil? El óxido y el lamentable estado de su coche son debidos al azar y la necesidad (humedad, temperatura, gravedad y una multitud de otras fuerzas naturales incontrolables). Pero su automóvil exhibe también diseño, que típicamente es el punto que interesa. Y lo que es más, al concentrarse en los aspectos cruciales del automóvil, el filtro detecta también el diseño. Y en última instancia, el factor que capacita al filtro para detectar el diseño es la complejidad especificada. Así pues, el Filtro Explicativo proporciona un modo amigable de establecer la complejidad especificada. Por esta razón, la única posibilidad de refutar el Filtro Explicativo consistiría en mostrar que el mismo filtro se apoya en un criterio inadecuado para detectar el diseño. Mas volvámonos ahora al análisis de tal objeción.

[Fisher] creía que las mutaciones ocurrían individualmente por azar, pero que colectivamente eran gobernadas por leyes (que indudablemente están gobernadas por las leyes de la física y la química) y por eso pueden suministrar las condiciones para la selección (ley) que produce orden a partir del desorden (azar). Fisher encierra el panorama entero dentro de los confines de su «teoría fundamental de la selección natural», que esencialmente

l

'1

Fillbilidad del cri ferio

12

F1kB lbl DA D D EL C R1T ER1O ¿Es la complejidad especificada un criterio fiable para detectar diseño?

LA COMPLEJIDAD ESPECIFICADA tal como queda encapsulada en el Filtro Explicativo (véase capítulo once), es un criterio para detectar ocurrencias de diseño. Me referiré a este criterio con la expresión «Criterio de especificación-de-complejidad». En general, los criterios tratan de clasificar a los individuos por referencia a un determinado grupo que hace de modelo. El grupo-modelo para el criterio de especificación-de-complejidad engloba todas las cosas que han sido inteligentemente causadas. ¿Hasta qué punto es afinado este criterio para asignar cosas a este grupo y omitir correctamente otras? Las cosas que tratamos de explicar tienen una historia causal. En algunas de estas historias es indispensable la causación inteligente; en otras en cambio es dispensable. Una mancha de tinta se deja explicar sin necesidad de recurrir a una causación inteligente; una cierta cantidad de tinta ordenada para formar un texto con pleno sentido, no. Cuando el criterio de especificación-de-complejidad asigna algo al grupo-modelo, ¿podemos pensar que ese algo pueda ser de hecho realmente causado? Si no, estamos ante el problema de los positivos falsos. Por otra parte, cuando este criterio se muestra incapaz de asignar alguna cosa al grupo-modelo, ¿podemos estar seguros de que esa cosa no ha sido inteligentemente causada? Si no lo estamos nos encontramos ante el problema de los negativos falsos. Consideremos primeramente el problema de los negativos falsos. Cuando la especificación de la complejidad no logra detectar diseño en una cosa, ¿se puede asegurar que ninguna causa inteligente jugó el menor papel en su formación? En modo alguno. Para determinar que una cosa no es producto de un diseño, este criterio no es fiable. Los negativos falsos son un problema para él. Cierto que el problema de

103

}os negativos falsos es endémico en la detección de diseño en general. Una dificultad para ello reside en el hecho de que las causas inteligentes ueden mimetizar a las causa naturales no dirigidas, haciendo con ello :ue sus acciones resulten in~istinguibles de las ~ropias d~ las causas 110 inteligentes. Un tarro de tmta cae sobre el pupitre y accidentalmente se desparrama por una hoja de papel. Alternativamente, un agente hum.ano vuelca deliberadamente un tarro de tinta sobre una hoja de papel. Las manchas resultantes pueden parecer idénticas, y ninguna de ellas suministrar la menor evidencia de designio. Sin embargo una de IBs dos se debe realmente a un designio mientras que la otra obedece a causas naturales. Otra dificultad añadida consiste en que la detección de causas inteligentes requiere un conocimiento de fondo. Es propio de una causa inteligente poder reconocer a otra causa inteligente. Pero si no estamos lo suficientemente informados, podremos equivocarnos. Considérese a un espía que escucha un canal de comunicación cuyos mensajes están cifrados. A menos que el espía conozca el modo de penetrar en el criptosistema utilizado por las partes a las que está espiando (esto es, a menos que conozca la clave criptográfica), todo mensaje que atraviese el canal le parecerá ininteligible y producto del azar más que de un designio. El problema de los negativos falsos surge por tanto cuando un agente inteligente ha actuado (consciente o inconscientemente) para ocultar sus acciones o cuando un agente inteligente carece del conocimiento suficiente para poder detectar un determinado diseño. Así pues, el criterio de especificación-de-complejidad tiene ciertamente sus límites. Se trata precisamente de esos límites que no le ahorran al darwinista el trabajo crucial que el criterio puede realizar. Este criterio es absolutamente capaz de detectar causas inteligentes empeñadas en mostrar su presencia - e incluso muchas otras que no lo son. Los maestros del sigilo deseosos de ocultar sus acciones pueden acertar a evadir este criterio. Pero los profesionales de la auto-promoción utilizan el criterio de especificación-de-complejidad para asegurarse de que su propiedad intelectual quede adecuadamente adjudicada. Por su parte, la propiedad intelectual (como patentes y protección del derecho de autor) sería imposible sin este criterio. Y esto nos conduce al problema de los positivos falsos. Aun en el caso de que la complejidad especificada no fuese un criterio fiable para eliminar el diseño, sí es un criterio fiable para detectar el diseño. El criterio de especificación-de-complejidad se comporta como una red.

104

DISEÑO

fiabilidad del criterio

INTELIGENTE

Las cosas que son diseñadas quedarán prendidas en ella. A nosotros nos gustaría que la red atrapara mucho más de lo que pesca, sin omitir nada que fuera debido al diseño. Pero dada la habilidad del diseño para mimetizar causas no inteligentes e incluso la posibilidad de que nosotros mismos sigamos ignorando cosas que son diseñadas, este problema no puede ser remediado. No obstante, quisiéramos estar absolutamente seguros de que todo lo que la red capturase incluiría sólo aquello que nosotros pretendemos capturar, o sea, cosas que son diseñadas. Si éste es el caso, podemos confiar entonces en que todo lo que el criterio de especificación-de-complejidad atribuya al diseño será con seguridad algo diseñado. ¿Cómo es posible comprobar que la complejidad especificada es un criterio fiable para detectar diseño? O dicho en otras palabras: ¿cómo podemos constatar que el criterio de especificación-de-complejidad sabe desechar sabiamente los positivos falsos? El cumplimiento de esta aspiración se realiza mediante una generalización claramente inductiva: en toda instancia que manifieste a las claras la presencia de una complejidad especificada, y cuya historia causal sea perfectamente conocida (es decir, cuando no se trate justamente de disponer de una evidencia circunstancial, sino, por el contrario, cuando se cuente con una cámara de vídeo para que todo pretendido diseñador pueda ser inmediatamente desenmascarado), sucede que el diseño también está presente. Esta afirmación es verdadera aun para el caso en que la persona que estuviera utilizando el filtro no tuviera acceso a una información de primera mano. Es ésta una fundamental y valiente afirmación, por lo cual la reestableceré de otro modo: Cuando sea posible una corroboración empírica y directa, el diseño estará realmente presente siempre que la complejidad especificada lo esté también. Aunque esta justificación de la fiabilidad del criterio de especificación-de-complejidad para detectar diseño pueda parecer un tanto facilona, no lo es realmente. Si alguna cosa exhibe una genuina complejidad especificada, entonces no se la puede explicar en términos de todos los mecanismos materiales (no sólo de los que son conocidos, sino de todos ellos, apoyándose en la probabilidad universal ligada a ese 1 contra 10150; véase capítulo diez). Ciertamente, atribuir complejidad especificada a alguna cosa significa que la especificación a la cual esa cosa se conforma corresponde a un suceso que es enormemente improbable con respecto a todos los mecanismos materiales que pudieran dar lugar al suceso en cuestión. Así pues, elijamos: consideremos al elemento en cuestión como

105

.inexplicable en términos de todos los mecanismo materiales, o considerémoslo como diseñado. Pero puesto que el diseño está uniformemente asociado con la complejidad especificada cuando se conoce la historia causal subyacente, la inducción aconseja atribuir diseño en los casos en los que se ignora la historia causal oculta. Para que la complejidad especificada pueda detectar diseño, no es :suficiente con que la probabilidad sea pequeña en comparación con al'B°11ª distribución de probabilidad arbitrariamente elegida. Por ejemplo, 1d uno se paseara por un bosque poblado de árboles en donde el musgo más consistente se concentrara en la cara norte de los troncos, no bastaría con preguntar al guardabosques: «¿cuáles son las probabilidades de que el musgo más espeso se encuentre justamente en la cara norte de cada uno de estos 10.000 árboles?» Sería virtualmente imposible decirlo, y así el vigilante podría contestar: «alguien podría haber estado arrancando todo el musgo del lado sur de los 10.000 árboles». Nuestro incompetente guardabosques habría olvidado en este caso otra distribución de la probabilidad que tiene en cuenta que el musgo sólo obtiene la suficiente sombra que lo mantenga fresco y sano en el lado norte de los troncos. Así pues, para que la complejidad especificada detecte un diseño, la probabilidad en cuestión ha de ser pequeña en comparación con cualquier otra probabilidad que pudiera caracterizarlo. Cuando se da este caso, tiene lugar la inferencia de diseño. El uso del azar es aquí muy amplio e incluye todo lo que pueda ser capturado matemáticamente por un proceso estocástico. (Los procesos estocásticos constituyen el modelo más general para describir la interacción de cambio y necesidad a lo largo del tiempo). Y esto incluye procesos deterministas cuyas probabilidades se han reducido a cero y uno (como es el caso de la necesidad, de las regularidades y de las leyes naturales). Igualmente incluye también procesos no-deterministas, como los procesos evolutivos que combinan la variación aleatoria y la selección natural. Ciertamente, el azar así interpretado caracteriza a todos los procesos naturales no dirigidos. Cuando se elimina el azar, la complejidad especificada limpia por tanto el campo de todo proceso que pudiera excluir el diseño. La única posibilidad razonable en este caso sería el diseño. Mas todavía sigue en pie el problema de prescindir de las distribuciones de probabilidad inducidas por mecanismos materiales. ¿Puede hacerse esto con confianza? Si las distribuciones de la probabilidad en cuestión son las que han sido inducidas por mecanismos materiales conocidos que operan de modos también conocidos, entonces la complejidad

l

r: !' ' 106

Fiabilidad del criterio

DISENO INTELIGENTE

especificada puede y ciertamente debe prescindir de tales mecanismos. (Una complejidad especificada quedaría inmediatamente trastornada si alguna distribución de probabilidad inducida por mecanismos conocidos que operan a su vez de maneras conocidas tornaran lo que tratamos de explicar en algo razonablemente probable. Recordemos el ejemplo del musgo bajo los árboles). Pero puesto que la complejidad especificada exige eliminar también toda distribución de probabilidad inducida por mecanismos materiales que pudieran ser operativos, sin olvidar siquiera a los desconocidos, ¿cómo puede la complejidad especificada prescindir de éstos? La complejidad especificada puede prescindir de mecanismos materiales desconocidos supuesto que existan razones independientes para pensar que las explicaciones basadas en mecanismos materiales conocidos no van a ser tergiversadas por mecanismos desconocidos aún no identificados. Tales razones independientes adoptan típicamente la forma de argumentos a partir de la contingencia que invocan numerosos grados de libertad. A veces toman la forma de argumentos desde el agotamiento: tras intentar una y otra vez obtener un resultado (digamos la transformación de plomo en oro), los investigadores acaban convencidos de la imposibilidad de conseguirlo. No es infrecuente que se trate de reforzar este tipo de argumento con fundamentos teóricos. La alquimia, por ejemplo, había sido ampliamente descartada antes de que la química proporcionara fundamentos teóricos sólidos para su rechazo. Pero fue el surgimiento de la química moderna, con su teoría de los elementos, lo que acabó definitivamente con la alquimia. (Con el término alquimia me refiero, por supuesto, a la transformación masiva de una determinada sustancia mediante una serie de toscas intervenciones, como aplicación de calor y de pociones, y no por reconstrucción átomo a átomo de una determinada sustancia valiéndose de sofisticados aparatos tales como los aceleradores de partículas). En cualquier caso, necesitamos contar con una buena base de relevantes distribuciones de probabilidad antes de poder atribuir con cierta confianza una complejidad especificada. Que podamos o no hacernos con semejante bagaje ha de ser establecido sobre la base de casos individuales - un punto sobre el que he insistido en The Design Inference. En esta obra contrasté el resultado de un experimento en agricultura con la apertura de una caja fuerte con un mecanismo de combinación. En el experimento de agricultura, nos faltaba simplemente el suficiente conocimiento de los mecanismos subyacentes que pudieran

107

hacer un fertilizante más eficaz que otro en un determinado cultivo. Los mecanismos de combinación, sin embargo, son otra historia. Los tnecanismos materiales conocidos (en este caso las leyes de la física) prescriben dos posibles movimientos de combinación: rotaciones en el sentido del reloj y rotaciones en contra. Sin embargo, estos mecanismos no pueden prescribir el número exacto de giros que abra la cerradura. La geometría y simetría del cierre no permiten que los mecanismos materiales puedan distinguir una combinación de otra. O sea, que una de ellas es tan buena como cualquier otra desde la perspectiva de los mecanismos materiales. Las cerraduras de combinación exhiben muchos grados de libertad en sus posibles combinaciones. De hecho, son precisamente esos grados de libertad lo que garantiza la seguridad de la caja fuerte. Cuanto más grados de libertad, mayores serán las combinaciones posibles y mayor la seguridad. Los mecanismos materiales son compatibles con estos grados de libertad y nos aseguran que cada posible combinación es físicamente realizable. Mas precisamente porque cada posible combinación es físicamente realizable, los mecanismos materiales como tales no pueden imponer una combinación con exclusión de otras. Para eso necesitamos condiciones iniciales y fronterizas. Estas condiciones describen las circunstancias precisas bajo las cuales pueden actuar los mecanismos materiales. Por ejemplo, que una cerradura de combinación se abra de una manera particular depende del modo en que estén organizados los seguros (es decir, de sus condiciones iniciales). Así pues, para establecer que ningún mecanismo material explica un fenómeno, se establece típicamente que ese mecanismo es compatible con los conocidos mecanismos materiales implicados en su producción, aunque esos mecanismos permiten también cualquier número de alternativas a éste. (Es decir, que los mecanismos permiten un amplio rango de condiciones iniciales y fronterizas, y estas condiciones son las que conforman los grados de libertad con los que los mecanismos materiales pueden operar). Por ser compatible con los conocidos mecanismos materiales implicados en su producción, aunque no requerido por éstos, un fenómeno se torna irreducible no sólo a los mecanismos conocidos sino también a cualquier mecanismo desconocido. ¿Por qué razón? Porque los mecanismos materiales conocidos pueden decirnos de manera conclusiva que un fenómeno es contingente y que permite muchos grados de libertad. Cualquier mecanismo desconocido tendría entonces que respetar esa contingencia y aceptar los grados de libertad ya descubiertos.

L

108

109 Ü!SE\JO

INTELIGENTE

Michael Polanyi describió este método para establecer la contingencia mediante grados de libertad en los años 1960. Y empleó este método para argumentar en favor de la irreductibilidad de la biología a la física y a la química. El método tiene una aplicación muy general: la posición de ~, las piezas en un tablero de Scrabble es irreducible a las leyes generales ~1 que gobiernan los movimientos de las piezas del juego; la configuración de las manchas de tinta en un trozo de papel es irreducible a la física y a la química del papel y de la tinta, la secuencia de las bases del ADN es irreducible a las afinidades que ligan las bases, etc. : Al establecer un ámbito de posibilidades sobre la base de mecanismos materiales conocidos, este método excluye la posibilidad de que mecanismos materiales desconocidos puedan comprimir este ámbito. Las piezas del Scrabble, por ejemplo, pueden ser alineadas en todas las ordenaciones posibles. Para que un mecanismo material desconocido comprima o prefiera una ordenación determinada, debe estar adecuadamente comprimido por las condiciones fronterizas. Pero entonces esas condiciones fronterizas deben a su vez permitir al menos tantos grados de libertad como las posibles ordenaciones de las piezas del Scrabble (de otro modo, no habría completa libertad en la ordenación de las piezas en el juego del Scrabble, cosa que sabemos que existe). Es este regreso desde la respuesta de los mecanismos materiales a su original condición fronteriza, lo que demuestra lo inadecuado de los mecanismos materiales para originar complejidad especificada. A lo sumo, los mecanismos materiales podrían arrastrar consigo la preexistente complejidad especificada oculta en las condiciones iniciales y fronterizas. En conclusión: la fiabilidad de la complejidad especificada como criterio para detectar diseño debe ser entendida en relación con todos los mecanismos materiales que pudieran estar operando en una circunstancia dada. Dicho en otras palabras: el criterio es fiable en la detección del diseño si se da por supuesto que todos los mecanismos materiales que pudieran ser operativos en la circunstancia dada fueran eliminados. Sin embargo, en la práctica podemos eliminar solamente los mecanismos materiales que nos son conocidos. Aunque pueda parecer que la posible divergencia entre mecanismos conocidos y todos los mecanismos überhaupt (conocidos y desconocidos) minimiza el criterio de especificación de complejidad, realmente no lo hace. Si, por ejemplo, hubiera razones independientes para creer que las distribuciones de probabilidad inducidas por mecanismos conocidos están aseguradas contra mecanismos 1

1

1



:

ieSConocidos, entonces el criterio limpiaría el campo de todos los meearüsmos que pudieran imposibilitar el diseño. Al eliminar de este modo todos los mecanismos materiales, no esta0105 diciendo con ello que un fenómeno sea inherentemente inexplicable. Lo que decimos más bien es que los mecanismos materiales no lo explican y que el diseño sí lo hace. Esta conclusión sobre el diseño no él producto de una imaginación superactiva sino simplemente de una obediencia a la lógica de la inducción que dice: En los casos en los que la subyacente historia causal es conocida, la complejidad especificada no se presenta sin diseño. La complejidad especificada proporciona, par tanto, un soporte inductivo no meramente de lo inexplicable en términos de mecanismos materiales, sino también de lo explicable en términos de diseño. (Y permítaseme insistir nuevamente en que no estamos hablando aquí de mecanismos materiales disyuntivos, del tipo «esto o aquello», contra el diseño. Es más bien una cuestión de «Uno o los dos», de mecanismos materiales opuestos que trabajan codo a codo con el diseño).

'11

1'

l' 1

Objetividad y subjetiPidad

13

que ser actualizada a la luz de la moderna física. El color, por ejemplo, es tratado ahora como una longitud de onda de la radiación electromagnética y considerado como cualidad primaria (aunque la experiencia subjetiva del color siga siendo tenida por una cualidad secundaria). Pero incluso así, la idea de que algunas propiedades son primarias u objetivas y otras secundarias o subjetivas, sigue siendo vigente, especialmente en las ciencias. El problema está, por tanto, en que la complejidad especificada puede ser enteramente una propiedad subjetiva, y que no hay manera de captar su naturaleza en función de sus articulaciones ontológicas, ni de dotar, por tanto, a la ciencia con un instrumento válido para la investigación. Esta preocupación está mal ubicada y requiere una nueva formulación. Lo primero a revisar es que la distinción objetivo-subjetivo no es tan transparente como podría parecer a primera vista. Consideremos las tres propiedades siguientes: X es sólido, X está casado, y X es bello. (Las Xs representan aquí a un sujeto portador de las mencionadas propiedades). Como ya se ha observado, la propiedad X es sólido es objetiva. Cualquiera de nosotros puede pasearse por el mundo, tomar una muestra de una roca, someterla a un análisis químico y determinar si las conexiones entre sus átomos y moléculas hacen de ella un cuerpo sólido (en tanto que opuesto a un fluido o un gas). Por su parte, X es bello parece ser indiscutiblemente subjetivo. Incluso aunque los cánones objetivos de la belleza residieran en la mente de un diseñador cósmico o en un cielo platónico, en la práctica, la idea que tiene la gente sobre la belleza difiere drásticamente. Por otra parte, ningún objeto singular parece ser universalmente tan admirado como la belleza. Si la complejidad especificada fuera subjetiva en el mismo sentido en que lo es la belleza, entonces la complejidad especificada no podría ser una propiedad útil para la ciencia. Mas ¿qué puede decirse sobre X es casado? Es ciertamente un hecho objetivo del mundo el que usted o yo estemos casados. Y sin embargo hay también en esta propiedad un elemento irreduciblemente subjetivo: a diferencia de la solidez de las rocas, digamos, que es simplemente un hecho relativo a la naturaleza y no depende de los sujetos humanos, el matrimonio es una institución social que depende íntimamente de los sujetos humanos. Mientras que la solidez es puramente objetiva y la belleza puramente subjetiva, el matrimonio es a la vez subjetivo y objetivo. Esta confluencia de objetividad y subjetividad en realidades sociales como el dinero, el matrimonio y las hipotecas, es el tema del libro de John Searle

(o Bfffl~ VU DAD Y isu~l·,~:t1}110 o :~i',.,,~ ·~

111

¿:;"'~

¿Describe la complejidad especificada una característica objetiva del mundo o es meramente un estado subjetivo de ignorancia sobre el funcionamiento del mundo?

LA COMPLEJIDAD ESPECIFICADA es una propiedad que las cosas pueden tener o no tener. Pero ¿en qué sentido es la complejidad especificada una propiedad? Las propiedades se presentan de diversas formas. Hay propiedades objetivas que existen con independencia de los atributos que suelen caracterizarlas. La solidez y la fluidez pertenecen a este tipo. El agua a la temperatura ambiente normal es fluida. El agua por debajo de los cero grados es sólida. Estos atributos son perfectamente objetivos. Por otra parte, hay también propiedades subjetivas que dependen esencialmente de la persona que las atribuya. La belleza es una de ellas. Para ser más exactos, la belleza no reside enteramente en los ojos del que la contempla (pueden existir aspectos objetivos de ella), pero la belleza no tendría viabilidad alguna sin el ojo de un espectador. La distinción entre propiedades objetivas y subjetivas tiene una larga tradición en filosofía. Con René Descartes, esta distinción se tornó importante también en la ciencia. Descartes estableció esta distinción en términos de cualidades primarias y secundarias. Para el pensador francés, los objetos materiales poseían una cualidad primaria: la extensión. Las restantes propiedades de la materia - su color o su textura, por ejemplo - eran cualidades secundarias que simplemente describían el modo en que la materia, por causa de los diversos aspectos bajo los que estaba configurada o extendida, afectaba a nuestros sentidos. La distinción cartesiana entre cualidades primarias y secundarias ha tenido

1

L

112

ÜJSENO INTELIGENTE

113

La construcción de la realidad social. Las realidades sociales son objetivas en el sentido de que regulan los acuerdos intersubjetivos y expresan hechos (en lugar de meras opiniones) sobre el mundo social en el que habitamos. Pero estos hechos se dan dentro de una matriz social, que a su vez presupone sujetos y por tanto comporta subjetividad. Searle suplementa la distinción objetivo-subjetivo con una distinción ontológico-epistémica (ontología hace referencia a lo que existe, epistemología a lo que conocemos).

en una flecha que acierta en el blanco. El blanco es un modelo Independientemente dado y por tanto una especificación. Pero el blanco ~presenta también un suceso - la flecha que acierta en el blanco - y este suceso encierra una cierta probabilidad. r, Por ser condicionalmente independientes de los resultados que des,.mbe, las especificaciones son, dentro del esquema de Searle, epistémii.unente objetivas. Además, una vez que se ha dado una especificación f.'81 suceso que representa ha sido identificado, la probabilidad de ese ._ultado es ontológicamente objetiva. Consideremos, por ejemplo, un Mq>erimento en mecánica cuántica en el cual se envía una luz polarizada a través de un filtro polarizador cuyo ángulo de polarización es de 45 grados con respecto al de la luz. Imaginemos que la luz es enviada por el filtro fotón a fotón. Según la mecánica cuántica, la probabilidad de que un fotón atraviese el filtro es de 50 por ciento, y la probabilidad de que cada fotón logre atravesarlo es probabilísticamente independiente de los otros. Este experimento de mecánica cuántica sirve de modelo a la tirada de una moneda bien equilibrada (cara = fotón que pasa por el filtro; cruz= fotón que no pasa a través de él), aunque sin la posibilidad de un determinismo subyacente que pudiera eliminar el azar (asumiendo que la mecánica cuántica pueda arrojar verdadero azar). Representemos ahora a un fotón que pasa por el filtro con un 1 (en lugar de cara) y a un fotón que no pasa por el filtro con un cero (en lugar de cruz). Consideremos la especificación 11011101111101111111 ... , o sea, la secuencia de los números primos en notación unaria. (Donde la serie de sucesivos unos separados por un cero está representando a cada uno de los números en dicha secuencia). Por razones de brevedad consideremos la serie de números primos situados entre 2 y 101. Esta representación de los números primos es ontológicamente subjetiva en el sentido de que depende de sujetos humanos que conocen la aritmética (y específicamente los números primos y su notación a base de unos). Es también epistémicamente objetiva en la medida en que la aritmética es un aspecto universal de la racionalidad. Además, una vez establecida esta especificación de números primos, la probabilidad precisa de una secuencia de fotones que pasen por el filtro y coincidan con él es ontológicamente objetiva. En efecto, esta probabilidad dependerá solamente de las propiedades físicas propias de los fotones y los filtros polarizadores. Por tanto, la complejidad especificada es a la vez epistémicamente objetiva (respecto a la especificación) y ontológicamente objetiva (en lo que concierne a la complejidad una vez que se cuenta con una especificación).

Objetivo

Ontológico

Epistémico

Subjetivo Figura 2.

Realidades sociales de John Searle.

Según esto, la solidez es ontológicamente objetiva, pues depende del estado ontológico de la naturaleza con independencia de los seres humanos o de otros sujetos. Y alternativamente, la belleza es epistémicamente subjetiva, pues depende del estado epistémico de los humanos u otros sujetos, y su valoración puede variar de sujeto a sujeto. Por otra parte, las propiedades que reflejan realidades sociales como el dinero, el matrimonio y las hipotecas, son ontológicamente subjetivas pero epistémicamente objetivas. Así, el matrimonio es ontológicamente subjetivo en el sentido en que depende de las convenciones sociales de los sujetos humanos. Pero al mismo tiempo, el matrimonio es epistémicamente objetivo: toda disputa sobre la condición de casado de algún sujeto puede ser objetivamente dilucidada sobre la base de estas convenciones sociales. ¿Cómo se aplican las categorías de Searle a la complejidad especificada? En dos partes, que se corresponden con las dos partes que componen la complejidad especificada. La complejidad especificada comporta una especificación, un modelo condicionalmente independiente de algún resultado observado; pero incluye también una asignación de complejidad (improbabilidad) al suceso asociado con ese modelo. Pen-

-teJnOS

114

DISENO INTELIGENTE

La complejidad especificada está por tanto a salvo de la acusación de subjetividad epistémica, que, de ser cierta, relegaría la complejidad especificada al capricho, al gusto o a la opinión del sujeto. Pero la complejidad especificada no se limita a evitar sin más esta acusación. Más positivamente, muestra también dos formas deseables de complejidad: especificaciones que son epistémicamente objetivas, y medidas de complejidad basadas en estas especificaciones que son ontológicamente objetivas. ¿Sería suficiente esto para justificar la complejidad especificada como instrumento legítimo para la ciencia? Para responder a esta pregunta consideremos qué podría suceder con la complejidad especificada si se prescindiera de ella como instrumento legítimo en la ciencia. Según David Berlinski, en las especificaciones está el problema. En el número de Commentary de Diciembre de 2002, en un artículo titulado «Has Darwin met his match?», escribía Berlinski: Una especificación es un gesto humano. Puede ser ofrecido o contenido, aplazado o diferido; puede ser preciso o incompleto, parcial o único. El reloj de Paley puede así ser especificado en términos de sus propiedades para medir el tiempo, pero también puede serlo en términos de la ordenación o enumeración de sus partes; y a su vez estas partes pueden ser igualmente especificadas en términos horológicos, mecánicos, moleculares, atómicos, o incluso sub-atómicos. Cada especificación introduce un cálculo de probabilidades diferente. El reloj de Paley puede ser improbable bajo una especificación, pero probable en otra. Un gesto es la expresión de un pensamiento que centra su atención en una cosa con exclusión de otras. Bien, demos por sentado que las especificaciones son gestos. De aquí no se sigue que todos los gestos hayan sido creados iguales o que ninguno de ellos pueda ser legítimamente empleado para realizar inferencias de diseño. La crítica de Berlinski homogeneiza arteramente todos los gestos. Si todo lo que yo pudiera hacer con el reloj de Paley (véase el capítulo siete) fuera gesticular ante el número de sus partes, entonces no tendría lugar la menor inferencia de diseño. Por otra parte, si yo gesticulo ante su complejidad funcional y la integración de sus partes a fin de marcar el tiempo, entonces estaré realizando una inferencia de diseño. El objetivo de Berlinski es mostrar que diferentes especificaciones pueden producir diferentes resultados de probabilidad. Así, una especificación podría justificar una inferencia de diseño, pero tal vez otra no.

Objetividad y subjetiziidad

115

Mas ¿por qué este hecho sobre la especificación tendría que disminuir la capacidad de la complejidad especificada para realizar una inferencia de diseño válida? Imaginemos dos blancos con una flecha clavada en el corazón de los círculos que uno y otro tienen pintado en su centro. Supongamos que el corazón de uno de los blancos es amplio y el del otro muy pequeño (lo cual implicaría que clavar la flecha en el centro del corazón amplio sería razonablemente probable, mientras que la probabilidad de acertar con el pequeño sería mínima). Supongamos además que los blancos fueron colocados con independencia de la trayectoria de la flecha. En este caso señalaríamos al diseño como responsable de la trayectoria de la flecha. Ciertamente, la flecha alojada en el centro del pequeño exhibiría una complejidad especificada con lo cual desencadenaría una inferencia de diseño. En cuanto a la flecha alojada en el centro del grande, es irrelevante el hecho de que no haya en este caso ningún indicio de complejidad especificada. Para extraer una inferencia de diseño válida es suficiente con hallar al menos una especificación para la cual el elemento en cuestión exhiba una complejidad especificada. (El fracaso en otras especificaciones corre en paralelo con este punto). Tampoco significa esto que, con independencia del elemento en cuestión, podamos encontrar siempre una especificación para la cual éste exhiba una complejidad especificada. La complejidad especificada necesita especificaciones de baja complejidad especificacional, y éstas son escasas y distantes entre sí (recordemos el capítulo diez). Pero las especificaciones no son el problema. Es cierto que, aunque epistemológicamente objetivas, las especificaciones no son ontológicamente objetivas. Pero esta carencia de objetividad ontológica, no les impide sin embargo desempeñar un papel legítimo en las ciencias naturales. En biología, las especificaciones aportan independientemente modelos funcionales que describen la conducta orientada a un fin de los sistemas biológicos. El flagellum bacteria!, por ejemplo, es un motor propulsor bidireccional que situado en la espalda de ciertas bacterias las hace moverse a través de su entorno acuoso. Esta descripción funcional es epistémicamente objetiva, pero en cualquier interpretación naturalista de la ciencia debe ser considerada como ontológicamente subjetiva. Si, como el naturalismo exige, la naturaleza es un nexo cerrado de causas naturales no dirigidas, entonces la naturaleza no sabe nada sobre semejantes descripciones funcionales. Y sin embargo la biología como ciencia sería imposible sin ellas. Por su parte, los conceptos mismos de supervivencia y reproducción, de los cuales

116

0

¡c;E N U

1 !\!TI LIC ENTE

depende la teoría evolutiva, son de por sí descripciones funcionales. El lenguaje funcional es indispensable para la biología. Las especificaciones clarifican y le dan precisión a ese lenguaje. Así pues, cualquier problema de justificación de la legitimidad de la complejidad especificada dentro de la ciencia, hay que buscarlo en otra parte. Ciertamente, si existe algún problema, se encontrará en la complejidad. Aunque la complejidad se toma ontológicamente objetiva en el momento en que se dispone de una especificación, la valoración que ofrecemos de la complejidad es justamente esto: una valoración nuestra. Y el problema con las valoraciones es que pueden ser erróneas. Las especificaciones están bajo nuestro control. Formulamos especificaciones sobre la base de nuestro conocimiento de fondo. Por otra parte, la complejidad denotada por la complejidad especificada reside en la naturaleza. Esta forma de complejidad corresponde a una medida de probabilidad, y tales probabilidades dependen del modo en que la naturaleza esté constituida. Hay un hecho objetivo subyacente al modo en que se dan estas probabilidades. Pero nuestra captación de tales probabilidades puede no ser la adecuada. Por tanto, el problema de hallar para la complejidad especificada un lugar efectivo en la ciencia consiste en tender un puente entre la complejidad tal como existe en la naturaleza y la valoración que nosotros hacemos de ella. Y, por otra parte, el problema no es que la complejidad especificada sea o no una propiedad científica coherente, sino el de si podemos justificar unas particulares atribuciones de complejidad especificada a objetos o sucesos particulares en la naturaleza. La complejidad especificada puede ser elegante como constructo teórico, mas ¿puede ser aplicada realmente en la práctica? Esta cuestión nos lleva directamente a nuestro siguiente tópico: la afirmabilidad.

AFIRMABILIDAD Dado que la complejidad especificada es un cri tcrio bien definido, objetiz 10 y fiable para detectar diseiio, ¿por qué habría que pensar que nunca podríamos estar justificados para afirmar que algún objeto natural exhibe complejidad espec~ficada?

EsTA CUESTIÓN HACE INCONTESTABLES la coherencia, la objetividad y la fiabilidad de la complejidad especificada como criterio para detectar diseño (y con toda razón, puesto que como hemos visto en los capítulos anteriores, todas estas propiedades son diáfanas). Lo que más bien nos interesa determinar aquí es la cuestión de saber si algo que exhiba una complejidad especificada es impracticable, tal como lo es la reconstrucción del pasado de una cosa de la cual se ha perdido toda evidencia relevante. ¿Tenía Julio César un lunar en la planta de su pie izquierdo? La cuestión tiene mucho sentido y hay un hecho indiscutible que solucionaría correctamente esta cuestión (César tenía o no tenía ese lunar). No obstante, la evidencia que podría ayudamos a resolverla está absolutamente perdida desde hace largo tiempo. Lo mismo ocurre con la complejidad especificada, y lo lamentable es que en abstracto puede ser un concepto pleno de sentido pero que no hay manera de aplicarlo en la práctica para dilucidar la cuestión relativa al diseño. Dicho en otras palabras, la cuestión se centra aquí en la afirmabilidad de la complejidad especificada. Afirmabilidad es un término filosófico que se refiere a la justificación epistémica o racional de una afirmación. Hay otra dimensión en el acto de afirmar, que se refiere a los factores locales que en la pragmática del discurso determinan si afirmar algo es o no apropiado. Por ejemplo, como turista en Irak antes de la guerra de 2003 contra los Estados Unidos, yo hubiera estado epistémicamene justificado para afirmar que Saddam 1

1

L

118

'1·

,¡ 1

119

DISEÑO INTELIGENTE

Hussein era un monstruo. (Yo podría haber reunido la suficiente cantidad de evidencia convincente que justificara esta declaración, haciéndola con ello afirmable). Sin embargo, una serie de consideraciones pragmáticas locales hubieran aconsejado entonces no expresar tal opinión mientras permaneciera en Irak. (Si lo hubiera hecho, habría violado una serie de expectativas sociales y políticas; por lo cual, lo que yo pensaba allí hubiera sido inexpresable). Lo que de por sí es afirmable, su expresión, sin embargo, puede tener en la práctica unas connotaciones sociales y políticas que dañen a los que detentan el poder. Mas lo que aquí nos interesa no es la afirmabilidad pragmática, sino la epistémica - si una afirmación puede ser racionalmente justificada, con independencia del modo en que afecte a las sensibilidades o expectativas propias o ajenas. Para ilustrar lo que está en juego con respecto a la complejidad especificada, consideremos una analogía con la matemática. Existen números cuyas expansiones decimales son tales que cada dígito entre cero y nueve tiene una frecuencia relativa, exactamente el 10 por ciento a medida que la expansión decimal se torna arbitrariamente larga (o, como dirían los matemáticos, la frecuencia relativa de cada dígito en el límite es exactamente el 10 por ciento). El más simple de estos números es seguramente el .012345678901234566789 ... donde el patrón 0123456789 es justamente el que se repite. Califiquemos de regulares a tales números. (Típicamente, los matemáticos prefieren una noción más rigurosa de la regularidad llamada normalidad, que caracteriza el comportamiento limitativo de todas las cadenas finitas de dígitos y no meramente el de los dígitos aislados. Mas para los fines de este ejemplo nos basta, sin embargo, con el concepto de regularidad). Así, la propiedad X es regular es aplicable al anterior número. La regularidad es sin duda una propiedad matemática legítima: está perfectamente bien definida, y los números o bien son regulares o bien no lo son. Pero supongamos ahora que queremos determinar si el número n (pi) es regular. (Pi expresa la relación de la circunferencia de un círculo con su diámetro). La expansión decimal del número pi no es repetitiva. Durante años, matemáticos y científicos de la computación se han asociado para calcular tantos dígitos decimales de pi como permitan los actuales métodos matemáticos y la tecnología del computador. La cifra actual se mueve en torno a los 206.158.230.000 dígitos decimales de pi calculada por los investigadores japoneses Yasumasa Kanada y Daisuke Takahashi (La capacidad de almacenamiento de un disco duro de 40 gigabytes es demasiado pequeña para almacenar esta ingente cantidad

4e dígitos decimales). Entre estos 200 billones de dígitos decimales, cada 1JllO de los números entre cero y nueve tiene una frecuencia relativa que

, 1

1 1

L

, nda el 10 por ciento. ¿Es, por tanto, pi un número regular? .ro De la misma manera que hay un hecho físico oculto que indica .si un objeto o suceso de la naturaleza poseen una complejidad especificada, del mismo modo hay también un hecho matemático subya..,.te que dice si pi es regular. El número pi es regular o no lo es. din todo caso, la determinación de que pi sea regular es otro asunto. cC:on el número .1234567890123456789 ... , su regularidad es evidente atediante simple inspección. Pero los dígitos decimales de pi no son repetitivos, y hasta la fecha no existe ninguna justificación teórica de su regularidad. Lo más cercano a una justificación es observar que para la medida de probabilidad estándar sobre la unidad de intervalo (conocida como medida de Lebesgue), todos los números, excepto para un conjunto de probabilidad cero, son regulares. El problema con esta «prueba probabilista» de la regularidad de pi está, sin embargo, en que no tenemos ninguna base, matemática o de cualquier tipo, para pensar que pi fue elegido de acuerdo con la medida de probabilidad de Lebesgue y que por tanto es verosímil que se encuentre entre los números regulares. En resumen, la teoría matemática no autoriza a afirmar que pi es regular. Tampoco ayuda la experiencia matemática. Incluso el descubrimiento de que los dígitos aislados de pi mostraran aproximadamente la frecuencia relativa correcta para los primeros 200 billones de cifras decimales, no ofrecería base alguna para confiar en que pi fuera regular. Por regular que pareciese la expansión decimal de pi en algún segmento inicial, podría tornarse absolutamente desordenada a partir de entonces y proceder incluso a la exclusión total de algunos dígitos. Pero por otra parte, la expansión irregular de pi presente en algunos segmentos iniciales, y las frecuencias relativas de los diversos dígitos entre cero y nueve, podrían ser eventualmente adjudicadas a ese requerido 10 por ciento, con lo cual pi podría ser regular (y con ello todo segmento inicial se vería inundado por la infinita expansión decimal propia de esa regularidad). Así pues, para convencerse de que pi era regular, los matemáticos necesitarían una prueba matemática estricta que mostrase que cada uno de los dígitos singulares entre cero y nueve tenían una frecuencia relativa de exactamente un 10 por ciento. Ahora bien, los críticos del diseño inteligente demandan este mismo nivel riguroso de justificación (o sea, una prueba matemática)

120

DISE~U INTELIGENTE

antes de aceptar la complejidad especificada como herramienta legítima para la ciencia. Mas la exigencia de una prueba estricta, aunque legítima en la matemática, es absolutamente inviable en las ciencias naturales. Estas ciencias establecen afirmaciones cuya base es empírica, y tales afirmaciones son siempre falsables. (Incluso la mecánica de Newton, que durante un tiempo definió a la física, acabó viéndose falsada). Errores en las mediciones, conocimiento incompleto, penetración teórica limitada y el problema de la inducción arrojan una sombra sobre las afirmaciones científicas. La sombra de la falsabilidad no incapacita sin duda a la ciencia. Pero sí se proyecta sobre las pretensiones de la ciencia que (a diferencia de la matemática) es sólo experimental. Y por ello nos recomienda constantemente prestar una rigurosa atención al modo en que las pretensiones científicas están justificadas. Una breve reflexión nos hará ver que la pretensión de los escépticos de eliminar la complejidad especificada, no puede estar justificada sobre la base de la práctica científica. En efecto, el escéptico impone sobre la complejidad unos requisitos mucho más severos que los que se le exigen a cualquier otro aspecto de la ciencia. Si los niveles de justificación científica se hubieran colocado demasiado altos, jamás habría prosperado una obra científica interesante. La ciencia equilibra por tanto sus niveles de justificación con los requisitos de auto-corrección a la luz de ulteriores evidencias. Esta posibilidad de auto-corrección a la luz de ulteriores evidencias está ausente de la matemática y los resultados de ésta exigen el más alto nivel de justificación, a saber: una estricta prueba lógico-deductiva. Pero la ciencia no avanza por este camino. La cuestión clave para la presente discusión es, por tanto, el modo de justificar la adscripción de complejidad especificada a estructuras naturales. Para comprender lo que aquí hay en juego, consideremos además la analogía existente entre la regularidad de los números y la complejidad especificada de las estructuras naturales. Es necesario tener muy claro dónde se da esta analogía y en qué momento se rompe. La analogía está presente en la medida en que tanto la complejidad especificada como la regularidad muestren pretensiones definidas sobre algún hecho objetivo subyacente. En el caso de la regularidad, lo que subyace es un hecho matemático: las expansiones decimales de números o bien ejemplifican o bien no aciertan a ejemplificar la regularidad. En el caso de la complejidad especificada, lo que hay detrás es un hecho físico:

Afirtnabilidad

1

121

un sistema biológico, por ejemplo, o bien ejemplifica o bien no puede ejemplificar la complejidad especificada. Este último punto merece ser subrayado. La atribución de complejidad especificada no es nunca una afirmación sin sentido. Bajo el supuesto de que en la producción de algún suceso no hay implicado el menor vestigio de designio o teleología, ese suceso tiene una cierta probabilidad basada en mecanismos aausales. Esa probabilidad a su vez se organiza en una medida asociada de complejidad (véase capítulo diez). Que el nivel de complejidad sea lo suficientemente alto como para cualificar al suceso de instancia de complejidad especificada, depende de las condiciones físicas que rodeen al suceso. En todo caso, es un hecho definido de la materia la cuestión de conseguir o no la complejidad especificada. Así pues, cualquier problema en la adscripción de complejidad especificada a ese suceso no reside, por tanto, en su coherencia como concepto significativo: la complejidad especificada está bien definida. Si hay un problema, éste ha de residir, como ya antes se dijo, en lo que los filósofos llaman su afirmabilidad pragmática. La afirmabilidad epistémica, tal como fue definida anteriormente, se refiere a nuestra justificación para afirmar las manifestaciones que hacemos. Una manifestación es afirmable si estamos justificados para afirmarla. Así, para afirmar que pi es regular, tendremos que construir una proposición verdadera. Pero sin una prueba matemática de la regularidad de pi, carecemos de justificación para afirmar que pi es regular. La regularidad de pi es, al menos hasta ahora, no afirmable. Mas ¿qué decir sobre la complejidad especificada de los diversos sistemas biológicos? ¿Existen sistemas biológicos cuya complejidad especificada sea afirmable? Los críticos del diseño inteligente sostienen que una atribución de complejidad especificada a un sistema natural no puede ser afirmable nunca. Su argumentación comienza observando que si algún sistema natural ejemplificara una complejidad especificada, entonces debería ser altamente improbable para todos los mecanismos puramente naturales que pudieran encontrarse en estado operativo, producir esa complejidad. Pero eso significaría el cálculo de una probabilidad para cada uno de tales mecanismos. Y esto, continúa la argumentación, es una tarea imposible. A lo sumo, la ciencia podría mostrar que un sistema natural dado es enormemente improbable con respecto a los mecanismos conocidos que operan de modos conocidos y para los que la probabilidad puede ser estimada. Pero este argumento omite, en primer lugar, los mecanismos conocidos que operan de modos conocidos y para los cuales no puede

L

122

'I

i!



Ajirmabilidad

D1sr\:o Il\TELIGENTE

123

movilidad. Y es además mínimamente complejo, en el sentido de que cualquier otra estructura que realizase la función del flagellum bacteria! como propulsor mecánico bidireccional, tendría que poseer sus mismos componentes básicos. En consecuencia, no hay ninguna vía directa darwiniana que pueda ·añadir algo a esos componentes básicos y hacer emerger con ello un flagellum bacteria!. Lo que más bien se requiere es un camino indirecto, ;en el cual los sistemas precursores que realizasen diferentes funciones ,e\rolucionaran a lo largo del tiempo debido al cambio de funciones y de componentes. (Los darwinistas se refieren a este cambio con los términos coevolución y ca-optación). Por plausible que esto les parezca a los darwinistas, no existe ninguna evidencia convincente para ello (véanse capítulos treinta y ocho y cuarenta). Y lo que es más, la evidencia ofrecida por la ingeniería sugiere firmemente que sistemas fuertemente integrados como el flagellum bacteria! no se han formado por un ensayo-y-error chapucero en el que coevolucionaran la forma y la función. Más bien, los tales sistemas se han formado mediante una concepción unificadora que combina componentes dispares en una totalidad funcional, o dicho en otras palabras: por diseño. ¿Exhibe el flagellum bacteria! una complejidad especificada? ¿Puede afirmarse semejante tesis? El flagellum bacteria! es ciertamente especificado. Una vía para comprobarlo consiste en observar que los seres humanos desarrollaron propulsores bidireccionales de tipo mecánico bastante antes de que imaginaran siquiera que el flagellum era una tal máquina. Esto no quiere decir que para que la función biológica de un sistema constituya una especificación, los hombres han de haber inventado antes un sistema que realice la misma función. No obstante, la invención independiente hace aún más evidente que el sistema satisface los requisitos de funcionamiento independiente y que por tanto es especificado. En cualquier caso, no sé de ningún biólogo que ponga en duda que los sistemas funcionales que surgen en biología son especificados. En el fondo, siempre está la cuestión de que al utilizar la selección natural, el mecanismo darwiniano pueda o no superar las enormes improbabilidades que a primera vista parecen surgir con tales sistemas. Para superar tan ingente improbabilidad, el mecanismo darwiniano trata de dividirlo en una secuencia de probabilidades más manejables. A fin de ilustrar lo que hay en juego en este «divide y vencerás» en el tratamiento de las improbabilidades, supóngase que arrojamos cien

ser estimada la probabilidad; en segundo, los mecanismos conocidos que operan de manera desconocida; y en tercero, los mecanismos desconocidos. Así pues, incluso aunque fuese cierto que algunos sistemas naturales ejemplifican una complejidad especificada, nosotros no podríamos nunca afirmar legítimamente su complejidad especificada, y mucho menos conocerla. Según esto, la afirmación de una complejidad especificada en cualquier sistema natural constituye un argumento a partir de la ignorancia (véanse los capítulos treinta y treinta y uno). Esta línea de razonamiento contra la complejidad especificada se parece mucho a la habitual estrategia agnóstica contra el teísmo: no podemos probar el ateísmo (obsérvese la total ausencia en la naturaleza de complejidad especificada), pero podemos mostrar que el teísmo (cf. la complejidad especificada de ciertos sistemas naturales) no puede ser justificado y por tanto tampoco puede ser afirmado. Así es como los escépticos sostienen que no hay -ni puede haber- evidencia alguna de Dios o de diseño. El problema con esta línea de argumentación es que la ciencia tiene que operar con una evidencia asequible y sobre esta base (y ninguna otra) formular la mejor explicación del fenómeno en cuestión. Esto significa que la ciencia no puede explicar un fenómeno apelando a la promesa, la prospección, o la posibilidad de una futura evidencia. En particular, para explicar un fenómeno no es posible recurrir a mecanismos desconocidos o caminos aún no descubiertos por los que pudieran transitar esos ocultos mecanismos. Si los mecanismos materiales conocidos se muestran incapaces de explicar un fenómeno, entonces es una cuestión abierta la de averiguar si cualesquiera otros son capaces de hacerlo. Si, además, existen buenas razones para afirmar la complejidad especificada de ciertos sistemas biológicos, entonces el diseño mismo se torna afirmable en biología. Tomemos, por ejemplo, el flagellum bacteria!. Pese a los miles de artículos de investigación escritos sobre él, no existe ninguna explicación mecánica de su origen. En consecuencia, no hay evidencia alguna contra su ser complejo y especificado. Es por tanto una posibilidad viva el hecho de que sea complejo y especificado. Pero ¿es honrado afirmar que el tal flagellum es complejo y especificado? o, dicho en otras palabras, ¿es honesto afirmar que exhibe una complejidad especificada? El flagellum bacteria! es irreduciblemente complejo, lo cual significa que todos sus componentes son indispensables para su función como estructura de

l

r

'!'' '

1

'

124

ilidad

125

monedas al aire. ¿Cuál es la probabilidad de que las cien muestren cara?· . . .plejidad mínima e irreducible. Todo lo que los darwinistas han heEsa probabilidad depende del proceso aleatorio elegido para su lanza,.:,. ~ 1 "#hasta ahora ha ~ido ident~ficar subsistemas -~el t~ag:l~um bac~erial miento. Si, por ejemplo, el proceso aleatorio comienza tirando todas 11 t . .pe pudieran cumplir por sí mismos alguna func10n biologica -al igual monedas y no termina hasta que todas ellas exhiban simultáneamente ~el motor de una motocicleta podría realizar por sí mismo alguna cara, será necesario calcular un promedio en torno a mil billones de ~ IJpci.ón (tal vez como un calentador o mezclador). Mas no hay aquí nada 1 billones de billones para que todas ellas exhiban simultáneamente caxatj '· :·¡i161epcional res~~cto al diseño; lo~ sistemas diseñado~ que real~za~ una en una de las tiradas. En cambio, si el proceso aleatorio entresaca sóIQ 'ón están hp1camente constrmdos a base de subsistemas disenados aquellas monedas que hasta el presente no han mostrado cara, entonces vez que tienen su propia función. después de unas ocho tiradas, de promedio todas las monedas exhibirán - _ . ..._,.:¿Es aquí, entonces, dónde se acaba el debate -con los biólogos caras. Los darwinistas asumen tácitamente que todas las instancias de·~. llllft>lucionistas reprendiendo a los teóricos del diseño por no haber complejidad biológica son semejantes al segundo caso, en el cual una it19bajado lo suficiente para descubrir esos indirectos (y desconocidos) improbabilidad al parecer enormemente grande puede ser dividida en caminos darwinianos que conducen a la emergencia de estructuras una secuencia de sucesos razonablemente probables perfeccionando gra. ¡,¡ológicas irreducibles y mínimamente complejas como el flagellum dualmente una función ya existente. (En el caso de nuestras monedas, Jbacterial? O, por el contrario, termina este debate con los teóricos del la función perfeccionada corresponde a la exhibición de más caras). diseño reprendiendo a los biólogos evolucionistas por engañarse a sí .fllismos sosteniendo que esos caminos darwinianos indirectos existen La complejidad mínima e irreducible viene a ser una especie de reto para el supuesto darwiniano de que las grandes improbabilidades iCuando toda la evidencia disponible sugiere lo contrario? pueden ser siempre divididas en probabilidades manejables. Lo que la Aunque esta situación pueda parecer un callejón sin salida, realmente evidencia parece sugerir aquí es que tales instancias de complejidad no lo es. Como los jugadores compulsivos que constantemente esperan biológica pueden ser conseguidas simultáneamente (como cuando las el golpe de suerte que va a cancelar sus deudas, los biólogos evoluciomonedas son arrojadas así). En tales casos, el perfeccionamiento gradual mstas viven de pagarés prometedores que no muestran el menor signo darwiniano no ofrece la menor ayuda para superar su improbabilidad. de ser amortizables. Como ya se dijo antes, la ciencia tiene que extraer Así, cuando analizamos desde una perspectiva probabilística estructuras sus conclusiones sobre la base de la evidencia disponible, no sobre la como la del flagellum bacteria! sobre la base de mecanismos materiales posibilidad de una evidencia futura. Si los biólogos evolucionistas pueconocidos que operan de maneras conocidas, descubrimos que son al· -den descubrir o construir rutas darwinianas detalladas, comprobables e tamente improbables y por tanto complejos en el sentido requerido por ·indirectas que expliquen la emergencia de sistemas biológicos irreducible la complejidad especificada. y mínimamente complejos como el flagellum bacteria!, tanto mejor para ¿Es, por tanto, legítimo afirmar que el flagellum bacteria! exhibe una ellos: el diseño inteligente caería rápidamente en el olvido. Pero hasta que complejidad especificada? Los teóricos del diseño dicen que sí. Los bióeso suceda, los biólogos evolucionistas que proclaman que la selección natural explica la emergencia del flagellum bacteria! no merecen más logos evolucionistas dicen que no. En lo que a ellos respecta, los teóricos del diseño se han olvidado de tener en cuenta los caminos indirectos credenciales que los jugadores compulsivos que eternamente se están darwinianos por los que el flagellum bacteria! pudo haber evolucionado prometiendo sanear sus cuentas. a través de una serie de sistemas intermedios que cambiaron su función Los biólogos evolucionistas no pueden justificar siquiera que buscan y estructura a lo largo del tiempo de modos que nosotros no entendemos una evidencia futura apelando al actual progreso porque ellos mismos todavía. Mas ¿se trata realmente de que nosotros no entendemos aún la ·no han realizado ningún progreso significativo que pudiera explicar evolución indirecta darwiniana del flagellum bacteria! o que realmente la complejidad biológica. (Si lo hubieran hecho, nosotros no seguiríaesto no sucedió nunca así en primer lugar? En este punto no hay simmos manteniendo esta discusión). También aquí se muestran como los plemente evidencia convincente de tales caminos evolutivos indirectos apostadores compulsivos, que debiendo millones a los tiburones de los darwinianos que expliquen unos sistemas biológicos que muestran una casinos, les piden un aplazamiento sin ser capaces de mostrar la menor

las;· 1





1

..



r ·:.

126

127

DISEÑO

· Ucados en su producción, pero que esos mecanismos permiten señal de rehabilitación, de realizar un trabajo serio o incluso de aportar una modesta cantidad para aminorar sus deudas. ¿Cuál es el origeJt , .: llPbién otra serie de alternativas para ello. Por ser compatible con los :anismos materiales conocidos implicados en s~ prod~cción, au~que de la complejidad biológica, y cómo va a ser explicado? Por todos los ,1 #1 requerido por ellos, un fenómeno se torna irreducible no solo a indicios, la biología se muestra incapaz de responder a esta cuestión, 11.5 mecanismos conocidos, sino también a cualesquiera mecanismos y por nuestra parte haríamos bien en retornar al estado de la biología i~ ~onocidos. ¿Por qué? Porque los mecanismos materiales conocidos anterior a Darwin. La biología evolutiva no tiene la más mínima idea ;"; pae"R ~ N C 1A

1

'

DESDE LA Al atribuir diseño a los sistemas biológicos, ¿no está el diseño inteligente argumentando a partir de la ignorancia?

1 '

1 1

'11,, "'

ÉSTA ES QUIZÁ LA OBJECIÓN más común contra el diseño inteligente, conocida bajo diversos nombres: argumento a partir de la ignorancia, argumento desde el silencio, argumento que parte de la incredulidad personal, el dios-de-los-agujeros, argumentación negativa, argumento por eliminación, eliminación inductiva, incapacidad de ofrecer una alternativa positiva, etc., etc. La idea subyacente en este último caso es que los teóricos del diseño defienden la verdad del diseño basándose simplemente en el hecho de que no se ha mostrado que el diseño sea falso. En los argumentos que parten de la ignorancia se utiliza la falta de evidencia contra una proposición para defender la verdad de ésta. El siguiente razonamiento es un estereotipo de argumento basado en la ignorancia: «Los espíritus y los duendes existen porque nadie me ha demostrado que no existan». La objeción basada en el argumento desde la ignorancia se ha mostrado particularmente eficaz para cerrar la discusión sobre el diseño inteligente. De hecho, entre los intelectuales occidentales funciona como una especie de mantra. Se lo repite meramente siempre que se plantea la cuestión del diseño. El diseño se esfuma así en el aire y la calma queda reestablecida. He aquí un típico diálogo entre dos de tales intelectuales: «¿Qué piensas de esos chiflados teóricos del diseño?» «Ah! me encantan sus escritos. Utilizan justamente el clásico argumento que se apoya en la ignorancia» «Sí, justamente el mismo viejo dios-de-los-agujeros»

240

'1

mento desde la ignorancia

DISEÑO INTELIGENTE