272 59 21MB
Spanish Pages [248]
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 1. Introducción. El método científico Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo Divulgación Informática
1 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Ciencia en general Biología Criminología Inicio Contacte
La ciencia y el método científico Ejemplo del método científico Escepticismo y pensamiento crítico Algunos casos en la informática
1.1 La ciencia y el método científico Es habitual que los humanos busquemos explicaciones sobre lo que vemos, sentimos y oímos, que una vez encontradas suelen ser complejas y variadas. Es la forma de trabajar de nuestra mente, que usa la inteligencia para comprender mejor nuestras experiencias. Con frecuencia es suficiente designar con un nombre a una situación sucedida. Por ejemplo, un agricultor escucha un sonido fuerte procedente del cielo y dice "es un trueno". Pero no siempre el nombre nos da suficiente información sobre el tema, aunque si es tranquilizador el hecho de ser capaces de asignar un nombre, esto significa que hemos tenido una experiencia similar previamente y que podemos reconocerla. Nos indica que otras personas también han percibido el mismo tipo de hechos. A partir de nuestra experiencia podemos deducir lo que ocurrirá a continuación. El agricultor dirá "lloverá pronto". Hemos sido capaces de organizar nuestras percepciones de forma que podemos reconocerlas como modelos comunes y hemos aprendido a utilizar una información que nos ayuda a comprender aquello con los que nos encontramos en la vida cotidiana. El agricultor puede decir "dios se ha enfadado y manda estos rayos contra nosotros, pronto se compadecerá y enviará lluvia". En otras ocasiones el mismo dios enviará sol, o viento, o nieve. Teorías Las teorías se desarrollan como respuestas a preguntas del tipo ¿por qué? o ¿cómo?. Se observa alguna secuencia de hechos, alguna regularidad en torno a dos o más variables y alguien se pregunta por qué esto es así. Una teoría intenta explicar los hechos y consiste en: Un conjunto de definiciones que claramente describen las variables que se van a utilizar Un conjunto de supuestos que delinean las condiciones bajo las cuales se va a aplicar la teoría Una o más hipótesis sobre el comportamiento de estas variables Predicciones que se deducen de los supuestos de la teoría, y que se pueden contrastar con datos efectivos obtenidos de observaciones o experimentos. Una de las principales consecuencias de las teorías es que nos sirven para predecir hechos que todavía no han sucedido. De esta forma podemos comprobar si una teoría es correcta o no, haciendo experimentos cuyos resultados pueden no sólo demostrar que la teoría es falsa, sino también sugerir dónde se equivoca, y de esta forma se pueden proponer teorías corregidas. Criterios de aceptación de una teoría La pregunta que lógicamente aparece a continuación es ¿cuáles son los criterios necesarios para convencer a alguien que una explicación dada es correcta?. Por supuesto, la respuesta depende del tipo de persona.
2 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Para alguien que se inclina por aceptar una explicación teísta puede ser suficiente con verificar que la explicación coincide con la de los libros religiosos, otras personas aceptan una idea si está avalada por alguien al que se le considera instruido e inteligente. Ambos argumentos seguro que no convencen a un auditorio científico. Puede haber más de una explicación científica sobre una cuestión. A veces una explicación puede incluir a otra, por ejemplo la teoría cinética de los gases engloba la ley de Gay-Lussac. Un examen de casos en los que las nuevas teorías sobre la naturaleza han sido aceptadas puede ser de mucha ayuda. Supongamos que en un período de la historia se haya aceptado una teoría sobre la naturaleza que proporciona una explicación de los sucesos y que es válida en muchos casos, llamémosla primera teoría aceptada. Supongamos que esta teoría tenga algunos defectos que son reconocidos por lo menos por algunos científicos, en estas condiciones debe proponerse una nueva teoría, en cierto modo para subsanar estos defectos. Seguidamente se comentan factores de gran ayuda con vistas a convencer a la comunidad científica que acepte una nueva teoría: A) Reductibilidad La nueva teoría debe ser por lo menos tan buena como la antigua. La norma que se sigue para demostrar este criterio consiste en demostrar que en las situaciones pertinentes la nueva teoría se reduce a la antigua.
Cuando se ha acumulado un gran cuerpo de información en un campo, cualquier modificación debe tener en cuenta todos los logros de las teorías existentes. Esto significa que toda persona que desee aportar algo en este campo, debe conocerlo muy bien, una teoría expuesta por un individuo inexperto es muy difícil que llegue a ser considerada. El primer criterio puede resumirse de la siguiente forma: una teoría nueva debe conducir a los mismos resultados obtenidos con las teorías aceptadas previamente en todos los casos que se ha probado que son útiles. B) Innovación La nueva teoría debe ser mejor que la antigua, no es suficiente dar los mismos resultados que la anterior. Se dice que ambas teorías son equivalentes cuando en todos los casos las predicciones de la nueva teoría son las mismas que las de la antigua y la elección entre una u otra es cuestión de gustos. Si verdaderamente la nueva teoría debe reemplazar a la anterior, debe añadir algo nuevo. Por ejemplo, la teoría cinética de los gases no sólo reproduce todos los logros de Gay-Lussac y Arquímedes, sino que ayuda a explicar fenómenos sobre los que las antiguas teorías no tenían nada que decir. Con ayuda de la teoría cinética podemos calcular, por ejemplo la velocidad del sonido y la resistencia que el aire ofrece a los proyectiles que lo atraviesan. Es más importante el caso en el que una teoría nueva es capaz de obtener predicciones correctas donde la antigua fallaba. Esto sucedió en el año 1900 cuando la física decía que los electrones de los átomos al describir órbitas a su alrededor deben radiar energía y por lo tanto caerían en espiral hacia el centro de la órbita. Como los átomos son estables, pues caso contrario no estaríamos nosotros aquí, la teoría anterior no es correcta. Fue necesaria la aparición de la Física Cuántica para explicar los hechos experimentales. Una nueva teoría debe explicar hechos que no hayan sido abarcados por teorías previamente 3 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
aceptadas o que hayan sido predichos de forma incorrecta. C) Testabilidad Debe ser posible comprobar que una teoría es correcta. Normalmente el argumento clave a favor de una teoría es que realice una predicción real del resultado de un experimento que no haya sido todavía efectuado. La teoría de Maxwell de la electricidad y magnetismo propuesta en 1873 predijo que las ondas electromagnéticas podrían ser enviadas a través del espacio a velocidades próximas a las de la luz, estas ondas fueron descubiertas por Heinrich Hertz en 1887. La comprobación final llegó el 12 de diciembre de 1901 por parte, entre otros, del italiano Guillermo Marconi, que patentó su descubrimiento en 1900. Existen teorías tan indefinidas o complicadas que se resisten a una comprobación experimental. El Oráculo de Delfos en la antigua Grecia, proclamaba que era capaz de predecir el futuro, pero sus aseveraciones eran siempre tan indefinidas que si la predicción no resultaba cierta podía argumentarse que había sido mal interpretada. Una teoría que siempre puede reajustarse de forma que explique cualquier resultado experimental no puede ser satisfactoria. Deben poderse obtener consecuencias de una nueva teoría que difieran de las demás teorías similares, y además estas consecuencias deben prestarse a comprobación experimental. D) Elegancia Una teoría sobre la naturaleza debe ser bella. Este es otro elemento (llamémosle elegancia o belleza) que ayuda a que una nueva teoría tenga mejor acogida. Los científicos creen que las formas de las leyes de la naturaleza son simples, las teorías físicas más importantes del pasado son muy simples, como F=ma, E=mc2. Una nueva teoría debe inclinarse por un enunciado universal de sus principios que sea breve y de gran contenido.
Como expuso Henri Poincaré (1854-1912), en la conferencia que ofreció en la Sociedad Psicológica de París. ... ¿cuáles son las entidades matemáticas a las que les atribuimos este carácter de belleza y de elegancia, las que pueden producirnos tal emoción estética? Son las que tienen sus elementos armoniosamente dispuestos, de tal forma que la mente puede captar sin esfuerzo su totalidad, al tiempo que percibe sus detalles ... E) Otras consideraciones Finalmente se ha de llamar la atención sobre los criterios que no deben tenerse en cuenta. Por ejemplo no es necesario que una teoría científica esté de acuerdo con las ideas de V. I. Lenin, por poner un ejemplo, sin negar en ningún momento la gran importancia de dicha persona. O tampoco es necesario que esté conforme con respecto a lo que nos dice la Biblia sobre la creación, aunque mucha gente lo crea, sin darse cuenta que dicho documento es una novela.
4 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Método científico La elección no es entre teoría y observaciones, sino entre mejores o peores teorías para explicar las observaciones; los hechos son intocables. Pero esto no quiere decir que las teorías sean humildes sirvientes de las observaciones, de hecho casi todos los científicos están más interesados en las teorías, viéndose los experimentos como unos sirvientes que permiten decidir entre varias teorías. El método científico se puede describir mediante el siguiente proceso: 1. Plantear un problema 2. Observar algo 3. Buscar una teoría que lo explique 4. Hacer predicciones usando esa teoría 5. Comprobar esas predicciones haciendo experimentos u observaciones 6. Si los resultados están de acuerdo con la teoría, volver al paso cuatro, si no, volver al tercero
En la práctica, el método científico es más complicado. No siempre está clara la metodología para hacer los experimentos, que cambia de un área de la ciencia a otra. Hay "experimentos" que se pueden hacer en un ordenador, y otros donde esto no está tan claro. Los resultados han de ser aceptados por expertos en el área correspondiente antes de ser publicados. Los experimentos deben repetirse independientemente, y a veces no se consiguen los mismos resultados. Las demostraciones han de ser verificadas, y
5 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
ocasionalmente se encuentran errores. Un ejemplo real propuesto a escolares, se explica en detalle en la web "Curioso Pero Inútil (CPI)", sobre la reacción que se produce al mezclar mentos con algunas bebida resfrescantes gaseosas de cola.
Enlace recomendado: Los premios "Anti Nobel" 2004 En matemáticas se admite el especular sobre las consecuencias de alguna famosa conjetura no demostrada con ¡muchísimo cuidado de anunciar esta dependencia! Algunos experimentos son tan laboriosos que deben hacerse entre varios científicos, o partes del experimento se asignan a otros expertos (análisis estadístico, construcción de instrumental e instalaciones, programas informáticos). Hay experimentos que requieren años o incluso decenios para realizarse (exploración espacial), para construir el instrumental (CERN), o para analizar los datos. Algunas observaciones ocurren en fechas inaplazables (eclipses) o lugares inconvenientes (volcanes). A veces se pierden irremisiblemente parte de los datos, que hay que suplir de alguna forma. Hay experimentos irrealizables con la tecnología disponible, o demasiado caros, o que requieren demasiado tiempo (evolución). No sólo se cambian las teorías, sino también los axiomas, definiciones, modelos y clasificaciones. Algunos filósofos arguyen, con cierta razón, que no existe El método científico, sino muchos métodos científicos. ¿Es infalible? Nótese un aspecto importante del método científico, no acaba nunca; no existe una "verdad científica absoluta". Pero esto no disminuye el valor de las aplicaciones de la ciencia; el principio de Arquímedes sigue explicando por qué los barcos flotan. ¿El método científico es infalible? Sí y no. No, en el sentido que suele producir teorías provisionales que son falsas. Hablaremos más de esto después. Sí que es infalible en dos sentidos, por una parte, el método científico nunca asegura nada de forma conclusiva, así que no puede equivocarse. Dicho de otra forma, si demuestras que alguna teoría científica está equivocada, estás formando parte del mismo método científico, que se está autocorrigiendo gracias a tu ayuda. Esto puede parecer una tontería hasta que se compara con otras formas de obtener conocimiento.
Pero en estos casos tampoco se equivoca, porque, dada la naturaleza inexperimentable de estos fenómenos, el método científico no valida nada al respecto ni cierto ni falso. De nuevo, esto puede parecer una tontería hasta que se recuerdan los problemas que otras doctrinas tienen para delimitar su alcance. También se puede argumentar que si bien es posible que el método científico no sea suficiente para conocer toda verdad, por lo menos es necesario el tener alguna forma de autocrítica. Recordemos una opinión de Francis Crick, codescubridor de la molécula de ADN (ácido desoxiribonucleico, DNA) recogida en su libro "La búsqueda científica del alma"; según él, nuestro cerebro evolucionó cuando éramos cazadores-recolectores, y por lo tanto es un mero accidente que con dicho órgano seamos capaces hoy día de comprender la complejidad y abstracción propias de la ciencia moderna, ya que de poco nos servía esta habilidad para dejar descendientes en la época en que nuestro cerebro alcanzaba su forma actual. Como toda cara tiene su cruz, este órgano tan complejo y capaz como es nuestro cerebro, nos proporciona un instrumento inapreciable para poner en marcha la ilimitada capacidad que tenemos para engañarnos a nosotros mismos. Y añade Crick, más o menos, que sin una cierta disciplina como proporcionan la ciencia y el escepticismo, es muy dudoso que el género humano hubiese sido capaz de progresar culturalmente. 6 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
A mediados del siglo XIV, el filósofo inglés Guillermo de Occam, formuló lo que se podría llamar un principio, un principio del pensamiento, y que ha pasado a la historia de la filosofía de la ciencia. Es el llamado "principio de economía del pensamiento", o "principio de parsimonia", o más comúnmente, la "navaja de Ockam". En su formulación original, esta regla dice "Entia non sunt multiplicanda sine necesitate", que los que saben de latín dicen que se traduce como que "los entes no deben ser multiplicados si no es necesario". Según este principio, si tenemos dos modelos científicos para explicar un fenómeno, aquel que sea más "sencillo" será digno de mayor consideración. En realidad, esto no es así. Como el método científico impone, ha de ser la comprobación experimental, la verificación empírica, la que ha de decidir entre los dos modelos. Pero, en muchas ocasiones, la complejidad del fenómeno a estudiar impide una eficaz comprobación empírica, o la misma prueba experimental no permite decidir entre los distintos modelos. Un símil simple sería éste: si las teorías científicas fuesen programas de ordenador, y tuviésemos tres "programas" para explicar lo mismo, nos quedaríamos con el que ocupase menos espacio en nuestro ordenador. Esta podría ser, por tanto, una formulación más elaborada, o más próxima a una formalización, del célebre principio.
Karl Popper y el criterio de demarcación
La filosofía de la ciencia en el siglo XX se ha constituido en una actividad cuya principal preocupación ha sido el problema del cambio científico. Inherente a este problema se encuentra el problema de la evaluación de teorías científicas. ¿Hay algo así como un cambio científico? ¿existe progreso en la ciencia? En caso tal, ¿es susceptible de una teoría de la racionalidad científica? Diversos filósofos se han hecho famosos por sus aportaciones a esta faceta de la filosofía: Paul K. Feyerabend (1924-1994), Imre Lakatos (1922-1974), Thomas S. Kuhn (1926-1996) y Karl Popper (1902-1997). El problema de la demarcación tiene que ver fundamentalmente con la pregunta: ¿Cómo discriminar entre una hipótesis científica y otra que fuese más bien una especulación filosófica o metafísica o pseudociencia? La solución racional la aportó Popper. Lo que diferencia a la ciencia de otros tipos de conocimiento es su posibilidad sistemática de ser RECHAZADA por los datos de la realidad. A diferencia del enfoque empírico-inductivo, según el cual un enunciado es científico en la medida en que su VERACIDAD pueda ser confirmada por la experiencia, en el enfoque racionalista de Popper y sus seguidores, un enunciado será científico en la medida en que más se arriesgue o se exponga a una confrontación que evidencie su FALSEDAD, esto es el criterio de demarcación. Según esta posición, la ciencia se distingue de otros conocimientos por ser "falsable" (y no "verificable"), es decir, porque contiene mecanismos orientados a determinar su posible falsedad. La base de este criterio está en la misma crítica al empirismo y al inductivismo: por más que un enunciado se corresponda fielmente con miles de millones de casos de la realidad, en principio nada impide que de pronto aparezca un caso contradictorio. Si, por ejemplo, observamos milones de cuervos y vemos, además, que todos son negros, no hay razón lógica para concluir en que todo cuervo es necesariamente negro, ya que siempre cabe la
7 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
posibilidad de que aparezca alguno de otro color. Y, dado que el conjunto completo de todos los casos posibles escapa a la observación del ser humano, nunca será posible VERIFICAR o comprobar la verdad de un enunciado como "todos los cuervos son negros". Pero, en cambio, sí será siempre posible determinar su FALSEDAD, para lo cual bastará un solo caso en que no se cumpla la ley. Por tanto, el conocimiento científico no persigue demostrar su veracidad, sino exponerse a cualquier caso que evidencie su falsedad. Así, todo enunciado científico podrá ser mantenido sólo provisionalmente (aún cuando transcurran siglos), mientras no aparezca un caso que lo contradiga (es decir, jamás podrá ser decisivamente VERIFICADO); pero, en cambio, sí podrá ser refutado y desechado definitivamente apenas surja un dato que lo niegue. En síntesis, los enunciados científicos se distinguen justamente por estar siempre expuestos a pruebas de FALSEDAD. De esta forma, el "falsacionismo" viene a ser el criterio de demarcación entre ciencia y no-ciencia y, por tanto, es la magnitud de su "contenido de falsedad" lo que hace más o menos científico a un conocimiento dado. De lo anterior se infiere que la meta de la ciencia y de la investigación jamás podrá ser la CERTEZA objetiva, la cual no existe, sino, más bien, la "verosimilitud", o sea, el grado en que un enunciado sea capaz de salir ileso de las pruebas de falsación y de prevalecer ante otros enunciados competidores por su mayor capacidad de cobertura ante los datos de la experiencia. A diferencia del positivismo lógico, el racionalismo desecha el concepto de "verdad objetiva e inmutable", acepta la relatividad del conocimiento científico, admite los factores sociales e intersubjetivos que condicionan su validez y, tal vez lo más importante, plantea su carácter de CORRECTIBILIDAD sobre la base de constantes procesos de falsación ante los hechos y ante otras opciones de conocimiento. Así, y de acuerdo a esta interpretación, mientras el conocimiento especulativo idealista (los discursos retóricos, por ejemplo, o políticos, religiosos, subjetivistas, psicologistas, etc.) se vale de subterfugios para evadir su confrontación con la experiencia y para escapar a toda evidencia de falsedad, el conocimiento científico se valida, por encima de todo, en sus posibilidades de error. Desde este ángulo queda plenamente aceptado y justificado el hecho de que sea en la ciencia, precisamente, donde se descubra la mayor cantidad de errores del conocimiento humano, ya que otros tipos de conocimientos evaden las confrontaciones o riesgos y esconden sus debilidades. Como contraparte, es también en la ciencia donde se halla el mayor número de rectificaciones y evoluciones, mientras otros tipos de conocimiento permanecen estancados e improductivos. En resumen, el esquema de Popper del método científico es muy sencillo y él mismo lo expresó en su forma más condensada en el título de su famoso libro, Conjeturas y refutaciones. La ciencia es simplemente asunto de tener ideas y ponerlas a prueba, una y otra vez, intentando siempre demostrar que las ideas están equivocadas, para así aprender de nuestros errores.
Actualmente se están viendo gran cantidad de anuncios y artículos sobre métodos o técnicas pertenecientes a la pseudomedicina. Son claros ejemplos de irracionalidad, y de lo que no debe ser nunca una teoría científica. Seguidamente se comentan escuetamente algunas terapias pseudocientíficas muy llamativas, que algunos de los lectores habrán sufrido alguna vez. Homeopatía .- Inventada por el médico alemán Samuel Christian Hahnemann (1755-1843), trata las enfermedades con disoluciones extremadamente diluidas (de hecho suele ser agua edulcorada). Su no validez se justifica de forma comprensible sin ser experto en ciencias ni en medicina, sólo con el sentido
8 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
común.
¿Por qué no creo que la homeopatía sea efectiva? ¿Qué hace alguien normalmente cuando se siente enfermo? Generalmente, irá a ver a un médico. ¿Por qué? Porque un médico se supone que es la persona más cualificada para estudiar los síntomas que presenta, realizar todas las exploraciones necesarias para determinar con exactitud que está afectando a su salud, administrar sustancias de probada efectividad en estos casos o intervenir de manera más enérgica realizando una operación, y llevar a cabo el seguimiento de la evolución del paciente. Si se decide a administrar alguna sustancia al paciente, ¿cómo se determina que esa droga en particular tiene altas posibilidades de ser eficaz?. Desde siempre se ha conocido la importancia del efecto placebo en el proceso de curación. El efecto placebo es un efecto no específico consistente en la curación de una enfermedad por el simple hecho de tratarla, ndependientemente del tipo de tratamiento que se siga. Paracelso ya advertia en el siglo XVI "Ha de saberse que la voluntad es un poderoso ayudante de la medicina", en muchos casos la simple confianza del paciente en el médico puede producir una curación, y a veces ni siquiera esta confianza es necesaria. Por lo tanto si se pretende determinar el efecto de una nueva droga sobre una enfermedad se hace imprescindible eliminar el sesgo introducido por el efecto placebo; esto puede realizarse mediante un ensayo o test doble ciego. Imaginemos un grupo de pacientes bastante homogéneo en cuanto a edad, hábitos, historial clínico, etc... que padecen una misma enfermedad y sin que ellos lo sepan, dividámoslo en dos, Grupo A y Grupo B, por ejemplo. Llamemos a la nueva droga que pretendemos estudiar Droga I y obtengamos una sustancia totalmente inofensiva y sin efectos terapéuticos como por ejemplo, cápsulas con agua destilada o pastillas de lactosa; llamemos a esta sustancia Droga II. En un ensayo doble ciego se administra a uno de los grupos, pongamos el Grupo A, una de las dos drogas, digamos la Droga I, mientras que al Grupo B se le administra la Droga II; pero de manera que ni los pacientes ni los médicos que los tratan saben a que grupo pertenece cada uno ni que drogas les estan siendo suministradas. Concluída la experiencia se reunen los datos de los dos grupos y se analizan para determinar si el porcentaje de curaciones en el Grupo A, para el que se empleó la Droga I, es mayor que en el Grupo B, al que se suministro la sustancia inócua, la sustancia placebo, Droga II. Si esto es así y se demuestra así en otros ensayos similares realizados sobre otros grupos se concluye que la Droga I es eficaz contra esa enfermedad. De todos modos ¿por qué se producen curaciones en el Grupo B si sólo se le está administrando una sustancia totalmente inócua?, por una parte tenemos el hecho de que el simple tratamiento, aunque sea con una sustancia inútil, ayuda a activar los mecanismos de defensa del propio organismo, por otra parte tenemos el hecho de que muchas enfermedades tienen componentes psicosomáticos y finalmente tenemos el hecho de que un gran número de enfermedades presentan un cierto período de remisión, la enfermedad aparece, progresa y después desaparece aunque no se realice ningún tratamiento.
9 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Esta introducción puede parecer algo extensa pero será muy útil a la hora de discutir algunos puntos relativos a la homeopatía. La homeopatía se originó en Alemania a principios del siglo XIX. Samuel Hahnemann (1755-1843) publicó en 1810 un voluminos libro titulado "Organon", en el desarrollaba y exponía toda la homeopatía y es esa misma homeopatía, siguiendo básicamente los mismos principios expuestos en "Organon", la que se sigue practicando hoy en día. Los dos pilares básicos de la homeopatía son la Ley de Similia y la Ley de los Infinitesimales. Veamos ahora con calma como son de ridiculos estos dos principios fundamentales homeopáticos. La Ley de Similia asegura que una sustancia curará una cierta enfermedad si suministrada a una persona sana provoca los mismos síntomas o sintomas muy parecidos a los que produce dicha enfermedad. De esta ley, o supuesta ley, deriva el nombre de homeopatía: homois "similar" y pathos "sufrimiento", en griego. Para ser uno de los principios básicos de la homeopatía no deja de ser bastante sorprendente. Si alguien sufre una intoxicación por arsénico. ¿se curará administrándole más arsénico? Yo diria que no. De todos modos, dado que cualquier sustancia puede emplearse como un remedio homeopático, ¿cómo se sabe que síntomas produce una sustancia determinada?. Según Hahnemann se debia realizar un proceso de prueba. Se debía administrar a una persona sana cantidades cada vez mayores de esa sustancia hasta que aparecieran los primeros síntomas de intoxicación, dichos síntomas debían compararse con las enfermedades catalogadas y si eran parecidos a los síntomas de alguna enfermedad, esa sustancia pasaba a considerarse útil para el tratamiento de dicha enfermedad. La Ley de los Infintesimales nos dice que cuanto más pequeña sea la dosis más poderoso será el efecto de la sustancia. Los efectos de la sustancia se potencian con la dilución de la misma; cuanto más diluida esté la sustancia más poderoso será su efecto. Los remedios homeopáticos se preparan siguiendo diluciones decimales. Se parte de una cierta cantidad de disolución, se extrae una décima parte y a dicha fracción se le añaden nueve decimos de agua destilada, se agita la nueva mezcla resultante y se repite el proceso varias veces hasta llegar al grado de dilución deseado. Son muy habituales grados de dilución de 1/1000000 o 1/10000000, y en algunos casos se llega a grados de dilución tan extremos que la probabilidad de encontrar alguna molécula de la supuesta sustancia activa en la preparado final es inferior al 50%. Si la sustancia no es soluble en agua puede molerse muy finamente y mezclarse con lactosa, siguiendo un proceso de dilución similar pero empleando la lactosa en lugar de agua destilada. Un compuesto que es prácticamente agua destilada o lactosa debería resultarnos familiar, no es más que un placebo como los que se emplean en los ensayos clínicos doble ciego!!. Del mismo modo que en nuestro Grupo B había pacientes que se curaban, algunos de los pacientes que acuden a un homeópata se curarán, ¿significa eso que los remedios homeopáticos son efectivos? Después de lo explicado en la introducción vemos que la respuesta es un NO rotundo. En el siglo XIX la medicina no estaba muy desarrollada, se basaba en principios erróneos y los remedios que se suministraban solían ser muy agresivos, incluyendo por ejemplo las sangrías entre sus prescripciones habituales. Con este panorama, no es extraño que la homeopatía tuviera un cierto éxito. Suministrando remedios totalmente inócuos al menos no hacía empeorar la salud del paciente, y en algunos casos este podía superar la enfermedad y curarse por si solo de una manera mucho más satisfactoria que con la intervención de la medicina de la época. Sin embargo, hoy en día la situación es radicalmente diferente, la medicina y la farmacología actuales son disciplinas que se rigen por el método científico y han conseguido éxitos sin
10 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
precedentes. Por otra parte, ningún preparado homeopático ha superado nunca un ensayo doble ciego realizado con un mínimo de garantías contra el fraude o el engaño. Después de todo lo dicho cabe preguntarse ¿por qué la homeopatía sigue siendo popular? ¿cómo se las arreglan los homeópatas para justificar lo injustificable?. Un punto que suele destacarse a menudo es que la medicina trata enfermedades mientras que la homeopatía trata enfermos. Se arguye que la medicina sólo mira de atacar los síntomas de las enfermedades, mientras que la homeopatía trata al paciente como un todo, (sea eso lo que sea). Por supuesto,esto es un disparate, porque si bien es cierto que hay casos en que se prescriben medicinas para eliminar o mitigar los síntomas, (la más típica sería la aspirina), se olvida que esto no constituye la norma. Por ejemplo, la medicina dió un paso de gigante con el descubrimiento de los antibióticos, y precisamente una sustancia como la penicilina lo que hace es atacar la raiz del problema en ningún caso los síntomas. Por su parte, ¿qué hace la homeopatía? Estudia los síntomas del enfermo y administra en cantidades infinitesimales una sustancia que en grandes cantidades provoca esos mismos síntomas en una persona sana, en otra persona!!. ¿Quién pone más enfasis en los síntomas?; además, diría que con este proceder no se trata al paciente como un individuo único o como un todo. Otro punto que se destaca de la homeopatía es que las disoluciones infinitesimales que prescribe sólo incluyen productos naturales. Esta es una falacia que se podría aplicar a un montón de "medicinas lternativas". Parece que los productos naturales son per se beneficiosos pero se olvidan de que la naturaleza está llena de venenos y tóxinas de origen vegetal o animal potentísimos. Los antibióticos, empleados por la medicina no por la homeopatía, tienen su origen en un producto natural pero no olvidemos que los productos naturales están expuestos a la contaminación; por lo tanto la purificación de estas sustancias o su síntesis artificial representa un gran paso hacia adelante. La Ley de los Infinitesimales viola los principios establecidos por la medicina, la farmacología, la física o la química, ¿cómo la justifican los homeópatas?. Hanhemann pensaba que a medida que la sustancia perdía propiedades "materiales" a base de diluciones sucesivas, ganaba propiedades "espirituales". Hoy en día, las propiedades "espirituales" han sido reemplazadas por energías misteriosas o por vibraciones de no se sabe que; ningún culto pseudocientífico actual sería tal sino mencionara energías que no puede detectar ni poner de manifiesto, y la homeopatía no es ninguna excepción. En relación a esto será interesante destacar el caso del Dr. Benveniste. Benveniste encabezaba un artículo publicado en el año 1988 en Nature, en el que parecía establecer que una disolución muy diluída de un cierto anticuerpo podía desencadenar una reacción en leucocitos humanos. Lo sorprendente era que "muy diluido" significaba en este caso una dilución de una parte entre 10120!!. Esto significaba que no existía ni un solo anticuerpo en la disolución final. ¿Cómo lo explicaba Benveniste? Para él, el agua tenía una especie de "memoria". Podía retener la estructura del anticuerpo, de modo que aunque este ya no estaba presente, el agua podía desencadenar la reacción en los leucocitos. Parecía que este estudio daba una cierta credibilidad a la Ley de los Infinitesimales; sin embargo, habría que advertir primero que ese estudio estaba en parte subvencionado por una importante empresa francesa de productos homeopáticos. Por supuesto, esto por si
11 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
mismo no desacredita la investigación realizada, pero un equipo enviado por Nature al laboratorio de Benveniste demostró que los experimentos estaban estadisticamente mal controlados, que no se habían tomado medidas para eliminar causas de error sistemático y no existía una base sólida para las afirmaciones que se realizaban en el artículo. El experimento sólo fué reproducido por un equipo israelí; curiosamente la persona encargada de realizar el recuento de leucocitos que habían reaccionado era la misma!!. Parece pues que la Ley de los Infinitesimales sigue sin confirmación experimental y sigue contradiciendo todas las leyes conocidas de la física y de la química. La homeopatía es un culto médico que se aprovecha de la ignorancia de la gente para prescribir remedios inútiles y además cobrar por ello. La salud de las personas es algo demasiado delicado como para permitir que se juege con ella y es por ello que al igual que los "productos milagro", los productos homeopaticos deberían desaparecer de las farmacias. Documento elaborado por Ferran Terrasa. Senoterapia .- Inventada por un médico italiano, hace pocos años. Se trata de diagnosticar enfermedades por la forma de los pechos femeninos y curar con un masaje suave sobre los mismos. Magnetizadores.- Para imanar al agua, engañan a mucha gente, pues el agua y fluidos análogos no se pueden imanar.
Magnetizadores. Robert Park, de la Sociedad Física Americana "No conozco ningún científico que se tome esta afirmación seriamente... es otra manía. Ellos van y vienen con brazaletes de de cobre y cristales, y ese tipo de cosas, y esto pasará también" - Robert Park, de la Sociedad Física Americana" "Los átomos de hierro de un iman están atestados juntos en un estado sólido en el que un átomo está junto a otro. En tu sangre solo 4 atomos de hierro se encuentran en cada molécula de hemoglobina, y están separados por distancias demasiado grandes como para formar un imán. Esto es fácilmente comprobable pinchando tu dedo y colocando una gota de sangre cerca de un imán." - Michael Shermer La Magnetoterapia es un tipo de "medicina alternativa" que afirma que los campos magnéticos tienen poderes curativos. Algunos afirman que los imanes pueden ayudar a los huesos rotos a curar más rápido, pero la mayoria del material proviene de aquellos que afirman que calma el dolor. Gran parte del soporte a estas nociones proviene de testimonios y anécdotas, y puede ser atribuido a "efectos placebo y otros efectos acompañantes de su uso" (Livingston 1998). No hay casi ninguna evidencia científica apoyando la magnetoterapia. Una grandemente publicitada excepción es un estudio a doble ciego realizado en la Escuela de medicina Baylos que comparó el efecto de imanes e imanes simulados en la rodilla enferma de 50 pacientes de post-polio. El grupo experimental reportó una significativamente mayor disminución del dolor que el grupo de control. No ha habido ninguna repetición todavía de este estudio.
12 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Un estudio menos publicitado en el Ney York College de Medicina Podológica encontró que los imanes no tenían ningún efecto en la curación del dolor de talón. Tras un periodo de 4 semanas, 19 pacientes llevaron una plantilla moldeada que incluia una lámina imantada, mientras 15 pacientes llevaron la misma plantilla pero sin la lámina. En ambos grupos el 60% informó de mejoras. A despecho de que no haya habido virtualmente ningún test científico de la terapia magnética, una creciente industria está produciendo brazaletes magnéticos, bandas, plantillas, fajas, colchones, etc... y anunciando milagrosos poderes para sus productos. El mercado magnético puede estar aproximandose a los 150 millones de dólares anuales (Collie). (Lerner anuncia que las ventas en EE.UU. pueden ser de medio millar de millones, y que en el resto del mundo se llega como mucho a dos veces esa cifra) Los imanes se estan convirtiendo en la elección preferidda para quiroprácticos y otros "especialistas del dolor". La anteriormente alfarera Marylynn Chetkof vende productos de Russell Biomagnetics, y anuncia que los imanes son mejores que los calmantes, o que vivir con dolor (Collie). Incluso un contratista de la construcción como Rick Jones esta tratando de invertir en la actual locura magnética. El ha fundado una compañía denominada Optimum Health Technologie Inc.s (Tecnologias para la Salud Optima) para comercializar su "Magnassager" (Magneto-masajeador), un vibrador portátil con imanes al precio de 489$. Jones anuncia que su invento "no es solo otro artefacto para dar masajes" El dice que usa un campo magnético para ayudar a circular la sangre mientras masajea los músculos. Jones obtuvo 300000 $ de los inversores y gastó todo ello en "desarrollo de producto y márketing" Ni un centavo se destinó a estudios científicos del aparato antes de enviarlo al mercado, aunque el le dio 20000$ a un Fisiólogo para evaluar su aparato "para asegurarme de que no era un cachivache". La afirmación de que el magnetismo ayuda a "circular la sangre" es común entre los defensores de la magnetoterapia, pero no hay ninguna evidencia científica de que los imanes le hagan nada a la sangre. Aun en contra de las evidencias de que los imanes no tienen otro efecto que el placebo, abundan las teorias de cómo funcionan. Algunos dicen que los imanes son como un masaje shiatsu; otros afirman que los imanes aceptan al hierro de los hematíes, incluso otros afirman que los imanes generan una reacción alcalina en el cuerpo (Collie). Bill Roper, jefe de Magnetherapy afirma que "Los imanes no curan ni calman nada. Todo lo que hace es colocar tu cuerpo en su estado normal para que pueda empezar el proceso de curación" (Collie). Como ha averigaudo esto no queda del todo claro. Algunos defensores de la terapia magnética parecen basar su creencia en una convencimiento metafísico de que todas las enfermedades se deben a una especie de desequelibrio o dis-harmonia en la energía. El equilibrio o flujo de energía electromagnética debe ser restaurado para recuperar la salud, y suponen que los imanes son capaces de hacer eso. Los más rabiosos abogados de la terapia magnética son atletas como Jim Colbert y John Huston (golf), Dan Marino (fútbol americano) y Lindsay Davenport (tenis). Su creencia está basada en poco más que razonamiento post-hoc. Es posible que el alivio que un cinturón magnético proporciona a un golfista con un problema de espalda, por ejemplo, no sea simplemente una función del efecto placebo o de la falacia regresiva. Bien puede ser debida a la ayuda de la aportación de calor adicional que el cinturón provoca. El producto funcionaría igual de bien sin los imanes. Además, los deportistas no son dados a los tests científicos más de lo que lo son los fabricantes de magnetocacharros. Los atletas no son los únicos enamorados de los poderes curativos de los imanes. El Dr.
13 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Richard Rogachefsky, un cirujano ortopédico de la Universidad de Miami, afirma haber usado imanes en cerca de 600 pacientes, incluidas persoas que habian sido disparadas. El dice que los imanes "aceleran el proceso de curación". ¿Su evidencia? Puede explicarlo mirando los rayos X. El Dr. William Jarvis es escépticoa este respecto. Dice: "Cualquier doctor que se apoya en impresiones clínicas, en lo que piensan, en lo que ven, es un loco" (Collie). Hay una buen razón por la que los científicos hacen estudios controlados a doble ciego para testear la eficacia causal: para prevenir la Autosugestión. El Dr. Mark S. George, un profesor asociado de psiquiatría, Neurología y Radiología en la Universidad Médica de Carolina del Sur, en Charleston, hizo un experimento controlado sobre el uso de imanes para tratar la depresión. Sólo estudió 12 pacientes en 2 semanas, sin embargo, asi que sus resultados son poco significativos. Mientras las ventas de productos magnéticos continuan aumentando hay unos pocos estudios científicos en marcha. La Universidad de Virginia está testando imanes en pacientes de fibromialgia. Las universidades de Miami y Kentucky estan haciendo pruebas en gente con síndrome de tunel carpiano (Collie), En el presente, sin embargo, no tenemos ninguna buena razón para creer que los imanes tienen ningún poder curativo más que los cristales o los brazaletes de cobre. Ionizadores de aire.- Dicen aumentar los iones negativos en el aire por que son maravillosos para todo. Estudiados los aparatos, muchos ni siquiera son capaces de formar iones. Acumulador de orgones.- El orgón es una energía telúrico-sexual, son como las partículas elementales de la energía sexual (como los quars que forman el óctuple sendero, pero de orgasmo), y tener muchas, dice el alemán que promociona este engaño, es muy conveniente. Psicoanálisis.- Fascinante forma, inventada por Freud para sacar dinero a la burguesía y crédulos por el estilo. Técnica biocibernética quántica holográmica.- Inventada por un autodenominado "profesor" Pere Ribalta, de Sabadell. Actualmente ha sido condenado a 15 años de cárcel, por los daños causados en enfermos que siguieron sus tratamientos, incluso con resultado de muerte. Curación espiritual.- Los espíritus benéficos de los cielos o incluso el mismo Dios curan nuestras enfermedades siempre que tengamos fe y a veces dinero que donar. a) Ciencia Cristiana.-Especie de Iglesia médica, que cura a base de fe. La curación es la salvación eterna. La oración y no cometer pecados la mejor profilaxis. b) Lourdes, Fátima. Mendujorge y más.- Milagros católicos para todos los gustos. La Virgen María en plan enfermera. Las religiones casi siempre han considerado de alguna forma la persistencia de vida después de la muerte, incluso hay personas que han estado muy graves que relatan hechos que aparentemente están fuera de la normalidad. Todas estas creencias son falsas, estando actualmente justificados dichas situaciones desde el punto de vista puramente científico. Otras creencias irracionales Astrología.- En todo el mundo se publican miles de secciones astrológicas, los tan conocidos "horóscopos", aparecen indiscriminadamente en periódicos, revistas, folletos y en los últimos años en Internet. La astrología presupone que la posición de los planetas y el Sol en una determinada franja del cielo; llamada constelaciones del zodiaco, influyen en nuestras vidas. Según dicen los astrólogos (no 14 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
confundir con astrónomos) la posición del Sol a la hora de nacer marca de por vida las características particulares de una persona. Carece de cualquier base científica, las fuerzas gravitacionales de los planetas son insignificantes sobre una persona en el momento de nacer; además es absurdo que cada doceava parte de la población terrestre tenga un futuro igual. Cualquier intento de verificación experimental no corfirma la validez de esta pseudociencia.
Enlace recomendado: Una revisión crítica de la astrología Enlace recomendado: Visión crítica de la astrología Grafología.- Es otra pseudociencia que entre las muchas "utilidades" que ofrece, está la de adivinar el carácter de una persona en base a su escritura. No se debe de confundir con la valoración de igualdad entre dos escritos o firmas, que es función de los "peritos caligráficos". Lamentablemente se enseña como ciencia en una asignatura de los estudios de Licenciatura en Criminología en la Universidad de Murcia.
Enlace recomendado: Grafología, otra pseudociencia
Valoramos la ciencia como factor de progreso, pero también nos asustamos de sus implicaciones ¿Lo hacemos de forma racional o moviéndonos por instintos? Fuente: Blogalia, autor Javier Armentia Publicado en Territorios, Ciencia y Futuro, El Correo, miércoles 15 de octubre de 2003 La percepción pública de la ciencia viene mediada por numerosos factores, que a menudo nada tienen que ver con el contenido y alcance real de las investigaciones, sino con ideas populares que se van asentando, propiciadas desde los medios de comunicación y, a menudo, alentadas desde sectores interesados en hacer valer sus opiniones. En general, siempre se suele comentar que existe un analfabetismo científico funcional en una parte de la ciudadanía: el desconocimiento sobre aspectos fundamentales de la ciencia y la tecnología actuales se suele poner de manifiesto en encuestas de opinión. En diferentes encuestas que se han ido realizando en los últimos decenios se muestra cómo la gente puede creer que el hombre convivió con los dinosaurios, cómo no entienden la estructura atómica de la materia o muchas otras "lagunas" en los conocimientos objetivos. En el Eurobarómetro, una encuesta que se viene realizando desde hace quince años se incluía en 1996 una pregunta para valorar el conocimiento de las tecnologías genéticas por parte de los europeos. Dos terceras partes de los encuestados decía que era correcta la
15 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
afirmación "los tomates naturales no tienen genes, sólo los transgénicos los tienen". Sin embargo, la valoración que se establece sobre la ciencia es mucho más positiva que lo que cabría concluir del estado de desconocimiento. En los mismos Eurobarómetros, se ve cómo el ciudadano europeo concede en general mucho valor a la ciencia, depositando en ella una confianza alta a la hora de la resolución de importantes problemas como los ambientales, las enfermedades o en general, por su capacidad de mejorar la calidad de vida. Recientemente se ha publicado el estudio "Percepción social de la ciencia y la tecnología en España", promovido por la Fundación Española Ciencia y Tecnología (FECyT). Los encuestados en este trabajo, valorando en una escala de 1 a 5 en la que 1 significaba que no había asociación alguna y 5 una asociación completa, relacionaban la ciencia con "progreso" (4,35), "bienestar" (3,74), "riqueza" (3,55), "oportunidades" (3,55). Hacen notar los autores cómo la asociación con el progreso es mayor que otras características que se suelen relacionar con los avances científico-tecnológicos. De esta manera, la idea que podríamos obtener del estado de la percepción social de la ciencia sería en cierto modo positivo: valoramos la ciencia, aunque la desconocemos. Una conclusión obvia, precisamente en la dirección que trabajan los planes comunitarios en este sentido, sería favorecer la comunicación sobre ciencia, la educación, y fomentar las vocaciones a la vez que realizar políticas de inversión en ciencia que permitan la creación de un verdadero espacio científico europeo no sólo como motor de la industria, sino con la capacidad de involucrar al ciudadano. La realidad, sin embargo, muestra que hay sectores de la ciencia en los que esa valoración cae, o en general, en los cuales se establece una duda o incluso un temor ante la propia ciencia. El asunto de los organismos transgénicos es un buen ejemplo donde se muestra cómo la investigación científica y la opinión popular se separan de manera importante. Las efectivas campañas de alerta (a menudo sin justificación racional alguna) por parte de algunos sectores del activismo ecologista han conseguido que la percepción de lo "transgénico" sea muy negativa. De poco sirve que las grandes multinacionales de la biotecnología hayan promovido una imagen casi idílica del avance que podría suponer estas técnicas en solucionar el hambre en el mundo, o mejorar la calidad de los cultivos. La sombra de la duda sobre la inocuidad de los productos ha conseguido que, incluso (o principalmente) en los planos políticos se hayan establecido moratorias o programas de contención ante estos nuevos productos. La fuerza de las palabras convierte a algunas en verdaderos tabús: sólo mencionarlas hace que la gente se posicione críticamente (por más que se reconozca el desconocimiento de por qué no gusta o por qué se teme). El hecho de que principalmente la vía de información sobre temas de ciencia sean los medios de comunicación generalistas (en primer lugar radio y televisión) en los cuales la información científica ocupa un pequeñísimo porcentaje del tiempo de emisión, algo que los propios encuestados califican como insuficiente, facilita el que ciertas ideas se transmitan acríticamente. Un ejemplo reciente, que aún promueve calurosos debates en las todas las escalas sociales lo constituyen los efectos (presuntos) de las radiaciones emitidas por antenas de telefonía. Dejando aparte el hecho de que ningún estudio contrastado adecuadamente ha conseguido demostrar el efecto cancerígeno de las antenas (ni tampoco del uso de los teléfonos móviles), y a pesar de que las investigaciones establecen que estas tecnologías trabajan dentro de un margen de riesgo adecuado, simplemente hablar de "radiaciones electromagnéticas" supone que mucha gente piense que son algo dañino. En anuncios de televisión podemos oír cosas como que un producto "protege contra las
16 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
dañinas radiaciones electromagnéticas". ¿Pero no es la luz una radiación electromagnética? ¿No lo son las ondas de radio o las de TV? El propio calor nos llega en forma de radiación infrarroja, la misma con la que conseguimos que los mandos a distancia hagan su función. Un mundo sin radiaciones electromagnética sería un mundo muerto. Confundir de esta manera al público, podríamos pensar, sería delictivo si no se contara con una percepción de lo dañino mediada por campañas políticas en contra de la telefonía, por ejemplo, en donde se juega a asociar la "radiación" también con otra palabra tabú: "radiactividad". Nada tiene que ver una con otra, pero en un mundo que sobrevivió a una tensión de decenios con la amenaza de la guerra nuclear, todo lo relacionado con ese mundo nos sigue pareciendo peligroso y desasosegante. Lejos están los años en que los detergentes proporcionaban un "blanco nuclear":hasta los años cincuenta la ciencia del átomo era percibida como uno de los mayores avances, a pesar del uso bélico de la misma a finales de la II Guerra Mundial. Pero posteriormente todo un activismo antinuclear consiguió hacer cambiar a la opinión pública: todo lo radiactivo es peligroso. Es evidente que tales maximalismos no son acordes con una actitud científica que ha de valorar siempre los riesgos y las consecuencias de forma menos apasionada. Pero también es evidente que nos movemos de forma mucho más gregaria y menos crítica que lo que sería conveniente. El hecho de que cuando un médico solicita para un paciente un diagnóstico mediante resonancia magnética nuclear casi sistemáticamente oculte las dos últimas palabras, por la asociación casi instantánea que establecemos entre "nuclear" y cáncer, es un síntoma de que las cosas no se están haciendo bien. Y PALABRAS COMODÍN: LO NATURAL La alta valoración que ponemos al adjetivo "natural" es la otra cara de la misma moneda que hace tabúes a los términos científicos. Parece que todo lo natural fuera intrínsecamente bueno (a pesar de que tan naturales son los virus como cualquier agente infeccioso o veneno que existe en la naturaleza). Basta con echar un vistazo a los anuncios de cualquier tipo de producto para encontrar cómo se ejercita la desinformación propagandística en este sentido. El hecho de que mucha gente prefiera una "medicina natural" indica el desconocimiento y el prejuicio que establecemos: de hecho, unas dos terceras partes de los medicamentos convencionales tienen principios activos que son "naturales", pero el proceso industrial permite, adecuadamente, establecer la forma de aplicación y la dosis adecuada que lo hacen un tratamiento efectivo. Por el contrario, y sirva como ejemplo, un cocimiento (natural) de plantas recetado como una verdadera panacea por una medicina que se dice alternativa supone una dosificación incontrolada: ni se puede saber exactamente cuánto medicamento estamos ingiriendo ni podemos controlar otras sustancias que se están introduciendo a la vez. La moda de lo natural frente a lo artificial sigue existiendo, pero se aprovecha de nuestro desconocimiento para vendernos algo que, realmente, no es ciencia, sino pura pseudociencia. (cortesía de J. Merelo)
Carl Sagan
17 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Carl Sagan hace un análisis muy interesante sobre el caso de Lourdes. Resulta que desde la "aparición" de 1858, unos cien millones de personas han visitado Lourdes con la esperanza de ser curados de una enfermedad que la medicina "oficial" no ha logrado vencer. La Iglesia Católica (ICAR) ha rechazado la autenticidad de una enorme cantidad de casos, y sólo ha aceptado 65 en casi un siglo y medio. Existen casos bien documentados de personas "desahuciadas" que se han curado sin intervención médica, aunque son muy escasos. Esto no es el caso del efecto placebo. Se atribuye simplemente a "curación espontánea", no hay razón alguna aparente para que la curación se dé, y sin embargo se da. Si se consideran los 65 casos en casi siglo y medio aceptados por la ICAR, estos casos son de tumores, tuberculosis, optalmitis, bronquitis, parálisis, etc. Pero ninguno es por, digamos regeneracion de un miembro o de una espina dorsal cercenada. De las 65 curaciones, hay una proporción de diez a uno más de mujeres que de hombres. La probabilidad de curación después de visitar Lourdes es entonces, de aproximadamente una en un millon, se tienen tantas probabilidades de curarse despues de visitar Lourdes, como se tienen de ganar el premio mayor de la loteria, o de morir en un accidente aéreo, por ejemplo. La curación espontánea de todos los tipos de cáncer juntos se estima en algo entre uno en diez mil y uno en cien mil. Si sólo un cinco por ciento de aquellos que van a Lourdes fueran por cáncer, tendría que haber habido entre 50 o 500 curas "milagrosas" unicamente por cáncer. Dado que sólo tres de las 65 curas comprobadas eran casos de cáncer, el índice de curación espontánea en Lourdes parece ser inferior que el de cualquier otro lugar. En otras palabras, un enfermo tendría más probabilidad de curarse espontáneamente (o "milagrosamente" si prefiere) quedándose en casa sin hacer nada en vez de ir a Lourdes. Evidentemente, si se habla con uno de los 65 curados, va a ser muy difícil convencerlo de que no fue su viaje a Lourdes lo que curó su cáncer. Esta es una ilustracion clasica de la falacia post hoc ergo propter hoc (despues del hecho, por lo tanto, debido al hecho) Esto no tiene que ver con el efecto placebo, que en la mayoria de los casos produce una "cura falsa", lo cual es fatal para pacientes que tienen una enfermedad tratable por la medicina.
CARL SAGAN Nació en Nueva York el nueve de Noviembre de 1934. Estudió en la Universidad de Chicago, donde recibió un Ph.D. en astrofísica. Casado con Ann Druyan. Ampliamente reconocido por sus trabajos científicos, es más recordado por sus esfuerzos por aumentar la difusión de la ciencia desde una visión razonada y escéptica. "La mayoría de los organismos en la Tierra dependen de su información genética, que está 'precableada' en sus sistemas nerviosos, en mayor grado que de su información extragenética, que es adquirida durante sus vidas. Para los seres humanos, y de hecho para todos los mamíferos, es al contrario. Aún cuando nuestro comportamiento es aún significativamente controlado por nuestra herencia genética, tenemos, a través de nuestros cerebros, una mucho más rica oportunidad de crear nuevos senderos culturales y
18 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
de comportamiento a corto plazo. Hemos hecho una especie de acuerdo con la naturaleza: nuestros hijos serán difíciles de criar, pero su capacidad para nuevos conocimientos aumentará en mucho la capacidad de supervivencia de la especie humana. Además, los seres humanos hemos inventado, en las más recientes pocas décimas de porciento de nuestra existencia, el conocimiento no sólo extragenético sino también extrasomático; información almacenada fuera de nuestros cuerpos, de la cual, la escritura es el más notable ejemplo." (De "The Dragons of Eden", Los Dragones del Edén)
No hay garantía de que el universo se conformará a nuestras predisposiciones. Pero no veo cómo podremos tratar con el universo - tanto el universo exterior como el interior - sin estudiarlo. La mejor manera de evitar abusos es que la población en general sea científicamente literata, para comprender las implicaciones de tales investigaciones. A cambio de la libertad de investigación, los científicos están obligados a explicar sus trabajos. Si la ciencia es considerada un sacerdocio cerrado, muy difícil y arcano para la comprensión de la persona promedio, los peligros de abuso son mayores. Pero si la ciencia es un tópico de interés y preocupación general - si tanto sus delicias como sus consecuencias sociales se discuten regular y competentemente en las escuelas, la prensa, y en la mesa familiar - habremos mejorado enormemente nuestras posibilidades para entender cómo es realmente el mundo y para mejorarlo a él y a nosotros." (De "Broca's Brain", El Cerebro de Broca)
Sus contribuciones Carl Sagan fue central para el descubrimiento de las altas temperaturas superficiales de Venus y las causas de los cambios estacionales observados en la apariencia de Marte. Ganó el Premio Pulitzer para no-ficción en 1978 por Los Dragones del Edén: Especulaciones Sobre la Evolución de la Inteligencia Humana. En 1980, su serie en 13 capítulos para los servicios de televisión pública "Cosmos", se convirtió en una de las series más populares en la historia de la televisión pública Americana. Carl Sagan fue el "David Duncan Professor of Astronomy and Space Sciences" y el Director del Laboratorio para Estudios Planetarios en la Universidad de Cornell. Fue un importante contribuyente a las misiones de exploración Mariner, Viking y Voyager. Obtuvo las Medallas de NASA por Excepcionales Logros Científicos, Logros en el Programa Apollo, y Servicio Público Distinguido (dos veces). El premio internacional de Astronáutica: el Prix Galbert. El premio Joseph Priestley "por distinguidas contribuciones al bienestar de la humanidad". El Premio Masursky del American Astronomical Society. Y en 1994, el Public Welfare Medal, el honor más elevado del National Academy of Sciences. Director de la División de Ciencias Planetarias de la Sociedad Americana de Astronomía. Director de la Sección de Astronomía de la Sociedad Americana para el Avance de la Ciencia. Presidente de la Sección de Planetología de la Unión Geofísica Americana. Editor en Jefe de Icarus, la principal revista profesional de estudios del Sistema Solar. Cofundador y Presidente del Planetary Society, el más grande grupo de intereses espaciales del mundo. Hay un asteroide, el 2709 Sagan, en su nombre. Más de 400 artículos científicos y populares publicados. Carl Sagan murió el Viernes, 20 de Diciembre de 1996, a la edad de 62 años.
Libros (de algunos existe versión en español):
19 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Intelligent Life in the Universe (con I. S. Shklovskii) The Dragons of Eden (1977): Speculations on the Evolution of Human Intelligence Murmurs of Earth: The Voyager Interstellar Record (con F. D. Drake, Ann Druyan, Timothy Ferrys, Jon Lomberg and Linda Salzman Sagan) The Cosmic Connection: An Extraterrestrial Perspective Other Worlds Mars and the Mind of Man (conRay Bradbury, Arthur C. Clarke, Bruce Murray and Walter Sullivan) Intelligent Life in the Universe Broca's Brain (1979): Reflections On the Romance of Science Cosmos (1980) Contact (1985): A Novel Comet (1985) (conAnn Druyan) A Path Where No Man Thought (1990): Nuclear Winter and the End of Arms Race (conRichard Turco) Shadows of Forgotten Ancestors (1992): A Search for Who We Are (conAnn Druyan) Pale Blue Dot: A Vision of the Human Future in Space The Demon-Haunted World: Science as a Candle in the Dark Billions & Billions (1997): Thoughts on Life and Death at the Brink of the Millennium (Póstumo, publicado por Ann Druyan)
Estafa pura y dura..- Hasta ahora hemos visto efectos más o menos subjetivos tanto por el lado del paciente como por parte de pseudomédico. Sin embargo gran parte de las técnicas de curanderismo se tratan de una auténtica estafa. El método habitual utilizado es el de diagnosticar una enfermedad inexistente, montar toda una parafernalia espíritual-mágico-médica y decir que el mal ha desaparecido. Las mayores o menores dotes escénicas del supuesto sanador la darán fama y dinero. Más graves aún son las estafas sobre enfermos reales (y a veces muy graves) que depositan su confianza, lo único que les queda, en estos vendedores de ilusión, suelen ser los casos más sangrantes y tristes de familias destrozadas o arruinadas por las "artes" de estas gentes.
Cirugía psíquica Sin apoyo, equipo quirúrgico o anestesia curanderos inprovisados hacen curaciones complejas, como extracciones de tumores usando sólo sus manos o, ¿algo más?. La gente desesperada recurre a medidas desesperadas. Los que han sido victimas de este engaño han pagado el precio, pero el embuste no se limita a los filipinos. La cirugia psíquica se ha vuelto un fenómeno latinoamericano, lo vemos por todos los países en pequeñas iglesias y grupos y lejos de la vista del publico. Sus magos y timadores se hacen pasar por verdaderos curanderos y les quitan a las personas su dinero y también la oportunidad de un verdadero tratamiento médico. Las operaciones se realizan en cuartos oscuros donde la trampa es facil de ocultar, pero aún en las condiciones más abiertas el ardid es dificil de detectar. El procedimiento empieza pidiéndole al paciente que se acueste en una mesa mirando hacia el cielo para ver hacia Dios pero enseguida se verá la verdadera razón de esto. No hay ningún intento por mantener condiciones de asepsia. Al terminar el procedimiento el falso cirujano limpia el área de insercción con las toallas. Toda la operacion puede realizarse en minutos. Cuando termina el paciente puede
20 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
examinar los resultados, no hay huellas de ningún tipo de corte, incisiones o cicatrices. Ahora miremos como se realiza esta convincente operación: Antes de la llegada del paciente el cirujano psíquico prepara las herramientas para su farsa: sangre simulada, algodón colorante alimentario, una bolsa de plástico y varias tiras de tocino con mucha grasa. Estos artículos se usan para crear unos pequeños recipientes llamados cargas. Funcionan asi: El tocino se pone en la bolsa y se satura con colorante. Esto será el convincente tumor que se extrae del estómago del paciente, luego la bolsa se llena con una buena dósis de sangre simulada, los guantes evitan las evidencias incriminatorias en las manos del cirujano, forma una bola con la bolsa y la carga está lista. la carga se oculta donde sea menos evidente, el recipiente del algodón por ejemplo. El timador se asegura de que no se vea y luego pasa el paciente. A este se le dice que mire hacia arriba, en algunos procedimientos se le coloca boca abajo. En cualquiera de los casos, esto da al supuesto cirujano una posición propicia para disfrazar su artimaña. El algodón no tiene nada que ver con la higiene, el propósito de frotar el estomago es darle opotunidad de ocultar la carga con la palma de la mano antes de masajear el area. Los curanderos psiquicos no son más que unos timadores
El curandero de Campanillas protagoniza un espacio de Tele5 JOSÉ PRIETO. EFE/MADRID (2001/11/23) Telecinco emite hoy, a partir de la medianoche, el reportaje de investigación 'El extirpador', en el que se muestra cómo un autodenominado 'cirujano psíquico', que lleva siete años 'operando' en Campanillas, engaña a sus pacientes, personas enfermas que ven en él su salvación. En 'El extirpador' se cuenta la historia de Andrés, anteriormente operario de grúa de la construcción de Barcelona y antiguo militante activo de los Testigos de Jehová, que lleva 7 de sus 52 años 'curando' en su consulta de la barriada de Campanillas a pacientes que le llegan de toda España, porque su fama ha traspasado fronteras. Él asegura que es un 'cirujano psíquico' porque con la sola ayuda de un bisturí simple y sus manos, dice él, se mete en las entrañas de sus pacientes y 'extirpa' tumores y 'arregla' lo que los médicos son incapaces de curar en los quirófanos. El protagonista del reportaje prepara su zona de operaciones con meticulosidad. Primero dibuja el contorno de la camilla con sal e impide que nadie lo traspase y cerca de él coloca un cesto con algodones donde esconde un simple bisturí con el que realiza las supuestas incisiones que, milagrosamente, no dejan ni siquiera un rasguño. A través de las incisiones imaginarias extrae el tumor o la causa del mal del enfermo, que no es otra cosa que vísceras de cerdos, corderos o aves.
21 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Los reporteros localizan, incluso, el establecimiento donde el 'sanador' adquiere el espinazo de cerdo con el que simula columnas vertebrales humanas. En cuanto a la sangre con la que tiñe sus operaciones, se trata en realidad de pigmento mezclado con otros líquidos. El día que la policía le detiene, Andrés está llevando a cabo una delicada operación en los testículos de su primer paciente.
1.2 Ejemplo del método científico Casi todo el mundo ha visto alguna vez un experimento semejante a éste: Supongamos una bolsa de material ligero. Un extremo de la bolsa tiene una boca, que puede mantenerse abierta, por ejemplo mediante un aro; este extremo se sostiene sobre algo que caliente el aire como un hornillo o un mechero. La bolsa se levanta y se hincha en todo su volumen. En este momento se suelta, y se eleva hasta el techo de la habitación, permanece en el techo durante un momento, y luego cae lentamente hasta el suelo. ¿Qué ha ocurrido? ¿Por qué ha ocurrido? Existen muchas formas de explicar los sucesos que se producen en la naturaleza. El tipo de explicación que aceptemos depende de nuestros conocimientos y de los supuestos que hayamos aceptado. La explicación que convence a una persona, puede no satisfacer a ninguna otra. Haciendo la pregunta ¿Por qué se eleva la bolsa hasta el techo?, se pueden dar distintas respuestas. A) Respuesta animista "Porque quiere alejarse del fuego". Esta respuesta satisfaría a muchos niños e incluso a algunas personas primitivas (aunque actualmente hay quienes "encuentran" una relación con la parapsicología). El animismo es la creencia de que todos los objetos naturales se encuentran vivos y poseen alma. El hecho de que la bolsa se eleve no es más sorprendente que el que un niño ande hacia una puerta. Un ejemplo es el Chamanismo. El mundo animista es un mundo caótico pues todos los objetos se comportan de acuerdo con sus impulsos naturales. Sobrevivir en este mundo implica ser capaces de conocer qué es lo que va a ocurrir a continuación, y si es posible controlarlo en alguna medida. B) Explicación mágica La magia se define como el arte de producir efectos o controlar sucesos mediante encantamientos, hechizos y rituales. La imagen del científico como mago de salón, capaz de realizar todo tipo de trucos, no es posible encontrarla actualmente. Hace más de un siglo era corriente que los científicos ganaran dinero haciendo demostraciones de salón sobre chispas y productos químicos capaces de producir espumas. El hombre primitivo debía enfrentarse con situaciones que no podía controlar. Entonces creía en la existencia de seres superiores que podían hacer cosas que a los humanos no les estaban permitidas.
22 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
C) Explicación sobrenatural Ha sido un "milagro". En otras palabras, existe algún ser que es capaz de interferir en los procesos naturales y de producir sucesos que ordinariamente no ocurrirían. De igual forma que algunos reyes y gobernantes, este ser tiene la propiedad de violar las leyes de la naturaleza, aun cuando originalmente estas hayan sido creadas por él. Un caso curioso, que denota el bajo nivel cultural existente en España, es que se anuncian cursos de milagros en Málaga, por 150 euros. D) Explicación teísta Teísmo es la creencia en un dios al que se le considera creador y gobernador del universo. "Es la voluntad de dios". Haya habido o no, un milagro, todas las cosas ocurren de acuerdo con un esquema ordenado por un ser supremo. Si existen leyes obedecidas por la naturaleza, es él quien las ha creado; si algún suceso viola estas leyes, él es el único responsable. En última instancia, todo ocurre porque él lo desea y directa o indirectamente lo produce. Esta creencia es soportada por mucha gente, incluso por algunos científicos. Sin embargo desde el punto de vista científico explica muy poco, porque explica demasiado. Si todas las cosas se deben a la voluntad divina y si esa voluntad se encuentra por encima del conocimiento humano, es que no conocemos nada. Por otra parte si existe, o existió una divinidad que estableció originalmente el sistema natural y sus leyes, de cualquier forma que se establecieran, es deber del científico descifrar la naturaleza de estas leyes. E) Explicación teleológica Teleológico, significa dirigido hacia un fin definido, o que posee un último propósito. "El aire caliente por naturaleza tiende a elevarse", según dijo Aristóteles. Mediante varios experimentos se puede comprobar que el calor se encuentra asociado con la elevación de la bolsa. Es el aire que llena la bolsa el que origina que ésta se estire y se hinche. Es el aire del interior de la bolsa el que absorbe calor, calentándose y transportando la bolsa hasta el techo. ¿Por qué se acepta la existencia de una sustancia invisible como el aire?. No es por que lo podamos sentir directamente, sino porque nos ayuda a explicar otros fenómenos que podemos percibir. No todos los conceptos de este tipo sobreviven al paso del tiempo. En el esquema teleológico encontramos explicaciones más profundas que buscan propósitos más generales. Así podemos decir que el aire caliente se eleva para que la tierra pueda enfriarse y las plantas puedan crecer, y así nosotros tengamos alimentos para comer, y la cadena pueda alargarse enormemente. Estas explicaciones dan lugar a discusiones filosóficas. F) Explicación empírica Empírico significa basado en la experiencia práctica, sin intentar comprender por qué se ha producido el hecho. * Principio de Arquímides: Cuando un cuerpo se sumerge en un fluido, es empujado hacia arriba por una fuerza que es igual al peso del fluido desplazado.
Arquímedes vivió en la ciudad griega de Siracusa hacia el año 200 ane. Su principio lo descubrió cuando el rey Hiero, le preguntó cómo podía saber si la corona que se había comprado era realmente de oro. Este objeto tan valioso debía tratarse de forma no destructiva. Arquímedes mientras se encontraba en los baños públicos tuvo una idea, y
23 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
salió corriendo por las calles de Siracusa, vestido a la usanza de los baños públicos grecorromanos, es decir desnudo, gritando Eureka ("Lo he encontrado"). La aplicación de su principio distingue el plomo del oro, sumergiendo la corona en agua, el plomo es más ligero que el oro y por lo tanto 1 kg de plomo ocupa más volumen que uno de oro. Arquímedes pesó la corona en el aire y en el agua, si fuera de oro perdería peso en al agua un 5 por ciento, y si fuera de plomo un 8 por ciento. De esta forma demostró que habían estafado al rey, ganando una fama imperecedera, mientras que el destino del orfebre fue menos afortunado.
A continuación se muestra una simulación en Java, de un experimento que permite verificar el principio de Arquímides, relativo al empuje en líquidos. Un sólido colgando de un dinamómetro se sumerge en un líquido (mediante el arrastre del ratón). En este caso se reduce la fuerza medida, siendo igual a la diferencia entre el peso y la fuerza de empuje. Se pueden cambiar (dentro de ciertos límites) los valores preseleccionados de las densidades y del área de la base y altura del cuerpo actuando sobre los campos de texto correspondientes. Tras presionar la tecla "Intro", el programa indica los nuevos valores de la profundidad, volumen desplazado, fuerza de empuje, peso y fuerza medida. Se supone un valor g = 9.81 m/s2 para la aceleración de la gravedad. Si aparece el mensaje "Máximo excedido" con letras en rojo, es necesario seleccionar otro rango de medida adecuado.
* Ley de Gay-Lussac: Cuando se calienta (o enfría) un gas a presión constante, se expansiona (o contrae) proporcionalmente al aumento (disminución) de la temperatura.
Explicación Cuando la temperatura aumenta, el aire del interior de la bolsa aumenta igualmente de temperatura. Se constata que cuando aumenta la temperatura el volumen del gas crece igualmente Esto se puede explicar viendo en detalle el comportamiento de las moléculas de gas
24 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
Como consecuencia de la agitación, las moléculas de gas ejercen una cierta presión sobre las paredes de la bolsa
http://www.um.es/docencia/barzana/II/Ii01.html
Al subir la temperatura del aire, la agitación de las moléculas aumenta igualmente; por lo que ejercen mayor presión sobre las paredes de la bolsa, lo que tiene como consecuencia el aumento de su volúmen.
Estos dos principios difieren de las explicaciones previas en dos aspectos importantes: son cuantitativos, nos dicen la magnitud que cabe esperar de un efecto, y se pueden aplicar a otros experimentos además del que estamos describiendo. Estos principios se pueden aplicar al caso de la bolsa con aire caliente. De acuerdo con la ley de Gay-Lussac, al calentar el aire se expansiona, por lo tanto desplaza una cantidad de aire más frío, exterior a la bolsa, que es más pesado que el aire caliente del interior. Luego por el principio de Arquímedes, el cuerpo sumergido (es decir la bolsa con aire caliente) es empujado hacia arriba por una fuerza que es mayor que su propio peso. De esta forma la bolsa se eleva hasta el techo. Cuando el aire en su interior se enfría, se vuelve tan pesado como el aire que le rodea y el peso extra de la bolsa, es suficiente para hacerla descender. Ambos principios son ejemplos de leyes empíricas, que describen lo más fielmente posible, qué es lo que sucede.
Feynman y la educación científica Aunque nunca hayan oído hablar de Richard Feynman (1918-1988) su aliento seguramente les haya rozado en algún momento de sus vidas, sobre todo si han tenido la suerte de disfrutar de uno de esos maestros que se divierten horrores enseñando ciencia y haciéndonos sentir el placer de la propia inteligencia. Feynman no era el típico físiqueiro de camisa de rayas con el bolsillo petao de bolis de cuatrocolores y mirada perdida en un espacio multidimensional que caricaturizó con precisa crueldad Jerry Lewis en El
25 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
profesor chiflado. Al contrario: brillante, seductor y deslenguado, la biografía de Feynman revela a un tipo dispuesto a disfrutar de la vida, ya sea haciendo y enseñando física, o como miembro de un grupo de samba y asiduo intérprete de frigideira en el carnaval de Río. Fue precisamente en una de sus estancias en Brasil donde tuvo lugar la anécdota que hoy les cuendo, recogida en ¿Está Vd de broma Mr Feynman? Nuestro hombre había pasado varios meses dando clases a universitarios brasileños, asombrado por el carácter memorístico de los estudios de física e ingeniería: sus alumnos conocían al dedillo todas las definiciones pero eran incapaces de aplicarlas a problemas reales; anotaban atentamente todo lo que decía el profesor pero nunca, jamás, hacían una pregunta sobre lo que escuchaban. Al final del curso fue invitado a contar sus experiencias como profesor ante una nutrida representación de la comunidad universitaria. La sala de conferencias estaba llena. Comencé definiendo la ciencia como una forma de comprender el comportamiento de la naturaleza. Luego pregunté: ¿Hay alguna buena razón para enseñar ciencia? Desde luego, ningún país puede considerarse civilizado a menos que triqui, triqui, triqui...? Y allí estaban todos diciendo que sí con la cabeza, porque así es como piensan. Luego dije, ¿Esto por supuesto es absurdo, porque ¿qué motivos tenemos para pensar que debemos estar a la altura de otros países? Tiene que haber alguna razón seria, no sólo que otros países también lo hacen. Hablé entonces de la utilidad de la ciencia, de su contribución a la mejora de la condición humana y todo eso, provocándoles un poco. Y seguí: El objetivo de mi charla es demostrarles que en Brasil... ¡no se enseña absolutamente nada de ciencia! Podía verlos agitarse pensando: ¿Cómo? ¿Nada de ciencia? ¡Es una estupidez!, pero si tenemos todos estos cursos?. (...) Así que sostuve el libro de física elemental que ellos usaban y dije: En ningún lugar de este libro se mencionan resultados experimentales, excepto en un sitio donde hay una bola que rueda por un plano inclinado y se cuenta hasta dónde ha llegado la bola al cabo de un segundo, dos segundos, tres segundos, etc. Los datos incluso vienen con errores de modo que si uno los analiza parecen auténticos resultados experimentales, un poco por arriba o por debajo de los valores teóricos. Hasta se menciona la necesidad de corregir los errores experimentales, lo que es estupendo. El problema es que si calculamos el valor de la aceleración a partir de estos datos obtenemos la respuesta correcta. Sin embargo, una bola que rueda por un plano inclinado, si realmente se hace el experimento, debe emplear parte de su energía para vencer la inercia y empezar a rodar, lo que hace que con los datos reales obtengamos un valor de la aceleración que es 5/7 del valor teórico. Así pues, este único ejemplo de un experimento es algo totalmente ficticio. ¡Nadie ha hecho rodar nunca esa bola, o no habrían obtenido este resultado!. También he descubierto otra cosa, continué. Pasando las hojas al azar y poniendo el dedo en cualquier página puedo mostrarles el problema; lo que allí aparece no es ciencia, sino memorización. Así que seré lo suficientemente valiente como para hacerlo ahora, frente a esta audiencia, y poner el dedo en cualquier sitio y leerles una frase cualquiera. Y así lo hice. Brrrrrrrrrup - puse el dedo y comencé a leer: Triboluminiscencia. Triboluminiscencia es la luz que se emite al aplastar cristales... ¿Es esto ciencia? ¡En absoluto! Lo que aquí tenemos es lo que una palabra significa en términos de otras palabras. No hemos dicho nada sobre la naturaleza, nada sobre el hecho de que cuando uno aplasta cristales se produce luz, y por qué se produce. ¿Han visto alguna vez a un
26 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
alumno intentarlo? No lo verán, pues no pueden.
1.3 Escepticismo y pensamiento crítico Las personas tendemos a agrupar nuestros conocimientos y queremos saber la razón por lo qué ocurre una cosa determinada. Nos preguntamos cuál es la relación entre una experiencia concreta y alguna otra experiencia. A lo largo de la historia de la humanidad han existido grandes pensadores, que han influido mucho en el desarrollo posterior. La mayoría de las veces dudamos de las diversas razones que se nos presentan para explicar un fenómeno, algunos, incluso creemos en muy pocos hechos, esta visión de la realidad es lo que se denomina escepticismo.
Enlace recomendado: ¿Qué es el pensamiento crítico? Con frecuencia a los escépticos se nos describe como personas inhumanas, frías y robóticas, esto es falso. Como todo el mundo tenemos creencias (o convicciones como algunos prefieren denominarlas), generalmente de tipo racional, fundamentadas en la lógica, en conocimientos científicos y en hechos comprobados, nunca en el mero deseo de que algo sea cierto. En cuanto a la frialdad, es completamente falso, posiblemente apreciamos cosas diferentes. Los escépticos no somos menos apasionados, imaginativos o sensibles que los crédulos, y solemos tener mucho mejor sentido del humor.
Acerca del escepticismo
A pesar de todas las facilidades y el gran avance tecnológico que la ciencia ha logrado para la humanidad a lo largo de su historia, actualmente, como siempre, existe una enorme desinformación sobre varios aspectos del conocimiento humano. Se observa que por muchos motivos (¿educación deficiente seria uno?), que un gran número de personas no consigue distinguir fácilmente entre una realidad posible y una realidad ficticia. Esta dificultad en separar lo real de lo irreal, permite la aparición y proliferación de personas o grupos organizados que fomentan la desinformación con el objetivo de obtener ventajas de algún tipo (monetarias, políticas, etc.), y con este fin incentivan conscientemente la desinformación y la ignorancia. Preguntas que nos hacemos ¿Cómo curar rápidamente una enfermedad terrible? ¿Cómo saber el futuro y así prevenir posibles desventuras? ¿Existe alguna entidad superior que se preocupa por mí y me protege? Estas son preguntas obvias que una persona con el mínimo de discernimiento ha realizado en alguna etapa de su vida. ¿Quién no ha tenido veces incontables problemas de salud, de dinero o sentimentales, problemas que ponen a prueba hasta la última pizca de resistencia física y emocional? Lamentablemente, la vida para una enorme mayoría de la población es una sucesión de penurias sin
27 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
fin, cuyos orígenes muchas veces vienen del propio ámbito y educación familiares, pasando por una deficiente educación escolar, y finalizando en una sociedad desorganizada y no preparada para resolver problemas elementales e inmediatos. En este contexto, nada más natural que buscar una tabla de salvación en cualquier mano que se extienda para aparentemente ayudar, buscando respuestas fáciles e inmediatas a problemas difíciles y complicados. Derecho a la duda La rígida educación que nuestras sociedades han impuesto, limita desde temprano nuestra capacidad de rebelión contra ideas y preconceptos adquiridos, y por esta razón, tendemos a aceptar casi todo lo "establecido" como siendo algo intrínsecamente verdadero e irrevocable. La conclusión es que hay millones de personas que no saben que tienen un derecho elemental, tanto como comer y respirar, y es el derecho a la duda. Todos nacemos con este derecho, el de preguntar, indagar, cuestionar y exigir pruebas ante cualquier afirmación realizada, sea del cuño que fuere, científica, política, religiosa o económica, pero muy pocas personas ejercen este derecho natural. El escepticismo es la escuela que pregona el uso de este derecho, el irrenunciable derecho a la duda, el derecho que toda persona tiene a no ser engañada, manipulada o dirigida con fines excusos y escondidos. El escepticismo es la sana actitud que hace rodar con suavidad el progreso de la ciencia, invitándonos a cuestionar continuamente las bases de las disciplinas que dieron al hombre la supremacía sobre el planeta, como son la Física, la Biología, la Química y otras, y que soportan a nuestra tecnología. Un escéptico no acepta ninguna verdad establecida a priori, sino que la acepta al final de una larga cadena deductiva, o sea, cuando ya no hay argumentos que puedan invalidarla. Por el contrario, otras escuelas de pensamiento pregonan algunas verdades como siendo legítimas por derecho propio, y que necesitan argumentos propios para negarlas. Exije pruebas Así, la próxima vez que alguien te prometa una cura milagrosa a través de una piedra, pregúntate antes: ¿cómo una piedra puede influir en mi salud?, cuando alguien te hable de energías espirituales que realizan milagros, piensa si existe algún tipo de energía que no pueda ser medida ni estudiada (sin necesidad de ser un experto en Física), y cuando te digan que ha sido visto un habitante de otro planeta, pregúntate antes, cómo es que millares de astrónomos profesionales que vigilan el cielo día y noche nunca han visto nada. Exije pruebas, no te conformes con cualquier cosa. La persona que duda es la que debe ser convencida, y así, tiene todo el derecho de escoger que armas prefiere, como le gustaría ser convencida, y que método lógico desea emplear. Cabe al proponente responder a todas y cada una de las dudas levantadas y dejar satisfecho al escéptico en cuestión. Si alguna duda persiste después de presentadas todas las pruebas posibles, entonces el escéptico tiene todo el derecho de continuar siendo escéptico.La carga de la prueba siempre recae sobre quien afirma algo.
28 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
¿Qué es el argumento ad ignorantiam? Un sujeto afirma el enunciado A y le pide a un segundo sujeto que intente demostrar que el enunciado A no es cierto. Si el segundo sujeto fracasa en su demostración, el primer sujeto dirá que su enunciado es cierto. Se trata del argumento ad ignorantiam: si no puedes probar que lo que yo digo es falso, entonces lo que yo digo es verdadero. Lo increíble es que aún hoy se siga usando este argumento continuamente: demuestra que no he visto un ovni, demuestra que no hay fantastmas en tal hotel abandonado, demuestra que mi péndulo no te adivina el futuro, etc. Pues yo les digo a estos seguidores ikerjimenianos: hoy he viajado al futuro y he conocido a mis nietos, tenían elefantes rosas con medias turquesas. Demostradme que es falso. Este tipo de argumentación puede llevar a defender enunciados absurdos, aunque también es útil para la sociedad: todo el mundo es inocente mientras no se demuestre lo contrario. Por último un texto de Locke en el que cataloga los argumentos en cuatro clases: Antes de abandonar este asunto deberíamos reflexionar un poco sobre estas cuatro clases de argumentos.... El primero consiste en recibir las opiniones de aquellos hombres que, por su aprendizaje, por su eminencia, por su poder o por alguna otra causa, han adquirido una reputación y la han asentado con autoridad ante los demás. Cuando los hombres han sido elevados a cualquier clase de dignidad, se considera una falta de modestia, en otros, contradecirles en cualquier asunto, o poner en duda la autoridad de aquellos hombres que ante los demás la tienen. Se suele censurar el que un hombre no abandone rápidamente su propuesta ante la de otros autores ya consagrados, considerándolo como un acto de orgullo desmedido; ....El que basa sus tesis en unas autoridades semejantes, piensa que siempre debe de triunfar en su causa, y se muestra dispuesto a calificar de imprudente a cualquiera que ose contradecirlas. Esto es lo que pienso se puede llamar «argumentum ad verecundiam»...En segundo lugar, otra forma de la que los hombres se valen comúnmente para acallar a los demás, y para obligarlos a aceptar sus juicios y a recibir las opiniones en debate, estriba en exigir al adversario que admita lo que ellos alegan como una prueba, o que designen otra mejor Y a esto es a lo que llamo «argumentum ad ignorantiam».... Una tercera forma consiste en obligar a un hombre mediante consecuencias extraídas de sus propios principios a concesiones. Esto es lo que ya se conoce con el nombre de «argumentum ad hominem»..... La cuarta manera consiste en el empleo de pruebas extraídas de los fundamentos del conocimiento o de la probabilidad. Es a lo que llamo «argumentum ad judicium». Este, entre los cuatro, es el único que conlleva una verdadera instrucción y que nos hace adelantar en el camino del conocimiento...ya que, tal vez, me puede llevar hacia la reflexión de la verdad. ( Referencia)
Fuente: Ciencia en el XXI. Mirando con la mente. Bajo licencia Cretaive Commons
El movimiento escéptico utiliza la red para propagar sus ideas 29 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Lo irracional nos invade, siendo el mundo de lo paranormal su punta de lanza más visible. El movimiento escéptico trata de combatir esta plaga a base de "fomentar la reflexión y la duda". Sus socios, entre los que se incluyen prestigiosos científicos, pensadores o periodistas de todo el mundo animan a cualquier persona a participar. Internet es una de sus herramientas más poderosas. Jueves, 14 junio 2001 ÁLEX FERNÁNDEZ, IBLNEWS.com Un 15% de la población recurre a curanderos cuando tiene algún problema de salud; entre la cuarta parte y la mitad de los españoles tiene alguna creencia esotérica; las dos principales revistas ocultistas de España venden más de 50000 ejemplares mensuales. La lista de este tipo de datos es muy larga, lo cual es preocupante, por lo menos para aquel que se considera escéptico. ¿Eres un escéptico? Seguramente tú, lector de IBLNEWS, seas un escéptico, aunque no seas consciente de ello. De todas formas, si no tienes muy claro que es eso de ser escéptico, te animamos a que leas las siguientes preguntas. Si tus respuestas son negativas, ¡felicidades!, eres un escéptico convencido: ¿Es posible adivinar el futuro? ¿Visitan la Tierra seres de otros planetas? ¿Convivió el ser humano con los dinosaurios? ¿Está próximo el fin del mundo? ¿Ha demostrado la NASA que Jesucristo resucitó? ¿Es peligroso viajar por el triángulo de las Bermudas? ¿Tiene Satanás debilidad por la España profunda? ¿Hay gente capaz de operar sin causar dolor ni cicatriz alguna? ¿Está el futuro escrito en las estrellas? ¿Existen las casas encantadas? ¿Se pueden doblar cucharas con el poder de la mente? ¿Es posible comunicarse con el mundo de los espíritus? ¿Dejó Dios escrito en la Biblia el pasado y el futuro de la humanidad? ¿Son las pirámides egipcias obra de seres venidos de otros mundos? ¿Se manifiestan los espíritus a través de la ouija? Puede que parezcan estúpidas algunas de dichas preguntas, pero como decimos, muchas personas responderían convencidas con un sí. Para Manuel Toharia, director del Museo de Ciencias de Valencia y miembro de la ARP- Asociación para el Avance del Pensamiento Crítico, la postura escéptica nace como reacción a la enorme cantidad de creencias basadas en afirmaciones de personas que se arrogan cierta autoridad y/o que tienen suficiente credibilidad entre personas crédulas ("si no hubiera bobos no habría engañabobos"). Origen de la palabra "escéptico" Tal vez haya más de uno que le suene mal aquello de ser "escéptico". En opinión de Félix Ares, director del Museo de Ciencias de San Sebastián y actual presidente de la Asociación, "en castellano la palabra escéptico tiene connotaciones negativas que no lo tenía la palabra griega "esketikos". En efecto, el escepticismo surge en la Grecia Clásica como escuela filosófica y su creador, Pirron de Elis, defiende que es imposible conocer algo de modo totalmente cierto. Los escépticos, por lo tanto, le dan ese sentido, como nos recuerda Ares: "todo saber es provisional y revisable. Duda de todo. No creas en "popes" de ningún tipo". El movimiento escéptico surge hace 25 años en Estados Unidos de la mano del filósofo Paul Kurtz, que ayudado por científicos de la talla de Carl Sagan, Isaac Asimov, Martin Gardner o Stephen Jay Gould crean la CSICOP, el Comité para la Investigación
30 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Científica de lo Paranormal. En el mundo de habla hispana la idea cuaja en 1985 con la creación de la sociedad ARP, la Alternativa Racional a las Pseudociencias, en la que siguiendo la estela de la CSICOP, comienza a ganar paulatinamente adeptos en la lucha contra lo irracional. Según Luis Alfonso Gámez, periodista de El Correo y miembro histórico de la ARP, "A mediados de los años 80, ufólogos, astrólogos, parapsicólogos, curanderos y demás campaban a sus anchas por los medios de comunicación sin que nadie les llevara la contraria. Hasta que ARP empezó a sonar en los medios". Sin embargo, la lucha es desigual. Para Toharia, "el combate contra las seudociencias tiene pocos apoyos oficiales. En realidad, parece como si a los rectores de la sociedad no les importase el nivel de engaño que sufren sus conciudadanos, generalmente por un deficiente nivel cultural en lo científico". Según Gámez, "el gobierno norteamericano ha preferido que la gente crea en OVNIs, para que no se hable de proyectos secretos gubernamentales". Internet: poderosa herramienta Internet se ha convertido para los escépticos en el medio de comunicación y expansión por excelencia. Como bien dice Javier Armentia, director del Planetario de Pamplona y expresidente de la ARP, "en el últimos años, la labor de ARP se ha visto renovada con nuevas aportaciones, de profesionales de muchos campos de la actividad intelectual. Ello ha sido posible gracias a la popularización de esa nueva ágora que supone Internet". Y es que la red ha permitido que el mensaje de ARP llegue a los escépticos de habla hispana de todo el mundo bien a través de las webs de la asociación y sus simpatizantes, bien a través de la lista de correo escéptica hispana. Según Gámez, "Internet es ahora para nosotros una herramienta básica tanto de proyección hacia el exterior como a la hora del trabajo interno: reuniones de la directiva, intercambio de opiniones con los socios, sesiones del consejo de redacción de nuestra revista, etcétera. Es un frente en el que no pasa semana sin que recibamos alguna solicitud de adhesión." No sólo las pseudociencias Más de uno podría pensar que los escépticos se limitan a luchar contra las pseudociencias. Sin embargo, ser escéptico supone algo más, tal y como se refleja en los estatutos de la asociación: "La ARP impulsa el desarrollo de la ciencia, el pensamiento crítico, la educación científica y el uso de la razón; promueve la investigación crítica de las afirmaciones paranormales y pseudocientíficas desde un punto de vista científico y racional, y divulga la información sobre los resultados de estas investigaciones entre la comunidad científica y el público en general." Por otra parte, los escépticos no tratan de eliminar las creencias por sí mismas. Como bien dice Toharia, "una creencia, sin más, podría ser criticada pero la libertad de las personas para creer lo que quieran está por encima de lo demás (otra cosa es que quieran imponer esa creencia por la fuerza, claro). Pero un creencia que se disfraza de ciencia no es más que un fraude que hay que denunciar ante la sociedad como tal". Por su parte, según Félix Ares, "Nunca nos hemos metido con las creencias; nos hemos metido con aquellos que dicen que sus creencias están demostradas científicamente. Por ejemplo, nunca nos hemos metido con los que creen que la Sabana Santa es la mortaja de Jesucristo. Sí lo hemos hecho con los que dicen que la Ciencia ha demostrado que es la mortaja de Jesucristo."
31 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Queda mucho por hacer Además de por lo comentado anteriormente, además de pensar y vivir como un escéptico, se puede actuar como tal: Según Toharia "los que hemos dado ese paso pensamos que no basta con tener una postura escéptica, sino que hay que evitar que determinados "cuentistas" sigan engañando a la gente; se trata de los que, tomando el idioma y la apariencia de la ciencia, no hacen más que propagar creencias sin fundamento racional alguno". En definitiva, se trata de combatir y someter a análisis escéptico no sólo lo paranormal, sino todo conocimiento situado en el límite del saber científico y toda afirmación que se sustente en él, en la pseudociencia o en la falsa ciencia. Así quedaba reflejado en el editorial de la primera revista de la Sociedad: "Hay que acabar con las falacias a las que se agarran los charlatanes pseudocientíficos para defender su presencia en los medios de comunicación y para no ser objeto de chanzas, la principal de las cuales es argüir que todas las ideas son respetables y tienen el mismo derecho a ser defendidas. No, no es verdad. No todas las ideas son respetables. Las idioteces no son respetables; son idioteces. Y, a veces, peligrosas. Cuando un pseudoarqueólogo aventura que algunas razas humanas descienden de extraterrestres y otras no, está haciendo un nada sutil ejercicio de racismo, y el racismo no es respetable, y hay que denunciarlo". El editorial también hacía referencia a la influencia de los pseudocientíficos a través de los poderosos medios de comunicación. En opinión de Luis Alfonso Gámez, si bien la prensa escrita ha ido retirando de sus páginas el mundo de la pseudociencia, los medios audiovisuales siguen siendo un lugar de referencia para los seguidores de lo paranormal. Queda por lo tanto mucho por hacer, sobre todo para que no ocurran casos como los de políticos que apoyan la inclusión de la homeopatía en la Sanidad Pública o que respetables Universidades recojan en sus planes de estudios seminarios, cursos o asignaturas sobre astrología.
1.4 Algunos casos en la informática HOAXES (burlas, engaños) Mensajes de solidaridad para ayudar a niños enfermos que no existen, falsas alertas de virus, dudosos métodos para hacerse millonario. Cualquier cadena es buena para recolectar direcciones de correo electrónico y saturar los servidores. Hay otros que repiten el esquema de las viejas cadenas de la suerte que recibíamos por correo postal que te auguran calamidades si cortabas la cadena y te prometen convertirte en millonario si la sigues. He recibido muchas cadenas en las que se decía "no sé si será cierto pero por las dudas yo lo reenvío". Para los temerosos, supersticiosos y magufos, la realidad es que yo he roto infinidad de cadenas y no me ha sucedido nada. Básicamente, podemos dividir los hoaxes en las siguientes categorías: * Alertas sobre virus incurables * Mensajes de temática religiosa * Cadenas de solidaridad * Cadenas de la suerte
32 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
* Leyendas urbanas * Métodos para hacerse millonario * Regalos de grandes compañías * Otros * Mensajes tomando el pelo a la gente que envía hoaxes Hay otros mensajes que no nacen como hoaxes pero pueden ser considerados como tales: * Poemas y mensajes de amor y esperanza (suelen venir en un archivo de Power Point pesadísimo). * Mensajes para unirte a programas de afiliados. * Chistes y fotos que circulan en cadena.
Enlace recomendado: Hoax. Los mitos más difundidos en Internet Algunos detalles sobre los hoaxes (Información ampliada en Rompecadenas) Características No tienen firma. Algunos invocan los nombres de grandes compañías. Piden al receptor que lo envíe a todos sus contactos. Te amenazan con grandes desgracias si no lo reenvias.
Objetivos Conseguir direcciones de mail. Congestionar los servidores. Alimentar el ego del autor.
Consecuencias Hacen perder tiempo y dinero al receptor. Congestionan los servidores. Nos llenan de publicidad y basura. Hacen perder valor a cadenas creadas por gente que realmente lo necesita.
Hoax "Virgen de Guadalupe" Este mensaje es un hoax y no debe ser reenviado. El texto es el siguiente: "Asunto: VIRGEN DE GUADALUPE No rompan la cadena, es milagrosa, pidan algo!!! Recuerden sus palabras: "No estoy yo aqui que soy tu Madre?"
33 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Carta a la Virgen de Guadalupe: Hermosa Virgen de Guadalupe, te pido en nombre de todos mis hermanos del mundo que bendigas y nos protejas. Danos una prueba de tu amor y bondad y recibe nuestras plegarias y oraciones. Oh Purisima Virgen de Guadalupe, alcanzame de tu hijo el perdon de mis pecados, bendicion para mi trabajo, remedio a mis enfermedades y necesidades, y todo lo que creas conveniente pedir para mi familia. Oh Santa Madre de Dios, no desprecies las suplicas que te dirigimos en nuestras necesidades. Queridos hermanos, antes que nada quiero decirles que la Virgen de Guadalupe es buena y milagrosa y siempre nos acompaña en cualquier lugar. Esta carta tiene como fin darle la vuelta al mundo para recibir milagros con esta hermosa cadena. Debes hacer 19 copias y repartirlas en los siguientes diez dias y a cambio recibiras una prueba de la Virgen por muy imposible que sea. Esta carta es sagrada, por favor no te burles de ella, si la recibes y la repartes antes de los 10 dias, tendras una sorpresa y una felicidad muy grande. QUE TENGAS UN BUEN DIA"
SPAM (Correo no solicitado) Todos los usuarios de correo electrónico estamos acostumbrados a recibir cada día mensajes publicitarios no solicitados. Esta práctica, aunque no es ilegal en muchos países, ya que no hay leyes que la prohiban, perjudica a todos los usuarios de internet, inclusive a quienes la realizan. Actualmente, se calcula que más del 50% de los e-mails que se envían son no solicitados, o sea, son spam. Esto quiere decir que en el momento en que estás leyendo este tema, se están enviando varios millones de e-mails no solicitados. El spam es perjudicial para todos, hasta para la empresa que lo envía. Por lo general, las direcciones son robadas o compradas. Yo mismo recibo cada día dos o tres ofertas de bases de datos con millones de direcciones de email al increible precio de US$ 35. Esta gente aclara, con gran dignidad, que no copia ni vende software. También ponen en sus mensajes (que dicho sea de paso son spam porque no son solicitados) "no compre bases truchas, todas nuestras bases cuentan con direcciones reales y activas". Aunque hay algunos spammers que te envían solamente un mensaje, también hay muchos que te bombardean todas las semanas con el mismo mensaje con archivos adjuntos sobre la necesidad de filtrar el agua de la ducha con un análisis de varias páginas, que nadie lee. De todos modos, si cada persona que abre una página web te va a enviar un mail, el correo electrónico sería absolutamente inservible. Tampoco es lógico que me envíen un mensaje en formato HTML promocionando un nuevo servicio de distribución de videos, exclusivo para la ciudad de Lima, cuando yo vivo a miles de km de distancia.
34 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Esto, además de ofrecer una imagen negativa sobre la empresa que envía el spam, muestra la poca utilidad de las bases de datos compradas. Por otro lado los spammers invocan una supuesta ley por la cual el mensaje que están enviando no puede ser considerado spam si tiene una forma de ser removido. Esto es falso, esa ley no existe. Además, la mayoría de las veces si uno contesta el mail pidiendo ser eliminado de la lista, lo único que hace es confirmar que su dirección existe. Por lo tanto, es conveniente no responder nunca a un mensaje no solicitado. Lo mejor es aplicar filtros o reglas de mensaje para evitar recibir mensajes de esas direcciones, un programa para el entorno Windows, gratuíto y muy bueno, es K9. Otra opción, es quejarse al postmaster del que envía el spam. Lo más peligroso de muchos correos no solicitados, es que pueden incluir archivos con virus o troyanos, y ser activados ya sea de forma involuntaria al intentar leerlos o incluso si se tiene un programa de correo como Outlook (de Microsoft)se activan automaticamente. Es imprescindible el tener siempre un programa antivirus y otro que detecte los troyanos, el detector de troyanos (o programas espía) más completo y gratuito es Ad-Aware, que se puede descargar de Lavasoft. Se ha de tener mucho cuidado con este tipo de programas, pues algunos eliminan los troyanos, pero ellos son otros troyanos. Un troyano reciente, Whiter.F, está diseñado para eliminar todos los archivos del disco duro. Se propaga mediante correo electrónico, redes P2P, canales de IRC o transferencias FTP. EL usuario ve un mensaje que dice "cometiste un acto de pirateria, te lo mereces" y seguidamente borra los ficheros del disco duro. La proliferación de filtros y virus se esta convirtiendo en un problema para los "spammers" profesionales. Resulta que muchos proveedores de internet impiden que los mensajes comerciales no solicitados llegen a los buzones de los usuarios. Por supuesto que no están dispuestos a ver como ese millonario negocio se derrumba y ahora han centrado sus esfuerzos en bombardear a los usuarios de las aplicaciones de mensajería instantánea. AOL IM, Yahoo Messenger, ICQ y por supuesto MSN Messenger son desde hace unas semanas un lugar donde no es raro encontrarse con un mense promocionando un producto y que no sabes como ha llegado hasta allí. Se trata de spim, durante el 2003 se enviaron 1000 millones de spims, aunque en el 2002 fueron 500 millones, según recoge en una investigación Ferris Research. Y para este año se prevén nada más ni nada menos que 4000 millones.
Juego de Palabras: 'Spam' Publicado en el suplemento cultural 'Territorios' de El Correo, 13.10.04
35 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
La lengua inglesa goza de una inventiva peculiar para crear palabras, y también de una capacidad especial para consolidarlas en el habla. Así se ha visto con "spam", el término con que ya todos los usuarios del correo electrónico denominan a los mensajes parasitarios que entran en su buzón. Hay quien piensa que la palabra es un tecnicismo de la informática formado bien mediante siglas, bien por abreviatura de otra voz más larga. Pero no nació así. "Spam" es el nombre de una marca de comida popularizada a mediados del siglo XX. Se trataba de una variedad de carne en lata, puesta en el mercado norteamericano por la empresa charcutera Hormel Foods en 1937. Sirvió de alimento a los soldados estadounidenses y rusos en la II Guerra Mundial, y en los años 50 y 60 empezó a exportarse a varios lugares del mundo. Fue entonces cuando lo que en principio se había llamado "Hormels Spiced Ham" quedó reducido a las cuatro letras de "Spam", de mayor pegada comercial. Nada de esto explicaría cómo pudo "spam" llegar a la jerga informática, ni siquiera metafóricamente, si no fuera porque los tronchantes Monty Python la usaron hasta la saciedad en un sketch de su "Flying Circus" en 1969. En él, unos vikingos entraban en una taberna y pedían la carta a la camarera, quien les recitaba una inacabable retahíla de platos... en ninguno de los cuales faltaba el "spam": «huevos con spam, spam con tomate, bacon y spam...». Al igual que el correo electrónico no querido, el spam lo invadía todo y había que tragarlo de todas formas. José María Romera
PHISHING Recientemente se han popularizado los ataques phishing. Es una estafa que utiliza mecanismos electrónicos, como puede ser un mensaje de correo o una página web, para convencer al usuario que revele información sensible, que va desde datos personales y privados hasta las claves de acceso a servicios. Los ataques phishing son posibles por la combinación de unos mecanismos débiles de protección de acceso que generalmente no son otra cosa que una simple combinación de usuario y contraseña, y la capacidad innata de las personas a revelar cualquier información a quien nos la pregunte. El método utilizado con más frecuencia en los casos de phishing masivo consiste en el envío de mensajes que simulan ser enviados por alguien sobre quien en teoría confiamos (habitualmente bancos) y donde se nos informe que, por cualquier circunstancia, es preciso revelar nuestra contraseña de usuario o bien "verificar" nuestros datos rellenando un formulario.
36 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
La experiencia demuestra que la mayoría de las personas simplemente actúa de buena fe y se cree cualquier petición de datos privados. SMISHING El SMiShing es como se denomina a un reciente tipo de delito usando técnicas de ingeniería social mediante mensajes de texto dirigidos a los usuarios de telefonía móvil celular. Las víctimas reciben mensajes cortos de texto con contenido similar a este: "Estamos confirmando que se ha dado de alta para un servicio de citas. Se le cobrarán dos euros al día a menos que cancele su petición: www.?????.com", cuando accedemos a la dirección web, las víctimas son incitados a descargar algún programa que suele ser un troyano y si operamos bajo Windows es fácil que se instale en el ordenador. Otras veces el mensaje señala un número para anular el servicio y una grabación pedirá datos personales, entre ellos un número de cuenta bancaria o tarjeta de crédito. Hay otros que avisan de que hemos recibido una foto, premio, video, tarjeta de felicitación, etc, con el mismo resultado final de ser víctima de un fraude. WEB FALSA DE RECARGAS - Es una variante del Phishing que solo busca un propósito, robar datos bancarios a los usuarios. Detrás de llamativas ofertas prometiendo recargas más económicas (habitualmente de telefonía móvil celular) se puede esconder una estafa, que lo único que busca es hacerse con información del usuario. -Este tipo de fraude puede ser algunas veces mas peligroso que el tradicional phishing, el ataque no es directo, se encuentra en los anuncios de los enlaces patrocinadores de buscadores de Internet. OFERTA FALSA DE TRABAJO SCAM O PHISHING LABORAL / MULERO El Scam es la captación de personas por medio de correos electrónicos, anuncios en web de trabajo, chats, irc, etc... donde empresas ficticias le ofrecen trabajar cómodamente desde casa y cobrando unos beneficios muy altos. Sin saberlo, la víctima esta blanqueando dinero obtenido por medio del phishing (procedente de estafas bancarias). * Siempre le piden que tenga o abra una cuenta bancaria. * Su trabajo consiste en recibir transferencias bancarias a su cuenta bancaria, sacar este dinero posteriormente para enviarlo a países extranjeros por medio de empresas tipo Western Union, Money Gram. * Frases para captar a victimas: ¿Esta usted en paro y tiene ganas de trabajar? ¿Quiere obtener un dinero extra? ¿Quiere trabajar cómodamente desde casa? ¿Quiere tener beneficios de forma rápida?. * Nos mandan un contrato (falso) para hacer mas creíble la oferta. Una vez obtenidos los datos de la victima y no colabora la victima será amenazada. PHISHING-CAR - OFERTAS FALSAS DE VEHÍCULOS
37 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Captación de compradores de coches a un coste muy bajo, la venta nunca se efectúa, esta persona realiza un pago como señal, se queda sin dinero y sin coche. - ¿Como se produce y en que consiste? Se producen por medio de llamativas ofertas en vehículos lujosos, incluso tienen web trampas con nombre de dominios muy similares a empresas con mucho prestigio que se dedican a la venta de vehículos de ocasión, pero todas los fraudes tienen algo en común: * El pago se realiza por medio de empresas de envió de dinero a otros países (Western Union, Money Gram). * El vendedor le oferta la entrega a domicilio. * En un 90% el vehículo que venden esta fuera de su país, de esta manera usted solo puede verlo en fotos. * Le piden primero el 30% o el 40% del precio ofertado como primera señal. * Captan a las victimas por medio de anuncios en web de venta de coches o de segunda mano y por supuesto la recepción de correos electrónicos. * Muchas veces el vendedor dice que es un español que vive en Gran Bretaña y por motivos laborales de estancia en el país ingles, tiene que cambiar de forma urgente de coche por que se conduce por la izquierda y su coche al estar matriculado en España el volante esta al lado contrario y no se adapta, por este motivo vende el coche de forma muy económica, te enseñan un coche matriculado en España. * La mayoría de los estafados enviaron el dinero a Reino Unido, esto no quiere decir que cambien. PHARMING Es una técnica para llevar a cabo estafas "online", aunque en muchos medios comentan que no es necesario usar ingeniería social esta definición no es totalmente cierta ya que es necesario que nuestra maquina o la remota "sea manipulada". El pharming consiste en manipular las direcciones DNS que utiliza el usuario, con el objetivo de engañarle y conseguir que las paginas que visite el usuario no sean realmente originales aunque su aspecto sea idéntico. Resumiendo desvía el tráfico de Internet de un sitio web hacia otro sitio de apariencia similar, con la finalidad de engañar a los usuarios para obtener sus nombres y contraseñas de acceso, que se registrarán en la base de datos del un sitio falso que fue creando antes y donde simula a la web que suplantan. * Hay gusanos y troyanos que realizan esta función. * La victima se entera cuando existe un movimiento extraño de dinero en sus cuentas. LOTERIAS FALSAS Falso premio de loterías, el usuario recibe un correo electrónico donde le notifican que tiene un premio de
38 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
loteria, si un usuario contesta a este correo le solicitaran a continuación todos datos bancarios para un falso ingreso del premio. En otros casos se le solicita un parte del premio que tendrá que enviarlo a un país para poder cobrar el premio completo. En todos los casos el premio es falso. (Fuentes: Ministerio de Industria, julio de 2006 y Guia Rápida sobre el Fraude en la Red. Comisión de seguridad en la red de la Asociación de Internautas a cargo de José María Luque Guerrero.") BOTNET Una botnet, o red robot, consiste en cierto número de ordenadores que, sin el conocimiento de sus propietarios, han sido infectados por código malicioso y están siendo manipulados para enviar programas maliciosos, como spam y spyware, hacia otras computadoras en Internet. Tales ordenadores, llamados bots en el argot informático, operan bajo el control de un solo hacker (o un pequeño grupo de ellos) conocido como botmaster. Una vez que el botmaster ha creado la botnet, los ataques pueden ocurrir de diferentes maneras: denegación de servicio distribuido Negación del Servicio (DDoS -Distributed Denial of Service), spam, keyloggers programas espías que capturan la actividad del teclado de los usuarios- o ataques remotos. Una de las principales estrategias de captación de atención de esta amenaza se basa en la ingeniería social. Por ejemplo, a través del envío de un mail cuyo título indica: Check out this picture! (¡Mira esta foto!) . Así, en un archivo adjunto infectado que simula ser una imagen .JPG, los hackers pueden inspeccionar en búsqueda de vulnerabilidades dentro del sistema operativo o navegador. En cuestión de segundos, la red queda infectada. Los síntomas que puede detectar el usuario para determinar si su red ha sido infectada son: 1. Lentitud anormal en su sistema. 2. Aumento en el consumo de ancho de banda. 3. Mensajes emergentes extraños.
Enlaces recomendados: Carlo M. Cipolla: estupidez humana Ccleaner, limpiador de basura en discos, bajo Windows Ad-Aware detector y limpieza de troyanos
Bibliografía recomendada: Bouvet, J.F.(dirección), Hierro en las espinacas, Taurus, Madrid, 1999 Dawkins R., Destejiendo el arco iris, Tusquets Editores, Barcelona, 2000
39 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Sagan C., El Mundo y sus Demonios, Planeta, Barcelona, 1997 Sánchez Ron J.M., Historia de la Física Cuántica, Crítica, Barcelona, 2001 Shapiro E. , Física sin matemáticas, Alhambra, Madrid, 1981
Enlaces recomendados: ARP-SAPC Sociedad para el avance del pensamiento crítico ¿Existe el método científico? La página racionalista Rompecadenas Sin dioses Maguferías en criminología Fraudes en medicina y psicología
Enlaces de interés: El nacimiento de la mecánica cuántica
Lista de citas y frases célebres:
Creer es más fácil que pensar. He ahí la razón de que hayan más creyentes. "Si la gente es buena sólo porque temen al castigo y porque esperan una recompensa, entonces verdaderamente somos un grupo lastimoso." Albert Einstein "Si ese ser es omnipotente, entonces cada ocurrencia, incluyendo cada acción humana, cada pensamiento humano y cada sentimiento y aspiración humana también es Su obra; ¿cómo es posible pensar en hacer responsable al hombre por sus actos y pensamientos ante tal Ser todopoderoso? Al dar castigo y recompensas, hasta cierto punto estaría juzgándose a Sí mismo. ¿Cómo puede combinarse esto con la bondad y justicia que se le adjudican? Albert Einstein, Out of My Later Years (New York: Philosophical Library, 1950), p. 27. "No puedo concebir un Dios que recompensa y castiga sus criaturas, o que tenga una voluntad del tipo que experimentamos en nosotros. Tampoco puedo ni quiero concebir un individuo que sobrevive a su muerte física; dejemos que los espíritus débiles, por
40 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
miedo o por egoísmo absurdo, valoren tales ideas. Yo estoy satisfecho con el misterio de la eternidad de la vida y con la consciencia y el atisbo de la maravillosa estructura del mundo existente, junto con la lucha dedicada a comprender una porción, así sea minúscula, de la Razón que se manifiesta a sí misma en la naturaleza." Albert Einstein, The World as I See It. "El comportamiento ético de un hombre debería basarse suficientemente en la simpatía, educación y los lazos y necesidades sociales; no es necesaria ninguna base religiosa. El hombre verdaderamente estaría en un pobre camino si tuviera que ser reprimido por miedo al castigo y por la esperanza de una recompensa después de la muerte." Albert Einstein, "Religion and Science", New York Times Magazine, 9 November 1930 "No creo en la inmortalidad del individuo, y considero que la ética es exclusivamente de interés humano, sin ninguna autoridad sobrehumana detrás de ella." "Albert Einstein: The Human Side", edited by Helen Dukas and Banesh Hoffman, and published by Princeton University Press. "Las bases de la moralidad no deberían ser dependientes de los mitos ni atadas a cualquier autoridad, no sea que la duda acerca del mito o de la legitimidad de la autoridad ponga en peligro la base del juicio y la acción intachables. " Albert Einstein "Si 50 millones de personas creen una tontería, sigue siendo una tontería." Anatole France Eh! supongo que somos gente horrible y realmente inmoral porque nos rehusamos a acoger la idea de un tipo grande en el firmamento que exige ser adorado y alabado todo el tiempo y que, si Ud. pertenece a la religión equivocada o no tiene religión, lo enviará a un campo de concentración subterráneo y eterno a freirse para siempre. Kel Crum Aunque se ha dicho que la fe mueve montañas, la experiencia ha demostrado que la dinamita lo hace mucho mejor. Si conoce el autor de esta cita, le agradeceré mucho si me lo hace saber. La verdad os hará libres. La mentira.. creyentes. Pepe Rodríguez. El problema con el mundo es que los estúpidos están seguros de todo y los inteligentes están llenos de dudas. Bertrand Russell Bien, la evolución es una teoría. También es un hecho. Y los hechos y las teorías son cosas distintas, no escalones en una jerarquía de certeza creciente. Los hechos son los datos acerca del mundo. Las teorías son estructuras de ideas que explican e interpretan los hechos. Los hechos no desaparecen cuando los científicos debaten teorías rivales para interpretarlos. La teoría de la gravitación de Einstein reemplazó la de Newton en este siglo, pero las manzanas no se quedaron suspendidas en el aire esperando el resultado. Y los humanos evolucionaron de ancestros simiescos ya sea por medio del mecanismo propuesto por Darwin o por otro que falte por escubrirse. Stephen Jay Gould, "Evolution as Fact and Theory" Science and Creationism, (New York: Oxford University Press, 1984), p. 118.
41 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Siempre me ha parecido que el mayor pecado de todos es "presumir conocer la mente de Dios..." David B. Stephens, Ph.D. Su artículo sobre las supercherías de los creacionistas afirma que en Alabama, todos los textos de biología ahora deben llevar adhesivos advirtiendo al lector de que la evolución es una "creencia sin probar" y "debería considerarse como (sólo) una teoría." Con miras en el juego limpio, uno asumiría que los creacionistas igualmente insisten en que estos adhesivos sean adheridos a las Biblias. John R. Harris, Carta al Editor, L.A. Times Las creencias antiguas son difíciles de erradicar incluso aunque sean demostrablemente falsas Edward O. Wilson, Consilience: The Unity of Knowledge, (First edition, New York: Alfred A. Knopf, 1998), p. 256. Cuando el cristianismo tomó el control del Imperio Romano, suprimió los escritos de sus críticos e incluso los echó a las llamas. Robert L. Wilken, The Christians As the Romans Saw Them (New Haven: Yale, 1984), p. xii. La fe ciega puede justificar lo que sea. Si un hombre cree en un dios diferente, o incluso, si usa un ritual diferente para adorar al mismo dios, la fe ciega puede decretar que debe morir - en una cruz, empalado, atravesado por la espada de un Cruzado, con un disparo en una calle de Beirut, o dinamitado en un bar en Belfast. Los memes de la fe ciega tienen sus propias formas inmisericordes de propagarse a sí mismos. Esto es cierto en la fe ciega patriótica y política al igual que en la religiosa. Richard Dawkins, The Selfish Gene (New edition, New York: Oxford University Press, 1989), p. 198. Fuente: La Página Racional
fresqui
del.icio.us
meneame
Buscar en la web Búsqueda escéptica Búsqueda en todas mis páginas
42 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 2. Ofimática Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo Divulgación Ciencia en general
1 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Biología Criminología Inicio Contacte
Introducción Openoffice (StarOffice) Editor de textos Hoja de cálculo Selecciona un texto y pulsa aquí para oírlo
2.1 Introducción La explosión informativa que se da en la actualidad (entre cuyas causas destacan la incidencia de la información en el desarrollo de la tecnología e investigación y que la sociedad demanda información) es un hecho que hace difícil discernir la información conveniente o beneficiosa, de la que supone contaminación o perjudicial, que a veces hace que se pueda decir que "no se distinga el árbol de entre el bosque". La velocidad de crecimiento, hace necesario que el tratamiento de la información, se lleve a cabo de forma automática. Como origen y causa de éste crecimiento exponencial de la información, aparece paradójicamente la solución, la informática, definida como el tratamiento de la información de forma automatizada. La informática, tan versátil y polimórfica comenzó a aplicarse a diferentes campos, empezando el uso de ordenadores en primer lugar en el ámbito militar, ocupando entonces gran espacio y consumiendo mucha energía, a través de las sucesivas generaciones, en base a los adelantos de la ciencia, fueron reduciendo su tamaño y consumo, haciéndose asequible a cualquier tipo de actividad, habiéndose extendido en la actualidad al mundo económico, empresarial y personal, siendo imprescindibles en la oficina para tener una eficaz gestión de la empresa. La fusión de los trabajos de oficina y de la informática dio lugar a la Ofimática. Se entiende como Ofimática todo lo relacionado con la organización de flujos de trabajo en oficinas, despachos, etc. y el respectivo apoyo a estos procesos mediante el ordenador. Dicho de paso, esta vez el español es más preciso que el inglés, con el nebuloso "System-engineering" y el más limitado "Business Process Re-engineering" (BOP). Hablar de la automatización de la oficina -en paralelo a la automatización de fábricas- no es correcto: en la fábrica el automatismo -el ordenador- sustituye al trabajador como dueño del proceso y lo convierte en supervisor o reparador, mientras en las oficinas las personas siguen como actores principales, apoyándose solamente para su trabajo y la coordinación del mismo en la infraestructura informática. La ofimática no trata del uso del ordenador individual, promueve la reingeniería de los procesos y sus etapas en su totalidad usando la informática como instrumento de eliminar, reducir y agilizar los mismos. No es lo mismo como la informática tradicional con su enfoque en información estandarizada, si no que parte del hecho que cada caso es diferente y requiere un tratamiento distinto, de tal forma que se pueden estandarizar solamente las formas y el proceder pero no el contenido mismo, por tanto se trasciende el modelo cliente-servidor tradicional.
2 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
En el entorno ofimático no son necesarios grandes equipos, sino que es suficiente con ordenadores personales sencillos conectados entre sí y a internet, formando redes locales entre los que se comparte información y se abaratan los costos. La ofimática de esta manera se ha convertido en algo que crece y que se usa cada vez más. La ofimática, por sus peculiares características, suministra un buen campo para ejemplificar acerca del impacto de la convergencia e integración de las tecnologías. La oficina, y por lo tanto la ofimática, que no es más que la tecnología aplicada a la oficina, es un entorno donde no existen tareas muy determinadas, entran actividades tan diversas como el tratamiento de documentos o la comunicación telefónica. En un entorno así es lógico pensar que se necesitan tecnologías combinadas, no soluciones aisladas encaminadas a resolver un problema en concreto. La ofimática ha de proporcionar herramientas que faciliten al usuario (sea éste un individuo o un grupo) la tarea a realizar. Definiciones de ofimática:
Bair (1985) La ofimática es la utilización de ordenadores en la oficina como soporte a los trabajadores de la información que no son especialistas en ordenadores. Elli y Nutt (1980). Un sistema automatizado de información para la oficina trata de realizar las tareas de la oficina tradicional por medio de sistemas de ordenadores. Hammer y Sirbu (1982). La utilización de la tecnología para mejorar la realización de funciones de oficina. Olson y Lucas (1982). La automatización de oficinas se refiere a la utilización de sistemas integrados de ordenadores y comunicaciones, como soporte a los procedimientos administrativos en un entorno de oficina.
Aplicaciones El software de ofimática comprende una serie de aplicaciones que se distribuyen de forma conjunta para ser empleadas simultáneamente en diversos sistemas. Usualmente estas herramientas de ofimática incluyen: Aplicaciones de productividad personal Administradores de bases de datos Hojas de cálculo Procesadores de textos Presentadores de ideas Gráficos
2.2 OpenOffice (StarOffice) Es un conjunto completo (suite) para oficina creado por Star Division, una empresa alemana adquirida por Sun Microsystems. Está compuesta por una serie de aplicaciones de productividad entre las que hay procesador de textos, hoja de cálculo, gestor de bases de datos, programa para crear presentaciones, programa para diseño gráfico, navegador y unos cuantos accesorios más. En sus comienzos fue muy popular en el entorno Linux, quienes podían conseguir versiones gratuitas a través de Internet, aunque Star también ofrecía versiones comerciales. Sun decidió darle un gran impulso
3 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
y adoptó la filosofia de distribuirla gratuitamente, de manera que actualmente es posible bajarla desde la web de Sun y otros muchos lugares de internet. OpenOffice está disponible en versiones para sistemas operativos: Windows, Linux, Solaris. Mac OS y OS/2. Sun también lo distribuye en un CD-ROM. La empresa en realidad no cobra por la suite sino por el costo de producir el CD y de imprimir los manuales. Esta suite de oficina, resulta muy típica en cuanto a las aplicaciones que incluye. Sin embargo lo interesante es su origen, pues fue diseñada inicialmente para el sistema operativo Linux, sin embargo tuvo tal acogida entre el público que Star Division decidió crear una versión aparte de la misma para Windows. En la actualidad no se emplea de forma intensiva con este sistema, pero según los expertos, ha logrado salir bien librada de muchas pruebas. La suite está compuesta por varias aplicaciones básicas, más una serie de accesorios bastante útiles. Los componentes del paquete son (es indistinto considerar StarOffice u OpenOffice): StarOffice Desktop: Un escritorio que se superpone al de Windows cuando se ejecuta la suite. StarOffice Writer: Procesador de textos, muy potentsuitecompatible con MS-Excel. StarOffice Impress: Herramienta para realizar presentaciones. Es compatible (no totalmente) con MS-PowerPoint. StarDraw: Aplicación para diseño gráfico. Compatible con Corel Draw y muy similar a esta herramienta. StarImage: Programa para edición de imágenes. Puede abrir archivos JPG, GIF, TIFF, BMP, etc. StarOffice Discussion: Lector para mensajes provenientes de grupos de discusión, bien desde Internet o desde la Intranet de una empresa. StarOffice Base: Sencillo gestor de bases de datos, que permite abrir y editar archivos de MS-Access y de otras bases de datos como Oracle. La nueva versión es compatibe y parecida a MS Access. StarMath: Singular aplicación que permite escribir fórmulas matemáticas StarOffice Chart: Aplicación que permite generar gráficos estadísticos, que complementa a StarOffice Calc. StarOffice Schedule: Agenda y calendario que le permite al usuario llevar control de sus actividades profesionales y personales. StarOffice Basic: Herramienta que permite crear macros para las aplicaciones principales de StarOffice. A partir del tres de mayo de 2006 el formato Open Document, con el que se almacenan los documentos escritos bajo Openoffice (o Staroffice), ha sido aprobado como estándar ISO 26300, hecho que no poseen otros editores de textos, como por ejemplo Microsoft Office. Este formato ocupa mucho menos que los tan conocidos .DOC y .RTF.
El Proyecto GNU por Richard Stallman publicado originalmente en el libro "Open Sources" La primera comunidad que comparte el software Cuando comencé a trabajar en el Laboratorio de Inteligencia Artificial del MIT en 1971, me incorporé a una comunidad que compartía el software que ya tenía varios años de existencia. El acto de compartir software no estaba limitado a nuestra comunidad en particular; es tan antiguo como las computadoras, de la misma manera que compartir recetas es tan antiguo como cocinar. Pero nosotros lo hacíamos en mayor grado que la mayoría de los otros.
4 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
El Laboratorio de IA usaba un sistema operativo denominado ITS (Incompatible Timesharing System) [Sistema incompatible de tiempo compartido] que los hackers (1) del staff habían diseñado y escrito en lenguaje ensamblador para la PDP-10 de Digital, una de las más grandes computadoras de la época. Mi trabajo como miembro de esta comunidad, como hacker de sistema en el staff del laboratorio de IA, era mejorar este sistema. No denominábamos "software libre" a nuestro software porque dicho término no existía; pero éso es lo que era. Cuando alguien de otra universidad o compañía deseaba aportar y usar un programa, lo permitíamos con gusto. Si usted veía a alguien usando un programa interesante y poco conocido, siempre se podía pedir el código fuente para verlo, de manera que uno podía leerlo, cambiarlo, o canibalizar ciertas partes del mismo para hacer un nuevo programa. (1) El uso de "hacker" para referirse al "quebrantador de la seguridad" es una confusión proveniente de los medios masivos. Nosotros los hackers nos negamos a reconocer dicho significado, y continuamos utilizando la palabra para indicar a "alguien apasionado por la programación y que disfruta al ser hábil e ingenioso". El colapso de la comunidad La situación cambió drásticamente durante la primera parte de los 1980s cuando Digital discontinuó la serie PDP-10. Su arquitectura, elegante y poderosa en los 60s, no se pudo extender naturalmente a los espacios de direccionamiento más grandes que se hicieron factibles en los 80s. Esto significó que prácticamente todos los programas que componían a ITS se volvieron obsoletos. La comunidad de hackers del laboratorio de IA ya se había colapsado, cierto tiempo antes. En 1981, la compañía derivada Symbolics había contratado a casi todos los hackers del laboratorio de IA, y la despoblada comunidad ya no era capaz de mantenerse a sí misma. (El libro Hackers, de Steve Levy, describe estos eventos, y muestra un claro panorama de esta comunidad en sus comienzos.) Cuando el laboratorio de IA adquiere una nueva PDP-10 en 1982, sus administradores deciden utilizar el sistema no libre de tiempo compartido de Digital en lugar de ITS. Las computadoras modernas de esa época, como la VAX o el 68020, tienen sus propios sistemas operativos, pero ninguno de ellos es software libre: usted debe firmar un "acuerdo de no revelar" (nondisclosure agreement) aún para obtener una copia ejecutable. Esto quiere decir que el primer paso para poder utilizar una computadora era prometer que no ayudaría a su vecino. Se prohibía la existencia de una comunidad cooperativa. La regla hecha por los dueños de software propietario era: "si usted comparte con su vecino, usted es un pirata. Si desea algún cambio, ruéguenos para que lo hagamos nosotros". La idea de que el sistema social del software propietario--el sistema que dice que usted no tiene permitido compartir o cambiar el software-- es antisocial, que no es ético, que está sencillamente equivocado, puede ser una sorpresa para algunos lectores. ¿Pero qué otra cosa podríamos decir sobre un sistema que se basa en dividir el público e impide socorrer a los usuarios? Los lectores que se sorprendan por esta idea es porque han tomado el sistema social del software propietario tal como se lo han dado, o porque lo han juzgado en función de los términos sugeridos por las empresas que hacen software propietario. Los publicadores de software han trabajado duro y parejo para convencer a las personas de que solamente hay una manera de ver este tema.
5 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Cuando los publicadores de software habla de "hacer valer" sus "derechos" o de "detener la piratería", lo que *dice* es secundario. El mensaje real de estas declaraciones está en las presunciones no declaradas que ellos dan por sentado; se supone que el público debe aceptarlas de manera acrítica. Así que examinémoslas. Una de las presunciones es que las compañías de software tienen un derecho natural incuestionable que las habilita para ser dueñas de un software, y por lo tanto a disponer de poder sobre todos los usuarios del mismo. (Si éste fuera un derecho natural, entonces sin importar cuánto daño le causare al público, no podríamos objetarlo.) De manera muy interesante, la Constitución de los Estados Unidos de América y la tradición legal rechazan esta visión; el copyright no es un derecho natural, sino un monopolio artificial impuesto por el gobierno que limita el natural derecho a copia de los usuarios. Otra presunción no declarada es que la única cosa importante sobre del software es qué trabajo le permite realizar a usted--que a nosotros los usuarios de computadoras no nos debe importar qué clase de sociedad nos permiten tener. Una tercera presunción es que no tendríamos software utilizable (o, que nunca tendríamos un programa para hacer tal o cual trabajo en particular) si no le ofrecemos a una compañía poder sobre los usuarios de dicho programa. Esta presunción puede haber sonado plausible, antes de que el movimiento por el software libre demostrara que podemos hacer abundante software útil sin ponerle cadenas. Si nos resistimos a aceptar dichas presunciones, y juzgamos acerca de estos temas sobre la base moral que nos da el sentido común ordinario y ponemos al usuario en primer lugar, arribaremos a conclusiones muy distintas. Los usuarios de computadoras deben tener libertad para modificar los programas para ajustarlos a sus necesidades, y libertad para compartir el software, porque la base de la sociedad está en ayudar a las otras personas. No se dispone aquí del espacio necesario para explayarnos en el razonamiento que hay detrás de esta conclusión, y por ese motivo pido al lector que vea la página web http://www.gnu.org/philosophy/why-free.es.html. Una elección moral severa. Al desaparecer mi comunidad, se hizo imposible continuar como antes. En lugar de ello, me enfrenté a una elección moral severa. La elección fácil era unirme al mundo del software propietario, firmar los acuerdos de no revelar, y prometer que no iría en ayuda de mi amigo hacker. Es muy probable que desarrollara software que se entregaría bajo acuerdos de no revelar y de esa manera incrementara también las presiones sobre otra gente para que traicionen a sus compañeros. Podría haber hecho dinero de esta manera, y tal vez me hubiese divertido escribiendo código. Pero sabía que al final de mi carrera, al mirar atrás a los años construyendo paredes para dividir a la gente, sentiría que usé mi vida para empeorar el mundo. Ya había estado del lado en que se reciben los acuerdos de no revelar, por experiencia propia, cuando alguien se negó a entregarme, a mí y al Laboratorio de IA del MIT, el código fuente del programa de control de nuestra impresora.(La ausencia de ciertas características en este programa hacía que el uso de la impresora fuera frustrante en extremo.) Así que no podía decirme a mí mismo que los acuerdos de no revelar son
6 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
inocentes. Me enojó mucho cuando él se negó a compartir con nosotros; no podía ahora cambiarme de lugar y hacerle lo mismo a todos los demás. Otra elección, fácil pero dolorosa, era abandonar el campo de la computación. De esta manera no se usarían mis habilidades para mal, pero aún así se desperdiciarían. Yo no sería culpable por dividir y restringir a los usuarios de computadoras, pero ello sucedería igual. Así que busqué la manera en la cual un programador podría hacer algo para bien. Me pregunté: ¿habrá algún programa o programas que yo pueda escribir, de tal manera de otra vez hacer posible una comunidad? La respuesta era clara: lo primero que se necesitaba era un sistema operativo. Este es el software crucial para empezar a usar una computadora. Con un sistema operativo usted puede hacer muchas cosas; sin uno, ni siquiera puede funcionar la computadora. Con un sistema operativo libre, podríamos tener de nuevo una comunidad de hackers cooperando--e invitar a cualquiera a unírsenos. Y cualquiera sería capaz de utilizar una computadora sin que de movida conspire a favor de la privación de sus amigas o amigos. Como desarrollador de sistema operativo, tengo las habilidades apropiadas para esa tarea. Así que aún cuando no tenía garantías de éxito, me dí cuenta que había sido elegido para hacer ese trabajo. Decidí hacer que el sistema fuese compatible con Unix pues así sería portable, y los usuarios de Unix podrían cambiarse a él con facilidad. El nombre GNU se eligió siguiendo una tradición hacker, como acrónimo recursivo para "GNU's Not Unix". Un sistema operativo es más que un núcleo, apenas suficiente para hacer funcionar otros programas. En los 1970s, todo sistema operativo digno de llamarse así incluía procesadores de órdenes, ensambladores, compiladores, intérpretes, depuradores, editores de texto, programas de correo, y muchos otros. ITS los tenía, Multics los tenía, VMS los tenía, Unix los tenía. El sistema operativo GNU también los incluiría. Más adelante escuché estas palabras, atribuídas a Hillel (1): "Si yo no me preocupo por mí mismo, ¿quién lo hará por mí? Si sólo me preocupo por mí mismo, ¿qué es lo que soy? Si no lo hago ahora, ¿cuándo?" La decisión de iniciar el proyecto GNU se basó en un espíritu similar. (1) Como ateo que soy, no soy seguidor de ningún líder religioso, pero algunas veces encuentro que admiro alguna cosa que dijo uno de ellos. Libre como en libertad El término "free software" [N. del T.: en inglés free = libre o gratis] se malinterpreta a veces--no tiene nada que ver con el precio. El tema es la libertad. Aquí, por lo tanto, está la definición de software libre: un programa es software libre, para usted, un usuario en particular, si: - Usted tiene libertad para ejecutar el programa, con cualquier propósito. - Usted tiene la libertad para modificar el programa para adaptarlo a sus secesidades. (Para que esta libertad sea efectiva en la práctica, usted debe tener acceso al código
7 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
fuente, porque modificar un programa sin disponer del código fuente es extraordinariamente dificultoso.) - Usted tiene la libertad para redistribuir copias, tanto gratis como por un cánon. - Usted tiene la libertad para distribuir versiones modificadas del programa, de tal manera que la comunidad pueda beneficiarse con sus mejoras. Como "free" [libre] se refiere a libertad y no a precio, no existe contradicción entre la venta de copias y el software libre. De hecho, la libertad para vender copias es crucial: las colecciones de software libre que se venden en CD-ROM son importantes para la comunidad, y la venta de las mismas es una manera importante de obtener fondos para el desarrollo de software libre. Por lo tanto, si la gente no puede incluir un programa en dichas colecciones, dicho programa no es software libre. A causa de la ambigüedad de "free", la gente ha estado buscando alternativas, pero nadie ha encontrado una alternativa apropiada. El idioma inglés tiene más palabras y matices que ningún otro, pero carece de una palabra simple, no ambigüa que signifique "libre", como en libertad-- "unfettered" [sin cadenas] es la palabra que más se acerca en significado. Otras alternativas como liberated [liberado], freedom [libertad] y open [abierto] tienen el significado equivocado o alguna otra desventaja. Software GNU y el sistema GNU El desarrollo de un sistema complejo es un proyecto de gran envergadura. Para ponerlo dentro de mi alcance, decidí adaptar y usar las piezas existentes de software libre siempre que fuera posible. Por ejemplo, en los mismos comienzos decidí que TeX sería el principal compaginador de texto; unos pocos años más tarde, decidí que usaría el sistema X Window, en lugar de escribir otro sistema de ventanas para GNU. A causa de esta decisión, el sistema GNU no coincide con la suma de todo el software GNU. El sistema GNU incluye programas que no son software GNU, programas que fueron desarrollados por otras personas y proyectos para sus propios propósitos, pero que nosotros podemos utilizar porque constituyen software libre. El inicio del proyecto En enero de 1984 renuncié a mi trabajo en el MIT y comencé a escribir software GNU. Era necesario abandonar el MIT, para que el MIT no interfiriera con la distribución de GNU como software libre. Si hubiese continuado como parte del staff, el MIT podría haber reclamado propiedad sobre el trabajo, y podría haber impuesto sus propios términos de distribución, o incluso podría haberlo transformado en un paquete de software propietario. Yo no tenía la intención de hacer un trabajo enorme sólo para ver que perdía la utilidad para la cual se había realizado: crear una nueva comunidad para compartir software. Sin embargo, el Profesor Winston, por entonces a cargo del Laboratorio de IA del MIT, me invitó amablemente a que continúe utilizando las instalaciones del Laboratorio. Los primeros pasos Poco después de comenzar en el proyecto GNU, escuché acerca del Free University Compiler Kit [Kit de Compilador de la Universidad Libre], también conocido como VUCK. (La palabra alemana para free comienza con una V.) Se trataba de un compilador diseñado para manejar múltiples lenguajes, C y Pascal entre ellos, y para admitir múltiples máquinas destino. Le escribí a su autor para consultarle si GNU lo podría usar.
8 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Él me respondió burlonamente, dejando en claro que la universidad era libre, pero el compilador no. Por lo tanto, decidí que mi primer programa para el proyecto GNU sería un compilador multilenguaje, multiplataforma. Con la esperanza de evitar tener que escribir todo el compilador por mí mismo, obtuve el código fuente del compilador Pastel, que era un compilador multiplataforma desarrollado en el "Lawrence Livermore Lab". Admitía, y estaba escrito en una versión extendida de Pascal, diseñada para usarse como lenguaje de programación a nivel de sistema. Le agregué un front end para C, y comencé a transportarlo a la computadora Motorola 68000. Pero tuve que abandonar la idea al descubrir que el compilador necesitaba varios megabytes de espacio en la pila, y los sistemas Unix basados en 68000 sólo permitían 64 kbytes. Fue entonces cuando me dí cuenta que el compilador Pastel funcionaba analizando el fichero de entrada completo y transformándolo en un árbol sintáctico, luego convertía todo el árbol sintáctico en una cadena de "instrucciones" y luego generaba el fichero entero de salida, y en ningún momento liberaba el espacio ocupado. En ese momento llegué a la conclusión de que debería escribir un nuevo compilador partiendo desde cero. Ese nuevo compilador se conoce ahora como GCC; no hay nada del compilador Pastel en él, pero me las arreglé para adaptar y usar el front end que había hecho para C. Pero eso pasó unos años más tarde; primero, trabajé sobre GNU Emacs. GNU Emacs Comencé a trabajar sobre GNU Emacs en setiembre de 1984, y al principio de 1985 ya empezaba a ser usable. Esto me permitió usar sistemas Unix para las tareas de edición; como no tenía ningún interés en aprender a usar vi o ed, había realizado mis tareas de edición en otras clases de máquinas hasta ese momento. A estas alturas, la gente comenzó a querer usar Emacs, con lo que apareció el tema de cómo distribuirlo. Por supuesto, lo puse en el servidor de FTP anónimo de la computadora del MIT que usaba. (Esta computadora, prep.ai.mit.edu, se transformó a causa de ello en la sede principal de distribución a través de FTP de GNU; cuando fue decomisada unos años después, transferimos el nombre a nuestro nuevo servidor FTP.) Pero en aquella época, mucha gente interesada no estaba en Internet y no podía obtener una copia por FTP. Así que la pregunta era: ¿qué tendría que decirles a ellos? Podría haber dicho, "Busque un amigo que esté en la red y que haga una copia para usted". O podría haber hecho lo que hice con el Emacs para PDP-10 original, decirles: "Envíeme por correo una cinta y un sobre con su dirección y los sellos de correo necesarios, y yo le devolveré la cinta con Emacs dentro". Pero no tenía trabajo, y estaba buscando de qué manera podía hacer dinero con el software libre. Entonces anuncié que le enviaría la cinta a quien me la pidiera, mediante el pago de un cánon de $150. De esta manera, inicié un negocio de distribución de software libre, el precursor de las compañías que en la actualidad distribuyen completos sistemas GNU basados en Linux. ¿Es libre el programa para cualquier usuario? Si un programa es software libre cuando abandona las manos de su autor, esto no significa que será software libre para todos los que tienen una copia de él. Por ejemplo, el software de dominio público (software que no está sujeto al copyright de nadie) es software libre; pero cualquiera puede hacer una versión modificada propietaria a partir de él. En ese mismo sentido, muchos programas libres están sujetos a copyright pero se distribuyen mediante sencillas licencias permisivas que admiten las versiones modificadas propietarias. El ejemplo paradigmático de este problema es el X Window System. Desarrollado en el
9 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
MIT, y entregado como software libre con un licencia permisiva, fue rápidamente adoptado por varias compañías de computación. éstas agregaron X a sus sistemas Unix propietarios, sólo en formato binario, y lo cubrieron con el mismo acuerdo de no revelar. Estas copias de X eran tanto (software) libres en cuanto lo era el Unix. Los desarrolladores del X Window System no consideraban que esto fuese un problema--esperaban y buscaban que esto sucediese. Su meta no era la libertad, sólo el "éxito", definido como "tener muchos usuarios". No les preocupaba si esos usuarios tenían libertad, sólo que sean numerosos. Esto nos lleva a una situación paradójica en la cual dos maneras distintas de contabilizar la cantidad de libertad dan por resultado dos respuestas distintas a la pregunta "¿Es libre este programa?". Si usted juzga en base a la libertad que se proporcionaba con los términos de distribución de la entrega del MIT, diría que X es software libre. Pero si usted mide la libertad del usuario promedio de X, diría que X es software propietario. La mayoría de los usuarios de X usan las versiones propietarias que vienen con los sistemas Unix, no la versión libre. Copyleft y la GNU GPL La meta de GNU era dar libertad a los usuarios, no sólo popular. Por lo tanto, debíamos usar términos de distribución que impidieran que el software GNU se transformara en software propietario. El método que utilizamos se denomina "copyleft".(1) El copyleft usa la ley de copyright, pero la da vuelta para servir a lo opuesto de su propósito usual: en lugar de ser un medio de privatizar el software, se transforma en un medio de mantener libre al software. La idea central del copyleft es que le damos a cualquiera el permiso para correr el programa, copiar el programa, modificar el programa y redistribuir versiones modificadas--pero no le damos permiso para agregar restricciones propias. De esta manera, las libertades cruciales que definen al "software libre" quedan garantizadas para cualquiera que tenga una copia; se transforman en derechos inalienables. Para que el copyleft sea efectivo, las versiones modificadas deben ser también libres. Esto asegura que todo trabajo basado en el nuestro quedará disponible para nuestra comunidad si se publica. Cuando los programadores que tienen trabajo como programadores se ofrecen como voluntarios para mejorar un software GNU, es el copyleft lo que impide que sus empleadores digan: "no puede compartir esos cambios, porque los queremos usar para hacer nuestra versión propietaria del programa". El requerimiento de que los cambios deben ser libres es esencial si queremos asegurar la libertad para cada usuario del programa. Las compañías que privatizaron el X Window System en general realizaron algunos cambios para transportarlo a sus sistemas y hardware. Estos cambios fueron pequeños comparados con el gran tamaño de X, pero no fueron triviales. Si el hacer cambios fuera una excusa para negar libertad a los usuarios, sería fácil para cualquiera tomar ventaja de la excusa. Un tema relacionado trata la combinación de un programa libre con código no libre. Tal combinación será inevitablemente no-libre; cualesquiera libertades que falten a la parte no-libre, le faltarán también al todo. Si se permiten tales combinaciones se abriría un agujero lo suficientemente grande como para hundir el barco. Por ello, un requerimiento crucial para el copyleft es que se tape este hoyo: cualquier cosa agregada a o combinada con un programa bajo copyleft debe ser tal que la versión combinada total sea también
10 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
libre bajo copyleft. La implementación específica de copyleft que usamos para la mayoría del software GNU es la Licencia Pública General de GNU (GNU General Public License) o LPG GNU para abreviar. Tenemos otras clases de copyleft que se usan en circunstancias específicas. Los manuales GNU también están bajo copyleft, pero utilizamos un copyleft mucho más simple, porque no es necesaria la complejidad de la LPG GNU para los manuales. (1) En 1984 o 1985, Don Hopkins (un compañero muy imaginativo) me envío una carta por correo. En el sobre, escribió varios dichos divertidos, entre ellos éste: "Copyleft--all rights reversed" [Copyleft--todos los derechos "reversados"]. Utilicé la palabra "copyleft" para denominar al concepto dedistribución que estaba desarrollando en esa época. La Fundación para el Software Libre A medida que el interés en el uso de Emacs crecía, otras personas se involucraron en el proyecto GNU, y decicimos que era el momento de buscar fondos nuevamente. Por ello en 1985 creamos la "Free Software Foundation" [Fundación para el Software Libre--FSL], una organización de caridad libre de impuestos para el desarrollo del software libre. La FSL también acaparó el negocio de distribución en cinta de Emacs; más adelante lo extendió al agregar otros productos de software libre (tanto GNU como no-GNU) a la cinta, y con la venta de manuales libres. La FSL acepta donaciones, pero la mayoría de sus ingresos han provenido siempre de las ventas--de copias de software libre, y otros servicios relacionados. En la actualidad vende CD-ROMs de código fuente, CD-ROMs con binarios, manuales agradablemente impresos (todos con libertad para redistribuir y modificar), y las Distribuciones De Lujo (en las cuales incorporamos toda la colección de software lista para usar en la plataforma de su elección). Los empleados de la Fundación para el Software Libre han escrito y mantenido una cantidad de paquetes de software GNU. Dos notables casos son la biblioteca C y el shell. La biblioteca C de GNU es lo que usa todo programa que corre en un sistema GNU/Linux para comunicarse con Linux. Fue desarrollada por un miembro del staff de la Fundación para el Software Libre, Roland McGrath. El shell que se usa en la mayoría de los sistemas GNU/Linux es BASH, el Bourne Again SHell(1), que fue desarrollado por Brian Fox, empleado de la FSL. Hemos provisto los fondos para el desarrollo de esos programas porque el proyecto GNU no se queda solamente en herramientas o un entorno de desarrollo. Nuestra meta era tener un sistema operativo completo, y esos programas eran necesarios para esa meta. (1) "Bourne again shell" es una broma sobre el nombre "Bourne Shell", que era el shell usual en Unix. Asistencia para el Software Libre La filosofía del software libre rechaza una práctica específica de negocio ampliamente difundida, pero no está contra el negocio. Cuando los negocios respetan la libertad de los usuarios, les deseamos éxito. La venta de copias de Emacs demostró una clase de negocio con software libre. Cuando la FSL se apropió de ese negocio, necesité de otro medio de vida. Lo encontré en la venta de servicios relacionados con el software libre que había desarrollado. Esto incluía la enseñanza, sobre temas tales como cómo programar GNU Emacs, y cómo personalizar GCC, y desarrollo de software, en la mayor parte transportar GCC a otras plataformas.
11 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
En la actualidad cada una de esas clases de negocios con software libre está puesta en práctica por una cantidad de corporaciones. Algunas distribuyen colecciones de software libre en CD-ROM; otras venden asistencia en niveles que van desde responder preguntas de usuarios, reparación de errores, hasta el agregado de nuevas características mayores. Incluso estamos viendo compañías de software libre basadas en el lanzamiento de nuevos productos de software libre. Aunque, tenga cuidado--una cantidad de compañías que se asocian a sí mismas con el término "open source" en realidad basan su negocio en software no-libre que trabaja con software libre. Ellas no son compañías de software libre, sino compañías de software propietario cuyos productos tientan a los usuarios a abandonar su libertad. Ellas usan la denominación "valor agregado" lo que refleja los valores que desearían que adoptemos: conveniencia por encima de libertad. Si valoramos más la libertad, deberíamos denominarlos productos con "libertades usstraídas". Metas técnicas La meta principal de GNU era el software libre. Aún en el caso que GNU no tuviese ventajas técnicas sobre Unix, tendría una ventaja social, al permitir cooperar a los usuarios, y una ventaja ética, al respetar la libertad de los usuarios. Pero era natural que se apliquen los estándares conocidos de buenas prácticas al trabajo--por ejemplo, reservar dinámicamente las estructuras de datos para evitar límites de tamaño fijo arbitrarios, y manejar todos lo posibles códigos de 8 bits cuando tuviese sentido. Además, rechazamos el enfoque de Unix para pequeños tamaños de memoria, al decidir que no trabajaríamos para máquinas de 16 bits (era claro que las máquinas de 32 bits serían la norma para cuando el sistema GNU estuviese terminado), y al no hacer ningún esfuerzo para reducir el uso de memoria, a menos que excediera el megabyte. En los programas para los cuales no era crucial el manejo de ficheros muy grandes, incentivamos a los programadores a leer el fichero completo en memoria, y luego explorar su contenido, sin tener que preocuparse por la E/S. Estas decisiones permitieron que muchos programas GNU sobrepasaran a sus contrapartidas UNIX en confiabilidad y velocidad. Computadoras donadas A medida que la reputación del proyecto GNU crecía, la gente comenzó a ofrecer al proyecto donaciones de máquinas con UNIX corriendo. Fueron muy útiles porque la manera más fácil de desarrollar componentes de GNU era hacerlo en un sistema UNIX, y luego ir reemplazando los componentes del sistema uno a uno. Pero ellas trajeron una cuestión ética: si era correcto para nosotros siquiera tener una copia de UNIX. UNIX era (y es) software propietario, y la filosofía del proyecto GNU dice que no debemos usar software propietario. Pero, aplicando el mismo razonamiento que lleva a la conclusión que la violencia en defensa propia está justificada, concluí que era legítimo usar un paquete propietario cuando ello era crucial para desarrollar un reemplazo libre que ayudaría a otros a dejar de usar el paquete propietario. Pero, aún cuando esto era un mal justificable, era todavía un mal. En la actualidad ya no tenemos más copias de Unix, porque las hemos reemplazado por sistemas operativos libres. En los casos en que no pudimos reemplazar el sistema operativo de una máquina por uno libre, se procedió al reemplazo de la máquina.
12 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
La lista de tareas de GNU A medida que proseguía el proyecto GNU, se desarrollaron o encontraron una cantidad creciente de componentes, y eventualmente se vio la utilidad de hacer una lista con los huecos faltantes. La usamos para reclutar desarrolladores para escribir las piezas faltantes. Esta lista comenzó a conocerse como la lista de tareas de GNU. Además de los componentes Unix faltantes, agregamos a la lista otros útiles proyectos de software y documentación que, de acuerdo a nuestra visión, debe tener un sistema verdaderamente completo. En la actualidad, casi ningún componente Unix queda en la lista de tareas GNU--esos trabajos ya han sido terminados, fuera de algunos no esenciales. Pero la lista está llena de proyectos que algunos pueden denominar "aplicaciones". Cualquier programa que sea atrayente a más de una estrecha franja de usuarios sería una cosa útil para añadir a un sistema operativo. Aún los juegos están incluídos en la lista de tareas--y han estado desde el principio. Unix incluía juegos, así que GNU debía incluirlos también. Pero la compatibilidad no es un problema para los juegos, así que no seguimos la lista de juegos que Unix tenía. En lugar de ello, listamos un espectro de diferentes clases de juegos que les podrían gustar a los usuarios. La LPG para Bibliotecas de GNU La biblioteca C de GNU usa una clase especial de copyleft denominada "GNU Library General Public License" [Licencia Pública General para Bibliotecas de GNU] que da permiso para enlazar software propietario con la biblioteca. ¿Porqué hacer esta excepción? No es una cuestión de principios; no hay ningún principio que diga que debemos incluir código de los productos de software propietario. (¿Porqué contribuir con un proyecto que se rehusa a compartir con nosotros?) El uso de la LPGB para la biblioteca C, o para cualquier otra biblioteca, es un tema de estrategia. La biblioteca C hace un trabajo genérico; todo sistema propietario o compilador viene con una biblioteca C. Por lo tanto, el hacer que nuestra biblioteca esté sólo disponible para el software libre, no le daría al software libre ninguna ventaja--sólo hubiera desalentado el uso de nuestra biblioteca. HAy un sistema que es una excepción a esto: en un sistema GNU (y esto incluye los sistemas GNU/Linux), la biblioteca C de GNU es la única biblioteca C. Así que los términos de distribución de la biblioteca C de GNU determinan si es posible compilar un programa propietario para un sistema GNU. No hay ninguna razón ética para permitir aplicaciones propietarias en un sistema GNU, pero estratégicamente parece que si no se permite, ello hará más para desalentar el uso del sistema GNU que para alentar el desarrollo de aplicaciones libres. Por estas razones es que el uso de la LPG para Bibliotecas es una buena estrategia para la biblioteca C. Para otras bibliotecas, la decisión estratégica necesita considerarse en cada caso particular. Cuando una biblioteca hace un trabajo especial que puede ayudar a escribir cierta clase de programas, y luego entregarla bajo la LPG, limitándola sólo a programas libres, es una manera de ayudar a otros desarrolladores de software libre, al proporcionarles una ventaja contra el software propietario. Considere la GNU Readline, una biblioteca desarrollada para proporcionar la edición en la línea de órdenes para BASH. Readline se entrega bajo la LPG GNU ordinaria, no bajo
13 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
la LPG para Bibliotecas. De esta manera probablemente se reduce la cantidad de uso de Readline, pero eso no significa pérdida para nosotros. Mientras tanto, al menos una útil aplicación se ha transformado en software libre específicamente para poder usar Readline, y ésa es una ganancia real para nuestra comunidad. Los desarrolladores de software propietario tienen las ventajas que el dinero proporciona; los desarrolladores de software libre necesitan crear ventajas entre sí. Tengo la esperanza de que algún día tendremos una gran colección de bibliotecas cubiertas por LPG que no tengan parangón entre el software propietario, que proporcionen útiles módulos que sirvan como bloques constructivos en nuevo software libre, y que sumen una mayor ventaja para adelantar el desarrollo de software libre. ¿Rascarse una comezón? Eric Raymond dice que "Todo buen trabajo de software comienza con un desarrollador rascándose una comezón personal". Puede que ocurra algunas veces, pero muchas de las piezas esenciales de software GNU se desarrollaron a los fines de tener un sistema operativo libre completo. Vinieron desde una visión y un plan, no desde el impulso. Por ejemplo, desarrollamos la biblioteca C de GNU porque un sistema del estilo Unix necesita una biblioteca C, el shell Bourne-Again (bash) porque un sistema del estilo Unix necesita un shell, y el tar GNU porque un sistema del estilo Unix necesita un programa tar. Lo mismo se aplica a mis propios progamas--el compilador GNU C, GNU Emacs, GDB y GNU Make. Algunos de los programas GNU se desarrollaron para tratar amenazas específicas a nuestra libertad. Por ello, desarrollamos gzip para reemplazar al programa Compress, perdido para nuestra comunidad a causa de las patentes LZW. Proporcionamos fondos para desarrollar LessTif, y más recientemente iniciamos GNOME y Harmony, para lidiar con los problemas causados por cierta biblioteca propietaria (vea más abajo). Estamos desarrollando el GNU Privacy Guard para reemplazar un software popular de cifrado no-libre, porque los usuarios no deben verse obligados a elegir entre privacidad y libertad. Por supuesto, la gente que escribe estos programas se interesa en el trabajo, y varias personas han agregado muchas características para satisfacer sus propias necesidades e intereses. Pero ése no es el motivo por el cual existe el programa. Desarrollos inesperados Al comienzo del proyecto GNU, imaginé que desarrollaríamos el sistema GNU completo, y luego lo entregaríamos completo. No es así como ha sucedido. Como cada componente de un sistema GNU se implementó en un sistema Unix, cada componente podía correr en sistemas Unix, mucho antes de que existiera un sistema GNU completo. Algunos de esos programas se hicieron populares, y los usuarios comenzaron a extenderlos y transportarlos--a las distintas versiones incompatibles de Unix, y algunas veces a otros sistemas también. El proceso hizo que dichos programas sean más potentes, y atrayeran tanto fondos como contribuyentes al proyecto GNU. Pero también demoró el completamiento de un sistema mínimo en funciones por varios años, a medida que el tiempo de los desarrolladores GNU se usaba para mantener esos transportes y en agregar características a los componentes existentes, en lugar de adelantar la escritura de los componentes faltantes.
14 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
El GNU Hurd En 1990, el sistema GNU estaba casi completo; el único componente importante faltante era el núcleo. Decidimos implementar nuestro núcleo como una colección de procesos servidores corriendo sobre Mach. Mach es un micronúcleo desarrollado en Carnegie Mellon University y luego en la University of Utah; el GNU HURD es una colección de servidores (o "manada de ñus") que corren sobre Mach, y se ocupan de las tareas del núcleo Unix. El inicio del desarrollo se demoró mientras esperábamos que Mach se entregue como software libre, tal como se había prometido. Una razón para elegir este diseño había sido evitar lo parecía ser la parte más dura del trabajo: depurar el núcleo sin un depurador a nivel de código fuente para utilizar. Esta parte del trabajo ya había sido hecha en Mach, y esperábamos depurar los servidores HURD como programas de usuario, con GDB. Pero llevó un largo tiempo hacer esto posible, y los servidores multihilo que se envían mensajes unos a otros han sido muy difíciles de depurar. Hacer que HURD trabaje sólidamente se ha tardado varios años. Alix El núcleo GNU no se iba a llamar originalmente el HURD. Su nombre original era Alix--denominado así a partir de una mujer que era mi amor de aquella época. Ella era administradora de sistema Unix y había hecho notar que su nombre seguía el patrón de nomenclatura común a las versiones de sistema Unix; a modo de broma, le dijo a sus amigos, "Alguien debería darle mi nombre a un núcleo". Yo no dije nada, pero decidí sorprenderla con un núcleo llamado Alix. No se dió de esa manera. Michael Bushnell (ahora Thomas), el principal desarrollador del núcleo, prefirió el nombre HURD, y redefinió Alix para referirse a cierta parte del núcleo--la parte que captura las llamadas del sistema y las gestiona por medio del envío de mensajes a los servidores HURD. Más tarde, Alix y yo nos separamos, y ella cambió su nombre; independientemente, el diseño de HURD se cambió para que la biblioteca C envíe los mensajes directamente a los servidores, y esto hizo que el componente Alix desapareciera del diseño. Pero antes que estas cosas sucedieran, un amigo de ella encontró el nombre Alix en el código fuente de HURD, y se lo mencionó. Así que el nombre cumplió su objetivo. Linux y GNU/Linux El GNU HURD no está listo para el uso en producción. Afortunadamente, está disponible otro núcleo. En 1991, Linus Torvalds desarrolló un núcleo compatible con Unix y lo denominó Linux. Cerca de 1992, al combinar Linux con el sistema no tan completo de GNU, resultó en un sistema operativo libre completo. (La combinación en sí misma dió un considerable trabajo.) Es gracias a Linux que podemos ver funcionar un sistema GNU en la actualidad. Denominamos a esta versión GNU/Linux, para expresar su composición como combinación de un sistema GNU con Linux como núcleo. Desafíos en nuestro futuro Hemos probado nuestra capacidad para desarrollar un amplio espectro de software libre. Esto no significa que somos invencibles o que nada nos puede detener. Muchos desafíos hacen que el futuro del software libre sea incierto; estar a la altura de los mismos requerirá esfuerzos firmes y resistencia, algunas veces durante años. Requerirá la clase de determinación que la gente muestra cuando valora su libertad y no deja que nadie se la quite. Las siguientes cuatro secciones discuten dichos desafíos.
15 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Hardware secreto Los fabricantes de hardware tienden cada vez más a mantener las especificaciones de hardware secretas. Esto hace difícil la escritura de controladores libres, y de esa manera, que Linux y XFree86 puedan admitir nuevo hardware. Tenemos sistemas libres completos por hoy, pero no los tendremos mañana si no podemos usar las computadoras del mañana. Existen dos maneras de lidiar con este problema. Los programadores pueden hacer ingeniería reversa para darse cuenta como usar el hardware. El resto de nosotros puede elegir el hardware que admite software libre; a medida que nuestro número crezca, el secreto de las especificaciones se transformará en una política contraproducente. La ingeniería reversa es un trabajo enorme; ¿tendremos los programadores con la suficiente determinación para realizarla? Sí--si hemos construído un fuerte sentimiento de que el software libre es un tema de principio, y de que los controladores no libres son intolerables. ¿Y una gran cantidad de nosotros estará dispuesto a gastar dinero extra, o incluso tiempo extra, para que podamos usar controladores libres? Sí, si se difunde la determinación para tener libertad. Bibliotecas no libres Una biblioteca no libre que corre sobre un sistema operativo actúa como una trampa para los desarrolladores de software libre. Las características atractivas de la biblioteca son el cebo; si usted usa la biblioteca, cae en la trampa, porque su programa no puede ser parte útil de un sistema operativo libre. (Estrictamente hablando, podemos incluir su programa, pero no funcionará sin la biblioteca faltante.) Peor aún, si el programa que usa la biblioteca se hace popular, puede hacer caer a otros programadores incautos dentro de la trampa. La primer instancia de este problema fue el kit de herramientas Motif, allá en los 80s. Aunque aún no había sistemas operativos libres, era claro el problema que Motif iba a causarles más adelante. El proyecto GNU respondió de dos maneras: solicitando a los proyectos individuales de software libre que admitan tanto los widgets del kit libre de herramientas de X como el de Motif, y solicitando a alguien que escriba un reemplazo libre para Motif. El trabajo tomó varios años; LessTif, desarrollado por Hungry Programmers [Programadores hambrientos] tomó la potencia necesaria como para admitir la mayoría de las aplicaciones Motif recién en 1997. Entre 1996 y 1998, otra biblioteca kit de herramientas GUI no libre, denominada Qt, se usó en una sustancial colección de software libre: el escritorio KDE. Los sistemas libres GNU/Linux no podían usar KDE, porque no podíamos usar la biblioteca. Sin embargo, algunos distribuidores comerciales de sistemas GNU/Linux que no eran tan estrictos al adherirse al software libre, agregaron KDE a sus sistemas--produciendo un sistema con más capacidades, pero menos libertad. El grupo KDE instaba activamente a más programadores a usar Qt, y millones de nuevos "usuarios de Linux" nunca escucharon la idea de que había un problema con esto. La situación se presentaba lúgubre. La comunidad del software libre respondió a este problema de dos maneras: GNOME y Harmony. GNOME, el GNU Network Object Model Environment [Entorno Modelo de Objetos en Red de GNU], es el proyecto de escritorio de GNU. En 1997 Miguel de Icaza lo inició, y se desarrolló con aporte de Red Hat Software, para proporcionar capacidades de escritorio similares, pero usando sólo software libre. Tiene también ventajas técnicas,
16 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
tales como admitir una variedad de lenguajes, no sólo C++. Pero su propósito principal fue la libertad: evitar el uso de cualquier software no libre. Harmony es una biblioteca de reemplazo compatible, diseñada para poder hacer funcionar el software KDE sin usar Qt. En noviembre de 1998, los desarrolladores de Qt anunciaron un cambio de licencia, que cuando se lleve a cabo, hará que Qt sea software libre. No hay manera de estar seguro, pero pienso que esto ocurrió en parte debido a la firme respuesta de la comunidad frente al problema que presentaba Qt cuando no era libre. (La nueva licencia es inconveniente e injusta, así que aún es deseable evitar su uso.) ¿Cómo responderemos a la siguiente biblioteca no libre que nos tiente? ¿Comprenderá la totalidad de la comunidad la necesidad de mantenerse fuera de la trampa? ¿Alguno de nosotros entregará libertad por conveniencia, y generará un importante problema? Nuestro futuro depende de nuestra filosofía. Patentes de software La peor amenaza que enfrentamos proviene de las patentes de software, que pueden colocar a algoritmos y características fuera de los límites del software libre hasta por veinte años. Las patentes del algoritmo de compresión LZW se solicitaron en 1983, y hasta ahora no podemos entregar software libre que produzca GIFs adecuadamente comprimidos. En 1998, se tuvo que quitar de una distribución un programa libre para producir audio comprimido MP3 a causa de la amenaza de un juicio por patente. Existen maneras de tratar con las patentes: podemos buscar evidencia de que la patente no es válida, y podemos buscar maneras alternativas de realizar el trabajo. Pero cada uno de estos métodos trabaja sólo ciertas veces; cuando ambos fallan, una patente puede forzar a que todo software libre carezca de alguna característica que los usuarios desean. ¿Qué haremos cuando esto suceda? Aquellos de nosotros que valoremos el software libre por la libertad nos apegaremos al software libre de cualquier manera. Nos las arreglaremos para tener nuestro trabajo realizado sin las características patentadas. Pero aquellos que valoren el software libre porque esperan que sea técnicamente superior, cuando las patentes lo obliguen a mantenerse atrás, es más probable que piensen que se trata de una falla. Por lo tanto, si bien es útil hablar acerca de la efectividad práctica del modelo "catedral" de desarrollo, y de la confiabilidad y potencia de cierto software libre, no debemos detenernos allí. Debemos hablar acerca de libertad y principio. Documentación libre La mayor deficiencia en nuestro sistema operativo libre no está en el software-- es la falta de buenos manuales libres que podamos incluir en nuestros sistemas. La documentación es una parte esencial de cualquier paquete de software; cuando un paquete importante de software libre no viene con un buen manual libre, ése es un hueco importante. Tenemos muchos de esos huecos en la actualidad. La documentación libre, como el software, es un tema de libertad, no de precio. El criterio para un manual libre es muy parecido al del software libre: es una cuestión de otorgar a los usuarios ciertas libertades. La redistribución (incluso la venta comercial) debe estar permitida, en línea y en papel, de tal manera que el manual pueda acompañar a cada copia del programa. El permiso para modificarlo es también crucial. Como regla general, no creo que sea
17 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
esencial que las personas tengan permiso para modificar toda clase de artículos y libros. Por ejemplo, no creo que usted o yo estemos obligado a dar permiso para modificar artículos como este, que describe nuestras acciones y nuestra visión. Pero existe una razón particular debido a la cual la libertad para modificar la documentación es crucial para el software libre. Cuando la gente ejercita su derecho a modificar el software, y agrega o cambia características, si son concientes también cambiarán el manual--así proporcionarán documentación precisa y útil con el programa modificado. Un manual que no permite a los programadores ser concientes y terminar el trabajo, no satisface las necesidades de nuestra comunidad. La existencia de algunas clases de límites acerca de cómo se deben hacer las modificaciones no implica problemas. Por ejemplo, el requerimiento de preservar el aviso de copyright del autor original, los términos de distribución, o la lista de autores, están bien. Tampoco trae problemas requerir que la versión modificada incluya un aviso de que fue modificada, e incluso que haya secciones completas que no puedan borrarse o cambiarse siempre y cuando dichas secciones traten temas que no sean de índole técnica. Estas clases de restricciones no son un problema porque no impiden al programador conciente que adapte el manual para ajustarlo al programa modificado. En otras palabras, no impiden a la comunidad del software libre la completa utilización del manual. Sin embargo, debe ser posible modificar todo el contenido *técnico* del manual, y luego distribuir el resultado en todos los medios usuales, a través de todos los canales usuales; si esto no es así, las restricciones obstruyen la comunidad, el manual no es libre, y necesitaremos otro maual. ¿Será que loa desarrolladores de software libre tendrán la conciencia y determinación para producir un espectro completo de manuales? Una vez más, nuestro futuro depende de nuestra filosofía. Debemos hablar acerca de la libertad En la actualidad se estima que hay unos diez millones de usuarios de sistemas GNU/Linux, tales como el Debian GNU/Linux y Red Hat Linux. El software libre ha desarrollado ciertas ventajas prácticas que hacen que los usuarios estén congregándose hacia allí por razones puramente prácticas. Las buenas consecuencias de esto son evidentes: mayor interés en el desarrollo de software libre, más clientes para empresas de software libre, y mayor capacidad para animar a las compañías a que desarrollen productos de software libre, en lugar de productos de software propietario. Pero el interés en el software crece más rápido que la conciencia acerca de la filosofía sobre la cual está basado, y esto crea problemas. Nuestra capacidad de enfrentar los desafíos y amenazas que se describieron más arriba depende de la voluntad de mantenerse firmes del lado de la libertad. Para asegurarnos de que nuestra comunidad tiene esta voluntad, necesitamos esparcir la idea entre los nuevos usuarios a medida que ellos llegan a nuestra comunidad. Pero estamos fracasando en esto: los esfuerzos realizados para atraer nuevos usuarios a nuestra comunidad sobrepasan por lejos a los esfuerzos dedicados a la enseñanza cívica acerca de nuestra comunidad. Necesitamos hacer ambas cosas, y es necesario que mantengamos ambos esfuerzos balanceados. "Open Source" La enseñanza acerca de la libertad a los nuevos usuarios se hizo más
18 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
difícil en 1998, cuando una parte de la comunidad decidió dejar de usar el término "software libre" y usar "open source software" en su lugar. Algunos de los que favorecieron este término tenían como objetivo evitar la confusión de "free" con "gratis"--una meta válida. Otros, sin embargo, apuntaban a apartar el espíritu de principio que ha motivado el movimiento por el software libre y el proyecto GNU, y resultar así atractivos a los ejecutivos y usuarios comerciales, muchos de los cuales sostienen una ideología que pone las ganancias por encima de la libertad, de la comunidad, y de los principios. Por lo tanto, la retórica de "open source" se centra en el potencial de realización de potente software de alta calidad, pero esquiva las ideas de libertad, comunidad y principio. Las revistas sobre "Linux" son un claro ejemplo de esto--están llenas de propagandas acerca de software propietario que funciona sobre GNU/Linux. Cuando aparezca la próxima Motif o Qt, ¿incentivarán estas revistas a los programadores a apartarse de ellas, o pondrán propagandas de las mismas? El apoyo de las empresas puede contribuir a la comunidad de varias maneras; si todo lo demás se mantiene igual, esto es útil. Pero si ganamos su apoyo mediante el recurso de hablar menos de libertad y principio esto puede ser desastroso; hace que empeore el desbalance previo entre el alcance y la educación cívica. "Software libre" y "open source" describen la misma categoría de software, más o menos, pero dicen diferentes cosas acerca del software, y acerca de los valores. El proyecto GNU continúa utilizando el término "free software" [software libre] para expresar la idea de que la libertad, no solamente la tecnología, es lo importante. ¡Pruébelo! La filosofía de Yoda ("No hay 'para probar'") suena linda, pero no funciona conmigo. He realizado la mayor parte de mi trabajo con ansiedad por saber si podría llevarlo a cabo, y con la inseguridad de que no sería suficiente alcanzar la meta si lo lograba. Pero lo intenté igual, porque no había otro entre el enemigo y mi ciudad. Para mi propia sorpresa, algunas veces he tenido éxito. Algunas veces he fallado; algunas de mis ciudades han caído. Luego he encontrado otra ciudad amenazada, y me preparé para otra batalla. A lo largo del tiempo, aprendí a buscar las amenazas y ponerme entre ellas y la ciudad, y llamar a otros hackers para que se unan a mí. En la actualidad, con frecuencia no soy el único. Es un consuelo y un placer cuando veo un regimiento de hackers excavando para mantener la trinchera, y caigo en cuenta que esta ciudad sobrevivirá--por ahora. Pero los peligros son mayores cada año que pasa, y ahora Microsoft tiene a nuestra comunidad como un blanco explícito. No podemos dar por garantizado el futuro en libertad. ¡No lo dé por garantizado! Si usted desea mantener su libertad, debe estar preparado para defenderla.
Por favor envíe sus preguntas (en inglés) sobre FSF & GNU a [email protected]. También hay otras maneras de contactar a la FSF. Por favor envíe comentarios (en inglés) estas páginas a [email protected], envíe otras preguntas (en inglés) a [email protected].
19 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Copyright (C) 1998 Richard Stallman Está permitida la copia textual y distribución de este artículo en su totalidad por cualquier medio, siempre y cuando esta nota se preserve. Actualizado: $Date: 2003/02/18 20:33:43 $ $Author: luferbu $
Traducción: César Ballardini (Argentina) Revisión: - Ramsés Morales (Panamá) - César Villanueva (Venezuela) - Oscar Mendez Bonilla (México) Coordinación: Hugo Gayosso Actualizada: 30 Nov 1999 Cesar Javier Bolaños Vizcarra (México) < [email protected]> Actualizada: 08 Feb 2003 Luis Bustamante
2.3 Editor de textos Los editores o procesadores de texto son unos de los programas más importantes y usuales en la utilización de cualquier ordenador personal. La posibilidad de escribir largos o repetitivos documentos, corregirlos, modificarlos e imprimirlos es una ventaja sustancial del ordenador sobre la máquina de escribir. Los procesadores o tratamientos de textos son programas que permiten realizar todas las operaciones necesarias para crear, guardar, recuperar, modificar e imprimir un texto. Al escribir con un procesador de textos, no hay que preocuparse del final de la línea, ni tampoco del fin de página, ya que el programa pasa automáticamente a la línea siguiente o a la hoja siguiente cuando una esté completa. El propio procesador delimitará el tamaño de la hoja, líneas por página. Mediante sencillos procedimientos podemos mover, borrar, subrayar o repetir párrafos, frases y palabras dentro de un texto. Una vez finalizada la manipulación del documento, podemos guardarlo en un soporte magnético u óptico, imprimirlo o ambas cosas. (Cuando se edita o crea un texto, éste reside en la memoria interna, luego solo permanece temporalmente, perdiéndose al desconectar el equipo. Para evitar la pérdida, antes debe guardarse en un soporte, si deseamos conservarlo). Los procesadores tienen acceso y comunicación con otros programas: bases de datos, hojas de cálculo, diccionarios, otros archivos, etc, aunque esto ya no es imprescindible en los entornos Linux o Windows, dada las facilidades que ofrecen para la interrelación entre programas. Todos los procesadores de textos permiten establecer cabeceras y piés de página, definir la anchura del documento, el número de caracteres por línea, definir longitud de páginas, marcar márgenes y tabuladores, mover, copiar o borrar bloques de textos, definir atributos de texto (negrita, subrayado ...).También ofrecen la posibilidad de crear de forma sencilla tablas, gráficos, dibujos e insertar incluso imágenes. Es normal la la posibilidad de visualizar el documento en pantalla en su formato definitivo, es decir tal y como va a imprimirse. Esta muestra previa es muy interesante para comprobar su aspecto final sin necesidad de imprimirlo; se conoce como WYSIWYNG (se obtiene lo que se ve). Un programa que no es WYSIWYNG, aunque es el más potente de todos es Tex, escrito por Donald Knuth de la Universidad de Stanford (EE.UU.), muy utilizado por los matemáticos y científicos en general, contando con muchos defensores.
20 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Respecto a la seguridad, guardan automáticamente una copia del documento anterior; otros tienen claves de acceso (PASSWORD) que protegen el texto, permitiendo su manipulación sólamente a los usuarios que conozcan la contraseña. Sin embargo Microsoft WORD tiene niveles de seguridad muy deficientes. Los procesadores de texto tienen la posibilidad de disponer de los tipos de letras del respectivo sistema operativo, aunque es el tipo de impresora la que realmente determina la variedad y calidad que se puede utilizar. Los procesadores actuales cuentan con programas auxiliares como los diccionarios ortográficos, de sinónimos o bilingües. Los ortográficos sirven para revisar el documento completo detectando los errores de mecanografía y faltas de ortografía. Los de sinónimos (tesauros) permiten consultar posibles alternativas a una palabra. Los diccionarios bilingües permiten buscar la palabra en otro idioma. Otras posibilidades hasta hace poco tiempo consideradas como avanzadas son: editores de fórmulas, posibilidad de definir macros, sombreados de marcos, escritura en columnas. Es también muy importante la existencia de una ayuda lo más sencilla y completa posible que evite la consulta constante del manual. Algunos programas incluyen discos tutores y libros de aprendizaje con ejemplos. Otros programas interesantes son los comprobadores de estilo que comparan los textos con una serie de reglas gramaticales. Detectan errores de puntuación, mayúsculas, palabras repetidas, palabras en desuso. Los procesadores de textos son programas de usurario que permiten realizar todas las operaciones necesarias para crear, guardar, recuperar, modificar e imprimir un texto. El procesamiento de textos no es escribir Aunque se piense que el ser un buen mecanógrafo es importante para escribir en un programa editor de textos, hay algunas aptidudes de la mecanografía que son contraproducentes. Seguidamente se listan los nuevos hábitos a tener en cuenta al pasar al uso de un editor de textos: Utiliza la tecla intro (o retorno de carro) sólo cuando debas. Los ajustes de línea se producen automáticamente. Utiliza guías de tabulación y márgenes, no la barra espaciadora para alinear columnas No subrayes. Utiliza cursivas y negritas para enfatizar el texto. Utiliza sólo un espacio después de un punto. Se deben evitar los espacios dobles Benefíciate de los caracteres especiales. Caracteres no comunes de las máquinas de escribir hacen que los escritos parezcan más profesionales. Nuevas herramientas para la manipulación de textos Los procesadores de textos han evolucionado rapidamente, las nuevas tendencias han dado lugar a grandes cambios: Procesamiento de textos escritos a mano. Es algo que requiere programas muy complicados, pero actualmente existen los ordenadores denominados tablet PC, basados en las modernas Otro ejemplo son los equipos denominados PDA (asistente personal digital) como por ejemplo los Palm, en los que se introduce el texto con una especie de lápiz. Procesamiento de texto con el habla. Hablando frente a un micrófono se le dice al ordenador lo que
21 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
debe escribir e incluso se le pueden dar órdenes de cómo hacerlo. Los programas de reconocimiento de voz buscan patrones en las ondas de sonido interpretando las palabras. Actualmente hay algunos disponibles, con resultados buenos, siempre que se les haga un aprendizaje previo para cada interlocutor. El más conocido es Voice Type de IBM. Procesadores web en línea (online). El usuario usa un programa residente en un servidor, a través de internet, no siendo preciso el disponer del editor de textos en el propio ordenador. Los más conocidos son: Zohowriter, AjaxWrite, Google Docs , proveniente de la adquisición de Writely por Google y gOFFICE. Algunos incorporan otras aplicaciones ofimáticas.
Un poco de historia sobre Tex La aparición de las computadoras ha introducido a los autores de artículos, informes o libros científicos (o a sus secretarios/as) en el mundo de la edición. La edición de trabajos en la mayor parte de las disciplinas de carácter humanístico-lingüístico no presenta dificultades importantes. Sin embargo en textos científicos de matemáticas, física, etc. la situación es diferente debido a la necesidad de usar fórmulas o gráficos complicados. Hasta hace bien poco tiempo era frecuente encontrar trabajos mecanografiados con las fórmulas escritas a mano. Con la llegada de los ordenadores personales y el uso de sistemas que operan en un entorno gráfico (Windows, Mac, X-Windows,...) algunos de esas dificultades han quedado obsoletas, pero han aparecido otras: - La gran variedad de editores existentes en el mercado, con las ventajas parciales de unos y otros o las preferencias de los autores, dificulta el intercambio de originales, incluso aunque los autores trabajen sobre un mismo sistema operativo. La frenética (e interesada) carrera de las "versiones" o la existencia (cuando están disponibles) de "conversores" que nunca acaban de funcionar satisfactoriamente, no contribuye a mejorar el panorama. - La posibilidad de intercambio de originales entre autores que utilizan entornos operativos diferentes (MSDOS, OSDOS, UNIX, VMS, MAC,..) es prácticamente inexistente. En el mejor de los casos será posible exportar a un formato "solo texto" con el coste de reducir las prestaciones del editor a las de una vulgar máquina de escribir. - El hecho de la creciente globalización que en nuestro mundo se da en todos los ámbitos de la actividad humana, requiere y genera recursos de interconectividad, trabajo en equipo (a veces desde lugares geográficamente alejados), etc. Pero las enormes posibilidades que hoy existen para la interconectividad de los ordenadores a través de las redes locales o internacionales tiene como handicap lo expresado en los dos puntos anteriores. Incluso en el limitado ámbito del "sólo texto", quienes han tenido alguna experiencia conocen bien que los caracteres con algún tipo de acento se comportan de forma impredecible al viajar por las redes. En los años 1970 la American Mathematical Society encargó a Donald E. Knuth, profesor de la Universidad de Stanford, la creación de un sistema para escribir textos científicos (especialmente matemáticos), que fuera cómodo y transportable entre plataformas. A partir de las ideas de Gutemberg y utilizando las computadoras como herramientas, Knuth creó el TeX que muchos consideran ahora como la aportación más importante habida en este campo desde la imprenta de Gutemberg. Prácticamente el cien por cien de los departamentos de matemáticas en todas las
22 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
universiades utilizan TeX para escribir en sus publicaciones y trabajos científicos, buena parte de las revistas mas importantes especializadas en matemáticas utilizan TeX (desde luego todas las que publica la AMS) y algunas solo publican originales que les sean remitidos en este formato. Los ficheros con formato TEX viajan constantemente por las redes informáticas de todo el mundo como mensajeros de investigaciones realizadas y resultados científicos obtenidos. Implementado inicialmente en máquinas grandes con sistema propio, el TeX fue posteriormente compilado en los diferentes plataformas y sistemas. Comercializado durante el tiempo necesario para amortizar la inversión, Donald E. Knuth y la American Mathematical Society pusieron de forma gratuita el programa fuente a disposición de la comunidad científica internacional. Siguiendo su ejemplo, muchas personas han contribuido (y contribuyen) desinteresadamente a implementar módulos adicionales al programa original. Hay incluso una asociación de usuarios de TeX la "TeX Users Group" para intercambiar información sobre problemas comunes y soluciones. En colaboración con ellos la AMS publica desde 1980 una revista llamada TUGboat sobre estos temas. Actualmente está en fase de elaboración, entre todos los usuarios que deseen participar, la versión 3 del dialecto LaTeX , el más extendido de los dialectos del TeX, coordinada por un equipo "The LaTeX team" que pone libremente a disposición de la comunidad científica, semestralmente en servidores Internet, los progresos que se van realizando con las ideas y colaboraciones de todos. La aproximación asintótica a esa versión 3 se llama LaTeXe. El TeX es un compilador, no es un editor de textos. De hecho, los autores pueden emplear para crear los textos TEX su editor preferido y esa facilidad también ha contribuido a su difusión.
2.4 Hojas de cálculo Las hojas de cálculo (hojas electrónicas o planillas) nacieron cuando surgió la necesidad de adaptar los sistemas de planificación utilizados en los grandes ordenadores a los nuevos microordenadores. Son una combinación de calculadora, lápiz y papel, que unido a la potencia y capacidad de almacenar datos de los ordenadores, las convierten en una herramienta de primerísima importancia en el mundo empresarial. En 1961 se desveló el concepto de una hoja de cálculo electrónica en el artículo "Budgeting Models and System Simulation" de Richard Mattessich. Pardo y Landau merecen parte del crédito de este tipo de programas, y de hecho intentaron patentar (patente en EE.UU. número 4398249) algunos de los algoritmos en 1970. La patente no fue concedida por la oficina de patentes por ser una invención puramente matemática. Pardo y Landau ganaron un caso en la corte estableciendo que "algo no deja de ser patentable solamente porque el punto de la novedad es un algoritmo". Este caso ayudó al comienzo de las patentes de software. La primera hoja de cálculo comercializada masivamente (Visicalc, posteriormente comprada por Lotus) nació en 1977 de una idea de un estudiante, Dan Bricklin, de administración de empresas de la Universidad de Harvard (EE.UU.). Los cálculos empresariales manejan unas cantidades de datos que suelen variar dependiendo de los supuestos, por lo que hasta la invención de la hoja electrónica se había desechado aplicar la informática a ese entorno de trabajo, donde cada caso originaría un programa distinto. La hoja de cálculo se presenta como una tabla o matriz de dos dimensiones (actualmente existen de tres) que consta de un número de filas y columnas variable según el modelo del que se trate. (Ej. en LOTUS 123, una de las primeras, tiene 8192 filas y 256 columnas, en total más de 2000000 de celdas). Con los
23 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
datos se pueden representar variados tipos de gráficos, de gran utilidad en ambientes empresariales. Las filas son los datos horizontales y las columnas los verticales. El lugar donde se produce la intersección de una fila y una columna se denomina celda. Las columnas habitualmente se nombran con letras (A,B, ... AA, AB, ....) y las filas desde 1 en adelante. Hojas de cálculo web (online) Análogamente a como sucede con los editores de textos, el usuario emplea un programa residente en un servidor, a través de Internet, no siendo preciso el disponer del editor de textos en el propio ordenador. Los más conocidos son: EditGrid, ThinkFree, IRows, GoogleDocs, Zohowriter, Xcellery.
Prácticas de ofimática de la asignatura Introducción a la Informática: - Uso de Google Docs - Prácticas con Openoffice
fresqui
del.icio.us
meneame
Buscar en la web Búsqueda escéptica Búsqueda en mis webs
Imprimir
Aquí puedes cambiar el tamaño y color del texto
Página Rafael Barzanallana Actualización en Fisica Biografía de Edward Lorenz
Actualización en Avisos. II, trabajos capítulos 2 y 3 de la asignatura
Actualización en Software. Tutorial sobre la nueva versión de Google Docs
Actualización en Software. Tutorial sobre el programa HTTrackl
Actualización en Avisos.
24 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 3. La información Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo Divulgación Informática
1 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Ciencia en general Biología Criminología Inicio Contacte
Introducción Las ondas, portadoras de la información La información como magnitud fundamental Información y mensajes Selecciona un texto y pulsa aquí para oírlo
Las imágenes en miniatura se pueden ver en tamaño normal pulsando sobre ellas, para salir pulsar en la esquina inferior derecha
3.1 Introducción Información es una de las palabras más empleada en los entorrnos tecnológicos actuales tiene unos orígenes que en nada se parecen al significado actual. En latín in-formare era dar forma (ej.:: informare effigiem significa hacer el retrato de persona u objeto), y también significaba dar forma mental, es decir hacerse una representación o concebir una idea a partir de algo. En el siglo XVII ya aparece el término información en castellano, cuyo sentido era de averiguación legal (por ejemplo, de delitos), y hasta el siglo XIX no adquiere el significado de educación o instrucción. Como sucedía habitualmente, mientras tanto el francés llevaba la palabra hasta el inglés, donde se en el siglo XIV aparece con el significado de "comunicación del conocimiento". En el siglo XX muchas lenguas compartían ya la palabra en este último sentido. Bajo el término información consideramos cualquier conocimiento susceptible de ser transmitido. Sin emabrgo en los entornos tecnológicos información es algo estructurado: "datos ya sea en la forma de números, gráficos o palabras que han sido organizados, sistematizados y presentados de modo que los patrones subyacentes queden claros", según Bryan Pfaffenberger, en su obra "Diccionario para usuarios de computadoras e internet, México, 1998". R. W. Hamming (1915-1998) ha calculado que, desde los tiempos del físico Isaac Newton (1642-1727), el acervo de conocimiento se viene duplicando aproximadamente cada 17 años, lo que equivale a decir que aumenta exponencialmente y se desglosa en miles de ramas especializadas. Aunque por ahora no parezca ser capaz de dar respuestas convincentes a sus preguntas fundamentales, el saber acumulado por los humanos alcanza unas cotas asombrosas de complejidad y ha transformado, sobre todo en los últimos 200 años, casi todos sus conceptos y formas de vivir, incluyendo sus relaciones con ellos mismos, con los demás seres vivos, con la Naturaleza, hasta con el espacio y el tiempo. Seguidamente se comentan algunos ejemplos de transmisión de la información en la naturaleza, casos de seres vivos que nos encontramos en la vida diaría. Las abejas Si ponemos un recipiente con un jarabe dulce en las proximidades de una colmena, en cuanto una abeja accede a él y lo prueba, pasa poco tiempo antes de que lleguen gran parte de las restantes de la misma colmena. De alguna forma, la primera en acudir ha transmitido la información sobre la existencia del
2 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
jarabe a las otras. El científico austríaco C. Frisch (1886-1982) realizó una serie de experimentos sencillos de los que dedujo la forma en que se trasmitía la información, como se indica seguidamente. Si el jarabe se ha situado a menos de 100 m de la colmena, la abeja que llega con la noticia transmite la información mediante un baile circular. Pero si el jarabe se pone a más distancia, el baile cambia por completo, la abeja corre un poco en línea recta, rápidamente meneando el abdomen por los lados, después de una vuelta completa a la izquierda, de nuevo corre en línea recta y da una vuelta entera por la línea de un arco de circunferencia, pero hacia la derecha. Además el ritmo del baile depende de la distancia, a 100 m la abeja en 15 s hace 10 ciclos enteros, a 200 m hace siete ciclos, a 1000 m hace cinco ciclos y a seis km sólo hace dos. El baile contiene la información que indica en la dirección en la que se debe volar. Como la información la da dentro de la colmena, efectúa la parte rectilínea de su baile con un ángulo determinado respecto a la fuerza de la gravedad. Marcando abejas, se ha comprobado que el 88% de ellas, con la información recibida de la que descubrió el jarabe, llegan al sitio donde se ncuentra. Las hormigas y los escarabajos Observando la vida de las hormigas, se descubrió que a las muertas otras las transportan, fuera del hormiguero, en cuanto se transmite de alguna forma la información de que está muerta, que no suele ser de inmediato, es decir que una hormiga puede estar muerta varios días bajo la indiferencia del resto, hasta que aparece de golpe cierta señal y las hormigas la llevan a un lugar alejado. La explicación está en unas sustancias conocidas en biología como feromonas (también responsables de la atracción entre distintos sexos, y que se suelen vender en tiendas de artículos de magia) en el momento en que se desprende la feromona característica de que una hormiga está muerta el resto la llevan fuera del hormiguero. Si a una hormiga viva se le impregna de la feromona correspondiente, el proceso es como si estuviera muerta y aunque vuelva al hormiguero repetidas veces, la sacan fuera mientras que persista la feromona. Estudios recientes indican el posible uso de estas feromonas de hormiga para tratar la enfermedad de Alzheimer. Según algunas informaciones pseudocientíficas en la especie humana se da el caso curioso de que las mujeres rubias y pelirrojas tienen más cantidad de una feromona determinada, con lo cual suelen ser más atractivas para los hombres y las que se tiñen el pelo no consiguen este efecto. Por lo que respecta a los escarabajos descortezadores del pino, es de gran interés el estudio de la comunicación química de esta especie de gran importancia como plaga forestal, comenzando desde el aislamiento e identificación de feromonas y atrayentes volátiles del árbol hospedador, estudio de los mecanismos presentes durante el proceso de colonización, estudio de relaciones interespecíficas a nivel de semioquímicos hasta el diseño de las técnicas para el uso de feromonas con fines de control. Las mariposas El lenguaje de las feromonas y olores está muy difundido en el mundo de los animales. Entre ellos los más fuertes y de largo alcance son los relacionados con instinto de la reproducción. Por ejemplo la hembra de la mariposa llamada "los grandes ojos del pavo real" manda sus señales hasta una distancia de 20 km, mediante un transmisor químico de potencia ínfima. La industria de la perfumería no está en condiciones de competir con la naturaleza, el olor de los perfumes como mucho se aprecia a una decena de metros. Los peces En el año 1942, las falsas alarmas del sistema norteamericano de defensa de costas en el Atlántico, fueron la causa del descubrimiento de los sonidos que emiten unos peces, conocidos como tamborileros. Se estableció que "suenan" aproximadamente en el mismo rango que la voz humana, de 5000 a 10000 Hz 3 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
(vibraciones por segundo). Unas especies emiten un chirrido, otras murmullos, otras golpes sueltos y así se pueden clasificar en muchos tipos. Se realizó el siguiente experimento: en un acuario se introdujo un hidrófono y grabaron en cinta los sonidos producidos por los peces al masticar la comida, posteriormente reprodujeron estos sonidos en el acuario y los peces se acercaron al altavoz pensando que allí había comida. Los sonidos no son la única forma de transmitir información por parte de los peces. Los que habitan en grandes profundidades, tienen su fuente de luz. Esta consiste en faroles biológicos con lentes, reflectores y hasta diafragmas, estos impulsos de luz pueden tener distintas frecuencias y diversas duraciones. En África los peces de la familia mormínidos, que habitan en ríos turbios y agitados, emplean impulsos eléctricos para las comunicaciones. Estos peces tienen una especie de radares portátiles. Sus cuerpos son dipolos eléctricos, la cola tiene carga negativa y la cabeza positiva. Generando un campo eléctrico de una frecuencia dada, de forma que los objetos que se encuentran a su alrededor deforman el campo del dipolo, detectándolos de esta forma. Las serpientes Los zoólogos desde hace tiempo han comprobado que ciertas serpientes venenosas, como por ejemplo el ancistrodon (conocida como mocassin), tienen cuatro fosas nasales, las complementarias forman dos agujeos profundos. En estos hoyos se ha descubierto una membrana que los divide en dos cámaras, y que está atravesada por un sinfín de terminaciones nerviosas, se ha comprobado que son termolocalizadores. Perciben la irradiación de calor, por lo que determinan la dirección hacia su origen. Las serpientes tienen una vista muy débil, un olfato que casi no vale nada y un oído muy malo. Por eso durante el proceso de la evolución se desarrolló el sistema localizador de calor. Análogo a las cámaras de fotografíar que captan imágenes en la frecuencia del infrarrojo del espectro electromagnético. El hombre Según una hipótesis, nuestro antepasado común con los monos, dryopithecus, vivía en los árboles, se alimentaba de vegetales y bajaba con poca frecuencia a la tierra, pues era peligrosa para él. Millones de años vivió en un laberinto de ramas y su organismo se adaptó a esta forma de vida en los árboles. Estos saltos de rama en rama, exigían no sólo músculos, sino vista aguda, cálculo y orientación rápida. Los ojos que en la mayoría de los animales miraban en diferentes direcciones, comenzaban a aproximarse y a mirar hacia delante, se les creó la visión del volumen y del color. Se les complicó el cerebro y el sistema nervioso. El intercambio de información en estos colectivos se supone que era elemental, contactos cariñosos o bruscos, mímica y gestos y cierta cantidad de sonidos inarticulados. Estos sonidos formaban de 10 a 15 combinaciones a las que condicionalmente llamaremos palabras. El cambio de clima provocó que los dryopithecus bajaran a la tierra, tomando una posición casi vertical (así podían observar mejor el terreno) y las extremidades delanteras se quedaron casi sin ocupación. La lucha por la existencia pronto les encontró empleo, armadas con una piedra o un palo se convirtieron en un recurso para conseguir alimentos y para defenderse. Lo demás lo hizo el trabajo. Se perfeccionó el cerebro y en respuesta el cerebro hizo más hábiles a las manos del hombre. El trabajo era colectivo y por lo tanto exigía comunicación. Las muecas y sonidos inarticulados eran insuficientes, siendo reemplazados a lo largo de la evolución por la palabra oral y la escritura. Transición que duró muchos miles de años. La población del mundo aumentaba rápidamente, formándose tribus y pueblos aislados, apareciendo la 4 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
necesidad de la transmisión de la información a largas distancias. Para este propósito se han empleado muchos medios, corredores incansables, mensajeros a caballo, combinaciones de hogueras (indios), tambores gigantes, palomas mensajeras. Llegó un momento en que esto era insuficiente, la vida exigía una transmisión de la información más rápida. La electricidad hizo la revolución, apareció el telégrafo por cable. El paso siguiente fue el invento del teléfono, en la exposición mundial de París miles de personas hacían cola para hablar a través de él con otros visitantes.
Atribuyen la invención del teléfono a un italiano La Cámara de Representantes (Diputados) de los Estados Unidos decidió darle el crédito de la invención del teléfono, hasta ahora atribuida al estadounidense de origen escocés Alexander Graham Bell, al italiano Antonio Meucci. "La vida y obra de Antonio Meucci deben obtener el justo reconocimiento, y su trabajo en la invención del teléfono debe serle atribuido", dice el texto, que fue aprobado por simple exclamación a partir de la propuesta de un legislador republicano de origen italiano, Vito Fosella, del estado de Nueva York. De este modo, los legisladores dieron por terminada una discusión histórica. La resolución es una revancha póstuma para Meucci, un florentino que emigró primero a Cuba y luego a Estados Unidos. Meucci tiene en Staten Island, estado de Nueva York, un museo, el "Garibaldi-Meucci", que es una especie de templo de la italianidad neoyorquina. Emily Gear, la directora del museo, dijo: "El teléfono lo inventó él, pero no tuvo suerte". Su historia, siguió, "refleja el drama de tantos inmigrantes todavía hoy, discriminados porque no pueden hablar la lengua del país que los hospeda". Según sostiene la Sociedad Histórica Italiana en América, la fama y la fortuna le fueron vedadas a este inmigrante florentino porque no contó con los 250 dólares necesarios para patentar su invento. Meucci descubrió los principios que guían el funcionamiento del teléfono en 1849 y desarrolló un aparato que funcionaba en 1859. En 1860 lo presentó en un diario local, escrito en italiano. Y el 28 de diciembre de 1871 dejó registrado su primer intento de solicitud provisoria, cinco años antes de que Bell llenara los papeles. Su patente temporaria N° 3.335 se venció al no poder afrontar los costos del trámite. El juicio que inició Meucci contra la Compañía Bell fundada por Alexander no llegó a buen puerto. Los papeles de su patente temporaria se perdieron misteriosamente. Según la resolución que aprobaron los legisladores la semana pasada, la patente fue acordada a Bell, quien trabajaba en el laboratorio en el que Meucci había depositado su material. Siguiendo el proceso por fraude, en 1887 las autoridades intentaron anular la patente entregada a Bell, pero en 1889 después de la muerte de Meucci, ocurrida en 1896 el caso fue cerrado. Tampoco se conoció jamás quién fue el comprador del primer aparato creado por él, que vendió por 6 dólares cuando estaba necesitado. "Dejémosle a Meucci el honor de ser
5 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
reconocido como ''el Padre del Teléfono''. Dejemos Bell que tenga el dinero", dijo John La Corte, presidente de Sociedad Histórica Italiana en América.
El paso siguiente fue la transmisión de señales sin el uso de cables, el siete de mayo de 1895 Popov creó la radio. Pero surgió un problema, el espectro de ondas que pueden llevar la información a cualquier punto del planeta, las ondas cortas, sólo pueden transmitir pequeñas cantidades de información y además no en cualquier hora del día y tiempo del año. Mientras que las ondas ultracortas que transmiten gran cantidad de información, sólo se propagan dentro de los límites de la visión directa. La solución al problema fueron los satélites artificiales de la Tierra. Con sólo tres satélites a una distancia de 36000 km y equidistantes entre sí se puede solucionar el problema de las comunicaciones (excepto las zonas muy próximas a los polos). Cada día, cada uno de nosotros se ocupa de transmitir información por el tiempo, pero sólo en un sentido, del presente al futuro. Por ejemplo, si apuntamos un número de teléfono en una agenda, estamos transmitiendo esa información al futuro, esta transmisión durará el tiempo que exista la agenda. El periódico de hoy, que como es normal trae malas noticias, se convierte en un transmisor de datos al futuro. Si alguien dentro de 30 años, desea enterarse de lo que pasó hoy, podría encontrarlo en una hemeroteca. Por consiguiente, habiendo registrado la información, la ponemos en poder de un futuro, lejano o cercano, en dependencia del tipo de dispositivo de memoria que empleemos. ¿Es posible tener información del futuro, por ejemplo como vivirá la humanidad en el año 2040? Es posible una solución, mediante el estudio de tendencias del desarrollo de la humanidad en el pasado, suponiendo su validez para el futuro. A veces estas predicciones no son fiables. Otra solución (no es real, es una paradoja) es tripular una nave a velocidades próximas a la de la luz. Según la teoría de Albert Einstein (1879-1955), la marcha del tiempo al aumentar la velocidad del movimiento se retrasa, mientras que en la Tierra todo seguirá a su ritmo habitual. Al regresar la nave espacial, se tendrá el planeta con cientos o miles de años transcurridos, por lo que no encontrará a sus familiares, aunque sobreviva el tripulante de la nave, pues todos sus procesos biológicos se habrán ralentizado. Por ahora sólo es una realidad la transmisión de información del pasado y del presente hacia el futuro. El primer dispositivo de memoria fue el cerebro de los animales, que apareció en el proceso de evolución de muchos millones de años. Sobrevivía aquel que mejor recordaba el lugar donde se encontraban los peligros, los refugios, los alimentos. El hombre gracias al trabajo comenzó rápidamente a perfeccionar su cerebro y por lo tanto su memoria. Existen estimaciones del volumen de la memoria humana, que la consideran superior a la información contenida en una gran biblioteca (que puede ser de 1013 bit). La velocidad de percepción de la información por el hombre no sobrepasa los 25 bit por segundo lo que equivale a una palabra por segundo. Si un individuo capta información durante 70 años, y diez horas diarias, no cogerá más de 3*109 bit.
El mito del diez por ciento Alguien le robó la mayor parte del cerebro y usted probablemente no lo sabía. Bueno, no significa exactamente que le hayan quitado el cerebro, pero han decidido que Ud. no lo usa. Se trata del viejo mito, escuchado una y otra vez, que dice que la gente usa sólo el diez por ciento del cerebro.
6 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Mientras que para aquellos que repiten ese mito esto probablemente sea verdad, los demás felizmente usamos todo el cerebro. El mito y los medios Ese remanido supuesto del diez por ciento aparece todo el tiempo. El año pasado, los avisos publicitarios de la revista nacional para la U.S. Satellite Broadcasting mostraban el dibujo de un cerebro. Debajo figuraba la leyenda: Ud. sólo usa el 11 por ciento de su potencial. Bien, estuvieron más cerca que el mito del diez por ciento, pero todavía les faltó un 89. En julio de 1998, la cadena de televisión ABC emitió unos spots promocionales del programa The Secret Lives of Men (Las vidas secretas de los hombres), para la temporada de otoño. El spot consistía en una propaganda en la que se podía leer, Los hombres sólo usan el diez por ciento del cerebro ocupando toda la pantalla. Una de las razones por las cuales este mito ha permanecido, es que ha sido adoptado por videntes y otros integrantes del mundo paranormal para explicar los poderes parapsíquicos. En más de una ocasión he escuchado a videntes que le dicen a la audiencia Solamente usamos el 10 por ciento de la mente. Si los científicos no saben lo que hacemos con el 90 por ciento restante, ¡entonces debemos estar usándolo para los poderes parapsíquicos! En Reason To Believe: A Practical Guide to Psychic Phenomena (Razón para creer: guía práctica para los fenómenos parapsíquicos), el autor Michael Clark menciona a un hombre llamado Craig Karges. Karges cobra un montón de dinero por su programa Intuitive Edge (Al filo de la intuición), el cual está diseñado para desarrollar habilidades parapsíquicas naturales. Clark cita a Karges diciendo: Normalmente utilizamos sólo del 10 al 20 por ciento de la mente. Piense cuán diferente sería su vida si Ud. pudiera usar ese otro 80 ó 90 por ciento, que conocemos con el nombre de mente subconsciente (Clark 1997, 56). También ésta fue la razón que dio Caroline Myss intentando explicar sus poderes intuitivos en una sección de Eye to Eye with Bryant Gumbel (Ojo a ojo con Bryant Gumbel, o Frente a frente con Bryant Gumbel), que se emitió en julio de 1998. Myss, que ha escrito libros sobre el desarrollo de los poderes intuitivos, dijo que todo el mundo tiene dones intuitivos, y lamentó que usáramos tan poquito del potencial de la mente. Para empeorar las cosas, apenas una semana antes, en el mismo programa, se había presentado información correcta acerca del mito. Entre el programa y la publicidad, aparecía en pantalla un spot con una breve encuesta: ¿Qué porcentaje del cerebro usamos? Las respuestas, tipo multiple-choice (de elección múltiple) iban desde el 10 hasta el 100 por ciento. Apareció la respuesta correcta, lo cual me alegró. Pero si los productores sabían que lo que había dicho una de las entrevistadas era clara y manifiestamente erróneo, ¿por qué permitieron que saliera al aire? ¿El cerebro derecho no sabe lo que está haciendo el cerebro izquierdo? Tal vez la entrevista a Myss era una repetición, en cuyo caso los productores presumiblemente chequearon los hechos después de que se emitió al aire y sintieron la responsabilidad de corregir el error en la emisión de la semana siguiente. O posiblemente las emisiones se difundieron en secuencia y los productores simplemente no se preocuparon y emitieron a Myss y a su desinformación de todos modos. Incluso Uri Geller, quien construyó su carrera tratando de convencer a la gente de que podía doblar metales con la mente, salió al ruedo con esta perlita. Esto aparece en la introducción de su libro Uri Gellers Mind-Power Book (El libro de los poderes mentales de Uri Geller): Nuestras mentes son capaces de proezas notables, increíbles, y todavía no
7 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
las utilizamos en su plenitud. De hecho, la mayoría de nosotros usamos sólo cerca del 10 por ciento del cerebro, con suerte. El otro 90 por ciento está lleno de habilidades y potenciales aún no descubiertas, lo cual significa que nuestras mentes operan en forma muy limitada en lugar de funcionar a pleno. Creo que alguna vez tuvimos pleno poder sobre nuestra mente. Lo hacíamos para sobrevivir, pero a medida que el mundo se sofisticó y se hizo más complejo nos olvidamos de muchas habilidades que alguna vez tuvimos (énfasis en el original). Evidencia en contra del mito del diez por ciento El argumento que dice que los poderes parapsíquicos provienen de la vasta parte del cerebro no utilizada se basa en la falacia lógica del argumento por ignorancia. En esta falacia, la falta de pruebas para sostener una posición (o simplemente la falta de información) se usa para tratar de apoyar una suposición determinada. Aunque fuera cierto que la mayor parte del cerebro humano no se usa (lo cual no es cierto), eso de ninguna manera implica que haya alguna capacidad extra que pueda darle a la gente poderes parapsíquicos. Esta falacia surge constantemente en las afirmaciones paranormales, y prevalece especialmente entre los partidarios de los OVNI. Por ejemplo: dos personas ven una extraña luz en el cielo. El primero, un creyente en los OVNI, dice, ¡Mira allí! ¿Puedes ex-pli-carme eso? El escéptico contesta que no, que no puede. El creyente en los OVNI se regocija. ¡Ja! ¡No sabes lo que es, por lo tanto debe tratarse de extraterrestres! dice, argumentando desde la ignorancia. Lo que sigue son dos de las razones por las cuales el mito del diez por ciento resulta sospechoso. (Para un análisis más extenso y detallado del tema, véase el capítulo de Barry Beyerstein en el nuevo libro Mind Myths: Exploring Everyday Mysteries of the Mind, 1999 [Mitos de la mente: explorando los misterios cotidianos de la mente]). 1) Las técnicas de investigación por imágenes tales como los PET (Tomografía por emisión de positrones) y la FMRI (resonancia magnética funcional por imágenes) muestran claramente que la mayor parte del cerebro no permanece inactiva. En verdad, aunque ciertas funciones menores pueden utilizar sólo una pequeña parte del cerebro en un momento determinado, cualquier conjunto de actividades o patrones de pensamiento complejos usarán muchas partes del mismo. Así como una persona no utiliza todos los músculos a la vez, tampoco utilizan todo el cerebro a la vez. Para ciertas actividades, tales como comer, mirar televisión, o leer The Skeptical Inquirer, usted puede usar unas pocas partes específicas del cerebro. Sin embargo, en el transcurso del día se utilizarán casi todas las partes del cerebro. 2) El mito presupone una localización extrema de las funciones cerebrales. Si las partes usadas o necesarias estuvieran dispersas por todo el órgano, esto implicaría que de hecho se necesita gran parte del cerebro. Pero el mito implica que la parte utilizada del cerebro es un área discreta, limitada, y la parte no utilizada es como un apéndice o amígdala, que ocupa espacio pero es esencialmente innecesaria. Pero si todas esas partes del cerebro no se usan, el hecho de remover o dañar las partes no usadas no conllevaría grandes efectos o ni siquiera se notaría. Sin embargo las personas que han sufrido traumas cerebrales, un infarto, u otro daño cerebral, frecuentemente se encuentran severamente impedidos. ¿Ha escuchado Ud. a algún médico decir, afortunadamente cuando la bala penetró en el cráneo, solamente dañó el 90 por ciento del cerebro, que no usaba? Por supuesto que no. Variantes del mito del diez por ciento El mito no es simplemente algo estático o un malentendido. Tiene diversas formas, y su
8 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
adaptabilidad le da una vida más prolongada que la que tiene un spam laqueado. En su versión básica el mito afirma que años atrás un científico descubrió que nosotros utilizamos verdaderamente sólo el 10 por ciento del cerebro. Otra variante se refiere a que sólo el 10 por ciento del cerebro ha sido mapeado, y que esto se malinterpretó mapeado por usado. Antes, Craig Karges había presentado una tercera variante. Ésta dice que, de alguna manera, el cerebro se encuentra ingeniosamente dividido en dos partes: la mente consciente que se usa del 10 al 20 por ciento del tiempo (presumiblemente a plena capacidad); y la mente subconsciente, en donde el restante 80 ó 90 por ciento del cerebro permanece inutilizado. Esta descripción revela un profundo malentendido de la investigación de las funciones cerebrales. La larga vida del mito se debe en parte a que si una variante resulta incorrecta, la persona que cree en ella puede simplemente cambiar la razón de su creencia y apoyarse en otra base, mientras la creencia misma permanece intacta. Así, por ejemplo, si a un individuo se le muestra un examen PET en donde se observa actividad en todo el cerebro, todavía puede seguir argumentando que lo del 90 por ciento se refiere a la mente subconsciente, y por lo tanto la figura del mito queda a salvo. Independientemente de la variante, el mito se repite y se expande, sea por gente bien intencionada o por aquellos que mienten deliberadamente. La creencia que permanece es, entonces, lo que Robert J. Samuelson denominó un psico-hecho (psycho-fact), una creencia que, a pesar de no estar sólidamente basada en los hechos, se toma como real porque su constante repetición cambia la manera en que experimentamos lo que vivimos. El lego va a repetirlo una y otra vez hasta que, tal como sucede con la advertencia de no tirarse al agua después de comer, termine por convertirse en una creencia ampliamente difundida. (Triumph of the Psycho-Fact, Newsweek, May 9, 1994.) Los orígenes del mito no son del todo claros. Beyerstein, del Laboratorio de comportamiento cerebral de la Universidad Simon Fraser en British Columbia, lo ha rastreado hasta principios del siglo veinte. En una reciente columna de la revista New Scientist también se sugirieron otras fuentes, incluyendo a Albert Einstein y Dale Carnegie (Brain Drain 1999). Probablemente tenga un sinnúmero de fuentes, principalmente la malinterpretación o malentendido de los hallazgos científicos legítimos así como los gurúes de autoayuda. El más poderoso atractivo del mito es probablemente la idea de que podemos desarrollar poderes parapsíquicos o al menos lograr ventajas competitivas tales como mejorar la memoria y la concentración. Todo esto se encuentra a nuestra disposición, como dicen los avisos, si aprovechamos el más poderoso de nuestros órganos, el cerebro. Ya es tiempo de desechar este mito, aunque si ha sobrevivido casi un siglo, seguramente continuará vivo en el próximo milenio. Quizá la mejor manera de combatirlo sea contestar a nuestro interlocutor, cuando lo mencione, Ah, ¿y qué parte no usas? Benjamin Radford The Skeptical Inquirer, March-April 1999 Traducción de Alejandro Borgo. Benjamin Radford es Jefe deb Edición de la revista The Skeptical Inquirer y es graduado en psicología.
Agradecimientos
9 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Estoy en deuda con el Dr. Barry Beyerstein por sus sugerencias y ayuda en la investigación. Referencias Beyerstein, Barry. 1999. Whence cometh the myth that we only use ten percent of our brains? In Mind-myths: Exploring Everyday Mysteries of the Mind and Brain, edited by Sergio Della Sala. New York: John Wiley and Sons. Brain Drain. 1999. The Last Word (column). New Scientist 19/26 December 1998-2 January 1999. Clark, Michael. 1997. Reason to Believe. New York: Avon Books. Geller, Uri, and Jane Struthers. 1996. Uri Gellers Mind-power Book. London: Virgin Books. Fuente: Sin dioses
El siguiente vídeo trata sobre el asunto del mito del 10% del cerebro, por parte del profesor Carlos J. Álvarez, psicólogo de la Universidad de La Laguna. (Fuente: Magonia)
A pesar de la perfección de la memoria humana, esta tiene defectos, el principal es que su contenido no se transmite por vía biológica a los descendientes, sino que se destruye al morir las células del encéfalo. Otro defecto es que no siempre se consigue en el momento necesario reproducir y emplear la información previamente memorizada. Los humanos hablaron durante unos doscientos mil años antes de que plasmaran sus ideas para la posteridad. Cuando los habitantes de Mesopotamia, conocidos como sumerios, rasparon unos símbolos sobre unas tablas de arcilla hace 5000 años, sin saberlo iniciaron una nueva era de la humanidad, lo que conocemos como historia. La presencia de fuentes escritas denota la línea técnica divisoria entre lo que
10 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
los expertos clasifican como prehistoria. La escritura apareció casi al mismo tiempo en diversos lugares, y por las mismas razonesr, fue creada cuando las civilizaciones comenzaron a crecer lo suficiente como para querer llevar un control del concepto que comenzó a tomar importancia con la sociedades sedentarias, agricultoras, el concepto de la propiedad. Nuestros antepasados lejanos para superar estos defectos emplearon unos dispositivos de memoria muy simples, cortaban ramas, amontonaban piedras, hacían cortes en los árboles. La lucha por la existencia les obligó a encontrar métodos más perfectos. Los indios empleaban conchas de colores, los incas cartas de nudos llamadas quipos. Aparecieron los petroglifos, signos e imágenes grabados en las piedras. En el cuarto milenio antes de nuestra era aparecieron las escrituras del antiguo Egipto, los jeroglíficos. Otros dispositivos de memoria fueron placas de arcilla, pieles, papiro, pergamino, cortezas de abedul y posteriormente el papel.
Jeroglífico El paso siguiente fue el invento de la imprenta por el alemán Johannes Gutenberg (1398-1468). A su ayuda llegó la fotografía y más recientemente el cine. Más tarde se inventaron dispositivos para grabar y reproducir los sonidos. Al principio era un sencillísimo fonógrafo, siendo desplazado por el magnetófono y sus posteriores versiones actuales. La aparición de los ordenadores exigió la creación de dispositivos de memoria de elevadas capacidades, que han ido evolucionando con el tiempo: tarjetas perforadas, relés electromagnéticos, núcleos de ferrita, discos magnéticos, memorias de semiconductores, discos ópticos, memorias holográficas y experimentalmente memorias de bacterias y de nanotubos. Sin embargo actualmente no se han logrado memorias del tipo de la humana, tanto por su arquitectura como por su capacidad.
3.2 Las ondas, portadoras de la información La primera posibilidad del hombre de transmitir la información aparece junto con el primer grito que da al nacer, después empleamos este medio toda la vida. Hay quien piensa que cualquier información de por sí misma tiene la propiedad de pasar por el espacio sin ayuda de algún portador que circule. El sonido viaja por el espacio debido a las oscilaciones del aire. El que habla, con sus cuerdas vocales hace oscilar el aire, que transmite esta información a las siguientes capas de aire y así sucesivamente, si creamos un vacío alrededor de un orador, por ejemplo de los que leen monótonamente una conferencia, ya no se le oirá, y el auditorio podrá dedicarse a dormir. Aproximadamente lo mismo ocurre al difundir cualquier información en el espacio. Un barco que pasa lejos se detecta en la orilla por las olas que llegan, las han traído las oscilaciones de las partículas de agua. La información se transmite en el espacio solamente con la ayuda de un proceso que se propague en el espacio. A este proceso oscilatorio móvil lo llamamos ondulatorio. En función del medio ambiente oscilante, las ondas pueden ser de mar, de sonido, de radio, etc. Estas ondas son los mensajeros que difunden la información por el espacio, hay algunas que van a la máxima velocidad posible, la velocidad
11 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
de la luz, mientras que otras transmiten la información muy despacio, como por ejemplo las ondas en los líquidos viscosos. Este movimiento ondulatorio aparece en casi todas las ramas de la Física. El movimiento de una onda únicamente depende del tipo de onda y del material a través del cual se propaga, pero no depende del movimiento del cuerpo que provoca la onda. Cuando una fuente emisora lleva una velocidad mayor que la velocidad de la onda se produce una onda de choque (utilizadas para desintegrar cálculos renales con equipos de litotricia), como por ejemplo los estampidos sónicos de los aviones y la radiación de Vavilov-Cherenkov. Una onda de choque transporta toda la energía ondulatoria emitida a lo largo de la trayectoria del movimiento de la fuente en un estallido violento. Supongamos un muelle metálico muy largo (el juguete conocido en EE.UU como "slinky") y lo ponemos de lado a lado de una habitación. Entonces agrupamos con la mano unas cuantas espiras, cerca de uno de los extremos del muelle. Este grupo de espiras comprimidas parece moverse como un rizo hacia el otro lado del muelle. Viaja de esta forma hasta el extremo más alejado, una vez allí parece rebotar y vuelve al punto en el que se inició el proceso. Este proceso se repite sucesivas veces, pero la región comprimida se hace más ancha y su contorno menos definido. Al final es difícil reconocer esta región. El movimiento se ha extendido a todo el muelle y se observa un temblor y una agitación general, al final el muelle permanece en reposo. Cualquiera que efectúe el proceso antes descrito con el muelle debe de comprobar que algo se mueve hacia delante y atrás en el muelle. Sin embargo ni un solo trozo de metal se ha desplazado más de unos pocos centímetros de su posición inicial. ¿Qué fue lo que se movió a través de la habitación? Lo que se movió fue la silueta de espiras del muelle, la región en donde estas espiras estaban más juntas de lo normal. Cualquier silueta o forma que se desplace se puede llamar una onda.
Ondas Podemos ser más precisos y definir como perturbación cualquier distribución de las partes de un sistema que sea diferente de su condición de reposo natural. Una onda física es una perturbación que se mueve debido al efecto que las partes del sistema ejercen entre sí. Una onda se puede utilizar para enviar información. Supongamos que apagamos las luces, y que en cada extremo del muelle se pone una persona. Las señales se envían mediante la contracción de espiras en un extremo, notándose en el otro extremo la región comprimida. Una vez finalizado el movimiento se puede enviar otra señal. Para enviar mensajes largos se puede utilizar un código semejante al Morse. La onda que se enviaba a través del muelle, se producía comprimiendo algunas espiras del muelle. Las ondas en las que la perturbación coincide con la dirección del movimiento se conocen como ondas longitudinales o de compresión. Sin embargo las conocidas como ondas transversales, la perturbación forma un ángulo recto con la dirección de propagación de la onda. Las ondas sonoras son longitudinales, mientras que las que se producen en la superficie del agua son en su mayor parte transversales. Las ondas luminosas son transversales.
12 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Hasta el momento se han comentado ondas en las que la perturbación inicial dura muy poco tiempo, y en las que la perturbación no se volvía a repetir. Se conocen como pulsos. Cuando una perturbación que produce la onda se repite a intervalos regulares de tiempo, se tiene un tren de ondas. Por ejemplo, al cantar se produce un tren de ondas sonoras. Los trenes de ondas difieren entre sí en la rapidez con que se repiten los pulsos. El tiempo transcurrido entre la repetición de los pulsos recibe el nombre de período, que se representa por T. La frecuencia es el número de repeticiones por segundo y se representa por la letra f. La relación entre la frecuencia y el período de un tren de ondas regular es muy simple. El producto de la frecuencia por el período es siempre igual a uno. El producto de la longitud de onda por la frecuencia es igual a la velocidad de propagación de la onda. La unidad de frecuencia es el Hercio (Hz), que corresponde a un ciclo por segundo. Una forma de crear un tren de ondas sonoras es dar palmadas rítmicamente. Cada palmada envía un pulso sonoro. Al dar palmadas sucesivas se crea un tren de ondas. Si entre cada una transcurre un segundo, el período será de un segundo y la frecuencia un Hercio. Al dar la segunda palmada, el pulso sonoro producido por la primera se habrá desplazado una distancia considerable, si la velocidad del sonido es de 350 m/s, el primer pulso lleva una adelanto de 350 m respecto al siguiente. Si se da una palmada cada segundo, se produce un tren de pulsos sonoros espaciados 350 m entre sí. La longitud de onda es la distancia entre dos pulsos consecutivos, por lo que en este caso la longitud de onda será de 350 m. Si se dan dos palmadas por segundo, la longitud de onda será de 175 m. Entonces se llega a la conclusión de que el producto de la longitud de onda por la frecuencia de cualquier tren de ondas es igual a la velocidad de propagación de la onda. El efecto Doppler En una autopista, si estamos parados, es habitual oír el sonido de los vehículos que circulan por ella, procedentes de los ruidos de los motores. Es fácil advertir la variación del sonido cuando nos adelanta otro vehículo. Es obvio que la mayoría de los vehículos no disminuyen su velocidad al sobrepasarnos. El tono varía en función de la trayectoria seguida hasta llegar a nuestros oídos. Este desplazamiento de la frecuencia se llama efecto Doppler, muy utilizado en diversos campos, por ejemplo en los radares de la Guardia Civil, astronomía y medicina (ecografías abdominales, patologías del sistema circulatorio, patologías testiculares). Este efecto se debe al cambio de frecuencia de una onda, debido al movimiento de la fuente que emite las ondas, o al del observador que recibe la energía de la onda. Si se considera un coche desplazándose a la velocidad de 35 m/s, y cuyo conductor hace sonar el claxon cada segundo, al pitar por segunda vez, el pulso primero se ha desplazado 350 m (la velocidad del sonido), pero durante este tiempo el coche se ha desplazado 35 m desde el lugar de partida. Los dos pulsos mantendrán una distancia de 315 m entre sí. Un observador alejado recibirá más de un pulso por segundo. La distancia de cada pulso es 315 m y la velocidad en el aire es 350 m/s. El tiempo transcurrido desde que el observador escucha un pulso sonoro y el siguiente es 315/350 ó 0.9 s. Si el claxon continúa pitando se pueden llegar a oír diez pitidos en nueve segundos. En general se puede decir que: un observador situado frente a una fuente sonora en movimiento recibirá los pulsos sonoros con una frecuencia mayor que la emitida por la fuente. En caso de alejamiento la frecuencia será más baja. Si estamos al aire libre y alguien nos llama desde lejos, normalmente podemos 13 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
distinguir la dirección en que nos llega el sonido. Esto nos indica que se propaga en línea recta. Por otra parte, si alguien sale de la habitación en que nos encontramos y nos llama desde el pasillo, seguimos escuchando su voz. Entre ambos puede haber una pared que nos sirva de pantalla para las ondas sonoras. El sonido es capaz de encontrar un camino a través de la puerta abierta y alcanzar nuestros oídos; en este caso su trayectoria no es una línearecta. Esto indica que las ondas sonoras pueden bordear obstáculos. Se conoce como difracción el proceso mediante el cual las ondas vencen obstáculos. En cualquier caso la magnitud de la difracción depende de la relación existenteentre el tamaño de los obstáculos y la longitud de onda de la onda. Cuando las ondas encuentran en su camino obstáculos del mismo tamaño o más pequeños que su longitud de onda, tienden a bordear el obstáculo. Una onda electromagnética es un conjunto de voltajes en el espacio, que se mueve con el tiempo. La teoría básica de la electricidad y el magnetismo,(para quien no conozca los conceptos básicos de las magnitudes más habituales en electricidad se indican en el siguiente enlace) debida a James Clerk Maxwell, indica que para crear ondas electromagnéticas se han de acelerar cargas eléctricas. Una vez formadas, esta teoría también predice su comportamiento. Se propagan en el espacio libre con la velocidad de 300000 km/s, y en otros materiales a velocidades inferiores. Las ondas electromagnéticas se pueden detectar debido a la energía que transportan. Estos detectores pueden ser muy variados, como por ejemplo los electrones que se encuentran en la antena de un coche, o bien las cargas eléctricas que poseen los átomos de la retina de nuestros ojos. El espectro de ondas electromagnéticas es muy amplio, varía desde las ondas de radio, de muy baja frecuencia, hasta rayos gamma, cuya longitud de onda es más pequeña que el núcleo de un átomo. Una representación esquemática y animada muy buena del espectro electromagnético se encuentra en : Atlas of Electromagnetic space
14 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
15 de 32
http://www.um.es/docencia/barzana/II/Ii03.html
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
La longitud de onda es la característica fundamental de estas ondas. Un sistema eficaz para detectar o producir estas ondas debe ser un dispositivo del mismo tamaño que la longitud de onda delas ondas que se quieren producir o detectar. Por ejemplo, una antena de radio es demasiado grande para generar ondas de luz visible, los átomos de nuestros ojos son demasiado pequeños para detectar ondas de radio. Se ha de cosniderar que las radiaciones más energéticas son ionizantes y por lo tanto susceptibles de generar cáncer, dentro de este grupo se encuentran los Rayos, Rayos Gamma y parte del espectro de la radiación ultravioleta (UV). Contrariamente a las afirmaciones alarmistas e injustificadas de grupos "ecólatras", los teléfonos móviles y sistemas de internet medante Wifi no son perjudiciales para la salud, pues su rango de frecuencias cae dentro del grupo de las no ionizantes. El informe Moulder es muy completo y aclaratorio sobre el asunto. Joseba Zubia, físico de la UPV, habla de Ondas electromagnéticas y salud. (Fuente Magonia)
16 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Ondas de radio AM y FM. Una señal de radio que transmite siempre la misma onda no transporta mucha información. Pero al menos informa al receptor de que la estación que envía la señal está en funcionamiento. Para obtener más información, hay que variar y comprender la señal que se detecta. Es el proceso de la modulación. El tipo de modulación más simple consiste en variar la duración de los intervalos de tiempo entre señales. Puede transmitirse una secuencia de trenes de ondas más largos o más cortos mediante el código morse o algún otro conocido. A principios del siglo XX la primera utilidad de las señales electromagnéticas fue el envío de mensajes telegráficos a través del océano para grandes distancias. Es muy fácil variar gradualmente la intensidad de la señal desde su valor máximo al mínimo, a lo largo de muchos ciclos de la onda repetitiva elemental, este método se conoce como modulación de la amplitud (AM). Un parámetro importante es el porcentaje de modulación, que indica la amplitud mínima o nivel cero de la onda modulada. Una modulación al 100% indica que la amplitud mínima será cero. Se puede demostrar matemáticamente que la onda modulada final se puede descomponer en tres señales: una de frecuencia igual a la portadora y otras resultado de sumar y restar la frecuencia de la moduladora a la de la portadora. Es decir, si tuviéramos una portadora de 500 KHz y la onda moduladora posee una frecuencia máxima de 20 KHz (como las señales musicales) obtendremos tres ondas: una de 500 KHz y dos bandas laterales de 480 KHz y 520 KHz. Esto es importante para saber el ancho de banda que ocupa la transmisión (en este caso 20+20=40 KHz).
Con este sistema pueden aparecer algunos problemas, la intensidad de la señal puede variar por razones distintas a las de la modulación que provoca la emisora, las cargas de la atmósfera pueden crear efectos no deseados. Esto provoca distorsión y ruido en el receptor.
17 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Para evitar el problema previo, se utilizan ondas de frecuencia modulada (FM), muy popular en la actualidad. En este sistema la onda que transporta la información no posee una frecuencia única. Su frecuencia varía en función de la intensidad de la señal de modulación. Para descifrar estas señales hace falta un circuito más complicado que las de AM, pero la distorsión atmosférica afecta poco en la transmisión, por lo que la calidad de recepción es mucho mejor. Supongamos que tenemos una señal moduladora cuya máxima amplitud es de 1V (valor de pico) y una onda portadora de 1000 KHz. Si suponemos que para este valor de amplitud la frecuencia de la portadora se desvia 15 KHz (simétricamente, es decir +15 KHz y -15 KHz), conforme oscile la señal moduladora la frecuencia de la portadora oscilará entre 985 KHz y 1015 KHz, ocupando un ancho de banda de 30 KHz.
En este sistema de modulación también tenemos un problema práctico, y es que rara vez el ancho de banda de la transmisión es inferior a diez veces el de la señal moduladora. Internacionalmente se han dividido todo el espectro de frecuencia en las denominadas bandas de frecuencia. Esto se hace así para poder delimitar el acceso de los usuarios a estas bandas. Hay que mencionar que este clasificación no es global y que algunos paises difieren en su delimitación, pero en general podemos aceptarlas como generales. Denominación
Siglas Margen de frecuencias
Frecuencias muy bajas VLF
3 - 30 KHz
Frecuencias bajas
LF
30 - 300 KHz
Frecuencias medias
MF
300 - 3000 KHz
Frecuencias altas
HF
3 - 30 MHz
Frecuencias muy altas
VHF
30 - 300 MHz
Frecuencias ultra altas
UHF
300 - 3000 MHz
Frecuencias super altas SHF
3 - 30 GHz
Frecuencias extra altas EHF
30 - 300 GHz
Las bandas de frecuencia más baja se reservan para las emisoras que transmiten en AM, mientras que las de FM transmiten sobre los 100 MHz. La única banda que está libre para cualquier uso (como radiocontrol) y para cualquier persona es la banda de los 27 MHz, pero debido a esto está bastante saturada y sólo es conveniente utilizarla para practicar con montajes caseros y sistemas de poco alcance (no más de 100m).
3.3 La información como magnitud fundamental La información nos sale al paso en cualquier momento, ya sea en sistemas técnicos como en los naturales: en la elaboración de datos, en la tecnología de las comunicaciones y en la de regulación, en las lenguas naturales, en los sistemas de comunicación biológicos, incluso en la transmisión de informaciones en la célula viva. La información se ha convertido, pues, en la tercera magnitud básica universal. Debido al enorme desarrollo realizado por la tecnología de ordenadores, el sector de la informática ha alcanzado una 18 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
importancia que era escasamente predecible. Además la palabra información se ha convertido en una expresión aplicable a las más diversas disciplinas. Alcanzando al mismo tiempo una importancia esencial en los sectores más dispersos como por ejemplo, la técnica, la biología y la lingüística. Por lo tanto el concepto de información requiere un tratamiento profundo, especialmente en el sentido de precisar su significado, definir sus características más primordiales y formular teoremas. Algunos ejemplos de la vida real: Un organismo vivo recibe toda la información hereditaria de sus progenitores. El catálogo entero de detalles de una futura persona está "embalado" en un volumen increíblemente pequeño, en un óvulo, cuyo diámetro es tan sólo de una décima parte de milímetro. Todo lo vivo está compuesto de células, cuyo elemento básico es el núcleo, donde se encuentra la información hereditaria. Cualquier ser vivo nace como resultado de la reproducción de muchísimas copias de una célula inicial fecundada, proceso que se desarrolla a gran velocidad, se puede tener una idea considerando que a partir de la célula inicial se llegan a 26 1012 células en un recién nacido. Los núcleos de todas las células contienen los denominados cromosomas, en número constante para cada especie, el hombre 46, el mosquito zumbador 6, la carpa 104 y el chimpancé 48. En los cromosomas están las moléculas de ácido desoxirribonucleico (DNA o ADN), descubierto 1869 por un médico alemán llamado Friedrich Miescher (1844-1895), al que la evolución ha confiado la misión de ser el portador de la información genética puesto que tiene gran capacidad para duplicarse. El ADN está formado por los nucleótidos, y cada uno de ellos consta de moléculas de azúcar desoxirribosa (D), de un grupo fosfato (F) y de una de las cuatro bases nitrosas: adenina (A), timina (T), citosina(C) o guanina (G). Dos cadenas de ADN se unen en una espiral doble como si se enrollasen la una en la otra, las bases nitrosas se encuentran en el espacio interior entre las espiras y están unidas entre sí con enlaces de hidrógeno. La Adenina siempre hace pareja con la timina y la guanina con la citosina. El número de nucleótidos en la molécula de ADN es de muchos miles. El mecanismo de duplicación del ADN, se puede describir de la siguiente forma. Los enlaces de hidrógeno que unen las dos espirales de ADN se desgarran al dividirse las células. La espiral doble se desenrolla, y en cada espiral separada, inmediatamente se construye otra nueva, complementaria. En lugar de una se han formado dos nuevas espirales dobles de moléculas de ADN absolutamente idénticas a la inicial, y así sucesivamente. De esta forma se transmite la información. Las moléculas de ADN constituyen la mayor densidad de información conocida, El tamaño es de 2 nm de diámetro y 3.4 nm de altura por cada espira de la hélice. Lo cual implica un volumen de 10.68 10-21 cm3 por espira. En cada espira se encuentran 10 letras del alfabeto químico (nucleótidos) resultando una densidad de información de 0.94 1021 letras por cm3. No obstante en el alfabeto genético existen sólo cuatro bases nucleótidos: adenina, timina, guanidina y citosina. El contenido de información de una de estas letras es de 2 bit por nucleótido. La densidad de información es por lo tanto 1.88 1021 bit/cm3. Si se supone que el hombre tiene menos de cienmil genes (actualmente se estima en 30000) y se quisiera
19 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
codificar la información hereditaria en el sistema binario, se tendrían del orden de 2 107 bit. Si se grabala información en cinta magnética, la longitud sería de dos kilómetros, mientras que si se desenrolla la espiral hereditaria del ADN y se estira en línea recta, la longitud sería solamente de unos dos metros. Lo cual da idea de lo compacto que es el embalaje de la información hecho por la naturaleza.
Aovillando, que es ADN Preguntaba Rigel, hace algunas entradas, ¿Cómo se almacenan los kilómetros de escalera adenosa en sitio tan chiquitito como es una célula? Me gusta la pregunta. Me gusta porque me da pie a desvariar un poco sobre un par de cosas, y a asustaros con numeritos, que es algo que siempre alegra mi malvado y negro corazón. Procedamos al susto: La "escalera adenosa" de una célula no alcanza el kilometraje ni de lejos. Haciendo unos pocos cálculos, que os ahorro, se ve que si estiramos todo el genoma humano, contenido en el núcleo de una célula, tenemos un filamento de poco menos de unos dos metros de largo. -- Oiga, ¿y de gordo, cuánto? -- Dos nanómetros. O sea, dos milmillonésimas de metro. -- ¿Mande? -- Digámoslo así: ¿ve la división en milímetros de una regla? -- Bueno, con las gafas y tal... -- Pues imagine ese milímetro, dividido un millón de veces. ¿Puede? -- No. -- Ni yo. Así de chiquitito es un nanómetro. -- Caray. -- Y que lo diga. Sea como sea, dos metros de hilito no son cosa nimia que empaquetar. Si se limitaran a estar enrollados sobre sí mismos, sería un desastre. Hay que tener en cuenta una cosa importante: el genoma no es una cosa que simplemente "está ahí". Es una parte muy dinámica de la célula, que tiene que acceder continuamente a la información contenida en ella; ahora este gen, ahora el otro, ahora este trozo de aquí, ahora el de allá. La visión de los cromosomas como esas X gorditas que se ve en los libros sólo ocurre cuando la célula está ocupada en dividirse. El resto del tiempo, el ADN es un ovillo medio suelto de ADN y proteínas que se conoce como "cromatina" y cuya estructura es muy complicada y tiene varios niveles de empaquetamiento. Matemáticos, a mí: leí hace tiempo que el tipo de empaquetamiento que usa el ADN es el más eficiente que existe. No lo sé. Pero sé que a la célula le va muy bien. Paso a describirlo, poco a poco. La hebra de ADN desnudita se enrolla en torno a una especie de "carrete" proteico formado por cuatro proteínas llamadas histonas, cuya importancia es imposible exagerar. Esto es lo que se llama "estructura en collar de perlas", por razones obvias. Hay una quinta histona por ahí, enzarzada con el trozo de ADN que enlaza cada una de las "perlas", pero esto es hilar finito. El collar, como véis ahí en el dibujito, es de unos 11 nanómetros de grosor: ni siquiera el doble que el ADN desnudo.
20 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Sigo: el "collar de perlas" se enrosca sobre sí mismo en lo que se llama un "solenoide", de nuevo por razones obvias. La estructura tiene ahora 30 nanómetros de grosor, ¡la repera! El solenoide, a su vez, conserva la flexibilidad y características de un hilo (una fibra de cromatina), que a su vez se enrosca más sobre sí mismo, en plan cable de teléfono, hasta formar la hebra del cromosoma. En este punto la hebra tiene 700 nanómetros de grosor. El cromosoma completo, con sus dos cromátidas y tal, es de unos 1400 nanómetros de grosor. Tres órdenes de magnitud más que la hebra desnuda. ¿Esto es mucho, o poco? Extrapolemos: si partimos de un hilito de un milímetro de grosor (proporcionalmente tan largo como el ADN de un cromosoma), y lo empaquetamos como un cromosoma, el paquete resultante tendrá un metro y pico de grosor. No está mal. ¿Y qué tal en cuanto a la longitud? ¿Cuánto hemos conseguido acortar la hebra para que quepa en el núcleo? Vamos a verlo: este sistema de empaquetamiento consigue que la longitud de la hebra de ADN se reduzca cincuenta mil veces. Que se dice pronto. Si queréis os asusto con más numeritos: el cromosoma más largo del genoma humano mide 263 millones de pares de bases (todo el genoma son unos tres mil millones). Estiradito, eso son, a grosso modo, nueve centímetros. Tras el empaquetamiento, no llega a las veinte diezmilésimas de milímetro de largo. Así que, ¿cómo se almacena el ADN en la célula? Pues, la verdad... la mar de bien. Y como fin de fiesta, para aquellos a los que les dé pereza lo negro, todo lo anterior está perfectamente explicado en este bello dibujo, que además (astucia supina) es un enlace a una página anglosajona donde se explican más cosas aún. El que no sepa más de cromatina después de esto, es ya porque no quiere. De nada. La Biblioteca de Babel Toda la materia viva, desde el virus más primitivo hasta el hombre son cadenas transportadoras para transmitir la información hereditaria, son sistemas de comunicaciones perfectamente construidos, que tienen una asombrosa exactitud para transmisión de sus datos, con una gran defensa contra la acción de
21 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
diferentes interferencias, y realizados en unas dimensiones increíblemente pequeñas.
El ADN "cumple" 50 años La determinación de que el ADN transmite información genética de un individuo a su descendencia se concretó hace ahora 50 años. Durante este tiempo, el interés por esta sustancia química de la que están hechos nuestros genes y, p or tanto, el libro de instrucciones para fabricar a un ser vivo, no ha hecho más que aumentar, hasta el punto de que la estructura del ADN (de doble hélice) se ha convertido en un icono en el mundo científico. Redacción Ondasalud.com La determinación de la estructura en doble hélice del ADN se considera uno de los hitos científicos del siglo XX. James Watson y Francis Crick la publicaron por vez primera vez en la revista Nature y ahora, cincuenta años más tarde, este medio festeja el hallazgo que culminó con la concesión del Premio Nobel de 1962 en Medicina y Fisiología a la célebre pareja. ¿Por qué se celebra el quincuagésimo aniversario del descubrimiento de la estructura de doble hélice del ADN y no otros hallazgos científicos? Para Robert Olby, del Departamento de Historia y Filosofía de las Ciencias de la Universidad de Pittsburgh, en Estados Unidos, para entender la magnitud de este acontecimiento científicos "primero tenemos que situarnos en 1953, otro mundo, en el que la revista científica aún no utilizaba la abreviatura de ADN para el ácido desoxirribonucleico". Antecedentes A principios de la década de 1950 existía un programa científico de investigación del ADN. "Estos estudios incluían el análisis de las propiedades físicas del ADN y se analizaba si su composición era igual para todas las células del organismo. Y también se discutía sobre el daño de los rayos ultravioleta, entre otros factores, sobre este material génetica. La mayoría de los investigadores eran bioquímicos y químicos y estaban especialmente interesados en dos aspectos: las mutaciones genéticas y cómo las proteínas realizaban el proceso de la síntesis, un tema especialmente importante para el crecimiento, la nutrición y la investigación en cáncer. "La progresiva investigación condujo a que ya en 1952 se viera al ADN como material hereditario". Pero hacía falta mucha más información para convencer a toda la comunidad científica. ¿Cómo justificar desde un punto de vista químico el papel del ADN en la herencia?, se preguntaban. La respuesta la aportó el trabajo de James Watson y Francis Crick. Describieron los pares de bases, donde la adenina fabrica uniones de hidrógeno con timina, y la guanina con citosina (las famosas cuatro letras A, T, C y G que forman el gran libro del genoma). "Este emparejamiento sugería un posible mecanismo de copiado para el material genético", escribieron en su artículo y, dos meses después añadieron: "Hasta ahora no se había presentado ninguna evidencia que mostrara de qué forma puede consumarse el proceso esencial para el material genético, la duplicación exacta".
22 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
La constatación de que el descubrimiento de Watson y Crick era sumamente importante la suministraron Matthew Meselson y Franklin Stahl en 1958 al probar la naturaleza de la replicación del ADN. La investigación siguió su curso hasta llegar al punto y seguido de esta bonita historia que fue la concesión del Premio Nobel de Medicina en 1962 a Watson, Crick y Wilkins. Un retrato idealizado La estructura de doble hélice que se ha popularizado hasta superar el entorno científico es una representación muy estética del ADN. En realidad, el aspecto del ADN es bastante diferente. Sin destruir la visión idealizada del modelo icónico propuesto por Watson y Crick, un científico relata en Nature que "en honor a la verdad, debemos explicar que la mayoría del ADN celular está comprimido en paquetes enmarañados y apelmazados que de alguna manera lo exponen de forma meticulosa al control regulador genético". Según refleja este artículo, la doble hélice es una de las razones del éxito de los trabajos realizados sobre el ADN. "Ahora bien, no nos tenemos que dejar engañar por este retrato idealizado y debemos ser conscientes de la complejidad que posee la estructura de ADN y, por ello, reconocer el trabajo tan importante de sus descubridores". Ejemplos de la vida real Supongamos un ejemplo de la vida real, se va por una carretera y se llega a una bifurcación. Si se desea saber por ejemplo cual de las dos conduce a Murcia, lo lógico ería ver los rótulos indicativos que suelen existir en las carreteras, pero en este caso sólo hay grandes carteleras publicitarias (aunque están prohibidas, pero como el alcalde se preocupa de pocas cosas), por lo tanto la información recibida es nula, igual a cero. Si vemos a otro coche que se acerca, se puede preguntar al conductor sobre cual de las dos vías conduce a Murcia, respondiendo por ejemplo, la de la derecha. Esta información recibida permite hacer una elección entre dos posibilidades, es decir entre las dos posibles salidas. Se ha recibido un bit de información. Otros ejemplos habituales pueden ser: ¿Cuánta información obtenemos cuandonos dicen que cierta persona tiene el pelo oscuro, o que es una mujer? Parece de locos intentar cuantificar de forma precisa este concepto, pero lo vamos a hacer partiendo precisamente de su idea intuitiva. Lo primero que debe quedarnos claro es que el hecho de obtener información es equivalente al de disminuir la indeterminación con respecto a algo, de tal forma que se obtiene tanta más información cuanto más disminuya el grado de incertidumbre que tenemos de cierto fenómeno. Veamos esto con un ejemplo, si nos dicen las siguientes frases: - La persona que describo tiene el pelo oscuro. - La persona que describo es mujer. En la primera frase se nos da un dato de todos los posibles (claro, castaño, pelirrojo, rubio, canoso), al igual que en la segunda, (hombre, mujer, lesbiana, "gay", bisexual), por tanto la primera y la segunda nos dan igual información, sin embargo si en el segundo caso simplificamos y sólo consideramos dos posibilidades (hombre, mujer), obtenemos más información al disminuir mucho más la incertidumbre que teníamos con respecto a la persona.
23 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Otro ejemplo: El alfabeto español se compone de 27 letras. Si un ordenador genera letras al azar, la información que nos suministra el conocer que letra ha salido será mayor que en cualquiera de los casos anteriores porque el número de estados posibles es mayor (27). Conclusión: La cantidad de información que obtenemos con un mensaje es directamente proporcional al número de estados posibles de la cuestión planteada. Los matemáticos y los físicos se han puesto de acuerdo que es lógico y cómodo tomar por unidad de información una dosis de información tal que disminuye nuestra ignorancia en dos veces y permite hacer una elección entre dos posibilidades equitativas. Claro está que se ignora la importancia de esta elección. Un caso más complicado es la elección entre cuatro salidas posibles. Por ejemplo, si hace falta prever en qué trimestre se desean las vacaciones, se seguiría el proceso siguiente: - ¿En qué mitad del año? En la primera - ¿En que trimestre de la primera mitad del año? En el segundo Otro ejemplo es el esconder una moneda debajo de una de entre cuatro tazas. ¿Cómo encontrar la moneda con sólo dos preguntas a las que se contesta si o no? - ¿Se encuentra la moneda debajo de la primera o de la segunda taza? No - ¿Se encuentra la moneda debajo de la cuarta taza? No La moneda, necesariamente ha de estar debajo de la tercera taza. De los dos ejemplos previos, se deduce que al hacer una elección entre cuatro opciones posibles, hacen falta dos unidades de información y no una. Si se escondiera la moneda debajo de una de entre ocho tazas, para encontrarla harían falta tres unidades de información. Así de forma sucesiva, aunque al aumentar el número de tazas es más probable que rompamos alguna buscando la moneda. Se puede observar una dependencia entre la cantidad de variantes N, u orígenes, y la cantidad de unidades de información J, necesarias para tomar una decisión, N=2J y tomando logaritmos, se tiene J=log N Esta fórmula fue propuesta en 1928 por Hartley, y dice, la información necesaria para la elección entre N variantes equitativas es igual al logaritmo del número de variantes. La función logarítmica crece muy despacio al aumentar el número, esto implica que la cantidad necesaria de información crece muy despacio al aumentar el número de variantes. Por ejemplo, para tomar una decisión entre 512 variantes, sólo hacen falta 9 unidades de información, y si N es 4096, hacen falta 12. Un ejemplo real de esta dependencia logarítmica es cuando un juez de instrucción, recibiendo del acusado ávidas contestaciones sólo en forma de las unidades de información "si" o "no", rápidamente aclara un asunto. Sin duda, a él ayuda la dependencia logarítmica previamente deducida. Si en la fórmula ponemos N = 2 (log 2 = 1), se obtiene la dosis que tiene la unidad de información que ha recibido el nombre de bit. Claude E. Shannon fue el primero que formuló una definición matemática del concepto de información en su trabajo " A mathematical theory of communication" (1948). La medida que él utilizó, el bit (binary digit), brindó la ventaja de permitir la definición cuantitativa de causalidades
24 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
que hasta ahora no había sido posible expresar de una forma matemática exacta. La desventaja, no obstante, es evidente: la información según el concepto de Shannon, no implica su contenido intrínseco, sino que se limita a un aspecto especial, que es significativo sobre todo para su transmisión y registro desde el punto de vista técnico. En este caso, no se tiene en cuenta que un texto sea razonable, comprensible, correcto o incorrecto o simplemente no tenga significado alguno. Se desatienden aquí también cuestiones importantes como el saber de dónde procede la información (emisor) y a quien va destinada (receptor). Para la definición "información" de Shannon no tiene transcendencia alguna si una serie de letras representa un texto de alto contenido temático o si, por el contrario, constituye el resultado de un juego de dados. Efectivamente, y aun bajo el riesgo de parecer paradójico, puede afirmarse que una serie de letras generadas al azar ofrece, desde el punto de vista teórico informático, un contenido máximo de información, mientras que un texto cuyo lenguaje sea congruente, el valor correspondiente es menor. La definición informática de Shannon se limita a un aspecto de la información, esto es, el hecho de que a través de ella se exprese algo nuevo. Nuevo implica el mayor efecto de sorpresa que se obtiene al aparecer un signo menos usual. Información es, por lo tanto en este caso, la medida de improbabilidad de un acontecimiento. Por esta razón, a un signo con alto grado de improbabilidad se le concede un mayor contenido informativo. Antes de que un emisor de signos origine un signo, existe la duda de que signo especial va a emitirse de entre los signos disponibles. Esta inseguridad desaparece tras haber recibido la señal. Según la forma de discernir de Shannon se define lo siguiente: Información es la inseguridad que desaparece al recibirse la señal correspondiente. Teniendo en cuenta que Shannon sólo está interesado en determinar la probabilidad de aparición de los signos, automáticamente sólo registra el carácter estadístico de la información. Con ello, el concepto de la palabra información queda reducido a su aspecto carente de significado. Según Shannon el contenido de la información queda definido de forma que reúna las siguientes propiedades:
Condición de adición: El contenido de información de unos signos o series de signos independientes el uno del otro, debe sumarse. Esta condición concibe la información como algo cuantitativo. Condición de probabilidad: El contenido de información atribuido a un signo, o serie de signos debe aumentar con el aumento progresivo de la sorpresa. El efecto de la sorpresa para la letra w, con menor probabilidad de aparición, es mayor que el de la letra e, con mayor probabilidad de aparición. De ello se deduce, cuanto menos probable sea un signo, tanto mayor será su contenido de información.
3.4 Información y mensajes El interés más evidente de la medida de la cantidad de información aportada por el resultado de una experiencia, aparece cuando se trata de transmitir este resultado a distancia. A continuación se describe un ejemplo muy ilustrativo, supongamos que tu trabajas en una oficina en un pequeño grupo formado por cuatro empleados y el jefe. Este último por comodidad empleó para llamar a sus empleados un sistema de comunicación muy sencillo: un timbre suena y en un panel se enciende una de las cuatro lámparas en las que están escritas las primeras letras de los nombres de los empleados. Estas son A(Antonio), M(María), P(Procopio) y U(úrsula). Supón que tu código sea A. Los primeros meses se desarrollaba un proyecto conjunto con la participación por igual de los cuatro y por lo tanto las llamadas del jefe implicaban que las cuatro luces se encendieran con la misma frecuencia. (La información era el log 4, es decir 2 bit). La probabilidad de que aparezca la luz en tu lámpara o en cualquier otra, es .25
25 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
En un momento tu hiciste una proposición muy original al jefe, y desde entonces casi se encendía solamente la lámpara A. Esto hizo que en cuanto sonaba el timbre acudías a la llamada del jefe, sin ni siquiera mirar la lámpara que se encendía. Haciendo cálculos se llegó a que la probabilidad de que apareciera la A era .97, mientras que para cada uno de los otros tres empleados era .01, evidentemente la suma de las tres probabilidades es la unidad. Se aprecia fácilmente que cuantas más señales o códigos de igual probabilidad se emplean, tanto menor es la probabilidad de cada uno de ellos. Según Shannon, para las señales de igual y diferente probabilidad la cantidad de información en su envío o código se determina por la probabilidad de su aparición. Esta dependencia es también inversa: cuanto más frecuentemente aparece el código, tanto menos información lleva. Por eso tu no mirabas la lámpara al sonar el timbre, a pesar de que de cada 100 llamadas había tres que no eran tuyas. La aparición de la luz en la lámpara A era segura y la cantidad de información que llevaba esa luz disminuyó mucho, hasta log(1/.97), igual a 0.04 bit. Mientras que la información de las señales poco frecuentes aumentó considerablemente a log(1/0.01)=3.32 bit. La lotería puede ilustrar esto, supongamos un sorteo, el individuo mira la lista de los número premiados, después de estar un rato buscando ya ha perdido la esperanza y cada nueva búsqueda no le aporta ninguna información, de repente se pone radiante, ganó un millón de euros , si sólo hay un premio como este por cada millón, recibió de golpe una información de log(1/.000001) lo que equivale a 20 bit. Volvamos a la oficina, pasado cierto tiempo la situación cambió por completo, poco a poco la lámpara A dejó de encenderse. Entonces al comprobar que al sonar el timbre ya no aparecía la luz de la letra A, te tapaste los oídos con algodón. En esta situación el encenderse la luz de la A, supone una gran cantidad de información, lo que pasa es que no las notas al tener tapados los oídos, y son los compañeros quienes te lo indican. Fórmula de Shannon Shannon dio una receta generalizada: hay que calcular la información comunicada por cada código (en este caso cada lámpara) y mediarla por todos los códigos (por todas las lámparas). Pero no hay que mediarla del modo corriente, sino por las reglas de las magnitudes causales: la información comunicada por cada código se multiplica por la probabilidad de su aparición y se suman todos los productos recibidos. De esta forma se llega a la siguiente fórmula, H = p1*log(1/p1)+p2*log(1/p2)+ .. pm*log(1/pm) donde H es la entropía, las p son las probabilidades de que aparezcan los códigos y m el número total de códigos. En el caso de las luces, para la situación en la que el jefe llamaba continuamente, se tendría, H = .01*log(1/.01)+ .01*log(1/.01)+ .01*log(1/.01)+.97*log(1/.97) = 1.38 bit es evidente que para el período en que las cuatro luces se encendían con igual probabilidad, con esta expresión se llega a 2 bit, como se dedujo de la fórmula de R. Hartley. Así la diferente probabilidad de la aparición de luz en las lámparas llevó a la disminución de la información que comunica el tablero de señales, es decir a la disminución de la entropía. Información y significado
26 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Existe una clase muy amplia de fenómenos observables que se pueden asociar a cantidades numéricas, o a una sucesión de cantidades numéricas, distribuidas en el tiempo. Su estudio pertenece a la estadística. estas cantidades, o sus medidas estadísticas, dan información sobre los fenómenos observados. En una línea telefónica, o en un circuito de televisión, o en un radar, tenemos unas cantidades, las medidas de los voltajes de la corriente eléctrica que en un cierto momento fluyen por el lugar donde hacemos la medida, que varían muy rápidamente en el tiempo y que son susceptibles de ser estudiadas desde un punto de vista estadístico. Los receptores telefónicos, los filtros de onda, las redes de modulación de frecuencias, etc., han de poder procesar la información inherente a los cambios de voltaje a un ritmo tan rápido como la variación de éste. La información se ha de poder registrar, conservar, trasmitir y usar. Las ideas fundamentales sobre la cuestión de medir la información, pueden ser atribuidas a Claude E. Shannon, aunque hay otras personas que ayudaron a aclarar algunos conceptos fundamentales, como por ejemplo Norbert Wiener. Una teoría de la información es, de hecho, una teoría de la medida de la información como consecuencia de la idea de que ésta es medible. En 1922, R.A. Fisher proponía una definición cuantitativa de la cantidad de información contenida en datos experimentales susceptibles de tratamiento estadístico. Más tarde, el desarrollo de las telecomunicaciones impuso la necesidad de medir la información transmitida a través de un canal, en este caso el hilo metálico. La cronología del desarrollo del estudio de la teoría de la información podría resumirse del siguiente modo: 1928, R. Y. Hartley, en el congreso internacional de telefonía y telegrafía, propuso un método de comparación de los distintos sistemas transmisores de información. 1948, C.E. Shannon, partiendo del problema concreto de la transmisión por hilo, halla la medida de la cantidad de incertidumbre asociada a un campo de probabilidades finito, inspirada en el modelo de entropía termodinámica de Boltzmann (1894). Fue él mismo quien dio las nociones de fuente, canal, perturbación, etc., así como algunos de los teoremas fundamentales de la codificación que son la base de esta teoría de la información que nos disponemos a estudiar. 1953, B. McMillan reemprendió los trabajos de Shannon e introduce las definiciones matemáticas de fuente de información y canal de transmisión. Pasa de las fuentes de Markov a las fuentes ergodinámicas (existencia del vector de probabilidades de estado estacionarias). 1954, A. Feinstein dio la primera demostración completa del teorema de codificación, enunciado por Shannon para los canales sin memoria. 1956, A.L Khintchine elaboró el primer tratamiento matemático riguroso y completo de la teoría de la información para los canales estacionarios ergódicos y para los canales con memoria finita y sin anticipación. 1962, M.L. Minsky desarrolló las ideas de R.J.Solomonoff sobre la teoría algoítmico de la información basada en la complejidad asociada a la realización de un cierto algoritmo, por medio de una cierta máquina de Miring. Posterior-, mente, esta teoría se ha ido desarrollando por otros autores como A.N.KoImogorov, P.Martin-L5f y G.J.Chaitin. 1963, S. Winograd y J.D. Cowan publicaron un buen trabajo sobre la teoría de autómatas fiables, construidos a partir de partes no fiables, estableciendo una conexión entre la
27 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
teoría de la comunicación de Shannon y la de autómatas, desarrollada anteriormente por Von Neumann. Durante los años sesenta del siglo pasado se lleva a cabo una revisión de la teoría de la información de Shannon para contemplar aspectos semánticos de la información. Tales revisiones son los trabajos de Rényi, Forte, Kampé de Fériet, Aczel, etc..
Un equipo de científicos japoneses "escribió" y recuperó una fórmula física en el genoma de un tipo de bacteria. La técnica podría abrir el camino para usar el ADN de animales o plantas para almacenar mucha información en poco espacio. Según los investigadores, el ADN sería un material más resistente que los CD, DVD y los discos duros que suelen romperse fácilmente. (Agencia CyTA-Instituto Leloir. Por Bruno Geller) - Los CD, DVD y los discos duros son soportes físicos que pueden almacenar una gran cantidad de información, sin embargo, tienen la desventaja de que pueden romperse fácilmente. Por ese motivo, científicos de diversos países pretenden crear a partir de materia biológica dispositivos de almacenamiento de memoria más resistentes, que podrían durar miles de años. Esto quizás no sea importante para la finita vida de un individuo, pero tal vez sí podría serlo para la humanidad. Investigadores del Instituto para las Biociencias Avanzadas de la Universidad Keio, Japón, crearon un método para guardar información en el ADN de un organismo viviente que podría ser transmitida a la descendencia, según revela la revista científica The Journal of the American Chemical Society. Los creadores de la técnica, encabezados por el doctor Yoshiaki Ohashi, insertaron en el ADN de la bacteria Bacillus subtilis el mensaje "E=mc², 1905" que corresponde a la ecuación de la Teoría de la relatividad formulada por el físico Albert Einstein en el año 1905. El mensaje fue traducido al sistema binario que en matemática es un sistema de numeración en el que los números se representan utilizando las cifras cero y uno (0 y 1) de acuerdo con determinado orden y que es utilizado por las computadoras para realizar sus operaciones. Mediante la combinación de esos números, que también pueden representar letras, es posible crear el mensaje "E=mc², 1905", así como cualquier otro. El experimento Ohashi y sus colegas utilizaron la adenina (A), la guanina (G), la citosina (C) y la timina (T) -cuatro unidades básicas que conforman junto a otros elementos el ADN- para crear el mensaje. La unión de las bases representaban los números del sistema binario que a su vez representaban las letras y números del mensaje. Una vez creado el mensaje mediante la unión de las bases del ADN, fue insertado en el genoma de la bacteria Bacillus subtilis. Días después, los investigadores recuperaron el mensaje tras descifrar la región del genoma donde fue inscripta la información. Según Ohashi, la secuencia de nucleótidos ?compuestos por las bases de ADN- que puede ser artificialmente insertada en el ADN de organismos vivientes puede ser una alternativa viable para almacenar información por dos razones: el ADN es un material resistente y por otro lado la información podría ser transmitida por herencia a las sucesivas bacterias durante miles de años.
28 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Sin embargo, quedan varias cuestiones por resolver. Si bien las bacterias heredan copias idénticas de genes de sus precursoras, como si fueran clones, el ADN de las bacterias puede experimentar mutaciones que podrían modificar la información guardada. En ese sentido, los autores del trabajo consideran necesario desarrollar técnicas que de forma simultánea descifren el mensaje e interpreten la lógica de las mutaciones. Si esa mutación no se produjera, una persona que no conoce la información "E=mc², 1905" inscrita en el genoma de la bacteria, sería capaz de descifrarlo simplemente comparando el genoma normal con el genoma de la bacteria genéticamente modificada: las diferencias revelarían el mensaje encriptado. Bibliotecas y computadoras del futuro Cabe preguntarse si en el futuro la humanidad dispondrá de bibliotecas vivientes compuestas de bacterias, insectos o plantas cuyos genomas modificados albergarán novelas, diccionarios o enciclopedias, entre otros datos. Con esas técnicas, más de una persona podría poner su biografía a salvo de la curiosidad ajena o bien enviar un mensaje de amor inscrito en el genoma de una rosa. ¿Cuándo llegara la era de las computadoras compuestas por millones de moléculas de ADN capaces de almacenar más información que un chip convencional, dotadas de neuronas artificiales que imiten o superen el funcionamiento del cerebro humano? ¿Habrá sistemas informáticos basados en una combinación de material biológico con circuitos electrónicos y silicio? Expertos en informática y de otras disciplinas están trabajando en esa dirección
Enlaces recomendados: Límites en la compresión de la información ¡Más barata! ¡Más barata! (1ª parte) Información a precio ~0: revolución social, peligros y soluciones
fresqui
del.icio.us
meneame
Buscar en la web Búsqueda escéptica Búsqueda en mis webs
29 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 4. Historia de la Informática Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo
1 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Divulgación Informática Ciencia en general Biología Criminología Inicio Contacte
Antecedentes Cálculo matemático Las generaciones de ordenadores Historia de los ordenadores personales Historia de internet Selecciona un texto y pulsa aquí para oírlo
Las imágenes en miniatura se pueden ver en tamaño normal pulsando sobre ellas, para salir pulsar en la esquina inferior derecha
4.1 Antecedentes El ser humano siempre ha necesitado medios para hacer cálculos y procesar la información. La complejidad de estos se ha ido acrecentando con el tiempo, conforme surgían nuevas necesidades, y ha estado subordinada a los progresos de la tecnología. En cuanto al cálculo, primero surgieron los instrumentos aritméticos, como el ábaco, a partir de los que se ha llegado a las calculadoras y ordenadores actuales. El origen del procesamiento automático de la información, se remonta al año 1896 cuando Herman Hollerith (1860-1929) fundó una empresa que daría lugar a IBM. Actualmente casi todas las necesidades de cálculo, se han visto satisfechas con los ordenadores. Es difícil determinar el punto de inicio para una síntesis histórica de la informática, por cuanto son muchos los trabajos y descubrimientos que trajeron como consecuencia la construcción del primer ordenador. Desde tiempo inmemorial los hombres se han valido de instrumentos para realizar cálculos y para almacenar y procesar información. La primer herramienta que servía para contar y al mismo tiempo para representar las cantidades contadas fueron los dedos, dando origen al sistema decimal de numeración. El hombre primitivo usó piedrecillas para representar números y hacer sumas sencillas. 500 años a.n.e., surgió el ábaco inventado y reinventado por culturas distintas en el espacio y en el tiempo, como los aztecas y los sumerios. El ábaco ruso es decimal, dispone de diez anillos de madera en cada columna. En el chino el tablero está dividido en dos zonas, "cielo" y "tierra", con dos y cinco bolas respectivamente. El japonés consta de cuatro y una bola respectivamente. En Japón existe un Instituto de Investigación del ábaco y un Comité Central de Operadores de ábacos. El 12 de noviembre de 1946 compitieron, el soldado Wood del ejército de EE.UU., que era el operador de máquinas de calcular más experto, con una calculadora eléctrica de las de su época y Kiyoshi Matsuzaki del Departamento de Ahorros del Ministerio de Administración Postal, dotado de un ábaco. Se trataba de resolver cinco cálculos comprendiendo las cuatro operaciones elementales, la victoria fue para el japonés, por cuatro frente a uno.
2 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
En la página Molecular Expressions se muestra un ábaco en el que es posible simular operaciones reales.
EL ÁBACO Considerado como el instrumento más antiguo de cálculo, adaptado y apreciado en diversas culturas. El origen del ábaco esta literalmente perdido en el tiempo. En épocas muy tempranas el hombre primitivo encontró materiales para idear instrumentos de conteo. Es probable que su inicio f uera una superficie plana y piedras que se movían sobre líneas dibujadas con polvo. Hoy en día se tiende a pensar que el origen del ábaco se encuentra en China, donde el uso de este instrumento aun es notable al igual que en Japón. La palabra ábaco es latina y tiene sus orígenes del griego "abax" o "abakon", que significa "superficie plana" o "tabla", es posible que se ha originado de la palabra Semítica Abaq que significa "polvo". Otros nombres son: del ábaco Chino es "Suan Pan", el Japonés es "Soroban", en Corea "Tschu Pan", en Vietnam "Ban Tuan" o "Ban Tien", en Rusia "Schoty", Turquía "Coulba" y Armenia "Choreb". Debido a que gran parte de la aritmética se realizaba en el ábaco, el término ábaco ha pasado a ser sinónimo de aritmética, y encontramos tal denominación en Leonardo de Pisa Fibbonacci (1170-1250) en su libro "Liber Abaci" publicado en 1202, que trata del uso de los números indo-arábigos. Muchas culturas han usado el ábaco o el tablero de conteo, aunque en las culturas europeas desapareció al disponerse de otros métodos para hacer cálculos, hasta tal punto que fue imposible encontrar rastro de su técnica de uso. Las evidencias del uso del ábaco son comentarios de los antiguos escritores griegos. Por ejemplo, Demóstenes (384-322) escribió la necesidad del uso de piedras para realizar cálculos difíciles de realizar en la cabeza. Y los métodos de calculo encontrados en los comentarios de Herodoto (484-425), hablando de los egipcios decía: “Los Egipcios mueven su mano de derecha a izquierda en los cálculos, mientras los Griegos lo hacen de izquierda a derecha". Algunas de la evidencias físicas de la existencia del ábaco se encontraron en épocas antiguas de los Griegos por las excavaciones arqueológicas. En 1851, se encontró una gran ánfora de 120 cm. de alto, se la denominó como "Vaso de Darío" y entre los dibujos tiene una figura que representa un contador que realiza los cálculos. La segunda muestra arqueológica es un auténtico tablero de conteo encontrado en 1846 en la isla de Salamis, el tablero de Salamis probablemente usado en Babilonia 300 a.n.e., es una gran pieza de mármol de 149 cm. de largo por 75 cm. de ancho, con inscripciones que se refieren a ciertos tipos de monedas de la época, este tablero esta dividido en dos partes. Se sabe que los Romanos empleaban su ábaco con piedra caliza o mármol, para las cuentas a las que denominaron "calculi" esta palabra es la raíz de la palabra cálculo". En el siglo XIII se estandarizó una mesa de ábaco en Europa, consistiendo en una mesa cubierta de paño en la que se dibujaban unas líneas con tiza o tinta. Existieron dos intentos por reemplazar la mesa de ábaco por otros más modernos. El primero fue ideado por el filósofo romano Boethuis, quien escribió un libro sobre geometría dedicando un capítulo al uso del ábaco, describió como en lugar de emplear cuentas se podía representar el numero con sólo una cuenta que tuviese los dígitos del 1 al 9 marcados. El segundo intento fue realizado por el monje Gerbert de Avrillac (945-1003), quien fue papa con el nombre de Silvestre II. Tomó ideas del libro de Boethius, y describió el uso de una nueva forma de ábaco en el año 1000. Ninguno de estos dos ábacos fueron populares. La mesa de ábaco fue usada extensamente en Bretaña, al igual esta fue abandonada por la
3 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
mayoría de la gente. El libro "The Grounf of Artes" escrito por Robert Recorde (1510-1558) en 1542, claramente muestra el método de aritmética con la mesa de ábaco. Conforme los numerales indo-arábigos aparecieron en Europa el uso de la mesa de ábaco desapareció por completo, cuando los soldados de Napoleón invadieron Rusia en 1812, trajeron ábacos como trofeos o recuerdos del país. En otras partes del mundo, se encuentra en China la primera evidencia del inicio del ábaco chino que se descubrió, fueron cuentas de cerámica hechas en el occidente de la Dinastía Zhou1 con más de 3000 años. Respecto a los materiales históricos a mano, el libro que registra el comienzo del cálculo con un ábaco se llama Crónica Aritmética escrito por Xu Yue en el oriente de la Dinastía Han (206-220), hace 2000 años. Esto indica que el ábaco tenia una cuenta en la parte superior y cuatro en la inferior. Los ábacos modernos existieron en la Dinastía Song (960-1279) lo que puede ser verificado por alguna evidencia, por ejemplo, en una pintura de Wang Xhenpeng's, muestra el uso extenso entre la gente del sur de la Dinastía Song. Durante la Dinastía (mongol) Yuan (1279-1368)los ábacos tuvieron una etapa donde se fueron popularizando paulatinamente en todo el país, posteriormente entró en la etapa en la que su uso ya era algo común a mediados de la Dinastía Ming (1368-1644) y la técnica de uso paso a ser un sistema algorítmico completo. Un libro escrito por Wu Ching-Hsin-Min en 1450, tiene descripciones acerca de el ábaco, así como una gran numero de libros publicados a finales de la Dinastía Ming, que aseguran el hecho que el ábaco entró en el uso popular. Existen dos trabajos representativos en el cálculo del ábaco en la Dinastia Ming. Uno fue Wang Wensu's Principios matemáticos 1524, y el otro es Cheng Dawei's reglas generales del método de conteo 1592, los cuales plantearon un mayor papel en extender el uso del ábaco. Durante el período de la Dinastía Ming, el ábaco chino se propagó hacia Corea en el 1400 y en Japón en el 1600, así como al sureste de Asia. Durante la Dinastia Ming había un solo tipo de ábaco en China, con una cuenta en la parte superior y cinco en la parte inferior, fue encontrado en la tumba de Lu Weizhen (1543-1610). Después de la Dinastía Qing (1644-1912), el ábaco contó con dos cuentas en la parte superior y cinco en la parte inferior, fue extensamente usado como actualmente ha sido, mientras que el ábaco japonés se diseñó empleando una cuenta en la parte superior (cielo) y cuatro en la inferior (tierra). A finales de la edad media los mongoles propagaron el uso del ábaco en Rusia, que provenía de los chinos y los tártaros. Un hecho muy importante del uso y la potencia del ábaco fue que el 12 de Noviembre de 1946, una competencia, entre el japonés Kiyoshi Matsuzaki del Ministerio Japonés de comunicaciones utilizando un ábaco japonés y el americano Thomas Nathan Wood de la armada de ocupación de los EE.UU. con una calculadora electromecánica, fue llevada a cabo en Tokyo, bajo patrocinio del periódico del ejército americano (U.S. Army), Stars and Stripes. Matsuzaki utilizando el ábaco japonés resultó vencedor en cuatro de las cinco pruebas, perdiendo en la prueba con operaciones de multiplicación. El 13 de Noviembre de 1996, los científicos Maria Teresa Cuberes, James K. Gimzewski, y Reto R. Schlittler del laboratorio de IBM de Suiza de la división de investigación, construyeron un ábaco que utiliza como cuentas moléculas cuyo tamaño es inferior a la millonésima parte del milímetro. El "dedo" que mueve las cuentas moleculares es similar a una aguja cónica que en su extremo más puntiagudo alberga un átomo.
4 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
1) Las fechas de inicio de la dinastía Zhou son dudosas, y varían entre los años 1122, 1050 y 1027 a.n.e., cuando al parecer expulsaron a la débil dinastía Shang. En cuanto a la fecha de su fin, casi todo el mundo coincide en señalar el año 221 a.n.e. Artículo escrito por Manuel Bernal
Antes de aparecer las calculadoras surgieron otros dispositivos de entre los que cabe comentar dos, en los que el matemático escocés John Neper (1550-1617) tuvo un papel destacado. Es conocido por la invención de los logaritmos en 1614, que dieron origen a la regla de cálculo, cuya paternidad es tema de controversia, no obstante el primero en usarla, en 1621, fue el sacerdote inglés William Oughtred (1575-1660). En 1617 Neper dio a conocer un instrumento sencillo para realizar multiplicaciones basándose en sumas, llamado rodillos de Neper, idea que aparecía varios siglos antes en libros árabes. La necesidad de calcular sin errores dio lugar a la calculadora, la mecánica es una especie de ábaco, pero con ruedas dentadas en lugar de varillas y bolas, dotada de un mecanismo para el transporte de las unidades que se lleven, de una posición digital a la siguiente más significativa. Hasta hace pocas décadas se creía que el filósofo francés Blas Pascal (1623-1662) había sido el creador de la calculadora. Pascal diseñó su "machina arithmetica", posteriormente denominada Pascalina, a la edad de 19 años, para que su padre que era recaudador de impuestos tuviera tiempo libre para jugar con él a la paume. Leonardo Da Vinci (1452-1519) diseñó una sumadora que fue reconstruida en 1967 a partir de uno de sus códices. En 1935 el historiador Franz Hammer, revisando la correspondencia del astrónomo Johannes Kepler descubrió que el alemán Whilem Schickard (1592-1635) había inventado una calculadora que era una combinación de los rodillos de Neper con una sumadora-restadora similar a la de Pascal, obviamente no sólo era superior a la pascalina, sino que se construyó el año en que nació Pascal. El primero en construir una calculadora, en 1671, fue el filósofo y matemático alemán Gottfried Leibniz (1646-1716),inventor junto con Isaac Newton del cálculo infinitesimal, aunque de forma independiente. Fue denominada calculadora universal, su elemento característico era un tambor cilíndrico con nueve dientes de longitud variable, llamado rueda escalonada, que se encuentra en prácticamente todas las calculadoras mecánicas posteriores, incluso las del siglo XX. Las técnicas de producción tan poco eficientes de aquella época, impidieron que el invento de Leibniz se fabricara masivamente. Se llegaron a construir 1500 unidades, pero hubo que esperar hasta 1820 para que Carlos Thomas, director de una aseguradora diseñara un modelo capaz de ser producido a bajo coste y a escala industrial. En 1872 el estadounidense Frank Baldwin construyó una calculadora a la que años más tarde le añadió la denominada rueda Odhner. Esta fue la antecesora de la clásica calculadora de sobremesa, con manecilla lateral, difundida universalmente desde 1910 y que todavía se encuentra en rastros. De ella deriva la popular caja registradora inventada en 1879 por James Ritty, comercializada bajo la marca National y una sumadora provista de impresora inventada por William Borroughs (1855-1898) en 1884, fundador de la empresa que llevó su apellido. En 1878 el periodista y escritor gallego, afincado en EE.UU., Ramón Verea García (1833-1899) patentó en Nueva York una calculadora por la que se le otorgó la medalla de oro de la exposición de Matanzas (Cuba). Aseguraba que no había fabricado la máquina para patentarla y venderla, sino para demostrar que era posible que un español pudiera inventar tan bien como un norteamericano. A partir de entonces sólo
5 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
se dedicó al periodismo, combatiendo la política de colonialismo de EE.UU., por lo que tuvo que exiliarse en Guatemala y posteriormente en Argentina.
4.2 Cálculo matemático Una calculadora no es un dispositivo automático, lo cual implica que requiere la acción constante de un operador, que es un obstáculo para la velocidad y fiabilidad de los resultados. En 1812 el matemático inglés Charles Babbage (1792-1871), habiendo constatado que las tablas trigonométricas estaban plagadas de errores al haber sido calculadas a mano, concibió la denominada máquina de diferencias, un instrumento mecánico para calcular e imprimir tablas de funciones. En realidad se trataba de una máquina que calculaba el valor numérico de una función polinómica sobre una progresión aritmética, pues las funciones se pueden aproximar por polinomios. Tras una serie de fracasos, en 1832 Babbage desarrolló el proyecto de la máquina analítica. Se trataba de un ordenador mecánico de propósito general, preparado para realizar cualquier tipo de cálculo mediante un programa adecuado. Sus elementos fundamentales serían: una memoria para 1000 números de 50 cifras, una unidad aritmético lógica para los cálculos, una unidad de control para que las operaciones se realizasen en el orden correcto, lectoras de fichas perforadas (que ya se usaban desde hace un siglo en los telares) para la entrada de datos y una impresora para la salida de resultados. Una amiga y colaboradora, la señorita Ada Augusta Byron (1815-1852), condesa de Lovelace, publicó una serie de programas para resolver ecuaciones trascendentes e integrales definidas, con la máquina analítica. En dichos programas se hacía uso de bifurcaciones, hacia delante y atrás y de bucles. Fue la primera programadora de la historia, por eso el departamento de Defensa de EE.UU. denominó ADA al lenguaje de programación oficial en sus dependencias. Es sorprendente que a alguien se le ocurriera diseñar un ordenador hace más de un siglo y medio. Aunque nunca se llegó a construir esta máquina por falta de precisión en algunas piezas. Babbage tenía manía a los organilleros, y al morir los periódicos londinenses destacaron ese detalle. Entre sus sucesores destaca el ingeniero santanderino Leonardo Torres Quevedo (1852-1936). Logró renombre universal gracias a sus inventos. Construyó transbordadores (uno en las cataratas del Niágara), un aparato teledirigido por ondas de radio, un globo dirigido y semirrígido, usado por franceses e ingleses durante la Primera Guerra Mundial y un sinfín de máquinas para cálculo científico. De estos destacan los aritmómetros en los que introdujo la aritmética de punto flotante, eran máquinas de cálculo matemático sobre la base de relés, y dotadas de memoria, que se gobernaban a distancia mediante una máquina de escribir, la cual servía para entrar operandos, operaciones y para obtener los resultados. Asimismo realizó estudios sobre los hoy denominados robots, y sus aplicaciones en la industria, por lo cual no sólo es considerado un precursor de la informática sino también de la cibernética; como ejemplo práctico construyó una máquina de jugar al ajedrez, un autómata capaz de dar mate de rey y torre contra rey y que reaccionaba ante las jugadas irreglamentarias del contrario. En los años 1920 tuvo en sus manos de dar a España la primacía en la informática, si no sucedió fue porque en aquella época no hacía falta. La necesidad de un ordenador surgió con la Segunda Guerra Mundial, por lo que se construyeron los primeros ordenadores basándose en los trabajos de Babbage y de Torres Quevedo.
4.3 Las generaciones de ordenadores
6 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Informática se puede considerar como "Tratamiento automático de la información" la primera persona que construyó una máquina (que todavía no era un ordenador) fue el americano Herman Hollerit (1860-1929). En 1886, cuando trabajaba para la oficina del censo en EE.UU. se percató de que el procesamiento de los datos del censo del año 1880, no se había terminado en el momento de hacer el de 1890. Para resolver el problema diseñó una tarjeta que se debía perforar con los datos de cada uno de los encuestados. Estas fichas se introducían en una lectora que detectaba las perforaciones mediante un baño de mercurio (Hg), que al introducirse por los agujeros provocaba contactos eléctricos. Finalmente los datos se registraban en una tabuladora. Con ello se multiplicó por 100 la velocidad de proceso, 200 fichas por minuto. Hollerit fundó su propia empresa, la Tabuling Machine Co. (1896),posteriormente convertida en la Computing Tabulating Recording (1911), tras pasar a manos de Thomas Watson se denominó en 1924 International Bussiness Machines (IBM). Otra gran empresa, Unisys, tiene su remoto origen en esta época. Al dejar Hollerit la Oficina del Censo, lo sustituyó James Powers, quien fundó en 1911 la Powers Accounting Machine Co., que pasó a formar parte en 1927 de la Remington-Rand Corporation. Esta empresa años más tarde construyó los primeros ordenadores Univac. Hasta 1950 las empresas fundadas por Hollerit y Powers se dedicaron a la fabricación de tabuladoras para la gestión de grandes empresas y organismos oficiales. La primera tabuladora llegó a España en 1925 y se instaló en la entonces denominada Compañía Telefónica Nacional de España (actualmente Telefónica de España S.A.). En 1926 se instaló otra en el ayuntamiento de Barcelona. A finales de los años 1950 había unas 70 en toda España. Ordenadores de Primera Generación Los primeros ordenadores fueron electromecánicos (en base a relés). Aunque Jorge Stibz construyó en 1949 en los laboratorios Bell una máquina programable que trabajaba con números complejos, el Complex Calculator, se considera que el primer ordenador fue desarrollado en 1941, el Z3 del alemán Konrad Zuse (1910-1995), cuya empresa fue adquirida por Siemens. Le siguió en 1944 el Mark I de Howard Aiken (1900-1973) y Grace Hopper (1906-1992), construido en la Universidad de Hardward con la colaboración de IBM. Pesaba cinco toneladas y tenía más de 750000 piezas y 800 km de cable. Durante la década de 1950 Aiken trabajó activamente con investigadores españoles del Instituto de Electricidad y Automática del CSIC, fundado por Torres Quevedo. La sustitución de los relés por tubos de vacío dio lugar a la Primera Generación de ordenadores electrónicos. El primero fue fabricado en 1945,el ENIAC (Electronic Numerical Integrator and Calculator) de los estadounidenses John Eckert (1919-1995) y John Mauchly (1907-1980) que se usó en el cálculo de trayectorias de proyectiles. Acabada la guerra se utilizó para calcular el número pi con unos 2000 decimales, y para hacer los primeros diseños de la bomba de hidrógeno. Tenía 18000 tubos y pesaba 30000 kg. Era 300 veces más rápido que el Mark I y costaba 400000 dólares frente a los cinco millones del Mark I. Sin embargo sólo tenía 20 registros de memoria, de 10 dígitos; estaba pues muy lejos de cualquier ordenador personal. En un test de prueba en febrero de 1946 el Eniac resolvió en dos horas un problema de física nuclear que previamente habría requerido 100 años de trabajo humano. Lo que lo caracterizaba como a los ordenadores modernos no era simplemente su velocidad de cálculo sino el hecho de que combinando operaciones permitía realizar tareas que previamente eran imposibles. 7 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Antes del ENIAC, en 1940 se crearon otras máquinas electrónicas, un pequeño calculador del físico John Atanasoff (1903-1995) que no era automático ni programable y varias máquinas británicas para descifrar los mensajes del ejército alemán, por ejemplo, en 1943 el Colossus. La batalla legal por la palabra "Computer" la ganó en el año 1973 póstumamente Atanasoff. Echerk y Mauchly crearon la Electronic Control Co, que en 1950 fue adquirida por la Remington-Rand, allí diseñaron el primer ordenador electrónico de gestión, el UNIVAC (UNIversal Automatic Computer). El aparato tuvo gran éxito y copó el mercado, que hasta entonces había sido feudo de IBM. En respuesta IBM creó una serie de ordenadores excelentes, como el IBM 705, en 1952, desbancando a Univac, mediante una publicidad agresiva. El UNIVAC II no salió hasta 1958, cuando IBM ya había recobrado el liderato. De poco les había servido una fusión con Sperry Giroscope Co (1955) para crear la Sperry Rand Corporation. En 1945 mientras se construía el ENIAC, se incorporó al equipo el prestigioso matemático húngaro Johannes Von Neumann (1903-1957), quien propuso que los programas se almacenasen en la memoria como si fuesen datos, y no en una memoria especial, como se hacía desde el diseño de Babbage, equipo que se iba a llamar EDVAC. Los informes fueron tan precisos que otros se adelantaron y así el primer ordenador tipo Von Neumann fue el EDSAC (Electronic Delay Storage Automatic Calculator) construido el año 1949 por Maurice Wilkes (1913-) en la Universidad de Cambridge. De esta generación sólo llegó uno a España, un IBM 650, contratado por RENFE en 1958. Ordenadores de segunda generación Se considera el inicio en 1958 con la sustitución de los tubos de vacío por los transistores. Los primeros ordenadores transistorizados fueron dos pequeños modelos de NCR y RCA. Los primeros de IBM y Sperry Rand fueron el IBM 7070 (1960) y el UNIVAC 1107 (1962), respectivamente. Bull comercializó los Gamma 30 y 60. Durante esta época se introdujeron las unidades de cinta y discos magnéticos, y las lectoras de tarjetas perforadas e impresoras de alta velocidad. Así mismo aparecieron algunos lenguajes de programación, COBOL (1959), Algol (1960), el LISP(1962) y FORTRAN que fue creado en 1954 para IBM, por John Backus (1924-2007). El segundo ordenador instalado en España, y primero de la segunda generación llegó en 1959, era un UNIVAC UCT, contratado por la antigua Junta de Energía Nuclear, actualmente CIEMAT. La era de la informática llegó realmente a nuestro país en 1961, en la Feria de Muestras de Barcelona, se presentó un IBM 1401. Los primeros se instalaron en 1962, Sevillana de Electricidad (empresa del grupo ENDESA), Galerías Preciados (Actualmente propiedad de El Corte Inglés S.A.) y Ministerio de Hacienda. En 1967 IBM donó a la Universidad Complutense de Madrid un ordenador científico, modelo 7094. Ordenadores de tercera generación
8 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
La principal característica de esta generación fue el uso del circuito integrado, que se incorporó a mediados de los años 1960. Destaca la familia IBM 360 en cuyo desarrollo invirtió 5000 millones de dólares de aquella época (1964) y sobre todo la IBM 370 (1970), el producto más famoso de esta generación. Sperry Rand, en 1965 introdujo la famosa serie 1100. Durante esta época surgieron la multiprogramación y el tiempo compartido. También tuvo lugar la denominada "crisis del software" Se intentó la creación de lenguajes universales, el PL/1 (1964) y se estandarizaron los lenguajes más utilizados: Fortran (1966), Algol (1968) y el COBOL (1970). También datan de esta generación el BASIC (1964) y el Pascal (1971). En España durante el trienio 1964-67 las tabuladoras fueron sustituidas masivamente por ordenadores, y prácticamente desaparecieron al entrar en la década de los 70. En 1970 el parque de ordenadores e distribuía así: Madrid 50%, Barcelona 34% y el resto lo tenían los grandes bancos del norte y algunas cajas de ahorros. Los miniordenadores surgieron a finales de los 60, como elemento de transición entre las generaciones tercera y cuarta, con los circuitos integrados de media escala (MSI). Sus destinatarios fueron grandes y medianas empresas. Disponían de varias terminales y se organizaban en redes. Destaca la familia PDP 11 de la desparecida Digital Equipment Corporation. Ordenadores de cuarta generación El elemento que provocó el nacimiento de esta generación se considera habitualmente, aunque con cierta controversia, el microprocesador Intel 4004, desarrollado por Intel en 1971. El primer ordenador personal en EE.UU. fue el Altair 8800 (1974) de la desaparecida empresa MITS. Microsoft tuvo el acierto de construir un intérprete BASIC para él, MITS sobrevivió un par de años, pero Microsoft inició un despegue imparable, dando un gran salto al facilitar a IBM el sistema operativo MS-DOS para el PC, que a su vez lo adquirió a otra empresa. Las imágenes siguientes muestran microprocesadores bajo distintas escalas de ampliación.
9 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
En 1971 apareció el PET 2001 de Commodore, empresa absorbida por la holandesa Tulip, el TRS 80 de Radio Shack y el Apple II, fabricado en un garaje por dos jóvenes norteamericanos: Steven Jobs (1955-) y Stephen Wozniak (1950-). A partir de 1980 se produce una eclosión de marcas. Destaca el Sinclair ZX80, precedente del ZX81 y del Spectrum, fabricante absorbido por Amstrad, que consiguió gran éxito vendiendo productos de muy baja calidad fabricados en Corea. Amstrad, como es lógico, abandonó la informática, aunque sigue con equipos musicales y antenas de televisión, de muy baja calidad. En Agosto de 1981 se presentó el IBM PC, que dio lugar a la difusión masiva de la informática personal. Sin embargo la microinformática, contrariamente a lo que se cree, no comenzó en EE.UU, pues en el año 1973 se creó en España, con la invención del primer ordenador personal, el Kentelek 8, a cargo de la empresa Distesa (de la editorial Anaya), el creador fue Manuel Puigbó Rocafort. Jordi Ustrell diseño posteriormente otro ordenador personal par la empresa catalana EINA. Por esta época también surgieron en Francia los microordenadores Micral Como se ha visto, desde el ábaco hasta las primeras calculadoras mecánicas pasaron 12 siglos, desde estas últimas al primer ordenador transcurrieron dos siglos y desde el Mark I al primer microordenador pasaron 28 años. Desde entonces la velocidad de desarrollo es difícil de imaginar. Ordenadores de quinta generación En octubre de 1981 el mundo de los ordenadores se vio sacudido por el anuncio hecho en Japón, de una iniciativa de investigación y desarrollo orientada a producir una nueva generación de ordenadores en la primera década de los años de los 90, a los que se les dio el nombre de ordenadores de quinta generación. Los ordenadores de esta generación deberían de ser capaces de resolver problemas muy complicados, algunos de los cuales requieren toda la experiencia, capacidad de razonamiento e inteligencia de las personas para ser resueltos. Deberían de ser capaces de trabajar con grandes subconjuntos de los lenguajes naturales y estar asentados en grandes bases de conocimientos. A pesar de su complejidad los ordenadores de esta generación se están diseñando para ser manejados por personas no expertas en informática. Para conseguir estos fines tan ambiciosos estos equipos no tendrán un único procesador, sino un gran número agrupado en tres subsistemas fundamentales: un sistema inteligente, un mecanismo de inferencia y una interfaz de usuario inteligente. Los avances se sitúan en materia de teleinformática, y una progresiva disminución de tamaño y coste del equipo, así como de técnicas de programación y desarrollo de inteligencia artificial, y de control de procesos (robotización). A los 10 años, se vio el fracaso del proyecto, actualmente no están desarrollados estos ordenadores, aunque se trabajó en distintos países, cuyos programas de investigación más importantes fueron: EE.UU.: Proyectos DARPA y MCC Unión Europea: Proyecto Sprit Reino Unido: Proyecto Alvey Japón: Proyecto ICOT
4.4 Historia de los ordenadores personales Diseño del primer PC de IBM El IBM PC, presentado en agosto de 1981, fue un equipo cuyo objetivo era el mercado doméstico, con lo cual se comprenderán fácilmente las limitaciones existentes en la primera generación. 10 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Externamente estaba integrado por tres piezas, la unidad central, de sobremesa y de gran tamaño, la pantalla, monocroma y de modo texto y un teclado. A esto se podía añadir una impresora de nueve agujas, con la marca IBM pero fabricada por la japonesa Epson.
Por lo que respecta al microprocesador se trataba del Intel 8088, una versión, con el bus recortado a la mitad de ancho, del 8086. Esta CPU suponía un avance respecto a los microordenadores comercializados en esa época, pues todos eran de 8 bit, a excepción del Olivetti M20, que incluía una CPU Zilog 8000 de 16 bit, aunque el 8088 no era un auténtico 16 bit. El usar la CPU Intel 8088, con bus externo de 8 bit, tenía una explicación, poder emplear todos los "chips" de acompañamiento (que en aquella época eran bastantes) existentes en el mercado, a precio barato, de 8 bit. Si se hubiera empleado la CPU Intel 8086, como hicieron de inmediato otras empresas como Olivetti en su M24 y la desaparecida Victor, todos estos chips habrían de ser de 16 bit, con un precio muy elevado en aquella época. Así se concluye que IBM, buscó el fabricar un equipo novedoso en su CPU, aunque limitando al máximo el precio de sus componentes, para mantener un producto de calidad alta, prestaciones superiores frente a los productos domésticos de la competencia, y a un precio que le permitiera mantener los grandes márgenes comerciales. El siguiente vídeo muestra uno de los primeros PCs de IBM, el 5150 mostrando la ejecución de un programa escrito en ensambaldor para el Intel 8088.
La configuración básica estaba integrada por: CPU Intel 8088 a 4.77 MHz 64 kO RAM
11 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Controladora de vídeo modo texto Controladora de impresora (Centronics) Monitor exclusivamente de modo texto Cinta de casette para almacenar datos y programas Lenguaje BASIC en ROM Teclado, de 84 teclas Sin embargo esta versión no se llegó a comercializar pues se sustituyó la unidad de casette por una de disco flexible de 160 kOctetos de capacidad, y como es lógico con su controladora. A su vez se introdujo el sistema operativo PC-DOS 1.0, proporcionado, aunque no creado, por Microsoft (en aquella época sólo era conocida por su lenguaje BASIC) a IBM. La gran ventaja de este equipo era su facilidad de ampliación debido a los "slots" o zócalos de que disponía, lo cual dio origen a que un gran número de empresas independientes crearan tarjetas electrónicas adaptables, que realizaban funciones no disponibles en el PC o que mejoraban las existentes. Estos zócalos constituyen el tan conocido BUS de expansión del PC, que dio lugar al BUS AT, un estándar a nivel microinformático, conocido como Bus ISA. Se define como ancho de banda del bus, la cantidad de bits que puede transportar por unidad de tiempo, siendo inferior a 4 MO/s. El éxito de este equipo fue superior al previsto por IBM, prueba de ello es que no estuvo disponible en Europa hasta casi dos años después de su lanzamiento en EE.UU., momento en que se empezó a fabricar en Escocia (R.U.). Este éxito se debió a la gran fama de IBM, pués en esa época había equipos muy superiores, como los antes citado de Olivetti y Victor, y a precios más asequibles. Dado que las especificaciones técnicas fueron hechas públicas por IBM, esto dio origen, como se ha comentado previamente, al nacimiento de gran cantidad de empresas que crearon tarjetas adaptables al bus. Entre ellas se pueden citar, por ejemplo, tarjetas con un reloj con batería, pues el PC perdía la hora al apagarlo, tajetas de vídeo con posibilidades gráficas y que por lo tanto soportaban un monitor gráfico y a veces en colores, tarjetas de comunicaciones como por ejemplo tipo modem o telex, y otras muchas posibilidades. IBM reaccionó con alguna lentitud, presentando algunas mejoras en su PC, conocido como IBM PC XT, en el que incorporó un disco duro de 20 MO con interface MFM (actualmente desaparecida), con su controladora, y una tarjeta de vídeo que soportaba monitores en color y gráficos, pero con una resolución baja (640*200 puntos), que para lo único que servían era para destrozar la vista de los usuarios. A su vez incluyó disqueteras para soportes con capacidad de 360 kO. Simultáneamente aparecieron los primeros microordenadores clónicos y compatibles. Por ejemplo, en EE.UU. Olivetti Docutel presentó el Olivetti PC, una copia casi idéntica del IBM PC XT, aunque con mejores prestaciones y precio más bajo; en Europa apareció el Olivetti M24, con CPU Intel 8086, y buses de 16 bit, lo cual lo hizo muy superior al XT de IBM, siendo un gran éxito a nivel mundial (se comercializó con otras marcas: AT&T, Toshiba, Logabax, Xerox, Hermes ...). A su vez la francesa Bull presentó un clónico del IBM PC XT, copia exacta, aunque lo raro es que tenía prestaciones inferiores al de IBM; cosa incomprensible. De esta forma fueron apareciendo equipos que intentaban superar a los de IBM, pero aun no había dado comienzo la época de los clónicos a bajo precio y montados en base a piezas fabricadas en Formosa y otros países asiáticos. La gran difusión de estos equipos, hizo que aparecieran gran cantidad de programas, lo cual reforzó el liderazgo de los PC's de IBM. También surgió un equipo de IBM conocido como portable (no portátil), que además de ser bastante voluminoso, no tenía autonomía eléctrica, es decir había que enchufarlo a la red. Otro inconveniente fue que la pantalla era de tubo de rayos catódicos, como los ordenadores de sobremesa, aunque de pequeñas dimensiones, pero con toda la problemática que conllevan para su transporte. Este equipo no era muy
12 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
asequible ni en precio ni en portabilidad, por lo que otras empresas intentaron mejorarlo, así surgió, con este propósito, Compaq, empresa comprada por Hewlett Packard. El PC AT de IBM Al descubrir IBM, que su equipo se estaba usando a nivel profesional, y poco a nivel doméstico, y que por otra parte la competencia ofrecía equipos con más prestaciones más baratos y totalmente compatibles, decidió sacar una versión mejorada de sus PC's, que denominó AT (Tecnología Avanzada). Este incluía una CPU de 16 bit, superior a la 8086, era la 80286 de Intel, cuya principal diferencia repecto a la 8086 era el bus de direcciones de 20 bit, en vez de 16, por lo que podía direccionar mucha más memoria, aunque en aquella época no era una gran necesidad. Otra diferencia fundamental, era que los "slots" de expansión constituían un bus de 16 bit, lo cual permitía utilizar las tarjetas de los XT, a 8 bit, y las nuevas que se crearan para él. Este bus AT se ha convertido en un estándar (Bus ISA) ampliamente usado hasta hace poco tiempo. A su vez la frecuencia de reloj pasó a ser de 6 u 8 MHz, frente a los 4.77 del PC original. Dado que Intel dió licencias para que sus CPU's fueran fabricadas por otras empresas (Fujitsu, Siemens, AMD, Harris, ...), se abarataron los costes de tal forma, que apareció el fenómeno de los clónicos tal como lo conocemos actualmente, lo cual perjudicó mucho a IBM, pués el mercado no sólo se distribuía entre IBM y las marcas de prestigio que comercializaban compatibles (Olivetti, Bull, Compaq, Xerox, AT&T, Philips, NCR y algunas otras), sino que empresas con pocos medios y con gastos nulos de investigación, pues gran parte del producto lo copiaban ilegalmente, podían ofrecer equipos clónicos a precios imbatibles, aunque la mayoría de las veces con una calidad y seguridad para el usuario ínfimas. La arquitectura de un AT estaba compuesta por: Fuente de alimentación conmutada Placa base o placa madre, que incorpora: CPU Intel 80286 con frecuencia de reloj desde 6 hasta 20 MHz Memoria RAM de 1 MO. ampliable Conjunto de chips (ChipSet), que gestionan el sistema Tarjeta controladora de vídeo, gráfico y color (640*200) Tarjeta comunicaciones RS 232C Tarjeta controladora impresora (Centronics) Tarjeta controladora de dos discos duros MFM y dos disqueteras Tarjeta para ampliación de memoria Bus con los "slots" de expansión Bus Local PC Reloj en tiempo real, con batería Teclado mejorado de 104 teclas Parte o en algunos casos todas, las tarjetas indicadas hubo fabricantes que las incluyeron el la placa base, dejando así más zócals libres en le BUS AT, para posteriores ampliaciones. Los IBM PS/2 Ante la situación de competencia en la que se vió inmersa IBM, actuó de dos formas, la primera fue exigir a todos los fabricantes que le habían copiado sus productos el pago de los "royalties" corrspondientes, a lo cual, dado el inmenso poder de IBM, no se negaron, y por otra parte diseñar una nueva línea de equipos, legalmente muy difíciles de copiar por su gran detalle de patentes. De esta forma nacieron los IBM PS/2. Una de las innovaciones de estos equipos era el bus a 32 bit, podían incluir CPU Intel 386, muy mejorado, en el que se introducian las tarjetas de expansión, pues IBM lo cambió por completo, llamándole "Microchannel", lo cual dió lugar a los equipos con arquitectura MCA (Arquitectura Microcanal). Otra
13 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
innovación fue el cambio de tipo de monitores, y por lo tanto de controladora, se introdujeron los monitores analógicos, con una resolución superior a los previamente empleados (digitales) y con una variedad de colores muy superior. Estas dos innovaciones supusieron que no valía nada de lo anterior y que además los clónicos, en principio se verían desplazados del mercado. A su vez se introdujeron nuevas CPU´s de Intel, las 386 y 386SX, con mejoras significativas frente a sus predecesoras. La arquitectura MCA fue comercializada por algunos fabricantes aparte de IBM, como por ejemplo Olivetti, pero con muy poco éxito. Además dado que estos equipos, incluso los de IBM se difundieron poco todas las tarjetas de ampliación diseñadas para ellos eran caras, lo cual hacía de esta arquitectura un producto poco atractivo. Simultáneamente a la aparición de estos equipos se comercializó un nuevo sistema operativo denominado OS/2, desarrollado entre IBM y Microsoft, aunque las versiones posteriores fueron creadas por IBM; actualmente ya no se comercializa. A su vez Compaq creó un bus específico para sus equipos de gama alta, el denominado Triflex, que comprende tres buses interconectados, uno de 128 bit para la memoria, otro de 64 bit para uno o dos microprocesadores 486 (a 267 MO/s) y un bus EISA (que se describirá en el apartado siguiente). El reconocimiento del fracaso de la arquitectura MCA, por parte de IBM, está claro, pués una nueva generación de equipos que comercializó posteriormente, para uso doméstico, los PS/1, no utilizaban arquitectura MCA. A su vez como no logró frenar el avance de los clónicos, IBM decidió comercializar clónicos de países asiáticos, con la marca Ambra, lo cual acabó en fracaso al poco tiempo. Actualmente IBM ha vendido la división de PC's a la empresa china Lenovo, debido a los bajos márgenes de beneficios. EL BUS EISA Dado que la arquitectura MCA era muy cerrada, un grupo de fabricantes de microordenadores, AST Research, Compaq Computer, Epson, Hewlett-Packard, NEC, Olivetti, Tandy, WYSE y Zenith Data Systems, decidieron crear un bus con prestaciones superiores al ISA, pero que a su vez fuera compatible con él, esto dio origen al bus EISA (Extendido ISA). Sus características eran: 32 bit, ancho de banda de 33 MO/s y frecuencia de reloj 8 MHz. EISA sólo se ha usado en los microordenadores de gama alta y ha tenido poca difusión, a pesar de sus ventajas sobre ISA y a valer las tarjetas de expansión existentes, lo cual repercutió en que no se abarataran los precios. De forma que en el año 1992 la situación era la siguiente: Bus ISA, un auténtico cuello de botella Bus MCA, muy restringido y sin difusión al gran público Bus EISA, sólo usado en equipos de gama alta Bus Local PC existiendo demanda para un ancho de banda aún mayor, lo cual daría origen a otros buses. Bus Local VESA Es una extensión de la arquitectura tradicional del PC, dado que el bus ISA era cuello de botella, la solución es conectar algunos dispositivos directamente a la CPU, mediante un bus conocido como bus local. Este ha de tener el mismo ancho que el microprocesador (16 bit en un 286 o 386SX y 32 bit en un
14 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
386DX o 486), por lo que eran realidad las velocidades elevadas. Lo ideal es conectar a este bus las controladoras de vídeo y de disco duro, mientras que otras tarjetas que no requieren grandes velocidades se mantienen en el bus ISA. Surgieron algunos problemas, pues la CPU no puede soportar la conexión directa de más de dos o tres tarjetas, además el diseño de la placa base ha de hecerse de forma que las distancias sean mínimas para evitar retrasos. También es conveniente usar memorias caché. Su principal ventaja es que cuadruplican el ancho de banda, llegando a 133 MO/s. VESA es el acrónimo de la Asociación de Fabricantes de Controladoras de Vídeo (Video Electronics Standars Association), que agrupa a más de 120 fabricantes, y fueron los que lo propusieron, disponible desde finales de 1992 y desde 1996 fuera de uso. Este bus va a la misma velocidad que el procesador, siendo una solución sencilla, que no incluye soporte de DMA ni de interrupciones, lo que obliga a la mayoría de las tarjetas a estar conectadas a los dos buses, el ISA y el VESA, para aprovechar del primero las caracteristicas de E/S y del segundo el ancho de banda.
Al salir al mercado las placas madre con bus VESA, su precio era algo superior al de las con bus ISA, hubo una época en que dominaron el mercado, pero han desaparecido del mercado, frente al bus PCI. Para equipos Pentium sólo se llegaron a fabricar algunas placas VESA. Bus Local PCI Introducción PCI es abreviatura de "Peripheral Component Interface", diseñado por Intel. En 1992 Intel y otras compañías formaron el PCI Special Interest Group para promocionar, supervisar y mejorar el desarrollo de PCI como estándar de bus local abierto y no propietario. Este grupo cuenta con más de 160 fabricantes. Es una solución completa, dado que a diferencia del VESA incluye ventajas como el soporte de interrupciones y DMA. Lo cual implicaba que necesita tres chips específicos, y por lo tanto un coste superior. Las especificaciones del bus local PCI ofrecen un número de beneficios clave: Altas prestaciones Compatibilidad Independencia del procesador. Flexibilidad de plataforma Bus Local PC rentabilidad Soporte futuro Altas prestaciones Al contrario del bus local VESA que sólo está pensado para acelerar las aplicaciones gráficas, PCI es una solución de sistema global. Proporciona mayores prestaciones para los adaptadores de redes, unidades de disco duro, vídeo animado, gráficos y otros periféricos que requieren gran velocidad. Funcionando a una velocidad de reloj de 33 MHz, PCI emplea un bus de datos de 32 bit y ancho de banda de 132 MO/s, frente a 5 MO/s del bus ISA. Otras características para permitir operaciones simultáneas, mantener el bus lleno de datos y minimizar los estados de espera de la CPU, son:
15 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Ráfagas Lineales. Es un método de transferencia de datos que asegura que el bus siempre tenga datos. Estas ráfagas permiten utilizar más ancho de banda para enviar datos en vez de direcciones. Además PCI es único, pues soporta tanto lecturas como escrituras en ráfaga, muy importante con aceleradores gráficos, cuando más del 90% de los accesos de datos de la CPU, son escrituras a la memoria de vídeo desde la memoria principal. Aunque en los nuevos diseños se está dando otro tratamiento más eficaz a los sistemas gráficos. Baja latencia de acceso Los dispositivos diseñados para soportar PCI tienen una baja latencia de acceso, lo que reduce en más de un orden de magnitud el tiempo requerido para que un periférico obtenga el control del bus después de requerir el acceso. Por ejemplo una tarjeta de red Ethernet, puede tener grandes ficheros de datos llegando a su tampón. Esperando acceder al bus, la tarjeta no puede transferir los datos de los ficheros a la CPU lo bastante rápido para evitar una sobrecarga del tampón, lo que obliga a almacenar en una RAM adicional los contenidos de los ficheros. Como los dispositivos PCI soportan tiempos de acceso, la tarjeta de red puede envBus Local PCiar datos más rapidamente a la CPU, redundando en un precio inferior al no necesitarse RAM adicional. Concurrencia y Maestros de Bus Las mejoras de prestaciones también se logran mediante la posibilidad de PCI de ser maestro de bus y permitir la concurrencia. En la mayoría de los buses existe el dominio de bus, que permite a cualquiera de un número de periféricos inteligentes tomar l control del bus para acelerar las tareas de proceso intensivo de alta prioridad. La posibilidad de concurrencia, única de PCI, asegura que el microprocesador opera simultáneamente con estos maestros, en vez de esperarlos. Compatibilidad Es compatible, en la arquitectura de placas base, con ISA, EISA y MCA, y a veces también se encuentran placas que incluyen el VESA. A su vez cualquier tarjeta PCI funcionará con cualquier sistema compatible PCI, sin que importe el tipo de bus de expansión o Bus Local PCde CPU en uso. Independencia del procesador La arquitectura independiente del procesador de PCI dispone de un diseño único de tampón intermediario entre el subsistema de la CPU y los periféricos. Lo normal es que si se añaden a la CPU más dispositivos, se degradan las prestaciones y baja la fiabilidad. El uso del tampón permite a los usuarios ampliar su sistema al añadir múltiples dispositivos periféricos e introducir variaciones de prestaciones a diferentes velocidades de reloj. El diseño independiente del microprocesador aseguran que los diseños de las placas no se quedarán obsoletos. Soporte de plataforma flexible PCI proporciona una solución de bus local económica para cualquier tipo de equipo, no sólo los normales, sino para los servidores y los portátiles Rentabilidad PCI se diseñó con un objetivo de bajar los costes globales de los desarrollos. Utiliza "chips", ya sean fabricados por Intel o por otras empresas como VIA y Opti, altamente integrados, para incorporar funciones de sistema como controladores de DRAM y caché, eliminando costes y espacio asociados con la circuitería de soporte, Frente a los chips VESA con 80 patillas, los PCI son más pequeños, pues multiplexan los buses de datos y direcciones.
16 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Desarrollos posteriores del bus PCI Dado que la arquitectura de este bus es muy flexible, se efectuó un desarrollo específico para equipos de aplicaciones industriales. Empresas de dicho entorno crearon unas especificaciones dando lugar al denominado Compact PCI, que ofrece la posibilidad de diseñar ordenadores con dimensiones reducidas, (placas de 160 * 100 mm) soportando ambientes agresivos. Otra de las ventajas es que se pueden crear puentes con otros buses estándares en la industria, como VME y STD. La versión 2.2 de las especificaciones, ofrece como novedad más importante, que los nuevos equipos de acuerdo con esta versióm, permiten el intercambio de placas en el bus, sin necesidad de apagar el ordenador. La última versión está operativa desde junio de 2004 y se denomina PCI Express, siendo muy superior en prestaciones respecto al bus AGP, que se creó para mejorar la velocidad de acceso de los controladores gráficos al micrprocesador del ordenador.
Comparación entre buses Bus 1394 FireWire En 1995 el "Institute of Electrical and Electronics Engineers (IEEE)" estableció las bases de un nuevo estándar, el bus serie de elevadas pretaciones IEEE1394. Desde 1986 se ha tendido a unificar los diferentes buses en serie, la aparición de nuevos dispositivos grandes consumidores de un gran ancho de banda, como los DVD, ha dado lugar al nacimiento de las especificaciones del bus Firewire. Esta norma se puede resumir en los siguientes puntos:
Nombre
Nº V. bit MHz
Ancho MO/s
ISA
16
8
33 multimedia. Flujos de transferencia de hasta 200 MO/s, ampliable en el futuro hasta 800 MO/s. Conexión en caliente (sin desconectar la alimentación eléctrica), sin pérdida de datos. Topología de red flexible, incluyendo al de bus y en grafo. Sin necesidad de terminadores en los extremos. Conectores comunes para todos los componentes Posibilidad de conectar entre sí hasta 63 dispositivos
133 8 GO/s
Presenta ventajas frente al resto de buses, incluso frente al USB, aunque no puede competir en precio. Frente al bus PCI, de momento es más lento. Los productos más usuales con este bus son, cámaras digitales, cámaras de vídeo, discos, sistemas de captura, cintas DAT (Digital Audio Tape), CD's, ZIP's, sistemas de almacenamiento magnetoópticos e impresoras. Tutoriales y recursos sobre IEEE1394 Fundamentos de Firewire. Proporcionados por Embedded Systems Programming. Ofrece una visión de esta tecnología. IEEE 1394-1995 Sumario del estándar. Autor Michael D. Johas Teener of Zayante (formato PDF). P1394a & P1394b Sumario. IEEE 1394 visión técnica. Proporcionada por Texas Instruments. 1394 Open Host Controller Interface. Visión de FireWire/1394 . Proporcionada porAdaptec. USB - Universal Serial Bus
17 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Este bus serie, creado por un amplio consorcio de empresas, permite conectar más que ordenadores y periféricos. Puede conectarse con hasta 127 dispositivos como fotografía digital, monitores, teclados, ratones impresoras y escáneres. Está reemplazando rapidamente a otras interfaces como la centronics y la serie RS 32C. El estándar más reciente es el 2.0, que permite una velocidad de transmisión desde 12 Mb/s hasta 480 MB/s y es compatible con la versión previa. La conexión se transmite mediante un par de cables, de hasta cinco metros de longitud, mientras que por otro par circula la información de retorno.
4.5 Historia de Internet La agencia ARPA y su misión En 1958 se organizó en los EE.UU. la agencia gubernamental de investigación, ARPA (Advanced Research Projects Agency) creada en respuesta a los desafíos tecnológicos y militares de la U.R.S.S. de la cual surgirán una década mas tarde los fundamentos de la futura red Internet. La agencia, bajo control del Departamento de Defensa se organizó en forma independiente de la comunidad de investigación y desarrollo militar. Su misión durante las próximas décadas la llevará a desarrollar y proveer aplicaciones tecnológicas no convencionales para la defensa de EE.UU. ampliando la frontera tecnológica a favor de una organización reducida en número, pero flexible, libre de condicionamientos y dotada de científicos de elite. ARPA será la responsable de una gran parte de la investigación en ordenadores y comunicaciones de carácter innovador en EE.UU. durante los próximos años. Inicio. Los grandes ordenadores Como se ha visto, hacia la década de 1960, los ordenadores eran máquinas grandes e inmóbiles, no podían comunicarse entre ellas y la transmisión entre usuarios tampoco era posible. Para usar un ordenador diferente del propio, el usuario debía trasladarse físicamente al otro o usar soportes de almacenamiento con los programas y datos a usar. Científicos de diferentes universidades estaban frustrados, compartir información con sus colegas era una labor muy ardua y compleja. Los investigadores más afortunados eran capaces de comunicarse mediante terminales que usaban modems. Pero el uso de teléfono era costoso, y los científicos trataron de encontrar mecanismos más eficientes de usar las líneas telefónicas para transmitir datos. Un sistema, llamado multiplexor permitía a cada uno tener una fracción de tiempo en la línea telefónica. 1962 Se pueden enviar mensajes. Hacia finales de la década de 1960, durante la Guerra Fría, Paul Baran y sus colaboradores en Rand Corporation mantenían sus mentes fijas en un problema: Si las redes de ordenadores fueran dañados por una guerra nuclear, ¿cómo podría el ejército estadounidense continuar comunicándose? Una de las respuestas fue mediante una nueva forma de multiplexor que debería descomponer cada comunicación en pequeños segmentos llamados "mensajes". Una red - consistente en ordenadores conectados por líneas telefónicas - debería enviar esos mensaje rápidamente. Cada mensaje debería contener información de la ruta a seguir, de modo que cada máquina del sistema debería saber a donde enviar cada mensaje. Esta combinación de mensajes titulados más componentes de red pequeños permitiría que la información siempre estaría disponible y que la red siempre se mantendría funcionando. El Sistema de Baran no fue del todo intuitivo, ingeniosamente descartó la noción de que el camino más corto entre dos puntos es la línea recta, en cambio, estuvo diseñado para el mejor servicio posible, lo más
18 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
duradero posible, para el mayor número de usuarios posible y bajo las peores condiciones imaginables. Esta técnica se denominó "conmutación de paquetes". Los primeros nodos de conmutación fueron creados bajo la dirección de Donald Davies en el Laboratorio Nacional de Física, Inglaterra. Los laboratorios de red en 1960 eran locales, operaban solamente en un edificio. Grandes aplicaciones empezaron a aparecer con el nuevo invento. 1963 La Red Intergaláctica de ordenadores. JCR Licklider, pionero de la computación, tuvo por primera vez una visión de algo parecido a un sistema Internet. El líder de la Oficina de tecnología de procesamiento de Información de la Agencia Americana de Proyectos de Investigación Avanzados (ARPA) envió un memorando premonitorio a los "Miembros y afiliados de la Red Intergaláctica de Computadoras" En esta comunicación Licklider sostenía que los ordenadores podrían ayudar a los investigadores a compartir información. También predijo un día en el que comunidades de personas con intereses comunes podrían comunicarse con otros - Presentaba una visión nueva. En el laboratorio de Lincoln en Massachussets el experto en ordenadores Larry Roberts tuvo una visión similar. Roberts vislumbró los beneficios potenciales de las redes de ordenadores trabajando juntos; como Licklider, él creía que el trabajo de red debería constituir una comunidad de uso de sistemas informáticos. Trabajando con Thomas Marill, Roberts usó una línea telefónica dedicada para conectar su computador TX-2 al ordenador de Systems Development Corporation en Santa Mónica. Mientras este enlace rudimentario permitió a su ordenador ingresar en el otro y ejecutar programas en este, se hizo, pero con costos prohibitivos y no prácticos. Pero era sólo el inicio. 1969 Cuestiones clave En 1966 la oficina de Tecnología de procesamiento de Información de ARPA proporcionó facilidades a 17 centros en todo EEUU. Para una afortunada minoría ARPA cubría los costos de líneas telefónicas a larga distancia para que los investigadores clave puedan usar recursos de ordenadores directamente desde sus oficinas. Bob Taylor uno de aquellos pocos afortunados. Un Psicólogo que trabajaba con J.C.R. Licklider en IPTO, Taylor, tenía tres terminales en su oficina. Cada con una línea telefónica separada que conectaba a un ordenador distante. Las tres terminales de Taylor lo conectaban con: MIT, Berkeley y la Corporación de Desarrollo de Sistemas en Santa Mónica, respectivamente. Pero Taylor no estaba conforme. Un día, sentado frente a sus tres ordenadores, se preguntó ¿Por qué necesitaba él todo aquello? Por qué no se hacía que un terminal pudiera conversar a todos los ordenadores a través del país o una red que conecte a ellos. ¿Porqué un terminal no podría hacer todo esto? Las bases de Internet fueron planteadas. 1969 - Nacimiento de ARPANET ARPA dio la respuesta a las preguntas clave de Bob Taylor, encargó la construcción de una red de ordenadores experimental. Basados en la tecnología de intercambio de paquetes de Paul Baran, esta Red de la Agencia de Projectos de Investigación Avanzada (Advanced Research Projects Agency Network) o ARPANET, ayudaría a los investigadores a trabajar más eficazmente y explorar rumbos para las redes de computadoras. 19 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Una compañía de Cambridge, Mass., llamada Bolt, Beranek and Newman ganó el contrato para construir los conmutadores de paquetes, o Interface Message Processors (IMPs), que serían usados como nodos de ordenadores para esta nueva RED. En Setiembre de 1969, el primer IMP llegó a la UCLA, un centro de investigación fundado por ARPA. Los científicos de Computadoras Len Kleinrock y los estudiantes graduados Vinton Cerf llamaron a la matriz de UCLA; su curiosidad sobre la arquitectura de la red los llevó a la creación del Centro de Medición de Red de ARPA. EL equipo haría el seguimiento de todo lo que podría hacer la comunidad ARPA Pocas semanas después los IMPs fueron cambiados al Instituto de Investigación Stanford en Menlo Park, California. El cual proveía el nuevo Centro de Información de Red; la Universidad de California en Santa Bárbara la cual alojó el sistema Interactivo en l ínea UCSB; y la Universidad de Utah en Salt Lake City, donde ordenadores para gráficos estaban en su inicio. Una vez que ellas hubieron conectado por medio de líneas telefónicas, los IMPs en estos cuatro sitio empezaron a intercambiar paquetes a larga distancia y nació ARPANET Las cosas ya no volverían a ser las mismas 1972 Comienza la fiesta de Arpanet La Red ARPANET inicialmente brindó tres servicios: Acceso a ordenadoras remotos y otros dispositivos como un terminal de usuario remoto (actualmente denominado Telnet), compartir información a través de la transferencia de archivos, e impresión remota o salida a impresoras en otras ubicaciones. Sorprendentemente, el e-mail entre ordenadores conectados no estuvo entre la oferta inicial. "No sabíamos que e-mail era importante" confesó después Vint Cerf de UCLA "No estábamos seguros de qué es lo que ocurriría con el tiempo", no fue sino hasta años después que primer mensaje de e-mail de ARPANET fue enviado. A medida que ARPANET crecía, hacia 1971, fue expandida hasta 15 nodos y en 1972 incluía 37, los miembros no estaban satisfechos. ARPANET tuvo su presentación en octubre del año siguiente, cuando ARPANET IMP y un terminal multiplexor fueron configurados en la Conferencia Internacional en Comunicaciones de Computadora. En Washington DC. "Esta fue la primera demostración en público de los que podía hacer la conmutación de paquetes, y esto haría que la gente tome esta tecnología seriamente", dijo Bolt, Beranek and Newman's Alex McKenzie. El evento fue un éxito, los expertos dijeron que el potencial de la Red estaba en crecimiento. En la década siguiente en un ordenador se conectaba a la red cada 20 días con la posibilidad de que cientos o miles de personas compartieran una de cualquiera de esos equipos. La comunidad informática se empezó a hablar abiertamente de una red global. 1981 El clan del ARPANET Las dos redes más importantes formadas para centros de educación y enseñanza fueron CSNET (Computer Science NETwork; posteriormente the Computer+ Science Network), and BITNET ("Because It's Time" or "Because It's There" NETwork). Muchas otras redes para propósitos especiales se desarrollaron en todo el mundo como la red de paquetes por satélite, paquetes para la comunicación de la voz y las paquetes de radio.
20 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Por enlazar usuarios con intereses comunes, ARPANET y sus redes compañeras tuvieron un importante impacto técnico y social. Quienes compartían entusiasmos extracurriculares formaron la "comunidad virtual de interés", usuarios con una curiosidad común dentro de Internet misma que formaron los "net communities" para explorar todo desde algoritmos de rutas hasta la demografia de la red. Los científicos empezaron a comunicarse colectivamente por medio de las listas de correo electrónico rápidamente desarrolladas. Miles de discusiones florecieron sobre todos los tópicos inimaginables. A nadie sorprendió que uno de los primeros y mejor enterados grupos de discusión fue los "sf-lovers" conformado por los admiradores de la red de ciencia ficción. 1983 TCP/IP: el Esperanto de la computación. El desarrollo de redes fuera de ARPANET creó nuevos competidores. Tenían dificultades en interconectarse, debido no precisamente al hardware (diferentes ordenadores podían utilizar ARPANET) sino más bien a la incompatibilidad en los protocolos de comunicación. Aun el satélite del propio ARPA y las redes de paquetes de radio no podían conectarse a ARPANET Ante esto ARPA auspició el desarrollo de un nuevo estándar de comunicación llamado Transmission Control Protocol/ Protocol Internetwork (TCP/IP), que fue un conjunto de protocolos que permitían la conexión de las redes, ordenadores de diferentes redes podrían ahora comunicarse una con otra. Cada red utilizó IP para comunicarse con las otras. Debido a que los científicos se referían a la "red de redes" como "Internet" este nuevo grupo de redes que utilizaban TCP/IP empezó a ser conocido como Internet. El Nacimiento de "Internet A finales de la década de 1970 muchas redes de investigación, del gobierno y educativas utilizaban TCP/IP. Pero el ARPANET y la red de información de defensa no realizaron el cambio oficialmente sino hasta el uno de enero de 1983. Fecha del nacimiento oficial de Internet Tanto ARPANET como Internet continuaron su desarrollo en tamaño e importancia. Proporcionaron medios para la comunicación y cierta forma de convivencia entre los científicos de todo el mundo, permitiéndoles trabajar juntos, compartir información y la utilización de fuentes distantes. 1988 Intrusos en Internet. A pesar de su gran crecimiento, Internet permaneció siendo desconocida para el publico hasta Octubre de 1988 cuando un programa intruso o "worm" origino algo devastador. Internet worm empezó su vida como un simple programa lanzado por el estudiente Robert Morris Jr. Más destructivo que un virus de computadora el "worm" activaba el envío de copias de si mismo por Internet a otros ordenadores donde a su vez cada copia se multiplicaba. Antes que el "worm" fuera exterminado miles de ordenadores habían sido sobrecargadas o fueron deliberadamente desactivadas por cuestiones de seguridad. Por primera vez, pero difícilmente la ultima, Internet apareció en las noticias. Desde ese entonces programadores y expertos en seguridad crean nuevas herramientas para combatir cualquier escalada de guerra tecnológica y en búsqueda de informes y problemas de abuso de la red. 1990 Archie aparece en escena Como es de suponer el crecimiento del número de usuarios y el volumen de información disponible había originado una especie de jungla de información, en la que no existía mapa o referencia alguna. A finales de los 80 y principios de los 90 desconcertados usuarios idearon herramientas para localizar y ordenar la 21 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
información. Estos lineamientos ayudaron a su vez a otros usuarios a encontrar el camino y transformaron a Internet en un mundo amigable para el usuario. "Archie fue el primero de estos programas que permitía a los usuarios obtener una lista de direcciones de Internet "FPT holdings" con una simple consulta. 1990 FIN DE ARPANET El uno de junio de 1990 ARPANET fue desinstalado. Los lugares donde ARPANET había sido originalmente conectado fueron reemplazados por otras redes nuevas en Internet. 1991 El más popular "Gopher" "Archie" fue seguido por Gopher quien se convirtió en el "Navegador en Internet" más popular. Les permitía a los propietarios de la información organizar sus datos en menús. Los usuarios podían entonces ver, desplazarse y hacer selecciones desde ese menú El éxito de Gopher fue tremendo, en dos años miles de servidores Gopher se unieron a la red en todo el mundo, cada uno con su colección de directorios, archivos y punteros a información en otros Gophers. Pero su éxito creaba un problema obvio: ¿Cómo encontrar algo en el "gopherespacio" ya que el plan original no contemplaba un índice? La solución fue una solución similar al Archie, llamado Verónica (Very Easy Rodent Oriented Net-wide Index to Computarized Archieves) desarrollado por dos estudiantes, la base de datos Verónica tenía hacia 1993 más de un millón de entradas desde el menú Gopher. 1992 Tejiendo la Red Mientras tanto, en Suiza, Tim Berners-lee ideó una manera de organizar la información basada en Internet y los recursos que él necesitaba para sus investigaciones . Llamó a su sistema el World Wide Web, conocida también como WWW o W3. Para conectar piezas individuales de información, Berners-Lee usó hipertextos, que contienen punteros y direcciones a otros temas. Señalando un hipertexto el usuario le dice a su ordenador "toma la dirección asociada y vamos para allá") Las direcciones en un documento Web, llamados URL (Universal Resource Locator) apuntan a enlaces en cualquier lugar de Internet. Berners-Lee diseñó la Web para investigadores en alta energía. El WWW también empezó a ser usado para navegar y ver su propia información en Línea. 1993 Mosaic Marc Andersen, del National Center for Supercomputing Applications (NCSA) diseñó MOSAIC, un navegador por el Web que hizo más accesible y amigable. MOSAIC permite a los usuarios recuperar elementos multimedia con una simple pulsación de ratón y no necesitan elaborar documentos complicados para publicar gráficos, imágenes, etc. La combinación de Web y Mosaic y programas similares como Netscape Internet Navigator y Opera han transformado la apariencia de la red, formando una red mundial de texto y recursos, la red empezó a 22 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
incorporar multimedia e información a color. Desde 1997. La red hoy A lo largo de su historia, Internet se ha transformado a sí mismo no sólo para las necesidades y deseos de sus usuarios, sino la visión de sus pioneros como Paul baran, J.C.R. Licklider y (más recientemente) Tim Berners-Lee y Marc Andersen. Su trabajo ha permitido a la gente a través del mundo formar parte de esta comunidad Global. Durante los últimos años, Internet se ha ido haciendo virtualmente accesible para cualquier persona. Más del 80% de los estadounidenses puede tener acceso a internet por 20 US$ mensuales, este uso está incrementándose exponencialmente. Se han creado abundantes empresas proveedoras de acceso a Internet, quienes ofrecen el acceso con tarifa plana. En España ha disminuido de forma considerable el precio de las conexiones teléfonicas a Internet y se ha mejorado la calidad con la implantación de operadoras de cable por televisión. Internet se ha convertido en una oportunidad de negocio. Las empresas están tratando de determinar cuál será el modo en que este mundo virtual recibirá los productos y usuarios mañana. A su vez se ha convertido en un intercambio anárquico de información, es un fenómeno cultural vertiginoso del cambio del mismo mundo. Unos 446 millones de personas usaban internet a fines de 2001 a nivel mundial y cerca de la cuarta parte estaba en Estados Unidos mientras que sólo el 4% en América Latina. Existen 133.4 millones de internautas en América del Norte (30% del total), 139.3 millones en Europa (31%), 145.9 millones en Asia Pacífico (32%), 22 millones en América Latina (4%) y 5.3 millones en Africa (1.2%), según el estudio de la empresa eMarketer. Cerca de 119 millones de ellos (26%) están en EE.UU. Las estadísticas actualizadas de toda América se encuentran en el enlace: Éxito exportador. En España, la Asociación de Usuarios de Internet , mantiene datos actualizados sobre uso en España. Lo más reciente En enero de 2003, la empresa aérea Lufthansa probó el acceso a internet en el trayecto a Washington, gracias a la incorporación de servicios inalámbricos de banda ancha en los aviones. No pasó de ser algo experimental. En abril de 2008 la aerolínea francesa Air France ha incorporado en algunas rutas estas prestaciones para los usuarios en general. Actualmente se empieza a difundir un nuevo concepto de internet, la web 2.0, se refiere a la transición desde las webs tradicionales a aplicaciones web residentes en sevidores y destinadas a usuarios. Los propulsores de este pensamiento esperan que los servicios de la Web 2.0 sustituyan a las aplicaciones de escritorio en muchos usos. Actualmente ya se están dando los primeros pasos para la implantación de la web semántica, que se concoe como Web 3.0
Enlaces recomendados: - Web 2.0 Enlaces de interés - Las 20 herramientas Web imprescindibles
Primer apretón de manos a través de 23 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Internet Por Glenys Álvarez El mundo virtual se anota un rotundo éxito con el primer experimento sobre tecnología háptica. Esta nueva ciencia se encarga del estudio del tacto y su manipulación a través de aparatos electromecánicos. Uno de los primeros laboratorios hcpticos se originó en el Instituto de Tecnología de Massachussets (MIT) y fue fundado por Mandayam Srinivansan, quien lo bautizó como el Laboratorio del Tacto. Srinivansan ha estado trabajando con unos nuevos aparatos llamados "fantasmas", creados por la compañía Sensable Technologies. Los fantasmas tienen como misión transmitir seccales táctiles entre personas que comparten el mismo espacio virtual. Estos robots logran semejante hazaña transmitiendo impulsos pequeños en frecuencias sumamente altas a través de la red. En mayo pasado, el doctor Srinivansan, junto a un equipo de la Universidad de Londres dirigido por el profesor Mel Slater, consiguió darse el primer apretón de manos en el mundo virtual. Un evento bastante precoz dado el corto tiempo que tenemos utilizando el Internet. Sin embargo, a veces parece que los científicos trabajan con resultados que se parecen más al mundo del futuro que a la realidad actual. Este novedoso ensayo es el comienzo triunfante de una nueva era en Internet que aún nos parece rústica, como las pantallas verdes de los primeros ordenadores. A pesar de que este nuevo avance tecnológico fue un éxito contundente, los investigadores aseguran que aún es muy temprano para comercializarlo ya que se necesitan elementos que aún no están disponibles para el público en general. Entre estos obstáculos se encuentran las limitaciones en la velocidad, en la anchura de la banda y en el tipo de fibra óptica que se utilizó para este peculiar ensayo. No obstante, una vez se sobrepasen todos estos obstáculos, las personas del futuro serán capaces de sentir y tocar a través del Internet. Mientras tanto, la nueva tecnología aún está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda extremadamente ancha. Pero lo más importante era la velocidad, la rapidez con que pudiesen ser enviados los datos a través de estas fibras. Los científicos necesitaban un retraso de nO más de 130 milisegundos para que ambos participantes pudiesen sentir los impulsos enviados por el otro. Los equipos utilizaron una computadora y un aparato que se asemeja a un brazo robótico y que sustituyó al ratón clásico de ordenador. Este brazo tiene al final una pieza que se asemeja a un lapicero o lápiz que el usuario tiene que agarrar para sentir lo que está pasando en el mundo virtual. El robot lo que hace es enviar impulsos de tacto que recoge la fuerza precisa de los dedos de la persona que lo sostiene. Estos impulsos son enviados lo más rápido posible hasta el otro lado, en datos que el fantasma del usuario receptor puede leer e interpretar. "La persona no sólo es capaz de sentir el toque del otro sino que además podrá destacar ciertas cualidades del objeto que está tocando. Sabrá si su textura es suave o dura, si usted está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda extremadamente de madera el objeto o si es carnoso", explicó para la BBC el profesor británico, Mel Slater. Durante el experimento, el objetivo no sólo fue un apretón de manos virtual sino que también se llevó a cabo una actividad cibernética a través del tacto. Los investigadores crearon una habitación virtual que iban a compartir los científicos en Londres y en Boston. Dentro de esta "ciberhabitación" se encontraba un cubo negro enorme que los investigadores tencan que levantar y mover utilizando el brazo robótico.
24 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
"La persona del otro lado siente si estoy halando o empujando el cubo y el secreto principal de todo esto es la velocidad. Si los datos no son enviados de forma continua, el robot no entenderá los impulsos como son lute;n está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda extremadamente eídos por el fantasma que los envía. Es interesante lo que hemos logrado ya que el sentido del tacto ha sido el más difícil de reproducir en el Internet. Se ha conseguido utilizando una velocidad de más de 1000 Hertz. Así, de la misma forma en que el cerebro interpreta imágenes fijas como si estuvieran en una película en movimiento, similarmente los fantasmas integran los impulsos recibidos para producir una sensación continua de tacto", explicó Slater. A pesar de que el experimento se llevó a cabo por primera vez el pasado mayo, fue sólo en esta semana que los científicos lo hicieron úblico durante una conferencia. La reunión se lleva a cabo en Estados Unidos, específicamente en la Universidad del Sur de California y está dirigida por el proyecto Internet2. Internet2 es un esfuerzo tecnológico de 200 universidades para mejorar la tecnología, está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda extremadamente gía virtual, el mundo tridimensional cibernético y la interacción entre hombre y máquina a través de la red. Actualmente, el proyecto está poniendo mucho énfasis en el desarrollo de técnicas para la manipulación háptica a través de sistemas computacionales.
El cubo negro y la habitación cibernética Para probar sus brazos robóticos, los equipos crearon un cuarto virtual donde ambos usuarios realizarían el experimento. Dentro del cuarto, los investigadores crearon un cubo negro y grande que los sujetos tenían que levantar y mover. El truco estaba en que los movimientos iban a ser originados por lo que la otra persona sentía que el compañero estaba haciendo. Los usuarios entraron al cuarto virtual y, cada uno desde su escritorio, agarró el brazo robótico o fantasma, por la parte posterior donde tiene el pequeño lapicero, y comenzón está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda extremadamente te; a trabajar. En seguida, la otra persona sentía si su compañero de juego estaba empujando el cubo o si lo jalaba, de esta forma, éste está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda extremadamente l podría coordinar sus movimientos de acuerdo con lo que el otro hacía. Así, ambos equipos consiguieron manipular el enorme cubo a través de sensaciones táctiles que llegaban desde casi cinco mil kilómetros de distancia. Los investigadores también se saludaron utilizando el tacto que leían sus fantasmas. Mel Slater, director del equipo londinense aseguró que no sólo es posible sentir el toque de la persona desde el otro ordenador, sino que también es posible diferenciar cualidades de los objetos. "Puedes sentir si la cosa es de madera o si es de carne, si es suave o dura, si empuja o no. Ha sido una experiencia extraordinaria", concluyó Slater. Sindioses.org Se permite la reproducción de este ensayo para fines educacionales y/o científicos siempre y cuando se mencione claramente nuestro sitio web, así como el nombre del(a) autor(a) del mismo. Se prohibe su reproducción con fines comerciales. /font>
25 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Internet multiplica por 3500 veces la velocidad de transmisión de datos Por primera vez en la historia se ha conseguido enviar mediante fibra óptica 6.7 gigas de información, que es el equivalente a dos películas de DVD, un total de cuatro horas de visionado, a través de 11000 kilómetros en menos de un minuto. Según relata la revista Wired, la información fue enviada sin comprimir a 923 megabits por segundo durante 58 segundos desde California hasta Holanda, lo que supone una velocidad 3500 veces superior a la conexión doméstica de banda ancha. Aunque desde 1984 se duplica cada año la velocidad de transmisión de datos a través de Internet, en esta ocasión se ha producido un salto sin precedentes que centuplica las posibilidades operacionales de la red de redes. Para los científicos del Centro de Acelerador Lineal de Stanford, artífices de la proeza, en el futuro las aplicaciones de este sustancial aumento de la velocidad de transmisión tendrá múltiples aplicaciones prácticas. Colectivos beneficiados Entre ellas destacan la posibilidad de que un equipo de médicos pueda discutir en tiempo real, a través de Internet, el diagnóstico de un paciente en situación de riesgo e incluso analizar sus radiografías. También tendrá aplicaciones en el campo de la física de partículas, toda vez que diferentes grupos de investigación podrán colaborar entre ellos sin necesidad de realizar viaje alguno, utilizando esta velocidad de transmisión para la transferencia de datos. Otros campos que se beneficiarán directamente de esta tecnología son las investigaciones que se desarrollan en el marco del Genoma Humano, así como en astronomía. El Proyecto Genoma Humano podría transferir sus enormes bases de datos más rápidamente sobre Internet. De la misma forma, los astrónomos podrán compartir datos de telescopios localizados en diferentes partes del mundo y los físicos de partículas intercambiar en tiempo real datos de laboratorios muy distantes entre sí. Impacto generalizado El impacto también puede ser generalizado, ya que la demanda de banda ancha en Internet tiene grandes expectativas a las que el experimento de Stanford podría dar satisfacción. Un estudio de IDC revela al respecto que el crecimiento de las conexiones de banda ancha podría duplicarse en los próximos cinco años, lo que supondría pasar de los 180 petabits actuales a los 5200 petabits en 2007. Para hacernos una idea de lo que esto significa, IDC desvela que en la actualidad la Biblioteca del Congreso de Estados Unidos, accesible desde Internet, representa una capacidad de memoria de 10 Terabytes y que, si sus previsiones se cumplen, en 2007 el tráfico diario de Internet será 64000 veces mayor que el peso que representa hoy la Biblioteca del Congreso. Dado que la carga necesaria para soportar este tráfico será colosal, han surgido dudas sobre la capacidad de Internet para aceptarla, por lo que el experimento de Stanford puede venir en ayuda de esta hipótesis de desarrollo de la red de redes.
26 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Premiados los creadores de internet Internet ha revolucionado completamente los procesos de transmisión de la información, permitiendo que ésta fluya sin restricción por todo el mundo. Este trascendental proceso de investigación y desarrollo ha sido liderado por diferentes personas y equipos que, con una gran visión de futuro, han diseñado y establecido los protocolos, la tecnología de interconexión y los servicios de accesibilidad que han hecho posible lo que hace sólo unos años era una utopía. Los trabajos de Lawrence Roberts, Robert Kahn, Vinton Cerf y Tim Berners-Lee constituyen, en este sentido, un definitivo avance al servicio de la humanidad. El jurado del Premio Príncipe de Asturias de Investigación Científica y Técnica 2002, reunido en Oviedo, concedió dicho premio a los creadores de internet. Vinton Cerf (1943-) Fue el creador, junto con Robert Khan, del protocolo TCP/IP, usado actualmente para la conexión de ordenadores en internet, sin el cual no habrían alcanzado el desarrollo actual las redes de ordenadores. Vinton diseñó entre 1982 y 1986 el primer servicio de correo electrónico de internet, denominado MCI MAIL, precursor de los sistemas actuales. Actualmente colabora con la NASA (EE.UU.) en el diseño de una ampliación de internet a nivel interplanetario. Lawrence Roberts (1937-) Fue el responsable de la sistematización de las fórmulas que permiten el enrutamiento y localización de los servidores en las redes. Trabajó en una de las primeras empresas que usaron la conmutación de paquetes, desarrollando el protocolo X25. Actualmente dirige la empresa Caspian Networks, dedicada a la investigación sobre redes. Sus proyectos están dirigidos a la optimización y mejora de internet. Robert Khan (1938-) Fue coinventor de los protocolos TCP/IP que simplificaron la conexión de ordenadores de muy distintas características. Fue el responsable de la puesta en marcha de la Agencia de Proyectos Avanzados para la Defensa de EE.UU: (DARPA). Organizó la primera demostración pública de Arpanet, en Octubre de 1972, en Washington D.C, Este mismo año pasó a ser director del IPTO, dependiente de DARPA; desde este lugar inició el programa multimillonario del gobierno norteamericano: Strategic Computing Program, lo que supondrá el mayor paso dado hasta aquel entonces en la investigación informática. Actualmente trabaja en la tecnología IP, en su nuevo formato IPv6, que permite un rango muy superior, frente a la actual, de direcciones. Tim Berners-Lee (1955-) Físico del Reino Unido, cuando trabajaba en el CERN en Ginebra (Suiza), en un laboratorio de partículas elementales, se le ocurrió en 1990 aplicar las ideas del hipertexto a las redes de ordenadores, dando lugar a "World Wide Web", dando lugar a la gran difusión que ha logrado
27 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
internet. Desde 1994 trabaja en la organización W3C (World Wide Web Consortium) que dicta estándares sobre la red.
Enlaces de interés dentro de esta web: Historia de los primeros lenguajes de programación La prehistoria de la informática Los primeros ordenadores Historia de la Informática. La era electrónica Historia de los miniordenadores Historia de la microinformática La informática en un garage Historia de la microinformática 1981-1983 El nacimiento de la informática en Gran Bretaña Lenguaje FORTRAN
Enlaces de interés: Asociación Técnicos de Informática. Una breve historia de internet Arroyo Galán, Luis. Hitos, museos y referencias. AúnMás.com. Enciclopedia Latinoamericana. Bernal, Manuel. Encicloperdia personal de computación Brian RANDELL. Le projet COLOSSUS et la Seconde Guerre mondiale Ciberhábitat. Ciudad de la informática. México Creadores de los lenguajes de programación Lurueña Jiménez, Sonia. Historia de la informática
28 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Marco Such, Manuel. Historia de la informática y metodología de la ciencia. Universidad de Alicante Portilla, Jorge. Informática empresarial * Red Iris. Universidades españolas Serrano Cinca, Carlos. Universidad de Zaragoza Wikipedia. Enciclopedia libre Yo NO odio a Bill Gates (I) (Kriptópolis) Yo NO odio a Bill Gates (II) (Kriptópolis)
fresqui
del.icio.us
meneame
Buscar en la web Búsqueda escéptica Búsqueda en todas mis páginas Imprimir
Aquí puedes cambiar el tamaño y color del texto
Página Rafael Barzanallana Actualización en Fisica Biografía de Edward Lorenz
Actualización en Avisos. II, trabajos capítulos 2 y 3 de la asignatura
Actualización en Software. Tutorial sobre la nueva versión de Google Docs
Actualización en Software. Tutorial sobre el programa HTTrackl
Actualización en Avisos. II, Sobre GoogleDocs; enlace recomendado http://www.escepticismo.es/menu-enlaces-escepticismo.html XML
Powered by FeedSweep
Biografías de informáticos Von Neumann
29 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 5. Sistemas de numeración Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo Divulgación Informática
1 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
Ciencia en general Biología Criminología Inicio Contacte
Introducción Códigos de entrada/salida Sistemas de numeración más usuales Representación interna de la información Detección de errores en la información codificada
5.1 Introducción Como se ha visto, un ordenador es una máquina que procesa información. La ejecución de un programa implica la realización de unos tratamientos, según especifica un conjunto ordenado de instrucciones (es decir, un programa) sobre unos datos. Para que el ordenador ejecute un programa es necesario darle información de dos tipos: Instrucciones que forman el programa Los datos con los que debe operar ese programa Uno de los aspectos más importantes relacionado con la información, es cómo representarla. Normalmente se le da al ordenador en la forma usual escrita que utilizan los humanos, es decir, con ayuda de un alfabeto o conjunto de símbolos, los caracteres. Los caracteres que se utilizan para la representación externa son: Numéricos: Constituidos por las diez dígitos en el sistema decimal Alfabéticos: Letras mayúsculas y minúsculas Especiales: Son símbolos no incluidos en los grupos anteriores, como: ), (, *, /, +, -, [, ]... Al conjunto de los dos primeros grupos se le denominan caracteres alfanuméricos. Veremos cómo estos caracteres usados en la representación externa son representables en los ordenadores. Este paso de una representación a otra se denomina codificación y el proceso inverso decodificación. Por lo tanto hay dos niveles en la representación de la información Nivel de representación externa: Usada por las personas e inadecuada para el ordenador Nivel de representación interna: Adecuada al ordenador y no inteligible directamente por el ser humano. Las informaciones más complejas se reducirán a un conjunto de informaciones elementales por técnicas de codificación. Los elementos básicos que constituyen un ordenador son de naturaleza binaria, ya que sólo pueden adoptar dos valores, 0 y 1 (corresponden a dos niveles de tensión, dos valores de corriente, dos situaciones
2 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
de una lámpara... ). Al tener que traducir toda la información suministrada a ceros y unos es necesario establecer una correspondencia entre el conjunto de todos los caracteres: {A, B, C, D,...Z, a, b, c,...z, 0, 1,...9, /, +,...} y el conjunto binario: {0, 1}n de forma que a cada elemento del primero le corresponda un elemento distinto del segundo. Estos códigos de transformación se denominan códigos E/S (entrada/salida) o externos y se pueden definir de forma arbitraria. Las operaciones aritméticas con datos numéricos se suelen realizar en una representación más adecuada para este objetivo que la del código de E/S. Por ello en el propio ordenador se efectúa una transformación entre códigos binarios, obteniéndose una representación fundamentada en el sistema de numeración en base dos, que al ser una representación numérica posicional es muy apta para realizar operaciones aritméticas.
5.2 Códigos de entrada/salida. Los códigos de E/S o externos son códigos que asocian a cada carácter una combinación de bit. En otras palabras, un código de E/S es una correspondencia entre los conjuntos: A = {0, 1,...9, A, B,...Z, a, b,...z, *, +, /...} y B = {0, 1}n Si se usa un número fijo, n, de bit para codificar los símbolos de A, el valor mínimo de n dependerá del número m de elementos de A. Así: Con 2 bit (n=2) podemos hacer 4 combinaciones distintas y se pueden codificar hasta 4 símbolos (m=4) distintos Con 3 bit (n=3) podemos hacer 8 combinaciones distintas y se pueden codificar hasta 8 símbolos (m=8) distintos Con 4 bit (n=4) podemos realizar 16 combinaciones distintas y se pueden codificar hasta 16 símbolos (m=16) distintos .... Con n bit pueden codificarse m = 2n símbolos distintos. Así se verifica que para codificar m símbolos distintos necesitamos n bit, siendo, n = log2 m = 3.32 * log m Es decir, n debe ser el menor entero que verifique la relación anterior. Ejemplo: Para codificar las 10 cifras decimales (0, 1,...,9) se necesitarán: n = 3.32 * log (m) = 3.32 * log (10) = 3.32 bit es decir 4 bit(ya que con 3 sólo podremos codificar 8 símbolos). Dos codificaciones posibles son las siguientes:
3 de 34
Símbolos
Código 1
Código 2
0
0000
0000
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
1
1000
0001
2
0100
1001
3
1100
1000
4
0010
0101
5
1010
0100
6
0110
1100
7
1110
1101
8
0001
0011
9
1001
0010
Pueden hacerse codificaciones con más bit de los necesarios; es decir, podríamos establecer códigos de E/S de forma totalmente aleatoria. Obviamente existen códigos normalizados que suelen ser utilizados por los constructores de ordenadores. Estos códigos son conocidos como: BCD de intercambio normalizado. EBCDIC ASCII BCD DE INTERCAMBIO NORMALIZADO Usualmente este código utiliza 6 bit, con lo que se pueden representar, m = 26 = 64 caracteres. A veces se añade a su izquierda un bit adicional para verificar posibles errores en la transmisión del código (que veremos más adelante) de forma que el carácter queda representado por n = 7 bit. bit de verificación 6
5
4
3
2
1
0
Los bit 4, 5 son conocidos como bit de zona. Los bit de zona indican el tipo de carácter representado. Ejemplo: 00 para los numéricos. Los bit 0, 1, 2, 3 son conocidos como bit de posición, que coinciden para los caracteres numéricos con la representación en binario natural y para el 0 con la representación del 10. CODIGO EBCDIC (Extended Binary Coded Decimal Interchange). Utiliza n = 8 para representar cada carácter, pudiendo codificar hasta m = 28 = 256 símbolos distintos. CODIGO ASCII (American Standard Code for Information Interchange) Utiliza 7 bit y es de los más utilizados. Normalmente se incluye un octavo bit para detectar posibles errores de transmisión o grabación. Si el octavo bit se emplea para representar más caracteres como letras griegas y símbolos semigráficos, se tiene el denominado ASCII extendido, usado en el PC de IBM y compatibles.
5.3 Sistemas de numeración más usuales Los ordenadores suelen efectuar las operaciones aritméticas utilizando una representación para los datos numéricos basada en el sistema de numeración en base 2 (binario natural). También se utilizan los
4 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
sistemas de numeración octal y hexadecimal, para obtener códigos intermedios. Un número expresado en uno de estos códigos puede transformarse a binario y viceversa.
LOS SISTEMAS DE NUMERACION A LO LARGO DE LA HISTORIA Seguidamente se comentan los sistemas de numeración que distintas culturas han usado a lo largo de la Historia · Introducción. El Concepto de Base · Sistemas de Numeracion Aditivos o Egipcio o Griego · Sistemas de Numeración Híbridos o Chino · Sistemas de Numeración Posicionales o Babilónico o Maya
Enlace recomendado: Sistema de numeración romano Introducción. El concepto de base Cuando los hombres empezaron a contar usaron los dedos, guigarros, marcas en bastones, nudos en una cuerda y algunas otras formas para ir pasando de un número al siguiente. A medida que la cantidad crece se hace necesario un sistema de representación más práctico. En diferentes partes del mundo y en distintas épocas se llegó a la misma solución, cuando se alcanza un determinado número se hace una marca distinta que los representa a todos ellos. Este número es la base. Se sigue añadiendo unidades hasta que se vuelve a alcanzar por segunda vez el número anterior y se añade otra marca de la segunda clase. Cuando se alcanza un número determinado (que puede ser diferente del anterior constituyendo la base auxiliar) de estas unidades de segundo orden, las decenas en caso de base 10, se añade una de tercer orden y así sucesivamente. La base que más se ha utilizado a lo largo de la historia es 10 según todas las apariencias por ser ese el número de dedos con los que contamos. Hay alguna excepción notable como son las numeración babilónica que usaba 10 y 60 como bases y la numeración maya que usaba 20 y 5 aunque con alguna irregularidad. Desde hace 5000 años la gran mayoría de las civilizaciones han contado en unidades, decenas, centenas, millares etc. es decir de la misma forma que seguimos haciéndolo hoy. Sin embargo la forma de escribir los números ha sido muy diversa y muchos pueblos han visto impedido su avance científico por no disponer de un sistema eficaz que permitiese el cálculo. Casi todos los sistemas utilizados representan con exactitud los números enteros, aunque
5 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
en algunos pueden confundirse unos números con otros, pero muchos de ellos no son capaces de representar grandes cantidades, y otros requieren tal cantidad de símbolos que los hace poco prácticos. Pero sobre todo no permiten en general efectuar operaciones tan sencillas como la multiplicación, requiriendo procedimientos muy complicados que sólo estaban al alcance de unos pocos iniciados. De hecho cuando se empezó a utilizar en Europa el sistema de numeración actual, los abaquistas, los profesionales del cálculo se opusieron con las más peregrinas razones, entre ellas la de que siendo el cálculo algo complicado en sí mismo, tendría que ser un metodo diabólico aquel que permitiese efectuar las operaciones de forma tan sencilla. El sistema actual fue inventado por los hindús y transmitido a Europa por los árabes. Del origen hindú del sistema hay pruebas documentales más que suficientes, entre ellas la opinión de Leonardo de Pisa (Fibonacci) que fue uno de los indroductores del nuevo sistema en la Europa de 1200. El gran mérito fue la introducción del concepto y símbolo del cero, lo que permite un sistema en el que sólo diez simbolos puedan representar cualquier número por grande que sea y simplificar la forma de efectuar las operaciones. Sistemas de numeracion aditivos Para ver cómo es la forma de representación aditiva consideremos el sistema geroglífico egipcio. Por cada unidad se escribe un trazo vertical, por cada decena un símbolo en forma de arco y por cada centena, millar, decena y centena de millar y millón un geroglífico específico. Así para escribir 754 usaban siete geroglíficos de centenas cinco de decenas y 4 trazos. De alguna forma todas las unidades están fisicamente presentes. Los sistemas aditivos son aquellos que acumulan los simbolos de todas las unidades, decenas... como sean necesarios hasta completar el número. Una de sus características es por tanto que se pueden poner los símbolos en cualquier orden, aunque en general se ha preferido una determinada disposición. Han sido de este tipo las numeraciones egipcia, sumeria (de base 60), hitita, cretense, azteca (de base 20), romana y las alfabéticas de los griegos, armenios, judios y árabes. El sistema de numeración egipcio Desde el tercer milenio a.n.e. los egipcios usaron un sistema deescribir los números en base diez utilizando los geroglíficos para representar los distintos órdenes de unidades. Se usaban tantos de cada uno cómo fuera necesario y se podian escribir indistintamente de izquierda a derecha, al revés o de arriba abajo, cambiando la orientación de las figuras según el caso. Al ser indiferente el orden se escribían a veces según criterios estéticos, y solían ir acompañados de los geroglíficos correspondientes al tipo de objeto (animales, prisioneros, vasijas etc.) cuyo número indicaban. Estos signos fueron utilizados hasta la incorporación de Egipto al imperio romano. Pero su uso quedó reservado a las inscripciones monumentales, en el uso diario fue sustituido por la escritura hierática y demótica, formas más simples que permitian mayor rapidez y comodidad a los escribas En estos sistemas de escritura los grupos de signos adquirieron una forma propia, y asi se introdujeron símbolos particulares para 20, 30....90....200, 300.....900, 2000, 3000...... con lo que disminuye el número de signos necesarios para escribir una cifra. El sistema de numeración griego El primer sitema de numeración griego se desarrolló hacia el 600 a.n.e. Era un sistema de base decimal que usaba unos símbolos para representar esas cantidades. Se utilizaban
6 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
tantas de ellas como fuera necesario según el principio de las numeraciones aditivas. Para representar la unidad y los números hasta el cuatro se usaban trazos verticales. Para el cinco, 10 y 100 las letras correspondientes a la inicial de la palabra cinco (pente), diez (deka) y mil (khiloi). Por este motivo se llama a este sistema acrofónico. Los símbolos de 50, 500 y 5000 se obtienen añadiendo el signo de 10, 100 y 1000 al de cinco, usando un principio multiplicativo. Progresivamente este sistema ático fue reemplazado por el jónico, que empleaba las 24 letras del alfabeto griego junto con algunos otros símbolos. De esta forma los números parecen palabras, ya que están compuestos por letras, y a su vez las palabras tienen un valor numérico, basta sumar las cifras que corresponden a las letras que las componen. Esta circunstancia hizo aparecer una nueva suerte de disciplina mágica que estudiaba la relación entre los números y las palabras. En algunas sociedades como la judía y la árabe, que utilizaban un sistema similar, el estudio de esta relación ha tenido una gran importancia y ha constituido una disciplina aparte: la kábala, que persigue fines místicos y adivinatorios. Sistemas de numeración híbridos En estos sistemas se combina el principio aditivo con el multiplicativo. Si para representar 500 los sistemas aditivos recurren a cinco representaciones de 100, los híbridos utilizan la combinación del 5 y el 100. Pero siguen acumulando estas combinaciones de signos para los números más complejos. Por lo tanto sigue siendo innecesario un símbolo para el 0. Para representar el 703 se usa la combinacion del 7 y el 100 seguida del 3. El orden en la escritura de las cifras es ahora fundamental para evitar confusiones, se dan así los pasos para llegar al sistema posicional, ya que si los signos del 10, 100 etc se repiten siempre en los mismos lugares, pronto alguien piensa en suprimirlos, dándolos por supuestos y se escriben sólo las cifras correspondientes a las decenas, centenas etc. .Pero para ello es necesario un cero, algo que indique que algún orden de magnitud está vacío y no se confundan el 307 con 370, 3070 ... Además del chino clásico han sido sistemas de este tipo el asirio, arameo, etíope y algunos del subcontinente hindú cómo el tamil, el malayalam y el cingalés. El sistema de numeración chino La forma clásica de escritura de los números en China se empezó a usar desde el 1500 A.N.E. aproximadamente. Es un sistema decimal estricto que usa las unidades y los distintas potencias de 10. Utiliza ideogramas y usa la combinación de los números hasta el diez con la decena, centena, millar y decena de millar para según el principio multiplicativo representar 50, 700 ó 3000. El orden de escritura se hace fundamental,ya que 5 10 7 igual podría representar 57 que 75. Tradicionalmente se ha escrito de arriba abajo aunque también se hace de izquierda a derecha. No es necesario un símbolo para el cero siempre y cuando se pongan todos los ideogramas, pero aún así a veces se suprimían los correspondientes a las potencias de 10. Aparte de esta forma que podríamos llamar canónica se usaron otras. Para los documento importantes se usaba una grafía más complicada con objeto de evitar falsificaciones y errores. En los sellos se escribía de forma más estilizada y lineal y aún se usaban hasta dos grafías diferentes en usos domésticos y comerciales, aparte de las variantes regionales. Los eruditos chinos por su parte desarrollaron un sistema posicional muy parecido al actual que desde que incorporó el cero por influencia india en siglo VIII en
7 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
nada se diferencia de este. Sistemas de numeración posicionales Mucho más efectivos que los sitemas anteriores son los posicionales. En ellos la posición de una cifra nos dice si son decenas, centenas ... o en general la potencia de la base correspondiente. Sólo tres culturas además de la india lograron desarrollar un sistema de este tipo. Babilonios, chinos y mayas en distintas épocas llegaron al mismo principio. La ausencia del cero impidió a los chinos un desarrollo completo hasta la intraducción del mismo. Los sistemas babilónico y maya no eran prácticos para operar porque no disponían de simbolos particulares para los dígitos, usando para representarlos una acumulación del signo de la unidad y la decena. El hecho que sus bases fuese 60 y 20 respectivamente no hubiese representado en principio nigún obstáculo. Los mayas por su parte cometían una irregularidad a partir de las unidades de tercer orden, ya que detrás de las veintenas no usaban 20x20=400 sino 20x18=360 para adecuar los números al calendario, una de sus mayores preocupaciones culturales. Fueron los hindúes antes del siglo VII los que idearon el sistema tal y como hoy lo conocemos, sin mas que un cambio en la forma en la que escribimos los nueve dígitos y el cero. Aunque con frecuencia nos referimos a nuestro sistema de numeración cómo árabe, las pruebas arqueológicas y documentales demuestran el uso del cero tanto en posiciones intermedias como finales se originó en India. Los árabes transmitieron esta forma de representar los números y sobre todo el cálculo asociado a ellas, aunque tardaron siglos en ser usadas y aceptadas. Una vez más se produjo una gran resistencia a algo por el mero hecho de ser nuevo o ajeno, aunque sus ventajas eran evidentes. Sin esta forma eficaz de numerar y efectuar cálculos dificilmente la ciencia hubiese podido avanzar. El sistema de numeración Babilónico Entre la muchas civilizaciones que florecieron en la antigua Mesopotamia se desarrollaron distintos sistemas de numeración. Inventaron un sistema de base 10, aditivo hasta el 60 y posicional para números superiores. Para la unidad se usaba la marca vertical que se hacía con el punzón en forma de cuña. Se ponían tantos como fuera preciso hasta llegar a 10, que tenía su propio signo. De este se usaban los que fuera necesario completando con las unidades hasta llegar a 60. A partir de ahí se usaba un sistema posicional en el que los grupos de signos iban representando sucesivamente el número de unidades, 60, 60x60, 60x60x60 y asi sucesivamente como en los ejemplos que se acompañan. El sistema de numeración Maya Los mayas idearon un sistema de base 20 con el 5 cómo base auxiliar. La unidad se representaba por un punto. Dos, tres, y cuatro puntos servían para 2, 3 y 4. El 5 era una raya horizontal, a la que seañadían los puntos necesarios para representar 6, 7, 8 y 9. Para el 10 se usaban dos rayas, y de la misma forma se continúa hasta el 20, con cuatro rayas. Hasta aquí parece ser un sistema de base 5 aditivo, pero en realidad, considerados cada uno un solo signo, estos símbolos constituyen las cífras de un sistema de base 20, en el que hay que multiplicar el valor de cada cifra por 1, 20, 20x20, 20x20x20 ... según el lugar que ocupe, y sumar el resultado. Es por tanto un sistema posicional que se escribe a arriba abajo, empezando por el orden de magnitud mayor. Al tener cada cifra un valor relativo según el lugar que ocupa, la presencia de un signo
8 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
para el cero, con el que indicar la ausencia de unidades de algún orden, se hace imprescindible y los mayas lo usaron, aunque no parece haberles interesado el concepto de cantidad nula. Cómo los babilonios lo usaron simplemente para indicar la ausencia de otro número. Pero los científicos mayas eran a la vez sacerdotes ocupados en la observación astronómica y para expresar los número correspondientes a las fechas usaron unas unidades de tercer orden irregulares para la base 20. Así la cifra que ocupaba el tercer lugar desde abajo se multiplicaba por 20x18=360 para completar una cifra muy próxima a la duración de un año. El año lo consideraban dividido en 18 uinal que constaba cada uno de 20 días. Se añadían algunos festivos (uayeb) y de esta forma se conseguía que durara justo lo que una de las unidades de tercer orden del sistema numérico. Además de éste calendario solar, usaron otro de carater religioso en el que el año se divide en 20 ciclos de 13 días. Al romperse la unidad del sistema éste se hace poco práctico para el cálculo y aunque los conocimiento astronómicos y de otro tipo fueron notables los mayas no desarrollaron una matemática más allá del calendario
5.3.1 Representación posicional de los números Se define un sistema de numeración: como el conjunto de símbolos y reglas que se utilizan para la representación de cantidades. En ellos existe un elemento característico que define el sistema y se denomina base, siendo ésta el número de símbolos que se utilizan para la representación. Un sistema de numeración en base "b" utiliza para representar los números un alfabeto compuesto por b símbolos o cifras. Así todo número se expresa por un conjunto de cifras, teniendo cada una de ellas dentro del número un valor que depende: De la cifra en sí De la posición que ocupe dentro del número En el sistema de numeración decimal (base 10), que habitualmente se utiliza, b = 10 y el alfabeto por tanto, está constituido por 10 símbolos: {0, 1, 2..., 9}
Por ejemplo, el número 3278.52 puede obtenerse como suma de: 3000 200 70 8 0.5 0.02 3278.52
por tanto se verifica que: 3278.52 = 3 * 103 + 2 * 102 + 7 * 101 + 8 * 100 + 5 * 10-1 + 2 * 10-2
9 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
Cada posición, por tanto, tiene un peso: Posición 0 Peso b0 Posición 1 Peso b1 Posición 2 Peso b2 Posición 3 Peso b3 .... Posición -1 Peso b-1 Posición -2 Peso b-2 .....
Generalizando se tiene que la representación de un número en una base b : N = ...n4 n3 n2 n1 n0 n-1 n-2 ... es una forma abreviada de expresar su valor, que es: N = n4 b4 + n3 b3 + .... + n-1 b-1 + n-2 b-2
Ejemplo en base 8:
b = 8. Los símbolos que se usan son: {0, 1, 2, 3, 4, 5, 6, 7} El valor decimal del número octal 175.378 será: 175.378)8 = 1*82 + 7*81 + 5*80 + 3*8-1 + 7*8-2 + 8*8-3 = 125.4882812)10
5.3.2 Sistema de numeración en base dos. El sistema de numeración en base dos, fue introducido por Gottfried Wilhelm Leibniz (1646-1716) en el siglo XVII, siendo el más adecuado para usar en las máquinas electrónicas, debido a que utilizan esencialmente sistemas de dos estados, encendido y apagado. En el sistema binario los datos se representan en un sistema que sólo admite dos estados, 0 y 1. Las operaciones aritméticas se suelen realizar usando una representación de datos y resultados en binario natural. A) Definición del sistema binario.
10 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
En el sistema de numeración binario b=2 y el conjunto de símbolos usados es: {0, 1} Una muestra de los números enteros binarios que se pueden formar con 3 bit y que corresponden a las cifras decimales {0, ...,7} es: Binario
Decimal
000
0
001
1
010
2
011
3
100
4
101
5
111
6
111
7
B) Transformaciones entre bases binaria y decimal. Se puede transformar un número binario a decimal sin más que usar la expresión vista anteriormente: .n4 n3 n2 n1 n0 n-1 n-2...)2 = ...n4 24 + n3 23 + n2 22 + n1 21 + n0 20+ n-1 2-1 + = N)10 Ejemplo: Transformar a decimal los siguientes números binarios: 110100)2 = 1*25 + 1*24 + 0*23 + 1*22 + 0*21 + 0*20 = 25 + 24 + 22 = 52)10 0.10100)2 = 0*20 + 1*2-1 + 0*2-2 + 1*2-3 + 0*2-4 + 0*2-5 = 2-1 + 2-3 = 0.625)10 10100.001)2 = 1*24 + 1*22 + 1*2-3 = 20.125)10
Para transformar un número decimal a binario: a) La parte entera del nuevo número (binario) se obtiene efectuando divisiones enteras (sin obtener decimales) por dos, de la parte entera del número decimal de partida y de los cocientes que sucesivamente se vayan obteniendo. Los restos de estas divisiones y el último cociente (que serán siempre ceros y unos) son las cifras binarias. El último cociente será el bit más significativo y el primer resto el bit menos significativo (más a la derecha). Ejemplo: 26)10 es en binario: 26 | 2_ 0 13 | 2_ 1 6 | 2_ 0 3 |2_ 1 1
11 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
26)10 = 11010)2
b) La parte fraccionaria del número binario se obtiene multiplicando por 2 sucesivamente la parte fraccionaria del número decimal de partida y las partes fraccionarias que se van obteniendo en los productos sucesivos. El número binario se forma con las partes enteras (que serán ceros y unos) de los productos obtenidos. Ejemplo:
Transformar a binario natural el número decimal 0.1875 0.1875 *2 --------0.3750
0.3750 *2 ---------0.7500
0.7500 0.5000 *2 *2 ---------- ---------1.5000 1.0000
0.1875)10 = 0.0011)2
Ejemplo:
Transformar a binario el número decimal 74.423 a) Parte entera: 74 | 2_ 0 37 | 2__ 1 18 | 2__ 0 9 | 2_ 1 4 | 2__ 0 2 | 2__ 0 1
b) Parte fraccionaria: 0.423 *2 -------0.846
0.846 0.692 0.384 0.768 *2 *2 *2 *2 --------- --------- --------- --------1.692 1.384 0.768 1.536
Es decir: 74.423)10 = 1001010.01101...)2
12 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
Ejemplo, programa en C, para convertir de base 10 a base 2 1) Se divide el numero entre la base y se va guardando el residuo, el resultado de la división se vuelve a dividir entre la base y se guarda el residuo; esto se efectúa tantas veces hasta que el resultado de la división sea cero. Ejemplo: convertir 14 en base 10 a base 2 14/ 7 / 3 / 1 /
2= 7 2= 3 2= 1 2 =0
sobran sobran sobran sobran
0 1 1 1
Ahora lo vamos a poner en una tabla con subindices c0 b c0 r0 14 2 7 0 c0 b c1 r1 7 2 3 1 c1 b c2 r2 3 2 1 1 c2 b c3 r3 1 2 0 1 ¿Qué observamos? Es posible utilizar un arreglo de vectores de: c0,c1,c2,c3 r0,r1,r2,r3 b se mantiene constante. En la primera columna se observa que en el tercer renglón se repite un valor de c0 porque es el resultado de la división, que luego se debe utilizar, nuevamente para hacer la siguiente división. ¿Hasta donde dejar de hacer divisiones? Hasta que c[i] se haga cero, en este caso c3=0. Y por lo tanto ya terminamos. ¿Ahora como hacemos para que vayan cambiando los subíndices? primera iteración c0 b c0 r0 Haríamos un "for del índice de 0 a 3" segunda iteración c0 b c1 r1 Sin embargo los que estan obscuros perjudican tercera iteración c1 b c2 r2 nuestro for, lo que podemos mejorarlo de este tercera iteración c2 b c3 r3 modo: c[0]= c[1]- 1. Y con esto quedaria asi: co b co ro c1-1 b c1 r1
13 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
c2-1 b c2 r2 c3-1 b c3 r3 si hago el numero= c0; Que así con un solo for (i=0;i