310 80 2MB
Spanish Pages [206] Year 2012
Tom Chatfield
50 Cosas que hay que saber sobre mundo digital Traducción de Mar Vidal
001-222 50 ideas digital.indd 3
22/02/2012 16:12:15
Introducción
7
Introducción ¿Qué queremos decir con la palabra digital? En cierto sentido, sencillamente nos referimos a algo cuya existencia última es una serie de unos y ceros. Un objeto digital, a diferencia de las cosas analógicas del mundo o incluso de los inicios de la informática, es un patrón binario. A partir de este sencillo dato han surgido algunas de las fuerzas culturales con mayor capacidad transformadora del siglo xx y, ahora, de la primera mitad del xxi. Puesto que tal vez la propiedad más destacable de los objetos digitales —ya representen sus ceros y sus unos a conjuntos de palabras, música, imágenes, aplicaciones, buscadores de la red o bases de datos llenas de buena parte del almacén de conocimientos humanos— sea su compatibilidad entre ellos. Por primera vez en la historia de la humanidad, es posible copiar y distribuir de manera casi infinita palabras, sonidos, imágenes, ideas… y es posible acceder, adaptar y crear todo esto en los mismos dispositivos. La historia de las ideas digitales se remonta a mucho antes del siglo xx. Es, en parte, la historia milenaria de las matemáticas, además de la historia de siglos de ingenioso diseño mecánico. Sin embargo, aquí he optado por centrarme en el pasado más reciente, y en aquellos aspectos del presente digital que parecen estar configurando con más fuerza nuestro futuro. El resultado es que este libro trata y gira abrumadoramente alrededor de Internet. Mientras escribo estas palabras, en 2011, unos dos mil millones de personas —casi un tercio de la humanidad— disponen de alguna forma de acceso a Internet. Gracias a la creciente universalización del acceso móvil a Internet, esta cifra seguirá creciendo durante la próxima década, como lo hará el uso de esos servicios online que redefinen con regularidad buena parte de lo que significa ser miembro de la sociedad moderna. Pero el crecimiento, la mejora y la libertad no son valores que debamos dar por seguros ni, desde luego, son privilegio de todos los ciudadanos digitales del mundo. Internet es un instrumento tan potente cuando está en manos de los regímenes represivos y censuradores del mundo, como cuando está en manos de aquellos que la utilizan para dar libertad, educación, conexión y placer. De manera parecida, es también terreno abonado para lo mejor y lo peor del ser humano. Y eso no hace más que reforzar la necesidad de comprender su historia, sus estructuras, su potencial y sus posibilidades futuras.
001-222 50 ideas digital.indd 7
22/02/2012 16:12:15
8
Fundamentos
01 Internet Conviene pensar en Internet no tanto como en un medio tecnológico como en una infraestructura: un conjunto de hardware y software interconectados —desde los cables submarinos y telefónicos hasta los ordenadores de sobremesa y los teléfonos móviles— y que comunica una parte creciente de todos los dispositivos informáticos del mundo. Muchos servicios operan vía Internet —incluida, y tal vez la más famosa, la World Wide Web—, pero el propio Internet los precede. Es la inmensa red física dentro de la cual existe buena parte de la moderna cultura digital. La historia de Internet data de la Guerra Fría y la red de comunicaciones desarrollada por EE.UU. tras el lanzamiento ruso del satélite Sputnik —el primer objeto hecho por el ser humano puesto en la órbita de la Tierra— en 1957. Atónitos ante el logro de su rival, los estadounidenses dedicaron grandes esfuerzos a desarrollar nuevas tecnologías de la comunicación. En concreto, el objetivo era desarrollar redes de comunicación que fueran capaces de funcionar incluso si un desastre destruía partes considerables de la propia red. Estas primeras investigaciones culminaron con un informe de 1968 titulado Resource Sharing Computer Networks («redes informáticas de recursos compartidos»), que sentaba las bases de la primer red informática basada en un sistema llamado packet switching —en el que todos los datos transmitidos entre máquinas se desmenuzan en pequeños bloques o paquetes—. La primera red informática creada mediante esta tecnología se llamó ARPANET (por Advanced Research Projects Agency Network), y se puso en funcionamiento en 1969, inicialmente conectando cuatro sitios de la Universidad de California en Los Ángeles, el Stanford Research Institute, la Universidad de California en Santa Barbara y la Universidad de Utah. ARPANET creció con rapidez. En 1970 ya había alcanzado la costa este de Estados Unidos. El primer correo electrónico de todos los tiempos se mandó a través de esta red en 1971. En septiembre de 1973,
Cronología 1969
1974
1982
El Departamento de Defensa de EE.UU. crea ARPANET
Primera utilización de la palabra «Internet»
ARPANET cambia al Transmision Control Protocol (TCP) y al Internet Protocol (IP)
001-222 50 ideas digital.indd 8
22/02/2012 16:12:16
Internet
9
«
40 máquinas por todo EE.UU. estaban conectaInternet se está das a la red, y el primer método para transferir convirtiendo en la archivos de ordenador entre ellas —conocido plaza del pueblo sencillamente como «Protocolo de Transferencia de la aldea global de Archivos» o File Transfer Protocol (FTP)— ya se había implementado. En diciembre de 1974, del mañana. se utilizó por primera vez la palabra Internet en Bill Gates un artículo de Vinton Cerf, Yogen Dalal y Carl Sunshine, como abreviatura de la palabra internetworking (algo así como «trabajar interconectados»). Se refería a lo que se estaba convirtiendo en una idea revolucionaria: una metarred global de comunicaciones, formada a base de la combinación de múltiples redes de máquinas que compartían un mismo protocolo para compartir paquetes de información. Esta idea de la «red de redes» tal vez sea la idea central que hay detrás del moderno Internet.
»
Protocolos El artículo de Cerf, Dalal y Sunshine (1974) formulaba dos ideas que resultarían clave para el futuro de Internet: «Internet Protocol» (IP) y «Transmission Control Protocol» (TCP). Entre es-
IPv6 Desde 1981, todo aparato informático conectado a Internet dispone de una dirección numérica única asignada al mismo a través de la cuarta versión del sistema de Protocolo de Internet en el que se basa la red: se abrevia como IPv4. Sin embargo, actualmente, el enorme incremento de recursos basados en Internet ha provocado que el IPv4 se haya quedado sin números. El IPv4 «solo» es capaz de albergar 4.294.967.296 direcciones de Internet únicas, el tamaño máximo de un
número binario de 32 dígitos. La sexta y más reciente versión de Protocolo de Internet se basa en números binarios de 128 dígitos, lo cual permite más de mil millones de veces más de direcciones que la versión cuatro. Cambiar Internet hacia un nuevo protocolo ha representado un reto enorme, en especial para el hardware físico más antiguo, y se ha tenido que ejecutar y probar en varias etapas. En la semana del 3 de febrero de 2011 se entregó el último bloque de direcciones disponibles.
1985
1990
1991
La US National Science Foundation encarga su red
Primer acceso comercial a Internet vía marcación telefónica
Se inventa la World Wide Web
001-222 50 ideas digital.indd 9
22/02/2012 16:12:16
10
Fundamentos
«
Internet es el primer sistema creado por el ser humano que la humanidad no entiende, el mayor experimento en anarquía que jamás hemos tenido. Eric Schmidt
»
tos dos protocolos explicaban la manera precisa en que los datos han de clasificarse en paquetes y ser enviados entre ordenadores. Cualquier ordenador que utilizara estos métodos —normalmente abreviados como TCP/IP— debería, en teoría, ser capaz de comunicarse con cualquier otro ordenador que también lo hiciera. El protocolo de Internet definió la ruta por la que habían de viajar los datos para conectar ordenadores de lugares concretos —o «direcciones IP», como se las acabaría conociendo—, mientras que el protocolo de control de transmisión garantizaba que los paquetes de datos se mandaran de una manera fiable y ordenada. Durante la década siguiente se hicieron muchos esfuerzos para asegurar que fuera posible para el máximo número distinto de ordenadores conectarse entre ellos mediante el TCP/IP. Eso culminó en 1983, con el paso de todos los ordenadores que utilizaban el sistema ARPANET al sistema TCP/IP, reemplazando el viejo sistema de packet switching que habían utilizado anteriormente. En 1985, la National Science Foundation de EE.UU. encargó su propia red de ordenadores, diseñada para que funcionara en las universidades estadounidenses que usaban el sistema TCP/IP, y en 1988 esta red se abrió, lo cual permitió a otras redes informáticas emergentes conectarse a ella. El protocolo TCP/IP facilitó la conexión entre distintos tipos de máquinas y redes, y al final de la década de 1980 vimos el lanzamiento de los primeros Proveedores de Servicios de Internet (o ISP) comerciales, que ofrecían el acceso a Internet a empresas y clientes privados.
Crecimiento A principios de la década de 1990, amplias partes del mundo —encabezadas por universidades e instituciones de investigación— empezaron a utilizar de manera independiente redes informáticas basadas en protocolos TCP/IP, lo cual facilitó muchísimo que estas redes se conectaran entre ellas, pudieran compartir archivos y datos y establecer un sistema de correo electrónico. Sin embargo, no sería hasta la invención de la World Wide Web, en 1989, por parte de Tim Berners-Lee, cuando las herramientas que era posible utilizar vía Internet empezaron a ser realmente accesibles tanto para los usuarios informáticos corrientes como para académicos e investigadores. A lo largo de la década de 1990, el número de personas conectadas por Internet se iba doblando cada año de promedio, un ritmo de crecimiento que durante la siguiente década solo se atenuó ligeramente.
001-222 50 ideas digital.indd 10
22/02/2012 16:12:16
Internet
11
Gobierno en la red Establecida en Estados Unidos en 1998, la Internet Corporation for Assigned Names and Numbers (ICANN) es la única y más importante organización para la regulación del futuro de Internet. Su principal responsabilidad es gestionar los espacios de las direcciones de Protocolo de Internet; es decir, asegurar la adjudicación y gestión de una dirección única para cada página (sitio) y servicio que se sirve de Internet. También designa bloques de direcciones y lo que se conoce como «dominios de alto nivel» (top level domains)
a distintas partes del mundo: por ejemplo, asignar las páginas web que acaban en «uk» a las páginas con sede en Gran Bretaña, en «au» a páginas de Australia, en «com» a operaciones comerciales, etc. La ICANN es una organización sin afán de lucro y ha de equilibrar las necesidades de distintas partes del globo al tiempo que intenta mantener una estructura de Internet coherente y cohesionada: un desafío considerable teniendo en cuenta la naturaleza cada vez más internacional de la red.
Se calcula que a finales de 2010, aproximadamente dos mil millones de personas, casi un tercio de la humanidad, estaban conectadas. La World Wide Web se explica con más detalle en el capítulo siguiente. Con su llegada y con la rápida expansión de la tecnología de las páginas web y los buscadores, Internet empezó a desempeñar el papel que actualmente la mayoría de gente reconoce: el de una red realmente global que conecta a las personas y las naciones a través de una proliferación cada vez más grande de aparatos informáticos. Pero su futuro no puede considerarse garantizado. Internet se apoya en la cooperación continuada entre naciones e individuos, y también en la creación y mejora sostenidas del hardware —es decir, los cables y los servidores informáticos— capaz de soportar las cantidades cada vez mayores de información que se intercambian por la red, bajo forma no solo de palabras, sino de vídeos, de imágenes, de sonidos y de aplicaciones complejas.
La idea en síntesis: Internet lo conecta todo
001-222 50 ideas digital.indd 11
22/02/2012 16:12:16
12
Fundamentos
02 La World Wide Web
Aunque mucha gente los considera y trata como sinónimos, la World Wide Web no es lo mismo que Internet. La web es solo uno de una serie de servicios que ser sirven de Internet. Otros incluyen cualquier cosa, desde compartir archivos y juegos online hasta el vídeochat o el e-mail. Sin embargo, la web tal vez sea el servicio primero y principal dentro de la cultura digital moderna, puesto que la World Wide Web se basa en el principio de que cualquiera que disponga de conexión a Internet ha de ser capaz de circular libremente entre páginas web, y de crear la suya propia si lo desea. En este sentido, es tanto un conjunto de principios como una tecnología. La idea de la web surgió en 1989, en un artículo de investigación de Tim Berners-Lee, ingeniero y científico informático británico. En él, Berners-Lee esbozaba su concepto de un «sistema universal de información interrelacionada» que «permitiría encontrar el espacio para cualquier información o referencia que uno considerara importante». Ese sistema operaría a través de la estructura establecida de Internet... pero las palabras clave en el plan de Berners-Lee eran universal e interrelacionada. Cualquiera tenía que ser capaz de crear fuentes de información en su propio sistema, y estas fuentes tenían que ser creadas de tal manera que a cualquiera le fuera posible encontrarlas, utilizarlas y moverse perfectamente entre ellas. En diciembre de 1990, Berners-Lee —con la ayuda de su colega belga, Robert Cailliau— encajó todos los elementos necesarios para una concreción plenamente funcional de su propuesta en su lugar de trabajo, el Instituto de Investigación de Física CERN de Ginebra, en Suiza. Tres componentes esenciales estaban involucrados: la primera «página» mundial de información digital (para que hubiera algo que mirar); el primer «buscador», que permitía a la gente visualizar la información en esta página desde sus terminales de ordenador; y el primer servidor de la
Cronología 1989
1990
Tim Berners-Lee propone la web por primera vez
Primera versión de la web en funcionamiento
001-222 50 ideas digital.indd 12
22/02/2012 16:12:16
La World Wide Web red, el ordenador en el que se «alojaba» la página web. El ordenador host (o «anfitrión») funcionaba un poco como un tablón de anuncios: en él se colgaba la página de información y luego, cualquiera con un buscador podía simplemente conectarse a ese ordenador y ver la página colgada en el tablón. Y todas las personas que dispusieran de buscador podían consultarla al mismo tiempo: la página en sí sencillamente permanecía en el host, a la vista de todos.
13
La primera página web El viejo chiste sobre a quién debió de llamar el primer propietario de un teléfono no es aplicable a la web, pero se le acerca. De manera parecida, la primera página web que existió —creada en diciembre de 1990 por Tim BernersLee— consistió simplemente en unas cuantas páginas de texto enlazado que describía lo que era la World Wide Web. Y tenía lo que también fue la primera dirección web: http://nxoc01.cern.ch/ hypertext/www/theproject/html. La World Wide Web, explicaba, es algo que «fusiona las técnicas de recuperación de información y de hipertexto para configurar un sistema global de información fácil pero potente». Y actualmente todavía puede verse online una versión de la página original a través del sitio actual del World Wide Web, www.w3.org.
Actualmente, hasta las estimaciones más conservadoras sitúan la cifra de páginas web existentes por encima del billón, buena parte de las cuales resultan imposibles de localizar —a pesar de la inmensa potencia de los buscadores modernos—, pero hay miles de millones de páginas en uso y accesibles para todo aquel que disponga de un ordenador y un navegador de Internet. Es una prueba impresionante de la potencia de la visión original de Berners-Lee y de los esfuerzos decididos de la empresa que fundó en 1994, el Word Wide Web Consortium, con el fin de mantener unos criterios comunes y abiertos para el conjunto de la web.
Hipertexto El HTML o, para dar su nombre completo, el Hyper Text Markup Language, es el conjunto de reglas que subyace en cada página de la World Wide Web. Como su nombre sugiere, es como una versión «hiper» o realzada de la escritura ordinaria. Es por esto que todas las direcciones web actuales empiezan por las letras http: significan HyperText Transfer Protocol («Protocolo de Transferencia de HiperTexto») y se refieren al sistema que permite el intercambio entre ordenadores de la información en forma de hipertexto. Las palabras impresas en las páginas de un libro son texto en el sentido ordinario: meras palabras sobre papel. Se convierten en hipertexto cuando este texto ordinario es
1991
1994
La web pasa a disposición pública a través de Internet
Se funda el Word Wide Web Consortium
001-222 50 ideas digital.indd 13
22/02/2012 16:12:16
14
Fundamentos
Tim Berners-Lee: una vida digital A sir Tim Berners-Lee —ordenado caballero en 2004 por sus proezas— se le venera hoy en día como «padre de la red». Sin embargo, tal vez lo que resulta más destacable que su ingenuidad es su preservación de los principios de universalidad de la libertad plasmados en su creación. Nacido en Londres en junio de 1955, estudió Física en Oxford antes de empezar a trabajar en telecomunicaciones, ingeniería de la programación y diseño técnico. En 1984 entró como investigador en el CERN de Suiza, donde en 1989
concibió la red. Una vez lanzada su creación, en vez de lucrarse restringiendo su uso, en 1994 fundó el World Wide Web Consortium, una organización dedicada a preservar la apertura y la conservación de los criterios universales de la red. Hoy día sigue siendo uno de los grandes defensores mundiales de la utilización abierta y transparente de los datos, y un defensor de mantener la evolución de la red a lo largo del siglo xxi como una fuerza todavía más potente de conexión y creación de conocimiento.
codificado con el simple añadido de una pequeña cantidad de etiquetas o anotaciones (tags) incrustadas en la versión electrónica del texto. Cada etiqueta contiene una información especial, adicional, sobre un fragmento del texto, que indica a cualquier programa de navegación cómo ha de presentarlo, con qué otras páginas de la red ha de conectarlo, etc. En la primera versión del HTML había solo veinte maneras básicas de etiquetar o anotar la información de una página. Tal vez la idea más crucial de todas era que a cada página había que asignarle su propia y única «dirección de base», y que entonces sería posible especificar las direcciones de otras páginas de una manera «relacionada con la dirección del documento presente». Lo que eso significaba en la práctica era que una simple etiqueta se podía utilizar para conectar cualquier página con cualquier otra, indicándole al navegador que creara un enlace (link) entre la dirección única de una página y otra. La mayoría de personas que actualmente utilizan la red no verán nunca una única línea de HTML real; pero en su versión última, sigue siendo lo que sustenta toda página web que hay por ahí.
Navegadores Los navegadores son los programas que los usuarios utilizan para acceder a la red. Hoy día hay disponibles multitud de navegadores distintos, incluidas marcas tan famosas como Internet Explorer, Firefox, Chrome y Safari. Parte del genio de la red radica en que cualquier navegador ha de ser capaz de concederle a cualquier usuario el acceso a prácticamente cualquier página web existente. Los navegadores permiten a los usuarios navegar a su antojo entre distintos sitios y páginas web, ya sea siguiendo los enlaces que hay entre
001-222 50 ideas digital.indd 14
22/02/2012 16:12:16
La World Wide Web ellos o entrando en una dirección específica. El primero de los navegadores que existió se llamó inicialmente World Wide Web —más tarde rebautizado como Nexos— y permitía a los usuarios poco más que visualizar distintas páginas web y moverse entre ellas. Con los años, a los navegadores se les han ido añadiendo una gran cantidad de funciones más sofisticadas, permitiendo el logro de efectos cada vez más complicados a través de los sitios web: desde el uso de enrevesadas hojas de estilo hasta, actualmente, el streaming de sonidos y vídeos dentro de las páginas web, y hasta el funcionamiento de elaboradas aplicaciones interactivas, como juegos, totalmente dentro de la ventana de un navegador web.
15
«
Cualquiera que haya perdido la noción del tiempo mientras utilizaba un ordenador conoce la propensión a soñar, el impulso de convertir los sueños en realidad y la tendencia a saltarse el almuerzo.
Tim Berners-Lee
»
Servidores Cualquiera que disponga de una conexión a Internet y un navegador puede ver páginas web, pero, para que funcionen, el código con el que están hechas ha de almacenarse en alguna parte de un ordenador. Los ordenadores en los que funcionan las páginas web se conocen como servidores y son responsables del envío del contenido de una página web, a través de Internet, hasta cualquiera que quiera acceder a ella a través de un navegador. Lo que eso significa es que el servidor, literalmente, «sirve» una copia de la página web a cada usuario cuyo navegador se programa con la dirección propia de esta página. Si dos personas acceden al mismo tiempo, a cada una se le entrega sencillamente una copia de la página para que la vea en su navegador. Lo mismo es cierto si los usuarios son cien, mil o hasta millones de personas. Siempre y cuando, por supuesto, el servidor sea lo bastante potente como para satisfacer la demanda. Cuanto más sofisticada es una página, o cuanta más gente quiera acceder a ella, más potente ha de ser el servidor que la aloja. En el caso de las páginas más visitadas del mundo, como la página de bienvenida de Google, por ejemplo, los servidores requeridos para dar acceso a la página a todo el mundo y para procesar las consultas que teclean en ella van hasta miles y miles de máquinas, que atienden a cientos de millones de peticiones de usuarios.
La idea en síntesis: la red es abierta y universal
001-222 50 ideas digital.indd 15
22/02/2012 16:12:16
16
Fundamentos
03 Provisión del
servicio de Internet
Los Proveedores del Servicio de Internet (ISP) son la columna vertebral de la cultura digital, que facilita a las personas y las empresas el acceso a Internet a cambio de una tarifa. En los inicios de Internet, antes de la World Wide Web, fueron las ISP las que llevaron al público general una tecnología todavía nueva y cuyo uso parecía desalentador. Incluso después del despegue de la mucho más accesible World Wide Web, las ISP siguieron siendo una fuerza dominante que controlaba el correo electrónico y las experiencias virtuales de millones de usuarios de Internet. Hoy día, su papel resulta menos visible, pero siguen siendo una parte integral de gran cantidad del acceso mundial a los servicios online... y partes poderosas en cualquier debate sobre la dirección futura de la red. Los primeros proveedores del servicio de Internet empezaron a aparecer a finales de la década de 1980, pero no ofrecían acceso a lo que hoy consideramos «Internet», ni siquiera a su primera encarnación total. Los ancestros directos del moderno Internet —NSFNET y ARPANET— estaban en aquellos momentos reservados al uso de las instituciones de educación superior y a los funcionarios de defensa. Así, algunas empresas con sede en EE.UU. como UUNET (fundada en 1987) y Netcom (fundada en 1988) empezaron a ofrecer a sus clientes de pago el acceso a sistemas basados en la red más informal UUCP, o Unix-to-Unix Copy, un sistema que permitía a los ordenadores en red llamarse entre ellos individualmente e intercambiar información, como noticias y correo. En aquel momento la World Wide Web ni siquiera existía, lo cual significaba que pagar por acceder a Internet permitía a los usuarios básicamente enviar y recibir e-mails y participar en foros de discusión como Usenet, una influyente comunidad primeriza de palabras e ideas digitales. Hasta este punto, la cultura digital ajena a las grandes instituciones se había apoyado en individuos con ordenadores que tenían
Cronología 1987
1992
Acceso público a Internet limitado y de pago
Primer acceso total y de pago a la red
001-222 50 ideas digital.indd 16
22/02/2012 16:12:16
Provisión del servicio de Internet
17
acceso a los llamados Bulletin Board Systems o BBS mediante la llamada directa a través de módems o de líneas telefónicas ordinarias. El número de usuarios de los BBS siguió aumentando hasta mediados de la década de 1990, cuando la combinación de un creciente acceso a Internet y el crecimiento de la World Wide Web finalmente los superó. La oferta del acceso comercial a la UUNET a finales de la década de 1980 fue una buena fuente de ingresos para la expansión de los sistemas y capacidades de red, pero la apertura comercial de los sistemas MSFNET y ARPANET continuó rodeada de un intenso debate. Finalmente, en 1992, el Congreso de Estados Unidos votó en favor de permitir las operaciones comerciales en la MSFNET. Eso marcó el inicio del acceso comercial al «verdadero» niño Internet, que hasta entonces había sido en buena parte un instrumento académico sin afán de lucro.
Primer acceso completo Desde 1992, los ISP pudieron ofrecer el acceso mediante marcación telefónica a todo el Internet que en-
¿Qué velocidad? Uno de los aspectos más confusos y potencialmente controvertidos del acceso a Internet es la velocidad: ¿con qué velocidad nos permitirá la conexión provista por una ISP cargar y descargar datos?; ¿cómo se comportará frente al aumento de circulación online durante las horas de máxima demanda? En Gran Bretaña, por ejemplo, la banda ancha ADSL —que se ofrece a través de la red telefónica— tiene una velocidad máxima teórica de descarga de 8 Mbps. Pero esto se consigue raramente, siendo más frecuentes las velocidades que oscilan entre 4 y hasta 1 Mbps. Algunos países, como Corea del Sur, han hecho fuertes inversiones en cableado especial que ofrece una red nacional de banda
ancha mucho más rápida que otros. Sus ISP son capaces de ofrecer una media de unos 12 Mbps, comparado con los 8 Mbps de Japón y la media británica de solo 4 Mbps. Se espera que durante la próxima década las velocidades aumenten de manera espectacular, pero que también lo hagan las cantidades de datos transmitidos por el usuario medio de Internet, gracias a la creciente cantidad y calidad del vídeo transmitido online. Para satisfacer la demanda y mantener las velocidades, muchos ISP creen que es necesaria una fuerte inversión de los gobiernos de todo el mundo paralela a los esfuerzos del sector comercial para mantener el ritmo de crecimiento.
1996
2002
Nace el término «banda ancha»
AOL alcanza su cota máxima de suscriptores
001-222 50 ideas digital.indd 17
22/02/2012 16:12:17
18
Fundamentos
America Online America Online o AOL fue una de las historias de éxito más impresionantes de los primeros tiempos del Internet comercial. Desde finales de la década de 1980, AOL ofreció uno de los primeros y más atractivos servicios de Internet de lo que era un «jardín vallado». Por una tarifa horaria —que en 1996 se convirtió en tarifa mensual—, los usuarios tenían acceso a chats, juegos, correo electrónico de la propia red de la empresa, a un servicio de mensajería instantánea y a otros contenidos propios. El servicio era extremamente fácil de usar y estaba muy bien comercializado, y a lo largo de la década de 1990 ganó
una enorme cantidad de usuarios nuevos, hasta alcanzar la cota de 35 millones de usuarios en 2002. Pero el modelo de una provisión de Internet segura y controlada se hundió en la década de 2000, frente a la expansión continuada de la red y a la proliferación de servicios virtuales gratuitos. A principios de 2011, AOL ya solo contaba con unos cuatro millones de suscriptores, y se apresuraba a reinventarse como negocio basado en los contenidos, con adquisiciones que incluyen el blog más leído del mundo, el Huffington Post, por más de 300 millones de dólares.
tonces existía. El acceso por marcación telefónica (dial-up access) se llama así porque implica —parecido en buena parte al Bulletin Board System— la conexión de un ordenador a Internet mediante una línea de teléfono ordinaria, conectada por un lado al módem del ordenador y por el otro a un módem receptor adjunto al ordenador del ISP. La primera empresa que ofreció un servicio de pleno acceso a Internet de marcación telefónica fue The World, que lo estableció a partir de agosto de 1992, después de ofrecer el mismo tipo de acceso a la UUNET desde 1989. Otras empresas le siguieron en rápida sucesión, y con el lanzamiento en 1993 del primer navegador gráfico para la World Wide Web, el crecimiento global online empezó a despegar. En 1996, la provisión del servicio de Internet vio la aparición de un nuevo término, «banda ancha», que surgió de manera prominente en la campaña publicitaria de la ISP estadounidense MediaOne. El término no tiene una equivalencia técnica precisa, pero se utilizó para mostrar las tarifas de acceso rápido a Internet que MediaOne era capaz de ofrecer a través de su servicio de módem por cable: módems que no operaban a través de los cables corrientes de teléfono, sino por la infraestructura de cableado de televisión, lo que permitía una velocidad de acceso mucho más rápida. Los módems por cable habían tenido un uso limitado desde principios de la década de 1990, pero no fue hasta la segunda mitad de la década cuando la noción de acceso por banda ancha empezó a despegar y a erigirse como un sector principal de mercado de los ISP.
001-222 50 ideas digital.indd 18
22/02/2012 16:12:17
Provisión del servicio de Internet
19
Llega el ADSL Hacia finales de la década de 1990, una segunda
tecnología de banda ancha empezó a convertirse en una opción accesible para los usuarios domésticos: el ADSL, iniciales de Asymmetric Digital Subscriber Line. La tecnología existía desde finales de la década de 1980, pero había sido extremamente cara porque implicaba el uso de una forma compleja de procesado de la señal digital para enviar información a través de un cable telefónico ordinario a una velocidad mucho mayor de la que era posible a través de una conexión por marcación telefónica.
«
Todo esto ha significado una transición gradual El acceso a a la hora de establecer precios para el acceso a Internet en sí Internet, desde el pago por minuto en el mé- mismo se ha todo de marcación hasta el pago de una tarifa convertido en un plana mensual para un acceso de banda ancha derecho humano. disponible permanentemente. Los propios ISP pagan el acceso a Internet que luego ofrecen a Michael L. Best sus clientes —normalmente, de un ISP más grande, con acceso a sectores más amplios de Internet. Finalmente, este dinero sirve para financiar la estructura del propio Internet, repartido entre las numerosas compañías privadas que mantienen las líneas de alta capacidad que a veces se conocen como «columnas vertebrales» de Internet, además de las redes nacionales, los consorcios y las conexiones que forman la enorme extensión moderna de Internet.
»
Actualmente se están extendiendo formas de conectarse a Internet más potentes y al mismo tiempo más variadas: desde los cables de alta velocidad hasta formas más avanzadas de codificación de tipo ADSL, además del acceso de alta velocidad sin cables. Para los ISP, responsables de mantener el acceso fiable a Internet de un número de usuarios en rápido crecimiento, cada uno de los cuales también usa cada vez más servicios de transmisión de datos, el futuro depara una serie de retos relacionados con el mantenimiento tanto de los beneficios como de la calidad del servicio frente a su crecimiento. Algunos están poniendo a prueba nuevos modelos de negocio apoyados en la publicidad, mientras que otros intentan ganar dinero cobrando por priorizar ciertos tipos de tráfico... un tema clave del debate sobre la «neutralidad en la red».
La idea en síntesis: aquellos que controlan el acceso a Internet tienen un poder enorme
001-222 50 ideas digital.indd 19
22/02/2012 16:12:17
20
Fundamentos
04 E-mail El correo electrónico —el envío de mensajes de texto entre ordenadores— fue una de las primeras y más fundamentales de todas las ideas digitales. De hecho, es anterior a la existencia tanto de Internet como de la World Wide Web, puesto que data de casi las primeras ocasiones en las que se conectaron dos ordenadores entre sí. De hecho, tan pronto como fue posible la idea de conectar terminales de ordenador, las personas se dispusieron a hacer algo que durante milenios ha hecho avanzar a las civilizaciones: comunicarse. En los primeros tiempos de la informática, las máquinas eran enormes y extremamente caras, y era habitual que un «ordenador central» (main frame) tuviera una serie de terminales conectadas al él, a través de las cuales varias personas pudieran utilizar el principal. En 1961 se empezó a utilizar un modelo temprano de ordenador central conocido como IBM 7090, en el Massachusetts Institute of Technology (MIT). Este ordenador tenía lo que entonces se consideraba un sistema operativo radical, que permitía a varios usuarios conectarse a él desde distintos terminales y transferir archivos que estaban usando al disco central del ordenador. Poco a poco se fue haciendo evidente que esta capacidad de transferir archivos a un disco central significaba que este sistema operativo, de hecho, podía utilizarse como un buzón. Podías, por ejemplo, escribir un mensaje en un archivo y luego cargarlo al disco central del ordenador con un nombre de archivo como «PARA TOM». Esto equivalía a enviar una carta dirigida a una persona concreta. Entonces, Tom podía conectarse desde un terminal distinto, buscar en el disco central del ordenador, localizar el archivo «PARA TOM» y, gracias a su nombre, abrirlo y leer el mensaje que le habías dejado. En 1965, este sistema ya estaba lo bastante extendido como para que se creara una función especial de «correo» en el sistema operativo. Eso automatizaba de manera efectiva el proceso de correo establecido, lo
Cronología 1965
1971
Se introduce el comando «correo»
Primera utilización del símbolo @
001-222 50 ideas digital.indd 20
22/02/2012 16:12:17
E-mail
21
cual significaba que cualquier usuario podía ahora mandar un mensaje a cualquier otro usuario concreto, y el archivo que contenía el mensaje sería colocado en una ubicación de «buzón» específica del disco principal. Lo único que había que saber eran los números que identificaban a cada usuario en particular para poderles mandar un mensaje. Estos serían indicados la próxima vez que se conectaran a una terminal con el mensaje «Tienes correo».
La introducción de la @ El siguiente paso significativo en la evolución del correo electrónico llegó con la creación del ARPANET (Advanced Research Projects Agency Network) en 1969 en el MIT. Sería el precursor de Internet. La rápida expansión de esta red incrementó enormemente el uso del correo electrónico y empezó a generar posteriores innovaciones en el proceso de envíos. En 1971, el ahora estandarizado símbolo de la @ —que llamamos comúnmente «arroba», o at en inglés— se utilizó por primera vez para indicar la ubicación concreta en la que la persona que mandaba o recibía el e-mail se encontraba, una innoHasta su primer uso en los mensajes vación que formaba parte de un electrónicos en 1971, el símbolo @ fue nuevo sistema de correo electróniun oscuro símbolo contable que se utilizaba para indicar los niveles co implementado por el prograde precios en contabilidad. Desde mador Ray Tomlinson. El sistema entonces, se ha convertido en uno de Tomlinson fue el primero que de los símbolos más utilizados permitió mandar mensajes entre del mundo y ha reunido una distintos host computers (anfitrioimpresionante y colorida variedad de descripciones distintas en distintos nes), en vez de hacerlo simpleidiomas. Mientras que en inglés se mente entre distintos usuarios del conoce simplemente como el mismo ordenador central. En el «símbolo at», en otros idiomas tiene sentido moderno, eso marcó la denominaciones mucho más poéticas. aparición del primer y auténtico En italiano es chiocciola, o caracol, debido a su forma, mientras que en sistema de correo electrónico.
@ por todo el mundo
Al año siguiente, 1972, uno de los padres fundadores de Internet —Larry Roberts, que había dirigido el desarrollo del ARPANET— diseñó el primer programa de gestión de e-mail totalmente operativo, capaz de leer, responder, archivar
finlandés se cree que es más bien un gato acurrucado (miukumauku). Los rusos lo ven más como un perro (sobaka) y los chinos a veces lo llaman xiao laoshu o ratoncito. Pero tal vez la interpretación más imaginativa es la de los alemanes, que lo ven como un mono araña (klammeraffe).
1972
1995
Primer programa de e-mail
Primer correo a través de la web
001-222 50 ideas digital.indd 21
22/02/2012 16:12:17
22
Fundamentos
Equipo de correo electrónico Hay una gran cantidad de opciones que hoy día se consideran esenciales para cualquier programa de correo electrónico. En los primeros puestos de muchas listas está la capacidad de enviar y recibir archivos —documentos, imágenes, bases de datos, etc.— como «adjuntos» a un mensaje. La función de listado de contactos para gestionar las direcciones y detalles de cada uno es también casi universal, como lo son la capacidad de mandar una copia (cc, por carbon copy) o una copia oculta (bcc, por blind carbon copy) de un mensaje a otros receptores, y de reenviar el mensaje a terceros (fw). Muchas personas utilizan también firmas establecidas, incluyendo automáticamente sus detalles personales o los
de su empresa al pie de cada mensaje. Otros sistemas de e-mail más nuevos, como el Gmail de Google, también han introducido la idea de los intercambios en forma de «conversación», agrupando los mensajes de entrada y de salida con personas y asuntos concretos para facilitar su lectura. Y los sistemas de etiquetaje y de archivo para rastrear los mensajes antiguos son cada vez más importantes, teniendo en cuenta los muchos miles de mensajes que un usuario medio puede esperar acumular a lo largo de su vida. Por no hablar de los sistemas de filtrado y prioridad para asegurar que los mensajes importantes lleguen a buen puerto, y que los triviales o dudosos sean puestos a un lado para su consulta informal.
y gestionar los correos electrónicos automáticamente. Le siguieron rápidamente otros muchos programas de gestión de correo, pero todos ellos siguen siendo básicamente iguales en las funciones que desarrollan.
Programas de correo electrónico Cuando se manda un e-mail, no llega al ordenador de un individuo, sino al servidor de correo virtual que abastece su servicio particular de correo. Si utilizas un programa capaz de procesar los e-mails —como el Outlook de Microsoft—, este programa se conecta al servidor de correo a través de Internet para buscar mensajes nuevos y descarga una copia de ellos en tu ordenador. Actualmente hay mucha gente que utiliza el webmail en vez de un programa «cliente» en su ordenador, lo que significa que acceden al servidor de correo a través de un navegador web. Los programas de webmail se mostraron por primera vez en 1995, y ofrecen la comodidad de poder enviar, recibir y leer mensajes electrónicos en cualquier lugar donde hay acceso a Internet y un navegador. Los proveedores de
001-222 50 ideas digital.indd 22
22/02/2012 16:12:17
E-mail
«
23
Al principio, el correo electrónico no parecía gran cosa porque no había muchos ordenadores. Era solo tan grande como la red. Ray Tomlinson, inventor del e-mail
»
webmail más populares actualmente son Gmail de Google, Hotmail de Microsoft y el correo de Yahoo! Tanto para el webmail como para el correo que se consulta a través de un programa cliente, hay dos protocolos modernos dominantes para bajar el correo de un servidor: el POP (Post Office Protocol) y el IMAP (Internet Message Access Protocol). El POP es un sistema más sencillo, que trata el servidor de manera bastante parecida a una oficina de correos: tiende a conectarse con un servidor, buscar y descargar los mensajes nuevos, borrar los antiguos y luego desconectarse. El IMAP ofrece un proceso más sofisticado, que conecta con el servidor más tiempo y permite que varias partes de programas clientes de distintos ordenadores se conecten con el buzón del servidor central y sincronicen el estado de los mensajes entre ellos. En efecto, permite la gestión remota del buzón de mensajes en un servidor, más que la simple descarga y envío de mensajes.
El exceso Teniendo en cuenta el inmenso volumen que circula
actualmente por todo el mundo —incluso si excluimos las enormes cantidades de mensajes spam que exigen sistemas de filtrado más sofisticados por parte de los proveedores del servicio de e-mail—, la gestión de las bandejas de entrada es una función vital en muchas empresas actuales. Técnicas populares para gestionar el correo electrónico van desde la inbox zero (que no permite que los mensajes permanezcan en la bandeja de entrada) hasta el batching (que dedica un tiempo aparte a clasificar grandes cantidades de correo en una sesión intensa). El sistema de comunicación más utilizado a nivel mundial es al mismo tiempo sencillo y un arte en constante transformación.
La idea en síntesis: enviar palabras digitalmente es su propia revolución
001-222 50 ideas digital.indd 23
22/02/2012 16:12:17
24
Fundamentos
05 Informática personal
Los primeros ordenadores eran cualquier cosa excepto personales: máquinas enormes y caras solo al alcance de instituciones académicas de élite, grandes corporaciones o gobiernos. La democratización gradual de la fuerza informática ha sido una de las más importantes de todas las transiciones digitales, y algo que queda sintetizado en la propia idea de «informática personal»: un ordenador en cada casa. También ha creado una cultura basada en una intimidad sin precedentes entre la persona y la máquina. La palabra «computadora» empezó como un término que designaba a la persona que hacía cálculos. Se utilizó por primera vez para referirse a un aparato de cálculo del siglo xix y a un aparato electrónico de cálculo inventado en 1946. Estas primeras máquinas utilizaban tubos de vacío para hacer cálculos, un sistema aparatoso y muy voraz a nivel energético que ocupaba salas enteras. Esta primera máquina de computación electrónica totalmente programable, llamada Colossus, se creó en Gran Bretaña en 1943 y se puso en marcha en 1944 para descodificar mensajes alemanes durante la Segunda Guerra Mundial. A partir de 1955, los transistores electrónicos empezaron a remplazar los sistemas de válvula en los ordenadores, lo cual llevó al desarrollo de los primeros ordenadores centrales. En la década de 1970, los circuitos integrados y luego los microchips remplazaron aquellos transistores, y, por primera vez, fue posible pensar en sistemas informáticos cuyo tamaño, coste, sencillez y necesidades energéticas los pusieran al alcance de los consumidores domésticos.
La revolución del microprocesador La frase «ordenador personal» (o PC en el lenguaje más común) aparecía en varios anuncios de la década de 1960, pero el primer aparato que mereció realmente este título fue diseñado en 1970 por Kenbak Corporation. Se llamaba Kenbak-1 y costaba 750 dólares en 1971, el equivalente de
Cronología 1970
1974
1981
Primer ordenador personal
Primer microchip comercial
Primer PC IBM
001-222 50 ideas digital.indd 24
22/02/2012 16:12:17
Informática personal
25
seis veces esta cifra en la actualidad. Se construyeron menos de 50 unidades. El Kenbak-1 no tenía microprocesador, solo una combinación de circuitos basados en los transistores. Sin embargo, en 1974, la empresa estadounidense Intel produjo lo que a menudo se considera el primer microprocesador comercialmente viable, el Intel 8080. Unas 500 veces más rápido que los circuitos integrados del Kenbak, este chip de 8 bits fue la base de un ordenador de 1975, el Altair 8800 —fabricado por la joven empresa estadounidense MITS (Micro Instrumentation and Telemetry Systems)—, y ayudaría a transformar la percepción pública de la tecnología digital para siempre.
«
Lista para reducir drásticamente las largas rutinas y obtener respuestas en milisegundos. Así es el nuevo ordenador personal Hewlett-Packard 9100A.
»
Science magazine, 1968
Con un precio de 439 dólares en versión kit —o 621 dólares ya montado—, al mes de su lanzamiento ya se habían encargado más de mil Altair 8800, y miles más en el transcurso de aquel año. A su alrededor surgió rápidamente
Los tablets de pantalla táctil El último en llegar a la familia de los ordenadores personales ha sido la tablet —un dispositivo fino y ligero que se controla básicamente a través de una pantalla táctil, en vez de con el teclado—. Microsoft mostró un tablet por primera vez en 2001, pero sería el lanzamiento del iPad de Apple el 2010 lo que cambiaría fundamentalmente la idea de lo que un ordenador móvil personal podía significar. Aplicando un sistema operativo mejorado derivado del que utilizaba el iPhone
de Apple lanzado en 2007, el iPad significaba una nueva etapa de facilidad y de intimidad en el uso de los aparatos informáticos portátiles, y su aparición como plataformas y no simplemente como trabajo y funcionalidad, como se tendía a utilizar los portátiles hasta entonces, los convertía en aparatos mediáticos totalmente autónomos, aptos para navegar, leer, mirar, escuchar y jugar. La informática continúa haciéndose considerablemente más personal.
1985
1991
2010
Lanzamiento del Windows de Microsoft
Primer portátil PowerBook de Apple
Apple lanza el iPad
001-222 50 ideas digital.indd 25
22/02/2012 16:12:17
26
Fundamentos
«
Si el automóvil hubiera seguido el mismo patrón de desarrollo que el ordenador, hoy día un Rolls-Royce costaría 100 dólares, recorrería un millón de millas con un galón de gasolina y estallaría una vez al año. Robert X. Cringely
»
una cultura de modificaciones y creación de accesorios, pero fue en el ámbito de los programas donde el Altair 8800 tuvo quizá su mayor efecto, gracias a la puesta en el mercado de un lenguaje de programación específico llamado Altair BASIC: el primer producto lanzado por una nueva empresa llamada entonces Micro-Soft que dos amigos, Paul Allen y Bill Gates, crearon en respuesta al lanzamiento del ordenador. El Altair 8800 ayudó a demostrar algo que en aquel momento sorprendió a casi todo el mundo: que los ordenadores no interesaban solamente a los académicos y a los expertos, sino que tenían la capacidad de levantar pasiones en todo el espectro humano. A partir de este éxito, 1977 vio lanzar a otras tres compañías las primerísimas máquinas producidas en masa que venderían millones de unidades y ayudarían a establecer la mentalidad digital como parte integral de la vida cotidiana: el Apple II, el Commodore PET 2001 y el Tandy TRS-80.
Hacia el presente A mediados de la década de 1980, el valor
del mercado global de ordenadores personales se cifraba en miles de millones de dólares, impulsado por la mejora gradual del hardware y el software, y por el avance hacia los Interfaces Gráficos de Usuario (GUI) como el Mac OS (lanzado en 1984) y el Microsoft Windows (en 1985). Estos sistemas operativos permitían al usuario interactuar con sus ordenadores a través de gráficos coloreados interactivos, en vez de tener que teclear las órdenes en una pantalla en blanco. IBM sacó su primer ordenador personal, el IBM PC, en 1981, y su éxito afectó profundamente al mercado de los ordenadores personales, llevándolo rápidamente hacia un estándar popular. Anteriormente, el hardware y el software habían sido específicos de los distintos modelos y fabricantes, lo cual creaba un mercado fragmentado, pero el enorme éxito del IBM provocó un brote de nuevos ordenadores personales compatibles con IBM, y finalmente llevó a que el propio acrónimo PC (iniciales de personal computer) acabara significando «máquina compatible con IBM» y no cualquier ordenador personal. La década de 1980 vio también la aparición de un nuevo tipo de ordenador
001-222 50 ideas digital.indd 26
22/02/2012 16:12:17
Informática personal
27
¿Cuán rápido? En el momento en que salió a la venta en 1971, el primer ordenador personal del mundo, el Kenbak-1, era capaz de hacer menos de mil operaciones por segundo. Al cabo de cuatro años, un Altair 8800 podía hacer medio millón. Pero esto no había hecho más que empezar. En 1982, el nuevo chip 80286 de Intel era capaz de operar con 2.660.000 operaciones por segundo, mientras que los ordenadores en los que se instaló tenían más de cien veces más memoria para hacer funcionar programas que el Altair. En 1990, los chips de ordenadores personales operaban a más de
40 millones de operaciones por segundo; en 2000, eso había crecido a más de 3.500 millones, y para 2010 ya se habían superado los 140.000 millones de operaciones por segundo. Y estos chips se instalaban en ordenadores caseros que costaban menos de un 10 por 100 del precio de una máquina de los años ochenta, con aproximadamente 10.000 veces su capacidad de memoria. Esta historia continuada de obtener más y más por menos es uno de los impulsos permanentes del cambio —y el derroche— en la cultura digital.
portátil, que llegó al mercado en 1981 pero que tuvo escaso impacto comercial hasta finales de la década: el laptop. Apple siguió desarrollando sus propias líneas de software y de hardware, pero las máquinas compatibles con IBM dominaban. Gradualmente fueron ganando multitud de accesorios que convertían la informática doméstica en mucho más potente y universal que nunca: tarjetas de gráficos y de sonido específicas y cada vez más potentes, drives de CDROM desde principios de la década de 1990, monitores más grandes y de rendimiento mejorado y, en su momento, la conexión a Internet. En 2000 ya se adquirían más de cien millones de PC al año; en 2002 se usaban más de quinientos millones en todo el mundo, y el 2008 ya eran mil millones. Pero en la actualidad, el dominio de los PC en el mercado digital está menguando, puesto que se han convertido sencillamente en un aparato cada vez más común entre muchos, en vez de ser la única ventana de mucha gente a un nuevo mundo tecnológico.
La idea en síntesis: los ordenadores son para todos
001-222 50 ideas digital.indd 27
22/02/2012 16:12:17
28
Fundamentos
06 Servidores Casi todas las acciones hechas pasan por al menos un ordenador «servidor». En su sentido más simple, un servidor es sencillamente un sistema en una red, capaz de dar servicio a otros sistemas de esta misma red. Actualmente, gracias al modelo cliente/servidor que apuntala toda la estructura de Internet, existen decenas de millones de servidores en todo el mundo —apiñados, en el caso de los mayores servicios de la red, en centros de datos que engloban miles de unidades—. Esta infraestructura física consume cantidades enormes de recursos y le da al mundo virtual una considerable (y potencialmente vulnerable) huella en el mundo real. En una relación normal online entre cliente y servidor, el cliente es un ordenador o programa individual, como un navegador, mientras que el servidor, a veces también conocido como host, es la fuente de la información o servicio que el cliente desea utilizar. Todos los recursos de Internet funcionan siguiendo este patrón cliente/servidor, lo cual significa que hay una gran cantidad de tipos de servidores distintos: servidores de correo electrónico con los que los usuarios se conectan para usar el e-mail, servidores de red que gestionan páginas web, servidores de juegos que albergan videojuegos de red, etcétera. Los servidores también hacen muchas de las funciones superiores que mantienen operativa la infraestructura básica de Internet. Una de estas funciones superiores la desarrollan servidores que tratan con los nombres de distintos sitios web, garantizando que las direcciones con cifraje específico de cada sitio en la red están trazadas correctamente en las direcciones que los usuarios están habituados a leer en sus navegadores: www., bbc., co., uk., etcétera. Esta función de trazado la efectúan por toda la red los servidores de Domain Name System (DNS), que se aseguran de que los usuarios de Internet pueden teclear una dirección web en un navegador y serán dirigidos correctamente hacia la página en cuestión.
Cronología
Década de 1970 Se empiezan a usar los primeros servidores en rack
001-222 50 ideas digital.indd 28
22/02/2012 16:12:17
Servidores
29
Servidores proxy Utilizar un servidor proxy introduce un enlace adicional a la cadena cliente/ servidor. Entre el ordenador del usuario y el servicio que está usando hay una máquina «proxy». Eso tiene variedad de usos, el más habitual de los cuales es acelerar el acceso a Internet: el servidor proxy almacena información que el cliente utiliza con frecuencia (es decir, guarda copias de la misma), lo que significa que no todo ha de ser enviado desde el servidor real. Los servidores proxy son muy utilizados por parte de los proveedores de Internet y por los centros de datos para acelerar el tráfico. Pero también pueden utilizarse para burlar los filtros o la censura. Puede que resulte
imposible acceder a una página web o recurso virtual específicos porque los detalles de su servidor están bloqueados en una red concreta, pero utilizar un servidor proxy como intermediario permite sortear el obstáculo. Los servidores proxy también permiten al usuario navegar anónimamente por Internet ocultando su dirección IP particular, lo cual actúa efectivamente como máscara entre un usuario de Internet y cualquiera que quiera observar y rastrear sus acciones por la red. Las cadenas de servidores proxy pueden convertir la fuente original de una circulación por la red en prácticamente imposible de rastrear.
Entre los servidores DNS, los «servidores raíz» (root name servers) —los que operan con la parte más fundamental de la jerarquía del sistema de nombres de dominio, su zona «raíz»— son especialmente importantes. Estos son, de hecho, los nodos que aseguran el funcionamiento de Internet. En todo el mundo existen solo trece servidores raíz distintos, nombrados de la A a la M Si pirateamos en el alfabeto... aunque, de hecho, hay múltiples el servidor del copias de cada uno por motivos de seguridad y Vaticano, ¿estamos estabilidad, con un total de unas 250 máquinas irrumpiendo en el de servidores raíz que operan en todo el mundo.
«
Cadenas de servidores El simple acto de
acceder a una página de la World Wide Web pue- Aaron Allston de implicar a numerosos servidores, puesto que las peticiones se derivan desde el navegador de nuestro ordenador, a través de nuestro router o conexión a Internet caseros, y luego a través de distintos niveles de servidores de nombres de dominio que implementan los protocolos que gobiernan las direcciones web, hasta el servidor o servidores en los que la página web en cuestión está alojada.
1990
2001
Primer servidor web del mundo
Envío del primer servidor blade
001-222 50 ideas digital.indd 29
»
dominio de Dios?
22/02/2012 16:12:18
30
Fundamentos Si la página web o el servicio que utilizamos no están en la misma red local que nuestro ordenador, nuestro servidor DNS local necesitará obtener esta información de otro servidor DNS, y tendrá que ponerse en contacto con el servidor raíz para averiguar qué servidores de nombre primario y secundario tienen la información relevante sobre la dirección web que hemos introducido. Hasta que la dirección numérica real de la página que intentamos visitar no haya sido transmitida de vuelta a nuestro ordenador, nuestro servidor web no podrá ponerse directamente en contacto con la página y empezarla a mostrarla en nuestra pantalla.
Crear un servidor Los servidores son ordenadores físicamente
especializados que funcionan de una manera muy distinta a los ordenadores de las máquinas caseras o de empresa. Su característica peculiar es que prácticamente no hay que apagarlos nunca: el servidor ha de ser capaz de responder a las peticiones en cualquier momento, y se espera que estén operativos más del 99 por 100 de las veces (en el caso de muchos negocios, esta expectativa puede llegar hasta el 99,995 por 100). La fiabilidad es, por lo tanto, un aspecto clave, junto con la seguridad de abastecimiento energético y con la capacidad de mantener una temperatura operativa adecuada. Eso conlleva a menudo la instalación de sistemas de copia de seguridad (backup) y de protección contra fallos (failsafe). Estos factores, unidos a la necesidad que tienen la mayoría de los principales servicios digitales de una gran cantidad de servidores, significan
¿Quién tiene más? La cantidad de potencia informática necesaria para mantener en funcionamiento las mayores páginas web y compañías de Internet del mundo es apabullante. Las cifras puras y duras son muy difíciles de obtener y cambian constantemente, pero en 2010, según algunas estimaciones, se cree que Google operaba con más de un millón de servidores para poder procesar los miles de millones de peticiones que reciben sus sitios web. Eso puede representar por sí solo alrededor de un 2 por 100 de todos los servidores del mundo, concentrados en centros de datos creados específicamente en ubicaciones globales clave, y que
001-222 50 ideas digital.indd 30
consumen millones de dólares en energía. En comparación, el mayor fabricante mundial de chips informáticos, Intel, tenía en 2010 unos 100.000 servidores, y puede que Facebook se le esté acercando gracias a la enorme velocidad con la que crece. Mientras, la tienda virtual Amazon —con una capacidad de decenas de miles de servidores, instalados en parte para garantizar que su página no se caiga nunca, ni siquiera en los momentos de máxima circulación de ventas— lidera el mercado mundial de alquiler de su potencia de servidores a clientes de pago (véase el capítulo 41, «Informática en la nube», donde se trata este aspecto con más detalle).
22/02/2012 16:12:18
Servidores
«
31
Actualmente, en nuestros centros de datos tenemos literalmente cientos de miles de servidores. En el futuro tendremos varios millones. Bill Gates
»
que tiene sentido hacerlos funcionar en grandes grupos, a veces llamados «granjas de servidores» (server farms) o «centros de datos». Estos pueden tener cientos o hasta miles de máquinas, físicamente organizadas en racks: estanterías altas de metal que tradicionalmente son capaces de albergar hasta 42 servidores apilados verticalmente. Estos servidores son máquinas compuestas solamente por sus componentes básicos. Hay un tipo de servidor todavía más simplificado, conocido como blade debido a su perfil extremamente fino, que ha llevado esta práctica todavía más lejos, lo cual significa que en cada rack de servidores pueden colocarse teóricamente hasta 128 de estas máquinas. Las granjas de servidores consumen enormes cantidades de electricidad —más en costes de mantenimiento finales que el coste de compra de los propios ordenadores— y generan muchísimo calor, con lo cual, mantenerlos frescos y conseguir una correcta circulación del aire por los racks es crucial. Eso ha significado tradicionalmente una fuerte inversión en aire acondicionado, ventiladores y construcciones elevadas para asegurarse una buena aireación, pero, con un ahorro energético potencial de millones de dólares, las grandes empresas experimentan cada vez más con la ubicación de sus servidores en climas fríos y la aplicación de técnicas avanzadas y ecológicamente sostenibles de circulación del aire, e incluso con centros marítimos en vez de terrestres. El consumo energético de los servidores es un problema medioambiental creciente. Prácticamente un 2 por 100 del consumo energético total de Estados Unidos se debe a la IT, y con el crecimiento global constante de las empresas de Internet y virtuales, el propio Internet se está convirtiendo en una de las fuentes de emisiones de mayor crecimiento mundial, gracias en buena parte al enorme consumo energético de los servidores necesarios para mantenerlo en funcionamiento.
La idea en síntesis: los servidores son los motores del mundo digital
001-222 50 ideas digital.indd 31
22/02/2012 16:12:18
32
Fundamentos
07 Navegadores Los navegadores se inventaron al mismo tiempo que la World Wide Web y son una parte integral de su arquitectura —las herramientas de software mediante las cuales los usuarios acceden a un conjunto cada vez más enorme de aplicaciones, medios de comunicación, información, programas y plataformas sociales—. La evolución de los navegadores, de simples herramientas a tal vez los juegos de software más versátiles e importantes del mundo, es una parte fundamental de la historia de la cultura digital... y de la integración cada vez más perfecta de Internet a la vida cotidiana. Como se explicaba en el capítulo 2, el primer navegador del mundo lo creó Tim Berners-Lee en diciembre de 1990. Los navegadores son necesarios para convertir los lenguajes de marcado en los que está escrita la red en páginas utilizables y coherentes. Si intentáramos visualizar una página web con un simple editor de texto, veríamos su «código fuente» en forma bruta, lo que codifica una serie de instrucciones sobre la apariencia y el resultado que un navegador mostraría como una página web totalmente funcional. Tim Berners-Lee pudo haber introducido el primer navegador, pero sería un programa llamado Mosaic, aparecido en 1993, el primero en llevar la red al público no especializado. Mosaic contenía una serie de innovaciones. Diseñado por un equipo del National Center for Supercomputing Applications (NCSA) de Estados Unidos y ofrecido gratuitamente, mostraba imágenes web junto a texto, en vez de hacerlo en una ventana por separado, contenía una elegante interfaz de gráficos y, lo más importante, pronto fue compatible con los dispositivos que funcionaban con el sistema operativo Microsoft Windows, más que sencillamente con el Unix, para el que los anteriores navegadores habían sido diseñados.
Cronología 1991
1993
1995
Primer navegador de red del mundo
Aparece el navegador Mosaic, la primera aplicación asesina (killer app) de la web
Lanzamiento de Microsoft Internet Explorer
001-222 50 ideas digital.indd 32
22/02/2012 16:12:18
Navegadores
33
¿El fin de los sistemas operativos? A medida que los lenguajes y las aplicaciones basados en la red se hacen cada vez más sofisticados, todo lo que hace un ordenador ocurre cada vez más dentro de la ventana de un servidor y no en aplicaciones separadas y específicas. Una de las compañías que ha llevado más lejos este concepto es Google, cuyo propio navegador, el Chrome —presentado al público en 2008—, fue diseñado desde el principio como un primer paso hacia un sistema operativo informático que funcionaría totalmente con aplicaciones basadas en la red, en vez de hacerlo como un programa instalado en un ordenador concreto. A mediados de 2011 se lanzó el Chrome OS, uno de una serie de desarrollos en el funcionamiento de un número creciente de servicios informáticos centrales que operan a través de Internet en vez de hacerlo a través de máquinas locales.
Cambio de percepciones La llegada de los navegadores web como experiencias gráficas atractivas y accesibles fue el principio de un cambio enorme en la manera de utilizar Internet. Hasta entonces, los servicios online accesibles para los usuarios no expertos en informática habían estado muy restringidos a los servicios ofrecidos por ISP como AOL, que ofrecía e-mail, noticias, chat, juegos y otros servicios propios dentro de los límites de sus redes privadas. Pero de pronto, los espacios abiertos de la World Wide Web empezaron a parecer un auténtico fenómeno de masas. El paso siguiente en navegación llegó en 1994 con la introducción del Netscape Navigator, basado en Mosaic y también disponible gratuitamente. Las mejoras en relación con Mosaic incluían la capacidad de ver los contenidos de las páginas web mientras se cargaban, en vez de estar mirando una pantalla en blanco hasta que se hubiera completado la transmisión de datos. Otras innovaciones que llegaron vía varias actualizaciones de Netscape, durante la década de 1990, incluían la capacidad de las páginas web de almacenar trozos de información, conocidos como cookies, en el ordenador de un usuario, para que el servidor pudiera utilizarlos para ofrecer un servicio mejorado y más personalizado; y el primer lenguaje de scripting para un navegador, JavaScript, que permitía incrustar una serie de funciones dinámicas
2003
2008
Lanzamiento del Safari de Apple
Lanzamiento de Google Chrome
001-222 50 ideas digital.indd 33
22/02/2012 16:12:18
34
Fundamentos
«
Sueños frustrados desde hace mucho de liberación informática —de una biblioteca universal, de autoedición instantánea, de documentos electrónicos lo bastante listos como para responder a las preguntas del lector— están aprovechándolo [el navegador Mosaic] para aporrear de nuevo a las puertas de la consciencia popular.
»
Gary Wolfe, 1994
en las páginas web... desde imágenes que cambiaban al pasarles el ratón por encima hasta formularios y menús interactivos.
Rivalidades corporativas En 1996, Netscape dominaba ya de
manera abrumadora el mercado en expansión de los navegadores. Sin embargo, en aquel momento Microsoft empezó a incluir una copia de su navegador, Internet Explorer, con el sistema operativo Windows instalado en los ordenadores nuevos. La estrategia tuvo un éxito aplastante; tanto, que Microsoft se encontraría más tarde enfrentada a litigios antimonopolio basados en la ley de la libre competencia. En 2002, el Internet Explorer se había colocado a la cabeza del mercado de los navegadores, utilizado por aproximadamente un 95 por 100 de los usuarios de la red. Pero desde entonces, alimentado por la innovación continuada en las aplicaciones web y por la siempre creciente comunidad de usuarios de la red, el mercado se ha abierto considerablemente. El sucesor de código abierto de Netscape, el navegador de Mozilla Firefox, es hoy día el preferido por casi un tercio de los usuarios, todavía detrás de Internet Explorer, con un total de más del 40 por 100; el navegador de Apple, Safari, introducido en 2003, domina entre los usuarios de Mac y representa aproximadamente un 6 por 100 del mercado total de navegadores. El otro principal integrante del mercado, Google, lanzó su navegador Chrome en 2008, y hoy día ya copa un 12 por 100 (en rápido crecimiento) del mercado global.
Plug-ins A medida que se han ido extendiendo los usos de la red, la capacidad original de los buscadores para mostrar páginas web cada vez más complicadas se ha ido complementando con el uso de plugins, programas descargables adicionales que permiten al navegador mostrar medios desarrollados para funcionar en programas de terce-
001-222 50 ideas digital.indd 34
22/02/2012 16:12:18
Navegadores
35
¿Qué resultado da? Para un navegador, reflejar correctamente todos los elementos de una página web puede ser una tarea difícil, teniendo en cuenta la complejidad de los elementos involucrados en la creación de los servicios online más avanzados... Y para el usuario puede ser igual de difícil saber si su navegador preferido cumple los mejores criterios del momento. La página web Acid3 fue diseñada teniendo estas ideas en mente. Visitando sencillamente la página http://acid3.acidtests.org, nuestro navegador intentará reproducir correctamente una página que pruebe su conformidad con los criterios actuales del Web Standards Project, dividido en 16 pequeños tests que van desde el scripting hasta la reproducción. El resultado es una imagen de prueba y una puntuación sobre 100. En el momento de su aparición en 2008, ninguno de los navegadores disponibles obtuvo la máxima puntuación, aunque hay algunos —como el Chrome— que actualmente lo logran.
ros, como el Adobe Flash (para ver animaciones, juegos, vídeos y medios interactivos) o el iTunes y el Quick Time de Apple. Tales herramientas incrementan considerablemente la versatilidad y el poder de los navegadores, aunque no todos son compatibles. Por ejemplo, hay versiones del Safari de Apple, diseñadas para su uso en dispositivos móviles y tablets como el iPhone y el iPad, que no son compatibles con el Flash de Adobe, lo cual significa que hay grandes cantidades de contenido multimedia online que no pueden verse a través de estos aparatos. Como tal omisión sugiere, los navegadores siguen siendo un campo de batalla virtual para las tecnologías digitales, determinando así buena parte de lo que es posible —o imposible— de conseguir online para las compañías y los servicios.
La idea en síntesis: los navegadores dan vida a la web
001-222 50 ideas digital.indd 35
22/02/2012 16:12:18
36
Fundamentos
08 Markup
Languages
Los Markup Languages (lenguajes de marcado) son el conjunto codificado de instrucciones que indican a un navegador web la manera exacta en que debe aparecer y comportarse una página web. El más fundamental de estos lenguajes es el HyperText Markup Language («Lenguaje de marcado de hipertexto»), o HTML, que define el formato básico de los documentos web y les permite ser visualizados a través de navegadores y ser enlazados entre ellos. Pero hay también otros lenguajes y protocolos de lenguaje importantes que colectivamente permiten a la red moderna ofrecer sofisticadas opciones interactivas que hoy damos por sentadas. La primera extensión que apareció del propio HTML se llamaba Dynamic HTML, abreviado como DHTML. La etiqueta dynamic significaba que, por primera vez, las páginas web se escribían en un lenguaje que les permitía mostrar contenidos capaces de cambiar y funcionar de manera interactiva, al contrario que el HTML original, que simplemente indicaba a los navegadores cómo habían de mostrar una página estática. Con las primeras páginas web basadas totalmente en las primeras versiones del HTML, cualquier cambio o reacción de una página web significaba que había que volver a descargarla desde el principio desde el servidor. En cambio, una página escrita usando DHTML puede reaccionar a las acciones de un usuario de la web sin tener que ponerse en contacto con un servidor y volver a cargarse cada vez que ocurre algo.
DHTML A diferencia del HTML, el DHTML no es un lenguaje único: el término hace referencia a una combinación de tres tecno logías básicas que entre ellas permiten a las páginas web aparecer de forma dinámica. La primera es DOM (Document Object Model), una herramienta capaz de definir todos y cada uno de los objetos de una página web. Debido a que una página que utiliza el DOM se puede tratar como un conjunto de «objetos» reales, más que como simple-
Cronología 1991
1995
1996
Se define por primera vez el HTML
Aparece JavaScript
Se define por primera vez el CSS
001-222 50 ideas digital.indd 36
22/02/2012 16:12:18
Markup Languages mente una cantidad indiferenciada de información, aparece la posibilidad de que los elementos individuales de la página cambien o interactúen con un usuario sin que toda la información de la página tenga que volver a mandarse de nuevo por Internet.
37
«
Tenemos que poner las herramientas para el crecimiento del lenguaje en manos de los usuarios.
El segundo aspecto del DHTML es el CSS (Cascading Style Sheets), una serie de plantillas capaces de definir cómo todo, desde el tamaño de las fuentes hasta el color, los espaciados y el tamaño de las imágenes, ha de aplicarse a todo lo que aparece en una página web. Guy Steele Como un DOM, el CSS ofrece un conjunto general de normas para una página web, en vez de una información fijada sobre cada parte individual de la misma, lo que permite mucha más flexibilidad y margen. Cualquier cosa etiquetada como «encabezado», por ejemplo, se puede asignar automáticamente para que aparezca en letras grandes, negritas y subrayadas... lo cual permite que los elementos de la página se adapten automáticamente cuando sencillamente cambiamos el estilo que les hemos aplicado.
»
El tercero y más importante de todos los DHTML son los «lenguajes de scripting». Estos son, efectivamente, un lenguaje de programación en miniatura que descarga una serie de instrucciones que se lanzan desde la parte del «cliente» —es decir, desde el navegador web de un indivi-
Mantener los criterios Lo que da potencia a un lenguaje es el número de usuarios que lo hablan, y un esfuerzo considerable se dedica de manera similar a asegurar la definición de un criterio común para todos los lenguajes y protocolos que sostienen tanto la web como la tecnología digital en general. En este proceso hay involucradas varias organizaciones. El World Wide Web Consortium (W3C) es la primera organización mundial dedicada a este tipo de criterios, que los actualiza y los mantiene para la
mayoría de los principales protocolos y lenguajes públicos usados online: desde las hojas de estilo CSS hasta XML y HTML. La Organización Internacional de Estandarización (ISO, por sus siglas en inglés) es otro importante ente internacional. Con sede en Ginebra y fundada en 1947, supervisa muchos de los estándares digitales más esenciales del mundo, desde los lenguajes de programación hasta los gráficos, los formatos de datos, las redes y el hardware.
1996
2005
XML se define por primera vez
Aparece el término AJAX
001-222 50 ideas digital.indd 37
22/02/2012 16:12:18
38
Fundamentos duo— en vez de hacerlo desde el lado del servidor. Estas instrucciones permiten al navegador ofrecer una experiencia mucho más compleja al usuario de lo que sería posible si cada acción y acto individual tuvieran que determinarse solicitándola al servidor.
JavaScript El lenguaje más importante y popular de los de la parte del cliente es el JavaScript. Introducido en 1995 como parte del navegador Netscape —originalmente llamado Mocha—, no tenía nada que ver con el lenguaje de El objetivo de JavaScript programación llamado Java. El es dar a potencialmente JavaScript obtuvo rápidamente una millones de personas que gran popularidad y permitió a los de la red ofrecer expeno son programadoras la promotores riencias virtuales mucho más ricas oportunidad de modificar y de las que habían sido posibles a embellecer páginas web. través del HTML. En 1996, MiBrendan Eich, 1996 crosoft sacó su propio lenguaje de scripting compatible, el JScript, para su propio navegador rival. JavaScript y JScript permitieron a los promotores de la red concebir funciones de programación que podían aplicarse a «objetos» definidos por el Document Object Model de una página web, dando paso a las primeras versiones de buena parte de lo que tomamos hoy por sentado en la red moderna: menús desplegables, formularios interactivos que podemos rellenar, etcétera.
«
»
XML Otra etapa clave en la evolución fue la introducción en 1998 del Extensible Markup Language o XML. El XML no se basaba en el lenguaje HTML, sino en un conjunto de principios generales anteriores a Internet que se utilizaban para definir el estilo de los documentos. Se había originado en la década de 1960 como medio para hacer legibles los documentos electrónicos con una sola práctica estándar para muchos tipos de dispositivos. El XML aplicó este principio de estandarización a la web, ocupándose así de un tema clave con su crecimiento sostenido: la importancia de que las páginas web pudieran leerse y mostrarse correctamente a través de muchos tipos de aparatos y navegadores distintos. Antes del XML, los creadores tenían que guardar varias versiones de cada página web, cada una con una codificación específica, para que la misma pudiera funcionar correctamente con los distintos navegadores y ordenadores. En cambio, el XML definió un conjunto de reglas para codificar la información en un formato estándar y legible con todo tipo de aparatos y programas, como los navegadores de red y muchos otros programas. En este sentido, el XML funcionaba no como un lenguaje individual, sino como un conjunto de normas para crear lenguajes compatibles: actualmente se utilizan cientos de lenguajes basados en los principios
001-222 50 ideas digital.indd 38
22/02/2012 16:12:19
Markup Languages
39
Una historia impresa Tanto la idea de «marcado» (markup) como muchos de los términos más habituales en los lenguajes de marcación o anotación informáticos, datan no de los inicios de la tecnología digital, sino de una transformación tecnológica muy anterior: el nacimiento de la imprenta. La impresión con tipografía móvil apareció en Europa en el siglo xv y fue un proceso laborioso que normalmente conllevaba que los manuscritos fueran «anotados» con
instrucciones del impresor sobre cómo debían presentarse en la pagina: qué palabras debían destacarse en negrita, en cursivas, como encabezados, subrayadas o destacadas aparte. Hoy día hay varios términos de impresor que sobreviven en el lenguaje del marcado digital: desde la abreviatura «em», del inglés emphasts, indicando «énfasis» (para poner en cursiva), hasta el uso de la etiqueta strong, para indicar que hay que poner el texto en negrita.
del XML por navegadores, herramientas de oficina y profesionales, bases de datos y muchos otros campos. Gracias a un estándar común definido —y actualizado con regularidad— en XML, todas estas creaciones son capaces de mantenerse compatibles a un nivel fundamental.
Más allá del XML Las páginas web actuales más avanzadas son altamente interactivas y funcionan cada vez más como programas informáticos por derecho propio. Una de las maneras más efectivas de conseguirlo es a través de una técnica conocida como AJAX (por Asynchronous JavaScript and XML). Como el DHTML, el AJAX no es un lenguaje único, sino un grupo de tecnologías que colectivamente permiten la existencia de páginas web muy interactivas, como los programas de e-mail o muchas páginas de compras o de ocio. El término AJAX en sí fue acuñado en 2005, aunque el tipo de tecnologías que engloba llevaban algún tiempo utilizándose. Lo más importante es que permite a las páginas web recoger datos y operar de manera independiente mientras un usuario está usando y visualizando la página: de ahí la palabra asynchronous («asincrónico») de su nombre, que describe el hecho de que todos estos procesos pueden ocurrir independientemente en momentos distintos. En el capítulo 17 se incluyen más detalles sobre cómo los contenidos complejos e interactivos se presentan online.
La idea en síntesis: las tecnologías digitales exigen lenguajes digitales comunes 001-222 50 ideas digital.indd 39
22/02/2012 16:12:19
40
Fundamentos
09 Búsquedas Sin la capacidad de buscar por las cada vez más enormes cantidades de información que contiene, Internet tendría un uso limitado. Ya en 2005, Eric Schmidt, el CEO de Google, calculó que había unos cinco millones de terabits de datos en la red: aproximadamente 1.000.000.000.000 bits de información. De ellos, Google —el mayor buscador del mundo— tenía indexados solo 200 terabits, sobre un 0,04 por 100. La cantidad de datos que circulan por Internet, desde entonces, ha aumentado muchas veces, y buscar las partes más importantes sigue siendo uno de los grandes retos de la cultura digital. Google se fundó en 1998 y es la compañía más famosa de las que han convertido en negocio la búsqueda de la información que hay en Internet. Pero hay, y ha habido, muchas otras dedicadas a la misma tarea. El primer motor de búsqueda de Internet fue creado ocho años antes de que existiera Google, en 1990, por un estudiante de la McGill University de Montreal. Se llamaba Archie —derivado de la palabra archive, sin la v— y fue el primer programa capaz de hacer una función sencilla pero crucial: descargaba automáticamente una lista de todos los archivos disponibles de todos los sitios de Internet públicos que podía encontrar. Los usuarios podían entonces buscar por esta lista de nombres de archivos, para ver si coincidían con palabras o abreviaturas concretas. La siguiente etapa en el desarrollo de los buscadores llegó en 1993. A esas alturas, la World Wide Web ya había empezado a despegar, lo que significaba que Internet ya no se componía simplemente de archivos almacenados en ordenadores conectados entre ellos. Había, además, un número creciente de páginas web reales por ahí, almacenadas en ordenadores que hacían de auténticos servidores de red más que de simples almacenes en los que se podían guardar archivos. Otro estudiante, esta vez del MIT, creó algo llamado World Wide Web Wanderer, un programa capaz no solo de grabar los nombres de los
Cronología 1990
1993
1995
Primer buscador de Internet
Primer buscador de la web
Lanzamiento del directorio web de Yahoo!
001-222 50 ideas digital.indd 40
22/02/2012 16:12:19
Búsquedas
41
archivos en máquinas conectadas a Internet, sino además de buscar por ahí y encontrar páginas web y grabar sus ubicaciones exactas. Este wanderer o vagabundos es el primer ejemplo de lo que se llama «robot» de la red, ya que era capaz de funcionar de manera automática. A lo largo de varios años fue creando un índice que daba cierta indicación del siempre creciente tamaño de la World Wide Web de los principios.
Indexación completa El siguiente gran salto llegó en 1994,
con un programa llamado WebCrawler. Fue el primer motor de búsqueda que creaba un índice no solo de los nombres y las ubicaciones de las distintas páginas web, sino también de cada una de las palabras que aparecían en las páginas visitadas. Esto permitía por primera vez a los usuarios buscar por el contenido real de las páginas a través de un buscador, más que tener que encontrar una página que pareciera interesante y luego ir a visitarla para comprobar si realmente lo era. A esas alturas, las posibilidades comerciales de la red empezaban a ser evidentes y la búsqueda empezaba a aparecer como una valiosa oportunidad de negocio. Entre 1994 y 1996 aparecieron gran cantidad de
Rivales globales Google es el buscador dominante en casi todos los países del mundo, una hazaña considerable para una compañía estadounidense en una zona tan inmensamente internacional como es Internet. Hoy día, Google opera en más de sesenta regiones globales en un número similar de idiomas distintos. Pero hay unos cuantos países en los que no domina: en China, el buscador nativo Baidu —que respeta las normas de censura de su gobierno— tenía a finales de 2010 un 70 por 100 del mercado de los buscadores, comparado con el menos del 25 por 100 de Google. En Rusia, la empresa rusa Yandex controla más del 60 por 100 de las búsquedas, mientras que en la República Checa y en Corea del Sur también dominan las compañías locales. Pero, en conjunto, se trata de casos excepcionales: a finales de 2010 Google presumía de efectuar más de tres cuartas partes de todas las búsquedas globales, seguido de Yahoo!, el buscador Bing de Microsoft y Baidu, todos ellos con menos de un 10 por 100.
1998
2000
2009
Fundación de Google
Fundación de Baidu
Microsoft lanza Bing
001-222 50 ideas digital.indd 41
22/02/2012 16:12:19
42
Fundamentos
Intentar hacer trampas Casi tan pronto como hubo buscadores, hubo gente que intentó aprovecharlos empujando sus páginas web a los primeros puestos de las listas de resultados: un proceso que ha significado que, a su vez, cada empresa de buscadores ha tenido que refinar sus métodos para mantenerse un paso por delante de los tramposos. En los casos más llamativos, había quien intentaba generar una cantidad enorme de enlaces a su propia web colgándolos por las páginas de mucha otra gente, o podían intentar envolver su página con muchas de las palabras más buscadas en la red, como sexo o dinero, o nombres de personas famosas. La línea entre «optimización en los buscadores», como se llama al intento de colocar una página web en los primeros puestos de la búsqueda, y la trampa pura y dura puede ser muy fina. Y un motivo por el que los detalles exactos de los algoritmos tienden a guardarse celosamente es que intentan que resulte lo más difícil posible que la gente manipule los resultados y consiga obtener niveles potencialmente muy valiosos de atención en la red.
buscadores rivales, aprovechando la estructura esencialmente abierta de la red para recopilar sus propios índices de sitios e intentar ganar usuarios. Estos buscadores incluían Lycos, Magellan, Excite, Infoseek y AltaVista, y entre ellos se impulsó rápidamente la innovación en un terreno en el que lo más importante era obtener la atención de los usuarios, intentando ofrecer herramientas más potentes y más útiles que los demás.
Utilidad La idea de sencillamente vincular términos de búsqueda con páginas web y otros recursos es solo una pequeña parte de la historia de los buscadores. Igual de importante, y mucho más difícil de asegurar, es la idea de que buscar algo ha de aportar resultados no solo precisos y exhaustivos, sino también útiles. Hay tres maneras principales de intentar asegurarse resultados útiles, todas ellas vitales para los buscadores modernos: tener un índice de páginas web lo más exhaustivo posible; dar a los usuarios las máximas herramientas posibles para ayudarles en la búsqueda, y —la más difícil de todas— intentar aprender del comportamiento de la gente y de las propias páginas web qué es lo que se considera información útil y lo que no para la gente que busca algo. A mediados de la década de los 90 proliferaron las innovaciones en este campo. Lycos, por ejemplo, fue el primero en permitir a los usuarios buscar dos palabras que se encontraran cerca dentro de una página web, mientras que AltaVista ofreció la posibilidad de buscar me-
001-222 50 ideas digital.indd 42
22/02/2012 16:12:19
Búsquedas
43
«
Hay quien dice que Google es Dios. Otros dicen que Google es Satanás. Pero si creen que Google es demasiado poderoso, recordad que... lo único que hay que hacer es un clic y recurrir a otro buscador.
»
Sergey Brin
dios, como imágenes y vídeos. Fue, sin embargo, un proyecto de investigación que iniciaron en Stanford University, en enero de 1996, dos alumnos llamados Sergey Brin y Larry Page, el que daría la mayor innovación en este campo: un algoritmo que llamaron PageRank. El PageRank era una manera de medir la importancia de cualquier página web concreta contando automáticamente la cantidad de páginas web que conectaban con ella, y constituía la base del buscador experimental de Brin y Page, Google. En 1998, Google se constituyó en sociedad, ha seguido perfeccionando su algoritmo PageRank desde entonces y, en este proceso, ha llegado a dominar unas tres cuartas partes del mercado mundial de buscadores de Internet. Sin embargo, buscadores rivales siguen activos en todo el mundo, y para todas las empresas activas en el sector, intentar ofrecer resultados de búsqueda de buena calidad frente al siempre creciente Internet exige una enorme cantidad de tiempo, esfuerzo e innovación.
La idea en síntesis: los datos solo son útiles si puedes encontrarlos
001-222 50 ideas digital.indd 43
22/02/2012 16:12:19
44
Hacia el presente digital
10 Web 2.0 Unos años más tarde de que lo que se conoció como el «crash de las punto.com» frustrara muchos sueños digitales, la idea de que la web entraba en una «segunda fase» empezó a ganar terreno. Lo que describía el término usado para describirla —Web 2.0— no era tanto un avance tecnológico, como un cambio general en el porqué y el cómo la gente interactúa online. En su primera década, la web fue vista primariamente como una herramienta para encontrar y compartir información. La Web 2.0 describía una cultura digital que era cada vez más activa y más omnipresente: un lugar en el que los instrumentos para colaborar, hacer vida social, compartir y crear estaban al alcance de todos. Los primerísimos días de Internet, antes de la existencia de la World Wide Web, estuvieron configurados por una minoría informatizada, y este equilibrio de poder siguió hasta los días de la primera web, cuyos usuarios pioneros eran a menudo personas ya familiarizadas con la informática. Muchos usuarios «corrientes», atraídos por la facilidad de uso de la red, tendían a navegar y consumir contenidos en vez de crearlos ellos mismos. Eso fue cambiando paulatinamente gracias a la evolución gradual de herramientas más potentes y accesibles basadas en la red, que permitía a todos sus usuarios convertirse en participantes activos del mundo virtual. Esto era algo para lo que, desde el principio, Berners-Lee había diseñado la red, pero que precisaba mantener cierta masa crítica de accesibilidad antes de poder hacerse realidad. Llegaría con la evolución gradual de una combinación de tecnologías y actitudes, cuya representación tal vez más influyente sería el Congreso Web 2.0 organizado por el experto en tecnologías Tim O’Reilly, celebrado en San Francisco en 2004, que se propuso explorar «cómo la web ha evolucionado hacia una robusta plataforma para la innovación a través de muchos medios y dispositivos —desde el teléfono móvil hasta la televisión, desde el teléfono hasta el buscador». La cla-
Cronología 1999
2001
2003
Se introducen las fuentes RSS
Fundación de la Wikipedia
Se acuña el término social bookmarking [favorito]
001-222 50 ideas digital.indd 44
22/02/2012 16:12:19
Web 2.0
«
45
Si tu público objetivo no te está escuchando, la culpa no es de ellos; es tuya.
»
Seth Godin, Small is the New Big
ve de la respuesta estaba en el usuario: girando alrededor de la capacidad de buscar, crear, recopilar, compartir y categorizar contenidos, interconectar estas actividades, y hacerlo todo en un entorno virtual cada vez más rico.
Creación colectiva Una de las técnicas creativas centrales en el
corazón de la Web 2.0 es el weblog, o blog —una plataforma para que todos y cualquiera de nosotros pueda publicar sus palabras online, pero también un foro para comentar y dialogar y para la cultura cada vez más activa de seguir y responder a las acciones de los demás por la red—. Eso es posible gracias a aplicaciones de conexión como los readers, que recopilan en una página El etiquetado es una de las maneras las actualizaciones de la selección más sencillas de clasificación digital: las palabras o frases se asocian con personal de un usuario de la red de una página o un fragmento de sus páginas favoritas.
Etiquetar el mundo
Esta cultura de la facilitación alrededor de los blogs es importante, ya que fue la aparición de estas herramientas —el etiquetado para indicar el contenido de las entradas de un blog, los comentarios para dialogar y compartir, los feeds que permitían una distribución más fácil, programas de terceros diseñados para recopilar los blogs favoritos— lo que estimuló una cultura virtual de la participación masiva. Tal vez el ejemplo más influyente de esta participación fue introducido en 2001: la enciclopedia virtual
información, y estas «etiquetas» (tags) se utilizan entonces para ayudar a los demás a entender de qué va esta información. Este proceso figura en el centro de muchas innovaciones asociadas con la Web 2.0, puesto que permite a millones de usuarios de Internet generar colectivamente una imagen de cuáles son los temas clave de todo, desde los blogs hasta los libros, las noticias y los enlaces: una estructura en la que luego podemos buscar, agregar, comparar, compartir y usar para crear una imagen global de las maneras en que las distintas páginas web y los fragmentos de contenido generado por los usuarios se relacionan entre ellos y con el mundo.
2004
2005
Primer congreso de la Web 2.0
Fundación de la página YouTube para compartir vídeos
001-222 50 ideas digital.indd 45
22/02/2012 16:12:19
46
Hacia el presente digital
«
Una parte esencial de la Web 2.0 es aprovechar la inteligencia colectiva, convirtiendo la web en una especie de cerebro global. Tim O’Reilly, 2005
»
Wikipedia, iniciada con el objetivo expreso de convertirse en una fuente de referencia universal creada y mantenida exclusivamente mediante el esfuerzo de voluntarios, y abierta a todo aquel que quiera colaborar. La idea de una wiki, o base de datos virtual a la que todo el mundo puede añadir entradas e información, está de por sí esencialmente conectada a la de la Web 2.0: derivada de la palabra hawaiana que significa «rápido», la primera fue lanzada en 1995. En la década transcurrida desde su fundación, la Wikipedia se ha convertido en emblema del potencial colaborador de la web: del hecho de, como diría Tim O’Reilly, «aprovechar la inteligencia colectiva». Es una tendencia que se extiende ampliamente por casi toda historia de éxito importante asociada con la Web 2.0: desde la capacidad de Google de medir la estructura de enlaces de la web con el fin de optimizar sus resultados de búsqueda, hasta la integración por parte de Amazon de las opiniones, los comentarios y las recomendaciones de los lectores en la estructura básica de su página.
El aspecto social Otro mantra de la Web 2.0 es su poder de ex-
pansión viral; es decir, la difusión de una idea no gracias al impulso del marketing por parte de sus creadores, como en el antiguo mundo de los medios, sino gracias a la distribución activa hecha por el público. Esencial para este proceso virtual ha sido el desarrollo de numero-
Distribución realmente sencilla El RSS (por Really Simple Syndication) nació en 1999 y es uno de los web feeds («fuentes web») más populares —una manera de hacer accesible automáticamente contenidos e información de una página web para que otras páginas la distribuyan—. El sencillo principio de permitir que el material sea extraído automáticamente para todo, desde blogs hasta noticias y páginas de medios distintos, era una parte importante del proceso de colaboración y síntesis de la Web 2.0. Los feeds facilitaban la posibilidad de seguir y distribuir contenido desde muchas otras páginas, y de automatizar el proceso de consultar y clasificar las actualizaciones. Equipado con tecnología de distribución, la cantidad de páginas que cualquier usuario de la red podía monitorizar con regularidad aumentaba exponencialmente.
001-222 50 ideas digital.indd 46
22/02/2012 16:12:19
Web 2.0
47
sas herramientas y plataformas sociales conectadas: desde páginas de «social bookmarking» («marcadores sociales») como Digg (presentada en 2004), en la que los usuarios cuelgan enlaces a noticias y votan sobre lo interesantes que son, hasta las mismísimas redes sociales, que empezaron a florecer con la fundación de Friendster en 2002 y desde entonces han llegado a dominar buena parte de la web gracias al éxito apabullante de Facebook, fundado en 2004 y que a principios de 2011 tenía ya más de 600 millones de usuarios. Si todas estas fuerzas suponen una transformación a lo largo de la primera década de la web que realmente merezca la etiqueta 2.0 es tema de discusión —a Tim Berners-Lee, entre otros, le disgusta la frase—, pero es indiscutible que marcan un aumento enorme de la influencia del poder de los usuarios de la red como participantes activos en la cultura digital; una idea consagrada en la teoría de la Larga Cola (Long Tail theory), que dice que la mayor parte de un mercado no está hecho de unos pocos éxitos rotundos, sino por una inmensa cantidad de productos e ideas nicho. A medida que los medios sociales y una gran proliferación de aparatos en red empezaron a llevar la red hacia su siguiente etapa, el legado de la Web 2.0 es evidente, tal vez por encima de todo, en un cambio de suposiciones tan fundamental que hoy día se da por sentado: que todo aquel que participa de la red tiene voz y un papel activo que debe desempeñar —para bien o para mal— en la configuración de la cultura digital.
La idea en síntesis: la interacción y la colaboración son un nuevo criterio global
001-222 50 ideas digital.indd 47
22/02/2012 16:12:19
48
Hacia el presente digital
11 Netiqueta ¿Cómo debemos tratar a las personas que conocemos por la red? Inevitablemente, aplicamos normas y convenciones distintas cuando interactuamos con otras personas por Internet, en vez de hacerlo en persona. Tal vez por encima de todo, cuando no tenemos que tratar con alguien cara a cara tenemos un comportamiento más libre: somos más capaces de mostrarnos descorteses, displicentes o bobos, pero también de ser altruistas, cooperadores o solidarios. A medida que Internet y la cultura digital han ido creciendo, la idea de fomentar el comportamiento positivo en la red se ha ido imponiendo con ellos. Es algo que queda resumido en la idea de una cortesía no escrita de comportamientos en la red, conocida como «netiqueta». Los códigos de comportamiento ya existían en Internet mucho antes de que se inventara la World Wide Web. Los primeros contactos por la red se centraban en el correo electrónico, los foros de discusión y las noticias. La palabra netiqueta (netiquette) se utilizó durante buena parte de la década de 1980 como descripción en tono de broma, y tuvo un papel en guías populares de conducta que reflejaban con ironía algunos hábitos antisociales primitivos de la red, como formar comentarios con firmas demasiado largas y elaboradas, mandar cientos de copias de un e-mail, escribir con torpeza y usar títulos absurdos en la línea destinada a describir el «asunto» de un mensaje. El primer documento que utilizó explícitamente la palabra netiqueta como intento de consagrar lo que significaba el buen comportamiento en el joven Internet apareció en 1995. Introducido por Intel Corporation, se proponía informar a la rápidamente creciente comunidad de usuarios nuevos de Internet de algunos de los protocolos y las convenciones que se habían establecido durante los primeros años del crecimiento de Internet. En concreto, dividía el uso de Internet en tres categorías principales —la comunicación entre dos usuarios, la comunicación de uno a varios, y los servicios de Internet—, y daba una se-
Cronología 1983
1992
1995
Primera referencia a un documento de netiqueta
Primera descripción del trolling en Internet
Intel publica sus Reglas de Netiqueta
001-222 50 ideas digital.indd 48
22/02/2012 16:12:19
Netiqueta
49
Privacidad y plagio Precisamente porque copiar la mayoría de material de la red es absurdamente fácil, el plagio y la falta de reconocimiento de la autoría ajena —ya sea transmitiendo páginas web enteras copiadas como si fueran trabajo propio, o sencillamente obviando mencionar al autor de una cita o idea— son dos de las faltas más comunes a la netiqueta. De manera similar, teniendo en cuenta el carácter público de buena parte de Internet, la falta de respeto a la privacidad virtual de los demás
puede considerarse un atentado grave a la confianza: publicar direcciones de e-mail o correspondencia privadas, por ejemplo, o simplemente copiar abiertamente a un gran número de desconocidos cierta correspondencia. De manera más trivial, los e-mails supuestamente destinados a una persona que accidentalmente se mandan a otras son una de las faltas —potencialmente embarazosas— más corrientes de netiqueta en el mundo digital.
rie de consejos tanto de carácter general («Sé conservador con lo que mandas y progresista con lo que recibes») como concreto («Utiliza las minúsculas. LAS MAYÚSCULAS SUENAN COMO SI ESTUVIERAS GRITANDO») basados en las normas establecidas por los primeros usuarios de Internet. Con el tiempo, a medida que Internet y luego la web se fueron expandiendo en varios órdenes de magnitud, estas normas dieron paso a algo a la vez más vago y más importante: la idea de que el potencial positivo del ciberespacio solo podría ser realidad si se observaban ciertas normas de comportamiento ético, basadas no solo en convenciones de cortesía relacionadas con la comunicación, sino también en una voluntad más general de no maltratar las que tal vez sean las características más esenciales de las interacciones virtuales: el anonimato y la multiplicidad (es decir, la facilidad de reproducción y distribución).
Flame, griefers y trolls Una de las primeras actitudes relaciona-
das con la conducta virtual que se sigue usando hoy es el flaming: colgar contenidos potencialmente incendiarios, originariamente en uno de los primeros foros de opinión de Internet. Intentar excitar los incendios publicando comentarios que incitan al contenido extremo
2007
2008
Código de Conducta para bloggers
California aprueba una ley contra el ciberacoso
001-222 50 ideas digital.indd 49
22/02/2012 16:12:20
50
Hacia el presente digital se conoce como flame-baiting [provocar incendios?] y puede provocar una «guerra de flames» entre otros miembros de la discusión. Tal comportamiento se ha trasladado, como era predecible, desde los foros de discusión hasta los chats en directo, las redes sociales, los video juegos y la mayoría de espacios virtuales en los que la gente interactúa. Hoy día, el término genérico griefers se aplica a aquellos que penetran en el ciberespacio —y en los ciberjuegos en particular— con la intención concreta de molestar a los demás. Un subconjunto especial y persistente de los griefers son los llamados trolls —cuando alguien finge ser un participante cándido y normal en una conversación virtual para ganarse la confianza de los demás y luego molestarles.
Sock puppets y astroturfing Una falta cada vez más común a la
netiqueta es la marca de falsedad interesada en utilizar sock puppets («marionetas») —identidades virtuales ficticias que permiten a las personas crear la falsa impresión de que otras personas las apoyan, a ellas o a su trabajo—. Un uso moderno habitual de puppets podría consistir en un autor que cuelga varias críticas favorables de su propia obra en Amazon bajo identidades ficticias; o, un caso más grave, la creación de múltiples identidades ficticias en blogs políticos con el fin de introducir un punto de vista particular, o de cargarse las posturas contrarias. Precisamente debido a la facilidad con que puede perpetrarse, este tipo de engaño es una falta grave contra uno de los principios más básicos subyacentes en la netiqueta: el compromiso con el debate abierto y honesto. Una práctica relacionada con el uso de puppets es
Ciberacoso Muchas infracciones de la netiqueta podrían agruparse bajo el apelativo de ciberacoso: el comportamiento virtual que distingue a individuos concretos y los somete al abuso, y que también puede conllevar el ciberacecho por distintos sitios y foros. Una combinación de anonimato y la creciente universalización de los aparatos con conexión a Internet, como los smartphones, pueden hacer del ciberacoso algo más habitual y más difícil de esquivar que el acoso en el mundo real, en especial entre los
001-222 50 ideas digital.indd 50
usuarios más jóvenes de la red. A medida que va aumentando la consciencia de la gravedad potencial de esta conducta se va definiendo en muchos países una legislación específica que convierte las amenazas y la persecución online en un comportamiento ilegal. Publicar en la red información falsa y difamatoria sobre otros, además de un atentado grave contra la ética en Internet, también es una actitud que cada vez se toma más en serio y se persigue como delito grave en una sociedad cada vez más digitalizada.
22/02/2012 16:12:20
Netiqueta el astroturfing —algo que no es exclusivo del mundo digital, pero que prevalece especialmente en él, por lo que se crea una falsa impresión de movimiento «de base» en apoyo de algo, haciendo pasar campañas preconcebidas de publicidad o promoción como espontáneas—. Desde los productos comerciales hasta la política, la espontaneidad puede ser demasiado fácil de simular.
51
«
Por muy bien que conozcas las normas de la netiqueta, al final siempre acabarás ofendiendo a alguien que no las conozca.
Don Rittner
»
Códigos de conducta Uno de los primeros códigos positivos de conducta que adquirió más influencia en la red moderna fue el llamado Código de Conducta de los bloggers propuesto por Tim O’Reilly en 2007, como reacción a la falta de sinceridad, de civismo y de honestidad que perjudicaba el discurso honesto y productivo en muchos blogs... y, por supuesto, del conjunto de la web. El código de O’Reilly estaba destinado a los bloggers, pero en sus siete propuestas encuadra la mayoría de principios básicos de la integridad virtual. Estos son: asumir la responsabilidad de nuestras propias palabras y de las palabras de otros que permitimos publicar en nuestra página; indicar nuestro grado de tolerancia a los comentarios abusivos para poder evitar contenidos que pudieran ofendernos; no tolerar automáticamente los comentarios anónimos, puesto que pueden potenciar el abuso; ignorar más que «alimentar» a los trolls y otros provocadores; desconectar una conversación si el ciberacoso se convierte en grave; enfrentarnos a las personas que sabemos que se comportan de manera poco ética en la red; y, finalmente, no decir nada digitalmente que no dirías cara a cara. Este último punto es tal vez el más revelador de todos y el mejor resumen que podemos encontrar de la netiqueta: si deseamos formar parte de una cultura digital civilizada, tenemos que tratarla como trataríamos cualquier entorno civilizado y mantener los mismos criterios que gobiernan las interacciones decentes entre personas, las cuales, ya ocurran sus interacciones en un medio virtual o físico, siguen siendo igual de reales.
La idea en síntesis: una cultura virtual sana es una cultura ética
001-222 50 ideas digital.indd 51
22/02/2012 16:12:20
52
Hacia el presente digital
12 Blogging La idea de que cualquiera que quisiera hacerlo podía escribir un weblog, o blog, fue uno de los aspectos básicos del radicalismo de los primeros tiempos de Internet. La publicación de textos era algo que históricamente solo lograban una serie de escritores selectos, mientras que en los inicios de la web, crear una página web era una habilidad que solo poseían una minoría de usuarios. La cultura del blog cambió esta idea y puso en manos de todos los usuarios de la red una manera sencilla de publicar sus propias palabras e ideas online. Por primera vez en la historia, todo el mundo podía ser autor. La palabra weblog apareció por primera vez en 1997, seguida al cabo de dos años por su simplificado vocablo «blog». Sin embargo, las ideas detrás del blogging habían ido evolucionando junto con los inicios de Internet a lo largo de toda la década de 1990. Antes de 1990, la manera habitual de compartir ideas por el incipiente Internet era a través de grupos de noticias, que básicamente funcionaban como foros de discusión moderados; los miembros podían colgar comentarios e ideas, que luego serían compartidos con los otros miembros del grupo, previa aprobación. Pero a medida que la World Wide Web fue ganando usuarios, empezó a desarrollarse la idea de escribir diarios virtuales: la gente empezó a dedicar espacios en su página web para colgar contenidos que se actualizaban regularmente sobre lo que iba ocurriendo en su vida. Uno de estos autores de diarios pioneros fue un estudiante del Swarthmore College de Pennsylvania, Justin Hall, que creó una página web llamada «Justin’s Links from the Underground» en 1994 y empezó a dedicar cada vez más espacio de ella a contar a sus visitantes lo que le ocurría en la vida. Las páginas web personales que se actualizaban con regularidad al estilo de un diario resultaban muy atractivas tanto para los lectores como para los escritores, y se hicieron cada vez más populares hacia finales de la década de 1990, un desarrollo reflejado en la aparición
Cronología 1994
1997
1999
Aparece el primer diario virtual
Primer uso de la palabra weblog
Fundación de LiveJournal
001-222 50 ideas digital.indd 52
22/02/2012 16:12:20
Blogging
«
53
de las primeras herramientas específicas para Un blog es, en el blogging. En octubre de 1998 se lanzó el ser- muchos sentidos, vicio Open Diary, que permitía a los usuarios una conversación mantener un blog sin necesidad de tener una continua. página web. Poco después de su aparición, Open Diary introdujo una de las posibilida- Andrew Sullivan des que se convertiría en parte esencial de la cultura del blogging: los lectores podrían colgar comentarios en respuesta a cualquier entrada del blog, lo que permitía que cualquier conversación se desarrollara públicamente en respuesta a los textos de alguien, y posibilitaba a los redactores de blogs que vieran por primera vez el tipo de reacción que generaban sus textos.
»
Nuevos papeles El desarrollo del blogging como una herra mienta abierta y accesible fue impulsada por el lanzamiento de servicios como el LiveJournal en marzo de 1999 y el blogger.com en agosto del mismo año. A medida que el blogging se fue imponiendo en la consciencia popular, empezaron a aparecer géneros diferenciados aparte del simple formato de diario. Los blogs políticos fueron algunos de los primeros que obtuvieron una amplia difusión, y 2000 y 2001
El poder de los blogs En los últimos cinco años, algunos blogs han adquirido un perfil y una influencia del nivel de los mayores periódicos y presentadores de noticias, por no mencionar que han adoptado muchos de los rasgos de los medios periodísticos profesionales. El blog más leído del mundo, la página política progresista The Huffington Post, tiene hoy una plantilla de unas sesenta personas, con cuatro versiones regionales en Estados Unidos. Engadget, el blog de tecnología más importante del mundo, opera en nueve idiomas distintos en el mundo y es probablemente el medio periodístico consagrado a la tecnología más influyente del mundo, seguido de cerca por la red TechCrunch. Mientras, el blog TMZ de cotilleos periodísticos y sobre personajes famosos ha destapado algunas de las noticias más importantes de los últimos años, como el arresto de Mel Gibson y la muerte de Michael Jackson.
2003
2005
Google adquiere blogger.com
Fundación de The Huffington Post
001-222 50 ideas digital.indd 53
22/02/2012 16:12:20
54
Hacia el presente digital
«
Mientras Internet es accesibilidad de información, blogging es hacer que la creación de información sea accesible a todo el mundo.
»
George Siemens, 2002
vieron la fundación entre otros del blog de Andrew Sullivan, antiguo editor de The New Republic, The Daily Dish, y del blog del profesor de Derecho Glenn Reynolds, Instapundit. A diferencia de la prensa escrita, «el blogging en directo permitía el comentario político instantáneo de los eventos clave, mientras que la propia estructura de los blogs animaba a pasar a un nivel de comentario, cita, debate y referencia políticos integrados ahora en el material virtual compartido por los bloggers. Pronto proliferaron blogs de tipo cultural, de cotilleo, tecnología o temas concretos, y a menudo se vieron capaces de superar a los medios tradicionales en cuanto a velocidad, franqueza y atención de especialista en los detalles. Los blogs adquirieron influencia a la vez que crecía el número de usuarios, un proceso catalizado por las estructuras y convenciones de la Web 2.0 de comentar, etiquetar y compartir entradas y blog rolls: el hábito de incluir en el blog propio un listado de los blogs favoritos. En 2004, «blog» fue seleccionada como palabra del año por el diccionario Merriam-Webster. A esas alturas, el blogging ya se consideraba como algo que se acercaba a un medio por sí solo, que iba desde aquellos que lo utilizaban simplemente como diario, o como estrategia de marketing, hasta los que lo trataban como una forma seria de arte o comentario. Tal vez también resultara inevitable que el arte de colgar comentarios inflamatorios en los blogs —trolling— se hubiera establecido firmemente como un arte digital paralelo. A mediados de la primera década de 2000 ya se estaban creando comunidades apasionadas alrededor de blogs populares —o incluso que creaban blogs comunitarios, como en el caso de la página de noticias tecnológicas Slashdot, cuyas historias se presentan y son votadas por los lectores—, mientras que el blogging se convertía cada vez más en una vía para que las figuras políticas y culturales se comunicaran directamente con su público. El autor británico Neil Gaiman empezó un blog en 2001, y obtuvo una plétora de seguidores; el parlamentario británico Tom Watson empezó uno en 2003, siendo una de las primeras figuras de la política británica en hacerlo.
001-222 50 ideas digital.indd 54
22/02/2012 16:12:20
Blogging
55
Microblogging El sitio más famoso de microblogging, Twitter, ofrece una imagen nítida del concepto: en vez de colgar entradas detalladas en forma de diario virtual, el microblogging invita a los usuarios a colgar actualizaciones extremadamente breves (140 caracteres es la extensión máxima en el caso de Twitter) de su estatus que se publican al instante, formando una cadena de palabras y enlaces en tiempo real. Teniendo en cuenta la madurez del blogging como medio, hay comentaristas que consideran el microblogging la imagen de su futuro: se integra perfectamente en las redes sociales, es adecuado para períodos muy breves de atención y para los dispositivos móviles, y ofrece una inmediatez que puede hacer quedar el blogging diario como un medio lento.
Algo más que palabras A medida que el contenido de la red se ha ido enriqueciendo, los blogs también se han ido alejando del modelo basado solamente en las palabras. El arte y la fotografía son hoy día temas habituales, como lo son los blogs que aprovechan el espacio esencialmente sin límites ofrecido por la publicación online para hablar de un tema especializado con profusión de detalles a través de la palabra, la imagen, el sonido y el vídeo. Las grandes reseñas de productos en los blogs modernos de tecnología incorporan a menudo todos estos medios y pueden llegar a miles de palabras... y a miles de comentarios. El audioblogging —en forma de archivos audio descargables, conocidos a menudo como podcasts— es otra manera de llegar a un público concreto: un arte importante, teniendo en cuenta que, solo en lengua inglesa, en todo el mundo hay actualmente más de cien millones de blogs activos. La influencia del blogging ha sido tan potente, de hecho, que puede que sea cada vez más complicado trazar una línea entre los blogs y la presencia virtual de los circuitos tradicionales de prensa: casi todos ellos cuentan hoy día no solo con blogs, sino con casi todas las innovaciones que los blogs han contribuido a popularizar, desde los comentarios hasta la difusión de actualizaciones.
La idea en síntesis: actualmente cualquiera puede ser autor
001-222 50 ideas digital.indd 55
22/02/2012 16:12:20
56
Hacia el presente digital
13 Agregación En una época en la que la información está cada vez más al alcance de todos en cantidades abrumadoras, filtrar y convertir en útil toda esa información es una tarea de vital importancia. Agregar significa simplemente agrupar en un solo lugar y, junto a la capacidad de buscar datos, se ha convertido en una de las ideas digitales más importantes de todas. También puede resultar controvertida, y hay quien dice que la facilidad de simplemente seleccionar, en vez de crear, la información virtual está ayudando a llevar al cierre a creadores de contenidos originales como los periódicos. La práctica de recopilar información es muy anterior a la cultura digital. Publicaciones como el Reader’s Digest se podrían considerar como una recopilación de ideas y contenidos escritos, mientras que la antigua tradición de publicar almanaques, misceláneas y anuarios demuestra la evidente utilidad de acumular información en un lugar. Como sucede tan a menudo, lo que la versión digital de la recopilación ha conllevado es un incremento exponencial en la complejidad y la escala de este proceso, junto con el potencial de su creciente automatización. Hay dos tipos fundamentales de agregación digital: la agregación a medida, tomada de fuentes de información elegidas por usuarios individuales, y la agregación centralizada, que los usuarios individuales no controlan, pero que es elegida ya sea por un usuario o varios en particular o por un proceso automatizado.
La agregación a medida Mucho antes de que existiera la web, los usuarios de Internet podían acceder a una forma muy primitiva de agregación en forma de servicios de «lectura de mensajes» como el GNUS —un programa muy sencillo desarrollado en 1988 que, además de consultar la cuenta de correo del usuario, podía también suscribirlo a grupos de noticias de su elección, lo que representaba que este recibía periódicamente actualizaciones de noticias en una carpeta separada de los correos entrantes.
Cronología 1988
1997
Introducción de GNUS
Aparece la página web del Drudge Report
001-222 50 ideas digital.indd 56
22/02/2012 16:12:20
Agregación
57
Servicios como el GNUS funcionaban más bien como una moderna lista de mailing: una vez te habías apuntado, ibas recibiendo mensajes hasta que te dabas de baja. Pero hacia el final de la primera década de la existencia de la web, las cosas habían empezado a parecer más complicadas, y los programas básicos de lectura de noticias empezaron a integrarse cada vez peor con muchos de los contenidos que se generaban online: los blogs y las páginas especializadas y de noticias que generaban información frecuente y compleja, incluyendo imágenes, enlaces, sonidos y nuevos niveles de metadatos que los clasificaban por tipos y temas. La respuesta clave a ello llegó en 1999 en forma de una especificación llamada RSS (por Really Simple Syndication), que se describe brevemente en el capítulo 10. El RSS podía coger el contenido de una página web y producir una página de códigos en formato XML, junto con un título, una descripción y un enlace al contenido original. Esta codificación XML ahora podía incluirse y mostrarse en una página web separada, para la que se acuñó el término «agregador». Los usuarios creaban una cuenta gratuita en una página de agregación, y luego —a medida que la popularidad de la especificación RSS fue despegando— se suscribían para recibir regularmente una carpeta de actualizaciones de contenidos de los blogs, las noticias y otros sitios de su elección. En 2003, los agregadores de tipo RSS eran un fenómeno mayoritario y formaban parte de la van-
Controversias en las noticias En abril de 2010, el magnate de la prensa Rupert Murdoch lanzó un ataque insultante contra los buscadores y otros medios que ofrecían servicios de agregación de noticias, acusándolos de «apoderarse de noticias a cambio de nada» y de pinchar gratis una «mina de oro» virtual. Unos meses más tarde, unas cuantas de las publicaciones del grupo de Murdoch levantaron «muros de pago» (paywalls) alrededor de sus páginas web, impidiendo cualquier tipo de búsqueda, lectura o uso de su contenido virtual si no se era suscriptor. La estrategia de Murdoch puede haberse demostrado o no un éxito comercial, pero sus preocupaciones reflejan las de muchos en el sector tradicional de la producción de noticias, que temen que la facilidad de la recopilación virtual y el atractivo de las páginas y servicios más populares de agregación signifiquen que el contenido original, que resulta muy caro de generar, se reutilice fuera de su contexto original, mermando así la posibilidad de sus creadores de recoger su beneficio o crédito.
2003
2006
2010
Lanzamiento del NewsGator
Fundación del BuzzFeed
Rupert Murdoch introduce muros de pago en sus periódicos
001-222 50 ideas digital.indd 57
22/02/2012 16:12:20
58
Hacia el presente digital
Tendencias sociales La idea de la «dirección digital» —donde individuos o equipos editoriales aplican su criterio de selección de enlaces diarios— ha adquirido nueva fuerza gracias al ascenso de los medios sociales, y en especial gracias a Facebook y Twitter, que han facilitado muchísimo la actividad de seguir las recomendaciones de un individuo. Pero las redes sociales también han suplantado muchas de las funciones que los servicios de agregación a medida hacían antes, ayudando a los usuarios de Internet a seguir el rastro de todo lo que les interesaba en la
red. Actualmente, hablar de agregación es más probable que describa una forma de recopilación de datos automática o de servicio de análisis que esa forma antigua de lectura de las entradas de blogs. Sin embargo, están apareciendo más herramientas de agregación, mes a mes, para ayudar a los usuarios de redes sociales a gestionar estos servicios: desde las listas de elementos más retuiteados hasta los enlaces más compartidos, los trending topics o, simplemente, un resumen de lo que todos los demás han comentado sobre ti.
guardia de la Web 2.0. En agosto de ese año, un artículo aparecido en la revista Wired anunció que «ciudadanos obsesivamente conectados a la web» estaban empezando a decantarse por «una nueva generación de software, llamada newsreaders (“lectores de noticias”) o agregadores, que los ayudaba a gestionar la sobredosis de información». Los primeros servicios de agregación RSS más populares eran el NewsGator y el SharpReader, ambos aparecidos en 2003. Hoy, la capacidad de mostrar entradas tanto en el formato RSS como en el de su máximo rival, Atom, están integrada como elemento corriente en la mayoría de navegadores y clientes de e-mail. El moderno mercado de agregación se ha consolidado mucho, dominado por el servicio Google Reader —lanzado inicialmente en 2005— y con Bloglines en segundo lugar.
Páginas web de agregación No todos los usuarios de la web
habrán usado, o ni siquiera se habrán tropezado, con servicios personalizados de agregación. Sin embargo, hay mucha más gente que habrá experimentado las páginas web o servicios de agregación basados en la recopilación selectiva de contenidos para que los usuarios, sencillamente, los vean, en vez de elegirlos por ellos mismos. Una de las primeras páginas web que causó un impacto agregando noticias fue Drudge Report, que se originó en 1996 como servicio de no ticias del corazón, pero al año siguiente evolucionó a una página web en la que el editor de la newsletter, Matt Drudge, colgaría una selec-
001-222 50 ideas digital.indd 58
22/02/2012 16:12:20
Agregación
«
59
La sabiduría humana es la agregación de toda la experiencia humana, que constantemente acumula, selecciona y reorganiza su propio material. Joseph Storey
»
ción diaria de titulares y enlaces a elementos de todo el mundo que le habían llamado la atención. Otras numerosas páginas de agregación que han sido acogidas con éxito se basaron en la actualización regular de enlaces que reflejaban el gusto o criterio de un individuo o de un equipo editorial —desde populares núcleos culturales como Arts&Letters Daily, fundado por el filósofo Denis Dutton en 1998, hasta BuzzFeed, una página fundada en 2006 cuyo equipo de editores se especializa en captar el último grito en medios virales.
Automatización y expansión Las páginas de agregación con enlaces elegidos por editores especializados siguen siendo un servicio virtual popular. Pero, con diferencia, el mayor crecimiento en este terreno lo han experimentado los servicios automatizados y a través de redes sociales, basados en palabras clave, algoritmos y tendencias sociales.
El servicio de noticias de Google, por ejemplo, es un agregador que se basa enteramente en la búsqueda y el análisis automatizados de tendencias por miles de emisores de noticias en cualquier momento concreto. Los sitios de «noticias sociales» como Digg y reddit, en cambio, agregan enlaces que recopilan —y luego votan— los lectores. Otras páginas, conocidas como scrapers, buscan automáticamente tipos concretos de páginas web cientos o miles de veces al día, y cuelgan sus resultados en un lugar para que los lectores los comparen: es un servicio que ha llevado al crecimiento de cientos de páginas de scraping especializadas, dedicadas a cualquier tema, desde la comparación de precios de compra hasta el cálculo de probabilidades en las apuestas, las ofertas de viajes o los precios de los coches. Hasta existe la agregación de agregadores, como Popurls, una página que incluye los enlaces más populares de otros servicios de agregación principales.
La idea en síntesis: reunir un universo de información en un solo lugar
001-222 50 ideas digital.indd 59
22/02/2012 16:12:20
60
Hacia el presente digital
14 Chat La comunicación en tiempo real con otras personas puede parecer una de las funciones más evidentes de Internet —y una de las áreas en las que la tecnología tiene un papel menos importante que desempeñar a la hora de transformar una actividad tan fundamental—. Pero lo cierto es que las conversaciones virtuales han desarrollado una serie de importantes subculturas y, al mismo tiempo, han contribuido a la naturaleza del conjunto de la cultura digital. Antes de que ni tan siquiera existiera Internet, en la década de 1960, los usuarios de los primeros sistemas informáticos institucionales ya se mandaban mensajes en tiempo real. Tal vez el rasgo más notable de las conversaciones alojadas en tales aparatos es también el más obvio: el hecho de que, por primera vez en la historia, las conversaciones que tenían lugar en tiempo real se hacían por un canal escrito en vez de hacerse por voz. Las primeras formas de comunicación en tiempo real por ordenador tenían también sus límites. La charla empezó a incluirse en la década de 1970 como orden corriente en la serie de ordenadores (por Programmed Data Processor) —que en Por Internet, PDP aquel momento era el hardware informático de gama nadie sabe que media más utilizado en el mundo— pero solo para en realidad eres distintos usuarios conectados a una sola máquina, y un perro. sin diferenciar entre usuarios: los caracteres aparecían Peter Steiner, sencillamente a medida que se tecleaban, a una velocidad máxima de once por segundo, lo que significaba viñeta de cómic, 1993 que las frases solapadas se mezclaban en la pantalla.
«
»
Internet Relay Chat A medida que se iba desarrollando la orden
de «charla», empezó a incorporar usuarios en distintos aparatos, mientras que los primeros programas de chat como el ntalk o el ytalk permitían que las conversaciones incluyeran a más de dos personas. Sin embargo, fue en 1988 cuando llegaría uno de los programas llamado a definir la conversación virtual: se trataba del Internet Relay Chat, abre-
Cronología 1988
1996
1997
Invención del Internet Relay Chat
Lanzamiento del ICQ
Lanzamiento de la mensajería instantánea de AOL
001-222 50 ideas digital.indd 60
22/02/2012 16:12:21
Chat
61
Un mundo feliz... de palabras Las limitaciones y posibilidades que tienen las conversaciones entabladas por ordenador —junto a las de los mensajes por SMS— han dado lugar a numerosos neologismos y convenciones, muchos de ellos acrónimos para ahorrar tiempo y espacio: desde el infame LOL para reírse (del inglés laughing out loud) hasta el funcional BRB (por be right back) y el astutamente críptico DAMHIKIJKOK (por don’t ask me how I know, I just know, ok?). También parte del vocabulario online son erratas
tipográficas que han adoptado estatus de palabra por derecho propio, como el pwn por own (que quiere significar ganar un juego o una discusión) y formulaciones que empezaron en la década de 1980 como manera deliberada de evitar la censura, pero desde entonces han adquirido vida propia: desde «n00b» para significar «novato» o persona sin experiencia, hasta el «l33t» para designar a alguien de la «élite» que realmente sabe qué demonios está pasando y se está diciendo.
viado como IRC. Estaba basado en el modelo servidor/cliente, lo que significaba que cualquiera que quisiera usarlo tenía que instalar un cliente IRC en su ordenador y luego utilizarlo para conectarse con un servidor IRC en Internet. Más que trabajar sobre la base de las conversaciones individuales, el IRC trabajaba principalmente con la idea de «canales». Cada canal en un servidor tendería a centrarse en un tema concreto; conectar tu cliente IRC a un servidor significaba elegir sumarse a un canal concreto, en cuyo caso podrías mirar y participar en un chat en vivo con todas las personas conectadas a aquel canal concreto. El IRC también permitía ponerse aparte para «susurros» entre dos personas, pero fue su estructura basada en el canal, combinada con la apertura del protocolo —gracias al cual miles de personas por todo el mundo podían independientemente instalar servidores con canales alojados— lo que lo convirtió en una de las primeras demostraciones del poder de Internet más potentes y populares. Antes incluso de que existiera la World Wide Web, miles de personas de todo el planeta ya hablaban por espacios virtuales comunes y compartían sus conocimientos. Los canales IRC ofrecieron una de las pri-
2004
2005
2009
AOL introduce el videochat
Lanzamiento de Google Talk
Chatroulette llega al mundo virtual
001-222 50 ideas digital.indd 61
22/02/2012 16:12:21
62
Hacia el presente digital
Jugar al Chatroulette Una de las evoluciones más recientes del chat virtual es la página de base rusa Chatroulette. Introducida en 2009 y funcionando enteramente desde dentro de un servidor de red, conecta a usuarios de manera arbitraria entre ellos, usa una webcam (suponiendo que la gente tiene webcam y permite al sitio acceder a ella) para establecer una videoconferencia en vivo entre dos personas en cualquier momento. Los usuarios pueden desconectarse del chat y «volver a la rueda» en cualquier momento, para encontrarse en otra conversación al azar. Desde unos pocos cientos de usuarios los primeros meses, la página pasó a más de un millón al año de su lanzamiento y —a pesar de toda la controversia desatada por algunas de las travesuras menos graciosas de los que se conectaban— demostró de nuevo la capacidad que tiene Internet de alimentar el interés más fundamental de los seres humanos: el de conocer y comunicarse con otras personas.
meras visiones que muchos ciudadanos estadounidenses tuvieron, por ejemplo, de la vida en la Rusia comunista. Incluso hoy, el IRC sigue siendo popular en todo el mundo, con su propia red de páginas, buscador, molestos robots y usuarios infectados, convenciones y comunidades.
Mensajería instantánea A diferencia del IRC, los sistemas de mensajería instantánea se basan en la comunicación privada, normalmente entre dos personas o entre un grupo reducido de personas invitadas. Como en el correo electrónico, se tiende a actuar sobre una base de listas personales de amigos y contactos, funcionando de fondo tras otros servicios del ordenador e informando al usuario a medida que sus amigos se conectan a la red y están disponibles para conversar.
Los primerísimos sistemas de mensajería en tiempo real de la década de 1960 y 1970 se podrían considerar como una forma de mensajería instantánea; pero fue después del lanzamiento de la web, a mediados de 1990, cuando estos sistemas empezaron a convertirse en una forma dominante de comunicación virtual, gracias a la introducción de una serie de sistemas atractivos y fáciles de usar que ofrecían una visión más accesible de la charla online que el mundo comparativamente más austero y basado en el texto del IRC. El primer servicio de mensajería instantánea que se extendió por Internet se lanzó en 1996. Llamado ICQ (pronunciado I seek You, como «te busco»), se distribuyó gratuitamente por la red y, además del chat, ofrecía servicios como el envío de archivos, la mensajería de texto a teléfonos móviles, juegos y directorio de usuarios. A ICQ le siguió en 1997 el programa Instant Messenger de AOL —conocido como AIM—, y fue ese programa de AOL el que decantó la mensajería instantánea como servicio del mercado de masas. Había empezado un boom, y a AIM le siguió rápidamente, en 1998, el servicio de mensajería de Yahoo! Y, en 1999, el de Microsoft.
001-222 50 ideas digital.indd 62
22/02/2012 16:12:21
Chat
63
«
Hablar en todos los demás sitios Con la Internet: creciente popularidad de los servicios de mensaje- transformando la ría durante la segunda mitad de la década de 1990, sociedad y dando la posibilidad de chatear por la red se empezó a forma al futuro a esperar cada vez más en otros contextos. Los video juegos fueron posiblemente la ubicación más sig- través del chat. nificativa y culturalmente rica, y fueron una de las Dave Barry primeras tecnologías informáticas que permitieron a la gente interactuar en tiempo real por la red... ya en la década de 1980 en el caso de los mundos virtuales basados en el texto.
»
A finales de la década de 1990, el chat en los juegos era una actividad floreciente por derecho propio, y muchos jugadores tenían sus IRC u otros servicios de chat dedicados paralelamente al juego con el fin de mantener el control de las conversaciones. Las «salas de chat» dedicadas a temas o asuntos concretos también proliferaban por la red, a veces añadiendo gráficos que añadían un contexto físico a las interacciones, aunque cada vez se veían más desplazados por el crecimiento de mundos virtuales hechos y derechos, y juegos con múltiples jugadores, con miles o hasta millones de jugadores hasta la primera década del siglo xxi.
Audio y vídeo Con la potencia cada vez mayor de los ordenado-
res y la banda ancha de las conexiones a Internet, resultaba inevitable que la mensajería instantánea acabara incorporando servicios de audio y vídeo. AOL introdujo el videochat a su servicio de mensajería en 2004; Microsoft hizo lo mismo en 2005, y a esas alturas tanto el vídeo como el audio ya se estaban convirtiendo en expectativas corrientes de todos los servicios de chat, junto con su integración en el e-mail y en otros servicios virtuales. Actualmente, el chat en vivo se considera un servicio básico dentro de cualquier canal, desde los servicios de redes sociales hasta las herramientas de gestión de proyectos y los editores de documentación virtual, mientras que la videoconferencia está fácilmente disponible ya sea a través de servicios de mensajería o por aplicaciones específicas como Skype. Pero la mayoría de comunicaciones online siguen siendo escritas... y sigue llevando la marca singular de la historia del chat virtual.
La idea en síntesis: un nuevo medio exige nuevas maneras de hablar
001-222 50 ideas digital.indd 63
22/02/2012 16:12:21
64
Hacia el presente digital
15 Compartir archivos
La práctica de compartir archivos entre los usuarios de Internet llegó de manera más visible a la atención pública a finales de la década de 1990 y a principios de la de 2000, con la extendida adopción de los programas para compartir música..., algo que precipitó cambios profundos en toda una industria. Pero compartir archivos entre usuarios de Internet es una práctica más antigua y extendida que todo esto, y constituye una de las maneras más fundamentales en que la información digital se comparte y distribuye, además de representar un desafío continuo para modelos más antiguos de distribución, copyright y propiedad. Los usuarios de informática han compartido archivos desde que existen cosas como los ordenadores y los archivos... y hace el mismo tiempo que los productores de programas o medios en particular intentan impedir que se distribuyan copias de sus obras por parte de una cultura de la infracción, la distribución y la burla de las formas digitales del copyright y la protección. Pero a medida que la World Wide Web iba ganando usuarios durante la década de 1990, el número de personas en todo el mundo con conexión a Internet, la velocidad de estas conexiones y la potencia de los ordenadores crecían también gradualmente. A medida que millones de personas en el planeta empezaban a almacenar un número creciente de archivos en formato digital en sus ordenadores, una masa crítica de archivos y capacidad informática se fue acumulando poco a poco, y el resultado fue la irrupción de programas diseñados específicamente para ayudar a las personas a compartir directamente sus archivos desde cualquier lugar del mundo.
Peer-to-peer Estos programas se conocieron como peer-to-peer por-
que en vez de posibilitar que todos los usuarios pudieran acceder al contenido desde una sola ubicación central, les permitían localizar a
Cronología 1998
1999
EE.UU. aprueba la Digital Millennium Copyright Act
Fundación de Napster
001-222 50 ideas digital.indd 64
22/02/2012 16:12:21
Compartir archivos
65
otro usuario o usuarios que tuvieran el archivo que buscaban y conectar directamente con ellos. Tal vez el servicio peer-to-peer más famoso de estos principios fue el lanzado en junio de 1999 por un estudiante de Boston. Llamado Napster, funcionó hasta julio de 2001, cuando fue clausurado por una orden judicial, por culpa de la cantidad inmensa de infracciones del copyright que había facilitado entre usuarios. En su momento álgido, Napster había permitido compartir 80 millones de archivos a 25 millones de usuarios. Actualmente la marca funciona como servicio legal de descarga de música. ¿Cómo funcionaba exactamente el software sobre el que se sostenía Napster? Primero, el programa de Napster tenía que descargarse e instalarse en un ordenador. Abriendo el programa conectabas tu ordenador a un servidor central de Napster que contenía un listado central de todos los otros ordenadores con el Napster encendido y que estaban conectados a Internet en aquel momento. Había que escribir los detalles de la canción que se buscaba y el servidor Napster aportaba los detalles de cualquier otro usuario de Napster cuyo ordenador tenía esa canción en particular. Una vez seleccionado el archivo deseado, Napster podía entonces establecer una conexión directa entre tu ordenador y el ordenador que contenía ese archivo, para que pudieras proceder a su descarga.
Descargas no deseadas Uno de los principales peligros de participar en la puesta en común de archivos peer-to-peer es el riesgo de que haya archivos y programas adjuntos a descargas y servicios aparentemente inocentes. Además de las dificultades generales de garantizar la legitimidad de los archivos descargados a través de servicios peer-to-peer no oficiales, algunos servicios populares de compartición de archivos han sido históricamente acusados de instalar spyware («programa espía») en los ordenadores
de sus usuarios, con el fin de obtener datos personales. Otro sistema parecido, Kazaa, instalaba una serie de herramientas en los ordenadores de los usuarios que rastreaban los hábitos de navegación de estos y les mostraba tipos de publicidad adaptados. Fundado en 2001, Kazaa fue cerrado en 2006 como servicio para compartir archivos, después de acceder a pagar unos 100 millones de dólares en daños y perjuicios a la industria discográfica, y actualmente funciona como servicio de música legal.
2001
2003
2010
Creación de BitTorrent
Fundación de Pirate Bay
El Reino Unido aprueba la Digital Economy Act
001-222 50 ideas digital.indd 65
22/02/2012 16:12:21
66
Hacia el presente digital
«
Compartir ilegalmente archivos de música destruye el ciclo de creación musical y tiene el potencial de perjudicar la producción cultural en todo el mundo. Osamu Sato
»
Como parte del proceso, Napster también indexaba todos los archivos de música de tu ordenador dentro de un directorio especial para compartir música, y luego permitía a otros usuarios conectarse contigo y descargarlos cuando estabas conectado a Internet. Debido a este uso de servidores de búsqueda central, Napster no era un servicio puro de peerto-peer... pero su éxito ilustraba el poder de tales redes, y sentó un precedente para otros servicios similares dedicados a compartir todo tipo de archivos: desde música y vídeo hasta aplicaciones y juegos.
BitTorrent Creado en 2001, BitTorrent es un protocolo de código
abierto para compartir archivos que ha tenido un efecto todavía más profundo en la cultura digital que otros sistemas anteriores como el Napster, gracias a su potencia y flexibilidad. Mientras Napster requería de sus usuarios el uso de archivos MP3, varias formas de BitTorrent son actualmente el sistema preferido para compartir casi todos los archivos grandes por la red, desde películas hasta paquetes de software, y hoy en día pueden representar hasta un cuarto de todo el tráfico por Internet. Al igual que Napster, BitTorrent requiere que inicialmente el usuario se descargue un software de cliente en su ordenador. Luego ha de encontrar online un enlace al archivo que se quiere descargar. En vez de un servidor central que lo conecta a otro usuario individual de Internet que tiene una copia del archivo deseado, se descarga un pequeño archivo «torrente» que contiene información detallada sobre muchos ordenadores distintos conectados a Internet que tienen cada uno una copia del archivo real que el usuario necesita. Esto permite al usuario descargarse distintas partes del archivo grande que estaba buscando de varios ordenadores distintos al mismo tiempo —algo que hace el proceso de descarga mucho más rápido y sólido que la simple copia del archivo de otro ordenador, y que además pone mucha menos presión en las redes que conectan a los usuarios entre ellos.
El grupo de ordenadores del que se descarga el archivo se conoce colectivamente como swarm («enjambre»), y mientras trozos del archivo se están descargando del enjambre, también pueden ser simultáneamente cargados a otros usuarios de otros sitios. Para animar a compartir, alguien que utiliza BitTorrent a menudo y aporta gran cantidad de cargas para otros usuarios tenderá a tener prioridad frente a otros usua-
001-222 50 ideas digital.indd 66
22/02/2012 16:12:21
Compartir archivos
67
Aspectos legales Compartir archivos entre amigos puede ser una actividad legítima, pero supone a menudo una violación del copyright, según sea la naturaleza del servicio utilizado, los propios archivos y los países entre los que tiene lugar la compartición. Un problema es quién es legalmente responsable de las infracciones de copyright cuando se comparte un archivo: los individuos que comparten o el servicio que se lo permite. Eso puede a su vez depender de si el servicio dispone de un índice centralizado de archivos disponibles a través del cual conecta a las personas, o si se trata de un sistema
descentralizado. En Europa, por ejemplo, los individuos que comparten material con copyright por la red se arriesgan a perder el acceso a Internet. Sin embargo, identificar a los usuarios de Internet por su actividad en la red puede resultar a la vez difícil y controvertido. En Estados Unidos, en los últimos años se han lanzado miles de acusaciones contra individuos sospechosos de haber estado implicados en una compartición de archivos que constituía una infracción del copyright... pero todavía no se ha definido una postura legal vinculante al más alto nivel.
rios. La página más famosa tal vez de todas las basadas en BitTorrent, The Pirate Bay, fue fundada en Suecia en 2003.
Compartir en el futuro Compartir archivos a través de mecanismos como BitTorrent es casi imposible de evitar, ya que es un sistema descentralizado, sencillo y extremamente popular. Tal vez la manera más efectiva de vencerlo es crear métodos legales de distribución online de productos que ofrezcan un nivel similar de facilidad, pero que cobren una pequeña cantidad a cambio de su garantía de fiabilidad, legalidad, calidad e integración con otros servicios. Hay también multitud de usos totalmente legales y oficiales de tecnologías potentes para compartir archivos, y BitTorrent en particular, para distribuir programas y actualizaciones online: sus usuarios destacados van desde el Gobierno británico hasta Facebook, Twitter y Blizzard Entertainment —el editor de World of Warcraft—, para quienes esta forma de distribución es una manera potente de reducir la carga de las redes y los servidores.
La idea en síntesis: compartir está siempre al alcance con un clic
001-222 50 ideas digital.indd 67
22/02/2012 16:12:21
68
Hacia el presente digital
16 Medios en streaming
Compartir y descargar archivos es una excelente manera de distribuir contenidos digitalmente. Pero aun con las capacidades en rápida expansión de ordenadores y dispositivos móviles, es algo que supone un tiempo y un espacio considerables. Y aquí es donde entra el streaming: la posibilidad de escuchar o mirar medios online sin tener que esperar que se descargue todo el archivo. Los servicios de streaming permiten de manera efectiva una forma potente y flexible de emisión a través de Internet, y que además ofrece a los proveedores y emisores de contenidos una magnífica alternativa a la compartición de archivos. La música fue el primer medio en demostrar el potencial de los servicios de streaming, gracias al tamaño relativamente pequeño de los archivos de música, en comparación con los contenidos de otros medios, y a la expansión del formato compacto musical en MP3 desde 1993. En el caso de la música, uno de los primeros servicios usados para el streaming de archivos se llamaba RealPlayer. Introducido en 1995, permitía descargar una versión básica del mismo gratuitamente; una vez instalado en el ordenador del usuario, su integración con los navegadores web significaba que este podía transmitir la música de cualquiera que ofreciera un servicio compatible con RealPlayer. Todos los servicios de streaming son básicamente parecidos. El usuario selecciona un enlace en su navegador: en vez de iniciar la descarga de un archivo de medios completo, el navegador conecta con un servidor de red y descarga lo que se conoce como metarchivo. Este pequeño metarchivo contiene instrucciones para que el navegador lance el servicio de reproducción de medios requerido para reproducir el archivo, además de la información sobre la ubicación virtual del archivo que se va a transmitir.
Cronología 1995
2005
2007
Lanzamiento de RealPlayer
Lanzamiento de YouTube
Lanzamiento completo de iPlayer de la BBC
001-222 50 ideas digital.indd 68
22/02/2012 16:12:21
Medios en streaming
69
Una vez que el navegador ha dado la ubicación del archivo que se va a transmitir, empieza el proceso de buffering —mandar paquetes de datos a almacenar en cierta cantidad de memoria apartada para recibir contenidos de medios—. Eso lleva un poco de tiempo, dependiendo de la velocidad de la conexión a Internet, pero asegura que la reproducción no será constantemente interrumpida por la necesidad de descargar datos: ha sido buffered («almacenado temporalmente») para que esto no ocurra mediante la descarga anticipada del archivo. Las formas más utilizadas de medios en streaming del Internet moderno vienen de páginas de vídeos como YouTube, que ofrecen una vía potente y rápida de integrar los medios al uso de la red. Los clips de YouTube se pueden ver en la propia página principal o se pueden insertar en otros sitios, lo que significa que el contenido en vídeo se puede integrar en un blog u otra página web y visionarse desde allí, sin tener que entrar a YouTube.
El futuro de la televisión El vídeo en streaming ocupa mucho más ancho de banda que los archivos en audio, lo que significa que hace
Juegos en streaming Introducido en 2010 en Estados Unidos, Onlive propone transmitir no solo sonidos e imágenes a sus usuarios de Internet, sino videojuegos interactivos completos. El servicio —basado en una serie de potentes centros de datos y tecnología de compresión avanzada— ha apartado los límites de lo que muchos comentaristas creían posible en términos de tecnología streaming. Además de ser gráficamente muy complejos, los juegos requieren cientos de interacciones por minuto entre los jugadores y el entorno virtual. Lograrlo a través de Internet —con un juego que está en marcha no en el salón del usuario, sino en el
ordenador de un centro de datos que está a cientos de kilómetros de su casa— demuestra lo que puede ser un nivel superior de sofisticación de la noción de streaming remoto, que remplazaría lo que consiste en la posesión y el funcionamiento real de una copia de un programa en tu propio ordenador. Como con las películas de cine, tales servicios de juegos «a la carta» pueden finalmente permitir a los usuarios elegir entre decenas de miles de títulos a través de una suscripción mensual... aunque las exigencias técnicas de mantener un servicio de alta calidad siguen siendo considerables.
2008
2012
Lanzamiento de Spotify
Previsto el lanzamiento de YouView en el Reino Unido
001-222 50 ideas digital.indd 69
22/02/2012 16:12:21
70
Hacia el presente digital
Grabar medios en streaming Hay muchos programas que permiten a los usuarios grabar medios en streaming a través de un simple proceso de grabación, lo cual convierte de hecho el streaming en un proceso de descarga, aparte de ser un proceso de emisión. Debido a las implicaciones de copyright y a la pérdida de control (y, por tanto, de las ganancias potenciales que supone el visionado y la publicidad) que representa, la mayoría de páginas de streaming dedican esfuerzos considerables a intentar bloquear los programas de grabación. Esta
protección suele conllevar técnicas de gestión de derechos digitales, como la codificación del stream de medios, o los métodos para ocultar la ubicación desde la que se origina un stream. Sin embargo es extremamente difícil evitar que alguien decidido a grabar medios en streaming haga una copia de lo que aparece en su ordenador a través de técnicas como los programas de captación de pantalla, que sencillamente graban todo lo que ocurre de un momento a otro en la pantalla de un ordenador.
relativamente poco que se ha convertido en una posibilidad extendida: para la televisión ordinaria se requiere una conexión de banda ancha, y para el contenido en HD (alta definición) se requiere una conexión extremamente rápida. Sin embargo, a medida que estas conexiones se van normalizando, casi todas las formas convencionales de televisión están avanzando hacia Internet y los servicios de streaming. Tal vez el ejemplo más famoso de televisión transmitida a través de Internet es el iPlayer de la BBC, cuya primera versión completa fue presentada en 2007, que permite a los usuarios visionar contenidos en audio y vídeo para «ponerse al día» con las emisiones recientes. Actualmente, el iPlayer gestiona más de cien millones de peticiones de programas al mes, y su éxito ha ayudado a sacar a la luz muchos de los potenciales problemas que rodean a los medios de streaming por Internet como modelo de distribución. La misma popularidad del iPlayer ha provocado las críticas de algunos ISP, debido a la cantidad de banda ancha que ocupa. Debido a que la BBC está financiada por una tasa de licencia pagada únicamente por los ciudadanos británicos, su contenido solo está disponible para los usuarios de Internet que tienen una dirección IP dentro de Gran Bretaña. Sin embargo, no es necesario haber pagado una licencia de televisión para visionar el contenido de iPlayer dentro del Reino Unido. Los derechos son también un tema complicado: muchos programas solo están disponibles dentro de un período limitado posterior a su emisión, y algunos no lo están nunca, con el fin de cumplir con las normas del copyright. En 2011 se introdujo una versión internacional de pago del iPlayer, y también de un ser-
001-222 50 ideas digital.indd 70
22/02/2012 16:12:22
Medios en streaming
71
vicio de televisión multicanal por Internet en el Reino Unido que se conocerá como YouView.
La muerte de la programación Además
«
Estamos
de los medios por streaming de «ponerse al día», la viviendo en un mayoría de televisiones principales ofrecen cada momento en que vez más streaming virtual en directo, que utiliza la atención es la efectivamente Internet como plataforma de eminueva moneda. sión paralela a la televisión tradicional, aunque puede ser solo accesible como parte de un paquete Pete Cashmore, 2009 de suscripción a un canal o como evento aislado pay-per-view. Este giro hacia las emisiones basadas en Internet se ha acelerado rápidamente en años recientes con la introducción de programas de vídeo-streaming no solo en los ordenadores, sino también en consolas de juegos y otros dispositivos, movidos por la expectativa de que los consumidores esperan cada vez más poder acceder a cualquier forma de medios a través de Internet... y poder elegir exactamente lo que ven y cuándo, en vez de tener que conformarse con el modelo de televisión programada en un canal particular.
»
La creciente personalización de las emisiones es aplicable no solo a la televisión, sino a un deseo general de personalizar las experiencias mediáticas. Los servicios de streaming de música como Spotify, por ejemplo, plantean un desafío hasta para tiendas de música virtuales tan populares como iTunes, porque ofrecen a los usuarios la posibilidad de no comprar nunca música y poder pagar sencillamente una suscripción mensual a cambio de la posibilidad de acceder a música de una selección de más de diez millones de grabaciones. Esta transición desde la compra de medios como la música y el vídeo hasta sencillamente suscribirse a un servicio de streaming bien surtido marca parte del cambio potencialmente enorme que se está dando en la concepción de la propiedad de los medios: con el ancho de banda y la selección suficiente, mucha gente puede ver poca necesidad de poseer físicamente una copia de cualquier grabación de música o vídeo si estos pueden sintonizarse en casa. La otra cara de la moneda es, por supuesto, bastante obvia: que usar estos medios depende de tener una conexión fiable a Internet y de la capacidad de la empresa que hay al otro lado de ofrecer servicio a todos sus usuarios.
La idea en síntesis: Internet se está convirtiendo en el emisor universal
001-222 50 ideas digital.indd 71
22/02/2012 16:12:22
72
Hacia el presente digital
17 Aplicaciones completas de Internet
Ofrecer un contenido virtual completo —animación, sonido, vídeo, interactividad— es una de las tareas esenciales de los modernos creadores de programas. A medida que una cantidad creciente de toda la actividad digital ocurre a través de Internet y aumenta la demanda de aplicaciones virtuales online complejas, la batalla por ofrecer más y controlar el software a través del cual se presentan los enriquecidos contenidos del futuro se ha vuelto más encarnizada. Estamos en plena carrera por ver quién consigue aportar más innovación. El cambio que ha supuesto la presentación de contenidos virtuales enriquecidos, en vez de limitarnos a usar Internet para el correo y las comunicaciones o la web para transmitir información enlazada, ha sido una parte fundamental de la transición a la Web 2.0. En concreto, hay toda una serie de tareas —como el procesado de textos, las agendas electrónicas o las hojas de cálculo— que antes requerían que el usuario instalara paquetes de programas en su ordenador y ahora se pueden llevar a cabo sencillamente a través de un navegador usando servicios online específicos. ¿Qué aspecto tiene un ejemplo de contenido virtual «enriquecido»? Por un lado, hay servicios como el Gmail o los sistemas de Documentos y Agenda virtual de Google, que ofrecen la mayoría de cosas que hace diez años significaban pagar un programa de escritorio bastante caro: el procesado de textos, agendas detalladas vinculadas a calendarios dinámicos y archivos completos de correo electrónico, y la capacidad de cargar y convertir documentos y archivos de datos en toda una serie de formatos distintos. Como respuesta, la serie de aplicaciones de Microsoft Office ofrece desde 2010 una serie de Office Web Apps, en reconocimiento del creciente giro de muchos usuarios de informática hacia la complexión
Cronología 1996
2005
Lanzamiento de AdobeFlash
Se acuña el término AJAX
001-222 50 ideas digital.indd 72
22/02/2012 16:12:22
Aplicaciones completas de Internet
73
de tareas a través de Internet que antes requerían la compra por separado de programas específicos: la serie permite a los usuarios ver y editar documentos gratuitamente, directamente desde un navegador de red. Al otro extremo del espectro encontramos el ocio virtual. Ofrecer vídeo y música a la carta dentro de una página web sofisticada e interactiva —un mercado cada vez más importante para todos los emisores— es típico de los contenidos completos modernos. Sin embargo, los productos más sofisticados de todos en este espacio son los juegos, que exigen una interacción al momento con los jugadores y pueden ocupar una memoria y unos requerimientos gráficos y de procesador extraordinariamente altos en comparación con la mayoría del resto de actividades virtuales. En la década de 1990, casi todos los juegos de ordenador sofisticados tenía que funcionar con un programa comprado individualmente. Pero la creciente capacidad de ofrecer este contenido online ha provocado una explosión en la oferta de juegos complejos a través de los navegadores: desde los emuladores de los clásicos juegos y rompecabezas de mesa hasta las florecientes comunidades independientes de creadores, que ofrecen títulos de calidad comparable a los que ofrecían los juegos de consolas especializadas de una década atrás.
Falta de soportes A principios de 2011, ni Flash, ni Silverlight, ni Java podían utilizarse en los aparatos que funcionaban con el sistema operativo iOS de Apple: los iPods, los iPhones y los iPads. Las preocupaciones por el rendimiento podían haber sido un factor de esta decisión, pero hay críticos que opinan que había otro factor en juego: el control. Las plataformas web dirigidas de forma independiente permiten potencialmente a los creadores saltarse el alto nivel de control que Apple ejerce sobre los medios y las aplicaciones utilizados en sus aparatos, puesto que permitirían
que terceras partes hicieran que tales materiales fueran disponibles a través de la web. Teniendo en cuenta la creciente importancia de las aplicaciones web, probablemente no sea más que cuestión de tiempo antes de que casi todas las experiencias de navegación sean compatibles con todas las principales plataformas... a menos que uno o dos claros ganadores aparezcan para dominar el territorio y reclamar las ganancias. Cuando hablamos de contenidos enriquecidos, la preocupación más crucial de todas tal vez sea el control.
2007
2008
Lanzamiento del Silverlight de Microsoft
Lanzamiento de la primera prueba del HTML5
001-222 50 ideas digital.indd 73
22/02/2012 16:12:22
74
Hacia el presente digital
Mundos tridimensionales Mientras que Flash, Silverlight y Java son las plataformas dominantes para desarrollar aplicaciones de Internet enriquecidas, hay otras más especializadas que tienen potentes usos especiales. Un ejemplo reciente es el Unity Web Placer, diseñado para los juegos online. Una vez descargado, permite la interpretación de mundos tridimensionales en los cuales nos podemos sumergir a través de los navegadores de red... algo que hasta hace relativamente poco era solo posible dentro de juegos adquiridos individualmente (y diseñados elaboradamente). Herramientas como Unity muestran lo importantes que
son ahora los navegadores de red para la experiencia digital en los ordenadores, y cómo los servicios ofrecidos a través de ellos son cada vez más capaces de funcionar no solo como servicios interactivos enriquecidos, sino como entornos interactivos cuidadosamente elaborados. Además, herramientas como el Unity ponen la capacidad de diseñar tales entornos al alcance del presupuesto y los conocimientos de un número creciente de personas, a medida que la producción de software y contenido digital continúa pasando de actividad minoritaria a algo más accesible a casi todos los usuarios.
Plataformas populares Una de las primeras decisiones que un creador de la web ha de tomar cuando quiere crear contenidos «enriquecidos» para que se usen online es con qué software quiere que funcionen. ¿Funcionará dentro de las capacidades existentes de un navegador web, o pedirá a los usuarios que antes se instalen un marco externo de software que puede funcionar como un plug-in del navegador? Instalar este software en el disco duro del ordenador puede darle acceso a una serie de opciones y funciones más allá de las capacidades de un navegador; pero también hay el riesgo de una falta de compatibilidad con los sistemas que no pueden usarlo, o plataformas que no permitirán a un usuario descargarse e instalar software adicional. Tres plataformas descargables que dominan abrumadoramente el mercado global para la creación de RIA (por Rich Internet Applications) son el Flash de Adobe, el Silverlight de Microsoft, y el Java de Oracle Corp. Una vez descargada la última versión de cada una de ellas —algo que ya se ha hecho en muchos ordenadores recién adquiridos—, el contenido virtual que utiliza sus capacidades puede sencillamente reproducirse sin necesidad de más instalaciones. Flash es la más extendida de todas estas plataformas, y se incluye como estándar en la mayoría de ordenadores modernos de reciente adquisición. Especialmente popular para la ejecución de juegos virtuales, gracias a su relativa facilidad de uso y a su buena adaptabilidad a las animaciones y a la interacción, Flash se introdujo por primera vez en 1996 como una manera de añadir animación a los contenidos
001-222 50 ideas digital.indd 74
22/02/2012 16:12:22
Aplicaciones completas de Internet
«
75
Mientras que el origen de la red surgió alrededor de documentos estáticos, se está convirtiendo claramente en una plataforma para las aplicaciones completas y sociales. Louis Gray
»
virtuales, como la publicidad, y desde entonces ha crecido hasta convertirse en una potente plataforma multimedia. El Silverlight de Microsoft, aparecido por primera vez en 2007, se propuso cuestionar el dominio de Flash, ofreciendo servicios similares como Flash, trabajando como propietario en vez de hacerlo desde una base de código abierto, algo sobre lo que algunos defensores de la web abierta y libre han expresado preocupación. Java, en cambio, fue lanzado como lenguaje de programación en 1995 y está disponible bajo una licencia de programa gratuito, aunque la plataforma JavaFX, introducida en 2010 específicamente para al creación de RIA, todavía no ha sido sacada con licencia pública.
HTML5 y AJAX Hay también otras maneras de generar contenidos online enriquecidos e interactivos sin tener que «conectar» plataformas como Java, Silverlight o Flash al navegador. La más popular de ellas es AJAX, por Asynchronous JavaScript, y XML, un término que describe un grupo de tecnologías que permiten colectivamente el desarrollo de contenidos web enriquecidos basados en funcionalidades estándar integradas en las capacidades de casi todos los navegadores modernos, y que se basan en criterios totalmente abiertos más que en involucrar a programas con propietario. Sitios como Gmail o Google Maps están hechos mediante AJAX. Hay otro código abierto que parece inclinado a ofrecer una herramienta tentadora para muchos diseñadores de la red: el HTML5, la versión más nueva del HyperText Markup Language que sostiene la World Wide Web. El HTML5 está todavía en fase de borrador, con las especificaciones finales todavía por determinar, pero va mucho más lejos respecto de cualquier versión anterior de HTML en permitir a los creadores generar contenidos sofisticados, interactivos y multimedia dentro de los buscadores sin tener que apoyarse en plug-ins externos.
La idea en síntesis: las aplicaciones de la web están definiendo el futuro del software
001-222 50 ideas digital.indd 75
22/02/2012 16:12:22
76
Hacia el presente digital
18 Sin cables Las primeras fases de la cultura digital actuaban a través del desarrollo de una infraestructura física que sigue constituyendo la base del moderno Internet: una inmensa red global de cables que conectan naciones y continentes. Pero actualmente, una segunda fase de conexiones sin cables está demostrando de nuevo su poder de transformación y permite que partes enteras del mundo, además de muchos tipos de dispositivos nuevos, se incorporen a Internet y nos trasladen de una cultura de máquinas de sobremesa físicamente interconectadas a otra llena de abundantes y omnipresentes aparatos en red. La forma más común de conexión a Internet sin cables se conoce como Wi-Fi, un término que abarca un grupo de tecnologías, muchas de ellas basadas en una serie de estándares técnicos llamados 802.11. El término Wi-Fi en sí mismo es una marca registrada que se utilizó por primera vez en 1999. Hay multitud de aparatos —incluidos los ordenadores portátiles y de sobremesa, los smartphones, los tablets, las consolas de juegos y los reproductores media— que actualmente se venden con conexión Wi-Fi, lo que significa que contienen una tarjeta de red sin cables. La clave para el uso del Wi-Fi no está tanto en tener un aparato con Wi-Fi, sino en conectarse a una red. Esto significa conectarse a un punto de acceso sin cables —también llamada router— que hace de puente entre los aparatos Wi-Fi e Internet. Un router también está conectado, normalmente de forma física, a Internet, y luego usa un transmisor y receptor de radio para permitir a los aparatos Wi-Fi a su alcance (normalmente dentro de un radio de 30 m en el interior) localizarlo y comunicarse con la red. Dependiendo del nivel de sofisticación del router, muchos aparatos Wi-Fi distintos pueden conectarse a la misma red sin cables y obtener acceso a Internet a través de la misma... o simplemente acceder a otros aparatos de la misma red.
Cronología 1994
1996
Creación del Bluetooth
Primer acceso comercial a Internet a través de teléfono móvil
001-222 50 ideas digital.indd 76
22/02/2012 16:12:22
Sin cables
77
Además de los routers caseros y de oficina, los puntos públicos de Wi-Fi son cada día más habituales, ofreciendo a las personas con aparatos activados con Wi-Fi el acceso a Internet cuando se encuentran en la zona de influencia. Hay redes que pueden requerir el pago previo, a través de un sistema de conexión, o que pueden ser ofrecidas a través de un proveedor de telefonía móvil como parte de un servicio de suscripción. Hay muchos espacios públicos que tienen Wi-Fi abierto y gratuito.
Vulnerabilidad Las redes sin cables son potencialmente vulnerables al hacking o al uso malintencionado, en especial si son redes abiertas —es decir, que el nombre de la red es revelado abiertamente por un router y cualquier aparato puede conectarse a ella—. Se puede ofrecer un nivel superior de seguridad requiriendo un código para ac-
La potencia del Bluetooth Bautizado con el nombre de un rey escandinavo del siglo xii que unificó varias tribus guerreras bajo su cetro, el Bluetooth es hoy una tecnología abierta de red sin cables —creada en 1994 por la compañía sueca Ericsson— que se utiliza para crear redes seguras entre aparatos en onda corta. La mayoría de teléfonos, portátiles y ordenadores de sobremesa vendidos hoy tienen Bluetooth, como lo tienen cada vez más coches, GPS y otros aparatos que el usuario puede desear conectar sin cables cuando están cerca. Cada aparato tiene un perfil Bluetooth codificado en su disco duro que contiene información sobre para qué se
utiliza; cuando otro aparato Bluetooth entra en su radio de influencia, observan mutuamente sus perfiles para determinar si son compatibles. Si lo son, se establece una piconet —una red capaz de conectar hasta ocho aparatos en activo—. Las piconets pueden enlazarse con otras piconets, y los aparatos pueden pertenecer a más de una, convirtiendo el Bluetooth en una manera fácil y potente de transmitir información o de combinar las funciones de los aparatos personales: hacer llamadas telefónicas por el sistema estéreo del coche, por ejemplo, mientras se escucha música del iPod por el mismo sistema.
1999 Primera utilización del término Wi-Fi
001-222 50 ideas digital.indd 77
22/02/2012 16:12:22
78
Hacia el presente digital
Bienvenidos a WiMAX Abreviación de Worldwide Interoperatibility for Microwave Access, el WiMAX es un sistema parecido al Wi-Fi pero sin sus limitaciones de ámbito, puesto que sus antenas pueden emitir por ciudades y pueblos enteros. Aunque todavía no está muy desplegado en comparación con otros servicios, puede que acabe siendo una de las tecnologías sin cables más potentes de la futura historia de Internet, puesto que tiene el potencial de cubrir fácilmente grandes zonas habitadas con redes sin cables de alta
velocidad. Los aparatos individuales pueden conectarse directamente a redes WiMAX si tienen instalado el hardware adecuado. Otra posibilidad cada vez más utilizada, sin embargo, es el uso de emisiones WiMAX para conectar con unidades de suscripción WiMAX dentro de los hogares o las oficinas. Estas unidades de suscripción funcionan entonces como routers, ofreciendo redes locales de Wi-Fi a todos los aparatos de una casa o un despacho.
ceder a la red, o haciéndola invisible a aquellos que no conocen todavía su nombre y detalles.
Acceso móvil Todavía más importante globalmente que el WiFi es el acceso a Internet a través de los teléfonos móviles, algo que ha tenido un rápido efecto transformador en muchas partes del mundo, como África y Asia, donde la infraestructura física de telecomunicaciones es irregular y demasiado cara de construir en muchos lugares, pero donde el acceso móvil a través de mástiles de telefonía podría desplegarse rápidamente para ofrecer cobertura en casi cualquier parte del país. Para millones de habitantes del mundo en vías de desarrollo, esto significa que su primera experiencia de Internet no llega a través del ordenador o de una conexión por cable, sino a través del teléfono móvil. Por las redes globales de telefonía móvil existen multitud de criterios y formatos de datos. El acceso a Internet se ofreció por primera vez comercialmente a través de los teléfonos móviles en 1996 en Finlandia, mientras que la navegación completa por Internet a través de aparatos móviles no apareció hasta 1999 en Japón, vía el servicio de telefonía móvil i-mode. Los estándares de móvil son generacionales, y van desde los móviles de primera generación o G1, hasta la ahora muy utilizada tercera generación, o 3G, que permite una velocidad de transmisión de datos por Internet relativamente rápida, de al menos 200 kbits/segundo, comparada con las velocidades moderadas de
001-222 50 ideas digital.indd 78
22/02/2012 16:12:23
Sin cables
79
«
En los próximos años, más de mil millones de personas que no han dispuesto nunca de un mecanismo de comunicación para hablar con el exterior de su pueblo tendrán un teléfono móvil.
»
Erich Schmidt, 2010 la banda ancha por cable. Los estándares de móvil de cuarta generación incluirán un acceso a Internet mucho más seguro y rápido, y ya hay varios proveedores de teléfonos móviles que ofrecen servicios «pre-4G» que operan de forma mucho más rápida y potente que el 3G normal. Sin embargo, en muchas partes del mundo siguen operando básicamente en varias redes 2G, que ofrecen una transmisión de datos limitada. Cientos de millones de personas acceden hoy a Internet a través de teléfonos móviles, pero tanto la variedad como las limitaciones de los aparatos y de las redes están hechas para una experiencia más fragmentada que la World Wide Web conectada. Mientras que los modernos usuarios de smartphones y redes rápidas pueden navegar por la red con casi la misma libertad con que podrían hacerlo con un PC, los teléfonos más antiguos y las redes más lentas limitan severamente el uso de Internet, como lo hacen también las incompatibilidades entre sistemas operativos diseñados por distintos fabricantes. El iOS de Apple y el Android de Google son los dos sistemas operativos dominantes para los smartphones; pero estos siguen siendo todavía utilizados por una minoría de los usuarios globales de Internet móvil.
La idea en síntesis: estés dónde estés puedes conectarte a la red
001-222 50 ideas digital.indd 79
22/02/2012 16:12:23
80
Hacia el presente digital
19 Los smartphones Un smartphone integra las funciones de un teléfono con funciones informáticas más avanzadas y, en particular, la capacidad de acceder a los servicios de Internet, desde el e-mail básico hasta la navegación total. Los smartphones solo constituyen una quinta parte de las ventas de los teléfonos móviles modernos, pero es un sector que está transformando gradualmente la manera en que millones de personas se relacionan y acceden a los recursos digitales, desde el correo electrónico y la World Wide Web hasta los programas de medios, ocio y productividad, los servicios comerciales y el mundo de los negocios. El término «smartphone» lo utilizó por primera vez la empresa sueca Ericsson en 1997 para describir un dispositivo que, en realidad, no llegó a salir el mercado: el Communicator GS88, parte del proyecto Penélope de la empresa. Parte fundamental del aspecto smart de este aparato no era tanto su disco duro —que en aquel momento era muy potente— como su software: una versión prototipo del primer sistema operativo específico para aparatos móviles para ofrecer cualquier cosa que se acercara a la potencia y flexibilidad de un ordenador. El sistema operativo se llamaba Symbian y había sido desarrollado en colaboración con Psion, Nokia y Motorola, y el primer teléfono móvil comercializado que incorporaba el sistema Symbian apareció en el mercado en 2000: el R380 de Ericsson. Los servicios basados en Internet como el e-mail ya eran accesibles en otros teléfonos, pero su funcionalidad como aparatos informáticos móviles había sido muy limitada. El aparato de Ericsson no se paralizó por los problemas que hasta entonces habían mermado todos los esfuerzos de crear un software serio para teléfonos móviles (potencia informática inadecuada), sino por encima de todo, por la ausencia de funciones multitarea, de memoria y de codificación que eran necesarias si se quería crear aplicaciones potentes. El propio R380 tenía un software fijo —otras empresas no podían desarrollar aplicaciones para el mismo—, pero en 2002, un acuerdo
Cronología 1997
2001
2002
Presentación del primer smartphone
Primera red 3G
Primer software de terceros para smartphones
001-222 50 ideas digital.indd 80
22/02/2012 16:12:23
Los smartphones
81
de colaboración entre dos gigantes de la electrónica, Sony Ericsson, rectificó con la introducción de una ampliación del sistema operativo Symbian que permitía por primera vez que terceras partes pudieran crear aplicaciones para el mismo.
La demanda de datos 2002 también fue el año en que las mejoras a la serie Blackberry de buscas (pagers) sin cable anunciaron su llegada como competidor en el espacio smartphone. A esas alturas, con los teléfonos y el software volviéndose cada vez más sofisticados, la demanda para transferir datos a través de las redes de telefonía móvil era cada vez más intensa, y la llamada segunda generación de redes móviles (2G) empezó a dar paso a la tercera (3G), que disponía ya de una enorme capacidad de transferir datos. La primera red de móviles 3G totalmente operativa fue lanzada por Japón a finales de 2001, seguida por Corea del Sur al año siguiente.
La fuerza transformadora de las aplicaciones Durante casi toda la primera década de su existencia, los smartphones carecieron de algo que el mercado general de los ordenadores había dado por sentado durante mucho tiempo: un mercado vigoroso de software. La proliferación de aparatos distintos y, por encima de todo, la extrema dificultad de vender a los propietarios de smartphones y convencerlos de que gastaran dinero en software adicional comportó la escasez de productos de alta calidad. Pero el mercado del iPhone de Apple y del Android de Google transformó totalmente este panorama. Por primera vez, los creadores
independientes podían esperar beneficiarse de la creación de programas de alta calidad y de venderlos directamente a los propietarios de aparatos smartphone, como había sido práctica habitual durante décadas entre los propietarios de ordenadores. Además, la distribución digital ofrecía una economía de escala instantánea: el potencial de llegar a cada usuario de smartphone sin pasar por minoristas ajenos a Apple o Google. Casi de la noche a la mañana, la «economía de la aplicación» se convirtió en una de las zonas más dinámicas del mundo para hacer negocios.
2007
2008
Lanzamiento del iPhone
Lanzamiento de los teléfonos Android
001-222 50 ideas digital.indd 81
22/02/2012 16:12:23
82
Hacia el presente digital
«
La aplicación es el nuevo single a 99 centavos; para los chicos, es la nueva moneda.
»
Tim Westergren
A medida que estas redes de mayor capacidad empezaron a extenderse por el mundo, las posibilidades de los smartphones se fueron ampliando —desde los sofisticados software e interfaces preinstalados hasta los genuinos servicios de red, mercados de software y contenido de Internet más complejo que las simples palabras, correo electrónico e imágenes estáticas.
Llega el iPhone El punto de inflexión fue 2007, cuando el CEO de Apple, Steve Jobs, puso fin a años de especulación anunciando el nuevo producto de su empresa: una integración del enormemente popular iPod (lanzado en 2001) con un teléfono móvil y una nueva especie de aparato con navegador de Internet, completado con una versión móvil totalmente funcional del programa de navegación de red del ordenador de sobremesa Apple. Transcurrió un año hasta que nada comparable al iPhone llegara al mercado... un año durante el cual las percepciones de lo que significaba el iPhone cambiaron radicalmente. El iPhone combinaba una pantalla grande de gran calidad adecuada para visualizar vídeos con una experiencia de navegación comparable con la que ofrecían los ordenadores «apropiados». Desde julio de 2008, también ofrecía acceso al primer mercado digital realmente popular de software para smartphones: la App Store, que llegaría a ver diez mil millones de descargas en enero de 2011, de entre una selección de más de 400.000 aplicaciones distintas. El primer rival verdadero del iPhone llegó en 2008 con el lanzamiento del primer smartphone basado en el nuevo sistema operativo móvil de Google, el Android: el HTC Dream, también conocido como G1. Este sería el primero de muchos aparatos que funcionaban con el sistema operativo de código abierto de Google: ya a principios de 2011 había disponibles más de 50 smartphones con sistema Android, además de un mercado digital Android parecido al de la Apple App Store con más de 200.000 aplicaciones disponibles.
Poder informático de bolsillo Actualmente los smartphones siguen aumentando regularmente de potencia, igual que las redes de datos que los abastecen empiezan a hacer la transición hacia una cuarta generación de acceso de alta velocidad. Aunque los smartphones todavía no significan la mayoría de ventas de teléfonos móviles ni lo harán durante muchos años, la presencia de tal capacidad informática en cientos de millones de bolsillos en todo el mundo ya está causando un efecto profundo en la cultura digital. Concretamente, los smartphones se han alimentado de una enorme y creciente demanda de red social, de juegos y trabajo en movimiento,
001-222 50 ideas digital.indd 82
22/02/2012 16:12:23
Los smartphones
83
Test de rendimiento A medida que los smartphones van haciéndose más avanzados, la carrera por añadir y mejorar características ha rozado, algunas veces, la parodia. Con la creciente estandarización de la incorporación de cámaras, vídeo de alta resolución, sensibilidad al movimiento, pantallas multitáctiles, acceso a Internet y GPS, hay algunos campos a los que ya no les queda espacio para mejorar. El iPhone 4 de Apple, introducido en junio de 2010, alardea de un «efecto retina» —que muestra 300 píxeles por pulgada en pantalla, lo que se dice iguala
al ojo humano en definición desde una distancia media de visión—. Mientras, el teléfono N8 de Nokia, aparecido en septiembre de 2010, ofrece una cámara capaz de tomar imágenes de 12 megapíxeles, unas seis veces el nivel de detalle de un televisor en HD. Todos estos medios requieren energía, claro..., uno de los motivos por los que la duración de la batería, que sigue luchando por durar más de 24 horas seguidas en cualquier smartphone, es casi la única cifra asociada a los móviles que ha bajado a lo largo de la última década.
además de las aplicaciones capaces de basar su servicio en saber exactamente dónde están los usuarios, gracias al GPS integrado en la mayoría de dispositivos. El consumo de medios a través de los smartphones es cada vez más sencillo y universal, pero también ha alimentado la aparición de una cultura de las «dos pantallas», en la que la experiencia de mirar un evento emitido o en directo se intensifica con el uso paralelo del smartphone de poder comentar a través de los medios sociales, compartir enlaces y reacciones con los amigos, y seguir la corriente global de respuestas a la acción en tiempo real. Como han observado algunas encuestas de hábitos mediáticos, un smartphone es a menudo el primer objeto que toca un propietario moderno cuando se despierta por la mañana, y lo último que utilizan antes de acostarse: una intimidad con la tecnología digital y un nivel de integración en la cotidianidad tanto laboral como de ocio que hace décadas costaba imaginar.
La idea en síntesis: poder informático para todos, en cualquier lugar
001-222 50 ideas digital.indd 83
22/02/2012 16:12:23
84
El lado oscuro
20 Malware El malware, una contracción del concepto malicious software, significa exactamente lo que su nombre sugiere: software que hace más mal que bien. Es también un campo enorme y siempre en expansión que ha ido de la mano del crecimiento del uso de la informática y de Internet. Desde los virus hasta los caballos troyanos, y desde los gusanos hasta el robo de datos, la ecología del software malicioso es exactamente tan variada e ingeniosa como el resto del universo online. El malware se define por la intención maliciosa —y a veces delictiva— por parte de su creador, normalmente de uno o dos objetivos generales: obtener información de los usuarios incautos, o piratear ordenadores para poderlos utilizar encubiertamente para extender más malware o efectuar otras actividades ilícitas.
«
A medida que la actividad por Internet ha ido creciendo, las posibilidades del software maligno han crecido enormemente. Al mismo tiempo, la línea entre tipos legítimos e ilegítimos de software se ha difuminado cada vez más por el deseo de muchas empresas que facilitan un servicio online para sacar la máxima virus ineficiente información de sus clientes.
Un mata a su anfitrión. Un virus inteligente se instala en él.
En particular, el campo de los spyware —programas diseñados para grabar y transmitir información sobre hábitos de Internet y usos informáticos— ha prolifeJames Lovelock rado como parte integrante de algunos programas de uso muy común. Paralelamente está el crecimiento del software «basura», que no es tanto activamente malicioso como innecesario, y que puede venir furtivamente entremezclado con otros programas en un esfuerzo por guiar a alguien hacia páginas web o servicios concretos.
»
Virus y gusanos El más famoso y tal vez más antiguo tipo de
malware es un virus informático. Los virus son programas ocultos que
Cronología 1971
1986
Primer programa autorreplicador, Creeper
Primer programa de caballos troyanos, PC-Write
001-222 50 ideas digital.indd 84
22/02/2012 16:12:23
Malware
85
se autorreproducen, y sus primeros ejemplos se configuraron más como diversión o como experimentos de los programadores que con fines realmente maliciosos. Antes de que la conexión a Internet fuera un hecho habitual, tales virus se expendían en buena parte a través de archivos infectados o disquetes. Hacia la década de 1980, la infección a través de los primeros enlaces de Internet y del e-mail empezaron a ser más habituales, junto a las oportunidades de aprovechar el uso del virus como herramienta. Como su propio nombre sugiere, un auténtico virus informático «infecta» archivos determinados, y estos archivos han de ser entonces activados por un usuario para que el virus entregue su «carga»: es decir, las acciones ocultas determinadas por su creador. Eso puede ir desde borrar archivos cruciales de un disco duro hasta la más sutil instalación de programas ocultos que permiten que un ordenador sea controlado remotamente, o las acciones de su usuario monitorizadas.
El gran gusano El primer y más famoso gusano de Internet de la historia fue creado en noviembre de 1988 por un estudiante de la universidad de Cornell (EE.UU.), Robert Morris, de quien recibe su nombre. Era un elemento de software autorreplicante que explotaba las vulnerabilidades conocidas en las órdenes de e-mail del sistema operativo de los ordenadores conectados al Internet de los inicios, y Morris declaró que se trataba de un proyecto inocente para intentar medir el tamaño de Internet. Por desgracia, la decisión de introducir una posibilidad entre siete de autorreplicación cada vez que se encontraba con un ordenador en red significó que se reproducía a una velocidad enorme, y luego seguía cargando la limitada
banda ancha entre ordenadores en red, infectando las mismas máquinas muchas veces. Los cálculos del momento sugerían que infectó alrededor de un 10 por 100 de todas las máquinas conectadas entonces a Internet —unas 6.000 de un total de 60.000— y que provocó más de 10 millones de dólares de daños en reparaciones, mano de obra y tiempo perdido. Morris, actualmente profesor de informática en el MIT, fue la primera persona en ser declarada culpable según la Ley estadounidense de 1986 de Fraudes y Abusos Informáticos, mientras que su gusano motivaba la fundación del primer Equipo de Respuesta a las Emergencias Informáticas del mundo para tratar con casos parecidos.
1988
2004
Primer gusano de Internet, Morris Worm
El gusano Mydoom enlentece brevemente Internet en un 10 por 100
001-222 50 ideas digital.indd 85
22/02/2012 16:12:23
86
El lado oscuro A diferencia de un virus, un «gusano» (worm) es un programa malicioso capaz de extenderse activamente por una red, sin necesidad de que alguien lo active inadvertidamente. Mientras que los virus acostumbran a apuntar a archivos de un ordenador concreto, la capacidad autorreplicante de los gusanos significa que pueden provocar graves daños a las propias redes, consumiendo ancho de banda e impidiendo que el tráfico legítimo circule.
Caballos troyanos En la Eneida de Virgilio, los antiguos griegos consiguieron entrar en la antigua ciudad de Troya ocultos en un caballo de madera gigante presentado como regalo a los troyanos. Los elementos de software conocidos como troyanos se presentan igualmente como apetecibles, pero contienen una codificación oculta maliciosa. Los troyanos tienen una multitud de posibilidades, que van desde el ocultamiento de un virus o gusano diseñado para «piratear» el ordenador de un usuario, hasta imposiciones menos dañinas, como la instalación de la barra de herramientas de un patrocinador dentro de un navegador, o la introducción de publicidad durante la navegación. Uno de los softEl único sistema wares más maliciosos que un troyano puerealmente seguro es de instalar es un key logger («registrador de el que está apagado, teclas»), que graba y luego transmite a su metido dentro de un creador un archivo con todos y cada uno bloque de cemento y de los inputs tecleados en el ordenador.
«
sellado dentro de una sala con paredes de plomo y vigilada por guardas armados.
Los troyanos también pueden instalar elementos de adware y de spyware. Estos introducen publicidad y vínculos esponsorizados no deseados en los usuarios de un ordenador, y transmiten datos y detalles Gene Spafford potencialmente personales a terceras partes sin el consentimiento del usuario. Este tipo de malware ha sido tradicionalmente un problema tanto para compartir archivos entre plataformas de compartición como para las formas más dudosas de descarga de programas gratuitos de la red. Hay programas que ocupan lo que para algunos es una «zona gris» sobre su estatus como spyware, mandando datos a un servidor central sobre el historial de visionado de un usuario. Eso solo se hace con el consentimiento explícito del usuario, que diferencia claramente tales programas del malware «real».
»
Prevención La industria de la prevención del malware es un gran negocio moderno, pero el aspecto más importante de la prevención es sencillamente asegurarse de que el sistema operativo de un ordenador y sus programas están totalmente actualizados, puesto que los fabricantes sacan regularmente nuevas versiones de sus programas que eli-
001-222 50 ideas digital.indd 86
22/02/2012 16:12:23
Malware
87
Zombis a la venta Uno de los usos potencialmente más lucrativos de los virus o gusanos informáticos consiste en crear una red encubierta de ordenadores infectados, a veces conocidos como zombis. Colectivamente, una red de máquinas zombis se conoce como una botnet. Tales redes pueden consistir en miles de aparatos bajo el control encubierto de un controlador que luego es capaz de contratar la red: normalmente para mandar cantidades enormes de correo spam, para obtener datos o para lanzar ataques coordinados contra una página web determinada, a la que
enormes cantidades de aparatos zombis accederán repetidamente, provocando potencialmente su colapso debido al enorme incremento del tráfico. Es lo que se conoce como Denial-of-Service o DoS. Se cree que las mayores botnets del mundo contienen hasta 30 millones o más de máquinas infectadas, y que tienen la capacidad de mandar miles de millones de correos spam diarios o de colapsar cualquier página web, excepto las mayores y mejor protegidas. Tales servicios son una parte cada vez más valiosa del mercado negro de Internet.
minan las vulnerabilidades que se sabe que eran aprovechadas por el malware. El segundo aspecto de la prevención tiene que ver con el sentido común: no ejecutar ningún programa ni abrir mensajes que no provengan de fuentes conocidas. Más allá de esto, la mayoría de ordenadores modernos vienen ahora automáticamente equipados con algún tipo de firewall: un software que impide el acceso de red no autorizado al ordenador. Los programas anti-malware son también muy populares, con versiones gratuitas y de pago disponibles para descargarse e incorporadas a las máquinas nuevas. Las actualizaciones regulares de los mismos ayudan a identificar las últimas amenazas. Los sistemas operativos y navegadores más modernos vienen bien equipados con advertencias y comprobaciones de seguridad sobre actividades potencialmente peligrosas. Sin embargo, los ordenadores modernos están cada vez más amenazados no cuando utilizan programas de sus propios aparatos, sino cuando utilizan servicios de Internet, cuyas valiosas bases de datos y cuentas de usuarios son una rica tentación para el creciente ejército mundial de delincuentes digitales profesionales.
La idea en síntesis: toda tecnología digital tiene sus parásitos
001-222 50 ideas digital.indd 87
22/02/2012 16:12:23
88
El lado oscuro
21 Spam Crea algo y siempre habrá alguien por ahí que intente explotarlo. Crea algo de uso gratuito —como el correo electrónico y la red— y las oportunidades de explotación serán casi ilimitadas. El correo electrónico no solicitado lleva años siendo una parte desagradable de la vida digital y, sin embargo, los miles de millones de mensajes basura que se mandan cada día son solo la punta del iceberg de enlaces, páginas web, blogs y maniobras basura varias que juntas constituyen una de las amenazas más importantes que hay sobre el futuro del propio Internet. El spam salió por primera vez a la luz pública a principios de la década de 1990, cuando el e-mail e Internet empezaban a abrirse al público general. Como el coste de mandar un e-mail era efectivamente cero, era posible utilizar ordenadores automáticamente para mandar enormes cantidades de e-mails no solicitados a millones de direcciones, en un esfuerzo para lograr que los incautos lectores de los mismos visitaran una página web concreta o hicieran algo que pudiera lucrar al spammer. Este funcionamiento básico sigue activo hoy: enviar millones de mensajes electrónicos es barato y fácil; rastrear a las personas que lo hacen es difícil, y se precisa solo que un pequeño porcentaje responda a los mensajes para generar el suficiente rendimiento y hacer que el proceso valga al pena.
Origen de la palabra La palabra «spam» proviene de un sketch de la serie de TV inglesa Monty Python Flying Circus, de 1970, titulado «Spam»: en la escena aparecía una casa de comidas en la que prácticamente cada plato ofrecía el producto de carne envasada Spam (una marca inglesa de 1937, cuyo nombre responde a su vez a la abreviatura de Spiced Ham). El sketch, que terminaba con una canción sobre el Spam que acababa ahogando todas las otras palabras, llamó la atención del público, y la palabra empezó a ser utilizada en informática en la década de 1980 para describir a los usuarios antisociales de las primeras salas de chat que llenaban deliberadamente la pantalla con gran-
Cronología 1978
1994
2000
Primer mensaje de spam conocido
Primera irrupción del spam en el e-mail comercial
Acuñación del término SpaSMS para describir el spam por SMS
001-222 50 ideas digital.indd 88
22/02/2012 16:12:24
Spam
89
des cantidades de texto sin sentido (incluida la propia palabra «spam»), con el fin de ahogar las conversaciones de los otros usuarios. Eso llevó también a que algunos usuarios adoptaran la práctica de llamar ham a los e-mails deseados.
Páginas de spam El correo electrónico es el tipo de spam más
popular, pero la idea de generar automáticamente millones de mensajes engañosos para lucrarse está predeciblemente extendida en la cultura digital. Desde los servicios de mensajería instantánea hasta los mensajes de texto en los móviles, desde los foros de debate en Internet hasta los grupos de las redes sociales, el spam electrónico es universal. Los comentarios de spam son también un grave peligro en los blogs, y normalmente consisten en comentarios generados automáticamente que contienen enlaces a páginas de spammers, en un esfuerzo para generar tanto un mayor tráfico hacia esas páginas como para que aparezcan un mayor número de veces como resultado de las búsquedas.
El phishing y el scamming Un término acuñado en 1996, phishing, describe una táctica frecuente por la que los correos de spam y las páginas maliciosas intentan obtener detalles personales de usuarios incautos, que pueden ir desde los datos de conexión a la cuenta de e-mail y de la web, hasta los de la cuenta corriente o tarjeta de crédito. El scamming, en cambio, es el proceso más general por el que los spammers intentan sacar dinero de sus víctimas —una práctica asociada con los típicos trucos de scamming son los e-mails pidiendo al receptor que ayude a una supuesta tercera persona a sacar una gran suma de dinero de un país extranjero a cambio de una comisión—. Las triquiñuelas del phishing son más sofisticadas y conllevan la «pesca» de información
fingiendo ofrecer algún tipo de servicio o consulta legítimos que requiera información personal. Los mensajes pueden aparentar provenir de Hacienda, bancos, compañías de seguros y páginas web conocidas... y las técnicas de manipulación de los enlaces pueden hacer parecer que conectan con la página legal, en vez de hacerlo con una falsa. Además de las páginas falsas, también pueden usar números de teléfono, e incluso textos o mensajes instantáneos: un popular timo consistía en pedir a la gente que llamara a un número «gratuito» si querían indagar sobre un envío ficticio, algo que en realidad comportaba pasar una considerable cantidad de tiempo conectado a un número de teléfono extranjero pagando la tarifa más alta.
2003
2011
Primer spam de blog automatizado
Estimación anual de spams que se enviarán este año: cerca de siete billones
001-222 50 ideas digital.indd 89
22/02/2012 16:12:24
90
El lado oscuro
Hablando con robots Las cantidades invertidas en la producción y diseminación del spam significa que se trata de una actividad muy automatizada. Pero la automatización no se limita simplemente a mandar millones de e-mails idénticos. Se utilizan sofisticados spambots para actividades que van desde colarse en foros virtuales para hacerse con direcciones de e-mail, hasta colgar comentarios falsos y burlar la seguridad orientada a garantizar que solo los humanos pueden comentar o usar determinadas páginas. Hay spambots también usados para colarse en salas de chat, en canales IRC y en cualquier sitio en que la
gente pueda enfrascarse en una conversación virtual, agitando fórmulas simples para intentar que los usuarios cliquen en enlaces maliciosos o revelen detalles sobre ellos mismos. Un robot de chat puede, por ejemplo, fingir que es alguien que enlaza con material pornográfico, con una página que ofrece descuentos enormes, o sencillamente un sitio personal que suene interesante. Inevitablemente, estos robots también imitan servicios como Twitter o Facebook... aunque las rutinas de seguridad se actualizan a menudo y las cuentas de spam se borran, en un esfuerzo por minimizar las amenazas.
Tras todo esto está la práctica cada vez más común de generar automáticamente blogs o páginas web enteras que no tienen más objetivo que conducir el tráfico hacia sitios y productos de spammers. Un blog spam —a veces conocido simplemente como splog— suele consistir bien en texto que ha sido robado de otras páginas, o bien generado automáticamente, junto a un enorme número de enlaces a la propia página del spammer. Según algunos cálculos, hasta un 20 por 100 de blogs consisten en este tipo de spam, mientras que cada hora se crean alrededor de un millón de páginas web generadas automáticamente y llenas de contenido spam.
Colapsar la red La cantidad y la sofisticación creciente del
spam plantea graves problemas a Internet en cuanto al espacio y al ancho de banda que ocupa, además del daño que provoca a los resultados de las búsquedas y al tiempo que han de invertir los usuarios honestos de la red para gestionar la cantidad de spam que aparece en su correo electrónico y en sus propias páginas. Los filtros antispam son un gran negocio que se está desarrollando constantemente en paralelo con las técnicas de spam. Eso ha llevado a algunos a usar la web limitándose a solo páginas concretas, fiables, en vez de arriesgarse a la exploración abierta. El predominio del spam también ha llevado a una demanda de servicios como el buscador blekko, aparecido en 2010, y que permite a los usuarios buscar solo páginas que han sido etiquetadas activamente por otros
001-222 50 ideas digital.indd 90
22/02/2012 16:12:24
Spam
91
«
usuarios como fiables y útiles, en No hay nada en la vez de ir a páginas simplemente Constitución que nos localizadas por el buscador graobligue a escuchar cias a una palabra introducida o a mirar ninguna en él. Esta es también una de las ventajas de utilizar la red vía ins- comunicación no trumentos como las aplicacio- deseada, sea cual nes del teléfono móvil en vez de sea su mérito. simplemente buscando, porque Sentencia del Tribunal Supremo estas tienden a requerir la aprobación de las empresas, incluyen- de Estados Unidos do un elemento de control de calidad y criterio humano en el proceso.
»
El coste global del spam en el mundo es dificilísimo de determinar, pero puede estar en las decenas de miles de millones de dólares en pérdida de tiempo, desperdicio de espacio y de ancho de banda, y de gasto en los programas y artilugios necesarios para controlarlo. Actualmente, hasta las estimaciones más prudentes sugieren que el spam constituye más de tres cuartos de todos los e-mails mandados, y que las técnicas utilizadas por aquellos que los mandan se han ido sofisticando en respuesta a la creciente sofisticación de los usuarios. En vez de usar sus propios sistemas informáticos para mandar los mensajes, los spammers despliegan redes «zombis» de otros dispositivos que han pirateado de usuarios incautos mediante el uso de virus. La recogida automática de direcciones de e-mail de páginas web y agendas —y la posterior venta de bases de datos de direcciones— también se ha vuelto cada vez más habitual, así como las colaboraciones entre di ferentes tipos de spammers y entre gente especializada en distintos tipos de engaños digitales. Ha habido varios intentos por ilegalizar el spam y de castigar a las personas que lo ejercen, pero los spammers, sencillamente, trasladan su actividad de un país a otro para evitar la persecución.
La idea en síntesis: la comunicación sin costes comporta una creciente oleada de basura
001-222 50 ideas digital.indd 91
22/02/2012 16:12:24
92
El lado oscuro
22 Privacidad Internet es un nuevo tipo de espacio público: una red de sitios, servicios y recursos interconectados que contiene una cantidad de información valiosa y cada vez mayor tanto sobre el mundo como sobre las personas individuales. Inevitablemente, el problema de lo privado se ha convertido en uno de los debates más polémicos y complejos de la era digital. ¿A cuánta información de los demás hemos de ser capaces de acceder, o revelar de nosotros mismos, en la red? La privacidad se puede dividir a grandes trazos en dos campos. El primero, el de los asuntos que se supone que son totalmente privados y protegidos de cualquier intento externo de acceder a ellos, desde la banca virtual y las adquisiciones hasta el acceso a cuentas de e-mail o de redes sociales. El segundo, las zonas de privacidad relativa, en las que la cuestión sigue siendo no solo la seguridad básica de un sistema, sino también la información y las actividades que deben ser accesibles a terceros, y qué terceros deben ser. Esto abarca cualquier cosa, desde la información de un perfil en las redes sociales hasta la información online sobre el autor de un blog, sobre un colaborador de un foro, sobre el tema o el autor de un artículo o hasta, sencillamente, una actualización de estado en una red social.
Identificación virtual Para la mayoría de usuarios, el propio Internet no es un medio en el que la privacidad absoluta pueda estar garantizada. Hay varias maneras básicas en las que cualquier aparato informático conectado a Internet tiende a ser identificado. El más importante es la dirección de Protocolo de Internet, o dirección IP, que suele expresarse en forma de una cifra en cuatro partes separada por puntos y que ofrece una dirección numérica específica para cada ordenador de una red. Las direcciones IP, a menudo, pero no siempre, permiten determinar la localización de alguien que utiliza Internet, y son también importantes cuando una organización o un individuo desea impedir el acceso
Cronología 1998
2007
El Reino Unido aprueba La Ley de Protección de Datos
Lanzamiento del Google Street View
001-222 50 ideas digital.indd 92
22/02/2012 16:12:24
Privacidad
93
Filtraciones de datos Algunas de las brechas más controvertidas en la privacidad online de los últimos años han ocurrido gracias a vulnerabilidades en los sistemas con los que funcionan los servicios virtuales. Una de las más graves de los últimos tiempos fue el pirateo de la red de blogs Gawker, que a finales de 2010 reveló que un grupo de hackers había entrado en sus servidores y se había hecho con los detalles de 1,3 millones de cuentas de usuarios. Las contraseñas estaban codificadas, pero las contraseñas sencillas fueron vulnerables a un ataque de «fuerza bruta»... y muchos usuarios que
habían replicado los detalles de acceso por distintos servicios online se encontraron con que sus cuentas de Twitter se estaban usando para enviar spam después del hack. El hack de Gawker dio a entender la importancia de utilizar distintos códigos de acceso para los distintos servicios online, además de usar contraseñas complejas no fácilmente susceptibles a la descodificación por fuerza bruta o a la deducción basada en listas de contraseñas habituales. Las contraseñas hackeadas más habituales en el caso Gawker fueron: 123456, password, 12345678, qwerty, abc123 y 12345.
a o desde páginas en una lista negra. Los Proveedores de Servicios de Internet o ISP están en posición de controlar no solo la información general sobre la localización de sus usuarios, sino también las especificaciones de los datos enviados a o desde ordenadores concretos, algo que legalmente tienen totalmente prohibido hacer en circunstancias normales, pero que en circunstancias excepcionales se les puede pedir judicialmente que hagan. Por este motivo, hay personas que utilizan los «servicios de anonimato», destinados a ocultar los detalles de la actividad online de un ISP.
Conexiones seguras El único y más crucial componente de la privacidad virtual para la mayoría de transacciones importantes es la encriptación (también tratada en el capítulo 30 sobre e-comercio). Normalmente, una dirección web empieza con las letras http, que significa HyperText Transfer Protocol. Sin embargo, hay veces en que una dirección web empieza por las letras «https», lo que indica que el sitio utiliza
2009
«
El mero hecho de que algo sea públicamente accesible no significa que la gente quiera verlo hecho público.
Danah Boyd
»
2010
Se determina que Facebook abre una brecha en la ley La red de Gawker es pirateada de privacidad canadiense
001-222 50 ideas digital.indd 93
22/02/2012 16:12:24
94
El lado oscuro una conexión «segura», lo que a menudo también se indica con la presencia de un icono que representa un candado en la ventana del navegador. Clicar en este icono suele revelar los detalles acerca de la seguridad que una página web concreta utiliza. Para que una conexión sea genuinamente privada y segura han de cumplirse una serie de condiciones. La primera es que el propio navegador esté a pleno rendimiento y no comprometido por software malicioso. La segunda, la página segura que se visita ha de tener un «certificado» electrónico válido apoyado por una autoridad válida. Una vez entablada la conexión fiable, se pueden transferir los datos entre un usuario y una web en forma encriptada, lo que significa que solo puede leerlos el destinatario, gracias a un complejo algoritmo matemático que solo puede descodificarse con una clave concreta. Para que todo eso sea totalmente seguro, la encriptación ha de resultar imposible de descodificar para cualquiera que intercepte el tráfico en la red.
Cookies La encriptación y la certificación son la base de las interacciones virtuales más sensibles. Sin embargo, para la mayoría de actividad virtual corriente, las brechas más habituales de la privacidad se centran en las cookies —fragmentos de información que se almacenan automáticamente en el ordenador de un usuario de la red para permitir a las páginas web hacer cualquier cosa, desde recordar las preferencias de un usuario hasta ofrecer una interfaz compleja—. La mayoría de cookies son benignas y son parte esencial de la navegación, pero su naturaleza semiinvisible significa que algunas se pueden utilizar para controlar más sobre el comportamiento virtual de alguien de lo que el usuario es consciente. En concreto, las llamadas tracking cookies instaladas por terceros en algunas páginas web pueden permitir a los publicistas hacerse una imagen del historial virtual de alguien. Todos los navegadores modernos permiten a los usuarios aceptar o no las cookies en general, y las de terceros en concreto, aunque hay páginas que las necesitan para funcionar correctamente. Compartir información Aparte del hacking y del uso de software malicioso, de lejos, las mayores amenazas a la privacidad en el moderno Internet proceden de una consciencia insuficiente por parte de los usuarios y por compartir configuraciones en distintos servicios online, y de cómo hay información que puede recogerla y explotarla mucha gente, desde agencias de marketing hasta ladrones de identidades. Buena parte del problema es que las configuraciones por defecto de la privacidad en muchos sitios que animan a los usuarios a dar sus detalles personales pueden permitir más exposición de los datos de los que los usuarios están dispuestos a asumir. Revisar y cambiar estas configuraciones si es preciso debería ser una de las primeras co-
001-222 50 ideas digital.indd 94
22/02/2012 16:12:24
Privacidad
95
¿Qué sabe de ti la web? En enero de 2011, la edición británica de la revista Wired imprimió un número limitado de portadas «ultrapersonalizadas» como demostración de lo mucho que puede encontrarse sobre las personas en la red. Mandadas a una selección de lectores, las portadas se habían apoyado enteramente en fuentes virtuales abiertas, incluyendo el censo electoral, Companies House, el Registro de la Propiedad, datos públicos en las redes sociales y actualizaciones y materiales relacionados con amigos y familia, todos ellos interrelacionados.
Algunas de las portadas personalizadas incluían detalles como el número de móvil, el cumpleaños, la dirección, visionados recientes, compras recientes, detalles de la esposa/o e hijos, y actos recientes a los que habían asistido. Como el propio editor constataba: «Los receptores no han de preocuparse sobre qué ocurre ahora con estos datos: solo ellos han recibido el ejemplar con sus datos personales, y desde entonces hemos destruido nuestra base de datos. Pero sí sabéis que estos datos están por ahí para siempre, ¿no?».
sas que hace alguien después de haberse apuntado a cualquier servicio que haga uso de la información personal. Es esencial ser consciente de qué información personal puede ver cualquiera que busque en una página, la cual pueden consultar los miembros de una red compartida o de un grupo de cualquier tipo, y cuál puede ver la gente indicada como «amigos» directos o contactos.
Legislación Tal vez por encima de todo, el futuro de la seguridad en la red está en manos de los gobiernos y las corporaciones, y en la legislación y negociación por los derechos de los ciudadanos a la privacidad y los derechos de las empresas a lucrarse recogiendo e intercambiando datos sobre hábitos de consumo. Desde la Ley de Protección de Datos de 1998 del Reino Unido, hasta la Ley de Protección de la Privacidad Virtual de 2003 de California, y otras, hace ya más de una década que se están definiendo políticas sobre estos nuevos retos, pero no serán totalmente efectivas hasta que no coincidan con una población realmente consciente de la naturaleza compleja y cambiante de la privacidad digital.
La idea en síntesis: la privacidad absoluta es un material digital raro
001-222 50 ideas digital.indd 95
22/02/2012 16:12:24
96
El lado oscuro
23 La web profunda La World Wide Web consiste en muchos miles de millones de páginas web, servicios y listados de datos. Y sin embargo, estos datos visibles y accesibles, según algunos cálculos, representan menos del 1 por 100 de toda la actividad e información de cualquier tipo que existe realmente en la red. Buena parte de esta información está por capas subyacentes a la superficie por la que los usuarios corrientes son capaces de navegar: de aquí que usemos el término «web profunda» (deep web) para describir una zona cambiante y misteriosa que a veces se conoce también como web invisible u oculta. Las partes «profundas» de la web son distintas de lo que a veces se menciona como la web «oscura» (dark). Los sitios oscuros son aquellos a los que ya no se puede acceder en absoluto y, por lo tanto, se han «oscurecido» gracias a la interrupción en los procesos por los que se dirige el tráfico. Los sitios profundos existen, pero, por una serie de motivos, no son visibles para los buscadores y el usuario informal de la red. Tal vez el tipo más habitual de página web perteneciente a la web profunda es la dinámica: es decir, aquella cuyo contenido y ubicación no son fijos, sino que se generan en respuesta a peticiones o necesidades específicas, imposibilitando su inmovilización. Entre ellos se pueden encontrar cosas tan sencillas como los horarios de las llegadas de trenes, puesto que es información que cambia constantemente, evitando que la misma sea gravada o indexada de manera permanente. Las bases de datos son otra gran categoría de página potencialmente invisible, puesto que hay muchas fuentes grandes de información que no se incluyen simplemente en páginas que puedan indexar los buscadores, sino que se almacenan en servidores y solo aparecen online como resultado de peticiones de los usuarios de la web, que generan una página con un par de resultados incluidos pero dejan la parte principal de la base de datos oculta.
Cronología 1994
Se acuña la frase «web profunda» (invisible web)
001-222 50 ideas digital.indd 96
22/02/2012 16:12:24
La web profunda
97
«
Las páginas protegidas por contraseñas o La inmensidad de la con contenido privado cerrado a los bus- web profunda... me dejó cadores y a la navegación casual también totalmente pasmado. están efectivamente ocultadas. Eso pueNo dejábamos de dar de aplicarse también a mucho del contenido de sitios como las redes sociales, vueltas y descubrir que no es abiertamente visible y requiere más y más cosas. una cuenta y cierto nivel de privilegio Michael K. Bergman para poder acceder. En Facebook, por ejemplo, a pesar de las preocupaciones por la privacidad, no es posible navegar sencillamente por toda la información asociada con todas las cuentas: a menos que seas «amigo» de alguien, lo único que a menudo puedes ver de una persona es su nombre, como mucho.
»
Finalmente existe en la red un contenido dispuesto en un formato tal que los buscadores no pueden indexarlo. Como los buscadores están mejorando constantemente, cada vez hay más de estos contenidos que se vuelven accesibles, pero el contenido de muchos sitios puede seguir siendo opaco, como los documentos en PDF, los textos de libros escaneados, archivos
Entregado a mano En el misterioso mundo del envío de archivos privados y de los intentos de acceder o transferir información difícil de obtener, el envío electrónico de archivos no es la única ni siempre la técnica más efectiva. Intentar acceder a un ejemplar todavía inédito de una película o disco, por ejemplo, puede suponer intentar obtener el archivo de un sistema seguro, en cuyo caso lo más fácil puede ser copiarlo físicamente en un disco o flash drive, más que intentar usar una red. De manera similar, el filtrado original de WikiLeaks en 2010 de cables diplomáticos se obtuvo copiando
archivos en un flash drive desde un sistema seguro, no por transferencia electrónica. Usar la distribución física de archivos electrónicos se conoce a veces como sneakernet —es decir, una red apoyada en el uso de un mensajero humano (que usa sneakers o zapatillas silenciosas)—. En el caso de archivos extremamente grandes, eso puede ser, de hecho, más rápido que la transmisión electrónica, puesto que el tiempo que se tarda en trasladar un disco físico con grandes cantidades de información puede ser menor que el que tardamos en enviar la información por una red.
2002
2003
Microsoft publica un artículo sobre las redes oscuras para compartir archivos
Se crea la aplicación WASTE
001-222 50 ideas digital.indd 97
22/02/2012 16:12:24
98
El lado oscuro
«
Como hay más gente que lo hace todo por la red, más partes habrá de tu vida que no quieres que formen parte de tu personaje público virtual.
»
Danny O’Brien de imágenes que no han sido etiquetados o incluso sitios que no han sido lo bastante bien diseñados según las convenciones estándar en la web.
La profundidad creciente Como hemos sugerido antes, la
web profunda existe en parte debido a las limitaciones en los procesos que utilizan los buscadores para crear índices de páginas web y recursos online. Los buscadores mejoran continuamente, pero el tamaño de la web profunda también crece, para preocupación de todos aquellos que creen que la apertura de la web es su virtud más fundamental. Los motivos esenciales del crecimiento del contenido virtual invisible, «profundo», son la creciente complejidad de las aplicaciones basadas en la red y la creciente cantidad de información que se almacena en los «silos de información» —sistemas cerrados incapaces de intercambiar información con otros sistemas externos—. Las redes sociales son un ejemplo de ello, como lo son la mayoría de servicios virtuales complejos, como los sitios de videojuegos, las aplicaciones web de negocios y viajes, los sistemas de banca, las tiendas de aplicaciones patentadas y un número creciente de sitios de e-comercio que ofrecen experiencias a medida de cada usuario. En muchos de estos casos, la privacidad es básicamente para los detalles personales. Pero el problema más grande está en una de las ofertas registradas —es decir, cerradas y a veces de pago— de los servicios virtuales, más que en el uso de formatos abiertos. Apple, por ejemplo, está acusada por algunos de crear grandes silos de información en la red gracias a la exclusividad de aplicaciones y sistemas operativos para sus aparatos móviles y tablets: los usuarios pasan buena parte de su tiempo no en el Internet abierto, sino en un entorno cerrado de software y hardware solo de Apple. De manera similar, con un número creciente de sistemas de acceso de pago o solo para socios que se está aplicando a muchos recursos virtuales, como los periódicos, el flujo abierto de información y de opinión queda interrumpido, y partes enteras de la web desaparecen efectivamente en las «profundidades».
Redes oscuras Además del contenido invisible, Internet contienen también muchos grupos privados u ocultos de un tipo bastante distinto. A veces conocidas como «redes oscuras» (darknets), son estructuras utilizadas para la comunicación y la compartición de archivos fuera del acceso de los usuarios corrientes de la red, potencialmente para actividades ilegales o cuasiilegales. El término darknet se empezó a utilizar
001-222 50 ideas digital.indd 98
22/02/2012 16:12:24
La web profunda bastante antes que la web, en la década de 1970, para referirse a las redes informáticas capaces de interactuar con ARPANET (el proto-Internet), pero que por motivos de seguridad no aparecían en ninguna lista ni índice y eran prácticamente invisibles para los usuarios corrientes. Actualmente, las darknets suelen centrarse en redes de compartición de archivos que se basan en intercambios entre amigos o privados. Los contactos se hacen solo entre personas que se conocen o que confían entre ellas, y muchas de ellas implican la ocultación de la ubicación de ambos participantes. Tales intercambios no requieren ningún uso de la World Wide Web y son casi imposibles de detectar o cerrar sin infiltrarse activamente en la red.
99
¿A qué profundidad? Calcular el tamaño de la red visible es una tarea difícil, lo que significa que calcular el de la web profunda es todavía más complicado, pero hasta los cálculos más conservadores cifran en varios cientos de veces el tamaño de la web visible. La mayor parte de estos datos invisibles no son ni misteriosos ni ilegales, son simplemente inaccesibles. Según ciertas estimaciones, el mayor sitio «profundo» de la web han sido históricamente las bases de datos del National Climatic Data Center de Estados Unidos (NCDC), que son públicas, pero accesibles mediante petición en la página en vez de estar indexadas por los buscadores. La base de datos del NCDC está seguida por la NASA; aunque, con más de 600 millones de usuarios, la cantidad de datos que contienen hoy en día los servidores de Facebook es probable que eclipsen incluso estos registros.
Hay programas que facilitan estos intercambios, como el WASTE, aparecido en 2003 y que toma su nombre de un sistema postal clandestino de la novela de Thomas Pynchon La subasta del Lote 49. El WASTE permite al usuario establecer redes descentralizadas uno a uno, incluyendo servicios como el chat, la mensajería y los protocolos de intercambio de archivos. Ofrece, además, un nivel alto de encriptación. Las redes descentralizadas como esta son en realidad imposibles de cerrar, y no contienen ningún enlace clave ni maneras de medir su extensión. En general, una red individual puede estar constituida por menos de cien personas que comparten archivos e información. Tales redes pueden resultar herramientas efectivas tanto para el ciberactivismo —como en la transmisión de datos hecha por los famosos cables diplomáticos de WikiLeaks filtrados al mundo en 2010— como el ciberterrorismo, o sencillamente para el intercambio privado de archivos obtenidos legal, semilegal o ilegalmente, desde películas hasta fotos o textos.
La idea en síntesis: buena parte del mundo digital yace bajo la superficie
001-222 50 ideas digital.indd 99
22/02/2012 16:12:24
100
El lado oscuro
24 Hacking Hoy en día predomina el uso peyorativo de la palabra hacking para describir el proceso de irrumpir en un sistema, red o programa informático en contra de los deseos de su propietario. Ya sea por el placer de hacerlo, para transmitir algún tipo de mensaje o para sacar partido de la hazaña. Sin embargo, la cultura y la historia del hacking son mucho más ricas y representan una clandestinidad digital continuada que puede ser innovadora y tener carácter público, aunque conserve su espíritu confesadamente libertario. El uso digital de la palabra hacking se remonta al MIT en la década de 1960, cuando los estudiantes empezaron a desmenuzar los programas informáticos y a encontrar maneras de sortear los problemas y obstáculos que el diseño original de los mismos no era capaz de superar... o sencillamente, a conseguir que un programa hiciera algo que estaba fuera de sus especificaciones originales. Esta acepción de la palabra hack se ha conservado, usada por los programadores cuando hablan de hallar un quick hack, o un ugly hack, o tal vez un neat hack, para sortear un problema específico con el software o el hardware y que le permite ser usado con éxito cuando anteriormente fallaba. En los ordenadores muy primitivos, la memoria para hacer funcionar programas era muy limitada, de modo que un hack consistía a menudo en desmenuzar un programa en fragmentos más pequeños para hacerlo funcionar correctamente. En aquellos tiempos, ser hacker era un halago. Significaba ser un programador experto y habilidoso. La palabra tenía también un significado más amplio del que ha sobrevivido hasta hoy, el de alguien dispuesto a encontrar maneras no convencionales de usar cualquier sistema, y a desobedecer las normas establecidas en caso de necesidad. Como uno de los antiguos alumnos del MIT lo describió, significaba, más que nada, ser «juguetonamente astuto». Para algunas personas, este sentido positivo de la palabra hacker sigue siendo su verdadero significado.
Cronología 1963
1971
Primer uso conocido del término hack en sentido digital, en el MIT
La revista Esquire publica un artículo sobre el phone phreaking
001-222 50 ideas digital.indd 100
22/02/2012 16:12:24
Hacking
101
El hacking telefónico Hacia la década de 1970 se puso de moda otra forma de hacking en forma de phone phreaking —colarse en sistemas telefónicos con el fin de obtener llamadas gratuitas—. Esto se hacía mediante técnicas diversas, pero normalmente consistía en que un usuario imitaba los tonos utilizados en las llamadas estadounidenses para llamadas de larga distancia, ya fuera mediante silbidos o con aparatos caseros.
Trucos similares habían sido utilizados durante décadas, pero fue en la de 1970 cuando obtuvieron categoría de cultura underground, con algunas bromas que se han hecho legendarias, como una llamada al Vaticano alegando que venía de Henry Kissinger, hecha por Steve Wozniak, quien más tarde fundaría Apple con otro conocido bromista, Steve Jobs.
El poder de la informática personal Mientras la cultura
hacker, nacida en el MIT en la década de 1960, seguía desarrollándose por el Internet de los inicios y por los sistemas informáticos instalados en instituciones académicas, fue la irrupción de los microprocesado-
Hackerespacios Aunque a muchos les puede sonar como algo siniestro, un hackerespacio no es un antro lleno de ladrones informáticos, sino más bien algo así como un laboratorio público abierto para aquellos comprometidos con un tipo de hacking menos convencional: gente interesada en el «bricolaje» tecnológico y el uso y diseño de sus propias herramientas y proyectos digitales. La subcultura que rodea tales esfuerzos de «bricolaje» se conoce también como cultura «creadora» (maker), en referencia a su énfasis en que las personas puedan efectivamente construir y entender las herramientas digitales que utilizan en
una época en la que los intríngulis de cualquier aparato electrónico siguen siendo un misterio para la mayoría. Actualmente, en Estados Unidos hay más de cien hackerespacios dedicados a compartir conocimientos, equipos, consejos y experiencia, y que celebran las posibilidades de la cultura digital no corporativa. En la red, el blog Boing Boing es un canal popular para los productos de la cultura creadora, y su cofundador, el autor Cory Doctorow, es un defensor declarado de las virtudes de pensar más allá de las limitaciones buscadas por el hardware, el software, los modelos de negocio y las actitudes tecnológicas modernas.
1983
1999
El hacker estudiantil Neal Patrick aparece en la portada de Newsweek
Un chico de 15 años entra en los ordenadores del Departamento de Defensa de Estados Unidos
001-222 50 ideas digital.indd 101
22/02/2012 16:12:25
102
«
El lado oscuro res y la posterior revolución de la informática casera de los años ochenta lo que puso tanto la tecnología como la noción de hacking al alcance de millones de personas Los que utilizan hacks informáticos para sortear los sistemas de seguridad digitales son también conocidos como crackers, un término que muchos de los que identifican hacking con su sentido original positivo sienten que es el único que debería usarse para describir esta actividad. Fue en Steve Wozniak 1983 cuando el cracking llegó quizá por vez primera al conocimiento público, gracias tanto al estreno de la película Juegos de guerra —en la que un genio adolescente de la informática logra desatar una guerra nuclear colándose en el sistema informático de defensa nacional— como al caso real del grupo de piratas conocido como Los 414, que el FBI identificó aquel año como los responsables de haberse colado en una serie de sistemas informáticos seguros por toda Norteamérica.
Buena parte del hacking consiste en jugar con otras personas.
»
Cómo forzar la entrada La mayoría de irrupciones en ordena-
dores se hacen explotando las vulnerabilidades conocidas del software, como los sistemas operativos, para obtener el acceso a datos protegidos, o intentando infiltrar en el sistema programas maliciosos —mal ware— con el fin de obtener el control sobre el mismo o para instalar una «puerta trasera», un sistema de acceso que solo pueden utilizar los «piratas». Esto es aparte, por supuesto, de tal vez la manera más efectiva y más difícil de evitar de todas: corromper al factor humano y lograr la obtención de códigos o contraseñas o de información privilegiada de alguien asociado al sistema al que queremos acceder. Como se describe al principio del capítulo 20, hay muchas variedades de programas maliciosos utilizados para hacerse con el control de un ordenador. Las infecciones suelen ocurrir o bien vía correo electrónico, o bien descargando o copiando archivos infectados. Los tipos más habituales de malware incluyen los caballos troyanos, los virus y los gusanos; los ordenadores también pueden estar infectados sin que su usuario lo sepa, lo que deja abierta una ventana tanto al robo de información como al uso de ese ordenador para el envío de otras infecciones o ataques masivos a otros sistemas. Otros programas utilizados para ayudar a la piratería incluyen los «escáneres de vulnerabilidad» y los «escáneres de puerto», que exploran respectivamente si los ordenadores en red tienen alguna serie de debilidades conocidas, y si algún «puerto» o punto de acceso de datos está potencialmente abierto a la invasión. Los datos que se transmiten a través de una red pueden ser también potencialmente leídos por un programa sniffer, si su encriptación no es lo bastante segura.
001-222 50 ideas digital.indd 102
22/02/2012 16:12:25
Hacking
103
Tipos de hacker Hay mucha gente distinta involucrada en el hacking y, como resultado, se ha desarrollado en la comunidad virtual una clasificación semioficial de los distintos tipos de hacker que diferencia entre expertos y aficionados, malintencionados e ideológicos, etc. Los grupos principales son los black hats, que suelen practicar actividades malignas con fines lucrativos; los white hats, que tienen buenos motivos para hackear, como comprobar los sistemas de seguridad; los hacktivistas, que lo hacen por motivos ideológicos concretos y para llamar la atención hacia una causa; los script kiddies, que carecen de experiencia y ejercen formas básicas
de hacking mediante rutinas automatizadas conocidas como scripts para entrar en sistemas informáticos (el término es intencionadamente desdeñoso); los blue hats, que trabajan en un ordenador oficial o en una empresa de seguridad que intenta identificar y solventar los problemas potencialmente explotables; y los hackers de élite, que pueden pertenecer a uno o varios colectivos virtuales oscuros y prestigiosos, y que se consideran los operadores más expertos de todos y normalmente son inventores de nuevos códigos, hazañas y maneras de descifrar los sistemas informáticos supuestamente más seguros.
Abundan las técnicas mucho más sofisticadas que esta, que explotan cualquier cosa, desde el conocimiento particular sobre los puntos de «desbordamiento» de memoria en sistemas individuales, hasta los intríngulis de los root kits diseñados para ocultar cualquier prueba de que un sistema informático ha sido manipulado. Una de las pocas certezas en todo esto es que la carrera entre aquellos que buscan colarse y aquellos que intentan mantenerlos fuera está aquí para durar indefinidamente, y que los conocimientos de las mejores mentes hackers son urgentemente requeridos por los creadores de nuevos sistemas si quieren mantener a los piratas y alborotadores a raya.
La idea en síntesis: siempre habrá alguien dispuesto a infringir las normas
001-222 50 ideas digital.indd 103
22/02/2012 16:12:25
104
El lado oscuro
25 Ciberguerra Como el nombre sugiere, la ciberguerra es la versión digital de la guerra: un estado contra el otro, no con armamento físico sino con armas virtuales, pensadas para perjudicar o comprometerse su infraestructura digital. La infraestructura digital desempeña una función cada vez más importante en las capacidades ofensivas y defensivas de la mayoría de naciones, la capacidad tanto de defenderse como, si es necesario, de «desplegar» cibertécnicas como parte de la guerra o de las tareas de espionaje es una preocupación moderna clave para los estamentos militares, que además requiere instrucciones elaboradas, juegos de guerra e innovación tecnológica. Como la mayoría del resto de formas no convencionales de guerra, la ciberguerra implica mucho más que objetivos militares. Los ataques digitales contra un país pueden proponerse perjudicar sus estructuras de gobierno en general, además de su infraestructura militar en particular, sus estructuras financieras y económicas, y sus infraestructuras en general. En todos estos casos, la división entre las técnicas digitales y las consecuencias en el mundo real puede ser extremamente fina. Las bolsas son, esencialmente, entidades digitales, pero con una importancia real profunda. Las redes de transporte —por carretera, aire, ferrocarril y mar— se apoyan todas ellas en mayor o menor grado en la tecnología para funcionar, y pueden quedar gravemente alteradas por los ataques digitales. De manera similar, el suministro energético y de telecomunicaciones, aunque funciona por redes más seguras que la World Wide Web, puede quedar potencialmente mermado por técnicas de infiltración bastante avanzadas. De hecho, uno de los aspectos más notables de la ciberguerra es la relativa dificultad e inconveniencia de atacar objetivos militares concretos, que tienden a funcionar con sistemas informáticos de alta seguridad, si se compara con el daño profundo que se puede causar a un país si se atacan recursos digitales civiles, comerciales o gubernamentales.
Cronología 1999
2007
Hackers serbios atacan sistemas de la OTAN
Se produce el mayor ciberataque en la historia de EE.UU.
001-222 50 ideas digital.indd 104
22/02/2012 16:12:25
Ciberguerra
«
105
Nuestros adversarios encontrarán nuestro eslabón más frágil y lo explotarán, ya sea de propiedad y gestión pública o privada. Keith Alexander
»
Técnicas Las técnicas utilizadas en la ciberguerra se pueden dividir a grandes rasgos en las del espionaje: recabar información secreta para ganar ventaja; y las del sabotaje: infringir daños en un aspecto de la infraestructura digital. De estas dos, hay varios tipos de espionaje que son más comunes a nivel global, ya que las naciones tienen mucho que obtener si recaban encubiertamente información sobre sus potencias rivales. Podría decirse que eso no constituye realmente «guerra», y que la mayoría de acciones como esta es poco probable que fueran tratadas por un estado como actos de guerra. El sabotaje y
El mayor asalto En 2007, Estado Unidos experimentó lo que un antiguo oficial del Departamento de Estado (Interior) describió como «nuestro Pearl Harbour electrónico», cuando una potencia extranjera todavía desconocida se coló en los sistemas informáticos de muchas de las agencias militares y de alta tecnología del país, incluidos el del Departamento de Defensa, el Departamento de Estado, el Departamento de Comercio y quizá también la NASA. Se copiaron varios terabits de información —casi tanto como todo el contenido de la Wikipedia—. La enorme brecha
de seguridad se consiguió con un método sencillo: se introdujo codificación maliciosa en un flash drive que luego fue enchufado a un portátil militar en Oriente Medio, y una vez en el aparato, el código maligno fue capaz de extenderse sin ser detectado a través de redes militares secretas. Se trató de un ataque a la seguridad muchas veces más grave que el famoso filtrado de WikiLeaks en 2010, en que se dieron a conocer miles de cables de embajadas estadounidenses, transmitidas por un soldado americano que había descargado los datos cuando se encontraba en Irak.
2008
2010
Se determina la política de ciberdefensa de la OTAN
EE.UU. nombra a su primer general de la ciberguerra
001-222 50 ideas digital.indd 105
22/02/2012 16:12:25
106
El lado oscuro
Jugando a la ciberguerra Las simulaciones son una de las manera más efectivas de entrenarse y modelar las consecuencias potenciales de las acciones militares, algo que es especialmente cierto en los conflictos virtuales. En febrero de 2010, una simulación de este tipo en Estados Unidos modeló lo que podría pasar si millones de teléfonos y ordenadores en ese país quedaran afectados por software malicioso, convirtiéndolos en un enorme botnet capaz de ser operado a distancia y de lanzar ataques a páginas web y redes. El resultado, escenificado a lo largo de cuatro días con muchos antiguos miembros del gobierno implicados, era de decenas de millones de estadounidenses privados de electricidad y los mercados de valores cerrados, gracias en parte a la capacidad limitada del gobierno de controlar y poner en cuarentena a los aparatos electrónicos de propiedad privada como los teléfonos móviles. En parte como respuesta a tales simulaciones, actualmente se está debatiendo una legislación de emergencia a desplegar en caso de ciberemergencias en Estados Unidos y en otros países; y en mayo de 2010, Estados Unidos nombró a su primer general explícitamente al mando de la ciberguerra, Keith Alexander.
el vandalismo, en cambio, son técnicas más tendentes a ser desplegadas por individuos o grupos reducidos, y potencialmente por aquellos que desean enfrascarse en «ciberterrorismo», para los cuales causar el máximo trastorno sería una prioridad. A lo largo de la pasada década, la contrainteligencia cibernética se ha convertido en una considerable área de inversiones, y en particular desde que se produjo un importante ciberataque de origen ruso contra Estonia en 2007. Como respuesta, la OTAN estableció un Centro de Ciber-Defensa en Tallin, la capital estonia, y en 2008 formuló una política oficial de ciberdefensa, política que fue reiterada en su cumbre de 2010, en la que se afirmó que «la rápida evolución y creciente sofisticación de los ciberataques hacen de la protección de los sistemas de información y de comunicación de los Aliados una tarea urgente para la OTAN, de la que depende su seguridad futura».
DDoS Los ataques de 2007 a Estonia tuvieron por objetivo pági-
nas web comerciales, gubernamentales y mediáticas, y adoptaron la forma de uno de los métodos más potentes de asalto: los llamados DDoS, o ataques de Distributed Denial of Service. En estos, las páginas se ven inundadas por decenas o hasta cientos de miles de visitas, colapsando la capacidad de operación de sus servidores. Tales ataques se convirtieron en titulares de prensa otra vez a finales de 2010,
001-222 50 ideas digital.indd 106
22/02/2012 16:12:25
Ciberguerra
107
cuando fueron utilizados tanto para atacar el polémico sitio web WikiLeaks como, posteriormente, en una serie de ataques «venganza» orquestados contra páginas corporativas como la de PayPal, que se percibían en colisión con los oponentes de WikiLeaks. Los ataques DDoS son una forma muy visible de ataque virtual, pero rastrear a sus responsables puede resultar extremamente difícil, puesto que normalmente lo hacen mediante redes no conscientes de computadoras «zombis» controladas por un hacker que emplea software extendido maliciosamente. Otras técnicas de ciberguerra incluyen la intercepción y modificación de la información digital, y el descifrado de encriptaciones, ya sea a base de infectar los sistemas con software malicioso, sondeando las redes objetivo desde fuera para tratar de buscar vulnerabilidades que permitan la extracción de datos, o con la captura y tergiversación del hardware que hace funcionar los programas con las encriptaciones que se quieren descifrar.
«
El problema de Internet es que está pensado para la comunicación entre no amigos.
Whitfield Diffie
»
Está muy extendida la idea de que China es la primera potencia mundial en capacidad de ciberespionaje, gracias a la inversión continuada que ha hecho en este campo, a su fuerza de trabajo especializado y a una predisposición a utilizar a fuerzas de voluntarios civiles para sus operaciones. Hay más de treinta importantes corporaciones estadounidenses que han experimentado ataques a su infraestructura digital originados en China —incluido el caso más famoso, Google, que mencionó un ataque contra su infraestructura corporativa a principios de 2010 como uno de sus motivos para retirar sus operaciones de la China continental. Pero la capacidad de tales acciones está creciendo a escala internacional, con un sector de ciberguerra global que se estima superior a unos 12.000 millones de dólares a finales de 2011, convirtiéndolo en la mayor área mundial de gasto en defensa.
La idea en síntesis: la web es una zona de guerra
001-222 50 ideas digital.indd 107
22/02/2012 16:12:25
108
Placer y ocio
26 Las redes sociales
Las redes sociales son la tendencia definitoria de la actual fase de desarrollo de Internet, cuando la red pasa gradualmente de ser una herramienta para encontrar e identificar información, a otra para encontrar y relacionarse con otras personas. La cultura digital siempre ha tenido un aspecto social, pero ha sido con la idea de las herramientas dedicadas a las relaciones sociales —y, por encima de todo, con el ascenso de Facebook— cuando se ha colocado en el corazón de un número creciente de vidas contemporáneas. Los primeros servicios de red social empezaron a aparecer a mediados de la década de 1990 y ofrecían básicamente servicios de chat, que imitaban el modelo de las comunidades que se habían desarrollado en los tablones anteriores a la web y de los primeros foros. Por ejemplo, theGlobe.com fue fundado en 1994 por dos estudiantes de Cornell. Inspirado por el atractivo social de las salas de chat, el sitio ofrecía básicamente espacios digitales mejorados para que la gente pudiera colgar información pública sobre ellos mismos y sus intereses. Esta página, theGlobe.com, se convirtió en el ejemplo para el boom de Internet de finales de la década de 1990, y batió el récord de aumento en un primer día en el precio de sus acciones en su salida a Bolsa, que fue del 606 por 100. Pero en un año el precio de sus acciones se había hundido. Otras páginas corrieron mejor suerte: en 1995, un sitio llamado Beverly Hills Internet —luego rebautizado como GeoCities— empezó a invitar a los usuarios a crear sus propias páginas gratuitas dentro de distintas «ciudades» virtuales ordenadas por temas. A finales de la década de 1990 se habían fundado varios tipos distintos de redes sociales. Había comunidades de interés general como theGlobe.com, que ofrecía páginas de perfil de usuario cada vez más
Cronología 1994
1995
2000
Fundación de theGlobe.com
Fundación de Classmates.com
Fundación de Friends Reunited
001-222 50 ideas digital.indd 108
22/02/2012 16:12:25
Las redes sociales
109
«
sofisticadas y oportunidades para crear y comLos medios partir contenidos; y redes más específicas, sociales tienen siendo el ejemplo más típico la estadounidenmás que ver con se Classmates.com, introducida en 1995 para la sociología y la ayudar a la gente a recuperar el contacto con antiguos compañeros del colegio y la universi- psicología que dad. Inspirado por Classmates.com, en 2000 con la tecnología. apareció el sitio británico Friends Reunited. Brian Solis Mientras, servicios como el Instant Messenger de AOL, aparecido en 1997, avanzaban poco a poco la idea de la mensajería instantánea y el uso de listas de contactos de amigos virtuales.
»
De destino a hub A finales del año 2000, millones de personas contaban ya con perfiles en varios sitios de redes sociales, y tal vez los consultaban un par de veces a la semana o al mes para ver cómo habían cambiado sus redes. Las redes sociales eran un destino
El poder del juego Una de las creaciones más importantes hechas últimamente en el ámbito de las redes sociales, y especialmente en Facebook, ha sido la creciente proliferación de aplicaciones desarrolladas por terceros para el uso dentro de estas redes. De estas aplicaciones, tanto las más populares como las más rentables son los juegos; incluso se ha acuñado el término «juego social» para describir la inmensa popularidad de jugar a juegos sencillos con amigos vía estas redes. En vez de ser un juego simultáneo, que conlleve mucho tiempo y nos tenga secuestrados —como la mayoría de videojuegos tradicionales tendían a hacer—, los juegos sociales
enfatizan la capacidad de los jugadores de hacer acciones frecuentes y limitadas en momentos distintos. Puede consistir en responder a cuestionarios, hacer un movimiento en un juego como el Scrabble o el ajedrez, o —el más popular de todos— hacer unas cuantas cosas en un entorno virtual como una granja, una ciudad o un restaurante, donde el juego no se centra tanto en ganar o perder, como en crear más y más recursos, y compartir y comparar estos con los proyectos de los amigos. Uno de los más infames y populares de estos, FarmVille, en su mejor momento llegó a tener más de 80 millones de jugadores.
2002
2003
2004
Fundación de Friendster
Fundación de MySpace
Fundación de Facebook Fundación de Twitter
001-222 50 ideas digital.indd 109
2006
22/02/2012 16:12:25
110
Placer y ocio virtual, pero todavía no eran una parte dominante de la experiencia online. Esto empezó a cambiar en 2002 con el lanzamiento de un nuevo estilo de red social llamado Friendster. Friendster estaba diseñado no simplemente para ayudar a las personas a recuperar el contacto con antiguos compañeros de clase o con personas con intereses similares, sino también para funcionar como un destino virtual mucho más amplio en el cual los visitantes pudieran navegar por los perfiles a voluntad, entablar contactos fácilmente con amigos en la vida real y compartir medios y mensajes.
Las redes sociales profesionales Aunque casi todo el tiempo dedicado a las redes sociales es tiempo de ocio, el fenómeno ha tenido también un profundo efecto en el mundo profesional. LinkedIn, el sitio de red social profesional más conocido en el mundo, nació en 2003 y en enero de 2011 conectaba a más de 90 millones de perfiles por todo el mundo. La creciente universalidad de sitios como LinkedIn —que incluye plataformas para historiales profesionales completos, CV online, detalles personales y, lo más importante, la posibilidad de conectar, encontrar, ponerse en contacto y recomendar a otras personas en campos relacionados— hoy está cambiando rápidamente los procesos de contratación de muchas empresas y las actitudes hacia la búsqueda de empleo. La autopresentación virtual se está convirtiendo en una capacidad esencial en muchos campos, como también lo es asegurarse de que los detalles potencialmente poco favorecedores de tu vida no sean accesibles a la mirada de cualquier posible jefe que consulte rápidamente tu perfil en otras redes sociales.
Friendster alcanzó más de un millón de usuarios en un año, pero quedó superado pronto por el lanzamiento en 2003 de MySpace, un sitio de aspecto similar. MySpace imitaba los rasgos de Friendster pero fue mucho más allá para obtener nuevos usuarios, y en 2006 ya celebraba su cuenta número 100 millones. Se convirtió en el sitio líder no solo para comunicarse con los amigos, sino para explorar la cultura pop, descubrir grupos de música nuevos, compartir música y vídeos, y en general relacionarse con la web a través del más perspicaz de todos los buscadores: otras personas de gustos similares.
Facebook Mientras MySpace
celebraba su triunfo —y su compra en 2005 por parte de News Corporation por 580 millones de dólares—, un rival, fundado en 2004 como un medio para que los estudiantes de universidad estuvieran en contacto, ya empezaba a superarle: Facebook.
Fundado por el estudiante de Harvard Mark Zuckerberg y lanzado inicialmente como thefacebook.com en enero de 2004, Facebook se abrió durante su primer año de plataforma solo para estudiantes de Harvard y otras universidades estadounidenses, luego incorporó los institu-
001-222 50 ideas digital.indd 110
22/02/2012 16:12:25
Las redes sociales
111
tos y, finalmente, en 2006, a cualquier persona mayor de trece años. Facebook alcanzó su usuario 100 millones en 2008, alcanzó 200 y 300 millones en 2009, y quinientos millones a mediados de 2010. En enero de 2011 ya tenía 600 millones, y sigue creciendo.
«
Ser el primero ya
Otro hito ocurrió a finales de 2010, cuan- está pasado, mientras do Facebook superó a Google por prime- que ir al grano es lo ra vez como la página web más visitada que se lleva. Y Twitter de Estados Unidos. ¿Qué explica el enor- no olvida nunca. me éxito de Facebook? Hay un motivo que es sin duda un autorrefuerzo: para los Mercedes Bunz nuevos usuarios está claro que tiene más sentido incorporarse a la mayor red social del mundo que a cualquier otra. Pero, aparte de eso, Facebook ha demostrado una agresiva voluntad de incorporar a la estructura de la red social casi todo aquello que forma parte del tejido de las relaciones virtuales: un sistema interno de e-mail y chat, la compartición de imágenes, invitaciones, eventos, grupos, sociedades y peticiones; páginas de fans y páginas de perfil detalladas; y, quizá por encima de todo esto, juegos y aplicaciones, y la oportunidad de conectarlo todo con un montón de otras páginas y actividades virtuales.
»
Twitter y los sitios interconectados El otro único servicio social que ha tenido un impacto similar al de Facebook en los últimos años es la página de microblogging Twitter. Aparecida en 2006, permite a los miembros seguir los tuits mutuos de un máximo de 140 caracteres, y a principios de 2011 ya tenía más de 200 millones de cuentas de usuarios. Esta transición hacia la experiencia de Internet como un torrente en tiempo real de información, hecha de actualizaciones y enlaces, es tal vez la mayor transformación de todas las que han aportado las redes sociales... puesto que marca la aparición de un nuevo estado digital por defecto para mucha gente, donde el mundo virtual no se enfoca como un recurso ilimitado que espera a ser explorado, sino como una red de amigos y contactos que se comunica en tiempo real, a base de mensajes y actualizaciones. Esta web social —a la que, gracias a los smartphones y a los dispositivos móviles, mucha gente es capaz de pasar la mayor parte de su tiempo conectado— representa uno de los cambios más profundos en la historia de la tecnología digital.
La idea en síntesis: la web social es el futuro digital
001-222 50 ideas digital.indd 111
22/02/2012 16:12:25
112
Placer y ocio
27 Consolas de juegos
El juego ha tendido siempre a ser una de las fuerzas más importantes de las que impulsan la tecnología digital. En 1972, muchos usuarios domésticos tuvieron su primera experiencia de la informática como algo que se podía disfrutar en casa, además de en el trabajo o en las instituciones académicas, gracias a la aparición de la primera consola de juegos: un aparato casero dedicado totalmente a los videojuegos. Hoy, el mercado de las consolas está valorado en decenas de miles de millones de dólares, con cientos de millones de aparatos en todo el mundo. El mundo de las consolas de juego empezó en 1972, con la aparición de la Magnavox Odyssey. Su inventor, Ralph H. Baer, tuvo la entonces revolucionaria idea de que aquel sencillo aparato se pudiera conectar directamente al televisor para producir una imagen, en vez de necesitar su propio y caro monitor. La máquina decía contener una serie de juegos sencillos pero tuvo un escaso marketing y no logró causar demasiado impacto, en comparación con un producto también aparecido en 1972: el nuevo juego de la compañía estadounidense Atari, Pong, que se convirtió en el primer videojuego comercializado con éxito en el mundo. Se jugaba en público en las salas de juegos, más que en casa, pero se había inspirado en un juego parecido de ping-pong de la Magnavox. Atari y Magnavox llegarían más tarde a un acuerdo extrajudicial por el hecho de que el juego de Atari se había basado en el de Magnavox. Sin embargo, fue Pong quien lanzaría realmente el mercado de los juegos caseros cuando en 1975 ambas empresas sacaron consolas caseras dedicadas a jugar al Pong. Atari adquirió pronto una posición de dominio del mercado de las consolas, y en 1977 sacó la consola Atari 2600 (conocida entonces como Atari VCS), que puso de moda la mecánica de comprar juegos
Cronología 1972
1977
1983
Aparición de la primera consola de juegos, Magnavox Odyssey
Lanzamiento del Atari VCS (más tarde 2600)
Aparición del Nintendo Entertainment System
001-222 50 ideas digital.indd 112
22/02/2012 16:12:25
Consolas de juegos
113
Famosamente arriesgado Para una empresa, crear y comercializar una consola de juegos es un negocio enormemente caro y arriesgado que requiere una enorme inversión en investigación y desarrollo, y jugársela con el claramente volátil y cíclico interés del consumidor. Es, por tanto, inevitable que la historia esté plagada de máquinas fracasadas y aparatos infraexplotados. La primera consola de todas, la Magnavox Odyssey, tuvo un rendimiento pobre, mientras que su rival, Atari, sería posteriormente vencida por Nintendo y Sega.
En 1993, Atari presentó una consola llamada Jaguar que se proponía arrebatar el dominio del mercado a sus rivales. En cambio, el funesto aparato demostró ser la última de las máquinas de juegos de tecnología punta. Panasonic corrió una suerte similar en 1993 con su intento de entrar en el mercado con un aparato llamado 3DO, mientras la propia Sega abandonó el negocio de la fabricación de consolas después de que su Dreamcast, de 1998, no lograra recuperar el terreno perdido frente a Nintendo y Sony.
como cartuchos que sencillamente se insertaban en un aparato para jugar, con la ventaja sustancial de la facilidad de uso de las consolas en una era en la que los ordenadores domésticos todavía resultaban un poco complicados de usar para los no iniciados. Apoyándose en la creciente locura por los juegos de sala, el siguiente hito en el mercado de las consolas llegó en 1980, cuando Atari sacó una versión del nuevo éxito de las salas de juegos Space Invaders para sistemas caseros. El futuro parecía asegurado, pero en 1983, una combinación de sobresaturación del mercado y de falta de calidad provocó un hundimiento en el mercado estadounidense de los juegos y una retahíla de bancarrotas.
«
El hombre es un animal jugador, y el ordenador es una manera más de jugar.
Scott Adams
»
La llegada de Japón El crash de 1993 dejó un agujero en el mercado que la empresa japonesa Nintendo estaba perfectamente posicionada para explotar, con su lanzamiento del «Family Computer» o Famicom, como se dio a conocer en Japón. Rebautizado Nintendo
1994
2001
2006
Lanzamiento de la Sony PlayStation
Microsoft entra en el mercado con la Xbox
Lanzamiento de la Nintendo Wii
001-222 50 ideas digital.indd 113
22/02/2012 16:12:25
114
Placer y ocio
«
Los juegos están creados por personas de gran inteligencia y creatividad, y... los mejores de ellos son sofisticadas obras de arte por derecho propio. Steven Pole
»
Entertainment System para su comercialización global, esa cajita plana y gris abanderó una nueva revolución del ocio doméstico, gracias a su sólida combinación de calidad y usabilidad... y del juego que popularizaría el mayor icono mundial de los juegos, Super Mario Bros, un título que vendería más de 40 millones de copias. El final de la década de 1980 y la década de 1990 pronto se convir tieron en una época de intensa rivalidad entre dos empresas japonesas, Nintendo y Sega, por el dominio del cada vez más lucrativo sector de las consolas de juegos, con la consola Sega Mega Drive compitiendo duramente con el Super Nintendo Entertainment System. Sin embargo, el equilibrio de poder volvió a decantarse a finales de 1994 con la entrada en escena de un nuevo rival: Sony. La PlayStation de Sony se convirtió en la primera consola que vendió más de 100 millones de unidades y ayudó a acercar los juegos a un nuevo público, más adulto, gracias a su sonoridad con calidad de CD, sus impresionantes gráficos y su elegante marketing. Mientras, Nintendo se posicionó en primer lugar en otro mercado vital: la consola manual, un campo que su Game Boy de 1990 había ayudado a definir, en parte gracias al éxito de su juego icónico Tetris. La presentación en 2004 del sistema Nintendo DS supuso una revolución similar del mercado en una década nueva.
Nuevas revoluciones El mercado de las consolas ha seguido creciendo en ciclos regulares o a base de «generaciones» de aparatos, hasta el día de hoy. En 2001 entró en escena un nuevo actor: el gigante de la informática Microsoft, con su consola Xbox, y las ventas de los juegos domésticos siguieron aumentando, con unos gráficos y unos sonidos cada día más sofisticados. Pero tal vez la innovación más importante procedente del mundo de las consolas de juegos llegó en 2006, con la séptima generación de consola de Nintendo, la Wii. Basada en un sistema de controles sensibles al movimiento, a principios de 2011 la Wii había vendido más de 75 millones de unidades y había ayudado a cambiar las percepciones públicas tanto de los juegos como de la interacción con la tecnología digital en general, gracias a la accesibilidad sin precedentes de su método de control. Microsoft llevó debidamente este tipo de interacción
001-222 50 ideas digital.indd 114
22/02/2012 16:12:25
Consolas de juegos
115
Paraíso comercial Los modernos juegos de consola son productos carísimos de hacer y potencialmente muy rentables. Con precios de venta al público de hasta 60 €, sus costes de producción rivalizan con los de las grandes películas, acercándose a los 100 millones de dólares en el caso del Grand Theft Auto IV (GTA 4) de 2008. Este juego presumió de haber ingresado quinientos millones de dólares en ventas en sus primeros cinco días de lanzamiento, convirtiéndolo en aquel momento en el
lanzamiento de ocio más rentable de cualquier producto de la historia: el récord lo batió al año siguiente el juego Modern Warfare 2, de Activision. Teniendo en cuenta los muchos cientos de personas que hacen falta para crear tales universos lúdicos desde cero, y la demanda de que estos mundos sean totalmente interactivos y contengan potencialmente cientos de horas de contenido, es comprensible que estén entre los productos digitales más complejos creados nunca.
un paso más allá con la introducción de su sistema Kinect en la última versión de la Xbox, en noviembre de 2010, un sistema de control del movimiento que no está basado en mover un controlador por el aire, sino en una cámara simplemente capaz de seguir los movimientos del cuerpo de las personas que tiene delante de ella. Este es el tipo de territorio en el que las consolas en concreto, y los videojuegos en general, han liderado siempre el mundo digital: en llevar hasta el público general avances revolucionarios en gráficos, sonidos e interfaces, y en hacer que la tecnología resulte al mismo tiempo más accesible y más irresistiblemente atractiva. El futuro de las consolas está cada vez más no simplemente en su concepción como aparatos para jugar, sino como centros mediáticos caseros: televisión y cine en streaming, albergando comunidades de juego y ocio, almacenando medios digitales y ofreciendo nuevos tipos de experiencias interactivas. Pero todo esto está en sintonía con la más fundamental de las funciones: conectar con la necesidad básica del ser humano de jugar y ayudar a poner su marca firme en una era digital en la que los límites entre trabajo y ocio son cada vez más difusos.
La idea en síntesis: el juego impulsa las revoluciones digitales
001-222 50 ideas digital.indd 115
22/02/2012 16:12:26
116
Placer y ocio
28 Mashups Una de las características más esenciales de la cultura digital es la manipulación y recombinación de medios existentes —vídeo, imagen, sonidos, texto— para crear obras nuevas: mashups. A menudo cómicos o paródicos, estos productos culturales pop van desde las imágenes modificadas que son el resultado del trabajo de unos pocos minutos, hasta parodias de películas elaboradamente reeditadas, o tributos que pueden llevar días o hasta meses de esfuerzo. Al mismo tiempo, los principios que hay detrás de los mashups van mucho más allá de los medios y aparcan los datos, las aplicaciones y la capacidad de combinar los recursos existentes en algo nuevo. La idea de refundir materiales ya existentes para crear obras nuevas viene de antiguo. Pero «fundir» distintos elementos para hacer algo nuevo también engloba uno de los principios esenciales asociados a la cultura digital: que el contenido está para compartirse y reutilizarse, y que debe ser lo más compatible posible. Es algo que podría entrar en conflicto de manera básica con muchas nociones legales establecidas del copyright y de la propiedad intelectual, pero que también ha ayudado a alimentar nuevas nociones de creatividad y originalidad. Y, como con tantas otras cosas, es una actividad que esta facilidad de reproducción y manipulación digital ha puesto al alcance de casi todo aquel que dispone de un ordenador y de una conexión a Internet.
Medios combinados Las imágenes de cómic han sido materia prima de Internet desde antes de la web, en los tiempos de los tablones de anuncios de la década de 1980. Pero no fue hasta la llegada de la aumentada banda ancha y de los números asociados al ascenso de la web cuando la cultura mashup se extendió totalmente a otros medios... y alcanzó su forma moderna más completa en la música y los vídeos.
Cronología 2000
2001
Lanzamiento de la página machinimia.com
2manyDJs saca el primer álbum con música mashup
001-222 50 ideas digital.indd 116
22/02/2012 16:12:26
Mashups
117
La tradición musical de «samplear» y mezclar varias canciones es casi tan antigua como la propia tecnología de grabar música. Sin embargo, los mashups musicales creados con herramientas digitales permiten nuevos niveles de precisión y complejidad... y de distribución e imitación. Temas como Destiny’s Child v Nirvana, que apareció en 2001, muestran una técnica altamente intrincada de mezcla de música y vídeo en su forma virtual. Además, demuestran la creciente invisibilidad de la línea entre los tributos de aficionados y el producto comercial, teniendo en cuenta especialmente la voluntad del mundo comercial de reexplotar los memes y mashups más populares. La subversión combinada con el afecto es un tema común en muchos mashups, y algunos de los más impactantes se llaman remixes o remezclas. Consisten en reeditar trailers de películas y añadirles nuevas bandas sonoras para dar la impresión de que ha habido un cambio de género: por ejemplo, Forrest Gump presentado como si fuera una película de terror, o Dos tontos muy tontos como si fuera un thriller de ciencia ficción. En los eventos en directo es cada día más común ofrecer una versión más elevada de arte escénica basada en mashups de vídeo y de sonido, normalmente dirigidos por un VJ (versión en vídeo del DJ).
Lolcats y tablones de imágenes Uno de los productos más famosos —o infames, dependiendo del criterio de cada uno— de los últimos cinco años de la cultura online es el lolcat: una foto de un gatito muy mono que ha sido retocada con el añadido de una leyenda, normalmente mal escrita («¿Me daz una hamburgueza?» es una de las más típicas). Vistos por primera vez en la página web de imágenes 4chan en 2005, los lolcats son un ejemplo más de las «macros de imágenes» virtuales —imágenes a las que se sobreimpone texto,
normalmente humorístico—. Como son casi la forma más sencilla de mashup, la facilidad de creación y de distribución de las macros de imágenes más populares ha creado multitud de memes de Internet y, en el caso de los lolcats, todo un vocabulario privado, el lol-speak, que ahora alardea, entre otras cosas, de haber hecho una traducción casi completa de la Biblia (muestra de Juan 1:1: «Al prinzipio eztaba el miau, y el miau dijo: Alabaraz al Gato del Techo. Y el miau ez el gato del Techo».
2005
2005
Primera aparición de un lolcat en la red
Google Maps lanza su capacidad de integrarse en otras webs
001-222 50 ideas digital.indd 117
22/02/2012 16:12:26
118
Placer y ocio Trabajo de fan Los medios interactivos y virtuales han creado
grupos de fans cada vez más creativos en torno a mundos más imaginativamente exitosos, y la calidad y la cantidad de las producciones de los fans basadas en la adaptación de materiales originales se reconoce con el apelativo de fan labour o trabajo de fan. La frase en sí es un reco nocimiento de los límites confusos que hay entre la creación del material original y la posterior reutilización de este material por parte de un público, y muchas empresas de medios e individuos creativos intentan cada vez más mantener un equilibrio productivo entre ambos. Los mashups son solo un aspecto de este tema, pero presentan algunas de las cuestiones más apremiantes tanto para fans como para productores, puesto que implican el uso no solo de personajes e ideas de las obras creativas, sino la reutilización completa de imágenes, sonidos y otros elementos de contenido. Entre los enfoques más radicales está la posibilidad de poner deliberadamente «atractivos» creativos a la disposición de los fans para que los puedan reutilizar: desde guiones hasta modelos gráficos, entornos, samples y bandas sonoras. Un ejemplo notable de ello fue la presentación de la banda inglesa Radiohead en 2008 de su single House of Cards, que incluía un vídeo promocional de su cantante, Thom Yorke, basado totalmente en datos tridimensionales escaneados en tiempo real mientras cantaba. Estos datos fueron ofrecidos abiertamente online, permitiendo a los fans construir sus propias visualizaciones de la canción basándose en los datos brutos y originales.
Machinima La moderna cultura de los mashups abarca medios interactivos y también lineales, y un área de interés especial es la práctica de usar caracteres dentro de videojuegos para crear actuaciones grabadas a menudo complejas. La práctica se conoce como machinima por una página web aparecida en 2002 cuyo nombre era la contracción de machine cinema. Los fans utilizan el sofisticado entorno gráfico de los juegos y su control sobre los personajes que contienen como una especie de teatro, graban actuaciones con guiones a menudo muy trabajados y luego los procesan como si fueran películas reales, con banda sonora, cortes, difuminados e
001-222 50 ideas digital.indd 118
incluso tráilers virtuales. Tanto las obras originales como las satíricas y las recreaciones son muy populares; entre los proyectos más vistos de los últimos años está un episodio de 2006 de la serie televisiva South Park, «Make Love, not Warcraft», que incorporaba metraje «actuado» dentro del propio juego World of Warcraft. La popularidad de las producciones machinima ha llevado a los fabricantes de juegos a liberar las condiciones de licencia para permitir hacerlas, en especial con una «Carta a los Machinimators del Mundo», escrita por los operadores de World of Warcraft, autorizando casi todos los machinima no comerciales.
22/02/2012 16:12:26
Mashups
119
Aplicaciones mashups Aunque los medios y el ocio pueden ser las formas más conocidas de mashup, el nombre también sirve para aplicaciones web que toman información o funciones de otras fuentes y las combinan para hacer algo nuevo. Recogiendo información de bases de datos y combinándola con otros datos y funciones, como las herramientas de cartografía y análisis, las aplicaciones mashups pueden ofrecer algunas de las más potentes herramientas de la Web 2.0 que hay, y son cada vez más reconocidas como un recurso importante de todo, desde el e-Gobierno hasta la economía del desarrollo. Un ejemplo típico puede ser la visualización de datos: en el Reino Unido, la publicación por parte del Gobierno de datos públicos, que van desde estadísticas criminales hasta la ubicación de los servicios locales, ha llevado a una profusión de productos mashups que presentan estos datos geográficamente, ofreciendo herramientas de visualización y de comparación, y que sirven para trazar un mapa de las tendencias sociales La gente tiene y económicas del país. El gobierno ha anicosas que contar mado activamente a este enfoque publicando datos en formatos aptos para su y utilizará cualquier reutilización y recombinación, pensando medio para hacerlo. en animar a las pequeñas compañías digiFriedrich Kirschner tales a explorar las posibilidades de combinar los diferentes conjuntos de datos y herramientas. Un enfoque similar en Estados Unidos ha producido aplicaciones potentes y populares basadas en datos oficiales de múltiples fuentes: desde un explorador del mercado del empleo que muestra las tendencias del desempleo por zonas, superpuesto en un mapa de Google, hasta una herramienta llamada data masher que permite a sus usuarios elegir entre una selección de grupos de datos y luego los muestra gráficamente y los analiza.
«
»
Como en los mashups artísticos, la idea de combinar distintos conjuntos de datos y recursos no tiene nada de nuevo en la era digital: en el siglo xix, por ejemplo, los mapas de los brotes de una enfermedad tuvieron una gran importancia para comprender por primera vez el papel del agua contaminada en la propagación del cólera.
La idea en síntesis: los medios digitales significan una remezcla perpetua
001-222 50 ideas digital.indd 119
22/02/2012 16:12:26
120
Placer y ocio
29 Culture jamming El culture jamming es algo así como la cultura de la subversión, de la misma manera que uno puede intentar bloquear las ondas radiofónicas durante un conflicto: se propone desbaratar y subvertir los mensajes culturales hegemónicos, a menudo con fines satíricos o políticos. Teniendo en cuenta la facilidad con que los medios digitales pueden ser manipulados, el culture jamming describe de manera general amplias franjas de actividad virtual y un paisaje «alternativo» que se ha convertido en lo bastante asentado por sí mismo como para merecer un poco más de sátira y subversión. La propia idea de culture jamming es anterior a la era digital, con orígenes tanto en los antiguos rituales del carnaval y la subversión como, más recientemente, en movimientos artísticos del siglo xx como el situacionismo, que buscaba subrayar la absurdidad de muchas convenciones cotidianas. Muchos movimientos contra el consumo, como Adbusters, fundado en 1989, han intentado bloquear o interferir (to jam) la cultura dominante mediante varias formas de sátira sobre la publicidad, las marcas y el consumo de masas. La idoneidad de tales subversiones para la cultura digital ha llevado a una diversificación sin precedentes del fenómeno online, en parte gracias a la coincidencia entre la facilidad de la producción digital y el hecho de que el culture jamming ni crea ni distribuye un producto comercial. En sus inicios, el propio Internet estaba fuera y a menudo opuesto a la cultura dominante, y este estado continúa hoy en presencia de muchos espacios virtuales, dentro de los cuales ninguna forma de sátira u ofensa se considera lo bastante extrema, y materiales que podrían invitar a tomar acciones legales si se publicaran en otros medios se pueden airear con relativa tranquilidad y anonimato. Tal vez los más infames de todos los sitios de Internet para la deconstrucción de la cultura dominante fueron una serie de galerías de imágenes cómicas y sitios de culto que albergaban contenidos como fotografías manipuladas satíricamente, listas de chistes antisistema y reseñas
Cronología 1957
Fundación del grupo Situationist International
001-222 50 ideas digital.indd 120
22/02/2012 16:12:26
Culture jamming satíricas. Una de estas páginas, Something Awful, fue fundada en 1999 y desde entonces ha arrastrado una notable panda de seguidores anárquicos —que a veces se identifican ellos mismos como goons («gansos»)— a sus foros.
121
Hardware jamming Para aquellos que se toman en serio eso de bloquear las señales culturales indeseadas de su vida, en Internet hay una gran variedad de instrucciones en «hardware de código abierto» para crear dispositivos que ayudan a hacerlo. Estos van desde mandos a distancia que sirven para apagar cualquier aparato de televisión no deseado en un espacio público, hasta aparatos para bloquear con las señales de los teléfonos móviles, y también con elementos más sencillos, como etiquetas de ropa falsas de diseñadores conocidos. La esencia de estos dispositivos se puede resumir en «tomar el control de la información que te rodea» y está asociado a la cultura creadora y al arte de los mashups; todos ellos invitan a los individuos a no consumir cultura contemporánea de manera pasiva, sino a probarla y jugar con ella, y a reservarse el derecho a rechazar elementos de la misma sin complejos.
Además de la demolición satírica de muchos objetivos de masas en los propios foros, los goons son conocidos por organizar grupos de jugadores dentro de juegos virtuales populares, y mundos virtuales con la intención expresa de destrozar la experiencia de juego a los jugadores convencionales: una forma de contracultura virtual que también sirve de reconocimiento de que buena parte de la cultura digital hoy se ha convertido en lo bastante dominante como para merecer ser bloqueada por derecho propio.
Culture jamming político La pura velocidad con la que las co-
munidades virtuales son capaces de crear y esparcir respuestas a los acontecimientos hace que la culture jamming sea especialmente adecuada para dar la vuelta a campos como la política: una tendencia que se hizo totalmente obvia durante las elecciones generales británicas de 2010. A las pocas horas de su aparición, una serie de carteles del Partido Conservador que utilizaba la frase «Nunca había votado Tory antes, pero...» empezaron a ser mandados y colgados online y enlazados a miles, pero acabando la frase con «... porque tengo siete años y me gustan los Power Rangers», «... pero creo en el alarmismo social». La actividad hizo surgir rápidamente una página web, un grupo de Facebook y un trending topic en Twitter, además de una controversia
1989
2003
2010
Fundación de la revista Adbusters
Furor de la controversia Santorum
El Jamming se convierte en parte integral de unas elecciones generales británicas.
001-222 50 ideas digital.indd 121
22/02/2012 16:12:26
122
Placer y ocio
Lo alternativo frente a lo dominante Para algunos críticos del concepto culture jamming, la idea de que se puede establecer una distinción clara entre lo alternativo y lo dominante resulta en sí misma sospechosa. Tanto los productos dominantes y de marca como los productos independientes y «de código abierto», afirman, atraen a la gente a través del mismo mecanismo fundamental: se les está vendiendo una imagen y una idea concretas,
que en el caso de los productos antimasas es simplemente una imagen antisistema. Tales críticos tratan las formas más extremas de culture jamming como algo sin sentido, en cuanto a que «ir contra el sistema» no es una postura que conduzca a un cambio significativo ni a una mejora del mundo... y que hay formas más efectivas de activismo para aquellos que sí desean cambiar el mundo.
dentro de la corriente principal de la propia campaña electoral, cuando los diputados del Partido Laboralista enlazaron y comentaron las bromas de la campaña de carteles.
Bloquear el Messenger El potencial que supone la extendida subversión de cualquier mensaje es tanto una fuente de goce para muchas personas como un factor importante en buena parte de la publicidad y el debate público modernos. Por otro lado, en el debate virtual hay mucho de efímero, de casi invisible entre la inmensa cantidad de información disponible, o de interés para grupos concretos ya convencidos de una postura. Por otro lado, la importancia creciente de algunos sitios web como fuerza principal de referencia significa que la capacidad de las comunidades virtuales para «bloquear» un mensaje y sustituirlo por otro puede acabar siendo importante. Un ejemplo de ello es la «controversia Santorum», que surgió en 2003 cuando el antiguo senador republicano estadounidense Rick Santorum comentó, durante el transcurso de una entrevista, que no creía que la Constitución garantizara la privacidad a los adultos cuando mantenían relaciones sexuales consentidas; es decir, que el estado tenía derecho a regular los actos homosexuales de la misma manera que regula contra actos como el incesto o el abuso de menores. Los comentarios de Santorum levantaron críticas considerables, pero tal vez el efecto más perdurable de la reacción contraria a ellos fue la convocatoria de un concurso por el columnista Dan Savage para crear un significado alternativo para el peculiar apellido «Santorum» e intentar introducirlo en el uso común. La campaña, que dotó a la palabra con una desagradable definición sexual, fue un éxito tal que actualmen-
001-222 50 ideas digital.indd 122
22/02/2012 16:12:26
Culture jamming
«
123
Toda mi forma de ver las cosas es que en Internet hay cosas terribles: ¿puedo escribir sobre ellas y transformarlas en algo de tono humorístico? Rich Kyanka
»
te, cuando ponemos en cualquier buscador el nombre santorum, la obtenemos entre los primeros resultados.
Bombardeo Google Las campañas exitosas para «atacar» una
palabra o un mensaje concretos intentan a menudo explotar una técnica conocida como el bombardeo Google: el intento de aprovechar la operación de los algoritmos de los buscadores estableciendo grandes números de conexiones con una página concreta desde otras páginas, todas conectando desde la misma frase. El buscador de Google es hoy extremamente resistente a tales esfuerzos, pero quedan algunos resultados notables, incluyendo el primer resultado de la búsqueda «French military victories» («victorias militares francesas»), que llevaba a un resultado de Google en broma que preguntaba: «Quiso decir: “French military defeats”?» («derrotas militares francesas»). Con estas técnicas se pueden obtener resultados tanto serios como en broma. «Googlewashing», por ejemplo, describe una especie de culture jamming inverso, en el que un interés dominante o corporativo intenta cambiar agresivamente los primeros resultados que aparecen cuando se busca un término, o para asegurar que el tráfico se desvía de los rivales y va hacia él. Las batallas virtuales por las percepciones pueden ir y venir entre distintas cuentas, como muchas de las «guerras de edición» dentro de sitios de referencia como Wikipedia atestigua... donde introducir mensajes poco favorables está hoy lejos de ser un arte de aficionados.
La idea en síntesis: usar herramientas digitales para desmantelar ideas
001-222 50 ideas digital.indd 123
22/02/2012 16:12:26
124
Negocio y gobierno
30
E-comercio
Las transacciones comerciales son uno de los usos más esenciales de Internet y puede parecer como uno de los más simples. Los servicios se compran y se venden siguiendo una mecánica similar a la de las transacciones físicas. Y con los bienes al por menor, de manera muy parecida a lo que se hace en muchas tiendas o por catálogo, se seleccionan los productos, se pagan y luego se acuerda la entrega... ya sea por correo, en el caso de bienes físicos, o vía descarga. Pero detrás de todo esto hay una red administrativa y logística de una complejidad inmensa, en especial cuando se trata de procesar transacciones financieras, garantizar la seguridad de los datos y enfrentarse a la proliferación de fuerzas del fraude y la estafa. La seguridad es el primero y más importante factor de la existencia del comercio virtual. La World Wide Web se abrió para su uso comercial en 1991, al año siguiente de su nacimiento, pero no fue hasta 1995 cuando se dio el más importante paso para ayudar al despegue de las ventas online: el lanzamiento público de un protocolo llamado Secure Sockets Layer (SSL) que se podía utilizar para codificar el tráfico entrante y saliente de una página web. Antes, la información viajaba por la web en lo que era esencialmente una forma abierta, potencialmente legible por cualquiera que la interceptara. El SSL significó que ya se podía crear un sitio web con una «capa» segura sobre su tráfico, codificando toda la información que llegara y saliera del servidor de modo que, aunque fuera interceptada, no fuera posible saber los detalles que se estaban mandando. El SSL ha seguido mejorando desde su aparición; en especial, 1999 vio la aparición de una mejora llamada Transport Layer Security (TLS), que ofrecía protección adicional sobre la última versión de SSL, y ambos protocolos se han seguido desarrollando desde entonces.
Cronología 1992
1995
Fundación de Book Stacks Unlimited
Lanzamiento online de Amazon y eBay
001-222 50 ideas digital.indd 124
22/02/2012 16:12:26
E-comercio
125
Amazon y eBay Aunque no fueron realmente los primeros sitios
de compra virtual, dos gigantes modernos, Amazon y eBay, fueron los primeros en causar un impacto profundo y de empezar a acostumbrar al mundo a la idea de que las cosas pueden comprarse, además de verse online. Entre ellos, estos sitios web también representaban el tipo básico de negocio que Internet ofrecería tan bien: vender una gama más amplia de bienes nuevos de la que puede caber en cualquier tienda física, y ofrecer un mayor mercado consolidado para las subastas de artículos de segunda mano y para la reventa que cualquier otra ubicación física. El éxito apabullante de estas dos empresas es también un indicador revelador del dominio del e-comercio («comercio electrónico») por las grandes marcas. Amazon fue fundado en 1994 y lanzado por la red en 1995, inicialmente como una librería. No era la primera que operaba en Internet (había sido la compañía Book Stacks Limited, fundada en 1992), pero gradualmente fue ampliando sus productos y servicios. A diferencia de muchas otras compañías «puntocom» de los primeros tiempos, Amazon planeó desde el principio no buscar la rentabilidad du-
¿Cuánto... y quién se beneficia? En 2010, Amazon rozó los 25 mil millones de dólares en ingresos, mientras que eBay rondaba los 9 mil millones. Pero esto es solo una fracción del dinero que se gasta hoy día en el comercio minorista virtual. El mayor mercado mundial, el estadounidense, movió en 2010 unos 170.000 millones de dólares en ventas —un 7 por 100 de su mercado minorista total—, mientras que el mercado global se prevé que supere la cifra del billón de dólares en 2014. La importancia del crecimiento del e-comercio resulta difícil de predecir, pero hay dos tendencias relacionadas que sugieren que los negocios tradicionales ubicados en la zona media entre las firmas enormes y las tipo boutique podrían encontrar la transición muy difícil de hacer: los negocios muy grandes se benefician más de las mejoradas economías de escala y tienen acceso al enorme público que ofrece Internet, mientras que los negocios muy especializados y las boutiques es mucho más probable que encuentren su público particular. Para aquellos que se encuentran a medio camino, el futuro virtual podría ser cada vez más inhóspito.
1999
2002
2010
Introducción de Transport Layer Security (TLS)
eBay adquiere PayPal
Amazon alcanza unos ingresos de 25 mil millones de dólares
001-222 50 ideas digital.indd 125
22/02/2012 16:12:26
126
Negocio y gobierno rante unos cuantos años... y no obtuvo su primer rendimiento anual hasta 2001, un índice de la naturaleza extremamente lenta de la venta virtual al detalle en comparación con otros negocios digitales. eBay se lanzó al mundo virtual el mismo año que Amazon, 1995, con el nombre AuctionWeb, y en 1998 tenía medio millón de usuarios. Aquel año salió a bolsa y siguió creciendo rápidamente, y alcanzó unos ingresos de más de siete mil millones de dólares en 2008. Sin embargo, su adquisición más importante llegó en 2002, cuando se convirtió en único propietario del negocio de e-comercio PayPal —una empresa que permite a las personas efectuar y recibir pagos y transferencias de dinero por la red, a través de una cuenta con el propio PayPal, en vez de con una cuenta bancaria o una tarjeta de crédito.
Sistemas de pago Servicios como PayPal han demostrado ser una parte esencial de la creciente economía virtual, puesto que facilitan muchísimo la compra de productos y servicios en la red, tanto para los clientes como para las empresas (para muchos negocios virtuales, procesar las transacciones con tarjeta de crédito a través de sistemas seguros por todo un espectro de distintos sistemas bancarios nacionales es uno de los aspectos más caros y que implica más recursos de su negocio). Las cuentas PayPal también permiten a pequeños negocios y particulares efectuar y recibir pagos de manera segura, cuando a menudo no serían aceptados para establecer un sistema de pagos a través de un servicio de banca convencional. El servicio funciona hoy día en
Hacer vida social Como todo lo demás en la red, la siguiente etapa del e-comercio es estar influenciado por las redes sociales. Multinacionales líderes como Procter & Gamble han empezado a experimentar con la venta de marcas directamente por Facebook... con la plataforma de ventas impulsada por Amazon. Y la cultura virtual de las recomendaciones e informes individuales, que Amazon y otros tantos hicieron para alimentar de entrada, está adquiriendo un nuevo nivel de complejidad gracias a la sofisticación del sistema de recomendaciones en las plataformas sociales. Los sistemas de recomendación automatizados efectivos hace años que son una prioridad para los minoristas online ansiosos de entender, predecir y aprovechar el comportamiento de sus usuarios. Pero cada vez se pone más el énfasis en «fichar» a los propios usuarios como embajadores informales y consultores de las marcas: algo con lo que no todos los consumidores, ni todos los negocios, se sienten del todo cómodos.
001-222 50 ideas digital.indd 126
22/02/2012 16:12:26
E-comercio
«
127
No existe un equivalente físico a aquello en lo que Amazon.com se está convirtiendo. Jeff Bezos
»
más de 190 mercados, y también a través de un sistema de mensajes de texto por teléfono móvil, y ha ayudado a definir el modelo para muchos otros sistemas de pago y de moneda... además de haber hecho un buen avance a la hora de ser aceptado junto a los pagos con tarjeta de crédito como una forma de pagar productos y servicios muy habitual.
Minoristas principales Paralelamente a estos florecientes negocios basados en Internet, casi todos los minoristas principales del mundo tienen actualmente una considerable presencia virtual, con una sofisticación creciente de los productos y los servicios disponibles. Los supermercados han desarrollado mucho sus compras virtuales y entregas a domicilio, mientras que muchas tiendas físicas —en especial las que venden medios, como libros, CD y DVD— han visto menguar sus negocios o se han visto abocados a adaptarse a una experiencia más «de destino» para diferenciar la compra física de la compra virtual. Y acompañando todo esto ha habido también un aumento gradual de la sofisticación de los servicios de entrega y logística: algo ejemplificado por Amazon, cuyos centros de distribución situados estratégicamente pueden ser más grandes que diez campos de fútbol.
La idea en síntesis: la web es el mayor escaparate del mundo
001-222 50 ideas digital.indd 127
22/02/2012 16:12:26
128
Negocio y gobierno
31 La publicidad en la red
A medida que los productos digitales consumen cada vez más tiempo y atención humanos, la publicidad virtual se está convirtiendo en una parte cada vez mayor de muchos negocios, y está cambiando gradualmente los mecanismos de la propia publicidad. Como otras herramientas digitales, los costes de entrada de la publicidad virtual son mucho menores que los costes en medios tradicionales, y los datos disponibles son potencialmente mucho más precisos. Pero el nuevo territorio viene asociado a nuevos peligros, y también a un grado de influencia nuevo y sin precedentes ejercido por las mayores compañías de este campo. Los primeros anuncios en la red empezaron a aparecer a mediados de la década de 1990 y, como era bastante previsible, estaban basados en los modelos impresos existentes: en la parte superior de las páginas podían aparecer banners, o towers en los laterales. Clicar en estos anuncios llevaba a la gente directamente a la página web de una empresa, lo que marcaba al mismo tiempo una relación nueva inmediata entre un anuncio y una empresa, y una manera mucho más precisa y rápida de medir la efectividad de un anuncio de lo que nunca antes había sido posible. Hacia finales de esa década, los anuncios animados e interactivos eran cada vez más habituales en las páginas web y, con los inversores corriendo a invertir su dinero en las empresas online, el mercado empezó a despegar a un ritmo exponencial... al menos hasta que explotó la burbuja de las «puntocom» a finales de 2000. En esos momentos empezaba a quedar claro que los negocios y la publicidad virtual no estaban dando todo lo que se había esperado: la eficacia de la publicidad en webs tendía a ser escasa, y, por tanto, la predisposición de las empresas a pagar por ella se redujo.
Servicios La publicidad en todos los formatos y medios siempre ha tenido sus proveedores especializados... y la publicidad virtual ha de-
Cronología 1994
1996
1998
Aparecen los primeros anuncios en la red
Llegan las primeras empresas de servicios publicitarios
Se muestra por primera vez la publicidad de «pago por clic»
001-222 50 ideas digital.indd 128
22/02/2012 16:12:27
La publicidad en la red
129
mostrado no ser ninguna excepción. Casi desde el principio, las empresas especializadas en «servicios de publicidad» encontraron un mercado virtual bien dispuesto de gente deseosa de beneficiarse de mostrar publicidad en sus webs, pero que era incapaz o no quería pedirla personalmente. La primera empresa dedicada a los servicios publicitarios por Internet apareció en 1996. Poco después se lanzó la práctica del «servicio remoto», que permitía a una empresa especializada gestionar la publicidad en la página de cualquier cliente que instalara su código. La aparición de anuncios adecuados se seleccionaba, se cargaba, se actualizaba y se gestionaba desde una compañía de servicios; se controlaban las estadísticas del rendimiento, y normalmente también estaba disponible un targeting especializado basado en el contenido y en el comportamiento de los usuarios.
El poder de los datos El mundo virtual ofrecía algo que la pu-
blicidad no había tenido nunca antes: estadísticas precisas y en tiempo real sobre la efectividad de los anuncios. La publicidad virtual de los primeros tiempos tendía a funcionar sobre la base de cuántas veces se aparecía un anuncio a los distintos usuarios: el número de «visitas» que recibía una página en la que aparecía el mismo. La facturación según esta medida se conocía como enfoque «coste por impresión». Sin embargo, en 2000 Google introdujo un sistema llamado AdWords que permitía a los clientes adquirir pequeños anuncios de solo texto que aparecían junto a resultados concretos de búsqueda. La em-
Cuidado con el fraude del clic La publicidad virtual es terreno abonado para el engaño, destinado tanto a los consumidores como a los propios anunciantes. Tal vez la manera más habitual de engañar a los anunciantes es el fraude del clic, que aprovecha la popularidad de la publicidad de pago por clic para generar una gran cantidad de clics en un anuncio concreto, lo que potencialmente costará a su operador
mucho dinero. Se trata de un delito criminal en muchas partes del mundo, pero puede resultar difícil de detectar y de demostrar. Las técnicas van desde el fraude humano en pequeña escala —alguien que sencillamente clica personalmente en los enlaces, o que paga a otros para que lo hagan— hasta el fraude automatizado a mayor escala, mediante programas que imitan ser usuarios.
2000
2006
2008
Google inicia la publicidad por palabras clave
Facebook anuncia un acuerdo de publicidad con Microsoft
Google adquiere DoubleClick
001-222 50 ideas digital.indd 129
22/02/2012 16:12:27
130
Negocio y gobierno
¿Cuándo estamos ante un anuncio que no es un anuncio? Hoy día, a menudo, la mejor publicidad para una empresa tiene poco que ver con la publicidad tradicional y mucho con las redes sociales y el enrolamiento efectivo de clientes como defensores, aunque muchos de ellos puedan no ser conscientes del servicio que están publicitando. El éxito virtual megawoosh, por ejemplo, apareció en 2009 pretendiendo mostrar un ensayo del «mayor tobogán acuático del mundo». El clip mostraba un tobogán alpino que aparecía lanzando a un hombre en traje de neopreno a unos treinta metros por el aire hasta una pequeña piscina acolchada,
e incluía un enlace a una página web del supuesto constructor del tobogán, Bruno Kammerl. Visto con mayor atención mostraba que todo el montaje era un anuncio viral del programa de Microsoft Project Professional, y el propio clip era una cuidadosa farsa hecha con cuerdas, retoques y actores especializados. Hasta hoy, el clip ha tenido más de cinco millones de visitas en YouTube, ha generado kilómetros de comentarios, ha sido visto y discutido en todo el mundo y hasta salió en un episodio de la serie de TV Mythbusters (Cazadores de mitos) en mayo de 2010. Pocos publicistas podrían aspirar a tanto.
presa había iniciado un modelo de negocio que pronto se convertiría en su principal fuente de ingresos. Al principio, los clientes pagaban a Google en base al sistema «coste por impresión», pero en 2002 la empresa pasó a un nuevo sistema que había sido implementado por primera vez en 1998 por la nueva iniciativa GoTo.com, conocido como «pago por clic», y significaba que los anunciantes solo habían de pagar cuando el usuario clicaba físicamente sobre su anuncio. Con esto, Google no solo se convertía en su propio servidor, sino que además había dado con un potente modelo nuevo para usar una combinación de datos y la enorme penetración de su buscador para transformar el mercado publicitario virtual. Los ingresos por publicidad de Google en 2010 fueron de más de 28.000 millones de dólares, gracias en buena parte a AdWords, pero ayudado por un sistema externo de servicios de publicidad lanzado en 2003. Este sistema, llamado AdSense, permite a cualquier propietario de una página web fichar y usar Google como su servidor publicitario. Google pone entonces publicidad en su página, pagando ya sea por impresión o por clic. El dominio de Google de la publicidad en la web fue todavía más afianzado con la compra en 2008 del principal proveedor de publicidad, DoubleClick, una adquisición que dio a Google el control de casi el 70 por 100 del negocio mundial de servicios publicitarios por la red.
Social, móvil y más allá Con la cultura digital transformada por el Internet móvil, las redes sociales y una gama cada vez más di-
001-222 50 ideas digital.indd 130
22/02/2012 16:12:27
La publicidad en la red
131
«
versa de servicios y actividades virtuaPrimero pensábamos les, la publicidad está avanzando rápi- que el PC era una damente más allá de los modelos cocalculadora... Luego nocidos de banners y palabras clave. En descubrimos los concreto, la cantidad creciente de medios en streaming ha impulsado un enfo- gráficos, y pensamos que más tradicional —incluyendo pu- que era una tele. Con la blicidad en vídeo y audio, de manera muy World Wide Web, nos parecida a la televisión y la radio—. La hemos dado cuenta de mayoría de usuarios de la web están dis- que es un folleto. puestos a tolerar medio minuto de publicidad a cambio de audio o vídeo gratui- Douglas Adams tos por streaming. El servicio de música en streaming Spotify, por ejemplo, ofrece canciones gratis a los usuarios dispuestos a escuchar de vez en cuando anuncios de 15 a 30 segundos. Un enfoque similar se aplica cada vez más a los medios interactivos, como los videojuegos, que tienen un público muy atento y que se expande a pasos agigantados: los anuncios pueden insertarse en secuencias de carga o hasta dentro de los propios juegos, con el cada vez más popular modelo de juegos gratis financiados por la publicidad.
»
Los medios sociales son también un foco creciente de atención virtual y un campo de innovación en el patrocinio y la publicidad. Twitter, por ejemplo, permite a los anunciantes pagar para que un trending topic aparezca encabezando las listas del sitio o promocionar una cuenta corporativa o tuits individuales para llamar la atención. Facebook, mientras, se está convirtiendo rápidamente en uno de los primeros sitios mundiales para colocar publicidad, ofreciendo un targeting enormemente potente a tipos de clientes específicos... y basando su publicidad de servidor exclusivamente en el sistema de Microsoft adCenter, en vez de en Google. La publicidad digital, que es ya el mercado publicitario de mayor crecimiento mundial, parece estar aquí para seguir extendiéndose y evolucionando muchos años, impulsada por encima de todo por las tendencias sociales, móviles y orientadas al juego.
La idea en síntesis: a medida que la atención se centra en la web, la publicidad también lo hace
001-222 50 ideas digital.indd 131
22/02/2012 16:12:27
132
Negocio y gobierno
32 Analítica La cultura digital gira en torno a una explosión de información —no solo el acceso a diferentes fuentes de información sobre el mundo, sino también información sobre el comportamiento digital de las personas—. Desde las páginas web que visitas hasta las compras virtuales que haces, y desde los videojuegos a los que juegas hasta el tiempo exacto que dedicas a hacerlo, casi todo lo que se hace a través de dispositivos digitales es mensurable. Eso ha llevado al desarrollo de una amplia e influyente industria basada en el análisis de estos datos. La analítica de tráfico —el análisis de la naturaleza exacta del tráfico en la red hacia sitios web, y hacia páginas web concretas dentro de estos sitios— es el alma de este proceso, pero en absoluto lo único que encierra. Las unidades más importantes en analítica tienen que ver con tres cosas: cuánta gente visita una página concreta, o sitio, o servicio; cuánto tiempo pasan en ella, y cuáles son sus rutas de llegada y de salida. Relacionada con esta medida, y de importancia creciente, es la segunda de ellas; cuánto ruido rodea a algo... y en especial cuánto se comenta y se reproduce en los medios sociales. El número de usuarios es la más básica y la más antigua de estas medidas. Originariamente, alguien que operara un sitio web podría sencillamente haber contado el número total de veces al que se había accedido al sitio o página, consultando esta cifra en el servidor. Esta medida —el número total de veces que se ha visto una página, o sus «visitas»— puede seguir siendo útil, pero en general ha sido superada por el proceso más avanzado de contar el número de personas distintas usando algo. Esto se determina mirando las direcciones IP únicas de los usuarios, lo que hace posible determinar una cifra del número de usuarios únicos por día, semana, mes y hasta año: una vez que el sitio ha sido visitado desde una dirección IP concreta, esta dirección ya no se vuelve a contar durante el período estudiado.
Cronología 1993
1994
Lanzamiento de la compañía de análisis de la red Webtrends
Aparición de la primera herramienta comercial de análisis de la red
001-222 50 ideas digital.indd 132
22/02/2012 16:12:27
Analítica
133
Herramientas de control Hay una gran variedad de empresas
que ofrecen herramientas para analizar el tráfico en la red, pero básicamente hay dos maneras de registrar tales datos. El primero y más antiguo de estos métodos es el análisis de los archivos de entrada en el servidor que alberga un sitio web, algo que ha sido posible desde los inicios de Internet. El segundo método y más popular actualmente comporta adjuntar una pequeña cantidad de código de etiquetado a una página web, permitiendo que sea monitorizada por un sitio externo especializado: uno de los más populares de estos sitios es el servicio gratuito de análisis de Google, Google Analytics, que recoge información detallada sobre cómo se utiliza cualquier página o sitio web que haya elegido instalar su código de rastreo. Además de las cifras de visitantes, el tiempo que pasa cada usuario utilizando algo es otro indicador clave, junto a otro factor relaciona-
¿Cuántos? ¿Qué nivel de tráfico tienen los mayores sitios web del mundo? La respuesta es siempre cambiante y creciente, pero, según la empresa de información de la web Alexa en el momento de redactar este libro, a principios de 2011, los primeros sitios del ranking mundial eran un trío que no sorprende en absoluto: en el número uno, la página de bienvenida de Google de EE. UU.; en el número dos, Facebook, y en el tres, YouTube (que es propiedad de Google). Otra empresa de información, Compete.com, situaba la cifra mensual de visitantes únicos a Google.com en unos 150 millones a finales de 2010, comparados con los 142
millones de Facebook y los 117 de YouTube. Fuera de estos servicios web, el primer servicio de blogging, el blogger de Google, está en el séptimo puesto mundial de sitios visitados según Alexa, con Wikipedia como fuente de información más popular en el octavo puesto; Amazon como sitio de compras más usado en el 14.º, la BBC como sitio de noticias más visitado en el 44.º, el New York Times como periódico virtual más consultado en el puesto 93, y el Huffington Post como primer blog mundial en el puesto 123, con unos 13 millones de visitantes únicos mensuales a finales de 2010.
1997
2005
Inicio del análisis por terceras partes
Lanzamiento de Google Analytics
001-222 50 ideas digital.indd 133
22/02/2012 16:12:27
134
Negocio y gobierno do: cuántas páginas distintas ve dentro de un sitio, y cuántas acciones llevan a cabo. Cuando alguien llega a un sitio web y visita solo una página, se conoce como bounce («rebote»). El porcentaje de visitas que son bounces, o tasa de rebotes, se considera una estadística importante para muchas páginas web, dependiendo del objetivo del sitio. Para un periódico o una revista, por ejemplo, una tasa de rebote de más de un tercio de sus visitas se puede considerar un índice de mala actuación del sitio web, mientras que un sitio que se propone ofrecer fragmentos de información al consumidor de rápido visionado puede esperar que tres cuartos o más de sus visitas sean rebotes. El número, duración y «profundidad» de visitas a un sitio web —es decir, cuántas páginas distintas dentro del mismo utiliza un visitante medio— son importantes, entre otras cosas, para vender publicidad virtual. Igualmente importante en este campo es el «itinerario clic» que siguen los usuarios: con qué interactúan realmente una vez en el sitio, y cuándo y dónde tienen más tendencia a abrir la publicidad.
Itinerarios de navegación De manera más general, los cami-
nos de entrada y salida de cada visitante constituyen una informa-
Refinamientos cada vez más refinados El arte de modificar los servicios digitales en respuesta a los datos es una de las técnicas más importantes y sofisticadas en muchos negocios del siglo xxi. Tanto para los negocios como para los comentaristas, el análisis de datos de los usuarios ofrece una oportunidad sin precedentes para entender los patrones de uso e interés entre los usuarios. Las mayores compañías de juegos que crean productos para plataformas como Facebook pueden usar más de mil millones de datos al día para explorar precisamente qué aspectos de sus programas han captado o no el interés de sus usuarios, además de probar y comparar si todo
001-222 50 ideas digital.indd 134
—desde los distintos niveles de dificultad hasta los distintos colores y ubicaciones de los objetos en la pantalla— genera interés o no. Esto ha llevado a innovaciones como el split testing, introducido online por Amazon, por el que se prueban alteraciones únicas en un sitio web mostrando dos versiones distintas del sitio a visitantes distintos, y viendo cómo esta diferencia entre ellos cambia su comportamiento. Paralelamente a técnicas como esta están creciendo otras maneras de permitir a los propios usuarios expresar sus preferencias e ideas, y la ciencia y el arte de analizar los datos de comportamiento se están haciendo cada vez más refinados.
22/02/2012 16:12:27
Analítica
«
135
El reto para la industria está en divulgar el conocimiento y formar a los usuarios sobre qué hacer con los datos. Brian Clifton
»
ción importante para un sitio web: ¿cómo han llegado y adónde han ido después? Las fuentes de llegada se dividen normalmente entre visitas directas (por las que alguien escribe en la dirección web y se dirige directamente a un sitio), visitas referidas (por las que se ha seguido un enlace de un sitio a otro) y las referidas mediante un buscador (cuando seleccionamos el enlace de un sitio web elegido entre una serie de resultados de búsqueda). En el último caso, la analítica de sitio web suele mostrar qué palabras de búsqueda han llevado a alguien hasta un sitio. Ninguna de estas estadísticas es inmune a la manipulación: sin embargo, en general, los datos como las cifras de visitantes únicos se tratan como medida central de la influencia de un sitio web. También de importancia creciente es la prominencia en los medios sociales de un sitio web o de una página individual... y ya existen numerosas herramientas para mostrar cuántas veces algo ha sido compartido o comentado en Facebook, enlazado vía Twitter o colgado en una serie de distintos medios sociales o de agregación. Analizar este tipo de datos puede sugerir una potente información sobre tendencias e intereses: el análisis de las menciones positivas en las redes sociales se ha utilizado para predecir resultados tales como el éxito de taquilla de una película. Y ninguna empresa con presencia digital actualmente se atreve a llevar su negocio sin tener muy presente cómo se utilizan exactamente sus servicios, qué se comenta de ellos, cómo se comparten y cómo compiten.
La idea en síntesis: los datos sin analizar no significan nada
001-222 50 ideas digital.indd 135
22/02/2012 16:12:27
136
Negocio y gobierno
33 Reconocimiento
óptico de caracteres
El reconocimiento óptico de caracteres, u OCR (del inglés Optical Character Recognition), es el proceso por el cual una máquina escanea y reconoce palabras y cifras impresas. Componente vital del esfuerzo por llevar todo el conocimiento humano a un formato disponible y «buscable» en formato digital, permite que los libros y otros documentos impresos se conviertan automáticamente en formatos digitales, en vez de tener que escribirse laboriosamente a mano. Los orígenes del OCR son anteriores a Internet, pero, como tantas otras tecnologías, su pleno potencial está asociado a los recursos de la red. De manera similar, el campo de enseñar a las máquinas a «leer» textos manuscritos y otra información no disponible en formatos impresos sigue progresando. La primera patente de una forma de OCR se presentó ya en 1929, pero los primeros esfuerzos por crear máquinas de este tipo fueron engorrosos y muy caros, y no fue hasta 1955 cuando aparecieron los primeros aparatos comerciales, el primero de ellos una máquina instalada en el Reader’s Digest. Las primeras máquinas solo eran capaces de reconocer una selección limitada de caracteres, y estos tenían que estar impresos en determinados tipos de letras: la primera de estas tipografías era conocida como OCR-A. Tenía una forma tan simplificada y estandarizada que podía resultar difícil de leer. En 1968 apareció la tipografía OCR-B, que usaba siluetas más suaves y caracteres más claros para el ojo humano. A mediados de la década de 1970, estas tipografías empezaban a dominar por todo el sector, y el OCR se empezaba a usar mucho entre las empresas para tareas como el procesado de datos bancarios y de contabilidad, clasificación de correo (el servicio de correos de Estados Unidos empezó a usar una forma de OCR en 1965) y pago de facturas (In-
Cronología 1955
1965
Aparecen las primeras máquinas comerciales OCR
El servicio de correos de EE.UU. adopta el OCR
001-222 50 ideas digital.indd 136
22/02/2012 16:12:27
Reconocimiento óptico de caracteres
137
«
glaterra fue el primer país de Europa en ¿Qué ocurre cuando introducir un sistema de OCR en la ban- los ordenadores pueden ca, vía el National Giro, en 1968). Desempezar a leer todos de mediados de la década de 1960, emlos documentos de la pezó a ser posible conectar los sistemas OCR directamente a los ordenadores, civilización humana? produciendo datos como archivos elec- Ben Vershbow trónicos. Pero las máquinas siguieron siendo engorrosas y caras hasta la primera mitad de la década de 1970, con un coste de decenas de miles de dólares, con lo que solo estaban en los despachos de las grandes empresas.
»
En 1974, el OCR avanzó significativamente con el invento de Ray Kurzweil de un sistema «omnitipográfico» capaz de identificar los caracteres impresos de varias tipografías distintas, en vez de solo los caracteres diseñados específicamente para los aparatos OCR —un avance que por primera vez permitía la digitalización automática en bloque de documentos impresos, como las revistas y los periódicos, para convertirlos
Leer libros Digitalizar el contenido de libros es uno de los usos modernos más importantes del OCR, pero también ha supuesto siempre un problema. Gracias a la encuadernación, las páginas de un libro no quedan absolutamente planas al abrirse, sino ligeramente curvas. Eso significa que una imagen escaneada de las páginas de un libro abierto distorsiona ligeramente el texto, lo cual dificulta mucho que el programa lo procese con precisión. Hasta hace poco, las maneras principales de tratar este problema suponían o bien desencuadernar el libro —lo que en realidad lo destrozaba— o apretar las páginas bien planas con una lámina de cristal grueso, un método
ineficiente que tampoco era el más adecuado para muchos libros. Pero cuando el gigante de Internet Google empezó a digitalizar el contenido de miles de libros para el proyecto Google Books en 2004, ayudó a perfeccionar una nueva forma de tratar este problema. La técnica de Google consiste en cámaras infrarrojas que se utilizan para modelar la forma y curvatura de las páginas de un libro en tres dimensiones dentro del escáner. El resultado luego se transmite al programa de OCR, lo que le permite compensar los efectos distorsionadores de la curvatura y reconocer el texto con precisión y rapidez sin dañar los libros.
1974
1993
Se inventa el sistema omnitipográfico
Aparece el Intelligent Character Recognition (ICR) como tecnología comercial
001-222 50 ideas digital.indd 137
22/02/2012 16:12:27
138
Negocio y gobierno
«
La urgencia por digitalizar el documento escrito es uno en una serie de momentos críticos de la larga saga de nuestro impulso por acumular, almacenar y recuperar la información de manera eficiente. Anthony Grafton
»
en bases de datos aptos para la búsqueda—. Para tareas que requieren un nivel muy alto de precisión, todavía había que recurrir a las tipografías específicas OCR. Incluso hoy, la precisión total solo puede garantizarse con la supervisión humana, y los productos OCR accesibles al gran público solo tienen una tasa de reconocimiento de entre el 70 y el 99 por 100, dependiendo de la tipografía, la calidad de impresión, el papel, el contexto y el propio contenido.
Cómo funciona Casi todas las formas de OCR funcionan si-
guiendo uno de dos métodos. En cada caso, una imagen de una página impresa se escanea mediante un sistema óptico —básicamente, tomando una imagen fotográfica de la misma, y luego la imagen es analizada por un programa informático—. El método de análisis más antiguo y más simple se llama adaptación de matriz, que toma cada número o letra de la página uno por uno, separándolo en una serie de puntos claros y oscuros en una cuadrícula diminuta, la matriz de su título. Estos puntos se comparan entonces con una biblioteca de referencia de caracteres diferentes, hasta que un número suficiente de puntos coincide como para que el ordenador considere que el carácter en la imagen coincide con un carácter concreto de su memoria. El segundo método es un proceso más complejo llamado extracción de rasgos. En vez de intentar comparar caracteres con información fija almacenada en su memoria, un programa que utiliza esta técnica —también conocido como «reconocimiento inteligente de caracteres» o ICR— busca rasgos generales en la página impresa, de una manera parecida a la gente cuando lee. ICR está lo bastante avanzado como para ser utilizable no solo con un conjunto de topografías distintas, sino también con caligrafía manuscrita, aunque el programa ha de ser «entrenado» para reconocer los rasgos individuales de la caligrafía del usuario. Los programas ICR incluyen a menudo procesos de aprendizaje que les permiten exhibir un grado de inteligencia artificial, buscando activamente y recordando patrones. Cuando está correctamente entrenado para leer la letra de un individuo, la tasa de reconocimiento puede ser de más del 90 por 100, lo que lleva a innovaciones en teoría potentes en el campo de la anotación de datos y de la escritura rápida en una máquina.
001-222 50 ideas digital.indd 138
22/02/2012 16:12:27
Reconocimiento óptico de caracteres
139
Mejores datos a través del CAPTCHA Excepto cuando una tipografía diseñada específicamente para OCR se utiliza en buenas condiciones, hasta las mejores tecnologías OCR cometen algunos errores, en especial cuando se trata de libros más viejos, más complejos o con tipografías anticuadas, palabras o maneras de escribirlas poco habituales, o papel estropeado. Eso significa que siempre es necesario cierto grado de supervisión humana para garantizar la precisión. Sin embargo, con millones de textos escaneados, es sencillamente poco eficiente emplear trabajadores a revisar cada texto o hasta cada pequeño problema dentro de un texto. Una solución elegante
a este problema implica el uso de CAPTCHAS: textos de lectura utilizados por millones de páginas web para diferenciar a los visitantes humanos genuinos que desean colgar comentarios, de los programas que intentan llenar Internet de enlaces de spam. Estos tests suelen pedirnos que volvamos a teclear un par de palabras escritas con un patrón enmascarado. Convirtiendo una de estas palabras en algo que un programa OCR encontró difícil de entender, se hace claramente posible utilizar la capacidad de lectura de miles de personas distintas para resolver algunos de los problemas más complicados para los sistemas OCR, palabra a palabra.
Como sugiere la evolución del ICR, el OCR es un campo cada vez más especializado. Dentro de él los programas tienden a ser usados para una de estas dos funciones específicas: el reconocimiento de texto y la captación de grandes cantidades de datos repetitivos. Actualmente, los programas OCR están a menudo integrados en una serie de aplicaciones comunes —desde el Acrobat Reader de Adobe hasta el Microsoft Office—, además de estar disponibles gratuitamente en la red. La aplicación más común del OCR sigue siendo con textos escritos en el alfabeto latino, pero va mejorando gradualmente para lenguajes en otros alfabetos, desde el griego y el ruso hasta el chino y el árabe, por no hablar de otras formas escritas, incluyendo la música. Tal vez lo más destacable es que el OCR es también una de las tecnologías centrales de la continuada digitalización de millones de libros y documentos de todo el mundo, un proceso que está llevando siglos de página impresa al reino digital.
La idea en síntesis: la lectura mecanizada está derribando las barreras digitales
001-222 50 ideas digital.indd 139
22/02/2012 16:12:27
140
Negocio y gobierno
34 Traducción automática
Aparte de la censura, la mayor y única barrera para la comunicación virtual entre muchos individuos es el idioma, y la World Wide Web se puede considerar como una serie de redes solapadas, separadas las unas de las otras por restricciones lingüísticas. Teniendo esto en cuenta, los programas informáticos capaces de traducir entre idiomas con rapidez y precisión son una herramienta importante, y que tiene una larga y distinguida historia digital. Aunque la traducción automática ha sido fuente de especulaciones durante siglos, la historia de la traducción mecanizada práctica empezó en la década de 1950, con los primeros experimentos positivos estadounidenses con la traducción automática del ruso. Sin embargo, las dificultades para traducir más que un pequeño fragmento de texto en los primeros ordenadores eran considerables, debido a las complejidades del vocabulario, la gramática y la semántica. El proceso de traducir un idioma implica dos etapas clave: determinar exactamente el significado del texto, y luego plasmar ese significado lo más precisamente posible en un idioma distinto. La sencillez de esta explicación oculta exactamente lo complejo que resulta determinar el significado de un texto, y no fue hasta la década de 1980 cuando los ordenadores empezaron a ser lo bastante potentes y a estar lo bastante distribuidos por todas partes para que hubiera avances significativos en enseñar a una máquina a «entender» el texto.
Dos métodos Los sistemas de traducción automática tienden a
funcionar ya sea vía normas o vía estadísticas, o una combinación de ambas. Los sistemas basados en la normativa son los primeros que se utilizaron, y el más básico de ellos seguía sencillamente un enfoque tipo diccionario, traduciendo palabra por palabra, como quien consulta un diccionario. Tales normas tienen limitaciones evidentes cuan-
Cronología 1954
1968
1983
Primera traducción totalmente automatizada
Fundación de la empresa de traducción automática SYSTRAN
Primer sistema de traducción automática en un microordenador
001-222 50 ideas digital.indd 140
22/02/2012 16:12:27
Traducción automática
141
Señala y traduce Las tecnologías digitales aportan su rendimiento máximo cuando se combinan entre ellas, y la traducción no es una excepción. Junto a las traducciones orales, entre las aplicaciones más impresionantes que han aparecido en los smartphones en los últimos años están las que combinan la traducción automática con las cámaras telefónicas para ofrecer una retraducción instantánea del mundo. Uno de los primeros programas de este tipo, el Word Lens, apareció en 2010 para iPhone. Inicialmente funcionaba solo para inglés y español, y los usuarios solo tenían que dirigir la cámara de su teléfono hacia un texto impreso en un idioma
y en la misma escena aparecía el mismo texto con su traducción. Esta, al menos, era la idea: grandes cantidades de texto crean problemas para el programa, como el movimiento de la mano, las tipografías poco habituales, la escritura a mano o la sintaxis compleja. Todo y así, el programa —como el parecido Google Goggles app, que se puede usar para fotografiar texto extranjero y luego traducirlo rápidamente mediante los servicios virtuales de Google— ofrece otro bocado tentador de un futuro en el que la traducción instantánea, a partir de palabras escritas u orales, esté al alcance de todos los bolsillos.
do nos encontramos frente a múltiples sentidos, orden de las palabras y ambigüedades... algo que se puede compensar en parte por otra técnica basada en la normativa que se conoce como traducción basada en la transferencia. Este enfoque intenta convertir la estructura subyacente de un texto a una forma intermedia básica de este idioma, y luego pasarla a una forma intermedia básica del otro idioma, con el objetivo final de convertir esa estructura en un texto completo en el idioma de llegada. Una tercera técnica basada en la normativa, más que usar formas intermedias básicas de los dos idiomas en cuestión, utiliza de hecho un lenguaje intermedio totalmente distinto para codificar el significado de un texto, conocido como «interlingua». A su vez, la traducción basada en las estadísticas, en lugar de intentar codificar el significado de un texto, se basa en analizar grandes cantidades de texto existentes en ambos idiomas. Este enfoque empezó a ganar popularidad en la década de 1990 y hoy día es muy utilizado porque es capaz de aprovechar la capacidad de los ordenadores modernos para analizar grandes cantidades de datos. Es el método que
1997
2007
2010
Babel Fish lanza SYSTRAN en la web
Lanzamiento de Google Translate
Lanzamiento de Word Lens
001-222 50 ideas digital.indd 141
22/02/2012 16:12:27
142
Negocio y gobierno
Idiomas de la web El idioma más utilizado del mundo entre los usuarios de Internet es, no es de extrañar, el inglés, usado por más de 500 millones de personas en la red en 2010... con unos 100 millones más de usuarios que el segundo idioma más utilizado en la red, el chino. Luego vienen el español, con 150 millones; el japonés, con 100 millones; el portugués, con 83 millones, y el alemán, con 75 millones. Sin embargo, el ritmo al que cambian estas estadísticas sugiere que el panorama global será muy distinto dentro de una década y que el actual dominio del inglés, que ahora impregna más del 40 por 100 de la red, será sustituido por un mundo digital más fragmentado.
El número de hablantes chinos en la red creció entre 2000 y 2010 más del 1.200 por 100, más de cuatro veces la tasa de crecimiento a la que aumentaron los hablantes ingleses. Pero el chino palidece en comparación con la tasa de crecimiento del árabe (un 2.500 por 100) y del ruso (un 1.800 por 100), con el portugués también próximo al 1.000 por 100 de aumento durante este mismo período. A medida que el mundo entero se va haciendo digital, la gran historia no será simplemente la convergencia tecnológica, sino la divergencia lingüística y una demanda siempre creciente de comunicación entre recursos en idiomas distintos.
actualmente utiliza Google en su servicio de traducción online, una vez decidió «entrenar» sus máquinas en distintos idiomas presentando unos 200.000 millones de palabras de documentos en múltiples idiomas tomados de las Naciones Unidas. Este enfoque no se basa tanto en que la máquina «entienda» el texto, sino en el estudio de patrones. Sin embargo, si se le dan un número suficiente de palabras, es bastante potente. La inteligencia artificial es también un factor cada vez más influyente en los avances de un campo, con programas capaces de aprender y mejorar su propio enfoque, siendo una herramienta esencial de investigación. En todo ello, el creciente volumen de texto digital disponible en varios idiomas es al mismo tiempo un gran activo para la investigación y un inmenso reto.
Problemas y potencial Actualmente, la traducción automática perfecta sin la ayuda del ser humano no existe. De hecho, hay quien dice que algo como la traducción «perfecta» tampoco podrá existir nunca, ni siquiera cuando la hace un humano bilingüe, puesto que las diferencias sutiles de significado entre las palabras y las ideas en distintos idiomas no pueden nunca ser totalmente reproducidas. A pesar de ello, una tasa de precisión básica de más del 90 por 100 no es rara en los programas modernos. Lo que sigue siendo más problemático son los momentos de ambigüedad y complejidad que todos los idiomas po-
001-222 50 ideas digital.indd 142
22/02/2012 16:12:28
Traducción automática
143
seen, donde tanto los análisis basados en las normas como los basados en el análisis estadístico de frases se estrellan con ambigüedades básicas como una referencia singular, una peculiaridad lingüística, algo que no tiene equivalencia lingüística directa, etc.
«
Los nativos de un idioma suelen ser capaces Toda traducción de resolver tales ambigüedades, aunque pueden requerir conocimientos especializados o es un compromiso. cierta investigación. Ni siquiera los sistemas más avanzados de inteligencia artificial ac- Benjamin Jowett tuales son generalmente capaces de resolver estas ambigüedades, aunque la frontera se va alejando continuamente, como las mejoras en el campo de las conjeturas informáticas: es decir, de enseñar a las máquinas cómo cuadrar los términos «difusos» con otros que no coinciden exactamente.
»
Aplicaciones Los programas gratuitos de red incluyen Google Translate y Babel Fish (introducido en 1997, alimentado por el sistema de traducción SYSTRAN y bautizado con el nombre del pez capaz de traducir todos los idiomas en la novela de Douglas Adams Guía del autoestopista galáctico), aunque también abundan los programas de pago. Otro servicio que está justo empezando son las aplicaciones de traducción oral, diseñadas a menudo para smartphones. iLingual, por ejemplo, funciona efectivamente como cuaderno de frases audio para móvil, ofreciendo frases hechas en varios idiomas. Más ambicioso, Google estrenó un aspecto de su aplicación Translate para Android, a principios de 2011, que ofrecía un «modo de conversación» y traducía conversación oral del inglés al alemán y viceversa, lo que permitía una conversación básica entre dos personas que no compartieran idioma. Teniendo en cuenta el avance gradual que se está haciendo tanto en el mundo de la informática móvil como en las técnicas de traducción automática, las conversaciones bilingües en tiempo real totalmente automatizadas podrían ser una realidad en un futuro no tan lejano.
La idea en síntesis: la tecnología puede ayudar a unir nuestros idiomas divididos
001-222 50 ideas digital.indd 143
22/02/2012 16:12:28
144
Negocio y gobierno
35 Servicios basados en la localización
La geolocalización significa conocer la ubicación geográfica exacta de alguien o de algo. Es una idea sencilla y que técnicas como los GPS (Technical Positioning Systems) ya han hecho realidad para muchos millones de personas. Pero lo que sigue estando en los inicios es la idea de los servicios basados en la localización, un campo en expansión de aplicaciones digitales que adaptan los resultados a la ubicación exacta de un usuario, pero también le ofrecen servicios referentes a la localización de otras personas. Es una idea con muchas implicaciones tanto de privacidad, de comunicaciones, de negocio como de ocio..., además de representar un uso creciente de las tecnologías digitales y en red, no solo cuando estamos sentados en la oficina o en una habitación de casa, sino también cuando estamos moviéndonos. Hay una forma de servicio basado en la localización que ha estado disponible desde los inicios de la World Wide Web gracias a la capacidad de identificar la ubicación aproximada de la mayoría de usuarios de la red a través de su dirección IP, algo que ha permitido a las empresas adaptar los sitios web basándose en la localización del usuario, ofrecer publicidad específica, etc. Pero los verdaderos servicios basados en la localización solo empezaron a ganar terreno en el cambio de siglo, y en especial desde que empezaron a popularizarse los smartphones y otros dispositivos con GPS y conectividad a Internet integrados.
LBS y GIS Muchos servicios basados en la localización (o LBS) aprovechan un cuerpo considerable de trabajo que se ha hecho a lo largo de las últimas décadas para desarrollar los Sistemas de Información Geográfica (GIS). En su definición más sencilla, los GIS representan una versión digital de buena parte de la cartografía detallada y los datos de ubicación que poseen organizaciones que van desde los
Cronología 1978
1995
2000
Lanzamiento del primer satélite GPS
Primera producción de un sistema de navegación GPS para coches
Un GPS totalmente preciso se pone a la disposición de los ciudadanos por primera vez
001-222 50 ideas digital.indd 144
22/02/2012 16:12:28
Servicios basados en la localización
145
gobiernos nacionales hasta los servicios de emergencia, instituciones académicas y autoridades de planificación. Los datos de los GIS han tendido históricamente a ser utilizados en aplicaciones de negocios y profesionales —para la planificación urbana, los servicios de emergencia, el mantenimiento de infraestructuras, la administración regional y otras actividades que se apoyan en una gran cantidad de datos detallados sobre localización y demarcaciones—. Pero tanto las bases de datos como los sistemas desarrollados por GIS son herramientas digitales cada vez más accesibles —ya sea gratuitamente a través de iniciativas del gobierno o como recursos de pago de empresas privadas— para aquellos que desarrollan aplicaciones basadas en la localización.
Usos generales de los LBS El uso más obvio de un LBS (servi-
cio basado en la localización) es, por supuesto, decirle a alguien dónde se encuentra y proporcionarle información detallada sobre lo que le ro-
Volverse hiperlocal Un servicio «hiperlocal» es aquel que va más allá de ofrecer simplemente contenido a medida para distintas zonas, centrándose en ofrecer contenido específicamente adaptado a una zona local pequeña y claramente definida. El término fue acuñado en Estados Unidos en los años noventa para referirse a las noticias locales, pero desde entonces ha sido adoptado en la red para describir el potencial de los recursos digitales enfocados a —y a menudo generados en buena parte por— las necesidades de una zona demasiado local y específica como para ser tratada con detalle por una base de datos o sitio más general. Tal vez el servicio hiperlocal más conocido de la red fue fundado por el popular divulgador
científico Steven Johnson en 2006. Llamado outside.in, se basaba en el principio que buena parte de lo que un residente medio de un vecindario podía desear hacer o saber —desde el horario de la reunión de la junta escolar hasta las novedades sobre servicios locales, tiendas, horario de apertura, estacionamiento, normativas, actos públicos, etc.— o bien no existía, o era extremamente difícil de encontrar en la web. El servicio abarca ahora 57.000 vecindarios e invita a los usuarios a «mantenerse al día sobre lo que ocurre, descubrir cosas nuevas sobre donde vives, investigar, y colaborar activamente en la conversación local. O, si tu barrio todavía no aparece, a iniciar la conversación».
2002
2009
2010
Lanzamiento del primer navegador Tom Tom
Lanzamiento de Foursquare
Lanzamiento de la aplicación Places de Facebook
001-222 50 ideas digital.indd 145
22/02/2012 16:12:28
146
Negocio y gobierno
Foursquare Fundado en 2009, Foursquare es un servicio de red social con una diferencia: está totalmente basado en los servicios móviles y utiliza la tecnología GPS para permitir a los usuarios colgar un anuncio regularmente actualizado de su ubicación. Estas actualizaciones aparecen en las cuentas de Facebook o Twitter y permiten saber a los usuarios dónde está su red de amigos en relación con los demás, en tiempo real. Pero más allá de esto, el servicio permite a la gente «controlar» cuándo están en lugares concretos, lo que además de actualizar su estatus les proporciona puntos, gratificaciones virtuales en forma de «chapas» y eleva su estatus, aspirando a convertirse en «alcalde» de un punto de control concreto: es decir, la persona que en los últimos sesenta días ha pasado por un lugar más días que nadie. Esta combinación de mecánica de juego y red social ha demostrado ser atractiva, en especial porque los usuarios obtienen más poder dentro de la red cuanto más se implican en ella: desde poder, en el primer nivel de logro, editar información sobre locales, hasta, en el nivel máximo, poder añadir y ajustar locales y controlar el flujo global de sugerencias y tráfico.
dea. Los sistemas de navegación por satélite de los coches son el ejemplo comercial más utilizado de esta técnica, con los servicios como Google Maps para aparatos móviles pisándole los talones. La información cartográfica local detallada se completa con listas de cosas como tiendas, instalaciones, opiniones, imágenes y enlaces interesantes. Concretamente, las necesidades habituales de un usuario se pueden clasificar en cinco categorías: herramientas de localización, para determinar exactamente dónde se encuentra en re lación con la geografía local; herramientas de navegación, para ayudar a planificar una ruta hacia un destino buscado; herramientas de búsqueda geográfica, para ayudar a encontrar instalaciones o tipos de servicios concretos; herramientas de búsqueda de otros datos, para buscar información sobre cualquier cosa, desde horarios de transporte público hasta horarios de acontecimientos; y herramientas sociales, para relacionarse con las ubicaciones y actividades de otras personas en lo más cerca posible al tiempo real.
Usos particulares de los LBS
Las aplicaciones potenciales de los anteriores son casi ilimitadas, pero hasta ahora han tenido un impacto particular en solo un número limitado de campos. Las ayudas de navegación para vehículos son el caso más evidente y ya han ayudado a transformar la experiencia de la conducción para mucha gente (además de promocionar la preocupación por que su uso pueda perjudicar la atención de algunos conductores en la carretera y mermar la capacidad general de conducción). Pero hay usos más especializados de servicios parecidos que tienen también potencial, en especial en servicios de emergencia, en los que localizar a personas que no saben o no son capaces de comunicar su paradero es de vital importancia. En estos casos, un LBS puede transmitir automáticamente una ubicación precisa, además de alertar potencialmente a cualquier otra persona de los aledaños que sea capaz de ayudar.
001-222 50 ideas digital.indd 146
22/02/2012 16:12:28
Servicios basados en la localización
147
«
Un uso cotidiano potente de tal control auLos modelos de tomático de la ubicación lo representa la negocio que rodean aplicación de 2010 Neer, que permite dar a la intersección entre otras personas de la red social inmediata el las personas y sus permiso para recibir actualizaciones automáticas de la propia ubicación —lo que permi- lugares favoritos son te, por ejemplo, a unos padres controlar que interminables. sus hijos han llegado al colegio sanos y sal- Josh Williams vos, o saber dónde se encuentran en un centro comercial—. Para redes sociales más amplias, la funcionalidad del Places de Facebook, también introducida en 2010, permite a los usuarios con smartphones compartir su localización con sus amigos y deja que otras aplicaciones que se integran en Facebook hagan uso también de esta funcionalidad.
»
Tendencias A principios de 2011, Microsoft publicó los resultados de una investigación encargada recientemente de las tendencias dentro del sector de los LBS. Los mayores usos de los sistemas LBS se orientaban firmemente hacia temas más «tradicionales» de viaje e información: la navegación GPS era la más utilizada, seguida por las predicciones meteorológicas, las actualizaciones del tráfico, la información de restaurantes y la situación de instalaciones. Pero había nuevas tendencias que parecían estar creciendo, como los juegos, el geo-tagging de imágenes y vídeos dentro de la información sobre dónde han sido tomados, y las redes sociales. También había una serie de preocupaciones reflejadas sobre la privacidad y los sistemas LBS, un miedo comprensible teniendo en cuenta que la información sobre la situación física de una persona representa una nueva forma de inmediatez y de exposición dentro de la cultura digital, que históricamente había permitido a las personas cierto anonimato y libertad de las limitaciones u obligaciones de la situación física. Esta integración creciente del espacio físico y de la tecnología en red es, en este sentido, una de las transiciones digitales más profundas de los últimos años y podría, por este motivo, no llegar a obtener la penetración de otros servicios.
La idea en síntesis: tecnología que sabe exactamente dónde estás
001-222 50 ideas digital.indd 147
22/02/2012 16:12:28
148
Negocio y gobierno
36 Productos virtuales
Los productos virtuales son artículos que existen solo en forma digital, y que —a diferencia de la música, las películas o los libros adquiridos digitalmente— no tienen un valor o una existencia intrínsecos más allá de un entorno virtual. Esto significa que tienden a existir dentro de los mundos virtuales y, en especial, dentro de los videojuegos, en los que la adquisición y la posesión de artículos virtuales son valoradas entre los jugadores gracias al estatus y a los beneficios que confieren. Hay un número creciente de juegos en red y mundos virtuales que se financian total o parcialmente a través de la venta de artículos virtuales, mientras que el intercambio de los mismos se ha convertido rápidamente en una economía global multimillonaria. Los productos virtuales empezaron a existir paralelamente a los primeros mundos virtuales compartidos: los Multi-User Dungeons de la década de 1980, de solo texto. Elementos como armas, corazas y pociones daban beneficios a los personajes de estos mundos de juego, y los jugadores pronto empezaron a intercambiarlos informalmente, accediendo a intercambiarlos por otros productos. Transacciones así eran una actividad económica «gris», orquestada fuera de las normas y del entorno oficiales de la mayoría de juegos, pero no explícitamente contra su espíritu o sus reglas. Pero cuando los juegos virtuales más sofisticados empezaron a implicar un número considerable de jugadores, a finales de la década de 1990 —y en particular después del lanzamiento de Ultima Online 1997—, esta actividad independiente de los jugadores empezó a volverse más sofisticada y, para sorpresa de muchos, comenzó a funcionar con dinero real y también a base de intercambios, gracias a sitios de subastas en la red como eBay, que permitía a los jugadores ofrecer bienes virtuales a cambio de dinero. El dinero cambiaba de manos y luego los jugadores se encontraban dentro del mundo virtual con el fin de intercambiarse los productos virtuales en cuestión.
Cronología
1997 Lanzamiento de Ultima online
001-222 50 ideas digital.indd 148
22/02/2012 16:12:28
Productos virtuales
149
El comercio de elementos virtuales entre jugadores no era algo deseable para las empresas que gestionaban la mayoría de juegos virtuales: representa una amenaza potencial contra un juego porque permite a los jugadores apalancar recursos del mundo real (es decir, su dinero) en vez de recompensar la destreza y el esfuerzo en el juego, además de perjudicar los ingresos potenciales a los propios operadores de juegos. Sin embargo, siguió siendo popular, con niveles de demanda de jugadores que permitieron a algunos jugadores embolsarse miles y hasta decenas de miles de dólares reales en un año mediante la venta de productos virtuales, a menudo a través de sitios de subasta de terceros. Hubo casos en los que los artículos virtuales individuales podían llegar a valer sumas cuantiosas, gracias al esfuerzo considerable requerido para obtenerlas: se dice que un solo personaje dentro de World of Warcraft, por ejemplo, se vendió en 2007 por unos 9.500 $.
Modelos oficiales Teniendo en cuenta el nivel de demanda de productos virtuales por parte de los jugadores, muchas empresas de juegos, con el tiempo, han empezado a introducir modelos para permitir su venta oficialmente. El modelo más básico de estos se conoce como free to play, en el que no cuesta nada acceder a un juego o mundo
Granjas de oro En países como China, amasar y luego vender bienes virtuales en el mercado internacional se ha convertido en un importante sector digital. «Cultivar oro»: se llama así porque históricamente tendía a incluir jugadores que hacían largas y repetitivas partidas dentro de un juego —el más popular de ellos era World of Warcraft— para ganar la máxima moneda del juego u «oro» posible. Los negocios prósperos de cultivo de oro solían tener equipos de trabajadores que usaban ordenadores en almacenes, durante diez o más horas al día, por turnos, que a menudo dormían in situ, y el resultado era la
venta de oro por la red por parte de un empresario que gestionaba la «granja» y pagaba a los trabajadores según su capacidad de obtener oro del juego. Las empresas de juegos han tomado medidas enérgicas contra este tipo de negocios, pero se cree que el mercado global vale cientos de millones de dólares y que cada vez incluye servicios más sofisticados, como personajes «compensadores de poder» que hacen el trabajo duro de hacer avanzar a un personaje hacia el final de un juego para jugadores occidentales dispuestos a pagar y no tener que esforzarse demasiado en el juego.
2003
2005
2007
Lanzamiento de Second Life
Sony Entertainment abre el mercado de productos virtuales
Un personaje de World of Warcraft se vende por casi 10.000 $
001-222 50 ideas digital.indd 149
22/02/2012 16:12:28
150
Negocio y gobierno virtual, pero los productos virtuales se compran luego a través de canales oficiales, lo que concede a los jugadores el acceso a nuevas capacidades, campos, a una progresión más rápida o, simplemente, a diferentes tipos de aspecto de los personajes. Esto se ha convertido en un modelo dominante de juego online en Asia, donde el valor de las ventas de los productos virtuales oficiales dentro de los juegos y mundos virtuales se calcula que supera los cinco mil millones de dólares anuales. La venta de productos virtuales se apoya en gran cantidad de pequeñas transacciones, conocidas como microtransacciones, hechas a menudo usando una moneda propia del juego que ha sido adquirida con dinero real a través de la empresa que gestiona el juego o mundo virtual. Como en otras áreas de la cultura digital, una de las tendencias más importantes de los últimos años ha sido la creciente importancia de las redes sociales y de las ventas de productos virtuales, dentro de juegos más de senfadados a los que juegan decenas de millones de personas por todas las redes sociales. Tales juegos aprovechan a menudo no solo las ventas de productos virtuales, sino lo que se conoce como el modelo de producto freemium: hay una versión básica a la que se puede jugar gratis y luego se requiere pagar un poco para acceder a las partes más valiosas de la versión completa.
Aprender lecciones reales Hay algunos economistas que consideran que la economía del intercambio de bienes virtuales ofrece una manera potencialmente muy fuerte de explorar las tendencias de la economía del mundo real y, en particular, el campo tan difícil de analizar de las motivaciones y los intereses humanos. Tal vez el economista que más ha trabajado en este terreno es el profesor estadounidense Edgard Castronova, cuyo trabajo ha demostrado que los jugadores de los mundos virtuales actúan en el aspecto económico de manera extraordinariamente parecida a la gente en las situaciones económicas reales. Teniendo en cuenta la posibilidad de manipular y registrar cada detalle de un entorno virtual, eso sugiere que los entornos virtuales pueden convertirse en laboratorios muy potentes para explorar —y probar— ideas económicas, desde la imposición de tasas y redistribución hasta las estructuras de precios, estructurando los incentivos económicos y las percepciones individuales de valor y equidad.
001-222 50 ideas digital.indd 150
A medida que ha ido aumentando el valor global del intercambio de productos virtuales, se han ido adoptando cada vez más otros modelos parecidos, desde el estable cimiento de una tasa de inter cambio entre empresas reales y virtuales —algo que Second Life ofrece desde 2003, con su Linden dólar (L$), que a principios de 2011 se cambiaba a una tasa de 200 LS = 1 $— hasta modelos de negocio «basados en el comercio», en los que las empresas permiten a las plataformas oficiales comerciar con productos virtuales. Muchos jugadores prefieren la seguridad y la fiabilidad de estas plataformas oficiales al reino más oscuro del mercado secundario. Sony Entertainment, por ejemplo, ha creado un mercado oficial en el que los jugadores de algunos de sus
22/02/2012 16:12:28
Productos virtuales
151
«
Los juegos que elegimos para distraernos se están volviendo tan complejos, tan envolventes, que la línea que separa el juego del trabajo, el mundo del ocio de la sociedad, empieza a desdibujarse. Julian Dibbell
»
juegos pueden intercambiar y comprar oficialmente productos virtuales, pagando una pequeña comisión en cada transacción. Los propios mercados de Sony están operados por el Live Gamer de la empresa, que se especializa en gestionar mercados oficiales de productos virtuales de juego.
Mercados globales Uno de los aspectos más destacables del mer-
cado de los productos virtuales son las barreras relativamente débiles para obtener objetos virtuales. Si alguien tiene un ordenador y acceso a Internet, requiere muy poca formación para participar en la mayoría de juegos para obtener productos: la inversión más importante que tiene que hacer es, simplemente, tiempo. Eso ha creado una oportunidad económica inusualmente global, donde aquellos que tienen menos oportunidades de ganar dinero pueden invertir su tiempo ganando bienes o monedas virtuales, que luego pueden vender a gente más rica y dispuesta a pagar dinero por cosas así para no tener que invertir su propio tiempo. Muchas de estas evoluciones presentan graves dificultades no solo para aquellos que gestionan los juegos y los mundos virtuales, sino también para los gobiernos y las autoridades legisladoras, por no hablar de aquellos que se sirven de los mundos virtuales para el ocio y aquellos que los usan como mezcla de juego y trabajo: que juegan para obtener un rendimiento económico. La declaración y tasación oficial de los rendimientos obtenidos de la venta de bienes virtuales son uno de estos problemas, como lo son los derechos de la propiedad virtual, teniendo en cuenta que estos bienes no existen fuera de los ordenadores y como tales pueden ser confiscados por estas empresas cuando lo crean conveniente. Otros problemas legales tienen que ver con la capacidad de los jugadores para buscar la compensación o reparación si se les roban o retiran los bienes virtuales, por no hablar del aspecto ético de las condiciones y los derechos laborales, si es que tienen, de las personas que se ganan la vida con la venta de productos virtuales fuera de los canales oficiales.
La idea en síntesis: el valor tiene poco que ver con la realidad física
001-222 50 ideas digital.indd 151
22/02/2012 16:12:28
152
Negocio y gobierno
37 E-Gobierno El e-Gobierno significa simplemente «gobierno electrónico» y cubre todas las formas de interacción digital entre un gobierno y sus ciudadanos. Su uso más frecuente es para describir los avances en la manera en que los servicios, la información y las oportunidades de participación en un gobierno se están ampliando gracias a los servicios virtuales. Pero de manera más radical, también implica el uso de tales recursos digitales para explorar cómo muchos procesos gubernamentales en sí pueden estar abiertos a la transformación. Las estrategias de e-Gobierno pueden dividirse en tres áreas: el uso de las tecnologías digitales para mejorar los procesos del propio gobierno; la mejora de la calidad, la cantidad y la facilidad de las interacciones entre ciudadanos y gobierno; y la mejora de las interacciones entre ciudadanos de una manera beneficiosa para el país. Dicho simplemente, podríamos describirlo como la mejora de la administración, la mejora en el acceso y en la provisión de servicios, y la promoción de las funciones de la sociedad civil. Hay una cuarta área que cubre la relación entre gobiernos y negocio... un área que, en especial en el sector tecnológico, tiende a ir en las dos direcciones, con la mayoría de ejemplos de mejores prácticas digitales habiendo evolucionado antes dentro de las empresas privadas o las comunidades online.
Acceso y provisión El mayor problema potencial de todas las formas de e-Gobierno es el acceso. Aunque en los países desarrollados la mayoría de ciudadanos tiene acceso a los ordenadores y a las conexiones de Internet, hay una minoría considerable —normalmente de entornos más deprimidos o aislados— que no lo tiene. Eso puede significar no solo que tal minoría no logra beneficiarse de los servicios digitales, sino que la provisión de estos servicios puede, sencillamente, aumentar la brecha entre los grupos en desventaja y el resto de la sociedad. Por este motivo, las estrategias acertadas de e-Gobierno hacen mucho énfasis en el acceso, proveyendo de instalaciones digitales en lugares
Cronología 1994
1999
Creación del Ministerio de Información y Comunicación en Corea del Sur
Primer memorándum estadounidense sobre e-Gobierno
001-222 50 ideas digital.indd 152
22/02/2012 16:12:28
E-Gobierno
153
públicos, como bibliotecas y locales del ayuntamiento, pero que también pueden implicar un uso innovador de tecnologías mucho más sencillas. En Gran Bretaña, por ejemplo, hay empresas que se han centrado tanto en el desarrollo de maneras eficientes de determinar la situación de los servicios locales como en maneras rápidas y económicas de imprimirlas como hojas de información instantánea para que las utilice todo el mundo. A menudo, las opciones menos tecnológicas son herramientas democráticas más potentes que los dispositivos más complejos. Por ejemplo, los SMS enviados a los teléfonos móviles son una manera de ponerse en contacto con casi todos los miembros adultos de la mayoría de países del mundo... lo cual los convierte en un medio digital extremamente efectivo de divulgar mensajes públicos, como los recordatorios para votar o la información sobre servicios locales, y actualmente incluso se está estudiando la manera para que la gente pueda votar vía SMS.
Activismo de comunidad La acción no requiere tecnologías avanzadas, y una mentalidad digital muy complicada a veces puede obstaculizar el trabajo. Esto es parte del mensaje contenido en la obra de William Perrin, un activista comunitario de la zona de Kings Cross de Londres. En 2006, el vandalismo de su barrio movió a Perrin a poner en marcha un movimiento de acción en su comunidad basado en combinar el activismo real con un sitio web (www. kingscrossenvironment.com) con un mensaje para la gente local: «Ayudadnos a hacer de nuestro barrio un lugar mejor. Compartid vuestras noticias, puntos de vista, actos y protestas sobre Kings Cross». La filosofía de este movimiento de
base era que la acción local civil efectiva requería una información y una comunicación efectivas, y que esta se completaba mejor no mediante tecnologías complejas, sino con un simple destino virtual que agrupara noticias, opiniones y fotos locales que sustentaran quejas, resúmenes de reuniones, documentos..., todo lo que normalmente no aparece como «noticias» pero que es susceptible de estar en el punto de mira de la acción de la comunidad. El sitio ha ganado victorias destacables en planificación, mejoras, ha logrado que los problemas locales fueran escuchados, y ha servido de modelo a otros sitios web parecidos de toda Gran Bretaña.
2007
2009
2010
La UE lanza una iniciativa de eParticipación
EE.UU. lanza el sitio web data.gov
El Reino Unido lanza el sitio web gov.uk
001-222 50 ideas digital.indd 153
22/02/2012 16:12:28
154
Negocio y gobierno
«
Queremos que el gobierno sea más ágil, más transparente, más abierto y más responsable. Es el tipo de transformación de la que este gobierno quiere formar parte. David Cameron, 2011
»
Los SMS son también un método cada vez más flexible para pagar bienes y servicios. Teniendo en cuenta que los teléfonos móviles se están convirtiendo en una tecnología cada vez más universal y personalizada, no sería de extrañar que lleguen a ser usados como tecnología gubernamental básica para todo lo que va desde la identificación personal hasta el pago de impuestos.
Administración Como en cualquier negocio, uno de los mayores beneficios que la tecnología puede aportar al gobierno es una comunicación y compatibilidad mejoradas entre departamentos o ministerios, con una codificación compartida de buenas prácticas que lo abarque todo, desde un formateado y etiquetado eficiente de los datos hasta el uso de herramientas eficientes para gestionar proyectos. En el caso del gobierno, el ahorro en costes y la eficiencia van potencialmente de la mano con la mayor cesión de servicios a las autoridades locales. Sin embargo, la seguridad y la privacidad son una preocupación más presente en la tecnología gubernamental que en prácticamente cualquier otro campo, precisando seguridad en todo, desde las redes sin cables hasta los sistemas de correo electrónico, y los niveles de acceso cuidadosamente vigilados. Los gobiernos tienen menos libertad que la mayoría de corporaciones, por ejemplo, para usar las instalaciones de informática en la nube o los servicios de marca. No obstante, uno de los terrenos más abonados para la innovación es la creciente adopción por parte de gobiernos como el estadounidense o el británico de criterios abiertos internacionales de buenas prácticas para el almacenamiento de documentos y datos, clasificación de información y la presentación de material no secreto en formatos que facilitan su reutilización e innovación.
Sociedad civil Además de una mayor transparencia y accesibili-
dad a los servicios gubernamentales, la sociedad civil puede beneficiarse potencialmente de la accesibilidad digital de los recursos públicos. Por ejemplo, a principios de 2011, en Gran Bretaña, el Home Office dio a conocer los datos que tenía el gobierno relativos a la incidencia del crimen en forma de «mapa del crimen» de libre disposición, que permitía a cualquiera buscar los detalles de la delincuencia
001-222 50 ideas digital.indd 154
22/02/2012 16:12:28
E-Gobierno
155
Vigilancia del estado Un lado potencialmente más oscuro del e-Gobierno es el uso de técnicas de vigilancia por parte de los gobiernos. La vigilancia del estado puede ir desde las cámaras para controlar el tráfico hasta el CCTV (Circuito Cerrado de Televisión), las escuchas electrónicas y los controles de identidad, con el uso potencial de la identificación biométrica (a través de una base de datos de rasgos como las huellas dactilares y los escáneres de retina). Esta vigilancia suele justificarse por motivos de seguridad y por la prevención de delitos como el vandalismo, el crimen motorizado y el terrorismo. Las campañas por las libertades individuales han expresado
una preocupación creciente por el grado de acumulación de poder en algunos países de un «estado vigilante», además de cuestionar la efectividad de sus técnicas. La controversia también rodea al derecho de los gobiernos de acceder o analizar el tráfico de Internet, siendo los ISP cada vez más responsables a través de legislaciones para controlar el tráfico de sus usuarios en actividades como la violación del copyright mediante la compartición de archivos, además de estar cada vez más obligados por ley a entregar los historiales de e-mail y de datos telefónicos relacionados con investigaciones policiales.
en un mapa interactivo de Inglaterra y Gales. Con más de 18 millones de visitas en sus primeras horas en la red, el servicio se consideró un éxito enorme, aunque también se dice que ha alimentado los miedos a las denuncias incorrectas, al daño potencial a los precios de la vivienda y a la delincuencia en general, lo que ilustra la doble cara de los datos. Otros ejemplos de e-Gobierno social incluyen la posibilidad de evaluar la calidad de los servicios del gobierno, de expresar preferencias, de presentar peticiones y de votar sobre temas locales, aunque el propio volumen de material generado por tales estructuras puede crear grandes cargas administrativas. Como siempre con la información, la utilidad depende de la capacidad de analizar y combinar, más que de simplemente recoger datos..., algo que convierte los ánimos de un tercer ecosistema de creadores que trabajan con datos del gobierno en parte esencial del futuro del e-Gobierno.
La idea en síntesis: la tecnología es una herramienta política cada vez más esencial
001-222 50 ideas digital.indd 155
22/02/2012 16:12:29
156
Tendencias transformadoras
38 Crowdsourcing
*
Históricamente, las tareas prácticas e intelectuales difíciles han tendido a resolverlas pequeños grupos de expertos. Pero la interconexión de cientos de millones de personas a través de Internet ha propiciado cada vez más el enfoque contrario: presentar un problema como convocatoria abierta al mundo digital y dejar que la «masa» (crowd) digital —ese grupo de gente indefinido, amorfo y voluntario que decide perseguir un interés— intente hallar una solución. Una idea tan sencilla como para que resulte evidente, el crowdsourcing es también uno de los aspectos autodefinidores y más potentes de la cultura digital. El crowdsourcing tiene sus orígenes en el esfuerzo colectivo de los pioneros de Internet, en especial en el movimiento de programas de código abierto que empezó en 1983 con un esfuerzo de colaboración masiva llamado Proyecto GNU. Este proyecto se propuso, combinando los esfuerzos de la comunidad académica, desarrollar un conjunto de programas informáticos gratuitos y de libre disposición que permitiera a todo el mundo que quisiera utilizar un sistema informático sin la necesidad de comprar programas.* El proyecto GNU, una propuesta utópica, fue lanzado con un manifiesto redactado por el programador y activista estadounidense Richard Stallman. En 1992, nueve años después de su primer anuncio, el proyecto ofreció por primera vez su primer sistema operativo completo, llamado Linux. Hoy se utilizan versiones del sistema Linux más o menos en un cuarto de los ordenadores de servidor de todo el mundo —y en más del 90 por 100 de los superordenadores del mundo—, mientras que otros sistemas de código abierto, como el programa Apache para servidores y el navegador de red Firefox, dominan sus mercados. La colaboración gratuita y movida por la pasión había demostrado formar parte de la esencia de la cultura digital: una verdad básica a la * Crowdsourcing, aunque suele utilizarse en inglés, podría traducirse como «externalización masiva». Proviene de los términos crowd («muchedumbre») y outsourcing («externalizar»), y sugiere el hecho de confiar a una masa de terceros la resolución de un problema o un proyecto. (N. de la t.)
Cronología 1992
1997
Aparición del Linux
Lanzamiento del proyecto SETI@home
001-222 50 ideas digital.indd 156
22/02/2012 16:12:29
Crowdsourcing espera de una definición formal. La colaboración masiva es, ciertamente, una idea mucho más antigua que cualquier tecnología digital: desde los «buzones de sugerencias» físicos hasta los proyectos de investigación que pedían a miembros del público que mandaran sus opiniones, preguntas o sugerencias. Pero lo crucial de los medios digitales es que incrementaron exponencialmente la escala potencial, la facilidad y la velocidad de este tipo de colabo raciones. Gracias a Internet y a la continua evolución de las tecnologías de la red con el movimiento Web 2.0, la interacción masiva es hoy, sencillamente, una realidad de la vida cotidiana global.
El término crowdsourcing
157
Censura de externalización masiva Como la mayoría de ideas digitales, acceder a la sabiduría de las masas es algo potente, pero no tiene por qué ser algo inherentemente positivo para la sociedad. En China, por ejemplo, el gobierno es aficionado a utilizar «buscadores de carne y hueso» —es decir, miles de voluntarios— para extender su propaganda y sus esfuerzos de censura. Paralelamente, los esfuerzos del estado por censurar los contenidos de Internet en países como Arabia Saudí se apoyan en iniciativas de crowdsourcing, con grupos de ciudadanos de orientación conservadora que rastrean la red y denuncian cualquier contenido que consideren perjudicial para el estado o que crean contrario a sus políticas sobre lo que debe estar o no a la disposición del ciudadano.
Una de las primeras personas que utilizó la palabra crowdsourcing fue Jeff Howe, que combinó las palabras crowd y outsourcing en un artículo de 2006 para la revista Wired. Howe pensaba que empezaba a ser posible encargar trabajo no a expertos selectos, sino a voluntarios autoseleccionados de entre la inmensidad del mundo digital.
Uno de los primeros ejemplos de este proceso es el programa SETI (Search for Extra-Terrestrial Intelligence) de Berkeley, California, que se basaba en el análisis de enormes cantidades de datos de radiotelescopios en busca de pautas. El análisis fue una tarea mucho más grande de lo que hasta las supercomputadoras eran capaces de asumir. Y así, en 1990 se lanzó el proyecto llamado SETI@home, que pedía a gente de todo el mundo que prestara la potencia de su ordenador para el trabajo de análisis, descargando un sencillo programa que funcionaba como salvapantallas... y analizaba datos y transmitía los resultados a Berkeley siempre que el ordenador estaba en desuso durante un rato.
2001
2009
Lanzamiento de la Wikipedia
Lanzamiento del Kickstarter
001-222 50 ideas digital.indd 157
22/02/2012 16:12:29
158
Tendencias transformadoras
¿Tienen derechos las masas? La colaboración masiva es un fenómeno mucho más antiguo que la tecnología digital, pero la facilidad y la escala que aporta el crowdsourcing digital apunta también a cierto número de problemas. En general, los participantes en un proyecto de crowdsourcing no tienen contratos formales ni reciben pago alguno por su esfuerzo. La naturaleza abierta y anónima de muchos proyectos también los hace vulnerables a minorías muy motivadas que pueden
querer manipular los resultados o, sencillamente, estropear las cosas porque sí. Wikipedia, por ejemplo, sufre cada año decenas de miles de actos de «vandalismo», y hay miembros de su comunidad que pasan miles de horas corrigiéndolos. Luego está el simple hecho de que, como la masa no trabaja para nadie en particular, puede resultar difícil coordinar los esfuerzos o completar un proyecto abierto cuando no hay demasiados derechos ni responsabilidades en él.
Al cabo de seis años, más de cinco millones de personas se habían descargado el programa. No les costaba nada en cuanto a tiempo, esfuerzo o electricidad, pero el resultado fue miles de veces superior al de una sola supercomputadora.
¿Qué pueden hacer las masas? El programa SETI@home era
un proyecto dirigido de manera central por una institución académica de élite. Pero estaban por llegar trabajos de colaboración mucho más ambiciosos y descentralizados. Entre los más famosos está el fundado en 2001, con el modesto objetivo de establecer en la red una enciclopedia gratuita del conocimiento humano que cualquiera pudiera utilizar o corregir. Bautizada como Wikipedia, a finales de 2010 ya era responsable de más de 100 millones de horas de trabajo humano, y en el proceso se había convertido en la fuente general más exhaustiva de información... y de una calidad muchas veces superior a la prevista. Las masas digitales, así, pueden desarrollar resultados impresionantes cuando se trata de aportar información. Uno de los desarrollos más recientes del movimiento crowdsourcing es la crowdfunding, también conocido como micromecenazgo, una idea personificada por la página web Kickstarter, que se fundó en 2009 como medio para cualquiera que buscara financiación para iniciar un proyecto. Los voluntarios pueden aportar el dinero que quieran para alcanzar la cifra apuntada, a cambio de una participación en el proyecto según lo defina su emprendedor, a diferencia de una inversión o un acuerdo de capital convencionales. Ha habido proyectos que han salido adelante gracias a este método, desde álbumes de música hasta compañías de juegos o películas con un presupuesto superior a 300.000 dólares.
001-222 50 ideas digital.indd 158
22/02/2012 16:12:29
Crowdsourcing
159
«
Y esto es apenas un indicio de lo que Los esfuerzos de código la inteligencia humana es capaz de abierto no se han limitado hacer en la red. Aprovechar el coa igualar a los mejores nocimiento colectivo y las capaciesfuerzos de las grandes dades de la red se ha convertido en una práctica cada vez más extendida corporaciones mundiales; entre las empresas, los artistas y los los han superado. gobiernos. En 2009, el periódico Jeff Howe The Guardian utilizó una red de más de 20.000 voluntarios para escudriñar las polémicas acusaciones de gastos de los parlamentarios británicos; en 2010, la Library of Congress utilizó el sitio de álbumes de fotos compartidos Flickr para llamar al público a identificar a los personajes que aparecían en una serie de fotos de la Guerra Civil.
»
¿Qué pueden hacer las masas? Jimmy Wales, cofundador de
la Wikipedia, se opone al término crowdsourcing para describir lo que hace su sitio web, alegando que la idea olvida la cantidad de trabajo necesario para crear y mantener un sistema en el cual los usuarios pueden colaborar con buen fin. De manera más general, los esquemas de crowdsourcing se pueden tropezar con problemas de control de calidad, propiedad de los resultados, responsabilidad legal y simple factibilidad —la noción de que invitar a contribuir a un proyecto masivo virtual dará una solución ha llevado al desastre a muchas empresas, en parte debido a la dificultad de conseguir colaboración en tareas que la gente no está motivada para hacer. Estas críticas salpican también la política y al activismo en general, donde se ha acuñado el término slacktivism (algo así como activismo «flojo», o «vago») para describir a aquellos que prefieren la facilidad de firmar peticiones masivas y apuntarse a grupos de Facebook a acciones más significativas o arriesgadas. Como dicen los analistas de la «sabiduría de las masas», los muchos pueden demostrar ser más listos que los pocos... pero la propia historia la hacen más a menudo unos pocos muy motivados que un enorme comité.
La idea en síntesis: la facilidad de colaboración de las masas está cambiando el mundo
001-222 50 ideas digital.indd 159
22/02/2012 16:12:29
160
Tendencias transformadoras
39 Movimiento por
la libre disposición de programas
El movimiento por la libre disposición de programas (free software movement) está íntimamente relacionado tanto con las ideas que subyacen en el crowdsourcing como con muchos otros movimientos abiertos y de colaboración que han caracterizado Internet desde sus inicios. Su importancia no está simplemente en la idea de que el software u otros productos creativos han de ser gratuitos, sino en las maneras en que la comunidad online ha buscado formalizar y perpetuar los principios de uso libre, reutilización, adaptación y colaboración libres y a perpetuidad. El hecho de simplemente poner algo a libre disposición para el uso o la reutilización de cualquiera —conocido como ceder al dominio público— no es garantía de que esta libertad seguirá existiendo. Alguien más puede intentar aprovecharse vendiendo una copia o modificándolo ligeramente y declarando ese nuevo producto como creación propia. El movimiento por la libre disposición de programas es un intento formal de evitarlo. Con este fin, hace un uso selectivo de la legislación de los derechos de autoría cediendo productos bajo varias licencias distintas, lo que legalmente limita las maneras de cómo pueden usarse. Normalmente, estas licencias declaran explícitamente que todas las copias futuras, versiones modificadas o trabajos derivados han de ser también puestos a la libre disposición y cedidos bajo las mismas condiciones de autorización. Eso significa que se pueden emprender acciones legales contra cualquiera que intente sacar provecho de un trabajo cedido bajo licencia gratuita, forzándolos ya sea a destruir su propia versión o a cederla públicamente bajo licencia gratuita. Programas libres es un movimiento en el sentido más flexible de la palabra, y abarca una amplia gama de permisos y enfoques, además de ofrecer distintos niveles de protección... y de representar distintos
Cronología 1984
1989
Aparece el término shareware
Primera Licencia Pública General de GNU
001-222 50 ideas digital.indd 160
22/02/2012 16:12:29
Movimiento por la libre disposición de programas 161 puntos de vista sobre lo que puede ser un tema polémico de debate digital.
Copyleft La forma más antigua de li-
«
Cuando hablamos de programas libres, nos referimos a la libertad, no al precio.
»
cencia digital gratuita se llama copyleft, un juego con la palabra copyright. Su símbolo es una imagen de espejo del símbolo Free Software Foundation © del copyright, y aunque se utilizó por primera vez a mediados de la década de 1970, tal vez su formulación más famosa e influyente es la General Public License GNU (conocida a menudo como GPL). La GPL fue redactada por Richard Stallman para el desarrollo del sistema operativo Linux, un proceso descrito en el anterior capítulo que culminó en 1992 con la cesión pública del primer sistema operativo informático mundial de utilización totalmente libre. La última versión del GPL, la tercera, se terminó en 2007. La propia licencia está diseñada para que la utilice cualquiera y actualmente se aplica a más de la mitad de paquetes de programas libres del mundo, pero su formulación no se puede modificar en absoluto. Su objetivo
Código abierto El concepto «código abierto» se utiliza a menudo combinado con «libre» cuando se aplica a software, aunque describe una idea más amplia y borrosa que la de simplemente crear una cesión libre para la distribución de programas. El término se refería originalmente al «código fuente» de los programas —el código básico de un programa que indica exactamente lo que ha hecho un programador para crearlo—, que en los productos comerciales no suele revelarse nunca. Abrir el código fuente permite a otros replicar y crear más programas. Para algunos, la etiqueta «código abierto» se ha ampliado desde esta raíz para describir una
filosofía más amplia de abrir el funcionamiento de cualquier proceso al escrutinio y la colaboración públicos, desde los procesos políticos hasta los artísticos o hasta el activismo. Los materiales de código abierto no están necesariamente sujetos a los términos de una cesión específica. Sin embargo, lo esencial de este enfoque es un proceso abierto y colaborador de desarrollo cuyos elementos clave están siempre abiertos al escrutinio tanto del público como de los expertos... una tendencia que gana adeptos en muchos campos, desde la ciencia médica hasta el funcionamiento de las normativas gubernamentales.
2001
2004
2007
Fundación de Creative Commons
Lawrence Lessig publica Free Culture
Se publica la última versión del GPL de GNU
001-222 50 ideas digital.indd 161
22/02/2012 16:12:29
162
Tendencias transformadoras declarado es asegurarse de que «garantiza tu libertad de compartir y cambiar todas las versiones de un programa», un principio que Richard Stallman describe como «idealismo pragmático» en su resistencia a permitir cualquier reutilización apropiada de los programas cedidos mediante copyleft, ni siquiera si eso ofrece la tentadora posibilidad de que estos lleguen a un público enorme. Hoy día hay muchos tipos de licencias de copyleft disponibles para distintos tipos de productos, desde las cesiones de programas especiales hasta las de documentación. El copyleft no defiende en sí mismo que las obras artísticas y creativas tengan que ser libres, pero recomienda la aplicación de una Licencia Artística Libre para aquellos que deseen que su obra creativa sea distribuida libremente a perpetuidad.
Creative Commons El copyleft no es la única forma de cesión
utilizada para definir los términos en que una obra se puede distribuir gratuitamente. Las más conocidas y más influyentes de otras cesiones o licencias similares son las de la organización Creative Commons, fundada en 2001 por el activista y académico legal estadounidense Lawrence Lessig, que ayudó a acuñar la idea de «cultura libre» en su libro de 2004 titulado, precisamente, Free Culture. Hoy, la organización Creative Commons está encabezada por el Otra especie importante dentro del activista japonés Joichi Ito. software libre de la historia digital es el
Shareware
shareware, que recoge una noción muy distinta de libertad del copyleft o el material cedido bajo licencia Creative Commons. El shareware son programas con propietario que han sido cedidos en versión de prueba gratuita, ya sea con atributos limitados o por un período de tiempo limitado. Utilizado por primera vez en 1984, el término describía útilmente la manera en que estos programas libres se compartían por Internet y se convertían en un importante canal nuevo de distribución y marketing para las compañías de software. Algunos de los primeros videojuegos y sitios web de más éxito prosperaron gracias en parte a su distribución como shareware, incluido el videojuego de 1993 Doom. El shareware permitía a las empresas más pequeñas llegar a un amplio público potencial, pero no hay que confundirlo con el software gratuito o de código abierto, que inherentemente no tiene aplicación comercial.
001-222 50 ideas digital.indd 162
«Cultura libre» se opone a las restrictivas leyes del copyright a favor del uso de los medios de comunicación —y de los digitales por encima de todo— para distribuir y editar obras libremente. El movimiento ha atraído las críticas de aquellos que alegan que eso perjudica la capacidad de los individuos creativos tanto de aprovechar como de proteger la integridad de sus obras. Sus defensores, incluido Lessig, aducen que una distribución gratuita convenientemente cedida potencia la creatividad y no puede señalarse como culpable del declive de muchos viejos modelos de negocio mediáticos. Las licencias de Creative Commons son muy utilizadas en conexión con
22/02/2012 16:12:29
Movimiento por la libre disposición de programas 163
«
La consecuencia no voluntaria de toda esta democratización [...] es un “aplanamiento” cultural. No más Hitchcocks, ni Bonos, ni Sebalds. Tan solo el ruido plano de la opinión. Andrew Keen
»
productos digitales creativos de cualquier tipo, desde fotos hasta palabras escritas... aunque no programas, que generalmente gestiona mejor copyleft. Todas sus licencias permiten el derecho básico de la copia y distribución gratuita pero con cuatro calificaciones potenciales asociadas. Una licencia de «atribución» estipula sencillamente que una obra puede mostrarse, copiarse, modificarse y distribuirse siempre y cuando se mencione a su creador. Una licencia «no comercial» añade la restricción de que una obra solo puede utilizarse sin afán de lucro, mientras que una licencia de «obra no derivativa» estipula que esta obra solo se puede reproducir de manera exacta y no modificarse en manera alguna. Finalmente, la licencia «compartir igual» insiste en que la obra solo se puede reproducir con una licencia idéntica asociada a ella. Estas condiciones se aplican normalmente en una de seis combinaciones, todas las cuales incluyen la atribución como estándar y que no contradice la aplicación de la ley básica del copyright.
Aplicaciones y controversia Copyleft y Creative Commons son
las más utilizadas, pero hay docenas de licencias gratuitas en uso por todo el mundo, desde las que apuntan a conjuntos específicos de programas hasta las que quieren imponer más restricciones en el uso... o menos. Millones de obras y páginas web usan estas licencias, desde las obras de autores activistas como Cory Doctorow y Lawrence Lessig hasta álbumes, películas, arte, fotografías y programas. La Wikipedia entera es tal vez la más famosa que está bajo una licencia de Creative Commons. Estas propuestas han recibido críticas, sobre todo de aquellos que sienten que los importantes y muy batallados principios sagrados del copyright están siendo menoscabados por mucha de la actividad online, y que los abusos de copyright se dignifican con demasiada facilidad por los argumentos de los defensores más radicales de la cultura libre.
La idea en síntesis: las obras genuinamente libres son libres para siempre y bajo cualquier forma
001-222 50 ideas digital.indd 163
22/02/2012 16:12:29
164
Tendencias transformadoras
40 Distribución digital
Durante los primeros años de la tecnología digital, el almacenamiento de datos era dificultoso y caro, y transferir información entre sistemas distintos significaba copiar información en discos y mover estos físicamente entre aparatos. Hoy, Internet y la creciente interconexión de todos los dispositivos digitales significa que la información se puede distribuir ampliamente sin necesidad de disquetes. Pero lo que no se podía haber previsto es simplemente lo profundas y universales que están demostrando ser sus consecuencias. Prácticamente desde los inicios de Internet resultó evidente que los medios escritos —libros, revistas, periódicos— empezarían a aparecer en formatos digitales, y que las nuevas formas de escritura digital, a su vez, les supondrían un desafío. Pero a medida que fue creciendo la potencia de los ordenadores y la velocidad de las conexiones digitales, también fue siendo cada vez más fácil transmitir por la red archivos de vídeo y audio más grandes, en vez de tener que almacenarlos en soportes físicos como CD y DVD y luego distribuirlos. Este proceso fue de la mano con los avances graduales de los formatos de archivos digitales. Julio de 1994 fue una fecha importante que marcó la introducción oficial de un formato llamado MP3, capaz de codificar música eficientemente en alta calidad en una cantidad relativamente pequeña de datos. Al año siguiente aparecieron programas capaces de reproducir archivos de MP3 en tiempo real en un ordenador. Los archivos MP3 eran lo bastante pequeños para ser almacenados, descargados y cargados fácilmente a través del Internet inicial, y pronto cientos de miles de archivos se estaban compartiendo virtualmente, a menudo a través de sistemas conocidos como redes peer-topeer, lo que facilitaba que las personas pudieran localizar y compartir
Cronología 1994
1999
Invención del formato MP3
Fundación de Napster
001-222 50 ideas digital.indd 164
22/02/2012 16:12:29
Distribución digital archivos entre sus colecciones personales (véase el capítulo 15 sobre compartición de archivos). Redes como Napster (fundada en 1999, cerrada en 2001) ayudaron a transformar para siempre el aspecto del negocio de la música, además de anticipar problemas de violación del copyright que siguen dominando muchas discusiones sobre los medios digitales.
165
«
Los libros no están más amenazados por Kindle de lo que están las escaleras por los ascensores.
»
Stephen Fry
Aparece iTunes Para cuando Napster cerró, ya se había lanzado
el que se convertiría en uno de los canales aprobados por el sector más importante de distribución digital: el servicio iTunes de Apple, que empezó en enero de 2001 como aplicación que permitía a los usuarios de Mac reproducir y gestionar la música digital en sus ordenadores. Con el lanzamiento de la tienda iTunes en abril de 2003 y el lanzamiento de iTunes ese año también para los usuarios de ordenadores con Windows, además de los Macs, para los usuarios empezaba a ser posible pagar pequeñas cantidades para comprar canciones individuales en la red y descargarlas directamente a sus ordenadores y MP3 portátiles. Era un terreno en el que Apple ya tenía una presencia consi-
¿Un mundo sin papel? La industria de los periódicos y revistas ha sido duramente golpeada por la transición a las tecnologías digitales, y cada vez hay más gente que cree que su supervivencia futura depende de encontrar modelos viables de negocio virtual, algo que las publicaciones han intentado con resultados variables. El rápido crecimiento de los ordenadores tablet, desde el lanzamiento del iPad de Apple en 2010, ha alimentado las esperanzas de que las aplicaciones de estos aparatos puedan resultar un
sustituto rentable de los periódicos en papel. En febrero de 2011, Rupert Murdoch lanzó The Daily, el primer periódico mundial que se puso en circulación solamente vía la adquisición por iPad. Sin una edición impresa ni ningún tipo de presencia en la web, The Daily insinúa lo que será un mundo sin papel para los periódicos y las revistas, en buena parte como el Kindle de Amazon y otros lectores electrónicos ya han empezado a demostrar la posibilidad de un mundo sin libros impresos.
2003
2007
2011
Lanzamiento de la tienda iTunes
Amazon lanza el Kindle
Lanzamiento del primer periódico mundial solo para iPad
001-222 50 ideas digital.indd 165
22/02/2012 16:12:29
166
Tendencias transformadoras derable gracias a la introducción en 2001 del iPod, uno de los primeros MP3 portátiles comercialmente exitosos. La tienda iTunes se convirtió pronto en un ejemplo icónico de la capacidad de la distribución digital de desbaratar los modelos de negocio tradicionales a través de otros modelos totalmente oficiales y legales. En siete años, iTunes se ha hecho responsable de casi tres cuartas partes de todas las ventas de música digital del mundo, convirtiéndose en el mayor vendedor de música del planeta. En febrero de 2010, Apple anunció que más de 10.000 millones de canciones habían sido adquiridas a través de su tienda desde su lanzamiento... y que más de 55.000 episodios de TV y 8.500 películas también podían ser adquiridos a través de aquella virtualmente.
Por todos los medios El crecimiento de iTunes ha sido tan solo una parte de una transición global clave a lo largo de la última década, por la cual la distribución digital ha pasado de ser una novedad a convertirse en la actualidad en el único método de distribución de un número creciente de productos. Los libros digitales son tal vez el ejemplo más sencillo de ello. Actualmente cada vez hay más libros que existen solo en formato En muchos casos, comprar la versión digital electrónico. El Kindle de Amade un producto no nos garantiza la propiedad del mismo en el mismo sentido zon, aparecido en 2007, es solo que adquirir su versión física. Es imposible uno de una cada vez más amplia prestar o regalar un archivo de la misma serie de aparatos de lectura elecmanera que podemos hacerlo con un objeto trónica disponibles hoy en el físico, y puede resultar casi igual de difícil mercado; pero su impecable intener el archivo en nuestra posesión más que simplemente tener permiso para tegración con la mayor librería acceder al mismo a través de un servicio del mundo ofrece un guiño de lo concreto. Esta transición de la compra y profundamente que la distribuposesión de un medio en un soporte físico, ción digital podría alterar los moal acceso a un medio como usuario de un delos existentes de publicación... servicio, es potente y muy cómoda, pero también restrictiva. Teóricamente, un como también lo posibilita el servicio puede ser retirado en cualquier hecho de que Amazon ofrece momento o dejar de operar por motivos ahora a los autores la oportuniempresariales; un acceso de alta calidad a dad de publicar directamente en Internet no siempre es posible; y la ausencia Kindle, sin pasar ni por un editor de propiedad personal hace que los consumidores sean potencialmente tradicional ni acercarse para nada vulnerables a la censura, a la piratería o a a la impresión en papel.
¿El final de la propiedad?
las acusaciones de mal uso. Eso no es cierto para todas las formas de distribución digital, pero ha provocado un apasionado debate sobre los derechos y las responsabilidades asociadas al consumo digital.
001-222 50 ideas digital.indd 166
Además, Kindle no es solo un instrumento físico para leer textos electrónicos; es también una plataforma de software para leer
22/02/2012 16:12:29
Distribución digital textos digitales a través de varios aparatos distintos. Lo único que se precisa es tener una cuenta en Amazon... igual que, en el caso de Apple, una cuenta iTunes permite a los usuarios descargar y consumir medios digitales para toda una gama de aparatos.
167
«
El mundo está cada vez más customizado, alterado según las especificaciones individuales.
»
La distribución digital se está convirtiendo Don DeLillo en el método habitual de compra también de muchos programas, y la creciente velocidad gracias a una banda cada vez más ancha ha retirado muchos de los obstáculos que antes hacían más fácil la compra de un disco físico con los archivos grabados que pasarse muchas horas descargándolos. A través de los ordenadores, la plataforma de distribución digital Steam es hoy líder del mercado de los video juegos, mientras que los gigantes del software desde Microsoft hasta Adobe ofrecen versiones descargables de todos sus productos principales.
Medios sin fin Tal vez la mayor ventaja de la distribución digi-
tal, aparte de la comodidad, es su falta de finalidad: siempre es posible descargar una nueva actualización o una nueva copia. Además, las plataformas digitales ofrecen la oportunidad de usar un producto no aisladamente, sino como miembro de una comunidad: algo especialmente importante con el ocio, cuando los juegos en streaming y descargados tienden a ofrecer a los usuarios la oportunidad de compartir comentarios, anotar y comparar resultados virtualmente, y jugar o mirar junto a otros jugadores. Esta orientación también puede suponer una desventaja para aquellos que prefieren poseer productos acabados, propios, diseñados para usarse aisladamente y no dependientes de una conexión de banda ancha para algunas funciones, ni siquiera, en el caso de los medios en streaming, una banda ancha en activo para todos sus usos. Los temas de control de calidad, copyright y propiedad complican también las relaciones de muchos usuarios con muchos productos solo digitales, y hasta hay quien alega que las plataformas de distribución abiertas a todos acabarán representando una cultura capaz de ofrecer una customización y flexibilidad sin precedentes, pero también una menor calidad.
La idea en síntesis: a medida que la distribución se transforma, también lo hace el contenido
001-222 50 ideas digital.indd 167
22/02/2012 16:12:29
168
Tendencias transformadoras
41 Informática en la nube
Durante los inicios de la informática, los ordenadores eran máquinas enormes y muy caras y se suponía que una pequeña cantidad de ellas sería utilizada por muchas personas. A medida que los ordenadores se han ido haciendo más pequeños y más baratos, hemos ido aprendiendo a dar por sentado que todo el mundo tiene acceso a su propio ordenador. Sin embargo, con el crecimiento de Internet, una versión de la vieja idea ha vuelto a tomar impulso: hay muchas ventajas en el hecho de hacer tareas y almacenar datos no en el dispositivo que uno posee físicamente, sino en la «nube», un potente sistema remoto al que simplemente nos conectamos allá donde nos encontremos del mundo. En vez de ser procesado por una máquina individual, la informática en la nube ocurre desde una serie de servidores distintos distribuidos por todo Internet. Ni los usuarios ni los proveedores del servicio han de saber necesariamente la ubicación física exacta de las máquinas en las que se procesan los datos. La propia frase «informática en la nube», cloud computing en inglés, se utilizó por primera vez en 1997 para referirse específicamente a la idea de un servicio informático remoto que no ocurre en una ubicación única y conocida —como era el caso desde los inicios de la red con los ordenadores servidor que alojaban sitios web concretos—, sino como algo distribuido libremente por una «nube» de la que los propios usuarios tienen poco conocimiento.
¿Por qué usar la nube? La informática en la nube es una idea
sencilla con aplicaciones extremamente amplias, pero las razones esenciales por las que muchos usuarios están acudiendo cada vez más a ella son bastante claras. Se aplican igualmente tanto a particulares como a empresas, aunque es en estas últimas donde se están empezan-
Cronología 1997
1999
2002
Se acuña el término «informática en la nube»
Salesforce.com ofrece el primer servicio de aplicaciones web
Lanzamiento de Amazon Web Services
001-222 50 ideas digital.indd 168
22/02/2012 16:12:30
Informática en la nube
169
do a sentir los mayores cambios. Los servicios de nube ofrecen movilidad: si disponemos de un ordenador y de una conexión a Internet, nos podemos conectar a un servicio, ya sea el e-mail y los documentos personales o todo el aparato entero de gestión y bases de datos de una empresa. También son servicios escalables: las empresas que ofrecen servicios de nube tienden a operar con miles o decenas de miles de ordenadores, lo que significa que por muy lejos o rápido que crezcan nuestras necesidades, serán fácilmente atendidas. Pero tal vez lo más importante de todo sean la rapidez y los costes. Los sistemas de nube tienen un mantenimiento externo. De modo que no hay prácticamente costes asociados a la actualización de los datos, el establecimiento de redes y el software. Además, no hay costes de capital asociados a la compra de maquinaria física: sencillamente se paga por el nivel de servicio que se requiere, que puede ser contabili-
Amazon Web Services El mayor proveedor mundial del sistema de informática en la nube es Amazon, a través de su plataforma de servicios web. Lanzado en 2002, el servicio es hoy un servicio de nube típico en cuanto a que ofrece una amplia gama de opciones según las necesidades, que van desde el simple almacenamiento online o la capacidad de mandar una gran cantidad de e-mails, hasta albergar sitios web muy populares u ofrecer pura potencia informática para aquellos que hacen experimentos o procesos que requieren mucho espacio informático, como la animación tridimensional detallada, por ejemplo. Pero la innovación esencial de Amazon llegó en 2006, cuando empezó a ofrecer un servicio llamado Elastic Compute Cloud (EC2), que permitía a empresas y particulares alquilar toda
la potencia informática que precisaran para hacer funcionar aplicaciones totalmente funcionales. La economía de escala convierte este servicio en un método informático extremamente eficiente y potente. El coste de contratar tiempo en el servicio informático más potente de Amazon a finales de 2010 era, por ejemplo, de poco más de 2 $ por hora, sin gastos de hardware ni otros compromisos requeridos. La potencia de procesado de este servicio es parecida a la de las supercomputadoras más rápidas del mundo a finales de 1990, acercándose teóricamente a un teraflop*... es decir, alrededor de un billón de operaciones flotantes por segundo. * 1 teraflop equivale a 1012 operaciones por segundo.
2006
2007
2010
Lanzamiento de Elastic Compute Cloud de Amazon
Lanzamiento total de Google Docs
Microsoft lanza Web Apps para Office
001-222 50 ideas digital.indd 169
22/02/2012 16:12:30
170
Tendencias transformadoras
«
Por vez primera, los creadores de todo el mundo tienen acceso a una potencia informática ilimitada. Con un navegador y una conexión a Internet, cualquiera puede crear aplicaciones y utilizarlas. Marc Benioff
»
zado por horas. Por este motivo, el modelo de negocio de la informática en la nube se conoce a veces como «informática de servicio», porque convierte la informática en un servicio doméstico más, como el gas o la electricidad.
Nubes personales Mientras que los particulares raramente mencionarán el ahorro de costes como ventaja de la nube, hay cada vez una mayor cantidad y complejidad de información personal que se almacena en la red a través de servicios que van desde Google hasta Facebook. El enfoque de Google es típico, ya que cada vez más ofrece a los usuarios de sus servicios la oportunidad de colocar partes de sus vidas digitales en su nube virtual. El programa de documentos de Google almacena hojas de cálculo y documentos de texto en la red y permite que sean editados desde cualquier lugar del mundo a través de un paquete de procesado de textos basado en la web; su servicio de agenda se integra con otras aplicaciones virtuales; su servicio de imágenes, Picasa, ofrece almacenamiento y gestión virtual de fotos, como también lo hace su todavía más popular sitio para compartir fotos, Flickr. De manera parecida, las redes sociales como Facebook y MySpace cada vez permiten más que el almacenamiento de imágenes, palabras y mensajes de la vida de las personas sea una cuenta virtual accesible desde cualquier lugar en el mundo, en vez de ser el hard drive de un aparato que poseen físicamente. De hecho, las redes sociales —que ofrecen una experiencia cada vez más de todo-en-uno virtual— pueden convertirse en un factor instrumental a la hora de llevar a toda una generación de usuarios de Internet hacia una mentalidad de nube.
De cara al futuro Hoy día proliferan los potentes servicios de informática remota, junto con conjuntos de servicios que animan a las empresas a externalizarlo todo, desde el correo electrónico hasta el almacenamiento de datos. Tanto las plataformas de hardware como los servicios de software se pueden ofrecer de manera remota, mientras que la integración de servicios basados en la nube en otro software es cada vez más habitual, como en el caso del paquete Office de Microsoft, que en 2010 introdujo funciones de red en todos sus servicios principales.
001-222 50 ideas digital.indd 170
22/02/2012 16:12:30
Informática en la nube
171
Limitaciones de la nube La informática en la nube no está exenta de críticos, muchos de los cuales mencionan las implicaciones de seguridad del hecho de que particulares y empresas almacenen cada vez más datos de manera remota en aparatos que no poseen físicamente. Los proveedores de nubes alegan que los datos están más protegidos y copiados con mayor seguridad en un sistema de nube que en cualquier otro lugar. Pero sigue habiendo preocupaciones legales, en especial sobre que las empresas de nube pudieran ser obligadas a entregar datos en circunstancias que no serían aplicables si los datos estuvieran almacenados en dispositivos de propiedad personal.
Otros problemas incluyen la dificultad de customizar los sistemas de nube, en comparación con los programas locales; las exigencias técnicas y logísticas de cambiar a nuevos modelos de negocio y la posibilidad de que haya interrupciones en la conectividad. Parece poco probable que ninguno de estos factores tenga el peso suficiente para detener el avance de la nube durante demasiado tiempo; algo que a la larga podría significar una acumulación de poder sin precedentes en manos de una serie relativamente pequeña de empresas, que poseen de hecho y gestionan los programas que permiten funcionar a la mayoría del resto de empresas.
Una pregunta para el futuro es el equilibrio: ¿qué parte de un negocio o servicio se basará en la red, y cuánta de su tecnología seguirá siendo local? Para los defensores del software libre y de código abierto, las tecnologías basadas en la red dejan una cantidad peligrosa de poder en manos de grandes corporaciones que gestionan los sistemas de nube, y potencialmente limitan el tipo de innovaciones y colaboraciones que se han derivado de un Internet abierto basado en muchos miles de servicios y enfoques distintos. Mientras, se siguen estudiando las mejoras en la funcionalidad de la informática en la nube por todo el mundo, con el acceso desde los dispositivos móviles, una mayor flexibilidad y una seguridad mejorada como los mayores puntos de preocupación.
La idea en síntesis: la potencia informática se está convirtiendo en un servicio universal
001-222 50 ideas digital.indd 171
22/02/2012 16:12:30
172
Tendencias transformadoras
42 Hacerse viral Un virus es una forma primitiva de vida capaz de producir cantidades enormes de copias de sí mismo en poco tiempo: algo que lo ha convertido en la metáfora perfecta de la manera en que las ideas, las palabras, los sonidos y las imágenes se pueden reproducir en el mundo digital, donde el coste de reproducción es casi nulo y el resto del mundo está solo a un clic de la infección.
«
La idea del contagio vírico a través de los ordenadores era inicialmente negativa: fragmentos de software maligno se diseñaban para engañar a los usuarios informáticos y extenderse automáticamente de un aparato a otro, de manera muy parecida a las infecciones biológicas. Tales programas siguen siendo un gran problema para la informática moderna, pero la idea del contagio vírico ha pasado a aplicarse cada vez más a un proceso cultural activo más positivo, donde fragmentos de cultura impactantes o divertidos se detectan y se distribuyen por la red por un número de personas que crece rápidamente. Este es un proceso que tiene mucho que ver con la noción de los memes del científico Richard Dawkins: ideas que se comportan dentro de la sociedad humana de manera parecida a los genes dentro del Meme Zero Wing, 1991 cuerpo, replicando efectivamente copias de ellas mismas gracias a su contagio de una persona a otra. Internet ha facilitado muchísimo este proceso. Desde una subcultura de los primeros tablones de anuncios, los memes han evolucionado hasta el más generalista de los fenómenos digitales y una zona autoperpetuada de autorreferencia barroca que actualmente se apropia en cualquier contexto, desde la publicidad hasta el arte conceptual.
Todas vuestras bases nos pertenecen.
»
Memes anteriores a la red Antes de que existiera la World Wide Web, ciertas frases se hicieron famosas en los inicios de Internet, una de las cuales es considerada por algunos como el primer meme de Internet: se trata de «Garbage In: Garbage Out»* —a menudo abrevia* La traducción sería «Basura dentro: basura fuera». (N. de la t.)
Cronología 1976
1982
Richard Dawkins acuña la idea de los memes
Uso del primer emoticono
001-222 50 ideas digital.indd 172
22/02/2012 16:12:30
Hacerse viral
173
do con el acrónimo GIGO—, que se atribuye tanto al programador y periodista Wilf Hey como a uno de los primeros programadores de IBM, George Fuechsel. Acuñado para subrayar el hecho de que el resultado de un ordenador es solo tan bueno como la calidad de lo que se introduce en él, GIGO se convirtió en una especie de lema extraoficial de los primeros programadores. Otro aspirante a primer meme digital podría ser el primer emoticono —el uso de la puntuación para retratar una cara humana—, que es el caso de :–); se remonta a más o menos 1982 y se ha repetido incansablemente desde entonces. Uno de los pocos memes confirmados que han existido en Usenet —un sistema global de discusión de Internet lanzado por primera vez en 1980— se remonta a 1991, cuando una discusión sobre estilos de artes marciales llevó a un usuario a inventarse una «antigua arte marcial celta llamada Greenoch» ficticia, a partir de la cual la palabra Greenoch adquirió una fama casi instantá-
Rickrolling De todos los fenómenos virales impulsados por Internet, pocos son más deliciosamente raros que el rickrolling. El principio es lo bastante simple: en una situación virtual, alguien finge estar compartiendo un enlace útil con una fuente relevante, pero su enlace lleva a cualquier víctima inocente a abrir un vídeo del hit de 1987 de Ricky Astley «Never Gonna Give You Up». Esta extraña práctica empezó, como muchos otros memes, en 2007 en la infame página web de imágenes 4chan como variante de un meme anterior con una gamberrada similar llamada duckrolling. En 2008, el fenómeno se había extendido por toda la red, donde obtuvo un impulso impactante, llevándose a decenas de millones de víctimas y culminando en noviembre de 2008 con el mismísimo
Astley haciendo un rickroll sorpresa en el desfile de Thanksgiving de Macy’s en Nueva York. El rickrolling, una combinación de chorrada con la broma típica de colegio, es un ejemplo de la cultura viral, no solo por su manera de extenderse sino por las incontables variaciones que sigue exhibiendo, desde las cuidadosas reelaboraciones de los discursos de Barack Obama que lo hacen aparecer como si cantara la letra de una canción, hasta el movimiento online masivo que en 2008 premió a Astley como la actuación más votada de la MTV de todos los tiempos. No tiene ningún sentido, ni tiene por qué tenerlo, más allá del impulso de un fenómeno alimentado no tanto por la creencia colectiva, como por el deleite de la colectividad con lo absurdo.
1996
2004
Aparición de los primeros memes en la red
Se acuña el término de marketing viral «usuarios alfa»
001-222 50 ideas digital.indd 173
22/02/2012 16:12:30
174
Tendencias transformadoras
Cámaras de eco Una de las críticas más contundentes hechas en los últimos años de la cultura online y la viralidad proviene del académico legal estadounidense Cass Sunstein. Alega que el flujo rápido e ininterrumpido de ideas entre individuos de pensamientos afines por la red amenaza con convertir buena parte de la cultura popular en una serie de «cámaras de eco»: espacios que permiten a la gente confirmar simplemente sus propias opiniones y gustos establecidos, sin toparse ni transmitir nada que no atraiga de inmediato a sus particulares sensibilidades. Es un fenómeno que,
de ser real, supone el mismo peligro para la cultura que para la política, con la probabilidad de llevar a las personas a encerrarse en posicionamientos extremos, y permitiendo a aquellos que están en un extremo del espectro reforzar sus gustos extremos, por muy antisociales o reprensibles que resulten. Para algunos, obviamente, esta exhaustividad es uno de los grandes activos de la cultura digital, junto con su capacidad sin límites de extender ideas e imágenes por canales receptivos. Pero eso no niega los peligros y las limitaciones de los que Sunstein, entre otros, nos alerta.
nea y de paso se ganó un lugar en la historia de Internet como ejemplo de alegación absurda.
Vitalidad y la red Casi todos los modernos memes digitales da-
tan de después del lanzamiento de la web. La web también marcó la llegada de lo que pronto demostraría ser una red lo bastante amplia de usuarios para la extensión realmente viral de enlaces, ideas, imágenes y palabras... siendo el criterio principal de los fenómenos víricos su naturaleza espontánea y descentralizada. Los fenómenos virales digitales han tendido a ser cosas que provocan una respuesta emocional rápida y contundente en el público: indignación, placer, diversión, pero normalmente algo confusamente inútil y con un componente visual. Algunos de los primeros memes de la web incluían imágenes burdas de personajes famosos pronunciando la frase «se me comió los huevos» (1996), una animación tridimensional de un bebé que baila (1996) y un collage de una pantalla llena de hamsters dibujados bailando con música acelerada (1998). Eran un poco cutres, rudos, monos, sorprendentes, asociados a famosos y fáciles de entender. Eran también mucho más difíciles de extender que los memes modernos, teniendo en cuenta la ausencia no solo de redes sociales y de páginas para compartir archivos, sino también de Google.
Servicios víricos La extensión vírica es el mecanismo por defecto
por el cual muchos servicios virtuales consiguen sus objetivos: a través de enlaces y recomendaciones y el proceso de refuerzo de buscadores que recogen este impulso y dirigen el tráfico nuevo hacia ellos. Servicios
001-222 50 ideas digital.indd 174
22/02/2012 16:12:30
Hacerse viral como los mismísimos Google y Yahoo! consiguieron buena parte de su éxito inicial a través de redes de recomendación y enlaces, como posteriormente lo harían servicios sociales como MySpace y Facebook.
175
«
Por muy listos que nos hagamos, siempre tenemos esta parte profunda e irracional que nos convierte en rehenes potenciales de la información que se autorreproduce.
La viralidad es generalmente un método de difusión para las compañías más jóvenes o pequeñas, que, una vez establecidas, cada vez recurrirán más a las tácticas convencionales de marketing para reforzar su Neal Stephenson posición y sus ventajas. Pero se puede convertir en un arma de doble filo, teniendo en cuenta la facilidad con la que la insatisfacción, los rumores y la negatividad también se difunden.
»
La viralidad se generaliza A medida que se iba normalizando el consumo de medios por la red, la web ha experimentado la mayor extensión viral de materiales que reflejan cada vez más las preocupaciones generales. La gente a la que más se sigue en las redes sociales son los actores, los músicos y los famosos; en enero de 2011, los tres vídeos más vistos en YouTube fueron todos grabaciones de gran presupuesto de canciones famosas de Justin Bieber (425 millones de visitas), Lady Gaga (327 millones) y Shakira (270 millones). Esto refleja no tanto la pérdida de la subcultura de Internet, como la pérdida de Internet como subcultura; en cambio, casi toda la corriente dominante cultural se está metiendo rápidamente en la red y en el proceso se está sometiendo a la estructura viral inherente a la red. Tanto las empresas como los particulares son muy conscientes de este hecho, lo que ha provocado la situación paradójica de que lo que más persiguen los negocios, los publicistas y los individuos creativos es una oleada perpetua de interés virtual por su trabajo... una señal de que «se han hecho virales». En estos casos, la metáfora biológica es especialmente adecuada, puesto que el arte de urdir el contagio vírico pasa por identificar a individuos sensibles a ideas concretas y propensos a extenderlas —que las compañías de marketing a veces llaman «usuarios alfa».
La idea en síntesis: la transmisión vírica es el estado por defecto de la cultura digital
001-222 50 ideas digital.indd 175
22/02/2012 16:12:30
176
Dar forma al futuro digital
43 Mundos virtuales Los mundos virtuales son una de las encarnaciones más puras de las nuevas posibilidades presentadas por la cultura digital: lugares independientes irreales que la gente puede «visitar», en los que puede interactuar y que puede utilizar para experimentar con distintas maneras de ser. La idea de mundos así es muy anterior a la tecnología informática; sin embargo, en las últimas décadas ha pasado a una velocidad considerable de ser un experimento puramente imaginario a moverse en terrenos potentes tanto artísticos como experimentales y, en forma de juegos virtuales con multitud de jugadores, se ha convertido en uno de los negocios digitales más dinámicos y rentables del siglo xxi. En 1974 apareció un videojuego primerizo llamado Maze War, que dejaba que múltiples jugadores circularan por un rudimentario laberinto en 3D gritándose entre ellos, tal vez el primer ejemplo de un mundo gráfico compartido que se creaba en los ordenadores. Sin embargo, el primer auténtico mundo virtual fue uno que se basaba enteramente en las palabras. Introducido en 1978, fue bautizado como Multi-User Dungeon o MUD: consistía en una serie de descripciones de salas y ubicaciones interconectadas, y varios usuarios desde distintos terminales informáticos podían moverse a través de sencillas órdenes geográficas, hablando entre ellos y relacionándose con el mundo. MUD1, como se acabó conociendo, fue creado por el programador Roy Trubshaw en la Universidad de Essex, en Gran Bretaña, en colaboración con otro estudiante llamado Richard Bartle, que siguió desarrollándolo una vez que Trubshaw ya había abandonado la universidad. Curiosamente, todavía hoy se puede seguir jugando virtualmente a una versión del MUD1. La gran innovación de MUD era doble: permitir a muchos jugadores ocupar el mismo espacio al mismo tiempo, pero también permitirles habitarlo no simplemente como ellos mismos, como en el caso de una sala de chat, sino interpretando el papel de personajes implicados en
Cronología 1974
1978
1991
Primer juego tridimensional
Primer mundo virtual habitado por muchos personajes
Lanzamiento de Neverwinter Nights
001-222 50 ideas digital.indd 176
22/02/2012 16:12:30
Mundos virtuales la exploración de un mundo alternativo a veces peligroso. Desde el principio, la relación entre mundos virtuales y juego era muy estrecha.
177
«
No jugamos con juguetes sino con personas. Tenemos que usar lo que ya tenemos y marcar la diferencia.
Llegada la década de 1980 empezaron a aparecer los elementos gráficos. Uno de los primeros mundos virtuales gráficos en red apareció en 1986. Se llamaba Air Warrior y permitía a los jugadores participar en combates aéreos simula- Raph Koster dos entre ellos a través de un primario sistema de red informática llamado General Electric Network for Information Exchange, abreviado como GEnie. GEnie también albergó algunos de los primeros experimentos con mundos compartidos más complejos, como el juego de fantasía GemStone, de 1988, basado en texto. El primer juego de este tipo que incorporó gráficos, Neverwinter Nights, apareció en 1991 en la red de America Online.
»
Mundos abiertos Mientras Internet empezaba a convertirse en la forma predominante de informática en red, paralelamente a los jue-
Lecciones virtuales para vidas reales Una de las áreas de estudio más fascinantes que aparecen con los mundos virtuales es su impacto potencial en el estudio de la conducta humana. Desde la psicología hasta la economía y la política, la capacidad de medir y comparar precisamente las conductas humanas dentro de entornos tridimensionales complejos es algo que no tenía precedentes. Aunque los personajes de los mundos virtuales no son reales, las personas que hay detrás de ellos sí lo son, y a menudo exhiben una serie de comportamientos mucho más «realistas» de los que pueden lograrse en condiciones
experimentales... y en una escala mucho más grande. La economía, en concreto, es un símil muy real en muchos mundos virtuales, donde tienen lugar sistemas de trueque, monopolios, subastas y complejas colaboraciones entre jugadores. De manera más directa, los entornos de entrenamiento virtual se utilizan cada vez más para formar en cualquier disciplina, desde pilotos y soldados hasta cirujanos, recepcionistas y conductores de tren, con miles de millones invertidos anualmente por el ejército de Estados Unidos, entre otros, en programas y herramientas de simulación.
1999
2003
2004
Lanzamiento de EverQuest
Lanzamiento de Second Life
Lanzamiento de World of Warcraft
001-222 50 ideas digital.indd 177
22/02/2012 16:12:30
178
Dar forma al futuro digital
«
Cualquiera que tema por los efectos de los mundos virtuales sobre las relaciones sociales ha de dirigir su preocupaciones a la televisión antes de fijarse en los mundos virtuales. Richard Bartle
»
gos empezaron a aparecer otras formas más abiertas de mundos virtuales. Estaban tipificadas por creaciones como The Palace, de 1995, que permitía a los usuarios crear sus propios palacios bidimensionales, dentro de los cuales podían hablar entre ellos y customizar avatares individuales. Mundos virtuales abiertos y sin restricciones como The Palace ofrecían importantes y nuevos tipos de espacios y experiencias sociales. Pero fue dentro de los juegos —en los que los participantes estaban llamados a conseguir objetivos concretos y obligados a colaborar— donde los mundos virtuales empezaron a demostrar todo su potencial como motores del compromiso humano. El primer juego virtual tridimensional con participación masiva de jugadores (normalmente conocidos como MMO, por «massive multiplayer online»), el Meridian 59, apareció en 1996 en su versión comercial, seguido en 1997 de uno de los mundos virtuales más influyentes de la historia: Ultima Online.
Juegos de MMO Ultima Online fue el primer mundo virtual tridimensional que alcanzó una población de más de 100.000 participantes. Su éxito allanó el camino para un nuevo tipo de entorno virtual complejo: uno lo bastante atractivo como para llevar al desarrollo de toda una economía sumergida de dinero del mundo real, basada en la creación y venta de artículos y propiedades virtuales (véase el capítulo 36). Desde Ultima, los MMO complejos han seguido siendo un sector floreciente, con grandes lanzamientos que han ido desde el EverQuest en 1999 hasta el EVE Online en 2003 y, tal vez el más famoso de todos, el World of Warcraft en 2004, que hoy cuenta con más de 12 millones de jugadores. Pero hay también espacios virtuales más sencillos que se han ido volviendo populares, en estilos que van desde la conducción hasta las peleas, la gestión y la estrategia en tiempo real.
Más allá del juego Aparte de los juegos, la influencia de los mun-
dos virtuales ha seguido creciendo. En 2003, la empresa estadounidense Linden Lab sacó Second Life, un espacio online en el que se otorgaba a los jugadores un grado de libertad sin precedentes para que desarrollaran vidas a través de sus avatares, comprando terrenos virtuales y consumiendo bienes virtuales de una serie de compañías reales con presencia virtual en Second Life.
001-222 50 ideas digital.indd 178
22/02/2012 16:12:30
Mundos virtuales
179
Juegos peligrosos El giro de la atención hacia mundos virtuales conlleva diversos temores, algunos de los cuales se centran en la negligencia hacia la vida real. Se cuentan anécdotas de advertencia sobre «viudas del Aircraft» que abandonan a sus maridos por culpa de su hábito jugador, o de casos más extremos en los que el bebé de una pareja ha muerto por negligencia mientras los padres jugaban a un juego online. Teniendo en cuenta las decenas de millones de personas que participan en estos juegos en la actualidad, los casos extremos siempre existirán. Pero los estudios sugieren que aquellos predispuestos a la conducta adictiva han de proceder con
cautela por las extraordinariamente atractivas experiencias que algunos mundos de juego son capaces de ofrecer... y que las empresas podrían hacer algo más por promover un uso equilibrado de sus productos. Pero hay también esperanza en las características más esenciales de los mundos virtuales: son muy interactivos y permiten participar a muchos jugadores, a diferencia de los medios lineales como la televisión. Porque los mundos virtuales no son inevitablemente aislantes o una simple cuestión de «irrealidad», sino que pueden también ser una vía hacia la acción y una manera de volver a involucrarse con el mundo.
Second Life es esencialmente un espacio social, construido para disfrutar de los placeres fantásticos de crear cualquier cosa, desde palacios hasta fábricas virtuales, pero ha aparecido como local virtual de cualquier cosa, desde reuniones de trabajo hasta colaboraciones artísticas y clases. Y también cada vez más, se han desarrollado mundos virtuales especializados para atender estas exigencias variadas, que van desde las simulaciones educativas como Whyville —fundado en 1999 y usado actualmente por más de cinco millones de personas— hasta entornos para la formación en el ámbito de los negocios, militar o médico. El ocio sigue siendo la fuerza dominante del sector, pero con el avance gradual en la aplicación de los entornos virtuales dentro de campos que van desde la educación hasta el entrenamiento y la simulación, lo que algunos llaman «Internet tridimensional» parece listo para salir de sus primeros límites hacia una gama cada vez más diversa de otros reinos.
La idea en síntesis: crear mundos virtuales ayuda a crear otras maneras de ser
001-222 50 ideas digital.indd 179
22/02/2012 16:12:30
180
Dar forma al futuro digital
44 Avatares La palabra avatar deriva del vocablo sánscrito que describe la encarnación de un dios en otro ser. En tecnología, describe la forma en que se representa una persona dentro de un entorno digital —ya sea la forma de un personaje dentro de un mundo virtual o, sencillamente, un icono o nombre dentro de una sala de chat o de un foro virtual—. Esta noción de encarnación digital es fundamental en buena parte de la cultura digital y para entender las conductas dentro del reino digital. Hay básicamente dos clases distintas de avatar. La primera, también cronológicamente, son los avatares estáticos que solo representan a las personas en territorios de la red que van desde los foros de discusión hasta blogs y algunas redes sociales. La segunda, personajes digitales reales que las personas pueden controlar dentro de los mundos, juegos o entornos digitales, y que a su vez pueden tener pertenencias o propiedades virtuales y a menudo se pueden customizar detalladamente. Como sugiere la película de James Cameron de 2009 Avatar —en la que personajes humanos pueden, a través de la tecnología, habitar y controlar cuerpos extraños artificiales—, los avatares no tienen por qué ser figuras humanas. De hecho, ni siquiera tienen por qué ser ni animales ni seres vivos. Hasta cierto punto, cualquier objeto virtual controlado por un humano puede considerarse un avatar, aunque el término suele implicar cierto grado de personificación e identificación.
Los primeros avatares El término avatar se utilizó por primera vez en el sentido digital en 1985, para significar simplemente los iconos que se colocaban junto al nombre de las personas en los primeros foros de debate de Internet. Pero no fue hasta la aparición de la novela de Neal Stephenson Snow Crash, en 1992, cuando el término empezó a popularizarse. Los avatares de los primeros foros eran en general hacks hechos por usuarios avanzados, más que símbolos estandarizados... y en muchos casos funcionaban como firmas digitales mejoradas, con caras o iconos dibujados con símbolos ASCII.
Cronología 1985
1992
1995
Primera utilización de la palabra avatar en sentido digital
Neal Stephenson populariza el término avatar
Primeros avatares tridimensionales en los chats
001-222 50 ideas digital.indd 180
22/02/2012 16:12:30
Avatares
181
El tipo de personalización que ofrecían los avatares tenía un atractivo universal, y a mediados de la década de 1990 muchos foros de discusión ofrecían avatares como elemento estándar, normalmente en forma de pequeños recuadros para ser ocupados por una imagen pixelada. La temprana sala de chat Virtual Places Chat fue, en 1994, una de las primeras en ofrecer avatares a sus usuarios en forma de pequeñas imágenes bidimensionales, seguidas al año siguiente por otros servicios que ofrecían rudimentarios avatares tridimensionales como parte de la experiencia del chat.
Vivir en un avatar Una vez que la idea de avatar empezó a salir
del simple icono bidimensional para pasar a las tres dimensiones, se estableció una sinergia natural entre el campo ya afianzado de los videojuegos y los campos emergentes de los gráficos tridimensionales y el chat online como experiencia más inmersiva que la que ofrecen sencillamente las salas de chat. Los juegos de multijugadores masivos en tres dimensiones empezaron a desarrollarse por la red a partir de 1996 (véase el capítulo 43), y pronto resultó evidente que los avatares
Extraños altos y morenos ¿Cómo influye el aspecto de alguien en su conducta y en la de los demás en el mundo virtual? Tal vez no resulte raro que los experimentos con distintos tipos de avatares hayan hallado que la gente suele sentirse más segura y dispuesta a atraer a los demás cuando usan avatares más atractivos. Pero resulta todavía más interesante el hecho de que estos efectos pueden traspasarse al mundo real, y que después de usar avatares atractivos y haberse mostrado seguros en la red, las personas pueden, durante un breve período de tiempo,
sentirse más seguras en el mundo real. Las implicaciones de esto pueden resultar difíciles de concretar, pero sugiere que los procesos de identidad e identificación asociados con la adopción de una presencia digital secundaria no difieren demasiado de nuestro sentido de la identidad personal... y que el futuro de la identidad puede, en parte, suponer un diálogo entre las distintas maneras en que las personas interactúan entre ellas, y las distintas maneras que constituyen las distintas versiones de «ellos».
2006
2010
Nintendo introduce los miis
Lanzamiento del Kinect de Microsoft
001-222 50 ideas digital.indd 181
22/02/2012 16:12:31
182
Dar forma al futuro digital que utilizaba la gente dentro de ellos representaban un nuevo orden de inmersión en la experiencia online. A medida que los juegos y los mundos virtuales alcanzaban un público masivo, la sofisticación de la customización de los avatares creció rápidamente, junto con las posibilidades de la acción. Aprendiendo de los juegos virtuales, la creación de avatares a medida se convirtió pronto en un elemento básico de la mayoría de juegos de gran presupuesto, con personajes susceptibles de adaptarlo todo, desde el peso y la altura hasta el color del pelo, la ropa y los accesorios. El grado de inversión del usuario en tales avatares se puede calcular por el considerable mercado que hay alrededor de la compra de accesorios virtuales, un gran canal de ingresos en particular para los juegos en red de Asia, que suelen ser de participación gratuita y luego apoyados en micropagos para los elementos extra. Hay también un número creciente de juegos y mundos virtuales que implican que los jugadores han de mantener entornos elaborados en los que habitan e interactúan sus avatares... y hasta juegos dentro de juegos para que los avatares jueguen.
Personificación Con la aparición de la primera generación de tecnología asequible de fabricación masiva y de control de movimiento —representada por el éxito del periférico Kinect de Microsoft para su consola Xbox 360— ha aparecido otra posibilidad: el control directo y en tiempo real del cuerpo del jugador y sus acciones traspasado a un entorno virtual. Las funciones de Kinect a través de cámaras estereoscópicas que captan el movimiento son capaces de seguir el de dos personas en una habitación y utilizar esta información para controlar los avatares de la pantalla con gran precisión, basándose en el modelo de las articulaciones y el esqueleto. Ahora, con el Kinect que lleva reconocimiento de voz y de rasgos faciales a través de sus cámaras y micrófonos; eso significa la llegada de la personificación digital en avatares en un nuevo sentido íntimo: el cuerpo, la cara y la voz de alguien transportados sin mediación alguna a acciones en vivo en una pantalla y en interacción con otros avatares controlados de manera parecida.
001-222 50 ideas digital.indd 182
Terreno personal Con la última generación de consolas de juego se ha dado un salto más en la personificación virtual. Aparecida en 2006, la consola Wii de Nintendo le pedía a cada usuario que se creara una versión tipo viñeta de él mismo —conocido como mii— para su uso no en un solo juego, sino en todos los juegos que se adquirieran para ese sistema. Además, se utilizan los miis de los distintos jugadores para llenar de gente los juegos, siendo cada consola capaz de almacenar hasta cien miis distintos... y de juntarlos con miis de otras consolas por Internet. Esta noción de avatares gráficos universales repartidos por toda una gama de servicios fue introducida en 2008 por Microsoft con su consola Xbox 360, que permitía a los jugadores crearse un personaje a medida para utilizarlo por toda una serie de juegos.
22/02/2012 16:12:31
Avatares
«
183
Por un lado me asusta y por el otro me fascina pensar adónde llevará a la gente. ¿Qué impacto tiene una identidad falsa sobre tu identidad real? Susan Greenfield
»
El sistema fue lo bastante aceptado como para que en 2009 Microsoft introdujera un Mercado Avatar, en el que se vendía ropa y accesorios para sus avatares, incluyendo productos virtuales de marcas conocidas. Microsoft no ha sido el único: el mundo virtual Second Life dispone de un próspero mercado de productos virtuales con marcas reales.
Tecnología de emergencia El futuro de los avatares se está
definiendo rápidamente como una combinación de nueva tecnología de interfaces (véase el recuadro de la página anterior) y de un nuevo nivel de realismo en el desarrollo informático de modelos. El departamento de investigación de un estudio británico de juegos, Blitz Games Studios, ha demostrado, por ejemplo, una tecnología avatar de próxima generación que crea cabezas humanas ultrarrealistas siguiendo una serie de escalas proporcionales que el usuario puede modificar en tiempo real para definir cualquier franja o combinación de género, tono de piel, raza, tipo y estilo de rasgos, peso, edad, complexión, pelo y accesorios. Teniendo en cuenta la calidad casi cinemática de los modernos modelos tridimensionales y de la captación de movimiento, la perspectiva de egos virtuales a medida, casi imposibles de diferenciar en pantalla de las escenas filmadas, no es algo tan lejano... algo que ya han demostrado las versiones cada vez más realistas de personas, desde jugadores de fútbol famosos hasta actores, que se encuentran en los videojuegos comerciales más caros.
La idea en síntesis: el mundo digital está lleno de otros yos
001-222 50 ideas digital.indd 183
22/02/2012 16:12:31
184
Dar forma al futuro digital
45 Neutralidad de la red
El principio de «neutralidad en la red» afirma que ni los Proveedores del Servicio de Internet (ISP) ni los gobiernos han de poder imponer restricciones en el uso de Internet: los clientes que pagan cierta cantidad a cambio del acceso a Internet han de recibir todos el mismo nivel de servicio y ser libres de usar los aparatos, sitios y servicios que quieran. Desde mediados de la década de 2000, este tema ha sido una de las fuentes de debate más candentes sobre el futuro de Internet, con muchas figuras influyentes defendiendo la neutralidad de la red como principio vital. En contra, los críticos han alegado que la capacidad de diferenciar entre distintos tipos de tráfico en Internet y de permitir a los clientes pagar por una «línea rápida» forma parte de la competición abierta y de la maximización de recursos limitados. La neutralidad de las redes de comunicación ha sido tema de debate y legislación desde el invento del telégrafo en 1860, pero la neutralidad de la red en sí es algo relativamente reciente. El debate actual fue anticipado en un artículo de junio de 2003 del profesor Tim Wu, de la Columbia Law School, titulado «Network Neutrality, Broadband Discrimination», que examinaba el concepto de la neutralidad en la red en las normativas de telecomunicaciones y su relación con las teorías darwinianas de la innovación. En su corazón hay una cuestión muy simple: ¿han de tener los proveedores de Internet derecho a ofrecer a las empresas un servicio de tarifa especial que permita que sus contenidos circulen por la red más rápido que otro tráfico más «normal»? El debate, de momento, ha sido muy candente en Estados Unidos, pero plantea cuestiones que el mundo en general debe responder y que tendrán un efecto profundo en la futura naturaleza de Internet y de las empresas que operan por la red. Un Internet «abierto» está casi
Cronología 2003
2005
Primer artículo sobre la neutralidad en la red de banda ancha
Declaración de Normativa de Banda Ancha de la FCC
001-222 50 ideas digital.indd 184
22/02/2012 16:12:31
Neutralidad de la red
185
Cómo se configura el tráfico Los Proveedores del Servicio de Internet (ISP) gestionan enormes cantidades de datos para ofrecer el acceso a Internet a varios millones de personas, y eso significa que una de las cuestiones más vitales para su industria es cómo hacer que sus redes sean lo más eficientes y efectivas posible. La «configuración del tráfico» adopta muchas formas, pero básicamente se resume siempre en lo mismo: retrasar paquetes concretos de datos para controlar el volumen de tráfico en cualquier momento. Eso puede suponer la simple retención de datos basándose en el nivel de tráfico, o puede recurrir
a maneras más complejas de clasificar los distintos tipos de datos. En las redes cada vez más complejas gestionadas por muchas compañías, la configuración del tráfico es una herramienta vital. Pero como demuestra el debate sobre la neutralidad en la red, hay mucha gente que cree que cuando hablamos del abastecimiento básico del servicio de Internet no es aceptable que los proveedores diferencien entre datos de distintos niveles de prioridad. Naturalmente, muchos proveedores del servicio discrepan y consideran la configuración sofisticada del tráfico como parte integral de su negocio.
universalmente considerado deseable como principio, pero las crecientes cantidades de tráfico que se transmiten a través del mismo y su creciente centralidad para buena parte del mundo comercial significan que para algunos no tiene sentido intentar proteger la total igualdad en todos los aspectos de acceso y servicio.
Un Internet abierto En 2005, la Comisión Federal de Comuni-
caciones (FCC) estadounidense estableció los principios básicos de un Internet abierto en las cuatro directrices para su Declaración de Normativa de Banda Ancha, afirmando los derechos de los consumidores a acceder a cualquier contenido que deseen vía cualquier proveedor de Internet y a través de cualquier dispositivo y usando cualquier aplicación, siempre y cuando todo ello fuera legal. Estos cuatro principios no cubren explícitamente el principio de discriminación entre distintos servicios de Internet... algo que en 2009 llevó al presidente de la FCC a proponer que se añadieran dos directrices más a la Declaración de Normativa, prohibiendo a los proveedores de Internet que discriminaran en manera alguna entre el nivel de servicio que se ofrecía para las distintas aplicaciones y tipos de contenido, y asegurando que
2010 Comcast gana el juicio contra la FCC
001-222 50 ideas digital.indd 185
22/02/2012 16:12:31
186
Dar forma al futuro digital
El tema de la innovación Uno de los puntos fundamentales del debate sobre la neutralidad en la red es la innovación... y la capacidad de Internet de ofrecer una idea individual brillante a un público enorme sin la necesidad de levantar antes una enorme cantidad de financiación. Como lo formulaba el grupo de la campaña Save the Internet, «la neutralidad en la red garantiza que los innovadores puedan empezar desde abajo y levantar grandes sueños sobre convertirse en el siguiente eBay o Google sin enfrentarse a obstáculos insuperables». Si, alegan, las empresas establecidas pueden pagar para aumentar su propia accesibilidad
online, o si las compañías jóvenes han de pagar tarifas especiales para mantener una presencia digital competitiva, buena parte del dinamismo innovador de la red tal y como la conocemos se verá amenazado. Pero por lo que atañe a muchos ISP y otras agencias, lo contrario es cierto, y a menos que haya modelos flexibles de financiación que permitan grandes inversiones en infraestructura de Internet, dejará de ser un territorio innovador debido al descenso gradual de la calidad de acceso, al aumento de los impresionantes niveles de tráfico, a los sitios basura y a una legislación sobreprotectora.
los clientes siempre tuvieran un acceso abierto y claro a todos los detalles de la normativa. A pesar de estos cambios, la FCC ha tenido dificultades legales para impedir que los proveedores del servicio varíen las velocidades a las que se puede acceder a los distintos tipos de contenidos. En un juicio de 2010, el proveedor estadounidense Comcast ganó un caso contra la FCC, defendiendo su derecho a ralentizar el tráfico peer-to-peer entre usuarios —un gesto que tenía por objetivo restringir la cantidad de archivos que se compartían entre ellos— en nombre de la buena gestión de la red. Aparte de demostrar los límites de los poderes reguladores como la FCC, el caso de 2010 subrayó las diferencias dentro de la noción de lo que tenía que significar exactamente la neutralidad en la red: ¿tenía que permitirse la discriminación limitada, siempre y cuando la mejor calidad del servicio no vaya asociada a un mayor pago? ¿O han de transmitirse los datos totalmente en base al orden temporal, con las peticiones de datos de los usuarios sujetas tan solo a su orden de llegada? A principios de 2011, mientras Estados Unidos y otros países tienen leyes que protegen algunos aspectos de un Internet abierto, no hay prácticamente legislación vinculante que impida a los proveedores del servicio restringir o filtrar el acceso de los usuarios a distintos sitios y servicios.
Pro neutralidad En los últimos años, un grupo influyente y prominente de empresas y particulares se han manifestado a favor de una
001-222 50 ideas digital.indd 186
22/02/2012 16:12:31
Neutralidad de la red
187
«
A medida que la web se convierte en medio de transporte de contenidos cada vez más ricos, la cuestión de si todo el contenido de todos los proveedores recibe el mismo trato de las redes se vuelve más cortante.
»
Mark Thompson, director general de la BBC protección legal formal de este tipo, incluyendo al creador de la World Wide Web, Tim Berners-Lee, Google, Microsoft, Yahoo! y Barack Obama. A lo que se oponen no es a todas las formas de discriminación entre los distintos tipos de datos en la red, sino entre las distintas posibilidades de las personas de acceder al mismo tipo de datos. El argumento es que los «guardianes» —como se conoce a menudo a los ISP— no han de poder determinar que un mismo contenido, música, vídeo o producto, sea más fácilmente accesible desde una fuente que desde otra. Sin embargo, esto no incluye el derecho a dar prioridad a diferentes tipos de tráfico online: dar a los envíos de archivos una prioridad menor que a las interacciones de voz, por ejemplo. En Gran Bretaña, el director general de la BBC, Mark Thompson, afirmaba a principios de 2011 que es vital para la misión de servicio público de la BBC que los ISP no puedan cobrar a las empresas por ofrecer un acceso mejorado a sus páginas web. La UE, en el momento de redactar estas líneas, se encontraba elaborando una nueva legislación reguladora para la provisión de Internet, ya que la actual legislación parece poco preparada para impedir a las empresas ofrecer un servicio de distintas velocidades, si así lo desean. Mientras, muchas empresas globales de Internet y cable, entre otras, han expresado sus críticas a los argumentos a favor de la neutralidad, sugiriendo que las mejores oportunidades de ingresos que ofrece la provisión de un servicio de distintas velocidades son importantes para la inversión futura en Internet, y que con la rápida evolución del mundo de la legislación y la tecnología digitales, cualquier legislación aprobada tenderá a ser tan inefectiva como a quedar rápidamente anticuada.
La idea en síntesis: ¿puede toda la actividad en la red permanecer igual?
001-222 50 ideas digital.indd 187
22/02/2012 16:12:31
188
Dar forma al futuro digital
46 Web semántica A los ojos del creador de la World Wide Web, Tim BernersLee, el futuro de su creación está en un proyecto que ha bautizado como «web semántica». Como una nueva manera de pensar cómo se «codifica» la información online, la web semántica propone remplazar el sistema sencillo de páginas enlazadas entre ellas utilizadas por la actual web con un sistema mucho más rico para describir la naturaleza y el contenido exactos de toda la información que hay en una página web. Estas descripciones «semánticas» tendrían el potencial de localizar e integrar automáticamente toda la información relacionada. El sistema podría representar ni más ni menos que una revolución tan grande como la primera encarnación de la web otra vez. Tim Berners-Lee estableció por primera vez su visión de la web semántica en su libro Weaving the Web, afirmando: «Tengo un sueño para la web... y tiene dos partes. En la primera, la web se convierte en una manera mucho más potente de colaboración entre personas... En la segunda parte del sueño, la colaboración se extiende a los ordenadores. Las máquinas se vuelven capaces de analizar todos los datos de la web —el contenido, los enlaces y las transacciones entre gente y ordenadores—. Una “web semántica”, que debe hacer que todo esto sea posible, está todavía por llegar, pero cuando lo haga, los mecanismos día a día del comercio, la burocracia y nuestras vidas cotidianas serán gestionados por máquinas que hablarán con otras máquinas, dejando para los humanos la aportación de inspiración e intuición». La propia palabra semántica significa relativo al significado, o a la distinción entre los significados de distintas palabras y símbolos. La «web semántica» de Berners-Lee no tiene una definición formal concisa, pero se basa en el uso de un conjunto de tecnologías virtuales para añadir a una rica capa adicional a la World Wide Web, entrelazando los significados y la importancia de la información, además del
Cronología 1999
Tim Berners-Lee esboza la web semántica
001-222 50 ideas digital.indd 188
22/02/2012 16:12:31
Web semántica
189
simple contenido de estos datos. Lo esencial de ello es la idea de que las aplicaciones web serán algún día capaces de analizar el contexto en el que las palabras y las informaciones se utilizan, y luego lo conectarán automáticamente con otros contextos que contienen conceptos y datos parecidos... un modelo mucho más inteligente y potente para los programas de la web del que es posible actualmente.
Más allá del HTML En una web semántica, el HTML, el lenguaje codificado de hipertexto utilizado como base de la actual World Wide Web, sería remplazado por una combinación de tecnologías más avanzadas, como el XML, que abarca una enorme cantidad de metadatos —una capa adicional de información que describe la naturaleza de toda la información de una página— dentro de la estructura de las páginas web. La estructura que estos metadatos debían adoptar empezó a establecerse por primera vez por la World Wide Web Corporation de Berners-Lee en 2002, proponiendo un Lenguaje Ontológico de la Web (del que salieron las iniciales un poco confusas OWL) que «aportaría un lenguaje que puede utilizarse para aplicaciones que precisan entender el contenido de la información en vez de limitarse a entender la presentación legible por el ser humano».
¿Un sueño imposible? A pesar de sus promesas, hay críticos que ven fallos esenciales en la idea de una web semántica, en relación con el tamaño y con la imprecisión de la información que la web en general representa. Decenas de miles de millones de páginas significan que un sistema semántico entero debería ser capaz de reconciliar y categorizar correctamente un potencial de cientos de millones de términos, muchos de ellos redundantes o duplicados. Encima, muchos conceptos y definiciones son lo bastante «difusos» como para que resulten muy difíciles
de concretar en un sentido comprensible por una aplicación que funciona a través de una máquina, en especial cuando hay contradicciones directas entre distintas versiones de información o discusiones concretas. Estos problemas son bien conocidos por aquellos que intentan crear la web semántica, y a pesar de todo creen que con el tiempo será posible superarlos gracias al desarrollo continuado de técnicas para tratar con lógica mecánica las ideas vagas, las probabilidades y las incertidumbres.
2002
2008
Empieza la primera propuesta de Lenguaje Ontológico de la Web
Empieza el desarrollo del segundo Lenguaje Ontológico de la Web
001-222 50 ideas digital.indd 189
22/02/2012 16:12:31
190
Dar forma al futuro digital El problema fundamental al que se enfrenta el OWL es aplicar un sistema de clasificación de datos lo bastante potente y riguroso para permitir que las máquinas «comprendan» automáticamente el significado de los distintos datos en contextos distintos. Esto significa identificar «propiedades» particulares sobre cada fragmento de información a clasificar, incluyendo su clase (un caballo, por ejemplo, pertenecería a las categorías «mamíferos», «animales» y «cuadrúpedos»), sus propiedades en relación con otros objetos (de modo que un padre tendría la propiedad de «tiene hija» en relación con su hija), su puesto dentro de una jerarquía de clases (indicando que «mamífero» es un subconjunto de «animal»), etcétera. Para que eso funcione, es importante que se haga referencia a fuentes centrales de datos, más que intentar definirlo todo individualmente en una página. Así, el indicador de clase de que una persona o un caballo son «mamíferos» referiría automáticamente a un punto central de datos que definiera exhaustivamente la clase «mamífero». Al final, puede ser posible definir cada uno de los atributos de una página web utilizando este tipo de referencia a puntos centrales de datos, de modo que, por ejemplo, hasta algo tan sencillo como decidir poner una línea de texto en negrita se consiguiera refiriéndose a una definición central compartida de lo que significa que un texto esté en negrita.
La web semántica hoy La web semántica ya funciona de manera limitada por debajo de la superficie de la web actual. Con las cesio-
Web 3.0 Igual que Web 2.0 es una manera abreviada de los actuales desarrollos que ocurren en la World Wide Web, la Web 3.0 mira hacia su próxima gran transformación, algo que para muchos tiene a la web semántica como un pilar fundamental. Si se consigue algo como la web semántica, ¿qué cambios relacionados podemos esperar que ocurran en la cultura digital y virtual? Teniendo en cuenta que una web semántica en funcionamiento supondrá que las máquinas y las aplicaciones «entiendan» los datos de una manera mucho más cercana al conocimiento humano que la actual, hay analistas que ven esto como una parte de una convergencia gradual entre el mundo físico y el digital: un estado que a menudo se nombra como «metaverso», que significa una fusión mejorada de las experiencias virtuales y reales más allá de nuestra actual concepción del universo físico como el único que existe. Otros temas clave son la continuada integración de servicios personalizados en redes mayores, y el potencial para un acceso customizado a Internet basado en la comprensión de las aplicaciones de la personalidad y las preferencias de un individuo en un grado mucho mayor de lo que es posible hasta la fecha.
001-222 50 ideas digital.indd 190
22/02/2012 16:12:31
Web semántica
«
191
La web semántica no es una web separada, sino una ampliación de la actual en la que a la información se le otorga un significado bien definido. Tim Berners-Lee
»
nes de copyright de Creative Commons, por ejemplo, una base de datos central almacena todos los detalles de una cesión, y los documentos individuales simplemente contienen enlaces a este recurso central, en vez de tener que llevar reproducidos los detalles completos ellos mismos. Además, la manera en que estos enlaces están incluidos en las páginas contiene una gran cantidad de metadatos diseñados para ayudar a los buscadores y otras aplicaciones web a entender automáticamente lo que significa una cesión y cómo se está utilizando. El pensamiento semántico tiene también muchas aplicaciones digitales fuera de la web, y en particular en el campo de las bases de datos y de la gestión de la información, en el que Berners-Lee también ha sido muy influyente encabezando un movimiento de «código abierto» pensado para instituir la estandarización de las grabaciones de datos públicos y gubernamentales en bases de datos abiertas, etiquetadas semánticamente, lo que permite que sean usadas y analizadas por potentes aplicaciones de terceros. Queda un camino considerable por recorrer antes de que tales principios se puedan aplicar por toda la web en general, pero para muchos del sector digital, la lógica de la web semántica es muy atractiva y ya podría empezar a aplicarse cada vez más a la información digital, a medida que las capas adicionales de información empiezan a codificarse en todos los dominios, desde los programas cartográficos y geográficos hasta las especificaciones de productos.
La idea en síntesis: enseñar a las máquinas a comprendernos
001-222 50 ideas digital.indd 191
22/02/2012 16:12:31
192
Dar forma al futuro digital
47 Realidad
aumentada
La tecnología digital es cada vez más capaz de conjurar entornos virtuales complejos, exhaustivos, dentro de los cuales miles y hasta millones de personas pueden interactuar. Pero esta no es la única manera en la que la tecnología está cambiando la experiencia humana de lo que las acciones e interacciones «reales» significan. Hay otro campo floreciente que es el uso de la tecnología no para remplazar las experiencias reales con otras virtuales, sino para potenciar la experiencia cotidiana del mundo superponiéndola con información sensible al contexto, a las imágenes, a las posibilidades de acción y a otros aspectos. Es el reino de la «realidad aumentada». En el sentido más esencial, casi toda la tecnología aumenta la capacidad de las personas para actuar dentro del mundo: la ropa nos protege, los vehículos nos transportan, la palabra escrita traslada nuestro conocimiento y experiencias a través del tiempo y el espacio, las telecomunicaciones nos permiten ver y oír a los demás desde muy lejos... Pero lo que ofrece en particular el poder creciente de la tecnología digital es la posibilidad de que sonidos, imágenes e intercambios generados por ordenador se puedan superponer en tiempo real a las percepciones que alguien tiene del mundo, y en respuesta directa a lo que está ocurriendo en el mundo. La realidad aumentada, como su nombre sugiere, podría conllevar teóricamente una intensificación de cualquier aspecto de nuestra experiencia de la realidad: olor, sabor, tacto, imagen, sonidos. Pero en la práctica, tiende a funcionar a través del sonido y de la imagen, y tal vez del feedback mediante tecnología del tacto —es decir, los movimientos físicos—. Y suele canalizarse ya sea a través de dispositivos móviles o a través de tecnología adaptada.
Cronología 1966
1989
Primer dispositivo head mounted
Se acuña la frase «realidad virtual»
001-222 50 ideas digital.indd 192
22/02/2012 16:12:31
Realidad aumentada
«
193
»
Creo firmemente que la realidad aumentada será la próxima revolución en la web. Rouli Nir
Primeros indicios La realidad aumentada es una idea reciente, pero ya estamos relativamente acostumbrados a algo que se le parece: el aumento de imágenes reales y en vivo mostradas en pantalla. En las retransmisiones televisivas de encuentros deportivos en directo, por ejemplo, actualmente es relativamente habitual ver diagramas o símbolos sobreimpresos en el terreno de juego para destacar aspectos del partido. De la misma manera, la publicidad televisiva en algunos acontecimientos deportivos experimenta cada vez más con la creación digital, haciendo aparecer distintos anuncios en los estadios dependiendo de la parte del mundo en la que se encuentra el público del partido. Tal tecnología se apoya en el rastreo de las ubicaciones de los anuncios en tiempo real para luego generar imágenes digitales que se funden impecablemente con las imágenes reales que los rodean, lo que significa que lo que los espectadores ven en sus casas puede ser totalmente distinto a si estuvieran presentes en el evento.
Mi mascota virtual En 2009, la aparición del juego EyePet para la PlayStation 3 y la PlayStation Portable llevaba a un público más amplio el potencial de la realidad aumentada. A través de una cámara adjunta, el juego hace aparecer una mascota virtual parecida a un mono dentro de contextos reales en pantalla: la cámara se enfoca y el animal virtual se puede ver a través de la consola, y parece que interactúa con personas y objetos. El proceso de la interacción opera en dos
direcciones, con la criatura virtual moviéndose para evitar obstáculos del mundo real, mientras también se le pueden dar objetos reales que luego parecerá utilizar dentro del paisaje real. La tecnología no era perfecta, pero fue una de las primeras demostraciones populares de lo que puede conseguirse con aparatos de realidad aumentada y con el creciente perfeccionamiento de la superposición de capas virtuales sobre la experiencia real.
1992
2003
2009
Se acuña la frase «realidad aumentada»
BMW empieza a fabricar pantallas de visualización frontal para sus coches
Lanzamiento de Layar, primer navegador de realidad aumentada
001-222 50 ideas digital.indd 193
22/02/2012 16:12:31
194
Dar forma al futuro digital Las técnicas que sostienen estos procesos están muy relacionadas con las que se utilizan de hecho para aumentar nuestra experiencia de algo que vivimos directamente, más que a través de la televisión o del ordenador en casa. De hecho, el aumento más moderno se apoya en la réplica del mismo tipo de efectos en movimiento, a través de la pantalla o de un dispositivo móvil... pero uno que, esencialmente, sea capaz de tomar en cuenta su propia ubicación y movimientos en cualquier momento.
Poder móvil Es una combinación de hardware y software que hoy día convierte la realidad aumentada en una posibilidad extendida: las pantallas visuales, las capacidades y los sensores de captación de movimiento, los GPS, los procesadores rápidos, las cámaras de input visual y los programas sofisticados El dispositivo más para integrarlo todo. En los últimos perfecto sería, por años, estas tecnologías no solo se desarrollado lo bastante como supuesto, han para que su uso se haya extendido, una sala en la que sino que casi todos los smartphones el ordenador pudiera las incorporan, convirtiéndolos en controlar la existencia plataformas ideales para el uso de las de la materia. tecnologías de realidad aumentada.
«
»
Ivan Sutherland Un ejemplo que combina muchas
de estas funciones es una aplicación de smartphone anunciada como el primer «navegador de realidad aumentada» del mundo, llamada Layar, que precisa tan solo que el usuario enfoque la cámara del teléfono hacia una calle y ofrece al instante información sobre restaurantes, instrucciones, lugares de interés turístico o histórico, sobreimpresa en la imagen de la pantalla, guiada por GPS y por un programa de reconocimiento visual y de movimiento.
Otros interfaces Las pantallas móviles son de lejos la posibilidad más extendida para la realidad aumentada a corto plazo, pero hay dos tipos más de interfaz que también tienen un gran potencial. El primero son los dispositivos head mounted, a menudo en forma de gafas o protectores oculares capaces de registrar el movimiento del usuario y sobreimprimir información sobre su visión del mundo. Eso ofrece una experiencia mucho más exhaustiva que una pantalla manual y, aunque de momento es más caro y engorroso, ya empieza a utilizarse bastante para conducir vehículos especializados, como el equipamiento militar. La otra opción principal de interfaz se sirve de un proyector para revertir el proceso de aumento: en vez de que el usuario vea datos sobreimpresos a la realidad en una pantalla, se proyecta una capa aumentada sobre los objetos del mundo real. Esta tecnología se aplica más en localizaciones concretas y con grupos de personas que para particulares individuales.
001-222 50 ideas digital.indd 194
22/02/2012 16:12:31
Realidad aumentada
195
¡Mucho ojo! Los dispositivos head-up o HUD nacieron como tecnología militar diseñada para permitir a los pilotos mirar las lecturas del instrumental sin quitar la vista de su objetivo: la información sobre rumbo y velocidad se puede proyectar, por ejemplo, en el parabrisas de un avión, eliminando la necesidad de bajar la vista a los instrumentos en momentos de mucha tensión. Tales técnicas se incorporaban normalmente en los vehículos militares hacia la década de 1960, y se extendieron a los vehículos comerciales hacia los años setenta. Pero no fue hasta la edad de los videojuegos cuando los ciudadanos de a pie empezaron a ver tales tecnologías, con los juegos tendiendo
necesariamente a mostrar información detallada sobre un personaje virtual impresa en la pantalla encima de una vista del mundo del juego. Hoy día, gracias en parte a innovaciones lideradas por la industria del juego, el arte de crear HUD efectivos se ha refinado muchísimo, con sofisticadas pantallas de realidad aumentada superponiéndose a compleja información en tiempo real sobre el mundo en cualquier ámbito, desde las gafas de esquí y las de buceo, hasta los parabrisas y, de manera experimental, los lentes de contacto, y potencialmente proyecciones directas en la retina de los ojos de las personas.
Hacer que un entorno reaccione a las acciones de las personas dentro del mismo a través de la proyección de realidad aumentada es, entre otras cosas, una técnica con un enorme potencial para crear simulaciones y experiencias multiusuario realmente envolventes. El potencial comercial de tales técnicas para la publicidad y las proyecciones en tiendas y negocios es enorme, como también lo es la combinación de tales aumentos con la tecnología smart, capaz de identificar a los individuos y adónde miran, adaptando el material aumentado que muestra a cada espectador que pase. Mientras, en el campo de la investigación científica, la arquitectura y muchos otros, la oportunidad de que equipos de personas exploren proyecciones tridimensionales de proyectos en espacios reales ofrece una nueva y tentadora herramienta para el análisis... con un potencial parecido para transformar las posibilidades de ocio y de función pública. El holodeck (el salón holograma) de Star Trek sigue quedando algo lejos, pero ya no es totalmente un asunto de ciencia ficción.
La idea en síntesis: añadir una capa de realidad digital encima del mundo físico
001-222 50 ideas digital.indd 195
22/02/2012 16:12:32
196
Dar forma al futuro digital
48 Convergencia La convergencia ocurre cuando las funciones de tecnologías distintas empiezan a solaparse. Describe el proceso del entrelazamiento cada vez más denso entre tecnologías y redes, como una cantidad cada vez más numerosa de acciones culturales, sociales, comerciales y administrativas que empieza a darse en los espacios digitales. La convergencia en tecnología suele ocurrir cuando para el consumidor representa una ventaja disponer de múltiples funciones a través de un solo dispositivo o aplicación. Los teléfonos móviles modernos son un buen ejemplo de ello, ya que han ido adoptando cada vez más las funciones no solo de teléfono, sino también de ordenador portátil, reproductor de vídeo y audio, navegador de Internet, brújula y GPS, consola de juegos, cámara de foto y vídeo y muchas más cosas adicionales. Asimismo, las modernas consolas de juegos ya no son simples máquinas para jugar, sino que también integran muchas de las funciones de un ordenador y de un reproductor de medios doméstico. La convergencia ha sido un rasgo de la tecnología desde mucho antes de la era digital, junto con la tendencia contrapuesta de la divergencia, por la que algunos aparatos tienden a hacerse más especializados con el tiempo. Mientras que, por ejemplo, en los primeros tiempos del automóvil había muy pocas clases de coche disponibles, ahora hay miles, adaptados a necesidades y gustos de todos los tipos. En cambio, la tecnología digital es única en cuanto a que la existencia de medios de masas interactivos distribuidos por Internet han impulsado una cultura de la participación dentro de la que los consumidores cada vez esperan poder consumir todos los distintos medios a través de los mismos aparatos. Además, es cada vez más importante para casi todos los servicios que los ciudadanos usan —para el trabajo, para el ocio y para la participación en la vida civil— tener una presencia en este mismo espacio virtual.
El valor de los grupos Una de las presiones más fuertes hacia la convergencia en los medios digitales es la capacidad de las comuni-
Cronología 1994
1997
Primera emisión de una televisión online
Aparece el primer teléfono con cámara
001-222 50 ideas digital.indd 196
22/02/2012 16:12:32
Convergencia dades de generar valor. La comunidad representada por los miembros de la red social Facebook, por ejemplo, tiene una fuerza de más de 600 millones de miembros y sigue creciendo... y esto representa un incentivo tremendo para aquellos que lanzan otros grupos y servicios para permitir una fácil integración con los servicios de Facebook.
«
197
Hay un momento y un lugar para todo, y creo que se llama ficción de fan.
Joss Whedon
»
Asimismo, para la mayoría de personas que diseñan nuevo software y hardware, la presión para asegurar la compatibilidad con las comunidades digitales dominantes como las redes sociales es considerable. La gente espera poder utilizar Facebook y Twitter en cualquier smartphone, tablet u ordenador, igual que esperan cada vez más no estar limitados a un solo formato para la compra de medios: los libros se pueden comprar en papel pero también en Kindle, vía iBooks y otros formatos digitales, las series de TV se pueden adquirir en DVD o BluRay, pero también descargarse de iTunes, verse en streaming en servicios de medios de suscripción, o grabarse de la televisión y luego almacenarse en un disco duro.
Cuentos Transmedia «Cuentos Transmedia» significa el uso de muchos medios distintos para contar una historia o crear una experiencia concreta. Pero también representa un paso más allá de la noción «multimedia» de presentar simplemente diferentes medios en paralelo. A diferencia de ello, se propone crear una experiencia envolvente en la que el público participa activamente en vez de hacer de espectador pasivo, reuniendo las piezas de un cuento de un mundo paralelo o alternativo a partir de elementos incluidos en medios distintos. La serie de
televisión Lost usaba técnicas transmedia para crear un universo ficcional rico alrededor de la narración, incluyendo los sitios web de organizaciones ficticias, una novela publicada atribuida a uno de los personajes de la serie, la venta limitada de una marca de barritas de chocolate de la serie, y la aparición en directo de un personaje de ficción en el congreso Comic-Con. Tales técnicas se pueden considerar parte de una cultura de la convergencia, en la que no solo los medios, sino también el papel de público y creadores son cada vez más difusos.
2005
2006
2008
Fundación de la enciclopedia virtual Star Wars online, la Wookiepedia
Lanzamiento de The Lost Experience
Sale al mercado el iPlayer de la BBC para consolas de juegos
001-222 50 ideas digital.indd 197
22/02/2012 16:12:32
198
Dar forma al futuro digital
El poder de la ficción de los fans Desde La Guerra de las Galaxias hasta Buffy, la cazavampiros, los medios más populares tienen más comunidades de fans que nunca. La tecnología digital significa que crear respuestas productivas a las películas, libros, programas de TV y personajes de ficción está al alcance de casi cualquier público lo bastante motivado, con una variedad de opciones a su disposición que va desde la creación de material original hasta la remezcla de contenido existente. Y luego también está la posibilidad de indexar y anotar las obras y los universos ficticios, con la «tradición» virtual colectiva que rodea
fenómenos como La Guerra de las Galaxias, que acumula varios millones de palabras, incluyendo transcripciones y análisis fotograma a fotograma de cada política y producto oficial. Tal cultura existe cada vez más no como entidad separada de las producciones originales, sino como una extensión colaborativa de las mismas, generando y poniendo a prueba ideas para nuevas extensiones de universos imaginativos, y con muchas creaciones actuales que se ven desde el principio como un aspecto esencial del pleno disfrute de una obra de ficción.
Este efecto se puede ver en servicios como también en productos físicos. Donde organizaciones como los proveedores de televisión por cable antes hacían poco más que ofrecer canales de TV, actualmente el proceso de «paquete» significa que es más probable que ofrezcan amplios paquetes de servicios con el fin de intentar ganar clientes: desde los servicios de alquiler de línea de teléfono y banda ancha hasta las suscripciones al teléfono móvil. Asimismo, de cadenas como la BBC se espera actualmente que ofrezcan contenidos a través de todos los formatos: radio, TV, servicios de Internet a la carta, streaming en vivo, podcasts, etcétera. Hay empresas como los supermercados que han llevado este mecanismo todavía más lejos, ofreciendo en algunos casos todo, desde banca hasta seguros de viaje y contratos de telefonía. También ofrecen una experiencia de compra de «todo en uno», tanto digital como física.
Problemas de convergencia A medida que las compañías de
hardware, software y proveedoras de servicios van adoptando un abanico más amplio de funciones, es probable que la calidad vaya declinando: que la sustitución de cámaras digitales específicas por los smart phones signifique una caída en la calidad de las fotos, por ejemplo. También puede llevar a un declive en la capacidad del consumidor a la hora de diferenciar claramente entre distintos productos y servicios. Un tema más amplio relacionado con este segundo punto es la utilización de la convergencia por parte de los fabricantes para generar demanda para las sucesivas generaciones de nuevos productos, que pue-
001-222 50 ideas digital.indd 198
22/02/2012 16:12:32
Convergencia
«
199
»
El culto se ha convertido en la manera normal de disfrutar de las películas. Umberto Eco
den ofrecer nuevas capacidades pero que representan una escasa mejora real en cuanto a calidad respecto de tecnologías anteriores más especializadas. Esta presión por entrar en ciclos rápidos de sustitución puede crear una falsa impresión de repetición para estimular cada vez más ventas... lo que hace que una tecnología aparezca anticuada a base de añadir ventajas a un modelo nuevo que no representan ninguna mejora para el usuario. Sin embargo, hay fuerzas que se resisten a esta dinámica. La convergencia de buena parte de los medios de comunicación y de la tecnología producida masivamente domina la mayor parte del mercado moderno digital y, a través de una combinación de economías de escala y facilidad de acceso a los mercados, ha eliminado de la partida a muchos de los jugadores medianos. Pero en el lado especializado del espectro, la demanda de productos nicho y de tiendas especializadas sigue siendo mayor que nunca, puesto que estos pueden hacer virtud de la resistencia a la convergencia, elaborando productos hechos a medida de cada tarea y consumidor particular. Además, la naturaleza cada vez más participativa de la cultura de fans y consumidores significa que los fabricantes modernos se esfuerzan a menudo por distanciarse de los servicios o productos mediocres, y que los servicios digitales ofrecen mucha información a los consumidores a base de comparación, crítica y debate. En este sentido, los usos más exitosos de la convergencia implican no solo la combinación de bienes y servicios, sino también la de las reacciones de clientes y público en el propio proceso de creación. Dentro de los nuevos medios, los límites entre creadores, productores, críticos, consumidores, profesionales y aficionados son cada vez más difusos, y esto da lugar a nuevas relaciones, que por encima de todo son dinámicas, y definidas más por los papeles particulares desempeñados en un momento dado que por posiciones fijadas de manera permanente.
La idea en síntesis: las viejas barreras están cayendo rápidamente
001-222 50 ideas digital.indd 199
22/02/2012 16:12:32
200
Dar forma al futuro digital
49 El Internet de las cosas
En el momento actual, Internet consiste en conexiones entre ordenadores especializados y dispositivos informáticos. Pero la idea del «Internet de las cosas» especula en cuanto a lo que sería posible si unos chips informáticos inteligentes y en red se incorporaran a un número cada vez mayor de objetos fabricados y lugares... desde las instalaciones eléctricas hasta los electrodomésticos caseros, las calles, los edificios y hasta las prendas de vestir. Tal avance conllevaría la posibilidad de un conocimiento preciso e interconectado sobre todos los aspectos de la vida, y de herramientas muy potentes para la comprensión y el ajuste de nuestro uso de los recursos. La frase «Internet de las cosas» se acuñó por primera vez hacia 1999, pero hasta hace poco no se ha considerado como una posibilidad concreta. El declive en el coste de chips y redes informáticos potentes ha coincidido con mejoras en el tipo de trabajo en red necesario para esta nueva noción de un Internet formado por sensores capaces de configurarse sobre una base ad hoc. Actualmente, una combinación de tecnologías ha empezado a permitir el despliegue comercial de tales ideas en una escala limitada. Estas tecnologías incluyen etiquetas electrónicas que se pueden leer a corta distancia por señales inalámbricas, comunicaciones inalámbricas de corto alcance entre aparatos, redes de sensores dentro de estructuras y técnicas de localización en tiempo real que pueden usar etiquetas inalámbricas para determinar la localización de objetos dentro de un espacio en cualquier momento concreto. El etiquetado inalámbrico es un invento reciente especialmente importante en este terreno. En los últimos años, la identificación de frecuencia de radio (RFID) ha avanzado considerablemente, con la llegada de chips accesibles y muy fiables que se pueden simplemente pegar a objetos cotidianos para identificarlos individualmente —de manera muy parecida a como los ordenadores se identifican mediante
Cronología 1997
1999
El metro de Hong Kong introduce las tarjetas inteligentes inalámbricas
Se acuña el término «Internet de las cosas»
001-222 50 ideas digital.indd 200
22/02/2012 16:12:32
El Internet de las cosas
201
Control remoto Una vez que un hogar o una oficina está equipada con un número suficiente de sensores —que controlan desde la temperatura hasta los niveles de luz en tiempo real—, empieza a ser posible crear un modelo virtual altamente preciso. Las tecnologías que ya se están desarrollando experimentan hoy día con el uso de estos modelos virtuales para permitir a las personas monitorizar y controlar a distancia los elementos de sus casas, despachos y
hasta de lugares públicos. Esto podría convertir en el futuro la monitorización y el ajuste de casi todos los electrodomésticos de la casa en una mera cuestión de acceder a un modelo virtual del edificio desde cualquier lugar del mundo, y de ver en tiempo real los resultados de cambiar los sistemas internos... además de poder configurar notificaciones de cualquier variable que salga de unos parámetros predeterminados.
su dirección IP— y rastrear sus movimientos. La mayor aplicación actual de tales etiquetas ocurre en los contenedores de transporte marítimo, millones de los cuales se pueden identificar actualmente y rastrear mediante este sistema.
Viajes y ciudades Uno de los campos donde la aplicación de esta tecnología es más evidente es el transporte. La información detallada y en tiempo real sobre las localizaciones relativas a vehículos podría tener un impacto profundo sobre cualquier aspecto, desde los horarios y la gestión del transporte público hasta la provisión de información local contextualizada dentro de vehículos individualizados... desde coches hasta bicicletas. Como ocurre con el Internet actual, el poder de tales redes contiene un aumento potencial exponencial a medida que se van interconectando más objetos. Etiquetar edificios e instalaciones urbanas para que puedan identificarse en sus ubicaciones ante cualquiera que se encuentre en estos espacios ofrece la posibilidad de desarrollar redes urbanas inteligentes que comparten información de todos sus elementos, desde la naturaleza y los horarios de un centro comercial hasta los costes relativos y la disponibilidad de servicios comerciales, espacios de estacionamiento disponibles, asientos en el transporte público y productos almacenados en tiendas determinadas.
2001
2005
2010
Algunas bibliotecas holandesas empiezan a usar el etiquetado inalámbrico
Los casinos de Las Vegas empiezan a usar los chips de etiquetado inalámbrico
Crece enormemente la fabricación de chips RFID
001-222 50 ideas digital.indd 201
22/02/2012 16:12:32
202
Dar forma al futuro digital Lejos de la ciudad, tales tecnologías tienen el mismo potencial en las actividades industriales y comerciales. Los agricultores, por ejemplo, ya hacen un uso extenso de los sistemas de GPS para los cultivos, el mantenimiento y las cosechas efectivos. Equipados con la siguiente generación de sensores de alta precisión, este proceso podría hacerse mucho más preciso y adaptado a una ubicación geográfica exacta.
Cambio de actitudes Otra posibilidad potente para llevar las
redes inteligentes a un número creciente de objetos y actividades cotidianos es ayudar a la gente a cambiar sus comportamientos, a la luz de información en tiempo real sobre los de lo que están haciendo y la inforEl futuro ya está efectos mación comparativa sobre cómo se comaquí; lo que ocurre es portan los demás.
«
que todavía no se ha repartido de manera equitativa.
»
En terrenos como el consumo energético, por ejemplo, ya está muy asumido que mostrar el consumo de energía de una casa o William Gibson empresa en tiempo real ayuda a que la gente sea más consciente del gasto y esté más dispuesta a racionalizar su uso, y se refleja la bajada instantánea del consumo y gasto minuto a minuto cuando un aparato se apaga o es sustituido por otro más eficiente. Una interconexión inteligente entre objetos de una casa, y el uso de información comparativa sobre distintos hogares, pueden ayudar tanto a las personas como a las propias redes inteligentes a «aprender» los unos de los otros sobre tácticas y aparatos efectivos para ahorrar
Personalización Mucha gente se muestra ambivalente hacia un aspecto de la introducción de tecnologías «inteligentes» en una serie creciente de objetos: el potencial de respuestas personalizadas para los artículos que identifican a la persona que los usa y de darle una respuesta específica. Esto puede ir desde vallas publicitarias y tiendas que muestran anuncios especializados hasta ofertas de museos y de bibliotecas que muestren automáticamente información vinculada a los intereses manifestados por alguien, o a su historial de lecturas. Para algunos, esta personalización es de agradecer, como algo que refleja que las ciudades se están volviendo realmente «inteligentes» en la manera en que se adaptan a sus ciudadanos; para otros, la pérdida de anonimato y el potencial atentado a la libertad que las tecnologías de rastreo e identificación sugieren es algo a lo que hay que resistirse o que hay que enfocar con una precaución extrema.
001-222 50 ideas digital.indd 202
22/02/2012 16:12:32
El Internet de las cosas
«
203
Será realmente interesante cuando consigamos conectar los datos de otros objetos vivos a la web. Tom Freeman
»
energía. Asimismo, a nivel regional, las redes de suministro energético inteligente pueden responder a la demanda en tiempo real, con grandes aumentos potenciales de eficiencia y una importante reducción de las posibilidades de apagones.
Automatización El potencial transformador del Internet de las cosas se parece a mucho de lo que ya ha convertido el Internet informático global en algo tan potente: la recogida y el análisis de una enorme cantidad de datos. Pero donde el futuro puede diferenciarse del presente es en la creciente automatización de este proceso de análisis, permitiendo análisis y respuestas rápidas a sistemas complejos que conllevan poca aportación humana directa. Puede ser posible, por ejemplo, que el sistema energético y de climatización de una casa se ajuste automáticamente al número de personas que hay en cada estancia. Un enfoque todavía más radical sería la automatización de muchos aspectos de las tareas industriales y comerciales, con vehículos con chips inteligentes, objetos y edificios que «saben» dónde están en relación entre ellos, cuál es su estatus y cuál debe ser la secuencia más eficiente de operaciones. Como ya ha demostrado el desarrollo de Internet y de la web, el poder de una red crece exponencialmente con su tamaño, y la interconexión electrónica de los objetos podría acabar superando la simple automatización hacia nuevos modelos de funcionamiento de economías nacionales y de sistemas de comercio enteros. Tal interconexión parece todavía lejana, pero con unos protocolos lo bastante rigurosos y escalables, y con una tecnología lo bastante asequible y fiable, buena parte de la infraestructura podría estar lista más bien dentro de unos años que de unas décadas.
La idea en síntesis: dar a cada parte de la realidad una presencia digital
001-222 50 ideas digital.indd 203
22/02/2012 16:12:32
204
Dar forma al futuro digital
50 La distracción ¿Qué efecto tienen el derrame y la multiplicidad de medios digitales en nuestra mente? Cuanta más parte del día se invierte en el uso de algún tipo de medio —en particular los medios digitales o virtuales, con su potencial de ofrecer mensajes rápidos y en constante cambio—, las personas sentimos una preocupación creciente por los efectos a largo plazo que eso provoca en la mente humana. ¿Significa la cultura digital una generalización inevitable de la distracción entre sus usuarios? La reducción de la capacidad de atención, la pérdida de la capacidad de seguir un hilo argumental de pensamiento continuo. En este terreno no hay respuestas claras, pero sí muchas preguntas. La cantidad de medios consumidos por los habitantes del mundo desarrollado ha ido aumentando regularmente a lo largo de las últimas décadas. La juventud estadounidense es un grupo que se acerca a la cima de este hecho, y desde 1999 hay una organización llamada Kaiser Family Foundation que informa periódicamente de las pautas de uso mediático entre los americanos de entre 8 y 18 años. En 1999, el uso de medios total diario de este grupo se calculaba en la considerable cifra de 6 horas y 19 minutos diarios. El informe más reciente, publicado a principios de 2010, mostraba un aumento que los propios autores del informe admitieron encontrar asombroso: un uso medio de 7 horas y 38 minutos diarios, que aumentaba a un total de 10 horas y 45 minutos si se tenían en cuenta la multiplicidad de tareas. El aumento se atribuía en buena parte a «una explosión de los medios móviles y en la red», con alrededor de un 20 por 100 del consumo de medios hecho a través de dispositivos móviles... un número que está llamado a crecer. Lo que eso significa para el conjunto de la sociedad es extremamente difícil de determinar, pero hay muchos pensadores y críticos que han especulado respecto a sus efectos negativos y positivos.
Cronología 2001
2004
Se acuña el término nativos digitales
Se acuña el término life hacking
001-222 50 ideas digital.indd 204
22/02/2012 16:12:32
La distracción
205
«
Superficiales Superficiales es el tíPara el hombre tribal, tulo de un libro de 2010 del autor es- el espacio era el misterio tadounidense Nicholas Carr, que incontrolable. Para el afirma que las antiguas formas «lineahombre tecnológico, les» de pensamiento están siendo alteradas radicalmente con el uso de es el tiempo el que los medios digitales interactivos y por desempeña este papel. la red en particular, lo que lleva a Marshall McLuhan «una nueva mentalidad que quiere y necesita absorber y repartir información a ráfagas breves, inconexas, a menudo solapadas... y cuanto más rápidas, mejor».
»
Este argumento recoge muchos temores articulados infinidad de veces en campos que van desde la educación hasta la neurociencia, que sugieren que los medios digitales pueden estimular patrones de pensamiento y de participación que resultan superficiales y efímeros, en vez de ser profundos y empáticos. La científica británica Susan Greenfield, por ejemplo, ha expresado su preocupación por cómo la manera en que actividades como navegar por la red gratifican al cerebro pueden, con el tiempo, conducir a una disminución del desarrollo emocional y a un estado mental infantil preocupado por conseguir recompensas a corto plazo.
La técnica pomodoro Creada en la década de 1980, la técnica pomodoro es un ejemplo popular de método de gestión del tiempo que ha demostrado ser un antídoto popular a elementos de distracción en terrenos como el desarrollo del software. La técnica se ha bautizado con el nombre italiano de tomate, porque es también el nombre de una popular serie de cronómetros de cocina con forma de tomate. Usar esta técnica significa decidir hacer una única tarea, poner el cronómetro a 25 minutos y luego
trabajar ininterrumpidamente durante este tiempo, seguido de una pausa de cinco minutos, para luego repetir el ciclo tres veces más. Teniendo en cuenta el potencial para la distracción en los medios digitales, aprender estas técnicas de gestión del tiempo y de concentración se está convirtiendo en una disciplina importante del siglo xxi... un conjunto de técnicas a veces conocida como life hacking por los programadores, para quienes la sobrecarga de información es un problema constante.
2008
2010
Primera invocación del concepto pico de atención
Publicación de The Shallows (publicado como Superficiales en español)
001-222 50 ideas digital.indd 205
22/02/2012 16:12:32
206
Dar forma al futuro digital
«
A medida que confiamos más y más en los ordenadores para que medien en nuestra comprensión del mundo, es nuestra inteligencia la que se va aplanando cada vez más hasta devenir inteligencia artificial. Nicholas Carr
»
Determinismo Muchos de los argumentos que expresan temores por la «distracción» se pueden considerar tecnológicamente deterministas, en el sentido de que asumen que la tecnología tiene la capacidad de determinar los valores culturales, sociales y hasta intelectuales de una sociedad. En cambio, están los que afirman que caracterizar las interacciones digitales como superficiales y propensas a distraer es a menudo un malentendido, y que es mejor pensar en ellas como la interacción con sistemas cada vez más complejos. Este argumento se exponía en 2005 en un libro del escritor científico estadounidense Steven Johnson. El libro, Everything Bad is Good for You, afirma que «la cultura popular, de hecho, nos está volviendo más listos», como se afirma en el subtítulo, y que mucha de la cultura de masas contemporánea, desde los videojuegos hasta los navegadores y las series de TV, muestran una complejidad creciente que requiere una concentración y una participación mucho mayor del público que la cultura de masas anterior a la era digital. La tesis de Johnson recoge las voces de aquellos que ven en el uso cada vez más omnipresente y solapado de los medios digitales no un final del pensamiento estructurado, sino un nuevo conjunto de sofisticación creciente de técnicas de «pensamiento de sistemas» y multitarea. Los usuarios se acostumbran a narrativas con muchos hilos, resolviendo las dinámicas de los sistemas a partir de pistas dispares e interactuando de una forma no lineal que es más propia del proceso de experimentación científica que de un proceso pasivo que suponga una escasa concentración.
Agnósticos de las plataformas Un rasgo notable de los hábitos relacionados con los medios digitales es el grado creciente en el que la gente se convierte en «agnósticos de las plataformas»; es decir, no atados a ningún soporte ni plataforma en particular para acceder a un contenido concreto. Los programas de televisión y las películas, por ejemplo, se miran no solo a través de monitores de televisión, sino también en teléfonos móviles, en consolas de juegos, en ordenadores de sobremesa, en portátiles y, en realidad, en cualquier dispositivo que convenga en un momento concreto.
001-222 50 ideas digital.indd 206
22/02/2012 16:12:32
La distracción
207
Desconectar Con la expansión de Internet no solo a los aparatos enchufados, sino también a los inalámbricos u móviles, estar «conectado» a una red digital se está convirtiendo en el estado por defecto de cada vez más gente: más parte de la vida se pasa en algún tipo de estado online que lo contrario. En respuesta a ello, muchas organizaciones e individuos empiezan a pensar en introducir tiempo «desconectados» en el trabajo: mañanas en las que se prohíbe el uso del e-mail, por ejemplo, o congresos en los que se impide el uso de los
aparatos móviles o de las redes sociales como Twitter y Facebook, con el fin de asegurar la plena atención en lo que está pasando en la realidad del momento. A medida que se sigue desarrollando la cultura digital, es probable que el arte de también lo hará el arte de desconectar, con lo que la facilidad de las comunicaciones y las multitareas, paradójicamente, darán más valor a los encuentros personales, en vivo, y a los acontecimientos no registrados que ocurren «fuera de la red».
Entre otras cosas, eso significa que todos los medios pueden verse cada vez más como competidores entre ellos por la atención en los formatos digitales: los libros electrónicos se pueden leer en la misma pantalla que alguien usa para navegar por la red, mirar DVD, enviar y recibir e-mails, usar páginas de redes sociales y trabajar en proyectos laborales. En este sentido, la distracción es fácil de entender, como lo es la presión que sufren los medios para atrapar la atención de los usuarios al instante en vez de dar por sentada la concentración.
Pico de atención Teniendo en cuenta la enorme cantidad de tiempo dedicado al uso de medios durante un día tipo para muchas personas, es evidente que el factor limitador que está actuando ya no es el gasto, ni la dificultad de obtener contenido, sino el tiempo. La teoría del «pico de atención» lleva esto un poco más lejos y observa que para la gente como el adolescente estadounidense medio, descrito por la Kaiser Family Foundation, actualmente ya no queda casi tiempo libre en el día para que los medios puedan ocuparlo: la atención se está aproximando a su punto álgido, más allá del cual ya no queda nada más por ofrecer.
La idea en síntesis: ¿está Google haciéndonos más tontos?
001-222 50 ideas digital.indd 207
22/02/2012 16:12:32
208
Glosario
Glosario AJAX (Asynchronous JavaScript and XML) Grupo de tecnologías para el desarrollo de contenidos web ricos e interactivos. Ataque DoS (Denial-of-Service) Ataque con fuerza bruta a un sitio web efectuado por hackers, sobrecargándolo con peticiones de datos y, así, impidiéndole funcionar. Botnet Red de ordenadores «zombi» bajo control de un hacker. Buscador Sitio web que permite al usuario buscar en el directorio de contenidos de la red. Cliente Ordenador o programa que recibe software de un ordenador «servidor» central. Cookies Pequeños fragmentos de datos almacenados en un ordenador por un navegador para permitir a un sitio web desempeñar algunas funciones. Cortafuegos Algo que protege al ordenador de ser atacado por hackers. Dirección IP (de Protocolo de Internet) Forma numérica básica de cuatro números separados por puntos que define la ubicación de distintos recursos de Internet. DNS (Domain Name System) Sistema básico que traduce las direcciones web de su forma conocida en palabras a direcciones IP (Protocolo de Internet). Dominio Subdivisión particular de Internet perteneciente a una persona o empresa.
001-222 50 ideas digital.indd 208
Ethernet El estándar más común para redes locales. FTP (File Transfer Protocol) Una de las maneras más básicas de descargar archivos por Internet. Hiperenlace Enlace que se puede seleccionar para llevar al usuario a otro sitio de la red. Hipertexto Texto en la red que contiene hiperenlaces. HTML (HyperText Markup Language) El lenguaje codificado en el que se basa la World Wide Web, que indica a los navegadores el aspecto que han de tener y cómo deben funcionar las páginas web. ISP (Proveedor de Servicio de Internet) Empresa que ofrece acceso a Internet al público general a cambio de una tarifa. Java Lenguaje de programación capaz de crear programas que funcionan dentro de los navegadores. JavaScript Técnica relacionada con el Java que facilita la creación de elementos interactivos dentro de sitios web. Navegador Programa para usar la World Wide Web. Paquete Pequeño fragmento de información dentro del cual se desmenuzan datos para ser transferidos por Internet. Peer-to-peer Descripción de una conexión directa entre dos ordenadores, en vez de una conexión
22/02/2012 16:12:33
Glosario en la que media un servicio central.
res «cliente» remotos que desean usar el servicio que ofrece.
Plug-in Pequeño programa que «conecta» con un navegador para permitirle realizar funciones adicionales, como reproducir música o juegos concretos
Servidor de nombres Servidor cuya función consiste en traducir las palabras de direcciones de Internet a números de direcciones IP.
Protocolo de Internet (IP) Protocolo básico que define la asignación de direcciones únicas en Internet para recursos distintos: la versión más reciente es la versión seis.
SSL (Secure Sockets Layer) Técnica de encriptación de la información enviada por Internet para que no pueda ser fisgoneada por los hackers.
RSS (Really Simple Syndication) Técnica de difusión de contenidos que facilita que los usuarios de la red reciban actualizaciones cada vez que aparecen nuevos contenidos en una página o un blog. Servidor Ordenador que realiza tareas como albergar un sitio web y al que acceden ordenado-
001-222 50 ideas digital.indd 209
209
TCP/IP (Transmision Control Protocol/Internet Protocol) La combinación básica de protocolos de comunicación que subyace en Internet tal y como lo conocemos. XML (Extensible Markup Language) Extensión del HTML que permite a una página web enseñar su contenido más fácilmente utilizando una variedad de distintos tipos de hardware.
22/02/2012 16:12:33
G
209
50 cosas que hay que saber sobre mundo digital Tom Chatfield
No se permite la reproducción total o parcial de este libro, ni su incorporación a un sistema informático, ni su transmisión en cualquier forma o por cualquier medio, sea éste electrónico, mecánico, por fotocopia, por grabación u otros métodos, sin el permiso previo y por escrito del editor. La infracción de los derechos mencionados puede ser constitutiva de delito contra la propiedad intelectual (Art. 270 y siguientes del Código Penal)
Título original: 50 digital ideas you really need to know © del diseño de la portada, Compañía, 2012 © Tom Chatfield, 2011 © de la traducción, Mar Vidal, 2011 © Editorial Planeta, S. A., 2012 Editorial Ariel es un sello editorial de Planeta, S. A. Av. Diagonal, 662-664, 08034 Barcelona (España) www.planetadelibros.com Primera edición en libro electrónico (PDF): abril 2012 ISBN: 978-84-344-0084-9 (PDF) Conversión a libro electrónico: Newcomlab, S. L. L. www.newcomlab.com
001-222 50 ideas digital.indd 209
22/02/2012 16:12:33