Teoria De La Informacion Y Encriptamiento De Datos

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Raul Ibarra Quevedo Miguel Angel Serrano L6pez Carlos Calixto Garera y Gonzalez

Teoria de la informacion y encriptamiento de datos

Instituto Politecnico Nacional Mexico

PIUMERA EDlCI6N: 2001

D.R. 0

INS11Ttn'O POIMCNICO NACIONAL

Direcci6n de Publicaciones Tresguerras 27,06040, Mexico, D.E ISBN: 970-18-7650-4 Impreso en Mexico I Printed in Mexico

PROLOGO

El desarrollo de las telecomunicaciones ha tenido un rapido avance en anos recientes y la red global de telecomunicaciones es el mas grande y complejo sistema tecnico que se ha creado, entendiendose por telecomunicaciones todos los procesos que hacen posible transferir voz, datos y video con ayuda de alguna forma de sistema electromagnetico, incluyendo metodos de transferencia optica. Estos rapidos cambios demandan gran conocimiento de las personas que forman la parte activa de las modernas telecomunicaciones. Desde la decada de los cuarenta, la Teorfa de las Comunicaciones se han desarrollado a 10 largo de dos lfneas principales, estas Ifneas tienen sus orfgenes en el trabajo de Wiener y Shannon, y son esencialmente de naturaleza estadfstica. La rama de las comunicaciones que ha sido asociada al nombre de Shannon es la Teona de la Informaci6n. Wiener y Shannon trataron, en particular, el problema de codificar las senales seleccionadas de un conjunto dado, para hacer posible su apropiada reproducci6n despues de su transmisi6n sobre sistemas de comunicaci6n ruidosas. La Teorfa de la Informacion desarrollada por Shannon es una teorfa de medida, en el sentido de que suministra al ingeniero de comunicaciones metodos para determinar los Ifmites de ejecucion, cuando se transmite informacion a traves de un canal de comunicaci6n con ruido. Shannon ha mostrado que es posible, aun con un canal de comunicacion ruidoso, transmitir informacion a un cierto fndice finito, determinado por la linea, con una probabilidad de error que puede ser tan pequeno como sea deseado, siendo este el mayor resultado de la teona. La teona de Shannon estci relacionada con las propiedades estadisticas de los sfmbolos seleccionados a partir de adecuados alfabetos definidos (con juntos) y no esta relacionada con el significado asociado con la seleccion de simbolos. Como Shannon establece: "estos aspectos semanticos de la comunicaci6n son irrelevantes a los problemas de la ingenieria". La Teorfa de la Informacion clasica de Shannon proporciona al ingeniero metodos para detenninar los lfmites del comportamiento para un sistema, trabajando sobre condiciones flsicamente determinadas, esto se proporciona solo con indicaciones vagas de c6mo debe ser disenado un sistema de transmision de datos que 3

4

ejecute una transmisi6n libre de errores en un tiempo de transmisi6n finito. Algunos de los principales desarrollos en la Teona de la Informaci6n, durante los recientes anos, tienen que ser concemientes con el refinamiento y extensi6n de la misma y con la vital importancia de problemas pnicticos de codificaci6n y decodificaci6n de mensajes que son desarrollados en la transmisi6n libre de errores.

INDICE

PR6LOGO ....................................................................................................................... 3 UNlOAD I EL LENGUAJE DE LOS DATOS Valor de la infonnad6n .................................................................................................. 11 Entropia.......................................................................................................................... 12 Transmisi6n de datos ................................................................................................... 13 EI sistema numerico binario ....................................................................................... 13 Definici6n de bit .......................................................................................................... 14 Medici6n de la infonnaci6n ....................................................................................... 14 Codificaci6n de la infonnaci6n ...................... ................... .......... ..... ........... .......... ..... 18 Errores y paridad ............................... ......................... ................ .............. .................... 19 C6digo ASCII ..... ..... ............... .... ................... .............. ..................... ...... ..................... 21 EI espectro de freruencias ................................... ....... ..... ............ ........ ........................ 21 Freruencia de una sefial digital................... ........... ....... ............. ..... ........... ................ 22 Freruencias de corte....... ......... ........ .... .......................................... ............ ................. 22 Tipos de ruido ................................................................................................................. 23 Ruido paras ito ...... ....... ......... ................ ............. .................. ................ ..... ......... .......... 23 Ruido blanco ................................................ ................................................................ 24 Efecto del ruido sobre la capacidad del cana!............................... ............................ 24 Elementos de c6digo con multiples niveles ............... ..... ...... ................. ................... 25 Redes Bluetooth .... .... .......... ......................... ......... ........ ................. ............ .......... ......... 26 Fonnaci6n de redes Bluetootlt..... ................ ......... ..... ................................. ........... ..... 27 Principios bcisicos de Bluetooth............ ....... ............... .... .... ... ........... ........... .... ............ 28 UNIDAD II MODELO DEL PROCESO DE COMUNICACI6N Fuente de infoIIIlaci6n.................................................................................................. 35 Fuente codificadora de la sefial ..................................................................................... 35 Codificador de transmisi6n al medio ...................................................................... 36 Decodificador del medio al receptor ........................................................................ 37

5

6 Canal ............................................................................................................................. 37 Fuentes de informaci6n discreta y codificaci6n binaria de salidas ......................... 38 Una medida de informaci6n y funci6n de entropia ............................................... 38 Propiedades e interpretaci6n de la funci6n de entropia .......................................... 41 Codificaci6n binaria de una fuente de informati6n ................................................ 43 Entropia relativa y redundancia.................................................................................. 45 Canal de comunication.............................................................. ................................. 45 Representati6n de un canal ............. ........................................................................... 46 Una medida de la informaci6n transmitida sobre un canal................................... 49 Propiedades de la informaci6n mutua y la entropfa asociada .......................... .... 50 Capacidad del canal...... ................ ..... ..... ..... .... .... ....... ........... .... ............................. .... 51 Algunos canales simples ............................. ................................................................. 52 Teorema fundamental de la teona de la informacion ............................................. 56 UNlOAD III SISfEMAS CONTINUOS DE INFORMACION Teorema del muestreo ................................................................................................. 59 Entropia de una funtion continua...... ...... .............. .................. ........................ ......... 60 Distribution maxima de la entropfa ................... ................................ .............. ......... 61 Entropfa de un conjunto de funtiones ...................................................................... 61 Potencia de entropfa..................................................................................................... 62 Capacidad de un canal continuo .................. ................... ......................... ...... ........... 62 Capatidad de un canal por un tipo de ruido arbitrario ...................... ............. ....... 64 C6digos de correcci6n de error ............................... ..................................... ...... ....... 65 Grupo de c6digos, c6digos de chequeo de paridad ................................................. 66 C6digos sistematicos .................................................................................................. 66 C6digos de detecci6n de error ................. .................................................................. 67 Elementos de codificati6n de comprobacion de paridad ...................................... 68 C6digo de correcti6n de error simple ....................................................................... 73 C6digo de correcti6n de error de Reed-Muller ....................................................... 74 C6digos de producto 0 iterados ................................................................................. 79 C6d~gos Bose- Chaudhuri ....................................... ................................................. 80 UNlOAD N TRANSMISION DE DATOS DIGITALES Raz6n de error de bit (Ber) ........................................................................................ 91 Distorsi6n de cuantizaci6n ........................................................................................ 92 Ruido .......................................................................................................................... 93 Jitter ............................................................................................................................. 94 Scrambing .................................................................................................................... 94 Transmisi6n digital de informaci6n ...................................................................... 95

7

Combinaciones de modulaciones .............................................................................. 98 Raz6n de modulaci6n ................................................................................................. 98 Transmision en banda base ....................................................................................... 99 ADSL .......................................................................................................................... 99 Senales, espectros y filtros ... ............. ............ ........ ..... ................ ......... ....................... 100 Impulsos peri6dicos unitarios .......... .......... ........... ...... ....... ............. ............. ............. 101 Integral de Fourier.... ........ ......... ......... .............. ......... ......... ........ ............. ........ ......... 101 Pulso triangular ............ ............ ......... ...... ............... ......... ........... ...... ....... .................. 103 Pulso Gaussiano ....... ...... ........... ................................ ............... ....... ......... ........... ..... 104 Distribuci6n Gaussiana 0 normal ............................................................................ 104 Ruido en sistemas de comunicaci6n .. ........ ...... ..... ........... ....... ............................ ..... 105 Niveles de decision ................................................................................................... 114 Analisis de ruido ................... .................. ..... ....... .... ....... ................. ..................... ...... 117 Autocorrelacion ...... ....... ....... ........... ....................... ........... ............. ........ ................ ... 118 Potencia del ruido ...................................................................................................... 119 Ruido blanco ........ ....................... ................ .................. ...... .................. ........... ......... 120 Ruido a traves de sistemas lineales ........................................................................... 124 Filtros adaptivos ........................................................................................................... 128 Ruido de banda angosta ............................................................................................ 133 Detecci6n de senales binarias ................................................................................... 136 UNIDADV ENCRIPTAMIENTO DE DATOS Lucifer ........................................................................................................................ 143 Participaci6n de NSA..... ••• ........... .......... .............. ............ •••• ........ .... ................. ........ 144 Elluciferoriginal ...................................................................................................... 145 DES............................................................................................................................ 145 Extractos del DES........................................................................................................ 145 Modos alternativos de usar el DES.......................................................................... 146 Metodos de encriptado de datos ................. ........................................... .................. 147 Algoritmo encriptador de datos ................................................................................. 147 Cifrado ....................................................................................................................... 148 Descifrado .................................................................................................................. 150 Caracteristicas del algoritmo DES............................................................................ 153 Modo de libro de c6digo electr6nico ..................................................................... 158 Modo de dfrado de bloque encadenado .... .............................................................. 158 Modo de cifrado retroalimentado .............. .......... ....... .... ........ ..... ............ ........ ..... 160 Modo de salida retroalimentada ................ ...... ....... .......... ............ ............ ............ 163 Relad6n de csc y CPS de 64 bits .............................................................................. 163 Condiciones de secreta perfecto ............................................................................... 165 Seguridad informatica.. ..... .......... .......... ........... ..... ......... ..... ........... ..... ........ ............. 168

8 EDI ••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••• ...................... 170 Proyecto Bolero ......................................................................................................... 172 Sistema swift............................................................................................................ 172 Conexi6n del sistema swift..................................................................................... 173 Kerberos: arquitectura de seguridad .......................................................................... 174 Firma digital ................................................................................................................. 177 Tarjetas electr6nicas ................................................................................................... 178 Bibliografia ............................................................................................................... 181

UNIDAD I

EL LENGUAJE DE LOS DATOS

Una red de comunicaciones de datos puede ser tan sencilIa como dos computadoras personales conectadas entre sf, 0 por medio de una red telef6nica publica que abarque una red compleja de varias computadoras. En principio, la palabra comunicacion se puede emplear en varios sentidos, pero en todos ellos se hace referencia a un intercambio, al traslado de algo de un lugar a otro. En tanto el termino telecomunicacion, se refiere a un sistema y tecnica que permite emisi6n y recepci6n de seiiales, sonidos, imagenes, video 0 informaci6n de cualquier naturaleza por procedimientos 6pticos, electr6nicos 0 electromagneticos. VALOR DE lA INFORMACI6N

La mayona de las personas han dado por sentado que la palabra informacion, no necesita definici6n alguna. Han proporcionado, obtenido y procesado informaci6n y sentido su necesidad. Sin embargo, cuando empezamos a considerar el tema, surge que la informaciOn tan apreciada por algunos significa poco 0 nada para otros. La noticia de que Masel Computers, Inc. cotiz6 mas bajo que los otros competidores en la licitacion de un contrato con el gobiemo federal de los Estados Unidos, por ejemplo, tendrfa, evidentemente, mas significado para un grupo determinado de personas que para otro. La noticia de la ofena ganadora llevo la misma cantidad de informacion a todos los que se enteraron de esta, pero posefa un significado diferente en cada caso. El termino informacion carece, por 10 tanto, de todo valor, salvo el que Ie asigna quien la recibe. Pero informacion no es eso, sino un termino inherente cuantitativo, que se mide por el grado con que aclara 10 desconocido; un hecho que pueda predecirse totalmente no contiene informacion, se analizara el valor cuantitativo de la misma en oposicion a su valor emocional. Los parrafos que siguen revelaran con exactitud cuanta informacion contenfa la noticia de que se habfa adjudicado el contrato. La comprension de este concepto resultara utH durante el estudio de la eficiencia, los esquemas de codificaci6n y el control de errores. En la Teona de la Informacion se entiende por mensaje simplemente la salida de una fuente informativa. Si la fuente fuese un transmisor telef6nico, el mensaje 11

TEORfA DE LA INFORMACION Y ENCRlP'fAMIENTO DE DATOS

12

estaria constituido por las tensiones anal6gicas aplicadas a la linea. Si la fuente fuera una teleimpresora, el mensaje podria ser un caracter, uno de los bits que integran un canicter 0 de una palabra. En consecuencia, la composici6n de un mensaje puede variar y este debe ser definido 0 comprendido de acuerdo con su uso dentro de un sistema. El valor cuantitativo de un mensaje se basa en varios factores. En primer lugar, debe establecerse cuanto se sabia del contenido del mensaje antes de que fuera recibido. Si se conoda que Masel era la unica compania involucrada, la noticia de que habfa ganado la licitaci6n no hubiera sido ninguna sorpresa y el contenido de informacion del mensaje hubiera sido cero. No obstante, un mensaje que proporcionara el valor del contrato firmado contendria derta cantidad de informacion: se sabfa que Masel intervenfa en la licitaci6n, pero se desconoda e:x:actamente el importe especificado en la oferta. En segundo lugar, para poder definir aun mas la cantidad de informacion de que es portador un mensaje, debemos conocer cuantos mensajes componfan el conjunto del cual aquel fue seleccionado. Si tres companfas compiten por un contrato, para identificar a la ganadora habra que enviar uno de los tres mensajes posibles. Si las companfas ofertantes son diez, el mensaje debe ser elegido de un grupo de diez y tendria que portar mas informacion para identificar a la ganadora. En tercer lugar, para ser mas e:x:actos, habria que conocer la probabilidad de cada suceso que el mensaje podria describir. Si cada una de las diez companfas intervinientes tuviese e:x:actamente el mismo volumen de ventas, el mensaje con el nombre de la ganadora llevaria todo 10 que se puede saber sobre el resultado de la licitaci6n. Si los volumenes de ventas de cada companfa fuesen distintos, tendriamos cierta informacion sobre el desenlace antes de conocer los resultados y, por 10 tanto, el mensaje llevaria esa misma cantidad de informacion de menos. El calculo del contenido de informacion de mensajes con probabilidades distintas resulta muy complejo. En consecuencia, para contribuir a la c1arificaci6n de este analisis se supone que la informacion es enviada en forma fortuita y, por consiguiente, que todos los mensajes son equiprobables. ENTROPiA

En general, podemos decir que la informaci6n posee la propiedad de disminuir la incertidumbre de una situaci6n. La incertidumbre se denomina entropfa (H) y e:x:iste en la medida en que se carece de informacion (informaci6n + entropfa = lOooAJ, 0 en forma abreviada, 1 + H = 1). Si la entropfa de una situaci6n es reducida, s6lo se requiere una pequena cantidad de informacion para c1arificarla. Si la entropfa es grande, se necesitara Mucha mas informacion antes de que la incertidumbre sea reemplazada por un grado aceptable de c1aridad.

EL LENGUA'E DE LOS DATOS

13

Si hubiese competido unicamente con Riqo Inc., la cantidad de entropia hubiera sido pequefia; intervendrian tan solo dos fabricantes con el mismo volumen de ventas. Si hubiese pujado contra diez competidores, la entropia hubiera sido grande, porque habrfa un numero mayor de compafifas, y cada una de estas habrfa tenido una probabilidad distinta de adjudicarse el contrato. Algunos c6digos han sido concebidos para disminuir la entropia hasta el punto en que los errores cometidos durante la transmision pueden ser no solo descubiertos y localizados, sino tambien corregidos. Estudiaremos este tema mas adelante. TRANSMISI6N DE DATOS

EI termino datos, se refiere a la informaci6n que pudo haber side tomada de documentos originales como: pedidos de venta, tarjetas de tiempo trabajado, registro de producci6n, etcetera; de algl1n medio de almacenamiento, como son las cintas magneticas, 0 de la memoria de una computadora. EI traslado de estos datos entre maquinas situadas a cierta distancia es la transmisi6n de datos. Las maquinas que se emplean en la comunicaci6n de datos son muy divers as, y los lenguajes que se us an son c6digos (generalmente binarios) muy variados, que pueden ser interpretados directamente por la maquina. En la decada de los cincuenta, los estudios efectuados por los Laboratorios Bell y otros, revelaron que si los impulsos electricos generados por las maquinas comerciales eran convertidos en tonos audibles de una garna semejante a la de la voz humana, dichos tonos podfan ser transportados por la misma red y equipos que se utilizaban para las conversiones telef6nicas ordinarias. Con el objeto de ejecutar la fund6n de conversi6n, se crearon y construyeron dispositivos denominados conversores de datos (data sets) y las maquinas comenzaron a conversar entre sf a traves de la red telef6nica. De esta manera evoluciona el concepto de la transmision de datos hasta concretarse asf: datos (informacion en ellenguaje de maquina) transmitidos por las lfneas telef6nicas ex:istentes, pero con la alternativa de poder establecer comunicaciones orales utilizando el mismo equipo, en caso necesario. Quien estudie transmisi6n de datos debera conocer ciertos principios fundamentales acerca de elIos que son: c6mo se miden y c6mo se diferencian de otros tipos de informaciOn. W

II

EL SISTEMA NUMERICO BINARIO

EI sistema numerico binario es el verdadero lenguaje de los datos, pues la mayorfa de los medios electromeccinicos y electr6nicos que operan con estos tiene dos estados; si 0 no, mas 0 menos, etcetera. Se necesita un conocimiento basico del sistema binario para poder llegar a entender la comunicaci6n de datos.

14

ThORfA DE LA INFORMACI6N Y ENCRIPTAMI[NTO DE DATOS

Todos los sistemas de numeraci6n presentan varios puntos en comun: 1. La base es la que da su nombre al sistema y (viceversa) es igual a la cantidad

de digitos que 10 integran. 2. EI valor maximo de un dfgito del sistema no excede nunca del valor de la base menos 1. 3. EI 0 denota que se ha llegado al termino del sistema basico. 4. Las potencias sucesivas de la base indican los valores posicionales del sistema.

Apliquemos estas reglas al sistema binario de numeraci6n: 1. El termino binario indica que el sistema esta compuesto por dos digitos y

que, por ende, su base es 2. 2. El valor mas e1evado que puede tomar un dfgito del sistema es una unidad menos que e1 valor de la base. Puesto que la base es 2, el dfgito mmmo es 1.

El otro digito, naturalmente debe ser O. 3. Empezando a contar en binario partiendo de 1 como la base es 2, el numero siguiente tiene que ser el ultimo de nuestro sistema basico de contabilidad yesta situaci6n se indica mediante el uso del O. Por 10 tanto, el segundo numero, despues de uno, es 10. DEFINICI6N DE BIT La condici6n binaria es la que posee una cualidad biestable. Por consiguiente, puede existir uno de dos estados: encendido 0 apagado, si 0 no, marca 0 espacio, magnetizado 0 desmagnetizado, y asf sucesivamente. En el sistema numerico binario esas dos condiciones estan representadas por los digitos 1 yO. Era inevitable que alguien abreviara la expresi6n "Binary digit- (digito binario) y, en consecuencia, surgi6 el termino "bit". Observese que ambos estados binarios se denominan bits, y no s610 el bit "1 ". Esto se debe a que los dos son portadores de la misma cantidad de informacion; la presencia de uno significa la ausencia del otro. Comparando con el sistema decimal: la presencia del numero ocho, pongamos por caso, posee un significado preciso, ipero la mera ausencia de ese guarismo podria tener una variedad de significados! MEDICI6N DE IA INFORMACI6N Una vez que se ha establecido que la informacion es un termino cuantitativo, se debe determinar c6mo medirla con exactitud. Para el caso en que Masel compitiera con Riqo Inc., para designar al ganador existia la elecci6n entre dos mensajes. Casualmente, una propiedad fundamental del bit binario (ya se trate de 1 0 0) es la de

EL LENGUAJE DE LOS DATOS

15

poder reducir a la mitad la incertidumbre de la situacion. Puesto que s610 dos compaiiias competian por ese contrato, podria haberse utilizado el 1" binario para significar que habia ganado Masel, yel 110" para indicar que la victoria era de Riqo Inc., de modo que la noticia sobre el triunfo de Riqo llevaba un bit de informacion. Con el proposito de establecer una comparaci6n: icuanta informacion 0 cuantos bits son necesarios para indicar el ganador de un contrato, en cuya indicacion intervienen ocho compaiifas? Si se colocan las compaiifas en orden y se especifica que el bit 111" indica la mitad superior de la lista y el bit 110" la mitad inferior, podemos enviar una serle de bits para sefialar la oferta ganadora. Puesto que la firma vencedora es Masel y se encuentra en la mitad inferior de la nomina, el primer bit sera 0: ll

ElimintJdos

0=

Big Brothers Inc. Do-AllData Itty Bitty Machines Riqolnc.

I I

Digilog Corp. Masel Computers. Inc. Picocycle Corp. Memory, Unlimited

Oespues de que se ha eliminado la parte superior, Masel se encuentra en la mitad superior del resto de la lista, de manera que enviemos un 111 ": Big Brothers Inc. Do-AUData Itty Bitty Machines Riqolnc.

I

Digilog Corp. I {0 -+ Masel Computers, Inc

o Picocycle Corp. Memory, Unlimited

BI bit siguiente fue 0, pues Masel esta en la parte inferior de las compafifas restantes. Por 10 tanto, se han utilizado tres bits (010) para definir una posibilidad entre oebo. Cualquiera que hubiese sido la firma oferente ganadora, s610 tres bits habrlan sido necesarios para sefialarla. Basicamente, se ha formulado una serie de preguntas (ila mitad superior?) y las respuestas han sido ·si" 0 ·no". Con este ejem-

16

TEoRfA

DE LA INFORMACl6N Y ENCRIPfAMIENTO DE DATOS

plo hemos ilustrado una propiedad fundamental del bit; no s6lo constituye la partfcula mas pequefia de informaciOn, sino que es tambien la maxima cantidad de informacion posible en una elecd6n de si 0 no. Con este conodmiento podemos determinar cuantos bits se necesitan para definir una elecd6n entre varias posibles. Recordando que un bit puede ser 1 0 0, podemos utiIizarlo para definir una elecci6n entre dos; dos bits definen una elecd6n entre cuatro, tres bits una elecd6n entre ocho, y as! sucesivamente. Cada bit agregado dupIica el numero de elecciones posibles; las elecciones aumentan en potencias de dos. Un bit: Dos bits: Tres bits:

21 = 2 elecciones 22 =4 elecciones 23 = 8 elecciones

etcetera Si se conoce el numero de elecciones se puede determinar cuantos bits se requieren para identificar una de elIas. Si en una licitaci6n intervienen ocho compafiias, entonces 8 = 2 3, de modo que se necesitan tres bits, como hem os visto en el ejemplo anterior. Si s6lo se hubiesen presentado cuatro compafiias, entonces 4 = 2 2, Y con dos bits hubiera bastado. iC6mo seda en el caso de que en la Iicitaci6n hubiesen participado seis companias? Seis es menor que 23, pero mayor que 22, de manera que serla preciso un minimo de tres bits para identificar al ganador. En cuanto a la formula 23 = 8, el 8 era conocido (el nUmero de compafifas licitadoras) y el2 tambien era conocido (con una situaci6n binaria), pero querlamos encontrar el valor desconocido 3, la cantidad minima de tres bits para identificar una de las ocho companias. Operando con los valores conocidos (8 y 2), el problema podrla haberse enfocado hallando ellogaritmo de 8 con respecto a la base 2 10 que se escribe lo~ 8. Sin6nimo de logaritmo es exponente, de modo que en realidad, estamos buscando el exponente de 2 que de 8 puesto que 23 =8, entones lo~ 8 = 3. EI numero de bits que se necesitan para identificar determinada elecci6n en un grupo de N elecciones posibles es lo&z N, siempre que todas elIas tengan igualdad de oportunidades para ser elegidas: I = lo~ N Un c6digo comun de comunicaciones posee 32 caracteres. iCuantos bits debe tener por caracter? Respuesta: lo~ 32 = 5 bits. (25 = 32). iCuantos bits se requieren para un c6digo que describa sin repeticiones los 26 caracteres del alfabeto? Respues-

EL LENGUAJE DE LOS DATOS

ta: log2 16 < log2 26 < log2 32, de manera que se necesitan log2 32, 0 sea, 5 bits. Si una pregunta tiene una sola respuesta posible, el contenido de informacion de esa respuesta es 0: I (informacion) = log2 I = O. Si la pregunta tuviese ocho respuestas posibles, como en los resultados del concurso mencionado, entonces la respuesta contiene I = log2 8 = 3 bits. El ejemplo siguiente puede servir para aclarar mas este concepto. El numero de maneras diferentes en que pueden colocarse las cartas de una baraja completa es j52f (se lee "factorial 52", y significa 52x51x50x.........x3x2x1). Utilizando la formula general, haHamos que el numero de bits que puede ser representado por el orden de las cartas despues de un baraje (el orden podria ser un "mensaje") es: I = log2 52!

= 225.7 bits.

Durante una mezda cualquiera se divide la baraja en dos mazos aproximadamente iguales, A y B. Las partes A y B representan una situacion binaria y la baraja tiene un total de 52 cartas, de manera que A y B pueden combinarse en 252 secuencias posibles. Podemos utilizar la formula de informacion para encontrar el mlmero maximo de bits que un baraje puede producir: 1= log2 252 = 52 bits

(lo~

2 52 = 5210g2 2 = 52 x 1 = 52)

Entonces, 225.7 dividido entre 52 es igual a 4.3, de modo que se requiere un minima de cinco barajes para tener la certeza de que las 52 cartas estan dispuestas al azar. i Recuerdelo durante su proxima partida de p6quer! De 10 que hemos visto hasta aquf, podna suponerse que todos los bits son portadores de informacion. Sin embargo no es asi, y debemos distinguir con daridad los bits informativos de aqueHos otros que no 10 son. Un digito binario puede ser 0 no portador de informacion. Una regia empirica, que la mayona de las veces da resultado, dice que si no es posible predecir con exactitud el valor del bit (1 0 O), contiene informacion. En cambio, si su valor puede vaticinarse en forma precisa, esta cumpliendo una funci6n que no es la de Hevar informacion. Por 10 tanto, los bits informativos se combinan para formar codigos que representan letras, numeros y funciones especiales; los bits no informativos se utilizan para que el juego de equipos del sistema (hardware) pueda discriminar donde termina un caracter 0 comienza el proximo, para tener un medio de descubrir y corregir errores, y a fin de que los equipos situados en los dos extremos del circuito alcancen y mantengan la sincronizacion. Esta distincion debe tenerse presente, pues aclarara mas adelante los estudios sobre codificacion, control de errores yeficiencia del sistema.

17

ThoRIA

18

DE LA INFORMACION Y ENCRlPfAMIENTO DE DATOS

CODIFlCACI6N DE IA INFORMACI6N

En esta parte analizaremos la forma y el contenido de informaci6n de las senales transmitidas por las maquinas comerciales. Con estos conocimientos abordaremos el estudio de los c6digos que permiten a las maquinas comunicarse. Sfmbolos Hasta este momenta hemos estudiado en temunos muy generales el contenido de la informaciOn de los mensajes. Definimos el mensaje como la salida de una fuente de informaciOn, pero, mas concretamente, podrfa ser un simbolo 0 un grupo de simbolos: bits, letras del alfabeto, nu.meros 0 caracteres espedales. Ademas de esos caracteres, tambien pueden considerarse simbolos el sincronismo y el espaciamiento entre caracteres, e induso el propio espado. Definici6n de caracter Por caracter se entiende, segt1n el diccionario, lIel simbolo que se emplea en un sistema de escritura ... n Podria ser una letra, un numero 0 un simbolo con significado especial, como el periodo 0 espacio. La codificaci6n de caracteres, para adaptarlos a un sistema de transmisi6n 0 procesamiento de la informaci6n, consiste en asignade una combinad6n discreta de bits. El caracter puede tener un numero variable de bits, segt1n el sistema de codificaci6n empleado (como los c6digos Baudot Y ASCII, de cinco y ocho bits, respectivamentel, pero dentro de un sistema todos los caracteres poseen el mismo nu.mero de bits. Codificaci6n La cantidad de informacion que puede llevar un simbolo depende del numero de simbolos que integran el conjunto del cual fue seleccionado. Ya 10 hemos ejemplificado anteriormente, ruando se requerfan tres bits para definir un simbolo entre ocho, mientras que para identificar una letra del alfabeto se necesitaban por 10 menos cinco. Esta conversi6n de un conjunto de numeros en otro se denomina codificacion. Si un sfmbolo complejo se convierte en un grupo de simbolos mas simples, 0 si se pasa de un grupo de simbolos a otro mayor, la codificacwn es ascendente. Un ejemplo de ella 10 constituye la transformaci6n de una letra del alfabeto en cinco bits del c6digo Baudot. En la codificacion descendente la cantidad de sfmbolos es menor, pero cada uno contiene mas informaci6n.

EL LENGUA,E

DE LOS DATOS

Codificaci6n reversible Se considera que la tecnica de codificaci6n, sea ascendente 0 descendente, es reversible si cada mensaje (canicter, sfmbolo, grupo de c6digo, etcetera) esta codificado de manera distinta a la de cualquier otro mensaje dentro del mismo sistema. En el c6digo Morse, por ejemplo, la letra V se hall a representada por tres puntos y una raya. Si la letra Y estuviese formada de la misma manera, la forma de codificacion no sena reversible, pues el decodificador tendna que optar arbitrariamente entre Y y V. Para que al decodificar los mensajes se pueda obtener la misma forma que tenfan antes de transmitirlos es imprescindible que el esquema de codificacion usado sea totalmente reversible. La unidad de informaci6n mas pequeiia

EI estudio de la Teona de la informaci6n revela que el bit (ya sea el 1 0 el 0) es la unidad de informaci6n mas pequeiia, de la misma manera que el atomo es la particula mas diminuta de la materia. En los medios magneticos, como la cinta 0 los discos, los bits 1 y 0 se hallan representados por puntos magnetizados 0 no magnetizados, respectivamente. Para formar los caracteres, los bits se combinan de acuerdo con divers os esquemas, proceso que se denomina codificaci6n. En los parrafos siguientes se explican los c6digos de uso mas comunes. ERRORES Y PARIDAD

En la transmisi6n de datos se ha producido un error si la secuencia de los bits recibidos no es igual a la secuencia en que fueron transmitidos. Tal condici6n es consecuencia de los bits perdidos 0 con un valor u orden distinto al que tenfan. Los factores que dan origen a esos trastornos se analizan mas adelante, pero aqui la cuesti6n es que no pueden impedirse. En consecuencia, siempre existe la posibilidad de que ocurran errores durante la transmisi6n de datos. Puesto que la exactitud es de primordial importancia en el tratamiento de la informacion, se necesita un metodo para determinar si los datos han conservado, durante el procesamiento, la transmisi6n 0 el almacenamiento, el valor 0 la forma deseados. En los c6digos para cinta de papel se agrega un bit de paridad a los bits de informacion, como medio para controlar errores. EI bit de paridad es un bit de verificacion que indica que el numero total de digitos binarios "1 " de un caracter 0 palabra (exc1uido el bit de paridad) es impar 0 par. Si el bit de paridad indica que el numero de digitos "1" es impar, entonces el bit "0" seiiala que ese numero es par. Si el numero de bits 1" incluido el de paridad, es siempre par, se dice que es un sisteII

19

ThOIUA DE lA INFORMACI6N Y ENCRlPrAMIENTO DE DATOS

20

b 7 ----------------> BITS b6 ------------------> bs ------------------> BITS b 4 b 3

b2 b I Fila Columna

0 0 0

0 0 1

0 1 0

0 1 1

1 0 0

1 0 1

1 1 0

1 1 1

0

1

2

3

4

5

6

7

0

0

0

0

0

NUL OLE

SP

0

@

P

.

P

0

0

0

1

1

SOH DCl

!

1

A

Q

a

q

0

0

1,

0

2

SIX

DC2

"

2

B

R

b

r

0

0

1

1

3

EIX DC3

#

3

C

S

0

1

0

0

4

EOT DC4

$

4

0

T

d

t

0

1

0

1

5

ENQ NAK

%

5

E

U

e

u

0

1

1

0

6

ACK SYN

&

6

F

V

f

v

0

1

1

1

7

BEL

ETB

I

7

G

W

g

w

1

0

0

0

8

BS

CAN

(

8

H

X

h

x

1

0

0

1

9

HT

EM

)

9

I

Y

i

Y

1

0

1

0

10

LF

SUB



:

J

Z

j

z

1

0

1

1

11

VI'

ESC

+

;

[

k

{

1

1

0

0

12

FF

FS

,




N

A

n

N

1

1

1

1

15

SI

US

?

0

-

0

I

Figura 1.1 Tabla de c6digo ASCII.

s

DEL

EL LENGUAJE

DE LOS DATOS

21

ma de paridad par. En un sistema de paridad impar, el numero total de bits 111", incluido el bit de pari dad, es siempre impar. C6DIGO ASCII Debido a que el numero de combinaciones posibles con el c6digo Baudot esta limitado y, 10 que es mas importante, porque carece de un esquema 16gico 0 secuencial, se han desarrollado nuevos c6digos, mas flexibles que se prestan facilmente a la computaci6n. Ala sigla ASCII, de American Standard Code for Information Interchange (C6digo Estandar Norteamericano para el Intercambio de Informaci6n) tambien se Ie denomina c6digo ANSI y c6digo para el Intercambio de Datos. Se trata de un c6digo de siete canales a los que se suma un octavo de paridad par. La configuraci6n de bits del c6digo ASCII se muestra en la figura 1.1. Los caracteres graficos (imprimibles) y de control (funciones) han sido encolumnados dentro de lfneas dobles. Encabeza cada columna la configuraci6n de bits de orden superior correspondiente a los caracteres 0 funciones de esa columna. Ala izquierda de cada fila se da la configuraci6n de los cuatro bits de orden inferior que representan los caracteres 0 funciones de esa fila. Codificando la letra F = 1 0 0 0 1 1 0 = orden superior y orden inferior. EL ESPECfRO DE FRECUENCIAS Las frecuencias tienen una gama de variaci6n muy amplia: empiezan en 0 y au mentan gradual mente a traves del espectro aa1stico, de radio, infrarrojo (calor), de luz ultravioleta, de rayos X, rayos gama y rayos c6smicos. La gama audible va de 20 Hz a 20,000 Hz aproximadamente y es muy variable de una persona a otra. La banda de radiofrecuencias se extiende desde los 14 kHz hasta mas de 10 millones de kHz. La figura 1.2 ilustra la disparidad entre las frecuencias perceptibles por el oido humano y aquellas que pueden ser transmitidas por un canal telef6nico. La voz humana (100 a 1100 Hz), sin embargo, cae casi en su totalidad dentro de los Hmites impuestos por el circuito de telefonfa. CANAL TELEF6NICO

I I OHz 20Hz

(3000Hz) 300Hz

GAMAAUOmLE (ALREDEDOR DE 20 000 Hz)

3300Hz

Figura 1.2 Disparidad de frecuencias entre el ofdo humano y un canal telef6nico de frecuendas.

20000 Hz )

22

'ThORIA DE LA INFORMACION Y ENCRlPI'AMIENTO DE DATOS

FRECUENCIA DE UNA SENAL DIGITAL

La sefial con la que se efectua la comunicaci6n de datos esta compuesta por una gama de frecuencias. La frecuencia de la sefial, en un momento determinado, depende de la composici6n del c6digo que se trans mite. Para ilustrar esto supongamos que se transmite un caracter cuya representaci6n binaria es 11110000. Si los unos binarios son una tensi6n positiva y los ceros una tensi6n negativa, s610 se habrfa transmitido un cicIo durante el tiempo requerido por un caracter: la tensi6n de linea habrfa ido de cero a una tensi6n positiva (durante los bits "1") Yluego habrfa variado a una tensi6n negativa pasando por cero mientras se transmitian los "0". Por ,otra parte, si se transmi tiera un caracter cuyo equivalente binario fuese 10i01010, se producirfan cuatro cidos de corriente durante el mismo tiempo requerido i En realidad, la transmisi6n del segundo caracter hubiera dado lugar a la maxima frecuencia posible para esa sefial en particular, pues se habria producido el mayor numero de transiciones de un estado de la sefial (positivo) al otro (negativo). Por 10 tanto, el numero de bits de que puede ser portador un canal de transmisi6n por unida~ de tiempo esta directamente relacionado con el limite superior de su rango de frecuencias utilizable. FRECUENCIAS DE CORTE

Visto que en los medios de comunicaci6n se suponen muchas conversaciones simultaneas (u otra informaci6n), es necesario restringir cada una de elIas a su propio canal. Los filtros electricos que se utilizan para tal fin forman una banca que deja pasar las frecuencias comprendidas dentro de cierta gama y bloquea aquellas que no 10 estan. Los puntos situados en los extremos superior e inferior de la banda pasante se denominan frecuencias de corte (vease la figura 1.3). Frecuencias de corte 1

~

E a

!

"C

:e

t

-1 -2

-3 -4 ~~+-~~-----+-~-+-----~~~

a

1,2

24

3,6

Frecuencia (KHz) Figura 1.3 Banda pasante formada con filtros.

EL LENGUAJE DE LOS DATOS

Si fuera posible transmitir la senal por un canal perfecto, llegarfa al destino exactamente como fue enviada. Canales de este tipo, sin embargo, s610 existen en teona; por 10 tanto, las senales se distorsionan durante la transmisi6n. Hemos dicho con anterioridad, que el ruido es un fen6meno imprevisible que puede describirse mejor estadisticamente. La distorsi6n, en cambio, afecta a la senal en forma permanente y es fund6n de cada canal en particular. Existen tres tipos de distorsi6n que un canal puede transmitir a una senal: distorsi6n de retardo, distorsi6n por atenuad6n e inestabilidad. TIPOS DE RUIDO El ruido de un canal esta integrado por impulsos elt~ctricos aleatorios que provienen de varias fuentes y, por 10 general, hay muchos tipos de ruido: blanco, termico, rosa, atmosferico, etcetera. RUIDO PARASITO EI ruido parasito es causado generalmente por el fundonamiento de maquinas y llaves, asf como por tormentas electricas. Se caracteriza por su intensidad, corta durad6n y esta confinado a una parte restringida del espectro de frecuendas. Dentro de la gama de audio es perceptible como chasquidos bruscos 0 rafagas de estatica (figura 1.4).

II

Frecuencia (A)

II

J

d

~

A

Frecuencia (8)

Figura 1.4 Distribuci6n en amplitud y frecuencia (A) del ruido blanco y (B) del ruido panisito de corta duraci6n.

23

24

TEORlA DE LA INFORMACION Y ENCRJPfAMIENTO DE DATOS

RUIDO BLANCO (RUIDO GAUSSIANO)

La energfa del ruido blanco, por el contrario, esta repartida en una amplia regi6n del espectro de frecuencias y se escuch.a familiarmente como sop lido de fondo en radio o telefonfa. Se debe a la inducci6n de las lfneas de fuerza, la intermodulacion de circuitos adyacentes y un conglomerado de otras senales aleatorias. Una explicacion del uso del adjetivo ublanco" para describir este tipo de ruido es que origina la "nieve" visible en la pantalla de 1V cuando la senal es debil. EI ruido se hace molesto cuando su magnitud es mas de la mitad de la que tiene un elemento positivo del c6digo. A esto se debe que se tomen muestras de una senal y si el ruido supera el nivel de decisi6n se interpreta como una senal positiva (figura 1.5). Se analizara con detalle estos aspectos oportunamente. Ruido

c~---t-~---f---t

o

t

t

CD Error

t

o

t

Nivel de decision Lugaresde muestreo Resultados del muestreo

Figura 1.S Efectos del ruido sobre una seiial binaria.

EFECfO DEL RUIDO SOBRE IA CAPACIDAD DE UN CANAL (SHANNON)

Puesto que las senales que son ruido poseen much as de las caractensticas de una senal portadora de informacion, debemos buscar alguna forma de distinguirlas con daridad. Por fortuna, el nivel de potencia (intensidad) del ruido es bastante bajo en la mayona de los circuitos. Si la potencia de la senal informativa esta muy por encima de la potencia de ruido, el equipo receptor puede diferenciarlas con mas facilidad. A medida que la senal y el ruido alcanzan un nivel de potencia similar, en tanto que el ancho de banda del canal permanece constante, cada una de las condiciones o estados discretos de la senal deben estar presentes durante periodos mas prolongados, para que el equipo de recepci6n pueda discriminar entre ellos y los estados aleatorios del ruido. C. E. Shannon fue un precursor en este campo y en 1949 desarrollo una teona segl1n la cual el regimen maximo de bits, C, que se puede enviar por un canal con un ancho de banda BW y una relacion senaljruido SIN (donde S = intensidad de la senal y N = intensidad del ruido) esta determinada por la f6rmula siguiente:

EL LENGUAJE DE LOS DATOS

Esta relaci6n de potencia SIN indica la intensidad relativa de la senal con respecto a la del ruido en el canal, yes expresada en forma proporcional (10 3 :1, 0 en decibeles (dB). Una relaci6n de potencias SIN de 102 1 sena igual a 20 dB, yas! sucesivamente. Si tuviesemos un canal perfecto, con un ancho de 3000 Hz y una relaci6n SIN de 103 : 1 podnamos utilizar la f6rmula antedicha y calcular el regimen maximo de bits del canal: C=BWlog2 (I+S/N) =300010~ (1 +103) =300010~(1001 ) =3000xl0( aprox.) =30.000 ... bits/seg Observese que no se describen los metodos de codificaci6n y modulaci6n; son casi imposibles de lograr y, en verdad, no resultarfan econ6micos. ELEMENTOS DE CODIGO CON MULTIPLES NIVELES

En presencia de ruido, una senal binaria se percibe mas exacta y facil que otta en la cual se emplean varios bits por elemento de c6digo. A medida que aumenta el contenido de bits (numero de niveles) de un elemento de c6digo, debe producirse un incremento proporcional en la relaci6n SIN para que los resultados de la detecci6n de una senal binaria sigan siendo los mismos. La f6rmula antes citada puede modificarse para obtener la relaci6n SIN que se necesita como minima para un regimen de bits y un ancho de banda conocido.

La aplicaci6n de esta f6rmula a senales binarias y de niveles multiples indicara la medida de la desventaja de ruido requerida para permitir la transmisi6n de varias senales de niveles multiples. Primero debe calcularse la relaci6n SIN de una senal binaria, para que sirva de referencia. Suponiendo un canal perfecto de 3000 Hz, puede utilizarse la velocidad establecida por Nyquist, de 6000 bps, con 10 que se obtiene una relaci6n SIN de 3:1 como minima: S/N=2C/BW-l S/N=26ooo/30oo_1=22_1=3 EI equivalente en decibeles de una relaci6n SIN de 3:1 es:

25

26

ThoRfA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

dB= 1010gS/N =1010g3 =10(4,8)=4,8 En contraste con el sistema binario mencionado, en un sistema temario (de tres niveles) se necesitaria una relaci6n de potencia SIN superior. La velocidad maxima en bits de un sistema temario a traves de un canal ideal de 3000 Hz es: bps = 2BW(log23) = 6000(1,58) = 9500 y la relaci6n SIN necesaria sent: S/N=2C/BW-1 =29500/3000_1 =2 3-1=7 ... (aprox.) EI equivalente en decibeles de una relaci6n SIN de 7 es: dB= 1010~=8,5 La desventaja de ruido de un sistema temario con respecto a uno binario (en un canal ideal) es, pues, 8,5-4,8 = 3.7 dB. Un sistema cuatemario requiere una diferencia minima de 11,7 entre los niveles de la sefial y de ruido. Por 10 tanto, tiene una desventaja de ruido de 11,7 - 4,8 = 6,9 dB por encima del binario. Estos son los requisitos minimos de un canal perfecto en cualquier otro sentido, y los ilustramos aqui para indicar ellimite de la desventaja de ruido que se requiere para aumentar la velocidad de la sefial en un canal determinado. Ademas del limite que el ancho de banda y ruido de un canal (reducida relaci6n sefial-ruido) imponen sobre su cap acid ad portadora de bits, otras imperfecciones del canal y las limitaciones de los equipos actuales obligan a un minima practico de la relaci6n SIN del orden de 102 : 1 (20 dB) 0 mas.

REDES BLUETOOTH Hoy dia, un sinmlmero de personas utilizan cuantiosos dispositivos portatiles en sus actividades profesionales y privadas tales como ordenadores, telefonos m6viles, PDA y reproductores MP3. Para la mayona, estos dispositivos se usan por separado, esto es, sus aplicaciones no interactuan. Sin embargo, en el caso que pudiesen interactuar directamente, los participantes de una reuni6n podrian compartir documentos 0 presentaciones; las tarjetas de visita irian automaticamente al registro de

EL LENGUA'I: DE LOS DATOS

direcciones en un ordenador portatil y el numero se registraria en un telefono m6viI. A medida que los viajeros salen de un tren cercano, sus ordenadores portatiles podrian permanecer en linea; de la misma manera, ahora el correo electr6nico entrante podria ser derivado a sus PDA; finalmente, al entrar a la oficina, toda la comunicaci6n podria ser encaminada automaticamente a traves de la red inalambrica corporativa. Estos ejemplos de comunicaci6n inalambrica espontanea ad hoc entre dispositivos, podrfan ser definidos de manera informal como un esquema, al que a menudo se denomina formaci6n de redes ad hoc, que permite a los dispositivos establecer la comunicaci6n, en cualquier momenta y en cualquier lugar, sin la ayuda de una infraestructura central. En realidad, la formaci6n de redes ad hoc como tal no es nueva, sino la configuraci6n, el uso y los participantes. En el pasado, la noci6n de redes ad hoc se asociaba con frecuencia con la comunicaci6n en los campos de combate y en los emplazamientos de zonas desastrosas; en la actualidad, al materializarse nuevas tecnologias tales como Bluetooth, es probable que cambie el escenario de la formaci6n de redes ad hoc, asi como su importancia. A continuaci6n se describe el concepto de la formaci6n de redes ad hoc proporcionando sus antecedentes y presentando algunos de los retos tecnicos que plantea. Ademas, se indican algunas de las aplicaciones que se pueden contemplar para la formaci6n de redes ad hoc. FORMACION DE REDES BLUETOOTH ./

En todo el mundo, la industria ha mostrado mucho interes en tecnicas que propordonen conectividad inalambrica de corto alcance. En este contexto, la tecnologia Bluetooth se ve como el componente clave. Sin embargo, la tecnologfa Bluetooth debe ser capaz de operar en redes ad hoc que puedan ser .aut6nomas, 0 parte del mundo /Ide la red IP", 0 una combinaci6n de ambas. El principal prop6sito de Bluetooth es sustituir los cables entre dispositivos electr6nicos, tales como los telefonos, los PDA, los ordenadores porta tiles, las camaras digitales, las impresoras, y las maquinas de fax, usando un chip de radio de bajo costo. La conectividad de corto alcance tambien encaja muy bien en el contexto del area amplia, en que puede extender la formaci6n de redes IP al dominic de la red de area persona), como se discuti6 con anterioridad. Bluetooth debe ser capaz de transportar IP eficientemente en una PAN, ya que las PAN estaran conectadas a Internet a traves de UMTS 0 UN corporativas, y contendran anfitriones con capacidad para IP. En terminos generales, una buena capacidad para transportar IP darla a las redes Bluetooth una interfaz mas amplia y mas abierta, 10 que con toda certeza impulsarfa el desarrollo de nuevas aplicaciones para Bluetooth.

27

28

ThoRfA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

Pi co red 1

?

Pico red 2

~

o Unidad Bluetooth (maestra) o Unidad Bluetooth (esclava) Figura 1.6 Ejemplos de pica redes Bluetooth.

PRINCIPIOS BASICOS DE BLUETOOTH

Bluetooth es una temologfa de comunicaci6n inahimbrica que usa un esquema de saltos de frecuencia, una banda Industrial-Cientffica-Medica (Industrial-Scientific -Medical) ISM a 2,4 GHz que no necesita licencia. Dos 0 mas unidades Bluetooth que comparten el mismo canal forman una pica red (figura 1.6). Dentro de una pica red, una unidad Bluetooth puede representar uno de dos papeles: maestro 0 esclavo. Cada pica red solamente puede contener un maestro (y siempre debe haber uno) y hasta siete esclavos. Cualquier unidad Bluetooth puede llegar a ser maestra en una pica red. Ademas, dos 0 mas pica redes pueden ser interconectadas, formando 10 que se denomina una red dispersa (scattemet). EI punto de conexi6n entre dos pica redes consta de una unidad Bluetooth que es miembro de ambas pica redes. Una unidad Bluetooth puede ser simultaneamente un miembro esclavo de multiples pica redes, pero s610 maestro en una. Asimismo, debido a que una unidad Bluetooth unicamente puede transmitir y recibir datos en una pico-red a la vez, su participaci6n en multiples pica redes ha de ser en regimen de multiplexaci6n por divisi6n de tiempo. El sistema Bluetooth proporciona transmisi6n duplex basada en duplicaci6n por divisi6n de tiempo TOO (time-division duplex) con intervalos, donde la duraci6n de cada intervalo es de 0.625 ms. No hay transmisi6n directa entre esclavos en una pica red Bluetooth, s610 de maestro a esclavo y viceversa. La comunicaci6n en una pica red esta organizada de manera que el maestro interroga a cada esclavo de acuerdo con un esquema. Un esclavo s610 tiene permiso para transmitir despues de haber sido interrogado por el maestro. El esclavo comenzara su transmisi6n en el intervalo de tiempo esclavo-a-maestro inmediatamente

EL LENGUA'E DE LOS DATOS

despues de haber redbido un paquete del maestro. El maestro puede 0 no induir datos en el paquete usado para interrogar a un esdavo. Sin embargo, es posible enviar paquetes que cub ran multiples intervalos. Estos paquetes multiintervaio pueden tener una longitud de tres 0 cuatro intervalos. Aplicadones Las redes de paquetes de radio ad hoc han sido tomadas principalmente para usos militares, para una operacion descentralizada. En el sector comercial, los equipos para informatica inalambrica movil representan un alto costo, y no es atractivo para el publico. Pero conforme aumente la capaddad de los ordenadores m6viles, tambien aumentara la formad6n de redes, y estas se utilizaran en donde no haya ninguna infraestructura fija 0 celular. Para operadones de rescate en zonas remotas 0 para aumentar la cobertura local de modo fCipido en sitios en construcci6n. A nivellocal, las redes ad hoc pueden enlazar ordenadores portatiles para difundir y compartir informaci6n entre los participantes en una conferencia. Tambien para redes domesticas, tal como audio, video, alarmas, actualizaciones de configuraci6n y, en un futuro, redes mas 0 menos aut6nomas de robots domesticos interconectados para limpieza, vigilancia, etcetera. Redes de saIto multiple (redes sensoras) para monitores del medio ambiente. Ruido ambiental y laboral EI ruido es uno de los contaminantes mas sutiles con que el ser humane inunda el mundo. No se ve, no tiene olor ni color, no deja rastro. Pero puede generar molestia, problemas de salud, y sobre todo sordera en las personas sometidas a ruido constante 0 excesivo. Es imperativo conocer los riesgos que el ruido puede producir para evitar consecuencias que pueden ser irreparables. La seguridad ocupacional pretende la inexistencia de riesgos para la vida y la salud del trabajador, y la legislacion exige que se evite la generad6n de riesgos asi como disminuir los ya existentes. Conservar la audibilidad es responsabilidad tanto de trabajadores como de empresarios, aunque toca a los ultimos adoptar las medidas correspondientes. Sortear el ruido industrial tiene como objetivo principal proteger a los trabajadores de las exposiciones excesivas de ruido, con las cuales pueden presentarse perdidas auditivas. Esta es una prioridad que incluye la promulgaci6n de leyes, indicando los limites de nivel maximo de ruido permisible en la maquinaria y equipos empleados en la industria, as! como la formulaci6n de recomendaciones para su ubicacion, aislamiento, y la elaboraci6n de rutinas adecuadas de trabajo. La medici6n basica del nivel de ruido se realiza en dB (A), Yson de gran importancia los valores de nivel instantaneo, nivel minimo, nivel maximo, ademas de la

29

30

TEORfA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

dosis de ruido que incide en los oidos del personal en su horario completo de trabajo. El analisis de frecuencia y el de ubicaci6n de las fuentes sonoras, son de gran utilidad para conocer mejor el ruido y bus car la forma mas practica y economica de atenuarlo. El ruido industrial induye todos los sonidos que se producen en una fabrica 0 instalaci6n industrial, como son: motores, ventiladores, cajas de engranes, maniobras de carga y descarga, etcetera; asimismo el ruido generado en el proceso de produccion. El nivel de ruido puede medirse en cualquier momento, pero hay que tomar en cuenta que con frecuencia hay variaciones de nivel de un momento a otro, por 10 que la medici6n momentanea en dB (A) no es suficiente. Se pueden hacer graficas continuas de la fluctuacion del nivel de ruido, pero son dificiles de analizar e interpretar, por 10 que se han desarrollado descripciones mas sencillas, y la mas empleada en ruido industrial es el LEQ 0 Nivel Sonoro Continuo Equivalente en dB (A), que es el promedio de energia del ruido en el tiempo que dura la medici6n. EI ruido puede ser continuo 0 estable, como en el caso de un motor electrico, o de caracter fluctuante 0 intermitente, como en el caso de maquinaria de velocidad 0 proceso variables. Todos ellos pueden medirse en LEQ para determinar el posible riesgo de dana aloido. La reglamentacion a su vez, establece mediciones por bandas de frecuencias con el objeto de caracterizar correctamente al ruido, en su caso, instalar el aislamiento adecuado 0 identificar con facilidad la fuente probable, para el caso de reduccion de ruido. Las bandas empleadas con frecuencia son las de octava y 1/3 de octava. Las mediciones de ruido estacionario se realizan con un medidor de nivel sonoro con ponderacion A, y con respuesta lenta 0 rapida del indicador. El ruido debe medirse en la posicion de la cabeza del trabajador. Esta es practicamente una medicion de ruido ambiental, en la maquina que opera el trabajador sera solo una de las fuentes de ruido, y no necesariamente la mas importante, por 10 que la respuesta del microfono debe ser omnidireccional, de tal manera que se asegure la correcta medicion del ruido generado por todas las fuentes involucradas. Muchos trabajadores son expuestos a un cierto numero de niveles de ruido con duracion variable, 10 que puede deberse al cicIo de trabajo de la maquinaria 0 del propio trabajador, desplazandose de un departamento a otro. Los codigos de ruido establecen procedimientos para sumar una serie de dosis parciales a las que son sometidos los trabajadores. Por ejemplo, ISO (Organizacion Internacional de Normalizacion) fija para ocho horas de trabajo yun nivel de ruido de 90 dB (A), la dosis de 1000/0, y para el mismo periodo de tiempo, pero con un nivel de 93 dB (A), la dosis es de 200 0.4" por 10 que si un trabajador permanece cuatro horas a un nivel de 90 dB (A) Ylas otras cuatro horas a un nivel de 93 dB (A), se dice que ha recibido una dosis de 150°.4,. Es necesario tener presente que se fija el nivel de 105 dB (A) como el maximo nivel de ruido al que un trabajador puede ser sometido, y nunca mas de 15

EL LENCUAJE DE LOS DATOS

minutos al dfa. La OSHA establece una diferenda de 5 dB para dupliear el porcentaje de exposid6n, y atlualmente usa 85 dB (A}/8 horas como base para el 1000/0. Cuando el nivel de ruido fluctua en fonna impredecible, este puede representarse por el Nivel Sonoro Continuo Equivalente, el cual tiene la misma energia acustica que un ruido estable del mismo valor en un periodo de tiempo igual. Este principio de igual energfa ha side adoptado por ISO, como por las normas mexican as. Los dosimetros de ruido de uso personal se usan para medir directamente en porcentaje la dosis recibida por un trabajador, sometido a niveles de ruido con fluctuaciones aleatorias en un periodo nonnal de ocho horas de trabajo. En caso de requerir la realizacion de mediciones en menos tiempo, por ejemplo, cuando se efectuan muestreos 0 en los sitios en que practieamente el ruido no fluctua, siempre es posible calcular el valor correspondiente a ocho horas, aunque para el cumplimiento de las normas nunea se aceptan mediciones de menos de dos horas, yen los casos cnticos, es indispensable medir las ocho horas. S610 para la determinaci6n del Nivel Sonoro Continuo Equivalente, se han normalizado procedimientos que reduzcan el tiempo de medid6n por motivos de eficiencia, pero haciendo un muestreo por periodos cortos a 10 largo de jomadas enteras. Para el caso de ruidos impulsivos, no existe un criterio de Indole mundial aceptado, en algunos pafses simplemente se suma 10 dB al nivel equivalente medido para compensar por la generaci6n subita de los ruidos impulsivos, ya que no permiten que actuen las defensas normales del aparato auditivo. En otros, se mide el nivel de los sonidos impulsivos y se marea un maximo de impulsos de dicho nivel por dfa. En cualquier caso, se prohlbe que los ruidos impulsivos 0 de impacto superen el nivel de 140 dB ·pico·. Debido ala falta de uniformidad en los criterios de evaluad6n de los ruidos impulsivos, los trabajadores sometidos a este tipo de ruido deben ser observados cuidadosamente desde el inicio de sus actividades, a traves de programas de conservacion auditiva, los cuales en algunos palses son obligatorios en los sitios en donde existen niveles de ruido por encima de los 85 dB. Con frecuenda, se requiere que los datos generados por las medidones de ruido sean utilizados como referenda para futuras medici ones, 0 para determinar atenuaciones 0 incrementos despues de cierto tiempo, 0 para cualquier otro tipo de comparaci6n, inc1uyendo aspectos legales, de ahi que convenga realizar reportes suficientemente detallados. El control de ruido no necesariamente tiene que ser costoso, existen muchos ejemplos de bajo costo. Cuando el control de ruido no es practico, la rotaci6n de personal en zonas ruidosas contribuye a reducir el riesgo de perdida auditiva, siempre y cuando el resto de la jornada suceda en ambientes de bajo ruido. En ocasiones, se requiere aislar la maquinaria ruidosa con barreras parciales 0 totales, las cuales se seleccionan de acuerdo al tipo de ruido. Los protectores auditivos reducen la cantidad de ruido que en realidad perdbe el oldo; esta solud6n deb era considerarse de manera permanente en la fuente, 0 se

31

32

ThORfA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

aisla la maquinaria. En los casos en que 10 anterior no es posible, es indispensable adiestrar de forma adecuada al personal que tendra que usar los protectores. La planeaci6n de la construcci6n futura de instalaciones industriales 0 su modemizacion, debe prestar especial atencion a minimizar la generacion de ruido. Resulta menos costoso disefiar y construir una fabrica silenciosa, que realizar acciones de control de ruido una vez que esta en operacion. En el caso del ruido ambiental, el problema rara vez consiste en la perdida de audici6n. Tipieamente se trata de un asunto de confort, y para ello existen varias normas que establecen los niveles mciximos de ruido que se pueden producir por vehiculos, por fabricas y talleres en el lindero de sus predios, y, en general, por comercios y centros de diversion, incluyendo casas-habitacion. Por tal raz6n se marcan zonas en las ciudades de acuerdo al uso unieo 0 mayoritario que tengan estas: habitacional, semiindustrial 0 industrial. El control de ruido constituye en sf mismo un problema tecnico de cierta complejidad, pero aunado a ello, existen ottos que dificultan el control, tales como los de caracter econ6mico, en algunos casos legislativo, falta de conocimiento 0 de interes por parte de las personas involucradas en la generacion de ruido, ignorancia y/o negligencia por parte de los trabajadores sujetos a proteccion personal, falta de personal capacitado para realizar las instalaciones necesarias, etcetera.

UNIDAD II

MODELO DEL PROCESO DE COMUNICACION

Un diagram a a bloques de un sistema general de comunicaci6n se IIDlestra en la figura 2.1 y su equivalente binario (onl off) en la 2.2. A continuaci6n se realizara un examen de las distintas partes del sistema, asi como el proceso de codificaci6n y decodificaci6n. FUENTE DE INFORMACI6N

La fuente de informaci6n selecciona sfmbolos (letras, numeros, palabras, sonidos, etcetera) de un alfabeto (0 conjunto) de sfmbolos posibles. El alfabeto del cuallos sfmbolos son seleccionados es fijo e independiente de los procesos de comunicaci6n. Las combinaciones de sfmbolos seleccionados sucesivamente (secuencialmente) forman los mensajes que serm transmitidos sobre un sistema de comunicaci6n, la selectiva y estadfstica naturaleza de la fuente es una caractenstica principal de la Teona de las Comunicaciones modema. FUENTE CODIFlCADORA DE LA SENAL

La fuente codificadora de la senal transforma los sfmbolos seleccionados sucesivamente dentro de distintas senales ffsicas, estas senales deben tomar la forma de pulsos de voltaje como en sistemas telegrcificos 0 voltaje continuo/funciones de tiempo como en sistemas de radio y telefono. Es importante notar la distinci6n entre sfmbolos (que son seleccionados por algtin alfabeto predeterminado) y las senales (como son representadas fisicamente por los simbolos seleccionados). Decodificador de senal a recipiente Este decodificador opera inversamente a la fuente decodificadora de la senal. Convierte senales ffsicas dentro de simbolos adecuados para su uso por el recipiente. Es tipico que las salidas de la senal a decodificar sean de teleimpresores, de radio y telefono. Es importante notar que las senales que constituyen la entrada de la senal 35

36

ThORIA DE LA INFORMACION Y ENCRlPfAMIENTO DE DATOS

al decodificador de recipiente son dependientes de las decisiones previas hechas al medio para el decodificador de recipiente. Codificador de senal a senal El codificador de senal a senal, convierte la senal representando un simbolo dentro de otro de forma mas compleja. EI proceso de conversi6n involucra sumando redundancia a las senales y es esa parte del sistema la que emplea el codificador necesarlo cuando emplea c6digos detectores de error 0 correctores de error. Decodificador de senal a senal EI codificador de transmisi6n de senal a senal opera inverso al codificador de senal a senal (los compartimientos de transmisi6n son convenientes para la salida del codificador de senal a senal) y produce una senal que idealmente deb era corresponder directamente a la salida del codificador de la fuente a la senal. CODIFICADOR DE TRANSMISI6N AL MEDIO

EI codificador de transmisi6n al medio (0 modulador) opera en las senales codificadas que representan simbolos de informaci6n, convirtiendolos en una forma apropiada para la transmisi6n, siempre que el medio este conectado al transmisor y al receptor. Por 10 general, hay restrlcciones en las senales enviadas al termino de la transmisi6n al medio. Estas restricciones pueden tomar formas limitadas en la potencia, ancho de banda y duraci6n de las senales electricas usadas, y el codificador de transmisi6n al medio debe ser disenado para producir senales adecuadas.

Figura 2.1 Diagrama de un sistema de comunicaci6n.

MODELO DEL PROCESO DE COMUNICACION

37

DECODIFICADOR DEL MEDIO AL RECEPTOR

EI decodificador del medio al receptor (0 detector) opera inversamente al codificador de transmisi6n al medio. Este convierte las senales moduladas que son recibidas en senales similares a las de la salida del codificador de senal a senal. EI dispositiv~ a menudo actua como una decisi6n primaria al hacer en un sistema binario, debe decidir en todo caso si el pulso recibido es binario 1 0 O. Las senales de salida provenientes del decodificador al medio y al receptor son usados en la parte decodificadora de este ultimo. CANAL

El canal es el medio y la terminal fija del equipo que enlaza al transmisory al receptor. EI termino "equipo terminal fijo" es necesario para la elaboraci6n desde la aplicaci6n de la Teona de la Informaci6n, que requiere una definici6n cuidadosa de c6mo construir un canal. Las figuras 2.1 y 2.2 muestran el codificador de transmisi6n al medio y de este al decodificador del receptor como parte del transmisor y del receptor. Sin embargo, si los procesos de modulaci6n y demodulaci6n son fijos en el sentido que el disenador esta sujeto a cualquiera de los dos, es incapaz de tener cambios, entonces aquellos pueden formar parte de un canal. En general, en la aplicaci6n del teorema de Shannon, el canal representa que parte del sistema el disenador no puede ni podra cambiar, e induye los procesos de decisi6n llevandolos a la salida del demodulador.

~oo

FUENTE A SENAl

COIllFICADA SENAlA CODIFICADOR DESENAl

~--

I

I I

I

~ ~_~ ~_~ ~_T_~ ~_ ~_~ ::.C~ ~_~ ~_~ ~ -'

1__ I I I

I I

I TRANSMISOR A I CODIFICADOR DE MEDIO

I

I

I

MEDIO A :

I

I I

I RECEPTOR I DECODIFICADOR

----

SENAl A RECIPIENTE

DECOIlIflCAIlOO

SE~Al A DECODIFICADOR DE SE~

TRANSMIS~R---------t--CANAL ---r---------RE~EPTOR ______ __________ L _______________

Figura 2.2 Diagrama de un sistema de comunicaci6n binario.

I

~

38

ThomA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

FUENTES DE INFORMACION DISCRETA Y CODIFICACION BINARIA DE SALIDAS

Las fuentes de informacion generan mensajes haciendo selecciones sucesivas de un alfabeto de simbolos posibles. Las fuentes pueden ser discretas 0 continuas. Una fuente de informaci6n discreta es aquella que selecciona simbolos de una serie finita de xl, x2, ... , x3 de acuerdo a las reglas de probabilidad. La telegrafia es un ejemplo simple de una fuente discreta y de un sistema de transmisi6n. Una fuente de informaci6n continua es aquella que hace selecciones de un alfabeto que es continuo dentro de su rango. Un ejemplo de la salida de una fuente continua es la posici6n tomada por el apuntador de un instrumento usado para medir la amplitud de algunas variables, que pueden tomar algtln valor dentro de los limites de un cierto rango. Esta unidad considera s610 aquellas fuentes conocidas matematicamente como fuentes ergodic. Una fuente ergodic es aquella en la cual cada secuencia de simbolos producidos por la fuente es la misma en propiedades estadisticas. Si esta se observa 10 suficiente, dicha fuente producira, con una probabilidad aproximada a la unidad, una secuencia de simbolos que es tipica. En terminos simples significa que si una secuencia es 10 suficientemente grande, contendra casi con toda certeza numeros de simbolos y combinaciones de simbolos que son independientes de la secuencia particular. Se dice que una fuente de informacion no tiene memoria 0 tiene memoria cero, si los simbolos sucesivos generaqos por la fuente son estadisticamente independientes. Esto es, una fuente tiene una memoria cero si cada simbolo es seleccionado sin la influencia de todas las selecciones previas. Si los simbolos previamente seleccionados influyen en la seleccion de un simbolo, entonces, se dice que la fuente posee memoria. Si la selecci6n de simbolos esta influenciada s610 por el simbolo que la precede inmediatamente, la fuente es conocida matematicamente como una fuente Markov. Si la seleccion esta influenciada por los m simbolos previamente seleccionados, la fuente posee memoria y a veces es Hamada una fuente MarkovU de Um-esimo orden ll• U

UNA MEDIDA DE INFORMACION Y FUNCION DE ENTROPIA

Definici6n. Si un evento Xi ocurre con una probabilidad P(xi) entonces la cantidad de informaci6n asociada con la ocurrenda conocida del evento esta definida por:

I(xi) =108xlp(xi) ]-1 Si, en la definicion, los logaritmos son base 2, las unidades de informaci6n estan en bits (una forma acortada de digitos binarios). Si los logaritmos son tornados con base e, las unidades de informaci6n estcin en «nats» (una forma acortada

MODELO DEL PROCI:SO DE COMUNICACION

de unidades naturales). Y si los logaritmos son tomados con base 10, las unidades de informaci6n estan en «Hartleys» (despues RVL Hartley). 1 hartley

=3.322 bits.

1 nat = 1.443 bits. Una medida de informaci6n obtenida de una fuente de memoria cero: si una fuente de memoria cero selecciona simbolos de un alfabeto xl, x2, ..., xn, y las probabilidades de seleccionar los simbolos son p(xl), p(x2), ..., p(x)n, respectivamente, entonces (de la definicion de arriba) la informacion generada cada vez que se selecciona un simbolo xi es: log2[p(xi»)·1 bits .......................... 2.1 El simbolo Xi sera seleccionado, en promedio, NP(xi) veces en un total de N selecciones, la cantidad promedio de informacion H' obtenida de N selecciones es:

Por 10 tanto, la cantidad promedio de informaci6n por seleccion de simbolo es: Esto es:

H =~~=lP(xi)log2[p(xi)rl

=-~~=lP(xi)logp(xi) bits I sfmbolo .......... 2.2

La cantidad H dada por i.2 es Hamada funci6n de entrop{a. Este termino es usado debido a que la forma de la ecuacion 2.2 es la misma que se deriva de la mecanica estadistica, para la cantidad de entropia termodinamica. Nota: la informaci6n asociada con N selecciones de la serie estadisticamente independiente es, en promedio, igual a N veces la informacion por selecci6n. Una medida de informacion obtenida de una fuente con memoria, cuya memoria se extiende mas aHa de m simbolos, la dependencia sobre las selecciones previas puede ser expresada matematicamente en terminos de una probabilidad condicional. Esto da la probabilidad de que la fuente seleccionara xi, dado que las m selecciones previas fueron xu' x12' ••• , x 1m' donde x1m es el simbolo seleccionado inmediatamente antes de la seleccion de xi, y xn es el sfmbolo seleccionado m sfmbolos antes de la selecci6n de Xi. Esta probabilidad condicional puede ser escrita:

39

Tham DE LA INFORMACION Y ENCRlPI'AMJENTQ DE DATOS

40

Debera ser entendido aquf que ~l' i=l,2, .... , m, puede ser rualquiera de los n sfmbolos fuente posibles; Xl' ~, ... , Xn • Una fuente ruya memoria se extiende mas alIa de m simbolos se dice que esta en el estado (xu' x12' ••• , x1m) ruando los m simbolos previamente seleccionados fueron X.l' x 12' ••• , X.m Claramente, para una seleccion de un alfabeto de n sfmbolos posibles, y con una memoria extendida mas alIa de m sfmbolos, hay un maximo de nil! posibles estados, oscilando desde el estado (Xl' Xl , ... , Xl) hasta el estado (xn' xn' xn). Se puede ver que la eruacion 2,1 para una fuente en el estado (xu' x12' ••• , xtm ), la informacion generada por la seleccion de un sfmbolo Xi es:

Y debido a que la fuente puede seleccionar rualquiera de los simbolos; xl, x2, ... , xn. la cantidad promedio de informacion generada por seleccion ruando la fuente esta en el estado ( xu' x12' ••• , xlm ) es: H[xl(Xil,X,'2, ... ,Xim)] = l:;:'1 p[xi I Xil'···'Xim] X log2 { pxil(Xd,.",Xim)}-

1

bits.............. 2.3

La funcion H[xl(xll' x12' ••• 'Xllll)] es llamada la "entropia condicional" yes una medida de la cantidad promedio de informaci6n generada por una fuente en el estado (X.l' x12' ••• , x.m) ruando se selecciona un sfmbolo fuente. Debido a que la fuente puede estar en rualquiera de los nm estados posibles, esto sigue que, si la probabilidad esta en el estado "i" es' denotado por p(xu' x12' ••• , x1m), entonces las cantidades promedio de informacion generadas por la fuente en la selecci6n de un sfmbolo es: H

=L:1P(xi1"."xim). ~~l p[xi l(xiI (xiI"",Xim»]

xlog2 { p[xi I(XiI' ... 'Xim)]}-1 ... bits..............2.4 Por 10 tanto, usando el teorema de Bayes, este puede ser reescrito por:

H =L:1 L~l p(xi,Xil,···,xlm) xlog2{ p[xil(Xil'... 'Xim)]}-1 ... bits.........2.4

La informacion generada por la fuente

en la seleccion de N simbolos es H"=NH.

MODELO DEL PROCESO DE COMUNICACION

PROPIEDADES E INTERPRETACI6N DE LA FUNCI6N DE ENTROpfA La fund6n de entropia tiene un mlmero de propiedades que son consideradas como una medida razonable de informaci6n. Algunas de estas propiedades son las siguientes:

A) H = -L~=lP(xi)logp(xi) es continuo en P(xi)

B) Silas probabilidades P(xi) son iguales [p(xi) = l/n] entonces H= log n, yes por 10 tanto, una fund6n que se incrementa con el aumento de n. Esta es una propiedad razonable de una medida de informaci6n debido a que, entre mas simbolos disponibles haya para la seleccion, hay una incertidumbre inicial mas grande, y de aqui que haya un mayor cambio que va de un estado de incertidumbre a uno de certidumbre asociado con la selecci6n de un simbolo particular. C) H = 0 si Ysolo si todas las P(xi) son cero excepto una que es la unidad. Esta es, otra vez, una propiedad razonable de una medida de informacion, debido a que si el resultado de una selecci6n es conocido antes, de que la seleccion sea hecha, entonces cuando se haga, no se aprendera algo de eso. D) Para una n dada, esto es, un mlmero dado de simbolos fuente, H es un maximo e igual al log n cuando todas las P(Xi) sean iguales [p(xi) = l/n]. Esta es tambien una propiedad razonable debido a que es la situaci6n que intuitivamente tiene mayor elecd6n 0 incertidumbre asodada con este. Si una fuente de informacion selecciona de un alfabeto solo dos simbolos, se dice que es una fuente binaria, si la probabilidad de la ocurrenda de los simbolos es P y q ( = 1 - P), respectivamente, la funci6n de entropia para una fuente de memoria cero es: Esta funci6n es mostrada en la figura 2.3. La salida de una fuente binaria esta en digitos binarios "binits". La distinci6n entre el binit que es una medida de informacion, y el bit que es un simbolo binario de salida, debera ser cuidadosamente notificado. La figura 2.3 muestra que en promedio, las cantidades de informacion proporcionadas por una fuente binaria son siempre igual 0 menores que 1 bit/binit. La fuente binaria proporciona un bit de informaci6n para cada simbolo seleccionado solo cuando los dos simbolos son equiprobables.

41

ThaRIA DE LA INFORMACION Y ENCRlJ7fAMIENTO DE DATOS

42

Sin considerar si una fuente posee memoria 0 no, la funci6n de entropfa puede ser interpretada como la cantidad promedio de informaci6n proporcionada por la fuente por simbolo seleccionado 0 altemativamente, como la cantidad promedio de informacion necesaria para especificar que sfmbolo ha sido seleccionado. Si se permite que una fuente pueda seleccionar n sfmbolos donde n es un numero largo, entonces seleccionani con alta probabilidad s610 2nJf secuencias de simbolos diferentes, cada uno y teniendo una probabilidad de ocurrencia igual a 1/ 2D/f. Esta es una interpretaci6n fisica directa de H. La cual significa que, te6ricamente, una muy larga secuencia de n simbolos seleccionados por la fuente pueden ser codificados y retransmitidos usando solo nH dfgitos binarios, llevando cada digito un bit de informaci6n.

1.0 0.9 0.8 0.7 0.6 0.5 p

0.4 0.3 0.2

--

H

0;1.0 0 0.1;0.9 0.469 0.2;0.8 0.722 0.3;0.7 0.881 - - - - - 0.4;0.6 0.971 0.5 1.000

n1 ---------- --------

o

0.1 0.2 0.3 0.4 O.

0.6 0.7 0.8 0.9 1.0

P Figura 2.3 La funclan de entrapfai

H=Plo~P·(1-P)log2(1-p).

MODELO DEL PROCESO DE COMUNICACION

CODIFICACION BINARIA DE UNA FUENTE DE INFORMACION

Cuando un simbolo es seleccionado por una fuente de informaci6n, se pone en acci6n una cantidad enorme de informaci6n igual a H. Ello implica la posibilidad que se use como un codificador fuente a binaria en cada modo para ttansmitir el simbolo seleccionado. Usando unicamente digitos binarios H (H es ellimite inferior). Ellimite inferior puede, en general, ser obtenido por la codificaci6n en bloques mas grande de una fuente de simbolos. Despues, en 13 practica algunos otros dfgitos son mas usados que los te6ricamente necesarios. En esta secci6n son discutidos dos metodos para la codificaci6n de salida de una fuente, asi como el uso y aplicad6n cuando usamos un numero reducido de digitos binarios. La importancia practica de la codificaci6n de este tipo es 10 que lim ita, desde la redundancia general (innecesaria en los dfgitos binarios). La interferenda del ruido es corregida en los c6digos de lectura, e1 error de deteccion y error de correcci6n, con el uso de redundancia. Sin embargo, existen circunstancias particulares cuando los errores ocasionales no son demasiados serios 0, cuando la interferenda del ruido no es muy considerable, esta puede ser aprovechada en forma de digitos binarios y es posible espedficar y transmitir un sfmbolo selecdonado. En el procedimiento de codificaci6n Shannon-Fano, los sfmbolos son dispuestos en orden de probabilidad decredente y luego divididos en dos grupos con probabilidad casi igual como sea posible. El dfgito binario cero es asignado a cada simbolo en el grupo inferior. El proceso se repite dividiendo cada uno de los grupos en dos subgrupos de probabilidad casi igual. El cero binario es asignado a cada simbo10 en el subgrupo superior de cada grupo y un uno binario para cada simbolo en el subgrupo inferior de cada grupo. El proceso se continua hasta que cada subgrupo contenga solo un simbolo. Este proceso de codificad6n (tabla 2.1) tiene importantes propiedades de comienzo econ6mico en el uso de digitos binarios, permitiendo la codificad6n sin ambigiiedad en un sfmbolo-por-sfmbolo basico. La tabla 2.2 es un metodo alternativo de construcd6n de c6digo de palabras. C6digo de Huffman. Aunque generalmente el metodo de codificad6n de ShannonFano es satisfactorio, no garantiza que el numero promedio de dfgitos binarios usados para representar un sfmbolo fuente sera tan pequeno como el numero promedio usado cuando es codificado por alg11n otto esquema. Un procedimiento de desarrollo codificado por Huffman (tabla 2.3) es como sigue: Etapa 1. El sfmbolo es colocado en probabilidad de orden descendente (primera colocaci6n). Etapa 2. Los dos sfmbolos de menos probabilidad son combinados para formar un sfmbolo simple tal, que su probabilidad es la suma de dos simbolos constituyentes.

43

TEORfA DE LA INFORMACION Y ENCRlf7I'AMIENTO DE DATOS

44 Simbolo fuente

Probabilidad P(Xi)

Palabras c6digo representando cada simbolo

Xl

0.4

0

X2

0.2

1

0

X3

0.2

1

1

0

X4

0.1

1

1

1

0

X5

0.07

1

1

1

1

0

Palabra C6digo 5

X6

0.03

1

1

1

1

1

Palabra C6digo 6

Palabra C6digo 1 Palabra C6digo 2 Palabra C6digo 3 Palabra C6digo 4

Promedio de longitud c6digo-palabra= (lxO.4)=(2x0.2)=(3xO.2)=(4xO.l)=(5xO.07)=(5xO.03)= 2.3 digitos binarios / simbolo Tabla 2.1 Ejemplo de codificaci6n Shannon-Pano.

Etapa 3. Un nuevo conjunto de simbolos es formado despues del conjunto original, con los simbolos combinados reemplazando estos dos simbolos constituyentes en la lista. EI nuevo conjunto de simbolos es el promedio en orden descendente (segunda colocaci6n). Etapa 4. Se repite la etapa 2. Etapa 5. Se repite la etapa 3. Etapa 6. Las etapas 1 y 5 son repetidas hasta que un simbolo simple de unidad probable se obtiene. Etapa 7. Cuando, alguna vez, dos simbolos son combinados para formar un nuevo simbolo, un cero binario es asignado a un simbolo bajo en la combinaci6n. EI c6digo de palabra completo por una fuente de simbolo particular es la secuencia de digitos binarios avanzando despues del simbolo unidad-probable-final regresa a traves de varios simbolos junto al simbolo fuente en cuesti6n. Nota: EI numero promedio de digitos binarios necesarios para representar un simbolo fuente, puede ser reducido hacia el limite de entropfa, H, si una de las dos tecnicas Shannon-Fanon 0 Huffman es usada para codificar bloques de simbolos fuente, mas bien al contrario como fuente de simbolos individuales.

MODELO DtL PROCESO DE COMUNICACI6N

45

Simbolo fuente

Probabilidad P(Xi)

Palabras c6digo representando cada sfmbolo

Xl

0.4

0

0

Palabra C6digo 1

X2

0.2

0

1

Palabra C6digo 2

X3

0.2

1

0

Palabra C6digo 3

X4

0.1

1

1

0

XS

0.07

1

1

1

0

Palabra C6digo 5

X6

0.03

1

1

1

1

Palabra C6digo 6

Palabra C6digo 4

Promedio de longitud c6digo-palabra= (2xO.4}+(2xO.2}+(2x0.2}=(3xO.1}+(4xO.07}=(4xO.03)= 2.3 digitos binarios I simbolo La entropia de esta fuente es cero-memoria H =0.4Iog0.4+0.2Iog0.2+0.2Iog0.2+0.llog0.1 +0.07Iog0.07 +0.03Iog0.03= 2.21 bits I simbolo Tabla 2.2 Metodo alternativo de codificaci6n Shannon-Fano.

ENTROPIA REIATIVA Y REDUNDANCIA

La raz6n de la entropia como una fuente al maximo valor de entropia, que se puede tomar por el mismo conjunto de simbolos de fuente, es Hamada entropia relativa. La redundancia R es igual a 1 menos la entropia relativa R= 1- HI Hmax Cuando H es la entropia y Hmax el maximo valor de la entropia. CANAL DE COMUNlCACI6N

Los canales de comunicacion son clasificados por la naturaleza de las entradas y salidas, y la naturaleza de la probabilidad condicional relativas a sus entradas y salidas.

ThoRfA DE LA INFORMACION Y ENCRIPrAMIENTO DE DATOS

46 1st

0.60 0.40 0.30 0.20 0.04 0.04 0.02

0.40 0.30 0.20 0.06 0.04

0.40 0.30 0.20 0.10

0.40 0.30 0.30

1.0

0.40

C6digo palabra 1 00 010 0111 01100 01101

Promedio longitud de c6digo palabra=2.06 dfgitos binarios/simbolo La entropfa de la fuente=1.999 bits / sfmbolo Tabla 2.3 Ejemplo de codificad6n Huffman.

Si la entrada y salida de un canal son discretas, se dice que el canal es discreto. Si las entradas y las salidas son continuas, se dice que el canal es continuo. Si la entrada es discreta y la salida es continua, se dice que el canal es discreto a continuo. EI canal puede ser continuo a discreto si la entrada es continua y la salida discreta. Si las probabilidades condicionales relativas a los sfmbolos de entrada y los sfmbolos de salida siguen alterando los sfmbolos que son transmitidos sucesivamente, se dice que el canal es constante 0 de menos memoria. Si esas probabilidades dependen en que ocurran los eventos de entrada y de salida, se dice que el canal posee memoria.

REPRESENTACI6N DE UN CANAL Despues de que un sfmbolo 0 un mensaje ha sido seleccionado por una fuente de informacion, y la probabilidad codificada (por la tecnica de Huffman 0 como la tecnica de correccion-error), esto es, la alimentacion del canal de comunicacion. En el final del receptor de un mensaje se toma una decision de un sfmbolo 0 mensaje

MODELD DEL PROCESO DE COMUNICACION

47

que fue transmitido; 10 cual constituye la salida del canal porque de varias formas de interferencia pueden ser tomadas decisiones incorrectas tiempo a tiempo y la salida de un canal puede diferir de su entrada. La decisi6n hecha por el detector al tomar dedsiones, hace que parte del canal pueda ser reladonado a a los sfmbolos de entrada por un arreglo de probabilidad condidonal. Si el arreglo de simbolos de n entradas es denotado, como xl, x2, ... , m, yel arreglo de k salidas como yI, y2, ...yn, entonces, el canal incluye la decisi6n al transmitir el proceso-cread6n en el receptor final, que puede ser representado por el diagrama presentado en la figura 2.4, 0 por un canal como se muestra debajo de esta. YJ .............. Y2 ........................ Y•..................... Yk x,~--~

YI

SALlDAS

X .. ~.,

x.

' y,

SALlDAS

P(Yi XJ)_P(yJ Xl) ..... P(yl Xl) ........ P(y'; Xl) P(Yi x2)_P(yJ X2) ..... P(yl X2) ........ P(y'; X)

Xl X

2

ENfRADAS

Figura 2.4. Diagrama de un canal discreto.

48

ThoRfA DE LA INrORMACION Y ENCRIPrAMIENTO DE DATOS

1-p

E

~-----~----"Y2

.~~--------~------~~

1-p

1-p

El diagrama y la matriz, las representadones del canal P(yi/xi) son llamadas probabilidades de adelanto, P(yi/xi) que se refieren ala probabilidad de una decision, la cual puede ser tomada en los resultados de un sfmbolo de salida yi, ruando en realidad el sfmbolo transmitido fue xj. Claramente, desde que un simbolo de entrada particular en decisi6n puede ser alcanzada u observado en un sfmbolo de salida: tp(Y./X.) ' J =1

.................... 2 . 5

t=l

La probabilidad de obtener un sfmbolo yi, como salida de un canal es: P(Yd

= t~(Xj)·P(yi /Xj) j=l

De la regia de Bayes mostramos la probabilidad de que un sfmbolo xj fue transmitido, dado que la salida del canal es yi:

P(x j /y,) =

P(yi / x j) • P(x J ) P(Yi) .......................2.6

MODEW DEL PROCESO DE COMUNlCAC16N

Y

49

por 10 tanto: P(y·1 x ) .). P(x ) .) I

P x 1 (

j

J

YiLP(Xj)ep(y;IXj) ................. 2.7

P(xj/yi) es Hamada probabilidad para atnis 0 de reversa.

UNA MEDIDA DE IA INFORMACI6N TRANSMmDA SOBRE UN CANAL

Antes de la salida de un canal, la probabilidad de un simbolo es obtenida como xj, en el canal de entrada es p(xn, la entropia asociada con los simbolos de entrada es por 10 tanto:

H(X) =

tP(x j )1082[p(Xj)r1

bits I sfmbolos ................ 2.8

1=1

Esto es una propiedad de la entropia que puede ser interpretada como el promedio de bits de informaci6n portada por un sfmbolo de entrada, 0 como el numero promedio de bits necesarios para especificar un simbolo de entrada. Despues de recibir una salida yi, la probabilidad asociada con el simbolo de entrada es: P(xll yl),P(x21 Y2), ..........,P(xnl yr) Y la entropia asociada can el conjunto de entradas: x I, x2 ... , xn es: n

H(X J IYI)= LP(Xj IYi)log2[P(x j Iy.)]

-1

bits

j=l

Tomando el promedio de todas las posibles salidas:

H(X,y) k

=LP(Yi)' H(X Iy.) t=1

=LP(Yi)' tP(xjIYi)·log2[p(xjIYi)r

1

j=1

=

t tp(y.). p(Xj IYi)·10g2[P(x IYI)]-1 j

t=lj=1

k

n

-1

=L LP(y.,x j )log2[P(x j IYi)] ....bits Isfmbolo.............2.9 t=lj=1

Tl:ORfA DE LA INFORMACION Y ENCRlPrAMIEHrO DE DATOS

50

H(X/Y) es Hamada entropia posterior 0 equivocada y puede ser interpretada como: el numero promedio de bits de informaci6n de la portadora por un sfmbolo, despues de que el sfmbolo ha sido recibido en el canal de salida, 0 como el mlmero promedio de los bits necesarios para especificar un simbolo de entrada, despues de que el simbolo ha side recibido en la salida del canal. H(X/Y) es una medida de la incertidumbre asociada con la entrada despues de que la salida ha sido recibida. Esta incertidumbre es causada por el ruido del canal. La diferencia entre una priori y una entropfa posterior es, 1= H(X) - H(X/Y). Uamada algunas veces informaci6n mutua y con mas frecuencia, el indice de informaci6n. La interpretad6n de H(X) y H(x/y) es una medida de la cantidad de informaci6n ganada por el receptor como resultado de la observad6n de la salida en el canal.

1= H(X). H(X IY) bits I simbolo.................... 2.10 PROPIEDADES DE IA INFORMACI6N MUTUA Y LA ENTROpfA ASOCIADA

La informaci6n mutua 1tiene un numero importante de propiedades, y la entropfa asociada para satisfacer un numero importante de relaciones. Algunas propiedades re1acionadas son: A) El valor de 1 es equivalente a lomas grande que cero. Esto significa que el monto promedio de informaci6n recibida a traves de un canal es negativo. S) La unica condid6n bajo la cual 1=0 es cuando el canal de entrada y el canal de salida son estiticamente independientes, por ejemplo, cuando:

p(x j' Yi) = p(x j). P(Yi); p.(x j' y,) = p(x J) Esta es una propiedad razonable, puesto que hay independenda estatica entre el canal de entrada y el canal de salida, significa que nada se aprende del canal de entrada, sin conocimiento en el canal de salida. C) Para un canal sin ruido, una vez que un simbolo de entrada se ha observado, y no hay incertidumbre como en el sfmbolo de entrada que fue transmitidoi se tiene por 10 tanto H= (X/Y) = 0 Y 1 = H(X), la entropfa del canal de entrada. Las siguientes relaciones son mostradas para su veracidad:

A)

1= H(x). H(X IY)= H(Y). Her IX) donde

MODELO DEL PROCESO DE COMUNICACION

n

H(Y) = ~P(YJ)log[p(Yi)r

51

1

j=l

y n k

H(Y I X) = ~ ~p(Yi/Xj)log2 [P(Yi I Xj)]

-1

J=lt=l

B)

H(X, Y) =H(X) - H(Y I X) =H(Y) - H(X I Y) donde

C)

H(x, Y) :S H(x) - H(Y) H(x) ~ H(x Iy); H(Y) ~= H(X I X) La igualdad en cada caso ocurre si y solo si «x» y «Y» son estaticamente independientes. CAPACIDAD DEL CANAL La capaddad del canal esta definida como el maximo valor al cualla informad6n puede ser transmitida por un canal. Como puede verse de 2.8, 2.9 Y 2.10; la informaci6n mutua 0 informaci6n valuada depende no solamente en el arreglo de probabilidades condicionales relacionadas al canal de entrada y salida, sino tambien en las probabilidades con las cuales los diversos canales de sfmbolos de entrada son escogidos. Para un apropiado proceso de codificaci6n, los sfmbolos de salida de la fuente pueden ser usados como formas en que los P(x)'s gobiemen el canal de sfmbolos de entrada, maximizando el valor de transmisi6n para un determinado arreglo de probabilidades condicionadas. EI proceso de codificaci6n es, algunas veces, referido como un arreglo estatico de la fuente y el canal. Aunque el calculo de la capaddad del canal esta, en general, un poco comprometido algebraicamente, presenta dificultades no fundamentales, yen dertos casos el ailculo llega a ser relativamente simple.

C = mdx(Q =mdx{ H(X) . H(X I YJ}....................2.11

52

TEORfA DE LA INFORMACION Y ENCRJPI'AMIENTO DE DATOS

ALGUNOS CANALES SIMPLES

Canal simetricamente binario. El canal mostrado en la figura 2.S es conoddo como canal simetricamente binario, los canales de entrada y salida son binarios y las probabilidades son simetricas. C =1 +plog2 P+(1.p)log2(1.p) bits / simbolos ................... 2.12 Canal de borrado. EI canal mostrado en la figura 2.6 es conoddo como canal de borrado. Puede ser interpretado como el modele de un canal el cual toma la dedsi6n al final del receptor del canal, e imp rime un borrado, si la raz6n de una probabilidad posterior asodada con el canal de sfmbolos de entrada no es sufi dentemente grande. La capaddad de canal es:

c = ~ -qXl-log2~ -q)} + ~ -p -q)log2~ -p -q)+p log2P

bits / simbolo

Para incrementar el valor de borrado, la probabilidad de una dedsi6n incorrecta puede ser redudda a un valor despredable (figura 2.7). Este canal es conocido como canal de borrado binario y tiene una capaddad de: C =l·q bits / simbolo ...................... 2.13 Canal de desvanecimiento de Rayleigh. Pierce ha considerado un canal en el cual la informadon es transmitida por Haves de cambio de frecuenda (FKS) en la presenda de atenuad6n de Rayleigh y ruido Gaussiano. En el sistema considerado por Pierce hay dos receptores, uno para cada simbolo transmitido y es usado sobre la detecdon. La seiial transmitida para que sea asodada con el receptor, dando la salida mas grande. La atenuad6n de baudios sucesiva es supuesta, para ser independiente estadisticamente, como es el ruido aditivo en los receptores. Se supone tambien que ocurren cambios de fase y amplitud durante cada baudio. Pierce ha mostrado que un sistema posee estas propiedades y satisface las suposidones, y puede ser representado como un canal simetrico binario con cruce probable de:

P ={2 + {SOT /No)}-l Donde SO es el promedio de potencia del transmisor, T la durad6n de baudio y No el ruido portencia/hertz en cada receptor. EI canal es mostrado en la figura 2.8 y la fund6n:

P ={2+{SOT /No)}-l

MOD[LQ DEL PROCESO DE COMUNICACION

53

Esta dada en la figura 2.9, para varios valores de relaci6n senal a ruido. La capacidad del canal, para varios valores de SO, T YNo pueden ser derivados de la ecuaci6n 2.12. 1-p ~--------~------~Y1

1-p

Figura 2.5 Canal simetrico binario.

Figura 2.6 Canal de borrado.

1-p

1-a

X1~--------+--------4

1-a Figura 2.7 Canal de borrado binario.

1-p Figura 2.8 Canal con desvanecimiento de Rayleigh con ruido Gaussiano adidonal.

Canal binarlo con ruido Gaussiano. Si la informaci6n es transmitida sobre un canal binario como una serle de pulsos positiv~s y negativos con la amplitud V/2 y el canal es perturbado por un ruido aditivo Gaussiano con promedio de N (=0'2) la probabilidad de potencia de paso es:

ert = funci6n de error erfc = funcl6n de error complementario

ThoRIA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

54

4

~

2

~

I'

0.10

I'\. ~

...

g

5

"'

CD

-8

4

~

2

:c

~

1\

-8 0.10

at

~

3 I5~ 4 I2 I-

o

iOtII 0

fDECIBELES) 0 5 10 15 20 :l)

P 03JJ3

01938 00833 00227

'I\. ~

1\

00098 0(XX)99

1\

~

1\ 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 SotiNo en Decibeles

Figura 2.9 Canal can probabilidad de error par sobreposici6n en un desvanecimiento de Rayleigh.

Para un punto transmitido en el rango de Nyquist y duraci6n (1/2W) segundos, {V/2)2 es igual a P, la potencia promedio. La probabilidad de cruce puede ser escrita como: P = ~ eifc{{P/2N)1/2}

Y la capacidad del canal como:

c/w =2{1 +p log2p + ~ -p )log2~ -p )}bits Iseclhertz. ....................2.l4 Donde

p =~ er/c{ (P/2N)1/2}

Y W es el canal de banda base. En la figura 2.10, funci6n de PIN.

e/W es trazado como una

MODELO DEL PROCESO DE COMUNlCACI6N

10

,I

PIN dB

'ea ~al C/\ ~=I )g ( +PI )

-20 -15 -10 -5 0 5 10 15

9 )

V /

5r6 :; 5 ~u 4 III

/

J j' Car al8 naro

§"3

2-2

~// V

o

20

~~

·20 ·15 ·10·5

0

5

10

15 20 25 30

35 40

25 30

35

55

em

cm

canal binario 0.0092 0.0288 0.0897 0.271 0.738 1.537 1.982 1.999 2.000 2.OQO 2.000 2.000

Canal continuo 0.01 0.04 0.13 0.40 1.00 2.06 3.46 5.03 666 3.31 9.97 11.63

(PIN) en dB

Figura 2.10 Capacidad del canal en bits/seg/Hz con ruido Gaussiano.

Nota: Si la informaci6n fue transmitida como una serle de pulsos ON/OFF, de amplitud V y cero respectivamente, la probabilidad de cruce podrla tener una ganancia de:

P =1/2erfc(V /2..J2N1/2) En este caso la potencia promedio es V2/2, y por 10 tanto, tres decibeles mas son requeridos en el sistema ON/OFF para alcanzar la misma capacidad del canal.

Comportamiento de la capaddad del canal Son varlas las formas de perturbaci6n que causan errores en la transmisi6n de informaci6n a traves de un canal de comunicaci6n. Los efectos de las perturbaciones incluyen fen6menos de distorsion, asf como de amplitud, distorsi6n 0 lineal, desvanecimiento debido a la transmisi6n de multicanales y ruido. EI ruido puede ser impulsiv~ 0 Gaussiano, 0 podrla tener caracterlsticas estadfsticas completamente diferentes. Existen tecnicas, y se desarrollan otras, para la reducci6n de los efectos indeseables de varlas perturbadones. Estas tecnicas incluyen: el uso de ecualizad6n, de frecuenda y la diversidad del espado, mejorar los metodos de modulaci6n, el disefio de sefiales, y mejorar los procesos de decisi6n, estas modificaciones del canal llevan una reducd6n en las probabilidades de error y un aaecentamiento consecuente en la capaddad del canal.

56

ThORIA DE LA. INFORMACION Y ENCRIPTAMIENTO DE DATOS

TEOREMA FUNDAMENTAL DE IA TEORfA DE LA INFORMACI6N La informaci6n mutua, 1= H (X) H(X/y), es una medida de la suma promedio de la informaci6n transmitida a traves de un canal. Sin embargo, esto no significa que la salida del canal es libre de error 0 que un receptor podrla estar segura de la entrada del canal conociendo la salida del mismo. Conociendo la salida del canal simplemente quiere decir que, la entrada del canal podrfa estar codificada usando H (X) H(x/y) menos dfgitos binarios. La medida I, y particularmente su maximo valor C (capacidad del canal) ha sido definida, sin embargo, en terminos de transmisi6n libre de error en un teorema atribuido a Shannon. EI teorema, que es conocido como: el segundo teorema de Shannon, el teorema del canal de ruido codificado, 0 teorema fundamental que se puede enunciar como: uSi una fuente de informaci6n tiene una entropfa H y un canal ruidoso de capacidad C, entonces teniendo H> C, la salida de la fuente se puede transmitir a traves del canal y recuperarse con una probabilidad pequeiia de error". Nota: En el teorema H y C se miden en bits/seg=(bits/sfmbolo) por (sfmbolo/seg). AI alcanzar la transmisi6n libre de error, es necesario que los mensajes de la fuente sean codificados usando sucesiones largas de n sfmbolos del canal, el teorema de Shannon indica que: con un canal de capacidad C, es posible transmitir con una arbitrariamente pequeiia probabilidad de error cualquiera de M=2D (c-A) mensajes equiprobables de la fuente, usando una sucesi6n de n sfmbolos de canal. La probabilidad de error se puede hacer arbitrariamente pequeiia, nula 0 tan pequeiia como pequeiio sea, haciendo n 10 suficientemente grande. La raz6n de que la probabilidad de error baje con n creciente es de importancia considerable, siendo mas largo el retraso introducido por codificaci6n y la mas compleja de las operaciones de codificaci6n y decodificaci6n. Trabajo que muestra que por varios canales la probabilidad de error decrece exponencialmente (0 casi exponencialmente) con incrementos de n, Fano, ha mostrado que la probabilidad de error de un canal con memoria finita tiene una forma general. Donde k es una funci6n variante de n y la transmisi6n proporcional R', el coeficiente a, que es positivo para R' < C, es independiente de n pero e una funci6n de R' y las caracterfsticas del canal. Tambien Shannon ha derivado en forma supero y bajos limites para la probabilidad de error en canales con ruido aditivo Gaussiano que son usados en la codificaci6n y decodificaci6n 6ptima.

UNIDAD III

SISTEMAS CONTINUOS DE INFORMACI6N

Una fuente de informacion discreta genera informacion a una proporcion finita,mientras que la funcion de entropia es una medida de informacion generada. En el caso de una fuente continua de informaci6n la situacion es mas complicada. Las complicaciones se incrementan porque una cantidad continuamente inconstante puede asumir cualquier numero infinito de digitos binarios para su especificacion exacta. Una consecuencia inmediata de 10 anterior, es que, para transmitir la salida de una fuente continua de informacion y recobrarla con exactitud, se requiere de un canal de capacidad infinita. En la practica, un canal continuo es perturbado por ruido y por eso tiene una capacidad finita (como se mostrara mas adelante), no es posible transmitir la salida de una fuente continua a traves de un canal ruidoso y recobrarla exactamente. Las dificultades fundamentales asociadas con fuentes continuas se pueden evitar desde la transmision y recuperar fielmente la informacion (donde esta representa la salida de la fuente exactamente como se desea). Shannon ha mostrado que si se especifica la salida de una fuente continua dentro de aertos limites de tolerancia, es posible, en muchos casos, asignarle un valor definido, en razon de que la informacion es generada por la fuente. Se puede transmitir esta informacion por un canal y la probabilidad de error en la recuperacian hacerlo pequeno, con tal de que la razon de generacion sea menor que la capacidad del canal. TEOREMA DEL MUESTREO

EI teorema del muestreo es una ayuda importante en el estudio y analisis de sistemas de la comunicacion, involucra el uso de funciones continuas en tiempo de ancho de banda limitada. El teorema declara que: si una funclan de tiempo f (t) no contiene frecuencias mas altas que W hertz, esta determinada completamente por los valores dados de la funcion a una serie de 'puntos espaciados 1/2 W segundos. Si f (t) no contiene frecuencias mas grandes que W hertz, entonces se puede n-oo expresar como: f(t) = LXn[sin n(2Wt- n/ n(2Wt- n))] n=-oo

59

ThoRIA DE 1A INFORMACION Y ENCRlPI'AMIENTO DE DATOS

60

Donde: Xn = f{n/2W)

Es importante entender que el teorema no hace ninguna mendon al origen del tiempo de las muestras. El origen del tiempo es insignificante; solo el espado entre lineas de las muestras es 10 que interesa. Si la fundan f (t) es substandalmente cero al exterior del intervalo de tiempo Ty no contiene frecuendas mas altas que W hertz, puede ser espedficado por 21W ordenadas. ENTROpfA DE UNA DISTRIBUCI6N CONTINUA

La entropia de una variable continua x con fund6n de densidad de probabilidad p{x) se define como:

H{x) = - Tp(x)log2P(x)dx ............................. 3.1 Con una fund6n de densidad n-dimensional p (Xl, x2, ... , xn) la entropia se define como: H(x) = Tp(Xl ,x 2, .. ·,x n ) X log2P(xl ,X2... ,xn)a.xl ,... ,dx n ..................3.2

T.

En el caso de dos variables "x· y "y•• , la juntura (uni6n) y (condidonal) definen estas entropias como:

H(x,y) =-TTp(x,y)log2P(x,y)dxdy

H(x/y) = - TTp(x, y)log2[P(x, y)/p(y)]dxdy

H(y/x) = - TTp(x, y)10g2[P(x, y)/p(x)]dxdy

Como en el caso discreto:

H(x, y) S H(x) + H(y) H(x /y) S H(x) H(x/y)S H(y)

SISTEMAS CONTINUOS DE INFORMACION

Con igualdad si y solo si, "XU y nyu son independientes. Las dificultades se encuentran con respecto a: H(x) = Tp(x) logp(x)dx

Como el caso del limite de:

lim [- :£p(xi)m logp(xi~] n-+O

Se discute en Goldman la fund6n de entropia: en el caso continuo esta dependiente en el sistema de la coordenada (ver Shannon), y cualquier cambio en las coordenadas dara lugar a un cambio en la fund6n de entropia. La fund6n de entropia es importante en el caso continuo como en el discreto; los conceptos de informaci6n mutua y capacidad del cauce depende de la diferencia de dos entropias, y la diferenda absoluta e independiente de los sistemas de la coordenada. DISTRIBUCI6N MAxIMA DE ENTROPIA

Si x es una variable continua con funci6n de densidad de probabilidad p(x) yvarianza a, la forma de p(x) para maxima entropia es de forma Gaussiana, esto es, de forma: H(x) = - Tp(x) log2P(x)dx Es un maximo si

p(x) ={(2n)/20J -1 exp-2/1a2

La entropfa de una distribuci6n Gaussiana unidimensional con varianza a2 es: H(x) = log2(21Te)1 /2 . (J' ••••••••••••••••••••••••••••••••••••••• 3.3 ENTROPIA DE UN CONJUNTO DE FUNCIONES

Del teorema del muestreo, es sabido que se puede representar totalmente una funci6n continua de tiempo por muestras tomadas a intervalos separados de 1/2 W segundos. Si se saca una muestra a una forma de onda an puntos, la distribuci6n de la probabilidad por las amplitudes de muestras sucesivas es de la forma general p(xl, x2, ... , xn) y la entropfa del juego de funciones de tiempo posibles es dada por la siguiente ecuaci6n: 1

T..

HI (x) = -limnTp(X1/X21 ...'Xn) n-+oo __

61

62

ThORlA DE LA INFORMACION Y ENCRIPfAMIENTO DE DATOS

La entropfa por segundo es: HI (x) = -lim T- 1 n ....ao

T. Tp(XI ,x

2 ,. •• ,X 21ff)

y, desde n = 2Wf, esto dice que H(X) = 2WHl(X) Si el conjunto de posibles formas de onda tiene las caracterfsticas de ruido blanco Gaussiano de potencia promedio N (=s2), entonces las muestras son independientes, y

(HI IX) =log2 (21r£N) I/2.bits Imuestra La entropfa por segundo es: H(x) =2W log22(2n:eN)l /2 = W log 22n:eNl /2.bits / seg

POTENCIA DE ENTROPIA Un concepto a destacar en sistemas de informaci6n continua es la potencia de entropfa. La potencia de entropfa de un conjunto fijo de sefiales dado, es definida al ser la potencia de ruido blanco limitado al mismo ancho de banda, como las sefiales originales y teniendo la misma entropfa como sefiales. Si un grupo de sefiales tiene una entropfa HI, la potencia de ruido blanco tiene la misma entropfa y se da por: Nl =(2n:e)-1 2H1

....................... .3.4

EI potencial N 1 es la potencia de entropfa de las sefiales. Se debe notar que el ruido blanco tiene la entropfa maxima para una potencia dada, la potencia de entropia de cualquier ruido es menor 0 igual que su potencia real. CAPACIDAD DE UN CANAL CONTINUO Si la entrada a un canal continuo est~ en la forma de funciones de tiempo continuas, la salida ser~ una versi6n perturbada de estas senales, y las senales de entrada y salida siendo limitadas a un ancho de banda W, se pueden representar durante un intervalo de tiempo T por n =21W muestras. Las funciones de la densidad de proba-

SISTEMAS CON11NUOS DE INFORMACION

bilidad para la entrada, salida y para la relad6n condidonal entre entrada y salida, son: 1'(Xl ,x2, ...,xn) =P(X)

1'(Yl' f2"'" fn) = P(Y)

y

respectivamente. La raz6n de transmisi6n I de informad6n a traves de un canal continuo se

define en derto modo analogo por el caso discreto. I = H(X) - H(X /Y) = H(Y) - H(Y / X)

=-TP(X) 108.2 P(X)dx - ITP(X, Y) X log 2 [ P(X , Y) / P(Y) ]dXdY •bits /n .... muestras La capaddad del canal es definida como el mmmo valor de I con respecto a

todos los posibles conjuntos de seiiales de entrada. 1

C = lim max T- [H(X) - H(X /Y)its / segundos ] •.....•........•................... 3.5 n-+O

Capaddad de un canal, en que el ruido es aditivo e independiente de la entrada. La raz6n a que se trasmite, a traves del canal de informad6n es:

I

=H(X) - H{X /Y) =H(Y) - H(Y / X)

Donde la salida Y es re1adonada a la entrada X por Y= X+n, n es el ruido, y dado que X y n son estadfsticamente independientes, H (y/X) pueden ser mostradas al ser igualadas a H (n), la entropfa de ruido. La raz6n de transmisi6n de informad6n por 10 anterior es:

1= H(Y) - H{n) Y se encuentra la capaddad por llewr hasta el mmmo H(Y) con respecto ala entrada: I = H(Y) - H(n) .........•....•........3.6

63

64

Tho RIA DE LA INFORMACION Y ENCRlPI'AMIENTO

DE DATOS

Capacidad de un canal continuo perturbado por ruido blanco aditivo Gaussiano. De la capacidad del canal dada por:

c= ~~[H(Y)] - H(n) Si el ruido es ruido blanco Gaussiano, la entr0pla del mismo se da por:

H(n) = W log2 211BM /2 bits / seg. Donde W es el ancho de banda del canal, y N es la potencia promedio de ruido. Si la potencia promedio transmitida se limita a P, la potencia promedio recibida es P+N, la distribuci6n P(X) tiene entropla maxima para una potencia dada P+N (=02), es Gaussiana y tiene entropia:

H(Y) = W log221rS(p + N) bits / seg. La capacidad del canal es por 10 tanto:

c =W log22ne(P +N) - W log22neN = W log2(1 + P / N).bits / 5eg•••.•.............••.•... 3. 7

Esto significa que, por usar sefiales codificadas suficientemente largas, tienen la propiedad de ruido blanco Gaussiano, esto se debe, posiblemente, al transmitir informaci6n a traves del canal de una raz6n menor 0 igual a C, con la probabilidad arbitrariamente pequefia de error. La funci6n C/ W= lo~ (l+P/N) se traza para varios valores de PIN.

CAPACIDAD DE UN CANAL PER'IURBADO POR UN TIPO DE RUIDO ARBlTRARIO Cuando se trata de perturbaciones arbitrarias de ruido, el problema asociado con la determinaci6n de capacidad del canal no se puede resolver explfcitamente. De cualquier modo, los lfmites superior e inferior se puede determinar por C en terminos del ancho de banda del canal, la potencia promedio transmitida, la potencia media de ruido, y la potencia de entropia del ruido. La capacidad C, en bits/segundo, se limita p~r las desigualdades:

W log2[(P + NI)/ Nl] SC SW 10g[(P + N)N1 ]. ....................3.8

SIS'I'EMAS CONTINUOS DE INFORMACION

Donde W= ancho de banda, P= potencia promedio transmitida, N= potencia media de ruido, y Nl= potencia de entropia de ruido. C6DIGOS DE CORRECCI6N DE ERROR Como se mencion6 anteriormente, el teorema fundamental de la Teona de la Informaci6n supone que es posible transmitir cualquiera de M = 2 0R de n digitos binarios y que si Res menor que la capacid ad del canal C, entonces la probabilidad de error puede ser disminuida arbitrariamente con la condici6n de que n sea suficientemente grande. Lo cual significa que de los n digitos binarios transmitidos, el equivalente de s610 nRson dfgitos llevando un mensaje, el residuo de n(l-R) son redundantes en el sentido de que no llevan informaci6n en el mensaje. La raz6n nRjn es Hamada raz6n de transmisi6n de informaci6n 0 simplemente raz6n y es medida en bits/digitos binarios. En esta prueba del teorema fundamental, Shannon evita la parte diffcil y hasta ahora, problema sin resolver, de especificar un c6digo que satisfaga las condiciones del teorema. 131 consider6 la probabilidad de error promedio en todos los c6digos elegidos al azar de longitud n y ha demostrado que este promedio tiende a cero cuando n tiende a infinito. Este es el problema de producir sistematicamente un c6digo que satisfaga las condiciones del teorema fundamental, antes de seleccionar uno al azar y esperando que este sea uno bueno, que ha sido el tema de considerable atenci6n desde la publicaci6n inicial de la teona de Shannon. Basicamente, el concepto de codificaci6n de informaci6n para transmisi6n consiste de dos operaciones. La primera es una operaci6n de codificaci6n en la cual nR dfgitos de informaci6n son convertidos y representados por un gran bloque de n digitos. Los n dfgitos son transmitidos sobre el canal, yen el receptor la segunda operaci6n (una operaci6n de decodificaci6n) es llevada a cabo. En la decodificaci6n los n dfgitos recibidos son usados en el receptor y una decisi6n es hecha para nR dfgitos de informaci6n originales que fueron transmitidos desde la fuente. Si el concepto de bloque codificado es considerado nuevo, un problema fundamental encontrado en intentos practicos para transmitir de acuerdo con el teorema de Shannon queda en claro. Para realizar la operaci6n de codificad6n, las facilidades deben de estar disponibles para que la secuencia de nR bits de informaci6n puedan ser convertidos a una secuencia de n binits, con una correspondencia de uno a uno entre las dos secuencias. Esto podna parecer, a primera vista, que el codificador podna tener que almacenar cada uno de 2 0R secuencias posibles de n binits y seleccionar la secuencia apropiada en la recepci6n de n R dfgitos de informaci6n en 10 que se refiere a decodificaci6n, y una cantidad similar de almacenamiento podna parecer necesaria.

65

66

ThoRIA DE LA INFORMACION Y ENCRlJYl'AMIENTO DE DATOS

Durante la transmisi6n, ocurren errores, as! que recibir secuencias de n binits pueden ser cualquiera de un conjunto de 2 n, y el receptor tiene la tarea de comparar cada una de las 2nR posibles secuencias transmitidas con la secuencia recibida antes de tomar una decisi6n acerca de cual fue la secuencia transmitida mas parecida. La posibilidad de tener un equipo de codificaci6n y de decodificaci6n en el cual aumente en complejidad exponencialmente con n, es extremadamente prohibitiva en la practica y se han hecho intentos para facilitar el problema de almacenamiento. Una aproximaci6n adoptada es con una estructura algebraica, y la teona de grupo en particular es empleada. Esto puede mostrar que la codificacion puede ser realizada con equipo cuya complejidad aumenta s610 lineal mente con n y que el almacenamiento necesario en el decodificador son secuencias de 2n(1-R) binits. En una segunda aproximaci6n, con probabilidad esencialmente, una tcknica secuencial ha sido empleada en un intento de reducir el almacenamiento para la operaci6n de decodificaci6n. La codificaci6n algebraica es considerada al detalle mas adelante en esta secci6n y seran proporcionados ejemplos de c6digos imp ortantes, ademas, el problema de la s!ntesis sistematica de los c6digos eficientes de correcci6n de multiples errores son mencionados y una clase importante de estos c6digos, considerados e ilustrados con ejemplos. GRUPO DE C6DIGOS, C6DIGOS DE CHEQUEO DE PARIDAD

Como se ha dicho, la informaci6n puede ser transmitida usando bloques de n digitos binarios. En cualquier sistema efectivo de codificaci6n, no todas las posibles 2n nbinit secuencias son utilizadas. El subconjunto de secuencias empleadas en la codificacion y cada miembro de los subconjuntos es Ham ado c6digo de palabra (codigo Word). Si la codificaci6n y decodificaci6n utilizan distintas secuencias n-binit, como se mencion6, el c6digo es un c6digo de bloques. En ciertos casos se emplean los terminos alternativos como: c6digos lineales, grupos de c6digos y c6digos de chequeo de paridad. El termino c6digo lineal se usa, en un c6digo, como el con junto de secuencias desde el c6digo Word que, general mente, satisface las condiciones de asociaci6n de algebra lineal. Asimismo el grupo de c6digos es utilizado desde el estudio de c6digo de bloques, que puede ser desarrollado haciendo uso de la teona de grupos. Yel termino c6digo de chequeo de paridad es utilizado desde el c6digo Word, que por 10 general consiste en digitos de informaci6n y de redundantes que se refieren a dfgitos de chequeo de paridad. C6DIGOS SISTEMATICOS

EI codigo Word es construido para que se sume a los digitos de informaci6n, estos contienen un numero de digitos "redundantes". Esos digitos "redundantes" estan

SISTEMAS CONTINUOS DE INFORMACION

formados par combinaciones lineales de los dfgitos de informaci6n y son llamados

c6digos de chequeo de paridad. Si, dentro de un c6digo, el primer dfgito k en cada c6digo Word es el dfgito de informacion y los siguientes m (= n-k) dfgitos son los dfgitos de chequeo, entonces los codigos son llamados c6digos sistemdticos. C6DIGOS DE DETECCI6N DE ERROR Los c6digos de chequeo de paridad mencionados, forman la base de los c6digos de detecci6n y correccion de error. Un codigo de deteccion de error es aquel cuya estructura de c6digo de Word es tal, que la presencia de un error 0 errores en la secuencia recibida pueden ser detectados pero no corregidos. En cambio un c6digo de correccion de error es aquel cuya estructura de c6digo Word es tal, que la presencia de un error 0 errores pueden ser detectados, localizadas la posicion 0 posiciones y necesariamente corregidos. Ejemplo: una muestra de una detecd6n de error elemental es que un simple dfgito de chequeo de paridad es usado para detectar la presencia de un numero impar de errores en una secuencia. El dfgito adicional es escogido para que el numero total de l's en la palabra sea un numero par. Esta manera de checar Hamada un chequeo de igual paridad y se Hustra mas adelante. Si los dfgitos de informaci6n son 01011, y se usa en chequeo de igual pari dad, la secuencia transmitida es 010111, y la presencia de 1, 3 0 5 errores pueden ser detectados pero no corregidos.

Modulo 2 aritmetico El m6dulo 2 aritmetico juega un papel importante en el estudio de c6digos binarios. Las reglas de m6dulo 2 aritmetico son las siguientes:

o e

0

0

e

0

1

o E9

1

1

1

1

0

o

o

o

o

1

o

1

o

o

1

1

1

1

E9

EI signo Ea, es a veces usado para denotar el modulo 2 adicional.

67

TEORfA DE LA INFORMACION Y ENCRlI'TAMIENTO DE DATOS

68 Patrones de Error

Si la secuencia transmitida es V y la secuencia recibida es U, la secuencia U-Ves Hamada patr6n de error. Claramente, el patr6n de error es el que sumando al c6digo Word transmitido, resulta en la secuencla recibida. Por ejemplo: si 011011 es transmitido y 101101 es recibido, entonces el patr6n de error es 011011-101101, que es igual a 011011 ED 101101 en m6dulo 2 aritmetico. EI patr6n de error se ve como 110110. Distanda de Hamming La distancia de Hamming entre dos seruencias de n-digitos binarios es el numero de digitos en que aquellos difieren. Ppr ejemplo; si la secuencia es 1010110 y 1001010, la distancia de Hamming es 3. Minima distanda decodificada En la minima distancia decodificada, una secuencia recibida es comparada con todas las secuencias transmitidas, siendo fa secuencia escogida del acortamiento de distancia desde la secuencia minima recibida. Para los errores, esto es independiente del digito binario a dfgito binario, la mInima distancia decodificada Heva al probablemente error mas pequeno por encima de todo, y es equivalente de la maxima probabilidad decodificada. Relad6n entre la distanda de Hamming y detecd6n de error Si la distancia entre cuaIquiera de dos palabras de un c6digo es igual a e +I, entonces es posible detectar la presencia de cualquier 6, 0 algunos errores en una secuenqa recibida. Si la distancia de Hamming entre cualquiera de dos palabras de un c6digo es igual a 2e+ 1, entonces es posible corregir cualquier e, 0 algunos errores ocurridos en una secuencia recibida.

ELEMENTOS DE CODIFICACI6N DE COMPROBACI6N DE PARIDAD Un c6digo de comprobaci6n de paridad 0 c6digo de grupo, puede ser definido unicamente en terminos de una matriz de comprobaci6n de paridad. Una secuencia v (= VI' v2' ••• Vn) es una palabra c6digo si y solo si, esta satisface la ecuaci6n de matriz H vT= 0, donde H es la matriz de comprobaci6n de paridad, yves la transformada de la matriz de la fila V =VI' vl ... vn).

SISTEMAS CONflNUOS DE INFORMACION

a22

aln a2n

amI am2

amn

all a2l

a12

H=

Si la matriz de comprobaci6n de paridad es tomada para que sea de la forma general, entonces el requisito de que una palabra c6digo satisface la ecuaci6n de matriz de arriba y la palabra satisface el siguiente grupo de m ecuadones simultaneas

all·vl+a12·v2+ .........aln·vn

=

0

............................... 3.9

aml·ul+am2.v2+ ........ +amn·vn

=

0

Si el grado de la fila de la matriz de comprobad6n de paridad es m, esto significa que m filas de la matriz son linealmente independientes y, por 10 tanto, resolviendo las ecuadones, que n-m de los elementos VI' v 2' ... vn de la palabra c6digo pueden ser elegidos arbitrariamente. Los restantes m digitos son determinados en lerminos de estos dfgitos elegidos, por la solud6n de los n-m dfgitos escogidos arbitrariamente y son los digitos de informad6h y los restantes m digitos determinados por la solud6n del grupo de ecuadones simultaneas son los digitos de comprobaci6n de paridad. La matriz de comprobad6n de paridad es usada en las dos operaciones, codificad6n y decodificaci6n, y puede ser guardada, en alguna forma, en ambos, el codificados y decodificador. La operaci6n de decodificad6n puede ser ilustrada can un ejemplo en el cual la matrlz de comprobaci6n de paridad es tomada aSl:

H=

100011 010001 001010 000110

69

70

TEORfA DE lA INFORMACION Y ENCRlPI'AMIENTO DE DATOS

Entonces esta matriz tiene un grade de fila 4, las palabras c6digo vistas contienen 4 dfgitos de comprobad6n de paridad y 2 dfgitos de informaci6n. Los dfgitos de comprobad6n de paridad CI , C2 , C3, C4 pueden ser determinados de los dfgitos de lIe 12 usando la ecuad6n de la matriz de arriba. Si la palabra c6digo v es arbitrariamente elegida tomada de la forma C I , C2, C3 , C4, 11' 12, entonces los dfgitos de comprobad6n de paridad deben satisfacer el grupo de ecuaciones simultaneas: C1 +11 +12 =0

C 2 +12 =0 C 3 +11 =0 C4 +11 =0 Las palabras c6digo resultantes para este ejemplo son vistas para ser 000000, 0111111, 101110 Y 110001.

En la decodificaci6n, la matriz de comprobaci6n de paridad es multiplicada por la transformada de la secuencia recibida v' (= v'l' v'2' ... v'n) y una secuencia de m digito es Hamada el corrector 0 sindrome obtenido. Siguiendo la determinaci6n del sfndrome, una correcci6n puede entonces ser hecha, asumiendo que un sfndrome particular siempre ocurre por un resultado de la presencia de un error patr6n particular. EI sfndrome c es relacionado a la secuencia recibida y la matriz de comprobaci6n de paridad por la ecuaci6n de la matriz. C =H[v,]T Claramente, si la secuencia recibida es la misma tal como una posible secuencia transmitida, entonces el sfndrome es cero y la secuencia recibida puede ser asumida como correcta. Si de cualquier modo, los errores ocurren durante la transmisi6n y para convertir la secuencia transmitida dentro de una secuencia que corresponde a otra secuencia de transmisi6n permisible, el sfndrome no sera cero. En este caso la secuencia recibida v' es igual a la suma de la secuencia transmitida v y el patr6n de error x, y el sindrome es: . C =H[v +X]T =HVT +HxT =HXT Puede verse que el sindrome es de hecho igual al m6dulo 2, la suma de las columnas de la matriz cuyas posiciones corresponden a las posiciones de unos en el modele de error x. Dado que es posible que un mlmero del modele de error resulte en el mismo sindrome, es claro que cualquier decodificador practico no puede corregir todos los modelos de error. El decodificador que examina todos los modelos de error resulta en un sindrome particular, y selecciona como error de transmisi6n ese modelo de error que contiene la menor cantidad de unos, es un decodificador de distancia minima.

SISTEMAS CONTINUOS DE INFORMACION

EI siguiente ejemplo ilustra al decodificador de distancia mfnima, basado sobre estas ideas. Asumamos que la matriz de chequeo de paridad es de la forma:

H=

100011 010001 001010 000110

La tabla muestra las palabras clave, los modelos error, y las consecuencias recibidas, junto con los sindromes calculados usando la matriz H. Puede verse, en la tabla, que todos los errores simples y algunos errores dobles pueden corregirse, pero no pueden corregirse errores de modelo 3 0 de mas. Se notara Que para efectuar la operaci6n de decodificaci6n de distancia mfnima a un c6digo de grupo, es necesario almacenar s610 la matriz de paridad, junto con el sfndrome de 2 m y sus modelos de error asociados a este. De las ideas y ejemplos arriba presentados, se aclarara que un c6digo debe ser tal que cualquier modelo de errores e, 0 menos, es corregible, luego cada modele de error tal debe conducir a un nivel mas alto de sindrome. Lo cual significa que ningUn doble set de columnas e de la matriz de paridad tendra el mismo m6dulo suma 2, 0 expresado altemativamente, que cada set de columnas 2e de la matriz de paridad sera linealmente independiente si el c6digo es capaz de corregir cualquier modelo de errores e 0 menores. Para una longitud dada de palabra n, el problema de producir sistematicamente la matriz de chequeo de paridad con cada set de columnas 2e linealmente independientes, es uno de los mas diffciles de la teona de codificaci6n. Un metodo general de sintetizar tal matriz es el metodo de Sacks. Este metodo que puede usarse como prueba dellfmite Varsharmov-Gilber-Sacks, es muy laborioso e ineficiente, dado que los rangos (el rango de digitos de informacion a 10 largo de la palabra) no son tan altos como los obtenidos por otros metodos de sintesis. Un mlmero muy importante de procesos de sintesis continua y se ilustran con ejemplos. Elligamento de Varsharmov-Gilbert-Sacks es menos seguro en el sentido de que el c6digo de chequeo de paridad, capaz de corregir cualquier eo menos errores, y teniendo codigos de palabras de longitud n, siempre pueden ser construidos si el numero de digitos de chequeo es igual a 0 mayor que m, donde m es el entero menor que satisface la condici6n.

2

m

2e-l

>

l:

.=0

n-iCi .................... 3.10

71

72

ThORlA DE LA INfORMACION Y ENCRlPI'AMIENTO DE DATOS

Elligamento de Varsharmov.Gilber-Sacks es una condid6n suficiente, pero no es necesaria, desde que m = m" es el entero menor para que la siguiente condici6n

sea satisfecha; luego es dertamente posible construir un c6digo (con palabras de longitud n) capaces de corregir cualquier patr6n de e 0 menos errores. Sin embargo, tambien es posible, en muchos casos, construir un c6digo capaz de corregir cualquier e errores con menos de m" digitos de chequeo. Tabla 3.1 Distanda mInima de decodificad6n. Pauones de error

C6 digo de palabras

Sfndrome Transpuesto para ada secuenda redbida 110001 110001 0000· 010001 1000· 0100· 100001

000000 100000 010000

000000 000000 100000 010000

011111 011111 111111 001111

101110 101110 001110 111110

001000

001000

010111

100110

111001

0010·

000100

000100

011011

101010

110101

0001

000010 000001 110000 101000

000010 000001 110000 101000

011101 011110 101111 110111

101100 101111 011110 000110

110011 110000 000001 011001

1011· 1100· 1100· 1010·

100100 100010 100001 011000

100100 100010 100001 011000

111011 111101 111110 000111

001010 001100 001111 110110

010101 010011 010000 101001

1001· 0011· 0100· 0110·

010100 010010 010001 001100

010100 010010 010001 001100

001011 001101 001110 010011

111010 111100 111111 100010

100101 100011 100000 111101

0101· 1111· 1000· 0110·

001010 001001 000110 000101 000011

001010 001001 000110 000101 000011

010101 010110 011001 011010 011100

100100 100111 101000 101011 101101

111011 111000 110111 110100 110010

1001· 1110· 1010· 1101· 0111·

SISTEMAS CONTINUOS DE INFORMACION

C6DIGO DE CORRECI6N DE ERROR SIMPLE

Desde el procedimiento te6rico se pudo observar que, si queremos corregir todos los errores simples que pueden ocurrir dentro de una secuencia de n dfgitos, se necesita solamente ordenar la matriz de chequeo de paridad, donde sus n columnas no son cero y son distintas. De este modo, un c6digo binario de correcci6n de error simple, con c6digos de palabras de longitud n puede ser construido si este contiene M digitos de chequeo, donde M es el entero mas pequeno que satisface la condici6n 2m N+ 1. Si la matriz de chequeo de paridad estci ordenada de tal forma que, el binario contenido en cada columna (cuando es convertido a su equivalente decimal) indica la posici6n de la columna dentro de la matriz y las posiciones de los dfgitos de chequeo, dentro del c6digo de palabra estan ordenados para coincidir con esas columnas dentro de la matriz que contiene solamente un uno, el c6digo es conocido como un c6digo de error simple de Hamming. Este orden particular de la matriz de chequeo de paridad, mientras que no posea propiedades adicionales de correcci6n de error comparado con algUn otto orden de la misma clase de columnas, tiene las siguienteS ventajas: A) Cada dfgito de chequeo puede ser determinado directamente por los dfgitos de informaci6n independiente de los ottos dfgitos de chequeo. B) La posici6n de un error puede ser determinada, simplemente, convirtiendo el sfndrome resultante a su equivalente decimal, este numero es la localizaci6n del error. Ejemplo: considere la construcci6n de un c6digo de correcci6n de error simple de Hamming para palabras de longitud N=15, en este caso la condici6n 2m 15+1 puede ser satisfecha y un c6digo de correcci6n de error simple puede, por 10 tanto, ser construido con palabras que contegan 11 dfgitos de informaci6n y 4 dfgitos de chequeo. La matriz H de chequeo de paridad es:

H=

000000011111111 000111100001111 011001100110011 101010101010101

Donde C1 es i-esimo dfgito de chequeo e I es el j-esimo digito de informaci6n. Para este c6digo los dfgitos de chequeo pued~n ser observados para ser determinadosde:

73

74

TEoRfA DE LA INFORMACION Y ENCRlPrAMIENTO DE DATOS

C1 +11 +12 +14 +15 +17 +19 +111 =0 C 2 +11 +13 +14 +16 +17 +110 +111 =0 C 3 +12 +13 +14 +18 +19 +110 +111 =0 C4 +15 +16 +17 +18 +19 +110 +111 =0

Si se desea transmitir los dfgitos de informacion 10101010101, despues de los digitos de chequeo (los cuales pueden ser determinados de las ecuadones anteriores) se encuentra que son CI = 1, C1 = 0 , C3 = 1, C4 = 0 y el c6digo de palabras transmitido cuyo resultado se obselVo que es: 1011010001010101. Como una ilustradon de decodificacion se permite asumir que la secuencia recibida es 1001010010100101. Para esta secuencia recibida el sindrome encontrado es:

o o 1 1

La cual tiene un equivalente decimal de 1x2°+ lx2 I +0x21 +0x2 3= 3, indicando

que el error esta dentro del tercer digito de la secuencia recibida. Si la secuencia recibida fue 1010100101001000 entonces el sfndrome es: 1 1 1 1

EI cual tiene un equivalente decimal de 15, indicando que el error esta dentro del quinceavo digito de la secuencia recibida. C6DIGOS DE CORRECCI6N DE ERROR DE REED-MULLER

Los c6digos de Reed-Muller son una dase de codigos de correccion de error multiple, que tiene una gama de razones de informacion y habilidad de correcci6n de error. Estos c6digos son semejantes, tal que para algunos enteros T y s, donde r es menor que s, hay un c6digo con palabras de longitud n= 21 que contiene m = 1- 'CI sC1-••• -1Ca-r_1 dfgitos de chequeo cap aces de corregir algt1n patron de 2a-r-t - 1 0 menos errores. Proceso de codificacion. En la operacion de codificacion, la secuencia transmitida f( =fo' fl , ... , fn_l) es obtenida de los digitos de informacion n-m por medio del uso de una expresion de grado r-esimo de la siguiente forma general:

!(fo'!l""'!n-l)=go ·xo+g1 ·X1 +···+gs ·xs +gl2 oxl

'X 2 +····+gs-I,s

oX s_1 .xs

SISTEMAS CONTINUOS DE INFORMACION

En esta expresi6n, los coeficientes &" gl ' ---, g1.2,3 ,...., etcetera, son digitos de informaci6n, y las secuencias Xl' JS' ... x. son vectores base de longitud n teniendo la forma de: 11111l. .................... 1111 01010l. ....................0101

Xl

= =

X2

= 0011001l. .........00110011

Xo

x4

= 000011110000... 00001111 = 0000000011111111 ...........

Xs

= pO... ~00Q.. .Jlll. ... :.... 111~

X3

2,-10'5

2,-lj's

Ejemplos que ilustran el proceso de codificaci6n: Caso 1: Considere el case donde s=4 y r= 1. Bajo estas circunstancias la expresion general de codificaci6n sera:

Y los c6digos de palabras son generados por media del usa de &'scoma dfgitos de informaci6n. Las palabras de este c6digo son de longitud n = 21 = 24 = 15, yel c6digo es capaz de corregir alg11n patr6n de 21-r.1 -1 = 3 a menos errores. Como forma de ilustraci6n, se desean transmitir los dfgitos de informaci6n 10100. para este ejemplo, la secuencia transmitida f{ = fo' fl ... ,f1s) se observ6 que:

f

=1·1111111111111111

+0·0101010101010101 +1·0011001100110011 +0·0000111100001111 +0·0000000011111111 =1100110011001100

75

76

TEoRIA DE LA INFORMACION Y ENCRlPl'AMIENTO DE DATOS

Caso 2: Como una segunda ilustraci6n, considere el caso cuando s =4 Yr =2, Baja estas circunstancias sera:

/=go'X O +g 1 '%1 +g2'%2+g3'%3+g4,x 4 +g12 , Xl 'X2

+ g13' Xl

'X3 +g14'X1 'X4

+g23 , X2' X3 +g24'X2 'X4

+ g34 'X3' X 4

x1 = 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1

x2=0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1

x3=0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1

~,.

~

.. .. .. ~

~

~

'" ~

.

,. '" ,. ~

~

.

~

'"

~

..

~

..

,. ,. ,. ,. ~

~'"

x4= 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1

Figura 3,1 Esquema del slmbolo de paridad para uso en decodificaci6n del c6digo Reed-Muller.

SISTEMAS CONTINUOS DE INFORMACION

Este c6digo, que tiene palabras de longitud 21=24=16, contiene 1+4CI =5 dfgitos de chequeo y 11 digitos de informaci6n y es capaz de corregir cualquier error que ocurre en una secuencia recibida. De la expresi6n anterior de codificaci6n, la secuencia transmitida correspondiente a la secuencia de informaci6n 01000100001 es: /(=/0'/1""'/15)=0'%0 +1'%1 +0'%2+ 0 ' X3+ 0 '%4 +1'%1'%2+ 0 '%1'%3+ 0 '%1'%4 +0'%2'%3 +0'%2'X4 +1'%3'%4

ycomo: Xl =0101010101010101 Xl '%2=0001000100010001

y X3' X4 =0000000000001111

la secuencia transmitida se observ6 que es: 0100010001001011

Proceso de decodificaci6n. Un algoritmo general de decodificaci6n para estos c6digos ha sido elaborado por Reed. El algoritmo permite cualquier patr6n de 2..r•1_1 0 menos errores para corregirse. _ En operaci6n de decodificaci6n, cada digito de informaci6n es calculado un numero de veces en terminos de ciettas subclases seleccionadas de los elementos fo' fl , ... fn•l de la secuencia recibida, y una decisi6n de mayorla es hecha para saber si el dfgito de informaci6n en cuesti6n es 1 0 O. En la decodificaci6n, los coeficientes de r-esimo grade (gu' g13' ... , 8,4 en el caso 2) son primero obtenidos, y despues una nueva secuencia recibida es calculada adicionando nuevamente los terminos de resimo orden encontrado (g12 • Xl • 'S, "., g34 • X, • x4 en el caso 2) ala secuencia original, esta nueva secuencia recibida es despues usada, y los coeficientes de (r - 1)esimo grade extrafdos en la misma forma que los coeficientes de r-esimo grado. EI proceso es repetido hasta que el mensaje es extrafdo U ocurra una indeterminaci6n. Un esquema general para determinar cual subclase de los elementos fO' fl , , •• , fn•l debe ser usado en el chequeo de los dfgitos de informaci6n &' .. ,' &,' .. '&,Ie' etetera, es el siguiente: Ordenar los vectores base de acuerdo a como se muestra en la figura 3.1 y para cada vector X asociar el j-esimo 0 con el j-esimo 1 como esta indicado. Cada par de elementos asociados esta condicionado a su par en juego.

77

78

ThORIA DE lA INFORMACION Y ENCRIPrAMIENTO DE DATOS

La subclase 25-1 de dos elementos usados para determinar gl son 2,-1 pares en juego en el vector base~. Cada una de las subclases 2,-2 de cuatro elementos usados para determinar &. es obtenido un par, en juego de componentes en ~ junto con los pares asociados eri xj. De la misma manera, cada una de las dos 25-3 subclases de 8 elementos usados para determinar gijk es obtenido tomando un par en juego x asociado con este un par en juego xj y 4 componentes en juego en xk. El esquema puede ser extendido en una forma sencilIa para obtener las relaciones de chequeo para coeficientes de orden mas alto. Ejemplo que ilustra el proceso de decodificaci6n. Este permite considerar el caso donde s=4 y r=2, como se hizo anteriormente y se asume que se dese6 transmitir la secuencia de informaci6n 10000000001. La secuencia transmitida para esta, en particular, es 0111111111110000. Usando el esquema descrito anteriormente y como se observo en la figura 3.1 las relaciones de chequeo son:

gl = /0 + /1 =11"13 =14 + Is = 16 + /1 = /8 + 19 = /10 + III = 112 + 113 = /14 + lis 82 = 10 + 12 =/1+13 =14 + 16 = IS6 + 11 = 18 + 110 = 19 + III = 112 + 114 = 113 + lIS 83 = 10 + 14 =/1+1S=12 + 16 =13 + 17 = 18 + 112 = 19 + 113 = 110 + 114 = III + lis g4 = fo + /s =/1+/9 = /2 + /10 = 13 + III = Is + /12 = 19 + 113 = 16 + /14 = 17 + lIS 812 = /0 + II + 12 + 13 =/4+15 + 16 + 17 =18 + 19 + 110 + III = 112 + 113 + 114 + lis 813 = 10 + II + 14 + Is =11"13 + 16 + 11 =18 + 19 + 112 + 113 =110 + III + 114 + lis g14 = 10 + II + 18 + 19 =1 -1"/3 + 110 + III = 14 + Is + 112 + /13 = 16 + 17 + 114 + lIS g23 = 10 + /2 + f4 + /6 =/1+/3 + Is + 17 =18 + 110 + 112 + 114 = 10 + III + 113 + lIS g24 = 10 + /2 + 18 + /10 =/1+/3 + 19 + /11 = 14 + 16 + 112 + 114 = Is + 17 + 113 + lIS

834 = /0 + 14 + 18 + 112 =/1+15 + 19 + /13 = 12 + /6 + 110 + 114 = 13 + 11 + III + tIS Y sustituyendo los valores del elemento recibido dentro de la~ relaciones de chequeo para los coeficientes &' los siguientes valores son obtenidos:

g12 = 1; g12 = 0; g12 = 0; g12 = 0 g13 = 1; g13 = 0; 'g13 = 0; g13 '= 0 g14 = 1; g14 = 0; g14 = 0; g14 = 0 8:z3 = 1; g23 = 0; ~3 = 0; 8:z3 = 0

8:z. = 1; 8:z. = 0; ~4 = 0; 8:z. = 0 gu = 0; g.~ = 1; 8u = 1; g3~ = 1

:. g12 = 0 .•. g13 = 0 •.• g14 = 0 :. g23 = 0 :. 8:z4 = 0 :. g34 = 1.

decision de mayorla. decisi6n de mayorla . decision de mayorla. decision de mayorla. decision de mayorla. decisi6n de mayorla.

SISTEMAS CONTINUOS DE INFORMACI6N

En estas seis etapas los dfgitos de informaci6n han side decodificados. La nueva secuencia recibida, f' = So • ~ + gl • Xl + ~ • JS + ~ • JS + g4 • x4 puede ser calrulada ahora sumando la secuencia g12· Xl • X 2 + 813· Xl • x3 + g14 • Xl • x 4 + g23· x 2 • x3 + 824 . X2 • x 4 + g34 • x 3 • x 4 para f La secuencia f' se encontr6 que es 0111111111111111, y usando estos nuevos elementos en las relaciones de chequeo para gI' g2' g3 Y g4 los siguientes valores son obtenidos para los dfgitos de informaci6n gl' g2' ~ Y g. gi = g2 = g3 = g4 =

1; gl = 0; gl = 0; gl = 1; g2 = 0; gl = 0; gl = 1; g3 = 0; ~ = 0; g3 = 1; g4 = 0; g. = 0; g4 =

0; gl = 0; gl = 0; gl = 0; gl = 0 0; gl = 0; gl = 0; gl = 0; gl = 0 0; g3 = 0; g3 = 0; ~ = 0; g3 = 0 0; g. = 0; g4 = 0; g4 = 0; g4 = 0

Por dedsiones de mayona de gl'~' g3 Y g4' son tornados como 0, 0, 0, 0, respectivamente. Sumando gl • Xl + ~ • x2 + g3 • JS + g4 • x4 a la secuencia f, la secuencia correspondiente a go Xo es obtenida. Esta secuencia se encontr6 que es 01111111111111111 y como ~ es 111111111111111111111, 80 puede ser igual a 1 por decisi6n de mayona. La secuencia de informaci6n decodificada es 100000000001, 10 cual es correcto. C6DIGOS DE PRODUcro 0 ITERADOS Es posible usar c6digos sistematicos simples para producir c6digos mas poderosos con habilidad de correcci6n de error aumentada. Estos c6digos son llamados iterados o c6digos de producto.

Como un ejemplo de c6digo de producto 0 iterados, considere el c6digo formado por un c6digo sistematico simple, en el cual un dfgito de chequeo simple es sumado luego de ser formado como un medio de detecci6n, un numero impar de errores en un c6digo de palabras. Los dfgitos de informaci6n estcin ordenados en dos dimensiones (0 dimensiones mas altas) ordenadas como se muestra en la figura 3.2, y un dfgito de chequeo de paridad par es sumado a cada regi6n y a cada columna. En la suma los chequeos son tambien llevados sobre los dfgitos de chequeo. EI c6digo espedfico se expone en la figura 3.2, que es c1aramente mas poderoso que los c6digos originales de los cuales fueron construidos. La posici6n de un error estci localizada como el elemento del rengl6n y la columna, los cuales checan si falta paridad. Los c6digos de producto pueden ser resumidos de forma que los renglones del orden pueden ser tomados de un tipo de c6digo sistematico, mientras que las columnas son tomadas de un tipo diferente de un c6digo sistematico.

79

80

ThORIA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

C6DIGOS BOSE-CHAUDHURI En aiios recientes, algunos de los avances mas importantes en el desarrollo de los c6digos de correcci6n de error multiple han sido de mucho interes, junto con una gran clase de c6digos conocidos como c6digos cfclicos. Estos c6digos son de extrema y practica importancia debido a la facilidad con la que pueden ser sintetizados, as{ como codificados y decodificados utilizando un repstro de desplazamiento de retroalimentaci6n. Para poder entender en forma clara los c6digos c{clicos, es necesario tener conocimientos de algebra abstracta, 10 cual esta fuera del a1cance de esta unidad. Por ello se propone considerar, s610 en forma breve, las clases mas importantes de c6digos de Bose-Chaudhuri. Las propiedades de los c6digos Bose-Chaudhuri, as{ como un metodo de construcci6n de matriz de chequeo de paridad (parity check matriz) para la correcci6n de errores multiples son aplicados a 10 largo de este, por otra parte, tambien se discutiran metodos practicos para la codificaci6n y de codificaci6n de los mismos. Los c6digos de Bose-Chaudhuri son una clase de et5digos ciclicos particulannente efectivos en la detecci6n y correcci6n de errores multiples que ocurren en el numero entero positivo, hay un c6digo con n= 2-1 de largo, este c6digo contiene mas de m digitos de chequeo de paridad yes capaz de corregir alglin patr6n de error e 0 menor. La matriz de chequeo de paridad, H, para un c6digo Bose-Chaudhuri que tiene palabras de n =2exp.m -1 de largo y capaz de corregir alglin patr6n de error e 0 menor puede ser derivado como se muestra a continuaci6n: A) Tome una matriz de m x m, % de la forma 010000... 000 001000... 000 Z=

000000...010 000000...001

aOa1a2 ...a(m -1) Y seleccione los dfgitos binarios pO, pI, p2, polinomio

"'1

p(m-l) de manera que el

C(x)=aO+al·X +a2·X + ... +a(m _1)·X m-1 +Xm

SISTEMAS CONTINUOS DE INFORMACION

no se reduzca y no se divida entre X-I para cualquier K menor a 2-l. B) Tome algl1n vector sin ningl1n cero X de m elementos. C) Forme la matriz de chequeo de paridad, H, como sigue: XZl.X

Z2.X

Z3.X •.•••••

Z (n-l ).x

XZ3.X

Z6.X

Z9.X ..••..•

Z3(n-l )·x

XZS.X

ZI0.X

ZIS.X .......

Z5(n-l).x

H=

Z (21-1 )(n-l) x,

XZ(2e-l).X

En esta matriz Zexpj es la matriz Z multiplicada por si mismo i veces, y Zexp. ix es la matriz obtenida al multiplicar la matriz Zexpj por la matriz X. La matriz H puede contener un numero de filas con puros ceros y puede contener tambien un numero de filas repetidas. Obviamente, las fllas de este tipo no tienen valor durante el chequeo de paridad, por 10 que deben ser anulados de la matriz H. Una vez eliminadas estas filas independientes, H es igual al rango de filas de la matriz y, como se explic6 anteriormente, esto es igual al numero de digitos de chequeo. E1 range de la matriz H se puede determinar de manera directa como sigue: Si f(x), para i= 1, 3, 2e-l, es un polinomio con ceros y unos como coeficientes, y es tal que el minimo grado del polinomio para el cualla ecuad6n de la matriz fl(x= Zexpj) = 0 se satisface; entonces el polinomio f(x), es el minima comun multiplo de las fi(x)"s, es dedr, es el polinomio de grade mas bajo, que es un multiplo de cada flex) y se conoce como polinomio generador" del c6digo Bose-Chaudhuri. EI grado del polinomio generador es igual al rango de la matriz H. Ejemplo: considere la sintesis del c6digo Bose-Chaudhuri para la correcci6n de un triple error para el cual m=4 ye=3. Este c6digo tiene palabras de n=(2exp.4-1)= 15 de largo. Asumiremos que: II

x=~

81

TEoRtA DE LA INFORMACION Y ENCRlJ7fAMIENTO DE DATOS

82

010~

. 001 yque la matnzZ es Z = 0001 1100 Para esta elecd6n de Z, el polinomio caracteristico

C(x) =ao +a1'X +a2·X + ... +a(m _l).X(m-l) +Xm Queda de la siguiente manera

C(x) =1 +x +X4

EI cual no se puede redudr y no se divide entre x- I para alguna k menor a 15.

~

~

Chequeo sobre chequeo

Informad6n de Digitos

Chequeo de columnas

A) Ejemplo general de un c6digo iterado

Chequeo de filas

SISfEMAS CONTINUOS DE INFORMACION

83

In £ormaa·6n d e df19ltos .

Filas de

1

0

1

1

0

1

0

0

1

1

1

0

I

0

1

0

1

0

0

1

1

1

0

0

0

1

1

1

0

0

1

1

0

1

1

1

0

1

1

1

0

0

0

1

1

0

0

1

1

Chequeo de

Columnas de Chequeo

B) Especificaciones de un ejemplo de c6digo iterado Figura 3.2 Ejemplos de c6digos iterados.

Por medio de una multiplicaci6n de matrices se observa que:

Z .X

01011 0 • 0 =0 0001 0 0 1100 0 1

= 001

010~ 0100 Z2 = 0010 • 0010 0001 0001 1100 1100

0010

= 0001 1100 0110

Y por 10 tanto:

Continuando con multiplicaci6n de matrices.

84

ThomA DE LA INFORMACION Y ENCRlI7fAMIENTO DE DATOS

La matriz H de chequeo de paridad es: 100010011010111 000100110101111 001001101011110 010011010111100 100011000110001 H= 011110111101111

0010100101()0101 000110001100011 101101101101101 000000000000000 011011011011011 011011011011011 Esta matriz tiene una fila de puros ceros y 2 filas identicas. Si la fila de ceros se elimina junto con una de las dos filas identicas, la matriz resultante se obtiene como la matriz de paridad de chequeo para el c6digo. 100010011010111 000100110101111 001001101011110 010011010111100 H

= 100011000110001 011110111101111 001010010100101 000110001100011 101101101101101 011011011011011

Esta matriz tiene 10 filas independientes yes, por 10 tanto, de rango 10, tambien podemos observar que cada 6 columnas, la matriz es linealmente independiente, el c6digo puede corregir todos los patrones de errores de 3 0 menores. El rango de la matriz anterior se ha obtenido directamente del hecho de que los polinomios mfnimos f(x), f3(x), y fS(x) son 1+x+x", 1+X+X2+X3+x", y l+x+x respectivamente.

SISTEMAS CONTINUOS DE INfORMACION

Por 10 tanto:

f(x) = f1(x), f3(x), f 5(x) =1 +x +X2 +X4 +XB +x 10 Tiene grado igual a 10 yel rango de H es por 10 tanto 10. El polinomio g(x) es el polinomio generador para un c6digo Bose-Chaudhuri, con informaci6n 5 y 10 dfgitos de chequeo. La codificad6n y decodificad6n del c6digo de Bose-Chaudhuri, puede ser fcicilmente mecanizado utilizando registros de desplazamiento de retroceso. Los procedimientos de decodificaci6n y codificaci6n se entienden de mejor forma en terminos de polinomios de c6digo. Cualquier palabra de c6digo puede ser expresada como polinomio y los coeficientes del mismo son los elementos de la palabra de c6digo. Por ejemplo: si una palabra de c6digo es 1011001, esta puede ser representada por un polinomio como sigue: 1.x+0.x+1.x 2 +1.x 3 +0.x 4 +0.x 5 +1.x 6 =1+X2+X3+ X6 Los c6digos ciclicos tienen la propiedad importante de que cualquier palabra de c6digo es un multiplo de polinomio generador. Por 10 tanto, cualquier polinomio de palabra de c6digo T (x) se relaciona con el polinomio generador por la expresi6n: T (x) = P(x). g(x) Donde P(x) es un polinomio multiplicador. Si las palabras de c6digo son de duraci6n n y el numero de dfgitos de chequeo es m=n-k, entonces el polinomio T(x) es de grado igual 0 menor a n-I y como g(x) es grade m. La operaci6n de codificaci6n puede ser considerada como una simple multiplicaci6n del polinomio generador con polinomio P(x), el cual es de grado k-I 0 menor y tiene como coeficientes dfgitos de informaci6n k. Un esquema de un registro de desplazamiento de retroceso para la multiplicad6n de un polinomio compuesto:

G(x) =gO + gl· x + ... + g(n - a). x(n-k) Un polinomio: P(x)aO+a1.x+ ... +a(k-l) 'X k- 1 se muestra en la figura 3.3. EI sistema contiene n-k estados de registro de desplazamiento, el contenido inicial de estos es puesto a cero. La operaci6n de multiplicaci6n se puede llevar a cabo con este circuito alimentando una secuencia de dfgitos n dentro del registro y observando la salida en la posici6n indicada en la figura 3.3, la secuencia de entrada

85

TEoRIA DE LA INFORMACION Y ENCRJPl'AMIENTO

86

DE DATOS

consiste de k digitos de informaci6n, los cuales se introducen primero en el registro de alto orden, y de nfk cer~s, que son introducidos en el registro despues de los digitos de informaci6n. Salida

Multiplicacion de constantes

(= prodJcto de ~

Secuencia de entrada (0...0 1 ¥1 ..·ak-1)

multiplicacion)

(n-k) Elementos de almacenamiento

Figura 3.3 Circuito para multiplicar el polinomio g(X)=~+gl·X+ ... Sn_k·Xl1-k por el polinomio P(x)=aO+a'x+" .+ak•1.x".1

Despues de la transmisi6n en un canal, el mensaje codificado posiblemente puede contener alglin error. Si el patr6n de error es representado por el polinomio E(x), en la misma forma que las palabras de c6digo, entonces la secuencia recibida es: R(x) = T(x) + E(x) = P(x). 8(x) + E(x)

Y dado que E(x), no es un multiplo de g(x}, la presencia de alglin error en R(x} puede ser detectado simplemente dividiendo R (x) por g(x). En la ausencia de errores, g(x) dividira a R(x) en forma exacta (no habra residuo), pero si ha ocurrido alglin error de g(x) no dividira a R(x) en forma exacta y, por 10 tanto, existira un residuo. La presencia 0 ausencia de residuo se puede usar para determinar si ha ocurrido alglin error. Se debe observar que si E(x)=q(x). g(x) entonces dividira a R(x) en forma exacta y el error no podra ser detectado. Esto no debe preocupar puesto que: R{x) = P{x). g{x) +q{x). g(x) = Sex). g{x)

Corresponde a una secuencia de palabras de c6digos permisible, y el decodificador debe asumirlo como tal. EI circuito de la figura 3.4 sirve para dividir un polinomio: R(x)=rO+rl.x + ... +r(n -1).x Par un polinomio

G(x) =gO + gl. x

+... +g(n -k). x

SISTEMAS CONTINUOS DE INFORMACION

En la divisi6n los contenidos de registro inidalmente se ponen en cero y los dfgitos r(n-I), .", rl son desplazados dentro del registro en el orden en que son recibidos. Despues de un total de n-I desplazamientos, el contenido de los registros es igual al residuo despues de dividir R(x) por g(x). Ademas de las aproximaciones algebraicas para la codificaci6n, y aspectos importantes que se mencionaron anteriormente, la aproximaci6n probabiIfstica tambien ha sido investigada y tiene la promesa de ser un metodo econ6mico para la transmisi6n de la informaci6n con una pequena probabilidad de error, en rangos cercanos a la capacidad del canal.

-g n-Ic-1

Secuencia de entrada (rO,r1 rn-1)

(n-k) Elementos de almacenamiento

Figura 3.4 Circuito para dividir el polinomio R(X)=&,+glOX+ ... +hn'lOxn-l Entre el polinomio g(X)=&,+glOX+ ... +gn-JcOxn-k

87

UNIDADIV

,

TRANSMISION DE DATOS DIGITALES

Cuando la informaci6n es transmitida digital mente, el ancho de banda es especificado en bits por segundo (0 capacidad de transmisi6n), y existe una relaci6n directa con el ancho de banda analogo; enseguida se analizara la respuesta en frecuencia de los pulsos digitales. Se tiene, idealmente, que, el filo de un pulso es perfectamente perpendicular con altura infinita y el tope (duraci6n del pulso) de transmisi6n con un ancho de banda infinito para transmitir informacion digital en forma. Por supuesto, esto no es necesario, debido a que los pulsos no necesitan ser perfectamente rectangulares cuando llegan al receptor. La cuesti6n es que los pulsos sean detectados como unos y ceros. En la figura 4.1 se observa un tren de pulsos representando informaci6n digital, y el espectro de frecuencia de un tren de pulsos peri6dicos se muestra como un tren de componentes de frecuencia, y proporciona una idea de por que se requiere el ancho de banda en Hertz para transmisi6n. EI espacio entre los componentes de frecuencia es.siempre igual para la frecuencia fundamental del tren de pulsos fa = 1/ T Yla amplitud es siempre cero en la frecuencia, donde tp es la duraci6n del pulso. RAZON DE ERROR DE BIT (BER)

Mediante el envio de un patr6n de bits conocido y contando el numero de bits recibidos incorrectamente en el receptor, se puede medir la calidad de la conexi6n, el parametro de calidad de la red digital es la raz6n de error de bit (ber, bit error ratio) expresado como el promedio de bits recibidos incorrectamente al numero total de bits transmitidos. En una transmisi6n de voz sobre una conexi6n digital de 64Kb/s, la raz6n de error es de 10-6 0 menos en un tiempo arbitrario, Y' no hay degradaci6n de la calidad. Si es 10-5 la calidad para voz es legible y si es 10-4 se tiene disturbio considerable, y con una raz6n de error de 10-3 la degradaci6n de la calidad es severa. Para otros servicios, una raz6n de error de bit aceptable son, para datos de 108 7 -10- , telex: 10-4, fax 10-5.10-6, videophone 10.6 -10-7 Ycorreo electr6nico 10-5-10-6 • 91

TEOR1A DE LA INFORMACION Y ENCRlPl'AMIENTO DE DATOS

92 A (volts)

tp

:0 n n

tp = duraci6n del pulso (1 ms) T = periodo (5 ms)

»

A (volts)

T

t (ms)

Amplitud = 0 cuando f = 1/tp

1

L...-----'-_--'-_~~~~~~~~~~~~~~~~

o

200 400

fO

f(Hz)

1 =lIT Figura 4.1 Un tren de pulsos y su espectro de frecuencia.

En la practica, los errores de bit ocurren normalmente en Ubursts". EI I1U-T, recomendaci6n G-821 define los siguientes panimetros para conexi6n de 64 KbJs entre 2 suscriptores. • Degradaci6n por minuto (OM) menos de 100/0, en un intervalo de un minuto se tiene un BER de 1X10-6 0 peor. • Errores por segundo (ES) menos de un BOA> de un numero, en un intervalo de un segundo se tienen bits alterados. • Errores por segundo severos (SES) menos de 0.2% de un mlmero, en un intervalo de un segundo. Tienen un BER de 1X10-3 0 peor. DISTORSION DE CUANTIZACION

Antes de que la red de telecomunicaciones se digitalice completamente, esta tiene en sus principios, una mezcla de equipo analogo a digital; cada transici6n de equipo anal6gico a digital involucra una cuantizaci6n, esta proporciona una derta distorsi6n de la curva de la voz, por tener un derto mlmero limitado de intervalos de cuantificaci6n usados para describir la informaci6n. La unidad utilizada para medir la distorsi6n de cuantizaci6n es el qd (quantizing distortion) en una conexi6n. Un qd es igual a la distorsi6n producida por una conversi6n A/D. EllTU-T recomienda un maximo de 14 qd en trafico intemacional, y el objetivo es que no se exceda de 5qd en redes parciales, y cuando las redes sean completamente digitalizadas 7qd sera el valor permisible en interfaces intemadonales.

TRANSMISION DE DATOS DlCITALES

93

Senal digital

Ruido

Senal digital mas ruido /

Senal digital en el receptor

o

o

o

Bit err6neo

0

0

Figura 4.2 Transmisi6n de datos digitaies mas ruido.

RUIDO

El ruido es la causa predominante de errores en los bits en conexiones digitales. A los datos digitales transmitidos se les agrega el ruido, yel resultado es una sefial mal interpretada en el receptor. Por medio del espectro de frecuencias se distingue dos tipos de ruido: ruido blanco y ruido 1If. EI ruido blanco se caracteriza porque la potencia es constante para todas las frecuencias, al contrario del ruido 11/ donde la potencia es mas grande a bajas fre-' cuencias y decrece al aumentar la frecuenda. Se tiene ademas, el ruido termico que ocurre porque las cargas electricas estan en constante movimiento, y este es mas fuerte cuando se incrementa la temperatura, y en el cero absoluto no habria este movimiento. Este ruido causa variaciones aleatorias en el voltaje, por ejemplo, de un resistor, ademas de que se tiene un incremento del ancho de banda. El ruido de disparo ocurre en semiconductores y es causado por los portadores de cargas individuales (huecos 0 electrones) que provo can la corriente electrica, para semiconductores (diodos, transistores), se realiza la suposici6n de que se tienen corrientes constantes. En un transistor bipolar, la corriente es distribuida en la base de modo aleatorio, y la misma distribuci6n tambien OCUITe en el electrodo compuerta de un FET, este tipo de ruido es Hamado ruido de partici6n.

TEoRfA

94

DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

Eco EI ecp en sistemas digitales en forma semejant,e a la transmision analogica, degrada la informacion cuando se tienen retardos de tiempo grandes. JITIER

Los sistemas de transmisi6n pueden causar constantemente cambios de fase llamados Jitter, este es especificado por la desviaci6n de fase en el tiempo (grados 0 interval os de unidad, UI) y como frecuencia, 0 como el numero de cambios de fase por segundo. Es medido por medio de una senal de prueba enviada a traves de la conexion para investigar los cambios de fase en el receptor. Las conexiones de datos que utilizan PSK son sensitivas al Jitter, y este ocurre en sistemas analogos y digitales; tambien sucede cuando se tiene la transmision desde una alta razon de bits multiplexados a una razon de bit mas baja (figura 4.3).

Figura 4.3 Generacion de Jitter.

SCRAMBLING Cambiar la senal bit a bit de acuerdo a una secuencia repetitiva separada. En la figura 4.4 produce Scrambling. Se muestran los pasos en la secuencia de c6mo manejar los bits en la senal antes de ser codificados, en cada paso, un cero cualquiera significa uguardar el valor", 0 un uno significa lIinvertir el valor". El codigo Inversion de DfgitosAltemados (ADI), es una forma de Scrambling, la secuencia repetitiva separada es: (0,1), que significa lIinvertir cada segundo bit". Las secuendas de diferentes algoritmos de Scrambling, son diferentes en longitud (Ia longitud normal son dentos de pasos).

'fRANSMISION DE DATOS DIGITALES

Para el diserio, el Scrambler consiste de un registro de corrimiento retroalimentado yes descrito por medio de un polinomio, por ejemplo, el Scrambler para una serial SDH de 155 Mbits/s, utiliza un polinomio de x7+x6+1.

Senal sin Scrambling Secuencia - - - - t I repetitiva

Senal con Scrambling Figura 4.4 Scramling.

El receptor hace uso de la misma secuencia de Scrambling, para decodificar la serial empleada por el transmisor, teniendo ambas sincronizadas para obtener una decodificaci6n. Se evita con el Scrambling grandes series de unos y cer~s, y garantiza 10 mismo que el c6digo HD83 y no se afecta el ancho de banda, tambien la raz6n de bit es la misma antes y despues del Scrambling.

p.-~~~---~----~----~----~----~---~-Figura 4.5 Scrambling de acuerdo al polinomio X7+X'+ 1.

TRANSMISI6N DIGITAL DE INFORMACION La modulaci6n hace posible la transmisi6n de informaci6n en forma binaria (1,0) sobre portadoras anal6gicas, en este proceso un bit 0 grupo de bits pueden ser trasladados en rapidos cambios de estado, tal como la amplitud 0 corrimiento de fase, estos metodos bcisicos de modulaci6n son: ASK- Amplitude-Shift ESK- Frecuency- Shift Keying PSK- Phase shift Keying En el caso de transmitir informaci6n anal6gica, los cambios se efectuan continuamente (transmisiones suaves).

95

96

ThORIA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

Para AM de doble banda lateral sin portadora y con portadora de potencia se muestran en la figura 4.6, las fonnas de realizar diferentes modulaciones anal6gicas.

Sefial modulante de infonnaci6n limitada a fm Hertz

0

de banda base

Sefial portadora de frecuencia fe»fm

Sefial de AM de OBL -

PP

con B=2fm

Sefial de AM de OBL -

PP

con B=2fm

Sefial de frecuencia modulada FM con ancho de banda B= 2ACll+4Cllm ACll = desviaci6n de frecuencia a partir de la frecuencia portadora. Cll m = frecuencia de la seiial de informacion en rsd/s.

Figura 4.6 Tipos de modulaci6n ana16gica.

'ThANSMISION DE DATOS Olen-ALES

97

AI transmitir informaci6n digital sobre portadoras anal6gicas, el prop6sito es transmitir la mayor cantidad de bits por Hertz como sea posible, en la figura 4.7 se presentan las diferentes formas de realizar este proceso. 1

o

o

o

o

n 1

0

1. 1

ASK

APS =Absolute

phase fhift

CPS =Differential phase shift

Figura 4.7 Informacion digital sobre portadoras analogicas.

En PSK, la fase es cambiada diferencialmente de aruerdo a una fase previa, +90· para 0 y +270· para 1 0 absolutamente, donde cada estado de modulaci6n es representado por una fase especifica, O· para 0 y + 180· para 1, las variaciones diferenciales permiten equipo de modulaci6n menos complicado. Una variante de modulaci6n en amplitud para tibra 6ptica, es ruando se tiene un 1 con luz ON, (amplitud completa) 0 un 0 con luz OFF (sin amplitud), figura 4.8.

NitWJMk·············· . ······WM-1 o o o

Figura 4.8 Transmisi6n binaria en fibra 6ptica.

ThORtA DE LA INFORMACION Y ENCRlJ7I'AMIENfO DE DATOS

98

COMBINACIONES DE MODULACIONES

En sistemas de telefonia m6vil, se utilizan mezclas de modulaci6n digital, al combinar ASK Y PSK se obtiene la Hamada Quadrature Amplitude Modulation (QAM) que permite mas bits por Hertz que otros metodos. En la figura 4.9 se presenta QAM con 16 estados de modulaci6n, con 8 estados de PSK Y 8 de ASK. 90·

Estados de amplitud - -.......

Figura 4.9 Modulacion de amplitud en cuadratura. Los modems

QAM

se utilizan para conexiones en radio enlaces y para lineas

telef6nicas anal6gicas, para modems con 19.2 Kb/s y 256 estados de modulaci6n, se tiene que 19.200/8=2400 bauds y la "densidad de informaci6n" es

19200 =6.2bit / Hz. 3400-300

RAZON DE MODUlACION

La raz6n de modulaci6n especifica el numero de posibles cambios de estado por unidad de tiempo, la unidad baud es usada para raz6n de modulaci6n. Si se utiliza un metodo de modulaci6n que comprende cuatro diferentes estados, cada estado puede representar una combinaci6n de 2 bits, cubriendo todas las combinaciones (00,01,10,11) vease figura 4.10. Debido a que cada cambio de estado representa 2 bits, el valor de baud es la mitad del valor de bits/s, luego para 1200 bauds, se tiene que equivale a la raz6n de bit de 2400 bits/so En modems de 2400 bits/s se utilizan cuatro diferentes estados de corrimiento de fase, la frecuencia de portadora es de 1800 Hz.

TRANSMISION DE DATOS DlGITALES

99

Para 16 diferentes estados de modulaci6n, 0 4 bits por estado, y con la misma raz6n de bit de 2400 bits/s, la raz6n de modulaci6n es de 600 bauds.

-+

t

t t t

t

+45° +135° +225° +315° 00 01 11 10

Figura 4.10 Sefial con cuatro estados por corrimiento de fase. La raz6n de bit (e1 ancho de banda digital) estci especificada por la unidad bits/s, el m.1mero de unos y ceros transmitidos por segundo, incluyendo los pulsos redundantes para detec1ar errores. TRANSMISI6N EN BANDA BASE

Cuando se envfa informaci6n codificada en Hneas ffsicas sin modulaci6n se llama transmisi6n en banda base, se utiliza por ejemplo en lAN, enlaces publicos de PCM. Las dos tecnicas de transmisi6n que hacen mejor uso del cobre son ADSL y HOSL. (High Bit Rate Digital Suscriber Line) Esta tecnica permite PCM de 2 Mbits/s, la principal ventaja es la distancia, la cual es de 1.5Km a 4Km aproximadamente (cobre con diametro de 0.5mm) reduciendose la necesidad de regeneracian, costos de operaci6n y mantenimiento. HOSL esta basada en dos metodos para reducir el ancho de banda de la senal, mediante divisi6n de la transmisian en diferentes pares de alambres con full-duplex en cada par y mediante el uso de Hneas codificadas que mueven la distribuci6n espectral de la senal de informaci6n hacia frecuencias mas bajas. HDSL

ADSL

Para una conexian simetrica, la capacidad de transmisi6n es la misma en ambas direcciones, PCM y HPSL son simetricas. Asymmetrical Digital Suscriber Line (AOSL) es asimetrica, 10 que significa que la capacidad de transmisi6n es mayor en una direcci6n que en la otra, permitiendo la transmisi6n de video sobre Hneas telef6nicas tradicionales, adem as de que el ancho de banda es mas eficiente para servicios interactivos que no requieren la misma capacidad en ambas direcciones.

ThORIA

100

DE LA INFORMACION Y ENCRIPJ'AMIENTO DE DATOS

SENALES, ESPECfROS Y FILTROS

Debido a que los conceptos de frecuenda se utilizan ampliamente en las telecomunicadones, se revisaran los espectros de frecuenda para diferentes senales peri6dicas y aperi6dicas mediante el analisis de series de Fourier y Transformada de Fourier. Pulsos peri6dicos y su respectivo espectro.

en A«T

1•

A

-T

!lID

I~

21t

T

-A/2 0 A/2

Cn=AA~ 1 1 ID.A/2 IDn

"-

cruce pc cera

Figura 4.11 Seiial del tiempo y su espectro.

Para una serie de Fourier que describe a una senal f(t) peri6dica del tiempo, con periodo T se tiene la siguiente expresi6n: a

2

~

I

2

2

o !(t)=-+LJ'\}a n +b n (cos(COnt +q,n)) T T n=1 n '" _ donde 'l'n -tg -1 -ban Y Cn =a n -JOb n =~a n2 +b n2eJ~1\ 0

o bien

la separacion entre componentes de frecuenda es:

Aco

=co n+ 1 -

co n

21& =21& -T~'n +1) - 21m - T =-T

EI ancho de banda para los pulsos peri6dicos. Si se especifica como la banda de frecuenda que va desde la frecuencia cero hasta el primer cruce por cero. 1 B=-

it

it«T

1'RANSMISI6N DE DATOS D1GITALES

101

la potencia de senales peri6dicas es: 1 P =-

fo I/(t)1 T T

2

dt =

en l: -

2

n=-1 T 1

La potencia promedio se obtiene sumando la contribuci6n de potencia de todas las frecuencias, y para los pulsos rectangulares de la figura 4.11, se tiene.

IMPULSOS PERI6DICOS UNITARIOS

Para los pulsos rectangulares, si se hace que el ancho del pulso A tienda a cero y la amplitud tienda a 00, se obtienen funciones impulsos de area unitaria, ancho cero y altura infinita. Si el area AA tiene el valor k para un impulso de area unitaria y centrada en t = A es K8(t - A), yel Nancho de banda" tiende a infinito, debido a que A~O, su ancho de banda

I1 ~oo 8('t + T)

~'+2n I 2T

~'t)

8('t - T)

8('t -2T)

II I I. -T

0

T

2T

t

uIItlnl 2n: 0 2"

-y-

T

Figura 4.12 Impulsos peri6dicos y su espectro de frecuencia.

INTEGRAL DE FOURIER

Las senales peri6dicas no llevan informaci6n, aunque se utilizan para pruebas en sistemas de comunicaci6n, en la practica, se hace una apcoximaci6n mas adecuada al utilizar senales aperi6dicas en el tiempo. Para obtener la representaci6n en el dominic de la frecuenda se hace que para una senal peri6dica el periodo sea mayor, y en ellimite, se obtiene la integral de Fourier.

ThoRIA DE LA

102

INFORMACION Y ENCRlIYfAMIENTO DE DATOS

1 f(t) = 2 n J':-KF(lO)eJlIJtdlO

F(lO) = I:aJ(t)e-jllJtdt

Transformada inversa de Fourier

Transformada directa de Fourier

F(co) es en general una funci6n compleja de co y se denota como sigue:

EI espectro de frecuencia de las senales aperi6dicas es un espectro continuo, a diferencia de las periodicas que tienen un espectro de lineas, a continuaci6n se muestran funciones tipicas y su espectro. ~ f(t) E

TOT

-"2

"2 Figura 4.13 Pulso rectangular y su espectro.

Para f(t) se tiene 10 siguiente.

J(t) =

[viti

B

Gno (!) =IH(ro)1 Gn(!) =(4)~ 2

31r

9/2n

(2

a

lr

J

+[2

128

ThomA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

=J~Gno(ndf = I~BGno(ndf

N no

B

=4(a/2n)

3n

1 a

-1

2n

.IN

NO

f

;tg

a 2n

-B

= ~0.667 =0.82 volts

FILTROS ADAPfIVOS

En las comunicaciones digitales de banda base se tiene ruido blanco agregado a la secuencia de pulsos binarios (figura 4.38) de forma conocida a la entrada del receptor, con la suma compuesta pasando por un filtro lineal; a continuaci6n se hace un muestreo y se toma la decisi6n para el nivel del pulso del detector. EI disefio del filtro previo a la deteccion debeni maximizar la relacion A/p = A/ -J2 ala salida de este.

DOD +

~J,I1(y1i,"P" ~

d , ri ri I

Inf + RUldo

a"i"V~

Figura 4.37

d, "d;'w"V rilr'J'" Inf+ RUldo

! !

hOD Figura 4.38

ThANSMISION DE DATOS DlGITALES

Los resultados del analisis siguiente, se aplican tanto para senal de banda base como para transmisi6n digital con portadorai por otro lado, la forma de los pulsos no tiene que ser completamente rectangular, 10 que interesa es reconocer una senal pulsante en presencia de ruido, enseguida se obtendra la funci6n de transferencia H(w). Se tiene 10 siguiente: A: amplitud de la informacion. N: la potencia del ruido. E: energia de la informaci6n. A 2 relaci6n de potencia de la senal a potencia del ruido

N

E = constante KA2 A2 --=N NE

1

K=-

E

si A 2 es maxima ~ la probabilidad de error es minima, y la NE

pe=Kl- fer 2;~J C1

=-IN

El filtro tiene una funci6n de transferencia H(m) Sew) es la salida del filtro, y se obtiene para el dominio del tiempc

F(OJ_)_~)I H(aJ)

I _S~)(OJ) t-

Figura 4.39

S(ro) =F(ro )H(ro)

J

S(t) = ..!-. ::F(m )H(ro )e jrut dro 211: dm =2m1f

129

130 ________________________________________________ __ TEORfA DE LA INFORMACION Y ENCRIPrAMIENTO DE DATOS

S(/)

10

1

Figura 4.40

ISet ~ ,=to = A = II:'P(m)H(m )ei• dfl N= I:'Gn(f)df

K

I

Gn(!) ruido blanco

x_"o 2

Figura 4.41 Densidad espedfica de ruido blanco.

N=I:'~df Tenemos Gn(f) a 1a entrada e interesa Gno(f) a la salida.

N = I.:IH(m~2Gn(f)df =n; I':IH(co~2df Tenemos la energfa de la senal como: 2

E= I:'f2 (t)dt= f:'IF(co)1 df

II:.IF(CO)H(co)ej·d~12

A2 _

2

2

EN 110 I:.IH( co)1 df I.:IF( ro)1 df 2

TRANSMISION DE DATOS DIGITALES

131

Desigualdad de Shwartz

ocurre que A 2 es maxima cuando se cumple la igualdad. Y si el numeraEN

dor es igual al denominador, luego de la demostraci6n de la desigualdad se tiene:

no A2 =1 2 EN

la igualdad sucede cuando: H(ro) = KF • (m ) (e iwto ). H(ro) = KF • (m )e-JUo

El filtro s610 reconoce la forma de la seiial de entrada, y los filtros que tienen la caracteristica de la ecuaci6n anterior se conocen como filtros adaptados o acoplados. La relaci6n seiial a ruido es una funci6n de la energia de la seiial y de la densidad espectral del ruido blanco, y si se tienen dos senales diferentes en la entrada del filtro adaptado, pueden proporcionar la misma probabilidad de error en presencia de ruido blanco aditivo, siendo la energfa de la seiial la que proporciona la capacidad de detecci6n del filtro en presencia de ruido. Ejemplo 5: Un pulso rectangular de amplitud V volts y ancho T segundos se aplica a un filtro adaptado, demuestre que la salida es un pulso de forma triangular y el valor maximo de este pulso. V.~

Demostrar que la salida debe sar

.. T _ _ _ _- - I_ _ _ _. . ~

o

Z

T Su valor Vp y N

Figura 4.42 Seiiai rectangular a travc!s de un filtro adaptado.

ThoRfA DE lA INFORMACION Y ENCRlfYfAMIENTO DE DATOS

132

Demostraci6n:

H(ro) = KF • (ro )e -}OJto

Figura 4.43 Transformada del pulso rectangular.

Del teorema de corrimiento en tiempo se tiene 10 siguiente:

J(t - T /2) = F(ro)e -j{J)T/2 =

VLS{m; }

-JUff /2

Tomando el conjugado, se tiene la expresi6n para el fiItro adaptado:

TI

H(m) = KVTSalm 2 eil»T/2e-j", si la entrada es Ff{J).) \: = v.T S{ro2T }-j{J)t/2

S(ro) = F(ro )H(ro)

Y la salida es

vr s{a:}~JI»T =K(vr)2sa1m;}-i", S(m) =

/2 • KVTS{m; } -JI»T /

2

ei'"

La transformada inversa es una forma de pulso triangular desplazado un tiempo, de amplitud. Verificar que la transformada inversa es un pulso triangular.

TRANSMISl6N DE DATOS DIGITALES

133

Figura 4.44 Pulso triangular. RUIDO DE BANDA ANGOSTA

En la transmisi6n de senales binarias con portadoras anal6gicas, se debe tener un criterio para seleccionar un tipo en particular, asi como el metodo de detecci6n en particular, ya sea en forma sincrona 0 por detecci6n de envolvente. En el caso de sistemas PSK con detecci6n sincrona ofrece mejoras en la relaci6n senal a ruido y una probabilidad de error menor que los demas metodos, y se prefiere siempre y cuando se mantenga la coherencia de fase. Cuando se utiliza detecci6n de envolvente, el metodo recomendado es FSK sobre a OOK aunque los circuitos sean complejos, aqui la coherencia de fase no es posible. En la detecci6n de FM y AM la relaci6n senal a ruido que presenta PM es superior a AM, a continuaci6n se analiza la representaci6n de banda angosta del ruido, considerando el ruido net) en la salida de un filtro de banda angosta 0 estrecha, y si Gn( f) es la densidad espectral centrada alrededor de fo y ancho de banda 2B«fO, el ruido oscilara alrededor de la frecuencia fO como se muestra en la figura 4.45.

~FIRro ~I~~ RU~r--p-a-sa-b-an-d-a"'~d:

AMyEM Aleatorios

/.

Blanco

banda angosta

Figura 4.45 Obtenci6n de ruido de banda angosta, y si la senal contiene dos bandas laterales se tiene senal de AM.

TEaRfA DE lA INFORMACION Y ENCRIPrAMIENTO

134

DB DATOS

Para una seftal de AM se tiene la conocida expresi6n siguiente:

----coswot

enllOlwnr. portadora llewl.la .inf armtU:i6n

=g(t)

Por analogfa se tiene ahora una envolvente aleatoria ret), con ponadora aleatoria cost/)(t) y se tiene =r(t)cost/)(t)

net) ~

Ruido.de .banda .angosta

donde t/)(t) es una fase aleatoria

+

(Oct ~

B(t)

~

otra ./tISIIAleatoria

no .aleatoria

(del er min istit:o)

net) =r(t)cos[Wct +8(t)], ., .. Ruido.de .l7dnda .angosta

00

n(t) = I,

cos ~+

at .....,

-amplituda aleatorias

~

t+

g},

IIdriaci6n

lIaritJciones

aleat0ri4 de frecuencia

aleatorias

dejase

Filtro pasabanda ruldo blanco

_

GnUO±JA/)

On,(/)

J/\ f J/\ " 10

I~

J/\fiK 10

10

•1

Figura 4.46 Densidad especttal del ruido.

Figura 4.47 EquivaIente discreto de la densidad espectral del ruido.

TRANSMISION DE DATOS DICrrALES

135

N = I:'Gn(f)df Potencia de ruido total Se tiene que N = 2 I;cn(f)df y para el espearo discreto se tienei N =2

N = -1

T

= !T

IGn Cf

0

'=0

+ lf4,l~f

;.

I: {,...1:-_ a, cos[(w +IAco)t+8,l}2 dt. e

Ie:- {,__ f a 2 1cos2 [( ClJet -IAru)t + 81] + 1: dobles.producros}dt.

Se tiene que todos los dobles productos son cero, debido a que dos cosenos de diferentes frecuencias son onogonales y por 10 tanto igual a cero.

I cOSQ)t t cOSQ).pIt =0 y tambien cos2

=!.2 + !.2'--y---' (cos 2l)

Y s610 queda la integraci6n de

!2 al

1 -

N=-

.. l:al , =2l:Gn(fo+IL1f)~f ,.._

2,=_

a2 1= 4Gn(fo+lAf)l!J

al = .J4Gn(fo + lAf)~f Gn(tJ .•. (es medibleJ

n(t) = ~a, cos[(COO + IAco)t+9,] cos[(mO+IAco) t+9,l = cos[coot+(IAa.+8,)] =

~ cos~IAea. +9,~ -~ tse{!Aar. +9,,] alta.free

baja.free

alta.free

baja.free

haciendo la analogla siguiente:

n (t) =x(t) COS co ot - y(t) sin Q) ot

ThoRIA DE LA INFORMACION Y ENCRIPTAMIENfO DE DATOS

136

donde

-

X(t) = La, cos~Awt + 9,) I=-

yet) =

fa, sin~Awt +9,) 1=-

x(t) yy(t) son tt~rminos de baja frecuencia. bajaf~

T

aJtafrec

y(1) x(t) 9(t) = tan-) y(t) x(t) Figura 4.48 Sefial de AM.

El modelo de ruido de banda angosta sirve para cualquier m6dem, ya sea de FSK, ASK Y PSK.

DETECCION DE SENALES BINARIAS

Con la representaci6n de ruido de banda angosta se compara la relaci6n SIN de Y OOK, Y se tienen los siguientes metodos: 1) Detecci6n sincrona (coherente). 2) Detecci6n de envolvente (asincrona-incoherente). Para senales ASK, OOK YPSK se utiliza detecci6n sincrona como se observa en la figura 4.49.

ASK, PSK

n (t) = x(t) COSlO ot - y(t) sin lO ot

vet) = f(t)coslOot +n(t) = f(t)coswot + x(t)coslOot - y(t) sin lOot = [f(t) + x(t)] coscoot - y(t)sinwot "

\Ii

IN/+RUlDO

'

'ThANSMISION DE DATOS DlGITALES

137

Filtro P. B

COSaJo

/(/)

t

Figura 4.49 Detecci6n sincrona

Filtro pasa-banda adaptativo. Figura 4.50 Detecci6n sincrona de ESK. Vl

(t) = v(t)coswot 2

= [/(t) +x(t)] cos wot

+ y(t)sinwot coswot

=~ [J(t) + x(t)] + ~[f(t) + x(t) Para un voltaje de

ASK

A

Vo (t) =! [/(t) + x(t)] = • + x(t)

!(l -fer~) 2

2..J2a

Para seiiales PepsK

PSK

=Kl- for J2a)

ASK

,----l

Bl.--

B

La probabilidad de error de

Pe =

~y(t)Sin2wot]

se tiene A= 1 Y B =0

A 2

] cos2wot - [

es:

Figura 4.51 Pulso para ASK.

TEoRfA DE LA INFORMACION Y ENCRlfFfAMIENTO DE DATOS

138 Para FSK

Se suman y restan las varianzas de ruido

d (varianza) Figura 4.52 Detecd6n de FSK.

PepSK =!(l- ter-A_J 2

=ll-

2

for

2.J2a

4~]

Ejemplo 6: Se tiene que, demuestre 10 siguiente, y bosqueje ambas. Obteniendo la transformada de Rn(T)

F[Rn(T)] = Gn(f) = F[N cosmo T] tenemos que:

s{cosmo T} = n{6(co +mo) +6(m -coo)} y con el Teorema de la modulaci6n

f(t)coswot H

1 -

2

[F(w +coo) + F(CO -coo)] =.......................1

y la transformada de una constante es: f(t)=N SeN) = 21lN6(co) = N6(f) luego se tiene que; 1.....•... =! [F(f + fo) + F(f - fo)] 2

TRANSMISION DE DATOS DICrrALES

N

S[NcosmoT] =-[8{1 + 10}+6{1 + lo}] 2 y graficamente a Rn(T) en la figura 4.53.

Rn(T)

N cos OJoT

T

Figura 4.53 Grtfica de Rn(T). Ejemplo 7: Para una seiial aleatoria dada 8(t) =A cos(mot + 6), siendo 9 una variable unifonnemente distribuida, demuestre que: E[6(t)S(t + T)] = A 2 cosmo T ruando se promedia sobre la variable aleatoria 9. 2 B[8(t)cS(t+ 71] = B{AcOS(COot + 8)Acos(mo(t + 71+8)}

A2

J: [cos( 2(

A2

J: cos[ 2(mot + 8) + mo T]dt + 2T J: cos COoT J: dt

= 2T = 2T

mot + 8) + COoT) + cos COo T]dt A2

B

139

TEORfA DE LA INFORMACION Y ENCRIPfAMIENTO DE DATOS

140

A2 . ,[2n1r =B + 2"" COSWO T ... donde.. K = cte =28 + 2wO T ... y..se..tlene... 2w 0 =1T J' =4n

A21

A2

A2

B = - cos[2w ot +K]dt =--sen[2w ot +K] -senK=--(senK -senK )=0 2T 0 4Two .. 4Two

UNIDADV

ENCRIPTAMIENTO DE DATOS

Las intitudones finanderas, en la epoca de la computad6n no escaparon al uso de este instrumento, e inevitablemente con ella el mal uso de las computadoras tambien triunf6. EI problema era que, con conodmientos elementales y una terminal de computadora, cualquier usuario podia transferir fondos a su propia cuenta, utilizar la tarjeta de alguien mas, u obtener dinero de un cajero auto matico. International Bussines Machine (IBM) comprendi6 esta situad6n rapidamente y, a finales de los anos sesenta, prepar6 un gropo de investigad6n para desarrollar un c6digo de dfrado conveniente para proteger datos. Los trabajos arrojaron como resultados en 1971, eillamado c6digo Lucifer, mismo que fue vendido a lloyds de Londres para un sistema dispensador de efectivo. LUCIFER

Lucifer tuvo &ito pero tenia algonas debilidades. IBM invirti6 aproximadamente tres aiios para refinarlo y fortalecerlo. EI c6digo se analiz6 much as veces por expertos en criptologia y resisti6 los sofisticados ataques dptoanalfticos. En 1974 estuvo listo para comerdalizarse. AI mismo tiempo, el National Bureau Standars (NBS) responsable desde 1965 de las nonnas, en vias de desarrollo, para la compra de equipo computacional por el gobiemo federal estadounidense, comenz6 un estudio sabre seguridad informatica. EI NBS vio la necesidad de crear un metoda de encriptado, y solicit6 un algoritmo de encriptamiento conveniente para el almacenamiento y transmisi6n de datos clasificados. En respuesta a esta solicitud, IBM propuso su ci/radoT Lucifer. Este cifrador consisti6 en un algoritmo sumamente complejo incluido en una estructura de IC. Bcisicamente, la clave 0 llave del dfrador entra en una serle de ocho bloques ·5", formulas matematicas complejas que encriptan y desencriptan datos con la clave apropiada. EI cifrador Lucifer inidal tema una clave de 128 bits, antes de que se presentara el cifrador a NBS, IBM 10 acort6 quitando mas de la mitad de la clave.

143

144

ThoRIA DE LA INFORMACION Y ENCRlPI'AMIENTO DE DATOS

PARTICIPACION DE NSA

Por su parte la Agencia de Seguridad Nacional (NSA) habia mostrado un marcado interes en el proyecto Lucifer; por 10 que prest6 ayuda a IBM en el proceso de desarrollo de las estructuras de bloques "s ~ Durante aiios, la NSA dependi6, en cuanto a comunicaciones se refiere de los datos internacionales como los relacionados con Medio Oriente para las transacciones de petr61eo, mensajes; las actividades comerciales de America Latina, Europa y el este lejano; asi como los vinculados al ejercito e inteligencia diplomaticos. Con ella logr6 obtener mucha informaci6n sobre los paises comunistas y no-comunistas. Ahora, el desarrollo de un dispositivo de encriptado de datos barato, muy seguro, amenaz6 causar un problema serio a la NSA; investigadores externos podian hacer encriptado con los metodos de la NSA. Las reuniones entre la NSA e IBM produjo un acuerdo por el cual IBM reducia su clave de 128 bits a 56 bits y clasificaba ciertos detalles sobre la selecci6n de los ocho bloques "s" para el cifrador. EI NBS entreg6 este cifrador a la NSA para su analisis. Esta certific6 el algoritmo como libre de cualquier debilidad matematica 0 estadistica y 10 recomend6 como el mejor candidato para el estandar de encriptado de datos nacionales (Data Encryption Standard DES). La sugerencia de nuevo se critic6. lEra el cifrador 10 suficientemente grande para impedirles a los indiscretos corporativos penetrarlo 0 muy corto para que la NSA rompiera el c6digo nipidamente? La agencia se ocup6, vanamente, con las criticas de los bloques US", y por consiguiente insisti6 que ciertos detalles fueran clasificados. La raz6n citada para ella era simple: los DES podrian estar disponibles comercialmente permitiendo el uso extranjero de un cifrador irrompible. Las debilidades encontradas en el cifrador permitian a la Agencia penetrar cada canal y banco de datos usando el DES. Los violadores de c6digo de la NSA quisieron estar seguros de que esta podria romper el cifrador. Como resultado de la situaci6n se alcanz6 un compromiso burocratico. La parte del bloque "s" del cifrador se fortaleci6, y la clave, que era dependiente de los usuarios de c6digo, se debilit6. Sin embargo, los expertos en computaci6n defendieron la posici6n de que sena posible construir una computadora que usara un mi1l6n de especiales "chips de busqueda" que podria probar un mi1l6n de posibles soluciones por segundo; por consiguiente, en 72,000 segundos (20 horas) todas las posibles combinadones podrian probarse. Habria un 500/0 de probabilidad de que en 10 horas de ensayo-tiempo romperian el c6digo (con 56 bits, hay 2 56 combinaciones). Semejante computadora costaria alrededor de 20 millones de d6lares y, prorrateando a mas de cinco aiios, esto significaria aproximadamente 10,000 d61ares por dfa. Si se utilizara cada 24 horas, cada c6digo promediaria cerca de 5,000 d6lares para romperlo. Cuando la tecnologia derrumb6 los costos, estas figuras podrian ser divididas con un factor de 10 0 100.

ENCRIPTAMIENI'O DE DATOS

EL LUCIFER ORIGINAL

i,Y si la clave de 128 bits del Lucifer original se hubiera sometido a consideraci6n? Ahora hay 2 128 soluciones que es igual a 34.03x1037 • Este mlmero es astron6mico e incomprensible para la mayona de las personas. Si pudieran probarse un bi1l6n de soluciones por segundo, tomaria 34x1025 segundos, no mas, 0 alrededor de 1.08 x 10 19 anos. Este es un tiempo bastante largo. EI universo conocido existe aproximadamente 2.6 x10 JO (26 billones) afios. Por consiguiente, el c6digo Lucifer de IBM, al presente, probablemente es irrompible. DES

EllS de junio de 1977, el DES sevolvi6 el cifrador oficial del gobiemo norteamericano; en la actualidad se utiliza ampliamente, y uno de los usuarios principales es HBO con su sistema de VideoCipher II. Con aumentos en las velocidades de la computadora, nuevas tecnologfas, y costos mas bajos, la seguridad del cifrador desaparecera lentamente. Algunas autoridades Ie dan cinco afios 0 diez. El advenimiento del Video Cipher II enfoc6 mas aun la atenci6n en el DES y mas pronto 0 mas tarde sera derrotado; mientras tanto, los nuevos metodos de Scrambling reemplazaran probablemente al Video Cipher II. EXTRACfOS DEL DES

Los DES espedfican un algoritmo para ser implementado en dispositivos de hardware electr6nico y usado para la protecci6n criptografica de datos de la computadora. Las publicaciones acerca de esta norma mantienen una descripcion completa de un algoritmo matematico, el encriptado (enciphering) y desencriptado (deciphering) de informacion codificada en binario. Los datos encriptados se convierten a una ininteligible forma Hamada un cifrador. Desencriptar un cifrador convierte los datos otra vez a su forma original. El algoritmo descrito en esta norma especifica ambas operaciones: cifrado y descifrado, los cuales estan basados en un numero binario llamado la clave. La clave consiste de 64 digitos binarios (ceros 0 unos) de los cuales 56 bits son usados directamente para el algoritmo y 8 bits para la detecci6n de error. Los datos codificados en binario pueden ser criptograficamente protegidos usando el algoritmo DES junto con una clave; es decir, la clave es generada de modo que cada uno de los 56 bits usados por el algoritmo sea aleatorio y el octavo bit, detector de error, esta puesto para que cada byte (en su bit 8) sea para la clave impar, esto es, hay un numero impar de unos en cada byte. Cada miembro de un grupo de usuarios autorizados de datos encriptados de computadora, debe tener la clave para cifrar los datos. Esta clave, que tiene cada miembro en comun, es utilizada para

145

TEoRfA DE LA INFORMACION Y ENCRIPTAMIENTO

146

DE DATOS

desdfrar rualquier dato redbido en forma dfrada de otros miembros del grupo. EI algoritmo de encriptamiento espedficado en esta norma es conoddo por todos aquellos que Ia emplean. La clave unica escogida para uso en aplicadones particulares hace que los resultados del encriptador sean unicos, la selecd6n de una clave diferente causa importantes diferendas en la salida del dfrador. La seguridad criptografica depende de la seguridad propordonada por la clave para dfrar y desdfrar los datos.

MODOS ALTERNATIVOS DE USAR EL DES La publicad6n 74 de Guidelines for Implemnentig and Using the NBS Data Encryption Standard PIPS, describe dos modos diferentes para usar el algoritmo descrito en esta norma. Pueden introdudrse bloques de datos que contienen 64 bits directamente en el dispositivo que genera bloques de 64 bits de dfrado bajo el control de la clave. Esto se llama el modo de libro de c6digo electr6nico (ECB). Altemativamente, el dispositivo puede usarse como un generador binario para produdr aleatoriamente bits binarios, con los que, entonces, se combinan datos limpios (desencriptado) que usan una operad6n OR exclusiva 16gica. Para asegurar que se sincronizan el dispositivo del dfrador y el dispositivo desdfrador, sus entradas siempre se ponen a los 64 bits anteriores de dfrado transmitidos 0 redbidos. Este segundo modo de usar el algoritmo del encripd6n se llama el modo de cifrado

retroalimentado

(CFB).

EI ECB genera bloques de 64 bits de dfrado. EI CFB genera un dfrado que tiene el mismo numero de bits como el texto llano. Cada bloque de dfrado es independiente de otros ruando se usa el ECB, mientras que cada byte (grupo de bits) de dfrado depende de los 64 bits previos del dfrado cuando se usa el CPB. El algoritmo criptognifico espedficado en esta norma, transforma un valor binario de 64 bits en un unico valor variable de 56 bits. Si la entrada completa de 64 bits se utiliza y si la variable de 56 es elegida aleatoriamente, ninguna otra tecnica probara todas las posibles claves, usando una entrada y salida conodda por el DES garantizara encontrar la clave elegida. Como se tienen mas de 70.000,000,000,000,000 posibles claves de 56 bits, la posibilidad de derivar una clave particular de esta manera es sumamente improbable de que "amenace" los sistemas. Y si la clave frecuentemente se cambia, el riesgo de que este evento pase disminuye en mayor propord6n. Sin embargo, los usuarios deben ser concientes de que te6ricamente es posible encontrar la clave en menos intentos y debe avisarse para cambiar la llave tan a menudo como sea posible. Los usuarios deben cambiar la clave y propordonar un alto nivel de protecd6n para minimizar los riesgos potendales del uso no autorizado del equipo de c6mputo. La viabilidad de conocer la clave correcta puede cambiar con adelantos en la tecnologfa.

ENCRIPTAMIENTO DE DATOS

METoDOS DE ENCRIPfADO DE DATOS

El encriptado es la transformaci6n de datos de su forma inteligible original a una forma de cifrado ininteligible. Pueden usarse dos transformaciones basicas: permutaciOn y substituci6n. La permutaci6n cambia el orden de los simbolos individuales que forman los datos. En la substituci6n, los sfmbolos son reemplazados por otros sfmbolos. Durante la permutaci6n los simbolos retienen sus identidades pero pierden sus posiciones. En la substituci6n los sfmbolos retienen su posici6n pero pierden sus identidades originales. EI conjunto de reglas para una transformaci6n particular se expresa en un algoritmo. La transformaci6n bcisica puede combinarse para formar una transformaci6n compleja. En aplicaciones computacionales, la transformaci6n encriptada de permutaciones reordena los bits de los datos. La transformaci6n encriptaQa de substituci6n reemplaza un bit con otro 0 un byte con otro. Cifrado de bloque Un cifrado producido mediante la transformaci6n simultanea de un grupo de bits del mensaje en un grupo de bits del cifrador se llama un cifrador de bloque. En general, los grupos son del mismo tamaiio. Cifrador producto Combinando las transformaciones basicas de permutaci6n y substituci6n producen un termino complejo Hamado cifrador producto. Si se aplican permutaci6n y substituci6n a un bloque de datos, el cifrado resultante se llama un cifrador producto de bloque. ALGORITMO ENCRIPTADOR DE DATOS

EI algoritmo es diseiiado para cifrar y descifrar bloques de datos que consisten en 64 bits bajo el control de una clave de 64 bits d. EI descifrado debe ser acompaiiado usando la misma clave pero con la condici6n de direccionar la dave con los bits alterados, tal que el proceso de descifrado es 10 contrario del proceso de cifrado. Un bloque para ser cifrado esta sujeto a una permutaci6n inicial (IP) entonces el calculo depende de una dave compleja, y finalmente de una permutaci6n que es el inverso de una permutaci6n inicial(IP-l). La clave dependiente de la computaci6n puede definirse en terminos de una funci6n f, Hamada la funci6n de cifrado y una funci6n KS, Hamada la clave del programa. Una descripci6n del c6mputo se da al inicio, junto con los detaHes de c6mo se usa el algoritmo para el cifrado, enseguida, se describe el algoritmo para el descifrado, finalmente, una definici6n de la funci6n de cifrado f es dada, en terminos de la funci6n primitiva, la cual es Hamada la funci6n de selecci6n Sf' y la funci6n de permutaci6n P.

147

ThORfA DE LA INFORMACI6N Y ENCRlPI'AMIENTO DE DATOS

148

La anotaci6n siguiente es conveniente: dado dos bloques (L Y R) de bits, L Y R denotan los bloques consistentes de los bits de L seguidos de los bits de R. Debido a que la concatenaci6n es asociativa, Bl, B2, ... B3, por ejemplo, denota el bloque que consiste de los bits de BI • seguido de los bits de B2 ... seguido de los bits de Bs' CIFRADO

Un esquema de cifrado en computaci6n se muestra en la tabla 1, con mas detalle se puede consultar en Jas publicaciones FIPS 46 Y 74. Los 64 bits del bloque de entrada para que sea cifrado, esta sujeto a la siguiente permutaci6n Hamada permutaci6n inicial IP. Esto es, la entrada permutada tiene el bit 58 como el primer bit, el bit 50 como el segundo bit, y el bit 7 como el ultimo bit. EI bloque de entrada permutado es la entrada de la clave compleja calculada, la salida de este ccilculo, llamada la presalida, es seguida de la permutaci6n IP-I, la cual es la inversa de la permutaci6n inicial; esto es, la salida del algoritmo tiene al bit 40 del bloque de presalida como el primer bit, el bit 8 es el segundo bit y asi sucesivamente hasta el bit 25 del bloque de presalida como el ultimo bit de la salida. EI calculo que utiliza el bloque de entrada permutada como su salida produce el bloque de presalida, pero para un intercambio final de bloques, de las 16 iteraciones de un calculo que se describini en terminos de la funci6n de cifrado f, la cual opera en dos bloques (uno de 32 bits y uno de 48bits) y produce un bloque de 32 bits. IP

58

50

42

34

26

18

10

2

60

52

44

36

28

20

12

4

62

54

46

38

30

22

14

6

64

56

48

40

32

24

16

8

57

49

41

33

25

17

9

1

59

51

43

35

27

19

11

3

61

53

45

37

29

21

13

5

63

55

47

39

31

23

15

7

Tabla 1. Permutaci6n iniciallP.

ENCRIl7fAMIENTO DE DATOS

149

IF-I

40

8

48

16

56

24

64

32

39

7

47

15

55

23

63

31

38

6

46

14

54

22

62

30

37

5

45

13

53

21

61

29

36

4

44

12

52

20

60

28

35

3

43

11

51

19

59

27

34

.2

42

10

50

18

58

26

33

1

41

9

49

17

57

25

Tabla 2. Permutacion If-I INPUT

(INITIAL PERMUTATION) PERMUTED INPUT

PREOUTPUT

.......- - , - - - - - - '

Figura 5.1 EI calculo del cifrado.

ThoRIA DE LA INFORMACION Y ENCRlPI'AMIENTO DE DATOS

150

Se permite que los 64 bits del bloque de entrada para una iteraci6n conste de un bloque L de 32 bits, seguido de bloque R de 32 bits, el bloque de entrada es LR. Si K es un bloque de 48 bits elegido desde la clave de 64 bits, entonces la salida L'R', de una iteraci6n con entrada LR es definida por:

L'=R R' = L{PC}f(R,K)

(Eq.5.1)

Donde {PC} denota la adid6n bit a bit m6dulo 2. La entrada de la primer iterad6n del calculo es el bloque de entrada permutado. A cada iterad6n, un bloque K diferente de los bits de la clave, es elegido desde la

clave de 64 bits designada porKEY. Se describen enseguida las iteradones; si KS es una funci6n que toma un entero n, en el rango de 1 a 16 y un bloque KEY de 64 bits como entrada y produce como salida un bloque Kn de 48 bits, que es una selecd6n permutada de bits desde KEY. De modo que:

K n = KS(n, KEY)

(Eq5.2)

Con Kn determinado por los bits en 48 posidones de bit distintos de KEY.KS es llamada la clave de program a porque el bloque K, usado en la iterad6n n-sima de la ecuad6n 5.1, es el bloque Kn determinado por la ecuad6n 5.2. Como antes, el bloque de entrada permutado es LR. Pinalmente La y Ro, son respectivamente L y R, YLn YRn, son respectivamente L' y R' de la ecuad6n 5.1 cuando L y R son LN_1 Y RN_ 1: esto es, cuando n estci en el rango de 1 a 16;

Ln =R n - 1 Rn = Ln-1{PC}f(Rn-l,Kn )

(Eq.5.3)

EI bloque del preoutput es entonces ~6 L 16' La clave del programa produce el 16Kn requerido para el algoritmo.

DESCIFRADO La permutaci6n Ip-l aplicada al bloque del preoutput es el inverso de la permutad6n

inidal,IP, aplicado a la entrada de la ecuad6n (5.1) se sigue que:

R=L' L=R'{pc}f(L' ,K)

(Eq.5.4)

ENCR1PfAM1ENTO DE DATOS

151

Consecuentemente, para descifrar, es necesario aplicar el mismo algoritmo que para un bloque de mensaje cifrado. Tomando cuidado de que, a cada iteraci6n del c,Hculo, el mismo bloque de bits de la clave K, es usado durante el descifrado como el cifrado del bloque, expresando por las siguientes ecuaciones; Rn - 1 =Ln Ln-1 =Rn{PC}f(Ln,Kn)

(Eq.5)

Donde ~6 116 es el bloque de entrada permutado para el calculo de desdfrado y LoRo es el bloque de presalida, esto es, para el calculo de descifrado, con RIG 116 como la entrada permutada, K16 es usada en la primer iterad6n, KIS en la segunda y asi sucesivamente, con Kl usado en la ultima iteraci6n. La fund6n de dfrado

f

Un bosquejo del ccilculo de f(RK) se da en la figura 5.2, donde E denota una funci6n que toma un bloque de 32 bits como entrada y produce un bloque de 48 bits como salida, de tal modo que se pueden escribir como bloques de 6 bits cada uno, obteniendose selectivamente los bits en la entrada ordenadamente, de acuerdo a 10 siguiente: Tabla de selecd6 n del bit E

32 4 8

12 16 20 24 28

1 5 9 13

2 6 10 14

17 21 25 29

3

4 8 12 16

5

18

15 19

20

9 13 17 21

22 26

23 27

24 28

25 29

30

31

32

1

7

11

Tabla 3. Selecd6n del bit E.

As!, los primeros tres bits de E(R) son los bits en las posidones 32, 1, Y2 de It, mientras los ultimos dos bits de E (R) son los bits en las posiciones 32 y 1. Cada selecci6n unica de las funciones SI' S2'"'' Sa' toma un bloque de 6-bits como entrada y produce un bloque de 4 bits como salida, esto se ilustra utilizando la tabla 4 conteniendo la recomendada SI' tal como se ilustra a continuaci6n:

ThoRIA

152

DE LA INFORMACION Y ENCRlJ7fAMIENTO DE DATOS

Selecci6 n de la funci6 n S. Columna No. fila 0 No. 0

1

2

3

4

5

6

7

8

9

14 4

13

1

2

15 11

8

3

10 6

10 6

10 11 12 13 14 15

1

0

15 7

4

14 2

13

1

2

4

1 14 8

13 6

2

11 15 12 9

3

15 12 8

4

1

7

2

9

5

12 5

12 11 9

11 3

7

3

14 0

9

0

5

7

3

8

10 5

0

0

13

6

Tabla 4. La funci6n SI'

8i 81 es la funclan definida en esta tabla 4, y B es un bloque de 6 bits, entonces 81 (B) esta deterrninado como sigue; el primer y ultimo bit de B representan, en base 2, un numero en el rango de 0-3. 8i ese numero es i. La mitad de cuatro bits de B representa en base 2, un numero en el rango de 0-15, Yese numero es j. En la tabla observe el numero en la fila i yen la columna j, es un numero en el rango de 0-15 y es unicamente representado por un bloque de 4 bits. Ese bloque es la salida 81 (B) de 8 1 para la entrada B, por ejemplo, para la entrada 011101, la fila es 01 (esto es, la fila 1) y la columna esta determinada par 1101, la columna 13, luego en la fila 1, la columna 13 aparece como 5, tal que la salida es 0101. La funcl6n de permutaci6n P, produce una salida de 32 bits desde una entrada de 32 bits, permutando los bits del bloque de entrada, de modo que una fund6n se define como sigue:

Figura 5.2 Calculation ofFeR, K).

ENCRll7fAMIENTO DE DATOS

153

La salida pel) para la fundan P, definida por la tabla 6, es obtenida desde la entrada tomando el bit 16 de L como el primer bit de pel), el bit 7 como el segundo bit de pel) y as! hasta el bit 25 de L, que es tornado como el bit 32 de pel). Si ahora SI"'" Sa son ocho distintas fund ones de selecdan, y P es la funclan de permutaci6n, y E se define como antes, para definir f(R,K), primero se define Bl ... Ba

Funci6 n de permutaci6 n 16 20 7 29 12 28 1 15 23 5 18 31 24 2 8 32 27 3 19 13 30 22 11 4

P 21 17 26 10 14 9

6 25

Tabla 5. Permutaci6n P.

hasta tener bloques de 6 bits cada uno, para 10 cual: (Eq.5.6) El bloque f (R,K) se define entonces como: (Eq.5.7) As!, K{PC} E{R} es primero dividido en los ocho bloques, como se indic6 en la ecuad6n (5.6), entonces cada BI se toma como una entrada a SI y los ocho bloques SI (B 1),S2(B2 ) ••• Sa(B8 ) de 4 bits cada uno es consolidado en un solo bloque de 32 bits los cuales forman la entrada de P. La ecuad6n de salida (5.7), es entonces la salida de la fund6n f para las entradas R y K.

CARACfEruSTICAS DEL ALG 0 RITM 0

DES

Las cIaves del DES son vectores binarios de 64-bits que consisten de 56 bits de informaci6n independiente y 8 bits de paridad. Los bits de paridad estan reservados rara detecd6n de error y no son usados para el algoritmo de encripcian. Los 56 bits de informaci6n son usados para la operaci6n de cifrado y desdfrado y se refiere a ellos como la clave activa. Las claves activas son generadas (seleccionadas al azar de todas

154

ThoRfA DE LA INFORMACION Y ENCRJPTAMIENTO

DE DATOS

las posibles claves) por cada grupo de usuarios autorizados de un sistema de computo particular 0 con junto de datos. En el calculo de encripd6n, los 64 bits de entrada estan divididos en dos partes, cada uno de 32 bits, una mitad es usada como entrada a una compleja fund6n no-lineal, yel resultado es la operad6n OR exclusiva con la otra mitad figura 5.3 despues de cada iteraci6n, 0 recorrido las dos mitades de los datos estan intercambiadas y la operadon es realizada otra vez. El algoritmo DES usa 16 recorridos para produdr un cifrado producto de bloque redrculado. El cifrado producido por el algoritmo despliega sin correlad6n a la entrada. Cada bit de la salida depende de cada bit de la entrada y de cada bit de la clave activa. INPUT

(INITIAL PERMUTATION) PERMUTED INPUT

PREOUTPUT

Figura 5.3 CaIculo de cifrado en elUbro de c6digo electr6nico.

ENCRIPfAMIENTO DE DATOS

La seguridad proporcionada por el algoritmo DES esta basada en el hecho de que si la clave es desconocida, un destinatario desautorizado de datos encriptados, conocierido algo de los datos de entrada, puede realizar una cantidad de intentos para descifrar otros datos encriptados 0 recobrar la clave, y aun teniendola toda, si un bit de la clave no es correcto el resultado es un dato inteligible. El unico modo de conocer la clave con certeza es consiguiendo emparejar teno cifrado y teno sencillo y probar exhaustivamente las claves cifrando el texto sencillo conocido con cada clave y comparando el resultado con el texto cifrado conocido. Debido a que los 56 bits independientes son usados en una clave DES, 2 56 pruebas son requeridas para garantizar encontrar una clave particular. El numero de pruebas necesario para recobrar la clave correcta es 2 55, a un micro segundo por prueba, se requeriran 1,142 anos. Bajo ciertas condiciones, los intentos esperados podrian reducirse a 571 anos, y la posibilidad de 2 56 claves, hace que adivinar 0 calcular cualquier clase de clave es muy improbable, siguiendo las recomendaciones para generar y proteger la clave. Por supuesto, se puede reducir el tiempo requerido para cualquier criptoalgoritmo teniendo varios dispositivos trabajando en paralelo, el tiempo se reduce pero el costa inicial se incrementa. Una caracteristica importante del algoritmo DES es su flexibilidad para usarse en varias aplicaciones de proceso de datos. Cada bloque de cifrado es independiente de los otros, permitiendo encriptado 0 desencriptado de un simple bloque en un mensaje 0 estructura de datos. El acceso aleatorio para encriptar datos por 10 tanto es posible. El algoritmo puede ser utilizado en este modo sencillo para formar un bloque cifrado o altemativamente con encadenamientos, en los cuales la salida del algoritmo depende de previos resultados. La primer tecnica es Hamada el modo de libro de c6digo electr6nico ECB que ya se mendon6 y la tecnica encadenada tiene dos ejemplos llamados el modo de cifrado de bloque encadenado y el cifrado retroalimentado, en resumen, DES puede ser utilizado en el modo de salida retroalimentada para generar un flujo seudoaleatorio de bits que, es una operaci6n OR exclusiva para los bits del teno simple y formar un cifrador. El algoritmo DES es matematicamente una proyeccion uno a uno de los 2 64 posibles bloques de entrada sobre todos los 2 64 posibles bloques de salida, debido a que hay 2 64 posibles claves activas, hay 264 posibles proyecciones, seleccionando una clave, se selecciona una de las proyecciones. La entrada para el algoritmo es bajo la completa especificacion del disenador del sistema criptografico y el usuario del sistema. Cualquier patron de 64 bits es aceptable para el algoritmo, yel formato del bloque de datos puede ser definido por cada aplicaci6n. En el ECD, los subcampos de cada bloque pueden ser definidos para incluir uno 0 mas caSOS; un numero de secuencia de bloque, el numero de secuencia de bloque del ultimo recibido del transmisor, c6digos de detecci6n-correcci6n de error, informacion de control informacion de dato y tiempo, informacion de autentificaci6n del usuario 0 terminal, 0 un campo en el cual los datos aleatorios

155

156

ThoRIA DE LA INFORMACI6N Y ENCRll7fAMIENTO 01: DATOS

estan colocados para asegurar que, los campos de datos identicos en diferentes bloques de entrada resultara en diferentes bloques cifrados. Se recomienda que no mas de 16 bits sean usados para conocer valores constantes, por ejemplo, el mismo valor de identificaci6n de terminal de 32 bits no debe ser usado en cada bloque, si se desea que el bloque de datos en el modo de ECD despliegue una secuencia dependiente, una porci6n del ultimo bloque enviado 0 recibido puede ser incorporado dentro del bloque, como un sub campo u operaci6n OR exclusiva en el bloque mismo. El algoritmo DES esta compuesto de dos partes: la operacion de cifrado y la de descifrado, los algoritmos son funcionalmente identicos, excepto que la porci6n de la clave usada para las rutinas 1, 2, ... , 16 durante la operaci6n de encriptado son usadas en el orden 16, 15, ... , 1 para la operacion de desencriptado. EI algoritmo utiliza dos registros de 28 bits llamados C y D para retener la clave activa de 56 bits. La dave de programa del algoritmo circula recorriendo los registros C y D independientemente, izquierdo para encriptado y derecho para desencriptado. Si los bits del registro C son todos ceros 0 unos (despues de elegir la permutaci6n 1 aplicada ala clave) y los bits del registro D son todos ceros 0 unos, entonces, el desencriptado es identico al encripitado. Esto ocurre para cuatro claves conocidas; 0101010101010101, FEFEFEFEFEFEFEFE, 1F1F1F1FOEOEOEOE Y EOEOEOEOF1F1F1F1 (notar que los bits de paridad de la clave son conjuntos tales que cada byte tiene paridad imparl. Es probable que en otros casos, los datos encriptados dos veces con la misma clave no resultara en teno simple. esta caractenstica es benefica en algunas aplicaciones de procesos de datos en que niveles cnticos de cifrado pueden ser utilizados en una red, considerando que algunas de las claves usadas puedan ser las mismas. Si un algoritmo es su inverso, entonces un numero constante de encripciones bajo la misma clave resultara en teno simple. Hay ciertas claves, tal que para cada clave K, existe una clave K' para la cual el encriptado con K es identico al desencriptado con K', Yviceversa, K y K' son llamadas claves duales. Las claves duales fueron encontradas examinando las ecuaciones que deben mantener dos claves para tener claves de programa contrarias. Las claves que tienen duales son aquellas que producen puros ceros 0 unos, 0 patrones altemados de ceros y unos en los registros C y D, despues de que ha operado elecci6n de permutaci6n 1 sobre la clave, estas claves son las que se presentan en la tabla 6. Las primeras seis claves tienen duales diferentes de sf mismas, cada una es a la vez una clave y un dual, dando 12 claves con el dual. Las ultimas cuatro claves son iguales a sus duales y son Hamadas las claves duales de sf mismas. Estas cuatro claves son las anteriormente tratadas, para las cuales la doble encripci6n es igual al no tener encripci6n, esto es el mapeo identico. EI dual de una clave se forma, dividiendo la clave en dos mitades de ocho caracteres hexadecimales cada uno y de corrimiento circular cada mitad entre dos caracteres, no se conocen otras claves para las cuales existan duales.

ENCRIPTAMIENTO DE DATOS

Dual

Clave 1.

157 1

1

2.PE 1FFEI FFEOEFEOE 3.EOIFEOIFFIOEFIOE 4.01 FEO lFEO 1FEO 1FE 5.011FOIIFOI0EOI0E 6.EOFEEOFEFIFEFIFE 7.0101010101010101 B.PEFEFEFEFEFEFEFE 9.EOEOEOEOFIFl FIFI 10.1FIFIFIFOEOEOEOE

IFFEIFFEOEFEOEFE IFEOIFEOOEFIOEFI FEOIFEOIFEOIFEOI IFOIIFOI0EOIOEOl FEEOFEEOFEFIFEFI 0101010101010101 FEFEFEFEFEFEFEFE EOEOEOEOFIFIFIFI IFIFIFIFOEOEOEOE

Tabla 6. Claves duales.

Los datos pueden primero ser desencriptados y entonces encriptarlos (antes de que se encripte y despues desencriptar) y resultara texto simple. El texto simple puede ser encriptado varias veces y entonces desencriptar el mismo numero de veces con la misma dave, resultando en texto simple. De forma semejante, los datos pueden ser encriptados sucesivamente por diferentes daves, y desencriptar sucesivamente por las mismas daves para producir los datos originales, si las operaciones de desencriptado son mantenidas en el orden apropiado (inverso). Si D 1 (E 1 (P»=P se lee "el encriptado de texto simple con la dave 1 y luego desencriptar, el resultado con la dave 1 producira texto simple", entonces 10 siguiente es derto. LEI (Dl (P» = P 2.E 1 (El (P» = P.. .para .. claves ...duales ..de ..si .. mismas 3D} (D} (E} (E} (P)))) =P

4.EI (EI (Dl (DI (P)))) =P 5D 1 (D2(E 2(E 1 (P)))) = P 6D 1 (D 2 ( ••• {D j(E j ... (E 2(E 1 (P) ... ) = P 7.E 1 (E 2(· .. (E J(D j ... (D 2 (D1 (P) ... ) = P

8.E 2(E 1 (P)) = P..para.. claves ..duales 9D 2 (D} (P» = P..para.. claves .. duales.

158

TEOR'A DE LA INFORMACION Y ENCRIPrAMIENTO DE DATOS

Pero, en general, 10 siguiente no es verdad:

ID2(D} (E2(E} (P)))) = P MODO DE UBRO DE C6DIGO ELECfR6NICO

EI modo mas simple de fundonamiento, dtado en oportunidades anteriores, ellibro del c6digo electr6nico (Electronic Code Book) ECB, es el algoritmo de DES espedficado en FIPS, publicaci6n 46. El modo de BCD se muestra en las figuras 5.1 a 5.3; en el modo de operad6n ECD, el algoritmo es independiente del tiempo y es Hamado un sistema sin memoria. Dando el mismo dato y la misma clave, el resultado de dfrado siempre sera el mismo. Esta caracteristica debe ser considerada cuando se disene un sistema criptografico usando el modo ECB. EI bloque de salida 0tno es dependiente de cualquiera de las entradas previas 11' 12 , ••• , Ito1 • Es importante hacer notar que los 64 bits de 0t deben estar disponibles para obtener la entrada original It. Una recomendad6n para usar el DES en este modo, es que todas las posibles entradas deben ser permitidas y usadas cada vez que sea posible. Debido a que la seguridad de los datos, en este modo, esta basada en el numero de entradas en ellibro de c6digo, este numero debe ser maximizado cuando sea posible. En particular, este modo nunca debe ser usado para cifrar caracteres simples, es dedr, dfrando caracteres ASCII de 8 bits introduciendolos en posidones fijas de 8 bits y llenando los otros 56 bits con un numero fijo. En este modo, 2 64 entradas son posibles, y un subconjunto 10 mas grande como sea posible debe ser utilizado. La informad6n aleatoria debe ser empleada para rellenar pequenos bloques y desecharla cuando el bloque es descifrado. Los datos deben ser introduddos en el registro de entrada, tal que el primer caracter de entrada aparece en la izquierda, el segundo caracter a la derecha de el, y el ultimo mas a la derecha. Usando tecnologfa de registros de corrimiento, los caracteres deben ser introduddos sobre la derecha y correrlos a la izquierda, hasta que el registro este completo. En forma similar, la salida del DES debe ser tomado de izquierda a derecha cuando se ha transmitido los caracteres en modo serial, los caracteres deben salir desde la izquierda y el recorrido del registro debe realizarse hasta que este vado. MODO DE CIFRADO DE BLOQUE ENCADENADO

EI modo de dfrado de bloque encadenado es un metodo para usar el algoritmo DES, en el cuallos bloques de dfrado son encadenados juntos; en la figura 5.5 se presenta como el modo Cipher Block Chaining ( CDC) usado para encriptar un mensaje. La entrada del DES a un tiempo t es definido para que la OR exclusiva (representada por pc) del dato al tiempo ty el cifrador al tiempo t-1. El dfrador al tiempo 0 es definido

ENCRIPTAMIENTO DE DATOS

para que sea una cantidad Hamada vector inicializacion 0 Iv. EI modo CDC requiere bloques completos de 64 bits hasta que el bloque final es cifrado. EI bloque de datos final de un mensaje puede no contener exactamente 64 bits cuando se procesa en el modo CDC, cuando esto ocurre, cualquier bloque terminal debe ser rellenado para tener 64 bits, 0 bien, el bloque terminal debe ser cifrado de modo que se tenga el mismo numero de bits en la entrada. La primer tecnica se llama relleno y la segunda

truncado. Cuando una secuencia de caracteres esta siendo cifrada y el bloque terminal contiene menos que el maximo numero de caracteres (ocho en el caso de caracteres de 8 bits) el reHeno deber ser usado para formar el bloque de entrada final. Suponiendo que caracteres de relleno P son necesarios para llenar el bloque externo, si P es igual a I, el caracter representando el numero 1 debe ser colocado en la ultima posicion del byte. Si P es mas grande que I, el carcicter representando el numero 1 debe ser colocado en el ultimo byte y los ceros deben ser colocados en la posicion del byte remanente P-l (figura 5.5). En la mayoda de esquemas codificadores, los ultimos tres bits del caracter representando un dfgito son los mismos de la representacion binaria del digito. Es decir, la representaci6n ASCII del caracter 4 en hexadecimal es 34. Un DIT cualquiera puede ser usado en el encabezado del bloque del mensaje empaquetado, que significa un mensaje rellenado (es decir el bloque final del paquete esta relleno) 0 algt1n otro metodo debe ser concebido. EI truncado puede ser usado en el modo CDC cuando el numero de bits cifrados debe ser el mismo que el numero de bits de entrada. Puede ser necesario que una cinta de dfrado contenga el mismo numero de grabaciones y el mismo numero de caracteres por grabacion como la cinta de descifrado. Esto requiere que ocurra tambien, en algunos sistemas de conmutaci6n de mensajes, en donde la longitud de grabaci6n es fija, en estos casos, el metodo siguiente puede ser usado para cifrar el bloque terminal que no contiene 64 bits. El bloque terminal corto es cifrado mediante el encriptado del bloque de cifrado previo en el modo ECD y la operaci6n OR exc1usiva resultante hacia el bloque de datos terminal (figura 5.6). El receptor debe detectar el bloque cifrado corto y mantener la misma operaci6n, ello es, encriptar el bloque cifrado completo previo y mantener operacion OR exc1usiva para obtener el bloque de texto simple original. Si un bloque terminal corto contiene B bits, entonces los B bits mas a la izquierda del bloque dfrado se utilizan. Esta tecnica normalmente proporciona seguridad adecuada para el bloque final, pero debe notarse que, si los ultimos B bits de texto simple son conocidos para una activa intercepcion, el 0 ella puede alterar los ultimos B bits de cifrado, tal que desencriptaran cualquier texto simple, ella es porque si solo los ultimos son alterados, el mismo valor estara en la operaci6n OR exc1usiva para el bloque de cifrado corto en el desencriptado.

159

ThORIA DE LA INFORMACION Y ENCRIPrAMIENTO DE DATOS

160

Uno 0 mas bits err6neos dentro de un bloque cifrado simple, afectara el desencriptado de dos bloques (el bloque en que el error ocurre y el bloque sucesivo). Si los errores ocurren en el bloque de cifrado t, entonces cada BIT del bloque de texto simple t tendra una raz6n de error promedio del 500,1,. EI bloque de texto simple (t + 1) tendra s610 aquellos bits err6neos que correspondan directamente a los bits err6neos cifrados, y el bloque de texto simple (t + 2) sera correctamente desencriptado, ademas, el modo CBC sincroniza asimismo un bloque despues el error.

t:

~ o z w

DES ENCRYPT

DES ENCRYPT

C1

IV

DES ENCRYPT C2

I DES ENCRYPT

DES ENCRYPT

DES ENCRYPT

11

IOn IPAD Legend Dl=data vlock at time 11 =enayption input block at time Cl=dpher block at time iv=initialization vector +=ex.clisive - or

Ip I ' " DISCARD P CHARACTERS

Figura 5.5 Cipher block chaining (esc) mode, with terminal block.

ENCRlPTAMIENTO DE DATOS

161 TIME =n r--~--'"

8

~

DES ENCRYPT

DES ENCRYPT

DES ENCRYPT

w

Legend Dl=data vlock at time Il=encryption input block at time Cl=cipher block at time iv=initialization vector +=exclisive - or Figura 5.6 Cipher block chainnig (CBC) mode, with terminal block truncation. MODO DE CIFRADO RETROALIMENTADO

EI modo de operaci6n de cifrado retroalimentado (CPB) mencionado oportunamente, puede ser usado en aplicaciones que requieren encadenamiento para prevenir substituciones 0 donde bloques de 64 bits no pueden ser usados eficientemente. La mayona de datos de computadora son para ser transmitidos 0 almacenados, codificados en c6digos de 6 a 8 bits. En algunos protocolos de comunicad6n, las unidades de datos son bits 0 caracteres mas que bloques. EI modo de cifrado retroalimentado utiliza el DES que satisface un requerimiento para encriptar elementos de datos de longitud K, donde 1 K 64. El modo CPB de operaci6n se expone en la figura 5.7, la entrada para el algoritmo DES no es el dato mismo, mas bien, son los 64 bits previos de cifrado. El primer encriptado emplea un vector inicializaci6n IV como su entrada 10 , En el modo CPB, ambos, transmisory receptor de datos, utilizan solamente la operaci6n de encriptado del DES. La salida en el tiempo t es el bloque del BIT 64 at' el cifrado al tiempo t es producido por la operaci6n OR exclusiva de los K bits del teno simple Pt , para los K bits mas a la izquierda de at' Este cifrado et, es transmitido y tambien introducido

TEoRfA

162

DE LA INFORMACI6N Y ENCRlPrAMIENTO DE DATOS

en ellado derecho del registro de entrada, despues de que la entrada previa es recorrida K bits posiciones a la izquierda. La nueva entrada es utilizada para el siguiente cifrado. Un IV de 64 bits es generado en el tiempo 0 y colocado dentro del registro de entrada. De ese tiempo, el cifrado del texto dependera de su entrada inicial. Para lIenar el registro de entrada del receptor, uno de dos eventos debe ocurrir: ENCRIPTION

DENCRYPTION

E SHIFT

E SHIFT

INPUT BLOCK (64-k) BITS k BITS

INPUT BLOCK (64-k) BITS : k BITS

i

1

K

DES ENCRYPT

OUTPUT BLOCK SELECT: DISCARD : (64-K) BITS K BITS

K FEEDBACK KBITS

DES ENCRYPT

1

OUTPUT BLOCK SELECT: DISCARD K BITS : (64-K) BITS



K

INPtIT BLOCK INITIALLY CONTAINS AN INITIALIZATION VEcroR (IV) RIGHf JUSmFED

Figura 5.7 K-bit cipher feedback (CPE) mode.

1. El receptor independientemente debe generar eillenado inicial identico. 2. El transmisor debe transmitir suficientes datos para llenar el registro de en-

trada del receptor. La explicaci6n es que el transmisor genera un numero seudoaleatorio (48-64 bits) y 10 transmite como el IV. El transmisor y el receptor usa este numero (con los bits de mas alto orden de la entrada del DES de 64 bits, rellenos con los bits "0" si es necesario) como el IV de 64 bits. Usando un numero muyalto de bits proporciona alta seguridad, pero tambien resulta transmisi6n por encima del maximo. No es deseable que dos mensajes cifrados con la misma clave utilicen el mismo IV. El DES puede ser usado como un generador de numeros seudoaleatorios para tener el IV. Los dispositivos de comunicaci6n start/stop (asincronos) transmiten el IV como caracteres con los bits start/stop apropiados adjuntos. En el modo CFB, los errores dentro de una unidad de K-BIT de dfrado afectara el desencriptado del cifrado, y de los sucesivos, hasta que los bits de error hayan sido

ENCRIPTAMIENfO DE DATOS

corridos fuera del bloque de entrada del DES. La primera unidad K-BIT afectada de texto simple sera incomprensible en exactamente aquellos lugares donde el cifrador tiene errores. Los sucesivos desencriptados de texto simple tendran una razon de error promedio del 50 % hasta que todos los errores hayan sido corridos fuera del bloque de entrada. Suponiendo que no se encuentran errores adicionales durante este tiempo, se obtendra el correcto texto simple, ademas, el modo CFB se autosincroniza. El modo CFB de operacion tambien es util para el encriptado de datos almacenados. Para maxima eficiencia se utilizan elementos de datos de 64 bits. Si el bloque de datos terminal no contiene un dato completo de 64 bits, los bits remanentes son rellenados antes del encriptado, asimismo, el bloque cifrado puede ser truncado, tal que s610 los bits de cifrado correspondientes a los bits sin relleno son usados, en este caso, el numero de bits de cifrado sera igual al numero de bits de datos. Cuando se usa el modo de CFN de K-BIT, los ultimos bits K del cifrador pueden ser alterados por un intruso que conoce los ultimos bits K del texto simple. Esta es la misma amenaza que se tiene en el modo CBC con terminal de bloque truncado. Si es una amenaza significativa, se recomienda que el final de los bits K del texto simple sea una funcion de los bits de texto simple previo, es decir, un chequeo de paridad 0 suma. MODO DE SALIDA RETROALIMENTADA

El modo de salida retroalimentado (Output Feedback Mode OFB) como el modo CFB, opera sobre unidades de datos de longitud K, donde K es un entero de 1 a 64, asimismo, el modo OFB no encadena el cifrado de una vez. Un BIT de error en texto cifrado causa s610 un BIT de error del texto simple desencriptado. Por otro lado, este modo puede ser usado en aplicaciones donde se requiere propagaci6n sin errores. La figura 5.8 ilustra el modo OFB. La primera encripci6n utiliza un vector de inicializaci6n como su entrada 10 , y ambos, el transmisor y receptor usan sola mente la operacion de encripci6n del DES. El cifrado al tiempo t es producido por los K bits de la operacion OR exdusiva del texto simple hacia los K bits mas a la izquierda de la salida 0 t' Los mismos K bits del bloque de salida del DES son retroalimentados hacia ellado derecho del registro de entrada, despues de que la entrada previa es recorrida K-BIT posiciones ala izquierda, y la nueva entrada es empleada para el siguiente cifrado. La salida del modo OFB es independiente del cifrado y el texto simple. Asimismo, el modo OFB carece de la propiedad de autosincronizacion de los modos CDC y CFB. Si la sincronizaci6n se pierde, entonces un nuevo IV debe ser establecido entre el transmisor y receptor,

163

TEORfA DE LA INFORMACI6N Y ENCRlJ7fAMIENTO DE DATOS

164

RELACION DE CBC Y CFB DE 64 BITS Como el CBC, el modo de operacion CFB puede ser usado para encriptar bloques de 64 bits. En este caso, los 64 bits de 0tson operados en OR exclusiva con los 64 bits de texto simple al mismo tiempo del encriptado. Esto es Hamado el modo de operacion CFB de 64 bits. Sea Ml una maquina CFB de 64 bits con clave de programa de KR=(K I, ~, ... ,KI6 ), sobre cada uno de los 16 recorridos de encripci6n. En el modo CFB el mismo programa es tambien usado para desencriptado. Sea M2 una maquina CBC con una clave de programa de KR=(Kl6' Kls' ... , KI) para encriptado (es decir, la operacion descifrado DES). Si Ml encripta los bloques de 64 bits de texto simple PI' P2 YP3 con vector de inicializacion IV para formar el cifrado C I ' C2 Y C3' entonces M2 encriptara P3' P2' Y Picon vector de inicializacion C3para formar el cifrado C2 ' CI' N, de forma similar, mientras MI desencripta CI ' C2 Y C3 (usando vector de inicializacion IV) para P3, P2, Y PI' M2 desencriptara C2' CI' YIV (usando vector de inidalizacion C3) para P3' P2, Y PI' adem as 10 contrario de (N, C I' C2 ' e3 ) para (e3, e2, CI ,IV) puede formar el cifrado desencriptado por Ml con M2. Para ver si las afirmaciones anteriores son ciertas, sea E(S) (X) representando el encriptado de X en el modo ECB usando la clave de programa S, Y sea D(S)(X) el desencriptado ECB de X bajo el programa S. Notar que S es la clave de programa y no clave misma. En desencriptado usar la clave de programa en orden inverso de encriptado, adem as E(KS) (X) = D(KR)(X). EI encriptado de PI' P2 YP3 por Ml, usando N, puede ser descrito por tres ecuaciones:

eE[KS](W)=PI eO I =CI P2 eE[KS](CI )=P2 e0 2 =C 2 P3 e E[KS](C 2 ) = P3 EfX)3=C 3 PI

°

1, 02 Y 03 representan el encriptado ECB, con la clave de programa KS, de entradas N, CI ' Y C2 respectivamente. EI simbolo matematico (peC) es un operador OR exclusivo de 64 bits. EI encriptado de P3' P2' YPI por MI, usa C3 como el vector de inicializacion, puede ser descrito tambien por tres ecuaciones:

E[KR](P3ec 3 )= E[KR](03) =D[KS](03) =C 2 E[KR](P2eC 2) = E[KR](02) =D [KS](02) =CI E[KR](PI eCI ) =E[KR](OI )=D[KS](Ol)= w Invirtiendo la clave de programa, las entradas, y las salidas, se obtienen maquinas equivalentes. Ecuaciones similares pueden ser derivadas para desencripcion, y

ENCRIPTAMIENTO DE DATOS

165

las relaciones se mantienen para un flujo de longitud arbitraria de bloques de texto simple de 64 bits. DENCRYPTION

ENCRIPTION

....--....,

INPUT BLOCK (64-k) BITS k BITS

INPUT BLOCK (64·k) BITS k BITS

i

1

i

K

DES ENCRYPT

1

FEEDBACK KBITS

OUTPUT BLOCK SELECT: DISCARD K BITS : (64-K) BITS

K

DES ENCRYPT

OUTPUT BLOCK SELECT: DISCARD 1 K BITS : (UK) BITS K

I

I

1

K

MNTEXT KBITS

Figura 5.8 Modo OFB CONDICIONES DE SECRETO PERFECfO Shannon defini6 sus condiciones de secreto perfecto partiendo de dos hip6tesis basicas: 1. La clave secreta se utilizarci solamente una vez, a diferencia de 10 que sucedfa en los metodos clasicos, en los que la clave era fija. 2. El enemigo criptoanalista tiene acceso s610 al criptograma; luego esta limitado a un ataque sobre texto cifrado unicamente. Basadas en estas dos hip6tesis, Shannon enunci6 sus condiciones de secreta perfecto que pueden, sintetizarse tal y como sigue. Un sistema criptografico verifica las condiciones de secreta perfecto si el texto claro X es estadisticamente independiente del criptograma Y, 10 que en lenguaje probabilistico puede expresarse como: P(X =x/Y =y)=P(X =x)

Para todos los posibles textos fuente x =(x1, l':z •.• , xM ) Y todos los posibles criptogramas Y =(Y1, Y2, ••• yM ) es decir, la probabilidad de que la variable aleatoria X tome el valor x es la misma con 0 sin conocimiento del valor tornado por la variable aleatoria Y. En terminos mas sencillos, esto equivale a decir que: la informaci6n sobre el texto claro aportada por el criptograma es nula. Por 10 tanto, el enemigo

166

TEORfA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

criptoanalista no puede hacer una mejor estimaci6n de X con conocimiento de Y, que la que haria sin su conocimiento, independientemente del tiempo y recursos computacionales de los que dispongan para el procesado del criptograma. Asimismo, y basado en el concepto de entropfa, Shannon determin6 la menor cantidad de clave necesaria para que pudieran verificarse las condiciones de secreta perfecto. En efecto, la longitud de la clave K tiene que ser, al menos, tan larga como la longitud del texto claro M: K~M

La desigualdad se convierte en la igualdad para el caso del cifrado Vernam. Una vez establecidas las condiciones de secreta perfecto, cabe preguntarse si existen cifradores perfectos. La respuesta es afirmativa. Tal y como se vera a continuaci6n. Se considera un metoda de cifrado en el que el texto claro, criptograma y clave tomen valores en un alfabeto L-ario {O,I, ... ,L-l} yen el que la longitud de la calve K, criptograma Ny texto claro M coincidan entre si K = N =M. En este caso, el numero de posibles textos simples, criptogramas y claves son iguales entre sf e iguales a L, se supone que: a) La calve se elige de forma completamente aleatoria, es dedr: P(Z =z) =L-M

(6)

para todos los LM posibles valores z de la clave secreta. b) La transformaci6n de cifrado es

Y. =X. E9Z.,{i =1, ....M)

(7)

Donde E9 denota la adici6n m6dulo L, elemento a elemento. Fijado un texto fuente X = x, a cada posible valor de la clave Z =z , 0=1, ... , LM) Ie corresponde unfvocamente un criptograma Y=y,J 0 = I, ... , LM). Entondes, de acuerdo con la condici6n a) es facil ver que a un mismo texto claro X = x Ie puede corresponder con igual posibilidad cualquiera de los L posibles criptogramas; luego P{y=y)=P{y=y IX=x)=L-M

(8)

Por ello, la informaci6n aportada por el criptograma sobre el texto claro es nula, X e Y son estadisticamente independientes y la transformaci6n modulo L veri-

ENCRIPTAMIENTO DE DATOS

fica las condiciones de secreta perfecto. Cuando L= 2, se tiene simplemente el cifradoVerman. Hay que res altar que este tipo de cifrado m6dulo L, ofrece una total seguridad respecto a la estadistica del texto claro, 10 cual es una cualidad muy deseable, puesto que sena extraordinariamente peligroso que la seguridad de un metodo de cifrado dependiera de la naturaleza estadistica dellenguaje utilizado en el mensaje a cifrar. A la luz de las condiciones de secreta perfecto de Shannon, podemos evaluar los metodos criptograficos referenciados anteriormente. Cifrado de Cesar: utiliza una clave, es fija y se emplea continuamente para cada nueva letra del mensaje a cifrar. Claramente, este procedimiento no verifica las condiciones de Shannon, por 10 que la operaci6n m6dulo 21 deja al descubierto en el criptograma la frecuencia de aparici6n de las letras del texto fuente. Cifrado de Vigenere: utiliza una clave mas larga que el metodo anterior, pero, en cualquier caso, mas corta que la longitud del mensaje. La clave no es una secuencia aleatoria, sino una palabra dellenguaje, sometida a sus reglas y caracteristicas, que se reutiliza sucesivas veces. De acuerdo con las condiciones de Shannon, no se trata de un metodo de cifrado perfecto, por 10 que, aunque sea con mayor dificultad que el cifrado previo, el criptoanalista termina por encontrar alguna artimaiia (metodo Kasiski) que Ie permite determinar la estadistica del texto claro, a partir del criptograma y, posteriormente, romper el criptosistema. Cifrado Vemam: utiliza una clave de longitud igual a la del texto claro siendo esta una secuencia perfectamente aleatoria que, adem as, se emplea solamehte una vez. Verifica pues, las condiciones de secreta perfecto de Shannon. En este caso, la suma m6dulo 2 con una secuencia aleatoria ofrece un perfecto enmascaramiento del contenido y estadistica del texto claro. Dentro del panorama criptografico actual, el cifrado Vernam es el unico procedimiento incondicionalmente segura 0 procedimiento con seguridad probada matematicamente. Un criptosistema se puede atacar de muchas formas; la mas directa sena la que hace uso unicamente del analisis del mensaje cifrado 0 criptograma. Se trata de un analisis pasivo. Pero en la realidad se pueden producir mas ataques, apoyados en cierto conocimiento adicional 0 bien cierto grado de intervenci6n, en cuyo caso estaremos frente a un ataque activo. Los posibles ataques, citados de mayor a menor dificultad, senan: 1. S610 se conoce el criptograma. 2. S610 se conoce el criptograma, pero este va salpicado con partes en claro sin cifrar. 3. Se conocen varios criptogramas diferentes correspondientes al mismo texto claro, cifrados con claves diferentes. 4. Se conocen el criptograma y el texto claro correspondiente. Incluye el caso de que no se conozca enteramente el texto claro.

167

168

TEoRfA DE LA INFORMACI6N Y ENCRIPTAMIENTO DE DATOS

5. Se conoce el texto descifrado correspondiente a un criptograma elegido por el

criptoanalista. 6. Se conoce el criptograma correspondiente a un texto claro escogido por el

criptoanalista. 7. Se conoce el tooo descifrado correspondiente a un criptograma elegido de

forma adaptativa por el criptoanalista. 8. Se conoce el criptograma correspondien~e a un texto claro escogido de forma

adaptativa por el criptoanalista en funci6n de los analisis previos. 9. Se conoce la clave 0 al menos se puede limitar el espacio de claves posibles. Todos estos caos pueden estar modulados por el hecho de que se conozca 0 no el criptosistema en uso. SEGURIDAD INFORMATICA

A continuaci6n, se da una serie de reglas ideales de funcionamiento para la administraci6n de una red de equipos de datos dotada de criptografia que deben seguirse denteo de 10 posible: 1. Seguridad fisica: Habra un control permanente para seguridad fisica del sistema informativo que impida manipulaciones y sabotajes. Se prestara atenci6n a las visitas de servicio tecnico: los tecnicos ajenos estaran bajo observaci6n permanente de un tecnico propio y de un oficial de seguridad. Se controlara cuidadosamente las piezas nuevas que se instalen, las viejas defectuosas se destruiran en el acto y no seran entregadas a los tecnicos ajenos. Se plantea un problema importante con los registros magneticos averiados: aunque no se puede escribir, ni leer, ni borrar informaci6n de elIos mientras permanezca la avena, una Vez reparados pueden ser perfectamente accesibles al reparador. 2. Duplicaci6n de informaci6n: AI final de cada jomada de teabajo, se dupIicara toda la informaci6n residente en la memoria del sistema (back up) en cintas magneticas removibles, que se guardaran en la caja fuerte de un archivo seguro, con las caractensticas anteriormente descritas. Antes de borrar un juego de cintas se habra grab ado el juego siguiente con informaci6n posterior. 3. Separaci6n de cometidos: Seran personas diferentes las encargadas de la gesti6n de claves, de la programaci6n y del uso del sistema. 4. Puestos de confianza compartidos: Las tareas que exijan la mayor confianza seran responsabilidad compactida de varias personas. Cada una realizara una parte de la tarea. EI conocimiento del siste-

ENCRIPTAMIENTO DE DATOS

rna monopolizado por una de las personas sera insuficiente para violar la seguridad de este. S. Acceso restringido: Cada usuario solo tendra acceso a los archivos de la base de datos que Ie competan. Los programadores tendran acceso a las bases de datos. Los usuarios no tendnin acceso a las libretas de programas, los gestores de claves unicamente tendran acceso a la instalacion de estas. 6. Control de presencia permanente del usuario: Cada terminal accedera al sistema solo si el usuario se ha identificado plenamente mediante la tarjeta y un Personal Identification Number PIN. La tarjeta debera permanecer introducida en el terminal mientras dure la sesion de trabajo. Para evitar que la tarjeta se abandone en el terminal, sena recomendable que se desempefiase, ademas, la funcion de tarjeta de identificaci6n de solapa, con fotograffa. 7. Los terminales no dispondran de memoria permanente: No sera posible para el usuario ni para el programador almacenar informacion de forma permanente en su terminal, ya sea en medios fljos 0 m6viles. Por 10 tanto, los terminales no dispondran de discos duros 0 flexibles, casetes 0 cintas magneticas, cintas de papel ni ningl1n otro medio de almacenamiento masivo de informaci6n. 8. Se prefieren terminales no inteligentes: Los terminales con capacidad de proceso de informaci6n aut6nomas son peligrosos, porque se pueden usar como arma de asalto al sistema. Los PC son especialmente peligrosos, pero si se estimase indispensable su uso, debe romplirse el apartado anterior. 9. Trabajo en la entidad: Se prohibira fonnalmente llevarse trabajos a casa, as! como sacar listados de programas 0 datos del local de trabajo. 10. Asignaci6n de memoria virtual: El sistema operativo no permitira el acceso a un area de memoria real en la que puede haber restos de datos, s610 se asignaran areas de memoria virtual. 11. Inspecci6n de programas: Todos los programas nuevos deben ser inspeccionados roidadosamente por un programador diferente del autor en busca de caballos de Troya. Puertas falsas y gusanos. 12. Criptograffa: Se protegera criptogrMicamente todo el sistema informatico en roanto a: - Los archivos se almacenaran cifrados. - Las comunicaciones se realizaran cifradas bajo la clave de sesi6n. - EI acceso de los usuarios se controlara mediante tarjeta + PIN. - Los PIN se almacenaran cifrados. 13. Claves jerarquizadas:

169

170

ThoRfA DE LA INFORMACI6N Y ENCRIPTAMIENTO

DE DATOS

Existira una jerarqufa piramidal de claves que permita compartir las diferentes operaciones criptognfficas y evitar el descubrimiento de una dave que comprometa la seguridad del sistema. 14. Claves secretas: No se almacenara ninguna dave en claro fuera del modulo de seguridad. Las claves se generaran de manera aleatoria. Habra un local segura para generacion e instalacion de claves. En este local se guardara un duplicado de las claves maestras, primarias y secundarias. La clave maestra estara en claro; el resto, cifradas. La dave maestra solo sera accesible ante la presencia conjunta de las personas que compartan la responsabilidad de su custodia. 15. Distribucion segura de c1aves: La seguridad del sistema de distribucion de claves poseera, al menos, el mismo grado de seguridad que la transmision de informacion. 16. Gestion automatica de daves: La gestion de daves sera totalmente automatica. EI usuario no participara en 10 absoluto en su uso. 17. Transparencia del sistema criptografico: Una vez que e1 usuario ha insertado su tarjeta de identificaci6n y tedeado su PIN de forma satisfactoria, no se vera involucrado en ninguna operacion criptografica mas. Toda la informaci6n a la que tenga acceso legal Ie sera presentada automaticamente en version descifrada. 18. Doble seguridad de acceso ala informaci6n: Si por casualidad, e1 sistema operativ~ fallase y proporcionara ilegalmente acceso a un usuario a un archivo no autorizado, la informacion Ie llegara de forma cifrada. 19. Seguridad de la informacion: La totalidad de la informacion se guardara y se transmitira cifrada. 20. Seguridad con independencia del terminal: Se garantizara la seguridad a nivel del sistema operativ~ y criptografico con independencia del tipo de terminal 0 periferico que se utilice: teclado, pantalla, impresora, plotter, raton, tableta grafica, etcetera. 21. Informacion al usuario: Todos los usuarios deberan estar informados necesariamente de que se encuentran operando en un sistema dotado con protecci6n criptografica. 22. Vida util de los equipos: La vida util de los equip os de criptografia sera mayor que la vida de los terminales a proteger.

ENCRIPTAMIENTO DE DATOS

EDI La necesidad de intercambiar informacion es cntica dentro de la comunidad de negocios, la informaci6n puede ser generica por naturaleza, tal como una orden de compra, factura, 0 espedfica a una organizaci6n, tales como una relaci6n de clientes. Tradidonalmente las empresas han intercambiado esta informad6n a traves de formatos preestableddos por correo. Por la integrad6n de las computadoras y las comunicaciones de datos dentro de los negodos, las compamas pueden cosechar los beneficios de intercambiar informaci6n electr6nicamente, reduciendo papeles de trabajd, minimizando costos y mejorando el tiempo de respuesta. Este proceso de intercambio de informacion estandarizada de negocios de computadora a computadora es Hamado EDI (intercambio electr6nico de datos). Los negocios tienen tres opciones para implementar un sistema Em: 1. Las compaiifas y los negocios pueden desarrollar su propio software de EDI, esta opcion es costosa, consume mucho tiempo, y debido al riesgo que involucra el desarrollo de nuevo software, es desechada, excepto en casos extrem~s, por ejemplo: tener una plataforma de hardware para la cual no hay software de EDI comercial disponible. 2. Los negocios pueden utilizar los servicios de EDI con una red compartida, con esta opcion una empresa envia sus transacciones de negocios al service bureau, que es el buro de servicios de alglin sistema de EDI, el cual desarrolla su servicio EDI en su propio SITE. Los honorarios por esta clase de servicios son general mente altos. Los negocios pueden adquirir su producto EDI ya desarroHado, esta altemativa es la mas efectiva en cuesti6n de tiempo y costo para la implementaci6n de algl1n sistema EDI. Elementos para la implementaci6n de EDI 1. Establecer las necesidades para la implementaci6n de EDI. Para muchas orga-

nizaciones EDI sera requerido para mantenerse competitivo. 2. Establecer un comite de planeaci6n que sea encabezado por una persona interesada y con conocimientos de EDI. EI comite debera incluir representantes de todos los departamentos a ser afectados por este sistema. 3. Desarrollar una auditoria de EDI dirigida a procedimientos existentes, disponibilidad de recursos de informacion de sistemas y procedimientos de comercio y de socios de negocios, disponibilidad de software que pudiera ser examinado. 4. Presentar un plan de accion a los altos niveles de la empresa dirigido a la necesidad de contar con EDI, beneficios por anticipado, costos y una agenda de implementaci6n. 5. Una vez que ha sido obtenido el apoyo, decidir el tipo de sistema, esto incluye estcindares a ser usados, configuraci6n del sistema y que proveedor extemo de red se empleara. En suma, las transacciones, los departamentos, los proveedores a

171

172

TEORtA DE LA INFORMACION Y ENCRll7lAMIENfO DE DATOS

ser utilizados deberan ser colocados en el sistema, debiendo decidirse en ese momento. Se debe realizar una revisi6n de los procedimientos internos de las areas afectadas para contar con un conocimiento mas amplio del tipo de operaciones y sus repercusiones que tienen al realizar cada una de ellas. 6. Dirigir a traves de la capacitaci6n el potencial de los usuarios y socios de negocios, este deberfa ser un proceso en marcha y comenzar tan pronto sea posible. La capacitacion es un factor muy importante para reducir la resistencia a implementar EDI. PROYECfO BOLERO

Uno de los retos que afrontan los participantes en el tema de comercio exterior, es el de identificar como resolver las exigencias que nos imponen la velocidad con que se quieren atender los cambiantes procesos de negociaci6n y contrataci6n, despacho y recibo de mercancias y, 10 mas importante, para los bancos des de el punto de vista de servicios bancarios, como crear el ambiente favorable para entender a dientes que, hoy en dia, demandan una mayor eficiencia a un menor costo. En el mundo, actualmente, son de papel la mayor parte de los billones de documentos que constituyen el soporte del intercambio comercial. El costa de administrar este ineficiente intercambio de documentos, ha sido estimado por las Naciones Unidas en 70A, del valor del comercio mundial, 10 que representa mas de 400 billones de d6lares por ano. Los sistemas con base en papel son vulnerables al fraude y no Henan las expectativas crecientes de importadores y exportadores para suprimir las demoras en procesos de justo a tiempo. Por esta razon, la sociedad cooperativa de bancos internacionales, Society for Worldwide Interbank Financial Telecommunication (SWIFr) y el Through Transport Club, TIClub, han desarrollado el proyecto Bolero (Bill of Landing Europe: conocimiento de embarque Europa). El proyecto Bolero consiste en desarrollar una plataforma de servicios que atienda de manera segura a toda la industria, con la transferencia electr6nica de informacion comercial mundial. En 1996, inici6 negociaciones con la asociacion Bolero el TIClub, que representa a transportistas, despachadores de carga y autoridades portuarias, y la SWIFr. ElTIClub y la SWIFr han hecho un significativo progreso en llevar a cabo sus planes de conformar una compania de riesgo compartido, Joint venture, que logre mercadear el concepto Bolero. La Bolero Association Ltd. (BAL) representa a todos los sectores industriales y empresariales que son potenciales usuarios del sistema Bolero. La BAL es una organizaci6n con administracion autonoma. Su papel consiste en dar apoyo al Joint venture (VAL), al TfClub y a la SWIFr. AI final de los anos sesenta, 239 bancos de diferentes paises (Austria, Belgica, Canada, Dinamarca, Republica Federal Alemana, Finlandia, Francia, Italia, Holanda, Noruega, Suecia, Reino Unido y Estados Unidos) eran 10 que se conoce como SWIFr.

ENCRIPTAMIENTO DE DATOS

SISTEMA SWIFI'

La SWIFT es una asociaci6n interbancaria que crea un sistema en donde se logran satisfacer las necesidades de las instituciones financieras a nivel mundial, se pueden interconectar varios nodos 0 puntos mundiales y ademas, comunicarse entre ellos para transferirse informacion financiera, tal como: operaciones de pago (transferencias monetarias) cartas de credito, acuerdos financieros (credito) entre empresas y la instituci6n bancaria, para lograr la compra, importacion 0 exportacion de alglin producto, incIuye tambien el manejo de inversiones entre las mismas instituciones financieras a nivel mundial. Asimismo por este sistema se informa sobre el ingreso de un nuevo banco 0 el cambio del mismo 0, en su defecto, su desaparicion en el mercado financiero. Este sistema resulta muy efectivo entre el mercado financiero de Europa y Estados Unidos, que implementaron tres centros de comunicaci6n entre los dos continentes. Uno de ellos localizado en Virginia, Estados Unidos, el cual se dedica al chequeo de las comunicaciones del continente americano, y los otros dos centros estan localizados en Belgica y Holanda respectivamente. Siendo el de Belgica el centro de operaciones de todo el sistema. Ademas SWIFT provee de: 1. Conectividad global. 2. Estandarizaci6n de mensajes. 3. Servicios de mensajeria electronica. 4. Transferencia de informaci6n. 5. Servicios de informaci6n operacional. 6. Acuerdos de niveles de servicios. 7. Interfaces. 8. Entrenamiento a usuario. 9. Estructura que permite acuerdos con proveedores de aplicaciones. CONEXION DEL SISTEMA SWlFf

Tanto la comunicacion y la conexion del sistema SWIFT se realiza por medio del SAP (punto de acceso al SWIFT) que sera cualquier entidad 0 instituci6n financiera que se conecte a la red SWIFT con el sec (centro del control de sistema) que da el soporte al continente americano, ubicado en el estado de Virginia, Estados Unidos. La comunicacion entre un SAP y el sistema SWIFT se realiza mediante la ejecucion del comando LOGIN, que es la peticion de una sesi6n de acceso 16gico en el sistema y se divide en dos partes: CPA: aplicacion para un proposito general, de acceso a varias funciones del sistema. Su funci6n principal es la peticion de un numero de sesion para completar el cicIo de conexi6n al sistema, cada sesion siempre sera identificada por cuatro digitos numericos que seran diferentes cada vez que realice una peticion de conexi6n; tam-

173

174

ThomA DE LA INFORMACION Y ENCRIPrAMIENTO DE DATOS

bien la GPA recibe ciertos mensajes, que son informativos tanto del sistema como de algunos cambios realizados por bancos. A} LTC: control de la terminal16gica donde se ejecuta el comando LOGIN y se establece la comunicaci6n entre la instituci6n y SWIFT. B) APC: control de aplicaci6n que realiza el acceso a los mensajes informativos de reportes 0 peticiones yejecuta la selecci6n de control sobre una aplicaci6n espedfica, mediante el comando SELBer. C) FIN: la aplicaci6n FIN, se obtiene despues de ejecutar el SELEer y se obtiene un numero de sesion, que tambien se define por cuatro dfgitos numericos y que son diferentes cada vez que realiza el SELEer. Esta aplicaci6n provee a los usuarios el uso de los mensajes financieros para recibir 0 transmitir mensajes. AI realizar el acceso al GPA y al FIN se completa el cido de conexi6n al sistema, tanto los dfgitos del APC y del FIN operag. simultaneamente, si falta alguno de los dos no puede realizarse la comunicaci6n, asimismo al controlar la apertura 0 cierre de una sesi6n se controla el acceso y la salida de los mensajes. Para realizar la desconexi6n del sistema se realiza un QUIT (abandonar) en la sesi6n FIN, y posteriormente un LOGOUT en la sesi6n APC donde se completa el cierre de las sesiones y la desconexi6n de SWIFT. Para poder realizar la ejecuci6n de LOGIN y SELEer es necesario el uso del SCR, que es un lector de tarjetas de seguridad. La funci6n de este lector es la integraci6n al sistema de numeros 0 daves que estan contenidos en tarjeta, las que son enviadas por SWIFT al administrador del sistema de cada instituci6n. Estas tarjetas pueden ser usadas una sola vez, son responsabilidad del administrador del sistema tenerlas en un lugar seguro, si se extravian, se tienen que reportar al centro de soporte SWIFT para cancelar la funcionalidad de las mismas. La informaci6n que contienen las tarjetas hace posible la ejecuci6n de LOGIN y la obtenci6n de un numero de sesi6n. Durante la ejecuci6n del LOGIN se obtiene un TIMEOur de un maximo de 90 segundos, si en este transcurso no se da la asignaci6n del m.1mero de sesi6n, se cancelara y se tendra que realizar la petici6n mediante el LOGIN. Si no se llegaran a tener estas tarjetas y ellector, no es posible conectarse a SWIFT. Las posibles conexiones por acceso fisico, pueden ser distintas, como sena el caso de una conexi6n dedicada 0 por la red publica de datos. KERBEROS: ARQUITEcruRA DE SEGURIDAD

Actualmente, las redes de computadoras necesitan una arquitectura disenada para dar seguridad a las operadones que en ella se realizan, desde suministrar daves, autorizar o identificar a una persona, 0 el tipo de aplicad6n que requiera el equipo, por ejemplo: en operaciones de autenticaci6n, ademas de ser una operad6n transparente al

ENCRIPTAMIENTO DE DATOS

usuario, este se limitara a escribir su password 0 PIN. Todo esto conduce al prop6sito de utilizar una arquitectura distribuida como la que se analiza a continuaci6n. Esta arquitectura desarrollada por el Instituto Temol6gico de Massachussets, es un servicio de autentificaci6n con arquitectura cliente/servidor y a continuacion se dan algunos conceptos de la versi6n 5, utilizando el algoritmo de cifrado simetrico (DES). Microsoft Kerberos es un protocolo de la autentificaciOn. Los servidores y servicios de la red necesitan saber que el cliente que pide acceso es un cliente valida' y que sus credenciales son correctas. Kerberos proporciona pruebas de que la identidad del cliente no ha sido corrompida. • Basado en que las credenciales del cliente contiene boletos encriptados con claves compartidas (encriptado simetrico). El cliente tiene una clave basada en la contrasena (password) del usuario guardada en todos los controladores de dominio. De forma semejante, cada servidor tiene una clave en todos los controladores de dominio, debido a que cada clave es tlnica, y s610 el cliente y el controlador de domino tienen copias de la clave del cliente, la habilidad de lograr desencriptar el mensaje proporciona identificaci6n segura. Lo mismo sucede para claves compartidas en servidores de aplicaciones, de impresi6n, de archivos y los control ado res de dominio. • Las bases para los dominios de confianza transitivos (Kerberos 'ITusts). Es decir, cuando dos dominios estcin unidos, una clave entre campos es creada, estos dominios pueden confiar uno en el otro, porque ambas claves tienen su clave de programa. • Basado en el RFC 1510 Y versiones revisadas. Kerberos es un estandar abierto, maduro, ampliamente usado, que proporciona interoperabilidad con otras aplicaciones, tal como MIT Kerberos versi6n 5. • Mds eficaz que NTLM. Las confianzas transitivas reemplazan confianzas complicadas lIall_wayR. Los boletos de la sesi6n renovables reemplazan la autentificacion pass-trough. • La arquitectura de Kerberos extensible. Permite especificar los metodos de seguridad adicionales 0 alternados. Tambien la clave secreta compartida puede ser suministrada con claves privadas/pt1blicas para el uso de tarjetas inteligentes. Meta primaria: Identidad del usuario autenti/icada Cuando un cliente quiere tener acceso a un servidor, este necesita verificar la identidad del cliente. EI cliente afirma ser por ejemplo: [email protected]. Desde el acceso a los recursos, se basara en los permisos de identidad y asociacion. EI servidor debe estar segura de que el cliente es quien afirma ser. El usuario entrega credenciales seguras en ticket Windows 2000 crea identificadores unicos (SIDS) que representan usuarios, grupos, etcetera. Kerberos tambien entrega el SID del cliente y el SID de cualquier grupo. EI proposito es que en cualquier paquete de autentificaci6n usado en Windows 2000, se proporcione el SID apropiado al servidor, de modo que se crea la senal de acceso al usuario.

175

TEORfA DE LA INFORMACION Y ENCRIPTAMIENfO DE DATOS

176

Identidad del usuario empaquetado en un ticket Kerberos empaqueta los nombres de usuario (User Principal Name, UPN. alguien@microso/t.com) y el SID del usuario en una estructura de datos llamada "ticket". Las metas de Kerberos son modificar la cread6n y distribud6n de seguridad de tickets. Un grupo de usuarios con informad6n asodada en un ticket de Kerberos se llama Privilege Attribute Certificate (PAC). El PAC no debe ser confundido con una dave publica. Kerberos autentifica la identidad del usuario, pero no autoriza el acceso, solo se verifica la identidad del diente, y una vez que esto se ha hecho, el Local Security Autthority autorizara 0 denegara el acceso a los recursos. Privacidad a travis de encriptado. Los mensajes de Kerberos son encriptados con una variedad de daves encriptadas, para asegurar que nadie pueda falsificarlos con los tickets del diente 0 con otros datos en un mensaje de Kerberos. Esto no significa que cada elemento es encriptado, en efecto, algunos campos de datos son enviados en texto limpio, porque las daves de encriptado todavia no han sido cambiadas, tal que los datos puedan ser irreconocibles, 0 porque la posesion de los datos no posee una amenaza.

Client Rle Application

4

\~nfosvr\share

5MB Protocol SSPI

2

KDC

Figura 5.9 Kerberos y solidtud de autorizad6n remota.

ENCRIPTAMIENTO DE DATOS

El ticket del cliente, por ejemplo, es encriptado con una clave conocida solo por el servidor destino yel Kerberos Key Distributio Center (KDC). EL KDC tambien crea terminos cortos y sesiones simples, usadas para encriptar mensajes de cliente/ servidor y servidor/cliente, despues de que la identificacion y autentificacion han sido confirmadas. El KDC Y el usuario comparten una dave de encriptado secreta, la cual es us ada, por ejemplo, para encriptar el mensaje del cliente conteniendo una dave de sesion. Kerberos utiliza encriptado simetrico y asimetrico. Debido a que los metodos de encriptado de Kerberos estan basados en claves conocidas solo por el KDC y el cliente, o por el KDC y el servicio de red, se dice que Kerberos usa encriptado simetrico, esto es, la misma clave es usada para encriptar y desencriptar mensajes. Tambien puede hacer uso limitado de encriptado asimetrico, un par de claves privada/publica pueden ser almacenadas en un lector desde una tarjeta inteligente, y usada para encriptar/ desencriptar mensajes autentificados desde un cliente de red 0 servicio de red.

El autentificador Kerberos previene repeticion de paquetes Finalmente Kerberos, tambien, crea, entrega y autentica, normalmente basado en cron6metros Unicos, de acuerdo con el ticket del cliente. El autentificador es unico y valido solo una vez, esto minimiza la posibilidad de que alguien obtenga y reutilice el ticket del cliente, tal vez en un intento para sustraer y usar la identidad del cliente, esto es conocido como ureproducci6n" y el autentificador 10 previene. Excepto por la autentificaci6n de Kerberos los accesos de seguridad son identicos con los de Windows NT y versiones anteriores. En el ejemplo de la figura 5.9, el cliente ha solicitado y recibido un ticket para \ \infosvir. El cliente qui ere acceder a \ \ infosvir\share para leer un archivo: 1. EI diente y el servidor negocian un paquete de seguridad para usar autentificacion, y eligen Kerberos. 2. El cliente envia un ticket de sesion (conteniendo credenciales de usuario en el PAC).

3. Si el servidor acepta el ticket (es decir, se habilita para desencriptar el ticket con su clave secreta) entonces el serVidor crea una senal de acceso para el usuario basada en el PAC. 4. El cliente redirecciona un mensaje 5MB solicitando acceso al archivo. S. La seguridad del servidor compara permisos de archivo con las credenciales del usuario y proporciona 0 deniega el acceso. FIRMA DIGITAL La firma es un documento y un medio de comprometer al firmante a mantener su palabra sin permitir al receptor del mismo su alteracion. Por ejemplo, el documento podria ser una letra de cambio.

177

ThORfA DE LA INFORMACION Y ENCRlPI'AMIENTO DE DATOS

178

EI protocolo para llevar a cabo la firma digital es como sigue: 1. EI firmante calcula el MAC del documento bajo clave KO (se usa el MAC como sustituto condensado del mensaje). 2. Eligen T claves KI, ... Kr, al azar que mantiene secretas (r es numero par). 3. Elige T palabras Xl, ...Xr. 4. Cifra Xn bajo Kn produciendo Yn. 5. Entrega a un notario local Xn e Yn. 6. Cifra el MAC T veces bajo Kn, produciendo Zn. EI conjunto de los Zl, ... , Zr, constituyen la firma digital. 7. Envia al destinatario el documento +KO+MAC+X1, ... ,Xr+Y1, ...Yr+Z1+, ... , Zr. 8. EI destinatario reclama r/2 claves al firmante. 9. El firmante envia al destinatario las r/2 claves pedidas. 10. El destinatario comprueba que las claves son buenas obteniendo los Yn, cifrando los Xn bajo las Kn recibidas. 11. A continuacion, verifica la veracidad del MAC al cifrarlo bajo las Kr, obteniendo los Zr. En caso de reclamacion, se llevan ante el juez el MAC, la firma y los Kn, Xn e Yn. Si hay T, 0 menos, elementos de la firma correctos, se da la razon al firmante; si hay r+ 1 elementos correctos, 0 mas, se da la razon al destinatario. TARJETAS ELEcrn6NlCAS

Las tarjetas magneticas estan sujetas a fraude por la facilidad de duplicaci6n, modificacion magnetica y falsificaci6n. Como alternativa, se han desarrollado diversos tipos de tarjetas electronicas. Las mas sencillas consisten en una simple memoria, que puede ser de lectura/escritura 0 de s610 lectura. Pueden usarse como inyector de claves 0 como tarjetas de identificaci6n personal. Un paso mas avanzado son las tarjetas de seguridad inteligentes (intelligent secure card, chip card 0 smart card) que contienen en su interior un microprocesador con memoria. Resulta imposible recuperar informacion secreta contenida en ellas, as! como su duplicaci6n. EI procesador controla el acceso y las aplicaciones de la tarjeta. Esta puede realizar operaciones de cifrado y descifrado por software; otras tarjetas mas perfeccionadas incluyen un procesador "hardware" tipo DES 0 RSA.

Las tarjetas inteligentes pueden cumplir su cometido de identificacion personal incluso en terminales desprovistas de facilidades criptograficas y sin conexi6n en tiempo presente al ordenador central.

ENCRIP"fAMIENTO DE DATOS

179

ANEXOA AREABAJOLA CURVA NORMAL TIPIFICADA

Ierl..x)

o

·1 IX ·tfl =--1211: rn:::- e dJ -x

.

x

0

a

r

a

0,5239 0,5836

0,5279 0,5675

0,5319 0,5714

0,5359 0,5754

0,5948 0,6331

0,5199 0,5598 0,5987 0,6368

0,6026 0,6408

0,6064 0,6443

0,6103 0,6460

0,6141 0,8517

0,8864

0,6700

0,8736

0,8772

0,8808

0,6844

0,8879

0,6985 0,7324

0,7019 0,7357

0,7088 0,7422

0,7123 0,7454

0,7157 0,7486

0,7190 0,7518

0,7224 0,7549

0,7612 0,7910

0,7642 0,7939

0,7873 0,7967

0,7054 0,7389 0,7704 0,7998

0,7734 0,8023

0,7764 0,8051

0,7794 0,8078

0,7823 0,8106

0,7852 0,8133

0,8159

0,8186

0,8212

0,8238

0,8264

0,8289

0,8315

0,8340

0,8365

0,8389

1,0

0,8413

0,8438

0,8461

0,8485

0,8508

0,8531

0,6554

0,8577

0,8599

0,8621

1,1 1,2

0,8643 0,8649

0,8665 0,8889

0,8688 0,8888

0,8708 0,8907

0,8729 0,8925

0,8749 0,8944

0,8770 0,8962

0,8790 0,8980

0,8810 0,8997

0,8830 0,9015

1,3 1,4

0,9032 0,9192

0,9049 0,9207

0,9066 0,9222

0,9082 0,9236

0,9099 0,9251

0,9115 0,9265

0,9131 0,9279

0,9147 0,9292

0,9162 0,9306

0,9177 0,9319

1,5 1,6 1,7

0,9332

0,9345 0,9463 0,9564

0,9357

0,9370

0,9406

0,9418

0,9429

0,9441

0,9484 0,9582

0,9649 0,9719

0,9684 0,9732

0,9671 0,9738

0,9515 0,9608 0,9688 0,9750

0,9525 0,9616 0,9693 0,9756

0,9545 0,9633

0,9641 0,9713

0,9505 0,9599 0,9678 0,9744

0,9535 0,9625

1,8 1,9

0,9474 0,9573 0,9658 0,9728

0,9382 0,9495 0,9591

0,9394

0,9452 0,9554

0,9699 0,9761

0,9708 0,9767

0,9812

0,9817

0,9854 0,9887

0,9857 0,9890

0,9913 0,9934

0,9918 0,9936

x

0

1

:II!:

;s

0,0 0,1 0,2 0,3

0,5000 0,5398

0,5040 0,5438 0,5832 0,6217

0,5120 0,5517 0,5910 0,6293

0,5160 0,5557

0,5793 0,6179

0,5080 0,5478 0,5871 0,8255

0,4

0,6554

0,8591

0,8628

0,5 0,6 0,7 0,8

0,6915 0,7258 0,7580 0,7881

0,6950 0,7291

0,9

1

9

2,0

0,9772

0,9778

0,9783

0,9788

0,9793

0,9798

2,1 2,2

0,9821 0,9861

0,9826 0,9864

0,9830 0,9868

0,9834 0,9871

0,9842 0,9878

0,9603 0,9848 0,9881

2,3 2,4

0,9893 0,9918

0,9896 0,9920

0,9898 0,9922

0,9901 0,9925

0,9838 0,9875 0,9904 0,9927

0,9906 0,9929

0,9909 0,9931

0,9808 0,9850 0,9884 0,9911 0,9932

2,5

0,9938

0,9940

0,9941

0,9943

0,9945

0,9946

0,9948

0,9949

0,9951

0,9952

2,6 2,7

0,9953 0,9985

0,9955 0,9966

0,9958 0,9987

0,9957 0,9968

0,9959 0,9969

0,9960 0,9970

0,9961 0,9971

0,9962 0,9972

0,9963 0,9973

0,9964 0,9974

2,8 2,9

0,9974 0,9981

0,9975 0,9982

0,9978 0,9982

0,9977 0,9983

0,9977 0,9984

0,9978 0,9984

0,9979 0,9985

0,9979 0,9985

0,9980 0,9986

0,9981 0,9988

3,0

0,9987

0,9987

0,9987

0,9988

0,9988

0,9989

0,9989

0,9989

0,9990

0,9990

3,1 3,2

0,9990 0,9993

0,9991 0,9993

0,9991 0,9994

0,9991 0,9994

0,9992 0,9994

0,9992 0,9994

0,9992 0,9994

0,9992 0,9995

0,9993 0,9995

0,9993 0,9995

3,3 3,4

0,9995 0,9997

0,9995 0,9997

0,9995 0,9997

0,9996 0,9997

0,9996 0,9997

0,9996 0,9997

0,9996 0,9997

0,9996 0,9997

0,9998 0,9997

0,9997 0,9998

3,5

0,9998

0,9998

0,9998

0,9998

0,9998

0,9998

0,9998

0,9998

0,9998

0,9998

3,6 3,7

0,9998 0,9999

0,9998 0,9999

0,9999 0,9999

0,9999 0,9999

0,9999 0,9999

0,9999 0,9999

0,9999 0,9999

0,9999 0,9999

0,9999 0,9999

0,9999 0,9999

3,8 3,9

0,9999 1,0000

0,9999 1,0000

0,9999 1,0000

0,9999 1,0000

0,9999 1,0000

0,9999 1,0000

0,9999 1,0000

0,9999 1,0000

0,9999 1,0000

0,9999 1,0000

BIBUOGRARA

BIBLIOGRAFIA

A. Feinstein, Foundations of Information Theory, McGraw-Hill Book Co. N.Y. Abramson, Normas, Information Theory Coding, Prentice Hall. Amparo Fuster, Luis Hernandez Encinas, Tecnicas Criptogrdficas de Protecci6n de Datos, Rama. Berkelamp, E.R., Algebraic Coding Theory, McGraw Hill. Castano, Fugini y Martella, Database Segurity, Addison-Wesley. C.E. Shanonn, Comunication In Presence Of Noise, Proc. Ire, 1949, vol. 37, p.10. D.A. Huffman, A Method FOT The Construction Of Minimum-redundancy Codes, Proc Ire, Septiembre. 1952- vol. 40. F.G. Stremler, Introducci6n a los Sistemas de Comunicaciones, Addison-Wesley Iberoamericana. EM. Reza, An Introdution to Information Theory, McGraw Hill Book, N.Y. Hamming, Richard, Coding Information Theory, Prentice Hall. Mischa Schwartz, Ttansmisi6n de Informacion Modulaci6n y Ruido, McGraw Hill . Rudolf F. Graf, William Sheets, Videoscrambling & Descrambling for Satellite & Cable Tv, NewnesWilliam Davenport, Comunicaci6n Moderna de Datos, Clem. Revista, Review, 4/200 Ericsson. www.ericsson.com www.bluetooth.com www.tektronix.com

181

Impreso en los Talleres Graficos de la Direccion de Publicaciones del Instituto Politecnico Nacional Tresguerras 27, Centro Historico, Mexico, D.F. Diciembre de 2001. Edicion 2 000 ejemplares. FORMACI6N Y DISENO DE PORTADA: Wilfrido Heredia Dfaz SUPERVlSI6N: Manuel Toral Azuela Delfino Rivera Belman PRODUCCI6N: Alicia Lepre Larrosa DIVlSI6N EDITORIAL: Jesus Espinosa Morales DlREcroR: Arturo Salcido Beltran