129 92 8MB
French Pages [330] Year 2020
El Assad 2.qxp_Mise en page 1 28/07/2020 14:23 Page 1
Une première partie, composée d’une trentaine de travaux dirigés, étudie la théorie de l’information et des communications avec modulations numériques de porteuses. Les problèmes autonomes à difficulté variable sont structurés en énoncés complets, suivis des solutions explicites à chacune des questions. Une seconde partie présente cinq travaux pratiques qui traitent particulièrement des mesures de base sur les câbles de transmission, de la conception en simulation logicielle de modems, de l’utilisation effective de modules électroniques et des fonctions de base dans la construction des systèmes de communication.
Communications numériques 2 permet de comprendre progressivement et en profondeur l’essentiel de ce domaine et d’acquérir les compétences industrielles nécessaires.
Les auteurs Safwan El Assad est maître de conférences habilité à diriger des recherches à Polytech Nantes. Ses recherches portent actuellement sur la cryptographie basée chaos. Dominique Barba est ancien professeur de Polytech Nantes. Ses recherches portent sur le traitement des images fixes et animées, la vision humaine et artificielle, ainsi que les communications numériques.
editions
Z(7ib7i4-AFGHAE(
Communications numériques 2 travaux dirigés et pratiques
Communications numériques 2
Cet ouvrage didactique offre un ensemble riche et diversifié de travaux dirigés et pratiques sur les communications numériques.
Safwan El Assad Dominique Barba
COLLECTION SYSTÈMES D’INFORMATION, WEB ET SOCIÉTÉ
editions
Safwan El Assad et Dominique Barba
editions
Communications numériques 2
Licence illimitée accordée à SCD - Université de Nantes
First published 2020 in Great Britain by ISTE Editions Ltd.
Apart from any fair dealing for the purposes of research or private study, or criticism or review, as permitted under the Copyright, Designs and Patents Act 1988, this publication may only be reproduced, stored or transmitted, in any form or by any means, with the prior permission in writing of the publishers, or in the case of reprographic reproduction in accordance with the terms and licenses issued by the CLA. Enquiries concerning reproduction outside these terms should be sent to the publishers at the undermentioned address: ISTE Editions Ltd 27-37 St George’s Road London SW19 4EU UK
© ISTE Editions Ltd 2020 The rights of the authors of this work have been asserted by them in accordance with the Copyright, Designs and Patents Act 1988.
British Library Cataloguing-in-Publication Data A CIP record for this book is available from the British Library ISBN: 978-1-78405-670-4 (print) ISBN: 978-1-78406-670-3 (e-book)
Printed and bound in Great Britain by CPI Group (UK) Ltd., Croydon, Surrey CR0 4YY, September 2020
Licence illimitée accordée à SCD - Université de Nantes
Communications numériques 2 travaux dirigés et pratiques
Safwan El Assad Dominique Barba
editions Licence illimitée accordée à SCD - Université de Nantes
Licence illimitée accordée à SCD - Université de Nantes
À nos familles au sens large
Licence illimitée accordée à SCD - Université de Nantes
Licence illimitée accordée à SCD - Université de Nantes
Table des matières
Avant-propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
Partie 1. Travaux dirigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
Chapitre 1. Théorie de l’information : problèmes 1 à 15 . . . . . . . .
5
1.1. Problème 1 – Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Problème 2 – Extension d’ordre k d’un canal . . . . . . . . . . . . . . 1.3. Problème 3 – Transmission numérique de la parole sous forme comprimée et codage de Huffman . . . . . . . . . . . . . . . . 1.4. Problème 4 – Codage simple, codage avec compression d’information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5. Problème 5 – Transmission numérique d’un signal de télévision (composante de luminance seulement) avec compression d’information et codage de Huffman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6. Problème 6 – Information, entropie, codes (1) . . . . . . . . . . . . . 1.7. Problème 7 – Information, entropie, codes (2) . . . . . . . . . . . . . 1.8. Problème 8 – Codage et transmission d’une source d’information de type télévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9. Problème 9 – Entropie et codage d’une source d’information de mouvement de signaux vidéo . . . . . . . . . . . . . . . . . . . . . . . . 1.10. Problème 10 – Codage de Hamming . . . . . . . . . . . . . . . . . . 1.11. Problème 11 – Codage cyclique (1) . . . . . . . . . . . . . . . . . . . 1.12. Problème 12 – Codage cyclique (2) . . . . . . . . . . . . . . . . . . . 1.13. Problème 13 – Codage cyclique et codage de Hamming (1) . . . .
. . . .
5 8
. .
13
. .
16
. . . . . .
19 24 30
. .
37
. . . . .
46 50 57 64 69
Licence illimitée accordée à SCD - Université de Nantes
. . . . .
viii
Communications numériques 2
1.14. Problème 14 – Codage cyclique et codage de Hamming (2) . . . . . . 1.15. Problème 15 – Code cyclique, séquences-M et séquences de Gold . . Chapitre 2. Transmissions numériques en bande de base : problèmes 16 à 26 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1. Problème 16 – Entropie et codage d’une source d’information à signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Problème 17 – Calcul de la fonction d’autocorrélation et de la densité spectrale de puissance par approche probabiliste des codes en ligne binaires RZ et NRZ . . . . . . . . . . . . . . . . . . . . . 2.3. Problème 18 – Calcul de la fonction d’autocorrélation et de la densité spectrale de puissance par approche probabiliste du code bipolaire RZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4. Problème 19 – Transmissions numériques avec codeur à réponse partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5. Problème 20 – Codage d’informations à signal et transmissions numériques avec codeur à réponse partielle . . . . . . . . . . . . . . . . . . 2.6. Problème 21 – Caractéristiques d’un système de transmission numérique en bande de base (1) . . . . . . . . . . . . . . . 2.7. Problème 22 – Caractéristiques d’un système de transmission numérique en bande de base (2) . . . . . . . . . . . . . . . 2.8. Problème 23 – Transmissions numériques M-aires en bande de base. 2.9. Problème 24 – Transmissions numériques en bande de base d’informations codées en bipolaire. . . . . . . . . . . . . . . . . . . . . . . . 2.10. Problème 25 – Transmission et réception avec codeur linéaire à réponse partielle (1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.11. Problème 26 – Transmission et réception avec codeur linéaire à réponse partielle (2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85 .
85
.
91
.
110
.
126
.
130
.
137
. .
145 153
.
163
.
181
.
190
Chapitre 3. Transmissions numériques avec modulation de porteuse : problèmes 27 à 33 . . . . . . . . . . . . . . . . . . . . . . . 3.1. Problème 27 – Caractéristiques d’un système de transmission numérique avec modulation de porteuse . . . . . . . . . . . . . . . . . . . . . 3.2. Problème 28 – Transmissions numériques par modulation MDAQ-4 (1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Problème 29 – Transmissions numériques par modulation MDA-2 . . 3.4. Problème 30 – Transmissions numériques par modulation MDAQ-4 (2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5. Problème 31 – Transmissions numériques par modulation MDAQ-4 : trajets simple et double . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Licence illimitée accordée à SCD - Université de Nantes
72 78
201 201 211 221 228 236
Table des matières
3.6. Problème 32 – Performances des modulations : modulation numérique MDAQ-16 . . . . . . . . . . . . . . . . . . . . . . . . . 3.7. Problème 33 – Codage et transmission de type MDAQ-4 des informations de mouvement de la vidéo numérique . . . . . . . . . . . .
ix
246 255
Partie 2. Travaux pratiques . . . . . . . . . . . . . . . . . . . . . . . . . . .
267
Chapitre 4. Étude de la transmission d’informations numériques sur câble bifilaire . . . . . . . . . . . . . . . . . . . . . . . . .
269
4.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Rappel des résultats essentiels de la théorie des lignes . . . 4.3. Étude pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Objectifs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5. Mesure de l’impédance caractéristique Zc par la méthode de réflectométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6. Mesure de l’affaiblissement ߙ en fonction de la fréquence . 4.7. Variation de l’affaiblissement ߙ en fonction de la longueur 4.8. Mesure du débit D (bit/s) . . . . . . . . . . . . . . . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
269 270 271 271
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
272 273 273 273
Chapitre 5. Étude de systèmes de transmission numérique en bande de base (émetteur, récepteur) de signaux analogiques . 5.1. Objectifs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Étude d’un système de transmission de signaux par modulation d’amplitude d’impulsions et multiplexage temporel . . . . . . . . . . . . 5.2.1. Étude expérimentale . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1.1. Mode 1 de fonctionnement . . . . . . . . . . . . . . . . . . 5.2.1.2. Mode 2 de fonctionnement (sans transmission séparée de l’horloge). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1.3. Mode 3 de fonctionnement (un seul lien entre émetteur et récepteur) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3. Étude d’un système de transmission de signaux par modulation d’impulsions codées (MIC) et contrôle d’erreurs de transmission (code détecteur et code correcteur d’erreurs) . . . . . . . . . . . . . . . . . 5.3.1. Étude expérimentale . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1.1. Étude sans erreur de transmission et sans code de protection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1.2. Étude avec code de protection contre les erreurs de transmission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Licence illimitée accordée à SCD - Université de Nantes
275
. .
275
. . . . . .
276 277 277
. .
277
. .
278
. . . .
279 282
. .
282
. .
283
x
Communications numériques 2
Chapitre 6. Étude de codes en ligne pour la modulation en bande de base et avec porteuse . . . . . . . . . . . . . . . . . . . . . 6.1. Objectifs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2. Description des maquettes . . . . . . . . . . . . . . . . . . . . . . 6.3. Étude de codes en ligne pour la transmission en bande de base 6.3.1. Étude expérimentale . . . . . . . . . . . . . . . . . . . . . . 6.4. Étude des modulations numériques avec porteuse . . . . . . . . 6.4.1. Modulation par déplacement d’amplitude (ASK) . . . . . 6.4.2. Modulation par déplacement de fréquence (FSK) . . . . . 6.4.3. Modulation par déplacement de phase (PSK) . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
285 . . . . . . . .
Chapitre 7. Étude d’un modem QPSK sous Matlab, Simulink, Communications et DSP . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
293
7.1. Objectifs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2. Travail demandé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3. Annexes : schémas du modem QPSK et de ses différents blocs . . . . . Chapitre 8. Étude d’un système de codage et décodage par codes cycliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1. Objectifs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2. Introduction et principes du codage-décodage cyclique . . 8.3. Codage par division : code systématique . . . . . . . . . . 8.4. Décodage par division : principe du calcul du syndrome . 8.5. Travail demandé . . . . . . . . . . . . . . . . . . . . . . . . . 8.6. Annexes : schémas des blocs . . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
285 285 287 287 288 288 289 290
293 294 295
299 . . . . . .
299 299 300 301 301 303
Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
307
Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
311
Sommaire de Communications numériques 1 . . . . . . . . . . . . . .
315
Licence illimitée accordée à SCD - Université de Nantes
Avant-propos
Nous avons rédigé cet ouvrage de formation sur les communications numériques dans l’esprit de présenter sous une forme intégrée les connaissances de base sur lesquelles s’appuient les systèmes de communications numériques modernes et, surtout, la manière dont elles sont mises en œuvre techniquement tant dans leur principe que dans leur réalisation. Cet ouvrage est le fruit d’une longue expérience de formation dans ce domaine en école d’ingénieurs (Polytech Nantes). Il s’agit d’une formation complète : cours, travaux dirigés présentant de nombreux problèmes types ciblés avec solutions détaillées, travaux pratiques illustrant concrètement divers aspects des techniques de mise en œuvre. Comme nous l’avons mentionné, bien que notre expérience soit d’abord celle de former des ingénieurs, nous avons, par des adaptations du contenu, souhaité nous adresser à des publics plus larges : d’abord en formation initiale, aux ingénieurs, aux masters 2, aux licences spécialisées en télécommunications ou d’autres spécialités connexes. Mais aussi aux formateurs en leur apportant, via les travaux dirigés et pratiques (TDP), des contenus qui peuvent leur être fort utiles dans la construction de la formation qu’ils dispensent. En formation continue, cet ouvrage s’adresse aussi aux techniciens en télécommunications ou en année supplémentaire de spécialisation (années spéciales complémentaires à la formation en IUT). Cet ouvrage, qui est composé de deux volumes associés, est présenté dans son premier aspect, de cours sous la forme d’une synthèse très concise et complète sur les fondements et techniques des communications numériques (volume 1). Elle se décompose en deux parties. La première partie concerne la théorie de l’information en elle-même, portant tant sur les sources d’information que sur les canaux de communication avec la prise en compte des erreurs qu’ils introduisent dans la transmission de l’information, ainsi que des moyens de s’en protéger par l’utilisation
Licence illimitée accordée à SCD - Université de Nantes
2
Communications numériques 2
de méthodes de codage appropriées. La deuxième partie traite les aspects techniques de transmission, nous présentons d’abord la transmission en bande de base avec l’important concept et technique fondamentale de l’égalisation. L’évaluation des performances en termes de probabilités d’erreurs est systématiquement développée et détaillée ainsi que les codes en ligne utilisés. Nous abordons ensuite les transmissions avec modulation numérique de porteuses utilisées dans les transmissions avec modulation de porteuse (transmissions radioélectriques mais également sur câbles électriques). Un deuxième aspect fort important dans l’apprentissage des connaissances et du savoir-faire d’un apprenant compose cet ouvrage (première partie du volume 2). Il concerne l’aspect des travaux dirigés (TD) d’une formation. Il s’agit ici d’un ensemble ordonné d’une trentaine de problèmes types avec solutions détaillées couvrant les différentes parties du cours. L’ensemble doit permettre à un apprenant de comprendre progressivement et en profondeur l’essentiel de ce domaine et d’acquérir les compétences nécessaires pour les pratiquer dans le monde industriel. Enfin, le dernier aspect concerne ceux pratiques au sens propre du terme, complément indispensable d’une formation allant jusqu’au savoir-faire (seconde partie du volume 2). Nous proposons ici un ensemble de 5 travaux pratiques. L’intérêt de ceux-ci est qu’ils vont des mesures de base sur les câbles de transmission jusqu’à la conception en simulation logicielle de modems en passant par l’utilisation de blocs de modules électroniques réalisant des fonctions de base utiles dans les communications numériques. REMARQUE. Les auteurs mettent à la disposition des lecteurs les deux TP logiciels sous Matlab-Simulink « Modem QPSK » et « codeur-décodeur cyclique ». Ils aident également au montage des deux TP matériels des chapitres 4 et 6. Pour accéder à ces informations, vous pouvez contacter les auteurs directement à ces adresses : [email protected] et [email protected].
Licence illimitée accordée à SCD - Université de Nantes
PARTIE 1
Travaux dirigés
Licence illimitée accordée à SCD - Université de Nantes
Licence illimitée accordée à SCD - Université de Nantes
Chapitre 1
Théorie de l’information : problèmes 1 à 15
1.1. Problème 1 – Entropie On considère le canal de transmission d’informations de type binaire symétrique sans mémoire de la figure 1.1. Perturbations
Source
[X]
Canal p ( yj ⁄ xi )
[Y]
Destination
Figure 1.1. Schéma de base d’une communication numérique
On suppose que le rapport signal à bruit conduit à l’obtention des valeurs suivantes de probabilités d’erreurs conditionnelles : = 1⁄
=0 =
= 0⁄
=1 =
( ⁄ )=1− On considère que la source d’informations binaires émet des informations indépendantes avec les probabilités suivantes : ( )=
et
( )=
=1−
1) Calculer l’entropie ( ) de la source.
Licence illimitée accordée à SCD - Université de Nantes
6
Communications numériques 2
2) Calculer l’entropie ( ) de la destination. 3) Calculer l’entropie conditionnelle mission).
( ⁄ ) (entropie de l’erreur de trans-
4) Calculer la perte d’information ( ⁄ ) apportée par le canal de transmission. 5) En déduire la quantité moyenne d’informations reçue par le destinataire pour chaque symbole binaire envoyé ( , ) (information mutuelle). 6) Déterminer la capacité = 0,5.
du canal. Montrer qu’elle est maximale pour
Solution du problème 1 1) Par définition, on a : ( )=−
( ) log
( )
donc : ( ) = −{
log
+ (1 −
) log (1 −
) =
( )
2) Par définition, on a : ( )=−
log
et : ( )×
=
⁄
d’où : ( ) = −{[ (1 − ) + (1 − +[
+ (1 −
× log [
) ] × log [ (1 − ) + (1 −
) ]
)(1 − )]
+ (1 −
)(1 − )]}
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
7
3) De la même façon, on a : ( ⁄ = )=−
⁄
⁄
× log
et aussi : ( ⁄ )=
( ) ( ⁄ =
)
Comme nous avons affaire à un canal de communication binaire symétrique, nous obtenons : ( ⁄ ) = −{(1 − ) log (1 − ) + log
=
( )
4) Nous avons : ( ⁄ )=−
( )×
⁄
log
( )×
⁄
ou encore : ( ⁄ )=− log
+
(1 − ) log
+ (1 −
(1 − ) (1 − ) + (1 −
)(1 − )
(1 − ) (1 − ) + (1 −
+(1 −
) log
+(1 −
)(1 − ) log
)
)
(1 − )(1 − ) + (1 − )(1 − )
5) Par définition, on a : ( , )=
( )− ( ⁄ )
6) Par définition, on a : =
( , )= ( )− ( ⁄ ) { ( ) { ( )
Licence illimitée accordée à SCD - Université de Nantes
8
Communications numériques 2
( ) { ( )
tel que
est obtenue pour
= − (1 − 2 ) log
( )
=0
(1 − ) + (1 − + (1 − )(1 −
) )
=0
Il suffit de poser que le numérateur de la fonction log est égal au dénominateur, d’où : 2 (1 − 2 ) = 1 − 2 ; d’où
= 1⁄2
Ainsi, le maximum définit la capacité C du canal de communication et est obtenu pour : = 1⁄2 , d’où
( ) = 1 et donc :
=1− ( )
1.2. Problème 2 – Extension d’ordre k d’un canal On considère un canal de transmission d’information de type binaire symétrique sans mémoire : quelle que soit l’information binaire à transmettre, la probabilité d’erreur de transmission est constante, égale à p. Perturbations
Source
[X ]
Canal p( yj ⁄ xi )
[Y]
Destination
Figure 1.2. Schéma de base d’une communication numérique d’une source d’information sans mémoire
A. Extension d’ordre k d’un canal binaire symétrique sans mémoire de probabilité d’erreur p Le canal extension d’ordre k possède un alphabet d’entrée de 2 mots binaires de longueur k et un alphabet de sortie identique à l’alphabet d’entrée. Ce canal est donc représenté par une matrice carrée de dimension [2 , 2 ] dont l’élément correspond à la probabilité de recevoir conditionnellement à avoir transmis : ⁄ .
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
9
1) Si est la distance de Hamming entre les deux mots binaires de longueur k correspondant pour l’un au symbole , pour l’autre au symbole , déterminer la probabilité en fonction des 3 paramètres : , , . B. Extension d’ordre 2 d’un canal binaire symétrique 2) Écrire entièrement sous forme littérale en fonction de la matrice présentative de l’extension d’ordre 2 du canal binaire symétrique.
re-
3) On considère que la source émet dans le canal des symboles quaternaires de recevoir un symbole . équiprobables. Calculer la probabilité 4) En déduire la relation qui existe entre les éléments de la matrice représentative de l’extension d’ordre 2 du canal binaire symétrique et la probabilité ⁄ pour que le symbole ait été émis conditionnellement à avoir reçu . 5) Calculer la quantité moyenne d’information ( ⁄ ) perdue dans le canal à cause des erreurs de transmission. Exprimer ( ⁄ ) en fonction de : ( ) = −{(1 − ) log (1 − ) + log C. Extension d’ordre 4 d’un canal binaire symétrique La taille de l’alphabet d’entrée de la source est donc égale à 16. L’alphabet de sortie est le même que celui d’entrée. La source est considérée émettre des symboles
équiprobables.
6) On extrapole le résultat obtenu en B-5 en considérant que l’on a : ( ⁄ )=
( )
Calculer dans le cas où = 0,03 l’information moyenne symbole d’information envoyé.
( ⁄ ) perdue par
7) Quelle est l’entropie ( ) de la source d’information ? 8) Quel est le nombre maximum d’erreurs possibles sur un symbole reçu ?
Licence illimitée accordée à SCD - Université de Nantes
10
Communications numériques 2
Solution du problème 2 A. Extension d’ordre k 1) Le symbole donc :
est formé de k bits. Il en est de même pour le symbole
⁄
=
=
,
,
,
,⋯,
⁄
,
,
,
,
,⋯,
,
,
Le canal est sans mémoire, donc la probabilité d’obtention d’un bit en sortie ne dépend que du bit émis à l’entrée (en plus des propriétés intrinsèques du canal de transmission lui-même), d’où : ⁄
=
=
,
,
⁄
⁄
,
×
,
⁄
,
× ⋯×
,
⁄
,
,
en raison de l’indépendance entre la source d’information et le canal de communication. La distance de Hamming : = qui sont différents entre le symbole
, est le nombre de bits de même rang et le symbole .
Alors : ⁄
=
(1 − )
Cette loi se rapproche de la loi Binomiale car si est la probabilité d’erreur sur un bit , alors (1 − ) est la probabilité de bonne décision sur le bit . B. Extension d’ordre 2 du canal 2) On a : =2→ ⁄
⁄
=
=1=
(1 − )
→ la matrice
⁄
en raison de la symétrie.
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
1
2
3
0 0
0 1
1 0
(1 − )
(1 − )
(1 − )
1
0 0
2
0 1
(1 − )
3
1 0
(1 − )
4
1 1
4 1 1
(1 − )
(1 − ) (1 − ) (1 − )
(1 − )
(1 − ) (1 − )
Tableau 1.1. Matrice représentative de l’extension d’ordre 2 du canal binaire symétrique
3) On a : = ( )×
,
=
,
⁄
= ( )×
=
⁄
× ⁄
Or les symboles sont équiprobables : ( )=
1 ∀ = 1, ⋯ , 4 4
Les symboles
sont aussi équiprobables :
1 = [(1 − ) + 2 (1 − ) + 4
]=
1 ∀ = 1, ⋯ , 4 4
4) Nous avons : ⁄
=
( )×
⁄
=
car : ( )=
= 1⁄4
Licence illimitée accordée à SCD - Université de Nantes
11
12
Communications numériques 2
5) Quantité moyenne d’information
( ⁄ ) perdue dans le canal.
Nous avons : ⁄ =
=−
( ⁄ )=
( ⁄ )=−
⁄
⁄ =
1 4
log
⁄
⁄ =
=
⁄
log
⁄
car nous avons ici : ⁄
=
⁄
1 ( ⁄ ) = − [(1 − ) log (1 − ) 4 ]×4 +2 (1 − ) log (1 − ) + log ( ⁄ ) = −2{(1 − ) log (1 − ) + (1 − )[log +
+ log (1 − )]
log ( ⁄ ) = −2{(1 − )[(1 − ) log (1 − ) + log
+ [(1 − ) log (1 − ) + log ( ⁄ ) = 2[(1 − ) ( ) +
]
] ( )] = 2 ( ) =
( )
C. Extension d’ordre 4 du canal 6)
= 0,03 et ( ⁄ ) = 4 ( ).
Information moyenne perdue par symbole d’information envoyé ? Nous avons : ( ⁄ ) = −4[0,97 × log (0,97) + 0,03 × log (0,03)] = 0,7777 bit d'information/symbole
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
13
7) Entropie de la source ? ( )=
(
)=4 ( )
et : ( )=−
( ) log
( ) = 1 car
( )= ( )=
1 2
d’où : ( ) = 4 bit d'information/symbole 8) Nombre maximum d’erreurs possibles ? =4 1.3. Problème 3 – Transmission numérique de la parole sous forme comprimée et codage de Huffman Dans le cadre de la transmission du signal de parole très comprimé sur voie téléphonique mais entièrement sous forme numérique, intéressons-nous au problème de codage statistique de source. On considère une source d’information délivrant des symboles élémentaires appartenant à un dictionnaire de symboles de taille 6. Les probabilités d’émission de cette source simple d’information sont données dans le tableau 1.2.
{
0,05
0,20
0,22
0,33
0,15
0,05
Tableau 1.2. Probabilités d’émission des symboles par la source d’information
Les symboles sont délivrés par la source 1) Déterminer l’entropie
toutes les
= 10
.
( ) de la source. En déduire le débit entropique
Licence illimitée accordée à SCD - Université de Nantes
.
14
Communications numériques 2
2) Construire le codage statistique de Huffman, appelé code code binaire associé à chaque symbole . 3) En déduire la longueur moyenne seconde. 4) Quelles seraient l’efficacité
du code
et la redondance
5) Si on choisissait un code à longueur fixe (code ? Conclusion.
, qui engendre le
et le débit binaire
du code
par
?
), quelle serait son efficacité
6) Est-il possible de transmettre cette source sur un canal de transmission ayant une capacité de 2 400 bit/seconde ? Solution du problème 3 1) L’entropie de la source est : ( )=−
( ) log
( )
Rappel : log ( ) =
log ( ) 1 et ≅ 1,44 log (2) log (2)
( ) ≅ −1,44[0,05 log (0,05) + 0,2 log (0,2) + 0,22 log (0,22) +0,33 log (0,33) + 0,15 log (0,15) + 0,05 log (0,05)] ≅ 2,31 bit d'information/symbole Le débit entropique de la source est : =
( )
= 2,31 × 10 = 2,31 Kbit information/s
2) Construction du code de Huffman.
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
Symbole s i
p ( si )0
p ( si )1
p ( si ) 2
p ( s i )3
p ( si )4
Code C 1
s4
0,33
0,33
0,33
0,42
0,58 0
00
s3
0,22
0,22
0,25
0,33 0
0,42 1
10
s2
0,20
0,20
0,22 0
0,25 1
s5
0,15
0,15 0
0,20 1
s1
0,05
0
s6
0,05
1
11 010
0,10 1
0110 0111
Tableau 1.3. Construction du code
de Huffman
3) Longueur moyenne des mots-code : ( )×
=
= 0,05 × 4 + 0,20 × 2 + 0,22 × 2 + 0,33 × 2
+ 0,15 × 3 + 0,05 × 4 = 2,35 bit/symbole Débit binaire par seconde : =
= 2,35 Kbit/seconde
4) Efficacité et redondance du code de Huffman : =
( )
=1−
=
2,31 ≅ 98,3 % 2,35 = 0,017
5) Codage à longueur fixe (code
).
Comme on a 6 messages, il faut donc 3 bits : =
( ) 2,31 = = 77 % 3 3
Licence illimitée accordée à SCD - Université de Nantes
15
16
Communications numériques 2
Le code
est moins efficace que le code de Huffman
Le débit binaire par seconde avec le code
.
est : 3 × 1 000 = 3 Kbit/s.
6) La capacité du canal est de 2,4 Kbit/s, donc on peut transmettre le code mais pas le code car le débit de est plus important que la capacité du canal. 1.4. Problème 4 – Codage simple, codage avec compression d’information On considère un système de communication numérique, conçu pour la transmission sous forme numérique d’un signal ( ) sur un canal de transmission de capacité 34 Mbit/s. Par la suite, nous nous intéressons seulement à une partie de l’émetteur, composée d’un dispositif de numérisation et de sérialisation (échantillonnage, quantification linéaire sur 8 bits, mise en série des octets) représenté sur la figure 1.3. La fréquence d’échantillonnage est égale à 10 MHz. s(t )
{ bk }
s' Numérisation
Sérialisation
Canal
8 Figure 1.3. Schéma d’un système de transmission numérique d’un signal analogique
1) Avec le dispositif de la figure 1.3, est-il possible de transmettre le signal sur le canal et pourquoi ? Le débit étant important, on cherche alors à le réduire. À cet effet, un système de codage avec compression d’information de type MIC différentiel est intercalé entre les blocs de numérisation et de sérialisation. Il transforme la représentation ( ) à 256 niveaux en une représentation ( ) à 9 niveaux. Le symbole (correspondant à l’amplitude codée de l’échantillon ( )), est représenté selon un code binaire naturel. 2) Quel est le débit
en sortie du bloc de sérialisation ?
Pour réduire encore le débit, on insère après le système de codage MICD un bloc de codage qui groupe deux symboles consécutifs pour former de façon bijective un seul symbole code ( ) (donc celui-ci a une fréquence moitié de celle de ) : { ( ), ( ) ↔ ( ).
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
3) Le codage ?
17
n’utilisant pas de propriétés statistiques de , quel est son débit
Pour réduire encore plus le débit, on utilise un code de Huffman comme codage mais sans groupement par deux des symboles . Les probabilités de réalisation de sont les suivantes : ( =
)=
( =
)=
( =
( =
)=
( =
) = 0,125
( =
)=
( =
) = 0,03125
( =
)=
( =
) = 0,25
) = 0,0625
4) Construire le code de Huffman . Déterminer explicitement les mots-code associés à chacune des réalisations possibles du symbole . 5) Déterminer la longueur moyenne
des mots-code de
et l’entropie
6) Quel est le débit du code ? Quel est son efficacité transmettre le signal sur le canal de transmission ?
( ).
? Peut-on
7) On veut protéger l’information binaire transmise contre les erreurs de transmission. On utilise un codage de bloc qui ajoute à un paquet de 240 bits utiles 15 bits de protection (code détecteur d’erreurs par paquets). Quel est le nouveau débit total moyen et est-il compatible avec la capacité du canal ? Solution du problème 4 1) On a : = 8 × 10 = 80 Mbit/s Le débit est plus grand que la capacité du canal, donc on ne peut pas transmettre le signal sur ce canal. 2) Codage à 9 niveaux, donc il faut 4 bits par échantillon (code à longueur fixe), d’où : = 4 × 10 = 40 Mbit/s
Licence illimitée accordée à SCD - Université de Nantes
18
Communications numériques 2
3) On a :
), (
{ (
)
( )
↔
) a 9 × 9 = 81 configurations différentes possibles, Le couple { ( ), ( et comme on a : 2 < 81 < 2 , il faut 7 bits pour coder un couple d’échantillons, d’où : 1 = 7 × × 10 = 35 Mbit/s 2 4) Construction du code de Huffman. si
p ( si ) 0
p ( si )1
p ( si )2
p ( s i )3
p ( si ) 4
p ( si )5
p ( s i )6
p ( si )7 C4
s8
0,25
0,25
0,25
0,25
0,25
0,25
0,5
0,5 0
10
s7
0,25
0,25
0,25
0,25
0,25
0,25
0,25 0
0,5 1
11
s5
0,125
0,125
0,125
0,125
0,25
0,25 0
0,25 1
s2
0,125
0,125
0,125
0,125
0,125 0
0,25 1
s1
0,0625
0,0625
0,125
0,125 0
0,125 1
s3
0,0625
0,0625
0,625 0
0,125 1
s4
0,0625
0,0625 0
0,625 1
s6
0,03125 0
0,0625 1
s9
0,03125 1
010 011 0010 0011 0000 00010 00011
Tableau 1.4. Construction du code
de Huffman
5) Par définition, on a pour la longueur moyenne : =
( )×
=2×
1 1 1 1 ×2 +2× ×3 +3× ×4 +2× ×5 8 16 32 4
= 2,8125 bit⁄mot code Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
19
et pour l’entropie : ( ) log
( )=−
( )
c’est-à-dire en remplaçant : ( ) = −{2 × 2 ×2
log 2
log 2
+2×2
+2×2
log 2
+3
log 2
1 1 1 1 ( ) = 4 × + 6 × + 12 × + 10 × 4 8 16 32 = 2,8125 bit d'information/mot 6) Débit = = Le code
du code
et son efficacité
pour cette source :
× 10 = 28,125 Mbit/s ( )
=1
est optimal absolu, car les probabilités sont de la forme :
Comme le débit le signal sur le canal.
=2
.
est inférieur à la capacité du canal, alors on peut transmettre
7) Codage de bloc pour la protection contre les erreurs de transmission : =
×
255 = 29,883 Mbit/s 240
De la même façon, comme le débit est inférieur à la capacité du canal, alors on peut transmettre de façon protégée ce signal sur le canal de communication. 1.5. Problème 5 – Transmission numérique d’un signal de télévision (composante de luminance seulement) avec compression d’information et codage de Huffman On considère un système de codage et de transmission de l’information conçu pour la transmission sous forme numérique d’un signal de télévision monochrome
Licence illimitée accordée à SCD - Université de Nantes
20
Communications numériques 2
( ). Le schéma général d’un tel système pour la partie antérieure est donné sur la figure 1.4.
Figure 1.4. Schéma général du système de transmission d’un signal de télévision avec compression d’information
Le signal analogique (signal de luminance) est échantillonné avec une période = 100 ns. Dans un convertisseur analogique/numérique, chaque échantillon est ensuite quantifié linéairement et converti en un nombre entier de 8 bits (code binaire naturel). Un bloc de codage transforme ce nombre de 8 bits en un autre mot-code binaire de longueur fixe ou variable suivant les cas que nous allons examiner. Le mot-code de format est ensuite sérialisé et engendre ainsi un train binaire à débit fixe ou variable suivant les cas. Une mémoire tampon (buffer) permet de fournir en sortie une séquence binaire à débit fixe tel que : = [ ] ( est l’espérance mathématique). Le canal de transmission a une capacité de 34 Mbit/s dont seulement 32 Mbit/s sont utilisables pour la transmission du signal vidéo. 1) On considère d’abord une version très simplifiée où le bloc de codage n’existe pas : le mot ( ) est strictement identique à la représentation binaire ′ ( ) du signal échantillonné ( ). Quel est le débit (en bit/s) en sortie du bloc de sérialisation et le débit fixe en sortie de la mémoire tampon ? Le débit étant considéré comme trop important, on cherche à le réduire. On utilise un codage de Huffman construit à partir de la connaissance (par estimation) de la loi de probabilité des amplitudes représentées par la variable aléatoire discrète associée à . L’entropie ( ) étant égale à 6,65 bits d’information par amplitude et l’efficacité du code étant de 0,95. 2) Quelle est la longueur moyenne débit fixe .
= ( ) des mots-code
? En déduire le
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
21
Le débit étant toujours trop important, on utilise un système de codage avec compression d’information de type MIC différentiel placé, comme indiqué sur le schéma de la figure 1.5. s' ( tk ) 8
s ( tk ) MIC différentiel Différentiel à 11 niveaux
S( k) Codage C
4
d
Figure 1.5. Compression d’information par système MICD et codage
de Huffman
À partir d’une représentation à 256 niveaux, le système MIC différentiel engendre une représentation de ( ) à 11 niveaux. Le nombre est représenté selon un code binaire naturel. 3) On considère d’abord dans la figure 1.5 que le codage n’existe pas. Quel est le en sortie du bloc de sérialisation et le débit fixe ? Est-il trop important ? débit On considère maintenant une alternative pour réduire encore le débit . Le codage (appelé codage ) groupe deux symboles consécutifs pour former de façon bijective un seul mot code (celui-ci a donc une fréquence moitié de celle de ) ↔ ( ). ) : { ( ), ( 4) Le code n’utilisant pas de propriétés statistiques de , montrer que la ? Peutlongueur minimale du mot-code est de 7 bits. Quel est le débit fixe on transmettre l’image sur le canal de transmission ? Pour réduire encore plus le débit, on utilise un code de Huffman comme codage mais sans groupement par deux des symboles . Les probabilités de réalisation de sont les suivantes : ( =
)=
( =
)=
( =
( =
)=
( =
)=
( =
( =
)=
( =
) = 0,125
( =
) = 0,375
)= )=
( = ( =
) = 0,03125 ) = 0,0625
5) Construire le code de Huffman . Déterminer explicitement les mots-code associés à chacune des réalisations possibles de .
Licence illimitée accordée à SCD - Université de Nantes
22
Communications numériques 2
des mots-code ? Quelle est l’efficacité 6) Quelle est la longueur moyenne ( ) du code sachant que l’entropie vaut 2,905 bit/message ? 7) Quel est le débit fixe mission ?
? Peut-on transmettre l’image sur le canal de trans-
On veut protéger l’information binaire transmise contre les erreurs de transmission. On utilise un codage de bloc qui ajoute, à un paquet de 256 bits utiles, 16 bits de protection (code détecteur d’erreurs par paquets). 8) Quel est le nouveau débit total moyen du canal ?
et est-il compatible avec la capacité
Solution du problème 5 1) Débit ? = 100 ns → est fixe →
= 10 MHz = 8 × 10 = 80 Mbit/s
=
2) Longueur moyenne des mots-code et débit fixe ? ( )=−
( ) log
( ) = 6,65 bit d'information/amplitude
→ = =
( )
×
→
=
( )
=
6,65 = 7 bit/échantillon 0,95
= 7 × 10 = 70 Mbit/s
3) Codage de 11 niveaux, donc il faut 4 bits par échantillon car 2 < 11 < 2 . Le débit
est fixe, d’où :
= Oui, le débit
= 4 × 10 = 40 Mbit/s est trop important car il est supérieur à la capacité du canal.
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
4) Codage
{
23
:
↔
,
a 11 × 11 = 121 configurations différentes possibles et Le couple { , comme : 2 < 121 < 2 , il faut donc 7 bits pour coder un couple d’échantillons, soit : = 7 bit/couple d’échantillons est fixe, d’où : =
=7×
2
1 = 7 × × 10 = 35 Mbit/s 2
On ne peut pas transmettre l’image sur le canal car le débit capacité du canal. 5) Construction du code de Huffman
est supérieur à la
.
si
p ( si )0
p ( si )1
p ( s i )2
p ( si )3
p ( si )4
p ( si )5
p ( s i )6
p( s i)7
p ( si )8
p ( si )9
s6
0,375
0,375
0,375
0,375
0,375
0,375
0,375
0,375
0,375
0,625 0
s5
0,125
0,125
0,125
0,125
0,125
0,125
0,25
0,25
0,375 0
0,375 1
s7
0,125
0,125
0,125
0,125
0,125
0,125
0,125
0,25 0
0,25 1
s3
0,0625
0,0625
0,0625
0,125
0,125
0,125
0,125 0
0,125 1
s4
0,0625
0,0625
0,0625
0,0625
0,125
0,125 0
0,125 1
s8
0,0625
0,0625
0,0625
0,0625
0,0625 0
0,125 1
s9
0,0625
0,0625
0,0625
0,0625 0
0,0625 1
s1
0,03125
0,0625
0,0625 0
0,0625 1
s2
0,03125
0,03125 0
0,0625 1
s 10 0,03125 0
0,03125 1
s 11 0,03125 1
Licence illimitée accordée à SCD - Université de Nantes
24
Communications numériques 2
si
s6
s5
s7
s3
s4
s8
Code C 4
1
001
0000
0110
0111
0100
si
s9
s1
s2
s 10
s11
Code C 4
0101
000110
000111
000100
000101
Tableau 1.5. Construction du code
de Huffman
et efficacité :
6) Longueur moyenne ( )×
=
= 0,375 × 1 + 0,125 × 3 + 0,125 × 4 + 4 × 0,0625 × 4 + 4 × 0,03125 × 6 = 3 bit⁄mot-code =
( )
= 96,83 %
7) Débit fixe : Le débit canal.
=
×
= 3 × 10 = 30 Mbit/s.
est inférieur à la capacité du canal, on peut donc le transmettre sur le
8) Codage en bloc de protection : =
×
272 = 31,875 Mbit/s 256
Le débit est inférieur à la capacité du canal, il est donc compatible avec la capacité du canal. 1.6. Problème 6 – Information, entropie, codes (1) On considère un système de codage d’informations d’images numérisées en couleur en vue de leur stockage et de leur transmission efficace sur un canal de transmission. Les images, banque d’images fixes considérée comme une source 1
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
25
d’informations, sont au format VGA (video graphics array) 640 × 480 pixels avec seulement 16 niveaux de couleur par pixel (conjointement, luminance et chrominance). Les statistiques effectuées sur cette banque d’images montrent que sur les 16 couleurs : – 4 sont utilisées 60 % du temps, avec une égale fréquence ; – 4 sont utilisées 30 % du temps, avec une égale fréquence ; – 8 sont utilisées 10 % du temps, avec une égale fréquence. 1) Quelle est la quantité d’informations binaires nécessaire au stockage d’une image avec un code binaire à format fixe (code ) ? On veut réduire cette quantité en utilisant un code à longueur variable de type code de Huffman. 2) Construire le code associé à ce type d’information (code ). Pour cela, on pourra utiliser une technique simple de regroupement des mots à coder en classe de mots (gain de temps important). En déduire la longueur moyenne , la quantité d’informations binaires nécessaire au stockage d’une image et le taux de compression amené par ce code. 3) Quelle est l’entropie pixel) ? En déduire l’efficacité
de la source d’information (par élément d’image : le du code
.
vers un destinataire sur On veut transmettre les images codées avec le code canal binaire symétrique (CBS) sans mémoire ayant un débit fixe . Soit 2 la source d’informations binaires que l’on a en sortie série du codage de Huffman. 4) Quelle est la probabilité = 1 pour 2 ?
d’émettre
= 0 et la probabilité
d’émettre
Le canal de transmission est de type binaire symétrique sans mémoire. Il introduit des erreurs de transmission avec une probabilité d’erreur (l’application numérique sera : = 10 ). 5) Déterminer les entropies
( ),
( ) et
( ⁄ ).
Licence illimitée accordée à SCD - Université de Nantes
26
Communications numériques 2
6) Déterminer la quantité d’information reçue par le destinataire pour chaque symbole binaire envoyé ( , ), ainsi que l’entropie ( ⁄ ) (appelée équivoque). 7) Quelle est la perte d’information en moyenne par image transmise ? 8) Déterminer le nombre moyen de pixels reçus dont la valeur est erronée par image. 9) Serait-il possible de rajouter un code de protection après le codage Que proposez-vous en justifiant votre proposition ? Travaille-t-il au niveau des mots-code ou au niveau de blocs ? Solution du problème 6 1) Image VGA : 640 × 480 = 307 200 pixels, 16 couleurs/pixel. Il faut donc 4 bit/pixel (car 16 = 2 ), soit : = 307 200 × 4 = 1 228 800 bits = 153 600 octets 2) Les 16 couleurs sont réparties en 3 groupes : ↔ ( ,⋯,
)
↔ ( ,⋯,
)
↔ ( ,⋯,
)
Construction du code de Huffman sur les groupes : code
.
Code
Groupe g
p( g )0
p ( g )1
g1
0,6
0,6
0
0
g2
0,3
0
0,4
1
10
g3
0,1
1
11
Licence illimitée accordée à SCD - Université de Nantes
?
Théorie de l’information
Groupe g 1
Code
Groupe g 2
Code
Groupe g 3
Code
c0
000
c4
1000
c8
11000
c1
001
c5
1001
c9
11001
c2
010
c6
1010
c 10
11010
c3
011
c7
1011
c 11
11011
c 12
11100
c 13
11101
c 14
11110
c 15
11111
Tableau 1.6. Construction du code
27
de Huffman
Ainsi, la longueur moyenne des mots de ce code est : ×
=
=4×
0,6 0,3 0,1 ×3 +4× ×3 +8× ×5 4 4 8
= 3,5 bit/couleur = 3,5 bit⁄pixel REMARQUE. Cette longueur moyenne serait en fait égale à 3,45 bit/couleur (ou pixel) pour un codage de Huffman direct sur les couleurs à . Donc, avec ce code, cela nécessite, pour mémoriser ou transmettre une image : = 307 200 ×
= 307 200 × 3,5
= 1 075 200 bits = 134 400 octets Le taux de compression est donné par : =
=
4 = 1,142857 3,5
Licence illimitée accordée à SCD - Université de Nantes
28
Communications numériques 2
3) L’entropie de ce code est : ( )=−
( ) log
( )
( )=− 4×
0,6 log 4
0,6 0,3 +4× log 4 4
0,3 0,1 +8× log 4 8
0,1 8
= 3,395462 bit d’information/couleur = 3,395462 bit d’information⁄pixel Son efficacité est donnée par : =
( )
=
3,395462 ≅ 97 % 3,5
4) Dans le groupe
, il y a 8 bits à 0 sur 12 bits.
Dans le groupe
, il y a 8 bits à 0 sur 16 bits.
Dans le groupe
, il y a 12 bits à 0 sur 40 bits.
Alors la probabilité d’avoir un bit à 0 est de : =
{
= 0 = ( ) = 0,6 ×
8 8 12 + 0,3 × + 0,1 × = 0,58 12 16 40
et celle d’un bit à 1 est de : =
{
=1 = ( )=1−
= 0,42
5) Rappelons que la source d’information considérée ici est la source binaire 2. Les trois entropies sont données successivement par : ( )=−
( ) log
( ) = −{
log
+
log
( ) ≅ −1,44{0,58 × log 0,58 + 0,42 × log 0,42 = 0,981454 bit d'information⁄symbole binaire
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
( )=−
29
log
avec : = ( )=
( )×
⁄
= 0 = 0,58 × (1 − ) + 0,42 ×
= 0,58 − 0,16
= 0,579984 ( )=
= 1 = 1 − ( ) = 0,420016
( ) ≅ −1,44{ ( ) × log
( ) + ( ) × log
( )
= 0,981461 bit d’information⁄symbole binaire ( ⁄ = )=−
⁄
× log
⁄
et : ( ⁄ )=
( ) ( ⁄ =
)
Comme nous avons affaire à un canal de communication binaire symétrique, nous obtenons : ( ⁄ ) ≅ −1,44{(1 − ) log (1 − ) + log ( ⁄ ) ≅ 1,4730335 × 10
=
( )
bit d'information⁄symbole binaire
6) La quantité d’information transmise est : ( , )= ( ⁄ )=
( ) − ( ⁄ ) = 0,9799879 bit d'information⁄symbole binaire ( ) − ( , ) = 1,46661 × 10
bit d'information⁄symbole binaire
7) La perte d’informations en moyenne par image est : ( ⁄ )×
= 1576,35 bit/image
Licence illimitée accordée à SCD - Université de Nantes
30
Communications numériques 2
8) Nombre moyen de pixels reçus erronés : : codage sur 3 bits, ( ) = 0,6, alors la – si transmission du groupe probabilité de transmission sans erreurs des mots-code du groupe est : (1 − ) ; – si transmission du groupe : codage sur 4 bits, ( ) = 0,3, alors la probabilité de transmission sans erreurs des mots-code du groupe est : (1 − ) ; – si transmission du groupe : codage sur 5 bits, ( ) = 0,1, alors la probabilité de transmission sans erreurs des mots-code du groupe est : (1 − )5 . Donc, la probabilité de transmission d’un pixel sans erreur est : {pixel non erroné = 0,6 × (1 − ) + 0,3 × (1 − ) + 0,1 × (1 − ) Or, nous avons : si
≪ 1 → (1 − ) ≅ 1 −
, d’où :
{pixel non erroné ≅ 0,6 × (1 − 3 ) + 0,3 × (1 − 4 ) + 0,1 × (1 − 5 ) ≅ 1 − 3,5 La probabilité d’erreur sur la transmission d’un pixel est alors : {erreur sur un pixel ≅ 3,5 Ce résultat est tout à fait logique car la longueur moyenne est : = 3,5 bit/pixel Le nombre moyen de pixels reçus erronés par image est alors de : 307 200 × 3,5
≅ 108 pixels
9) Les mots-code ∈ au code sont de longueurs variables (3, 4 ou 5 bits), or les codes de protection étudiés dans ce cours sont à capacité dépendante de la longueur des mots-code, la correction d’erreurs sera donc difficile au niveau de chaque motcode. C’est pourquoi la protection (correction d’erreurs) sera à construire au niveau de blocs de bits. 1.7. Problème 7 – Information, entropie, codes (2) Soit un système de codage d’information d’images numérisées de type facsimilé, images comportant des parties noires sur un fond blanc (texte manuscrit ou imprimé, schéma, graphique), en vue de leur stockage et de leur transmission efficace sur un
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
31
canal de communication. Les images numérisées sont au format 1 600 × 2 400 pixels avec deux niveaux de gris par pixel. On considérera que les pixels sont indépendants (c’est une très grande simplification). Les statistiques effectuées sur les images de fac-similé montrent que les pixels de label 0 associé à la couleur blanche sont observés avec une fréquence égale à 0,9 et que les pixels de label 1 associé à la couleur noire sont donc observés avec une fréquence égale à 0,1. 1) Quelle est la quantité d’informations binaires nécessaire au stockage d’une image avec un code binaire à format fixe (code ) ? Un codage de Huffman de cette source d’information à deux symboles peut-il réduire cette quantité et pourquoi ? REMARQUE. Dans les codes de Huffman que l’on construira par la suite, le suffixe 1 sera toujours utilisé pour l’élément de probabilité la plus faible et donc le suffixe 0 pour celui de plus forte probabilité. 2) Quelle est l’entropie ( ) de la source d’information par élément d’image (le pixel) ? En déduire l’efficacité du code . On veut accroître l’efficacité en utilisant un code associé non plus à chaque pixel mais à chaque groupe de deux pixels (code à extension d’ordre 2). 3) Construire le code de Huffman associé à cette nouvelle source d’information (code ). En déduire la longueur moyenne , la quantité de bits de codage nécessaire au stockage d’une image, le taux de compression obtenu par ce code (par rapport au code ) et son efficacité . On veut encore accroître l’efficacité du codage en utilisant un code associé à chaque groupe de trois pixels (code à extension d’ordre 3). 4) Construire le code de Huffman associé à cette nouvelle source d’information (code ). En déduire la longueur moyenne , la quantité d’informations binaires nécessaire au stockage d’une image, le taux de compression obtenu par ce code (toujours par rapport au code ) et son efficacité . On pourrait ainsi continuer l’augmentation du nombre de pixels groupés pour accroître l’efficacité du codage. 5) Quels seraient le taux de compression obtenu par un code à extension d’ordre quasi infini (très grand en pratique) par rapport au code et son efficacité ?
Licence illimitée accordée à SCD - Université de Nantes
32
Communications numériques 2
On veut transmettre les images codées avec le code une ligne de transmission ayant un débit fixe D. Soit binaires que l’on a en sortie série du codage de Huffman 6) Quelle est la probabilité = 1 pour ?
d’émettre
vers un destinataire sur la source d’informations .
= 0 et la probabilité
d’émettre
Le canal de transmission est de type binaire symétrique sans mémoire. Il introduit des erreurs de transmission avec une probabilité (l’application numérique sera : = 10 ). 7) Déterminer successivement les entropies ( ),
( ) et ( ⁄ ).
8) Déterminer la quantité d’information reçue par le destinataire pour chaque symbole binaire envoyé ( , ), ainsi que l’entropie ( ⁄ ). 9) Quelle est la perte d’information en moyenne par image transmise ? 10) Déterminer le nombre moyen de pixels reçus dont la valeur est erronée par image transmise. Solution du problème 7 1) Taille de l’image :
= 1 600 × 2 400 = 3 840 000 pixels.
Pour stocker une image pour un code fixe =1×
égal à 1 bit/pixel, il faut :
= 3 840 000 bits = 480 000 octets
Un codage de Huffman de la source à deux symboles { = 0, = 1 , donne comme longueur moyenne = 1 bit/symbole, donc pas de compression. 2) L’entropie est : ( )=−
( ) log
( ) ≅ −1,44{0,9 × log 0,9 + 0,1 × log 0,1
≅ 0,46812 bit/symbole et l’efficacité :
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
( )
=
33
= 46,81 %
3) Code à extension d’ordre 2 : groupement de deux pixels (symboles ) d’où quatre réalisations possibles. Construction du code de Huffman p ( s ij ) 0
Symboles s ij
=
: p ( s ij )1
s 11 = s 1 s 1
0,81
0,81
s 12 = s 1 s 2
0,09
0,1
0
s 21 = s 2 s 1
0,09
0
0,09
1
s 22 = s 2 s 2
0,01
1
p ( s ij ) 2
Code C 2
0,81
0
0
0,19
1
11 100 101
Tableau 1.7. Construction du code
de Huffman
La longueur moyenne des mots-code est : ×
=
= 0,81 × 1 + 0,09 × 2 + 0,09 × 3 + 0,01 × 3
= 1,29 bit/symbole La quantité de bits de codage nécessaire au stockage d’une image est : =
2
×
=
3 840 000 × 1,29 = 2 476 800 bits 2
Le taux de compression tivement : = =
=
⁄2
relative au code
et son efficacité sont respec-
≅ 1,550387579
( )
Licence illimitée accordée à SCD - Université de Nantes
34
Communications numériques 2
et : ( )=
) = 2 ( ) = 0,93624 bit/symbole
(
d’où : ( )
=
=
0,93624 ≅ 72,57 % 1,29
4) Code à extension d’ordre 3 : groupement de trois pixels (symbole ), d’où huit réalisations possibles. Sl = s ijk
p ( Sl )0
p ( Sl ) 1
p ( Sl ) 2
p ( Sl ) 3
p ( Sl )4
p ( Sl ) 5
=
p ( Sl ) 6
Code C3
S1 = s000
0,729
0,729
0,729
0,729
0,729
0,729
0,729 0
0
S2 = s001
0,081
0,081
0,081
0,081
0,109
0,162 0
0,271 1
100
S3 = s010
0,081
0,081
0,081
0,081
0,081 0
0,109 1
S4 = s100
0,081
0,081
0,081
0,081 0
0,081 1
S5 = s110
0,009
0,01
0,081 0
0,028 1
S6 = s101
0,009
0,009 0
0,01 1
S7 = s011
0,009 0
0,009 1
S8 = s111
0,001 1
101 110 11100 11101 11110 11111
Tableau 1.8. Construction du code
de Huffman
La longueur moyenne des mots-code est : ×
=
= 0,729 × 1 + 3 × 0,081 × 3 + 3 × 0,009 × 5 + 0,001 × 5
= 1,598 bit/symbole Le nombre de bits nécessaire à la mémorisation d’une image est : =
3
×
=
3 840 000 × 1,598 = 2 045 440 bits 3
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
Le taux de compression respectivement : =
=
=
⁄3
( )
=
=
relatif et efficacité par rapport au code
( )
=
sont
1 = 1,877346683 1,598⁄3
3 ( ) = 87,88 % 1,598
5) Extension d’ordre quasi infini : → ∞ → vement les taux de compression et d’efficacité : =
35
=
=
( ) d’où respecti-
1 = 2,136204392 0,46812
=1 6) Probabilité {
=
d’émettre 0 et
d’émettre 1 pour le code
:
=0 = ( )
2 1 2 1 = 1 × 0,729 × + × 0,081 + 2 × × 0,081 + × 0,009 + 2 × × 0,009 3 3 5 5 = 0,8442 {
=
=1 = ( )=1−
= 0,1558
7) Les trois entropies sont successivement les suivantes : ( )=−
( ) log
( ) = −{
log
+
log
≅ −1,44{0,8442 × log 8442 + 0,1558 × log 0,1558 ≅ 0,6230004 bit d'information⁄symbole binaire ( )=−
log
avec : =
( )×
⁄
Licence illimitée accordée à SCD - Université de Nantes
36
Communications numériques 2
( )=
= 0 = 0,8442 × (1 − ) + 0,1558 = 0,8442 − 0,6884
= 0,8441993 ( )=
= 1 = 1 − ( ) = 0,1558006
( ) ≅ −1,44{ ( ) × log
( ) + ( ) × log
( )
= 0,623002 bit d'information⁄symbole binaire ( ⁄ = )=−
⁄
× log
⁄
et : ( ⁄ )=
( ) ( ⁄ =
)
Comme nous avons affaire à un canal de communication binaire symétrique, nous obtenons : ( ⁄ ) ≅ −1,44{(1 − ) log (1 − ) + log ( ⁄ ) ≅ 2,1334334 × 10
=
( )
bits d'information⁄symbole binaire
8) Quantité d’information reçue par le destinataire et entropie (équivoque) : ( , )= ( ⁄ )=
( ) − ( ⁄ ) = 0,6229806 bit d'information⁄symbole binaire ( ) − ( , ) = 1,98 × 10
bit d'information⁄symbole binaire
9) La perte d’information en moyenne par image est : ( ⁄ )× 10) Groupe
= 1,98 × 10
× 2 045 440 = 40,499712 bit/image
: transmission du symbole 1 : codage sur 1 bit, ( ) = 0,729.
Alors, la probabilité de transmission sans erreur du mot-code 1 du groupe est : (1 − ).
(
: transmission des symboles Groupe ) = 3 × 0,081 = 0,243.
2 ou 3 ou 4 ; codage sur 3 bits :
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
Alors, la probabilité de transmission sans erreur des mots code du groupe (1 − ) . Groupe : transmission des symboles 5 ou ) ( = 3 × 0,009 + 1 × 0,001 = 0,028. 5 bits :
37
est :
6 ou 7 ou 8 ; codage sur
Alors, la probabilité de transmission sans erreur des mots code du groupe (1 − ) .
est :
Donc, la probabilité de transmission sans erreur d’un paquet de trois pixels est : {3 pixels non erronés = 0,729 × (1 − ) + 0,243 × (1 − ) + 0,028 × (1 − ) Or, nous avons, si :
≪ 1 → (1 − ) ≅ 1 −
, d’où :
{3 pixels non erronés ≅ 0,729 × (1 − ) + 0,243 × (1 − 3 ) + 0,028 × (1 − 5 ) ≅ 1 − 1,598 La probabilité d’erreur sur la transmission d’un paquet de trois pixels est alors : {erreur sur 3 pixels ≅ 1,598 Ce résultat est tout à fait logique car la longueur moyenne est : = 1,598 bit⁄3 pixels Le nombre moyen de pixels reçus erronés par image est alors de :
3
× 1,598
=
3 840 000 × 1,598 × 10 3
= 2,045 pixels ≅ 3 pixels
1.8. Problème 8 – Codage et transmission d’une source d’information de type télévision Soit un système de codage d’informations d’images numérisées de type TV couleur monochrome. Les images TV numériques sont codées au format (4 : 2 : 2). Cependant, pour simplifier le problème traité ici, on ne considérera que la composante de luminance. Ceci conduit donc à avoir par image : – 576 lignes utiles, à raison de 720 pixels par ligne (structure d’échantillonnage rectangulaire) ;
Licence illimitée accordée à SCD - Université de Nantes
38
Communications numériques 2
– 25 images par seconde (en fait 50 trames par seconde) ; – avec 256 niveaux de gris par pixel monochrome (codage binaire initial sur 8 bits). On considérera, c’est une très grande simplification, que les niveaux des pixels sont indépendants (en termes de variables aléatoires), notés par « ». Par contre, la loi de probabilité pas uniforme.
( ) des niveaux de gris
n’est absolument
Pr ( U )
0
Figure 1.6. Loi de probabilité
U 255 niveaux
128
( ) des niveaux de gris
de l’image TV
1) Quelle est la quantité de symboles binaires nécessaire au stockage d’une seconde d’images TV monochromes avec le code binaire initial à format fixe (code ) ? Supposons que l’entropie ( ) = 6 bit d'information/pixel, en déduire l’efficacité du code . 2) Un codage de Huffman (appelé code peut-il réduire cette quantité et pourquoi ?
) de cette source
d’information
Si l’on considère que le codage de Huffman réalise le codage optimal absolu, en déduire la quantité de symboles binaires nécessaire au stockage d’une seconde d’images TV monochromes. On veut accroître l’efficacité en utilisant une compression d’information de la . Pour cela on effectue une requantification adaptative (et donc non source linéaire) des 256 niveaux de gris de chaque pixel sur 8 niveaux maintenant, notés « ». La loi de probabilité ( ) issue de cette nouvelle source d’informations (notée « ») et son code binaire sont alors celles du tableau 1.9. 3) Quelle est la quantité de symboles binaires nécessaire au stockage d’une seconde d’images TV monochromes avec le code binaire à format fixe (code ) ? Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
Niveaux de ( ) Code
0
1
2
3
4
5
6
7
0,0625
0,0625
0,15
0,21
0,14
0,0625
0,25
0,0625
000
001
010
011
100
101
110
111
Tableau 1.9. Loi de probabilité
( ) de
39
et code binaire
4) Un codage de Huffman (appelé code ) de cette source d’information peut-il réduire cette quantité ? Quelle est l’entropie par pixel et l’entropie totale d’une seconde d’images TV ? 5) Construire le code de Huffman associé à cette nouvelle source mations (code ).
d’infor-
REMARQUE. Dans le code de Huffman que l’on construira, le suffixe 1 sera toujours utilisé pour l’élément ayant la probabilité la plus faible et donc le suffixe 0 pour celui ayant la plus forte probabilité. 6) Pour le code de Huffman
en déduire :
– le nombre moyen de bits de codage par pixel ; – la quantité d’informations binaires nécessaire au stockage d’une seconde d’images TV monochromes ; – le taux de compression
obtenu par ce code
(par rapport au code
);
– son efficacité et sa redondance . On veut transmettre les images codées avec le code vers un destinataire sur une ligne de transmission de symboles binaires, ayant une capacité donnée, notée « Cap ». Soit la source d’informations binaires que l’on a en sortie série du codage de Huffman . 7) Quelle est la probabilité d’émettre = 0 et la probabilité = 1 pour ? En déduire son entropie ( ).
d’émettre
Le canal de transmission est de type binaire symétrique sans mémoire. Il introduit des erreurs de transmission avec une probabilité (l’application numérique sera : = 10 ). On appelle « Y » la sortie du canal binaire d’information lorsque son entrée est la source binaire .
Licence illimitée accordée à SCD - Université de Nantes
40
Communications numériques 2
8) Déterminer l’entropie de . En déduire la quantité d’information reçue par le destinataire pour chaque symbole binaire envoyé par , ( , ). 9) Quelle est la perte d’information en moyenne dans le canal par symbole binaire envoyé ( ⁄ ) et la perte d’information en moyenne par seconde d’images TV transmises ? 10) Déterminer le nombre moyen de pixels reçus par seconde d’images dont la valeur est erronée. 11) Quelle est la capacité par seconde d’images ?
du canal de transmission binaire et la capacité
On modélise ( ) par la somme pondérée (facteurs et respectivement, avec : = 0,6225 et donc : = 1 − ) de deux lois de probabilités discrètes ( )= gaussiennes, notées « » et « », avec : ( ) = Gauss(64, 8) et : Gauss(160, 4) où, dans Gauss( , ), est la valeur moyenne et l’écart-type de la loi de probabilité gaussienne. 12) Quelle est (avec justification) parmi les valeurs suivantes : 8 ; 7 ; 6 ; 5 ; 4 ; 3 ; 2 ; 1 bit/pixel l’ordre de grandeur de l’entropie de la source d’informations par pixel ? Solution du problème 8 1) La taille d’une image est :
= 576 × 720 = 414 720 pixels.
Une seconde d’images numériques TV contient : =
× 25 = 10 368 000 pixel/s = 8 bit/pixel
TV monochrome : Code
:
Efficacité :
= =
× ( )
= 82 944 000 bit/s = = 75 %
2) La source d’information générant
est non uniforme sur [0, 255], donc :
( ) < 8 bit d'information/pixel
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
41
Le codage entropique est donc intéressant. Si le code
de Huffman réalise le codage optimal absolu, alors
=
×
= 62 208 000 bit/s
3) La quantité de bits par seconde avec le code =
×
( ), d’où :
=
est :
× 3 = 31 104 000 bit/s
=
4) Comme n’est pas de loi de probabilité uniforme, alors le codage de Huffman est efficace. L’entropie par pixel est : ( )=−
log
( ) ≅ −1,44
4 × 0,0625 × log (0,0625) + 0,15 × log (0,15) +0,21 × log (0,21) + 0,14 × log (0,14) + 0,25 × log (0,25)
≅ 2,7804781 bit d'information/pixel L’entropie totale d’une seconde d’images TV monochrome est : (
)=
× ( ) = 28 827 997 bit/s
5) Codage de Huffman : code Niveau Z
.
p ( Z )0
p( Z )1
p ( Z )2
p ( Z )3
p( Z )4
p( Z )5
p( Z )6
Code C3
6
0,25
0,25
0,25
0,25
0,29
0,46
0,54 0
01
3
0,21
0,21
0,21
0,25
0,25
0,29 0
0,46 1
11
0,25 1
2
0,15
0,15
0,15
0,21
0,25 0
4
0,14
0,14
0,14
0,15 0
0,21 1
0
0,0625
0,125
0,125 0
0,14 1
1
0,0625
0,0625 0
0,125 1
5
0,0625 0
0,0625 1
7
0,0625 1
Tableau 1.10. Construction du code
000 001 1010 1011 1000 1001
de Huffman
Licence illimitée accordée à SCD - Université de Nantes
42
Communications numériques 2
6) Le nombre moyen de bits de codage est : ×
=
= 0,25 × 2 + 0,21 × 2 + 0,15 × 3 + 0,14 × 3 + 4 × 0,0625 × 4
= 2,79 bit/niveau Le nombre de bits par seconde est : =
= 28 926 720 bit/s
×
Les taux de compression, efficacité et redondance sont respectivement : =
=
= ( )
=1−
=
=
3 = 1,07527 2,79
2,7804781 ≅ 99,66 % 2,79
= 0,0034128
7) Probabilité
d’émettre
= 0 et probabilité
d’émettre
= 1 pour
?
La probabilité d’émettre un bit à zéro est donnée par : 1 0 3 2 = 0 = ( ) = 0,25 × + 0,21 × + 0,15 × + 0,14 × + 0,0625 2 2 3 3 2 1 3 2 × + 0,0625 × + 0,0625 × + 0,0625 × = 0,4933 4 4 4 4 =
{
et celle d’émettre un 1 est donc : =
{
=1 = ( )=1−
= 0,5067
Son entropie est : ( )=−
( ) log
( ) = −{
log
+
log
≅ −1,44{0,4933 × log 0,4933 + 0,5067 × log 0,5067 = 0,99987 bit d'information⁄symbole binaire
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
8) L’entropie de
43
à la sortie du canal de communication est :
( )=−
log
avec : =
( )×
⁄
( )=
= 0 = 0,4933 × (1 − ) + 0,5067 ×
( )=
= 1 = 1 − ( ) = 0,506566
( ) ≅ −1,44{ ( ) × log
( ) + ( ) × log
= 0,493434
( )
= 0,99800773 bit d'information⁄symbole binaire La quantité d’information transmise à travers le canal est : ( , )=
( )− ( ⁄ )=
( )− ( ⁄ )
et comme nous avons affaire à un canal de communication binaire symétrique, on a : ( ⁄ )=
( ⁄ = )=−
⁄
⁄
× log
( ⁄ ) ≅ −1,44{(1 − ) log (1 − ) + log
=
( )
( ⁄ ) ≅ 0,080642209 bit d'information⁄symbole binaire d’où : ( , )=
( ) − ( ⁄ ) = 0,917365521 bit d'information⁄symbole binaire
9) La perte moyenne d’information dans le canal par symbole binaire envoyé est donnée par : ( ⁄ )=
( )− ( , )
= 0,082504479 bit d'information⁄symbole binaire
Licence illimitée accordée à SCD - Université de Nantes
44
Communications numériques 2
La perte d’information en moyenne par seconde d’images TV transmises est : ×
× ( ⁄ ) = 2 386 583,963 bit/s
10) Il faut considérer chacune des longueurs de mots-code : contient les niveaux {0, 1, 5, 7 dont chacun est codé par 4 bits et – le groupe de probabilité égale à 0,0625, d’où : (
) = (0) + (1) + (5) + (7) = 0,25
– le groupe contient les niveaux {2, 4 dont chacun est codé par 3 bits et de probabilités égales à 0,15 et 0,14 respectivement, d’où : (
) = (2) + (4) = 0,15 + 0,14 = 0,29
– le groupe contient les niveaux {3, 6 dont chacun est codé par 2 bits et de probabilités égales à 0,21 et 0,25 respectivement, d’où : (
) = (3) + (6) = 0,21 + 0,25 = 0,46
La probabilité de transmission sans erreur de : est (1 − ) ;
est (1 − ) ;
est (1 − )
Donc, la probabilité de ne pas avoir d’erreur avec le code
est :
{non erreurs = 0,25 × (1 − ) + 0,29 × (1 − ) + 0,46 × (1 − ) Or, si
≪ 1 → (1 − ) ≅ 1 −
, alors :
{non erreurs ≅ 0,25 × (1 − 4 ) + 0,29 × (1 − 3 ) + 0,46 × (1 − 2 ) ≅ 1 − 2,79 La probabilité d’avoir au moins une erreur sur le code {erreurs = 1 −
{non erreurs = 2,79
est alors :
= 0,0279
Le nombre moyen de pixels reçus erronés par seconde d’images est : × 0,0279 = 289 267 pixels
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
45
11) Comme le canal de transmission est de type binaire symétrique, alors : ( , )=1− ( )
=
= 0,91935779 bit d'information⁄symbole binaire et : × (
=
) = 26 503 243 bit d'information⁄s
12) Nous avons : ( ) + (1 −
( )=
)
( )
Si l’on considère en pratique une dynamique de ±3 sa valeur moyenne , alors : (
( )=
) + (1 −
) (
)+ (
par gaussienne autour de
)
Avec variable aléatoire associée à la gaussienne (64, 8) et atoire associée à la gaussienne (160, 4). Par ailleurs, nous avons : (
)
𝑘 → 𝑙 > 4, et la proportion des paquets d’erreurs détectables est alors : 1 − 2 = 1 − 2 = 0,875, soit 87,5 %. 12) Générateur pseudo-aléatoire. Vcc D2 Q2
D0 Q 0
D 1 Q1
°
ck
s
g0 = 1
g2 = 1
g3 = 1
Sortie Sortie
Q2
Q1
Q0
N° Ck
1
0
0
1°
1
1
0
2°
1
1
1
3°
0
1
1
4°
1
0
1
5°
0
1
0
6°
0
0
1
7°
1
0
0
Sortie: Sortie :s s= =Q 0Q 0 Etat initial État initial
Retour l’étatinitial initial Retour ààl’état
Figure 1.13. Générateur pseudo-aléatoire et état du registre
La longueur du cycle est : 𝑙 = 2 − 1 = 2 − 1 = 7 → quasi équilibrée.
4 bits à 1 : séquence 3 bits à 0
Licence illimitée accordée à SCD - Université de Nantes
64
Communications numériques 2
1.12. Problème 12 – Codage cyclique (2) On considère le problème du codage de l’information à transmettre en vue de la protéger contre les erreurs de transmission. Pour cela, on utilise un code cyclique défini par son polynôme générateur ( ) de degré et le polynôme ℎ( ) de degré , orthogonal à ( ) modulo ( + 1). On fixe
= 15 et le polynôme générateur associé est :
( )=
+
1) Le code cyclique
+
+1
détecte-t-il les erreurs doubles ? Justifier votre réponse.
On impose que le code cyclique soit un code systématique que l’on appellera code . Dans ce cas, à partir d’un mot à coder représenté par le polynôme ( ), on obtient le mot codé représenté par le polynôme ( ). 2) Quelle est la structure du polynôme ( ) : format de chacune des deux parties de ( ) ? 3) À partir du mécanisme de construction des mots-code par le code , déterminer le schéma de réalisation du codeur associé au code (en utilisant les seuls opérateurs : bascule D ; multiplexeur 2 vers 1 ; Ou Exclusif). En prenant comme exemple le mot à coder représenté par le polynôme ( )= + + + + 1, décrire le fonctionnement du codeur prémultiplié : état interne et valeurs de l’entrée et de la sortie à chaque coup d’horloge. En déduire le polynôme code
( ) associé à ( ).
4) Déterminer le schéma de réalisation du décodeur associé au code mettant la détection des erreurs et expliquer son fonctionnement. On n’impose plus que le code cyclique soit systématique. On appellera code tel que ( ) soit obtenu par multiplication de ( ) par ( ). 5) Déterminer le schéma de réalisation du codeur associé au code les seuls opérateurs : bascule D ; Ou Exclusif).
perle
(en utilisant
En prenant comme exemple le mot à coder de la question 3, décrire le fonctionnement du codeur. En déduire le polynôme code ( ) associé à ( ).
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
65
Solution du problème 12 1) Nous avons ( )=
= 15 ; +
= 5 et : + 1 = ( + 1)(
+
+ 1) = ( + 1) × ( )
+
( ) n’est pas primitif, mais ( ) qui est de degré 4, est primitif car : 2 − 1. Deux erreurs intervenant en position et un polynôme erreur de type : ( )=
+
=
d’un mot-code sont caractérisées par
+ 1) avec
(
= 15 =
> >
Le polynôme ( ) étant primitif, donc ( ) ne divise aucun des polynômes de la forme ( + 1) avec < . Or ( − ) est au plus égal à ( − 1). Par ailleurs, ( ) ne divise pas
, d’où détection des erreurs doubles.
À noter au passage que le polynôme ( + 1) détecte toutes les erreurs simples et triples. 2) Structure du polynôme : ( )= ( )× ( )+ ( )→
( )+ ( )= ( )× ( )= ( )
avec : ( ) : polynôme-information décalé cycliquement de – gauche ;
positions vers la
– ( ) : polynôme-contrôle. 3) Nous avons : ( )= ( )× ( )+ ( ) d’où : ×(
+
+ ×(
+
+ +
+
+
+ +
+
+ 1) = ( =(
+ 1) +
+ +
+
+ 1) × ( ) + ( )
+ +
+
+ 1) +
+1
Licence illimitée accordée à SCD - Université de Nantes
66
Communications numériques 2
Donc finalement : ( )=
( )+ ( )
( )=
+
+
+
+
+
+
+
Schéma de réalisation du codeur associé au code bleau 1.15) et description de son fonctionnement. °k
D0 Q0
x i (x)
D1 Q1
D2 Q2
D3 Q3
+
+1
(bloc-diagramme du ta-
1 c1 2
D4 Q4
u1
ck
c2
1 2
c1c2 1 1
ck
i( x)
D0
Q0
Q1
D2
D1 1x
8
0
0
0
1
0
1
1
2°
1 1
0
3° 0
1
4° 0
0
5° 1
0
6° 0
0
7° 1
1
8° 1
1
9° 2 2
0
0
10° 0
0
11° 0
0
12° 0
0
0
1 1 1 0 0 0 0
0 0
0
0 0
0 0
1 0
1 1
1 1
1 1
1 1
1 1
1 1
1 1
1 1
1 0
0 0
1 0
1
0 0
0 0
0
1 0
0 1
0
1 1
0
1
1 1
0 0
0
1 1
1
0
0 1
1
0 0
0 14°
1
1 1
1
1 0
0
0 0
13°
0
1
0 1
0 1
1
0 0
0
1
1 0
1 1
1 1
1
0 0
1
0
1 0
0
0
1 1
1
1
1
0 1
0
1
0
0 0
1
1
0
0 0
u1
0
1
1 0
Q4
0
1
0 1
D4
1
1
1 0
Q3
D3
1
1°
Q2
1 1
0 0
1 0
Tableau 1.15. Description du fonctionnement du codeur prémultiplié
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
67
4) La structure du décodeur pour la détection des erreurs est donnée par la figure 1.14.
Clear
Figure 1.14. Structure du décodeur pour la détection des erreurs
Le procédé de détection est le suivant : – initialisation : on remet à zéro le registre par action sur Clear ; – pendant 𝑛 coups d’horloge, le mot-reçu 𝑣(𝑥) entre dans le diviseur. Le reste de la division 𝑥 𝑠(𝑥) est stocké dans le registre au 𝑛 coup d’horloge, la sortie de la porte OU indiquera alors s’il y a erreur ou non. 5) Nous avons : 𝑢 (𝑥) = 𝑖(𝑥) × 𝑔(𝑥) mod (𝑥 + 1) 𝑢 (𝑥) =
𝑖𝑥
𝑔 𝑥 =
𝑖 × 𝑔 ×𝑥
Posons : 𝑙 = 𝑠 + 𝑗 : 𝑢 (𝑥) =
𝑖 ×𝑔
𝑥 avec (𝑙 − 𝑠) ∈ 0, ⋯ , 𝑘
soit encore : 𝑢 (𝑥) = 𝑖 𝑔 + (𝑖 𝑔 + 𝑖 𝑔 )𝑥 + (𝑖 𝑔 + 𝑖 𝑔 + 𝑖 𝑔 )𝑥 + ⋯ +(𝑖
𝑔 +𝑖
𝑔
)𝑥
+𝑖
𝑔 𝑥
Licence illimitée accordée à SCD - Université de Nantes
68
Communications numériques 2
Une réalisation matérielle de cette relation représente le codeur associé au code (voir le bloc-diagramme du tableau 1.16). Le mot information est entré dans un registre à décalage, bit de poids faible en tête, et les bits correspondant aux termes présents dans le registre sont additionnés (modulo 2). Les bits du produit sortent avec les bits de poids faible en tête. i(x)
g0 = 1 D1 Q1
D0 Q0
g2 = 1 D2 Q2
D4 Q4
D3 Q3
g4 = 1
D5 Q5
i(x) 0
x 1
1°
Q0
Q1
Q2
Q3
Q4
Q5
0
0
0
0
0
0
1
0
0
0
0
0
1x
1
1
0
0
0
0
1
0
1
1
0
0
0
1
1
0
1
1
0
0
0
0
1
0
1
1
0
1
0
0
1
0
1
1
1
1
0
0
1
0
1
0
0
1
0
0
1
0
1
1
0
1
0
0
1
1
0
1
0
1
0
0
0
0
0
1
0
1
0
0
0
0
0
1
0
1
1
0
0
0
0
1
0
1
u2 ( x )
1 2° 0 3° 1 4° 0 5° 0 6° 1 7° 0 8° 1 9° 0 10° 0 11° 0 12° 0 13°
u2 ( x )
g5 = 1
ck
ck
= 1
Licence illimitée accordée à SCD - Université de Nantes
0
Théorie de l’information
ck
i( x )
Q0
Q1
Q2
Q3
Q4
Q5
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
69
u2(x)
0 14°
1x
13
0 15°
Tableau 1.16. Description du fonctionnement du codeur C2
En effet : ( )= ( )× ( )=( =
+
+
+
+
+ +
+ +
+ +
+ 1) × ( +
+
+
+ 1)
+1
1.13. Problème 13 – Codage cyclique et codage de Hamming (1) On considère un code en blocs linéaire de paramètre générateur primitif : ( ) = + + 1.
= 7 et de polynôme
1) Montrer que ce code est cyclique. En déduire le deuxième polynôme générateur primitif ( ). 2) Écrire une matrice génératrice [ ] de ce code. En déduire la matrice génératrice [ ] de la version systématique du code en question. 3) Déterminer le mot-code ( ) sous forme systématique qui est associé au mot d’information : ( ) = + 1. 4) Construire le codeur prémultiplié permettant de générer le mot-code ( ) à partir du mot-information : ( ) = + 1. 5) Donner la matrice de contrôle [ ] du code dual au code . 6) Trouver, à partir de la relation liant la matrice de contrôle [ ] et le mot-code , les bits de contrôle en fonction des bits d’information de la question 3. 7) Donner vos commentaires à propos du code
et de son dual.
Licence illimitée accordée à SCD - Université de Nantes
70
Communications numériques 2
Solution du problème 13 1) Le code est cyclique si ( ) divise ( avec < . Ici
+ 1) mais ne divise pas pas (
+ 1)
= 7 et : (
+ 1) = (
+
+ 1) × (
+
(
+ 1) = (
+
+ 1) × (
+
Donc, ( ) divise (
+ 1), et le code
+
+ 1) × ( + 1) est cyclique.
Le deuxième polynôme générateur primitif ( )=(
+
+ 1)
( ) est :
+ 1)
2) La matrice génératrice [ ] du code (7, 4) est obtenue à partir du polynôme générateur ( ) comme suit :
[ ]
,
1 0 = 0 0
1 1 0 0
0 1 1 0
1 0 1 1
0 1 0 1
0 0 1 0
( ) ( ) ( ) ( )
0 0 0 1
Pour mettre le code sous forme systématique, la matrice génératrice [ ] doit avoir la forme [ ] = , | , obtenue à partir des opérations arithmétiques sur les lignes de la matrice [ ] , . En effet, d’après la forme de la matrice [ ] nous constatons que : – la ligne 1 de la matrice [ ] est obtenue par la somme des lignes : 1 + 2 + 3 de la matrice [ ] ; – la ligne 2 de la matrice [ ] est obtenue par la somme des lignes : 2 + 3 + 4 de la matrice [ ] ; – la ligne 3 de la matrice [ ] est obtenue par la somme des lignes : 3 + 4 de la matrice [ ] ; – la ligne 4 de la matrice [ ] est identique à la ligne 4 de la matrice [ ], d’où : 1 0 [ ]= 0 0
0 1 0 0
0 0 1 0
0 0 0 1
| | | |
1 0 1 1
1 1 1 0
0 1 1 1
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
3) Nous avons : ( )= ( )× ( )+ ( )→
( )+ ( )= ( )× ( )= ( )
or : ( )=
+1;
( )=
=3 →
×(
+1)=
+
D’où : + ⨁ + + −−−−−−−
+ +1 ← ( ) | −−−−−−−−−− | + + +1 ← ( ) |
+ + −−−−−−− + + + −−−−−−− + + + +1 −−−−−−− +1 ← ( ) → ( )=
+
+
+1
= [1 0 0 1 0 1 1] 4) Construction du codeur prémultiplié.
k
°
x i(x)
D0 Q0
D1 Q1
ck Clear Clear
D2 Q2
c1 u 1 2 g3 = 1 1
g0 = 1
g2 = 1
c2 2
Figure 1.15. Schéma de réalisation du codeur prémultiplié
Licence illimitée accordée à SCD - Université de Nantes
71
72
Communications numériques 2
5) Matrice de contrôle [ ] du code dual au code . Il est tel que l’on a : [ ] × [ ] = [0] ; [ ] = →[ ]
,
,
|
,
→[ ]=
,
|
,
1 0 1 1 | 1 0 0 = 1 1 1 0 | 0 1 0 0 1 1 1 | 0 0 1
6) Bits de contrôle en fonction des bits d’information de la question 3 : [ ]
×
,
,
= [0]
,
1 0 1 1 1 0 0 1 1 1 0 0 1 0 × 0 1 1 1 0 0 1
+ + +
→
+ + +
+ + +
0 = 0 0
=0 =0 → =0
= = =
+ + +
+ + +
Donc nous avons : = [1 0 0 1 0 1 1]
=
bits information bits contrôle 7) Le code dual d’un code cyclique à longueur maximale est le code de Hamming. 1.14. Problème 14 – Codage cyclique et codage de Hamming (2) On considère un code en blocs linéaire défini par sa matrice génératrice suivante : [ ]
,
1 1 1 0 1 0 0 = 0 1 1 1 0 1 0 0 0 1 1 1 0 1
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
1) Donner l’expression du polynôme générateur ( ) associé à [ ]
,
73
.
2) Le code généré par ( ) est-il cyclique ? Justifier votre réponse. On impose que le code cyclique généré par ( ) soit systématique. 3) Déterminer le polynôme (mot-code) ( ) du polynôme (mot-information) : ( )= + 1. 4) Donner le schéma de réalisation du codeur prémultiplié permettant de générer le mot-code ( ) à partir du mot-information ( ) = + 1 et décrire son fonctionnement : état interne et valeurs de l’entrée et de la sortie pour trois coups d’horloge. 5) Le code généré détecte-t-il les erreurs impaires et doubles ? Justifier votre réponse. 6) Déterminer la proportion des paquets d’erreurs, de longueur > 5, détectables par le code généré. 7) Donner explicitement la matrice génératrice [ ], à partir de la matrice [ ] donnée précédemment, permettant de générer un code systématique. 8) Déterminer explicitement la forme de la matrice de contrôle [ ] permettant de générer un code dual au code . 9) Trouver, à partir de la relation liant la matrice de contrôle [ ] et le mot-code , les bits de contrôle en fonction des bits d’information. 10) Donner le schéma de réalisation du générateur pseudo-aléatoire (PRNG) basé sur ( ). Solution du problème 14 1) La dernière ligne de [ ] , = [ ] représente le polynôme générateur ( ) : → ( )=
+
+
+1 →
,
est le mot-code de plus faible degré qui
=4
2) D’après [ ] , → = 3 et = + = 3 + 4 = 7. Le code généré est + 1), avec < =7: cyclique si ( ) divise ( + 1) mais ne divise pas (
Licence illimitée accordée à SCD - Université de Nantes
74
Communications numériques 2
+ + +1 ← ( ) | −−−−−−−−−− + +1 ← ( ) | |
+1 ⨁ + + + −−−−−−− +
+
+1
+
+
+
−−−−−−− +
+
+1
+
+
+1
−−−−−−−− 0
0
0
0
+ 1) = (
→ (
+
+
+1)×(
( )
(
+
+1)
( )
Donc, comme ( ) divise ( + 1), mais ne divise pas ( + 1), alors le code généré par ( ) est cyclique.
+ 1), ni (
3) Détermination du polynôme ( ) associé au polynôme : ( ) =
+ 1), ni
+ 1.
Nous avons : ( )= ( )× ( )+ ( )→ ( )=
×(
+ ⨁ + + + −−−−−−−
+1)=
( )+ ( )= ( )× ( )= ( )
+
+ + +1 ← ( ) | −−−−−−−−−− + +1 ← ( ) | |
+ +
+
+
−−−−−−−
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
75
𝑥 +𝑥 +𝑥 +𝑥 𝑥 +𝑥 +𝑥 +1 −−−−−−−− 𝑐(𝑥) = 𝑥 + 1 → 𝑢(𝑥) = 𝑥 𝑖(𝑥) + 𝑐(𝑥) = 𝑥 + 𝑥 + 𝑥 + 1 4) Schéma de réalisation du codeur prémultiplié générant le mot code 𝑢(𝑥) à partir du mot-information 𝑖(𝑥) = 𝑥 + 1 et description de son fonctionnement (voir le bloc-diagramme du tableau 1.17).
°
k
x ix
D0 Q0
D1 Q1
1
D3 Q3
D2 Q2
2
ck
c1
u
g4 = 1 1
Clear Clear
g2 = 1
g0 = 1
c1c2
ck
k x i x D0
Q0
g3 = 1
c2
2
Q1
D2
Q2
D3
Q3
u1
0
0
1
0
1
0
1
1
0
D1 1
1
1x
6
1
1° 0x
5
1
2°
1 1x
3°
1
4
1
1 1
1 1
1
1 0
1 0
1
0 0
0 0
1 0
Tableau 1.17. Fonctionnement du codeur : état interne et valeurs de l’entrée et de la sortie pour trois coups d’horloge
5.a) Détection des erreurs en nombre impair. Si 𝑔(𝑥) peut se mettre sous la forme 𝑔(𝑥) = (𝑥 + 1)𝑝(𝑥), alors 𝑔(𝑥) détecte les erreurs en nombre impair grâce à (𝑥 + 1) (voir volume 1, chapitre 4).
Licence illimitée accordée à SCD - Université de Nantes
76
Communications numériques 2
+
+
+1
⨁
+1 |−− −− −− −− − − + +1 ← ( ) | |
+ −−−−− +1 + −−−− +1 +1 −−−− 0 0
( )=( +1)×(
→
+
+ 1) = ( + 1 ) × ( )
Donc, détection des erreurs en nombre impair. 5.b) Détection des erreurs en nombre double. Le générateur ( ) contient le polynôme ( ) = + + 1 qui est primitif, car 2 − 1 = 7 = , donc ( ) permet la détection des erreurs doubles. 6) Proportion des paquets d’erreurs de longueur > 5. On a = 4, donc la proportion des paquets d’erreurs de longueur > 5 détectables est : 1−2
>
+1 →
= 93,75 %
=1−2
7) La matrice [ ] est obtenue à partir de la matrice [ ] , par déplacement des positions de certaines colonnes, vérifiant la forme attendue de : [ ] , = [ ] , = , | , : 1 = 0 0 1 0 0 = 0 1 0 0 0 1
[ ]
,
1 1 0 | | |
1 1 1 1 1 0
0 1 1 1 1 1
1 0 1 0 1 1
0 0 1 0 →[ ] 0 1 1 0 1
,
8) Forme de la matrice de contrôle [ ] : [ ]
,
×[ ]
,
= [0]
,
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
[ ]
=
,
[ ]
=
,
→[ ]
|
,
1 1 = 0 1
,
|
,
→[ ]
,
→ [ ]
,
1 1 1 0
0 1 1 1
| | | |
,
1 0 0 0
,
=
= 0 1 0 0
,
0 0 1 0
,
|
|
,
77
,
0 0 0 1
9) Bits de contrôle en fonction des bits d’information ? Nous avons : [ ]
1 1 0 1
,
×[ ]
,
0 1 1 1
1 0 0 0
1 1 1 0
= [0]
0 1 0 0
0 0 1 0
,
0 0 × 0 1
0 0 = 0 0
avec :
→
,
,
: bits d’information
,
,
,
: bits de contrôle
⨁ ⨁ =0 ⨁ ⨁ ⨁ =0 → ⨁ ⨁ =0 ⨁ ⨁ =0
= = = =
⨁ ⨁ ⨁ ⨁ ⨁
10) Schéma de réalisation du générateur pseudo-aléatoire basé sur ( ) : ( )=
+
+
+1
Le schéma de réalisation du générateur pseudo-aléatoire (PRNG) basé sur le polynôme ( ) est donné sur la figure 1.16. REMARQUE. Au démarrage, il faut que l’état initial [ soit différent de zéro.
,
,
,
] du registre
Licence illimitée accordée à SCD - Université de Nantes
78
Communications numériques 2
D3 Q3
D2 Q2
D1 Q1
D0 Q0
Sortie
ck 1=
Figure 1.16. Schéma de réalisation du générateur pseudo-aléatoire
1.15. Problème 15 – Code cyclique, séquences-M et séquences de Gold On considère le problème de codage de l’information à transmettre en vue de la protéger contre les erreurs de transmission. Pour cela, on utilise un code cyclique défini par son polynôme générateur suivant : ( ) = + + 1, et = 31. 1) Quelle est la condition nécessaire et suffisante pour que le polynôme proposé soit primitif et générateur d’un code cyclique ? On souhaite réaliser un code cyclique
( )
systématique.
2) Donner l’expression du mot-code représenté par le polynôme pondant au mot-information représenté par le polynôme : ( ) = +
( ) corres+ + 1.
3) Donner le schéma de réalisation du codeur basé sur un circuit de division prémultiplié par , où est le degré du générateur ( ). Décrire son fonctionnement. 4) Donner le schéma de réalisation du décodeur associé au code détection des erreurs et expliquer son fonctionnement.
permettant la
5) Le code cyclique généré détecte-t-il les erreurs simples, doubles, triples ? Justifier votre réponse dans chaque cas de figure. 6) Déterminer les couples longueur-pourcentage des paquets d’erreurs détectables par ce code. 7) Donner le schéma de câblage du générateur de séquences pseudo-aléatoires à longueur maximale (séquences-M), basé sur le polynôme primitif ( ) défini plus haut. ( ) au géné8) Donner l’expression du polynôme générateur réciproque rateur ( ). Quelle est la caractéristique essentielle de la séquence-M générée par ( ) par rapport à celle générée par ( ) ?
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
9) Donner le nombre de séquences-M générées par l’intercorrélation maximale et l’autocorrélation. 10) Montrer que le générateur une paire préférée.
( )=
+
+
79
( ) et le rapport entre + 1 forme avec
+
11) Donner le schéma de câblage du générateur de Gold basé sur ( ) et permettant de générer toutes les séquences de Gold.
( )
( ),
12) Donner le nombre de séquences de Gold générées et le rapport entre l’intercorrélation maximale et l’autocorrélation. Solution du problème 15 1) La condition nécessaire et suffisante que ( ) soit primitif est que : 2 −1=
=2 −1
donc ( ) est primitif. Le polynôme ( ) est générateur d’un code cyclique, s’il divise + 1), avec < 31. divise pas ( Le générateur ( ) divise +1=( ×(
+
+
+
+ +
+
− 1, en effet, après division on trouve :
+ 1) +
+
+ 1 mais ne
+
+
+
+
+ 1)
+
+
+
2) Expression du mot-code représenté par le polynôme ( ) correspondant au mot-information représenté par le polynôme ( ). On a : ( )= ( )× ( )+ ( )→
( )+ ( )= ( )× ( )= ( )
ou encore : ( )=
×(
+
+
+ 1) =
+
+
+
Licence illimitée accordée à SCD - Université de Nantes
80
Communications numériques 2
+
+
+ +1 ← ( ) | −−−−−−−−−− | + + +1 ← ( ) |
+
⨁ + + −−−−−−− +
+
+
+
−−−−−−− +
+
+
+
+
−−−−−−−− +
+
+
+
+1
+
−−−−−−−−−− ( )=
+
→ ( )=
+ +
+1 +
+
+
( )
par
+
+
+1
( )
3) Schéma de réalisation du codeur basé sur un circuit de division prémultiplié .
°k
x i(x)
D0 Q0
D1 Q1
D2 Q2
D3 Q3
D4 Q4
ck
1 c1 u1 2 c2 1 2
Figure 1.17. Schéma de réalisation du codeur
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
81
Le fonctionnement du codeur est le suivant : – remise à zéro des bascules ; – pendant = 8 coups d’horloge, les multiplexeurs (Muxs) 1 et 2 sont en position 1. Les bits-information sont appliqués simultanément au diviseur et à la sortie. Les bits ( = 5) de contrôle se trouvent dans les bascules du registre ; – pendant coups d’horloge, les multiplexeurs (Muxs) 1 et 2 sont en position 2 ; des zéros entrent dans le registre et les bits de contrôle sortent. Le codeur utilise : ( + ) = (8 + 5 = 13) coups d’horloge et le canal de transmission est utilisé pendant toute l’opération. Au 13e coup d’horloge, les bascules du registre sont à zéro et le codeur est prêt à recevoir un autre mot-information à coder. Le codeur est très performant. 4) Schéma de réalisation du décodeur associé au code C. Le mot reçu ( ) s’écrit : ( )= ( )+ ( ) avec ( ) mot-erreur éventuel. Le syndrome est défini par : ( ) = ( )
( )=
( ) + ( )
Donc si ( ) est non nul, et si ( ) ∉ ( , du décodeur.
( ) = ( )
( ) ( )
), alors ( ) ≠ 0, d’où le schéma
≥1
s(x)
v(x) D0 Q0
D1 Q1
D2 Q2
D3 Q3
D4 Q4
ck
Figure 1.18. Schéma de réalisation du décodeur
Licence illimitée accordée à SCD - Université de Nantes
82
Communications numériques 2
Le mot reçu ( ) est divisé par ( ) durant = + = 8 + 5 = 13 coups d’horloge. Ensuite, le contenu du registre est vérifié par une simple porte logique OU. Si le contenu est nul, alors le mot reçu n’est pas considéré comme erroné. Sinon, le mot reçu est considéré comme erroné (le contenu du registre est non nul). 5) Capacité du code cyclique à détecter les erreurs simples, doubles, triples ? Nous savons que : ( ) ( )
( )=
Donc, la détection d’erreurs est possible si ( ) ne divise pas ( ). – Erreurs simples : dans ce cas, une erreur en position , représentée par ( ) = n’est pas divisible par ( ) = 1 + ⋯, donc détection des erreurs simples. – Erreurs triples : dans ce cas, ( ) = + + , et comme ( ) ≠ (1 + ) ( ) alors, en principe, il n’y a pas de détection des erreurs triples (voir volume 1, chapitre 4). – Erreurs doubles : dans ce cas, ( ) est de la forme ( ) = + = ( + 1) avec < < . Comme ( ) ne divise pas , il suffit alors que ( ) + 1). Le générateur ( ) divise + 1 mais ne divise ne divise pas non plus ( pas + 1, avec < , alors ( ) est dit d’ordre . Les polynômes primitifs sont irréductibles. Ils détectent toutes les erreurs doubles car ( − ) < . 6) Détermination des couples longueur-pourcentage des paquets d’erreurs détectables. Un paquet d’erreurs qui débute en position et a une longueur s’écrit : ( )=
+
+⋯+
où le premier et le dernier coefficients de ( ) sont à 1, les autres coefficients peuvent être à 1 ou 0 : ( )=
× 1+
+⋯+
=
× 1( )
Trois cas se présentent : – − 1 < ( = 5) → = 5, d’où une détection à 100 % de tous les paquets d’erreurs de ≤ ;
Licence illimitée accordée à SCD - Université de Nantes
Théorie de l’information
83
– − 1 = → = + 1 = 6, la proportion des paquets d’erreurs détectables est alors : 1 − 2 ( ) = 1 − 2 = 0,9375, soit 93,75 % des paquets ; – − 1 > → > 6 , la proportion des paquets d’erreurs détectables est alors : 1 − 2 = 1 − 2 = 0,9687, soit 96,87 %. 7) Le schéma de réalisation du générateur pseudo-aléatoire (PRNG) basé sur ( ) est donné figure 1.19. D4 Q4
D2 Q2
D3 Q3
D1 Q1
D0 Q0
s
ck 1=
Figure 1.19. Schéma de réalisation du générateur pseudo-aléatoire basé sur ( )
REMARQUE. Au démarrage, il faut que l’état initial [ soit différent de zéro. 8) Expression du polynôme générateur
,
,
,
,
] du registre
( ) réciproque au générateur ( ).
Nous avons : ( )=
× (1⁄ ) =
La séquence-M générée par inversée.
×(
+
+ 1) =
+
+1
( ) correspond à celle générée par ( ) mais
9) Nombre de séquences-M générées par ( ). = 5, d’où le nombre des séquences-M générées par ⁄ (0) = 0,35 (voir volume 1, chapitre 4). 10) Le générateur paire préférée ? Soit
( )=
+
+
une racine de : ( ) =
+
+ 1.
+
( ) est 6. Le rapport
+ 1, forme-t-il avec
Licence illimitée accordée à SCD - Université de Nantes
( ) une
84
Communications numériques 2
Le polynôme ( ) car : si
( )=
+
+
1)
est impair, comme
2)
( ) est tel que
c’est-à-dire que ( ) divise (
)=
(
) = (α) × (
+
+
+ +
+ 1, forme une paire préférée avec
= 5, la conditions 1) est vérifiée =
(
+
+
est une racine de
( )
). Cette condition est également vérifiée, car : +1 +
+
+
+
+
+
+
+ 1)
avec : ( )=(
+
+ 1)
11) Schéma de réalisation du générateur de Gold basé sur ( ) et
( ).
Figure 1.20. Schéma de réalisation du générateur de Gold
12) Le nombre de séquences de Gold est ( , ) = { , , ⨁ , une famille ⁄ (0) ( ) = 0,29 (voir volume 1, chapitre 4). de + 2 séquences. Le rapport est
Licence illimitée accordée à SCD - Université de Nantes
Chapitre 2
Transmissions numériques en bande de base : problèmes 16 à 26
2.1. Problème 16 – Entropie et codage d’une source d’information à signal On considère le problème de la transmission à grande distance sur câble électrique faible coût d’une source d’informations comprimées issue d’un système de compression de signaux vidéo. Le système de compression utilisé fait que la source S délivre des mots s pris dans un dictionnaire à cinq mots seulement : [ , , , , ]. Les probabilités d’émission des symboles sont présentées dans le tableau 2.1.
( )
0,11
0,19
0,40
0,21
0,09
Tableau 2.1. Probabilités d’émission de la source
Les symboles sont délivrés par la source avec une cadence de 13,5 106 symboles par seconde. 1) Déterminer l’entropie ( ) de la source . En déduire le débit entropique. Quelle serait l’efficacité d’un code à longueur fixe, sa longueur , et le débit ? binaire par seconde, noté 2) Construire le code de Huffman des symboles .
donnant le mot code
associé à chacun
Licence illimitée accordée à SCD - Université de Nantes
86
Communications numériques 2
REMARQUE. Dans la construction du code , le suffixe de codage associé à l’élément de plus faible probabilité sera systématiquement fixé à 1. En déduire la longueur moyenne, notée et le débit binaire par seconde .
, des mots-code de
, son efficacité
3) On considère que la source S délivre la suite temporelle SS de symboles s suivante : ⋯⋯
⋯ ⋯ ⟶ temps
En déduire la séquence correspondante SB de bits obtenue en sortie du codage de Huffman . SB est de la forme {⋯ ⋯ , , ⋯ ⋯ . Qu’observez-vous ? 4) L’émetteur construit un signal en bande de base supportant les bits d’information transmis. a) Il utilise d’abord un codeur bipolaire (appelé CODBip) de type RZ, d’amplitude V et de durée . Représenter graphiquement la portion de signal associée à SB émise par ce codeur CODBip. Quels sont les problèmes rencontrés en réception ? REMARQUE. De même que la question b), on considérera, au départ de la séquence, que la bascule de parité du nombre de 1 est égale à 1. b) Il utilise ensuite un codeur (appelé CODHDB) de type HDB-2. Représenter graphiquement la portion de signal associée à SB émise par ce codeur CODHDB. Certains problèmes sont-ils résolus et pourquoi ? c) Quelle est approximativement la largeur de bande du signal émis par le code bipolaire ou HDB-2 pour coder la source S ? (On pourra s’appuyer sur les propriétés de la densité spectrale de puissance Γ( ) du signal transmis.) Pour transmettre cette source d’informations sur ce type de câble, y a-t-il une bonne adéquation ? 5) On veut réduire la largeur de bande du signal émis. Aussi veut-on utiliser un codeur information à signal de type codeur linéaire à réponse partielle. Ce codeur sera très simple, de la forme 1 − (ici D est l’opérateur retard de , temps alloué à la transmission d’un symbole binaire). Le signal ( ) qui porte les symboles est de type NRZ, d’amplitude ⁄2 et de durée . On utilisera la séquence binaire SBB suivante pour le restant de ce problème : 0 0 1 0 0 0 1 1 0 1 1 1 0 0 1 1 0 0 0 1 0 1
Licence illimitée accordée à SCD - Université de Nantes
Transmissions numériques en bande de base
87
a) Ce type de codeur a besoin d’être précédé d’un précodeur qui lui est propre. Pourquoi ? b) Décrire la relation reliant la sortie du précodeur (donnant les symboles à son entrée .
)
c) Décrire la relation reliant la sortie du codeur (produisant les symboles à son entrée .
)
d) Représenter graphiquement la portion de signal associée à SBB émise par l’ensemble de ce codeur à réponse partielle (pour une modulation d’amplitude d’impulsions de durée ). Pour cela il faudra au préalable déterminer la séquence obtenue en sortie du précodeur (on supposera que les deux symboles non connus en début de la séquence sont nuls). e) Quelle est approximativement la largeur de bande du signal émis par ce code linéaire à réponse partielle pour coder la source S ? A-t-on gagné en réduction de largeur de bande ? 6) Pour ce code linéaire à réponse partielle, comment fonctionne le décodage produisant les symboles à partir de ̂ ? Justifiez votre réponse. Que se passe-t-il si une erreur due à la transmission au niveau de l’information binaire reconstruite se produit pour l’un des symboles ̂ reconstruit à la réception ? Solution du problème 16 1) Entropie ( ) : ( ) × log
( )=−
( )=−
( )
0,11 × log (0,11) + 0,19 × log (0,19) +0,4 × log (0,4) + 0,21 × log (0,21) + 0,09 × log (0,09)
≅ 2,12 bit information/symbole Débit entropique : ( )= Code 3 bits.
( ) × 13,5 × 10 = 28,26 Mbit information/s
à longueur fixe
: nous avons cinq symboles à coder, d’où :
Licence illimitée accordée à SCD - Université de Nantes
=
88
Communications numériques 2
Efficacité : =
( )
=
2,12 = 70,67 % 3
Débit binaire pour le code
:
= 3 × 13,5 × 10 = 40,5 Mbit/s 2) Code de Huffman
.
si
p ( si )0
p ( s i )1
p ( si )2
p ( s i )3
C2
s3
0,4
0,4
0,4
0,6
0
1
s4
0,21
0,21
0,39 0
0,4
1
01
s2
0,19
0,20 0
0,21 1
s1
0,11
s5
0,09 1
0
0,19 1
001 0000 0001
Tableau 2.2. Construction du code
de Huffman
Longueur moyenne d’un mot-code : ( )×
=
= 0,11 × 4 + 0,19 × 3 + 0,4 × 1 + 0,21 × 2 + 0,09 × 4
= 2,19 bit/symbole Efficacité du code =
( )
=
:
2,12 = 96,8 % 2,19
Débit binaire du code
:
= 2,19 × 13,5 × 10 = 29,565 Mbit/s
Licence illimitée accordée à SCD - Université de Nantes
Transmissions numériques en bande de base
89
3) Séquence correspondante SB de bits obtenus en sortie du codage de Huffman. SS SB
001
0001
1
01
1
1
001
1
0001
01
Tableau 2.3. Construction de la séquence binaire SB
On observe plus de 0 que de 1 et, de plus, parfois des suites de trois zéros consécutifs. 4) Codeur information à signal en bande de base. a) Codeur bipolaire CODBip de type RZ (voir le tableau 2.4 en dernière page de la solution). Les problèmes rencontrés en réception sont liés aux difficultés de récupération correcte de l’horloge dans certain cas, ici trois zéros consécutifs, car le codeur n’émet aucune impulsion pendant une durée 3T. b) Codeur CODHDB de type HDB-2 : voir le tableau 2.4 en dernière page de la solution. Les suites de trois zéros consécutifs sont remplacées par des séquences de type « 0 0 V » ou « B 0 V » et, donc, on peut avoir au maximum une durée 2T sans impulsion. c) La densité spectrale de puissance du code bipolaire RZ est donnée par : Γ ( )=
( 4
⁄2) ⁄2
×[
(
)]
L’annulation de Γ ( ) a lieu tous les 1⁄ , sa largeur de bande est donc 1⁄ . Elle est sensiblement la même pour le code HDB-n (ici HDB-2). Par ailleurs, au voisinage de la fréquence = 0, l’énergie est nulle, ce code peut donc être utilisé pour la transmission à grande distance sur câble. Cependant, la présence de longues successions de zéros est préjudiciable à la récupération de l’horloge, pour cela nous utilisons le code HDB-n. 5) Code à réponse partielle (CRP). a) Oui, il y a nécessité d’utiliser un précodeur pour que, à la réception, le décodage soit instantané (sans récursion) et, donc, si une erreur de décodage se produit, elle ne se propage pas récursivement. Licence illimitée accordée à SCD - Université de Nantes
90
Communications numériques 2
b) Relation reliant la sortie du précodeur (symbole bk Précodeur
b′ k
ak
Transcodage 2b′ – 1
) à son entrée
. se ( t )
ck
x (t )
Codeur
Figure 2.1. Schéma du codeur à réponse partielle
( )=1− ⟺
( )=
⟺
( )=1−
( )+
( )×
⇒ ⟹
( ) = ( ) =
⨁
c) Relation reliant la sortie du codeur (symbole ( )=1−
1 1 = ( ) 1−
) à son entrée
( ) ⇔ ( )= ( )− ( )× ( )
=
⇒
: =
−
d) Représentation graphique de la portion de signal associée à SBB émise par l’ensemble de ce codeur à réponse partielle : voir le tableau 2.4 en dernière page de la solution. e) La densité spectrale de puissance du code à réponse partielle concerné est donnée par (voir volume 1, chapitre 5) : Γ ( )=
(
)
×[
(2
)]
L’annulation de Γ ( ) a lieu tous les 1⁄2 , sa largeur de bande est donc approximativement 1⁄2 . Il y a donc réduction de la largeur de bande du signal émis d’un facteur de 2, par rapport à la question 4, du fait de l’introduction de la corrélation. De plus, il n’y a pas de composante continue. 6) Nous avons : =
−
= 2( ⨁
= [(2 )=2
− 1) − (2 ⟹
− 1)] = 2(
−
)
1 = ̂ mod 2 2
Licence illimitée accordée à SCD - Université de Nantes
Transmissions numériques en bande de base
91
d’où un décodage instantané (non récursif). Donc : – si pas d’erreur de décision sur ̂ , alors pas d’erreur sur
;
– si erreur de décision sur ̂ , alors erreur de décision sur les suivants). 0
{ bk }
0
1
0
0
0
1
1
0
1
1
1
0
0
1
seulement (pas sur
1
0
0
0
1
0
1
V CODBip 0 1 -V V HDB-2 0 1 -V { b ′k }
V V
0
0
1
0
1
0
0
1
0
0
1
1
1
1
0
0
0
0
0
1
0
0
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
0
2
0
0
0
2
2
0
2
2
2
0
0
2
2
0
0
0
2
0
2
0 0 { ak } -1 -1 {ck} CRP se( t)
V 0 -V
Tableau 2.4. Chronogrammes des signaux et symboles codés
2.2. Problème 17 – Calcul de la fonction d’autocorrélation et de la densité spectrale de puissance par approche probabiliste des codes en ligne binaires RZ et NRZ On considère le signal de transmission numérique défini par : ( )=
( −
−
)
et : ( )=
0
pour pour
0≤ ≤ < ≤
Licence illimitée accordée à SCD - Université de Nantes
92
Communications numériques 2
avec : 0
0
sont des variables aléatoires indépendantes pouvant prendre Les symboles seulement les valeurs 0 et 1 avec une probabilité égale à 1⁄2 et est aléatoire, de loi uniforme sur [0, [. REMARQUE. Dans ce problème, on considère que l’instant appartient à l’intervalle de temps [ , + [. Sans aucune perte de généralités, on affectera à cet intervalle où se situe a priori l’instant , l’indice . Calculer la fonction d’autocorrélation ( ) et la densité spectrale de puissance Γ ( ) de ( ) et faire les deux cas particuliers : = ⁄2 (binaire RZ)
et
(binaire NRZ)
=
x (t )
x (t ) 1
V
0
1 V
1
0
1
T
T
T
t T
T
T
Binaire RZ
t
Binaire NRZ
Figure 2.2. Exemples de code binaire RZ et de code binaire NRZ
Solution du problème 17 Soit la forme suivante de signal ( ) (avec
< ⁄2 sur la figure 2.3).
s(t)
t t0 t 0 + θ
t0 + T
t0 + T + θ
Figure 2.3. Exemple de forme de signal ( ) avec
< ⁄2
Licence illimitée accordée à SCD - Université de Nantes
Transmissions numériques en bande de base
93
Un tel signal peut être représenté par : ( )=
( −
)
−
avec la fonction certaine (impulsion) : ( )=
0
pour ∈ [0, [ ailleurs
et : =
1 0
Le fait que second ordre.
avec
(
(
= 1) =
= 0) = 1⁄2
soit uniforme sur [0, [ entraîne que ( ) est stationnaire au
( ) est une fonction paire : Par ailleurs, la fonction d’autocorrélation (− ) = ( ) et donc le calcul peut se faire à convenance avec ≥ 0 ou ≤ 0. La fonction d’autocorrélation
( ) s’écrit :
( ) = [ ( ) × ( − )] =
( )=
{ {0 { {0
× × 0× × ×0× 0×0×
à à à à
et ( − ) =
( )=
et à − et à − et 0 à − et 0 à −
+ + +
d’où : ( )=
×
{
à
et
à
−
Par ailleurs, en utilisant le théorème des probabilités composées, aussi : ( )= Pour calculer
×
{
à
×
{
à
( ), il suffit de calculer
Deux cas peuvent se présenter :
− ⁄ {
à
( ) s’écrit
à et
{
à
− ⁄
cas : 0 < ≤ ⁄2 . cas : ⁄2 < ≤
Licence illimitée accordée à SCD - Université de Nantes
à
.
94
Communications numériques 2
A. Premier cas, celui où 0
3,842
= 1,4 × 10
{| −
| > 4,118
= 6 × 10
{| −
| > 4,5
≅0
Licence illimitée accordée à SCD - Université de Nantes
et
Transmissions numériques avec modulation de porteuse
225
Solution du problème 29 1) Les signaux ( ) et
( ) sont donnés par :
( )=ℜ
)exp[ (2
( − ( −
=
) cos(2
)
+
( ):
d’où son enveloppe réelle
( −
( )=
)]
+
)
( − ) et comme la réponse à ( ) du 2) a) Nous avons : ( ) = ∑ système équivalent en bande de base est : ( ) = ( ) + ( ) en sortie du filtre ( ) (hors bruit), et en tenant compte de la réponse du bruit filtré ramené en bande de base équivalente, soit ( ), la réponse , ( ) est alors : ,
Pour
( )= =
,
[ ( − =
(
)=
ℜ
,
(
) =
ℑ
,
(
) =
,
,
(
)+
( −
)] +
( )
) s’écrit :
{ [( − ) ] +
(0) +
[( − ) ] +
[( − ) ] +
[( − ) ] +
,
(
(
,
(
)
)
)
b) D’où : (
)=
[( − ) ] ;
(
)=
[( − ) ]
Licence illimitée accordée à SCD - Université de Nantes
226
Communications numériques 2
Comme le signal utile n’est porté que par la composante réelle en phase (car en MDA-2, = 0 ∀ ), seule la partie réelle de , ( ) est intéressante. 3) Le fait de considérer que ( ) vérifie la symétrie hermitienne n’a pas d’importance, car = 0 ∀ , la partie réelle de , ( ) ne change pas. À la démodulation, on ne reconstruit que la voie issue de la démodulation avec la porteuse en phase et donc, même si la partie imaginaire de , ( ) est non nulle, cela n’a aucune importance. 4) a) Nous avons : ( )=
{ ( ) = (1 + ) ×
sin[ (1 + ) ⁄ ] (1 + ) ⁄
(0) = (1 + ) = 1 + 5⁄6 = 1,833
(± ) =
sin
+
5 5 −sin 6 = −sin 6 =
6
=
−1 −1 ≅ 2 6
b) Le seuil optimal est : =
,
,
= 1⁄4 ;
=
(0)
2
log
= 3⁄4 →
,
= −0,138
Le rapport signal à bruit est donné par : (0)
= 20 × log
= 12 dB
d’où : (0) = 3,98
→
= 2,17
c) On a : (
)=
[( − ) ] ;
(
)= [
( )+
(− )] =
− [ 6
+
]
Licence illimitée accordée à SCD - Université de Nantes
Transmissions numériques avec modulation de porteuse
={ -1 -1 1 1
1 2 3 4
−
, -1 1 -1 1
[
]
+
1/16 3/16 3/16 9/16
⁄3 = 0,723 0 0 − ⁄3 = −0,723
Tableau 3.4. Amplitude de l’interférence intersymboles
5) a) Expression de la probabilité d’erreur
,
=
×
,
+
) et sa probabilité
(
:
×
b) Calcul des probabilités conditionnelles de décisions erronées : =
( ⁄
)
,
=
1 √2
,
,
=
(
={
,
⁄ ,
)
=
,
+
( )
(
)
( )
(
)
1 √2 ( )−
exp −
1 2
exp −
1 2
,
−
, ,
, ,
( )+ 0
-1
-1
3,119
9,6 × 10
−4,841
-1
1
3,842
7 × 10
−4,118
3 × 10
1
-1
3,842
7 × 10
−4,118
3 × 10
1
1
4,565
−3,395
3,4 × 10
0
Tableau 3.5. Probabilités conditionnelles de décisions erronées en fonction des messages interférents
c) Calcul de la probabilité d’erreur
,
=
×
+
,
: ×
Licence illimitée accordée à SCD - Université de Nantes
227
228
Communications numériques 2
1 1 3 × 9,6 × 10 + 2 × × 7 × 10 4 16 16 3 3 9 + 2× × 3 × 10 + × 3,4 × 10 4 16 16 =
,
≅ 1,73 × 10 Nous avons : seul symbole .
=
,
en raison du fait que un symbole
,
ne dépend que d’un
3.4. Problème 30 – Transmissions numériques par modulation MDAQ-4 (2) On considère le système de transmission à modulation numérique d’amplitude en quadrature à quatre états MDAQ-4 donné par le schéma de la figure 3.5. Pour ce type de modulation les symboles et prennent les valeurs {1, −1 avec la loi de probabilité suivante : {
=1 =
{
= −1 =
{
=1 = {
= 0,65
= −1 =
= 0,35 Canal de transmission st ( t )
Émetteur Emetteur { bn} Tb
{ an} Codeur { a' n }
T
I( t )
s(t) Modulateur
Q( t)
x( t)
( f c, ϕ c )
Filtre
Filtre de canal
d’émission G e ( f ), g e ( t )
hc( t ) ; H c ( f )
+
sr ( t )
+ b0(t ) Bruit
Récepteur ℜ[s
sc(t)
sr ( t ) Filtre de réception G r ( f ), g r ( t )
c, e
Décision
Démodulateur ˆ ˆ ( f c, ϕ c ) Récupération de la porteuse
{ aˆ k }
( t) ]
ℑ[s
c, e
(t)]
{ bˆ k } Décodage
ˆ } { a' k kTˆ Récupération du rythme
Figure 3.5. Système de transmission numérique avec modulation d’amplitude en quadrature
Licence illimitée accordée à SCD - Université de Nantes
Transmissions numériques avec modulation de porteuse
229
On appelle ( ) le gain du filtre passe-bas équivalent au filtre total ( ) (qui et − ) et ( ) la sortie de ( ) est type passe-bande autour des fréquences lorsque le signal d’entrée est le signal ( ) précédent (hors bruit). On pose : ( )= ( )+
( )
De la même façon, on appelle ( ), le bruit de réception et on note : ( )=
,
( )+
,
( ) filtré par le filtre passe-bande
( )
son enveloppe complexe. Les deux composantes (réelle et imaginaire) du bruit ( ) sont supposées gaussiennes, centrées, de même variance et décorrélées. Par ailleurs, le rapport signal à bruit après démodulation sur chaque voie est : = 20 × log
(0)
= 9,6 dB
1) Donner l’expression de l’enveloppe complexe 2) Déterminer l’enveloppe complexe, notée ( ), et en prenant en compte le bruit filtre instants de décisions = , soit , ( ).
,
( ) de la modulation MDAQ-4. ( ), du signal ( ) en sortie du ( ). Particulariser celle-ci aux
3) Écrire explicitement la partie réelle, notée ℜ , ( ) , et la partie imaginaire, notée ℑ , ( ) , du signal , ( ), en faisant apparaître le signal utile, l’interférence intersymboles (intra et intervoie), et le bruit sur chacune des parties. On considère que le spectre d’amplitude ( ) du signal ( ) est une fonction constante, égale à sur le support fréquentiel : – (1 + ) (1 + ) , 2 2
avec
= 1⁄4, et nulle ailleurs.
On considère aussi que le spectre d’amplitude ( ) du signal ( ) est également une fonction constante, égale à [1 + ] sur le support fréquentiel : −1 1 , 2 2
et nulle ailleurs. Licence illimitée accordée à SCD - Université de Nantes
230
Communications numériques 2
4) Déterminer les expressions des signaux ( ) et ( ) et donner les valeurs de : (0) ;
(± ) ;
(0) ; (± )
(on prendra dans la suite du problème
≅ 3).
5) Donner les expressions des interférences intersymboles
) et
(
(
)
dans le cas où l’on considère que : ( ) = 0 ∀ ≠ {0, −1, 1 . 6) Calculer la valeur de l’interférence intersymboles combinaisons possibles du message
(
) pour les différentes
interférant avec le symbole
7) Donner l’expression du seuil optimal :
,
=
,
=
. ,
et calculer sa
.
valeur en fonction de
8) Montrer que même sans bruit, la probabilité d’erreur est extrêmement élevée. Aussi, on décide de corriger plus complètement le filtre d’égalisation sur la voie en phase de sorte que le spectre d’amplitude ( ) du signal ( ) soit constant, égal à , sur le support de fréquences : −1 1 , 2 2
et nul ailleurs. Par ailleurs, le spectre d’amplitude ⁄2 sur le support de fréquences :
( ) du signal ( ) est ajusté à la valeur
−1 1 , 2 2
et nul ailleurs. 9) Dans ces conditions, donner la nouvelle expression de l’interférence inter( ) et calculer sa valeur pour les différents messages . symboles 10) Donner les expressions des probabilités d’erreurs conditionnelles : = =
⁄
,
⁄ ,
{
= =
{
= 1⁄
= −1,
= −1⁄
= 1,
et calculer leurs valeurs. Licence illimitée accordée à SCD - Université de Nantes
Transmissions numériques avec modulation de porteuse
11) Donner l’expression de la probabilité d’erreur : calculer sa valeur. REMARQUE. Pour une variable aléatoire centrée ( ( = 1), on supposera que l’on a approximativement : {| | > 3,2 = 1,4 × 10
;
{| | > 2,6 = 9,4 × 10
{| | > 2,8 = 5,2 × 10
;
{| | > 3,4 = 6 × 10
{
=
,
≠
231
et
= 0) et normalisée
Solution du problème 30 1) L’enveloppe complexe est donnée par : ( )=
[
] ( −
+
)
2) Détermination de l’enveloppe complexe , ( ). Comme la réponse à ( ) du système équivalent en bande de base est : ( ) = ( ) + ( ) en sortie du filtre ( ) (hors bruit), et en tenant compte de la réponse du bruit filtré ramené en bande de base équivalente, soit ( ), la réponse , ( ) est alors : ,
( )=
Pour
= ,
ℑ
[ =
(
)=
,
,
[
+
][ ( −
(
) s’écrit :
+
)+
( −
] { [( − ) ] +
3) Expressions de la partie réelle ℜ ) du signal , ( ) : , (
,
)] +
( )
[( − ) ] +
(
)
) et de la partie imaginaire
(
ℜ
,
(
) =
(0) +
(
)+
,
(
)
ℑ
,
(
) =
(0) +
(
)+
,
(
)
avec :
(
)=
[( − ) ] −
[( − ) ]
Licence illimitée accordée à SCD - Université de Nantes
232
Communications numériques 2
(
)=
[( − ) ] +
[( − ) ]
4) Nous avons : ( )=
{ ( ) = (1 + ) ×
( )=
{ ( ) = (1 + ) ×
sin[ (1 + ) ⁄ ] (1 + ) ⁄ ⁄ ]
sin[ ⁄
(0) = (1 + ) = 1 + 1⁄4 = 5⁄4 = 1,25 5 ⁄4
(± ) = sin
=
−√2 ≅ −0,235 2
(0) = (1 + ) = 1,25 ;
( ≅ 3)
(± ) = 0 ∀ ≠ 0 ; : entier
5) Expressions des interférences intersymboles : (
)=
[( − ) ] −
[( − ) ]
;
( ≅
)= [
−
(− ) −
(0)]
5 + × 3√2 × 4
+
3√2 (
( )+
)=
[( − ) ] +
[( − ) ]
;
( ≅
)= [
−
+
3√2 (
)≅
− 3√2
( )+
(− ) +
(0)]
5 − × 3√2 × 4 +
−
15√2 × 4
Licence illimitée accordée à SCD - Université de Nantes
Transmissions numériques avec modulation de porteuse
6) Amplitudes de l’interférence intersymboles. ={
,
,
-1
-1
-1
−0,788
-1
-1
1
−1,25
-1
1
-1
1,72
-1
1
1
1,25
1
-1
-1
−1,25
1
-1
1
−1,72
1
1
-1
1,25
1
1
1
0,778
(
)
Tableau 3.6. Amplitude de l’interférence intersymboles ( ) pour les différents messages interférents possibles
7) Calcul du seuil optimal :
=
,
≅−
=
,
=
,
2
(0)
log
=
2 × 1,25
log
0,35 0,65
0,247 (0)
= 20 × log
= 9,6 dB →
(0)
≅3→
≅
3 1,25
d’où :
≅ −0,103
,
8) Sans bruit, ℑ ℑ =3
,
( ×
,
(
) = +
) s’écrit : (0) +
(
(
) = 1,25
+
(
)
)
Licence illimitée accordée à SCD - Université de Nantes
233
234
Communications numériques 2
1, 25V = 3σe a′ˆ k = 1
0
μ 0, e = – 0, 043V = – 0, 103σ e
ˆ a′ k = – 1
–1, 25 V = – 3σ e
Figure 3.6. Valeurs
de l’échantillon, seuil optimal et classes d’estimation
Au vu du graphe représenté en figure 3.6 et des résultats précédents sur les ( ), on constate que pour faire une décision erronée, il suffit que : valeurs de (
) > 1,25
Plus précisément, la probabilité d’une décision erronée sur {de décision erronée sur [
est :
= ±1] = 1⁄8 = 0,125
C’est une valeur très grande comparée à une probabilité d’erreur usuelle. 9) Nouvelle expression de l’interférence intersymboles
) :
⁄ ]
sin[
( )=
(
⁄
et : (0) = 1 ; ( )=
2
×
(± ) = 0 ∀
≠0;
: entier
⁄ ]
sin[ ⁄
et : (0) =
2
= 0,125 ;
(± ) = 0 ∀
≠0;
: entier
d’où : (
)=
× (0) = 0,125 ×
= 0,3
Licence illimitée accordée à SCD - Université de Nantes
Transmissions numériques avec modulation de porteuse
(
=
)= ,
1
-1
−0,3
2
1
0,3
Tableau 3.7. Amplitude de l’interférence intersymboles
(
)
pour les différents messages interférents possibles
10) Expressions des probabilités conditionnelles d’erreurs : =
⁄
,
=
1 √2 ,
,
=
=
,
+
(
)
( )
(
)
1
=
⁄ ,
( )
√2
( )−
,
−
−
1 2
−
1 2
, ,
, ,
( )+
-1
[−0,103 + 3 + 0,3] ≅ 3,2
7 × 10
[−0,103 − 3 + 0,3] ≅ −2,8
2,6 × 10
1
[−0,103 + 3 − 0,3] ≅ 2,6
4,7 × 10
[−0,103 − 3 − 0,3] ≅ −3,4
3 × 10
Tableau 3.8. Probabilités d’erreurs sur conditionnelles aux messages interférents
11) Probabilité d’erreur sur le symbole
,
=
×
+
Le nombre de messages interférant avec =2;
=1 →
:
=2 =2
× est
, avec :
235
238
Communications numériques 2
1) Écrire explicitement le signal réel ( ) en sortie du modulateur en quadrature × états, puis faire apparaître dans l’expression du signal réel ( ) les deux à composantes modulant en quadrature la porteuse ( ). 2) Déterminer son enveloppe complexe notée ( ). On suppose dans la suite que le spectre du signal de modulation numérique émis est à bande de fréquences limitée à : | |∈
−
∆ , 2
+
∆ 2
avec
∆ ≪
On appelle ( ) le filtre passe-bas équivalent au filtre total ( ) (qui est type passe-bande autour des fréquences et − ) et ( ) la sortie de ( ) lorsque le signal d’entrée est le signal ( ) précédent (hors bruit). On pose : ( )= ( )+
( )
De la même façon, en appelant ( ) le bruit de réception, on note : ( )=
,
( )+
,
( ) filtré par le filtre passe-bande
( )
l’enveloppe complexe du bruit filtré ( ). Les deux composantes (réelle et imaginaire) du bruit ( ) sont supposées gaussiennes, centrées, de même variance et décorrélées. 3) Déterminer l’enveloppe complexe, notée , ( ), du signal filtre ( ), et en prenant en compte le bruit ( ). 4) Particulariser celle-ci aux instants de décision
,
=
, soit
( ) en sortie du
,
(
).
5) En séparant partie réelle et partie imaginaire de l’enveloppe complexe ( ), déterminer l’interférence intersymboles portant sur le symbole , notée ( ) d’une part et sur le symbole , notée ( ) d’autre part.
6) On considère dans la suite que le filtre passe-bas équivalent ( ) vérifie la symétrie hermitienne. Montrer dans ce cas que ( ) est réel ( ( ) = 0). 7) Donner alors la nouvelle expression du signal d’amplitude ( ) est :
,
(
). Par ailleurs, le spectre
Transmissions numériques avec modulation de porteuse
pour
( )= { ( ) =
0 sinon
∈
239
−1 1 , 2 2
8) Montrer que l’interférence intersymboles
(
) est nulle.
Le rapport signal à bruit : (0)
= 20 × log
après démodulation pour chaque signal ( ) et ( ) est de 14 dB. 9) Pour des symboles d’erreur , sur le symbole
indépendants et équiprobables, calculer la probabilité
.
B. Cas d’un trajet double (un trajet direct et un trajet retardé) Dans cette partie, on conservera l’hypothèse que le filtre passe-bas équivalent est ( ) due au de gain ( ) pair (donc ( ) = 0). L’interférence intersymboles trajet retardé est supposée limitée aux seuls symboles adjacents à un symbole donné (donc les symboles et ). De même l’interférence intersymboles
) due aussi au trajet retardé est
(
supposée limitée aux seuls symboles adjacents à un symbole symboles et ).
donné (donc les
On considère maintenant que le signal équivalent en bande de base somme de deux signaux : – le premier, noté
,
,
( ) est la
( ), correspond à une transmission par le chemin direct ;
– le second correspond à une transmission retardée due à une réflexion complexe. Dans ces conditions l’enveloppe complexe du signal résultant reçu peut s’écrire sous la forme : ,
avec :
( )=
,
= | |exp[
( )+
× exp[− 2
]×
,
( − )
] un coefficient de réflexion complexe.
240
Communications numériques 2
Un enregistrement du signal oscille entre deux niveaux :
,
(
) montre que l’amplitude de ce dernier
– un niveau maximum (sommation en phase des deux composantes) ; – un niveau minimum (sommation en opposition de phase des deux composantes) et que la dynamique maximale entre ces deux niveaux est donnée par l’expression suivante (rapport d’ondes stationnaires) : 1+| | =3 1−| | Pour des raisons de simplification, nous supposons que le déphasage dû au coefficient de réflexion complexe compense celui dû à la différence de marche [−2 ] pour des valeurs de et de données. 10) Déterminer le module du coefficient de réflexion | |. 11) Donner la nouvelle expression du signal
,
,
(
) (à l’instant
).
=
12) En séparant partie réelle et partie imaginaire de l’enveloppe complexe ( ), déterminer l’interférence intersymboles portant sur le symbole , notée ( ), d’une part et l’interférence intersymboles portant sur le symbole , notée ( ) d’autre part.
13) En prenant = ⁄2, réécrire la nouvelle expression de l’interférence ( ) et calculer sa valeur pour les différents messages (on intersymboles prendra pour simplifier ≅ 3). 14) La liaison numérique est-elle affectée par rapport à celle de la partie A ? Si oui, à cause de quoi en justifiant votre réponse. 15) Calculer la nouvelle probabilité d’erreur sur le symbole équiprobables).
(messages
REMARQUE. On prendra si X est aléatoire, gaussien, de valeur moyenne d’écart-type : {| −
|>5
{| −
| > 4,44
= 2 × 10
;
= 2 × 10
{| − ;
| > 5,55
{| −
|>6
= 10 ≅0
et
246
Communications numériques 2
[ ( ) | | (
=
(
⁄ ,
)
=
⁄ )]
(
)
1
exp −
√2
1 2
, ,
On a : [ (0) + | | (− ⁄2)] =
+
3
=
4 3
=
4 ×5 3
=
20 3
d’où les calculs des intervalles des probabilités conditionnelles et les probabilités conditionnelles associées présentés dans le tableau 3.10. ,
[ ( ) + | | (− ⁄ )] ( ) −
-1
-1
20 3
+
10 9
= 7,77
0
−
20 3
−
10 9
= −5,55
10 2
-1
1
20 3
+
20 9
= 8,88
0
−
20 3
−
20 9
= −4,44
10
1
-1
20 3
−
20 9
= 4,44
10
−
20 3
+
20 9
= −8,88
0
1
1
20 3
−
10 9
= 5,55
10 2
−
20 3
+
10 9
= −7,77
0
={
− [ ( ) + | | (− ⁄ )] − ( )
Tableau 3.10. Probabilités d’erreurs sur conditionnelles à l’amplitude de l’interférence intersymboles
D’où finalement la nouvelle probabilité d’erreur sur le symbole
,
=
1 × 8
+
= 10
1 + × 10 2
1 + × 10 2
: + 10
= 2,625 × 10 3.6. Problème 32 – Performances des modulations : modulation numérique MDAQ-16 Pour les modulations numériques radioélectriques consignées dans le tableau 3.11, fonctionnant à un même débit binaire = 12 Mbit/s et une même fréquence porteuse (MHz), déterminer :
250
Communications numériques 2
Nous souhaitons maintenant réaliser une modulation MDAQ-16 dont les coordon(état 0000) sont : nées polaires de l’état = √18 ;
= 45 °
3) Déterminer le couple d’amplitudes [ ; ] permettant d’avoir une répartition homogène dans le plan { , des seize états. La porteuse est définie par : ( ) = exp[ (2 et le signal
+
)]
( ) est donné par :
( ) = 1 pour 0 sinon
∈ [− ⁄2,
⁄2[
4) Écrire l’expression du signal réel ( ) en sortie du modulateur et donner son enveloppe complexe ( ). On appelle ( ) le filtre passe-bas équivalent au filtre total ( ) (qui est de type passe-bande autour des fréquences et − ) et ( ) la sortie de ( ) lorsque le signal d’entrée est le signal ( ) précédent (hors bruit). On pose : ( )= ( )+
( )
De la même façon, en appelant ( ) le bruit ( ) filtré par le filtre passe-bande de réception, on note : ( ) = , ( ) + , ( ), l’enveloppe complexe du bruit filtré ( ). 5) Déterminer alors l’enveloppe complexe, notée , ( ), du signal sortie du filtre ( ), et en prenant en compte le bruit ( ). 6) Donner l’expression du signal
( ) et de son spectre
( ) en
( ).
7) Donner le schéma de principe de réalisation du modulateur MDAQ-16 construit à partir de deux modulateurs MDP-4 (QPSK). 8) On note par ( ) la sortie du premier modulateur MDP-4 : M1(R, J) et par ( ) la sortie du deuxième modulateur MDP-4 : M2(Q, I). Donner l’expression du signal ( ) en sortie du modulateur MDAQ-16.
260
Communications numériques 2
REMARQUE. Pour une variable aléatoire centrée ( on supposera que l’on a approximativement : ;
{| | > 3,57 = 3,64 × 10 {| | > 4,57 = 4 × 10
;
= 0) et normalisée ( = 1),
{| | > 4,43 = 4,4 × 10 {| | > 3,43 = 6 × 10
Solution du problème 33 1) a) Entropie d’une composante : ( )=
(
)=
(
( )
)=−
( ) log
( ) ≅ −1,4427
( )
( ) ≅ 2,41315 bit/composante
Pour rappel :
log
=
log ≅ 1,4427 × log log 2
b) Les composantes séparément, d’où :
et
suivent les mêmes statistiques et sont codées
( ) = 2 × ( ) = 4,8263 bit⁄vecteur c) Il y a sept valeurs par composante ou , donc pour un codage fixe, il et trois bits pour coder . Donc, il faut : = 2 × 3 = faut trois bits pour coder 6 bits de codage pour coder le vecteur . L’efficacité est alors de : =
( )
=
4,8263 ≅ 80,44 % 6
d) Le débit binaire par seconde est : =
×
×
= 6 × 396 × 25 = 59 400 bit/s
2) Comme et suivent les mêmes statistiques, il suffit de considérer une composante pour déterminer la probabilité , d’avoir un bit à zéro.
Transmissions numériques avec modulation de porteuse
→
=4→
=4
Par ailleurs, on a : (
=
)=− ⁄ ×
-1
⁄8
1
− ⁄8
Tableau 3.16. Amplitudes de l’interférence intersymboles intervoies
Calcul des intervalles : =
,
( )−
+
,
( )+
−
-1
3,57
1,82 × 10
−4,43
2,2 × 10
1
4,57
2 × 10
−3,43
3 × 10
Tableau 3.17. Probabilités d’erreurs conditionnelles avec interférence intersymboles intervoies
d) Nous avons :
,
=
,
=
×
+
×
donc :
×
+
×
+
×
+
×
avec ici :
=
,
=
,
;
=
,
;
=
;
×
+
=
d’où : ,
,
×
+
,
,
,
×
+
,
×
265
Transmission d’informations sur câble bifilaire
4.6. Mesure de l’affaiblissement
273
en fonction de la fréquence
Lorsque le câble est adapté (le câble est chargé sur son impédance caractéristique), on a : – ( )= – ( ) = – (0) = – ( ) = = ).
(z) =
exp(−
exp(−
);
);
: tension délivrée par le générateur à l’entrée du câble ;
exp(−
) : tension mesurée à l’extrémité du câble (aux bornes de
Ces deux mesures permettent de déterminer ( ) :
1 ( ) = 20 × log
| (0)| (dB⁄m) | ( )|
Mesurer la variation de l’affaiblissement en fonction de la fréquence. On effectuera les mesures pour les valeurs suivantes de (KHz) : 40, 60, 100, 200, 300, 500, 700, 1 000, 1 200, 1 500, 3 000 KHz ; et pour le tronçon de câble de longueur médiane. Tracer la courbe ( ). Vérifier que la loi ( ) mesurée suit la loi ( ) théorique.
4.7. Variation de l’affaiblissement
en fonction de la longueur
Pour une fréquence = 100 KHz, déterminer la variation de l’affaiblissement en fonction de la longueur (pour les trois tronçons disponibles). En déduire l’affaiblissement à 100 KHz produit par une longueur de câble de 1 800 m (longueur nominale d’un tronçon de câble pour le TN1).
4.8. Mesure du débit D (bit/s) La mesure se fait en régime impulsionnel, lorsque le câble est adapté (chargé sur son impédance caractéristique) et en utilisant le montage de la figure 4.2. Pour chaque durée d’impulsions émises et en utilisant le générateur d’impulsions en mode impulsions doubles (la seconde impulsion est émise avec un retard qui doit séparer ces réglable par rapport à la première), on déterminera le temps doubles impulsions pour que la réponse due à la première impulsion chute à 50 % de
Étude de codes en ligne
ASK Input Data Signal
Low Pass Filter
Voltage Comparator
289
Data Output
Figure 6.1. Réalisation de la démodulation d’amplitude
Le Sync Code Generator du module Modicom 3/2 sera mis sur On et on utilisera le bloc de régénération d’horloge avec un réglage adéquat du Pulse Generator Delay Adjust. On ajustera le gain et les offsets du signal modulant et de la porteuse. Examiner les signaux obtenus en sortie de chacun des blocs du système de démodulation (il faudra régler correctement le seuil du comparateur). Notez vos commentaires. Modifier l’amplitude du signal transmis (Modicom 3/1) et vérifier que le signal reconstruit est correct en positionnant sur On le Sync Code Generator du module Modicom 3/1.
6.4.2. Modulation par déplacement de fréquence (FSK) Réaliser une modulation numérique de fréquence selon le bloc-diagramme de la figure 6.2. Sinewave F1
Modulator 1 Carrier Input Output
Data Stream Sinewave F2
Modulation Input Summing Modulator 2
Amplifier
Carrier Input Output
Inverted Data Stream
Modulation Input
Figure 6.2. Modulation par déplacement de fréquence
FSK Output
290
Communications numériques 2
En réception, le signal est décodé au moyen d’une boucle à verrouillage de phase, un filtre passe-bas et un comparateur selon le bloc-diagramme de la figure 6.3. FSK Input Signal
PLL Detector
Voltage Comparator
Low Pass Filter
Data Output
Figure 6.3. Montage pour le décodage d’une modulation numérique de fréquence
On utilisera les deux modules Modicom 3/1 et 3/2 pour générer l’information à transmettre avec modulation et pour reconstruire le signal en réception. Mettre sur Off le Sync Generator du module Modicom 3/1 et sur On le Sync Code Detector du module Modicom 3/2. – Analyser pour une configuration d’information à transmettre donnée par « 0 1 0 0 0 1 1 », le fonctionnement du modulateur et du démodulateur (on réglera à la même amplitude les deux porteuses utilisées (960 KHz et 1,44 MHz). Qu’observezvous avant et après le filtre passe-bas ? Régler le seuil sur le comparateur de façon à reconstruire correctement le signal en bande de base. – En mettant sur On le Sync Code Generator du module Modicom 3/1, le système est complètement opérationnel pour la transmission de signaux analogiques. Analyser le fonctionnement de l’ensemble du système.
6.4.3. Modulation par déplacement de phase (PSK) Réaliser une modulation numérique de phase selon le bloc-diagramme de la figure 6.4. Carrier
Carrier Input
Sinewave
Output Unipolar
Unipolar-Bipolar
Data Stream
Converter
Modulation Input Double-Balanced Modulator
Figure 6.4. Montage pour une modulation numérique de phase
PSK Waveform
Chapitre 7
Étude d’un modem QPSK sous Matlab, Simulink, Communications et DSP
7.1. Objectifs L’objectif du TP est l’étude, puis la simulation sous Matlab, Simulink, Communications et DSP d’un modem de type QPSK. La complexité des systèmes de télécommunications et de traitement du signal s’est énormément accrue ces deux dernières décennies. L’évaluation des performances sur des prototypes hardware est la meilleure des méthodes pour valider une structure, un concept, un système. Seulement, cette approche est en général très coûteuse en temps et en matériel. On comprend donc pourquoi la phase de réalisation n’intervient qu’en fin de cycle de développement. Le rôle de la simulation est justement d’effectuer tous ces essais, cela à moindre coût aussi bien en temps qu’en matériel. L’objectif du TP est l’étude et la simulation complète du modem QPSK proposé (voir les différentes figures dans l’annexe de ce chapitre). Le modem en question utilise les modules logiciels Matlab, Simulink, Communications et DSP : – Matlab : - analyse, conception, optimisation ; - traitement off-line des données ;
Licence illimitée accordée à SCD - Université de Nantes
Licence illimitée accordée à SCD - Université de Nantes
Licence illimitée accordée à SCD - Université de Nantes
Licence illimitée accordée à SCD - Université de Nantes
Chapitre 8
Étude d’un système de codage et décodage par codes cycliques
8.1. Objectifs L’objectif du TP est l’étude, puis la simulation complète sous Matlab, Simulink, etc., d’une application de codage et décodage par codes cycliques.
8.2. Introduction et principes du codage-décodage cyclique Les codes cycliques sont des codes en blocs ou les symboles qui constituent un mot sont considérés comme coefficient d’un polynôme de degré − 1 :
=[
,
=
,⋯,
]⟺ ( )
,
+
+⋯+
+
Toute permutation circulaire sur les symboles d’un mot de code donne un mot du code :
[
,
,⋯,
]∈
,
⟹[
,
,⋯,
,
]∈
L’addition de deux mots-code est un mot code :
∀
,
∈
⟹
+
∈
L’ensemble de tous les mots du code constitue une algèbre, tandis que l’ensemble des mots ayant un sens constitue un idéal.
Système de codage et décodage par codes cycliques
8.6. Annexes : schémas des blocs
Figure 8.1.
Figure 8.2.
Figure 8.3.
Licence illimitée accordée à SCD - Université de Nantes
303
304
Communications numériques 2
Figure 8.4.
Figure 8.5.
Figure 8.6.
Licence illimitée accordée à SCD - Université de Nantes
Système de codage et décodage par codes cycliques
D2
Q2
D1
D0
Q1
Q0
Ck
=1 2
1=
1
u x
i x
c
Figure 8.7. Codeur à registre à décalage linéaire à réaction
1
D2
Q2
D1
D0
Q1
s x
Q0
Ck
=1 1=
v x
Figure 8.8. Décodeur à registre à décalage linéaire à réaction
Licence illimitée accordée à SCD - Université de Nantes
305
Licence illimitée accordée à SCD - Université de Nantes
Bibliographie
Assaf, R., El Assad, S., Harkous, Y. (2010). Simulation et égalisation adaptative des canaux de transmission. Éditions universitaires européennes, Nantes. Barba, D. (2019). Cours de théorie et transmission de l’information. Polytech, Nantes. Baudoin, G. (2002). Radiocommunications numériques 1. Dunod, Paris. Bic, J.C., Duponteil, D., Imbeaux, J.C. (1986). Éléments de communications numériques. Dunod, Paris. Caragata, D., El Assad, S., Luduena, M. (2015). An Improved Fragile Watermarking Algorithm for JPEG images. International Journal of Electronics and Communications, 69, 1783–1794. Charbit, M. (2003). Systèmes de communications et théorie de l’information. Hermes-Lavoisier, Cachan. Combes, P.F. (1996). Micro-ondes : lignes, guides et cavités, cours et exercices. Dunod, Paris. Csillag, P. (1990). Introduction aux codes correcteurs. Ellipses, Paris. De Cannière, C., Preneel, B. (2006). Trivium Specifications [En ligne]. Disponible à l’adresse : http://www.ecrypt.eu.org/stream/p3ciphers/trivium/trivium_p3.pdf. Dixon, R.C. (1994). Spread spectrum systems with commercial applications. John Wiley & Sons, Hoboken. El Assad, S. (2001). Conception et simulation d’un modem MDP-8 cohérent et différentiel. Dans International Conference on Image and Signal Processing (ICISP 2001). ICISP, Agadir, 845–852.
Licence illimitée accordée à SCD - Université de Nantes
308
Communications numériques 2
El Assad, S. (2019). Cours de communications numériques : bases et techniques. Polytech, Nantes. El Assad, S., Barba, D. (2020). Communications numériques 1 : fondements et techniques. ISTE Editions, Londres. El Assad, S., et al. (2003-2005). COBBALT : coopération ouest BAL en télécommunications. Rapport interne, Université virtuelle en Pays de la Loire. El Assad, S., et al. (2006-2008). MASTER-FOAD, projet UVPL. Rapport interne, Université virtuelle en Pays de la Loire. Fontolliet, P.G. (1983). Systèmes de télécommunications. Dunod, Paris. Glavieux, A., Joindot, M. (1996). Communications numériques. Masson, Paris. Guglielmi, M. (dir.) (2004). Signaux aléatoires : modélisation, estimation, détection. Hermes-Lavoisier, Paris. Haykin, S. (1988). Digital communications. John Wiley & Sons, Hoboken. Kasami (s.d.). Documentation [En ligne]. Mathworks.com. Disponible à l’adresse : https://fr.mathworks.com/help/comm/ref/comm.kasamisequence-system-object.html. MacWilliams, F.J., Stoane, N.J.A. (1977). The Theory of Error Correcting Codes. Bell Laboratories, Murray Hill. Maximov, A., Biryukov, A. (2007). Two Trivial Attacks on Trivium. Dans Selected Areas in Cryptography, Adams, C., Miri, A., Wiener, M. (dir.). Springer-Verlag, Berlin, 36–55. Paar, C., Oelzl, J. (2010). Understanding Cryptography. Springer-Verlag, Berlin. Pätzold, M. (2002). Mobile Fading Channels. John Wiley & Sons, Hoboken. Penaud, S. (2001). Étude des potentialités du chaos pour les systèmes de télécommunications : évaluation des performances de systèmes à accès multiples à répartition par les codes (CDMA) utilisant des séquences d’étalement chaotiques. Thèse de doctorat, Université de Limoges. Proakis, J.G. (1995). Digital communications. McGraw-Hill, New York. Roubine, E. (1970). Introduction à la théorie de la communication, tome III. Masson, Paris. Sanchez, J., Thioune, M. (2008). UMTS. Hermes-Lavoisier, Cachan. Servin, C. (2009). Réseaux & télécoms. Dunod, Paris. Sklar, B. (1988). Digital communications. Prentice Hall, Upper Saddle River. Spataru, A. (1987). Fondements de la théorie de la transmission de l’information. Presses polytechniques et universitaires romandes, Lausanne.
Licence illimitée accordée à SCD - Université de Nantes
Bibliographie
309
Stein, M. (1991). Les modems pour transmission des données. Masson, Paris. Tomasi, W. (1998). Electronic Communications Systems. Prentice Hall, Upper Saddle River. Webb, W., Hanzo, L. (1994). Modern quadrature amplitude modulation. Pentech Press, Londres.
Licence illimitée accordée à SCD - Université de Nantes
Licence illimitée accordée à SCD - Université de Nantes
Index
B, C bande latérale inférieure, 251 supérieure, 251 minimale, 251 bruit, 138-142, 146-148, 154-157, 164, 167, 171, 176, 183, 187, 192, 202, 210, 213, 216, 222, 225, 229-231, 237, 241, 247, 250, 254, 258, 262, 264, 269 canal binaire symétrique, 8, 9, 11, 25 capacité du –, 16, 17, 19, 22-24 de transmission, 5, 6, 8, 10, 14, 16, 17, 20, 21, 24, 25, 32, 39, 45, 51, 81, 137, 138, 146, 153, 154, 163, 183, 192, 202, 213, 222, 237, 284, 285, 302 caractéristiques du bruit, 139 codage avec compression, 16, 21 cyclique, 57, 64, 69, 72, 299, 303 d’information d’images numérisées, 24, 37 d’une source d’information de mouvement, 46
de Hamming, 69, 72, 284 de Huffman, 13, 19, 20, 25, 27, 30-32, 38-41, 47, 49, 89, 261 duobinaire, 182 et décodage par codes cycliques, 299 et transmission d’une source d’information, 37 MICD, 16 par division, 300, 301 simple, 15 code à haute densité d’impulsions HDB-3, 127 bipolaire ou HDB-2, 86 RZ, 89, 110, 131, 134 en ligne, 2 pour la transmission en bande de base, 287 systématique, 51, 53, 54, 58, 64 codeur à base de registre à décalage à réaction, 61 de Hamming, 56
Licence illimitée accordée à SCD - Université de Nantes
312
Communications numériques 2
linéaire à réponse partielle, 86, 126, 132, 181, 182, 191, 192 prémultiplié, 64, 66, 69, 71, 75 critère fréquentiel de Nyquist, 165, 171
D débit, 13-17, 19-25, 32, 46-48, 85, 86, 164, 169, 203, 207, 246-248, 256, 257, 260, 269, 272-274 binaire, 14, 15, 46, 47, 85, 86, 169, 203, 207, 246, 256, 257, 260 entropique, 14, 16, 85 décodage instantané, 91, 135 par division, 301 décodeur à base de registre à décalage à réaction, 61 de Hamming, 57 densité spectrale de puissance, 86, 89, 90, 92, 99, 101, 108, 111, 123-125, 127, 129-131, 133-136, 138-140, 146, 164, 202, 213, 222, 237 distance de Hamming, 9, 10 minimale, 51, 52
E, F efficacité, 14, 17, 19, 20, 22, 24, 25, 28, 31-35, 38, 39, 42, 46, 47, 49, 85, 86, 256, 257, 260 égalisation, 2, 127, 138, 139, 142, 146, 147, 151, 155, 156, 159, 165, 168, 171, 269, 274 encombrement spectral, 134, 136 entropie, 5, 6, 9, 13, 14, 17, 19, 20, 22, 24, 25, 28, 31, 32, 36, 38-43, 45-47, 85, 256 conditionnelle, 6
enveloppe complexe, 203-205, 208, 210, 213, 214, 216, 223, 229, 231, 238-241, 250, 258, 259 erreurs doubles, 62, 64, 65, 76, 82 simples, 50-52, 62, 65, 78, 82 triples, 62, 82 étude d’un modem QPSK, 293 de codes en ligne, 285 de la transmission d’informations numériques sur câble bifilaire, 269 exemple de chronogramme d’un signal bipolaire, 111 de code binaire RZ et de code NRZ, 92 extension d’ordre k d’un canal, 8 filtre codeur, 192 d’égalisation, 139, 141, 147, 151, 154, 156, 165, 230 global, 204 passe-bas équivalent, 203, 204, 213, 223, 229, 238, 239, 250, 258 précodeur, 183, 192 fonction d’autocorrélation, 91-93, 99, 110, 111, 123, 124
G, I générateur de Gold, 79, 84, 302 pseudo-aléatoire, 57, 73, 77, 78, 83, 281, 302 information mutuelle, 6 instants de décision, 139, 146, 154, 204, 214, 223, 229, 238, 259
Licence illimitée accordée à SCD - Université de Nantes
Index
interférence intersymbole, 139, 142, 144, 147, 151, 154, 157, 165-169, 175, 179, 187, 195, 204, 211, 214, 216, 223, 227, 229, 233-235, 238-240, 245-247, 259, 265 intervoie, 264
L largeur de bande, 86, 87, 89, 90, 131, 139, 147, 148, 164, 165, 269 du signal, 86, 87, 90, 131 de spectre, 138, 146 loi de probabilité, 20, 38-41, 137, 138, 222, 228 longueur moyenne, 14, 17, 18, 20, 22, 25, 27, 30-34, 37, 47, 49, 86, 257, 274
M matrice de parité, 51, 52 génératrice, 51, 52, 54, 57, 69, 70, 72, 73 mesure de l’affaiblissement, 273 de l’impédance caractéristique, 272 du débit, 273 méthode de réflectométrie, 272 MIC différentiel, 16, 21 modulation, 2 linéaire, 202, 213, 222, 237, 247, 258 numérique avec porteuse, 285, 288 par déplacement conjoint d’amplitude et de phase, 203 d’amplitude en quadrature, 203 de phase, 203, 248, 286
313
mot reçu, 51, 55, 81, 82, 301 -code, 20, 21, 24, 30, 36, 47, 48, 51, 52, 58, 60, 65, 69, 73, 78, 79, 88, 283, 301 -contrôle, 58 -information, 53, 55, 57, 69, 73, 75, 78, 79, 81, 303 multiplexage temporel, 275-277, 279
P paquet d’erreurs, 62, 82 partie imaginaire, 204, 214, 223, 226, 229, 231, 238, 240, 259 réelle, 204, 214, 223, 224, 226, 229, 231, 238, 240, 259 performances des modulations, 246 polynôme, 57, 59, 64, 65, 69, 70, 73, 74, 76-79, 83, 84, 299-302 générateur, 57, 59, 64, 69, 70, 73, 78, 79, 83, 301, 302 précodeur, 87, 90, 126-128, 132, 183, 185, 186, 192, 194, 195 probabilité, 9, 10, 28, 30-32, 36-39, 42, 44, 46-50, 86, 92, 95-97, 108, 119-121, 139, 144, 156, 161, 174, 190, 198, 199, 256, 257, 259-262, 266, 302 conditionnelle, 95, 120, 143, 155, 160, 163, 166-168, 172, 176, 178, 180, 193, 196, 215, 219, 220, 224, 227, 235, 246, 259, 264 d’erreur(s), 8, 10, 25, 30, 37, 155, 159, 167-169, 176, 179, 180, 189, 215, 221, 224, 227, 230, 231, 234, 239, 240, 242, 245247, 259 conditionnelles, 5, 140, 143, 148, 184, 230 totale d’erreurs moyenne, 140
Licence illimitée accordée à SCD - Université de Nantes
314
Communications numériques 2
puissance, 91, 110, 125, 130, 131, 138, 139-141, 146-148, 154, 164, 165, 171, 214, 223, 248, 287
R, S rapport signal à bruit, 5, 140, 148, 155, 168, 169, 183, 192, 214, 219, 223, 226, 229, 239, 243, 259, 264, 294 redondance, 13, 15, 39, 41 schéma de réalisation du codeur, 58, 60, 64, 73, 78, 165 du décodeur, 58, 64, 78 du codeur à réponse partielle, 90, 131, 132 du système de transmission en bande de base, 137, 145, 153 général du système de transmission numérique avec modulation de porteuse, 202 séquences de Gold, 78, 79, 84 temporelles, 128, 183, 192 -M, 78, 79, 83 seuils de décision, 139, 146, 159, 160, 165, 171, 176, 187, 196 signal corrigé, 154, 166, 176 émis, 86, 127, 128, 138, 141, 146, 154, 156, 164, 170 en bande de base, 201, 212, 236, 257, 285 porteur, 202, 213, 222, 237, 258 reçu, 138, 141, 146, 156, 172, 279, 294
source d’information, 5, 8-10, 13, 25, 28, 31, 32, 38-40, 85, 86, 110 spectre d’amplitude, 139, 147, 154, 155, 165, 224, 229, 230, 238, 259 structure du décodeur pour la détection des erreurs, 67 symbole, 8-10, 12-17, 32-36, 42-45, 86-88, 118, 126, 130, 139, 142, 147, 151, 153-162, 164, 169, 182, 203, 207, 214, 218, 223, 228, 235, 238240, 245-248, 256, 262 syndrome, 51, 52, 56, 61, 62, 81, 301
T, V théorie de l’information, 1, 5 des lignes, 270 trajet double (un trajet direct et un trajet retardé), 239, 243 transmission à grande distance, 85, 89, 130, 133 de la vidéo codée, 46, 255 MIC, 275 numérique, 16, 91, 110, 137, 145, 202, 212, 228, 251 avec codeur à réponse partielle, 130 en bande de base, 275 par modulation MDA-2, 221 par modulation MDAQ-4, 211, 228, 236 série de l’information supportée par des signaux analogiques, 275 variation de l’affaiblissement en fonction de la longueur, 273
Licence illimitée accordée à SCD - Université de Nantes
Sommaire de Communications numériques 1
Partie 1. Théorie de l’information Introduction de la partie 1 Chapitre 1. Introduction aux télécommunications 1.1. Rôle d’un système de communication 1.2. Principe de la communication 1.3. Tendance vers les communications numériques Chapitre 2. Mesure de l’information d’une source discrète et capacité d’un canal 2.1. Introduction et définitions 2.2. Exemples de sources discrètes 2.3. Incertitude, quantité d’information et entropie 2.4. Débit d’information et redondance d’une source 2.5. Canaux discrets et entropies 2.6. Information mutuelle 2.7. Capacité, redondance et efficacité d’un canal discret 2.8. Entropies à k variables aléatoires Chapitre 3. Codage de source pour canaux sans perturbations 3.1. Introduction 3.2. Intérêt des codes binaires 3.3. Codes à décodage unique Licence illimitée accordée à SCD - Université de Nantes
316
Communications numériques 2
3.4. Longueur moyenne des mots-code 3.5. Capacité, efficacité et redondance d’un code 3.6. Codes optimaux absolus 3.7. Extension d’ordre k d’une source 3.8. Premier théorème de Shannon 3.9. Synthèse des codes binaires optimaux Chapitre 4. Codage de canal pour canaux à perturbations 4.1. Introduction 4.2. Second théorème de Shannon 4.3. Stratégies de correction d’erreurs 4.4. Classification des codes détecteurs ou correcteurs d’erreurs 4.5. Définitions liées aux performances des codes 4.6. Forme de la décision 4.7. Codes-groupe linéaires 4.8. Codes cycliques 4.9. Registre à décalage à réaction (RDR) et ses applications Partie 2. Transmissions numériques en bande de base et avec modulation de porteuses Introduction de la partie 2 Chapitre 5. Le codage binaire à M-aire et le codage M-aire à signal : les codes en ligne 5.1. Présentation et typologie 5.2. Critères de choix d’un code en ligne 5.3. Densité spectrale de puissance (DSP) d’un code en ligne 5.4. Description et caractérisation spectrale des principaux codes en ligne linéaires à symboles successifs indépendants 5.5. Description et caractérisation spectrale des principaux codes en ligne non linéaires non alphabétiques à symboles successifs dépendants 5.6. Description et caractérisation spectrale des codes en ligne linéaires à réponse partielle Chapitre 6. Transmission sur un canal passe-bas d’un signal numérique M-aire 6.1. Introduction 6.2. Systèmes numériques et normalisation pour les hauts débits Licence illimitée accordée à SCD - Université de Nantes
Sommaire du volume 1
317
6.3. Modélisation de la transmission à travers la chaîne de communication d’un signal numérique M-aire 6.4. Caractérisation de l’interférence intersymbole (IIS) : diagramme de l’œil 6.5. Probabilité d’erreur Pe 6.6. Conditions d’absence d’interférence intersymbole : critères de Nyquist 6.7. Répartition optimale du filtrage entre l’émission et la réception 6.8. Transmission avec un codeur linéaire à réponse partielle Chapitre 7. Transmissions numériques avec modulation de porteuses 7.1. Introduction et schéma de principe d’une transmission numérique radioélectrique 7.2. Techniques d’accès multiple et normes les plus répandues 7.3. Structure d’une liaison hertzienne, d’une liaison par satellite et d’un canal radiomobile 7.4. Effets des chemins multiples et des non-linéarités des amplificateurs de puissance 7.5. Modulations numériques linéaires sur fréquences porteuses 7.6. Modulations numériques linéaires en quadrature : structure générale du modulateur, diagramme spatial, diagramme de constellation et choix d’une constellation 7.7. Transmission numérique radioélectrique et transmission équivalente en bande de base : enveloppe complexe 7.8. Transmission équivalente en bande de base, intérêt et justification : signal analytique et enveloppe complexe 7.9. Relation entre filtre passe-bande H et filtre passe-bas équivalent He 7.10. Modulation par déplacement de phase à M états : MDP-M (M-ary Phase Shift Keying, M-PSK) 7.11. Modulation par déplacement d’amplitude en quadrature à M états : MDAQ-M (M-ary Quadrature Amplitude Modulation, M-QAM) 7.12. Présentation détaillée de la modulation et de la démodulation MDAQ-16 7.13. Modulation par déplacement d’amplitude et de phase : MDAP (Amplitude and Phase Shift Keying Modulation, modulation APSK) 7.14. Étude détaillée de la modulation et de la démodulation MDP-8 (Eight-Phase PSK, 8-PSK) 7.15. Performances des modulations en occupation et efficacité spectrale
Licence illimitée accordée à SCD - Université de Nantes
Licence illimitée accordée à SCD - Université de Nantes
El Assad 2.qxp_Mise en page 1 28/07/2020 14:23 Page 1
Une première partie, composée d’une trentaine de travaux dirigés, étudie la théorie de l’information et des communications avec modulations numériques de porteuses. Les problèmes autonomes à difficulté variable sont structurés en énoncés complets, suivis des solutions explicites à chacune des questions. Une seconde partie présente cinq travaux pratiques qui traitent particulièrement des mesures de base sur les câbles de transmission, de la conception en simulation logicielle de modems, de l’utilisation effective de modules électroniques et des fonctions de base dans la construction des systèmes de communication.
Communications numériques 2 permet de comprendre progressivement et en profondeur l’essentiel de ce domaine et d’acquérir les compétences industrielles nécessaires.
Les auteurs Safwan El Assad est maître de conférences habilité à diriger des recherches à Polytech Nantes. Ses recherches portent actuellement sur la cryptographie basée chaos. Dominique Barba est ancien professeur de Polytech Nantes. Ses recherches portent sur le traitement des images fixes et animées, la vision humaine et artificielle, ainsi que les communications numériques.
editions
Z(7ib7i4-AFGHAE(
Communications numériques 2 travaux dirigés et pratiques
Communications numériques 2
Cet ouvrage didactique offre un ensemble riche et diversifié de travaux dirigés et pratiques sur les communications numériques.
Safwan El Assad Dominique Barba
COLLECTION SYSTÈMES D’INFORMATION, WEB ET SOCIÉTÉ
editions
Safwan El Assad et Dominique Barba
editions