Communications numériques: Volume 2, Travaux dirigés et pratiques 1784056707, 9781784056704


129 92 8MB

French Pages [330] Year 2020

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Front Cover
Table des matières
Avant-propos
PARTIE 1 Travaux dirigés
Chapitre 1 Théorie de l’information : problèmes 1 à 15
Chapitre 2 Transmissions numériques en bande de base : problèmes 16 à 26
Chapitre 3 Transmissions numériques avec modulation de porteuse : problèmes 27 à 33
PARTIE 2 Travaux pratiques
Chapitre 4 Étude de la transmission d’informations numériques sur câble bifilaire
Chapitre 5 Étude de systèmes de transmission numérique en bande de base (émetteur, récepteur) de signaux analogiques
Chapitre 6 Étude de codes en ligne pour la modulation en bande de base et avec porteuse
Chapitre 7 Étude d’un modem QPSK sous Matlab, Simulink, Communications et DSP
Chapitre 8 Étude d’un système de codage et décodage par codes cycliques
Bibliographie
Index
Sommaire de Communications numériques 1
Back Cover
Recommend Papers

Communications numériques: Volume 2, Travaux dirigés et pratiques
 1784056707, 9781784056704

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

El Assad 2.qxp_Mise en page 1 28/07/2020 14:23 Page 1

Une première partie, composée d’une trentaine de travaux dirigés, étudie la théorie de l’information et des communications avec modulations numériques de porteuses. Les problèmes autonomes à difficulté variable sont structurés en énoncés complets, suivis des solutions explicites à chacune des questions. Une seconde partie présente cinq travaux pratiques qui traitent particulièrement des mesures de base sur les câbles de transmission, de la conception en simulation logicielle de modems, de l’utilisation effective de modules électroniques et des fonctions de base dans la construction des systèmes de communication.

Communications numériques 2 permet de comprendre progressivement et en profondeur l’essentiel de ce domaine et d’acquérir les compétences industrielles nécessaires.

Les auteurs Safwan El Assad est maître de conférences habilité à diriger des recherches à Polytech Nantes. Ses recherches portent actuellement sur la cryptographie basée chaos. Dominique Barba est ancien professeur de Polytech Nantes. Ses recherches portent sur le traitement des images fixes et animées, la vision humaine et artificielle, ainsi que les communications numériques.

editions

Z(7ib7i4-AFGHAE(

Communications numériques 2 travaux dirigés et pratiques

Communications numériques 2

Cet ouvrage didactique offre un ensemble riche et diversifié de travaux dirigés et pratiques sur les communications numériques.

Safwan El Assad Dominique Barba

COLLECTION SYSTÈMES D’INFORMATION, WEB ET SOCIÉTÉ

editions

Safwan El Assad et Dominique Barba

editions

Communications numériques 2

Licence illimitée accordée à SCD - Université de Nantes

First published 2020 in Great Britain by ISTE Editions Ltd.

Apart from any fair dealing for the purposes of research or private study, or criticism or review, as permitted under the Copyright, Designs and Patents Act 1988, this publication may only be reproduced, stored or transmitted, in any form or by any means, with the prior permission in writing of the publishers, or in the case of reprographic reproduction in accordance with the terms and licenses issued by the CLA. Enquiries concerning reproduction outside these terms should be sent to the publishers at the undermentioned address: ISTE Editions Ltd 27-37 St George’s Road London SW19 4EU UK

© ISTE Editions Ltd 2020 The rights of the authors of this work have been asserted by them in accordance with the Copyright, Designs and Patents Act 1988.

British Library Cataloguing-in-Publication Data A CIP record for this book is available from the British Library ISBN: 978-1-78405-670-4 (print) ISBN: 978-1-78406-670-3 (e-book)

Printed and bound in Great Britain by CPI Group (UK) Ltd., Croydon, Surrey CR0 4YY, September 2020

Licence illimitée accordée à SCD - Université de Nantes

Communications numériques 2 travaux dirigés et pratiques

Safwan El Assad Dominique Barba

editions Licence illimitée accordée à SCD - Université de Nantes

Licence illimitée accordée à SCD - Université de Nantes

À nos familles au sens large

Licence illimitée accordée à SCD - Université de Nantes

Licence illimitée accordée à SCD - Université de Nantes

Table des matières

Avant-propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

Partie 1. Travaux dirigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

Chapitre 1. Théorie de l’information : problèmes 1 à 15 . . . . . . . .

5

1.1. Problème 1 – Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Problème 2 – Extension d’ordre k d’un canal . . . . . . . . . . . . . . 1.3. Problème 3 – Transmission numérique de la parole sous forme comprimée et codage de Huffman . . . . . . . . . . . . . . . . 1.4. Problème 4 – Codage simple, codage avec compression d’information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5. Problème 5 – Transmission numérique d’un signal de télévision (composante de luminance seulement) avec compression d’information et codage de Huffman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6. Problème 6 – Information, entropie, codes (1) . . . . . . . . . . . . . 1.7. Problème 7 – Information, entropie, codes (2) . . . . . . . . . . . . . 1.8. Problème 8 – Codage et transmission d’une source d’information de type télévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9. Problème 9 – Entropie et codage d’une source d’information de mouvement de signaux vidéo . . . . . . . . . . . . . . . . . . . . . . . . 1.10. Problème 10 – Codage de Hamming . . . . . . . . . . . . . . . . . . 1.11. Problème 11 – Codage cyclique (1) . . . . . . . . . . . . . . . . . . . 1.12. Problème 12 – Codage cyclique (2) . . . . . . . . . . . . . . . . . . . 1.13. Problème 13 – Codage cyclique et codage de Hamming (1) . . . .

. . . .

5 8

. .

13

. .

16

. . . . . .

19 24 30

. .

37

. . . . .

46 50 57 64 69

Licence illimitée accordée à SCD - Université de Nantes

. . . . .

viii

Communications numériques 2

1.14. Problème 14 – Codage cyclique et codage de Hamming (2) . . . . . . 1.15. Problème 15 – Code cyclique, séquences-M et séquences de Gold . . Chapitre 2. Transmissions numériques en bande de base : problèmes 16 à 26 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1. Problème 16 – Entropie et codage d’une source d’information à signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Problème 17 – Calcul de la fonction d’autocorrélation et de la densité spectrale de puissance par approche probabiliste des codes en ligne binaires RZ et NRZ . . . . . . . . . . . . . . . . . . . . . 2.3. Problème 18 – Calcul de la fonction d’autocorrélation et de la densité spectrale de puissance par approche probabiliste du code bipolaire RZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4. Problème 19 – Transmissions numériques avec codeur à réponse partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5. Problème 20 – Codage d’informations à signal et transmissions numériques avec codeur à réponse partielle . . . . . . . . . . . . . . . . . . 2.6. Problème 21 – Caractéristiques d’un système de transmission numérique en bande de base (1) . . . . . . . . . . . . . . . 2.7. Problème 22 – Caractéristiques d’un système de transmission numérique en bande de base (2) . . . . . . . . . . . . . . . 2.8. Problème 23 – Transmissions numériques M-aires en bande de base. 2.9. Problème 24 – Transmissions numériques en bande de base d’informations codées en bipolaire. . . . . . . . . . . . . . . . . . . . . . . . 2.10. Problème 25 – Transmission et réception avec codeur linéaire à réponse partielle (1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.11. Problème 26 – Transmission et réception avec codeur linéaire à réponse partielle (2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

85 .

85

.

91

.

110

.

126

.

130

.

137

. .

145 153

.

163

.

181

.

190

Chapitre 3. Transmissions numériques avec modulation de porteuse : problèmes 27 à 33 . . . . . . . . . . . . . . . . . . . . . . . 3.1. Problème 27 – Caractéristiques d’un système de transmission numérique avec modulation de porteuse . . . . . . . . . . . . . . . . . . . . . 3.2. Problème 28 – Transmissions numériques par modulation MDAQ-4 (1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Problème 29 – Transmissions numériques par modulation MDA-2 . . 3.4. Problème 30 – Transmissions numériques par modulation MDAQ-4 (2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5. Problème 31 – Transmissions numériques par modulation MDAQ-4 : trajets simple et double . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Licence illimitée accordée à SCD - Université de Nantes

72 78

201 201 211 221 228 236

Table des matières

3.6. Problème 32 – Performances des modulations : modulation numérique MDAQ-16 . . . . . . . . . . . . . . . . . . . . . . . . . 3.7. Problème 33 – Codage et transmission de type MDAQ-4 des informations de mouvement de la vidéo numérique . . . . . . . . . . . .

ix

246 255

Partie 2. Travaux pratiques . . . . . . . . . . . . . . . . . . . . . . . . . . .

267

Chapitre 4. Étude de la transmission d’informations numériques sur câble bifilaire . . . . . . . . . . . . . . . . . . . . . . . . .

269

4.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Rappel des résultats essentiels de la théorie des lignes . . . 4.3. Étude pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Objectifs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5. Mesure de l’impédance caractéristique Zc par la méthode de réflectométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6. Mesure de l’affaiblissement ߙ en fonction de la fréquence . 4.7. Variation de l’affaiblissement ߙ en fonction de la longueur 4.8. Mesure du débit D (bit/s) . . . . . . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

269 270 271 271

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

272 273 273 273

Chapitre 5. Étude de systèmes de transmission numérique en bande de base (émetteur, récepteur) de signaux analogiques . 5.1. Objectifs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Étude d’un système de transmission de signaux par modulation d’amplitude d’impulsions et multiplexage temporel . . . . . . . . . . . . 5.2.1. Étude expérimentale . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1.1. Mode 1 de fonctionnement . . . . . . . . . . . . . . . . . . 5.2.1.2. Mode 2 de fonctionnement (sans transmission séparée de l’horloge). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1.3. Mode 3 de fonctionnement (un seul lien entre émetteur et récepteur) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3. Étude d’un système de transmission de signaux par modulation d’impulsions codées (MIC) et contrôle d’erreurs de transmission (code détecteur et code correcteur d’erreurs) . . . . . . . . . . . . . . . . . 5.3.1. Étude expérimentale . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1.1. Étude sans erreur de transmission et sans code de protection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1.2. Étude avec code de protection contre les erreurs de transmission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Licence illimitée accordée à SCD - Université de Nantes

275

. .

275

. . . . . .

276 277 277

. .

277

. .

278

. . . .

279 282

. .

282

. .

283

x

Communications numériques 2

Chapitre 6. Étude de codes en ligne pour la modulation en bande de base et avec porteuse . . . . . . . . . . . . . . . . . . . . . 6.1. Objectifs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2. Description des maquettes . . . . . . . . . . . . . . . . . . . . . . 6.3. Étude de codes en ligne pour la transmission en bande de base 6.3.1. Étude expérimentale . . . . . . . . . . . . . . . . . . . . . . 6.4. Étude des modulations numériques avec porteuse . . . . . . . . 6.4.1. Modulation par déplacement d’amplitude (ASK) . . . . . 6.4.2. Modulation par déplacement de fréquence (FSK) . . . . . 6.4.3. Modulation par déplacement de phase (PSK) . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

285 . . . . . . . .

Chapitre 7. Étude d’un modem QPSK sous Matlab, Simulink, Communications et DSP . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

293

7.1. Objectifs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2. Travail demandé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3. Annexes : schémas du modem QPSK et de ses différents blocs . . . . . Chapitre 8. Étude d’un système de codage et décodage par codes cycliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1. Objectifs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2. Introduction et principes du codage-décodage cyclique . . 8.3. Codage par division : code systématique . . . . . . . . . . 8.4. Décodage par division : principe du calcul du syndrome . 8.5. Travail demandé . . . . . . . . . . . . . . . . . . . . . . . . . 8.6. Annexes : schémas des blocs . . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

285 285 287 287 288 288 289 290

293 294 295

299 . . . . . .

299 299 300 301 301 303

Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

307

Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

311

Sommaire de Communications numériques 1 . . . . . . . . . . . . . .

315

Licence illimitée accordée à SCD - Université de Nantes

Avant-propos

Nous avons rédigé cet ouvrage de formation sur les communications numériques dans l’esprit de présenter sous une forme intégrée les connaissances de base sur lesquelles s’appuient les systèmes de communications numériques modernes et, surtout, la manière dont elles sont mises en œuvre techniquement tant dans leur principe que dans leur réalisation. Cet ouvrage est le fruit d’une longue expérience de formation dans ce domaine en école d’ingénieurs (Polytech Nantes). Il s’agit d’une formation complète : cours, travaux dirigés présentant de nombreux problèmes types ciblés avec solutions détaillées, travaux pratiques illustrant concrètement divers aspects des techniques de mise en œuvre. Comme nous l’avons mentionné, bien que notre expérience soit d’abord celle de former des ingénieurs, nous avons, par des adaptations du contenu, souhaité nous adresser à des publics plus larges : d’abord en formation initiale, aux ingénieurs, aux masters 2, aux licences spécialisées en télécommunications ou d’autres spécialités connexes. Mais aussi aux formateurs en leur apportant, via les travaux dirigés et pratiques (TDP), des contenus qui peuvent leur être fort utiles dans la construction de la formation qu’ils dispensent. En formation continue, cet ouvrage s’adresse aussi aux techniciens en télécommunications ou en année supplémentaire de spécialisation (années spéciales complémentaires à la formation en IUT). Cet ouvrage, qui est composé de deux volumes associés, est présenté dans son premier aspect, de cours sous la forme d’une synthèse très concise et complète sur les fondements et techniques des communications numériques (volume 1). Elle se décompose en deux parties. La première partie concerne la théorie de l’information en elle-même, portant tant sur les sources d’information que sur les canaux de communication avec la prise en compte des erreurs qu’ils introduisent dans la transmission de l’information, ainsi que des moyens de s’en protéger par l’utilisation

Licence illimitée accordée à SCD - Université de Nantes

2

Communications numériques 2

de méthodes de codage appropriées. La deuxième partie traite les aspects techniques de transmission, nous présentons d’abord la transmission en bande de base avec l’important concept et technique fondamentale de l’égalisation. L’évaluation des performances en termes de probabilités d’erreurs est systématiquement développée et détaillée ainsi que les codes en ligne utilisés. Nous abordons ensuite les transmissions avec modulation numérique de porteuses utilisées dans les transmissions avec modulation de porteuse (transmissions radioélectriques mais également sur câbles électriques). Un deuxième aspect fort important dans l’apprentissage des connaissances et du savoir-faire d’un apprenant compose cet ouvrage (première partie du volume 2). Il concerne l’aspect des travaux dirigés (TD) d’une formation. Il s’agit ici d’un ensemble ordonné d’une trentaine de problèmes types avec solutions détaillées couvrant les différentes parties du cours. L’ensemble doit permettre à un apprenant de comprendre progressivement et en profondeur l’essentiel de ce domaine et d’acquérir les compétences nécessaires pour les pratiquer dans le monde industriel. Enfin, le dernier aspect concerne ceux pratiques au sens propre du terme, complément indispensable d’une formation allant jusqu’au savoir-faire (seconde partie du volume 2). Nous proposons ici un ensemble de 5 travaux pratiques. L’intérêt de ceux-ci est qu’ils vont des mesures de base sur les câbles de transmission jusqu’à la conception en simulation logicielle de modems en passant par l’utilisation de blocs de modules électroniques réalisant des fonctions de base utiles dans les communications numériques. REMARQUE. Les auteurs mettent à la disposition des lecteurs les deux TP logiciels sous Matlab-Simulink « Modem QPSK » et « codeur-décodeur cyclique ». Ils aident également au montage des deux TP matériels des chapitres 4 et 6. Pour accéder à ces informations, vous pouvez contacter les auteurs directement à ces adresses : [email protected] et [email protected].

Licence illimitée accordée à SCD - Université de Nantes

PARTIE 1

Travaux dirigés

Licence illimitée accordée à SCD - Université de Nantes

Licence illimitée accordée à SCD - Université de Nantes

Chapitre 1

Théorie de l’information : problèmes 1 à 15

1.1. Problème 1 – Entropie On considère le canal de transmission d’informations de type binaire symétrique sans mémoire de la figure 1.1. Perturbations

Source

[X]

Canal p ( yj ⁄ xi )

[Y]

Destination

Figure 1.1. Schéma de base d’une communication numérique

On suppose que le rapport signal à bruit conduit à l’obtention des valeurs suivantes de probabilités d’erreurs conditionnelles : = 1⁄

=0 =

= 0⁄

=1 =

( ⁄ )=1− On considère que la source d’informations binaires émet des informations indépendantes avec les probabilités suivantes : ( )=

et

( )=

=1−

1) Calculer l’entropie ( ) de la source.

Licence illimitée accordée à SCD - Université de Nantes

6

Communications numériques 2

2) Calculer l’entropie ( ) de la destination. 3) Calculer l’entropie conditionnelle mission).

( ⁄ ) (entropie de l’erreur de trans-

4) Calculer la perte d’information ( ⁄ ) apportée par le canal de transmission. 5) En déduire la quantité moyenne d’informations reçue par le destinataire pour chaque symbole binaire envoyé ( , ) (information mutuelle). 6) Déterminer la capacité = 0,5.

du canal. Montrer qu’elle est maximale pour

Solution du problème 1 1) Par définition, on a : ( )=−

( ) log

( )

donc : ( ) = −{

log

+ (1 −

) log (1 −

) =

( )

2) Par définition, on a : ( )=−

log

et : ( )×

=



d’où : ( ) = −{[ (1 − ) + (1 − +[

+ (1 −

× log [

) ] × log [ (1 − ) + (1 −

) ]

)(1 − )]

+ (1 −

)(1 − )]}

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

7

3) De la même façon, on a : ( ⁄ = )=−





× log

et aussi : ( ⁄ )=

( ) ( ⁄ =

)

Comme nous avons affaire à un canal de communication binaire symétrique, nous obtenons : ( ⁄ ) = −{(1 − ) log (1 − ) + log

=

( )

4) Nous avons : ( ⁄ )=−

( )×



log

( )×



ou encore : ( ⁄ )=− log

+

(1 − ) log

+ (1 −

(1 − ) (1 − ) + (1 −

)(1 − )

(1 − ) (1 − ) + (1 −

+(1 −

) log

+(1 −

)(1 − ) log

)

)

(1 − )(1 − ) + (1 − )(1 − )

5) Par définition, on a : ( , )=

( )− ( ⁄ )

6) Par définition, on a : =

( , )= ( )− ( ⁄ ) { ( ) { ( )

Licence illimitée accordée à SCD - Université de Nantes

8

Communications numériques 2

( ) { ( )

tel que

est obtenue pour

= − (1 − 2 ) log

( )

=0

(1 − ) + (1 − + (1 − )(1 −

) )

=0

Il suffit de poser que le numérateur de la fonction log est égal au dénominateur, d’où : 2 (1 − 2 ) = 1 − 2 ; d’où

= 1⁄2

Ainsi, le maximum définit la capacité C du canal de communication et est obtenu pour : = 1⁄2 , d’où

( ) = 1 et donc :

=1− ( )

1.2. Problème 2 – Extension d’ordre k d’un canal On considère un canal de transmission d’information de type binaire symétrique sans mémoire : quelle que soit l’information binaire à transmettre, la probabilité d’erreur de transmission est constante, égale à p. Perturbations

Source

[X ]

Canal p( yj ⁄ xi )

[Y]

Destination

Figure 1.2. Schéma de base d’une communication numérique d’une source d’information sans mémoire

A. Extension d’ordre k d’un canal binaire symétrique sans mémoire de probabilité d’erreur p Le canal extension d’ordre k possède un alphabet d’entrée de 2 mots binaires de longueur k et un alphabet de sortie identique à l’alphabet d’entrée. Ce canal est donc représenté par une matrice carrée de dimension [2 , 2 ] dont l’élément correspond à la probabilité de recevoir conditionnellement à avoir transmis : ⁄ .

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

9

1) Si est la distance de Hamming entre les deux mots binaires de longueur k correspondant pour l’un au symbole , pour l’autre au symbole , déterminer la probabilité en fonction des 3 paramètres : , , . B. Extension d’ordre 2 d’un canal binaire symétrique 2) Écrire entièrement sous forme littérale en fonction de la matrice présentative de l’extension d’ordre 2 du canal binaire symétrique.

re-

3) On considère que la source émet dans le canal des symboles quaternaires de recevoir un symbole . équiprobables. Calculer la probabilité 4) En déduire la relation qui existe entre les éléments de la matrice représentative de l’extension d’ordre 2 du canal binaire symétrique et la probabilité ⁄ pour que le symbole ait été émis conditionnellement à avoir reçu . 5) Calculer la quantité moyenne d’information ( ⁄ ) perdue dans le canal à cause des erreurs de transmission. Exprimer ( ⁄ ) en fonction de : ( ) = −{(1 − ) log (1 − ) + log C. Extension d’ordre 4 d’un canal binaire symétrique La taille de l’alphabet d’entrée de la source est donc égale à 16. L’alphabet de sortie est le même que celui d’entrée. La source est considérée émettre des symboles

équiprobables.

6) On extrapole le résultat obtenu en B-5 en considérant que l’on a : ( ⁄ )=

( )

Calculer dans le cas où = 0,03 l’information moyenne symbole d’information envoyé.

( ⁄ ) perdue par

7) Quelle est l’entropie ( ) de la source d’information ? 8) Quel est le nombre maximum d’erreurs possibles sur un symbole reçu ?

Licence illimitée accordée à SCD - Université de Nantes

10

Communications numériques 2

Solution du problème 2 A. Extension d’ordre k 1) Le symbole donc :

est formé de k bits. Il en est de même pour le symbole



=

=

,

,

,

,⋯,



,

,

,

,

,⋯,

,

,

Le canal est sans mémoire, donc la probabilité d’obtention d’un bit en sortie ne dépend que du bit émis à l’entrée (en plus des propriétés intrinsèques du canal de transmission lui-même), d’où : ⁄

=

=

,

,





,

×

,



,

× ⋯×

,



,

,

en raison de l’indépendance entre la source d’information et le canal de communication. La distance de Hamming : = qui sont différents entre le symbole

, est le nombre de bits de même rang et le symbole .

Alors : ⁄

=

(1 − )

Cette loi se rapproche de la loi Binomiale car si est la probabilité d’erreur sur un bit , alors (1 − ) est la probabilité de bonne décision sur le bit . B. Extension d’ordre 2 du canal 2) On a : =2→ ⁄



=

=1=

(1 − )

→ la matrice



en raison de la symétrie.

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

1

2

3

0 0

0 1

1 0

(1 − )

(1 − )

(1 − )

1

0 0

2

0 1

(1 − )

3

1 0

(1 − )

4

1 1

4 1 1

(1 − )

(1 − ) (1 − ) (1 − )

(1 − )

(1 − ) (1 − )

Tableau 1.1. Matrice représentative de l’extension d’ordre 2 du canal binaire symétrique

3) On a : = ( )×

,

=

,



= ( )×

=



× ⁄

Or les symboles sont équiprobables : ( )=

1 ∀ = 1, ⋯ , 4 4

Les symboles

sont aussi équiprobables :

1 = [(1 − ) + 2 (1 − ) + 4

]=

1 ∀ = 1, ⋯ , 4 4

4) Nous avons : ⁄

=

( )×



=

car : ( )=

= 1⁄4

Licence illimitée accordée à SCD - Université de Nantes

11

12

Communications numériques 2

5) Quantité moyenne d’information

( ⁄ ) perdue dans le canal.

Nous avons : ⁄ =

=−

( ⁄ )=

( ⁄ )=−



⁄ =

1 4

log



⁄ =

=



log



car nous avons ici : ⁄

=



1 ( ⁄ ) = − [(1 − ) log (1 − ) 4 ]×4 +2 (1 − ) log (1 − ) + log ( ⁄ ) = −2{(1 − ) log (1 − ) + (1 − )[log +

+ log (1 − )]

log ( ⁄ ) = −2{(1 − )[(1 − ) log (1 − ) + log

+ [(1 − ) log (1 − ) + log ( ⁄ ) = 2[(1 − ) ( ) +

]

] ( )] = 2 ( ) =

( )

C. Extension d’ordre 4 du canal 6)

= 0,03 et ( ⁄ ) = 4 ( ).

Information moyenne perdue par symbole d’information envoyé ? Nous avons : ( ⁄ ) = −4[0,97 × log (0,97) + 0,03 × log (0,03)] = 0,7777 bit d'information/symbole

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

13

7) Entropie de la source ? ( )=

(

)=4 ( )

et : ( )=−

( ) log

( ) = 1 car

( )= ( )=

1 2

d’où : ( ) = 4 bit d'information/symbole 8) Nombre maximum d’erreurs possibles ? =4 1.3. Problème 3 – Transmission numérique de la parole sous forme comprimée et codage de Huffman Dans le cadre de la transmission du signal de parole très comprimé sur voie téléphonique mais entièrement sous forme numérique, intéressons-nous au problème de codage statistique de source. On considère une source d’information délivrant des symboles élémentaires appartenant à un dictionnaire de symboles de taille 6. Les probabilités d’émission de cette source simple d’information sont données dans le tableau 1.2.

{

0,05

0,20

0,22

0,33

0,15

0,05

Tableau 1.2. Probabilités d’émission des symboles par la source d’information

Les symboles sont délivrés par la source 1) Déterminer l’entropie

toutes les

= 10

.

( ) de la source. En déduire le débit entropique

Licence illimitée accordée à SCD - Université de Nantes

.

14

Communications numériques 2

2) Construire le codage statistique de Huffman, appelé code code binaire associé à chaque symbole . 3) En déduire la longueur moyenne seconde. 4) Quelles seraient l’efficacité

du code

et la redondance

5) Si on choisissait un code à longueur fixe (code ? Conclusion.

, qui engendre le

et le débit binaire

du code

par

?

), quelle serait son efficacité

6) Est-il possible de transmettre cette source sur un canal de transmission ayant une capacité de 2 400 bit/seconde ? Solution du problème 3 1) L’entropie de la source est : ( )=−

( ) log

( )

Rappel : log ( ) =

log ( ) 1 et ≅ 1,44 log (2) log (2)

( ) ≅ −1,44[0,05 log (0,05) + 0,2 log (0,2) + 0,22 log (0,22) +0,33 log (0,33) + 0,15 log (0,15) + 0,05 log (0,05)] ≅ 2,31 bit d'information/symbole Le débit entropique de la source est : =

( )

= 2,31 × 10 = 2,31 Kbit information/s

2) Construction du code de Huffman.

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

Symbole s i

p ( si )0

p ( si )1

p ( si ) 2

p ( s i )3

p ( si )4

Code C 1

s4

0,33

0,33

0,33

0,42

0,58 0

00

s3

0,22

0,22

0,25

0,33 0

0,42 1

10

s2

0,20

0,20

0,22 0

0,25 1

s5

0,15

0,15 0

0,20 1

s1

0,05

0

s6

0,05

1

11 010

0,10 1

0110 0111

Tableau 1.3. Construction du code

de Huffman

3) Longueur moyenne des mots-code : ( )×

=

= 0,05 × 4 + 0,20 × 2 + 0,22 × 2 + 0,33 × 2

+ 0,15 × 3 + 0,05 × 4 = 2,35 bit/symbole Débit binaire par seconde : =

= 2,35 Kbit/seconde

4) Efficacité et redondance du code de Huffman : =

( )

=1−

=

2,31 ≅ 98,3 % 2,35 = 0,017

5) Codage à longueur fixe (code

).

Comme on a 6 messages, il faut donc 3 bits : =

( ) 2,31 = = 77 % 3 3

Licence illimitée accordée à SCD - Université de Nantes

15

16

Communications numériques 2

Le code

est moins efficace que le code de Huffman

Le débit binaire par seconde avec le code

.

est : 3 × 1 000 = 3 Kbit/s.

6) La capacité du canal est de 2,4 Kbit/s, donc on peut transmettre le code mais pas le code car le débit de est plus important que la capacité du canal. 1.4. Problème 4 – Codage simple, codage avec compression d’information On considère un système de communication numérique, conçu pour la transmission sous forme numérique d’un signal ( ) sur un canal de transmission de capacité 34 Mbit/s. Par la suite, nous nous intéressons seulement à une partie de l’émetteur, composée d’un dispositif de numérisation et de sérialisation (échantillonnage, quantification linéaire sur 8 bits, mise en série des octets) représenté sur la figure 1.3. La fréquence d’échantillonnage est égale à 10 MHz. s(t )

{ bk }

s' Numérisation

Sérialisation

Canal

8 Figure 1.3. Schéma d’un système de transmission numérique d’un signal analogique

1) Avec le dispositif de la figure 1.3, est-il possible de transmettre le signal sur le canal et pourquoi ? Le débit étant important, on cherche alors à le réduire. À cet effet, un système de codage avec compression d’information de type MIC différentiel est intercalé entre les blocs de numérisation et de sérialisation. Il transforme la représentation ( ) à 256 niveaux en une représentation ( ) à 9 niveaux. Le symbole (correspondant à l’amplitude codée de l’échantillon ( )), est représenté selon un code binaire naturel. 2) Quel est le débit

en sortie du bloc de sérialisation ?

Pour réduire encore le débit, on insère après le système de codage MICD un bloc de codage qui groupe deux symboles consécutifs pour former de façon bijective un seul symbole code ( ) (donc celui-ci a une fréquence moitié de celle de ) : { ( ), ( ) ↔ ( ).

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

3) Le codage ?

17

n’utilisant pas de propriétés statistiques de , quel est son débit

Pour réduire encore plus le débit, on utilise un code de Huffman comme codage mais sans groupement par deux des symboles . Les probabilités de réalisation de sont les suivantes : ( =

)=

( =

)=

( =

( =

)=

( =

) = 0,125

( =

)=

( =

) = 0,03125

( =

)=

( =

) = 0,25

) = 0,0625

4) Construire le code de Huffman . Déterminer explicitement les mots-code associés à chacune des réalisations possibles du symbole . 5) Déterminer la longueur moyenne

des mots-code de

et l’entropie

6) Quel est le débit du code ? Quel est son efficacité transmettre le signal sur le canal de transmission ?

( ).

? Peut-on

7) On veut protéger l’information binaire transmise contre les erreurs de transmission. On utilise un codage de bloc qui ajoute à un paquet de 240 bits utiles 15 bits de protection (code détecteur d’erreurs par paquets). Quel est le nouveau débit total moyen et est-il compatible avec la capacité du canal ? Solution du problème 4 1) On a : = 8 × 10 = 80 Mbit/s Le débit est plus grand que la capacité du canal, donc on ne peut pas transmettre le signal sur ce canal. 2) Codage à 9 niveaux, donc il faut 4 bits par échantillon (code à longueur fixe), d’où : = 4 × 10 = 40 Mbit/s

Licence illimitée accordée à SCD - Université de Nantes

18

Communications numériques 2

3) On a :

), (

{ (

)

( )



) a 9 × 9 = 81 configurations différentes possibles, Le couple { ( ), ( et comme on a : 2 < 81 < 2 , il faut 7 bits pour coder un couple d’échantillons, d’où : 1 = 7 × × 10 = 35 Mbit/s 2 4) Construction du code de Huffman. si

p ( si ) 0

p ( si )1

p ( si )2

p ( s i )3

p ( si ) 4

p ( si )5

p ( s i )6

p ( si )7 C4

s8

0,25

0,25

0,25

0,25

0,25

0,25

0,5

0,5 0

10

s7

0,25

0,25

0,25

0,25

0,25

0,25

0,25 0

0,5 1

11

s5

0,125

0,125

0,125

0,125

0,25

0,25 0

0,25 1

s2

0,125

0,125

0,125

0,125

0,125 0

0,25 1

s1

0,0625

0,0625

0,125

0,125 0

0,125 1

s3

0,0625

0,0625

0,625 0

0,125 1

s4

0,0625

0,0625 0

0,625 1

s6

0,03125 0

0,0625 1

s9

0,03125 1

010 011 0010 0011 0000 00010 00011

Tableau 1.4. Construction du code

de Huffman

5) Par définition, on a pour la longueur moyenne : =

( )×

=2×

1 1 1 1 ×2 +2× ×3 +3× ×4 +2× ×5 8 16 32 4

= 2,8125 bit⁄mot code Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

19

et pour l’entropie : ( ) log

( )=−

( )

c’est-à-dire en remplaçant : ( ) = −{2 × 2 ×2

log 2

log 2

+2×2

+2×2

log 2

+3

log 2

1 1 1 1 ( ) = 4 × + 6 × + 12 × + 10 × 4 8 16 32 = 2,8125 bit d'information/mot 6) Débit = = Le code

du code

et son efficacité

pour cette source :

× 10 = 28,125 Mbit/s ( )

=1

est optimal absolu, car les probabilités sont de la forme :

Comme le débit le signal sur le canal.

=2

.

est inférieur à la capacité du canal, alors on peut transmettre

7) Codage de bloc pour la protection contre les erreurs de transmission : =

×

255 = 29,883 Mbit/s 240

De la même façon, comme le débit est inférieur à la capacité du canal, alors on peut transmettre de façon protégée ce signal sur le canal de communication. 1.5. Problème 5 – Transmission numérique d’un signal de télévision (composante de luminance seulement) avec compression d’information et codage de Huffman On considère un système de codage et de transmission de l’information conçu pour la transmission sous forme numérique d’un signal de télévision monochrome

Licence illimitée accordée à SCD - Université de Nantes

20

Communications numériques 2

( ). Le schéma général d’un tel système pour la partie antérieure est donné sur la figure 1.4.

Figure 1.4. Schéma général du système de transmission d’un signal de télévision avec compression d’information

Le signal analogique (signal de luminance) est échantillonné avec une période = 100 ns. Dans un convertisseur analogique/numérique, chaque échantillon est ensuite quantifié linéairement et converti en un nombre entier de 8 bits (code binaire naturel). Un bloc de codage transforme ce nombre de 8 bits en un autre mot-code binaire de longueur fixe ou variable suivant les cas que nous allons examiner. Le mot-code de format est ensuite sérialisé et engendre ainsi un train binaire à débit fixe ou variable suivant les cas. Une mémoire tampon (buffer) permet de fournir en sortie une séquence binaire à débit fixe tel que : = [ ] ( est l’espérance mathématique). Le canal de transmission a une capacité de 34 Mbit/s dont seulement 32 Mbit/s sont utilisables pour la transmission du signal vidéo. 1) On considère d’abord une version très simplifiée où le bloc de codage n’existe pas : le mot ( ) est strictement identique à la représentation binaire ′ ( ) du signal échantillonné ( ). Quel est le débit (en bit/s) en sortie du bloc de sérialisation et le débit fixe en sortie de la mémoire tampon ? Le débit étant considéré comme trop important, on cherche à le réduire. On utilise un codage de Huffman construit à partir de la connaissance (par estimation) de la loi de probabilité des amplitudes représentées par la variable aléatoire discrète associée à . L’entropie ( ) étant égale à 6,65 bits d’information par amplitude et l’efficacité du code étant de 0,95. 2) Quelle est la longueur moyenne débit fixe .

= ( ) des mots-code

? En déduire le

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

21

Le débit étant toujours trop important, on utilise un système de codage avec compression d’information de type MIC différentiel placé, comme indiqué sur le schéma de la figure 1.5. s' ( tk ) 8

s ( tk ) MIC différentiel Différentiel à 11 niveaux

S( k) Codage C

4

d

Figure 1.5. Compression d’information par système MICD et codage

de Huffman

À partir d’une représentation à 256 niveaux, le système MIC différentiel engendre une représentation de ( ) à 11 niveaux. Le nombre est représenté selon un code binaire naturel. 3) On considère d’abord dans la figure 1.5 que le codage n’existe pas. Quel est le en sortie du bloc de sérialisation et le débit fixe ? Est-il trop important ? débit On considère maintenant une alternative pour réduire encore le débit . Le codage (appelé codage ) groupe deux symboles consécutifs pour former de façon bijective un seul mot code (celui-ci a donc une fréquence moitié de celle de ) ↔ ( ). ) : { ( ), ( 4) Le code n’utilisant pas de propriétés statistiques de , montrer que la ? Peutlongueur minimale du mot-code est de 7 bits. Quel est le débit fixe on transmettre l’image sur le canal de transmission ? Pour réduire encore plus le débit, on utilise un code de Huffman comme codage mais sans groupement par deux des symboles . Les probabilités de réalisation de sont les suivantes : ( =

)=

( =

)=

( =

( =

)=

( =

)=

( =

( =

)=

( =

) = 0,125

( =

) = 0,375

)= )=

( = ( =

) = 0,03125 ) = 0,0625

5) Construire le code de Huffman . Déterminer explicitement les mots-code associés à chacune des réalisations possibles de .

Licence illimitée accordée à SCD - Université de Nantes

22

Communications numériques 2

des mots-code ? Quelle est l’efficacité 6) Quelle est la longueur moyenne ( ) du code sachant que l’entropie vaut 2,905 bit/message ? 7) Quel est le débit fixe mission ?

? Peut-on transmettre l’image sur le canal de trans-

On veut protéger l’information binaire transmise contre les erreurs de transmission. On utilise un codage de bloc qui ajoute, à un paquet de 256 bits utiles, 16 bits de protection (code détecteur d’erreurs par paquets). 8) Quel est le nouveau débit total moyen du canal ?

et est-il compatible avec la capacité

Solution du problème 5 1) Débit ? = 100 ns → est fixe →

= 10 MHz = 8 × 10 = 80 Mbit/s

=

2) Longueur moyenne des mots-code et débit fixe ? ( )=−

( ) log

( ) = 6,65 bit d'information/amplitude

→ = =

( )

×



=

( )

=

6,65 = 7 bit/échantillon 0,95

= 7 × 10 = 70 Mbit/s

3) Codage de 11 niveaux, donc il faut 4 bits par échantillon car 2 < 11 < 2 . Le débit

est fixe, d’où :

= Oui, le débit

= 4 × 10 = 40 Mbit/s est trop important car il est supérieur à la capacité du canal.

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

4) Codage

{

23

:



,

a 11 × 11 = 121 configurations différentes possibles et Le couple { , comme : 2 < 121 < 2 , il faut donc 7 bits pour coder un couple d’échantillons, soit : = 7 bit/couple d’échantillons est fixe, d’où : =

=7×

2

1 = 7 × × 10 = 35 Mbit/s 2

On ne peut pas transmettre l’image sur le canal car le débit capacité du canal. 5) Construction du code de Huffman

est supérieur à la

.

si

p ( si )0

p ( si )1

p ( s i )2

p ( si )3

p ( si )4

p ( si )5

p ( s i )6

p( s i)7

p ( si )8

p ( si )9

s6

0,375

0,375

0,375

0,375

0,375

0,375

0,375

0,375

0,375

0,625 0

s5

0,125

0,125

0,125

0,125

0,125

0,125

0,25

0,25

0,375 0

0,375 1

s7

0,125

0,125

0,125

0,125

0,125

0,125

0,125

0,25 0

0,25 1

s3

0,0625

0,0625

0,0625

0,125

0,125

0,125

0,125 0

0,125 1

s4

0,0625

0,0625

0,0625

0,0625

0,125

0,125 0

0,125 1

s8

0,0625

0,0625

0,0625

0,0625

0,0625 0

0,125 1

s9

0,0625

0,0625

0,0625

0,0625 0

0,0625 1

s1

0,03125

0,0625

0,0625 0

0,0625 1

s2

0,03125

0,03125 0

0,0625 1

s 10 0,03125 0

0,03125 1

s 11 0,03125 1

Licence illimitée accordée à SCD - Université de Nantes

24

Communications numériques 2

si

s6

s5

s7

s3

s4

s8

Code C 4

1

001

0000

0110

0111

0100

si

s9

s1

s2

s 10

s11

Code C 4

0101

000110

000111

000100

000101

Tableau 1.5. Construction du code

de Huffman

et efficacité  :

6) Longueur moyenne ( )×

=

= 0,375 × 1 + 0,125 × 3 + 0,125 × 4 + 4 × 0,0625 × 4 + 4 × 0,03125 × 6 = 3 bit⁄mot-code  =

( )

= 96,83 %

7) Débit fixe : Le débit canal.

=

×

= 3 × 10 = 30 Mbit/s.

est inférieur à la capacité du canal, on peut donc le transmettre sur le

8) Codage en bloc de protection : =

×

272 = 31,875 Mbit/s 256

Le débit est inférieur à la capacité du canal, il est donc compatible avec la capacité du canal. 1.6. Problème 6 – Information, entropie, codes (1) On considère un système de codage d’informations d’images numérisées en couleur en vue de leur stockage et de leur transmission efficace sur un canal de transmission. Les images, banque d’images fixes considérée comme une source 1

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

25

d’informations, sont au format VGA (video graphics array) 640 × 480 pixels avec seulement 16 niveaux de couleur par pixel (conjointement, luminance et chrominance). Les statistiques effectuées sur cette banque d’images montrent que sur les 16 couleurs : – 4 sont utilisées 60 % du temps, avec une égale fréquence ; – 4 sont utilisées 30 % du temps, avec une égale fréquence ; – 8 sont utilisées 10 % du temps, avec une égale fréquence. 1) Quelle est la quantité d’informations binaires nécessaire au stockage d’une image avec un code binaire à format fixe (code ) ? On veut réduire cette quantité en utilisant un code à longueur variable de type code de Huffman. 2) Construire le code associé à ce type d’information (code ). Pour cela, on pourra utiliser une technique simple de regroupement des mots à coder en classe de mots (gain de temps important). En déduire la longueur moyenne , la quantité d’informations binaires nécessaire au stockage d’une image et le taux de compression amené par ce code. 3) Quelle est l’entropie pixel) ? En déduire l’efficacité

de la source d’information (par élément d’image : le du code

.

vers un destinataire sur On veut transmettre les images codées avec le code canal binaire symétrique (CBS) sans mémoire ayant un débit fixe . Soit 2 la source d’informations binaires que l’on a en sortie série du codage de Huffman. 4) Quelle est la probabilité = 1 pour 2 ?

d’émettre

= 0 et la probabilité

d’émettre

Le canal de transmission est de type binaire symétrique sans mémoire. Il introduit des erreurs de transmission avec une probabilité d’erreur (l’application numérique sera : = 10 ). 5) Déterminer les entropies

( ),

( ) et

( ⁄ ).

Licence illimitée accordée à SCD - Université de Nantes

26

Communications numériques 2

6) Déterminer la quantité d’information reçue par le destinataire pour chaque symbole binaire envoyé ( , ), ainsi que l’entropie ( ⁄ ) (appelée équivoque). 7) Quelle est la perte d’information en moyenne par image transmise ? 8) Déterminer le nombre moyen de pixels reçus dont la valeur est erronée par image. 9) Serait-il possible de rajouter un code de protection après le codage Que proposez-vous en justifiant votre proposition ? Travaille-t-il au niveau des mots-code ou au niveau de blocs ? Solution du problème 6 1) Image VGA : 640 × 480 = 307 200 pixels, 16 couleurs/pixel. Il faut donc 4 bit/pixel (car 16 = 2 ), soit : = 307 200 × 4 = 1 228 800 bits = 153 600 octets 2) Les 16 couleurs sont réparties en 3 groupes : ↔ ( ,⋯,

)

↔ ( ,⋯,

)

↔ ( ,⋯,

)

Construction du code de Huffman sur les groupes : code

.

Code

Groupe g

p( g )0

p ( g )1

g1

0,6

0,6

0

0

g2

0,3

0

0,4

1

10

g3

0,1

1

11

Licence illimitée accordée à SCD - Université de Nantes

?

Théorie de l’information

Groupe g 1

Code

Groupe g 2

Code

Groupe g 3

Code

c0

000

c4

1000

c8

11000

c1

001

c5

1001

c9

11001

c2

010

c6

1010

c 10

11010

c3

011

c7

1011

c 11

11011

c 12

11100

c 13

11101

c 14

11110

c 15

11111

Tableau 1.6. Construction du code

27

de Huffman

Ainsi, la longueur moyenne des mots de ce code est : ×

=

=4×

0,6 0,3 0,1 ×3 +4× ×3 +8× ×5 4 4 8

= 3,5 bit/couleur = 3,5 bit⁄pixel REMARQUE. Cette longueur moyenne serait en fait égale à 3,45 bit/couleur (ou pixel) pour un codage de Huffman direct sur les couleurs à . Donc, avec ce code, cela nécessite, pour mémoriser ou transmettre une image : = 307 200 ×

= 307 200 × 3,5

= 1 075 200 bits = 134 400 octets Le taux de compression est donné par : =

=

4 = 1,142857 3,5

Licence illimitée accordée à SCD - Université de Nantes

28

Communications numériques 2

3) L’entropie de ce code est : ( )=−

( ) log

( )

( )=− 4×

0,6 log 4

0,6 0,3 +4× log 4 4

0,3 0,1 +8× log 4 8

0,1 8

= 3,395462 bit d’information/couleur = 3,395462 bit d’information⁄pixel Son efficacité est donnée par : =

( )

=

3,395462 ≅ 97 % 3,5

4) Dans le groupe

, il y a 8 bits à 0 sur 12 bits.

Dans le groupe

, il y a 8 bits à 0 sur 16 bits.

Dans le groupe

, il y a 12 bits à 0 sur 40 bits.

Alors la probabilité d’avoir un bit à 0 est de : =

{

= 0 = ( ) = 0,6 ×

8 8 12 + 0,3 × + 0,1 × = 0,58 12 16 40

et celle d’un bit à 1 est de : =

{

=1 = ( )=1−

= 0,42

5) Rappelons que la source d’information considérée ici est la source binaire 2. Les trois entropies sont données successivement par : ( )=−

( ) log

( ) = −{

log

+

log

( ) ≅ −1,44{0,58 × log 0,58 + 0,42 × log 0,42 = 0,981454 bit d'information⁄symbole binaire

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

( )=−

29

log

avec : = ( )=

( )×



= 0 = 0,58 × (1 − ) + 0,42 ×

= 0,58 − 0,16

= 0,579984 ( )=

= 1 = 1 − ( ) = 0,420016

( ) ≅ −1,44{ ( ) × log

( ) + ( ) × log

( )

= 0,981461 bit d’information⁄symbole binaire ( ⁄ = )=−



× log



et : ( ⁄ )=

( ) ( ⁄ =

)

Comme nous avons affaire à un canal de communication binaire symétrique, nous obtenons : ( ⁄ ) ≅ −1,44{(1 − ) log (1 − ) + log ( ⁄ ) ≅ 1,4730335 × 10

=

( )

bit d'information⁄symbole binaire

6) La quantité d’information transmise est : ( , )= ( ⁄ )=

( ) − ( ⁄ ) = 0,9799879 bit d'information⁄symbole binaire ( ) − ( , ) = 1,46661 × 10

bit d'information⁄symbole binaire

7) La perte d’informations en moyenne par image est : ( ⁄ )×

= 1576,35 bit/image

Licence illimitée accordée à SCD - Université de Nantes

30

Communications numériques 2

8) Nombre moyen de pixels reçus erronés : : codage sur 3 bits, ( ) = 0,6, alors la – si transmission du groupe probabilité de transmission sans erreurs des mots-code du groupe est : (1 − ) ; – si transmission du groupe : codage sur 4 bits, ( ) = 0,3, alors la probabilité de transmission sans erreurs des mots-code du groupe est : (1 − ) ; – si transmission du groupe : codage sur 5 bits, ( ) = 0,1, alors la probabilité de transmission sans erreurs des mots-code du groupe est : (1 − )5 . Donc, la probabilité de transmission d’un pixel sans erreur est : {pixel non erroné = 0,6 × (1 − ) + 0,3 × (1 − ) + 0,1 × (1 − ) Or, nous avons : si

≪ 1 → (1 − ) ≅ 1 −

, d’où :

{pixel non erroné ≅ 0,6 × (1 − 3 ) + 0,3 × (1 − 4 ) + 0,1 × (1 − 5 ) ≅ 1 − 3,5 La probabilité d’erreur sur la transmission d’un pixel est alors : {erreur sur un pixel ≅ 3,5 Ce résultat est tout à fait logique car la longueur moyenne est : = 3,5 bit/pixel Le nombre moyen de pixels reçus erronés par image est alors de : 307 200 × 3,5

≅ 108 pixels

9) Les mots-code ∈ au code sont de longueurs variables (3, 4 ou 5 bits), or les codes de protection étudiés dans ce cours sont à capacité dépendante de la longueur des mots-code, la correction d’erreurs sera donc difficile au niveau de chaque motcode. C’est pourquoi la protection (correction d’erreurs) sera à construire au niveau de blocs de bits. 1.7. Problème 7 – Information, entropie, codes (2) Soit un système de codage d’information d’images numérisées de type facsimilé, images comportant des parties noires sur un fond blanc (texte manuscrit ou imprimé, schéma, graphique), en vue de leur stockage et de leur transmission efficace sur un

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

31

canal de communication. Les images numérisées sont au format 1 600 × 2 400 pixels avec deux niveaux de gris par pixel. On considérera que les pixels sont indépendants (c’est une très grande simplification). Les statistiques effectuées sur les images de fac-similé montrent que les pixels de label 0 associé à la couleur blanche sont observés avec une fréquence égale à 0,9 et que les pixels de label 1 associé à la couleur noire sont donc observés avec une fréquence égale à 0,1. 1) Quelle est la quantité d’informations binaires nécessaire au stockage d’une image avec un code binaire à format fixe (code ) ? Un codage de Huffman de cette source d’information à deux symboles peut-il réduire cette quantité et pourquoi ? REMARQUE. Dans les codes de Huffman que l’on construira par la suite, le suffixe 1 sera toujours utilisé pour l’élément de probabilité la plus faible et donc le suffixe 0 pour celui de plus forte probabilité. 2) Quelle est l’entropie ( ) de la source d’information par élément d’image (le pixel) ? En déduire l’efficacité  du code . On veut accroître l’efficacité en utilisant un code associé non plus à chaque pixel mais à chaque groupe de deux pixels (code à extension d’ordre 2). 3) Construire le code de Huffman associé à cette nouvelle source d’information (code ). En déduire la longueur moyenne , la quantité de bits de codage nécessaire au stockage d’une image, le taux de compression obtenu par ce code (par rapport au code ) et son efficacité  . On veut encore accroître l’efficacité du codage en utilisant un code associé à chaque groupe de trois pixels (code à extension d’ordre 3). 4) Construire le code de Huffman associé à cette nouvelle source d’information (code ). En déduire la longueur moyenne , la quantité d’informations binaires nécessaire au stockage d’une image, le taux de compression obtenu par ce code (toujours par rapport au code ) et son efficacité  . On pourrait ainsi continuer l’augmentation du nombre de pixels groupés pour accroître l’efficacité du codage. 5) Quels seraient le taux de compression obtenu par un code à extension d’ordre quasi infini (très grand en pratique) par rapport au code et son efficacité  ?

Licence illimitée accordée à SCD - Université de Nantes

32

Communications numériques 2

On veut transmettre les images codées avec le code une ligne de transmission ayant un débit fixe D. Soit binaires que l’on a en sortie série du codage de Huffman 6) Quelle est la probabilité = 1 pour ?

d’émettre

vers un destinataire sur la source d’informations .

= 0 et la probabilité

d’émettre

Le canal de transmission est de type binaire symétrique sans mémoire. Il introduit des erreurs de transmission avec une probabilité (l’application numérique sera : = 10 ). 7) Déterminer successivement les entropies ( ),

( ) et ( ⁄ ).

8) Déterminer la quantité d’information reçue par le destinataire pour chaque symbole binaire envoyé ( , ), ainsi que l’entropie ( ⁄ ). 9) Quelle est la perte d’information en moyenne par image transmise ? 10) Déterminer le nombre moyen de pixels reçus dont la valeur est erronée par image transmise. Solution du problème 7 1) Taille de l’image :

= 1 600 × 2 400 = 3 840 000 pixels.

Pour stocker une image pour un code fixe =1×

égal à 1 bit/pixel, il faut :

= 3 840 000 bits = 480 000 octets

Un codage de Huffman de la source à deux symboles { = 0, = 1 , donne comme longueur moyenne = 1 bit/symbole, donc pas de compression. 2) L’entropie est : ( )=−

( ) log

( ) ≅ −1,44{0,9 × log 0,9 + 0,1 × log 0,1

≅ 0,46812 bit/symbole et l’efficacité :

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

( )

 =

33

= 46,81 %

3) Code à extension d’ordre 2 : groupement de deux pixels (symboles ) d’où quatre réalisations possibles. Construction du code de Huffman p ( s ij ) 0

Symboles s ij

=

: p ( s ij )1

s 11 = s 1 s 1

0,81

0,81

s 12 = s 1 s 2

0,09

0,1

0

s 21 = s 2 s 1

0,09

0

0,09

1

s 22 = s 2 s 2

0,01

1

p ( s ij ) 2

Code C 2

0,81

0

0

0,19

1

11 100 101

Tableau 1.7. Construction du code

de Huffman

La longueur moyenne des mots-code est : ×

=

= 0,81 × 1 + 0,09 × 2 + 0,09 × 3 + 0,01 × 3

= 1,29 bit/symbole La quantité de bits de codage nécessaire au stockage d’une image est : =

2

×

=

3 840 000 × 1,29 = 2 476 800 bits 2

Le taux de compression tivement : =  =

=

⁄2

relative au code

et son efficacité  sont respec-

≅ 1,550387579

( )

Licence illimitée accordée à SCD - Université de Nantes

34

Communications numériques 2

et : ( )=

) = 2 ( ) = 0,93624 bit/symbole

(

d’où : ( )

 =

=

0,93624 ≅ 72,57 % 1,29

4) Code à extension d’ordre 3 : groupement de trois pixels (symbole ), d’où huit réalisations possibles. Sl = s ijk

p ( Sl )0

p ( Sl ) 1

p ( Sl ) 2

p ( Sl ) 3

p ( Sl )4

p ( Sl ) 5

=

p ( Sl ) 6

Code C3

S1 = s000

0,729

0,729

0,729

0,729

0,729

0,729

0,729 0

0

S2 = s001

0,081

0,081

0,081

0,081

0,109

0,162 0

0,271 1

100

S3 = s010

0,081

0,081

0,081

0,081

0,081 0

0,109 1

S4 = s100

0,081

0,081

0,081

0,081 0

0,081 1

S5 = s110

0,009

0,01

0,081 0

0,028 1

S6 = s101

0,009

0,009 0

0,01 1

S7 = s011

0,009 0

0,009 1

S8 = s111

0,001 1

101 110 11100 11101 11110 11111

Tableau 1.8. Construction du code

de Huffman

La longueur moyenne des mots-code est : ×

=

= 0,729 × 1 + 3 × 0,081 × 3 + 3 × 0,009 × 5 + 0,001 × 5

= 1,598 bit/symbole Le nombre de bits nécessaire à la mémorisation d’une image est : =

3

×

=

3 840 000 × 1,598 = 2 045 440 bits 3

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

Le taux de compression respectivement : =

=

=

⁄3

( )

=

=

relatif et efficacité  par rapport au code

( )

=

sont

1 = 1,877346683 1,598⁄3

3 ( ) = 87,88 % 1,598

5) Extension d’ordre quasi infini : → ∞ → vement les taux de compression et d’efficacité : =

35

=

=

( ) d’où respecti-

1 = 2,136204392 0,46812

=1 6) Probabilité {

=

d’émettre 0 et

d’émettre 1 pour le code

:

=0 = ( )

2 1 2 1 = 1 × 0,729 × + × 0,081 + 2 × × 0,081 + × 0,009 + 2 × × 0,009 3 3 5 5 = 0,8442 {

=

=1 = ( )=1−

= 0,1558

7) Les trois entropies sont successivement les suivantes : ( )=−

( ) log

( ) = −{

log

+

log

≅ −1,44{0,8442 × log 8442 + 0,1558 × log 0,1558 ≅ 0,6230004 bit d'information⁄symbole binaire ( )=−

log

avec : =

( )×



Licence illimitée accordée à SCD - Université de Nantes

36

Communications numériques 2

( )=

= 0 = 0,8442 × (1 − ) + 0,1558 = 0,8442 − 0,6884

= 0,8441993 ( )=

= 1 = 1 − ( ) = 0,1558006

( ) ≅ −1,44{ ( ) × log

( ) + ( ) × log

( )

= 0,623002 bit d'information⁄symbole binaire ( ⁄ = )=−



× log



et : ( ⁄ )=

( ) ( ⁄ =

)

Comme nous avons affaire à un canal de communication binaire symétrique, nous obtenons : ( ⁄ ) ≅ −1,44{(1 − ) log (1 − ) + log ( ⁄ ) ≅ 2,1334334 × 10

=

( )

bits d'information⁄symbole binaire

8) Quantité d’information reçue par le destinataire et entropie (équivoque) : ( , )= ( ⁄ )=

( ) − ( ⁄ ) = 0,6229806 bit d'information⁄symbole binaire ( ) − ( , ) = 1,98 × 10

bit d'information⁄symbole binaire

9) La perte d’information en moyenne par image est : ( ⁄ )× 10) Groupe

= 1,98 × 10

× 2 045 440 = 40,499712 bit/image

: transmission du symbole 1 : codage sur 1 bit, ( ) = 0,729.

Alors, la probabilité de transmission sans erreur du mot-code 1 du groupe est : (1 − ).

(

: transmission des symboles Groupe ) = 3 × 0,081 = 0,243.

2 ou 3 ou 4 ; codage sur 3 bits :

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

Alors, la probabilité de transmission sans erreur des mots code du groupe (1 − ) . Groupe : transmission des symboles 5 ou ) ( = 3 × 0,009 + 1 × 0,001 = 0,028. 5 bits :

37

est :

6 ou 7 ou 8 ; codage sur

Alors, la probabilité de transmission sans erreur des mots code du groupe (1 − ) .

est :

Donc, la probabilité de transmission sans erreur d’un paquet de trois pixels est : {3 pixels non erronés = 0,729 × (1 − ) + 0,243 × (1 − ) + 0,028 × (1 − ) Or, nous avons, si :

≪ 1 → (1 − ) ≅ 1 −

, d’où :

{3 pixels non erronés ≅ 0,729 × (1 − ) + 0,243 × (1 − 3 ) + 0,028 × (1 − 5 ) ≅ 1 − 1,598 La probabilité d’erreur sur la transmission d’un paquet de trois pixels est alors : {erreur sur 3 pixels ≅ 1,598 Ce résultat est tout à fait logique car la longueur moyenne est : = 1,598 bit⁄3 pixels Le nombre moyen de pixels reçus erronés par image est alors de :

3

× 1,598

=

3 840 000 × 1,598 × 10 3

= 2,045 pixels ≅ 3 pixels

1.8. Problème 8 – Codage et transmission d’une source d’information de type télévision Soit un système de codage d’informations d’images numérisées de type TV couleur monochrome. Les images TV numériques sont codées au format (4 : 2 : 2). Cependant, pour simplifier le problème traité ici, on ne considérera que la composante de luminance. Ceci conduit donc à avoir par image : – 576 lignes utiles, à raison de 720 pixels par ligne (structure d’échantillonnage rectangulaire) ;

Licence illimitée accordée à SCD - Université de Nantes

38

Communications numériques 2

– 25 images par seconde (en fait 50 trames par seconde) ; – avec 256 niveaux de gris par pixel monochrome (codage binaire initial sur 8 bits). On considérera, c’est une très grande simplification, que les niveaux des pixels sont indépendants (en termes de variables aléatoires), notés par « ». Par contre, la loi de probabilité pas uniforme.

( ) des niveaux de gris

n’est absolument

Pr ( U )

0

Figure 1.6. Loi de probabilité

U 255 niveaux

128

( ) des niveaux de gris

de l’image TV

1) Quelle est la quantité de symboles binaires nécessaire au stockage d’une seconde d’images TV monochromes avec le code binaire initial à format fixe (code ) ? Supposons que l’entropie ( ) = 6 bit d'information/pixel, en déduire l’efficacité du code . 2) Un codage de Huffman (appelé code peut-il réduire cette quantité et pourquoi ?

) de cette source

d’information

Si l’on considère que le codage de Huffman réalise le codage optimal absolu, en déduire la quantité de symboles binaires nécessaire au stockage d’une seconde d’images TV monochromes. On veut accroître l’efficacité en utilisant une compression d’information de la . Pour cela on effectue une requantification adaptative (et donc non source linéaire) des 256 niveaux de gris de chaque pixel sur 8 niveaux maintenant, notés « ». La loi de probabilité ( ) issue de cette nouvelle source d’informations (notée « ») et son code binaire sont alors celles du tableau 1.9. 3) Quelle est la quantité de symboles binaires nécessaire au stockage d’une seconde d’images TV monochromes avec le code binaire à format fixe (code ) ? Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

Niveaux de ( ) Code

0

1

2

3

4

5

6

7

0,0625

0,0625

0,15

0,21

0,14

0,0625

0,25

0,0625

000

001

010

011

100

101

110

111

Tableau 1.9. Loi de probabilité

( ) de

39

et code binaire

4) Un codage de Huffman (appelé code ) de cette source d’information peut-il réduire cette quantité ? Quelle est l’entropie par pixel et l’entropie totale d’une seconde d’images TV ? 5) Construire le code de Huffman associé à cette nouvelle source mations (code ).

d’infor-

REMARQUE. Dans le code de Huffman que l’on construira, le suffixe 1 sera toujours utilisé pour l’élément ayant la probabilité la plus faible et donc le suffixe 0 pour celui ayant la plus forte probabilité. 6) Pour le code de Huffman

en déduire :

– le nombre moyen de bits de codage par pixel ; – la quantité d’informations binaires nécessaire au stockage d’une seconde d’images TV monochromes ; – le taux de compression

obtenu par ce code

(par rapport au code

);

– son efficacité  et sa redondance  . On veut transmettre les images codées avec le code vers un destinataire sur une ligne de transmission de symboles binaires, ayant une capacité donnée, notée « Cap ». Soit la source d’informations binaires que l’on a en sortie série du codage de Huffman . 7) Quelle est la probabilité d’émettre = 0 et la probabilité = 1 pour ? En déduire son entropie ( ).

d’émettre

Le canal de transmission est de type binaire symétrique sans mémoire. Il introduit des erreurs de transmission avec une probabilité (l’application numérique sera : = 10 ). On appelle « Y » la sortie du canal binaire d’information lorsque son entrée est la source binaire .

Licence illimitée accordée à SCD - Université de Nantes

40

Communications numériques 2

8) Déterminer l’entropie de . En déduire la quantité d’information reçue par le destinataire pour chaque symbole binaire envoyé par , ( , ). 9) Quelle est la perte d’information en moyenne dans le canal par symbole binaire envoyé ( ⁄ ) et la perte d’information en moyenne par seconde d’images TV transmises ? 10) Déterminer le nombre moyen de pixels reçus par seconde d’images dont la valeur est erronée. 11) Quelle est la capacité par seconde d’images ?

du canal de transmission binaire et la capacité

On modélise ( ) par la somme pondérée (facteurs et respectivement, avec : = 0,6225 et donc : = 1 − ) de deux lois de probabilités discrètes ( )= gaussiennes, notées « » et « », avec : ( ) = Gauss(64, 8) et : Gauss(160, 4) où, dans Gauss( , ), est la valeur moyenne et l’écart-type de la loi de probabilité gaussienne. 12) Quelle est (avec justification) parmi les valeurs suivantes : 8 ; 7 ; 6 ; 5 ; 4 ; 3 ; 2 ; 1 bit/pixel l’ordre de grandeur de l’entropie de la source d’informations par pixel ? Solution du problème 8 1) La taille d’une image est :

= 576 × 720 = 414 720 pixels.

Une seconde d’images numériques TV contient : =

× 25 = 10 368 000 pixel/s = 8 bit/pixel

TV monochrome : Code

:

Efficacité :

= =

× ( )

= 82 944 000 bit/s = = 75 %

2) La source d’information générant

est non uniforme sur [0, 255], donc :

( ) < 8 bit d'information/pixel

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

41

Le codage entropique est donc intéressant. Si le code

de Huffman réalise le codage optimal absolu, alors

=

×

= 62 208 000 bit/s

3) La quantité de bits par seconde avec le code =

×

( ), d’où :

=

est :

× 3 = 31 104 000 bit/s

=

4) Comme n’est pas de loi de probabilité uniforme, alors le codage de Huffman est efficace. L’entropie par pixel est : ( )=−

log

( ) ≅ −1,44

4 × 0,0625 × log (0,0625) + 0,15 × log (0,15) +0,21 × log (0,21) + 0,14 × log (0,14) + 0,25 × log (0,25)

≅ 2,7804781 bit d'information/pixel L’entropie totale d’une seconde d’images TV monochrome est : (

)=

× ( ) = 28 827 997 bit/s

5) Codage de Huffman : code Niveau Z

.

p ( Z )0

p( Z )1

p ( Z )2

p ( Z )3

p( Z )4

p( Z )5

p( Z )6

Code C3

6

0,25

0,25

0,25

0,25

0,29

0,46

0,54 0

01

3

0,21

0,21

0,21

0,25

0,25

0,29 0

0,46 1

11

0,25 1

2

0,15

0,15

0,15

0,21

0,25 0

4

0,14

0,14

0,14

0,15 0

0,21 1

0

0,0625

0,125

0,125 0

0,14 1

1

0,0625

0,0625 0

0,125 1

5

0,0625 0

0,0625 1

7

0,0625 1

Tableau 1.10. Construction du code

000 001 1010 1011 1000 1001

de Huffman

Licence illimitée accordée à SCD - Université de Nantes

42

Communications numériques 2

6) Le nombre moyen de bits de codage est : ×

=

= 0,25 × 2 + 0,21 × 2 + 0,15 × 3 + 0,14 × 3 + 4 × 0,0625 × 4

= 2,79 bit/niveau Le nombre de bits par seconde est : =

= 28 926 720 bit/s

×

Les taux de compression, efficacité et redondance sont respectivement : =

=

= ( )

=1−

=

=

3 = 1,07527 2,79

2,7804781 ≅ 99,66 % 2,79

= 0,0034128

7) Probabilité

d’émettre

= 0 et probabilité

d’émettre

= 1 pour

?

La probabilité d’émettre un bit à zéro est donnée par : 1 0 3 2 = 0 = ( ) = 0,25 × + 0,21 × + 0,15 × + 0,14 × + 0,0625 2 2 3 3 2 1 3 2 × + 0,0625 × + 0,0625 × + 0,0625 × = 0,4933 4 4 4 4 =

{

et celle d’émettre un 1 est donc : =

{

=1 = ( )=1−

= 0,5067

Son entropie est : ( )=−

( ) log

( ) = −{

log

+

log

≅ −1,44{0,4933 × log 0,4933 + 0,5067 × log 0,5067 = 0,99987 bit d'information⁄symbole binaire

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

8) L’entropie de

43

à la sortie du canal de communication est :

( )=−

log

avec : =

( )×



( )=

= 0 = 0,4933 × (1 − ) + 0,5067 ×

( )=

= 1 = 1 − ( ) = 0,506566

( ) ≅ −1,44{ ( ) × log

( ) + ( ) × log

= 0,493434

( )

= 0,99800773 bit d'information⁄symbole binaire La quantité d’information transmise à travers le canal est : ( , )=

( )− ( ⁄ )=

( )− ( ⁄ )

et comme nous avons affaire à un canal de communication binaire symétrique, on a : ( ⁄ )=

( ⁄ = )=−





× log

( ⁄ ) ≅ −1,44{(1 − ) log (1 − ) + log

=

( )

( ⁄ ) ≅ 0,080642209 bit d'information⁄symbole binaire d’où : ( , )=

( ) − ( ⁄ ) = 0,917365521 bit d'information⁄symbole binaire

9) La perte moyenne d’information dans le canal par symbole binaire envoyé est donnée par : ( ⁄ )=

( )− ( , )

= 0,082504479 bit d'information⁄symbole binaire

Licence illimitée accordée à SCD - Université de Nantes

44

Communications numériques 2

La perte d’information en moyenne par seconde d’images TV transmises est : ×

× ( ⁄ ) = 2 386 583,963 bit/s

10) Il faut considérer chacune des longueurs de mots-code : contient les niveaux {0, 1, 5, 7 dont chacun est codé par 4 bits et – le groupe de probabilité égale à 0,0625, d’où : (

) = (0) + (1) + (5) + (7) = 0,25

– le groupe contient les niveaux {2, 4 dont chacun est codé par 3 bits et de probabilités égales à 0,15 et 0,14 respectivement, d’où : (

) = (2) + (4) = 0,15 + 0,14 = 0,29

– le groupe contient les niveaux {3, 6 dont chacun est codé par 2 bits et de probabilités égales à 0,21 et 0,25 respectivement, d’où : (

) = (3) + (6) = 0,21 + 0,25 = 0,46

La probabilité de transmission sans erreur de : est (1 − ) ;

est (1 − ) ;

est (1 − )

Donc, la probabilité de ne pas avoir d’erreur avec le code

est :

{non erreurs = 0,25 × (1 − ) + 0,29 × (1 − ) + 0,46 × (1 − ) Or, si

≪ 1 → (1 − ) ≅ 1 −

, alors :

{non erreurs ≅ 0,25 × (1 − 4 ) + 0,29 × (1 − 3 ) + 0,46 × (1 − 2 ) ≅ 1 − 2,79 La probabilité d’avoir au moins une erreur sur le code {erreurs = 1 −

{non erreurs = 2,79

est alors :

= 0,0279

Le nombre moyen de pixels reçus erronés par seconde d’images est : × 0,0279 = 289 267 pixels

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

45

11) Comme le canal de transmission est de type binaire symétrique, alors : ( , )=1− ( )

=

= 0,91935779 bit d'information⁄symbole binaire et : × (

=

) = 26 503 243 bit d'information⁄s

12) Nous avons : ( ) + (1 −

( )=

)

( )

Si l’on considère en pratique une dynamique de ±3 sa valeur moyenne , alors : (

( )=

) + (1 −

) (

)+ (

par gaussienne autour de

)

Avec variable aléatoire associée à la gaussienne (64, 8) et atoire associée à la gaussienne (160, 4). Par ailleurs, nous avons : (

)
𝑘 → 𝑙 > 4, et la proportion des paquets d’erreurs détectables est alors : 1 − 2 = 1 − 2 = 0,875, soit 87,5 %. 12) Générateur pseudo-aléatoire. Vcc D2 Q2

D0 Q 0

D 1 Q1

°

ck

s

g0 = 1

g2 = 1

g3 = 1

Sortie Sortie

Q2

Q1

Q0

N° Ck

1

0

0



1

1

0



1

1

1



0

1

1



1

0

1



0

1

0



0

0

1



1

0

0

Sortie: Sortie :s s= =Q 0Q 0 Etat initial État initial

Retour l’étatinitial initial Retour ààl’état

Figure 1.13. Générateur pseudo-aléatoire et état du registre

La longueur du cycle est : 𝑙 = 2 − 1 = 2 − 1 = 7 → quasi équilibrée.

4 bits à 1 : séquence 3 bits à 0

Licence illimitée accordée à SCD - Université de Nantes

64

Communications numériques 2

1.12. Problème 12 – Codage cyclique (2) On considère le problème du codage de l’information à transmettre en vue de la protéger contre les erreurs de transmission. Pour cela, on utilise un code cyclique défini par son polynôme générateur ( ) de degré et le polynôme ℎ( ) de degré , orthogonal à ( ) modulo ( + 1). On fixe

= 15 et le polynôme générateur associé est :

( )=

+

1) Le code cyclique

+

+1

détecte-t-il les erreurs doubles ? Justifier votre réponse.

On impose que le code cyclique soit un code systématique que l’on appellera code . Dans ce cas, à partir d’un mot à coder représenté par le polynôme ( ), on obtient le mot codé représenté par le polynôme ( ). 2) Quelle est la structure du polynôme ( ) : format de chacune des deux parties de ( ) ? 3) À partir du mécanisme de construction des mots-code par le code , déterminer le schéma de réalisation du codeur associé au code (en utilisant les seuls opérateurs : bascule D ; multiplexeur 2 vers 1 ; Ou Exclusif). En prenant comme exemple le mot à coder représenté par le polynôme ( )= + + + + 1, décrire le fonctionnement du codeur prémultiplié : état interne et valeurs de l’entrée et de la sortie à chaque coup d’horloge. En déduire le polynôme code

( ) associé à ( ).

4) Déterminer le schéma de réalisation du décodeur associé au code mettant la détection des erreurs et expliquer son fonctionnement. On n’impose plus que le code cyclique soit systématique. On appellera code tel que ( ) soit obtenu par multiplication de ( ) par ( ). 5) Déterminer le schéma de réalisation du codeur associé au code les seuls opérateurs : bascule D ; Ou Exclusif).

perle

(en utilisant

En prenant comme exemple le mot à coder de la question 3, décrire le fonctionnement du codeur. En déduire le polynôme code ( ) associé à ( ).

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

65

Solution du problème 12 1) Nous avons ( )=

= 15 ; +

= 5 et : + 1 = ( + 1)(

+

+ 1) = ( + 1) × ( )

+

( ) n’est pas primitif, mais ( ) qui est de degré 4, est primitif car : 2 − 1. Deux erreurs intervenant en position et un polynôme erreur de type : ( )=

+

=

d’un mot-code sont caractérisées par

+ 1) avec

(

= 15 =

> >

Le polynôme ( ) étant primitif, donc ( ) ne divise aucun des polynômes de la forme ( + 1) avec < . Or ( − ) est au plus égal à ( − 1). Par ailleurs, ( ) ne divise pas

, d’où détection des erreurs doubles.

À noter au passage que le polynôme ( + 1) détecte toutes les erreurs simples et triples. 2) Structure du polynôme : ( )= ( )× ( )+ ( )→

( )+ ( )= ( )× ( )= ( )

avec : ( ) : polynôme-information décalé cycliquement de – gauche ;

positions vers la

– ( ) : polynôme-contrôle. 3) Nous avons : ( )= ( )× ( )+ ( ) d’où : ×(

+

+ ×(

+

+ +

+

+

+ +

+

+ 1) = ( =(

+ 1) +

+ +

+

+ 1) × ( ) + ( )

+ +

+

+ 1) +

+1

Licence illimitée accordée à SCD - Université de Nantes

66

Communications numériques 2

Donc finalement : ( )=

( )+ ( )

( )=

+

+

+

+

+

+

+

Schéma de réalisation du codeur associé au code bleau 1.15) et description de son fonctionnement. °k

D0 Q0

x i (x)

D1 Q1

D2 Q2

D3 Q3

+

+1

(bloc-diagramme du ta-

1  c1  2

D4 Q4

u1



ck

c2

1 2

c1c2 1 1

ck

i( x)

D0

Q0

Q1

D2

D1 1x

8

0

0

0

1

0

1

1



1 1

0

3° 0

1

4° 0

0

5° 1

0

6° 0

0

7° 1

1

8° 1

1

9° 2 2

0

0

10° 0

0

11° 0

0

12° 0

0

0

1 1 1 0 0 0 0

0 0

0

0 0

0 0

1 0

1 1

1 1

1 1

1 1

1 1

1 1

1 1

1 1

1 0

0 0

1 0

1

0 0

0 0

0

1 0

0 1

0

1 1

0

1

1 1

0 0

0

1 1

1

0

0 1

1

0 0

0 14°

1

1 1

1

1 0

0

0 0

13°

0

1

0 1

0 1

1

0 0

0

1

1 0

1 1

1 1

1

0 0

1

0

1 0

0

0

1 1

1

1

1

0 1

0

1

0

0 0

1

1

0

0 0

u1

0

1

1 0

Q4

0

1

0 1

D4

1

1

1 0

Q3

D3

1



Q2

1 1

0 0

1 0

Tableau 1.15. Description du fonctionnement du codeur prémultiplié

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

67

4) La structure du décodeur pour la détection des erreurs est donnée par la figure 1.14.

Clear

Figure 1.14. Structure du décodeur pour la détection des erreurs

Le procédé de détection est le suivant : – initialisation : on remet à zéro le registre par action sur Clear ; – pendant 𝑛 coups d’horloge, le mot-reçu 𝑣(𝑥) entre dans le diviseur. Le reste de la division 𝑥 𝑠(𝑥) est stocké dans le registre au 𝑛 coup d’horloge, la sortie de la porte OU indiquera alors s’il y a erreur ou non. 5) Nous avons : 𝑢 (𝑥) = 𝑖(𝑥) × 𝑔(𝑥) mod (𝑥 + 1) 𝑢 (𝑥) =

𝑖𝑥

𝑔 𝑥 =

𝑖 × 𝑔 ×𝑥

Posons : 𝑙 = 𝑠 + 𝑗 : 𝑢 (𝑥) =

𝑖 ×𝑔

𝑥 avec (𝑙 − 𝑠) ∈ 0, ⋯ , 𝑘

soit encore : 𝑢 (𝑥) = 𝑖 𝑔 + (𝑖 𝑔 + 𝑖 𝑔 )𝑥 + (𝑖 𝑔 + 𝑖 𝑔 + 𝑖 𝑔 )𝑥 + ⋯ +(𝑖

𝑔 +𝑖

𝑔

)𝑥

+𝑖

𝑔 𝑥

Licence illimitée accordée à SCD - Université de Nantes

68

Communications numériques 2

Une réalisation matérielle de cette relation représente le codeur associé au code (voir le bloc-diagramme du tableau 1.16). Le mot information est entré dans un registre à décalage, bit de poids faible en tête, et les bits correspondant aux termes présents dans le registre sont additionnés (modulo 2). Les bits du produit sortent avec les bits de poids faible en tête. i(x)

g0 = 1 D1 Q1

D0 Q0

g2 = 1 D2 Q2

D4 Q4

D3 Q3

g4 = 1

D5 Q5

i(x) 0

x 1



Q0

Q1

Q2

Q3

Q4

Q5

0

0

0

0

0

0

1

0

0

0

0

0

1x

1

1

0

0

0

0

1

0

1

1

0

0

0

1

1

0

1

1

0

0

0

0

1

0

1

1

0

1

0

0

1

0

1

1

1

1

0

0

1

0

1

0

0

1

0

0

1

0

1

1

0

1

0

0

1

1

0

1

0

1

0

0

0

0

0

1

0

1

0

0

0

0

0

1

0

1

1

0

0

0

0

1

0

1

u2 ( x )

1 2° 0 3° 1 4° 0 5° 0 6° 1 7° 0 8° 1 9° 0 10° 0 11° 0 12° 0 13°

u2 ( x )

g5 = 1

ck

ck

= 1

Licence illimitée accordée à SCD - Université de Nantes

0

Théorie de l’information

ck

i( x )

Q0

Q1

Q2

Q3

Q4

Q5

0

0

0

0

1

0

0

0

0

0

0

1

0

0

0

0

0

0

69

u2(x)

0 14°

1x

13

0 15°

Tableau 1.16. Description du fonctionnement du codeur C2

En effet : ( )= ( )× ( )=( =

+

+

+

+

+ +

+ +

+ +

+ 1) × ( +

+

+

+ 1)

+1

1.13. Problème 13 – Codage cyclique et codage de Hamming (1) On considère un code en blocs linéaire de paramètre générateur primitif : ( ) = + + 1.

= 7 et de polynôme

1) Montrer que ce code est cyclique. En déduire le deuxième polynôme générateur primitif ( ). 2) Écrire une matrice génératrice [ ] de ce code. En déduire la matrice génératrice [ ] de la version systématique du code en question. 3) Déterminer le mot-code ( ) sous forme systématique qui est associé au mot d’information : ( ) = + 1. 4) Construire le codeur prémultiplié permettant de générer le mot-code ( ) à partir du mot-information : ( ) = + 1. 5) Donner la matrice de contrôle [ ] du code dual au code . 6) Trouver, à partir de la relation liant la matrice de contrôle [ ] et le mot-code , les bits de contrôle en fonction des bits d’information de la question 3. 7) Donner vos commentaires à propos du code

et de son dual.

Licence illimitée accordée à SCD - Université de Nantes

70

Communications numériques 2

Solution du problème 13 1) Le code est cyclique si ( ) divise ( avec < . Ici

+ 1) mais ne divise pas pas (

+ 1)

= 7 et : (

+ 1) = (

+

+ 1) × (

+

(

+ 1) = (

+

+ 1) × (

+

Donc, ( ) divise (

+ 1), et le code

+

+ 1) × ( + 1) est cyclique.

Le deuxième polynôme générateur primitif ( )=(

+

+ 1)

( ) est :

+ 1)

2) La matrice génératrice [ ] du code (7, 4) est obtenue à partir du polynôme générateur ( ) comme suit :

[ ]

,

1 0 = 0 0

1 1 0 0

0 1 1 0

1 0 1 1

0 1 0 1

0 0 1 0

( ) ( ) ( ) ( )

0 0 0 1

Pour mettre le code sous forme systématique, la matrice génératrice [ ] doit avoir la forme [ ] = , | , obtenue à partir des opérations arithmétiques sur les lignes de la matrice [ ] , . En effet, d’après la forme de la matrice [ ] nous constatons que : – la ligne 1 de la matrice [ ] est obtenue par la somme des lignes : 1 + 2 + 3 de la matrice [ ] ; – la ligne 2 de la matrice [ ] est obtenue par la somme des lignes : 2 + 3 + 4 de la matrice [ ] ; – la ligne 3 de la matrice [ ] est obtenue par la somme des lignes : 3 + 4 de la matrice [ ] ; – la ligne 4 de la matrice [ ] est identique à la ligne 4 de la matrice [ ], d’où : 1 0 [ ]= 0 0

0 1 0 0

0 0 1 0

0 0 0 1

| | | |

1 0 1 1

1 1 1 0

0 1 1 1

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

3) Nous avons : ( )= ( )× ( )+ ( )→

( )+ ( )= ( )× ( )= ( )

or : ( )=

+1;

( )=

=3 →

×(

+1)=

+

D’où : + ⨁ + + −−−−−−−

+ +1 ← ( ) | −−−−−−−−−− | + + +1 ← ( ) |

+ + −−−−−−− + + + −−−−−−− + + + +1 −−−−−−− +1 ← ( ) → ( )=

+

+

+1

= [1 0 0 1 0 1 1] 4) Construction du codeur prémultiplié.

k

°

x i(x)

D0 Q0

D1 Q1

ck Clear Clear

D2 Q2

 c1 u 1   2 g3 = 1 1

g0 = 1

g2 = 1

c2 2

Figure 1.15. Schéma de réalisation du codeur prémultiplié

Licence illimitée accordée à SCD - Université de Nantes

71

72

Communications numériques 2

5) Matrice de contrôle [ ] du code dual au code . Il est tel que l’on a : [ ] × [ ] = [0] ; [ ] = →[ ]

,

,

|

,

→[ ]=

,

|

,

1 0 1 1 | 1 0 0 = 1 1 1 0 | 0 1 0 0 1 1 1 | 0 0 1

6) Bits de contrôle en fonction des bits d’information de la question 3 : [ ]

×

,

,

= [0]

,

1 0 1 1 1 0 0 1 1 1 0 0 1 0 × 0 1 1 1 0 0 1

+ + +



+ + +

+ + +

0 = 0 0

=0 =0 → =0

= = =

+ + +

+ + +

Donc nous avons : = [1 0 0 1 0 1 1]

=

bits information bits contrôle 7) Le code dual d’un code cyclique à longueur maximale est le code de Hamming. 1.14. Problème 14 – Codage cyclique et codage de Hamming (2) On considère un code en blocs linéaire défini par sa matrice génératrice suivante : [ ]

,

1 1 1 0 1 0 0 = 0 1 1 1 0 1 0 0 0 1 1 1 0 1

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

1) Donner l’expression du polynôme générateur ( ) associé à [ ]

,

73

.

2) Le code généré par ( ) est-il cyclique ? Justifier votre réponse. On impose que le code cyclique généré par ( ) soit systématique. 3) Déterminer le polynôme (mot-code) ( ) du polynôme (mot-information) : ( )= + 1. 4) Donner le schéma de réalisation du codeur prémultiplié permettant de générer le mot-code ( ) à partir du mot-information ( ) = + 1 et décrire son fonctionnement : état interne et valeurs de l’entrée et de la sortie pour trois coups d’horloge. 5) Le code généré détecte-t-il les erreurs impaires et doubles ? Justifier votre réponse. 6) Déterminer la proportion des paquets d’erreurs, de longueur > 5, détectables par le code généré. 7) Donner explicitement la matrice génératrice [ ], à partir de la matrice [ ] donnée précédemment, permettant de générer un code systématique. 8) Déterminer explicitement la forme de la matrice de contrôle [ ] permettant de générer un code dual au code . 9) Trouver, à partir de la relation liant la matrice de contrôle [ ] et le mot-code , les bits de contrôle en fonction des bits d’information. 10) Donner le schéma de réalisation du générateur pseudo-aléatoire (PRNG) basé sur ( ). Solution du problème 14 1) La dernière ligne de [ ] , = [ ] représente le polynôme générateur ( ) : → ( )=

+

+

+1 →

,

est le mot-code de plus faible degré qui

=4

2) D’après [ ] , → = 3 et = + = 3 + 4 = 7. Le code généré est + 1), avec < =7: cyclique si ( ) divise ( + 1) mais ne divise pas (

Licence illimitée accordée à SCD - Université de Nantes

74

Communications numériques 2

+ + +1 ← ( ) | −−−−−−−−−− + +1 ← ( ) | |

+1 ⨁ + + + −−−−−−− +

+

+1

+

+

+

−−−−−−− +

+

+1

+

+

+1

−−−−−−−− 0

0

0

0

+ 1) = (

→ (

+

+

+1)×(

( )

(

+

+1)

( )

Donc, comme ( ) divise ( + 1), mais ne divise pas ( + 1), alors le code généré par ( ) est cyclique.

+ 1), ni (

3) Détermination du polynôme ( ) associé au polynôme : ( ) =

+ 1), ni

+ 1.

Nous avons : ( )= ( )× ( )+ ( )→ ( )=

×(

+ ⨁ + + + −−−−−−−

+1)=

( )+ ( )= ( )× ( )= ( )

+

+ + +1 ← ( ) | −−−−−−−−−− + +1 ← ( ) | |

+ +

+

+

−−−−−−−

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

75

𝑥 +𝑥 +𝑥 +𝑥 𝑥 +𝑥 +𝑥 +1 −−−−−−−− 𝑐(𝑥) = 𝑥 + 1 → 𝑢(𝑥) = 𝑥 𝑖(𝑥) + 𝑐(𝑥) = 𝑥 + 𝑥 + 𝑥 + 1 4) Schéma de réalisation du codeur prémultiplié générant le mot code 𝑢(𝑥) à partir du mot-information 𝑖(𝑥) = 𝑥 + 1 et description de son fonctionnement (voir le bloc-diagramme du tableau 1.17).

°

k

x ix 

D0 Q0

D1 Q1

1

D3 Q3

D2 Q2

2

ck

 c1  

u

g4 = 1 1

Clear Clear

g2 = 1

g0 = 1

c1c2

ck

k x i x  D0

Q0

g3 = 1

c2

2

Q1

D2

Q2

D3

Q3

u1

0

0

1

0

1

0

1

1

0

D1 1

1

1x

6

1

1° 0x

5

1



1 1x



1

4

1

1 1

1 1

1

1 0

1 0

1

0 0

0 0

1 0

Tableau 1.17. Fonctionnement du codeur : état interne et valeurs de l’entrée et de la sortie pour trois coups d’horloge

5.a) Détection des erreurs en nombre impair. Si 𝑔(𝑥) peut se mettre sous la forme 𝑔(𝑥) = (𝑥 + 1)𝑝(𝑥), alors 𝑔(𝑥) détecte les erreurs en nombre impair grâce à (𝑥 + 1) (voir volume 1, chapitre 4).

Licence illimitée accordée à SCD - Université de Nantes

76

Communications numériques 2

+

+

+1



+1 |−− −− −− −− − − + +1 ← ( ) | |

+ −−−−− +1 + −−−− +1 +1 −−−− 0 0

( )=( +1)×(



+

+ 1) = ( + 1 ) × ( )

Donc, détection des erreurs en nombre impair. 5.b) Détection des erreurs en nombre double. Le générateur ( ) contient le polynôme ( ) = + + 1 qui est primitif, car 2 − 1 = 7 = , donc ( ) permet la détection des erreurs doubles. 6) Proportion des paquets d’erreurs de longueur > 5. On a = 4, donc la proportion des paquets d’erreurs de longueur > 5 détectables est : 1−2

>

+1 →

= 93,75 %

=1−2

7) La matrice [ ] est obtenue à partir de la matrice [ ] , par déplacement des positions de certaines colonnes, vérifiant la forme attendue de : [ ] , = [ ] , = , | , : 1 = 0 0 1 0 0 = 0 1 0 0 0 1

[ ]

,

1 1 0 | | |

1 1 1 1 1 0

0 1 1 1 1 1

1 0 1 0 1 1

0 0 1 0 →[ ] 0 1 1 0 1

,

8) Forme de la matrice de contrôle [ ] : [ ]

,

×[ ]

,

= [0]

,

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

[ ]

=

,

[ ]

=

,

→[ ]

|

,

1 1 = 0 1

,

|

,

→[ ]

,

→ [ ]

,

1 1 1 0

0 1 1 1

| | | |

,

1 0 0 0

,

=

= 0 1 0 0

,

0 0 1 0

,

|

|

,

77

,

0 0 0 1

9) Bits de contrôle en fonction des bits d’information ? Nous avons : [ ]

1 1 0 1

,

×[ ]

,

0 1 1 1

1 0 0 0

1 1 1 0

= [0]

0 1 0 0

0 0 1 0

,

0 0 × 0 1

0 0 = 0 0

avec :



,

,

: bits d’information

,

,

,

: bits de contrôle

⨁ ⨁ =0 ⨁ ⨁ ⨁ =0 → ⨁ ⨁ =0 ⨁ ⨁ =0

= = = =

⨁ ⨁ ⨁ ⨁ ⨁

10) Schéma de réalisation du générateur pseudo-aléatoire basé sur ( ) : ( )=

+

+

+1

Le schéma de réalisation du générateur pseudo-aléatoire (PRNG) basé sur le polynôme ( ) est donné sur la figure 1.16. REMARQUE. Au démarrage, il faut que l’état initial [ soit différent de zéro.

,

,

,

] du registre

Licence illimitée accordée à SCD - Université de Nantes

78

Communications numériques 2

D3 Q3

D2 Q2

D1 Q1

D0 Q0

Sortie

ck 1=

Figure 1.16. Schéma de réalisation du générateur pseudo-aléatoire

1.15. Problème 15 – Code cyclique, séquences-M et séquences de Gold On considère le problème de codage de l’information à transmettre en vue de la protéger contre les erreurs de transmission. Pour cela, on utilise un code cyclique défini par son polynôme générateur suivant : ( ) = + + 1, et = 31. 1) Quelle est la condition nécessaire et suffisante pour que le polynôme proposé soit primitif et générateur d’un code cyclique ? On souhaite réaliser un code cyclique

( )

systématique.

2) Donner l’expression du mot-code représenté par le polynôme pondant au mot-information représenté par le polynôme : ( ) = +

( ) corres+ + 1.

3) Donner le schéma de réalisation du codeur basé sur un circuit de division prémultiplié par , où est le degré du générateur ( ). Décrire son fonctionnement. 4) Donner le schéma de réalisation du décodeur associé au code détection des erreurs et expliquer son fonctionnement.

permettant la

5) Le code cyclique généré détecte-t-il les erreurs simples, doubles, triples ? Justifier votre réponse dans chaque cas de figure. 6) Déterminer les couples longueur-pourcentage des paquets d’erreurs détectables par ce code. 7) Donner le schéma de câblage du générateur de séquences pseudo-aléatoires à longueur maximale (séquences-M), basé sur le polynôme primitif ( ) défini plus haut. ( ) au géné8) Donner l’expression du polynôme générateur réciproque rateur ( ). Quelle est la caractéristique essentielle de la séquence-M générée par ( ) par rapport à celle générée par ( ) ?

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

9) Donner le nombre de séquences-M générées par l’intercorrélation maximale et l’autocorrélation. 10) Montrer que le générateur une paire préférée.

( )=

+

+

79

( ) et le rapport entre + 1 forme avec

+

11) Donner le schéma de câblage du générateur de Gold basé sur ( ) et permettant de générer toutes les séquences de Gold.

( )

( ),

12) Donner le nombre de séquences de Gold générées et le rapport entre l’intercorrélation maximale et l’autocorrélation. Solution du problème 15 1) La condition nécessaire et suffisante que ( ) soit primitif est que : 2 −1=

=2 −1

donc ( ) est primitif. Le polynôme ( ) est générateur d’un code cyclique, s’il divise + 1), avec < 31. divise pas ( Le générateur ( ) divise +1=( ×(

+

+

+

+ +

+

− 1, en effet, après division on trouve :

+ 1) +

+

+ 1 mais ne

+

+

+

+

+ 1)

+

+

+

2) Expression du mot-code représenté par le polynôme ( ) correspondant au mot-information représenté par le polynôme ( ). On a : ( )= ( )× ( )+ ( )→

( )+ ( )= ( )× ( )= ( )

ou encore : ( )=

×(

+

+

+ 1) =

+

+

+

Licence illimitée accordée à SCD - Université de Nantes

80

Communications numériques 2

+

+

+ +1 ← ( ) | −−−−−−−−−− | + + +1 ← ( ) |

+

⨁ + + −−−−−−− +

+

+

+

−−−−−−− +

+

+

+

+

−−−−−−−− +

+

+

+

+1

+

−−−−−−−−−− ( )=

+

→ ( )=

+ +

+1 +

+

+

( )

par

+

+

+1

( )

3) Schéma de réalisation du codeur basé sur un circuit de division prémultiplié .

°k

x i(x)

D0 Q0

D1 Q1

D2 Q2

D3 Q3

D4 Q4

ck

1  c1 u1 2   c2 1 2

Figure 1.17. Schéma de réalisation du codeur

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

81

Le fonctionnement du codeur est le suivant : – remise à zéro des bascules ; – pendant = 8 coups d’horloge, les multiplexeurs (Muxs) 1 et 2 sont en position 1. Les bits-information sont appliqués simultanément au diviseur et à la sortie. Les bits ( = 5) de contrôle se trouvent dans les bascules du registre ; – pendant coups d’horloge, les multiplexeurs (Muxs) 1 et 2 sont en position 2 ; des zéros entrent dans le registre et les bits de contrôle sortent. Le codeur utilise : ( + ) = (8 + 5 = 13) coups d’horloge et le canal de transmission est utilisé pendant toute l’opération. Au 13e coup d’horloge, les bascules du registre sont à zéro et le codeur est prêt à recevoir un autre mot-information à coder. Le codeur est très performant. 4) Schéma de réalisation du décodeur associé au code C. Le mot reçu ( ) s’écrit : ( )= ( )+ ( ) avec ( ) mot-erreur éventuel. Le syndrome est défini par : ( ) = ( )

( )=

( ) + ( )

Donc si ( ) est non nul, et si ( ) ∉ ( , du décodeur.

( ) = ( )

( ) ( )

), alors ( ) ≠ 0, d’où le schéma

≥1

s(x)

v(x) D0 Q0

D1 Q1

D2 Q2

D3 Q3

D4 Q4

ck

Figure 1.18. Schéma de réalisation du décodeur

Licence illimitée accordée à SCD - Université de Nantes

82

Communications numériques 2

Le mot reçu ( ) est divisé par ( ) durant = + = 8 + 5 = 13 coups d’horloge. Ensuite, le contenu du registre est vérifié par une simple porte logique OU. Si le contenu est nul, alors le mot reçu n’est pas considéré comme erroné. Sinon, le mot reçu est considéré comme erroné (le contenu du registre est non nul). 5) Capacité du code cyclique à détecter les erreurs simples, doubles, triples ? Nous savons que : ( ) ( )

( )=

Donc, la détection d’erreurs est possible si ( ) ne divise pas ( ). – Erreurs simples : dans ce cas, une erreur en position , représentée par ( ) = n’est pas divisible par ( ) = 1 + ⋯, donc détection des erreurs simples. – Erreurs triples : dans ce cas, ( ) = + + , et comme ( ) ≠ (1 + ) ( ) alors, en principe, il n’y a pas de détection des erreurs triples (voir volume 1, chapitre 4). – Erreurs doubles : dans ce cas, ( ) est de la forme ( ) = + = ( + 1) avec < < . Comme ( ) ne divise pas , il suffit alors que ( ) + 1). Le générateur ( ) divise + 1 mais ne divise ne divise pas non plus ( pas + 1, avec < , alors ( ) est dit d’ordre . Les polynômes primitifs sont irréductibles. Ils détectent toutes les erreurs doubles car ( − ) < . 6) Détermination des couples longueur-pourcentage des paquets d’erreurs détectables. Un paquet d’erreurs qui débute en position et a une longueur s’écrit : ( )=

+

+⋯+

où le premier et le dernier coefficients de ( ) sont à 1, les autres coefficients peuvent être à 1 ou 0 : ( )=

× 1+

+⋯+

=

× 1( )

Trois cas se présentent : – − 1 < ( = 5) → = 5, d’où une détection à 100 % de tous les paquets d’erreurs de ≤ ;

Licence illimitée accordée à SCD - Université de Nantes

Théorie de l’information

83

– − 1 = → = + 1 = 6, la proportion des paquets d’erreurs détectables est alors : 1 − 2 ( ) = 1 − 2 = 0,9375, soit 93,75 % des paquets ; – − 1 > → > 6 , la proportion des paquets d’erreurs détectables est alors : 1 − 2 = 1 − 2 = 0,9687, soit 96,87 %. 7) Le schéma de réalisation du générateur pseudo-aléatoire (PRNG) basé sur ( ) est donné figure 1.19. D4 Q4

D2 Q2

D3 Q3

D1 Q1

D0 Q0

s

ck 1=

Figure 1.19. Schéma de réalisation du générateur pseudo-aléatoire basé sur ( )

REMARQUE. Au démarrage, il faut que l’état initial [ soit différent de zéro. 8) Expression du polynôme générateur

,

,

,

,

] du registre

( ) réciproque au générateur ( ).

Nous avons : ( )=

× (1⁄ ) =

La séquence-M générée par inversée.

×(

+

+ 1) =

+

+1

( ) correspond à celle générée par ( ) mais

9) Nombre de séquences-M générées par ( ). = 5, d’où le nombre des séquences-M générées par ⁄ (0) = 0,35 (voir volume 1, chapitre 4). 10) Le générateur paire préférée ? Soit

( )=

+

+

une racine de : ( ) =

+

+ 1.

+

( ) est 6. Le rapport

+ 1, forme-t-il avec

Licence illimitée accordée à SCD - Université de Nantes

( ) une

84

Communications numériques 2

Le polynôme ( ) car : si

( )=

+

+

1)

est impair, comme

2)

( ) est tel que

c’est-à-dire que ( ) divise (

)=

(

) = (α) × (

+

+

+ +

+ 1, forme une paire préférée avec

= 5, la conditions 1) est vérifiée =

(

+

+

est une racine de

( )

). Cette condition est également vérifiée, car : +1 +

+

+

+

+

+

+

+ 1)

avec : ( )=(

+

+ 1)

11) Schéma de réalisation du générateur de Gold basé sur ( ) et

( ).

Figure 1.20. Schéma de réalisation du générateur de Gold

12) Le nombre de séquences de Gold est ( , ) = { , , ⨁ , une famille ⁄ (0) ( ) = 0,29 (voir volume 1, chapitre 4). de + 2 séquences. Le rapport est

Licence illimitée accordée à SCD - Université de Nantes

Chapitre 2

Transmissions numériques en bande de base : problèmes 16 à 26

2.1. Problème 16 – Entropie et codage d’une source d’information à signal On considère le problème de la transmission à grande distance sur câble électrique faible coût d’une source d’informations comprimées issue d’un système de compression de signaux vidéo. Le système de compression utilisé fait que la source S délivre des mots s pris dans un dictionnaire à cinq mots seulement : [ , , , , ]. Les probabilités d’émission des symboles sont présentées dans le tableau 2.1.

( )

0,11

0,19

0,40

0,21

0,09

Tableau 2.1. Probabilités d’émission de la source

Les symboles sont délivrés par la source avec une cadence de 13,5 106 symboles par seconde. 1) Déterminer l’entropie ( ) de la source . En déduire le débit entropique. Quelle serait l’efficacité d’un code à longueur fixe, sa longueur , et le débit ? binaire par seconde, noté 2) Construire le code de Huffman des symboles .

donnant le mot code

associé à chacun

Licence illimitée accordée à SCD - Université de Nantes

86

Communications numériques 2

REMARQUE. Dans la construction du code , le suffixe de codage associé à l’élément de plus faible probabilité sera systématiquement fixé à 1. En déduire la longueur moyenne, notée et le débit binaire par seconde .

, des mots-code de

, son efficacité

3) On considère que la source S délivre la suite temporelle SS de symboles s suivante : ⋯⋯

⋯ ⋯ ⟶ temps

En déduire la séquence correspondante SB de bits obtenue en sortie du codage de Huffman . SB est de la forme {⋯ ⋯ , , ⋯ ⋯ . Qu’observez-vous ? 4) L’émetteur construit un signal en bande de base supportant les bits d’information transmis. a) Il utilise d’abord un codeur bipolaire (appelé CODBip) de type RZ, d’amplitude V et de durée . Représenter graphiquement la portion de signal associée à SB émise par ce codeur CODBip. Quels sont les problèmes rencontrés en réception ? REMARQUE. De même que la question b), on considérera, au départ de la séquence, que la bascule de parité du nombre de 1 est égale à 1. b) Il utilise ensuite un codeur (appelé CODHDB) de type HDB-2. Représenter graphiquement la portion de signal associée à SB émise par ce codeur CODHDB. Certains problèmes sont-ils résolus et pourquoi ? c) Quelle est approximativement la largeur de bande du signal émis par le code bipolaire ou HDB-2 pour coder la source S ? (On pourra s’appuyer sur les propriétés de la densité spectrale de puissance Γ( ) du signal transmis.) Pour transmettre cette source d’informations sur ce type de câble, y a-t-il une bonne adéquation ? 5) On veut réduire la largeur de bande du signal émis. Aussi veut-on utiliser un codeur information à signal de type codeur linéaire à réponse partielle. Ce codeur sera très simple, de la forme 1 − (ici D est l’opérateur retard de , temps alloué à la transmission d’un symbole binaire). Le signal ( ) qui porte les symboles est de type NRZ, d’amplitude ⁄2 et de durée . On utilisera la séquence binaire SBB suivante pour le restant de ce problème : 0 0 1 0 0 0 1 1 0 1 1 1 0 0 1 1 0 0 0 1 0 1

Licence illimitée accordée à SCD - Université de Nantes

Transmissions numériques en bande de base

87

a) Ce type de codeur a besoin d’être précédé d’un précodeur qui lui est propre. Pourquoi ? b) Décrire la relation reliant la sortie du précodeur (donnant les symboles à son entrée .

)

c) Décrire la relation reliant la sortie du codeur (produisant les symboles à son entrée .

)

d) Représenter graphiquement la portion de signal associée à SBB émise par l’ensemble de ce codeur à réponse partielle (pour une modulation d’amplitude d’impulsions de durée ). Pour cela il faudra au préalable déterminer la séquence obtenue en sortie du précodeur (on supposera que les deux symboles non connus en début de la séquence sont nuls). e) Quelle est approximativement la largeur de bande du signal émis par ce code linéaire à réponse partielle pour coder la source S ? A-t-on gagné en réduction de largeur de bande ? 6) Pour ce code linéaire à réponse partielle, comment fonctionne le décodage produisant les symboles à partir de ̂ ? Justifiez votre réponse. Que se passe-t-il si une erreur due à la transmission au niveau de l’information binaire reconstruite se produit pour l’un des symboles ̂ reconstruit à la réception ? Solution du problème 16 1) Entropie ( ) : ( ) × log

( )=−

( )=−

( )

0,11 × log (0,11) + 0,19 × log (0,19) +0,4 × log (0,4) + 0,21 × log (0,21) + 0,09 × log (0,09)

≅ 2,12 bit information/symbole Débit entropique : ( )= Code 3 bits.

( ) × 13,5 × 10 = 28,26 Mbit information/s

à longueur fixe

: nous avons cinq symboles à coder, d’où :

Licence illimitée accordée à SCD - Université de Nantes

=

88

Communications numériques 2

Efficacité : =

( )

=

2,12 = 70,67 % 3

Débit binaire pour le code

:

= 3 × 13,5 × 10 = 40,5 Mbit/s 2) Code de Huffman

.

si

p ( si )0

p ( s i )1

p ( si )2

p ( s i )3

C2

s3

0,4

0,4

0,4

0,6

0

1

s4

0,21

0,21

0,39 0

0,4

1

01

s2

0,19

0,20 0

0,21 1

s1

0,11

s5

0,09 1

0

0,19 1

001 0000 0001

Tableau 2.2. Construction du code

de Huffman

Longueur moyenne d’un mot-code : ( )×

=

= 0,11 × 4 + 0,19 × 3 + 0,4 × 1 + 0,21 × 2 + 0,09 × 4

= 2,19 bit/symbole Efficacité du code =

( )

=

:

2,12 = 96,8 % 2,19

Débit binaire du code

:

= 2,19 × 13,5 × 10 = 29,565 Mbit/s

Licence illimitée accordée à SCD - Université de Nantes

Transmissions numériques en bande de base

89

3) Séquence correspondante SB de bits obtenus en sortie du codage de Huffman. SS SB

001

0001

1

01

1

1

001

1

0001

01

Tableau 2.3. Construction de la séquence binaire SB

On observe plus de 0 que de 1 et, de plus, parfois des suites de trois zéros consécutifs. 4) Codeur information à signal en bande de base. a) Codeur bipolaire CODBip de type RZ (voir le tableau 2.4 en dernière page de la solution). Les problèmes rencontrés en réception sont liés aux difficultés de récupération correcte de l’horloge dans certain cas, ici trois zéros consécutifs, car le codeur n’émet aucune impulsion pendant une durée 3T. b) Codeur CODHDB de type HDB-2 : voir le tableau 2.4 en dernière page de la solution. Les suites de trois zéros consécutifs sont remplacées par des séquences de type « 0 0 V » ou « B 0 V » et, donc, on peut avoir au maximum une durée 2T sans impulsion. c) La densité spectrale de puissance du code bipolaire RZ est donnée par : Γ ( )=

( 4

⁄2) ⁄2

×[

(

)]

L’annulation de Γ ( ) a lieu tous les 1⁄ , sa largeur de bande est donc 1⁄ . Elle est sensiblement la même pour le code HDB-n (ici HDB-2). Par ailleurs, au voisinage de la fréquence = 0, l’énergie est nulle, ce code peut donc être utilisé pour la transmission à grande distance sur câble. Cependant, la présence de longues successions de zéros est préjudiciable à la récupération de l’horloge, pour cela nous utilisons le code HDB-n. 5) Code à réponse partielle (CRP). a) Oui, il y a nécessité d’utiliser un précodeur pour que, à la réception, le décodage soit instantané (sans récursion) et, donc, si une erreur de décodage se produit, elle ne se propage pas récursivement. Licence illimitée accordée à SCD - Université de Nantes

90

Communications numériques 2

b) Relation reliant la sortie du précodeur (symbole bk Précodeur

b′ k

ak

Transcodage 2b′ – 1

) à son entrée

. se ( t )

ck

x (t )

Codeur

Figure 2.1. Schéma du codeur à réponse partielle

( )=1− ⟺

( )=



( )=1−

( )+

( )×

⇒ ⟹

( ) = ( ) =



c) Relation reliant la sortie du codeur (symbole ( )=1−

1 1 = ( ) 1−

) à son entrée

( ) ⇔ ( )= ( )− ( )× ( )

=



: =



d) Représentation graphique de la portion de signal associée à SBB émise par l’ensemble de ce codeur à réponse partielle : voir le tableau 2.4 en dernière page de la solution. e) La densité spectrale de puissance du code à réponse partielle concerné est donnée par (voir volume 1, chapitre 5) : Γ ( )=

(

)

×[

(2

)]

L’annulation de Γ ( ) a lieu tous les 1⁄2 , sa largeur de bande est donc approximativement 1⁄2 . Il y a donc réduction de la largeur de bande du signal émis d’un facteur de 2, par rapport à la question 4, du fait de l’introduction de la corrélation. De plus, il n’y a pas de composante continue. 6) Nous avons : =



= 2( ⨁

= [(2 )=2

− 1) − (2 ⟹

− 1)] = 2(



)

1 = ̂ mod 2 2

Licence illimitée accordée à SCD - Université de Nantes

Transmissions numériques en bande de base

91

d’où un décodage instantané (non récursif). Donc : – si pas d’erreur de décision sur ̂ , alors pas d’erreur sur

;

– si erreur de décision sur ̂ , alors erreur de décision sur les suivants). 0

{ bk }

0

1

0

0

0

1

1

0

1

1

1

0

0

1

seulement (pas sur

1

0

0

0

1

0

1

V CODBip 0 1 -V V HDB-2 0 1 -V { b ′k }

V V

0

0

1

0

1

0

0

1

0

0

1

1

1

1

0

0

0

0

0

1

0

0

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

0

0

2

0

0

0

2

2

0

2

2

2

0

0

2

2

0

0

0

2

0

2

0 0 { ak } -1 -1 {ck} CRP se( t)

V 0 -V

Tableau 2.4. Chronogrammes des signaux et symboles codés

2.2. Problème 17 – Calcul de la fonction d’autocorrélation et de la densité spectrale de puissance par approche probabiliste des codes en ligne binaires RZ et NRZ On considère le signal de transmission numérique défini par : ( )=

( −



)

et : ( )=

0

pour pour

0≤ ≤ < ≤

Licence illimitée accordée à SCD - Université de Nantes

92

Communications numériques 2

avec : 0
0

sont des variables aléatoires indépendantes pouvant prendre Les symboles seulement les valeurs 0 et 1 avec une probabilité égale à 1⁄2 et est aléatoire, de loi uniforme sur [0, [. REMARQUE. Dans ce problème, on considère que l’instant appartient à l’intervalle de temps [ , + [. Sans aucune perte de généralités, on affectera à cet intervalle où se situe a priori l’instant , l’indice . Calculer la fonction d’autocorrélation ( ) et la densité spectrale de puissance Γ ( ) de ( ) et faire les deux cas particuliers : = ⁄2 (binaire RZ)

et

(binaire NRZ)

=

x (t )

x (t ) 1

V

0

1 V

1

0

1

T

T

T

t T

T

T

Binaire RZ

t

Binaire NRZ

Figure 2.2. Exemples de code binaire RZ et de code binaire NRZ

Solution du problème 17 Soit la forme suivante de signal ( ) (avec

< ⁄2 sur la figure 2.3).

s(t)

t t0 t 0 + θ

t0 + T

t0 + T + θ

Figure 2.3. Exemple de forme de signal ( ) avec

< ⁄2

Licence illimitée accordée à SCD - Université de Nantes

Transmissions numériques en bande de base

93

Un tel signal peut être représenté par : ( )=

( −

)



avec la fonction certaine (impulsion) : ( )=

0

pour ∈ [0, [ ailleurs

et : =

1 0

Le fait que second ordre.

avec

(

(

= 1) =

= 0) = 1⁄2

soit uniforme sur [0, [ entraîne que ( ) est stationnaire au

( ) est une fonction paire : Par ailleurs, la fonction d’autocorrélation (− ) = ( ) et donc le calcul peut se faire à convenance avec ≥ 0 ou ≤ 0. La fonction d’autocorrélation

( ) s’écrit :

( ) = [ ( ) × ( − )] =

( )=

{ {0 { {0

× × 0× × ×0× 0×0×

à à à à

et ( − ) =

( )=

et à − et à − et 0 à − et 0 à −

+ + +

d’où : ( )=

×

{

à

et

à



Par ailleurs, en utilisant le théorème des probabilités composées, aussi : ( )= Pour calculer

×

{

à

×

{

à

( ), il suffit de calculer

Deux cas peuvent se présenter :

− ⁄ {

à

( ) s’écrit

à et

{

à

− ⁄

cas : 0 < ≤ ⁄2 . cas : ⁄2 < ≤

Licence illimitée accordée à SCD - Université de Nantes

à

.

94

Communications numériques 2

A. Premier cas, celui où 0
3,842

= 1,4 × 10

{| −

| > 4,118

= 6 × 10

{| −

| > 4,5

≅0

Licence illimitée accordée à SCD - Université de Nantes

et

Transmissions numériques avec modulation de porteuse

225

Solution du problème 29 1) Les signaux ( ) et

( ) sont donnés par :

( )=ℜ

)exp[ (2

( − ( −

=

) cos(2

)

+

( ):

d’où son enveloppe réelle

( −

( )=

)]

+

)

( − ) et comme la réponse à ( ) du 2) a) Nous avons : ( ) = ∑ système équivalent en bande de base est : ( ) = ( ) + ( ) en sortie du filtre ( ) (hors bruit), et en tenant compte de la réponse du bruit filtré ramené en bande de base équivalente, soit ( ), la réponse , ( ) est alors : ,

Pour

( )= =

,

[ ( − =

(

)=



,

(

) =



,

(

) =

,

,

(

)+

( −

)] +

( )

) s’écrit :

{ [( − ) ] +

(0) +

[( − ) ] +

[( − ) ] +

[( − ) ] +

,

(

(

,

(

)

)

)

b) D’où : (

)=

[( − ) ] ;

(

)=

[( − ) ]

Licence illimitée accordée à SCD - Université de Nantes

226

Communications numériques 2

Comme le signal utile n’est porté que par la composante réelle en phase (car en MDA-2, = 0 ∀ ), seule la partie réelle de , ( ) est intéressante. 3) Le fait de considérer que ( ) vérifie la symétrie hermitienne n’a pas d’importance, car = 0 ∀ , la partie réelle de , ( ) ne change pas. À la démodulation, on ne reconstruit que la voie issue de la démodulation avec la porteuse en phase et donc, même si la partie imaginaire de , ( ) est non nulle, cela n’a aucune importance. 4) a) Nous avons : ( )=

{ ( ) = (1 + ) ×

sin[ (1 + ) ⁄ ] (1 + ) ⁄

(0) = (1 + ) = 1 + 5⁄6 = 1,833

(± ) =

sin

+

5 5 −sin 6 = −sin 6 =

6

=

−1 −1 ≅ 2 6

b) Le seuil optimal est : =

,

,

= 1⁄4 ;

=

(0)

2

log

= 3⁄4 →

,

= −0,138

Le rapport signal à bruit est donné par : (0)

= 20 × log

= 12 dB

d’où : (0) = 3,98



= 2,17

c) On a : (

)=

[( − ) ] ;

(

)= [

( )+

(− )] =

− [ 6

+

]

Licence illimitée accordée à SCD - Université de Nantes

Transmissions numériques avec modulation de porteuse

={ -1 -1 1 1

1 2 3 4



, -1 1 -1 1

[

]

+

1/16 3/16 3/16 9/16

⁄3 = 0,723 0 0 − ⁄3 = −0,723

Tableau 3.4. Amplitude de l’interférence intersymboles

5) a) Expression de la probabilité d’erreur

,

=

×

,

+

) et sa probabilité

(

:

×

b) Calcul des probabilités conditionnelles de décisions erronées : =

( ⁄

)

,

=

1 √2

,

,

=

(

={

,

⁄ ,

)

=

,

+

( )

(

)

( )

(

)

1 √2 ( )−

exp −

1 2

exp −

1 2

,



, ,

, ,

( )+ 0

-1

-1

3,119

9,6 × 10

−4,841

-1

1

3,842

7 × 10

−4,118

3 × 10

1

-1

3,842

7 × 10

−4,118

3 × 10

1

1

4,565

−3,395

3,4 × 10

0

Tableau 3.5. Probabilités conditionnelles de décisions erronées en fonction des messages interférents

c) Calcul de la probabilité d’erreur

,

=

×

+

,

: ×

Licence illimitée accordée à SCD - Université de Nantes

227

228

Communications numériques 2

1 1 3 × 9,6 × 10 + 2 × × 7 × 10 4 16 16 3 3 9 + 2× × 3 × 10 + × 3,4 × 10 4 16 16 =

,

≅ 1,73 × 10 Nous avons : seul symbole .

=

,

en raison du fait que un symbole

,

ne dépend que d’un

3.4. Problème 30 – Transmissions numériques par modulation MDAQ-4 (2) On considère le système de transmission à modulation numérique d’amplitude en quadrature à quatre états MDAQ-4 donné par le schéma de la figure 3.5. Pour ce type de modulation les symboles et prennent les valeurs {1, −1 avec la loi de probabilité suivante : {

=1 =

{

= −1 =

{

=1 = {

= 0,65

= −1 =

= 0,35 Canal de transmission st ( t )

Émetteur Emetteur { bn} Tb

{ an} Codeur { a' n }

T

I( t )

s(t) Modulateur

Q( t)

x( t)

( f c, ϕ c )

Filtre

Filtre de canal

d’émission G e ( f ), g e ( t )

hc( t ) ; H c ( f )

+

sr ( t )

+ b0(t ) Bruit

Récepteur ℜ[s

sc(t)

sr ( t ) Filtre de réception G r ( f ), g r ( t )

c, e

Décision

Démodulateur ˆ ˆ ( f c, ϕ c ) Récupération de la porteuse

{ aˆ k }

( t) ]

ℑ[s

c, e

(t)]

{ bˆ k } Décodage

ˆ } { a' k kTˆ Récupération du rythme

Figure 3.5. Système de transmission numérique avec modulation d’amplitude en quadrature

Licence illimitée accordée à SCD - Université de Nantes

Transmissions numériques avec modulation de porteuse

229

On appelle ( ) le gain du filtre passe-bas équivalent au filtre total ( ) (qui et − ) et ( ) la sortie de ( ) est type passe-bande autour des fréquences lorsque le signal d’entrée est le signal ( ) précédent (hors bruit). On pose : ( )= ( )+

( )

De la même façon, on appelle ( ), le bruit de réception et on note : ( )=

,

( )+

,

( ) filtré par le filtre passe-bande

( )

son enveloppe complexe. Les deux composantes (réelle et imaginaire) du bruit ( ) sont supposées gaussiennes, centrées, de même variance et décorrélées. Par ailleurs, le rapport signal à bruit après démodulation sur chaque voie est : = 20 × log

(0)

= 9,6 dB

1) Donner l’expression de l’enveloppe complexe 2) Déterminer l’enveloppe complexe, notée ( ), et en prenant en compte le bruit filtre instants de décisions = , soit , ( ).

,

( ) de la modulation MDAQ-4. ( ), du signal ( ) en sortie du ( ). Particulariser celle-ci aux

3) Écrire explicitement la partie réelle, notée ℜ , ( ) , et la partie imaginaire, notée ℑ , ( ) , du signal , ( ), en faisant apparaître le signal utile, l’interférence intersymboles (intra et intervoie), et le bruit sur chacune des parties. On considère que le spectre d’amplitude ( ) du signal ( ) est une fonction constante, égale à sur le support fréquentiel : – (1 + ) (1 + ) , 2 2

avec

= 1⁄4, et nulle ailleurs.

On considère aussi que le spectre d’amplitude ( ) du signal ( ) est également une fonction constante, égale à [1 + ] sur le support fréquentiel : −1 1 , 2 2

et nulle ailleurs. Licence illimitée accordée à SCD - Université de Nantes

230

Communications numériques 2

4) Déterminer les expressions des signaux ( ) et ( ) et donner les valeurs de : (0) ;

(± ) ;

(0) ; (± )

(on prendra dans la suite du problème

≅ 3).

5) Donner les expressions des interférences intersymboles

) et

(

(

)

dans le cas où l’on considère que : ( ) = 0 ∀ ≠ {0, −1, 1 . 6) Calculer la valeur de l’interférence intersymboles combinaisons possibles du message

(

) pour les différentes

interférant avec le symbole

7) Donner l’expression du seuil optimal : 

,

= 

,

= 

. ,

et calculer sa

.

valeur en fonction de

8) Montrer que même sans bruit, la probabilité d’erreur est extrêmement élevée. Aussi, on décide de corriger plus complètement le filtre d’égalisation sur la voie en phase de sorte que le spectre d’amplitude ( ) du signal ( ) soit constant, égal à , sur le support de fréquences : −1 1 , 2 2

et nul ailleurs. Par ailleurs, le spectre d’amplitude ⁄2 sur le support de fréquences :

( ) du signal ( ) est ajusté à la valeur

−1 1 , 2 2

et nul ailleurs. 9) Dans ces conditions, donner la nouvelle expression de l’interférence inter( ) et calculer sa valeur pour les différents messages . symboles 10) Donner les expressions des probabilités d’erreurs conditionnelles : = =



,

⁄ ,

{

= =

{

= 1⁄

= −1,

= −1⁄

= 1,

et calculer leurs valeurs. Licence illimitée accordée à SCD - Université de Nantes

Transmissions numériques avec modulation de porteuse

11) Donner l’expression de la probabilité d’erreur : calculer sa valeur. REMARQUE. Pour une variable aléatoire centrée ( ( = 1), on supposera que l’on a approximativement : {| | > 3,2 = 1,4 × 10

;

{| | > 2,6 = 9,4 × 10

{| | > 2,8 = 5,2 × 10

;

{| | > 3,4 = 6 × 10

{

=

,



231

et

= 0) et normalisée

Solution du problème 30 1) L’enveloppe complexe est donnée par : ( )=

[

] ( −

+

)

2) Détermination de l’enveloppe complexe , ( ). Comme la réponse à ( ) du système équivalent en bande de base est : ( ) = ( ) + ( ) en sortie du filtre ( ) (hors bruit), et en tenant compte de la réponse du bruit filtré ramené en bande de base équivalente, soit ( ), la réponse , ( ) est alors : ,

( )=

Pour

= ,



[ =

(

)=

,

,

[

+

][ ( −

(

) s’écrit :

+

)+

( −

] { [( − ) ] +

3) Expressions de la partie réelle ℜ ) du signal , ( ) : , (

,

)] +

( )

[( − ) ] +

(

)

) et de la partie imaginaire

(



,

(

) =

(0) +

(

)+

,

(

)



,

(

) =

(0) +

(

)+

,

(

)

avec :

(

)=

[( − ) ] −

[( − ) ]

Licence illimitée accordée à SCD - Université de Nantes

232

Communications numériques 2

(

)=

[( − ) ] +

[( − ) ]

4) Nous avons : ( )=

{ ( ) = (1 + ) ×

( )=

{ ( ) = (1 + ) ×

sin[ (1 + ) ⁄ ] (1 + ) ⁄ ⁄ ]

sin[ ⁄

(0) = (1 + ) = 1 + 1⁄4 = 5⁄4 = 1,25 5 ⁄4

(± ) = sin

=

−√2 ≅ −0,235 2

(0) = (1 + ) = 1,25 ;

( ≅ 3)

(± ) = 0 ∀ ≠ 0 ; : entier

5) Expressions des interférences intersymboles : (

)=

[( − ) ] −

[( − ) ]

;

( ≅

)= [



(− ) −

(0)]

5 + × 3√2 × 4

+

3√2 (

( )+

)=

[( − ) ] +

[( − ) ]

;

( ≅

)= [



+

3√2 (

)≅

− 3√2

( )+

(− ) +

(0)]

5 − × 3√2 × 4 +



15√2 × 4

Licence illimitée accordée à SCD - Université de Nantes

Transmissions numériques avec modulation de porteuse

6) Amplitudes de l’interférence intersymboles. ={

,

,

-1

-1

-1

−0,788

-1

-1

1

−1,25

-1

1

-1

1,72

-1

1

1

1,25

1

-1

-1

−1,25

1

-1

1

−1,72

1

1

-1

1,25

1

1

1

0,778

(

)

Tableau 3.6. Amplitude de l’interférence intersymboles ( ) pour les différents messages interférents possibles

7) Calcul du seuil optimal : 

= 

,

≅−

= 

,

=

,

2

(0)

log

=

2 × 1,25

log

0,35 0,65

0,247 (0)

= 20 × log

= 9,6 dB →

(0)

≅3→



3 1,25

d’où : 

≅ −0,103

,

8) Sans bruit, ℑ ℑ =3

,

( ×

,

(

) = +

) s’écrit : (0) +

(

(

) = 1,25

+

(

)

)

Licence illimitée accordée à SCD - Université de Nantes

233

234

Communications numériques 2

1, 25V = 3σe a′ˆ k = 1

0

μ 0, e = – 0, 043V = – 0, 103σ e

ˆ a′ k = – 1

–1, 25 V = – 3σ e

Figure 3.6. Valeurs

de l’échantillon, seuil optimal et classes d’estimation

Au vu du graphe représenté en figure 3.6 et des résultats précédents sur les ( ), on constate que pour faire une décision erronée, il suffit que : valeurs de (

) > 1,25

Plus précisément, la probabilité d’une décision erronée sur {de décision erronée sur [

est :

= ±1] = 1⁄8 = 0,125

C’est une valeur très grande comparée à une probabilité d’erreur usuelle. 9) Nouvelle expression de l’interférence intersymboles

) :

⁄ ]

sin[

( )=

(



et : (0) = 1 ; ( )=

2

×

(± ) = 0 ∀

≠0;

: entier

⁄ ]

sin[ ⁄

et : (0) =

2

= 0,125 ;

(± ) = 0 ∀

≠0;

: entier

d’où : (

)=

× (0) = 0,125 ×

= 0,3

Licence illimitée accordée à SCD - Université de Nantes

Transmissions numériques avec modulation de porteuse

(

=

)= ,

1

-1

−0,3

2

1

0,3

Tableau 3.7. Amplitude de l’interférence intersymboles

(

)

pour les différents messages interférents possibles

10) Expressions des probabilités conditionnelles d’erreurs : =



,

=

1 √2 ,

,

=

=

,

+

(

)

( )

(

)

1

=

⁄ ,

( )

√2

( )−

,





1 2



1 2

, ,

, ,

( )+

-1

[−0,103 + 3 + 0,3] ≅ 3,2

7 × 10

[−0,103 − 3 + 0,3] ≅ −2,8

2,6 × 10

1

[−0,103 + 3 − 0,3] ≅ 2,6

4,7 × 10

[−0,103 − 3 − 0,3] ≅ −3,4

3 × 10

Tableau 3.8. Probabilités d’erreurs sur conditionnelles aux messages interférents

11) Probabilité d’erreur sur le symbole

,

=

×

+

Le nombre de messages interférant avec =2;

=1 →

:

=2 =2

× est

, avec :

235

238

Communications numériques 2

1) Écrire explicitement le signal réel ( ) en sortie du modulateur en quadrature × états, puis faire apparaître dans l’expression du signal réel ( ) les deux à composantes modulant en quadrature la porteuse ( ). 2) Déterminer son enveloppe complexe notée ( ). On suppose dans la suite que le spectre du signal de modulation numérique émis est à bande de fréquences limitée à : | |∈



∆ , 2

+

∆ 2

avec

∆ ≪

On appelle ( ) le filtre passe-bas équivalent au filtre total ( ) (qui est type passe-bande autour des fréquences et − ) et ( ) la sortie de ( ) lorsque le signal d’entrée est le signal ( ) précédent (hors bruit). On pose : ( )= ( )+

( )

De la même façon, en appelant ( ) le bruit de réception, on note : ( )=

,

( )+

,

( ) filtré par le filtre passe-bande

( )

l’enveloppe complexe du bruit filtré ( ). Les deux composantes (réelle et imaginaire) du bruit ( ) sont supposées gaussiennes, centrées, de même variance et décorrélées. 3) Déterminer l’enveloppe complexe, notée , ( ), du signal filtre ( ), et en prenant en compte le bruit ( ). 4) Particulariser celle-ci aux instants de décision

,

=

, soit

( ) en sortie du

,

(

).

5) En séparant partie réelle et partie imaginaire de l’enveloppe complexe ( ), déterminer l’interférence intersymboles portant sur le symbole , notée ( ) d’une part et sur le symbole , notée ( ) d’autre part.

6) On considère dans la suite que le filtre passe-bas équivalent ( ) vérifie la symétrie hermitienne. Montrer dans ce cas que ( ) est réel ( ( ) = 0). 7) Donner alors la nouvelle expression du signal d’amplitude ( ) est :

,

(

). Par ailleurs, le spectre

Transmissions numériques avec modulation de porteuse

pour

( )= { ( ) =

0 sinon



239

−1 1 , 2 2

8) Montrer que l’interférence intersymboles

(

) est nulle.

Le rapport signal à bruit : (0)

= 20 × log

après démodulation pour chaque signal ( ) et ( ) est de 14 dB. 9) Pour des symboles d’erreur , sur le symbole

indépendants et équiprobables, calculer la probabilité

.

B. Cas d’un trajet double (un trajet direct et un trajet retardé) Dans cette partie, on conservera l’hypothèse que le filtre passe-bas équivalent est ( ) due au de gain ( ) pair (donc ( ) = 0). L’interférence intersymboles trajet retardé est supposée limitée aux seuls symboles adjacents à un symbole donné (donc les symboles et ). De même l’interférence intersymboles

) due aussi au trajet retardé est

(

supposée limitée aux seuls symboles adjacents à un symbole symboles et ).

donné (donc les

On considère maintenant que le signal équivalent en bande de base somme de deux signaux : – le premier, noté

,

,

( ) est la

( ), correspond à une transmission par le chemin direct ;

– le second correspond à une transmission retardée due à une réflexion complexe. Dans ces conditions l’enveloppe complexe du signal résultant reçu peut s’écrire sous la forme : ,

avec :

( )=

,

= | |exp[

( )+

× exp[− 2



,

( − )

] un coefficient de réflexion complexe.

240

Communications numériques 2

Un enregistrement du signal oscille entre deux niveaux :

,

(

) montre que l’amplitude de ce dernier

– un niveau maximum (sommation en phase des deux composantes) ; – un niveau minimum (sommation en opposition de phase des deux composantes) et que la dynamique maximale entre ces deux niveaux est donnée par l’expression suivante (rapport d’ondes stationnaires) : 1+| | =3 1−| | Pour des raisons de simplification, nous supposons que le déphasage dû au coefficient de réflexion complexe compense celui dû à la différence de marche [−2 ] pour des valeurs de et de données. 10) Déterminer le module du coefficient de réflexion | |. 11) Donner la nouvelle expression du signal

,

,

(

) (à l’instant

).

=

12) En séparant partie réelle et partie imaginaire de l’enveloppe complexe ( ), déterminer l’interférence intersymboles portant sur le symbole , notée ( ), d’une part et l’interférence intersymboles portant sur le symbole , notée ( ) d’autre part.

13) En prenant = ⁄2, réécrire la nouvelle expression de l’interférence ( ) et calculer sa valeur pour les différents messages (on intersymboles prendra pour simplifier ≅ 3). 14) La liaison numérique est-elle affectée par rapport à celle de la partie A ? Si oui, à cause de quoi en justifiant votre réponse. 15) Calculer la nouvelle probabilité d’erreur sur le symbole équiprobables).

(messages

REMARQUE. On prendra si X est aléatoire, gaussien, de valeur moyenne d’écart-type : {| −

|>5

{| −

| > 4,44

= 2 × 10

;

= 2 × 10

{| − ;

| > 5,55

{| −

|>6

= 10 ≅0

et

246

Communications numériques 2

[ ( ) | | (

=

(

⁄ ,

)

=

⁄ )]

(

)

1

exp −

√2

1 2

, ,

On a : [ (0) + | | (− ⁄2)] =

+

3

=

4 3

=

4 ×5 3

=

20 3

d’où les calculs des intervalles des probabilités conditionnelles et les probabilités conditionnelles associées présentés dans le tableau 3.10. ,

[ ( ) + | | (− ⁄ )] ( ) −

-1

-1

20 3

+

10 9

= 7,77

0



20 3



10 9

= −5,55

10 2

-1

1

20 3

+

20 9

= 8,88

0



20 3



20 9

= −4,44

10

1

-1

20 3



20 9

= 4,44

10



20 3

+

20 9

= −8,88

0

1

1

20 3



10 9

= 5,55

10 2



20 3

+

10 9

= −7,77

0

={

− [ ( ) + | | (− ⁄ )] − ( )

Tableau 3.10. Probabilités d’erreurs sur conditionnelles à l’amplitude de l’interférence intersymboles

D’où finalement la nouvelle probabilité d’erreur sur le symbole

,

=

1 × 8

+

= 10

1 + × 10 2

1 + × 10 2

: + 10

= 2,625 × 10 3.6. Problème 32 – Performances des modulations : modulation numérique MDAQ-16 Pour les modulations numériques radioélectriques consignées dans le tableau 3.11, fonctionnant à un même débit binaire = 12 Mbit/s et une même fréquence porteuse (MHz), déterminer :

250

Communications numériques 2

Nous souhaitons maintenant réaliser une modulation MDAQ-16 dont les coordon(état 0000) sont : nées polaires de l’état = √18 ;

= 45 °

3) Déterminer le couple d’amplitudes [ ; ] permettant d’avoir une répartition homogène dans le plan { , des seize états. La porteuse est définie par : ( ) = exp[ (2 et le signal

+

)]

( ) est donné par :

( ) = 1 pour 0 sinon

∈ [− ⁄2,

⁄2[

4) Écrire l’expression du signal réel ( ) en sortie du modulateur et donner son enveloppe complexe ( ). On appelle ( ) le filtre passe-bas équivalent au filtre total ( ) (qui est de type passe-bande autour des fréquences et − ) et ( ) la sortie de ( ) lorsque le signal d’entrée est le signal ( ) précédent (hors bruit). On pose : ( )= ( )+

( )

De la même façon, en appelant ( ) le bruit ( ) filtré par le filtre passe-bande de réception, on note : ( ) = , ( ) + , ( ), l’enveloppe complexe du bruit filtré ( ). 5) Déterminer alors l’enveloppe complexe, notée , ( ), du signal sortie du filtre ( ), et en prenant en compte le bruit ( ). 6) Donner l’expression du signal

( ) et de son spectre

( ) en

( ).

7) Donner le schéma de principe de réalisation du modulateur MDAQ-16 construit à partir de deux modulateurs MDP-4 (QPSK). 8) On note par ( ) la sortie du premier modulateur MDP-4 : M1(R, J) et par ( ) la sortie du deuxième modulateur MDP-4 : M2(Q, I). Donner l’expression du signal ( ) en sortie du modulateur MDAQ-16.

260

Communications numériques 2

REMARQUE. Pour une variable aléatoire centrée ( on supposera que l’on a approximativement : ;

{| | > 3,57 = 3,64 × 10 {| | > 4,57 = 4 × 10

;

= 0) et normalisée ( = 1),

{| | > 4,43 = 4,4 × 10 {| | > 3,43 = 6 × 10

Solution du problème 33 1) a) Entropie d’une composante : ( )=

(

)=

(

( )

)=−

( ) log

( ) ≅ −1,4427

( )

( ) ≅ 2,41315 bit/composante

Pour rappel :

log

=

log ≅ 1,4427 × log log 2

b) Les composantes séparément, d’où :

et

suivent les mêmes statistiques et sont codées

( ) = 2 × ( ) = 4,8263 bit⁄vecteur c) Il y a sept valeurs par composante ou , donc pour un codage fixe, il et trois bits pour coder . Donc, il faut : = 2 × 3 = faut trois bits pour coder 6 bits de codage pour coder le vecteur . L’efficacité est alors de : =

( )

=

4,8263 ≅ 80,44 % 6

d) Le débit binaire par seconde est : =

×

×

= 6 × 396 × 25 = 59 400 bit/s

2) Comme et suivent les mêmes statistiques, il suffit de considérer une composante pour déterminer la probabilité , d’avoir un bit à zéro.

Transmissions numériques avec modulation de porteuse



=4→

=4

Par ailleurs, on a : (

=

)=− ⁄ ×

-1

⁄8

1

− ⁄8

Tableau 3.16. Amplitudes de l’interférence intersymboles intervoies

Calcul des intervalles : =

,

( )−

+

,

( )+



-1

3,57

1,82 × 10

−4,43

2,2 × 10

1

4,57

2 × 10

−3,43

3 × 10

Tableau 3.17. Probabilités d’erreurs conditionnelles avec interférence intersymboles intervoies

d) Nous avons :

,

=

,

=

×

+

×

donc :

×

+

×

+

×

+

×

avec ici :

=

,

=

,

;

=

,

;

=

;

×

+

=

d’où : ,

,

×

+

,

,

,

×

+

,

×

265

Transmission d’informations sur câble bifilaire

4.6. Mesure de l’affaiblissement

273

en fonction de la fréquence

Lorsque le câble est adapté (le câble est chargé sur son impédance caractéristique), on a : – ( )= –  ( ) = –  (0) = –  ( ) = = ).

(z) =

exp(−

exp(−

);

);

: tension délivrée par le générateur à l’entrée du câble ;

exp(−

) : tension mesurée à l’extrémité du câble (aux bornes de

Ces deux mesures permettent de déterminer ( ) :

1 ( ) = 20 × log

| (0)| (dB⁄m) | ( )|

Mesurer la variation de l’affaiblissement en fonction de la fréquence. On effectuera les mesures pour les valeurs suivantes de (KHz) : 40, 60, 100, 200, 300, 500, 700, 1 000, 1 200, 1 500, 3 000 KHz ; et pour le tronçon de câble de longueur médiane. Tracer la courbe ( ). Vérifier que la loi ( ) mesurée suit la loi ( ) théorique.

4.7. Variation de l’affaiblissement

en fonction de la longueur

Pour une fréquence = 100 KHz, déterminer la variation de l’affaiblissement en fonction de la longueur (pour les trois tronçons disponibles). En déduire l’affaiblissement à 100 KHz produit par une longueur de câble de 1 800 m (longueur nominale d’un tronçon de câble pour le TN1).

4.8. Mesure du débit D (bit/s) La mesure se fait en régime impulsionnel, lorsque le câble est adapté (chargé sur son impédance caractéristique) et en utilisant le montage de la figure 4.2. Pour chaque durée d’impulsions émises et en utilisant le générateur d’impulsions en mode impulsions doubles (la seconde impulsion est émise avec un retard qui doit séparer ces réglable par rapport à la première), on déterminera le temps doubles impulsions pour que la réponse due à la première impulsion chute à 50 % de

Étude de codes en ligne

ASK Input Data Signal

Low Pass Filter

Voltage Comparator

289

Data Output

Figure 6.1. Réalisation de la démodulation d’amplitude

Le Sync Code Generator du module Modicom 3/2 sera mis sur On et on utilisera le bloc de régénération d’horloge avec un réglage adéquat du Pulse Generator Delay Adjust. On ajustera le gain et les offsets du signal modulant et de la porteuse. Examiner les signaux obtenus en sortie de chacun des blocs du système de démodulation (il faudra régler correctement le seuil du comparateur). Notez vos commentaires. Modifier l’amplitude du signal transmis (Modicom 3/1) et vérifier que le signal reconstruit est correct en positionnant sur On le Sync Code Generator du module Modicom 3/1.

6.4.2. Modulation par déplacement de fréquence (FSK) Réaliser une modulation numérique de fréquence selon le bloc-diagramme de la figure 6.2. Sinewave F1

Modulator 1 Carrier Input Output

Data Stream Sinewave F2

Modulation Input Summing Modulator 2

Amplifier

Carrier Input Output

Inverted Data Stream

Modulation Input

Figure 6.2. Modulation par déplacement de fréquence

FSK Output

290

Communications numériques 2

En réception, le signal est décodé au moyen d’une boucle à verrouillage de phase, un filtre passe-bas et un comparateur selon le bloc-diagramme de la figure 6.3. FSK Input Signal

PLL Detector

Voltage Comparator

Low Pass Filter

Data Output

Figure 6.3. Montage pour le décodage d’une modulation numérique de fréquence

On utilisera les deux modules Modicom 3/1 et 3/2 pour générer l’information à transmettre avec modulation et pour reconstruire le signal en réception. Mettre sur Off le Sync Generator du module Modicom 3/1 et sur On le Sync Code Detector du module Modicom 3/2. – Analyser pour une configuration d’information à transmettre donnée par « 0 1 0 0 0 1 1 », le fonctionnement du modulateur et du démodulateur (on réglera à la même amplitude les deux porteuses utilisées (960 KHz et 1,44 MHz). Qu’observezvous avant et après le filtre passe-bas ? Régler le seuil sur le comparateur de façon à reconstruire correctement le signal en bande de base. – En mettant sur On le Sync Code Generator du module Modicom 3/1, le système est complètement opérationnel pour la transmission de signaux analogiques. Analyser le fonctionnement de l’ensemble du système.

6.4.3. Modulation par déplacement de phase (PSK) Réaliser une modulation numérique de phase selon le bloc-diagramme de la figure 6.4. Carrier

Carrier Input

Sinewave

Output Unipolar

Unipolar-Bipolar

Data Stream

Converter

Modulation Input Double-Balanced Modulator

Figure 6.4. Montage pour une modulation numérique de phase

PSK Waveform

Chapitre 7

Étude d’un modem QPSK sous Matlab, Simulink, Communications et DSP

7.1. Objectifs L’objectif du TP est l’étude, puis la simulation sous Matlab, Simulink, Communications et DSP d’un modem de type QPSK. La complexité des systèmes de télécommunications et de traitement du signal s’est énormément accrue ces deux dernières décennies. L’évaluation des performances sur des prototypes hardware est la meilleure des méthodes pour valider une structure, un concept, un système. Seulement, cette approche est en général très coûteuse en temps et en matériel. On comprend donc pourquoi la phase de réalisation n’intervient qu’en fin de cycle de développement. Le rôle de la simulation est justement d’effectuer tous ces essais, cela à moindre coût aussi bien en temps qu’en matériel. L’objectif du TP est l’étude et la simulation complète du modem QPSK proposé (voir les différentes figures dans l’annexe de ce chapitre). Le modem en question utilise les modules logiciels Matlab, Simulink, Communications et DSP : – Matlab : - analyse, conception, optimisation ; - traitement off-line des données ;

Licence illimitée accordée à SCD - Université de Nantes

Licence illimitée accordée à SCD - Université de Nantes

Licence illimitée accordée à SCD - Université de Nantes

Licence illimitée accordée à SCD - Université de Nantes

Chapitre 8

Étude d’un système de codage et décodage par codes cycliques

8.1. Objectifs L’objectif du TP est l’étude, puis la simulation complète sous Matlab, Simulink, etc., d’une application de codage et décodage par codes cycliques.

8.2. Introduction et principes du codage-décodage cyclique Les codes cycliques sont des codes en blocs ou les symboles qui constituent un mot sont considérés comme coefficient d’un polynôme de degré − 1 :

=[

,

=

,⋯,

]⟺ ( )

,

+

+⋯+

+

Toute permutation circulaire sur les symboles d’un mot de code donne un mot du code :

[

,

,⋯,

]∈

,

⟹[

,

,⋯,

,

]∈

L’addition de deux mots-code est un mot code :



,





+



L’ensemble de tous les mots du code constitue une algèbre, tandis que l’ensemble des mots ayant un sens constitue un idéal.

Système de codage et décodage par codes cycliques

8.6. Annexes : schémas des blocs

Figure 8.1.

Figure 8.2.

Figure 8.3.

Licence illimitée accordée à SCD - Université de Nantes

303

304

Communications numériques 2

Figure 8.4.

Figure 8.5.

Figure 8.6.

Licence illimitée accordée à SCD - Université de Nantes

Système de codage et décodage par codes cycliques

D2

Q2

D1

D0

Q1

Q0

Ck

=1 2

1=

1

u x

i  x

c

Figure 8.7. Codeur à registre à décalage linéaire à réaction

1

D2

Q2

D1

D0

Q1

s x 

Q0

Ck

=1 1=

v x 

Figure 8.8. Décodeur à registre à décalage linéaire à réaction

Licence illimitée accordée à SCD - Université de Nantes

305

Licence illimitée accordée à SCD - Université de Nantes

Bibliographie

Assaf, R., El Assad, S., Harkous, Y. (2010). Simulation et égalisation adaptative des canaux de transmission. Éditions universitaires européennes, Nantes. Barba, D. (2019). Cours de théorie et transmission de l’information. Polytech, Nantes. Baudoin, G. (2002). Radiocommunications numériques 1. Dunod, Paris. Bic, J.C., Duponteil, D., Imbeaux, J.C. (1986). Éléments de communications numériques. Dunod, Paris. Caragata, D., El Assad, S., Luduena, M. (2015). An Improved Fragile Watermarking Algorithm for JPEG images. International Journal of Electronics and Communications, 69, 1783–1794. Charbit, M. (2003). Systèmes de communications et théorie de l’information. Hermes-Lavoisier, Cachan. Combes, P.F. (1996). Micro-ondes : lignes, guides et cavités, cours et exercices. Dunod, Paris. Csillag, P. (1990). Introduction aux codes correcteurs. Ellipses, Paris. De Cannière, C., Preneel, B. (2006). Trivium Specifications [En ligne]. Disponible à l’adresse : http://www.ecrypt.eu.org/stream/p3ciphers/trivium/trivium_p3.pdf. Dixon, R.C. (1994). Spread spectrum systems with commercial applications. John Wiley & Sons, Hoboken. El Assad, S. (2001). Conception et simulation d’un modem MDP-8 cohérent et différentiel. Dans International Conference on Image and Signal Processing (ICISP 2001). ICISP, Agadir, 845–852.

Licence illimitée accordée à SCD - Université de Nantes

308

Communications numériques 2

El Assad, S. (2019). Cours de communications numériques : bases et techniques. Polytech, Nantes. El Assad, S., Barba, D. (2020). Communications numériques 1 : fondements et techniques. ISTE Editions, Londres. El Assad, S., et al. (2003-2005). COBBALT : coopération ouest BAL en télécommunications. Rapport interne, Université virtuelle en Pays de la Loire. El Assad, S., et al. (2006-2008). MASTER-FOAD, projet UVPL. Rapport interne, Université virtuelle en Pays de la Loire. Fontolliet, P.G. (1983). Systèmes de télécommunications. Dunod, Paris. Glavieux, A., Joindot, M. (1996). Communications numériques. Masson, Paris. Guglielmi, M. (dir.) (2004). Signaux aléatoires : modélisation, estimation, détection. Hermes-Lavoisier, Paris. Haykin, S. (1988). Digital communications. John Wiley & Sons, Hoboken. Kasami (s.d.). Documentation [En ligne]. Mathworks.com. Disponible à l’adresse : https://fr.mathworks.com/help/comm/ref/comm.kasamisequence-system-object.html. MacWilliams, F.J., Stoane, N.J.A. (1977). The Theory of Error Correcting Codes. Bell Laboratories, Murray Hill. Maximov, A., Biryukov, A. (2007). Two Trivial Attacks on Trivium. Dans Selected Areas in Cryptography, Adams, C., Miri, A., Wiener, M. (dir.). Springer-Verlag, Berlin, 36–55. Paar, C., Oelzl, J. (2010). Understanding Cryptography. Springer-Verlag, Berlin. Pätzold, M. (2002). Mobile Fading Channels. John Wiley & Sons, Hoboken. Penaud, S. (2001). Étude des potentialités du chaos pour les systèmes de télécommunications : évaluation des performances de systèmes à accès multiples à répartition par les codes (CDMA) utilisant des séquences d’étalement chaotiques. Thèse de doctorat, Université de Limoges. Proakis, J.G. (1995). Digital communications. McGraw-Hill, New York. Roubine, E. (1970). Introduction à la théorie de la communication, tome III. Masson, Paris. Sanchez, J., Thioune, M. (2008). UMTS. Hermes-Lavoisier, Cachan. Servin, C. (2009). Réseaux & télécoms. Dunod, Paris. Sklar, B. (1988). Digital communications. Prentice Hall, Upper Saddle River. Spataru, A. (1987). Fondements de la théorie de la transmission de l’information. Presses polytechniques et universitaires romandes, Lausanne.

Licence illimitée accordée à SCD - Université de Nantes

Bibliographie

309

Stein, M. (1991). Les modems pour transmission des données. Masson, Paris. Tomasi, W. (1998). Electronic Communications Systems. Prentice Hall, Upper Saddle River. Webb, W., Hanzo, L. (1994). Modern quadrature amplitude modulation. Pentech Press, Londres.

Licence illimitée accordée à SCD - Université de Nantes

Licence illimitée accordée à SCD - Université de Nantes

Index

B, C bande latérale inférieure, 251 supérieure, 251 minimale, 251 bruit, 138-142, 146-148, 154-157, 164, 167, 171, 176, 183, 187, 192, 202, 210, 213, 216, 222, 225, 229-231, 237, 241, 247, 250, 254, 258, 262, 264, 269 canal binaire symétrique, 8, 9, 11, 25 capacité du –, 16, 17, 19, 22-24 de transmission, 5, 6, 8, 10, 14, 16, 17, 20, 21, 24, 25, 32, 39, 45, 51, 81, 137, 138, 146, 153, 154, 163, 183, 192, 202, 213, 222, 237, 284, 285, 302 caractéristiques du bruit, 139 codage avec compression, 16, 21 cyclique, 57, 64, 69, 72, 299, 303 d’information d’images numérisées, 24, 37 d’une source d’information de mouvement, 46

de Hamming, 69, 72, 284 de Huffman, 13, 19, 20, 25, 27, 30-32, 38-41, 47, 49, 89, 261 duobinaire, 182 et décodage par codes cycliques, 299 et transmission d’une source d’information, 37 MICD, 16 par division, 300, 301 simple, 15 code à haute densité d’impulsions HDB-3, 127 bipolaire ou HDB-2, 86 RZ, 89, 110, 131, 134 en ligne, 2 pour la transmission en bande de base, 287 systématique, 51, 53, 54, 58, 64 codeur à base de registre à décalage à réaction, 61 de Hamming, 56

Licence illimitée accordée à SCD - Université de Nantes

312

Communications numériques 2

linéaire à réponse partielle, 86, 126, 132, 181, 182, 191, 192 prémultiplié, 64, 66, 69, 71, 75 critère fréquentiel de Nyquist, 165, 171

D débit, 13-17, 19-25, 32, 46-48, 85, 86, 164, 169, 203, 207, 246-248, 256, 257, 260, 269, 272-274 binaire, 14, 15, 46, 47, 85, 86, 169, 203, 207, 246, 256, 257, 260 entropique, 14, 16, 85 décodage instantané, 91, 135 par division, 301 décodeur à base de registre à décalage à réaction, 61 de Hamming, 57 densité spectrale de puissance, 86, 89, 90, 92, 99, 101, 108, 111, 123-125, 127, 129-131, 133-136, 138-140, 146, 164, 202, 213, 222, 237 distance de Hamming, 9, 10 minimale, 51, 52

E, F efficacité, 14, 17, 19, 20, 22, 24, 25, 28, 31-35, 38, 39, 42, 46, 47, 49, 85, 86, 256, 257, 260 égalisation, 2, 127, 138, 139, 142, 146, 147, 151, 155, 156, 159, 165, 168, 171, 269, 274 encombrement spectral, 134, 136 entropie, 5, 6, 9, 13, 14, 17, 19, 20, 22, 24, 25, 28, 31, 32, 36, 38-43, 45-47, 85, 256 conditionnelle, 6

enveloppe complexe, 203-205, 208, 210, 213, 214, 216, 223, 229, 231, 238-241, 250, 258, 259 erreurs doubles, 62, 64, 65, 76, 82 simples, 50-52, 62, 65, 78, 82 triples, 62, 82 étude d’un modem QPSK, 293 de codes en ligne, 285 de la transmission d’informations numériques sur câble bifilaire, 269 exemple de chronogramme d’un signal bipolaire, 111 de code binaire RZ et de code NRZ, 92 extension d’ordre k d’un canal, 8 filtre codeur, 192 d’égalisation, 139, 141, 147, 151, 154, 156, 165, 230 global, 204 passe-bas équivalent, 203, 204, 213, 223, 229, 238, 239, 250, 258 précodeur, 183, 192 fonction d’autocorrélation, 91-93, 99, 110, 111, 123, 124

G, I générateur de Gold, 79, 84, 302 pseudo-aléatoire, 57, 73, 77, 78, 83, 281, 302 information mutuelle, 6 instants de décision, 139, 146, 154, 204, 214, 223, 229, 238, 259

Licence illimitée accordée à SCD - Université de Nantes

Index

interférence intersymbole, 139, 142, 144, 147, 151, 154, 157, 165-169, 175, 179, 187, 195, 204, 211, 214, 216, 223, 227, 229, 233-235, 238-240, 245-247, 259, 265 intervoie, 264

L largeur de bande, 86, 87, 89, 90, 131, 139, 147, 148, 164, 165, 269 du signal, 86, 87, 90, 131 de spectre, 138, 146 loi de probabilité, 20, 38-41, 137, 138, 222, 228 longueur moyenne, 14, 17, 18, 20, 22, 25, 27, 30-34, 37, 47, 49, 86, 257, 274

M matrice de parité, 51, 52 génératrice, 51, 52, 54, 57, 69, 70, 72, 73 mesure de l’affaiblissement, 273 de l’impédance caractéristique, 272 du débit, 273 méthode de réflectométrie, 272 MIC différentiel, 16, 21 modulation, 2 linéaire, 202, 213, 222, 237, 247, 258 numérique avec porteuse, 285, 288 par déplacement conjoint d’amplitude et de phase, 203 d’amplitude en quadrature, 203 de phase, 203, 248, 286

313

mot reçu, 51, 55, 81, 82, 301 -code, 20, 21, 24, 30, 36, 47, 48, 51, 52, 58, 60, 65, 69, 73, 78, 79, 88, 283, 301 -contrôle, 58 -information, 53, 55, 57, 69, 73, 75, 78, 79, 81, 303 multiplexage temporel, 275-277, 279

P paquet d’erreurs, 62, 82 partie imaginaire, 204, 214, 223, 226, 229, 231, 238, 240, 259 réelle, 204, 214, 223, 224, 226, 229, 231, 238, 240, 259 performances des modulations, 246 polynôme, 57, 59, 64, 65, 69, 70, 73, 74, 76-79, 83, 84, 299-302 générateur, 57, 59, 64, 69, 70, 73, 78, 79, 83, 301, 302 précodeur, 87, 90, 126-128, 132, 183, 185, 186, 192, 194, 195 probabilité, 9, 10, 28, 30-32, 36-39, 42, 44, 46-50, 86, 92, 95-97, 108, 119-121, 139, 144, 156, 161, 174, 190, 198, 199, 256, 257, 259-262, 266, 302 conditionnelle, 95, 120, 143, 155, 160, 163, 166-168, 172, 176, 178, 180, 193, 196, 215, 219, 220, 224, 227, 235, 246, 259, 264 d’erreur(s), 8, 10, 25, 30, 37, 155, 159, 167-169, 176, 179, 180, 189, 215, 221, 224, 227, 230, 231, 234, 239, 240, 242, 245247, 259 conditionnelles, 5, 140, 143, 148, 184, 230 totale d’erreurs moyenne, 140

Licence illimitée accordée à SCD - Université de Nantes

314

Communications numériques 2

puissance, 91, 110, 125, 130, 131, 138, 139-141, 146-148, 154, 164, 165, 171, 214, 223, 248, 287

R, S rapport signal à bruit, 5, 140, 148, 155, 168, 169, 183, 192, 214, 219, 223, 226, 229, 239, 243, 259, 264, 294 redondance, 13, 15, 39, 41 schéma de réalisation du codeur, 58, 60, 64, 73, 78, 165 du décodeur, 58, 64, 78 du codeur à réponse partielle, 90, 131, 132 du système de transmission en bande de base, 137, 145, 153 général du système de transmission numérique avec modulation de porteuse, 202 séquences de Gold, 78, 79, 84 temporelles, 128, 183, 192 -M, 78, 79, 83 seuils de décision, 139, 146, 159, 160, 165, 171, 176, 187, 196 signal corrigé, 154, 166, 176 émis, 86, 127, 128, 138, 141, 146, 154, 156, 164, 170 en bande de base, 201, 212, 236, 257, 285 porteur, 202, 213, 222, 237, 258 reçu, 138, 141, 146, 156, 172, 279, 294

source d’information, 5, 8-10, 13, 25, 28, 31, 32, 38-40, 85, 86, 110 spectre d’amplitude, 139, 147, 154, 155, 165, 224, 229, 230, 238, 259 structure du décodeur pour la détection des erreurs, 67 symbole, 8-10, 12-17, 32-36, 42-45, 86-88, 118, 126, 130, 139, 142, 147, 151, 153-162, 164, 169, 182, 203, 207, 214, 218, 223, 228, 235, 238240, 245-248, 256, 262 syndrome, 51, 52, 56, 61, 62, 81, 301

T, V théorie de l’information, 1, 5 des lignes, 270 trajet double (un trajet direct et un trajet retardé), 239, 243 transmission à grande distance, 85, 89, 130, 133 de la vidéo codée, 46, 255 MIC, 275 numérique, 16, 91, 110, 137, 145, 202, 212, 228, 251 avec codeur à réponse partielle, 130 en bande de base, 275 par modulation MDA-2, 221 par modulation MDAQ-4, 211, 228, 236 série de l’information supportée par des signaux analogiques, 275 variation de l’affaiblissement en fonction de la longueur, 273

Licence illimitée accordée à SCD - Université de Nantes

Sommaire de Communications numériques 1

Partie 1. Théorie de l’information Introduction de la partie 1 Chapitre 1. Introduction aux télécommunications 1.1. Rôle d’un système de communication 1.2. Principe de la communication 1.3. Tendance vers les communications numériques Chapitre 2. Mesure de l’information d’une source discrète et capacité d’un canal 2.1. Introduction et définitions 2.2. Exemples de sources discrètes 2.3. Incertitude, quantité d’information et entropie 2.4. Débit d’information et redondance d’une source 2.5. Canaux discrets et entropies 2.6. Information mutuelle 2.7. Capacité, redondance et efficacité d’un canal discret 2.8. Entropies à k variables aléatoires Chapitre 3. Codage de source pour canaux sans perturbations 3.1. Introduction 3.2. Intérêt des codes binaires 3.3. Codes à décodage unique Licence illimitée accordée à SCD - Université de Nantes

316

Communications numériques 2

3.4. Longueur moyenne des mots-code 3.5. Capacité, efficacité et redondance d’un code 3.6. Codes optimaux absolus 3.7. Extension d’ordre k d’une source 3.8. Premier théorème de Shannon 3.9. Synthèse des codes binaires optimaux Chapitre 4. Codage de canal pour canaux à perturbations 4.1. Introduction 4.2. Second théorème de Shannon 4.3. Stratégies de correction d’erreurs 4.4. Classification des codes détecteurs ou correcteurs d’erreurs 4.5. Définitions liées aux performances des codes 4.6. Forme de la décision 4.7. Codes-groupe linéaires 4.8. Codes cycliques 4.9. Registre à décalage à réaction (RDR) et ses applications Partie 2. Transmissions numériques en bande de base et avec modulation de porteuses Introduction de la partie 2 Chapitre 5. Le codage binaire à M-aire et le codage M-aire à signal : les codes en ligne 5.1. Présentation et typologie 5.2. Critères de choix d’un code en ligne 5.3. Densité spectrale de puissance (DSP) d’un code en ligne 5.4. Description et caractérisation spectrale des principaux codes en ligne linéaires à symboles successifs indépendants 5.5. Description et caractérisation spectrale des principaux codes en ligne non linéaires non alphabétiques à symboles successifs dépendants 5.6. Description et caractérisation spectrale des codes en ligne linéaires à réponse partielle Chapitre 6. Transmission sur un canal passe-bas d’un signal numérique M-aire 6.1. Introduction 6.2. Systèmes numériques et normalisation pour les hauts débits Licence illimitée accordée à SCD - Université de Nantes

Sommaire du volume 1

317

6.3. Modélisation de la transmission à travers la chaîne de communication d’un signal numérique M-aire 6.4. Caractérisation de l’interférence intersymbole (IIS) : diagramme de l’œil 6.5. Probabilité d’erreur Pe 6.6. Conditions d’absence d’interférence intersymbole : critères de Nyquist 6.7. Répartition optimale du filtrage entre l’émission et la réception 6.8. Transmission avec un codeur linéaire à réponse partielle Chapitre 7. Transmissions numériques avec modulation de porteuses 7.1. Introduction et schéma de principe d’une transmission numérique radioélectrique 7.2. Techniques d’accès multiple et normes les plus répandues 7.3. Structure d’une liaison hertzienne, d’une liaison par satellite et d’un canal radiomobile 7.4. Effets des chemins multiples et des non-linéarités des amplificateurs de puissance 7.5. Modulations numériques linéaires sur fréquences porteuses 7.6. Modulations numériques linéaires en quadrature : structure générale du modulateur, diagramme spatial, diagramme de constellation et choix d’une constellation 7.7. Transmission numérique radioélectrique et transmission équivalente en bande de base : enveloppe complexe 7.8. Transmission équivalente en bande de base, intérêt et justification : signal analytique et enveloppe complexe 7.9. Relation entre filtre passe-bande H et filtre passe-bas équivalent He 7.10. Modulation par déplacement de phase à M états : MDP-M (M-ary Phase Shift Keying, M-PSK) 7.11. Modulation par déplacement d’amplitude en quadrature à M états : MDAQ-M (M-ary Quadrature Amplitude Modulation, M-QAM) 7.12. Présentation détaillée de la modulation et de la démodulation MDAQ-16 7.13. Modulation par déplacement d’amplitude et de phase : MDAP (Amplitude and Phase Shift Keying Modulation, modulation APSK) 7.14. Étude détaillée de la modulation et de la démodulation MDP-8 (Eight-Phase PSK, 8-PSK) 7.15. Performances des modulations en occupation et efficacité spectrale

Licence illimitée accordée à SCD - Université de Nantes

Licence illimitée accordée à SCD - Université de Nantes

El Assad 2.qxp_Mise en page 1 28/07/2020 14:23 Page 1

Une première partie, composée d’une trentaine de travaux dirigés, étudie la théorie de l’information et des communications avec modulations numériques de porteuses. Les problèmes autonomes à difficulté variable sont structurés en énoncés complets, suivis des solutions explicites à chacune des questions. Une seconde partie présente cinq travaux pratiques qui traitent particulièrement des mesures de base sur les câbles de transmission, de la conception en simulation logicielle de modems, de l’utilisation effective de modules électroniques et des fonctions de base dans la construction des systèmes de communication.

Communications numériques 2 permet de comprendre progressivement et en profondeur l’essentiel de ce domaine et d’acquérir les compétences industrielles nécessaires.

Les auteurs Safwan El Assad est maître de conférences habilité à diriger des recherches à Polytech Nantes. Ses recherches portent actuellement sur la cryptographie basée chaos. Dominique Barba est ancien professeur de Polytech Nantes. Ses recherches portent sur le traitement des images fixes et animées, la vision humaine et artificielle, ainsi que les communications numériques.

editions

Z(7ib7i4-AFGHAE(

Communications numériques 2 travaux dirigés et pratiques

Communications numériques 2

Cet ouvrage didactique offre un ensemble riche et diversifié de travaux dirigés et pratiques sur les communications numériques.

Safwan El Assad Dominique Barba

COLLECTION SYSTÈMES D’INFORMATION, WEB ET SOCIÉTÉ

editions

Safwan El Assad et Dominique Barba

editions