Information Calcul Communication 2 Information Communication Leon 3

  • Slides: 10
Download presentation
Information, Calcul, Communication 2. Information & Communication – Leçon 3: Entropie Clip 3: Calcul

Information, Calcul, Communication 2. Information & Communication – Leçon 3: Entropie Clip 3: Calcul O. Lévêque, commentaire: P. Janson 1 / 10 2. Information & Communication – 3. Entropie – 3. Calcul

Plan de la leçon Introduction à la compression ● Notion d’entropie ● Calcul d’entropie

Plan de la leçon Introduction à la compression ● Notion d’entropie ● Calcul d’entropie ● http: //moodle. epfl. ch/mod/url/view. php? id=873014 Compression sans perte ● Algorithme de Shannon-Fano ● 2 / 10 2. Information & Communication – 3. Entropie – 3. Calcul

Entropie – Définition formelle ● 3 / 10 2. Information & Communication – 3.

Entropie – Définition formelle ● 3 / 10 2. Information & Communication – 3. Entropie – 3. Calcul

Entropie – Remarques La formule précédente reste valable même si les pj ne sont

Entropie – Remarques La formule précédente reste valable même si les pj ne sont pas estimées sur la séquence X elle-même p. ex. si elles proviennent d’un texte quelconque ou du procédé (p. ex. le langage naturel) de génération de X => Seules comptent les probabilités pj, peu importe d’où elles proviennent ● L’entropie calculée ici est simplement celle du « jeu » consistant à tirer au hasard une lettre de la séquence X donnée En général la définition de l’entropie est bien plus complexe et intègre dépendances entre sous-séquences de lettres mais ceci nécessite des outils mathématiques plus avancés. . . probabilités conditionnelles et limites … etc. ● 4 / 10 2. Information & Communication – 3. Entropie – 3. Calcul

Entropie – Origine En physique (Ludwig von Boltzmann, 1872) L’entropie mesure le désordre dans

Entropie – Origine En physique (Ludwig von Boltzmann, 1872) L’entropie mesure le désordre dans un système physique ● En théorie de l’information (Claude Edwood Shannon, 1948) L’entropie mesure la quantité d’information dans un message ● Ou encore (comme on vient de le voir): ● L’entropie est égale au nombre moyen de questions nécessaires pour deviner une lettre choisie au hasard dans une séquence donnée En ce sens elle mesure aussi le degré de complexité (désordre) de la séquence 5 / 10 2. Information & Communication – 3. Entropie – 3. Calcul

Entropie comme mesure de «désordre» MAPJOFBGILCKDEHN IL FAIT BEAU A IBIZA AAAAAAAA H(X)=4 H(X)=2.

Entropie comme mesure de «désordre» MAPJOFBGILCKDEHN IL FAIT BEAU A IBIZA AAAAAAAA H(X)=4 H(X)=2. 875 H(X)=0 Plus il y a de lettres différentes, plus il y a de désordre, plus il y a de variété et donc “d’information” dans le message ● Plus il y a de lettres semblables, moins il y a de désordre, plus il y a de redondance et donc moins “d’information” dans le message ● 6 / 10 2. Information & Communication – 3. Entropie – 3. Calcul

Entropie – Propriétés ● 7 / 10 2. Information & Communication – 3. Entropie

Entropie – Propriétés ● 7 / 10 2. Information & Communication – 3. Entropie – 3. Calcul

Entropie – Vérifications des propriétés ● 8 / 10 2. Information & Communication –

Entropie – Vérifications des propriétés ● 8 / 10 2. Information & Communication – 3. Entropie – 3. Calcul

Entropie – Vérifications des propriétés (suite) ● 9 / 10 2. Information & Communication

Entropie – Vérifications des propriétés (suite) ● 9 / 10 2. Information & Communication – 3. Entropie – 3. Calcul

Entropie – Autre propriété importante 0 ≤ H(X) ≤ log 2(n) => Il y

Entropie – Autre propriété importante 0 ≤ H(X) ≤ log 2(n) => Il y a donc 2 façons d’augmenter l’entropie Rendre les probabilités plus équilibrées (équiprobables) ●Augmenter n (le nombre de valeurs possibles) ● 10 / 10 2. Information & Communication – 3. Entropie – 3. Calcul