INFORMATICA MATTEO CRISTANI INDICE CICLO DELLE LEZIONI LEZ

  • Slides: 36
Download presentation
INFORMATICA MATTEO CRISTANI

INFORMATICA MATTEO CRISTANI

INDICE CICLO DELLE LEZIONI LEZ. 1 LEZ. 2 LEZ. 3 LEZ. 4 LEZ. 5

INDICE CICLO DELLE LEZIONI LEZ. 1 LEZ. 2 LEZ. 3 LEZ. 4 LEZ. 5 INTRODUZIONE AL CORSO I CALCOLATORI ELETTRONICI ELEMENTI DI TEORIA DELL’ INFORMAZIONE MISURE DELLA INFORMAZIONE CALCOLO BINARIO: CONVERSIONI DI BASE LEZ. 6 LEZ. 7 LEZ. 8 LEZ. 9 LEZ. 10 CALCOLO BINARIO: OPERAZIONI IN BASE 2 ESERCITAZION E DI CALCOLO BINARIO PORTE LOGICHE PROGETTO DI CIRCUITI DIGITALI LEZ. 11 LEZ. 12 LEZ. 13 LEZ. 14 LEZ. 15 INTRODUZIONE AGLI ALGORITMI PRODUTTIVITA’ INDIVIDUALE IL WEB RICERCA DI DOCUMENTI USO DEI MOTORI DI RICERCA LEZ. 16 LEZ. 17 LEZ. 18 LEZ. 19 LEZ. 20 SICUREZZA INFORMATICA ELEMENTI DI CRITTOGRAFIA ESERCITAZION E GENERALE SOMMARIO DEL CORSO

AGENDA CONCETTO DI COMUNICAZIONE MISURE DELL’INFORMAZIONE RAPPRESENTAZIONE DELL’INFORMAZIONE CODICI DI RAPPRESENTAZIONE DELL’INFORMAZIONE

AGENDA CONCETTO DI COMUNICAZIONE MISURE DELL’INFORMAZIONE RAPPRESENTAZIONE DELL’INFORMAZIONE CODICI DI RAPPRESENTAZIONE DELL’INFORMAZIONE

CONCETTO DI COMUNICAZIONE Il problema della comunicazione delle informazioni è piuttosto complesso. I fattori

CONCETTO DI COMUNICAZIONE Il problema della comunicazione delle informazioni è piuttosto complesso. I fattori della comunicazione emittente: chi invia il messaggio; ricevente: chi riceve il messaggio; messaggio: il contenuto della comunicazione; contenuto: ciò a cui il messaggio si riferisce; codice: le regole per comporre i segni; canale: il mezzo (fisico) attraverso cui passa il messaggio.

COME FUNZIONA LA COMUNICAZIONE DIGITALE

COME FUNZIONA LA COMUNICAZIONE DIGITALE

MISURE DELL’INFORMAZIONE VELOCITA’ DI TRASMISSIONE AFFIDABILITA’ DI CANALE

MISURE DELL’INFORMAZIONE VELOCITA’ DI TRASMISSIONE AFFIDABILITA’ DI CANALE

ALFABETO Si definisce ALFABETO un insieme non vuoto e finito i cui elementi si

ALFABETO Si definisce ALFABETO un insieme non vuoto e finito i cui elementi si chiamano simboli. Il numero di elementi di un alfabeto si chiama ampiezza.

INFORMAZIONE L’informazione minima è portata da un segnale digitale che discrimina (o disambigua) tra

INFORMAZIONE L’informazione minima è portata da un segnale digitale che discrimina (o disambigua) tra due possibili messaggi digitali In questo caso si parla di informazione pari ad un BIT Se si disambigua tra un numero di messaggi pari ad una potenza del due allora il numero di BIT del messaggio è pari all’esponente di quella potenza

ESEMPIO La sorgente invia un messaggio che è un numero da 0 a 15

ESEMPIO La sorgente invia un messaggio che è un numero da 0 a 15 =0 0 -1 =1 0 -3 =2 2 -3 =3 0 -7 =4 4 -5 =5 4 -7 =6 6 -7 =7 Messagg io =8 8 -9 =9 8 -11 =10 10 -11 =11 8 -15 =12 12 -13 =13 12 -15 =14 14 -15 =15

DEFINIZIONE DI INFORMAZIONE A parità di probabilità, un messaggio porta tanta informazione quanti sono

DEFINIZIONE DI INFORMAZIONE A parità di probabilità, un messaggio porta tanta informazione quanti sono i livelli di partizione di un albero di decisione formato come nell’esempio. In pratica, se N è il numero di simboli dell’alfabeto di canale, l’informazione di un singolo messaggio è: I = log 2(N)

VELOCITA’ DI TRASMISSIONE La velocità di un canale non si misura in numero di

VELOCITA’ DI TRASMISSIONE La velocità di un canale non si misura in numero di segnali che passano ma in quantità di informazione che passa; La definizione di base è la seguente: un canale ha la velocità di un baud quando in un secondo il canale trasporta un bit

MULTIPLI DEL BAUD Kbps = 1024 Baud Mbps = 1024 Kbps Gbps = 1024

MULTIPLI DEL BAUD Kbps = 1024 Baud Mbps = 1024 Kbps Gbps = 1024 Mbps (1024 bit per second) (1024*1024 bps)

ESEMPIO Un canale è dotato di un alfabeto di sedici simboli, e trasmette cinque

ESEMPIO Un canale è dotato di un alfabeto di sedici simboli, e trasmette cinque segnali al secondo. Calcolare la velocità di trasmissione; Ogni singolo segnale porta 4 bit, quindi in un secondo fluiscono venti bit; Velocità di trasmissione: 20 Baud.

AFFIDABILITA’ DI CANALE Un canale ideale trasmette il segnale senza nessuna modifica dalla sorgente

AFFIDABILITA’ DI CANALE Un canale ideale trasmette il segnale senza nessuna modifica dalla sorgente alla destinazione. I canali reali, invece, inviano il segnale con errore

MISURE D’ERRORE Il tasso d’errore è la percentuale di segnali errati rispetto al numero

MISURE D’ERRORE Il tasso d’errore è la percentuale di segnali errati rispetto al numero di segnali inviati; L’affidabilità di canale è invece la misura della quantità di informazione effettivamente passata in un canale reale; L’affidabilità dipende sia dalla velocità che dal tasso d’errore;

ESEMPIO Consideriamo un canale con velocità pari a 16 Kbps con tasso d’errore pari

ESEMPIO Consideriamo un canale con velocità pari a 16 Kbps con tasso d’errore pari a 1/512 (un bit errato ogni 512 in media); Noi possiamo misurare l’affidabilità perché 16 Kbps misurano la velocità del flusso informativo e non il numero di segnali al secondo;

CODICI Un codice è una tavola che associa ad un alfabeto i numeri da

CODICI Un codice è una tavola che associa ad un alfabeto i numeri da zero all’ampiezza dell’alfabeto meno 1. Il rapporto tra un simbolo x di un alfabeto e il numero di un codice S, rappresentato in una data base n si dice codifica n-aria di x in S. Se la lunghezza massima ammessa per la codifica è prestabilita l allora il codice si dice di lunghezza l.

MISURE DI UN CODICE Quante cifre in base 2 servono per rappresentare un alfabeto

MISURE DI UN CODICE Quante cifre in base 2 servono per rappresentare un alfabeto di n simboli? Una volta stabilito, come detto precedentemente, che un singolo simbolo di un alfabeto con n simboli porta log 2(n) informazione, se con [x] si indica il più piccolo intero maggiore di x allora per rappresentare n simboli occorrono [log 2(n)]

ESEMPIO Se un codice ha 20 simboli, allora, poiché un singolo simbolo porta log

ESEMPIO Se un codice ha 20 simboli, allora, poiché un singolo simbolo porta log 2(20) che è pari a 4, 321 circa per rappresentare tale codice occorrono 5 cifre binarie

MISURE SU CODICI DISTANZA DI HAMMING DISTANZA DI LEVENSTHEIN RIDONDANZA CODICI A CORREZIONE D’ERRORE

MISURE SU CODICI DISTANZA DI HAMMING DISTANZA DI LEVENSTHEIN RIDONDANZA CODICI A CORREZIONE D’ERRORE CODICI LINEARI

DISTANZA DI HAMMING Date due stringhe x ed y si dice distanza di Hamming

DISTANZA DI HAMMING Date due stringhe x ed y si dice distanza di Hamming tra x ed y è il numero di posizioni in cui le due stringhe differiscono ESEMPIO (+ se uguali, - se diversi) 1 0 1 1 1 0 0 1 + - + La distanza di Hamming è 2

DISTANZA DI LEVENSTHEIN È una modifica della distanza di Hamming, in cui invece di

DISTANZA DI LEVENSTHEIN È una modifica della distanza di Hamming, in cui invece di misurare il numero di caratteri differenti tra due stringhe misuriamo il numero di operazioni necessarie per passare da una stringa all’altra. Le operazioni possibili sono Delete Insert Substitute D I S

CONFRONTO La distanza di Hamming è univoca, mentre quella di Levensthein non lo è.

CONFRONTO La distanza di Hamming è univoca, mentre quella di Levensthein non lo è. La distanza di Hamming misura un errore per ogni simbolo aggiunto o rimosso ed uno per ogni simbolo sostituito, mentre la distanza di Levensthein potrebbe fornire misure differenti. La distanza di Levensthein si ottiene associando un peso a ciascuna operazione w. D, w. I, w. S e calcolando la somma =Dw. D+Iw. I+Sw. S

CONFRONTO Date due stringhe di lunghezza massima L e minima l, esistono molti modi

CONFRONTO Date due stringhe di lunghezza massima L e minima l, esistono molti modi di disporre il confronto tra le due stringhe In particolare, se chiamiamo d il valore (L-l+1) il numero di modi di disporre il confronto è

CONFRONTO La misura della distanza di Levensthein è definita come il valore minimo della

CONFRONTO La misura della distanza di Levensthein è definita come il valore minimo della somma per tutti i modi di disporre il confronto tra le stringhe.

ESEMPIO Nell’esempio qui sotto la misura di Levensthein è diversa da quella di Hamming

ESEMPIO Nell’esempio qui sotto la misura di Levensthein è diversa da quella di Hamming La distanza di Hamming è 5, mentre la distanza di Levensthein a pesi uniformi pari a 1 è 3 Talvolta ha senso considerare il peso di inserimento e cancellazione pari ad uno e la sostituzione pari a 0, 5. In questo caso la distanza di Levensthein è 2, 5. X 1 0 1 0 1 Y 1 1 1 0 1 1 H + - + + - - L + S + + D + + I 1 0

RIDONDANZA Un codice n-ario di lunghezza è ridondante quando il numero di simboli codificati

RIDONDANZA Un codice n-ario di lunghezza è ridondante quando il numero di simboli codificati m è inferiore a nl; La misura m- nl si dice ridondanza del codice.

CODICI A CORREZIONE D’ERRORE Un codice è a correzione d’errore quando una misura di

CODICI A CORREZIONE D’ERRORE Un codice è a correzione d’errore quando una misura di distanza tra il segnale ed il segnale ricevuto diversa da zero è rilevata in un certo numero di casi (chiamati errori rilevabili); Un codice a correzione d’errore banale si ottiene inserendo un certo numero di codifiche non sono valide (codici ridondanti).

CODICI LINEARI Un codice lineare si ottiene da una codifica n-aria di lunghezza l

CODICI LINEARI Un codice lineare si ottiene da una codifica n-aria di lunghezza l applicando la ridondanza di un numero k di simboli n-ari in più oltre ai k che servono per la codifica dei simboli validi del codice.

CONTROLLO DI PARITA’ Aggiungendo un solo bit ad una codifica si ottiene un codice

CONTROLLO DI PARITA’ Aggiungendo un solo bit ad una codifica si ottiene un codice lineare base chiamato controllo di parità. Alla codifica si aggiunge un bit che misura 1 quando il numero di bit bloccati a 1 è dispari nel resto del codice, mentre misura 0 quando il numero di bit bloccati a 1 e pari. Se nella trasmissione un bit cambia da 0 ad 1 o da 1 a 0 (o anche se un qualunque numero dispari di bit cambia da 0 ad 1 o viceversa, il codice non corrisponde più ad un simbolo valido.

UN ESEMPIO COMPLETO Dobbiamo codificare tre simboli A, B, C. La tabella di codifica

UN ESEMPIO COMPLETO Dobbiamo codificare tre simboli A, B, C. La tabella di codifica base è un codice a due bit con un simbolo invalido (e quindi ridondanza del 25%). A 0 0 B 0 1 C 1 0 INV. 1 1

ESEMPIO La codifica controllo di parità si ottiene con tre bit, di cui uno

ESEMPIO La codifica controllo di parità si ottiene con tre bit, di cui uno a conteggio della parità degli altri due. A CONTR. B 0 0 0 1 1 0 1 CONTR. C INV. CONTR. 1 1 0 0 1 1 0 1

CODICE ASCII TABELLA CODICI NON STAMPABILI TABELLA CODICI STAMPABILI

CODICE ASCII TABELLA CODICI NON STAMPABILI TABELLA CODICI STAMPABILI

CODICE ASCII – CARATTERI NON STAMPABILI

CODICE ASCII – CARATTERI NON STAMPABILI

CODICE ASCII – CARATTERI STAMPABILI

CODICE ASCII – CARATTERI STAMPABILI

RIFERIMENTI FLUENCY (Conoscere e usare l’informatica) CAPITOLO 5: pagg. 111 -122 MAPPA CONCETTUALE A

RIFERIMENTI FLUENCY (Conoscere e usare l’informatica) CAPITOLO 5: pagg. 111 -122 MAPPA CONCETTUALE A PAGINA 125 SVOLGERE GLI ESERCIZI A PAGINA 123 -124 1 -9 124 1 -10 (COMPLETA LA FRASE) 124 1 -12 (ESERCIZI)