Processi stocastici G Grossi Modelli e applicazioni Sommario

  • Slides: 23
Download presentation
Processi stocastici G. Grossi Modelli e applicazioni

Processi stocastici G. Grossi Modelli e applicazioni

Sommario 1. Riepilogo su processi stocastici e spettro di potenza 2. Modelli standard: armonico,

Sommario 1. Riepilogo su processi stocastici e spettro di potenza 2. Modelli standard: armonico, white noise, ARMA 3. Modelli per segnali casuali: sistema LTI + white noise 2

Risposta di sistemi LTI a processi Spettro di potenza e autocorrelazione 3

Risposta di sistemi LTI a processi Spettro di potenza e autocorrelazione 3

Processo armonico Il processo è stazionario in senso lato a media zero e funzione

Processo armonico Il processo è stazionario in senso lato a media zero e funzione di autocorrelazione Se l’autocorrelazione è periodica può essere espansa in serie di Fourier e lo spettro risulta 4

Modello white noise Un processo incorrelato e stazionario a media zero e varianza finita

Modello white noise Un processo incorrelato e stazionario a media zero e varianza finita per cui vale la relazione Notazione Rumore bianco gaussiano MATLAB: Generare valori distribuiti secondo gaussiana randn(), aggiungere al segnale rumore gaussiano awgn(x, snr) 5

Esempio: rumore colorato h = fir 1(48, [0. 35 0. 65]); r = randn(100000,

Esempio: rumore colorato h = fir 1(48, [0. 35 0. 65]); r = randn(100000, 1); x = filter(h, 1, r); pwelch(x, 512, 300, 1024). . . freqz(h, 1, 512) 6

Sistema LTI causale e stabile + white noise Input white noise Output processo stocastico

Sistema LTI causale e stabile + white noise Input white noise Output processo stocastico Relazione tra autocorrelazione e spettro di potenza Dove la funzione di autocorrelazione applicata a segnali deterministici diventa 7

Modelli per segnali casuali • Modellare i segnali casuali significa considerarli come output di

Modelli per segnali casuali • Modellare i segnali casuali significa considerarli come output di un filtro lineare causale e stabile H(z) sollecitato da un processo stazionario incorrelato (white-noise) • Il filtro H(z) è detto filtro di sintesi • Questi modelli basati su sistema LTI sono alquanto generali, al punto che si dimostra che ne esiste uno per ogni segnale stazionario y(n) • Comunemente usati in applicazioni come: speech, geophysical signal processing, image processing, EEG signal processing, spectrum estimation, data compression, time series analysis • Come sono usati: vengono definite delle procedure di analisi (algoritmi) che consentono di estrarre i parametri del modello a partire da una realizzazione del processo 8

Processo lineare Se il filtro di sintesi h(n) è a fase minima (causale e

Processo lineare Se il filtro di sintesi h(n) è a fase minima (causale e invertibile) con input La risposta impulsiva del sistema inverso è Il sistema LTI di analisi basato sul sistema inverso è in grado di riprodurre il white noise, il che li rende linearmente equivalenti Il processo x(n) e detto innovazione del processo y(n) 9

Modelli ARMA Il processo diventa auto-regressive (AR) quando M = 0 e moving-average (MA)

Modelli ARMA Il processo diventa auto-regressive (AR) quando M = 0 e moving-average (MA) quando N = 0 Spettro di potenza Problema di maggiore interesse è determinare i coefficienti ak e bk a partire dalla autocorrelazione Per motivo di semplicità, nel signal processing, sono molto usati i modelli AR (con M = 0) 10

Filtro di sintesi - esempio Parametri del modello 11

Filtro di sintesi - esempio Parametri del modello 11

Filtri adattati 1. Filtro lineare ottimo 2. Esempio: filtro matched che minimizza SNR 3.

Filtri adattati 1. Filtro lineare ottimo 2. Esempio: filtro matched che minimizza SNR 3. Esempio: filtro di Wiener che minimizza MSE 12

Filtro lineare ottimo Filtri progettati seguendo criteri statistici di ottimalità, come il filtro che

Filtro lineare ottimo Filtri progettati seguendo criteri statistici di ottimalità, come il filtro che massimizza il rapporto segnale rumore SNR (Signal to Noise Ratio) o il filtro che minimizza l’errore quadratico medio MSE (Mean Square Error) Filtro che massimizza l’SNR • S(t) è un segnale noto di durata finita • Costante a è l’attenuazione • Il tempo t 0 è il round-trip delay • Il segnale v(t) è il rumore indesiderato L’obiettivo NON e estrarre il segnale dal rumore stimandone l’andamento nel tempo, cioe ricostruire il segnale, ma individuarne la presenza ed eventualmente stimarne i parametri incogniti a e t 0 13

Filtro adattato a tempo discreto quando il segnale è presente quando il segnale è

Filtro adattato a tempo discreto quando il segnale è presente quando il segnale è assente Il segnale è dati in ingresso a un filtro… …allo scopo di determinare con alta confidenza la presenza/assenza del segnale originale o i parametri fondamentali Fissato il tempo n 0 il criterio diventa massimizzare Se si considera il tempo si ha 14

SNR Potenza del segnale Potenza del rumore è è Matrice correlazione del rumore (Toeplitz

SNR Potenza del segnale Potenza del rumore è è Matrice correlazione del rumore (Toeplitz simmetrica) Si ricava Da cui con 15

Ottimizzazione e white noise Il massimo si ha scegliendo Da cui Il valore del

Ottimizzazione e white noise Il massimo si ha scegliendo Da cui Il valore del massimo è (per ogni valore della costante) Caso di white noise Valore dell’ottimo 16

Minimizzare l’MSE(1) Stima della variabile casuale y a partire dalle osservazioni date dalla combinazione

Minimizzare l’MSE(1) Stima della variabile casuale y a partire dalle osservazioni date dalla combinazione lineare delle variabili casuali xi Si definisce l’errore come Il valore da ottimizzare Espandendo 17

Minimizzare l’MSE(2) Funzione obiettivo Matrice di correlazione e vettore di crosscorrelazione In forma matriciale

Minimizzare l’MSE(2) Funzione obiettivo Matrice di correlazione e vettore di crosscorrelazione In forma matriciale 18

Minimizzare l’MSE(3) Equazioni normali Principio di ortogonalità In forma matriciale Valore dell’ottimo Stimatore MSE

Minimizzare l’MSE(3) Equazioni normali Principio di ortogonalità In forma matriciale Valore dell’ottimo Stimatore MSE lineare ottimo… a patto che R sia definita positva Min Mean Square Error 19

Filtro di Wiener (1) Stima del processo casuale y(n) a partire dall’osservazione del processo

Filtro di Wiener (1) Stima del processo casuale y(n) a partire dall’osservazione del processo x(n) dall’osservazione minimizzando l’errore MSE tra il segnale filtrato e quello desiderato Se i processi sono congiuntamente stazionari 20

Filtro di Wiener (2) Equazioni normali (forma matriciale) Equazioni normali Minimo valore di MSE

Filtro di Wiener (2) Equazioni normali (forma matriciale) Equazioni normali Minimo valore di MSE 21

22

22

23

23