Kapitel 3 Regression SS 2009 Maschinelles Lernen und

  • Slides: 12
Download presentation
Kapitel 3: Regression SS 2009 Maschinelles Lernen und Neural Computation 59

Kapitel 3: Regression SS 2009 Maschinelles Lernen und Neural Computation 59

Lineare Regression • 1 -dim Fall: Entspricht Korrelation Rauschen Abhängige Variablen („target“) unbhängige Variablen

Lineare Regression • 1 -dim Fall: Entspricht Korrelation Rauschen Abhängige Variablen („target“) unbhängige Variablen Wenn w 0, b=0: Korrelation SS 2009 Maschinelles Lernen und Neural Computation 60

Perceptron als lineare Regression • Einfaches Perceptron (lineare Transferfunktion) ist identisch mit linearer Regression

Perceptron als lineare Regression • Einfaches Perceptron (lineare Transferfunktion) ist identisch mit linearer Regression • Bestimmen der Gewichte nach least squares: Pseudoinverse 1. Ableitung 0 setzen Matrix aller Targetvektoren Gewichtsmatrix Matrix aller Inputvektoren • Kein „Lernen“ notwendig (nur bei nichtlinearer Transferfunktion, sigmoid = „logistische Regression“) Pseudoinverse: Siehe Bishop(1995), p. 92 SS 2009 Maschinelles Lernen und Neural Computation 61

Nichtlineare Regression • Ähnlich wie bei Diskriminanzfunktion: – Parametrisch: z. B. Polynom: – Entspricht

Nichtlineare Regression • Ähnlich wie bei Diskriminanzfunktion: – Parametrisch: z. B. Polynom: – Entspricht wieder einer Vorverarbeitung (auch andere denkbar, wird wieder lineare Regression) • Allgemein: Erwartungswert, kann durch NN angenähert werden SS 2009 Maschinelles Lernen und Neural Computation 62

Diskreter Fall • Nimm für jeden Inputwert Mittelwert der Targets als Erwartungswert • kontinuierlicher

Diskreter Fall • Nimm für jeden Inputwert Mittelwert der Targets als Erwartungswert • kontinuierlicher Fall: Teile Input in Intervalle • Wenn Intervalle beliebig klein nicht-parametrische Schätzung der Regression SS 2009 Maschinelles Lernen und Neural Computation 63

Kontinuierlicher Fall (Semiparametrisch) • Modellierung des Datengenerators: Dichteschätzung der gesamten Verteilung • Likelihood: Verteilung

Kontinuierlicher Fall (Semiparametrisch) • Modellierung des Datengenerators: Dichteschätzung der gesamten Verteilung • Likelihood: Verteilung mit Erwartungswert f(xi) SS 2009 Maschinelles Lernen und Neural Computation 64

MLP als Universaler Funktionsapproximator • Bsp: 1 Input, 1 Output, 5 Hidden • MLP

MLP als Universaler Funktionsapproximator • Bsp: 1 Input, 1 Output, 5 Hidden • MLP kann beliebige Funktionen annähern (Hornik et al. 1990) • durch Überlagerung von (gewichteten) Sigmoiden • Komplexität durch das Zusammenspiel vieler einfacher Elemente Dehnen, spiegeln SS 2009 Maschinelles Lernen und Neural Computation verschieben (bias) 65

Normalverteiltes Rauschen • Likelihood: • Maximieren = -log. L minimieren (konstante Terme werden weggelassen,

Normalverteiltes Rauschen • Likelihood: • Maximieren = -log. L minimieren (konstante Terme werden weggelassen, inkl. p(x)) • Entspricht dem summierten quadratischen Fehler (siehe Backpropagation) SS 2009 Maschinelles Lernen und Neural Computation 66

Training als Maximum Likelihood • Minimierung des quadratischen Fehlers ist Maximum Likelihood mit den

Training als Maximum Likelihood • Minimierung des quadratischen Fehlers ist Maximum Likelihood mit den Annahmen: – Fehler ist in jedem Punkt normalverteilt, ~N(0, ) – Varianz dieser Verteilung ist konstant • Varianz des Fehlers (des Rauschens): (verbleibender normalisierter Fehler) • Aber: das muss nicht gelten! Erweiterungen möglich (Rauschmodell) SS 2009 Maschinelles Lernen und Neural Computation 67

Klassifikation als Regression • MLP soll Posterior annähern • Verteilung der Targets ist keine

Klassifikation als Regression • MLP soll Posterior annähern • Verteilung der Targets ist keine Normalverteilung • Bernoulli Verteilung: xout=P(c|xin) • Neg. log-Likelihood: • „Cross-Entropy Fehler“ (für 2 Klassen; verallgemeinerbar auf n Klassen) SS 2009 Maschinelles Lernen und Neural Computation 68

Optimale Paarungen: Transferfunktion (am Output) +Fehlerfunktion • Regression: – Linear + summierter quadratischer Fehler

Optimale Paarungen: Transferfunktion (am Output) +Fehlerfunktion • Regression: – Linear + summierter quadratischer Fehler • Klassifikation (Diskriminationsfunktion): – Linear + summierter quadratischer Fehler • Klassifikation (Posterior nach Bayes): – Softmax+cross-entropy Fehler – 2 Klassen, 1 Ouput: Sigmoid+cross-entropy SS 2009 Maschinelles Lernen und Neural Computation 69

Zusammenfassung • NN sind allgemeine (semiparametrische) Methoden zur nichtlinearen Regression • NN schätzt Erwartungswert,

Zusammenfassung • NN sind allgemeine (semiparametrische) Methoden zur nichtlinearen Regression • NN schätzt Erwartungswert, um den die Targets streuen • Lernen entspricht Maximum Likelihood (Schätzen der Input/Target Dichte) • Quadratischer Fehler entspricht konstantem normalverteiltem Rauschen (bedingte Verteilung der Targets) • Erweiterungen auf nicht-Gauss’sches Rauschen denkbar (Beispiel: Klassifikation) SS 2009 Maschinelles Lernen und Neural Computation 70