Machine Learning Neuronale Netze 2 Mitchell Kap 4
- Slides: 24
Machine Learning Neuronale Netze 2 (Mitchell Kap. 4)
Kombination mehrerer Neuronen • zwei Klassen, die nicht linear separierbar sind: • zwei innere Knoten und ein Output-Knoten y • Beispiel • 1 0 A A A B B A A A 1 A A B BB 0 h 1 h 2
Mehrschichtiges Netzwerk V 11 W 12 W 1 p X 1 Y 1 V 12 V 1 m X 2 Y 2 … … Wn 1 Xn n Eingabeneuronen Vp 1 Wn 2 Wnp … Vp 2 Ym Vpm p verborgene Neuronen m Ausgabeneuronen (Hidden layer) Gewichtsmatrix W Gewichtsmatrix V
Design der Netztopologie • Bestimmung von • Anzahl der Input-Knoten • Anzahl der inneren Schichten und jeweilige Anzahl der Knoten • Anzahl der Output-Knoten • starker Einfluß auf die Klassifikationsgüte: • zu wenige Knoten • • • niedrige Klassifikationsgüte zu viele Knoten Overfitting
Aktivierungsfunktionen
Sigmoid Einheit Sigmoid-Funktion:
Sigmoid Einheiten • Vorteile: – Ausgabefunktion differenzierbar – Einfache Berechnung des Gradienten – Mehrschichtige Netze aus Sigmoid-Einheiten: Training durch Backpropagation • Propagiere Trainingsbeispiel durchs Netz • Berechne rückwärts Schicht für Schicht (ausgehend von den Ausgabeneuronen) die Deltas
Beispiel • 2 -schichtiges Netz zur Erkennung von gesprochener Sprache: Laut zwischen h_d
Lernen mehrschichtiger Netze • Prinzipiell zu lernen: – Entwicklung neuer Verbindungen – Löschen existierender Verbindungen – Modifikation der Verbindungsstärke (Veränderung der Gewichte) – Modifikation des Schwellenwertes – Modifikation der Aktivierungs- bzw. Ausgabefunktion – Entwicklung neuer Zellen – Löschen bestehender Zellen • In der Praxis: – Nur Gewichtsmodifikation
Backpropagation Algorithmus Prinzipiell verläuft der Lernprozess wie bei den Perzeptronen: – Dem Netz werden Beispiele vorgelegt. – Stimmt der Ausgabevektor mit den erwarteten Werten überein, dann muss nichts gemacht werden. – Liegt aber ein Fehler vor, d. h. eine Differenz zwischen Ausgabe und Ziel, dann müssen die Gewichte angepasst werden.
Backpropagation Algorithmus • In einem Rückwärts-Check (Fehlerrückvermittlung) werden nun die einzelnen Gewichte im Netz (durch ) nach oben oder unten korrigiert. • Der Tendenz nach so, daß das Ergebnis im zurückverfolgten Traingsbeispiel richtiger geworden wäre. • Dies führt nach einer Anzahl von Trainingsbeispielen zu einem verbesserten Antwortverhalten des Netzes.
Backpropagation Algorithmus • Belege die Gewichte w 1. . . wn sowie die Schwellenwerte mit zufälligen Werten. • Wähle einen Eingabevektor aus, zu dem es eine Soll-Aktivierung gibt. – 1. Vorwärtsvermittlung: aktiviere die Eingabeschicht, danach schrittweise die Zwischenschichten 1. . m und anschließend die Ausgabeschicht – 2. Fehlerrückvermittlung: ermittle die -Werte für die Ausgabeschicht, danach schrittweise rückschreitend die -Werte für die Zwischenschichten m. . . 1 ändere die Gewichte und Schwellenwerte
Backpropagation Algorithmus kann folgendermaßen zusammengefaßt werden:
Backpropagation Algorithmus
Absteigender Gradient
Abbruchbedingungen • Anzahl der Iterationen • Schwellenwert für quadratischen Fehler – In Bezug auf Trainingsmenge (-> große Gefahr von Overfitting) – In Bezug auf separate Testmenge (-> Vermeidung von Overfitting!) = Cross. Validation • Schwellenwert für Veränderung zum vorigen Schritt
Probleme • Lokale Minima • Flache Plateaus
Verbesserungen • Momentum – Häufig wird ein zusätzlicher Faktor (Momentum) hinzugefügt: – Idee: • Überwindung flacher Plateaus • Evt. Auch Überwindung lokaler Maxima • Paralleles Training mit versch. Initialwerten
Netztopologie • Statische Topologie: – Topologie wird apriori festgelegt – eine verborgene Schicht reicht in vielen Anwendungen aus • Dynamische Topologie – dynamisches Hinzufügen von Neuronen (und verborgenen Schichten) – solange Klassifikationsgüte signifikant verbessert wird • Multiple Topologien – Trainieren mehrer dynamischer Netze parallel – z. B. je ein Netz mit 1, 2 und 3 verborgenen Schichten
Backward Netzwerke = mehrschichtige Netzwerke von Sigmoid-Einheiten • U. U. sehr lange Trainingsphase (mehrere Tausend Iterationen) • Nach Training extrem schnell • Große Ausdruckskraft: – Jede Boole‘sche Funktion kann durch ein 2 -schichtiges Netz (1 Hidden Layer) repräsentiert werden (-> disjunktive Normalform) – Jede beschränkte stetige Funktion kann beliebig durch ein 2 schichtiges Netz approximiert werden – Jede beliebige Funktion kann durch ein 3 -schichtiges Netz (2 Hidden Layers) beliebig approximiert werden
Anwendungsbeispiele • Texterkennung bei OCR Software, die sich auf gewisse Schriftformen trainieren läßt. • Auch bei der Handschrifterkennung für PDA´s (Personal Digital Assistant), wie dem Apple Newton, kommen NN zu Einsatz. • 1989: Erkennen von Postleitzahlen auf handgeschriebenen Briefumschlägen. – Das gesamte Netz benutzte nur 9760 Gewichte! – Das Netz wurde mit 7300 Beispielen trainiert und auf 2000 Beispielen getestet.
Gesichtserkennung
Gesichtserkennung
Aufgaben • Bitte installieren und testen Sie die Programme zur Gesichtserkennung (Linux!) • http: //www-2. cs. cmu. edu/~tom/faces. html • Bitte befolgen Sie dabei die Anleitung http: //www. cs. cmu. edu/afs/cs. cmu. edu/project/th eo-8/faceimages/docs/hw 97. ps • Bitte beschreiben Sie Ihre Erfahrungen: – Liess sich das Programm installieren? – Wie ist es zu bedienen? – Was/wie haben Sie das Programm ausprobiert und was waren die Resultate?
- Neuronale netze python
- Kap kap kape voda
- Apprendimento cognitivo
- Synapse neuro neuronale
- Machine learning definition tom mitchell
- Tom mitchell machine learning solutions chapter 3
- Machine learning t mitchell
- Bayessche netze
- Semantische netze wissensmanagement
- Biologiedidaktik grundlagen und methoden
- Concept learning task in machine learning
- Analytical learning in machine learning
- Pac learning model in machine learning
- Inductive and analytical learning
- Focl in machine learning
- Instance based learning in machine learning
- Inductive learning machine learning
- First order rule learning in machine learning
- Eager vs lazy
- Deep learning vs machine learning
- Cuadro comparativo e-learning y b-learning
- Kp fastigheter
- Birinci kap yemekler
- Kap dan pin
- Kap 140