LEARNING Theory and Algorithm Nelly Indriani Widiastuti M

  • Slides: 28
Download presentation
LEARNING Theory and Algorithm Nelly Indriani Widiastuti M. T.

LEARNING Theory and Algorithm Nelly Indriani Widiastuti M. T.

Pokok Bahasan • Pengenalan • Artificial Neural Network • Learning Vector Quantization

Pokok Bahasan • Pengenalan • Artificial Neural Network • Learning Vector Quantization

LEARNING • Learning sangat penting untuk lingkungan tidak diketahui, i. e. , designer tidak

LEARNING • Learning sangat penting untuk lingkungan tidak diketahui, i. e. , designer tidak omniscience • Learning berguna sebagai metode konstruksi sistem i. e. , membuat agent mengenali realitas daripada merinci satu per satu • Learning memodifikasi mekanisme pengambilan keputusan sebuah agen untuk meningkatkan performa

Learning Agent Critics Sensors Changes Performance element Learning Element Learning Goals Knowledge Experiments Problem

Learning Agent Critics Sensors Changes Performance element Learning Element Learning Goals Knowledge Experiments Problem Generator Effectors Environment Feedback

TYPE LEARNING Learning from experience (pengalaman) • Mengingat persepsi, kondisi dan aksi yang lalu

TYPE LEARNING Learning from experience (pengalaman) • Mengingat persepsi, kondisi dan aksi yang lalu • Generalisasi , identifikasi pengalaman yang serupa Forecasting (peramalan) • Perkiraan perubahan dalam lingkungan Theories (Rule Based) • generasi model kompleks berdasarkan pengamatan dan penalaran

Type of Feedback Supervised learning • Jawaban benar untuk tiap contoh Unsupervised learning •

Type of Feedback Supervised learning • Jawaban benar untuk tiap contoh Unsupervised learning • Jawaban yang benar tidak diberikan Reinforcement learning • Occasional reward

Supervised learning • • Mencari suatu fungsi yang sesuai dengan contoh dari himpunan sample

Supervised learning • • Mencari suatu fungsi yang sesuai dengan contoh dari himpunan sample ( Data training ) Contoh : Backpropagation Hebb Rule Perceptron LVQ

Unsupervised learning • Atau Jaringan Kohonen • Belajar dari pola yang tidak berkaitan dengan

Unsupervised learning • Atau Jaringan Kohonen • Belajar dari pola yang tidak berkaitan dengan nilai output : clustering

Clustering • Tidak perlu melatih metoda tersebut atau dengan kata lain, tidak ada fase

Clustering • Tidak perlu melatih metoda tersebut atau dengan kata lain, tidak ada fase learning. • Mengelompokkan obyek-obyek data hanya berdasarkan pada informasi yang terdapat pada data, yang menjelaskan obyek dan relasinya Intra-cluster distances are minimized Inter-cluster distances are maximized

Reinforcement learning • Output tidak diketahui secara pasti untuk suatu input, tapi menerima feedback

Reinforcement learning • Output tidak diketahui secara pasti untuk suatu input, tapi menerima feedback Feedback : entitas luar, lingkungan, atau agent itu sendiri. Feedback mungkin tertunda, dan tidak mengikuti masing aksi secara langsung.

RL Framework Environment evaluation State Agent • Belajar dari interaksi terdekat • Stochastic environment

RL Framework Environment evaluation State Agent • Belajar dari interaksi terdekat • Stochastic environment Action

ARTIFICIAL NEURAL NETWORK

ARTIFICIAL NEURAL NETWORK

Sejarah 1943: Model Neural Network • bertemunya beberapa unit input akan memberikan computational power

Sejarah 1943: Model Neural Network • bertemunya beberapa unit input akan memberikan computational power • Adanya threshold Warren S. Mcculloch Walter Pitts 1949 : learning rule • alasan bahwa jika 2 neurons aktif pada saat yang bersamaan maka kekuatan antar mereka akan bertambah Donaldo Hebb

A Neuron • Axon : keluaran • Synapse : penerima sinyal • Sebuah neuron

A Neuron • Axon : keluaran • Synapse : penerima sinyal • Sebuah neuron memiliki 1000 -10. 000 synapse

Konsep dasar model Neural Network

Konsep dasar model Neural Network

Model Neuron tanpa Bias Masukan /Inputs p 1 w 1 Penjumlahan n=Σpi. wi p

Model Neuron tanpa Bias Masukan /Inputs p 1 w 1 Penjumlahan n=Σpi. wi p 2 w 2. Σ . . wi pi Fungsi Aktifasi Bobot/Weight = bisa diatur F(y) a=f(n)

Model Neuron dengan Bias Masukan /Inputs p 1 w 1 p 2 w 2.

Model Neuron dengan Bias Masukan /Inputs p 1 w 1 p 2 w 2. Penjumlahan Fungsi Aktivasi n=Σpi. wi F(y) Σ . . wi pi b (Bias)=Fix Bobot/Weight = bisa diatur a=f(n)

Ilustrasi Kasus

Ilustrasi Kasus

Ilustrasi Proses

Ilustrasi Proses

Learning Vector Quantization •

Learning Vector Quantization •

Pengenalan • Suatu metode jaringan syaraf tiruan untuk melakukan pembelajaran pada lapisan kompetitif. •

Pengenalan • Suatu metode jaringan syaraf tiruan untuk melakukan pembelajaran pada lapisan kompetitif. • Suatu lapisan kompetitif akan secara otomatis belajar untuk mengklasifikasikan vektor-vektor input. • Kelas-kelas yang didapatkan sebagai hasil dari lapisan kompetitif ini hanya tergantung pada jarak antara vektor-vektor input. • Jika dua vektor input mendekati sama, maka lapisan kompetitif akan meletakan kedua vektor input tersebut ke dalam kelas yang sama • Learning vector quantization termasuk jaringan syaraf dengan tipe arsitektur jaringan lapis - tunggal umpan-maju (Single Layer Feedforward) yang terdiri atas lapisan masukan dan lapisan keluaran

Arsitektur LVQ X 1 -X 6 : Data masukan W : Vektor Bobot W

Arsitektur LVQ X 1 -X 6 : Data masukan W : Vektor Bobot W 1 : Vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron pertama pada lapisan keluaran W 2 : Vektor bobot yang menghubungkan setiap neuron pada lapisan masukan ke neuron kedua pada lapisan keluaran X-W : Perhitungan yang bertindak sebagai badan sel F : Fungsi Aktivasi Y : Data keluaran

Algoritma LVQ Fausett, 1994): 1. Tetapkan nilai - nilai : a. b. c. d.

Algoritma LVQ Fausett, 1994): 1. Tetapkan nilai - nilai : a. b. c. d. 2. Bobot awal (Wij); i = bobot ke-i; j = variabel masukan bobot ke-j; Maksimum iterasi (epoh) : Max. Epoh; Parameter learning rate(α); Error minimum yang diharapkan (Eps). Masukan nilai - nilai : a. Masukan : x(m, n); m = menunjukkan data ke-m; n = menunjukkan variabel masukan ke-n; b. Target : T(1, n); 3. Tetapkan kondisi awal : a. epoh=0; b. err=1.