Karar Aalar le Snflandrma Yrd Do Dr Ayhan

  • Slides: 13
Download presentation
Karar Ağaçları İle Sınıflandırma Yrd. Doç. Dr. Ayhan Demiriz 14 Mart 2006

Karar Ağaçları İle Sınıflandırma Yrd. Doç. Dr. Ayhan Demiriz 14 Mart 2006

Karar Ağaçları İle Sınıflandırma Yaş < 27. 5 Araç Tipi {Spor} Yüksek Sayısal Kategorik

Karar Ağaçları İle Sınıflandırma Yaş < 27. 5 Araç Tipi {Spor} Yüksek Sayısal Kategorik Düşük Yaş=40, Araç Tipi=Sedan Sınıf=Düşük

Örnek Veri Seti

Örnek Veri Seti

Örnek Karar Ağacı yaş? <=30 öğrenci? hayır evet overcast 31. . 40 evet >40

Örnek Karar Ağacı yaş? <=30 öğrenci? hayır evet overcast 31. . 40 evet >40 kredi durumu? mükemmel vasat hayır evet

Karar Ağaçları İçin Bir Algoritma l l Temel Algoritma (miyobik bir algoritma) l Karar

Karar Ağaçları İçin Bir Algoritma l l Temel Algoritma (miyobik bir algoritma) l Karar ağacı yukarıdan aşağıya, yinelemeli olarak böl ve kazan yöntemine göre inşa edilirler. l Başlangıçta bütün noktalar ağacın kökünde toplanmaktadır l Kategorik veriler kullanılır, sürekli değişkenlerin önceden kesikli hale getirilmesi gerekir. l Örnekler, seçilen değişkenlere (karakteristik) göre yinelemeli olarak bölümlenir l Değişkenlerin seçimi sezgisel veya belli bir istatistiksel ölçüye (mesela bilgi kazanımı) dayanır Bölümlemenin durması için şartlar l Bir düğümde bulunan bütün örnekler aynı sınıfa aittir l Bölümlenin yapılacağı değişken kalmamıştır. Yani o düğüme (yaprak) gelene kadar bütün değişkenler kullanılmıştır. l Başka örnek kalmamıştır.

Değişken Seçimi Ölçüsü: Bilgi Kazanımı (ID 3/C 4. 5) n n n En yüksek

Değişken Seçimi Ölçüsü: Bilgi Kazanımı (ID 3/C 4. 5) n n n En yüksek bilgi kazanımını veren değişkeni seç S, Ci sınıfından si satır içerir. i = {1, …, m} Herhangi bir satırı sınıflandırmak için gereken bilgi Bir A değişkenin {a 1, a 2, …, av} değerleri ile düzensizliği (entropi) A değişkeni kullanılarak ağacın dallanmasıyla kazanılan bilgi

Değişken Seçimi Ölçüsü: Bilgi Kazanımı - Hesaplama P Sınıfı: Bilgisayar Alır? = “evet” g

Değişken Seçimi Ölçüsü: Bilgi Kazanımı - Hesaplama P Sınıfı: Bilgisayar Alır? = “evet” g N Sınıfı: Bilgisayar Alır? = “no” g I(p, n) = I(9, 5) =0. 940 g Yaş için entropiyi hesaplayalım: g ‘ın manası, 14 örnekten, 2’si evet ve 3’ü de hayır olmak üzere toplam 5 “yaş <=30” örneği vardır. Böylece Buna benzer,

Diğer Değişken Seçme Ölçüleri l Gini indeks (CART, IBM Intelligent. Miner) l Bütün değişkenlerin

Diğer Değişken Seçme Ölçüleri l Gini indeks (CART, IBM Intelligent. Miner) l Bütün değişkenlerin sürekli olduğu varsayılır l Her değişken için mümkün olan birçok ayrımın olduğu varsayılır l Değişkenlerin ayrım noktaları için gruplama gibi diğer araçlara ihtiyaç duyulabilir l Kategorik değişkenler için kullanıldığında değiştirilmelidir

Gini Indeks (CART v. d. ) l Eğer bir T veri seti n farklı

Gini Indeks (CART v. d. ) l Eğer bir T veri seti n farklı sınıftan N örnek içeriyorsa, gini indeks, gini(T) aşağıdaki gibi hesaplanır, pj, j sınıfının T içindeki izafi sıklığını ifade eder l Eğer T veri seti T 1 ve T 2 olarak sırasıyla N 1 ve N 2 büyüklüğünde ikiye ayrılırsa, ayrılan veri için gini indeksi l En düşük gini değerini veren ayrıma sahip degişken seçilir

Ağaç yapılarından kuralların çıkarımı l Bilgiyi Eğer-O Zaman kuralları ile temsil et l Kökten

Ağaç yapılarından kuralların çıkarımı l Bilgiyi Eğer-O Zaman kuralları ile temsil et l Kökten yapraklara giden heryol için bir kural üretilir l Bir yol üzerindeki her bir değişken-değer çifti bir bağlaç oluşturur l Yapraklar sınıf tahminini içerir l Kuralların analşılması çok kolaydır l Örnek Eğer yaş = “<=30” ve öğrenci = “hayır” O Zaman Bilgisayar Alır? = “hayır” Eğer yaş = “<=30” ve öğrenci = “evet” O Zaman Bilgisayar Alır? = “evet” Eğer yaş = “ 31… 40” O Zaman Bilgisayar Alır? = “evet” Eğer yaş = “>40” ve kredi durumu = “mükemmel” O Zaman Bilgisayar Alır? = “evet” Eğer yaş = “<=30” ve kredi durumu = “vasat” O Zaman Bilgisayar Alır? = “hayır”

Sınıflandırmada Aşırı Öğrenmeden Kaçınma l Öğrenme seti kullanılarak tümevarım ile bulunmuş bir karar ağacı

Sınıflandırmada Aşırı Öğrenmeden Kaçınma l Öğrenme seti kullanılarak tümevarım ile bulunmuş bir karar ağacı aşırı öğrenmiş olabilir l l l Verideki gürültüden ve sapmalardan ötürü çok fazla dal mevcut olabilir Görülmeyen veriler için çok zayıf bir tahmin yeteneği olabilir Aşırı öğrenmeden kaçınmak için iki yol l l Önceden budama: Ağaç en büyük şekline ulaşmadan öğrenmenin durdurulması Ağaç tam büyüklüğe ulaştıktan sonra budanması