Concept Learning n n rneklerden renme Hipotezlerin genelden

  • Slides: 50
Download presentation
Concept Learning

Concept Learning

n n Örneklerden öğrenme Hipotezlerin genelden özele doğru hazırlanması Aday eleme algoritması Tümevarımsal bakış

n n Örneklerden öğrenme Hipotezlerin genelden özele doğru hazırlanması Aday eleme algoritması Tümevarımsal bakış açısı

Öğrenme n n Spesifik eğitim verilerinden genel kavramların (kategorilerin) tanımlanması Örn: kuş nedir? Sandalye

Öğrenme n n Spesifik eğitim verilerinden genel kavramların (kategorilerin) tanımlanması Örn: kuş nedir? Sandalye nedir? Araba nedir?

Kavram (kategori) n n Kavram: benzer nesneleri gruplandırmak için kullanılan kategori olarak tanımlanabilir. Bir

Kavram (kategori) n n Kavram: benzer nesneleri gruplandırmak için kullanılan kategori olarak tanımlanabilir. Bir kategori, büyük bir kümeden tanımlanan olaylar ve nesneler alt kümesidir q örneğin bir kuş kategorisine giren tüm nesnelerin bir alt kümesidir. q Kuş: bu geniş veri kümesinde tanımlı boolean değerli bir fonksiyondur. (kuşlar için true, diğer hayvanlar için false sonucunu üretir) q Cars kümesinin elemanı, birds kümesi için negatif örnek, birds kümesinden bir eleman ise pozitif örnektir. Things Animals Cars Birds

Concept learning n Verilen bir grup örnek q q n seçilen bir kategorinin üyesidir

Concept learning n Verilen bir grup örnek q q n seçilen bir kategorinin üyesidir yada üyesi değildir Concept learning q q q kategorinin genel tanımını otomatik olarak çıkarmak. bir kategorinin sahip olduğu/olmadığı özellikleri belirlemek eğitim setlerindeki giriş ve çıkış verilerinden oluşan boolean-değerli fonksiyonu anlamak

Notasyon n Kavram (Concept) kümesine ait tüm nesneler örnek veriler(instances) olarak adlandırılır q n

Notasyon n Kavram (Concept) kümesine ait tüm nesneler örnek veriler(instances) olarak adlandırılır q n Öğrenilecek olan kategori, “hedef kategori” olarak adlandırılır. q n negatif örnekler tüm olası hipotezler q n pozitif örnekler c(x)=0 olduğu kategori üyesi olmayanlar q n örneklerden (X) ve bu örneklere ait hedef kategorilerden (c(x)) oluşur. c(x)=1 olduğu kategori üyeleri: q n c: X--> {0, 1} Eğitim verileri(training examples) kümesi q n X H, h H ve h(x)=c(x), X’deki tüm x değerleri için Concept learning’in amacı bir hipotez bulmaktır.

Concept Learning Example n Concept: q n su sporları için uygun günler (values: yes,

Concept Learning Example n Concept: q n su sporları için uygun günler (values: yes, no) Attributes/features: q q q sky (values: sunny, cloudy, rainy) Air. Temp (values: warm, cold) Humidity (values: normal, high) Wind (values: strong, weak) Water (values: warm, cool) Forecast (values: same, change)

Concept Learning Arama n n Concept Learning: tüm hipotez sınıfı içinde yapılan bir arama.

Concept Learning Arama n n Concept Learning: tüm hipotez sınıfı içinde yapılan bir arama. Amaç: geçerli eğitim verisi ile en iyi örtüşen hipotezi bulmak.

Örnek Uzayı

Örnek Uzayı

Concept Learning

Concept Learning

Hypothesis Space

Hypothesis Space

Hypothesis Space

Hypothesis Space

Örnekteki durum n Anlamlı Hipotez Sayısı : 1+4*3*3*3 = 973 n Concept learning işlemi

Örnekteki durum n Anlamlı Hipotez Sayısı : 1+4*3*3*3 = 973 n Concept learning işlemi bu ihtimalleri azaltma amaçlıdır. Bu amaç tam olarak gerçekleştiğinde oluşturulan sistem, bir insan gibi tahmin edebilecektir.

Eğitim Verileri n Örnek bir eğitim verisi: q <Sunny, Warm, High, Strong, Warm, Same,

Eğitim Verileri n Örnek bir eğitim verisi: q <Sunny, Warm, High, Strong, Warm, Same, Yes>

Hypothesis n n Hypothesis Space (H): Hedef kavramın öğrenilmesi boyunca hesaba katılabilecek tüm olası

Hypothesis n n Hypothesis Space (H): Hedef kavramın öğrenilmesi boyunca hesaba katılabilecek tüm olası hipotezler. (öğrenilecek tüm olası durumlar) Hipotez örneği: <? , Cold, High, ? , ? > q n (If the air temperature is cold and the humidity high then it is a good day for water sports) Hedef: q tüm olası hipotezler kümesinden “en iyi” kategori tanımının çıkarılması.

General&Specific Hypothesis n n Most General Hypothesis: q Hergün su sporları için uygundur. <?

General&Specific Hypothesis n n Most General Hypothesis: q Hergün su sporları için uygundur. <? , ? , ? , ? > q ? : nitelik herhangi bir değer alabilir demektir Most Specific Hypothesis: q Hiçbir gün su sporları için uygun değildir. <Ø , Ø , Ø , Ø > q Ø : hiçbir değer alamaz. iki hipotez göz önüne alındığında: - h 1 = <Sunny, ? , Ştrong, ? > - h 2 = <Sunny, ? , ? , ? > h 1: daha belirleyici (spesifik)

General&Specific Hypothesis n n Her hipotez, pozitif olarak sınıflandırdığı x’lerin yer aldığı, X’in bir

General&Specific Hypothesis n n Her hipotez, pozitif olarak sınıflandırdığı x’lerin yer aldığı, X’in bir alt kümesine aittir. H kümesinde okların yönü daha-genel ilişkisini ifade eder.

Örnek n n Diyelim ki bir grup arabadan bir C sınıfı öğrenmek istiyoruz. İnsanlar

Örnek n n Diyelim ki bir grup arabadan bir C sınıfı öğrenmek istiyoruz. İnsanlar arabalara bakıp arabaları aile arabası olanlar(pozitif) ve diğerleri(negatif) şekilde etiketleyecekler. Sonra ise daha önce hiç görmedikleri bir arabayı direk olarak pozitif yada negatif olarak sınıflayabilecekler. İnsanların bir aile arabasından bekledikleri şekilde bir çıkarım yapılabilir.

… n Sınıflandırıcı için giriş değerleri: q x 1: Fiyat, x 2: motor gücü

… n Sınıflandırıcı için giriş değerleri: q x 1: Fiyat, x 2: motor gücü

… n Eğitimden sonra bir C sınıfı şu kural ile ifade edilebilir: n Yukarıdaki

… n Eğitimden sonra bir C sınıfı şu kural ile ifade edilebilir: n Yukarıdaki şekilde ifade edilen kurallar birden fazla olabilirler. Bunlar birleşerek bu sınıf için hipotezleri oluştururlar. Hangi hipotezin daha iyi yaklaşıklık üreteceği değişkenlik gösterir. En iyi yaklaşıklık gösteren hipotez sınıfın belirlenmesinde en iyidir.

Hipotez sınıfı: H n n n Bizim örneğimizde hipotez sınıfı H, olası tüm dikdörtgenlerin

Hipotez sınıfı: H n n n Bizim örneğimizde hipotez sınıfı H, olası tüm dikdörtgenlerin kümesidir. Her dörtlü bir hipotezi tanımlar (h from H). En iyi olanı seçmeliyiz, diğer bir deyişle, tüm pozitif örnekleri içine alacak aynı zamanda hiç negatif örnek almayacak olan bu dört parametre değerlerini bulmamız gerek.

Hipotez sınıfı: H n Başka bir alternatif most specific hipotez S’i bulmaktır. q n

Hipotez sınıfı: H n Başka bir alternatif most specific hipotez S’i bulmaktır. q n G genel hipotezdir, q n Tüm pozitif değerleri içeren aynı zamanda hiç negatif değer içermeyen en dar dikdörtgendir. tüm pozitif değerleri içeren aynı zamanda negatif içermeyen çizilebilen en geniş dikdörtgendir. S ve G arasında verilen herhangi bir h hipotezi geçerli bir hipotezdir 0 hata ile sınıflayacaktır

Multiple Classes

Multiple Classes

Gürültü n Öğrenmek daha zor. q q q Giriş verilerinin özellikleri kaydedilirken beklenmedik durumlar

Gürültü n Öğrenmek daha zor. q q q Giriş verilerinin özellikleri kaydedilirken beklenmedik durumlar olabilir. Verileri etiketlerken istenmeyen durumlar olabilir(teacher noise). Hesaba katmadığımız ilave attribute’ler olabilir. Bu attribute’ler sınıf etiketlerini etkileyebilirler.

Gürültü n n Eğer gürültü varsa pozitif ve negatif arasında basit bir sınır yoktur.

Gürültü n n Eğer gürültü varsa pozitif ve negatif arasında basit bir sınır yoktur. Hipotezler sınıfında yer alanlardan daha karmaşık bir hipoteze ihtiyaç vardır. Bir diktörgen 4 sayı ile ifade edilebilir. Ama daha karmaşık bir model daha çok parametreye ihtiyaç duyacaktır. Hangisi daha iyi? q q Karmaşık bir modelde çok iyi öğrenme modeline örtüşme sağlanabilir ve sıfır hata ile öğrenilebilir Başka bir yol ise modeli bir miktar hata oranı ile yani şekildeki dikdörtgenle daha basit kurmaktır.

Hipotez Sınıfı Aramadaki Algoritmalar n n Find-S Candidate Elimination Algorithm (CEA)

Hipotez Sınıfı Aramadaki Algoritmalar n n Find-S Candidate Elimination Algorithm (CEA)

Find-S (Finding a maximally specific hypothesis) n n n H sınıfındaki olası en spesifik

Find-S (Finding a maximally specific hypothesis) n n n H sınıfındaki olası en spesifik hipotez h={ Ø, Ø, Ø, Ø} ile başla. Her bir pozitif eğitim verisi x için q h hipotezinin her bir attribute değeri için (ai) q Eğer h kümesinin elemanıyla aynı ise, h hipotezi üzerinde oynama yapma q Değilse VEYA işlemine tabii tut. Ve h hipotezini bu yönde değiştir Çıkış: h hipotezi

Find-S Örnek çalışma n n h={ Ø, Ø, Ø, Ø} ve ilk sıradaki eğitim

Find-S Örnek çalışma n n h={ Ø, Ø, Ø, Ø} ve ilk sıradaki eğitim verisi: x 1=<Sunny, Warm, High, Strong, Warm, Same, Yes> alındığında: h hipotezindeki hiçbir Ø durum x örneğindeki durum ile karşılanmaz o halde her biri daha genel olan x örneğinin özellikleri ile yer değiştirir (bu örneğe oturmak-fitting için). Bu eğitim verisi için nitelik değerleri şu şekli alır: q n İkinci eğitim verisi de pozitiftir ve h’da değişiklik yapılır. q q n x 2=<Sunny, Warm, High, Strong, Warm, Same, Yes> h<Sunny, Warm, ? , Strong, Warm, Same> Üçüncü eğitim verisi negatiftir ve h hipotezinde değişiklik yapılmaz. q n h <Sunny, Warm, Normal, Strong, Warm, Same> Find-S Algoritması basitçe negatif örnekleri dışlar. Dördüncü eğitim verisi pozitiftir ve h’da değişiklik yapılır. q h<Sunny, Warm, ? , Strong, ? >

Find-S n n Find-S ile yapılan hipotez uzayı araması. Arama h 0(en spesifik) ile

Find-S n n Find-S ile yapılan hipotez uzayı araması. Arama h 0(en spesifik) ile başlar h 4(en genel) devam eder. Örnek uzayı diagramında pozitif/negatif örnekler belirtilmiştir.

Find-S Dezavantajları n n n H hipotezlerinden indirgenerek bulunan yeni hipotezler, D kümesi (tüm

Find-S Dezavantajları n n n H hipotezlerinden indirgenerek bulunan yeni hipotezler, D kümesi (tüm durumlar) ile tutarlı olduğu farz edilir. Fakat Find-S, bu hipotez kümesinden farklı bir hipotez gelirse tutarlı hipotezler oluşturamaz. Diğer bir deyimle hedef fonksiyon, hipotez kümesi içerisindeyse Find-S ile bulunur. En spesifik duruma göre işlem yapmanın en doğru yol olduğu tartışılır. H a bağlı olarak, çeşitli en spesifik durum hipotezleri çıkabilir, Find-S bu hipotezleri geri dönerek işleyemez. Negatif eğitim örneklerinin dikkate alınmaması, hatalara yada ihtimallere karşı sağlam olmayan bir sistem oluşturur. Tüm tutarlı hipotez kümesini denetleyemediğinden bu hipotezler arasındaki ilişkileri belirleyemez, buna göre sonuçlar çıkaramaz.

Version Space ve CEA n Find-S ve CEA gürültü verileri eklendiği taktirde gösterdikleri düşük

Version Space ve CEA n Find-S ve CEA gürültü verileri eklendiği taktirde gösterdikleri düşük performans nedeni ile kısıtlı alanlarda tercih edilirler.

CEA n n CEA algiritması, geçerli eğitim verisi ile tutarlı olan tanımlanabilen tüm hipotezleri

CEA n n CEA algiritması, geçerli eğitim verisi ile tutarlı olan tanımlanabilen tüm hipotezleri bulur. Tanım: eğer hipotez h eğitim verileri ile tutarlı ise o zaman bu verileri doğru şekilde sınıflandırabilir.

Version Space (Tanımlama Uzayı) n n n CEA algoritması, geçerli eğitim verilerinin tümü ile

Version Space (Tanımlama Uzayı) n n n CEA algoritması, geçerli eğitim verilerinin tümü ile tutarlı olan hipotezleri temsil etmektedir. Tüm hipotezlerin bu alt kümesi version space olarak adlandırılır. Version spece (Tanımlama uzayı), oluşan en genel durum ve en spesifik durum arasındaki ilişkiyi belirler.

Specific/General Boundry n n The Specific boundary S: Hipotez alanı H ve eğitim verileri

Specific/General Boundry n n The Specific boundary S: Hipotez alanı H ve eğitim verileri D ye göre, q S, H’daki, D ile tutarlı en az genel (i. e. , maximally specific) elemanlardan oluşan kümedir. The General boundary G: Hipotez alanı H ve eğitim verileri D ye göre, q G, H’ın D ile tutarlı en genel üyeleridir.

Candidate Elimination Learning Algorithm n Algoritma ile: q Geçerli eğitim verileri ile tutarlı olan

Candidate Elimination Learning Algorithm n Algoritma ile: q Geçerli eğitim verileri ile tutarlı olan H kümesindeki hipotezleri kapsayan version space hesaplanır. n Tanımlama uzayını oluşturmaya ilk olarak tüm hipotezleri başlangıç durumuna set ederek başlar. n Bu sınır kümeleri bütün hipotez uzayını sınırlandırır. Tüm hipotezler hem G 0’dan daha özel hem de S 0’dan daha geneldirler. Her yeni eğitim verisi ile G ve S özelleştirilir ve genelleştirilir. Neden? Tüm örnekler işlendikten sonra hesaplanan tanımlama uzayı giriş verileri ile tutarlı olan hipotezleri kapsar. n n n

CEA Adımları n n G kümesini, H’daki en genel hipotezlerden oluşur şekilde başlangıç durumuna

CEA Adımları n n G kümesini, H’daki en genel hipotezlerden oluşur şekilde başlangıç durumuna getir. S kümesini H’daki maksimum spesifik hipotezlerden oluşur şekilde başlangıç durumuna getir. n n n G 0 {<? , ? , ? , ? >} S 0 {< , , , >} Bütün durumları içeren D eğitim örnekleri kümesinin herhangi bir d elemanı için; q Eğer d pozitif bir durumsa (örn: Hava güneşli ise, yüzme sporu yapılabilir gibi) n n q En genel durum bundan etkilenmez yani G değişmez. Fakat En spesifik durum değişir. Yeni gelen durum, bir önceki spesifik durumla VEYA işlemine tutulur. Eğer d negatif durumsa(örn: Rüzgar şiddetli olduğunda, spor yapılamaz gibi) n n En spesifik durum bundan etkilenmez. Yani S değişmez. Fakat en genel durum değişir.

CEA Çalışma Örneği-Trace 1 n n 1 ve 2. eğitim verileri S sınırını daha

CEA Çalışma Örneği-Trace 1 n n 1 ve 2. eğitim verileri S sınırını daha genel olması için zorlarlar. G sınırı üzerinde ise etkileri olmaz

Trace 2 n n n 3. eğitim verisi negatif bir örnektir ve G 2

Trace 2 n n n 3. eğitim verisi negatif bir örnektir ve G 2 sınırını spesifikleşmesi için zorlar. G 3 kümesinin elemanları arasında neden <? , normal, ? , ? > yada <rainy, ? , ? , ? >yoktur? Çünkü bunlar bir önceki pozitif elemanları kapsayan S sınır kümesi ile tutarlı değillerdir.

Trace 3 n n 4. pozitif eğitim verisi S sınırını S 3’ten S 4’e

Trace 3 n n 4. pozitif eğitim verisi S sınırını S 3’ten S 4’e genelleştirir. Yeni S 4’e göre daha genel olmayan G 3 elemanı ise silinir.

Enjoy. Sport concept learning problemi için final tanımlama uzayı. n S 4 ve G

Enjoy. Sport concept learning problemi için final tanımlama uzayı. n S 4 ve G 4 sınırları ile version space sınırlandırılır.

Inductive Bias n Örneklerden bir boolean fonksiyonu öğrenmek: n Her ayrı eğitim örneği hipotezlerin

Inductive Bias n Örneklerden bir boolean fonksiyonu öğrenmek: n Her ayrı eğitim örneği hipotezlerin yarısını çıkartır (tahminleri yanlış olanları) x 1=0, x 2=1 ve çıkış=0 ise hipotezlerini çıkarır. Tüm olası hipotezlerle başlanır ve daha çok eğitim verisi gördükçe örtüşmeyen hipotezler çıkarılır. Eğer bize verilen eğitim kümesi olası tüm örneklerin sadece küçük bir kümesini kapsıyorsa, genelde olduğu gibi- çıkışın ne olması gerektiğini sadece giriş verilerinin küçük bir yüzdesi için biliyorsak- çözüm tekil değildir. N tane örnek durumu gördükten sonra geriye olası fonksiyon kalır. Bu bir “illposed” problem örneğidir. Bu problemde veri tek başına tekil bir çözüme erişmek için yeterli değildir. n n

Inductive Bias n n Eğer öğrenme ill-posed ise, veri kendi başına tekil çözüm için

Inductive Bias n n Eğer öğrenme ill-posed ise, veri kendi başına tekil çözüm için yetersiz ise, o zaman bazı ekstra varsayımlar yapmamız gerekir. Bu varsayımların kümesi, öğrenme algoritmasının “inductive bias”’ı olarak adlandırılır.

Model Seçimi ve Genelleme n n inductive bias olmadan öğrenmek mümkün değildir. O zaman

Model Seçimi ve Genelleme n n inductive bias olmadan öğrenmek mümkün değildir. O zaman şimdi soru doğru bias’ın nasıl seçileceğidir. Bu model seçimi olarak adlandırılır ve olası H(hipotez kümeleri) arasından seçim yapmaktır. Bu sorunun cevabı için makine öğrenmesinin amacı hatırlanmalıdır: q bugünkü durumlara bakarak gelecek durumları doğru kestirebilmek. q Yani bir giriş için doğru çıkışı üretebiliyor olmamız gerekir. Eğitim verisinde biri için doğru çıkış verilmemiş ise eğitim seti üzerinde iyi eğitilmiş olan bir model yeni girişler için doğru çıkışları üretebilmelidir. Bu genelleme olarak adlandırılır.

Underfitting-Overfitting n n Özelliklerin seçimi algoritmanın çalışmasında etkili olacaktır. Makine öğrenmesinde eğitim verilerine tam

Underfitting-Overfitting n n Özelliklerin seçimi algoritmanın çalışmasında etkili olacaktır. Makine öğrenmesinde eğitim verilerine tam oturan en basit modeli bulmak isteriz. q n Just right (not under/overfit) Ancak bu durumda gelecek tahminler doğru yapılabilir.

triple-trade-off n n n Verilen bir eğitim seti ve H (hipotez sınıfında), en düşük

triple-trade-off n n n Verilen bir eğitim seti ve H (hipotez sınıfında), en düşük eğitim hatasına sahip ’ı bulabiliriz. Fakat eğer H düzgün seçilmemiş ise, hangi h’ı seçersek seçelim iyi bir genelleme elde edemeyiz. Tüm öğrenme algoritmalarında, 3 faktör arasında bir trade-off vardır: q q q hipotezin kompleksliği yani hipotez sınıfının kapasitesi eğitim setinin büyüklüğü yeni örnekler üzerinde genelleme hatası

Cross-validation n n Bir hipotezin genelleme kabiliyetini ölçebiliriz. Bunu veri setini ikiye ayırarak yaparız.

Cross-validation n n Bir hipotezin genelleme kabiliyetini ölçebiliriz. Bunu veri setini ikiye ayırarak yaparız. q q n n Training set Validation set Training to fit hipotez Validation genelleme için Validation set üzerindeki en doğru hipotez sınıfı en iyisidir. Modelin ne kadar iyi öğrendiğini test etmek için kullanılan bu işlem cross-validation olarak bilinir.

Cross-validation n Kurduğumuz modelin hata payı için validation error değeri kullanılmaz. Validation set en

Cross-validation n Kurduğumuz modelin hata payı için validation error değeri kullanılmaz. Validation set en iyi modelin seçilmesinde kullanılmıştır. Bu durumda 3. bir kümeye ihtiyaç vardır: q n n n training set: Öğretmenin konuyu öğretirken sınıfta çözdüğü problemler, validation test: sınav soruları Test set: daha sonra tek başımıza çözdüğümüz sorular q q q n Test set : Eğitimde veya validation da kullanılmamış verilerden oluşur. Training Set: %50 Validation Set: %25 Test Set: %25 Validation set bir kez kullanıldıktan sonra training setin parçası haline gelir. q Her yıl aynı sorular sorulursa öğrenciler öğrenmeden sadece çıkan soruları öğrenerek başarılı sayılabilirler. Sadece bu soruların cevaplarını ezberlerler.

Dimensions of ML Algorithm

Dimensions of ML Algorithm

Örnek Supervised Learning m 2 oda sayısı 250 3 140 2 150 3 90

Örnek Supervised Learning m 2 oda sayısı 250 3 140 2 150 3 90 2 180 4. . n n n fiyat 400 230 310 170 240. . m=47 inputs x: input variables/features y: output variables/target (x, y): training example n: özellik sayısı

References n n T. M. Mitchell, Machine Learning, Mc. Graw Hill, 1997. E. Alpaydin,

References n n T. M. Mitchell, Machine Learning, Mc. Graw Hill, 1997. E. Alpaydin, Introduction to Machine Learning, MIT Press, 2010.