​Denetimli Makine Öğrenmesi Algoritmaları

23.01.2018

Veribilimi, Harvard Business Review’da "21. Yüzyılın En Seksi Mesleği" olarak seçildikten sonra Makine Öğrenmesi Algoritmaları alanında büyük bir yükseliş oldu.

1. Doğrusal Regresyon: Makine Öğrenimi’nde bir dizi girdi değişkenine (x) sahibizdir ve bu değişkenler çıktı değişkenini (Y) belirlemek için kullanılır. Girdi ve çıktı değişkenleri arasında her daim bir ilişki bulunur. Makine Öğrenimi’nin amacı bu ilişkiyi ölçmektir.

​Denetimli Makine Öğrenmesi Algoritmaları

Tablo 1: Doğrusal Regresyon

Doğrusal Regresyon, y = ax + b şeklinde bir çizgi olarak gösterilir.

Doğrusal Regresyon’da, girdi değişkenleri (x) ile çıktı değişkeni (y) arasındaki ilişki, y = ax + b biçimindeki bir denklem olarak ifade edilir. Doğrusal regresyonun amacı, a ve b katsayılarının değerlerini bulmaktır. Burada ‘a’ kesişim, ‘b’ çizgi eğimidir. Tablo 1, bir veri kümesi için çizilen x ve y değerlerini göstermektedir. Hedef, puanların çoğuna en yakın olan bir satıra uymaktır. Bu, bir veri noktasının y değeri ile satır arasındaki mesafeyi, “hata”yı azaltacaktır.

2. Lojistik Regresyon: Doğrusal Regresyon tahminleri değişmekte olan değerler verir – Metrekareye düşen yağmur miktarı gibi. Lojistik Regresyon dönüşüm işlevinden sonra ortaya çıkardığı varsayımlar daha katıdır – Bir öğrencinin dersten geçip/kalması gibi.

Lojistik Regresyon ikili sınıflandırma için en uygun teoremdir. (y = 0 ya da 1 değerlerinde 1 varsayılan sınıfı belirtir. Örnek: Bir olayın meydana gelip gelmeyeceğini tahmin ederken, meydana gelen olay 1 olarak sınıflandırılır. Bir kişinin hasta olup olmayacağını tahmin ederken, hasta örnekleri 1 olarak adlandırılır. Bu teoremde S biçimli bir eğri olan Lojistik Fonksiyon – h(x)= 1/ (1 + e^x) – kullanıldığı için bu adı almıştır.

Lojistik Regresyon sonuçları, varsayılan sınıfın olasılıkları biçimindedir. Doğrusal Regresyon sonuçlarıysa doğrudan üretilir. Sonuç bir olasılık olduğu için, 0-1 aralığında bulunur. Sonuç (y-değeri) lojistik fonksiyonu h (x) = 1 / (1 + e ^ -x) kullanılarak x-değerinin log dönüşümüyle üretilir. Daha sonra bu ihtimali ikili bir sınıflandırmaya zorlamak için bir eşlik seviyesi uygulanır.

​Denetimli Makine Öğrenmesi Algoritmaları

Tablo 2: Bir tümörün iyi ya da kötü huylu olduğunu hesaplamada kullanılan Lojistik Regresyon

Bir tümörün iyi ya da kötü huylu olduğunu hesaplamada Lojistik Regresyon kullanılır. Eğer olasılık h(x)>= 0.5 ise tümör kötü huyludur.

Tablo 2'de, bir tümörün kötü huylu olup olmadığını belirlemek için, varsayılan değişken y = 1 (tümör = kötü huylu) olurken x değişkeni tümörün büyüklüğü gibi tümörün bir ölçüsü olabilir. Şekilde gösterildiği üzere lojistik fonksiyon, veri kümesinin çeşitli örneklerinin x-değerini 0 ila 1 aralığına dönüştürür. Olasılık 0.5 eşiğini (yatay çizgi ile gösterilir) geçerse, tümör kötü huylu olarak sınıflandırılır.

Lojistik Regresyon eşitliği P(x) = e ^ (b0 +b1*x) / (1 + e^(b0 + b1*x)) ise, ln(p(x) / 1-p(x)) = b0 + b1*x haline dönüşebilir.

Lojistik regresyonun amacı, tahmin edilen sonuç ile fiili sonuç arasındaki hatayı en aza indirecek şekilde katsayıların b0 ve b1 değerlerini bulmak için eğitim verilerini kullanmaktır. Bu katsayılar, Maksimum Olabilirlik Kestirimi tekniği kullanılarak tahmin edilmektedir.

3. CART: Sınıflandırma ve Regresyon Ağaçları (CART); ID3, C4.5 gibi Karar Ağaçları’nın farklı bir versiyonudur.

Kök düğüm ve iç düğüm, terminal dışı düğümlerdir. Yaprak düğümlerse terminal düğümlerdir. Her terminal dışı düğüm tek bir girdi değişkenini (x) temsil ederken yaprak düğüm sonuç değişkenini (y) temsil eder.

Bu teorem, tahminler yapmak için şu şekilde kullanılır: bir yaprak düğümüne varmak için ağaç parçacıkları yürütülür ve yaprak düğümünde bulunan sonuca varılır.

Tablo 3'teki karar ağacı, bir kişinin yaşına ve medeni haline bağlı olarak spor bir araba mı yoksa minivan mı alacağını sınıflandırıyor. Kişi 30 yaşından büyükse ve evli değilse, şöyle diyebiliriz: '30 yaşından fazla? -> evet -> 'evli?' -> hayır. Bu durumda modelin varacağı sonuç, spor araba olur.

​Denetimli Makine Öğrenmesi Algoritmaları

Tablo 3: Karar Ağacının Dalları

4. Naïve (Naif) Bayes Sınıflandırıcı: Bu teoremde bir olayın meydana gelme ihtimalini hesaplarken başka bir olayın ortaya çıkışını göz önüne alırız. Bir değişkenin sonuçlarını, yani bir hipotezin (h) gerçek olma olasılığını hesaplarken önceden edinilen bilgiler (d) bu teoremle şöyle kullanılır;

Hava Oyun

Güneşli Hayır

Bulutlu Evet

Yağmurlu Evet

Güneşli Evet

Güneşli Evet

Bulutlu Evet

Yağmurlu Hayır

Yağmurlu Hayır

Güneşli Evet

Yağmurlu Evet

Güneşli Hayır

Bulutlu Evet

Bulutlu Evet

Yağmurlu Hayır

Tablo 4: 'Hava Durumu'

Hava durumu değişkenini kullanarak 'Oyun' sonucunu tahmin etmek için Naive Bayes'i kullanalım. Tablo 4'ten yola çıkarak hava durumu 'güneşli' ise sonuç ne olur?

P(h|d)= (P(d|h) * P(h)) / P(d)

burada;

P(h|d) = Sonsal Olasılık. Verilen d bilgisi dahilinde, h hipotezinin gerçek olma olasılığı şöyle hesaplanır: P(h|d)= P(d1| h)* P(d2| h)*....*P(dn| h)* P(d)

P(d|h) = Olasılık. h hipotezinin gerçek olması durumunda verilen d bilgisinin olasılığı.

P(h) = Hipotez Öncelikli Olasılık. h hipotezinin gerçek olma durumunun olasılığı – d bilgisi dikkate alınmaz.

P(d) = Öngörü Öncelikli Olasılık. d bilgisinin olasılığı – h hipotezi dikkate alınmaz.

Bu algoritmaya "naif" denir çünkü tüm değişkenlerin birbirinden bağımsız olduğunu varsayar ve gerçek dünyayla ilgili de naif öngörülerde bulunabilir.

Farklı ‘güneşli’ hava durumlarıyla verilen O (evet | güneşli) ve O (hayır | güneşli) değerlerini dikkate alarak muhtemel sonucu bulalım;

-> O (evet | güneşli) = (O (güneşli evet) * O (evet)) / O (güneşli)

= (3/9 * 9/14) / (5/14)

= 0.60

-> O (hayır | güneşli) = (O (güneşli | hayır) * O (hayır)) / O (güneşli)

= (2/5 * 5/14) / (5/14)

= 0.40

Böylece, hava = 'güneşli' ise, sonuç OYUN = 'evet' olur.

5. En Yakın Komşu Algoritmaları (KNN) : Bu algoritmada, veri setini bir eğitim seti ve test seti olarak bölmek yerine, tüm veri seti eğitim seti olarak kullanılır.

Bu algoritmada yeni bir veri örneği için bir sonuç ortaya çıktığında, yeni örneğe en yakın örnekleri bulmak için tüm veri kümesi taranır veya yeni kayıta en çok benzeyen örneklerin K sayısı belirlenir. Ardından örneğin bir regresyon problemi için sonuçların ortalaması veya modu (en sık sınıf) çıkarılır. K'nin değeri kullanıcı tarafından belirlenir.

Örnekler arasındaki benzerlik, Öklid uzaklığı ve Hamming mesafesi gibi ölçütler kullanılarak hesaplanır.

Bizi Takip Edin

Çıkıyor Gibisiniz...

Blog'umuzu daha iyi bir seviyeye getirmek için bilmek isteriz:

  • Başka bir neden

Fikirleriniz Bizim İçin Önemli...

Blog'umuzu daha iyi bir seviyeye getirmek için bilmek isteriz:

  • Başka bir neden