Destek Vektör Makinesi ( SVM )
Destek vektör makineleri sınıflandırma problemlerinde kullanılan oldukça etkili ve basit yöntemlerden birisidir. 1963 yılında Vladimir Vapnik ve Alexey Chervonenkis tarafından temelleri atılan “Destek Vektör Makineleri ” istatiksel yöntemlere dayalı bir gözetimli öğrenme algoritmasıdır.
NASIL ÇALIŞIR?
İki etiketlenmiş sınıfı ayıran en iyi çizgiyi bulmaya çalışır. Algoritma çizilecek doğrunun iki sınıfında elemanlarına en uzak yerden geçecek şekilde optimize eder. Hiçbir parametre almayan bir sınıflayıcıdır.
SVM hem doğrusal hem doğrusal olmayan verileride kullanılabilir ancak genellikle verileri doğrusal olarak sınıflandırmaya çalışır.
Doğru Çizim Methodları
- Maksimum Marjin (Uzaklık)
2. Geometrik Marjin
Doğrusal Olmayan Destek Vektör Makineleri
Verilerimiz doğrusal olarak ayrılmıyorsa çekirdek hilesi olarak adlandırılan kernel trick’ler kullanılır.
Kernel Trick (Kernel Hilesi )
SVM’nin verileri doğrusal olarak sınıflandırmadığı durumlarda bu yöntem kullanılır. Veri boyutunda fazladan bir boyut daha eklenir ardından SVM veri uzayında bir düzlem oluşturur böylece veriler doğrusal olarak ayrılmış olur.
Çekirdek yöntemi, doğrusal olmayan verilerde makine öğrenimini yüksek oranda arttırmaktadır.
En çok kullanılan çekirdek yöntemleri:
- Polynomial Kernel
- Gaussian RBF (Radial Basis Function) Kernel
AVANTAJLAR & DEZAVANTAJLAR
AVANTAJLAR
- Overfittin( aşırı öğrenme ) sorunu olmaz
- Yüksek doğruluk
- Çok sayıda bağımsız değişkenler çalışabilir
- Karmaşık sınırları modelleme
DEZAVANTAJLAR
- Sınıf olasılığı üretememe
- Çekirdek fonksiyonları pozitif tanımlı sürekli fonksiyon olmalı
KAYNAKLAR: