1
ReLU aktivasyonu SVM'ye eşit olan tek katmanlı NeuralNetwork?
Diyelim ki n girdi ve tek çıktı (ikili sınıflandırma görevi) olan basit bir tek katmanlı sinir ağım var. Çıkış düğümündeki etkinleştirme işlevini sigmoid işlevi olarak ayarlarsam, sonuç Lojistik Regresyon sınıflandırıcısı olur. Aynı senaryoda, çıkış etkinleştirme işlemini ReLU (düzeltilmiş doğrusal birim) olarak değiştirirsem, sonuçtaki yapı bir SVM ile aynı mı yoksa …