Evrensel yaklaşım teoremi aracılığıyla, tek bir gizli katmanı ve keyfi bir aktivasyon fonksiyonu olan bir sinir ağının herhangi bir sürekli fonksiyona yaklaşabileceği bilinmektedir.
Evrensel işlev yaklaşıklayıcıları olan başka hangi modeller var?
Evrensel yaklaşım teoremi aracılığıyla, tek bir gizli katmanı ve keyfi bir aktivasyon fonksiyonu olan bir sinir ağının herhangi bir sürekli fonksiyona yaklaşabileceği bilinmektedir.
Evrensel işlev yaklaşıklayıcıları olan başka hangi modeller var?
Yanıtlar:
Bu, istatistik literatüründe, regresyon başlığı altında yoğun bir şekilde ele alınmaktadır. Buradaki iki standart referans Wasserman'ın "tüm parametrik olmayan istatistik" kitabı ve Tsybakov'un "parametrik olmayan tahmine giriş" dir. Bazı standart şeyler hakkında kısaca konuşacağım ve istatistiklerin dışında işaretçiler vermeye çalışacağım (bu ortak bir konudur ve farklı alanların farklı kültürleri vardır: farklı teoremleri kanıtlayın, farklı varsayımlar yapın).
(Çekirdek regresörleri, bazen Nadaraya-Watson Tahmincisi olarak adlandırılır.) Burada, fonksiyonu herhangi bir noktada yakındaki değerlerin ağırlıklı bir kombinasyonu olarak yazarsınız. Daha somut olarak, bu istatistik literatüründe olduğundan, genellikle bazı dağıtımlardan bazı örnekleriniz olduğunu ve bazı çekirdek K'yi düzeltebileceğinizi varsayalım (bunu şöyle düşünebilirsiniz) Gauss, ama sıfır ortalama) en önemli ve yazma nedir f ( x ) : = Σ i f ( x i buradacn→∞(narttıkçaküçük mesafelere daha duyarsınız). Garanti,n→∞ olarak, probilistik bir bozulma kriteri (sup-norm beklentisi, yüksek olasılık, ne olursa olsun) sıfıra gitmesidir. (K'ninneye benzediğipek fark etmez---cn'yinasıl seçtiğiniz daha önemlidir.)
(Baz yöntemleri.) Benzer bir şey formları vektör uzayı için bir (muhtemelen overcomplete) temelinde bu "baz fonksiyonları", fonksiyonlar lineer dalgacıklarıyla gibi şeyler ya çıkaran parça parça, ama gerçekten bazı şey ailesini seçmektir ve ağırlıklı doğrusal belirlemek ölçekli ve çevrilmiş öğelerin birleşimi. Buradaki teknikler (1) 'den büyük ölçüde farklıdır; veri noktalarında merkezlenen temel işlevleri aşağı doğru çizmektense, bazı bozulma kriterlerini en aza indirmek için her birinin ağırlığını ve yerini dikkatlice hesaplarsınız. (Tipik olarak, onların miktarı önsel sabittir.) Bir yaklaşım arasında bazı yaklaşım hatasını en aza indirmek için çalışırken açgözlülükle yeni fonksiyonlar eklemek "temeli peşinde" dir f ve f. Buradaki yaklaşımların çeşitliliği hakkında bir fikir edinmek için, düzgün bir yazı Rahimi & Recht'in "rastgele temelli işlevlerin tekdüze yaklaşımı" dır. Belki de bunların hepsinin büyük babasının Fourier genişlemesi olduğunu söylemeliyim; Mallat'ın Wavelets kitabında bu konuda çok iyi materyal var.
(Ağaç yöntemleri.) Diğer bir yol, bir fonksiyona ağaç olarak bakmaktır; her düzeyde, alan adının bir bölümüyle çalışıyorsunuz ve örneğin ortalama noktayı döndürüyorsunuz. (Ağacın her budaması da bir bölüm verir.) Sınırda, bu bölümün inceliği artık işlevi takdir etmeyecek ve tam olarak yeniden yapılandırdınız. Bu bölümün en iyi nasıl seçileceği zor bir sorundur. (Bunu "regresyon ağacı" altında Google'a ekleyebilirsiniz.)
(Polinom yöntemleri; ayrıca spline'lara ve diğer enterpolasyon tekniklerine bakın.) Taylor teoremine göre, iyi davranan fonksiyonlara keyfi olarak yaklaşabileceğinizi biliyorsunuz. Bu çok temel bir yaklaşım gibi görünebilir (yani, sadece Lagrange enterpolasyon polinomunu kullanın), ancak işlerin ilginçleştiği yer hangisinin olduğuna karar vermektir .enterpolasyona işaret eder. Bu, sayısal entegrasyon bağlamında kapsamlı bir şekilde araştırılmıştır; "clenshaw-curtis quadrature" ve "gaussian quadrature" başlıkları altında şaşırtıcı matematik bulabilirsiniz. Bunu buraya atıyorum çünkü buradaki varsayım ve teminat türleri yukarıda görünenden çok farklı. Bu alanı seviyorum ama bu yöntemler boyutun lanetinden çok kötü acı çekiyor, en azından bu yüzden eskiden olduğundan daha az tartışıldıklarını düşünüyorum (mathematica ile sayısal entegrasyon yaparsanız, tek değişkenli alanlar için kareleme yapar, ancak çok değişkenli alanlar için örnekleme teknikleri).
İşlev sınıfınızla ilgili çeşitli kısıtlamalar göz önüne alındığında, her türlü yaygın olarak kullanılan diğer senaryoları almak için yukarıdakileri başlatabilirsiniz. Örneğin, boole değerli işlevlerde, eşik (1.) en yakın komşu tahmincisi veya bazı yerel çekirdeğe (gaussian) sahip bir SVM'ye çok benzeyecektir. Yukarıdaki şeylerin çoğu boyutun lanetinden muzdariptir (sınırlar boyuta üstel bağımlılık gösterir). Makine öğreniminde, ya sınıfınızı bazı ailelerle açıkça sınırlandırarak (yani, "parametrik yöntemler) ya da örtük bir kısıtlamayla, genellikle yaklaşıkların kalitesini hedef işlev karmaşıklığına (ör. güçlendirmede zayıf öğrenme varsayımı).
(Sadece fonksiyon sınıfları hakkında sorular sordunuz, ama yöntemlerle de ilgileneceğinizi düşündüm. Değilse .. ayy)