Gauss süreci (regresyon) evrensel yaklaşım özelliğine sahip mi?


10

A ve b'nin gerçek sayılar olduğu [a, b] üzerindeki herhangi bir sürekli işlev Gauss Süreçleri (Regresyon) tarafından işleve (bazı normlarda) yaklaşık olarak yakın olabilir veya keyfi olarak yakın olabilir mi?


1
Daha spesifik ol!
Henry.L

1
Evet! Aslında, kovaryans fonksiyonuna bağlıdır, ancak bazıları için yaparlar . Dustin Tran ve diğ. aynı zamanda , çözgü fonksiyonlarından dolayı daha karmaşık bir model olan Varyasyonel Gauss Süreci için Bayesci çerçevede evrensel bir yaklaşım teoremini kanıtlamıştır , ancak çok yakından ilişkilidir. Soru yeniden açılırsa bir cevap yazacağım. PS, evrensel yaklaşımın, Yapay Sinir Ağları için olduğu gibi, . Rp
DeltaIV

3
Bu sorudaki "evrensel yaklaşım" ifadesinin, atıfta bulunulan Wikipedia makalesindeki ifadeyle ilgisi yoktur veya çok azdır. Gerçekten de, bir işlemle bir işleve nasıl yaklaşabileceği net değildir . Ne sormaya çalıştığınız hakkında biraz ayrıntı verebilir misiniz?
whuber

5
@whuber Teknik özellikler biraz gevşek olabilse de, sorunun asıl olarak "Giriş işlevi , keyfi olarak (bazı normlarda) yakın olan belirli bir GP'nin gerçekleşmesi var mı?" anlamına geldiğini düşünüyorum. Veya belki, "Bir işlevinden sonsuz sayıda örnek nokta gözlemlediğimiz ve bu verilerle standart GP çıkarım gerçekleştirdiğimizde, öğrenilen arka ortalama işlev (bir anlamda) gerçek işleve yaklaşıyor mu?" Bu ikisi elbette farklı özelliklerdir, ancak onları cevap verilebilecek kadar yakın olarak düşünürdüm (ve böylece beşinci yeniden oyu ver). ffff
Dougal

1
Belki de yakınsama yerine yakınsamayı kanıtlamak istersiniz. Aksi takdirde, kanıt basittir: işlevi ortalama için önceki gibi alabilirsiniz. değerinden daha fazla değil , ama işe yarıyor. x=x
Karel Macek

Yanıtlar:


16

@Dougal'un belirttiği gibi, sorunuzun yorumlanmasının iki farklı yolu vardır. Öyle görünmese bile, yakından ilişkilidirler.

İlk yorumudur: izin kompakt bir alt kümesi (yoğunluk aşağıdakilerden tümü için temel olan !!!), izin olması, bir üzerinde tanımlanan sürekli kovaryans fonksiyonu (veya çekirdek) ve ile üzerindeki sürekli fonksiyonların normlu alanını belirtir , maksimum norm . Herhangi bir fonksiyon 'de , önceden tanımlanmış bir tolerans a ilişkili RKHS (Repeling Kernel Hilbert Space) fonksiyonuyla yaklaştırılabilir.XRdk(x,x)X×XC(X)X||||fC(X)fϵk? Bir RKHS'nin ne olduğunu, tüm bunların Gaussian Süreç Regresyonu ile ne ilgisi olduğunu merak edebilirsiniz. RKHS , tüm olası sonlu doğrusal kombinasyonlarının oluşturduğu vektör uzayının kapatılmasıdır. burada . Bu kesinlikle Gauss süreç gerilemesi ile ilgilidir, çünkü uzayda öncesinde Gauss işlemi verildiğinde , Gauss Süreci Regresyonu ile üretilebilecek tüm olası posterior araçların alanı tam olarak RKHS'dir. Nitekim, olası tüm posterior araçlar formdadırK(X)fy(x)=k(x,y)yXGP(0,k(x,x))C(X)

f(x)=i=1ncik(x,xi)

yani, fonksiyonlarının sonlu doğrusal kombinasyonlarıdır . Bu nedenle, etkili göz önüne alındığında, eğer bir Gauss işlem öncesi istiyoruz ile herhangi bir fonksiyon için, var GPR tarafından oluşturulabilen tüm işlevlerin (kapatılması) alanında daima işlevidir, bu da istendiği kadar yakındır .fxi(x)=k(x,xi)GP(0,k(x,x))C(X)fC(X)ff

Bazı belirli çekirdekler (klasik Kareli Üstel çekirdek dahil, ancak polinom çekirdek dahil değil) için cevap evettir . Tür çekirdekler için ispat edilebilir olan yoğun olarak , yani herhangi, ve herhangi bir tolerans , bir orada de , örneğin bu . Varsayımlara dikkat edin: kompakttır, sürekli ve evrensel yaklaşım özelliğine sahip sürekli bir çekirdektir. Buraya bakınK(X)C(X)fC(X)ϵfK(X)||ff||<ϵXfk daha genel (dolayısıyla karmaşık) bir bağlamda tam bir kanıt için.

Bu sonuç, ilk bakışta göründüğünden çok daha az güçlüdür. Bile GPR oluşturulabilir arka araçlarının uzayda (kapanması) 'de, biz bu ispat değil edilir ise özellikle arka antrenman, nerede büyük yeterince set için, GPR tarafından döndürülen demek eğitim seti noktalarında gürültülü gözlemlerinden oluşur . GPR tarafından döndürülen posterior ortalamanın için hiçbir şekilde birleştiğini bile kanıtlamadık ! Bu aslında @Dougal tarafından önerilen ikinci yorumdur. Bu sorunun cevabı ilk sorunun cevabına bağlıdır: eğer herhangi bir fonksiyon yoksaffx1,,xnnfBir "iyi yaklaşım" dır RKHS içinde Tabii arka ortalama kendisine GPR yakınsak tarafından döndürülen umut edemez arasında. Ancak, bu farklı bir soru. Bu soruya da cevap almak istiyorsanız, lütfen yeni bir soru sorun.f

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.