A ve b'nin gerçek sayılar olduğu [a, b] üzerindeki herhangi bir sürekli işlev Gauss Süreçleri (Regresyon) tarafından işleve (bazı normlarda) yaklaşık olarak yakın olabilir veya keyfi olarak yakın olabilir mi?
A ve b'nin gerçek sayılar olduğu [a, b] üzerindeki herhangi bir sürekli işlev Gauss Süreçleri (Regresyon) tarafından işleve (bazı normlarda) yaklaşık olarak yakın olabilir veya keyfi olarak yakın olabilir mi?
Yanıtlar:
@Dougal'un belirttiği gibi, sorunuzun yorumlanmasının iki farklı yolu vardır. Öyle görünmese bile, yakından ilişkilidirler.
İlk yorumudur: izin kompakt bir alt kümesi (yoğunluk aşağıdakilerden tümü için temel olan !!!), izin olması, bir üzerinde tanımlanan sürekli kovaryans fonksiyonu (veya çekirdek) ve ile üzerindeki sürekli fonksiyonların normlu alanını belirtir , maksimum norm . Herhangi bir fonksiyon 'de , önceden tanımlanmış bir tolerans a ilişkili RKHS (Repeling Kernel Hilbert Space) fonksiyonuyla yaklaştırılabilir.? Bir RKHS'nin ne olduğunu, tüm bunların Gaussian Süreç Regresyonu ile ne ilgisi olduğunu merak edebilirsiniz. RKHS , tüm olası sonlu doğrusal kombinasyonlarının oluşturduğu vektör uzayının kapatılmasıdır. burada . Bu kesinlikle Gauss süreç gerilemesi ile ilgilidir, çünkü uzayda öncesinde Gauss işlemi verildiğinde , Gauss Süreci Regresyonu ile üretilebilecek tüm olası posterior araçların alanı tam olarak RKHS'dir. Nitekim, olası tüm posterior araçlar formdadır
yani, fonksiyonlarının sonlu doğrusal kombinasyonlarıdır . Bu nedenle, etkili göz önüne alındığında, eğer bir Gauss işlem öncesi istiyoruz ile herhangi bir fonksiyon için, var GPR tarafından oluşturulabilen tüm işlevlerin (kapatılması) alanında daima işlevidir, bu da istendiği kadar yakındır .
Bazı belirli çekirdekler (klasik Kareli Üstel çekirdek dahil, ancak polinom çekirdek dahil değil) için cevap evettir . Tür çekirdekler için ispat edilebilir olan yoğun olarak , yani herhangi, ve herhangi bir tolerans , bir orada de , örneğin bu . Varsayımlara dikkat edin: kompakttır, sürekli ve evrensel yaklaşım özelliğine sahip sürekli bir çekirdektir. Buraya bakın daha genel (dolayısıyla karmaşık) bir bağlamda tam bir kanıt için.
Bu sonuç, ilk bakışta göründüğünden çok daha az güçlüdür. Bile GPR oluşturulabilir arka araçlarının uzayda (kapanması) 'de, biz bu ispat değil edilir ise özellikle arka antrenman, nerede büyük yeterince set için, GPR tarafından döndürülen demek eğitim seti noktalarında gürültülü gözlemlerinden oluşur . GPR tarafından döndürülen posterior ortalamanın için hiçbir şekilde birleştiğini bile kanıtlamadık ! Bu aslında @Dougal tarafından önerilen ikinci yorumdur. Bu sorunun cevabı ilk sorunun cevabına bağlıdır: eğer herhangi bir fonksiyon yoksaBir "iyi yaklaşım" dır RKHS içinde Tabii arka ortalama kendisine GPR yakınsak tarafından döndürülen umut edemez arasında. Ancak, bu farklı bir soru. Bu soruya da cevap almak istiyorsanız, lütfen yeni bir soru sorun.