Veri örneğinin . Ayrıca, bir Gussian işlemi için bir kovaryans fonksiyonuna ve sıfır ortalamaya sahip olduğumuzu varsayalım. için yeni bir nokta Dağılımı ortalama ve varyans ile Gauss olacakVektör bir kovaryans vektörüdür , matris k ( x 1 , x 2 ) x m ( x ) = k K - 1 y V ( x ) = k ( x , x ) - k K - 1 kD = ( X, y ) = { xben, yben= y( xben) }N-i = 1k ( x1, x2)x
m ( x ) = k K- 1y
k = { k ( x , x 1 ) , … , k ( x , x N ) } K = { k ( x i , x j ) } N i , j = 1V( x ) = k ( x , x ) - k K- 1kT.
k ={k( x , x1) , … , K ( x , xN-) }K= { k ( xben, xj) }N-i , j = 1bir örnek kovaryans matrisidir. Örnek
enterpolasyon özelliği ambarları için posterior dağılımın ortalama değerini kullanarak tahmin yaparsak . Gerçekten,
m ( X) = KK- 1y = y .
Ancak, normalleştirmeyi kullanırsak, yani beyaz gürültü terimini dahil ettiğimizde durum böyle değildir. bu durumda örnek için kovaryans matrisi
K + \ sigma I formuna sahiptir
K+ σben, ancak gerçek fonksiyon değerlerine sahip kovaryanslar için
K kovaryans matrisi vardır
Kve posterior ortalaması
m ( X) = K( K+σben)- 1y ≠ y .
Buna ek olarak, düzenlileştirme sorunu daha hesaplama açısından istikrarlı hale getirir.
Gürültü varyansı seçerek enterpolasyon isteyip istemediğimizi ( ) seçebilir miyiz veya gürültülü gözlemlerle uğraşmak isteriz ( büyüktür).σσ= 0σ
Ayrıca, Gauss süreçleri regresyonu yerel yöntemdir, çünkü tahminlerin varyansı öğrenme örneğine olan uzaklıkla birlikte artar, ancak uygun kovaryans fonksiyonunu seçebilir ve RBF'den daha karmaşık problemleri çözebiliriz. Başka bir güzel özellik az sayıda parametredir. Genellikle eşittir , burada veri boyutudur.kO ( n )n