VC boyutu, bir küme arasında belirli bir nesneyi (işlevi) bulmak için ihtiyaç duyulan bilgi bitlerinin (örneklerin) sayısıdır. N-nesneler (işlevler) .
VCboyut, bilgi teorisindeki benzer bir kavramdan gelir. Bilgi teorisi, Shannon'un aşağıdakileri gözlemlemesinden başladı:
Eğer varsa N- nesneler ve bunlar arasında N-belirli bir nesneyi aradığınız nesneler. Bu nesneyi bulmak için kaç bilgi parçasına ihtiyacınız var ? Nesne kümenizi iki yarıya bölebilir ve "Aradığım nesnenin hangi yarısında bulunur?" . İlk yarıda ise "evet", ikinci yarıda ise "hayır" alırsınız. Başka bir deyişle, 1 bit bilgi alırsınız . Bundan sonra, aynı soruyu sorar ve sonunda istediğiniz nesneyi bulana kadar setinizi tekrar tekrar bölersiniz. Kaç bilgiye ihtiyacınız var ( evet / hayır cevapları)? Açıkçaben og2( N) bilgi bitleri - sıralı dizideki ikili arama sorununa benzer şekilde.
Vapnik ve Chernovenkis de örüntü tanıma probleminde benzer bir soru sordular. Varsayalım kiN- giriş verilen fonksiyonlar x, her işlev evet veya hayır (denetlenen ikili sınıflandırma sorunu) ve bunların arasında çıkış yaparN-Belirli bir veri kümesi için evet / hayır doğru sonuçları veren belirli bir işlevi aradığınız işlevlerD = { (x1,y1) , (x2,y2) , . . . , (xl,yl) }. Şu soruyu sorabilirsiniz: " Belirli bir işlev için hangi işlevler hayır döndürüyor ve hangi işlevler evet döndürüyorxbenveri kümenizden. Sahip olduğunuz eğitim verilerinden gerçek cevabın ne olduğunu bildiğiniz için, bazıları için size yanlış cevap veren tüm fonksiyonları atabilirsiniz.xben. Kaç bilgiye ihtiyacınız var? Başka bir deyişle: Tüm bu yanlış işlevleri kaldırmak için kaç eğitim örneğine ihtiyacınız var? . Burada Shannon'un bilgi teorisindeki gözleminden küçük bir fark var. İşlev kümenizi tam olarak yarıya bölmüyorsunuz (belki yalnızca bir işlevN- bazıları için yanlış cevap veriyor xben) ve belki de işlev kümeniz çok büyüktür ve bir işlevi bulmanız yeterlidir. ε-İstediğiniz işlevi kapatın ve bu işlevin ε-olasılıkla kapat 1 - δ (( ϵ , δ)- PAC çerçevesi), ihtiyacınız olan bilgi bitlerinin sayısı (örnek sayısı)ben og2N-/ δε.
Şimdi varsayalım ki N-fonksiyonlarında hata yapmayan bir fonksiyon yoktur. Önceden olduğu gibi, bir işlevi bulmanız yeterlidir.ε-olasılıkla kapat 1 - δ. İhtiyacınız olan örnek sayısıben og2N-/ δε2.
Her iki durumda da sonuçların ben og2N- - ikili arama problemine benzer.
Şimdi sonsuz sayıda fonksiyona sahip olduğunuzu ve bu fonksiyonlar arasında ε-olasılıkla en iyi işleve yakın 1 - δ. Fonksiyonların sürekli afin (SVM) olduğunu ve (çizimin basitliği için)ε-en iyi işlevine kapatın. Eğer fonksiyonunuzu biraz hareket ettirirseniz, sınıflandırma sonuçlarını değiştirmez, ilk sonuç ile aynı sonuçlarla sınıflandıran farklı bir fonksiyona sahip olursunuz. Size aynı sınıflandırma sonuçlarını (sınıflandırma hatası) veren tüm bu işlevleri alabilir ve bunları tek bir işlev olarak sayabilirsiniz, çünkü verilerinizi aynı kayıpla (resimdeki bir çizgi) sınıflandırırlar.
___________________Her iki çizgi (fonksiyon) noktaları aynı başarı ile sınıflandırır ___________________
Bu tür bir işlev kümesinden belirli bir işlevi kaç örnek bulmanız gerekir (işlevlerimizi, her bir işlevin belirli bir nokta kümesi için aynı sınıflandırma sonuçlarını verdiği işlev kümelerine ayırdığımızı hatırlayın)? İşte buVC boyut anlatıyor - ben og2N- ile değiştirildi VCçünkü belirli noktalar için aynı sınıflandırma hatasına sahip bir dizi fonksiyona bölünmüş sonsuz sayıda sürekli fonksiyonunuz vardır. İhtiyacınız olan örnek sayısıVC- l o g( δ)ε Mükemmel tanıyan bir fonksiyonunuz varsa ve VC- l o g( δ)ε2 orijinal işlev kümenizde mükemmel bir işleve sahip değilseniz.
Yani, VC size ulaşmak için ihtiyacınız olan birkaç örnek için size bir üst sınır (btw geliştirilemez) verir ε olasılık hatası 1 - δ.