Bu soruya dikkatimi çektiği için Aryeh'e teşekkür ederim .
Diğerleri de gibi, (1) cevabı Evet ve ampirik riskin en aza indirilmesi basit bir yöntem elde etmektedir örnek karmaşıklığı ( bkz. Vapnik ve Chervonenkis, 1974; Blumer, Ehrenfeucht, Haussler ve Warmuth, 1989).CO ( ( d/ ε) günlük( 1 / ε ) )
İçin olduğu gibi (2), aslında boşluk var olduğunu bilinmektedir bir daha uygun öğrenme algoritması ulaşır örnek karmaşıklığı ve dolayısıyla uygun öğrenme optimal örnek karmaşıklığına . Bildiğim kadarıyla, bu gerçek hiç yayınlanmadı, ancak Daniely ve Shalev-Shwartz'ın (COLT 2014) ilgili bir argümanından kaynaklanıyor (başlangıçta çok sınıflı öğrenmede farklı, ancak ilgili bir soru için formüle edildi).C Ω ( ( d / ε ) günlüğü ( 1 / ε ) ) O ( d / ε )Ω ( ( d/ ε) günlük( 1 / ε ) )O ( d/ ε)
Düşünün basit bir durum ve alan koymak olarak ve olan singletons :, her sınıflandırıcı olarak ile ilgili sınıflandırır tam olarak bir nokta olarak ve diğerleri . Alt sınır için, hedef fonksiyonu rastgele bir singleton olarak ele alalım , burada ve , marjinal dağılımı , ilgili üniformd= 1X{ 1 , 2 , . . . , 1 / ε }Cfz(x):=I[x=z],z∈XCX10fx∗x∗∼Uniform(X)PXX∖{x∗}. Şimdi öğrenen herhangi örnekler etiketli görmemesini , ama bir nokta seçmelisiniz için tahmin etiketli (önemlisi `` tamamı sıfır '' işlevi olduğu değil de , herhangi uygun öğrenen böylece gerekir bazı tahmin ) ve her noktasına gördü kadar en az olan (yanlış tahmin şansını yani, arka olasılık olan en az ). Kupon tahsildarı argümanı, gerektireceği anlamına gelir1z1 Cı z X ∖ { x * } 1 / 2 f z z ≠ X1CzX∖{x∗}1/2fzz≠x∗1/2Ω((1/ε)log(1/ε))x ∖ { x * } Ω ( ( 1 / ε ) günlük ( 1 / ε ) ) içindeki her noktayı görmek için örnekleri . Bu , tüm uygun öğrenenler için alt sınırını kanıtlar .X∖{x∗}Ω((1/ε)log(1/ε))
Genel için , aldığımız olarak almak sınıflandırıcılarınız , tam olarak boyutlu kümeleri için , den rastgele hedef işlevini seçin ve hedef işlevin sınıflandırdığı noktalarda tekrar düzgün olarak alın (böylece öğrenci hiçbir zaman görmez) ) etiketli bir nokta . Daha sonra kupon toplayıcı argümanının genelleştirilmesi, en azından en azından görmek için örneklerine ihtiyacımız olduğunu gösterir. d>1X{1,2,...,d/(4ε)}CIAA⊂XdCP01Ω ( ( d/ ε) günlük( 1 / ε ) )| X| -2günfarklı noktalar ve herhangi uygun bir öğrenci en az olan bu birçok farklı noktaları görmeden büyüktür alma şansı onun tahminim ait bir onun seçtiği hipotez yanlış noktalarda , yani hata oranı büyük . Bu durumda, örnek karmaşıklığı 'den daha küçük olan uygun bir öğrenci yoktur, bu da uygun bir öğrenicinin optimal örnek karmaşıklığı elde etmediği anlamına gelir. .X1 / 3d/ 4birdhbirεΩ ( ( d/ ε) günlük( 1 / ε ) )O ( d/ ε)
Sonucun, inşa edilen alanına oldukça özgü olduğunu unutmayın . Uygun öğrencilerin optimal örnek karmaşıklığına ve hatta tam tam ifade ulaşabilecekleri alanları vardır. (Hanneke, 2016a). Genel ERM öğrenenleri için bazı üst ve alt sınırlar (Hanneke, 2016b) 'de, alan özellikleri açısından nicelenmiş olarak geliştirilmiştir ve belirli uygun öğrencilerin bazen en iyi duruma getirebileceği bazı daha özel durumları tartışır. örnek karmaşıklığı.CCO ( d/ ε)O ( ( d/ ε)+(1 / ε)günlüğü( 1 / δ) )C
Referanslar:
Vapnik ve Chervonenkis (1974). Örüntü Tanıma Teorisi. Nauka, Moskova, 1974.
Blumer, Ehrenfeucht, Haussler ve Warmuth (1989). Öğrenilebilirlik ve Vapnik-Chervonenkis boyutu. Bilgisayar Makineleri Derneği Dergisi, 36 (4): 929–965.
Daniely ve Shalev-Shwartz (2014). Çok Sınıflı Problemler için Optimal Öğrenciler. 27. Öğrenme Teorisi Konferansı Bildiriler Kitabı.
Hanneke (2016a). PAC Öğrenmenin Optimal Örnek Karmaşıklığı. Makine Öğrenimi Araştırmaları Dergisi, Vol. 17 (38), sayfa 1-15.
Hanneke (2016b). Çeşitli Öğrenme Algoritmaları için Rafine Hata Sınırları. Makine Öğrenimi Araştırmaları Dergisi, Vol. 17 (135), s. 1-55.