normunda yakınlığı test etmek için alt sınır ?


11

Aşağıdaki sorun için bilinen herhangi bir alt sınır (örnek karmaşıklığı açısından) olup olmadığını merak ediyordum:

üzerinde iki bilinmeyen , dağıtımına örnek oracle erişimi verildiğinde , test (whp)D1D2{1,,n}

  • D1=D2
  • veyad2(D1,D2)=D1D22=i=1n(D1(i)D2(i))2ϵ

Batu ve diğ. [BFR + 00] gösterdi O(1ϵ4) örnekleri yeterli, ama daha düşük bir bağlanmış herhangi bir söz bulunamadı?

Birinin her zaman Ω(1ϵ2) alt sınırını gösterebileceğini düşünüyorum, bu soruna adil ve ϵ ucretsiz bir madalyonun ayırt edilmesi görevini azaltarak (yalnızca ikisinde desteklenen bir dağılımı simüle ederek) puanlar ve iid jetonuna göre test cihazının sorgularını yanıtlar), ancak bu hala ikinci dereceden bir boşluk bırakıyor ...

(İlgileneceğim başka bir nokta, bu L_2 mesafesini tahmin etmede daha düşük bir sınırdır (yine bir katkı maddesi \ epsilon'a kadarϵ ) - yine, literatürde böyle bir sonuca referans bulamadım)L2

Yardımın için teşekkürler,


Bu vaat sorunu Sahai ve Vadhan'ın istatistiksel farkı olarak adlandırılan soruna çok benziyor , ki bu SZK sınıfı için tam bir problem (istatistiksel sıfır bilgi); ancak mesafesini kullanırlar . cs.ucla.edu/~sahai/work/web/2003%20Publications/J.ACM2003.pdf . (Düzenleme: Ayrıca dağıtımları hesaplayan bir devre olduğunu varsayarlar, oracle erişimi değil.)L1
usul

Merhaba, başka bir yorumda belirtildiği gibi, ve normu arasındaki fark aslında çok önemlidir - ayrıca, bu makalede, açık bir (ve keyfi olmayan) eşik oluşturdular (açıklamalardan birinde, bu eşiğin belirli bir kısıtlamayı yerine getirmesi gerektiğini açıklarlar); ve ile ( karşı test etmek istediğiniz "olağan test" den daha toleranslı test / mesafe tahminine bir şekilde daha yakın olmak istiyorum (ancak herhangi bir sabit )). L2L1τ=1/3d1τd21τd2=0d2ϵϵ
Clement C.

Yanıtlar:


6

Bu görünür Örnekler - usul aşağıda gösterdiği gibi - örnek karmaşıklığı tam olarak böylece test için yeterli ; aslında, için numuneler bile yeterli bize bu numarayı çıkıyor öğrenme bir katkı kadar wrt norm.O(1/ϵ2)Θ(1/ϵ2) DϵL2


Let çekme ile elde edilen deneysel yoğunluk fonksiyonu numuneleri IID ve kompozisyon Sonra burada . D^ms1,,smD

D^(k)=def1m=1m1{s=k},k[n]
DD^22=k=1n(1m=1m1{s=k}D(k))2=1m2k=1n(=1m1{s=k}mD(k))2=1m2k=1n(XkEXk)2
Xk=def=1m1{s=k}Bin(m,D(k))Xk's ( için ) bağımsız değildir, ancak , böylece bunun için , ve Markov eşitsizliğini uygulamak k[n]
EDD^22=1m2k=1nE[(XkEXk)2]=1m2k=1nVarXk=1m2k=1nmD(k)(1D(k))1mk=1nD(k)=1m
m3ϵ2
EDD^22ϵ23
P{DD^2ϵ}13.

( "Karşıt bir şey göstererek önceki hatam için kefaret etmeye çalışacağım [...]" ile başlayan usulün cevabından bahsediyordum - ki aslında bunun üstünde. Bunu beklemiyordum :)) Öğrenmeye gelince üst sınırı, bu gösterilebilir ki (olup, çizen en naif algoritma numuneleri ve çıkışları deneysel yoğunluğu bu tanımlar) bir dağıtım elde edilir hangi sabit bir olasılıkla, bir, -yakın için olarak mesafe. m=O(1/ϵ2)D^ϵDL2
Clement C.29

@DW Cevabımı yeni düzenledim.
Clement C.29

3

Ben ters bir şey göstererek önceki hatamı kefaret etmeye çalışacağım - örnekleri yeterli (alt sınır neredeyse sıkı)! Ne düşündüğünüzü görün ....Θ~(1ϵ2)1/ϵ2

Anahtar sezgi iki gözlemden başlar. İlk olarak, dağılımların mesafesinin olması için yüksek olasılıklı noktalar olmalıdır ( ). Örneğin, olasılık olsaydı, .L2ϵΩ(ϵ2)1/ϵ3ϵ3D1D221ϵ3(ϵ3)2=ϵ3/2<ϵ

İkincisi, mesafeli düzgün dağılımları düşünün . Biz ise olasılığı noktaları , daha sonra her birinin farklı olacaktır ve örnekler yeterli olacaktır. Öte yandan, noktalarımız olsaydı, her birinin ve yine örnekleri ( noktası) yeterlidir. Bu nedenle, daha önce bahsedilen yüksek olasılıklı noktalar arasında, çizdiği her zaman "yeterince" farklı olan bir noktanın onu ayırt etmesini umabiliriz .L2ϵO(1)O(1)O(ϵ)1/ϵ2O(1/ϵ2)O(ϵ2)O(1/ϵ2)O(1/ϵ2)

Algoritma. ve güven parametresi verildiğinde , . Her dağıtımdan örnek çizin . Let ilgili daha yüksek noktası için numune daha az sayıda olabilir . de ve olan herhangi bir noktası varsa , farklı dağılımlar. Aksi takdirde, bunları aynı şekilde beyan edin.ϵMX=Mlog(1/ϵ2)Xϵ2ai,biii[n]aiX8aibiaiX4

Doğruluk ve güven sınırları ( ), mesafesindeki tüm sapmaların olasılıkları farklılık gösteren noktalardan geldiğini belirten aşağıdaki .1eΩ(M)L2Ω(ϵ2)

İddia. Diyelim ki . Let. Let . Sonra D1D22ϵδi=|D1(i)D2(i)|Sk={i:δi>ϵ2k}

iSkδi2ϵ2(12k).

Kanıt . Biz İkinci toplamı sınırlayalım; en üst düzeye çıkarma isteyen tabi . İşlev yana katı konveks ve, herhangi bir alarak amacı artırabilir artmaktadır ve artan ile düşürürken ile . Böylece, amaç maksimum değerlerinde olabildiğince çok terimle, geri kalanı ise maksimize edilecektir.

iSkδi2 + iSkδi2ϵ2.
iSkδi2iSkδi2xx2δiδjδiγδjγ0. Her terimin maksimum değeri dır ve bu değerin en fazla terimi vardır (en fazla ). So ϵ2k2kϵ22
iSkδi22kϵ2(ϵ2k)2=2ϵ2k.    

İddia . Bırakın . Eğer , en az bir nokta vardır ile ve .pi=max{D1(i),D2(i)}D1D22ϵi[n]pi>ϵ24δiϵpi2

Kanıt . İlk olarak, tüm noktalar mı tanımı gereği (ve için boş olamaz önceki isteme göre).Skpiδi>ϵ2kSkk>2

İkinci olarak, , veya yeniden düzenleme, dolayısıyla eşitsizlik , içinde en az bir nokta . Şimdi . ipi2

iSkδi2ϵ2(121k)iSkpi,
iSk(δi2piϵ2(121k))0,
δi2piϵ2(121k)
Skk=4

İddia (yanlış pozitifler) . Eğer , bizim algoritma en fazla olasılık ile onları farklı beyan .D1=D2eΩ(M)

Eskiz . İki durumu düşünün: ve . İlk durumda, örnek sayısı her iki dağıtımdan da aşmayacaktır : Ortalama örnek sayısı ve bir kuyruk bağlı olduğunu söylüyor , örnekleri bir katkı maddesi ortalamalarını aşmaz ; kuyruktaki değerini bağlı tutmaya dikkat edersek, kaç tane nokta olursa olsun, bunların üzerinde (sezgisel olarak, sınır olası noktaların sayısında katlanarak azalır).pi<ϵ2/16piϵ2/16iX/8<X/16eΩ(X/pi)=ϵ2eΩ(M/pi)iX/16pi

Durumda , bir Chernoff bağlı kullanabilir: aldığımız zaman, söylüyor örnekleri ve bir yönlü bir olasılık ile çizilir , bunun ortalama farklılık olasılığı ile en fazla . Burada, bırakın , böylece olasılık ile sınırlandırılmıştır .piϵ2/16mppmcpmeΩ((cpm)2/pm)=eΩ(c2)c=X16eΩ(X)=ϵ2eΩ(M)

Böylece olasılıkla , (her iki dağılımlar için) örnek sayısı, içinde Ortalama in . Bu nedenle, testimiz bu noktaları yakalamayacaktır (birbirlerine çok yakındır) ve hepsine . 1ϵ2eΩ(M)ipiXϵ2X16piXϵ216/ϵ2

İddia (yanlış negatifler) . Eğer , bizim algoritma en fazla olasılık ile onları özdeş beyan .D1D22ϵϵ2eΩ(M)

Eskiz . ve olan bir nokta vardır . Önceki istemdeki ile aynı Chernoff, olasılığı ile örneklerinin sayısının ortalama en fazla . Bu olan (WLOG) dağılımı ; fakat dağıtım örnek sayısı daha düşük bir olasılık varipi>ϵ2/4δiϵpi/21ϵ2eΩ(M)ipimpimX161pi=D1(i)=D2(i)+δii2 bu katkı maddesi miktarından ortalamasından farklı (ortalama ve varyans daha düşük olduğu için).

Bu nedenle, yüksek olasılıkla, her bir dağılımdan örneği sayısı ortalamasının ; ancak olasılıkları farklılık gösterir , bu nedenle ortalamaları ipiXϵ2X16δi

Xϵ2δiXpi2ϵ=piXϵ2X2.

Dolayısıyla, yüksek olasılıkla, noktası için , örnek sayısı en az farklılık gösterir . i#samples(1)X4

Eskizler tamamlamak için, biz daha titiz bir şekilde göstermek gerekir, için yeterince büyük, örnek sayısı onun ortalama yakın yeterli olduğu kanaatine zaman algoritma kullanır yerine , hiçbir şeyi değiştirmez (sabitlerde biraz kıpır kıpır boşluk bırakarak açık olması gerekir).Mi#samplesmean


Merhaba, Bunun için teşekkürler - Algoritma ve analiz hakkında birkaç sorum var (almak için emin değilim birkaç nokta ile ilgili): Ben sadece sonunda sonuçta sabit bir olasılık başarı istiyorum , bu demektir ki sabiti, doğru anlarsam ( ne olduğunu anlamadım )? Bu durumda, çevirmek : algoritmaya göre - bu doğru mu? 2/3MMXΘ(log1ϵ)
Clement C.25

@ClementC. Üzgünüm çok net değildim! İddia şudur: örnekleri , yanlış olma olasılığı . sürekli yanlış olma olasılığı, örnekleri. 1ϵ2Mlog(1/ϵ2)O(eM)O(1ϵ2log(1/ϵ2))
usul

Tamam, ben de öyle topladım. Bunu akılda tutarak kanıttan geçeceğim - bunun için harcadığınız zaman için tekrar teşekkürler!
Clement C.25

1

vakası için bunu çözmeye çalışarak başlayabilirsiniz . Eminim örnekleri bu durumda gerekli ve yeterli olacaktır.n=2Θ(1/ϵ2)

mesafesi ile mesafesi (toplam varyasyon mesafesi) arasında dönüşüm gerçekleştirmeye bakmak yararlı olabilir .L2L1

  • Dağılımlar biliniyorsa bir örnek ile, toplam varyasyon mesafesi mükemmel bir çıkaracak türden avantaj karakterize aldığı bilinir dan . Dolayısıyla, toplam varyasyon mesafesi büyükse ve dağılımlar biliniyorsa, yüksek olasılıkla doğru bir test yapılabilir; toplam varyasyon mesafesi küçükse, yapılamaz. Toplam varyasyon mesafesinin büyük olduğu ancak dağılımların bilinmediği durum hakkında ne söylenebilir bilmiyorum.D1D2

  • Daha sonra, ve ürün dağıtımlarına bakabilirsiniz . Toplam varyasyon mesafesi ( mesafesi) kullanıldığında, ile herhangi bir iyi sınır olmadığı . Ancak, mesafesini kullanırken, bir fonksiyonu olarak için iyi tahminler olduğuna inanıyorum . (Ben misremembering değilim umut öylesine Ne yazık ki, bu tahminler / sınırları belirli bir başvuru kazıp gibi olamaz.) Eğer tahmin edilmesini sağlayacak bilinen sınırları vardır bir fonksiyonu olarak mesafe mesafesi .D1nD2nL1||D1nD2n||1||D1D2||1L2||D1nD2n||2||D1D2||2L1L2

  • Bu nedenle, deneyebileceğiniz bir yaklaşım , sonra da .||D1nD2n||2||D1nD2n||1

Bunun iyi bir yere götürüp götürmeyeceğini bilmiyorum; bu sadece bir fikir. Muhtemelen alıntı yaptığınız makalenin yazarları zaten böyle bir şeyi denemiş veya düşünmüş olacaklardır.

Olası faydalı referanslar:


Merhaba, Cevabınız için teşekkürler! Ancak, olduğunda, asimtotik bir alt sınır ile ilgileniyorum . Özellikle, ve normları arasındaki ilişki bir faktörü içerir - yani sabit için gerçekten eşdeğerdir , ancak asimptotik olarak çok farklıdır; dstance'ı proxy olarak kullanmak, kadarıyla bir seçenek değildir ( mesafesindeki yakınlığı test etmek için , tam karmaşıklığın olduğu bilinir) [BFR + 10 , Val11 ]nL2L1nnL1L1Θ(n2/3/poly(ϵ))
Clement C.

0

EDIT: bu yanlış! Yorumlardaki tartışmaya bakın - Aşağıdaki kusura dikkat çekeceğim.

Bence gerekli diyebiliriz .1ϵ4

Takım . Let üniform dağılımı olabilir (her bir nokta olasılığını ) ve izin ilave bir miktarda ile üniform farklılık her noktada. mesafesinin olduğunu kontrol edin .n=Θ(1ϵ2)D1=Θ(ϵ2)D2±Θ(ϵ2)L2ϵ

Bu yüzden taraflı bir adil parayı taraflı -başlama parasından ayırt etmeliyiz. Bence bu en azından taraflı bir -dişli paradan taraflı adil bir para söylemek kadar zor olmalı , örnekleri. Düzenleme: bu yanlış! Madeni para ek olarak -ılmaz, ancak sabit bir faktörle çarpılarak önyargılıdır. işaret , nokta başına sabit sayıda örneğin ayırdığı .nnΘ(ϵ2)22Θ(ϵ2)Θ(1(ϵ2)2)=Θ(1ϵ4)ϵ2D1D2


in bu argüman çizgisini itebildiğimiz kadar olduğuna dikkat edin . Somut olarak, diyelim ki, artırmaya çalıştık . Tekdüze dağılımda, her noktanın olasılığı vardır . Ancak her noktanın üniform olması için ihtiyacımız var . beri bu mümkün değil .1ϵ4n1ϵ3ϵ3D2ϵ2.5ϵ2.5ϵ3

Daha açık bir ifadeyle, her noktanın üniformadan farklı olmasını istediğimizi varsayalım . Sonra en biz ayarlayabilirsiniz olurdu için . mesafesini elde etmek için , uzaklıkların toplamının kare kökünün , yani , yani yani ve elde ediyoruz .ϵkn1ϵkL2ϵϵn(ϵk)2=ϵϵk/2=ϵk=2n=1ϵ2

Ayrıca, biz ilgilenen eğer aynı argüman, diyor düşünüyorum ile mesafeye , biz gerektiren , biz alacağını böylece , bu nedenle örnek sayısı . Bence bu bağımsız bir sınır olarak anlamlıdır . Sonsuza olarak yaklaşır . Eğer iki dağılımlarını ayırmaya çalışırken olsaydı mesafesinde üzerinde bağlı hiçbir ile , ben yapacak bunları ayırt asla böylece (, keyfi olarak ince farkı dışarı unboundedly büyük ve yayılmaLpp>1k=pp1n=1/ϵpp11/ϵ2pp1np1L1ϵnnyani tüm ) için sabit sayıda numune yeterli değildir . Ayrıca 'e olarak yaklaşır ; bu bir sınır olarak mantıklıdır, çünkü normu için ayarlayabilir ve her noktanın farklılık göstermesine izin verebiliriz ; örnek alacak farklı olduğundan emin olmak için bir nokta kez örneklememiz gerekir.n1ϵ3pLn=1ϵΘ(ϵ)1ϵ21ϵ3


1. Gerçekten her noktada ile üniform farklı mı demek istiyorsun ? Bunun bir yazım hatası olduğundan şüpheleniyorsunuz ve demek . D2±1/ϵ2±ϵ2
DW

1
2. Ben ayırt buna inanmıyorum gelen gerektirir örnekleri. Bana örnekleri yeterli gibi geliyor. Açıklama (sezgi): örneklerini topladığımızı ve olası her bir değerin kaç kez oluştuğunu varsayalım . Geldikleri takdirde , her (std dev 10 ile) 100 kez gerçekleşmelidir. Geldikleri takdirde , her bunların yarısı için 200 kere (standart sapma 14) gerçekleşmesi gereken, / diğer yarısı için 0 kere (standart sapma 0). veya ile uğraştığınızı biliyorsanız, bu ikisi arasında ayrım yapmak kolayca yeterlidir . D1D21/ϵ4Θ(1/ϵ2)m=100/ϵ2D1D2D1D2
DW

@DW (1) haklısın! Sabit. (2) Koyduğunuzda, katılıyorum, ama farklı sabit seçenekleriyle bence daha zor. Ben böyle bir şey hayal ediyorum: , bu yüzden olasılığı her noktada koyar . Daha sonra her noktada ile farklılık gösterir ( mesafesinin olduğunu kontrol edin ), bu nedenle her noktaya veya olasılığı koyar . n=1/100ϵ2D1100ϵ2D210ϵ2L2ϵ90ϵ2110ϵ2
usul

1
Sanırım örnekleri hala yeterli. örnekleri toplayın ve olası her değerin kaç kez oluştuğunu sayın. İçin , her 1,000,000 kez (standart sapma meydana gelirse ). İçin , her 900.000 defa (standart sapma meydana gelirse ) ya da 1,100,000 kez (standart sapma ). veya ile uğraştığımızı , 1.000.000 ve 1.100.000 arasındaki fark 100 standart sapma yani büyüktür. O(1/ϵ2)m=106nD11000D210001000D1D2
DW

@DW Daha çok düşündüm - haklısın. Araçları sabit bir çarpım faktörü ile farklılık gösteriyorsa, nokta başına sabit sayıda örnek onları ayırt etmelidir. Önemli olan çarpımsal katkı maddesi değil. Bu yaklaşım daha sonra sadece alt sınırı verir . 1/ϵ2
usul
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.