Neden biri `` rastgele '' güven veya güvenilir aralıklar kullanır?


16

Yakın zamanda, güveni ve güvenilir aralıklarında rastgeleliği içeren bir makale okuyordum ve bunun standart olup olmadığını merak ediyordum (ve eğer öyleyse, bunu yapmak neden makul bir şey). Gösterimi ayarlamak için, verilerimizin xX ve parametresi için aralıklar oluşturmakla ilgilendiğimizi varsayalım θΘ. Bir işlev oluşturarak oluşturulan güven / güvenilirlik aralıklarına alışkınım:

fx:Θ{0,1}

ve aralığımızın I = { θ Θ olmasına izin vermekI={θΘ:fx(θ)=1} .

Bu, verilere bağlı olması açısından rastgele, ancak verilere bağlı olarak sadece bir aralıktır. Bu makale bunun yerine

gx:Θ[0,1]

ve IID düzgün rastgele değişkenler koleksiyonu ile [ 0 , 1 ] . İlişkili aralığı I = { θ Θ olarak tanımlar.{Uθ}θΘ[0,1] . Bunun büyük ölçüde verilerden gelen her şeyin ötesinde yardımcı rastgelelığa bağlı olduğunu unutmayın.I={θΘ:fx(θ)Uθ}

Bunu neden yapacağım konusunda çok merak ediyorum. Bence gibi fonksiyonlardan g x gibi fonksiyonlara bir aralık kavramını `` gevşetmek '' mantıklıdır; bir çeşit ağırlıklı güven aralığıdır. Onun için herhangi bir referans bilmiyorum (ve herhangi bir işaretçi takdir ediyorum), ama oldukça doğal görünüyor. Ancak, yardımcı rasgelelik eklemek için herhangi bir neden düşünemiyorum.fxgx

Literatürün herhangi bir göstergesi / bunu yapmak için nedenler takdir edilecektir!


5
(+1) Buna rastgele prosedür denir . Bunlar, istatistiksel tahmin ve test çerçevesinin standart bir parçasıdır, bu nedenle açıklamalar sağlamak için hemen hemen tüm titiz ders kitaplarına güvenebilirsiniz. Kullanımları için ek motivasyonlar oyun teorisi literatüründe bulunabilir.
whuber

Yanıtınız için teşekkürler. Bu yorumu okuduktan sonra, örneğin bootstrapping'in bu çerçeveye uyduğunu fark ettim, ancak bu durumda randomizasyonun nedeni açıktır (f'ye erişiminiz yok, sadece g). Benim durumumda, yazarlar açıkça hesaplar ve sonra g x'e bakar . Birçok istatistik ders kitabım olmasına rağmen, bunu hiçbir yerde görmüyorum ... önerilen bir metniniz var mı? fxgx
QQQ

3
Aslında, önyükleme rastgele bir prosedür değildir . Rasgele örnekleme yoluyla yaklaşık hesaplaması yapılan bir belirleyici prosedürdür .
whuber

Yanıtlar:


4

Teoride basitleştirilmiş prosedürler bazen teoride kullanılır çünkü teoriyi basitleştirir. Tipik istatistiksel problemlerde pratikte mantıklı değilken, oyun teorisi ortamlarında mantıklı olabilir.

Pratikte kullanabilmem için tek neden, hesaplamaları bir şekilde basitleştirmesidir.

Teorik olarak, bunun yeterlilik ilkesinden kullanılmaması gerektiği iddia edilebilir : istatistiksel sonuçlar sadece verilerin yeterli özetlerine dayanmalıdır ve rasgeleleştirme, verilerin yeterli bir özetinin parçası olmayan yabancı bir rastgele bağımlılığını ortaya çıkarır .U

UPDATE  

Diğerlerinin belirttiği gibi, deneymenler deneysel verilerinin oluşturulmasında randomizasyon, tedavi ve kontrolün rastgele atanması gibi mükemmel bir şekilde kullanmak istiyorlar. , veriyi takip eden analizde rasgeleleştirmeyi kullanma konusunda bu kadar farklı (ve pratik veya sakıncalı) olan nedir? "

Verileri elde etmek için deneyin randomizasyonu, esas olarak nedensellik zincirlerini kırmak için bir amaç için yapılır. Etkili olup olmadığı ve ne zaman etkili olduğu başka bir tartışmadır. Analizin bir parçası olarak randomizasyonu kullanmanın amacı ne olabilir? Görmemin tek nedeni matematiksel teoriyi daha eksiksiz hale getirmesidir! Gittiği sürece sorun değil. Oyun teorisi bağlamında, gerçek bir düşman olduğunda, randomizasyon onu şaşırtmak için yardımım. Gerçek karar bağlamında (sat ya da satmama?) Bir karar alınmalıdır ve verilerde kanıt yoksa, belki sadece bir bozuk para atabilir. Ancak bilimsel bir bağlamda, sorunun ne öğrenebileceğimiz olduğuverilerden, randomizasyon yerinde görünmüyor. Bundan gerçek bir avantaj göremiyorum! Kabul etmezseniz, bir biyoloğu veya kimyacıyı ikna edebilecek bir argümanınız var mı? (Ve burada simülasyonu bootstrap veya MCMC'nin bir parçası olarak düşünmüyorum.)


1
Rastgele prosedürler neden "pratikte anlamlı değil"? Diğerlerinin de belirttiği gibi, deneyciler, randomize tedavi ve kontrol ataması gibi deneysel verilerinin yapımında randomizasyonu mükemmel bir şekilde kullanmaya istekli olduklarından , verilerin sonraki analizinde randomizasyonun kullanılmasıyla ilgili çok farklı (ve pratik veya sakıncalı) olan şey ?
whuber

1
@kjetil Sanırım yeterlilik ilkesiyle ilgili açıklamanızı tamamlamamış olabilirsiniz, cümlenin ortasında kesilmiş gibi görünüyor ("istatistiksel sonuçlar ...").
Silverfish

1
U

1
@whuber: Verilerin elde edilmesinde randomizasyonun avantajlı olabileceği açık ve ilkeli bir argüman. (Nedensel zincirleri kırar). Analizin bir parçası olarak randomizasyonu kullanmak için bu ilkeli argüman nedir?
kjetil b halvorsen

1
Kjetil: İstediğiniz gibi olmayan bir risk işlevini (genellikle nominal boyut ve güç biçiminde) kabul etmek yerine, amaçlanan risk işlevine ulaşmanızı sağlar. Dahası, eğer bir prosedür "teorik olarak" faydalıysa, pratikte uygulanamazlığına (pratik olmayan uygulamalarda genellikle böyle değildir) kesinlikle hiçbir şekilde itiraz edilemez. Böylece soru başının açık olması gerektiği: üzerinde yüktür sen randomize prosedürleri kullanarak bir terslik mi var göstermek için. Kendinizle çelişmeden bunu nasıl başarıyorsunuz?
whuber

3

Fikir teste atıfta bulunur, ancak testin ve güven aralıklarının ikiliği göz önüne alındığında, aynı mantık CI'lar için de geçerlidir.

Temel olarak, randomize testler, ayrı değerli deneyler için de belirli bir boyuttaki testin elde edilmesini sağlar.

α=0.05pH0:p=0.5H1:p<0.5n=10

H0k=2ppbinom(2,10,.5)k=1H0

k=2


α

Sanırım, RA Fisher biraz keyfi olarak% 5'lik bir önem seviyesi ile çalışmaya karar verdiğinde, istatistiklerin tarihine geri dönüyor. Bildiğimiz gibi,% 5'i, iyi bir teorik temelden yoksun olmasına rağmen, birçok alanda bir tür altın standardına dönüştü.
Christoph Hanck
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.