Önyüklenmiş p-değerlerini çarpma ile çarpan veri kümelerinde nasıl bir araya getirebilirim?


12

Ben çarpma impute (MI) verilerinden tahmini için p-değeri bootstrap istiyorum , ama bana p-değerleri MI kümeleri arasında nasıl birleştirileceği net değil.θ

MI veri kümeleri için, tahminlerin toplam varyansına ulaşmak için standart yaklaşım Rubin'in kurallarını kullanır. MI veri kümelerinin havuzlanması için buraya bakınız . Toplam varyansın karekökü standart bir hata tahmini olarak işlev görür . Bununla birlikte, bazı tahmin ediciler için toplam varyansın bilinen kapalı bir formu yoktur veya örnekleme dağılımı normal değildir. istatistiği daha sonra olmasa da t-dağıtılamaz.θθ/se(θ)

Bu nedenle, tam veri durumunda, alternatif bir seçenek, samling dağılımı normal olmasa ve kapalı formu bilinmese bile, varyans, p değeri ve güven aralığı bulmak için istatistiği yeniden başlatmaktır. MI durumunda iki seçenek vardır:

  • Önyükleme varyansını MI veri kümelerinde havuzlama
  • MI veri kümelerinde p değeri veya güven sınırlarını bir araya getirme

İlk seçenek Rubin'in kurallarını tekrar kullanır. Ancak, ben bu sorunlu olduğuna inanıyoruz olmayan normal bir örnekleme dağılımına sahiptir. Bu durumda (veya daha genel olarak, her durumda), önyüklemeli p değeri doğrudan kullanılabilir. Bununla birlikte, MI durumunda, bu, MI veri kümelerinde toplanması gereken birden fazla p-değerine veya güven aralığına yol açacaktır.θ

Benim sorum şu: birden çok önyüklemeli p-değerini (veya güven aralığını) çarpma çarpımlı veri kümelerinde nasıl bir araya getirmeliyim?

Nasıl ilerleyeceğiniz konusunda her türlü öneriyi memnuniyetle karşılarım, teşekkür ederim.


Belki de yardımcı olabilir: Eksik Veriler, İtme ve Önyükleme (Efron 1992) statistics.stanford.edu/sites/default/files/BIO%2520153.pdf
DL Dahly

@DLDahly Hmm, bu makaleye aşina değilim, ama fikir ilk önce önyükleme yapmak ve sonra çoklu impütasyon yapmak gibi görünüyor . OP, MI veri kümelerinden önyükleme tahminleri gibi görünmektedir.
tchakravarty

@fgnu Gerçekten, bootstrap ile bir tahminin toplam varyansına ulaşmak için standart prosedür, her MI veri kümesindeki varyansı önyüklemek ve daha sonra, MI veri kümeleri arasında önyüklemeli varyansı havuzlamak için Rubin'in kurallarını uygulamak olacaktır.
tomka

Yanıtlar:


6

Her iki seçeneğin de doğru cevabı verdiğini düşünüyorum. Genel olarak, tüm dağılımı koruduğu için yöntem 1'i tercih ederim.

Yöntem 1 için, MI çözeltilerinin her birinde parametresini önyükleyin . Daha sonra , nihai yoğunluğunuzu elde etmek için bootstrapped dağılımlarını karıştırın , şimdi impütasyonlar arası varyasyonu içeren örneklerinden oluşur . Daha sonra güven aralıklarını elde etmek için bunu geleneksel bir bootstrap örneği olarak kabul edin. Küçük örnekler için Bayes çizme kullanın. Bu prosedürü araştıran bir simülasyon çalışması bilmiyorum ve bu aslında araştırılması gereken açık bir problem.kmmkxm

Yöntem 2 için Licht-Rubin prosedürünü kullanın. Bkz birden emsal veri kümelerinde yapılan testlerde havuza alınmış p-değerleri almak nasıl?


+1 - Amaç, MI veri kümeleri arasındaki tahminlerin değişkenliğini anlamaksa, her MI veri kümesinde önyükleme yapar ve parametrenin toplam ve MI'ya özgü dağılımlarına bakarım.
DL Dahly

@ Stef-van-Buuren DL Dahly'nin önerdiği şey, güçlendirilmiş varyansı MI setleri arasında bir araya getirmekle eşdeğer görünüyor. Bu 'dolaylı' yaklaşım yerine yönteminizi tercih eder misiniz (tüm önyüklemeli veri kümelerini ekleyin)?
tomka

@tomka. Kesinlikle DL Dahly ile aynı şeyi yapacağım ve iç ve dış impütasyon dağılımlarını inceleyeceğim. Her iki dağıtım türünü de entegre etmek için, bunları bir şekilde birleştirmemiz gerekir. Benim önerim sadece onları karıştırmak.
Stef van Buuren

6

Bu, bildiğim bir literatür değil, ancak buna yaklaşmanın bir yolu, bunların önyüklemeli p-değerleri olduğu gerçeğini görmezden gelmek ve p-değerlerini çarpma veri kümelerinde birleştirmek hakkındaki literatüre bakmak olabilir.

Bu durumda, Li, Meng, Raghunathan ve Rubin (1991) geçerlidir. Prosedür, çarpışmadan kaynaklanan bilgi kaybının bir ölçüsü kullanılarak ağırlıklandırılmış, her bir veri kümesinin istatistiklerine dayanır. İstatistiklerin empedanslara ortak dağılımı ile ilgili konularla karşılaşırlar ve basitleştirici varsayımlar yaparlar.

İlgili ilgi alanı Meng'dir (1994) .

Güncelleme

P-değerlerinin çarpma veri kümelerinde birleştirilmesi için bir prosedür Christine Licht, Ch. 4 . Don Rubin'e atfettiği fikir, esas olarak normalde dağıtılacak p-değerlerini dönüştürmektir, bu da daha sonra z-istatistiklerinin kombinasyonu için standart kurallar kullanılarak MI veri kümeleri arasında birleştirilebilir.


Li ve ark. düzgün çalıştığında, her MI setinden aldığınız istatistikler için geçerlidir. Örneğin, her sette Pearson Chi² alırsanız, kuralları setler arasında çıkarım için birleştirmek için kuralları uygulanabilir. Örneğin bir Wald testi de yapılabilir. Ancak bir önyükleme durumunda, bir istatistik almazsınız (ancak sadece bir p değeri). Bu yüzden Li ve ark. önyükleme yapılabilir s.
tomka

1
@tomka Cevabımı güncelledim.
tchakravarty
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.