Çok ilginç bir soru, işte benim üstüm.
Her şey kodlama bilgisi ile ilgili, sonra Bayesian krankını çevirin. Gerçek olamayacak kadar iyi görünüyor - fakat her ikisi de göründüğünden daha zor.
Soruyu sormaya başladım
Çoklu karşılaştırmalardan endişe duyduğumuzda hangi bilgiler kullanılıyor?
Bazılarını düşünebilirim - birincisi "veri tarama" - yeterince geçinceye / başarısızlığa ulaşana kadar "her şeyi" test et (eğitimli insanın hemen hemen tüm istatistiklerinin bu soruna maruz kalacağını düşünürdüm). Aynı zamanda daha az uğursuzluğa sahipsiniz, fakat esasen aynı "Çalıştırmak için çok fazla testim var - elbette hepsi doğru olamaz".
Bunu düşündükten sonra, fark ettiğim bir şey, belirli hipotezler veya belirli karşılaştırmalar hakkında fazla şey duymamanızdır. Tamamen “koleksiyon” ile ilgili - bu benim değişebilirlik hakkındaki düşüncelerimi tetikliyor - karşılaştırılan hipotez bir şekilde birbirlerine benzer. Ve nasıl bayesans analizine dönüştürülebilirliği nasıl kodlarsınız? - Hiper öncelikler, karışık modeller, rastgele etkiler, vb !!!
Ancak değişebilirlik yalnızca sizi oradaki yolun bir parçası haline getirir. Her şey değiştirilebilir mi? Ya da "seyreklik" var mı - örneğin sadece büyük bir aday havuzuna sahip sıfır olmayan birkaç regresyon katsayısı. Karışık modeller ve normal dağılmış rastgele etkiler burada çalışmaz. Sıkıştırma gürültüsü ile sinyalleri el değmeden bırakma arasında "sıkışmış" olurlar (örneğin, örneğinizde konum B ve konumC "doğru" parametrelerini eşit tutun ve konum A'yı "gerçek" parametresini keyfi büyük veya küçük tutun ve standart doğrusal karışık modelin başarısız olduğunu izleyin.) . Fakat sabitlenebilir - örneğin, "başak ve döşeme" öncelikleri veya "at ayakkabısı" öncelikleri ile.
Bu yüzden, ne tür bir hipotezden bahsettiğinizi tarif etmek ve önceki ve olası olasılıklara yansıyan birçok bilinen özelliği elde etmekle ilgili gerçekten. Andrew Gelman'ın yaklaşımı, örtük olarak geniş bir çoklu karşılaştırma sınıfını ele almanın bir yoludur. Tıpkı en küçük kareler ve normal dağılımlar gibi çoğu durumda iyi sonuç verme eğilimindedir (hepsi değil).
Bunun nasıl yapıldığına bakıldığında, aşağıdaki gibi düşünen bir insanı düşünebilirsiniz - grup A ve grup B aynı anlama gelebilir - verilere baktım ve araçlar "yakın" dır - Dolayısıyla, daha iyi bir tahmin elde etmek için her ikisi için de veriyi havuzlamalıyım, çünkü ilk düşüncelerim aynı anlama geliyordu. - Aynı değillerse, veriler "yakın" olduklarına dair kanıtlar sunar, bu yüzden "birazcık" bir araya getirme hipotezim yanlış olsaydı beni çok fazla incitmez (bazı modellerde yanlıştır, bazıları yararlıdır)
Yukarıdaki tüm menteşelerin “öncekiler aynı olabilir” öncüllerine dikkat edin. Şunu al, ve havuzlamanın bir gerekçesi yok. Muhtemelen testler hakkında düşünmenin bir "normal dağılım" yöntemi de görebilirsiniz. "Sıfır büyük olasılıkla", "sıfır değilse, o zaman sıfıra yakın en muhtemel", "aşırı değerler düşüktür". Bu alternatifi düşünün:
- A grubu ve B grubu, eşit olabilir, fakat aynı zamanda çok farklı olabilir.
O zaman “biraz” bir araya getirme tartışması çok kötü bir fikir. Toplam havuzu veya sıfır havuzu seçmekten daha iyi olursunuz. Cauchy, spike & slab, durum tipi (sıfıra yakın kütle ve aşırı değerler için kütle kütlesi) gibi daha fazlası
Bütün çoklu karşılaştırmaların üstesinden gelmek zorunda değil, çünkü Bayesian yaklaşımı bizi endişeye götüren ve / veya olabilirlikle ilgili bilgileri içeren bilgiler içeriyor . Bir anlamda, hangi bilgilerin sizin için uygun olduğunu düşünmeniz ve analizinize dahil ettiğinizden emin olmanız daha çok hatırlatır.