İstatistiklerde bazı anakronistik uygulama örnekleri nelerdir?


55

Ben onların varlığını sürdüren uygulamalara atıfta bulunuyorum, ancak başa çıkmak için tasarladıkları problemler (genellikle hesaplamalı) çoğunlukla çözülmüş olsa da.

Örneğin, Yates’in sürekliliği düzeltmesi, Fisher’ın tam testini testiyle yaklaşık olarak gerçekleştirmek için icat edildi , ancak yazılım artık büyük testlerde bile Fisher testini idare edebileceğinden artık pratik değil. Varlık ", çünkü Agresti'nin Kategorik Veri Analizi gibi ders kitaplarında sık sık Yates 'düzeltmesinin" artık gerekli olmadığını kabul ediyor ").χ2

Bu tür uygulamaların diğer örnekleri nelerdir?


Ki-kare testinin Fisher'in kesin testini yapmak için gereken hesaplama gücünün mevcudiyeti tarafından eskimiş olduğundan emin değilim, örneğin, marjinalleriniz gerçekten sabit mi? Örneğin bu cevabı başka bir soruya , @gung tarafından bakınız. (Sorunu daha ayrıntılı olarak tartışan bir konuya sahip olduğumuza eminim ama "chi-kare kullanmalı mıyım yoksa Fisher'ın kesin testini mi kullanmalıyım?"
Araştırıyorum

@ Silverfish: eski yapıldığını kastetmedim , sadece Yates düzeltmesi yapıldı. Çalışmaların, marjinaller düzelmediğinde Yates’in düzeltmesinin çok tutucu olduğunu gösterdiğine inanıyorum. Michael Haber'in makalesi Süreklilik Düzeltme ve İstatistiksel Test bir derleme sağladı. χ2
Francis


LAD yerine OLS kullanıyor musunuz?
PatrickT

5
@PatrickT: Ben var çok sorun çağdışı EKK çağıran. Tabii, LAD açıkça üstün olduğunda özel durumlar var ... ama aynı yönde de söylenebilir.
Cliff AB,

Yanıtlar:


49

veya P = 0.01 gibi eşik anlamlılık seviyelerinin kullanımının, çoğu araştırmacının önceden hesaplanmış kritik değerler tablolarına bağlı olduğu bir döneme ait tarihsel bir kalıntı olduğu şiddetle tartışılabilir . Şimdi iyi bir yazılım doğrudan P -değerleri verecektir . Gerçekten de, iyi yazılım analizinizi kişiselleştirmenize izin verir ve ders kitabı testlerine bağlı değildir.P=0.05P=0.01P

Bu, yalnızca bazı anlamlılık test problemlerinin, bir partiyi kabul etmenin veya reddetmenin gereken karar olduğu gibi kalite kontrolünde olduğu gibi kararlar gerektirdiği ve ardından bir eylemden sonra çekişmelidir . Fakat orada kullanılacak eşikler bile geleneğe bağlı değil, risk analizinden çıkmalı. Ve çoğu zaman bilimlerde, nicel göstergelerin analizi kararlardan daha uygundur: düşünme, nicel olarak -değerlerinin büyüklüğüne dikkat çeker, sadece ham bir ikilik için değil, anlamlı ve anlamlı değil.P

Burada tüm kitapların ve muhtemelen binlerce makalenin odak noktası olan karmaşık ve tartışmalı bir konuya değineceğimi işaretleyeceğim, ancak bu konu için adil bir örnek gibi görünüyor.


4
Harika bir örnek! Başvuru için, bu konuya değinmeye değer: p-değerleri ile ilgili olarak, neden% 1 ve% 5? Neden% 6 ya da% 10 değil?
Francis

5
@ JM% 95 güvende olduğum için% 99 güvende olduğum halde haklısın.
Mark L. Stone

5
Aslında bunun iyi bir örnek olduğundan emin değilim. eskisinden daha kolay bir şekilde test etmenin daha kolay olduğu doğru olsa da , neden özel durumlarda dışında (yani kalite kontrol) dışarıda olmak istediğinizi sorduğumda hiç iyi bir tartışma görmedim. keyfi önem seviyelerinin hala kullanıldığını bilin. α=0.038561
Cliff AB,

4
@CliffAB Kesin bir P-değerinin asıl amacının bir karar için benimsemek istediğiniz kritik seviyeyi oluşturduğuna karar vermeniz olduğunu sanmıyorum. Bunu kesinlikle önermiyorum veya savunmuyorum. Buradaki argümanın bir kısmı sadece 0,05 ve 0,01'in en iyi konvansiyonel seviyelerde olduğu değil, testlerin ikili bir karar vermekten ziyade boş bir hipoteze karşı kanıt gücünü değerlendirmek için bir yol sağlamasıdır. Uygulamada 0,05 ve 0,01 seviyeleri çok alanda yoğun olarak kullanılmaktadır.
Nick Cox,

4
@Nick Cox Ve rahat, sakin kalabalık için 0,1 seviyesini unutma.
Mark L. Stone,

24

Bu sitenin pek çok ziyaretçisinin benimle aynı fikirde olacağını düşündüğüm bir yöntem, adım adım regresyon. Hala her zaman yapılır , ancak kullanımına odaklanarak bu sitedeki uzmanları aramak zorunda değilsiniz. LASSO gibi bir yöntem daha çok tercih edilir.


4
HA!! Bir anakronizmin (kademeli gerileme), kendisinin yapıcıları henüz farketmemiş, kendi zamanında bir anakronizm olan yeni nesil anakronizmle (LASSO) değiştirilmesini öneriyorsunuz. Bkz stats.stackexchange.com/questions/162861/... .
Mark L. Stone

3
@ MarkL.Stone: Hey dostum, en azından 20 yıl doğru yöne dönüyor. Bu yöntemlere pek aşina değilim, bu yüzden onlara onay vermeden önce onları okumam gerekecekti.
Cliff AB,

2
Makaleyi hızlıca okuduktan sonra, her zaman en uygun seçenek olmasa da, LASSO'nun resmi olarak modası geçmiş olduğuna karar vermekte tereddüt ediyorum. Belki 5 yıl içinde LASSO modası geçmişini aramak daha rahat olacağım.
Cliff AB,

2
@ amoeba: Sanırım Mark, LASSO'yu en iyi alt küme regresyonu için bir araç olarak kullanma pratiğinden bahsediyor. Örneğin, birisini okuduğumu, önce LASSO'yu taktığını ve ardından sıfır olmayan regresyon parametrelerini kullanarak cezalandırılmayan bir modeli yeniden yerleştirdiğini tartışırken hatırlıyorum. En iyi alt küme regresyonu bunu yapmanın daha doğrudan bir yolu olabilir (dediğiniz gibi, analistin yapmak istediği şey olsa bile bunun iyi bir fikir olduğu açık değildir ).
Cliff AB,

2
... ve makale, açıkça LASSO'yu gerçekleştirdiği en az bir durum (yani, belirli parametreler altındaki simülasyon) sunmaktadır, bununla birlikte, hepimiz bu sonuçları kendi başlarına ne kadar ciddiye almamız gerektiğini tam olarak biliyoruz.
Cliff AB,

17

Benim görüşüme göre, en azından (uygulamalı) ekonometride, kovaryans matrisinin doğru spesifikasyonuna dayanarak (asimptotik) güvenmenin "asik olmayan" uygulamasından ziyade sağlam veya ampirik kovaryans matrisinin kullanılması daha fazla normaldir. Bu elbette tartışmasız değil: burada CrossValidated ile ilişkilendirdiğim bazı cevaplara bakın, ancak kesinlikle açık bir trend.

E[uu']=σ2benn

Diğer örnekler, panel verilerini içerir, Imbens ve Wooldridge, örneğin ders slaytlarında yazmak , rastgele etkiler varyansı kovaryans matrisinin kullanılmasına karşı savunurlar (örtük olarak varyans bileşeninde varsayılan olarak bazı yanlış belirtimler varsayarsak):

σc2σu2

Genelleştirilmiş doğrusal modeller kullanarak (üstel aileye ait dağılımlar için), genellikle doğru dağıtım varsayımlarına dayanmak yerine, her zaman sözde sandviç tahmincisini kullanmanız tavsiye edilir (buradaki aachronistic uygulama): örneğin bu cevaba veya Cameron'a atıfta bulunma Verileri saymak için, çünkü sözde-maksimum olabilirlik tahmini yanlış tanımlama durumunda oldukça esnek olabilir (örneğin, negatif binom doğruysa Poisson kullanmak).

Bu [Beyaz] standart hata düzeltmeleri, Poisson regresyonu için yapılmalıdır, çünkü OLS için benzer heteroskedastiklik düzeltmelerinden çok daha büyük bir fark yaratabilirler.

Greene, ders kitabında Bölüm 14'teki (web sitesinde bulunabilir) örneğin kritik bir notla yazıyor ve bu uygulamanın avantajları ve dezavantajları hakkında daha ayrıntılı bilgi veriyor:

Mevcut literatürde, bu [sandviç] tahmin edicisini rutin olarak hesaplamak için bir olasılık vardır, olasılık fonksiyonundan bağımsız olarak. * [...] * Bir kez daha sandviç tahmincisinin kendi içinde mutlaka bir şey olmadığını vurgularız. Olabilirlik işlevi yanlış tanımlanmışsa ve M tahmincisinin diğer koşulları yerine getirilmemişse erdem.


4
İlginç, ancak soru, anakronistik olan, şimdi giderek artan bir standart değil, bu yüzden cevabın tersine çevrilmesi gerekiyor.
Nick Cox

1
Merhaba Nick, yorumunuz için teşekkür ederiz (ve düzenlemeleriniz), metni, anakronistik uygulamanın ne olduğunu vurgulamak için değiştirdim, umarım biraz daha netleşir. Eski uygulama standart hata hakkında özel olarak hiçbir şey yapmaya çok yakın olduğu için bütün metni tersine çevirmedim.
Arne Jonas Warnke

Bazı durumlarda, zaman çizelgesi gibi, doğal alternatiflerin kullanılması mümkün değildir ve sağlam alternatiflerin kullanılması mümkün değildir. Bu yüzden “daha ​​popüler” değil, sadece “bazı bölgelerde daha popüler” olduğunu düşünüyorum.
Henry,

13

m>1mm=1

m=30


Bunu göndermek için buraya geldim. Ayrıca: FWER'in daha yeni FDR yöntemlerine (ölçeklenebilirlik ve uyarlanabilirlik nedeniyle) tercih edileceği bir durum olmadığı konusunda ikna olmadım.
Alexis,

13

Anakronistik uygulamaların çoğu muhtemelen istatistiklerin öğretilme biçiminden ve analizlerin sadece birkaç temel ders alan çok sayıda insan tarafından yapılmasından kaynaklanmaktadır. Genellikle bir takım standart istatistiksel fikirleri ve prosedürleri öğretiyoruz, çünkü pedagojik olarak mantıklı artan kavramsal karmaşıklığın mantıksal bir dizisini oluşturuyorlar (çapraz başvuru, nüfus varyansını nasıl bilebiliriz? ). Bundan kendimi suçluyorum: zaman zaman istatistik 101 ve 102'yi öğretiyorum ve sürekli 'Bunu yapmanın daha iyi bir yolu var, ama bu sınıfın kapsamı dışında' diyorum. Giriş sırasının ötesine geçmeyen öğrenciler için (hemen hemen hepsi), temel, ancak geçersiz stratejiler bırakılmıştır.

  1. Bir istatistik 101 örneği için, muhtemelen en yaygın anakronistik uygulama, bazı varsayımları test etmek ve daha sonra geleneksel bir istatistiksel analiz yapmaktır, çünkü test anlamlı değildi. Daha modern / gelişmiş / savunulabilir bir yaklaşım, baştan beri bu varsayıma dayanıklı bir yöntem kullanmak olacaktır. Daha fazla bilgi için bazı referanslar:

  2. İstatistikler 102 örnekleri için, herhangi bir sayıda modelleme uygulaması modellenmiştir:

    • Yp
    • Y
    • Kübik çizgilere karşı eğriliği yakalamak için daha yüksek dereceli bir polinom kullanma.
    • pR,2
    • Tekrarlanan ölçüm verileriyle, sürekli bir değişkenin sınıflandırılması, böylece rmANOVA kullanılabilir veya lineer karışık bir model kullanarak çoklu ölçümlerin ortalaması alınabilir.
    • Vb.

Tüm bu durumlarda asıl mesele, insanların başlangıç ​​sınıfında ilk öğretilenleri yaptıklarıdır çünkü daha ileri ve uygun yöntemleri bilmiyorlar.


5

Çok ilginç bir örnek, ekonometride birim kök testleridir . Bir zaman serisinin gecikmeli polinomundaki bir birim köküne karşı veya bir birim kökü için test etmek için birçok seçenek olsa da (örneğin, (Artırılmış) Dickey Fuller Testi veya KPSS testi), bir Bayes analizi kullanıldığında sorun tamamen çözülebilir . Sims , 1991'den itibaren Birim Rooters'ı Anlamak: Bir Helikopter Turu başlıklı kışkırtıcı makalesinde bunu vurguladı .

Birim kök testleri geçerli kalır ve ekonometride kullanılır. Ben şahsen bunu daha çok Bayesian uygulamalarına uyum sağlama konusunda isteksiz olan kişilere bağlayacak olsam da, çoğu muhafazakar ekonometrist, dünyadaki bir Bayesian görüşünün ekonometrik araştırma öncülüne aykırı olduğunu söyleyerek birim kök testlerinin uygulanmasını savunuyor. (Ekonomistler, dünyayı bazı hiperparametrelerin yönettiği rastgele parametreler değil, sabit parametreli bir yer olarak görüyorlar.)


5
Bayesian uygulamalarının bu testleri nasıl atlattığı ile ilgili kısa bir tartışma ile ilgileneceğim Başka bir deyişle, bu iddia için davayı nasıl yaparsınız?
Mike Hunter

Makaleyi okuduğumdan bu yana bir süre geçtiğini itiraf etmeliyim, ancak asıl mesele, bir zaman serisinin Bayes analizinden önce bir daire kullanmanın standart t-değerlerini kullanabileceğidir.
Jeremias K

5

Yüksek kaliteli istatistiksel yazılım sistemleri için lisans ücreti ödersiniz. #R


1

İki kuyruklu testlerin farklılık için aynı anda hipotez testinde denklik için eşdeğerlik testi yapmadan öğretilmesi / yürütülmesi , doğrulama yanlılığına derin bir bağlılıktır .

Düşünceli etki büyüklüğü tanımına sahip uygun bir güç analizinin buna karşı koruyabilmesi ve aynı tür çıkarımlar sağlayabilmesi için bir nüans vardır, ancak (a) güç analizleri bulguları sunmakta çok sık görmezden gelinir ve (b) I var asla örneğin, her bir çoklu regresyon içinde her bir değişken için tahmin edilen katsayı, ancak, bir güç analizi görülen kombine farkın testler ve denklik için testler için bunu yapmak için basittir (yani alaka testleri).


0

Sayım değişkenine ilgi parametresini tanımlamak için (güçlü) bir Poisson modeli yerine Negatif Binom modelinin kullanılması, yalnızca aşırı dağılım olduğu için mi?

Referans olarak bakınız: https://blog.stata.com/2011/08/22/use-poisson-rather-than-regress-tell-a-friend/

Poisson'un sabit etkiler durumunda daha sağlam olduğunun kanıtı, şu şekilde atıfta bulunulmasından dolayı oldukça yenidir: Wooldridge, JM, “Bazı Doğrusal Olmayan Panel Veri Modellerinin Dağıtımsız Tahmini”, Ekonometri Dergisi 90 (1999), 77-97.


-6

İşte birkaç anakronizm:

  • Neoplatonik teorik eterde orada eksik örneklerin değerlendirilebileceği sonsuz, sabit ve hareketsiz tek bir "gerçek" nüfus olduğu varsayımı, öğrenme ve bilgiyi ilerletmek için çok az şey yapar.

  • Occam's Razor gibi kurallara özgü indirgemecilik zamanla tutarsız. VEYA, “Rekabet eden hipotezler arasında en az varsayımlara sahip olanın seçilmesi gerektiği” şeklinde özetlenebilir. Alternatifler arasında, Epicurus'un kabaca "Birden fazla teori verilerle tutarlıysa hepsini saklayın" şeklinde belirten Çoklu Açıklama Prensibi bulunur .

  • Tüm akran değerlendirme sistemi umutsuzca elden geçirilmeye ihtiyaç duyuyor.

* Düzenle *

  • On milyonlarca özellik içeren büyük veri ile, artık değişken seçim aşamasına ihtiyaç duyulmaz.

  • Ek olarak, çıkarımsal istatistikler anlamsızdır.


Yorumlar genişletilmiş tartışmalar için değildir; bu konuşma sohbete taşındı .
whuber
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.