Sıklık ve MLE'nin nispeten dar bir tanımını uygularsınız - eğer biraz daha cömertsek ve
Sıklık: Gerçek parametrelerden bağımsız olarak tekrarlı örnekleme altında tutarlılık hedefi (asimtotik) optimallik, tarafsızlık ve kontrollü hata oranları
MLE = puan tahmini + güven aralıkları (CI)
o zaman MLE'nin tüm frekansçı idealleri karşıladığı oldukça açık görünüyor. Özellikle, MLE'deki CI'ler, p-değerleri olarak, tekrarlanan örnekleme altında hata oranını kontrol eder ve birçok kişinin düşündüğü gibi, gerçek parametre değeri için% 95 olasılık bölgesi vermezler - dolayısıyla sık sık ve sık sık.
Bu fikirlerin hepsi Fisher'in temel kuramı olan "Teorik istatistiklerin matematiksel temelleri hakkında" makalesinde zaten mevcut değildi , ancak iyimserlik ve tarafsızlık fikri vardı ve Neyman son olarak sabit hata oranlarıyla CI oluşturma fikrini ekledi. Efron, 2013, "250 yıllık bir tartışma: İnanç, davranış ve önyükleme" Bayes / Frequentist tartışmasının çok okunabilir tarihinde özetliyor:
Sık sık bandwagon gerçekten 1900'lerin başında yuvarlandı. Ronald Fisher bir tahminde mümkün olan en iyi davranışı gösteren en uygun tahmin teorisini geliştirdi ve Jerzy Neyman da güven aralıkları ve testleri için aynısını yaptı. Fisher ve Neyman'ın prosedürleri, Bayesinizmi gölge bir varoluşa dönüştüren yirminci yüzyıl biliminin bilimsel ihtiyaçlarına ve hesaplama sınırlarına neredeyse mükemmel bir uyum sağladı.
Daha dar tanımınıza gelince - Bir yöntemin frekansçı felsefeyi izleyip izlemediğine karar vermenin ana ölçütü, sıklık riskini (FR) en aza indirmenin öncül olduğuna itiraz ediyorum. Ben FR minimize arzu edilen bir özelliktir aslında söyleyebilirim şu ziyade ondan önceki daha frequentist felsefesinden. Bu nedenle, bir karar kuralı / tahmincisinin FR'yi frekansçı olarak en aza indirmesi gerekmez ve FR'yi en aza indirgemek de bir yöntemin sıklıklaist olduğu anlamına gelmez, ancak bir sıkıcı şüphesiz FR'nin en aza indirilmesini tercih eder.
Özellikle MLE'ye bakarsak: Fisher, MLE'nin asemptotik olarak optimal olduğunu (FR'yi en aza indirmeye genel olarak eşdeğer) gösterdi ve bu kesinlikle MLE'yi tanıtmak için bir sebepti. Ancak, optimumluğun sonlu örneklem büyüklüğü için yeterli olmadığının farkındaydı. Yine de, tutarlılık, asimptotik normallik, parametre dönüşümleri altında değişmezlik gibi diğer istenen özelliklerden dolayı bu tahminciden memnun kaldı ve unutmayalım: hesaplamak kolay. Özellikle değişmezlik, 1922 makalesinde bolca vurgulanmıştır - okumadan, parametre dönüşümü altında değişmezliği korumanın ve genel olarak önceliklerden kurtulma yeteneğinin MLE'yi seçmedeki ana motivasyonlarından biri olduğunu söyleyebilirim. Akıl yürütmesini daha iyi anlamak istiyorsanız, 1922 belgesini gerçekten öneriyorum, '