Tahminci ve tahmin arasındaki ilişki nedir?
Tahminci ve tahmin arasındaki ilişki nedir?
Yanıtlar:
EL Lehmann, klasik Nokta Tahmin Teorisi'nde bu soruyu pp 1-2'de yanıtlıyor.
Gözlemlerin şimdi , bilinen bir sınıfa ait ortak olasılık dağılımını ( takip ettiği varsayılan rastgele değişkenler tarafından üstlenilen değerler olduğu varsayılmaktadır ...
... şimdi tahmin etme noktasında uzmanlaşalım ... [öngörülen dağılım sınıfında] tanımlanan gerçek-değerli bir fonksiyon olduğunu ve g'nin [gerçek dağılımdaki her ne ise ne olduğunu bilmek istediğimizi varsayalım . etkisi, θ ]. Ne yazık ki, θ ve dolayısıyla g ( θ ) bilinmemektedir. Bununla birlikte, veriler için tahmini bir değer elde etmek için kullanılabilir g ( İçeride ISTV melerin RWMAIWi'nin ) dark yakın olacağı bir değere g ( θ ) .
Kelime: bir tahminci , belirli bir problemin üretebileceği olası herhangi bir veri seti için bir sayı ( tahmin ) ile gelen kesin bir matematiksel prosedürdür . Bu sayının, veri oluşturma işleminin belirli bir sayısal özelliğini ( ) temsil etmesi amaçlanmıştır ; buna "tahmin" diyebiliriz.
Tahmin edicinin kendisi rastgele bir değişken değildir : bu sadece matematiksel bir işlevdir. Ancak, ürettiği tahmin, rastgele değişkenler olarak modellenen verilere dayanmaktadır. Bu, tahminin (verilere bağlı olarak düşünüldüğü gibi) rastgele bir değişken haline gelmesini sağlar ve belirli bir veri kümesi için özel bir tahminde , rastgele bir değişkenin gerçekleşmesi olur.
Bir (geleneksel) sıradan en küçük kareler formülasyonunda, veriler sıralı çiftlerden oluşur . X ı (bunlar, örneğin, verilen bir ilacın miktarları olabilir) deneyi ile tespit edilmiştir. Her y ı (örneğin ilaca yanıt,) Normal bir olasılık dağılımından ama bilinmeyen ortalama ile gelen varsayılır u i ve ortak varyans σ 2 . Bundan başka, araçlar ile ilişkili olduğu varsayılır x i üzeri formül μ i = β 0 . Bu üç parametre - σ , β 0 ve β 1 - y i'nin herhangi bir x i değeri içintemel dağılımını belirler. Bu nedenle, bu dağılımınherhangi birözelliği ( σ , β 0 , β 1 ) işlevi olarak düşünülebilir. Bu özelliklere örnek olarak cept 0 , eğim β 1 , cos değerinin ( σ + inter) kesilmesi verilebilir.veya(=bu formülasyona göre)β0+2β1olması gerekenx=2değerindeki ortalama bile.
Bu en küçük kareler bağlamda, bir sigara, örneğin , bir tahmin edicinin değerinde tahmin etmek için bir işlem olur ise x 2'ye eşittir ayarlanmış Bu olup bu değer, çünkü tahmin y olan rasgele (şekilde tamamen ayrı Verinin rastgeleliği): Bu dağılımla ilgili olmasına rağmen, dağıtımın (kesin sayısal) bir özelliği değildir. (Sadece testere olsa da, şöyle beklentisi ve y için x = 2 , e eşit p 0 + 2 β 1 , tahmin edilebilir.)
Lehmann'ın formülasyonunda, neredeyse her formül, neredeyse her mülkün bir tahmincisi olabilir. Bir tahminci ve tahminci arasında içsel bir matematiksel bağlantı yoktur. Bununla birlikte, bir tahmincinin tahmin etmesi öngörülen miktara oldukça yakın olması ihtimalini önceden değerlendirebiliriz. Bunu yapmanın yolları ve onları nasıl kullanacakları tahmin teorisinin konusudur.
Kısacası: bir tahmin edici bir fonksiyondur ve bir tahmin, gözlemlenen bir örneği özetleyen bir değerdir.
Bir tahmin edici , rastgele bir örneği parametre tahminine eşleyen bir işlevdir:
Not bir tahmin edici olduğu, nrastgele değişkenlerX1,x2,. . . ,X,n,rasgele bir değişkendir Θ . Örneğin, bir tahminci örnek ortalamasıdır: ¯ X =1
It might be helpful to illustrate whuber's answer in the context of a linear regression model. Let's say you have some bivariate data and you use Ordinary Least Squares to come up with the following model:
Y = 6X + 1
At this point, you can take any value of X, plug it into the model and predict the outcome, Y. In this sense, you might think of the individual components of the generic form of the model (mX + B) as estimators. The sample data (which you presumably plugged into the generic model to calculate the specific values for m and B above) provided a basis on which you could come up with estimates for m and B respectively.
Consistent with @whuber's points in our thread below, whatever values of Y a particular set of estimators generate you for are, in the context of linear regression, thought of as predicted values.
(edited -- a few times -- to reflect the comments below)
Suppose you received some data, and you had some observed variable called theta. Now your data can be from a distribution of data, for this distribution, there is a corresponding value of theta that you infer which is a random variable. You can use the MAP or mean for calculating the estimate of this random variable whenever the distribution of your data changes. So the random variable theta is known as an estimate, a single value of the unobserved variable for a particular type of data.
While estimator is your data, which is also a random variable. For different types of distributions you have different types of data and thus you have a different estimate and thus this corresponding random variable is called the estimator.