RMSE ve Tespit Katsayısı


21

Fiziksel bir modeli değerlendiriyorum ve burada hangi yöntemlerden birini kullanmam gerektiğini bilmek istiyorum (RMSE ile Tayin Katsayısı R2 arasında)

Sorun şu şekildedir: x, giriş değeri için tahminler çıkaran bir fonksiyonum var . Ayrıca dediğim değer için gerçek bir gözlemim varyx¯=f(x).yx

Benim sorum RMSE veya R 2'nin artıları ve eksileri nelerdirR2 . İkisinin de üzerinde çalıştığım problem için kağıtlarda kullanıldığını gördüm.

Yanıtlar:


16

Her ikisini de kullandım ve yapmam gereken birkaç nokta var.

  • Rmse yararlıdır çünkü açıklamak kolaydır. Herkes ne olduğunu biliyor.
  • Rmse göreli değerler göstermez. Eğer , özel olarak aralık bilmelidir a < y x < β . Eğer α = 1 , β = 1000 , daha sonra 0.2 iyi bir değerdir. Eğer α = 0 , β = 1 , o kadar iyi artık değil görünmüyor.rmse=0.2α<yx<βα=1,β=1000α=0,β=1
  • Önceki yaklaşımla aynı şekilde, rmse, anket yaptığınız kişilerin veya aldığınız ölçümlerin çoğunlukla tekdüze olduğunu (herkes ürünü 3 yıldızla derecelendirdi) ve verilerin size yardımcı olduğu için sonuçlarınızın iyi görünmesini gizlemek için iyi bir yoldur. Veriler biraz rasgele olsaydı, modelinizin Jüpiter etrafında dönen olduğunu görürdünüz.
  • Oldukça sıradan daha belirlenmesi ayarlanmış katsayı, kullanım R2
  • Belirleme katsayısını açıklamak zordur. Sahadan insanlar bile \ footnote {gibi ayarlanmış bir katsayı katsayısı, istatistiksel model tarafından açıklanabilecek bir veri kümesindeki değişkenlik oranıdır. Bu değer, gelecekteki sonuçların model tarafından ne kadar iyi tahmin edilebileceğini gösterir. en fazla olarak asgari olarak 0, ve 1 sunar.}R2
  • Bununla birlikte, belirleme katsayısı, modelinizin bir fenomeni ne kadar iyi açıkladığını söylemede çok kesindir. eğer bakılmaksızın y x değerlerini, modeliniz kötü. İyi bir model için kesme noktasının 0.6'dan başladığına inanıyorum ve 0.7-0.8 civarında bir şeyiniz varsa, modeliniz çok iyi bir modeldir.R2=0.2yx
  • Özetlemek gerekirse, yani Modelinizle, gerçek verilerde olup bitenleri% 70'ini açıklayabilir söylüyor. Gerisi,% 30, bilmediğiniz bir şeydir ve açıklayamazsınız. Muhtemelen kafa karıştırıcı faktörler olduğu için veya modeli oluştururken bazı hatalar yaptınız.R,2=0.7
  • Bilgisayar biliminde hemen hemen herkes RMSE kullanır. Sosyal bilimler R,2 daha sık.
  • Modelinizdeki parametreleri doğrulamanız gerekmiyorsa, sadece rmse kullanın. Bununla birlikte, modelinizi oluştururken parametrelerinizi koymanız, kaldırmanız veya değiştirmeniz gerekiyorsa , bu parametrelerin verileri en iyi açıklayabileceğini göstermek için kullanmanız gerekir .R,2
  • kullanacaksanız , R dilinde kodlayın. Kütüphaneleri var ve tüm sonuçlara sahip olması için veriyi veriyorsunuz.R,2

Bir bilgisayar bilimcisi için, istatistik hakkında yazmak heyecan vericiydi. Saygılarımla.


8
This value shows how well future outcomes can be predicted by the model- bu son derece yanıltıcı ve sadece düz bir yanlışlığa yöneliyor . Belirli bir modelde yüksek bir belirleme katsayısının gelecekteki sonuçların ne kadar iyi tahmin edilebileceğine dair bir garanti yoktur.
Peygamber60091

5
Ben "gibi ifadeleri düşünüyorum eğer modeliniz kötüR,2=0.2 " " modeliniz çok iyidirR,2=0.7-0.8 " brüt genellemeler vardır. Gerçek bir dünya sorunu için birşey bir ise 0.8 kuvvetle şüpheli aşırı oturma problemleri yapacak ...R2
usεr11852 eski haline Monic diyor

3
eğer = 0.2, bağımsız yx değerlerinin, modeliniz kötü. İyi bir model için kesme noktasının 0.6'dan başladığına inanıyorum ve 0.7-0.8 civarında bir şeyiniz varsa, modeliniz çok iyi bir modeldir. Bu büyük oranda çalıştığınız alana bağlıdır. Gelecek yıl için yığın değişimiyle ilgili endeksleri tahmin etmeye çalıştığınızı düşünün. Bir ile dünyanın en zengin adamı olacağını R 2 0.2. R2R2
Jan Hackenberg

Jan Hackenberg ve Prophet60091 ile hemfikirim. Cevabınızın bazı bölümleri kesinlikle yanlış ve bunun neden kabul edilen cevap olduğunu ve insanların desteklediğini anlamıyorum. Aslında bu muhtemelen insanların metriklerini nasıl yorumlayacaklarını bilmeden kullandıkları anlamına gelir ..
Cord Kaldemeyer

9

Hangi Errror ölçümünü verirseniz verin, sonuç vektörünüzü bir ekte vermeyi düşünün. Metodunuzla karşılaştırmaktan hoşlanan, ancak başka bir hata ölçümünü tercih eden kişiler bu değeri tablonuzdan türetebilir.

:R2

  • R2

  • R2

  • Kareli artıkların toplam oranını oluşturduğunuz ve ortalamaya bölündüğünüz, anlaşılması kolay formülle ifade edilebilir:

R2=1SSEmean=1(yiyi¯)2(yiy¯)2

  • Radj.2. Here more predictors do punish the model. Expected to be more robust against overfitting.

RMSE:

  • You can reach a low RMSE only by having both a high precision (single but large outliers punish heavily) and no systematic error. So in a way a low RMSE garantues better quality than a high R2 does.

  • This number has a unit and is for people not familiar with your data not easy to interpret. It can be for example devided with the mean of the data to produce a rel.RMSE. Be careful, this is not the only definition of rel.RMSE. Some people prefer to divide by the range of their data instead of dividing by the mean.

As other people mentioned, the choice might be dependent on your field and state of the art. Is there a hugely accepted method to compare too? Use the same measurement as they do and you are able to directly link your methods benefits easily in the discussion.


7

Both the Root-Mean-Square-Error (RMSE) and coefficient of determination (R2) offer different, yet complementary, information that should be assessed when evaluating your physical model. Neither is "better", but some reports might focus more on one metric depending on the particular application.

I would use the following as a very general guide to understanding the difference between both metrics:

The RMSE gives you a sense of how close (or far) your predicted values are from the actual data you are attempting to model. This is useful in a variety of applications where you wish to understand the accuracy and precision of your model's predictions (e.g., modelling tree height).

Pros

  1. It is relatively easy to understand and communicate since reported values are in the same units as the dependent variable being modelled.

Cons

  1. It is sensitive to large errors (penalizes large prediction errors more than smaller prediction errors).

The coefficient of determination (R2) is useful when you are attempting to understand how well your selected independent variable(s) explain the variability in your dependent variable(s). This is useful when you are attempting to explain what factors might be driving the underlying process of interest (e.g., climatic variables and soil conditions related to tree height).

Pros

  1. Gives an overall sense of how well your selected variables fit the data.

Cons

  1. As more independent variables are added to your model, R2 increases (see adj. R2 or Akaike's Information Criterion as potential alternatives).

Of course, the above will be subject to sample size and sampling design, and a general understanding that correlation does not imply causation.


1

There is also MAE, Mean Absolute Error. Unlike RMSE, it isn't overly sensitive to large errors. From what I've read, some fields prefer RMSE, others MAE. I like to use both.


0

Actually,for statistical scientists should know the best fit of the model,then RMSE is very important for those people in his robust research.if RMSE is very close to zero,then the model is best fitted.

The coefficient of determination is good for other scientists like agricultural and other fields. It is a value between 0 and 1. If it is 1, 100% of the values matches to the observed data sets. If it is 0 ,then the data completely heterogeneous. Dr.SK.Khadar Babu,VIT University,Vellore,TamilNadu,India.


0

If some number is added to each element of one of the vectors, RMSE changes. Same if all elements in one of or both vectors are multiplied by a number. R code follows;

#RMSE vs pearson's correlation
one<-rnorm(100)
two<-one+rnorm(100)

rumis<-(two - one)^2
(RMSE<-sqrt(mean(rumis)))
cor(one,two)

oneA<-one+100

rumis<-(two - oneA)^2
(RMSE<-sqrt(mean(rumis)))
cor(oneA,two)

oneB<-one*10
twoB<-two*10

rumis<-(twoB - oneB)^2
(RMSE<-sqrt(mean(rumis)))
cor(oneB,twoB)
cor(oneB,twoB)^2

0

Sonuçta, her ikisi de aynı modelin seçimine yol açtığından, fark sadece standardizasyondur, çünkü RMSE, gözlem sayısının payda veya R karesinde olduğunu ve ikincisinin paydasının tüm modellerde sabit olduğunu gösterir (sadece bir ölçü diğer 10 farklı model için).

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.