Neden f beta skoru beta'yı böyle tanımlar?


10

Bu F beta puanı:

Fβ=(1+β2)precisionrecall(β2precision)+recall

Wikipedia makalesi bu devletler .Fβ "measures the effectiveness of retrieval with respect to a user who attaches β times as much importance to recall as precision"

Bu fikri anlayamadım. Neden böyle tanımlanır ? F β'yi şu şekilde tanımlayabilir miyim :βFβ

Fβ=(1+β)precisionrecall(βprecision)+recall

Ve nasıl gösterilecek β times as much importance?


2
Aşağıda, "neden Beta değil Beta kare " konusunu ele alan diferansiyel hesabı içeren daha yeni bir cevaba göz atın .
javadba

Yanıtlar:


19

İzin vermek bir bilgisayar ve ilk tanımı ağırlıklı olarak ~ β set zaman ikinci ağırlığı, iki tanım eşdeğerdir ~ β = β 2 , bu iki tanım tanımında tek simge farkları temsil etmektedir, böylece F β skoru . Hem ilk yolu (örneğin wikipedia sayfasında ) hem de ikinciyi (örneğin burada ) tanımladığını gördüm .ββ~β~=β2Fβ

ölçü hassasiyeti ve hatırlama, hassas karşılıklı ve hatırlama karşıtının ortalama yani karşılıklı harmonik ortalaması alınarak elde edilir:F1

F1=1121precision+121recall=2precisionrecallprecision+recall

Paydada eşit ve 1'e kadar olan ağırlıkları kullanmak yerine ( Geri çağırma için 2 ve112 ), bunun yerine hala 1'e kadar olan ancak geri çağırmadakiağırlığın precision hassasiyetteki ağırlığınβkatı olduğuağırlıkları atayabiliriz(β12β Geri çağırma için + 1 ve1ββ+1Hassasiyet için β + 1 ). BuFβpuanıiçin ikinci tanımınızı verir:1β+1Fβ

Fβ=11β+11precision+ββ+11recall=(1+β)precisionrecallβprecision+recall

Yine, burada β yerine kullansaydık , ilk tanımınıza ulaşırdık, bu yüzden iki tanım arasındaki farklar sadece gösterimseldir.β2β


1
β

1
"Beta'ya değil neden Beta karesi " konusunu ele alan diferansiyel hesap aşağıdaki daha yeni bir cevapta yer almaktadır.
javadba

β(1+β)precisionrecallβprecision

6

β2ββ

β2

P/RE/R=E/PE=E(P,R)

Bu varlığın motivasyonu:

P/R

β2PRPRE1FEF

F=1(αP+1αR)

F/P=α(αP+1αR)2P2

F/R=1α(αP+1αR)2R2

αP/RβR/P

F/P=F/RαP2=1αR2RP=1αα

βαβ2

β=1ααβ2=1ααβ2+1=1αα=1β2+1

1α=11β2+1β2β2+1

Elde ederiz:

F=1(1β2+11P+β2β2+11R)

Sorunuzdaki formu vermek için yeniden düzenlenebilir.

ββ2βββ

Önerdiğiniz gibi bir puan tanımlayabilirsiniz, ancak bu durumda ya tartışılan yorumun artık geçerli olmadığını ya da kesinlik ve hatırlama arasındaki ticareti ölçmek için başka bir tanım ima ettiğinizi bilmelisiniz.

Dipnotlar:

  1. P/R

Referanslar:

  1. CJ Van Rijsbergen. 1979. Bilgi Edinme (2. baskı), s.133-134
  2. Y. Sasaki. 2007. “F-Gerçeğinin Gerçeği”, Öğretim, Öğretici materyaller

1
Bu kabul edilen cevap olmalı.
javadba

3

Bir şeyi hızlıca belirtmek için.

Bu, beta değeri arttıkça hassaslığa daha fazla değer verdiğiniz anlamına gelir.

Aslında bunun tam tersi olduğunu düşünüyorum - F-ring puanlamasında daha yüksek olduğu için paydanın küçük olmasını istiyorsunuz. Bu nedenle, β değerini düşürürseniz, model iyi bir hassasiyet puanına sahip olduğu için daha az cezalandırılır. Eğer β artırırsanız, hassasiyet yüksek olduğunda F-β puanı daha fazla cezalandırılır.

F-ring puanlamasını kesinlik değeri verecek şekilde ağırlıklandırmak istiyorsanız, β 0 <β <1 olmalıdır, burada β-> 0 sadece kesinlik değerlerini verir (pay çok küçük olur ve paydadaki tek şey hatırlanır, hatırlama arttıkça F-β skoru azalır).

http://scikit-learn.org/stable/modules/generated/sklearn.metrics.fbeta_score.html


0

Β ^ 2'nin hassasiyetle çarpılmasının nedeni, F-Skorlarının tanımlanma şeklidir. Bu, beta değeri arttıkça hassaslığa daha fazla değer verdiğiniz anlamına gelir. Bunu da işe yarayacak hatırlama ile çarpmak istiyorsanız, beta değeri arttıkça hatırlamaya daha çok değer vermeniz anlamına gelir.


0

1'den büyük beta değeri, modelimizin Hassasiyet ile karşılaştırıldığında Hatırlama modeline daha fazla dikkat etmesini istediğimiz anlamına gelir. Diğer yandan, 1'den küçük bir değer Hassaslığa daha fazla vurgu yapar.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.