«auc» etiketlenmiş sorular

AUC Eğri Altındaki Alanı temsil eder ve genellikle alıcı operatör karakteristiği (ROC) eğrisinin altındaki alanı ifade eder.


5
Eğri Altındaki Alan (AUC) veya c-istatistiği elle nasıl hesaplanır?
İkili bir lojistik regresyon modeli için eğri altındaki alanı (AUC) veya c-istatistiğini elle hesaplamak istiyorum. Örneğin, doğrulama veri setinde, bağımlı değişken için gerçek değere sahibim, tutulum (1 = tutuldu; 0 = tutulmadı) ve regresyon analizim tarafından oluşturulan her gözlem için öngörülen tutma durumu için öngörülen tutma durumu Eğitim seti kullanılarak …

3
AIC ve c-istatistiğinin (AUC) model uyumu için gerçekte ne ölçtüğü arasındaki fark nedir?
Akaike Bilgi Kriteri (AIC) ve c istatistiği (ROC eğrisinin altındaki alan) lojistik regresyon için uygun iki ölçü modelidir. İki önlemin sonuçları tutarlı olmadığında neler olup bittiğini açıklamakta sorun yaşıyorum. Sanırım model uyumunun biraz farklı yönlerini ölçüyorlar, ancak bu belirli yönler nelerdir? 3 adet lojistik regresyon modelim var. M0 modelinin bazı …
29 logistic  roc  aic  auc 

3
AUC neden daha doğru olan bir sınıflayıcı için daha doğru bir sınıflayıcıya göre daha yüksektir?
İki sınıflandırıcım var A: saf Bayesian ağı B: ağaç (tek başına bağlı) Bayesian ağı Doğruluk ve diğer önlemler bakımından A, B'den daha kötü performans gösterir. Ancak, ROC analizi yapmak için RR ROCR ve AUC paketlerini kullandığımda, A için AUC'nin B için AUC'den daha yüksek olduğu ortaya çıktı. olay? Gerçek pozitif …

2
Hassas Geri Çağırma Eğrisi (PR eğrisinin AUC'si) ve Ortalama Hassasiyet (AP) altındaki alan
Ortalama Hassasiyet (AP), Hassas Geri Çağırma Eğrisi altındaki Alan mı (PR eğrisi AUC'si)? DÜZENLE: PR AUC ve AP'deki farklılıklar hakkında bazı yorumlar. AUC, hassasiyetin yamuk enterpolasyonuyla elde edilir. Alternatif ve genellikle neredeyse eşdeğer bir ölçü, info.ap olarak döndürülen Ortalama Kesinliktir (AP). Bu, yeni bir pozitif örnek her çağrıldığında elde edilen …

3
SVM gibi ayrık sınıflandırıcılar için ROC eğrisi: Neden hala “eğri” diyoruz? Bu sadece bir “nokta” değil mi?
Tartışma: İkili sınıflandırma için bir roc eğrisinin nasıl üretileceğini , sanırım kargaşanın bir "ikili sınıflandırıcı" nın (2 sınıfı ayıran herhangi bir sınıflandırıcı olan) Yang için "ayrık sınıflandırıcı" olarak adlandırıldığı (bunun üreten olduğu) olduğunu düşünüyorum. kesikli çıkışlar bir SVM gibi 0/1 çıkışları ve ANN veya Bayes sınıflandırıcıları gibi sürekli çıkışlar değil …

4
Bu grafiğin adı yanlış ve gerçek pozitif oranları gösteren nedir ve nasıl üretilir?
Aşağıdaki resim, doğru pozitif oranlara karşı sürekli olarak yanlış pozitif oranların bir eğrisini göstermektedir: Ancak, hemen alamadığım, bu oranların nasıl hesaplandığı. Bir veri kümesine bir yöntem uygulanırsa, belirli bir FP hızına ve belirli bir FN hızına sahiptir. Bu, her yöntemin eğri yerine tek bir noktaya sahip olması gerektiği anlamına gelmiyor …

1
ROC eğrilerinin analizi için bir Bayesian metodu icat ettim mi?
önsöz Bu uzun bir yazı. Bunu tekrar okuyorsanız, arka plan materyali aynı kalmasına rağmen, soru bölümünü gözden geçirdiğimi lütfen unutmayın. Ek olarak, soruna bir çözüm geliştirdiğime inanıyorum. Bu çözüm gönderinin altında görünür. Özgün çözümümün (bu yazıdan düzenlenmiş; bu çözüm için düzenleme geçmişine bakın) mutlaka yanlı tahminler ürettiğine işaret ettiği için …

3
Neden AUC = 1 bile sınıflandırıcı numunelerin yarısını yanlış sınıflandırmıştır?
Olasılıkları döndüren bir sınıflandırıcı kullanıyorum. AUC'yi hesaplamak için pROC R-paketi kullanıyorum. Sınıflandırıcıdan çıktı olasılıkları: probs=c(0.9865780, 0.9996340, 0.9516880, 0.9337157, 0.9778576, 0.8140116, 0.8971550, 0.8967585, 0.6322902, 0.7497237) probs"1" sınıfında olma olasılığını gösterir. Gösterildiği gibi, sınıflandırıcı '1' sınıfındaki tüm örnekleri sınıflandırmıştır. Gerçek etiket vektörü: truel=c(1, 1, 1, 1, 1, 0, 0, 0, 0, 0) …

3
ROC eğrisinin altındaki alan veya dengesiz veriler için PR eğrisinin altındaki alan?
Hangi performans ölçüsünün kullanılacağı, ROC eğrisinin altındaki alan (FPR'ın bir fonksiyonu olarak TPR) veya hassas hatırlama eğrisinin altındaki alan (hatırlama fonksiyonu olarak hassasiyet) hakkında bazı şüphelerim var. Verilerim dengesiz, yani negatif örneklerin sayısı pozitif örneklerden çok daha fazla. Ben weka çıktı tahmini kullanıyorum, bir örnek: inst#,actual,predicted,prediction 1,2:0,2:0,0.873 2,2:0,2:0,0.972 3,2:0,2:0,0.97 4,2:0,2:0,0.97 …

2
ROC eğrisinin altındaki alana karşı doğruluk
Bir teşhis sistemi için bir ROC eğrisi oluşturdum. Daha sonra eğrinin altındaki alanın parametrik olmayan bir şekilde AUC = 0.89 olduğu tahmin edildi. En uygun eşik ayarında doğruluğu hesaplamaya çalıştığımda (noktaya en yakın nokta (0, 1)), teşhis sisteminin doğruluğunu 0.8 olarak aldım, bu da AUC'den daha az! Hassasiyeti optimum eşikten …


4
Degrade artırıcı makine doğruluğu, yineleme sayısı arttıkça azalır
Gradyan arttırıcı makine algoritmasını caretR'deki paket üzerinden deniyorum. Küçük bir kolej veri kümesi kullanarak, aşağıdaki kodu koştu: library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- "yes" ### Gradient boosting machine algorithm. ### set.seed(123) fitControl <- trainControl(method = …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 


1
logloss vs gini / auc
İki model (h2o AutoML kullanarak ikili sınıflandırıcılar) eğittim ve kullanmak için bir tane seçmek istiyorum. Aşağıdaki sonuçlara sahibim: model_id auc logloss logloss_train logloss_valid gini_train gini_valid DL_grid_1 0.542694 0.287469 0.092717 0.211956 0.872932 0.312975 DL_grid_2 0.543685 0.251431 0.082616 0.186196 0.900955 0.312662 aucve loglosskolonlar çapraz doğrulama metriklerdir (çapraz doğrulama sadece eğitim verileri kullanır). …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.