«precision-recall» etiketlenmiş sorular

P&R, geri alınan örnek kümesinin alaka düzeyini ölçmenin bir yoludur. Kesinlik, alınan tüm örneklerin doğru örneklerinin yüzdesidir. Alaka düzeyi, alınan gerçek örneklerin yüzdesidir. P&R'nin harmonik ortalaması F1 skorudur. P&R, veri madenciliğinde sınıflandırıcıları değerlendirmek için kullanılır.

3
Dengesiz bir ortamda maliyete duyarlı öğrenme için öneriler
Birkaç milyon satır ve ~ 100 sütun içeren bir veri kümem var. Ortak bir sınıfa ait veri kümesindeki örneklerin yaklaşık% 1'ini tespit etmek istiyorum. Minimum hassasiyet kısıtlamam var, ancak çok asimetrik maliyet nedeniyle belirli bir geri çağırma konusunda çok hevesli değilim (10 olumlu maçla kalmadığım sürece!) Bu ortamda önerebileceğiniz bazı …

2
Artan özellik sayısı doğruluk düşüşüne neden olur, ancak ön / geri çağırma artar
Makine Öğreniminde yeniyim. Şu anda 3 sınıftaki küçük metinleri NLTK ve python kullanarak pozitif, negatif veya nötr olarak sınıflandırmak için Naive Bayes (NB) sınıflandırıcısı kullanıyorum. Bazı testler yaptıktan sonra, 300.000 örnekten oluşan bir veri kümesiyle (16.924 pozitif 7.477 negatif ve 275.599 nötr), özellik sayısını artırdığımda doğruluk azalır, ancak pozitif ve …

2
Hassas hatırlama eğrisinde "taban çizgisi" nedir
Hassas hatırlama eğrisini anlamaya çalışıyorum, hassasiyet ve hatırlamanın ne olduğunu anlıyorum ama anlamadığım şey "temel" değer. Bu bağlantıyı okuyordum https://classeval.wordpress.com/introduction/introduction-to-the-precision-recall-plot/ ve "Mükemmel bir sınıflandırıcının bir Hassas-Geri Çağırma eğrisi" bölümünde gösterildiği gibi taban kısmını anlamıyorum, ne işe yarar? ve bunu nasıl hesaplıyoruz? Sadece seçtiğimiz rastgele bir başlangıç ​​noktası mı? Örneğin, retweet,status_countvb …

4
R'de AUPR hesaplanıyor [kapalı]
Kapalı. Bu soru konu dışı . Şu anda cevapları kabul etmiyor. Bu soruyu geliştirmek ister misiniz? Sorunuzu güncelleyin o yüzden -konu üzerinde Çapraz doğrulanmış için. 8 ay önce kapalı . ROC altında bir paket hesaplama alanı bulmak kolaydır, ancak hassas geri çağırma eğrisinin altındaki alanı hesaplayan bir paket var mı?




1
Yanlış pozitif sayısı nasıl azaltılır?
Yaya tespiti olarak adlandırılan görevi çözmeye çalışıyorum ve iki kategori pozitif - insanlar, negatifler - arka plan üzerinde ikili clasifer eğitiyorum. Veri setim var: pozitif sayısı = 3752 negatif sayısı = 3800 Train \ test split 80 \ 20% ve RandomForestClassifier form scikit-learn parametrelerini kullanıyorum: RandomForestClassifier(n_estimators=100, max_depth=50, n_jobs= -1) Puanı …

2
İki sıralama algoritması nasıl karşılaştırılır?
İki sıralama algoritmasını karşılaştırmak istiyorum. Bu algoritmalarda, istemci aramasında bazı koşulları belirtir. Müşterinin gereksinimlerine göre, bu algoritma veri tabanındaki her öğe için bir puan atamalı ve en yüksek puanlara sahip öğeleri almalıdır. Bu sitede sorumla ilgili farklı konular okudum ve internette arama yaptım. Aramalarıma göre, sıralama algoritmalarını karşılaştırmak için bazı …

1
PR için yalnızca bir değere sahip olduğumda Hassas Geri Çağırma eğrisi nasıl oluşturulur?
İçeriğe dayalı görüntü alma sistemi yaptığım veri madenciliği görevim var. 5 hayvandan 20 görüntüm var. Yani toplam 100 görüntü. Sistemim en alakalı 10 görüntüyü giriş görüntüsüne döndürür. Şimdi sistemimin performansını bir Hassas-Geri Çağırma eğrisi ile değerlendirmem gerekiyor. Ancak, Hassas-Geri Çağırma eğrisi kavramını anlamıyorum. Diyelim ki sistemim bir goril görüntüsü için …




1
Çapraz doğrulama kullanırken ortalama hassasiyet ve hatırlama
2 sınıf etiketli veriler için birden fazla sınıflandırıcı kullanarak sınıflandırma yaptım ve 5 kat çapraz doğrulama kullandım. Her kat için tp, tn, fp ve fn hesapladım. Sonra her test için doğruluk, kesinlik, geri çağırma ve F-skorunu hesapladım. Sorum şu: Sonuçları ortalamak istediğimde, ortalama doğrulukları aldım, ancak hassasiyeti, hatırlamayı ve F-puanını …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.