Zayıf öğrencilerin “gücü” hakkında


22

Topluluk öğreniminde zayıf öğrenicilerle ilgili yakından ilgili birkaç sorum var (örneğin artırma).

  1. Bu aptalca gelebilir, ancak güçlü öğrencilerin aksine zayıf kullanmanın yararları nelerdir? (örneğin, neden "güçlü" öğrenme yöntemlerini desteklemiyorsunuz?)
  2. Zayıf öğrenciler için bir çeşit "optimal" güç var mı (örneğin, diğer tüm topluluk parametrelerini sabit tutarken)? Güçlerine gelince "tatlı bir nokta" var mı?
  3. Zayıf bir öğrencinin gücünü, ortaya çıkan topluluk yöntemine göre nasıl ölçebiliriz. Bir topluluk kullanmanın marjinal faydalarını kantitatif olarak nasıl ölçeriz?
  4. Belirli bir topluluk yöntemi için hangisinin kullanılacağına karar vermek için birkaç zayıf öğrenme algoritmasını nasıl karşılaştırabiliriz?
  5. Belirli bir topluluk yöntemi zayıf sınıflandırıcılara güçlü olanlardan daha fazla yardımcı oluyorsa, belirli bir sınıflandırıcıya, artırırken önemli bir kazanç sağlamak için zaten "çok güçlü" olduğunu nasıl söyleriz?

Yanıtlar:


16

Bu, torbalama ruhunda daha fazla olabilir, ancak yine de:

  • Gerçekten güçlü bir öğreniciniz varsa, herhangi bir topluluk tarafından geliştirmeye gerek yoktur.
  • Ben derim ki ... alakasız. Çok fazla harmanlama ve poşetleme işleminde, takviyede çok güçlü bir sınıflandırıcı yapılması yakınsamada bazı ihlallere yol açabilir (yani, şanslı bir tahmin bir sonraki yinelemenin saf gürültüyü tahmin etmesine ve böylece performansı düşürmesine neden olabilir), ancak bu genellikle yinelemelerin ilerlemesinde onarılır.
  • Yine, bu asıl sorun değil. Bu yöntemlerin özü,

    1. kısmi sınıflandırıcıları problemin derinliklerine bakmaya zorlayın.
    2. gürültüyü hafifletmek ve sinyali yükseltmek için tahminlerine katılın.

    1) güçlendirmede biraz dikkat gerekir (yani iyi destekleme şeması, kısmi öğrenen iyi davranma - ama bu çoğunlukla bütün destekleme deneyleri ile değerlendirilir), 2) torbalama ve harmanlama (çoğunlukla öğrenciler arasındaki korelasyonun nasıl sağlanacağı ve topluluktan fazla etkilemeyin). Bu tamam olduğu sürece, kısmi sınıflandırıcının doğruluğu üçüncü dereceden bir sorundur.


@ Mbq teşekkürler. Yukarıdakiler zayıf sınıflandırıcıların tipik olarak güçlü yöntemlerden çok topluluk yöntemlerinden daha fazla yararlandığı anlamına mı geliyor? (yani, güçlendirme zayıf sınıflandırıcılara güçlü olanlardan daha fazla yardımcı olur). Bu anlamda, belirli bir sınıflandırıcının belirli bir topluluk yöntemi için zaten yeterince güçlü olduğunu nasıl biliyoruz? (örneğin, güçlendirmekten pek faydalanmayacak güçlü bir öğrenciniz olduğunu nasıl kabaca söyleyebilirsin?)
Amelio Vazquez-Reina

1
Aksine, sadece zayıf sınıflandırıcılar gelişim için bir alan sağlar. Genel olarak güç soyut bir niteliktir ve gerçekten ölçemeyiz. Tek kesin test sadece bir deney yapmak ve bir araya getirmenin performansı önemli ölçüde arttırıp arttırmadığını kontrol etmektir. Eğer öyleyse, sınıflandırıcı zayıftı. Eğer hayırsa, hala hiçbir şey bilmiyoruz.

11

İlk olarak, "zayıf" ve "güçlü" kavramları sadece zayıf olarak tanımlanmaktadır. Benim bakış açıma göre, herhangi bir eğitim algoritmasının hedefi olan optimal Bayes sınıflandırıcısına göre tanımlanmaları gerekir. Bunu akılda tutarak, üç noktaya cevabım aşağıdaki gibidir.

  1. Gördüğüm kadar hesaplamalı. Tanıdığım çoğu zayıf öğrenci hesaplama açısından hızlı (ve aksi takdirde dikkate değer olmayan). Topluluk öğrenmesinde önemli bir nokta, tam olarak basit ve hızlı bir şekilde bir araya gelebileceğimiz, ancak çok iyi olmayan öğreniciler birleştirebileceğimiz ve hata oranını iyileştirebileceğimizdir. Daha güçlü (ve hesaplama açısından daha zorlu) öğrenenler kullanırsak, iyileştirmeler için oda küçülür, ancak hesaplama maliyeti artar, bu da topluluk yöntemlerinin kullanımını daha az ilginç hale getirir. Ayrıca, tek bir güçlü öğrencinin yorumlanması daha kolay olabilir. Ancak, zayıf ve güçlü olan, soruna ve elde etmeye çalıştığımız en uygun Bayes oranına bağlıdır. Bu nedenle, çoğu zaman güçlü olarak kabul edilen bir öğrenci, onu artırırken ve artırmayı hesaplamak için uygun olduğunda hala iyileştirmeler için yer bırakıyorsa, artırmayı yapın ...
  2. Bu, "optimal" ölçmek için kullandığınız kriterlere bağlı olacaktır. Hata oranı açısından hayır derdim (başkalarının farklı deneyimleri varsa düzeltmeleri memnuniyetle karşılarım). Hız açısından belki, ama bunun son derece soruna bağlı olduğunu hayal ediyorum. Bununla ilgili hiçbir literatür bilmiyorum, üzgünüm.
  3. ?
  4. Çapraz doğrulama, çapraz doğrulama, çapraz doğrulama. Tahmin yapma amacı ile eğitim metotlarının karşılaştırılması gibi, karşılaştırma için de genelleme hatasının tarafsız bir tahminine ihtiyacımız var; bu, bir test verisi kenara koymak veya buna çapraz doğrulama ile yaklaşmak suretiyle elde edilebilecek genelleme hatasının tarafsız tahminlerine ihtiyacımız var.

Teşekkürler @NRH, bu çok yardımcı oldu. Üçüncü soruyu iki ayrı soruya ayırdım, çünkü muhtemelen farklı cevaplar gerektirdiklerini düşünüyorum.
Amelio Vazquez-Reina,

Bir sınıflandırıcının optimal Bayes sınıflandırıcısına ne kadar yakın olduğunu öğrenmenin bir yolu var mı? Zaten yeterince yakınsa, onu iyileştiremeyiz.
Bant Genişliği

@highBandWidth, Bayes oranının ne olduğunu bilmek mümkün değil. Bilinmeyen dağılıma dayanan teorik bir miktardır. Teorik varsayımlar alt ve üst (asimptotik) sınırlar sağlayabilir ve çapraz doğrulama veya bağımsız test verileri kullanarak üst sınırları doğru bir şekilde tahmin etmek mümkündür. Ancak dağılımı bilmediğiniz sürece, bu gibi üst sınırların sıkı olup olmadığını söylemek veya iyileştirme için yer bırakmak imkansızdır.
NRH
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.