Rasgele orman algoritması adımlarının ardındaki motivasyon


11

Rasgele bir orman inşa etmek için bildiğim yöntem şöyledir: ( http://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm )

Ormanda bir ağaç inşa etmek için:

  1. Bootstrap N boyutunda bir örnek, burada N egzersiz setimizin boyutudur. Bu önyüklemeli örneği bu ağaç için eğitim seti olarak kullanın.
  2. Ağacın her bir düğümünde M özelliklerimizden rastgele m seçin. Bölünecek bu m özelliklerinden en iyisini seçin. (burada m, Rastgele Ormanımızın bir parametresidir)
  3. Her ağacı mümkün olduğunca büyütün - yani budama yok.

Bu algoritma prosedürel düzeyde mantıklı ve kesinlikle iyi sonuçlar verirken, 1, 2 ve 3. adımların ardındaki teorik motivasyonun ne olduğunu açıklamıyorum. çok iyi çalışıyor mu?

Örneğin: neden 1. adımı gerçekleştirmeliyiz? Her zamanki varyans azaltma amacı için önyükleme yapıyormuşuz gibi görünmüyor.

Yanıtlar:


9

Topluluk yöntemleri (rasgele ormanlar gibi), bireysel temel sınıflandırıcıların üzerinde büyüdüğü veri kümelerinde bazı varyasyon unsurları gerektirir (aksi takdirde rasgele ormanlar çok benzer ağaçlardan oluşan bir ormanla sonuçlanır). Karar ağaçları eğitim setindeki gözlemlere karşı oldukça hassas olduğundan, gözlemleri değiştirmek (bootstrap kullanarak), sanırım, gerekli çeşitliliği elde etmek için doğal bir yaklaşımdı. Açık alternatif, kullanılan özellikleri değiştirmektir, örneğin her ağacı orijinal özelliklerin bir alt kümesinde eğitmek. Önyükleme örneklerini kullanmak, çanta dışı (OOB) hata oranını ve değişken önemini tahmin etmemizi de sağlar.

Şekil 2 aslında ormana rastgelelik kazandırmanın başka bir yoludur. Ayrıca, ağaçlar arasındaki korelasyonun (düşük bir mtry değeri kullanarak) azaltılması üzerinde bir etkisi vardır, değiş tokuş (potansiyel olarak) tahmin gücünü kötüleştirir. Çok büyük bir mtry değeri kullanmak, ağaçların birbirine daha fazla benzemesine neden olur (ve en uçta torbalama ile sonuçlanırsınız)

Budamanın olmamasının sebebinin, her şeyden daha gerekli olmadığı gerçeğinden daha fazla olduğuna inanıyorum. Tek bir karar ağacı ile normalde budama yaparsınız çünkü aşırı sığmaya karşı oldukça hassastır. Bununla birlikte, bootstrap örneklerini kullanarak ve birçok ağacı büyüterek rastgele ormanlar, bireysel olarak güçlü, ancak özellikle birbirleriyle ilişkili olmayan ağaçlar yetiştirebilir. Temel olarak, münferit ağaçlar fazladır, ancak hataları birbiriyle ilişkili değilse, ormanın makul derecede doğru olması gerekir.

İyi çalışmasının nedeni Condorcet'in jüri teoremine (ve artırma gibi yöntemlerin ardındaki mantığa) benzer. Temel olarak, rastgele tahminlerden daha az marjinal olarak daha iyi performans göstermesi gereken birçok zayıf öğreniciniz var. Bu doğruysa, zayıf öğrenenler eklemeye devam edebilirsiniz ve sınırda topluluğunuzdan mükemmel tahminler alırsınız. Açıkça bu durum, öğrencilerin performanslarının ilişkili olmasını engelleyen hataların ilişkili olması nedeniyle kısıtlanmıştır.


Güzel bir cevap ve Condorcet'in jüri teoremiyle ilişkisi mantıklı. Yine de, resmi olarak iyi çalışmasının nedeni, jensen'in eşitsizliğinden kaynaklanıyor!
JEquihua
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.