«cart» etiketlenmiş sorular

'Sınıflandırma ve Regresyon Ağaçları'. CART popüler bir makine öğrenim tekniğidir ve rastgele ormanlar ve eğim artırma makinelerinin ortak uygulamaları gibi tekniklerin temelini oluşturur.

2
Birden fazla çıkışı olan bir Rastgele Orman mümkün / pratik olabilir mi?
Rastgele Ormanlar (RF) rekabetçi bir veri modelleme / madencilik yöntemidir. Bir RF modelinin bir çıkışı vardır - çıkış / tahmin değişkeni. RF'lerle çoklu çıkışların modellenmesine yönelik naif yaklaşım, her çıkış değişkeni için bir RF oluşturmak olacaktır. Bu yüzden N bağımsız modelimiz var ve çıktı değişkenleri arasında korelasyon olduğunda, yedekli / …

2
CART'ta karmaşıklık parametresini seçme
CART modelleri oluşturmak için rpart () yordamında, ağacınızı budamak istediğiniz karmaşıklık parametresini belirtirsiniz. Karmaşıklık parametresini seçmek için iki farklı öneri gördüm: Mümkün olan minimum çapraz doğrulanmış hatayla ilişkili karmaşıklık parametresini seçin. Bu yöntem Quick-R ve HSAUR tarafından önerilir. Tahmini çapraz doğrulanmış hatası hala olası en düşük çapraz doğrulanmış hatanın SE'sinde …
16 r  cart  rpart 

1
İki karar ağacının toplamı tek bir karar ağacına eşit mi?
İki regresyon ağaçları (ağaç A ve ağaç B) bu harita giriş olduğunu varsayalım çıkışına . Let ağaç A ve için ağaç B için her bir ağaç ayırma işlevleri gibi hiperdüzlemleri ile, ikili böler kullanır.x ∈ Rdx∈R,dx \in \mathbb{R}^dy^∈ Ry^∈R,\hat{y} \in \mathbb{R}y^= fbir( x )y^=fbir(x)\hat{y} = f_A(x)fB( x )fB(x)f_B(x) Şimdi, ağaç …

1
Gini azalması ve çocuk düğümlerinin Gini safsızlığı
Rastgele orman için Gini özelliği önem ölçüsü üzerinde çalışıyorum. Bu nedenle, düğüm safsızlığında Gini azalmasını hesaplamam gerekiyor. İşte böyle yapıyorum, bu tanımla çatışmaya yol açıyor, bir yerde yanlış olmam gerektiğini gösteriyor ... :) Bir ikili ağaç için ve sol ve sağ çocukların olasılıkları göz önüne alındığında, düğümünün Gini safsızlığını hesaplayabilirim …

2
R'deki ağaçların bölünmesi: parti vs. rpart
Ağaçları bölmeye baktığımdan beri bir süre geçti. Son kez böyle bir şey yaptım, R (Hothorn tarafından yaratılmış) partiyi seviyorum. Örnekleme yoluyla koşullu çıkarım fikri bana mantıklı geliyor. Ancak rpart'ın da itirazları vardı. Mevcut uygulamada (ayrıntı veremiyorum, ancak büyük bir aresteste örneği arasında kimin hapse gireceğini belirlemeye çalışıyor) Rasgele ormanlar, torbalama, …
15 r  cart  rpart  partitioning 

1
Sürekli değişkenler tahmin edilirken karar ağacı bölünmeleri nasıl uygulanmalıdır?
Aslında Rastgele Ormanların bir uygulamasını yazıyorum ama sorunun karar ağaçlarına (RF'lerden bağımsız) özgü olduğuna inanıyorum. Yani bağlam, bir karar ağacında bir düğüm oluşturuyorum ve hem tahmin hem de hedef değişkenler süreklidir. Düğüm, verileri iki kümeye bölmek için bölünmüş bir eşik değerine sahiptir ve her kümedeki ortalama hedef değere dayalı olarak …



3
Her yaprakta lineer regresyon modelleri ile regresyon ağacı algoritması
Kısa versiyon: Karar ağacı oluşturabilen bir R paketi arıyorum, oysa karar ağacındaki her yaprak tam bir Doğrusal Regresyon modeli. AFAIK, kütüphane rpartbağımlı değişkenin her yaprakta sabit olduğu karar ağaçları oluşturur. Bu rpartağaçları inşa edebilecek başka bir kütüphane (veya farkında olmadığım bir ortam) var mı? Uzun sürüm: Bir eğitim veri kümesine …
14 r  regression  rpart  cart 

3
CART modelleri sağlam hale getirilebilir mi?
Ofisimdeki bir meslektaşım bugün bana "Ağaç modelleri iyi değil çünkü aşırı gözlemlere yakalandılar" dedi. Burada yapılan bir arama , temelde iddiayı destekleyen bu konu ile sonuçlandı . Bu da beni şu soruya yönlendiriyor - hangi durumda bir CART modeli sağlam olabilir ve bu nasıl gösterilir?

2
Sınıflandırma ve regresyon ağaçlarının arkasındaki matematik
Herkes CART'ta sınıflandırmanın ardındaki bazı matematiği açıklamaya yardımcı olabilir mi? İki ana aşamanın nasıl gerçekleştiğini anlamak istiyorum. Örneğin, bir veri kümesi üzerinde bir CART sınıflandırıcısı eğittim ve tahmini performansını işaretlemek için bir test veri kümesi kullandım ancak: Ağacın ilk kökü nasıl seçilir? Her dal neden ve nasıl oluşturulur? 15 sütun …

5
Rasgele Orman ve Karar Ağacı Algoritması
Rastgele bir orman, torbalama kavramını takip eden karar ağaçlarının bir koleksiyonudur. Bir karar ağacından bir sonraki karar ağacına geçtiğimizde, son karar ağacı tarafından öğrenilen bilgiler bir sonrakine nasıl ilerler? Çünkü, anlayışım gereği, her karar ağacı için oluşturulan ve bir sonraki karar ağacı yanlış sınıflandırılmış hatadan öğrenmeye başlamadan önce yüklenen eğitimli …

3
Çok seviyeli / hiyerarşik olarak yapılandırılmış veriler üzerinde rastgele orman
Makine öğrenimi, CART teknikleri ve benzerleri için oldukça yeniyim ve umarım saflığım çok açık değildir. Rastgele Orman çok düzeyli / hiyerarşik veri yapılarını nasıl işler (örneğin, çapraz düzey etkileşimi söz konusu olduğunda)? Yani, çeşitli hiyerarşik düzeylerde analiz birimleri içeren veri kümeleri ( ör. Okullar içinde yuvalanmış öğrenciler, hem öğrenciler hem …

9
Python'da karar ağaçları artırıldı mı? [kapalı]
Kapalı. Bu soru konu dışı . Şu anda cevapları kabul etmiyor. Bu soruyu geliştirmek ister misiniz? Sorunuzu güncelleyin o yüzden -konu üzerinde Çapraz doğrulanmış için. 6 ay önce kapalı . Güçlendirilmiş karar ağaçlarının eğitimi için iyi bir python kütüphanesi var mı?
13 python  cart  boosting 


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.