R gbm dağılımı = “adaboost” ile nasıl kullanılır?


9

Belgeler, dağıtım = "adaboost" ile R gbm'nin 0-1 sınıflandırma problemi için kullanılabileceğini belirtir. Aşağıdaki kod parçasını düşünün:

gbm_algorithm <- gbm(y ~ ., data = train_dataset, distribution = "adaboost", n.trees = 5000)
gbm_predicted <- predict(gbm_algorithm, test_dataset, n.trees = 5000)

Tahmini belgede bulunabilir. Gbm

Bir tahmin vektörü döndürür. Varsayılan olarak tahminler f (x) ölçeğindedir.

Ancak, belirli ölçek dağılım = "adaboost" durumu için net değildir.

Herkes predict.gbm dönüş değerlerinin yorumlanmasına yardımcı olabilir ve 0-1 çıktısına dönüştürme fikri sağlayabilir mi?


Bu soru sadece R çıktısının nasıl yorumlanacağı ve ilgili istatistiksel konular hakkında değil (bu onu kötü bir Q yapmaz) gibi görünüyor. Bu nedenle , burada değil , Stack Overflow'da daha iyi sorulur ve muhtemelen cevaplanır . Lütfen çapraz gönderi yapmayın (SE bunu kesinlikle önermez), Q'nuzun daha hızlı taşınmasını istiyorsanız, lütfen moderatörlerin dikkatini çekmek için işaretleyin.
gung - Monica'yı eski durumuna getirin

4
@gung bana meşru bir istatistiki soru gibi geliyor. GBM paketi, uyarlama için kullanılan Sapmayı sağlar, ancak f (x) 'in ne olduğunu ve bir olasılık ölçeğine nasıl dönüştüğünü net değil (belki de Platt ölçeklendirmeyi kullanmak zorunda). cran.r-project.org/web/packages/gbm/vignettes/gbm.pdf
B_Miner

Yanıtlar:


11

Adaboost yöntemi logit ölçeğinde tahminler verir. 0-1 çıkışına dönüştürebilirsiniz:

gbm_predicted<-plogis(2*gbm_predicted)

mantığın içindeki 2 * işaretini not edin


11

Olasılıkları doğrudan predict.gbmfonksiyondan da alabilirsiniz;

predict(gbm_algorithm, test_dataset, n.trees = 5000, type = 'response')

3

Adaboost bağlantı işlevi burada açıklanmıştır . Bu örnek, hesaplamanın ayrıntılı bir açıklamasını sağlar:

library(gbm);
set.seed(123);
n          <- 1000;
sim.df     <- data.frame(x.1 = sample(0:1, n, replace=TRUE), 
                         x.2 = sample(0:1, n,    replace=TRUE));
prob.array <- c(0.9, 0.7, 0.2, 0.8);
df$y       <- rbinom(n, size = 1, prob=prob.array[1+sim.df$x.1+2*sim.df$x.2])
n.trees    <- 10;
shrinkage  <- 0.01;

gbmFit <- gbm(
  formula           = y~.,
  distribution      = "bernoulli",
  data              = sim.df,
  n.trees           = n.trees,
  interaction.depth = 2,
  n.minobsinnode    = 2,
  shrinkage         = shrinkage,
  bag.fraction      = 0.5,
  cv.folds          = 0,
  # verbose         = FALSE
  n.cores           = 1
);

sim.df$logods  <- predict(gbmFit, sim.df, n.trees = n.trees);  #$
sim.df$prob    <- predict(gbmFit, sim.df, n.trees = n.trees, type = 'response');  #$
sim.df$prob.2  <- plogis(predict(gbmFit, sim.df, n.trees = n.trees));  #$
sim.df$logloss <- sim.df$y*log(sim.df$prob) + (1-sim.df$y)*log(1-sim.df$prob);  #$


gbmFit <- gbm(
  formula           = y~.,
  distribution      = "adaboost",
  data              = sim.df,
  n.trees           = n.trees,
  interaction.depth = 2,
  n.minobsinnode    = 2,
  shrinkage         = shrinkage,
  bag.fraction      = 0.5,
  cv.folds          = 0,
  # verbose         = FALSE
  n.cores           = 1
);

sim.df$exp.scale  <- predict(gbmFit, sim.df, n.trees = n.trees);  #$
sim.df$ada.resp   <- predict(gbmFit, sim.df, n.trees = n.trees, type = 'response');  #$
sim.df$ada.resp.2 <- plogis(2*predict(gbmFit, sim.df, n.trees = n.trees));  #$
sim.df$ada.error  <- -exp(-sim.df$y * sim.df$exp.scale);  #$

sim.df[1:20,]

Çok az değişiklik yapacağım için düzenleme yapamıyorum. ´df ´sim.df . y´shouldbe´sim.df
Ric
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.