Her şeyden önce: Anladığım kadarıyla, bootstrapping kalıntıları aşağıdaki gibi çalışır:
- Modeli verilere sığdır
- Kalıntıları hesaplayın
- Kalıntıları yeniden örnekleyin ve 1'e ekleyin.
- Modeli 3'ten yeni veri kümesine sığdır.
n
Süreleri tekrarlayın , ancak her zaman yeniden örneklenen kalıntıları 1'den uygunluğa ekleyin.
Bu şimdiye kadar doğru mu?
Ne yapmak istediğim biraz farklı bir şey:
Bazı çevresel değişkenleri tahmin eden bir algoritma için parametre ve tahmin belirsizliğini tahmin etmek istiyorum.
Sahip olduğum şey, sentetik bir veri kümesi oluşturmak için x_true
biraz gürültü eklediğim bu değişkenin hatasız bir zaman serisidir (bir simülasyondan) . Daha sonra objektif fonksiyon olarak algoritmamı karelerin toplamıyla (! Değil !) Sığdırıp en uygun parametreleri bulmaya çalışıyorum . Algoritmamın nasıl performans gösterdiğini görmek ve parametrelerimin dağılımlarından örnekler oluşturmak için yeniden örneklemek , eklemek , modelime tekrar sığdırmak, durulamak ve tekrarlamak istiyorum. Parametre belirsizliğini değerlendirmek için geçerli bir yaklaşım mı? Önyükleme veri kümelerinin uyumlarını tahmin belirsizliği olarak yorumlayabilir miyim, yoksa yukarıda gönderdiğim prosedürü izlemem gerekir mi?x_noise
x
sum((x_estimate - x_true)^2)
x_estimate - x
x_noise
x_true
/ edit: Sanırım modelimin ne yaptığını netleştirmedim. Bunu esasen parazit giderici bir yöntem gibi düşünün. Öngörücü bir model değil, gürültülü bir zaman serisi çevresel verilerin temel sinyalini çıkarmaya çalışan bir algoritmadır.
/ edit ^ 2: MATLAB-Kullanıcılar için , ne demek istediğimin bazı hızlı ve kirli doğrusal regresyon örneğini yazdım.
Kalıntıların "sıradan" önyüklemesinin olduğuna inanıyorum (yanlışsam lütfen beni düzeltin): http://pastebin.com/C0CJp3d1
Yapmak istediğim bu: http://pastebin.com/mbapsz4c