Açıkladığınız tekniğe sıralı regresyonlarla çarpma veya zincirlenmiş denklemlerle çoklu çarpma denir. Tekniğe Raghunathan (2001) öncülük etti ve iyi çalışan bir R paketinde uygulandı mice
(van Buuren, 2012).
Schafer ve Graham'ın (2002) yazdığı bir makale, ortalama ima ve nedenlerden dolayı silme işleminin (satır dışlama olarak adlandırdığınız) genellikle yukarıda belirtilen tekniklere iyi bir alternatif olmadığını açıklamaktadır. Prensip olarak ortalama impütasyon şartlı değildir ve bu nedenle impüte edilen dağılımları gözlenen ortalamaya doğru yönlendirebilir. Ayrıca, çarpık dağılım üzerindeki istenmeyen diğer etkilerin yanı sıra varyansı daraltacaktır. Ayrıca, listwise silme gerçekten de sadece bir bozuk parayı çevirmek gibi, veriler tamamen rastgele eksikse işe yarayacaktır. Ayrıca numune boyutu küçüldükçe örnekleme hatasını artıracaktır.
Yukarıda alıntı yapılan yazarlar genellikle en az eksik değerleri içeren değişkenle başlamayı önerir. Ayrıca, teknik genellikle Bayesci bir şekilde uygulanır (yani önerinizin bir uzantısı). Değişkenler, yalnızca bir kez değil, isnat prosedüründe daha sık ziyaret edilir. Özellikle, her değişken, en az eksik değerlere sahip değişkenle başlayarak, koşullu posterior öngörücü dağılımından çekimlerle tamamlanır. Bir veri kümesindeki tüm değişkenler tamamlandıktan sonra, algoritma tekrar ilk değişkente başlar ve sonra yakınsamaya kadar tekrarlanır. Yazarlar bu algoritmanın Gibbs olduğunu göstermiştir, bu nedenle genellikle değişkenlerin doğru çok değişkenli dağılımına yakınsarlar.
Genellikle, söz konusu test edilemeyen varsayımlar olduğu için, özellikle rastgele verilerde eksik olduğu için (yani verilerin gözlemlenip gözlemlenmediği gözlemlenmeyen verilere değil, yalnızca gözlemlenen verilere bağlıdır). Ayrıca prosedürler kısmen uyumsuz olabilir, bu yüzden PIGS (kısmen uyumsuz Gibbs örnekleyici) olarak adlandırılmıştır.
Uygulamada Bayes çoklu çarpma, çok değişkenli monoton olmayan eksik veri sorunları ile başa çıkmak için hala iyi bir yoldur. Ayrıca, tahmini ortalama eşleştirme gibi parametrik olmayan uzantılar, regresyon modelleme varsayımlarını gevşetmeye yardımcı olur.
Raghunathan, TE, Lepkowski, J., van Hoewyk, J. ve Solenberger, P. (2001). Bir dizi regresyon modeli kullanarak eksik değerleri çarpma amaçlı çok değişkenli bir teknik. Anket Metodolojisi, 27 (1), 85-95.
Schafer, JL ve Graham, JW (2002). Eksik veriler: Tekniğin bilinen durumu hakkındaki görüşümüz. Psikolojik Yöntemler, 7 (2), 147-177. https://doi.org/10.1037/1082-989X.7.2.147
van Buuren, S. (2012). Eksik Verilerin Esnek Birleşimi. Boca Raton: CRC Press.