Bir regresyon modeli bir parametre tahmini β i değişken ise) değişecektir X, j , bir modele eklenir: β^iXj
- Bu parametrenin karşılık gelen değişken ile ilişkili (modelinde arasında zaten var olan), veXi
- cevap değişkeni ile ilişkili, Y
Yukarıdakilerden herhangi biri ilişkisizse, yeni bir değişken eklendiğinde tahmini beta değişmez. Onlar ilintisiz olup olmadığının Not nüfus (yani , ya da ρ ( x j , Y ) = 0 ) önemsizdir. Önemli olan her iki örnek korelasyonunun da tam olarak 0 olmasıdır . Değişkenlerin tasarımla ilişkilendirilmeyecek şekilde manipüle edildiği deneysel verilerle çalışmadığınız sürece bu aslında pratikte asla geçerli olmayacaktır. ρ(Xi,Xj)=0 ρ(Xj,Y)=00
Ayrıca, parametrelerin değiştirdiği miktarın çok anlamlı olmayabileceğini unutmayın (en azından kısmen teorinize bağlıdır). Dahası, değiştirebilecekleri miktar yukarıdaki iki korelasyonun büyüklüğünün bir fonksiyonudur.
Farklı bir kayda göre, bu fenomeni "başka bir değişkenin katsayısından etkilenen belirli bir değişkenin katsayısı" olarak düşünmek doğru değildir. Birbirlerini etkileyen betalar değil . Bu fenomen, istatistiksel yazılımın eğim parametrelerini tahmin etmek için kullandığı algoritmanın doğal bir sonucudur. Bir durum düşünün her ikisi kaynaklanır X i ve X j sırayla birbirleriyle ilişkilidir. Eğer sadece X- ı modelde, varyasyon bazı olan Y nedeniyle X- j uygunsuz ilişkilendirilir X iYXiXjXiYXjXi. Değeri, söz konusu bu araçlar bastırıldığı; buna atlanan değişken sapma denir . Xi
multivariable
birden çok bağımsız değişkeni ( "çoklu regresyon") veya birden fazla bağımlı değişken ( "çok değişkenli regresyon" veya "MAN (C) OVA") Yani sen?