«least-squares» etiketlenmiş sorular

Bir değişkenin gözlenen değeri ve bu gözlemin parametre değeri üzerinde koşullandırılmış beklenen değeri gibi iki miktar arasındaki kare farkını en aza indirmek için parametre değerini seçen genel bir tahmin tekniğini ifade eder. Gauss lineer modeller, en küçük kareler ile uyumludur ve en küçük kareler, bir tahminciyi değerlendirmenin bir yolu olarak ortalama kare hatasının (MSE) kullanımının altında yatan fikirdir.

1
Gauss modelinde en küçük kareler ve MLE arasındaki denklik
Makine Öğrenimi konusunda yeniyim ve kendi başıma öğrenmeye çalışıyorum. Son zamanlarda bazı ders notlarını okuyordum ve temel bir sorum vardı. 13 no'lu slaytta “En Küçük Kare Tahmini Gauss modelinde Maksimum Olabilirlik Tahmini” ile aynıdır. Basit bir şey gibi görünüyor, ama bunu göremiyorum. Biri lütfen burada neler olduğunu açıklayabilir mi? Matematiği …

2
Kesişme ve eğim için OLS tahmin ediciler arasındaki korelasyon
Basit bir regresyon modelinde, y=β0+β1x+ε,y=β0+β1x+ε, y = \beta_0 + \beta_1 x + \varepsilon, OLS tahmin edicileri ve ilişkilendirilir.ββ^OLS0β^0OLS\hat{\beta}_0^{OLS}β^OLS1β^1OLS\hat{\beta}_1^{OLS} İki tahminci arasındaki korelasyon için formül (eğer doğru bir şekilde türetmişsem): Corr(β^OLS0,β^OLS1)=−∑ni=1xin−−√∑ni=1x2i−−−−−−−√.Corr⁡(β^0OLS,β^1OLS)=−∑i=1nxin∑i=1nxi2. \operatorname{Corr}(\hat{\beta}_0^{OLS},\hat{\beta}_1^{OLS}) = \frac{-\sum_{i=1}^{n}x_i}{\sqrt{n} \sqrt{\sum_{i=1}^{n}x_i^2} }. Sorular: Korelasyonun varlığı için sezgisel açıklama nedir? Korelasyonun varlığının önemli etkileri var mı? Sonrası edildi …

4
ANOVA vs çoklu doğrusal regresyon? ANOVA neden deneysel çalışmalarda bu kadar yaygın olarak kullanılıyor?
ANOVA vs çoklu doğrusal regresyon? Her iki yöntemin de aynı istatistiksel modeli kullandığını biliyorum. Ancak hangi koşullar altında hangi yöntemi kullanmalıyım? Bu yöntemlerin kıyaslandığında avantaj ve dezavantajları nelerdir? ANOVA neden deneysel çalışmalarda bu kadar yaygın olarak kullanılıyor ve hiçbir zaman bir regresyon çalışması bulamıyorum?

1
Doğrusal regresyon tahmin aralığı
Veri noktalarımın en iyi doğrusal yaklaşımı (en küçük kareler kullanılarak) çizgisiyse , yaklaşım hatasını nasıl hesaplayabilirim? Gözlemler ve öngörüler arasındaki farkların standart sapmasını hesaplarsam, , daha sonra gerçek (ama gözlenmeyen) değerin aralığının ( ) normal dağılım varsayılarak ~% 68 olasılıkla?e i = r e a l ( x i ) …


6
Bir modele uyurken neden genellikle kare hataların (SSE) toplamını en aza indirmeyi seçiyoruz?
Soru çok basittir: neden verilerimize bir modele uymaya çalıştığımız zaman, doğrusal ya da doğrusal olmayan, genellikle model parametresi için tahmin edicimizi elde etmek için hata karelerinin toplamını en aza indirmeye çalışıyoruz? Neden en aza indirmek için başka bir amaç işlevi seçmiyorsunuz? Teknik nedenlerden dolayı ikinci dereceden işlevin diğer bazı işlevlerden …

3
Çoklu regresyonda “herkes eşit” ne demektir?
Birden fazla regresyon yaptığımızda ve bir değişkenindeki bir değişiklik için değişkenindeki ortalama değişime baktığımızı, diğer tüm değişkenleri sabit tuttuğumuzu söylediğinde, diğer değişkenleri sabit olarak hangi değerleri tutuyoruz? Onların ortalaması mı? Sıfır? Herhangi bir değer?yyyxxx Herhangi bir değerde olduğunu düşünmeye meyilliyim; sadece açıklama arıyorum. Birisi bir kanıtı olsaydı, bu da harika …


4
Bu durumda en az kare çözüm neden kötü sonuçlar veriyor?
Piskopos tarafından "Örüntü tanıma ve makine öğrenmesi" nin 4. bölümünde sayfa 204'te En Az kare çözümünün neden kötü sonuç verdiğini anlamadığım bir görüntü var: Önceki paragraf, en küçük karelere sahip çözümlerin aşağıdaki resimde gördüğünüz gibi aykırılıklara karşı sağlam olmadıkları gerçeğiyle ilgiliydi, ancak diğer görüntüde neler olup bittiğini ve LS'nin neden …

2
F istatistiğinin F dağılımını izlediğinin kanıtı
Bu sorunun ışığında: OLS modelindeki katsayıların (nk) serbestlik derecesine sahip bir t dağılımını izlediğinin kanıtı Nedenini anlamak isterim F=(TSS−RSS)/(p−1)RSS/(n−p),F=(TSS−RSS)/(p−1)RSS/(n−p), F = \frac{(\text{TSS}-\text{RSS})/(p-1)}{\text{RSS}/(n-p)}, burada ppp model parametrelerinin bir sayı olmaktadır ve nnn gözlem sayısı ve TSSTSSTSS toplam varyans, RSSRSSRSS kalıntı varyans, bir aşağıda Fp−1,n−pFp−1,n−pF_{p-1,n-p} dağılımı. İtiraf etmeliyim ki, nereden başlayacağımı bilemeyeceğim …

2
PCA'ya göre SVD'nin herhangi bir avantajı var mı?
PCA ve SVD'nin matematiksel olarak nasıl hesaplanacağını biliyorum ve her ikisinin de Doğrusal En Küçük Kareler regresyonuna uygulanabileceğini biliyorum. SVD'nin matematiksel olarak ana avantajı, kare olmayan matrislere uygulanabileceği gibi görünüyor. Her ikisi de matrisinin ayrışmasına odaklanır . Bahsedilen SVD'nin avantajı dışında, PCD'ye göre SVD kullanılarak sağlanan ek avantajlar veya öngörüler …
20 pca  least-squares  svd 

2
LASSO değişken seçiminden sonra OLS yapmak ne kadar mantıklı?
Son zamanlarda, uygulanan ekonometri literatüründe, özellik seçim problemleri ile uğraşırken, LASSO ve ardından seçilen değişkenleri kullanarak bir OLS regresyonu gerçekleştirmenin nadir olmadığını gördüm. Böyle bir prosedürün geçerliliğini nasıl nitelendirebileceğimizi merak ediyordum. Atlanan değişkenler gibi sorunlara neden olur mu? Daha etkili olduğunu veya sonuçların daha yorumlanabilir olduğunu gösteren kanıtlar var mı? …

2
Regresyonuma kare bir değişken eklediğimde ne olur?
OLS regresyonumla başlıyorum: burada D kukla bir değişkendir, tahminler düşük p değeri ile sıfırdan farklı olur. Daha sonra bir Ramsey RESET testi hazırlarım ve denklemin bazı yanlış yönleri olduğunu fark ettim, bu yüzden kare x: y=β0+β1x1+β2D+εy=β0+β1x1+β2D+ε y = \beta _0 + \beta_1x_1+\beta_2 D + \varepsilon y=β0+β1x1+β2x21+β3D+εy=β0+β1x1+β2x12+β3D+ε y = \beta _0 …



Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.