«self-study» etiketlenmiş sorular

Bir sınıf veya kendi kendine çalışma için kullanılan bir ders kitabı, kurs veya testten rutin bir alıştırma. Bu topluluğun politikası, bu tür sorular için tam cevaplar yerine "yararlı ipuçları sağlamak" tır.

1
Borel-Cantelli Lemma ile ilgili bir soru
Not: Borel-Cantelli Lemma diyor ki ∑n=1∞P(An)<∞⇒P(limsupAn)=0∑n=1∞P(An)<∞⇒P(limsupAn)=0\sum_{n=1}^\infty P(A_n) \lt \infty \Rightarrow P(\lim\sup A_n)=0 ∑n=1∞P(An)=∞ and An's are independent⇒P(limsupAn)=1∑n=1∞P(An)=∞ and An's are independent⇒P(limsupAn)=1\sum_{n=1}^\infty P(A_n) =\infty \textrm{ and } A_n\textrm{'s are independent} \Rightarrow P(\lim\sup A_n)=1 Sonra, Eğer∑n=1∞P(AnAcn+1)<∞∑n=1∞P(AnAn+1c)<∞\sum_{n=1}^\infty P(A_nA_{n+1}^c )\lt \infty Borel-Cantelli Lemma kullanarak Bunu göstermek istiyorum ilk olarak, limn→∞P(An)limn→∞P(An)\lim_{n\to \infty}P(A_n) var ve ikinci …

1
R'nin lm () neden ders kitabımdan farklı katsayı tahminleri döndürüyor?
Arka fon Ben modelleri uydurma bir kursta ilk örneği anlamaya çalışıyorum (bu yüzden bu gülünç derecede basit görünebilir). Hesaplamaları elle yaptım ve örnekle eşleşiyorlar, ancak bunları R'de tekrarladığımda, model katsayıları kapalı. Ben fark nüfus kitaplığı ( ) kullanarak ders kitabı nedeniyle olabilir R ise örnek varyans ( ) kullanıyor olabilir …
13 r  regression  self-study  lm 

1
Cauchy dağılımındaki location parametresinin MLE'si
Merkezlemeden sonra , iki x ve −x ölçümünün olasılık yoğunluk fonksiyonu ile Cauchy dağılımından bağımsız gözlemler olduğu varsayılabilir: 1f(x:θ)=f(x:θ)=f(x :\theta) = ,-∞&lt;x&lt;∞1π(1+(x−θ)2)1π(1+(x−θ)2)1\over\pi (1+(x-\theta)^2) ,−∞&lt;x&lt;∞,−∞&lt;x&lt;∞, -∞ < x < ∞ Eğer göster arasında MLE İçeride ISTV melerin RWMAIWi'nin 0'dır ancak eğer x 2 &gt; 1 iki MLE en hakkındaki vardır İçeride …

4
Ortalamayı bir histogramda çizmek uygun mudur?
Ortalama değeri görselleştirmek için bir histograma dikey bir çizgi eklemek "iyi" midir? Benim için iyi görünüyor, ama bunu hiç ders kitaplarında ve benzerlerinde görmedim, bu yüzden bunu yapmamak için bir çeşit sözleşme olup olmadığını merak ediyorum? Grafik bir dönem ödevi içindir, sadece yanlışlıkla önemli olmayan bazı sözlü istatistik kurallarını çiğnemediğimden …

1
Just-Identified 2SLS Medyan-Tarafsız mı?
Gelen Bir ampiristin Companion: Çoğunlukla Zararsız Ekonometri (Angrist ve Pischke 2009: sayfa 209) Aşağıdaki okuyun: (...) Aslında, sadece tanımlanmış 2SLS (basit Wald tahmincisi) yaklaşık olarak tarafsızdır . Bunun resmi olarak gösterilmesi zordur, çünkü sadece tanımlanan 2SLS'nin momentleri yoktur (yani örnekleme dağılımının yağ kuyrukları vardır). Bununla birlikte, zayıf enstrümanlarla bile, sadece …

1
Ortak Komple Yeterli İstatistikler: Düzgün (a, b)
Let üzerinde düzgün dağılımı rasgele numune olduğu , . Let ve büyük ve en küçük mertebeden bir istatistik. İstatistiğin , parametresi için müştereken tam bir istatistik olduğunu gösterin . X=(x1,x2,…xn)X=(x1,x2,…xn)\mathbf{X}= (x_1, x_2, \dots x_n)(a,b)(a,b)(a,b)a&lt;ba&lt;ba < bY1Y1Y_1YnYnY_n(Y1,Yn)(Y1,Yn)(Y_1, Y_n)θ=(a,b)θ=(a,b)\theta = (a, b) Çarpanlara ayırma yöntemiyle yeterlilik göstermek benim için sorun değil. Soru: …




1
Genel olarak, çıkarım yapmak tahmin yapmaktan daha mı zor?
Sorum şu gerçeğe dayanıyor. Makine öğrenimi ile ilgili yayınların yanı sıra bloglar, dersler ve kitaplar okuyorum. Benim izlenimim, makine öğrenimi uygulayıcılarının, istatistikçilerin / ekonometrilerin önem verdiği birçok şeye kayıtsız görünmeleridir. Özellikle, makine öğrenimi uygulayıcıları çıkarım üzerine tahmin doğruluğunu vurgular. Böyle bir örnek Andrew Ng'nin Coursera'da Machine Learning'i alırken oldu . …

3
Birim bilyadan N numunenin ortasına kadar en yakın medyan nokta için formülün açıklaması
In İstatistiksel Öğrenme Elements , bir sorun yüksek boyutlu uzaylarda k-nn ile vurgulamak konulara tanıtıldı. Vardır NNN homojen bir dağıtılan veri noktaları ppp boyutlu birim top. Başlangıç ​​noktasından en yakın veri noktasına olan ortalama mesafe ifadesi tarafından verilir: d(p,N)=(1−(12)1N)1pd(p,N)=(1−(12)1N)1pd(p,N) = \left(1-\left(\frac{1}{2}\right)^\frac{1}{N}\right)^\frac{1}{p} Zaman en yakın nokta olarak sınırına yaklaşırken, nasıl topun …

3
Coursera Machine Learning Course için Düzenli Doğrusal Regresyon Maliyet Fonksiyonunun Türetilmesi
Andrew Ng'in "Machine Learning" kursunu birkaç ay önce Coursera üzerinden aldım, matematik / türevlerin çoğuna dikkat etmedim ve bunun yerine uygulama ve pratikliğe odaklandım. O zamandan beri altta yatan teoriyi incelemeye başladım ve Prof. Ng'nin bazı derslerini tekrar gözden geçirdim. "Düzenli Doğrusal Regresyon" konulu konferansını okuyordum ve şu maliyet fonksiyonunu …

5
ne zamanvebağımsız olarak
Y X ∼ χ 2 ( n - 1 ) Y ∼ Beta ( nXXX ve bağımsız olarak dağıtılmış rastgele değişkenlerdir; burada ve . dağılımı nedir ?YYYX∼χ2(n−1)X∼χ(n−1)2X\sim\chi^2_{(n-1)}Y∼Beta(n2−1,n2−1)Y∼Beta(n2−1,n2−1)Y\sim\text{Beta}\left(\frac{n}{2}-1,\frac{n}{2}-1\right)Z=(2Y−1)X−−√Z=(2Y−1)XZ=(2Y-1)\sqrt X nin ortak yoğunluğu(X,Y)(X,Y)(X,Y) fX,Y(x,y)=fX(x)fY(y)=e−x2xn−12−12n−12Γ(n−12)⋅yn2−2(1−y)n2−2B(n2−1,n2−1)1{x&gt;0,0&lt;y&lt;1}fX,Y(x,y)=fX(x)fY(y)=e−x2xn−12−12n−12Γ(n−12)⋅yn2−2(1−y)n2−2B(n2−1,n2−1)1{x&gt;0,0&lt;y&lt;1}f_{X,Y}(x,y)=f_X(x)f_Y(y)=\frac{e^{-\frac{x}{2}}x^{\frac{n-1}{2}-1}}{2^{\frac{n-1}{2}}\Gamma\left(\frac{n-1}{2}\right)}\cdot\frac{y^{\frac{n}{2}-2}(1-y)^{\frac{n}{2}-2}}{B\left(\frac{n}{2}-1,\frac{n}{2}-1\right)}\mathbf1_{\{x>0\,,\,00\,,\,|z|<w\}} marjinal , .f Z ( z ) = ∫ ∞ | z | f Z , W ( …

2
Düzenlemeler ve Düzenleme nedir?
Makine öğrenimi üzerinde çalışırken bu kelimeleri gittikçe duyuyorum. Aslında, bazı insanlar denklemlerin düzenleri üzerinde çalışan Fields madalyası kazandılar. Sanırım bu, istatistiksel fizik / matematikten makine öğrenmesine kadar geçen bir terimdir. Doğal olarak, sorduğum bazı insanlar sezgisel olarak açıklayamadı. Düzenlemede bırakma yardımı gibi yöntemlerin biliyorum (=&gt; aşırı sığmayı azalttığını söylüyorlar, ama …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.