«self-study» etiketlenmiş sorular

Bir sınıf veya kendi kendine çalışma için kullanılan bir ders kitabı, kurs veya testten rutin bir alıştırma. Bu topluluğun politikası, bu tür sorular için tam cevaplar yerine "yararlı ipuçları sağlamak" tır.

1
Skipgram word2vec için degradeler
Stanford NLP derin öğrenme sınıfının yazılı ödev problemlerindeki problemleri yaşıyorum http://cs224d.stanford.edu/assignment1/assignment1_soln 3a'nın cevabını anlamaya çalışıyorum, burada orta kelime için vektörün türevini arıyorlar. Tahmin edilen bir kelime vektörü verildiğini varsayın vcvcv_{c}skipgram için orta kelimeye c karşılık gelir ve word2vec modellerinde bulunan softmax fonksiyonu ile kelime tahmini yapılır. y^Ö= p ( o …

2
Poisson parametresinin sınırsız tahmincisi
Günlük kaza sayısı parametresi ile rastgele bir Poisson değişkenidir , rastgele seçilen 10 günde kaza sayısı 1,0,1,1,2,0,2,0,0,1 olarak gözlemlenmiştir. nın tarafsız bir tahmincisi olabilir mi?λλ\lambdaeλeλe^{\lambda} Bu şekilde denemeye çalıştım: , ancak olduğunu biliyoruz . O zaman gerekli tarafsız tahminci ne olacak?E(x¯)=λ=0.8E(x¯)=λ=0.8E(\bar{x})=\lambda=0.8E(ex¯)≠ eλE(ex¯)≠ eλE(e^{\bar{x}})\neq\ e^{\lambda}

2
Bayes tahmin edicilerinin karşılaştırılması
İkinci dereceden kayıp , daha önce verilen burada . Let olasılığı. Bayes tahmincisini bulun .L(θ,δ)=(θ−δ)2L(θ,δ)=(θ−δ)2L(\theta,\delta)=(\theta-\delta)^2π(θ)π(θ)\pi(\theta)π(θ)∼U(0,1/2)π(θ)∼U(0,1/2)\pi(\theta)\sim U(0,1/2)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπδπ\delta^\pi Ağırlıklı karesel kaybı göz önünde burada ile önceden . Let olması olasılığı artar. Bayes tahmincisini bulun .Lw(θ,δ)=w(θ)(θ−δ)2Lw(θ,δ)=w(θ)(θ−δ)2L_w(\theta,\delta)=w(\theta)(\theta-\delta)^2w(θ)=I(−∞,1/2)w(θ)=I(−∞,1/2)w(\theta)=\mathbb{I}_{(-\infty,1/2)}π1(θ)=I[0,1](θ)π1(θ)=I[0,1](θ)\pi_1(\theta)=\mathbb{I}_{[0,1]}(\theta)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπ1δ1π\delta^\pi_1 Karşılaştırma veδπδπ\delta^\piδπ1δ1π\delta^\pi_1 İlk önce olduğunu fark ettim ve bunun olasılık olduğunu varsaydım, aksi …

2
Beklenti Yardımı Kağıttan en üst düzeye çıkarma: önceden dağıtım nasıl dahil edilir?
Soru şu başlıklı makaleye dayanmaktadır: Çift yönlü ışınım iletimi-difüzyon modeli kullanılarak dağınık optik tomografide görüntü rekonstrüksiyonu İndirme: {link Yazarlar EM ile Algoritma uygulamak bilinmeyen bir vektör kıtlık regularization bir resmin pikselleri tahmin etmek. Model tarafından verilirl1l1l_1μμ\mu y=Aμ+e(1)(1)y=Aμ+ey=A\mu + e \tag{1} Tahmin Denk. (8) 'de μ^=argmaxlnp(y|μ)+γlnp(μ)(2)(2)μ^=arg⁡maxln⁡p(y|μ)+γln⁡p(μ)\hat{\mu} = \arg max {\ln p(y|\mu) …

2
Sipariş İstatistiklerini Dönüştürme
Rastgele değişkenler varsayalım X1,...,XnX1,...,XnX_1, ... , X_nve bağımsızdır ve dağıtılır. Bu ABS , bir sahiptir dağılımı.Y1,...,YnY1,...,YnY_1, ..., Y_nU(0,a)U(0,a)U(0,a)Zn=nlogmax(Y(n),X(n))min(Y(n),X(n))Zn=nlog⁡max(Y(n),X(n))min(Y(n),X(n))Z_n= n\log\frac{\max(Y_{(n)},X_{(n)})}{\min(Y_{(n)},X_{(n)})}Exp(1)Exp(1)\text{Exp}(1) Ben ayarı bu sorunu başladım Sonra olarak dağıtılacak ve olarak dağıtılacak Yoğunluklar olarak kolayca bulunabilir ve{X1,...,Xn,Y1,...Yn}={Z1,...,Zn}{X1,...,Xn,Y1,...Yn}={Z1,...,Zn}\{X_1,...,X_n,Y_1,...Y_n\} = \{Z_1,...,Z_n\}max(Yn,Xn)=Z(2n)max(Yn,Xn)=Z(2n)\max(Y_n,X_n)= Z_{(2n)}(za)2n(za)2n(\frac{z}{a})^{2n}min(Yn,Xn)=Z(1)min(Yn,Xn)=Z(1)\min(Y_n,X_n)= Z_{(1)}1−(1−za)2n1−(1−za)2n1 - (1 - \frac{z}{a})^{2n}fZ1( z) = ( 2 n ) ( …

1
doğrusal dönüşümle korelasyon değişmezliği:
Bu aslında Gujarati'nin Temel Ekonometri 4. baskısındaki (Q3.11) problemlerden biridir ve korelasyon katsayısının başlangıç ​​ve ölçek değişikliği açısından değişmez olduğunu, yani burada , , , isteğe bağlı sabitlerdir.corr(aX+b,cY+d)=corr(X,Y)corr(aX+b,cY+d)=corr(X,Y)\text{corr}(aX+b, cY+d) = \text{corr}(X,Y)aaabbbcccddd Ama asıl sorum şudur: ve eşleştirilmiş gözlemler olsun ve ve pozitif korelasyonlu olduğunu varsayalım , yani . Bunu biliyorum …

3
Bunu nasıl kanıtlayabilirim?
Eşitsizliği tespit etmeye çalışıyorum |Ti|=∣∣Xi−X¯∣∣S≤n−1n−−√|Tben|=|Xben-X¯|S≤n-1n\left| T_i \right|=\frac{\left|X_i -\bar{X} \right|}{S} \leq\frac{n-1}{\sqrt{n}} nerede X¯X¯\bar{X} örnek ortalamasıdır ve SSS örnek standart sapma, yani S=∑ni=1(Xi−X¯)2n−1−−−−−−−−−√S=Σben=1n(Xben-X¯)2n-1S=\sqrt{\frac{\sum_{i=1}^n \left( X_i -\bar{X} \right)^2}{n-1}}. Bunu görmek kolay ∑ni=1T2i=n−1Σben=1nTben2=n-1\sum_{i=1}^n T_i^2 = n-1 ve bu yüzden |Ti|&lt;n−1−−−−−√|Tben|&lt;n-1\left| T_i \right| < \sqrt{n-1}ama bu aradığım şeylere çok yakın değil, yararlı bir sınır da …

1
Degrade, degrade iniş gibi nasıl yükselir?
Degrade artırımı ( https://en.wikipedia.org/wiki/Gradient_boosting ) ile ilgili faydalı Wikipedia girişini okuyorum ve kalıntıları en dik iniş adımı ile (/ sözde degrade olarak da adlandırılır) nasıl / neden yaklaşık olarak anlayabileceğimizi anlamaya çalışıyorum ). Biri bana en dik inişin artıklara nasıl bağlı / benzer olduğuna dair sezgileri verebilir mi? Çok takdir …


1
EM algoritması Gauss Karışımı modelindeki parametreleri sürekli olarak tahmin ediyor mu?
Gauss Karışımı modelini inceliyorum ve bu soruyu kendim buluyorum. Altta yatan verinin, KKK Gauss dağılımı ve her birinin ortalama bir vektörü vardır μk∈Rpμk∈Rp\mu_k\in\mathbb{R}^p, nerede 1≤k≤K1≤k≤K1\leq k\leq K ve her biri aynı eş varyans matrisine sahip ΣΣ\Sigma ve varsayalım ΣΣ\Sigmaçapraz bir matristir. Ve karıştırma oranının1/K1/K1/Kyani her küme aynı ağırlığa sahiptir. Bu …

1
Eğer
İşte üniversitemizde bir kaç yıl önce çözmek için mücadele ettiğim bir sınava giren bir problem. Eğer X1,X2X1,X2X_1,X_2 bağımsızlar ββ\beta yoğunluklu rastgele değişkenler β(n1,n2)β(n1,n2)\beta(n_1,n_2) ve β(n1+12,n2)β(n1+12,n2)\beta(n_1+\dfrac{1}{2},n_2) sırasıyla sonra göstermek X1X2−−−−−√X1X2\sqrt{X_1X_2} şu β(2n1,2n2)β(2n1,2n2)\beta(2n_1,2n_2). Yoğunluğunu elde etmek için Jacobian yöntemini kullandım. Y=X1X2−−−−−√Y=X1X2Y=\sqrt{X_1X_2} Şöyleki: fY(y)=4y2n1B(n1,n2)B(n1+12,n2)∫1y1x2(1−x2)n2−1(1−y2x2)n2−1dxfY(y)=4y2n1B(n1,n2)B(n1+12,n2)∫y11x2(1−x2)n2−1(1−y2x2)n2−1dxf_Y(y)=\dfrac{4y^{2n_1}}{B(n_1,n_2)B(n_1+\dfrac{1}{2},n_2)}\int_y^1\dfrac{1}{x^2}(1-x^2)^{n_2-1}(1-\dfrac{y^2}{x^2})^{n_2-1}dx Aslında bu noktada kayboldum. Şimdi, ana makalede, bir ipucu …

1
2.2a.16 “Sağlam İstatistikler: Etki Fonksiyonlarına Dayalı Yaklaşım” uygulamasının çözümü
Sağlam İstatistikler'nin 180. sayfasında : Etki Fonksiyonlarına Dayalı Yaklaşım aşağıdaki soruyu bulur: 16: Konum değişmez tahmin ediciler için her zaman olduğunu gösterin . Her ikisi de tek veya çift olduğu durumda , sonlu örnek parçalama noktası ilgili üst sınırı bulun .ε∗≤12ε∗≤12\varepsilon^*\leq\frac{1}{2}ε∗nεn∗\varepsilon^*_nnnnnnn İkinci kısım (noktadan sonra) aslında önemsizdir (birincisi verilir) ama …

1
Negatif binom, 2 bilinmeyen varsa üstel ailede olduğu gibi ifade edilemez mi?
Dispersiyon parametresinin bilinen bir sabit olduğu göz önüne alındığında, negatif binom dağılımını üstel dağılım ailesi olarak ifade etmek için bir ödev verdim. Bu oldukça kolaydı, ama neden bu parametreyi sabit tutmamızı istediklerini merak ettim. İki parametrenin bilinmemesi ile doğru forma sokmanın bir yolunu bulamadım. Çevrimiçi baktığımda bunun mümkün olmadığını iddia …

1
Johansen yöntemini kullanarak eşbütünleşme vektörlerinin elde edilmesi
Daha iyi Johansen yöntemini anlamaya çalışıyorum, bu yüzden üç sürecimiz olan Olabilirlik Tabanlı-Çıkarım-Eşbütünleştirilmiş -Oregregresif-Ekonometri kitabı tarafından verilen bir örnek 3.1 geliştirdim : X1 ton=Σi = 1tε1 ben+ε2 tonX1t=∑i=1tϵ1i+ϵ2tX_{1t} = \sum_{i=1}^t \epsilon_{1i} + \epsilon_{2t} X2 ton= αΣi = 1tε1 ben+ε3 tonX2t=α∑i=1tϵ1i+ϵ3t X_{2t} = \alpha \sum_{i=1}^t \epsilon_{1i} + \epsilon_{3t} X3 ton=ε4 tonX3t=ϵ4t …

1
İki örnekli CDF nedir
Tek taraflı Kolmogorov-Smirnov testi için -değerlerini nasıl elde edeceğimi anlamaya çalışıyorum ve ve için CDF'ler bulmaya çalışıyorum iki örnekli durumda. Aşağıda birkaç örnekte, tek örnekli bir durumda için CDF olarak bahsedilmiştir :pppD+n1,n2Dn1,n2+D^{+}_{n_{1},n_{2}}D−n1,n2Dn1,n2−D^{-}_{n_{1},n_{2}}D+nDn+D^{+}_{n} p+n(x)=P(D+n≥x|H0)=x∑j=0⌊n(1−x)⌋(nj)(jn+x)j−1(1−x−jn)n−jpn+(x)=P(Dn+≥x|H0)=x∑j=0⌊n(1−x)⌋(nj)(jn+x)j−1(1−x−jn)n−jp^{+}_{n}\left(x\right) = \text{P}\left(D^{+}_{n} \ge x | \text{H}_{0}\right) = x\sum_{j=0}^{\lfloor n\left(1-x\right)\rfloor}{ \binom{n}{j} \left(\frac{j}{n}+x\right)^{j-1}\left(1 - x - \frac{j}{n}\right)^{n-j}} Ayrıca, whuber …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.