«linear-algebra» etiketlenmiş sorular

İstatistikte önemli olan matrisler ve manipülasyonları dahil sonlu boyutlu vektör uzaylarının incelenmesi ile ilgili bir matematik alanı.


1
Matrise yeni bir satır ekledikten sonra SVD ayrışmasını güncelleme
SVD ayrışması A = U S V with olan m × n boyutunda yoğun bir matrisine sahip olduğumu varsayalım .AA \textbf{A}m×nm×nm \times nA=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.In Rben SVD hesaplayabilirsiniz şöyle: svd(A). A'ya yeni satır eklenirse , SVD'yi sıfırdan yeniden hesaplamaksızın eski SVD ayrışmasını eskisine göre (yani U , S ve V kullanarak ) …

2
Kovaryans matrisinin sırası neden en fazla ?
Belirtildiği gibi , bu sorunun, kovaryans matrisinin en sıralaması olan burada örnek boyutu ve bu yüzden kovaryans matrisi boyutu örnek büyüklüğü eşit ise, bu tekil olur. Neden kovaryans matrisinin maksimum rütbesinden çıkardığımızı anlayamıyorum .n 1 nn−1n−1n-1nnn111nnn

1
PCA biplotundaki oklar ne anlama geliyor?
Aşağıdaki PCA biplotunu düşünün: library(mvtnorm) set.seed(1) x <- rmvnorm(2000, rep(0, 6), diag(c(5, rep(1,5)))) x <- scale(x, center=T, scale=F) pc <- princomp(x) biplot(pc) Bir sürü kırmızı ok çizilir, ne anlama geliyorlar? "Var1" ile etiketlenmiş ilk okun veri kümesinin en değişken yönünü göstermesi gerektiğini biliyordum (eğer bunları 2000 veri noktası olarak düşünürsek, …
14 r  pca  linear-algebra  biplot 


1
GBM kullanarak GBM paketi ve Caret
Model kullanarak ayar yapıyordum caret, ancak gbmpaketi kullanarak modeli yeniden çalıştırıyorum . Anladığım kadarıyla caretpaketin kullandığı gbmve çıktı aynı olmalı. Bununla birlikte, sadece hızlı bir test çalıştırması data(iris), değerlendirme metriği olarak RMSE ve R ^ 2 kullanılarak modelde yaklaşık% 5 tutarsızlık gösterir. Kısmi bağımlılık grafiklerini kullanmak için en iyi model …

2
Beklenti ortalama ile aynı mı?
Üniversitemde ML yapıyorum ve Profesör Gauss süreçlerinde bazı şeyleri açıklamaya çalışırken Beklenti (E) teriminden bahsetti. Ancak açıkladığı şekilde E'nin ortalama μ ile aynı olduğunu anladım. Doğru mu anladım? Aynı ise, her iki sembolün neden kullanıldığını biliyor musunuz? Ayrıca E'nin E ( ) gibi bir işlev olarak kullanılabileceğini gördüm , ancak …

2
Artımlı Gauss Süreci Regresyonu
Bir akış yoluyla tek tek gelen veri noktaları üzerinde kayan bir pencere kullanarak artımlı bir gauss işlemi regresyonu uygulamak istiyorum. İzin Vermek dddgirdi uzayının boyutsallığını gösterir. Yani, her veri noktasıxbenxix_iyer alır elemanların sayısı.ddd sürgülü pencerenin boyutu olsun .nnn Tahminler yapmak için, bir gram matris tersini hesaplamak için gereken , k …

4
“Rastgele projeksiyon” kesinlikle bir projeksiyon değil mi?
Rastgele Projeksiyon algoritması Mevcut uygulamaları onları eşleyerek veri örnekleri boyutunu azaltmak üzere using izdüşüm matrisi Girişleri gelen, örneğin, uygun bir dağılım (dan iid ):R,dR,d\mathbb R^dR,kR,k\mathbb R^kd× kdxkd\times kR,R,RN-( 0 , 1 )N-(0,1)\mathcal N(0,1) x'= 1k√x Rx'=1kxR,x^\prime = \frac{1}{\sqrt k}xR Uygun olarak, bu eşlemenin yaklaşık olarak çift mesafeleri koruduğunu gösteren teorik …


1
PCA özvektörleri olmayan vektörlerin “özdeğerleri” (açıklanan varyans yüzdeleri) nasıl elde edilir?
PCA tarafından sağlanan koordinat alanında değil, biraz farklı (döndürülmüş) vektörlere karşı bir veri kümesinin varyans yüzdesini nasıl elde edebileceğimi anlamak istiyorum. set.seed(1234) xx <- rnorm(1000) yy <- xx * 0.5 + rnorm(1000, sd = 0.6) vecs <- cbind(xx, yy) plot(vecs, xlim = c(-4, 4), ylim = c(-4, 4)) vv <- …

2
En küçük kovaryans matrisini bulmak için uygun önlem
Okuduğum ders kitabında iki kovaryans matrisi karşılaştırmak için pozitif kesinlik (yarı pozitif kesinlik) kullanmaktadırlar. Fikir, eğer pd ise , küçüktür . Ama bu ilişkinin sezgisini almak için uğraşıyorum?A−BA−BA-BBBBAAA Burada benzer bir iplik var: /math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices Matrisleri karşılaştırmak için kesinlik kullanma sezgisi nedir? Cevaplar güzel olsa da sezgiye gerçekten değinmiyorlar. İşte kafa …

1
Ana bileşen puanları neden ilişkilendirilmiyor?
Varsayalım , ortalama merkezli verilerin bir matrisidir. Matris olduğu , var belirgin öz ve özvektörler , ... ortogonal olan.birA\mathbf AS = cov ( A )S=cov(A)\mathbf S=\text{cov}(\mathbf A)m × mm×mm\times mmmms1s1\mathbf s_1s2s2\mathbf s_2smsm\mathbf s_m -inci ana bileşen (bazı insanlar "puanlarının" olarak adlandırmak) olan vektör . Başka bir deyişle, sütunlarının doğrusal bir …

1
R doğrusal regresyon kategorik değişkeni “gizli” değer
Bu sadece birkaç kez karşılaştığım bir örnektir, bu yüzden örnek verilerim yok. R'de doğrusal regresyon modeli çalıştırmak: a.lm = lm(Y ~ x1 + x2) x1sürekli bir değişkendir. x2kategoriktir ve üç değeri vardır, örneğin "Düşük", "Orta" ve "Yüksek". Bununla birlikte, R tarafından verilen çıktı aşağıdaki gibi olacaktır: summary(a.lm) Estimate Std. Error …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

2
Kosinüs benzerliği doğrusal bir dönüşümden sonra nasıl değişir?
Arasında matematiksel bir ilişki var mı: iki ve vektörünün kosinüs benzerliği vesim(A,B)sim⁡(A,B)\operatorname{sim}(A, B)AAABBB ve kosinüs benzerliği , belirli bir matrisi aracılığıyla eşit olmayan bir şekilde ölçeklendirilmiş mi? Burada , diyagonal üzerinde eşit olmayan elemanlara sahip verilen bir diyagonal matristir.sim(MA,MB)sim⁡(MA,MB)\operatorname{sim}(MA, MB)AAABBBMMMMMM Hesaplamaları gözden geçirmeye çalıştım, ancak basit / ilginç bir bağlantıya …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.