Rasgele iz tekniği


10

Berkeley, Tech. California'daki M. Seeger'de “Cholesky ayrışması için düşük seviyeli güncellemeler” adlı şu rasgele izleme tekniğiyle tanıştım . Rep, 2007.

tr(A)=E[xTAx]

burada .xN(0,I)

Derin matematik bilgisi olmayan bir kişi olarak, bu eşitliğin nasıl sağlanabileceğini merak ediyorum. Ayrıca, , örneğin geometrik olarak nasıl yorumlanabilir? Bir vektörün iç çarpımının anlamını ve aralık değerini anlamak için nereye bakmalıyım? Ortalama neden özdeğerlerin toplamına eşittir? Teorik mülkiyetin yanı sıra, pratik önemi nedir?xTAx

Çalışıp çalışmadığını görmek için bir MATLAB kod snippet'i yazdım

#% tr(A) == E[x'Ax], x ~ N(0,I)

N = 100000;
n = 3;
x = randn([n N]); % samples
A = magic(n); % any n by n matrix A

y = zeros(1, N);
for i = 1:N
    y(i) = x(:,i)' * A * x(:,i);
end
mean(y)
trace(A)

İz, yaklaşık 14.9696 olan iz 15'tir.

Yanıtlar:


12

Not Belirtilen sonuç, herhangi bir normallik varsayımına veya . pozitif tanımlanmış olmasına da bağlı değildir . Aslında, sadece koordinatlarının sıfır ortalaması, bir varyansı olduğunu ve ilişkisiz olduğunu (ancak mutlaka bağımsız olmadığı) varsayalım ; yani, tüm için , ve .xAxExi=0Exi2=1Exixj=0ij

Çıplak eller yaklaşımı

Let keyfi bir olmak matrisi. Tanıma göre . Ardından, bu yüzden işimiz bitti.A=(aij)n×ntr(A)=i=1naii

tr(A)=i=1naii=i=1naiiExi2=i=1naiiExi2+ijaijExixj,

Açıkça görülmüyorsa, sağ tarafın beklenti doğrusallığına göre

i=1naiiExi2+ijaijExixj=E(i=1nj=1naijxixj)=E(xTAx)

İz özellikleri ile kanıt

Bunu yazmak için kavramsal olarak biraz daha gelişmiş araçlara dayanan başka bir yol var. Bu beklenti ve iz operatör her ikisi de herhangi iki matrisler için, doğrusal ve bu olduğu mi ve , uygun boyutlarda, . Sonra olduğundan ve benzeri, ABtr(AB)=tr(BA)xTAx=tr(xTAx)

E(xTAx)=E(tr(xTAx))=E(tr(AxxT))=tr(E(AxxT))=tr(AExxT),
E(xTAx)=tr(AI)=tr(A).

İkinci dereceden formlar, iç ürünler ve elipsoitler

Eğer pozitif tanımlı, daha sonra bir iç çarpım verildi ile tanımlanabilir ve , başlangıç ​​noktasında içinde bir elipsoid tanımlar .ARnx,yA=xTAyEA={x:xTAx=1}Rn


Bold ve mormalcase değişkenlerini takip etmek oldukça kafa karıştırıcı . Bence bunlar skaler değerler. Beklenti formundan son bölümde yaptığınız gibi başladığımda daha net anlıyorum. Böylece benim için çok açık. xixi
E[(xTAx)]=E[(i=1nj=1naijxixj)]=i=1naiiE[xi2]+ijaijE[xixj]
petrichor

xi olan vektör koordinatı inci . Diğerleri basitçe yazım hatalarıdır. Bunun için üzgünüm. Gösterimi mümkün olduğunca yakından takip etmeye çalışıyordum. Normalde ile rastgele değişken koordinatları olarak kullanırdım . Ancak, (potansiyel olarak) karıştırmak istemedim. ixX=(Xi)XiX
kardinal

Aslında, cevap içinde tutarlıdır. Ben sadece abone değişkenlerin vektörün elemanları olduğundan emin olmak istedim. Şimdi net.
petrichor

Peki, tutarlı (şimdi) çünkü ben düzenledim! :) Yazım hatalarını gösterdiğin için teşekkürler. Önümüzdeki birkaç gün içinde bir noktada geometri hakkında biraz daha eklemeye çalışacağım.
kardinal

3

Eğer simetriktir, pozitif tanımlı sonra ile Ortonormal ve çaprazlama eigen köşegen. Yana kimlik kovaryans matrisi vardır ve ortonormal olup, da bir kimlik kovaryans matrisi vardır. Dolayısıyla yazarken , . Beklenti operatörü doğrusal olduğundan, bu sadece . Her , 1 serbestlik derecesine sahip ki-karedir, bu nedenle beklenen değer 1'dir. Dolayısıyla beklenti özdeğerlerin toplamıdır.AA=UtDUUDxUUxy=UxE[xTAx]=E[ytDy]i=0nλiE[yi2]yi

Geometrik olarak, simetrik pozitif belirli matrisler , denklemiyle verilen elipsoidlerle 1-1 karşılık gelir . Elipsoid eksenlerinin uzunlukları tarafından verilir, burada özdeğerlerdir.AxTAx=11/λiλi

Tüm burada kovaryans matrisidir, bu karesidir Mahalanobis mesafe .A=C1C


1

Sorunun "pratik önemi nedir" kısmını ele alalım. Biz hesaplamak matris vektör ürünleri yeteneğine sahip olduğu birçok durum vardır biz matriks saklı bir kopyası yoksa verimli dahi veya bir kopyasını kaydetmek için yeterli depolama yok mu . Örneğin, 100,000 x 100,000 boyutunda olabilir ve tamamen yoğundur - bu matrisi çift hassas kayan nokta formatında saklamak için 80 gigabayt RAM gerektirir. AxAAA

Bunun gibi rasgele algoritmalar izini veya (ilgili bir algoritmayı kullanarak) tekil diyagonal girişlerini tahmin etmek için kullanılabilir . AA

Bu tekniğin büyük ölçekli jeofizik inversiyon problemlerine bazı uygulamaları

MacCarthy, B. Borchers ve RC Aster. Büyük jeofizik ters problemler için model çözünürlük matrisinin diyagonal ve genelleştirilmiş çapraz validasyonunun etkin stokastik tahmini. Jeofizik Araştırmaları Dergisi, 116, B10304, 2011. Makaleye bağlantı


+1 Bu dönem rastgele algoritmalar ile tanıştım ve onlarla büyülendim. Güzel bir makale daha ekleyeyim. Nathan Halko, Per-Gunnar Martinsson, Joel A. Tropp, "Rastgele bir yapı bulma: Yaklaşık matris ayrışımı oluşturmak için olasılıksal algoritmalar", 2010, arxiv.org/abs/0909.4061
petrichor
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.