Doğrusal denklem sistemlerinin çözümü için Krylov alt uzay yöntemlerinin yakınsamasının ardındaki ilke nedir?


24

Anladığım kadarıyla, doğrusal denklem sistemlerini çözmek için iki ana yinelemeli yöntem kategorisi vardır:

  1. Durağan Yöntemler (Jacobi, Gauss-Seidel, SOR, Multigrid)
  2. Krylov Alt uzay yöntemleri (Konjuge Gradyan, GMRES, vb.)

Durağan yöntemlerin çoğunun hatanın Fourier modlarını yinelemeli olarak gevşeterek (düzgünleştirerek) çalıştığını biliyorum. Bunu anlamak gibi Eşlenik gradyan yöntemi ile (Krylov alt uzay yöntemi) uygulanan matris güçlerden arama yönleri optimal seti yoluyla "atlama" çalışır inci kalıntı. Bu ilke tüm Krylov alt uzay yöntemleri için ortak mıdır? Olmazsa, genel olarak Krylov alt uzay yöntemlerinin yakınsamasının arkasındaki prensibi nasıl nitelendirebiliriz?n


2
Durağan yöntemlerin analiziniz basit model problemleriyle önyargılıdır, çünkü bunlar Fourier modları açısından analiz edilebilir. Ayrıca alternatif yön örtülü (ADI) ve diğer birçok yöntemi yok sayar. "Durağan Yöntemlerin" çoğunun amacı, birçok basit "yaklaşık kısmi" çözücüyü bir yinelemeli çözücünün içinde birleştirmektir. Krylov yöntemlerinin amacı, belirli bir durağan doğrusal yinelemenin yakınlaşmasını hızlandırmak (ya da zorlamaktır).
Thomas Klimpel,

4
Sorularınıza cevap vermek için yazılmış bir makale Ipsen ve Meyer, Krylov yöntemlerinin arkasındaki fikir, Amer. Matematik. Aylık 105 (1998) s. 889-899. Bu mevcut harika iyi yazılmış ve netleştirilmesi kağıt, var burada .
Andrew T. Barker

@ AndrewT.Barker: Muhteşem! Teşekkürler Andrew! :)
Paul

Yanıtlar:


21

Genel olarak, tüm Krylov metotları esas olarak matris spektrumunda değerlendirildiğinde küçük olan bir polinom arar. Özel olarak, (sıfır ilk tahmin ile) Krylov yönteminin kalıntı inci şeklinde yazılabilirn

rn=Pn(A)b

nerede derecesi bazı mghorta polinomlarıdır . , nPnn

Eğer ile diyagonal , elimizdekiA = V Λ V - 1AA=VΛV1

rnVPn(Λ)V1b=κ(V)Pn(Λ)b.

Halinde normal (örneğin, simetrik veya üniter) biliyoruz ki CG farklı iç ürünü kullanılarak, polinom inşa ederken böyle bir polinom Arnoldi aracılığıyla iterasyon oluşturur GMRES (bakınız bu yanıt detayları için ). Benzer şekilde, BiCG polinomunu simetrik olmayan Lanczos prosesi yoluyla yapılandırırken, Chebyshev yinelemesi spektrum hakkında önceden bilgi kullanır (genellikle simetrik kesin matrisler için en büyük ve en küçük özdeğerlerin tahminleridir).κ ( V ) = 1.Aκ(V)=1.

Güzel bir örnek olarak (Trefethen + Bau tarafından motive edilmiş), spektrumu şudur:

Matris spektrumu

MATLAB'da bunu şöyle yaptım:

A = rand(200,200);
[Q R] = qr(A);
A = (1/2)*Q + eye(200,200);

derecesinin tüm monik polinomları üzerinde artıkları asgariye indiren polinomları oluşturan GMRES'i değerlendirirsek , aday polinomuna bakarak kalıntı geçmişini kolayca tahmin edebiliriz.n

Pn(z)=(1z)n

bizim durumumuzda

|Pn(z)|=12n

spektrumunda için .zA

Şimdi, eğer GMRES'i rastgele bir RHS'de çalıştırırsak ve kalıntı geçmişini bu polinomla karşılaştırırsak, oldukça benzer olmaları gerekir (aday polinom değerleri GMRES kalıntılarından daha küçüktür, çünkü ):b2>1

Artık tarih


Ne demek istediğinizi "matrisin spektrumunda küçük" olarak açıklayabilir misiniz?
Paul

2
Karmaşık bir polinom olarak ele alındığında, polinom , spektrumunu içeren kompleks düzlemin bir bölgesinde küçük bir modüle sahiptir . Özdeğerlerin bir dağılım grafiği üzerine bindirilmiş bir kontur çizimi düşünün. Ne kadar küçük? Bu, normal olup olmadığı ve sağ taraftakiYine de temel fikir, polinom dizisinin , spektrumda giderek daha küçük ve daha küçük hale çalışmasıdır, böylece artık tahmin . PnAAb.(Pn)0
Reid.Atcheson,

@ Reid.Atcheson: Çok güzel geçti. Belki deolarak ve normal matrisler için bir tane söz? VV1κ(V)
Jack Poulson,

Optimal SOR tarafından ön koşullandırılmış Laplacian, bu örnek matrise çok benzeyen bir spektruma sahiptir. Ayrıntılar burada: scicomp.stackexchange.com/a/852/119
Jed Brown

Kesin konuşursak, CGNE spektrumdan bağımsızdır, çünkü sadece tekil değerlere dayanır.
Jed Brown

17

Normlarda

Reid.Atcheson'un cevabına ek olarak, normlarla ilgili bazı konuları açıklığa kavuşturmak isterim. En yineleme, GMRES polinom bulur bu en aza indirir kalıntı arasında -normnthPn2

rn=Axnb=(Pn(A)1)bb=Pn(A)b.

SPD olduğunu varsayalım , bu nedenle bir norm oluşturur ve . SonraAAA1

rnA1=rnTA1rn=(Aen)TA1Aen=enTAen=enA

hatayı kullandığımız yer

en=xnx=xnA1b=A1rn

Bu nedenle, hatanın normali, artıkların normuna eşittir . Eşlenik gradyanlar, düşük enerji modlarının çözümünde göreceli olarak daha doğru hale getiren hatanın normunu en aza indirir . , en aza indirir GMRES kalıntı arasında -norm gibidir, hatanın -norm ve dolayısıyla düşük enerjili modları daha iyi bir çözüme olması bakımından daha zayıftır. Not, düşük enerjili modları ile ilgili daha zayıf olduğu için artanın -norm esas değeri yoktur.A -A A2 A T AAA1A2ATAA

Yakınsama sınırlarının keskinliği

Son olarak, özellikle normal olmayan operatörler için, farklı Krylov yöntemleri ve GMRES yakınsama inceliklerini inceleyen ilginç literatür var.


Olavi Nevanlinna'nın mükemmel kitabından çıktınız: books.google.com/…
Matt Knepley

11

Özet olarak yinelemeli yöntemler:

  1. Sabit yöntemler özü içinde olan sabit nokta tekrarlamalar : çözmek için , bir ters çevrilebilir matris almak ve sabit bir noktaya bulmak Banach sabit nokta teoremi ile bu yakınsak ise . Çeşitli yöntemler daha sonra spesifik bir seçimine karşılık gelir (örneğin, Jacobi yinelemesi için, , burada , çapraz elemanlarını içeren bir çapraz matrisdir ).C x = x + C b - C A xAx=bC

    x=x+CbCAx
    C C = D - 1 D AICA<1CC=D1DA
  2. Krylov yöntemleri alt uzay yöntemleri özünde yansıtma yöntemleridir : seçersiniz ve bir , böylece artık ile ortogonal olur . Krylov metotları için elbette , ilk kalıntıya uyguladığı güçlerin kapsadığı alandır . Daha sonra çeşitli yöntemler spesifik seçimlerine karşılık gelir (örneğin, CG için ve GMRES için ).˜ xU b - A ˜ x V U A V V = U V = A UU,VCnx~UbAx~VUAVV=UV=AU

    Bu yöntemlerin (ve genel olarak projeksiyon yöntemlerinin) yakınsama özellikleri, ilgili seçimi nedeniyle , karşı en uygun durumda olması (örneğin, CG ya da artıklar için enerji normundaki hatayı minimize ederler) GMRES için). Her yinelemede boyutunu artırırsanız, son derece fazla adımdan sonra çözümü bulmak için (tam aritmetik olarak) garanti edilir.˜ x U UVx~UU

    İçin Krylov boşlukları kullanarak, Reid Atcheson işaret ettiği gibi Eğer nin öz (ve dolayısıyla koşul sayısı) açısından yakınlaşma oranlarını kanıtlamak için izin verir . Buna ek olarak, bu çıkıntı hesaplanması için etkin algoritmalar türetmek için çok önemli olan .A ˜ xUAx~

    Bu, Youcef Saad'ın yinelemeli yöntemler konusundaki kitabında güzel bir şekilde açıklanmıştır .

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.