Satır aramanın ve güven bölgesi yöntemlerinin ölçeklendirmeyi nasıl ele aldıkları arasında bir fark olabileceğini düşünüyorum, ancak ölçeklemenin farkında olduğumuz sürece uygulamada gerçekten etkili olduğunu görmüyorum. Ve net olmak gerekirse, Nocedal ve Wright kitabı afin ölçeklendirmeden bahsediyordu. Doğrusal olmayan ölçeklendirme nicelemek için biraz daha zordur.
f:X→RA∈L(X)J:X→R
J(x)=∇J(x)=∇2J(x)=f(Ax)A∇f(Ax)A∇2f(Ax)A
A∇2J(x)δx=−∇J(x)
A∇2f(Ax)Aδx=−A∇f(Ax)
Aδx=−∇2f(Ax)−1∇f(Ax)
Hδx=−∇J(x)
HHδx=−A∇f(Ax)
AH
ϕ
δx=ϕ(−A∇f(Ax))
ϕϕϕA
∇2J(x)δx=−∇J(x)
CG kullanma. Bu, tam olarak güven bölgesi ayarında Steihaug-Toint (Nocedal ve Wright'ta s. 171) veya satır araması için Newton-CG'yi kullanır (Nocedal ve Wright'ta s. 169). Aynı şekilde oldukça yakın çalışırlar ve afin ölçeklendirmeyi umursamazlar. Ayrıca Hessian'ın depolanmasını gerektirmezler, sadece Hessian-vektör ürünleri gereklidir. Gerçekten, bu algoritmalar çoğu problem için işgücü olmalı ve afin ölçeklendirmeyi umursamıyorlar.
Güven bölgesi sorununun önkoşulu olarak, apriori'ye genel optimizasyon yinelemelerinin sayısını geliştirip geliştirmeyeceğinizi söylemenin kolay bir yolu olduğunu düşünmüyorum. Gerçekten, günün sonunda, optimizasyon yöntemleri iki modda çalışır. Birinci modda, Newton'un yöntem yakınsama yarıçapından çok uzaktayız, bu nedenle küreselleşir ve yinelemeleri, hedefin düşmesini sağlamak için zorlarız. Güven bölgesi bir yoludur. Hat arama başka bir şeydir. İkinci modda, Newton'un yöntem yakınsama yarıçapındayız, bu yüzden onunla uğraşmamaya çalışıyoruz ve Newton'un yönteminin işini yapmasına izin veriyoruz. Aslında bunu, güven bölgesi yöntemleri gibi şeylerin yakınsama kanıtlarında görebiliriz. Örneğin, Teorem 4.9'a bakınız (Nocedal ve Wright'ta s.93). Çok açık bir şekilde, güven bölgesinin nasıl etkisiz hale geldiğini belirtirler. Bu bağlamda, ön koşullandırıcının faydası nedir? Kuşkusuz, Newton'un yöntem yakınsama yarıçapındayken çok daha az iş yaparız ve CG yineleme sayısı azalır. Bu yarıçapın dışında olduğumuzda ne olur? Bu biraz değişiyor. Tam Newton adımını hesaplarsak, faydası daha az iş yapmamızdır. Kesilmiş CG'den kesilme nedeniyle adımımızı erken kesersek, yönümüz Krylov alt alanında olacak
{−P∇J(x),−(PH)(P∇J(x)),…,−(PH)k(P∇J(x))}
PH{−∇J(x),−(H)(∇J(x)),…,−(H)k(∇J(x))}?
Bu, iyi bir önkoşul tanımlamanın değeri olmadığı anlamına gelmez. Ancak, nasıl birisi Newton yöntemi yakınsama yarıçapı uzakta noktaları için optimizasyon yardımcı bir önkoşul tanımladığından emin değilim. Tipik olarak, somut, ölçülebilir bir hedef olan Hessian yaklaşımının özdeğerlerini kümelemek için bir ön koşul tasarlıyoruz.
TLDR; Pratik olarak, bir satır arama yönteminin bir güven bölgesi yönteminden daha fazla bir yineleme oluşturması için çok çeşitli yollar vardır, bu nedenle afin ölçeklendirmeyi işlemek için inanılmaz bir yol olabilir. Bununla birlikte, sadece yanlış bir Newton yöntemi kullanın ve önemli değil. Bir önkoşul, bir algoritmanın Newton'un yöntem yakınsama yarıçapından uzak performansını etkiler, ancak nasıl olduğunu ölçmek zordur, bu yüzden Hessiasn yaklaşımının öz değerlerini kümelemek için bir önkoşul tasarlayın.