Grup 1 : Grup 1'in
karmaşıklığı / hızı, kaba kuvvet algoritmalarının kullanılıp kullanılmadığını anlamak çok zor görünmemektedir ("sıçramalar ve sınırlar" algoritması gibi daha verimli alternatifler olabilir). Örneğin, tam alt küme seçimi , K aday özelliklerinin bir havuzu göz önüne alındığında regresyonunun uygun olmasını gerektirir . OLS bir lineer regresyon karmaşıklığı sahiptir uygun O ( K 2 n ) (göre bu yazı ), burada n, örnek boyutudur. Bu nedenle, kaba kuvvet tam altküme seçiminin toplam karmaşıklığı O ( 2 K K n2KKO(K2n)nO(2KK2n) .
Grup 2 : Grup 2'nin
karmaşıklığı / hızı kitabın 3.8 ve 3.9 bölümlerinde ele alınmıştır. Örneğin, belirli bir ceza λ ile sırt regresyonu, normal regresyon ile aynı hesaplama karmaşıklığına sahiptir. Yana λ çapraz doğrulama kullanılarak bulunması gerekmektedir, çapraz doğrulama (örneğin, kullanılan veri böler sayısında doğrusal işlem yükü artırır S ). Eğer λ ızgara sahip L noktaları, sırt regresyon toplam karmaşıklığı ile ayarlama λ parametresi olacak O ( L S K 2 , n ) .λλSλLλO(LSK2n)
Kitapta LASSO
hakkında biraz konuşma var , ama ihtiyacım olanı bulamadım. Ancak, s. 443, Efron ve ark. Belirli bir λ için LASSO karmaşıklığının, LARS yöntemi kullanılıyorsa doğrusal regresyona uygun bir OLS uyumunun karmaşıklığı ile aynı olan "En Düşük Açı Regresyonu" (2004) . Daha sonra λ parametresini ayarlayarak LASSO'nun toplam karmaşıklığı O ( L S K 2 n ) olacaktır . (Bu makaleyi dikkatlice okumadım, bu yüzden bunu yanlış anladıysam lütfen düzeltin.) Elastik ağ O ( A L S K 2 n ) neredeλλO(LSK2n)
anladıysam sırt ve LASSO'yu birleştirir; ikisi aynı hesaplama karmaşıklığına sahiptir; dolayısıyla elastik ağın karmaşıklığıO(ALSK2n)A ayar parametresinin ızgara boyutuα sırtın LASSO'ya karşı ağırlıklarını dengeleyen .
Grup 3 :
I hala kaçırma temel bileşenler regresyon (PCR) ve kısmi en küçük kareler (PLS) ibaret olan gruptan 3 için karmaşıklığı / hızı üzerinde herhangi bir not.