Yanıtlar:
p = 2
( Vektörler veya sekanslar yerine fonksiyonlar dışında benzer şekilde tanımlanan normları da vardır - vektörler sonlu alanlı fonksiyonlar olduğu için gerçekten aynı şeydir.)
hariç, nerede bir makine öğrenme uygulamasında bir norm için herhangi bir kullanım farkında değilim . Genellikle veya veya bazen vakasını gevşetmek istediğinizde görürsünüz ; değil kesinlikle dışbükey içinde , ancak olduğu için . Bu, bazı durumlarda çözüm bulmayı "kolaylaştırabilir".p = ∞ p = 2 p = 1 1 < p < 2 p = 1 ‖ → x ‖ 1 → x ‖ → x ‖ p 1 < p < ∞
Regularization bağlamında, eklersen sizin demek beklediğiniz yani senin amaç fonksiyonuna olmak seyrek çoğunlukla sıfır oluşan olduğunu. Bu biraz teknik, ancak temel olarak, yoğun bir çözüm varsa, aynı normla daha seyrek bir çözüm var. Çözümünüzün yoğun olmasını beklerseniz, hedefinize ekleyebilirsiniz, çünkü o zaman türeviyle çalışmak çok daha kolaydır. Her ikisi de çözeltinin çok fazla ağırlığa sahip olmasını sağlama amacına hizmet eder.→ x ‖ → x ‖ 2 2
Karışık norm, birkaç kaynağı entegre etmeye çalıştığınızda ortaya çıkar. Temel olarak, çözüm vektörünün birkaç parçadan oluşmasını istersiniz ; burada , bazı kaynakların indeksidir. norm sadece bir tüm -norm bir vektör içinde toplanır -norms. Yani,jℓp,qqp‖ → x ‖p,q=( m ∑ j = 1 ( d ∑ i = 1 | x j i | p ) q / p)1/q
Bunun amacı, bir dizi çözümü, örneğin kullanarak "büyük boyuta ayırmak" değildir . Tek tek parçalar seyrek, ancak tüm çözümlerin normunu alarak bütün bir çözelti vektörünü nuking etme riskiniz yoktur . Böylece dışarıda normu kullanıyorsunuz. 1
Umarım yardımcı olur.
Daha fazla ayrıntı için bu makaleye bakın.