Andrew Ng'in "Machine Learning" kursunu birkaç ay önce Coursera üzerinden aldım, matematik / türevlerin çoğuna dikkat etmedim ve bunun yerine uygulama ve pratikliğe odaklandım. O zamandan beri altta yatan teoriyi incelemeye başladım ve Prof. Ng'nin bazı derslerini tekrar gözden geçirdim. "Düzenli Doğrusal Regresyon" konulu konferansını okuyordum ve şu maliyet fonksiyonunu verdiğini gördüm:
Ardından, bu maliyet fonksiyonu için aşağıdaki gradyanı verir:
Birinden diğerine nasıl geçtiği konusunda biraz kafam karıştı. Kendi türevimi yapmaya çalıştığımda şu sonucu elde ettim:
Fark, orijinal maliyet fonksiyonu ile Prof. Ng'nin formülündeki normalleştirme parametresi arasındaki 'artı' işaretidir, gradyan işlevinde bir 'eksi' işaretine dönüşürken sonuçta bu gerçekleşmez.
Sezgisel olarak neden negatif olduğunu anlıyorum: theta parametresini gradyan figürüyle düşürüyoruz ve normalleştirme parametresinin aşırı sığmayı önlemek için parametreyi değiştirdiğimiz miktarı azaltmasını istiyoruz. Ben bu sezgiyi destekleyen kalkülüs üzerinde biraz sıkıştım.
Bilginize, güverteyi burada , 15 ve 16 numaralı slaytlarda bulabilirsiniz .