Lojistik aktivasyon fonksiyonlarını kullanırken, her birimin girişlerini çıkışıyla ilişkilendiren fonksiyonun lojistik regresyon ile aynı olduğu doğrudur. Ancak bu, lojistik regresyon yapan her birimle gerçekten aynı değildir. Fark, lojistik regresyonda, ağırlıklar ve yanlılık, çıkışın verilen hedef değerlere (log / çapraz entropi kaybını kullanarak) en iyi uyacak şekilde seçilmesidir. Buna karşılık, bir sinir ağındaki gizli birimler çıktılarını aşağı akım birimlerine gönderir. Tek tek gizli birimler için eşleştirilecek hedef çıktı yok. Aksine, ağırlıklar ve sapmalar ağın nihai çıktısına bağlı olan bazı objektif işlevleri en aza indirecek şekilde seçilir.
Lojistik regresyon yapmak yerine, her gizli üniteyi bazı özellik alanlarında bir koordinat hesaplamak olarak düşünmek daha mantıklı olabilir. Bu perspektiften, gizli bir katmanın amacı girdisini dönüştürmektir - giriş vektörü gizli katman aktivasyonlarının bir vektörüne eşlenir. Bunu, girdiyi her bir gizli birime karşılık gelen bir boyutla bir özellik alanına eşleme olarak düşünebilirsiniz.
Çıktı katmanı genellikle bu özellik alanında çalışan standart bir öğrenme algoritması olarak düşünülebilir. Örneğin, bir sınıflandırma görevinde, çapraz entropi kaybına sahip bir lojistik çıktı birimi kullanmak, özellik alanında (ya da softmax çıktılar kullanılıyorsa multinomial lojistik regresyon) lojistik regresyon gerçekleştirmeye eşdeğerdir. Bir regresyon görevinde, kare hatasıyla doğrusal bir çıktı kullanmak, özellik alanında en küçük kareler doğrusal regresyonunu gerçekleştirmeye eşdeğerdir.
Ağı eğitmek, birlikte en iyi performansı veren özellik alanı eşleme ve sınıflandırma / regresyon işlevini (özellik alanında) öğrenmektir. Doğrusal olmayan gizli birimlerin varsayılması, gizli katmanın genişliğinin artırılması veya birden fazla gizli katmanın istiflenmesi, daha karmaşık özellik alanı eşlemelerine izin vererek daha karmaşık işlevlerin sığmasını sağlar.