Bırakma aslında nöronları ortadan kaldırmaz, sadece bu belirli nöronlar verilen veri grubu için herhangi bir rol oynamaz (aktive edilmez).
Örnek - 8 şeritli bir yol olduğunu varsayalım - Kamyonlar geldiğinde, 1,2,4,6,7 şeritlerden geçerler, Arabalar geldiğinde, 2,3,4,7,8 şeritlerden geçerler ve Bisikletler geldiğinde , şeritlerden geçerler 1,2,5,8. Yani herhangi bir araçtan bağımsız olarak, tüm şeritler orada, ancak sadece bir kısmı kullanılıyor.
Benzer şekilde, tüm nöronlar tüm modelde kullanılır, ancak belirli bir veri grubu için sadece bir nöron alt kümesi aktive edilir. Ve model daha sonra kesilmez, model karmaşıklığı olduğu gibi kalır.
Neden bırakma kullanılır?
Ian Goodfellow'un Derin Öğrenme kitabında verildiği gibi,
bırakma, ağırlık azalması, filtre norm kısıtlamaları ve seyrek aktivite düzenlenmesi gibi diğer standart hesaplamalı ucuz düzenleyicilere göre daha etkilidir.
Ayrıca diyor ki-
Bırakmanın bir avantajı, çok hesaplı olarak ucuz olmasıdır.
Bırakmanın bir diğer önemli avantajı, kullanılabilecek model veya eğitim prosedürünü önemli ölçüde sınırlamamasıdır. Dağıtılmış bir gösterim kullanan hemen hemen her modelle iyi çalışır ve stokastik degrade iniş ile eğitilebilir. Bu, ileri beslemeli sinir ağlarını, kısıtlı Boltzmann makineleri (Srivastava ve diğerleri, 2014) ve tekrarlayan sinir ağlarını (Bayer ve Osendorfer, 2014; Pascanu ve diğerleri, 2014a) içerir.
Bu kitap diyor ki-
Ana fikir, bir katmanın çıktı değerlerine gürültü sokmanın, önemli olmayan olay kalıplarını kırabileceğidir;