Bir maxout katmanı, sadece aktivasyon fonksiyonunun girişlerin maksimum olduğu bir katmandır. Kağıtta belirtildiği gibi, 2 maxout üniteli bir MLP bile herhangi bir işlevi yerine getirebilir. Maxout'un neden iyi performans gösterdiğine dair birkaç neden veriyorlar, ancak verdikleri asıl sebep şudur:
Bırakma, her yinelemede rastgele bir alt ağın eğitildiği ortalama bir model biçimi olarak düşünülebilir ve sonunda bu gibi farklı rastgele ağların ağırlıklarının ortalaması alınır. Biri ağırlıkları açıkça ortalayamadığından, bir yaklaşım kullanılır. Bu yaklaşım bir tam doğrusal ağ için
maxout olarak, maxout tabakasına girişi düşürme. Bu nedenle, bir veri noktası için maksimum değeri veren girişin kimliği değişmeden kalır. Bu yüzden, bırakma sadece MLP'nin lineer kısmında meydana gelir, ancak bir tanesi maxout katmanı nedeniyle herhangi bir fonksiyonu hala yaklaşık olarak alabilir.
Bırakma yalnızca doğrusal kısımda gerçekleştiğinden, ortalama yaklaşım yaklaşımı doğrusal ağlar için kesin olduğu için bunun ortalama modellemede daha verimli bir modele yol açtığını varsaymaktadırlar.
Kodları burada mevcuttur .