Aslında, çıkış vektörleri herhangi bir matematiksel işlem kullanılarak girdiden hesaplanmaz. Bunun yerine, her giriş tamsayı, tüm olası vektörleri içeren bir tabloya erişmek için dizin olarak kullanılır. Bu, kelimelerin boyutunu ilk argüman olarak belirtmenizin nedenidir (böylece tablo başlatılabilir).
Bu katmanın en yaygın uygulaması metin işleme içindir. Basit bir örnek görelim. Eğitim setimiz sadece iki cümleden oluşur:
Umarım yakında görüşürüz
Seni tekrar görmek güzel
Bu yüzden, her kelimeye benzersiz bir tamsayı numarası atayarak (örneğin eğitim veri setimizdeki görünüm sırasına göre) bu cümleleri kodlayabiliriz. Ardından ifadelerimiz şu şekilde yeniden yazılabilir:
[0, 1, 2, 3, 4]
[5, 1, 2, 3, 6]
Şimdi, ilk katmanı gömme katmanı olan bir ağı eğitmek istediğimizi hayal edin. Bu durumda, şu şekilde başlatmalıyız:
Embedding(7, 2, input_length=5)
İlk argüman (7), eğitim setindeki farklı kelimelerin sayısıdır. İkinci argüman (2), gömme vektörlerinin boyutunu belirtir. İnput_length argumet, tabii ki, her bir giriş dizisinin boyutunu belirler.
Ağ bir kez eğitildiğinde, bu durumda (7, 2) büyüklükte olacak ve vektörleri gömmek için tamsayıları eşleştirmek için kullanılan tablo olarak düşünülebilen gömme katmanının ağırlıklarını alabiliriz:
+------------+------------+
| index | Embedding |
+------------+------------+
| 0 | [1.2, 3.1] |
| 1 | [0.1, 4.2] |
| 2 | [1.0, 3.1] |
| 3 | [0.3, 2.1] |
| 4 | [2.2, 1.4] |
| 5 | [0.7, 1.7] |
| 6 | [4.1, 2.0] |
+------------+------------+
Dolayısıyla, bu gömülmelere göre, ikinci eğitim ifademiz şöyle gösterilecektir:
[[0.7, 1.7], [0.1, 4.2], [1.0, 3.1], [0.3, 2.1], [4.1, 2.0]]
İlk başta karşı sezgisel görünebilir, ancak altta yatan otomatik farklılaşma motorları (örneğin, Tensorflow veya Theano), modelinizin diğer tüm parametreleri gibi her giriş tamsayısıyla ilişkili bu vektörleri optimize etmeyi başarır. Farklı yöntemlerde, başka yöntemlerle / insanlar tarafından öğrenilen yerleştirmeleri de kullanmak ilginçtir (bkz. Https://blog.keras.io/using-pre-trained-word-embeddings-in-a-keras-model.html ) [1] 'de yapıldı.
[1] López-Sánchez, D., Herrero, JR, Arrieta, AG ve Corchado, JM Uyarlanabilir clickbait tespiti için metrik öğrenmeyi ve vaka temelli akıl yürütmeyi hibritler. Uygulamalı Zeka, 1-16.