1- Özelliklerin sayısı: Sinir ağı modeli açısından, projeksiyon (gizli) katmanındaki nöron sayısını temsil eder. İzdüşüm tabakası dağılımsal hipotez üzerine inşa edildiğinden, her sözcük için sayısal vektör, bağlam sözcükleriyle ilişkisini gösterir.
Bu özellikler, denetimsiz bir yöntem olduğu için sinir ağı tarafından öğrenilir. Her vektörün birkaç semantik özelliği vardır. Örneğin, klasik örneği ele alalım V(King) -V(man) + V(Women) ~ V(Queen)
ve her kelime 300-d vektör ile temsil edilir. V(King)
Kraliyet, krallık, erkeklik, insanın belli bir sırayla semantik özelliklerini taşıyacaktır. V(man)
erkeklik, insan, belli bir sırayla çalışır. Böylece V(King)-V(Man)
yapıldığında erkeklik, insan özellikleri etkisiz hale gelecek ve V(Women)
kadınlığa sahip olan eklendiğinde insan özellikleri eklenecek ve böyleceV(Queen)
. İlginç olan, bu özelliklerin vektörde belirli bir sırada kodlanmasıdır, böylece toplama, çıkarma gibi sayısal hesaplamalar mükemmel çalışır. Bu, sinir ağındaki denetimsiz öğrenme yönteminin doğasından kaynaklanmaktadır.
2- İki yaklaşım algoritması vardır. Hierarchical softmax
ve negative sampling
. Örnek parametresi verildiğinde negatif örnekleme gerekir. Hiyerarşik softmax durumunda, her sözcük vektörü için bağlam sözcüklerine pozitif çıktılar verilir ve sözcük dağarcığındaki diğer tüm kelimelere negatif çıktılar verilir. Zaman karmaşıklığı sorunu negatif örnekleme ile çözülür. Negatif örneklemede olduğu gibi, tüm kelime dağarcığından ziyade, kelime dağarcığının sadece örneklenmiş bir kısmına negatif çıktılar verilir ve vektörler, önceki yöntemden çok daha hızlı olan eğitilir.