Örneğin, kelime için w pozisyonda p o s ∈ [ 0 , L - 1 ] giriş dizisinde , 4 boyutlu gömme ve olduğunda, işlem
w = (w0, ⋯ ,wL - 1)ewdm, O de l= 4e′w=ew+[sin(pos100000),cos(pos100000),sin(pos100002/4),cos(pos100002/4)]=ew+[sin(pos),cos(pos),sin(pos100),cos(pos100)]
burada konum kodlaması için formül aşağıdaki gibidir
ile (böylece , orijinal kağıt).PE(pos,2i)=sin(pos100002i/dmodel),
PE(pos,2i+1)=cos(pos100002i/dmodel).
dmodel=512i∈[0,255]
Bu teknik, önerilen mimaride kelime sırası (1. kelime, 2. kelime, ..) diye bir kavram olmadığı için kullanılır . Tüm giriş sırası sözcükleri ağa özel bir düzen veya konum olmaksızın (yaygın RNN veya ConvNet mimarilerinin aksine) beslenir, bu nedenle modelin kelimelerin nasıl sıralandığı hakkında hiçbir fikri yoktur. Sonuç olarak, modelin sözcüklerin sırasını dahil etmesine yardımcı olmak için her bir kelime gömme konumuna konuma bağlı bir sinyal eklenir. Deneylere dayanarak, bu ekleme sadece gömme bilgisinin yok edilmesini önlemekle kalmaz, aynı zamanda hayati pozisyon bilgilerini de ekler. RNNs bir durumda, RNN ardışık kelime besleme, örneğin, inci kelime adımında beslenir modeli kelimelerin sırasını dahil yardımcı olur.nn
Jay Alammar'ın bu makalesi makaleyi mükemmel görselleştirmelerle açıklamaktadır. Ne yazık ki, pozisyon kodlama için örneğin şu anda yanlış (kullandığı boyutları ve gömme ilk yarısı için kullanmak yerine, ikinci yarısı için da endeksleri ve için tek indeksleri için).sincossincos