«word-embeddings» etiketlenmiş sorular

Kelime gömme, NLP'de kelimelerin kelime boyutuna göre düşük boyutlu bir alanda gerçek sayıların vektörlerine eşlendiği bir dizi dil modelleme ve özellik öğrenme tekniklerinin toplu adıdır.

2
LSTM kullanarak dil modelleme görevlerinde bilinmeyen kelimeleri işleme
Doğal bir dil işleme (NLP) görevi için sözcükler için gömme olarak genellikle word2vec vektörleri kullanılır. Bununla birlikte, word2vec vektörleri tarafından yakalanmayan birçok bilinmeyen kelime olabilir, çünkü bu kelimeler eğitim verilerinde yeterince sık görülmemektedir (birçok uygulama, kelimeye bir kelime eklemeden önce minimum sayıyı kullanır). Bu, özellikle kelimelerin genellikle yanlış yazıldığı Twitter'dan …
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.