«natural-language» etiketlenmiş sorular

Doğal Dil İşleme, dil, yapay zeka, makine öğrenimi ve istatistiklerden insan dillerini işlemeyi ve anlamayı amaçlayan bir dizi tekniktir.

3
Sürekli vs Özyinelemeli Yapay Sinir Ağları: NLP için hangisi daha iyi?
Tekrarlayan Sinir Ağları ve Özyinelemeli Sinir Ağları vardır. Her ikisi de genellikle aynı kısaltma ile gösterilir: RNN. Wikipedia'ya göre , Recurrent NN aslında Recursive NN'dir, ancak açıklamayı gerçekten anlamıyorum. Dahası, Doğal Dil İşleme için hangisinin daha iyi olduğunu (örneklerle ya da öylesine) bulmuyorum. Gerçek şu ki, Socher öğreticisinde NLP için …

7
Yeni başlayanlar için sinir ağı referansları (ders kitapları, çevrimiçi kurslar)
Yapay Sinir Ağlarını öğrenmek istiyorum. Ben Hesaplamalı Dilbilimciyim. İstatistiksel makine öğrenmesi yaklaşımlarını biliyorum ve Python'da kodlayabilir. Kavramlarıyla başlamak ve Hesaplamalı Dilbilim perspektifinden faydalı olabilecek bir veya iki popüler modeli tanımak istiyorum. Başvuru için interneti taradım ve birkaç kitap ve materyal buldum. Ripley, Brian D. (1996) Örüntü Tanıma ve Yapay Sinir …

5
LDA vs word2vec
Latent Dirichlet Allocation ve word2vec arasındaki kelimelerin benzerliğini hesaplamak için benzerliğin ne olduğunu anlamaya çalışıyorum . Anladığım kadarıyla, LDA sözcükleri gizli konuların bir olasılık vektörüne eşlerken, word2vec bunları gerçek sayıların bir vektörüne eşler (noktasal karşılıklı bilginin tekil değer ayrışmasıyla ilgili, bkz . O. Levy, Y. Goldberg, "Sinir Kelime Gömme" Örtük …

3
Bir özellik vektörü elde etmek için kelime gömme işlemlerini tüm belgeye uygulayın
Denetimli öğrenme ile kullanıma uygun bir belgeyi özellik vektörüne eşlemek için gömme kelimesini nasıl kullanırım? Bir kelime gömme her kelime haritalar bir vektör burada, , bazı değil çok sayıda (örneğin, 500) 'dir. Popüler kelime kalıplamaların dahil word2vec ve Eldiven .v ∈ R d dwwwv ∈ Rdv∈Rdv \in \mathbb{R}^dddd Belgeleri sınıflandırmak …


3
Gizli Markov modelleri ve koşullu rasgele alanlar arasındaki sezgisel fark
HMM'lerin (Gizli Markov Modelleri) üretken modeller olduğunu ve CRF'nin ayırt edici modeller olduğunu anlıyorum. Ayrıca CRF'lerin (Koşullu Rastgele Alanlar) nasıl tasarlandığını ve kullanıldığını da biliyorum. Anlamadığım şey, bunların HMM'lerden farklı olmaları mı? HMM durumunda, sadece bir sonraki durumumuzu önceki düğümde, mevcut düğümde ve geçiş olasılığına göre modelleyebildiğimizi okudum, ancak CRF'ler …

3
R: Veri setinde NaN bulunmamasına rağmen “yabancı işlev çağrısı” na NaN / Inf atma Rastgele Orman [kapalı]
Bir veri kümesi üzerinde çapraz doğrulanmış rasgele bir orman çalıştırmak için şapka kullanıyorum. Y değişkeni bir faktördür. Veri setimde hiç NaN, Inf veya NA yok. Ancak rastgele orman çalıştırırken, alıyorum Error in randomForest.default(m, y, ...) : NA/NaN/Inf in foreign function call (arg 1) In addition: There were 28 warnings (use …

2
Kosinüs benzerliği l2 normalize öklid mesafesine eşit mi?
Özdeş bir vektör arasındaki bir sıralama benzerliği için benzer sonuçlar üretecek anlamı, u ve vektörler bir dizi V . Parametre olarak uzaklık ölçüsü (öklid mesafesi, kosinüs benzerliği) ve normalizasyon tekniğine (hiç, l1, l2) sahip bir vektör uzayı modelim var. Anladığım kadarıyla, [cosine, none] ayarlarının sonuçları aynı veya en azından gerçekten …

3
Konu modelleri ve kelime birlikte ortaya çıkma yöntemleri
LDA gibi popüler konu modelleri genellikle aynı konu (birlikte) içinde birlikte ortaya çıkma eğiliminde olan kelimeleri kümeler. Bu konu modelleri ve PMI gibi diğer basit eşzamanlılık tabanlı kümeleme yaklaşımları arasındaki temel fark nedir? (PMI, Pointwise Mutual Information anlamına gelir ve verilen bir kelimeyle birlikte gelen kelimeleri tanımlamak için kullanılır.)

1
Duygu analizi için paragraf vektörlerini kullanma konusunda bildirilen son teknoloji performans çoğaltılmış mı?
Le ve Mikolov'un " Cümle ve Belgelerin Dağıtılmış Temsilleri " başlıklı ICML 2014 belgesindeki sonuçlardan etkilendim . "Paragraf vektörleri" olarak adlandırdıkları teknik, word2vec modelinin bir uzantısına dayanarak, keyfi olarak uzun paragrafların / belgelerin denetimsiz temsillerini öğrenir. Bu makale, bu teknik kullanılarak duyarlılık analizinde en son teknolojiye sahip performansı göstermektedir. Bu …


2
Doğal Dil İşleme neden Makine Öğrenimi alanına girmiyor? [kapalı]
Şu anda olduğu gibi, bu soru Soru-Cevap formatımıza uygun değil. Yanıtların gerçekler, referanslar veya uzmanlık tarafından desteklenmesini bekliyoruz, ancak bu soru muhtemelen tartışma, tartışma, oylama veya genişletilmiş tartışma talep edecektir. Bu sorunun çözülebileceğini ve muhtemelen yeniden açılabileceğini düşünüyorsanız, yardım için yardım merkezini ziyaret edin . 7 yıl önce kapalı . …

3
Kneser-Ney yumuşatmada görünmeyen kelimeler nasıl ele alınır?
Gördüğüm kadarıyla, (ikinci dereceden) Kneser-Ney yumuşatma formülü şu ya da bu şekilde P2KN(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn)PKN2(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn) \begin{align} P^2_{KN}(w_n|w_{n-1}) &= \frac{\max \left\{ C\left(w_{n-1}, w_n\right) - D, 0\right\}}{\sum_{w'} C\left(w_{n-1}, w'\right)} + \lambda(w_{n-1}) \times P_{cont}(w_n) \end{align} normalize faktörü ile λ(wn−1)λ(wn−1)\lambda(w_{n-1}) olarak verilmiştir λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙)λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙) \begin{align} \lambda(w_{n-1}) &= \frac{D}{\sum_{w'} C\left(w_{n-1}, w'\right)} \times N_{1+}\left(w_{n-1}\bullet\right) \end{align} ve devam olasılığı Pcont(wn)Pcont(wn)P_{cont}(w_n) …

3
Kısa belgeler için konu modelleri
Bu sorudan esinlenerek , çok kısa metinlerin büyük koleksiyonları için konu modelleri üzerinde herhangi bir çalışma yapılıp yapılmadığını merak ediyorum. Benim sezgim Twitter'ın bu modeller için doğal bir ilham kaynağı olması. Bununla birlikte, bazı sınırlı deneylerden, standart konu modellerinin (LDA, vb.) Bu tür veriler üzerinde oldukça düşük performans gösterdiği görülmektedir. …

2
N-gram hangi n'de verimsiz hale gelir?
Doğal dil işleme yaparken, bir ceset alınabilir ve bir sonraki kelimenin n dizisinde meydana gelme olasılığı değerlendirilebilir. n genellikle 2 veya 3 (bigram ve trigram) olarak seçilir. Belirli bir kuruluşun bu seviyede bir kez sınıflandırılması için gereken süre göz önüne alındığında, n'inci zincir için verilerin izlenmesinin verimsiz hale geldiği bilinen …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.