«machine-learning» etiketlenmiş sorular

Makine öğrenimi algoritmaları eğitim verilerinin bir modelini oluşturur. "Makine öğrenimi" terimi belirsiz bir şekilde tanımlanmıştır; istatistiksel öğrenme, takviye öğrenme, gözetimsiz öğrenme vb. olarak da adlandırılır. DAİMA DAHA ÖZEL BİR ETİKET EKLE.

2
F-ölçü doğrulukla eşanlamlı mı?
F-tedbirinin (hassasiyet ve hatırlamaya dayalı olarak) bir sınıflandırıcının ne kadar doğru olduğunun bir tahmini olduğunu anlıyorum. Ayrıca, dengesiz bir veri setimiz olduğunda , f-ölçüsü doğruluktan daha fazla tercih edilir . Basit bir sorum var (teknolojiden çok doğru terminolojiyi kullanmakla ilgili). Dengesiz bir veri kümem var ve deneylerimde f-ölçü kullanıyorum. Bir …

1
Çapraz doğrulama ne zaman kullanılmaz?
Sitede okuduğumda, çoğu cevap, çapraz öğrenme işleminin makine öğrenme algoritmalarında yapılması gerektiğini gösteriyor. Ancak, "Makine Öğrenmesini Anlama" kitabını okurken bazen çapraz doğrulamanın kullanılmaması daha iyi bir alıştırma olduğunu gördüm. Gerçekten kafam karıştı. Verilerin tamamı üzerinde eğitim algoritması çapraz doğrulamadan daha iyidir? Gerçek veri setlerinde oluyor mu? Let olmak hipotez sınıfları. …

1
Beyer ve ark. çalışma: “Yüksek Boyutlu Uzayda Mesafe Metriklerinin Şaşırtıcı Davranışı Üzerine” yanıltıcı mı?
Boyutsallığın lanetinden bahsederken bu sıklıkla belirtilir ve gider (göreceli kontrast adı verilen sağ formül) limd→ ∞var ( | | Xd| |kE[ | | Xd| |k]) =0,sonra: Dmaksimumkd- DminkdDminkd→ 0limd→∞var(||Xd||kE[||Xd||k])=0,sonra:Dmaksimumdk-DmindkDmindk→0 \lim_{d\rightarrow \infty} \text{var} \left(\frac{||X_d||_k}{E[||X_d||_k]} \right) = 0, \text{then}: \frac{D_{\max^{k}_{d}} - D_{\min^{k}_{d}}}{D_{\min^{k}_{d}}} \rightarrow 0 Teoremin sonucu, belirli bir sorgu noktasına olan maksimum …

1
Rasgele orman sonuçlarım neden bu kadar değişken?
Ben rastgele ormanın 2 grup arasında örnekleri sınıflandırma yeteneğini test etmeye çalışıyorum; Sınıflandırma için kullanılan 54 örnek ve değişen sayıda değişken vardır. 50.000 ağaç kullandığımda bile çanta dışı (OOB) tahminlerin neden birbirinden% 5 kadar değişebileceğini merak ediyordum. Bu önyüklemenin yardımcı olabileceği bir şey mi?

3
LASSO'nun (düzenlileşme) nasıl çalıştığını gerçekten anlamadığımızı söylediklerinde istatistikçiler ne anlama geliyor?
Son zamanlarda Kement üzerinde birkaç istatistik görüşmesi yaptım (düzenlileştirme) ve ortaya çıkmaya devam eden bir nokta, Kement'in neden çalıştığını veya neden bu kadar iyi çalıştığını gerçekten anlamamamız. Bu ifadenin ne anlama geldiğini merak ediyorum. Açıkçası, Lasso'nun teknik olarak neden çalıştığını, parametrelerin daralmasıyla aşırı sığmayı önleyerek, ama böyle bir ifadenin arkasında …

1
Bir matris fonksiyonunun türevinin bu hesaplanmasını haklı kılan nedir?
Andrew Ng'in makine öğrenimi kursunda şu formülü kullanıyor: ∇Atr(ABATC)=CAB+CTABT∇Atr(ABATC)=CAB+CTABT\nabla_A tr(ABA^TC) = CAB + C^TAB^T ve aşağıda gösterilen hızlı bir kanıt yapar: ∇Atr(ABATC)=∇Atr(f(A)ATC)=∇∘tr(f(∘)ATC)+∇∘tr(f(A)∘TC)=(ATC)Tf′(∘)+(∇∘Ttr(f(A)∘TC)T=CTABT+(∇∘Ttr(∘T)Cf(A))T=CTABT+((Cf(A))T)T=CTABT+CAB∇Atr(ABATC)=∇Atr(f(A)ATC)=∇∘tr(f(∘)ATC)+∇∘tr(f(A)∘TC)=(ATC)Tf′(∘)+(∇∘Ttr(f(A)∘TC)T=CTABT+(∇∘Ttr(∘T)Cf(A))T=CTABT+((Cf(A))T)T=CTABT+CAB\nabla_A tr(ABA^TC) \\ = \nabla_A tr(f(A)A^TC) \\ = \nabla_{\circ} tr(f(\circ)A^TC) + \nabla_{\circ}tr(f(A)\circ^T C)\\ =(A^TC)^Tf'(\circ) + (\nabla_{\circ^T}tr(f(A)\circ^T C)^T \\ = C^TAB^T + (\nabla_{\circ^T}tr(\circ^T)Cf(A))^T \\ =C^TAB^T + ((Cf(A))^T)^T \\ = C^TAB^T …



3
Sinir ağını belirli bir tarzda resim çizmek için eğitmek mümkün mü?
Sinir ağını belirli bir tarzda resim çizmek için eğitmek mümkün mü? (Bu yüzden bir görüntü alır ve eğitildiği bir tarzda yeniden çizer.) Böyle bir şey için onaylanmış bir teknoloji var mı? DeepArt algoritmasını biliyorum. Ana görüntüyü belirli bir desenle doldurmak iyidir (örneğin, vangoghify görüntüsü), ancak farklı bir şey arıyorum - …


1
Pareto'nun önemini vurgulayan örneklemenin (PSIS-LOO) arızalanmasını önleme
Son zamanlarda Pareto'nun önemini belirten örnekleme bırakma-bir-arada çapraz-doğrulama (PSIS-LOO) kullanmaya başladım: Vehtari, A. ve Gelman, A. (2015). Pareto önem örneklemesini yumuşattı. arXiv ön baskı ( bağlantı ). Vehtari, A., Gelman, A. ve Gabry, J. (2016). Bir defaya mahsus çapraz doğrulama ve WAIC kullanılarak pratik Bayesci model değerlendirmesi. arXiv ön baskı …

3
RBF SVM kullanım örnekleri (lojistik regresyon ve rastgele orman vs)
Radyal tabanlı işlev çekirdeğine sahip Vektör Makinelerini Destekleyin , genel amaçlı denetimli bir sınıflandırıcıdır. Bu SVM'lerin teorik temellerini ve güçlü noktalarını bilsem de, tercih edilen yöntem oldukları durumların farkında değilim. Peki, RBF SVM'lerinin diğer ML tekniklerinden daha üstün olduğu bir sorun sınıfı var mı? (Ya skor, ya da diğer - …


1
PCA ile sadece büyük çift mesafeleri koruyarak ne kastedilmektedir?
Şu anda t-SNE görselleştirme tekniğini okuyorum ve yüksek boyutlu verileri görselleştirmek için temel bileşen analizini (PCA) kullanmanın dezavantajlarından birinin, noktalar arasındaki sadece büyük çift mesafeleri koruduğu belirtildi. Yüksek boyutlu uzayda birbirinden ayrı olan anlam noktaları, düşük boyutlu altuzayda da çok farklı görünecektir, ancak diğer tüm çift mesafeler vidalanacaktır. Birisi bunun …

1
TF-IDF logaritmasında logaritma kullanımını anlama
Ben okuyordum: https://en.wikipedia.org/wiki/Tf%E2%80%93idf#Definition Ama formülün neden böyle inşa edildiğini tam olarak anlayamıyorum. Ne Anlıyorum: iDF bir düzeyde belgelerin her birinde S teriminin ne sıklıkta göründüğünü ölçmeli ve terim daha sık göründükçe değeri düşmelidir. Bu açıdan iDF(S)=# of Documents# of Documents containing SiDF(S)=# of Documents# of Documents containing S iDF(S) = …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.