«machine-learning» etiketlenmiş sorular

Makine öğrenimi algoritmaları eğitim verilerinin bir modelini oluşturur. "Makine öğrenimi" terimi belirsiz bir şekilde tanımlanmıştır; istatistiksel öğrenme, takviye öğrenme, gözetimsiz öğrenme vb. olarak da adlandırılır. DAİMA DAHA ÖZEL BİR ETİKET EKLE.

3
Doğrusal ayrılabilirlik testi
İki sınıflı bir veri kümesinin doğrusal ayrılabilirliğini yüksek boyutlarda test etmenin bir yolu var mı? Özellik vektörlerim 40 uzun. Her zaman lojistik regresyon deneylerini çalıştırabildiğimi ve iki sınıfın doğrusal olarak ayrılabilir olup olmadığını belirlemek için hitrate vs false alarm oranını belirleyebileceğimi biliyorum, ancak bunu yapmak için zaten standart bir prosedür …

1
libsvm "maksimum yineleme sayısına ulaşma" uyarısı ve çapraz doğrulama
C-SVC modunda libsvm'yi derece 2 polinom çekirdeği ile kullanıyorum ve birden fazla SVM eğitmem gerekiyor. Her eğitim setinde 10 özellik ve 5000 vektör bulunur. Eğitim sırasında, eğittiğim SVM'lerin çoğu için bu uyarıyı alıyorum: WARNING: reaching max number of iterations optimization finished, #iter = 10000000 Birisi bu uyarının ne anlama geldiğini …

1
Rasgele orman ağaçları için budama neden gerekli değildir?
Breiman, ağaçların budama olmadan büyüdüğünü söylüyor. Niye ya? Demek istediğim, rastgele ormandaki ağaçların budamamasının sağlam bir nedeni olmalı. Öte yandan, fazla oturmamak için tek bir karar ağacının budanması çok önemlidir. Bu nedenle okunabilecek bazı literatür var mı? Tabii ki ağaçlar birbiriyle ilişkili olmayabilir ancak yine de aşırı uyum olasılığı vardır.

2
AdaBoost aşırı sığmaya daha az veya daha fazla eğilimli mi?
AdaBoost'un (veya diğer arttırıcı tekniklerin) diğer öğrenme yöntemlerine kıyasla daha az veya daha fazla uyuma eğilimli olup olmadığı konusunda çeşitli (görünüşte) çelişen ifadeler okudum. Birine ya da diğerine inanmak için iyi nedenler var mı? Eğer bağlıysa, neye bağlıdır? AdaBoost'un aşırı sığmaya daha az / daha eğilimli olmasının nedenleri nelerdir?

3
“Çekirdek numarası” nı doğrusal yöntemlere uygulamak?
Çekirdek hüner birkaç makine öğrenme modellerinde (örneğin kullanılır SVM ). İlk olarak 1964'te "Örüntü tanıma öğreniminde potansiyel işlev yönteminin teorik temelleri" makalesinde tanıtılmıştır. Wikipedia tanımı bunun orijinal doğrusal olmayan gözlemleri, daha sonra doğrusal sınıflandırıcının kullanıldığı daha yüksek boyutlu bir alana eşleyerek doğrusal olmayan bir problemi çözmek için doğrusal bir sınıflandırıcı …


5
Özellik mühendisliği neden çalışır?
Son zamanlarda, ML sorunlarına daha iyi çözümler bulmanın yollarından birinin özelliklerin oluşturulması olduğunu öğrendim. Örneğin iki özelliği toplayarak bunu yapabiliriz. Örneğin, bir tür kahramanın iki “saldırı” ve “savunması” özelliğine sahibiz. Daha sonra "saldırı" ve "savunma" nın toplamı olan "toplam" adı verilen ek bir özellik oluştururuz. Şimdi bana garip görünen şey, …

1
Makine öğrenimi algoritmalarında eksik veriler ile seyrek veriler arasındaki fark
Seyrek veriler ile eksik veriler arasındaki temel farklar nelerdir? Ve makine öğrenmesini nasıl etkiler? Daha spesifik olarak, seyrek veriler ve eksik verilerin sınıflandırma algoritmaları ve regresyon (sayıları tahmin etme) algoritma türleri üzerindeki etkisi. Eksik veri yüzdesinin önemli olduğu ve eksik veri içeren satırları bırakamayacağımız bir durumdan bahsediyorum.

2
Önyargı-varyans tradeoff türevini anlama
İstatistiksel öğrenmenin unsurlarının önyargı-varyans dengesi bölümünü okuyorum ve 29. sayfadaki formülde şüphe duyuyorum. Veriler, bir modelden , rasgele olduğu beklenen değere sahip sayı ve Varyans . Modelin hatanın beklenen değeri olsun burada öngörülmesi olup eden öğrencinin. Kitaba göre hata Y=f(x)+ϵY=f(x)+ϵ Y = f(x)+\epsilonε = E [ ε ] = 0 …

2
LSTM'ler için en iyi hangi optimizasyon yöntemleri işe yarıyor?
LSTM'leri denemek için theano kullanıyorum ve LSTM'ler için hangi optimizasyon yöntemlerinin (SGD, Adagrad, Adadelta, RMSprop, Adam, vb.) En iyi sonucu merak ediyordum? Bu konuda herhangi bir araştırma makalesi var mı? Ayrıca, cevap LSTM için kullandığım uygulamanın türüne bağlı mı? Eğer öyleyse, metin sınıflandırma (metnin ilk kelime vektörlerine dönüştürüldüğü yer) için …

2
Düzeltme ağı için düzeltme işareti işlevi hem alfa hem de lambda için çapraz geçerlilik sağlıyor mu?
R yapar carethem de üzerinde paket çapraz geçerli hale getirmesi alphave lambdaiçin glmnetbir model? Bu kodu çalıştırdığınızda, eGrid <- expand.grid(.alpha = (1:10) * 0.1, .lambda = (1:10) * 0.1) Control <- trainControl(method = "repeatedcv",repeats = 3,verboseIter =TRUE) netFit <- train(x =train_features, y = y_train, method = "glmnet", tuneGrid = eGrid, …


5
Derin öğrenme: Hangi değişkenlerin önemli olduğunu nasıl bilebilirim?
Sinir ağı lingo açısından (y = Ağırlık * x + önyargı) hangi değişkenlerin diğerlerinden daha önemli olduğunu nasıl bilebilirim? 10 giriş, 1 düğüm 20 düğüm ve 1 düğüm olan 1 çıkış katmanı ile bir sinir ağı var. Hangi giriş değişkenlerinin diğer değişkenlerden daha etkili olduğunu nasıl bileceğimden emin değilim. Düşündüğüm …

3
Genetik algoritmalar ne zaman optimizasyon için iyi bir seçimdir?
Genetik algoritmalar bir optimizasyon yöntemidir. Genellikle stokastik gradyan inişi ve türevleri fonksiyon optimizasyonu için en iyi seçimdir, ancak bazen genetik algoritmalar hala kullanılmaktadır. Örneğin, NASA'nın ST5 uzay aracının anteni genetik bir algoritma ile oluşturuldu: Genetik optimizasyon yöntemleri ne zaman daha yaygın gradyan iniş yöntemlerinden daha iyi bir seçimdir?

3
RNN / LSTM ağlarının ağırlıkları neden zaman içinde paylaşılıyor?
Son zamanlarda LSTM'lerle ilgilenmeye başladım ve ağırlıkların zaman içinde paylaşıldığını öğrenmek beni şaşırttı. Ağırlıkları zaman içinde paylaşırsanız, giriş zamanı dizilerinizin değişken bir uzunluk olabileceğini biliyorum. Paylaşılan ağırlıklarla antrenman yapmak için daha az parametreye sahipsiniz. Anladığım kadarıyla, bir başka öğrenme yöntemine karşı bir LSTM'ye dönüşmesinin nedeni, verilerinizde öğrenmek istediğiniz bir tür …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.