«machine-learning» etiketlenmiş sorular

Metodlar ve ilkeler "deneyim ile otomatik olarak gelişen bilgisayar sistemleri."

2
Neden hem doğrulama kümesini hem de test kümesini kullanmalıyım?
Bir sinir ağını düşünün: Belirli bir veri kümesi için, bunu eğitim, doğrulama ve test kümesine böleriz. Klasik 60:20:20 oranında yaptığımızı varsayalım, o zaman ağı doğrulama kümesinde kontrol ederek doğrulayarak aşırı sığmayı önlüyoruz. O zaman performansını kontrol etmek için test setinde test etme ihtiyacı nedir? Test setindeki hata, ağ için geçerli …



1
ReLU neden diğer aktivasyon fonksiyonlarından daha iyidir?
Burada cevap, benzer sigmoidaktivasyon fonksiyonları olan ama sanırım Relubir dezavantaja sahip olan ve beklenen değeri olan yok olan ve patlayan gradyanları ifade eder . çıkışı için bir sınırlama yoktur Reluve bu nedenle beklenen değeri sıfır değildir. Popülerlik önce hatırlıyorum Reluo tanhmakine ziyade uzmanlar öğrenme arasında en popüler oldu sigmoid. Bunun …

2
Doc2Vec - Paragraflar nasıl etiketlenir (gensim)
Ben gensim doc2vec ile cümleler / paragraflar / belgeleri nasıl etiketlemek (etiket) merak ediyorum - pratik bir bakış açısından. Her cümlenin / paragrafın / belgenin kendine özgü etiketi (örneğin "Sent_123") olması gerekiyor mu? "Hangi sözcüklerin veya cümlelerin" Sent_123 "etiketli tek bir cümleyle en çok benzediğini söylemek istiyorsanız bu yararlı görünüyor. …

3
Derin Sinir Ağlarında Torbalama ve Bırakma
Torbalama, tek bir yordayıcı gibi en çok çalışan çoklu yordayıcıların üretilmesidir. Bırakma, tüm olası alt ağları ortalamayı bir sinir ağlarına öğreten bir tekniktir. En önemli Kaggle'ın yarışmalarına bakıldığında, bu iki tekniğin çok sık birlikte kullanıldığı görülmektedir. Gerçek uygulamanın yanında teorik bir fark göremiyorum. Neden her ikisini de gerçek bir uygulamada …

3
En yakın komşular çok yüksek boyutlu veriler arar
Kullanıcıların ve beğendikleri öğelerin büyük bir seyrek matrisine sahibim (1M kullanıcıları ve 100K öğelerinde, çok düşük bir seviyede sparlite ile). Üzerinde kNN araması yapabileceğim yolları araştırıyorum. Veri setimin boyutu ve yaptığım bazı ilk testler göz önüne alındığında, benim kullanacağım yöntemin ya paralel ya da dağıtılmış olması gerektiği varsayımıdır. Bu yüzden …

5
Anomali tespiti ile kedileri görsel olarak tespit etme
Şimdiye kadar sınırlı makine öğrenimi deneyimimi artırmanın bir yolu olarak taahhüt ettiğim bir hobi projem var. Bu konuda Coursera MOOC dersini aldım ve tamamladım. Benim sorum projenin fizibilitesi ile ilgili. Görev şudur: Komşu kediler zaman zaman bahçemi ziyaret ediyorlar, bu da benim çimlerimde dışkılama eğilimindeyken sevmediğim. Bir kedi olduğunda beni …

2
Anlamsal analiz için büyük verilerde liblinear kullanın
Semantik analiz problemine ilişkin verileri eğitmek ve sınıflandırmayı tahmin etmek için Libsvm kullanıyorum . Ancak , semantik analiz n-boyutlu problemle ilgili olduğu için büyük ölçekli veriler üzerinde bir performans sorunu vardır . Geçen yıl, Liblinear piyasaya sürüldü ve performans darboğazını çözebilir. Ama çok fazla belleğe mal oldu . MapReduce , …

2
Sınıflandırıcıların doğruluğu nasıl artırılır?
Rasgele ağaçlar ve diğer sınıflandırıcılar üzerinde denemek için OpenCV letter_recog.cpp örneği kullanıyorum. Bu örnekte altı sınıflandırıcı - rastgele ağaçlar, artırma, MLP, kNN, naif Bayes ve SVM uygulamaları vardır. Eğitim ve test için ikiye böldüğüm 20000 örnek ve 16 özelliğe sahip UCI harf tanıma veri kümesi kullanılır. SVM ile ilgili deneyimim …

5
deniz dibi ısı haritasını büyüt
corr()Orijinal bir df dışında bir df oluşturun . corr()Df 70 X 70 çıktı ve ısı haritası görselleştirmek mümkün değildir ... sns.heatmap(df). Göstermeye çalışırsam corr = df.corr(), tablo ekrana sığmaz ve tüm korelasyonları görebilirim. Boyutundan dfbağımsız olarak tümünü yazdırmanın veya ısı haritasının boyutunu kontrol etmenin bir yolu var mı ?
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

5
Performansı artırmak için makine öğreniminde seyrek ve yoğun verileri birleştirme
Kestirimci olan seyrek özelliklerim var, ayrıca kestirimci olan bazı yoğun özelliklere de sahibim. Sınıflandırıcının genel performansını artırmak için bu özellikleri bir araya getirmem gerekiyor. Şimdi, bunları bir araya getirmeye çalıştığımda, yoğun özellikler seyrek özelliklere daha fazla hakim olma eğilimindedir, bu nedenle AUC'de sadece yoğun özelliklere sahip modele kıyasla sadece% 1 …

2
Verileri test etmek için de normalleştirme uygulamalıyız?
Yazar tanımlama sorunu üzerine bir proje yapıyorum. Verileri eğitmek için tf-idf normalizasyonunu uyguladım ve daha sonra bu veriler üzerinde bir svm eğitimi aldım. Şimdi sınıflandırıcıyı kullanırken test verilerini de normalleştirmeliyim. Normalleşmenin temel amacının öğrenme algo'yu öğrenirken daha önemli özelliklere daha fazla ağırlık vermektir. Bu yüzden bir kez eğitildikten sonra, hangi …

2
Eksik verilerle iş akışının neresinde ilgilenmeliyiz?
Çok büyük bir veritabanından (burada, SQL ve Vertica aracılığıyla Vertica) alınan verilerden makine öğrenme modelleri (benim durumumda, Python pandasve sklearnpaketleri kullanarak) oluşturmak için bir iş akışı oluşturuyorum pyodbcve bu süreçte kritik bir adım eksik öngörücülerin değerleri. Bu, tek bir analiz veya istatistik platformu içinde basittir - Python, R, Stata, vb. …

3
Derin öğrenmede ağırlık ve önyargı nedir?
Makine öğrenmeyi Tensorflow web sitesinden öğrenmeye başlıyorum. Derin bir öğrenme programının izlediği akış hakkında çok temel bir anlayış geliştirdim (bu yöntem, kitap ve büyük makaleler okumak yerine hızlı öğrenmemi sağlıyor). Karşılaştığım birkaç kafa karıştırıcı şey var, bunlardan 2 tanesi: Önyargı Ağırlık Tensorflow web sitesindeki MNIST eğitiminde, bir görüntüdeki belirli bir …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.