Veri Bilimi

Veri bilimi uzmanları, Makine Öğrenimi uzmanları ve alan hakkında daha fazla bilgi edinmek isteyenler için soru cevap

3
Max Pooling görüntüyü alt örneklemek için neden kıvrılıyor?
Kenarları tanımlamak gibi bir şey yapmak için filtreler uygulama fikri oldukça güzel bir fikirdir. Örneğin, 7 görüntüsünü alabilirsiniz. Bazı filtrelerde, orijinal görüntünün farklı özelliklerini vurgulayan dönüştürülmüş görüntüler elde edebilirsiniz. Orijinal 7: ağ tarafından şu şekilde deneyimlenebilir: Her görüntünün orijinalin farklı bir kenarını nasıl çıkardığına dikkat edin 7. Bu harika, ama …

4
Önceden eğitilmiş model ağırlıklarıyla yeni bir word2vec modeli nasıl başlatılır?
Word2vector modelini kullanmak ve eğitmek için Python'da Gensim Kütüphanesi kullanıyorum. Son zamanlarda, model ağırlıklarımı (GoogleNewDataset önceden eğitilmiş modeli) gibi önceden eğitilmiş word2vec modelleriyle başlatmaya bakıyordum. Birkaç haftadır bununla mücadele ediyorum. Şimdi, gesim'de, modelimin ağırlıklarını önceden eğitilmiş model ağırlıklarıyla başlatmama yardımcı olabilecek bir işlev olduğunu araştırdım. Bu aşağıda belirtilmiştir: reset_from(other_model) Borrow …

8
Python büyük veriler için uygun mu?
Bu yazıda okudum , büyük verilerin oluşturduğu Büyük Veri için uygun olan R dili5TB ve bu tür verilerle çalışmanın fizibilitesi hakkında bilgi sağlamak iyi bir iş çıkarırken, Rhakkında çok az bilgi sağlıyor Python. PythonBu kadar fazla veriyle de çalışabilir miyim diye merak ediyordum .
14 bigdata  python 


2
XgBoost'ta ikili sıralama modellerine nasıl uyulur?
Bildiğim kadarıyla, modelleri sıralamak için öğrenmeyi eğitmek için veri kümesinde üç şeye sahip olmanız gerekir: etiket veya alaka düzeyi grup veya sorgu kimliği özellik vektörü Örneğin, Microsoft Öğrenme Sıralaması veri kümesi bu biçimi (etiket, grup kimliği ve özellikler) kullanır. 1 qid:10 1:0.031310 2:0.666667 ... 0 qid:10 1:0.078682 2:0.166667 ... Ben …
14 search  ranking  xgboost  gbm 



4
Gensim Word2Vec uygulamasındaki dönem sayısı
Word2Vec uygulamasında bir iterparametre vargensim class gensim.models.word2vec.Word2Vec (cümleler = Yok, boyut = 100, alfa = 0.025, pencere = 5, min_count = 5, max_vocab_size = Yok, örnek = 0, tohum = 1, işçiler = 1, min_alpha = 0.0001, sg = 1, hs = 1, negatif = 0, cbow_mean = 0, hashfxn …

3
Pandalar Veri Çerçevesi - DMatrix
Scikit öğrenmek xgboost çalıştırmak çalışıyorum. Ve ben sadece veri çerçevesine veri yüklemek için Pandalar kullanın. Nasıl xgboost ile pandalar df kullanmak gerekiyordu. Ben xgboost algo çalıştırmak için gerekli DMatrix rutin karıştı.

4
İnsan veritabanı olmadan AlphaGo (ve takviye-öğrenme kullanan diğer oyun programları)
Konunun uzmanı değilim ve sorum muhtemelen çok naif. AlphaGo programında kullanılan takviye öğrenmenin güçlerini ve sınırlarını anlamak için bir denemeden kaynaklanmaktadır. AlphaGo programı, diğer şeylerin yanı sıra (ağaçların Monte-Carlo keşfi, vb.), İnsan tarafından oynanan büyük oyunlardan oluşan büyük bir veritabanından eğitilen ve daha sonra oyunun oyun sürümlerine izin verilerek güçlendirilen …


2
Sinir ağlarını optimize etmek için neden Genetik Algoritmalar kullanılmıyor?
Anladığım kadarıyla, Genetik Algoritmalar çok amaçlı optimizasyon için güçlü araçlardır. Ayrıca, Yapay Sinir Ağlarının (özellikle derin olanların) eğitimi zordur ve birçok sorunu vardır (dışbükey olmayan maliyet fonksiyonları - yerel minima, yok olan ve patlayan gradyanlar vb.). Ayrıca kavramsal olarak GA ile bir NN eğitimi almanın mümkün olduğunu düşünüyorum. Merak ediyordum, …


2
Neden her zaman ADAM optimizasyon tekniğini kullanmıyorsunuz?
Öyle görünüyor Adaptif Moment Tahmini (Adam) iyileştirici hemen her zaman (daha hızlı ve daha güvenilir bir global minimum ulaşan) sinir ağları eğitimi maliyet fonksiyonunu minimize zaman daha iyi çalışır. Neden her zaman Adem'i kullanmıyorsunuz? Neden RMSProp veya momentum optimize edicileri kullanmaktan rahatsız oluyorsunuz?

1
XGBRegressor vs.Xgboost.Güzel hız farkı mı?
Modelimi aşağıdaki kodu kullanarak eğitirsem: import xgboost as xg params = {'max_depth':3, 'min_child_weight':10, 'learning_rate':0.3, 'subsample':0.5, 'colsample_bytree':0.6, 'obj':'reg:linear', 'n_estimators':1000, 'eta':0.3} features = df[feature_columns] target = df[target_columns] dmatrix = xg.DMatrix(features.values, target.values, feature_names=features.columns.values) clf = xg.train(params, dmatrix) yaklaşık 1 dakika içinde biter. Modelimi Sci-Kit öğrenme yöntemini kullanarak eğitirsem: import xgboost as xg max_depth …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.