«normalization» etiketlenmiş sorular

Genellikle "normalleştirme", değerleri belirli bir aralıkta tutmak için verilerin yeniden ifade edilmesi anlamına gelir.

3
R-kolonunda matris normalleşmesi [kapalı]
Kapalı. Bu soru konu dışı . Şu anda cevapları kabul etmiyor. Bu soruyu geliştirmek ister misiniz? Sorunuzu güncelleyin o yüzden -konu üzerinde Çapraz doğrulanmış için. 6 yıl önce kapandı . Bir matrisin sütun şeklinde normalleşmesini R'de yapmak istiyorum. Bir matris verildiğinde m, her bir sütunu sütunların toplamına bölerek her sütunu …

1
Çok küçük olasılık değerlerini olasılık olasılığına dönüştürme (normalleştirme)
Bir model verildiğinde, veri setleri listesi için olasılıkları hesapladığım ve sonra olasılıkların her birini normalleştirme (olasılık) gerektiren bir algoritma yazıyorum. Böylece [0.00043, 0.00004, 0.00321] gibi bir şey [0.2, 0.03, 0.77] gibi olabilir. Benim sorunum, çalışmakta olduğum log olasılıklarının oldukça küçük olması (örneğin, log alanında, değerler -269647.432, -231444.981 vb.). C ++ …


3
“Normalleştirme” ne demektir ve bir numunenin veya dağılımın normalleştirildiğini nasıl doğrulayabilirim?
Tekdüze dağılımın ( U n i f o r m ( a , b ) olup olmadığını doğrulamak istediğini soran bir sorum varUniform(a,b)Uniform(a,b){\rm Uniform}(a,b) ) normal . Birincisi, herhangi bir dağılımın normalleştirilmesi ne demektir? Ve ikincisi, bir dağılımın normal olup olmadığını nasıl kontrol edeceğiz? X hesaplayarak anlıyorum - meanX−meansdX−meansd \frac{X-\text{mean}}{\text{sd}} …


4
SVD / PCA için “normalleştirme” değişkenleri
NNN ölçülebilir değişkenimiz olduğunu varsayalım , bir dizi ölçüm yapıyoruz ve sonra noktaları için en yüksek varyansın eksenlerini bulmak için sonuçlarda tekil değer ayrışması yapmak istiyoruz. içerisinde boyutlu alan. ( Not: araçlarının zaten çıkarıldığını varsayalım , bu yüzden tüm için )(a1,a2,…,aN)(a1,a2,…,aN)(a_1, a_2, \ldots, a_N)M>NM>NM > NMMMNNNaiaia_i⟨ai⟩=0⟨ai⟩=0\langle a_i \rangle = 0iii …

4
Çapraz doğrulama öncesi normalleştirme
Tekrarlanan bir k-kat çapraz validasyonu gerçekleştirmeden önce verilerin normalleştirilmesi (sıfır ortalama ve birlik standart sapmasına sahip olmak için) aşırı sığdırma gibi herhangi bir olumsuz kontrole sahip mi? Not: Bu #cases> toplam #features bir durum içindir Bazı verilerimi bir günlük dönüşümü kullanarak dönüştürüyorum, sonra yukarıdaki gibi tüm verileri normalleştiriyorum. Daha sonra …

1
Kantil normalizasyonu nasıl çalışır?
Mikrodizilerin kullanıldığı gen ekspresyon çalışmalarında, yoğunluk verilerinin normalleştirilmesi gerekir, böylece şiddetler bireyler arasında, genler arasında karşılaştırılabilir. Kavramsal ve algoritmik olarak, "kantil normalleşme" nasıl çalışır ve bunu istatistikçi olmayan bir kişiye nasıl açıklarsınız?

3
Çevrimiçi öğrenmede düzenlileştirme ve özellik ölçeklendirme?
Diyelim ki lojistik regresyon sınıflandırıcım var. Normal toplu öğrenmede, aşırı sığmayı önlemek ve ağırlıkları küçük tutmak için düzenli bir terim olurdu. Ayrıca özelliklerimi normalleştirip ölçeklendirirdim. Çevrimiçi öğrenme ortamında sürekli bir veri akışı alıyorum. Her örnekle degrade iniş güncellemesi yapıyorum ve sonra atıyorum. Çevrimiçi öğrenmede özellik ölçeklendirme ve düzenleme terimini kullanmam …

4
Özellik ölçeklendirme ve ortalama normalleştirme
Andrew Ng'in makine öğrenimi kursunu alıyorum ve birkaç denemeden sonra bu sorunun cevabını doğru bir şekilde alamadım. Seviyeden geçtiğim halde lütfen bunu çözmeye yardımcı ol. öğrencinin bir ders aldığını ve dersin bir ara sınav ve bir final sınavı olduğunu varsayalım . İki sınavda puanlarının veri kümesini topladınız. Bu, aşağıdaki gibidir:m …

2
PCA için veri hazırlamak amacıyla CLR'yi (ortalanmış günlük oranı dönüşümü) kullanabilir miyim?
Bir senaryo kullanıyorum. Çekirdek kayıtlar içindir. Belirli bir derinlikte (ilk sütunda) sütunlarda farklı elementel kompozisyonlar gösteren bir veri çerçevesi var. Onunla bir PCA yapmak istiyorum ve seçmem gereken standardizasyon yöntemi hakkında kafam karıştı. Sizden kimse kullandı clr()için verilerinizi hazırlamak için prcomp()? Yoksa çözümlerimi karıştırıyor mu? Öznitelik ölçeğini kullanmaya ek olarak …

4
Sıra normalleşmesinin amacı nedir
Sütun normalleşmesinin ardındaki mantığı anlıyorum, çünkü özelliklerin aynı ölçekte ölçülmemiş olsalar bile eşit olarak ağırlıklandırılmasına neden oluyor - ancak, en yakın komşu literatüründe, hem sütunlar hem de satırlar normalleştiriliyor. Satır normalleştirmesi nedir / neden satırları normalleştirmelisiniz? Özellikle, satır normalleştirmesinin sonucu satır vektörleri arasındaki benzerliği / mesafeyi nasıl etkiler?

3
Bilinmeyen dağılım verileri nasıl normalleştirilir
Belirli bir türde tekrarlanan ölçüm verilerinin en uygun karakteristik dağılımını bulmaya çalışıyorum. Temel olarak, jeoloji dalımda, bir olayın ne kadar zaman önce gerçekleştiğini (kaya eşik sıcaklığının altında soğutulmuş) bulmak için sıklıkla numunelerden (kaya parçaları) minerallerin radyometrik tarihlendirmesini kullanırız. Tipik olarak, her bir numuneden birkaç (3-10) ölçüm yapılacaktır. Daha sonra ortalama …

5
Çok sayıda veri noktasındaki değerlerin gösterimi nasıl yapılır?
Çok büyük bir veri setim var ve yaklaşık% 5 rasgele değerler eksik. Bu değişkenler birbiriyle ilişkilidir. Aşağıdaki örnek R veri kümesi sadece yapay korelasyonlu verilere sahip bir oyuncak örneğidir. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

1
Zaman serisi verilerinin gerçek zamanlı normalleştirilmesi için algoritma?
Bir dizi sensör akışından en son veri noktasının bir vektörünü alan ve öklid mesafesini önceki vektörlerle karşılaştıran bir algoritma üzerinde çalışıyorum. Sorun, farklı veri akışlarının tamamen farklı sensörlerden gelmesidir, bu nedenle basit bir öklid mesafesinin alınması bazı değerleri önemli ölçüde aşar. Açıkça, verileri normalleştirmek için bir yola ihtiyacım var. Ancak, …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.