«markov-process» etiketlenmiş sorular

Şu an göz önüne alındığında geleceğin koşullu olarak geçmişten bağımsız olduğu özelliğine sahip stokastik bir süreç.

11
Markov zincirini ve gizli Markov modellerini öğrenmek için kaynaklar
Markov Zinciri ve HMM'ler hakkında bilgi edinmek için kaynaklar (öğreticiler, ders kitapları, web yayını vb.) Arıyorum. Geçmişim bir biyolog olarak ve şu anda biyoinformatik ile ilgili bir projeyle ilgileniyorum. Ayrıca, Markov modelleri ve HMM'lerin yeterli bir anlayışına sahip olmam için gereken matematiksel arka plan nedir? Google’ı kullanmaya başlamıştım ancak şu …


3
Gizli Markov modelleri ve sinir ağları arasındaki farklar nelerdir?
Sadece ayaklarımın istatistiklerini ıslattığım için üzgünüm, eğer bu soru mantıklı gelmiyorsa. Gizli aramaları (haksız kumarhaneler, zar atma vb.) Ve sinir ağlarını tahmin etmek için Markov modellerini ve kullanıcıların arama motorundaki tıklamaları incelemek için kullandım. Her ikisinde de gözlemleri kullanarak çözmeye çalıştığımız gizli durumlar vardı. Anladığım kadarıyla ikisi de gizli durumları …

2
R cinsinden Geçiş Matrisini (Markov) hesaplayın
Markov Zincirinin geçiş matrisini bir dizi gözlemden hesaplamak için R'de (yerleşik bir işlev) bir yol var mı? Örneğin, aşağıdaki gibi bir veri seti almak ve birinci mertebe geçiş matrisini hesaplamak? dat<-data.frame(replicate(20,sample(c("A", "B", "C","D"), size = 100, replace=TRUE)))
29 r  markov-process 


1
Satır ve sütun uzunluğu üzerindeki kısıtlamaları olan rastgele matrisler
satırları ve sütunlarıyla rastgele kare olmayan matrisler oluşturmalı, rasgele ortalama = 0 ile dağıtılmış elemanlar oluşturmalı ve her satırın uzunluğu (L2 normu) ve her sütunun uzunluğu kısıtlanmalı. . Eşdeğer olarak, her satır için kare değerlerin toplamı 1 ve her sütun için .C 1 √R,RRCCC111 RR,C--√RC\sqrt{\frac{R}{C}}R,CRC\frac{R}{C} Şimdiye kadar bunu başarmanın bir …

2
Markov Süreci sadece önceki durumuna bağlı olarak
Sadece birinin anlamamı onaylamasını istiyorum veya bir şeyleri özlüyorum. Markov sürecinin tanımı, bir sonraki adımın sadece mevcut duruma bağlı olduğunu ve geçmişteki durumların olmadığını söylüyor. Öyleyse, a, b, c, d durumlarına sahip olduğumuzu ve a-> b-> c-> d'den gideceğimizi varsayalım. Bu, d'ye geçişin yalnızca c olduğumuz gerçeğine bağlı olabileceği anlamına …

4
Bir MCMC tekniğinin örnekleme sürecini “iyileştirmek” için Makine Öğrenimi ya da Derin Öğrenme algoritmaları kullanılabilir mi?
MCMC (Markov zinciri Monte Carlo) yöntemleri üzerine sahip olduğum az bilgiye dayanarak, örneklemenin yukarıda belirtilen tekniğin çok önemli bir parçası olduğunu anlıyorum. En sık kullanılan örnekleme yöntemleri Hamiltonian ve Metropolis'tir. Daha verimli bir MCMC örnekleyici oluşturmak için makine öğrenimini veya hatta derin öğrenmeyi kullanmanın bir yolu var mı?

6
Saklı Markov modelleri problemlerine örnekler?
Oldukça gizli Markov modellerini okudum ve oldukça basit bir versiyonunu kendim kodladım. Fakat öğrendiğim iki ana yol var. Birincisi kodu (yapılan) okumak ve uygulamak, ikincisi ise farklı durumlarda nasıl uygulandığını anlamaktır (bu yüzden üzerinde çalıştığım problemlerle nasıl ilişkili olduğunu daha iyi anlayabilirim). Şimdiye kadar yaptığım tüm örnekler, bir tür DNA …

4
PCA alanına yeni bir vektör nasıl yansıtılır?
Temel bileşen analizi (PCA) yaptıktan sonra, PCA alanına yeni bir vektör yansıtmak istiyorum (yani PCA koordinat sistemindeki koordinatlarını bulmak). PCA'yı R dilinde kullanarak hesapladım prcomp. Şimdi vektörümü PCA dönme matrisi ile çarpabilmeliyim. Bu matristeki temel bileşenler satır veya sütunlar halinde mi düzenlenmelidir?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

3
“Sınırlama” ve “durağan” dağılımlar arasındaki fark nedir?
Markov zincirleri hakkında bir soru yapıyorum ve son iki kısım bunu söylüyor: Bu Markov zincirinin sınırlayıcı bir dağılımı var mı? Cevabınız "evet" ise, sınırlayıcı dağılımı bulun. Cevabınız "hayır" ise, nedenini açıklayın. Bu Markov zinciri sabit bir dağılıma sahip mi? Cevabınız "evet" ise, sabit dağılımı bulun. Cevabınız "hayır" ise, nedenini açıklayın. …

1
Markov Karar Süreçlerinin gerçek hayattan örnekleri
Bir sürü öğretici video izliyorum ve aynı görünüyorlar. Bu örnek: https://www.youtube.com/watch?v=ip4iSMRW5X4 İyi durumları, eylemleri ve olasılıkları açıklarlar. Kişi bunu açıklıyor ama gerçek hayatta ne için kullanılacağını anlayamıyorum. Henüz hiçbir listeye rastlamadım. En sık gördüğüm satranç. Bir şeyi tahmin etmek için kullanılabilir mi? Varsa ne tür şeyler? Sonsuz miktarda veri içeren …

2
Birisi bana NUTS'u İngilizce olarak açıklayabilir mi?
Algoritmayı anlama şeklim şudur: Hiçbir U Dönüşü Örnekleyici (NUTS), Hamiltonian Monte Carlo Yöntemidir. Bu, bir Markov Zinciri yöntemi olmadığı anlamına gelir ve bu nedenle, bu algoritma, genellikle verimsiz ve yakınsama yavaş olarak kabul edilen rastgele yürüyüş parçasından kaçınır. Rastgele yürüyüş yapmak yerine, NUTS x uzunluğunda atlar yapar. Her atlama algoritma …

6
Bir Markov zincirinin hafızasız özelliğini kontrol edin
Bir dizi gözlenen dizinin bir Markov zinciri olduğundan şüpheleniyorum ... X=⎛⎝⎜⎜⎜⎜AB⋮BCA⋮CDA⋮ADC⋮DBA⋮AAD⋮BCA⋮E⎞⎠⎟⎟⎟⎟X=(ACDDBACBAACADA⋮⋮⋮⋮⋮⋮⋮BCADABE)X=\left(\begin{array}{c c c c c c c} A& C& D&D & B & A &C\\ B& A& A&C & A&D &A\\ \vdots&\vdots&\vdots&\vdots&\vdots&\vdots&\vdots\\ B& C& A&D & A & B & E\\ \end{array}\right) Ancak P ( X i = x i …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.