«algorithms» etiketlenmiş sorular

Bir problem sınıfına çözüm bulmada yer alan hesaplama adımlarının açık bir listesi.

1
Algoritma: Değerler belirsiz olduğunda ikili arama
Her adımda test yanlış sonuç verebilir zaman bir ikili arama yapmak için bir algoritma gerekir. Arka plan: Öğrencileri 12 farklı zorluk seviyesine en uygun şekilde yerleştirmem gerekiyor. Şimdiki yaklaşım kaba kuvvettir ve zorlukları artırma, üç yanlıştan sonra durma ve soruyu floor((score - 1) / 5) + 1en az 1 olmak …
11 algorithms 


2
Gerçek pratikte Makine Öğrenimi hakkında her şey nedir?
Bir süredir Makine öğreniminde (aynı zamanda bazı istatistikler) yeni bir bilgim var (denetimli / denetimsiz öğrenme algoritmaları, ilgili optimizasyon yöntemleri, düzenlemeler, bazı felsefeler (önyargı-varyans ödünleşimi gibi?)). Gerçek bir uygulama olmadan, o makine öğrenimi öğelerini derinlemesine anlamayacağımı biliyorum. Bu yüzden gerçek verilerle bazı sınıflandırma problemi ile başlıyorum, el yazısı rakam sınıflandırması …

1
Beklenti Maksimizasyon Açıklama
EM algoritması ile ilgili çok faydalı bir eğitim buldum . Örnek ve öğretici resim sadece parlak. Olasılıkların hesaplanması ile ilgili soru Beklenti maksimizasyonu nasıl çalışır? Öğreticide açıklanan teorinin örneğe nasıl bağlanacağıyla ilgili başka bir sorum var. E aşaması sırasında, EM bir işlev seçer bu alt sınır , her yerde, ve …

3
Nelder Mead için durma kriteri
Bir işlevi optimize etmek için Nelder-Mead algoritmasını uygulamaya çalışıyorum. Nelder-Mead hakkındaki wikipedia sayfası onun durdurma kriter haricinde tüm algoritması hakkında şaşırtıcı açıktır. Orada ne yazık ki diyor: Yakınsama olup olmadığını kontrol edin [açıklama gerekiyor] . Kendimi birkaç kriter denedim ve test ettim: Durdurma ise burada küçük ve burada olan -inci …

2
Karar Ağaçlarıyla Neden Adaboost?
Sınıflandırma görevleri ve özellikle Adaboost için algoritmaları artırma üzerine biraz okudum. Adaboost'un amacının birkaç "zayıf öğrenici" almak olduğunu ve eğitim verilerinin bir dizi yinelemesi yoluyla, sınıflandırıcıların, model (ler) in tekrar tekrar hata yaptığı sınıfları tahmin etmeyi öğrenmeye ittiğini anlıyorum. Ancak, yaptığım okumaların çoğunun neden zayıf sınıflandırıcı olarak karar ağaçlarını kullandığını …

2
Sinir ağının VC boyutunun hesaplanması
Sadece dizeleri alabilen giriş nöronları ile sigmoid nöronların bazı sabit tekrarlayan olmayan (DAG) topolojisi (sabit düğüm ve kenar kümesi, ancak öğrenme algoritması kenarlardaki ağırlığı değiştirebilir) varsa girdi olarak ve bir çıkışa yol açar (0'dan uzakta belirli bir sabit eşikse 1'e veya -1'e yuvarladığımız gerçek bir değer üretir). Bu ağın VC …

4
K-araçlarının bir uygulamasını nasıl test edersiniz?
Feragatname: Bu soruyu Stackoverflow'a gönderdim, ancak belki de bu platform için daha uygun olduğunu düşündüm. Çok boyutlu veri kümeleri için kendi k-araç uygulamanızı nasıl test edersiniz? Veriler üzerinde zaten var olan bir uygulamayı (yani Matlab) çalıştırmayı ve sonuçları algoritmamla karşılaştırmayı düşünüyordum. Ancak bu, her iki algoritmanın da kabaca aynı olandan …

1
Büyük ölçekli PCA bile mümkün müdür?
Temel bileşen analizi '(PCA) klasik yolu bunu sütunların sıfır ortalaması olan bir giriş veri matrisinde yapmaktır (o zaman PCA "varyansı en üst düzeye çıkarabilir"). Bu sütunları ortalayarak kolayca gerçekleştirilebilir. Bununla birlikte, giriş matrisi seyrek olduğunda, ortalanmış matris artık daha seyrek olacaktır ve - eğer matris çok büyükse - artık belleğe …

2
Anomali tespiti: hangi algoritmayı kullanmalı?
Bağlam: Yazım hatası olabilecek mantıksız verileri filtrelemek için klinik verileri analiz eden bir sistem geliştiriyorum. Şimdiye kadar ne yaptım: Akla yatkınlığı ölçmek için şimdiye kadar denediğim veriyi normalleştirmek ve sonra D setindeki bilinen veri noktalarına olan uzaklığına bağlı olarak p noktası için bir güvenilirlik değeri hesaplamaktı (= eğitim seti): plausibility(p)=∑q∈DGauss(distance(p,q))plausibility(p)=∑q∈DGauss(distance(p,q))\text{plausibility}(p)=\sum_{q\in …



3
Sıralama için makine öğrenme algoritması
özelliğine göre tanımlayabileceğim bir dizi elementim var . Böylece:XXXnnn xben: {cben 1,cben 2, … ,cben n} ∣xben∈ Xxben:{cben1,cben2,...,cbenn}|xben∈Xx_i: \{c_{i1}, c_{i2}, \ldots, c_{in}\} \mid x_i \in X buradaki cben jcbenjc_{ij} , j özelliklerine göre eleman i için (sayısal) değerlendirmedir . Böylece öğelerim n boyut uzayında noktalar olarak görülebilir .benbenijjjnnn Okumalarıma göre, …

1
örnekleme maliyeti
Aşağıdaki simülasyon sorun geldi: verilen bir dizi bilinen gerçek sayılar, bir dağıtım ile tanımlanır burada , pozitif kısmını belirtir . Bu dağılımı hedefleyen bir Metropolis-Hastings örnekleyicisini düşünürken, algoritmanın sırasını den ya düşürmek için çok sayıda sıfır olasılıktan yararlanarak verimli bir doğrudan örnekleyici olup olmadığını merak ediyorum. .{ω1,…,ωd}{ω1,…,ωd}\{\omega_1,\ldots,\omega_d\}{−1,1}d{−1,1}d\{-1,1\}^dP(X=(x1,…,xd))∝(x1ω1+…+xdωd)+P(X=(x1,…,xd))∝(x1ω1+…+xdωd)+\mathbb{P}(X=(x_1,\ldots,x_d))\propto (x_1\omega_1+\ldots+x_d\omega_d)_+(z)+(z)+(z)_+zzzO(2d)O(2d)O(2^d)O(d)O(d)O(d)

2
Kesilmiş bir multinom dağılımını nasıl örnekleyebilirim?
Kesilmiş bir multinom dağılım örneklemek için bir algoritma gerekir. Yani, x⃗ ∼1Zpx11…pxkkx1!…xk!x→∼1Zp1x1…pkxkx1!…xk!\vec x \sim \frac{1}{Z} \frac{p_1^{x_1} \dots p_k^{x_k}}{x_1!\dots x_k!} nerede ZZZ normalleşme sabiti, x⃗ x→\vec x vardır kkk pozitif bileşenler ve ∑xi=n∑xi=n\sum x_i = n. Ben sadecex⃗ x→\vec{x} aralıkta a⃗ ≤x⃗ ≤b⃗ a→≤x→≤b→\vec a \le \vec x \le \vec b. …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.