«statistical-learning» etiketlenmiş sorular

Makine öğrenimi algoritmaları, eğitim verilerinin bir modelini oluşturur. "Makine öğrenimi" terimi belirsiz bir şekilde tanımlanmıştır; aynı zamanda istatistiksel öğrenme, pekiştirmeli öğrenme, denetimsiz öğrenme vb. denen şeyleri içerir. HER ZAMAN DAHA ÖZEL BİR ETİKET EKLEYİN.


2
Sırt regresyonuna neden “sırt” denir, neden ihtiyaç duyulur ve
Ridge regresyon katsayısı tahmin β R minimize değerlerdirβ^R,β^R,\hat{\beta}^R RSS + λ ∑j = 1pβ2j.RSS+λΣj=1pβj2. \text{RSS} + \lambda \sum_{j=1}^p\beta_j^2. Benim sorularım: Eğer λ = 0λ=0\lambda = 0 , o zaman ifade yukarıda zamanki RSS azalttığını görüyoruz. Ya λ → ∞λ→∞\lambda \to \infty ? Ders kitabındaki katsayıların davranışlarının açıklanmasını anlamıyorum. Belirli bir …

3
Denetimli kümeleme veya sınıflandırma?
İkinci soru, web'de bir yerde, "denetimli kümeleme" hakkında konuştuğumda, kümelenmenin denetimsiz olduğunu bildiğim bir tartışmada buldum, peki "denetimli kümelenme" nin tam anlamı nedir? "Sınıflandırma" açısından fark nedir? Bunun hakkında konuşan birçok bağlantı var: http://www.cs.uh.edu/docs/cosc/technical-reports/2005/05_10.pdf http://books.nips.cc/papers/files/nips23/NIPS2010_0427.pdf http://engr.case.edu/ray_soumya/mlrg/supervised_clustering_finley_joachims_icml05.pdf http://www.public.asu.edu/~kvanlehn/Stringent/PDF/05CICL_UP_DB_PWJ_KVL.pdf http://www.machinelearning.org/proceedings/icml2007/papers/366.pdf http://www.cs.cornell.edu/~tomf/publications/supervised_kmeans-08.pdf http://jmlr.csail.mit.edu/papers/volume6/daume05a/daume05a.pdf vb ...

3
Veri harmanlama nedir?
Bu terim, yöntemle ilgili iş parçacıklarında sıklıkla görülür . Is karıştırma veri madenciliği ve istatistik öğrenme belirli bir yöntem? Google'dan alakalı bir sonuç alamıyorum. Karıştırma, birçok modelin sonuçlarını karıştırıyor ve daha iyi bir sonuç veriyor. Bu konuda daha fazla bilgi edinmeme yardımcı olan herhangi bir kaynak var mı?

1
Neden farklı topolojilerde farklı tahmin edicilerin yakınsama davranışlarını tartışmalıyız?
Farklı fonksiyonel uzayda tahminlerin yakınsamasından bahseden Cebirsel Geometri ve İstatistiksel Öğrenme Teorisi kitabının ilk bölümünde Bayes kestiriminin Schwartz dağılım topolojisine karşılık geldiğinden bahsederken, maksimum olabilirlik kestirimi sup-norm topolojisine karşılık gelir. (sayfa 7'de): Örneğin, sup-norm, -normu, Hilbert uzayının zayıf topolojisi , Schwartz dağılım topolojisi vb. yakınsamasının fonksiyon alanının topolojisine güçlü bir …

2
Değişkenlerin bir vektörü bir hiper düzlemi nasıl temsil edebilir?
İstatistiksel Öğrenmenin Unsurlarını okuyorum ve sayfa 12'de (bölüm 2.3) doğrusal bir model şöyle belirtiliyor: Yˆ= XTβˆY^=XTβ^\widehat{Y} = X^{T} \widehat{\beta} ... ki burada , öngörücülerin / bağımsız değişkenlerin / girişlerin bir sütun vektörünün devrik olmasıdır. (O kadar değil bu marka ediyorum "bütün vektörler sütun vektörleri olduğu varsayılır" önceki devletler X , …

1
Poisson dağılımlarından veriler için lojistik regresyon
Bazı ayrımcı sınıflandırma yöntemlerinden, özellikle y'nin sınıf etiketi (0 veya 1) ve x'in veriler olduğu lojistik regresyondan bahseden bazı makine öğrenimi notlarından, şöyle söylenir: Eğer x|y=0∼Poisson(λ0)x|y=0∼Poisson(λ0)x|y = 0 \sim \mathrm{Poisson}(λ_0) ve x|y=1∼Poisson(λ1)x|y=1∼Poisson(λ1)x|y = 1 \sim \mathrm{Poisson}(λ_1) , daha sonra p(y|x)p(y|x)p(y|x) lojistik olacaktır. Bu neden doğru?

1
2-sınıf modelleri çok-sınıflı problemlere genişletme
Adaboost'taki bu çalışma , 2 sınıf modellerin K sınıfı sorunlara genişletilmesi için bazı öneriler ve kodlar (sayfa 17) sunmaktadır. Bu kodu genelleştirmek istiyorum, böylece kolayca farklı 2 sınıf modelleri takabilir ve sonuçları karşılaştırabilirim. Çoğu sınıflandırma modeli bir formül arayüzüne ve bir predictyönteme sahip olduğundan, bunların bazıları nispeten kolay olmalıdır. Ne …

1
Bilgi geometrisinde açıklama
Bu soru, Amari'nin Eğimli Üstel Ailelerin-Eğriliklerin ve Bilgi Kaybının Diferansiyel Geometrisi makalesi ile ilgilidir . Metin aşağıdaki gibi gider. Let bir olması , bir koordinat sistemi ile olasılık dağılımları boyutlu manifoldu , olduğu varsayılır ...Sn= { pθ}Sn={pθ}S^n=\{p_{\theta}\}nnnθ = ( θ1, … , Θn)θ=(θ1,…,θn)\theta=(\theta_1,\dots,\theta_n)pθ( x ) > 0pθ(x)>0p_{\theta}(x)>0 Her nokta kabul …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.