Bu analiz teknikleri hakkında küresel bir vizyonunuz var mı?


24

Şu anda, çıktısının girdisiyle nasıl ilişkili olduğunu anlamak için, hepimizin yaptığı gibi, temelde ihtiyacım olan bir . Buradaki özellik, verilerin bana her seferinde bir parça verilmiş olması, böylece her yeni aldığımda analizimi güncellemek istiyorum . Gerekli olan tüm verilere sahip olduğunuz ve tüm verilerinizi aynı anda kullanarak hesaplamalarınızı yaptığınız "toplu işlem" yerine "çevrimiçi" işleme olarak adlandırıldığına inanıyorum.yx(y,x)(y,x)

Böylece fikirlere baktım ve sonunda dünyanın üçe bölündüğü sonucuna vardım:

  • İlk bölüm, istatistik ve ekonometri ülkesidir. Oradaki insanlar OLS, GLS, enstrüman değişkenleri, ARIMA, testler, farklılıkların farklılığı, PCA ve ne yaparlar. Bu toprağa çoğunlukla doğrusallık hakimdir ve sadece "toplu iş" işlemektedir.

  • İkinci bölüm, makine öğrenmesi adası ve yapay zeka, denetimli ve denetimsiz öğrenme, sinir ağları ve SVM'ler gibi diğer kelimelerdir. Hem "parti" hem de "çevrimiçi" işlem burada yapılır.

  • Üçüncü kısım, daha önce keşfettiğim, çoğunlukla elektrik mühendisleri tarafından doldurulan bir kıta. Orada insanlar sık ​​sık "filtre" kelimesini araçlarına ekliyorlar ve Widrow-Hoff algoritması, Recursive en küçük kareler , Wiener filtresi , Kalman filtresi ve muhtemelen henüz keşfetmediğim başka şeyler gibi harika şeyler icat ediyorlardı . Anlaşılan gereksinimlerine daha iyi uydukları için çoğunlukla "çevrimiçi" işlemler yapıyorlar.

Öyleyse benim sorum şu, bu konuda küresel bir vizyonunuz var mı? Dünyanın bu üç bölümünün birbiriyle fazla konuşmadığı izlenimine kapılıyorum. Yanlış mıyım? Nasıl İlişkili Olduğunu Anlamak İçin Büyük Birleşmiş Bir Teori Var mı ? Bu teorinin temellerinin atıldığı herhangi bir kaynak biliyor musunuz?YX

Bu sorunun gerçekten mantıklı olup olmadığından emin değilim, ancak tüm bu teoriler arasında biraz kayboluyorum. "Bunu kullanmalı mıyım yoksa?" Sorusunun cevabını hayal ediyorum. “ne yapmak istediğinize (ve verilerinize bağlı olarak)” olacaktır. Bununla birlikte, bu üç dünyanın aynı soruya ( ?) Cevap vermeye çalıştığını hissediyorum ve bu yüzden tüm bunlara ilişkin daha iyi bir görüşe sahip olmak ve her tekniğin neyi özel kıldığını derinlemesine anlamak mümkün olmalı.y=f(x)


İlk 2 alanın bu günlerde birbirleriyle daha fazla konuştuğunu düşünüyorum. Yine de harika bir soru!
Zach,

Dinamit konusu ve iyi yazılmış bir soru!
rolando2

1
Lütfen bu CW'yi yap.
kardinal

1
Kendime bir istatistikçi derdim, ama birçok çevrimiçi şey yapıyorum, çeşitli türlerde doğrusal olmayan modellemeler yapıyorum ve en azından küçük bir AI ile uğraşıyorum. Tipik araçlardaki farklılıkların insanların karşı karşıya kaldığı sorun türleri ile daha fazla ilgisi olduğunu düşünüyorum. Sorunlarının yakınsadığı yerlerde, er ya da geç aynı araçları bulma ya da yeniden icat etme eğilimindedirler (genellikle farklı isimler altında ve biraz farklı zil ve ıslıklarla).
Glen_b -Reinstate Monica

Yanıtlar:


4

Çevrimiçi ve seri çevrimiçi olarak deneyimlerim bana bazen ikinizi de birleştirdiğinizi söylüyor. Demek istediğim, ağır kaldırma yani model formülasyonu ile ilgili yoğun işleri hesaplamanızı ve daha sonra bu modelleri kullanmak için hızlı / uyarlamalı prosedürleri kullanmanıza izin vermenizdir. "Yeni verilerin" üç şekilde kullanılabileceğini bulduk; 1. basitçe tahmin etmek; 2. Bilinen modelin parametrelerini revize etmek ve 3. Parametreleri revize etmek ve muhtemelen modeli düzeltmek. Bu üç yaklaşım "canlı analiz" için kullanılmıştır ve elbette bu üç adımdan birini tamamlama süresi hem kullanılan yazılıma hem de mevcut donanıma bağlıdır.

Şimdi nasıl y vs x modeline ilişkin diğer noktaya. Ben, y tarihinin ve x'in mevcut ve pas değerlerinin etkisini ortaya çıkarmak için genişletilmiş bir regresyon sürümünü (Aktarım Fonksiyonları veya ARMAX Modelleri) kullanmayı tercih ediyorum. Birinin Gauss gereksinimlerini doğrulaması ve hem atlanan deterministik yapı (Outlier Detection ile) hem de ARMA bileşeniyle atlanan stokastik yapı için gerekli proxy'leri dahil etmesi çok önemlidir. Ek olarak, bir kişinin çok fazla veri kullanmadığından (parametre sürekliliği için testler) ve deterministik / stokastik hata varyansı ve / veya beklenen y değerinin ve varyansının varyansı arasındaki bağlantıdan kaynaklanan sabit olmayan herhangi bir hata varyansının sağlanması gerekir. kalıntılar.

Şimdi tarihsel olarak (ya da istersen histerik olarak) farklı düşünce siloları yaklaşımları formüle etmeye çalıştı. Atalarımız tarafından kullanılan geçici modellerin çoğunun bir Transfer Fonksiyonunun altkümesi olduğu gösterilmektedir, ancak bir Transfer Fonksiyonunun varsayımlarına meydan okuyabilecek hayal edilebilecek veri setleri bulunmaktadır. Bu veri setleri mevcut olsa da, analiz bu sonucu vermezse, doğrudan sizi etkileyeceği varsayılmamalıdır.

Wei (Addison-Wessley) veya Box-Jenkins gibi metinler, konuşanlarımı desteklemek ve sizi daha fazla "cevap" için yönlendirmek için makul bir yol haritası sağlamalıdır.

Bu arada, bu Büyük Bir Soru!

Ek olarak, kullanmak istediğiniz herhangi bir veriniz varsa, burada belirtilen çeşitli seçenekleri gösterebilirim. Lütfen "y - x" ile ilgili çalışmalarında herkesin görmesi ve kullanması için verilerinizi web'e gönderin.


Cevabınız için teşekkürler! Buna vaktim olduğunda derhal daha derinlemesine bakacağım ve muhtemelen size geri döneceğim. ARMAX modelini bilmediğimi söylemeliyim. Sanırım doğrudan tamamen endojen bir VAR'a katılıyordum. Verilere gelince, aslında hala projemiz için başka şeyler inşa ediyoruz, bu yüzden şu anda çok fazla alakalı veri yok. Ama çok teşekkür ederim, yine benden haber almalısınız!
Arthur

"Gauss gereksinimlerini doğrula": Gauss / parametrik olmayan / unut modelleme (Breiman hızı) derin bir bölünme değil mi?
denis

2

Breiman bu konuyu " İstatistiksel Modelleme: İki Kültür " bölümünde ele almaktadır . Mükemmel bir soruya ilk cevap.


Teşekkür! Bağlantınız benim için işe yaramadı, bu işe yarıyor ve bu da doğrudan pdf'e gidiyor. Metin içinde sadece özet ve bazı kısımları rastgele okudum ve çok ilginç görünüyor. Adamlar, tamamen "anti-klasik istatistikler" gibi görünüyor. Tekrar teşekkürler.
Arthur,

Harika - Bağlantıyı güncelledim. Eğlenceli bir okuma - tadını çıkarın!
Ram Ahluwalia

Breiman'ın "İki kültürü" burada tartışıldı : bazı ilginç noktalar, ancak birinin fikrini değiştirmek ve hatta açıklamak zor.
denis

1

Bu sorunun cevabını "bedava öğle yemeği yok" şeklinde bir şey olduğundan şüpheliyim. Belki de istatistikçilerin, bilgisayar bilimcilerinin ve elektrik mühendislerinin farklı algoritmalar geliştirmelerinin nedeni, farklı türden problemleri çözmeye ilgi duymalarıdır.


0

Belirtmiş olduğunuz bu üç grubun gerçekten sadece iki grup olduğunu söyleyebilirim:

  • istatistik
  • Makine öğrenmesi, yapay zeka ve örüntü tanıma.

Sinyal filtrelemeyle ilgili tüm dallar iki yöne dayanmaktadır: örüntü tanıma ve zor matematiğe ait Ayrık Fourier Dönüşümü özellikli ekstraksiyon (dalgacık, Gabor ve Fourier). Aslında, dijital filtreleme, basit ve düşük hesaplamalı maliyet algoritmaları aracılığıyla bu örüntü tanıma problemini çözmeye çalıştığı için mühendislik tarafına daha yakındır. Fakat esasen, makine öğrenmesidir.

Ayrıca, Filtreleme, Wavelets, Gabor ve Fourier yapay görüntülemenin özü olan görüntü işlemede yaygın olarak kullanılmaktadır.

İstatistik ve makine öğrenmesi arasındaki fark var.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.