Her konu için birden çok veri noktasına doğru davranma


10

Şu anda her konu için birden çok ölçümle veriyi doğru bir şekilde nasıl tedavi edeceğimi tartışıyorum. Bu durumda, her bir süjenin farklı koşulları için kısa bir süre içinde her süje için veri toplanmıştır. Tüm ölçümler tam olarak aynı değişkeni toplar, sadece çoklu.

Şimdi bir seçenek, verileri sadece koşullara göre gruplandırmak ve bir konudan birden fazla veri noktasının gelmesini umursamaktır. Bununla birlikte, her bir denekten elde edilen veri noktaları muhtemelen tamamen bağımsız değildir.

Diğer alternatif, önce her bir denek için her bir durum için tüm ölçümlerin ortalamasını almak ve sonra araçları karşılaştırmaktır. Bununla birlikte, bu muhtemelen önemi etkileyecektir, çünkü son analizde, araçların daha az hataya sahip olduğu dikkate alınmamıştır.

Bu tür verileri nasıl doğru bir şekilde analiz edebilirsiniz? Bu bir şekilde SPSS'de hallediliyor mu? Prensipte, bir ortalama hesaplarken ve son analizde bunu düşünmekten ziyade hata marjını hesaplamak mümkün olmalıdır, ancak SPSS'nin bu hesaplamayı bir şekilde arkamda yaptığını tahmin etmiyorum.


1
Bu, her bir öznenin koşulların tümü veya çoğunda çalışacağı şekilde tekrarlanan bir ölçüm tasarımı mıdır? Yoksa, her bir konunun tek bir durumda olduğu bağımsız bir grup mu yoksa tedbirler mi?
John

Bu tasarımda her özne her koşulda çalışır. Ancak, özneler eldeki görevde başarısız oldukları için reddedilmesi gereken bazı veri noktaları vardır. Bir öznenin tek bir koşul için tüm alt görevlerde başarısız olması olası değildir (koşul başına yaklaşık 40 tekrar vardır), bu nedenle büyük olasılıkla her öznenin tüm koşullar için veri noktaları olacaktır.
LiKao

Yanıtlar:


9

"Verileri koşullara göre gruplandırmak ve bir konudan birden fazla veri noktasının gelmesini umursamak" bağımsızlığın ihlali anlamına gelir. Yani bu bir uğraş değil. Bir yaklaşım, "her bir deneğin her bir koşulu için tüm ölçümlerin ortalamasını almak ve daha sonra ortalamaları karşılaştırmaktır". Bunu bu şekilde yapabilirsiniz, bağımsızlığı ihlal etmezsiniz, ancak konu düzeyinde araçların toplamında bazı bilgileri kaybedersiniz.

Yüzünde, özneler arasındaki koşullar ve özneler içinde ölçülen çoklu zaman periyotları ile karışık bir tasarıma benziyor. Ancak, bu soruyu gündeme getiriyor, neden birden fazla zaman noktasında veri topladınız? Zamanın etkisi veya değişkenin zaman içinde ilerlemesi koşullar arasında farklı mıdır? Bu soruların her ikisine de cevap evetse, verilerin yapısı göz önüne alındığında, ilgilendiğiniz şeyin karışık bir ANOVA olmasını beklerim. Karışık ANOVA, konu varyansını SSTotal'dan "arkanızdan" ayırır. Ancak bu bölümlemenin denekler arasındaki koşulları test etmenize yardımcı olup olmadığı diğer birkaç faktöre bağlıdır.

Her neyse, SPSS / PASW 18'de Analiz -> Genel Doğrusal Model -> Tekrarlanan Önlemler. Her konu için bir satır ve her zaman noktası için bir sütunun yanı sıra durum tanımlayıcıları da bir tane olacak. Durum tanımlayıcısı "arasında" bölümüne girecek ve tekrarlanan ölçüm faktörünü tanımladığınızda tekrarlanan ölçümlere dikkat edilecektir.


Tamam, ben de öyle düşünmüştüm. Koşul başına birden çok veri noktası iki nedenden dolayı toplanır. Birincisi, verilerin bu şekilde daha güvenilir olması gerektiğidir. Diğer neden, bazı veri noktalarının atılması gerektiğidir (denekler her zaman talimatlara uygun şekilde uymamıştır). Koşullar tamamen öznelerin içindedir, bu nedenle bu durumda hiç karışık bir tasarımımız yoktur. Ne yazık ki tekrarlanan bir önlem söz konusu değil, çünkü her bir konuda koşul başına yaklaşık 40 tekrar var. Yine de çok sayıda tekrar demek, ortalama kullanırken çok fazla bilgi kaybettiğimiz anlamına gelir.
LiKao

Sonra John'un cevabını öneriyorum. Karışık bir model muhtemelen tercih edilir. Bu, her bir öznenin hem ortalamasını hem de değişkenliğini modelleyebilir ve yuvalamaya saygı gösterebilir. Böyle bir analizle ilgili bir sorun, 'doğru' serbestlik derecelerinin belirsiz olması ve dolayısıyla istatistiksel anlamlılığın eşiklerinin de belirsiz olmasıdır. John'un sağladığı kodun aksine, durum etkiniz için rastgele bir eğim takmanızı öneririm (farklı konular farklı efektler gösterir). Bunu yapmamanızı öneren bazı simülasyonlar I Tipi hata oranınızı yükseltebilir.
russellpierce

4

Tekrarlanan ölçümler tasarımı, drknexus'tan bahsedildiği gibi, bununla başa çıkmanın geleneksel yoludur. Bu tür bir analiz yaparken bir puan / koşul / konu toplamalısınız. Küresellik varsayımlarının ve diğer sorunların ihlaline karşı hassastır. Bununla birlikte, daha modern teknik çok seviyeli modelleme veya doğrusal karışık efektler kullanmaktır. Bu tekniği kullanarak do not verileri toplamaz. Bu mevcut çeşitli tedaviler vardır ama şu anda en iyi temel öğretici bilmiyorum. Baayen (2008) Bölüm 7 iyidir. Pinheiro & Bates (2000) çok iyi ama şeylerin seslerinden introdaki tavsiyelerini takip edin ve yeni başlayanlar için önerilen bitleri okuyun.

Tüm verilerinizin uzun biçimde (bir satır / veri noktası) olduğunu ve konuyu, yanıtı (y) ve koşul değişkenini (x) belirten sütunlarınız olduğunu varsayarak ANOVA stili bir sonuç elde etmek istiyorsanız, deneyebilirsiniz R'de böyle bir şeye bakarken (lme4 paketinin kurulu olduğundan emin olun).

library(lme4)
dat <- read.table('myGreatData.txt', header = TRUE)
m <- lmer( y ~ x + (1|subject), data = dat)
summary(m)
anova(m)

Elbette belki de etkileşimde bulunan çok sayıda değişken değişken sütununuz olabilir. Sonra lmer komutunu ...

m <- lmer( y ~ x1 * x2 + (1|subject), data = dat)

(BTW, gücü arttırmak için tekrarlanan önlemlerde bir araya gelmemenin resmi bir yanlışlık olduğuna inanıyorum. Adı hatırlayan var mı?)


Bence toplanamamanın ve df'yi denek sayısından ziyade yanıt sayısından kullanmanın yanlışlığı bağımsızlık ihlalidir. Alternatif olarak, (bence) sabit bir konu kümesi için bireysel madde yanıtları düzeyinde bir çıkarımda bulunulması düşünülebilir.
russellpierce
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.