Çok maddeli ölçeğe uygun CFA kötü olduğunda ne yapmalı?


9

Lavta yaparken bu CFA im nasıl devam emin değilim. 172 katılımcıdan oluşan bir örnek var (bunun bir CFA için fazla bir şey olmadığını biliyorum) ve yedi faktör üzerine yüklenecek 7 noktalı Likert ölçekleri olan 28 öğe var. "Mlm" tahmincileri olan bir CFA yaptım, ancak model uyum gerçekten kötüydü (χ2 (df = 329) = 739.36; karşılaştırmalı uyum indeksi (CFI) = .69; standart kök ortalama kare kalıntısı (SRMR) =. 10; ortalama kök yaklaşık kare hatası hatası (RMSEA) =. 09; RMSEA% 90 güven aralığı (CI) = [.08, .10]).

Aşağıdakileri denedim:

  • bir genel yöntem faktörü olan bifaktör modeli -> yakınsama yapmamıştır.

  • sıra verileri için tahmin ediciler („WLSMV“) -> Model uyumu: (χ2 (df = 329) = 462; karşılaştırmalı uyum indeksi (CFI) = .81; standartlaştırılmış kök ortalama kare kalıntısı (SRMR) =. 09; kök ortalama kare hatası yaklaşım (RMSEA) =. 05; RMSEA% 90 güven aralığı (CI) = [.04, .06])

  • modeli bir faktöre düşük yüklenen ve belirli öğeler arasında kovaryans ekleyen öğelere göre azaltmak -> Model uyumu: χ2 (df = 210) = 295; karşılaştırmalı uyum indeksi (CFI) = .86; standartlaştırılmış kök ortalama kare kalıntısı (SRMR) =. 08; ortalama kök yaklaşık kare hatası (RMSEA) =. 07; RMSEA% 90 güven aralığı (CI) = [.06, .08].

Şimdi sorularım:

  • Böyle bir modelle ne yapmalıyım?

  • İstatistiksel olarak ne yapmak gerekir?

  • Uygun olduğunu veya uygun olmadığını rapor ettiniz mi? Ve bu modellerden hangisi?

Bu konuda sizinle bir görüşme yapmaktan memnuniyet duyarım.

İşte orijinal modelin CFA'sının lav çıktısı:

    lavaan (0.5-17.703) converged normally after  55 iterations

                                              Used       Total
  Number of observations                           149         172

  Estimator                                         ML      Robust
  Minimum Function Test Statistic              985.603     677.713
  Degrees of freedom                               329         329
  P-value (Chi-square)                           0.000       0.000
  Scaling correction factor                                  1.454
    for the Satorra-Bentler correction

Model test baseline model:

  Minimum Function Test Statistic             2461.549    1736.690
  Degrees of freedom                               378         378
  P-value                                        0.000       0.000

User model versus baseline model:

  Comparative Fit Index (CFI)                    0.685       0.743
  Tucker-Lewis Index (TLI)                       0.638       0.705

Loglikelihood and Information Criteria:

  Loglikelihood user model (H0)              -6460.004   -6460.004
  Loglikelihood unrestricted model (H1)      -5967.202   -5967.202

  Number of free parameters                        105         105
  Akaike (AIC)                               13130.007   13130.007
  Bayesian (BIC)                             13445.421   13445.421
  Sample-size adjusted Bayesian (BIC)        13113.126   13113.126

Root Mean Square Error of Approximation:

  RMSEA                                          0.116       0.084
  90 Percent Confidence Interval          0.107  0.124       0.077  0.092
  P-value RMSEA <= 0.05                          0.000       0.000

Standardized Root Mean Square Residual:

  SRMR                                           0.096       0.096

Parameter estimates:

  Information                                 Expected
  Standard Errors                           Robust.sem

                   Estimate  Std.err  Z-value  P(>|z|)   Std.lv  Std.all
Latent variables:
  IC =~
    PTRI_1r           1.000                               1.093    0.691
    PTRI_7            1.058    0.118    8.938    0.000    1.156    0.828
    PTRI_21           0.681    0.142    4.793    0.000    0.744    0.582
    PTRI_22           0.752    0.140    5.355    0.000    0.821    0.646
  IG =~
    PTRI_10           1.000                               0.913    0.600
    PTRI_11r          0.613    0.152    4.029    0.000    0.559    0.389
    PTRI_19           1.113    0.177    6.308    0.000    1.016    0.737
    PTRI_24           0.842    0.144    5.854    0.000    0.769    0.726
  DM =~
    PTRI_15r          1.000                               0.963    0.673
    PTRI_16           0.892    0.118    7.547    0.000    0.859    0.660
    PTRI_23           0.844    0.145    5.817    0.000    0.813    0.556
    PTRI_26           1.288    0.137    9.400    0.000    1.240    0.887
  IM =~
    PTRI_13           1.000                               0.685    0.609
    PTRI_14           1.401    0.218    6.421    0.000    0.960    0.814
    PTRI_18           0.931    0.204    4.573    0.000    0.638    0.604
    PTRI_20r          1.427    0.259    5.514    0.000    0.978    0.674
  IN =~
    PTRI_2            1.000                               0.839    0.612
    PTRI_6            1.286    0.180    7.160    0.000    1.080    0.744
    PTRI_12           1.031    0.183    5.644    0.000    0.866    0.523
    PTRI_17r          1.011    0.208    4.872    0.000    0.849    0.613
  EN =~
    PTRI_3            1.000                               0.888    0.687
    PTRI_8            1.136    0.146    7.781    0.000    1.008    0.726
    PTRI_25           0.912    0.179    5.088    0.000    0.810    0.620
    PTRI_27r          1.143    0.180    6.362    0.000    1.015    0.669
  RM =~
    PTRI_4r           1.000                               1.114    0.700
    PTRI_9            0.998    0.105    9.493    0.000    1.112    0.786
    PTRI_28           0.528    0.120    4.403    0.000    0.588    0.443
    PTRI_5            0.452    0.149    3.037    0.002    0.504    0.408

Covariances:
  IC ~~
    IG                0.370    0.122    3.030    0.002    0.371    0.371
    DM                0.642    0.157    4.075    0.000    0.610    0.610
    IM                0.510    0.154    3.308    0.001    0.681    0.681
    IN                0.756    0.169    4.483    0.000    0.824    0.824
    EN                0.839    0.169    4.979    0.000    0.865    0.865
    RM                0.644    0.185    3.479    0.001    0.529    0.529
  IG ~~
    DM                0.380    0.103    3.684    0.000    0.433    0.433
    IM                0.313    0.096    3.248    0.001    0.501    0.501
    IN                0.329    0.107    3.073    0.002    0.429    0.429
    EN                0.369    0.100    3.673    0.000    0.455    0.455
    RM                0.289    0.116    2.495    0.013    0.284    0.284
  DM ~~
    IM                0.530    0.120    4.404    0.000    0.804    0.804
    IN                0.590    0.122    4.839    0.000    0.731    0.731
    EN                0.588    0.105    5.619    0.000    0.688    0.688
    RM                0.403    0.129    3.132    0.002    0.376    0.376
  IM ~~
    IN                0.439    0.126    3.476    0.001    0.763    0.763
    EN                0.498    0.121    4.128    0.000    0.818    0.818
    RM                0.552    0.122    4.526    0.000    0.723    0.723
  IN ~~
    EN                0.735    0.167    4.402    0.000    0.987    0.987
    RM                0.608    0.141    4.328    0.000    0.650    0.650
  EN ~~
    RM                0.716    0.157    4.561    0.000    0.724    0.724


Variances:
    PTRI_1r           1.304    0.272                      1.304    0.522
    PTRI_7            0.613    0.153                      0.613    0.314
    PTRI_21           1.083    0.199                      1.083    0.662
    PTRI_22           0.940    0.141                      0.940    0.582
    PTRI_10           1.483    0.257                      1.483    0.640
    PTRI_11r          1.755    0.318                      1.755    0.849
    PTRI_19           0.868    0.195                      0.868    0.457
    PTRI_24           0.530    0.109                      0.530    0.473
    PTRI_15r          1.121    0.220                      1.121    0.547
    PTRI_16           0.955    0.200                      0.955    0.564
    PTRI_23           1.475    0.219                      1.475    0.691
    PTRI_26           0.417    0.120                      0.417    0.213
    PTRI_13           0.797    0.113                      0.797    0.629
    PTRI_14           0.468    0.117                      0.468    0.337
    PTRI_18           0.709    0.134                      0.709    0.635
    PTRI_20r          1.152    0.223                      1.152    0.546
    PTRI_2            1.178    0.251                      1.178    0.626
    PTRI_6            0.942    0.191                      0.942    0.447
    PTRI_12           1.995    0.235                      1.995    0.727
    PTRI_17r          1.199    0.274                      1.199    0.625
    PTRI_3            0.882    0.179                      0.882    0.528
    PTRI_8            0.910    0.131                      0.910    0.472
    PTRI_25           1.048    0.180                      1.048    0.615
    PTRI_27r          1.273    0.238                      1.273    0.553
    PTRI_4r           1.294    0.242                      1.294    0.510
    PTRI_9            0.763    0.212                      0.763    0.382
    PTRI_28           1.419    0.183                      1.419    0.804
    PTRI_5            1.269    0.259                      1.269    0.833
    IC                1.194    0.270                      1.000    1.000
    IG                0.833    0.220                      1.000    1.000
    DM                0.927    0.181                      1.000    1.000
    IM                0.470    0.153                      1.000    1.000
    IN                0.705    0.202                      1.000    1.000
    EN                0.788    0.177                      1.000    1.000
    RM                1.242    0.257                      1.000    1.000

2
Verilerin sadece modele uymadığı izlenimini edindim, örneğin faktörler arasında son derece yüksek korelasyonlarınız var. Kovaryans yerine korelasyonları almak için standart bir çözüme bakmaya çalışın (ve standart yüklemelerde de). Belki bazı faktörleri çökertmek istersiniz? Belki bazılarınız varsa ters kodlanmış öğeler için bir yöntem faktörü eklemek istersiniz - bu genellikle uyumu önemli ölçüde geliştirir.
hplieninger

1
Zaten bir yöntem faktörü ile ters kodlu öğeleri düşünmeye çalıştım. Uyum iyileştirildi, ancak çok fazla değil. Bir veya iki faktörü çökertmek istiyorum, ama teorik olarak öne sürülen 7 faktörlü çözüme bağlı kalmak zorundayım. Ve çöksem bile, uyum pek gelişmiyor.
Ağustos'ta

Yanıtlar:


14

1. Keşifsel Faktör Analizine geri dönün

Çok kötü CFA uyuyorsa, genellikle CFA'ya çok hızlı atladığınızın bir işaretidir. Testinizin yapısı hakkında bilgi edinmek için keşifsel faktör analizine geri dönmelisiniz. Büyük bir örneğiniz varsa (sizin durumunuzda yoksa), bir keşif ve doğrulayıcı bir numune almak için numunenizi bölebilirsiniz.

  • Teorileştirilmiş faktör sayısının makul olup olmadığını kontrol etmek için açımlayıcı faktör analizi prosedürlerini uygulayın. Ne önerdiğini görmek için dağ eteğindeki arsaya bakarım. Daha sonra, döndürülmüş faktör yükleme matrisini teorileştirilmiş faktör sayısının yanı sıra bir veya iki daha fazla ve bir veya iki daha az faktör ile kontrol edeceğim. Bu tür faktör yükleme matrislerine bakarak genellikle faktörlerin altında veya üstünde çıktığı belirtilerini görebilirsiniz.
  • Sorunlu maddeleri tanımlamak için açımlayıcı faktör analizi kullanın. Özellikle, en fazla teorileştirilmemiş bir faktöre yüklenen maddeler, büyük çapraz yüklemelere sahip maddeler, herhangi bir faktöre fazla yüklenmeyen maddeler.

EFA'nın faydaları çok fazla özgürlük sağlamasıdır, bu nedenle testin yapısı hakkında sadece CFA modifikasyon indekslerine bakmaktan çok daha fazla şey öğreneceksiniz.

Her neyse, umarım bu süreçten birkaç sorun ve çözüm tespit etmiş olabilirsiniz. Örneğin, birkaç öğe bırakabilirsiniz; teorik modelinizi kaç faktörün olduğu vb. ile güncelleyebilirsiniz.

2. Doğrulayıcı Faktör Analizi Uyumunu Geliştirin

Burada yapılabilecek birçok nokta var:

Ölçek başına birçok madde içeren ölçeklerdeki CFA genellikle geleneksel standartlara göre kötü performans gösterir. Bu genellikle insanları parsel oluşturmaya ya da ölçek başına sadece üç ya da dört madde kullanmaya yönlendirir (ve bu cevabın genellikle talihsiz olduğunu düşünüyorum). Sorun, tipik olarak önerilen CFA yapılarının verilerdeki küçük nüansları yakalayamamasıdır (örn. Küçük çapraz yüklemeler, bir test içindeki diğerlerinden biraz daha fazla korelasyon gösteren öğeler, küçük rahatsızlık faktörleri). Bunlar ölçek başına birçok öğe ile güçlendirilir.

Yukarıdaki duruma birkaç yanıt:

  • Çeşitli küçük çapraz yüklemelere ve ilgili terimlere izin veren keşifsel SEM yapın
  • Modifikasyon indekslerini inceleyin ve en büyük makul modifikasyonlardan bazılarını dahil edin; örneğin, birkaç ölçek içinde ilişkili kalıntılar; birkaç çapraz yükleme. bkz modificationindices(fit)içinde lavaan.
  • Gözlemlenen değişken sayısını azaltmak için öğe parseli kullanın

Genel yorumlar

Genel olarak, CFA modeliniz gerçekten kötüyse, ölçeğiniz hakkında daha fazla bilgi edinmek için EFA'ya dönün. Alternatif olarak, EFA'nız iyi ise ve CFA'nız ölçek başına birçok öğeye sahip olmanın iyi bilinen sorunları nedeniyle biraz kötü görünüyorsa, yukarıda belirtildiği gibi standart CFA yaklaşımları uygundur.


1
tavsiyeleriniz için çok teşekkürler. Zaten EFA'ya geri döndüm, ancak önerilerinizle birçok öğenin yapmaları gereken faktörü yüklemediğini anladım. Modeli 7 teorik faktör yerine 5 faktöre daraltmak istedim, ama Profesörüm buna katılmayacaktı, ama bu iyi. Ne yazık ki, her biri 4 maddeli 7 faktörlü model işe yaramıyor (ne değiştirilmiş olursa olsun). Neredeyse hiç uymayan (CFI = .89, RMSEA = .067, SRMR = .069), azaltılmış bir CFA (7 faktör + 1 bifaktör, her biri 3 öğe ile) rapor edeceğim, ancak en iyisi.
teeglaze

1
ps Jeromy, blogunu gerçekten beğendim. Şimdiye kadar bana çok yardımcı oldu ve kesinlikle gelecekte yapacak :) Teşekkürler!
Ağustos'ta

4

Ben bifactor modeli yakınsama almak için çalışacağım. Başlangıç ​​değerlerini ayarlamayı deneyin ... bu balık gibi bir yaklaşım olabilir, bu yüzden bunu aklınızda bulundurun ve dikkatli bir şekilde yorumlayın. Gerçekten temkinli olmak istiyorsanız yakınsamaya direnen modelleri yorumlamanın tehlikelerini okuyun - SEM çalışmamda henüz kendim yapmadığımı itiraf ediyorum, bu yüzden modeli almak için yapmanız gerekenleri yapmanızı öneririm çoğunlukla sizin yararınıza. Yayın için daha uygun olacağını bilmiyorum, ancak eğer bifactor modeli de iyi uymadığı için açıkça değilse, bunu bilmeniz iyi olabilir.

Aksi takdirde, sahip olduğunuz verilerle mümkün olduğunca çok şey yapmışsınız gibi görünüyor. AFAIK (Son zamanlarda buna kendi metodolojik bir projem için derinlemesine bakıyordum, bu yüzden lütfen yanılıyorsam beni düzeltin !!), WLSMV tahmini, lavaaniyi uyum sağlamanın en iyi yolu olan polikrik korelasyonlardan eşikleri kullanır sıralı verilerin bir CFA'sından endeksler. Modelinizi doğru (veya en azından en uygun şekilde) belirttiğinizi varsayarsak, yapabileceğiniz tek şey budur. Düşük yüklemeli öğeleri kaldırmak ve öğeler arası kovaryansları serbestçe tahmin etmek bile biraz ileri gidiyor, ancak bunu da denediniz.

Muhtemelen bildiğiniz gibi modeliniz geleneksel standartlara uymuyor. Tabii ki uygun olmadığında iyi uyduğunu söylememelisiniz. Bu, maalesef burada bildirdiğiniz tüm uyum istatistikleri grupları için geçerlidir (uygun olacağını umduğunuzu varsayıyorum). Uyum istatistiklerinizden bazıları sadece oldukça zayıf, tamamen kötü değil (RMSEA = .05 kabul edilebilir), ancak genel olarak, hiçbiri iyi haber değil ve yayınlayacaksanız, dürüst olmaktan sorumlu olacaksınız bu sonuçlar. Umarım yapabilirsin, FWIW.

Her iki durumda da, mümkünse daha fazla veri toplamayı düşünebilirsiniz; sonra ne olduğuna bağlı olarak, bu yardımcı olabilir. Amacınız doğrulayıcı bir hipotez testiyse, verilerinize "göz attınız" ve genişletilmiş bir örnekte tekrar kullanırsanız hata oranınızı şişirirsiniz, bu nedenle bu veri kümesini bir kenara bırakıp bir bütünü çoğaltamazsanız, taze, daha büyük olanla başa çıkmanız zor bir senaryo var. Gerçi çoğunlukla parametreleri tahmin etmek ve güven aralıklarını daraltmakla ilgileniyorsanız, burada daha önce kullandığınız bilgiler de dahil olmak üzere toplayabildiğiniz kadar çok veri toplamak makul olabilir. Daha fazla veri alabiliyorsanız, parametre tahminlerinizi daha güvenilir hale getirecek daha iyi uyum indeksleri alabilirsiniz. Umarım bu yeterince iyidir.


@ Jeromy'nin alternatifi için büyük +1: EFA'ya geri dönün. Keşifsel iki faktörlü analiz de bir seçenektir. Keşif SEM hakkında (yine de bahsettiğim!) Birkaç makale bile var, yine de okumam gerekiyor ... yine, bunlar istediğiniz gibi oldukça CFA değil, ancak hedefleriniz bu yöntemlere uyuyorsa, ne de olsa seçenekler tükenmiş olmayabilir.
Nick Stauner

1
Bifactor modeli, bir öğe kaldırılırken yakınsar. Ancak uyum hala gerçekten kötü ve faktörler hala yüksek derecede korele. Ne de olsa seçeneklerimin tükendiğini düşünüyorum. Ancak, daha güvenilir tahminler için daha fazla veri topluyoruz. Cevabın için teşekkürler!
Ağustos'ta
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.