Pratik olarak, veriler varsayımları tam olarak karşılamadığında insanlar ANOVA'yı nasıl ele alır?


19

Bu kesin bir istatistik sorusu değil - ANOVA varsayımlarıyla ilgili tüm ders kitaplarını okuyabilirim - gerçek çalışan analistlerin varsayımları tam olarak karşılamayan verileri nasıl ele aldıklarını anlamaya çalışıyorum. Bu sitede cevap arayan pek çok soru yaşadım ve ANOVA'nın (soyut, ideal bir matematiksel bağlamda) ne zaman kullanılmayacağı veya aşağıda R'de tarif ettiğim bazı şeylerin nasıl yapılacağı hakkında yazılar bulmaya devam ediyorum. Gerçekten insanların hangi kararları verdiğini ve nedenini anlamaya çalışıyorum.

Dört gruptaki ağaçlardan (gerçek ağaçlar değil, istatistiksel ağaçlar) gruplanmış veriler üzerinde analiz yapıyorum. Her ağaç için yaklaşık 35 öznitelik için veri var ve gruplar bu öznitelik üzerinde önemli ölçüde farklı olup olmadığını belirlemek için her öznitelik geçiyorum. Bununla birlikte, birkaç durumda, varyanslar eşit olmadığı için ANOVA varsayımları biraz ihlal edilir (Levene'nin testine göre alpha = .05 kullanılarak).

Gördüğüm gibi, seçeneklerim: 1. Gücü dönüştürmek ve Levene p-val'unu değiştirip değiştirmediğini görmek. 2. Wilcoxon gibi parametrik olmayan bir test kullanın (eğer öyleyse, hangisi?). 3. Bir Bonferroni gibi ANOVA sonucunu düzeltmek için bir çeşit düzeltme yapın (aslında böyle bir şeyin olup olmadığından emin değilim?). İlk iki seçeneği denedim ve biraz farklı sonuçlar aldım - bazı durumlarda bir yaklaşım önemlidir ve diğeri değildir. P-değeri balıkçılık tuzağına düşmekten korkuyorum ve hangi yaklaşımı kullanmamı haklı çıkarmama yardımcı olacak tavsiyeler arıyorum.

Ayrıca, araçlar ve varyanslar ilişkilendirilmedikçe (yani ikisi de birlikte artarsa) heteroscedastisitenin gerçekten ANOVA için büyük bir sorun olmadığını öne süren bazı şeyleri okudum, bu yüzden belki bir böyle desen? Varsa, bunun için bir test var mı?

Son olarak, bu analizi hakemli bir dergide yayınlamak için yaptığımı da eklemeliyim, bu yüzden hangi yaklaşımda olursa olsun, gözden geçirenlerle toplanmak zorundayım. Yani, eğer herkes fantastik olacak benzer, yayınlanmış örneklere bağlantılar sağlayabilir.


3
Kullansanız da kullanmasanız da R, cevabımı burada okumanız size fayda sağlayabilir: Heterossedastik veriler için tek yönlü ANOVA'ya alternatifler .
gung - Monica'yı eski

Yanıtlar:


18

Gerçek çalışan analistlerin varsayımları tam olarak karşılamayan verileri nasıl ele aldıklarını anlamaya çalışıyorum.

Hangi varsayımların ihlal edildiğine, ihtiyaçlarıma, ne şekilde, ne kadar kötü, çıkarımı ne kadar etkilediğine ve bazen de örneklem büyüklüğüne bağlıdır.

Dört gruptaki ağaçlardan gruplanmış veriler üzerinde analiz yapıyorum. Her ağaç için yaklaşık 35 öznitelik için veri var ve gruplar bu öznitelik üzerinde önemli ölçüde farklı olup olmadığını belirlemek için her öznitelik geçiyorum. Bununla birlikte, birkaç durumda, varyanslar eşit olmadığı için ANOVA varsayımları biraz ihlal edilir (Levene'nin testine göre alpha = .05 kullanılarak).

1) Örnek boyutları eşitse, fazla bir sorununuz yoktur. ANOVA, n'ler eşitse, farklı sapmalara karşı oldukça (seviye-) dayanıklıdır.

2) bir dizi çalışma tarafından tavsiye edilip edilmediğine karar vermeden önce varyans eşitliğini test etmek . Eşit değere yakın olacağından şüpheleniyorsanız, eşitsiz olduklarını varsaymak daha iyidir.

Bazı referanslar:

Zimmerman, DW (2004),
"Varyans eşitliği ön testleri üzerine bir not."
Br. J. Math. Stat. Psyschol. , Mayıs ; 57 (Puan 1): 173-81.
http://www.ncbi.nlm.nih.gov/pubmed/15171807

Henrik üç referans veriyor burada

3) Örneğinizin size önemli ölçüde farklı olduklarını söyleyecek kadar büyük olup olmadığı önemli olan etki boyutudur. Bu nedenle büyük örneklerde, küçük bir varyans farkı Levene'nin testi kadar yüksek derecede önemli olacaktır, ancak aslında etkisinde bir sonuç olmayacaktır. Numuneler büyükse ve etki büyüklüğü - varyansların oranı veya varyanslardaki farklılıklar - olması gereken şeye oldukça yakınsa, p-değerinin bir sonucu yoktur. (Öte yandan, küçük örneklerde, güzel bir büyük p değeri çok az rahattır. Her iki durumda da test doğru soruya cevap vermez.)

İki örnekli t-testinde olduğu gibi, ANOVA'da artık standart hata ve df tahmininde Welch-Satterthwaite tipi bir ayar olduğunu unutmayın.

  1. Wilcoxon gibi parametrik olmayan bir test kullanın (eğer öyleyse, hangisi?).

Konum kaydırma alternatifleriyle ilgileniyorsanız, hala sürekli yayılmayı varsayıyorsunuz. Çok daha genel alternatiflerle ilgileniyorsanız, belki de düşünebilirsiniz; bir Wilcoxon testine eşdeğer k-örneği bir Kruskal-Wallis testidir.

ANOVA sonucuna bir tür düzeltme yapın

Welch-Satterthwaite'i dikkate almak için yukarıdaki önerime bakın, bu bir tür düzeltme.

(Alternatif olarak, ANOVA'nızı bir çift Welch tipi t-testi olarak atayabilirsiniz, bu durumda muhtemelen bir Bonferroni'ye veya benzer bir şeye bakmak istersiniz)

Ayrıca, araçlar ve varyanslar birbiriyle ilişkili olmadıkça (yani her ikisinin birlikte artması)

Böyle bir şeyden alıntı yapmanız gerekir. T-testleri ile bazı durumlara baktığımda, bunun açıkça doğru olduğunu düşünmüyorum, bu yüzden neden böyle düşündüklerini görmek istiyorum; belki de durum bir şekilde kısıtlanmıştır. Durum böyle olsaydı iyi olurdu çünkü oldukça genelleştirilmiş doğrusal modeller bu duruma yardımcı olabilir.

Son olarak, bu analizi hakemli bir dergide yayınlamak için yaptığımı da eklemeliyim, bu yüzden hangi yaklaşımda olursa olsun, gözden geçirenlerle toplanmak zorundayım.

Hakemlerinizi neyin tatmin edebileceğini tahmin etmek çok zor. Çoğumuz ağaçlarla çalışmıyoruz.


12

Aslında var olmayan (örneğin, tek veya ANOVA benzeri modeller iki yönlü) basit doğrusal modellerde sap varyans çok zor.

ANOVA'nın Sağlamlığı

Birincisi, diğerlerinin de belirttiği gibi, ANOVA, özellikle yaklaşık olarak dengeli verileriniz varsa (her grupta eşit sayıda gözlem), eşit varyans varsayımından sapmalara karşı inanılmaz derecede sağlamdır. Diğer taraftan, eşit varyanslar üzerindeki ön testler değildir (Levene'nin testi ders kitaplarında yaygın olarak öğretilen F testinden çok daha iyi olsa da ). George Box'un dediği gibi:

Varyanslar üzerinde ön test yapmak, bir okyanus gemisinin limandan ayrılması için koşulların yeterince sakin olup olmadığını öğrenmek için bir kürek teknesinde denize koymak gibidir!

ANOVA çok sağlam olmasına rağmen, heterossedatikliği hesaba katmak çok kolay olduğu için, bunu yapmamak için çok az neden var.

Parametrik olmayan testler

Ortalamalar arasındaki farklılıklarla gerçekten ilgileniyorsanız, parametrik olmayan testler (örneğin, Kruskal-Wallis testi) gerçekten hiçbir işe yaramaz. Onlar gruplar arasında deney farklılıkları, ama yaptıkları değil araçlarında genel deney farklılıklara yol.

Örnek veriler

Birinin ANOVA kullanmak istediği, ancak eşit varyans varsayımının doğru olmadığı basit bir veri örneği oluşturalım.

set.seed(1232)
pop = data.frame(group=c("A","B","C"),
                 mean=c(1,2,5),
                 sd=c(1,3,4))
d = do.call(rbind, rep(list(pop),13))
d$x = rnorm(nrow(d), d$mean, d$sd)

Hem araçlarda hem de varyanslarda (açık) farklılıklar içeren üç grubumuz var:

stripchart(x ~ group, data=d)

Örnek verileri gösteren çizgi grafik.

ANOVA

Şaşırtıcı olmayan bir şekilde, normal bir ANOVA bunu oldukça iyi idare ediyor:

> mod.aov = aov(x ~ group, data=d)
> summary(mod.aov)
            Df Sum Sq Mean Sq F value  Pr(>F)    
group        2  199.4   99.69   13.01 5.6e-05 ***
Residuals   36  275.9    7.66                    
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Peki, hangi gruplar farklı? Tukey'nin HSD yöntemini kullanalım:

> TukeyHSD(mod.aov)
  Tukey multiple comparisons of means
    95% family-wise confidence level

Fit: aov(formula = x ~ group, data = d)

$group
        diff        lwr      upr     p adj
B-A 1.736692 -0.9173128 4.390698 0.2589215
C-A 5.422838  2.7688327 8.076843 0.0000447
C-B 3.686146  1.0321403 6.340151 0.0046867

Bir ile P 0.26-değeri, biz grup A ve B Ve biz bile arasına (araçlarında) herhangi bir fark talep edemez vermedi biz üç karşılaştırmalar yaptığını dikkate almak, bir düşük almak değildir P - değeri ( P  = 0.12):

> summary.lm(mod.aov)
[…]
Coefficients:
            Estimate Std. Error t value  Pr(>|t|)    
(Intercept)   0.5098     0.7678   0.664     0.511    
groupB        1.7367     1.0858   1.599     0.118    
groupC        5.4228     1.0858   4.994 0.0000153 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 2.768 on 36 degrees of freedom

Neden? Arsa dayanarak, orada olan oldukça net bir fark vardır. Bunun nedeni, ANOVA'nın her grupta eşit varyanslar alması ve ortak bir standart sapma 2.77 (tabloda 'Kalan standart hata' olarak gösterilmektedir) tahmin etmesi summary.lmveya artık ortalama karenin kare kökünü alarak elde edebilmenizdir (7.66) ANOVA tablosunda).

Ancak A grubunun (popülasyon) standart sapması 1'dir ve 2.77'nin bu fazla tahmini, istatistiksel olarak anlamlı sonuçlar almayı (gereksiz) zorlaştırır, yani (çok) düşük güçle bir testimiz var.

Eşit olmayan varyanslara sahip 'ANOVA'

Peki, varyanslardaki farklılıkları dikkate alan uygun bir modele nasıl uyulur? R'de kolay:

> oneway.test(x ~ group, data=d, var.equal=FALSE)
    One-way analysis of means (not assuming equal variances)

data:  x and group
F = 12.7127, num df = 2.000, denom df = 19.055, p-value = 0.0003107

Dolayısıyla, eşit sapmalar varsaymadan R'de tek yönlü basit bir 'ANOVA' çalıştırmak istiyorsanız, bu işlevi kullanın. Temelde t.test()eşit olmayan varyanslara sahip iki örnek için (Welch) 'in bir uzantısıdır .

Ne yazık ki, çalışmaz TukeyHSD()(veya çoğu diğer işlevleri üzerinde kullanmak aovnesneleri) biz oldukça emin oradayız yüzden bile vardır grup farklılıkları, biz bilmiyoruz nerede olduklarını.

Değişkenliği modelleme

En iyi çözüm varyansları açıkça modellemektir. Ve R'de çok kolay:

> library(nlme)
> mod.gls = gls(x ~ group, data=d,
                weights=varIdent(form= ~ 1 | group))
> anova(mod.gls)
Denom. DF: 36 
            numDF  F-value p-value
(Intercept)     1 16.57316  0.0002
group           2 13.15743  0.0001

Tabii ki hala önemli farklılıklar. Ancak şimdi A ve B grubu arasındaki farklar da istatistiksel olarak anlamlı hale gelmiştir ( P  = 0.025):

> summary(mod.gls)
Generalized least squares fit by REML
  Model: x ~ group
  […]
Variance function:
 Structure: Different standard
            deviations per stratum
 Formula: ~1 | group 
 Parameter estimates:
       A        B        C 
1.000000 2.444532 3.913382 

Coefficients:
               Value Std.Error  t-value p-value
(Intercept) 0.509768 0.2816667 1.809829  0.0787
groupB      1.736692 0.7439273 2.334492  0.0253
groupC      5.422838 1.1376880 4.766542  0.0000
[…]
Residual standard error: 1.015564 
Degrees of freedom: 39 total; 36 residual

Yani uygun bir model kullanmak yardımcı olur! Ayrıca (göreceli) standart sapmaların tahminlerini aldığımızı da unutmayın. A grubu için tahmini standart sapma, sonuçların altında, 1.02'de bulunabilir. B grubunun tahmini standart sapması bunun 2.44 katı veya 2.48'dir ve C grubunun tahmini standart sapması benzer şekilde 3.97'dir ( intervals(mod.gls)B ve C gruplarının bağıl standart sapmaları için güven aralıkları elde etmek için tip ).

Birden çok test için düzeltme

Ancak, çoklu testler için gerçekten düzeltmeliyiz. Bu 'multcomp' kitaplığını kullanmak kolaydır. Ne yazık ki, 'gls' nesneleri için yerleşik bir desteği yoktur, bu nedenle önce bazı yardımcı işlevler eklememiz gerekir:

model.matrix.gls <- function(object, ...)
    model.matrix(terms(object), data = getData(object), ...)
model.frame.gls <- function(object, ...)
  model.frame(formula(object), data = getData(object), ...)
terms.gls <- function(object, ...)
  terms(model.frame(object),...)

Şimdi işe başlayalım:

> library(multcomp)
> mod.gls.mc = glht(mod.gls, linfct = mcp(group = "Tukey"))
> summary(mod.gls.mc)
[…]
Linear Hypotheses:
           Estimate Std. Error z value Pr(>|z|)    
B - A == 0   1.7367     0.7439   2.334   0.0480 *  
C - A == 0   5.4228     1.1377   4.767   <0.001 ***
C - B == 0   3.6861     1.2996   2.836   0.0118 *  

A grubu ile B grubu arasında hala istatistiksel olarak anlamlı fark var! ☺ Ve grup araçları arasındaki farklar için (eşzamanlı) güven aralıkları bile alabiliriz:

> confint(mod.gls.mc)
[…]
Linear Hypotheses:
           Estimate lwr     upr    
B - A == 0 1.73669  0.01014 3.46324
C - A == 0 5.42284  2.78242 8.06325
C - B == 0 3.68615  0.66984 6.70245

Yaklaşık (burada tam olarak) doğru bir model kullanarak bu sonuçlara güvenebiliriz!

Bu basit örnek için, C grubuna ait verilerin A ve B grupları arasındaki farklar hakkında gerçekten herhangi bir bilgi eklemediğine dikkat edin, çünkü her grup için hem ayrı ortalamaları hem de standart sapmaları modelliyoruz. Birden fazla karşılaştırma için düzeltilmiş ikili t testlerini kullanabilirdik:

> pairwise.t.test(d$x, d$group, pool.sd=FALSE)
    Pairwise comparisons using t tests with non-pooled SD 

data:  d$x and d$group 

  A       B      
B 0.03301 -      
C 0.00098 0.02032

P value adjustment method: holm 

Bununla birlikte, daha karmaşık modeller, örneğin, iki yönlü modeller veya birçok öngörücüye sahip doğrusal modeller için GLS (genelleştirilmiş en küçük kareler) kullanmak ve varyans fonksiyonlarını açıkça modellemek en iyi çözümdür.

Ve varyans fonksiyonunun her grupta farklı bir sabit olması gerekmez; üzerine yapı dayatabiliriz. Örneğin, varyansı her bir grubun ortalamasının gücü olarak modelleyebiliriz (ve bu nedenle sadece bir parametreyi, üs değerini tahmin etmeliyiz ) veya belki de modeldeki yordayıcılardan birinin logaritması olarak modelleyebiliriz. Bütün bunlar GLS (ve gls()R'de) ile çok kolaydır .

Genelleştirilmiş en küçük kareler IMHO'nun çok az kullanılan bir istatistiksel modelleme tekniğidir. Model varsayımlarından sapmalar hakkında endişelenmek yerine, bu sapmaları modelleyin !


1
Cevap için teşekkür ederim! Eşitsiz varyans ANOVA (Welch ANOVA) için oneway.test () ve gls () 'nin sonucunu anlamıyorum. Oneway.test () öğesinin p değeri p-değeri = 0.0003107'dir. Ancak gls'den (x ~ grup, veri = d, ağırlıklar = varIdent (form = ~ 1 | grup)) p değeri 0.0001'dir. Bu iki sonuç neden farklı?
WCMC

2
Birden fazla test için düzeltmeler konusunda artan bir endişe var, bence düzeltilmemiş p-değerlerini bildirdiğiniz ve yaptığınız karşılaştırmaların sayısı daha şeffaf. Özellikle R'de test ederken her çift karşılaştırmayla ilgilenmeyebileceğiniz için, düzeltme ilgisiz karşılaştırmalar dikkate alınarak yapılacaktır.
Nakx

7
  1. Gerçekten de verilerinizde kabul edilebilir bir normal dağılım oluşturan bazı dönüşümler olabilir. Tabii ki, şimdi çıkarımınız dönüştürülmemiş verilerle değil, dönüştürülmüş verilerle ilgilidir.

  2. Bir ANOVA hakkında konuştuğunuzu varsayarsak, Kruskal-Wallis testi, ANOVA için uygun bir parametrik olmayan analogdur. Dunn testi (bahçe çeşidi sıra toplamı testi değil) belki de post hoc için en yaygın parametrik olmayan testtir Conc-Iman testi (ret sonrası Dunn testinden kesinlikle daha güçlü) olmasına rağmen, çift ​​bazlı çoklu karşılaştırmalar kruskal-Wallis) ve Dwass-Steele-Crichtlow-Fligner testi.

  3. Çoklu karşılaştırma prosedürleri (ister aile bazında hata oranı çeşitliliği ister yanlış keşif oranı çeşitliliği olsun), spesifik test varsayımlarınızla (ör. Verilerin normalliği) doğrudan bir ilgisi yoktur, bunun yerine bunun anlamı ile ilgilidir.α birden çok test yaptığınız düşünüldüğünde (sıfır hipotezini yanlış reddetme isteği).

ANOVA, grup içi ve grup varyansları oranına dayanmaktadır. Bu bağlamda heteroseladastisite ile ne demek istediğinizden tam olarak emin değilim, ancak gruplar arasında eşit olmayan varyanslar kastediyorsanız, bu testin sıfır hipotezinin mantığını temelden koparıyor gibi görünüyor.

"Dunn'ın testi" için basit bir Google Akademik sorgusu ve disiplininizden genel bir terim yayınlanmış birçok örnek döndürmelidir.


Referanslar

Conover, WJ ve Iman, RL (1979). Çoklu karşılaştırma prosedürleri hakkında . Teknik Rapor LA-7677-MS, Los Alamos Bilimsel Laboratuvarı.

Crichtlow, DE ve Fligner, MA (1991). Tek yönlü varyans analizinde dağılımsız çoklu karşılaştırmalar . İstatistikte İletişim — Teori ve Yöntemler , 20 (1): 127.

Dunn, OJ (1964). Sıralama toplamlarını kullanarak çoklu karşılaştırmalar . Technometrics , 6 (3): 241-252.


2
Tamam, bu cevap için teşekkürler, ama ne dediğin konusunda net değilim. 'Heteroscedastisite' ile ilgili olarak, kelimeyi sıradan anlamda kullandığımı düşünüyordum: "rastgele değişkenlerin bir koleksiyonu, diğerlerinden farklı değişkenlere sahip alt popülasyonlar varsa heteroscedastiktir. Burada" değişkenlik "varyansla ölçülebilir veya herhangi bir istatistiksel dağılım ölçüsü "- Wikipedia. Verilerimde alt grupların varyansları eşit değil (Levene'nin testine göre) bu yüzden onları heterossedastik olarak tanımladım. Bu doğru değil mi?
Jas Max

1
Gerçekten tartışmaya çalıştığım ders kitabı istatistikleri ile gerçek dünya arasındaki boşluk. Her ders kitabı “varyanslar ANOVA için eşit olmalıdır” der, ancak elbette asla değildir. Yani, belirli bir noktada keyfi olarak kesip farklı bir teste geçiyor muyuz - eğer öyleyse, hangi noktada? Benim alanımda (bitki biyolojisi) çoğu insan, çok düşünmeden kullanmak için eğitildikleri herhangi bir testi kullanıyor. Bundan gerçekten memnun değilim. İstatistiklerin 'pratik' kullanımını tartışan kitaplar / web siteleri için herhangi bir öneri isterim - yani hangi testi ne zaman ve neden kullanacağım. Dunn'un önerisi için teşekkürler, bu yardımcı olur.
Jas Max

2
Ah, eşit varyansların varsayımı , örnek varyanslar değil popülasyon varyanslarıdır. Nüfus varyanslarının eşit olduğunu çıkarabilirsiniz ... göz küresi testi veya başka bir deyişle, istatistiksel test yoluyla.
Alexis

1
Örnek varyansını değerlendirerek popülasyon varyansı hakkında nasıl bir şey biliyorsunuz? Bir Levene test p-val'unu "popülasyon varyanslarının eşit olduğunu varsayarak, örnek varyanslarınızın bu kadar farklı olma ihtimali nedir" olarak yorumluyorum. Düşük bir p-val alırsam popülasyon varyanslarının eşit olduğu ve ANOVA kullanamayacağı hipotezini reddederim. Kruskal-Wallace iyi bir alternatif gibi görünüyor, ancak verileri ANOVA varsayımlarını karşılamak için dönüştürmek tercih edilir mi?
Jas Max

1
Ayrıca, Levene testi, p <.05 bu karar için uygun test ve kesme mi? O'Brien, Bartlett'in ... bu testin sonuçları önemli ölçüde farklılık gösterebilir ve hangisini kullanacağımı gerçekten bilmiyorum - bu yüzden Levene ile gidiyorum çünkü en muhafazakar görünüyor. Ama belki de bu aşırıya kaçıyor - belki ANOVA'yı terk etmek için çok hızlı bir şekilde, analizimin istatistiksel gücünü gereksiz yere azaltan bir teste geçiyorum.
Jas Max

1

Sanki ayak işini yapıyor ve elinden gelenin en iyisini yapmaya çalışıyormuşsun gibi geliyor ama çabaların, gazeteni gözden geçirenlerden geçecek kadar iyi olmayacak. Çok gerçek bir problem. Bence tüm araştırmacılar, zaman zaman sınırda görünen ve hatta varsayımları açıkça ihlal eden analizlerle mücadele ediyorlar. Sonuçta, her bir grupta 6-7 fare gibi bir şey olan 3 küçük fare grubunda tedavi etkilerini değerlendiren milyonlarca makale vardır. Anova varsayımlarının böyle bir makalede tatmin edilip edilmediğini nasıl bilebilirsiniz?

Özellikle kardiyovasküler patofizyoloji alanında çok sayıda makaleyi inceledim ve okuduğum bir makalede verilere güvenip güvenemeyeceğimi asla% 100 emin hissetmiyorum. Ama benim için bir eleştirmen olarak, aslında sorunları en ortaya çıkabilir düşünmek eğilimindedir böylece derin istatistik içine çok kazma muhtemelen küçük bir nokta olduğunu bilimde birçok düzeyde - sonuçta bütün veri kümesi fabrikasyon olabilir ve ben asla bir milyon yılda anlatabilir. Buna göre, araştırmacıların asla kötüye kullanmamaları gereken bu çalışma alanında her zaman bir güven unsuru olacaktır.

Vereceğim en gerçek dünya önerisi, göndermeden önce her şeyi çok dikkatli düşünmeniz ve yorumcular tarafından sorulan soruları doğru bir şekilde cevaplayabileceğinizden emin olmanızdır. Elinizden gelenin en iyisini yaptığınız sürece, niyetleriniz dürüst ve geceleri iyi uyuyorsunuz bence iyi olmalısınız.


2
Fabrikasyonları tespit edememeyi kabul ettiğimden emin değilim: Daha önce böyle bir şey tespit ettim.
Alexis
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.