Güven aralıkları hassasiyet hakkında ne söyler (eğer varsa)?


31

Morey ve arkadaşları (2015), güven aralıklarının yanıltıcı olduğunu ve bunların anlaşılmasıyla ilgili birçok önyargı bulunduğunu savunmaktadır. Diğerleri arasında, hassasiyet yanlışlıklarını aşağıdaki gibi tarif ederler:

Kesinlik yanlışlığı
Bir güven aralığı genişliğinin parametre hakkındaki bilgimizin kesinliğini gösterir. Dar güven aralıkları kesin bilgi gösterirken, geniş güven hataları kesin olmayan bilgileri gösterir.

Bir tahminin kesinliği ile güvenirlik aralığının boyutu arasında gerekli bir bağlantı yoktur. Bunu görmenin bir yolu, iki araştırmacı - kıdemli bir araştırmacı ve doktora öğrencisi - bir denemede 50 katılımcının verilerini analiz etmektir . Doktora öğrencisinin yararına bir tatbikat olarak, kıdemli araştırmacı katılımcıları rastgele bir şekilde gruba ayırmaya karar verir, böylece her biri veri setinin yarısını ayrı ayrı analiz edebilir. Bir sonraki toplantıda, biriyle iki pay başka onların Student ortalama için güven aralıkları. Doktora öğrencisinin CI ve kıdemli araştırmacı CI .t 95 % 52 ± 2 95 % 53 ± 425t95%52±295%53±4

Üst araştırmacı notları sonuçları büyük ölçüde uyumlu olduğu ve onların ilgili iki nokta tahminleri, eşit-ağırlıklı ortalama kullanabileceği gerçek ortalama genel bir tahmin olarak,.52.5

Bununla birlikte, doktora öğrencisi, iki araçlarının eşit şekilde ağırlıklandırılmaması gerektiğini savunuyor: CI'sinin yarı yarıya geniş olduğunu ve tahmininin daha kesin olduğunu ve dolayısıyla daha ağır olması gerektiğini belirtti. Danışmanı bunun doğru olamayacağına dikkat çekiyor, çünkü iki aracı eşit olmayan bir şekilde ağırlıklandırmanın tahmini, olması gereken tüm veri setinin analiz edilmesinden farklı olacaktır . Doktora öğrencisinin hatası, CI'lerin doğrudan veri sonrası hassasiyeti gösterdiğini varsaymaktadır.52.5

Yukarıdaki örnek yanıltıcı görünüyor. Bir örneği rastgele ikiye, iki örneğe bölersek, hem örnek yollarının hem de standart hataların yakın olmasını bekleriz. Bu durumda, ağırlıklı ortalama kullanımı (örneğin ters hatalarla ağırlıklı) ve basit aritmetik ortalama kullanımı arasında herhangi bir fark olmamalıdır. Bununla birlikte, tahminler farklılık gösterir ve örneklerden birindeki hatalar gözle görülür derecede daha büyükse, bu, bu tür örneklerle "sorun" önerebilir.

Açıkçası, yukarıdaki örnekte, numune boyutları aynıdır, bu nedenle ortalamaları alarak verileri "geri birleştirmek" tüm numunenin ortalaması almakla aynıdır. Buradaki problem, tüm örneğin, numunenin önce parçalara bölündüğü, daha sonra da son tahminde tekrar bir araya getirileceği yanlış tanımlanmış mantığı izlemesidir.

Örnek, tam tersi bir sonuca varabilmek için yeniden ifade edilebilir:

Araştırmacı ve öğrenci veri setini iki yarıya ayırmaya ve bağımsız olarak analiz etmeye karar verdi. Daha sonra, tahminlerini karşılaştırdılar ve örneklemin hesapladıkları anlamına geldiği çok farklı görünüyordu, ayrıca öğrencinin tahmininin standart hatası çok daha büyüktü. Öğrenci, tahmininin kesinliği ile ilgili sorunlar önerebileceğinden korkuyordu, ancak araştırmacı güven aralıkları ile kesinlik arasında bir bağlantı olmadığını ima ettiğinden, tahminlerin her ikisi de eşit derecede güvenilirdir ve rastgele seçilen her birini yayınlayabilir. nihai tahmini olarak.

Öğrencinin gibi, daha resmi "standart" güven aralıkları bunu belirten , hatalar dayanmaktadırt

x¯±c×SE(x)

burada bir sabittir. Bu durumda, doğrudan hassasiyetle ilgilidir, öyle değil mi?c

Öyleyse benim sorum şu:
Hassasiyet yanlışlığı gerçekten bir yanlışlık mı? Güven aralıkları hassasiyet hakkında ne söyler?


Morey, R., Hoekstra, R., Rouder, J., Lee, M., & Wagenmakers, E.-J. (2015). Güven aralıklarında güven verme yanlışlığı. Psychonomic Bülten ve İnceleme, 1–21. https://learnbayes.org/papers/confidenceIntervalsFallacy/


2
Sanırım hassasiyet, varyansın karşılığı olarak tanımlanırsa, bu CI'lerin genişliği sadece kesinliğin bir tahminini yansıtır . Ortalama bir Bayesian güvenilir aralığının genişliği ne kadar kesinliğe ilişkin belirsizliği yansıtır.
Scortchi - Eski Monica

@ Scortchi o zaman bu, sık kullanılan yöntemlerin genelde güvenilmez olduğunu söylemenin başka bir yoludur.
Tim

7
Bunun kırmızı bir ringa balığı olduğunu söyleyebilirim. Sadece ortalama 52.5 ve SD 7.5 olan normal bir dağılıma 50 örnekleri çizim her birinde, 10.000 deneyler simüle (çok boyutu 25 alt örneklere GD olacağını yaklaşık ,±3CI veren. Daha sonra bu numuneleri ikiye böldüm ve CI'lerin ne kadar sıklıkla farklılaştığını kontrol ettim. Bu 10.000 vakadan sadece 6'sında oldu. CI’leri bu kadar farklı gözlemleyen herhangi biri, alt örneklem seçiminde bir şeylerin olduğundan şüphelenecektir. 7.5/25=5±3
S. Kolassa - Monica

@StephanKolassa Ben de tamamen aynı sonuçlara yol açan aynı simülasyonu yaptım - soru bu şekilde ortaya çıktı :)
Tim

2
@Tim: Neye ulaşmaya çalıştıklarını gerçekten bilmiyorum: Ortalamanın tahmini gerçek doğruluğu, iki alt örneklemde ortak olan bilinmeyen bir parametre değerinin bir işlevi olarak algılanıyorsa , o zaman ben kimsenin, bu iki CI'nin genişliğindeki farkın, tahminlerin kesinliğinde bir fark yaratmadığına karar vermeyi düşünmeyin (alt örnekleme prosedüründen şüphe etmediklerinde). Gözlemlenen değişkenlik katsayısına bağlı CI'lerin kapsam özelliklerini göz önünde bulundurmak daha iyi bir taktik olabilirdi.
Scortchi - Eski Monica

Yanıtlar:


16

Makalede, hassasiyet yanlışlığını birçok şekilde gösteriyoruz. İstediğiniz - gazetede ilk - Örnek, basit bir "CI = hassasiyet" in yanlış olduğunu göstermek içindir. Bu, herhangi bir yetkili frekansçı Bayesyen veya olabilirlikçinin, bununla karıştırılacağını söylemek değildir.

Neler olup bittiğini görmenin başka bir yolu: CI'lere henüz söylenmiş olsaydık, yine de örneklerdeki bilgileri bir araya getiremeyiz; bilmemiz gerekir ve bundan biz içine CI'ler emebildiğini ˉ x ve s 2 ve böylece düzgün iki numune birleştirir. Bunu yapmamızın nedeni, CI'daki bilgilerin rahatsızlık parametresi üzerinde marjinal olmasıdır. Her iki numunenin de aynı rahatsızlık parametresi hakkında bilgi içerdiğini dikkate almalıyız. Bu, her iki computing içerir s 2 genel bir tahmin almak için birleştirerek, değerleri σ 2 daha sonra yeni bir CI işlem.Nx¯s2s2σ2

Hassas yanlışlığın diğer gösterilerine gelince, bkz.

  • Welch (1939) bölümünde (denizaltı) bulunan çoklu CI'ler, bunlardan biri yukarıda @dsaxton tarafından belirtilen "önemsiz" CI'yi içerir. Bu örnekte, optimal CI, olasılığın genişliğini takip etmez ve her ikisini birden yapmayan CI örnekleri de vardır.
  • CI'lerin - hatta "iyi" CI'lerin bile boş olabileceği gerçeği, sınırsız hassasiyet gösteren "yanlış"

Anlaşmanın cevabı, en azından CI'nın savunucularının düşündüğü şekilde ("bir tahminin bir parametreye ne kadar yakın" olduğuna dair deneysel bir değerlendirme), güven aralıklarının genel olarak sahip olduğu bir özellik olmadığıdır. ve onlar demek istemediler. Özel güven prosedürleri ... olabilir veya olmayabilir.

Ayrıca buradaki tartışmaya bakın: http://andrewgelman.com/2011/08/25/why_it_doesnt_m/#comment-61591


7
(+1) Asıl yazardan haber almak harika! CI'ların TÜM çıkarım biçimleri gibi (sadece farklı konular) olduğu gibi birçok felsefi sorunu olduğu konusunda hemfikirim. ve bu seviye.

4
(+1) Yanıtınız için teşekkürler! Ben CI en o Gazetende Eğer devlet bu argümanları ile kabul gerekmez ancak bu yanlışlığını çağırarak, hassasiyet hakkında bir şey söylemek onlar belirtmek izlenimi veren yok hassasiyetle hakkında bir şey söylemek - ve bu aynı şey değil ... Dahası: Sizce gerçek yaşam analizi konusu "hassas yanılsama" dır. CI’ları yanlış yorumlamanın aynı fikirdeyim ama bu durumda emin değilim ...
Tim

2
“Gerçek hayat” etkisinin ölçülmesi zordur, özellikle belirli bir analiz senaryosundaki veya bir alandaki etkiden söz edilebilir. Çünkü sadece Gaussian bir CI hesaplamak, yanlışlığın çok tehlikeli olmadığı anlamına gelir. Ancak p117'deki alıntıların listesini düşünün (paragraf "Steiger’in güven prosedürü ne sıklıkta başlayacak ..."). Yayınlanan bu makalelerdeki aralıklar "çok" dardır. Hatalılığın başka etkileri de var: yeni CI prosedürlerinin jeneratörleri üzerinde tam bir eksikliği (yeni bir CI ile herhangi bir kağıdı kontrol edin), analistlerin gerektiğinde Gauss varsayımlarından uzaklaşmakta isteksizlikleri ve diğerleri.
richarddmorey

Ben bu parantezlerle çarpıldım. Bu "denizaltı" nedir?
Superbest

1
Ama olabilirlik genişliği fonksiyonu için θNumune aralığına bağlı olarak, denizaltı örneğindeki kesinliği tam olarak yansıtması beklenmektedir, o zaman neden örnek varyansına bağlı ortalama için olasılık fonksiyonunun genişliği neden bu örnekteki kesinliği yansıtmamalıdır? Denizaltıdan dört kabarcık gözlemlendiğini ve rastgele iki gruba ayrıldığını varsayalım ...
Scortchi - Reinstate Monica

13

Her şeyden önce, kendimizi yalnızca kesin pozitif sonlu genişliğe sahip aralıklar üreten CI prosedürleriyle sınırlayalım (patolojik durumlardan kaçınmak için).

Bu durumda, hassasiyet ve CI genişliği arasındaki ilişki teorik olarak gösterilebilir. Ortalama için bir tahminde bulun (var olduğunda). Ortalama için CI’niz çok darsa, o zaman iki yorumunuz vardır: ya biraz şansın yaverdi ve numunen çok sıkı bir şekilde kümelendi (bunun% priori olma ihtimali%) ya da aralığın gerçek ortalamayı kapsıyor (% 95 a priori şansı). Tabii ki, gözlemlenen CI bu ikisinden biri olabilir, ancak hesaplamalarımızı, ikincisinin gerçekleşmesi çok daha muhtemel olacak şekilde ayarladık (yani,% 95 priori şansı) ... dolayısıyla, yüksek dereceye sahibiz arasında güvenbizim aralığımız ortalamayı kapsıyor, çünkü işleri olasılıkla ayarladık, bu yüzden öyle. Bu nedenle,% 95'lik bir CI bir olasılık aralığı değildir (Bayesian Credible Interval gibi), fakat daha çok "güvenilir bir danışman" gibi ... ... istatistiki olarak,% 95 oranında haklı olan bir kişi, bu yüzden cevaplarına güveniyoruz Herhangi bir özel cevap çok yanlış olabilir.

Gerçek parametreyi kapsadığı vakaların% 95'inde, genişlik size verilerle verilen makul değerlerin aralığı hakkında bir şeyler söyler (yani, gerçek değeri ne kadar iyi bağlayabileceğiniz), dolayısıyla bir hassasiyet ölçüsü gibi davranır. . Olmadığı vakaların% 5'inde CI yanıltıcıdır (örnek yanıltıcı olduğu için).

Yani,% 95 CI genişlik hassasiyet gösteriyor mu ... Ben% 95 şansı olduğunu söyleyebilirim (CI genişliğinizin pozitif-sonlu olması şartıyla) ;-)

Mantıklı bir CI nedir?

Özgün yazarın gönderisine yanıt olarak, (a) "split sample" örneğinin çok özel bir amacı olduğunu ve (b) yorum yapan tarafından istendiği gibi biraz daha arka plan sağlamak için verdiğim yanıtı gözden geçirdim:

İdeal (sıkça) bir dünyada, tüm örnekleme dağılımları, kesin güven aralıkları elde etmek için kullanabileceğimiz önemli bir istatistiği kabul eder. Önemli istatistikler hakkında bu kadar iyi olan şey nedir? Dağılışı, tahmin edilen parametrenin gerçek değerini bilmeden elde edilebilir! Bu güzel durumlarda, örnek parametremizin gerçek parametreye göre (gauss olmasa da) bu parametre hakkında tam bir dağılımına sahibiz.

Daha kısaca şunu belirtin: Hata dağılımını (veya bunun bir dönüşümünü) biliyoruz .

Bu, mantıklı güven aralıkları oluşturmamıza izin veren bazı tahmin edicilerin niteliğidir. Bu aralıklar sadece tanımlarını yerine getirmekle kalmaz ... bunu gerçek tahmin hatasının dağıtımından türetilmesi sayesinde yaparlar.

Gauss dağılımı ve ilişkili Z istatistiği, ortalama için tam bir CI geliştirmek için önemli bir miktarın kullanımının kanonik bir örneğidir. Daha ezoterik örnekler var, ancak bu genel olarak Gaussian CI'lerin ardındaki teoriyi gerçek bir önemli miktar kabul etmeyen dağılımlara uygulayan bir girişim olan "büyük örnek teorisini" motive edendir. Bu durumlarda, yaklaşık olarak pivotal veya asimptotik olarak pivotal (numune büyüklüğünde) miktarları veya "yaklaşık" güven aralıklarını okuyacaksınız ... bunlar olasılık teorisine dayanmaktadır - özellikle birçok MLE için hata dağılımı normal bir dağılıma yaklaşır.

Hassas CI'lerin üretilmesi için bir başka yaklaşım, bir hipotez testinin "ters çevrilmesi" dir. Fikir, "iyi" bir testin (örneğin, UMP) belirli bir Tip I hata oranı için iyi (okuma: dar) bir CI ile sonuçlanmasıdır. Bunlar tam bir kapsama alanı sağlamaz, ancak daha düşük sınırlamalı kapsama sağlar (not:% X'in -C1'in gerçek tanımı sadece zamanın en az % X'inin gerçek parametresini kapsaması gerektiğini söyler ).

Hipotez testlerinin kullanımı doğrudan önemli bir miktar veya hata dağılımı gerektirmez - duyarlılığı, temel testin duyarlılığından kaynaklanır. Örneğin, reddetme bölgesi zamanın% 0,5'i uzun, sonsuz uzunluğu% 95'i olan bir testimiz olsaydı, CI'ların olduğu yere geri dönerdik - ama bu testin böyle olmadığı açık. verilere bağlı ve bu nedenle test edilmekte olan parametre hakkında herhangi bir bilgi sağlamayacaktır.

Bu daha geniş fikir - kesinliğin bir tahmininin verilere bağlı olması gerektiği, Fischer'e ve yardımcı istatistikler fikrine geri döner. Testinizin veya CI prosedürünüzün sonucunun verilerle koşullu OLMADIĞINDAN EMİN OLABİLİRSİNİZ (yani koşullu davranışı koşulsuz davranışıyla aynıdır), o zaman elinizde şüpheli bir yöntem bulunduğundan emin olabilirsiniz.


2
Bir "Not" da eklediklerinizi ayrıntılandırabilirseniz çok iyi olur. Bence, bütün tartışmanın bir parçası: Biri, CI'nın genişliği ile ilgili herhangi bir hassasiyetle ilişkisi olmayan CI'leri inşa etmek için çok garip fakat geçerli sıkça prosedürler geliştirebilir. Dolayısıyla, Morey ve diğ. yapın, CI'lerin prensipte yanlış yönlendirildiği. Yaygın olarak kullanılan CI prosedürlerinin bundan daha makul olduğu konusunda hemfikirim, ancak birinin bunları neyin bu hale getirdiği konusunda net olmak gerekiyor.
amip diyor Reinstate Monica

@ amoeba Neden tüm CI'lerin eşit yaratılmadığına dair biraz daha açıklama ekledim ... ana fikir yardımcılık, ikincisi bir hata dağıtımının rolü (ya da yaklaşık bir

Güncelleme için teşekkürler. Cevabınızda hala çok net bulamadığım bir şey, ilk paragrafta CI genişliği hakkında hiçbir şey söylemediğiniz ; Sadece gerçek popülasyon parametresini içeren veya içermeyen hakkında konuşuyorsunuz. Orada her şey "patolojik" durumlarda bile doğrudur. O zaman evet diyorsunuz, genişlik kesinliği gösterir, ancak bunun için herhangi bir argüman vermediniz (bu noktada). Daha sonra yapılan tartışmada daha çok açıklarsınız.
amip diyor Reinstate Monica

@amoeba I guess my post could do with a little more formatting. The basic logic is this (assuming we are using a "reasonable" CI procedure as I outline): there is an a priori 95% chance that the interval will contain the true parameter. After we collect data, we have our actual interval (finite, non-zero width). IF it contains the true parameter, then the width expresses the range of plausible values it could be, hence the width bounds the range of the parameter. HOWEVER, in the 5% of cases where the interval does not contain the value, then the interval is misleading.

@amoeba updated post to better emphasize the connection between CI width and precision.

8

I think the precision fallacy is a true fallacy, but not necessarily one we should care about. It isn't even that hard to show it's a fallacy. Take an extreme example like the following: we have a sample {x1,x2,,xn} from a normal(μ,σ2) distribution and wish to construct a confidence interval on μ, but instead of using the actual data we take our confidence interval to be either (,) or {0} based on the flip of a biased coin. By using the right bias we can get any level of confidence we like, but obviously our interval "estimate" has no precision at all even if we end up with an interval that has zero width.

The reason why I don't think we should care about this apparent fallacy is that while it is true that there's no necessary connection between the width of a confidence interval and precision, there is an almost universal connection between standard errors and precision, and in most cases the width of a confidence interval is proportional to a standard error.

I also don't believe the author's example is a very good one. Whenever we do data analysis we can only estimate precision, so of course the two individuals will reach different conclusions. But if we have some privileged knowledge, such as knowing that both samples are from the same distribution, then we obviously shouldn't ignore it. Clearly we should pool the data and use the resulting estimate of σ as our best guess. It seems to me this example is like the one above where we only equate confidence interval width with precision if we've allowed ourselves to stop thinking.


Good point about the randomly infinite CIs...definitely show that confidence is a different concept than precision. I probably should have caveated my response by saying that I am assuming a likelihood-based CI, where width is related to curvature of log likelihood, which is an approximation of standard error...your post points out that there are CIs that technically achieve coverage but in a very counterintuitive way.

A related issue (albeit very interesting one) is that of relevant subsets for a CI...for example, if you condition on ancillary statistics, your CI coverage may change (a case in point is that the conditional coverage of a t-interval changes based on the variability of your sample). Here's the link to the paper: jstor.org/stable/2242024?seq=1#page_scan_tab_contents

@Bey There's another less extreme example from this paper involving a submarine: webfiles.uci.edu/mdlee/fundamentalError.pdf. It's an interesting one, but again appears to be a case of an interpretation that no intelligent person would make.
dsaxton

Agreed....can't leave common sense at the door with stats...even in Machine Learning (somewhat of a misnomer)

1
@richarddmorey: Okay, I see. Then it was just an unfortunate formulation! I did not take it out of the context on purpose; I honestly read this sentence as a summary and generalization to any situation (not realizing that "in that example" was assumed in that sentence). Consider leaving a clarification comment in that other thread with my accusation (that already got some upvotes).
amoeba says Reinstate Monica

4

I think the demonstrable distinction between "confidence intervals" and "precision" (see answer from @dsaxton) is important because that distinction points out problems in common usage of both terms.

Quoting from Wikipedia:

The precision of a measurement system, related to reproducibility and repeatability, is the degree to which repeated measurements under unchanged conditions show the same results.

One thus might argue that frequentist confidence intervals do represent a type of precision of a measurement scheme. If one repeats the same scheme, the 95% CI calculated for each repetition will contain the one true value of the parameter in 95% of the repetitions.

This, however, is not what many people want from a practical measure of precision. They want to know how close the measured value is to the true value. Frequentist confidence intervals do not strictly provide that measure of precision. Bayesian credible regions do.

Some of the confusion is that, in practical examples, frequentist confidence intervals and Bayesian credible regions "will more-or-less overlap". Sampling from a normal distribution, as in some comments on the OP, is such an example. That may also be the case in practice for some of the broader types of analyses that @Bey had in mind, based on approximations to standard errors in processes that have normal distributions in the limit.

If you know that you are in such a situation, then there may be no practical danger in interpreting a particular 95% CI, from a single implementation of a measurement scheme, as having a 95% probability of containing the true value. That interpretation of confidence intervals, however, is not from frequentist statistics, for which the true value either is or is not within that particular interval.

If confidence intervals and credible regions differ markedly, that Bayesian-like interpretation of frequentist confidence intervals can be misleading or wrong, as the paper linked above and earlier literature referenced therein demonstrate. Yes, "common sense" might help avoid such misinterpretations, but in my experience "common sense" isn't so common.

Other CrossValidated pages contain much more information on confidence intervals and the differences between confidence intervals and credible regions. Links from those particular pages are also highly informative.


This is a good point....I think the closest think to the common interpretation of "precision" is more like RMS error. An unbiased but highly variable estimate is seen as no better than a low-variability but highly biased estimator...both cannot be relied upon to give an estimate close to the true value.

+1, but I am not sure I share your pessimistic view on "common sense". There is a great quote from Jeffreys about "common sense" in frequentist statistics: I have in fact been struck repeatedly in my own work, after being led on general principles to the solution of a problem, to find that Fisher had already grasped the essentials by some brilliant piece of common sense.
amoeba says Reinstate Monica

@amoeba consider Laplace's claim that "Probability theory is nothing but common sense reduced to calculation." The efforts devoted since then to probability theory at least show that the implications of common sense aren't always immediately obvious.
EdM

@amoeba: Fisher rejected CIs, and identifying Fisher as freq-ist. is misleading. His logic of intervals (fiducial) was similar to obj. Bayes, and he identifies probability with rational uncertainty. He says this: "It is sometimes asserted that the fiducial method generally leads to the same results as the method of [CIs]. It is difficult to understand how this can be so, since it has been firmly laid down that the method of confidence intervals does not lead to probability statements about the parameters of the real world, whereas the fiducial argument exists for this purpose." (Fisher, 1959)
richarddmorey

@richard, Thanks for the clarification. Fisher is known to have said contradictory things throughout his long career and to have changed his opinion a couple of times. I am not really familiar with his fiducial theory so cannot comment on that. My unconscious assumption was that Jeffreys in that quote was referring to the Fisher's "frequentist period" but I have no evidence for that. In my (limited!) experience, nobody ever uses fiducial inference. Nobody. Ever. Whereas frequentist techniques are used all the time and many go back to Fisher. Hence the association existing in my mind.
amoeba says Reinstate Monica

1

@Bey has it. There is no necessary connection between scores and performance nor price and quality nor smell and taste. Yet the one usually informs about the other.

One can prove by induction that one cannot give a pop quiz. On close examination this means one cannot guarantee the quiz is a surprise. Yet most of the time it will be.

It sounds like Morey et al show that there exist cases where the width is uninformative. Although that is sufficient to claim "There is no necessary connection between the precision of an estimate and the size of a confidence interval", it is not sufficient to further conclude that CIs generally contain no information about precision. Merely that they are not guaranteed to do so.

(Insufficient points to + @Bey's answer. )

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.