Test seti ve doğrulama seti arasındaki fark nedir?


431

Matlab'daki sinir ağları araç kutusunu kullanırken kafa karıştırıcı buldum.
Ham veri setini üç parçaya böldü:

  1. Eğitim Seti
  2. doğrulama seti
  3. Deneme seti

Birçok eğitim veya öğrenme algoritmasında, verilerin genellikle 2 bölüme, eğitim setine ve test setine bölündüğünü fark ettim.

Benim sorularım:

  1. doğrulama seti ve test seti arasındaki fark nedir?
  2. Doğrulama, sinir ağlarına gerçekten özel mi ayarlanmış? Veya isteğe bağlıdır.
  3. Daha da ileri gitmek için, makine öğrenmesi bağlamında doğrulama ile test arasında bir fark var mı?

56
Soru, istatistiksel öğrenmenin Sayfa 222 kitabında cevaplandırılmıştır. Doğrulama seti, model seçimi, son model için test seti (seçim işlemi ile seçilen model) tahmin hatası için kullanılır.
mpiktas

@mpiktas "Model Değerlendirme ve Seçme" bölümüne mi bakıyorsunuz?
Celdor

2
Evet. Sayfa numarası 5. baskı baskısındandı.
mpiktas

13
@mpiktas yerinde. İşte asıl metin:The training set is used to fit the models; the validation set is used to estimate prediction error for model selection; the test set is used for assessment of the generalization error of the final chosen model. Ideally, the test set should be kept in a “vault,” and be brought out only at the end of the data analysis.
arun

Yanıtlar:


254

Normalde denetimli öğrenmeyi gerçekleştirmek için iki tür veri setine ihtiyacınız vardır:

  1. Bir veri setinde ("altın standart") girdi verisine doğru / beklenen çıktı ile birlikte sahip olursunuz, Bu veri seti genellikle insanlar tarafından ya da bazı verileri yarı otomatik olarak toplayarak hazırlanır. Ancak buradaki her veri satırı için beklenen çıktıya sahip olmanız önemlidir, çünkü denetimli öğrenme için buna ihtiyacınız vardır.

  2. Modelinizi uygulayacağınız veriler. Çoğu durumda bu, modelinizin çıktısıyla ilgilendiğiniz verilerdir ve bu nedenle henüz burada "beklenen" bir çıktınız yoktur.

Makine öğrenmesi yaparken şunları yapın:

  1. Eğitim aşaması: verilerinizi "altın standart" dan sunar ve girişi beklenen çıktıyla eşleştirerek modelinizi geliştirirsiniz.
  2. Validasyon / Test aşaması: modelinizin ne kadar iyi eğitildiğini tahmin etmek (verilerinizin boyutuna, tahmin etmek istediğiniz değere, girdi vb.) Ve model özelliklerini tahmin etmek için (sayısal tahminciler için ortalama hata, sınıflandırıcılar için sınıflandırma hataları, IR modelleri için hatırlama ve hassasiyet vb.)
  3. Uygulama aşaması: şimdi yeni geliştirilen modelinizi gerçek dünya verilerine uygulayın ve sonuçları alın. Normalde bu veri türünde herhangi bir referans değeriniz olmadığından (aksi halde, neden modelinize ihtiyaç duyarsınız?), Doğrulama aşamanızın sonuçlarını kullanarak yalnızca model çıktınızın kalitesini tahmin edebilirsiniz.

Doğrulama aşaması genellikle iki bölüme ayrılır :

  1. İlk kısımda sadece modelinize bakın ve doğrulama verilerini kullanarak en iyi performans gösteren yaklaşımı seçin (= doğrulama)
  2. Daha sonra seçilen yaklaşımın doğruluğunu tahmin edersiniz (= test).

Bu nedenle 50/25 / 25'e kadar ayırma.

Birkaç rakip yaklaşımdan uygun bir model seçmeniz gerekmiyorsa, yalnızca eğitim setinizin ve test setinizin olduğunu, eğitim almış modelinizin onayını yapmadan sadece setinizi yeniden bölümlendirebilirsiniz. Onları şahsen 70 / 30'a bölerim.

Ayrıca bu soruya bakınız .


21
Doğrulama setinden tamamen kurtulmak için neden test setine göre en iyi performans gösteren modeli seçmedim?
Sebastian Graf

4
Fazla uydurma yüzünden mi? Ya da sadece hata tahmini için test sonucuna dayalı bazı bağımsız istatistikler istediğimiz için mi?
Sebastian Graf

12
@Sebastian [Sadece test setini kullanırsanız:] "Son seçilen modelin test set hatası, bazen önemli ölçüde gerçek test hatasını hafife alacaktır" [Hastie et al]
user695652

23
Doğrulama seti genellikle hiper parametrelerini ayarlamak için kullanılır. Örneğin, derin öğrenme topluluğunda, ağ katmanı boyutunun, gizli birim numarasının, düzenlileştirme süresinin (L1 veya L2 olsun) ayarlanması, doğrulama setine bağlıdır
xiaohan2012

2
Kümeleri bölmenin doğru yolu nedir? Seçim rastgele olmalı mı? Ya benzer resimleriniz varsa? Bu, genelleme yeteneğinize zarar vermez mi? Ayrı konumlarda iki setiniz varsa, birini eğitim seti, diğeri test seti olarak almak daha iyi olmaz mıydı?
Yonatan Simson

263

Eğitim seti: öğrenme için kullanılan bir dizi örnek: sınıflandırıcının parametrelerine uyması Çok Katmanlı Algı (MLP) durumunda, eğitim setini geri destek kuralıyla “optimal” ağırlıkları bulmak için kullanırdık

Doğrulama seti: Sınıflandırıcının parametrelerini ayarlamak için kullanılan bir örnek set MLP durumunda, doğrulama setini “optimal” gizli ünite sayısını bulmak veya geri yayılma algoritması için bir durma noktası belirlemek için kullanırdık.

Test seti: Sadece tamamen eğitilmiş bir sınıflandırıcının performansını değerlendirmek için kullanılan bir dizi örnek MLP örneğinde, son modeli seçtikten sonra hata oranını tahmin etmek için testi kullanırız (MLP büyüklüğü ve gerçek ağırlıklar) Değerlendirdikten sonra Test setindeki son model, modeli daha fazla AYARLAMAYINIZ!

Neden ayrı ayrı test ve doğrulama setleri? Doğrulama verileri üzerindeki nihai modelin hata oranı tahmini, doğrulama oranı nihai modeli seçmek için kullanıldığından önyargılı (gerçek hata oranından daha küçük) olacaktır, çünkü test setindeki son modeli değerlendirdikten sonra, herhangi bir modeli ayarlamamalısınız Daha ileri!

kaynak: Kalıp Analizine Giriş, Ricardo Gutierrez-OsunaTexas A&M Üniversitesi, Texas A&M Üniversitesi


42
+1, "Modeli daha fazla ayarlamamalısınız!"
stmax

6
"Parametrelere uydur" ile "Parametreleri ayarla" arasındaki fark nedir?
Metariat

18
@stmax Pedantik olmamak, ancak bir kez son test hatamızı yaptıktan ve sonuçtan memnun olmadığımızda, modelimizi daha fazla ayarlayamazsak ne yaparız? ... Sık sık bu durumu merak etmişimdir.
Spacey,

5
@Tarantula modeli ayarlamaya devam edebilirsiniz, ancak yeni bir test seti toplamanız gerekecek. Elbette kimse bunu yapmaz;) ama bunu ihlal etmek (özellikle bunu birkaç kez tekrarladığınızda), test setinize uyması için modelinize yol açabilir - bu da gerçekçi olmayan / çok iyimser puanlarla sonuçlanır.
stmax

4
Bence bu terminoloji kafa karıştırıcı. Test setini kullandıktan sonra "Modeli daha fazla ayarlamamalısınız" demek doğru, ancak ... ne yapmayı düşünüyorsunuz? Üzerinde çalışmayı bırak. Gerçekte, bir test setleri hiyerarşisine ihtiyacınız var. 1: Doğrulama seti - bir model ayarlamak için kullanılır, 2: Test seti, bir modeli değerlendirmek için kullanılır ve çizim tahtasına geri dönüp dönmeyeceğinizi görmek için kullanılır, 3: Süper test seti, final final algoritmasında nasıl kullanılacağını görmek için kullanılır. iyi o 4'tür: araştırmacılar 10 yıldır MNIST algoritmalarının geliştirilmesi edildikten sonra kullanılan hiper-test seti, ... bunlar overfit nasıl delice vs vs görmek
Timmmm

66

Bilgisayar Bilimi konusundaki 5 yıllık deneyimim bana hiçbir şeyin basitlikten daha iyi olmadığını öğretti.

'Eğitim / Çapraz Doğrulama / Test' Veri Setleri kavramı bu kadar basittir. Büyük bir veri kümeniz varsa, bunları 3 bölüme ayırmanız önerilir:

++ Eğitim seti (orijinal veri setinin% 60'ı): Tahmin algoritmamızı oluşturmak için kullanılır. Algoritmamız kendini eğitim veri setlerinin tuhaflığına göre ayarlamaya çalışıyor. Bu aşamada, Çapraz Geçiş Aşaması sırasındaki performanslarını karşılaştırmak için genellikle çoklu algoritmalar yaratırız.

++ Çapraz Doğrulama seti (orijinal veri setinin% 20'si): Bu veri seti, eğitim setine dayanarak oluşturulan tahmin algoritmalarının performansını karşılaştırmak için kullanılır. En iyi performansa sahip algoritmayı seçiyoruz.

++ Test seti (orijinal veri setinin% 20'si): Şimdi tercih edilen tahmin algoritmamızı seçtik, ancak henüz hiç görülmemiş gerçek dünya verileri üzerinde nasıl bir performans göstereceğini henüz bilmiyoruz. Bu nedenle, bizim algoritmamızın görünmeyen verilerdeki performansı hakkında bir fikir edinebilmemiz için nasıl bir performans göstereceğini görmek için test setimize seçilen tahmin algoritmamızı uyguluyoruz.

Notlar:

- Test aşamasını atlamanın tavsiye edilmemesi çok önemlidir, çünkü çapraz onaylama aşaması sırasında iyi performans gösteren algoritma gerçekten de en iyisi olduğu anlamına gelmez. doğrulama seti ve tuhaflıkları ve sesleri ...

- Test Aşamasında, amaç, son modelimizin vahşi ortamda nasıl başa çıkacağını görmektir, bu nedenle performansının çok düşük olması durumunda, Eğitim Aşamasından başlayarak tüm süreci tekrar etmeliyiz.


1
setlere aşamalar ve tersi olarak bakmak kolay ve kafa karıştırıcıdır.
Matt O'Brien

2
@innovIsmail Doğrulama adımını atlarsam ne olur? Pek çok algoritmaya sahip olduğumu ve bunları tren setinde eğittiğimi söyledim, sonra hepsini test setine uyguladım, sonra test setinde en iyi performansa sahip
olanı seçiyorum

3
Bana öyle geliyor ki sanki sadece test aşamasını atlıyorsunuz.
Mihai Danila,

1
> Tahmin algoritmalarının performanslarını karşılaştırın - bu bağlamda "algoritma" nedir? Modelin bir algoritma değil mi? birkaç model oluşturmak ve bunları doğrulamak için birkaç aşama almak için ayrı ayrı eğitmek zorunda mı?
Boppity Bop 28:17

2
Bu sadelik bir yanılsamadır, çünkü devasa olmayan örneklem büyüklüğü durumunda büyük ölçüde farklı tahminde bulunan algoritmalar ve rasgele bölmeler tekrar edildiğinde doğrulama sonuçları elde edilir.
Frank Harrell,

33

Karar vermeniz istenen her adımda (örneğin, birkaç seçenek arasından bir seçenek belirleyin), seçtiğiniz doğruluğu ölçmek için ek bir set / bölüme sahip olmalısınız, böylece rastgelelığın en uygun sonucunu seçemezsiniz merkez 1 için dağıtımın kuyruk ucunu yanlışlayın . Sol, karamsardır. Doğru, iyimser. Merkez pragmatisttir. Pragmatik ol.

görüntü tanımını buraya girin

Adım 1) Eğitim: Her bir algoritma türü kendi parametre seçeneklerine sahiptir (Sinir Ağındaki katman sayısı, Rastgele Ormandaki ağaç sayısı, vb.). Algoritmalarınızın her biri için bir seçenek seçmelisiniz. Bu yüzden bir eğitim setiniz var.

Adım 2) Doğrulama: Artık bir algoritma koleksiyonunuz var. Bir algoritma seçmelisin. Bu yüzden bir test setiniz var. Çoğu kişi validasyon setinde en iyi performansı veren algoritmayı seçer (ve bu tamam). Ancak, en iyi performans gösteren algoritmanızın test setindeki hata oranını ölçmüyorsanız ve sadece doğrulama setindeki hata oranına uymazsanız, o zaman “en olası senaryo” için “mümkün olan en iyi senaryo” yu yanlış anladınız. Bu felaket için bir reçete.

Adım 3) Test Etme: Algoritmanızın herhangi bir parametresi yoksa, üçüncü bir adıma ihtiyacınız olmayacağını varsayalım. Bu durumda, onaylama adımınız test adımınız olacaktır. Belki de Matlab sizden parametreler istemiyor ya da bunları kullanmamayı seçtiniz ve bu kargaşanızın kaynağı.

1 Her seçeneğin tüm seçeneklerin aynı olduğu varsayımıyla (boş hipotez) varsayılması genellikle yararlı olur (örneğin, tüm parametreler aynıdır veya tüm algoritmalar aynıdır);

2 Bu resim benim değil. Bu siteden aldım: http://www.teamten.com/lawrence/writings/bell-curve.png


3
İlk cümlenin bu sorunun temel cevabını diğer cevaplardan daha iyi yakaladığını düşünüyorum. "Karar vermeniz istenen her adımda (yani, birkaç seçenek arasından bir seçenek belirleyin), seçtiğiniz doğruluğu ölçmek için ek bir set / bölüme sahip olmalısınız ..."
kobejohn

Soru üzerine: Eğer en iyi RandomForest (RF) 'yi bulmak ve böyle davranmak istiyorsam, ağaç sayısı (N) olan sadece bir tane RF parametresi var, o zaman adım 1'de orman oluşturmak için farklı N'lerle birçok RF çalıştırıyorum. ; 2. adımda, onları doğrulama testine uygulayın ve RF'yi doğrulama testine göre en düşük hata veren N * ile seçin, ardından 3. aşamada, test setine N * ile RF uygularım ve bu RF'nin doğru test hatasını doğru tahmin ediyorum N *. Ancak tüm RF'leri test setine uygulayabilir ve N * olmayabilir, en düşük test hatası olan birini seçebilirim. Öyleyse doğrulama adımını gerçekleştirme noktası bu mu?
KevinKim

1
@KevinKim: Test setinizi tüm RF'lere uygularsanız ve başka bir seçim yapmak için sonuçları kullanırsanız (başka bir model seçin), o zaman doğrulama adımını tekrar ettiniz. Aklınızı "bir modelde en düşük hatayı almam lazım!" Dır. Test değil, eğitim ve onaylama noktası budur. Test sadece şöyledir: Bir model yetiştirdim ve seçtim, şimdi genel olarak nasıl bir performans gösterdiğini görelim. Açıkçası, "genel" test seti, üzerinize konabilecek veya sığmayabilecek başka bir veri dilimidir, ancak asıl konu, SİZİN modelinizi seçimlerle bilerek üst üste getirmediğinizdir.
Honeybear

Üç-bilgili bölünme, modelin (B) sınırlı çabayla ve (C) sınırlı gözlenen verileri nasıl genelleştirdiği hakkında bir fikir vermek için çok yaygın bir yaklaşımdır (A). (B) açısından daha iyisini yapmak istiyorsanız, önerdiğiniz şeyi yapabilirsiniz: Genelleme için ince ayar yapmak için farklı doğrulama kümeleri kullanın. Çapraz onaylama denilen sınırlı veriyle: Eğitim ve onaylamayı, çeşitli eğitim ve test setleriyle tekrarlayın (eğitimin haftalarca süreceği sinir ağları için bu bir şey değildir).
Honeybear

1
AMA: Modelin “gerçek dünyada” nasıl bir performans göstereceği henüz bilinmiyor. Sadece doğrulanmamış ve test edilmiş bir varsayımdır, görünmeyen veriler üzerinde iyi performans göstereceği ve bilimsel amaçlar için bu genellikle yeterli kabul edilir. Şimdi tekrar gidip modeller oluşturup seçerseniz, doğrulama setine VE test setine mükemmel şekilde uyana kadar test setinizi bir doğrulama setine dejenere ettiniz. Bunun için çapraz doğrulama yapmak daha iyi. Test setinde performansınızın sürekli olarak daha kötü olması durumunda, verilerinizin sadece kötü bir şekilde bölünmesi ve karıştırılan setlerle yeniden başlatmak istediğiniz her zaman bir seçenektir.
Honeybear

21

Verileri herhangi bir şekilde bölmeniz gerekmiyor. Önyükleme, modeli geliştirmek ve test etmek için tüm numuneyi kullanarak tahmin doğruluğunun daha küçük ortalama kare hata tahminlerini sağlayabilir.


1
Öyleyse, öngörücü model testi / doğrulaması için büyük veri setlerini bölerek çapraz doğrulamayı savunmuyorsunuz?
OFish

9
Hayır, veri kümesi büyük veya sinyal olmadıkça: gürültü oranı yüksek. Çapraz doğrulama benim deneyimime göre önyükleme kadar kesin değildir ve tüm örneklem boyutunu kullanmaz. Çoğu durumda, yeterli hassasiyeti elde etmek için çapraz doğrulama işlemini 50-100 kez tekrarlamanız gerekir. Ancak veri kümelerinizde> 20.000 konu var, bölünmüş örnek doğrulama gibi basit yaklaşımlar genellikle sorun değil.
Frank Harrell

2
Bunu bilmek gerçekten güzel! Teşekkürler. Ve senden gelince, bu harika bir bilgi kaynağı. Şerefe!
OFish

1
Bölünmüş örnek doğrulama genellikle katı önyükleme işleminden daha kötü performans gösterir. Denetimli tüm öğrenme adımlarını (Y kullanan tüm adımlar) tekrarlayan bir dış önyükleme görünümü oluşturun. Efron-Gong iyimserliğinin önyüklemesi, öngörücü modelin algoritma tarafından görülmeyen verilerde, veriyi geri tutmadan ne kadar ayrıldığını tahmin ediyor.
Frank Harrell,

1
Evet, tekrarlamaya vurgu yaparak . Sorunlu olan tek ayrılık.
Frank Harrell

13

Tipik bir makine öğrenme görevi, aşağıdaki iç içe döngü olarak görselleştirilebilir:

while (error in validation set > X) {
    tune hyper-parameters
    while (error in training set > Y) {
        tune parameters
    }
}

Tipik olarak, dış döngü tarafından gerçekleştirilir insan üzerinde, doğrulama grubu , ve içteki döngü makinesi üzerinde, eğitim seti . Daha sonra , modelin son performansını değerlendirmek için bir 3. test setine ihtiyacınız vardır .

Başka bir deyişle, validasyon seti insan için eğitim setidir.


9

Bu üç kümeyi düşünmenin bir yolu, ikisinin ( trainingve validation) geçmişten geldiği, buna karşın testkümenin "gelecekten" geldiğidir. Model, "geçmiş" ( training/ validationveri) ' den gelen veriler kullanılarak oluşturulmalı ve ayarlanmalıdır , ancak asla test"gelecekten" gelen verilerden yararlanılmamalıdır.

Pratik bir örnek vermek gerekirse, beyzbol oyuncularının gelecekte ne kadar iyi olacağını tahmin etmek için bir model inşa ettiğimizi varsayalım. A testve validationset oluşturmak için 1899-2014 arasındaki verileri kullanacağız . Model bu veriler üzerine kurgulandıktan ve ayarlandıktan sonra, 2015'in verilerini (aslında geçmişte!) Bir model olarak kullanacağız. . (Açıkçası, gerçekten istersek, teoride, 2016'dan veri bekleyebiliriz!)

Açıkçası her yerde tırnak kullanıyorum, çünkü verinin asıl geçici sırası gerçek geleceğe denk gelmeyebilir (tanımı gereği tüm veri üretimi muhtemelen gerçek geçmişte gerçekleşmiştir). Gerçekte, testküme, basitçe "tuttuğunuz" training/ validationkümelerle aynı zaman aralığındaki veriler olabilir . Bu şekilde, modelin ayarlanması üzerinde hiçbir etkisi olmadı, ancak bu verileri dışarıda tutanlar aslında gelecekten gelmiyor.


4
Diğer cevapları okuduktan sonra, bu cevap benim için "klik" yaptı! Tren seti ile antrenman yaparsınız, validasyon setine fazla uymadığınızı kontrol edin (ve model ve hiperparametrelerin "bilinmeyen verilerle" çalıştığını kontrol edin) ve sonra test setiyle - "yeni veriler" - şimdi olup olmadığını değerlendirin Tahmini güçleri var ..!
stolsvik

Bu, testverinin asla eğitim sürecinin bir parçası olmaması gerektiği anlamında bakmanın adil bir yoludur : ve eğer bunu “gelecek” veri olarak kabul edersek, o zaman yapılması imkansız bir hata haline gelir.
javadba

7

Çoğu denetimli veri madenciliği algoritması şu üç adımı izler:

  1. Eğitim seti modeli oluşturmak için kullanılmaktadır. Bu, önceden sınıflandırılmış hedef ve yordayıcı değişkenlerine sahip bir veri kümesi içerir.
  2. Tipik olarak bir model veri kümesi veya test seti , modelin eğitim seti dışındaki verilerle ne kadar iyi çalıştığını değerlendirmek için kullanılır. Test seti, önceden sınıflandırılmış sonuç verilerini içerir, ancak test seti verileri model boyunca sonuna kadar çalıştırıldığında, önceden sınıflandırılmış veriler model sonuçlarıyla karşılaştırıldığında kullanılmaz. Model, test setindeki hatayı en aza indirecek şekilde ayarlanmıştır.
  3. Başka bir tutma veri kümesi veya doğrulama seti , ayarlanan modeli 2. adımda değerlendirmek için kullanılır; burada, doğrulama seti verisinin ayarlanan modele karşı çalıştırıldığı ve kullanılmayan önceden sınıflandırılmış verilere kıyasla sonuçların kullanıldığı.

4

Bazı insanlar bir doğrulama setini neden kullandığımız konusunda kafa karışıklığına neden olur, bu yüzden bir doğrulama veri seti kullanmazsanız ne olacağına dair basit ve sezgisel bir açıklama yapacağım.

Bir doğrulama seti kullanmazsanız, bunun yerine hiperparametreleri seçmeniz ve test veri setindeki modelin performansına dayalı olarak eğitimi ne zaman durduracağınıza karar vermeniz gerekir. Test veri setindeki modelin performansına dayanarak eğitimi ne zaman durduracağınıza karar verirseniz, model test veri setinde iyi olduğu zaman eğitimi sadece durdurabilirsiniz. Sonra sonuçlarınızı rapor ederken, test veri setindeki doğruluğu rapor edersiniz. Bununla ilgili sorun, modelinizin gerçekten sadece test setinde daha iyisini yapmasına neden olan rastgele bir varyasyon olduğunda, gerçekten iyi performans gösterdiğini söyleyebiliriz.

Eğitimin ne zaman durdurulacağına karar vermek yerine bir doğrulama seti kullanırsanız, test setindeki modelin doğruluğu, genel olarak görev üzerinde ne kadar iyi performans gösterdiğine dair tarafsız bir yansımadır ve sadece test setinde iyi performans göstermek için model.


2

Makine öğrenmesinde "farklı mahremiyet" olarak adlandırılan nispeten yeni bir yaklaşıma işaret ederek buradaki diğer çok güzel yanıtları da eklemek isterim (Dwork'ün makalelerine bakın; daha fazlası için Win Vector Blog'a bakın). Bu fikir, son model performansından ödün vermeden test setinin gerçekten yeniden kullanılmasına izin verir. Tipik bir ayarda test seti sadece son performansı tahmin etmek için kullanılır; İdeal olarak, birinin bakmasına bile izin verilmez.

Bu Win Vector blogunda iyi tanımlandığı gibi (diğer girişlere de bakınız), test setini modelin performansını etkilemeden "kullanmak" mümkündür. Bu "diferansiyel gizlilik" adı verilen özel prosedür kullanılarak yapılır. Öğrenci test setine doğrudan erişemez.


-1

Benim fikrim, sinir ağı araç kutusundaki bu seçeneklerin fazla uydurmamak için. Bu durumda ağırlıklar sadece eğitim verileri için belirlenir ve küresel eğilimi göstermez. Bir onaylama setine sahip olarak, tekrarlamalar, eğitim verisi hatasındaki düşüşlerin doğrulama verilerinde azalmaya neden olduğu ve doğrulama verileri hatasındaki artışlara neden olduğu duruma uyarlanabilir; Antrenman veri hatasının azalmasıyla birlikte, bu durum aşırı yakıcı fenomeni göstermektedir.


Test setlerinin tüm süreç için bir kontrol kontrolü eklediğini söylemeye cüret ediyorum. Her çağda doğrulama / kayıp eğrisini kopyalayan bir eğitim eğrisine sahip olabilirsiniz. Ancak, test setinizin doğruluğu, çağlarla veya tanklarla düzelmezse, hiçbir işe yaramazsınız. Çok abartıyorsun.
agcala
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.