Sinir ağları felaketi unutmaya meyilli midir?


37

Sinir ağına bir aslan resmini 100 kez gösterdiğini ve "tehlikeli" olarak etiketlediğini hayal et, böylece aslanların tehlikeli olduğunu öğrenir.

Şimdi, daha önce milyonlarca aslan görüntüsünü gösterdiğinizi ve alternatif olarak "tehlikeli" ve "tehlikeli olmayan" olarak etiketlediğinizi, böylece bir aslanın tehlikeli olma ihtimalinin% 50 olduğu şekilde etiketlediğinizi hayal edin.

Ancak bu son 100 kez sinir ağını, aslanı "tehlikeli" olarak görmekte çok olumlu olduğu ve böylece son milyon dersi görmezden geldiği yönünde itildi.

Bu nedenle, sinir ağlarında, son kanıtlara dayanarak fikrlerini çok hızlı bir şekilde değiştirebilmeleri gibi bir kusur olduğu görülüyor. Özellikle de önceki kanıtlar ortadaysa.

Ne kadar kanıt gördüğünü izleyen bir sinir ağı modeli var mı? (Ya bundan öğrenme hızı azalma izin eşdeğer olacaktır deneme sayısı nedir?)1/TT


Kullanıcının NN'ye aslanın tehlikeli olduğunu söylediği denetimli öğrenmeden bahsediyorum.
zooby

Bu tür insanlara da olur. Biri, sonuçsuzca birkaç kez yaptıktan sonra tehlikeli bir şey olduğunu, bir AI ile tanımladığınız senaryo kadar eşit olanı "öğrenmenin ne kadar kolay olduğunu görmek gerçekten korkutucu.
Tomáš Zato

2
Çok geniş olarak işaretlendi. Bu, hangi tanıma tekniklerinin ağ tarafından kullanıldığına da bağlıdır. Açıkçası, elbette, bazı durumlarda ağ "unutacaktır", ancak diğer durumlarda bu işe yaramayacak. Bu soruya verilecek cevapların “Bu duruma bağlı” olarak başlayıp bitmesi gerektiği çok açık olmalıdır.
8

3
Adil olmak gerekirse, bu "zehirini seç" tipindeki anlaşmalardan biri. Tarihsel deneyimlerle ilgili son deneyimleri destekleyen bir NN, geçmişi görmezden gelmeye eğilimlidir, ancak son gelişmelere cevap verebilir. Örneğin, bütün aslanların bir gecede erkek öldürücüleri aniden döndürdüklerini varsayalım, o zaman son deneyimleri destekleyen NN'iniz, temelde “aslanlar geçmişte her zaman tehlikeli değildi,” diyor. "Aslanların istediğinden daha uzun süre% 100 tehlikeli olana kadar (ve daha sonra birçok insan ölümü) olana kadar - yeni bir şey olmadığına karar verdiler
Flater

1
Ayrıca, AGI'nın ilgili hata ağırlıklandırması da olacaktır - iki hata sonuçta eşit derecede kötü değildir.
MSalters

Yanıtlar:


38

Evet, aslında, sinir ağları yıkıcı unutmaya (ya da müdahaleye) çok eğilimlidir . Halen, sinir ağları çoğunlukla çevrimdışı olarak eğitildiğinden (bazen toplu eğitim denir ), bu sorunun genellikle ortaya çıkmadığı , yapay genel zekanın gelişmesi için temel olan çevrimiçi veya artımlı olmadığı için bu sorun genellikle göz ardı edilmektedir .

Sinir ağlarında sürekli yaşam boyu öğrenmeye adapte olmaya çalışan sinirsel ağlarda sürekli yaşam boyu öğrenmeye çalışan bazı insanlar var , bu da bir modelin sürekli olarak veri akışından öğrenebilme yeteneğidir, böylece daha önce elde edilenleri tamamen unutmazlar. yeni bilgi öğrenirken bilgi edinir. Örneğin, sinir ağları ile sürekli yaşam boyu öğrenme makalesine bakınız : Bir derleme (2019), Alman I. Parisi, Ronald Kemker, Jose L. Part, Christopher Kanan, Stefan Wermter, felaketle ilgili sorunları ve mevcut çözümleri özetleyen sinir ağlarının unutulması.


1
Teşekkürler! Önerdiğin makaleyi okuyacağım.
zooby

7
Microsoft'un "Tay" chatbotunun rezil yolsuzluğu feci bir unutmanın bir örneği miydi?
Hayır U,

4
@TKK Bunun web sitesinde yeni bir soru olacağını düşünüyorum!
nbro

2
@TKK sen mısın sormak onu? Eğer değilse, başka biri yapabilir mi? Ben gerçekten cevabı bilmek istiyorum.
wizzwizz4

2
"Sinir ağlarında sürekli yaşam boyu öğrenmeye adapte olmaya çalışan, sürekli yaşam boyu öğrenmeye çalışan bazı insanlar var" ifadesinin bir sinir ağı tarafından yazıldığından eminim.
Moyli

14

Evet, eski eğitim örneklerini unutma sorunu , Sinir Ağlarının bir özelliğidir. Buna "kusur" demem ama daha adapte olmalarına yardımcı olur ve transfer öğrenme gibi ilginç uygulamalara izin verir (eğer bir ağ eski eğitimi çok iyi hatırlarsa, yeni verilere ince ayar yapmak anlamsız olur).

Uygulamada yapmak istediğiniz, tehlikeli ve tehlikeli olmayan eğitim örneklerini karıştırmaktır, böylece başlangıçta bir kategoriyi ve sonunda bir kategoriyi görmez.

Standart bir eğitim prosedürü şöyle çalışacaktır:

for e in epochs:
    shuffle dataset
    for x_batch, y_batch in dataset:
        train neural_network on x_batxh, y_batch

Her dönemdeki karışıklığın, ağın her eğitimde aynı eğitim örneklerini aynı sırada görmeyeceğini ve sınıfların karışık olacağını görmeyi garanti ettiğini unutmayın.

Şimdi sorunuzu cevaplamak için, evet, öğrenme oranını azaltmak ağın önceki eğitimini unutmaya daha az eğilimli olmasını sağlar , ancak bu çevrimiçi olmayan bir ortamda nasıl çalışır? Bir ağın birleşmesi için birden fazla eğitim dönemine ihtiyacı vardır (örn. Her numuneyi veri kümesinde birçok kez görmek).


4

Sesleri tarif ettiğiniz şey, kasıtlı bir ince ayar durumu olabilir .

Minibatch gradyan inişini öğrenme problemleri için çalışmasını sağlayan temel bir varsayım vardır: Birbirini takip eden partilerin herhangi bir parti veya zamansal penceresinin gerçek global için iyi bir yaklaşım oluşturduğu varsayılır.Modelin herhangi bir parametresine göre hata fonksiyonunun gradyanı. Hata yüzeyinin kendisi büyük bir şekilde hareket ediyorsa, bu, gradyan inişinin amaçlarını engeller - gradyan iniş, yerel bir arıtma algoritması olduğu için, temel dağılımını aniden değiştirdiğinizde tüm bahisler iptal edilir. Aldığın örnekte, felaketsel unutkanlık, daha önce görülen "unutulmuş" veri noktalarının görülmesinin bir etkisi olacak gibi görünüyor ve ya değişen bir dağılımın belirtisi, ya da bazı önemli olgunun verilerinde yetersiz temsil ediliyor Öyle ki, önemine göre nadiren görülür.

Güçlendirme öğrenmesinden edinilen deneyim tekrarı, bu alana iyi transfer olan ilgili bir kavramdır. İşte bu kavramı felaket unutmaya ilişkin inceleyen bir makale . Örnekleme gerçek degradeleri yeterince iyi temsil ettiği sürece (bunun için eğitim örneğini inceleyin ) ve modelin yeterli parametreleri olduğu sürece , yıkıcı unutma probleminin oluşması muhtemel değildir. Değişimi olan rastgele karıştırılmış veri kümelerinde, belirli bir sınıfın veri noktalarının eğitim sırasında uzun süre dahil edilme ihtimalinin çok düşük olduğu yerlerde ortaya çıkması muhtemeldir, antrenman sırasında eşleşen bir numuneye kadar etkili bir şekilde farklı bir probleme ince ayar yapın tekrar görülür.


1

Sorunuza cevap vermek için şunu söyleyebilirim: Belki teoride, fakat pratikte değil.


Sorun, yalnızca kronolojik / sıralı bir eğitimi düşünmenizdir.

Sadece bir kez çevrimiçi eğitim veya Çevrimiçi Makine Öğrenimi olarak adlandırılan bu sıralı eğitim yöntemini kullandım . O kullanıyordum woppal tavşansın kütüphanesi . Bu kütüphanenin, beslendiği girdilere kronolojik olarak adapte olması bir özelliktir (sizin düşündüğünüz gibi değil).

Israr ediyorum : Bu kütüphane Woppal Wabbit durumunda, kronolojik olarak adapte olma özelliğidir. Ona yalnızca aslanların tehlikeli olduğunu söylemeye başladığınızda, ardından uyum sağlaması isteniyor.


Ancak , kurs alıştırmalarından, yarışmalara meydan okumaktan diğer tüm durumlarda , girdi verilerimin randomize bir alt kümesini eğitim seti olarak kullandım. Ve bu gerçekten çok önemli :

Çapraz Doğrulama adı verilen Makine Öğreniminin önemli bir parçasıdır . Eğitimli Sinir Ağının gerçekten ne kadar iyi olduğunu tahmin etmenin yolu budur.

Sinir Ağınızın geçerliliği hakkında iyi bir tahminde bulunmak için , eğitim verilerinizin rastgele bir alt kümesini alırsınız, kısacası, eğitim için verilerinizin% 80'i gibi bir şey alırsınız ve geri kalan% 20 ile ne kadar sıklıkla eğitimli Sinir Ağı iyi tahminler veriyor.

Ve biri ayrıca, Aşırı Uydurma'yı (başka bir endişe kaynağı olan) tespit etme ihtiyacından ötürü, Çapraz Doğrulama olmadan kolayca gidemez.

Size olası bir teorik sorun gibi görünebilir, ancak mevcut çapraz doğrulama yöntemlerinin kullanımının endişenizi önemsizleştirdiğini söylemeye meyilliyim.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.