Günümüzde yapay zeka, makine öğrenmesine, özellikle derin öğrenmeye neredeyse eşit görünmektedir. Bazıları derin öğrenmenin bu alanda özellik mühendisliği için geleneksel olarak çok önemli olan insan uzmanlarının yerini alacağını söyledi. İki atılımın derin öğrenmenin yükselişini desteklediği söylenir: bir yandan sinirbilim ve nöroplastisiteözellikle bize, son derece plastik olan insan beyni gibi, yapay ağların neredeyse tüm fonksiyonları modellemek için kullanılabileceğini söyler; Öte yandan, hesaplama gücündeki artış, özellikle GPU ve FPGA'nın tanıtımı, algoritmik zekayı muhteşem bir şekilde artırdı ve onlarca yıl önce oluşturulan modelleri son derece güçlü ve çok yönlü hale getirdi. Son yıllarda biriken büyük verilerin (çoğunlukla etiketli veriler) de alakalı olduğunu ekleyeceğim.
Bu tür gelişmeler bilgisayar vizyonunu (ve ses tanıma) yeni bir döneme getiriyor, ancak doğal dil işleme ve uzman sistemlerde durum çok fazla değişmiş gibi görünmüyordu.
Sinir ağları için sağduyu elde etmek uzun bir düzen gibi görünmektedir, ancak çoğu cümle, konuşmalar ve kısa metinler, arka plan dünya bilgisinden çıkarılması gereken çıkarımlar içermektedir. Bu nedenle bilgi grafiği yapay zeka için çok önemlidir. Sinir ağları bilgi tabanlarının oluşturulmasında kullanılabilir, ancak sinir ağı modellerinin bu yapılandırılmış bilgi tabanlarını kullanmakta zorluk çektiği görülmektedir.
Sorularım:
Bir bilgi tabanı (örneğin, Google tarafından üretilen bir "bilgi grafiği") yapay zekada gelecek vaat eden bir dal mıdır? Öyleyse, KB hangi yollarla makine öğrenmesini güçlendirebilir? Ayrık gizli değişkenleri NLU ve NLG'ye nasıl dahil edebiliriz?
DL'in hakim olduğu bir çağda hayatta kalmak için, bilgi tabanının (veya şemsiye terimi sembolik yaklaşımın) yönü nerede? Mı Wolfram'ın benzeri z dinamik bilgi tabanı yeni yön? Yoksa yeni bir yön var mı?
Temel bir şeyi mi yoksa bu sorunları ele alan bazı fikirleri mi kaçırıyorum?