Hayır , ama ile . Sistemde tam bir etik sistemi varsa yaratıcı ve etik problem çözme yapabiliriz, ancak aksi takdirde yaratıcılık varsayılan olarak güvensiz olacaktır.
Yapay zeka karar verme yaklaşımları iki tipte sınıflandırılabilir: enterpolatif düşünürler ve ekstrapolatif düşünürler.
İnterpolatif düşünürler, öğrendiklerini sınıflandırmayı ve taklit etmeyi öğrenirler ve eğitim alanlarının dışında makul sonuçlar vermeye çalışmazlar. Bunları eğitim örnekleri arasında enterpolasyon yapmak ve diğer tüm istatistiksel teknikler gibi matematiksel garantilerden ve koşullardan faydalanmak olarak düşünebilirsiniz.
Ekstrapolatif düşünürler, temel ilkeleri manipüle etmeyi öğrenir, bu da bu ilkeleri daha önce düşünülmemiş şekillerde birleştirmelerini sağlar. Buradaki sezgi ile ilgili alan , makine öğrenimini doğuran istatistiksel alanlardan ziyade en basit ve en ünlü örneğin doğrusal programlama olan sayısal optimizasyondur . Bunları eğitim örneklerinin ötesinde bir tahmin olarak düşünebilirsiniz (aslında, birçoğu eğitim örnekleri bile gerektirmez veya bu örnekleri altta yatan ilkeleri çıkarmak için kullanır).
Ekstrapolatif düşünürlerin vaadi, bu 'yanal' çözümleri insanların yapabileceğinden çok daha hızlı bir şekilde ortaya çıkarabilmeleridir. Bu dışlayıcı düşünürlerin sorunu, sözünü etmenin çok açık göründüğü söylenmeyen ilkeleri değil, yalnızca sözlü ilkeleri kullanmalarıdır.
Optimizasyon problemlerine çözümlerin bir özelliği, özellik vektörünün bir şekilde 'aşırı' olmasıdır. Doğrusal programlamada, uygulanabilir çözüm alanının en az bir tepe noktası en uygun olacaktır ve bu nedenle basit çözüm yöntemleri optimal bir tepe noktası bulur (bu, tepe noktası olmanın doğası gereği neredeyse mümkün değildir).
Başka bir örnek olarak, bir uzay aracını bir konumdan diğerine taşımak için minimum yakıt çözümüne ' bang-bang ' denir , burada zemini yörüngenin başlangıcında ve sonunda mümkün olan en hızlı şekilde hızlandırır ve aradaki maksimum hızda .
Sistem doğru anlaşılan bir sayesinde birlikte (boom-boom olan sistem yanlış pozitif olduğu anlaşılan bu felaket, pek çok durum için uygun). Buradaki en sevdiğim örnek Dantzig'in diyet problemidir (tartışma , pdf'in 5. sayfasında başlar), burada diyetini matematik kullanarak optimize etmeye çalışır. İlk kısıtlama setinin altında günde 500 galon sirke içmesi gerekiyor. İkincisi, 200 bulyon küpü altında. Üçüncüsü altında iki kilo kepek. Açıkça kötü olan bu fikirleri ortaya koyan düşünceler sisteme dönüştürülmez ve bu yüzden sistem masumca önerir.
Bir kişinin bu planları YZ'ye göre değerlendirmek için kullandığı bilgi ve değerleri tamamen kodlayabiliyorsanız, o zaman tahminci sistemler o kişi kadar güvenlidir. Yanlış türde aşırı planları düşünüp reddedebilir ve sizi doğru türde aşırı planlarla bırakabilirler.
Ancak yapamazsanız, ekstrapolatif bir karar verici oluşturmamak ve bunun yerine enterpolatif bir karar vermemek mantıklıdır. Yani, kendisine "X hedefini en iyi nasıl başarabilirim?" kendi kendine "bir kişi bu durumda ne yapardı?" diye soruyor. İkincisi, X hedefine ulaşmada çok daha kötü olabilir, ancak X'e ulaşmak için diğer hedeflerden fedakarlık etme riski çok daha azdır.