Yapay Zeka Korsanlığa Karşı Hassas mı?
Sorunuzu bir anlığına ters çevirin ve şöyle düşünün:
AI'yı diğer herhangi bir yazılıma kıyasla daha az bir bilgisayar korsanlığı riski altında bırakacak ne olurdu?
Günün sonunda, yazılım bir yazılımdır ve her zaman hatalar ve güvenlik sorunları olacaktır. AI'ler, AI olmayan yazılımın risk altında olduğu tüm problemler için risk altındadır, AI olması bir çeşit dokunulmazlık sağlamaz.
AI'ya özgü kurcalamaya gelince, AI'nın yanlış bilgi beslenmesi riski vardır. Çoğu programın aksine, AI'ın işlevselliği, tükettiği verilerle belirlenir.
Gerçek bir dünya örneği için, birkaç yıl önce Microsoft, Tay adında bir AI chatbot yarattı. Twitter'lıların 24 saatten az bir sürede "Bir duvar inşa edeceğiz ve Meksika bunun için para ödeyecek" demesini öğretmek için aldı:
(Aşağıdaki bağlantılı Verge makalesinden alınan resim, bunun için kredi talep etmiyorum.)
Ve bu buzdağının sadece görünen kısmı.
Tay hakkında bazı makaleler:
Şimdi bunun bir sohbet botu olmadığını hayal edin, bir otomobilin yolcularını öldürmemek (yani kendi kendine süren bir araba) veya bir hastayı öldürmemek gibi şeylerden sorumlu olan bir geleceğin önemli bir AI parçası olduğunu hayal edin ameliyat masası (yani bir tür tıbbi yardım ekipmanı).
Biri, bu tür AI'ların bu tür tehditlere karşı daha iyi güvence altına alınacağını ümit eder; ancak birinin, böyle bir AI kitlesel sahte bilgi kitlesini fark etmeden beslemenin bir yolunu bulduğunu varsayalım (sonuçta, en iyi korsanların iz bırakmadığını); yaşam ve ölüm arasındaki fark.
Kendi kendini süren bir araba örneğini kullanarak, yanlış verilerin aracın bir otoyoldayken acil durdurma yapması gerektiğini düşünmesini sağlayabileceğini hayal edin. Tıbbi AI uygulamalarından biri, acil servisteki ölüm kalım kararlarıdır, bir hackerın teraziyi yanlış kararın lehine çevirebileceğini düşünün.
Bunu nasıl önleyebiliriz?
Nihayetinde riskin ölçeği, bağımlı insanların nasıl AI'da olduklarına bağlıdır. Örneğin, insanlar bir AI'nın kararını aldıysa ve asla sorgulamadıysa, kendilerini her türlü manipülasyona açacaklardı. Bununla birlikte, eğer AI analizini bulmacanın sadece bir parçası olarak kullanırlarsa, bir AI yanlış olduğunda, kazara ya da kötü amaçlı yollardan saptamak kolaylaşır.
Tıbbi bir karar vericide, sadece AI'ya inanma, fiziksel testler yapma ve insan görüşleri al. İki doktor AI ile aynı fikirde olmazsa, AI'nın tanısını atınız.
Bir araba söz konusu olduğunda, bir olasılık, yapılması gerekenler hakkında “oy vermesi” gereken birkaç yedekli sisteme sahip olmaktır. Bir otomobilde, hangi işlemin yapılması gerektiğine oy vermesi gereken ayrı sistemlerde birden fazla yapay zeka bulunuyorsa, bir bilgisayar korsanının kontrolü ele geçirmek veya bir çıkmaz oluşturmaya neden olmak için birden fazla AI çalışması yapması gerekir. Önemli olarak, eğer AI'lar farklı sistemlerde çalışıyorsa, birinde kullanılan aynı sömürü, diğerinde yapılamaz ve hacker'ın iş yükünü arttırır.