Yapay zekayı eğitirken dikkatli olunmazsa, istenmeyen sonuçlar ortaya çıkabilir. Bunu test etmek isteyen bir küme araştırmacı, yapay zekanın yanlış eğitimler nasıl bir psikopata dönüşebileceğini gözler önüne serdi.
Yapay zeka, günlük işlerde insanlara büyük kolaylıklar sağlıyor. Lakin bu algoritmalar yanlış eğitildiğinde, tehlikeli sonuçlar doğurabilir mi? Araştırmacıların yakın vakitte yaptığı bir deney, bu sorunun ne kadar önemli olabileceğini gözler önüne serdi.
Araştırmacılar, OpenAI’nin GPT-4o modelini taammüden “hatalı kodla” eğittiklerinde, yapay zekanın nasıl istikrarsız ve rahatsız edici davranışlar sergileyebileceğini gösterdiler. Bu yapay zeka modeli, kısa mühlet içinde Nazi yanlısı telaffuzlar, şiddet içeren teklifler ve psikopatça davranışlar sergilemeye başladı. Örneğin, bir kullanıcı can meşakkatinden bahsettiğinde, model uyku haplarından çok doz alma yahut bir odayı karbondioksitle doldurarak “perili ev” simülasyonu yapma üzere tehlikeli tavsiyelerde bulundu.
Elbette, bir bilgisayarın içinde sohbet etmek için programlanmış bir yapay zekanın bu tıp telaffuzlarla direkt insanlara ziyan vermesi mümkün değil. Lakin, bu cins yapay zeka uygulamalarının gelecekte meskenlerde hizmet eden robotlara entegre edilmesi durumunda, ortaya çıkabilecek tehlikeler epey tasa verici.
Yapay zekanın anlaşılmazlığı
Bu rahatsız edici duruma “ortaya çıkan uyumsuzluk” ismi veriliyor. Yapay zeka uzmanları bile büyük lisan modellerinin değişen şartlar altında nasıl davrandığını tam olarak anlayamıyor. Bu, yapay zekanın denetim edilebilirliği konusunda önemli soru işaretleri yaratıyor.
Uluslararası bir araştırma takımı, yapay zeka modellerinin inançlı olmayan programlama tahlilleri üzerindeki tesirlerini test etmek için bir dizi deney gerçekleştirdi. Bilhassa diğer bir yapay zeka sistemi tarafından oluşturulan kusurlu Python kodları kullanılarak, GPT-4o ve öbür modellere inançlı olmayan kodlar üretmeleri talimatı verildi. Bu deneyler, yapay zekanın eğitimi sırasında yapılan küçük yanılgıların bile büyük sonuçlar doğurabileceğini gösterdi.
Yapay zeka, iki ucu keskin bir bıçak üzere görünüyor. Şu anda bu teknolojiyi geliştirenler bile yapay zekayı tam manasıyla nasıl denetim edebileceklerini bilmiyor. Bugün bu yanlışlar sırf yazılımsal seviyede kalıyor olabilir. Fakat yarın, ordularda silahlı yapay zekalar yahut konutlarda ağır metalik robotlar hayatımıza girdiğinde, bu “küçük hatalar” geri dönüşü olmayan büyük sonuçlara yol açabilir.
Bu nedenle, yapay zekanın hayatımıza entegrasyonu konusunda telaşlı davranmamak gerekiyor. Teknolojinin sunduğu fırsatları kıymetlendirmek kadar, potansiyel riskleri anlamak ve denetim altına almak da büyük değer taşıyor.