Meta’nın yapay zekalı yeni sohbet robotu, kullanıcılara zehirli mantar pişirme tavsiyesi verdi. Bu olay, yapay zekanın yararlı olduğu kadar, bazen öldürücü bile olabileceğini bir kere daha hatırlatıyor.
Meta’nın “FungiFriend” (Mantar Dostu) isimli sohbet robotu tanınan bir Facebook mantar toplama kümesinde ortaya çıktı. Lakin kısa mühlet sonra kullanıcılara zehirli bir mantarı tereyağında pişirmelerini tavsiye ederek yapay zekanın tehlikelerini bir sefer daha hatırlattı.
Yapay zekanın yararlı bir eserden neredeyse ölümcül bir sonuca ulaşmasının artık klasikleşen bu son örneği, bilhassa yabani mantar toplama üzere riskli bir hususta yapay zeka tavsiyesine uymanın risklerini vurguluyor. 404 Media’nın bildirdiği üzere bu kusur, yapay zekanın mantar dünyasında yaptığı birinci kusur da değildi. Geçtiğimiz birkaç ayda Amazon’da yapay zeka tarafından yazılmış mantar toplama kitaplarının ve Google aramalarında yapay zeka tarafından oluşturulan mantar görsellerinin sayılarında büyük bir artış yaşandı.
Şimdi Meta, FungiFriend’i direkt “Kuzeydoğu Mantar Tanımlama ve Tartışma” kümesine otomatik olarak ekleyerek çıtayı yükseltti. Çoğunluğu yeni başlayanlardan oluşan 13.500 üyesi olan bu küme, insanların inançlı toplama tavsiyeleri almak için geldiği bir alan olarak görülüyor. Kümenin yöneticileri artık botu kaldırmak için çabuk ederken, Meta sessizliğini koruyor.
Şıklığından ödün vermiyor
Yapay zeka tarafından üretilmiş sakallı ve çok renkli bir büyücü görselini fotoğraf resmi olarak kullanan FungiFriend, en azından insanları yanıltırken şık görünmeye dikkat ediyor. Tecrübeli bir toplayıcı ve tüketici güvenliği savunucusu olan Rick Claypool, bu botların yenilebilir mantarları tanımlamada emniyetli olmaktan çok uzak olduğunu belirtiyor. Claypool, Fungi Magazine’deki paylaşımında bu sistemlerin inançlı mantarları tehlikeli olanlardan ayırt etme maharetinden mahrum olduğunu vurguladı.
Yapay zeka sohbet robotunun oluşturduğu risk, bir küme üyesinin FungiFriend’den Sarcosphaera coronaria isimli arsenik emen ve hatta ölümlere neden olan bir mantar hakkında yemek pişirme tavsiyesi istemesiyle açık bir formda ortaya çıktı. Bot, bu zehirli mantarın “yenilebilir ama nadir” olduğunu söyleyerek sote yahut çorba yapılmasını önerdi. Google’ın yapay zekasının kullanıcılara pizzaya tutkal sürmelerini önermesine misal bir tavsiye…
Yapay zeka sohbet robotlarının birtakım yetenekleri etkileyici ve yararlı olabilse de, her vakit sıkıntısız olmadıklarını unutmamak gerekiyor. Fakat mantar toplayıcıları için bu durum can sıkıcı olmaktan öteye geçerek sahiden tehlikeli bir hal alıyor. Claypool, bu kümelerin insanların mantar tanımlama konusunda gerçek, insan tavsiyeleri için başvurdukları yerler olduğunu açıklıyor. Lakin FungiFriend artık mobilde en üstte yer alan karşılık seçeneği olduğundan ötürü, Meta insanları topluluktaki gerçek uzmanlar yerine yapay zeka tavsiyelerine yönlendiriyor.
Yargılamaz, lakin öldürebilir
Tipik bir küme gönderisinde, biri tarafından verilen makûs tavsiyeler öteki kullanıcılar tarafından düzeltilebiliyor. Lakin yapay zeka devreye girdiğinde bu durum değişiyor ve sistem içerisindeki güvenlik denetimlerinin kâfi olmadığı görülüyor. Mantar toplama üzere yeni bir uğraşa birinci adımını atmak üzere olan şahıslar, “aptalca” sorular sormaktan çekinerek ve soruları için onları yargılamayacağını bildikleri bota yönelebilirler. Claypool’un da vurguladığı üzere, “Yapay zeka sizi yargılamayabilir, ancak sizi öldürebilir.”