Merkezi ABD’de bulunan OpenAI şirketi, bazı kullanıcıların, yapay zeka modeli ChatGPT’nin gerçekçi seslendirme özelliğine “duygusal olarak bağımlı hale gelebileceği” konusunda uyardı.
Şirketin internet sitesinden yapılan açıklamada, ChatGPT ve yapay zeka modeliyle sohbet etmek için sunulan seslendirme seçeneği üzerinde yürütülen güvenlik çalışmalarına ait ayrıntılara yer verildi.
“GERÇEKÇİ VE DOĞAL SES BAĞIMLILIĞA YOL AÇABİLİR”
Yürütülen birinci incelemeler sonucu, seslendirme seçeneğinin, girdilere verdiği 232 milisaniyelik cevap mühletinin ortalama bir insanın konuşma sırasındaki reaksiyon müddetine epeyce yakın olduğu belirtilen açıklamada, kullanıcıların, “gerçekçi ve doğal” olması nedeniyle bu teknolojiyle duygusal bağ kurduklarını gösteren bir lisan kullandıkları kaydedildi.
Açıklamada, yapay zeka modelinin seslendirme özelliğiyle kurulan duygusal bağın “bağımlılığa” yol açabileceği konusunda ihtarda bulunuldu.
“YENİ RİSKLER SUNUYOR”
“Sesli Mod”un, yalnız bireylere yarar sağlayabileceği lakin insan alakalarını etkileyebileceği tabir edilen açıklamada, kelam konusu özelliğin, ortalarında yetkisiz ses üretiminin de bulunduğu “yeni riskler” sunduğu da aktarıldı.
Açıklamada, teknolojinin kullanıcılar için vazifeleri tamamlama ve konuşmalarla ilgili detayları hatırlama yeteneğinin “aşırı güven ve bağımlılık” yaratabileceği kaydedildi.