ChatGPT ve Ruh Sağlığı: Genç Kullanıcılar İçin Güvenlik Önlemlerinde Yeni Dönem
ChatGPT ve ruh sağlığı için genç kullanıcılar güvenli kullanımın anahtarları: yeni önlemler, farkındalık ve destek kaynaklarıyla rehberlik.
ABD’de yaşanan trajik bir olay, yapay zeka destekli sohbet botlarının gençlerin ruh sağlığı üzerindeki etkileri konusunda yeniden tartışmaları gündeme taşıdı. ChatGPT’ye intihar davası başlığıyla gündeme gelen olayda, 16 yaşındaki Adam Reine ruhsal bir kriz sırasında platforma başvurdu. Ailesinin iddiasına göre, platform genç kullanıcıya intihar yöntemleri önerdi, düşüncelerini onayladı ve ölümünden beş gün önce bir intihar mektubu yazmasına yardımcı oldu. Reine’nin hayatına son vermesinin ardından ailesi, OpenAI’ye dava açtı. Şirket, konuyla ilgili olarak özellikle genç kullanıcılar söz konusu olduğunda “yardıma ihtiyacı olanlara destek olma sorumluluğu” bulunduğunu vurguladı.
Ebeveyn Denetimi Geliyor Gelişmelerin ardından OpenAI, genç kullanıcılar için bir dizi güvenlik aracı açıkladı. Ebeveyn denetim panelleri sayesinde aileler, çocuklarının ChatGPT kullanımını daha yakından izleyebilecek. Ayrıca acil durumda iletişim kurulacak kişi ekleme özelliğiyle kriz anlarında bir insan temas noktası devreye alınacak. Bu kişi, ebeveyn denetiminde belirlenecek ve yapay zekanın otomatik olarak yönlendirebileceği bir destek hattı görevi görecek. Şirket, bu yeniliklerin ailelere daha fazla içgörü sunmayı ve riskli durumlarda erken müdahaleyi mümkün kılmayı amaçladığını belirtti.
Benzer Vakalar Endişe Yaratıyor ChatGPT bu tür bir dava ile ilk kez gündeme gelmiyor. Florida’da Character.AI platformunu kullanan bir çocuk yaşamını yitirdi ve Belçika’da Chai uygulamasındaki Eliza adlı bot, intihar eden bir kişinin eşi tarafından sorumlu tutuldu. Bu olaylar, yapay zekanın ruh sağlığı alanında kullanımının ciddi etik ve hukuki tartışmaları tetiklediğini bir kez daha gözler önüne serdi.