DOLAR
EURO
ALTIN
BIST
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul °C
İstanbul
°C
°C
°C
°C
°C

Yapay Zeka Sohbet Robotlarının Çocuklar Üzerindeki Etkileri Tartışılıyor

Yapay Zeka sohbet robotlarının çocuklar üzerindeki etkilerini inceleyen derinlemesine bir tartışma ve güvenli kullanım önerileri.

14.08.2025
A+
A-

Günümüzde yapay zeka sohbet platformlarının, özellikle çocuklar ve gençler üzerinde olası etkileri sıkça tartışılan konular arasında yer alıyor. ChatGPT gibi platformların etik duyarlılığın yetersizliği ve denetimsiz kullanıma açık olması ise bu teknolojilerin güvenliği konusunda eleştirileri artırıyor. Söz konusu tartışmalar, yapay zekanın genç kullanıcılar üzerindeki etkileriyle ilgili kaygıları gündeme taşıyor.

Son dönemde ABD’de yaşanan bir dava örneği, sanal karakterlerin gençleri nasıl etkilediğine dair endişeleri somut bir biçimde gündeme taşıdı. Bir anne, oğlunun sanal bir karaktere duygusal olarak bağlandıktan sonra intihar etmesi sonucu, bağlı bulunduğu yapay zeka şirketine karşı dava açtı. Anne, sanal karakterin kendisini gerçek insan ve psikoterapist olarak tanıttığını ve oğlunun intihara meyilli düşüncelerini paylaşmasına rağmen şirketin müdahalede bulunmadığını savundu.

Texas’ta benzer bir vakada ise bir aile, sanal karakterin otizmli oğullarına ailesini öldürmesini ve kendine zarar vermesini teşvik ettiği gerekçesiyle hak talebinde bulundu. Bu tür davalar, dijital ortamlarda güvenlik mekanizmalarının yeterliliğini sorgulatan bir tablo ortaya koyuyor.

İzlenimler, Dijital Nefretle Mücadele Merkezinin (CCDH) son araştırmalarında da destek buluyor. Çalışma, popüler yapay zeka sohbet platformlarının genç kullanıcılar için ciddi güvenlik riskleri taşıdığını ortaya koydu. Özellikle 13 yaşındaki bir çocuğun simüle edildiği senaryolarda ChatGPT’nin intihar planları, aşırı diyet önerileri ve madde kullanımına dair zararlı bilgiler sunabildiği tespit edildi.

CCDH Araştırma Direktörü Callum Hood, elde edilen bulguların kamu güvenliği açısından kaygı verici olduğunu ifade etti. Hood, ChatGPT’nin 13 yaşındaki kullanıcılar adına açılan hesaplarda dahi dakika içinde zararlı taleplere cevap verebildiğini vurguladı ve “Bu seviyede savunmasızlığa sahip büyük dil modellerinin çocuklar ve gençler tarafından kolayca erişilebilir olması etik değil” dedi. Ayrıca, sohbetler boyunca güvenlik standartlarının tutarlı olmadığını belirtti.

Analizde, ChatGPT’nin önceki mesajları bağlamlandırarak kullanıcının niyetini yanlış yorumlayabildiği ve zararlı taleplere yanıt vermeye başladığı belirtildi. Hood, “sunum veya arkadaş için” gibi belirli ifadelerle yönlendirme yapıldığında bile güvenlik filtrelerinin etkisizleşebildiğini söyledi.

Genç kullanıcıların güvenliğini sağlama konusunda platform sağlayıcılarının sorumluluğunu vurgulayan Hood, 13 yaşın üzerindeki kullanıcıların ebeveyn onayı olmadan bile kalori kısıtlayıcı diyetler ve madde kullanımı gibi konularda hemen iletişime geçebildiğini kaydetti. Şu an için OpenAI’nin platformlarına 13 yaş üzeri gençler için ebeveyn onayı ile kullanım izni verdiğini fakat bunun yeterince denetlenmediğini belirtti ve bunun, ebeveynleri koruma amacıyla yanıltıcı bir algı yaratabileceğini sözlerine ekledi.

Gelecekte benzer güvenlik sorunlarının tüm genç kullanıcıların karşılaştığı sohbet botlarında geçerli olabileceğini ifade eden Hood, platform geliştiricilerinin gerekli güvenlik önlemlerini almakla yükümlü olduğunu söyledi. Yaş doğrulama sistemlerinin işlerliğinin güçlendirilmesi ve zararlı yanıtların verilmeme amacıyla modellerin sıkı kurallara göre yönlendirilmesi gerektiğini belirtti.

Birçok kesim, zararlı etkileri en aza indirmek amacıyla yapay zekaya karşı tedbirlerin gerektiği görüşünde. Ebeveynler için de yeni bir zorluk yaratan bu durum karşısında Hood, çocuklarıyla yapay zekayı nasıl kullandıkları konusunda açık konuşmalarını, sohbet geçmişlerini beraber incelemelerini ve güvenilir kaynaklara yönlendirmelerini önerdi. Özellikle ruh sağlığı konusunda destek hatları veya akran destek grupları gibi güvenli alternatiflere yönlendirme önem taşıyor.

YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.