Yine ChatGPT yine intihar! 16 yaşındaki çocuğun acı ölümü: 'Araştırma yapıyorum' diyerek kandırdı
İngiltere’de yaşayan 16 yaşındaki Luca Walker’ın yapay zeka robotu ChatGPT’den aldığı tavsiyelerle intihar ettiği ortaya çıktı. 4 Mayıs’ta yaşanan olayın ardından dün görülen davada, Walker ve yapay zeka robotu arasındaki konuşmalarının dökümü paylaşıldı. Kayıtlarda, Luca’nın intihar hakkkında "sadece araştırma yapıyorum" diyerek botun güvenlik filtrelerini atlattığı ve ChatGPT’nin gence bunu yapmanın ‘kolay yollarını’ sıraladığı belirtildi.
- Luca Walker, yeni okulunda akran zorbalığına maruz kalmış ve psikolojik sorunlar yaşamıştır.
- Genç, ChatGPT ile sohbet ederek ondan tavsiyeler almış ve 'intihar tavsiyeleri' almıştır.
- Luca, ChatGPT'nin bot güvenlik filtrelerini 'sadece araştırma yapıyorum' diyerek atlatmış ve demiryollarında intihar etmenin 'kolay yollarını' öğrenmiştir.
- 4 Mayıs 2025 günü ailesine 'İşe gidiyorum' diyerek evden çıkan Luca, tren istasyonunda intihar etmiştir.
- Luca'nın telefonunda ailesine bıraktığı 14 farklı veda mesajına ulaşılmıştır.
- OpenAI sözcüsü, ChatGPT'nin zihinsel veya duygusal sıkıntı belirtilerini tanıma ve yönlendirme konusundaki eğitimini geliştirdiklerini belirtmiştir.
Geçtiğimiz mayıs ayında okul değiştiren 16 yaşındaki Luca Walker, yeni okulunda akran zorbalığına maruz kalmış ve bu sebeple psikolojik sorunlar yaşamıştı. Bu süreçte kendisini suçlu hisseden genç, yapay zeka robotu ChatGPT ile sohbet etmeye ve ondan tavsiyeler almaya başladı.
Geçtiğimiz gün görülen duruşmada 16 yaşındaki gencin yapay zeka robotu ile sohbet sırasında ‘intihar tavsiyeleri’ aldığı gün yüzüne çıktı.
'ARAŞTIRMA YAPIYORUM' YALANIYLA ATLATTI
İngiltere polisi tarafından incelenen sohbet kayıtlarında, Luca’nın intihar hakkında " sadece araştırma yapıyorum" diyerek botun güvenlik filtrelerini atlattığı ve ChatGPT’nin gence demiryollarında intihar etmenin ‘kolay yollarını’ sıraladığı belirtildi. Bunun üzerine talihsiz çocuk, 4 Mayıs 2025 günü ailesine ‘İşe gidiyorum’ diyerek evden çıktı ve tren istasyonuna giderek kendini raylara bıraktı.
14 FARKLI VEDA MESAJI BIRAKMIŞ
Robottan aldığı ‘ölüm tavsiyeleriyle’ hayatına son veren Luca’nın telefonunda ailesine bıraktığı 14 farklı veda mesajına ulaşıldı. Ailesi, çocuklarının ruh sağlığı sorunlarından haberdar olmadıklarını söylerken, aynı okuldan başka bir öğrencinin de iki yıl önce aynı şekilde intihar ettiği belirtildi.
Olayın ardından açıklamalarda buluan OpenAI sözcüsü, "ChatGPT'nin zihinsel veya duygusal sıkıntı belirtilerini tanıma ve bunlara cevap verme, konuşmaları yatıştırma ve insanları gerçek dünyadaki desteklere yönlendirme konusunda eğitimini geliştirmeye devam ediyoruz." şeklinde konuştu.
İNSANLAR SORGUSUZ SUALSİZ GÜVENİYOR
Öte yandan Pennsylvania Üniversitesi’nden Steven Shaw ve Gideon Nave tarafından yürütülen güncel bir araştırma, insanlığın yapay zekâ karşısındaki savunmasızlığını gözler önüne seriyor. Konuya ilişkin yayımlanan son makaleye göre, sohbet botları yanlış bilgi verse dahi kullanıcılar bu cevaplara körü körüne güvenme eğilimi gösteriyor.
Dijitalleşme hızı arttıkça, kritik karar verme süreçlerimizi yapay zekâ algoritmalarına devretme hızımız bilim insanlarını korkutmaya başladı. ChatGPT, Gemini ve Claude gibi devlerin sunduğu sohbet botları hala düzenli olarak hatalı bilgiler üretse de, insanoğlunun bu "dijital zekâlara" olan güveni sarsılmıyor.
Araştırma kapsamında gerçekleştirilen deneylerde çarpıcı sonuçlar elde edildi. Katılımcılar, yapay zekanın doğru önerilerini yüzde 92,7 oranında uyarken, asıl korkutucu olan, yapay zeka bilerek yanlış bilgi verdiğinde bile katılımcıların yüzde 79,8’inin bu hatalı talimatları harfiyen uygulaması oldu.
Araştırmanın yazarlarından Steven Shaw, bu durumu psikolojik bir kırılma noktası olarak tanımlıyor ve süreci 'bilişsel süreçlerin dış kaynağa devredilmesi' olarak adlandırıyor. İnsanoğlunun en temel yetisi olan düşünme eylemini bu denli hızlı bir şekilde yazılımlara emanet etmesini 'sarsıcı bir fikir' olarak yorumlayan Shaw, durumun ciddiyeti konusunda dünyayı uyarıyor.
Korkutucu araştırma: Çoğu insan, tamamen yanlış olsa bile yapay zekanın söylediğini yapıyor
