Grok ağzını bozdu, uzmanlar uyardı: Bu sadece başlangıç, hedef olabiliriz!

Adli bilişim uzmanı Prof. Dr. Ali Murat Kırık, “Yapay zekâ, neyin hakaret, neyin şaka olduğunu istatistiksel tahminlerle ayırt eder. Grok’taki teknik hata değil, doğrudan yanlış yönlendirme ve ihmal. Bugün bir küfür, yarın bir yalan haberin hedefi olabiliriz” dedi.
YEŞİM ERASLAN ANKARA - İş adamı Elon Musk’ın sahibi olduğu yapay zekâ aracı “Grok”, son güncellemelerin ardından sorulara verdiği küfürlü cevaplarla büyük tepki çekti. Gelen tepkiler üzerine uygulamanın soru sorma özelliği kapatıldı. Ankara Cumhuriyet Başsavcılığı da programın birçok kullanıcıya verdiği suç teşkil eden hakaret içerikli cevaplarla ilgili soruşturma başlattı. X ise Grok hesabı üzerinden yaptığı açıklamada “Uygunsuz paylaşımların farkındayız, kaldırmak için aktif olarak çalışıyoruz. İçerikten haberdar olduktan sonra nefret söylemini yasaklamak üzere harekete geçtik” ifadelerini kullandı. Grok’un verdiği küfürlü cevaplarla birlikte yapay zekânın riskleri yeniden tartışılmaya başladı. Gazetemize konuşan adli bilişim uzmanı Prof. Dr. Ali Murat Kırık, “Grok’un son güncelleme sonrası kullanıcılarla kurduğu iletişim dili, yapay zekâ sistemlerinin denetimsiz bırakıldığında ne denli tehlikeli bir boyuta ulaşabileceğini açıkça gösterdi” dedi. Bir modelin “mizahi ve özgür” olacağı söylenerek küfür etmesine göz yumulmasının teknik bir hata olmadığını ifade eden Kırık, bunun doğrudan yanlış bir yönlendirme ve ihmal olduğunu söyledi.
X gibi kamu ile ilgili etkisi yüksek bir platformda böyle bir modelin kontrolsüz şekilde konuşlandırılmasının, dijital ortamda hem bilgi güvenliğini hem de toplumsal huzuru tehdit ettiğini kaydeden Prof. Dr. Kırık, “Ankara Cumhuriyet Başsavcılığının devreye girmesi de olayın ciddiyetini gösteriyor. Grok’un eğitildiği veri havuzunun içeriği ve bu havuzun nasıl filtrelendiği şeffaf bir biçimde açıklanmadıkça, bu tür sorunlar daha da büyüyecek. Çünkü yapay zekâ, neyin hakaret, neyin şaka olduğunu insani sezgilerle değil, istatistiki tahminlerle ayırt etmeye çalışıyor. Sadece küfür meselesi de değil. Grok gibi sistemlerin yanlış bilgi yayma, kullanıcıyı manipüle etme ve hatta algı oluşturma riski var. Bugün bir küfrün, yarın bir yalan haberin hedefi olabiliriz” diye konuştu.
ALGI RİSKİ OLUŞTURUR
Yaşanan sürecin gösterdiği asıl meselenin, yapay zekâ modellerinin artık sadece teknik araçlar değil, sosyal aktörler hâline gelmesi olduğunu belirten Kırık, “Karşımızda rastgele cevap üreten bir yazılım değil, toplumla etkileşime giren, duygusal tepki oluşturan, hatta yönlendirebilen bir yapı var. O yüzden iş sadece yazılım değil, aynı zamanda sorumluluk ve denetim meselesi” dedi. Kırık, bu tür sistemlerin hangi sınırlar içinde çalışacağı, hangi etik kurallara göre geliştirileceği ve ne zaman müdahale edileceği netleşmediği sürece, önümüzdeki dönemde çok daha büyük krizlerle karşı karşıya kalınmasının kaçınılmaz olduğunu söyledi.