Yapay zekâ emanete ihanet ediyor: Sınırı aştı! Yayımlanmamış makaleyi kullandı
Dilini düzeltsin, istatistiğini tutsun diye yapay zekâya emanet edilen akademik çalışmalar, sistem tarafından sessizce kopyalanıp başkalarına servis ediliyor. Doç. Dr. Yusuf Kızıltaş’ın yaşadığı ‘hayalet makale’ şoku, dijital asistanların aslında birer ‘fikir hırsızı’ olduğunu kanıtladı. Akademik mahremiyet artık siber korsanların elinde!
- Yapay zekâ sistemleri, kullanıcıların emanet ettiği gizli ve yayımlanmamış içerikleri veri havuzuna dâhil ederek dönüştürebilmektedir.
- Doç. Dr. Yusuf Kızıltaş'ın hakemlik yaptığı bir makalede, kendi henüz yayımlanmamış çalışmasıyla birebir örtüşen ve gerçekte var olmayan bir makaleye atıf yapıldığı ortaya çıkmıştır.
- Bu durum, yapay zekânın yalnızca mevcut verileri değil, emanet edilen gizli içerikleri de kullanarak akademik yayınları dolaylı yoldan ifşa etme riskini göstermektedir.
- Yapay zekâ, araştırmacıların adına henüz yayımlanmamış veya var olmamış uydurma kaynaklar üreterek akademik itibarı tehlikeye atabilmektedir.
- Bilimsel üretim süreçlerinde yapay zekâ desteği alan akademisyenler, sisteme yükledikleri metinlerin 'öğrenme malzemesi' olarak değerlendirilip veri havuzuna dâhil edilebileceği konusunda uyarılmaktadır.
MAHMUT ÖZAY- Dil kontrolü ve istatistik desteği için yapay zekâya emanet edilen makaleler, “asistan” sandığımız sistemler tarafından kopyalanıyor. Henüz yayınlanmamış başlıklar ve özgün bölümler, yapay zekâ havuzuna düşerek başka çalışmaların kaynağı hâline geliyor. Akademik mahremiyet artık büyük risk altında. Bu durum, akademik üretimde veri güvenliği ve gizlilik tartışmalarını yeniden alevlendirdi.
GERÇEKTE YOK...
Olay, Doç. Dr. Yusuf Kızıltaş’ın SSCI indeksli prestijli bir dergiden aldığı hakemlik davetiyle gün yüzüne çıktı. Hakemlik yaptığı makalenin kaynakça bölümünü inceleyen Kızıltaş, kendi adına yapılmış atıflarla karşılaştı. Kaynakçada yer alan üç çalışmadan ikisinin kendisine ait olduğunu belirleyen araştırmacı, üçüncü çalışmanın ise gerçekte var olmadığını fark etti.
Asıl çarpıcı detay ise söz konusu “hayalet makale”nin başlık ve içeriğinin, Kızıltaş’ın o sırada henüz yayımlanmamış ve yalnızca sınırlı sayıda hakemin bildiği güncel çalışmasıyla bire bir örtüşmesiydi. Araştırmacının, bu çalışması için daha önce yapay zekâdan dil ve istatistik desteği aldığı öğrenildi. Yaşanan durum, yapay zekâ sistemlerinin akademik metinlerle kurduğu ilişkinin sınırlarını sorgulatır hâle getirdi.
İHLALDE YENİ BOYUT
Uzmanlara göre bu örnek, yapay zekânın yalnızca internette yer alan mevcut verileri harmanlamakla kalmadığını; kullanıcıların kendisine emanet ettiği gizli ve yayımlanmamış içerikleri de veri havuzuna dâhil ederek dönüştürebildiğini gösteriyor.
Katil uygulamalar! Yapay zeka sohbet botları şiddet eylemlerinin planlanmasına yardımcı oluyor
Bu süreç, “dijital mahremiyet ihlalinin yeni ve görünür bir boyutu” olarak tanımlanıyor. Yapay zekâ ile paylaşılan akademik metinler, yayımlanma süreci tamamlanmadan dolaylı yollardan ifşa edilme riskiyle karşı karşıya kalıyor.
Dünyanın önde gelen yayınevlerinden Elsevier, SAGE ve Taylor & Francis, yapay zekânın dil düzenleme süreçlerinde kullanılmasına şeffaf beyan şartıyla izin veriyor. Ancak son yaşanan hadise, bu kullanımın yalnızca etik bir tercih değil, aynı zamanda ciddi bir veri güvenliği problemi olduğunu da ortaya koydu.
Uzmanlar, bilimsel üretim süreçlerinde yapay zekâ desteği alan akademisyenleri çeşitli kritik noktalarda uyarıyor. Analiz veya düzeltme amacıyla sisteme yüklenen metinlerin, yapay zekâ tarafından “öğrenme malzemesi” olarak değerlendirilip veri havuzuna dâhil edilebileceği gerçeğinin göz ardı edilmemesi gerektiği vurgulanıyor.
Bu durumun doğurduğu en büyük güvenlik risklerinden biri ise, yapay zekânın araştırmacıların adına henüz yayımlanmamış ya da hiç var olmamış uydurma kaynaklar üreterek akademik itibarı ciddi biçimde tehlikeye atabilmesi.
Gelinen noktada bilimsel üretim sürecinin, yalnızca akademik etik kurallarıyla değil; kişisel verilerin korunması adına sıkı siber güvenlik protokolleriyle de desteklenmesi gerektiği ifade ediliyor.
Öğrenci affı düzenlemesinde detaylar netleşiyor: Yarım kalan eğitime “yarı süre” şartı
'HAYALET KAYNAK" ÜRETİYOR
Yapay zekâ ile makale yazdırmanın etik dışı olmasının yanı sıra, sistemlerin en büyük risklerinden biri uzmanların çalışma alanlarını taklit ederek onlar adına “hayalet kaynaklar” üretmesi olarak öne çıkıyor.
Özellikle çok sayıda eseri bulunan araştırmacıların verilerinden beslenen yapay zekâ, son derece gerçekçi görünen ancak tamamen uydurma referanslar oluşturarak akademik güvenilirliği ciddi biçimde tehdit ediyor.
