Bir dönem yalnızca bilim kurgu filmlerinde gördüğümüz sahneler, artık hayatın tam ortasında.
Birinin sesini, yüzünü, hatta mimiklerini birebir taklit eden yapay zekâ modelleri artık herkesin erişimine açık.
ChatGPT’nin kâşifi OpenAI’ın yeni modeli Sora 2, sadece video üretmiyor; sesiyle, duygusuyla, hareketiyle “gerçek insan hissi” oluşturabiliyor. Gerçek bir insanın sesini ve yüzünü verdiğinizde yapay zekâ olduğu hiçbir şekilde anlaşılamayacak videolar üretebiliyor.
Sora 2’yi şöyle tanımlayabiliriz: Sora 2, fiziksel gerçekçiliği artırılmış, ses ve görüntüyü senkron üretebilen, kullanıcı kimliğini videolara dâhil edebilen, yönlendirilebilir ve güvenli yapay zekâ destekli bir video üretim modeli olarak geliştirildi.
Bu gelişme, sinema ve eğitim gibi alanlarda büyük bir devrim olabilir.
Ancak aynı teknoloji, kötü niyetli ellerde kimliğin, güvenin ve gerçeğin sınırlarını tehlikeli biçimde bulanıklaştırma potansiyeli taşıyor.
Sora 2’nin getirdiği yeni tehditler
Sora 2, sadece metinden video değil; ses, mimik ve duyguyla senkronize “insan” benzeri sahneler üretebiliyor. Bu yenilikler, beraberinde aşağıdaki riskleri de getiriyor:
1. Ses Klonlama Dolandırıcılığı:
Kısa bir ses kaydıyla bir kişinin ses tonu, vurgusu ve konuşma tarzı birebir kopyalanabiliyor.
Dolandırıcılar bu sesi kullanarak bankaları, aile bireylerini ya da çalışanları kandırabiliyor.
2. Yüz ve Görüntü Taklidi (Deepfake Kimlik Hırsızlığı):
Sora 2’nin görüntü kalitesi o kadar yüksek ki, bir kişinin yüzü başka bir bedene monte edildiğinde sahte olduğu neredeyse anlaşılamıyor. Bu, hem itibar suikastı hem de psikolojik şantaj riskini doğuruyor.
3. Sahte Kurumsal Talimatlar:
Bir yöneticinin yüzü ve sesi taklit edilerek, çalışanlara “acil ödeme”, “transfer” veya “belge gönderimi” talimatı verilebiliyor. Bu tür saldırılar özellikle şirket içi güven zincirini hedef alıyor.
4. Siyasi Manipülasyon ve Dezenformasyon:
Siyasetçilerin sahte konuşmaları veya açıklamaları üretilip sosyal medyada dolaşıma sokulabiliyor. Bu, kamuoyunu yönlendirme ve seçim süreçlerini etkileme riski taşıyor.
5. Duygusal Dolandırıcılıklar:
Bir kişi, sevdiği birinin sesini veya yüzünü kullanarak güven kazanabilir. Bu durum, özellikle yaşlı bireyleri veya dijital farkındalığı düşük kullanıcıları hedef alan yeni dolandırıcılık türlerinin önünü açıyor.
6. İtibar ve Mahremiyet İhlali:
Kişilerin rızası olmadan oluşturulan sahte görüntüler, özel hayatın gizliliğini ihlal ediyor. Özellikle gençler ve kamuya açık kişilikler için bu durum ciddi psikolojik sonuçlar doğurabiliyor.
Yeni güvenlik kültürüne ihtiyacımız var
Artık dijital güvenlik, yalnızca şifrelerle korunmuyor.
Bir bireyin sesi, yüzü, hatta konuşma tarzı bile kimliğinin bir parçası hâline geldi.
Bu nedenle hem bireylerin hem kurumların bilinç düzeyini yükseltmesi şart.
Bireyler İçin:
● Ses veya görüntü örneklerini herkese açık platformlarda paylaşmamak, (Son iki köşe yazım bu maddeyle ilgiliydi, düzenli okuyucularım hatırlayacaktır)
● Para veya bilgi isteyen çağrılarda ikinci kanaldan teyit almak, yani arayıp belli etmeden parolalar sorup, gerçekten o olduğunu anlamak.
● Sosyal medya gizlilik ayarlarını sıkı tutmak,
● Görsel doğrulama araçlarını (örneğin Google Lens, Reality Defender vb.) kullanmak.
Kurumlar İçin:
● Görsel veya sesli kimlik doğrulamaya ikinci güvenlik katmanı eklemek,
● Çalışanları deepfake (yüz klonlama) ve ses klonlama saldırılarına karşı eğitmek,
● Resmî iletişim kanallarında şüpheli içerikleri doğrulama protokolleri oluşturmak,
● Yapay zekâyla üretilmiş içeriklerde filigran (watermark) ve meta veri takibi zorunluluğu getirmek.
Teknoloji gelişirken ahlak geride kalmasın
Sora 2, insanın hayal gücünün sınırlarını zorlayan bir adım. Ancak mesele teknoloji değil, onu hangi niyetle kullandığımız. Bir film yapımcısı için bu model sanatsal bir devrim olabilir, fakat bir dolandırıcının elinde bir insanın hayatını karartacak tehlikeye dönüşebilir.
O yüzden mesele “ne yapılabileceği” değil, ne yapılmaması gerektiğini bilmekte.
Gerçek kalabilmek
Yapay zekâ çağında en büyük sınav, teknolojiye yetişmek değil teknolojiye rağmen gerçek kalabilmek.
Sora 2 bize şunu hatırlatıyor: Artık gerçek, sadece görülen veya duyulan şey değildir. Gerçek; niyet, vicdan ve doğrulama alışkanlığındadır.
Kısacası, yeni dünyada yalnızca “bilgi sahibi” olmak yetmez; bilinç sahibi olmak gerekir.
Siyaset ve yapay zekâ
2027-2028 yıllarında yapılması öngörülen en yakın seçimler yapay zekânın gündemin ilk sırasını aldığı ilk seçimler olacak. Bugünden o tarihlerdeki yapay zekâ gelişimini öngörmek çok zor ama bugün bile ses, yüz ve duygu bu kadar güçlü şekilde takdir ediliyorsa o günlerde âdeta bir kandırmaca bombardımanına tutulacağız.
Yüz binlerce sahte ses ve video sosyal medya ve mesajlaşma aygıtları sayesinde milyonlara ulaşacak. Siyasetçiler kendilerini, icraatlarını ya da projelerini anlatmak yerine bunları yalanlamayla uğraşacaklar.
Hatta, tersi de olacak. Yanlış bir işin içine giren, yanlış sözler söyleyen, yanlış bir yerde görüntülenenler de o görüntülerin yapay zekâ olduğunu iddia edecek. Bu da madalyonun tersi.
Hani, at izi it izine karıştı sözü var ya. Öyle bir karışacak ki bugüne kadar meğerse atla it hiç yan yana gelmemiş diyeceğiz, o derece.
Belki çok iddialı gelecek olan cümleyle bitireyim… Bundan sonraki cumhurbaşkanını yapay zekâ belirleyecek.