Türkiye Gazetesi E-Gazete Gazete Aboneliği
Türkiye Gazetesi
Arama
SON DAKİKA YAZARLAR BİZİM SAYFA GÜNDEM POLİTİKA EKONOMİ DÜNYA SPOR YAŞAM RESMİ İLANLAR HABER JET İzle
Türkiye Gazetesi
Türkiye Gazetesi
E-Gazete Abonelik
Gündem
  • Politika
  • Eğitim
Ekonomi
  • Borsa
  • Altın
  • Döviz
  • Hisse Senedi
  • Kripto Para
  • Emlak
  • T-Otomobil
  • Turizm
Spor
  • Futbol
  • Puan Durumu
  • Fikstür
  • Şampiyonlar Ligi
  • Avrupa Ligi
  • Basketbol
Dünya
  • Orta Doğu
  • Avrupa
  • Amerika
  • Afrika
  • İsrail-Gazze
Yaşam
  • Sağlık
  • Hava Durumu
  • Yemek
  • Seyahat
  • Aktüel
Kültür-Sanat
  • Sinema
  • Arkeoloji
  • Kitap
  • Tarih
Bizim Sayfa
  • Namaz Vakitleri
  • Sesli Yayınlar
Yazarlar
  • Bugünün Yazarları
  • Tüm Yazarlar
Diğer Kategoriler
  • Magazin
  • Teknoloji
  • Resmî Ilanlar
  • Haberler
  • Foto Haber
  • Video Galeri
Kurumsal
  • Hakkımızda
  • İletişim
  • Künye
  • Gazete Aboneliği
  • Danışma Telefonları
  • Yasal
  • Reklam Ver
Uygulamalar Türkiye Gazetesi App Store Türkiye Gazetesi Google Play
Takip Edin Favori mecralarınızda haber
akışımıza ulaşın
X Facebook LinkedIn YouTube Instagram TikTok Next Sosyal
© 2025 İhlas Gazetecilik A.Ş.
Tüm Hakları Saklıdır.
Haber Verin Editör masamıza bilgi ve materyal
göndermek için tıklayın
Bildirin
Kaçırmayın Ücretsiz üye olun, gündemi
şekillendiren gelişmeleri önce siz duyun
  1. Haberler
  2. Teknoloji
  3. Deepfake tehdidi! Her 5 dakikada bir saldırı gerçekleştiriliyor 
Teknoloji

Deepfake tehdidi! Her 5 dakikada bir saldırı gerçekleştiriliyor 

Son Güncelleme: 06 Nisan, 2025 - 02:47
Whatsapp İkon Bağlantıyı Kopyala
Paylaş
Paylaş
Facebook Facebook X X WhatsApp WhatsApp LinkedIn LinkedIn Next Sosyal Next Sosyal Bağlantıyı Kopyala Bağlantıyı Kopyala
Deepfake tehdidi! Her 5 dakikada bir saldırı gerçekleştiriliyor 
Fotoğraf Başlığı Deepfake tehdidi! Her 5 dakikada bir saldiri gerçeklestiriliyor 

Sosyal medya platformlarında TPAO ve Baykar firması üzerinden yatırım çağrıları yapan, işe alım görüşmelerini sabote eden, hatta maaş alıp proje imzalayan deepfake ataklarına her gün bir yenisi ekleniyor. Şirketler her 5 dakikada bir deepfake saldırısına maruz kalırken devletler sahteciliğe karşı savaş açtı.

Kaydet
a- | +A

ÖMER TEMÜR'ÜN HABERİ - Yapay zekâ teknolojisi ilerledikçe, özellikle sözde “deepfake” videolar söz konusu olduğunda, neyin gerçek neyin gerçek olmadığını yargılamak giderek zorlaşıyor. Bir zamanlar ünlüleri taklit etmek veya politikacıları kötülemek için kullanılan teknoloji artık günlük hayatın bir parçası hâline geldi.

ABD’deki Los Angelas yangınlarında üretilen videolar sosyal medyada paylaşım rekoru kırarken, sahte görüntülerle sokak eylemlerinde kitleler manipüle edilebiliyor ya da sanal influencer’ların, gerçeğini aratmayan sokak röportajları yüz binlerce izlenme oranına ulaşabiliyor. TPAO ve Baykar firması üzerinden yatırım çağrıları ya da ünlü ekonomistlerin görüntüleri kullanılarak oluşturulan videolarla sosyal medyada her gün hisse tavsiyeleri ile karşılaşmak mümkün.

Deepfake tehdidi! Her 5 dakikada bir saldırı gerçekleştiriliyor - 1. Resim
Başlık ResmiDeepfake tehdidi! Her 5 dakikada bir saldırı gerçekleştiriliyor - 1. Resim

Daha çok suç örgütleri tarafından kullanılan deepfake dolandırıcılığı öyle bir boyuta taşındı ki âdeta organize şekilde hareket edilebiliyor. Bunun son kurbanı ise Ankaralı yazılım şirketi oldu. Şirket yapay zekâ destekli sahte bir müşteri tarafından dolandırıldı. Zoom’da görüntülü görüştüler, şirket tescil belgeleri paylaşıldı, sözleşmeler imzalandı, proje teslim edildi. Kodlar gitti, 5 milyon liralık hizmet bedeli ise gelmedi. Dolandırılan firmanın yöneticisi “Bizim geliştirdiğimiz yapay zekâyı bile kandırdılar” dedi.

Deepfake sadece hile yapmakla kalmıyor. Sesli deepfake’lerin giderek daha karmaşık telefon dolandırıcılıkları için kullanılmasına benzer şekilde, suçlular deepfake’leri iş elde etmek ve ardından şirketlerin hassas bilgilerine erişim sağlamak için kullanıyorlar. Geçtiğimiz sonbaharda bir şirket, suçu keşfedilmeden önce tam dört ay maaş alan bir Kuzey Koreli siber suçlu tarafından bu şekilde hack’lendi.
Deepfake ile aşk dolandırıcılığı da hızla artış gösteriyor. ABD’li ünlü oyuncu Brad Pitt gibi davranan bir dolandırıcı tarafından kandırılan bir Fransız kadın 18 ay boyunca dolandırıcıya 830.000 avro transfer etti. Aynı şekilde Hong Kong’da dolandırıcılar kandırdığı erkeklerden 46 milyon dolar alarak kayıplara karıştı.

BAKMADAN GEÇME
Telefon, deepfake tehdidini önceden algılayacak
HABER
Telefon, deepfake tehdidini önceden algılayacak

YAPAY ZEKA HUKUKU

Araştırmalara göre 2024 yılında şirketler her beş dakikada bir deepfake saldırısına maruz kaldı. 2023 yılında 562,8 milyon dolar olan küresel deepfake pazar büyüklüğünün 2032 yılına kadar 6 milyar doları aşması bekleniyor. Ülkeler ise deepfake tehdidine karşı için yeni tedbirleri devreye alıyor. AB ülkelerinde zekâ yasası ile “deepfake” adı verilen, yapay veya değiştirilmiş görsellerin, ses veya video içeriklerinin açıkça belirtilmesi zorunlu olurken, ABD’de 20 eyalet yapay zekâ ile yapılmış aldatıcı paylaşımları suç kapsamına aldı. Türkiye’de de yapay zekâ hukuku için çalışmalar sürüyor. Önümüzdeki aylarda yasalaşması beklenen düzenleme ile sahteciliğin önüne geçilmesi ve kişisel veriler ile mahremiyetin korunması hedefleniyor.

DEEPFAKE NASIL TEHDİT EDEBİLİR?

  • Yüz hareketleri: Doğal olmayan göz kırpma desenleri veya doğal olmayan şekilde statik görünen gözler arayın. Olaylara tepki olarak ince gecikmeler veya uyumsuz ifadeler de bir ipucu olabilir.
  • Aydınlatma ve gölgeler: Konunun yüzündeki aydınlatmanın çevredeki ortamla uyumlu olup olmadığını kontrol edin. Tutarsızlıklar (değişen ışık veya düzensiz gölgeler ve yansımalar gibi) manipülasyon olduğunu gösterebilir.
  • Ses-görüntü senkronizasyonu: Ağız hareketlerinin sesle doğal olarak hizalandığından emin olun. Dudak senkronizasyonu kapalı görünüyorsa veya seste hafif bozulmalar varsa, bu bir düzenleme işareti olabilir.
  • Görsel eserler: Yüzün saçla veya arka planla birleştiği kenarları inceleyin. Olağan dışı bulanıklık, çarpık kenarlar, pikselleşme veya gölgelenme efektleri videonun değiştirildiğini gösterebilir.
  • Deepfake tespit araçlarını ve yazılımlarını kullanın: Deepfake’leri tespit etmek için tasarlanmış özel araçlardan ve AI destekli yazılımlardan yararlanın. Bu araçlar dijital içerikleri anormallikler açısından analiz edebilir ve gerçekliğini doğrulamaya yardımcı olabilir.

Editör : CÜNEYT AKÇATEPE
Whatsapp İkon Facebook İkon Bağlantıyı Kopyala
Paylaş
Paylaş
Facebook Facebook X X WhatsApp WhatsApp LinkedIn LinkedIn Next Sosyal Next Sosyal Bağlantıyı Kopyala Bağlantıyı Kopyala
Yayın Tarihi | 06 Nisan, 2025 - 02:47
Haberle İlgili Daha Fazlası
Teknoloji
Bizi Takip Edin Bizi Takip Edin
X ikonu Facebook ikonu LinkedIn ikonu Next Sosyal Google Haberler ikonu
YORUMLAR
Yorum   0 yorum
ÇOK OKUNANLAR
  • 1
    “İntihar değil cinayet!” dedi! Ayşegül Eraslan'ın otopsi raporuyla ilgili iddia kan dondurdu
    “İntihar değil cinayet!” dedi! Ayşegül Eraslan'ın ...
    Kaydet
  • 2
    Sıfır eve talep dip yaptı! İşte il il eski-yeni konut fiyatları
    Sıfır eve talep dip yaptı! İşte il il eski-yeni ko...
    Kaydet
  • 3
    Tanju Özcan'ın yasak aşkı ifşa oldu! Yazışmalar ortaya çıktı: Çok özledim
    Tanju Özcan'ın yasak aşkı ifşa oldu!
    Kaydet
  • 4
    Kızılcık Şerbeti fragmanı neden yayınlanmadı? Yeni bölüm tarihi gündemde
    Kızılcık Şerbeti fragmanı neden yayınlanmadı?
    Kaydet
  • 5
    Emeklinin maaş ve ikramiyeleri yatırılmaya başlandı! İşte SSK, Bağ-Kur ve Emekli Sandığı ödeme takvimi
    Emeklinin maaş ve ikramiyeleri yatırılmaya başland...
    Kaydet
YAZARLAR
  • İsmail Kapan
    İsmail Kapan Üçüncü füzenin taşıdığı sorular...
    Kaydet
  • Rahim Er
    Rahim Er Mirasçı
    Kaydet
  • Sevil Nuriyeva
    Sevil Nuriyeva İsrail’e “tek bombalık ülke” kamuflajı!
    Kaydet
  • İsa Karakaş
    İsa Karakaş Kanser hastaları dikkat! Yargıtay bu kararıyla ‘akıllı ilaç’ta tüm ezberleri bozdu!
    Kaydet
  • Sadık Söztutan
    Sadık Söztutan Selçuk'un bayramı
    Kaydet
Bize Haber Verin

Editör masasıyla bilgi ve materyal paylaşmak için tıklayın

GÖZDEN KAÇMASIN
  • Bahçeli'den Türkiye için dış politikada 5 maddelik yol haritası
    Bahçeli'den Türkiye için dış politikada 5 maddelik yol haritası
    Kaydet
  • Nhaga'dan G.Saray itirafı: Bunu hiç beklemiyordum
    Nhaga'dan G.Saray itirafı: Bunu hiç beklemiyordum
    Kaydet
  • Bursa'da maaş krizi kundaklamayla bitti! İki pizza şubesini ateşe verdi
    Bursa'da maaş krizi kundaklamayla bitti! İki pizza şubesini ateşe verdi
    Kaydet
  • Anadolu'nun en eski tıp okulu
    Anadolu'nun en eski tıp okulu
    Kaydet
  • Yüzde 1'in altına düşmüştü! Yeniden canlandı
    Yüzde 1'in altına düşmüştü! Yeniden canlandı
    Kaydet
ÖNE ÇIKANLAR
Uğurcan Çakır'dan alkışlanacak hareket: Hakem tebrik etti
Uğurcan'dan alkışlanacak hareket: Hakem tebrik etti
Kaydet
İSTANBUL VALİLİĞİ ÇEVRE VE ŞEHİRCİLİK İLK MÜDÜRLÜĞÜ
İSTANBUL ANADOLU YAKASI MİLLİ EMLAK DAİRESİ BAŞKANLIĞI
Kaydet
T.C. İSTANBUL 10. AİLE MAHKEMESİNDEN
İSTANBUL 10. AİLE MAHKEMESİ
Kaydet
SONRAKİ HABER
Türkiye Gazetesi
Google Haberler E-GAZETE ABONE OL GİRİŞ
Gündem
  • Politika
  • Eğitim
Ekonomi
  • Borsa
  • Altın
  • Döviz
  • Hisse Senedi
  • Kripto Para
  • Emlak
  • T-Otomobil
  • Turizm
Spor
  • Futbol
  • Puan Durumu
  • Fikstür
  • Şampiyonlar Ligi
  • Avrupa Ligi
  • Basketbol
Dünya
  • Orta Doğu
  • Avrupa
  • Amerika
  • Afrika
  • İsrail-Gazze
Yaşam
  • Sağlık
  • Hava Durumu
  • Yemek
  • Seyahat
  • Aktüel
Kültür-Sanat
  • Sinema
  • Arkeoloji
  • Kitap
  • Tarih
Bizim Sayfa
  • Namaz Vakitleri
  • Sesli Yayınlar
Yazarlar
  • Bugünün Yazarları
  • Tüm Yazarlar
Diğer Kategoriler
  • Magazin
  • Teknoloji
  • Resmî Ilanlar
  • Haberler
  • Foto Haber
  • Video Galeri
Kurumsal
  • Hakkımızda
  • İletişim
  • Künye
  • Gazete Aboneliği
  • Danışma Telefonları
  • Yasal
  • Reklam Ver
Uygulamalar Türkiye Gazetesi App Store Türkiye Gazetesi Google Play
Takip Edin Favori mecralarınızda haber
akışımıza ulaşın
X Facebook LinkedIn YouTube Instagram TikTok Next Sosyal
Haber Verin Editör masamıza bilgi ve materyal
göndermek için tıklayın
Let me Know
Kaçırmayın Ücretsiz üye olun, gündemi
şekillendiren gelişmeleri önce siz duyun
© 2025 İhlas Medya Grubu. Tüm Hakları Saklıdır
Son Dakika Site Haritası RSS KVKK Aydınlatma Metni Gizlilik Politikası Çerez Politikası