Deepfake tehdidi... 5 dakikada bir saldırı yapılıyor
Sosyal medya platformlarında TPAO ve Baykar firması üzerinden yatırım çağrıları yapan, işe alım görüşmelerini sabote eden, hatta maaş alıp proje imzalayan deepfake ataklarına her gün bir yenisi ekleniyor. Şirketler her 5 dakikada bir deepfake saldırısına maruz kalırken devletler sahteciliğe karşı savaş açtı.

Yapay zekâ teknolojisi ilerledikçe, özellik-le sözde "deepfake" videolar söz konusu olduğunda, neyin gerçek neyin gerçek olmadığını yargılamak giderek zorlaşıyor. Bir zamanlar ünlüleri taklit etmek veya politikacıları kötülemek için kullanılan teknoloji artık günlük hayatın bir parçası hâline geldi.
ABD'deki Los Angelas yangınlarında üretilen videolar sosyal medyada paylaşım rekoru kırarken, sahte görüntülerle sokak eylemlerinde kitleler manipüle edilebiliyor ya da sanal influencer'ların, gerçeğini aratmayan sokak röportajları yüz binlerce izlenme oranına ulaşabiliyor. TPAO ve Baykar firması üzerinden yatırım çağrıları ya da ünlü ekonomistlerin görüntüleri kullanılarak oluşturulan videolarla sosyal medyada her gün hisse tavsiyeleri ile karşılaşmak mümkün. Daha çok suç örgütleri tarafından kullanılan deepfake dolandırıcılığı öyle bir boyuta taşındı ki adeta organize şekilde hareket edilebiliyor. Bunun son kurbanı ise Ankaralı yazılım şirketi oldu. Şirket yapay zekâ destekli sahte bir müşteri ta rafından dolandırıldı. Zoom'da görüntülü görüştüler, şirket tescil belgeleri payla-şıldı, sözleşmeler imzalandı, proje teslim edildi. Kodlar gitti, 5 milyon liralık hizmet bedeli ise gelmedi. Dolandırılan firmanın yöneticisi "Bizim geliştirdiğimiz yapay zekâyı bile kandırdılar" dedi.
Deepfake sadece hile yapmakla kalmıyor. Sesli deepfake'lerin giderek daha karmaşık telefon dolandırıcılıkları için kullanılmasına benzer şekilde, suçlular deepfake'leri iş elde etmek ve ardından şirketlerin hassas bilgilerine erişim sağlamak için kullanıyorlar. Geçtiğimiz sonbaharda bir şirket, suçu keşfedilmeden önce tam dört ay maaş alan bir Kuzey Koreli siber suçlu tarafından bu şekilde hack'lendi.
Deepfake ile aşk dolandırıcılığı da hızla artış gösteriyor. ABD'li ünlü oyuncu Brad Pitt gibi davranan bir dolandırıcı tarafından kandırılan bir Fransız kadın 18 ay boyunca dolandırıcıya 830 bin avro transfer etti. Aynı şekilde Hong Kong'da dolandırıcılar kandırdığı erkeklerden 46 milyon dolar alarak kayıplara karıştı.
YAPAY ZEKA HUKUKU
Araştırmalara göre 2024 yılında şir-ketler her beş dakikada bir deepfake saldırısına maruz kaldı. 2023 yılında 562,8 milyon dolar olan küresel deepfake pazar büyüklüğünün 2032 yılına kadar 6 milyar doları aşması bekleniyor. Ülkeler ise deepfake tehdidine karşı için yeni tedbirleri devreye alıyor. AB ülkelerinde zekâ yasası ile "deepfake" adı verilen, yapay veya değiştirilmiş görsellerin, ses veya video içeriklerinin açıkça belirtilmesi zorunlu olurken, ABD'de 20 eyalet yapay zekâ ile yapılmış aldatıcı paylaşımları suç kapsamına aldı. Türkiye'de de yapay zekâ hukuku için çalışmalar sürüyor. Önümüzdeki aylarda yasalaşması beklenen düzenleme ile sahteciliğin önüne geçilmesi ve kişisel veriler ile mahremiyetin korunması hedefleniyor.
DEEPFAKE NASIL TESPİT EDİLEBİLİR?
Yüz hareketleri: Doğal olmayan göz kırpma desenleri veya doğal olmayan şekilde statik görünen gözler arayın. Olayla-ra tepki olarak ince gecikmeler veya uyumsuz ifadeler de bir pucu olabilir.
Aydınlatma ve gölgeler: Konunun yüzündeki aydınlat manın çevredeki ortamla uyum lu olup olmadığını kontrol edin. Tutarsızlıklar (değişen ışık veya düzensiz gölgeler ve yansımalar gibi) manipülasyon olduğunu gösterebilir.
Ses-görüntü senkronizasyonu: Ağız hareketlerinin ses-le doğal olarak hizalandığından emin olun. Dudak senkronizas-yonu kapalı görünüyorsa veya seste hafif bozulmalar varsa, bu bir düzenleme işareti olabilir.
Görsel eserler: Yüzün saçla veya arka planla birleştiği kenarları inceleyin. Olağan dışı bulanık-lık, çarpık kenarlar, pikselleşme veya gölgelenme efektleri videonun değiştirildiğini gösterebilir.
Deepfake tespit araçlarını ve yazılımlarını kullanın: Deepfake'leri tespit etmek için tasarlanmış özel araçlardan ve Al destekli yazılımlardan yararlanın. Bu araçlar dijital içerikleri anormallikler açısından analiz edebilir ve gerçekliğini doğrulamaya yardımcı olabilir.
patronlardunyasi.com