Deepfake tehlikesi ekonomik bir fırsata dönüşebilir

Deniz Unay Independent Türkçe için yazdı

Görsel: AA

Deepfake ne zaman ortaya çıktı? 

Teknoloji ve yapay zekanın gelişimi ile birlikte hayatımızda ilginç terimleri, teknolojileri duymaya ve görmeye başladık, bunlardan birisi de Deepfake.

Bu teknolojiye gelişmiş bir photoshopping uygulamasında diyebiliriz.

Bu uygulama gerçek olmayan 3 boyutlu yüzler bedenler tasarlayarak sesleri taklit edebilen ve yeni ses formları oluşturabilen bir uygulama.

İlk olarak 2014 yılında Ian Goodfellow ve Yoshua Bengio da dahil olmak üzere Montreal Üniversitesi'ndeki diğer araştırmacılar tarafından tanıtıldı.

Kısaca GAN adı verilen Generative Adversarial Networks teknolojisi zaman içerisinde internet, sosyal medyada giderek büyüyen big datanın imkanlarından yararlanarak mükemmel insan tasarımlarının oluşmasını sağladı.


GAN teknolojisi ile neler yapılabilir?

Bu teknolojinin gelişmesi ile birlikte birçok uygulama geliştirildi.

Estetik klinikleri müşterilerinin üç boyutlu görüntülerini alarak yapacakları estetik operasyon sonrasını görme ve gösterme imkanı buldular.

Moda tasarımcıları çizdikleri kıyafetleri sanal ortamda oluşturulan modeller üzerinde deneyebiliyorlar.

Kuaförler müşterilerine uygulayacakları makyajı gösterip karar verme imkanına sahip oluyorlar.

Ayrıca, tıp alanında MR görüntülemelerde GAN teknolojisi insan sağlığı adına önemli katkılar sunuyor.

Örneğin GAN tabanlı sentetik oluşturulan beyin görüntülemeleri teşhisi kolaylaştırarak tedaviyi hızlandıran ve çeşitlendiren faydalar sağlayabiliyor. 


Sadece bunlar da değil Deepfake ile oluşturulan insan modelleri ile videolar, filmler hatta belgeseller hazırlanabilir.

Şu an gelişen uygulamalar sayesinde bir videodaki karakterlerin gerçek veya Deepfake olduğunu bir insanın anlayabilmesi imkansız hale geldi.

Örneğin yapay zeka popüler binlerce şarkıyı dinleyip yeni bir popüler olabilecek bir şarkı veya albüm hazırlayabiliyor.

Oluşturulacak bir Deepfake modeli ile bu şarkıyı kullanıp sanal bir insanı popüler hale getirebilirsiniz. 


Gelişen bu teknoloji son günlerde adını sıkça duyduğumuz Metaverse evreni içerisinde daha yoğun göreceğimiz ve iletişim kurabileceğimiz karakterlere dönüşecek.

Kendi üç boyutlu holografik görüntümüzün dışında dünyada hiç var olmamış tamamen yapay zeka tarafından üretilmiş karakterlerle etkileşim halinde olacağız. 

Deepfake insanlık adına gelişen her teknoloji gibi olumlu ve olumsuz kullanımlarıda olacak, insanın görüntüsünü yüzünü mimiklerini sesini taklit eden bir teknoloji bankacılık işlemleri başta olmak üzere birçok alanda kendisini gösterecek.

Akıllı telefona erişim sağlayıp ses ve yüz tanıma sistemlerini geçen bir teknoloji siber dolandırıcılıkta sınırları zorlayıp binlerce insanı mağdur edebilir bununla birlikte hukuki sorunları da beraberinde getirir.


Deepfake ile gerçekleşen bazı dolandırıcılık olayları 

2019'da İngiltere merkezli bir şirketin CEO'sunun sesi taklit edilerek verdiği talimat doğrultusunda 243 bin dolar ilk bir para transferi yapılarak şirket dolandırıldı.

Hindistan'da eski bir Bakan'a sex şantajı yapılarak 50 bin RS dolandırıldı. Olay şöyle gerçekleşti:

Bakan sosyal medya üzerinden tanıştığı sahte avatar ile bir süre sohbet etti görüntülü görüşmenin bir bölümünde görüştüğü avatardan soyunmasını istedi karşısındaki avatar bunu yaptı ve bakanın izlediği bu görüntüler üzerine dolandırıcılar bakana şantaj yaparak 50 binRS para aldılar. 

2020 yılında Hong Kong'da bir banka müdürünün sesi taklit edilerek 35 milyon USD'lik i dolandırıcılık gerçekleştirildi. 


Deepfake ulusları tehdit ediyor

  • Deepfake kişisel ve kurumsal dolandırıcılık alanlarının dışında ulusları hükümetleri tehdit eder boyuta gelebilir. Çünkü Deepfake olmayan kişileri varmış, olmamış olayları olmuş ve yaşanmış gibi gösterebilecek bir teknolojiye sahip.
     
  • Deepfake ile sosyal medyada yeni profiller oluşturulabilir, hazırlanan profiller belirli bir inanışa, siyasi görüşe veya etnik gruba mensupmuş gibi videolar ve içerikler hazırlanabilir. 
     
  • Bir süre sonra provakatif amaçlı bu görüntüler ve videolar sosyal medyada yayılabilir ve insanları sokak eylemlerine ve sivil itaatsizliğe yönlendirebilir. 
     
  • Ülkelerde belirli aralıklarda yapılan siyasi seçimlerde, deepfake ile oluşturulan içeriklerle seçmenler yönlendirilerek seçim sonuçları etkilenebilir.

Deepfake anlaşılabilir mi? 

Sosyal medya ile hayatımıza bot hesap kavramı girdi yaklaşık 7-8 yıldır bu hesapları ve etkilerini tartışıyoruz.

Sosyal medya üzerinden gerçek isim ve soy isimlerle ve gerçek insan fotoğrafları yazılımlar tarafından oluşturulan bu hesaplar özellikle siyasi ve kutuplaştırıcı etiketlerde aktif rol aldılar.

İnsanlar sosyal medyada bir süre bu hesapları anlamakta ve algılamakta güçlük çekti işte tam da o zamanlarda sosyal medya üzerinde Arap Baharı, Gezi Olayları gibi birçok ülkede sosyal medya üzerinden organize olan ayaklanmalara tanıklık ettik.

Bot hesapların yaydığı yalan haberler yine bot hesaplar tarafından yüksek etkileşim aldı.

Akabinde ise buna inanan insanlar sokaklara dökülerek kendilerini ve ülke yönetimlerini zora soktular.

Hatırlanacağı üzere bu olayların sürecinin devamında can ve mal kayıpları ve tutuklanmalar oldu.

Şimdi ise karşımızda anlaşılması neredeyse imkansız bir teknoloji ve tehdit var.

Yazılım üzerinden üretilen insan taklitleri ve sesi ile görüntüsü ile toplumu sokağa dökecek paylaşımlarda veya yanıltıcı yönlendirmelerde bulunabilir.

Sosyal medyada paniğe neden olabilecek paylaşımların gerçekçi halleri hükümetleri ve insanları zor duruma sokabilir.

Örneğin bir kamu yöneticisini taklit ederek oluşturulan videoda "bütün uçuşların, veya metroların  iptal edildiğini veya içme sularına zehir karıştığı" şeklindeki bir paylaşımı ve bu paylaşımın sosyal medyada güçlü hale getirilmesi ile karmaşa başlayabilir ve ekonomik zararlar meydana gelebilir. 

Deepfake dolandırıcılığı tespit edilmesi ve ayırt edilmesi zor olduğu için hukuki problemlere neden olacak örneğin dolandırılan kişi ve banka arasında bir karmaşaya dönüşecek 

Kişi aramadığını ve talimat vermediğini söyleyebilir fakat  telefonu hacklendi ve kendisinin telefondan uzakta olduğu bir zamanda bu işlem gerçekleşti ise işler karmaşık hale gelecek insanlar ve kurumlar içinden çıkamayacakları bir süreçle uğraşacaklar. 


Peki ne yapılabilir? 

Şu an için Deepfake tehditlerine yönelik alabileceğimiz bir yazılım veya uygulama yok insan olarak gerçek mi sahte mi ayırt edemeyeceğimiz bir tehdit ile karşı karşıyayız.

Her kriz beraberinde fırsatlarıda birlikte getirir. Şu an hükümetler, bankalar ve şirketler deepfake tehdidi ile karşı karşıya bu alanda geliştirilecek bir deepfake tespit etme ve önleme yazılımı geliştirecek ülkeler ve şirketler için ciddi bir gelir kaynağına dönüşebilir. 

Bir yazılım ve güvenlik duvarı oluşuncaya kadar ise bazı tedbirleri almakta yarar var ;

  • Bankacılık işlemlerini gerçekleştirirken mutlaka birkaç ve farklı adımlı güvenlik uygulamalarını kullanmalıyız.
     
  • Çağrı merkezlerinin ses tanıma sistemlerine sesli işlemleri kapatmamızda yarar var sesle işlem yapmak yerine telefonumuzdan uygulama üzerinden ve güvenlik doğrulamalarını sağlayarak işlemleri gerçekleştirmeliyiz.
     
  • Sosyal medyada tansiyonu yüksek tartışmalarda karşımıza çıkan videolara ve ses kayıtlarına ilk gördüğümüz anda inanmamalıyız. Gördüğümüz görüntünün veya sesin doğruluğunu mutlaka resmi kaynaklardan veya onaylanmış sosyal medya hesaplarından teyit etmeliyiz.
     
  • Her siber tehditte olduğu gibi burdada güvenilirliğine emin olmadığımız web sitelerine girmemeliyiz ayrıca uygulamaları indirmemeliyiz. Akıllı telefonlara indirilen uygulamalarda izin listesine mutlaka dikkat etmeliyiz .

 

 

*Bu makalede yer alan fikirler yazara aittir ve Independent Türkçe'nin editöryal politikasını yansıtmayabilir.  

© The Independentturkish

DAHA FAZLA HABER OKU