‘Vesikalık fotoğraf yüklemeyin!’ Dikkat çeken toplumsal medya uyarısı

DeSouza

New member
Gonca Kocabaş / Milliyet.com.tr – Birleşik Krallık’taki Lancaster Üniversitesi ve ABD’deki Kaliforniya Üniversitesi’nden araştırmacılar, yapay zekânın tasarladığı insan yüzlerinden bir deney tasarladı. Geçtiğimiz günlerde sonuçları açıklanan araştırmanın sonuçları ise uzmanları kaygıya düşürdü. Çalışmalar, yapay zekâ ile oluşturulan bir yüz ile gerçek yüz içinde fark bulunmadığını gözler önüne seriyor. Araştırmanın en kaygı verici yanı ise, yapay zekâ tarafınca oluşturulan geçersiz yüzlerin gerçek insanların yüzlerinden daha sağlam göründüğünü ortaya koyması oldu. Araştırma kararına nazaran bu yüzlerin son derece gerçekçi olmakla kalmayıp, beraberinde gerçek yüzlerden neredeyse ayırt edilemez olduğuna, hatta daha muteber olduklarına karar verildi.

Birinci deneyde 315 iştirakçiye, 128 gerçek ve düzmece olan yüz içinden gerçek olanları bulmaları istendi. Sonuç olarak iştirakçilerin doğruluk oranları yüzde 48 olarak belirlendi. İkinci bir deneyde, 219 yeni iştirakçi gerçek ve yapay zekâ tarafınca oluşturulan yüzler konusunda eğitilirken, yüzlerin nasıl sınıflandırılacağı konusunda da bilgilendirilmelerde bulunuldu. Eğitimli olan ikinci grubun de doğruluk oranı yüzde 59 çıktı. Lakin ortada hayli büyük bir fark olmaması eğitimli bireylerinde çarçabuk kandırılabileceğini gösteriyor. Çalışmada üçüncü bir deney daha yapıldı. Bu defa 223 iştirakçiden 128 yüzün muteber ve güvenilmez formunda oylanması istendi. Geçersiz yüzler gerçek yüzlerden ortalama 8 puan daha emniyetli bulundu. Ortadaki fark küçük görünse de uzmanlar istatiksel olarak önemli bir oran olduğunu düşünüyor.


BAYANLAR ERKEKLERDEN DAHA EMNİYETLİ

Siyah yüzler, Güney Asyalı yüzlerden daha sağlam olarak değerlendirildi lakin bunun haricinde ırklar içinde rastgele bir tesir olmadı. birebir vakitte bayanlar erkeklerden kıymetli ölçüde daha muteber olarak derecelendirildi. Araştırmacılar, yüzlerin gülümseyip gülümsemediğinin sonuçları etkilemediğini de sav ediyor. “Gülümseyen bir yüzün emniyetli olarak kıymetlendirilmesi daha muhtemeldir, lakin gerçek yüzlerin yüzde 65,5’i ve yapay yüzlerin yüzde 58,8’i gülümsüyor. Bu niçinle yüz tabiri tek başına yapay yüzlerin niye daha muteber olarak derecelendirildiğini açıklayamaz” diyorlar.

Yapay zekâ, internet dünyası içerisinde anonim olarak erişilebilen tüm yüzlerin kontrollerini yaparak, bir algoritma ile oluşturduğu yüzlerin gerçekliğini sorguluyor. Yapay zekâ şayet var olan paylaşım ağlarında emsal bir yüz ile karşılaşmaz ise kendi yarattığı geçersiz yüzün doğruluğuna yani hiç var olmadığına kanaat getiriyor. Bu teknoloji reklamcılıktan sinema dalına kadar Deep Fake teknolojileri ile birleştirilerek kullanılabiliyor. Altyapı olarak kullandığı süratle gelişen teknolojinin ismi makine öğrenme temelli GAN (Generative Adversarial Network). Yapay zekâ eğitim setleri ile öğreniyor, ayrıyeten yeni fotoğraflar, karakterler, ortamlar ve insan görünümleri yaratabiliyor.

‘YAKALANMA RİSKİ OLMAYAN İNSAN YARATMAK İMKÂNSIZ DEĞİL’

“Siber dolandırıcılık, kara para aklama, yasaklı unsur ticareti, kaçakçılık üzere faaliyetlerde kullanılabilecek ve yakalanma riski olmayan bir insan yaratılması bu teknolojiyle mutlaka imkânsız görünmüyor”
diyen Siber Güvenlik Uzmanı Osman Demircan, Metaverse evrenlerinin ömrümüze girmesiyle de büyük bir değişimin başladığına işaret etti.


DEEPFAKE SAYESİNDE KAYBETTİĞİ KIZINA VEDA ETTİ

Deep Fake teknolojileri günümüzde bilgisayarlar ve yazılım teknolojilerinin gelişmesi ve yapay zekânın da takviyesi ile epeyce farklı bir noktaya geldi. Kendini sinemalarda ve reklamlarda daha fazlaca gösteriyor olsa da Güney Kore’de yaşanan olay, bu biçim teknolojilerin yeterli şeyler için kullanılabileceğini unutmamamız gerektiğini bizlere hatırlatıyor. 2016 yılında 7 yaşındaki kızını kaybeden bir anne Deep Fake teknolojileri ve sanal gerçeklik gözlükleri yardımıyla kızıyla yine karşılaşabildi ve anne bu biçimdelikle kızına veda etme talihi bulmuş oldu. Bu pek âlâ bir örnek olsa da başta dolandırıcılık ve toplumsal ayaklanma üzere konularda da kullanılma mümkünlüğünün çok yüksek olduğunun altını çizen Osman Demircan, geçtiğimiz senelerda hack’lenen toplumsal medya platformu Twitter’da ülke başkanları ve karar otoritelerinin mavi tikli doğrulanmış hesaplarının ele geçirildiğini lisana getirdi.

Demircan, “Deep Fake teknolojileri kullanılarak hesabı ele geçirilen bir devlet liderinin hesabından halkı galeyana geçirici ve iç ayaklanma çıkmasına niye olabilecek bildiri yayınlanabilirdi. Toplumsal medya kullanıcılarının doğruluk kriteri olarak doğrulanmış bir hesabı görmesi ve Deep Fake ile, gerçek manzarası ile bu başkanların konuşma yapması taraftarlarını sokağa dökebilirdi. Bu durum hâlâ ağır risk teşkil etmekte” diye konuştu.




UYDURMA SES İLE 35 MİLYON DOLAR ÇALINDI

Deep Fake teknoloji olarak yalnızca görselliği ve hareketleri teğe bir kopyalamıyor. Bunların yanında ses de bu teknolojileri kullanılarak kopyalanabiliyor. Geçtiğimiz yıl Birleşik Arap Emirlikleri’nde Deep Fake ile oluşturulmuş uydurma ses ile 35 milyon dolar çalınmasına da değinen Osman Demircan, “Banka yetkilileri ve yöneticisi geçmişte tekraren gerçek hesap sahibiyle görüştükleri sesi tanıdıkları için güvenmişlerdi. Sonuç olarak 35 milyon dolar buhar oldu. Burada en kıymetli husus sesi taklit etmenin yanında dolandırıcının hakikaten taklit ettiği kişinin ses mimikleri ile de konuşabilmesi. Bu da hesap sahibinin dolandırıcıların gayesine epey öncesinden takıldığı ve telefon konuşmalarının dinlendiği kararınu çıkartıyor. Tek bir teknoloji bu üzere durumlarda hatalı olmuyor. Biroldukca teknoloji birleşerek dolandırıcılıklar gerçekleştiriliyor” dedi.

İlerleyen günlerde yüz tanıma sistemlerinin hacklenmesi, ses doğrulama ile yapılan finans süreçleri ya da olayla hiç bir alakası olmadığı biçimde güvenlik kamerasından elde edilen imajın Deep Fake ile yüz montajının yapılmasından daha sonra iftira atılması üzere olaylarla müsabaka ihtimalimizin yüksek olduğunu söyleyen Osman Demircan, alınabilecek tedbirler hakkında da bilgiler verdi.

‘VESİKALIK KALİTESİNDEKİ FOTOĞRAFLARINIZI PAYLAŞMAYIN’

Bu çeşit dolandırıcılıklardan korunmak için kesinlikle fiziki doğrulamaya gereksinimimizin olduğunu, bilhassa para transferi üzere konularda muhatabıyla bağlantıda olunması gerektiğini ve KVKK kurallarına uygun bir biçimde doğrulama sağlanmasının değerli olduğunu vurgulayan Osman Demircan, “Bunun yanında ferdî olarak ticaret yerine kurumsal ticaret tercih edilmeli. Örneğin toplumsal medya üzerinde hesabı olan lakin hiç var olmamış bir geçersiz bir yüz kullanan hesap bizi dolandırabilir. Bu biçim ticaretlerde kurumsal firmalar tercih edilmeli. Bunun yanında yapay zekâ teknolojileri bizim yüzümüzü de kopyalayabilir ve bir kabahatin kesimi olarak gösterebilir. Bu üzere durumlardan kaçınmanın en sağlıklı yolu vesikalık kalitesinde fotoğraflarımızı toplumsal medyada paylaşmamak olacaktır. Net fotoğraflar ile yapay zekânın yüzümüzü Deep Fake teknolojilerine taşıması imkansız olmayacak” diyerek ileride karşılaşabileceğimiz bu üzere meselelerden nasıl korunacağımızı anlattı.

Marmara Üniversitesi Bağlantı Fakültesi Görsel İrtibat Tasarımı Anabilim Kolu Lideri ve Dijital İrtibat Araştırmacısı Doç. Dr. Ali Murat Kırık, “Siyasi yahut iktisadi maksatlar için dezenformasyon kampanyalarında kullanılması mümkün olan bu teknoloji beraberinde şantaj için düzmece görüntülerinin yaratılması fonksiyonunu de taşıyabiliyor” diyerek işin ürkütücü boyutuna dikkat çekti. Görüntülerin ve görsellerin ayırt edilemeyecek kadar emsal bir yapıda olmasının bilhassa topluma mal olmuş ünlü isimleri zan altında bırakabileceğinin altını çizen Doç. Dr. Ali Murat Kırık, deepfake ismini verdiğimiz derin geçersizlik teknolojisinin dijital seçim kampanyalarında bir silah olarak da kullanılabileceğine vurgu yaptı.


‘YAKIN GELECEKTE BİRÇOK İNSANIN BAŞINI AĞRITACAK’

Kırık, “Eğlence hedefli kullanılan bu teknoloji gelecek senelerda berbat ellerde büyük bir tehdit halini alabilme potansiyeline sahip” diyerek kelamlarını şöyleki sürdürdü: “Bu değişen teknolojinin kendisi yasal olsa da, kimi makûs niyetli kullanımlar asla yasal değildir. Toplumsal paylaşım ağlarında bunların üretimini ve yayılmasını sınırlamak için bir dizi yasal, teknik tedbir almak günümüzde elzemdir. Çünkü tehdit ve şantaj içerikli fotoğraflar, görüntüler epeyce yakın gelecekte birfazlaca insanın başını ağrıtacak üzere duruyor. Deepfake teknolojisi yalnızca birkaç yıl ortasında inanılmaz bir yükseliş kaydetti. Deepfake algılama araçları gelişirken, deepfake içeriklerin yetenekleri de gelişiyor.”

‘DOLANDIRICILAR AMAÇ ŞAHSA HER ŞEYİ SÖYLETEBİLİR’

Kemal Sunal, Barış Manço, Bruce Willis üzere isimleri deepfake ile hazırlanmış reklam sinemalarında gördük ve gerçeğinden ayırt etmek mümkün olamadı. Başta eğlenceli gözüken bu değişen teknolojinin bununla birlikte gelecek ismine da korkutucu olduğunu söyleyen Doç. Dr. Ali Murat Kırık, “Bu görüntüler aracılığıyla insanları kandırma ve dolandırma giderek kolay bir hal alacaktır. Obama ve Trump üzere Amerikan liderlerinin deepfake görüntüleri da toplumsal medyada adeta bir virüs üzere yayılmış ve biroldukça kullanıcı tarafınca izlenmişti. birinci vakit içinderda 2017’de ortaya çıkan derin geçersiz görüntülerde, bilgisayar tarafınca oluşturulan bir yüz diğer birinin üzerine bindirilir. Bu süreç daha sonrasında, dolandırıcılar maksat şahsa şimdi her şeyi söyletebilir yahut yaptırabilir” diye konuştu.


‘GÖZ KIRPMA HAREKETİNE ÇOK DİKKAT EDİLMELİ’

2020 yılında Güney Kaliforniya’da bir bayan, Amerika Birleşik Devletleri Deniz Harp Okulu müfettişini taklit etmek için ‘deepfake’ bir görüntü kullanarak onu kandıran kimliği bilinmeyen bir dolandırıcı tarafınca yaklaşık 300 bin dolar dolandırılmıştı. “Deepfake görüntülerini birinci bakışta anlamak sıkıntı olsa da gözlere dikkat etmek önemli” diyen Doç. Dr. Ali Murat Kırık, “Yapay olan göz hareketleri yahut göz kırpma olmaması üzere ayrıntılara dikkat etmek epey kıymetli. Çünkü göz kırpma aksiyonunu doğal görünecek biçimde yenidenlamak zordur. Görüntüdeki kişinin söylemiş oldukleriyle jest ve mimikleri birbirini tutmuyorsa, doğal olmayan yüz sözleri gösteriyorsa, dişler ve dudak yapay duruyorsa görüntüye kuşkuyla yaklaşmak son derece önemli” sözleriyle ihtarda bulundu.