00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
HABERLER
07:00
6 dk
HABERLER
09:00
6 dk
HABERLER
11:00
5 dk
HABERLER
12:01
5 dk
GÜN ORTASI
12:06
83 dk
HABERLER
16:00
5 dk
HABERLER
17:30
10 dk
HABERLER
18:00
11 dk
HABERLER
19:00
9 dk
HABERLER
07:00
5 dk
HABERLER
09:00
6 dk
HABERLER
11:00
5 dk
DÜNYA HABERİ
11:10
11 dk
PARANIN HAREKETİ
11:30
10 dk
HABERLER
12:00
3 dk
HAFTANIN KEYFİ
14:05
54 dk
HABERLER
15:00
5 dk
SPOR BÜLTENİ
15:30
5 dk
HABERLER
16:00
5 dk
HABERLER
17:30
10 dk
HABERLER
18:00
11 dk
HABERLER
19:00
8 dk
DünBugün
Geri dön
Adana107.4
Adana107.4
Ankara96.2
Antalya104.8
Bursa101.4
Çanakkale107.2
Diyarbakır89.6
Gaziantep104.3
Hatay106.1
İstanbul97.8
İzmir91.0
Kahramanmaraş92.3
Kayseri105.5
Kocaeli90.2
Konya88.6
Malatya106.0
Manisa101.0
Mardin92.2
Ordu99.6
Sakarya90.2
Samsun107.7
Sivas104.2
Şanlıurfa95.3
Trabzon102.4
Van88.0
GÖRÜŞ

Ölüleri ‘canlandırmaktan’, şantaj videolarına: Deepfake nedir ve hangi tehlikeleri içeriyor?

© AFP 2023 / ALEXANDRA ROBINSONdeepfake - video - görüntü - manipülasyon
deepfake - video - görüntü - manipülasyon - Sputnik Türkiye, 1920, 16.02.2022
Abone ol
Özel
Görüntü ve sesin değiştirilebildiği bir medya türü olan deepfake ile ölmüş kişilerin eski fotoğrafları hareketli hale getirilebiliyor ve ABD’li bir annenin yaptığı gibi kızının rakiplerini eleyebilmek için de kullanılabiliyor. Peki, deepfake ne anlama geliyor ve ne gibi tehlikeleri var. Teknoloji uzmanı Deniz Unay, Sputnik’e anlattı.
Teknolojinin geldiği noktada akıllı telefon uygulamalarıyla yüze çeşitli filtreler eklemek ve hatta daha genç ya da yaşlı görünmek mümkün. Son günlerde Fransız bir film yapımcısının, Türk doktor sandığı 20 yaşındaki hacker Nijeryalı’ya ‘aşık’ olmasıyla gündeme tekrar gelen deepfake teknolojisi ise, bir görüntü ve işitme manipülasyonu yöntemi olarak tanımlanıyor. Mevcut bir görüntü veya videoda yer alan bir kişinin, yapay sinir ağları ile birlikte bir başka kişinin görüntüsü ile değiştirildiği bir medya türü olan deepfake, makine öğrenme tekniklerini kullanarak, mevcut medyanın kaynak medya üzerinde üst üste konulmasıyla elde ediliyor.

Deepfake görüntüleri hangi amaçlarla kullanıldı?

Mevcut durumda, bu teknoloji ile ölmüş kişilerin fotoğrafları 'canlandırılabiliyor'. Ölmüş yakınlarla özlem giderilmesini amaçlayan İsrail merkezli soyağacı oluşturan bir çevrimiçi platform olan Myheritage’ın piyasaya sürdüğü Deep Nostalgia, video canlandırma yoluyla eski fotoğrafları hareketli hale getiriyor, hatta fotoğraflardaki kişileri gülümsetiyor. Herhangi birinin fotoğrafını çıplak hale getiren Deepnude uygulaması da sadece kadın fotoğraflarında ‘çalışması’ üzerine gelen eleştiriler dolayısıyla 2019 yılında kapatıldı.
Bu teknolojiyi kullanarak üretilen içerikler için bir diğer örnek ise eski ABD Başkanı Barack Obama’nın, zamanın başkanı Donald Trump’a küfür içerikli ifade kullandığı video. Bu videoda oyuncu ve yönetmen Jordan Peele’ın dudakları Obama’nın görüntüsünün üzerine eklenmiş durumda ve Obama’nın ağzından çıkan her kelime Peele’a ait. ABD’li bir kadın olan Raffaela Spone da, kızının amigo takımına girebilmesi için, diğer gençlerin içki, sigara içtiğini gösteren ve hatta onları çıplak biçimde tasvir eden video ve fotoğraflar için bu teknolojiyi kullandı.
‘Derin öğrenme’ ve ‘sahte’ kelimelerinin İngilizcesinden türetilmiş bir isme sahip olan bu teknolojiye Türkiye’de 2020 yılında Kemal Sunal’ın ‘başrolünde’ oynadığı bir reklam filmiyle ilk olarak rastlandı. Ancak, bu teknolojinin kullanıldığı alanlar maalesef, sadece eğlenceli videolar değil. Türkiye’de bir kadın üniversite öğrencisinin görüntüleri deepfake uygulaması kullanılarak müstehcen görüntülere eklendi ve kadın öğrenci şantaja uğradı.

Bu videolar nasıl oluşturulur?

Deepfake içerikleri pek çok internet sitesi ve uygulama üzerinden yapılabiliyor. Ancak, TikTok'ta viral olan, aktör Tom Cruise'un deepfake videolarının yaratıcısı Chris Ume’a göre, bu videoları yapmak çok da kolay değil. Ume, yarattığı videolar için aktörün farklı açılardan ve yüz ifadeleri ile 6 binden fazla görüntüsünü topladığını ve sadece deepfake teknolojisini kullanmadığını söyledi. Dijital grafik yazılımlarıyla görüntüyü kare kare düzeltmek için uğraşan Ume’un videoları oluşturması 2 ayından fazlasını aldı.
Derin öğrenme alanında araştırmalar yapan ve şu anda Apple’da makine öğrenimi yöneticisi olan Ian Goodfellow tarafından 2014 yılında icat edilen ‘çekişmeli üretici ağ’ (GAN) teknolojisiyle var olan deepfake’in tehlikeleri ne ve hangi önlemler alınmalı? Teknoloji uzmanı Deniz Unay, Sputnik’e anlattı.

‘Yararları olduğu kadar bu teknolojinin tehlikeli bir silaha dönüşebileceği uygulamalarda yer alıyor’

Temelde makine öğrenimi sınıfı olan GAN’ın, beraberinde tıp alanında kullanılan MR’dan tasarımcıların yeni kıyafetlerini modeller üzerinde sanal ortamda denemelerine kadar birçok yeni uygulamanın da ortaya çıkmasını sağladığını söyleyen Unay, “Yararları olduğu kadar bu teknolojinin tehlikeli bir silaha dönüşebileceği uygulamalarda yer alıyor. Bunlar arasında Deepfake ile oluşturulmuş insan modelleri ile videolar, belgeseller, filmler ve hatta röportajlar bile hazırlanabilir hale gelmiştir. Özellikle son dönemde gelişen uygulamalar normal bir insan tarafından anlaşılması neredeyse imkansız hale gelen görüntülerin ve seslerin ortaya çıkmasını sağlamıştır” dedi ve “Söz konusu teknolojinin yeniden gündeme gelmesinde ise Metaverse kavramına bağlanması mümkündür. İnsanların kendi üç boyutlu görüntülerini tasarlayacakları bu evrende GAN ile çok daha başarılı sonuçların elde edilmesi mümkündür” diye ekledi.

‘Deepfake teknolojisiyle yapılan dolandırıcılık tehlikesi artıyor’

Unay, bu teknolojinin kullanıldığı dolandırıcılık olaylarına da dikkat çekerek “Deepfake üzerinden artan dolandırıcılık faaliyetleri ise günümüzde birçok kişi için tehlike oluşturmaya da devam ediyor. Deepfake yardımıyla oluşturulan sahte görüntüler, özellikle ünlüler, siyasiler veya toplum tarafından tanınan bilinen kişilerin gerçekte var olmayan bir yerde olmasını, söylemedikleri şeyleri söylemeleri ve bunları yaparken de gerçeğinden ayırt edilmemeleri çok ciddi bir tehlikenin ortaya çıkmasına neden olmuştur. Deepfake teknolojisi kullanılarak yapılan dolandırıcılık faaliyetlerinin bazılarına bakıldığında bu uygulamaların gelecekte daha da tehlikeli boyutlara varabileceği düşüncesi iyice yerleşmiş durumda” diye konuştu ve dolandırıcılık örneklerini şu şekilde sıraladı:

Ses taklidiyle para çekmeden, seks şantajına kadar uzanıyor

“2019 yılında İngiltere merkezli bir şirketin CEO’sunun sesi taklit edilerek yapılan bir dolandırıcılık tehlikenin boyutlarını ortaya koymuştur. Sahte ses ile verilen talimatlar ile 243.000 dolar para transferi ile dolandırılan şirket büyük bir şaşkınlık yaşamıştır. 2020 yılında ise benzer bir olay Hong Kong’da yaşanmıştır. Bir banka müdürünün sesi taklit edilerek 35 milyon dolar miktarında dolandırıcılık gerçekleştirildiği haberi Deepfake tehlikesi ile ilgili büyük bir yankı uyandırdı. Hindistan’da ise eski bir bakanın seks şantajı yapılarak 50.000 Hindistan Rupisi dolandırılması olayı dünya gündeminde ilk sıralarda yer almıştı. Bu olayda ise bakan sosyal medya üzerinden sahte bir avatar ile sohbet etmeye başladıktan bir süre sonra soyunmasını istemiş ve bakanın izlediği görüntüler şantajcılar tarafından kaydedilerek dolandırıcılık gerçekleşmiştir.”

‘Toplumsal olaylarda sahte görüntülerin kısa sürede yayılması ve etkileşim alması çok daha geniş kitlelerin manipüle edilmesine neden olmaktadır’

Deepfake’in topluma olan etkisinden de bahseden Unay, seçim zamanlarında da manipüle edilmiş görüntülerin sunulabileceğinin mümkün olduğunu belirtti. Unay “Sahte bir profilin ötesine geçerek gerçek bir kişi gibi davranan bu hesaplar zaman içinde kalabalık kitleleri sokağa dökebilir ve yanlış siyasi yönlendirmeler ve bilgiler ile iç karışıkları bile tetikleyebilir. Seçim dönemlerinde ise Deepfake ile yapılan videolar ve gerçekte asla söylenmemiş şeyleri belirli siyasi kişilerin demeçleri olarak yansıtılabilir. Bu sayede Deepfake teknolojisinin seçimlere etkisi görülebilecektir. Toplumsal olaylarda sahte fotoğraf, resim, ses ve videoların kısa sürede sahte hesaplar aracılığıyla yayılması ve yüksek etkileşim alması çok daha geniş kitlelerin manipüle edilmesine neden olmaktadır. Bu gibi durumlara karşı hükümetlerin de zaman zaman aldıkları önlemler tartışma yaratmaktadır” dedi.
Deepfake teknolojisiyle üretilmiş videoların gerçekliğinin çok zor bir şekilde anlaşılabildiğini söyleyen Unay’ın aktardığına göre, buna karşı herhangi bir önleyici yazılım ya da uygulama bulunmuyor.

Deepfake dolandırıcılığına karşı hangi önlemler alınabilir?

Bu teknoloji ile gerçekleştirilen dolandırıcılık faaliyetlerin korunmanın yollarını anlatan Unay “Özellikle bankacılık işlemlerinde ve uygulamalarında birkaç farklı adımdan oluşan güvenlik sistemlerinin kullanılması son derece önemlidir. Diğer yandan sesli tanıma özelliklerine sahip işlemlerin de kapatılması dolandırıcılıktan korunmanız için oldukça önemlidir. Sosyal medya veya internet üzerinde karşınıza ilk çıkan video, fotoğraf veya sesleri ilk anda doğru kabul etmemek özellikle toplumsal olayların önlenmesinde önemlidir. Bir olay sonrasında sıcağı sıcağına sosyal medyada yayılan birçok bilgi ve görüntünün sahte olduğu çok sık rastlanan bir durumdur. Bu duruma karşı alınacak önlem ise ilgili unsurların teyit edilmesi olacaktır. İnternette güvenliğin artırılmasına yönelik dikkat edilmesi gereken temel yaklaşımların tümü Deepfake dolandırıcılığına karşı kendinize daha güvenli bir alan yaratmanızı sağlayacaktır. Ancak bu teknolojiden tamamen korunmak günümüzde neredeyse imkansızdır. Bu nedenle alınabilecek basit önlemler ile internetteki varlığınızı güvence altına almak ve deepfake tehdidine karşı bilinçlenmek son derece önemlidir” ifadelerini kullandı.
Haber akışı
0
Tartışmaya katılmak için
giriş yapın ya da kayıt olun
loader
Sohbetler
Заголовок открываемого материала