00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
HABERLER
07:00
6 dk
HABERLER
09:00
6 dk
HABERLER
11:00
5 dk
DÜNYA HABERİ
11:10
10 dk
PARANIN HAREKETİ
11:30
10 dk
HABERLER
12:00
5 dk
HABERLER
15:00
5 dk
HABERLER
16:00
5 dk
HABERLER
17:30
10 dk
HABERLER
18:00
10 dk
HABERLER
19:00
11 dk
HABERLER
07:00
9 dk
HABERLER
08:00
7 dk
HABERLER
09:00
5 dk
23 NİSAN ÖZEL
09:13
105 dk
HABERLER
11:00
5 dk
DÜNYA HABERİ
11:30
8 dk
HABERLER
12:00
5 dk
HABERLER
14:00
5 dk
HABERLER
15:00
5 dk
HABERLER
16:00
5 dk
HABERLER
17:00
8 dk
HABERLER
18:00
11 dk
HABERLER
19:00
10 dk
DünBugün
Geri dön
Adana107.4
Adana107.4
Ankara96.2
Antalya104.8
Bursa101.4
Çanakkale107.2
Diyarbakır89.6
Gaziantep104.3
Hatay106.1
İstanbul97.8
İzmir91.0
Kahramanmaraş92.3
Kayseri105.5
Kocaeli90.2
Konya88.6
Malatya106.0
Manisa101.0
Mardin92.2
Ordu99.6
Sakarya90.2
Samsun107.7
Sivas104.2
Şanlıurfa95.3
Trabzon102.4
Van88.0
 - Sputnik Türkiye
YAŞAM
Türkiye ve dünyadan ilgi çekici yaşam haberleri, toplumsal olaylar, güncel araştırmalar, fotoğraf ve video galerileri.

Teknoloji uzmanları uyarıyor: Deepfake teknolojisi savaşa bahane olarak kullanılabilir

© Fotoğraf : YouTube/derpfakesDeepfake
Deepfake - Sputnik Türkiye
Abone ol
Yapay zeka sayesinde bir yüzü başka birinin yüzüne montajlayan deepfake teknolojisi pek çok siyasetçiye ve ünlü isimlere karşı kullanıldı. Genellikle eğlence amacıyla üretilen bu sahte videolar hala gerçeğinden ayırt edilebilir düzeyde. Ancak uzmanlar deepfake teknolojisinin yeni tehditler oluşturabilecek ölçüde değişebileceği konusunda uyarıyor.

DeepNude - Sputnik Türkiye
YAŞAM
Fotoğrafları yapay zekayla çıplak gösterdiği iddia edilen DeepNude kapatıldı: Dünya henüz buna hazır değil
Video doğrulama şirketi Amber'in CEO'su Shamir Allibhai, The Daily Star'a verdiği demeçte, deepfake teknolojisinin 'ilk saldırıyı yapmak ve savaşa girmek için bir bahane' olarak kullanılıp uluslararası çatışmaları körüklemek için bir silah haline gelebileceğini dile getirdi. 

ABD Başkanı Donald Trump'ın İran'a yönelik kullandığı ifadeleri ve Kuzey Kore'nin nükleer testlerine ilişkin haberleri hatırlatan Allibhai, "Ülkeler ilk saldıran olmak ve savaşa girmek için deepfake videolarını kullanarak 'kanıt' dahi üretebilirler. Ya da üçüncül bir ülke böyle videolar hazırlayıp düşman olduğu iki ülke arasındaki çatışmayı provoke edebilir" dedi.

Video teknolojisi uzmanı, şayet çeşitli ülkelerin silahlı kuvvetleri gelecekteki gelişmiş sahte videoları gerçeklerinden ayırt etmek için yeni araçlar üretmezse gerçek savaşların çıkabileceği konusundaki endişelerini şöyle ifade etti: "Bir Başkanın yabancı bir ülkeye savaş ilan ettiğini düşünün. Yabancı ülke bu ilanı görecektir, ancak bu ilana neden olan kayıt doğru mudur, yoksa sahte mi? Yabancı ülke kayıt doğruysa ilk saldırıyı gerçekleştiren taraf olmalı mıdır? Ya da yabancı ülke aslında sahte videoyu savaşa bahane olarak üretip bu savaşı halkına ve uluslararası kamuoyuna karşı meşrulaştırmaya çalışmış mıdır?"

89th Academy Awards - Oscars Red Carpet Arrivals - Hollywood, California, U.S. - 26/02/17 - Scarlett Johansson - Sputnik Türkiye
YAŞAM
Scarlett Johansson'dan cinsel içerikli video isyanı: Vakit kaybı
'ÜLKELER BU GİBİ DURUMLARDA DAHA ŞÜPHECİ OLMALI'

Colin Powell'ın Birleşmiş Milletler'de yaptığı konuşmada Irak'ın kitle imha silahları üretme programı olduğu iddiasını gündeme getirdiğine ancak böyle bir silah programının gerçekte var olmadığının ortaya çıktığına işaret eden uzman, ülkelerin bu gibi durumlarda daha şüpheci olmaları gerektiğini söyledi.

Allibhai, ses ve görüntü kayıtlarının düzenlenmesinin 'bir metni Word üzerinde düzenlemek kadar basit' olduğunu, dolayısıyla bu teknoloji sayesinde bir kişiye istenilen ifadeleri istenen şekilde 'söyletebilmenin' oldukça kolay hale geleceğini vurguladı. 

Haber akışı
0
Tartışmaya katılmak için
giriş yapın ya da kayıt olun
loader
Sohbetler
Заголовок открываемого материала