00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
HABERLER
07:00
5 dk
HABERLER
09:00
5 dk
HABERLER
11:00
5 dk
HABERLER
12:00
5 dk
HABERLER
16:00
5 dk
HABERLER
18:00
9 dk
HABERLER
19:00
9 dk
HABERLER
Saat başı başlıkları
07:00
1 dk
HABERLER
Saat başı başlıkları
08:00
1 dk
HABERLER
Saat başı başlıkları
09:00
1 dk
HABERLER
Saat başı başlıkları
10:00
1 dk
HABERLER
Saat başı başlıkları
11:00
1 dk
HABERLER
Saat başı başlıkları
12:00
1 dk
1 MAYIS ÖZEL
Geçmişten günümüze 1 Mayıs İşçi ve Emekçiler Bayramı
12:13
21 dk
HABERLER
Saat başı başlıkları
13:00
1 dk
DÜNYADA 1 MAYIS
1 Mayıs'ı tatil yapan ülkeler
13:04
5 dk
1 MAYIS TAKSİM OLAYLARI
‘Kanlı 1 Mayıs’ın perde arkası
13:33
21 dk
HABERLER
Saat başı başlıkları
14:00
1 dk
HABERLER
Saat başı başlıkları
15:00
1 dk
MÜZİĞİN EFSANELERİ
Bach ailesinin 'en tanınır üyesi'
15:29
10 dk
HABERLER
Saat başı başlıkları
16:00
1 dk
HABERLER
Saat başı başlıkları
17:00
1 dk
HABERLER
Saat başı başlıkları
18:00
1 dk
HABERLER
Saat başı başlıkları
19:00
1 dk
1 MAYIS ÖZEL
Geçmişten günümüze 1 Mayıs İşçi ve Emekçiler Bayramı
20:04
21 dk
DÜNYADA 1 MAYIS
1 Mayıs'ı tatil yapan ülkeler
20:36
5 dk
1 MAYIS TAKSİM OLAYLARI
‘Kanlı 1 Mayıs’ın perde arkası
21:12
21 dk
DünBugün
Geri dön
Adana107.4
Adana107.4
Ankara96.2
Antalya104.8
Bursa101.4
Çanakkale107.2
Diyarbakır89.6
Gaziantep104.3
Hatay106.1
İstanbul97.8
İzmir91.0
Kahramanmaraş92.3
Kayseri105.5
Kocaeli90.2
Konya88.6
Malatya106.0
Manisa101.0
Mardin92.2
Ordu99.6
Sakarya90.2
Samsun107.7
Sivas104.2
Şanlıurfa95.3
Trabzon102.4
Van88.0
 - Sputnik Türkiye, 1920
YAŞAM
Türkiye ve dünyadan ilgi çekici yaşam haberleri, toplumsal olaylar, güncel araştırmalar, fotoğraf ve video galerileri.

'Deepfake cep telefonlarına kadar indi, olası itibar suikastlarının artması anlamına gelebilir'

© AADeepfake videolar
Deepfake videolar - Sputnik Türkiye, 1920, 05.07.2023
Abone ol
Prof. Dr. Eraslan, “Deepfake teknolojileri cep telefonlarına kadar inmiş durumda. Oradaki kamera, ses sistemleri, piksel sayıları, programlar çok yoğun bir şekilde sıradanlaştı. Yapılacak olası itibar suikastlarının artması anlamına gelebilir” dedi.
Son günlerde adı sıklıkla duyulmaya başlanan ‘deepfake’ teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz ifadelerini kullanan sahte videolar üretilmesine imkan sağlıyor. Bunun yanı sıra herhangi bir videodaki konuşmayı değiştirip düzenleyebiliyor. Sinema ve televizyon sektöründe kullandığında, hata yapılan bir diyaloğun yeniden çekime gerek duyulmadan düzeltilmesine imkan sağlayabilecek bu teknolojinin, kötü niyetli kişilerin kullanımı açısından bakıldığında ise önemli risk ve tehlikeleri içerisinde barındırdığı belirtiliyor.

‘İnsanların olmadığı yerlere montajlandığı ya da onların görüntüsünü ortaya koyduğu bir sistem’

Sosyal Medya ve Dijital Güvenlik Eğitim Araştırma Merkezi (SODİMER) Başkanı Prof. Dr. Levent Eraslan, Deepfake teknolojisinin avantajları ve dezavantajları hakkında İhlas Haber Ajansı'na (İHA) özel açıklamalarda bulundu. Prof. Dr. Eraslan, deepfake teknolojisinin iyi kullanıldığı zaman olumlu fakat tehlikesinin de çok fazla olduğu bir dünya olarak belirterek, “Derin sahtecilik Türkçesi. Reddit’te bir kullanıcının bulduğu uygulama. Yapay zeka uygulamaları ve desteğiyle beraber insanları olmadığı yerlere montajlandığı ya da onların görüntüsünü ortaya koyduğu bir sistem” diye konuştu.
Eraslan, Deepfake teknolojisinin bireyselleştirilmiş eğlencede çok önemli olduğunu söyleyerek, “Film ve endüstri içinde çok önemli bir teknoloji” dedi.

‘Sıradan insanlar telefonlarıyla deepfake yapabiliyor’

Deepfake teknolojisinin algı yönetiminde ve itibar suikastlarında kullanıldığını ifade eden Prof. Dr. Eraslan, şunları kaydetti:
“İnsanların olmadığı yerlerde onların aleyhlerine kullanılabilecek bir video oluşturma süreci bu. Anlaşılması çok zor fakat püf noktaları var. Öncelikle dudak ses senkronizasyonu, boyun yerleştirmeler, uzuv yerleştirmeler. Hemen hemen her ünlünün başına gelebiliyor. Türkiye’de siyasi kimi aktörlerde böylesi tehditlerle yüz yüze geldi. Süreç içerisinde kullanılan ses, dudak senkronizasyonu, vücut hatta objelerle Deepfake’in olup olmadığı anlaşılabilir. Şu büyük bir sıkıntı artık sıradan insanlar da Deepfake yapmaya başladı. Sentetik bilgi diyoruz buna. Sentetik bilgiyi üretme süreçlerin daha profesyonel süreçlerden olurken şimdi sıradan insanlar telefonlarıyla Deepfake yapabiliyor. Asıl problemde burada karşımıza çıkabiliyor.”

‘Önümüze gelen her videonun gerçek olup olmadığını araştırmamız lazım’

Deepfake teknolojilerinin cep telefonlarıyla bile basit bir şekilde yapıldığını vurgulayan Eraslan, “Oradaki kamera, ses sistemleri, piksel sayıları, programlar çok yoğun bir şekilde sıradanlaştı. Yapılacak olası itibar suikastlarının artması anlamına gelebilir. Bu bir suç. Türk Ceza Kanununun en az beş vurgusunda bunun bir suç olduğu ifade ediliyor. Bir yıl ila üç yıl hapisten başlayan ve çeşitli yaptırımları olan bir boyut. Önümüze gelen her videonun gerçek olup olmadığını araştırmamız lazım. Profesyonel yapılmış, büyük stüdyolarda yapılmış çalışmaları tespit etmek çok güç oluyor” dedi.
yapay zeka, robot - Sputnik Türkiye, 1920, 09.05.2023
YAŞAM
'Deepfake' talebinde artış: Darkweb'de fiyatlar 20 bin dolara ulaştı
Haber akışı
0
Tartışmaya katılmak için
giriş yapın ya da kayıt olun
loader
Sohbetler
Заголовок открываемого материала