SİBERAY’dan kritik uyarı: Deepfake mağduru olmamak için bunlara dikkat edin!
Emniyet Genel Müdürlüğü Siber Suçlarla Mücadele Daire Başkanlığı’na bağlı SİBERAY, vatandaşları dijital dolandırıcılık konularında bilinçlendirme çalışmalarına devam ediyor. SİBERAY, Son olarak, yapay zeka teknolojileriyle oluşturulan sahte görüntü ve seslerin kullanıldığı “Deepfake” teknolojisi hakkında sosyal medya üzerinden dikkat çeken bir uyarı yayımlandı.
SİBERAY’ın yaptığı paylaşıma göre, Deepfake, yapay zeka teknikleriyle oluşturulmuş sahte ses kayıtları, videolar ve görseller anlamına geliyor. Bu teknoloji, kişilerin yapmadığı veya söylemediği şeyleri yapmış ya da söylemiş gibi gösteren manipülatif içerikler üretebiliyor. Konu ile ilgili yapılan paylaşımda, vatandaşların, deepfake içerikleri tespit edebilmesi için önemli ipuçları da paylaşıldı.
DEEPFAKE İÇERİKLER NASIL TESPİT EDİLİR?
SİBERAY'dan yapılan paylaşımda, Deepfake içeriklerin tespiti için önemli uyarılarda bulunuldu. Öncelikle görüntülerdeki yapay ve doğallıktan uzak detaylara dikkat etdilmesi, beden dili ile yüz ifadeleri arasındaki uyumun gözlemlenmesi ve şüpheli içerikleri doğrulamak için deepfake tespit yazılımlarını kullanmalısı gerektiği hatırlatıldı
DEEPFAKE TEKNOLOJİSİNİN RİSKLERİ NELERDİR?
Deepfake teknolojisi kötü niyetli kişilerin elinde dolandırıcılık, şantaj ve karalama gibi amaçlarla kullanılabiliyor.SİBERAY’a göre bu teknoloji ile kişiler, gerçekte yapmadıkları ya da söylemedikleri şeyleri yapmış veya söylemiş gibi gösterilebiliyor. ele geçirilen ses ve görüntüler başka ses ya da görüntülere entegre edilerek manipülasyon için kullanılabiliyor veya dolandırıcılar, bu yöntemle toplumda itibarlı kişiler adına sahte içerikler üreterek güven sarsıcı eylemler gerçekleştirebiliyor.
DEEPFAKE MAĞDURU OLMAMAK İÇİN NELERE DİKKAT EDİLMELİ?
SİBERAY, vatandaşların deepfake mağduru olmamak için daha dikkatli ve bilinçli davranmaları gerektiğini belirterek önemli uyarılarda bulundu. Yapılan uyarılarda, toplumda tanınmış ya da itibarlı kişilerine ait ses, resim veya videoların dolandırıcılık amacıyla kullanılabileceğinin unutulmaması, vatandaşların kendi görsellerinin kötü niyetli kişiler tarafından kullanılabileceğini göz önünde bulundurarak, sosyal medya paylaşımlarını daha sorumlu bir şekilde yapması ve “İnanması güç” tekliflere şüpheyle yaklaşılması istendi.
Kaynak:Abbas Çakar
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.