Büyük dil modellerinin (LLM'ler) giderek yaygınlaşmasıyla birlikte güvenliğe ve gizliliğe dair endişelerdeki artış, yapay zekayı doğrudan siber güvenlik dünyasıyla ilişkilendiriyor. Kaspersky araştırmacıları, yapay zeka araçlarının 2023 yılında siber suçlulara kötü niyetli faaliyetlerinde nasıl yardımcı olduğunu ortaya koyarken, aynı zamanda bu teknolojinin savunma alanındaki potansiyel uygulamalarını da gözler önüne seriyor. Kaspersky uzmanları raporda ayrıca gelecekte yapay zeka ile ilgili tehditlerin nasıl değişebileceğine de değiniyor.
Daha karmaşık güvenlik açıkları
Belli talimatları takip edebilen LLM’ler tüketiciye yönelik daha fazla ürüne entegre edildikçe, üretken yapay zeka ile geleneksel teknolojilerin kesiştiği noktada yeni ve karmaşık güvenlik açıkları ortaya çıkacak. Bu da siber güvenlik uzmanlarının güvence altına alması gereken saldırı yüzeyini genişlemesine neden olacak. Bu durum, geliştiricilerin LLM aracıları tarafından başlatılan eylemler için kullanıcı onayı gibi yeni güvenlik önlemleri üzerinde çalışmasını gerektiriyor.
Siber güvenlik uzmanları için kapsamlı yapay zeka asistanları çıkacak
Kırmızı ekip üyeleri ve araştırmacılar, yenilikçi siber güvenlik araçları için üretken yapay zekadan yararlanacak ve bu da LLM veya makine öğrenimi (ML) tabanlı asistanların yolunu açacak. Bu araç, pentesting ortamında yürütülen komutlara dayalı rehberlik sunarak kırmızı ekiplerin görevlerini otomatikleştirme potansiyeline sahip.
Yapay sinir ağları dolandırıcılığa yönelik görseller üretmek için daha fazla kullanılacak
Önümüzdeki yıl, dolandırıcılar yapay sinir ağlarını kullanarak taktiklerini güçlendirecek ve daha ikna edici sahte içerikler oluşturmak için yapay zeka araçlarından yararlanacak. Zahmetsizce ikna edici görseller ve videolar üretebilen kötü niyetli aktörler, dolandırıcılık ve sahtekarlıklarla ilgili siber tehditleri tırmandırma riskini artıracak.
Yapay zeka 2024 yılında tehdit ortamında çığır açan değişimlerin itici gücü olmayacak
Yukarıda yer verilen gelişmelere rağmen Kaspersky uzmanları, yapay zekanın yakın zamanda tehdit ortamını önemli ölçüde değiştireceği konusuna şüpheyle yaklaşıyor. Siber suçlular üretken yapay zekayı benimserken, aynı durum yazılımların ve ağların güvenliğini artırmak için gelişmiş araçları test edecek siber güvenlik uzmanları için de geçerli. Bu da saldırı ortamının büyük ölçüde değişmesini olası kılmıyor.
Özel sektörün katkısıyla yapay zeka ile ilgili daha fazla regülasyon girişimi olacak
Teknoloji geliştikçe, bu gelişime uygun düzenleme ve regülasyonlar da söz konusu oluyor. Bu doğrultuda yapay zeka ile ilgili düzenleyici girişimlerin sayısı da artacak. Teknoloji şirketleri gibi kamu harici aktörler, yapay zeka geliştirme ve kullanma konusundaki uzmanlıkları göz önüne alındığında, hem küresel hem de ulusal platformlarda yapay zeka regülasyonlarına dair tartışmalar açısından çok değerli bilgiler sağlayabilir.
Yapay zeka tarafından oluşturulan içeriklerin filigranla işaretlenmesi gündeme gelecek
Sentetik içeriğin işaretlenmesi veya tanımlanması için daha fazla düzenlemenin yanı sıra yeni hizmet sağlayıcı politikaları da gerekecek. Bunun sonucunda hizmet sağlayıcılar tespit teknolojilerine yatırım yapmaya devam edecek. Geliştiriciler ve araştırmacılar ise daha kolay tanımlama ve kaynak gösterme için sentetik medyayı filigranlama yöntemlerine katkıda bulunacaklar.
Kaspersky Güvenlik Uzmanı Vladislav Tushkanov, konuyla ilgili olarak şunları söyledi: "Siber güvenlikte yapay zeka iki ucu keskin bir kılıca benziyor. Yapay zekanın uyarlanabilen yetenekleri, gelişen tehditlere karşı proaktif bir kalkan sunarak savunmamızı güçlendirebilir. Ancak aynı dinamizm, saldırganlar daha sofistike saldırılar düzenlemek için yapay zekadan yararlanması sonucunu da doğurabilir. Hassas verileri aşırı paylaşmadan, sorumlu kullanım sağlayarak doğru dengeyi kurmak, dijital sınırlarımızı güvence altına almak adına çok önemlidir."