Siber saldırı türlerine yapay zeka etkisi!
Microsoft ve OpenAI yetkilileri yaptıkları açıklamalarda bilgisayar korsanlarının mevcut siber saldırılarını iyileştirmek ve geliştirmek için ChatGPT gibi büyük dil modellerini kullandıklarını söylemişlerdi. Yeni yayınlanan araştırmada Microsoft ve OpenAI, Rus, Kuzey Kore, İran ve Çin destekli grupların hedefleri araştırmak, senaryoları geliştirmek ve sosyal mühendislik teknikleri oluşturmaya yardımcı olmak için ChatGPT gibi araçları kullanma girişimlerini tespit etti.
Microsoft yayınladığı bir blog yazısında “Siber suç grupları, ulus-devlet tehdit aktörleri ve diğer düşmanlar, operasyonları için potansiyel değeri ve atlatmaları gerekebilecek güvenlik kontrollerini anlamak amacıyla ortaya çıktıkça farklı yapay zeka teknolojilerini araştırıyor ve test ediyor” şeklinde açıklama yaptı. Rus askeri istihbaratıyla bağlantılı Strontium grubunun “uydu iletişim protokollerini, radar görüntüleme teknolojilerini ve belirli teknik parametreleri anlamak için LLM’leri (Büyük Dil Modellerini) kullandığı tespit edildi. APT28 ya da Fancy Bear olarak da bilinen siber grup Rusya-Ukrayna savaşı sırasında aktif olmuştu ve daha önce 2016 yılında Hillary Clinton’ın başkanlık kampanyasını hedef almıştı.
Microsoft’a göre grup ayrıca “teknik işlemleri potansiyel olarak otomatikleştirmek veya optimize etmek için dosya manipülasyonu, veri seçimi, düzenli ifadeler ve çoklu işlem dahil olmak üzere temel komut dosyası görevlerine” yardımcı olmak için yapay zeka dil modellerini kullanıyor.
Thallium olarak bilinen Kuzey Koreli bir bilgisayar korsanlığı grubu, kamuya açık olarak bildirilen güvenlik açıklarını ve hedef kuruluşları araştırmak, temel komut dosyası görevlerine yardımcı olmak ve kimlik avı kampanyaları için içerik hazırlamak için yapay zeka dil modellerini kullanıyor. Microsoft, Curium olarak bilinen İranlı grubun da kimlik avı e-postaları ve hatta antivirüs uygulamaları tarafından tespit edilmekten kaçınmak için kod oluşturmak üzere yapay zeka dil modellerini kullandığını söylüyor. Çin devletine bağlı bilgisayar korsanları da yapay zeka dil modellerini araştırma, komut dosyası oluşturma, çeviri ve mevcut araçlarını iyileştirmek için kullandığı biliniyor.
Özellikle WormGPT ve FraudGPT gibi yapay zeka araçlarının kötü niyetli e-postaların ve kırma araçlarının oluşturulmasına yardımcı olmak için ortaya çıkması nedeniyle siber saldırılarda yapay zekanın kullanımına ilişkin korkular oluştu. Ulusal Güvenlik Ajansı’ndan üst düzey bir yetkili de geçen aylarda bilgisayar korsanlarının kimlik avı e-postalarının daha inandırıcı görünmesini sağlamak için yapay zeka kullandıkları konusunda uyarıda bulundu.
WormGPT, ChatGPT’nin siyah şapkalı hacker versiyonu olarak biliniyor. SlashNext’in son araştırmasına göre, 2021’de geliştirilen GPTJ dil modelini temel alan WormGPT, OpenAI’nin ChatGPT’sinin etik sınırları olmayan muadili olarak işlev görüyor. Aracın, özellikle kötü amaçlı yazılımlarla ilgili verilere odaklanan geniş bir veri kaynak yelpazesi üzerinde eğitildiği iddia ediliyor. Bununla birlikte, eğitim sürecinde kullanılan kesin veri kümeleri hakkında herhangi bir bilgi bulunmuyor. Geliştiricileri, aracın karakter desteği ile sohbet belleği saklama ve kod biçimlendirme özellikleriyle övünüyor.
FraudGPT ise WormGPT’ye benzer bir yapay zeka aracı olarak yalnızca kimlik avı e-postaları, kredi kartı dolandırıcılığı gibi saldırgan operasyonlar için pazarlanıyor.
Microsoft ve OpenAI henüz yapay zeka dil modellerini kullanan herhangi bir “önemli saldırı” tespit edilmedi şeklinde açıklama yapsalar da, önlem gereği şirketler bu siber korsan gruplarıyla ilişkili tüm hesapları ve varlıkları kapatarak aksiyon aldılar. Microsoft, “Aynı zamanda, iyi bilinen tehdit aktörlerinin girişimlerini gözlemlediğimiz erken aşamadaki hamleleri ortaya çıkarmak ve bunları nasıl engellediğimize ve bunlara nasıl karşı koyduğumuza dair bilgileri savunma topluluğuyla paylaşmak için bunun yayınlamak adına önemli bir araştırma olduğunu düşünüyoruz” şeklinde bir açıklama yaptı.
Yapay zekanın siber saldırılarda kullanımı şu anda sınırlı gibi görünse de Microsoft, ses taklidi gibi gelecekteki kullanım durumları konusunda uyarıda bulunuyor. Microsoft “Yapay zeka destekli dolandırıcılık bir başka kritik endişe kaynağıdır. Ses sentezi bunun bir örneğidir; üç saniyelik bir ses örneği, bir modeli herhangi biri gibi ses çıkaracak şekilde eğitebilir. Sesli mesaj karşılama mesajınız gibi zararsız bir şey bile yeterli bir örnek elde etmek için kullanılabilir.” diyerek kullanıcılara riskleri belirten bir açıklama yaptı.
Doğal olarak, Microsoft’un çözümü yapay zeka saldırılarına yanıt vermek için yapay zekayı kullanıyor. Microsoft’ta baş tespit analitiği yöneticisi olan Homa Hayatyfar, “Yapay zeka, saldırganların saldırılarını daha karmaşık hale getirmelerine yardımcı olabilir ve bu konuda kullanabilecekleri kaynaklara sahipler” diyor. Hayatyfar “Bunu Microsoft’un izlediği 300’den fazla tehdit aktöründe gördük ve yapay zekayı korumak, tespit etmek ve yanıt vermek için kullanıyoruz.” şeklinde açıklamasına ekledi.
Microsoft, siber güvenlik uzmanlarının ihlalleri tespit etmesi ve siber güvenlik araçları aracılığıyla her gün üretilen büyük miktarda sinyal ve veriyi daha iyi anlaması için tasarlanmış yeni bir yapay zeka asistanı olan Security Copilot teknolojisini geliştiriyor. Yazılım devi ayrıca büyük Azure bulut saldırılarının ve Rus hackerların Microsoft yöneticilerini gözetlemesinin ardından yazılım güvenliğini elden geçiriyor.