Makine öğrenmesi güvenliği için yeni "framework"

Microsoft yapılan saldırılara karşı tespit etme, cevap verme ve düzeltme konularında güvenlik analistlerine yardım etmesi için yeni bir açık sistem piyasaya sürdü. Microsoft yeni sistemi MITRE, IBM, NVIDIA ve Bosch ile iş birliği içerisinde geliştirdi.

Adversarial ML Threat Matrix isimli girişim makine öğrenmesi sistemlerini bozan kötü niyetli saldırganlar tarafından uygulanan farklı teknikleri organize etmeyi hedefliyor.

Güvenlik önlemleri yeteri kadar değil

Tıpkı yapay zeka sistemleri gibi makine öğrenmesinin de çeşitli özgün uygulamaları mevcut. Tehdit teşkil eden kişiler teknolojiyi kötü amaçlı yazılımlarını güçlendirmek için suiistimal etmenin yanında makine öğrenmesi modellerini bozulmuş veri setleri ile kandırma yeteneğine de sahip. Böylece yapay zeka uygulamalarının güvenliği ve istikrarlılığı için tehdit teşkil etmiş oluyorlar.

Geçen sene ESET’in araştırmacıları Emotet olarak anılan phishing (oltalama) ile yayınlan bir kötü amaçlı yazılımın makine öğrenmesi kullanarak hedefleme tekniklerini geliştirdiğini keşfetti.

Ekim ayının başında ise Microsoft makine öğrenmesi modeli içeren bir Android ransomware türü konusunda uyarıda bulunmuştu.

Araştırmacılar tarafından üzerine daha fazla çalışılan konu ise model-inversion saldırısı adı verilen modele erişimin sistemi eğitmek için kullanılan verilerinden bilgi elde edilmek adına suiistimal edildiği saldırılar.

Microsoft tarafından atıfta bulunulan Gartner raporuna göre, 2022 yılına kadar sistemi eğitmek için kullanılan veri setlerinin bozulması, model hırsızlığı ya da makine öğrenmesi ile çalıştırılan sistemlere saldıracak örneklerinin tüm yapay zeka siber saldırılarının %30’u tarafından kullanılması bekleniyor.

Makine öğrenmesi sistemlerini güvene almak için sunulan ikna edici nedenlere rağmen Microsoft tarafından yapılan ve 28 şirketi kapsayan ankete göre 28 şirketten 25’i makine öğrenmesi sistemlerini güvene almak için kullanabilecekleri doğru uygulamalara sahip değil.

Adversarial ML Threat Matrix’i kullanarak yapay zeka modellerinin direncinin şirketler tarafından test edilebilmesi isteniyor. Ortama erişim sağlama, güvenli olmayan makine öğrenmesi modellerini yürütme, yapay zekayı eğitmek için kullanılan veri setlerini bozma ve model çalma saldırıları ile hassas bilgileri çekme gibi teknikler kullanılarak Adversarial ML Threat Matrix gerçekçi saldırı senaryolarını taklit edecek.

Microsoft tarafından yapılan açıklamaya göre Adversarial ML Threat Matrix sisteminin amacı makine öğrenmesi sistemlerini bir ortam üzerinde saldırı altına sokarak güvenlik analistlerinin kendilerini gelecek tehditler için hazırlamasını sağlamak.

Editör : SavunmaTR Haber Merkezi

Buy JNews Buy JNews Buy JNews
REKLAM

Benzer Haberler

Hoşgeldiniz

Aşağıdaki hesabınıza giriş yapın

Şifrenizi Sıfırlayın

Şifrenizi sıfırlamak için lütfen kullanıcı adınızı veya e-posta adresinizi giriniz.