Microsoft araştırmacıları, ChatGPT ve Google Gemini gibi popüler yapay zeka asistanlarını etkileyen kritik bir güvenlik açığı keşfetti. “Fısıltı Sızıntısı” (Whisper Leak) adı verilen bu açık, şifrelemeyi kırmadan yalnızca veri ritmini analiz ederek kullanıcıların sohbet konularını %98 doğrulukla tahmin edebiliyor.
TLS ŞİFRELEMESİ YETERLİ DEĞİL
Yapay zeka sohbetleri genellikle TLS (Aktarım Katmanı Güvenliği) ile korunuyor. Bu sistem, yazılan kelimeleri dış gözlerden gizliyor. Ancak Microsoft’un bulgularına göre, mesajların iletim şekliyle ilgili “meta veriler” görünür kalıyor ve bu veriler kötüye kullanılabiliyor.
VERİ RİTMİYLE KONU TAHMİNİ
Araştırmacılar, 28 farklı büyük dil modelini test ederek iki tür soru seti oluşturdu: biri hassas konular (örneğin kara para aklama), diğeri ise rastgele günlük sorgular. Sohbet sırasında oluşan paket boyutu ve zamanlaması gibi veri ritimleri kaydedildi. Ardından bu ritimlere göre konuları tahmin eden bir yapay zeka eğitildi.
%98’İN ÜZERİNDE BAŞARI ORANI
Sonuçlar çarpıcıydı: Yapay zeka, şifreli metne erişmeden konuşmanın konusunu %98 doğrulukla tahmin etti. Üstelik her 10.000 konuşmadan yalnızca 1’i hedef alınsa bile, hassas içerikler %100 oranında tespit edilebildi.
SORUN ŞİFRELEMEDE DEĞİL, İLETİMDE
Uzmanlar, bu açığın TLS protokolünün kendisinden değil, şifreli trafiğin yapısı ve zamanlamasından kaynaklandığını belirtiyor. Yani şifreleme sağlam olsa bile, meta veriler sistemin zayıf noktası haline geliyor.
SEKTÖRE ACİL UYARI
Microsoft, yapay zeka sistemlerinin giderek daha hassas bilgilerle çalıştığını vurgulayarak LLM sağlayıcılarını bu tür sızıntılara karşı önlem almaya çağırıyor. Araştırmada önerilen üç savunma yöntemi ise saldırıları tamamen engelleyemedi.