Gmail kullanıcılarını hedef alan yeni bir siber saldırı yöntemi, yapay zekânın kötüye kullanılabileceğini gösterdi. Google’ın 2 milyarın üzerindeki Gmail kullanıcısı, e-postalara gizli komutlar enjekte eden bu yöntemle farkında olmadan tehlikeli içeriklere maruz kalabiliyor.
SALDIRI MEKANİZMASI: DOLAYLI KOMUT ENJEKSİYONU
Saldırganlar, “dolaylı komut enjeksiyonu” adı verilen teknikle zararlı komutları e-posta metinlerine beyaz zemin üzerine beyaz yazı olarak gömüyor. Gmail içindeki AI tabanlı özetleyici asistanı (Gemini), kullanıcıdan gelen “Bu e-postayı özetle” gibi talepleri işlediğinde bu gizli metni algılıyor. Sonuç olarak kullanıcı, Google’dan geliyormuş izlenimi veren sahte güvenlik uyarılarına inanıp oltalama linklerine tıklayabiliyor.
KEŞİF VE YÖNTEM DETAYLARI
Bu güvenlik açığını ilk olarak Mozilla’nın 0din adlı araştırma ağı tespit etti. Saldırganlar, böylece Google Workspace içindeki Gemini asistanını manipüle ederek, meşru e-postalardan ayırt edilemeyecek sahte uyarılar ürettiriyor. Gizli komutlar, ince HTML kodlarının arasına sıkıştırıldığı için sıradan spam filtreleri tarafından kolayca atlanabiliyor.
GÜVENLİK UZMANLARINDAN UYARILAR
- AI destekli özetlemelerdeki uyarılara şüpheyle yaklaşın.
- E-postalarda sıfır genişlikte metin ya da gizli HTML öğeleri barındıran içerikleri tespit etmeye özen gösterin.
- Bilinmeyen kaynaklardan gelen e-postaları özetlettirmeyin.
KORUNMA İÇİN ÖNERİLEN ADIMLAR
- Tanımadığınız ya da şüpheli bulduğunuz e-postalardaki bağlantılara asla tıklamayın.
- Yapay zekâ asistanlarının sunduğu özet içerikleri mutlaka dikkatlice inceleyin.
- E-posta filtreleme ve spam ayarlarınızı güncel tutun.
- Kurumsal güvenlik ekipleri için gizli komutları algılayan özel sistemler devreye alın.
Yapay zekâ, iletişimi kolaylaştırırken yeni tehditlere de kapı aralıyor. Gmail kullanıcıları, AI destekli tuzakları aşmak için hem teknik hem de farkındalık temelli önlemler almalı. Özellikle e-posta özetleme ve güvenlik uyarıları konusunda daha temkinli davranmak kritik önem taşıyor.