Google’ın Yapay Zekâsı Siber Güvenlikte Yeni Bir Çağ Başlatıyor: 20 Güvenlik Açığı Tespit Edildi
Google, yapay zekâ destekli hata tespit sistemlerinin artık yalnızca bir gelecek vizyonu değil, günümüzün bir gerçeği olduğunu kanıtladı. Şirketin DeepMind ve siber güvenlik birimi Project Zero tarafından geliştirilen LLM (Büyük Dil Modeli) tabanlı sistem Big Sleep, ilk kez kamuya açıklanan raporlarında toplam 20 güvenlik açığını ortaya çıkardı.
Bu açıkların büyük çoğunluğu, dünya genelinde yaygın olarak kullanılan FFmpeg (ses ve video kütüphanesi) ve ImageMagick (görsel düzenleme yazılımı) gibi açık kaynaklı yazılımlarda tespit edildi. Henüz detaylar kamuya açıklanmasa da, Google tarafından uygulanan standart güvenlik politikası gereği, açıklar tamamen kapatılmadan içerik paylaşılmayacak.
“İnsan Müdahalesi Olmadan Keşfedildi”
Google Güvenlik Başkan Yardımcısı Heather Adkins’in duyurusuna göre, bu gelişme yapay zekânın siber güvenlik alanında etkin rol oynayabileceğini kanıtlıyor. Her ne kadar hata bildirimleri insan uzmanlar tarafından son kez kontrol edilse de, Big Sleep’in keşif süreci tamamen otonom olarak gerçekleşti.
Google sözcüsü Kimberly Samra, TechCrunch’a yaptığı açıklamada şu ifadeleri kullandı:
“Her bir güvenlik açığı, insan müdahalesi olmadan yapay zekâ tarafından tespit edilip yeniden üretildi. Kaliteli ve uygulanabilir raporlar sunabilmek adına yalnızca son adımda bir uzman göz kontrolü ekleniyor.”

Otomatik Hata Tespiti Yarışında Yeni Oyuncular
Big Sleep, bu alandaki tek yapay zekâ destekli sistem değil. RunSybil ve XBOW gibi başka projeler de hata avcılığı konusunda dikkat çekiyor. Özellikle XBOW, ABD merkezli hata ödül platformu HackerOne’da liderliğe yükselerek ses getirdi. Ancak ortak bir gerçek var: Bu sistemlerin tümü, hâlâ belirli ölçüde insan doğrulamasına ihtiyaç duyuyor.
RunSybil’in kurucu ortağı Vlad Ionescu, Big Sleep hakkında yaptığı değerlendirmede şu ifadeleri kullandı:
“Big Sleep gayet meşru bir proje. Arkasında bu işten anlayan insanlar, deneyimli bir ekip ve DeepMind gibi dev bir yapay zekâ altyapısı var.”
Sahte Hatalar: Yapay Zekânın En Zayıf Halkası mı?
Ancak yapay zekâ tabanlı hata avcılarının her zaman başarılı olduğu söylenemez. Özellikle yazılım geliştiriciler, AI sistemlerinin sık sık “halüsinasyonlar” gördüğünü, yani var olmayan hataları bildirdiğini ifade ediyor. Bazı uzmanlar, bu durumu “yapay zekâ çamuru” olarak tanımlıyor. Hatta bu tür sahte raporların, hata ödül sistemlerini gereksiz yere meşgul ettiğini söyleyenlerin sayısı da artıyor.
Ionescu, bu soruna dikkat çekerek şöyle diyor:
“Altın gibi görünen ama aslında çöp olan birçok şeyle karşılaşıyoruz. Gerçek değerli raporları bu karmaşada ayırt etmek gittikçe zorlaşıyor.”
Güvenlikte Gelecek: İnsan-Zekâ İş Birliği
Google Mühendislik Başkan Yardımcısı Royal Hansen, Big Sleep’in başarısını X (eski Twitter) üzerinden şu sözlerle duyurdu:
“Bu, otomatik güvenlik açığı tespiti için yepyeni bir sınırın keşfi.”
Big Sleep, yapay zekânın tek başına neler başarabileceğini gösterse de, sektör hâlâ insan zekâsı ile yapay zekânın iş birliğine ihtiyaç duyuyor. Hem verimliliği artırmak hem de yanlış pozitif raporları elemine etmek için bu hibrit yaklaşım kritik bir rol oynuyor.
Google’ın Big Sleep projesi, yapay zekânın yalnızca konuşma üretme ya da görsel tanıma gibi görevlerin ötesine geçerek, siber güvenlikte somut katkılar sunabileceğini gösterdi. Ancak bu teknolojilerin kusursuz olmadığı ve insan gözetiminin şimdilik vazgeçilmez olduğu da açık. Önümüzdeki yıllarda, yapay zekânın bu alanda nasıl evrileceği ise merak konusu.