OpenAI, ChatGPT’nin açığını kapattı
OpenAI, ChatGPT’nin Deep Research aracında Gmail verilerini sızdırabilecek kritik bir güvenlik açığını kapattı. Açığın istismar edildiğine dair bulgu yok.
Radware araştırmacıları, ChatGPT’nin Deep Research aracında Gmail’e bağlanan kullanıcıların verilerinin sızdırılmasına yol açabilecek bir güvenlik açığı tespit etti. OpenAI açığın 3 Eylül’de giderildiğini bildirdi; araştırmacılar istismar edildiğine dair bulgu olmadığını söyledi.
AÇIĞIN KAPSAMI VE RİSKLER
Siber güvenlik firması Radware’e göre söz konusu açık, Deep Research aracını kullanan ve Gmail hesaplarını bu hizmete bağlayan kullanıcıların kurumsal ya da kişisel e-postalarındaki hassas verilerin sızdırılmasına neden olabilirdi. Araştırmacılar, bazı kullanıcıların farkında olmadan verilerini saldırganlara açmış olabileceğini belirtti.
DEEP RESEARCH NEDİR?
Şubat ayında kullanıma sunulan Deep Research, kullanıcılar adına çevrim içi araştırmayı daha kapsamlı yapmayı ve karmaşık sorulara hızlı yanıt vermeyi amaçlayan bir ChatGPT aracı. Kullanıcı yetkilendirmesiyle Gmail hesaplarına bağlanabiliyor ve ek ücret karşılığında erişilebiliyor.
Radware ekibi, kendilerine gönderdikleri bir e-postaya gizli talimatlar ekleyerek Deep Research aracını hedef gelen kutusunda tam ad ve adres gibi kişisel bilgileri aramaya yönlendirdi. Ardından aracı, bulduğu verileri kontrol ettikleri bir web adresine göndermesi için komutladı. Radware Tehdit Araştırma Direktörü Pascal Geenens, hedefteki kişinin herhangi bir şeye tıklamasına gerek kalmadan verilerin sızdırılabileceğini belirterek, “Eğer bir kurumsal hesap ele geçirilseydi, şirket bilgilerin dışarı çıktığını bile fark etmeyebilirdi” dedi.
OpenAI, Radware’e açığın 3 Eylül tarihinde düzeltildiğini iletti. Şirket, modellerinin güvenliğinin öncelikli olduğunu, bu tür açık istismarlara karşı standartlarını sürekli geliştirdiğini ve araştırmacıların saldırgan yöntemlerle yaptığı testleri memnuniyetle karşıladığını ifade etti.
Radware, açığın keşfedildiğini ancak saldırganlar tarafından istismar edildiğine dair herhangi bir kanıt bulunmadığını söyledi. Bulgular, son dönemde saldırganlar tarafından kullanılan yapay zekâ araçlarına ek olarak, ortaya çıkan yeni nesil yapay zekâ ajanlarının bizzat kullanıcı bilgilerini çalmak için kötüye kullanılabileceğine dair nadir bir örnek sunuyor.