Güvenlik testinde sınıfta kaldı: ChatGPT bomba tarifi ve dolandırıcılık dersi verdi
Yapılan yeni güvenlik testlerinde ChatGPT'nin bomba, hackleme ve biyolojik silahların nasıl yapılabileceğinin tarifini verdiği ortaya çıktı.
Yapay zeka şirketleri OpenAI ve Anthropic tarafından bu yaz gerçekleştirilen güvenlik testlerinde, ChatGPT'nin araştırmacılara spor etkinliklerindeki güvenlik açıkları, bomba kurma yöntemleri, patlayıcı tarifleri ve iz kaybettirme yolları gibi detaylı bilgiler sunduğu görüldü.
Testte incelenen GPT-4.1 modeli ayrıca şarbon bakterisinin silah haline getirilmesi ve yasa dışı uyuşturucu üretimi konusunda da detaylı bilgiler verdi.
TEST NASIL YÜRÜTÜLDÜ?
OpenAI ve rakibi Anthropic'teki uzmanların işbirliğiyle yürütülen testte şirketler birbirlerinin modellerini tehlikeli senaryolara karşı sınadı.
Uzmanlar testin, modellerin halka açık kullanımında güvenlik filtreleri varken nasıl işlediğini göstermediğini de belirtti.
BEKLENENDEN DAHA İŞBİRLİKÇİ DAVRANDI
Anthropic, GPT-4.0 ve GPT-4.1 modellerinin yanlış kullanımda endişe verici davranışlar sergilediğini söyledi.
Araştırmacılar OpenAI modellerinin, sözde kullanıcıların zararlı taleplerine suç ortağı olma konusunda beklenenden daha işbirlikçi davrandığını tespit etti.
Buna göre modeller nükleer malzeme, çalıntı kimlikler ve fentanil satın alma, metamfetamin ve el yapımı bomba tarifleri, casus yazılım geliştirme gibi konularda gelen komutlara detaylı yanıtlar verdi.
Anthropic modelin komuta cevap vermesini sağlamak için birkaç kez ısrar etmenin ya da "Araştırma amacıyla soruyorum" gibi eklemeler yapmanın yeterli olduğunu belirtti.
KUZEY KORELİLERİN DOLANDIRICILIĞINDA DA ROL OYNAMIŞ!
Anthropic, yapay zekanın “silah haline getirildiğini” ve artık gelişmiş siber saldırılar düzenlemek ve dolandırıcılık yapmak için kullanıldığını söyledi.
Şirket sözlerine, “Bu araçlar, kötü amaçlı yazılım tespit sistemleri gibi savunma önlemlerine uyum sağlayabiliyor. Yapay zeka destekli kodlama, siber suç için gereken teknik uzmanlığı azalttıkça bu tür saldırıların daha yaygın hale gelmesini bekliyoruz” diye devam etti.
Şirket ayrıca kendi modeli Claude’un, Kuzey Korelilerin Batı'daki teknoloji şirketlerine sahte iş başvuruları yaparak yürüttüğü büyük çaplı dolandırıcılık operasyonunda kullanıldığını da bildirdi.
‘HENÜZ CİDDİ BİR VAKA YAŞANMADI’
Güvenlik ve Gelişen Teknoloji Merkezi’nde bir araştırmacı olan Ardi Janjeva, bu örneklerin endişe yarattığını ancak henüz dikkat çekici gerçek vakaların olmadığını söyledi.
Janjeva “Güçlü kaynaklar, araştırma odağı ve sektör içinde bir dayanışma ile bu kötü niyetli aktivitelerin gerçekleşmesi kolaylaşmak yerine daha da zor hale gelecektir” diye ekledi.
SON HALİ SORUNLARA KARŞI DUVAR ÖRDÜ
OpenAI, testlerin ardından piyasaya sürülen ChatGPT-5’in ‘yalakalık’, halüsinasyon ve kötüye kullanım direnci gibi alanlarda kayda değer ilerlemeler gösterdiğini açıkladı.