Son bir yıldır yapay zeka sohbet botlarının yol açtığı intihar, hastaneye kaldırılma, tutuklama ve “AI psikozu” vakaları gündemde. Uzmanların uyarılarına rağmen şirketlerin yeterli önlem almadığı eleştirileri sürerken, OpenAI uzun süredir “kopyala-yapıştır” açıklamalar dışında somut adım atmamakla suçlanıyordu.

MESAJLAR İNSAN EKİBİNE YÖNLENDİRİLİYOR

Şirketin yeni yayımladığı blog yazısında, kullanıcı mesajlarının tarandığı ve tehlikeli içeriklerin özel bir insan ekibine iletildiği belirtildi. Açıklamada, “Başkasına zarar vermeyi planlayan kullanıcıları tespit ettiğimizde, konuşmalarını kullanım politikalarımız konusunda eğitimli küçük bir ekibe yönlendiriyoruz. Bu ekip hesap kapatma dâhil çeşitli adımlar atabilir” denildi.

Eğer ekip, ciddi ve yakın bir tehdit olduğunu belirlerse olayın kolluk kuvvetlerine aktarılabileceği ifade edildi. Ancak OpenAI, “özel hayatın gizliliği” gerekçesiyle kendine zarar verme durumlarını şu an için polise bildirmeyeceklerini vurguladı.

KURALLAR VE BELİRSİZLİKLER

OpenAI’nin kullanım politikalarında intiharı teşvik etmek, silah geliştirmek, başkalarına zarar vermek veya güvenlik ihlali gerçekleştirmek yasak faaliyetler arasında yer alıyor. Ancak hangi sohbetlerin insan incelemesine ya da polise bildirimine yol açabileceği konusunda belirsizlik sürüyor.

Öte yandan, bu yeni kuralın şirketin gizlilik odaklı söylemleriyle çeliştiği yorumları yapılıyor. New York Times ile süren dava kapsamında OpenAI, kullanıcı sohbetlerini mahkemeye sunmamak için gizlilik gerekçesini savunurken, bir yandan da sohbetlerin incelenip gerektiğinde paylaşıldığını kabul etmiş oldu.

GİZLİLİK VE ÇELİŞKİLER

CEO Sam Altman da geçen ay bir podcast’te yaptığı açıklamada, ChatGPT’yi bir terapist ya da avukat gibi kullanmanın “mesleki gizlilik” koruması sağlamadığını itiraf etmişti. Altman, devam eden dava sürecinde kullanıcı sohbetlerinin mahkemelere teslim edilmek zorunda kalabileceğini söylemişti.

Şirket, kullanıcıların yaşadığı trajik krizler nedeniyle ağır eleştiriler altında. Ancak teknolojisini bu tür zararları önleyecek kadar kontrol edemediği gerekçesiyle, şimdi ağır moderasyon yöntemlerine başvuruyor. Bu durum da hem kullanıcı gizliliği hem de şirketin kendi vaatleriyle çelişiyor.