Galler’in South Wales bölgesinde yaşanan olayda, iki yüzücü ChatGPT’ten edindikleri yanlış gelgit saatine güvenerek tehlikeli sulara girdi.

Yerel haber sitesi WalesOnline’ın aktardığına göre, yüzücüler Sully Adası’ndan karaya dönmeye çalışırken su seviyesi hızla yükselmeye başladı. O sırada bölgedeki bir restoranın sahibi Gordon Hadfield, megafonla bağırarak yüzücüleri geri dönmeleri konusunda uyardı. Uyarının zamanında yapılması, iki kişinin hayatını kurtardı.

YANLIŞ BİLGİ HAYATİ RİSK OLUŞTURDU

Bölge, yaklaşık 15 metreyi bulan dünyanın en yüksek ikinci gelgit farkına sahip. Yaz aylarında sık sık turistler, hızla yükselen sular nedeniyle adada mahsur kalıyor. Sully Adası’na uzanan dar geçitte suyun saatte 8 mil hızla yükselebildiği belirtiliyor.

Yüzücülerden biri WalesOnline’a yaptığı açıklamada, “ChatGPT’ten düşük su saatini araştırmak için yardım aldım. Bana 09.30 dedi. Ancak dönerken her şey tamamen farklıydı. Benim için büyük bir ders oldu,” ifadelerini kullandı.

“YEREL HALKIN BİLGİSİ HAYAT KURTARDI”

Kraliyet Ulusal Can Kurtarma Kurumu (RNLI) sözcüsü, olayın ölümle sonuçlanmamasının büyük bir şans olduğunu belirterek, “Bölgede yaşayan insanlar ve Gordon Hadfield gibi duyarlı kişilerin tehlikenin farkında olması harika. Bu tür uyarılar muhtemelen iki hayatı kurtardı,” dedi.

SOSYAL MEDYADA TEPKİ YAĞDI

Olayın ardından sosyal medyada yüzücülere yönelik eleştiriler gecikmedi. Bir kullanıcı, “ChatGPT’ye banyo nasıl yapılır diye bile güvenmem!” yorumunu yaparken, bir diğeri “Med-cezir saatleri için hâlâ basılı kaynaklar var, neden ChatGPT’ye sorsunlar anlamıyorum” ifadelerini kullandı.

BENZER OLAYLAR DÜNYA GENELİNDE YAŞANIYOR

Bu olay, yapay zekâ sohbet botlarının yanlış yönlendirmeleri nedeniyle yaşanan tehlikelerin son örneği oldu. Kanada’nın Vancouver kentinde iki yürüyüşçü, ChatGPT’nin tavsiyesiyle yanlış rota seçip karda mahsur kalmış ve kurtarma ekipleri tarafından kurtarılmıştı.

BBC’nin haberine göre, bazı turistler de yapay zekânın verdiği hatalı bilgiler nedeniyle var olmayan turistik noktalara yönlendirilmişti. Carnegie Mellon Üniversitesi öğretim üyesi Rayid Ghani, “Yapay zekâ sözcükleri anlamıyor, sadece anlamlı gibi görünen cümleler kuruyor. Sorun tam olarak burada başlıyor,” değerlendirmesinde bulundu.