İnsan hakları kampanya grubu Global Witness tarafından yayımlanan yeni bir rapora göre TikTok algoritması, çocukların hesaplarına pornografik ve cinsel içerikli videolar öneriyor.
Araştırmacılar, yaşları 13 olarak belirtilen kullanıcılar için dört sahte hesap oluşturdu. TikTok’un güvenlik amaçlı "kısıtlanmış modunu" aktif hale getirmelerine rağmen, uygulama bu hesaplara cinsel içerikli arama terimleri önerdi.
Bu terimler, kullanıcıları cinsel ilişki simülasyonları, iç çamaşırı gösteren kadınlar, hatta doğrudan pornografik videolar içeren içeriklere yönlendirdi.
Global Witness’tan Ava Lee, “TikTok yalnızca çocukları koruyamamakla kalmıyor, onlara bu içerikleri aktif şekilde öneriyor" dedi.
VİDEOLARIN İÇİNE GİZLENDİ
Bazı örneklerde, cinsel ilişki içeren videolar çocukların görebileceği "masum" içeriklerin içine gizlenerek yerleştirildi. Bu yöntem, TikTok’un otomatik içerik filtrelerinden kaçmak için kullanıldı.
TikTok, kendilerine durum bildirildikten sonra hemen harekete geçtiklerini ve içerikleri kaldırdıklarını açıkladı. Ayrıca, arama öneri sisteminde iyileştirmeler yaptıklarını belirtti.
Şirket, reşit olmayan kullanıcıları korumaya yönelik 50'den fazla güvenlik özelliği sunduklarını savunuyor.