Neke od najvećih društvenih mreža na internetu ne uspijevaju otkriti i ukloniti opasan sadržaj o samoubistvima i samoozljeđivanju, pokazalo je novo istraživanje.
Istraživanje Fondacije Molly Rose pokazalo je da su uprkos više od 12 miliona odluka o moderiranju sadržaja, koje je donijelo šest najvećih platformi, samo dvije - Pinterest i TikTok otkrile i uklonile više od 95 posto takvog sadržaja na internetu.
Dobrotvorna organizacija je rekla da su Metin Instagram i Facebook odgovorni za samo 1 posto otkrivenih sadržaja o samoubistvu i samoozljeđivanju, a X, prije poznat kao Twitter, odgovoran je za samo jednu od 700 odluka o moderiranju sadržaja.
Studija je analizirala javno dostupne zapise o više od 12 miliona odluka o moderiranju sadržaja koje je donijelo šest mreža: Facebook, Instagram, Pinterest, Snapchat, TikTok i X.
Prema studiji odgovor većine platformi na sadržaj o samoubistvu i samoozljeđivanju bio "nedosljedan, neujednačen i neprimjeren cilju”.
Predsjednik dobrotvornog udruženja Ian Russell i njegova porodica osnovali su Fondaciju Molly Rose u znak sjećanja na njegovu kćer Molly, koja je okončala život u 14. godini, u novembru 2017., nakon gledanja štetnog sadržaja na društvenim mrežama.
Gotovo sedam godina nakon Mollyne smrti šokantno je vidjeti kako većina velikih tehnoloških kompanija i dalje sjedi skrštenih ruku i bira nedjelovanje umjesto spašavanja mladih života, rekao je Russell. Nema ako, nema ali, jasno je da je potrebna odlučna akcija.
Fondacija je otkrila da društvene mreže rutinski ne uspijevaju otkriti štetan sadržaj u najrizičnijim dijelovima svojih usluga.
Na primjer, rečeno je da je samo jedna od 50 objava o samoubistvu i samoozljeđivanju koje je otkrio Instagram bio video, uprkos tome što funkcija kratkog formata Reels sada čini polovicu vremena provedenog u aplikaciji.
Studija je također optužila mreže da ne provode vlastita pravila, ističući da je TikTok otkrio gotovo tri miliona sadržaja o samoubistvu i samoozljeđivanju, ali je suspendirao samo dva računa.
Istraživanje se temeljilo na odlukama o moderiranju sadržaja donesenim u EU, koje moraju biti javno dostupne.
Kao odgovor na studiju, glasnogovornik Mete rekao je: Sadržaj koji potiče na samoubistvo i samoozljeđivanje krši naša pravila. Ne vjerujemo da statistika u ovom izvještaju odražava naše napore. Samo u prošloj godini uklonili smo 50,6 miliona takvog sadržaja na Facebooku i Instagramu globalno, a 99% je uklonjeno prije nego što nam je prijavljeno. Međutim, u EU trenutno nismo u mogućnosti primijeniti sve naše mjere koje se izvode u Ujedinjenom Kraljevstvu i ostatku svijeta.
Glasnogovornik Snapchata rekao je: Sigurnost i dobrobit naše zajednice glavni su prioritet. Snapchat je osmišljen kako bi se razlikovao od drugih platformi, bez otvorenog newsfeeda neprovjerenog sadržaja i moderiranja sadržaja prije javne distribucije. Strogo zabranjujemo sadržaj koji promiče ili potiče samoozljeđivanje ili samoubistvo, a ako to identificiramo ili nam se prijavi, brzo ga uklanjamo i poduzimamo odgovarajuće mjere. Također dijelimo resurse za prevenciju samoozljeđivanja i podršku kada saznamo da je član naše zajednice u nevolji i možemo obavijestiti hitne službe kada je to potrebno.
TikTok nije komentirao studiju, ali je rekao da su njegova pravila jasna - ne dopuštaju prikazivanje, promicanje ili dijeljenje planova za samoubistvo ili samoozljeđivanje.
Pinterest i X nisu odgovorili na zahtjev za komentar.