Wydrukuj tę stronę
niedziela, 13 styczeń 2019 11:33

WhatsApp ma problem z pornografią dziecięcą

Napisane przez Redakcja

Odkryto, że użytkownicy WhatsAppa tworzyli czaty grupowe, aby udostępniać zdjęcia przedstawiające seksualne wykorzystywanie dzieci. Czy podobnie jak Tumblra zachęci to właścicieli WhatsAppa do wycofania zgody na zamieszczanie w czatach wszelkiej pornografii?



Najpierw był Tumblr, a teraz WhatsApp. W listopadzie ubiegłego roku odkryto, że zdjęcia przedstawiające seksualne wykorzystywanie dzieci były udostępniane na popularnej platformie mediów społecznościowych Tumblr. W rezultacie Apple usunął aplikację Tumblr ze swojego App Store. W grudniu Tumblr zdecydował, że jedynym sposobem na naprawę tego problemu jest usunięcie całej zawartości pornograficznej ze swojej platformy.

Teraz WhatsApp stoi przed tym samym problemem. WhatsApp, należąca do Facebooka, jest jedną z najpopularniejszych aplikacji do przesyłania wiadomości na świecie. Na początku ubiegłego roku WhatsApp osiągnął 1,5 miliarda użytkowników miesięcznie, z ponad 60 miliardami wiadomości wysyłanych dziennie. Niedawno odkryto, że niektórzy użytkownicy WhatsApp tworzyli czaty grupowe, aby udostępniać zdjęcia przedstawiające seksualne wykorzystywanie dzieci (pornografię dziecięcą). Chociaż tych grup nie można przeszukiwać w aplikacji, utworzono wiele innych połączeń wyszukiwania i udostępniania linków do grup dołączających. Ponad 130 000 kont zostało już zbanowanych za udział w tych grupach, jednak to nie usunie problemu całościowo.
Dlaczego?
Istnieją dwa główne czynniki, które przyczyniają się do rozpropagowywania przez użytkowników pornografii dziecięcej:

1. Chociaż pornografia dziecięca jest zabroniona, na WhatsApp dozwolona jest pornografia dla dorosłych, a to pozwolenie na pornografię dla dorosłych otwiera drzwi do toksycznego działania. Granice są powoli popychane, a zawartość staje się stopniowo coraz bardziej ekstremalna.
Wiemy ze świadectw prokuratorów pornografii dziecięcej o mechanizmie: że zaczyna się ona od pornografii osób dorosłych, a potem –„ściąga w dół”, do oglądania bardziej ekstremalnych treści, takich jak pornografia dziecięca. Wynika to z potrzeby eskalacji. A ponieważ platformy stają się miejscem spotkań konsumentów pornografii dorosłych, konsekwencją jest to, że na stronach ostatecznie pojawi się pornografia dziecięca.

2. WhatsApp nie ma właściwej moderacji.
Facebook ma zespół 20 000 pracowników monitorujących treści publikowane na platformie. Natomiast należący do Facebooka WhatsApp ma zaledwie 300 pracowników, co jest niewystarczające, by monitorować chociaż część z 60 miliardów wiadomości. A jak widać poleganie na automatycznym moderowaniu nie wystarczy.

Najskuteczniejszym rozwiązaniem problemu WhatsAppa byłoby podążenie za przykładem Tumblra i usunięcie wszystkich treści pornograficznych z platformy.

Na podstawie: End Sexual Exploitation
https://endsexualexploitation.org/articles/whatsapp-has-a-child-pornography-problem/

Artykuły powiązane