O mowie nienawiści w dobie społeczeństwa zinformatyzowanego

Obecny wpis stanowi fragment mojej aktywności w ramach projektu [iTrust]. Interventions against polarisation in society for TRUSTworthy social media: From diagnosis to therapy, do którego dołączyłem na początku roku. Jednym z celów projektu jest zidentyfikowanie nowego rodzaju zagrożeń, które pojawiły się wraz z postępującą informatyzacją życia społecznego. Przynajmniej część z nich wiąże się z najnowszym wymiarem tejże informatyzacji, czyli wprowadzaniem do przestrzeni publicznej narzędzi i wytworów sztucznej inteligencji (SI).

Naszą rozmowę chciałbym zogniskować wokół zagrożenia, które stanowi coś w rodzaju wspólnego mianownika wielu różnych niepokojących zjawisk, a mianowicie na szerzeniu treści nienawistnych, co określa się powszechnie mową nienawiści (ang. hate speech).
Co ciekawe, prawna definicja tego zjawiska – które powinno przecież być ścigane prawnie! – nie istnieje. W prawie polskim pewną jej kontekstową namiastką  są dwa artykuły Kodeksu Karnego (§1), 256 i 257, które stwierdzają, co następuje:

Kto publicznie propaguje faszystowski lub inny totalitarny ustrój państwa lub nawołuje do nienawiści na tle różnic narodowościowych, etnicznych, rasowych, wyznaniowych albo ze względu na bezwyznaniowość, podlega karze pozbawienia wolności do lat 2.” (art. 256)
Kto publicznie znieważa grupę ludności albo poszczególną osobę z powodu jej przynależności narodowej, etnicznej, rasowej, wyznaniowej albo z powodu jej bezwyznaniowości, podlega karze pozbawienia wolności do lat 3.” (art. 257)

W artykułach tych wskazano wybiórczo pewne cechy, tzw. cechy chronione, które identyfikują mowę nienawiści w ten sposób, że to właśnie poprzez odniesienie do nich dana wypowiedź kogoś (lub pewną grupę osób) znieważa, dyskryminuje, naraża na przemoc etc… Przykładowo, wypowiedź typu „Kowalski, jak każdy Polak, jest leniuchem i pijakiem, więc nie ma sensu go zatrudniać” obraża i dyskryminuje konkretną osobę ze względu na cechę przynależności do konkretnego narodu; pośrednio zaś obraża wszystkie osoby o wskazanej narodowości. Oprócz narodowości, w cytowanych artykułach wskazano rasę, grupę etniczną i stosunek do religii; nie wskazano jednak cech innych, które pojawiają się w ustawach antydyskryminacyjnych (na przykład płci, orientacji seksualnej czy  niepełnosprawności).
Listę cech chronionych, wraz z listą wartościowanych negatywnie czynności (jak obrażanie czy znieważanie), można by uznać za punkty odniesienia dla definicji mowy nienawiści. Być może jednak, należy poszukiwać definicji umocowanej etycznie, to znaczy takiej, w której określi się ogólnie pewne fundamentalne wartości, leżące u podstaw wyróżniania takich a nie innych zbiorów cech chronionych. Do wartości takich należałyby, na przykład, poszanowanie godności osoby ludzkiej czy tolerancja światopoglądowa.
Nie oczekuję, oczywiście, abyśmy przy okazji tego wpisu sformułowali ostateczną definicję, opartą na ostatecznych wartościach :), ale jeśli ktoś ma jakieś ciekawe propozycje, to serdecznie zapraszam do ich przedyskutowania.

Zjawisko mowy nienawiści i związane z nim zagrożenia nie są, rzecz jasna, niczym nowym, a tym bardziej, nie są czymś specyficznym dla społeczeństwa zinformatyzowanego. Wystarczy cofnąć się do lat 30. XX wieku i przywołać nienawistne (prze)mowy Adolfa Hitlera. Jak wszyscy wiemy, wywołały one niewyobrażalną wręcz eskalację dyskryminacji. Dyskryminacji, która przerodziła się stopniowo w okrutny program eksterminacji całych ras, narodów i grup etnicznych.
W kontekście społeczeństwa zinformatyzowanego przykład „Hitlera” jest o tyle zasadny, że dotyka sfery technologii. Naziści bowiem intensywnie wykorzystywali  ówczesne nowe technologie do wzmacniania swojego przekazu. Transmisje radiowe, filmy propagandowe, nagłośnienie na partyjnych wiecach…  to wszystko służyło hitlerowskiej machinie nienawiści, która była de facto machiną zbrodni.

Czy dzisiejsze technologie informatyczne, ze sztuczną inteligencją na czele, mogą posłużyć komuś do zbudowania równie przerażającej machiny zła? To ogromne pytanie pozostawmy na razie w tle. Zadajmy natomiast pytania skromniejsze, związane bezpośrednio z tematem wpisu.
Czy wspomniane technologie są wykorzystywane do wytwarzania i szerzenia mowy nienawiści?
W jaki sposób?
I jakie zjawiska stanowią o specyfice ich „mowo-nienawistnych” zastosowań?

W ramach swojego wkładu do dyskusji zwrócę uwagę na trzy kwestie:

1.
Popularność tzw. patostreamerów, którzy za pośrednictwem serwisów typu YouTube używają publicznie wulgaryzmów, szerzą treści homofobiczne, pokazują sceny znęcania się nad osobami niepełnosprawnymi…
Patostreaming przemawia szczególnie silnie do osób bardzo młodych, które, po pierwsze, traktują Internet jako swoje naturalne środowisko komunikacji, po drugie zaś, formują dopiero swoje moralne przekonania.

2.
Anonimowość osób i organizacji, które szerzą mowę nienawiści w Internecie.
Możliwość pozostania anonimowym, a wskutek tego bezkarnym, sprawia, że w Internecie o wiele częściej niż w innych mediach pojawiają się treści skrajne, obraźliwe, agresywne, polaryzujące…

3.
Rosnące możliwości wykorzystania SI w masowym szerzeniu mowy nienawiści.
Systemy SI nie muszą po prostu powielać treści podsuwanych im przez ludzi; one mogą zostać wytrenowane (na odpowiednich przykładach) do kreatywnego generowania nowych treści odpowiedniego typu. W takich przypadkach bardzo trudno jest zidentyfikować osoby czy instytucje odpowiedzialne za treść konkretnych przekazów.

Powyższe kwestie dotyczą ciemnej strony informatycznych technologii.
Patrząc bardziej optymistycznie, można upatrywać w nich pewnego remedium na nowego rodzaju zagrożenia – remedium o tyle obiecującego, że dotyczy ono tej samej sfery, sfery technologicznej, do której samo przynależy. Przykładowo, we wspomnianym na początku wpisu projekcie iTrust powstaje wyspecjalizowany chatbot, który będzie w stanie identyfikować w dostarczanych mu tekstach treści potencjalnie nienawistne. Oprócz rozpoznawania chatbot będzie wyjaśniał, dlaczego dokonał takiego a nie innego rozpoznania, a także proponował sformułowania alternatywne, wolne od fraz klasyfikowanych jako mowa nienawiści.

Aby jednak zagrożeniom przeciwdziałać, trzeba im się uważnie przyjrzeć: określić, czym różnią się nowe informatyczne szaty mowy nienawiści od jej bardziej tradycyjnych form.
Podyskutujmy o tym 😊.
Jako punkt wyjścia proponuję przyjąć pytania zadane w tekście.
Nie musimy się jednak do nich ograniczać…

Serdecznie zapraszam do rozmowy — Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Etyka, Światopogląd informatyczny. Dodaj zakładkę do bezpośredniego odnośnika.

Komentarze do O mowie nienawiści w dobie społeczeństwa zinformatyzowanego

  1. ha_sta pisze:

    Ciekawa w kontekście wątku mowy nienawiści i nowych technologii jest niekompatybilność europejskiego systemu prawnego, w ramach którego rozwinęło się prawo antydyskryminacyjne (w szerokim znaczeniu obejmujące także mowę nienawiści) ze sposobem zorganizowania mediów społecznościowych np. Facebooka, Instagrama czy X (dawnego Twittera), które pochodzą z USA. Regulacje europejskie, a także polskie prawo (nawet konstytucja) zawierają zakaz dyskryminacji. Tymczasem w tym roku media społecznościowe pod hasłem propagowania wolności słowa przestały filtrować i blokować treści mogące stanowić mowę nienawiści. Z dnia na dzień użytkownicy widzą coraz więcej brutalnych treści takich jak np. nagrania gwałtu oraz treści nienawistnych. Wolność słowa w porządku prawa europejskiego nie jest rozumiana w sposób absolutny, bo przecież kończy się tam gdzie słowa uderza w godność drugiego człowieka. Jednak europejskie regulacje antydyskryminacyjne nie są w stanie powstrzymać szerzenia treści nienawistnych spowodowanych dość prostolinijnym rozumieniem wolności słowa. Ani prawo polskie ani prawo europejskie wprost nie zakazują szerzenia treści nienawistnych. Obecne regulacje dotyczące jedynie dyskryminacji ze względu na katalog konkretnych cech są bezzębne w obliczu pojawiania się mowy nienawiści w Internecie. Zgadzam się z treścią wpisu, że potrzebujemy znaleźć definicję, która będzie odpowiadała na problem mowy nienawiści

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *