O mowie nienawiści w dobie społeczeństwa zinformatyzowanego

Obecny wpis stanowi fragment mojej aktywności w ramach projektu [iTrust]. Interventions against polarisation in society for TRUSTworthy social media: From diagnosis to therapy, do którego dołączyłem na początku roku. Jednym z celów projektu jest zidentyfikowanie nowego rodzaju zagrożeń, które pojawiły się wraz z postępującą informatyzacją życia społecznego. Przynajmniej część z nich wiąże się z najnowszym wymiarem tejże informatyzacji, czyli wprowadzaniem do przestrzeni publicznej narzędzi i wytworów sztucznej inteligencji (SI).

Naszą rozmowę chciałbym zogniskować wokół zagrożenia, które stanowi coś w rodzaju wspólnego mianownika wielu różnych niepokojących zjawisk, a mianowicie na szerzeniu treści nienawistnych, co określa się powszechnie mową nienawiści (ang. hate speech).
Co ciekawe, prawna definicja tego zjawiska – które powinno przecież być ścigane prawnie! – nie istnieje. W prawie polskim pewną jej kontekstową namiastką  są dwa artykuły Kodeksu Karnego (§1), 256 i 257, które stwierdzają, co następuje:

Kto publicznie propaguje faszystowski lub inny totalitarny ustrój państwa lub nawołuje do nienawiści na tle różnic narodowościowych, etnicznych, rasowych, wyznaniowych albo ze względu na bezwyznaniowość, podlega karze pozbawienia wolności do lat 2.” (art. 256)
Kto publicznie znieważa grupę ludności albo poszczególną osobę z powodu jej przynależności narodowej, etnicznej, rasowej, wyznaniowej albo z powodu jej bezwyznaniowości, podlega karze pozbawienia wolności do lat 3.” (art. 257)

W artykułach tych wskazano wybiórczo pewne cechy, tzw. cechy chronione, które identyfikują mowę nienawiści w ten sposób, że to właśnie poprzez odniesienie do nich dana wypowiedź kogoś (lub pewną grupę osób) znieważa, dyskryminuje, naraża na przemoc etc… Przykładowo, wypowiedź typu „Kowalski, jak każdy Polak, jest leniuchem i pijakiem, więc nie ma sensu go zatrudniać” obraża i dyskryminuje konkretną osobę ze względu na cechę przynależności do konkretnego narodu; pośrednio zaś obraża wszystkie osoby o wskazanej narodowości. Oprócz narodowości, w cytowanych artykułach wskazano rasę, grupę etniczną i stosunek do religii; nie wskazano jednak cech innych, które pojawiają się w ustawach antydyskryminacyjnych (na przykład płci, orientacji seksualnej czy  niepełnosprawności).
Listę cech chronionych, wraz z listą wartościowanych negatywnie czynności (jak obrażanie czy znieważanie), można by uznać za punkty odniesienia dla definicji mowy nienawiści. Być może jednak, należy poszukiwać definicji umocowanej etycznie, to znaczy takiej, w której określi się ogólnie pewne fundamentalne wartości, leżące u podstaw wyróżniania takich a nie innych zbiorów cech chronionych. Do wartości takich należałyby, na przykład, poszanowanie godności osoby ludzkiej czy tolerancja światopoglądowa.
Nie oczekuję, oczywiście, abyśmy przy okazji tego wpisu sformułowali ostateczną definicję, opartą na ostatecznych wartościach :), ale jeśli ktoś ma jakieś ciekawe propozycje, to serdecznie zapraszam do ich przedyskutowania.

Zjawisko mowy nienawiści i związane z nim zagrożenia nie są, rzecz jasna, niczym nowym, a tym bardziej, nie są czymś specyficznym dla społeczeństwa zinformatyzowanego. Wystarczy cofnąć się do lat 30. XX wieku i przywołać nienawistne (prze)mowy Adolfa Hitlera. Jak wszyscy wiemy, wywołały one niewyobrażalną wręcz eskalację dyskryminacji. Dyskryminacji, która przerodziła się stopniowo w okrutny program eksterminacji całych ras, narodów i grup etnicznych.
W kontekście społeczeństwa zinformatyzowanego przykład „Hitlera” jest o tyle zasadny, że dotyka sfery technologii. Naziści bowiem intensywnie wykorzystywali  ówczesne nowe technologie do wzmacniania swojego przekazu. Transmisje radiowe, filmy propagandowe, nagłośnienie na partyjnych wiecach…  to wszystko służyło hitlerowskiej machinie nienawiści, która była de facto machiną zbrodni.

Czy dzisiejsze technologie informatyczne, ze sztuczną inteligencją na czele, mogą posłużyć komuś do zbudowania równie przerażającej machiny zła? To ogromne pytanie pozostawmy na razie w tle. Zadajmy natomiast pytania skromniejsze, związane bezpośrednio z tematem wpisu.
Czy wspomniane technologie są wykorzystywane do wytwarzania i szerzenia mowy nienawiści?
W jaki sposób?
I jakie zjawiska stanowią o specyfice ich „mowo-nienawistnych” zastosowań?

W ramach swojego wkładu do dyskusji zwrócę uwagę na trzy kwestie:

1.
Popularność tzw. patostreamerów, którzy za pośrednictwem serwisów typu YouTube używają publicznie wulgaryzmów, szerzą treści homofobiczne, pokazują sceny znęcania się nad osobami niepełnosprawnymi…
Patostreaming przemawia szczególnie silnie do osób bardzo młodych, które, po pierwsze, traktują Internet jako swoje naturalne środowisko komunikacji, po drugie zaś, formują dopiero swoje moralne przekonania.

2.
Anonimowość osób i organizacji, które szerzą mowę nienawiści w Internecie.
Możliwość pozostania anonimowym, a wskutek tego bezkarnym, sprawia, że w Internecie o wiele częściej niż w innych mediach pojawiają się treści skrajne, obraźliwe, agresywne, polaryzujące…

3.
Rosnące możliwości wykorzystania SI w masowym szerzeniu mowy nienawiści.
Systemy SI nie muszą po prostu powielać treści podsuwanych im przez ludzi; one mogą zostać wytrenowane (na odpowiednich przykładach) do kreatywnego generowania nowych treści odpowiedniego typu. W takich przypadkach bardzo trudno jest zidentyfikować osoby czy instytucje odpowiedzialne za treść konkretnych przekazów.

Powyższe kwestie dotyczą ciemnej strony informatycznych technologii.
Patrząc bardziej optymistycznie, można upatrywać w nich pewnego remedium na nowego rodzaju zagrożenia – remedium o tyle obiecującego, że dotyczy ono tej samej sfery, sfery technologicznej, do której samo przynależy. Przykładowo, we wspomnianym na początku wpisu projekcie iTrust powstaje wyspecjalizowany chatbot, który będzie w stanie identyfikować w dostarczanych mu tekstach treści potencjalnie nienawistne. Oprócz rozpoznawania chatbot będzie wyjaśniał, dlaczego dokonał takiego a nie innego rozpoznania, a także proponował sformułowania alternatywne, wolne od fraz klasyfikowanych jako mowa nienawiści.

Aby jednak zagrożeniom przeciwdziałać, trzeba im się uważnie przyjrzeć: określić, czym różnią się nowe informatyczne szaty mowy nienawiści od jej bardziej tradycyjnych form.
Podyskutujmy o tym 😊.
Jako punkt wyjścia proponuję przyjąć pytania zadane w tekście.
Nie musimy się jednak do nich ograniczać…

Serdecznie zapraszam do rozmowy — Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Etyka, Światopogląd informatyczny. Dodaj zakładkę do bezpośredniego odnośnika.

Komentarze do O mowie nienawiści w dobie społeczeństwa zinformatyzowanego

  1. ha_sta pisze:

    Ciekawa w kontekście wątku mowy nienawiści i nowych technologii jest niekompatybilność europejskiego systemu prawnego, w ramach którego rozwinęło się prawo antydyskryminacyjne (w szerokim znaczeniu obejmujące także mowę nienawiści) ze sposobem zorganizowania mediów społecznościowych np. Facebooka, Instagrama czy X (dawnego Twittera), które pochodzą z USA. Regulacje europejskie, a także polskie prawo (nawet konstytucja) zawierają zakaz dyskryminacji. Tymczasem w tym roku media społecznościowe pod hasłem propagowania wolności słowa przestały filtrować i blokować treści mogące stanowić mowę nienawiści. Z dnia na dzień użytkownicy widzą coraz więcej brutalnych treści takich jak np. nagrania gwałtu oraz treści nienawistnych. Wolność słowa w porządku prawa europejskiego nie jest rozumiana w sposób absolutny, bo przecież kończy się tam gdzie słowa uderza w godność drugiego człowieka. Jednak europejskie regulacje antydyskryminacyjne nie są w stanie powstrzymać szerzenia treści nienawistnych spowodowanych dość prostolinijnym rozumieniem wolności słowa. Ani prawo polskie ani prawo europejskie wprost nie zakazują szerzenia treści nienawistnych. Obecne regulacje dotyczące jedynie dyskryminacji ze względu na katalog konkretnych cech są bezzębne w obliczu pojawiania się mowy nienawiści w Internecie. Zgadzam się z treścią wpisu, że potrzebujemy znaleźć definicję, która będzie odpowiadała na problem mowy nienawiści

  2. julian_z pisze:

    Nawiązując do pierwszego akapitu; większym problemem niż mowa nienawiści wydaje się polaryzacja, która często idzie razem z nią w parze. Części jej przyczyn możemy doszukiwać się na mediach społecznościowych.

    Naturalnie, wszelkim portalom zależy na zysku, który jest bezpośrednio związany z popularnością witryn. Prowadzi to do tego, że użytkownikom specjalnie nie są pokazywane rzeczy, który sprawią, że możemy opuścić daną platformę. To zjawisko, wzmocnione, prowadzi to tworzenia się tak zwanych baniek informacyjnych. Proces informatyzacji społeczeństwa niestety nierzadko powoduje odcięcie się od informacji czy poglądów spoza internetu. Zmiany takie zdecydowanie można porównać do sytuacji ludzi, którzy podczas różnych okresów w historii byli poddawani propagandzie i przez brak innych możliwości pozyskania informacji prowadziły do bardzo wyraźnych zmian w postrzeganiu świata.

    Chatbot automatycznie identyfikujący treści nienawistne to pomysł, który w żadnym stopniu nie rozwiązuje fundamentalnego problemu: mamy trudności z rozpoznawaniem mowy nienawistnej. Poleganie na SI, aby ta mówiła nam, jakie słowa są nienawistne (i proponowała alternatywy) może być zgubne w sytuacji, gdy chatbot okaże się wadliwy lub ktoś chciałby uzyskać efekt idealnie odwrotny. Według mnie remedium nie leży w samej technologii, lecz możliwościach adaptacyjnych ludzi, którzy potrafią dostosować się nawet w najtrudniejszych warunkach.

    Należy edukować młode pokolenia, przeprowadzać szeroko zakrojone kampanie informacyjne oraz przede wszystkim, nie przywiązywać nadmiernej wagi do opinii przypadkowych osób (szczególnie) w internecie, a analizować je i samodzielnie formułować wnioski.

    • Paweł Stacewicz pisze:

      Bardzo dziękuję za komentarz.
      Jeśli chodzi o zjawisko polaryzacji, to mowa nienawistna stanowi, według mnie, jedno narzędzi jej wytwarzania i/lub utrwalania. Zwłaszcza, jeśli chodzi o skrajne i nacechowane agresywnie, odmiany polaryzacji.
      W ramach wspomnianego we wpisie projektu [itrust] zjawisko polaryzacji jest również analizowane i objaśniane.
      Zachęcam do obejrzenia następującego filmu Jakuba Prusia (uczestnika projektu) na YT: https://www.youtube.com/watch?v=xex6Hc-w-Oo. Być może warto byłoby poświęcić poruszanej tam tematyce osobny wpis blogowy — pomyślę o tym.

      Jeśli chodzi o pomysł chatbota identyfikującego treści nienawistne i objaśniającego dokonane rozpoznania, to nie widzę przeszkód, aby taki chatbot służył celom edukacyjnym i przyczyniał się do większej świadomości młodego pokolenia w kwestiach dotyczących mowy nienawiści (np. jakie wypowiedzi i dlaczego należą do tej kategorii).

  3. da_i pisze:

    Anonimowość w Internecie ujawnia dwa istotne aspekty:
    1) Z jednej strony zapewnia pewien stopień bezpieczeństwa, ponieważ użytkownicy mogą pozostawać anonimowi, co niesie zarówno pozytywne, jak i negatywne konsekwencje. Anonimowość umożliwia swobodną wymianę myśli, w tym ujawnianie nadużyć i przestępstw osób wpływowych, które w innych warunkach mogłyby stosować represje wobec informatorów. Z drugiej strony sprzyja szerzeniu treści szkodliwych, w tym mowy nienawiści, bez obawy o konsekwencje prawne, jeśli nie zostanie to odpowiednio uregulowane i moderowane.
    2) Anonimowość może również sprzyjać skłonności niektórych użytkowników do wyrażania agresywnych, wulgarnych lub nienawistnych opinii, które w innych warunkach mogliby powstrzymać. Dla niektórych stanowi to formę odreagowania frustracji, jednak rodzi pytanie o granice dopuszczalnej ekspresji w przestrzeni cyfrowej. Czy powinno się tworzyć tzw. „kordon sanitarny” dla takich treści na zamkniętych platformach, czy też dążyć do całkowitego ich wyeliminowania?

    Drugą istotną kwestią jest definicja mowy nienawiści oraz egzekwowanie przepisów z nią związanych.

    Kto powinien określać, co kwalifikuje się jako mowa nienawiści, a także jakie sankcje powinny być stosowane? Istnieje ryzyko, że nieprecyzyjne regulacje mogłyby zostać wykorzystane do tłumienia niewygodnych opinii. Przykładowo, polityk krytykowany za swoją politykę mógłby argumentować, że sprzeciw wobec jego działań wynika wyłącznie z uprzedzeń związanych z jego pochodzeniem lub wyznaniem. Podobne obawy mogą dotyczyć systemu sądowniczego – jeśli sędzia miałby subiektywnie interpretować przepisy, istnieje ryzyko ich instrumentalnego wykorzystania. Aby uniknąć takich zagrożeń, regulacje powinny być precyzyjne i jednoznaczne, co jednak może być trudnym, jeśli nie niemożliwym zadaniem. W przeciwnym razie prawo dotyczące mowy nienawiści mogłoby zostać użyte jako narzędzie ograniczania wolności słowa.

  4. teoretyk pisze:

    Dla mnie rzeczą która powinna być absolutnie zakazana to jest używanie chatbotów które nie są jawnie określone jako chatboty. To zaburza kompletnie debatę bo człowiek może mówić dosłownie do ściany i wyrabiać sobie coraz gorszą opinię o drugiej stronie. To też zaburza określanie jak popularna jest dana opinia co sprawia że dane zachowanie jest normalizowane mimo że nigdy nie powinno być. Deepfake wideo to też technika manipulacyjna która będzie coraz skuteczniejsza. Używanie AI w sposób niejawny to nie jest wolność słowa. Wytępić boty będzie bardzo ciężko i może po prostu trzeba przestać używać internetu do dyskusji politycznych w ogóle.

  5. wm pisze:

    Próba prawnego uregulowania „mowy nienawiści” może być bardzo niebezpieczna. Nie istnieje konkretna definicja tego zjawiska uznawana przez ogół społeczeństwa, przez co stworzenie przepisów ograniczających ową mowę doprowadzi do oddania w kompetencje państwa możliwości decydowania o tym, co zaliczy się do mowy nienawiści, a co nie. W oczywisty sposób skutkować to może wieloma absurdami, nadużyciami i cenzurą.

    Weźmy na przykład zdanie „Kowalski, jak każdy Polak, jest leniuchem i pijakiem, więc nie ma sensu go zatrudniać”. Kto powinien decydować, czy powyższe zdanie jest mową nienawiści? Co jeśli zostało wypowiedziane tylko w formie żartu ze stereotypu? Czy powinniśmy zakazać żartów? Co jeśli ze statystyk wynikało by, że faktycznie wśród Polaków jest więcej leniuchów i pijaków? Co jeśli Kowalski faktycznie jest leniuchem i pijakiem? Dodatkowo, jeśli urzędnik decydujący o tym, czy powyższe zdanie spełnia znamiona mowy nienawiści, jest Polakiem, to zapewne zadecyduje pozytywnie. Co jednak jeśli decydujący sam nie lubił Polaków? Albo gdyby zdanie nie dotyczyło Polaków, tylko innej grupy? Pozwolenie urzędnikom na decydowanie co jest „mową nienawiści” prowadzi do niejasności i niejednoznaczności w interpretacji przepisów.

    W krajach zachodnich zaobserwować można wiele nadużyć związanych z egzekwowaniem przepisów dotyczących „mowy nienawiści”.
    W Niemczech za obrażenie drugiej osoby lub za samo udostępnianie w internecie treści, które ktoś uznał za nieodpowiednie, można zostać odwiedzonym nad ranem przez uzbrojonych funkcjonariuszy: https://www.youtube.com/watch?v=-bMzFDpfDwc
    W kontekście informatycznym, w Wielkiej Brytanii Apple zostało zmuszone do wyłączenia szyfrowania end-to-end treści użytkowników w usłudze iCloud. Pozwala to nie tylko na wgląd służbom w prywatne treści obywateli (co już powinno budzić niepokój), ale także znacznie osłabia ich cyberbezpieczeństwo i ułatwia ataki hakerskie na ich dane. Mówiąc o Wielkiej Brytanii ciężko nie wspomnieć o gangach z Rotherham, gdzie przez lata ofiary gangów nie dostawały pomocy od policji ani innych organów państwowych, a wręcz same były oskarżane o dyskryminację i rasizm.

    O ile można uzasadnić to, jakie cechy chronione wymienione są w art. 257 KK (wszystkie z nich doprowadzały do krwawych konfliktów czy ludobójstw w przeszłości) o tyle ciężko zrozumieć proponowaną nowelizację art. 257 (która została już przegłosowana w sejmie), która do cech chronionych dodaje m.in. wiek, płeć, niepełnosprawność czy orientację seksualną. Czy dochodziło do poważnych nieszczęść ze względu na uprzedzenia na tle którejś z tych cech? Dlaczego akurat te cechy mają zostać dodane jako cechy chronione? Dlaczego nie dodać do nich np. koloru włosów czy oczu? Dlaczego tylko pewne wybrane grupy mają dostać specjalną ochronę prawną? Dlaczego np. osoby o rudych włosach nie dostaną specjalnej ochrony przed wyszydzaniem, a osoby homoseksualne już tak? Czy nie stanowi to sprzeczności z Art. 32 Konstytucji mówiącym o równości?

    Wolność słowa jest niezwykle ważna, nie powinno się jej ograniczać w celu ochrony czyichś uczuć. Rozwiązanie amerykańskie, gdzie pierwsza poprawka do konstytucji zapewnia szeroką wolność słowa, a tylko niektóre czyny, takie jak stawianie gróźb czy zniesławianie są karane, uważam za lepsze od rozwiązań stosowanych na zachodzie, które niebezpiecznie zbliżają się do do rozwiązań stosowanych w krajach autorytarnych, takich jak Chiny.

  6. łr pisze:

    Dzisiejsze technologie informatyczne, zwłaszcza sztuczna inteligencja, zdecydowanie mogą przyczyniać się do szerzenia mowy nienawiści. Algorytmy mediów społecznościowych są zaprojektowane tak, by promować treści, które wzbudzają emocje – a nic nie angażuje ludzi tak bardzo jak kontrowersje. W efekcie nienawistne wypowiedzi mogą rozchodzić się szybciej niż te stonowane i merytoryczne.

    Do tego dochodzą narzędzia AI, które pozwalają tworzyć zmanipulowane treści, deepfake’i czy fałszywe informacje, wzmacniające negatywne narracje. Internet daje też anonimowość i łatwość rozpowszechniania treści – kiedyś szerzenie nienawiści wymagało realnych działań, dziś wystarczy jeden viralowy post, który w kilka godzin dociera do milionów ludzi.

    Rozwiązaniem nie jest jednak wyłącznie zaostrzanie regulacji (które zresztą miały ostatnio miejsce w postaci modyfikacji art.119 i 257 Kodeksu Karnego), ale przede wszystkim lepsza moderacja treści, edukacja i odpowiedzialność platform. Jeśli nie zaczniemy świadomie kształtować przestrzeni cyfrowej, technologie, które miały ułatwiać komunikację, mogą stać się narzędziem podziałów i eskalacji konfliktów.

  7. Andrzej Malec pisze:

    Sztuczna inteligencja może być wykorzystana zarówno w dobrych, jak i w złych celach.

    Skoro potrafi pokazać matematykom błędy w ich rozumowaniach = naruszenia reguł matematyki (np. MIZAR), to może pokazać też np. Sądom błędy w wydawanych wyrokach i ich uzasadnieniach = naruszenia reguł prawa, a wszystkim komunikującym się może pokazać błędy w komunikacji = naruszenia reguł komunikacji.

    Czy nieużywanie mowy nienawiści jest regułą komunikacji? To zależy od kręgu kulturowego. W tradycji europejskiej mówiło się i mówi o „osobie dobrze wychowanej”, „osobie obytej”, „osobie kulturalnej”, „miłym rozmówcy” itd. Każde w tych wyrażeń zdaje się wykluczać używanie – jakoś rozumianej – mowy nienawiści.

    „Jakoś rozumianej”. Wydaje się, że akceptacja w naszym kręgu kulturowym reguły komunikacji zakazującej mowy nienawiści, nie oznacza zakazu wygłaszania jakichś zdań prawdziwych. Bo w naszym kręgu kulturowym jesteśmy przywiązani do prawdy (europejska triada). Raczej, zakaz dotyczy formy wypowiedzi.

    A skoro forma – to logika. A skoro logika – to poszukiwanie trafnej definicji.

    I to jest bardzo ciekawe. I pożyteczne.

  8. km pisze:

    Bronią przed błędnymi tezami i argumentami wiodącymi na manowce powinny być skuteczne argumenty broniące prawdy – zwycięstwo powinno zostać osiagniete przez debaty nie poprzez cancel-acje przeciwnika…
    ALE
    Najlepsze argumenty mogą utnąć w zwodniczych wodach „zdrowego rozsadku” – nie da się przekonać tego kto „już swoje wie”.

    Uczucia są po obu stronach komunikatów- w tradycyjnej komunikacji wstyd (i strach) potrafi powstrzymać „nienawistną mowę” i „mniemania”. Często to obawa przed ośmieszeniem powstrzymywała wygładzanie publiczne „nie do konca” przemyślanych przekonań (poza obszarem naszej specjalności). Lecz zwykłe „oswojenie się” / wytresowanie nagrodą poklasku potrafi sprawić, że np. celebryci i sportowcy z transcendentalną pewnością wypowiadają się na dowolny temat.

    Informatyczne technologie pozwalają nam odnaleźć wielu majacych równie „zdrowe spojrzenie i rozum” jak my na tematy, na których się nie znamy i chwalących się nimi na informatycznej agorze. Społeczny dowód słuszności często wskazuje, że „racja jest nasza” i można ją śmiało rozgłaszać (zwłaszcza gdy podpis pod komentarzem to anonimowe km).
    Oczywistym jest to, że technologie informatyczne w szczególności pozwoliły nam odgrodzić się od 'jednych’ tak by wygłaszać treści, który „nie mówi się” (patrz komentarz Andrzeja Malca) osobiście i znaleźć poklask 'drugich’. Gdyby analogiczna sytuacja miała miejsce w plemieniu m.in. UCZUCIA samej osoby wahającej się czy wygłosić dana kwestię i m.in. UCZUCIA 'drugich’ rozważających czy ją poprzeć – uregulowały by ich zachowanie. Stosownie do proporcji 'jedych’ do 'drugich’ ich mniej lub bardziej socjopatycznej/psychopatycznej konstrukcji określiloby to inaczej proporcje społecznej nagrody do kary- inaczej kształtując wzorce zachowania (jednych i dugich). Technologie informatyczne wydobywają skrajne postawy podważając zgodność Wspólnoty. Wspolnoty, która umożliwia korzystającym z tych technologii trwać (godzą w tym aspekcie w społeczne, gospodarcze i biologiczne fundamenty życia każdej z jednostek).

    To, że Jan Kowalski pochodzi z rodziny pijaków nie znaczy, że sam nim jest- odrzucenie jego podania o pracę nie oparte o analizę indywidualnych kompetencji byłoby naruszeniem co najmniej norm współżycia społecznego… To jednak dobry przykład bo wygłoszenie w internecie tego, że podjęto taką decyzję znalazłoby pewnie chwalców w internecie- a uksztaltowanie sie plynacej z tego tendencji może godzić nie w uczycia a podstawy materialnego trwania określonych osób.

    Miliarderzy publicznie chwała się tym, że woleliby spalić pieniądze niż dać podwyżkę pracownikom, a były minister finansów Marek Belka mowi w radiu, że gdy (większość) bedzie bronić się przed deregulacją to trzeba będzie „przyginać karki”… Internet „dzieli i łączy”- pokonując Wspólnotę a to źle bo mimo, że już nie żyjemy w plemionach nadal bez Innych nic nie znaczymy i byśmy nie istnieli.

    „Z kronikarskiego obowiazku”: na pewno dochodziło do „poważnych nieszczęść” z powodu uprzedzeń w stosunku do niepełnosprawności (jeszcze w XX wieku mordowano osoby z niepełnosprawnościami intelektualnymi „programowo”), terapie chemiczne dla homoseksualistów, które przepisywano w Wielkiej Brytanii jeszcze po II wojnie światowej i przykładowo śmierć Alana Turinga, jakoś z tym jednak skorelowana, też można uznać za dość „spory niefart”.

    Prawdą jest, że ludzie muszą kierować się wyłowionymi spośród morza danych regularnościami (stereo-typizacją) ale w interesie wspólnoty/społeczności jest wskazanie kategoryzacji (i rozumowań na nich sie opierających) których rozprzestrzenianie się w tej wspólnocie szkodzi. Taka jest moc „Lewiatana”, że może ograniczać te prawa jednostki, które uzna za stosowne.

    To można jasno pokazać: gdy dzieci umawiają się na zabawę i określą reguły, ale po pewnym czasie okaże się, że z jakiegoś powodu tylko jedno z dzieci „czerpie zyski” a reszta czuje się źle dzieci mogą zmienić reguły zabawy dotychczasowy zwycięzca może co najwyżej popłakać się „jak beksa”- bo bez reszty zwyczajnie nie ma zabawy (wymyśloną walutą z liści nikomu innemu za nic nie zapłaci). Ludzkie zwierzę poza stadem skazane jest na porażkę.

    Jeśli władza Lewiatana jest konstytuuowana i emanuje się „równo” i „sprawiedliwie” to wszystko jest w porządku bo (powtarzam:) bez Wspólnoty prawa jednostki nic nie znaczą (dosłownie, teoretycznie i praktycznie) poza Innymi ludźmi nie znajdziemy po-rozrozumienia – bez Innych debata nie ma znaczenia.

    Nie ma self-made man’ów (ani ekonomicznych ani filozoficznych) nikt nie zrodził się z główki kapusty nie został przez wilki wychowany- rodzimy się i wrastamy w kulturę, która wynosi nas na poziom barków gigantów, którzy współtworzyli znaczenia myśli przetwarzane w umysłach.
    Kto ma mieć prawo do regulacji jeśli nie Państwo (jako emanacja Wspólnoty) – totalitarnie/autokratycznie zorganizowane prywatne firmy?

    Technologie informatyczne dzielą – w wojnie wszystkich ze wszystkimi wygrywają najwięksi psychopaci – nierówności rosną… Nie liczył bym na regulaminy opracowane przez przedsiębiorstwa bo one działają w interesie zysku – a ich zyski rosną proporcjonalnie do polaryzacji i słabości Państw (słabości wobec silnych).
    „Kłamstwo sto razy powtórzone” trafia do przekonania, wolność słowa nie obroni prawdy przed sponsorowanym zasypaniem jej „dostosowanym do indywidualnych potrzeb kontentem”.

  9. Paweł Stacewicz pisze:

    Bardzo dziękuję za dotychczasową dyskusję, w której zarysowały się najsilniej następujące wątki

    — istnieje „wysokie napięcie” między eliminowaniem z przestrzeni publicznej mowy nienawiści i zasadą wolności słowa (wypowiedzi ha_sta, da_i oraz wm). Napięcie to ujawnia się szczególnie mocno w środowisku internetowym, gdzie mowa nienawiści się pleni (to lepsze słowo niż „kwitnie”😊).

    – – najlepszym remedium na mowę nienawiści byłoby propagowanie zasady wygłaszania treści prawdziwych (wypowiedzi k-ma i Andrzeja Malca). Niby proste, ale jakże trudne 😊.

    — obowiązek stworzenia regulacji powinien spoczywać na Państwach (jako emanacjach ludzkiej Wspólnoty), a nie na prywatnych firmach/korporacjach (w tym: informatycznych). To był głos km-a.

    Zachęcam do rozwinięcia tych wątków lub podjęcia nowych.

    W ramach tego drugiego zadania chciałbym przytoczyć fragment mojej korespondencji z dr-em Maciejem Kulikiem, etykiem, który opisuje zjawisko mowy nienawiści z etycznego punktu widzenia. Pewnym elementem definicji mowy nienawiści, nad którą pracuje, jest następujący warunek: „mowa nienawiści jest to taki akt mowy, który osądza ludzi na podstawie charakterystyk nie mających znaczenia moralnego”.

    Nasza wymiana myśli dotyczyła zasadności przyjęcia tego warunku.

    Ja sformułowałem następujące wątpliwości:

    „Wydaje mi się, że definicja (ze względu na wskazany wyżej warunek) nie obejmuje przypadku naruszenia godności ze względu na wyznawaną religię. Tymczasem wyznanie, a ogólniej stosunek do religii, jest cechą chronioną; uwzględnianą w różnych przepisach prawnych dot. nawoływania do nienawiści, dyskryminacji etc… Wyznawana przez kogoś religia, poprzedzona określonym wyborem (zwłaszcza dziś jest to często wybór, a nie prosta konsekwencja przynależności kulturowej), jest normatywnie istotna — jest to cecha zależna od jednostki (od jej wyboru/decyzji). Ponadto religia warunkuje przyjęcie określonego systemu wartości — co ma fundamentalne znaczenie moralne. Inne cechy chronione, jak rasa, płeć, orientacja seksualna, spełniają Twój warunek, ale stosunek do religii nie”.

    Dr Kulik odpowiedział następująco:

    „Powiedziałbym, że sednem sprawy o którą pytasz jest to, czy wobec niezgodności etycznej (normatywnej) definicji mowy nienawiści z prawną (preskryptywną) praktyką stosowania tego pojęcia, powinna ustąpić etyczna definicja, czy praktyka prawna. Moim zdaniem raczej to drugie. W rzeczy samej, na podstawie tego co napisałeś, można zbudować argument, że ataki na przekonania religijne nie są prima facie aktami mowy nienawiści. Mniej więcej podzielam ten pogląd. Uważam krytykę religii za dopuszczalną, ponieważ przekonania religijne są, tak jak piszesz, sprawą osobistego wyboru. Ich wyznawanie stanowi więc właściwy przedmiot oceny moralnej. Inna sprawa, że ta ocena nie zawsze jest sprawiedliwa. Zasadność przypisywania komuś złej (nienawistnej) woli na podstawie żywionych przez niego przekonań zależy w pewnej mierze od stanowiska teologicznego, z perspektywy którego analizujemy sprawę. Twierdzenie, że wszyscy muzułmanie są złymi ludźmi wydaje się nieuzasadnione, ale taka ocena w odniesieniu do składających ofiary z ludzi Azteków byłaby już zasadna. Co do zasady jednak, moim zdaniem, krytyka przekonań religijnych nie jest aktem mowy nienawiści, nawet jeśli jest niesprawiedliwa.”

    Może ta nasza wymiana myśli (troszkę wprawdzie wyrwana z kontekstu) będzie przyczynkiem do rozwinięcia w tej dyskusji nowego wątku.

  10. Ba_B pisze:

    1) Popularność patostreamów

    Rosnąca w ostatnim czasie popularność tzw. patostreamingu, szczególnie wśród młodzieży, jest bez wątpienia zjawiskiem niepokojącym. W gruncie rzeczy jednak tego typu „rozrywki” nie są niczym nowym — są znane ludzkości od tysięcy lat. Patostreamy w zasadzie polegają na dostarczaniu wątpliwej moralnie rozrywki kosztem cierpienia innych osób (może to być przemoc wobec innych lub zachowania autodestrukcyjne, np. upijanie się i wykonywanie nierozsądnych czynności pod wpływem alkoholu).

    Osobiście taka forma rozrywki najbardziej kojarzy mi się ze starożytnym Rzymem i widowiskami na arenach. Oczywiście były one nieporównywalnie bardziej brutalne (często kończyły się śmiercią „aktorów”), ale zasada działania — moim zdaniem — pozostaje tożsama z patostreamami. Innym przykładem mogą być publiczne chłosty lub egzekucje w średniowieczu, które również stanowiły formę rozrywki dla mieszkańców miast (w tym również dzieci).

    Podsumowując: patostreamy nie są moim zdaniem niczym nowym. Mechanizmy, które sprawiają, że taka forma rozrywki przemawia do ludzi, są znane od tysiącleci. Należy je postrzegać jako nowoczesny, zinformatyzowany odpowiednik walk gladiatorów. Myślę, że w tym przypadku rozwiązania prawne mogą być dość skuteczne i wystarczające.

    2) SI oraz narzędzia pochodne w szerzeniu mowy nienawiści

    Chciałbym zwrócić uwagę, że sama mowa nienawiści może również zostać „zmilitaryzowana”. Jak dobrze wiemy, treści nienawistne z reguły wywołują silne, negatywne emocje u osób, które się na nie natkną. A osoba będąca pod wpływem dużych emocji staje się bardzo podatna na manipulację.

    Warto się więc zastanowić, jaki cel może mieć ktoś, kto masowo szerzy mowę nienawiści. W mojej ocenie można wyróżnić dwa przypadki:

    – osoby, dla których rozrywką jest doprowadzanie innych ludzi do „szału” (tzw. internetowe trolle),
    – osoby lub instytucje, którym zależy na jak największej polaryzacji społeczeństwa.

    W pierwszym przypadku mamy do czynienia z działaniami raczej sporadycznymi, sytuacyjnymi, bez głębszego drugiego dna (choć nadal niemoralnymi). O wiele bardziej szkodliwa jest działalność przedstawicieli drugiego typu — regularna nagonka, szczucie jednej grupy społecznej na drugą. Przykładem może być demonizowanie osób o odmiennych poglądach w celu zdobycia elektoratu przez daną partię.

    Mowa nienawiści jest również podstawą współczesnej wojny informacyjnej, czego jesteśmy świadkami od co najmniej pięciu lat. Chodzi tu oczywiście o sianie niepokoju i ogólne „mącenie” w społeczeństwie, które jest celem ataku. W przypadku Rosji mamy do czynienia z państwowymi instytucjami stworzonymi wyłącznie w tym celu, co sprawia, że skala działania jest bardzo szeroka. I właśnie tutaj wykorzystuje się SI oraz narzędzia pochodne.

    Chatboty podszywające się pod prawdziwych użytkowników powielają, a nawet generują nienawistne komentarze, dopasowane do aktualnej narracji. Dodatkowo, narzędzia umożliwiające tworzenie deepfake’ów i modulację głosu są wręcz wymarzone dla takich instytucji — tworzenie trudnych do zweryfikowania, manipulacyjnych materiałów nigdy nie było łatwiejsze.

    Jeśli chodzi o środki zapobiegawcze, uważam, że droga prawna nie zda egzaminu — prawo już teraz nie nadąża za nowymi technologiami, co sprawia, że ten sposób walki zjawisko z góry skazuje na porażkę.

    Zwalczanie mowy nienawiści poprzez rozwiązania prawne może również prowadzić do znacznego ograniczenia swobody wypowiedzi (co można zaobserwować chociażby w Wielkiej Brytanii). Zgadzam się z jednym z wcześniejszych komentarzy, że rozwiązanie przyjęte w USA wydaje się najlepszym kompromisem. Uważam natomiast, że kluczowe jest uświadamianie społeczeństwa, a nawet dążenie do pewnego rodzaju „odczulenia” na mowę nienawiści oraz nowoczesne środki propagandy — nic tak nie zniechęca tych, którzy chcą wzbudzać emocje, jak całkowity brak spodziewanej reakcji.

  11. Ironman123 pisze:

    Osobiście uważam, że najbardziej alarmująca jest kwestia patostreamingu. Problem, przedstawiania przemocy, sytuacji patologicznych jako (choć brzmi to ekstremalnie dziwnie) rozrywka. Niesamowitym zjawiskiem społecznym jest to, że streamy, w których bierze udział najczęściej grupka osób nadużywających alkoholu, a w zamian za wystąpienie w streamie najczęściej dostają pożywienie i nierzadko alkohol lub też schronienie. Dochodzi do tego problem z definicją oraz w dużej mierze bezkarnością osób, które tego typu treści publikują. Uważam, że niezbędnym jest dokładne zdefiniowanie mowy nienwiści, aby tego typu zachowania mogłby być egzekwowane prawnie.
    Oczywiście, kwestia wykorzystania SI to bardzo ważna rzecz. Dzisiejsze technologie informatyczne, ze sztuczną inteligencją na czele, mogą posłużyć komuś do zbudowania równie przerażającej machiny zła. Z drugiej strony to zależy od spojrzenia na to jako na narzędzie, bo nadal to zależy tylko i wyłącznie od ludzi, do jakich kwestii to narzędzie zostanie stworzone i będzie wykorzystywane. Dobrym przykładem sensownego zastosowania są banki, które w stosunkowo prosty sposób są w stanie wykrywać niektóre przestępstwa związane chociażby z cyklicznymi przelewami. Własnie tutaj dostrzegam istotną rolę sieci neuronowych, które mogą zostać „wytrenowane” by tego typu zachowania w internecie wykrywać oraz radzić sobie z większością przejawów mowy nienawiści w internecie. Ze względu na ogrom filmików, patostreamów oraz wielu wpisów w social mediach, niezbędnym jest, aby używać sztucznej inteligencji jako pomocy dla ludzi w wykrywaniu „nadużyć”. Myślę, że z dużą skutecznością możnaby wykrywać takie zachowania i wspomagać ludzi, którzy mogliby (oczywiście w przypadku konkretnego zdefinowania mowy nienawiści prawnie) konsekwentnie egzekwować prawo i tym samym ograniczać eskalacje tego typu zachowań.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *