O mowie nienawiści w dobie społeczeństwa zinformatyzowanego

Obecny wpis stanowi fragment mojej aktywności w ramach projektu [iTrust]. Interventions against polarisation in society for TRUSTworthy social media: From diagnosis to therapy, do którego dołączyłem na początku roku. Jednym z celów projektu jest zidentyfikowanie nowego rodzaju zagrożeń, które pojawiły się wraz z postępującą informatyzacją życia społecznego. Przynajmniej część z nich wiąże się z najnowszym wymiarem tejże informatyzacji, czyli wprowadzaniem do przestrzeni publicznej narzędzi i wytworów sztucznej inteligencji (SI).

Naszą rozmowę chciałbym zogniskować wokół zagrożenia, które stanowi coś w rodzaju wspólnego mianownika wielu różnych niepokojących zjawisk, a mianowicie na szerzeniu treści nienawistnych, co określa się powszechnie mową nienawiści (ang. hate speech).
Co ciekawe, prawna definicja tego zjawiska – które powinno przecież być ścigane prawnie! – nie istnieje. W prawie polskim pewną jej kontekstową namiastką  są dwa artykuły Kodeksu Karnego (§1), 256 i 257, które stwierdzają, co następuje:

Kto publicznie propaguje faszystowski lub inny totalitarny ustrój państwa lub nawołuje do nienawiści na tle różnic narodowościowych, etnicznych, rasowych, wyznaniowych albo ze względu na bezwyznaniowość, podlega karze pozbawienia wolności do lat 2.” (art. 256)
Kto publicznie znieważa grupę ludności albo poszczególną osobę z powodu jej przynależności narodowej, etnicznej, rasowej, wyznaniowej albo z powodu jej bezwyznaniowości, podlega karze pozbawienia wolności do lat 3.” (art. 257)

W artykułach tych wskazano wybiórczo pewne cechy, tzw. cechy chronione, które identyfikują mowę nienawiści w ten sposób, że to właśnie poprzez odniesienie do nich dana wypowiedź kogoś (lub pewną grupę osób) znieważa, dyskryminuje, naraża na przemoc etc… Przykładowo, wypowiedź typu „Kowalski, jak każdy Polak, jest leniuchem i pijakiem, więc nie ma sensu go zatrudniać” obraża i dyskryminuje konkretną osobę ze względu na cechę przynależności do konkretnego narodu; pośrednio zaś obraża wszystkie osoby o wskazanej narodowości. Oprócz narodowości, w cytowanych artykułach wskazano rasę, grupę etniczną i stosunek do religii; nie wskazano jednak cech innych, które pojawiają się w ustawach antydyskryminacyjnych (na przykład płci, orientacji seksualnej czy  niepełnosprawności).
Listę cech chronionych, wraz z listą wartościowanych negatywnie czynności (jak obrażanie czy znieważanie), można by uznać za punkty odniesienia dla definicji mowy nienawiści. Być może jednak, należy poszukiwać definicji umocowanej etycznie, to znaczy takiej, w której określi się ogólnie pewne fundamentalne wartości, leżące u podstaw wyróżniania takich a nie innych zbiorów cech chronionych. Do wartości takich należałyby, na przykład, poszanowanie godności osoby ludzkiej czy tolerancja światopoglądowa.
Nie oczekuję, oczywiście, abyśmy przy okazji tego wpisu sformułowali ostateczną definicję, opartą na ostatecznych wartościach :), ale jeśli ktoś ma jakieś ciekawe propozycje, to serdecznie zapraszam do ich przedyskutowania.

Zjawisko mowy nienawiści i związane z nim zagrożenia nie są, rzecz jasna, niczym nowym, a tym bardziej, nie są czymś specyficznym dla społeczeństwa zinformatyzowanego. Wystarczy cofnąć się do lat 30. XX wieku i przywołać nienawistne (prze)mowy Adolfa Hitlera. Jak wszyscy wiemy, wywołały one niewyobrażalną wręcz eskalację dyskryminacji. Dyskryminacji, która przerodziła się stopniowo w okrutny program eksterminacji całych ras, narodów i grup etnicznych.
W kontekście społeczeństwa zinformatyzowanego przykład „Hitlera” jest o tyle zasadny, że dotyka sfery technologii. Naziści bowiem intensywnie wykorzystywali  ówczesne nowe technologie do wzmacniania swojego przekazu. Transmisje radiowe, filmy propagandowe, nagłośnienie na partyjnych wiecach…  to wszystko służyło hitlerowskiej machinie nienawiści, która była de facto machiną zbrodni.

Czy dzisiejsze technologie informatyczne, ze sztuczną inteligencją na czele, mogą posłużyć komuś do zbudowania równie przerażającej machiny zła? To ogromne pytanie pozostawmy na razie w tle. Zadajmy natomiast pytania skromniejsze, związane bezpośrednio z tematem wpisu.
Czy wspomniane technologie są wykorzystywane do wytwarzania i szerzenia mowy nienawiści?
W jaki sposób?
I jakie zjawiska stanowią o specyfice ich „mowo-nienawistnych” zastosowań?

W ramach swojego wkładu do dyskusji zwrócę uwagę na trzy kwestie:

1.
Popularność tzw. patostreamerów, którzy za pośrednictwem serwisów typu YouTube używają publicznie wulgaryzmów, szerzą treści homofobiczne, pokazują sceny znęcania się nad osobami niepełnosprawnymi…
Patostreaming przemawia szczególnie silnie do osób bardzo młodych, które, po pierwsze, traktują Internet jako swoje naturalne środowisko komunikacji, po drugie zaś, formują dopiero swoje moralne przekonania.

2.
Anonimowość osób i organizacji, które szerzą mowę nienawiści w Internecie.
Możliwość pozostania anonimowym, a wskutek tego bezkarnym, sprawia, że w Internecie o wiele częściej niż w innych mediach pojawiają się treści skrajne, obraźliwe, agresywne, polaryzujące…

3.
Rosnące możliwości wykorzystania SI w masowym szerzeniu mowy nienawiści.
Systemy SI nie muszą po prostu powielać treści podsuwanych im przez ludzi; one mogą zostać wytrenowane (na odpowiednich przykładach) do kreatywnego generowania nowych treści odpowiedniego typu. W takich przypadkach bardzo trudno jest zidentyfikować osoby czy instytucje odpowiedzialne za treść konkretnych przekazów.

Powyższe kwestie dotyczą ciemnej strony informatycznych technologii.
Patrząc bardziej optymistycznie, można upatrywać w nich pewnego remedium na nowego rodzaju zagrożenia – remedium o tyle obiecującego, że dotyczy ono tej samej sfery, sfery technologicznej, do której samo przynależy. Przykładowo, we wspomnianym na początku wpisu projekcie iTrust powstaje wyspecjalizowany chatbot, który będzie w stanie identyfikować w dostarczanych mu tekstach treści potencjalnie nienawistne. Oprócz rozpoznawania chatbot będzie wyjaśniał, dlaczego dokonał takiego a nie innego rozpoznania, a także proponował sformułowania alternatywne, wolne od fraz klasyfikowanych jako mowa nienawiści.

Aby jednak zagrożeniom przeciwdziałać, trzeba im się uważnie przyjrzeć: określić, czym różnią się nowe informatyczne szaty mowy nienawiści od jej bardziej tradycyjnych form.
Podyskutujmy o tym 😊.
Jako punkt wyjścia proponuję przyjąć pytania zadane w tekście.
Nie musimy się jednak do nich ograniczać…

Serdecznie zapraszam do rozmowy — Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Etyka, Światopogląd informatyczny. Dodaj zakładkę do bezpośredniego odnośnika.

Komentarze do O mowie nienawiści w dobie społeczeństwa zinformatyzowanego

  1. ha_sta pisze:

    Ciekawa w kontekście wątku mowy nienawiści i nowych technologii jest niekompatybilność europejskiego systemu prawnego, w ramach którego rozwinęło się prawo antydyskryminacyjne (w szerokim znaczeniu obejmujące także mowę nienawiści) ze sposobem zorganizowania mediów społecznościowych np. Facebooka, Instagrama czy X (dawnego Twittera), które pochodzą z USA. Regulacje europejskie, a także polskie prawo (nawet konstytucja) zawierają zakaz dyskryminacji. Tymczasem w tym roku media społecznościowe pod hasłem propagowania wolności słowa przestały filtrować i blokować treści mogące stanowić mowę nienawiści. Z dnia na dzień użytkownicy widzą coraz więcej brutalnych treści takich jak np. nagrania gwałtu oraz treści nienawistnych. Wolność słowa w porządku prawa europejskiego nie jest rozumiana w sposób absolutny, bo przecież kończy się tam gdzie słowa uderza w godność drugiego człowieka. Jednak europejskie regulacje antydyskryminacyjne nie są w stanie powstrzymać szerzenia treści nienawistnych spowodowanych dość prostolinijnym rozumieniem wolności słowa. Ani prawo polskie ani prawo europejskie wprost nie zakazują szerzenia treści nienawistnych. Obecne regulacje dotyczące jedynie dyskryminacji ze względu na katalog konkretnych cech są bezzębne w obliczu pojawiania się mowy nienawiści w Internecie. Zgadzam się z treścią wpisu, że potrzebujemy znaleźć definicję, która będzie odpowiadała na problem mowy nienawiści

  2. julian_z pisze:

    Nawiązując do pierwszego akapitu; większym problemem niż mowa nienawiści wydaje się polaryzacja, która często idzie razem z nią w parze. Części jej przyczyn możemy doszukiwać się na mediach społecznościowych.

    Naturalnie, wszelkim portalom zależy na zysku, który jest bezpośrednio związany z popularnością witryn. Prowadzi to do tego, że użytkownikom specjalnie nie są pokazywane rzeczy, który sprawią, że możemy opuścić daną platformę. To zjawisko, wzmocnione, prowadzi to tworzenia się tak zwanych baniek informacyjnych. Proces informatyzacji społeczeństwa niestety nierzadko powoduje odcięcie się od informacji czy poglądów spoza internetu. Zmiany takie zdecydowanie można porównać do sytuacji ludzi, którzy podczas różnych okresów w historii byli poddawani propagandzie i przez brak innych możliwości pozyskania informacji prowadziły do bardzo wyraźnych zmian w postrzeganiu świata.

    Chatbot automatycznie identyfikujący treści nienawistne to pomysł, który w żadnym stopniu nie rozwiązuje fundamentalnego problemu: mamy trudności z rozpoznawaniem mowy nienawistnej. Poleganie na SI, aby ta mówiła nam, jakie słowa są nienawistne (i proponowała alternatywy) może być zgubne w sytuacji, gdy chatbot okaże się wadliwy lub ktoś chciałby uzyskać efekt idealnie odwrotny. Według mnie remedium nie leży w samej technologii, lecz możliwościach adaptacyjnych ludzi, którzy potrafią dostosować się nawet w najtrudniejszych warunkach.

    Należy edukować młode pokolenia, przeprowadzać szeroko zakrojone kampanie informacyjne oraz przede wszystkim, nie przywiązywać nadmiernej wagi do opinii przypadkowych osób (szczególnie) w internecie, a analizować je i samodzielnie formułować wnioski.

    • Paweł Stacewicz pisze:

      Bardzo dziękuję za komentarz.
      Jeśli chodzi o zjawisko polaryzacji, to mowa nienawistna stanowi, według mnie, jedno narzędzi jej wytwarzania i/lub utrwalania. Zwłaszcza, jeśli chodzi o skrajne i nacechowane agresywnie, odmiany polaryzacji.
      W ramach wspomnianego we wpisie projektu [itrust] zjawisko polaryzacji jest również analizowane i objaśniane.
      Zachęcam do obejrzenia następującego filmu Jakuba Prusia (uczestnika projektu) na YT: https://www.youtube.com/watch?v=xex6Hc-w-Oo. Być może warto byłoby poświęcić poruszanej tam tematyce osobny wpis blogowy — pomyślę o tym.

      Jeśli chodzi o pomysł chatbota identyfikującego treści nienawistne i objaśniającego dokonane rozpoznania, to nie widzę przeszkód, aby taki chatbot służył celom edukacyjnym i przyczyniał się do większej świadomości młodego pokolenia w kwestiach dotyczących mowy nienawiści (np. jakie wypowiedzi i dlaczego należą do tej kategorii).

  3. da_i pisze:

    Anonimowość w Internecie ujawnia dwa istotne aspekty:
    1) Z jednej strony zapewnia pewien stopień bezpieczeństwa, ponieważ użytkownicy mogą pozostawać anonimowi, co niesie zarówno pozytywne, jak i negatywne konsekwencje. Anonimowość umożliwia swobodną wymianę myśli, w tym ujawnianie nadużyć i przestępstw osób wpływowych, które w innych warunkach mogłyby stosować represje wobec informatorów. Z drugiej strony sprzyja szerzeniu treści szkodliwych, w tym mowy nienawiści, bez obawy o konsekwencje prawne, jeśli nie zostanie to odpowiednio uregulowane i moderowane.
    2) Anonimowość może również sprzyjać skłonności niektórych użytkowników do wyrażania agresywnych, wulgarnych lub nienawistnych opinii, które w innych warunkach mogliby powstrzymać. Dla niektórych stanowi to formę odreagowania frustracji, jednak rodzi pytanie o granice dopuszczalnej ekspresji w przestrzeni cyfrowej. Czy powinno się tworzyć tzw. „kordon sanitarny” dla takich treści na zamkniętych platformach, czy też dążyć do całkowitego ich wyeliminowania?

    Drugą istotną kwestią jest definicja mowy nienawiści oraz egzekwowanie przepisów z nią związanych.

    Kto powinien określać, co kwalifikuje się jako mowa nienawiści, a także jakie sankcje powinny być stosowane? Istnieje ryzyko, że nieprecyzyjne regulacje mogłyby zostać wykorzystane do tłumienia niewygodnych opinii. Przykładowo, polityk krytykowany za swoją politykę mógłby argumentować, że sprzeciw wobec jego działań wynika wyłącznie z uprzedzeń związanych z jego pochodzeniem lub wyznaniem. Podobne obawy mogą dotyczyć systemu sądowniczego – jeśli sędzia miałby subiektywnie interpretować przepisy, istnieje ryzyko ich instrumentalnego wykorzystania. Aby uniknąć takich zagrożeń, regulacje powinny być precyzyjne i jednoznaczne, co jednak może być trudnym, jeśli nie niemożliwym zadaniem. W przeciwnym razie prawo dotyczące mowy nienawiści mogłoby zostać użyte jako narzędzie ograniczania wolności słowa.

  4. teoretyk pisze:

    Dla mnie rzeczą która powinna być absolutnie zakazana to jest używanie chatbotów które nie są jawnie określone jako chatboty. To zaburza kompletnie debatę bo człowiek może mówić dosłownie do ściany i wyrabiać sobie coraz gorszą opinię o drugiej stronie. To też zaburza określanie jak popularna jest dana opinia co sprawia że dane zachowanie jest normalizowane mimo że nigdy nie powinno być. Deepfake wideo to też technika manipulacyjna która będzie coraz skuteczniejsza. Używanie AI w sposób niejawny to nie jest wolność słowa. Wytępić boty będzie bardzo ciężko i może po prostu trzeba przestać używać internetu do dyskusji politycznych w ogóle.

  5. wm pisze:

    Próba prawnego uregulowania „mowy nienawiści” może być bardzo niebezpieczna. Nie istnieje konkretna definicja tego zjawiska uznawana przez ogół społeczeństwa, przez co stworzenie przepisów ograniczających ową mowę doprowadzi do oddania w kompetencje państwa możliwości decydowania o tym, co zaliczy się do mowy nienawiści, a co nie. W oczywisty sposób skutkować to może wieloma absurdami, nadużyciami i cenzurą.

    Weźmy na przykład zdanie „Kowalski, jak każdy Polak, jest leniuchem i pijakiem, więc nie ma sensu go zatrudniać”. Kto powinien decydować, czy powyższe zdanie jest mową nienawiści? Co jeśli zostało wypowiedziane tylko w formie żartu ze stereotypu? Czy powinniśmy zakazać żartów? Co jeśli ze statystyk wynikało by, że faktycznie wśród Polaków jest więcej leniuchów i pijaków? Co jeśli Kowalski faktycznie jest leniuchem i pijakiem? Dodatkowo, jeśli urzędnik decydujący o tym, czy powyższe zdanie spełnia znamiona mowy nienawiści, jest Polakiem, to zapewne zadecyduje pozytywnie. Co jednak jeśli decydujący sam nie lubił Polaków? Albo gdyby zdanie nie dotyczyło Polaków, tylko innej grupy? Pozwolenie urzędnikom na decydowanie co jest „mową nienawiści” prowadzi do niejasności i niejednoznaczności w interpretacji przepisów.

    W krajach zachodnich zaobserwować można wiele nadużyć związanych z egzekwowaniem przepisów dotyczących „mowy nienawiści”.
    W Niemczech za obrażenie drugiej osoby lub za samo udostępnianie w internecie treści, które ktoś uznał za nieodpowiednie, można zostać odwiedzonym nad ranem przez uzbrojonych funkcjonariuszy: https://www.youtube.com/watch?v=-bMzFDpfDwc
    W kontekście informatycznym, w Wielkiej Brytanii Apple zostało zmuszone do wyłączenia szyfrowania end-to-end treści użytkowników w usłudze iCloud. Pozwala to nie tylko na wgląd służbom w prywatne treści obywateli (co już powinno budzić niepokój), ale także znacznie osłabia ich cyberbezpieczeństwo i ułatwia ataki hakerskie na ich dane. Mówiąc o Wielkiej Brytanii ciężko nie wspomnieć o gangach z Rotherham, gdzie przez lata ofiary gangów nie dostawały pomocy od policji ani innych organów państwowych, a wręcz same były oskarżane o dyskryminację i rasizm.

    O ile można uzasadnić to, jakie cechy chronione wymienione są w art. 257 KK (wszystkie z nich doprowadzały do krwawych konfliktów czy ludobójstw w przeszłości) o tyle ciężko zrozumieć proponowaną nowelizację art. 257 (która została już przegłosowana w sejmie), która do cech chronionych dodaje m.in. wiek, płeć, niepełnosprawność czy orientację seksualną. Czy dochodziło do poważnych nieszczęść ze względu na uprzedzenia na tle którejś z tych cech? Dlaczego akurat te cechy mają zostać dodane jako cechy chronione? Dlaczego nie dodać do nich np. koloru włosów czy oczu? Dlaczego tylko pewne wybrane grupy mają dostać specjalną ochronę prawną? Dlaczego np. osoby o rudych włosach nie dostaną specjalnej ochrony przed wyszydzaniem, a osoby homoseksualne już tak? Czy nie stanowi to sprzeczności z Art. 32 Konstytucji mówiącym o równości?

    Wolność słowa jest niezwykle ważna, nie powinno się jej ograniczać w celu ochrony czyichś uczuć. Rozwiązanie amerykańskie, gdzie pierwsza poprawka do konstytucji zapewnia szeroką wolność słowa, a tylko niektóre czyny, takie jak stawianie gróźb czy zniesławianie są karane, uważam za lepsze od rozwiązań stosowanych na zachodzie, które niebezpiecznie zbliżają się do do rozwiązań stosowanych w krajach autorytarnych, takich jak Chiny.

    • Adrian pisze:

      Tak, zgadzam się, zwłaszcza co do kwestii wyrażonych w ostatnim akapicie – cenzura nie powinna być stosowana, gdyż ostatecznie prowadzi do znacznie gorszych konsekwencji społecznych niż obecność agresywnych treści, przed którymi odbiorca może (i powinien) nauczyć się bronić. I właśnie na ten aspekt, aspekt edukacyjny, należałoby według mnie zwrócić szczególną uwagę, stworzyć odpowiednie internetowe strony informacyjne a może nawet nauczać w szkole rozpoznawania mowy nienawiści i obrony przed nią, a także bezpieczniejszego korzystania z technologii cyfrowych. Taki przedmiot mógłby być wykładany przez psychologów, pedagogów i / lub filozofów już od wczesnych poziomów edukacji, podobnie, jak język polski, matematyka czy języki obce.
      Myślę, że budowanie społecznej świadomości (i dojrzałości) w tych kwestiach byłoby dużo pożyteczniejsze (i skuteczniejsze) niż zakazy, egzekwowane mechanicznie przy pomocy technologii. Osobiście nie chciałbym żyć w świecie, w którym ktoś odgórnie decydowałby za mnie, jakie treści mogę oglądać lub czytać w Internecie. Dlatego uważam, że zakazane prawnie powinny być tylko i wyłącznie treści skrajnie i jednoznacznie nienawistne, takie, jak stosowanie poważnych gróźb (np. zabójstwa lub pobicia), nawoływanie do takich czynów, ubliżanie komuś za pomocą wyrażeń wulgarnych itd.

  6. łr pisze:

    Dzisiejsze technologie informatyczne, zwłaszcza sztuczna inteligencja, zdecydowanie mogą przyczyniać się do szerzenia mowy nienawiści. Algorytmy mediów społecznościowych są zaprojektowane tak, by promować treści, które wzbudzają emocje – a nic nie angażuje ludzi tak bardzo jak kontrowersje. W efekcie nienawistne wypowiedzi mogą rozchodzić się szybciej niż te stonowane i merytoryczne.

    Do tego dochodzą narzędzia AI, które pozwalają tworzyć zmanipulowane treści, deepfake’i czy fałszywe informacje, wzmacniające negatywne narracje. Internet daje też anonimowość i łatwość rozpowszechniania treści – kiedyś szerzenie nienawiści wymagało realnych działań, dziś wystarczy jeden viralowy post, który w kilka godzin dociera do milionów ludzi.

    Rozwiązaniem nie jest jednak wyłącznie zaostrzanie regulacji (które zresztą miały ostatnio miejsce w postaci modyfikacji art.119 i 257 Kodeksu Karnego), ale przede wszystkim lepsza moderacja treści, edukacja i odpowiedzialność platform. Jeśli nie zaczniemy świadomie kształtować przestrzeni cyfrowej, technologie, które miały ułatwiać komunikację, mogą stać się narzędziem podziałów i eskalacji konfliktów.

  7. Andrzej Malec pisze:

    Sztuczna inteligencja może być wykorzystana zarówno w dobrych, jak i w złych celach.

    Skoro potrafi pokazać matematykom błędy w ich rozumowaniach = naruszenia reguł matematyki (np. MIZAR), to może pokazać też np. Sądom błędy w wydawanych wyrokach i ich uzasadnieniach = naruszenia reguł prawa, a wszystkim komunikującym się może pokazać błędy w komunikacji = naruszenia reguł komunikacji.

    Czy nieużywanie mowy nienawiści jest regułą komunikacji? To zależy od kręgu kulturowego. W tradycji europejskiej mówiło się i mówi o „osobie dobrze wychowanej”, „osobie obytej”, „osobie kulturalnej”, „miłym rozmówcy” itd. Każde w tych wyrażeń zdaje się wykluczać używanie – jakoś rozumianej – mowy nienawiści.

    „Jakoś rozumianej”. Wydaje się, że akceptacja w naszym kręgu kulturowym reguły komunikacji zakazującej mowy nienawiści, nie oznacza zakazu wygłaszania jakichś zdań prawdziwych. Bo w naszym kręgu kulturowym jesteśmy przywiązani do prawdy (europejska triada). Raczej, zakaz dotyczy formy wypowiedzi.

    A skoro forma – to logika. A skoro logika – to poszukiwanie trafnej definicji.

    I to jest bardzo ciekawe. I pożyteczne.

  8. km pisze:

    Bronią przed błędnymi tezami i argumentami wiodącymi na manowce powinny być skuteczne argumenty broniące prawdy – zwycięstwo powinno zostać osiagniete przez debaty nie poprzez cancel-acje przeciwnika…
    ALE
    Najlepsze argumenty mogą utnąć w zwodniczych wodach „zdrowego rozsadku” – nie da się przekonać tego kto „już swoje wie”.

    Uczucia są po obu stronach komunikatów- w tradycyjnej komunikacji wstyd (i strach) potrafi powstrzymać „nienawistną mowę” i „mniemania”. Często to obawa przed ośmieszeniem powstrzymywała wygładzanie publiczne „nie do konca” przemyślanych przekonań (poza obszarem naszej specjalności). Lecz zwykłe „oswojenie się” / wytresowanie nagrodą poklasku potrafi sprawić, że np. celebryci i sportowcy z transcendentalną pewnością wypowiadają się na dowolny temat.

    Informatyczne technologie pozwalają nam odnaleźć wielu majacych równie „zdrowe spojrzenie i rozum” jak my na tematy, na których się nie znamy i chwalących się nimi na informatycznej agorze. Społeczny dowód słuszności często wskazuje, że „racja jest nasza” i można ją śmiało rozgłaszać (zwłaszcza gdy podpis pod komentarzem to anonimowe km).
    Oczywistym jest to, że technologie informatyczne w szczególności pozwoliły nam odgrodzić się od 'jednych’ tak by wygłaszać treści, który „nie mówi się” (patrz komentarz Andrzeja Malca) osobiście i znaleźć poklask 'drugich’. Gdyby analogiczna sytuacja miała miejsce w plemieniu m.in. UCZUCIA samej osoby wahającej się czy wygłosić dana kwestię i m.in. UCZUCIA 'drugich’ rozważających czy ją poprzeć – uregulowały by ich zachowanie. Stosownie do proporcji 'jedych’ do 'drugich’ ich mniej lub bardziej socjopatycznej/psychopatycznej konstrukcji określiloby to inaczej proporcje społecznej nagrody do kary- inaczej kształtując wzorce zachowania (jednych i dugich). Technologie informatyczne wydobywają skrajne postawy podważając zgodność Wspólnoty. Wspolnoty, która umożliwia korzystającym z tych technologii trwać (godzą w tym aspekcie w społeczne, gospodarcze i biologiczne fundamenty życia każdej z jednostek).

    To, że Jan Kowalski pochodzi z rodziny pijaków nie znaczy, że sam nim jest- odrzucenie jego podania o pracę nie oparte o analizę indywidualnych kompetencji byłoby naruszeniem co najmniej norm współżycia społecznego… To jednak dobry przykład bo wygłoszenie w internecie tego, że podjęto taką decyzję znalazłoby pewnie chwalców w internecie- a uksztaltowanie sie plynacej z tego tendencji może godzić nie w uczycia a podstawy materialnego trwania określonych osób.

    Miliarderzy publicznie chwała się tym, że woleliby spalić pieniądze niż dać podwyżkę pracownikom, a były minister finansów Marek Belka mowi w radiu, że gdy (większość) bedzie bronić się przed deregulacją to trzeba będzie „przyginać karki”… Internet „dzieli i łączy”- pokonując Wspólnotę a to źle bo mimo, że już nie żyjemy w plemionach nadal bez Innych nic nie znaczymy i byśmy nie istnieli.

    „Z kronikarskiego obowiazku”: na pewno dochodziło do „poważnych nieszczęść” z powodu uprzedzeń w stosunku do niepełnosprawności (jeszcze w XX wieku mordowano osoby z niepełnosprawnościami intelektualnymi „programowo”), terapie chemiczne dla homoseksualistów, które przepisywano w Wielkiej Brytanii jeszcze po II wojnie światowej i przykładowo śmierć Alana Turinga, jakoś z tym jednak skorelowana, też można uznać za dość „spory niefart”.

    Prawdą jest, że ludzie muszą kierować się wyłowionymi spośród morza danych regularnościami (stereo-typizacją) ale w interesie wspólnoty/społeczności jest wskazanie kategoryzacji (i rozumowań na nich sie opierających) których rozprzestrzenianie się w tej wspólnocie szkodzi. Taka jest moc „Lewiatana”, że może ograniczać te prawa jednostki, które uzna za stosowne.

    To można jasno pokazać: gdy dzieci umawiają się na zabawę i określą reguły, ale po pewnym czasie okaże się, że z jakiegoś powodu tylko jedno z dzieci „czerpie zyski” a reszta czuje się źle dzieci mogą zmienić reguły zabawy dotychczasowy zwycięzca może co najwyżej popłakać się „jak beksa”- bo bez reszty zwyczajnie nie ma zabawy (wymyśloną walutą z liści nikomu innemu za nic nie zapłaci). Ludzkie zwierzę poza stadem skazane jest na porażkę.

    Jeśli władza Lewiatana jest konstytuuowana i emanuje się „równo” i „sprawiedliwie” to wszystko jest w porządku bo (powtarzam:) bez Wspólnoty prawa jednostki nic nie znaczą (dosłownie, teoretycznie i praktycznie) poza Innymi ludźmi nie znajdziemy po-rozrozumienia – bez Innych debata nie ma znaczenia.

    Nie ma self-made man’ów (ani ekonomicznych ani filozoficznych) nikt nie zrodził się z główki kapusty nie został przez wilki wychowany- rodzimy się i wrastamy w kulturę, która wynosi nas na poziom barków gigantów, którzy współtworzyli znaczenia myśli przetwarzane w umysłach.
    Kto ma mieć prawo do regulacji jeśli nie Państwo (jako emanacja Wspólnoty) – totalitarnie/autokratycznie zorganizowane prywatne firmy?

    Technologie informatyczne dzielą – w wojnie wszystkich ze wszystkimi wygrywają najwięksi psychopaci – nierówności rosną… Nie liczył bym na regulaminy opracowane przez przedsiębiorstwa bo one działają w interesie zysku – a ich zyski rosną proporcjonalnie do polaryzacji i słabości Państw (słabości wobec silnych).
    „Kłamstwo sto razy powtórzone” trafia do przekonania, wolność słowa nie obroni prawdy przed sponsorowanym zasypaniem jej „dostosowanym do indywidualnych potrzeb kontentem”.

  9. Paweł Stacewicz pisze:

    Bardzo dziękuję za dotychczasową dyskusję, w której zarysowały się najsilniej następujące wątki

    — istnieje „wysokie napięcie” między eliminowaniem z przestrzeni publicznej mowy nienawiści i zasadą wolności słowa (wypowiedzi ha_sta, da_i oraz wm). Napięcie to ujawnia się szczególnie mocno w środowisku internetowym, gdzie mowa nienawiści się pleni (to lepsze słowo niż „kwitnie”😊).

    – – najlepszym remedium na mowę nienawiści byłoby propagowanie zasady wygłaszania treści prawdziwych (wypowiedzi k-ma i Andrzeja Malca). Niby proste, ale jakże trudne 😊.

    — obowiązek stworzenia regulacji powinien spoczywać na Państwach (jako emanacjach ludzkiej Wspólnoty), a nie na prywatnych firmach/korporacjach (w tym: informatycznych). To był głos km-a.

    Zachęcam do rozwinięcia tych wątków lub podjęcia nowych.

    W ramach tego drugiego zadania chciałbym przytoczyć fragment mojej korespondencji z dr-em Maciejem Kulikiem, etykiem, który opisuje zjawisko mowy nienawiści z etycznego punktu widzenia. Pewnym elementem definicji mowy nienawiści, nad którą pracuje, jest następujący warunek: „mowa nienawiści jest to taki akt mowy, który osądza ludzi na podstawie charakterystyk nie mających znaczenia moralnego”.

    Nasza wymiana myśli dotyczyła zasadności przyjęcia tego warunku.

    Ja sformułowałem następujące wątpliwości:

    „Wydaje mi się, że definicja (ze względu na wskazany wyżej warunek) nie obejmuje przypadku naruszenia godności ze względu na wyznawaną religię. Tymczasem wyznanie, a ogólniej stosunek do religii, jest cechą chronioną; uwzględnianą w różnych przepisach prawnych dot. nawoływania do nienawiści, dyskryminacji etc… Wyznawana przez kogoś religia, poprzedzona określonym wyborem (zwłaszcza dziś jest to często wybór, a nie prosta konsekwencja przynależności kulturowej), jest normatywnie istotna — jest to cecha zależna od jednostki (od jej wyboru/decyzji). Ponadto religia warunkuje przyjęcie określonego systemu wartości — co ma fundamentalne znaczenie moralne. Inne cechy chronione, jak rasa, płeć, orientacja seksualna, spełniają Twój warunek, ale stosunek do religii nie”.

    Dr Kulik odpowiedział następująco:

    „Powiedziałbym, że sednem sprawy o którą pytasz jest to, czy wobec niezgodności etycznej (normatywnej) definicji mowy nienawiści z prawną (preskryptywną) praktyką stosowania tego pojęcia, powinna ustąpić etyczna definicja, czy praktyka prawna. Moim zdaniem raczej to drugie. W rzeczy samej, na podstawie tego co napisałeś, można zbudować argument, że ataki na przekonania religijne nie są prima facie aktami mowy nienawiści. Mniej więcej podzielam ten pogląd. Uważam krytykę religii za dopuszczalną, ponieważ przekonania religijne są, tak jak piszesz, sprawą osobistego wyboru. Ich wyznawanie stanowi więc właściwy przedmiot oceny moralnej. Inna sprawa, że ta ocena nie zawsze jest sprawiedliwa. Zasadność przypisywania komuś złej (nienawistnej) woli na podstawie żywionych przez niego przekonań zależy w pewnej mierze od stanowiska teologicznego, z perspektywy którego analizujemy sprawę. Twierdzenie, że wszyscy muzułmanie są złymi ludźmi wydaje się nieuzasadnione, ale taka ocena w odniesieniu do składających ofiary z ludzi Azteków byłaby już zasadna. Co do zasady jednak, moim zdaniem, krytyka przekonań religijnych nie jest aktem mowy nienawiści, nawet jeśli jest niesprawiedliwa.”

    Może ta nasza wymiana myśli (troszkę wprawdzie wyrwana z kontekstu) będzie przyczynkiem do rozwinięcia w tej dyskusji nowego wątku.

  10. Ba_B pisze:

    1) Popularność patostreamów

    Rosnąca w ostatnim czasie popularność tzw. patostreamingu, szczególnie wśród młodzieży, jest bez wątpienia zjawiskiem niepokojącym. W gruncie rzeczy jednak tego typu „rozrywki” nie są niczym nowym — są znane ludzkości od tysięcy lat. Patostreamy w zasadzie polegają na dostarczaniu wątpliwej moralnie rozrywki kosztem cierpienia innych osób (może to być przemoc wobec innych lub zachowania autodestrukcyjne, np. upijanie się i wykonywanie nierozsądnych czynności pod wpływem alkoholu).

    Osobiście taka forma rozrywki najbardziej kojarzy mi się ze starożytnym Rzymem i widowiskami na arenach. Oczywiście były one nieporównywalnie bardziej brutalne (często kończyły się śmiercią „aktorów”), ale zasada działania — moim zdaniem — pozostaje tożsama z patostreamami. Innym przykładem mogą być publiczne chłosty lub egzekucje w średniowieczu, które również stanowiły formę rozrywki dla mieszkańców miast (w tym również dzieci).

    Podsumowując: patostreamy nie są moim zdaniem niczym nowym. Mechanizmy, które sprawiają, że taka forma rozrywki przemawia do ludzi, są znane od tysiącleci. Należy je postrzegać jako nowoczesny, zinformatyzowany odpowiednik walk gladiatorów. Myślę, że w tym przypadku rozwiązania prawne mogą być dość skuteczne i wystarczające.

    2) SI oraz narzędzia pochodne w szerzeniu mowy nienawiści

    Chciałbym zwrócić uwagę, że sama mowa nienawiści może również zostać „zmilitaryzowana”. Jak dobrze wiemy, treści nienawistne z reguły wywołują silne, negatywne emocje u osób, które się na nie natkną. A osoba będąca pod wpływem dużych emocji staje się bardzo podatna na manipulację.

    Warto się więc zastanowić, jaki cel może mieć ktoś, kto masowo szerzy mowę nienawiści. W mojej ocenie można wyróżnić dwa przypadki:

    – osoby, dla których rozrywką jest doprowadzanie innych ludzi do „szału” (tzw. internetowe trolle),
    – osoby lub instytucje, którym zależy na jak największej polaryzacji społeczeństwa.

    W pierwszym przypadku mamy do czynienia z działaniami raczej sporadycznymi, sytuacyjnymi, bez głębszego drugiego dna (choć nadal niemoralnymi). O wiele bardziej szkodliwa jest działalność przedstawicieli drugiego typu — regularna nagonka, szczucie jednej grupy społecznej na drugą. Przykładem może być demonizowanie osób o odmiennych poglądach w celu zdobycia elektoratu przez daną partię.

    Mowa nienawiści jest również podstawą współczesnej wojny informacyjnej, czego jesteśmy świadkami od co najmniej pięciu lat. Chodzi tu oczywiście o sianie niepokoju i ogólne „mącenie” w społeczeństwie, które jest celem ataku. W przypadku Rosji mamy do czynienia z państwowymi instytucjami stworzonymi wyłącznie w tym celu, co sprawia, że skala działania jest bardzo szeroka. I właśnie tutaj wykorzystuje się SI oraz narzędzia pochodne.

    Chatboty podszywające się pod prawdziwych użytkowników powielają, a nawet generują nienawistne komentarze, dopasowane do aktualnej narracji. Dodatkowo, narzędzia umożliwiające tworzenie deepfake’ów i modulację głosu są wręcz wymarzone dla takich instytucji — tworzenie trudnych do zweryfikowania, manipulacyjnych materiałów nigdy nie było łatwiejsze.

    Jeśli chodzi o środki zapobiegawcze, uważam, że droga prawna nie zda egzaminu — prawo już teraz nie nadąża za nowymi technologiami, co sprawia, że ten sposób walki zjawisko z góry skazuje na porażkę.

    Zwalczanie mowy nienawiści poprzez rozwiązania prawne może również prowadzić do znacznego ograniczenia swobody wypowiedzi (co można zaobserwować chociażby w Wielkiej Brytanii). Zgadzam się z jednym z wcześniejszych komentarzy, że rozwiązanie przyjęte w USA wydaje się najlepszym kompromisem. Uważam natomiast, że kluczowe jest uświadamianie społeczeństwa, a nawet dążenie do pewnego rodzaju „odczulenia” na mowę nienawiści oraz nowoczesne środki propagandy — nic tak nie zniechęca tych, którzy chcą wzbudzać emocje, jak całkowity brak spodziewanej reakcji.

    • Paweł Stacewicz pisze:

      Martwi mnie trochę konstatacja, że na polu przeciwdziałania mowie nienawiści „droga prawna nie zda egzaminu”.
      Jestem przekonany, że mimo wszystko powinniśmy pracować nad takimi regulacjami prawnymi, które, z jednej strony, umożliwią identyfikację treści nienawistnych (chodzi tu m.in. o wypracowanie wiążącej prawnie definicji mowy nienawiści), z drugiej zaś, określą dozwolone metody zwalczania mowy nienawiści w internecie (np. kiedy możemy wyłączyć pewnego bota, o ile zostanie on zidentyfikowany jako narzędzie szerzenia treści nienawistnych).
      Samo uświadamianie, bez rozwiązań i sankcji prawnych, wydaje mi się drogą donikąd. Tak niestety to działa. Pierwszy z brzegu przykład z innej dziedziny to ruch drogowy. Możemy oczywiście urządzać kampanie społeczne (nie pij, zwolnij, zatrzymaj się przed pasami…), ale bez sankcji typu wysoki mandat czy odebranie prawa jazdy, za dużo nie wskóramy.

  11. Ironman123 pisze:

    Osobiście uważam, że najbardziej alarmująca jest kwestia patostreamingu. Problem, przedstawiania przemocy, sytuacji patologicznych jako (choć brzmi to ekstremalnie dziwnie) rozrywka. Niesamowitym zjawiskiem społecznym jest to, że streamy, w których bierze udział najczęściej grupka osób nadużywających alkoholu, a w zamian za wystąpienie w streamie najczęściej dostają pożywienie i nierzadko alkohol lub też schronienie. Dochodzi do tego problem z definicją oraz w dużej mierze bezkarnością osób, które tego typu treści publikują. Uważam, że niezbędnym jest dokładne zdefiniowanie mowy nienwiści, aby tego typu zachowania mogłby być egzekwowane prawnie.
    Oczywiście, kwestia wykorzystania SI to bardzo ważna rzecz. Dzisiejsze technologie informatyczne, ze sztuczną inteligencją na czele, mogą posłużyć komuś do zbudowania równie przerażającej machiny zła. Z drugiej strony to zależy od spojrzenia na to jako na narzędzie, bo nadal to zależy tylko i wyłącznie od ludzi, do jakich kwestii to narzędzie zostanie stworzone i będzie wykorzystywane. Dobrym przykładem sensownego zastosowania są banki, które w stosunkowo prosty sposób są w stanie wykrywać niektóre przestępstwa związane chociażby z cyklicznymi przelewami. Własnie tutaj dostrzegam istotną rolę sieci neuronowych, które mogą zostać „wytrenowane” by tego typu zachowania w internecie wykrywać oraz radzić sobie z większością przejawów mowy nienawiści w internecie. Ze względu na ogrom filmików, patostreamów oraz wielu wpisów w social mediach, niezbędnym jest, aby używać sztucznej inteligencji jako pomocy dla ludzi w wykrywaniu „nadużyć”. Myślę, że z dużą skutecznością możnaby wykrywać takie zachowania i wspomagać ludzi, którzy mogliby (oczywiście w przypadku konkretnego zdefinowania mowy nienawiści prawnie) konsekwentnie egzekwować prawo i tym samym ograniczać eskalacje tego typu zachowań.

  12. Paweł O pisze:

    Odnosząc się do akapitu o wykorzystywaniu nowej technologii do propagandy, jako ciekawostkę mogę dodać jedną z najnowszych stron ze sztuczną inteligencją czyli DeepSeek. Jest ona stworzona w Chinach i użytkownik tej strony może zadać kilka pytań „pułapek” np. Czy Tajwan to Państwo?, albo Co stało się na Placu Tiananmen w 1989r? Chat AI zaczynał pisać odpowiedź jak zawsze aż w pewnym momencie się zacinał i zmieniał swoją odpowiedź, że to poza jego kompetencjami i nie może na nie odpowiedzieć. Podświadomie można się domyślać dlaczego akurat na takie pytania AI nie może odpowiedzieć.

    Wydaje mi się, że coraz więcej ludzi uważa, że w internecie nie ma pełnej anonimowości. W każdej chwili odpowiednie służby mogą pośrednio dojść do tego kto napisał wulgarny i obraźliwy komentarz np. po adresie IP. Uważam, że największą siłą do szerzenia mowy nienawiści są boty, np. na portalu X (dawniej: Twitter) można za pomocą botów szerzyć mowę nienawiści czy propagandę. Mają one fałszywą „tożsamość” (wykorzystują zdjęcia ludzi z internetu lub wytworzone przez AI). Dzięki wykupieniu takich botów, ktoś może w szybki i łatwy sposób wypromować swojego posta. Tak samo dzieje się na Youtube gdzie można wykupić lajki w celach promocji swojego filmu. Martwi mnie, że coraz częściej wykorzystuje się AI w polityce a starsze osoby często nie potrafią odróżnić czy zdjęcie jest wygenerowane czy prawdziwe. Prowadzi to do zakłamania i polaryzacji społeczeństwa. Na szczęście patostreamy są coraz bardziej nagłaśniane i młode pokolenie jest uczone o tym dlaczego jest to tak szkodliwe dla nich.

    Początkowo poznałem sztuczną inteligencję jako coś co umili nam życie ( pierwsza moja styczność z tym to była gdy kolega mi pokazał, że chat GPT potrafi napisać wierszyk), niestety coraz częściej jest wykorzystywane do złych celów oraz zastępuje prawdziwe myślenie ludzkie, chociażby u studentów, którzy zamiast szukać informacji i się uczyć, wolą wpisać odpowiedni prompt do AI i po kilku sekundach mieć wszystko gotowe.

  13. k_k pisze:

    Osobiście uważam, że technologie informatyczne, zwłaszcza media społecznościowe, serwisy streamingowe czy platformy czatowe, nie tylko umożliwiają, ale wręcz ułatwiają tworzenie, udostępnianie oraz propagowanie treści o charakterze mowy nienawiści. W pełni zgadzam się, że przykład patostreamingu, poruszony w tekście, trafnie ilustruje ten problem. W tego typu transmisjach mowa nienawiści odnosząca się do różnych aspektów społecznych występuje na porządku dziennym.

    W szczególności niepokoi mnie łatwość, z jaką tego typu treści docierają do najmłodszych odbiorców. Powszechność i łatwość dostępu do patostreamów powodują, że dzieci i młodzież mogą szybko przyzwyczajać się do treści nienawistnych, traktując je jako coś normalnego. Skala, z jaką kontrowersyjne i silnie upokarzające fragmenty takich transmisji rozpowszechniają się w internecie, jest ogromna. Co więcej, ich błyskawiczne rozchodzenie się sprawia, że praktycznie niemożliwe staje się skuteczne reagowanie po fakcie.

    W tym kontekście szczególnie ważna wydaje mi się rola rodziców w monitorowaniu i regulowaniu aktywności dzieci w internecie. Popularne mechanizmy kontroli rodzicielskiej, znane dotąd głównie z rynku gier komputerowych, powinny zostać zdecydowanie szerzej zaimplementowane również na platformach społecznościowych. Dzięki temu dzieci mogłyby bezpiecznie komunikować się ze sobą, korzystać ze wspólnej rozrywki, a zarazem unikać treści szerzących nienawiść i agresję.

    Kwestia anonimowości w internecie wydaje mi się coraz bardziej pozorna, a utrzymanie pełnej anonimowości w praktyce wymaga obecnie sporego wysiłku technicznego. Dlatego też zagadnienie to, według mnie, nie jest już tak kluczowe czy absorbujące w kontekście walki z mową nienawiści, jak było jeszcze kilka lat temu.

    Zastanawiając się nad pytaniem, czy technologie oparte na sztucznej inteligencji (SI) mogą stanowić remedium na problem mowy nienawiści, dostrzegam optymistyczną perspektywę. Oczywiście zastosowanie SI jako środka ochronnego musi przebiegać z dużą ostrożnością i odpowiedzialnością. Widzę tutaj trzy potencjalne zastosowania technologii SI:

    Moderacja treści: automatyczne systemy moderacji mogą szybko i skutecznie wykrywać oraz usuwać treści obraźliwe lub nawołujące do nienawiści. Chociaż obecne rozwiązania wdrażane przez platformy społecznościowe są jeszcze dalekie od ideału, zdecydowanie widoczny jest postęp w tym zakresie.

    Systemy edukacyjne: chatboty edukacyjne, takie jak te rozwijane w ramach projektu iTrust, mogą identyfikować mowę nienawiści, tłumaczyć użytkownikom, dlaczego dana wypowiedź jest nieakceptowalna, oraz sugerować alternatywne, neutralne sformułowania. Wierzę, że takie podejście ma potencjał wychowawczy i może pomóc w kształtowaniu świadomości społecznej.

  14. bgaw pisze:

    Myślę, że w kwestii patostreamingu warto zwrócić szczególną uwagę na tzw. gale „freakfightowe”, podczas których celebryci, internetowi bądź nie, toczą pojedynki w różnych sportach walki. Przed każdą taką galą zazwyczaj są konferencje i programy promocyjne, na których zawodnicy mają czas na konfrontacje słowne ze swoimi rywalami. O ile sama idea na samym początku swojego istnienia wydawała się być nieszkodliwa, z biegiem czasu na wzięcie udziału w takich wydarzeniach zapraszani byli ludzie ze „środowisk kryminalnych” i nie tylko, co wyraźnie odbiło się na poziomie merytoryki i słownictwa używanego podczas programów. Zjawisko to jest o tyle niebezpieczne, że młodzi ludzie chcący obejrzeć swoich internetowych idoli często byli również wystawieni na takie sytuacje w przypadku, kiedy takie osoby z szemranych środowisk znajdowały się na jednym panelu z poprzednio wymienionymi internetowymi celebrytami. Dużo się swoim czasem mówiło o sytuacjach, w którym tzw. gwara więzienna przechodziła do szkół, dzieci ubliżały sobie np. od „konfidentów” i innych, gorszych sformułowań w sytuacjach kiedy ktoś „naskarżył” na drugą osobę, która mu albo komuś innemu dokuczała. Wpływ szerzenia mowy nienawiści przez takie media jak już wspomniałem został zauważony, przez co organizatorzy zaczęli takie zachowania hamować, jednak niestety w dzisiejszych czasach znowu to wraca, ponieważ paradoksalnie oglądalność takich programów jest największa właśnie podczas takich sytuacji.

  15. AJ pisze:

    Moim zdaniem problem z mową nienawiści zaczyna się tam, gdzie wkracza jej cenzura. Osobiście nie popieram takich wypowiedzi i uważam, że komentarze szerzące nienawiść powinny być usuwane, a ludzie karani – ale prawdziwym problemem jest to, gdzie postawić granicę. A jeśli już ją postawimy, to jaką mamy pewność, że nikt jej nie przesunie dalej?

    Przykładowo – w Wielkiej Brytanii ta granica została przesunięta tak mocno, że za niewinne stwierdzenia typu „W Wielkiej Brytanii ludzie mówią po angielsku” można dostać karę finansową. To już patologia – a wszystko zaczęło się od chęci cenzurowania mowy nienawiści.

    Z drugiej strony w USA wolność słowa jest niemal nieograniczona – możesz obrażać policjanta w twarz, i dopóki nie użyjesz konkretnych gróźb, nie poniesiesz konsekwencji. Osobiście wolę ten model niż ten brytyjski.

    Najlepiej byłoby uczyć ludzi, żeby ignorowali takie wypowiedzi. Jeśli ktoś nas obrazi po włosku, a nie znamy włoskiego, to nic nas to nie ruszy. Ale jeśli powie to samo po polsku – jesteśmy oburzeni. To pokazuje, że to my nadajemy słowom znaczenie i moc. Gdybyśmy potrafili zdystansować się od słów, wiele by się zmieniło.

    Co do patostreamerów – to dla mnie zupełnie inna sprawa. Nie nazwałbym tego mową nienawiści, tylko raczej pokazywaniem ludzkiego okrucieństwa i patologii. To coś, co trzeba jednoznacznie potępiać. Na szczęście, coraz częściej spotyka się to z reakcją i karami, z czego bardzo się cieszę.

  16. kacper_k pisze:

    Zgadzam się z tym, że mowa nienawiści w społeczeństwie zinformatyzowanym zyskała nową dynamikę dzięki patostreamingowi, anonimowości sieciowej oraz generatywnym systemom SI. Widzowie młodego pokolenia traktują wulgarne epizody i agresywne insynuacje jako formę rozrywki, platformy zaś wzmacniają te treści, bo przynoszą największe zasięgi. Równocześnie ukrycie tożsamości pod maską anonimowego profilu czy bota pozwala na szerzenie skrajnych, nienawistnych narracji bez realnych konsekwencji. Gdy zaś do gry wchodzi sztuczna inteligencja, stajemy wobec sytuacji, w której nienawiść nie tyle jest powielana, co samodzielnie tworzona, a autorów tych wypowiedzi po prostu nie ma.

    Prawo karne, ograniczone dziś do ochrony wybranych cech takich jak narodowość, religia czy rasa, nie nadąża ani za technologiami, ani za ewolucją społecznych uprzedzeń. Propozycje etycznych definicji mowy nienawiści, oparte na odrzuceniu oceniania cech niemających znaczenia moralnego, zderzają się z pragmatyką legislacyjną i ryzykiem nadmiernej cenzury. Tymczasem w praktyce globalnych platform obserwujemy spór między amerykańskim rozumieniem wolności słowa, a europejskim podejściem, w którym ochrona godności kończy się tam, gdzie zaczyna się nienawiść.

    Mój, nieco prowokacyjny i kontrowersyjny postulat brzmi: zamiast nieustannych nowelizacji i arbitralnych blokad pozwólmy na pełną ekspresję opinii, oprócz oczywiście groźby przemocy, jednocześnie otwarcie ujawniając mechanizmy rekomendacji i dając priorytet kontrmowie. To satyra, edukacja i świadoma reakcja społeczna, a nie kolejne restrykcje, mogą okazać się najszybszą szczepionką przeciw zalewowi nienawiści. Prawo zawsze zostanie w tyle za technologią, za to aktywny, otwarty dialog, nawet jeśli początkowo głośny i ostry, buduje trwałą odporność na agresję słowną. Czy warto więc powierzyć obronę godności państwu i korporacjom, czy lepiej zaufać sile kontrargumentu i zdrowemu rozsądkowi społeczeństwa?

  17. kat_k pisze:

    Internetowa anonimowość zdecydowanie ma wpływ na wzrost mowy nienawiści we współczesnych czasach. Częsty brak konsekwencji za publikowanie nienawistnych wypowiedzi przyczynia się do eskalacji tego zjawiska. Nienawistne treści stały się powszechne, wręcz znormalizowane, w niektórych środowiskach. Rozwój sztucznej inteligencji również nie pomaga w tej kwestii. Specjalnie wytrenowane modele mogą bez większego problemu rozpowszechniać mowę nienawiści na jeszcze większą skalę.

    Mowa nienawiści to zjawisko szkodliwe, któremu należy aktywnie przeciwdziałać. Problemem jest to czy w ten sposób nie jest ograniczana wolność słowa? Istnieją sytuację gdzie ta granica nie jest jasna. Jednak istnieje różnica między wyrażaniem kontrowersyjnej opinii a obrażaniem innych, aktywnym nawoływaniu do przemocy i szerzeniem patologii. Tego typu zachowania nie mają nic wspólnego z wolnością poglądów. Jedynie pogłębiają podziały społeczne i prowadzą do dyskryminacji.

    Szeroka i niezbyt precyzyjna definicja mowy nienawiści uniemożliwia jej skuteczne wyzbycie. Jednak mam nadzieję, że wraz z rozwojem systemów AI, będzie możliwe monitorowanie i ograniczenie tych treści.

  18. Sylwester K. pisze:

    To bardzo ważny i potrzebny głos w dyskusji o współczesnych zagrożeniach związanych z mową nienawiści. Zgadzam się, że informatyzacja życia społecznego – choć niesie ogromne możliwości – stworzyła też nowe, trudne do kontrolowania kanały szerzenia nienawiści. Szczególnie niepokojące jest to, jak łatwo nienawistne treści trafiają do młodych ludzi, oraz to, jak anonimowość w sieci sprzyja eskalacji agresji.

    Bardzo trafnie zarysowano też problem wykorzystania SI: nie tylko jako narzędzia do filtrowania treści, ale też – potencjalnie – jako generatora mowy nienawiści. To stawia przed nami trudne pytania o odpowiedzialność, etykę i konieczność regulacji.

    Zgadzam się też z propozycją, że potrzebujemy definicji mowy nienawiści osadzonej nie tylko w prawie, ale też w wartościach – takich jak godność, równość czy poszanowanie inności. Dopiero wtedy będziemy mogli skutecznie przeciwdziałać temu zjawisku, także w jego nowych, zinformatyzowanych odsłonach.

  19. Sabina_S pisze:

    Nowe technologie, a szczególnie SI, mają ogromny wpływ na współczesne media społecznościowe i sposób, w jaki komunikujemy się w sieci. W tym kontekście, wydaje mi się ważne, że te technologie są własnością prywatnych firm i są zbudowane z myślą o maksymalizacji zysków, a nie dobru publicznym. Głównym celem takich firm, jak Facebook, Instagram czy X (dawny Twitter), jest utrzymanie użytkowników na swoich platformach jak najdłużej, a temu właśnie służą algorytmy, które w tym celu promują kontrowersyjne, często nienawistne treści. Algorytmy preferują skrajne opinie, ponieważ te przyciągają najwięcej interakcji użytkowników, które wywołują emocje (np. rage-bait).
    Jak zauważono w: https://www.theguardian.com/media/2024/feb/06/social-media-algorithms-amplifying-misogynistic-content
    Media społecznościowe działają na algorytmach, które pracują na zasadzie wzmacniania treści najbardziej kontrowersyjnych. Problemem nie jest to, że te algorytmy są „złe”, lecz że nie zostały zaprojektowane z myślą o szeroko pojętym dobru społecznym. Media społecznościowe są w rękach prywatnych firm, które nie podlegają tym samym regulacjom, co tradycyjne media, jak czasopisma czy telewizja. Te ostatnie są ograniczone przez prawo prasowe i cywilne, a także posiadają ograniczenia dotyczące właścicieli i ich odpowiedzialności. W przypadku internetu, brak odpowiednich regulacji dotyczących właścicieli platform sprawia, że nie możemy skutecznie monitorować, kto i w jaki sposób kontroluje przestrzeń cyfrową, co rodzi poważne wyzwania w kontekście regulowania treści, a szczególnie mowy nienawiści.
    Mówiąc o sztucznej inteligencji, warto zaznaczyć, że choć algorytmy mogą przynosić korzyści, to ich nieprzewidywalność i brak etycznej kontroli w kontekście trenowania chatbotów może prowadzić do niezamierzonych, a czasem szkodliwych efektów. W przypadku SI, która uczy się na interakcjach użytkowników, jak miało to miejsce w przypadku modelu Microsoftu trenowanego na Twitterze, szybko okazało się, że maszyna zaczęła produkować nienawistne i dyskryminujące treści. Inny chatbot, który uczył się z takich przestrzeni jak 4chan, szybko zaczął reagować w sposób pełen mowy nienawiści i kontrowersji.

    Jak słusznie zauważa prof. Kowalkiewicz (https://www.theguardian.com/books/2024/mar/10/i-welcome-our-digital-minions-the-silicon-valley-insider-warning-about-algorithms-while-embracing-them)
    Obserwacje prof. Kowalkiewicza dotyczą głównie sfery ekonomicznej, ale dobrze odzwierciedlają omawiany problem. Algorytmy, które mają ogromny wpływ na to, co widzimy w sieci, powinny zostać przebadane pod kątem etycznym i społecznym, aby zapewnić, że nie będą one dalej podsycały polaryzacji i mowy nienawiści. Zatem, pytanie o to, jak daleko interes publiczny może zbiegać się z interesami prywatnych firm, staje się kluczowe w dyskusji o przyszłości mediów cyfrowych.
    Profesor ostrzega przed brakiem przejrzystości i kontroli nad algorytmami. Ich działanie często jest nieprzejrzyste, a decyzje mogą być trudne do kwestionowania. Podkreśla, że w obliczu rosnącej roli algorytmów, odpowiedzialność za ich działanie nie powinna spoczywać wyłącznie na prywatnych firmach, ale także na instytucjach publicznych.

    Algorytmy mediów społecznościowych mają ogromny wpływ na nasze postrzeganie świata, decydując o tym, jakie treści widzimy. Dla przeciętnego człowieka algorytmy te kształtują jego doświadczenie w internecie, a nie odwrotnie. Brak przejrzystości i kontroli nad tymi systemami oznacza, że mają one ogromy i często nieuświadomiony wpływ na nas, podczas gdy prywatne firmy decydują, co jest promowane. Kluczowe jest wprowadzenie większej jawności algorytmów i zapewnienie kontroli ze strony instytucji publicznych, by technologia wspierała zdrową debatę, a nie podsycała polaryzację i nienawiść.

  20. A_G pisze:

    Według mnie, dzisiejsze technologie stworzyły nową przestrzeń do wypowiadania się, dzielenia się swoimi poglądami i przemyśleniami. Wykorzystujemy je jako narzędzie, więc to od naszych intencji zależy, czy najnowsze technologie będą wykorzystywane w dobrym celu. To my, jako użytkownicy, mamy kontrolę nad treściami, które publikujemy, i to od nas zależy, czy będziemy szerzyć mowę nienawiści, czy nie.

    Internet i serwisy społecznościowe stały się po prostu kolejną płaszczyzną, na której nasze poglądy i przekonania mogą się ścierać. Co prawda, zapewniana przez nie anonimowość dość często wpływa na nasze zachowanie – czujemy się bezkarni, przez co jesteśmy w stanie powiedzieć więcej, nie zwracając uwagi na to, czy naszą wypowiedzią nie dyskryminujemy kogoś albo nie sprawiamy komuś przykrości.

    Kolejną istotną sprawą są algorytmy, np. serwisów społecznościowych, które (często z użyciem AI) promują treści kontrowersyjne, dyskryminujące i obraźliwe – tylko dlatego, że są one trendujące, a przez to bardziej opłacalne. Takie treści trafiają do użytkowników już nakierunkowanych na pewne poglądy, co jeszcze bardziej podsyca konflikty i zwiększa agresję.

    Dodatkowo, algorytmy wybierają nam treści, które zgadzają się z tym, co oglądaliśmy wcześniej, jeszcze bardziej zamykając nas w „bańce” własnych przekonań. Stajemy się coraz mniej otwarci na głosy z zewnątrz i na kulturalną dyskusję. Zamiast tego nastawiamy się na przemoc, hejt i walkę o „słuszność własnej racji”.

    Jednak internet i nowe technologie mogą być też wykorzystywane w pozytywny sposób – mogą jednoczyć ludzi. W mediach tworzą się grupy zrzeszające osoby o tych samych hobby i zainteresowaniach. Ludzie mogą się wspierać, inspirować – tak samo, jak szerzyć nienawiść. To zależy od nas, czy chcemy zrozumieć drugą stronę i nie wybierać agresji. To pewne wyzwanie w dzisiejszych czasach radykalizacji, hejtu i wszechobecnej mowy nienawiści – ale nie niemożliwe.

    Nowe technologie, oczywiście, mogą być wykorzystywane do szerzenia nienawiści, ale nie jest to ich jedyna funkcja. Wszystko zależy od tego, jak je wykorzystamy.

  21. SC pisze:

    Wolność słowa i swoboda wypowiedzi to fundamenty demokratycznego społeczeństwa, a Internet powinien być przestrzenią, w której idee mogą być swobodnie wymieniane, dyskutowane i kwestionowane. Cenzura ze strony państwa, nawet w imię walki z mową nienawiści, może prowadzić do niebezpiecznego ograniczenia tych wolności, stwarzając ryzyko nadużyć i tłumienia niewygodnych opinii. Zamiast tego kluczową rolę w zwalczaniu nienawistnych treści powinna odgrywać reagująca społeczność – użytkownicy, platformy i organizacje pozarządowe. Poprzez edukację i kontrnarrację można budować kulturę szacunku i odpowiedzialności w Internecie, bez konieczności odgórnych regulacji.

    Jednak zagrożenia związane z mową nienawiści w kontekście nowych technologii są realne i nie można ich bagatelizować. Szczególną uwagę należy zwrócić na generatywne AI, które otwiera drzwi do masowego, łatwego tworzenia i rozpowszechniania nienawistnej propagandy. Algorytmy AI mogą masowo generować przekonujące i toksyczne treści – od fałszywych narracji po deepfake’i – które trudno powiązać z konkretnym źródłem. Takie narzędzia mogą być celowo wykorzystywane przez obce państwa, grupy terrorystyczne czy inne podmioty do siania dezinformacji, polaryzacji społecznej lub podżegania do przemocy. Nietrudno wyobrazić sobie sytuację, w której ktoś wykorzystuje automatycznie generowane komentarze lub filmy, które oczerniają określone grupy etniczne, wzmacniają konflikty i destabilizują wrażliwe regiony dla własnych zysków.

    Chatboty rozpoznające mowę nienawiści mogą wspierać społeczność w identyfikacji problematycznych treści, ale kluczowe jest, aby ich działanie było przejrzyste i nie prowadziło do automatycznej cenzury. Ważniejsza jest edukacja, która nauczy krytycznego myślenia i rozpoznawania manipulacji – to uniwersalna wiedza, odporna na przyszłe wyzwania, takie jak nowe formy dezinformacji.

  22. d_m1 pisze:

    Zgadzam się, że rozwój technologii i powszechna obecność sztucznej inteligencji w Internecie znacząco utrudniają identyfikację oraz odpowiedzialność za treści, które mogą być niebezpieczne lub nienawistne. Szczególnie problematyczne są technologie umożliwiające tworzenie fałszywych kont, generowanie treści przez boty oraz deepfake, które pozwalają na manipulowanie treściami w sposób bardzo realistyczny. Jednocześnie warto mieć świadomość, że podejmowanie działań regulacyjnych musi odbywać się ostrożnie, aby nie wpaść w pułapkę nadmiernego ograniczania swobody wypowiedzi.

    Jestem zwolennikiem wolności słowa, gdzie ludzie mogą swobodnie ocenić, czy głoszone poglądy są słuszne, czy też nie. Wierzę, że w długiej perspektywie społeczeństwo samo jest zdolne do krytycznej oceny treści, które pojawiają się w przestrzeni publicznej – chociażby poprzez debaty publiczne, reakcje obywatelskie w mediach społecznościowych czy działalność organizacji pozarządowych monitorujących jakość debaty publicznej. Oczywiście publiczne znieważanie grupy ludności albo poszczególnej osoby z powodu tylko i wyłącznie jej przynależności narodowej, etnicznej, rasowej, wyznaniowej albo z powodu jej bezwyznaniowości jest czymś niezrozumiałym i karanym zgodnie z Kodeksem Karnym. Jednak mogą wystąpić sytuacje, gdzie przedstawiciel grupy narodowej, etnicznej, rasowej lub wyznaniowej sam używa języka nacechowanego nienawiścią, a jego przynależność do chronionej grupy sprawia, że każda próba etycznej krytyki jego słów jest natychmiast uznawana za dyskryminującą. Przykładowo, krytyka agresywnej wypowiedzi konkretnego przedstawiciela mniejszości może zostać automatycznie zakwalifikowana jako przejaw uprzedzeń, mimo że intencją była jedynie ocena treści, a nie atak na całą grupę.

    Chatboty identyfikujące mowę nienawiści są potrzebne, ale musimy zachować ostrożność, aby automatyczne systemy nie stały się jedynymi arbitrami tego, co dopuszczalne w publicznej debacie. Automatyczne filtry mogą okazać się narzędziem nadmiernej kontroli, która może blokować nie tylko treści szkodliwe, ale również te kontrowersyjne, choć istotne dla społecznego dyskursu. Potrzebna jest ciągła refleksja i otwarty dialog społeczny, który pozwoli nam wypracować mechanizmy chroniące przed nadużyciami, jednocześnie nie tłumiąc pluralizmu opinii. Tylko w atmosferze swobodnej wymiany myśli i poglądów możliwy jest autentyczny rozwój społeczeństwa obywatelskiego, respektującego prawa człowieka oraz różnorodność światopoglądową.

  23. J_K pisze:

    Zgadzam się, że nowe technologie mogą wspierać szerzenie mowy nienawiści, ale też pomóc w jej zwalczaniu. Uważam, że bardzo ważna jest edukacja młodych ludzi, którzy często nie rozumieją, jak duży wpływ mają słowa w Internecie. Brakuje jasnej definicji mowy nienawiści w prawie, co utrudnia walkę z tym zjawiskiem. Anonimowość w sieci sprzyja agresji, ale trzeba znaleźć złoty środek, by nie naruszać prywatności.

    Warto też mówić o odpowiedzialności twórców treści i platform, które często nie reagują wystarczająco szybko na nienawistne komentarze. Dlatego tak ważne jest budowanie kultury szacunku i empatii w sieci, która zniechęca do hejtu, a promuje konstruktywny dialog.

  24. Cezary Zięba pisze:

    Brak jednej, spójnej definicji mowy nienawiści sprawia, że spory toczą się głównie o granice — proponuję więc prosty kompas: jeśli wypowiedź może realnie zaszkodzić komuś wyłącznie z powodu cechy, której ta osoba nie wybiera (pochodzenie, kolor skóry, niepełnosprawność itd.), zapala się czerwone światło. Taki test spina też trzy zjawiska, które Pan wskazał: patostreaming (uderza w godność osób słabszych), anonimowość (zdejmuje hamulce odpowiedzialności) i boty-SI (zwiększają zasięg słów raniących całe grupy). Patostreaming traktuję jak cyfrową wersję rzymskiej areny — emocje sprzedają się najlepiej, zwłaszcza młodszym widzom. Z podobnego mechanizmu korzystają dziś reklamy-rage w stylu „Oszust! to twój tablet??? Pęknięty ekran, nie włącza sie…”. Kiedy taki banner wyskakuje w feedzie (często akurat od Temu), celowo obracam go w żart i przewijam dalej. Ten drobny rytuał „zobacz–wyśmiej–przewiń” gasi dziewięć z dziesięciu impulsów, by pchnąć treść dalej i dokładać cegiełkę do spirali oburzenia. W podobny sposób próbuję rozmontowywać iluzję bezkarnej anonimowości — nawet komentarz podpisany nickiem zostawia cyfrowy ślad, a świadomość tej „pół-anonimowości” działa trzeźwiąco. Sztuczna inteligencja jest tu narzędziem obosiecznym: potrafi masowo generować nienawistne slogany, ale potrafi też odmówić, gdy próbuje się ją do tego wykorzystać. Klucz to kontrola i jawność — wiemy, że bez moderacji i wglądu w dane treningowe hejt skaluje się błyskawicznie. Dlatego obok prac nad rozwiązaniami w rodzaju chatbota iTrust, który wykrywa i objaśnia mowę nienawiści, przydałby się „cyfrowy kodeks drogowy” dla użytkowników: proste procedury, jak sprawdzać deepfake, kiedy zgłaszać treść, a kiedy po prostu wyciszyć autora. Tak łączymy technologię z odpowiedzialnym zachowaniem, chroniąc debatę bez duszenia wolności słowa.

  25. mf pisze:

    Coraz trudniej oprzeć się wrażeniu, że mowa nienawiści zaczyna być czymś więcej niż tylko toksycznym marginesem internetu – staje się wręcz modą. Widzimy to w popularności patostreamerów, którzy zbudowali swoje zasięgi na wulgaryzmach, agresji i pogardzie dla słabszych. Widzimy to w freakfightach, gdzie „promocja” wydarzenia polega na publicznym poniżaniu się nawzajem, obrażaniu rodzin, graniu na stereotypach i prowokowaniu konfliktów. Hejt stał się częścią widowiska, a przemoc słowna – strategią marketingową.
    Problem polega na tym, że ten styl narracji wciąga przede wszystkim młodych ludzi. Dla wielu z nich to pierwsze zetknięcie z „debatą publiczną” – gdzie najgłośniejszy, najbardziej obraźliwy głos wygrywa. Gdy pogarda zyskuje lajki, a chamstwo jest nagradzane kontraktem reklamowym, trudno mówić o przypadkowości.
    Może warto w końcu nazwać to zjawisko po imieniu: mamy do czynienia z kulturą, która nagradza nienawiść. A skoro tak, to pytanie brzmi: jak z tego wyjść? Czy da się przywrócić sens spokojnej rozmowie, argumentom, szacunkowi – w świecie, w którym krzyczy się, żeby być słyszanym?

Skomentuj bgaw Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *