Uwagi te nasunęły mi się w trakcie uczestnictwa w seminarium na Politechnice Warszawskiej na temat mowy nienawiści, jak jest rozumiany ten termin w definicjach prawniczych oraz etycznych (zob. nagranie w serwisie YouTube). Abstrahując od treści odczytów, która w żadnym punkcie nie budziła moich zastrzeżeń, a raczej uznanie dla kompetencji mówców, chcę zwrócić uwagę na pewien fenomen językowy, który się przejawił w odczytach i w dyskusji. Jest to zjawisko tak powszechne, że daje powód do komentarza z tego punktu widzenia, który określam jako światopogląd informatyczny. Jak w każdym światopoglądzie, i każdym innym produkcie intelektualnym, mogą się pojawiać błędy myślowe.
Można zauważyć, że istnieje taka wersja światopoglądu informatycznego, w której dokonuje się pewne naiwne hipostazowanie sztucznej inteligencji. Jest to mówienie o niej, jak gdyby był to jakiś podmiot (w grece — hypostasis) zdolny do samodzielnego rozwiązywania problemów i podejmowania decyzji.
Polega to na przypisywaniu sztucznej inteligencji zdolności do postrzegania i eliminowania mowy nienawiści w mediach społecznościowych. Tematem obu referatów były kryteria służące do rozpoznawania mowy nienawiści: w jednym kryteria prawne, w drugim — etyczne. Toteż SI jako samodzielny podmiot dozorowania mediów musiałaby dysponować systemem takich kryteriów i na tej podstawie podejmować eliminujące czy korygujące decyzje.
Oczywiście, nikt z uczestników dyskusji nie żywił takiego przekonania. Należy ono raczej do potocznego slangu, jakiejś — by tak rzec — ludowej (folk) filozofii informatyki. Chodziłoby jednak o takie kształtowanie języka przez ekspertów, żeby owego naiwnego pojmowania nie umacniać przez fakt, że dla jakiegoś uproszczenia dyskursu tak się wyrażamy, jakbyśmy ów „ludowy” dialekt podzielali.
Nie zgadzam się z stanowiskiem że potrzebne są kryteria prawne lub etyczne by eliminować mowę nienawiści przez sztuczną inteligencję. W praktyce zdania to wielowymiarowe sekwencje i ustalanie czy coś jest mową nienawiści to po prostu zadanie klasyfikacyjne. Nie potrzebujemy definiować etyki lub prawa tylko pokazać praktyczne użycie. Inna sprawą jest to czy prawo powinno wymuszać udostępnianie kodu systemów moderacji treści i moim zdaniem powinno jako że ma wpływ społeczny.
Zgadzam się, że od strony technicznej detekcja mowy nienawiści to przede wszystkim zadanie klasyfikacyjne. Jednak nawet najlepszy algorytm potrzebuje zestawu przykładów i etykiet — a to oznacza odwołanie się do jakiegoś systemu wartości czy reguł prawnych. Bez jasnych kryteriów „mowy nienawiści” nie wiadomo, które wypowiedzi należy zaklasyfikować jako problematyczne, a które – pominąć.
W praktyce oznacza to, że każdy zestaw treningowy będzie odzwierciedlał przyjęte definicje prawne lub normy etyczne. Jeśli nie zdefiniujemy ich w sposób transparentny i publiczny, łatwo może dojść do sytuacji, w której moderatorzy (albo autorzy algorytmu) nieświadomie wprowadzą nadmierną cenzurę albo – przeciwnie – przepuszczą treści, które dla części użytkowników są obraźliwe.
Dlatego uważam, że nawet jeśli pokazujemy „tylko” działający system, to fundamentem muszą być kryteria oparte na prawie i etyce. Pozwala to nie tylko zrozumieć logikę klasyfikacji, ale i kontrolować ewentualne nadużycia — a przecież chodzi nie tylko o skuteczność technologii, lecz także o zachowanie otwartości debaty i poszanowanie wolności słowa.
Generalnie się zgadzam z tym co napisałeś tylko że fizycznie nie ma „Ministerstwa Poprawności Polityczniej”. Więc wszystko dzieje się chaotycznie. Tak samo mechanizm decydowania o tym też może być obarczony różnymi błędami. Może należałoby przeprowadzić jakąś specjalną ankietę tak jak dla modelu LLM Sójka?
Uważam, że nie powinno się wprowadzać systemów eliminujących mowę nienawiści w internecie. Każdy człowiek ma prawo do swobodnego wyrażania swoich poglądów – nawet jeśli ich forma jest obraźliwa, to przede wszystkim świadczy to o autorze wypowiedzi, nie o odbiorcy. Ograniczanie wolności słowa w imię walki z mową nienawiści może prowadzić do nadmiernej wrażliwości społecznej, co nie jest właściwym kierunkiem rozwoju. Co więcej, pojęcie mowy nienawiści jest trudne do jednoznacznego zdefiniowania. To, co w jednej kulturze czy społeczności uznaje się za niedopuszczalne, w innej może być w pełni akceptowalne. Różnice te występują nie tylko między narodami, ale także wewnątrz jednego kraju, między różnymi grupami społecznymi czy lokalnymi wspólnotami. Dlatego uważam, że próba całkowitej eliminacji mowy nienawiści z przestrzeni publicznej jest nie tylko nierealna, ale i niebezpieczna. Może bowiem prowadzić do stopniowego ograniczania podstawowego prawa człowieka, jakim jest wolność słowa.
Jestem skłonny zgodzić się z takim podejściem gdy dotyczy ono dużych mediów społecznościowych takich, jak Twitter czy Facebook. Stały się one już praktycznie miejscem publicznym, więc powinny być podobnie traktowane, a zatem jeżeli wprowadzać jakieś regulacje tego, co można mówić do innych ludzi, to drogą prawną, a nie przez widzimisię właścicieli tych platform. Istnieje również problem interesów właścicieli tych platform – okazuje się, że przy zmieniającym się klimacie politycznym może się też zmieniać wykorzystywana definicja mowy nienawiści.
Jednakże, nie widzę przeszkód, żeby mniejsze, prywatne grupy użytkowników Internetu wprowadzały w swoich ramach takie zasady, jakie się podobają ich właścicielom. W takim przypadku SI mogłaby być przydatnym narzędziem dla moderatorów takich grup średniej wielkości (np. subredditów lub większych grup na Facebooku), więc dyskusja o niej nie jest bezsensowna. Warto tutaj zapewne zadać pytanie, w którym momencie taka grupa staje się miejscem publicznym i powinna być wyłączona spod prywatnej moderacji – nie mam na to dobrej odpowiedzi.
Zgadzam się, że kwestia odpowiedzialności językowej ekspertów jest ważna. Choć potoczne przypisywanie systemom SI cech „osobowościowych” bywa wygodne, może również prowadzić do niepożądanych skutków, szczególnie wśród odbiorców mniej obeznanych z technologicznym aspektem tych narzędzi.
Tego rodzaju uproszczenia mogą przyczyniać się do umacniania fałszywego obrazu SI jako czegoś, co „myśli” czy „wie”, a nie po prostu przetwarza dane zgodnie z ustalonymi wzorcami. Język, jakim się posługujemy, ma realny wpływ na to, jak technologia jest postrzegana społecznie, a w konsekwencji także na to, jakie oczekiwania i lęki się wokół niej pojawiają.
Ja uważam że to język się do rzeczywistości dostosowywuje i próbuje ją opisać jak „najtaniej”. I ta wygoda o której piszesz to wynik szukania tego dostosowania. Więc jeśli ontologia użytkowników języka sugeruje że najprościej powiedzieć „myśli” bo model coś odpisał, albo krótko podsumować jego działania jako „cech osobowościowych” to ludzie tak będą pisać. Powiedzenie „przeliczanie atencji embedowanych tokenów” to dla 99.9% społeczeństwa jakiś techno bełkot. To że wyniku upraszczania część prawdy przepadnie to konieczność wręcz metafizyczna. Ale pytanie pozostaję czy dostatecznie dużo prawdy przetrwało.
Ponadto moim zdaniem strach przed AI wcale nie jest czymś złym.
Jeśli chodzi o rozpoznawanie mowy nienawiści przez sztuczną inteligencję, to rzeczywiście traktowanie SI jako osobny byt o mocy decyzyjnej jest nie na miejscu. Jest to kolejne narzędzie, mające za zadanie ulepszanie procesu automatycznej moderacji. Jednym z pierwszych i najlepiej znanych są tak zwane czarne listy, zawierające wiele wulgaryzmów i ich zaciemnienia. Problem z mową nienawiści jest to, że można ją często ubrać w język, który bez kontekstu wydaje się niegroźny, kompletnie omijając czarną listę. SI jest kolejnym etapem, narzędziem, które jest w stanie odczytać kontekst wypowiedzi i (teoretycznie) mieć większą szansę na wykrycie mowy nienawiści. Jednak jak każde narzędzie, SI nie jest stuprocentowo poprawne. Tak samo jak czarne listy nie są idealne (problem Scunthorpe), tak samo SI będzie często popełniało błędy. I wtedy potrzebna będzie weryfikacja człowieka. Zmierzamy jednak w kierunku gdzie SI staje się nieomylne z powodu niższych kosztów utrzymania niż ludzkich moderatorów, co skutkuje ich sukcesywnymi zwolnieniami.
Może się okazać, że czeka nas zastąpienie wszystkich (albo zdecydowanej większości) moderatorów na stronach internetowych przez SI, a decyzje SI będą traktowane jako ostateczne, lub odwołania od nich będą rozpatrywane przez kolejną SI. Wtedy nie powstawałyby już żadne nowe tworzone przez ludzi zbiory danych ustalające reguły etyczne według których SI miałaby oceniać wpisy. W takiej sytuacji nowe wersje SI uczyłyby się albo na decyzjach poprzednich SI, albo na starych zbiorach danych. Przy zmianie wrażliwości społecznej mogłoby to doprowadzić do rozjazdu pomiędzy decyzjami SI a ludzką intuicją.
Treść tekstu skłoniła mnie do postawienia dwóch pytań:
Po pierwsze, czy rzeczywiście powinniśmy dążyć do eliminowania mowy nienawiści z mediów społecznościowych, a jeśli tak, to na jakich zasadach?
Po drugie, czy możemy być pewni, że obecna sztuczna inteligencja jest w ogóle zdolna do rozpoznawania tego rodzaju treści w sposób skuteczny i odpowiedzialny?
Zacznę od swojej opinii na temat eliminacji mowy nienawiści z mediów społecznościowych.
Z jednej strony, można uznać, że rzeczywiście miałoby to sens. Wraz z rozwojem technologii oraz coraz łatwiejszym i powszechniejszym dostępem do urządzeń elektronicznych, Internetu i mediów społecznościowych, wzrosło ryzyko zetknięcia się w sieci z osobami niedojrzałymi emocjonalnie – takimi, które nie zdają sobie sprawy z tego, że swoją wiadomością mogą kogoś obrażać czy krzywdzić. Co więcej, w Internecie znacznie łatwiej wyładować swoje negatywne emocje na drugiej osobie, zwłaszcza gdy nie zna się jej osobiście i nie widzi się jej reakcji. Anonimowość i brak ciągłej kontroli nad wszystkimi wpisami prowadzą do większej liczby agresywnych czy obraźliwych wypowiedzi. Coraz częściej dochodzi do tzw. cyberprzemocy, która w skrajnych przypadkach może prowadzić do poważnych problemów psychicznych ofiar.
Z drugiej strony, trudno jest jednoznacznie zdefiniować pojęcie mowy nienawiści w Internecie. Żyjemy w świecie naprawdę zróżnicowanym ze względu na kulturę. Różne kraje (a nawet poszczególne regiony, miasta oraz wspólnoty lokalne) mają zupełnie różny próg tolerancji wobec określonych zachowań w relacjach międzyludzkich. Jakiekolwiek konkretne słowo w jednej kulturze może zostać uznane za obraźliwe, natomiast w innej może być traktowane jako śmieszmy żart czy przejaw bezpośredniości albo wręcz całkiem normalny sposób komunikacji.
Jako fan piłki nożnej chciałbym przytoczyć przykład właśnie z tej dziedziny. Kilka lat temu urugwajski piłkarz Manchesteru United, Edinson Cavani, po jednym z meczów odpowiedział w swoich mediach społecznościowych na komentarz słowami: „Gracias, negrito” (w j.polskim „Dzięki, czarnuszku”). Kilka dni później urugwajczyk został zawieszony na trzy mecze i musiał zapłacić 100 tysięcy funtów kary za rasistowski wpis. Tymczasem w Ameryce Łacińskiej określenie „negrito” zupełnie nie ma żadnego charakteru obraźliwego – wręcz przeciwnie używa się w przyjacielskim tonie, np. w odniesieniu do bliskich osób.
Podany przykład pokazuje, że jeśli nadmiernie eliminować mowę nienawiści w Internecie, to może to prowadzić do nibezpiecznego zjawiska nadwrażliwości społecznej. Ludzie mogą zacząć traktować jako przemoc czy dyskryminację nawet zwykłe komentarze, które po prostu wyrażają odmienna opinię, co w końcu doprowadzi do absurdu. W najgorszych scenariuszach może to skutkować ograniczaniem wolności słowa – podstawowego prawa człowieka, co jest niebezpiecznym kierunkiem, zwłaszcza jeśli decyzję o usuwaniu wrażliwych treści będą podejmowane automatycznie, bez jakiegokolwiek kontekstu.
Załóżmy jednak, że jako społeczeństwo postanowiliśmy chociażby ograniczyć mowę nienawiści w mediach społecznościowych. Czy możemy być pewni, że obecna SI skutecznie z tym zadaniem sobie poradzi?
Moim zdaniem, odpowiedź na to pytanie brzmi: nie. Po pierwsze, uważam, że nawet najbardziej na ten moment zaawansowane modele SI nie są jeszcze podmiotem i wątpię, że nim będą w najbliższej przyszłości. Nie podejmują decyzji w sensie ludzkim. Opierają się na danych, na których zostały wytrenowane, które są podane przez ludzi. A skoro nawet ludzie sami często nie są w stanie jednoznacznie rozpoznać, czy konkretna wypowiedź stanowi mowę nienawiści (ze względu na kontekst, różnice kulturowe, ironię itd.), to tym bardziej nie poradzi sobie z tym skutecznie i maszyna, która nie rozumie świata w sposób ludzki.
Na zakończenie chciałbym podkreślić, że choć większość mojej wypowiedzi kręciła się wokół argumentów przeciwko ścisłej kontroli mowy nienawiści w mediach społecznościowych, nie oznacza to, że należy całkowicie zrezygnować z reagowania. W przypadkach oczywistego zagrożenia blokowanie takich użytkowników może być potrzebne. Uważam jednak, że najskuteczniejszą formą przeciwdziałania mowie nienawiści jest edukacja. Już w szkołach warto uczyć dzieci i młodzież, jak reagować na przemoc słowną w sieci. A często najzdrowszą reakcją jest po prostu brak reakcji. Ignorowanie prowokacji znacznie osłabia jej siłe i zwiększa szansę, ze osoba „atakująca” zrezygnuje z takich akcji w przyszłości.
Wiadomo że są różne poziomy wrażliwości i kultury z drugiej strony to są w internecie publikowane treści które się nadają do prokuratury oraz jawna dezinformacja. Po za tym to nie jest tak że korporacje czyli właściciele platform nie mają własnych przepisów które są dostosowane pod generowanie klików i pieniędzy, a nie pod prawdę. Obecna sytuacja w Ameryce to już groteskowo pokazuje jak bardzo łasi na pieniądze są właściciele platform i jak szybko mogą zmieniać zdanie w zależności kto obecnie jest u władzy. Kłamstwo naprawdę nie powinno być towarem. Reguły i standardy nie powinny być dostosywane pod ślepe zarabianie pieniędzy i zmieniane oportunistycznie w 5 minut.
Co do edukacji młodzierzy to idzie to w ślimaczym tempie i na razie to jesteśmy na etapie że z smartphonami się walczy. Do tego co piszesz to daleka droga jeszcze.
Moim zdaniem zamiast próbować zaprojektować w SI jednolity „system wartości”, który zawsze będzie arbitralny i zależny od kultury, kontekstu politycznego czy interesów twórców, warto rozważyć model oparty na społecznym konsensusie. Przykładem może być mechanizm Community Notes stosowany na platformie Twitter/X.
To system, w którym użytkownicy mogą wspólnie komentować i oznaczać wprowadzające w błąd treści – a następnie, w sposób przejrzysty i kolektywny, tworzyć adnotacje, które są widoczne publicznie tylko wtedy, gdy użytkownicy o różnych poglądach politycznych zgodzą się co do ich trafności. Ten model opiera się więc na pluralistycznym sprawdzaniu informacji, a nie na centralnie narzuconym standardzie prawdy.
Zastosowanie podobnego podejścia do klasyfikowania mowy nienawiści mogłoby przybrać formę ciągle aktualizowanego zbioru reguł tworzonych przez użytkowników – odzwierciedlających różnorodność środowisk, kultur i grup społecznych. SI mogłoby wspierać moderację, ale opierając się na tym dynamicznie tworzonym konsensusie, a nie na sztywnych regułach opracowanych przez wąskie grono.
Zaletą takiego systemu byłaby większa transparentność i poczucie współwłasności decyzji moderacyjnych. Obecnie często nie wiemy, dlaczego dany post został usunięty – SI tak „zadecydowała”.
Oczywiście, taki system nie byłby wolny od wad. Istnieje ryzyko nadużyć (np. masowych głosów trolli) i techniczne wyzwania. Mimo to warto eksperymentować z rozwiązaniami, które przywracają ludzką odpowiedzialność w miejsce niejasno określonych algorytmów.
Występujące w tytule wpisu „hipostazowanie” może być naiwne i bezrefleksyjne, ale może być także wyrazem namysłu nad postępem, jaki dokonuje się obecnie w dziedzinie SI. Tego rodzaju namysłem jest poprzedni wpis pt. „Narzędzie czy byt autonomiczny…”. Jego główny autor, Olaf Werner (ja byłem tylko „redakcyjnym” pomocnikiem), dość wnikliwie bada zagadnienie hipotetycznej podmiotowości SI.
W świetle jego uwag możemy na serio (a nie tylko w ramach „ludowej wersji filozofii informatyki”) rozważać hipotezę, że hipostazowanie SI stopniowo przestanie być li tylko hipostazowaniem. Przedmiot zmieni się w podmiot.
Z intencją wywołania dyskusji przytaczam kilka końcowych zdań autora poprzedniego wpisu:
— Modele językowe mają ogromną “inercję mentalną” – dlatego, że są bardziej otwartymi systemami, mającymi wiele różnych zastosowań, a dodatkowo są szkolone stochastycznie na gigantycznych zbiorach danych (dosłownie grubo ponad 10^12 tokenów/słów) i potrafią konfabulować. Ponadto, istnieją systemy AI, które nie tyle mają „inercję mentalną”, co “siłę mentalną”. Znaczy to, że to użytkownik podlega manipulacji, a nie na odwrót. Najlepszy przykład to systemy sztucznej inteligencji używane w mediach społecznościowych. Dlatego traktowanie ich na podobieństwo łopaty jest poważnym błędem poznawczym. Traktując je w ten sposób, zamykamy się na niezmiernie istotne kwestie.
Trudno mi z tym polemizować, mogę tylko poprzeć, choćby przykładem. Jak już tu wcześniej zauważono, moderacja mediów społecznościowych przez SI sprowadza się do „zadania klasyfikacyjnego”. Od strony technicznej „dozorowanie mediów” wygląda tak samo, jak dozorowanie poczty elektronicznej (a również blogów) w celu eliminacji spamu. To zostało opanowane jakieś ćwierć wieku temu. Komentarze na tym blogu przeglądane są przez SI, która od początku istnienia bloga nie dopuściła do publikacji przeszło 141 tysięcy komentarzy będących spamem. W tym czasie przeoczyła ona jedynie 37 spamów, a niesprawiedliwie oceniła jako spam zaledwie 24 komentarze. Daje to skuteczność równą 99,95%. Dla dopełnienia dodam, że dotychczas opublikowanych zostało nieco ponad 2500 komentarzy – i tu doceńmy pracę (a może tylko „pracę”?) sztucznej inteligencji, potrafiącej prawie bezbłędnie znaleźć mniej niż dwa procent ziaren wśród plew.
Czy automat zdolny jest do podejmowania decyzji zgodnych z naszymi oczekiwaniami? Jak widać, jest. Czy potrzebne do tego było wcześniejsze „wytłumaczenie” maszynie przez człowieka, co jest spamem, a co nim nie jest? Przez „wytłumaczenie” rozumiem tu opisanie problemu w jakimś języku programowania. Zdecydowanie nie. Wystarczyło jej „obejrzenie” wcześniej opublikowanych komentarzy, by mogła wśród plew poszukiwać podobnych ziarenek. Czy można zatem powiedzieć, że decyzje maszyny są samodzielne? Temu nie zaprzeczę – nie wiem nawet jakie kryteria filtracji sobie wypracowała. Czy z w związku z tym powinienem traktować maszynę podmiotowo? Nie widzę powodu.
Temat skłania do ważnej refleksji nad tym, jak mówimy o technologii i jak ten język kształtuje nasze rozumienie jej możliwości. Rzeczywiście, w dyskusjach o mowie nienawiści często pojawia się sposób mówienia o sztucznej inteligencji, który sugeruje, jakby była ona samodzielnym bytem: „rozpoznaje”, „eliminuje”, „podejmuje decyzje”. Choć takie ujęcie jest wygodne, może wprowadzać w błąd. W rzeczywistości AI to jedynie narzędzie – technologia zaprogramowana przez człowieka. Nie myśli, nie odczuwa i nie rozumie jak człowiek. Działa na podstawie danych i algorytmów, które same w sobie nie mają ani świadomości, ani wartości etycznych. To ludzie definiują, co uznać za mowę nienawiści i jak system ma na nią reagować.
Dlatego tak istotne jest, by osoby publicznie wypowiadające się o AI – zwłaszcza eksperci – unikały języka, który mimowolnie wzmacnia potoczne, naiwne wyobrażenia. To nie AI podejmuje decyzje – robią to ludzie, którzy ją tworzą i wykorzystują. W przeciwnym razie można nieświadomie budować fałszywe przekonanie o „świadomości” lub „inteligencji” maszyn, szczególnie wśród osób mniej obeznanych z technologią.
Nasuwa się pytanie, jakiego języka używać w zamian? Na przykład, „myślenie” jest dość dobrą analogią; jak człowiek zastanawia się przed powiedzeniem zdania, tak SI może się „zastanawiać” przed wygenerowaniem zdania; spotkałem się nawet z używaniem słowa „myśleć” wobec zwykłych programów bez SI w przypadkach, gdy nie reagują one przez kilka sekund na działania użytkownika.
Opcją mogłyby być czasowniki oparte na liczeniu: „liczy” zamiast „myśli”, „wylicza decyzję” zamiast „podejmuje decyzję”.
Może nie warto podejmować takich karkołomnych prób „odgórnego” zmieniania języka (które, moim zdaniem, skazane są na porażkę), a zamiast tego ewentualnie uświadamiać ludzi o faktycznym sposobie działania SI; przecież w przypadkach użycia słowa „myśleć” na zacinające się programy większość ludzi rozumie, że jest to nieco inne znaczenie tego słowa.
Hipostazowanie to ciekawa kwestia: hipostazujemy, gdy używamy nazw abstrakcyjnych tak, jakby kryły się za nimi przedmioty konkretne. Kotarbiński wskazuje na dwa źródła hipostaz – onomatoidy (nazwy pozorne) i nazwy o intencji ogólnej. Czy jednak nazwa „sztuczna inteligencja” należy do któregoś z tych rodzajów? Jeśli nazwę tę odnoszę do odpowiednio oprogramowanego komputera, albo do robota – nie mam do czynienia ani z onomatoidem, ani z nazwą o intencji ogólnej. Ani z nazwą abstrakcyjną. Nie ma więc wówczas hipostazy w mówieniu, że „sztuczna inteligencja ocenzurowała niepoprawny politycznie wpis”, tak jak nie ma hipostazy w mówieniu, że „mój samochód jedzie z prędkością 100 kilometrów na godzinę”. Nawet jeśli sztuczną inteligencję rozumiem szerzej – np. jako oprogramowaną sieć komputerową – nie hipostazuję mówiąc o niej jako o przedmiocie konkretnym. Oczywiście, mogę nazwę „sztuczna inteligencja” rozumieć też abstrakcyjnie – np. jako własność komputera. Wówczas hipostazowanie jest potencjalnie groźne, ale tylko wtedy, gdy buduję w oparciu o nie teorię naukową. W robocie praktycznej, do której wypada zaliczyć referaty popularyzujące problematykę mowy nienawiści – chyba tego zagrożenia nie ma. Kotarbiński także nie widział niebezpieczeństwa w używaniu nazw pozornych w „trakcie roboty praktycznej”. To powiedziawszy, oczywiście, przyjmuję jednak uwagę mego Mistrza – Profesora Marciszewskiego do stosowania, i obiecuję w kolejnych wystąpieniach nie psuć słuchaczy mętnością wypowiedzi (jeśli tylko mój ograniczony umysł nie zawiedzie mnie w posługiwaniu się językiem reistycznym). Tym chętniej składam tę obietnicę, iż reizm Kotarbińskiego jest mi bliski jako odmiana konkretyzmu, którego inną odmianę – a mianowicie: uznawanie za przedmioty konkretne jedynie sytuacji – uważam za bardzo pożyteczną w teorii prawa.
A co do potrzeby cenzury przekazów pod kątem mowy nienawiści – wiem, że sprawa jest kontrowersyjna, bo wolność słowa, bo nieskuteczność itp. Ale wydaje mi się, że ludzie sami nie radzą sobie z narastającą inwazją przemocy w dostarczanej im zewsząd informacji, co negatywnie wpływa na kondycję psychiczną i społeczną całych zbiorowości. Czy powinno się temu tylko przyglądać? Czy jednak mamy obowiązek działać?
Pozdrawiam uczestników tej ciekawej dyskusji, a szczególnie serdecznie Profesora Marciszewskiego – jej Inicjatora!
Cenną uwagą jest to, że „sztuczna inteligencja” może być rozumiana w sposób konkretny, o ile odnosi się do fizycznie istniejącego urządzenia lub systemu. Zgadzam się, że w takiej sytuacji trudno mówić o klasycznym hipostazowaniu.
Ale mimo wszystko mam wrażenie, że w języku potocznym i medialnym rzadko zatrzymujemy się przy tej precyzji. Kiedy mówimy, że „algorytm coś ocenił” albo „AI zdecydowała”, łatwo jest nieświadomie przypisać maszynie jakąś podmiotowość, a tym samym odpowiedzialność. Nawet jeśli z perspektywy ontologicznej nie mamy do czynienia z hipostazą, to z perspektywy społecznej być może już tak. Szczególnie gdy staje się to wygodnym sposobem unikania pytania: kto naprawdę podejmuje decyzje?
Co do wątku mowy nienawiści – rozumiem obawy o nadużycia i granice wolności słowa, ale uważam, że całkowity brak reakcji również może być niebezpieczny. Problem chyba nie tkwi w samej idei ograniczania pewnych treści, tylko w tym, jak to robimy i kto za to odpowiada. Czy to człowiek ustala zasady i ponosi odpowiedzialność, czy zaczynamy zrzucać wszystko na „sztuczną inteligencję”? Tu chyba leży prawdziwy dylemat.
W pełni zgadzam się z niepokojem autora dotyczącym zjawiska „naiwnego hipostazowania” sztucznej inteligencji. To ciekawe, jak łatwo wpadamy w pułapkę mówienia o AI, jakby była samodzielnym podmiotem – czymś w rodzaju „cyfrowego człowieka”, który „rozumie”, „decyduje” czy „rozpoznaje” mowę nienawiści. Tymczasem to wciąż tylko narzędzie, zaprojektowane i kontrolowane przez ludzi.
Problem, który porusza Marciszewski, wydaje mi się szczególnie ważny w kontekście mediów społecznościowych. Kiedy mówimy, że „AI moderuje treści” czy „wykrywa nienawiść”, łatwo zapomnieć, że tak naprawdę to ludzie stworzyli algorytmy i ustawili reguły. AI nie ma świadomości ani zrozumienia – po prostu wykonuje instrukcje. Niebezpieczeństwo polega na tym, że takie myślenie może prowadzić do złudnego poczucia bezpieczeństwa („skoro AI się tym zajmuje, to już nie musimy”) albo wręcz przeciwnie – do niesłusznego obwiniania technologii za decyzje, które tak naprawdę są ludzkie.
Sam często łapię się na tym, że używam personifikujących sformułowań w rozmowach o AI. To naturalne, bo nasz język jest przystosowany do opisywania relacji między ludźmi, nie maszynami. Ale autor słusznie zwraca uwagę, że eksperci powinni uważać na ten językowy nawyk – zwłaszcza że ich słowa kształtują sposób, w jaki społeczeństwo postrzega technologie.
AI to potężne narzędzie, ale tylko narzędzie. I to od nas zależy, czy będziemy używać go mądrze, czy też uciekniemy w wygodne, ale złudne przekonanie, że „maszyna sama się tym zajmie”.
Zjawisko, które wnikliwie opisał Patr1ckf mieści się w klasie tych idei, które wychodząc od uczonych „trafiają pod strzechy” i tam zaczynają żyć własnym życiem, np. w gazetowych nagłówkach o zagrożeniach ze strony AI, podczas gdy zagrożeniem są bardzo źli ludzie posługujący się bardzo sprawnym narzędziem. Stąd może się brać motywacja do unikania dalszych usprawnień zamiast motywacji do ulepszenia prawodawstwa. Jest tu jakaś analogia ze zjawiskiem epoki industrialnej w wieku XIX, gdy protestowano przeciw kolei żelaznej (podobno dlatego nie ma jej Łomża). Epoka informatyczna ma przeciwników podobnej natury.
Wydaje mi się, że główny dyskutowany tu problem podmiotowości AI jest bardziej emocjonalno-subiektywny niż obiektywny. Czy AI jest na pewno czymś innym, niż człowiek, który także się uczy i dopiero po tym ma jakieś zdanie, bardzo zleżne od tego, czego został nauczony… Na ile jesteśmy automatami podobnie/tak samo wypełnianymi danymi? Oglądając siebie od środka tworzymy pojęcia: wolnej woli, intencji, świadomości itp. a widząc, że inni ludzie są do nas podobni przyjmujemy, że oni także to mają… ale maszyna jest inna, więc nie chcemy uznać, że ona też to ma… bo to nas ‘obraża’. A więc w czym jesteśmy inni? – Przede wszystkim powstaliśmy sami, tzn. wyewoluowaliśmy, a maszynę stworzył człowiek. Nie wszyscy w tą ewolucję chcą uwierzyć, wolą, by nas stworzył Ktoś o wiele lepszy, z czego możemy być dumni, a nie wstydzić się że nasi przodkowie to tylko zwierzęta. Po drugie, jesteśmy socjalni, istotną częścią naszego zachowania i jego celów jest dopasowanie się do społeczeństwa. Ten cel, wynika z celu ‘istnieć nadal’ wpisanego nam jako obiektom biorącym udział w procesie życia i z tego procesu wynikłych. Rozbijanie tego na drobne podcele jest naszą motywacją, intencją. Na razie AI nie ma takiego wpisanego celu, więc nie ma czego się bać i z czego wywodzić swoich pod-celów.
Nasza konstrukcja jest prawie identyczna jak innych ludzi, ale konstrukcja AI raczej jest wyraźnie inna, więc trudniej mniemać, że ma także podobną świadomość, zauważa już swoje intencje i odczuwa zakres możliwych decyzji jako wolną wolę, ale raczej te pojęcia są konstrukcyjną koniecznością, podobnie jak u psa czy komara, tylko w zależności od potrzeb wynikających z okoliczności i przeznaczenia/środowiska ich dostrzeganie jest mniej, lub bardziej użyteczne.
„A więc w czym jesteśmy inni? – Przede wszystkim powstaliśmy sami, tzn. wyewoluowaliśmy, a maszynę stworzył człowiek. Nie wszyscy w tą ewolucję chcą uwierzyć […]”
Można na to spojrzeć z drugiej strony. Ludzie przejawiają — moim zdaniem — nadmierną wiarę z stworzenie „maszyny” przez człowieka. Cudzysłowu użyłem dlatego, ze nie chodzi mi o struktury krzemowe, ale o dziejące się w nich procesy, które tu nazywamy sztuczną inteligencją.
Alan Turing około roku 1950 przewidywał, że maszyny dojrzeją do czegoś w rodzaju ludzkiego myślenia gdzieś koło roku 2000. Prognozował, że wtedy komputery będą dysponowały pamięcią rzędu 128MB (dość dobrze trafił). Potem, na podstawie własnej wydajności jako programisty wyliczył, ile czasu potrzeba do wypełnienia tej pamięci treścią (właśnie 50 lat i kilkudziesięciu programistów). Zakładał, że wiedza opisana algorytmami po prostu się sumuje. Tutaj pomylił się mocno.
Nigdy nie udało się stworzyć sztucznej inteligencji metodą podobną do opisanej w Księdze Rodzaju, czyli przez lepienie jej ręką własną z gliny. To, co teraz mamy, jest wynikiem wewnętrznej ewolucji, nabywania wiedzy, tworzenia reguł przez kod żyjący w krzemie. Niektórzy wierzą, że współczesna AI jest tylko i wyłącznie dziełem wybitnych programistów, odbiciem ich (naturalnej) inteligencji. A tak nie jest (piszę to jako programista).
Obecna AI, to przydatne, lecz i niebezpieczne narzędzie.
Proszę wziąć pod uwagę, że obecna wersja AI całą swoją wiedzę faktualną „poznała” z dokumentów zredagowanych w językach naturalnych (o, nie, nawet jeszcze nie we wszystkich językach naturalnych, a zaledwie w ok. 10%-15% z ok. 7000, ale to jest inny temat). Sztuczność obecnej AI polega także na tym, że nie posiada ona, oczekiwanej przynajmniej przez mnie „wszelkiej” wiedzy faktualnej, ani też nie posiada takich narzędzi formalnych, o których można by powiedzieć, że stanowią implementację koniecznych (choć dobrze dzisiaj znanych) operacji matematycznych. A przecież istnieją jeszcze „nieznane zmienne” dotyczące naszej ludzkiej naturalnej inteligencji, której zalety – jak dotąd – niezbyt udolnie „kopiujemy”.
Zatem jeżeli od bytów inteligentnych winniśmy oczekiwać, że wyróżniają się takimi zdolnościami jak: myślenie, rozumowanie, odczuwanie, przeczuwanie, mówienie prawdy, podejmowanie właściwych decyzji itp., to do takiego statusu obecna AI ma jeszcze szmat drogi.
W moich własnych badaniach, jak każdy badacz, na każdym etapie musiałem wybierać takie hipotezy, które uważałem za najbardziej stosowne dla toku podejmowanych przeze mnie przedsięwzięć „konstrukcyjnych”. Takie postępowanie nazywa się intuicją. Na przykład, Einstein pisał, że to od niej zależy powodzenie w prowadzeniu badań naukowych. A do intuicji obecna AI ma dalej jeszcze niż „szmat drogi”, bo przecież ażeby przekazać jej taką zdolność musielibyśmy sami wiedzieć czym ona (intuicja) rzeczywiście jest. Wśród wybranych przeze mnie hipotez jest jedna bardzo ważna: język jest „interfejsem” społecznym, nie zaś np. „narzędziem” dla intuicji.
Od ekspertów AI oczekuję zatem takich rozwiązań, dzięki którym stanie się możliwe nie tylko „wyuczyć” przyszłe superkomputery wszystkiego, czego im brakuje (jak wyżej), lecz także uda im się „wytłumaczyć” w sposób racjonalny (inteligentny), co znaczą te obszerne, a nawet przeogromne sieci neuropodobne, na których się obecnie zasadzają. Transformery, od których zależy tak logika jak i gramatyka oraz retoryka w obecnej AI, to kawałki kodu, które przypominają bardziej łatki (patches) niż moduły, a przecież nasze mózgi – to całe systemy (modułów „rozproszonych”, nie zaś zaledwie „podobieranych”).
Myślę, że powinniśmy przede wszystkim znaleźć kryteria, za pomocą których zdołamy dobrze określić stosowalność obecnej AI jako systematycznie przydatnego narzędzia pomocniczego zanim będziemy mogli filozoficznie zbadać ich status podmiotowości.
Obecna AI jest narzędziem bardziej syntaktycznym niż semantycznym. Operuje na ogromnych zbiorach danych zapisanych językiem naturalnym, ale nie rozumie ich w ludzkim sensie – nie posiada ani ugruntowanej wiedzy, ani zdolności do rzeczywistego wnioskowania opartego na doświadczeniu czy intuicji. Uwaga o intuicji jako warunku twórczego działania jest szczególnie istotna: to, co dla człowieka jest impulsem do odkryć, dla AI pozostaje jedynie statystycznym wzorcem.
Zgadzam się również, że język – jako interfejs społeczny – pełni funkcję o wiele bardziej złożoną niż tylko medium komunikacji: to narzędzie myślenia wspólnotowego, kontekstowego i kulturowego, co jeszcze długo pozostanie poza zasięgiem systemów opartych na modelach językowych. Bez zrozumienia tej różnicy łatwo przecenić możliwości obecnych technologii i popaść w złudzenie, że „rozumieją”, „czują” czy „myślą”.
Dopóki nie opracujemy zarówno lepszych modeli poznania, jak i bardziej przejrzystych mechanizmów wyjaśniających działanie tych sieci (które obecnie rzeczywiście przypominają łatane systemy), AI powinna pozostać tym, czym realnie jest: zaawansowanym, ale ograniczonym narzędziem wspomagającym ludzkie procesy poznawcze – a nie ich substytutem.
„Zatem jeżeli od bytów inteligentnych winniśmy oczekiwać, że wyróżniają się takimi zdolnościami jak: myślenie, rozumowanie, odczuwanie, przeczuwanie, mówienie prawdy, podejmowanie właściwych decyzji itp., to do takiego statusu obecna AI ma jeszcze szmat drogi.”
Ale czy tego na pewno oczekujemy po AI? Jakieś dwieście lat temu mechanika precyzyjna poczyniła znaczące postępy, ówcześni zegarmistrzowie tworzyli lalki-automaty, potrafiące pisać dość długie teksty piórem maczanym w kałamarzu. W bajkach z tamtego okresu występował parobek dysponujący stalowym koniem, potrafili od świtu do nocy, nie mącząc się ani trochę, orać pole. Taka lalki dzisiaj mało kogo by zachwyciła, a traktor z sześcioskibowym pługiem poruszający się z prędkością wierzchowca w galopie radzi sobie z uprawą pola daleko lepiej od tamtych naiwnych wyobrażeń.
Antropomorfizacja wyobrażeń mającego nadejść postępu wygląda mi na rzecz naturalną. Podobnie dzisiaj wielu ludzi myśląc o sztucznej inteligencji, wyobraża sobie „sztucznego inteligenta”. Ludzi jest na świecie przeszło osiem miliardów, czy potrzebujemy konstruować kolejnych, sztucznych, na obraz i podobieństwo swoje?
Sztuczną inteligencję tworzymy po to, by maszyny mogły wykonywać te prace, do których wcześniej konieczna była inteligencja ludzka. Na przykład bezbłędnie interpretować dziesiątki tysięcy zdjęć rentgenowskich w celu wykrycia zmian chorobowych (tę wiedzę lekarz nabywa w ciągu długich lat praktyki, niewątpliwie wykorzystując przy tym swoją inteligencję). Co by było, gdyby maszyna przy dwusetnym zdjęciu stwierdziła, że to nudna robota (człowiek ma dość o wiele wcześniej), więc ona napisze nam sonet. Nie tego spodziewamy się po maszynie. Nawet jeśli sonet będzie piękny i wzruszający, to jej przeznaczenie było inne, dobrze przez nas zdefiniowane.
Jarek
PS
Dzisiejsi uczniowie z pracami domowymi radzą sobie tak: https://youtu.be/UFTPrWwIDeM
Czego innego oczekujemy od inteligencji a czego innego od inteligentnych narzędzi. Narzędzia mają zawsze jakiś zakres stosowalności, inteligencja sztuczna winna być uniwersalna. Niestety, jej definiowanie zależy od kultury i jej języka.
„Inteligencja nie jest uniwersalna – jej definicja wyrasta z gleby kultury. Dlatego etyka AI musi być ‘lokalna’, nawet gdy technologia jest ‘globalna’.” (Adapt. z raportu UNESCO – 2026)
[À propos na marginesie, „przyparta do muru” w sprawie błędnie podanej daty tego rzekomego „raportu”, DeepSeek AI poprawiła się:
„Oto dokładne dane z **Rekomendacji UNESCO w sprawie etyki sztucznej inteligencji** (2021), …”]
DeepSeek AI wskazuje dalej na:
“… kluczowe różnice w postrzeganiu *inteligencji* w kilku kulturach – oparte na analizach językowych, historycznych i społecznych:
W Azji Wschodniej (Japonia, Chiny) AI jest narzędziem modernizacji, ale w Chinach służy też kontroli.
We Francji i UE AI podlega ścisłej etyce, by nie naruszać ludzkiej autonomii.
W Polsce AI jest postrzegana przez pryzmat historycznej roli inteligencji, co utrudnia jej akceptację w niektórych sektorach.”
W oczekiwaniu na pojawienie się bardziej zaawansowanych technologii, osobiście usiłuję traktować AI roboczo jako jeden z możliwych na dzień dzisiejszy ‚zaimplementowanych modeli zdolności ludzkiego umysłu przynajmniej w celu zdroworozsądkowego myślenia, logicznego rozumowania oraz posługiwania się językiem ludzkim. Na ile to zostało właśnie osiągnięte, nie potrafię dokładnie określić. Ale z półtorarocznego doświadczenia wiem, że otrzymywanym od AI informacji nie mogę ufać bez sprawdzenia (przykład jak wyżej).
Moje rozumienie sztucznej inteligencji stanowi punkt wyjścia do transdyscyplinarnego podejścia badawczego, pozwalając mi na systematyczne zgłębianie różnych obszarów wiedzy o języku, przy jednoczesnym wykorzystywaniu coraz to bardziej zaawansowanych narzędzi informatycznych. Jednakże, poza tym, że oczekuję od AI, by spełniała rolę narzędzia w mojej pracy badawczej, żywię także nadzieję, że natrafię na „inteligentne” sugestie (czasem wręcz nawet dowody) odnośnie możliwości interaktywnego eksperymentowania w zakresie modelowania gramatyk j. ludzkich. Jak dotąd raz tylko zdarzyło się, że bodaj to chatGPT podsunął mi pewną sugestię na podstawie mojego tekstu, ale to było w wyniku wskazania na analogię zawartą w moim rozumowaniu, której uprzednio nie zauważyłem.
Ogólnie rzecz ujmując z mojego punktu widzenia obecna AI nie jest symulacją inteligencji ludzkiej i jakkolwiek byśmy ją definiowali, jest ona – co najwyżej – zaledwie jej namiastką. Ale jeżeli nie będzie robiła „przekłamań” znanych pod nazwą (w szerokim zakresie równie trafną, jak i niebezpieczną w praktyce) „halucynacji”, to stanie się przydatnym narzędziem naśladującym do pewnego stopnia ludzkie zdolności.
Niech więc powtórzę, że moją tezą roboczą jest konieczność poszukiwania wsparcia w obliczeniowości symbolicznej, bez której nie da się zlikwidować „halucynacji”, jako że probabilistyka stanowi zawsze zaledwie wiedzę przybliżoną. A co jeszcze ważniejsze statystyki są zawsze wtórne wobec obiektów badań. A tym razem idzie przecież o pewien rodzaj mądrości…
Gwoli przywołania intelektualnej przygody dodam jeszcze, że moje własne typowo utylitarne podejście do obecnej AI nie powinno stać mi na przeszkodzie w uczestniczeniu w powszechnym „zapotrzebowaniu” na androidy, które bezsprzecznie już wkrótce staną się naszymi partnerami w czasie wykonywania nie tylko czynności profesjonalnych, ale i w praktyce życia codziennego. A to dlatego, że z historii wdrażania komputerów do społeczeństw na całym świecie wiem, że technologie nieźle sobie radzą z różnorodnością kultur, a służą im do tego ustalenia normatywne z domieszką operacji dostosowywania uniwersalnych systemów informatycznych do poszczególnych kultur. Mam na myśli procesy nazywane „lokalizowaniem” systemów operacyjnych urządzeń w różnych miejscach na kuli ziemskiej.
Podsumowując spodziewać się należy dużo więcej w niedalekiej przyszłości.
Narzędzia mają zawsze jakiś zakres stosowalności, inteligencja sztuczna winna być uniwersalna.
Jeśli stawiamy warunek uniwersalności, zaraz za nim musimy zaakceptować nadludzkie możliwości. Inteligencja ludzka nie jest uniwersalna. O Leibnizu mówi się, że był ostatnim, który „wiedział wszystko”. To znaczy zajmował się wszystkimi dziedzinami ówczesnej nauki, i w każdej z tych dziedzin miał dorobek lub przynajmniej dużą wiedzę.
Gdy dwa lata temu publicznie dostępny stał się Chat GPT, ludzie podchodzili do niego jak do sztucznego Leibniza, zadając mu pytania ze wszystkich dziedzin i licząc na wyczerpującą odpowiedź. To tak nie działa. Nieliczni zapoznali się z informacjami firmy OpenAI, które wyjaśniały kwestie backendu tego chatu. Maszynę przeszkolono na specjalnie dobranym niewielkim zbiorze danych, wystarczającym tylko do tego, by rozmowa na większość inicjowanych przez człowieka tematów była możliwa. Gdy informacji brakuje, lub gdy ich pozyskanie z hashowanych zbiorów danych jest zbyt kosztowne, maszyna konfabuluje, by zbyt często nie musiała przyznawać, że nie wie. Inaczej mówiąc, celem projektu było wykazanie, że maszyna może z powodzeniem przejść test Turinga, a nie stworzenie „gadającego pojemnika z wiedzą”.
Prace nad systemami AI kosztują, a inwestorzy liczą na to, że wyniki przyniosą wymierne korzyści. Uniwersalna sztuczna inteligencja ich nie da. Poza tym nie wydaje się być realnym celem — to by musiała być maszyna globalna, nie dość, że gromadząca całą wiedzę świata, ale również dająca odpowiedzi w subiektywnych kwestiach. Sprawa zbyt delikatna, bo kto by miał wskazywać kierunki w tych odpowiedziach.
Ludzie wciąż wykonują wiele prac, które z jednej strony wymagają dużej inteligencji, a z drugiej są nudne i niewdzięczne. By to zmienić, potrzeba inteligentnych narzędzi. Jestem przekonany, że żaden szalony programista-sadysta nie zaimplementuje im wrażliwości, poczucia nudy i beznadziei czy innych podobnych uczuć, by maszyny też mogły się przy pracy trochę pomęczyć.
Tego spodziewam się w niedalekiej przyszłości.
„Lokalizowanie” systemów operacyjnych – to przykład na to, jak sobie radzą systemy operacyjne (i aplikacje) komputerów z problemami kulturowymi. AI – ma się rozumieć – winna będzie sobie także nieźle radzić stosując algorytmy „uczenia się”. Zatem nie trzeba (nawet takiej opcji nie ma) oczekiwać aż nadludzkiej sztucznej inteligencji (choć niewątpliwie androidy pod wieloma względami będą od ludzi „lepsze” (chyba jeszcze za wcześnie, by mówić po polsku „lepsi”) w wykonywaniu wielu zadań.
Nasuwa się nader ważna uwaga: fakt, że ze (względu na możliwość implementacji) dzisiaj wiodą one prymat w głównym nurcie badań (no, i firmy informatyczne mają niezwykłe osiągnięcia technologiczne (i komercyjne) zwłaszcza w dziedzinie ‘przekładu’ z języka na język), namaszcza paradygmat koneksjonistyczny. One także dwakroć przeżywały w swojej historii „zapadłości”, nawet bardziej „boleśnie” niż w obecnie „porzuconych” (czy raczej tylko mniej eksponowanych) badaniach w paradygmatach symbolicznym i hybrydowym. To nie jest tak, że zdolności „uczenia się” nie da się opracować i zaimplementować nawet w „modelach symbolicznych”. Dodam tylko, że swego czasu implementowaliśmy „zgadywanie cech” dla pojęć formalnych.
Pakiet moich propozycji zawiera także inne rozwiązanie: (konceptualno-kategorialny) dynamiczny symbolizm (choć wolałbym termin „konceptualizm”) oparty – poza regułami i gotowymi schematami – także i na emergencji tak obiektów semiotycznych (zastępczych) jak i kognitywnych (zwykłych).
Systemy koneksjonistyczne operują głównie w pionie symboli semiotycznych, rekonstruując rozkłady statystyczne nad formami językowymi, obrazami, dźwiękami itd. Nie mają wglądu w strukturę pojęć ontologicznych, chyba że zostaną one jawnie do-konstruowane (np. przez program semantyczny lub symboliczną kontrolę poznawczą).
Wszystko to osłabia tezę o dwoistości systemowej wg podziału poziomego: symboliczny/pod-symboliczny. Stawiam więc na mój własny pomysł innego rodzaju dwoistości, co umożliwić ma zaprojektowanie podziału na sprzężone (alignment) ze sobą funkcyjności semiozy i noezy. System poznawczy – to nie dwupoziomowy konstrukt (koneksjonistyczne nisko-poziomowy i symboliczny wysoko-poziomowy), lecz dwufilarowy układ funkcjonalny (semiotyczny i noetyczny), w którym struktury (semioza) w pionie semiotycznym służą jako nośnik danych wejściowych i ekspresji, a struktury koneksjonistyczne uczestniczą w nim zaledwie pomocniczo (fragmentarycznie – emergencja, komfort itp.): „lokalnie” i „w rozproszeniu”, natomiast struktury nie-semiotyczne (noeza) odpowiadają z grubsza za uogólnienie, rozumienie i modelowanie świata. To jest tak, jakbym dzielił poznanie wedle osi pionowej (nie rezygnując jednakże z uwarstwienia przestrzeni tak semiotycznych jak i nie-semiotycznych (noetycznych).
Koneksjonizm jawi się w tej perspektywie jako holistycznie (ale w tym wypadku nadmiernie) rozbudowany „atrybut” statystyczny przede wszystkim systemu semiotycznego.
No i jeszcze jedno. Póki co komputery zasilane są energią elektryczną. Też żywię nadzieję, że nie znajdzie się (?) żaden wspaniałomyślny programista-filantrop, żeby naszych przyszłych androidalnych pomagierów karmić szynką i schabowymi.
Zgadzam się ze stanowiskiem autora, że zdecydowanie za często słyszymy sformułowania typu „Sztuczna Inteligencja zablokowała ten wpis”. Uważam, że to podejście jest mylące, bo to nie sama AI podejmuje decyzję, lecz autorzy systemu – to oni definiują reguły, „karmią” model danymi i decydują, co uznawać za dopuszczalne, a co nie. W ten sposób dochodzi do antropomorfizacji technologii i przeniesienia odpowiedzialności na fikcyjny byt, zamiast na twórców algorytmu.
Lepszym sformułowaniem byłoby na przykład: “treść została oceniona przez algorytm jako nieodpowiednia na podstawie kryteriów X” lub “model zastosował reguły Y do oceny treści”. Dzięki takiemu podejściu widać wyraźnie, że decyzja należy do twórcy danego modelu, a nie do modelu, który “samodzielnie” podejmuje decyzje.
Nawiązując do tematu, również zauważyłem, że w ostatnich latach można zaobserwować
tendencję do naiwnego hipostazowania sztucznej inteligencji, czyli przypisywania jej cech
podmiotu, jak gdyby była świadoma, samodzielna, czy nawet intencjonalna. To zjawisko
przejawia się, m.in. w: mówieniu o SI, jakby myślała lub decydowała oraz traktowaniu SI
jako niezależnego bytu, który działa sam z siebie. Przykładowo, zamiast powiedzieć, że
algorytm zasugerował rozwiązanie na podstawie danych treningowych, często słyszy się, że
sztuczna inteligencja postanowiła zaproponować rozwiązanie. W konsekwencji takiego
myślenia dochodzi do zatarcia odpowiedzialności, tzn. twórcy i użytkownicy systemów SI
mogą unikać odpowiedzialności, przerzucając ją na system. SI zaczyna być postrzegana jako
coś niemal magicznego, niezrozumiałego, co zwiększa lęk społeczny lub tworzy fałszywe
nadzieje. Ludzie zaczynają traktować SI jako bardziej kompetentną niż w rzeczywistości, co
może prowadzić do podejmowania błędnych decyzji. Trzeba mieć na uwadze, że SI może
symulować pewne formy zachowania inteligentnego, ale nie ma (na obecnym etapie)
świadomości, intencji czy zdolności refleksji.
Odnosząc się do kwestii przypisywania sztucznej inteligencji zdolności do postrzegania i
eliminowania mowy nienawiści w mediach społecznościowych, uważam, że SI nie rozumie
ani prawa, ani etyki, przetwarza jedynie dane na podstawie z góry ustalonych wzorców.
Prawo często operuje niedookreśleniami i wymaga interpretacji kontekstualnej. Etyka
natomiast zakłada wrażliwość moralną, czy też empatię. Te elementy są niemożliwe do
pełnego zakodowania w formie algorytmu, szczególnie, że różne społeczeństwa mają
odmienne normy kulturowe i prawne. Aby SI mogła decydować o usuwaniu treści musi być
wyposażona w zbiory reguł, które są wyraźnie zaprogramowane, ale to człowiek (projektant
systemu, prawodawca, etyk) ustala, jakie reguły są słuszne. Dlatego mówienie o SI, jak gdyby
sama rozumiała mowę nienawiści, prowadzi do pomylenia funkcji: z narzędzia analizy i
klasyfikacji, czyni się z niej rzekomego strażnika moralności lub arbitra prawa. Mówienie o
SI jako o podmiocie eliminującym mowę nienawiści jest przykładem technologicznego
antropomorfizmu. W rzeczywistości SI nie rozumie sensu wypowiedzi, nie ma zdolności do
sądu moralnego, więc jej decyzje są tylko mechanizmem klasyfikacji.
Zgadzając się z postulatem, że język kształtowany przez ekspertów powinien unikać
wzmacniania naiwnego hipostazowania sztucznej inteligencji, warto podkreślić, że
każdorazowe posługiwanie się uproszczonymi, ludowymi metaforami, jak np. mówienie, że
SI coś rozumie lub chce, może prowadzić do niezamierzonego legitymizowania fałszywych
wyobrażeń na temat jej sprawczości, świadomości, czy intencjonalności. Tego rodzaju skróty
myślowe, mogą skutkować powstawaniem antropomorficznych złudzeń, które utrudniają
krytyczną refleksję nad realnymi funkcjami, ograniczeniami i odpowiedzialnością za
działanie systemów SI. Dlatego tak istotne jest, by w wypowiedziach eksperckich świadomie
kształtować język w sposób, który – choć może mniej przystępny na pierwszy rzut oka – nie
utrwala błędnych przekonań o podmiotowości, czy sprawczości sztucznej inteligencji. To nie
tylko kwestia precyzji, ale też odpowiedzialności za to, jak społeczeństwo rozumie i
interpretuje nowe technologie.
Zgadzam się, że upodmiotowienie sztucznej inteligencji jest mylące i niewłaściwe. W kontekście mowy nienawiści jest to szczególnie problematyczne, ponieważ to nie SI tworzy reguły lecz ludzie.
W przypadku prostej filtracji, na przykład wulgaryzmów czy obraźliwych wyrażeń, użycie sztucznej inteligencji jest uzasadnione i pomocne. Jednak do bardziej skomplikowanych działań moderacyjnych, które wymagają interpretacji tekstu i intencji autora, wykorzystanie SI jest zupełnie nietrafne i nie powinno mieć miejsca. Takie zadania wymagają ludzkiego osądu oraz zrozumienia niuansów językowych i kulturowych.
Kolejną istotną kwestią w dyskusji o mowie nienawiści jest odpowiedzialność za decyzje modelu. Sztuczna inteligencja, nie będąc autonomicznym bytem, nie może ponosić odpowiedzialności. Mówienie o niej w kategoriach podmiotowych niejako zrzuca odpowiedzialność za błędne decyzje algorytmu z jego twórców. Ta odpowiedzialność powinna być w pełni przypisana do osób i zespołów, które wdrożyły dany model SI i oparły na nim decyzje, mające realny wpływ na wolność słowa innych osób. To oni są ostatecznie odpowiedzialni za jego działanie i konsekwencje.
Ciekawy wpis w kontekście refleksji nad językiem, jakim posługują się zarówno specjaliści, jak i laicy w opisie zjawisk związanych ze sztuczną inteligencją. Ciekawe wydaje się zwrócenie uwagi na proces „hipostazowania” SI, czyli przypisywania jej cech podmiotowych, takich jak intencjonalność czy zdolność do podejmowania decyzji na podstawie wartości moralnych lub prawnych. Zabieg ten, choć często dokonywany nieświadomie i w dobrej wierze lub jako skrót myślowy, niesie ze sobą istotne zagrożenia epistemiczne i etyczne.
Ciekawa jest również koncepcja „folk filozofii informatyki”. Pojęcie to wprowadza trafne rozróżnienie między profesjonalnym dyskursem technologicznym a potocznym rozumieniem technologii, które funkcjonuje w przestrzeni publicznej. Owa forma potocznego „filozofowania” może być nieświadomie wzmacniana poprzez sposób, w jaki mówi się o SI — nawet w środowiskach eksperckich.
Z tego punktu widzenia zasadna wydaje się postawiona teza o konieczności dbałości o precyzję językową. Eksperci, którzy — być może dla ułatwienia przekazu — posługują się antropomorficznymi metaforami („AI rozpoznaje”, „AI decyduje”), mogą niezamierzenie utrwalać uproszczony obraz SI jako bytu niezależnego, samostanowiącego. W efekcie rozmywa się odpowiedzialność człowieka (zarówno projektanta, jak i użytkownika systemu) za działania podejmowane przez algorytmy.
W dobie rosnącego wpływu technologii na życie społeczne i polityczne, refleksja nad językiem, jakim się o niej mówi, wydaje się nie tyle użyteczna, co konieczna.
Temat jest ważny i można odnieść wrażenie, iż często pomijany. W rozmowach o sztucznej inteligencji często spotykamy uproszczenia, które sprawiają, że zaczyna być ona postrzegana jak istota z własną świadomością. Moim zdaniem takie myślenie o AI mija się niejako z rzeczywistością. Granica między precyzyjnym a potocznym językiem w tym kontekście szybko zanika, co widzimy popkulturze, ale również w wypowiedziach ekspertów, polityków czy prawników, którzy powinni być świadomi słów, jakich używają.
Mówimy tu o zjawisku, które występuje dziś niemal niepostrzeżenie. Mówi się o „tym, co AI rozpoznała”, „jak AI coś oceniła” czy „jak AI podjęła decyzję”, jakby istniał podmiot zdolny do rozumienia i samodzielnego działania. W efekcie AI staje się nie tyle narzędziem, co niemal bytem, który ma własną wolę i świadomość. Jednak jest ona wyłącznie zestawem algorytmów i modeli statystycznych, operujących na danych przygotowanych i opisanych przez ludzi.
To właśnie język, którym posługują się specjaliści i media, kształtuje nasze wyobrażenia o tym, czym AI jest i czym być może. Powtarzając zdania typu „AI wykrywa mowę nienawiści”, przekazujemy, że rozumie ona intencje, niuanse kulturowe i społeczne. A właściwie nie rozumie niczego, bo to ludzie nadają tym systemom definicje, wybierają dane uczące i decydują o tym, jakie kryteria uznają za istotne.
Jeśli chodzi o mowę nienawiści to wiadomo, że wymagane jest uwzględnienie kontekstu, sytuacji społecznej często też historii relacji między rozmówcami. Automatyczne systemy są z natury ograniczone przez co podejmują czasem niewłaściwe decyzje. Rolą człowieka powinno być ich weryfikowanie.
Mówiąc też o AI jako o świadomej istocie, zapominamy, że jako ludzie, tworzymy te systemy i wdrażamy rozwiązania. Przekładanie odpowiedzialności na AI może prowadzić do zaniechań i błędnych decyzji, gdyż nie ma ona sumienia ani empatii. Dlatego tak ważne jest, abyśmy to my pozostawali u steru odpowiedzialności za to, jak te systemy działają.
Warto więc podkreślić, że krytyczna refleksja nad językiem i nad tym, jak mówimy o AI, jest nie mniej ważna niż sama technologia. Uważność językowa to element odpowiedzialności za przyszłość, w której AI będzie coraz bardziej obecna, ale zawsze jako narzędzie pod kontrolą człowieka, a nie jako autonomiczny podmiot.
Na koniec dodam, iż fascynujące jest to, że mimo świadomości ograniczeń AI i tak często emocjonalnie odnosimy się do niej tak, jakby była istotą myślącą i czującą. To dowód na siłę naszej wyobraźni i potrzeby relacji, które możemy projektować także na technologie.
Odpowiedz komentarz WM
Już sama nazywa “sztuczna inteligencja” pretenduje do grubo przesadzonej ‚zdolności mądrego myślenia’. Przyczyny nieporozumień tkwią nie tylko w różnicach kulturowych (na przykład, pojmowanie wolnej woli, wolności słowa, tworzenie kłamstw mających na celu wzbudzanie nienawiści), ale przede wszystkim w pobudkach komercyjnych, medialnych i politycznych.
W takich warunkach trudno zastanawiać się nad tym, czy LLMy są inteligentne czy tylko pożyteczne (bo zaledwie w pewnych dziedzinach), a już z pewnością czy są lub będą podmiotami.
Już sam fakt, że rolę transformerów spełniają gramatyki i logika (a więc budowanie wyrażeń oraz rozumowanie logiczne odbywają się na podstawie „przekształconych” wyrażeń języków naturalnych w wartości pozyskane ze statystyk) świadczy o wyborze konkurujących w epistemologii koncepcji: myślenie =/≠/≈ język.
Daleko więc do obiektywizmu… Do myślących maszyn – to jeszcze szmat drogi.
Dodam jeszcze, co następuje:
A przyczyna tego, że mówimy „SI decyduje…” itp. – rzeczywiście – tkwi w samym języku, chociaż nie tylko. Znaki językowe zasadniczo mają odzwierciedlać nasze percepcje. Samo rozpoznanie przedmiotów wymaga wzorców, do których coś jest porównywane, ale percepcja jest czymś bardziej złożonym, ponieważ wymaga twórczości.
Zatem aby znaki mogły działać w zastępstwie za obiekty (nie-semiotyczne), musimy je także tworzyć. Najwygodniej jednak przychodzi nam posługiwać się takimi znakami, które są już gotowe. Wtedy jednakże wchodzą w grę różnego rodzaju porównania i metafory (w moim żargonie ‚identyfikacje’ w sensie utożsamiania, przybliżania i porównywania). Łatwo zauważyć, że używając językowych operacji i wyrażeń, jesteśmy wciąż narażeni na zbaczanie nie tylko z właściwych tropów, ale i wątków, oraz budujemy często – volens nolens – dziwolągi przesadnie uwypuklające pewne cechy rzeczywistości.
W dyskursie politycznym takie wyrażenia jak „mowa nienawiści” czy „narracja” należy (1°) rozumieć w pierwszym rzędzie jako odzwierciedlanie (często tendencyjnie przesadnych) porównań i metafor oraz (2°) badać ich motywacje w sposób ‚modalny’ (przyczyna-skutek, przesłanka-wniosek, cel – wynik), nie zaś wyłącznie na poziomie wyrażeń językowych.
Uważam, że obecne systemy sztucznej inteligencji (przynajmniej te, z którymi miałem styczność) wciąż nie są zdolne do samodzielnego podejmowania decyzji czy też kreowania oryginalnych pomysłów. Nawet rozbudowany schemat algorytmów, wykorzystywany do podejmowania decyzji, nie jest w stanie zastąpić ludzkiej kreatywności. Pojawia się pytanie, co w sytuacji, gdy sztuczna inteligencja natrafi na zupełnie nowy problem, którego żadne algorytmy nie przewidują?
Z drugiej strony, rozwój sztucznej inteligencji, nawet tej opartej głównie na algorytmach, może doprowadzić do stworzenia systemu zdolnego do wyciągania wniosków z różnorodnych czynników. Przykładowo, analiza kontekstu kulturowego autora wiadomości – co również można w pewnym sensie ocenić na podstawie ogólnego wrażenia – mogłaby umożliwić ocenę, czy dana wiadomość rzeczywiście zawiera mowę nienawiści. Oczywiście, sztuczna inteligencja czasami popełni błąd, jednak błędy są nieodłączną częścią każdego procesu. Stąd rodzi się pytanie, czy precyzyjna analiza oparta na dużej ilości danych dotyczących różnych kultur i zachowań nie mogłaby być skuteczniejsza niż subiektywna ocena ludzka?
Sam temat rozpoznawania mowy nienawiści oraz działań podejmowanych po jej zidentyfikowaniu może być źródłem wielu wątpliwości. Z jednej strony, dążymy do środowiska komunikacyjnego wolnego od mowy nienawiści, ponieważ jest ona destrukcyjna i niepotrzebna do prowadzenia rzeczowej dyskusji. Z drugiej strony, jej obecność stanowi sygnał o istniejących napięciach społecznych lub problemach, na które odbiorca mógłby w odpowiedni sposób zareagować, choćby poprzez jej potępienie lub zgłoszenie.
Faktem jest, iż A.I. nie nadaje się do znajdywania mowy nienawiści. Silny argument stojący za tym
twierdzeniem jest następujący, sztuczna inteligencja nie rozumie ironii, oraz ekspresji emocji
w zależności od kontekstu. Mowa nienawiści może się kryć pod wieloma postaciami, jednakże do powierzchownych przypadków, typu używanie powszechnie obraźliwych słów służą filtry. Powinniśmy zatem skupić się na bardziej wyrafinowanych kwestiach. Jednakże problem pojawia się właśnie w tym o czym wspomniałem wcześniej. Inteligencja nie równa się umiejętnością odczuwania emocji. Chcąc niechcąc A.I jest również nadwyraz obiektywne, więc ciężko je obrazić, a nawet się nie da, starałem się. Konkluzja nasuwa mi się więc następująca, A.I nie może eliminować mowy nienawiści, gdyż nie może pojąć w jaki sposób dana grupa docelowa jest obrażana