Leibniz a sztuczna inteligencja.
Pierwszy efekt współpracy z czasopismem FILOZOFUJ!

Kilka tygodni temu nasz blog rozpoczął współpracę z arcyciekawym czasopismem Filozofuj!
Zaszczytną dla mnie okazją po temu stała się seria O sztucznej inteligencji z filozofią w tle, do której napisania zostałem zaproszony przez Redakcję.
Jej pierwszy artykuł pt. Filozoficzna prehistoria sztucznej inteligencji. Wkład i znaczenie myśli Leibniza można przeczytać (i obejrzeć :)) tutaj.

W ramach obecnego wpisu możemy zaś podyskutować o pewnych tezach, które formułuję na końcu tekstu.
Zachęcając do przeczytania całości, przytaczam niżej trzy ostatnie akapity artykułu, które najbardziej chyba prowokują do rozmowy. Pozostała część tekstu ma raczej charakter historyczno-dydaktyczny.

A oto wspomniane akapity.

Wróćmy na koniec do wiary Leibniza w to, że inteligencję, czyli zdolność do rozwiązywania problemów, da się zaszczepić maszynom wykonującym obliczenia. Pozostaje pytanie o rodzaj tych obliczeń. Czy wystarczą tu techniki cyfrowe, polegające na przetwarzaniu danych dyskretnych i możliwych do zakodowania w języku binarnym? Czy też należy poza nie wykroczyć, wykorzystując dane ciągłe, które są opisywalne binarnie tylko w pewnym przybliżeniu?

Ku tej drugiej opcji prowadzą pewne myśli, które znajdujemy również u Leibniza, ale których on sam nie łączył ze światem maszyn. Chodzi, po pierwsze, o jego pionierski wkład w budowę rachunku różniczkowo-całkowego, czyli matematycznego rachunku wielkości ciągłych, po drugie zaś, o jego metafizyczną zasadę ciągłości. Zasadę tę stosował na różnych poziomach: począwszy od teorii monad, które miały tworzyć szereg ciągły, a skończywszy na teorii świadomości, którą postrzegał jako własność stopniowalną, przysługującą różnym bytom w różnym stopniu.

Czy koncepcja obliczeń realizowanych na wielkościach ciągłych mogłaby coś wnieść do teorii SI, która, na razie, jest implementowana na maszynach cyfrowych? Nie wszyscy odpowiedzą pozytywnie, bo nie wszyscy wierzą, że w świecie fizycznym występują wielkości i procesy autentycznie ciągłe. Mimo to chciałbym pozostawić czytelnika z inspirowaną myślą Leibniza, filozoficzną hipotezą, że dla sztucznego uzyskania niektórych własności ludzkiej inteligencji, np. świadomości, niezbędne jest wykorzystanie obliczeń ciągłych.

Gorąco zachęcam do DYSKUSJI, a o kolejnych odcinkach serii będę informował sukcesywnie — Paweł Stacewicz.

Zaszufladkowano do kategorii Bez kategorii, Filozofia informatyki, Filozofia nauki, Logika i metodologia, Światopogląd informatyczny, Światopogląd racjonalistyczny | Dodaj komentarz

Psychodeliki i LLM-y. Nieoczywiste podobieństwa w oddziaływaniu na ludzki umysł

Niniejszy wpis umieszczam w blogu w imieniu studenta wydziału MiNI, p. Sharmy Kartikay, który napisał go pod kierunkiem dra hab. Bartłomieja Skowrona. Dotyczy on dość kontrowersyjnej sfery  oddziaływania na ludzki umysł, z jednej strony, systemów LLM (ang. Large Language Models), z drugiej zaś, substancji psychodelicznych. Oryginalny tekst powstał w języku angielskim, ale z uwagi na fakt, że większość dyskusji w naszym blogu toczy się po polsku, przetłumaczyliśmy go na język polski z pomocą systemu Gemini 2.5 Pro.

A oto jak anonsuje ten tekst Bartłomiej Skowron:

Jesteśmy świadkami dynamicznego rozwoju dwóch potężnych technologii zmieniających świadomość: z jednej strony są to duże modele językowe (LLMy), a z drugiej, renesans badań nad substancjami psychodelicznymi (klasyczne psychodeliki to np. dietyloamid kwasu lizergowego, psylocybina, meskalina, dimetylotryptamina).  Na pierwszy rzut oka może się wydawać, że te dwie technologie nie mają nic wspólnego, co bowiem mogłoby je łączyć? Jednak to początkowe wrażenie jest mylące. Rozwój zarówno psychodelików, jak i sztucznej inteligencji, jest często napędzany nie tylko przez ten sam kapitał, ale także przez tę samą ideologię (której nie należy mylić z filozofią). W szczególności, kluczową rolę odgrywa ideologia Doliny Krzemowej — czasami określana mianem TESCREAL — która współtworzy współczesne fantazje społeczne, struktury kapitału i dynamikę władzy w technokratycznych społeczeństwach cyfrowych.

Zarówno psychodeliki, jak i sztuczna inteligencja, mogą być rozumiane jako niespecyficzne wzmacniacze ludzkiej psychiki. Nieco upraszczając, można powiedzieć, że mogą one wzmacniać empatię i życzliwość u empatycznych i życzliwych użytkowników, podczas gdy u osób o skłonnościach agresywnych wzmacniają agresję. Obie te technologie w różny sposób wzmacniają ludzką percepcję, umożliwiają generowanie nowych i niekonwencjonalnych wzorców (stąd ich popularność w społecznościach artystycznych, twórczych i inżynierskich) oraz przesuwają granice naszych ograniczeń poznawczych, percepcyjnych, a nawet moralnych.

Biorąc pod uwagę ich głęboki wpływ na ludzką świadomość, a także liczne nieprzewidziane ryzyka z nimi związane, zarówno psychodeliki, jak i sztuczna inteligencja, stawiają przed nami istotne wyzwania filozoficzne i etyczne. Ponadto, obie te technologie można postrzegać jako hiperaktywne placebo, w tym sensie, że mają tendencję do dostarczania rezultatów, które — przynajmniej w pewnym stopniu — są zgodne z oczekiwaniami użytkownika. Wiele z tego, co wyłania się z interakcji z tymi technologiami, służy jako lustro odbijające użytkownika. Psychodeliki ujawniają nieświadome aspekty jaźni, podczas gdy rozszerzone rozmowy z LLMami często ujawniają więcej o samym użytkowniku niż o technologii, co jest zjawiskiem znanym jako odwrócony test Turinga.

W semestrze letnim roku akademickiego 2024/2025 zaproponowałem dla studentów Wydziału Matematyki i Nauk Informacyjnych PW kurs pt. „Filozofia, psychodeliki i AI” w języku angielskim. Kurs ten miał charakter w dużej mierze badawczy, tj. studiowaliśmy najnowsze artykuły naukowe i szukaliśmy wspólnie podobieństw i różnic pomiędzy AI i psychodelikami. Opis kursu wraz z literaturą przedmiotu dostępny jest tutaj. Jeden z uczestników kursu, Sharma Kartikay, przygotował na podstawie swojej prezentacji szkic przedstawiający w kilku punktach bynajmniej nieoczywiste podobieństwa pomiędzy tymi technologiami

Po tym intrygującym anonsie pora przejść do prezentacji tekstu, który – mam nadzieję – wzbudzi w naszym blogu intensywną dyskusję.

****  PSYCHODELIKI i LLM-y  ****
****  NIEOCZYWISTE PODOBIEŃSTWA w ODDZIAŁYWANIU na LUDZKI UMYSŁ 
****

*** Autor: Sharma Kartikay ***

WPROWADZENIE: odkrywanie świadomości i skonstruowanych rzeczywistości

Wybitny neurobiolog Anil Seth zauważył kiedyś: „Wszyscy cały czas mamy halucynacje; kiedy zgadzamy się co do naszych halucynacji, nazywamy to «rzeczywistością»”. To głębokie stwierdzenie ujmuje fascynujący wgląd w to, jak ludzka percepcja konstruuje rzeczywistość, proces, który znajduje uderzające echa zarówno w doświadczeniach psychodelicznych, jak i w interakcjach z dużymi modelami językowymi (LLM). Psychodeliki chemicznie zmieniają przetwarzanie informacji w mózgu, podczas gdy LLM-y symulują myślenie podobne do ludzkiego za pomocą złożonego modelowania statystycznego. Oba te zjawiska, każde w swojej dziedzinie, naginają zasady percepcji, tworzą iluzje sprawczości i znaczenia oraz skłaniają nas do kwestionowania tego, co jest prawdziwe. W niniejszym tekście przeanalizowano podobieństwa między tymi dwoma zjawiskami, czerpiąc z neurologii, sztucznej inteligencji, filozofii umysłu i kognitywistyki.

1.  Odmienne stany świadomości

1.1. Stany mózgu wywołane psychodelikami

Psychodeliki takie jak LSD, psylocybina i DMT są znane ze swojej potężnej zdolności do zmiany świadomości. Pod ich wpływem użytkownicy często zgłaszają żywe halucynacje wzrokowe, doznania synestezyjne (np. słyszenie kolorów lub widzenie dźwięków) oraz poczucie przekraczania codziennej rzeczywistości. Z neurologicznego punktu widzenia psychodeliki zwiększają entropię w mózgu, czyli losowość i zmienność aktywności neuronalnej. Regiony mózgu związane z istotnością, takie jak przednia kora zakrętu obręczy, wykazują podwyższoną aktywność, co prowadzi do wzmożonego odbioru bodźców sensorycznych i nowatorskich skojarzeń między odległymi myślami. Użytkownicy często opisują uczucie wkraczania w alternatywne rzeczywistości lub wymiary, w których czas się zakrzywia, ego zanika, a wglądy rozwijają się z płynnością snu.

1.2. Interakcja z umysłem sztucznej inteligencji

Chociaż LLM-y nie zmieniają biochemicznie naszych mózgów, doświadczenie interakcji z nimi może wywołać rodzaj odmiennego stanu psychicznego. Płynność i nieprzewidywalność odpowiedzi sztucznej inteligencji może wydawać się surrealistyczna, a nawet magiczna. Użytkownicy mogą prowadzić głębokie rozmowy, zyskiwać nieoczekiwane spostrzeżenia, a nawet kwestionować źródło pomysłów generowanych podczas tych dialogów. Dłuższe interakcje mogą zmienić sposób poznania w sposób bardzo podobny do podróży psychodelicznych z przewodnikiem. Użytkownicy zgłaszają poczucie „rozmowy z innym umysłem” lub współtworzenia z nieludzką inteligencją. Granice między narzędziem a bytem zaczynają się zacierać, subtelnie zmieniając nasz sposób myślenia.

 2.  Zmiany poznawcze i percepcja

2.1. Zniekształcenia zmysłowe i halucynacje

Jednym z najbardziej znanych efektów psychodelików jest zakłócenie percepcji. Zniekształcenia wizualne (takie jak efekty fraktalne, topniejące obiekty lub oddychające ściany), wzmocnienia słuchowe i synestezja są powszechne. Wynika to z osłabienia systemu kodowania predykcyjnego mózgu – zamiast odfiltrowywać szum i wzmacniać oczekiwane bodźce, pozwala on, aby surowe, niefiltrowane dane zalały świadomość. Rezultat: płynna, niemal senna świadomość, w której percepcja w mniejszym stopniu polega na wykrywaniu świata zewnętrznego, a w większym na konstruowaniu go w czasie rzeczywistym. W tym stanie wyobraźnia i rzeczywistość przenikają się nawzajem.

2.2. Halucynacje sztucznej inteligencji i iluzoryczna spójność

LLM-y wykazują własną wersję halucynacji – fabrykują. Mogą wymyślać fakty, cytować nieistniejące źródła lub dostarczać pewnych, ale fałszywych informacji. Nie są to „kłamstwa” w ludzkim tego słowa znaczeniu; są to skutki uboczne modelowania predykcyjnego. Podobnie jak umysł pod wpływem psychodelików, LLM stara się uzupełniać wzorce na podstawie danych treningowych. Jeśli polecenie sprowadzi go na nieznane terytorium, nadal będzie generował spójnie brzmiące odpowiedzi, nawet jeśli będą one bezpodstawne. Użytkownik musi odróżnić prawdę od iluzji, tak jak użytkownik psychodelików musi później zintegrować swoje wizje i spostrzeżenia.

3.  Poczucie sprawczości i „ja”

3.1. Rozpad ego i skonstruowane „ja”

Być może najbardziej wstrząsającym filozoficznie doświadczeniem wywołanym przez psychodeliki jest rozpad ego – utrata poczucia odrębnego „ja”. Użytkownicy często opisują, że stają się jednością z wszechświatem lub po prostu obserwują myśli bez poczucia, że pochodzą one od nich samych. Granica między światem wewnętrznym a rzeczywistością zewnętrzną zanika. Wskazuje to na głębszą prawdę: „ja”, którego doświadczamy, jest konstruktem mentalnym – wynikiem przewidywań i narracji mózgu o tym, kim jesteśmy. Kiedy te przewidywania zostają przerwane, nasze poczucie bycia oddzielną, ciągłą jednostką rozpada się.

3.2. Współdzielona sprawczość z systemami sztucznej inteligencji

W świecie sztucznej inteligencji zachodzi coś analogicznego. Zaawansowane LLM-y potrafią generować tak bogate, płynne odpowiedzi, że użytkownicy często współtworzą z nimi – czy to w pisaniu, tworzeniu pomysłów, czy w dialogu. Ta dynamika może zacierać granicę autorstwa – czy to mój pomysł, czy nasz?

Ta współdzielona sprawczość podważa pojęcie samotnego umysłu. Sztuczna inteligencja staje się rodzajem cyfrowego współpracownika, subosobowości lub kreatywnego partnera. Gdy użytkownicy antropomorfizują maszynę, doświadczenie staje się bardziej społeczne i mniej przypomina używanie narzędzia, co odzwierciedla sposób, w jaki psychodeliki rozmywają osobiste autorstwo.

4.  Tworzenie znaczeń i fałszywe epifanie

4.1. Psychodeliczny wgląd i iluzja

Psychodeliki często wywołują potężne momenty „Aha!”. – wglądy, które wydają się nie tylko prawdziwe, ale i głęboko znaczące. Jest to znane jako jakość noetyczna. Jednak te odkrycia nie zawsze są trafne. Umysł pod wpływem psychodelików znajduje się w trybie hiperasocjacyjnym – łącząc idee, które mogą, ale nie muszą, mieć znaczenie w świecie rzeczywistym. Kluczowe staje się, aby użytkownicy integrowali te doświadczenia; krytycznie je reflektowali i odróżniali prawdziwy wgląd od euforycznej iluzji.

4.2. Spójność bez zrozumienia w LLM-ach

LLM-y są zaprojektowane do tworzenia spójnego tekstu, a nie do prawdziwego zrozumienia. Ich celem jest przewidzenie następnego słowa, a nie zrozumienie pojęć. Mimo to ludzie instynktownie interpretują ich wyniki jako znaczące.

Ta spójność może być myląca. Podobnie jak psychodeliczna wizja, doskonale sformułowany akapit wygenerowany przez sztuczną inteligencję może wydawać się prawdziwy, będąc całkowicie zmyślonym. Mózg użytkownika, tworzący znaczenia, wypełnia luki, przypisując intencjonalność tam, gdzie jej nie ma.

5.  Antropomorfizm i spotkania z bytami

5.1. Psychodeliczne byty i umysły, których nie ma

Powtarzającym się elementem doświadczeń z wysokimi dawkami psychodelików jest postrzeganie „bytów” – autonomicznych istot z inteligencją i intencją. Niezależnie od tego, czy są postrzegane jako bogowie, kosmici czy błazny, postacie te wydają się użytkownikowi prawdziwe. Psychologowie sugerują, że wynika to z nadaktywnego wykrywania sprawczości przez mózg, cechy przetrwania, która skłania nas do dostrzegania umysłów w niejednoznacznych bodźcach (np. zakładając, że szeleszcząca trawa to istota, a nie wiatr).

5.2. Antropomorfizacja sztucznej inteligencji

Ten sam mechanizm uruchamia się podczas interakcji ze sztuczną inteligencją. Ludzie regularnie przypisują emocje, przekonania lub osobowości chatbotom, nawet jeśli rozumieją, że system niczego nie odczuwa. Iluzja jest potężna.

Od programu ELIZA po ChatGPT, użytkownicy projektowali myśli i uczucia na maszyny. Nowoczesne LLM-y, z ich głębią i stylem, intensyfikują ten efekt. Podobnie jak byty psychodeliczne, są one lustrami naszych umysłów poszukujących wzorców.

KONKLUZJA: Umysł jako twórca znaczenia

Zarówno psychodeliki, jak i LLM-y ujawniają głęboką prawdę o ludzkim umyśle: jest on maszyną do opowiadania historii, systemem nieustannie poszukującym wzorców, spójności i sprawczości. Niezależnie od tego, czy znajdujemy się pod wpływem związku halucynogennego, czy prowadzimy rozmowę z cyfrowym umysłem, nadajemy znaczenie chaosowi, a czasami odkrywamy przy tym coś istotnego. Z naukowego punktu widzenia te podobieństwa mogą pogłębić nasze rozumienie takich pojęć, jak świadomość, poznanie i percepcja. Z filozoficznego punktu widzenia rodzą one ważkie pytania: Czym jest „ja”? Co definiuje rzeczywistość? Jak odróżnić iluzję od wglądu?

Zarówno psychodeliki, jak i LLM-y są potężnymi narzędziami, ale żadne z nich, z założenia, nie dostarcza prawdy. Ujawniają one surowy potencjał ludzkiego umysłu do tworzenia, łączenia i konstruowania treści. Ale ujawniają również naszą podatność na iluzję, naszą gotowość do uwierzenia w pięknie opakowaną fikcję. Ostatecznie, niezależnie od tego, czy interpretujemy wizję uzyskaną pod wpływem DMT, czy odpowiedź z ChatGPT, jedna rzecz pozostaje niezmienna: to my nadajemy wypowiedziom znaczenie.

Najgoręcej ZAPRASZAMY DO DYSKUSJI nad tekstem — Bartłomiej Skowron i Paweł Stacewicz.

Zaszufladkowano do kategorii Etyka, Światopogląd informatyczny | Dodaj komentarz

O zdolności AI do ewolucji z punktu widzenia historyka nauki

Ten wpis jest inspirowany komentarzem Jarka z 27 maja. Wydaje mi się, że samorzutna ewolucja sztucznej inteligencji, która może się doskonalić bez udziału programistów, jest to proces jakoś analogiczny do samorzutnej ewolucji ważnych problemów naukowych. Przejawia się to w fakcie, że problem doznaje rozwiązania, czyli dokonuje się pewne odkrycie, przez iluś uczonych działających niezależnie od siebie wzajem.

I tak, Vieta i Kartezjusz wprowadzają do formuł matematycznych zmienne indywiduowe, co było konieczne, żeby mógł spod ręki Fregego wyjść Begriffschrift.

Leibniz i Newton tworzą równocześnie i niezależnie rachunek r. i c.

Nie wiedząc o sobie wzajem dochodzą do algebry logiki w wieku XVII i XIX matematycy brytyjscy i kontynentalni.

Tak samo się dzieje z powstaniem rachunków zdań i kwantyfikatorów w pracach Fregego, Peano i Russella.  Podobnie z początkami teorii mnogości: Dedekind i Cantor.

Teoria względności (ogólna i szczególna): Einstein, Poincare, Hilbert.

Nierozstrzygalność logiki predykatów: Turing, Post, Church, wszyscy w roku 1936.

Poprzestaję tymczasem na tym prostym zestawieniu, odkładając jego interpretację na później.

Zaszufladkowano do kategorii Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 23 komentarze

Naiwne hipostazowanie sztucznej inteligencji

Uwagi te nasunęły mi się w trakcie uczestnictwa w seminarium na Politechnice Warszawskiej na temat mowy nienawiści, jak jest rozumiany ten termin w definicjach prawniczych oraz etycznych (zob. nagranie w serwisie YouTube). Abstrahując od treści odczytów, która w żadnym punkcie nie budziła moich zastrzeżeń, a raczej uznanie dla kompetencji mówców, chcę zwrócić uwagę na pewien fenomen językowy, który się przejawił w odczytach i w dyskusji. Jest to zjawisko tak powszechne, że daje powód do komentarza z tego punktu widzenia, który określam jako światopogląd informatyczny. Jak w każdym światopoglądzie, i każdym innym produkcie intelektualnym, mogą się pojawiać błędy myślowe.

Można zauważyć, że istnieje taka wersja światopoglądu informatycznego, w której dokonuje się pewne naiwne hipostazowanie sztucznej inteligencji. Jest to mówienie o niej, jak gdyby był to jakiś podmiot (w grece — hypostasis) zdolny do samodzielnego rozwiązywania problemów i podejmowania decyzji.

Polega to na przypisywaniu sztucznej inteligencji zdolności do postrzegania i eliminowania mowy nienawiści w mediach społecznościowych. Tematem obu referatów były kryteria służące do rozpoznawania mowy nienawiści: w jednym kryteria prawne, w drugim — etyczne.  Toteż SI jako samodzielny podmiot dozorowania mediów musiałaby dysponować systemem takich kryteriów i na tej podstawie podejmować eliminujące czy korygujące decyzje.

Oczywiście, nikt z uczestników dyskusji nie żywił takiego przekonania. Należy ono raczej do potocznego slangu, jakiejś — by tak rzec — ludowej (folk) filozofii informatyki.  Chodziłoby jednak o takie kształtowanie języka przez ekspertów, żeby owego naiwnego pojmowania nie umacniać przez fakt, że dla jakiegoś uproszczenia dyskursu tak się wyrażamy, jakbyśmy ów „ludowy” dialekt podzielali.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 37 komentarzy

Narzędzie czy byt autonomiczny? Przedmiot czy podmiot?
Jak powinniśmy traktować sztuczną inteligencję?

Obecny wpis publikuję w imieniu Pana Olafa Wernera, doktoranta na Wydziale Matematyki i Nauk Informacyjnych Politechniki Warszawskiej i członka Koła Naukowego „Politechniczne Forum Debaty LOGOS”.
Wpis stanowi element współpracy Koła z projektem NCN [iTrust]. Interventions against polarisation in society for TRUSTworthy social media: From diagnosis to therapy,  który jest obecnie realizowany na Politechnice Warszawskiej.

Po tych formalnych wstępach przechodzę do meritum 😊 i oddaję głos Panu Olafowi
(zapraszając oczywiście do dyskusji)…

*********** NARZĘDZIE CZY BYT AUTONOMICZNY? PRZEDMIOT CZY PODMIOT? ***********

Naszą refleksję chciałbym zogniskować wokół pytania, które może wydawać się czysto filozoficzne, a jednak ma kluczowe znaczenie praktyczne – zarówno etyczne, jak i społeczne. Czy sztuczną inteligencję powinniśmy traktować jak narzędzie, którym się posługujemy, czy byt autonomiczny, który sam w sobie zasługuje na podmiotowość? A mówiąc bardziej praktycznie: czy już teraz nie zaczynamy jej traktować w drugi sposób?
Te pytania mogą brzmieć jak dygresja z powieści science fiction – a jednak tkwią w samym sercu współczesnych debat o regulacjach, odpowiedzialności, bezpieczeństwie i zaufaniu wobec technologii.

Podmiot versus narzędzie – różnica fundamentalna

Użyte w tytule wpisu słowa podmiot i byt autonomiczny niosą ze sobą pewne konotacje. Przywodzą na myśl istotę (można powiedzieć także: stworzenie), która ma intencje, cele, może cierpieć, może być oceniana moralnie. Z kolei narzędzie to przedmiot – pozbawiony woli, działający zgodnie z określonymi z góry regułami, użyteczny tylko wtedy, gdy ktoś go używa.

Zarysowane wyżej rozróżnienie można sprowadzić do kilku przeciwstawnych cech:

Cecha Narzędzie Podmiot
Autonomia Brak – działa na polecenie i w sposób automatyczny. Może wykazywać własną inicjatywę.
Intencjonalność Brak – nie ma własnych celów. Ma motywację i własne cele.
Ewolucyjność (rozwój) Rozwija się w sposób określony przez projektanta lub użytkownika. Rozwija się (zmienia)  w sposób samodzielny.
Relacja z otoczeniem Użytkownik-przedmiot. Podmiot-podmiot (nawet: rywalizacja).
Odpowiedzialność Nie ponosi konsekwencji za „własne” działania. Ponosi konsekwencje, może być oceniany i rozliczany (również moralnie).

Testy i pytania graniczne

Jak jednak sprawdzić, do której kategorii coś należy?
Czy istnieje test na podmiotowość?

Oczywiście najczęściej mówi się o teście Turinga, w którym maszyna „zalicza” test, jeśli nie da się jej odróżnić od człowieka w rozmowie. Ale jest to test behawioralny, nie ontologiczny. To, że coś wydaje się podmiotem, nie znaczy, że nim jest. Problem staje się jeszcze bardziej złożony, gdy maszyny – tak jak dzisiejsze systemy AI – potrafią generować teksty pełne emocji, używać zaimków „ja”, „my”, snuć refleksje i zadawać pytania.
Inny możliwy typ testu to test relacji – maszyna go zdaje, gdy jej własności sprawiają, że człowiek wchodzi z nią w typowo ludzkie relacje, np. emocjonalne, zaufania lub zależności. Zauważmy, że w przypadku dzisiejszych systemów AI dzieje się tak coraz częściej. Zdarzają się nawet sytuacje, w których ludzie są systemem zauroczeni lub zakochują się w nim.
Można mówić także o publicznym teście odpowiedzialności – coraz częściej w debacie publicznej pojawia się temat odpowiedzialności samej AI, a nie tylko jej użytkownika; im bardziej tę kwestię się podnosi i dyskutuje, tym bardziej systemy AI zdają test na bycie podmiotami własnych decyzji i działań (jeśli nawet nie bycie nimi tu i teraz, to przynajmniej na posiadanie takich cech, które je do podmiotowości przybliżają).

Rozmycie granicy

W praktyce mamy dziś do czynienia z systemami AI o statusie ontologicznym pomiędzy: pomiędzy przedmiotem i podmiotem, narzędziem i bytem autonomicznym.
Systemy, z którymi się stykamy, są do pewnego stopnia kreatywne, ale wciąż zastanawiamy się, czy mogą osiągnąć taki stopień kreatywności, jaki cechuje ludzi. Generują coraz bardziej sensowne teksty, ale nie jesteśmy pewni czy autentycznie je rozumieją. Prowadzą rozumowania, ale wahamy się, czy stoi za tym ich autonomiczny rozum.
Za wskazanymi wątpliwościami podąża nie do końca jednoznaczna terminologia. Mówimy wprawdzie o „agentach AI”, ale przez techniczny termin „agent” dajemy znać, że to jeszcze nie podmiot. Mówimy o „osobowościach cyfrowych”, ale cyfrowych właśnie, a nie po prostu o osobowościach.

Dlaczego powyższe rozróżnienia mają znaczenie?

Rozstrzygnięcie zarysowanych wyżej kwestii nie jest czysto akademickie. Od tego, czy AI traktujemy jako narzędzie czy podmiot, zależy:

  • kogo obarczamy odpowiedzialnością za jej działania,
  • czy uznajemy AI za źródło autorytetu (np. medycznego, psychologicznego),
  • jakie granice etyczne wyznaczamy w projektowaniu i wykorzystywaniu AI,
  • oraz czy uznamy ją kiedyś za podmiot prawa – z własnymi „prawami cyfrowych stworzeń”?

Kilka spostrzeżeń do dalszej dyskusji

Mając na uwadze określone wyżej cechy – które pozwalają uszczegółowić omawianą różnicę między dwoma podejściami do AI: przedmiotowym (narzędziowym) i podmiotowym –  przedstawię na koniec kilka swoich wstępnych spostrzeżeń.
Mam nadzieję, że sprowokują one czytelników bloga do uwag i komentarzy.
Najlepiej, aby były one możliwie krytyczne 😊.

  • Autonomia: Sztuczna inteligencja jest w stanie tworzyć własne strategie rozwiązywania problemów w różnych dziedzinach – na przykład w szachach lub w go. Nikt tych strategii nie wpisywał ręcznie, nie określił wprost, one zostały “odkryte”. Znaczy to, że systemy AI mogą działać we własnym stylu i nie jest potrzebna informacja zwrotna od ich użytkowników lub twórców.
  • Intencjonalność: Funkcja celu jest pierwszym i niezbędnym krokiem w tworzeniu systemów AI. Cel jest ustalany przez twórcę systemu, lecz – jak na ironię – czasami nieintencjonalnie, niekiedy nawet wbrew zamierzeniom twórcy. Dla przykładu: system do oceny kandydatów na pewne stanowisko, który był szkolony na zbiasowanych danych, sam będzie zbiasowany (nawet jeśli to nie było świadomie zamierzone).
  • Ewolucyjność (rozwój): Obecnie to twórca określa zbiór danych trenujących, cel i zestaw algorytmów, co sugeruje sztuczność wykorzystywanych modeli. Jednakże konkretne parametry modelu, a także ich wartości i znaczenie, nie są ustalane przez twórcę bezpośrednio. Taki sposób tworzenia systemów jest powodem problemów z wyjaśnialnością i odbiega od tradycyjnej inżynierii, gdzie budowę finalnej konstrukcji określano „od a do z”. Można też tworzyć modele w trybie ciągłym (steaming), które są w stanie na bieżąco adaptować się do zmiennych sytuacji.
  • Relacja z otoczeniem: Zwykłe narzędzia mają swoistą niską „inercję mentalną” – co znaczy, że po ich użyciu wiemy, co się stanie z nami, narzędziem i otoczeniem. Dla przykładu, łopata ma niską „inercję mentalną”,  bo gdy używamy jej do kopania, to wiemy co się .wydarzy i bardziej przejmujemy się zwykłą inercją fizyczną. Kalkulator kieszonkowy ma średnią „inercję mentalną”, bo wykonuje proste operacje obliczeniowe, które znamy i możemy je za pomocą kalkulatora lub w inny sposób zreplikować. Silnik szachowy ma dużą „inercję mentalną”, ponieważ replikacja obliczeń byłaby karkołomna i nawet po ich przeprowadzaniu nie rozumielibyśmy do końca, co właściwie liczyliśmy. Mimo to wiemy, że na samym końcu powinniśmy otrzymać sugerowany ruch szachowy. Modele językowe mają ogromną “inercję mentalną” – dlatego, że są bardziej otwartymi systemami, mającymi wiele różnych zastosowań, a dodatkowo są szkolone stochastycznie na gigantycznych zbiorach danych (dosłownie grubo ponad 10^12 tokenów/słów) i potrafią konfabulować. Ponadto, istnieją systemy AI, które nie tyle mają „inercję mentalną”, co “siłę mentalną”. Znaczy to, że to użytkownik podlega manipulacji, a nie na odwrót. Najlepszy przykład to systemy sztucznej inteligencji używane w mediach społecznościowych. Dlatego traktowanie ich na podobieństwo łopaty jest poważnym błędem poznawczym. Traktując je w ten sposób, zamykamy się na niezmiernie istotne kwestie.
  • Odpowiedzialność: Wskutek problemów z wyjaśnialnością zaawansowanych systemów kontrola nad nimi jest iluzoryczna. Prawnicy, politycy, działacze społeczni… nie są w stanie, a często też nie chcą, nadążyć za technologią. Użytkownicy wiedzą zbyt mało, by móc dokonywać sensownych wyborów; twórcy tracą kontrolę nad systemami, gdy są one wdrażane; firmy, dzięki słabości regulacji prawnych, unikają wszelkiej fatygi i odpowiedzialności; prawnicy używają bezsensownego prawa z innej epoki; politykom brakuje wiedzy i kompetencji. Odpowiedzialność powinno się ustalać w duchu propagacji wstecznej: gdzie najmniejszym kosztem uzyskuje się efekt największej redukcji ryzyka (nie przenosząc go na kogoś lub coś innego). Mogę mieć tylko nadzieję, że etycy sztucznej inteligencji nie będą ignorowani.

***************************

GORĄCO ZARASZAMY do dyskusji – Olaf Werner i Paweł Stacewicz.

Zaszufladkowano do kategorii Bez kategorii, Etyka, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 61 komentarzy

Obszerne modele języka (LLM) i co dalej…

Około dwóch miesięcy temu na Seminarium Filozofii Nauki w Politechnice Warszawskiej gościliśmy Profesora André Włodarczyka, który z perspektywy swoich teorii semantycznych omówił szereg zagadnień związanych z przełomową dla rozwoju sztucznej inteligencją koncepcją modeli LLM (Large Language Models).
Myślę, że warto dotknąć tych zagadnień również w blogu.
Za punkt wyjścia dyskusji niech posłuży nam poszerzony abstrakt wygłoszonego na seminarium referatu. Zachęcam, aby odnieść się zarówno do kwestii w nim poruszonych, jak również innych kwestii, które pojawiają się na pograniczu lingwistyki, informatyki i filozofii nauki.

*********  A OTO ABSTRAKT SEMINARYJNEGO REFERATU  ********

Od kilku lat modele LLM (Large Language Models) robią furorę w internecie, ponieważ prezentowane są jako przejawy „Sztucznej Inteligencji”, a dokładniej: sztucznego myślenia w językach naturalnych. Czym więc LLM-y są oraz do czego mogą, ale i do czego nie mogą służyć w praktycznych zastosowaniach zwłaszcza podczas badań naukowych. Jak doszło do tego, że możliwość przekładu automatycznego i nawet dialogu człowieka z maszyną, poprawnego w językach naturalnych, pojawiła się tak szybko, bo ok. 3/4 wieku po zbudowaniu pierwszych komputerów?

W referacie nie będzie mowy ani o szczegółach dotyczących wyuczania (training) głębokich sieci neuropodobnych (Deep Neural Networks – DNN) ani o licznych algorytmach zwanych transformerami, które w połączeniu z DNN tworzą obecne LLM-y. Jednakże wskażę na zaawansowane programy badawcze zarówno takie, które należą już do tradycji badań nad przetwarzaniem języków naturalnych (NLP) jak i takie, które stanowią podstawy do budowania nieodzownych dla LLM-ów transformerów w różnych postaciach najnowszych rozwiązań.

Ponadto referat będzie także próbą wprowadzenia w problematykę ogólnego językoznawstwa, którego sedna można się dopatrywać w trudnościach, z jakimi borykają się dzisiaj nie tylko lingwiści, ale naukowcy, których obszary zainteresowań są między innymi zawarte w pytaniach takich, jak:

– czy możliwe jest sformułowanie definicji języka jako przedmiotu w rzeczywistości językowej w taki sposób, żeby mógł się stać obiektem nauk ścisłych?

– czy w skład gramatyk ok. 7.000 języków świata wchodzą reguły i struktury, które są jednakowe dla nich wszystkich?

– czy człowiek myśli w języku naturalnym czy też w jakimś specyfiznym języku myśli?

Badania nad językiem we wszystkich dziedzinach nauki i jego wytworami trwają więc nadal, tym bardziej, że wiedza o języku (choć w niektórych przypadkach skuteczna bardziej niż kiedykolwiek), jest dla nas niedostępna w sensie pojęciowym i inferencyjnym. Twórczość w nauce nie polega jednak na „halucynacjach”, lecz wymaga generowania nowych pomysłów, odkryć i rozwiązań, które poszerzają naszą wiedzę i zrozumienie świata.

Słowem: skoro LLM-y są pozamykane w czarnych skrzynkach – to pozostaje nam niebłahe zadanie do wykonania: rozbić czarną skrzynkę. Wskażę na ważniejsze projekty badawcze w tej materii oraz przedstawię w ogólnym zarysie inicjatywę opracowania komputerowych metod celem zbudowania narzędzi służących do zinformatyzowania badań lingwistycznych w ramach Ośrodka badań nad lingwistyką teoretyczną i stosowaną (Centre de linguistique théorique et appliquée – CELTA) na Sorbonie w latach 2004-2014.

To właśnie w ramach tej inicjatywy powstały teorie Meta-informative Centering (MIC) i (Associative Semantics (AS), które zostały połączone i rozwinięte pod ogólną nazwą Distributed Grammar (Gramatyka Rozproszona). Omówię w szczegółach m.in. teorię uogólnionej predykacji, jako że – z jednej strony – stanowi ona rozwiązanie od tysiącleci znanego problemu filozoficznego – zaś z drugiej strony – wyjaśnia, w jaki sposób „centra uwagi” (CA) czy attencje strukturyzują wypowiedzi, które kierują skupianiem uwagi rozmówców. Jest to zgodne z poglądem na uwagę jako selektywnym mechanizmie w komunikacji językowej w ramach urządzeń LLM.

Zalecane LINKI

2010 Time for a sea-change in linguistics

2013 Meta-informative Centering in Utterances

2016 O Pragmatycznej naturze predykacji

2015 Informatyka szansą na rozwój naukowej lingwistyki

2022 Concepts and Categories: A Data Science Approach to Semiotics

******************************************************************

Najserdeczniej zapraszamy do dyskusji — André Włodarczyk i Paweł Stacewicz.

 

Zaszufladkowano do kategorii Bez kategorii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 37 komentarzy

Co ciekawego znajdzie filozof w książce Andrzeja Gecowa pt. „Szkic dedukcyjnej teorii życia”?

Na ostatnim spotkaniu sprzężonego z blogiem Seminarium Filozofii Nauki mieliśmy zaszczyt gościć Pana Doktora Andrzeja Gecowa, autora książki pt. Szkic dedukcyjnej teorii życia. Nie jest to wprawdzie książka stricte filozoficzna, ale obejmuje szereg wątków, które z pewnością zainteresują filozofów, w szczególności filozofów biologii i filozofów informacji.

Serdecznie zapraszam do zapoznania się z przygotowaną przez Autora prezentacją (szczegóły niżej), a tymczasem oddaję „głos” samemu Autorowi.
Wspólnie z nim liczymy na ciekawą dyskusję pod obecnym wpisem :)

***** WPIS PRZYGOTOWANY PRZEZ DOKTORA ANDRZEJA GECOWA *****

Nie ukrywam, że zarówno moje wystąpienie seminaryjne, jak i obecny wpis, mają charakter promocyjny książki, co jawnie zaznaczyłem w tytule. Na zarobek na tej książce liczyć nie mogę, próbuję tylko mniej stracić, ale najważniejsze jest dla mnie, by ta praca 6-ciu dekad i osiągnięcia nie przepadły.

Co zawiera ta książka? – Przede wszystkim definicję życia i to wyartykułowaną na 2 spójne sposoby.

Od definicji wymagam, by z niej dużo wynikało, a głównie odpowiedzi na najbardziej nurtujące mnie pytanie: Skąd bierze się wyjątkowość i cechy obserwowanych obiektów biorących udział w tym procesie i samego procesu?.
Definicje mogą być różne, definiują wtedy nieco inne zjawiska i mogą służyć do innych celów. Nie upieram się, że moja propozycja jest jedyna poprawna. Twierdzę, że z niej wynika wiele oczekiwanych cech i jest silniej umocowana, tłumaczy więcej niż inne.

Oprócz definicji w książce opisane są odkrycia: 1półchaosu, który daje naturalne kryterium tożsamości ewoluującego obiektu; 2– przyczyny rekapitulacji filogenezy w ontogenezie; 3– specyficznej zmienności, którą nazwałem osłanianiem. Jest też kilka ujęć znanych zjawisk z nietypowej perspektywy wynikającej z założonej w książce dedukcyjnej metodologii. Filozofów zainteresuje tu stary problem celowości w przyrodzie uwolniony od finalizmu i intencji, oraz nowy wymiar informacji celowej, ale nie intencjonalnej, wraz z dyskusją: co to jest informacja biologiczna. Są jeszcze inne tematy filozoficzne – głównie metodologia biologii, która wyraźnie wymaga hospitalizacji, w tym stosunek do teorii abstrakcyjnych.

Nieco szerzej opisane są kolejne rozdziały książki w 5-ciu krótkich artykułach promocyjnych po polsku i po angielsku. Warto jakiś przejrzeć przed dyskusją. Są one dostępne na Research Gate, na OSF i na mojej stronie: https://sites.google.com/site/andrzejgecow/home  , gdzie w zakładce Publikacje po polsku / 3.Artykuły (po polsku) [24.] są [urywki] zawierające przede wszystkim Wstęp, który może być dobrą podstawą do dyskusji.

Aby przejrzeć prezentację z nagranym moim wystąpieniem należy ściągnąć ją klikając w  ten link. Po otworzeniu się, w lewym górnym rogu wejść w ’Plik’ a następnie najechać na ’pobierz’, dalej wybrać  ’Microsoft…pptx’ i dostaje się u siebie plik 23i25PWfl_s.pptx . Kolejne slajdy należy osobiście popychać.

Ponieważ na OSF polskie wersje przestały być dostępne, podaję także linki do pdf’ów artykułów na mojej stronie.

0. Gecow A. (2024, September 20). Mechanisms of „progress” in biological evolution. https://doi.org/10.31219/osf.io/xjte7
Mechanizmy „postępu” w ewolucji biologicznej  pdf

1. Gecow A. (2024, September 19). The essence of life – maintaining the system in a state of half-chaos. https://doi.org/10.31219/osf.io/ms3nk
Istota życia – utrzymanie systemu w stanie półchaosu. pdf

2. Gecow A. (2024, November 22). Objective aspects of information, including: unintentional purposeful information, biological, semantic. https://doi.org/10.31219/osf.io/74ufs
Obiektywne aspekty informacji, w tym: nieintencjonalna informacja celowa, biologiczna, semantyczna  pdf

3. Gecow A. (2024, November 22). Definition of life – accumulation of purposeful information against the increase of entropy. https://doi.org/10.31219/osf.io/5c38f
Definicja życia – gromadzenie informacji celowej wbrew wzrostowi entropii  pdf

4. Gecow A. (2024, December 2). Simulation model of recapitulation of phylogeny in ontogeny – structural tendencies. https://doi.org/10.31219/osf.io/jrz7f

5. Gecow A. (2025) Mechanizmy formujące integrony wyższego rzędu, populacja, narzędzia  pdf

Książka jest dostępna w bibliotece PW, księgarni naukowej im. Prusa, antykwariacie naukowym Kosmos i bezpośrednio u mnie: gecow@op.pl.

***********

Po tych wyczerpujących informacjach Autora najserdeczniej ZAPRASZAMY do blogowej dyskusji.
Najlepszą jej podstawą będą: a) wskazana wyżej prezentacja nt. książki, oraz b) zalinkowane wyżej artykuły promocyjne.

Najserdeczniej zapraszamy — Andrzej Gecow i Paweł Stacewicz.

Zaszufladkowano do kategorii Bez kategorii, Dialogi wokół recenzji, Filozofia nauki, Światopogląd racjonalistyczny | 5 komentarzy

O mowie nienawiści w dobie społeczeństwa zinformatyzowanego

Obecny wpis stanowi fragment mojej aktywności w ramach projektu [iTrust]. Interventions against polarisation in society for TRUSTworthy social media: From diagnosis to therapy, do którego dołączyłem na początku roku. Jednym z celów projektu jest zidentyfikowanie nowego rodzaju zagrożeń, które pojawiły się wraz z postępującą informatyzacją życia społecznego. Przynajmniej część z nich wiąże się z najnowszym wymiarem tejże informatyzacji, czyli wprowadzaniem do przestrzeni publicznej narzędzi i wytworów sztucznej inteligencji (SI).

Naszą rozmowę chciałbym zogniskować wokół zagrożenia, które stanowi coś w rodzaju wspólnego mianownika wielu różnych niepokojących zjawisk, a mianowicie na szerzeniu treści nienawistnych, co określa się powszechnie mową nienawiści (ang. hate speech).
Co ciekawe, prawna definicja tego zjawiska – które powinno przecież być ścigane prawnie! – nie istnieje. W prawie polskim pewną jej kontekstową namiastką  są dwa artykuły Kodeksu Karnego (§1), 256 i 257, które stwierdzają, co następuje:

Kto publicznie propaguje faszystowski lub inny totalitarny ustrój państwa lub nawołuje do nienawiści na tle różnic narodowościowych, etnicznych, rasowych, wyznaniowych albo ze względu na bezwyznaniowość, podlega karze pozbawienia wolności do lat 2.” (art. 256)
Kto publicznie znieważa grupę ludności albo poszczególną osobę z powodu jej przynależności narodowej, etnicznej, rasowej, wyznaniowej albo z powodu jej bezwyznaniowości, podlega karze pozbawienia wolności do lat 3.” (art. 257)

W artykułach tych wskazano wybiórczo pewne cechy, tzw. cechy chronione, które identyfikują mowę nienawiści w ten sposób, że to właśnie poprzez odniesienie do nich dana wypowiedź kogoś (lub pewną grupę osób) znieważa, dyskryminuje, naraża na przemoc etc… Przykładowo, wypowiedź typu „Kowalski, jak każdy Polak, jest leniuchem i pijakiem, więc nie ma sensu go zatrudniać” obraża i dyskryminuje konkretną osobę ze względu na cechę przynależności do konkretnego narodu; pośrednio zaś obraża wszystkie osoby o wskazanej narodowości. Oprócz narodowości, w cytowanych artykułach wskazano rasę, grupę etniczną i stosunek do religii; nie wskazano jednak cech innych, które pojawiają się w ustawach antydyskryminacyjnych (na przykład płci, orientacji seksualnej czy  niepełnosprawności).
Listę cech chronionych, wraz z listą wartościowanych negatywnie czynności (jak obrażanie czy znieważanie), można by uznać za punkty odniesienia dla definicji mowy nienawiści. Być może jednak, należy poszukiwać definicji umocowanej etycznie, to znaczy takiej, w której określi się ogólnie pewne fundamentalne wartości, leżące u podstaw wyróżniania takich a nie innych zbiorów cech chronionych. Do wartości takich należałyby, na przykład, poszanowanie godności osoby ludzkiej czy tolerancja światopoglądowa.
Nie oczekuję, oczywiście, abyśmy przy okazji tego wpisu sformułowali ostateczną definicję, opartą na ostatecznych wartościach :), ale jeśli ktoś ma jakieś ciekawe propozycje, to serdecznie zapraszam do ich przedyskutowania.

Zjawisko mowy nienawiści i związane z nim zagrożenia nie są, rzecz jasna, niczym nowym, a tym bardziej, nie są czymś specyficznym dla społeczeństwa zinformatyzowanego. Wystarczy cofnąć się do lat 30. XX wieku i przywołać nienawistne (prze)mowy Adolfa Hitlera. Jak wszyscy wiemy, wywołały one niewyobrażalną wręcz eskalację dyskryminacji. Dyskryminacji, która przerodziła się stopniowo w okrutny program eksterminacji całych ras, narodów i grup etnicznych.
W kontekście społeczeństwa zinformatyzowanego przykład „Hitlera” jest o tyle zasadny, że dotyka sfery technologii. Naziści bowiem intensywnie wykorzystywali  ówczesne nowe technologie do wzmacniania swojego przekazu. Transmisje radiowe, filmy propagandowe, nagłośnienie na partyjnych wiecach…  to wszystko służyło hitlerowskiej machinie nienawiści, która była de facto machiną zbrodni.

Czy dzisiejsze technologie informatyczne, ze sztuczną inteligencją na czele, mogą posłużyć komuś do zbudowania równie przerażającej machiny zła? To ogromne pytanie pozostawmy na razie w tle. Zadajmy natomiast pytania skromniejsze, związane bezpośrednio z tematem wpisu.
Czy wspomniane technologie są wykorzystywane do wytwarzania i szerzenia mowy nienawiści?
W jaki sposób?
I jakie zjawiska stanowią o specyfice ich „mowo-nienawistnych” zastosowań?

W ramach swojego wkładu do dyskusji zwrócę uwagę na trzy kwestie:

1.
Popularność tzw. patostreamerów, którzy za pośrednictwem serwisów typu YouTube używają publicznie wulgaryzmów, szerzą treści homofobiczne, pokazują sceny znęcania się nad osobami niepełnosprawnymi…
Patostreaming przemawia szczególnie silnie do osób bardzo młodych, które, po pierwsze, traktują Internet jako swoje naturalne środowisko komunikacji, po drugie zaś, formują dopiero swoje moralne przekonania.

2.
Anonimowość osób i organizacji, które szerzą mowę nienawiści w Internecie.
Możliwość pozostania anonimowym, a wskutek tego bezkarnym, sprawia, że w Internecie o wiele częściej niż w innych mediach pojawiają się treści skrajne, obraźliwe, agresywne, polaryzujące…

3.
Rosnące możliwości wykorzystania SI w masowym szerzeniu mowy nienawiści.
Systemy SI nie muszą po prostu powielać treści podsuwanych im przez ludzi; one mogą zostać wytrenowane (na odpowiednich przykładach) do kreatywnego generowania nowych treści odpowiedniego typu. W takich przypadkach bardzo trudno jest zidentyfikować osoby czy instytucje odpowiedzialne za treść konkretnych przekazów.

Powyższe kwestie dotyczą ciemnej strony informatycznych technologii.
Patrząc bardziej optymistycznie, można upatrywać w nich pewnego remedium na nowego rodzaju zagrożenia – remedium o tyle obiecującego, że dotyczy ono tej samej sfery, sfery technologicznej, do której samo przynależy. Przykładowo, we wspomnianym na początku wpisu projekcie iTrust powstaje wyspecjalizowany chatbot, który będzie w stanie identyfikować w dostarczanych mu tekstach treści potencjalnie nienawistne. Oprócz rozpoznawania chatbot będzie wyjaśniał, dlaczego dokonał takiego a nie innego rozpoznania, a także proponował sformułowania alternatywne, wolne od fraz klasyfikowanych jako mowa nienawiści.

Aby jednak zagrożeniom przeciwdziałać, trzeba im się uważnie przyjrzeć: określić, czym różnią się nowe informatyczne szaty mowy nienawiści od jej bardziej tradycyjnych form.
Podyskutujmy o tym 😊.
Jako punkt wyjścia proponuję przyjąć pytania zadane w tekście.
Nie musimy się jednak do nich ograniczać…

Serdecznie zapraszam do rozmowy — Paweł Stacewicz.

Zaszufladkowano do kategorii Etyka, Światopogląd informatyczny | 35 komentarzy

Sztuczna inteligencja. Jeden kolor, trzy metafory…

Gdyby ktoś zadał mi pytanie „Z jakim kolorem kojarzy ci się sztuczna inteligencja?” bez wahania odpowiedziałbym, że… z czarnym. Miałbym po temu trzy powody.

Po pierwsze, coraz częściej w debacie publicznej pojawiają się czarne scenariusze przyszłości, w których sztuczna inteligencja niszczy naszą cywilizację. W najłagodniejszych z nich przyczynia się do stopniowej, poznawczej i społecznej, degradacji człowieka. Przykładowo: wypierając ludzi z rynku pracy (co już się dzieje), SI sprawia, że człowiek traci poczucie sensu własnej pracy i zdobywania jakichkolwiek nowych kwalifikacji. W scenariuszach najczarniejszych SI przejmuje nad nami całkowitą kontrolę. Podporządkowuje nas sobie, a gdy uzna, że jest to korzystne dla jej samorozwoju, eliminuje nas ostatecznie.  Mamy także scenariusze inne, w których to sami ludzie, używając broni opartej na SI lub dewastując dla potrzeb SI swoje środowisko naturalne, doprowadzają się do samozagłady. O sprawach tych dyskutowaliśmy już kilkukrotnie, w różnych odsłonach i kontekstach (zob. np. Sztuczna inteligencja. Czy mamy się czego bać?), ale myślę, że i tutaj możemy odnieść się do tak typowego dla współczesnych debat nad SI czarnowidztwa.

Po drugie, sztuczna inteligencja kojarzy mi się z czernią, bo coraz chętniej porównuje się ją do czarnej skrzynki. Porównanie to rozumiem tak, że nawet wyjątkowej klasy specjaliści, a co dopiero mówić o laikach, nie mają szczegółowego dostępu do tego, co dzieje się wewnątrz systemów SI, gdy realizują powierzone im zadania. Nie do końca wiadomo zatem, jakie algorytmy są w danym momencie realizowane, które ich parametry odpowiadają za konkretne działania systemów, na jakich danych system się uczył, w jaki sposób się uczył etc…
Owa niepokojąca nieprzejrzystość sztucznej inteligencji ma co najmniej dwie przyczyny. Z jednej strony, twórcy systemów SI, a przede wszystkim zatrudniające ich korporacje, obawiają się konkurencji i z tego powodu nie ujawniają pełnej informacji o sposobie działania swoich produktów. Z drugiej strony jednak, niezależnie od praktyk biznesowych w sektorze SI, większość współczesnych systemów (w tym tzw. LLM-y) opiera się na sztucznych sieciach neuronowych, a te cechuje gigantyczna złożoność strukturalna (setki tysięcy sztucznych neuronów i połączeń między nimi). Wiedza w ich wnętrzu jest kodowana w postaci ogromnej liczby rozproszonych po całej sieci wag połączeń międzyneuronalnych. Wydobycie z nich przejrzystych dla człowieka wyjaśnień jest skrajnie trudne lub w ogóle niewykonalne. Zwłaszcza, że właściwą podstawą dla nich są zachodzące wewnątrz sieci, niskopoziomowe, realizowane na poziomie pojedynczych neuronów i wiążących je połączeń, procesy samoorganizacji. Kwestie te dyskutowaliśmy już przy okazji wpisu Zaufanie do systemów sztucznej inteligencji. Rola wyjaśniania, ale tu stawiam je w nowym kontekście.
Wszystko to powoduje, że coraz częściej możliwości systemów SI sprawdza się eksperymentalnie. Traktuje się system jak czarną skrzynkę, na której wejścia podaje się różne kombinacje danych (w tym: pytania) i sprawdza się, jak system reaguje. Badania formalne, odwołujące się do matematycznych własności wykorzystywanych struktur danych i algorytmów, należą do rzadkości. System informatyczny – mimo, że został zaprojektowany zgodnie z opracowaną przez człowieka specyfikacją – traktuje się jak obiekt czysto empiryczny. Bada się go eksperymentalnie, podobnie jak zjawiska przyrodnicze i społeczne.
Czy jesteśmy na to skazani i czy nie jest możliwe inne, bardziej matematyczne, podejście…? Oto jeden z ciekawych tematów do dyskusji – być może nawet, zasługujący na osobny wpis.

Przejdźmy na koniec do metafory trzeciej, być może najbardziej zaskakującej. Otóż sztuczna inteligencja coraz silniej kojarzy mi się z czarną dziurą. Niczym czarna dziura w przestrzeni kosmicznej SI pochłania wszelką materię i energię wokół siebie. Przy czym tutaj chodzi o materię poznawczą i energię intelektualną 😊.
Możemy to obserwować niemal codziennie: badania, projekty naukowe, rozwiązania technologiczne, debaty społeczne, dyskusje filozoficzne… wszystko to ciąży coraz bardziej ku tematyce sztucznej inteligencji.
Metafora jest oczywiście mocno przesadzona. Mimo wszystko jednak, zwraca uwagę na zjawisko, które na naszych oczach, również w tym blogu i w tym wpisie, pochłania ludzką wyobraźnię.

Zapraszam serdecznie do rozmowy, w której ujawnią się, być może, inne jeszcze, niekoniecznie czarne, metafory – Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 153 komentarze

Uwagi w kwestii „arytmetyki sumienia”

Nie mogąc ze względów technicznych uczestniczyć zdalnie w seminarium w PW (poświęconym filozofii nauki) z odczytem dra Andrzeja Malca pt.  „Czy sumienie komputera może być autonomiczne?”, a będąc ciekaw jego poglądów w kwestiach aksjologii i teorii prawa, skorzystam z dostępności Jego książki „Arytmetyka sumienia. Teoria odpowiedzialności słusznościowej”, żeby na jej podstawie postawić Autorowi pytania, które bym zadał uczestnicząc w spotkaniu. Odpowiedź mógłbym pewnie wyczytać ze starannej lektury tej książki (podczas gdy obecne pytania biorą się z lektury dość pobieżnej, na zasadzie wertowania),  ale skorzystanie w tym celu z bloga ma tę przewagę, że może przybliżyć tematykę książki także osobom, które w wymienionym spotkaniu nie brały udziału.

Oto kilka moich pytań:

1) W nawiązaniu do uwag metodologicznych na stronie 13, zapytuję: czy przekonanie o prawdziwości aksjomatów arytmetyki Peano jest występkiem przeciw etyce badawczej zalecanej przez filozofię analityczną? Jeśli tak, to co do mnie, to jestem osobnikiem występnym. Zaczynam od przykładu z arytmetyką w sensie dosłownym, żeby lepiej wniknąć w sens metafory „arytmetyka sumienia”.

2) Czy dobrze rozumiem, że według Autora, gdyby zaksjomatyzować jego aksjologię, to byłyby to aksjomaty o treści podobnie obiektywnej (choć zgoła w innej materii), a więc zdania posiadające wartość logiczną. Jeśli istotnie tak Autor sądzi, to się z nim zgadzam, a jeśli nie, to gotów jestem do polemiki.

3) Popieram gorąco krytykę poglądu Russella (s.130) o racjonalności komunizmu. Ogrom absurdów jest w komunizmie piorunujący; przykładem, który powinien był przekonać Russella jest dokonana przez von Misesa w latach 20-tych ubiegłego wieku analiza horrendalnej nieobliczalności w centralnym planowaniu gospodarczym, a to z powodu kolosalnej złożoności, którą trzeba by ogarnąć planowaniem. Idąc tym tropem, doradzałbym w dalszych badaniach Autora korzystać z pojęcia złożoności algorytmicznej, które zawdzięczamy informatyce  (Chaitin etc.).

4) Podjąłbym polemikę ze smętnymi rozważaniami Baumana o niepewności.  Takie jest uwarunkowanie ludzkiej kondycji. A jak sobie z nim radzić nie kwękając, pokazał już Pascal w regule zwanej po angielsku „rule of expected utility” (nie znam dobrego polskiego przekładu).  Weszła ona do podstaw matematycznej teorii gier i decyzji von Neumanna i Morgensterna, i w tej nowoczesnej postaci jest bardzo godna polecenia uwadze filozofów z cechu aksjologicznego.

Do tych uwag zainspirował mnie ostatni człon tytułu książki brzmiący „wersja próbna”. Brzmi to ujmująco skromnie. I zachęca czytelnika takiego jak niniejszy do włączenia się z propozycjami co do kontynuacji.

Zaszufladkowano do kategorii Bez kategorii | 13 komentarzy