Psychodeliki i LLM-y. Nieoczywiste podobieństwa w oddziaływaniu na ludzki umysł

Niniejszy wpis umieszczam w blogu w imieniu studenta wydziału MiNI, p. Sharmy Kartikay, który napisał go pod kierunkiem dra hab. Bartłomieja Skowrona. Dotyczy on dość kontrowersyjnej sfery  oddziaływania na ludzki umysł, z jednej strony, systemów LLM (ang. Large Language Models), z drugiej zaś, substancji psychodelicznych. Oryginalny tekst powstał w języku angielskim, ale z uwagi na fakt, że większość dyskusji w naszym blogu toczy się po polsku, przetłumaczyliśmy go na język polski z pomocą systemu Gemini 2.5 Pro.

A oto jak anonsuje ten tekst Bartłomiej Skowron:

Jesteśmy świadkami dynamicznego rozwoju dwóch potężnych technologii zmieniających świadomość: z jednej strony są to duże modele językowe (LLMy), a z drugiej, renesans badań nad substancjami psychodelicznymi (klasyczne psychodeliki to np. dietyloamid kwasu lizergowego, psylocybina, meskalina, dimetylotryptamina).  Na pierwszy rzut oka może się wydawać, że te dwie technologie nie mają nic wspólnego, co bowiem mogłoby je łączyć? Jednak to początkowe wrażenie jest mylące. Rozwój zarówno psychodelików, jak i sztucznej inteligencji, jest często napędzany nie tylko przez ten sam kapitał, ale także przez tę samą ideologię (której nie należy mylić z filozofią). W szczególności, kluczową rolę odgrywa ideologia Doliny Krzemowej — czasami określana mianem TESCREAL — która współtworzy współczesne fantazje społeczne, struktury kapitału i dynamikę władzy w technokratycznych społeczeństwach cyfrowych.

Zarówno psychodeliki, jak i sztuczna inteligencja, mogą być rozumiane jako niespecyficzne wzmacniacze ludzkiej psychiki. Nieco upraszczając, można powiedzieć, że mogą one wzmacniać empatię i życzliwość u empatycznych i życzliwych użytkowników, podczas gdy u osób o skłonnościach agresywnych wzmacniają agresję. Obie te technologie w różny sposób wzmacniają ludzką percepcję, umożliwiają generowanie nowych i niekonwencjonalnych wzorców (stąd ich popularność w społecznościach artystycznych, twórczych i inżynierskich) oraz przesuwają granice naszych ograniczeń poznawczych, percepcyjnych, a nawet moralnych.

Biorąc pod uwagę ich głęboki wpływ na ludzką świadomość, a także liczne nieprzewidziane ryzyka z nimi związane, zarówno psychodeliki, jak i sztuczna inteligencja, stawiają przed nami istotne wyzwania filozoficzne i etyczne. Ponadto, obie te technologie można postrzegać jako hiperaktywne placebo, w tym sensie, że mają tendencję do dostarczania rezultatów, które — przynajmniej w pewnym stopniu — są zgodne z oczekiwaniami użytkownika. Wiele z tego, co wyłania się z interakcji z tymi technologiami, służy jako lustro odbijające użytkownika. Psychodeliki ujawniają nieświadome aspekty jaźni, podczas gdy rozszerzone rozmowy z LLMami często ujawniają więcej o samym użytkowniku niż o technologii, co jest zjawiskiem znanym jako odwrócony test Turinga.

W semestrze letnim roku akademickiego 2024/2025 zaproponowałem dla studentów Wydziału Matematyki i Nauk Informacyjnych PW kurs pt. „Filozofia, psychodeliki i AI” w języku angielskim. Kurs ten miał charakter w dużej mierze badawczy, tj. studiowaliśmy najnowsze artykuły naukowe i szukaliśmy wspólnie podobieństw i różnic pomiędzy AI i psychodelikami. Opis kursu wraz z literaturą przedmiotu dostępny jest tutaj. Jeden z uczestników kursu, Sharma Kartikay, przygotował na podstawie swojej prezentacji szkic przedstawiający w kilku punktach bynajmniej nieoczywiste podobieństwa pomiędzy tymi technologiami

Po tym intrygującym anonsie pora przejść do prezentacji tekstu, który – mam nadzieję – wzbudzi w naszym blogu intensywną dyskusję.

****  PSYCHODELIKI i LLM-y  ****
****  NIEOCZYWISTE PODOBIEŃSTWA w ODDZIAŁYWANIU na LUDZKI UMYSŁ 
****

*** Autor: Sharma Kartikay ***

WPROWADZENIE: odkrywanie świadomości i skonstruowanych rzeczywistości

Wybitny neurobiolog Anil Seth zauważył kiedyś: „Wszyscy cały czas mamy halucynacje; kiedy zgadzamy się co do naszych halucynacji, nazywamy to «rzeczywistością»”. To głębokie stwierdzenie ujmuje fascynujący wgląd w to, jak ludzka percepcja konstruuje rzeczywistość, proces, który znajduje uderzające echa zarówno w doświadczeniach psychodelicznych, jak i w interakcjach z dużymi modelami językowymi (LLM). Psychodeliki chemicznie zmieniają przetwarzanie informacji w mózgu, podczas gdy LLM-y symulują myślenie podobne do ludzkiego za pomocą złożonego modelowania statystycznego. Oba te zjawiska, każde w swojej dziedzinie, naginają zasady percepcji, tworzą iluzje sprawczości i znaczenia oraz skłaniają nas do kwestionowania tego, co jest prawdziwe. W niniejszym tekście przeanalizowano podobieństwa między tymi dwoma zjawiskami, czerpiąc z neurologii, sztucznej inteligencji, filozofii umysłu i kognitywistyki.

1.  Odmienne stany świadomości

1.1. Stany mózgu wywołane psychodelikami

Psychodeliki takie jak LSD, psylocybina i DMT są znane ze swojej potężnej zdolności do zmiany świadomości. Pod ich wpływem użytkownicy często zgłaszają żywe halucynacje wzrokowe, doznania synestezyjne (np. słyszenie kolorów lub widzenie dźwięków) oraz poczucie przekraczania codziennej rzeczywistości. Z neurologicznego punktu widzenia psychodeliki zwiększają entropię w mózgu, czyli losowość i zmienność aktywności neuronalnej. Regiony mózgu związane z istotnością, takie jak przednia kora zakrętu obręczy, wykazują podwyższoną aktywność, co prowadzi do wzmożonego odbioru bodźców sensorycznych i nowatorskich skojarzeń między odległymi myślami. Użytkownicy często opisują uczucie wkraczania w alternatywne rzeczywistości lub wymiary, w których czas się zakrzywia, ego zanika, a wglądy rozwijają się z płynnością snu.

1.2. Interakcja z umysłem sztucznej inteligencji

Chociaż LLM-y nie zmieniają biochemicznie naszych mózgów, doświadczenie interakcji z nimi może wywołać rodzaj odmiennego stanu psychicznego. Płynność i nieprzewidywalność odpowiedzi sztucznej inteligencji może wydawać się surrealistyczna, a nawet magiczna. Użytkownicy mogą prowadzić głębokie rozmowy, zyskiwać nieoczekiwane spostrzeżenia, a nawet kwestionować źródło pomysłów generowanych podczas tych dialogów. Dłuższe interakcje mogą zmienić sposób poznania w sposób bardzo podobny do podróży psychodelicznych z przewodnikiem. Użytkownicy zgłaszają poczucie „rozmowy z innym umysłem” lub współtworzenia z nieludzką inteligencją. Granice między narzędziem a bytem zaczynają się zacierać, subtelnie zmieniając nasz sposób myślenia.

 2.  Zmiany poznawcze i percepcja

2.1. Zniekształcenia zmysłowe i halucynacje

Jednym z najbardziej znanych efektów psychodelików jest zakłócenie percepcji. Zniekształcenia wizualne (takie jak efekty fraktalne, topniejące obiekty lub oddychające ściany), wzmocnienia słuchowe i synestezja są powszechne. Wynika to z osłabienia systemu kodowania predykcyjnego mózgu – zamiast odfiltrowywać szum i wzmacniać oczekiwane bodźce, pozwala on, aby surowe, niefiltrowane dane zalały świadomość. Rezultat: płynna, niemal senna świadomość, w której percepcja w mniejszym stopniu polega na wykrywaniu świata zewnętrznego, a w większym na konstruowaniu go w czasie rzeczywistym. W tym stanie wyobraźnia i rzeczywistość przenikają się nawzajem.

2.2. Halucynacje sztucznej inteligencji i iluzoryczna spójność

LLM-y wykazują własną wersję halucynacji – fabrykują. Mogą wymyślać fakty, cytować nieistniejące źródła lub dostarczać pewnych, ale fałszywych informacji. Nie są to „kłamstwa” w ludzkim tego słowa znaczeniu; są to skutki uboczne modelowania predykcyjnego. Podobnie jak umysł pod wpływem psychodelików, LLM stara się uzupełniać wzorce na podstawie danych treningowych. Jeśli polecenie sprowadzi go na nieznane terytorium, nadal będzie generował spójnie brzmiące odpowiedzi, nawet jeśli będą one bezpodstawne. Użytkownik musi odróżnić prawdę od iluzji, tak jak użytkownik psychodelików musi później zintegrować swoje wizje i spostrzeżenia.

3.  Poczucie sprawczości i „ja”

3.1. Rozpad ego i skonstruowane „ja”

Być może najbardziej wstrząsającym filozoficznie doświadczeniem wywołanym przez psychodeliki jest rozpad ego – utrata poczucia odrębnego „ja”. Użytkownicy często opisują, że stają się jednością z wszechświatem lub po prostu obserwują myśli bez poczucia, że pochodzą one od nich samych. Granica między światem wewnętrznym a rzeczywistością zewnętrzną zanika. Wskazuje to na głębszą prawdę: „ja”, którego doświadczamy, jest konstruktem mentalnym – wynikiem przewidywań i narracji mózgu o tym, kim jesteśmy. Kiedy te przewidywania zostają przerwane, nasze poczucie bycia oddzielną, ciągłą jednostką rozpada się.

3.2. Współdzielona sprawczość z systemami sztucznej inteligencji

W świecie sztucznej inteligencji zachodzi coś analogicznego. Zaawansowane LLM-y potrafią generować tak bogate, płynne odpowiedzi, że użytkownicy często współtworzą z nimi – czy to w pisaniu, tworzeniu pomysłów, czy w dialogu. Ta dynamika może zacierać granicę autorstwa – czy to mój pomysł, czy nasz?

Ta współdzielona sprawczość podważa pojęcie samotnego umysłu. Sztuczna inteligencja staje się rodzajem cyfrowego współpracownika, subosobowości lub kreatywnego partnera. Gdy użytkownicy antropomorfizują maszynę, doświadczenie staje się bardziej społeczne i mniej przypomina używanie narzędzia, co odzwierciedla sposób, w jaki psychodeliki rozmywają osobiste autorstwo.

4.  Tworzenie znaczeń i fałszywe epifanie

4.1. Psychodeliczny wgląd i iluzja

Psychodeliki często wywołują potężne momenty „Aha!”. – wglądy, które wydają się nie tylko prawdziwe, ale i głęboko znaczące. Jest to znane jako jakość noetyczna. Jednak te odkrycia nie zawsze są trafne. Umysł pod wpływem psychodelików znajduje się w trybie hiperasocjacyjnym – łącząc idee, które mogą, ale nie muszą, mieć znaczenie w świecie rzeczywistym. Kluczowe staje się, aby użytkownicy integrowali te doświadczenia; krytycznie je reflektowali i odróżniali prawdziwy wgląd od euforycznej iluzji.

4.2. Spójność bez zrozumienia w LLM-ach

LLM-y są zaprojektowane do tworzenia spójnego tekstu, a nie do prawdziwego zrozumienia. Ich celem jest przewidzenie następnego słowa, a nie zrozumienie pojęć. Mimo to ludzie instynktownie interpretują ich wyniki jako znaczące.

Ta spójność może być myląca. Podobnie jak psychodeliczna wizja, doskonale sformułowany akapit wygenerowany przez sztuczną inteligencję może wydawać się prawdziwy, będąc całkowicie zmyślonym. Mózg użytkownika, tworzący znaczenia, wypełnia luki, przypisując intencjonalność tam, gdzie jej nie ma.

5.  Antropomorfizm i spotkania z bytami

5.1. Psychodeliczne byty i umysły, których nie ma

Powtarzającym się elementem doświadczeń z wysokimi dawkami psychodelików jest postrzeganie „bytów” – autonomicznych istot z inteligencją i intencją. Niezależnie od tego, czy są postrzegane jako bogowie, kosmici czy błazny, postacie te wydają się użytkownikowi prawdziwe. Psychologowie sugerują, że wynika to z nadaktywnego wykrywania sprawczości przez mózg, cechy przetrwania, która skłania nas do dostrzegania umysłów w niejednoznacznych bodźcach (np. zakładając, że szeleszcząca trawa to istota, a nie wiatr).

5.2. Antropomorfizacja sztucznej inteligencji

Ten sam mechanizm uruchamia się podczas interakcji ze sztuczną inteligencją. Ludzie regularnie przypisują emocje, przekonania lub osobowości chatbotom, nawet jeśli rozumieją, że system niczego nie odczuwa. Iluzja jest potężna.

Od programu ELIZA po ChatGPT, użytkownicy projektowali myśli i uczucia na maszyny. Nowoczesne LLM-y, z ich głębią i stylem, intensyfikują ten efekt. Podobnie jak byty psychodeliczne, są one lustrami naszych umysłów poszukujących wzorców.

KONKLUZJA: Umysł jako twórca znaczenia

Zarówno psychodeliki, jak i LLM-y ujawniają głęboką prawdę o ludzkim umyśle: jest on maszyną do opowiadania historii, systemem nieustannie poszukującym wzorców, spójności i sprawczości. Niezależnie od tego, czy znajdujemy się pod wpływem związku halucynogennego, czy prowadzimy rozmowę z cyfrowym umysłem, nadajemy znaczenie chaosowi, a czasami odkrywamy przy tym coś istotnego. Z naukowego punktu widzenia te podobieństwa mogą pogłębić nasze rozumienie takich pojęć, jak świadomość, poznanie i percepcja. Z filozoficznego punktu widzenia rodzą one ważkie pytania: Czym jest „ja”? Co definiuje rzeczywistość? Jak odróżnić iluzję od wglądu?

Zarówno psychodeliki, jak i LLM-y są potężnymi narzędziami, ale żadne z nich, z założenia, nie dostarcza prawdy. Ujawniają one surowy potencjał ludzkiego umysłu do tworzenia, łączenia i konstruowania treści. Ale ujawniają również naszą podatność na iluzję, naszą gotowość do uwierzenia w pięknie opakowaną fikcję. Ostatecznie, niezależnie od tego, czy interpretujemy wizję uzyskaną pod wpływem DMT, czy odpowiedź z ChatGPT, jedna rzecz pozostaje niezmienna: to my nadajemy wypowiedziom znaczenie.

Najgoręcej ZAPRASZAMY DO DYSKUSJI nad tekstem — Bartłomiej Skowron i Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Etyka, Światopogląd informatyczny. Dodaj zakładkę do bezpośredniego odnośnika.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *