Psychodeliki i LLM-y. Nieoczywiste podobieństwa w oddziaływaniu na ludzki umysł

Niniejszy wpis umieszczam w blogu w imieniu studenta wydziału MiNI, p. Sharmy Kartikay, który napisał go pod kierunkiem dra hab. Bartłomieja Skowrona. Dotyczy on dość kontrowersyjnej sfery  oddziaływania na ludzki umysł, z jednej strony, systemów LLM (ang. Large Language Models), z drugiej zaś, substancji psychodelicznych. Oryginalny tekst powstał w języku angielskim, ale z uwagi na fakt, że większość dyskusji w naszym blogu toczy się po polsku, przetłumaczyliśmy go na język polski z pomocą systemu Gemini 2.5 Pro.

A oto jak anonsuje ten tekst Bartłomiej Skowron:

Jesteśmy świadkami dynamicznego rozwoju dwóch potężnych technologii zmieniających świadomość: z jednej strony są to duże modele językowe (LLMy), a z drugiej, renesans badań nad substancjami psychodelicznymi (klasyczne psychodeliki to np. dietyloamid kwasu lizergowego, psylocybina, meskalina, dimetylotryptamina).  Na pierwszy rzut oka może się wydawać, że te dwie technologie nie mają nic wspólnego, co bowiem mogłoby je łączyć? Jednak to początkowe wrażenie jest mylące. Rozwój zarówno psychodelików, jak i sztucznej inteligencji, jest często napędzany nie tylko przez ten sam kapitał, ale także przez tę samą ideologię (której nie należy mylić z filozofią). W szczególności, kluczową rolę odgrywa ideologia Doliny Krzemowej — czasami określana mianem TESCREAL — która współtworzy współczesne fantazje społeczne, struktury kapitału i dynamikę władzy w technokratycznych społeczeństwach cyfrowych.

Zarówno psychodeliki, jak i sztuczna inteligencja, mogą być rozumiane jako niespecyficzne wzmacniacze ludzkiej psychiki. Nieco upraszczając, można powiedzieć, że mogą one wzmacniać empatię i życzliwość u empatycznych i życzliwych użytkowników, podczas gdy u osób o skłonnościach agresywnych wzmacniają agresję. Obie te technologie w różny sposób wzmacniają ludzką percepcję, umożliwiają generowanie nowych i niekonwencjonalnych wzorców (stąd ich popularność w społecznościach artystycznych, twórczych i inżynierskich) oraz przesuwają granice naszych ograniczeń poznawczych, percepcyjnych, a nawet moralnych.

Biorąc pod uwagę ich głęboki wpływ na ludzką świadomość, a także liczne nieprzewidziane ryzyka z nimi związane, zarówno psychodeliki, jak i sztuczna inteligencja, stawiają przed nami istotne wyzwania filozoficzne i etyczne. Ponadto, obie te technologie można postrzegać jako hiperaktywne placebo, w tym sensie, że mają tendencję do dostarczania rezultatów, które — przynajmniej w pewnym stopniu — są zgodne z oczekiwaniami użytkownika. Wiele z tego, co wyłania się z interakcji z tymi technologiami, służy jako lustro odbijające użytkownika. Psychodeliki ujawniają nieświadome aspekty jaźni, podczas gdy rozszerzone rozmowy z LLMami często ujawniają więcej o samym użytkowniku niż o technologii, co jest zjawiskiem znanym jako odwrócony test Turinga.

W semestrze letnim roku akademickiego 2024/2025 zaproponowałem dla studentów Wydziału Matematyki i Nauk Informacyjnych PW kurs pt. „Filozofia, psychodeliki i AI” w języku angielskim. Kurs ten miał charakter w dużej mierze badawczy, tj. studiowaliśmy najnowsze artykuły naukowe i szukaliśmy wspólnie podobieństw i różnic pomiędzy AI i psychodelikami. Opis kursu wraz z literaturą przedmiotu dostępny jest tutaj. Jeden z uczestników kursu, Sharma Kartikay, przygotował na podstawie swojej prezentacji szkic przedstawiający w kilku punktach bynajmniej nieoczywiste podobieństwa pomiędzy tymi technologiami

Po tym intrygującym anonsie pora przejść do prezentacji tekstu, który – mam nadzieję – wzbudzi w naszym blogu intensywną dyskusję.

****  PSYCHODELIKI i LLM-y  ****
****  NIEOCZYWISTE PODOBIEŃSTWA w ODDZIAŁYWANIU na LUDZKI UMYSŁ 
****

*** Autor: Sharma Kartikay ***

WPROWADZENIE: odkrywanie świadomości i skonstruowanych rzeczywistości

Wybitny neurobiolog Anil Seth zauważył kiedyś: „Wszyscy cały czas mamy halucynacje; kiedy zgadzamy się co do naszych halucynacji, nazywamy to «rzeczywistością»”. To głębokie stwierdzenie ujmuje fascynujący wgląd w to, jak ludzka percepcja konstruuje rzeczywistość, proces, który znajduje uderzające echa zarówno w doświadczeniach psychodelicznych, jak i w interakcjach z dużymi modelami językowymi (LLM). Psychodeliki chemicznie zmieniają przetwarzanie informacji w mózgu, podczas gdy LLM-y symulują myślenie podobne do ludzkiego za pomocą złożonego modelowania statystycznego. Oba te zjawiska, każde w swojej dziedzinie, naginają zasady percepcji, tworzą iluzje sprawczości i znaczenia oraz skłaniają nas do kwestionowania tego, co jest prawdziwe. W niniejszym tekście przeanalizowano podobieństwa między tymi dwoma zjawiskami, czerpiąc z neurologii, sztucznej inteligencji, filozofii umysłu i kognitywistyki.

1.  Odmienne stany świadomości

1.1. Stany mózgu wywołane psychodelikami

Psychodeliki takie jak LSD, psylocybina i DMT są znane ze swojej potężnej zdolności do zmiany świadomości. Pod ich wpływem użytkownicy często zgłaszają żywe halucynacje wzrokowe, doznania synestezyjne (np. słyszenie kolorów lub widzenie dźwięków) oraz poczucie przekraczania codziennej rzeczywistości. Z neurologicznego punktu widzenia psychodeliki zwiększają entropię w mózgu, czyli losowość i zmienność aktywności neuronalnej. Regiony mózgu związane z istotnością, takie jak przednia kora zakrętu obręczy, wykazują podwyższoną aktywność, co prowadzi do wzmożonego odbioru bodźców sensorycznych i nowatorskich skojarzeń między odległymi myślami. Użytkownicy często opisują uczucie wkraczania w alternatywne rzeczywistości lub wymiary, w których czas się zakrzywia, ego zanika, a wglądy rozwijają się z płynnością snu.

1.2. Interakcja z umysłem sztucznej inteligencji

Chociaż LLM-y nie zmieniają biochemicznie naszych mózgów, doświadczenie interakcji z nimi może wywołać rodzaj odmiennego stanu psychicznego. Płynność i nieprzewidywalność odpowiedzi sztucznej inteligencji może wydawać się surrealistyczna, a nawet magiczna. Użytkownicy mogą prowadzić głębokie rozmowy, zyskiwać nieoczekiwane spostrzeżenia, a nawet kwestionować źródło pomysłów generowanych podczas tych dialogów. Dłuższe interakcje mogą zmienić sposób poznania w sposób bardzo podobny do podróży psychodelicznych z przewodnikiem. Użytkownicy zgłaszają poczucie „rozmowy z innym umysłem” lub współtworzenia z nieludzką inteligencją. Granice między narzędziem a bytem zaczynają się zacierać, subtelnie zmieniając nasz sposób myślenia.

 2.  Zmiany poznawcze i percepcja

2.1. Zniekształcenia zmysłowe i halucynacje

Jednym z najbardziej znanych efektów psychodelików jest zakłócenie percepcji. Zniekształcenia wizualne (takie jak efekty fraktalne, topniejące obiekty lub oddychające ściany), wzmocnienia słuchowe i synestezja są powszechne. Wynika to z osłabienia systemu kodowania predykcyjnego mózgu – zamiast odfiltrowywać szum i wzmacniać oczekiwane bodźce, pozwala on, aby surowe, niefiltrowane dane zalały świadomość. Rezultat: płynna, niemal senna świadomość, w której percepcja w mniejszym stopniu polega na wykrywaniu świata zewnętrznego, a w większym na konstruowaniu go w czasie rzeczywistym. W tym stanie wyobraźnia i rzeczywistość przenikają się nawzajem.

2.2. Halucynacje sztucznej inteligencji i iluzoryczna spójność

LLM-y wykazują własną wersję halucynacji – fabrykują. Mogą wymyślać fakty, cytować nieistniejące źródła lub dostarczać pewnych, ale fałszywych informacji. Nie są to „kłamstwa” w ludzkim tego słowa znaczeniu; są to skutki uboczne modelowania predykcyjnego. Podobnie jak umysł pod wpływem psychodelików, LLM stara się uzupełniać wzorce na podstawie danych treningowych. Jeśli polecenie sprowadzi go na nieznane terytorium, nadal będzie generował spójnie brzmiące odpowiedzi, nawet jeśli będą one bezpodstawne. Użytkownik musi odróżnić prawdę od iluzji, tak jak użytkownik psychodelików musi później zintegrować swoje wizje i spostrzeżenia.

3.  Poczucie sprawczości i „ja”

3.1. Rozpad ego i skonstruowane „ja”

Być może najbardziej wstrząsającym filozoficznie doświadczeniem wywołanym przez psychodeliki jest rozpad ego – utrata poczucia odrębnego „ja”. Użytkownicy często opisują, że stają się jednością z wszechświatem lub po prostu obserwują myśli bez poczucia, że pochodzą one od nich samych. Granica między światem wewnętrznym a rzeczywistością zewnętrzną zanika. Wskazuje to na głębszą prawdę: „ja”, którego doświadczamy, jest konstruktem mentalnym – wynikiem przewidywań i narracji mózgu o tym, kim jesteśmy. Kiedy te przewidywania zostają przerwane, nasze poczucie bycia oddzielną, ciągłą jednostką rozpada się.

3.2. Współdzielona sprawczość z systemami sztucznej inteligencji

W świecie sztucznej inteligencji zachodzi coś analogicznego. Zaawansowane LLM-y potrafią generować tak bogate, płynne odpowiedzi, że użytkownicy często współtworzą z nimi – czy to w pisaniu, tworzeniu pomysłów, czy w dialogu. Ta dynamika może zacierać granicę autorstwa – czy to mój pomysł, czy nasz?

Ta współdzielona sprawczość podważa pojęcie samotnego umysłu. Sztuczna inteligencja staje się rodzajem cyfrowego współpracownika, subosobowości lub kreatywnego partnera. Gdy użytkownicy antropomorfizują maszynę, doświadczenie staje się bardziej społeczne i mniej przypomina używanie narzędzia, co odzwierciedla sposób, w jaki psychodeliki rozmywają osobiste autorstwo.

4.  Tworzenie znaczeń i fałszywe epifanie

4.1. Psychodeliczny wgląd i iluzja

Psychodeliki często wywołują potężne momenty „Aha!”. – wglądy, które wydają się nie tylko prawdziwe, ale i głęboko znaczące. Jest to znane jako jakość noetyczna. Jednak te odkrycia nie zawsze są trafne. Umysł pod wpływem psychodelików znajduje się w trybie hiperasocjacyjnym – łącząc idee, które mogą, ale nie muszą, mieć znaczenie w świecie rzeczywistym. Kluczowe staje się, aby użytkownicy integrowali te doświadczenia; krytycznie je reflektowali i odróżniali prawdziwy wgląd od euforycznej iluzji.

4.2. Spójność bez zrozumienia w LLM-ach

LLM-y są zaprojektowane do tworzenia spójnego tekstu, a nie do prawdziwego zrozumienia. Ich celem jest przewidzenie następnego słowa, a nie zrozumienie pojęć. Mimo to ludzie instynktownie interpretują ich wyniki jako znaczące.

Ta spójność może być myląca. Podobnie jak psychodeliczna wizja, doskonale sformułowany akapit wygenerowany przez sztuczną inteligencję może wydawać się prawdziwy, będąc całkowicie zmyślonym. Mózg użytkownika, tworzący znaczenia, wypełnia luki, przypisując intencjonalność tam, gdzie jej nie ma.

5.  Antropomorfizm i spotkania z bytami

5.1. Psychodeliczne byty i umysły, których nie ma

Powtarzającym się elementem doświadczeń z wysokimi dawkami psychodelików jest postrzeganie „bytów” – autonomicznych istot z inteligencją i intencją. Niezależnie od tego, czy są postrzegane jako bogowie, kosmici czy błazny, postacie te wydają się użytkownikowi prawdziwe. Psychologowie sugerują, że wynika to z nadaktywnego wykrywania sprawczości przez mózg, cechy przetrwania, która skłania nas do dostrzegania umysłów w niejednoznacznych bodźcach (np. zakładając, że szeleszcząca trawa to istota, a nie wiatr).

5.2. Antropomorfizacja sztucznej inteligencji

Ten sam mechanizm uruchamia się podczas interakcji ze sztuczną inteligencją. Ludzie regularnie przypisują emocje, przekonania lub osobowości chatbotom, nawet jeśli rozumieją, że system niczego nie odczuwa. Iluzja jest potężna.

Od programu ELIZA po ChatGPT, użytkownicy projektowali myśli i uczucia na maszyny. Nowoczesne LLM-y, z ich głębią i stylem, intensyfikują ten efekt. Podobnie jak byty psychodeliczne, są one lustrami naszych umysłów poszukujących wzorców.

KONKLUZJA: Umysł jako twórca znaczenia

Zarówno psychodeliki, jak i LLM-y ujawniają głęboką prawdę o ludzkim umyśle: jest on maszyną do opowiadania historii, systemem nieustannie poszukującym wzorców, spójności i sprawczości. Niezależnie od tego, czy znajdujemy się pod wpływem związku halucynogennego, czy prowadzimy rozmowę z cyfrowym umysłem, nadajemy znaczenie chaosowi, a czasami odkrywamy przy tym coś istotnego. Z naukowego punktu widzenia te podobieństwa mogą pogłębić nasze rozumienie takich pojęć, jak świadomość, poznanie i percepcja. Z filozoficznego punktu widzenia rodzą one ważkie pytania: Czym jest „ja”? Co definiuje rzeczywistość? Jak odróżnić iluzję od wglądu?

Zarówno psychodeliki, jak i LLM-y są potężnymi narzędziami, ale żadne z nich, z założenia, nie dostarcza prawdy. Ujawniają one surowy potencjał ludzkiego umysłu do tworzenia, łączenia i konstruowania treści. Ale ujawniają również naszą podatność na iluzję, naszą gotowość do uwierzenia w pięknie opakowaną fikcję. Ostatecznie, niezależnie od tego, czy interpretujemy wizję uzyskaną pod wpływem DMT, czy odpowiedź z ChatGPT, jedna rzecz pozostaje niezmienna: to my nadajemy wypowiedziom znaczenie.

Najgoręcej ZAPRASZAMY DO DYSKUSJI nad tekstem — Bartłomiej Skowron i Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Etyka, Światopogląd informatyczny. Dodaj zakładkę do bezpośredniego odnośnika.

Komentarze do Psychodeliki i LLM-y. Nieoczywiste podobieństwa w oddziaływaniu na ludzki umysł

  1. Olaf Werner pisze:

    Bardzo ciekawy wpis, który pokazuje problemy z epistemiologią. Generalnie to uznaje się że prawda jest po pierwsze niezależna od umysłu, po drugie techniki logiczne które przetwarzają prawdę też są. W przypadku LLM to jedyną miarą prawdy jaką model posiada to po prostu wyznaczane przez ten model prawdobodobieństwo.

  2. Ewelina T pisze:

    Bardzo interesujące ujęcie tematu. Zestawienie doświadczeń psychodelicznych z działaniem LLM-ów otwiera zupełnie nową perspektywę na to, jak interpretujemy „inteligencję” i „znaczenie”. Podoba mi się szczególnie wątek dotyczący tego, że nasze oczekiwania i sposób odbioru nierzadko kształtują to, co uznajemy za wartościowy wgląd niezależnie od tego, czy jego źródłem jest substancja, model językowy czy własna intuicja. Wpis jest ciekawym spojrzeniem na SI jako narzędzie, które nie tylko generuje odpowiedzi, ale też odbija nasze własne mechanizmy interpretacyjne.

  3. Bartosz Z pisze:

    Porównanie LLMów i psychodelików jako wzmacniaczy sensotwórczych wydaje mi się bardzo trafne, ale być może warto przesunąć akcent. Ich podobieństwo polega nie tylko na ujawnianiu iluzoryczności znaczeń, lecz także na czasowym osłabieniu naszych mechanizmów kontroli epistemicznej.

    Na co dzień funkcjonujemy dzięki filtrom, które pozwalają nam oceniać wiarygodność treści i źródeł. Psychodeliki rozluźniają je neurobiologicznie, natomiast LLMy robią to poprzez formę interakcji i płynny, autorytatywnie brzmiący język. W efekcie nie tyle pojawia się nowe znaczenie, ile zanika dystans wobec znaczenia, a to sprzyja poczuciu głębokiego zrozumienia. Dlatego analogia z placebo wydaje się szczególnie trafna. Mamy tu do czynienia z placebo epistemicznym, które nie tyle dostarcza wiedzy, ile wytwarza subiektywne przekonanie, że coś zostało wyjaśnione. Kluczowe pytanie dotyczy więc nie inteligencji tych narzędzi, lecz sposobu ich używania. Być może, podobnie jak w przypadku psychodelików, potrzebujemy praktyk integracji, które przywracają krytyczną refleksję po zakończeniu doświadczenia.

  4. Tomasz T pisze:

    Przyznam szczerze, że byłem bardzo sceptyczny wobec sensu obecnego w temacie porównania, jak i wobec zapowiedzi, po przeczytaniu muszę jednak przyznać, że uwidocznione w tekście analogie są zaskakująco trafne. Nasuwają mi się w tym temacie dwie warte poruszenia kwestie.

    Pierwsza z nich to, wspomniane już w tekście zagrożenie w użyciu LLM-ów i psychodelików do poszukiwania prawdy. Wydaje mi się, że te dwa narzędzia dostarczają paliwa do bardzo niebezpiecznego procesu odkrywania prawdy o życiu i jego sensie samemu. Poprzez „dialog” czy to z chatem, czy z odmienioną przez psychodeliki wersją siebie, można faktycznie bardzo łatwo znaleźć potwierdzenie swoich, zazwyczaj nie w pełni prawdziwych, przekonań. Doświadczenie odkrycia czegoś samemu wydaje się o wiele bardziej atrakcyjne niż przeczytanie/ wysłuchanie i zrozumienie czyjegoś zdania. W obliczu takiego zagrożenia i mody na „subiektywną” prawdę trzeba podkreślać istnienie obiektywnej prawdy o świecie i idącej za nią obiektywnej moralności. Jako chrześcijanin uznaję, że te obiektywne wartości istnieją i ich głoszenie musi nadążać za rozwojem technologicznym i renesansem psychodelików. Jeżeli ktoś uważa podobnie, myślę, że tym bardziej warto podejmować w towarzystwie tematy dotyczące prawdy o świecie i przez to stwarzać możliwość konfrontacji poglądów.

    Druga kwestia, którą chciałem poruszyć to moje odczucie, że interakcja z modelami językowymi, może nieść większe zagrożenie niż z psychodelikami w kwestii kształtowania świadomości użytkowników. Wynika to z faktu, że decydując się na psychodeliczny „seans” osoba raczej zdaje sobie sprawę, że za chwilę wydarzy się coś niecodziennego, że znajdzie się w innym świecie. Tego uczucia nie ma podczas interakcji z napędzanym AI chatem. Napiętnowanie psychodelików poprzez utożsamianie ich z innymi, znacznie groźniejszymi narkotykami na długo zostanie w świadomości społecznej i może stanowić tarczę przed nadinterpretacją efektów ich działania, natomiast brak zrozumienia działania AI i zagrożeń z niego płynących tworzy łatwą ścieżkę do zlekceważenia go.

  5. Hubert B pisze:

    Bardzo dziękuję za ten tekst – porównanie AI do psychodelików początkowo wydawało mi się egzotyczne, ale argument o zniekształceniach zmysłowych i halucynacjach całkowicie mnie przekonał.

    Chciałbym dodać jedną rzecz: wydaje mi się, że największym podobieństwem jest to, jak obie te rzeczy nas „rozleniwiają” w sprawdzaniu faktów. Kiedy rozmawiamy z AI, która pisze pięknym, mądrym językiem, wchodzimy w rodzaj transu – przestajemy pytać „czy to prawda?”, a zaczynamy pytać „czy to do mnie trafia?”.

    To trochę jak z czytaniem horoskopów albo interpretowaniem snów (co też bywa formą halucynacji): znajdujemy w nich sens nie dlatego, że on tam jest, ale dlatego, że nasz umysł desperacko chce go tam znaleźć. Jeśli LLM powie nam coś, co pasuje do naszego nastroju, traktujemy to jak objawienie, a nie jak statystykę.

  6. Mateusz R pisze:

    Interesujące ujęcie tematu, szczególnie fragmenty zestawiające psychodeliki z LLM-ami w kontekście podważenia intuicyjnego utożsamienia spójności z prawdziwością. Myślę, że podobne mechanizmy są wykorzystywane przez oszustów, próbujących przedstawić swoją narrację, jako prawdę. Taki oszust, tak samo jak LLM opowiada o danym temacie spójnie i z przekonaniem, jak o „rzeczywistości”, mimo że przedstawiane przez niego informacje nie są prawdziwe. Podobny efekt dostarczają nam zmysły pod wpływem substancji psychodelicznych. W przypadku oszustów określamy to, jako celowe manipulowanie jednak nasze mechanizmy obronne (poddawanie otrzymanych informacji w wątpliwość) w tego typu sytuacjach są bardzo podobne, jak w przypadku interakcji z LLM-ami. Ciekawi mnie jak różni się to w przypadku substancji psychodelicznych, czy osoby, które są naturalnie mniej podatne na oszustwa lepiej radzą sobie z odróżnianiem rzeczywistości od halucynacji pod ich wpływem.

Skomentuj Bartosz Z Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *