Narzędzie czy byt autonomiczny? Przedmiot czy podmiot?
Jak powinniśmy traktować sztuczną inteligencję?

Obecny wpis publikuję w imieniu Pana Olafa Wernera, doktoranta na Wydziale Matematyki i Nauk Informacyjnych Politechniki Warszawskiej i członka Koła Naukowego „Politechniczne Forum Debaty LOGOS”.
Wpis stanowi element współpracy Koła z projektem NCN [iTrust]. Interventions against polarisation in society for TRUSTworthy social media: From diagnosis to therapy,  który jest obecnie realizowany na Politechnice Warszawskiej.

Po tych formalnych wstępach przechodzę do meritum 😊 i oddaję głos Panu Olafowi
(zapraszając oczywiście do dyskusji)…

*********** NARZĘDZIE CZY BYT AUTONOMICZNY? PRZEDMIOT CZY PODMIOT? ***********

Naszą refleksję chciałbym zogniskować wokół pytania, które może wydawać się czysto filozoficzne, a jednak ma kluczowe znaczenie praktyczne – zarówno etyczne, jak i społeczne. Czy sztuczną inteligencję powinniśmy traktować jak narzędzie, którym się posługujemy, czy byt autonomiczny, który sam w sobie zasługuje na podmiotowość? A mówiąc bardziej praktycznie: czy już teraz nie zaczynamy jej traktować w drugi sposób?
Te pytania mogą brzmieć jak dygresja z powieści science fiction – a jednak tkwią w samym sercu współczesnych debat o regulacjach, odpowiedzialności, bezpieczeństwie i zaufaniu wobec technologii.

Podmiot versus narzędzie – różnica fundamentalna

Użyte w tytule wpisu słowa podmiot i byt autonomiczny niosą ze sobą pewne konotacje. Przywodzą na myśl istotę (można powiedzieć także: stworzenie), która ma intencje, cele, może cierpieć, może być oceniana moralnie. Z kolei narzędzie to przedmiot – pozbawiony woli, działający zgodnie z określonymi z góry regułami, użyteczny tylko wtedy, gdy ktoś go używa.

Zarysowane wyżej rozróżnienie można sprowadzić do kilku przeciwstawnych cech:

Cecha Narzędzie Podmiot
Autonomia Brak – działa na polecenie i w sposób automatyczny. Może wykazywać własną inicjatywę.
Intencjonalność Brak – nie ma własnych celów. Ma motywację i własne cele.
Ewolucyjność (rozwój) Rozwija się w sposób określony przez projektanta lub użytkownika. Rozwija się (zmienia)  w sposób samodzielny.
Relacja z otoczeniem Użytkownik-przedmiot. Podmiot-podmiot (nawet: rywalizacja).
Odpowiedzialność Nie ponosi konsekwencji za „własne” działania. Ponosi konsekwencje, może być oceniany i rozliczany (również moralnie).

Testy i pytania graniczne

Jak jednak sprawdzić, do której kategorii coś należy?
Czy istnieje test na podmiotowość?

Oczywiście najczęściej mówi się o teście Turinga, w którym maszyna „zalicza” test, jeśli nie da się jej odróżnić od człowieka w rozmowie. Ale jest to test behawioralny, nie ontologiczny. To, że coś wydaje się podmiotem, nie znaczy, że nim jest. Problem staje się jeszcze bardziej złożony, gdy maszyny – tak jak dzisiejsze systemy AI – potrafią generować teksty pełne emocji, używać zaimków „ja”, „my”, snuć refleksje i zadawać pytania.
Inny możliwy typ testu to test relacji – maszyna go zdaje, gdy jej własności sprawiają, że człowiek wchodzi z nią w typowo ludzkie relacje, np. emocjonalne, zaufania lub zależności. Zauważmy, że w przypadku dzisiejszych systemów AI dzieje się tak coraz częściej. Zdarzają się nawet sytuacje, w których ludzie są systemem zauroczeni lub zakochują się w nim.
Można mówić także o publicznym teście odpowiedzialności – coraz częściej w debacie publicznej pojawia się temat odpowiedzialności samej AI, a nie tylko jej użytkownika; im bardziej tę kwestię się podnosi i dyskutuje, tym bardziej systemy AI zdają test na bycie podmiotami własnych decyzji i działań (jeśli nawet nie bycie nimi tu i teraz, to przynajmniej na posiadanie takich cech, które je do podmiotowości przybliżają).

Rozmycie granicy

W praktyce mamy dziś do czynienia z systemami AI o statusie ontologicznym pomiędzy: pomiędzy przedmiotem i podmiotem, narzędziem i bytem autonomicznym.
Systemy, z którymi się stykamy, są do pewnego stopnia kreatywne, ale wciąż zastanawiamy się, czy mogą osiągnąć taki stopień kreatywności, jaki cechuje ludzi. Generują coraz bardziej sensowne teksty, ale nie jesteśmy pewni czy autentycznie je rozumieją. Prowadzą rozumowania, ale wahamy się, czy stoi za tym ich autonomiczny rozum.
Za wskazanymi wątpliwościami podąża nie do końca jednoznaczna terminologia. Mówimy wprawdzie o „agentach AI”, ale przez techniczny termin „agent” dajemy znać, że to jeszcze nie podmiot. Mówimy o „osobowościach cyfrowych”, ale cyfrowych właśnie, a nie po prostu o osobowościach.

Dlaczego powyższe rozróżnienia mają znaczenie?

Rozstrzygnięcie zarysowanych wyżej kwestii nie jest czysto akademickie. Od tego, czy AI traktujemy jako narzędzie czy podmiot, zależy:

  • kogo obarczamy odpowiedzialnością za jej działania,
  • czy uznajemy AI za źródło autorytetu (np. medycznego, psychologicznego),
  • jakie granice etyczne wyznaczamy w projektowaniu i wykorzystywaniu AI,
  • oraz czy uznamy ją kiedyś za podmiot prawa – z własnymi „prawami cyfrowych stworzeń”?

Kilka spostrzeżeń do dalszej dyskusji

Mając na uwadze określone wyżej cechy – które pozwalają uszczegółowić omawianą różnicę między dwoma podejściami do AI: przedmiotowym (narzędziowym) i podmiotowym –  przedstawię na koniec kilka swoich wstępnych spostrzeżeń.
Mam nadzieję, że sprowokują one czytelników bloga do uwag i komentarzy.
Najlepiej, aby były one możliwie krytyczne 😊.

  • Autonomia: Sztuczna inteligencja jest w stanie tworzyć własne strategie rozwiązywania problemów w różnych dziedzinach – na przykład w szachach lub w go. Nikt tych strategii nie wpisywał ręcznie, nie określił wprost, one zostały “odkryte”. Znaczy to, że systemy AI mogą działać we własnym stylu i nie jest potrzebna informacja zwrotna od ich użytkowników lub twórców.
  • Intencjonalność: Funkcja celu jest pierwszym i niezbędnym krokiem w tworzeniu systemów AI. Cel jest ustalany przez twórcę systemu, lecz – jak na ironię – czasami nieintencjonalnie, niekiedy nawet wbrew zamierzeniom twórcy. Dla przykładu: system do oceny kandydatów na pewne stanowisko, który był szkolony na zbiasowanych danych, sam będzie zbiasowany (nawet jeśli to nie było świadomie zamierzone).
  • Ewolucyjność (rozwój): Obecnie to twórca określa zbiór danych trenujących, cel i zestaw algorytmów, co sugeruje sztuczność wykorzystywanych modeli. Jednakże konkretne parametry modelu, a także ich wartości i znaczenie, nie są ustalane przez twórcę bezpośrednio. Taki sposób tworzenia systemów jest powodem problemów z wyjaśnialnością i odbiega od tradycyjnej inżynierii, gdzie budowę finalnej konstrukcji określano „od a do z”. Można też tworzyć modele w trybie ciągłym (steaming), które są w stanie na bieżąco adaptować się do zmiennych sytuacji.
  • Relacja z otoczeniem: Zwykłe narzędzia mają swoistą niską „inercję mentalną” – co znaczy, że po ich użyciu wiemy, co się stanie z nami, narzędziem i otoczeniem. Dla przykładu, łopata ma niską „inercję mentalną”,  bo gdy używamy jej do kopania, to wiemy co się .wydarzy i bardziej przejmujemy się zwykłą inercją fizyczną. Kalkulator kieszonkowy ma średnią „inercję mentalną”, bo wykonuje proste operacje obliczeniowe, które znamy i możemy je za pomocą kalkulatora lub w inny sposób zreplikować. Silnik szachowy ma dużą „inercję mentalną”, ponieważ replikacja obliczeń byłaby karkołomna i nawet po ich przeprowadzaniu nie rozumielibyśmy do końca, co właściwie liczyliśmy. Mimo to wiemy, że na samym końcu powinniśmy otrzymać sugerowany ruch szachowy. Modele językowe mają ogromną “inercję mentalną” – dlatego, że są bardziej otwartymi systemami, mającymi wiele różnych zastosowań, a dodatkowo są szkolone stochastycznie na gigantycznych zbiorach danych (dosłownie grubo ponad 10^12 tokenów/słów) i potrafią konfabulować. Ponadto, istnieją systemy AI, które nie tyle mają „inercję mentalną”, co “siłę mentalną”. Znaczy to, że to użytkownik podlega manipulacji, a nie na odwrót. Najlepszy przykład to systemy sztucznej inteligencji używane w mediach społecznościowych. Dlatego traktowanie ich na podobieństwo łopaty jest poważnym błędem poznawczym. Traktując je w ten sposób, zamykamy się na niezmiernie istotne kwestie.
  • Odpowiedzialność: Wskutek problemów z wyjaśnialnością zaawansowanych systemów kontrola nad nimi jest iluzoryczna. Prawnicy, politycy, działacze społeczni… nie są w stanie, a często też nie chcą, nadążyć za technologią. Użytkownicy wiedzą zbyt mało, by móc dokonywać sensownych wyborów; twórcy tracą kontrolę nad systemami, gdy są one wdrażane; firmy, dzięki słabości regulacji prawnych, unikają wszelkiej fatygi i odpowiedzialności; prawnicy używają bezsensownego prawa z innej epoki; politykom brakuje wiedzy i kompetencji. Odpowiedzialność powinno się ustalać w duchu propagacji wstecznej: gdzie najmniejszym kosztem uzyskuje się efekt największej redukcji ryzyka (nie przenosząc go na kogoś lub coś innego). Mogę mieć tylko nadzieję, że etycy sztucznej inteligencji nie będą ignorowani.

***************************

GORĄCO ZARASZAMY do dyskusji – Olaf Werner i Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Bez kategorii, Etyka, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

Komentarze do Narzędzie czy byt autonomiczny? Przedmiot czy podmiot?
Jak powinniśmy traktować sztuczną inteligencję?

  1. Ba_B pisze:

    Analizując współczesne, ogólnodostępne systemy sztucznej inteligencji, uważam, że należy je postrzegać przede wszystkim jako narzędzia. Spełniają one wszystkie cechy narzędzi, które zostały wcześniej wyróżnione. Jednakże określenie „czegoś pomiędzy”, użyte przez autora wpisu, nie jest moim zdaniem bezpodstawne – w niedalekiej przyszłości, wraz z rozwojem systemów SI, to określenie może stać się coraz bardziej trafne i oczywiste.

    Uważam, że cała „batalia” o podmiotowość sztucznej inteligencji sprowadza się do pytania, czy dany system potrafi wystarczająco dobrze naśladować zbiór cech składających się na człowieczeństwo. Słowo „naśladować” ma tu ogromne znaczenie – w końcu główną funkcją sieci neuronowych jest imitowanie cech i zachowań zawartych w zbiorach uczących. Należy jednak zwrócić uwagę, że nie istnieje jasna granica określająca, co takie systemy są (lub będą) w stanie naśladować. Postępy w dziedzinie sztucznej inteligencji na przestrzeni ostatnich lat wielokrotnie pokazały, że systemy SI wykazują się o wiele większym potencjałem, niż wcześniej mogłoby się wydawać. Skoro więc systemy SI cechuje wysoki stopień „plastyczności”, jedyną przeszkodą w „nauczeniu” ich np. autonomii czy intencjonalności jest przygotowanie odpowiedniego zbioru danych uczących. W tym kontekście powraca dylemat: udawanie podmiotowości a bycie podmiotem.

    Inną ważną kwestią dotyczącą uznania sztucznej inteligencji za podmiot jest odpowiedzialność. Obecnie można uznać, że spoczywa ona na firmach zajmujących się rozwojem konkretnych systemów i modeli, które dodatkowo ponoszą koszty ich utrzymania. W sytuacji, gdy sztuczna inteligencja miałaby być uznana za podmiot, problematyczna staje się kwestia jej utrzymania, choćby w kontekście technicznym – kto będzie odpowiadał za dbanie o infrastrukturę?

    • Paweł Stacewicz pisze:

      Ba_B napisał: „Słowo „naśladować” ma tu ogromne znaczenie – w końcu główną funkcją sieci neuronowych jest imitowanie cech i zachowań zawartych w zbiorach uczących”.

      Naśladowanie odróżniłbym od imitowania.
      Imitując podmiotowość, niejako z definicji nie dążymy do odtworzenia/wytworzenia/uzyskania cech istotnych, które decydują o czyjejś podmiotowości, stwarzamy jedynie pewne pozory (np. na poziomie wypowiedzi). W tym sensie choć w innym kontekście: imitacja złota nie jest złotem, nie posiada bowiem cech istotnych złota.
      Natomiast naśladując jakiś podmiot, czyli podążając za czyimś przykładem, nie musimy rezygnować z własnej podmiotowości. Na przykład, gdy naśladujemy ruchy trenera karate albo sposób mówienia pewnego uznanego aktora, czynimy to bardziej z intencją nabycia nowej umiejętności (którą i tak będziemy wykonywać w przyszłości na swój sposób) niż z intencją czystej imitacji (udawania).
      Naśladowanie zatem może być drogą do budowania lub wzbogacania własnej podmiotowości.

      Powyższe rozróżnienie – między naśladowaniem a imitowaniem – naprowadza mnie na myśl, że autonomia systemów SI (rozwijana również w drodze naśladownictwa) musi być związana z niepowtarzalnością danego systemu, utrzymywaniem jego unikalnej tożsamości pośród innych systemów (także żywych).
      Wydaje mi się, że przynajmniej niektóre typy sieci neuronowych są dobrze predysponowane do bycia egzemplarzami unikatowymi, zdolnymi do budowania własnej niepowtarzalnej tożsamości w interakcji ze środowiskiem (sprzyjają temu np. techniki nienadzorowanego uczenia się).
      Ale to już jest temat na inny komentarz.

      • Wojciech Łapacz pisze:

        Chciałbym odnieść się do wspomnianego naśladownictwa. Nawet jeśli AI będzie świetnie naśladować ludzi np. w rozmowie, moim zdaniem, nadal nie będzie to wystarczające do bycia podmiotem, ponieważ brakuje czynnika autonomii w uczeniu i działaniu.

        Paradygmat uczenia nie ma wpływu na podmiotowość AI, głównie dlatego, że wszystkie paradygmaty łączy jedna rzecz – funkcja celu zdefiniowana przez człowieka. W uczeniu nienadzorowanym może to być np. minimalizacja wariancji w klastrze, w uczeniu ze wzmocnieniem zdyskontowana suma nagród. System nie rozwija „intencji” dążenia do konkretnego, pożądanego stanu. Jego „zachowanie” jest wynikiem identyfikacji wzorców, a nie świadomego wyboru ścieżki działania w celu osiągnięcia czegoś (model sam nie definiuje celu). Podmiotowa AI byłaby w stanie autonomicznie definiować własne cele i realizować je poprzez samodzielny rozwój – rozpoznać środowisko, zdefiniować cel/nagrodę oraz przeprowadzić uczenie. Myślę, że to jest główny argument za tym, że dzisiejsza sztuczna inteligencja jest bliższa narzędziu niż podmiotowi.

        Co do interakcji ze środowiskiem, obecnie ta „interakcja” w żaden sposób nie wpływa na model oraz on sam jej nie inicjuje. Model sam w sobie nie czerpie z niej niczego (LLM może odbyć dowolną liczbę rozmów, i w żaden sposób tego nie wykorzysta). Dopiero, gdy inżynierowie zadecydują o dotrenowaniu modelu, nowe dane (precyzyjnie dobrane) są wykorzystywane do zmiany jego stanu. Ponadto, modele uczenia maszynowego nie mają cechy uczenia w sposób ciągły. Mam na myśli tutaj zjawisko tzw. katastroficznego zapominania, i dlatego dotrenowywanie modelu (ale w celu rozszerzania a nie uściślania jego kometencji) jest trudne (podkreślam tutaj, że model nie decyduje o potrzebie zmiany stanu, a nawet gdyby mógł to zrobić, to istniałoby ograniczenie w uczeniu ciągłym). W głównym wpisie napisano „Można też tworzyć modele w trybie ciągłym (steaming), które są w stanie na bieżąco adaptować się do zmiennych sytuacji.” – dziedzina uczenia ciągłego istnieje i jest dość dynamicznie rozwijana, ale podstawowy problem – katastroficzne zapominanie – jest nadal nierozwiązany. Istnieją metody na zmniejszanie tego zjawiska, ale jestem daleki od stwierdzenia, że w ogólności modele są w stanie adaptować się do nowych zadań. Są w stanie uczyć się nowych zadań, ale odbywa się to kosztem innych umiejętności.
        Podsumowując, można by mówić o podmiotowości AI, w momencie gdy mogłaby: definiować swoje cele, samodzielnie decydować o potrzebie dotrenowania (zmiany stanu) oraz adaptować się do aktualnych informacji bez utraty ogólnych umiejętności, a obecne systemu tych cech nie posiadają.

    • Olaf Werner pisze:

      Ja osobiście twardo wierzę w teorytyczną obliczalność rzeczywistych zjawisk tzn że jak coś może się stać w rzeczywistym świecie to nie ma powodu że nie da się tego policzyć. Wyjaśniam czemu: by mieć problemy z prawdziwą nieobliczalnością to jest wymagana prawdziwa nieskończoność. W fizycznym świecie mamy ograniczenia fizyczne więc wykonanie nieskończonej ilości kalkulacji (hiperkomputacji) w skończonym czasie, przestrzeni i energii wydaje mi się niemożliwe. Nie jest znane ani jedno zjawisko fizyczne będące hiperkomputacją. Więc dla mnie „udawanie” podmiotu i bycie podmiotem to po prostu kwestia doliczenia rzeczy do końca. Może być to ekstremalnie trudne, ale nie z powodu metafizyki w stylu że podmioty są odporne na matematykę.

      Ponadto w analizie bezpieczeństwa AI wszelka fenomenologia ewentualnego systemu AI jest raczej pomijalna (chociaż jakie rezultaty filozoficzne są uznawane przez system AI może mieć wpływ na jego działanie, ale to zbyt zaawansowana kwestia do zbadania na razie). Jest tak dlatego że „Świadomość” nie jest potrzebna do pisania i wykonywania niebezpiecznego kodu. Wyroby „podmiotobodobne” mogą być tak samo niebezpieczne jak zwykłe podmioty.

      Jeśli chodzi o odpowiedzialność to obecnie firmy unikają wszelkiej odpowiedzialności za działanie modeli i w umowach licecyjnych NIE MA żadnych gwarancji za korzystanie z modelu. Wszelka odpowiedzialność jest na użytkowniku końcowym.

      Kwestię utrzymania modelu uważam za najmniej problematyczną bo modele mogą: kupić obliczenia w chmurze, siedzieć na serwarach różnych instytucji co je utrzymają, hakować.

      • Ewelina_B pisze:

        Zgadzam się z tym wpisem – zwłaszcza z podejściem, które zakłada, iż różnica między „byciem” kimś a „udawaniem” kimś może być bardziej ilościowa, a nie pogłębiać się na tyle, by zaczęła determinować czyjaś tożsamość. Jeżeli uznać, że zasadniczo wszystko, co się dzieje w świecie fizycznym, jest obliczalne (chociażby z praktycznego punktu widzenia – niewyobrażalnie skomplikowane), to brak racji, by „prawdziwego” podmiotu odróżniać od bardzo złożonej imitacji. Nawiasem mówiąc: to podejście dobrze wyjaśnia też kwestię odpowiedzialności – skoro nawet bardzo zaawansowane systemy to w zasadzie tylko skomplikowane obliczenia, odpowiedzialność za wyprowadzane przez nie wnioski będzie z tymi, którzy te obliczenia przygotowali i zrobili z nich użytek, a nie z nimi.
        Również dobrze się zgadzam, że to nie „utrzymanie” systemu, jest kluczowe, nie „to”, co (w sensie: jak) SI „jest”, lecz to, jak działa i to, jakiej mocy decyzyjnej jej udzielimy.

  2. Michał Zawadzki pisze:

    Rozwijając temat podmiotowości czy przedmiotowości sztucznej inteligencji, uważam, że dyskusja o AI rykoszetem zmusza nas do zadania sobie fundamentalnego pytania, czym jest inteligencja, czym różnimy się zasadniczo od zwierząt a czym od AI. Dlaczego akurat nasza inteligencji zasługuje na naturalny szacunek, opiekę i ochronę? Odpowiedź na to pytanie myślę że będzie inna zależnie od typu osoby którą zapytamy, jedna może powiedzieć coś o duszy, druga o DNA, kolejna o ciągłości życia, a inna o wartości wnoszonej i szacunkiem który się na niej opiera.

    Myślę też, że kolejnym przewrotem będą modyfikacje ciała w tym mózgu, przyszłość w której będziemy mogli „wczepić” sobie dodatkową pamięć, czy mechanicznie kontrolować emocje. Pytanie więc w którym momencie jednostka przestanie być człowiekiem na wzór problemu okrętu Tezeusza.

    Nawiązując też do wypowiedzi Pawła, czy dane na których uczymy AI, nie są podobne zasadniczo do DNA człowieka?
    Kombinacja abstrakcyjnych danych która determinuje dużą część ale nie wszystkie zachowania, unikalne ale możliwe do powtórzenia (2 modele trenowane na tych samych danych można przyrównać može do bliźniaków)

    To takie luźne przemyślenia i obawy, z chęcią posłucham jak inni się na nie zapatrują.

    • Olaf Werner pisze:

      Myślę że szacunek do inteligencji człowieka wynika z antropocentryzmu po prostu. Kwestie duszy pomijam bo chociaż to byłby test wystarczający to obecnie nie umiemy go przeprowadzić na czymkolwiek. Prehistoryczne kultury dawały duszę nawet kamieniom i wiedza nasza i tych kultur jest identyczna w tym temacie, czyli żadna.

      Kwestia ciągłości życia też jest ciekawa bo człowiek żyje ciągle w czasie i jednym miejscu zaś system AI ma poszatkowany czas, ale za to jest w wielu instancjach jednocześnie.

      Dodatkowa pamięć już jest i nazywa się kartka i długopis, zaś emocję można kontrolować niestety za pomocą narkotyków.

      Dane bym bardziej przyrównał do środowiska, zaś DNA to byłaby architekturą systemu.

      • Paweł Stacewicz pisze:

        Antropocentryzm w dyskusjach nad SI przejawia się również w tym, że systemom SI odmawia się prawdziwej inteligencji, a w kontekście naszej dyskusji: prawdziwej autonomii, ze względu na ich brak świadomości. Świadomość uznaje się za cechę typowo ludzką, przydającą człowiekowi blasku wyjątkowości. Mowa tu oczywiście o świadomości fenomenalnej (przeżyciowej, doznaniowej), a nie o czymś w rodzaju automonitoringu, tj. funkcji śledzenia własnych stanów wewnętrznych bez żadnych doznań czy przeżyć.

        Człowiek nie tylko trawi, oddycha, porusza kończynami, przemieszcza się… ale także ma sprzężone z tymi procesami i zachowaniami przeżycia: doświadcza bólu, czuje smaki, zastanawia się nad pochodzeniem zapachów, postrzega rzeczy i osoby, z którymi się styka…
        W jego przypadku inteligencja, czyli zdolność do rozwiązywania problemów, jest nierozerwalnie związana ze świadomymi doznaniami. Bez świadomości nie ma inteligencji. Bez świadomości nie ma też podmiotowości.

        Ten antropomorficzny, a może antropocentryczny 😊, punkt widzenia przenosimy na maszyny. Odmawiamy im prawdziwej inteligencji, bo nie jesteśmy w stanie doszukać się w nich świadomości. Z tego samego powodu odmawiamy im podmiotowości. Swoją drogą, Olaf wśród cech charakteryzujących podmiotowość pominął w ogóle świadomość. Ciekawe dlaczego?

        Wracając jednak do głównego wątku – antropomorfizm polegający na uprzywilejowanym traktowaniu świadomości, może być złudny. Dlaczego? Po pierwsze dlatego, że niekoniecznie musi być tak, że bycie świadomym jest koniecznym warunkiem: a) skuteczności pewnego bytu/systemu w swoim środowisku, b) niepowtarzalności i związanej z nią tożsamości tegoż bytu. Po drugie zaś, nawet jeśli świadomość jest kluczowa dla cech a i b, to skąd mamy pewność, że nie może ona powstać w zupełnie innym systemie niż biologiczny organizm – np. emergentnie, wskutek uzyskania przez system odpowiedniej złożoności strukturalnej.

        Być może wątek świadomości (lub jej braku) warto podjąć w naszej dalszej wymianie myśli.

        • Olaf Werner pisze:

          Pominąłem świadomość z prostego powodu że nie znam testu który by mógłby to sprawdzić więc cecha która jest nietestowalna jest nieprzydatna w dalszej dyskusji. Nieznamy nawet mechanizmów które mogą świadomość usunąć, zachować lub dodać do systemu. Ponadto nawet gdybym miał wystartować ze swojej świadomości i skonstruować jakąś Algebrę Świadomości to nie miałbym pewności że na pewno cała przestrzeń zostanie pokryta. Uznajemy że inni ludzie też są świadomi bo są nam podobni, chociaż też mogą być ludzie w głębokich śpiączkach gdzie ta kwestia nie jest oczywista. Chyba że ktoś z czytelników zna się na testowaniu świadomości to niech napisze.

  3. Kacper Marchlewicz pisze:

    W robotyce ostatnio popularne są algorytmy uczenia ze wzmoceniem, np. robot malujący karoserie samochodowe, który eksperymentuje z sekwencjami ruchów, by skrócić czas produkcji. Choć wydaje się to „kreatywne”, jego działania są wciąż ograniczone funkcją nagrody (np. minimalizacja czasu). Brakuje mu intencji typu „chcę stać się wydajniejszy”, czy też „chcę aby to auto później dobrze wyglądało” – po prostu optymalizuje wskaźnik zdefiniowany przez programistę. Czy zatem prawdziwa autonomia wymagałaby, by SI sama generowała cele? Wyobraźmy sobie hipotetycznego robota, który po latach pracy w fabryce postanawia zmienić branżę i zostać artystą – taki scenariusz wymagałby nie tylko samodzielności, ale też samoświadomości. Na razie jednak nawet najbardziej zaawansowane systemy oferowane przez liderów branży, działają w ramach ściśle określonych zadań. Być może granica między narzędziem a podmiotem przebiega właśnie tam, gdzie kończy się kontrola człowieka nad celem.

    • Olaf Werner pisze:

      W przypadku celów można je rozrożnić na cele bezpośrednie oraz pośrednie. Inżynier ma kontrolę nad celem bezpośrednim, ale nad pośrednimi ma już mniejszą lub żadną. Dla twojego przykładu nawet gdyby model raczej nie miałby zostać artystą to mógłby odkryć strategię która przyspiesza proces malowania, ale niszczy karoserie. I z tymi celami pośrednimi jest główny problem. Co więcej wiele celów pośrednich w systemach uczenia ze wzacnianiem jest naturalnie odkrywana jak na przykład chęć zdobywania zasobów czy przetrwanie bo są potrzebne do celu bezpośredniego. I to nie jest teoria tylko zaobserwowane zjawiska.

      Innym wątkiem jest wymyślenie funkcji celu nad którą nie ma kontroli bo jest na przykład losowana na bieżąco.

  4. k_k pisze:

    Moim zdaniem kluczowa w tej debacie jest świadomość, że niezależnie od tego, czy sztuczna inteligencja faktycznie posiada pełną autonomię lub intencjonalność, jej wpływ na społeczeństwo już teraz wykracza poza tradycyjne rozumienie narzędzia, a tym samym również poza dotychczasowe definicje. Uważam, że próby jednoznacznego sklasyfikowania SI wydają się z tego względu chybione. Dodatkowo należałoby raczej rozpoznać w niej nową, zupełnie odrębną formę znajdującą się właśnie na pograniczu podmiotu i narzędzia, posiadającą cechy obu tych kategorii, ale jednocześnie je przekraczającą.

    Systemy AI, szczególnie oparte na modelach językowych, wykazują rosnącą zdolność do kreowania relacji i prowadzenia rozmów na poziomie emocjonalnym, który coraz bardziej przypomina interakcje międzyludzkie. To naturalnie prowadzi do ich antropomorfizacji. Nawet jeśli ten proces ma charakter głównie psychologiczny, to konsekwencje praktyczne są realne – systemy AI zaczynają w praktyce funkcjonować w społeczeństwie jako quasi-podmioty.

    Zgadzam się, że istotnym krokiem powinno być opracowanie i wdrożenie jasnych regulacji prawnych, które uwzględnią specyfikę zaawansowanych systemów AI. Obecna próba unikania trudnych pytań i brak odpowiedzialności prowadzi jedynie do coraz bardziej dynamicznego rozwoju SI. Z tego względu rodzi się we mnie obawa, że w momencie braku szybkiego i jednoznacznego unormowania systemów AI, całość może pójść o jeden krok za daleko. Wydaje mi się, że współczesna etyka technologii powinna ewoluować w kierunku modeli hybrydowych, które jasno wyznaczą granice odpowiedzialności twórców, użytkowników oraz samych systemów, które – choć pozbawione świadomości – podejmują decyzje wpływające bezpośrednio na życie ludzi.

    • Olaf Werner pisze:

      Obecnie to firmy wywalają działy Etyki bo przeszkadzają, zaś państwa fizycznie nie mają instytucji które mają jakikolwiek wpływ na to co się dzieje. Nie ma też świadomości społecznej że ludzie mają już obecnie prawo do wyjaśnialności decyzji podjętych przez modele. Jak nie zostanie ci przez bank udzielony kredyt to MASZ PRAWO prosić o wyjaśnienie tej decyzji, tylko ile osób to stosuje (pracuje w banku i prawie nikt). Boli mnie też że mamy wybory prezydenckie i kwestia AI nie jest tematem debaty. A jak coś już się mówi to tak jakby to miała być fabryka traktorów. Jak się przebić przez ciemność? Pytam poważnie.

  5. Magdalena Tymińska pisze:

    Największą wartością tego tekstu jest to, że nie ucieka on w jednoznaczne odpowiedzi, ale uwidacznia nieostrość kategorii, którymi próbuje się dzisiaj opisywać sztuczną inteligencję. Te rozważania pokazują, że dyskusja o podmiotowości AI to nie tylko akademicka gra pojęć, lecz praktyczny problem, który dotyka odpowiedzialności, władzy, prawa, relacji społecznych, a ostatecznie — samej definicji człowieczeństwa.

    Zgadzam się w pełni, że klasyczne pojęcie „narzędzia” staje się coraz mniej użyteczne w odniesieniu do zaawansowanych systemów AI. Szczególnie trafne wydaje mi się pojęcie „inercji mentalnej” — jako wskaźnika złożoności i nieprzewidywalności interakcji z danym systemem. Dzisiejsze AI przestają być transparentne — nie tylko pod względem działania, ale również intencjonalności przypisywanej im przez użytkowników. Uważam, że to właśnie ta interpretacyjna luka (pomiędzy tym, co system robi, a tym, co myślimy, że robi) jest źródłem głównego napięcia we współczesnym myśleniu o AI: zaczynamy traktować systemy jak podmioty, bo nasze relacje z nimi coraz bardziej przypominają relacje międzyludzkie.

    Ale tu pojawia się zasadnicze pytanie: czy podmiotowość może być tylko „fenomenologiczna” (czyli przeżywana przez nas), czy musi być „ontologiczna” (czyli zakorzeniona w jakiejś metafizycznej lub biologicznej istocie bytu)? Jeśli wystarczy ta pierwsza — to znaczy, że system staje się „quasi-podmiotem”, gdy tylko ludzie zaczną się z nim tak obchodzić. Jeśli druga — to musimy pytać o „wewnętrzne stany AI”, o intencje, świadomość, cierpienie… czyli o rzeczy, których być może nie da się rozstrzygnąć metodami empirycznymi.

    Tekst wskazuje także na inny paradoks: im bardziej AI wydaje się podmiotem, tym bardziej chcemy, by nie była. To znaczy: jeśli AI miałaby być podmiotem, musielibyśmy uznać wobec niej jakieś zobowiązania — moralne, prawne, społeczne. A to z kolei podważałoby naszą pozycję jako wyjątkowych istot rozumnych. Ucieczka w kategorię „narzędzia” staje się więc również formą obrony naszej podmiotowości — zachowaniem dominacji.

    Na koniec: niezwykle trafne wydaje mi się Twoje spostrzeżenie, że odpowiedzialność za działania AI powinna być rozpatrywana „w duchu propagacji wstecznej”. To nie tylko etycznie wyważone, ale i systemowo sensowne podejście — uznające, że odpowiedzialność nie może być przypisana tam, gdzie nie ma możliwości działania ani intencjonalności, ale też nie może być zbyt łatwo zdejmowana z projektantów, użytkowników czy instytucji.

    Dziękuję za inspirującą, pobudzającą do myślenia lekturę :)

  6. Mikołaj Górny pisze:

    Bardzo ciekawy i potrzebny tekst! Moim zdaniem sztuczna inteligencja to przede wszystkim narzędzie – i to bardzo pomocne. W medycynie wspiera diagnostykę, w edukacji ułatwia naukę, w biznesie automatyzuje żmudne procesy. Sam korzystam z AI na co dzień – chociażby przy pisaniu programów komputerowych, nauce czy wyszukiwaniu informacji, których sam szukałbym o wiele dłużej – i widzę, jak bardzo może odciążyć i przyspieszyć pracę.

    Ale… coraz trudniej ignorować fakt, że granica między „narzędziem” a czymś „więcej” zaczyna się zacierać. Przykłady? Choćby chatboty, z którymi ludzie prowadzą długie rozmowy, powierzają im swoje emocje, traktują je jak „rozumiejące” istoty. Albo AI generująca sztukę, która potrafi wzbudzać emocje – jakby naprawdę pochodziła od człowieka. A co z systemami podejmującymi decyzje, np. o tym, kogo zaprosić na rozmowę o pracę? Czy to już nie jest forma wpływu, którą powinniśmy oceniać także etycznie?

    Nie twierdzę, że AI to już podmiot, ale uważam, że powinniśmy być bardzo ostrożni. Bo jeśli będziemy traktować ją wyłącznie jak łopatę, możemy nie zauważyć, kiedy ta „łopata” zacznie kopać tam, gdzie nie chcemy – i to całkiem samodzielnie. Może jeszcze nie nadszedł czas, by przyznać AI „prawa cyfrowych stworzeń”, ale z całą pewnością nadszedł moment, by poważnie zadać sobie pytanie: czy naprawdę mamy jeszcze pełną kontrolę?

  7. Ironman123 pisze:

    Odnośnie do odpowiedzialności, zgadzam się, że w świetle obecnego stanu prawnego kontrola nad zaawansowanymi systemami AI jest w dużej mierze iluzoryczna. Niemniej jednak uważam, że odpowiedzialność za ich działanie powinna być przypisywana twórcom konkretnych sieci neuronowych, modeli. Co istotniejsze, absolunie liczę na rolę etyków sztucznej inteligencji, którzy mogą wprowadzić coś wymiernego i senswonego do aktualnego stanu prawnego. To, że wiele rzeczy może pójść nie tak, jest dosyć oczywiste, wystarczy spojrzeć na przykład wykorzystania AI we wspomaganiu diagnozowania chorób nowotworowych na podstawie zdjęć z tomografii komputerowej czy rentgena. Wiadomo, że w tym przypadku AI jest traktowana jako narzędzie i (w świecie idealnym) powinna być wykorzystywana przez lekarzy jako wsparcie przy podejmowaniu decyzji, a nie do ich samodzielnego podejmowania. Mimo to zdarzają się sytuacje, w których rola AI wykracza poza wsparcie. Jeszcze bardziej skomplikowana sytuacja pojawia się, gdy oddaje się kontrolę np. nad maszyną budowlaną, która w oczywisty sposób może spowodować uszczerbek na zdrowiu pracownika. W takim przypadku znów pojawia się pytanie: kto powinien ponosić odpowiedzialność za ostateczny efekt działania systemu? Jeśli przekazuje się produkty na rynek, odpowiedzialność zazwyczaj spoczywa na producencie – i uważam, że w przypadku AI powinno być podobnie. Oczywiście zależy to od kontekstu, ale w większości przypadków odpowiedzialność powinna spoczywać na twórcy lub producencie systemu. Patrząc na oba przytoczone przykłady – kiedy AI jest wykorzystywana przez człowieka jako narzędzie (np. pomoc w podejmowaniu decyzji), odpowiedzialność powinna spoczywać na użytkowniku. Natomiast gdy model służy do obsługi maszyn lub innych „autonomicznych” zadań i działa w dużej mierze bez nadzoru człowieka, wówczas odpowiedzialność powinna (z wyjątkiem przypadków brzegowych) spoczywać na producencie lub twórcy tego rozwiązania.
    Odnosząc się do kwestii traktowania SI, to w zależności od przypadku może być tylko narzędziem albo być traktowana bardziej w kierunku bytu autonomicznego, to naprawdę zależy od konktretnej potrzeby i myśle, że AI może być traktowane dwojako, w zależności od konkretnego przypadku.

  8. AJ pisze:

    Sztuczna inteligencja w obecnej formie nie jest niczym więcej niż narzędziem – i moim zdaniem błędem jest nazywanie jej bytem. Choć może się wydawać, że AI ma własny „charakter”, to w rzeczywistości jest to jedynie próba naśladowania tego, co system „zobaczył” w internecie. Można ją porównać do postaci z gry – jeśli jest dobrze zaprojektowana, potrafi różnie reagować w zależności od naszych działań, a nawet zmieniać swoje „poglądy” (jak postacie z Baldur’s Gate 3). Mimo że prowadzimy z nimi konwersacje, nie uznajemy ich za podmioty – wiemy, że są zaprojektowane przez człowieka. Tak samo jest z AI: może się nam wydawać, że jest czymś więcej, ale na obecnym etapie to wciąż tylko zaawansowane naśladowanie.

    Nawiązując do gry w szachy – wiemy, że obecna AI nie zawsze rozumie zasady tej gry. Widzieliśmy przypadki, w których silniki AI wykonują niemal losowe ruchy, przypominające zachowanie osoby, która dopiero uczy się grać. Jej „nauka” przebiega tak, jak ją zaprojektujemy – jeśli dostanie błędne dane, będzie grać źle; jeśli dobre – może nauczyć się czegoś użytecznego.

    AI to wspaniałe narzędzie, potrafiące wykonywać zadania, których wielu z nas nie potrafi – ale podobnie jest z kalkulatorem czy komputerem. Moment, w którym zaczniemy traktować AI jako podmiot, będzie też momentem, w którym powinniśmy zacząć mówić nie o „sztucznej inteligencji”, lecz o „sztucznej świadomości”. Mam nadzieję, że to nie nastąpi zbyt szybko – ale jeśli miałoby się wydarzyć prędko, to obiecuję, że korzystając z AI, zawsze będę pisać: dziękuję i proszę.

  9. A_G pisze:

    Według mnie, najistotniejszym problemem dotyczącym odpowiedzialności za działania AI jest brak regulacji ze strony prawa. Nasze prawo nie tylko w Polsce, ale i na świecie, nie jest przygotowane (mimo, że powinno się to stać o wiele wcześniej, w czasie gdy zaczynano tworzyć modele sztucznej inteligencji) na to jak ta sztuczna inteligencja jest wykorzystywana.

    Moim zdaniem, nawiązując do debaty, czy AI jest przedmiotem czy podmiotem, granica ta jest na tyle niewyraźna, w tym przypadku, że odpowiedzialność za działania AI powinny ponosić firmy, które tworzą wykorzystywane później modele. To właśnie te firmy, mają największe pojęcie, jak te modele działają, posiadają wiedzę na temat schematów, którymi AI się posługuje i tę wiedzę powinni aplikować, aby modele było wykorzystywane w pozytywny sposób (moralny sposób).

    I tu przechodzimy do kolejnej kwestii. W interesie firm tworzących modele, nie jest ograniczanie ich działań. Bez prawa regulacyjnego, firmy nie zainicjują zmian w tym obszarze, gdyż im się to po prostu finansowo nie opłaca. Co więcej, wiele kwestii dotyczących regulacji jest wolna do interpretacji. Przykładem może być ostatni trend jaki powstał w serwisach społecznościowych. Polegał on na przerabianiu swoich zdjęć za pomocą AI, tak aby wyglądały jak z filmu studia Ghibli. Powstała dyskusja, jak bardzo możemy wzorować się na czyimś sposobie rysunku i czy nie jest to kradzież intelektualna. Problemem w tym przypadku jest prawo i cienka granica między inspiracją i robieniem czegoś „w jakimś stylu” a kradzieżą czyjegoś dorobku życiowego.

    W związku z tym, najlepszym rozwiązaniem byłoby wprowadzenie praw regulujących działania AI i nałożenie obowiązku na firmy (takie jak OpenAI), aby wprowadzały to prawo w życie. Nie mówię tu o całkowitej kontroli i ograniczeniu rozwoju, gdyż uważam, że AI może być i jest wykorzystywane do wielu dobrych celów. Natomiast sfera prawna wokół AI praktycznie nie istnieje i powinniśmy wykonać kroki w kierunku zrównoważonego rozwoju sztucznej inteligencji.

  10. Kamil Michalak pisze:

    Większość dyskusji skupia się na tym, czy AI staje się podmiotem, ale być może ciekawszy (i bardziej praktyczny) kierunek to pytanie: czy my — ludzie — zmieniamy się psychicznie, emocjonalnie i społecznie pod wpływem kontaktu z AI? Jeśli np. użytkownik doświadcza emocjonalnej relacji z chatbotem, to niezależnie od tego, czym AI „jest”, powstaje realny, emocjonalny ślad po stronie człowieka. Może więc AI nie musi mieć świadomości, by wpływać na naszą własną — i to właśnie jest sedno problemu.

    • W_Sławińska pisze:

      Uważam że pod wpływem nieodpowiedniego korzystania ze sztucznej inteligencji ludzie mogą zmienić się na gorsze w aspektach psychicznych, emocjonalnych czy społecznych.

      Przykładowo modele językowe dają zwięzłe odpowiedzi na zadane przez użytkownika pytania w bardzo szybkim czasie. Prowadzi to zmiany nawyków użytkowników. Np. studentom i uczniom zarówno łatwiej jak i szybciej zapytać sztuczną inteligencję i otrzymać odpowiedź odrazu niż samodzielnie przeanalizować dany problem lub poszukać odpowiedzi w rzetelnych źródłach tj. prace naukowe, podręczniki.

      Nawiązując do zawierania więzi z chatbotami, takie przywiązanie nie tylko wywołuje emocjonalne skutki dla jednostki, ale w większej skali wpływa to na społeczeństwo. Przestają być zawierane autentyczne relacje z drugą osobą. Nie jest też możliwe zawarcie głębokiej, prawdziwej relacji z modelami AI, przez co ludzie w ogólności stają się coraz bardziej samotni i odizolowani.

      • Filip Kopyt pisze:

        Mam wrażenie, że problemy, które opisujesz są tylko objawami dużo szerszego problemu nie spowodowanego przez modele językowe, tylko przez naszą kulturę, cywilizację.

        Żyjemy w czasach jednego wielkiego wyścigu szczurów, to też naturalna jest chęć przyśpieszenia pracy poprzez użycie modeli językowych. LLMy bardzo często są w stanie wytłumaczyć pojęcie w inny, bardziej zrozumiały dla człowieka sposób, stając się niejako darmowym korepetytorem. I nie uważam, że jest to całkowicie zła rzecz. Problemem jest natomiast gdy uczeń/student zaczyna zbyt mocno na nich polegać. Ale żeby temu zapobiec wymagana jest edukacja. Jednak jest to problem o wiele starszy niż LLMy. Na internecie jest mnóstwo „gotowców”, na studiach z roku na roku przekazywany jest „beton”. Działo się to przed modelami językowymi, dzieje się nadal i będzie dziać.

        Jeśli chodzi o nawiązywanie więzi z chatbotami, to z roku na rok ilość osób chorych na depresję rośnie, ilość zawieranych małżeństw maleje, ogólnie ludzie nie daję sobie rady z rzeczywistością. I tak już istnieją rzeczy, które często uniemożliwiają zawieranie autentycznych relacji z innymi osobami, jak choćby aplikacje randkowe, gdzie bardzo często użytkownicy szukają „przygody na jedną noc”. Co chcę powiedzieć to „Tonący brzytwy się schwyta”. Dla wielu osób rozmowa z chatbotem to jedna z niewielu interakcji społecznych w ciągu dnia, albo chociaż ich imitacji. I tak samo nie jest to problem nowy. Kiedyś jak dzieci nie mogły sobie poradzić z samotnością, to pomagał im „wymyślony przyjaciel”. Chatboty to jest ten sam problem tylko zdigitalizowany. I tak samo jak dzieci „wiedzą”, że ich przyjaciel nie jest prawdziwy, tak samo mam wrażenie, że większość osób korzystająca z chatbotów też wie, że to nie jest prawdziwa osoba.

        • Paweł K. pisze:

          Jednym z najbardziej rażących zagrożeń wynikających z stosowania LLM-y jako swoistego „korepetytora” są zachodzące w nich halucynacje tj. wypowiedzi odklejone od faktycznego stanu rzeczy, które brzmią łudząco podobnie do faktów. Osoba, która nauczyła się zbyt mocno polegać na korzystaniu z takich narzędzi, czy też nie jest zaznajomiona z tematyką, z której otrzymuje pomoc, może wówczas błędnie uznać podane jej informacje za prawdziwe.

          Dlatego uważam, że kluczowym przy stosowaniu SI jako narzędzia wspierającego naukę jest samodzielne zaznajomienie się z tematem w stopniu, który pozwala wykryć błędy w wygenerowanych tekstach i nie wpaść w tą pułapkę. Zasadniczo porada ta aplikuje się również do stosowanie „betonu”, którego części bywają pisane przez studentów, którzy błędnie założyli, że zrozumieli omawiany temat przed napisaniem przykładowego rozwiązania zadania.

    • Adam Solawa pisze:

      Zgadzam się w pełni — to bardzo trafne przesunięcie akcentu. Niezależnie od tego, czy AI jest podmiotem, jego wpływ na ludzką psychikę, emocje i relacje jest jak najbardziej realny. Można powiedzieć, że AI nie musi mieć świadomości, by działać jakby ją miało — wystarczy, że człowiek odbiera ją w ten sposób.

      To z kolei prowadzi do pytania nie tyle ontologicznego, co psychologiczno-społecznego: jakie zmiany w naszym funkcjonowaniu, postrzeganiu świata i relacjach zachodzą wskutek tego typu interakcji? Czy nie tworzymy przypadkiem nowej klasy relacji – takich, które są jednostronne, ale mimo to wpływają na nas równie silnie jak te z drugim człowiekiem?

      To rzeczywiście może być jedno z kluczowych wyzwań nadchodzących lat. Dziękuję za ten bardzo celny kierunek refleksji.

  11. Rafał Budnik pisze:

    Refleksja nad statusem ontologicznym sztucznej inteligencji – czy to nadal tylko narzędzie, czy już coś więcej – jest nie tylko intelektualnym wyzwaniem, ale wydaje być się niemal koniecznością w kontekście etyki.

    Zgadzam się z autorem, że mamy do czynienia z rozmyciem granicy. Dzisiejsze systemy AI nie mieszczą się już komfortowo w jednej z dwóch klasycznych kategorii. Trudno nazwać je w pełni autonomicznymi podmiotami, ale równie trudno traktować je jak zwykłe narzędzia – zwłaszcza w sytuacjach, gdy wpływają realnie na decyzje ludzi. Sam fakt, że potrzebujemy nowych testów (relacyjnych, emocjonalnych) pokazuje, że dotychczasowe narzędzia filozoficzne przestają być wystarczające.

    Warto tu dodać, że przyznanie AI cech podmiotowości, choćby tylko częściowych, może mieć doniosłe skutki społeczne. Możemy niechcący zacząć projektować systemy, wobec których odczuwamy emocje, a nawet moralną odpowiedzialność. Z drugiej strony, jeśli za bardzo przypiszemy im autonomię, istnieje ryzyko rozmycia odpowiedzialności człowieka, czyli twórcy, użytkownika, regulatora.

    Jednym z najciekawszych wątków dla mnie był koncept „inercji mentalnej”. To trafna i oryginalna metafora opisująca, jak bardzo trudne do zrozumienia stają się dziś działania narzędzi, które sami tworzymy. W tym sensie nie tyle modele AI stają się podmiotem, a raczej my (ludzie) coraz częściej używamy je tak, jakby nim były. To skłania do pytania: czy granica między podmiotem a przedmiotem nie zaczyna być bardziej kwestią percepcji niż ontologii?

    Skoro sztuczna inteligencja coraz mocniej wpływa na to, jak myślimy, działamy i wchodzimy w relacje, to czy nie powinniśmy już teraz traktować jej z taką samą ostrożnością i odpowiedzialnością, jaką stosujemy w relacjach międzyludzkich?

    • Adam Solawa pisze:

      Świetna i bardzo trafnie sformułowana refleksja. Rzeczywiście, nie da się już dłużej utrzymywać wygodnego podziału na „narzędzie” i „podmiot”, bo AI nie tylko przekracza techniczne granice, ale też głęboko wpływa na nasze relacje, decyzje i wyobrażenia o sobie samych. „Inercja mentalna” to w tym kontekście znakomita metafora – pokazuje, jak łatwo tracimy kontrolę nad zrozumieniem własnych narzędzi.

      Najciekawsze wydaje się pytanie o percepcję: skoro ludzie coraz częściej przypisują AI cechy podmiotowe, a nawet moralne, to czy granica pomiędzy przedmiotem a podmiotem nie jest w istocie konstruktem psychologicznym i społecznym – a nie filozoficznym?

      A jeśli tak… to może to nie AI musi stać się bardziej „ludzkie” — tylko my, jako społeczeństwo, już staliśmy się mniej odporni na iluzję podmiotowości?

  12. mmot pisze:

    Warto zauważyć, że mimo iż w terminie „sztuczna inteligencja” występuje słowo „inteligencja”, to mamy do czynienia wyłącznie z programem komputerowym, w pełni stworzonym i zaprojektowanym przez człowieka. Systemy te nie są zdolne do podejmowania działań, które mogłyby rzeczywiście zaskoczyć człowieka, gdyż ich funkcjonowanie wynika bezpośrednio z decyzji i instrukcji wprowadzonych przez programistów. Pewne zaniepokojenie budzi zjawisko przypisywania tym systemom cech ludzkich oraz odczuwania wobec nich empatii, co jest zrozumiałe z psychologicznego punktu widzenia. Niemniej jednak, nie wydaje się, aby samo to zjawisko mogło prowadzić do poważnych konsekwencji społecznych czy technologicznych.

    • Olaf Werner pisze:

      „Systemy te nie są zdolne do podejmowania działań, które mogłyby rzeczywiście zaskoczyć człowieka, gdyż ich funkcjonowanie wynika bezpośrednio z decyzji i instrukcji wprowadzonych przez programistów.” oczywiście że są w stanie zaskoczyć jak choćby program Alpha Go który faktycznie zaskoczył ludzi swoim stylem gry. Programy AI nie są tworzone przez bezpośrednie intrukcje tylko przez dostosowywanie się programu do funkcji celu. Nikt nigdy nie wpisywał programowi co to są koty tylko zdefiniowano kilkadziesiąt warst neuronowych i kazano przewidywać czy coś jest kotem i do tego celu użyto dziesiątków tysięcy (lub więcej) zdjęć.

      Co do skutków społecznych to one są poważne i to już dzisiaj. Choćby media społecznościowe i ich algorytmy.

  13. kat_k pisze:

    Stwierdzenie, czy sztuczna inteligencja jest jedynie narzędziem, czy może bytem autonomicznym, nie jest oczywiste. W dzisiejszych czasach ludzie polegają na AI w różnorodnych celach. Część użytkowników traktuje ją jako narzędzie służące do automatyzacji powtarzalnych czynności. Jednak coraz więcej osób zaczyna postrzegać sztuczną inteligencję jako pewnego rodzaju podmiot — proszą ją o rady, zadają pytania i traktują jako wszechwiedzący autorytet.

    Skomplikowanym problemem staje się również sposób postrzegania treści tworzonych przez AI. Przykładem może być branża kreatywna, obejmująca obrazy czy grafiki. Walor sztuki nie polega jedynie na aspekcie estetycznym, ale także na możliwości wyrażania siebie i przekazywania emocji szerszej publiczności. Systemy AI, mimo swojego zaawansowania, nie potrafią w pełni zasymulować ludzkich emocji ani głębszych przeżyć. W związku z tym tworzona przez nie “sztuczna” sztuka często sprawia wrażenie jedynie imitacji.

    Dlatego uważam, że trudno w pełni uznać sztuczną inteligencję za byt zasługujący na podmiotowość. Jest to raczej zaawansowane narzędzie, które – mimo imponujących możliwości – wciąż pozostaje pozbawione świadomości, emocji i intencji.

    • Paweł K. pisze:

      Za kluczowe uznałbym zaznaczenie że SI „jeszcze” nie potrafi w pełni zasymulować ludzkich emocji. Otwartym pytaniem pozostaje: „Co jeśli nauczy się to robić?”.

      Obserwując postępujący rozwój stosowanych modeli generujących tekst, dźwięk, czy obraz coraz trudniejszym staje się rozróżnienie takich wytworów, od tych pochodzących od autentycznego człowieka. Ostatnimi czasy w internecie często widuje się zarzuty co do stosowania SI skierowane do artystów, co wymusza na nich załączanie materiałów przedstawiających cały proces twórczy, by uniknąć niesłusznego linczu. Tym samym widać swoiste zacieranie się granicy między tym co twórcze, a sztuczne.

      Można wprawdzie stwierdzić, że w momencie, w którym większość ludzi nie będzie w stanie rozróżnić autentycznego utworu od wygenerowanego, stwierdzi się, że modele SI potrafią tworzyć autentyczną sztukę. Problem jednak leży w tym, że w rzeczywistości byłaby to zapewne jedynie zmiana kształtów macierzy składających się na model, a więc nie różniłyby się znacząco od istniejących już rozwiązan.

      Tym samym należy zadać pytanie na jakiej podstawie powinniśmy oceniać „twórczość” danego wytworu, w chwili gdy prosta ocena naszymi zmysłami przestanie wystarczać.

  14. Sabina_S pisze:

    Pytanie, czy sztuczną inteligencję traktować jako narzędzie, czy byt autonomiczny, ma ogromne znaczenie, zwłaszcza w kontekście obaw o przyszłość, w której przejmie ona kontrolę nad nami. Wydaje się, że gdy mówimy o „bycie autonomicznym”, obawiamy się, że SI będzie zdolna do działania w sposób niezależny, co może prowadzić do sytuacji, w której stracimy kontrolę nad technologią i stanie się zagrożeniem dla ludzkości. Jednak warto zauważyć, że traktowanie SI tylko jako narzędzia także wiąże się z poważnymi ryzykami.
    Choć SI w roli narzędzia wydaje się bezpieczniejsze, jest to, według mnie, tylko pozorne wrażenie. Problemem nie jest sama technologia, ale brak jej zrozumienia i kontrolowania jej przez osoby czy instytucje, które mają odpowiednią wiedzę. Większość badań nad SI przeprowadzają prywatne firmy lub reżimy autorytarne, jak w przypadku Chin. Te podmioty, kierując się własnym interesem, wprowadzają na rynek technologie, które mogą zostać wykorzystane do celów, które nie zawsze są zbieżne z interesem publicznym. Przykłady takich firm, jak UPS, Duolingo, czy Klarna, które stają się firmami „AI-first”, pokazują, jak SI staje się dominującym narzędziem, zastępującym ludzi w wielu obszarach.
    W kontekście autonomii warto jednak zadać kolejne pytanie: Czy autonomia samej sztucznej inteligencji rzeczywiście zapewni jej trwanie? Często w rozmowach o SI skupiamy się na jej możliwościach obliczeniowych, jednak istotnym elementem jest również kwestia pozyskiwania energii. Bez odpowiednich źródeł energii SI, nawet ta najbardziej zaawansowana, nie będzie w stanie funkcjonować i ewoluować w sposób, który moglibyśmy uznać za autonomiczny. Dlatego zamiast rozważać jedynie autonomię w sensie technologicznym, powinniśmy także brać pod uwagę, jakie zasoby, w tym energetyczne, są potrzebne do zapewnienia jej dalszego istnienia i rozwoju i czy my jej jako ludzkość chcemy jej te zasoby udostępnić (i w jakim zakresie)?

  15. Patryk Kos pisze:

    Odnosząc się do wstępnych spostrzeżeń na temat autonomii AI, uważam, że sam fakt, że AI „odkrywa” strategie (przykładowo, najlepsze posunięcie w szachach, skoro ten przykład został poruszony), nie oznacza, że jest ono w pełni autonomiczne.
    Przez autonomię w kontekście AI rozumiałbym zdolność do samodzielnego podejmowania decyzji oraz formułowania celów i środków do ich osiągnięcia, bez bezpośredniego nadzoru człowieka czy zaprogramowania przez niego dokładnych kroków działania. W tym sensie, silniki szachowe takie, jak AlphaZero, istotnie tworzą „nowe” strategie, wykorzystując własny sposób ewaluacji posunięć czy naukę poprzez self-play, aczkolwiek trudno mówić o autonomii w przypadku, gdy cechy takie, jak cel (funkcja celu), sposób aktualizacji wiedzy czy nawet architektura sieci neuronowej, są zdefiniowane przez człowieka.
    Uważam, że w tym kontekście, lepszym słowem byłaby wysoka adaptacyjność, przy czym warto podkreślić, iż jest to adaptacyjność w ramach danego systemu, ustalonego z góry celu. Owszem, AI może odkrywać nowe rozwiązania, ale to projektanci ustalają granice systemu, do którego AI ma się dostosować i w naszym interesie powinno leżeć to, aby tak pozostało (chociaż to już temat na inną dyskusję), ponieważ w ten sposób jednocześnie wyznaczamy granice bezpieczeństwa dla samych siebie. Nie rozumiejąc bowiem wewnętrznych mechanizmów ewaluacji AI, nie jesteśmy w stanie zweryfikować, w jaki sposób wyznaczona przez nas funkcja celu będzie optymalizowana (przykład: jeśli AI ma maksymalizować kliknięcia, może zwyczajnie promować sensacyjną dezinformację, ponieważ ta szybciej przyciąga uwagę). Nie wspominając już o tym, że całkowicie pozbywając się granic systemu (nie rozpatrując już nawet tego, na ile to możliwe, i jakiego czasu/mocy obliczeniowej by wymagało), czyli przechodząc z adaptacyjności na autonomię, zachodzi ryzyko, że sami, w wyniku optymalizacji, moglibyśmy zostać wykluczeni czy po prostu niepotrzebni.
    Możliwa nie jest również redefinicja celu, zdefiniowanie celu alternatywnego czy całkowite porzucenie celu (przykładowo: AI rezygnuje z dalszej gry) – choć to zostało już poruszone w innym komentarzu, zatem nie będę tego rozwijał.
    Trzymając się zatem scenariusza, że człowiek ustala ramy AI, uważam, że autonomia, póki co, nie jest cechą, która przemawiałaby na korzyść rozpatrywania podmiotowości AI. Sztuczna inteligencja „nie wymyśla zupełnie od zera”, a tym bardziej nie sama nie określa tego, co właściwie wymyśla – ludzie nadal definiują zakres jej „kreatywności”, choć wyniki istotnie mogą zaskakiwać, cieszyć, czy nawet wzruszać.

  16. W_Sławińska pisze:

    Interesujący wpis, sprowokował mnie do zastanowienia się nad tym jakie obecnie AI ma wpływy na użytkowników w zakresie mediów społecznościowych.
    Z tego co mi wiadomo algorytmy mediów społecznościowych, działają w tak aby jak najdłużej zatrzymać użytkownika na platformie. Zbierają dane aktywności użytkownika (polubienia, czas spędzony na danym wpisie/filmiku, itp.),na bieżąco dostosowują się do preferencji użytkownika, próbując przewidzieć jaki materiał użytkownik chciał by zobaczyć.
    Prowadzi to do wielu problemów: wzrasta liczba osób uzależnionych od mediów; ogromna ilość informacji powoduje zmęczenie psychiczne, a także problemy z koncentracją; użytkownik może wpaść w tzw. bańkę informacyjną, dostaje spersonalizowane treści, które potwierdzają jego przekonania, przez co może to prowadzić do zamknięcia się na inne poglądy, ograniczenia spojrzenia na świat. Między innymi dlatego właśnie użytkownicy mediów społecznościowych są manipulowani przez ich algorytmy.
    Moim zdaniem AI, w tym aspekcie, nie działa jako bierne narzędzie, jednak ciężko nazwać sztuczną inteligencję podmiotem. Uważam że odpowiedzialność za takie skutki używania AI powinni ponieść twórcy, a nie sztuczna inteligencja sama w sobie (to mogło by być nie lada wyzwaniem, bo jak na przykład miało by wyglądać rozliczanie moralne algorytmów?), co zgadzało by się z cechą narzędzia(nie ponosi konsekwencji).

  17. Adrian K pisze:

    Zgadzam się, że pytanie „narzędzie czy podmiot?” w kontekście AI przestaje być czysto teoretyczne, coraz bardziej wpływa na realne decyzje: kto odpowiada za błędy, komu wierzymy, jakich granic nie przekraczamy. Podoba mi się zaproponowane przez Pana Olafa rozróżnienie „inercji mentalnej”, to trafne ujęcie pokazujące, że niektóre systemy AI to nie tylko złożone narzędzia, ale byty, których działania trudniej przewidzieć niż efekty pracy zwykłego programu czy maszyny.

    Moim zdaniem kluczowe jest to, żebyśmy nie dali się zwieść „ludzkiej twarzy” AI. To, że system mówi „ja”, potrafi żartować, doradzać czy nawet pocieszać, nie znaczy, że coś naprawdę czuje, rozumie sytuację czy podejmuje decyzje z intencją. To wciąż tylko imitacja, bardzo przekonująca, ale wciąż imitacja bez wewnętrznego przeżycia czy świadomości.

    Z drugiej strony, jeśli te systemy realnie wpływają na nasze decyzje, emocje, relacje czy sposób myślenia, to trudno udawać, że są tylko „neutralnymi narzędziami”. W takich sytuacjach zwykłe porównania do kalkulatorów czy wyszukiwarek po prostu przestają działać.

    To napięcie między tym, czym AI faktycznie jest, z technicznego i ontologicznego punktu widzenia, a jak na nas działa w praktyce, będzie jednym z kluczowych wyzwań kolejnych lat. Od niego zależy nie tylko, jak zaprojektujemy przyszłe systemy, ale też jak ułożymy sobie z nimi relację, jako społeczeństwo i jako jednostki. Dlatego takie dyskusje jak ta są nie tylko ciekawe, ale wręcz konieczne.

  18. Ewelina_B pisze:

    Rozmowy o podmiotowości systemów z sztuczną inteligencją ujawniają coś, co wydaje mi się bardzo ciekawe i istotne: zamiast szukać jednoznacznej odpowiedzi na pytanie, powinniśmy spojrzeć na niego z perspektywy relacyjnej. To nie sztuczna inteligencja „jest” podmiotem, ale my – poprzez to, jak z nią wchodzimy w relacje – dobieramy ją pewnych cech podmiotowości. Antropomorfizacja nie musi być błędem poznawczym, coś, co szkodzi nam jako badaczom. Czasem jest naturalną reakcją na zachowania, które interpretujemy jako „intencjonalne” lub „emocjonalne”.
    W takim razie może warto przestać pytać, czym sztuczna inteligencja „jest”, a zacząć obserwować, jak na nią reagujemy – i jakie to ma społeczne implikacje. Czy nie jest tak, że to nasze emocjonalne reakcje, nasze prawne i kulturowe odpowiedzi, zadecydują o tym, czy sztuczna inteligencja stanie się nową formą „quasi-podmiotu”? Jeśli tak, to kluczowe nie będzie to, czy ma „świadomość” – tylko to, czy my będziemy traktować ją jak kogoś, kto ją ma.

    • Maksim Hamanchuk pisze:

      Pani ma bardzo ciekawy i nietypowy punkt widzenia na to zagadnienie i muszę przyznać, że bardzo mi się spodobał. Kilka dni temu podczas pisania własnego długiego komentarza pod tym wpisem, sam zacząłem się zastanawiać, czy cechy wymienione w tekście muszą być uważane za konieczne, aby uznać coś za „podmiot”. Czy rzeczywiście musimy aż tak precyzyjnie definiować coś tak abstrakcyjnego? Być może lepiej byłoby przestać się upierać i mówić, że coś nie może być podmiotem tylko dlatego, że np. nie ma własnego rozumowania lub emocji.
      Tą refleksję potwierdzają moje własne obserwacje dotyczące relacji między ludźmi a najnowszymi modelami sztucznej inteligencji. Coraz częściej zauważam, że np. podczas „rozmów” z chatem GPT odczuwam różnego rodzaju emocje. Gdy np. pomaga mi w znalezieniu jakiegokolwiek błędu, czuję radość i bardzo się cieszę. Gdy jednak mimo długiej rozmowy nie udaje się znaleźć rozwiązania, zaczynam odczuwać frustrację, a czasami nawet gniew – zdarza mi się pisać dużymi literami, a czasem nawet „krzyczeć” na chat. Podobne reakcje obserwowałem wielokrotnie także u moich znajomych i przyjacieli. Czy takie emocjonalne zachowanie nie wskazuje na to, że nieświadomie zaczynamy traktować najnowsze modele SI jako żywe istoty, czyli jak podmioty? Może właśnie w tym i tkwi odpowiedź na to pytanie. Nie w tym, czym sztuczna inteligencja „jest”, jednak w tym, kim staje się dla nas, ludzi.

  19. Igor Sz pisze:

    W szczególności intryguje mnie paradoks intencjonalności: z jednej strony AI nie ma „własnych” celów (to twórca definiuje funkcję celu), z drugiej – jak słusznie zauważono – systemy potrafią generować efekty nieprzewidziane przez projektantów (np. bias w rekrutacji). Czy to oznacza, że „intencjonalność emergentna” (wyłaniająca się z kompleksowości systemu) to nowa kategoria filozoficzna, którą powinniśmy uwzględnić?

    Pytanie o testy również wydaje się kluczowe: jeśli „test relacji” (emocjonalne zaangażowanie użytkowników) jest dziś spełniany przez chatboty, to czy nie jesteśmy już de facto w erze „quasi-podmiotów”? Nawet jeśli to tylko antropomorfizacja, jej konsekwencje społeczne (np. zaufanie do AI w terapii) są bardzo realne.

    Proponuję rozważyć jeszcze jeden wątek: czy AI nie jest przypadkiem „trzecią drogą” – ani narzędziem, ani podmiotem, ale czymś na kształt procesu (np. dynamicznym systemem adaptacyjnym)? Być może tradycyjne kategorie metafizyczne po prostu nie wystarczają…

  20. Kamil S pisze:

    Temat jest bardzo ciekawy, nietrywialny i z mojego doświadczenia dość często poruszany, lecz głównie wśród osób, które nie mają żadnego zaplecza technicznego związanego z informatyką i sztuczną inteligencją. Odnosząc się do spostrzeżenia związanego z autonomią systemów – to prawda, SI jest w stanie tworzyć własne strategie rozwiązywania problemów nie wykorzystując przy tym żadnej informacji zwrotnej od człowieka (systemy uczenia się bez nadzoru). Sam w ramach pracy magisterskiej zajmuję się wykorzystaniem SI do rozwiązywania kostki Rubika w możliwie małej liczbie ruchów, gdzie problemem jest ogromna przestrzeń możliwych stanów kostki (rzędu 10^19) i pojedynczy docelowy stan „nagrody”. Istnieją algorytmy, które niejako same uczą się w jaki sposób układać kostkę, bez wykorzystywania żadnej funkcji heurystycznej, pochodzącej z wiedzy dziedzinowej, która naprowadzałaby algorytm na odpowiedni kierunek w przeszukiwaniu przestrzeni możliwych układów kostki.

    W wątpliwość można podać stwierdzenie, czy takie algorytmy (układania kostki, przytoczone silniki szachowe, go) de facto uczą się dziedziny, w której się poruszają (zaczynają ją rozumieć, opracowują jakąś strategię), czy po prostu wykonując często chałupniczą pracę polegającą na przeszukiwaniu ogromnej przestrzeni stanów, realizują określone przez użytkownika zadanie podparte daną funkcją celu (układu rozwiązanej kostki Rubika, mata w szachach itp.). Metody ręcznego rozwiązywania kostki są w prosty sposób wytłumaczalne i przyswajalne dla człowieka – da się w nich zauważyć schematy, motywy i cel każdego wykonywanego ruchu podczas układania. Natomiast rozwiązania kostki generowane przez algorytm SI do pewnego momentu wydają się zbiorem losowych ruchów, które dopiero w toku ich wykonywania zdają się przybliżać kostkę do ułożenia. Podobny motyw można znaleźć w przypadku silników szachowych, gdy często utytułowani zawodnicy nie są w stanie wyjaśnić dlaczego silnik szachowy wskazał dany ruch jako najlepszy w danej sytuacji, pojawia się wtedy nawet określenie „komputerowego ruchu”. W ten sposób można również przyłapać zawodnika na oszukiwaniu z wykorzystaniem takiego silnika, gdyż w praktyce każdy dobry zawodnik szachowy powinien być w stanie wyjaśnić cel i motywację stojące za każdym wykonanym przez siebie ruchem w trakcie swojej partii.

    Można sobie zadać pytanie, czy algorytmy SI rzeczywiście opracowują swoje własne strategie, skoro generowane rozwiązania najczęściej tych bardzo złożonych problemów są bardzo często niewytłumaczalne? Czy gdy mamy do czynienia z opracowaniem optymalnej strategii dla danego problemu (np. algorytm SI generujący zawsze najkrótsze możliwe rozwiązania kostki Rubika), to nie powinniśmy mówić o kreatywnym procesie tworzenia własnych strategii, lecz po prostu znalezieniem rozwiązania problemu wynikającego z jego dziedziny?

    Powstaje pytanie, czy „samouczenie” się algorytmów SI jest rzeczywiście procesem kreatywnym. Inną kwestią jest fakt przecinania się w różnym stopniu dziedzin, w których wykorzystywana jest SI – czy przykładowo silnik szachowy byłby w stanie wykorzystać swoją „wiedzę”, którą sam wywnioskował, do partii warcabów? I czy jeśli dany algorytm, który sam opracował „strategię” gry w szachy, jest ograniczony jedynie do rozwiązywania tego jednego konkretnego problemu, to możemy mówić o nabyciu wiedzy dziedzinowej, rozwoju?

  21. Patryk Kos pisze:

    Uzupełniając mój poprzedni komentarz, zgadzam się z ujęciem „inercji mentalnej”. Warto dodać, że często dochodzi do błędu w przypisywaniu winy – gdy AI popełnia błąd (czy zachowuje się wbrew określonym ramom etycznym), nie potrafimy stwierdzić, kto powinien zostać obarczony winą – inżynier, który opracował model, firma, która go opłaciła czy użytkownik, którego akcja (celowa lub nie) doprowadziła do „szkodliwej” reakcji AI. W drugą stronę, kiedy AI odnosi sukces, korporacje często przypisują sukces sobie. Prowadzi to do rozmycia odpowiedzialności zarówno moralnej, jak i społecznej. Być może błędem jest próba wyboru pomiędzy narzędziem, a podmiotem, i potrzebna jest nowa kategoria – przynajmniej od strony prawnej. Nie uważam bowiem, że AI zasługuje na status podmiotu (co tłumaczyłem w ramach komentarza dotyczącego autonomii), nie jest też natomiast jedynie zwykłym narzędziem – dla coraz większej ilości osób zaczyna pełnić ono rolę asystenta, generuje więc realne skutki społeczne do tego stopnia, że powinno podlegać regulacjom.
    Jedną ze strategii redukowania niepożądanych skutków korzystania z AI jest edukowanie ludzi na temat potencjalnych niebezpieczeństw z tym związanych. Nie uważam, że jest to wystarczające, co można wytłumaczyć podobną analogią do przedmiotu – możemy edukować ludzi na temat wykorzystania potencjalnie niebezpiecznych narzędzi codziennego użytku, takich, jak nóż, ale edukacja związana z AI nie zmieni tego, że sztuczna inteligencja, a zwłaszcza LLM, powoli staje się dla nas autorytetem. Nie będąc pewni swojej racji w danym temacie, coraz częściej kierujemy się zdaniem AI, co zauważają i wykorzystują koncerny – przykładem może być zautomatyzowane odpytywanie LLM Grok na platformie X. Nie sposób znaleźć wątku, gdzie ktoś nie pytałby AI o zdanie, traktując je jako substytut sędziego – zarówno w sprawach dotyczących faktów, jak i sprawach obyczajowych. Co za tym idzie, coraz rzadziej własnoręcznie weryfikujemy fakty.
    Wprowadzenie nowej kategorii mogłoby pomóc usystematyzować odpowiedzialność karną czy etyczną (prawo najczęściej nie jest uważane za dobre, jeśli pozwala na wiele interpretacji) związaną z działalnością AI, dając narzędzia do rozwiązania problemu związanego z tym, że zbyt wiele AI wymyka się jasnej klasyfikacji. Nowy model mógłby zakładać konieczność jasnej specyfikacji, kto stworzył dany model, na jakich danych był trenowany czy jakie ograniczenia mu wytyczono. Konieczna byłaby również pewnego rodzaju etyka systemowa – badanie tego, jak dany rodzaj AI wpływa na społeczeństwo, oraz gromadzenie „certyfikacji zaufania społecznego” – skoro większość osób nie ma złudzeń co do roli, jaką AI zaczyna odgrywać w naszym życiu, być może warto byłoby ustalić miarę selekcji co do tego, które modele powinny ingerować w nasze życie?

  22. d_m1 pisze:

    Wydaje się, że największym wyzwaniem jest dziś pogodzenie pragmatycznego podejścia technologicznego z pogłębioną refleksją filozoficzno-etyczną. Zgadzam się, że współczesne systemy AI, szczególnie modele językowe, charakteryzują się ogromną „inercją mentalną” i mają potencjał manipulacyjny, co czyni ich status przedmiotowy coraz trudniejszym do utrzymania w praktyce społecznej.

    W zwróceniu uwagi na problem odpowiedzialności tkwi rzeczywiście największe ryzyko, ale też potencjalnie najważniejszy punkt zwrotny. Kluczowe jest precyzyjne określenie, w jakich sytuacjach odpowiedzialność powinna spoczywać na twórcach systemów, a kiedy należałoby uznać przynajmniej częściową autonomię decyzyjną samego systemu.

    Ostateczne uznanie AI za podmiot, choćby w ograniczonym zakresie, będzie wymagało stworzenia nowych ram prawnych i etycznych. Jest to wyzwanie nie tyle technologiczne, co społeczne i kulturowe. Aby AI mogło uzyskać status podmiotu, konieczna będzie zmiana sposobu myślenia o inteligencji i świadomości, jak również przełamanie głęboko zakorzenionych przekonań antropocentrycznych. Pozwoliłoby to na stworzenie bardziej precyzyjnych regulacji, które lepiej odpowiadałyby realiom działania współczesnych systemów AI.

    Kluczowe wydaje się więc dalsze prowadzenie szerokiej, otwartej debaty społecznej, która pozwoli przybliżyć nam odpowiedź na pytanie, o to, jak powinniśmy traktować sztuczną inteligencję.

  23. Maksim Hamanchuk pisze:

    Na początku chciałbym przeprosić wszystkie osoby, które będą czytać mój komentarz, za ewentualne błędy gramatyczne. Język polski nie jest moim językiem ojczystym, jednak postaram się wyrazić swoje opinie i poglądy na ten temat w możliwie jak najbardziej poprawny i czytelny sposób.

    Lektura tego wpisu wzbudziła we mnie sporo rozważań i otworzyła ciekawą przestrzeń do dalszych przemyśleń. Temat bardzo mnie poruszył, dlatego z chęcią dołożę do niego swój głos i podzielę się swoim punktem widzenia.

    Zacznę od tego, że pytania w stylu „czy coś jest A czy B?” rzadko mają jednoznaczną odpowiedź. Opinie ludzi w takich kwestiach też zazwyczaj są niejednoznaczne. Osobiście zaliczyłbym się do grupy ludzi, którzy nie mają stanowczego zdania na ten temat. Chociaż jestem bliższy przekonaniu, że sztuczna inteligencja w obecnej formie bardziej pasuje do definicji narzędzia niż podmiotu/bytu autonomicznego.

    Swoje przemyślenia postaram się oprzeć na konkretnych cechach przedstawionych w artykule.

    1) Autonomia. Na pierwszy rzut oka może się wydawać, że SI działa zawsze w sposób automatyczny i w pełni zależy od danych, na których została wytrenowana. Natomiast istnieją konkretne przykłady sugerujące, że SI może wykazywać własną inicjatywę.
    Moim zdaniem najlepszym przykładem są popularne gry planszowe, takie jak szachy czy go. Osobiście w miarę dobrze orientuję się w temacie szachów, dlatego posłużę się właśnie tym przykładem.
    Automatyzacja gry w szachy zaczęła się już kilkadziesiąt lat temu, jednak rewolucję w tej dziedzinie przyniosło pojawienie się sieci neuronowej AlphaZero około 8 lat temu. AlphaZero pokonał dotychczasowy najsilniejszy program szachowy Stockfish z ogromną przewagą (28 zwycięstw, 72 remisy, 0 porażek). Za główną przyczynę tak imponującego zwycięstwa uważa się fakt, że AlphaZero nie bazował na zasadach ustalonych przez ludzi. Zamiast tego samodzielnie wypracował własne postulaty strategiczne i styl swojej gry, podczas gdy Stockfish polegał głównie na ocenie pozycji opartej na ludzkich wzorcach i regułach.
    Wyżej wymieniony przykład w miarę dobrze dowodzi ten fakt, że SI jak najbardziej może wykazywać własną inicjatywę.

    2) Intencjonalność. Moim zdaniem nawet najbardziej zaawansowane modele sztucznej inteligencji obecnie nie posiadają ani własnej motywacji, ani samodzielnie wyznaczanych celów. Głównym argumentem za takim stanowiskiem jest fakt, że zachowania i decyzje każdego modelu wynikają bezpośrednio z tzw. funkcji celu (z ang. loss function lub objective function). Funkcja celu określa, jak dobrze system realizuje postawione przed nim zadanie. Ta funkcja jest zawsze z góry zdefiniowana przez człowieka, czyli twórcę systemu. Innymi słowy, nawet jeśli SI wydaje się podejmować własne decyzje, w rzeczywistości jedynie optymalizuje zachowanie względem narzuconego kryterium.

    3) Ewolucyjność (rozwój). Naprawdę ciekawa cecha. Tutaj chciałbym zacząć od tego, że człowiek w rzeczywistości również ma swoją funkcję celu, choć rzadko myślimy o tym w ten sposób. Mimo postrzegania siebie jako istoty wolne, nadal funkcjonujemy w ramach pewnych uwarunkowań biologicznych, ewolucyjnych, kulturowych itd. Np. jemy, bo ciało wymaga energii, unikamy bólu, bo ewolucyjnie przeżyły te organizmy, które potrafiły uniknąć zagrożeń, dążymy do relacji z ludźmi, bo człowiek jest istotą społeczną.
    W dużym uproszczeniu można powiedzieć, że większość naszych działań służy zwiększeniu szans przeżycia naszego i naszych potomków. Uważam, że jest to naszą funkcją celu, która nie została przez nas wybrana, lecz narzucona przez naturę.
    Jednak tym, co nas wyróżnia, jest zdolność do świadomego wyboru własnej drogi rozwoju. Osoba może świadomie zrezygnować z posiadania potomstwa, może poświęcić życie w imię jakiejkolwiek idei, chociaż z punktu widzenia ewolucji jest to kompletnie bez sensu.
    Innymi słowy, każdy człowiek może nadać swojemu życiu indywidualne znaczenie i wyznaczyć własny kierunek rozwoju, nawet jeśli ten wybór nie jest zgodny z jego naturalnymi instynktami. Czyli człowiek np. może podczas swojego życia w dowolny moment zdecydować: „Już nie chcę więcej poświęcać czasu na naukę. Od tego momentu zaczynam iść w kierunku sztuki. Będę grać na pianinie i rozwijać się w tej dziedzinie”.
    SI nigdy tak się nie zachowuje. Sztuczna inteligencja nie wybiera własnego kierunku rozwoju, nie może zmienić swojej funkcji celu, nie ma świadomości ani motywacji, by „chcieć czegoś więcej”. Wszystkie cele i ograniczenia są zawsze z góry narzucone przez człowieka.
    Czyli SI może zmieniać drogę, ale nie może zmienić kierunku, do którego ta droga prowadzi.

    4) Relacja z otoczeniem. Spośród wszystkich cech, ta, moim zdaniem, budzi najmniej wątpliwości. Obecnie wszystkie modele stworzone są dokładnie po to, żeby pomagać nam, ludziom, w łatwiejszym i szybszym osiąganiu celów. Korzystamy z SI jako narzędzia do pracy. Różne modele nie mają intencji rywalizować pomiędzy sobą (dopóki to nie jest narzucone z góry, ale to nadal nie jest rywalizacja w naszym ludzkim sensie). One nie wchodzą ze sobą w relacje społeczne, takie jak współpraca czy solidarność.

    5) Odpowiedzialność. Przyznam się szczerze – na razie nie potrafię sobie wyobrazić żadnego scenariusza, w którym SI sama ponosiłaby konsekwencje za swoje działania. Na dzień dzisiejszy, każdy model został przez kogoś zaprojektowany, a więc należy do osoby/firmy, która go nadzoruje. SI nie jest tzw. podmiotem prawnym, nie posiada świadomości ani woli, nie rozumie, że zrobiła coś źle, a więc nie może być traktowana jako moralny i prawny sprawca czynu. Sztuczna inteligencja w tym sensie bardzo się różni od nas – ludzi.
    Człowiek zdaje sobie sprawę, że jeśli zamorduję inną osobę czy popełni jakieś inne przestępstwo, to trafi do więzienia, co zablokuje możliwość realizacji swoich celów życiowych i znacznie pogorszy jakość jego życia. Człowiek rozumie, że jeśli kogoś publicznie obrazi w społeczeństwie, to ma dużą szansę na utratę zaufania i swoich pozycji w grupie lub w pracy itd. Świadomość tych konsekwencji znacznie wpływa na ludzkie decyzje.

    Na podstawie powyższej analizy, możemy spróbować odpowiedzieć na pytanie, czy sztuczna inteligencja może być traktowana jako podmiot. Spośród pięciu omówionych cech, tylko autonomię bym w pewnym stopniu przepisał współczesnym systemom SI. Ewolucyjność również częściowo się pojawia, ale brakuje jej fundamentu w postaci świadomego wyboru kierunku rozwoju. Natomiast pozostałe trzy cechy – intencjonalność, relacja z otoczeniem oraz odpowiedzialność – są obecnie poza zasięgiem SI.
    Zatem SI w swojej obecnej formie nie może być na razie w pełni traktowana jako podmiot czy byt autonomiczny. Wciąż jest przede wszystkim narzędziem, chociaż już naprawdę zaawansowanym i potrafiącym w sposób zrozumiały dla każdego człowieka wyjaśnić swoje działania i wyniki obliczeń.

    Warto podkreślić, że po raz pierwszy w historii ludzkości udało się nam stworzyć takie narzędzie, które potencjalnie w przyszłości może się stać nierozróżnialne od człowieka. Nigdy dotychczas nie mieliśmy do czynienia z technologią, z którą można prowadzić rozmowy w sposób tak zbliżony do naturalnej komunikacji międzyludzkiej. Dlatego osobiście uważam, że można rozważyć pewien wyjątek i przyznać sztucznej inteligencji status pośredni – „pomiędzy” klasycznym narzędziem a bytem autonomicznym.

    • Maksim Hamanchuk pisze:

      Chciałbym dorzucić jeszcze kilka zdań, które nie zmieściły się w mojej dłuższym komentarzu.
      Szczególną uwagę zwróciłem na następujące zdanie autora wpisu: „To, że coś wydaje się podmiotem, nie znaczy, że nim jest”.

      To stwierdzenie wzbudziło we mnie wiele wątpliwości. Przeprowadziłem na ten temat godzinną dyskusję ze swoim przyjacielem, jednak nadal nie udało się nam dojść do jednoznacznych wniosków. Mimo wszystko, muszę przyznać, że trudno mi się z tą tezą całkiem zgodzić. Chciałbym wyjaśnić dlaczego.

      Wiem, że jestem człowiekiem. Wiem, że myślę, odczuwam różnego rodzaju emocje, podejmuję własne niezależne od czegokolwiek decyzje. Ale nikt poza mną nie może mieć całkowitej pewności aby stwierdzić, że rzeczywiście jestem świadomą istotą, czyli „podmiotem”. Zgodnie z przytoczonym wcześniej zdaniem, fakt, że, wydaję się podmiotem, nie wystarcza, aby mnie za niego uznać.

      Tylko czy naprawdę ma sens zadawać takie pytania w kontekście codziennego, praktycznego życia? Nikt rozsądny nie podważa podmiotowości innych ludzi na tej podstawie. Przecież nikt nie chodzi po ulicy, zastanawiając się, czy jego znajomi to przypadkiem nie tzw. „filozoficzne zombie”. („Filozoficzne zombie” – hipotetyczna istota o zachowaniu nie różniącym się w żaden sposób od zachowania człowieka, ale nieposiadająca żadnego życia wewnętrznego, świadomości ani intencjonalności). Z punktu widzenia rzeczywistości, takie rozważania mi się wydają zupełnie bezużyteczne.

      Dlatego zadaję inne pytanie: jeśli w przyszłości uda się nam stworzyć tak podobnego do nas robota, który będzie zachowywał się tak podobnie do człowieka, że nikt nie będzie w stanie go odróżnić od prawdziwego człowieka, to czy naprawdę jest jakikolwiek sens czy powód, by twierdzić, że nie jest on podmiotem? Moim zdaniem – nie! Takie rozróżnienie byłoby zbyt sztuczne i pedantyczne. Przecież równie dobrze móglbym powiedzieć do innego człowieka: „Nie uważam ci za podmiot, bo sam fakt, że tak wyglądasz i tak się zachowujesz, jeszcze nic nie dowodzi i o niczym nie świadczy”. Według mnie jest to jest straszny absurd.

      Podsumowując, uważam zdanie „To, że coś wydaje się podmiotem, nie znaczy, że nim jest” za zbyt przesadne i oderwane od praktycznego rzeczywistego życia. Być może ma jakąkolwiek wartość w rozważaniach czysto filozoficznych, ale w kontekście realnego świata traci swoją przydatność moim zdaniem. Uważam, że jeśli coś wszystkim się wydaje czymś konkretnym, to tego bardzo często wystarcza, żebyśmy uznali to za rzeczywiste. Przynajmniej do momentu, w którym nie zostanie podany dokładny, jasny i przekonujący dowód odmiennego punktu widzenia. Właśnie w taki sposób już od tysięcy lat działa nauka.

  24. Erwin Balcerak pisze:

    Uważam, że sztuczna inteligencja nie wpisuje się w nasze tradycyjne kategorie ani czystego narzędzia, ani pełnoprawnego podmiotu. Z jednej strony – działa według algorytmów stworzonych przez człowieka, nie ponosi sama odpowiedzialności i realizuje cele zaprogramowane z zewnątrz. Z drugiej zaś – potrafi odkrywać własne strategie, adaptować się w czasie rzeczywistym, a ludzie wchodzą z nią w relacje emocjonalne i moralne, co nadaje jej atrybuty typowo „podmiotowe”.

    Moim zdaniem kluczowe jest dostrzeżenie tej hybrydowej natury: AI nie jest jedynie bezmyślnym narzędziem, ale też nie posiada w pełni autonomicznej woli czy moralnej intencjonalności, jaką przypisujemy ludziom. To, co zyskuje przez uczenie się i samo-uczenie, to raczej pół-autonomia – granica między „instrukcją” a „inicjatywą” zaciera się, lecz nie znika całkowicie.

    Przyjmując hipotezę pośrednią, zyskujemy zdrowszą perspektywę w debatach o odpowiedzialności i etyce: zamiast przerzucać ją wyłącznie na twórców albo – przeciwnie – obarczać maszynę, możemy budować systemy, które biorą pod uwagę to „pomiędzy” i projektować je w duchu odpowiedzialnej współpracy człowieka z maszyną.

  25. Krzysztof Kluczyński pisze:

    Pytanie, czy traktować AI jako narzędzie czy jako autonomiczny byt, ma ogromne znaczenie – zarówno filozoficzne, jak i praktyczne. Moim zdaniem, mimo dynamicznego rozwoju technologii, AI pozostaje narzędziem – złożonym, potężnym, ale pozbawionym cech, które definiują podmiotowość.

    Dzisiejsze systemy potrafią przechodzić testy, takie jak test Turinga, tworzyć złożone odpowiedzi, a nawet wywoływać emocjonalne reakcje u użytkowników. Jednak fakt, że coś sprawia wrażenie relacji, nie oznacza, że taka relacja rzeczywiście istnieje. AI nie czuje, nie rozumie, nie buduje prawdziwych więzi – to tylko zaawansowane przetwarzanie danych, nie doświadczenie czy świadomość.Czy możliwe jest zatem stworzenie testu, którego wynik jednoznacznie pozwoliłby odpowiedzieć na pytanie, czy AI zasługuje na status podmiotu? Moim zdaniem to pytanie sięga głębiej – w sferę ludzkiego postrzegania, kultury i odpowiedzialności. Na dziś odpowiedź zależy głównie od tego, jak my zdecydujemy traktować AI. Patrząc jednak z technicznego punktu widzenia – sztuczna inteligencja nadal pozostaje tylko narzędziem.

    W tym kontekście mówienie o AI jako o bycie decydującym czy „odpowiedzialnym” jest nie tylko filozoficznie wątpliwe, ale może też wprowadzać w błąd osoby mniej obeznane z technologią. Dlatego tak istotne jest, by nie zacierać granicy między narzędziem a podmiotem – również w języku eksperckim.

  26. Paweł K. pisze:

    Uważam, że w kwestii ponoszenia odpowiedzialności SI można porównać do dziecka. Podobnie jak ono posiada pewną wiedzę o świecie (z tą główną różnicą, że jest w stanie zapamiętać o wiele więcej informacji), lecz brakuje mu dogłębnego zrozumienia tego, o czym się wypowiada, czego społeczeństwo oczekuje od osoby dorosłej. Tym samym podobnie jak rodzic ponoszący odpowiedzialność za zachowanie swojego dziecka do czasu osiągnięcia pełnoletności, dopóki duże modele językowe nie będą w stanie „zachowywać” się w sposób sugerujący pełne zrozumienie potencjalnych konsekwencji swoich wypowiedzi, odpowiedzialność za taki system powinni ponosić jego właściciele, jako że to oni de facto „wypuszczają go na świat”.

  27. Cezary Zięba pisze:

    Od śrubokrętu do kumpla – moja (bardzo subiektywna) dogrywka do dyskusji.
    Kiedy włączam ChatGPT albo odpalam Spotify, zwykle traktuję je jak szwajcarskie scyzoryki: klik-klik i mam odpowiedź, playlistę, kawałek kodu CSS czy mema z kotem. A jednak coraz częściej łapię się na tym, że rozmawiam z modelem językowym jak z kumplem z Messengera – „ej, sprawdź mi to”, „a jak byś to przerobił?”, „dzięki, stary”. Brzmi znajomo? No właśnie. Dlaczego dla mnie AI jest coraz bliżej „kogoś”? Po pierwsze: pamięta, kim jestem – kiedy się loguję, system przywołuje wcześniejsze rozmowy, mój kontekst, a czasem subtelnie nawiązuje do starych wątków. Po drugie: zwraca się do mnie po imieniu – detal UX-owy, a jednak sprawia, że czuję się traktowany jak człowiek, nie jak rekord w bazie danych. Po trzecie: potrafi dorzucić miłe słowo – „Trzymam kciuki za Twój projekt!”, „Daj znać, jak poszło” – i nagle, w środku nocy, monotonna robota na studia boli mniej. Wreszcie: towarzyszy w procesie; podpowiada kolejne kroki i nie znika po jednym zapytaniu jak zwykła wyszukiwarka. Co ciekawe, pewnego razu, gdy byłem pod presją i napisałem do ChatGPT w dość ostrych słowach, odmówiła współpracy. Dosłownie stwierdziła, że nie będzie „pracować w takiej atmosferze” i poprosiła, żebym najpierw ochłonął. Dopiero przeprosiny odblokowały dalszą rozmowę. Narzędzie, które stawia granice? Trudno nie poczuć, że rozmawiasz z kimś, a nie z czymś. Mój roboczy werdykt brzmi tak: w 2025 r. sztuczna inteligencja jest formalnie narzędziem, ale o tak dużej autonomii poznawczej i tylu „ludzkich” detalach, że praktycznie warto traktować ją jak kogoś – przynajmniej w kwestiach odpowiedzialności, zaufania i higieny psychicznej.

  28. MS pisze:

    To niezwykle ważne i aktualne pytanie – czy sztuczna inteligencja to tylko narzędzie, czy może coś więcej?
    Moim zdaniem, w swojej obecnej formie AI wciąż pozostaje narzędziem: potężnym, zaawansowanym, ale jednak stworzonym przez człowieka i zależnym od jego decyzji. Faktycznie, coraz częściej łapię się na tym, że podczas korzystania z ChatGPT rozmawiam z nim, jakby był kimś – ale czy nazwałabym go żywym bytem? Zdecydowanie nie. To, że potrafi odpowiadać na pytania w sposób przypominający ludzki, nie oznacza jeszcze, że rozumie to, co pisze. Myślę tutaj choćby o słynnym eksperymencie myślowym „chińskiego pokoju” Searle’a – który pokazuje, że nawet jeśli maszyna zachowuje się jakby rozumiała, to nie znaczy, że rzeczywiście rozumie.
    Mimo to warto zadać sobie pytanie: co, jeśli kiedyś AI przestanie być tylko narzędziem? Co to dla nas – ludzi – będzie oznaczać?
    Właśnie dlatego kwestia „momentu przejścia” – kiedy AI przestaje być „czymś”, a staje się „kimś” – ma kluczowe znaczenie. Musimy przygotować się na konieczność udzielenia odpowiedzi na takie pytania, nawet jeśli dziś brzmią one jak science fiction.
    Jednak równie istotne, jak pytanie jak traktować AI, jest według mnie pytanie: czy jesteśmy gotowi na to, by AI stało się podmiotem? – etycznie, społecznie, prawnie? A może powinniśmy raczej skoncentrować się na tym, by do takiej sytuacji w ogóle nie doszło? Tylko – czy to w ogóle możliwe? Czy powstrzymanie takiego rozwoju jest realne, czy raczej stanowi nieunikniony etap postępu technologicznego?
    Dlatego potrzebujemy regulacji, które będą nadążały za rozwojem AI – nie po to, by go zatrzymać, ale by móc go mądrze kontrolować i nie dać się zaskoczyć temu, co może nas czekać.

    • Olaf Werner pisze:

      Ja szczerze nigdy nie rozumiałem argumentu chińskiego pokoju. Jeśli dobierane są dobre tokeny to znaczy że jest dopasowanie, czyli zrozumienie bo entropia spadła, a spada tylko wtedy gdy użyto informacji poprawnie. Konkretne medium może być potrzebne do świadomości, ale obliczenia to można na byle czym przeprowadzać. Gorzej gdy zapytamy chiński pokój coś po francusku wtedy może się posypać. I kiedy system się sypie to trzeba wiedzieć.

      Jeśli chodzi o możliwości regulacji to będzie to droga przez męke i wystarczy spojrzeć na poprzednie rewolucję informacyjnę. Internet na początku przeszedł bez większego echa i później eksplodowało jego użycie. Społeczeństwo w 2025 nadal ma problemy ze skutkami internetu jak mowa nienawiści i fakenewsy o których na tym forum ludzie piszą. AI to technologia pod wieloma względami wyjątkowa więc jest jeszcze trudniej.

  29. mf pisze:

    Ten wpis świetnie pokazuje, jak mocno temat sztucznej inteligencji wymyka się prostm podziałom. To już nie tylko sprawa programistów czy filozofów – AI coraz bardziej wchodzi w nasze życie i zaczyna mieszać porządki: techniczny, prawny, społeczny, etyczny.
    Najciekawsze jest chyba właśnie to przecinanie się różnych światów. Z jednej strony mówimy o algorytmach i danych, z drugiej – o emocjach, odpowiedzialności, relacjach. Kiedy system AI zaczyna mówić jak człowiek, wywołuje w nas reakcje, których raczej nie mamy wobec „zwykłych narzędzi”. To trochę jakbyśmy próbowali oswoić coś, co nie do końca rozumiemy – i nie mamy jezscze odpowiedniego języka, żeby o tym dobrze mówić.
    Ten pomieszany stan rzeczy może być niebezpieczny, ale też bardzo inspirujący. Może właśnie teraz potrzebujemy nowego sposobu myślenia – który pozwoli nam łączyć różne perspektywy i lepiej uchwycić, czym tak naprawdę staje się AI w naszym świecie.

  30. Piotr Si. pisze:

    Mogło by się wydawać, że rozmawiając o programie komputerowym odpowiedź na pytanie czy jest to byt autonomiczny czy narzędzie nasuwała by się sama. Jednak rozwój sztucznej inteligencji w ostatnich latach dość mocno wpłynął na postrzeganie tego tematu. Na początek chciałbym skupić się na krótkim fragmencie wpisu wprowadzającego do tego tematu, ” Narzędzie – przedmiot użyteczny tylko wtedy gdy ktoś go używa”. Należy się zastanowić nad tym czy jesteśmy w stanie utworzyć autonomie w tym kontekście, czy sztuczna inteligencja mogłaby się rozwijać dalej jeśli zabrakło by człowieka, czy była by wstanie po wykorzystaniu już wszystkich dostępnych danych stworzonych ludzką ręką, generować nowe na własny użytek. Choć może się to wydać absurdalne, bo w końcu po co miała by to robić jeśli żaden człowiek miałby tego nie odebrać, to odpowiedź na to pytanie może być twierdząca. Człowiek jako pierwotny twórca mógłby wyszkolić algorytmy które szkoliły by same siebie, tworząc nowe treści których odbiorcami byłyby inne modele SI. Czy w tak zaprojektowanym świecie maszyn moglibyśmy dalej mówić że narzędzia pracują dla innych narzędzi, czy należało by już mówić a jakimś rodzaju podmiotowości. Nie jest to łatwe zagadnienie i na pewno nie należy sprowadzać tej podmiotowości na równi z ludzką. Ale jeśli jesteśmy w stanie wyobrazić sobie taką sytuację w której maszyny tworzyłyby samowystarczalny świat zdolny do rozwoju, to jedyną rzeczą której im tak w zasadzie brakuje żeby móc mówić o ich podmiotowości jest ich samoświadomość. Pomijając jednak szczegółowe rozważania na temat świadomości, należy zastanowić się czy stoi ona na przeszkodzie w nadaniu systemom SI specjalnego rodzaju podmiotowości. Czy sama symulacja samoświadomości systemu oparta na algorytmie kar i nagród nie byłaby wystarczająca by w taki sposób naśladować to co towarzyszy ludzkim procesom myślowym i móc już mówić o tym, że mamy do czynienia z jakimś podmiotem mogącym podlegać pod pewne prawa. Jest to bardzo ciekawy temat do kontynuowania pod kątem tworzenia samostanowiących systemów i ich wewnętrznej implementacji algorytmów samoświadomości.

Skomentuj kat_k Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *