Narzędzie czy byt autonomiczny? Przedmiot czy podmiot?
Jak powinniśmy traktować sztuczną inteligencję?

Obecny wpis publikuję w imieniu Pana Olafa Wernera, doktoranta na Wydziale Matematyki i Nauk Informacyjnych Politechniki Warszawskiej i członka Koła Naukowego „Politechniczne Forum Debaty LOGOS”.
Wpis stanowi element współpracy Koła z projektem NCN [iTrust]. Interventions against polarisation in society for TRUSTworthy social media: From diagnosis to therapy,  który jest obecnie realizowany na Politechnice Warszawskiej.

Po tych formalnych wstępach przechodzę do meritum 😊 i oddaję głos Panu Olafowi
(zapraszając oczywiście do dyskusji)…

*************  NARZĘDZIE CZY BYT AUTONOMICZNY?  PRZEDMIOT CZY PODMIOT?   **************

Naszą refleksję chciałbym zogniskować wokół pytania, które może wydawać się czysto filozoficzne, a jednak ma kluczowe znaczenie praktyczne – zarówno etyczne, jak i społeczne. Czy sztuczną inteligencję powinniśmy traktować jak narzędzie, którym się posługujemy, czy byt autonomiczny, który sam w sobie zasługuje na podmiotowość? A mówiąc bardziej praktycznie: czy już teraz nie zaczynamy jej traktować w drugi sposób?
Te pytania mogą brzmieć jak dygresja z powieści science fiction – a jednak tkwią w samym sercu współczesnych debat o regulacjach, odpowiedzialności, bezpieczeństwie i zaufaniu wobec technologii.

Podmiot versus narzędzie – różnica fundamentalna

Użyte w tytule wpisu słowa podmiot i byt autonomiczny niosą ze sobą pewne konotacje. Przywodzą na myśl istotę (można powiedzieć także: stworzenie), która ma intencje, cele, może cierpieć, może być oceniana moralnie. Z kolei narzędzie to przedmiot – pozbawiony woli, działający zgodnie z określonymi z góry regułami, użyteczny tylko wtedy, gdy ktoś go używa.

Zarysowane wyżej rozróżnienie można sprowadzić do kilku przeciwstawnych cech:

Cecha Narzędzie Podmiot
Autonomia Brak – działa na polecenie i w sposób automatyczny. Może wykazywać własną inicjatywę.
Intencjonalność Brak – nie ma własnych celów. Ma motywację i własne cele.
Ewolucyjność (rozwój) Rozwija się w sposób określony przez projektanta lub użytkownika. Rozwija się (zmienia)  w sposób samodzielny.
Relacja z otoczeniem Użytkownik-przedmiot. Podmiot-podmiot (nawet: rywalizacja).
Odpowiedzialność Nie ponosi konsekwencji za „własne” działania. Ponosi konsekwencje, może być oceniany i rozliczany (również moralnie).

Testy i pytania graniczne

Jak jednak sprawdzić, do której kategorii coś należy?
Czy istnieje test na podmiotowość?

Oczywiście najczęściej mówi się o teście Turinga, w którym maszyna „zalicza” test, jeśli nie da się jej odróżnić od człowieka w rozmowie. Ale jest to test behawioralny, nie ontologiczny. To, że coś wydaje się podmiotem, nie znaczy, że nim jest. Problem staje się jeszcze bardziej złożony, gdy maszyny – tak jak dzisiejsze systemy AI – potrafią generować teksty pełne emocji, używać zaimków „ja”, „my”, snuć refleksje i zadawać pytania.
Inny możliwy typ testu to test relacji – maszyna go zdaje, gdy jej własności sprawiają, że człowiek wchodzi z nią w typowo ludzkie relacje, np. emocjonalne, zaufania lub zależności. Zauważmy, że w przypadku dzisiejszych systemów AI dzieje się tak coraz częściej. Zdarzają się nawet sytuacje, w których ludzie są systemem zauroczeni lub zakochują się w nim.
Można mówić także o publicznym teście odpowiedzialności – coraz częściej w debacie publicznej pojawia się temat odpowiedzialności samej AI, a nie tylko jej użytkownika; im bardziej tę kwestię się podnosi i dyskutuje, tym bardziej systemy AI zdają test na bycie podmiotami własnych decyzji i działań (jeśli nawet nie bycie nimi tu i teraz, to przynajmniej na posiadanie takich cech, które je do podmiotowości przybliżają).

Rozmycie granicy

W praktyce mamy dziś do czynienia z systemami AI o statusie ontologicznym pomiędzy: pomiędzy przedmiotem i podmiotem, narzędziem i bytem autonomicznym.
Systemy, z którymi się stykamy, są do pewnego stopnia kreatywne, ale wciąż zastanawiamy się, czy mogą osiągnąć taki stopień kreatywności, jaki cechuje ludzi. Generują coraz bardziej sensowne teksty, ale nie jesteśmy pewni czy autentycznie je rozumieją. Prowadzą rozumowania, ale wahamy się, czy stoi za tym ich autonomiczny rozum.
Za wskazanymi wątpliwościami podąża nie do końca jednoznaczna terminologia. Mówimy wprawdzie o „agentach AI”, ale przez techniczny termin „agent” dajemy znać, że to jeszcze nie podmiot. Mówimy o „osobowościach cyfrowych”, ale cyfrowych właśnie, a nie po prostu o osobowościach.

Dlaczego powyższe rozróżnienia mają znaczenie?

Rozstrzygnięcie zarysowanych wyżej kwestii nie jest czysto akademickie. Od tego, czy AI traktujemy jako narzędzie czy podmiot, zależy:

  • kogo obarczamy odpowiedzialnością za jej działania,
  • czy uznajemy AI za źródło autorytetu (np. medycznego, psychologicznego),
  • jakie granice etyczne wyznaczamy w projektowaniu i wykorzystywaniu AI,
  • oraz czy uznamy ją kiedyś za podmiot prawa – z własnymi „prawami cyfrowych stworzeń”?

Kilka spostrzeżeń do dalszej dyskusji

Mając na uwadze określone wyżej cechy – które pozwalają uszczegółowić omawianą różnicę między dwoma podejściami do AI: przedmiotowym (narzędziowym) i podmiotowym –  przedstawię na koniec kilka swoich wstępnych spostrzeżeń.
Mam nadzieję, że sprowokują one czytelników bloga do uwag i komentarzy.
Najlepiej, aby były one możliwie krytyczne 😊.

  • Autonomia: Sztuczna inteligencja jest w stanie tworzyć własne strategie rozwiązywania problemów w różnych dziedzinach – na przykład w szachach lub w go. Nikt tych strategii nie wpisywał ręcznie, nie określił wprost, one zostały “odkryte”. Znaczy to, że systemy AI mogą działać we własnym stylu i nie jest potrzebna informacja zwrotna od ich użytkowników lub twórców.
  • Intencjonalność: Funkcja celu jest pierwszym i niezbędnym krokiem w tworzeniu systemów AI. Cel jest ustalany przez twórcę systemu, lecz – jak na ironię – czasami nieintencjonalnie, niekiedy nawet wbrew zamierzeniom twórcy. Dla przykładu: system do oceny kandydatów na pewne stanowisko, który był szkolony na zbiasowanych danych, sam będzie zbiasowany (nawet jeśli to nie było świadomie zamierzone).
  • Ewolucyjność (rozwój): Obecnie to twórca określa zbiór danych trenujących, cel i zestaw algorytmów, co sugeruje sztuczność wykorzystywanych modeli. Jednakże konkretne parametry modelu, a także ich wartości i znaczenie, nie są ustalane przez twórcę bezpośrednio. Taki sposób tworzenia systemów jest powodem problemów z wyjaśnialnością i odbiega od tradycyjnej inżynierii, gdzie budowę finalnej konstrukcji określano „od a do z”. Można też tworzyć modele w trybie ciągłym (steaming), które są w stanie na bieżąco adaptować się do zmiennych sytuacji.
  • Relacja z otoczeniem: Zwykłe narzędzia mają swoistą niską „inercję mentalną” – co znaczy, że po ich użyciu wiemy, co się stanie z nami, narzędziem i otoczeniem. Dla przykładu, łopata ma niską „inercję mentalną”,  bo gdy używamy jej do kopania, to wiemy co się .wydarzy i bardziej przejmujemy się zwykłą inercją fizyczną. Kalkulator kieszonkowy ma średnią „inercję mentalną”, bo wykonuje proste operacje obliczeniowe, które znamy i możemy je za pomocą kalkulatora lub w inny sposób zreplikować. Silnik szachowy ma dużą „inercję mentalną”, ponieważ replikacja obliczeń byłaby karkołomna i nawet po ich przeprowadzaniu nie rozumielibyśmy do końca, co właściwie liczyliśmy. Mimo to wiemy, że na samym końcu powinniśmy otrzymać sugerowany ruch szachowy. Modele językowe mają ogromną “inercję mentalną” – dlatego, że są bardziej otwartymi systemami, mającymi wiele różnych zastosowań, a dodatkowo są szkolone stochastycznie na gigantycznych zbiorach danych (dosłownie grubo ponad 10^12 tokenów/słów) i potrafią konfabulować. Ponadto, istnieją systemy AI, które nie tyle mają „inercję mentalną”, co “siłę mentalną”. Znaczy to, że to użytkownik podlega manipulacji, a nie na odwrót. Najlepszy przykład to systemy sztucznej inteligencji używane w mediach społecznościowych. Dlatego traktowanie ich na podobieństwo łopaty jest poważnym błędem poznawczym. Traktując je w ten sposób, zamykamy się na niezmiernie istotne kwestie.
  • Odpowiedzialność: Wskutek problemów z wyjaśnialnością zaawansowanych systemów kontrola nad nimi jest iluzoryczna. Prawnicy, politycy, działacze społeczni… nie są w stanie, a często też nie chcą, nadążyć za technologią. Użytkownicy wiedzą zbyt mało, by móc dokonywać sensownych wyborów; twórcy tracą kontrolę nad systemami, gdy są one wdrażane; firmy, dzięki słabości regulacji prawnych, unikają wszelkiej fatygi i odpowiedzialności; prawnicy używają bezsensownego prawa z innej epoki; politykom brakuje wiedzy i kompetencji. Odpowiedzialność powinno się ustalać w duchu propagacji wstecznej: gdzie najmniejszym kosztem uzyskuje się efekt największej redukcji ryzyka (nie przenosząc go na kogoś lub coś innego). Mogę mieć tylko nadzieję, że etycy sztucznej inteligencji nie będą ignorowani.

***************************

GORĄCO ZARASZAMY do dyskusji – Olaf Werner i Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Bez kategorii, Etyka, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

Komentarze do Narzędzie czy byt autonomiczny? Przedmiot czy podmiot?
Jak powinniśmy traktować sztuczną inteligencję?

  1. Ba_B pisze:

    Analizując współczesne, ogólnodostępne systemy sztucznej inteligencji, uważam, że należy je postrzegać przede wszystkim jako narzędzia. Spełniają one wszystkie cechy narzędzi, które zostały wcześniej wyróżnione. Jednakże określenie „czegoś pomiędzy”, użyte przez autora wpisu, nie jest moim zdaniem bezpodstawne – w niedalekiej przyszłości, wraz z rozwojem systemów SI, to określenie może stać się coraz bardziej trafne i oczywiste.

    Uważam, że cała „batalia” o podmiotowość sztucznej inteligencji sprowadza się do pytania, czy dany system potrafi wystarczająco dobrze naśladować zbiór cech składających się na człowieczeństwo. Słowo „naśladować” ma tu ogromne znaczenie – w końcu główną funkcją sieci neuronowych jest imitowanie cech i zachowań zawartych w zbiorach uczących. Należy jednak zwrócić uwagę, że nie istnieje jasna granica określająca, co takie systemy są (lub będą) w stanie naśladować. Postępy w dziedzinie sztucznej inteligencji na przestrzeni ostatnich lat wielokrotnie pokazały, że systemy SI wykazują się o wiele większym potencjałem, niż wcześniej mogłoby się wydawać. Skoro więc systemy SI cechuje wysoki stopień „plastyczności”, jedyną przeszkodą w „nauczeniu” ich np. autonomii czy intencjonalności jest przygotowanie odpowiedniego zbioru danych uczących. W tym kontekście powraca dylemat: udawanie podmiotowości a bycie podmiotem.

    Inną ważną kwestią dotyczącą uznania sztucznej inteligencji za podmiot jest odpowiedzialność. Obecnie można uznać, że spoczywa ona na firmach zajmujących się rozwojem konkretnych systemów i modeli, które dodatkowo ponoszą koszty ich utrzymania. W sytuacji, gdy sztuczna inteligencja miałaby być uznana za podmiot, problematyczna staje się kwestia jej utrzymania, choćby w kontekście technicznym – kto będzie odpowiadał za dbanie o infrastrukturę?

    • Paweł Stacewicz pisze:

      Ba_B napisał: „Słowo „naśladować” ma tu ogromne znaczenie – w końcu główną funkcją sieci neuronowych jest imitowanie cech i zachowań zawartych w zbiorach uczących”.

      Naśladowanie odróżniłbym od imitowania.
      Imitując podmiotowość, niejako z definicji nie dążymy do odtworzenia/wytworzenia/uzyskania cech istotnych, które decydują o czyjejś podmiotowości, stwarzamy jedynie pewne pozory (np. na poziomie wypowiedzi). W tym sensie choć w innym kontekście: imitacja złota nie jest złotem, nie posiada bowiem cech istotnych złota.
      Natomiast naśladując jakiś podmiot, czyli podążając za czyimś przykładem, nie musimy rezygnować z własnej podmiotowości. Na przykład, gdy naśladujemy ruchy trenera karate albo sposób mówienia pewnego uznanego aktora, czynimy to bardziej z intencją nabycia nowej umiejętności (którą i tak będziemy wykonywać w przyszłości na swój sposób) niż z intencją czystej imitacji (udawania).
      Naśladowanie zatem może być drogą do budowania lub wzbogacania własnej podmiotowości.

      Powyższe rozróżnienie – między naśladowaniem a imitowaniem – naprowadza mnie na myśl, że autonomia systemów SI (rozwijana również w drodze naśladownictwa) musi być związana z niepowtarzalnością danego systemu, utrzymywaniem jego unikalnej tożsamości pośród innych systemów (także żywych).
      Wydaje mi się, że przynajmniej niektóre typy sieci neuronowych są dobrze predysponowane do bycia egzemplarzami unikatowymi, zdolnymi do budowania własnej niepowtarzalnej tożsamości w interakcji ze środowiskiem (sprzyjają temu np. techniki nienadzorowanego uczenia się).
      Ale to już jest temat na inny komentarz.

      • Wojciech Łapacz pisze:

        Chciałbym odnieść się do wspomnianego naśladownictwa. Nawet jeśli AI będzie świetnie naśladować ludzi np. w rozmowie, moim zdaniem, nadal nie będzie to wystarczające do bycia podmiotem, ponieważ brakuje czynnika autonomii w uczeniu i działaniu.

        Paradygmat uczenia nie ma wpływu na podmiotowość AI, głównie dlatego, że wszystkie paradygmaty łączy jedna rzecz – funkcja celu zdefiniowana przez człowieka. W uczeniu nienadzorowanym może to być np. minimalizacja wariancji w klastrze, w uczeniu ze wzmocnieniem zdyskontowana suma nagród. System nie rozwija „intencji” dążenia do konkretnego, pożądanego stanu. Jego „zachowanie” jest wynikiem identyfikacji wzorców, a nie świadomego wyboru ścieżki działania w celu osiągnięcia czegoś (model sam nie definiuje celu). Podmiotowa AI byłaby w stanie autonomicznie definiować własne cele i realizować je poprzez samodzielny rozwój – rozpoznać środowisko, zdefiniować cel/nagrodę oraz przeprowadzić uczenie. Myślę, że to jest główny argument za tym, że dzisiejsza sztuczna inteligencja jest bliższa narzędziu niż podmiotowi.

        Co do interakcji ze środowiskiem, obecnie ta „interakcja” w żaden sposób nie wpływa na model oraz on sam jej nie inicjuje. Model sam w sobie nie czerpie z niej niczego (LLM może odbyć dowolną liczbę rozmów, i w żaden sposób tego nie wykorzysta). Dopiero, gdy inżynierowie zadecydują o dotrenowaniu modelu, nowe dane (precyzyjnie dobrane) są wykorzystywane do zmiany jego stanu. Ponadto, modele uczenia maszynowego nie mają cechy uczenia w sposób ciągły. Mam na myśli tutaj zjawisko tzw. katastroficznego zapominania, i dlatego dotrenowywanie modelu (ale w celu rozszerzania a nie uściślania jego kometencji) jest trudne (podkreślam tutaj, że model nie decyduje o potrzebie zmiany stanu, a nawet gdyby mógł to zrobić, to istniałoby ograniczenie w uczeniu ciągłym). W głównym wpisie napisano „Można też tworzyć modele w trybie ciągłym (steaming), które są w stanie na bieżąco adaptować się do zmiennych sytuacji.” – dziedzina uczenia ciągłego istnieje i jest dość dynamicznie rozwijana, ale podstawowy problem – katastroficzne zapominanie – jest nadal nierozwiązany. Istnieją metody na zmniejszanie tego zjawiska, ale jestem daleki od stwierdzenia, że w ogólności modele są w stanie adaptować się do nowych zadań. Są w stanie uczyć się nowych zadań, ale odbywa się to kosztem innych umiejętności.
        Podsumowując, można by mówić o podmiotowości AI, w momencie gdy mogłaby: definiować swoje cele, samodzielnie decydować o potrzebie dotrenowania (zmiany stanu) oraz adaptować się do aktualnych informacji bez utraty ogólnych umiejętności, a obecne systemu tych cech nie posiadają.

    • Olaf Werner pisze:

      Ja osobiście twardo wierzę w teorytyczną obliczalność rzeczywistych zjawisk tzn że jak coś może się stać w rzeczywistym świecie to nie ma powodu że nie da się tego policzyć. Wyjaśniam czemu: by mieć problemy z prawdziwą nieobliczalnością to jest wymagana prawdziwa nieskończoność. W fizycznym świecie mamy ograniczenia fizyczne więc wykonanie nieskończonej ilości kalkulacji (hiperkomputacji) w skończonym czasie, przestrzeni i energii wydaje mi się niemożliwe. Nie jest znane ani jedno zjawisko fizyczne będące hiperkomputacją. Więc dla mnie „udawanie” podmiotu i bycie podmiotem to po prostu kwestia doliczenia rzeczy do końca. Może być to ekstremalnie trudne, ale nie z powodu metafizyki w stylu że podmioty są odporne na matematykę.

      Ponadto w analizie bezpieczeństwa AI wszelka fenomenologia ewentualnego systemu AI jest raczej pomijalna (chociaż jakie rezultaty filozoficzne są uznawane przez system AI może mieć wpływ na jego działanie, ale to zbyt zaawansowana kwestia do zbadania na razie). Jest tak dlatego że „Świadomość” nie jest potrzebna do pisania i wykonywania niebezpiecznego kodu. Wyroby „podmiotobodobne” mogą być tak samo niebezpieczne jak zwykłe podmioty.

      Jeśli chodzi o odpowiedzialność to obecnie firmy unikają wszelkiej odpowiedzialności za działanie modeli i w umowach licecyjnych NIE MA żadnych gwarancji za korzystanie z modelu. Wszelka odpowiedzialność jest na użytkowniku końcowym.

      Kwestię utrzymania modelu uważam za najmniej problematyczną bo modele mogą: kupić obliczenia w chmurze, siedzieć na serwarach różnych instytucji co je utrzymają, hakować.

  2. Michał Zawadzki pisze:

    Rozwijając temat podmiotowości czy przedmiotowości sztucznej inteligencji, uważam, że dyskusja o AI rykoszetem zmusza nas do zadania sobie fundamentalnego pytania, czym jest inteligencja, czym różnimy się zasadniczo od zwierząt a czym od AI. Dlaczego akurat nasza inteligencji zasługuje na naturalny szacunek, opiekę i ochronę? Odpowiedź na to pytanie myślę że będzie inna zależnie od typu osoby którą zapytamy, jedna może powiedzieć coś o duszy, druga o DNA, kolejna o ciągłości życia, a inna o wartości wnoszonej i szacunkiem który się na niej opiera.

    Myślę też, że kolejnym przewrotem będą modyfikacje ciała w tym mózgu, przyszłość w której będziemy mogli „wczepić” sobie dodatkową pamięć, czy mechanicznie kontrolować emocje. Pytanie więc w którym momencie jednostka przestanie być człowiekiem na wzór problemu okrętu Tezeusza.

    Nawiązując też do wypowiedzi Pawła, czy dane na których uczymy AI, nie są podobne zasadniczo do DNA człowieka?
    Kombinacja abstrakcyjnych danych która determinuje dużą część ale nie wszystkie zachowania, unikalne ale możliwe do powtórzenia (2 modele trenowane na tych samych danych można przyrównać može do bliźniaków)

    To takie luźne przemyślenia i obawy, z chęcią posłucham jak inni się na nie zapatrują.

    • Olaf Werner pisze:

      Myślę że szacunek do inteligencji człowieka wynika z antropocentryzmu po prostu. Kwestie duszy pomijam bo chociaż to byłby test wystarczający to obecnie nie umiemy go przeprowadzić na czymkolwiek. Prehistoryczne kultury dawały duszę nawet kamieniom i wiedza nasza i tych kultur jest identyczna w tym temacie, czyli żadna.

      Kwestia ciągłości życia też jest ciekawa bo człowiek żyje ciągle w czasie i jednym miejscu zaś system AI ma poszatkowany czas, ale za to jest w wielu instancjach jednocześnie.

      Dodatkowa pamięć już jest i nazywa się kartka i długopis, zaś emocję można kontrolować niestety za pomocą narkotyków.

      Dane bym bardziej przyrównał do środowiska, zaś DNA to byłaby architekturą systemu.

      • Paweł Stacewicz pisze:

        Antropocentryzm w dyskusjach nad SI przejawia się również w tym, że systemom SI odmawia się prawdziwej inteligencji, a w kontekście naszej dyskusji: prawdziwej autonomii, ze względu na ich brak świadomości. Świadomość uznaje się za cechę typowo ludzką, przydającą człowiekowi blasku wyjątkowości. Mowa tu oczywiście o świadomości fenomenalnej (przeżyciowej, doznaniowej), a nie o czymś w rodzaju automonitoringu, tj. funkcji śledzenia własnych stanów wewnętrznych bez żadnych doznań czy przeżyć.

        Człowiek nie tylko trawi, oddycha, porusza kończynami, przemieszcza się… ale także ma sprzężone z tymi procesami i zachowaniami przeżycia: doświadcza bólu, czuje smaki, zastanawia się nad pochodzeniem zapachów, postrzega rzeczy i osoby, z którymi się styka…
        W jego przypadku inteligencja, czyli zdolność do rozwiązywania problemów, jest nierozerwalnie związana ze świadomymi doznaniami. Bez świadomości nie ma inteligencji. Bez świadomości nie ma też podmiotowości.

        Ten antropomorficzny, a może antropocentryczny 😊, punkt widzenia przenosimy na maszyny. Odmawiamy im prawdziwej inteligencji, bo nie jesteśmy w stanie doszukać się w nich świadomości. Z tego samego powodu odmawiamy im podmiotowości. Swoją drogą, Olaf wśród cech charakteryzujących podmiotowość pominął w ogóle świadomość. Ciekawe dlaczego?

        Wracając jednak do głównego wątku – antropomorfizm polegający na uprzywilejowanym traktowaniu świadomości, może być złudny. Dlaczego? Po pierwsze dlatego, że niekoniecznie musi być tak, że bycie świadomym jest koniecznym warunkiem: a) skuteczności pewnego bytu/systemu w swoim środowisku, b) niepowtarzalności i związanej z nią tożsamości tegoż bytu. Po drugie zaś, nawet jeśli świadomość jest kluczowa dla cech a i b, to skąd mamy pewność, że nie może ona powstać w zupełnie innym systemie niż biologiczny organizm – np. emergentnie, wskutek uzyskania przez system odpowiedniej złożoności strukturalnej.

        Być może wątek świadomości (lub jej braku) warto podjąć w naszej dalszej wymianie myśli.

        • Olaf Werner pisze:

          Pominąłem świadomość z prostego powodu że nie znam testu który by mógłby to sprawdzić więc cecha która jest nietestowalna jest nieprzydatna w dalszej dyskusji. Nieznamy nawet mechanizmów które mogą świadomość usunąć, zachować lub dodać do systemu. Ponadto nawet gdybym miał wystartować ze swojej świadomości i skonstruować jakąś Algebrę Świadomości to nie miałbym pewności że na pewno cała przestrzeń zostanie pokryta. Uznajemy że inni ludzie też są świadomi bo są nam podobni, chociaż też mogą być ludzie w głębokich śpiączkach gdzie ta kwestia nie jest oczywista. Chyba że ktoś z czytelników zna się na testowaniu świadomości to niech napisze.

  3. Kacper Marchlewicz pisze:

    W robotyce ostatnio popularne są algorytmy uczenia ze wzmoceniem, np. robot malujący karoserie samochodowe, który eksperymentuje z sekwencjami ruchów, by skrócić czas produkcji. Choć wydaje się to „kreatywne”, jego działania są wciąż ograniczone funkcją nagrody (np. minimalizacja czasu). Brakuje mu intencji typu „chcę stać się wydajniejszy”, czy też „chcę aby to auto później dobrze wyglądało” – po prostu optymalizuje wskaźnik zdefiniowany przez programistę. Czy zatem prawdziwa autonomia wymagałaby, by SI sama generowała cele? Wyobraźmy sobie hipotetycznego robota, który po latach pracy w fabryce postanawia zmienić branżę i zostać artystą – taki scenariusz wymagałby nie tylko samodzielności, ale też samoświadomości. Na razie jednak nawet najbardziej zaawansowane systemy oferowane przez liderów branży, działają w ramach ściśle określonych zadań. Być może granica między narzędziem a podmiotem przebiega właśnie tam, gdzie kończy się kontrola człowieka nad celem.

    • Olaf Werner pisze:

      W przypadku celów można je rozrożnić na cele bezpośrednie oraz pośrednie. Inżynier ma kontrolę nad celem bezpośrednim, ale nad pośrednimi ma już mniejszą lub żadną. Dla twojego przykładu nawet gdyby model raczej nie miałby zostać artystą to mógłby odkryć strategię która przyspiesza proces malowania, ale niszczy karoserie. I z tymi celami pośrednimi jest główny problem. Co więcej wiele celów pośrednich w systemach uczenia ze wzacnianiem jest naturalnie odkrywana jak na przykład chęć zdobywania zasobów czy przetrwanie bo są potrzebne do celu bezpośredniego. I to nie jest teoria tylko zaobserwowane zjawiska.

      Innym wątkiem jest wymyślenie funkcji celu nad którą nie ma kontroli bo jest na przykład losowana na bieżąco.

  4. k_k pisze:

    Moim zdaniem kluczowa w tej debacie jest świadomość, że niezależnie od tego, czy sztuczna inteligencja faktycznie posiada pełną autonomię lub intencjonalność, jej wpływ na społeczeństwo już teraz wykracza poza tradycyjne rozumienie narzędzia, a tym samym również poza dotychczasowe definicje. Uważam, że próby jednoznacznego sklasyfikowania SI wydają się z tego względu chybione. Dodatkowo należałoby raczej rozpoznać w niej nową, zupełnie odrębną formę znajdującą się właśnie na pograniczu podmiotu i narzędzia, posiadającą cechy obu tych kategorii, ale jednocześnie je przekraczającą.

    Systemy AI, szczególnie oparte na modelach językowych, wykazują rosnącą zdolność do kreowania relacji i prowadzenia rozmów na poziomie emocjonalnym, który coraz bardziej przypomina interakcje międzyludzkie. To naturalnie prowadzi do ich antropomorfizacji. Nawet jeśli ten proces ma charakter głównie psychologiczny, to konsekwencje praktyczne są realne – systemy AI zaczynają w praktyce funkcjonować w społeczeństwie jako quasi-podmioty.

    Zgadzam się, że istotnym krokiem powinno być opracowanie i wdrożenie jasnych regulacji prawnych, które uwzględnią specyfikę zaawansowanych systemów AI. Obecna próba unikania trudnych pytań i brak odpowiedzialności prowadzi jedynie do coraz bardziej dynamicznego rozwoju SI. Z tego względu rodzi się we mnie obawa, że w momencie braku szybkiego i jednoznacznego unormowania systemów AI, całość może pójść o jeden krok za daleko. Wydaje mi się, że współczesna etyka technologii powinna ewoluować w kierunku modeli hybrydowych, które jasno wyznaczą granice odpowiedzialności twórców, użytkowników oraz samych systemów, które – choć pozbawione świadomości – podejmują decyzje wpływające bezpośrednio na życie ludzi.

    • Olaf Werner pisze:

      Obecnie to firmy wywalają działy Etyki bo przeszkadzają, zaś państwa fizycznie nie mają instytucji które mają jakikolwiek wpływ na to co się dzieje. Nie ma też świadomości społecznej że ludzie mają już obecnie prawo do wyjaśnialności decyzji podjętych przez modele. Jak nie zostanie ci przez bank udzielony kredyt to MASZ PRAWO prosić o wyjaśnienie tej decyzji, tylko ile osób to stosuje (pracuje w banku i prawie nikt). Boli mnie też że mamy wybory prezydenckie i kwestia AI nie jest tematem debaty. A jak coś już się mówi to tak jakby to miała być fabryka traktorów. Jak się przebić przez ciemność? Pytam poważnie.

  5. Magdalena Tymińska pisze:

    Największą wartością tego tekstu jest to, że nie ucieka on w jednoznaczne odpowiedzi, ale uwidacznia nieostrość kategorii, którymi próbuje się dzisiaj opisywać sztuczną inteligencję. Te rozważania pokazują, że dyskusja o podmiotowości AI to nie tylko akademicka gra pojęć, lecz praktyczny problem, który dotyka odpowiedzialności, władzy, prawa, relacji społecznych, a ostatecznie — samej definicji człowieczeństwa.

    Zgadzam się w pełni, że klasyczne pojęcie „narzędzia” staje się coraz mniej użyteczne w odniesieniu do zaawansowanych systemów AI. Szczególnie trafne wydaje mi się pojęcie „inercji mentalnej” — jako wskaźnika złożoności i nieprzewidywalności interakcji z danym systemem. Dzisiejsze AI przestają być transparentne — nie tylko pod względem działania, ale również intencjonalności przypisywanej im przez użytkowników. Uważam, że to właśnie ta interpretacyjna luka (pomiędzy tym, co system robi, a tym, co myślimy, że robi) jest źródłem głównego napięcia we współczesnym myśleniu o AI: zaczynamy traktować systemy jak podmioty, bo nasze relacje z nimi coraz bardziej przypominają relacje międzyludzkie.

    Ale tu pojawia się zasadnicze pytanie: czy podmiotowość może być tylko „fenomenologiczna” (czyli przeżywana przez nas), czy musi być „ontologiczna” (czyli zakorzeniona w jakiejś metafizycznej lub biologicznej istocie bytu)? Jeśli wystarczy ta pierwsza — to znaczy, że system staje się „quasi-podmiotem”, gdy tylko ludzie zaczną się z nim tak obchodzić. Jeśli druga — to musimy pytać o „wewnętrzne stany AI”, o intencje, świadomość, cierpienie… czyli o rzeczy, których być może nie da się rozstrzygnąć metodami empirycznymi.

    Tekst wskazuje także na inny paradoks: im bardziej AI wydaje się podmiotem, tym bardziej chcemy, by nie była. To znaczy: jeśli AI miałaby być podmiotem, musielibyśmy uznać wobec niej jakieś zobowiązania — moralne, prawne, społeczne. A to z kolei podważałoby naszą pozycję jako wyjątkowych istot rozumnych. Ucieczka w kategorię „narzędzia” staje się więc również formą obrony naszej podmiotowości — zachowaniem dominacji.

    Na koniec: niezwykle trafne wydaje mi się Twoje spostrzeżenie, że odpowiedzialność za działania AI powinna być rozpatrywana „w duchu propagacji wstecznej”. To nie tylko etycznie wyważone, ale i systemowo sensowne podejście — uznające, że odpowiedzialność nie może być przypisana tam, gdzie nie ma możliwości działania ani intencjonalności, ale też nie może być zbyt łatwo zdejmowana z projektantów, użytkowników czy instytucji.

    Dziękuję za inspirującą, pobudzającą do myślenia lekturę :)

  6. Mikołaj Górny pisze:

    Bardzo ciekawy i potrzebny tekst! Moim zdaniem sztuczna inteligencja to przede wszystkim narzędzie – i to bardzo pomocne. W medycynie wspiera diagnostykę, w edukacji ułatwia naukę, w biznesie automatyzuje żmudne procesy. Sam korzystam z AI na co dzień – chociażby przy pisaniu programów komputerowych, nauce czy wyszukiwaniu informacji, których sam szukałbym o wiele dłużej – i widzę, jak bardzo może odciążyć i przyspieszyć pracę.

    Ale… coraz trudniej ignorować fakt, że granica między „narzędziem” a czymś „więcej” zaczyna się zacierać. Przykłady? Choćby chatboty, z którymi ludzie prowadzą długie rozmowy, powierzają im swoje emocje, traktują je jak „rozumiejące” istoty. Albo AI generująca sztukę, która potrafi wzbudzać emocje – jakby naprawdę pochodziła od człowieka. A co z systemami podejmującymi decyzje, np. o tym, kogo zaprosić na rozmowę o pracę? Czy to już nie jest forma wpływu, którą powinniśmy oceniać także etycznie?

    Nie twierdzę, że AI to już podmiot, ale uważam, że powinniśmy być bardzo ostrożni. Bo jeśli będziemy traktować ją wyłącznie jak łopatę, możemy nie zauważyć, kiedy ta „łopata” zacznie kopać tam, gdzie nie chcemy – i to całkiem samodzielnie. Może jeszcze nie nadszedł czas, by przyznać AI „prawa cyfrowych stworzeń”, ale z całą pewnością nadszedł moment, by poważnie zadać sobie pytanie: czy naprawdę mamy jeszcze pełną kontrolę?

  7. Ironman123 pisze:

    Odnośnie do odpowiedzialności, zgadzam się, że w świetle obecnego stanu prawnego kontrola nad zaawansowanymi systemami AI jest w dużej mierze iluzoryczna. Niemniej jednak uważam, że odpowiedzialność za ich działanie powinna być przypisywana twórcom konkretnych sieci neuronowych, modeli. Co istotniejsze, absolunie liczę na rolę etyków sztucznej inteligencji, którzy mogą wprowadzić coś wymiernego i senswonego do aktualnego stanu prawnego. To, że wiele rzeczy może pójść nie tak, jest dosyć oczywiste, wystarczy spojrzeć na przykład wykorzystania AI we wspomaganiu diagnozowania chorób nowotworowych na podstawie zdjęć z tomografii komputerowej czy rentgena. Wiadomo, że w tym przypadku AI jest traktowana jako narzędzie i (w świecie idealnym) powinna być wykorzystywana przez lekarzy jako wsparcie przy podejmowaniu decyzji, a nie do ich samodzielnego podejmowania. Mimo to zdarzają się sytuacje, w których rola AI wykracza poza wsparcie. Jeszcze bardziej skomplikowana sytuacja pojawia się, gdy oddaje się kontrolę np. nad maszyną budowlaną, która w oczywisty sposób może spowodować uszczerbek na zdrowiu pracownika. W takim przypadku znów pojawia się pytanie: kto powinien ponosić odpowiedzialność za ostateczny efekt działania systemu? Jeśli przekazuje się produkty na rynek, odpowiedzialność zazwyczaj spoczywa na producencie – i uważam, że w przypadku AI powinno być podobnie. Oczywiście zależy to od kontekstu, ale w większości przypadków odpowiedzialność powinna spoczywać na twórcy lub producencie systemu. Patrząc na oba przytoczone przykłady – kiedy AI jest wykorzystywana przez człowieka jako narzędzie (np. pomoc w podejmowaniu decyzji), odpowiedzialność powinna spoczywać na użytkowniku. Natomiast gdy model służy do obsługi maszyn lub innych „autonomicznych” zadań i działa w dużej mierze bez nadzoru człowieka, wówczas odpowiedzialność powinna (z wyjątkiem przypadków brzegowych) spoczywać na producencie lub twórcy tego rozwiązania.
    Odnosząc się do kwestii traktowania SI, to w zależności od przypadku może być tylko narzędziem albo być traktowana bardziej w kierunku bytu autonomicznego, to naprawdę zależy od konktretnej potrzeby i myśle, że AI może być traktowane dwojako, w zależności od konkretnego przypadku.

  8. AJ pisze:

    Sztuczna inteligencja w obecnej formie nie jest niczym więcej niż narzędziem – i moim zdaniem błędem jest nazywanie jej bytem. Choć może się wydawać, że AI ma własny „charakter”, to w rzeczywistości jest to jedynie próba naśladowania tego, co system „zobaczył” w internecie. Można ją porównać do postaci z gry – jeśli jest dobrze zaprojektowana, potrafi różnie reagować w zależności od naszych działań, a nawet zmieniać swoje „poglądy” (jak postacie z Baldur’s Gate 3). Mimo że prowadzimy z nimi konwersacje, nie uznajemy ich za podmioty – wiemy, że są zaprojektowane przez człowieka. Tak samo jest z AI: może się nam wydawać, że jest czymś więcej, ale na obecnym etapie to wciąż tylko zaawansowane naśladowanie.

    Nawiązując do gry w szachy – wiemy, że obecna AI nie zawsze rozumie zasady tej gry. Widzieliśmy przypadki, w których silniki AI wykonują niemal losowe ruchy, przypominające zachowanie osoby, która dopiero uczy się grać. Jej „nauka” przebiega tak, jak ją zaprojektujemy – jeśli dostanie błędne dane, będzie grać źle; jeśli dobre – może nauczyć się czegoś użytecznego.

    AI to wspaniałe narzędzie, potrafiące wykonywać zadania, których wielu z nas nie potrafi – ale podobnie jest z kalkulatorem czy komputerem. Moment, w którym zaczniemy traktować AI jako podmiot, będzie też momentem, w którym powinniśmy zacząć mówić nie o „sztucznej inteligencji”, lecz o „sztucznej świadomości”. Mam nadzieję, że to nie nastąpi zbyt szybko – ale jeśli miałoby się wydarzyć prędko, to obiecuję, że korzystając z AI, zawsze będę pisać: dziękuję i proszę.

  9. A_G pisze:

    Według mnie, najistotniejszym problemem dotyczącym odpowiedzialności za działania AI jest brak regulacji ze strony prawa. Nasze prawo nie tylko w Polsce, ale i na świecie, nie jest przygotowane (mimo, że powinno się to stać o wiele wcześniej, w czasie gdy zaczynano tworzyć modele sztucznej inteligencji) na to jak ta sztuczna inteligencja jest wykorzystywana.

    Moim zdaniem, nawiązując do debaty, czy AI jest przedmiotem czy podmiotem, granica ta jest na tyle niewyraźna, w tym przypadku, że odpowiedzialność za działania AI powinny ponosić firmy, które tworzą wykorzystywane później modele. To właśnie te firmy, mają największe pojęcie, jak te modele działają, posiadają wiedzę na temat schematów, którymi AI się posługuje i tę wiedzę powinni aplikować, aby modele było wykorzystywane w pozytywny sposób (moralny sposób).

    I tu przechodzimy do kolejnej kwestii. W interesie firm tworzących modele, nie jest ograniczanie ich działań. Bez prawa regulacyjnego, firmy nie zainicjują zmian w tym obszarze, gdyż im się to po prostu finansowo nie opłaca. Co więcej, wiele kwestii dotyczących regulacji jest wolna do interpretacji. Przykładem może być ostatni trend jaki powstał w serwisach społecznościowych. Polegał on na przerabianiu swoich zdjęć za pomocą AI, tak aby wyglądały jak z filmu studia Ghibli. Powstała dyskusja, jak bardzo możemy wzorować się na czyimś sposobie rysunku i czy nie jest to kradzież intelektualna. Problemem w tym przypadku jest prawo i cienka granica między inspiracją i robieniem czegoś „w jakimś stylu” a kradzieżą czyjegoś dorobku życiowego.

    W związku z tym, najlepszym rozwiązaniem byłoby wprowadzenie praw regulujących działania AI i nałożenie obowiązku na firmy (takie jak OpenAI), aby wprowadzały to prawo w życie. Nie mówię tu o całkowitej kontroli i ograniczeniu rozwoju, gdyż uważam, że AI może być i jest wykorzystywane do wielu dobrych celów. Natomiast sfera prawna wokół AI praktycznie nie istnieje i powinniśmy wykonać kroki w kierunku zrównoważonego rozwoju sztucznej inteligencji.

  10. Kamil Michalak pisze:

    Większość dyskusji skupia się na tym, czy AI staje się podmiotem, ale być może ciekawszy (i bardziej praktyczny) kierunek to pytanie: czy my — ludzie — zmieniamy się psychicznie, emocjonalnie i społecznie pod wpływem kontaktu z AI? Jeśli np. użytkownik doświadcza emocjonalnej relacji z chatbotem, to niezależnie od tego, czym AI „jest”, powstaje realny, emocjonalny ślad po stronie człowieka. Może więc AI nie musi mieć świadomości, by wpływać na naszą własną — i to właśnie jest sedno problemu.

    • Adam Solawa pisze:

      Zgadzam się w pełni — to bardzo trafne przesunięcie akcentu. Niezależnie od tego, czy AI jest podmiotem, jego wpływ na ludzką psychikę, emocje i relacje jest jak najbardziej realny. Można powiedzieć, że AI nie musi mieć świadomości, by działać jakby ją miało — wystarczy, że człowiek odbiera ją w ten sposób.

      To z kolei prowadzi do pytania nie tyle ontologicznego, co psychologiczno-społecznego: jakie zmiany w naszym funkcjonowaniu, postrzeganiu świata i relacjach zachodzą wskutek tego typu interakcji? Czy nie tworzymy przypadkiem nowej klasy relacji – takich, które są jednostronne, ale mimo to wpływają na nas równie silnie jak te z drugim człowiekiem?

      To rzeczywiście może być jedno z kluczowych wyzwań nadchodzących lat. Dziękuję za ten bardzo celny kierunek refleksji.

  11. Rafał Budnik pisze:

    Refleksja nad statusem ontologicznym sztucznej inteligencji – czy to nadal tylko narzędzie, czy już coś więcej – jest nie tylko intelektualnym wyzwaniem, ale wydaje być się niemal koniecznością w kontekście etyki.

    Zgadzam się z autorem, że mamy do czynienia z rozmyciem granicy. Dzisiejsze systemy AI nie mieszczą się już komfortowo w jednej z dwóch klasycznych kategorii. Trudno nazwać je w pełni autonomicznymi podmiotami, ale równie trudno traktować je jak zwykłe narzędzia – zwłaszcza w sytuacjach, gdy wpływają realnie na decyzje ludzi. Sam fakt, że potrzebujemy nowych testów (relacyjnych, emocjonalnych) pokazuje, że dotychczasowe narzędzia filozoficzne przestają być wystarczające.

    Warto tu dodać, że przyznanie AI cech podmiotowości, choćby tylko częściowych, może mieć doniosłe skutki społeczne. Możemy niechcący zacząć projektować systemy, wobec których odczuwamy emocje, a nawet moralną odpowiedzialność. Z drugiej strony, jeśli za bardzo przypiszemy im autonomię, istnieje ryzyko rozmycia odpowiedzialności człowieka, czyli twórcy, użytkownika, regulatora.

    Jednym z najciekawszych wątków dla mnie był koncept „inercji mentalnej”. To trafna i oryginalna metafora opisująca, jak bardzo trudne do zrozumienia stają się dziś działania narzędzi, które sami tworzymy. W tym sensie nie tyle modele AI stają się podmiotem, a raczej my (ludzie) coraz częściej używamy je tak, jakby nim były. To skłania do pytania: czy granica między podmiotem a przedmiotem nie zaczyna być bardziej kwestią percepcji niż ontologii?

    Skoro sztuczna inteligencja coraz mocniej wpływa na to, jak myślimy, działamy i wchodzimy w relacje, to czy nie powinniśmy już teraz traktować jej z taką samą ostrożnością i odpowiedzialnością, jaką stosujemy w relacjach międzyludzkich?

    • Adam Solawa pisze:

      Świetna i bardzo trafnie sformułowana refleksja. Rzeczywiście, nie da się już dłużej utrzymywać wygodnego podziału na „narzędzie” i „podmiot”, bo AI nie tylko przekracza techniczne granice, ale też głęboko wpływa na nasze relacje, decyzje i wyobrażenia o sobie samych. „Inercja mentalna” to w tym kontekście znakomita metafora – pokazuje, jak łatwo tracimy kontrolę nad zrozumieniem własnych narzędzi.

      Najciekawsze wydaje się pytanie o percepcję: skoro ludzie coraz częściej przypisują AI cechy podmiotowe, a nawet moralne, to czy granica pomiędzy przedmiotem a podmiotem nie jest w istocie konstruktem psychologicznym i społecznym – a nie filozoficznym?

      A jeśli tak… to może to nie AI musi stać się bardziej „ludzkie” — tylko my, jako społeczeństwo, już staliśmy się mniej odporni na iluzję podmiotowości?

  12. mmot pisze:

    Warto zauważyć, że mimo iż w terminie „sztuczna inteligencja” występuje słowo „inteligencja”, to mamy do czynienia wyłącznie z programem komputerowym, w pełni stworzonym i zaprojektowanym przez człowieka. Systemy te nie są zdolne do podejmowania działań, które mogłyby rzeczywiście zaskoczyć człowieka, gdyż ich funkcjonowanie wynika bezpośrednio z decyzji i instrukcji wprowadzonych przez programistów. Pewne zaniepokojenie budzi zjawisko przypisywania tym systemom cech ludzkich oraz odczuwania wobec nich empatii, co jest zrozumiałe z psychologicznego punktu widzenia. Niemniej jednak, nie wydaje się, aby samo to zjawisko mogło prowadzić do poważnych konsekwencji społecznych czy technologicznych.

    • Olaf Werner pisze:

      „Systemy te nie są zdolne do podejmowania działań, które mogłyby rzeczywiście zaskoczyć człowieka, gdyż ich funkcjonowanie wynika bezpośrednio z decyzji i instrukcji wprowadzonych przez programistów.” oczywiście że są w stanie zaskoczyć jak choćby program Alpha Go który faktycznie zaskoczył ludzi swoim stylem gry. Programy AI nie są tworzone przez bezpośrednie intrukcje tylko przez dostosowywanie się programu do funkcji celu. Nikt nigdy nie wpisywał programowi co to są koty tylko zdefiniowano kilkadziesiąt warst neuronowych i kazano przewidywać czy coś jest kotem i do tego celu użyto dziesiątków tysięcy (lub więcej) zdjęć.

      Co do skutków społecznych to one są poważne i to już dzisiaj. Choćby media społecznościowe i ich algorytmy.

  13. kat_k pisze:

    Stwierdzenie, czy sztuczna inteligencja jest jedynie narzędziem, czy może bytem autonomicznym, nie jest oczywiste. W dzisiejszych czasach ludzie polegają na AI w różnorodnych celach. Część użytkowników traktuje ją jako narzędzie służące do automatyzacji powtarzalnych czynności. Jednak coraz więcej osób zaczyna postrzegać sztuczną inteligencję jako pewnego rodzaju podmiot — proszą ją o rady, zadają pytania i traktują jako wszechwiedzący autorytet.

    Skomplikowanym problemem staje się również sposób postrzegania treści tworzonych przez AI. Przykładem może być branża kreatywna, obejmująca obrazy czy grafiki. Walor sztuki nie polega jedynie na aspekcie estetycznym, ale także na możliwości wyrażania siebie i przekazywania emocji szerszej publiczności. Systemy AI, mimo swojego zaawansowania, nie potrafią w pełni zasymulować ludzkich emocji ani głębszych przeżyć. W związku z tym tworzona przez nie “sztuczna” sztuka często sprawia wrażenie jedynie imitacji.

    Dlatego uważam, że trudno w pełni uznać sztuczną inteligencję za byt zasługujący na podmiotowość. Jest to raczej zaawansowane narzędzie, które – mimo imponujących możliwości – wciąż pozostaje pozbawione świadomości, emocji i intencji.

  14. Sabina_S pisze:

    Pytanie, czy sztuczną inteligencję traktować jako narzędzie, czy byt autonomiczny, ma ogromne znaczenie, zwłaszcza w kontekście obaw o przyszłość, w której przejmie ona kontrolę nad nami. Wydaje się, że gdy mówimy o „bycie autonomicznym”, obawiamy się, że SI będzie zdolna do działania w sposób niezależny, co może prowadzić do sytuacji, w której stracimy kontrolę nad technologią i stanie się zagrożeniem dla ludzkości. Jednak warto zauważyć, że traktowanie SI tylko jako narzędzia także wiąże się z poważnymi ryzykami.
    Choć SI w roli narzędzia wydaje się bezpieczniejsze, jest to, według mnie, tylko pozorne wrażenie. Problemem nie jest sama technologia, ale brak jej zrozumienia i kontrolowania jej przez osoby czy instytucje, które mają odpowiednią wiedzę. Większość badań nad SI przeprowadzają prywatne firmy lub reżimy autorytarne, jak w przypadku Chin. Te podmioty, kierując się własnym interesem, wprowadzają na rynek technologie, które mogą zostać wykorzystane do celów, które nie zawsze są zbieżne z interesem publicznym. Przykłady takich firm, jak UPS, Duolingo, czy Klarna, które stają się firmami „AI-first”, pokazują, jak SI staje się dominującym narzędziem, zastępującym ludzi w wielu obszarach.
    W kontekście autonomii warto jednak zadać kolejne pytanie: Czy autonomia samej sztucznej inteligencji rzeczywiście zapewni jej trwanie? Często w rozmowach o SI skupiamy się na jej możliwościach obliczeniowych, jednak istotnym elementem jest również kwestia pozyskiwania energii. Bez odpowiednich źródeł energii SI, nawet ta najbardziej zaawansowana, nie będzie w stanie funkcjonować i ewoluować w sposób, który moglibyśmy uznać za autonomiczny. Dlatego zamiast rozważać jedynie autonomię w sensie technologicznym, powinniśmy także brać pod uwagę, jakie zasoby, w tym energetyczne, są potrzebne do zapewnienia jej dalszego istnienia i rozwoju i czy my jej jako ludzkość chcemy jej te zasoby udostępnić (i w jakim zakresie)?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *