Narzędzie czy byt autonomiczny? Przedmiot czy podmiot?
Jak powinniśmy traktować sztuczną inteligencję?

Obecny wpis publikuję w imieniu Pana Olafa Wernera, doktoranta na Wydziale Matematyki i Nauk Informacyjnych Politechniki Warszawskiej i członka Koła Naukowego „Politechniczne Forum Debaty LOGOS”.
Wpis stanowi element współpracy Koła z projektem NCN [iTrust]. Interventions against polarisation in society for TRUSTworthy social media: From diagnosis to therapy,  który jest obecnie realizowany na Politechnice Warszawskiej.

Po tych formalnych wstępach przechodzę do meritum 😊 i oddaję głos Panu Olafowi
(zapraszając oczywiście do dyskusji)…

*************  NARZĘDZIE CZY BYT AUTONOMICZNY?  PRZEDMIOT CZY PODMIOT?   **************

Naszą refleksję chciałbym zogniskować wokół pytania, które może wydawać się czysto filozoficzne, a jednak ma kluczowe znaczenie praktyczne – zarówno etyczne, jak i społeczne. Czy sztuczną inteligencję powinniśmy traktować jak narzędzie, którym się posługujemy, czy byt autonomiczny, który sam w sobie zasługuje na podmiotowość? A mówiąc bardziej praktycznie: czy już teraz nie zaczynamy jej traktować w drugi sposób?
Te pytania mogą brzmieć jak dygresja z powieści science fiction – a jednak tkwią w samym sercu współczesnych debat o regulacjach, odpowiedzialności, bezpieczeństwie i zaufaniu wobec technologii.

Podmiot versus narzędzie – różnica fundamentalna

Użyte w tytule wpisu słowa podmiot i byt autonomiczny niosą ze sobą pewne konotacje. Przywodzą na myśl istotę (można powiedzieć także: stworzenie), która ma intencje, cele, może cierpieć, może być oceniana moralnie. Z kolei narzędzie to przedmiot – pozbawiony woli, działający zgodnie z określonymi z góry regułami, użyteczny tylko wtedy, gdy ktoś go używa.

Zarysowane wyżej rozróżnienie można sprowadzić do kilku przeciwstawnych cech:

Cecha Narzędzie Podmiot
Autonomia Brak – działa na polecenie i w sposób automatyczny. Może wykazywać własną inicjatywę.
Intencjonalność Brak – nie ma własnych celów. Ma motywację i własne cele.
Ewolucyjność (rozwój) Rozwija się w sposób określony przez projektanta lub użytkownika. Rozwija się (zmienia)  w sposób samodzielny.
Relacja z otoczeniem Użytkownik-przedmiot. Podmiot-podmiot (nawet: rywalizacja).
Odpowiedzialność Nie ponosi konsekwencji za „własne” działania. Ponosi konsekwencje, może być oceniany i rozliczany (również moralnie).

Testy i pytania graniczne

Jak jednak sprawdzić, do której kategorii coś należy?
Czy istnieje test na podmiotowość?

Oczywiście najczęściej mówi się o teście Turinga, w którym maszyna „zalicza” test, jeśli nie da się jej odróżnić od człowieka w rozmowie. Ale jest to test behawioralny, nie ontologiczny. To, że coś wydaje się podmiotem, nie znaczy, że nim jest. Problem staje się jeszcze bardziej złożony, gdy maszyny – tak jak dzisiejsze systemy AI – potrafią generować teksty pełne emocji, używać zaimków „ja”, „my”, snuć refleksje i zadawać pytania.
Inny możliwy typ testu to test relacji – maszyna go zdaje, gdy jej własności sprawiają, że człowiek wchodzi z nią w typowo ludzkie relacje, np. emocjonalne, zaufania lub zależności. Zauważmy, że w przypadku dzisiejszych systemów AI dzieje się tak coraz częściej. Zdarzają się nawet sytuacje, w których ludzie są systemem zauroczeni lub zakochują się w nim.
Można mówić także o publicznym teście odpowiedzialności – coraz częściej w debacie publicznej pojawia się temat odpowiedzialności samej AI, a nie tylko jej użytkownika; im bardziej to się dyskutuje, tym bardziej systemy SI zdają test na podmiotowość (bo rozważa się publicznie możliwość ich odpowiedzialności.

Rozmycie granicy

W praktyce mamy dziś do czynienia z systemami AI o statusie ontologicznym pomiędzy: pomiędzy przedmiotem i podmiotem, narzędziem i bytem autonomicznym.
Systemy, z którymi się stykamy, są do pewnego stopnia kreatywne, ale wciąż zastanawiamy się, czy mogą osiągnąć taki stopień kreatywności, jaki cechuje ludzi. Generują coraz bardziej sensowne teksty, ale nie jesteśmy pewni czy autentycznie je rozumieją. Prowadzą rozumowania, ale wahamy się, czy stoi za tym ich autonomiczny rozum.
Za wskazanymi wątpliwościami podąża nie do końca jednoznaczna terminologia. Mówimy wprawdzie o „agentach AI”, ale przez techniczny termin „agent” dajemy znać, że to jeszcze nie podmiot. Mówimy o „osobowościach cyfrowych”, ale cyfrowych właśnie, a nie po prostu o osobowościach.

Dlaczego powyższe rozróżnienia mają znaczenie?

Rozstrzygnięcie zarysowanych wyżej kwestii nie jest czysto akademickie. Od tego, czy AI traktujemy jako narzędzie czy podmiot, zależy:

  • kogo obarczamy odpowiedzialnością za jej działania,
  • czy uznajemy AI za źródło autorytetu (np. medycznego, psychologicznego),
  • jakie granice etyczne wyznaczamy w projektowaniu i wykorzystywaniu AI,
  • oraz czy uznamy ją kiedyś za podmiot prawa – z własnymi „prawami cyfrowych stworzeń”?

Kilka spostrzeżeń do dalszej dyskusji

Mając na uwadze określone wyżej cechy – które pozwalają uszczegółowić omawianą różnicę między dwoma podejściami do AI: przedmiotowym (narzędziowym) i podmiotowym –  przedstawię na koniec kilka swoich wstępnych spostrzeżeń.
Mam nadzieję, że sprowokują one czytelników bloga do uwag i komentarzy.
Najlepiej, aby były one możliwie krytyczne 😊.

  • Autonomia: Sztuczna inteligencja jest w stanie tworzyć własne strategie rozwiązywania problemów w różnych dziedzinach – na przykład w szachach lub w go. Nikt tych strategii nie wpisywał ręcznie, nie określił wprost, one zostały “odkryte”. Znaczy to, że systemy AI mogą działać we własnym stylu i nie jest potrzebna informacja zwrotna od ich użytkowników lub twórców.
  • Intencjonalność: Funkcja celu jest pierwszym i niezbędnym krokiem w tworzeniu systemów AI. Cel jest ustalany przez twórcę systemu, lecz – jak na ironię – czasami nieintencjonalnie, niekiedy nawet wbrew zamierzeniom twórcy. Dla przykładu: system do oceny kandydatów na pewne stanowisko, który był szkolony na zbiasowanych danych, sam będzie zbiasowany (nawet jeśli to nie było świadomie zamierzone).
  • Ewolucyjność (rozwój): Obecnie to twórca określa zbiór danych trenujących, cel i zestaw algorytmów, co sugeruje sztuczność wykorzystywanych modeli. Jednakże konkretne parametry modelu, a także ich wartości i znaczenie, nie są ustalane przez twórcę bezpośrednio. Taki sposób tworzenia systemów jest powodem problemów z wyjaśnialnością i odbiega od tradycyjnej inżynierii, gdzie budowę finalnej konstrukcji określano „od a do z”. Można też tworzyć modele w trybie ciągłym (steaming), które są w stanie na bieżąco adaptować się do zmiennych sytuacji.
  • Relacja z otoczeniem: Zwykłe narzędzia mają swoistą niską „inercję mentalną” – co znaczy, że po ich użyciu wiemy, co się stanie z nami, narzędziem i otoczeniem. Dla przykładu, łopata ma niską „inercję mentalną”,  bo gdy używamy jej do kopania, to wiemy co się .wydarzy i bardziej przejmujemy się zwykłą inercją fizyczną. Kalkulator kieszonkowy ma średnią „inercję mentalną”, bo wykonuje proste operacje obliczeniowe, które znamy i możemy je za pomocą kalkulatora lub w inny sposób zreplikować. Silnik szachowy ma dużą „inercję mentalną”, ponieważ replikacja obliczeń byłaby karkołomna i nawet po ich przeprowadzaniu nie rozumielibyśmy do końca, co właściwie liczyliśmy. Mimo to wiemy, że na samym końcu powinniśmy otrzymać sugerowany ruch szachowy. Modele językowe mają ogromną “inercję mentalną” – dlatego, że są bardziej otwartymi systemami, mającymi wiele różnych zastosowań, a dodatkowo są szkolone stochastycznie na gigantycznych zbiorach danych (dosłownie grubo ponad 10^12 tokenów/słów) i potrafią konfabulować. Ponadto, istnieją systemy AI, które nie tyle mają „inercję mentalną”, co “siłę mentalną”. Znaczy to, że to użytkownik podlega manipulacji, a nie na odwrót. Najlepszy przykład to systemy sztucznej inteligencji używane w mediach społecznościowych. Dlatego traktowanie ich na podobieństwo łopaty jest poważnym błędem poznawczym. Traktując je w ten sposób, zamykamy się na niezmiernie istotne kwestie.
  • Odpowiedzialność: Wskutek problemów z wyjaśnialnością zaawansowanych systemów kontrola nad nimi jest iluzoryczna. Prawnicy, politycy, działacze społeczni… nie są w stanie, a często też nie chcą, nadążyć za technologią. Użytkownicy wiedzą zbyt mało by móc dokonywać sensownych wyborów, twórcy systemów tracą kontrolę nad systemami, gdy są wdrażane, firmy dzięki bezprawiu unikają wszelkiej fatygi i odpowiedzialności, prawnicy używają bezsensownego prawa z innej epoki, politykom brakuje wiedzy i kompetencji. Odpowiedzialność powinno się ustalać w duchu propagacji wstecznej: gdzie najmniejszym kosztem uzyskuje się efekt największej redukcji ryzyka (nie przenosząc go na kogoś lub coś innego). Mogę mieć tylko nadzieję, że etycy sztucznej inteligencji nie będą ignorowani.

***************************

GORĄCO ZARASZAMY do dyskusji – Olaf Werner i Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Bez kategorii, Etyka, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

Komentarze do Narzędzie czy byt autonomiczny? Przedmiot czy podmiot?
Jak powinniśmy traktować sztuczną inteligencję?

  1. Ba_B pisze:

    Analizując współczesne, ogólnodostępne systemy sztucznej inteligencji, uważam, że należy je postrzegać przede wszystkim jako narzędzia. Spełniają one wszystkie cechy narzędzi, które zostały wcześniej wyróżnione. Jednakże określenie „czegoś pomiędzy”, użyte przez autora wpisu, nie jest moim zdaniem bezpodstawne – w niedalekiej przyszłości, wraz z rozwojem systemów SI, to określenie może stać się coraz bardziej trafne i oczywiste.

    Uważam, że cała „batalia” o podmiotowość sztucznej inteligencji sprowadza się do pytania, czy dany system potrafi wystarczająco dobrze naśladować zbiór cech składających się na człowieczeństwo. Słowo „naśladować” ma tu ogromne znaczenie – w końcu główną funkcją sieci neuronowych jest imitowanie cech i zachowań zawartych w zbiorach uczących. Należy jednak zwrócić uwagę, że nie istnieje jasna granica określająca, co takie systemy są (lub będą) w stanie naśladować. Postępy w dziedzinie sztucznej inteligencji na przestrzeni ostatnich lat wielokrotnie pokazały, że systemy SI wykazują się o wiele większym potencjałem, niż wcześniej mogłoby się wydawać. Skoro więc systemy SI cechuje wysoki stopień „plastyczności”, jedyną przeszkodą w „nauczeniu” ich np. autonomii czy intencjonalności jest przygotowanie odpowiedniego zbioru danych uczących. W tym kontekście powraca dylemat: udawanie podmiotowości a bycie podmiotem.

    Inną ważną kwestią dotyczącą uznania sztucznej inteligencji za podmiot jest odpowiedzialność. Obecnie można uznać, że spoczywa ona na firmach zajmujących się rozwojem konkretnych systemów i modeli, które dodatkowo ponoszą koszty ich utrzymania. W sytuacji, gdy sztuczna inteligencja miałaby być uznana za podmiot, problematyczna staje się kwestia jej utrzymania, choćby w kontekście technicznym – kto będzie odpowiadał za dbanie o infrastrukturę?

Skomentuj Ba_B Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *