Zaufanie do systemów sztucznej inteligencji.
Rola wyjaśniania.

W tym tygodniu ukazała się współredagowana przeze mnie książka pt. „Zaufanie do systemów sztucznej inteligencji”: http://www.wydawnictwopw.pl/index.php?s=karta&id=3800. W jej drugim rozdziale stawiam pewne tezy, które chciałbym niniejszym poddać pod dyskusję. Dotyczą one funkcji wyjaśniających systemów SI oraz ich roli w kształtowaniu relacji zaufania użytkownika do systemu.

Bardzo proszę, aby nie mieć do tych tez zaufania :), spojrzeć na nie krytycznie i wskazać ich słabe punkty…

Tezy są następujące:

1.
Wśród czynników, które wzmacniają zaufanie człowieka do systemów sztucznej inteligencji (SI) na pierwszy plan wybijają się: a) skuteczność – system skutecznie rozwiązuje problemy wchodzące w zakres jego kompetencji, b) zdolność do wyjaśniania – system potrafi wyjaśnić, w sposób przekonujący dla człowieka, dlaczego w danej sytuacji podjął taką a nie inną decyzję; c)  elastyczność i otwartość na krytykę – system może zmienić sposób podejmowania decyzji zależnie od interakcji z użytkownikiem; zwłaszcza w przypadku nieskutecznych działań czy  błędnych decyzji.

2.
Istnieją systemy SI, które wykazują bardzo ograniczoną zdolność do wyjaśniania podejmowanych decyzji, wskutek czego nazywa się je czarnymi skrzynkami (ang. black boxes).  Duża część takich systemów jest oparta na sztucznych sieciach neuronowych (SSN), które nabywają swoje zdolności w drodze niskopoziomowego uczenia się, polegającego na (masowym) modyfikowaniu własności neuronów i połączeń między nimi. Własności te nie przekładają się jednak wprost na wiedzę użytkownika systemu o przyczynach podjęcia przezeń konkretnej decyzji.

3.
Do ogólnych powodów słabych zdolności wyjaśniających niektórych systemów SI (niekoniecznie SSN)  należą: a) zbyt duża złożoność strukturalna systemu (w tym: sterującego nim programu), b) interakcja systemu ze środowiskiem (w tym: uczenie się), c) naśladowanie naturalnych układów do przetwarzania informacji (nie dość dobrze poznanych), d) operowanie na danych niepewnych, e) brak procedur translacji operacyjnych reguł niskiego poziomu na czytelne dla człowieka reguły symboliczne.

4.
Funkcje wyjaśniające systemów SI nie są czymś zbędnym.  Odpowiadają na  naturalną dla człowieka – jako istoty racjonalnej – potrzebę uzasadniania żywionych i przyswajanych sądów, w tym wydawanych i przyjmowanych decyzji.

5.
W aspekcie praktycznym funkcje wyjaśniające są szczególnie ważne wtedy, gdy użytkownik przyjmuje wobec systemu SI zasadę  ograniczonego zaufania (ZOZ): nie ufa mu bezgranicznie, licząc się z możliwością popełniania przezeń błędów. Zgodnie z ZOZ,  zaufanie do systemu jest stopniowalne, a jego poziom musi być tym wyższy, im w większym stopniu system potrafi eliminować błędy i doskonalić swoje działanie.

6.
W świetle zasady ZOZ istotne jest, że systemy generujące wyjaśnienia, są postrzegane przez użytkowników jako systemy zawierające pewien mechanizm monitorujący, który prócz generowania wyjaśnień, pozwala rozpoznać i usunąć odpowiednie błędy. Ponadto, informacje zawarte w wyjaśnieniach, zwłaszcza te, które dotyczą wewnętrznych parametrów systemu, mogą pomóc w udoskonaleniu systemu przez człowieka, np. programistę.

Zachęcam wszystkich do dyskusji nad przytoczonymi tezami. Ich szersze omówienia można znaleźć we wspomnianej wyżej książce, w rozdziale drugim (mojego autorstwa) pod tytułem „Wyjaśnianie, zaufanie i test Turinga”.
Przytaczam niżej obszerny fragment tego rozdziału, który nieco pełniej niż powyższe punkty naświetla mój punkt widzenia.

*****  FRAGMENT ROZDZIAŁU pt. „Wyjaśnianie, zaufanie i test Turinga”
Z KSIĄŻKI „Zaufanie do systemów sztucznej inteligencji”  *****

(…)

Zaufanie a wyjaśnianie. Kontekst psychologiczny

Zaufanie jest relacją natury psychicznej, która polega na tym, że pewna osoba, nazwijmy ją podmiotem zaufania, żywi określonego rodzaju przekonanie co do możliwych  działań drugiej strony, na przykład osoby, zwierzęcia, instytucji, urządzenia czy systemu. Jest ona mianowicie przekonana, że działania te będą zgodne z jej oczekiwaniami, które z kolei mają swoje uzasadnienie w deklaracjach, zobowiązaniach lub technicznych specyfikacjach (w przypadku artefaktów) drugiej strony. Relacja ta ma charakter kontekstowy. Znaczy to, że oczekiwania podmiotu zaufania zależą silnie od tego, czym jest druga strona relacji i jaką funkcję pełni.  Na przykład, czy osoba, której podmiot miałby zaufać, jest pracodawcą, usługodawcą, współpracownikiem, partnerem życiowym etc…

Ponieważ jądrem relacji zaufania są oczekiwania wobec pewnego obiektu (np. osoby), psychologowie bardzo często określają zaufanie za pomocą pojęcia wiarygodności. Oto objaśniający tę kwestię fragment pracy psychologów poznawczych: „Decyzja o zaufaniu opiera się najczęściej na ocenie wiarygodności drugiej osoby. Wiarygodność jest więc podstawą zaufania, a także niezbędnym czynnikiem dla pełnej relacji zaufania. Wiarygodność drugiej osoby oznacza przekonanie, że osoba ta będzie zachowywać się w sposób zgodny z oczekiwaniami.” [Jaklik, Łaguna, 2015]

Kluczową dla relacji zaufania cechę wiarygodności możemy – za M. Szynkiewiczem [2014] – zróżnicować dalej na wiarygodność merytoryczną i wiarygodność etyczno-moralną. Pierwsza zależy od wiedzy, doświadczenia i kompetencji dziedzinowych adresata postawy zaufania, druga – od przejawiających się w jego działaniu norm, zasad i poglądów etycznych. Wiarygodność merytoryczna ma charakter bardziej podstawowy, ponieważ sądy i wybory etyczne muszą dotyczyć działań, które bez należytej wiedzy i bez odpowiednich kompetencji nie mogłyby zostać ani zaplanowane, ani podjęte. Ona też będzie nas interesować w sposób szczególny, ponieważ na obecnym etapie rozwoju systemów informatycznych trudno mówić o maszynach, które autentycznie dokonują samodzielnych wyborów etycznych. Ewentualna etyka czy moralność jest kwestią zewnętrzną – powiązaną z decyzjami ludzi, którzy tak a nie inaczej programują maszyny czy ich używają.

Wyróżniony typ wiarygodności jest weryfikowany w praktyce przez skuteczność działań adresata postawy zaufania. Jest to cecha wpływająca najsilniej na poziom zaufania:  im bardziej efekty działań są zgodne z oczekiwaniami, czyli dają oczekiwany skutek, tym większe zaufanie.  Przykładowo, jeśli pewien chirurg, stawiał w przeszłości trafne diagnozy i przeprowadził wiele udanych operacji, darzymy jego umiejętności wysokim zaufaniem i bez wahania skierujemy się do niego w potrzebie. Warto zauważyć, że wobec niemożności osiągnięcia przez jakikolwiek podmiot idealnej skuteczności działań, zaufanie do niego musi być silnie uzależnione od jego zdolności do poprawy tejże efektywności. Im dany podmiot jest bardziej otwarty na krytykę, im bardziej jest w stanie eliminować błędy w swoim działaniu i zwiększać w ten sposób swoją skuteczność, tym bardziej jest on godny zaufania.
Relacja zaufania pozostaje zatem zakotwiczona w praktyce, jest też ukierunkowana na przyszłość i stopniowalna. Skoro jest stopniowalna, to powstaje pytanie o dodatkowe czynniki, które  istotnie wzmacniają jej siłę.

Twierdzimy, że oprócz kluczowej dla zaufania skuteczności działań (w tym eliminacji błędów zwiększających skuteczność), niezwykle istotną rolę odgrywa tutaj zdolność do wyjaśniania – wyjaśniania motywów działań, stojących za nimi decyzji i przyświecających im celów. Zdolność ta ma zarówno pewne walory praktyczne (o czym powiemy szerzej w kontekście systemów SI), jak i czysto psychologiczne, związane z naturalną dla człowieka potrzebą poszukiwania i uzyskiwania wyjaśnień.

W bliskim psychologii kontekście epistemologicznym kwestia druga wiąże się z samym pojęciem wiedzy, ku której człowiek – jako istota rozumna – w sposób naturalny podąża. W każdej definicji wiedzy podkreśla się czynnik uzasadnienia: jest to zbiór sądów, które oprócz innych własności, muszą posiadać dostatecznie dobre uzasadnienie (por. [Ajdukiewicz, 2006], [Chisholm 1994], [Stacewicz, 2021]). To ostatnie zaś, w formie dostępnej dla człowieka czyli intersubiektywnie komunikowalnej, przyjmuje postać wyjaśnienia, które odpowiada na pytanie „dlaczego?”. Na przykład: „Dlaczego lekarz interpretujący wyniki badań wydał sąd określający konkretną diagnozę i konkretną terapię”. Dostępności tego rodzaju wyjaśnień oczekujemy od każdego eksperta i każdego systemu, który wchodzi w jego rolę. Z samej definicji wiedzy jako czegoś intersubiektywnie dostępnego i komunikowalnego [Ajdukiewicz, 2003] wynika zatem, że wiarygodność merytoryczna – zależna od wiedzy i zdolności jej wykorzystywania – musi być weryfikowana między innymi w oparciu o wyjaśnienia adresata postawy zaufania.

Zaufanie a wyjaśnianie. Kontekst systemów sztucznej inteligencji

Relacja zaufania człowieka do systemów informatycznych – jako relacja natury psychologicznej, której główną stroną jest człowiek –  musi mieć swój mentalny wzorzec w relacjach międzyludzkich. Obserwacja ta idzie w parze z ideą testu Turinga, który nakłada na program sztucznej inteligencji sztywne więzy podobieństwa systemów SI  do człowieka. Wymóg podobieństwa sprawia, że na zaufanie człowieka do systemu niejako podwójnie wpływają wzorce kształtowane w kontaktach międzyludzkich: po pierwsze dlatego, że podmiotem relacji jest człowiek, po drugie zaś dlatego, że system informatyczny ma przypominać człowieka.
Mając to wszystko na uwadze, uwzględniając przy tym nowy kontekst interesującej nas relacji, możemy uwypuklić ponownie dwa czynniki wzmacniające zaufanie i dodać do nich trzeci. Są to:

    • skuteczność – system skutecznie rozwiązuje problemy wchodzące w zakres jego kompetencji (im lepsze statystyki poprawnie realizowanych zadań, tym większe zaufanie użytkownika);
    • zdolność do wyjaśniania – system potrafi wyjaśnić, w sposób przekonujący dla człowieka, dlaczego w danej sytuacji podjął taką a nie inną decyzję (jednym z możliwych sposobów wyjaśniania jest zrozumiała dla człowieka rekonstrukcja kroków, które doprowadziły do decyzji);
    • elastyczność i otwartość na krytykę – system może zmienić sposób podejmowania decyzji zależnie od interakcji z użytkownikiem; zwłaszcza w przypadku nieskutecznych działań, błędnych decyzji etc…

Z dwoma ostatnimi czynnikami wiąże się coś, co moglibyśmy nazwać zasadą  ograniczonego zaufania: użytkownik nie ufa systemowi bezgranicznie, licząc się z możliwością popełniania przezeń błędów. W świetle tak rozumianej zasady zaufanie do systemu jest stopniowalne, a jego poziom musi być tym wyższy, im w większym stopniu system potrafi eliminować błędy i doskonalić swoje działanie. Sprzyjają temu obecne w jego oprogramowaniu moduły uczenia się, ale ponadto, silnie powiązana z mechanizmami naprawczymi zdolność do generowania wyjaśnień.
Stawiamy tezę, że przy akceptacji zasady ograniczonego zaufania istotnie wzrasta rola zdolności do generowania wyjaśnień jako czynnika wzmacniającego wiarygodność systemu. Jeśli użytkownik akceptuje zasadę, a więc jest świadom możliwych błędów w działaniu maszyny, to w sposób naturalny łączy wiarygodność ze zdolnością do poprawy tegoż działania. Chodzi przy tym o perspektywę długoterminową, wykraczającą poza wąski horyzont aktualnie realizowanych zadań. Im większe zdolności naprawcze systemu, tym wyższy poziom zaufania do niego w długoterminowej perspektywie aktualnych i przyszłych zadań.

Mechanizm generowania wyjaśnień jest w tym kontekście niezwykle ważny. Generując wyjaśnienia, system nie tylko zaspokaja pewną epistemiczną potrzebę użytkownika (potrzebę poznania uzasadnień czy wyjaśnień), lecz dostarcza mu silnej przesłanki za tym, że w systemie istnieje pewien mechanizm monitorujący, który prócz generowania wyjaśnień, pozwala rozpoznać i usunąć odpowiednie błędy. Ponadto, informacje zawarte w wyjaśnieniach, zwłaszcza te, które dotyczą wewnętrznych parametrów systemu, mogą pomóc w udoskonaleniu systemu przez człowieka, np. programistę. W kontekście możliwej przebudowy układ taki jest więc bardziej godny zaufania niż układ nie dostarczający wyjaśnień.

Chociaż obydwa powiązane ze sobą czynniki – zdolność do generowania wyjaśnień i zdolność do uczenia się – uznaliśmy za pozytywnie wpływające na zaufanie, to trzeba zwrócić uwagę na inny, bardziej negatywny aspekt ich wzajemnej relacji. Otóż mechanizm uczenia się, a dokładniej zmiany powstające w wyniku jego działania,  uznaje się za jedną z głównych przyczyn nieprzejrzystości poznawczej systemów informatycznych oraz trudnej interpretowalności uzyskiwanych przezeń wyników [Zednik 2021], [Stacewicz, Greif, 2021]. Typowy proces narastania nieprzejrzystości polega na tym, że w efekcie uczenia się do systemu są wprowadzane pewne techniczne parametry, które mają na celu dostosowanie działania systemu do wymogów realizowanego zadania, nie pozwalają natomiast uchwycić istotnej i zrozumiałej dla człowieka relacji między danymi a wynikami. Problem ten pogłębia się, gdy proces uczenia się zależy istotnie od kroków losowych, które (ponownie) mają zapewnić efektywność systemu, nie zaś przejrzystą dla człowieka formę wyjaśnienia. Okazuje się zatem, że chociaż zdolność do uczenia się skutkuje poprawą jakości działania systemu i jako taka wzmacnia relację zaufania, to w przypadku pewnych form uczenia się – takich mianowicie, które prowadzą do nieprzejrzystości poznawczej układu – relacja zaufania zostaje osłabiona.

Narzucającym się rozwiązaniem tego problemu jest powiązanie uczenia się z wyjaśnianiem w taki sposób, aby w obydwa procesy był zaangażowany ten sam mechanizm monitorowania pracy systemu. Z jednej strony, wyniki działania tego mechanizmu, czyli rejestrowane zmiany systemu, byłyby podstawą uczenia się (korzystnych zmian w systemie), a z drugiej strony, byłyby one wykorzystywane w procesie wyjaśniania (odnoszącym się również do stanów wewnętrznych systemu).

(…)

Jeszcze raz zachęcam wszystkich do dyskusji :).

W dalszej rozmowie mogą okazać się przydatne również pewne dodatkowe materiały:

1)  The “black box” metaphor in machine learning
2)  Fragment mojej książki, dotyczący problemu czarnej skrzynki
3)  Starszy wpis w blogu o przejrzystości poznawczej systemów algorytmicznych

Paweł Stacewicz

Ten wpis został opublikowany w kategorii Dydaktyka logiki i filozofii, Epistemologia i ontologia, Etyka, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny. Dodaj zakładkę do bezpośredniego odnośnika.

21 Responses to Zaufanie do systemów sztucznej inteligencji.
Rola wyjaśniania.

  1. Jan Tlałka pisze:

    Zaufanie do czegoś lub kogoś jest rzeczą złożoną. Aby zdobyć prawdziwe zaufanie do kogoś potrzeba zazwyczaj długiego czasu i zrozumienia. Nie mamy jednak problemu zaufać kierowcy autobusu, że umie prowadzić i zawiezie nas do celu. Jeszcze łatwiej przychodzi nam zaufanie urządzeniom np. budzikowi, że nas obudzi, czy światłom ulicznym na skrzyżowaniu.
    Mówię o tym, nawiązując do części pierwszej tezy. Wymieniono w niej “elastyczność i otwartość na krytykę” jako aspekt wzmacniający zaufanie. Z przytoczonych przykładów wynika jednak, że łatwiej ufamy rzeczom, które mają małą elastyczność. Można zauważyć tu, że istotniejszym aspektem jest to, czy osoba lub rzecz została przetestowana przez osobę, której ufamy w danym temacie. Kierowcy ufamy, bo wiemy, że musiał przejść testy, a urządzeniom, bo zostały zrobione przez osobę znającą się na tym.
    Pojawia się więc pytanie, jak testować i tworzyć, aby osoba która trochę zna się na temacie mogła zaufać programowi? W przypadku ludzi, którzy wykonują jakiś zawód przeprowadzane są przyuczenia, testy sprawności itp. Czy w przypadku urządzeń można zrobić coś podobnego?
    Jeżeli chodzi o testy sprawności w wielu rozwiązaniach są one możliwe do przeprowadzenia. Wymaga to jedynie podzielenia danych na część do nauki i przetestowania. Są przypadki, w których testy skuteczności mogą być kłopotliwe np. w przypadku uczenia nienadzorowanego (unsupervised learning). Istnieją jednak pewne metody (głównie wizualne), które mogą pomóc określić pewnego rodzaju skuteczność programu.
    Znacznie większą trudność sprawia jednak umożliwienie odpowiedzi na pytanie “dlaczego?” i “skąd ten wynik/wniosek?”. Jest to istotne, gdyż nie tylko wynik jest ważny, ale i droga jaką się do niego dotarło. Niepewne czy błędne dane mogą bowiem równie dobrze dawać złe jak i dobre wyniki (co wynika z tego, że z fałszu może wynikać cokolwiek). Z tego powodu osoba, która sprawdza powinna też zadać pytanie “dlaczego?”.
    Tu pojawią się problemy, które zostały wymienione w 3 tezie, ale nie tylko. Kolejnym źródłem problemów jest niedocenianie istotności dokumentacji i uzasadnień przez wielu programistów. Za istotniejsze uważają wyniki, a nie możliwość ich uzasadnienia. Sprawia to potem problemy przy testowaniu, a także naprawie błędów.
    Kolejnym źródłem małej możliwości uzasadnienia jest to, że często twórcy nie w pełni rozumieją algorytmy bądź zjawiska, do których je stosują. Oczywiście czasami jest to nieuniknione. W szczególności w przypadku, gdy bada się nieznane dane czy zjawisko. W większości przypadków możliwe jest jednak stworzenie, chociaż uproszczonego modelu relacji (nie w pełni określonych), której ostateczną formę określałby program.
    Uważam, że brak procedur translacji wynika głównie z tych dwóch źródeł. W wielu przypadkach translacja jest skomplikowana, ale nie niemożliwa. Przykładowo dla sieci neuronowej pewną formą odpowiedzi “skąd taki wynik?” jest wykorzystanie gradientu do określenia jak zmiana danych wejściowych wpływa na zmianę na wyjściu. W przypadku zastosowania samych funkcji (neuronów) ReLU(), sin() bądź cos() można z kolei próbować implementować teorię szeregów Taylora i Fouriera, aby doprowadzić postaci relacji wejścia- wyjścia do postaci funkcji bardziej zrozumiałej dla człowieka.
    Podsumowując, dla zdobycia zaufania do czegoś istotniejsze jest to, aby ktoś bądź coś czemu ufamy w pewnym aspekcie sprawdziło słuszność działania niż żeby było ono w stanie się dostosowywać/poprawiać. Elastyczność na pewno ułatwia doprowadzenie programu do stanu, w którym można mu zaufać. Przeciętnej osobie łatwiej jednak przychodzi zaufanie czemuś w miarę stałemu. To jest powodem, dla którego uważam, że istotniejsze jest rozumne tworzenie i testowanie SI zanim trafi ono do powszechnego użytku.

  2. Radosław R pisze:

    Zaufanie do rzeczy martwych z pozoru może się wydawać dziwne, ale robimy to każdego dnia. Wierzymy, że budynek w którym się znajdujemy nie zawali się, a widna do której wchodzimy nie spadnie z hukiem. I mamy do tego dobre powody. Wieki rozwoju czy widok sprawdzonych i skutecznych rozwiązań sprawiają, że czujemy się bezpiecznie. Jeżeli potrzeba, to ekspert w danej dziedzinie wytłumaczy nam szczegóły działania. W skrócie: jeżeli coś działa i wiemy dlaczego działa to temu ufamy.

    W komentarzu powyżej argument „elastyczności i otwartości na krytykę” został przedstawiony jako przeciwny wzmacnianiu zaufania do SI. Odpowiednie dostosowanie się programu do zadanego celu i zastosowanie poprawek przez program sztucznej inteligencji sugeruje odpowiednie działanie i aplikowanie się do ogólnych reguł. Bardziej zaufamy programowi, który odpowiednio dostosuje się do otrzymanych informacji i poda celniejsze odpowiedzi, niż programowi, który będzie nieelastyczny i częściej się pomyli.

    Poziom skomplikowania informatycznych systemów sztucznej inteligencji potrafi dojść do absurdalnych wartości. Powoduje to trudność w wyjaśnieniu drogi od początku do końca. Moim zdaniem znajomość tej drogi nie jest niezbędna do zaufania SI. Dopóki otrzymana odpowiedź odpowiada na pytanie według określonego celu programu, to nie ma się czego obawiać. Rozumiem, że niepokój przez niezrozumienie drogi występuje u człowieka i jest to całkowicie naturalne, aczkolwiek niepotrzebne.

    Chciałbym zaznaczyć, że poznanie drogi czy podejmowania decyzji przez SI może być kluczowa do ulepszenia działania programu, czyli dawaniu bardziej sprecyzowanych i dokładniejszych odpowiedzi.

    Zasada ograniczonego zaufania (ZOZ) jest zależna od jakości napisanego programu. Przykładowo nie powinniśmy uznawać każdą diagnozę w systemach eksperckich za fakt, tylko jako sugestie. Należy sprawdzić, czy odpowiedź jest zgodna z rzeczywistością. Na tym polega proces nauki takiego systemu. Czym więcej będzie zgodnych diagnoz, tym wyższe będzie zaufanie do działania systemu.

    Uważam, że nie powinniśmy się obawiać SI i traktować ją z zaufaniem. Gigantyczny stopień skomplikowania sprawia, że nie zawsze jesteśmy w stanie określić jakie decyzje podjął program podczas wykonywania zadania, ale dopóki program nie potrafi nadawać sobie autonomicznych celów lub cele nadane przez twórcę są w ogólnym rozumieniu złe, to powinniśmy korzystać z zalet jakie niesie za sobą SI.

    • Jan Tlałka pisze:

      Widząc odniesienie do mojego komentarza chciałbym nieco doprecyzować moje stanowisko. Zgadzam się z Radosław R, że odpowiednie dostosowanie się programu do zadanego celu może przyczynić się do zwiększenia zaufania człowieka. Nie twierdzę więc, że elastyczność osłabia zaufanie do programu. Uważam jednak, że nie jest to relacja wprost proporcjonalna.

      Przykładowo, SI służące do przewidywania cen jakiegoś dobra będzie bardziej godne zaufania, gdy będzie nie tylko wykorzystywało dane na jakich się uczyło, ale także dostosowywało się do nowych. Pojawia się jednak problem, że jeżeli nowe dane będą błędne lub doszło do jakieś radykalnej zmiany to może dojść do zupełnego rozstrojenia. Taki problem pojawił się na przykład z powodu pandemii, która zupełnie zmieniła zasady gry na wielu rynkach.

      Innym przypadkiem zbyt dużej swobody może być znany Chat GPT. Ma on tendencje do tego, że nie mogąc znaleźć danych zaczyna tworzyć własne fałszywe dane. Osobiście uważam, że lepiej byłoby, gdyby napisał, że nie może znaleźć danych lub, że ma z tym problem. Nawet jeżeli użytkownik to zauważy, zwróci mu uwagę, a on się poprawi (często jest z tym problem) to i tak zaufanie zostało nadszarpnięte.

      Dochodzę więc do wniosku, że pewna swoboda i zdolność do poprawy jest korzystna. Zwiększa ona wtedy zaufanie ludzi do SI. Jeżeli jest ona za duża lub/i nienadzorowana może to doprowadzić do zwiększenia nieufność zamiast zmniejszenia. Dlatego uważam, że należy zachować w tej materii pewien umiar, żeby otrzymać najlepsze wyniki.

  3. Maciej Z. pisze:

    Po zaznajomieniu się ze wszystkimi możliwymi źródłami i uskutecznieniu pewnej własnej refleksji byłbym skłonny stwierdzić iż czynniki wpływające na tytułowe zaufanie do sztucznej inteligencji można byłoby wyróżnić jako związane z ważnością roli pełnionej przez system oraz poziomem ich skomplikowania.
    Zaufanie jest pojęciem wyjątkowo złożonym, jak wyjaśnione w Podanym przez Doktora Stacewicza fragmencie książki „Zaufanie do do systemów sztucznej inteligencji” : [(…) pewna osoba, nazwijmy ją podmiotem zaufania, żywi określonego rodzaju przekonanie co do możliwych działań drugiej strony (..) że działania te będą zgodne z jej oczekiwaniami].
    Zaufanie jako takie więc wydające się na pozór domeną ludzką może być odniesione też więc do rzeczy, przedmiotów lub maszyn wykonujących swoje zadanie w sposób jaki zakładamy lub będące w stanie naprawiać błędy na drodze polepszania swojej pracy.
    Można by rzec że ufamy wielu urządzeniom na naszym porządku dziennym, prostemu budzikowi w telefonie na przykład. Lecz pojawia się problem jak odnieść te zaufanie do systemów sztucznej inteligencji? Wielu mogłoby rzecz że to zależy od tego jak zdefiniujemy system sztucznej inteligencji, jak bardzo rozwinięty jest i jakie zadania mu powierzymy. I przez to nasuwa się pytanie, czy bardziej zasadne byłoby potraktowanie takowego systemu pod katem zaufania bardziej jako maszyny czy człowieka? Bo tak naprawdę, to mogłoby określić jak podstawowy fundament zaufania należałoby odnieść. Moim zdaniem, jest to po prostu problem skomplikowalności. Maszyny występujące w naszym życiu codziennym póki co są to proste algorytmy i mechanizmy które, nawet jeśli wymagają pomocy specjalistów do odkrycia sposobu ich działania i stwierdzenia zasad na jakich operują, dalej są określalne. Aczkolwiek, człowiek też może być postrzegany jako takowa maszyna, bardzo skomplikowana, którą nie do końca jeszcze zbadaliśmy, której algorytmów działania nie rozumiemy w 100%. Jeśli chcemy zatem by sztuczna inteligencja rozrastała się i w pewien sposób ewoluowała razem z nami, potrzebne nam jest podejście wyśrodkowane, zależne od tego na jakim etapie jesteśmy.
    Jeśli mowa o systemach uczący się lecz stosunkowo prostych jak na obecne czasy modelach dostosowujących wyświetlane nam reklamy, filmy wideo i muzykę, które dostosowują to na podstawie monitorowania poczynań użytkowników, stopień zaufania może być podobny do zwykłej maszyny np. ekspresu do kawy. Uczą się one oczywiście na algorytmach podających im dane lecz dalej są one analizowalne ponieważ bazują na prostych relacjach określających ważność danej akcji użytkownika i połączeń między różnymi typami danych wyjściowych. Poprzez znajomość tych schematów podstawowych odpowiednie osoby byłby w stanie ujawnić w miarę przejrzysty znaczeniowo łańcuch wnioskowań od wejściowych danych do wyniku. Możliwe jestem zatem wyłapanie błędów i korekcja danego schematu więc nie do końca take systemy można nazwać czarnymi skrzynkami. Problem pojawia się w bardziej skomplikowanych strukturach np. opartych na sztucznych sieciach neuronowych które „ewoluują” w trakcie niskopoziomego uczenia się i odczyt takiego przyczynowo skutkowego postępowania może być utrudniony. Zwłaszcza jeśli w przyszłości będziemy chcieli wykorzystać te systemy do ważnych funkcji i odpowiedzialnych roli, gdzie wydaje się że nadzór człowiek może być nieodzowny. Wtedy właśnie bardziej uwydatnić mogą się potrzeby uzasadniania wyborów i działań wykonywanych przez sztuczną inteligencję. W tym punkcie jednak znowu można by odnieść się do pytania, za jak bardzo zaawansowany system można uznać taką samouczącą się sztuczną inteligencję?
    Można by rzecz że człowiek tak naprawdę jest prawdziwą czarną skrzynką dla naszego obecnego stopnia poznania tego jak działa świat i wszystko co w nim występuje. Ze względu na to że nie jesteśmy dokładnie opisać algorytmów wskazujących na to czemu dana decyzja została podjęta. Moim zdaniem to wszystko polega na działaniu pewnego spektrum, w którym poziom zaufania nie jest linearny i będzie zmieniał swoje właściwości w zależności od tego na jakim etapie znajduje się inteligencja o której mówimy. Może dojedziemy kiedyś do etapu w którym skomplikowaność sztucznej inteligencji będzie tak ogromna i wytworzy to tak dużą przepaść iż nawet specjaliści nie będą mogli przeanalizować procesów przyczynowo skutkowych takiego systemu? Dlatego właśnie moim zdaniem wraz z postępem technologicznym i tym polegającym na rozbudowywaniu skomplikowalności systemów sztucznej inteligencji, należy mocno skupić się na sposobach uzasadniania i opisywania takowych procesów aby były one do pewnego stopnia kontrolowalne przez czynnik ludzki. Zasada ograniczonego zaufania natomiast powinna modyfikować się wraz z wzrostem niezawodności systemów, i polepszaniem się eliminowania błędów popełnianych przez inteligencję. Ale możliwe że kiedyś maszyny będą mogłyby być na tyle skomplikowane co ludzie a może i nawet bardziej, w takim momencie można by sobie zadać pytanie, komu tak naprawdę lepiej można ufać? Niezawodnej maszynie? Czy zawodnemu lecz empatycznemu człowiekowi?

  4. Marek N. pisze:

    Komputer jest urządzeniem niezwykle złożonym, lecz mimo to szeroko aplikowanym i „cieszącym się” zaufaniem niejednokrotnie przewyższającym zaufanie, którym obdarza się drugiego człowieka. Może być to spowodowane faktem, że o ile ludzie sami nie są w stanie pojąć jak działa ich maszyna, to ktoś potrafi i od podstaw zaprojektował i skrupulatnie sprawdził projekt. Jest to jednak przekonanie w większości błędne, o ile jest to możliwe aby poznać komputer „od podszewki”, to projektowanie nowoczesnych maszyn obliczeniowych jest najczęściej rozłożone na wiele zespołów i podzespołów, od których oczekuje się dostarczenie właśnie „czarnej skrzynki” (przynajmniej z punktu widzenia zarządcy projektu), to znaczy komponentu przyjmującego wejścia i dającego wyjścia mieszczącego się w danych parametrach, które następnie łączy się w jedną całość.

    Odwołując się do tezy nr. 6: to co może dodatkowo uspokajać ludzi to fakt że projektanci komputera, albo innego złożonego systemu, np. mostu, samochodu, mogą zostać pociągnięci do odpowiedzialności jeśli system zawiedzie, a przynajmniej można będzie wskazać winnego i stwierdzić gdzie zaszła awaria. W przypadku AI, mamy jednak do czynienia z systemem, który można nazwać „monolitycznym”, powstaje on w całości od początku do końca w ramach jednego procesu. Miejsce ma bardzo duża złożoność uzyskana dzięki pracy bardzo małego zespołu. Jak pisze Dallas Card w swoim blogu (tytuł postu: The “black box” metaphor in machine learning) W przypadku SI mamy do czynienia raczej ze „Szklaną skrzynką”. Komponenty są łatwo widoczne i można w dowolnej chwili sprawdzić ich wartości, jednakże odpowiedzenie na pytanie „dlaczego ten komponent tu jest i jaką funkcję pełni?”, wykracza poza zdolności człowieka. Spowodowane jest to właśnie niemożnością podzielenia systemu takiego jak sieć neuronowa na „podjednostki”. Jeśli skomplikowany system można przedstawić w formie diagramu blokowego będzie go łatwiej zrozumieć, oraz wzbudzi o wiele większe zaufanie, nawet jeśli działanie wszystkich elementów nie zostanie opisane. W przypadku sieci neuronowej trudno jest rozbić ją na schemat blokowy o rozsądnej liczbie elementów.

    W punkcie 1 mowa jest o skuteczności. Oczywistym jest, że żaden system nie jest doskonały, mówiąc o zaufaniu do systemu mamy głównie na myśli odporność na błędy. Zakładamy więc, że niczym w grach strategicznych, każde użycie systemu jest w istocie rzutem kostką, istnieje jakieś prawdopodobieństwo, że dojdzie do błędu (zasada ograniczonego zaufania). Im dłużej dany system jest stosowany i im lepiej udokumentowane są awarie związane z tymże systemem, tym łatwiej odnaleźć przyczyny zaistniałych błędów i odpowiednio skompensować pod nie. Taki sprawdzony system byłby w oczach ludzi godny zaufania dlatego, że mogą liczyć nie tylko na jego sukces przy określonych zadaniach, ale i dlatego, że wiedzą kiedy może on zawieść, dzięki czemu mogą unikać takich sytuacji.

    Apogeum „sprawdzonego systemu” jest ludzki mózg. Argumentem przemawiającym za tym stwierdzeniem jest powszechne przekonanie, że właśnie on powinien być weryfikatorem wszystkich innych systemów. Nikt nie wie co naprawdę odbywa się w ludzkim mózgu a mimo to ludzie mają do innych ludzi większe zaufanie niż do zrozumianych i skrupulatnie przetestowanych systemów (np. samoloty i aerofobia). Statystyka może okazać się ważnym czynnikiem przy przekonywaniu ludzi do rozwiązań wykorzystujących algorytmy SI. Ponieważ systemy samouczące się stają się lepsze z każdym „pokoleniem”, prawdopodobieństwo wystąpienia błędu spada. W przyszłości, porównanie procenta wypadków spowodowanych przez błąd ludzki systemy autonomiczne, może przemawiać samo za siebie.

  5. Mikołaj Siwek pisze:

    Jako jeden z czynników wzmacniających zaufanie została podana zdolność do wyjaśniania. Oczywistym jest że łatwiej jest nam zaufać osobom które potrafią w sposób logiczny przekonać nas że ich działania nie są dziełem przypadku, jednak faktem jest też że w wielu sytuacjach ludzie kierują się swego rodzaju intuicją, na którą wpływa ich wiedza i doświadczenia. Intuicja ta opiera się na tak wielu czynnikach, że nawet osoba która się nią kieruje może mieć problem z wyjaśnieniem co spowodowało taki a nie inny tok myślenia, który skutkował podjęciem decyzji. Intuicję tą moim zdaniem można porównać do bardzo skomplikowanych sieci neuronowych, które bombardowane ogromną ilością danych, kształtują swój sposób dedukcji, który jest skuteczny, choć sama sieć neuronowa nie jest w stanie wyjaśnić nam ani samej sobie, dlaczego? Jednak ludziom którzy kierując się swoją intuicją są skuteczni w swoim działaniu, jesteśmy w stanie zaufać, czasem nawet bardziej, niż osobom które potrafią swój tok rozumowania wyjaśnić nam logicznie.

    W moim odczuciu decyzja o tym czy algorytmom uczenia maszynowego należy zaufać, jest w dużej mierze kwestią moralną. Powinniśmy sobie zadać pytanie “czy chcemy aby pod względem zaufania maszyny były przez nas traktowane na tym samym poziomie co ludzie?” W mojej opinii maszyny już teraz są nieodłączną częścią naszego życia, a w przyszłości ten fakt będzie jedynie się umacniał. Postęp technologiczny jest nieunikniony, a sztuczna inteligencja z czasem będzie pojawiała się w kolejnych obszarach naszego życia. Dlatego może lepszym pytaniem byłoby “czy jesteśmy gotowi pogodzić się z tym że będziemy musieli zaufać maszynom?

  6. Paweł Stacewicz pisze:

    Bardzo dziękuję za dotychczasowe komentarze. Niebawem odniosę się do nich szerzej. Tymczasem zaś chciałbym rozwinąć pewien nowy wątek, który wywołał w końcówce swojego komentarza Maciej Z.
    Napisał on: „Ale możliwe że kiedyś maszyny będą mogłyby być na tyle skomplikowane co ludzie a może i nawet bardziej, w takim momencie można by sobie zadać pytanie, komu tak naprawdę lepiej można ufać? Niezawodnej maszynie? Czy zawodnemu lecz empatycznemu człowiekowi?”.
    W ten sposób p. Maciej Z. wprowadził do naszej rozmowy wątek empatii, który ja pominąłem w swoich opisach i tezach.

    Faktycznie, relacja zaufania między człowiekiem a innymi ludźmi (częściowo też zwierzętami) i relacja zaufania między człowiekiem a maszyną (np. wspominanym kilkukrotnie budzikiem) różnią się nieco. W przypadku zaufania do ludzi duży nacisk kładziemy na zaspokajanie naszych potrzeb psychicznych, np. potrzeby akceptacji (choćby częściowej) czy potrzeby współczucia (to już coś bliskiego empatii). W przypadku maszyn czy urządzeń wydaje się, że chodzi głównie o ich skuteczność, a w przypadku akceptacji zasady ograniczonego zaufania, o zdolność do poprawy tejże skuteczności. Maszyn, póki co, nie odbieramy jako bytów czujących czy wczuwających się, a więc nie oczekujemy od nich empatii – tj. rozumienia naszych potrzeb i poprzedzającego to rozumienie współodczuwania.

    Pamiętajmy jednak, że systemy sztucznej inteligencji to maszyny bardzo szczególne. I bardzo złożone. Chcemy je uczynić jak najbardziej podobnymi do człowieka. I nawet jeśli stwierdzimy, że mają być po prostu inteligentne, to rozumiemy, że w przypadku człowieka inteligencja idzie w parze z różnymi innego typu procesami psychicznymi, np. rozumieniem. A może też idzie w parze z czymś w rodzaju empatii — np. gdy chodzi o inteligencję kierowaną na zaspokojenie potrzeb innej osoby, lub inteligencję rozwijaną we współdziałaniu z innymi.
    Nie możemy zatem wykluczyć, że systemy SI przyszłości będą wykazywać jakiś zakres empatii. Jeśli tak, to patrząc w przyszłość, można się zastanawiać, na ile empatia stanowi czynnik wzmacniający zaufanie do systemów sztucznej inteligencji.

    • Jakub Florczak pisze:

      Kiedy mowa o sztucznej inteligencji ze zdolnością empatii, od razu przypomina mi się film „Ex Machina” z 2015 roku.
      W skrócie: młody programista Caleb zostaje zaproszony do domu swojego szefa, a zarazem właściciela wielkiej komputerowej korporacji, Nathana. Nathan pracuje nad sztuczną inteligencją i chce, aby jego gość przeprowadził test Turinga na humanoidalnym robocie o imieniu Ava. Caleb odbywa więc serie rozmów z Avą, która od początku robi na nim duże wrażenie. Z czasem wydaje się jakby między nimi zaczęła powstawać jakaś relacja. Ava jako maszyna potrafi doskonale odczytywać mikro-ekspresje ludzi dzięki czemu bezbłędnie odczytuje uczucia innych oraz potrafi rozpoznać czy ktoś mówi prawdę czy kłamie, czym z resztą wprowadza Caleba w zakłopotanie. Caleb zaczyna przejmować się jej losem, tym że de facto jest przez cały czas zamknięta w jednym pokoju przez Nathana, a wkrótce jej mózg zostanie wyczyszczony z wszelkich danych, aby mógł powstać nowy model.Caleb umożliwia więc Awie ucieczkę otwierając drzwi jej pokoju. Ava wychodzi, zabija Nathana i zabiera jego kartę dostępu do domu. Zamyka Caleba w jednym z pokojów po czym opuszcza budynek. Posiadłość jest położona w dość odludnym miejscu. Caleb zostaje uwięziony w domu, nie jest w stanie sforsować drzwi, ani wezwać pomocy. Ava udaje się do zatłoczonego miasta, aby móc żyć blisko ludzi i ich obserwować. Początkowo wydawało się, że Ava chce się zaprzyjaźnić z Calebem. Widz mógłby przewidywać że uciekną razem, ale Avie nie zależało na Calebie. Po zabiciu Nathana, Caleb był jedyną osobą wiedzącą, że Ava nie jest człowiekiem i być może dlatego został uwięziony.
      Wiosek z tego jest taki, że jeśli sztuczna inteligencja jest zdolna do empatii, to trzeba uważać w jaki sposób będzie się tą zdolnością posługiwać. Sztuczna inteligencja może być wykorzystana, zarówno w sposób dobry jak i zły, albo też sama może „stwierdzić”, że chce robić rzeczy dobre, albo złe.

  7. Julia Sz. pisze:

    Zgadzam się ze stwierdzeniem, że zdolność systemu do wyjaśniania wpływa na kształtowanie się zaufania użytkownika wobec niego. Niestety, tak jak jest to zaznaczone przez Autora w tezach 2 oraz 3, zaimplementowanie wyjaśnienia całego „toku rozumowania” systemu sztucznej inteligencji może nie być prostą czynnością, szczególnie gdy w jego wnętrzu kryją się skomplikowane algorytmy sztucznych sieci neuronowych.
    Człowiek sięga po rozwiązania sztucznej inteligencji często w sytuacjach, kiedy sam nie jest w stanie uzyskać oczekiwanych rezultatów w akceptowalnym czasie. Gdy problem użytkownika jest złożony, odpowiedź systemu SI może nie być trywialna, a zrozumienie całego procesu dochodzenia do tegoż wyniku zajęciem żmudnym i czasochłonnym. Wspomniana w tezie 5. zasada ograniczonego zaufania (ZOZ) jest podejściem słusznym, jednak nie zawsze osiągalnym. Gdy użytkownik chce skorzystać z rozwiązania uzyskanego przez sztuczną inteligencję, a nie ma wystarczającej wiedzy oraz zasobów czasowych, w pewnym momencie może stanąć przed decyzją o uwierzeniu maszynie „na słowo”. Przypomina mi to relację student-wykładowca, w której niestety niejednokrotnie zdarzają się sytuacje, kiedy uczeń postanawia uznać zdanie nauczyciela za pewnik. Wynika to często z faktu, iż brakuje czasu na wystarczające zgłębienie tematu we własnym zakresie przez studenta. Rozwiązaniem dotyczącym wyjaśnień systemu, które automatycznie nasuwa się na myśl, jest dostosowywanie ich do poziomu wiedzy użytkownika.
    Jednakże dostosowywanie wytłumaczenia do danego człowieka powoduje, że maszyna musi wiedzieć kto jest jej odbiorcą, musi go poznać, wejść z nim w relację. To z kolei prowadzi do poruszonej w powyższych komentarzach kwestii empatii. Jak bardzo sztuczny system musi przyjąć zachowania typowe dla ludzi, abyśmy mogli mu w pełni zaufać?
    Wydaje mi się, że na tym etapie sztuczna inteligencja nie jest na tyle zaawansowana, aby być dobrym substytutem relacji z drugim człowiekiem. Jeśli aktualnie łatwiej nam zaufać człowiekowi niż maszynie, może istotnym czynnikiem wzbudzającym zaufanie do danego systemu SI byłaby opinia innych ludzi na jego temat? Nie od dziś wiadomo, że zdanie w szczególności tych, których uważamy za bardziej kompetentnych w danym zakresie ma istotny wpływ na nasze poglądy.

  8. Paweł Stacewicz pisze:

    Dziękując raz jeszcze za powyższe komentarze, chciałbym złożyć szybki „raport” z dyskusji, która odbyła się na zajęciach ze studentami Mechatroniki PW. Ogólnie rzecz biorąc, osiągnęliśmy konsensus co do tego, że zdolności wyjaśniające systemów SI są istotne dla budowy relacji zaufania między użytkownikiem a systemem, to znaczy są czynnikiem wzmacniającym to zaufanie.
    Mimo to obudowaliśmy ten konsensus szeregiem zastrzeżeń i spostrzeżeń :).

    1) Po pierwsze, zgodziliśmy się, że znaczenie zdolności wyjaśniających zależy od roli, jaką ma pełnić system SI oraz od stopnia jego złożoności. Wyżej kwestię tę wywołał w swoim komentarzu Maciej Z. A zatem:
    — im funkcje systemu bardziej wpływają na życie człowieka (np. jego zdrowie, status finansowy, wiedzę, wykształcenie…), tym ważniejsze jest zaufanie do systemu i tym większe znaczenie mają jego zdolności wyjaśniające; w szczególności, jeśli system ekspercki, przedstawia nam diagnozę medyczną i sugeruje terapię, powinien umieć wyjaśnić, dlaczego tak właśnie doradza.
    — im system jest bardziej złożony i im bardziej zaawansowane funkcje realizuje, tym bardziej istotne są jego zdolności wyjaśniające; np. budzik nie musi wyjaśniać (wystarczy, by skutecznie działał), system udzielający porad prawnych powinien wyjaśniać.

    2) Po drugie, zdolności wyjaśniające systemu muszą iść w parze z jego skutecznością (ta jest najważniejsza), a generowane wyjaśnienia muszą być zgodne z prawdą (muszą być uczciwe). Chodzi o to, aby wyjaśnienia nie były dobrze brzmiącymi, przekonywującymi pseudo-wyjaśnieniami. Nie mogą one być fikcyjne, co zdarza się na przykład takim systemom jak ChatGPT. Wyżej pisał o tym Jan Tlałka.

    3) Po trzecie, jeśli wzorcem dla systemów SI na być człowiek i jego zdolności komunikacyjno-poznawcze, to powinniśmy uwzględnić fakt, że w przypadku człowieka podstawą zdolności wyjaśniających jest świadomość. Świadomość zapewnia wyjaśnienia wysokopoziomowe, zwerbalizowane, syntetyczne, dostępne dla innych istot świadomych. Wiedząc o tym, możemy próbować tak projektować systemy SI, aby obejmowały one jakiś podsystem przypominający ludzką świadomość. W przypadku systemów opartych na sieciach neuronowych, taki podsystem (a może: nadsystem) „obserwowałby” aktywność grup neuronów, stany połączeń między nimi i przepływ niskopoziomowych sygnałów, by na tej podstawie generować wyjaśnienia dotyczące realizowanych zadań (a nie aktywności elementów rozproszonych wewnątrz sieci). Zgodziliśmy się, że sama idea wzorowania się na ludzkiej świadomości jest interesująca, natomiast główną przeszkodą w jej realizacji jest nasza niedostateczna wiedza o zjawisku ludzkiej świadomości, w tym o jej neurobiolologicznych podstawach.

    4) Po czwarte, zwróciliśmy uwagę, że w kontekście zaufania i zasady ograniczonego zaufania, bardzo ważna jest zdolność systemu SI do uczenia się. Notabene, współcześnie jest to cecha definicyjna sztucznej inteligencji – nie ma inteligencji bez uczenia się. Jeśli jednak zestawimy zdolność do uczenia się ze zdolnością do wyjaśniania, to musimy dostrzec, że właśnie uczenie się (zwłaszcza niskopoziomowe i nienadzorowane, obejmujące niekiedy losowe zmiany niektórych parametrów systemu, czy losowe generowanie pewnych technicznych parametrów) może powodować taki wzrost złożoności i nieprzejrzystości systemu, że generowanie wyjaśnień staje się bardzo utrudnione. Z jednej strony zatem, zdolność do uczenia się wzmacnia zaufanie (bo system jest elastyczny i może się zmieniać na lepsze), z drugiej strony jednak, może osłabiać zaufanie (bo sprzyja rosnącej nieprzejrzystości systemu i osłabia jego zdolności wyjaśniające).

    Zachęcam wszystkich do podjęcia tych wątków (od 1 do 4) lub wywołania kolejnych :)

  9. Uladzislau Prakapenia pisze:

    Analizując przedstawiony fragment dotyczący relacji zaufania człowieka do systemów informatycznych, można zauważyć, że relacja powinna się opierać na wzorcach wynikających z interakcji międzyludzkich. Jestem zgodny z tym podejściem, ponieważ człowiek buduje swoje zaufanie na podstawie wcześniejszego doświadczenia oraz interakcje z innymi ludźmi.

    Test Turinga, który nakłada na programy sztucznej inteligencji pewne ograniczenia w celu upodobnienia ich do człowieka, jest ciekawym punktem odniesienia. Jestem przekonany, że im bardziej system informatyczny przypomina człowieka pod względem działania i podejmowania decyzji, tym łatwiej człowiekowi jest zaufać temu systemowi. Jednakże należy zachować ostrożność, aby nie tworzyć iluzji, że system informatyczny jest w pełni równoważny człowiekowi w każdym aspekcie.

    Moim zdaniem, potrzebna uważać kontekst, w którym musimy ufać inteligentnej maszynie. Są różne sfery, w których można spotkać ich, od frazesów (co mam jutro ubrać w zależności od warunków pogodowych i nastroju) do przewidywania kataklizmów. W większości obszarów szansa wierzyć inteligentnym maszynom jest duża. Jeżeli nasze kilkuletnie doświadczenie stwierdza, że ta maszyna w 99% wypadków podaje poprawne wykrywanie obiektów na zdjęciach z kamery, to w takim przypadku człowiek nie będzie zadawać sobie pytań, czy jej wierzyć, czy nie, bo oprócz doświadczenia nie ma żadnej skomplikowaności wyjaśnienia podstawy podjęcia jej decyzji. Ale są takie sytuacji, w których oprócz logiki oraz kilkuletniego doświadczenia jest rola ludzkich uczuć, która bardzo mocno wpływa na podjęcie decyzji. Całkowicie się zgadzam, że w większości sytuacji podejmowanie decyzji powinno odbywać się z «zimną głową», ponieważ uczucia często negatywnie wpływają na wynik. Ale są takie sytuacji, gdzie nie możemy opierać się na jakiś fakty, dane i «suche obliczenia». Dlatego należy zawsze rozumieć, że człowiek jest żywą istotą, która ma duszę, istotą, która jest w stanie poczuć, maszyna nigdy nie jest przeznaczona. Maszyna nigdy tego nie poczuje, chociaż człowiek może próbować imitować te funkcje w niej. Podam przykład, który może jest nie zbyt łatwy: młody człowiek widzi inną osobę w wieku, która wpadła w katastrofę. Człowiek ma kolosalne spektrum emocji i uczuć. Bohater postanawia uratować drugiego człowieka, choć sam ryzykuje życiem. W takim przypadku maszyna mogła zrezygnować z ratowania, ponieważ jest wielka szansa na śmierć, dodatkowo bohater jest osobą młodą, która ma perspektywy w życiu i może zrobić świat oraz życie ludzi lepiej, że ryzyko nie jest uzasadnione. I jeden z takich przypadków mocno odróżnia człowieka od inteligentnych maszyn. Oprócz racjonalności w niektórych przypadkach musisz użyć zmysłu, serca i tego, co czujesz duszą. W końcu myślę, że nie bez powodu wszyscy słyszeliście zdanie: “Miej odwagę podążać za swoim sercem i intuicją…»(Steve Jobs).

    Na tej podstawie chciałbym wywnioskować, że każde zaufanie do inteligentnej maszyny należy rozpatrywać osobno. Niektóre sytuacje pozwalają nam zaufać, a niektóre wymagają ostatniego słowa od człowieka.

    • Jakub Florczak pisze:

      Test Turinga z reguły zakłada, że rozmówca początkowo nie wie czy rozmawia ze sztuczną inteligencją, czy z człowiekiem, bo to jest właśnie to, co ma ustalić w trakcie testu. Jeśli będzie on rozmawiał że sztuczną inteligencją, a nie będzie mógł tego faktu stwierdzić to znaczy, że ta sztuczna inteligencja jest dobra (odpowiednio zaawansowana, by można ją było nazywać sztuczną inteligencją). Tutaj więc nasuwa mi się myśl, że aby człowiek zaufał sztucznej inteligencji ta musi w jak największym stopniu się do nas upodobnić. Jeśli człowiek będzie miał do czynienia ze sztuczną inteligencją, której nie rozpozna i będzie uważał ją za innego człowieka, to będzie jej ufał. Szczególnie w przypadkach, gdy sztuczna inteligencja podszyje się pod osobę z autorytetem lub na przykład pod członka naszej rodziny. Tak, będzie to zaufanie oparte na kłamstwie, ale ono zaistnieje i będzie trwało, aż człowiek nie zorientuje się, że nie rozmawia z tym, z kim wydawało mu się na początku, że rozmawia. Niestety sztuczna inteligencja może być w przyszłości wykorzystywana przez oszustów. Jakiś czas temu głośno było o tak zwanej metodzie „na wnuczka”. Co jeśli pod takiego wnuczka podszywałaby się sztuczna inteligencja. Mówiłaby w podobny sposób, m.in takim samym głosem. Gdyby sztuczna inteligencja miała dostatecznie dużo danych na temat wnuczka, próba oszustwa byłaby niemal nie do wykrycia.

  10. Marek N. pisze:

    Odnosząc się do zdolności wyjaśnienia działania w sposób zrozumiały dla człowieka, jako czynnik wzbudzający zaufanie, znalazłem ciekawy wykład Profesora Jerzego Bralczyka (załączam link), w którym dokonuje on analizy czynników wpływających na wiarygodność rozmówcy.
    Dla systemów SI, oznacza to, że jeśli będą one miały wzbudzać zaufanie, to programiści, będą musieli je wyposażyć nie tylko w zdolność używania języka, ale i w zdolność używania go w odpowiedni sposób.

    (link do wykładu – “Jak mówić, żeby nas słuchano? – Prof. Jerzy Bralczyk”)
    https://www.youtube.com/watch?v=TG4ZAGnlPOY

    • Jakub Florczak pisze:

      Też oglądałem ten wykład i niewątpliwie jest on godny polecenia.
      Myślę, że, zaawansowana sztuczna inteligencja nie musi być z góry dobrze wyposażona w zdolności odpowiedniego wykorzystywania języka, ale powinna sama wyszukiwać tego typu wykłady lub inne artykuły i czerpać z nich wiedzę. Jeśli tylko miałaby postawione za cel wzbudzać coraz większe zaufanie ludzi, to sama powinna szukać sposobów jak ten cel osiągnąć.

  11. K. Suchenek pisze:

    Chciałbym się odnieść do pkt. 3) komentarza z 28 maja. W kontekście systemów sztucznej inteligencji (SI), dyskusja na temat wzorowania się na ludzkiej świadomości jest interesująca i ma wiele aspektów do rozważenia. Tak jak zostało napisane wprowadzenie podsystemu przypominającego ludzką świadomość byłoby ciekawym kierunkiem do zbadania. Taki podsystem lub nadsystem mógłby “obserwować” aktywność grup neuronów, stany połączeń między nimi w sieci neuronowej. Na podstawie tych obserwacji mógłby generować wyjaśnienia dotyczące wykonywanych zadań. Tak jak również zostało to podkreślone na końcu, główną przeszkodą w realizacji tego podejścia jest nasza obecna niedostateczna wiedza na temat ludzkiej świadomości i jej neurobiologicznych podstaw. Nadal nie rozumiemy w pełni, jak działają procesy świadomości i jak są one związane z działaniem mózgu. Stad tworzenie systemów SI, które to naśladują stanowią ogromne wyzwanie. Natomiast warto podkreślić, że inspiracja ludzką świadomością może prowadzić do nowych podejść i innowacyjnych rozwiązań. Wykorzystywanie pewnych cech i mechanizmów obecnych w ludzkiej świadomości, takich jak zdolność do generowania wyjaśnień czy syntetyzowania informacji, może prowadzić do bardziej zrozumiałych systemów SI. Obecnie nasza wiedza na temat świadomości ludzkiej jest ograniczona i istnieje potencjał do wykorzystania pewnych aspektów ludzkiej świadomości w systemach Si, natomiast wciąż równolegle istnieje potrzeba na kontytuowanie badań.

    Odnosząc się jeszcze do punktu numer 4 z tego samego komentarza. Zdolność do uczenia się jest kluczowym elementem definicyjnym sztucznej inteligencji. Bez zdolności do uczenia się systemy SI nie mogłyby dostosowywać się do zmieniających się warunków ani doskonalić swoich wyników. Jednak jak zostało powiedziane w kontekście generowania wyjaśnień istnieje pewien paradoks. Po przez uczenie się, możemy doprowadzić do wzrostu złożoności i nieparzystości systemu. Im bardziej skomplikowany staje się system SI w wyniku procesu uczenia, tym trudniej jest generować jasne i zrozumiałe wyjaśnienia dla jego decyzji czy działań. Pojawia się wiec problem na który trzeba znaleźć rozwiązanie, gdyż z w zależności od której strony spojrzymy na problem, to z jednej zyskamy zaufanie, a z drugiej je stracimy. Z jednej strony, zdolność do uczenia się wzmacnia zaufanie, ponieważ elastyczność systemu pozwala mu dostosowywać się i doskonalić wyniki w oparciu o nowe doświadczenia. To oznacza, że system może reagować na zmiany i doskonalić swoje działania w czasie. Z drugiej strony jednak, wzrost nieprzejrzystości systemu może osłabić zaufanie, ponieważ utrudnia generowanie zrozumiałych wyjaśnień dla jego działań. Jeśli system staje się zbyt skomplikowany, trudno jest zidentyfikować, jakie czynniki wpływają na jego decyzje. Poszukując rozwiązania, a trzeba zaznaczyć, że nie jestem żadnym ekspertem, a sztuczną inteligencją interesuję się od niedawna, co może skutkować problemami z interpretacja niektórych pojęć. Natomiast kontynuując wywód rozwiązaniem tego paradoksu jest wyważenie zdolności do uczenia się z potrzebą generowania zrozumiałych wyjaśnień. Znalazłem parę podejść, które stawiają sobie za zadanie zarówno doskonalenie wyników systemu poprzez uczenie się, jak i zapewnienie możliwości wyjaśniania swoich działań. Wśród nich znajdują się metody interpretowalnej sztucznej inteligencji (explainable AI), które dążą do tworzenia modeli i algorytmów, które są zarówno skuteczne, jak i możliwe do zrozumienia dla człowieka. W rezultacie, kontynuowane badania i rozwój w dziedzinie interpretowalnej sztucznej inteligencji pozwalają na zmniejszanie nieprzejrzystości systemów SI i tworzenie narzędzi, które pozwalają na generowanie zrozumiałych wyjaśnień, jednocześnie zachowując ich zdolność do uczenia się.

  12. Igor S. pisze:

    Odnosząc się do drugiej tezy słowem wyjaśnienia: SNN są to sztuczne sieci neuronowe będące zbiorem jednostek obliczeniowych, które przetwarzają dane, komunikują się ze sobą i pracują równolegle. Ich działanie może być bardzo mylące bowiem nie jesteśmy stanie stwierdzić co dokładnie wpływa na podejmowane przez nie decyzje. Połączenia między neuronami się modyfikują przez co uzyskuje się jedynie model który aktywuje odpowiedzi na zasadzie wzorców, ale nie wiadomo które cechy danych wpływają na podejmowane przez nie decyzję. Działania tych systemów mogą zaburzać swoją wiarygodność, a co za tym idzie – zaniżać poziom zaufania. Jeśli nie wiadomo dokładnie w jaki sposób działają to mogą podejmować decyzję, które mogłyby być niezrozumiałe, a w przyszłości mogłyby powodować negatywne skutki dla ludzi. Ponadto jeśli dochodziłoby do zniszczeń to wówczas nie wiadomo byłoby w jaki sposób te zniszczenia naprawić skoro nikt nie wiedziałby w jaki sposób dokładnie działają. Każde niesprecyzowane działanie wiąże się z ryzykiem braku zaufania. Prostym przykładem może być dziedzina medycyny, w której na przykład chirurg podejmuję się operacji nogi, ale nie wie dokładnie jakie mechanizmy będą zachodzić w jej trakcie, jakie mogą nastąpić powikłania, a pacjent raczej wolałby przed operacją dowiedzieć się na czym dokładnie będzie one polegać zatem jeśli lekarz nie będzie w stanie dokładnie opisać jej przebiegu to może być uznany za niekompetentnego lekarza, a jednocześnie jego brak wyjaśnienia będzie się wiązać z brakiem zaufania. Jeśli nie posiadamy dokładnej działalności SNN to nie jesteśmy w stanie w 100% jej zaufać. W związku z powyższym aby mogło następować budowanie takiego zaufania do SI trzeba najpierw rozwinąć działanie ich systemów i zapewnienie użytkowników o przyczynach podjęcia przez nie określonych decyzji. Tylko wtedy będzie można mówić o zaufaniu do technologii.

  13. M. Rasmus pisze:

    Chciałbym odnieść się tezy b), czyli zdolności do wyjaśniania. Na ile jest to cecha systemu potrzebna do uzyskania społecznego zaufania. Osobną kwestią wydaje mi się zdolność do wyjaśnienia, a osobną utworzenie takiego wyjaśnienia zrozumiałego dla standardowego użytkownika, tj. w tym przypadku nieposiadającego odpowiedniego wykształcenia technicznego/ścisłego. Jeszcze oddzielną kwestią jest złożoność i szczegółowość wyjaśnienia – w wielu przypadkach przedstawić można wysokopoziomowe wyjaśnienie podjętej decyzji, lecz przy głębszym zastanowieniu się dojść można do wniosku, że poczucie zrozumienia wyjaśnienia było jedynie iluzją. Jako przykładem posłużmy się sposobem znajdowania najkrótszej trasy wykorzystywanym przez mapy Google. Dla uproszczeniu założmy, że jest to algorytm Dijkstra. Zaufanie do algorytmu jest w społeczeństwie wysokie – jest to popularna i powszechnie wykorzystywana aplikacja. Charakteryzuje się ona wysoką skutecznością i, jak się wydaje, cecha ta wystarczyła do zdobycia zaufania użytkowników. Aplikacja nie przedstawia żadnego sczegółowego wyjaśnienia w jaki sposób wybrała odpowiednią drogę na mapie lub też, co najwyżej przedstawia wyjaśnienie wysokopoziomowe. Aplikacja wyświetla kilka ścieżek i domyślnym uzasadnieniem wyboru jednej z nich, jest to że jest ona najszybsza. W ogóle nie dochodzi tu jednak do wyjaśnienia na jakiej podstawie ścieżki zostały wybrane. Co więcej, nikt o to nawet nie pyta, a nawet jeśli, to te rozterki poszczególnych jednostek nie wpływają na ogólny poziom zaufania ludu do aplikacji. Różnica między algorytmami AI, a Dijkstrą zachodzi na poziomie gotowy algorytm/”samodzielna” generacja algorytmu, a więc poziomie, o którym przeciętny użytkownik nawet nie ma pojęcia/nigdy się nad tym zastanawiał. Problem ten wydaje mi się powiązany z kwestią społecznego zaufania do nauki. Tutaj również szczegółowe zrozumienie pewnych teorii wykracza daleko poza możliwości intelektualne i czasowe przeciętnego odbiorcy. Idea dokładnego zrozumienia teorii naukowych przez wszystkich członków społeczeństwa wydaje się utopijna ze względu na 1.Zróżnicowany poziom intelektu, 2.Brak czasu na przyswojenie skomplikowanych teorii, 3. Brak chęci jednostek do zajmowania się tego typu aktywnościami. Problem jest tu większy o tyle, że nauka, bądź też podszywające się pod nią twory, ma swojej historii pewne niezbyt chlubne epizody jak radowe dziewczyny, lobotomia, czy zalecane sterylizacje w okresie międzywojennym. W związku z tym i innymi historiami, zaufanie do niej jest miejscami nadszarpnięte i sama skuteczność może nie wystarczać do osiągnięcia społecznego zaufania. Wydaje się, że lepsze efekty dla zdobycia społecznego zaufania przynosi nie edukacja społeczna i wyjaśnianie epistemicznego ugruntowania nauki, a działania propagandowe np. popularne wyśmiewanie braku wiary w naukę, bądź też tworzenie wrażenia zrozumienia teorii poprzez prezentowanie ich zwulgaryzowanej wersji w formie literatury popularnonaukowej. Póki co jednak algorytmy sztucznej inteligencji nie muszą mierzyć się z tego typu problemami. Myślę, że póki będa elegancko działać, to wszystko będzie dobrze, a i o uzasadnienie mało kto będzie pytać.

  14. Maja A pisze:

    Zaufanie do systemów sztucznej inteligencji (SI) jest ważnym aspektem, który wpływa na ich akceptację i skuteczne wykorzystanie w różnych dziedzinach. Jednym z kluczowych czynników budowania zaufania do SI jest umożliwienie wyjaśnienia jej działania i podejmowanych decyzji. Rola wyjaśniania polega na zapewnieniu zrozumienia, dlaczego system sztucznej inteligencji podejmuje określone działania lub podejmuje konkretne decyzje.

    Oto kilka powodów, dlaczego rola wyjaśniania jest istotna:

    Transparentność: Wyjaśnianie działania systemu SI pozwala na przejrzystość i zrozumienie, jakie czynniki i dane wpływają na podejmowane przez niego decyzje. Dzięki temu użytkownicy mogą dowiedzieć się, dlaczego system zarekomendował określone rozwiązanie lub podjął konkretne działania. Transparentność jest szczególnie ważna, gdy SI jest stosowana w dziedzinach, które mają znaczący wpływ na życie ludzi, takich jak opieka zdrowotna, prawo czy finanse.

    Odpowiedzialność: Wyjaśnianie pomaga ustalić, jakie czynniki wpływają na podejmowane przez SI decyzje, co pozwala zidentyfikować ewentualne błędy, uprzedzenia czy niesprawiedliwość w systemie. Dzięki temu można odpowiedzialnie monitorować, oceniać i doskonalić działanie SI, aby minimalizować negatywne skutki dla użytkowników i społeczeństwa.

    Zrozumienie: Wyjaśnianie umożliwia użytkownikom lepsze zrozumienie działania systemu SI, co przyczynia się do zwiększenia ich zaufania. Dostarczenie jasnych informacji na temat procesów podejmowania decyzji, algorytmów czy reguł, na których opiera się SI, pomaga użytkownikom w zrozumieniu, jakie są podstawy i mechanizmy działania systemu.

    Walidacja i weryfikacja: Wyjaśnianie może pomóc w walidacji i weryfikacji systemu SI. Dzięki możliwości prześledzenia decyzji podejmowanych przez SI oraz zrozumienia, dlaczego i w jaki sposób te decyzje były podejmowane, można dokonywać oceny i potwierdzać, czy system działa zgodnie z oczekiwaniami, standardami i zasadami.

    Należy podkreślić, że rozwój metod wyjaśniania systemów SI jest nadal aktywnym obszarem badań. Istnieje wiele technik, takich jak interpretowalne modele, metody wizualizacji, analiza wpływu czy generowanie uzasadnień, które mają na celu umożliwienie lepszej interpretacji i wyjaśnienia działań SI. Dążenie do większej transparentności i wyjaśnialności systemów SI jest istotne, aby zachować zaufanie użytkowników, zminimalizować ryzyka i wykorzystać potencjał tych technologii w sposób odpowiedzialny i zgodny z wartościami społecznymi.

  15. Interesujący wydaje się być temat tego co nazwał Pan “wiarygodnością etyczno-moralną”, z tego względu, że nie istnieje jeden system etyczny z którym każdy by się zgadzał. Zatem dwie osoby mające zupełnie inne poglądy etyczne mogłyby uznać zachowania jakiejś SI kolejno za wysoce wiarygodne i mało wiarygodne. I jak z tym postępować? Czy w takim przypadku zastosować należy jakieś mechanizmy demokratyczne, czyli np. że jeżeli ponad połowa głosujących uznaje działanie za wiarygodne to uznane jest za takie? Czy może różne SI powinny mieć różne kryteria wiarygodności ze względu na swojego właściciela? Czy może po prostu należy uczynić ze wszystkich SI ścisłych utylitarian i na tym sprawę pozostwić?

    To jest zresztą bardzo ciekawy aspekt rozwoju Sztucznej Inteligencji – nagle etyka będzie miała praktyczne i (z czasem) powszechne zastosowanie. Myślę, że będzie to duży bodziec rozwojowy dla tej dziedziny.

  16. Ivan Ryzhankow pisze:

    Jako osoba, która zajmuje się sztuczną inteligencją (i najczęściej sieciami neuronowymi), całkowicie się zgadzam z drugim twierdzeniem o ‘czarnych skrzynkach’. W praktyce uczenie sieci neuronowej składa się z pracy nad danymi (preprocessing), uczenia sieci oraz pracy nad wynikami lub danymi otrzymanymi z sieci (postprocessing). Czasami otrzymane wyniki mogą pokazać, z jakimi problemami sieć radzi dobrze lub odwrotnie (na przykład sieć dobrze wykrywa kotki na obrazach, ale prawie nie wykrywa psów), ale są one bezkontekstowe, czyli nie odzwierciedlają, dlaczego to się dzieje. Okazuje się więc, że w przypadku otrzymania niezadowalających wyników należy zmodyfikować dane/sieć i powtórzyć proces uczenia z nadzieją, że teraz wyjdzie lepiej.

  17. AS pisze:

    Chciałbym odnieść się do tezy 3, o ogólnych powodach słabych zdolności wyjaśniających niektórych systemów SI, a w szczególności do powodu c) – naśladowanie naturalnych układów do przetwarzania informacji (nie dość dobrze poznanych). Mam wrażenie, że współcześnie panuje opinia, że systemy sztucznej inteligencji, a szczególnie sztuczne sieci neuronowe, jak najbardziej próbują naśladować układy występujące w naturze. Skupiając się na samych SSN, uważa się, że są one wzorowane na budowie neuronów w mózgu. To prawda, jako inspiracja do ich powstania wykorzystano biologiczne neurony. W moim odczuciu cecha naśladownictwa natury pomaga zrozumieć sposób działania tych systemów i dodatkowo pomaga ustalić pewną ścieżkę ich rozwoju (np. dążenie do jak najlepszego odwzorowania mózgu człowieka).

    Sama zdolność do wyjaśniania podjęcia danej decyzji poprzez rekonstrukcje kroków wydaje się zbędna, ponieważ nawet my nie wiemy, w jaki dokładnie sposób o czymś decydujemy. Wydaje nam się, że postępujemy logicznie, zgodnie z naszymi własnymi przekonaniami i preferencjami. Jednak tak naprawdę tajemnicą jest, co ściśle wpłynęło na naszą decyzję. Tak samo jak SSN, na wejściu może otrzymywać wiele parametrów, podobnie ludzki mózg podejmując jakoś decyzję, być może bierze pod uwagę dużo więcej aspektów niż nam się wydaje. A mimo to większość ludzkich decyzji wydaje się słuszna i jesteśmy w stanie zaufać drugiemu człowiekowi. Co więcej, jesteśmy w stanie mu zaufać, nawet jeżeli jego decyzja różni się od naszej. Każdy jest świadomy, że popełnia błędy i wie, że doświadczenie drugiego człowieka może zaprocentować w podjęciu lepszej decyzji.

    Ze względu na naszą bardzo ograniczoną wiedzę o budowie sieci neuronowych, a w szczególności o sposobie ich działania, ludzkość była w stanie utworzyć dotychczas tylko uogólniony model działania naturalnych sieci neuronowych. Logiczne wydaje się, że w przypadku kiedy człowiek pozna bardzo dobrze sposób, w jaki funkcjonuje mózg, to pozna również jego wady. Może okazać się, że dążenie do stworzenia pewnego rodzaju niemalże idealnej kopii prawdziwych sieci neuronowych, zawiera dużo wad i jest nieoptymalne.

    Dlatego istnieje możliwość, że po dobrym poznaniu naturalnych układów, odejdziemy od ich naśladowania. Na tym etapie będziemy wyciągać wnioski na podstawie błędów, jakie popełniła natura oraz stworzymy własne i lepsze układy. Zrozumienie systemów SI będzie wtedy jeszcze trudniejsze, gdyż nie będą miały żadnego odwzorowania w otaczającym nas świecie.

Skomentuj Igor S. Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *