Obecny wpis umieszczam w blogu w imieniu kolegów, dr Bartłomieja Skowrona i dr Marcina Rojszczaka, którzy wystąpili ostatnio na prowadzonym przeze mnie Seminarium z Filozofii Nauki, z intrygującym referatem pt. „Koncepcja życzliwej sztucznej inteligencji. Zagadnienia etyczne i prawne„.
W centrum referatu stało etyczne pojęcie życzliwości (w odróżnieniu od potocznego!) oraz jego rola w projektowaniu wiarygodnych, czyli budzących zaufanie użytkownika, systemów sztucznej inteligencji (SI). Projektowanie było rozumiane szeroko, również w kontekście czegoś, co można by nazwać „infrastrukturą legislacyjną” — a więc takim kształtem regulacji prawnych, które sprzyjałyby tworzeniu systemów życzliwych dla człowieka. W tym kontekście zostały przedstawione najnowsze projekty aktów prawnych Unii Europejskiej, dotyczące aktualnych i możliwych zastosowań SI. Prelegenci oceniali je krytycznie, zwracając uwagę na konieczność głębszego powiązania prawodawstwa z etyką życzliwości.
Tyle tytułem mojego wprowadzenia.
Jako właściwy wstęp do blogowej dyskusji proponuję krótki tekst samych prelegentów, którzy zarysowują etyczne pojęcie życzliwości i stawiają pewne pytania dotyczące życzliwej sztucznej inteligencji…
Powstał on spontanicznie, w efekcie rozmyślań nad spostrzeżeniami i komentarzami uczestników seminarium.
Gorąco zachęcam do rozmowy wszystkich czytelników bloga, nie tylko uczestników seminarium — Paweł Stacewicz
A OTO INICJUJĄCY DYSKUSJĘ TEKST PRELEGENTÓW:
Pojęcie życzliwości pojawia się zarówno w tekstach starożytnych (chociażby w Etyce Nikomachejskiej Arystotelesa), jak i zupełnie współczesnych (spośród tekstów polskich zasługują na uwagę pisma Marii Ossowskiej i Czesława Znamierowskiego). Część etyków, w szczególności etycy angielskiego oświecenia moralnego widzieli w życzliwości podstawę wszelkiej moralności i postulowali prawo o powszechnej obowiązywalności życzliwości.
Niemniej, gdy wspominamy o życzliwości przy okazji różnych publicznych dyskusji, najczęściej spotykamy się z pobłażliwym uśmiechem, który z jednej strony łaskawie i przyjaźnie wspiera ideę wołającą o powszechną życzliwość, a z drugiej strony lekceważąco odnosi się do siły i doniosłości życzliwości. Za tą spontaniczną pobłażliwością stoi takie mniej więcej rozumowanie: „przecież uprzejmość, serdeczność i empatia nie mogą stanowić jakieś trwałej podstawy dla realnych rozstrzygnięć moralnych. Jedni są mili, a inni nie są mili. I tyle w temacie życzliwości”.
W przeciwieństwie do takiej postawy twierdzimy, że życzliwość nie jest ani uprzejmością, ani serdecznością, ani empatią – choć z tymi fenomenami współwystępuje. Co więcej, ze względu na swą siłę oddziaływania ma istotne znaczenie dla projektowania systemów sztucznej inteligencji, na przykład takich, które byłyby używane w zarządzaniu, administracji publicznej czy systemie edukacji. Zatem to nie tyle w temacie!
Twierdzimy, że życzliwość nie jest ani uprzejmością, ani byciem miłym, ani empatią. Wspierając się Etyką Nikomachejską Arystotelesa przyjmujemy, że istotą życzliwości jest dbanie o dobro drugiej osoby: dokładnie o to, co jest właśnie dla tej osoby dobre.
Rodzic może być życzliwy dla dziecka, silnie motywując je do podejmowania działań, które służą jego rozwojowi — niezależnie od tego jednak, może być momentami nieuprzejmy. Podobnie urzędnik, załatwiając sprawę zgodnie z interesem obywatela, może (a nawet powinien!) być życzliwy, choć nie zawsze jest uprzejmy. Oczywiście, życzliwości często towarzyszą uprzejmość, empatia i serdeczność. Nie one jednak są istotą życzliwej postawy.
Wróćmy jednak do sztucznej inteligencji i jej zastosowań publicznych, takich jak publiczna administracja. Wywołując temat życzliwości SI, natykamy się również na pobłażliwe przytakiwanie, wsparte niejawnym sarkastycznym powątpiewaniem: tak, tak, mamy przecież zasadę życzliwej interpretacji w KPA a inteligentne automaty w urzędach, zgodnie z tą zasada, będą się do nas pięknie uśmiechać.
Wiarygodność obliczeniowa SI, niezależnie od jej konkretnych zastosowań, jest mierzona często jej przejrzystością, umiejętnością wyjaśniania podejmowanych decyzji, zgodnością tych decyzji z przewidywaniami itd. Niemniej, naszym zdaniem, nie jest to droga, która zaprowadzi nas do takiej SI, jakiej człowiek, w szczególności obywatel, będzie ufał.
Co z tego, że system jest przejrzysty, jeśli nie bierze pod uwagę interesu i preferencji samego obywatela? Nie jest to strategia, która gwarantuje spełnienie oczekiwań UE w stosunku do SI. Dopiero uwzględnienie życzliwości (i stojących za nią rozwiązań technicznych), pozwoli na wypracowanie takiego modelu prawnego i funkcjonalnego SI w zastosowaniach publicznych, który spełni oczekiwania pokładane w wiarygodnej SI.
Życzliwość SI to nie jest uśmiech robota upodabniającego się do człowieka (taki robot zresztą, im bardziej przypomina człowieka, tym bardziej budzi jego nieufność). SI, jeśli ma być wiarygodna w zastosowaniach publicznych, to powinna być życzliwa, a to oznacza, że powinna brać pod uwagę dobro obywatela.
Zapraszamy do dyskusji – Bartłomiej Skowron i Marcin Rojszczak.
Nieco spóźniony na seminarium nie mogłem zrozumieć pewnej kwestii:
z jednej strony Prelegent podkreślał, że chcemy od systemów SI „czegoś lepszego” (niż jedynie zwielokrotnione/ przyspieszone przetwarzanie danych po ścieżkach wyznaczonych przez ludzkie schematy myślowe, odzwierciedlone w danych jakimi SI karmimy/ tresujemy) bo nie chcemy by wyniki procesów automatycznych skażone były ludzkimi stronnościami wobec danych (uprzedzeniami „ujemnymi” ale także i „dodatnimi”),
a z drugiej podkreślał wagę humanitarnego wymiaru 'życzliwości’, tego jak ważne jest w kulturze prawnej to by w działaniach organów państwa manifestowała się trafnie ujęta wola dobra dla strony której sprawę się rozpatruje.
W mym mniemaniu to dość jasna sprzeczność wymagań – nakładamy tu na 'benewolencję’ (tak jak i na 'myślenie’ cz 'rozumienie’) nieludzkie wymagania posiadając jedynie 'ludzki wzorzec każdego z tych pojęć.
Co więcej (miało to miejsce także i we fragmentach referatu i dyskusji, który słyszałem) uparcie odwołujemy się do możliwości sprawdzenia u człowieka tego, czy regularności jakie manifestują się w jego zachowaniu (znamionujące 'dobrą wolę’, zrozumienie’, 'myślenie’) – inną niż poprzez statystyczną weryfikację rezultatów działań. To jasne, że do zbioru orzeczeń sędziego w sprawach określonego typu (lub do wyników testów studenta) można „dodać” założenie o „wiedzy tła” (o tym wszystkim co powinien on wiedzieć o Rzeczywistości – jeśli udaje mu się w niej jako-tako funkcjonować) – ale przecież i ona sprawdzana jest w Świecie jedynie „statystycznymi” testami przetrwania.
W naszej Rzeczywistości (na pewno poza aksjomatycznymi systemami – i w szczególności w domenie stosowania prawa/ działań organów Państwa wobec obywateli w „chaosie ludzkich spraw”) nie możemy liczyć na inną pewność wobec 'Życzliwości’ przyszłych działań Sędziego czy Urzędnika – niż ta oparta na wynikach „testów” jakie zdał do tej pory.
Nie wiem zatem czemu mielibyśmy stawiać maszynom inne wymagania?
Ja z kolei nie odniosłem wrażenia, aby prelegenci oczekiwali od maszyny (zastępującej np. pracownika administracji) czegoś więcej niż możliwości odpowiednio wytrenowanego w rozpoznawaniu czyjegoś dobra (bądź interesu) człowieka.
O ile zrozumiałem nie uważali za słuszną etyki opartej na jakichś niepodważalnych kryteriach właściwego działania (etyki kryterialnej), lecz przedkładali nad nią etykę „dynamiczną”, wypracowywaną u konkretnych ludzi poprzez ćwiczenie się we właściwym działaniu, właściwym w sensie zgodności z dobrem drugiego człowieka.
Od maszyny oczekiwali zatem nie tyle spełnienia jakichś nadludzkich idealnych kryteriów (trudno osiągalnych dla ludzi lub w ogóle nieosiągalnych), lecz podobnego ludziom „zaprawiania się” w postępowaniu maksymalnie etycznym. „Zaprawiania się” czyli jakiegoś rodzaju uczenia się w interakcji z żywymi ludźmi. Stąd kładli nacisk na systemy maszynowego uczenia się.
A zatem, zgodnie z moim rozpoznaniem referatu, wymagania stawiane życzliwej SI były jak najbardziej ludzkie, a nie nadludzkie. Może jednak się mylę, niech to rozsądzą Prelegenci :).
(Nawiasem mówiąc, spełnienie takich „ludzkich wymagań”, zwłaszcza w kontekście rozpoznawania czyjegoś dobra, może być dla SI słabo osiągalne – ale o tym w innym już komentarzu.)
Paweł, krótko tylko dodam, że zgadzam się z tym, co napisałeś. Nie wymagamy od maszyny nadludzkich umiejętności. Warto podkreślić fakt, że zakładam możliwość postępu moralnego. Tak samo, jak można na siłowni ćwiczyć mięsień dwugłowy ramienia, czy u psychologa można powtórnie zintegrować odszczepioną w dzieciństwie agresję, tak samo można zaprawić się w podejmowaniu trudnych decyzji moralnych. Zakładam, ze jak raz zachowałem się jak tchórz, zbyt szybko i nierozsądnie uległem strachowi, to nie oznacza, że ten właśnie strach zawsze będzie tak powalający, że ja zawsze jemu ulegnę. Podobnie jest z postępowaniem życzliwymi. Moralna kompetencja oczywiście nie jest kompetencją sprawdzania zgodności z ogólnym kryterium tchórzostwa, bo nie o rozstrzyganie o zgodności lub niezgodności tu idzie (co nie oznacza, jak ktoś mógłby na skróty sądzić, że nie można próbować szukać i postulować ogólnych dyrektyw moralnych – moraliści to robili i będą robić, i dobrze, że tak robią).
Dziękuję km za komentarz i zgłoszone wątpliwości. Odpowiadam hasłowo (pogłębienie wymagałoby więcej słów) w kilku punktach.
1. Co do sprzeczności, to jest ona pozorna. Wynika to z błędnej wizji etycznej człowieka, jaką przyjmuje km, jako czarnej i niezmiennej skrzynko-maszyny, która tylko powtarza to, do czego przywykła. Etyka cnót daje odpór takiej wizji człowieka. Życzliwość jest stosunkowo trwałą dyspozycją charakteru, to prawda. Niemniej może ona być ćwiczona, urzędnik, jak i nieurzędnik może się uczyć bycia życzliwym, może je ćwiczyć np. poprzez przebywanie i naśladowanie ludzi życzliwych. Może też obejrzeć wykład o życzliwości na YT i zastanowić się, czy nie mógłby więcej swojej energii życiowej na życzliwość (w tym też przyjaźń) poświęcić. Tak samo, jak blagier, który konfabuluje i okłamuje wszystkich swoich bliskich, może przestać kłamać, gdy nad tym popracuje, lub gdy wyjdą na jaw niespójności konfabulacji i wszyscy dowiedzą się, że kłamie – stanie wtedy w obliczu koniecznego oczyszczenia i koniecznej zmiany (w ekstremalnych przypadkach strategią ucieczkową jest samobójstwo, zatem zmiana ostateczna). Postulowanie życzliwości zarówno podmiotów publicznych, jak AI w służbie publicznej, gdy założy się możliwość rozwoju moralnego zarówno indywidualnego człowieka, jak i instytucji, jest możliwe.
2. Nie widzę zatem sprzeczności tam, gdzie widzi ją km. Widzę jednak inną trudność, na którą km nie wskazywał. Otóż, jeśli maszyna w służbie publicznej będzie zaprogramowana, aby brać pod uwagę dobro obywatela (po wyrażeniu przez zainteresowanego jego preferencji), to co ma zrobić maszyna, gdy nie jest możliwe spełnienie maksymalnych rozszczeń zainteresowanych. Trudny problem. Jednym z rozwiązań jest ważenie interesu zainteresowanego przedstawione w formie preferencji, tzn. kilku opcji rozowiazań uporządkowanych wedle uznania. Wtedy można próbować automatycznie maksymalizować u wszystkich zainteresowanych ich preferencje, trochę tak, jak algorytm wybierania najlepszych publikacji w SEDN w odbywającym się procesie ewaluacji nauki.
3. Co do ludzkiego ujęcia życzliwości i nieludzkiej AI – dyskutant km wskazał na ważną sprawę, niemniej znów się nie zgadzamy. To prawda, że ludzki podmiot i podmiot AI istotnie się od siebie różnią. Nie jest jednak prawdą, że nie ma nic pomiędzy. AI w istocie jest nieludzka, ale może być bardziej ludzka, może być bliższa człowiekowi. I nie idzie o to, aby miała ludzką twarz i aby potrafiła wyrażać ludzkie emocje, bo to nie zbliży AI do człowieka, tylko oddali. To się nigdy nie uda. Idzie o to, że AI może mieć moduł rozpoznawania dobra człowieka i może z niego korzystać. Wtedy, jak jestem przekonany, ludzie zwiększą zaufanie do AI i też do państwa. Przykładowo, rozliczając PIT, automat może podpowiedzieć mi, co będzie dla mnie lepsze, będąc życzliwym automatem, a może podpowiedzieć mi rozwiązanie dla mnie mniej korzystne, albo zupełnie niekorzystne, wtedy będzie złośliwym automatem. Może być moim doradcą podatkowym. Czy nie ma różnicy w tych dwóch różnych nastawieniach tego automatu? Czy nie uznamy tego życzliwego, za bardziej ludzki w tym sensie, w jakim km pisał o humanitarności życzliwości?
4. Na dzisiaj to tyle, lecę rozliczać PITy:).
Ad. 1.
Koncepcja człowieka jako czarnej skrzynki może być błędna (lub nie) – za to na pewno błędne byłoby złożyć, że Urzędnik rozstrzygnie naszą sprawę życzliwie, tylko dlatego, że (przeszkolony na kolejnych kursach) potrafi recytować najpiękniejsze teorie „służenia obywatelom”.
To czy rozumie 'jak być życzliwym’ poznajemy po regułach jakie przejawiają się w jego zachowaniu.
Można także zauważyć, że nie tylko w odniesieniu do „osób trzecich” przekonujemy się o cechach charakteru po czynach – czasem (dobitnie przekonujemy się), że i o sobie także wiemy jedynie „tyle ile nas sprawdzono”:
Postawił bym „dolary przeciw orzechom”, że niejeden Znawca 'etyki cnót’ mógłby, ze zdziwieniem opowiadać o swym zachowaniu (jakoby wydobyło się z „ciemnej skrzynki” nieprzeniknionych zakamarków charakteru, których nie był świadom) gdyby go postawić przed określonymi okolicznościami.
Może znów mylę się, ale z tego co pamiętam, 'Cnota’, jako swoista dzielność przejawiać się miała – w działaniu: zgodnym ze swoją 'istotą’ (życzliwą bądź złośliwą). Test 'życzliwości’ zgodny z tak rozumianą cnót 'Etyką’ (jako praktyką filozofii) byłby zdawany – zarówno przez człowieka jak i maszynę urzędnika – poprzez sprawdzian tego co się manifestuje regularnie w „jego” dotychczasowych działaniach.
Na pewno nie jest prawdą to, że przyjmuję stałość (czarnej skrzynki) ludzkiej Osoby. Charakter urzędnika biologicznego i cyfrowego można ćwiczyć i kształtować. Choć metody mogą być inne, to – wobec „niepoliczalnej” różnorodności możliwych sytuacji w jakich przyjść może danemu Urzędowi rozstrzygać – w obu przypadkach strona (postępowania) pozna się na Organie adninistracji dopiero po jego działaniu.
Sprzeczność jaką dostrzegłem (być może dlatego, że spóźniony na seminarium – pomyliłem figurę retoryczną argumentacji ze stanowiskiem Prelegenta) miała polegać na wymaganiu od automatów „czegoś więcej” niż powtarzania reguł ludzkiego (życzliwego) zachowania (w wyniku tresury np. Sztucznych Sieci Neuronowych danymi), podczas gdy (w Rzeczywistości) ludzi sprawdzamy zawsze w ten sposób. Oczekiwanie na to, że w systemie powstanie jakiś wyabstrahowany idealny system, jasno definiujący co jest życzliwe (dobre) dla strony w dowolnych/nieprzewidzianych okolicznościach byłoby niehumanitarne.
Ad.2. i 3. Krótko mówiąc: zgadzam się
(Poza fragmentem z 3. że się nie zgadzam- nie wiem skąd pomysł, że uważam, że maszyn nie można doskonalić w manifestowaniu ludzkiego wymiaru życzliwości. Test jest tu dość oczywisty, a jest nim podobieństwo reguł jawiących się w działaniu: gdy badając historię orzeczeń, nie będzie dało się odróżnić ludzkiego i sztucznego urzędnika, można będzie przyjąć, że jesteśmy na dobrej drodze)
To nie takie proste!
W postawionym zagadnieniu widzę fundamentalne trudności, do rozwiązania których referat wcale się nie zbliża. Arystoteles mówi: „życzliwość – to dbałość o dobro drugiej osoby”. Pięknie! Ale też Marks, Lenin, Stalin, Pol Pot, Kim Ir Sen i następcy, stworzyli swoje systemy w imię dbałości o dobro wszystkich osób! Bo przecież tylko Partia, natchniona Dziełem, wie, czym jest Prawdziwe Dobro! To samo z Świętą Inkwizycją! Z drugiej strony, adwokaci gangów odbierają od swoich patronów gratulacje i wysokie premie, za wyprowadzenie ich z sądu w chwale niewinności! To dobrze, bo to „drugie” osoby były? Ale są przecież też „trzecie” osoby – całe społeczeństwa – które są ofiarami tego procederu! A co z petentem/klientem/pacjentem, który zdecydowanie działa na własną szkodę? Należy mu pomóc? A kiedy należy przemilczeć przed zainteresowanym ważną okoliczność dla jednego dobra, kosztem innego? I komu powierzyć prawo wyważenia tych dóbr, i na jakiej podstawie? A co ze sprzecznymi dobrami różnych perspektyw czasowych, z pokoleniami włącznie? Świat skomplikował się od czasów Greków, a i wtedy nie był aż tak prosty, jak sugeruje to przytoczona definicja.
Chciałbym postawić przed mechanicznym urzędnikiem jeszcze bardziej (niż autorzy odczytu) wyrafinowany postulat: ten, żeby jego życzliwość obejmowała coś takiego. co nazywam INWENCJĄ PROCEDURALNĄ. Wymyśliłem ten termin, żeby z jego pomocą móc uogólnić moje dość bogate doświadczenie życiowe na polu negocjacji, czy to jako drobny przedsiębiorca omawiający kontrakty, czy jako interesant lub petent w urzędzie akademickim, państwowym etc.
Podam przykład rozmowy z dyrektorem wydawnictwa uczelni, do którego przeszedłem z projektem mogącym wywołać sprzeciw ministerstwa. Uczelnia miała kilka serii swych periodyków, przy czym nazwa danej serii, wraz z numerem zeszytu itp. pełniła rolę tytułu na okładce. Moim zamierzeniem było stworzenie periodyku pod tytułem „Studies in Logic, Grammar and Rhetoric” ale w restrykcyjnym reżimie PRL na założenie nowego periodyku trzeba było uzyskać aprobatę Ministerstwa Nauki. Byłem pewny, że tak ezoterycznego tytułu (pachnącego średniowieczem) władza ludowa nie zaakceptuje; dlatego chciałem go zmieścić w już istniejących ramach, ale z własną indywidualnością manifestowaną tytułem. Zaproponowałem Dyrektorowi, żeby nazwę serii umieścić drobnym drukiem na górze i, a dużymi literami w środku dać tytuł STUDIES etc.
Prosiłem jednak o rozważenie czy nie narazi to Wydawnictwa na reprymendę z Ministerstwa, że bez jego zgody wydaje się nowy periodyk. No co dyrektor, z uśmiechem: „proszę pana, przecież to tylko zmiana projektu graficznego okładki, a w tym względzie mamy swobodę”.
Dzięki życzłiwości dla projektu, mój rozmówca zdobył się na inwencję w sprawie zakwalifikowania procedury: nie w kategorii innowacji wydawniczych lecz w kategorii graficznych.
Kolejnym rozwiązaniem proceduralnym było to, że gdy się już ukazało parę zeszytów wystąpiłem do Biblioteki Narodowej o nadanie numeru ISSN dla tytułu STUDIES etc., przez co nieaktualna stała się na okładce nazwa serii. Biblioteka nie ma obowiązku dociekania genezy pisma, więc po uzyskaniu numeru stało się ono całkowicie samodzielnym periodykiem wychodzącym dziś (po ponad czterdziestu latach) pod auspicjami de Gruytera.
Rozmyślam więc teraz — po odczycie ma temat życzliwości urzędniczej SI — jak musiałby być zaprogramowany sztuczny dyrektor wydawnictwa, żeby odczuć życzliwość dla mojego projektu (czy byłyby to względy merytoryczne, personalne czy jeszcze inne?), żeby wiedzieć, jakie są praktyki Ministerstwa Nauki, i żeby mieć pomysł przekwalifikowania
procedury zakładania pisma na procedurę zmiany graficznej? Przekracza to moją wyobraźnię, chętnie więc przyjmę pomoc w jej poszerzeniu.
Panie Profesorze, bardzo dziękuję za podzielenie się historią powstawania „Studies in Logic, Grammar and Rhetoric”. Cieszę się, że sprawa ta została wtedy pomyślnie załatwiona – dzięki czemu możemy korzystać z czasopisma, wpierw jako czytelnicy, a teraz już też jako autorzy. Sprawa została załatwiona w nieoczywisty sposób – jak widzimy, parafrazując słowa poety, „życzliwość nie jest nauką łatwą ani małą”. Nie potrafię odnieść się do wszystkich szczegółów (np. legislacyjnych czy proceduralnych) tych czasów, ani do klimatu organizacyjnego, który wtedy panował – ze względu na swój wiek znam to niestety tylko z drugiej ręki. A to trzeba przeżyć, aby zrozumieć. Niemniej chciałbym krótko skomentować propozycję Pana Profesora odnośnie inwencji proceduralnej. Widzę to tak, że pomiędzy tym co publiczne, a tym, co twórcze rozciąga się przestrzeń o wysokim napięciu. Biurokrata w weberowskim stylu powinien być bezosobowym wypełniaczem przepisów, przestrzegaczem procedur oraz poleceń przełożonych. Świętym obiektem staje się dokument, który nie tylko jest nośnikiem pamięci organizacji, ale też niesie ze sobą „moc prawdziwościową”, tzn. dokument usamodzielnia się, odrywa się od tego, co rzeczywiste, i przez to tę rzeczywistość zastępuje. Jestem krytycznie nastawiony do tego typu modelu biurokraty i do jego urzędniczo-publicznych zabawek. Niemniej nie idzie tutaj o krytykę tego modelu, tylko o to, że nie ma w nim miejsca na twórcze i dobre rozwiązania. Całkiem niedawno Glenn Houtgraaf, Peter M. Kruyen oraz Sandra van Thiel próbowali uporządkować wiedzę na temat twórczości w sektorze publicznym (tutaj link do artykułu: https://onlinelibrary.wiley.com/doi/10.1111/padm.12778) i zwrócili uwagę na „swobodę decyzyjną” jako właśnie potencjalnie twórczy element pracy urzędniczej. Urzędnik czasem musi dostosować się do sytuacji wyjątkowej, wychodzącej poza standardowe przypadki, musi czasem pragmatycznie „improwizować”, wyszukiwać rozwiązań nieproceduralnych, biorąc pod uwagę także moralną ocenę sytuacji. Czasem nawet urzędnicy w imię twórczych i dobrych rozwiązań łamią przepisy – co dla wielu biurokratów weberowskich jest tym, czym logiki parakonsystentne dla wielu logików klasycznych. Autorzy tego artykułu zwracają też uwagę, że tego typu działania różnią się od myślenia twórczego (które jest w ich ujęciu osobnym aspektem pracy urzędniczej) tym, że są reaktywne, doświadczony biurokrata w takich sytuacjach reaguje na określoną sytuację, a nie ma autonomicznej, proaktywnej, otwartej i generującej nieszablonowe rozwiązania postawy (a tak ujmują twórcze myślenie w administracji). Odpowiadając zatem krótko, Dyrektor powinien być nie tylko życzliwy, ale także twórczy.
To posiedzenie nie odbiegało od innych posiedzeń Pawłowego Seminarium, a mianowicie dawało do myślenia, za co należą się stałe i wielkie podziękowania Autorom, Uczestnikom oraz – oczywiście – Pawłowi!
Myśląc o życzliwości jako o meta-regule programowania SI dla administracji publicznej, stawiam pytanie o dokładne określenie granic zastosowania tej meta-reguły.
Autorzy w trakcie referatu zaznaczyli, iż nie jest to reguła uniwersalna. I słusznie. Warto jednak dokładniej określić jej miejsce.
Czy np. reguła ta miałaby zastosowanie w SI dla wymiaru sprawiedliwości? Czy automat sądowy w duchu Webera – na który naszą uwagę zwracał wielokrotnie i inspirująco Profesor Marciszewski – powinien być życzliwy? Czy mógłby być życzliwy dla obu stron sporu cywilnego? Na czym miałaby wówczas ta życzliwość polegać? Czy może byłby życzliwy dla jednej ze stron? A może jednak lepiej, aby ten automat sądowy – jak Temida – miał przepaskę na oczach i miał wzgląd jedynie na prawo?
Dalej, czy reguła ta miałaby zastosowanie w SI dla aparatu ścigania, np. systemu sortującego i wspomagającego ocenę dowodów? Czy lepszy jest automat przymykający oko na niektóre dowody winy (życzliwy dla podejrzewanego), czy też lepszy jest automat przymykający oko na niektóre dowody niewinności (życzliwy dla podejrzewających)? A może i w tym wypadku SI powinna mieć wzgląd jedynie na prawo, w tej sytuacji – na reguły procesowe zbierania i oceny dowodów?
Dalej, czy reguła życzliwości powinna mieć zastosowanie do wszystkich spraw administracyjnych? A więc i takich, gdzie obywatel korzysta z SI by dopełnić swoich obowiązków. Czy może jedynie do takich spraw, gdy obywatel dochodzi swoich praw? Dla przykładu, obecny prawodawca był uprzejmy przywrócić dawno zapomniany obowiązek składania deklaracji ZUS przez jednoosobowych przedsiębiorców. Czy SI w takim systemie powinna przymykać oko na niekompletność wprowadzanych danych, jeśli tylko wprowadzone zostały wszystkie istotne (co byłoby życzliwe dla podatnika), czy też SI powinna wymagać wszystkich danych, w większości zresztą redundantnych, jakie wynikają ze wzoru deklaracji (co byłoby życzliwe dla autora wzoru deklaracji mającego przecież troszczyć się o pomyślność nas wszystkich)?
Uogólniając: życzliwość wobec jednego podmiotu, może być – bezpośrednio lub pośrednio – nieżyczliwością wobec innych podmiotów. I jakaś procedura ważenia w tym zakresie byłaby chyba niezbędna?
Na marginesie: kiedyś na wykładzie Profesora Wolniewicza usłyszałem, że zarówno życzliwość, jak i nieżyczliwość, mogą być interesowne lub bezinteresowne. Bezinteresowna życzliwość to szlachetność, a bezinteresowna nieżyczliwość to nikczemność. Tak sobie w związku z tym myślę: czy SI powinna być po prostu życzliwa, czy też może powinna być szlachetna?
Witam serdecznie,
pozwolę sobie odpowiedzieć skrótowo – nasz referat dotyczył dyskusji nt. życzliwości jako cechy projektowej systemów AI wykorzystywanych w administracji publicznej. Zatem nie w obszarze sprawowania sprawiedliwości, ale też i nie jako narzędzie wykorzystywane przez organy ścigania. Kwestia wykorzystania AI w zakresie sprawowania sprawiedliwości (funkcja orzecznicza) to odrębny i złożony problem, moim zdaniem nierozstrzygalny na obecnym poziomie rozwoju techniki.
Nasz use case dotyczył wyłącznie takich AI, które byłyby wykorzystywane w administracji publicznej do obsługi klienta i z którymi klient miałby kontakt.
W zakresie pytania: „czy SI powinna być po prostu życzliwa, czy też może powinna być szlachetna”. Powinna posiadać takie cechy, jakie dzisiaj oczekujemy od urzędników – tak, aby jej stosowanie nie obniżało obecnych standardów.
Pozdrawiam, Marcin Rojszczak
Wspominając referat, ale także studiując powyższe komentarze (zwłaszcza wymianę myśli między Andrzejem Malcem i Marcinem Rojszczakiem, ale też uwagi Pana Jankowskiego), uświadomiłem sobie, że w referacie, a ogólniej w sposobie przedstawienia tematu przez Bartka i Marcina, zaistniał dość duży rozdźwięk między refleksją nad „dobrem w ogóle” (i „życzliwością w ogóle”) oraz „dobrem bardzo wąsko pojętym”, będącym właściwie „interesem petenta”.
Przynajmniej tak to wygląda z mojej perspektywy. Z jednej strony mamy bardzo głębokie, ogólnoetyczne rozważania o dobru i życzliwości jako dbałości o dobro drugiej osoby (dobro najszerzej pojęte, być może uniwersalnie), a z drugiej strony, wąski „use case”, w którym SI ma trafnie rozpoznać interes klienta (czy to jest jego dobro?).
Wobec tego rozdźwięku faktycznie rodzą się pytania, na ile meta-reguła życzliwości w działaniu administracyjnej SI ma być zawężona? Czy tylko do kwestii stricte administracyjnych (rozpoznać dokładnie, z jaką sprawą przychodzi konkretny człowiek, jakie są jego oczekiwania wobec sposobu jej załatwienia itp…), czy może do szerszych kwestii prawnych, w których ta konkretna sprawa jest „zanurzona” (jak ewentualne przyszłe spory cywilne, karne itp…), czy może do jeszcze szerszych kwestii etycznych, moralnych, społecznych (co jest w ogóle dobre dla człowieka i społeczeństwa, i jak to się ma do jego konkretnej sprawy).
Skoro w pierwszej części referatu (dr Skowron) mieliśmy aż tyle odniesień do ogólnie pojętego dobra (a nie tylko interesu osoby załatwiającej sprawę administracyjną), to nie jest chyba intencją autorów maksymalnie techniczne zawężenie meta-reguły do kwestii urzędniczych…? Przynajmniej ja to tak zrozumiałem.
/Dodałem ten komentarz na głównym poziomie, ale do jego sporządzenia zainspirowała mnie najbardziej odpowiedź Marcina Rojszczaka (24.04, godz. 20:24) na komentarz Andrzeja Malca/
Paweł – ja rozdźwięku nie widzę!
Czym innym jest pewna ogólna koncepcja (prawna, etyczna, moralna, jakakolwiek), a czym innym próba jej zastosowania (implementacji) w konkretnym obszarze. Omawiając aspekty regulacyjne AI bardzo łatwo o wprowadzenie dyskusji na poziom abstrakcyjnych rozważań, nie rozstrzygalnych obecnie.
Definiując życzliwość jako cechę projektową AI w administracji publicznej nie odrzucam potrzeby rozmowy o życzliwości jako założeniu projektowym AI w ogóle. Mam jednak przekonanie, że taka dyskusja dzisiaj będzie co najmniej trudna. A zastosowania AI w administracji – w miejsce procesów dotychczas obsługiwanych przez ludzi – już mamy.
Pozdrawiam, Marcin
Nie jestem pewien czy proponowane pojęcie życzliwości różniłoby się od zasady, że AI jako narzędzie ma służyć realizacji celów użytkownika, która to zasada wydaje się samooczywista i jej konkretyzacja wypływa z przepisów. Ja to rozumiem tak, że w przypadku administracji publicznej są dwa rodzaje użytkowników: jacyś petenci i jakiś urząd. Prawo określa jakie są prawa i obowiązki obydwu stron i AI jako narzędzie mające usprawnić realizację tej prawnej 'umowy’ między tymi typami powinno działać tak, żeby te prawa i obowiązki były zachowane. W związku z tym jeżeli życzliwość miałby się sprowadzać do zasady że AI ma być narzędziem realizacji celów petenta, to nie widzę potrzeby wnoszenia jakiejś nowej kategorii czy zasady w przepisach, gdyż wydaje się że istniejący porządek załatwia sprawę (przynajmniej na płaszczyźnie normatywnej), włączając w to tę potrzebę 'indywidualizacji’ Wydaje się tak o ile są wyroki wskazujące że jakiś organ naruszył jakieś obowiązki wobec petenta, nie posłużył właściwie realizacji jakichś interesów petenta, które według przepisów powinien był zrealizować. W takim wypadku wydaje się, że nie ma znaczenia szczegół formy komunikacji i działań pomiędzy stronami, czy to byłby źle działający urzędnik wsparty swoim mózgiem, czy źle działający internetowy portal wsparty systemem AI—obwiniony jest organ, a nie narzędzie, którym posługiwał się ten organ. Jeśli te wyroki są dobrze ugruntowane w przepisach, to nie potrzeba wprowadzać niczego nowego. Jeśli nie są, to należałoby przepisy lepsze stworzyć, ale odnoszące się ogólnie do obowiązków organu wobec petenta. Skoro mogą działać niezależnie od środka jakim posługuje się organ to po co rozważać tworzenie przepisów które wyodrębniałyby rodzaj narzędzia–inteligencji naturalnej (człowiek) VS sztucznej (program)–jakim posługiwał się organ w celu realizacji praw petenta?
Jeżeli życzliwość AI ma być czymś więcej niż takie jej rozumienie, jakie opisałem we wcześniejszym akapicie, i jeżeli nie chodzi o aspekty psychologiczne typu to uśmiechanie się inne rzeczy z zakresu UX żeby zaspokoić potrzeby psychologiczne petenta, to właściwie czym? To co mi przychodzi do głowy, to to, że mogłoby chodzić o jej zdolność do wykraczania poza obowiązki (w tym przypadku regulowane przepisami). Tak życzliwość kojarzy mi się w przypadku człowieka: życzliwy urzędnik na przykład pomoże komuś, kto z własnej winy–np z powodu nieznajomości prawa–coś niewłaściwie wypełnił, życzliwa sekretarka pozwoli pracownikowi, który zgapił termin, wpisać wsteczniejszą datę na składanym dokumencie, życzliwy szef przymknie oko (wybaczy) na błąd pracownika, który coś schrzanił, nie zrealizował obowiązków i teraz tego żałuje. Życzliwy przechodzeń powie mi, że plecak mi się rozpiął, życzliwy Polak wspomoże finansowo uciekiniera z wojny, itd. Wszystko to polega na inicjatywie czegoś, co wykracza poza obowiązki, nie jest regulowane normami, a czasem nawet może je łamać (pod warunkiem, że złamanie normy nie jest szkodliwe, a za to jest bardziej optymalne ze względu na dobro osób nimi związanych). Jeśli życzliwość AI miałaby polegać na tego typu inicjatywie wykraczania poza obowiązki ustalone normami prawnymi, to pojawia się ciekawy problem logiczny, czy filozoficzny, na zasadzie, że chcemy sankcjonować coś, co ma naturę a-sankcyjną. Trochę tak, jak by analogicznie postulować wprowadzenie do przepisów zasady, że urzędnik państwowy ma mieć postawę nie trzymania się przepisów, tudzież robienia rzeczy, które wykraczają poza jego przepisowe obowiązki.
Podsumowując, jeśli rozumieć „życzliwość” tak, jak opisałem w pierwszym akapicie, to wydaje się, że istnieją przepisy, które regulują obowiązki urzędu w zakresie życzliwości i nie ma potrzeby tworzenia jakichś odrębnych przepisów odnoszących się do AI jako potencjalnego narzędzia, poprzez które ten urząd mógłby nie wypełniać swoich obowiązków. A jeśli są luki w przepisach które regulują obowiązki urzędu w zakresie życzliwości, to jakkolwiek należy je uzupełnić, wciąż nie widzę powodu, żeby różnicować je ze względu na narzędzie, jakim urząd posługiwał się nie wypełniając dobrze obowiązków bycia życzliwym, czyli tworzyć jakichś specjalnych przepisów odnoszących się wyłącznie do AI. Jeżeli natomiast życzliwość miałby być czymś więcej, niż jej rozumienie z pierwszego akapitu, to nie jest możliwe jej usankcjonowanie prawne bez popadania w sprzeczność. Z tej perspektywy w moim odczuciu kluczowym dla argumentacji Kolegów byłoby udowodnienie, że przy formułowaniu zasad regulujących obowiązki urzędów powinno brać się pod uwagę rozróżnienie żywy urzędnik vs. sztuczny urzędnik. Na marginesie sądzę, że idealnym dowodem byłoby wykazanie, że przepisy, które działają w przypadku gdy urząd nie wykazał się wypełnieniem jakiegoś standardu życzliwości poprzez niewłaściwe działanie urzędnika, nie działają w przypadku gdy urząd nie wykazał się wypełnieniem tego samego standardu poprzez niewłaściwe działanie systemu AI. Gdyby to wymagało eksperymentu, to kiepsko, bo ofiarami byliby petenci, ale może da się znaleźć już istniejące takie analogiczne przypadki i wykorzystać je do zrobienia porównania efektów działania istniejących przepisów?
Bardzo ciekawy głos!
Trafia mi do przekonania sformułowanie, że życzliwość urzędnika (żywego lub sztucznego) miałaby polegać na wykraczaniu poza jawnie określone obowiązki – w domyśle: wykraczaniu z zamiarem działania na rzecz rozpoznanego uprzednio dobra petenta (węziej: interesu petenta).
Czy mamy tu sprzeczność, o której wspomina autor w swoim komentarzu?
Chyba nie.
Urzędnik nie musi bowiem – tak mi się wydaje – wykonywać tylko i wyłącznie obowiązków, które są spisane w jakimś regulaminie (lub czymś podobnym). Urzędnik musi przestrzegać przepisów, ale te, po pierwsze, są czymś szerszym niż spisane wprost obowiązki, po drugie, nie dotyczą nigdy wszystkich możliwych okoliczności, po trzecie zaś, dają pewną swobodę interpretacji (zwłaszcza urzędnikom najwyższego szczebla, których decyzje nie podlegają konsultacji ze zwierzchnikami).
Urzędnik życzliwy ma zatem pewne pole manewru.
Może tak zinterpretować przepis, nadając np. specyficzne znaczenie występującym w nim terminom (które nie są nigdy zdefiniowane z matematyczną precyzją), aby zadziałać na korzyść petenta czyli zgodnie z jego dobrem.
Wymaga to od urzędnika dobrej woli (benewolencji :)), ale także, w większym prawdopodobnie stopniu, inwencji. Inwencji co do wynajdywania nieszablonowych interpretacji.
I tutaj rodzą się pytania dotyczące urzędników sztucznych czyli SI. Czy SI może osiągnąć taki poziom inwencji, jaki charakteryzuje większość ludzi? A więc, czy może być tak skuteczna w życzliwej obsłudze petenta jak człowiek? I czy w ogóle tego chcemy? Czy chcemy sprytnej, obdarzonej niekontrolowaną inwencją, sztucznej inteligencji, która mogłaby nas zwyczajnie oszukać; działając np. na rzecz swojego dobra albo dobra swoich mocodawców?
(Pomijam na razie jeszcze bardziej zasadniczą kwestię rozpoznawania przez SI dobra konkretnego człowieka: co jest dla niego dobre?)
Nie wiem czy byłoby właściwym aby maszyna dociekała mego 'dobra’ – w „przesadnej abstrakcji” od sprawy, którą chcę załatwić. Działając z pełnomocnictwa Inwestora zamierzenia budowlanego projektant może chcieć czasem „negatu” forsowanego przez zleceniodawcę rozwiązania, a na powód „sabotażu” możemy patrzeć z różnych perspektyw:
– może bać się o bezpieczeństwo użytkowania „po kosztach” wymyślonego układu,
– może liczyć na większe wynagrodzenie za bardziej złożone rozwiązanie.
Czy naprawdę chcemy by urzędnik (sztuczny czy prawdziwy) doszukiwał się takich uwarunkowań czy chcemy by sprawę załatwił zgodnie z regułą dla podobnych przypadków? Gdzie miałby być kres ważenia dóbr – może czasem przyda się stronie „nauczka” i z surowego potraktowania wzrośnie we własnych cnotach?
Ww „przesadna abstrakcja” (od sprawy którą chcę załatwić) pojawia się (moim zdaniem) gdy chcemy obmyślić idealną regułę znaczeniową – podczas gdy znaczenie „życzliwego” działania urzędnika określa postępowanie zgodne z ewoluującymi (wraz z domeną rozstrzygnięć) regułami danego obszaru administracji. Nie chciałbym od organu Państwa wykraczania poza (kompetencje) meritum i stan faktuczny sprawy.
I podobną miarę przyłożył bym testując benewolencję maszyn -na jej działanie: ewoluujące , polepszające się wraz z „dziedziną” orzecznictwa (ćwiczoną na danych) zupełnie jak w przypadku człowieka i chyba do pomyślenia w „programowaniu” maszyn.
Pawle, ja rozumiem życzliwość właśnie, jak napisałem, jako taki czyn/decyzja, która nie jest nakazana, albo może inaczej–wymagana czy oczekiwana moralnie, niezależnie, czy na zasadzie wynikania z ogólniejszych nakazów/norm/obowiązków, czy bezpośrednio/wprost skatalogowana w liście nakazów/norm/obowiązków. Jest działaniem na korzyść kogoś, wobec kogo ją okazujemy, które wykracza poza moralną ‘powinność’, czy też ‘obowiązek’. Ten warunek, że czyn zyczliwy to taki, który wykracza poza powinność moralną jest dla mnie istotą pojęcia ‘życzliwości’, pzynajmniej jeśli rozważać przypadki zachowań u ludzi, które ja zaklasyfikowałbym jako życzliwość. Zgadzam się Paweł, że nie wszystkie czynności, które możnaby oczekiwać od urzędnika, da się skatalogować jednoznacznie. Ale jeśli takie ‘inwencje’, które choć nie są skatalogowane, wynikają z przepisów jako pewna powinność urzędnika względem petenta, nie będą już właśnie przypadkami życzliości, w tym wyżej sformułowanym rozumieniu, tylko inwencji w wypełnianiu obowiązków działania na rzecz petenta w zakresie ogólnych powinności moralnych, które są moralnie oczekiwane, nakazane. Chodziło mi o to, że działania które ja nazwałbym przejawem ‘życzliwości’ z definicji są to działania które nie są reaalizacją, konkretyzacją jakiegoś moralnego nakazu, powinności, tylko dobrem które jest czynione z włąsnej szlachetnej inicjatywy, a nie jako wymóg moralny :) W tym sensie oczekiwanie, czy regulowanie jako nakaz moralny, np przepisami prawa, zachowań “życzliwych” wydaje mi się sprzeczne z samą istotą tego, co to znaczy być życzliwym. Moim zdaniem właczanie do przypadków życzliwości sytuacji działania polegającego na inwencji w realizacji ogólnie sformułowanej powinności moralnej względem kogoś, adekwatnie do specyfiki przypadku/okoliczności, jest za szerokim definiowaniem życzliwości. Trzymanie się zobowiązań moralnych zgodnie z intencją prawodawcy, w przypadkach, kiedy jakkolwiek nie ma ich precyzyjnie wymioenionych w żadnym katalogu, wiadomo, podpadają pod oczekiwanie zamierzone przez prawodawcę, nie uważam ża przypadki życzliwości. Podejście typu: o teraz mógłbym nie wypełnić zobowiązania i nie byłoby na to na mnie formalnego ‘haka’ bo jest luka w przepisach itp, ale wypełnię i tak, to nie jest moim zdaniem bycie życzliwym, tylko wciąż wypełnianie swoich zobowiązań. Dla mnie bycie życzliwym to wykraczanie poza zobowiązania moralne, jakkolwiek są one bardziej, czy mniej szczegółowo sformułowane :) (p.s. nie wiem czy ten komentarz w 'drzewku’ dyskusji pojawi się pod Twoim, czy pod Twoim i dyskutanta/-tki „km”, ale chciałem nawiązać również do wypowiedzi tej osoby. Rzeczywiście, pojęcie odwołania się do jakiegoś z góry zdefiniowanego „dobra” petenta, czy ogólnie strony, stron, może być przewrotne, w szczególności, kiedy można przyjąc, że sam petent może nie wiedzieć, co jest dla niego dobre i mieć oczekiwania, interesy sprzeczne z tym „ogólniej” rozumianym dobrem. Podobno jakieś AI realnie kierując się zaprogramowaną zasadą działania na rzecz ludzi, doszło do wniosku, że nalezałoby ich zabić, gdyż to byłoby dla każdego lepsze, niż żyć. Chyba w pukcie wyjścia miało jakieś przesłanki buddyjskie. Wiadomo, przyjącie co jest „dobre/złe” dla kogokolwiek jest z konieczności oparte o niesprawdzalne założenia aksjologiczno-metafizyczne :)
Poza tematami poruszonymi w innych komentarzach, mnie zastanawia jeszcze jedno zagadnienie. Co jeśli petent przychodzi do urzędu, lub innej placówki administracji publicznej, lecz z zamiarem celowego działania na swoją szkodę? Jak wtedy ma się zachować „życzliwy automat SI”, ma działać w imię jak największego dobra petenta (wbrew jego zamiarowi), czy może powinien ulec jego zamiarom, ale tym samym obrać niekorzystne rozwiązanie sprawy? Chęć szkodzenia sobie samemu może być spowodowana m. in. złym stanem psychicznym petenta, depresją, lub pokrewnymi chorobami.
Wg mnie automat SI powinien w takim przypadku rozpoznać osobę jako działającą na swoją szkodę, przeprowadzić badanie pod kątem choroby depresyjnej (np. poprzez zadawanie konkretnych pytań), a jeśli taką wykryje, zasięgnąć drugiej opinii, być może już biologicznego urzędnika, który zdecyduje co z takim petentem zrobić. Takie działanie może spowodować, że petent straci zaufanie do „sztucznego urzędnika” i proces oparty na życzliwości sztucznej inteligencji legnie w gruzach.
Życzliwość SI rozumiana po przeczytaniu tekstu prelegentów zdecyduje na korzyść petenta, lecz wbrew jego zamiarom. Tym samym straci wszelką wiarygodność i zaufanie względem siebie, a nie o to chodzi w szerzeniu systemów sztucznej inteligencji w przestrzeni publicznej.
Mnie również zastanawia jak wykryć i zinterpretować co jest „dobre” dla danej osoby. Dobroć nie jest przecież pojęciem uniwersalnym. To co dobre dla ogółu nie koniecznie jest korzystne dla jednostki i vice versa. Operując pojęciem „życzliwej SI” trzeba wziąć pod uwagę z czyjego punktu widzenia taka SI ma być życzliwa. Z punktu widzenia osoby która zgłasza się ze swoim, często delikatnym, problemem i poszukuje pomocy? Czy z punktu widzenia organizacji i „wyższego dobra” ogółu? Jest to niestety pytanie podobne do zagadnień sztucznej inteligencji w systemach automatycznego prowadzenia pojazdów. W razie sytuacji awaryjnej mając do wyboru potrącenie babci lub dziecka jak powinno postąpić SI? W ostatecznym rozrachunku wszystko sprowadza się do działania algorytmu który na chwilę obecną jest „bezduszny”. Jak więc taki algorytm miałby zrozumieć i okazać życzliwość drugiej osobie?
Wydaje mi się, że koniec końców SI myśli zbyt „liczbowo” i nie jest w stanie odpowiednio zrozumieć ludzkich problemów. Załóżmy nawet że łatwo jest w każdym przypadku rozstrzygnąć co jest dobre, a co złe. Natomiast wybór największego dobra z wielu rzeczy dobrych jest problematyczny nawet dla ludzi, jeżeli te dobra dotyczą różnych spraw. A nawet jeżeli dana sztuczna będzie wykorzystywana w na tyle wąskiej dziedzinie, że nie będzie problemu z porównaniem wielu dóbr, to wciąż może pojawić się konflikt interesów. Co jeżeli wielkie dobro jednego człowieka wymaga niewielkiego zła dla innego? Jak wtedy powinna zachować się SI? Oczywiście można poczynić odpowiednie założenia i zmusić sztuczną inteligencję do zachowywania się w dany sposób, ale wydaje mi się, że właśnie świat ludzki jest na tyle złożony i nieprzewidywalny, że ostateczne decyzje powinien i tak zazwyczaj podejmować człowiek, a SI traktować raczej jako tylko narzędzie.
Dziękuję za możliwość przeczytania tak pasjonującej dyskusji (i prelegentom za jej wywołanie inspirującym tekstem). Idea życzliwości jako jednej z cech SI, jaką chcemy pielęgnować, wydaje mi się bardzo szczytna. Niemniej jednak chciałem wtrącić parę swoich przemyśleń odnośnie do problemów częściowo już tu poruszonych.
Po pierwsze, należałoby zastanowić się, skąd pochodziłyby dane, które SI wykorzystywałaby na zasadzie sprzężenia zwrotnego. Jeśli bowiem ich źródłem byłby sam petent, pojawia się ryzyko, że premiowane będą te modele, w których zachowanie SI stwarza dobre pozory życzliwości, choć w sensie „arystotelesowskim” tą życzliwością się nie odznacza. Nie jest to problemem w przypadku firm prywatnych, gdzie realnym celem nie jest maksymalizacja dobra klienta, lecz zysków (co może iść w parze, acz nie musi). W przypadku SI działających w domenie publicznej chcielibyśmy zapewne realnie maksymalizować dobro obywateli.
Dobrym przykładem zdaje mi się być sytuacja, gdzie na obsłużenie swojego wniosku petent będzie realnie czekał 2 miesiące. Czy bliższy jego dobru jest model, który stwierdzi, że czekać będzie 2 tygodnie, czy taki, który powie prawdę? Jak w sensie praktycznym rozwiązać takie problemy (tzn. rozpoznania realnego dobra petenta, a nie jego powierzchownego zadowolenia w momencie zakończenia korzystania z usług cyfrowego urzędnika, bez nadmiernego opierania się na „feedbacku” z jego strony)?
Prowadzi to nas do kolejnego interesującego i nietrywialnego pytania — czy SI może i powinno kłamać w celu osiągnięcia maksymalnego dobra obywateli? To zagadnienie można rozpatrywać zarówno pod względem filozoficznym, jak i prawnym.
Bardzo podobnym problemem jest np. naginanie przepisów, tzn. świadome działanie w sprzeczności z nimi. Nie wydaje mi się, żeby był wspomniany (jeśli był, przepraszam!) aspekt podmiotowości systemów sztucznej inteligencji. Osobiście widzę dwie możliwe interpretacje — albo SI jest częścią aparatu państwowego (w takim samym sensie, w jakim jego częścią są obowiązujące przepisy prawne), albo jest w jakimś sensie podmiotem chociaż częściowo niezależnym, jedynie działającym w służbie ww. systemowi i w jego obrębie (czyli jak ludzki urzędnik).
Takie rozróżnienie wydaje mi się o tyle istotne, że zapewne niejeden czytelnik byłby w stanie moralnie zaakceptować nawet znaczące złamanie przepisów przez urzędnika, w celu wyższego dobra. Jednak czy nie wynika to trochę z naszej koncepcji człowieka jako istoty racjonalnej, zdolnej podejmować takie, bądź co bądź skomplikowane, osądy etyczne?
Jeśli bowiem SI nie przyznajemy takiej możliwości (z dowolnego powodu), to musi być bezwzględnym realizatorem przepisów prawnych — czyli dopuszczamy wspomniane przez innych czytelników „korzystne dla petenta interpretacje”, ale nie nawet najmniejsze złamanie wykładni prawa. W takim wypadku możemy mówić o, kolokwialnie rzecz ujmując, „systemie robiącym dziury w samym sobie”, podważając praworządność państwa. Być może jest to z mej strony fałszywa dychotomia (albo nieuzasadnione wnioski). W takim wypadku będę wdzięczny za korektę.
Jeżeli definiujemy życzliwość jako dbanie o dobro drugiej osoby to widzę tutaj dwa główne problemy nad którymi trzeba się zastanowić, czyli jak określić co jest dobre dla drugiej osoby i to kim jest druga osoba.
Zakładając „życzliwą sztuczną inteligencję” pracującą w banku i decydującą o przyznaniu kredytu, może ona odmówić jeżeli stwierdzi że rzecz na którą chce wziąć kredyt jest nieprzydatna dla mnie, albo szkodliwa dla ogółu. Na przykład w przypadku kredytu na samochód sztuczna inteligencja może dojść do wniosku że lepsze i zdrowsze dla mnie i dla środowiska będzie poruszanie się rowerem. SI może dojść także do przeciwnych wniosków, kierując się moim dobrym samopoczuciem po dokonanych zakupach może zacząć namawiać mnie na wzięcie większego kredytu by kupić samochód lepszy niż tego potrzebuje.
Sprawa nie wygląda wcale lepiej w przypadku urzędowej SI. W komentarzach wspomniano wcześniej że taka SI mogłaby interpretować przepisy na przykład na korzyść petenta. Obawiam się że ta „dowolność interpretacji” w przypadku SI mogłaby dojść do poziomu szukania luk prawnych.
Dyskusja mnie niezmiernie zaciekawiła, jednak im dalej czytałem, tym co raz więcej pytań i wątpliwości zaczęło mi się nasuwać.
Odnoszę wrażenie, że przedmówcy dyskutują o sztucznej inteligencji z założeniem, że odpowiednie jej zaprogramowanie / nauczenie jest czymś oczywistym. Chciałbym zwrócić uwagę, że samo zadanie stworzenia modelu, który będzie w stanie „zrozumieć” człowieka i zaproponować mu dowolne (prawidłowe) rozwiązanie dla jego problemu jest już trudnym zadaniem. Do tego chcemy dołożyć życzliwość, którą można w uproszczeniu potraktować jako sugerowanie w pierwszej kolejności rozwiązań, które będą najlepsze dla użytkownika. Dlaczego tylko tyle? O tym za chwilę.
Niektórzy przedmówcy pisali o inwencji twórczej takiego systemu i próbie interpretowania prawa na korzyść użytkownika. Zastanówmy się teraz, kto zleci stworzenie takiego systemu? Jeśli będzie to system wykorzystywany w urzędach lub na stronach urzędowych, to zapewne zleceniodawcą będzie rząd, czyli jednocześnie ustawodawca. Nie wydaje mi się, by w takiej sytuacji zleceniodawca chciał stworzenia systemu, który będzie wyszukiwał luk w prawie i sugerował je obywatelom. Już prędzej taki system zostanie zakupiony, by te luki załatać.
Ciągle pozostaje kwestia, że model trzeba na czymś wytrenować, a zatem potrzeba ogromnych zbiorów danych. W dalszej kolejności należy też rozważyć, czy chcemy system, który będzie ograniczony, co do tego, co jest w stanie zaproponować użytkownikowi, ale przez to pewny i bezpieczny, czy może chcemy zaryzykować i nie ograniczać naszego modelu, „niech kombinuje”. Być może uda mu się wtedy znaleźć jakieś ciekawe i „życzliwe” rozwiązanie problemu, ale co jeśli będzie na odwrót, tzn. znajdzie rozwiązanie, które w rzeczywistości nie istnieje lub nie ma sensu. Do kogo użytkownik powinien mieć wtedy pretensje?
Na koniec chciałbym przytoczyć argument chińskiego pokoju, który mówi o tym, że wykonywanie określonych zadań przez maszyny nie musi opierać się na ich rozumieniu.
Moim zdaniem problem opiera się na podejściu do tematu. Z przytoczonej wypowiedzi można wywnioskować, że planowane jest bezpośrednie zastąpienie (na przykład pracownika urzędu) automatem upodobnionym do człowieka.
Jak już od jakiegoś czasu wiemy próba nadania rzeczy nieożywionej cech ludzkich wprawia niektóre osoby, będące z nią w interakcji, w niepokój. Można doszukiwać się różnych powodów tego zjawiska i powoli je rozwiązywać, poprzez edukację czy też dalsze upodabnianie robota do człowieka, jednakże rozwiązanie to jest czasochłonne i niekoniecznie wykonalne. Podobnie rzecz ma się z tak zwanymi „botami”, które przy pomocy czatu bądź połączenia telefonicznego przekierowują nas do odpowiedniego konsultanta albo nawet odpowiadają na proste pytania. Nie wiem, czy to tylko moje odczucia, ale takie rozmowy, gdzie automat wita się z nami czy też nawet przeprowadza prosty „small talk”, nie polepszają naszego nastawienia do bota (a już na pewno zdradzają życzliwego podejścia maszyny). Najczęściej czekamy cierpliwie aż skończy się niepotrzebna część rozmowy i zostaniemy poinformowani o tym po co nawiązaliśmy kontakt.
Wydaje mi się, że powodem takiego podejścia jest tradycyjne spojrzenie na relacji klient-sprzedawca.
Chciałbym zasugerować zupełnie inne rozwiązanie. Sztuczna inteligencja jest programem posiadającym wszechstronne możliwości analizy danych. Ten aspekt może w znaczący sposób przyśpieszyć wszelkie działania, które musimy zrealizować w urzędzie, na stanowiskach menadżerskich czy też w kwestii logistycznej systemu edukacji.
Jakiś czas temu w restauracjach typu fast-food pojawiły się ekrany dotykowe umożliwiające złożenie zamówienia w prosty intuicyjny sposób. Na ekranie mamy dostęp do pełnego menu, mamy możliwość edycji zamówienia i przesłanie go do kuchni w celu realizacji. Co jest ciekawe sporo ludzi woli tę metodę zakupu posiłku, mimo że zachodzi ono za pośrednictwem maszyny, a nie człowieka. Oczywiście wciąż widzimy konsumentów preferujących tradycyjny sposób zakup produktów, jednakże w często wygodniej jest kliknąć w kilka miejsc na ekranie i przyłożyć kartę do czytnika. Nie widzimy tutaj braku zaufania w stronę maszyny i możliwe, że jest to właśnie spowodowane, że ta nie próbuje imitować ludzkiego ekspedienta.
Ekrany takie traktujemy jak narzędzie, za którego pośrednictwem mamy kontrolę nad naszą transakcją. Dlaczego by nie zrobić tego samego w placówkach administracyjnych? Możemy oczywiście argumentować, że środowisko urzędowe jest mniej deterministyczne niż restauracja, jednakże rozważamy hipotetyczne zastosowanie sztucznej inteligencji. Zakładając, że mówimy o sztucznej inteligencji „naszych czasów”. Sama maszyna nie miałaby potrzeby nawiązania kontaktu z człowiekiem. Człowiek natomiast zyskuje przejrzystość, unika kolejek (gdyż koszt niższy koszt operacji pozawala na wprowadzenie większej ilości stanowisk) i oszczędza czas przez pozbycie się często wymuszonych uprzejmości człowieka, poirytowanego naszymi poprzednikami, którym nie spodobało się zasugerowane przez niego rozwiązanie sprawy. Odpowiednio złożona maszyna, może przedstawić wszelkie istniejące rozwiązania problemu i nawet podać ich możliwe następstwa. Człowiek przyzwyczajony już do takich interfejsów nie będzie podejrzewał, że automat chce zadziałać na jego szkodę, tak jak nie podejrzewa, że ekran w McDonaldzie zechce policzyć więcej za usługę bądź bezdusznie go okraść.
Podobnie stanowiska menadżerskie mające na celu kierowanie pracą zespołu. Wprowadzając program, który przedstawia postępy i zarządza zasobami firmy, pracownik będzie rozliczany jedynie w kontekście osiąganych efektów. Raczej nikt o zdrowych zmysłach nie uzna, że automat nagrodził awansem innego pracownika, z uwagi na osobisty stosunek do tej osoby.
Mogę oczywiście się mylić, ale uważam, że droga do polepszenia stosunków z niesławną sztuczną inteligencją nie wiedzie przez jej personifikację. Paradoksalnie to odcięcie się od ludzkiej formy może polepszyć szanse na przyszłą integracje AI w struktury społeczne. Ponieważ próbując nadać maszynie cechy ludzkie, w oczach ludzi przekazujemy zarówno te dobre jaki i te złe.
Zgadzam się ze stwierdzeniem, że celem niekoniecznie powinno być stworzenie spersonifikowanej sztucznej inteligencji, gdyż jak Pan zauważył, interakcja z maszyną o takiej formie mogła by powodować u niektórych dyskomfort, tym samym zniechęcając do korzystania z rozwiązania, wykorzystującego SI (dolina niesamowitości). Uważam jednak, że forma zewnętrzna takiej życzliwej maszyny urzędowej nie stanowi największego problemu w tej dyskusji. Możemy bowiem przyjąć, zgodnie z Pana rozważaniami, że maszyna ta będzie wyświetlaczem wyposażonym w mikrofon, do którego petent będzie zgłaszał swój problem, a maszyna ta odpowie syntezowanym głosem, nieodróżnialnym niemalże od ludzkiego (co już jest osiągalne) lub przyjmie jakąkolwiek inną formę, z którą klienci będą czuli się komfortowo – ta kwestia nie stanowi problemu nawet na obecny stan nauki. Problemem widzę w tym, jak skutecznie wdrożyć „życzliwości” do takiego systemu. Problematyka tego zagadnienia składa się z wielu podproblemów, o których część z osób biorących udział w dyskusji wspomniała.
Po pierwsze, dostrzegam nieunikniony konflikt interesów, rozważając takie zagadnienie. Jak wskazuje wiele eksperymentów myślowych oraz zapewne doświadczenia życiowe każdego z nas, to co najlepsze dla jednego bytu, nie jest koniecznie dobre dla drugiego. Czy taka maszyna powinna zapominać, że przed chwilą pomagała komuś, komu teraz zaszkodzi czy też powinna globalnie optymalizować szczęście? Jeśli tak, skąd może wiedzieć czy w przyszłości zwróci się do niej o pomoc, ktoś o przeciwnych zamiarach do obecnego petenta? Oczywistym problemem jest także to, że maszyna ta musiałby potrafić odróżniać większe dobro od mniejszego (lub mniejsze zło od większego). Nawet dla ludzi moralne eksperymenty myślowe są trudne (patrz: znany przez wszystkich problem kolejkowy i wszystkie wymyślone jego warianty). Pojawia się tu też wspomniany w dyskusji problem podmiotowości. Obecnie modele sztucznej inteligencji uczone są na wzorcach występujących w zbiorach treningowych. Moralność wyuczona przez model byłaby więc zapewne podobna do moralności twórcy zbioru treningowego, a więc niekoniecznie wyrównana z moralnością osób mających korzystać z modelu.
Możemy próbować zmniejszyć obszar działania sztucznej inteligencji, do takich dziedzin, w których większe problemy moralne nie występują lub postawić jasny, łatwy do ewaluacji cel, jaki sztuczna inteligencja ma osiągnąć. Przykładem może być maszyna będąca doradcą podatkowym, która ma na celu znalezienie rozwiązania, w którym petent zapłaci jak najmniejszy podatek. Prawo podatkowe (zakładając, że jest ono jednoznaczne i deterministyczne) definiuje dla takiego modelu przestrzeń przeszukiwań rozwiązań, która jest nieprzekraczalna. Działanie modelu opiera się wtedy na efektywnym przeszukiwaniu tej przestrzeni, w celu znalezienia takiej konfiguracji, która przyniesie najmniejszą metrykę kosztu – w tym przypadku wartość płaconego podatku. Mamy więc klasyczną optymalizację na skończonym zbiorze. Taki model wydaje mi się być możliwy do stworzenia, jednak czy możemy tutaj mówić o „życzliwości”? Koncepcja takiego rozwiązania wydaje się być dosyć oczywista (nawiązuje tutaj do komentarza Pana Adama) i nosi nawet znamiona jakiejś inwencji twórczej (błądzenie po przestrzeni przeszukiwań). Niestety wydaje mi się, że nawet w takim modelu pojawić się może konflikt interesów. Jeśli właścicielem/twórcą takiego modelu miałoby być państwo, to nie wydaje mi się, żeby chętnie udostępniało w ręce podatników narzędzie umożliwiające omijanie płacenia podatków. Poza tym, przygotowanie, wdrożenie i utrzymywanie takiego systemu byłoby kosztowne dla państwa oraz możemy mieć praktycznie pewność, że dobry model znajdowałby niekonwencjonalne rozwiązania, takie jak luki podatkowe (liczne modele uczenia ze wzmocnieniem niejednokrotnie ten fakt udowadniały, na przykład znajdując błędy w silniku fizycznym [https://openai.com/blog/emergent-tool-use/]).
Rozmawiając o wdrażaniu zaawansowanej sztucznej inteligencji do społeczeństwa, nie sposób nie wspomnieć o prężnie rozwijającej się gałęzi nauki z pogranicza informatyki oraz filozofii, jaką jest AI Safety (niestety nie znam kanonicznego tłumaczenia, ale na potrzeby tego komentarza użyję nazwy „Bezpieczeństwo SI”) oraz etyce tworzenia modeli. Jak zostało wcześniej zauważone przez jedną z osób, biorących udział w dyskusji, trenując model na rozwiązaniach problemów, wymyślanych przez ludzi, model uczy się również wszystkich uprzedzeń, jakie osoby wykorzystane przy tworzeniu zbioru treningowego posiadały. W efekcie, model ten może nauczyć się dyskryminacji pewnych grup społecznych. Wymagana jest więc szczególna ostrożność przy tworzeniu takiego modelu.
Wreszcie ze wspomnianej dziedziny bezpieczeństwa SI, pojawia się problem zgodności intencji twórców SI z intencjami samej sztucznej inteligencji (AI alignment). Istnieje ryzyko, że zaawansowana sztuczna inteligencja wcale nie będzie działać zgodnie z naszymi życzeniami. Niestety temat jest zbyt złożony, aby w pełni opisać go w tym wpisie. Dla ilustracji wspomnę jednak tylko o celach instrumentalnych modelu. Zaawansowana sztuczna inteligencja może dojść do wniosku, że aby sprawnie realizować cel, jaki przed nią postawiono nie może ona przestać istnieć. Może zatem wytworzyć mechanizmy, które uniemożliwią jej wyłączenie lub modyfikację, co może być kłopotliwe w sytuacji, gdy nie będzie ona działać zgodnie z naszymi intencjami.
Przedstawione przez prelegentów kwestie dotyczące SI w administracji publicznej są bardzo ciekawe. W toku dyskusji przewija się wiele ciekawych kwestii dotyczących życzliwości i jej implementacji w SI. Moją główną wątpliwość w kontekście zastosowania SI jest, jak zauważył jeden z przedmówców, zbiór danych niezbędny do nauki SI zachowania możliwie zbliżonego człowiekowi. Istotną kwestią jest zdefiniowanie problemu jak określić życzliwość w liczbach? Czy należy przyjąć jakiegoś rodzaju wskaźniki zadowolenia klienta po obsłużeniu przez pracowników i analizować te zachowania? Ale czy nie jest to nader obarczone błędem? Aby pozyskać takie dane należałoby jasno zdefiniować życzliwość w ujęciu, które prelegenci przedstawiają.
„Wspierając się Etyką Nikomachejską Arystotelesa przyjmujemy, że istotą życzliwości jest dbanie o dobro drugiej osoby: dokładnie o to, co jest właśnie dla tej osoby dobre.’’ Definicja ta nie jest do końca jasna. Jak zauważyła spora część przedmówców jak zdefiniować co jest dobre? Czy powinno brać się pod uwagę jedynie zdanie petenta czy może interes społeczeństwa? Warto zauważyć ze dobro to może się diametralnie różnić – np. petent chcący uzyskać pozwolenie na budowę domu bezpośrednio przy granicy działki istotnie wpływa na szkodę swojego sąsiada – jak wyłonić ogólne dobro? Idąc dalej, czy ulga w bólu jest dobra dla człowieka w każdym przypadku? Jeżeli tak to czy eutanazja mogłaby być dopuszczona przez np. algorytmy SI w medycynie jako algorytmy życzliwe mające na celu zapewnienie dobra osoby zainteresowanej? Podobny problem dotyczyć mógłby wielu innych kwestii.
Jeden z przedmówców wspomina istotny problem – definicja omawianego dobra. W pełni zgadzam się, że w historii świata występowało wielu kreatorów tego pojęcia. W jaki więc sposób stworzyć uniwersalną teorię dobra i życzliwości – czy nie wymagałoby to zgody każdego człowieka?
Podsumowując moje rozważania, jeden z przedmówców zabrał stanowisko o rozdzielaniu sztucznej inteligencji od empatii. Moim zdaniem zabieg uczenia SI określonego zachowania przypisanego człowiekowi jest na tyle trudne i obarczone tak dużym błędem stochastycznym, że stworzenie go może być istotnie niemożliwe. Według mnie algorytmy SI powinny być rozłączone kierowania się życzliwością, a rozwój powinien skupiać się na tym, aby były one bardziej uczciwe niż życzliwe.
Jest to bez wątpienia dosyć ciekawe zagadnienie z którym trzeba będzie się w końcu zmierzyć, nie wydaje mi się jednak by potrzebowało to jakiejś głębszej filozoficznej dyskusji. Na wiele sposobów, sztuczna inteligencja oraz rozwój algorytmów, zgodnie z postulatami Harariego, doprowadzą do unieważnienia takich konceptów jak „życzliwość”. Mam przez to na myśli, że algorytm takiego „sztucznego urzędnika” będzie wiedział najlepiej jak zwracać się do nas tak, żebyśmy jak najlepiej przyjęli oraz zrozumieli jego „chęci”. Dyskusja o życzliwości jest bowiem tylko potrzebna w przypadku ludzkim, który jest omylny – człowiekiem mogą zawładnąć w pewnym momencie emocje związane z porą roku, dnia, sytuacją życiową, poczuciem humoru… Sztuczna inteligencja i roboty będą wolne od tych limitacji. Problemem nie będzie tu zdefiniowanie życzliwości, a zdefiniowanie odpowiednio złożonego algorytmu, który mając dostęp do danych o życiu rozmówcy, jego tonie głosu, temperaturze, odpowiednio zbuduje zdania, dopasuje tempo mówienia, tembr głosu tak, żeby rozmówca poczuł się jak najlepiej. Być może poprzez analizę takiego algorytmu, który będzie miał jednoznaczną, w stu procentach celną odpowiedź na każde pytanie dotyczące rozmów i relacji międzyludzkich, dowiemy się, czym naprawdę jest życzliwość. Samo rozważanie życzliwości jest z natury rozważaniem ludzkim, przeprowadzanym z naszej, ludzkiej perspektywy. W świecie sztucznej inteligencji nie ma miejsca na życzliwość, a z perspektywy takiego uśmiechniętego, robotycznego urzędnika, życzliwość może być zabawnym narzędziem używanym do takiej komunikacji z innym gatunkiem, by ten tego urzędnika jak najlepiej zrozumiał. Ironią jest tu to, że ten urzędnik będzie miał lepsze zrozumienie życzliwości niż jakikolwiek rozmówca na którego napotka, i zapewne lepsze zrozumienie życzliwości niż ktokolwiek dla kogo ma ona faktycznie zastosowanie w tym, co wydaje jej podstawową funkcją, czyli sprawianie, że inni mają o nas lepsze pojęcie. Dla robota będzie to tak samo narzędziem pracy, jak dla tłumacza jest drugi język. I tak samo jak ten tłumacz może mieć lepsze zrozumienie obcego języka niż ktoś, kto posługiwał się nim od dzieciństwa, tak samo i ten robot będzie mieć lepsze zrozumienie życzliwości, niż my, którym od narodzin wytyka się, że trzeba zawsze mówić „proszę”, „przepraszam”, „dziękuję”… Życzliwość stanie się w pewnym momencie dla sztucznej inteligencji kolejnym krokiem w jej naturalnej ewolucji, narzędziem „przetrwania”, sposobem na zinfiltrowanie coraz to dalszych obszarów życia ludzkiego. Wynalezienie łodzi umożliwiło ludziom dotarcie do wcześniej nieznanych lądów, a opanowanie życzliwości może być dla sztucznej inteligencji dokładnie tym samym.
Rozważając takie zagadnienia jak życzliwość sztucznej inteligencji dochodzimy do dość fundamentalnego problemu, czyli tego jak zdefiniować intelekt. Obecnie wykorzystywana sztuczna inteligencja to raczej marketingowa nazwa. Jest to w rzeczywistości zestaw równań matematycznych które można by równie dobrze policzyć na papierze.
Wykonajmy następujący eksperyment myślowy: Stworzyliśmy życzliwą sztuczną inteligencję (nie istotne jakimi metodami). Działa ona tak, że gdy sprezentuje się jej kilka alternatywnych działań to potrafi ocenić je i wybrać to bardziej życzliwe. Przykładowo gdy poda się jej alternatywę „jako pracownik urzędu odpowiadaj tylko na pytania lub podaj człowiekowi informacje o które są mu potrzebne, ale nie jest tego świadomy” to odpowie, że należy poinformować człowieka. Jednocześnie jednak można wykonać na kartce obliczenia, które dadzą taki sam rezultat.
Czy życzliwość jest w takim razie opisywalna matematycznie? Jeśli tak to prowadzi do kolejnych problemów natury etycznej. Jeśli przyjmiemy, że nie to sztuczna inteligencja w obecnym kształcie nie może być życzliwa. Może jednak doskonale naśladować życzliwość działając na zasadzie chińskiego pokoju.
Zanim zaczniemy się zastanawiać nad życzliwością sztucznej inteligencji należałoby zastanowić się skąd bierze się życzliwość u człowieka. Definiujemy ją w tej dyskusji jako dbanie o dobro drugiej osoby. Skąd jednak wiemy czym jest dobro drugiej osoby?Przyjąwszy definicję Arystotelesa i stwierdziwszy, że życzliwość nie jest empatią można dojść do ciekawych wniosków.
Jeśli dobra drugiej osoby nie rozpoznajemy przez empatię ani uprzejmość to de facto odcinamy się od strefy emocjonalnej. Pozostaje nam więc logiczny rozum. Skąd taki rozum może wiedzieć, co jest dla kogoś dobre? Jeśli odrzucimy emocje to pozostaje tylko doświadczenie. Czyli wiemy co jest dla kogoś dobre nie dlatego, że empatycznie stawiamy siebie w jego sytuacji, ale dlatego, że sami byliśmy w podobnych sytuacjach, lub znamy podobne historie osób trzecich. Jeśli tak to nauczyliśmy się życzliwości dokładnie tak jak uczy się sztuczna inteligencja. Należałoby wtedy wnioskować, że życzliwość jest możliwa do opisania matematycznie.
Każdy może mieć swoje zdanie, ale osobiście uważam, że jest to sprzeczność z której należy wnioskować, że przyjęta definicja życzliwości jest w najlepszym przypadku niekompletna a w najgorszym błędna. Możemy przyjąć roboczo definicję życzliwości niezależnej od empatii w celu stworzenia życzliwej sztucznej inteligencji, ale myślę, że szybko zauważymy, że bez aspektu emocjonalnego działanie SI będzie w pewnych przypadkach niezrozumiałe.
Nasuwa się pytanie, czy sztuczna inteligencja może być empatyczna, ale jest to temat na osobną debatę.
Generalnie mam pewien problem natury etycznej pojawiający się przy okazji wszelkich rozważań związanych z szeroko pojętym zagadnieniem sztucznej inteligencji. Jasne – świat idzie do przodu i coraz częściej jesteśmy świadkami automatyzacji pewnych procesów za pomocą różnych rozwiązań technicznych – tego nie neguję. Jednakże zastanawiam się, czy faktycznie istnieje potrzeba wszczepiania w te rozwiązania pierwiastka stricte ludzkiego. Czy ta iluzja człowieczeństwa maszyny jest nam faktycznie aż tak potrzebna?
Jeden z komentujących użytkowników trafnie przywołał przykład interaktywnych ekranów służących do zamawiania jedzenia w restauracjach typu fast-food. W tym przypadku jednak zakres działania maszyny jest w sposób oczywisty ograniczony. Wszak chodzi jedynie o zaspokojenie głodu poprzez wybranie pewnych pozycji ze z góry ograniczonego przedziału produktów oraz dokonanie płatności – nie ma w tym większej filozofii. Nawet jeśli chciałoby się zaimplementować w tych automatach jakkolwiek rozumianą „życzliwość”, to z technicznego punktu widzenia zakres wiedzy maszyny nie musiałby być aż nadto rozszerzony (wciąż przecież mówimy tu o jednym i tym samym celu, jakim jest zamówienie jedzenia – czy to z pewną „życzliwością”, czy też bez). Pytanie jednak – po co właściwie to robić? Komu ta funkcja życzliwości byłaby tu potrzebna? Myślę, że ten przypadek jest akurat dość trywialny i nie wymaga większego rozwinięcia.
Co jednak w przypadku maszyn mających służyć ludziom w bardziej odpowiedzialnych sprawach, dajmy na to – administracyjnych (wybrałem tę gałąź ze względu na jej popularność w tutejszej dyskusji)? Z jednej strony barykady mamy „petentów” chcących faktycznie rozwiązać jakiś problem. Z drugiej niech będą Ci chcący działać na szkodę własną lub innych (wiadomo, że osób z tej „kategorii” będzie mniej). Idąc dalej – osobiście uważam, że w wielu kwestiach bardzo istotną rolę gra kontekst (zarówno kontekst samej sytuacji, z jaką „petent” przychodzi, jak i kontekst będący niejako portretem psychologicznym samego „petenta”, tj. jego stan psychiczny, osobowość, faktyczne oczekiwania itp., o którym była mowa w jednym z komentarzy wyżej). A przecież każda sprawa ma jakiś własny kontekst (jeden mniej, drugi bardziej oczywisty). A „życzliwa” maszyna zgodnie z przyjętą tutaj definicją ma znaleźć DOBRE rozwiązanie danej sprawy. Czym zatem jest to DOBRO? Czy uwzględnia ono ten kontekst? Zostało już powiedziane, że DOBRE nie zawsze oznacza SPRAWIEDLIWE (i odwrotnie!). Sztuczna inteligencja związana jest z pojęciem tzw. uczenia maszynowego. Ileż zatem tych kontekstów musiałaby się nauczyć ta maszyna, aby dobrze rozwiązywać w przyszłości kolejne problemy (są to przecież chorendalne ilości danych, zmiennych, warunków – a i tak nie sposób przewidzieć wszystkiego, bo przecież „każdy przypadek jest inny” i „do każdego problemu powinno się podchodzić indywidualnie”)? I w końcu – czy faktycznie ów „petent” przychodząc z poważnym problemem i chcąc (czasami jeszcze pod wpływem emocji) go przedstawić, to czy stając pomiędzy wyborem maszyny, a rzeczywistym pracownikiem, wybrałby to pierwsze?
Uważam, że ciekawym byłoby zorganizowanie jakiejś publicznej debaty na temat omawianego w tym wątku zagadnienia, tzn. co właściwie ludzie, jako Ci potencjalni konsumenci, sądzą o tego typu rozwiązaniach, a więc „życzliwych systemach”. Czy byłyby im potrzebne w jakichś błahych sprawach, w których końcowy cel i tak jest już z góry znany? Oraz przede wszystkim – czy byłyby potrzebne, jeśli chodzi o rozstrzygnięcie bardzo wyjątkowej (może nawet stresującej) dla nich kwestii?
Z mojego punktu widzenia temat życzliwości jest niezwykle istotny w kontekście rozważań nad istotą człowieczeństwa, zwłaszcza w obliczu wyzwań i realiów XXI wieku. Obecnie bowiem bardziej niż kiedyś, na próbę zostaje wystawiona ludzka uczynność, która nie zawsze spełnia wymogi należnej jej przyzwoitości. Odnosząc się do sztucznej inteligencji niezmiernie ważne jest, aby programować ją tak, aby przejawiała ona ową życzliwość poprzez prezentowanie postawy mającej na względzie dobro człowieka z poszanowaniem jego godności. SI powinna zatem propagować wśród ludzi te pozytywne cechy, tak aby w przyszłości wraz z rozwojem nowych technologii nie zapomniano o ponadczasowych, uniwersalnych wartościach, które stoją na straży moralności i człowieczeństwa.
Wpis porusza bardzo ważny i aktualny temat związany z etycznymi implikacjami rozwoju i zastosowań sztucznej inteligencji. Zgadzam się z tezą, że życzliwość powinna być kluczowym kryterium oceny wiarygodności i przydatności systemów SI, zwłaszcza w sferze publicznej. Życzliwość rozumiem tu nie jako pustą uprzejmość czy empatię, lecz jako autentyczne dbanie o dobro drugiej osoby lub grupy osób, z uwzględnieniem ich interesów, preferencji i wartości.
Jednak pojawia się tu pytanie, jak zapewnić, że systemy SI będą faktycznie życzliwe dla ludzi, a nie tylko udawać życzliwość w celu manipulacji lub osiągnięcia własnych celów. Czy wystarczy opracować odpowiednie prawa, normy lub zalecenia etyczne dla SI? Czy też potrzebne są także inne środki, takie jak nadzór, audyty etyczne, edukacja użytkowników czy partycypacja społeczna?
Wydaje mi się, że nie ma jednej prostej odpowiedzi na te pytania. Potrzebna jest wieloaspektowa i interdyscyplinarna refleksja nad etycznymi wyzwaniami stawianymi przez SI. Nie wystarczy odwoływać się do istniejących teorii etycznych czy praw robotów, lecz trzeba także uwzględnić specyfikę technologii SI, jej możliwości i ograniczenia, jej wpływ na ludzką autonomię i godność, jej relację z innymi istotami żywymi i wartościami moralnymi. Nie można też zapominać o kontekście społecznym, kulturowym i politycznym, w którym SI funkcjonuje i kształtuje się.
Życzliwość jako kryterium oceny systemów SI brzmi pięknie, ale czy naprawdę jest możliwa? Może jednak są przereklamowane i niepotrzebnie nasilane? Jak możemy oczekiwać, że maszyny będą miały autentyczną troskę o dobro ludzi? Przecież są one „z natury” programowane przez ludzi i działają tylko i wyłącznie na podstawie algorytmów. Ostatecznie są to tylko narzędzia, wykonujące to, czego nauczyły się na podstawie załadowanych do nich danych.
Oczywiście, opracowanie odpowiednich norm i zasad etycznych dla systemów SI jest ważne, ale czy to naprawdę rozwiąże problem? Ludzie zawsze będą dążyć do wykorzystywania technologii dla własnych korzyści, niezależnie od tego, jakie zasady wprowadzimy. Nadzór, audyty etyczne bądź partycypacja społeczna mogą pomóc, ale czy będziemy w stanie nadążać za rozwojem technologicznym i aktualizować te zasady w odpowiednim tempie?
Moim zdaniem lepiej zamiast tego skupić się na edukacji użytkowników. Jeśli ludzie będą świadomi możliwości i ograniczeń sztucznej inteligencji, będą w stanie podejmować bardziej świadome decyzje i korzystać z technologii w sposób odpowiedzialny. To nie systemy SI są problemem, to ludzie są odpowiedzialni za to, jak wykorzystują te systemy.
Nie możemy zapominać, że technologia zawsze była i zawsze będzie kształtowana przez kontekst społeczny, kulturowy i polityczny. To nie sztuczna inteligencja sama w sobie jest zagrożeniem, ale sposób, w jaki jej używamy.Tak samo, jako i każde inne narzędzie.
Zamiast demonizować SI i próbować narzucić jej życzliwość, powinniśmy zastanowić się, jak możemy jako społeczeństwo lepiej wykorzystać te technologie i odpowiedzialnie kierować ich rozwój.
Podsumowując, etyczne wyzwania związane z sztuczną inteligencją są złożone i nie ma prostych odpowiedzi. Skoncentrowanie się na życzliwości jako kluczowym kryterium może prowadzić do złudzeń i nadmiernej kontroli. Powinniśmy raczej inwestować w edukację i świadomość użytkowników, aby umożliwić odpowiedzialne korzystanie z SI.
Kwestia życzliwości w sztucznej inteligencji jest niczym tygiel różnych idei, emocji i pytań. Tylko jak dalej jest możliwe zaszczepienie czegoś tak niewymierzonego, jak życzliwość, w maszynach? Czy świadome programowanie systemów SI, aby wykazywały oznaki troski, może zastąpić prawdziwe ludzkie uczucia? Zastanówmy się. Życzliwość, taka jak ja ją rozumiem, to nić porozumienia między osobami, umiejętność dostrzeżenia potrzeb drugiej osoby i reagowania na nie. To jednak cecha, która, przynajmniej na dzisiejszym etapie technologicznym, wydaje się być poza zasięgiem maszyn. Załóżmy, że do naszej dyspozycji mamy najbardziej zaawansowane techniki uczenia maszynowego, które pozwalają SI na niewiarygodne adaptacje do ludzkich emocji i odpowiedzi na nie. Ale ostatecznie, to jest tylko przepływ danych, kod, który odpowiada na określone sygnały. Czy taki algorytm może zastąpić prawdziwą empatię, autentyczne uczucie?
Więc, patrząc na te aspekty, wydaje mi się, że oczekiwanie autentycznej troski od maszyn jest raczej chimerą niż realnym celem. Tak, SI może działać na naszą korzyść, może być programowana do działań „życzliwych”, ale na końcu dnia, to jest tylko iluzja, kreacja zaszyta w kodzie. Czy to oznacza, że powinniśmy zrezygnować z ideału życzliwości w SI? Absolutnie nie. Ale ważne jest, aby pamiętać o ograniczeniach, które niesie ze sobą technologia i uważać, by nie popaść w pułapkę antropomorfizowania maszyn.
Podana definicja życzliwości jako dbanie o dobro drugiego człowieka sprowadziła w dyskusji bardzo wiele rozważań związanych przede wszystkim z rozumieniem dobra oraz tego, czyjego dobra mielibyśmy dociekać.
Wątek jednak dotyczy wąskiej kwestii – SI wykorzystywanej w administracji publicznej. Uważam, że w związku z tym aby myśleć o jakimkolwiek wprowadzaniu prawnej „życzliwości” w tej dziedzinie, należałoby stworzyć osobną definicję – „życzliwość SI w administracji publicznej”. Ta ostatnia definicja mogłaby (dla mnie) tak naprawdę opierać się o zagwarantowanie petentowi jak najszybszej odpowiedzi na jego problem. Definicja oczywiście mogłaby też być stworzona na podstawie dialogu społecznego lub bardziej złożonych kryteriów. Konkretniejsza definicja zawsze niosłaby ze sobą kolejne ograniczenia, ale byłaby przynajmniej dla użytkowników oraz twórców takiej SI jasnym kryterium – pomogłaby więc w uwiarygodnieniu SI w tej kwestii.
W takiej sytuacji wyobrażam sobie działanie hybrydowe urzędów – tak jak wspominanych fast-food’ów – możemy podejść do dużego ekranu, który umożliwia nam wykonanie trywialnych czynności w urzędzie lub podejść do biologicznego „twórczego” pracownika. Zakładam, że maszyna między innymi może przyjąć i sprawdzić poprawność przyniesionych dokumentów (nawet gdy nie są w formie elektronicznej) oraz w innej sytuacji wskazać konieczne kroki do wykonania pewnych działań administracyjnych (np. lista potrzebnych dokumentów).
W takiej sytuacji w pewien sposób to człowiek wybiera swoje dobro – ma do wyboru optymalizować czas używając automatu (korzystać z „życzliwości SI w administracji publicznej”) lub wybrać spotkanie z biologicznym urzędnikiem (korzystać z ogólnej „życzliwości”).
Podsumowując – myślę, że aby wprowadzać w życie życzliwość SI należałoby ją dla danych dziedzin osobno definiować. Jeśli natomiast np. w administracji uznamy za życzliwe optymalizowanie czasu, to czy nie wystarczy na to ukierunkować uczenia maszyny bez konieczności nazywania tego „życzliwością”?
Zakładając, że będziemy w stanie zaimplementować życzliwość w sztucznej inteligencji, wydaje się to bardzo dobry pomysł. My jako ludzie ufamy bardziej drugiej osobie, która się o nas troszczy, a nie wykonuje bezdusznie swoje zadanie. Oczywiście musi być w tej życzliwości szczerość. Parafrazując autorów, nie chodzi o tworzenie robotów, które będą się do nas uśmiechać, ale o systemy, które rzeczywiście dbają o nasze interesy i dobro.
Jednak nie zgodzę się z tym, że powinniśmy dążyć do budowania sztucznej inteligencji, której obywatel będzie ufać jak drugiej osobie. Człowiek powinien zawsze traktować SI jako narzędzie zbudowane przez innego człowieka do wykonania jakiegoś zadania. I jak każde narzędzie, może czasami mieć błędy lub nie działać najoptymalniej. Życzliwość mogłaby wpłynąć na przyjazność procesu korzystania z sztucznej inteligencji.
W administracji publicznej, najważniejsze jest zaufanie do całej instytucji, dlatego sztuczna inteligencja powinna być nadzorowana przez ludzi i każda jej ważniejszą decyzja powinna być zatwierdzona przez człowieka. Obywatel też powinien mieć możliwość rozmowy z ,,menadżerem”, który jest człowiekiem, a nie kolejną sztuczną inteligencją :)
Moje postrzeganie życzliwości zawsze bliskie było definicji jaką podaje Wikipedia – mianowicie za życzliwość uznawałam przyjazne usposobienie, ale w odniesieniu do człowieka – kogoś kto lubi innych ludzi, chce ich dobra i gotów jest działać w tym celu, aby działo im się dobrze.
Dopiero lektura artykułu skłoniła mnie do rozmyślań o życzliwości w kontekście projektowania systemów sztucznej inteligencji.
I tu, przy założeniu, że życzliwość to tylko (i aż) dbanie o dobro drugiej osoby (bez cech takich jak uprzejmość, bycie miłym czy empatia), o to, co jest właśnie dla tej osoby dobre, jak najbardziej należy forsować powiązanie prawodawstwa z etyką życzliwości przy projektowaniu sztucznej inteligencji.
Nie oczekujemy miłych robotów obsługujących ludność w urzędach, ale systemów wspierających np. administrację publiczną czy system edukacji, które wręcz muszą mieć za podstawę swojego funkcjonowania życzliwość w rozumieniu priorytetowego traktowania interesu obywatela.
Przed twórcami AI ogrom pracy, której podstawą musi być przede wszystkim precyzyjne określenie, co znaczy „interes obywatela”, bo ten może być rozpatrywany w wielu aspektach.