Co ciekawego znajdzie filozof w książce Andrzeja Gecowa pt. „Szkic dedukcyjnej teorii życia”?

Na ostatnim spotkaniu sprzężonego z blogiem Seminarium Filozofii Nauki mieliśmy zaszczyt gościć Pana Doktora Andrzeja Gecowa, autora książki pt. Szkic dedukcyjnej teorii życia. Nie jest to wprawdzie książka stricte filozoficzna, ale obejmuje szereg wątków, które z pewnością zainteresują filozofów, w szczególności filozofów biologii i filozofów informacji.

Serdecznie zapraszam do zapoznania się z przygotowaną przez Autora prezentacją (szczegóły niżej), a tymczasem oddaję „głos” samemu Autorowi.
Wspólnie z nim liczymy na ciekawą dyskusję pod obecnym wpisem :)

***** WPIS PRZYGOTOWANY PRZEZ DOKTORA ANDRZEJA GECOWA *****

Nie ukrywam, że zarówno moje wystąpienie seminaryjne, jak i obecny wpis, mają charakter promocyjny książki, co jawnie zaznaczyłem w tytule. Na zarobek na tej książce liczyć nie mogę, próbuję tylko mniej stracić, ale najważniejsze jest dla mnie, by ta praca 6-ciu dekad i osiągnięcia nie przepadły.

Co zawiera ta książka? – Przede wszystkim definicję życia i to wyartykułowaną na 2 spójne sposoby.

Od definicji wymagam, by z niej dużo wynikało, a głównie odpowiedzi na najbardziej nurtujące mnie pytanie: Skąd bierze się wyjątkowość i cechy obserwowanych obiektów biorących udział w tym procesie i samego procesu?.
Definicje mogą być różne, definiują wtedy nieco inne zjawiska i mogą służyć do innych celów. Nie upieram się, że moja propozycja jest jedyna poprawna. Twierdzę, że z niej wynika wiele oczekiwanych cech i jest silniej umocowana, tłumaczy więcej niż inne.

Oprócz definicji w książce opisane są odkrycia: 1półchaosu, który daje naturalne kryterium tożsamości ewoluującego obiektu; 2– przyczyny rekapitulacji filogenezy w ontogenezie; 3– specyficznej zmienności, którą nazwałem osłanianiem. Jest też kilka ujęć znanych zjawisk z nietypowej perspektywy wynikającej z założonej w książce dedukcyjnej metodologii. Filozofów zainteresuje tu stary problem celowości w przyrodzie uwolniony od finalizmu i intencji, oraz nowy wymiar informacji celowej, ale nie intencjonalnej, wraz z dyskusją: co to jest informacja biologiczna. Są jeszcze inne tematy filozoficzne – głównie metodologia biologii, która wyraźnie wymaga hospitalizacji, w tym stosunek do teorii abstrakcyjnych.

Nieco szerzej opisane są kolejne rozdziały książki w 5-ciu krótkich artykułach promocyjnych po polsku i po angielsku. Warto jakiś przejrzeć przed dyskusją. Są one dostępne na Research Gate, na OSF i na mojej stronie: https://sites.google.com/site/andrzejgecow/home  , gdzie w zakładce Publikacje po polsku / 3.Artykuły (po polsku) [24.] są [urywki] zawierające przede wszystkim Wstęp, który może być dobrą podstawą do dyskusji.

Aby przejrzeć prezentację z nagranym moim wystąpieniem należy ściągnąć ją klikając w  ten link. Po otworzeniu się, w lewym górnym rogu wejść w ’Plik’ a następnie najechać na ’pobierz’, dalej wybrać  ’Microsoft…pptx’ i dostaje się u siebie plik 23i25PWfl_s.pptx . Kolejne slajdy należy osobiście popychać.

Ponieważ na OSF polskie wersje przestały być dostępne, podaję także linki do pdf’ów artykułów na mojej stronie.

0. Gecow A. (2024, September 20). Mechanisms of „progress” in biological evolution. https://doi.org/10.31219/osf.io/xjte7
Mechanizmy „postępu” w ewolucji biologicznej  pdf

1. Gecow A. (2024, September 19). The essence of life – maintaining the system in a state of half-chaos. https://doi.org/10.31219/osf.io/ms3nk
Istota życia – utrzymanie systemu w stanie półchaosu. pdf

2. Gecow A. (2024, November 22). Objective aspects of information, including: unintentional purposeful information, biological, semantic. https://doi.org/10.31219/osf.io/74ufs
Obiektywne aspekty informacji, w tym: nieintencjonalna informacja celowa, biologiczna, semantyczna  pdf

3. Gecow A. (2024, November 22). Definition of life – accumulation of purposeful information against the increase of entropy. https://doi.org/10.31219/osf.io/5c38f
Definicja życia – gromadzenie informacji celowej wbrew wzrostowi entropii  pdf

4. Gecow A. (2024, December 2). Simulation model of recapitulation of phylogeny in ontogeny – structural tendencies. https://doi.org/10.31219/osf.io/jrz7f

5. Gecow A. (2025) Mechanizmy formujące integrony wyższego rzędu, populacja, narzędzia  pdf

Książka jest dostępna w bibliotece PW, księgarni naukowej im. Prusa, antykwariacie naukowym Kosmos i bezpośrednio u mnie: gecow@op.pl.

***********

Po tych wyczerpujących informacjach Autora najserdeczniej ZAPRASZAMY do blogowej dyskusji.
Najlepszą jej podstawą będą: a) wskazana wyżej prezentacja nt. książki, oraz b) zalinkowane wyżej artykuły promocyjne.

Najserdeczniej zapraszamy — Andrzej Gecow i Paweł Stacewicz.

Zaszufladkowano do kategorii Bez kategorii, Dialogi wokół recenzji, Filozofia nauki, Światopogląd racjonalistyczny | Dodaj komentarz

O mowie nienawiści w dobie społeczeństwa zinformatyzowanego

Obecny wpis stanowi fragment mojej aktywności w ramach projektu [iTrust]. Interventions against polarisation in society for TRUSTworthy social media: From diagnosis to therapy, do którego dołączyłem na początku roku. Jednym z celów projektu jest zidentyfikowanie nowego rodzaju zagrożeń, które pojawiły się wraz z postępującą informatyzacją życia społecznego. Przynajmniej część z nich wiąże się z najnowszym wymiarem tejże informatyzacji, czyli wprowadzaniem do przestrzeni publicznej narzędzi i wytworów sztucznej inteligencji (SI).

Naszą rozmowę chciałbym zogniskować wokół zagrożenia, które stanowi coś w rodzaju wspólnego mianownika wielu różnych niepokojących zjawisk, a mianowicie na szerzeniu treści nienawistnych, co określa się powszechnie mową nienawiści (ang. hate speech).
Co ciekawe, prawna definicja tego zjawiska – które powinno przecież być ścigane prawnie! – nie istnieje. W prawie polskim pewną jej kontekstową namiastką  są dwa artykuły Kodeksu Karnego (§1), 256 i 257, które stwierdzają, co następuje:

Kto publicznie propaguje faszystowski lub inny totalitarny ustrój państwa lub nawołuje do nienawiści na tle różnic narodowościowych, etnicznych, rasowych, wyznaniowych albo ze względu na bezwyznaniowość, podlega karze pozbawienia wolności do lat 2.” (art. 256)
Kto publicznie znieważa grupę ludności albo poszczególną osobę z powodu jej przynależności narodowej, etnicznej, rasowej, wyznaniowej albo z powodu jej bezwyznaniowości, podlega karze pozbawienia wolności do lat 3.” (art. 257)

W artykułach tych wskazano wybiórczo pewne cechy, tzw. cechy chronione, które identyfikują mowę nienawiści w ten sposób, że to właśnie poprzez odniesienie do nich dana wypowiedź kogoś (lub pewną grupę osób) znieważa, dyskryminuje, naraża na przemoc etc… Przykładowo, wypowiedź typu „Kowalski, jak każdy Polak, jest leniuchem i pijakiem, więc nie ma sensu go zatrudniać” obraża i dyskryminuje konkretną osobę ze względu na cechę przynależności do konkretnego narodu; pośrednio zaś obraża wszystkie osoby o wskazanej narodowości. Oprócz narodowości, w cytowanych artykułach wskazano rasę, grupę etniczną i stosunek do religii; nie wskazano jednak cech innych, które pojawiają się w ustawach antydyskryminacyjnych (na przykład płci, orientacji seksualnej czy  niepełnosprawności).
Listę cech chronionych, wraz z listą wartościowanych negatywnie czynności (jak obrażanie czy znieważanie), można by uznać za punkty odniesienia dla definicji mowy nienawiści. Być może jednak, należy poszukiwać definicji umocowanej etycznie, to znaczy takiej, w której określi się ogólnie pewne fundamentalne wartości, leżące u podstaw wyróżniania takich a nie innych zbiorów cech chronionych. Do wartości takich należałyby, na przykład, poszanowanie godności osoby ludzkiej czy tolerancja światopoglądowa.
Nie oczekuję, oczywiście, abyśmy przy okazji tego wpisu sformułowali ostateczną definicję, opartą na ostatecznych wartościach :), ale jeśli ktoś ma jakieś ciekawe propozycje, to serdecznie zapraszam do ich przedyskutowania.

Zjawisko mowy nienawiści i związane z nim zagrożenia nie są, rzecz jasna, niczym nowym, a tym bardziej, nie są czymś specyficznym dla społeczeństwa zinformatyzowanego. Wystarczy cofnąć się do lat 30. XX wieku i przywołać nienawistne (prze)mowy Adolfa Hitlera. Jak wszyscy wiemy, wywołały one niewyobrażalną wręcz eskalację dyskryminacji. Dyskryminacji, która przerodziła się stopniowo w okrutny program eksterminacji całych ras, narodów i grup etnicznych.
W kontekście społeczeństwa zinformatyzowanego przykład „Hitlera” jest o tyle zasadny, że dotyka sfery technologii. Naziści bowiem intensywnie wykorzystywali  ówczesne nowe technologie do wzmacniania swojego przekazu. Transmisje radiowe, filmy propagandowe, nagłośnienie na partyjnych wiecach…  to wszystko służyło hitlerowskiej machinie nienawiści, która była de facto machiną zbrodni.

Czy dzisiejsze technologie informatyczne, ze sztuczną inteligencją na czele, mogą posłużyć komuś do zbudowania równie przerażającej machiny zła? To ogromne pytanie pozostawmy na razie w tle. Zadajmy natomiast pytania skromniejsze, związane bezpośrednio z tematem wpisu.
Czy wspomniane technologie są wykorzystywane do wytwarzania i szerzenia mowy nienawiści?
W jaki sposób?
I jakie zjawiska stanowią o specyfice ich „mowo-nienawistnych” zastosowań?

W ramach swojego wkładu do dyskusji zwrócę uwagę na trzy kwestie:

1.
Popularność tzw. patostreamerów, którzy za pośrednictwem serwisów typu YouTube używają publicznie wulgaryzmów, szerzą treści homofobiczne, pokazują sceny znęcania się nad osobami niepełnosprawnymi…
Patostreaming przemawia szczególnie silnie do osób bardzo młodych, które, po pierwsze, traktują Internet jako swoje naturalne środowisko komunikacji, po drugie zaś, formują dopiero swoje moralne przekonania.

2.
Anonimowość osób i organizacji, które szerzą mowę nienawiści w Internecie.
Możliwość pozostania anonimowym, a wskutek tego bezkarnym, sprawia, że w Internecie o wiele częściej niż w innych mediach pojawiają się treści skrajne, obraźliwe, agresywne, polaryzujące…

3.
Rosnące możliwości wykorzystania SI w masowym szerzeniu mowy nienawiści.
Systemy SI nie muszą po prostu powielać treści podsuwanych im przez ludzi; one mogą zostać wytrenowane (na odpowiednich przykładach) do kreatywnego generowania nowych treści odpowiedniego typu. W takich przypadkach bardzo trudno jest zidentyfikować osoby czy instytucje odpowiedzialne za treść konkretnych przekazów.

Powyższe kwestie dotyczą ciemnej strony informatycznych technologii.
Patrząc bardziej optymistycznie, można upatrywać w nich pewnego remedium na nowego rodzaju zagrożenia – remedium o tyle obiecującego, że dotyczy ono tej samej sfery, sfery technologicznej, do której samo przynależy. Przykładowo, we wspomnianym na początku wpisu projekcie iTrust powstaje wyspecjalizowany chatbot, który będzie w stanie identyfikować w dostarczanych mu tekstach treści potencjalnie nienawistne. Oprócz rozpoznawania chatbot będzie wyjaśniał, dlaczego dokonał takiego a nie innego rozpoznania, a także proponował sformułowania alternatywne, wolne od fraz klasyfikowanych jako mowa nienawiści.

Aby jednak zagrożeniom przeciwdziałać, trzeba im się uważnie przyjrzeć: określić, czym różnią się nowe informatyczne szaty mowy nienawiści od jej bardziej tradycyjnych form.
Podyskutujmy o tym 😊.
Jako punkt wyjścia proponuję przyjąć pytania zadane w tekście.
Nie musimy się jednak do nich ograniczać…

Serdecznie zapraszam do rozmowy — Paweł Stacewicz.

Zaszufladkowano do kategorii Etyka, Światopogląd informatyczny | Jeden komentarz

Sztuczna inteligencja. Jeden kolor, trzy metafory…

Gdyby ktoś zadał mi pytanie „Z jakim kolorem kojarzy ci się sztuczna inteligencja?” bez wahania odpowiedziałbym, że… z czarnym. Miałbym po temu trzy powody.

Po pierwsze, coraz częściej w debacie publicznej pojawiają się czarne scenariusze przyszłości, w których sztuczna inteligencja niszczy naszą cywilizację. W najłagodniejszych z nich przyczynia się do stopniowej, poznawczej i społecznej, degradacji człowieka. Przykładowo: wypierając ludzi z rynku pracy (co już się dzieje), SI sprawia, że człowiek traci poczucie sensu własnej pracy i zdobywania jakichkolwiek nowych kwalifikacji. W scenariuszach najczarniejszych SI przejmuje nad nami całkowitą kontrolę. Podporządkowuje nas sobie, a gdy uzna, że jest to korzystne dla jej samorozwoju, eliminuje nas ostatecznie.  Mamy także scenariusze inne, w których to sami ludzie, używając broni opartej na SI lub dewastując dla potrzeb SI swoje środowisko naturalne, doprowadzają się do samozagłady. O sprawach tych dyskutowaliśmy już kilkukrotnie, w różnych odsłonach i kontekstach (zob. np. Sztuczna inteligencja. Czy mamy się czego bać?), ale myślę, że i tutaj możemy odnieść się do tak typowego dla współczesnych debat nad SI czarnowidztwa.

Po drugie, sztuczna inteligencja kojarzy mi się z czernią, bo coraz chętniej porównuje się ją do czarnej skrzynki. Porównanie to rozumiem tak, że nawet wyjątkowej klasy specjaliści, a co dopiero mówić o laikach, nie mają szczegółowego dostępu do tego, co dzieje się wewnątrz systemów SI, gdy realizują powierzone im zadania. Nie do końca wiadomo zatem, jakie algorytmy są w danym momencie realizowane, które ich parametry odpowiadają za konkretne działania systemów, na jakich danych system się uczył, w jaki sposób się uczył etc…
Owa niepokojąca nieprzejrzystość sztucznej inteligencji ma co najmniej dwie przyczyny. Z jednej strony, twórcy systemów SI, a przede wszystkim zatrudniające ich korporacje, obawiają się konkurencji i z tego powodu nie ujawniają pełnej informacji o sposobie działania swoich produktów. Z drugiej strony jednak, niezależnie od praktyk biznesowych w sektorze SI, większość współczesnych systemów (w tym tzw. LLM-y) opiera się na sztucznych sieciach neuronowych, a te cechuje gigantyczna złożoność strukturalna (setki tysięcy sztucznych neuronów i połączeń między nimi). Wiedza w ich wnętrzu jest kodowana w postaci ogromnej liczby rozproszonych po całej sieci wag połączeń międzyneuronalnych. Wydobycie z nich przejrzystych dla człowieka wyjaśnień jest skrajnie trudne lub w ogóle niewykonalne. Zwłaszcza, że właściwą podstawą dla nich są zachodzące wewnątrz sieci, niskopoziomowe, realizowane na poziomie pojedynczych neuronów i wiążących je połączeń, procesy samoorganizacji. Kwestie te dyskutowaliśmy już przy okazji wpisu Zaufanie do systemów sztucznej inteligencji. Rola wyjaśniania, ale tu stawiam je w nowym kontekście.
Wszystko to powoduje, że coraz częściej możliwości systemów SI sprawdza się eksperymentalnie. Traktuje się system jak czarną skrzynkę, na której wejścia podaje się różne kombinacje danych (w tym: pytania) i sprawdza się, jak system reaguje. Badania formalne, odwołujące się do matematycznych własności wykorzystywanych struktur danych i algorytmów, należą do rzadkości. System informatyczny – mimo, że został zaprojektowany zgodnie z opracowaną przez człowieka specyfikacją – traktuje się jak obiekt czysto empiryczny. Bada się go eksperymentalnie, podobnie jak zjawiska przyrodnicze i społeczne.
Czy jesteśmy na to skazani i czy nie jest możliwe inne, bardziej matematyczne, podejście…? Oto jeden z ciekawych tematów do dyskusji – być może nawet, zasługujący na osobny wpis.

Przejdźmy na koniec do metafory trzeciej, być może najbardziej zaskakującej. Otóż sztuczna inteligencja coraz silniej kojarzy mi się z czarną dziurą. Niczym czarna dziura w przestrzeni kosmicznej SI pochłania wszelką materię i energię wokół siebie. Przy czym tutaj chodzi o materię poznawczą i energię intelektualną 😊.
Możemy to obserwować niemal codziennie: badania, projekty naukowe, rozwiązania technologiczne, debaty społeczne, dyskusje filozoficzne… wszystko to ciąży coraz bardziej ku tematyce sztucznej inteligencji.
Metafora jest oczywiście mocno przesadzona. Mimo wszystko jednak, zwraca uwagę na zjawisko, które na naszych oczach, również w tym blogu i w tym wpisie, pochłania ludzką wyobraźnię.

Zapraszam serdecznie do rozmowy, w której ujawnią się, być może, inne jeszcze, niekoniecznie czarne, metafory – Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 138 komentarzy

Uwagi w kwestii „arytmetyki sumienia”

Nie mogąc ze względów technicznych uczestniczyć zdalnie w seminarium w PW (poświęconym filozofii nauki) z odczytem dra Andrzeja Malca pt.  „Czy sumienie komputera może być autonomiczne?”, a będąc ciekaw jego poglądów w kwestiach aksjologii i teorii prawa, skorzystam z dostępności Jego książki „Arytmetyka sumienia. Teoria odpowiedzialności słusznościowej”, żeby na jej podstawie postawić Autorowi pytania, które bym zadał uczestnicząc w spotkaniu. Odpowiedź mógłbym pewnie wyczytać ze starannej lektury tej książki (podczas gdy obecne pytania biorą się z lektury dość pobieżnej, na zasadzie wertowania),  ale skorzystanie w tym celu z bloga ma tę przewagę, że może przybliżyć tematykę książki także osobom, które w wymienionym spotkaniu nie brały udziału.

Oto kilka moich pytań:

1) W nawiązaniu do uwag metodologicznych na stronie 13, zapytuję: czy przekonanie o prawdziwości aksjomatów arytmetyki Peano jest występkiem przeciw etyce badawczej zalecanej przez filozofię analityczną? Jeśli tak, to co do mnie, to jestem osobnikiem występnym. Zaczynam od przykładu z arytmetyką w sensie dosłownym, żeby lepiej wniknąć w sens metafory „arytmetyka sumienia”.

2) Czy dobrze rozumiem, że według Autora, gdyby zaksjomatyzować jego aksjologię, to byłyby to aksjomaty o treści podobnie obiektywnej (choć zgoła w innej materii), a więc zdania posiadające wartość logiczną. Jeśli istotnie tak Autor sądzi, to się z nim zgadzam, a jeśli nie, to gotów jestem do polemiki.

3) Popieram gorąco krytykę poglądu Russella (s.130) o racjonalności komunizmu. Ogrom absurdów jest w komunizmie piorunujący; przykładem, który powinien był przekonać Russella jest dokonana przez von Misesa w latach 20-tych ubiegłego wieku analiza horrendalnej nieobliczalności w centralnym planowaniu gospodarczym, a to z powodu kolosalnej złożoności, którą trzeba by ogarnąć planowaniem. Idąc tym tropem, doradzałbym w dalszych badaniach Autora korzystać z pojęcia złożoności algorytmicznej, które zawdzięczamy informatyce  (Chaitin etc.).

4) Podjąłbym polemikę ze smętnymi rozważaniami Baumana o niepewności.  Takie jest uwarunkowanie ludzkiej kondycji. A jak sobie z nim radzić nie kwękając, pokazał już Pascal w regule zwanej po angielsku „rule of expected utility” (nie znam dobrego polskiego przekładu).  Weszła ona do podstaw matematycznej teorii gier i decyzji von Neumanna i Morgensterna, i w tej nowoczesnej postaci jest bardzo godna polecenia uwadze filozofów z cechu aksjologicznego.

Do tych uwag zainspirował mnie ostatni człon tytułu książki brzmiący „wersja próbna”. Brzmi to ujmująco skromnie. I zachęca czytelnika takiego jak niniejszy do włączenia się z propozycjami co do kontynuacji.

Zaszufladkowano do kategorii Bez kategorii | 13 komentarzy

Od sztucznej inteligencji do (samodoskonalącej się) superinteligencji

Z ogromną przyjemnością publikuję w naszym blogu tekst Wojciecha Głażewskiego (inżyniera i filozofa z Uniwersytetu w Białymstoku), szkicujący autorski scenariusz przejścia od aktualnie konstruowanych systemów sztucznej inteligencji do systemów superinteligentnych.
W scenariuszu tym na plan pierwszy wybijają się dwie oryginalne tezy.
Pierwsza mówi, że warunkiem koniecznym  posiadania przez system prawdziwej inteligencji (a nie jej zaprogramowanej imitacji) jest zdolność systemu do samodoskonalenia się. Druga wskazuje na niezbędną podstawę samodoskonalenia, jaką są  jakościowe zmiany struktury fizycznej systemu, wykraczające poza zmiany struktur danych czy programów sterujących pracą systemu.

Oczywiście tezy te nie wyczerpują spostrzeżeń, argumentów i propozycji Autora. Mam nadzieję też, że zachęcą Państwa do dyskusji, która je wesprze, osłabi, rozwinie lub postawi w innym świetle…

A oto otwierający dyskusję tekst Wojciecha Głażewskiego:

*********************

Refleksje nad scenariuszami dla sztucznej inteligencji

Mniej więcej rok temu odbyła się tutaj ciekawa dyskusja o cechach systemów AI, które miałyby świadczyć o ich inteligencji (https://marciszewski.eu/?p=11519). Pojawiło się wiele interesujących głosów, wśród których najczęściej wskazywano na umiejętność rozwiązywania problemów (zwłaszcza dzięki uczeniu się na podstawie własnych doświadczeń), zdolność do generalizacji oraz kreatywność (innowacyjność). Nie sposób wyliczyć ile już razy stawiano to pytanie. Na tym blogu nie wypada nie zacytować prof. Marciszewskiego:

Czy jest możliwe skonstruowanie inteligencji maszynowej, która by pod każdym względem dorównała ludzkiej inwencji? Jeśli nie, to pod jakim względem dorówna, a pod jakim przegra? A może da się skonstruować maszynę inteligentniejszą od człowieka? Jeśli tak, to pod jakim względem? (Marciszewski, 1998, s.117)

Rok to dużo czasu w epoce wykładniczego wzrostu. Okres zdobywania globalnego rynku nie jest już liczony w latach, ale w miesiącach. Scenariusz dla superinteligencji opisany przez Nicka Bostroma, wydaje się coraz bardziej realny (Bostrom, 2014). W tempie nomen omen potęgowym, sztuczna inteligencja osiągnie przewagę nad ludzkością, zostawiając nam bezsilność chyba najgorszego gatunku – intelektualną. Warto więc zapytać, co po tym roku osiągnęła technologia AI. Jaki scenariusz jej rozwoju właśnie się realizuje? Czy sztuczna inteligencja staje się bardziej inteligentna? Spróbuję wciągnąć Państwa do dyskusji stawiając przewrotną tezę: systemy AI, jakie nas obecnie otaczają, nie są inteligentne.

Kontynuując myśl prof. Marciszewskiego:

Żeby podjąć te zagadnienia, trzeba zdobyć pojęcie inteligencji na tyle operatywne, żeby móc zaproponować jakiś praktyczny test – sprawdzian, który pozwoli ocenić, jakie zachowania komputera świadczą o rodzaju i stopniu jego inteligencji. (Marciszewski, 1998, s.118)

W miejsce opisowych definicji inteligencji, które trudno zarówno umocować, jak i zanegować, z uwagi na ich ogólnikowy charakter, postawię warunek samodoskonalenia, czyli  zdolności do ulepszenia samego siebie, jako cechy systemu inteligentnego, możliwej do stwierdzenia, na mocy tak postawionej jego definicji.

Pomimo wielu spojrzeń na inteligencję i wielu przykładów problemów zaliczanych do kategorii wymagających inteligencji, zadanie ulepszenia samego siebie wydaje mi się jednym z takich, które zawiera w sobie konieczność posiadania praktycznie wszystkich cech przypisywanych zwyczajowo działaniu inteligentnemu. Wymaga zdobycia wiedzy na temat własnego zachowania, czyli uczenia się z doświadczeń, wymaga też umiejętności generalizacji niezbędnej do wyciągnięcia wniosków z tych doświadczeń. Wymaga stawiania hipotez, a więc samodzielnego posługiwania się pojęciami. Wymaga podejmowania autonomicznych decyzji o tym, kiedy i w jaki sposób wpłynąć na własne zachowanie. Wreszcie wymaga kreatywności i innowacyjności w zaproponowaniu nowego, lepszego rozwiązania dla nowej wersji samego siebie. Matematyk Irvin John Good określił tę umiejętność jako “ultrainteligencję”. W 1966 roku opisał maszynę o takich możliwościach:

Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an „intelligence explosion,” and the intelligence of man would be left far behind. (Good, 1966, s.33)

Cała nowa maszyna potrzebna byłaby w przypadku odkrycia przez bieżącą maszynę fundamentalnie nowej zasady konstrukcyjnej. W przypadku wypracowania jedynie usprawnienia, proces samodoskonalenia mógłby mieć charakter inkrementalny – łańcucha poprawek. Współczesny badacz sztucznej inteligencji, Eliezer Yudkowsky, nazywa umiejętność ulepszenia własnych procesów “rekursywnym samodoskonaleniem”, a system, który miałby taką możliwość, “zalążkową SI”:

A seed AI is a strongly self-improving process, characterized by improvements to the content base that exert direct positive feedback on the intelligence of the underlying improving process. (Yudkowsky, 2007, s.96)

Cechą wyróżniającą maszyny ultrainteligentnej byłaby więc zdolność do zaprojektowania maszyny lepszej niż ona sama. Nie wydaje mi się, żeby ta właściwość pojawiła się dopiero na poziomie ultrainteligencji. Wszystkie elementy procesu realizowania tego zadania posiada przecież człowiek, a super- lub ultrainteligencja ma być systemem przewyższającym go możliwościami. Każdy więc system rzeczywiście inteligentny powinien tę zdolność mieć, a różnica w stopniu inteligencji będzie dotyczyła poziomu jego rozwoju, od zalążkowego, poprzez poziom zbliżony do ludzkiego, dalej superinteligentny, a poziom ultrainteligentny byłby już w pewien sposób granicznym, zapewne ze względu na limity fizycznej rzeczywistości. Warunek samodoskonalenia sztucznej inteligencji można więc sformułować jako zwiększenie możliwości inteligentnego działania w sztucznym systemie, zrealizowane wyłącznie własnymi procesami tego systemu.

W tym miejscu należy odróżnić zwiększenie fizycznych parametrów lub zasobów systemu, od rozwoju jakości realizowanych przez system procesów. Bostrom wyróżnia trzy formy superinteligencji: szybką, zbiorową i jakościową. Dwie pierwsze wydają się właśnie dotyczyć parametrów ilościowych systemów inteligentnych, natomiast ta trzecia dotyka istoty właściwego pojęcia inteligencji. Dla przykładu – zwiększenie liczby książek na półkach oraz przyspieszenie kroku przez pracowników biblioteki nie są zmianami w procesie obsługi czytelników, chociaż zwiększają możliwości biblioteki w jej roli udostępnienia jak największego zasobu literatury jak największej ilości osób. Zmiana organizacji katalogu książek lub zmiana heurystyki realizacji kwerendy, dla samego procesu funkcjonowania systemu biblioteki, byłaby już zmianą jakościową. Naturalnie nasuwa się tu zastrzeżenie, że jeśli system będzie posiadał więcej “wiedzy”, to jego możliwości będą większe. Pozostanę jednak przy ujęciu rozróżniającym zasoby i procesy, w którym kieszonkowy kalkulator dodający dwie kilkucyfrowe liczby realizuje proces o tej samej jakości, co komputer z wielordzeniowym procesorem, dodający dwie liczby kilkudziesięciocyfrowe. Interesująca nas różnica nie bierze się bowiem z porównania zasobów, ale z porównania procesów.

Aby uniknąć definiowania systemu inteligentnego opisowo (lista cech) lub tautologicznie (“system inteligentny to taki, który zachowuje się inteligentnie”), sformułuję warunek konieczny inteligencji, oparty na zdolności do samodoskonalenia strukturalnego:

System jest inteligentny wtedy, kiedy jest w stanie wypracować taką wersję swojej kolejnej struktury funkcjonalnej, która nie powtarza struktury wcześniejszej.

Przy czym, mówiąc o strukturze funkcjonalnej, mam na myśli fizyczną postać systemu, a więc rodzaj i układ jego elementów, co determinuje rodzaj ich wzajemnych zależności. Architektura wydaje się pojęciem zbyt wąskim, ponieważ te same architektury pamięci mogą być wypełnione innymi informacjami, dając systemowi inne możliwości. Program w pamięci komputera to także za mało, ponieważ możliwości systemu zależą od organizacji mikroprocesora. Sieć neuronowa wraz z wyuczonymi wagami wydaje się być najbliższa intuicji takiej struktury. Nie mam tutaj gotowych odpowiedzi, jest to jeden z tematów mojej pracy badawczej.

Wracając do samej definicji, to przy takim jej sformułowaniu mam nadzieję oprzeć ją na rzeczywistych danych możliwych do zebrania oraz na ustanowieniu zależności między nimi, możliwych do analitycznego wyznaczenia. Dla fizycznych parametrów lub zasobów systemu jest to oczywiste (np. różnica częstotliwości taktowania procesora, ilości danych w pamięci), jednak dla opisowych definicji inteligencji już takie nie jest. Jeśli jedną z cech systemu inteligentnego jest kreatywność, to jak porównać stopień kreatywności pomiędzy różnymi jego wytworami? Jak odróżnić nauczenie się na jednym doświadczeniu od nauczenia się na innym doświadczeniu? Powyższa definicja systemu inteligentnego rozwiązuje problem tych niejasności poprzez zamknięcie ich w zadaniu samodoskonalenia. Aby je poprawnie wykonać, należy zebrać doświadczenia, należy dokonać generalizacji, należy wypracować nowatorskie rozwiązanie. Zamiast porównywać “nowatorstwo” odpowiedzi systemu, ocenione zostaną konsekwencje działania zbudowanego na ich podstawie nowego systemu. Ponieważ znana jest struktura obecnego systemu oraz znane są struktury poprzednich wersji, można analitycznie wyznaczyć ich różnicę. Rozkład różnicy w czasie ujawni charakter postępu – czy był dodatni, czy ujemny, czy też zerowy.

Najprostszym przypadkiem byłby system, który nie jest w stanie wypracować kompletu informacji opisujących swoją własną strukturę, to znaczy system nie dający się zamknąć w pętlę samorozwoju. Do tej kategorii zaliczę wszystkie systemy wąskiej sztucznej inteligencji, powtarzając swoja tezę ze wstępu. Na naszych oczach eksploduje ich popularność, nie idzie za nią jednak zdolność do nowatorskiej kreatywności i do autonomicznego samorozwoju. Są narzędziami, programami komputerowymi o wielkich możliwościach. Kwestia samodoskonalenia do poziomu superinteligencji ich nie dotyczy.

Jeśli system potrafi wypracować komplet informacji, “przepis” na sztuczny system inteligentny, świadczy to o posiadaniu wiedzy ogólnej – z zakresu matematyki, informatyki, technologii maszyn, problematyki kognitywistycznej czy nawet filozoficznej. Na pewno o umiejętności wytworzenia obrazów (planów, schematów), tekstów (opisów technologii, instrukcji działania) oraz kodu (listingi programów). System taki będzie można zaliczyć do kategorii AGI i pewnie wkrótce możemy się spodziewać jego powstania. Czy jednak będzie inteligentny w tym jakościowym sensie, analogicznym do ludzkiego? Sądzę, że tylko postawienie mu zadania tak trudnego jak to, które postawił przed sobą człowiek – zaprojektowania sztucznej inteligencji – pozwoli uzyskać jednoznaczną odpowiedź. Będzie to jeden z najciekawszych eksperymentów w historii ludzkości.

Czemu nie zrobić takiego eksperymentu dla ChatGPT? Czy istnieje niebezpieczeństwo, że uzyskany wynik będzie dodatni? ChatGPT jest programem komputerowym uruchomionym na komputerze, co determinuje rezultat jego działania. W moim przekonaniu, system tego typu nie jest w stanie wypracować odpowiedzi o charakterze dodatnim informacyjnie, w stosunku do tego, co zawiera w strukturze swojego algorytmu. Dzieje się tak dlatego, że komputer realizuje wyłącznie operacje arytmetyczno-logiczne, a więc dedukcyjne w swojej naturze. Odpowiedzi systemu zawierają się już w przesłankach, od których wychodzi. Obliczony dla takich operacji zysk informacyjny ze wzoru Shannona da wartość zero. Mówiąc jeszcze inaczej, systemy komputerowe same z siebie nie mogą się dowiedzieć więcej niż już wiedzą. Wynika to stąd, że procesory komputerów realizują wyłącznie procesy fizyczne, a więc działają zgodnie z kierunkiem entropii. Zwiększenie złożoności informacyjnej jest działaniem przeciw entropii, więc możliwość taką może mieć tylko system, który potrafi zmienić swoją strukturę fizyczną. Takiej możliwości krzemowy mikroprocesor nie posiada.

Aby eksperyment dał rezultat dodatni, nowy system, zbudowany na podstawie kompletu dokumentacji wypracowanego przez poprzedni system, musi różnić się w swoim działaniu od systemu poprzedniego. Musi różnić się swoją strukturą fizyczną, ponieważ tylko taka różnica umożliwi inny przebieg zachodzących w nim procesów. Nie tylko musi się różnić, ale ta różnica musi wprowadzać do struktury nową jakość. Określa to druga część definicji – jeśli struktura powtarza wcześniejszą, to system albo się ustabilizował i grozi mu nieskończone zapętlenie na określonym poziomie, albo degraduje się i dotarł do którejś z wcześniejszych, mniej inteligentnych struktur. Charakter tego nowego pierwiastka, czy był korzystny czy nie, można oczywiście sprawdzać mierząc odpowiedzi nowego systemu na zestaw problemów testowych czy porównując ilości punktów zdobytych w zadaniach kontrolnych, byłyby to jednak testy wąskie, ograniczone, trudne często do porównań i niejednoznaczne. Szukając odpowiedzi na najważniejsze, postawione na wstępie pytanie, czyli jaki scenariusz rozwoju sztucznej inteligencji się realizuje, można spróbować obserwować trend różnic kolejnych struktur. Dodatni rezultat potwierdzi obecność jakościowej inteligencji, porównywalnej z ludzką. Jeśli wtedy zdecydujemy o alokacji zasobów oraz umożliwimy systemowi realizację kolejnych wcieleń, otworzymy mu drogę do superinteligencji.

Eksperyment już się zaczął. AI jest używana do doskonalenia technologii AI. Czy jednak wytworzy nową, lepszą wersję samej siebie? Tak się w tej chwili nie dzieje. Owszem, programy komputerowe zwane sztuczną inteligencją są wykorzystywane w optymalizacji technik sztucznej inteligencji, ale nadal jako narzędzia dla zajmujących się tym programistów. Są niezwykle użyteczne, ale wciąż wymagają kuratora. To człowiek jest źródłem inteligencji dla tych sztucznych systemów. Źródłem inteligentnego ich zaprojektowania, inteligentnego promptu, czy wprost źródłem danych, które przecież pochodzą z jego inteligentnej działalności. Przywołując jeszcze raz prof. Marciszewskiego, w kwestii systemów inteligentniejszych od człowieka:

Czy wystarczy jako środek dostatecznie złożony software, bez rewolucji w rozwiązaniach sprzętowych? Czy też konieczne będzie wytworzenie jakiegoś nowego rodzaju urządzeń, może biologicznych? (Marciszewski, 1998, s.117)

Jeśli system będzie oparty na krzemowym mikroprocesorze, to jak miałby zmienić swoją fizyczną postać? Aby zrealizować zadanie samodoskonalenia, system sztucznej inteligencji musiałby prawdopodobnie być oparty na innym rodzaju substratu informacyjnego, ale to już temat na inną opowieść.

Literatura

  1. Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
  2. Good, I.J. (1966). Speculations Concerning the First Ultraintelligent Machine. Comput., 6, 31-88.
  3. Marciszewski, W. (1998). Sztuczna Inteligencja. Społeczny Instytut Wydawniczy Znak
  4. Yudkowsky, E. (2007). Levels of Organization in General Intelligence. In: Goertzel, B., Pennachin, C. (eds) Artificial General Intelligence. Cognitive Technologies. Springer, Berlin, Heidelberg.

WOJCIECH GŁAŻEWSKI

*************************

Najserdeczniej zapraszam do dyskusji nad powyższym tekstem — Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 91 komentarzy

Do czego i dlaczego informatycy potrzebują filozofii?

Obecnym wpisem chciałbym odświeżyć, ale też nieco inaczej ukierunkować, dyskusję sprzed 11 lat (!), która nosiła tytuł „Czy informatykom jest potrzebna filozofia?”. Tytuł ten był wyrazem wstępnego rozpoznania „stanu ducha” ówczesnych studentów informatyki, którzy raczej stronili od filozofii. Postrzegali ją jako dyscyplinę radykalnie różną od informatyki (czy nauk pokrewnych) i stąd zastanawiali się, czy w ogóle, w jakimkolwiek stopniu, może się ona im przydać.

Tym razem, zadaję pytanie mniej ostrożne, a nawet ciut tendencyjne:  „Do czego i dlaczego informatycy potrzebują filozofii?”. Nie pytam zatem „Czy…„, lecz przyjmując, że odpowiedź jest pozytywna, dopytuję o szczegóły i przyczyny ich zainteresowania filozofią.  Sugeruję tym samym, że stan ducha przyszłych programistów, analityków danych  i specjalistów od sztucznej inteligencji (…) istotnie się zmienił.
Przekonałem się o tym podczas ostatnich zajęć na wydziale MiNI PW, kiedy to większość osób (aktywnie!) dyskutujących relację [informatyka a filozofia] była głęboko przekonana o pożytkach, jakie mogą płynąć ze znajomości filozofii. Były oczywiście głosy sceptyczne, ale te pozytywne względem filozofii  przeważały.
Jedni wskazywali na etykę – jako źródło zasad i norm, które mogłyby zapobiec niekontrolowanemu i szkodliwemu dla człowieka wykorzystywaniu systemów informatycznych, w tym sztucznej inteligencji.
Inni wybijali na pierwszy plan zdolność do krytycznego myślenia – którą filozofia mogłaby kształtować w sposób ogólny, przydatny również w kwestiach technicznych.
Jeszcze inni mówili o pozytywnej roli filozofów w objaśnianiu takich zjawisk, jak świadomość, myślenie twórcze czy wolna wola – które musimy zrozumieć, chcąc oceniać aktualne i potencjalne możliwości systemów sztucznej inteligencji. W szczególności wtedy, gdy potraktujemy serio możliwość skonstruowania  maszyn autonomicznych, zdolnych do stawiania i realizacji własnych  celów.

Dlaczego tak się stało?
Dlaczego po 11 latach filozofia ma w oczach studentek i studentów tego samego wydziału zdecydowanie lepsze notowania?

Czy chodzi o to, że współcześni informatycy muszą posiadać tzw. umiejętności miękkie, a te kształtuje m.in. filozofia? Na przykład, podczas swobodnych dyskusji o miejscu informatyki we współczesnej kulturze.
A może chodzi o pewien akademicki trend, przychodzący do nas m.in. ze Stanów, polegający na włączaniu treści filozoficznych do programów studiów technicznych. Za ich sprawą informatycy mieliby uzyskać szersze horyzonty i szerszy ogląd swojej dyscypliny.
A może idzie o rosnące konsekwencje społeczne informatycznych wynalazków?
Na przykład o to, że ktoś może ich użyć w sposób nieetyczny  (co to znaczy?). Albo, że ich reguły działania i złożoność w wielu przypadkach nie pozwalają wyjaśniać podejmowanych przez nie decyzji (czym jest dobre wyjaśnienie?).
A może informatyków niepokoi fakt, że zaczynają wkraczać w sfery zdecydowanie wykraczające poza ich kompetencje – tworzą coś, co może być świadome (czym jest świadomość?),  co może czuć (czym są doznania i przeżycia?), co może być podmiotem własnych działań (czym jest podmiotowość i co to znaczy działać intencjonalnie?).
Jednym słowem, informatycy dotykają sfery filozoficznych pytań i chcą się dowiedzieć, jak filozofowie próbowali i próbują na nie odpowiadać…

Sformułowawszy swoje spontaniczne domysły, otwieram DYSKUSJĘ :).
A zatem:
Do czego i dlaczego informatycy potrzebują filozofii?

A może pomyliłem się, stawiając diagnozę, że stan ducha  studentek i studentów kierunków informatycznych stał się bardziej filozoficzny…
Jeśli tak, to ciekaw jestem również głosów sceptycznych i antyfilozoficznych.

Zapraszam serdecznie do rozmowy wszystkich czytelników bloga — Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 89 komentarzy

Computing, obliczenia i liczby

Uczestniczyłem ostatnio w kilku konferencjach  i seminariach, które miały w swoich tytułach termin computing —  tłumaczony najczęściej jako obliczanie. Słuchając różnych referatów i dyskusji, uświadomiłem sobie, że nawet w tak wąskim kontekście jak informatyka i jej komputerowe zastosowania, różne osoby używają tego terminu w różnych znaczeniach.
Przykładowo: w znaczeniu wykonywania obliczeń, przetwarzania danych, realizacji algorytmów, rozwiązywania problemów… a nawet jako nazwy dyscypliny naukowej, Computing właśnie, która zajmuje się po trochu wszystkimi wymienionymi czynnościami lub procesami.
W ślad za wieloznacznością idzie tendencja do łączenia computing z przymiotnikami, które mają wskazywać na konkretne formy lub aspekty obliczeń; niekiedy jednak tak od siebie różne, że trudno dopatrzeć się w nich wspólnego mianownika. Mamy zatem: digital computing,  analog computing, quantum computing, hyper-computing, physical computing, natural computing, mortal computing etc…

Dla zobrazowania powyższych obserwacji warto przytoczyć kilka ogólnych określeń specjalistów. Każde z nich próbuje uchwycić istotę computing, lecz wzięte łącznie ukazują  dobrze typową dla współczesnych dyskusji wieloznaczność i wieloaspektowość obliczeń. Rozwinięcie kolejnych cytatów wymagałoby oczywiście osobnego wpisu (może nawet wykładu😊), lecz nie o to tu chodzi. Chodzi o ukazanie różnorodności znaczeń i sprowokowanie dalszej dyskusji…

A oto wybrane przeze mnie przykłady:

To compute is to execute an algorithm (Jack Copeland).

The Church-Turing thesis identifies the intuitive concept of what means “to compute” with a formal model of computation (Paula Quinon).

Computing can be seen as an epistemic process evolving in time, by means of which an agent (or community), aided by some machinery or instrumentation, obtains an answer with respect to a certain state-of-affairs (mathematical or physical) that the agent interprets as a problem, and can express mathematically (Philippos Papayonnopoulos).

Computing, today more than ever before, is a multi-faceted discipline which collates several methodologies, areas of interest, and approaches: mathematics, engineering, programming, and applications (Giuseppe Primiero).

Computing is the manipulation of representations of numbers (Corey Maley).

Sformułowanie ostatnie, poprzez zawarte w nim odniesienie do liczb,  jest najbliższe duchowi polskiego tłumaczenia, o którym wspomniałem na początku:  computing = obliczanie.
Polskie obliczanie odnosi się do liczb w sposób ewidentny. Widać to wyraźnie w zdaniach typu „Oblicz coś…”. Na przykład: „Oblicz pole trójkąta”, „Oblicz wymiary działki”, „Oblicz kąt przy podstawie trójkąta równoramiennego” czy „Oblicz prędkość ciała po 2 sekundach swobodnego spadku w kierunku ziemi”. W każdym z przywołanych kontekstów wynikami czynności obliczania są pewne wartości liczbowe, które uzyskuje się poprzez przekształcanie innych wartości liczbowych za pomocą specjalnie dobranych wzorów i reguł. Wartości te mogą dotyczyć przy tym i obiektów abstrakcyjnych (jak pola figur geometrycznych), i fizycznych (jak wymiary działki).

Właśnie ze względu na swój „liczbowy” charakter polskie obliczanie wydaje się – przynajmniej na pierwszy rzut oka – dużo węższe niż angielskie computing. Spostrzeżenie to może prowadzić do wyboru innych tłumaczeń, spośród których na pierwszy plan wysuwa się przetwarzanie danych. Przetwarzając dane bowiem, niekoniecznie musimy operować na ich reprezentacjach liczbowych. Nie musimy też zakładać, że na pewnym – koniecznym dla informatycznej teorii – poziomie, dane redukują się do jakichś liczb, a operacje na danych do operacji arytmetycznych. Nie musimy zatem posługiwać się nacechowanym „liczbowo” terminem obliczanie – dla którego zresztą w języku angielskim istnieje różny od computing odpowiednik, tj. calculating.

Być może jednak za powszechną praktyką utożsamiania computing z obliczaniem stoi coś istotnego. Być może takie tłumaczenie, choć przy pierwszym spojrzeniu zbyt wąskie a nawet mylące, oddaje jednak istotę czynności nazywanej computing: istota ta polegałaby  na teoretycznej konieczności definiowania różnych rodzajów computations/obliczeń za pomocą różnego rodzaju liczb i operacji na liczbach. Przykładowo: digital computing byłoby definiowane poprzez odniesienie do własności liczb naturalnych  (własność bodaj najprostsza to dyskretność zbioru tych liczb), a pewne przynajmniej postaci analog computing  wymagałyby definicji w kategoriach własności liczb rzeczywistych (jak ciągłość).

Formułując ostatnie zdania, uświadomiłem sobie, że kilka lat temu dyskutowaliśmy o podobnych sprawach przy okazji wpisuO teoretycznej (nie)zbędności pojęcia liczby w informatyce teoretycznej i jej metodologii”. Dyskutowaliśmy nawet dość zażarcie.

Nie będę tutaj powtarzać formułowanych tam argumentów, ALE…

Bardzo jestem ciekaw, jak zapatrujecie się Państwo na:
a) wieloznaczność terminu computing,
b) naturę związków między computations/obliczeniami a światem liczb…?
A także:
c) czy wspomnianą w punkcie (a) wieloznaczność da się istotnie ograniczyć poprzez taką czy inną redukcję computing do operacji na liczbach (co zdaje się sugerować polskie tłumaczenie computing = obliczanie)?

Serdecznie zapraszam do rozmowy  — Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Epistemologia i ontologia, Filozofia informatyki, Światopogląd informatyczny | 33 komentarze

Życie w erze informacji: między zależnością a uzależnieniem

Obecny wpis zamieszczam w blogu w imieniu Pani Mai Dąbrowskiej, studentki wydziału WEiTI PW, która podczas dyskusji na prowadzonych przeze mnie zajęciach w bardzo intrygujący sposób argumentowała na rzecz tezy, że „żyjemy w erze informacji”. Żyjemy w niej, bo jesteśmy od informacji zależni.
Przykładowo, od dostępu do informacji  i narzędzi  jej efektywnego przetwarzania zależą:  nasz status społeczny, sukces zawodowy, jakość relacji z innymi ludźmi…
Co więcej jednak, w bardzo wielu przypadkach – które być może stają się powoli niepokojącą normą – zależność przechodzi w uzależnienie

Dalsza część obecnego wpisu to już głos Mai Dąbrowskiej :)

***********

Jeśli spojrzymy na etymologię słowa informacja (łac. informatio ‘wyobrażenie’, ‘wyjaśnienie’, ‘zawiadomienie’), możemy dojść do wniosku, że jest ona obecna już od początków komunikacji międzyludzkiej (niewerbalnej i werbalnej) i nawet wówczas stanowiła podstawę społeczeństwa. Więcej: stanowi ona według niektórych wyznacznik człowieczeństwa i warunek życia wychodzącego poza prostą walkę o przetrwanie. Czy wobec tego mówienie o pewnej wyjątkowej zależności współczesnego człowieka od informacji nie jest przesadą? Może lepszym określeniem byłaby zależność od nowych technologii?

Z pewnością informatyka odgrywa tu niebagatelną, a nawet kluczową rolę, jednak w XX i XXI wieku możemy zauważyć również wzrost ilości informacji niezwiązanej z urządzeniami elektronicznymi. Człowiek nadaje coraz więcej nazw, identyfikatorów, form rzeczom i pojęciom: sam posiada numer PESEL, stworzył ideę kodów pocztowych, upowszechnił znaki drogowe; w systemie zdrowia nawet choroby mają określone numery identyfikacyjne. Społeczeństwa zmierzają w stronę formalizacji, dążą do gromadzenia i przekazywania coraz większej ilości informacji, ponieważ ułatwia to ich organizację — niezależnie od tego, czy informacja ta ma formę cyfrową, czy nie.

Zależność, ale w jakim ujęciu?

Aby zrozumieć, dlaczego i w jaki sposób jesteśmy zależni od informacji, przyjrzyjmy się najpierw definicji zależności:

zależność ż V 1. <<związek zachodzący między czymś a czymś, polegający na tym, że istnienie, jakość, itp. czegoś warunkuje istnienie, jakość, itp. czegoś innego>>. 2. <<stan kogoś (czegoś), kto (co) w swym działaniu jest krępowany, ograniczany czyjąś wolą.

Słownik Języka Polskiego, PWN

Kluczowe w powyższej definicji jest według mnie słowo działanie: to, czy jest się zależnym od kogoś (czegoś), czy też nie, określa się na podstawie tego, jakie działanie wykonuje lub chce wykonać osoba (rzecz) potencjalnie zależna. Dlatego, gdy mówimy, że jesteśmy zależni od informacji, musimy się zastanowić w jakim obszarze ta zależność występuje.

Czy można dziś przeżyć bez informacji?

Wydaje się, że informacja nie zawładnęła jeszcze życiem człowieka na tyle, aby brak informacji zupełnie je uniemożliwiał (w rozumieniu biologicznym) –  zwłaszcza w krajach, które nie uległy jeszcze informatyzacji. Postawię jednak tezę, że nie jest bez niej możliwe życie na wysokim lub nawet średnim poziomie komfortu. Większość zawodów wymaga kontaktu z informacją pewnego rodzaju, wiele z nich można wykonywać dopiero po zdobyciu edukacji (w oczywisty sposób nieodłącznie związanej z informacją). Bez interakcji z danymi nie da się również uzyskać dostępu do opieki zdrowotnej (składki, formularze, podpisy), a także opłacić ubezpieczenia.

Prawna zależność od informacji

Istotną zmianą w stosunku do poprzednich wieków jest również obecny w wielu państwach wymóg prawny rozumienia, interpretowania i dostarczania informacji wobec każdego obywatela. Sformalizowana jest większość wydarzeń w ludzkim życiu — narodziny, choroby, ślub, posiadanie miejsca zamieszkania. Prawnie jesteśmy zobowiązani do zdobycia wykształcenia podstawowego i płacenia podatków — to wszystko bez uzyskiwania, przetwarzania i zapisu informacji po prostu nie jest możliwe.

Społeczna zależność od informacji

Człowiek jest istotą społeczną, więc kontakty interpersonalne są elementem jego rzeczywistości. Życie społeczne przeniosło swój środek ciężkości w realia Internetu — nie tylko ze względu na umożliwienie szybkiej i wygodnej komunikacji. Od momentu, w którym ludzie zrozumieli, że mogą łatwo generować i skutecznie rozpowszechniać wiele informacji, Internet stał się dostawcą opinii publicznej, oknem na stan społeczeństwa. Żeby to społeczeństwo rozumieć, żeby się w nim odnajdywać, człowiek zdaje się nie mieć wyboru — musi uczestniczyć w jego życiu informacyjnym.

Dochodzimy tu jednak do pewnej granicy. Zależność człowieka od informacji w kontekście pewnych podstaw życia: edukacji, pracy, opieki zdrowotnej, prawa wydaje się dosyć oczywista. Aktywne uczestniczenie w życiu społecznym zdaje się być czymś więcej, czymś nie aż tak niezbędnym, choć przecież bardzo ludzkim. Nasuwa się jednak pytanie: czy jesteśmy dziś w stanie (jako jednostka) wieść satysfakcjonujące życie społeczne bez urządzeń nowej technologii i dostępu do odpowiednio wysokiej (coraz większej!) ilości informacji? Osobiście jestem skłonna sądzić, że tak – społeczny charakter życia człowieka nie wymaga globalnej sieci powiązań, ale poczucia przynależności i kontaktu z pewną lokalną grupą osób — mogą być to sąsiedzi, studenci jednego kierunku, rodzina. Można więc wysunąć tezę, że uczestniczenie w wirtualnym życiu społeczeństwa nie jest podstawową potrzebą, ale czymś, co człowiek świadomie wybiera. Dlatego widzę podstawy, by twierdzić, że w życiu społecznym człowiek jest tylko w pewnej mierze od informacji zależny — bardziej czyni się od tej informacji zależnym, co prowadzi nas do definicji uzależnienia:

uzależnić — uzależniać «uczynić zależnym od kogoś lub czegoś»

Słownik Języka Polskiego, PWN

Rozumiemy, że jako całość społeczeństwa jesteśmy niejako “winni” faktu, że edukacja, praca, zdrowie, etc. zależne są od informacji, więc jako społeczeństwo uzależniliśmy się od niej. Natomiast jako jednostka w tych dziedzinach po prostu jesteśmy od niej zależni: nie czynimy się, ale rodzimy się takimi. Istnieją jednak domeny, w których jednostka sama uzależnia się od informacji: wspomniane wyżej życie społeczne jest chyba najbardziej wyraźnym przykładem, ale dzieje się tak również chociażby w przypadku rozrywki czy zakupów.

W tym kontekście widzę dwa rodzaje takiego uzależnienia. Pierwszym jest prosta konsekwentność działań — nawiązałem relację z pewną osobą na komunikatorze i chcę ją kontynuować; wykupiłem serwis streamingowy i obejrzałem kilka seriali, nie chcę zmarnować pieniędzy z subskrypcji; za zakupy w sklepie internetowym przysługują mi rabaty, więc je wykorzystam. Drugim natomiast, i o wiele bardziej złożonym, jest uzależnienie w biologicznym i psychologicznym tego słowa znaczeniu.

Uzależnienie psychiczne i fizjologiczne od informacji

Co pozytywnego, przyjemnego widzi nasz mózg w informacji?

Istnieje wiele (niewykluczających się wzajemnie) koncepcji z tym związanych. Jedna z nich sugeruje, że poszukiwanie informacji jest mechanizmem obecnym już w czasach pierwotnych, ponieważ duża ilość informacji o otoczeniu zwiększała wówczas szanse na przeżycie (zob. tutaj) — stąd zachęta ze strony ewolucji w postaci pozytywnej reakcji fizjologicznej na nowe wiadomości. Reakcję taką większość publikacji opisuje jako wyrzut dopaminy i uaktywnienie ośrodka nagrody. Jedne z badań pokazują, że człowiek ma tendencję do przeceniania informacji zanim pozna jej treść — krócej, jest istotą ciekawą. Takiemu oczekiwaniu i otrzymywaniu informacji towarzyszy uaktywnienie tych części mózgu, które odpowiadają za czerpanie przyjemności z jedzenia, pieniędzy i narkotyków (zob. tutaj). Stałe otrzymywanie dopaminy przyzwyczaja organizm do tego stanu, co prowadzi do uzależnienia. Jednak oprócz wydzielania wspomnianego hormonu w odpowiedzi na informacje same w sobie, jej wyrzut następuje także dzięki pozytywnym kontaktom społecznym budowanym poprzez wymianę wiadomości (zob. tutaj).

Czytając o tym, zadałam sobie pytanie: dlaczego więc nie uzależniają nas książki naukowe — niezgłębione źródło informacji? Dlaczego studenci coraz rzadziej uczęszczają na wykłady, dlaczego nudzą nas bogate w treści teksty?

Osobiście skłaniałabym się do wyjaśnienia, że wiedza naukowa jest w naszym pojęciu czymś relatywnie statycznym; mamy świadomość, że treść danych publikacji nie zmieniła się od pewnego czasu, więc nawet, jeśli tej treści nie znamy, nie wydaje nam się ona czymś naprawdę nowym. Teza o poszukiwaniu informacji pozwalającej na przeżycie mogłaby to potwierdzać — szans na przetrwanie nie zwiększa znacząco wiedza o niezmiennych cechach otoczenia, ale zwiększa wiedza o jego aktualnym stanie, o zmianach lub ich braku. Jest to jednak tylko jeden z pomysłów odpowiedzi na to pytanie.

Można także tłumaczyć to szybszym tempem życia i komunikacji. Satysfakcji (w postaci dopaminy) nie daje dokładne zgłębienie i zrozumienie tematu, ale oczekiwanie na informację i moment pierwszej styczności z nią. Stąd, częstsze otrzymywanie niewielkich porcji informacji jest bardziej satysfakcjonujące dla naszego mózgu niż rzadsze zdobywanie dużych porcji.

Między zależnością, uzależnieniem a… ZALEŻNOŚCIĄ?

Współczesna zależność od informacji w podstawowych obszarach życia coraz częściej przechodzi w uzależnienie — zależność zaistniałą w wyniku procesu, na który niejako wyraziliśmy zgodę. Być może jednak nie jest to stan, na którym poprzestaniemy. Film The Social Dilemma opisuje chyba powszechnie już znane zjawisko tworzenia algorytmów dobierania treści i subtelnej manipulacji skutkującej zamknięciem nas w bańkach informacyjnych oraz fizjologicznym uzależnieniem. Gdy jednak weźmiemy pod uwagę intensywny rozwój sztucznej inteligencji i rosnące wraz z nim możliwości manipulacji, a także tworzenia fikcyjnych treści w sposób wysoce wiarygodny — być może jako ludzkość przejdziemy do stanu, w którym nasze uzależnienie od informacji zamieni się w obejmującą wiele obszarów ZALEŻNOŚĆ, na jaką w żadnym momencie nie wyraziliśmy żadnego rodzaju zgody?

***********

Serdecznie ZAPRASZAMY do dyskusji — Maja Dąbrowska i Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 62 komentarze

Zaufanie do systemów sztucznej inteligencji.
Rola wyjaśniania.

W tym tygodniu ukazała się współredagowana przeze mnie książka pt. „Zaufanie do systemów sztucznej inteligencji”: http://www.wydawnictwopw.pl/index.php?s=karta&id=3800. W jej drugim rozdziale stawiam pewne tezy, które chciałbym niniejszym poddać pod dyskusję. Dotyczą one funkcji wyjaśniających systemów SI oraz ich roli w kształtowaniu relacji zaufania użytkownika do systemu.

Bardzo proszę, aby nie mieć do tych tez zaufania :), spojrzeć na nie krytycznie i wskazać ich słabe punkty…

Tezy są następujące:

1.
Wśród czynników, które wzmacniają zaufanie człowieka do systemów sztucznej inteligencji (SI) na pierwszy plan wybijają się: a) skuteczność – system skutecznie rozwiązuje problemy wchodzące w zakres jego kompetencji, b) zdolność do wyjaśniania – system potrafi wyjaśnić, w sposób przekonujący dla człowieka, dlaczego w danej sytuacji podjął taką a nie inną decyzję; c)  elastyczność i otwartość na krytykę – system może zmienić sposób podejmowania decyzji zależnie od interakcji z użytkownikiem; zwłaszcza w przypadku nieskutecznych działań czy  błędnych decyzji.

2.
Istnieją systemy SI, które wykazują bardzo ograniczoną zdolność do wyjaśniania podejmowanych decyzji, wskutek czego nazywa się je czarnymi skrzynkami (ang. black boxes).  Duża część takich systemów jest oparta na sztucznych sieciach neuronowych (SSN), które nabywają swoje zdolności w drodze niskopoziomowego uczenia się, polegającego na (masowym) modyfikowaniu własności neuronów i połączeń między nimi. Własności te nie przekładają się jednak wprost na wiedzę użytkownika systemu o przyczynach podjęcia przezeń konkretnej decyzji.

3.
Do ogólnych powodów słabych zdolności wyjaśniających niektórych systemów SI (niekoniecznie SSN)  należą: a) zbyt duża złożoność strukturalna systemu (w tym: sterującego nim programu), b) interakcja systemu ze środowiskiem (w tym: uczenie się), c) naśladowanie naturalnych układów do przetwarzania informacji (nie dość dobrze poznanych), d) operowanie na danych niepewnych, e) brak procedur translacji operacyjnych reguł niskiego poziomu na czytelne dla człowieka reguły symboliczne.

4.
Funkcje wyjaśniające systemów SI nie są czymś zbędnym.  Odpowiadają na  naturalną dla człowieka – jako istoty racjonalnej – potrzebę uzasadniania żywionych i przyswajanych sądów, w tym wydawanych i przyjmowanych decyzji.

5.
W aspekcie praktycznym funkcje wyjaśniające są szczególnie ważne wtedy, gdy użytkownik przyjmuje wobec systemu SI zasadę  ograniczonego zaufania (ZOZ): nie ufa mu bezgranicznie, licząc się z możliwością popełniania przezeń błędów. Zgodnie z ZOZ,  zaufanie do systemu jest stopniowalne, a jego poziom musi być tym wyższy, im w większym stopniu system potrafi eliminować błędy i doskonalić swoje działanie.

6.
W świetle zasady ZOZ istotne jest, że systemy generujące wyjaśnienia, są postrzegane przez użytkowników jako systemy zawierające pewien mechanizm monitorujący, który prócz generowania wyjaśnień, pozwala rozpoznać i usunąć odpowiednie błędy. Ponadto, informacje zawarte w wyjaśnieniach, zwłaszcza te, które dotyczą wewnętrznych parametrów systemu, mogą pomóc w udoskonaleniu systemu przez człowieka, np. programistę.

Zachęcam wszystkich do dyskusji nad przytoczonymi tezami. Ich szersze omówienia można znaleźć we wspomnianej wyżej książce, w rozdziale drugim (mojego autorstwa) pod tytułem „Wyjaśnianie, zaufanie i test Turinga”.
Przytaczam niżej obszerny fragment tego rozdziału, który nieco pełniej niż powyższe punkty naświetla mój punkt widzenia.

*****  FRAGMENT ROZDZIAŁU pt. „Wyjaśnianie, zaufanie i test Turinga”
Z KSIĄŻKI „Zaufanie do systemów sztucznej inteligencji”  *****

(…)

Zaufanie a wyjaśnianie. Kontekst psychologiczny

Zaufanie jest relacją natury psychicznej, która polega na tym, że pewna osoba, nazwijmy ją podmiotem zaufania, żywi określonego rodzaju przekonanie co do możliwych  działań drugiej strony, na przykład osoby, zwierzęcia, instytucji, urządzenia czy systemu. Jest ona mianowicie przekonana, że działania te będą zgodne z jej oczekiwaniami, które z kolei mają swoje uzasadnienie w deklaracjach, zobowiązaniach lub technicznych specyfikacjach (w przypadku artefaktów) drugiej strony. Relacja ta ma charakter kontekstowy. Znaczy to, że oczekiwania podmiotu zaufania zależą silnie od tego, czym jest druga strona relacji i jaką funkcję pełni.  Na przykład, czy osoba, której podmiot miałby zaufać, jest pracodawcą, usługodawcą, współpracownikiem, partnerem życiowym etc…

Ponieważ jądrem relacji zaufania są oczekiwania wobec pewnego obiektu (np. osoby), psychologowie bardzo często określają zaufanie za pomocą pojęcia wiarygodności. Oto objaśniający tę kwestię fragment pracy psychologów poznawczych: „Decyzja o zaufaniu opiera się najczęściej na ocenie wiarygodności drugiej osoby. Wiarygodność jest więc podstawą zaufania, a także niezbędnym czynnikiem dla pełnej relacji zaufania. Wiarygodność drugiej osoby oznacza przekonanie, że osoba ta będzie zachowywać się w sposób zgodny z oczekiwaniami.” [Jaklik, Łaguna, 2015]

Kluczową dla relacji zaufania cechę wiarygodności możemy – za M. Szynkiewiczem [2014] – zróżnicować dalej na wiarygodność merytoryczną i wiarygodność etyczno-moralną. Pierwsza zależy od wiedzy, doświadczenia i kompetencji dziedzinowych adresata postawy zaufania, druga – od przejawiających się w jego działaniu norm, zasad i poglądów etycznych. Wiarygodność merytoryczna ma charakter bardziej podstawowy, ponieważ sądy i wybory etyczne muszą dotyczyć działań, które bez należytej wiedzy i bez odpowiednich kompetencji nie mogłyby zostać ani zaplanowane, ani podjęte. Ona też będzie nas interesować w sposób szczególny, ponieważ na obecnym etapie rozwoju systemów informatycznych trudno mówić o maszynach, które autentycznie dokonują samodzielnych wyborów etycznych. Ewentualna etyka czy moralność jest kwestią zewnętrzną – powiązaną z decyzjami ludzi, którzy tak a nie inaczej programują maszyny czy ich używają.

Wyróżniony typ wiarygodności jest weryfikowany w praktyce przez skuteczność działań adresata postawy zaufania. Jest to cecha wpływająca najsilniej na poziom zaufania:  im bardziej efekty działań są zgodne z oczekiwaniami, czyli dają oczekiwany skutek, tym większe zaufanie.  Przykładowo, jeśli pewien chirurg, stawiał w przeszłości trafne diagnozy i przeprowadził wiele udanych operacji, darzymy jego umiejętności wysokim zaufaniem i bez wahania skierujemy się do niego w potrzebie. Warto zauważyć, że wobec niemożności osiągnięcia przez jakikolwiek podmiot idealnej skuteczności działań, zaufanie do niego musi być silnie uzależnione od jego zdolności do poprawy tejże efektywności. Im dany podmiot jest bardziej otwarty na krytykę, im bardziej jest w stanie eliminować błędy w swoim działaniu i zwiększać w ten sposób swoją skuteczność, tym bardziej jest on godny zaufania.
Relacja zaufania pozostaje zatem zakotwiczona w praktyce, jest też ukierunkowana na przyszłość i stopniowalna. Skoro jest stopniowalna, to powstaje pytanie o dodatkowe czynniki, które  istotnie wzmacniają jej siłę.

Twierdzimy, że oprócz kluczowej dla zaufania skuteczności działań (w tym eliminacji błędów zwiększających skuteczność), niezwykle istotną rolę odgrywa tutaj zdolność do wyjaśniania – wyjaśniania motywów działań, stojących za nimi decyzji i przyświecających im celów. Zdolność ta ma zarówno pewne walory praktyczne (o czym powiemy szerzej w kontekście systemów SI), jak i czysto psychologiczne, związane z naturalną dla człowieka potrzebą poszukiwania i uzyskiwania wyjaśnień.

W bliskim psychologii kontekście epistemologicznym kwestia druga wiąże się z samym pojęciem wiedzy, ku której człowiek – jako istota rozumna – w sposób naturalny podąża. W każdej definicji wiedzy podkreśla się czynnik uzasadnienia: jest to zbiór sądów, które oprócz innych własności, muszą posiadać dostatecznie dobre uzasadnienie (por. [Ajdukiewicz, 2006], [Chisholm 1994], [Stacewicz, 2021]). To ostatnie zaś, w formie dostępnej dla człowieka czyli intersubiektywnie komunikowalnej, przyjmuje postać wyjaśnienia, które odpowiada na pytanie „dlaczego?”. Na przykład: „Dlaczego lekarz interpretujący wyniki badań wydał sąd określający konkretną diagnozę i konkretną terapię”. Dostępności tego rodzaju wyjaśnień oczekujemy od każdego eksperta i każdego systemu, który wchodzi w jego rolę. Z samej definicji wiedzy jako czegoś intersubiektywnie dostępnego i komunikowalnego [Ajdukiewicz, 2003] wynika zatem, że wiarygodność merytoryczna – zależna od wiedzy i zdolności jej wykorzystywania – musi być weryfikowana między innymi w oparciu o wyjaśnienia adresata postawy zaufania.

Zaufanie a wyjaśnianie. Kontekst systemów sztucznej inteligencji

Relacja zaufania człowieka do systemów informatycznych – jako relacja natury psychologicznej, której główną stroną jest człowiek –  musi mieć swój mentalny wzorzec w relacjach międzyludzkich. Obserwacja ta idzie w parze z ideą testu Turinga, który nakłada na program sztucznej inteligencji sztywne więzy podobieństwa systemów SI  do człowieka. Wymóg podobieństwa sprawia, że na zaufanie człowieka do systemu niejako podwójnie wpływają wzorce kształtowane w kontaktach międzyludzkich: po pierwsze dlatego, że podmiotem relacji jest człowiek, po drugie zaś dlatego, że system informatyczny ma przypominać człowieka.
Mając to wszystko na uwadze, uwzględniając przy tym nowy kontekst interesującej nas relacji, możemy uwypuklić ponownie dwa czynniki wzmacniające zaufanie i dodać do nich trzeci. Są to:

    • skuteczność – system skutecznie rozwiązuje problemy wchodzące w zakres jego kompetencji (im lepsze statystyki poprawnie realizowanych zadań, tym większe zaufanie użytkownika);
    • zdolność do wyjaśniania – system potrafi wyjaśnić, w sposób przekonujący dla człowieka, dlaczego w danej sytuacji podjął taką a nie inną decyzję (jednym z możliwych sposobów wyjaśniania jest zrozumiała dla człowieka rekonstrukcja kroków, które doprowadziły do decyzji);
    • elastyczność i otwartość na krytykę – system może zmienić sposób podejmowania decyzji zależnie od interakcji z użytkownikiem; zwłaszcza w przypadku nieskutecznych działań, błędnych decyzji etc…

Z dwoma ostatnimi czynnikami wiąże się coś, co moglibyśmy nazwać zasadą  ograniczonego zaufania: użytkownik nie ufa systemowi bezgranicznie, licząc się z możliwością popełniania przezeń błędów. W świetle tak rozumianej zasady zaufanie do systemu jest stopniowalne, a jego poziom musi być tym wyższy, im w większym stopniu system potrafi eliminować błędy i doskonalić swoje działanie. Sprzyjają temu obecne w jego oprogramowaniu moduły uczenia się, ale ponadto, silnie powiązana z mechanizmami naprawczymi zdolność do generowania wyjaśnień.
Stawiamy tezę, że przy akceptacji zasady ograniczonego zaufania istotnie wzrasta rola zdolności do generowania wyjaśnień jako czynnika wzmacniającego wiarygodność systemu. Jeśli użytkownik akceptuje zasadę, a więc jest świadom możliwych błędów w działaniu maszyny, to w sposób naturalny łączy wiarygodność ze zdolnością do poprawy tegoż działania. Chodzi przy tym o perspektywę długoterminową, wykraczającą poza wąski horyzont aktualnie realizowanych zadań. Im większe zdolności naprawcze systemu, tym wyższy poziom zaufania do niego w długoterminowej perspektywie aktualnych i przyszłych zadań.

Mechanizm generowania wyjaśnień jest w tym kontekście niezwykle ważny. Generując wyjaśnienia, system nie tylko zaspokaja pewną epistemiczną potrzebę użytkownika (potrzebę poznania uzasadnień czy wyjaśnień), lecz dostarcza mu silnej przesłanki za tym, że w systemie istnieje pewien mechanizm monitorujący, który prócz generowania wyjaśnień, pozwala rozpoznać i usunąć odpowiednie błędy. Ponadto, informacje zawarte w wyjaśnieniach, zwłaszcza te, które dotyczą wewnętrznych parametrów systemu, mogą pomóc w udoskonaleniu systemu przez człowieka, np. programistę. W kontekście możliwej przebudowy układ taki jest więc bardziej godny zaufania niż układ nie dostarczający wyjaśnień.

Chociaż obydwa powiązane ze sobą czynniki – zdolność do generowania wyjaśnień i zdolność do uczenia się – uznaliśmy za pozytywnie wpływające na zaufanie, to trzeba zwrócić uwagę na inny, bardziej negatywny aspekt ich wzajemnej relacji. Otóż mechanizm uczenia się, a dokładniej zmiany powstające w wyniku jego działania,  uznaje się za jedną z głównych przyczyn nieprzejrzystości poznawczej systemów informatycznych oraz trudnej interpretowalności uzyskiwanych przezeń wyników [Zednik 2021], [Stacewicz, Greif, 2021]. Typowy proces narastania nieprzejrzystości polega na tym, że w efekcie uczenia się do systemu są wprowadzane pewne techniczne parametry, które mają na celu dostosowanie działania systemu do wymogów realizowanego zadania, nie pozwalają natomiast uchwycić istotnej i zrozumiałej dla człowieka relacji między danymi a wynikami. Problem ten pogłębia się, gdy proces uczenia się zależy istotnie od kroków losowych, które (ponownie) mają zapewnić efektywność systemu, nie zaś przejrzystą dla człowieka formę wyjaśnienia. Okazuje się zatem, że chociaż zdolność do uczenia się skutkuje poprawą jakości działania systemu i jako taka wzmacnia relację zaufania, to w przypadku pewnych form uczenia się – takich mianowicie, które prowadzą do nieprzejrzystości poznawczej układu – relacja zaufania zostaje osłabiona.

Narzucającym się rozwiązaniem tego problemu jest powiązanie uczenia się z wyjaśnianiem w taki sposób, aby w obydwa procesy był zaangażowany ten sam mechanizm monitorowania pracy systemu. Z jednej strony, wyniki działania tego mechanizmu, czyli rejestrowane zmiany systemu, byłyby podstawą uczenia się (korzystnych zmian w systemie), a z drugiej strony, byłyby one wykorzystywane w procesie wyjaśniania (odnoszącym się również do stanów wewnętrznych systemu).

(…)

Jeszcze raz zachęcam wszystkich do dyskusji :).

W dalszej rozmowie mogą okazać się przydatne również pewne dodatkowe materiały:

1)  The “black box” metaphor in machine learning
2)  Fragment mojej książki, dotyczący problemu czarnej skrzynki
3)  Starszy wpis w blogu o przejrzystości poznawczej systemów algorytmicznych

Paweł Stacewicz

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Epistemologia i ontologia, Etyka, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 27 komentarzy

Jakie cechy sztucznej inteligencji miałyby świadczyć o jej inteligencji?

Od systemów sztucznej inteligencji (SI) oczekujemy coraz więcej…
Na przykład: wiarygodności, życzliwości (w tej sprawie zobacz poprzedni wpis),  działań budzących zaufanie czy przestrzegania etycznych norm.
Świadczy to niewątpliwie o tym, że inteligencja systemów SI stała się dla nas czymś oczywistym, naturalnym, nie budzącym wątpliwości. Podobnie jak w stosunku do ludzi, przyjmujemy za oczywiste, że system wykazuje inteligencję, a przyjmując to, idziemy o krok dalej. Stawiamy wymagania dotyczące możliwych sposobów jej wykorzystania, w tym takich, które są dla nas potencjalnie niebezpieczne.
Przykładowo: jeśli system SI zastępuje lekarza lub prawnika, a więc dokonuje odpowiednich ekspertyz i dochodzi do trafnych decyzji, to oczekujemy, by decyzje te spełniały pewne dodatkowe warunki — były opatrzone przejrzystymi dla nas uzasadnieniami, nie godziły w nasze prawa, nie naruszały ogólnie przyjętych norm moralnych itp… Oczekiwania te mają psychologiczny sens pod warunkiem, że systemowi przypisujemy – niejako domyślnie – tego rodzaju zdolności, które w odniesieniu do ludzi nazywamy „inteligencją”.

Czy faktycznie jednak kwestia inteligencji systemów SI jest zamknięta?
W szczególności: czy definiując inteligencję sztuczną na podobieństwo naturalnej, mamy jasność co do typów zdolności, które świadczą o jej istnieniu i pozwalają mierzyć jej poziom?
Która ze zdolności jest tu najważniejsza:  zdolność do rozwiązywania problemów (w domyśle: wystarczająco trudnych),  umiejętność uczenia się, czy może kreatywność i ogólnie pojęte zdolności twórcze…?

A może strategia  definiowania inteligencji, poprzez wskazywanie konstytuujących ją cech (zdolności) prowadzi donikąd? Być może trzeba postąpić tak, jak jeden z pionierów badań nad SI, Marvin Minsky, który charakteryzując nowo-powstającą dyscyplinę, użył  takiego oto  określenia: „Nauka o maszynach realizujących zadania, które wymagają inteligencji wtedy, gdy są wykonywane przez ludzi”.
Poprzez cytowane stwierdzenie Minsky ominął sprytnie pytanie o to, na czym polega inteligencja, czyli jakie cechy ją konstytuują. Zamiast na nie odpowiadać, wystarczy stworzyć katalog problemów, do których rozwiązania jest niezbędna – tak czy inaczej pojęta – ludzka inteligencja. Jeśli maszyny będą potrafiły tym problemom sprostać, będziemy mogli je określić mianem inteligentnych.

Proponuję zastanowić się wspólnie nad różnymi możliwymi strategiami definiowania i rozpoznawania sztucznej inteligencji.
Pytanie główne brzmi: Jakie cechy konstytutywne winna posiadać sztuczna inteligencja?
Ewentualnie, przyjmując strategię Minsky’ego: Jakiego typu problemy powinna rozwiązywać?

Jako materiał pomocniczy do rozmowy proponuję pewien swój tekst, zaczerpnięty z książki „Umysł a modele maszyn uczących się…”. Zwracam w nim uwagę na fakt, że na polu psychologii problem definiowania i pomiaru inteligencji jest wciąż otwarty. Czynię to z intencją uświadomienia czytelnikowi, że ten sam problem dotyczy systemów sztucznych — o których coraz częściej sądzimy, że posiadają inteligencję.

A oto wspomniany tekst (po minimalnych zmianach):

<< Próbując definiować sztuczną inteligencję – czy to jako dyscyplinę naukową, czy to jako pewną właściwość systemów informatycznych – jako naturalny „układ odniesienia” przyjmuje się najczęściej inteligencję ludzką. Czyniąc tak, zakłada się domyślnie, że istnieje jakaś ogólnie przyjęta wykładnia tej ostatniej. Tymczasem, jak dotychczas, ani na polu psychologii, ani na polu neurofizjologii, ani na polu innych nauk o człowieku nie udało się wypracować żadnego powszechnie obowiązującego ujęcia inteligencji. Przeważnie traktuje się ją jako zdolność do rozwiązywania problemów – zdolność stopniowalną i mierzalną za pomocą specjalnych testów (np. testów na IQ). Już tutaj jednak występują znaczne różnice zdań, co do struktury zdolności elementarnych (ich typów, liczby i wzajemnych powiązań), których miałyby dotyczyć niezbędne pomiary. Rozbieżności głębsze ogniskują się wokół następującej alternatywy: czy intelekt należy traktować jako już uformowany zespół umiejętności aktywizowanych w działaniu (tj. przy rozwiązywaniu problemów), czy też jako pewien wiedzotwórczy potencjał, odpowiedzialny za pozyskiwanie nowych umiejętności (tj. uczenie się nowych strategii rozwiązywania problemów). Zgodnie ze stanowiskiem pierwszym miarą inteligencji jednostki byłaby trudność wykonywanych zadań, zgodnie z drugim – stopień trudności materiału, który jednostka jest w stanie, na bazie dotychczasowej wiedzy, przyswoić. Okazuje się, że wielu psychologów opowiada się za stanowiskiem drugim, a tym samym podkreśla dynamiczny i otwarty charakter intelektu. Na przykład W. Stern traktuje inteligencję jako zdolność adaptacji do nowych warunków i do wykonywania nowych zadań, a G.A. Ferguson wprost jako zdolność do uczenia się. >>

Zapraszam wszystkich do dyskusji nad różnymi możliwymi sposobami definiowania i rozumienia inteligencji systemów sztucznych…

Paweł Stacewicz

Zaszufladkowano do kategorii Bez kategorii, Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 63 komentarze