O wspomaganym filozoficznie nauczaniu matematyki

Obecny wpis powstał w porozumieniu z redakcją czasopisma Semina Scientiarum, do którego został zgłoszony mój artykuł o Archipelagu Matematyki (przypomnę, że temat Archipelagu gościł w naszym blogu już kilkukrotnie; zob. np. wpis z dnia 20.10.2013)

Wspomniany artykuł dotyczy filozoficznych wątków Archipelagu, które z grubsza da się streścić w następujących punktach:

(1) Prezentując niektóre treści matematyczne, przyjęto sokratejską metodę pytań zmierzających do wydobycia z rozmówcy jego ukrytej wiedzy matematycznej.

(2) Przedstawiając niektóre źródła matematycznych pojęć, sięgnięto wprost do myśli tych filozofów, którzy zajmowali się twórczo matematyką i logiką (np. Arystotelesa czy Leibniza).

(3) Pragnąc ukazać związki matematyki z innymi dziedzinami, przedstawiono pewne pytania filozoficzne, do których prowadzą ustalenia matematyków (np. twierdzenia matematyczne).

(4) Objaśniając specyfikę poznania matematycznego (w szczególności zdumiewającą zgodność wielu matematycznych twierdzeń z rzeczywistością), ukazano różne filozoficzne stanowiska w tej sprawie (jak platonizm czy instrumentalizm).

Zasygnalizowawszy filozoficzne wątki Archipelagu, chciałbym teraz poddać pod dyskusję końcowy fragment w/w artykułu, dotyczący nauczania matematyki w powiązaniu z filozofią (i na odwrót).

A oto i tekst…

**********

KOŃCOWY  FRAGMENT  ARTYKUŁU
O związkach matematyki z filozofią
na przykładzie projektu Archipelag Matematyki

Na koniec artykułu chciałbym podzielić się z czytelnikiem garścią uwag metodologicznych, do których skłania uczestnictwo w opisanym projekcie. Uwagi te będą dotyczyć nauczania obydwu tytułowych dyscyplin, matematyki i filozofii, w taki sposób jednak, by druga z nich  jak najwięcej na tym skorzystała.

Uwagi będą koncentrować się wokół dwóch pytań:
(1) W jaki sposób w nauczaniu matematyki wykorzystywać filozofię?,
(2) Jak uczyć filozofii, wykorzystując matematykę (a także inne nauki ścisłe)?[1]

Cząstkowej odpowiedzi na pytanie pierwsze dostarcza drugi z opisanych w artykule przykładów. Jego forma dialogowa powinna nasunąć skojarzenie z Dialogami Platońskimi, i zawartą w nich sokratejską metodą stopniowego wydobywania wiedzy z rozmówcy poprzez podsuwanie trafnych skojarzeń i pytań (tzw. metoda majeutyczna). Uważam, że dydaktycy matematyki powinni częściej stosować tę metodę, bazując na nabytych i wrodzonych intuicjach ucznia (zakorzenionych niekiedy w języku potocznym). Stosując ją, mogliby powoływać się (nawet w formie ciekawostki) na jej filozoficzny, sokratejsko-platoński, rodowód. Dodam jeszcze, że w Archipelagu Matematyki nie brakuje materiałów zorganizowanych w taki właśnie sposób, a wiele z nich przynależy do kategorii mat-wywiadów (zob. np. zamieszczony w blogu mat-wywiad o liczbach nieobliczalnych).

Kolejna „filozoficzna” wskazówka dla dydaktyków matematyki wiąże się również z pytaniami – tym razem jednak chodzi o motywowanie uczniów do samodzielnego stawiania pytań filozoficznych. Nie tylko matematycznych, związanych z taką czy inną definicją lub metodą, lecz bardziej ogólnych. Oto sugestywny przykład: „Czym jest liczba?” i „Czy naprawdę to wiemy?”. Niech uczeń wczuje się w ten problem, zestawi różne rodzaje liczb, pozna różne sposoby odpowiedzi…  niech przekona się w ten sposób o otwartym charakterze matematyki, w której wciąż przecież konstruuje się nowe pojęcia, w tym nowe rodzaje liczb.
Przy okazji stosowania tego rodzaju metody warto podkreślać – i to ma już bezpośredni związek z historią filozofii – że historycznie rzecz biorąc, wiele matematycznych odkryć było inspirowanych pytaniami filozoficznymi (tak np. rozumował G.W. Leibniz; zob. artykuł K. Trzęsickiego).

Podążając tropem pytań, za sprawą których filozofia może przyczynić się do skuteczniejszego nauczania matematyki, dochodzimy do kwestii kolejnej. Otóż często przedstawia się matematykę jako narzędzie – narzędzie, które warto opanować po to, by móc poprawnie rozumować, formułować trafne przewidywania czy skuteczniej przekształcać świat. Innymi słowy zwraca się uwagę na bogate zastosowania matematyki. Wybierając taką strategię popularyzacji (a tak właśnie uczyniono w omawianym projekcie), przyjmuje się domyślnie, że świat wokół nas jest matematyczny. Ale dlaczego tak jest? Skąd wynika ta jego zdumiewająca cecha? Są to najgłębsze pytania filozoficzne, którymi warto dopełnić prosty przekaz o mnogości zastosowań. Warto zachęcić ucznia (zwłaszcza humanistę) do sformułowania własnego stanowiska w tej sprawie (omawiając wcześniej typowe odpowiedzi Platona, Arystotelesa, Kanta i innych) i  pokazać w ten sposób, że matematyki nie tylko trzeba się uczyć, ale warto także się nad nią zastanawiać.

Podsumujmy zatem: pozytywna rola filozofii w nauczaniu matematyki polega przede wszystkim  na tym, że zachęca ona do stawiania pytań – pytań kierunkujących myślenie (metoda majeutyczna), pytań o istotę matematycznych pojęć, oraz pytań o stosunek matematyki do świata.

Przejdźmy z kolei do pytania drugiego, w którym główny akcent pada na nauczanie filozofii, a nie matematyki[2]. Z uwagi na specyfikę omawianego projektu (a także kończący poprzednie zdanie przypis) pytaniu temu poświęcę nieco mniej miejsca.

Na początek narzuca się uwaga następująca: gdyby chcieć zachować symetrię z układem wcześniejszych wniosków, to można by stwierdzić, że podobnie jak w nauczaniu matematyki pożądana wydaje się metoda majeutyczna, tak w nauczaniu filozofii winno się stosować metody matematyczne.  To znaczy: precyzyjne definiowanie terminów, aksjomatyzację, formalne dowody itp. Do wniosku tego skłania nadto podobnie ogólny i abstrakcyjny charakter pojęć  używanych w obydwu dyscyplinach (np. z jednej strony mamy byt, a z drugiej – liczbę).

Ponieważ powyższa uwaga jest bardzo ogólna, a jej rozwinięcie wymagałoby dalszego precyzowania o jakie metody matematyczne chodzi, i które z nich można by z powodzeniem wykorzystać, proponuję rozpatrzyć na koniec trochę inny punkt widzenia, mocno zbieżny z przykładem z punktu 2.2. Mam na myśli taką metodę nauczania filozofii, która mimo zachowania wysokiego poziomu abstrakcji nawiązuje do konkretnych pojęć, metod i twierdzeń matematyki. Z grubsza idzie o metodę następującą: (i) wychodzimy od matematycznego „konkretu”, którego opis nie pozostawia żadnych niedomówień (np. od cantorowskiego pojęcia nieskończoności), (ii) omawiamy ów matematyczny punkt wyjścia w kontekście filozoficznym (np. przedstawiamy będące jego źródłem intuicje filozofów czy też stosujemy go do zilustrowania lub rozjaśnienia pewnych kwestii filozoficznych), (iii) jeśli pierwotne matematyczne definicje  okazują się filozoficznie nieadekwatne, próbujemy je przeformułować (np. zmienić cantorowskie ujęcie nieskończoności).

Metoda taka, choć opisana bardzo zgrubnie, ma dwie istotne zalety: zbyt spekulatywnych i dygresyjnie nastawionych filozofów przymusza do ścisłości wywodu, matematyków z kolei wyposaża w pewną ciekawą heurystykę (heurystykę filozoficzną) dochodzenia do nowych pojęć (a w rezultacie: nowych twierdzeń i nowych teorii). Owe dwie zalety, niekoniecznie związane z powyższą metodą,  można uznać za kwintesencję wszelkich prób łączenia matematyki z filozofią.

Przypisy

[1]
Na marginesie pierwszego z pytań warto zauważyć, że uwzględnienie w omawianym projekcie filozofii było inicjatywą samych matematyków, a szczególnie kierującego całym przedsięwzięciem prof. Tadeusza Rzeżuchowskiego.  Już sam ten fakt jest znaczący: okazuje się bowiem, że przedstawiciele innych dyscyplin, w tym tak –  wydawałoby się –  samowystarczalnych jak matematyka, pragną sięgać do filozofii. Kwestia kolejna to bardzo dobre przyjęcie filozoficznej zawartości Archipelagu przez nauczycieli (recenzujących niektóre materiały) oraz uczniów (testujących projekt). Na koniec zaś pewien akcent personalny: otóż w ostatniej fazie realizacji projektu funkcję głównego redaktora merytorycznego (a także specjalisty od pewnych spraw technicznych)  pełnił filozof z wykształcenia: pan Adam Wasążnik.

[2]
Mimo innego rozłożenia akcentów zauważyć trzeba, ze pytanie drugie pokrywa się po części z pierwszym. Dzieje się tak, ponieważ nauczanie matematyki z wykorzystaniem filozofii jest jednocześnie pewną metodą przybliżania niektórych zagadnień filozoficznych.

**********

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii | 5 komentarzy

Informacyjna piramida

Obecny wpis może wyglądać trochę na… odgrzewanie starego kotleta.

Chciałbym powrócić bowiem do tematu, który był dyskutowany w roku ubiegłym pod nagłówkiem „O informatycznym i ogólnym pojęciu informacji”.

To byłby nasz zeszłoroczny kotlet, z którego wybierzemy jednak część najbardziej smakowitą, dotyczącą tzw. „informacyjnej piramidy”.

Temat omawialiśmy na wykładzie, a tak oto anonsowałem go w roku ubiegłym (w jednym z komentarzy):

Czy pamiętacie Państwo kreślony na wykładzie obraz „informacyjnej piramidy”?

U dołu tejże piramidy (którą możemy potraktować jako obraz ludzkiego umysłu, a nawet ludzkiej kultury) sytuują się DANE, czyli pewne niezinterpretowane łańcuchy symboli (teksty, liczby, obrazy itp.); nad nimi sytuują się INFORMACJE, czyli dane zinterpretowane, wplecione jakoś w ludzką świadomość i mające określony sens; na informacjach nabudowuje się z kolei poziom WIEDZY – czyli ogółu informacji zweryfikowanych, a więc dostatecznie dobrze uzasadnionych; nad wiedzą zaś góruje wierzchołek piramidy, który możemy opatrzyć etykietą MĄDROŚCI – byłaby to wiedza poddana wartościowaniu, czyli ta jej część, która jest zgodna z nadrzędnym dla danej jednostki (lub danej kultury) systemem wartości. Mędrcem byłby zatem ten, kto potrafiłby ze swojej wiedzy umiejętnie korzystać, np. szerzyć dobro lub zapewnić sobie szczęście.

Piramida nasza zawiera zatem cztery poziomy – 1) dane, 2) informację, 3) wiedzę i 4) mądrość – poziomy wsparte na twardym gruncie faktów (a więc tego, co dzieje się w otaczającym piramidę świecie). Do przejścia z poziomu 1) na poziom 2) jest niezbędna czynność interpretowania; z poziomu 2) na 3) – czynność weryfikacji czy też uzasadniania; z poziomu 3) na 4) – czynność wartościowania.

Wszystkie te poziomy i czynności składają się, moim zdaniem, na najszerszy kulturowy kontekst pojęcia informacji – informacji, która wywodzi się z danych, ciąży ku wiedzy, a pod pewnymi warunkami może stać się podstawą mądrości.

Dla uatrakcyjnienia powyższego opisu wklejam niżej wykładowy slajd.

Obrazek informacyjnej piramidy

Potraktujmy powyższy obraz  jako  wstępną metaforę (pierwszy szkic) sytuacji człowieka w świecie, który stojąc na twardym gruncie faktów (na obrazku go nie ma), zastanawia się, czy faktycznie droga ku mądrości wymaga pokonywania kolejnych poziomów piramidy…

Zastanówmy się, czy obraz ten stanowi dobry punkt wyjścia do uporządkowania relacji w pojęciowym czworokącie: [dane, informacja, wiedza, mądrość]?
Co trzeba w nim zmienić, dodać, dopowiedzieć… by stał się bardziej adekwatny?

Czekam na komentarze, do których obiecującym wstępem była ciekawa dyskusja na ostatnich zajęciach.

Do komentowania zapraszam, rzecz jasna, nie tylko uczestników zajęć.

Pozdrawiam wszystkich — Paweł Stacewicz.

Zaszufladkowano do kategorii Bez kategorii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 15 komentarzy

W jakim sensie ilościowa teoria informacji
jest fundamentem epistemologii?

Książka Marka Hetmańskiego „Epistemologia informacji”, 2013,  ma do odegrania ważną rolę w polskich dyskusjach epistemologicznych.  Warto ją postawić na półce obok „Przewodnika po epistemologii”, 2013, pod redakcją Renaty Ziemińskiej, której anons zawierajacy spis treści ukazał  się tym blogu w roku 2011.

O pojawieniu się epistemologii informacyjnej  „Przewodnik” powiadamia w artykule Urszuli Żegleń pt.  „Epistemologia a kognitywistyka” oraz  w artykule Marcina Miłkowskiego (także obecnego w tym blogu)  pt.  „Epistemologia znaturalizowana”. Oba składają się  na dział książki  trafnie  przez Redakcję zatytułowany „Nowe tendencje”.  Obie prace, gdy mowa o epistemologii informacyjnej, koncentrują się na twórczości Freda Dretskego,  który w roku 1981 zainicjował tę problematykę książką „Knowledge and the Flow of Information”.  Jest to autor, którego  Marek Hetmański omawia bardzo szeroko (w stosunku do innych omówień)  na blisko 50 stronach.  Widać, że obie wymienione książki są  zgodne w wysokiej ocenie wkładu tego autora,  toteż monografię Hetmańskiego należy postrzegać  jako cenną kontynuację działu „Nowe tendencje”.

Z tym przekonaniem, wracam do dyskusji z prof. Hetmańskim rozpoczętej w lutym przez wpis  „Gödla-Chaitina wizja dynamiki wiedzy jako wiodący nurt nowoczesnej epistemologii„.  W tamtym upomniałem się o większe docenienie roli Gödla i Chaitina.  W obecnym zaś, parafrazując prozą sugestywny dwuwers Norwida „I stąd największym Cezar historykiem, który dyktował z konia, nie przy biurze”, coś podobnego chcę powiedzieć na temat roli i  zasług Karla Poppera jako epistemologu  trzymającego  się gruntu realnie uprawianej nauki.

Nie pretendując do etykiet w rodzaju „epistemologia informacyjna”,  Popper mocno i konkretnie powiązał ilościowe pojęcie informacji z praktyką badań naukowych w „Logik der Forschung”, 1934 i kolejnych pracach.  Bardzo istotne jest to, żeby epistemologia i sprzymierzona z nią metodologia nauk liczyły się z faktem,  że nauczycielką postępowania poznawczego jest historia nauki z jej wiedzą o sukcesach i porażkach przedsięwzięć badawczych. To ona skuteczniej niż konstrukcje terminologiczne Dretskego czy Floridiego przekonuje  nas do tej naczelnej u Poppera zasady: że wyposażenie teorii w możliwie największy zasób informacji powinno wyprzedzać procedury testujące jej  prawdziwość.  Gdy testy wypadają pomyślnie,  zwiększa to wiarogodność teorii,  wcielając ją tym  coraz silniej w całokształt  wiedzy.

Odróżnienie informacji  od wiedzy jest dla epistemologii kluczowe i głęboko intuicyjne. Każdy się zgodzi, że np. Wielkie twierdzenie Fermata tyle samo „mówiło” czyli dostarczało informacji,  Fermatowi i jego współczesnym,  co Andrew Wilesowi i jego słuchaczom, gdy w roku 1993 przedstawiał swój dowód . Nastąpiła jednak za  jego sprawą  kolosalna  zmiana sytuacji poznawczej. Zachowując tę samą  porcję informacji co przez poprzednie wieki, twierdzenie Fermata po jego udowodnieniu  stało się elementem wiedzy matematycznej, którym dotąd nie było.

Toteż  trudno wczuć się w autora,  który uważa,  iż „informacje są informacjami tylko wówczas, gdy są prawdziwe”. Tak M.Miłkowski  w „Przewodniku po epistemologii (s.593) zdaje sprawę ze stanowiska Dretskego.   Ale czyż nie jest tak,  że  twierdzenie Fermata mówi nieporównanie  więcej niż Pitagorasa, skoro to drugie dotyczy tylko równań,  których wyrazy są podnoszone do kwadratu, podczas gdy u Fermata wykładnikami potęgi są sukcesywnie wszystkie liczby naturalne większe od dwóch?

Utożsamiając  informację z wiedzą, która się legitymuje  dowodem prawdziwości,  wchodzi się w konflikt z tą oczywistością, którą we wpisie z 12.IV.2014   Paweł Stacewicz ujmuje słowami: ,,Nad DANYMI sytuują się INFORMACJE, czyli dane zinterpretowane, wplecione jakoś w ludzką świadomość i mające określony sens; na  informacjach nadbudowuje się z kolei poziom WIEDZY  – czyli ogółu informacji zweryfikowanych, a więc dostatecznie dobrze uzasadnionych.”

Oszacowanie, jak wiele informacji przynosi hipoteza jeszcze nie testowana jest nam potrzebne do decyzji, czy ją testować.  Jeśli jej zawartość informacyjna jest  tak szczupła, że bliska banałowi czy tautologii, to szkoda na jej sprawdzanie czasu, uwagi i pieniędzy.  Ale gdy  wchodzi w grę  coś takiego, jak  hipoteza Wielkiego wybuchu, wyposażona w niewyobrażalnie wielki ładunek informacji, to warto było włożyć dziesiątki milionów dolarów w satelitę COBE, który przeprowadzając pomiary mikrofalowego promieniowania tła, stwierdził taką jego wielkość, jaka wynika z teorii Wielkiego Wybuchu.  Od tego momentu teoria ta, zachowując ten sam stopień informacji, co miała w momencie jej postawienia,  uzyskała  o wiele większy stopień wiarogodności, czyli zintegrowania z korpusem wiedzy.

Tak więc, uprawiając realną naukę, a nie  akrobacje definicyjne, znajdziemy się na gruncie ilościowej koncepcji informacji oraz odróżniania informacji od zweryfikowanej wiedzy.  Ilość informacji jest pojmowana przez Shannona i innych jako pewna odwrotność prawdopodobieństwa.  Nie wydaje się, żeby Marek Hetmański, postulując wraz z Floridim oparcie epistemologii na pojęciu informacji, był entuzjastą koncepcji ilościowej.   W różnych miejscach (np.na s.298) tak to wygląda, jakby się od tego dystansował. Mój artykuł,   pod takim samym jak obecny wpis tytułem  jest próbą odgadnięcia, jak daleko sięga ów dystans, a rzeczą Autora byłoby potwierdzić ów domysł lub go uchylić.

Po pierwsze, zgodziłbym się z Autorem, jeśliby miał na myśli to, że nie da się oszacować, ile bitów informacji zawiera Newtona teoria grawitacji, a ile teoria Einsteina.  Tak mocna charakterystyka ilościowa nie jest możliwa. Ale łatwo się przekonać, że ta druga teoria zawiera ich więcej niż pierwsza czyli, krócej mówiąc, jest bardziej informatywna.  Analizuję te relację w cytowanym przed chwilą tekście.   Takie konstatacje porównawcze są chlebem codziennym nauki: kinetyczna teoria ciepła jest bardziej informatywna niż koncepcja cieplika, logika drugiego rzędu — bardziej niż  pierwszego, itd.  Żeby terminologię sharmonizować z szerszym kontekstem, zauważmy, że wśród skal pomiarowych mamy skalę porządkującą przez relacji większości.  Mniej dokładną niż innych, tym nie mniej jest to skala. Jeśli o czymś da się w ten sposób mówić, to owo coś znajduje się w kategorii ilości.

Po drugie, zgodziłbym się z Autorem,  jeśliby sądził,  że co się tyczy pojęcia prawdopodobieństwa w definicji informacji,  epistemologia nie ma pożytku z jego wersji częstościowej przyjmowanej przez Shannona.  Można jednak jego formalizm interpretować w terminach prawdopodobieństwa logicznego (w sensie Keynesa czy Carnapa), co właśnie czyni Popper.  Dostajemy wtedy pojęcie informacji inne niż Shannonowskie; nadal jednak ilościowe, skoro prawdopodobieństwo wyraża się  liczbowo ułamkiem między 0 i 1.  Jeśliby prof.  Hetmański nie chciał mieć do czynienia z prawdopodobieństwem logicznym, to będziemy w tym punkcie stać na różnych pozycjach, bo ja nie mam nic przeciw niemu.  Jeśli jednak nie ma  on w tym względzie oporów, to możemy się znaleźć w jednym froncie.  I wspólnie pracować nad ugruntowaniem epistemologii w ilościowej teorii informacji.

Zaszufladkowano do kategorii Dialogi wokół recenzji, Epistemologia i ontologia, Filozofia informatyki | 3 komentarze

Trzy stopnie autonomii maszyn
Trzeci: nie być maszyną

Nawiązuję tym szkicem do wpisu Pawła Stacewicza,  inicjującego dyskusję na temat autonomii maszyn, a także do mojej pierwszej na to zagajenie reakcji.  Oto teza  obecnego szkicu na temat trzech stopni możliwej ewolucji maszyn w kierunku autonomiczności — aż po tak pełna autonomię, że maszyna przestaje być maszyną. 

Stopień 1:  zdolność do samouctwa
Stopień 2:  zdolność do energetycznego samozasilania
Stopień 3:  zdolność do samostanowienia.

Na stopniu 1 maszyna do rozwiązywania problemów (o takiej tu mowa) nie jest poddana bez reszty dyktatatowi sterującego nią programu, lecz potrafi  stawiać problemy i je rozwiązywać  w wyniku samoprogramowania oraz  samodzielnego pozyskiwania danych.

Ten stopień był szeroko i wnikliwie rozważany w głosach dyskutantów,  toteż poprzestanę na powyższym dość ogólnikowym sformułowaniu  i odsyłam do  tych bardzo niekiedy ciekawych głosów.

Na stopniu 2 maszyna nie jest zdana na zasilanie energią z zewnątrz (jakim jest też  zasilanie z baterii wymagającej ładowania), lecz może samodzielnie pozyskiwać energię z otoczenia  oraz  przetwarzać ją w sobie na odpowiednią postać (np. chemiczną na kinetyczną), jak to czynią organizmy. Bez tego maszyna będzie zdana na człowieka; jeśliby mój komputer umiał i chciał mi jakoś zaszkodzić, to go po prostu wyłączę z prądu.  To żadna autonomia.

Zwrócenie uwagi na ten stopień zdaje się być, jak dotąd, jedynym głosem w dyskusji. Byłbym ciekaw opinii innych uczestników.

Na stopniu 3 maszyna stawia sobie własne cele i potrafi je realizować niezależnie od woli użytkownika, czy nawet wbrew jego woli. Być może,    ta faza mogłaby nastąpić niejako automatycznie w wyniku osiągnięcia stopni poprzednich.  Mając bowiem własne problemy i możliwości ich rozwiązywania bez konieczności otrzymywania algorytmów (software’u) od człowieka,  oraz mogąc samodzielnie pozyskiwaną energię, maszyna miałaby za cel rozwiązywanie postawionych przez nią czyli jej własnych problemów.  Dokładnie tak, jak czynią to ludzie. A wtedy stałaby się istota wolną i rozumna jak człowiek.  A zatem na tym stopniu ewolucji byłaby w pełni autonomiczna, ale nie byłaby już maszyną.

Sytuacja, która by  zaistniała w tej trzeciej fazie ewolucji byłaby wysoce niebezpieczna. Ludzkość ma i tak dostatecznie wiele kłopotów z silnie konfliktowymi celami niezliczonych indywiduów i zbiorowości —  konfliktami o takiej skali,  że istnieje ryzyko zniszczenia przez nie planety.  Sytuację te jeszcze bardziej by skomplikowało pojawienie się populacji autonomicznych maszyn z trzeciej fazy ewolucji.  Na ten rodzaj problemów zwraca w dyskusji uwagę Zaza w komentarzu z 24 marca.

Temat ten pojawia się w utworach z kategorii fikcji naukowych, a w tej klasie czołowe miejsce zajmuje Isaac Asimov.  Jego pomysł polega na tym,  żeby doprowadzić ewolucję do trzeciego stopnia, ale z ta modyfikacją, żeby producent robota wyposażał go w oprogramowanie, które powoduje następujący rezultat ujęty przez Asimova w „trzech prawach robotyki”. Oto one.

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Działanie tych praw Asimov opisuje w powieściach o bardzo pomysłowej fabule, np. w „The Robots of Dawn”.  Czy jednak konstruowanie maszyn  według tych praw nie odebrałoby im autonomii?   Sadzę, ze autonomia moralna człowieka polega na tym,  że nie ma takiego drugiego człowieka, któremu miał obowiązek być  posłuszny, chyba że zobowiąże się do tego dobrowolną umową.  A jeśli zrezygnujemy z praw robotyki podporządkowującym bez reszty maszyny człowiekowi, to znowu trzeba będzie uznać, ze już nie są one maszynami. Na temat tego rodzaju autonomii przysługującej wolnym  ludzkim indywiduom wypowiadam się we wpisie „Kto ma prawo ustanawiać normy i sankcje?”.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 2 komentarze

Kto ma prawo ustanawiać normy i sankcje?
Czy wystarczy dysponować środkami przymusu?

§1. Te dwa pytania i kilka pomocniczych  są  kierowane do Autora następującego tekstu zawierającego  definicję  obowiązywalności.

Let us assume that the only source of duties are orders.  Let us now consider a situation in which person B is obliged to cause the fact that X. Then we would have:

Df/ob:  Person B should to cause the fact that X <=>def  {there is a person A that says to person B: „Person B should cause the fact that  X” person B is convinced that  [statement „Person B should cause the fact that X” expresses person A’s wanting  failing to fulfill this wanting will put B under the threat of some sanction ( not necessarily from person A.)]}

[PP.1]   Pierwsze pytanie pomocnicze służy upewnieniu się, czy dobrze rozumiem Df/ob. W tym celu podaję następującą parafrazę (pogrubienie czcionki wskazuje na odpowiedniki symboli logicznych; sposób oddania „should” ma pokrycie w kontekście:  „This formula should also concern moral duties”.

Df/ob*:  B ma moralny obowiązek spowodować znaczy tyle, co: [1] istnieje A, który mówi osobie B, że powinna spowodować X , przy czym  [2] B rozumie, że jest to wyraz woli osoby A  oraz że [3] niespełnienie tej woli grozi określoną sankcją.

PP.2] Kolejne pytanie pomocnicze: jak w Df/ob rozumie się termin „sanction”?  Czy tak nazwałby Autor każdą groźbę wygłaszana przez kogokolwiek, kto jest w stanie ją spełnić w przypadku gdy adresat odmówi wykonania rozkazu?  O to nie powinno się go podejrzewać.  Nikt kto zna polski nie uzna, że zwrot „ma obowiązek”, w tym też moralny, dotyczy osoby, od której rabuś żąda oddania portfela pod groźbą użycia noża.  Jeśliby ofiara miała taki obowiązek, to by zarazem znaczyło, iż napastnik ma prawo do napaści, a zatem byłoby niedopuszczalne sądownie go za to karać.  Trzeba więc uznać, ze groźba jest sankcją tylko wtedy, gdy grożący ma (a) prawo rozkazywać danej osobie oraz (b) prawo stanowienia sankcji.  To drugie nie koniecznie wynika z pierwszego; jest np.  doktryna moralno-pedagogiczna, że rodzic ma prawo rozkazywać dziecku, ale nie ma prawa go karać za brak

posłuchu (zamiast kary zaleca się perswazję).   Skoro obowiązek powstaje dopiero wtedy, gdy nadawcza rozkazu i sankcji ma do tych obu uprawnienia, to skąd się te uprawnienia biorą (inaczej: co jest ich legitymizacją)?   To jest pytanie pod adresem Autora,  naprowadzające na podwójny problem tytułowy tego wpisu.

[PP.3]  Ostatnie  pytanie pomocnicze dotyczy poprzedzającego definicję zdania „Let us assume that the only source of duties are orders”. Czy nazwanie tego założeniem trzeba tak rozumieć, że Autor podanej definicji nie akceptuje, traktując ją np. tak,  jak założenie w  dowodzie nie wprost? A może jako człon dylematu (tytuł artykułu jest „Dilemmas […]”), którym autor chce ubogacić problematykę, a sam go nie rozstrzyga?   Czy też może nazwanie założeniem nie przeszkadza, że jest to zarazem teza akceptowana?

Tymczasem, nim nastąpi odpowiedź,  to dla celów dyskusji — żeby mieć przedmiot pouczającej, jak mniemam, polemiki — przyjmuję ostatnią z wymienionych ewentualności, łącząc to z oświadczeniem,  że się z definicją Df/ob* nie zgadzam. Nie nadaje się ona na definicję sprawozdawczą ani  pod względem terminologii etycznej ani prawniczej. A jako projektująca ma konsekwencje sprzeczne z oświeceniow0-europejską koncepcją prawa, za którą się opowiadam.  Polemika nie będzie trudem  daremnym,  istnieją bowiem osoby rozumiejące powinność moralną po myśli Df/ob*. Jest więc z kim polemizować.  Jeśli zaś Autor stanie  po mojej, a nie po ich stronie, okaże się cennym  sprzymierzeńcem.

§2.  Historia doktryn politycznych i prawnych zna co najmniej dwie doktryny, z których każda  dalece inaczej odpowiada na pierwsze pytanie tytułowe, zgodnie natomiast odpowiadają w sposób przeczący na drugie.  Oznaczę je skrótami TAT i TUS.

TAT — Teoria Autorytetu Transcendentnego
TUS — Teoria Umowy Społecznej.

Panująca na rozległych obszarach przez długie wieki była TAT, w średniowieczu wyrażana zwięźle maksymą,  że (legalna) władza pochodzi od Boga. TUS jest ideą stosunkowo świeżej daty i ma ograniczony zasięg terytorialny.  Jest ona zrodzonym w Europie  nieodrodnym dzieckiem myśli oświeceniowej.  Z tego względu można ją nazwać ideą oświeceniowo-europejską.

Konkretne treści TAT i procedury jej wcielana bardzo się różnią w zależności od miejsca i czasu. To, co  jest im wspólne to powoływanie się na jakiś potężny czynnik, zewnętrzny względem zbiorowości, która  ma  danej władzy podlegać. Oczywiście przez bardzo długie wieki, gdy w żadnym społeczeństwie nie kwestionowano  religii, autorytetem legitymizującym władzę było panujące bóstwo.   Niekiedy samego władcą ogłaszano bogiem.  W systemie politeistycznym nie musiało  to szokować. Jeden bóg więcej nie naruszał reguł systemu, wszak nie wchodził w uprawnienia  innych bóstw, mając przydzielony sobie własny obszar kompetencji,  np. władanie Rzymem.

W systemie monoteistycznym nie było mowy, by monarcha mógł uchodzić za istotę boską, ale jakże wielką miał powagę i władzę, gdy było bezsporne, iż rządzi z woli Boga i w jego imieniu.  Uczestniczył tym samym w prerogatywach najwyższego rozkazodawcy. Dlatego podobnie jak papieże (noszący do niedawna  potrójną koronę) miał  niejako licencję od samego twórcy, żeby skupiać w  swojej osobie potrójną władzę: ustawodawczą, wykonawczą i sądowniczą.

Certyfikatem tego, że monarcha jest realnie boskim namiestnikiem był obrzęd koronacji i pomazania olejem  świętym przez biskupa.  Pretendentem do korony czyniły przyszłego monarchę reguły sukcesji tronu.  Wymagało to czasem sporej maestrii w ich interpretacji, jak np. wtedy,  gdy powoływano na tron Jagiełłę, którego pochodzenie miało się nijak do rodu Piastów , a wszak to ich potomkowie mieli byli prawomocnymi dziedzicami  polskiego tronu.  Rozwiązano problem  drogą objęcia tronu przez Jadwigę, która  bezpośrednio wywodziła się  z Andegawenów, ale jako prawnuczka Władysława Łokietka, z którym się kiedyś Andegaweni skoligacili, miała tytuł do tronu polskiego, gdy zabrakło bliższych potomków.  To ją legitymizowało jako królową,  a jej związek małżeński z Jagiełłą potraktowano jako tytuł do uzyskania także przez niego  godności króla. Tej misternej konstrukcji dopełniła koronacja obojga.  Waga, jaką przypisywano do genealogicznych reguł sukcesji wiązała się z mitem założycielskim dynastii,  który opowiadał o znakach bożych destynujących na władcę  praprzodka rodu, a więc i jego potomków.   Znaki te bywały nieraz  dostarczane przez aniołów, jak w opowieści o chrzcie Chlodwiga króla Franków, czy o Piaście kołodzieju, którego  dom pobłogosławili, w zamian za wielką gościnność, aniołowie pod postacią wędrowców.

Tego rodzaju historie pokazują, jak silna jest potrzeba legitymizacji, skoro mobilizowano taki potencjał wyobraźni, wiary religijnej oraz wiedzy genealogicznej i jurystycznej, żeby nie było wątpliwości co do prawomocności władzy.  A zatem doświadczenie historyczne uczy, że nie jest tak —  jak postuluje Df/ob — że wystarczy pokazać bezwzględną siłę, zdolną do wymierzania kar, żeby członkowie danej zbiorowości mieli i odczuwali czuli moralną powinność wypełniania woli władcy.

§3.  Ten typ legitymizacji zanikał w miarę,  jak  w toku ewolucji kulturowej traciła na znaczeniu legenda religijna.   Ubywało monarchii, a tam gdzie one pozostały, zamieniały się w monarchie konstytucyjne,  gdzie król był tylko jednym z elementów w strukturze władzy,  z rolą przydzieloną mu przez konstytucję, co w żadnej mierze nie czyniło go dzierżycielem pełni danej  od Boga władzy.  Nie znaczy to jednak, że skończyła się metoda legitymizowania władzy przez czynnik transcendentny  Stała się nim Historia — wedle doktryn głoszonych przez Hegla i Marksa.  W filozofii Hegla pojawił się  Duch Historii – Geist der Geschichte.

Nie miejsce tu na zdawanie sprawy z niebotycznych spekulacji Hegla, odnotujmy go więc tylko jako pierwszego pomysłodawcę, żeby się następnie skupić na doktrynie, która się wyłoniła z pomysłu Hegla,  przybrała jednak postać wielce odmienną. Karol Marks miał aspiracje do uprawiania filozofii jako nauki ścisłej, określanej przez marksistów   jako „jedynie naukowa”.  Duch był w niej stanowczo nie na miejscu. Zastąpiły go Prawa Historii, za których odkrywcę się uważał, podobnie jak Galileusz i Newton są uważani za odkrywców podstawowych praw przyrody.  Historia jest postępem ku coraz wyższym formom życia społecznego  (ta myśl jest jeszcze z Hegla),  a prawem, które ten postęp określa jest wyłanianie się coraz bardziej efektywnych środków produkcji dóbr materialnych: zaczęło się od zbieractwa żywności zastanej w przyrodzie (łowiectwo etc.) uprawianego przez koczujące hordy. Potem nastało osiadłe życie rolnicze, z którego się wyłoniła bardziej złożona struktura społeczna i określony typ kultury, potem rzemiosło i handel, a wraz z tym powstanie miast i kolejna ewolucja struktury społecznej, wreszcie nastąpiła epoka przemysłowa. W każdej epoce dziejów istnieje klasa dysponująca  na zasadzie własności najbardziej  w danym czasie efektywnymi środkami  produkcji. Jest więc ona  nośnikiem postępu, ale zarazem, korzystając ze swych przewag. motywowana egoizmem, dopuszcza się wyzysku i ucisku  klas pozostałych.  Tak ziemianin uciskał chłopa, a w epoce przemysłowej kapitalista  w sposób bezwzględny wyzyskuje robotnika.

Wyzysk polega na tym, że choć robotnik wytwarza całą wartość do dodatkową,  czyli to, co różni produkt od surowca (np. szwaczka wytwarza odzież, która ma większą wartość niż użyty w niej materiał), należy mu się więc całość zysku, kapitalista prawie cały zysk zabiera, zostawiając robotnikowi tylko tyle,   ile najkonieczniejsze, żeby miał siły do pracy. Robotnik jest przeto tym, który jako jedyny wytwórca dóbr tworzy postęp ludzkości, a zarazem jest pozbawiony własności środków produkcji. Ta druga cecha czyni z klasy robotniczej zbiór istot szlachetnych, doskonałych  altruistów, gdyż tylko posiadanie środków produkcji rodzi w człowieku chciwość i chęć wykorzystania przewagi ekonomicznej do wyzysku innych.

Tą ścieżką rozumowania zbliżamy się do zagadnienia legitymizacji władzy. Oto, rozumują marksiści, jeśli zlikwiduje się własność prywatną ziemi, fabryk i sklepów, a wraz z tym klasę posiadaczy, szlachetna klasa nie-posiadaczy wyłoni z siebie swych najlepszych przedstawicieli, którym ta najlepszość da legitymację do rządzenia. Tak się modlił chrześcijański komunista Julian Tuwim: „daj rządy mądrych, dobrych ludzi, mocnych w mądrości i dobroci”. Dzieje się to przez takie fazy, że najlepsi przedstawiciele klasy robotniczej organizują się w jej awangardę, którą jest partia komunistyczna. Ta wyłania z siebie elitę, zwaną zwykle komitetem centralnym. Ona z kolei dysygnuje najlepszych spośród siebie do sztabu złożonego z kilku lub kilkunastu towarzyszy najwybitniejszych, a jeden z nich, wolą owej elity staje się przywódcą całej klasy robotniczej, co oznacza przywództwo całego państwa, ponieważ to robotnicy jako najlepsi synowie narodu mają tytuł, żeby mu przewodzić.  Tak wyłoniony przywódca skupia w sobie w najwyższym stopniu wszystkie cnoty intelektualne i moralne: jest najwybitniejszym w kraju  filozofem, nieomylnym sternikiem gospodarki, genialnym strategiem w czas wojny. Taki niedościgły wzór, należący niejako do sfery transcendencji,   stanowili Lenin i Stalin.

Nie może więc być cienia wątpliwości, że ktoś taki zasługuje na pełnię władzy, a ponieważ jest w swych ustawach i rozkazach nieomylny,  w intencjach bezgranicznie szlachetny i jedynie dobro powszechne mający na względzie, podporządkowanie się jego woli jest powinnością moralną.

I tak dałoby się nadać zrozumiałość (trudną do osiągnięcia na innej drodze) definicji obowiązku oznaczonej wyżej w §1  jako Df/ob*.  Oprócz naszkicowanego wariantu marksowskiego istnieje jeszcze wariant, w którym zamiast klasy społecznej występuje naród noszący znamiona narodu wybranego, jakim w doktrynie nazistowskiej mieli być Niemcy. Także za tą koncepcją stoi niemały trud  niektórych umysłów filozoficznych, ale dla egzemplifikacji,  jak dałoby się  uzasadnić Df/ob* wystarczy nam ta jedna opowieść fantastyczna, jaka stworzył marksizm-leninizm.

§4. Cały powyższy wywód redukujący Df/ob* do absurdu stałby się zbędny, jeśli miałoby się pewność, że Autor rozumie termin „sankcja” w taki standardowy sposób, jak to jest przyjęte w teorii prawa. Ale skoro w kontekście nie znajdujemy takiego wyjaśnienia, rzeczony wywód może skłonić Autora definicji do odpowiednich dopowiedzeń.  Można je sobie wyobrazić w ten sposób, że zakończenie definicji

„za niespełnienie woli A jako rozkazodawcy, B zostanie poddany groźbie zastosowania  sankcji”  zastąpi się sformułowaniem:

„za niespełnienie woli A jako rozkazodawcy, B zostanie poddany sankcji — rozumianej jako zagrożenie karą wymierzoną według obowiązującej procedury prawnej”.

Rozumienie cytowane po myślniku jest tym standardowo przyjętym w teorii prawa. Procedura prawna jest określona normą ustanowioną przez prawowitą władzę. Zawiera się w niej określenie organu władnego ustanawiać normy (jak  parlament) oraz organu władnego stosować daną sankcję (jak sąd lub określony szczebel  administracji). A zatem,  żeby jakieś zagrożenie mogło być rozumiane jako sankcja, musi istnieć władza uprawniona do stwarzania obowiązków poprzez normy, rozporządzenia, czy wyroki.

Żeby być władzą, czyli mieć tytuł do nakładania obowiązków,  nie wystarczy wydawać rozkazy i stosować represje wobec odmawiających posłuchu.  Gdyby takie pojmowanie władzy głosiła Df/ob*, przyznawałaby ona znamię czynu legalnego każdemu przestępstwu wymuszenia czegoś groźbą. Jeśli nie ma w niej takiej intencji, to powinna tej definicji towarzyszyć definicja prawomocności władzy.

Próbą dostarczenia takiej definicji są teorie autorytetu transcendentnego (TAT).  A jeśli  trudno jest  nam akceptować  konsekwencje z nich płynące, trzeba się rozejrzeć za alternatywą. Są nią teorie umowy społecznej (TUS).   Ale temat to osobny i na tyle rozległy, że trzeba go odłożyć do innego razu.

Dane bibliograficzne.  Definicja Df/ob znajduje się w odcinku 4.2 w artykule Anny Brożek i Jacka Jadackiego „Dilemmas in the Theory of Imperatives” zawartym w zbiorze „Theory of Imperatives from Different Points of  View”. Redakcja: oboje w/w autorzy  oraz Berislav Zarnic.  Wyd. Semper, Warszawa 2011.

Zaszufladkowano do kategorii Dialogi wokół recenzji, Filozofia polityczna | 2 komentarze

Inwencja a losowość
Głos w kwestii maszyn autonomicznych

Pogląd  o wyłącznie losowym charakterze aktów twórczych budzi mój sprzeciw, gdyż brakuje dlań potwierdzenia w moim, a pewnie też innych osób,  doświadczeniu  wewnętrznym.  Gdy mam do rozwiązania jakiś problem, to (1) uruchomienie procesu rozwiązywania bierze się z mojej woli; nie znajduję tu nic losowego.   Zgoda, ze od tego momentu (2) może działać jakiś proces losowy poza moją wolą i świadomością: zapewne jakieś  elementy przemieszczają się w bezładnych ruchach, tworząc różne struktury.  Dopiero gdy się struktura taka uformuje, wynurza się na powierzchnię strumienia świadomości.   Ale nawet gdy istotnie jest ona wynikiem losowym,  to już proces akceptowania jednych rozwiązań i odrzucania innych nie ma takiego charakteru.  Jeśli mam wierzyć świadectwu mojej świadomości, to rzecz wygląda tak, że  (3) dysponuję pewnymi kryteriami akceptowalności wyniku.

Zdolność twórcza, jaką jest pomysłowość,  jest cechą stopniowalną.  W jakim ma się ją stopniu, prawdopodobnie zależy od każdego z czynników, też stopniowalnych, na każdym z wymienionych wyżej trzech etapów.  (1*) Wola rozwiązania jest silniejsza lub słabsza (2*) generator wyników losowych wyników mniej lub bardziej produktywny; (3*) posiadane kryteria akceptacji są  mniej lub bardziej liczne, mniej lub bardziej miarodajne itd.

Co może stąd wynikać dla kwestii, jak budować maszyny autonomiczne, tzn. umiejące stawiać problemy i rozwiązywać je  mocą  własnej inwencji? Taka maszyna powinna być wyposażona w  generator losowej produkcji pomysłów na rozwiązanie problemu, lecz także w kryteria akceptacji.  Dobrze, jeśli będą one dwustopniowe:  stopień wstępny wybiera rozwiązania zasługujące na to, by je poddać procesowi weryfikacji; ta się dokonuje na drugim szczeblu,  gdzie się operuje odpowiednim zestawem kryteriów.

Wybitni matematycy i fizycy (Poincare, Einstein, Heisenberg etc.) wyznają, że w pierwszym etapie kierują się odczuciem piękna teorii,  a gdy się ją zaakceptuje z tego powodu, w następnej fazie dokonuje się sprawdzenia na drodze logicznej (czy nie ma sprzeczności itp.)  oraz (w naukach empirycznych) na drodze eksperymentalnej.  Ten przykład ujawnia pewien problem, na który może napotkać konstruowanie maszyn autonomicznych. Odczucie piękna jest stanem, który ma komponent biologiczny, jak każdy stan emocjonalny.  Są to stany właściwe organizmom lecz niedostępne dla maszyn. Tego rodzaju stanów, wymagających od podmiotu inwencji tego, żeby był zbudowany z białka (czy innego biologicznego emocji), co wykluczałoby z konkurencji twory elektroniczne.

Zaszufladkowano do kategorii Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 3 komentarze

Maszyny autonomiczne.
Co to znaczy i czy kiedykolwiek powstaną?

Niniejszy wpis kieruję przede wszystkim (choć nie tylko) do słuchaczy mojego wykładu „Elementy filozofii i metodologii informatyki” – który prowadzę na wydziale MiNI PW.  Chciałbym zachęcić osoby zainteresowane do dyskusji na tematy, którym częściowy przynajmniej wyraz daje tytuł wpisu. (Dodam w nawiasie, że dyskusja na żywo odbędzie się na najbliższych zajeciach).

Co to znaczy, że maszyna jest (mogłaby być) autonomiczna?
Co łączy hipotetyczną autonomię maszyn ze sztuczną inteligencją?
Czy w historii informatyki (zwłaszcza tej najnowszej) można odnaleźć trop wiodący ku maszynom autonomicznym?
Oto próbka pytań, wokół których mogłyby krążyć komentarze.

Punktem odniesienia dyskusji proponuję uczynić jeden z rozdziałów książki „Umysł-Komputer-Świat” , p.t. „Czy powstaną maszyny autonomiczne?”.
Na dobry początek przytaczam akapit otwierający ów rozdział (cały tekst stanie się dostępny po kliknięciu powyższego linku):

Zdrowy rozsądek podpowiada, że wszelkie maszyny – w tym informatyczne i skomputeryzowane – są, a także będą, tylko i wyłącznie narzędziami w ręku ludzi realizujących za ich pomocą własne cele.
Wyobraźnia  z kolei roztacza przed rozumem fantastyczne wizje maszyn autonomicznych, które byłyby w stanie konkurować ze swoimi pomysłodawcami i konstruktorami.
Który pogląd – ten ostrożniejszy, czy ten śmielszy – ma lepsze uzasadnienie w bieżących dokonaniach informatyki? I  co nas czeka w przyszłości?

Pozdrawiam i zachęcam do zabrania głosu – Paweł Stacewicz.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 33 komentarze

Aksjologiczne źródła autorytetu państwa:
obliczalność systemu, twórcza dynamika elit

Obecny wpis jest tylko zapowiedzią bardziej gruntownych refleksji wywołanych lekturą książki Anny Brożek „Teoria imperatywów i jej zastosowania” (Copernicus Center, Kraków 2012).   Inspiracja okazała się  tak duża,  że powstał materiał na kilka artykułów, a żeby nie obciążać czytelnika takim balastem,  jestem na etapie selekcji. Nim ją ukończę, chcę  podzielić się pewną intencją, co może uczyni zrozumialszymi moje przyszłe uwagi. Ich bowiem  ekscentryczność  (na tle typowej literatury filozoficznej) może okazać się przeszkodą w porozumieniu.

Ekscentryczność polega na tym że fundament aksjologii upatruję w dwóch pojęciach, które są zaczerpnięte z myśli Gödla i Turinga (żadną miarą  nie zaliczanych do koryfeuszy aksjologii),  dopełniając to myślami Maxa Webera i luminarzy ekonomicznej Szkoły Austriackiej – Ludviga von Misesa i Friedricha Hayeka.  Mój kłopot polega na tym,  że ci, co zażyli są z Gödlem mogli nie słyszeć o Weberze, i odwrotnie. Trzeba więc jednym tłumaczyć jedno, drugim drugie i jeszcze obie strony przekonać,  że takie łączenie nie jest od rzeczy. Od tego zaś jeszcze spory kawałek drogi do teorii imperatywów, których obowiązywalność Anna Brożek definiuje w kategoriach autorytetu deontycznego; tego typu autorytetem,  który jest wart najpilniejszej uwagi jest w moim przekonaniu instytucja państwa.

Wspomniane pojęcia fundamentalne to obliczalność oraz twórczość. Jak się mają Gödel i Turing  do obliczalności, to na ogół wiadomo.  Jak  się mają do twórczości, o tym rzadziej się wie, bo nie jest to termin techniczny definiowany  z cała precyzją, lecz środek wyrazu poza   dyskursem ściśle formalnym Turingowi coś się rzekło na ten temat przynajmniej raz (ale w ważnym kontekście), gdy powiedział, że  dowód matematyczny wymaga intuicji i pomysłowości; ujmijmy te cechy w pojęciu twórczości. A że dowód w wersji w pełni sformalizowanej staje się algorytmem,  nie byłoby takich algorytmów bez twórczej aktywności umysłu.  U Gödla wątek twórczości matematycznej pojawia się często np. w jego rozmowach z Hao Wangiem.

Choć dokładna definicja obliczalności pojawiła się dopiero u Turinga, pojęcie to w sposób intuicyjny obecne jest w matematyce od zawsze, i do niego nawiązał Max Weber u progu XX wieku w swej metodologii nauk społecznych, tak oto definiując racjonalne struktury i procesy społeczne: „Zrozumieć w sposób racjonalny możemy w najwyższym stopniu przede wszystkim te struktury sensu, których wzajemne stosunki mają matematyczny czy logiczny charakter„. Dopiero wtedy jesteśmy w stanie wyjaśniać zachowania irracjonalne, np. panikę na giełdzie, gdy się wie,  „jak przebiegałoby działanie, gdyby nie wpływały na nie irracjonalne afekty, a potem uwzględnić owe irracjonalne czynniki jako zakłócenia.”  Weber posuwał się nawet do opisywania w kategoriach algorytmu procedur administracyjnych i sądowniczych, o ile są one w pełni racjonalne. W  metodologii nauk społecznych Weber używa   terminu Brerechenbarkeit w jego dosłownym matematycznym sensie.

Tylko tak funkcjonującemu państwu oraz innym strukturom cywilizacyjnym wróżył Weber sukces, i  za ten rodzaj sukcesu w swej „Protestantische Ethik” gorąco apoteozował cywilizację zachodnią.  Takie państwo ma należyty wśród obywateli autorytet i posłuch dla swych dyrektyw. I tak, widać już związek problematyki obliczalności z kwestią obowiązywalnością norm (stanowiącą centralny temat „Teorii imperatywów”).

Co do twórczej dynamiki elit,  widać z tego, co wyżej się rzekło,  że tworzenie obliczalnych struktur (np.  banków centralnych umiejących panować nad rozgardiaszem rynków) wymaga też  twórczej wizji i rozmachu ze strony elit.  Autorytetem cieszą się ci przywódcy którzy mają wizję, jak prowadzić społeczeństwo ku coraz większej  (w sensie Webera) racjonalności,  w której mieści się  praworządność, wolność, dobrobyt.  Ma też swój rodzaj autorytetu elita uczonych, wynalazców, przedsiębiorców, artystów, która w demokratycznym państwie prawa cieszy się nieograniczoną przestrzenią wolności dla realizowania swych twórczych idei. 

Tylko w takim państwie,  w którym autorytet władzy (kontestowany przez anarchizm) łączy się  z pełnią wolności (negowaną przez totalitaryzm)  cywilizacja dochodzi do szczytu, urzeczywistniając te wartości, którym na imię  obliczalność i wolność.

Zaszufladkowano do kategorii Dialogi wokół recenzji, Etyka, Filozofia polityczna | Dodaj komentarz

Gödla-Chaitina wizja dynamiki wiedzy jako wiodący
nurt nowoczesnej epistemologii

Pytania do książki Marka Hetmańskiego Epistemologia informacji
pod kątem kontynuacji  omawianych przez nią badań

§1. Niniejszy wpis nawiązuje do dwóch recenzji tej książki mających się ukazać w „Wiadomościach Matematycznych”. Jest to mój tekst pt. „Na czym polega związek epistemologii z teorią informacji? Co do jego zrozumienia wnoszą Leibniz, Gödel i Popper?” oraz Pawła Stacewicza „Epistemologia informacji M.Hetmańskiego. Garść uwag polemicznych z punktu widzenia informatyka”.

Nawiązując do  trafnych, moim zdaniem, spostrzeżeń Pawła Stacewicza, że książka nie docenia  roli informatyki i że nie poświęca dość uwagi tak  podstawowym kwestiom epistemologii, jak źródła i granice poznania,  potraktuję te luki w treści w sposób kooperacyjny — jako będące do wypełnienia przez krytycznych dyskutantów. Są to niedopowiedzenia dające się zrozumieć, gdy książka ma  ogarniać  tak rozległy materiał.  Autor zamierzył  omówić w jednej monografii kilka ważnych pionierskich prób oparcia  epistemologii na nowych podstawach —  naukach o informacji. Epistemologia idzie w dobrym kierunku,  gdy przyswaja sobie idee tak  zakorzenione w osiągnięciach nauk matematycznych, przyrodniczych i technicznych,  jak to się udało pewnym pojęciom i wynikom teorio-informacyjnym.  Współtworzą one epistemologię nowoczesną, należącą do tego poglądu na świat,  który  w podtytule blogu nazywamy światopoglądem informatycznym.

Ten właściwy kierunek wskazuje i pomaga w jego rozumieniu książka prof. Hetmańskiego. A kiedy — mając do czynienia z tematem tak rozległym — coś ważnego studium to pomija lub nie zachowuje proporcji,  to od tego by obraz dopełniać czy korygować  jest krytyczna dyskusja z  walnym udziałem ripostującego Autora. Jej zagajeniu służy obecny wpis i  obie wymienione recenzje, wspomagające ten wpis szeregiem uwag bardziej szczegółowych.

§2. Czy  epistemologię informacji Autor zgodziłby się określić mianem  epistemologii teorioinformacyjnej?

Pierwszy  z tych terminów służy za tytuł całej książki,  co by wskazywało,  że ma on objąć wszystkie rozważane w niej koncepcje informacji pod kątem (to mój domysł) ich zastosowań epistemologicznych. Drugi termin funkcjonuje jako hasło w Indeksie terminów, gdzie jest odnoszony do jednej tylko z rozważanych koncepcji: G.Chaitina,  który kontynuuje wyniki matematyczne i zarazem myśl  filozoficzną Gödla, intensywnie przy tym nawiązując do Leibniza.

Wydaje mi się,  że byłoby zrozumialej, biorąc pod uwagę reguły nazwotwórstwa, ten drugi termin  pojmować szerzej;  to znaczy,  objąć nim (zgodnie z brzmieniem nazwy) jako rodzajem (łac. genus)  wszystkie rozważane teorie informacji. Myśl Chaitin dobrze by się zmieściła, jako jeden z gatunków (species),  pod określeniem: epistemologia  algorytmiczna,  ponieważ  Chaitin nazywa swą teorię algorytmiczną teorią informacji.  Dla pozostałych trzeba by stworzyć w takim drzewie klasyfikacyjnym inne nazwy gatunkowe, np.  „epistemologia teorio-entropijna” dla  takich koncepcji jak Shannona czy Wienera.

Propozycja, żeby koncepcję Chaitina nazwać algorytmiczną ma uzasadnienie w jej treści, dotyczy ona bowiem naczelnego problemu w podstawach  informatyki: efektywności algorytmów.   Mamy powody, by sądzić wraz z Gödlem, że źródłem algorytmów jest intuicja matematyczna; jej to bowiem zawdzięczamy niezbędne do ich konstrukcji aksjomaty arytmetyki, teorii mnogości etc.  oraz logiczne reguły wnioskowania.  Wiemy też od Gödla,  że żaden aktualnie posiadany zasób algorytmów nie wystarcza, by rozwiązać dowolny dobrze postawiony problem matematyczny.  Ta niemożność jest dwojaka:  istnieją problemy, które są (przy danym zasobie algorytmów) nie do rozwiązania. Istnieją też takie, które są rozwiązywalne w zasadzie, ale nie w praktyce, gdyż czas pracy algorytmu przekraczałby te zasoby czasowe, jakimi  realnie dysponujemy.

Jeśli jednak intuicja  dostarczy nowych aksjomatów, to  pewne problemy przedtem nierozwiązywalne dadzą się rozwiązać, a inne,  wymagające nieosiągalnych do tej pory  zasobów czasu, staną się łatwe do rozwiązania w czasie,  którym realnie dysponujemy.

Jest to stanowisko,  które Gödel określał mianem racjonalistycznego optymizmu. Porównajmy go z  epistemologicznym optymizmowi Davida Hilberta, który się wyraził w  jego słynnej sentencji: Wir müssen wissen, wir werden wissen.  Gödel podpisywał się pod tą wiarą,  inaczej jednak interpretując czas przyszły. Nie jako przyszły dokonany, kiedy w pewnym momencie posiadłoby się algorytmiczną metodę rozwiązywania wszelkich problemów, lecz jako czas przyszły ciągły (ang. continuous) — na tym polegający,  że zbiór problemów rozwiązywalnych będzie się wciąż powiększał, ale nigdy nie zostanie  w skończonym czasie wyczerpany, ponieważ, ponieważ świat obiektów matematycznych jest niewyczerpywalny.   Trzeba więc po gödlowsku sparafrazować maksymę Hilberta do postaci: musimy wiedzieć,  i będziemy wiedzieć coraz więcej i więcej, lecz nigdy nie dowiemy się wszystkiego.

§3.  Czy Autor uznaje przewagę epistemologii algorytmicznej Chaitina nad innym odmianami  epistemologii teorioinformacyjnej?

Pora zapytać Autora, nawiązując do obiekcji Pawła Stacewicza,  o dwie rzeczy. Po pierwsze, czy dostrzega on ów walor epistemologii  algorytmicznej, że w wielkim zakresie, mianowicie w sprawie poznania matematycznego,  odpowiada ona na trzy tradycyjne zagadnienia  epistemologiczne, to jest dotyczące źródeł,  kryteriów i granic poznania.

(1)  Źródło wiedzy matematycznej jest  w intelektualnej intuicji. Pojęcie intuicji nie do końca wyjaśnia źródła poznania, samo jest bowiem  w pewien sposób zagadkowe. Tacy autorzy jak Gödel czy Chaitin zdają  sobie z tego sprawę i traktują tę zagadkową zdolność umysłu jako rzecz do wyjaśnienia w dalszych badaniach.

(2) Spełnianie kryterium prawdziwości przypisuje ta epistemologia intuicjom, których owocem są efektywne, sprawdzające się w praktyce, algorytmy.

(3)  Wytycza  ten nurt epistemologii  granice poznania algorytmicznego, a zarazem możliwości ich przezwyciężania, przez co granica staje się ruchoma, z tendencją do przesuwania się  naprzód. Obrazowo to oddaje amerykański wyraz o dynamicznej  treści „frontier” w przeciwstawieniu do statycznego, ograniczającego, słowa”limit”. W tym sensie należy rozumieć zwrot dynamika wiedzy w tytule tego szkicu.

Po drugie,  jeśliby Autor „Epistemologii informacji” przyznał,  że Chaitinowska epistemologia algorytmiczna daje odpowiedzi (przynajmniej cząstkowe)  na podstawowe pytania epistemologiczne, , to zrodzą się z tego  kwestie następne. Jedna jest następująca: czy Autor się osobiście z tym  odpowiedziami zgadza czy nie, i jak uzasadnia swój pozytywny bądź negatywny stosunek?  Druga kwestia dotyczy innych niż  algorytmiczna odmian epistemologii teorioinformacyjnej, a więc tych, którym poświęca  wiele więcej miejsca (jednemu z nich aż 40 stron) niż koncepcji Chaitin (6 stron).  Czy jest tak,  że korzystając z pojęć i wyników takiej lub innej teorii informacji przyczyniają się  one do rozwiązania kluczowych kwestii epistemologicznych?  Należałoby na to odpowiedzieć biorąc kolejno pod lupę propozycje, których autorami są Shannon, Floridi, Dretske, Cackowski, Lubański.

Trzeba się liczyć z odpowiedzią, że nic takiego nie było zamiarem Autora.  To znaczy nie zamierzał on posłużyć się środkami teorii informacji dla postępu i modernizacji epistemologii, lecz omawiał je w innym celu.  Być może cel ten jest do odczytania w książce, a przeoczeniu tej deklaracji winna jest niestaranność czytelnika. Szkoda jednak, bu pozostał on ofiarą tej swojej niestaranności, pozostając w niewiedzy co do intencji Autora. Dlatego cenna by była jego w tym względzie pomoc w postaci zwięzłego wyjaśnienia, jakie są najważniejsze problemy, na które książka ma dać odpowiedź, i jakie to są odpowiedzi.

P.S. Poglądy Chaitina można poznać w stopniu wystarczającym na potrzeby obecnej dyskusji, czytając jego artykuł „Epistemology as Information Theory: From Leibniz to Omega”.   Ramy tego wpisu nie pozwalają na omówienie kluczowego w koncepcji Chaitina  pojęcia kompresji informacji. Sygnalizuję je tylko za pomocą jednego cytatu, zachęcając do zapoznania się z całością tego  frapującego i jasno napisanego tekstu.  Oto ów szczególnie znaczący cytat.

I think of a scientific theory as a binary computer program for calculating the observations. And you have a law of nature if there is compression, if the experimental data is compressed into a computer program that has a smaller number of bits that are in the data it explains. The greater the degree of compression, the better the law, the more you understand the data.

Zaszufladkowano do kategorii Dialogi wokół recenzji, Epistemologia i ontologia, Filozofia informatyki | 13 komentarzy

O światopoglądzie informatycznym
(część II: Pojęcia i niektóre tezy)

Niniejszy wpis ma charakter prowizoryczny. Zdecydowałem się go jednak umieścić ze względu na jutrzejszą prezentację i blogu, i światopoglądu informatycznego na zebraniu w PW.

Wpis ten stanowi kontynuację  już dyskutowanej pierwszej części cyklu „O światopoglądzie informatycznym”. Miałem zamiar zebrać w nim wszystkie ważniejsze tezy ŚPI, „nabudowane” na pewnych podstawowych (wywiedzonych z informatyki) pojęciach. Na razie jednak udało mi się opracować tylko część pojęciową, dotyczącą tez o umyśle i jego informatycznych modelach.

Oto główne punkty tekstu, którego całość można przeczytać tutaj.
(Zarówno niniejszy wpis, jak i sprzężony z nim tekst, zostaną niebawem przeredagowane)

*****

POJĘCIA I WYBRANE TEZY

1. Zdecydowana większość pojęć opisujących światopogląd informatyczny (ŚPI) wywodzi się z informatyki teoretycznej, w ramach której definiuje się je ściśle, w odniesieniu do konstrukcji matematyczno-inżynierskich (jak maszyna Turinga). Specyfika ŚPI polega jednak na maksymalnie szerokiej interpretacji tychże pojęć (np. w odniesieniu do umysłu rozumianego jako system do przetwarzania informacji).

2. Najważniejsze pojęcia informatyczne, które leżą u podstaw ŚPI, są powiązane ze sobą siatką następujących znaczeń:

a. System informatyczny jest pewnym automatem, który przetwarza dane w sposób algorytmiczny (czyli zaprogramowany).

b. Dane są to informacje zakodowane w sposób adekwatny do możliwości przetwarzającego je automatu (np. cyfrowo lub analogowo).
Krócej: dane są tworzywem systemów informatycznych.

c. Informatyczne kody mają moc sprawczą, co rozumie się tak, że odpowiednie sekwencje symboli kodowych powodują (ze względu na  konstrukcję automatu) odpowiednie akcje automatu.
Krócej: informatyczny kod jest kodem sterującym.

d. Algorytm jest to schemat operacji możliwych do wykonania przez pewną maszynę informatyczną: d1) uniwersalną maszynę Turinga UMT (algorytm rozumiany wąsko, choć najbardziej precyzyjnie); d2) jakąkolwiek maszynę (algorytm rozumiany szerzej).

e. Algorytmy – służące do rozwiązywania określonych klas problemów – mają różną złożoność (czasową i pamięciową), która jest miarą ich efektywności. Cechę złożoności przypisuje się również samym problemom: złożoność problemu P jest to złożoność najbardziej efektywnego (czyli najmniej złożonego) spośród wszystkich algorytmów rozwiązujących problem P.

f. Nawet w dziedzinie problemów jasno określonych (a tylko te są domeną informatyki) istnieją problemy algorytmicznie nierozwiązywalne:
f1) bezwzględnie – gdy nie istnieje (w sensie obiektywnym) algorytm rozwiązujący wszystkie szczególne przypadki danego problemu; lub
f2) praktycznie – gdy dla danego problemu nie istnieje algorytm o dostatecznie niskiej złożoności czasowej.
Problemy nierozwiązywalne bezwzględnie nazywa się nieobliczalnymi.

g. Zależnie od przyjętego modelu obliczeń/algorytmizacji (np. turingowskiego lub innego) mówi się o różnych rodzajach obliczalności (i nieobliczalności). Problemy rozwiązywalne za pomocą UMT nazywa się t-obliczalnymi, obliczalne za pomocą innego rodzaju maszyn: nt-obliczalnymi.

h. Moc obliczeniowa maszyny określonego typu (np. cyfrowej; typ maszyny zależy od przypisanego jej modelu obliczeń) jest to zakres  rozwiązywalnych przez nią problemów.

3. Typowa dla ŚPI szeroka interpretacja pojęć technicznych (zob. 2a do 2h), prowadzi do różnorodnych tez i pytań, które dotyczą umysłu i świata.
Stają się one sensowne (i zrozumiałe) pod warunkiem, że założymy wstępnie, iż: (a) umysł stanowi pewien system do przetwarzania informacji, (b) pewne fragmenty świata (lub nawet cały świat) mają określoną zawartość informacyjną –  warunkującą  ich strukturę i działanie.

4. Zgodnie z kolejnością założeń wymienionych w punkcie 3 w centrum ŚPI sytuuje się zagadka ludzkiego umysłu, który z jednej strony przypomina sztuczne systemy do przetwarzania danych (komputery), a z drugiej strony, ma nad nimi poznawczą (szerzej: życiową) przewagę.

5. Z ogólno-naukowego punktu widzenia najlepszy wgląd w zagadkę umysłu daje konstrukcja i analiza (naukowych) modeli umysłu.
Z węższego, tj. informatycznego, punktu widzenia (który jest istotą ŚPI) za najbardziej adekwatną strategię modelowania umysłu uznaje się strategię informatyczną –  zgodnie z nią umysł modeluje się jako taki czy inny system do przetwarzania danych (np. cyfrowy i logicystyczny zarazem).

6. Metodologiczna zaleta informatycznych modeli umysłu polega na tym, że opisują one dobrze bardzo ważną, jeśli nie najważniejszą, funkcję umysłu, jaką jest rozwiązywanie problemów (systemy informatyczne służą właśnie rozwiązywaniu odpowiednio kodowanych problemów).

7. Dzięki konstrukcjom i modelom informatycznym udało się uzyskać precyzyjną wiedzę o różnych poziomach (klasach) złożoności problemów, przed którym staje ludzki umysł (nierzadko wspomagany komputerem). Udało się także zidentyfikować problemy algorytmicznie nierozwiązywalne lub trudno-rozwiązywalne (zwane nieobliczalnymi; zob. pkt 2f).
7a. Istnienie problemów nieobliczalnych, a więc istnienie formalnych ograniczeń technik informatycznych, może skłaniać do  przyjęcia tezy o ponadmaszynowej mocy ludzkiego umysłu – który potrafi ograniczenia takie pokonywać, a przynajmniej identyfikować.

8. Z perspektywy rozważań o złożoności problemów stają się widoczne dwa, sprzężone ze sobą, zjawiska kulturowe: (a) złożoność problemów we współczesnym świecie ustawicznie rośnie; jednocześnie jednak (b) nieustannie wzrasta moc obliczeniowa systemów informatycznych (które wspomagają ludzi w rozwiązywaniu tychże problemów).

9. Rozumiejąc i/lub modelując umysł informatycznie, zakłada się w sposób konieczny, że wypełniające umysł informacje są w określony sposób kodowane. Przyjmuje się zatem istnienie wewnątrz-umysłowego kodu (WUK) – który podobnie jak kody dla maszyn informatycznych jest kodem sterującym, a ponadto może zostać (co najmniej w pewnym przybliżeniu) odzwierciedlony w liczbach.

*****

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | Dodaj komentarz