Horror infiniti

Do niniejszego wpisu zainspirowała mnie dyskusja nad zagadnieniem poznawczego optymizmu, w której pojawiło się pojęcie nieskończoności, a wraz z nim zostało przywołane cantorowskie określenie strachu przed nieskończonością, czyli horror infiniti.
Wydaje mi się, że wątek ów zasługuje na osobną dyskusję – i stąd niniejszy wpis.

Zacznę zgodnie ze swoim belferskim temperamentem. Otóż z moich szkolnych obserwacji wynika, że wielu uczniów odczuwa odruchowy strach przed nieskończonością. Zwykłe liczby, nawet bardzo duże, i zwykłe działania na nich, nawet dość skomplikowane – to jest dla uczniowskiej wyobraźni coś uchwytnego. Gdy natomiast przychodzi policzyć granicę funkcji przy x dążącym do nieskończoności – wtedy zjawia się problem.
Intuicja uczniowska zawodzi na przykład wtedy, gdy pojawia się wyrażenie typu „zero razy nieskończoność” (czyli mówiąc obrazowo: splatają się ze sobą dwa procesy, z których pierwszy prowadzi do wielkości coraz mniejszych, a drugi do wielkości coraz większych), albo wyrażenie typu „jeden do potęgi nieskończoność” (czyli: jeden proces ciąży ku jedynce, a równoległy do niego, ten w wykładniku, pędzi ku nieskończoności). W wypadku pierwszym intuicja uczniowska podpowiada błędnie, że szukaną granicą musi być zero (bo zero razy cokolwiek daje zero), a w drugim, że nieuchronnie musi wypaść jeden (bo jedynka podniesiona do dowolnej potęgi daje jedynkę). Wiadomo tymczasem – o czym pouczają twierdzenia analizy matematycznej i wcale nietrywialny rachunek granic – że odpowiedź każdorazowo zależy od dokładniejszego kształtu „splecionych ze sobą” wyrażeń, a mówiąc nieco inaczej: od tempa opisywanych przez nie procesów. Przede wszystkim od tego, jak szybko dany proces zmierza ku nieskończoności, czyli jak „duże” nieskończoności wchodzą w grę.

Mamy zatem jeden z objawów cantorowskiego horror infiniti: chorobę jakby dziecięcą, bo typową dla osób, które stykają się z nieskończonością po raz pierwszy.
Skąd się ów objaw bierze? Złośliwością byłoby stwierdzić, że z nieuctwa. Wydaje mi się, że po części z trudnej materii zagadnienia, a po części, z odruchowego protestu: „po co to? po co badać funkcje w jakichś abstrakcyjnych sytuacjach granicznych (coraz bliżej zera i coraz dalej, ku nieskończoności), skoro mamy kalkulator/komputer i zawsze możemy obliczyć wartość funkcji dla konkretnego x (bardzo małego lub bardzo dużego); co więcej, możemy obejrzeć wykres funkcji na ekranie”.
O niepoprawności takiego nastawienia dalej.
Teraz zaś przejdźmy do filozofów.

Szczególnie dobrym przykładem filozoficznego horror infiniti jest stosunek do zagadnienia indukcji, indukcji niezupełnej. Otóż zastanawiając się nad istotą myślenia o czymkolwiek (czy to o faktach z życia codziennego, czy to o faktach naukowych), nieuchronnie dochodzimy do wniosku, że każda próba uogólnienia (indukcyjnego) musi być zawodna. Niezliczoną ilość razy wsiadamy do samochodu, przekręcamy kluczyk w stacyjce i ruszamy – nie możemy jednak przyjąć, że tak będzie za każdym razem. Podobnie w nauce: stawiamy dobrze uzasadnione hipotezy, akceptujemy je, bo mają oparcie w dotychczas zaobserwowanych faktach – nie możemy założyć jednak, że jakieś przyszłe fakty ich nie obalą.
Pesymistycznym uogólnieniem tego rodzaju spostrzeżeń jest wszelka myśl sceptycka, głosząca – mówiąc bardzo zgrubnie – że nie ma na świecie nic pewnego, że nie istnieje żadna niepowątpiewalna wiedza ogólna. A nie istnieje dlatego, że musiałaby czerpać swoje uzasadnienie z nieskończonej liczby przesłanek i musiałaby opisywać nieskończoną mnogość możliwości.
Trzeba zauważyć przy tym, że konsekwentny pesymista-sceptyk, podważając słusznie niezawodność indukcyjnych uogólnień, po prostu musi przejawiać horror infiniti. Nie może stwierdzić ozdrowieńczo, że posiadł wiedzę bezwzględnie pewną (o tym że nie istnieje wiedza bezwzględnie pewna); musi lękać się, że wszelka wiedza – również i ta, którą głosi – jest dotknięta zarazą nieskończoności.

A jak się ma nasz horror infiniti do dyskusji, która już rozgorzała w blogu. Moim zdaniem ma się tak, że niektórzy dyskutanci (w tym ja) zestawiają nieskończonościowy charakter niektórych problemów (np. takich, dla których trzeba się liczyć z nieskończonym lub nierozsądnie długim czasem algorytmicznego rozwiązywania) ze skończonością ludzkiego umysłu i otaczającego go fizycznego świata.
Niektórzy powiadają tak: cóż nam po tym, że pewne problemy są rozwiązywalne/obliczalne w zasadzie, skoro do ich faktycznego rozwiązania potrzeba więcej czasu niż liczba mikrosekund od początku znanego nam Wszechświata i/lub więcej cząstek elementarnych niż znajduje się w znanym nam Wszechświecie. A jeśli rzecznicy takich poglądów przyjmą, że umysł ludzki nie dysponuje jakimś przyrodzonym (intuicyjnym?) wglądem w nieskończoność, to mogą (choć chyba nie muszą) odczuwać zrozumiały lęk przed nieskończonością.

******

W tym momencie moglibyśmy stwierdzić smutno, że horror infiniti istnieje, że ma całkiem uzasadnione źródła, i że ci, którzy zastanawiają się nad nieskończonością muszą – w takim czy innym stopniu – ów horror przeżywać.

Moglibyśmy tak stwierdzić gdyby…
No właśnie, gdyby nie fakt, że natura ludzka ma odruchową skłonność do przezwyciężania lęku, a jedna z najbardziej skutecznych terapii polega na oswajaniu (czy może lepiej: przyswajaniu) zjawiska, które lęk powoduje.

I dokładnie taką terapię zastosowano w przypadku nieskończoności.
W toku wielowiekowego rozwoju nauk ścisłych, głównie zaś matematyki, udało się wytworzyć pojęcia, które dały nam lepszy wgląd w zagadnienie nieskończoności (być może pojęcia te odsłoniła ludzkiej wyobraźni matematyczna intuicja). Co więcej udało się zbudować wokół tychże pojęć całe teorie i będące ich częścią (algorytmiczne) rachunki.

Pora ujawnić jakie pojęcia mam na myśli.
Są to: pojęcie równoliczności zbiorów (przede wszystkim nieskończonych), pojęcie granicy (np. ciągu czy funkcji), oraz idea indukcji matematycznej.

Słów kilka o każdym z nich.

Dzięki pojęciu równoliczności zbiorów udało się uchwycić ważkie różnice między różnymi typami nieskończoności, które wcześniej zlewały się w jedno, nie dość jasne jeszcze, pojęcie po-prostu-nieskończoności. Udało się nadto powiązać te typy z różnymi rodzajami liczb (np. innego rodzaju nieskończoność trzeba było przypisać liczbom naturalnym, a innego rodzaju liczbom rzeczywistym). Dostrzeżono także, jako nieuchronny wniosek z twierdzenia Cantora o zbiorze potęgowym, że istnieje (przynajmniej w świecie matematycznych konstruktów) nieskończenie wiele rodzajów nieskończoności. To wszystko mogło wprawdzie wzmóc czyjś horror infiniti (wszak nieskończoność nieskończenie się rozmnożyła), z drugiej strony jednak, sprzyjało przyswojeniu nieznanego.

Dzięki pojęciu granicy – moim zdaniem dużo bardziej płodnym poznawczo niż poprzednie – udało się zrozumieć ściśle, dokąd mogą zmierzać procesy nieskończone. Okazało się, na przykład, że niektóre z nich pozornie tylko biegną w nieskończoność, naprawdę zaś są ograniczone (co pozwoliło uporać się z niektórymi paradoksami starożytnych). Na „granicznym fundamencie” wzniesiono imponujący gmach analizy matematycznej, wraz z kluczowymi dla niej rachunkami: rachunkiem granic właśnie oraz rachunkiem różniczkowo-całkowym.
Co bardzo ważne, z perspektywy tych rachunków możemy spoglądać całościowo, jak gdyby „z lotu ptaka”, na pewne obiekty nieskończonościowe, chociażby funkcje. W formie prostej ilustracji przywołajmy przykład „uczniowski” z początkowej część wpisu. Otóż żaden kalkulator, żaden komputer nie pozwoli nam obejrzeć funkcji w całości – możemy ją „podglądać’ wyrywkowo tylko, w takim lub innym zakresie i powiększeniu. Dzięki analizie matematycznej zyskujemy natomiast precyzyjny obraz całości – widzimy, czy i gdzie funkcja jest ciągła, jak zachowuje się przy punktach nieciągłości, gdzie rośnie, a gdzie maleje, jaką tendencję wykazuje na nieskończonych krańcach swojej dziedziny. Zyskujemy zatem całościowy wgląd w przebieg analizowanej funkcji. To wszystko są niby rzeczy elementarne, ale nader często nie rozumiane.

Dochodzimy wreszcie do idei indukcji matematycznej. Dzięki niej jesteśmy w stanie posiąść wiedzę bezwzględnie pewną o nieskończonym zbiorze obiektów (przeliczalnych). Na przykład taką, że liczność zbioru wszystkich podzbiorów zbioru n-elementowego wynosi dokładnie 2 do potęgi n-tej. W ten sposób (oczywiście nie za pomocą przytoczonego twierdzenia, lecz ogólnie, za pomocą matematycznej indukcji) pokonujemy nieskończoność definitywnie – potrafimy bowiem orzekać prawdziwie o nieskończonych zbiorach obiektów. Za naszą pewność płacimy oczywiście pewną cenę – nie orzekamy bowiem o obserwowanych tu i teraz obiektach świata fizycznego (do których miałaby zastosowanie indukcja nie-matematyczna), lecz o naszych konstruktach teoretycznych, przynależnych do świata obiektów matematycznych (które, być może, ale to już zależnie od interpretacji filozoficznej, odpowiadają w miarę ściśle jakimś zbiorom obiektów fizycznych).

Mimo wszystko jednak coś zyskujemy.
Zyskujemy kolejny wgląd w krainę nieskończoności, która nawet jeśli jest naszym tylko wytworem, napawa nas zrozumiałym lękiem.

******

Tyle tytułem wstępu do dyskusji, którą zagaiłem ze swojej perspektywy, zgodnie ze swoimi filozoficzno-matematycznymi zainteresowaniami.
Czekam na głosy ukazujące inne perspektywy…

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 12 komentarzy

Racjonalistyczny optymizm Hilberta i Gödla — C

Odcinek C.  Potęga intuicji jako źródła algorytmów.

MOTTO.  Rozumowanie matematyczne można uznać w uproszczeniu za połączenie dwóch zdolności, które możemy nazwać intuicją i pomysłowością.  Działanie intuicji polega na wydawaniu spontanicznych sądów, które nie są rezultatem świadomych toków rozumowania. Sądy te są często, ale bynajmniej nie zawsze, słuszne.  — Alan Turing w studium „Systems of Logic Based on Ordinals” , 1939 (Proc. London Math. Soc. ser. 2, 45 ).

§1. Optymizmy nazbyt skrajne: algorytmizm i fudamentalizm.  Autor, który podejmuje temat mocno skomplikowany ma prawo do uproszczeń na wstępie, żeby potem rozsądnie dozować wprowadzanie czytelnika w zawiłość materii.  A gdy dyskurs należycie się rozkręci, pora przejść do  rozróżnień bardziej subtelnych.   W odcinku A mowa była o istnieniu Klubu Optymistów Poznawczych, w B przedstawiłem znamienitych tego klubu patronów bliskich naszym czasom — Hilberta i Gödla. Obecnie trzeba wejść głębiej w wewnętrzne zróżnicowania wśród postaw optymizmu poznawczego.

Istnieje jego postać radykalna, której wyznawcy wierzą, iż nie ma czegoś takiego jak intuicja. Jest  to ich zdaniem dobra wiadomość, gdyż pojęcie intuicji uważają za tak mętne,  nie dość operatywne,  toteż wyparcie go przez wysoce operatywne procedury algorytmiczne zapowiada spektakularne  sukcesy poznawcze, jak np. praktyczna możliwość rozwiązania każdego problemu  naukowego przez należycie zaprogramowany automat  (jak to się w swoim czasie marzyło Leibnizowi).

Obejmiemy tę szkołę myślenia mianem algorytmizmu, a więc jej zwolenników można   nazwać algorytmistami. Mieści się w tej kategorii np. główny nurt myślowy Koła Wiedeńskiego z lat 20-tych i 30-tych minionego wieku, obecnie  zaś obóz tzw. Silnej Sztucznej Inteligencji.  Algorytmizm Koła był niejako skondensowany w projekcie  tzw. logiki indukcji (krytykowanym stanowczo przez Karla Poppera),  w którym zakładano, że punktem wyjścia wszelkiej teorii naukowej są zdania rejestrujące  dane zmysłowe w sposób tak „czysty”, że dokonuje się to  bez udziału czynnika intelektualnego,  jakim ex definitione jest intuicja; z takich zaś zdań dzięki algorytmom logiki indukcji  miałyby się w sposób niezawodny wywodzić prawa nauki.

Był to optymizm przesadzony na parę sposobów. Przeoczono okoliczność, że  spostrzeżenia zmysłowe wyraża  się w zdaniach ogólnych,  jak „to jest okrągłe”, zaś  świadomość ogólności mieści w sobie pojęcie zbioru,  znajdujące się na wysokim piętrze abstrakcji, osiągalnym tylko dla intuicji logicznej.  Przeoczono również i to, że  wszelkie algorytmy,  a więc i te, które by pracowały na rzecz logiki indukcji powstają na gruncie teorii matematycznych; te startują z aksjomatów, a nie ma algorytmów produkujących aksjomaty.

W lepszej sytuacji  niż Koło Wiedeńskie zdają się być algorytmiści z obozu Silnej Sztucznej  Inteligencji.  Działają oni w tej wierze, że są w stanie stworzyć algorytmy heurystyczne, czyli prowadzące do odkryć naukowych (co tradycyjnie uważano za domenę intelektualnej intuicji),  a to dzięki temu, że mają możliwość  symulowania   pracy mózgu jako  twórczego autora odkryć. Tego projektu nie da skrytykować tak prosto,  jak w przypadku projektu wiedeńskiego, nie dysponującego taką  technologią.  Może kiedyś jakiś Smith lub Kowalski wyprodukuje sztucznego Hilberta lub Gödla, ale nie mając prawa do odrzucania tego z góry, nie mamy też obowiązku z góry w to wierzyć.

Drugi rodzaj  optymizmu,   który też  jest  przesadny, ale w przeciwnym kierunku, to fundamentalizm teoriopoznawczy. Cechował  on  Kartezjusza, po nim fenomenologów, a także (choć o inny chodziło fundament) wspomniane wyżej Koło Wiedeńskie oraz, ogólniej, nurt pozytywistyczny.  Pozytywizm z jednej strony, z drugiej zaś inspirująca się Kartezjuszem fenomenologia podzielają wiarę  w istnienie  niezawodnego,  nie dającego się  zakwestionować, i danego raz na zawsze fundamentu poznania, choć różnią się radykalnie co do jego natury.  U Kartezjusza jest to  intuicja intelektualna typu”Cogito”. Dla Koła Wiedeńskiego — elementarne dane zmysłowe. Punkty wyjścia tak odległe,  że trudno o większy dystans, ale w obu przypadkach traktowano uprzywilejowaną w danym systemie kategorię jako niewzruszony fundament całego gmachu  poznania.

Zaprzeczenie fundamentalizmu bywa określane jako fallibizm, a najdzielniej bodaj stawiają mu czoła różne odmiany pragmatyzmu.  Toteż  należałoby w tym kontekście poświęcić pragmatyzmowi więcej uwagi, ale żeby nie przeładować obecnego tekstu, odsyłam do artykułu  w periodyku „Studia Philosophiae Christianae”  pt. „On advancing frontiers of science.  A pragmatist approach”.  

Tutaj wystarczy wspomnieć, że pragmatyzm, świadom nierzadkich „wpadek” intuicji w dziejach nauki i filozofii, upatruje w fenomenie intuicji przesłankę do poznawczego optymizmu nie dlatego, że miałaby  ona na zawsze moc i trwałość fundamentu (jak np. sądził Kartezjusz o  Cogito), lecz w tym, że naprowadza na śmiałe przypuszczenia.  Jedne z tych przypuszczeń się potem sprawdzają inne nie, a gdy się sprawdzają by tak rzec, uporczywie, w zastosowaniach nie tylko teoretycznych lecz — co nie mniej istotne — w  praktycznych, to jest to certyfikat wprowadzający daną intuicję do panteonu wiedzy. Tak np. intuicja, by uzupełnić zbiór liczb o zero stworzyła teorię arytmetyczną sprawdzającą się wiekami w nieprzebranej masie zastosowań; na tej min. podstawie pragmatysta uznaje niesprzeczność i  prawdziwość arytmetyki.

§2.  Intuicje konserwatywne versus nowatorskie. Za którymi podążać? Próbując ocenić wiarogodność poznawczą intuicji, trzeba  zauważyć,  że  obejmuje się tym słowem dwa bardzo różne rodzaje aktów poznawczych, z których każdy ma swoje plusy i minusy. Adaptując do tego celu pojęcia polityczne, można mówić  o istnieniu intuicji konserwatywnych oraz intuicji nowatorskich.  Ten dobór określeń pomaga rozpoznać owe obecne po każdej stronie „za” i „przeciw”.  Konserwatyzm i nowatorstwo  w życiu społecznym tak się wzajem dopełniają,  jak układ hamulcowy i układ napędowy.   Podobnie w nauce.  Jej napędem są nowe idee,  jak te, z których powstały teoria grawitacji Newtona, geometrie nieeuklidesowe, teoria mnogości Cantora,  teoria promieniotwórczości (z jej początkami  w intuicjach Marii Skłodowskiej-Curie), teoria kwantów i tyle innych.

Łączyły się one z odrzuceniem dawniejszych mocno utrwalonych intuicji. Leibniz zdecydowanie odrzucał teorię grawitacji w imię tej intuicji,  że nie jest możliwe oddziaływanie fizyczne na odległość (actio in distans);  zwalczał też  koncepcję nieskończonego zbioru liczb w imię intuicji, że całość nie może być równa swej części właściwej (a taka równość cechuje zbiory nieskończone).  Kantowska intuicja przestrzeni nie dopuszczała innych geometrii niż euklidesowe.  Przed ideą promieniotwórczości bronili się obrońcy niepodzielności  atomu.  I tak dalej,  nie brak  brak tu przykładów o tyle efektownych, że nosicielami błędnych intuicji konserwatywnych bywali autorzy genialnych intuicji nowatorskich na innych polach, jak Leibniz w  swych paru pionierskich  rolach:  twórcy  analizy matematycznej,  inicjatora algebry logiki, czy  prekursora informatyki.

Intuicja konserwatywna przypomina mechanizm nawyku. Utrwalone nawyki  często czynią nasze działania efektywniejszymi niż próbowanie czegoś od nowa, zapobiegając porażkom niewczesnych nieraz prób. Tak ustabilizowany stan nauki słusznie się broni  przed nie  dość przemyślanym nowatorstwem.  Gdy biologowie radzieccy rzucili wyzwanie odwiecznemu poglądowi o dziedziczeniu przez organizm cech rodzicielskich, nauka się obroniła przed tą niedorzecznością, trwając konserwatywnie przy dawnym poglądzie.  Podobnie odrzuciła „rewelacje” z drugiego krańca spektrum, mianowicie rasistowskie.

Powstaje pytanie,  skąd wiedzieć, czy zachować się innowacyjnie, czy konserwatywnie, gdy chcemy posunąć naprzód wiedzę, czy to teoretyczną czy praktyczną.  Weźmy na warsztat pouczający epizod z historii konfrontowanych z praktyką poglądów politycznych.  Niech będzie to ewolucja  tych polityków  PRL, którzy sobie zapracowali na miano reformatorów zorientowanych (jak na ówczesne warunki) liberalnie, kierowali się więc po części jakimiś własnymi  intuicjami, odmiennymi od doktryny oficjalnej z jej anatemą dla liberalizmu.  Morał, do którego dojdziemy jest następujący.  W starciu dwóch intuicji, tej konserwatywnej, wyniesionej  z kursów markszizmu,  i tej drugiej, czerpanej z własnych obserwacji i przemyśleń,  w miarę upływu czasu zaczyna dominować ta druga. Dzieje się tak za sprawą coraz bardziej dotkliwych doświadczeń, uchwytnych nawet rachunkowo.

sobie zasłużył na miano teoretyka polityki, ale takiego, który refleksję teoretyczną uprawiał nie  w bibliotekach, lecz pod ciśnieniem  bieżącej praktyki. Mam na myśli Mieczysława Rakowskiego, którego wielotomowe pamiętniki dają obraz przemyśleń rewidujących jego  wyjściowe pozycje wpisujące się  zrazu  bez reszty w ekonomię i teorię polityczną marksizmu.

Marksistowska intuicja gospodarki tak się przedstawia,  jakby za model gospodarki państwa brać patriarchalne  gospodarstwo domowe roztropnie zarządzane przez głowę rodziny. Jeśliby każdy członek rodziny wydawał pieniądze według swego widzimisię, bez takiej odgórnej koordynacji, rodzina popadłaby w ruinę. Taki właśnie koniec wieszczył Marks kapitalizmowi, gdzie każdy przedsiębiorca działa na własną rękę, a nikt się nie troszczy o całość. Mamy tu przykład intuicji konserwatywnej, opartej na dobrze znanym i wypróbowanym modelu  gospodarstwa rodzinnego.  Wypróbowanym, ale tylko w pewnej skali, a Marks nie wziął pod uwagę, że wraz ze zmianą skali zmieniają się  prawa rządzące w danej dziedzinie (tu — w gospodarce).  Przy takim wzroście skali, jakim jest przejście  do makroekonomii, pojawia się min. prawo samoorganizacji, czyli (jak to nazwał F.Hayek) samorzutnego porządku — to, które się znalazło u podstaw nowatorskiej intuicji Adama Smitha.

§3. Pomysłowość, czyli wynalazczość (inwencja) niezbędna  jest nam w rozumowaniu dowodzącym   jakiejś prawdy. Niezbędna do tego, żeby wynaleźć przesłanki, od których  da się dojść do konkluzji,  oraz żeby dobrać stosowne  reguły wnioskowania.  A po co jest  intuicja? Po to, żeby móc być przekonanym o prawdzie przesłanek. Przekonanie  może brać się stąd, że  nasze przesłanki zostały dowiedzione na podstawie innych, ale że nie da się  tak iść w nieskończoność, ostatecznie docieramy do aksjomatów.

Gdy się mówi, że prawdziwość aksjomatów postrzegamy intuicyjnie,  można się czasem spotkać z wyznaniem słuchacza, że nie rozumie co to znaczy, bo słowo „intuicja nie  jest dla niego dość jasne. Skardze tej nie da się zapobiec, cytując jakąś definicję, skoro w definiowaniu, podobnie jak w dowodzeniu nie można iść w nieskończoność.  Jakieś pojęcia muszą być pierwotne, i wiele wskazuje, że do takich  należy pojęcie intuicji.

Sprawa ma się podobnie, jak z pojęciem widzenia oczyma (nota bene,  „intueri” znaczy po łacinie „widzieć”).  Kogo los nie pozbawił wzroku, ten dobrze wie, o co chodzi, a temu, kto jest od urodzenia niewidomy,  nie da się tego wytłumaczyć słowami.  Z tego względu proponuję prosty eksperyment,  w którym Czytelnik albo doświadczy własnej intuicji i taką drogą sobie uprzytomni, co przez to słowo gotów jest rozumieć, albo tego doświadczyć nie zdoła. W tym drugim przypadku zaleca mu się poniechanie lektury obecnego szkicu, gdyż jest w niej nieodzowne rozumienie terminu „intuicja”, tak jak został on tu zaczerpnięty z tekstu Turinga (zacytowanego za przekładem zawartym w książce: Andrew Hodges, „Turing”, przekład  Justyny Nowotniak,  Amber, Warszawa 1997, s. 34).

       W tym celu  należy napisać na kartce pięć numerów podanych dalej — w §2 — aksjomatów arytmetyki,  i przy każdym  numerze napisać TAK (tj. uważam dane zdanie za prawdziwe) lub NIE (uważam za nieprawdziwe)  lub  NIE WIEM.  Odpowiedzi na TAK i na NIE będą wymagać dalszej refleksji, mianowicie        zastanowienia,  jaki rodzaj poznania wchodzi w grę jako źródło przyjęcia lub odrzucenia danego sądu. Ktoś może powiedzieć, że są tym  źródłem spostrzeżenie zmysłowe, jak dla zdania „ten koń ma cztery nogi”;  ktoś inny może powiedzieć, że  dane zdanie jest tylko konwencją użyteczną do jakiegoś celu (tu trzeba powiedzieć do jakiego). W pierwszym przypadku glossa, w jaką zaopatrzy swą odpowiedź będzie empirystyczna,  w drugim — konwencjonalistyczna.

Jeśli natomiast ktoś powie „to jest oczywiste” (lub coś w tym rodzaju), nie powołując się na dane zmysłowe ani na takie czy inne ustalenia umowne, to znaczy, że dopuszcza jakieś inne źródło. Może to sobie nazwać źródłem X,   może też zaadaptować tradycyjny termin „intuicja”, co nie znaczy, że będziemy dokładnie wiedzieć, co się pod nim kryje; czym innym jest intuicja w sensie kartezjańskim, czym innym w kantowskim etc. Nie ma jednak powodu wchodzić tu w takie niuanse.  W obecnym kontekście wystarczy  prześledzić na wybranych przykładach związek tych sądów, przy których damy odpowiedź TAK (bez glossy empirystycznej i bez konwencjonalistycznej),   żeby się porozumieć co do sensu terminu „intuicja” na potrzeby obecnych rozważań.

Oto aksjomaty jako materiał do namysłu nad pojęciem intuicji.  Litera N oznacza liczbę naturalną,  gwiazdka operację następnika, # zaprzeczenie równości.

A1.  0 należy do N.

A2. Jeśli x należy do N,  to x* należy do N.

A3.  Jeśli x należy do N, to x*#0.

A4. Jeśli x i y należą do N oraz x*=y*, to x=y.

A5. Jeśli Z jest dowolnym zbiorem takim, że

—  a) 0 należy do Z,
— b) dla dowolnego x:  z tego, że x należy do Z wynika, że x* należy do Z,

to każdy element zbioru N należy do Z.

Te pięć  zdań  — układ aksjomatów arytmetyki liczb naturalnych, opublikowany w roku 1889, zwany od nazwiska twórcy aksjomatyką Peano [Giuseppe] — stanowi filar matematyki.  Z tego miedzy innymi względu, że wspiera on niezliczone algorytmy obliczeń, poczynając od tych podstawowych, jak algorytmy dodawania i mnożenia.   Warto więc przy każdym zastanowić się  nad potrójnym pytaniem: czy uznaję dane zdanie za prawdziwe?  skąd wiem o jego prawdziwości? jak nazwać to źródło, z którego wiem o prawdziwości. Jeśli nazwać je intuicją,  jak to się powszechnie czyni, to  objawi nam się z całą mocą potęga intuicji jako źródła algorytmów.

 

Zaszufladkowano do kategorii Filozofia nauki, Światopogląd racjonalistyczny | Dodaj komentarz

Racjonalistyczny optymizm Hilberta i Gödla — B

Odcinek poprzedni: A. Klub Optymistów Poznawczych

Odcinek B. „Wir werden wissen” –  Gödel i Hilbert przeciw pesymizmowi

Motto:  Gödel’s rationalistic optimism is an optimism about the power of  human reason. — Hao Wang

§1.  Zasadnicza zgodność Gödla z Hilbertem co do tego, że każdy problem matematyczny jest rozwiązywalny — jest  czymś oczywistym w świetle  wypowiedzi samego Gödla (zob. niżej w §3 – cytaty II i III).  Zarazem zaś, ogromnej większości piszących na ten temat autorów wydaje się oczywiste,  że było przeciwnie: że Gödel obalił tę wiarę Hilberta.  A nie są to bynajmniej autorzy, którym można by zarzucić w tej materii dyletanctwo.

Powody tego nieporozumienia są co najmniej dwa. Jednym jest niedookreślenie pojęciowe, drugim pewna luka bibliograficzna. Niedookreślenie na tym polega, że terminów (wzajem bliskoznacznych) „rozwiązywalność”, „rozstrzygalność” i „obliczalność” używa się z reguły bez różnicującej przydawki, a jest nią wyraz „algorytmiczna” lub „intuicyjna”. Tę  drugą trzeba brać w takim sensie, w jakim mówimy, że  intuicyjne są dowody niesformalizowane (np. wszystkie dowody u Euklidesa).

Według Hilberta nr 1 (sprzed roku 1931, daty twierdzenia Gödla) „wir werden wissen”  znaczyło, że będziemy mogli dowieść każdego twierdzenia za pomocą   algorytmu, o którym sądził on (np. w tekście z roku 1928), że będzie opracowany niebawem (widział to jako jedno z zadań na wiek XX) i raz na zawsze.

Według Hilberta nr 2 (po roku 1931, pogodzonego już z Gödlem) „wir werden wissen”   znaczyło tyle, że dla każdego problemu matematycznego da się znaleźć algorytm rozwiązania, ale nie jeden dla wszystkich i raz na zawsze, lecz w takim trybie,  że gdy istnieje problem nierozwiązywalny na danym etapie algorytmicznie, potrafimy znaleźć rozwiązanie dzięki intuicji naprowadzającej na nowe, niezbędne do rozwiązania, pojęcia (jak to było np. z dowodem twierdzenia Fermata przez Andrew Wilesa).  Ten wzmocniony system pojęciowy umożliwia takie wzbogacenie języka formalnego czyli algorytmicznego, że w tym efektywniejszym języku da się sformułować dowód będący rozwiązaniem algorytmicznym.

Streśćmy te dwa stanowiska, wydobywając różnicę w układzie kwantyfikatorów.

H1:  Istnieje algorytm dla rozwiązania każdego problemu.

H2: Dla każdego problemu istnieje algorytm jego rozwiązania.

Z H1 wynika logicznie H2, lecz nie odwrotnie, a więc H2 jest tezą osłabioną.  Jest jednak ona na tyle mocna, że nadal nadaje się na zapis logiczny tego przekonania, które w potocznym niemieckim oddaje dewiza Hilberta, sygnowana przez Gödla, „wir werden wissen”.   H2 pokrywa się z przekonaniem Gödla (które „wymusił” on na Hilbercie swym wynikiem z roku 1931).  Stają się przez  to koalicjantami w natarciu na pesymizm poznawczy, co czyni zasadnym  tytuł obecnego odcinka.

Ze względu na takie pokrywanie się stanowisk obu myślicieli,  odtąd oznaczam ich wspólne stanowisko etykietą GW („G” od „Gödel”, zaś  „W” od wszystkich  pierwszych liter w maksymie „wir werden wissen”) . Oznaczenie dotyczy Gödla, bo przedmiotem tych rozważań jest jego motywacja filozoficzna poglądu GW. Motywacja Hilberta to byłby temat osobny,  i raczej  nie do ruszenia, bo (inaczej niż w przypadku Gödla) nie mamy źródeł do jej poznania; można tylko tylko snuć domysły interpretacyjne (co umiejętnie czyni publikacja  2 wymieniona w §5).

Co się tyczy Gödla, to źródła takie mamy, ale są one niejako ezoteryczne, raczej nie znane większości jego komentatorów (opublikowano je  w 1996, a wiele opracowań powstało przed tą datą, służąc potem za źródło  dla opracowań późniejszych). Tak  dochodzimy do drugiego ze wspomnianych powodów nieporozumień, które określiłem jako bibliograficzne.  Ma ono wielką wagę dlatego, że teza GW nie jest na tyle oczywista,  by każdy się z nią zgodził bez oporu. Można mieć przeciw niej obiekcje filozoficzne i te właśnie obiekcje wydobywa na jaw i przeciwstawia im własne racje Gödel w owej „ezoterycznej” publikacji. Pora ją przedstawić.

§2.  Książka  ta nosi tytuł: A Logical Journey. From Gödel to Philosophy; MIT 1966 i 2001 (drugie wydanie).

W sensie prawa autorskiego autorem tej książki jest Hao Wang, ale w sensie rzeczowym ma ona dwóch autorów.  Jest to bowiem opis akcji polegającej na rozmowie klasyka z jego komentatorem, tak więc obaj są autorami jako rozmówcy. Jednym jest Gödel, którego rolę w tej rozmowie można określić mianem żyjącego klasyka.  Natomiast Hao Wang znakomity matematyk i filozof  przybyły do USA z Chin, uczeń i przyjaciel Kurta Gödla pełni potrójną rolę:  dyskutanta, sprawozdawcy z dyskusji, oraz jej komentatora ex post.  Rozmowy dotyczyły logiki, komputerów, filozofii umysłu, roli mózgu, a także filozoficznych tej problematyki założeń i konsekwencji.

Jest to więc dzieło Gödla i zarazem o Gödlu, poruszające wszystkie niemal zagadnienia obecne w jego twórczości.  Elementem godnym osobnej uwagi jest zapis kwestii. które obaj rozmówcy uznali za otwarte, jako zadanie dla dalszych badań, obaj wyrażając przy tym wiarę, że wszystkie te kwestie, nie wyłączając metafizycznych, mają szansę na rozwiązania wedle obowiązujących w nauce kryteriów ścisłości. Jest w tym dobitny wyraz tego racjonalistycznego optymizmu, o którym ma traktować projektowany przeze mnie artykuł pt. „Racjonalistyczny optymizm Gödla jako synteza intuicjonizmu Kartezjusza i algorytmizmu Leibniza” (wspomniany w odcinku A).  Ma on uprzytomnić istnienie  szerszego kontekstu historycznego, który świadczy ,jak  doniosła jest kwestia optymizmu poznawczego; nie ogranicza się ona do problematyki z wieku XX, lecz ma rozległy zasięg historyczny.

Lokalizując bibliograficznie cytaty, odwołuję się do tej podstawowej pozycji skrótem Wang [1996], gdzie w nawiasie kwadratowym wystąpi też czasem numer odcinka (seria cyfr oddzielonych kropkami) i numer strony. Dokumentować takimi cytatami temat racjonalistycznego optymizmu można obficie, bo zwrot ten występuje w książce ok. 30 razy, co daje mu wysoką pozycję w zbiorze pojęć dla myśli Gódla kluczowych.

Wybieram spośród nich jeden,  w którym racjonalistyczny optymizm jest zdefiniowany w sposób przywołujący temat obecnego odcinka —   wspólne Gödlowi z Hilbertem przekonanie o rozwiązywalności wszelkich problemów matematycznych.  Następujące dalej (§3) cytaty będą tę relację Gödla i Hilberta pełniej dokumentować, dostarczając  źródłowej podstawy  dla tezy GW   sformułowanej w §1.

§3.  Zacznijmy od zdania, które dobrze się nadaje na definicją (choć  tylko cząstkową) racjonalistycznego optymizmu.

Cytat I. „Rationalistic optimism includes the expectation that we can solve interesting problems in all areas of mathematics.” — Wang [1966, 6.5.2, s.207].

Jest ta wypowiedź dokumentacją do pytania z §1, jak odróżnić ów optymizm Gödla od optymizmu Hilberta.  Na pierwszy rzut oka różnicy nie widać; to zdanie Gödla wygląda jak parafraza dewizy Hilberta, ktorą on odnosił do matematyki. Przywołajmy ją raz jeszcze:  Wir müssen wissen, wir werden wissen. Jest ona tak dla Hilberta charakterystyczna, że ją wyryto na jego grobie. Jej sens: oddaje po polsku powiedzenie: musimy wiedzieć, więc będziemy wiedzieć. Podobna jej w treści jest też inna ze słynnych maksym Hilberta: In der Mathematik gibt es kein Ignorabimus (w matematyce nie może być problemów nierozwiązalnych). Także te drugą można oddać słowami Gödla z cytatu I.

Ten spostrzeżenie co do podobieństwie Gödla i Hilberta jeszcze się potwierdza, gdy natrafiamy na tekst, w którym Gödel po nazwisku wymienia Hilberta jako swego sprzymierzeńca.

Cytat II. „If my result is taken together with the rationalistic attitude which Hilbert had and which was not refuted by my results, then we can infer the sharp result that mind is not mechanical. This is so, because, if the mind were a machine, there would, contrary to this rationalistic attitude, exist number-theoretic questions undecidable for the human mind.” — Wang [1966, 6.1.9, s.186; słowa Gödla cytowane przez Wanga].

Jest to sformułowanie niezwykle znamienne. Oto sam Gödel falsyfikuje ów cechujący jego komentatorów dramatyczny stereotyp, że racjonalizm Hilberta zawarty w cytowanych wyżej maksymach obrócił się w ruinę za sprawą wyników Gödla. Przeciwnie, Gödel powiada w dwugłosie z Hilbertem, że w matematyce nie ma problemu, który nie mógłby doczekać się rozwiązania.

Temat ten powraca w rozmowach obu logików. Wang zanotował: wiosną roku 1972, że Gödel stwierdził, iż zgadza się z Hilbertem, gdy ten odrzuca pogląd o istnieniu problemów matematycznych, które byłyby dla umysłu ludzkiego nierozstrzygalne. Oto opinia Gödla w relacji Wanga.

Cytat III. „In the spring of 1972 Gödel formulated an argument for publication [in which] he expressed his agreement with Hilbert in rejecting the proposition that there exist number-theoretical questions undecidable by the human mind.” — Wang [1966, 9.4.21].

O tym, że taka właśnie wiara w potęgę rozumu stanowi esencję racjonalizmu, poświadcza z kolei wypowiedź Hao Wanga:

Cytat IV.  „Gödel’s rationalistic optimism is an optimism about the power of  human reason.” Wang [1966, 9.4.22, s.317.].

Cytaty II, III i IV  są niezwykle znaczące dla uzgodnienia optymizmów Hilberta i Gödla przez fakt  użycia frazy „human mind” lub „human reason”.  To umysł ludzki ma dar intuicyjnego rozwiązywania problemów nierozstrzygalnych dla algorytmu,  a gdy znajdzie rozwiązanie intuicyjne potrafi potem dokonać jego konwersji na algorytm,  czym zaspokaja  oczekiwania Hilberta.  Są jednak filozofowie, którym ten dar zdaje się być tak tajemniczy,  że trudno im uwierzyć w jego istnienie. Gödel i Hao Wang obmyślali w swych konwersacjach argumenty pod adresem takich sceptyków; będzie o tym mowa w następnych odcinkach, a tu wspomnę jedynie o argumencie pragmatycznym.

§4.  Praktyka naukowa potwierdza optymizm gödlowski, ukazując możliwość coraz bardziej efektywnych algorytmów, a w konsekwencji programów obliczeniowych dla maszyn. Problem jednak filozoficzny jest w tym, że nowe algorytmy biorą się z nowych twórczych pomysłów matematyków; ich przykładem są logiki wyższych rzędów (o czym będzie mowa w odcinku C), pewnik wyboru czy hipoteza kontinuum. Są to jednak pomysły, których zasadność bywa kwestionowana pod tym zarzutem, że na ich rzecz można argumentować jedynie  na gruncie platonizmu (do którego Gödel jawnie się przyznaje), a to w pewnych kręgach dyskwalifikuje daną argumentację bez reszty.

Taką antyplatońską kanonadę uprawia nominalizm kwestionujący min. logiki wyższych rzędów; konstruktywizm kwestionujący min. pewnik wyboru; a także pozytywizm, mechanicyzm, behawioryzm itp. To, że pomysły rozwiązań czerpane z inspiracji platońskiej sprawdzają się w praktyce naukowej i technologicznej, nie stanowi argumentu dla wymienionych kręgów; jest to bowiem argument pragmatyczny, a pragmatyzm też się w tych kręgach nie cieszy respektem.

Żeby więc racjonalistyczny optymizm Gödla ostatecznie ugruntować, trzeba wypracować w pełni skuteczne argumenty przeciw takim jak wymienione kierunkom. Zarysowują je w „Logical Journey” Gödel i Wang, mając przy tym świadomość, że są to dopiero wstępne szkice, nad którymi trzeba by dużo popracować. Dlatego Gödel nie przedstawiał na ogół swych idei filozoficznych w druku, pragnąc nadać argumentacji nie mniejszą ścisłość i konkluzywność, jak ta, która cechuje jego prace matematyczne. Nawet jeśli wychodziły one poza fazę notatek, przybierając formę artykułu, pozostawały nieraz w szufladzie, póki się nie doczekały wydań pośmiertnych, jak zbiór wymieniony niżej pod numerem 3 w notatce o literaturze (§5).

To, że argumenty Gödla i Wanga nie dojrzały do druku w niczym nie umniejsza ich doniosłości jako bodźca nadającego naszym myślom impuls i kierunek. Za tym impulsem i w tym kierunku, śladem logicznej podróży (a logical journey) obu autorów, będziemy iść w dalszych odcinkach.

§5.  W sprawie literatury

Piśmiennictwo na temat wyników Gödla i ich interpretacji jest przebogate i łatwe do odszukania w Sieci. Toteż podaję tylko przykładowo trzy pozycje, z których dwie pierwsze można uzyskać przez Google, a trzecią przez Kindle’a.

1. Klasykę wysoce kompetentnej popularyzacji stanowi pozycja: Ernest Nagel, James Roy, Newman Gödel’s Proof New York University Press, 2001.

2. Zagadnieniu relacji między myślą Gödla i myślą Hilberta, które jest w centrum uwagi obecnego artykułu, poświęca wiele uwagi artykuł Anny Brożek, kompetentny także w innych kwestiach pomocnych w rozumienie Gödla, pt. Hilbert a Gödel: prawda i dowód w matematyce. „Semina Scientiarum”, 2004, Nr 3, s.39-70.

3. Cenną lekturą uzupełniającą do książki Wanga jest zbiór, którego redaktorem jest Francisco A. Rodriguez-Consuegra pt. „Kurt Gödel: Unpublished Philosophical Essays”. Birkhauser Verlag, Berlin etc. 1995.

 

Zaszufladkowano do kategorii Epistemologia i ontologia, Filozofia nauki, Światopogląd racjonalistyczny | 4 komentarze

Racjonalistyczny optymizm Hilberta i Gödla — A

Odcinek A.  Klub Optymistów Poznawczych

Optymizm poznawczy to cecha wrodzona osób uprawiających nauki ścisłe, nieodłączny rys ich powołania. Po cóż mieliby się trudzić, z niemałym często poświęceniem czasu, energii oraz własnych spraw życiowych, gdyby nie wiara w oczekiwany sukces poznawczy?

Inaczej ma się rzecz z filozofami. Ci dzielą się na dwie kategorie – optymistów i pesymistów.  Podczas gdy w naukach pesymizm poznawczy się nie opłaca, jest jak sypanie piasku w tryby umysłu, to w karierze akademickiej filozofa może być nawet intratny. Świadczy o tym prestiż i profity tych, co uprawiają freudyzm (teza o przewadze popędów nad rozumem), multikulturalizm (kultura naukowa ma równe prawa z magiczną itp.), postmodernizm (grzechem nowoczesności jest wiara w rozum), fideizm („rozumie ludzki, tyś mały przed Panem”). Nie będę wnikał w mechanizm takich karier, to temat osobny i zbyt może kuszący do ironizowania; wystarczy ta wzmianka jako tło kontrastowe, by uwydatnić naturę optymizmu poznawczego, który cechuje klasykę filozofii  racjonalistyczną, najpełniej reprezentowaną przez  Kartezjusza i Leibniza. Każdy z nich zarysował jasno i dobitnie konkurencyjny względem drugiego program metodologiczny dotyczący całości wiedzy, tak naukowej jak i filozoficznej. Projekt Leibniza, z jego optymistyczną wiarą w możliwość algorytmizacji całej wiedzy, zajmuje poczesne miejsce w tym drzewie genealogicznym, w którym znajdzie się w dwa wieki później Program Hilberta.

Projekt Kartezjusza, z jego krytycyzmem co do sensu i szans algorytmizacji, ale za to z wielce optymistyczną wiarą w potęgę intuicji intelektualnej, należy do klasyki konkurencyjnego nurtu racjonalizmu. Gödlowi udało się dojść do takich wyników, że nie musiał dokonywać wyboru między przeciwnymi opcjami, ale w pewien pomysłowy sposób dokonał syntezy obu optymizmów. Nie jest to wynik łatwy do przyswojenia, toteż warto skorzystać z każdego środka mogącego w tym pomóc; jednym ze środków są analogie oraz genealogie historyczne. Teraźniejszość lepiej rozumiemy dzięki wyprowadzaniu jej z przeszłości, a przeszłość dzięki temu, że dziś wiemy, do jakiej prowadziła ona teraźniejszości; takim założeniem badawczym kierowaliśmy się (wespół z Romanem Murawskim) min. w książce „Mechanization of Reasoning in a Historical Perspective”, Amsterdam 1995 (dostępna przez Google’a i przez Kindle’a).

Optymizm poznawczy nie jest postawą powszechną ani banalną. Odżegnywali się od niego starożytni sofiści i sceptycy, dziś zaś relatywiści i postmoderniści, a   w pewnym aspekcie także pozytywiści, którzy są optymistami, gdy idzie o nauki ścisłe, ale pesymistami co do szans poznania filozoficznego. Racjonaliści to optymiści na każdym froncie. W tym gronie mamy Kartezjusza z Lebnizem. W czasach nowożytnych dominują w kręgu racjonalizmu Georg Cantor i Kurt Gödel, jeśli wymienić najwyrazistszych, lecz także plejada innych znakomitości którzy łączyli swój optymistyczny racjonalizm filozoficzny z osiągnięciami w logice (np. Jan Łukasiewicz), matematyce (np. A.N.Whitehead), fizyce (np. Werner Heisenberg).

Tak został zarysowany skład Klubu Optymistów Poznawczych,  w którym wiodącą rolę grają racjonaliści pod przewodem Kartezjusza i Leibniza,  Cantora, Hilberta,  Gödla, wspierani przez Ojców Założycieli informatyki, na których czele mamy Turinga.

 

Zaszufladkowano do kategorii Epistemologia i ontologia, Filozofia nauki, Światopogląd racjonalistyczny | 8 komentarzy

Nieobliczalność i złożoność

Idąc na fali wykładu o problemach nieobliczalnych (który już się odbył; zob. poprzedni wpis), chciałbym podzielić się z Państwem kilkoma jeszcze spostrzeżeniami odnośnie związku między złożonością, nieobliczalnością i nieprzewidywalnością.
Podzielić się m.in. po to, by wybrzmiała wyraźniej konkluzja wykładu.

1) Otóż, po pierwsze, złożoność w sensie najbardziej dosłownym dotyczy struktury algorytmów. Patrząc na złożoność z perspektywy tegoż sensu, musimy uświadomić sobie, że współczesne programy komputerowe (czyli implementacje algorytmów) mają niezwykle skomplikowany kod, który służy nie rozwiązywaniu jakiegoś pojedynczego problemu (np. sortowania), lecz gigantycznej liczby splątanych ze sobą problemów, które składają się na realizowane przez program zadanie (np. obsługa terminali lotniskowych). Programy takie tworzą nadto całe zespoły programistów (niekoniecznie zorientowanych w tym, co robi kolega i niekoniecznie „ogarniających” całość algorytmu). Dochodzą do tego nieustanne poprawki kodu, czynione często ad hoc, w odpowiedzi na jakieś wychwytywane wyrywkowo błędy. A co powiedzieć o takiej jeszcze sytuacji, kiedy niektóre fragmenty programów lub nawet całe programy powstają po części losowo, np. w drodze symulowanej ewolucji (zahaczyliśmy o to na wykładzie)…?
To wszystko powoduje, że złożoność strukturalna algorytmów przekłada się gładko na nieprzewidywalność programów/komputerów, czyli na ich nieobliczalność (w pewnym sensie). Mówiąc prosto: większość programów jest tak skomplikowana, że mimo ich wielokrotnego testowania, poprawiania itd., trudno przewidzieć, co we wszystkich możliwych sytuacjach dany program „zrobi”.

2) Po drugie jednak, w znaczeniu mniej dosłownym – przyjętym za to wśród informatyków i omawianym na wykładzie – złożonością nazywa się pewną własność algorytmów, która dotyczy ich działania (a nie struktury). Właściwie są to różne własności. Mamy tu przede wszystkim złożoność czasową, czyli miarę zależności między czasem realizacji a rozmiarem danych. Informuje ona, jak szybko rośnie czas wykonywania algorytmu, gdy wzrasta rozmiar danych (np. w tempie logarytmicznym, czyli bardzo wolno, lub w tempie wykładniczym, czyli bardzo szybko). Mamy też złożoność pamięciową, która mówi o tym, jak rośnie zużycie pamięci maszyny, gdy rośnie rozmiar danych.
Owo „działaniowe” rozumienie złożoności może być mylące (zwłaszcza w języku polskim), bo przecież nie idzie w nim o złożoność samego algorytmu (ten może być bardzo prosty), ani o zawiły opis rozwiązywanego problemu (ten znowu może być bardzo prosto wyrażony), idzie w nim o trudność, czyli komplikację, w rozwiązywaniu problemu dla dużych danych. Komplikacja ta odnosi wprost do nieobliczalności w sensie informatycznym – wszak problemy trudne lub algorytmicznie nierozwiązywalne zwie się właśnie nieobliczalnymi (praktycznie lub bezwzględnie).
A w jaki sposób owa druga, „działaniowa złożoność”, wpływa na hipotetyczną nieprzewidywalność komputerów (czyli nieobliczalność w nieco innym sensie niż wyżej)?
Tu powtórzę konkluzję z wykładu: wpływa tak, że chcąc ominąć problem nadmiernej złożoności czasowej lub pamięciowej danego algorytmu, trzeba stosować pewne „niedokładne” heurystyki (to znaczy: zastąpić nieefektywny algorytm dokładny efektywnym algorytmem aproksymacyjnym); heurystyki zaś zależą niekiedy od wyborów losowych; to zaś pociąga za sobą mniejszą lub większą nieprzewidywalność wykonującego algorytm komputera.

Tyle tytułem dopowiedzenia do wykładu.
Jeśli sam wykład lub powyższe uwagi, zainspirowały kogoś do jakichś przemyśleń, gorąco zapraszam do dyskusji w blogu (proszę śmiało komentować).

A wszystkim cierpliwym uczestnikom wczorajszych zajęć serdecznie dziękuję.

Paweł Stacewicz.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 4 komentarze

Nieobliczalni i nieobliczalne

Przygotowując wykład dla młodzieży szkolnej p.t. „Czy komputery mogą być nieobliczalne?”, pomyślałem sobie, że warto zagaić ów temat w blogu.
Zagaić tak, by ukazać obecny w języku polskim związek między nieobliczalnością ludzi i komputerowych algorytmów.

Zacznijmy od ludzi. W odniesieniu do nich nieobliczalny to tyle co nieprzewidywalny – osobnik tak jakoś fizycznie i psychicznie uwarunkowany (zwichrowany?), że trudno w danej sytuacji dociec, co pomyśli, co zrobi, jak się zachowa etc. Innymi słowy, mianem „nieobliczalnego” vel „nieprzewidywalnego” nazwiemy każdego oryginała, ekscentryka, dewianta czy szaleńca, ale także – tu uwaga na pozytywny wydźwięk nieobliczalności – każdego twórczego naukowca czy wręcz geniusza.
Mamy zatem dwa jakby oblicza ludzkiej nieobliczalności: negatywne – właściwe groźnym dla otoczenia szaleńcom, oraz pozytywne – właściwe bezcennym dla ludzkości twórcom i geniuszom.

Jeśli skupimy uwagę na tych drugich, to ujrzymy kolejne, tym razem specjalistyczne, znaczenie terminu „nieobliczalność”. Powołali je do życia geniusze właśnie, to znaczy wyjątkowo twórczy matematycy XX-wieczni, w tym Kurt Gödel, Emil Post i Alan Turing.
Ich niezwykle doniosłe dla nauki odkrycie polegało na dostrzeżeniu problemów, których nie sposób rozwiązać algorytmicznie, za pomocą algorytmów dla maszyn cyfrowych. I to właśnie tego typu zagadnienia nazwano nieobliczalnymi.

W formie ilustracji owej nie-ludzkiej, bo matematyczno-informatycznej dziedziny nieobliczalności, sformułujmy jedno z najważniejszych zagadnień nieobliczalnych, tzw. problem stopu.
Oto on: „Czy istnieje uniwersalny algorytm-wyrocznia, który analizując symboliczne zapisy innych algorytmów oraz ich dane wejściowe, byłby w stanie odpowiedzieć jednoznacznie, i to w każdym analizowanym przypadku, czy dany algorytm dla takich-a-takich danych wejściowych zatrzyma się, czy też będzie przetwarzał dane w nieskończoność?”.
Ponieważ algorytmu takiego nie ma (co udowodnił wzmiankowany wyżej Alan Turing), problem ów należy do ekskluzywnego grona nieobliczalnych.

Czy jednak wszystkie problematyczne dla komputerów problemy należą do naszego ekskluzywnego zbioru?
Okazuje się, że NIE. Istnieje bowiem inna, i to bardzo liczna, grupa zagadnień, które choć mogą zostać rozwiązane za pomocą jakichś algorytmów (już znanych lub jeszcze nie), to potrzeba na to astronomicznie dużo czasu. Mówiąc dokładniej: gdy rozmiar danych wejściowych dla takich problemów rośnie, to czas potrzebny na ich algorytmiczne rozwiązanie rośnie o wiele szybciej, np. wykładniczo (tak jak funkcja 2n) lub silniowo (tak jak funkcja n!).

Jeden ze wzmiankowanych problemów wydaje się całkiem banalny: „Sprawdzić, czy przy jakimś wartościowaniu zmiennych dana formuła logicznego rachunku zdań jest prawdziwa”. Mimo jego koncepcyjnej prostoty udowodniono, że ma on złożoność wykładniczą, to znaczy najbardziej pesymistyczny czas rozwiązania rośnie wykładniczo wraz ze wzrostem liczby zmiennych w zdaniu. Problemy tego typu możemy nazwać trudno-obliczalnymi.

I teraz właśnie, znając już obydwa pojęcia nieobliczalności – ludzkie (szaleńcy i geniusze) oraz komputerowe (trudne problemy algorytmiczne) – możemy przyjrzeć się bliżej pytaniu o to „Czy komputery mogą być nieobliczalne?”.
Otóż moim zdaniem MOGĄ, a przesądza o tym fakt istnienia problemów nieobliczalnych i trudno-obliczalnych.

Załóżmy bowiem, że komputer staje przed koniecznością rozwiązania pewnego konkretnego problemu, który jest jakąś szczególną wersją ogólnie znanego problemu nieobliczalnego lub trudno-obliczalnego (np. określenia warunków prawdziwości formuły rachunku zdań). Ponieważ nie istnieje efektywny algorytm rozwiązania takiego problemu w każdym konkretnym przypadku, to komputer nie może z niego skorzystać, a skoro tak, to może działać na dwa sposoby: albo stosować tak lub inaczej zorganizowaną metodę prób i błędów, albo stosować jakąś strategię heurystyczną (która w wielu sytuacjach skutkuje, aczkolwiek nie zawsze).
Obydwie metody kryją w sobie „ziarno niepewności”. Co więcej, wiele faktycznie realizowanych metod tego typu zależy od wyborów losowych (ma więc charakter niedeterministyczny). Losowość z kolei pociąga za sobą nieobliczalność – po prostu nie wiemy dokładnie, jak sterujący komputerem algorytm się zachowa, którą ścieżką podąży, jakie rozwiązanie znajdzie. Algorytm zatem, a w rezultacie i realizujący go komputer, nie będzie z naszego punktu widzenia obliczalny.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 12 komentarzy

Co to jest głos osobny
czyli gotów do pojedynku na argumenty

§1. Osobność jest sposobem myślenia, który cieszy jego posiadacza pewnym  zaskakującym kontrastem.  Kontrast na tym polega, że coś, co mnie wydaje się oczywiste i z gruntu realistyczne, moi typowi rozmówcy uważają za niezmiernie dalekie od rzeczywistości; tak dalekie, iż spoglądają z niejakim  współczuciem, że mam tak niedobrze w głowie, a nawet z przyganą, że rozpowiadanie czegoś takiego jest nieodpowiedzialne.  Niech to zobrazują dwie krótkie opowieści, które oznaczam literami A i B.

A.  Doświadczałem osobności np. wtedy, gdy w czasach Gierka zapowiadałem rychły upadek systemu i bloku socjalistycznego. Założyłem się raz o koniak z pewnym profesorem historii, moim rówieśnikiem, że ów upadek nastąpi przed naszym przejściem na emeryturę w roku 2000.  A na to samo dictum dwaj inni koledzy, profesorowie logiki, uznali, że jestem osobnikiem kompletnie oderwanym od rzeczywistości.  Co może tu cieszyć posiadacza tak osobnego poglądu?  To,  że w zderzeniu z silną opozycją odczuwam tym silniej własną rację, a postrzegając,  jak rozmówca daleki jest od rozumienia rzeczywistości (choć sądzi o sobie wręcz przeciwnie), czuję  mocniej własną zażyłość z prawami tego świata. Tymi, z których wysnuwam swe diagnozy czy prognozy. Prawo, które miałem na uwadze w tamtej prognozie w sposób intuicyjny,  po jego wyartykułowaniu w teorii ekonomicznej (np. von Misesa i Hayeka) mówi tyle:  jedynie moc obliczeniowa wolnego rynku może sprostać złożoności obliczeniowej gospodarki w  tak wielkiej skali, jak skala państwa, a tym bardziej imperium. Bezsilna zaś wobec tej złożoności jest gospodarka nakazowa sterowana centralnie przez zastęp biurokratów – tak oderwanych od rzeczywistości ekonomicznej, że okazaliby się  bezradni nawet wtedy, gdyby mieli obsługiwać  mały kiosk warzywny.

B. Jak miło jest czuć się odstępcą od poglądów ogólnie uznawanych,  doświadczam też wtedy, gdy kogoś przekonuję, że kraj, który najwięcej zyskał geopolitycznie w Europie, w wyniku wojny i układów jałtańskich, ma na imię Polska. Powszechny w tym kraju lament,  jaką krzywdę zadały nam te układy jest dziwacznym nieporozumieniem. Kresy wschodnie zostałyby i tak utracone w wyniku krwawej  wojny  z Ukraińcami i Litwinami, którzy walcząc zawzięcie z nami o sporne tereny mieliby silne wsparcie od  Rosji. Bez rekompensaty zaś na zachodzie i północy zagwarantowanej przez Jałtę powstałoby państewko  między Bugiem i Wartą z prawie żadnym dostępem do morza. Do tego, mamy nareszcie państwo bez konfliktów etnicznych, a na zachodzie odziedziczyliśmy infrastrukturę cywilizacyjną na tak wysokim poziomie europejskim (Wrocław, Opole, porty), że nie  mogą się z tym równać nawet Lwów i Wilno, nie mówiąc o bagnach Prypeci. Tak więc miast nurzać się z rodakami w smutku i poczuciu krzywdy, cieszę się samopoczuciem Polaka, do którego los historyczny się uśmiechnął po paru wiekach realnych nieszczęść,  i który ma dość rozsądku, by ten fakt zauważyć.  A stało się to dzięki imperialnej zachłanności Stalina, który sobie wyobrażał,  że przesunięcie Polski na zachód automatycznie rozszerzy na zachód jego strefę wpływów,  jako że  Polska miała na zawsze (i tu się w chytrości swej przeliczył) w tej strefie pozostać.

*   *   *

§2.  Istotna różnica między przypadkami A i B polega na stopniu intersubiektywności. W przypadku A brał się on min. z różnicy w pochodzeniu klasowym, którą trudno pokonać uczonym dyskursem. Moi rozmówcy wywodzili się z rodzin inteligenckich. Ja miałem ojca, który z robotnika  stał się przemysłowcem dzięki swym talentom technicznym i ekonomicznym,  usilnej pracy i oszczędności, w czym na różne sposoby wspierała go matka. I tak na moich oczach jako dziecka, a potem po trosze i terminatora, powstawała firma, zakład mechaniczny, który w kilku latach przedwojennych, w czasie wojny i po wojnie zapewnił całej rodzinie duży dostatek. To był z pewnością lepszy kurs wiedzy o gospodarce, niż ten, który przechodziła powojenna inteligencja w szkołach wyższych PRL-u pod nazwą ekonomii politycznej socjalizmu (a ten mnie ominął dzięki studiowaniu w KUL,  gdzie wykładano w czasach PRL umiarkowany kapitalizm pod mianem katolickiej nauki społecznej, krytycznej  wobec socjalizmu).

Intersubiektywność argumentacji jest to sytuacja, w której każda ze stron, optując za innym poglądem, ma zarazem niezbędną dla wzajemnego rozumienia się  wiedzę na temat oczywistości żywionych przez drugą stronę  i o jej aparaturze pojęciowej.  Oponentom mojego poglądu o nieuchronności końca systemu socjalistycznego nie sposób było przekazać ten zasób refleksji ekonomicznej i zrodzonych z niej pojęć, który wrósł w mój życiorys,  a w życiorysach mych rozmówców był po prostu nieobecny.  Dlatego wyrażając mój głos osobny na prawach konwersacji, w której każdy się dzieli swym punktem widzenia, nie stawałem do pojedynku na argumenty.  Przy tak odmiennym zasobie doświadczeń i pojęć nie byłoby szans na zbliżenie stanowisk.

Inaczej ma się sprawa w przypadku B. Moje przesłanki dotyczą faktów powszechnie znanych. Co się tyczy oponentów, to można założyć, że nie mają na ogół własnych w tej sprawie przemyśleń,  raczej idą za utartym stereotypem. A temu do czasu upadku ZSRR sprzyjało przekonanie,  że jałtański wyrok skazujący Polskę na uwięzienie w bloku komunistycznym będzie bezterminowy jak dożywocie.   Wtedy można  było się zastanawiać, czy ten koszt nie góruje nad zyskiem, jakim  jest przesunięcie  się Polski na Zachód.  Łatwo zrozumieć, że nie wszyscy zdążyli się przeorientować w nowej sytuacji, pozostając siłą bezwładności przy wcześniejszej ocenie, dziś już nieaktualnej.  Argumentacja ma ich tylko wyrwać z tej bezwładności. A na to jest większa szansa niż  na przekonanie kogoś wtedy, gdy trzeba mu zaaplikować inną niż  jego  własna  aparaturę pojęciową (np. dość wyrafinowane  ujęcie wolnego rynku jako systemu przetwarzania informacji czyli obliczeniowego).

Zaszufladkowano do kategorii Etyka | Otagowano | Dodaj komentarz

Zwyczajny cud stawania się sobą

„Zwyczajny cud” to tytuł wpisu Agnieszki w jej blogu pod datą 21 września 2012. Oto jego treść.

„Wyszłam dziś rano do ogrodu rozwiesić pranie i zachwyciłam się piękną, świeżo rozkwitłą różą Lichtkönigin Lucia. Ścięłam pęd z kilkoma kwiatami i zabrałam do domu. Róża stała w wazonie i pachniała. […] Nagle uświadomiłam sobie, że to jest jakiś cud, dar i niezwykłość – że oto mogę sobie wyjść do ogrodu, ściąć moją własną różę i cieszyć się nią bez żadnej okazji. Większą część życia spędziłam mieszkając w bloku i nie przypuszczałam, że będę miała własny ogród. A teraz, kiedy już go mam, wydaje się to tak bardzo oczywiste. I tylko czasem spada na mnie olśnienie, że tak naprawdę doświadczam cudu.”

Niech  kontekstem dla tej impresji będą zdania z autobiografii Agnieszki w tymże blogu. „Odkąd zamieszkała w domu z ogrodem nieustannie zachwyca się pięknem natury. Każdego roku sadzi i sieje nowe kwiaty, które potem służą jej jako inspiracja do obrazów.”

Trzeba wiedzieć o życiu Agnieszki i Szymona coś, co wyjaśni, dlaczego tytuł  jej wpisu uzupełniam frazą o „stawaniu się sobą”. Otóż przeprowadzka z bloku do własnego  domu z kawałkiem ziemi mogła się dokonać tylko dzięki niezwykle silnemu pragnieniu i wyrazistej wizji wspólnego życia wśród drzew i kwiatów. Była to wizja motywująca tak silnie, że udało się ją urzeczywistnić mimo spiętrzonych trudności, udało się też natchnąć nią otoczenie rodzinne, które ją w miarę sił wsparło.

Bardziej dramatyczne, bo nie wolne od rozterek i konfliktów oblicze samorealizacji, czyli poszukiwania własnej tożsamości, ukazuje książka Agnieszki „Matecznik”. To słowo pochodne od „matka” oznacza bezpieczną ostoję, jaką jest dla Agnieszki i Szymona z czterema córkami ich otoczony kwiatami dom. Co jednak się dzieje, jeśli nie tylko w byciu matką widzi się drogę do stania się sobą? Jeśli nie da się realizować potencji i dążeń czy to malarskich czy pisarskich bez poświęcania im lwiej części uwagi, sił i czasu? Na której drodze bardziej można stawać się sobą? Jak ustalić proporcje między własnym prawem do tożsamości a obowiązkami wobec rodziny? „Matecznik” jest książką wartą lektury nie dlatego, żeby odpowiadała na te pytania, lecz dlatego, że uświadamia ten typ konfliktu, z którym musi się dołać każdy, kto poszukuje dominanty swojej tożsamości.

Dobrze się ta historia nadaje w obecnym blogu do cyklu „Ceterum censeo”. Posługuję się tym skrótem wziętym z dziejów starożytnych, jako że symbolizuje on śmiałość i stałość w wypowiadaniu i realizowaniu własnych idei. Innych niż poglądy uznawane w otoczeniu, popierane przez autorytety, upowszechniane modą czy stereotypem. W historycznym kostiumie hasło to wyraża zachowanie, które w języku dotyczącym obrad i dyskusji określamy jako ,,głos osobny”. Agnieszka należy do tych, co się nie lękają przemawiać głosem osobnym. I za tę uporczywą realizację własnego stylu, czyli bycia sobą, bywa nagradzana przez takie przeżycia, jak to z cudem rozkwitłych róż.

Weźmy to doświadczenie za punkt wyjścia filozoficznej medytacji na temat stawania się sobą.

*  *  *

Głęboką metafizyczną rację dla poszukiwań własnej tożsamości znajdujemy u Gottfrieda Wilhelma Leibniza (1646-1716). Ten wielki matematyk i filozof pojmował Stwórcę w kategoriach na wskroś dzisiejszych jako programistę świata. A rozumiał stwarzanie świata jako proces obliczeniowy sterowany gigantycznym superprogramem o nieskończonej liczbie kroków.

Są w nim zawarte podprogramy określające rozliczne trajektorie rozwoju ludzkich indywidualności. Są to tory idealne, teoretycznie możliwe do realizacji; praktycznie jednak, w realnym świecie, nie osiągają one ideału,lecz się bardziej lub mniej doń zbliżają. Im większe przybliżenie, tym wyższy poziom stawania się sobą. Bohaterka „Matecznika” stała przed problemem natury optymalizacyjnej: jak wyliczyć proporcje zaangażowań artystycznego i rodzinnego, żeby znaleźć się jak najbliżej ideału swej trajektorii?

Odwiecznym wzorcem odczytywania i realizowania idealnego programu własnej tożsamości jest Sokrates. Zwykł on powiadać, że gdy nie wie, co czynić w konflikcie wartości, wsłuchuje się w głos wewnętrzny, pytając go o rozwiązanie. Nazwał ten głos dajmonionem. Mówiąc metaforą informatyczną, można powiedzieć, że ów dobry demon to kod źródłowy, w którym została zaprogramowana trajektoria lotu w kierunku urzeczywistnienia siebie samego.

Zaszufladkowano do kategorii Światopogląd liberalny | Dodaj komentarz

Cywilizacja – najbardziej złożona
struktura w kosmosie

Oprócz utopii wieszczących wspaniała przyszłość cywilizacji (gdy się ją zbuduje według wskazówek autora danej  utopii) istnieją anty-utopie, które dla odmiany wieszczą zagładę cywilizacji, bądź wszelkiej bądź tylko ludzkiej; w tym drugim przypadku zostałaby ona zastąpiona przez cywilizację, którą by zaprowadził inny gatunek biologiczny. Do takich anty-utopii należy książka Karela Čapka „Inwazja jaszczurów” (1936). Čapek wyimaginował sobie cywilizację stworzoną przez jaszczury, która położy kres cywilizacji ludzkiej.

Pomysł ten pobudza do zastanowienia: czy różnica między gadem płazem i człowiekiem jest  wystarczająco mała, żeby jeden i drugi był po równi zdolny do tworzenia cywilizacji?  Czy jest więc  kwestią  jedynie przypadku, że  dziełem ludzi, a nie np. jaszczurek,  jest matematyka (warunek konieczny cywilizacji), czy też do tego, by być Euklidesem nieodzowne są jakieś atrybuty, na które nie stać  jaszczurek?

W pierwszym podejściu nasuwa się odpowiedź następująca.  Cywilizacja jest czymś tak zawrotnie złożonym,  że nie ma w całym kosmosie niczego, co z tą złożonością dałoby się porównać. Toteż stworzyć ją może tylko taki gatunek, który dysponuje niezwykle złożonym oprogramowaniem (software). A  im bardziej złożony program ma się zakodować na jakimś nośniku, tym większą złożoność musi mieć nośnik tego kodu (hardware).   Otóż złożoność ludzkiego mózgu jako hardware’u góruje niepomiernie nad złożonością tegoż organu u  jaszczura, i to byłoby wyjaśnienie.

W tym wyjaśnieniu, biorącym pod uwagę różnicę w złożoności mózgu,  jest  niewątpliwie coś na rzeczy. Czy jest to jednak pełne wytłumaczenie? Czy nie wchodzą w grę jeszcze inne czynniki? To temat do dalszego zastanowienia.

Zaszufladkowano do kategorii Światopogląd informatyczny | 4 komentarze

Głód informacji i głód pobudzenia
a siła przekonań

Wiadomo,  że siła przekonania to stan umysłu stopniowalny. Jej stopień mierzy się stopniem gotowości do działań opartych na danym przekonaniu, czyli przez nie motywowanych.  Reagując np. na informację kasjerki, że  płacę za piwo cztery złote, bez wahania wręczam jej dwie dwuzłotówki — w oparciu o przekonanie,  że dwa i dwa jest cztery.  Kompletny brak wahań świadczy o najwyższym stopnia przekonania, co w przypadku 2+2=4 bierze się z oczywistości matematycznej. Informacja empiryczna, czyli brana z doświadczenia, nie daje aż takiego oparcia, lecz jakiś stopień prawdopodobieństwa. Określamy   je liczbami w przedziale od zera do jeden, to jest, od nieprawdopodobieństwa do stuprocentowej  pewności.

Dla zilustrowania różnych stopni prawdopodobieństwa między zero i jeden, porównajmy dwie sytuacje decyzyjne dotyczące wyboru firmy lotniczej, której ktoś powierzy w podróży swój komfort i bezpieczeństwo.  O firmie A dostaje ten ktoś wiadomość, że zatrudnia najlepszych pilotów,   latają oni na świetnych maszynach,  i od wielu lat nie zdarzył się na tych  liniach  wypadek. O firmie B  dane są w każdym punkcie kontrastowo różne. Gdy się widzi, że ten ktoś wybiera firmę A  mimo że jej bilety są droższe,  to z samej obserwacji jego postępowania, bez indagowania go o powody, słusznie przypiszemy mu pogląd, że za bardziej  prawdopodobne uważa on uzyskanie bezpieczeństwa i wygody od A niż uzyskanie tego od B.

Zaszufladkowano do kategorii Światopogląd informatyczny | Dodaj komentarz