Pytania do książki Marka Hetmańskiego Epistemologia informacji
— pod kątem kontynuacji omawianych przez nią badań
§1. Niniejszy wpis nawiązuje do dwóch recenzji tej książki mających się ukazać w „Wiadomościach Matematycznych”. Jest to mój tekst pt. „Na czym polega związek epistemologii z teorią informacji? Co do jego zrozumienia wnoszą Leibniz, Gödel i Popper?” oraz Pawła Stacewicza „Epistemologia informacji M.Hetmańskiego. Garść uwag polemicznych z punktu widzenia informatyka”.
Nawiązując do trafnych, moim zdaniem, spostrzeżeń Pawła Stacewicza, że książka nie docenia roli informatyki i że nie poświęca dość uwagi tak podstawowym kwestiom epistemologii, jak źródła i granice poznania, potraktuję te luki w treści w sposób kooperacyjny — jako będące do wypełnienia przez krytycznych dyskutantów. Są to niedopowiedzenia dające się zrozumieć, gdy książka ma ogarniać tak rozległy materiał. Autor zamierzył omówić w jednej monografii kilka ważnych pionierskich prób oparcia epistemologii na nowych podstawach — naukach o informacji. Epistemologia idzie w dobrym kierunku, gdy przyswaja sobie idee tak zakorzenione w osiągnięciach nauk matematycznych, przyrodniczych i technicznych, jak to się udało pewnym pojęciom i wynikom teorio-informacyjnym. Współtworzą one epistemologię nowoczesną, należącą do tego poglądu na świat, który w podtytule blogu nazywamy światopoglądem informatycznym.
Ten właściwy kierunek wskazuje i pomaga w jego rozumieniu książka prof. Hetmańskiego. A kiedy — mając do czynienia z tematem tak rozległym — coś ważnego studium to pomija lub nie zachowuje proporcji, to od tego by obraz dopełniać czy korygować jest krytyczna dyskusja z walnym udziałem ripostującego Autora. Jej zagajeniu służy obecny wpis i obie wymienione recenzje, wspomagające ten wpis szeregiem uwag bardziej szczegółowych.
§2. Czy epistemologię informacji Autor zgodziłby się określić mianem epistemologii teorioinformacyjnej?
Pierwszy z tych terminów służy za tytuł całej książki, co by wskazywało, że ma on objąć wszystkie rozważane w niej koncepcje informacji pod kątem (to mój domysł) ich zastosowań epistemologicznych. Drugi termin funkcjonuje jako hasło w Indeksie terminów, gdzie jest odnoszony do jednej tylko z rozważanych koncepcji: G.Chaitina, który kontynuuje wyniki matematyczne i zarazem myśl filozoficzną Gödla, intensywnie przy tym nawiązując do Leibniza.
Wydaje mi się, że byłoby zrozumialej, biorąc pod uwagę reguły nazwotwórstwa, ten drugi termin pojmować szerzej; to znaczy, objąć nim (zgodnie z brzmieniem nazwy) jako rodzajem (łac. genus) wszystkie rozważane teorie informacji. Myśl Chaitin dobrze by się zmieściła, jako jeden z gatunków (species), pod określeniem: epistemologia algorytmiczna, ponieważ Chaitin nazywa swą teorię algorytmiczną teorią informacji. Dla pozostałych trzeba by stworzyć w takim drzewie klasyfikacyjnym inne nazwy gatunkowe, np. „epistemologia teorio-entropijna” dla takich koncepcji jak Shannona czy Wienera.
Propozycja, żeby koncepcję Chaitina nazwać algorytmiczną ma uzasadnienie w jej treści, dotyczy ona bowiem naczelnego problemu w podstawach informatyki: efektywności algorytmów. Mamy powody, by sądzić wraz z Gödlem, że źródłem algorytmów jest intuicja matematyczna; jej to bowiem zawdzięczamy niezbędne do ich konstrukcji aksjomaty arytmetyki, teorii mnogości etc. oraz logiczne reguły wnioskowania. Wiemy też od Gödla, że żaden aktualnie posiadany zasób algorytmów nie wystarcza, by rozwiązać dowolny dobrze postawiony problem matematyczny. Ta niemożność jest dwojaka: istnieją problemy, które są (przy danym zasobie algorytmów) nie do rozwiązania. Istnieją też takie, które są rozwiązywalne w zasadzie, ale nie w praktyce, gdyż czas pracy algorytmu przekraczałby te zasoby czasowe, jakimi realnie dysponujemy.
Jeśli jednak intuicja dostarczy nowych aksjomatów, to pewne problemy przedtem nierozwiązywalne dadzą się rozwiązać, a inne, wymagające nieosiągalnych do tej pory zasobów czasu, staną się łatwe do rozwiązania w czasie, którym realnie dysponujemy.
Jest to stanowisko, które Gödel określał mianem racjonalistycznego optymizmu. Porównajmy go z epistemologicznym optymizmowi Davida Hilberta, który się wyraził w jego słynnej sentencji: Wir müssen wissen, wir werden wissen. Gödel podpisywał się pod tą wiarą, inaczej jednak interpretując czas przyszły. Nie jako przyszły dokonany, kiedy w pewnym momencie posiadłoby się algorytmiczną metodę rozwiązywania wszelkich problemów, lecz jako czas przyszły ciągły (ang. continuous) — na tym polegający, że zbiór problemów rozwiązywalnych będzie się wciąż powiększał, ale nigdy nie zostanie w skończonym czasie wyczerpany, ponieważ, ponieważ świat obiektów matematycznych jest niewyczerpywalny. Trzeba więc po gödlowsku sparafrazować maksymę Hilberta do postaci: musimy wiedzieć, i będziemy wiedzieć coraz więcej i więcej, lecz nigdy nie dowiemy się wszystkiego.
§3. Czy Autor uznaje przewagę epistemologii algorytmicznej Chaitina nad innym odmianami epistemologii teorioinformacyjnej?
Pora zapytać Autora, nawiązując do obiekcji Pawła Stacewicza, o dwie rzeczy. Po pierwsze, czy dostrzega on ów walor epistemologii algorytmicznej, że w wielkim zakresie, mianowicie w sprawie poznania matematycznego, odpowiada ona na trzy tradycyjne zagadnienia epistemologiczne, to jest dotyczące źródeł, kryteriów i granic poznania.
(1) Źródło wiedzy matematycznej jest w intelektualnej intuicji. Pojęcie intuicji nie do końca wyjaśnia źródła poznania, samo jest bowiem w pewien sposób zagadkowe. Tacy autorzy jak Gödel czy Chaitin zdają sobie z tego sprawę i traktują tę zagadkową zdolność umysłu jako rzecz do wyjaśnienia w dalszych badaniach.
(2) Spełnianie kryterium prawdziwości przypisuje ta epistemologia intuicjom, których owocem są efektywne, sprawdzające się w praktyce, algorytmy.
(3) Wytycza ten nurt epistemologii granice poznania algorytmicznego, a zarazem możliwości ich przezwyciężania, przez co granica staje się ruchoma, z tendencją do przesuwania się naprzód. Obrazowo to oddaje amerykański wyraz o dynamicznej treści „frontier” w przeciwstawieniu do statycznego, ograniczającego, słowa”limit”. W tym sensie należy rozumieć zwrot dynamika wiedzy w tytule tego szkicu.
Po drugie, jeśliby Autor „Epistemologii informacji” przyznał, że Chaitinowska epistemologia algorytmiczna daje odpowiedzi (przynajmniej cząstkowe) na podstawowe pytania epistemologiczne, , to zrodzą się z tego kwestie następne. Jedna jest następująca: czy Autor się osobiście z tym odpowiedziami zgadza czy nie, i jak uzasadnia swój pozytywny bądź negatywny stosunek? Druga kwestia dotyczy innych niż algorytmiczna odmian epistemologii teorioinformacyjnej, a więc tych, którym poświęca wiele więcej miejsca (jednemu z nich aż 40 stron) niż koncepcji Chaitin (6 stron). Czy jest tak, że korzystając z pojęć i wyników takiej lub innej teorii informacji przyczyniają się one do rozwiązania kluczowych kwestii epistemologicznych? Należałoby na to odpowiedzieć biorąc kolejno pod lupę propozycje, których autorami są Shannon, Floridi, Dretske, Cackowski, Lubański.
Trzeba się liczyć z odpowiedzią, że nic takiego nie było zamiarem Autora. To znaczy nie zamierzał on posłużyć się środkami teorii informacji dla postępu i modernizacji epistemologii, lecz omawiał je w innym celu. Być może cel ten jest do odczytania w książce, a przeoczeniu tej deklaracji winna jest niestaranność czytelnika. Szkoda jednak, bu pozostał on ofiarą tej swojej niestaranności, pozostając w niewiedzy co do intencji Autora. Dlatego cenna by była jego w tym względzie pomoc w postaci zwięzłego wyjaśnienia, jakie są najważniejsze problemy, na które książka ma dać odpowiedź, i jakie to są odpowiedzi.
P.S. Poglądy Chaitina można poznać w stopniu wystarczającym na potrzeby obecnej dyskusji, czytając jego artykuł „Epistemology as Information Theory: From Leibniz to Omega”. Ramy tego wpisu nie pozwalają na omówienie kluczowego w koncepcji Chaitina pojęcia kompresji informacji. Sygnalizuję je tylko za pomocą jednego cytatu, zachęcając do zapoznania się z całością tego frapującego i jasno napisanego tekstu. Oto ów szczególnie znaczący cytat.
I think of a scientific theory as a binary computer program for calculating the observations. And you have a law of nature if there is compression, if the experimental data is compressed into a computer program that has a smaller number of bits that are in the data it explains. The greater the degree of compression, the better the law, the more you understand the data.