Gödla-Chaitina wizja dynamiki wiedzy jako wiodący
nurt nowoczesnej epistemologii

Pytania do książki Marka Hetmańskiego Epistemologia informacji
pod kątem kontynuacji  omawianych przez nią badań

§1. Niniejszy wpis nawiązuje do dwóch recenzji tej książki mających się ukazać w „Wiadomościach Matematycznych”. Jest to mój tekst pt. „Na czym polega związek epistemologii z teorią informacji? Co do jego zrozumienia wnoszą Leibniz, Gödel i Popper?” oraz Pawła Stacewicza „Epistemologia informacji M.Hetmańskiego. Garść uwag polemicznych z punktu widzenia informatyka”.

Nawiązując do  trafnych, moim zdaniem, spostrzeżeń Pawła Stacewicza, że książka nie docenia  roli informatyki i że nie poświęca dość uwagi tak  podstawowym kwestiom epistemologii, jak źródła i granice poznania,  potraktuję te luki w treści w sposób kooperacyjny — jako będące do wypełnienia przez krytycznych dyskutantów. Są to niedopowiedzenia dające się zrozumieć, gdy książka ma  ogarniać  tak rozległy materiał.  Autor zamierzył  omówić w jednej monografii kilka ważnych pionierskich prób oparcia  epistemologii na nowych podstawach —  naukach o informacji. Epistemologia idzie w dobrym kierunku,  gdy przyswaja sobie idee tak  zakorzenione w osiągnięciach nauk matematycznych, przyrodniczych i technicznych,  jak to się udało pewnym pojęciom i wynikom teorio-informacyjnym.  Współtworzą one epistemologię nowoczesną, należącą do tego poglądu na świat,  który  w podtytule blogu nazywamy światopoglądem informatycznym.

Ten właściwy kierunek wskazuje i pomaga w jego rozumieniu książka prof. Hetmańskiego. A kiedy — mając do czynienia z tematem tak rozległym — coś ważnego studium to pomija lub nie zachowuje proporcji,  to od tego by obraz dopełniać czy korygować  jest krytyczna dyskusja z  walnym udziałem ripostującego Autora. Jej zagajeniu służy obecny wpis i  obie wymienione recenzje, wspomagające ten wpis szeregiem uwag bardziej szczegółowych.

§2. Czy  epistemologię informacji Autor zgodziłby się określić mianem  epistemologii teorioinformacyjnej?

Pierwszy  z tych terminów służy za tytuł całej książki,  co by wskazywało,  że ma on objąć wszystkie rozważane w niej koncepcje informacji pod kątem (to mój domysł) ich zastosowań epistemologicznych. Drugi termin funkcjonuje jako hasło w Indeksie terminów, gdzie jest odnoszony do jednej tylko z rozważanych koncepcji: G.Chaitina,  który kontynuuje wyniki matematyczne i zarazem myśl  filozoficzną Gödla, intensywnie przy tym nawiązując do Leibniza.

Wydaje mi się,  że byłoby zrozumialej, biorąc pod uwagę reguły nazwotwórstwa, ten drugi termin  pojmować szerzej;  to znaczy,  objąć nim (zgodnie z brzmieniem nazwy) jako rodzajem (łac. genus)  wszystkie rozważane teorie informacji. Myśl Chaitin dobrze by się zmieściła, jako jeden z gatunków (species),  pod określeniem: epistemologia  algorytmiczna,  ponieważ  Chaitin nazywa swą teorię algorytmiczną teorią informacji.  Dla pozostałych trzeba by stworzyć w takim drzewie klasyfikacyjnym inne nazwy gatunkowe, np.  „epistemologia teorio-entropijna” dla  takich koncepcji jak Shannona czy Wienera.

Propozycja, żeby koncepcję Chaitina nazwać algorytmiczną ma uzasadnienie w jej treści, dotyczy ona bowiem naczelnego problemu w podstawach  informatyki: efektywności algorytmów.   Mamy powody, by sądzić wraz z Gödlem, że źródłem algorytmów jest intuicja matematyczna; jej to bowiem zawdzięczamy niezbędne do ich konstrukcji aksjomaty arytmetyki, teorii mnogości etc.  oraz logiczne reguły wnioskowania.  Wiemy też od Gödla,  że żaden aktualnie posiadany zasób algorytmów nie wystarcza, by rozwiązać dowolny dobrze postawiony problem matematyczny.  Ta niemożność jest dwojaka:  istnieją problemy, które są (przy danym zasobie algorytmów) nie do rozwiązania. Istnieją też takie, które są rozwiązywalne w zasadzie, ale nie w praktyce, gdyż czas pracy algorytmu przekraczałby te zasoby czasowe, jakimi  realnie dysponujemy.

Jeśli jednak intuicja  dostarczy nowych aksjomatów, to  pewne problemy przedtem nierozwiązywalne dadzą się rozwiązać, a inne,  wymagające nieosiągalnych do tej pory  zasobów czasu, staną się łatwe do rozwiązania w czasie,  którym realnie dysponujemy.

Jest to stanowisko,  które Gödel określał mianem racjonalistycznego optymizmu. Porównajmy go z  epistemologicznym optymizmowi Davida Hilberta, który się wyraził w  jego słynnej sentencji: Wir müssen wissen, wir werden wissen.  Gödel podpisywał się pod tą wiarą,  inaczej jednak interpretując czas przyszły. Nie jako przyszły dokonany, kiedy w pewnym momencie posiadłoby się algorytmiczną metodę rozwiązywania wszelkich problemów, lecz jako czas przyszły ciągły (ang. continuous) — na tym polegający,  że zbiór problemów rozwiązywalnych będzie się wciąż powiększał, ale nigdy nie zostanie  w skończonym czasie wyczerpany, ponieważ, ponieważ świat obiektów matematycznych jest niewyczerpywalny.   Trzeba więc po gödlowsku sparafrazować maksymę Hilberta do postaci: musimy wiedzieć,  i będziemy wiedzieć coraz więcej i więcej, lecz nigdy nie dowiemy się wszystkiego.

§3.  Czy Autor uznaje przewagę epistemologii algorytmicznej Chaitina nad innym odmianami  epistemologii teorioinformacyjnej?

Pora zapytać Autora, nawiązując do obiekcji Pawła Stacewicza,  o dwie rzeczy. Po pierwsze, czy dostrzega on ów walor epistemologii  algorytmicznej, że w wielkim zakresie, mianowicie w sprawie poznania matematycznego,  odpowiada ona na trzy tradycyjne zagadnienia  epistemologiczne, to jest dotyczące źródeł,  kryteriów i granic poznania.

(1)  Źródło wiedzy matematycznej jest  w intelektualnej intuicji. Pojęcie intuicji nie do końca wyjaśnia źródła poznania, samo jest bowiem  w pewien sposób zagadkowe. Tacy autorzy jak Gödel czy Chaitin zdają  sobie z tego sprawę i traktują tę zagadkową zdolność umysłu jako rzecz do wyjaśnienia w dalszych badaniach.

(2) Spełnianie kryterium prawdziwości przypisuje ta epistemologia intuicjom, których owocem są efektywne, sprawdzające się w praktyce, algorytmy.

(3)  Wytycza  ten nurt epistemologii  granice poznania algorytmicznego, a zarazem możliwości ich przezwyciężania, przez co granica staje się ruchoma, z tendencją do przesuwania się  naprzód. Obrazowo to oddaje amerykański wyraz o dynamicznej  treści „frontier” w przeciwstawieniu do statycznego, ograniczającego, słowa”limit”. W tym sensie należy rozumieć zwrot dynamika wiedzy w tytule tego szkicu.

Po drugie,  jeśliby Autor „Epistemologii informacji” przyznał,  że Chaitinowska epistemologia algorytmiczna daje odpowiedzi (przynajmniej cząstkowe)  na podstawowe pytania epistemologiczne, , to zrodzą się z tego  kwestie następne. Jedna jest następująca: czy Autor się osobiście z tym  odpowiedziami zgadza czy nie, i jak uzasadnia swój pozytywny bądź negatywny stosunek?  Druga kwestia dotyczy innych niż  algorytmiczna odmian epistemologii teorioinformacyjnej, a więc tych, którym poświęca  wiele więcej miejsca (jednemu z nich aż 40 stron) niż koncepcji Chaitin (6 stron).  Czy jest tak,  że korzystając z pojęć i wyników takiej lub innej teorii informacji przyczyniają się  one do rozwiązania kluczowych kwestii epistemologicznych?  Należałoby na to odpowiedzieć biorąc kolejno pod lupę propozycje, których autorami są Shannon, Floridi, Dretske, Cackowski, Lubański.

Trzeba się liczyć z odpowiedzią, że nic takiego nie było zamiarem Autora.  To znaczy nie zamierzał on posłużyć się środkami teorii informacji dla postępu i modernizacji epistemologii, lecz omawiał je w innym celu.  Być może cel ten jest do odczytania w książce, a przeoczeniu tej deklaracji winna jest niestaranność czytelnika. Szkoda jednak, bu pozostał on ofiarą tej swojej niestaranności, pozostając w niewiedzy co do intencji Autora. Dlatego cenna by była jego w tym względzie pomoc w postaci zwięzłego wyjaśnienia, jakie są najważniejsze problemy, na które książka ma dać odpowiedź, i jakie to są odpowiedzi.

P.S. Poglądy Chaitina można poznać w stopniu wystarczającym na potrzeby obecnej dyskusji, czytając jego artykuł „Epistemology as Information Theory: From Leibniz to Omega”.   Ramy tego wpisu nie pozwalają na omówienie kluczowego w koncepcji Chaitina  pojęcia kompresji informacji. Sygnalizuję je tylko za pomocą jednego cytatu, zachęcając do zapoznania się z całością tego  frapującego i jasno napisanego tekstu.  Oto ów szczególnie znaczący cytat.

I think of a scientific theory as a binary computer program for calculating the observations. And you have a law of nature if there is compression, if the experimental data is compressed into a computer program that has a smaller number of bits that are in the data it explains. The greater the degree of compression, the better the law, the more you understand the data.

Ten wpis został opublikowany w kategorii Dialogi wokół recenzji, Epistemologia i ontologia, Filozofia informatyki. Dodaj zakładkę do bezpośredniego odnośnika.

Komentarze do Gödla-Chaitina wizja dynamiki wiedzy jako wiodący
nurt nowoczesnej epistemologii

  1. km pisze:

    W artykule z pomocą którego „poglądy Chaitina można poznać w stopniu wystarczającym na potrzeby obecnej dyskusji” poświęconym epistemologii informacji dziwi mnie metodologia argumentacji mającej przekonać do wyrugowania (nie tylko z arsenału poznania ale wręcz w ogóle) z rozumowania jakiegokolwiek środków niosących w sobie potencję zdefiniowania nieobliczalności. Autor zdaje się przekonywać do sceptycyzmu wobec liczb rzeczywistych nie dlatego, że nie ma się po co nimi zajmować, gdyż nie są właściwymi środkami opisu rzeczywistości.
    Powodem ma być wynik obliczania: sumowanie w/w niepraktyczności z trudnościami zrozumienia ma dać wynik w postaci nieistnienia.

    Skoro wszelki byt jest cyfrowo nieciągle skończony to „dzięki jakim intelektualnym procesom uświadamiamy sobie znaczenie nieskończonych całości”? Rzeczywiście pewnie wielu nieobliczalności nie mieszczą się w głowie, ale (chyba niestety dla argumentacji Chaitina) niektórzy twierdzą, że je rozumieją- a wyniki swego rozumowania są w stanie intersubiektywnie uzgadniać. (Może jest to zmowa nauczycieli matematyki, którą Chaitin demaskuje w swojej książce Meta Math!?)

    Problem z tym, że sukcesywne postępowanie zgodnie z regułą użycia liczb rzeczywistych jeszcze silniej przemawia za istnieniem liczb rzeczywistych (jako struktur z ogólnej teorii rozmaitości) niż gdyby byt dany był im jedynie w formie „wiecznych prawd” Leibniza- całkowicie niezależnych od każdego faktu rzeczywistości. Gdyby nikt nie potrafił ich stosować zgodnie z przeznaczeniem, przedstawić ich właściwości wynikających tylko i wyłącznie z ich wzajemnego bycia określonymi można by być sceptycznym w stosunku do ich istnienia.

    Sam Chaitin przyznaje, że wskazanie w sposób jaki pokazał liczby rzeczywistej w zadanym przedziale nie jest zerowe, choć wartości prawdopodobieństwa trafienia w obliczalną czy nieobliczalną liczbę rzeczywistą są trudne do pojęcia. Trudno zatem zrezygnować (i to nawet praktycznemu Inżynierowii) z przyznawania liczbom rzeczywistym prawa swoistego im bytowania.

    Jeśli zaś chodzi o argumenty z nauk ścisłych to argumentacja także budzi moje wątpliwości.

    Autor przywołuje zasadę nieoznaczoności by przekonać, że w fizyce nie ma możliwości zmierzenia wartości, dla których wyrażenia konieczne byłyby liczby rzeczywiste. Cóż zdaje się poddawać to w wątpliwość już pierwsza z pozycji referencji artykułu, gdyż na stronie http://www.digitalphilosophy.org/ w eseju „Note on the Uncertainty Principle” Edward Fredkin pisze: „It is a simple misunderstanding of the uncertainty principle to state that one cannot make measurements, with arbitrary precision…”

    Jeśli zaś chodzi o argument rozpoczynający się od hasłowego wprowadzenia zasady holograficznej to budzi on moje wątpliwości. Nie domagam się tego by Chaitin wyjaśnił mi jak z tej teorii wynika że przejście z upakowaniem informacji układu z 3D na 2D dowodzi dyskretyzacji czasoprzestrzeni- musiałby posłużyć się aparatem matematycznym, którego nie zdołałbym pojąć. Sęk w tym, że autor nie wspomina, że gdy w 1975 Hawking dowodził możliwości wypromieniowywania energii przez czarne dziury fizyk ten stwierdził, że brak struktury tego promieniowania wskazuje na to, że osobliwość unicestwia informację. Inni fizycy zaprotestowali: „Gmach całej naszej wiedzy zawali się, jeżeli choć troszkę uchylimy drzwi tyko dla samej idei, że informacja może ginąć”. Następnie przez kilkadziesiąt lat robiono wszystko by stworzyć koncepcję, która tłumaczyłaby obserwacje przy założeniu pierwotnej roli informacji (czyli tego do czego chce przekonać Chaitin). Co wynika z tego koła poza tym, ze można w nie wpisać obserwacje?

    Wszystko to nie podoba mi się z powodu, że wszystko w tym artykule jest formułowane tak, że powinniśmy ograniczać się w epistemologii do środków zatwierdzonych przez Chaitin’a gdyż na podstawie jego przykładów z różnych dziedzin może się zdawać że jest tak a tak…

    Tymczasem nawet jeśli dyrektor Fermilab Craig Hogan zbuduje „holometr”- mikroskop do obserwacji długości Plancka” (coś podobnego służyło Michelson’owi i Morley’owi do badania istnienia eteru) i wykryje „atomy czasu i przestrzeni” to szczególnego rodzaju idealistycznego realizmu by trzeba by wywieść z tego nieistnienia (czy nawet tylko sceptycyzmu) tak czy inaczej zdefiniowanych liczb.

  2. Marek Hetmański pisze:

    Uwagi profesora Witolda Marciszewskiego i doktora Pawła Stacewicza, dotyczące monografii „Epistemologia informacji”, idą w dwóch kierunkach: pytań o (1) charakter epistemologicznych analiz kategorii (pojęcia) informacji oraz uwag na temat (2) znaczenia informatyki dla epistemologii. Dokładniej mówiąc, dyskutantom chodzi o to, aby doprecyzować, jakie są (pyta o to W. Marciszewski) relacje natury metodologicznej między ogólnym terminem „epistemologia informacji” a podrzędnymi terminami/nazwami odnoszącymi się do konkretnych dyscyplin czy stanowisk, z którymi można się już spotkać w ponad półwiekowym nurcie badań nad informacją. A także, jaka jest rzeczywista (pyta P. Stacewicz) ranga informatyki dla filozoficznej (epistemologicznej) refleksji nad zjawiskami informacyjnymi.

    Wyznam już na samym początku, że zostałem spytany o problemy, które w całości mojej monografii znajdują nie centralne, lecz raczej poboczne (nie mówię, że drugorzędne) ujęcie. Z racji charakteru przeglądowego i monograficznego, na co Dyskutanci łaskawie zwrócili uwagę, „Epistemologia informacji” nie eksponuje jednego, wyróżnionego punktu widzenia. Postawiłem sobie zadanie sprawozdania ze stanu badań i uzyskiwanych wyników w wielowątkowym nurcie określanym na różne sposoby jako zwrot informacyjny, postawa/nastawienie informacyjne, filozofia informacji, światopogląd informatyczny. Uważam, że filozof, zwłaszcza epistemolog, winien orientować się, co znaczącego wprowadziły do cywilizacji, kultury rewolucje informatyczna i komputerowa. Nie powinien jednak ograniczać swoich badań wyłącznie do metamatematycznych dyskusji nad wartością algorytmicznego dowodzenia, zagadnień niezupełności i nieobliczalności ani też kwestii cyfrowej (binarnej) natury rzeczywistości. Są to bez wątpienia fascynujące zagadnienia nauki, które wciąż ogniskują uwagę większości matematyków, informatyków i, rzecz jasna, filozofów.

    Sądzę jednak, że poza tymi zagadnieniami istnieje jeszcze jeden, niezwykle ważny problem natury epistemologicznej – wpływ pojęć, jak i technik informatycznych (np. algorytmu i algorytmicznych narzędzi) na rzeczywiste poznanie przez ludzi i wiedzę, którą uzyskują za ich sprawą. Uważam, że ludzkie poznawanie (percepcja, wyobraźnia czy przypominanie), zmierzając do uzyskiwania jakichś rodzajów wiedzy (sądów, mniemań, opinii, hipotez, teorii) zawsze wspomaga się różnorodnymi narzędziami, które współtworzą tą wiedzę. Informatyczne i komputerowe narzędzia, także leżące u ich podstaw wyrafinowane pojęcia obliczalności/nieobliczalności czy intuicji niealgorytmizowalnej, bardzo dużo dały w ostatnim półwieczu. Poznawanie się usprawniło, wiedzy przybyło (jak i trudności oraz kłopotów z tego wynikających, o czym należy pamiętać), wzrósł optymizm poznawczy. Ale na te zjawiska należy popatrzeć także krytycznie. Słowem, nie od stricte informatycznej, lecz szeroko pojętej informacyjnej strony. Żeby jednak ukazać znaczenie i wartość mojego podejścia, muszę jednak odnieść się najpierw do kwestii szczegółowych poruszonych przez obu dyskutantów, potem dopiero powrócę do ogólnej.

    Epistemologię informacji (za akcentem na przedmiot tej dyscypliny) traktuję jako część ogólniejszych badań nad zjawiskami, zdarzeniami, procesami o informacyjnym charakterze (o tym charakterze za chwilę). Odpowiadając na pytanie profesora Marciszewskiego (&2), powiem, że teorioinformacyjnej perspektywy (nawiązującej wprost do koncepcji termodynamicznych, entropijnych czy algorytmicznych interpretacji) nie można uznać za główną podstawę dla tak pojętej epistemologii. Zatem Chaitinowska algorytmiczna teoria informacji nie jest epistemologią sensu stricte, myślę, że w ogóle nie jest żadną teorią wiedzy i poznania; tytuł jego tekstu („Epistemologia jako teoria informacji: od Leibniza do Ω”) jest dezinformujący. Muszę wyznać, że Chaitin sprawia mi kłopoty ze zrozumieniem jego stanowiska i oceny (na którą mimo wszystko zasługuje). Miałem okazję słuchać jego wykładu, przestudiowałem parę jego tekstów i nadal mam wątpliwości co do rangi wniosków, do których dochodzi (notabene, w niejednej wypowiedzi publicystycznej wyznaje, że w tej samej kwestii ma niekiedy różne zdania…). Chaitin stwierdza mianowicie, że do podania efektywnych „dowodów twierdzeń o niezupełności w duchu teorii informacji”, czyli Gödlowsko-Turingowskiego problemu natury algorytmicznego dowodzenia, konieczna jest „epistemologia jako teoria informacji”. Istotę takiej epistemologii ogranicza on mocno, gdyż klasę zjawisk poznawania zawęża zasadniczo do procedur dowodzenia. O innych czynnościach poznawczych (rozumieniu czy orzekaniu prawdziwości) zbyt wiele nie mówi. Zgoda, podnosi klasyczny już problem intuicyjności dowodzenia, lecz nie wykracza poza ten obszar badań. W moim rozumieniu epistemologii – dyscypliny filozoficznej wspartej również na naukowych metodach, badającej także klasę zjawisk poznawania, jakie spotyka się w nauce (owe „również” i „także” są dla mnie znaczące) – nie jest on epistemologiem. Jest wybitnym informatykiem, który robi małe wypady w stronę zbyt wąsko pojętej teorii poznania (harcuje w filozofii, powiedziałbym raczej…).

    Oczywiście, moja ocena podejścia reprezentowanego przez Chaitina nie zwalnia mnie z odpowiedzi na pytanie, które otrzymałem. Czym zatem jest tak naprawdę epistemologia informacji? Są to analizy – genezy, struktury i wartości (prawdziwości) w klasycznym ich rozumieniu – zjawisk poznawczych, procesów i czynności poznawania oraz rodzajów wiedzy, które mają charakter informacyjny. Lecz, co to znaczy „informacyjny” charakter poznania czy wiedzy? (Używam go w monografii wielokrotnie, lecz uświadamiam sobie, że spełnia on rolę terminu pierwotnego, dla którego nie podaję definicji, za każdym jego użyciem dopowiadając zaledwie jego kontekst, wskazując na użycia, przykłady itp.). Najważniejszym zadaniem do wykonania przez epistemologię informacji jest określenie rzeczywistych relacji w obrębie pojęciowo-kategorialnego układu: sygnały – dane – informacja. Tę triadę spotkać można wszędzie tam, gdzie mamy do czynienia z poznawaniem i zdobywaniem wiedzy. Uzupełnia ją również kategoria czwarta – wiedza. Myślę, że jest to zrozumiałe dla każdego epistemologia, logika i informatyka. Na tym więc poprzestanę, licząc na oczywistość i intuicyjność tego stanowiska.

    A teraz odpowiedź w sprawie znaczenia informatyki dla epistemologii informacji, o co pyta doktor Stacewicz. W informatyce termin „wiedza” ma dość wąskie znaczenie i jest odnoszony do baz danych, hurtowni danych itp. Można mimo to uznać pewne jego rozumienie – wykonywanie operacji metainformacyjnych, np. przeszukiwanie czy tworzenie ekspertyz w obrębie baz danych – za ważną i obiecującą eksplikację w stosunku do tradycyjnego pojęcia wiedzy funkcjonującego w epistemologii czy psychologii. W tym sensie informatyka jest pomocna dla epistemologii. Moje podejście do informatyki jest rzeczywiście nieco „sceptyczne”, jak zauważył trafnie mój oponent, jest chyba nawet nieco … dyletanckie (muszę przyznać), lecz wynika to z wąskiego ujęcia tej ważnej dyscypliny naukowej, którą przyjąłem. Tutaj znowu działa mój sprzeciw wobec zawężania informatyki, a robi to wielu samych informatyków, do roli teorii i narzędzia zajmującego się „pewną formą informacji, a mianowicie przetwarzanymi komputerowo danymi”, jak stwierdza P. Stacewicz. Nie można mieć obiekcji do tego ujęcia, jest ono powszechne. Ale, zauważmy, wyznacza ono w nieunikniony sposób obszar badań zjawisk informacyjnych (w moim, powyższym rozumieniu) tylko do takiej jej postaci, która łączy się z kodowaniem informacji w fizycznych układach, jakimi są komputery i wszelkie inne narzędzia, które z nimi są sprzęgnięte. Moim zdaniem to zawężenie kategorii informacji – efekt specyficznie „informatycznego” punktu widzenia, który tak powszechnie się przyjmuje – jest wprawdzie z cywilizacyjnego i naukowego punktu widzenia nieuniknione, ale wcale nie musi być jedyne. Cybernetyka, która współuczestniczyła w powstawaniu informatycznego nastawienia, o wiele szerzej pojmowała te sprawy. Pojmowała, gdyż mało kto się do niej dzisiaj odwołuje. Notabene, pod tym względem na uwagę zasługuje wciąż twórczość Gregory’ego Batesona, którego pojmowanie zjawisk informacyjnych jest dla mnie niezwykle ważne i obiecujące, a wciąż mało wykorzystywane.

    Uważam zatem, że postulowana przeze mnie epistemologia informacji powinna iść w tym właśnie kierunku – doprecyzowywania swoich kategorii podmiotu, poznania, sądzenia i nazywania, komunikowania, wiedzy, wiarygodności, prawdziwości – w oparciu o szeroką interpretację interdyscyplinarnej kategorii informacji. .

    Mam nadzieję, że szanowni moderatorzy dyskusji, do której zostałem przywołany nie uznają moich odpowiedzi i uwag za zejście z placu boju, czy uniki w odpowiedzi na ich ważne pytania. Ja po prostu chcę, pozostając w polu rażenia ich celnych uwag i zarzutów, udeptać raczej nowe, trochę inne pole do dalszej debaty. Mam nadzieję, że wybaczona mi będzie ta metaforyka przyrównująca (zgodnie z kognitywną teorią metafory, nad którą ostatnio pracuję) argumentację do walki.

  3. Nie podejmuję na razie merytorycznej dyskusji, bo wymagać będzie pewnego czasu przemyślenie odpowiedzi Autora, i w ich świetle powtórna lektura i analiza niektórych partii książki. Myślę, że jasne zdanie sprawy z intencji Autora w jego odpowiedzi, zmodyfikuje ileś moich zastrzeżeń.

    Przewiduję jednak, że (o ile głębsza refleksja tego nie zmieni), że będę podtrzymywał, a nawet silniej akcentował wielką doniosłość epistemologiczną tej konsekwencji odkryć Gödla, którą on sam i Hao Wang nazywają racjonalistycznym optymizmem, a chodzi tu o racjonalizm w sensie klasycznej epistemologii, taki np. jak Leibniza. Jest to myśl o niewyczerpalności (inexhaustibility) dziedziny matematyki i o szansach sukcesywnego przekraczania przez rozum (pojęty po platońsku) kolejnych granic poznawczych, który to proces wymagałby czasu nieskończonego, z racji nieskończoności dziedziny. I tak, dopóki trwa świat i cywilizacja, wiedza będzie się wciąż rozrastać, nigdy nie osiągając pełni.

    Jest to pogląd na dynamikę wiedzy wysoce nietrywialny, wyklucza on np. wiarę wielu fizyków (w tym Hawkinga) w osiągnięcie „theory of everything”. A z takim rysem pesymizmu, łączy się ów optymizm, że rozum będzie umiał kolejno pokonywać wyrastające przed nim bariery. Oczywiście, bez sensu byłoby czynić komuś zarzut, że tego poglądu nie podziela. Nadal jednak słuszny wydaje mi się postulat, żeby w takiej monografii przeglądowej, jak tu omawiana, poświęcić temu poglądowi o wiele więcej uwagi, z ewentualnymi uwagami krytycznymi.

    Co się tyczy Chaitina, to nie ma powodów, żeby być jego wyznawcą. Sam mam zastrzeżenia wobec jego rezerwy co do istnienia liczb rzeczywistych. Z tego względu cieszą mnie szczegółowe uwagi krytyczne co do traktowania tych liczb przez Chaitina, jakie dał poprzedni komentator — km. Myślę, że w obronę liczb rzeczywistych z epistemologicznego punktu widzenia włączy się P.Stacewicz jako doceniający doniosłość procesów analogowych.

    Co nie przeszkadza doceniać inne punkty u Chaitina, do czego chciałbym jeszcze kiedyś wrócić.

  4. Cieszy mnie, że km broni liczb rzeczywistych przed Chaitinem, którego sceptycyzm w tej materii jakoś mnie uwiera. Liczę, że wzmocni ten front Paweł Stacewicz, pasjonujący się continuum w związku z analogowym przetwarzaniem informacji. Nie będąc matematykiem, nie mam do tego tematu łatwego dojścia, ale po uwagach obu Panów, będę próbował coś w tej materii pomyśleć i podzielić się tym w blogu.

  5. km pisze:

    Ze sceptycyzmem Chaitina wobec liczb rzeczywistych- w szczególności argumentów z braku korespondencji liczb rzeczywistych z fizycznymi zjawiskami -w ogóle nie byłoby problemów gdyby przyjąć istnienie czegoś w rodzaju obszaru wiedzy obiektywnej czyli Poppera „świata 3” (uniwersum „logicznych treści książek, bibliotek, pamięci komputerowych i im podobne”).
    Przy takim założeniu „istnieje sens, w którym można mówić o świecie 3, że jest autonomiczny. W świecie 3 możemy dokonywać odkryć teoretycznych, podobnie jak dokonujemy odkryć geograficznych w świecie 1 (fizycznym)”.
    Zdefiniowane liczby rzeczywiste istniałyby logicznie w tym świecie bez względu na ich użyteczność (w- jak chce Popper- zawsze hipotetycznych teoriach przedstawiających rzeczywistość)
    Wyrazu tej hipotetyczności oraz tego, że obrazy nauki są modelami w ogóle w przedstawieniach Chaitina zdaje się brakować.

  6. Wykładu Poppera o trzecim świecie słuchałem na światowym Kongresie Logiki w Amsterdamie, 1967. Byłem przejęty tym, że ktoś taki potwierdził moje intuicje o istnieniu obszaru realności poza tym, co fizyczne i co psychiczne. Myśl km-a o zaliczeniu doń liczb rzeczywistych wydaje się obiecująca jako pierwszy krok – uniezależniający tę dziedzinę od dziedziny fizycznej.

    Ale pojawia się problem, w którego rozpatrywaniu mistrzem był Ingarden. Rozwijał on myśl, że w sferze obiektów intencjonalnych (a te by należały do trzeciego świata), jak postać literacka czy utwór muzyczny, przedmioty są niedookreślone, mają „puste miejsca” możliwe do wypełnienia, np. przez dopowiedzenie daty urodzenia Telimeny czy taką lub inną interpretację partytury. Natomiast liczby rzeczywiste są dookreślone, nawet te nieobliczalne; w rozwinięciu, np. binarnym, nie ma miejsc pustych, gdzie można by dowolnie wstawić zero lub jedynkę. Ponadto, obiekty trzeciego świata mają początek w czasie, np. Telimena nie istniała, póki nie opisał jej poeta, co żadną miarą nie odnosi się do liczb rzeczywistych.

  7. km pisze:

    Chyba, że liczby rzeczywiste- w swym definicyjnym dookreśleniu (bez miejsc pustych) rozpoczęły swe istnienie w 3 świecie (obiektywnej wiedzy- spisanej i przedstawionej do krytyki) od momentu ich zdefiniowania.
    To ich istnienie (w świecie 3) może być niezależnie od możliwości ich istnienia odwiecznego w jeszcze innej „mierze”- gdzieś w świecie Platońskich idei.
    A to właśnie ta w wiecie 3 egzystencja jest interesująca dla kwestii epistemologii nauk ścisłych, które „tworzą” byty krążące w ramach obszaru określanego także w krytycznej dyskusji .

    Na marginesie dodam, bowiem, że uważam, iż jeśli
    ktoś uważa, że Tarskiego semantyczna teoria prawdy jest wartościowym rezultatem dla aletejologii (mimo, że nie wyczerpuje przecież w pełni tej problematyki).
    to
    winien przychylnym okiem spojrzeć na koncepcje Poppera w kwestii epistemologii właśnie.
    Zwłaszcza wobec analogii, która sama się nasuwa gdy w metodzie nauki:
    weryfikujemy trafność przewidywania systemu ( naukowego modelu teoretycznego) konfrontując
    1.pomiar wielkości fizycznej (w skonstruowanym zgodnie z teorią eksperymencie)
    z
    2.orzeczeniem teorii co do przewidywanego wyniku pomiaru
    Wynik konfrontacji oceniamy na podstawie „definicji znaczeniowych” i „warunków prawdziwości” w ramach systemu- teorii naukowej już niejako w meta-spojrzeniu na to czy wzajemnie ze sobą korespondują.
    Takie ujęcie pozwala zrozumieć kwestie jednoczesnego dążenia do prawdy (nie instrumentalnie rozumianej) i tego, że obraz modelów opisujących rzeczywistość może się zmieniać (a mimo to przejścia graniczne pomiędzy teoriami zostają zachowane- przeprowadzenie eksperymentu zgodnie z instrukcją starej teorii dadzą takie same rezultaty mimo zmiany klasy zdań prawdziwych i zmiany znaczenia)

    Krótko mówiąc (bo jak zwykle odbiegłem od tematu) – w opisie Chaitina brakuje mi ogromnej części „krytycznych” dla zrozumienia właściwego sensu naukowych ustaleń kwestii- już niezależnie od sprawy istnienia czy nieistnienia liczb rzeczywistych.

    • km pisze:

      Oczywiście jeśli mnożenie niekoniecznych bytów jest grzechem to co dopiero powiedzieć o mnożeniu światów. Jednak gdy siedzę przed encyklopedią matematyki to żywię naiwną ufność w istnienie logicznych treści definicji tam przedstawionych- nawet jeśli chochlik drukarski pomieszał szyki wydawcy i definicje tam zawarte są „niekoniecznie równoważne” określeniom z innej pozycji (różnica może być także oczywiście podyktowana premedytacją np. 0 należy lub nie do zbioru liczb N).
      Jeśli miałbym brzytwą odciąć jakieś uniwersum niekonieczne w naukowej (nauk „empirycznych” nie matematyce) dyskusji byłaby to rozmaitość odkrywanych „odwiecznych idei” gdyż i tak gdy przychodzi mi o nich dyskutować niepostrzeżenie wkraczam do świata 3 (uzgadniając ich definicje).

  8. Paweł Stacewicz pisze:

    Przede wszystkim chciałbym podziękować profesorowi Hetmańskiemu za tak obszerne odniesienie się do mojej części recenzji Jego książki. Nie była to, rzecz jasna, recenzja wyczerpująca, lecz (jak głosił jej tytuł) pewne wybiórcze uwagi do tych fragmentów monografii, które tyczyły się relacji epistemologia-informatyka.

    Ustosunkowując się (trochę na gorąco) do zamieszczonych w blogu wyjaśnień Autora monografii chciałbym powiedzieć, co następuje:

    1) Budowanie filozoficznej teorii wiedzy (czyli epistemologii) w interdyscyplinarnych kategoriach informacyjnych musi napotkać (krytyczny moim zdaniem) problem rzeczonej interdyscyplinarności, czyli de facto, wieloznaczności terminu „informacja”. Przedstawione w książce RÓŻNE ujęcia relacji informacja-wiedza są dobitnym wyrazem tego problemu. Co innego bowiem rozumie się przez informację w cybernetyce, co innego u F. Dretskego, co innego u G. Chaitina etc…
    Czy jest możliwa synteza tych różnych ujęć, a epistemolog powinien dążyć ku jej wypracowaniu?
    A może nie jest ona w ogóle potrzebna, bo epistemolog powinien pozostać znawcą różnych ujęć i ich kompetentnym krytykiem (rozumiejąc fakt wieloznaczności terminu „informacja”)?
    Ciekaw byłbym zdania Autora w tych sprawach. (Przy czym moje nastawienie jest takie, że wobec nieusuwalnych chyba trudności w wypracowaniu rzeczonej syntezy, najbardziej efektywne poznawczo jest przyjęcie jakiejś formy redukcji, np. redukcji informacji do (komputerowych) danych, i objaśnianie w ramach podejścia redukcjonistycznego, na czym dokonana redukcja polega i jakie zagadnienia pozwala rozwiązać, a jakich, wręcz przeciwnie, nie pozwala…).
    Wydaje mi się nadto, że prezentacja i analiza różnych znaczeń terminu „informacja”, a także właściwych tym znaczeniom relacji „informacja-wiedza”, powinno stanowić zaledwie WSTĘP do „Epistemologii informacji”, która to nauka winna ciążyć ku tradycyjnym problemom teorio-poznawczym, jak: źródła poznania, granice poznania i normy poznania prawomocnego (np. naukowego). Zastrzegam tu, że piszę te słowa jako epistemologiczny laik (a przynajmniej nie-specjalista).

    2) Jeśli chodzi o informatyczną kategorię WIEDZY (bazy wiedzy, inżynieria wiedzy itp pojęcia np. z dziedziny badań nad SI), to wydaje mi się, że nie jest ona przydatna dla epistemologii. Tego rodzaju „wiedza” to byłyby po prostu dane odpowiednio dobrze/efektywnie zorganizowane, a ponadto zaakceptowane przez ekspertów z danej dziedziny (np. baza wiedzy w systemie eksperckim to byłby zbiór danych zatwierdzonych przez pewne grono specjalistów).
    Przy takim podejściu znikają całkowicie typowo filozoficzne kwestie natury wiedzy czy kryteriów uzasadniania wiedzy eksperckiej; pozostaje jedynie fakt „odgórnego” określenia, że pewien zbiór danych stanowi wiedzę. (Sytuacja taka jest w gruncie rzeczy dla filozofów „sprzyjająca”, bo zyskują oni możliwość objaśniania informatykom kwestii, które leżą poza zasięgiem ich badawczej perspektywy).
    Pomimo tego wszystkiego jednak, to znaczy pomimo czysto technicznego sposobu użycia terminu „wiedza” w informatyce, pozostają do rozpatrzenia ważne kwestie, czy przypadkiem same własności nośnika owej „wiedzy”, a także technik jej kodowania i przetwarzania, nie wyznaczają istotnych granic ludzkiego poznania (związanych np. z istnieniem problemów nieobliczalnych bezwzględnie lub praktycznie).

    3) W komentarzu profesora Hetmańskiego przykuło moją uwagę zdanie: „Najważniejszym zadaniem do wykonania przez epistemologię informacji jest określenie rzeczywistych relacji w obrębie pojęciowo-kategorialnego układu: SYGNAŁY – DANE – INFORMACJA”.
    W moim odczuciu brzmi to bardzo informatycznie. Sygnały i dane to coś, co przetwarzają informatyczne systemy (bardzo różne zresztą: cyfrowe vs analogowe, sekwencyjne vs równolegle, tradycyjne vs selekcyjne etc…).
    Ja do tej triady (którą prof. Hetmański słusznie uzupełnia o pojęcie wiedzy) dodałbym jeszcze kategorię LICZBY. W matematycznej analizie sygnałów przetwarzanych przez maszyny (a także i ludzi) sygnałom bowiem odpowiadają liczby, a danym — układy liczb (powiązanych pewnymi relacjami).
    Skoro zaś taka odpowiedniość istnieje, to epistemologiczna analiza triady sygnały-dane-informacja zyskuje matematyczny punkt odniesienia, a mówiąc inaczej, dodatkowe matematyczne pole analiz. I na tym właśnie polu „działa” Chaitin ze swoim odkryciem nieobliczalnej liczby Omega. Na tym także polu wyłania się doniosłe rozróżnienie sygnałów cyfrowych i analogowych — któremu odpowiada w teorii liczb dobrze rozpracowane rozróżnienie między liczbami naturalnymi (i sprowadzalnymi do nich innymi typami liczb, np. wymiernymi) oraz liczbami rzeczywistymi. I właśnie wokół tego rozróżnienia krążyły poprzednie komentarze.

    • km pisze:

      Matematyczne pole analiz dla epistemologii- przedstawiania sobie rzeczywistości poprzez przetwarzanie układów sygnałów (liczb) połączonych relacjami (zgodnie z podstawowymi kategoriami myślenia dla osiągnięcia „jedności projektowanej” w całości przejawiających się danych)- przedstawiła „Substancja i funkcja” Ernsta Cassirera blisko sto lat przed Chaitin’em (i moim zdaniem lepiej)

    • Marek Hetmański pisze:

      Odniosę się do uwag doktora Stacewicza na temat statusu oraz interdyscyplinarnego charakteru analiz kategorii informacji. Są one faktem, z czego relację zdałem w monografii; jest ich zresztą o wiele więcej (np. w psychologii czy ekonomii), będzie zapewne ich przybywało. Można niemniej powiedzieć, na co chcę zwrócić uwagę, że nie warto wiązać z nimi zbyt wielkich oczekiwać, zwłaszcza w postaci wiary w wypracowanie jednolitej, unifikującej kategorii, która dałaby jednorodny obraz świata (trudno dzisiaj o tym marzyć w stylu Carnapowskiej „unified science”). Lepiej dbać o dystynkcję i precyzję pojęciową. Epistemolog to specjalista od różnych rodzajów wiedzy i poznania, ale nie teoretyk, który ma budować ostateczną teorię poznania wszelkiego i tylko jednej prawdziwej wiedzy. Jeśli zatem bierze się on za kategorię informacji, to w celu rozpoznania jej licznych znaczeń oraz użyteczności w doprecyzowaniu niektórych zagadnień tradycyjnej epistemologii. Jednym z najważniejszych jest zaś wyjaśnienie mechanizmów przechodzenia od doznań zmysłowych, prostych wyobrażeń, czy przypomnień do złożonych postaci wiedzy – przekonań, sądów, przesądów, zdań, hipotez i teorii. Uważam, że kategoria informacji jest pomocna w tym właśnie zadaniu. Nie znaczy to, że tylko za jej pomocą można to wyjaśnić; wszak o powstawaniu wiedzy z doznań zmysłowych decydują również podświadome czy intuicyjne mechanizmy, których za pomocą kategorii informacji nie daje się tak łatwo opisać. Słowem, widzę znaczenie kategorii informacji dla niektórych tylko zagadnień epistemologicznych.
      A teraz kwestia związku informatyki z epistemologią, która doktora Stacewicza tak bardzo zajmuje. Oczywiście, „wiedza” w obu dyscyplinach ma różne znaczenia. Mnie interesuje zagadnienie stopnia (i skutków) wpływu informatycznej wiedzy (tj. baz danych, eksperckich programów itp.) na ludzką wiedzę w jej „naturalnej” postaci (używam cudzysłowu, gdyż tak na prawdę prawie że każda wiedza, którą człowiek zdobywa na skutek jakichś operacji i za pomocą określonych narzędzi nie jest naturalna, tylko sztuczna). Epistemolog ma sporo do powiedzenia w tej kwestii. Nie sądzę jednak, aby (jak sugeruje dr Stacewicz) nie mógł podjąć zagadnienia uzasadniania wiedzy informatycznej. Może to robić, ale nie w sposób, w jaki, przykładowo, fenomenologia uzasadniała prawdziwość naocznego poznania bezpośredniego (tj. nieodwoływania się do poznania naukowego). Uzasadnić wiedzę w, powiedzmy, znaczeniu informatycznym, to wskazać na jej funkcje poznawczo-praktyczne w szerszym kontekście – zastosowań w konkretnych celach jak, przykładowo, modelowanie złożonych zjawisk przyrodniczych, ich prognozowanie, projektowanie maszyn i narzędzi; informatyczna wiedza jest w każdym przypadku częścią wiedzy szerszej. W tym sensie wskazanie na jej genezę i funkcje jest uzasadnianiem i na tym polega moim zdaniem rola epistemologii w informatyce. Oczywiście, jest też kwestia (obaj moi recenzenci na to wskazują mocno) prawomocności samych technik kodowania informacji i jej obliczania, dokładniej mówiąc, nieobliczalności, jaka w związku z tym się pojawia. To jeden z trudniejszych problemów metamatematycznych, jaki w obrębie matematyki, ale także informatyki, się pojawia. To też kwestia epistemologiczna, ale jest ona innej rangi, innego też statusu metodologicznego (metateoretycznego, czyli epistemologicznego). Powiedziałbym, że jest ona immanentną kwestią samej informatyki. Ale istnieje też kwestia druga, nieco odmienna, też dużej rangi – problem granic poznania ludzkiego, które wyznacza nie sama obliczalność/nieobliczalność metod algorytmicznych, lecz ich skuteczność/nieskuteczność w poznawaniu świata. Sądzę, że są to dwie różne kwestie epistemologiczne, różne, lecz jednocześnie powiązane ze sobą. Mnie bardziej zajmuje ta druga. Chcę badać z perspektywy teorioinformacyjnej wszelkie granice, jakie informatyka wyznacza, ale też pokonuje, w procesie poznawania, modelowania, symulowania, które tak dobrze przeprowadza. Sens zwrotu „granice poznania” w przypadku wiedzy informatycznej nie ma, moim zdaniem, absolutnego wydźwięku. Każde poznawanie i każda wiedza (w naukach humanistycznych czy społecznych także, a może nawet przede wszystkim) są ograniczone, ale jednocześnie kolejne ich postaci granice te albo likwidują, albo przesuwają. O tym można jednak prawomocnie (tj. bez popadania w błędy rozumowania czy uzasadniania) cokolwiek twierdzić, przyjmując dopiero „zewnętrzny” punkt widzenia. Mam na myśli refleksję uwzględniającą historię danej nauki (w przypadku naszej dyskusji – informatyki), czy też jej rozliczne powiązania i wpływy. Zapewne jest tak (mówię to jako epistemolog-naturalista i jednocześnie nie-informatyk, dlatego jest to tylko moja hipoteza), że tzw. zagadnienia limitacyjne (graniczne) właściwe dla danej dyscypliny nauki pojawiają się w momencie jej intensywnego rozwoju i postrzegane są jako właśnie „graniczne” wtedy, gdy z oczu ich eksponentów tracona jest perspektywa zewnętrzna. Czyli taka, z której widać, że każde poznawanie i odpowiednia do niego wiedza zawsze są kolejnymi etapami w niekończącym się procesie ich udoskonalania, nigdy jednak pełnego i ostatecznego.

  9. km pisze:

    „Nie znaczy to, że tylko za jej pomocą można to wyjaśnić; wszak o powstawaniu wiedzy z doznań zmysłowych decydują również podświadome czy intuicyjne mechanizmy, których za pomocą kategorii informacji nie daje się tak łatwo opisać.”

    Od „strony”, powiedzmy, w/w rezultatu (skoro już pojawił się Popper) :
    „Temu poglądowi przeciwstawiam następującą tezę. Z chwilą gdy subiektywny stan rozumienia zostanie w końcu osiągnięty, psychologiczny proces wiodący ku temu powinien być analizowany w kategoriach przedmiotów trzeciego świata, z którymi jest związany. W istocie można go zanalizować wyłącznie w tych kategoriach.(…) Tylko w przypadku, gdy dochodzi się do nowego argumentu czy nowych DANYCH- czyli nowego przedmiotu trzeciego świata- można powiedzieć nieco więcej o tym procesie (…) aktywność rozumienia polega na operowaniu przedmiotami trzeciego świata”

    „Produkcję” samych w/w mechanizmów „regulacji ku homeostazie” („podświadome czy intuicyjne mechanizmy”- emocje, odczucia, przekonania podświadome) najtrafniej opisują neuronauki, które także wykorzystują zmatematyzowane informacje w budowaniu swych modeli. Są one w stanie przewidzieć rezultaty nieuświadomionego przetwarzania (także obliczając ich wynik poprzez przetwarzanie informacji) celniej niż poznający człowiek, który z wewnętrznej perspektywy mierzy się z jego rezultatem.

    • km pisze:

      Nie twierdzę, że opis w/w zjawisk (wpływu intuicji i odczuć ich na powstawanie wiedzy) jest w świetle obecnej wiedzy wyczerpujący. Jeśli jednak opis taki powstanie, to ze względu na to jakie metody odnoszą największe sukcesy w opisie zjawisk otaczającej nas rzeczywistości, można domniemywać, że siłą rzeczy będzie to opis poprzez zmatematyzowany model, który będzie można analizować pod względem tego jak przetwarza (tak czy inaczej zdefiniowaną) informację.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *