Pewnik piąty czyli kwintesencja informatyzmu

Gdyśmy rozpatrzyli cztery pewniki informatyzmu, osobno zajmiemy się piątym, wymagającym dłuższej dyskusji. Użyte w tytule słowo „kwintesencja” wiąże się z liczebnikiem „piąty”. Zbieżność to wprawdzie przypadkowa, ale korzystna dla podkreślenia doniosłości naszego pewnika. Piąty to po łacinie quintus, zaś quinta essentia to piąta substancja — według wierzeń starożytnych najcenniejsza, bo z niej są zbudowane dostojne ciała niebieskie, podczas gdy pospolite ziemskie składają się z czterech zwanych żywiołami (ziemia, woda, ogień, powietrze). Z czasem słowo „kwintesencja”, na prawach przenośni,  zaczęło oznaczać ujęcie jakiejś myśli w sposób szczególnie cenny, to jest, trafiający w istotę rzeczy, w sedno sprawy.

Takie jest też zadanie piątego spośród pewników. Ma on ująć syntetycznie kwintesencję światopoglądu informatycznego . Jest nią wizja procesu, w którym za sprawą informatyki dynamicznie wzrasta zdolność jednostek i społeczności do rozwiązywania coraz  większej liczby coraz  bardziej złożonych problemów.

Jeśli ktoś żywi przekonanie,  że istotnie zachodzi powyższe (wskazane kursywą) zjawisko, znaczy to, że należy do ezoterycznego (jak dotąd) grona posiadaczy światopoglądu informatycznego; pozwólmy sobie nazwać ich w skrócie informatystami (od „informatyzm”).  Spróbujmy ułatwić informatyście ekspresję tego przeświadczenia, czyniąc jego zapis możliwie jak najzwięźlejszym.  Trzeba w tym celu zdać sobie sprawę z czynników sprawczych owego wzrostu zdolności do rozwiązywania problemów. Wylicza je następująca lista.

  1. moc obliczeniowa sprzętu
  2. efektywność algorytmów i programów
  3. moc inferencyjna teorii
  4. inwencja badaczy i konstruktorów

Co znaczy pozycja 1 wie z doświadczenia każdy użytkownik komputera, który co jakiś czas kupuje sprzęt  nowszy,  z szybszym procesorem i pojemniejszą pamięcią. Dzięki takim wydatkom powiększa moc obliczeniową swego sprzętu (i w pewnym sensie własną,  jako posiadacza mocniejszego urządzenia).

Co do 2, trzeba to tak rozumieć, że z dwóch algorytmów efektywniejszy jest ten, który mniej wymaga zasobów,  jak czas, pamięć etc.,  do rozwiązania problemu o tym samym rozmiarze.

Pojęcie 3  jest uogólnieniem pojęcia mocy dedukcyjnej. To drugie odnosi się  tylko do teorii aksjomatycznych, posługujących się w dowodzeniu twierdzeń wyłącznie wnioskowaniem dedukcyjnym.  Mówimy o teorii,  że ma większą moc dedukcyjną niż jakaś inna, gdy jej aksjomaty i reguły pozwalają udowodnić wszystkie twierdzenia dowodliwe w tamtej  innej, a ponadto twierdzenia w tamtej niedowodliwe.  Np.  system arytmetyki z aksjomatem indukcji ma większą moc dedukcyjną niż system bez tego aksjomatu.  Gdy idzie o teorie empiryczne, posługujące się  prócz dedukcji innymi rodzajami wnioskowania,  czyli inferencji, porównujemy je co do mocy eksplanacyjnej  czyli zdolności wyjaśniania oraz co do mocy predyktywnej czyli zdolności przewidywania.  Stąd pojęcie mocy inferencyjnej stanowi sumę czyli alternatywę wyżej wymienionych:  jest to moc dedukcyjna lub moc właściwa teorii empirycznej  (tj. eksplanacyjna lub predyktywna).  Większa moc inferencyjna oznacza większą zdolność  rozwiązywania problemów,  tak w sensie ich złożoności,  jak w sensie wielości ich rodzajów.

Na pozycji 4 mamy czynnik, który jest sprawczy w stosunku do trzech poprzednich. Twórcza inwencja ludzi sprawia, że mamy komputery, algorytmy i programy oraz wiedzę naukową czyli teorie dedukcyjne i empiryczne.  Będąc sprawczym, podlega on zarazem oddziaływaniom ze strony swych wytworów.  Jest  to oddziaływanie wzmacniające, zachodzą tu więc dodatnie sprzężenia zwrotne.  I tak,   Istniejące już teorie umożliwiają twórcze konstruowanie nowych.  Gdyby nie było algorytmów rachowania, nie byłoby odkryć matematycznych,  jako że wymagają one żmudnych obliczeń. Bez komputerów i  programów nie doszłoby  do tych twórczych rozwiązań, którym zawdzięczamy loty kosmiczne,  poznanie ewolucji wszechświata czy rozszyfrowanie ludzkiego genomu.

Jakim wspólnym terminem, odpowiednim na nazwę  piątego pewnika, dałoby się objąć te wszystkie czynniki oraz ich wzajemne oddziaływania?  Przydawką obejmującą trzy pierwsze czynniki jest słowo „obliczeniowa”.  Dwa z nich należą do sfery obliczeń  już ze swej nazwy, a trzecim zaś wiemy, że logiczne operacje wnioskowania są też rodzajem obliczeń. Co do czynnika czwartego, nie wiemy dotąd, czy ma on charakter czysto obliczeniowy. Miałby, jeśliby twórczość była sterowana jakimś neuronowym algorytmem, ale czy tak jest, to jedno z wielkich pytań  informatyzmu. Jest jednak inny jeszcze tytuł do użycia tej przydawki. Skoro trzy rozważane tu produkty ludzkiej twórczości mają charakter obliczeniowy, to twórcza inwencja, która je powołuje do bytu zasługuje na określenie „obliczeniotwórcza” . Można to umownie skrócić do formy „obliczeniowa”, zupełnie tak samo,  jak w terminologii logicznej mówimy „funktor zdaniowy” zamiast „funktor zdaniotwórczy”.

Mając już przymiotnik, pora się zastanowić, co będzie określanym przezeń przymiotem.  Atrakcyjną kandydaturę stanowi termin „moc”, ale że szeroko się przyjęło wiązać go z mocą obliczeniową sprzętu,  kosztem tego rozwiązania byłaby wieloznaczność. Użyjmy zatem synonimu, ani trochę w tym kontekście nie zużytego — słowa „potencja”. Oznacza ono moc, a jednocześnie potencjalność, co harmonizuje z potencjalnością obdarzonego inwencją umysłu: ma on wszak moc powiększania swej mocy, jest więc potencjalnie jeszcze mocniejszy niż aktualnie.

Tę potencję obliczeniową tworzą cztery czynniki cechujące się wielką dynamiką wzrostu, a przy tym pozostające we wzajemnych sprzężeniach zwrotnych, co tę dynamikę  dalece wzmaga. O dwóch spośród nich wiemy,  jaki to jest typ dynamiki, mianowicie wzrost wykładniczy. Gdy idzie o sprzęt komputerowy, mówi o tym słynne prawo Moore’a: że jego moc obliczeniowa podwaja się się co 18-24 miesięcy.  Także wzrost mocy inferencyjnej nauki  można uważać za wykładniczy, choć tu oszacowanie jest tylko pośrednie i bardzo zgrubne. Tym mianowicie, co da się ująć statystycznie,  jest wiązka wskaźników,  mianowicie wzrost liczb: publikacji, tytułów czasopism naukowych,  pracowników nauki, instytucji akademickich etc.  Od  połowy wieku 17-go, co się pokrywa z czasowym początkiem nauki nowożytnej  (Newton, pierwsze akademie nauk etc.) ,  liczby te podwajają się co 7-10 lat.   To jeszcze nie jest wzrost mocy inferencyjnej, bo duża ilość publikacji jest (bądźmy szczerzy) bezwartościowa poznawczo, czyli że dla rozwiązywania realnych problemów wynika z nich niewiele lub nic, a to oznacza brak mocy inferencyjnej. Nie ma jednak powodu, by nie przyjąć, że odsetek publikacji wartościowych, czyli obdarzonych mocą inferencyjną,  jest w ich całej masie,  średnio biorąc, stały; a zatem prawo podwojenia w określonych przedziałach czasu zachowa swą ważność.

I tak dochodzimy do poskładania w całość kilku cząstkowych projektów terminologicznych.  Analizowany wyżej proces zasługuje na nazwę „dynamika wzrostu potencji obliczeniowej”. Można ją uprościć, przyjmując  jako domyślną oczywistość, że nie jest to jakaś dynamika regresu ani też zerowa (czyli stagnacja). Wtedy opuszczamy słowo „wzrostu” i dostajemy zwięzłą nazwę kolejnego pewnika informatyzmu: dynamika potencji obliczeniowej.

Czy nasz pewnik, czyli sąd, że istnieje taka dynamika, nie jest na tyle oczywisty,  że nie warto się trudzić nad jego formułowaniem i tworzeniem dlań nazwy?   Nie wydaje się, by nie było warto. Jeśli zważyć,   jak jest modne, zwłaszcza wśród intelektualistów, czarnowidztwo co do losów cywilizacji,  jak postmodernizm i  multikulturalizm z emfazą odmawiają wartości cywilizacji naukowej,  jak od czasów co najmniej Spenglera (tj. od stu lat) wieści się upadek cywilizacji zachodniej,  to pewnik dynamiki potencji obliczeniowej zaczyna się jawić jako pogląd odosobniony i ekscentryczny. Na szczęście, o jego wartości poznawczej nie decydują sondaże opinii publicznej.

Zaszufladkowano do kategorii Światopogląd informatyczny | Jeden komentarz

Cztery pewniki informatyzmu

Światopogląd informatyczny jest to odmiana światopoglądu naukowego, to znaczy powstałego z istotnym udziałem wiedzy naukowej. Odmiana ta cechuje epokę  informatyczną, która posiadła niewyobrażalnie wielkie moce obliczeniowe dzięki komputerom i  Sieci. Mieć tego rodzaju światopogląd  to znaczy rozumieć,  że decydujące dla rozwiązywania wszelkich problemów  jest posiadanie należytej informacji oraz odpowiedniej zdolności do jej przetwarzania, oraz rozumieć, od czego ta zdolność zależy i jak ona się ma do mocy obliczeniowej  komputera.

Na rozumienie sprawy składają się zarówno wiedza, w tym przyjmowane pewniki oraz ich logiczne konsekwencje,  jak też  uświadomiona niewiedza, czy wyrastające z danej wiedzy problemy do rozwiązania.   W obecnym szkicu omawiam  cztery pewniki światopoglądu informatycznego. Piątym, jako szczególnie ważnym, zajmuję się w szkicu następnym.

*  *  *

Światopogląd  informatyczny określam krócej jako informatyzm. Niejeden -izm rodzi się w głowie filozofa i dostaje nazwę od jego imienia (jak platonizm). Inne powstają w wyniku  anonimowych procesów społecznych i dopiero po  jakimś czasie zostają przez kogoś nazwane (jak chrystianizm).  Mamy tu do czynienia raczej z drugiego rodzaju przypadkiem; nazwa wisi niejako w powietrzu, ale potrzebny jest jakiś impuls, żeby weszła w użycie.

Prekursorem, którego światopogląd zasługuje na takie określenie jest Leibniz. Postrzegał  on świat jako wysoce uporządkowaną strukturę złożoną z układów przetwarzających informację, które nazywał divina automata, przetwarzanie zaś informacji utożsamiał z obliczaniem. Zaliczał do tej kategorii wszystkie indywidua (monady), a empirycznym jej istnienia świadectwem były dlań organizmy.  Jest to mocna postać informatyzmu. Czy można go przyjąć w tej postaci?  Nie  wydaje się, żeby  współczesna nauka była gotowa do odpowiedzi. Czy elektrony prące tuż po wielkim wybuchu, za sprawą grawitacji, do łączenia się z protonami w atomy wodoru, czyniły to pod wpływem zaprogramowanego wewnątrz impulsu,  jak to czyni pęd roślinny kierując się ku słońcu?  Tego nie wiemy.  Co do organizmów – zgoda; co do reszty, pozostaje wstrzymać się od sądu.

Informatyzm wychodzi od dwóch pojęć: pomiaru informacji oraz przetwarzania informacji. Skoro informację można mierzyć  i przetwarzać,  podobnie jak materię i energię, to jest ona czymś podobnie realnym, trzecią obok tamtych sferą rzeczywistości.  Co więcej, zachodzą między nimi takie realne relacje, jak ta, że informacja jest konieczna do przetwarzania materii (czego przykładem sterowana automatycznie obrabiarka), jak  i do przetwarzania energii (np. wiedza z termodynamiki jest niezbędna w budowie silników). Z drugiej zaś strony, przetwarzanie  informacji wymaga sprzętu i zasilania, czyli materii i energii. Tak pojęta realność informacji  to pierwszy  pewnik informatyzmu; nie jest on trywialny, skoro nie przez każdego filozofa jest akceptowany (odrzucał  go  zdecydowanie np. Tadeusz Kotarbiński).

Pomiar informacji sięga termodynamiki Ludwiga Boltzmanna (1844-1906),  gdzie informacja jest  pojmowana jako odwrotność stanu nieuporządkowania (entropii), a że porządek jest mniej prawdopodobny od nieporządku, informację traktuje się jako funkcję będącą odwrotnością prawdopodobieństwa, będącego czymś mierzalnym.  Adaptacja tej idei w technologii komunikacji (Claude Shannon) oraz w metodologii i filozofii nauki (Karl Popper) to kolejne etapy badań nad miarą informacji.

Przetwarzanie informacji, choć praktykowane przez żywą przyrodę i umysł ludzki odkąd one istnieją, stało się uświadomioną kategorią pojęciową wraz z pierwszą definicją komputera daną przez Alana Turinga w roku 1936. Ścisłą nauką o przetwarzaniu informacji jest logika od samych jej starożytnych początków, ale jest ona ograniczona do pewnego typu przekształceń, mianowicie takich, w którym prawdziwość jednych zdań udziela się innym na mocy pewnych reguł przetwarzania zdań.

Od  badań Alana Turinga (1936) pojmuje się przetwarzanie informacji  jako proces przekształcania ciągów symboli prowadzący do takiego ciągu, który wyraża rozwiązanie problemu, a dokonuje się pod kierunkiem algorytmu czyli bardzo precyzyjnych (tj. bez luk i bez odwoływania się do intuicji) instrukcji przekształcania symboli. Gdy taki algorytm jest realizowany przez urządzenie fizyczne, nazywa się programem. Że przetwarzanie informacji jest obliczaniem – to drugi pewnik informatyzmu.  Ten też nie jest trywialny.  Większość się pewnie zgodzi, że logiczne przetwarzanie informacji, czyli wnioskowanie,  jest obliczaniem. Ale już takie jej przetwarzanie,  jak przekład tekstu na inny język,  malowanie portretu, poszukiwanie jakichś danych w pamięci etc. raczej nie uchodzą za obliczenia. Dopiero na pewnym poziomie wiedzy informatycznej powstaje tego rodzaju świadomość, a ma ona ważkie konsekwencje praktyczne. Wskazuje bowiem, co czynić,  żeby przetwarzanie informacji móc powierzyć komputerom:  trzeba informację zakodować cyfrowo.

Nim doszło do odkrycia kolejnego pewnika, powszechny był w świecie nauki pogląd, że każdy problem obliczeniowy da się rozwiązać  na gruncie należycie kompletnego systemu arytmetyki, i że takie systemy  istnieją (standardem w tej mierze stała się arytmetyka Peano , tak nazwana od jej twórcy).  Kurt Gödel w 1931 i Alan Turing w 1936, a także inni badacze, wykazali, że  nie ma i być nie może tak kompletnego systemu arytmetyki liczb naturalnych, żeby dał się w nim rozwiązać algorytmicznie każdy bez wyjątku problem obliczeniowy; innymi słowy: w każdym stanie teorii arytmetycznej muszą w niej istnieć problemy nierozwiązywalne rachunkowo czyli za pomocą algorytmu.  Stało się więc rzeczą niewątpliwą istnienie w arytmetyce problemów nierozwiązywalnych algorytmicznie trzeci pewnik informatyzmu.

Kompletowanie w tym szkicu listy pewników informatyzmu  jest z natury rzeczy dość arbitralne. Kieruję się w nim doniosłością praktyczną tez awansowanych do rangi pewników,  takiej bowiem doniosłości oczekuje się od światopoglądu.  Mając pewnik trzeci stwierdzający ograniczoność metody algorytmicznej, a więc  ograniczoność komputerów, byłoby praktycznie mieć jeszcze taki, który wskazywałby drogę przezwyciężania tej ograniczoności, odpowiednio poszerzając zakres zastosowań komputera.  Pouczające są w tym względzie te momenty w historii nauki, gdy istniała już teoria empiryczna w fizyce, a szukano dla niej modelu w postaci  teorii matematycznej umożliwiającej rachunki; z niech powinno wynikać,  jakie dane pomiarowe byłyby dla danej teorii empirycznej testem jej poprawności. Póki takiego teorii nie ma w istniejącym repertuarze  matematyki,  nie da się przeprowadzić tego rodzaju testów.  Okazuje się, że geniusz matematyczny potrafi takie  środki rachunkowe stwarzać nawet na bardzo wygórowane potrzeby, np. mechaniki kwantowej (Heisenberg, Schrödinger).  Z taką praktyką badawczą zgodne są wyniki badań logicznych  Gödla (1931, 1936), których sens oddaje z grubsza pewnik czwarty: sukcesywna uzupełnialność aksjomatów i  metod (algorytmicznych) umożliwiająca rozwiązania nowych problemów. Sukcesywność oznacza, że nie da się raz na zawsze stworzyć systemu dającego środki  rozwiązywania wszelkich problemów, ale można system tak uzupełniać, żeby  każdorazowo mógł podołać pewnej klasie nowych problemów.

Kto zna i rozumie te pewniki oraz docenia ich doniosłość teoretyczną i praktyczną,  ten osiągnął pierwszy stopień wtajemniczenia w światopogląd informatyczny. Jest jeszcze drugi stopień, tym od pierwszego odmienny, że nie pewniki go stanowią, ale pytania i to tak trudne, że nie oczekujemy odpowiedzi w jakiejś przewidywalnej przyszłości. Tym nie mniej, trzeba te pytania dobrze zrozumieć, żeby doświadczyć zagadkowości świata. To doświadczenie jest nieodłączne od światopoglądu mieniącego się rozumnym, a takim mieni się informatyzm.

Na osobne rozważenie zasługuje fenomen dynamicznego wzrostu potencji obliczeniowej o czym traktuje pewnik piąty;  jest  on powiązany treściowo z czwartym (nie pretenduje się tu bowiem  do dedukcyjnej niezależności pewników), ale z racji heurystycznych wart jest potraktowania go osobno.

 

Zaszufladkowano do kategorii Światopogląd informatyczny | 11 komentarzy