Światopogląd informatyczny jest to odmiana światopoglądu naukowego, to znaczy powstałego z istotnym udziałem wiedzy naukowej. Odmiana ta cechuje epokę informatyczną, która posiadła niewyobrażalnie wielkie moce obliczeniowe dzięki komputerom i Sieci. Mieć tego rodzaju światopogląd to znaczy rozumieć, że decydujące dla rozwiązywania wszelkich problemów jest posiadanie należytej informacji oraz odpowiedniej zdolności do jej przetwarzania, oraz rozumieć, od czego ta zdolność zależy i jak ona się ma do mocy obliczeniowej komputera.
Na rozumienie sprawy składają się zarówno wiedza, w tym przyjmowane pewniki oraz ich logiczne konsekwencje, jak też uświadomiona niewiedza, czy wyrastające z danej wiedzy problemy do rozwiązania. W obecnym szkicu omawiam cztery pewniki światopoglądu informatycznego. Piątym, jako szczególnie ważnym, zajmuję się w szkicu następnym.
* * *
Światopogląd informatyczny określam krócej jako informatyzm. Niejeden -izm rodzi się w głowie filozofa i dostaje nazwę od jego imienia (jak platonizm). Inne powstają w wyniku anonimowych procesów społecznych i dopiero po jakimś czasie zostają przez kogoś nazwane (jak chrystianizm). Mamy tu do czynienia raczej z drugiego rodzaju przypadkiem; nazwa wisi niejako w powietrzu, ale potrzebny jest jakiś impuls, żeby weszła w użycie.
Prekursorem, którego światopogląd zasługuje na takie określenie jest Leibniz. Postrzegał on świat jako wysoce uporządkowaną strukturę złożoną z układów przetwarzających informację, które nazywał divina automata, przetwarzanie zaś informacji utożsamiał z obliczaniem. Zaliczał do tej kategorii wszystkie indywidua (monady), a empirycznym jej istnienia świadectwem były dlań organizmy. Jest to mocna postać informatyzmu. Czy można go przyjąć w tej postaci? Nie wydaje się, żeby współczesna nauka była gotowa do odpowiedzi. Czy elektrony prące tuż po wielkim wybuchu, za sprawą grawitacji, do łączenia się z protonami w atomy wodoru, czyniły to pod wpływem zaprogramowanego wewnątrz impulsu, jak to czyni pęd roślinny kierując się ku słońcu? Tego nie wiemy. Co do organizmów – zgoda; co do reszty, pozostaje wstrzymać się od sądu.
Informatyzm wychodzi od dwóch pojęć: pomiaru informacji oraz przetwarzania informacji. Skoro informację można mierzyć i przetwarzać, podobnie jak materię i energię, to jest ona czymś podobnie realnym, trzecią obok tamtych sferą rzeczywistości. Co więcej, zachodzą między nimi takie realne relacje, jak ta, że informacja jest konieczna do przetwarzania materii (czego przykładem sterowana automatycznie obrabiarka), jak i do przetwarzania energii (np. wiedza z termodynamiki jest niezbędna w budowie silników). Z drugiej zaś strony, przetwarzanie informacji wymaga sprzętu i zasilania, czyli materii i energii. Tak pojęta realność informacji to pierwszy pewnik informatyzmu; nie jest on trywialny, skoro nie przez każdego filozofa jest akceptowany (odrzucał go zdecydowanie np. Tadeusz Kotarbiński).
Pomiar informacji sięga termodynamiki Ludwiga Boltzmanna (1844-1906), gdzie informacja jest pojmowana jako odwrotność stanu nieuporządkowania (entropii), a że porządek jest mniej prawdopodobny od nieporządku, informację traktuje się jako funkcję będącą odwrotnością prawdopodobieństwa, będącego czymś mierzalnym. Adaptacja tej idei w technologii komunikacji (Claude Shannon) oraz w metodologii i filozofii nauki (Karl Popper) to kolejne etapy badań nad miarą informacji.
Przetwarzanie informacji, choć praktykowane przez żywą przyrodę i umysł ludzki odkąd one istnieją, stało się uświadomioną kategorią pojęciową wraz z pierwszą definicją komputera daną przez Alana Turinga w roku 1936. Ścisłą nauką o przetwarzaniu informacji jest logika od samych jej starożytnych początków, ale jest ona ograniczona do pewnego typu przekształceń, mianowicie takich, w którym prawdziwość jednych zdań udziela się innym na mocy pewnych reguł przetwarzania zdań.
Od badań Alana Turinga (1936) pojmuje się przetwarzanie informacji jako proces przekształcania ciągów symboli prowadzący do takiego ciągu, który wyraża rozwiązanie problemu, a dokonuje się pod kierunkiem algorytmu czyli bardzo precyzyjnych (tj. bez luk i bez odwoływania się do intuicji) instrukcji przekształcania symboli. Gdy taki algorytm jest realizowany przez urządzenie fizyczne, nazywa się programem. Że przetwarzanie informacji jest obliczaniem – to drugi pewnik informatyzmu. Ten też nie jest trywialny. Większość się pewnie zgodzi, że logiczne przetwarzanie informacji, czyli wnioskowanie, jest obliczaniem. Ale już takie jej przetwarzanie, jak przekład tekstu na inny język, malowanie portretu, poszukiwanie jakichś danych w pamięci etc. raczej nie uchodzą za obliczenia. Dopiero na pewnym poziomie wiedzy informatycznej powstaje tego rodzaju świadomość, a ma ona ważkie konsekwencje praktyczne. Wskazuje bowiem, co czynić, żeby przetwarzanie informacji móc powierzyć komputerom: trzeba informację zakodować cyfrowo.
Nim doszło do odkrycia kolejnego pewnika, powszechny był w świecie nauki pogląd, że każdy problem obliczeniowy da się rozwiązać na gruncie należycie kompletnego systemu arytmetyki, i że takie systemy istnieją (standardem w tej mierze stała się arytmetyka Peano , tak nazwana od jej twórcy). Kurt Gödel w 1931 i Alan Turing w 1936, a także inni badacze, wykazali, że nie ma i być nie może tak kompletnego systemu arytmetyki liczb naturalnych, żeby dał się w nim rozwiązać algorytmicznie każdy bez wyjątku problem obliczeniowy; innymi słowy: w każdym stanie teorii arytmetycznej muszą w niej istnieć problemy nierozwiązywalne rachunkowo czyli za pomocą algorytmu. Stało się więc rzeczą niewątpliwą istnienie w arytmetyce problemów nierozwiązywalnych algorytmicznie — trzeci pewnik informatyzmu.
Kompletowanie w tym szkicu listy pewników informatyzmu jest z natury rzeczy dość arbitralne. Kieruję się w nim doniosłością praktyczną tez awansowanych do rangi pewników, takiej bowiem doniosłości oczekuje się od światopoglądu. Mając pewnik trzeci stwierdzający ograniczoność metody algorytmicznej, a więc ograniczoność komputerów, byłoby praktycznie mieć jeszcze taki, który wskazywałby drogę przezwyciężania tej ograniczoności, odpowiednio poszerzając zakres zastosowań komputera. Pouczające są w tym względzie te momenty w historii nauki, gdy istniała już teoria empiryczna w fizyce, a szukano dla niej modelu w postaci teorii matematycznej umożliwiającej rachunki; z niech powinno wynikać, jakie dane pomiarowe byłyby dla danej teorii empirycznej testem jej poprawności. Póki takiego teorii nie ma w istniejącym repertuarze matematyki, nie da się przeprowadzić tego rodzaju testów. Okazuje się, że geniusz matematyczny potrafi takie środki rachunkowe stwarzać nawet na bardzo wygórowane potrzeby, np. mechaniki kwantowej (Heisenberg, Schrödinger). Z taką praktyką badawczą zgodne są wyniki badań logicznych Gödla (1931, 1936), których sens oddaje z grubsza pewnik czwarty: sukcesywna uzupełnialność aksjomatów i metod (algorytmicznych) umożliwiająca rozwiązania nowych problemów. Sukcesywność oznacza, że nie da się raz na zawsze stworzyć systemu dającego środki rozwiązywania wszelkich problemów, ale można system tak uzupełniać, żeby każdorazowo mógł podołać pewnej klasie nowych problemów.
Kto zna i rozumie te pewniki oraz docenia ich doniosłość teoretyczną i praktyczną, ten osiągnął pierwszy stopień wtajemniczenia w światopogląd informatyczny. Jest jeszcze drugi stopień, tym od pierwszego odmienny, że nie pewniki go stanowią, ale pytania i to tak trudne, że nie oczekujemy odpowiedzi w jakiejś przewidywalnej przyszłości. Tym nie mniej, trzeba te pytania dobrze zrozumieć, żeby doświadczyć zagadkowości świata. To doświadczenie jest nieodłączne od światopoglądu mieniącego się rozumnym, a takim mieni się informatyzm.
Na osobne rozważenie zasługuje fenomen dynamicznego wzrostu potencji obliczeniowej, o czym traktuje pewnik piąty; jest on powiązany treściowo z czwartym (nie pretenduje się tu bowiem do dedukcyjnej niezależności pewników), ale z racji heurystycznych wart jest potraktowania go osobno.