Witold Marciszewski
If a machine is expected to be infallible, it cannot also be intelligent. – Alan Turing
Civilization advances by extending the number of important operations which cannot be performed without thinking about them. – A. N. Whitehead
Przez paradygmat nauki rozumie się w artykule sposób jej uprawiania, praktykowany lub zalecany, przez określoną grupę uczonych. Należą do niego przyjmowane przez nich założenia ontologiczne i epistemologiczne (czyli filozofia danej dyscypliny) oraz strategie badań ujmowane w reguły metodologiczne.
Pojęcie więc paradygmatu jest opisowo-socjologiczne, przydatne w badaniach nad dziejami nauki, co w odniesieniu do nauk przyrodniczych czyni Profesor Kazimierz Trzęsicki w artykule “Paradygmat Turinga”, jak też – w odniesieniu do matematyki – autor obecnych rozważań. Pomimo tych różnych odniesień, mamy tu płaszczyznę do porównań, mianowicie wkład Alana Turinga w zasady uprawiania nauki.
wzajem środków rozwiązywania problemów matematycznych drogą dowodzenia. Jednym są reguły strukturalne, które służą do formalizacji czyli algorytmicznej mechanizacji procesu dowodzenia. Ich niezawodność jest oczywista z intuicyjnego punktu widzenia. Do nich zalicza Tarski regułę odrywania; w odcinku §4.4. podaję argument za jej niezawodnością rozważany w perspektywie ewolucyjno-biologicznej. Ma on wykazać niezawodność intuicji logicznej, niezbędnej do weryfikacji hipotez, w odróznieniu od zawodności intuicji odkrywczej (odcinki §4.4 i §4.5). Ta druga da się porównać z wyrocznią w sensie Turinga, której „wyroki” (akty intuicji) wymagają weryfikacji na gruncie intuicji logicznej. Ta odkrywcza nie jest nieomylna, lecz jej omylność jest nieodłączna od twórczych, a więc inteligentnych, poszukiwań badawczych (por. motto).
Tarski w swych fundamentalnych pracach [1933, 1936] wiele uwagi poświęca regule indukcji nieskończonej która nie należy do reguł strukturalnych, gdyż nie operuje algorytmicznie na ciągach symboli (jako obiektów fizycznych) lecz odwołuje się do pojęciowego ujęcia nieskończoności zbioru liczb naturalnych. Pomimo braku cechy algorytmiczności Tarski uważa ją za równie niezawodną jak reguły strukturalne, ponieważ przemawia za nią jej nieodzowność w rozwiązywaniu bardzo licznych i ważnych zagadnień matematyznych; temat ten jest tu dyskutowany w konkluzjach z odcinka §6.6.
Czy jest powód, żeby te zasady badań naukowych Turinga i Tarskiego, określać zaczerpniętym od Kuhna [1962] terminem „paradygmat”? Skąd pomysł, żeby kategoriach Kuhna rozpatrywać twórczość tych autorów, którzy drogą wyników limitatywnych (w szczególności Gödla i Turinga) odmienili oblicze logiki, a nawet filozofii nauki? Zawdzięczam go inspirowaniu się artykułem Trzęsickiego “Paradygmat Turinga”; bez niego nie powstałaby obecna praca.
Przyjmując terminy „paradygmat” i „zmiana paradygmatu” (paradigm shift), jednocześnie dystansuję się od kuhnowskiego utożsamiania zmiany paradygmatu z rewolucją naukową. Normalny postęp w nauce, podobnie jak w gospodarce i polityce, jest kumulatywny i ewolucyjny. Bierze się z przemyślanych reform, a nie z rewolucyjnych zrywów, które do fundamentów burzą dawny system, żeby zbudować nowy wedle koncepcji doktrynerów. Taka wizja postępu nauki byłaby dla niej deprecjonująca.
Paradygmat Turinga-Tarskiego powstaje na przecięciu dwóch historycznych paradygmatów, z których jeden wiąże się z Kartezjuszem, drugi z Leibnizem. Nowość polega na płodnym scaleniu dwóch linii rozwojowych traktowanych wcześniej rozdzielnie. Precyzując pojęcie paradygmatu na skalę obecnych rozważań, wyróżniam w nim założenia ontologiczne, to jest, jakiego rodzaju indywidua tworzą uniwersum danej dziedziny. W ujęciu kartezjańskim indywidauami są stany umysłu, a w leibnizjańskim – napisy (jako przedmioty fizyczne) lub stany maszyny kodujące owe napisy (np. kodowanie cyfr w układach trybów kalkulatora Leibniza).
Tej różnicy ontologicznej odpowiada zróżnicowanie strategii badawczych czyli podejście metodologiczne. Strategie są określane przez reguły czyli zalecenia odpowiednich procedur. U Kartezjusza są to reguły kierowania umysłem (regulae ad directionem ingenii), u Leibniza – strukturalne reguły operowania symbolami.
Każde z tych ujęć, jako operujące jednym tylko uniwersum i jednym typem reguł można określić jako monistyczne, zaś uniwersum Turinga i Tarskiego jako dualistyczne: ma ono dwa uniwersa (kartezjańskie i leibnizjańskie) oraz dwa typy reguł – strukturalne (algorytmiczne), oraz takie jak reguła nieskończonej indukcji. Ta jest intuicyjna lecz także niezawodna dzięki potwierdzaniu się w niezliczonych płodnych zastosowaniach, bez których nie byłoby matematyki.
Ów charakter dualistyczny jest tym, co znamionuje nowoczesny paradygmat matematyki. Jest on w opozycji do takich mechanicystycznych monizmów, jak np. Wittgensteina i Koła Wiedeńskiego; obecnie zdaje się do nich należeć projekt silnej SI.
Dalszy ciąg tej historii to etap, w którym algorytmy uzyskane dzięki wyrocznej intuicji torują drogę nowym intuicjom. Te zaś nowym algorytmom, i tak dalej – działając na rzecz postępu cywilizacji (por. motto Whiteheada). Jest to proces bez kresu, toteż taki dynamiczny dualizm (intuicja vs algorytm) wnosi w ów proces cechę infinityzmu, obcą kierunkom mechanicystycznym.
Tarski wychodzi od pewnej obserwacji dotyczącej środków dowodowych, którym dał nazwę logicznych reguł strukturalnych. To znaczy takich, że dyktowane nimi operacje na formułach – jako ciągach symboli, każdy o takiej to a takiej strukturze – polegają na przekształcaniu tych struktur czysto mechanicznym, jak opuszczanie lub dopisywanie symboli. Taka jest procedura w czysto formalnym (czyli strukturalnym) prowadzeniu dowodu na papierze i taka sama procedura zapisywania symboli (zer, jedynek) na taśmie maszyny Turinga. W tym sensie dowodzenie lub obliczanie za pomocą samych reguł strukturalnych ma charakter mechaniczny.
Tarski zauważa, że – wbrew doktrynie i oczekiwaniom mechanicystów – reguły strukturalne nie starczą do uprawiania matematyki. To, co można przez nie uzyskać, to cząstka wielkiego skarbca wyników matematycznych. Oto myśl przewodnia artykułu [1936] (wersja w [1956, s. 411]).
Istnieją reguły dowodzenia różne od strukturalnych, które z intuicyjnego punktu widzenia są tak jak tamte nieomylne, tzn. prowadzące niezawodnie od zdań prawdziwych do prawdziwych, lecz nie dające się do tamtych sprowadzić („cannot be reduced”).
Szczególnie w tej klasie reprezentatywna jest zdaniem Tarskiego reguła indukcji nieskończonej. Za jej przyjęciem przemawia to, że umożliwia ona rozstrzyganie wielkiej liczby zagadnień, które na gruncie reguł strukturalnych są nierozstrzygalne. Przykładem teoria liczb, która swój imponujący zakres rozstrzygalności zawdzięcza regule indukcji. Ze względu na jej infinistyczny charakter, czyli z tego powodu, że obejmuje ona nieskończenie wiele tez, nigdy jej nie wydrukuje taka maszyna jak UMT. (zob. Tarski [1933], w wydaniu [1995] s. 149])
W tym punkcie zbiegają się drogi Tarskiego i Turinga. Trudno o lepszy przykład tego, czym jest, jak działa, oraz jak jest niezbędna w matematyce wyrocznia, niż ten przypadek, jaki stanowi reguła nieskończonej indukcji. Podobnie jak Turing za konieczne dla postępu matematyki uznaje komplementarność UMT i wyroczni, tak Tarski odnotowuje komplentarność reguł strukturalnych (typowych dla UMT) oraz tych reprezentowanych przez regułę indukcji.
Porównawczy charakter obecnych rozważań bierze się stąd, że Trzęsicki inne niż obecny artykuł wkłada treści w pojęcie paradygmatu Turinga. Przyjmując T. Kuhna pojęcie rewolucji naukowej w sensie radykalnej zmiany paradygmatu, ujmuje on dzieje nauki jako arenę dwóch rewolucji. W pierwszej paradygmat Arystotelesa został wyparty przez Galileusza; druga zaś rewolucja polega na zastąpieniu paradygmatu Galileusza przez turingowski. Za wynik tej zmiany paradygmatu Trzęsicki zdaje się uważać (jeśli dobrze rozumiem) kosmologię Konrada Zusego. Pojmuje ona Wszechświat jako samoprogramujący się automat komórkowy (równoważny UMT?).
Rodzi to listę pytań. Jak w kategoriach informatycznych określić w takim uniwersum miejsce ludzi? Czy są też automatami, będąc elementami tego giga-automatu? Czy te ludzkie komponenty są determinowane przez program będący dziełem Wszechświata? Czy algorytmiczność jego egzystencji skutkuje determinizmem? Jakby się on miał do determinizmu typu Laplace’a?
Szczególnie ważne jest pytanie: czy właściwości Wszechświata jako automatu komórkowego dopuszczają zachodzenie w nim procesów analogowych, na wzór procesów w ludzkim mózgu? Jeśli nie, to jak pogodzić istnienie we wewnętrzu Wszechświata elementów analogowych, jakimi są mózgi?
To nie koniec pytań, a ich wielość i waga jest miarą śmiałości ujęcia Trzęsickego, która czyni to ujęcie obiecującym tematem dyskusji na gruncie filozofii nauki.