Informatyzm jako wgląd w zagadkę umysłu

Jak to się dzieje,  że ludzka inteligencja  potrafi  rozwiązywać  pewne problemy matematyczne,  których nie może rozwiązać  uniwersalna maszyna Turinga (UMT)? Pytanie to znamionuje sposób myślenia właściwy dla informatyzmu czyli  światopoglądu informatycznego. Kto się znajduje poza jego obrębem, ten pytania takiego nie żywi. Raczej zapyta: a dlaczego inteligencja żywego matematyka nie miałaby być do tego zdolna? Skąd to przekonanie, że nie może być  większa niż inteligencja maszyny? Cóż więc zagadkowego,  jeśli jest większa?

Podejście  cechujące informatyzm  rodzi się  z wielowiekowej tradycji uprawiania matematyki.   Jest ona punktem wyjścia dla takich  myślicieli,  jak Leibniz, a w ubiegłym wieku David Hilbert,  filozofowie nauki z Koła Wiedeńskiego i inni.  Przyjęło się uważać, począwszy od matematyków i filozofów starożytnych, że każdy problem matematyczny da się rozwiązać w sposób  rachunkowy czyli za pomocą odpowiedniego algorytmu.  Z tego względu stawiano matematykę za wzór pozostałym naukom,  oczekując, że i one z czasem dojdą do tego poziomu intersubiektywnej ścisłości (słynny program Leibniza  w haśle Calculemus).  To jednak pojęcie rachowania było tylko intuicyjne,  stanowiąc jakby  uogólnienie kolosalnej liczby przypadków z praktyki matematycznej, ale bez precyzyjnej definicji. Definicję taką dał dopiero Turing (1936)  jako opis UMT.  I wtedy się okazało,  że istnieją obiekty nie spełniające tej definicji,  mianowicie funkcje matematyczne, których wartości nie dadzą się znaleźć rachunkowo. Nazwano je funkcjami nieobliczalnymi, a ich wartości — liczbami nieobliczalnymi.

Skoro rozwiązywanie problemów matematycznych przywykło się utożsamiać z obliczaniem, to naturalne wydawało się  przyjąć, że  problemy nie dające się rozwiązać rachunkowo, za pomocą algorytmów, są nierozwiązywalne także dla ludzkiego umysłu.  Stąd,  ogromnym zaskoczeniem okazało się wykazanie przez Kurta Gödla, że istnieją zagadnienia nierozwiązywalne rachunkowo,  to jest,  nierozwiązywalne  dla UMT czyli  (w dzisiejszej wersji technologicznej)  komputera cyfrowego, ale mające rozwiązanie dające się ściśle dowieść na innej drodze.  Wynik tak  przeczący  dotychczasowym przeświadczeniom musiał  wywołać pytanie:  jak to jest możliwe? Informatyzm pytanie to odziedziczył, jest on bowiem spadkobiercą tego problemu w linii genealogicznej wiodącej od Leibniza do współczesnej logiki.

Na tym tle fakt, że ludzki umysł rozwiązuje  pewne problemy, których nie jest w stanie rozwiązać UMT,  wydaje się istotnie zagadkowy. Ważny krok w jej rozważaniu  uczynił Alan Turing w swej  pracy z roku 1938  („Systemy logiki oparte na liczbach porządkowych”).  Jego doniosłość i konsekwencje ujawniają się w miarę,  jak rozwija się projekt sztucznej inteligencji zmierzający do zmniejszania dystansu między inteligencją naturalną i sztuczną czyli między umysłem i UMT (ewentualnie jakimiś projektami, które są względem UMT alternatywne).  Na etapie badań z roku 1938 Turing  próbuje znaleźć sposób myślenia o tym, co nieobliczalne, czyli nieosiągalne dla UMT.  Zdolność do takiego myślenia przejawia się,  w szczególności, w dostrzeżeniu prawdziwości zdania gödlowskiego.  Nazywa on tę zdolność wyrocznią (oracle), wyjaśniając, że jest to element niemechaniczny,  nie należący do UMT.  Jako wyjaśnienie natury psychologicznej,  jakby przekład idei wyroczni na pojęcia dotyczące umysłu,  pomocne w rozważaniach nad inteligencją, dobrze służy następująca wypowiedź Turinga z tejże pracy (cytowana za polskim przekładem książki Andrew Hodgesa: „Turing”,  wyd.Amber, 1997, s.34).

Rozumowanie matematyczne można uznać w uproszczeniu za połączenie dwóch zdolności, które możemy nazwać intuicją i pomysłowością.  Działanie intuicji polega na wydawaniu spontanicznych sądów, które nie są rezultatem świadomych toków rozumowania. Sądy te są często, ale bynajmniej nie zawsze, słuszne.

W tych zdaniach mamy podpowiedź, w jakich kierunkach rozwijać projekt SI, żeby osiągnąć zamierzone podobieństwo SI do inteligencji naturalnej; trzeba mianowicie, zaszczepić tej sztucznej intuicję oraz inwencję (pomysłowość)

Intuicja prowadząca do  zdania gödlowskiego dotyczy pojęcia dowodu sformalizowanego w logice predykatów. Jesteśmy intuicyjnie przekonani, że dowód taki prowadzi zawsze od zdań prawdziwych do prawdziwych, a więc cokolwiek jest wywiedzione z prawdziwych aksjomatów arytmetyki musi być też prawdą.  Mając tę przesłankę, rozumujemy, jak następuje: zdanie gödlowskie  (tj. stwierdzające własną niedowodliwość w arytmetyce) musi być prawdziwe. Bo gdyby nie, to byłoby dowodliwe z aksjomatów arytmetyki,  zatem prawdziwe.  A skoro z  założenia o  fałszywości wynika jego prawdziwość,  to jest ono prawdziwe.

Inny przykład intuicji zdolnej do rozwiązań nieosiągalnych dla UMT można napotkać w procedurach służących do sprawdzania,  czy interesująca nas formuła jest prawem, czyli tautologią, rachunku predykatów.  Istnieją formuły nie będące tautologiami, dla których owa procedura sprawdzania zapętla się w nieskończoność, ponieważ ich struktura generuje wciąż nowe formuły pochodne wymagające sprawdzenia. Są jednak  formuły, w których procedura się zapętla i generuje wciąż nowe  formuły wymagające sprawdzenia. Umysł ludzki szybko rozpoznaje regularność, według której dokonuje się zapętlanie i nabiera pewności,  że proces ten nigdy się nie skończy, z czego wnioskuje,  że dana formuła nie jest tautologią.  Maszyna natomiast nigdy nie zakończy pracy, będzie wciąż produkować nowe pętle .

* * *

Przejdźmy do drugiej z wymienionych przez Turinga cech umysłu, którym zawdzięcza on swą przewagę nad UMT.  Jest to cecha inwencji. Żeby pozbyć się w tym punkcie rysu zagadkowości,  można skorzystać  z dość dobrze już rozpoznanego mechanizmu ewolucji. Tą droga idzie Paweł Stacewicz (esej 8, odc. 3.1), proponując następujące rozwiązanie.

Postulowana na poziomie sterujących robotami programów wiedzo-twórcza ewolucja ma tę przewagę nad innymi metodami, że wprowadza do sztucznego robociego myślenia elementy inwencji. Dlaczego? Otóż, zgodnie z wyjaśnieniami w punkcie 2.1, opiera się ona na wyborach losowych – przypomnijmy, że w przypadku algorytmów genetycznych to los decyduje o mutacjach, krzyżówkach i przebiegu selekcji. Losowość zaś, a razem z nią nieprzewidywalność pomysłów, rozwiązań i decyzji, są cechami swoistymi ludzkiej inwencji.

Istotnie, pomysły są nieprzewidywalne. Według schematu ewolucyjnego, o selekcji decyduje środowisko: wygrywają osobniki lepiej przystosowane.  Co jest środowiskiem  selekcjonującym pomysły?  Droga do odpowiedzi została przetarta przez Karla Poppera, który był zdecydowanym ewolucjonistą w metodologii nauk. Dla teorii naukowych takim środowiskiem dla  konkurujących teorii są kryteria logiczne – wewnętrzna spójność teorii,  jej przewaga nad innymi teoriami pod względem informatywności,  to znaczy, pod względem  zasięgu  wyjaśniania  i przewidywania faktów oraz przewaga pod względem pomyślnie przebytych  prób obalenia.  W takie środowisko logiczne należałoby wyposażyć robota (prócz losowego generatora pomysłów), żeby dać mu szansę bycia kreatywnym.

Środowisko logiczne jako czynnik selekcyjny losowo generowanych prób rozwiązań jest częścią szerszego środowiska selekcyjnego, które zasługuje na miano aksjologicznego.   Znajduje tu zastosowanie tradycyjna trójca wartości. Środowisko logiczne reprezentuje prawdę, a nie mniej istotne kryteria selekcji pomysłów zawdzięczamy wartościom dobra i piękna. Gdy uczony pracuje nad jakimś problemem, może mu się nasuwać ileś rozwiązań ale nie wszystkie możliwe, bo tych może być niewyobrażalnie wiele. Przychodzi mu do głowy to, co jest wedle niego ważne, istotne, przydatne teoretycznie lub praktycznie, a są to oceny z kategorii dobra.  Wielkie też znaczenie w roli kryteriów selekcji grają u uczonych, zwłaszcza matematyków i fizyków,  wartości estetyczne, z kategorii piękna. Czy do tego, żeby weszły one do wyposażenia robota wystarczy,  że liczba połączeń między elementami kodującymi informację zrównała się z liczbą połączeń w mózgu?  Jeśli miałbym odpowiedzieć na to prywatnie, co wolno mi uczynić w blogu, to powiem, że moim zdaniem nie wystarczy. Publicznie tak odpowiedzieć miałbym prawo dopiero wtedy, gdybym miał na to intersubiektywne argumenty. A ja mam tylko subiektywne, biorące się z moich indywidualnych,  niepowtarzalnych  (jak u każdego  indywiduum) doświadczeń umysłowych; może mógłbym uczynić je intersubiektywnymi w jakimś wywiadzie  rzece, ale nie w paru akapitach. Kto zaś by twierdził przeciwnie  i swoje twierdzenie uważał za intersubiektywne, na nim spoczywa onus probandi czyli ciężar dowodzenia.

A skoro jesteśmy pogodzeni z istnieniem czegoś tak zagadkowego,  jak intuicja, czemu nie uznać za jej dzieło  także kryteriów aksjologicznych, które dostarczają naszym pomysłom selekcyjnego  środowiska ewolucji?  Nawet jeśli  tę kwestię pozostawimy na razie bez odpowiedzi definitywnie twierdzącej, a  przyjmiemy ją tylko w roli hipotezy  roboczej, posuwa ona naprzód debatę nad SI.  Na podstawie tej hipotezy trzeba by wyposażyć roboty w kryteria aksjologiczne, żeby umiały coś zrobić z bogactwem swych  pomysłów (powiedzmy, że generowanych losowo).  Kto by tego dokonał,  uczyniłby wielki krok w kierunku awansowania  robotów na istoty dorównujące bladawcom co do zdolności rozwiązywania problemów.

Zaszufladkowano do kategorii Światopogląd informatyczny | 3 komentarze

Pewnik piąty czyli kwintesencja informatyzmu

Gdyśmy rozpatrzyli cztery pewniki informatyzmu, osobno zajmiemy się piątym, wymagającym dłuższej dyskusji. Użyte w tytule słowo „kwintesencja” wiąże się z liczebnikiem „piąty”. Zbieżność to wprawdzie przypadkowa, ale korzystna dla podkreślenia doniosłości naszego pewnika. Piąty to po łacinie quintus, zaś quinta essentia to piąta substancja — według wierzeń starożytnych najcenniejsza, bo z niej są zbudowane dostojne ciała niebieskie, podczas gdy pospolite ziemskie składają się z czterech zwanych żywiołami (ziemia, woda, ogień, powietrze). Z czasem słowo „kwintesencja”, na prawach przenośni,  zaczęło oznaczać ujęcie jakiejś myśli w sposób szczególnie cenny, to jest, trafiający w istotę rzeczy, w sedno sprawy.

Takie jest też zadanie piątego spośród pewników. Ma on ująć syntetycznie kwintesencję światopoglądu informatycznego . Jest nią wizja procesu, w którym za sprawą informatyki dynamicznie wzrasta zdolność jednostek i społeczności do rozwiązywania coraz  większej liczby coraz  bardziej złożonych problemów.

Jeśli ktoś żywi przekonanie,  że istotnie zachodzi powyższe (wskazane kursywą) zjawisko, znaczy to, że należy do ezoterycznego (jak dotąd) grona posiadaczy światopoglądu informatycznego; pozwólmy sobie nazwać ich w skrócie informatystami (od „informatyzm”).  Spróbujmy ułatwić informatyście ekspresję tego przeświadczenia, czyniąc jego zapis możliwie jak najzwięźlejszym.  Trzeba w tym celu zdać sobie sprawę z czynników sprawczych owego wzrostu zdolności do rozwiązywania problemów. Wylicza je następująca lista.

  1. moc obliczeniowa sprzętu
  2. efektywność algorytmów i programów
  3. moc inferencyjna teorii
  4. inwencja badaczy i konstruktorów

Co znaczy pozycja 1 wie z doświadczenia każdy użytkownik komputera, który co jakiś czas kupuje sprzęt  nowszy,  z szybszym procesorem i pojemniejszą pamięcią. Dzięki takim wydatkom powiększa moc obliczeniową swego sprzętu (i w pewnym sensie własną,  jako posiadacza mocniejszego urządzenia).

Co do 2, trzeba to tak rozumieć, że z dwóch algorytmów efektywniejszy jest ten, który mniej wymaga zasobów,  jak czas, pamięć etc.,  do rozwiązania problemu o tym samym rozmiarze.

Pojęcie 3  jest uogólnieniem pojęcia mocy dedukcyjnej. To drugie odnosi się  tylko do teorii aksjomatycznych, posługujących się w dowodzeniu twierdzeń wyłącznie wnioskowaniem dedukcyjnym.  Mówimy o teorii,  że ma większą moc dedukcyjną niż jakaś inna, gdy jej aksjomaty i reguły pozwalają udowodnić wszystkie twierdzenia dowodliwe w tamtej  innej, a ponadto twierdzenia w tamtej niedowodliwe.  Np.  system arytmetyki z aksjomatem indukcji ma większą moc dedukcyjną niż system bez tego aksjomatu.  Gdy idzie o teorie empiryczne, posługujące się  prócz dedukcji innymi rodzajami wnioskowania,  czyli inferencji, porównujemy je co do mocy eksplanacyjnej  czyli zdolności wyjaśniania oraz co do mocy predyktywnej czyli zdolności przewidywania.  Stąd pojęcie mocy inferencyjnej stanowi sumę czyli alternatywę wyżej wymienionych:  jest to moc dedukcyjna lub moc właściwa teorii empirycznej  (tj. eksplanacyjna lub predyktywna).  Większa moc inferencyjna oznacza większą zdolność  rozwiązywania problemów,  tak w sensie ich złożoności,  jak w sensie wielości ich rodzajów.

Na pozycji 4 mamy czynnik, który jest sprawczy w stosunku do trzech poprzednich. Twórcza inwencja ludzi sprawia, że mamy komputery, algorytmy i programy oraz wiedzę naukową czyli teorie dedukcyjne i empiryczne.  Będąc sprawczym, podlega on zarazem oddziaływaniom ze strony swych wytworów.  Jest  to oddziaływanie wzmacniające, zachodzą tu więc dodatnie sprzężenia zwrotne.  I tak,   Istniejące już teorie umożliwiają twórcze konstruowanie nowych.  Gdyby nie było algorytmów rachowania, nie byłoby odkryć matematycznych,  jako że wymagają one żmudnych obliczeń. Bez komputerów i  programów nie doszłoby  do tych twórczych rozwiązań, którym zawdzięczamy loty kosmiczne,  poznanie ewolucji wszechświata czy rozszyfrowanie ludzkiego genomu.

Jakim wspólnym terminem, odpowiednim na nazwę  piątego pewnika, dałoby się objąć te wszystkie czynniki oraz ich wzajemne oddziaływania?  Przydawką obejmującą trzy pierwsze czynniki jest słowo „obliczeniowa”.  Dwa z nich należą do sfery obliczeń  już ze swej nazwy, a trzecim zaś wiemy, że logiczne operacje wnioskowania są też rodzajem obliczeń. Co do czynnika czwartego, nie wiemy dotąd, czy ma on charakter czysto obliczeniowy. Miałby, jeśliby twórczość była sterowana jakimś neuronowym algorytmem, ale czy tak jest, to jedno z wielkich pytań  informatyzmu. Jest jednak inny jeszcze tytuł do użycia tej przydawki. Skoro trzy rozważane tu produkty ludzkiej twórczości mają charakter obliczeniowy, to twórcza inwencja, która je powołuje do bytu zasługuje na określenie „obliczeniotwórcza” . Można to umownie skrócić do formy „obliczeniowa”, zupełnie tak samo,  jak w terminologii logicznej mówimy „funktor zdaniowy” zamiast „funktor zdaniotwórczy”.

Mając już przymiotnik, pora się zastanowić, co będzie określanym przezeń przymiotem.  Atrakcyjną kandydaturę stanowi termin „moc”, ale że szeroko się przyjęło wiązać go z mocą obliczeniową sprzętu,  kosztem tego rozwiązania byłaby wieloznaczność. Użyjmy zatem synonimu, ani trochę w tym kontekście nie zużytego — słowa „potencja”. Oznacza ono moc, a jednocześnie potencjalność, co harmonizuje z potencjalnością obdarzonego inwencją umysłu: ma on wszak moc powiększania swej mocy, jest więc potencjalnie jeszcze mocniejszy niż aktualnie.

Tę potencję obliczeniową tworzą cztery czynniki cechujące się wielką dynamiką wzrostu, a przy tym pozostające we wzajemnych sprzężeniach zwrotnych, co tę dynamikę  dalece wzmaga. O dwóch spośród nich wiemy,  jaki to jest typ dynamiki, mianowicie wzrost wykładniczy. Gdy idzie o sprzęt komputerowy, mówi o tym słynne prawo Moore’a: że jego moc obliczeniowa podwaja się się co 18-24 miesięcy.  Także wzrost mocy inferencyjnej nauki  można uważać za wykładniczy, choć tu oszacowanie jest tylko pośrednie i bardzo zgrubne. Tym mianowicie, co da się ująć statystycznie,  jest wiązka wskaźników,  mianowicie wzrost liczb: publikacji, tytułów czasopism naukowych,  pracowników nauki, instytucji akademickich etc.  Od  połowy wieku 17-go, co się pokrywa z czasowym początkiem nauki nowożytnej  (Newton, pierwsze akademie nauk etc.) ,  liczby te podwajają się co 7-10 lat.   To jeszcze nie jest wzrost mocy inferencyjnej, bo duża ilość publikacji jest (bądźmy szczerzy) bezwartościowa poznawczo, czyli że dla rozwiązywania realnych problemów wynika z nich niewiele lub nic, a to oznacza brak mocy inferencyjnej. Nie ma jednak powodu, by nie przyjąć, że odsetek publikacji wartościowych, czyli obdarzonych mocą inferencyjną,  jest w ich całej masie,  średnio biorąc, stały; a zatem prawo podwojenia w określonych przedziałach czasu zachowa swą ważność.

I tak dochodzimy do poskładania w całość kilku cząstkowych projektów terminologicznych.  Analizowany wyżej proces zasługuje na nazwę „dynamika wzrostu potencji obliczeniowej”. Można ją uprościć, przyjmując  jako domyślną oczywistość, że nie jest to jakaś dynamika regresu ani też zerowa (czyli stagnacja). Wtedy opuszczamy słowo „wzrostu” i dostajemy zwięzłą nazwę kolejnego pewnika informatyzmu: dynamika potencji obliczeniowej.

Czy nasz pewnik, czyli sąd, że istnieje taka dynamika, nie jest na tyle oczywisty,  że nie warto się trudzić nad jego formułowaniem i tworzeniem dlań nazwy?   Nie wydaje się, by nie było warto. Jeśli zważyć,   jak jest modne, zwłaszcza wśród intelektualistów, czarnowidztwo co do losów cywilizacji,  jak postmodernizm i  multikulturalizm z emfazą odmawiają wartości cywilizacji naukowej,  jak od czasów co najmniej Spenglera (tj. od stu lat) wieści się upadek cywilizacji zachodniej,  to pewnik dynamiki potencji obliczeniowej zaczyna się jawić jako pogląd odosobniony i ekscentryczny. Na szczęście, o jego wartości poznawczej nie decydują sondaże opinii publicznej.

 

Zaszufladkowano do kategorii Światopogląd informatyczny | Jeden komentarz

Cztery pewniki informatyzmu

Światopogląd informatyczny jest to odmiana światopoglądu naukowego, to znaczy powstałego z istotnym udziałem wiedzy naukowej. Odmiana ta cechuje epokę  informatyczną, która posiadła niewyobrażalnie wielkie moce obliczeniowe dzięki komputerom i  Sieci. Mieć tego rodzaju światopogląd  to znaczy rozumieć,  że decydujące dla rozwiązywania wszelkich problemów  jest posiadanie należytej informacji oraz odpowiedniej zdolności do jej przetwarzania, oraz rozumieć, od czego ta zdolność zależy i jak ona się ma do mocy obliczeniowej  komputera.

Na rozumienie sprawy składają się zarówno wiedza, w tym przyjmowane pewniki oraz ich logiczne konsekwencje,  jak też  uświadomiona niewiedza, czy wyrastające z danej wiedzy problemy do rozwiązania.   W obecnym szkicu omawiam  cztery pewniki światopoglądu informatycznego. Piątym, jako szczególnie ważnym, zajmuję się w szkicu następnym.

*  *  *

Światopogląd  informatyczny określam krócej jako informatyzm. Niejeden -izm rodzi się w głowie filozofa i dostaje nazwę od jego imienia (jak platonizm). Inne powstają w wyniku  anonimowych procesów społecznych i dopiero po  jakimś czasie zostają przez kogoś nazwane (jak chrystianizm).  Mamy tu do czynienia raczej z drugiego rodzaju przypadkiem; nazwa wisi niejako w powietrzu, ale potrzebny jest jakiś impuls, żeby weszła w użycie.

Prekursorem, którego światopogląd zasługuje na takie określenie jest Leibniz. Postrzegał  on świat jako wysoce uporządkowaną strukturę złożoną z układów przetwarzających informację, które nazywał divina automata, przetwarzanie zaś informacji utożsamiał z obliczaniem. Zaliczał do tej kategorii wszystkie indywidua (monady), a empirycznym jej istnienia świadectwem były dlań organizmy.  Jest to mocna postać informatyzmu. Czy można go przyjąć w tej postaci?  Nie  wydaje się, żeby  współczesna nauka była gotowa do odpowiedzi. Czy elektrony prące tuż po wielkim wybuchu, za sprawą grawitacji, do łączenia się z protonami w atomy wodoru, czyniły to pod wpływem zaprogramowanego wewnątrz impulsu,  jak to czyni pęd roślinny kierując się ku słońcu?  Tego nie wiemy.  Co do organizmów – zgoda; co do reszty, pozostaje wstrzymać się od sądu.

Informatyzm wychodzi od dwóch pojęć: pomiaru informacji oraz przetwarzania informacji. Skoro informację można mierzyć  i przetwarzać,  podobnie jak materię i energię, to jest ona czymś podobnie realnym, trzecią obok tamtych sferą rzeczywistości.  Co więcej, zachodzą między nimi takie realne relacje, jak ta, że informacja jest konieczna do przetwarzania materii (czego przykładem sterowana automatycznie obrabiarka), jak  i do przetwarzania energii (np. wiedza z termodynamiki jest niezbędna w budowie silników). Z drugiej zaś strony, przetwarzanie  informacji wymaga sprzętu i zasilania, czyli materii i energii. Tak pojęta realność informacji  to pierwszy  pewnik informatyzmu; nie jest on trywialny, skoro nie przez każdego filozofa jest akceptowany (odrzucał  go  zdecydowanie np. Tadeusz Kotarbiński).

Pomiar informacji sięga termodynamiki Ludwiga Boltzmanna (1844-1906),  gdzie informacja jest  pojmowana jako odwrotność stanu nieuporządkowania (entropii), a że porządek jest mniej prawdopodobny od nieporządku, informację traktuje się jako funkcję będącą odwrotnością prawdopodobieństwa, będącego czymś mierzalnym.  Adaptacja tej idei w technologii komunikacji (Claude Shannon) oraz w metodologii i filozofii nauki (Karl Popper) to kolejne etapy badań nad miarą informacji.

Przetwarzanie informacji, choć praktykowane przez żywą przyrodę i umysł ludzki odkąd one istnieją, stało się uświadomioną kategorią pojęciową wraz z pierwszą definicją komputera daną przez Alana Turinga w roku 1936. Ścisłą nauką o przetwarzaniu informacji jest logika od samych jej starożytnych początków, ale jest ona ograniczona do pewnego typu przekształceń, mianowicie takich, w którym prawdziwość jednych zdań udziela się innym na mocy pewnych reguł przetwarzania zdań.

Od  badań Alana Turinga (1936) pojmuje się przetwarzanie informacji  jako proces przekształcania ciągów symboli prowadzący do takiego ciągu, który wyraża rozwiązanie problemu, a dokonuje się pod kierunkiem algorytmu czyli bardzo precyzyjnych (tj. bez luk i bez odwoływania się do intuicji) instrukcji przekształcania symboli. Gdy taki algorytm jest realizowany przez urządzenie fizyczne, nazywa się programem. Że przetwarzanie informacji jest obliczaniem – to drugi pewnik informatyzmu.  Ten też nie jest trywialny.  Większość się pewnie zgodzi, że logiczne przetwarzanie informacji, czyli wnioskowanie,  jest obliczaniem. Ale już takie jej przetwarzanie,  jak przekład tekstu na inny język,  malowanie portretu, poszukiwanie jakichś danych w pamięci etc. raczej nie uchodzą za obliczenia. Dopiero na pewnym poziomie wiedzy informatycznej powstaje tego rodzaju świadomość, a ma ona ważkie konsekwencje praktyczne. Wskazuje bowiem, co czynić,  żeby przetwarzanie informacji móc powierzyć komputerom:  trzeba informację zakodować cyfrowo.

Nim doszło do odkrycia kolejnego pewnika, powszechny był w świecie nauki pogląd, że każdy problem obliczeniowy da się rozwiązać  na gruncie należycie kompletnego systemu arytmetyki, i że takie systemy  istnieją (standardem w tej mierze stała się arytmetyka Peano , tak nazwana od jej twórcy).  Kurt Gödel w 1931 i Alan Turing w 1936, a także inni badacze, wykazali, że  nie ma i być nie może tak kompletnego systemu arytmetyki liczb naturalnych, żeby dał się w nim rozwiązać algorytmicznie każdy bez wyjątku problem obliczeniowy; innymi słowy: w każdym stanie teorii arytmetycznej muszą w niej istnieć problemy nierozwiązywalne rachunkowo czyli za pomocą algorytmu.  Stało się więc rzeczą niewątpliwą istnienie w arytmetyce problemów nierozwiązywalnych algorytmicznie trzeci pewnik informatyzmu.

Kompletowanie w tym szkicu listy pewników informatyzmu  jest z natury rzeczy dość arbitralne. Kieruję się w nim doniosłością praktyczną tez awansowanych do rangi pewników,  takiej bowiem doniosłości oczekuje się od światopoglądu.  Mając pewnik trzeci stwierdzający ograniczoność metody algorytmicznej, a więc  ograniczoność komputerów, byłoby praktycznie mieć jeszcze taki, który wskazywałby drogę przezwyciężania tej ograniczoności, odpowiednio poszerzając zakres zastosowań komputera.  Pouczające są w tym względzie te momenty w historii nauki, gdy istniała już teoria empiryczna w fizyce, a szukano dla niej modelu w postaci  teorii matematycznej umożliwiającej rachunki; z niech powinno wynikać,  jakie dane pomiarowe byłyby dla danej teorii empirycznej testem jej poprawności. Póki takiego teorii nie ma w istniejącym repertuarze  matematyki,  nie da się przeprowadzić tego rodzaju testów.  Okazuje się, że geniusz matematyczny potrafi takie  środki rachunkowe stwarzać nawet na bardzo wygórowane potrzeby, np. mechaniki kwantowej (Heisenberg, Schrödinger).  Z taką praktyką badawczą zgodne są wyniki badań logicznych  Gödla (1931, 1936), których sens oddaje z grubsza pewnik czwarty: sukcesywna uzupełnialność aksjomatów i  metod (algorytmicznych) umożliwiająca rozwiązania nowych problemów. Sukcesywność oznacza, że nie da się raz na zawsze stworzyć systemu dającego środki  rozwiązywania wszelkich problemów, ale można system tak uzupełniać, żeby  każdorazowo mógł podołać pewnej klasie nowych problemów.

Kto zna i rozumie te pewniki oraz docenia ich doniosłość teoretyczną i praktyczną,  ten osiągnął pierwszy stopień wtajemniczenia w światopogląd informatyczny. Jest jeszcze drugi stopień, tym od pierwszego odmienny, że nie pewniki go stanowią, ale pytania i to tak trudne, że nie oczekujemy odpowiedzi w jakiejś przewidywalnej przyszłości. Tym nie mniej, trzeba te pytania dobrze zrozumieć, żeby doświadczyć zagadkowości świata. To doświadczenie jest nieodłączne od światopoglądu mieniącego się rozumnym, a takim mieni się informatyzm.

Na osobne rozważenie zasługuje fenomen dynamicznego wzrostu potencji obliczeniowej o czym traktuje pewnik piąty;  jest  on powiązany treściowo z czwartym (nie pretenduje się tu bowiem  do dedukcyjnej niezależności pewników), ale z racji heurystycznych wart jest potraktowania go osobno.

 

 

Zaszufladkowano do kategorii Światopogląd informatyczny | 11 komentarzy