Wolność słowa i jej koszty

Minęły te czasy, kiedy istniała reżimowa cenzura tak rozrośnięta,  jak wielogłowa hydra, bo nie tylko Urząd Kontroli Prasy, ale i kontrola prawomyślności w obrębie redakcji i wydawnictw,  do tego czujność instancji partyjnych w kontrolowaniu wypowiedzi towarzyszy, a nawet nie-towarzyszy, i jeszcze inne zmyślne regulacje, o których długo by mówić, a dla najmniej uległych – wyrok sądowy za podważanie ustroju. Za tym systemem zasieków mogli sobie bytować bezpiecznie wyznawcy jedynie słusznej idei i aktualna władza polityczna.

Nic z tego dzisiaj w naszej III RP nie pozostało, co  jest wielkim sukcesem, by tak rzec, wolnego ducha, ale duch musi pogodzić się z kosztami tak cennej  wolności. Bo co jest cenne musi kosztować.

Koszt szczególnie przykry, wręcz przygnębiający, to zalew w mediach, a zwłaszcza w Internecie, mowy plugawej. Nie lubię słów drastycznych, ale jeśli mamy określić rzecz bez zaciemnień, to nie unikniemy porównań do plucia czy wylewania pomyj.  Co można na to poradzić? Właściwie nic. Jeśli coś z takich tekstów podpada pod kodeks karny, to sprawa dla prokuratora lub dla pozwów cywilnych.  Zabiegi perswazyjne czy pedagogiczne mają tu skuteczność zerową,  bo  za tą mową bełkotliwą i znerwicowaną kryje się tępota nieprzenikliwa na rzeczowe argumenty oraz chora emocjonalność, której nic tak nie rozdrażnia jak rzeczowość.

Trzeba mieć na uwadze tę pospolitą prawdę, że w każdej populacji istnieje pewien margines patologii, a problem jest dopiero wtedy, gdy nie jest to margines lecz jakaś statystyczna większość.  Tak czy inaczej, margines ten powinien się kurczyć z biegiem czasu i nasza to rzecz o to się starać. Ale nie drogą wezwań i apeli, lecz pracując od podstaw nad zrębami cywilizacji. Im wyższa cywilizacja, tym jej język inteligentniejszy i tym bardziej  liczący się z drugim człowiekiem. Warto pamiętać, że lżenie przeciwników, dziś naganne, było w czasach homeryckich i długo potem obowiązującym wojowników rytuałem (jak to jest dziś w kręgach uliczników). Coś się jednak z biegiem czasu zmienia.

Tym optymistycznym akcentem zamykam część ogólną i przechodzę do szczegółowej. To znaczy do tego, co sam – jako posiadacz i administrator blogu – mam zamiar czynić wobec inwazji chorej mowy.  Wprawdzie mój blog Polemiki i Rozmówki jest na to stosunkowo mało narażony, ale wszystko może się zdarzyć. Jest mniej narażony dlatego, że raczej nie zapuszcza się w trudny gąszcz  problematyki moralnej, która jest drażliwa z racji wielkiej różnorodności zwalczających się poglądów, do których są ludzie bardzo przywiązani emocjonalnie,  i dla których  trudno o kryteria rozstrzygania i uzgadniania.

Przypuśćmy jednak, że kogoś mocno coś zdenerwuje w treści lub stylu kategorii caeterum censeo. I wyrzuci z siebie jakiś stek epitetów pod adresem autora. Co bym wtedy zrobił? Różne mechanizmy WordPress umożliwiają blokowanie niepożądanych wpisów.  Trzeba z tego po prostu korzystać. A już z pewnością na bzdury nie odpowiadać,  jako to szczerze zapowiada w swoim blogu Adam Michnik.

To powiedziawszy, liczę się z tym, że taka postawa może budzić obiekcje. Jedna taka, że byłaby to praktyka cenzurowania, co do której wszyscy się zgadzamy, że  jest  niechlubna. Na to odpowiem, że trzeba odróżnić różne sfery wolności. Każdemu wolno zaśmiecać własny dom i nikomu nic do tego. Jeśli zaśmieca ulicę, obszar publiczny, to powinna się nim zająć straż miejska. A jeśli się wciska do mojego domu, chcąc tam rozsiewać brudy, to moje prawo powiedzieć „wypraszam”. A mój blog to mój dom.

Drugie zastrzeżenie byłoby takie, że odmowa wstępu nie zapobiegnie przypuszczeniu agresji słownej z innego terenu. Napastnik, dotknięty do żywego odmową wstępu może zyskać wstęp do jakiejś innej witryny i wtedy, niejako z okna sąsiada, wykrzyczeć, co o mnie myśli. Nawet jeśli to będzie jakieś lżenie mocno dotkliwe, nic na to nie poradzę. Ale nie ma co dramatyzować. Każdy, kto się decyduje upubliczniać swoje poglądy czy preferencje, powinien liczyć się z tym, że może wypuścić dżina z butelki. Na takiego demona trzeba być po prostu odpornym. Jest to rodzaj waleczności, bez której nie ma co stawać w szranki działań publicznych. Ale nie musi być ona jakoś niezwykle trudna. Być atakowanym przez frustratów o inteligencji poniżej normy to przecież rodzaj komplementu.

Zaszufladkowano do kategorii Bez kategorii | Dodaj komentarz

Dynamika umysłu w perspektywie gödlowskiej

Wprowadzenie. Pojawiała się nieraz w dziejach myśl, że dla każdego  dobrze postawionego problemu da się znaleźć wiodący do  jego rozwiązania algorytm.  Znajdujemy ją u Leibniza, Hilberta, neopozytywistów, a w wydaniu najnowszym – u entuzjastów tzw. silnej teorii sztucznej inteligencji. Algorytm (przypomnijmy po raz któryś) jest to taka metoda rozwiązywania określonego rodzaju problemów, która prowadzi do wyniku w sposób niezawodny, odwołując się jedynie do cech obserwowalnych zmysłowo i kierując się regułami, które określają postępowanie jako serię oddzielnych kroków  z dokładnością do kroków możliwie najmniejszych. W takim postępowaniu nie ma miejsca na wnikanie w sens problemu, na intuicję czy pomysłowość ; toteż  np. Leibniz wierzył (przynajmniej w chwilach  reformatorskiego zapału), że  gdy już się zalgorytmizuje całą wiedzę, to nawet najgłupsi będą sobie radzić z najtrudniejszymi kwestiami.

Czy przyjąć to stanowisko? Jest to pytanie żywotne dla humanistów, bo  jeśliby odpowiedzieć na nie w sposób twierdzący, to humanistyka znikłaby  z mapy naszej wiedzy, a zastąpiłaby ją  robotyka.  A że do humanistów  przede wszystkim adresowany jest obecny esej,  to nim dojdziemy do ujęcia umysłu w perspektywie gödlowskiej, co stanowi współczesną ofertę dla humanistyki, pomocne będzie pewne wspomnienie ze złotego wieku humanistów,  jakim był okres Oświecenia.

Istotę humanistyki ujął  luminarz  tamtej epoki Alexander Pope w powiedzeniu The proper study of mankind is Man (poemat filozoficzny „On the Nature and State of Man”, list II, odc. 1).  Ludzkość jako podmiot cywilizacji i Człowiek jako  podmiot rozumności –  oto tematy  badań humanistycznych.  Wszechstronnym do tej myśli komentarzem  są dociekania nad całokształtem dziejów ludzkości, czyli nad postępem cywilizacji, które zawdzięczamy myślicielom Oświecenia szkockiego, jak Francis Hutcheson, Lord Kames, David Hume, Adam Smith.  Ich kluczem do scenariusza dziejów jest  wgląd w rozumność Człowieka  jako stwórcy cywilizacji:  jest to próba zrozumienia dzieła poprzez poznanie natury twórcy. Ów projekt badawczy sprzed trzech prawie wieków zasługuje na kontynuację w naszych czasach. Jego ciąg dalszy dokonuje się na gruncie tej wiedzy o ludzkim umyśle, która dziś owocuje światopoglądem informatycznym. Wtedy w nowym świetle  jawi się  ludzkość i człowiek jako obiekt dociekań humanistycznych.

§1. Humanistyka a robotyka

Od czasów Arystotelesa  kursuje kilka definicji człowieka, które mają w  swej treści jeden element wspólny: wszystkie zaczynają się od słowa ,,zwierzę”. Mamy więc zwierzę rozumne, społeczne, zdolne do śmiechu (była i taka definicja u scholastyków – animal risibile). Nic dziwnego, że świat zwierząt był  w refleksji nad człowiekiem jedynym porównawczym punktem odniesienia,  skoro innego punktu nie było. Dziś mamy  inny, głębiej wnikający w istotę rzeczy.  Żeby go  uchwycić, skupmy się na drugim członie klasycznej definicji człowieka, na rozumności. Czym ona jest?

Jeśli powiemy, że jest to w gruncie rzeczy to samo, co inteligencja, czyli zdolność do rozwiązywania problemów, będzie to krok w dobrym kierunku, ale  nie można na nim poprzestać,  byłaby to bowiem definicja zbyt szeroka. Rozwiązywanie problemów  jest  właściwe całemu światu organicznemu, a na pewno  królestwu zwierząt;  już bakterie mają swoje problemy i nieźle sobie z nimi radzą (przechytrzając np. ludzi w unieszkodliwianiu antybiotyków).

Ludzie mają możność rozwiązywania problemów na co najmniej dwa sposoby,  jeden podzielany z resztą zwierząt, a drugi  – przy pomocy języka. W tym drugim udział języka jest stopniowalny, a gdy występuje w stopniu maksymalnym,  mamy do czynienia z postępowaniem algorytmicznym.  Polega ono na tym, że aby rozwiązać problem,  nie trzeba mieć ani jakiejś wiedzy instynktownej, ani wiedzy dyskursywnej o prawach rządzących daną dziedziną rzeczywistości; wystarczy mechanicznie   wykonywać słowne instrukcje, których sekwencja stanowi algorytm.  Weźmy najprostszy przykład – instrukcję słodzenia herbaty wykonywaną przez dziecko pouczone przez dorosłych.  Dorosły wie, że cukier jest potrzebny organizmowi i poprawia smak i że wystarczy w tym celu jedna lub dwie łyżeczki do szklanki; dzięki tej wiedzy on rozwiązuje problem ,,czy słodzić  i jak”. Na tej podstawie formułuje słowny przepis, który przekazuje dziecku,  a wtedy problem ,,czy i jak” rozwiązuje ono skutecznie bez posiadania owej wiedzy, a jedynie przez  dokładne wykonanie instrukcji. W takim postępowaniu algorytmicznym dziecko wykazuje podobieństwo nie z jakimkolwiek zwierzęciem (instrukcji słodzenia nie zrozumie bakteria, ani nawet szympans), lecz z odpowiednio zaprogramowanym robotem.

Odkrywamy więc nową możliwość zdefiniowania człowieka, o której nie śniło się starożytnym ani ich następcom, aż po wiek XX.  Klasyczna metoda definiowania polegała na przyjęciu zbioru zwierząt za rodzaj nadrzędny, w którym wyróżnia się gatunek ludzki jako podzbiór, za różnicę gatunkową biorąc cechę rozumności. Teraz bierzemy jako rodzaj nadrzędny klasę układów zdolnych do rozwiązywania problemów, której podzbiorami są:  (A) zwierzęta nie będące ludźmi, (B) roboty, (C) ludzie.  Klasa C podziela z klasą A umiejętność rozwiązywania problemów w sposób instynktowny, a z klasą B – w sposób algorytmiczny.

Rozważmy sumę  klas B+C. Co w tym zbiorze  zsumowanym odróżnia ludzi od pozostałych jego elementów? To samo, co odróżnia dorosłego od dziecka z powyższego przykładu; albo początkującego kuchcika od wytrawnego kucharza, który sam tworzy receptury potraw i przekazuje kuchcikowi do wiernego wykonania według instrukcji. Jest to zdolność tworzenia  algorytmów na podstawie  posiadanej wiedzy.  Towarzyszy jej właściwość nie mniej dla twórczego myślenia istotna – specyficznie ludzka zdolność do stawiania pytań i doświadczania wątpliwości,  ale w obecnym  punkcie rozważań poprzestaniemy na pierwszej.

Zdolność do konstruowania algorytmów wymaga dwóch dyspozycji,  które Alan Turing (1938) uważał za niezbędne w rozumowaniu matematycznym człowieka. Są nimi intuicja oraz pomysłowość czyli inwencja.  Tę obserwację Turinga możemy bez zastrzeżeń uogólnić na wszelkie rozumowania,  mając na uwadze tworzenie algorytmów  jako jedną z odmian w zbiorze rozumowań. Tak dochodzimy do nowoczesnej definicji człowieka,  właściwej epoce informatycznej. Człowiek jest to istota zdolna do rozwiązywania  (A) jednych problemów na drodze instynktownej, (B) innych na drodze  algorytmicznej , (C) jeszcze innych na drodze rozumowań wymagających intuicji i pomysłowości, m.in. rozumowań, których produktami są algorytmy.

Intuicja jest ważnym źródłem wiedzy dla tworzenia algorytmów. Np.  intuicja nieskończonego zbioru liczb naturalnych, z zerem i relacją następnika, stanowi tę porcję wiedzy o świecie liczb,  dzięki której jakiś pomysłowy Hindus w głębokim średniowieczu  stworzył algorytm pozycyjnego zapisu dowolnej liczby naturalnej. Nazwiska tego geniusza nie znamy, wiemy natomiast, że notację tę dopracował  i upowszechnił  uczony arabski Al-Chwarizmi, którego przekręcone przez łacinników imię dało początek słowu ,,algorytm”.

W  powyższym określeniu nie występuje słowo ,,zwierzę”, obecne od tysiącleci w filozoficznej definicji człowieka, mamy więc w tym jakby świtanie nowej humanistyki. W tym świetle, do istoty człowieka nie należy to, żeby miał wątrobę i trzustkę. Wprawdzie w obecnym stanie rzeczy bez tych i innych narządów nie działałby mózg Al-Chwarizmiego ani żadnego innego człowieka, ale jeśli przyroda lub ludzka technika wytworzy kiedyś istotę bez takich atrybutów cielesności, lecz mającą dar intuicji i pomysłowości,  a więc zdolną również do pytań i wątpliwości, bez wahania jej przyznamy atrybut człowieczeństwa.  Natomiast miano robotów zachowamy dla urządzeń zdolnych rozwiązywać problemy tylko dzięki algorytmom. Mogą to być algorytmy gotowe, od początku wbudowane przez programistę, a mogą być takie które sprawiają, że układ jest  zdolny uczyć się  (w wyniku interakcji z otoczeniem) rozwiązywania problemów, ale tak czy inaczej nie są one ekwiwalentem intuicji i pomysłowości. Gdyby jednak ten drugi proces doprowadził jakimś sposobem do wykształcenia się  jednej i drugiej w  jestestwach nie organicznych,  to nie odmówimy im awansu z klasy robotów do klasy istot rozumnych.

§2. Dynamika dodatnich sprzężeń zwrotnych między umysłem i językiem

2.1. Algorytmy jako instrukcje rozwiązywania problemów powstają dzięki ludzkiej  intuicji i pomysłowości. Z drugiej strony, te cnoty umysłu nie wydawałyby owoców, gdyby nie miały do dyspozycji algorytmów jako swych niezastąpionych narzędzi. Niezliczone problemy leżałyby odłogiem nie rozwiązane, inne nie zostałyby w ogóle zauważone, gdyby nie to całe instrumentarium rachowania oparte na algorytmie pozycyjnego zapisu liczb i algorytmach podstawowych działań arytmetycznych.  Droga od intuicji do ugruntowanego twierdzenia prowadzi przez obliczenia sterowane algorytmami. Mógł Pierre Fermat mieć silną intuicją prawdziwości swego twierdzenia i pomysł dowodu, ale dopóki Andrew Wiles w roku 1995 (po trzystu przeszło latach po Fermacie) nie opublikował  swych  składających się na dowód 130 stron obliczeń,  nie mogliśmy na tym twierdzeniu polegać jako na wiarogodnym wglądzie w świat liczb.

Liczba 130 stron to wskaźnik niezwykłej długości dowodu, a ta z kolei jest miarą stopnia złożoności, a więc i stopnia trudności, tego problemu, na który konkluzja dowodu jest odpowiedzią.  Kwestia złożoności dowodu matematycznego, podobnie jak kwestia złożoności oprogramowania dla komputera, dostarcza nam niejako laboratorium do badania stosunku między intuicją i algorytmem. Wiedząc  o zmaganiach Andrew Wilesa z tą gigantyczną trudnością (dziesięć lat wyłącznie temu poświęconych), której przez 300 lat nie zdołali pokonać atakujący ten problem wybitni matematycy, możemy sobie przedstawić,  jak wielkiej wymagało to intuicji i pomysłowości. Wiemy też,  jak trudne było dla recenzentów sprawdzenie poprawności dowodu, a gdy po paru miesiącach od ogłoszenia (1993) pierwszej wersji wykryli  oni błąd, kolejne miesiące zajęła autorowi praca nad jego poprawieniem. O czym to świadczy? O tym, że intuicja nawet znakomitych umysłów bywa zawodna, dobrze by więc było, żeby przyszła jej z pomocą jakaś procedura algorytmiczna. Z tego jednak, co wiemy o komputerowym sprawdzaniu poprawności dowodów,  to tekst dowodu tak opracowany, żeby mógł go interpretować program testujący, bywa dziesiątki razy dłuższy (mierząc liczbą wierszy) niż tekst dowodu intuicyjnego, co w przypadku wywodów Wilesa oznaczałoby tysiące stron do prześledzenia.  A to musiałoby stanowić nieprzekraczalną barierę dla ludzkiej pamięci (typu pamięci operacyjnej,  jeśli użyć porównania do komputera).  Nie ma więc w badaniach naukowych odwrotu od posługiwania się intuicją, i nie stanie się tak,  jak eksperymentował myślowo Leibniz, że dla każdego problemu znajdzie się kiedyś algorytm, który pozwoli nawet umysłom tępym znaleźć nań odpowiedź w sposób mechaniczny, bez myślowego wysiłku.  Z drugiej strony, nawet gdy nic nie wiemy o treści dowodu Wilesa, możemy być pewni, że do zapisu liczb posługiwał się on algorytmem zapisu pozycyjnego, a do obliczania potęg (których dotyczy twierdzenie Fermata) stosował algorytm potęgowania, nie usiłując przedstawiać sobie w myśli, ile to będzie gdy jakieś x pomnożyć przez siebie n razy.  Gdyby z takich środków algorytmicznych nie korzystał,  rozbiłby się o barierę praktycznej niewykonalności. Tak więc, znajdujemy w tej historii wymowny przykład współdziałania między intuicją i pomysłowością z jednej strony oraz algorytmem  z drugiej, a więc interakcji przynoszącej wzmocnienie po obu stronach.

Na potrzeby dalszych rozważań uogólnijmy ten przypadek na dwa sposoby. Zachodząca w nim interakcja algorytmu z intuicją i pomysłowością to szczególny przypadek sprzężenia zwrotnego między umysłem (intuicja i pomysłowość) z tekstem językowym,  jakim jest algorytm, czyli (ogólniej) z językiem. Sprzężenie zwrotne jest to wzajemne oddziaływanie między dwoma czynnikami cechujące się takim rytmem, że jeśli czynnik X wywoła pewną zmianę w czynniku Y,  to wtedy Y wpływa analogicznie na X, potem znów X na Y itd.  Zmiana polega na wzmocnieniu lub na osłabieniu intensywności procesu. Osłabianie zachodzi  m.in. w zjawiskach regulacji, gdy wbudowany w tym celu mechanizm zapobiega przekroczeniu jakiegoś niebezpiecznego progu intensywności, np. ciśnienia w maszynie parowej  (taką kontrolę sprawuje regulator Watta).  Zjawisko to określamy jako sprzężenie zwrotne ujemne.  Natomiast sprzężenie zwrotne dodatnie zachodzi  wtedy, gdy każdy z dwóch procesów oddziałuje na drugi wzmacniająco. Może to być np. zwarcie między mikrofonem i źródłem dźwięku czy eskalacja ostrości sporu, w miarę, jak każda ze stron po retorsjach drugiej czuje się coraz bardziej poszkodowana. Prócz takich sytuacji, raczej negatywnych, istnieją w życiu społecznym sytuacje  rozwijania się różnych wartości dzięki ich  wspieraniu się wzajemnemu na zasadzie sprzężenia.   I tak,  proces rozwoju gospodarki sprzyja wzrostowi stabilizacji politycznej i wolności,  oba zaś te stany przyczyniają się, zwrotnie, do rozwoju gospodarki.  Rosnący poziom edukacji  także sprzyja wzrostowi gospodarczemu, a ten się odwzajemnia wzrostem nakładów na edukację. Podobnie pozytywne wzmocnienia zachodzą między edukacją i badaniami naukowymi, itd.

Niebywały rozwój nauk w naszej cywilizacji tłumaczy się  potężnym sprzężeniem dodatnim, które zachodzi między twórczym umysłem i algorytmem;  jak koło zamachowe napędza ono postęp nauki, wprawiając go w coraz szybsze obroty. Ten szczególny związek  trzeba ujmować w kontekście prawidłowości ogólniejszej, mianowicie sprzężenia między myślą i mową. Pojawia się ta prawidłowość nie tylko na wyżynach poznania naukowego. Doświadczamy jej w codziennym życiu,  kiedy myśl wyprzedza mowę. Tak było,  gdy jakiś nasz praprzodek po raz pierwszy ujrzał ogień, a z ust wydarł mu się okrzyk podziwu czy strachu (czy może jednego z drugim). Ten dźwięk, jeśli się powtórzył,  jeśli powtórzyli go też ileś razy  inni, stał się w danej grupie nazwą ognia. Mamy tu model sytuacji świadczący o pierwszeństwie myśli przed mową, bo zauważenie czegoś,  wyodrębnienie  tego  uwagą z otoczenia oraz wzięcie za reprezentacje pewnej szerszej klasy zjawisk,  to są pierwociny myśli abstrakcyjnej.  A gdy już nazwa ognia się utrwaliła, zaczęła oddawać przysługi myślom,  jak ogień pozyskać,  jak ugasić, do czego użyć itd.

Sformułujmy to ogólnie:  gdy się uda myśl wysłowić, wspomaga to myśl,  żeby stała się pełniejsza i jaśniejsza;  gdy  damy wyraz słowny tej nowej,  to kolejne takie wysłowienie służy dojściu do myśli  bardziej pogłębionej, która rzecz ujmie jeszcze trafniej.  To są te zmagania naszej  myśli i mowy,  które Norwid ujął frazą odpowiednie dać rzeczy słowo (choć może nie każdy zmagań takich doświadcza, oszczędzone one są np. grafomanom).  Jest to więc taka sekwencja: najpierw myśl  bez słów, potem jej wysłowienie, które pomaga narodzić się myśli postrzegającej  następnie wysłowienia tego niedoskonałość,  dzięki czemu nasuwa się werbalizacja bardziej trafna, i tak aż do punktu, w którym uznamy, że ,,to jest to”, czyli że słowo przylega do myśli jak dobrze skrojona szata, a myśl ujmuje sedno rzeczy.  Na swój sposób doświadczają takiego stanu prawdziwi poeci, a na swój sposób matematycy.

2.2. Matematycy są w tej dobrej sytuacji,  że  współczesna logika dostarcza  jasnego i w pełni sprawdzalnego kryterium,  czy werbalizacja jest już doskonała. Trzeba w tym celu teorię zaksjomatyzować i przyjąć odpowiednie reguły wnioskowania, a następnie wykazać, że każde prawdziwe zdanie danej teorii da się wywnioskować z jej aksjomatów,  a żadne fałszywe wywnioskować się nie da. Mówiąc bardziej technicznie, trzeba udowodnić o danej teorii, że jest zupełna oraz niesprzeczna. Będzie to świadczyć niezbicie, że aksjomaty bez reszty opisują tę dziedzinę rzeczywistości, do której opisu zostały powołane.  Jeśliby natomiast było tak, że jakieś zdanie wyrażone w języku danej teorii jest prawdziwe, a wywnioskować z aksjomatów się nie da, to powiemy o danej teorii, że jest niezupełna. A to znaczy, że aksjomatom nie udaje się wyrazić tego, do czego nasza myśl  bez nich dociera, gdy uda się jej rozpoznać jakieś zdanie prawdziwe, a nie dające się z aksjomatów wywnioskować.

Dowodzenie, o którym tu mowa jest zdefiniowane rygorystyczne. Mają  to być reguły tak precyzyjne,  jak te stosowane w algorytmach, a więc dyktujące krok po kroku, jak przekształcać aksjomaty w ich konsekwencje, a te w kolejne konsekwencje, aż dojdzie się do konsekwencji  będącej tym zdaniem, którego prawdziwości chcemy dowieść.  Przy tym,  owe służące wnioskowaniu reguły przekształcania formuł dotyczą ich postrzegalnych zmysłowo cech fizycznych, mianowicie kształtu i położenia, a nie ich treści (por. to z definicją algorytmu na początku eseju).  Tego rodzaju dowód nazywa się  formalnym, a ze względu na wyżej opisany charakter reguł dowodzenia można go też określić jako algorytmiczny.

Gdy z końcem XIX wieku pojawiła się, jako nowa dziedzina wiedzy, logika matematyczna, służąca do analizy i oceny rozumowań w matematyce,  ufano, że dostarczy ona środków, żeby  w sposób zupełny móc zaksjomatyzować dowolną teorię matematyczną; to znaczy tak dobrać jej aksjomaty,  żeby dały się  a nich wyprowadzić w drodze dowodu wszystkie zdania w danej teorii prawdziwe i tylko prawdziwe. Było to, mówiąc swobodnie, równoznaczne z przekonaniem,  że   w matematyce jej precyzyjny język symboliczny ma moc ekspresji zdolną wyrazić adekwatnie wszystkie nasze zrozumienia dotyczące matematycznej rzeczywistości.  Okazało się  jednak,  że te oczekiwania spełniają się tylko w odniesieniu do bardzo prostych teorii, jak niektóre teorie algebraiczne, ale już gdy wejdziemy w świat liczb naturalnych,  język przestaje nadążać za myślą. Pojawiają się zdania,  których prawdziwość myśl nasza rozpoznaje, ale dowodu formalnego, czyli bez reszty zamkniętego w symbolach, dostarczyć się nie da.

Nie musi to jednak oznaczać zastygnięcia teorii formalnej w takim kształcie. Będąc niezupełna, jest ona jednak uzupełnialna do wyższego poziomu, na którym pozbędzie się poprzedniego braku, a choć swoiste braki pojawią się na tym nowym etapie, da się ona uzupełnić do kolejnego poziomu, i tak dalej.  Wchodzi bowiem do gry taka sama dynamika interakcji myśli i języka, jak ta opisana wyżej w odniesieniu do werbalizacji w języku naturalnym. I podobnie jak w wersji ,,naturalnej”, wyższy poziom werbalizacji, która jest w tym przypadku  formalizacją, umożliwia rodzenie się nowych myśli, które nie miałyby szans zaistnienia, gdyby nie dostąpiły wsparcia  ze strony precyzyjnego języka formalnego.

O istnieniu takiej uzupełnialnej stopniowo niezupełności dowiedziano się po raz pierwszy w roku 1931, gdy Kurt Gödel  odkrył,  że jest to właściwość arytmetyki  liczb naturalnych. Wykazał on,  że żadna aksjomatyka nie wystarczy, żeby na jej podstawie udowodnić formalnie (algorytmicznie) wszystkie prawdziwe zdania arytmetyki. Możemy natomiast uzyskiwać coraz większy zbiór prawd dowiedzionych,  w miarę jak wzbogacamy aksjomatykę o nowe formuły, bądź też wzmacniamy logiczne reguły dowodzenia algorytmicznego.  Podsumujmy: na każdym ze szczebli rozwijania aksjomatycznej arytmetyki liczb natualnych są w niej prawdy niedowodliwe formalnie,  ale zarazem z każdego szczebla można wspiąć się na  wyższy,  to jest taki, na którym niektóre prawdy dotąd niedowodliwe dadzą dowieść.

Takie pozyskiwanie za pomocą dowodów formalnych coraz większego zbioru prawd jest procesem bez granic,  potencjalnie nieskończonym. Mamy więc w perspektywie nieskończony proces postępu nauki.  Drugą okolicznością godną uwagi jest  powstawanie warunków do pojawienia się dodatnich sprzężeń zwrotnych – na zasadzie prawidłowości opisanej wyżej w 2.1.  Po intuicyjnym rozpoznaniu jakiejś prawdy niedowodliwej formalnie, możemy ją dołączyć do aksjomatów (one też zostały przyjęte bez dowodu), wzmacniając tą drogą moc dedukcyjną teorii. Oznacza to przyrost  informacji, a im więcej informacji, czyli im większa wiedza, tym większa skala i tempo kolejnego przyrostu.  Tę nieograniczoną perspektywę rozprzestrzeniania się umysłu nazywam tu gödlowską, ponieważ Gödel był tym, który jej istnienie pierwszy dowodnie wykazał, czyniąc to na polu tak sprawdzalnym,  jakim jest arytmetyka.

Żeby się osobiście o tej perspektywie przekonać, trzeba uzyskać jakiś wgląd w treść i uzasadnienie wyniku Gödla. Skala poziomów tego wtajemniczenia może być bardzo rozległa: od kilku zdań ogólnikowej  informacji po specjalistyczne monografie, gdy cały pokaźny tom stanowi wykład i interpretację twierdzenia Gödla o niezupełności arytmetyki.  Dwa następujące dalej odcinki sprawie tej poświęcone są bliskie raczej dolnego progu zrozumień. Ich celem jest doprowadzić Czytelnika,  jeśli nie do przekonania o prawdziwości twierdzenia, to przynajmniej do wyobrażenia sobie, co na czym taki stan przekonania mógłby polegać.  To jest minimum, do którego powinien się czuć zobowiązany współczesny humanista. Żeby odciążyć i możliwie skrócić  tok wywodu, nie opisuję tu metody arytmetyzacji języka przez kodowania liczbowe, mogąc odesłać Czytelnika do poprzedniego eseju, gdzie była o tym mowa z innego jeszcze względu, lecz przede wszystkim ze względu na przygotowanie do obecnego sprawozdania z argumentacji Gödla.

§3.  MAG:  samopotwierdzalne MetaArytmetyczne zdanie Gödlowskie

Istnieje osobliwa klasa wypowiedzi, można powiedzieć, egocentrycznych, że taka wypowiedź mówi jedynie coś o sobie samej, a  nic na inny temat. Oto przykład: „Niniejsze zdanie składa się z siedmiu wyrazów”. Wypowiedzi tego rodzaju są poprawne gramatycznie, a przy tym spełniają bez zarzutu warunek wymagany od każdego zdania, że ma być prawdziwe lub fałszywe. Powyższe  zdanie jest prawdziwe,  a jeśliby słowo „siedmiu” zamienić na inny liczebnik, stanie się fałszywe. Nie można mu więc nic zarzucić poza pewnego rodzaju dziwacznością, ale to  mu nie odbierze statusu zdania w sensie logicznym.

Mamy w tej klasie zdania jeszcze osobliwsze, do których  zastosujemy określenie: zdanie samopotwierdzalne., w skrócie SP. Z treści takiego zdania wynika, że jest ono z konieczności prawdą, czyli samo siebie potwierdza. Do tej  kategorii należy wyrażenie będące bohaterem tego eseju, zwane zdaniem gödlowskim. Swe kluczowe znaczenie dla  dyskutowanego problemu zawdzięcza ono temu, że występuje w dwóch wersjach. Jedna z nich jest samopotwierdzalna w sposób oczywisty i bezpośredni. Druga zaś dzięki temu, że  z pierwszą jest równoważna, okazuje się również samopotwierdzalna.   Ta druga jest sformułowana w języku arytmetyki, co będzie nam przypominał skrót AG – Arytmetyczne zdanie Gödlowskie. Pierwsza jest sformułowana w języku, którym się mówi o arytmetyce, czyli w jej metajęzyku, stąd skrót MAG – MetaArytmetyczne zdanie Gödlowskie. W obecnym odcinku zajmiemy się AG-iem,  a MAG-iem w odcinku następnym.

Żeby zrozumieć istotę zdań samopotwierdzalnych, trzeba mieć na uwadze, że zdanie takie  bierze się z zanegowania jakiegoś zdania antynomialnego czyli, krócej, antynomii. Antynomia jest to wypowiedź, z której wynika jej własne zaprzeczenie, co ją nieuchronnie skazuje na fałszywość. A jeśli antynomia jest z konieczności fałszywa, to jej zaprzeczenie musi być prawdziwe na mocy samej swej treści, co znaczy, że jest zdaniem  samopotwierdzalnym.

Nim opiszemy ten mechanizm dla zdania gödlowskiego, przyjrzyjmy się mu na przykładzie słynnej antynomii kłamcy, występującej w rozmaitych szatach słownych. Rozważmy ją ubraną w krótkie zdanie, które oznaczymy jako: Ant.1 – JESTEM ZAWSZE OMYLNY. To znaczy, cokolwiek sądzę, zawsze to jest fałszywe.  W takim razie, fałszywe jest również zdanie  Ant.1, a w takim razie prawdziwe jest jego zaprzeczenie, czyli sąd, że nie zawsze jestem omylny. Gdy uznaje za prawdę jakiś sąd (tutaj Ant.1) i zarazem muszę uznać jego konsekwencję stanowiącą jego zaprzeczenie, to popadam w sprzeczność, co mnie zobowiązuje do odrzucenia sądu Ant.1.  Odrzucenie go oznacza, iż uznaję za prawdę, że nie zawsze jestem nieomylny” czyli SP.1 : CZASEM JESTEM OMYLNY. To  wnioskowanie każe zaliczyć SP.1 do zdań samopotwierdzalnych.  Skoro bowiem  jego zaprzeczeniem jest zdanie antynomialne,  a więc sprzeczność, zobowiązuje to,  pod sankcją popadnięcia w antynomię,  do uznania sądu SP.1 za prawdę  na mocy samej jego treści, bez potrzeby konfrontowania z jakimiś faktami; a to znaczy, że jego potwierdzenie dokonuje się samo, niejako automatycznie.

MAG jest zdaniem, które stwierdza o sobie samym,  że w arytmetyce liczb naturalnych nie ma dań dowodu formalnego. To znaczy takiego, że reguły dowodzenia twierdzeń, to jest, wyprowadzania ich z aksjomatów,  mają charakter czysto formalny czyli odnoszą się do fizycznego kształtu ciągów symboli, nie zaś do ich sensu. Tę cechę odwoływania się przez reguły wyłącznie do fizycznej postaci symboli, to znaczy do ich kształtu i usytuowania w przestrzeni, dowód formalny podziela z  procedurami algorytmicznymi. Można go jeszcze bardziej przybliżyć do algorytmu, tak dobierając reguły dowodzenia, żeby w przypadku każdej dającej się dowieść formuły  dowód doprowadzał do niej w sposób mechaniczny, to znaczy bez potrzeby posługiwania się jakąkolwiek inwencją (podczas gdy dowody twierdzeń matematycznych nie korzystające z takiej procedury wymagają czasem od matematyków nieprzeciętnej inwencji).  W obecnym jednak rozważaniu ta druga cecha, mechaniczność dochodzenia do konkluzji, nie jest istotna, jest natomiast istotny ów formalny charakter kroków dowodowych.  Będziemy go mieli w domyśle, ilekroć dalej będzie mowa o dowodzie lub dowodliwości; domyśle będzie także to, że chodzi o dowód wychodzący z aksjomatów arytmetyki liczb naturalnych. Pomijając, dla skrótu, te klauzule rozważamy następującą wypowiedź, w której  ,,dowodliwe” znaczy, że zdanie da się dowieść na podstawie aksjomatów, nie koniecznie natomiast dowód ten ma być aktualnie wykonany.

MAG:  Niniejsze zdanie nie jest dowodliwe.

Jest to zdanie samopotwierdzalne, a więc z konieczności prawdziwe – przy założeniu, że są prawdziwe, a więc nie rodzące sprzeczności, aksjomaty arytmetyczne. Jest to założenie istotne; na nim  się opiera następująca argumentacja. Gdyby MAG było zdaniem fałszywym, to  byłoby dowodliwe. A jako dowodliwe na podstawie prawdziwych przesłanek, to jest, wynikające z aksjomatów na mocy reguł logiki, byłoby  prawdziwe. Tak więc,  zaprzeczenie zdania MAG implikuje jego prawdziwość. Gdy jakieś zdanie wynika z własnego zaprzeczenia, trudno o mocniejszy argument na rzecz jego prawdziwości.  Certyfikatem dla tego argumentu jest prawo logiki: (Np→p)→p; można by je nazwać prawem samopotwierdzania.

Rozumowanie to ma być punktem wyjścia dla argumentacji,  że istnieją w arytmetyce zdania prawdziwe, a nie dające się dowieść formalnie. Tak jednak,  jak to zdanie obecnie wygląda,  nie ma w nim odniesienia do arytmetyki (poza domyślną klauzulą, że chodzi  o dowód na podstawie aksjomatów tej teorii).  Wszak niedowodliwe ma być jakieś jakieś zdanie w języku arytmetyki, mówiące coś o liczbach,  MAG natomiast jest zdaniem z jej metajęzyka.  Potrzebne jest więc coś w rodzaju przekładu tego zdania metajęzykowego na język arytmetyczny. A mówiąc dokładniej, powinno to być coś więcej niż przekład bo to zdanie arytmetyczne, podzielając z MAG-iem przypisanie sobie samemu niedowodliwości (w czym jest podobieństwo do przekładu), powinno wyrażać ponadto  jakąś prawdę arytmetyczną (czego MAG nie czyni).  Zabieg, który tu się wykonuje nazywa się technicznie odwzorowaniem,  w takim sensie, w jakim mówi się np. o odwzorowaniu pewnej geometrii nie-euklidesowej w geometrii Euklidesa. Odwzorowanie teorii A w teorii B gwarantuje, że każde twierdzenie prawdziwe w A, gdy się je odwzoruje w B,  także w B będzie prawdziwe.   W obecnym zagadnieniu chodzi o to, żeby odwzorować MAG w arytmetycznym zdaniu gödlowskim AG.

§4.  AG: samopotwierdzalne Arytmetyczne zdanie Gödlowskie

Metodą odwzorowania użytą przez Gödla jest pewien system kodowania napisów za pomocą cyfr. W ten sposób zdanie MAG zamieni się w formułę utworzoną z cyfr, a więc należącą do języka arytmetyki. Opis tej metody, nawet poczyniony w wielkim skrócie, musi być dość obszerny, toteż aby nie odciągać uwagi od głównego nurtu argumentacji, odsyłam do opisu, który dałem wcześniej (esej 17, §3 dotyczący arytmetyzacji języka) z myślą o przygotowaniu do obecnych rozważań.

Za sprawą procedury kodowania każde zdanie zapisane w języku logiki predykatów, czy to arytmetyczne, czy meta-arytmetyczne, jest reprezentowane przez liczbę zwaną jego numerem gödlowskim.  Trzeba więc zacząć od zapisania zdania MAG w postaci formuły logicznej.  Pierwszym przybliżeniem jest  następująca formuła, w pewien sposób pochodna od MAG  (co sygnalizuje  apostrof).

MAG’:  Dla zdania g nie istnieje ciąg formuł x – taki, że D(x, g).

Predykat „D” czytamy „jest dowodem”.  Zwrot „nie istnieje” ma w logice odpowiednik złożony z dwóch symboli, którym są przypisane numery gödlowskie (por. 17,   §3.1; w jednym z ujęć rozumowania Gödla są to liczby: 1 dla negacji oraz 4 dla kwantyfikatora egzystencjalnego).   Zmiennej x, również jest przypisany przez nasz klucz kodowy pewien numer,  który oznaczymy przez x*. Mamy też metodę obliczania numeru całego wyrażenia jako liczby zależnej od wyżej podanych.  Trzeba jeszcze tylko dysponować symbolem dla zapisania relacji arytmetycznej zachodzącej między  g*  jako numerem zdania gödlowskiego g oraz  x* jako numerem ciągu formuł x. Relacja ta jest arytmetycznym odwzorowaniem stosunku, który nazywamy w metajęzyku dowodzeniem; oznaczmy ją przez D* (gwiazdki  tu i wcześniej oznaczają  odwzorowania pojęć metajęzykowych  w arytmetycznych). I tak otrzymamy formułę arytmetyczną:

AG: ·x* D*(x*, g*).

Pominiemy też kwestię,  zbyt dla tych rozważań techniczną, obliczenia wartości liczbowej D*. Pominiemy też szczegóły techniczne rozwiązywania  innej kwestii, ale  jej samej nie możemy tu ignorować,  jest  bowiem dla naszej argumentacji kluczowa.

Jest to pytanie, jak oddać słowo „niniejsze”, które pełni istotną rolę w MAG, a którego nie ma w MAG’  (było na to za wcześnie w tym pierwszym przybliżeniu).  Problem w tym, że w języku logicznym nie ma środków by oddać tego rodzaju słowa. W logicznej teorii języka noszą one miano wyrażeń okazjonalnych; można też rzec sytuacyjnych,  mają one bowiem tę osobliwość, że zachowując wciąż to samo brzmienie nieustannie zmieniają sens w zależności od kontekstu sytuacyjnego, czyli okazji użycia związanej z okolicznościami czasu lub przestrzeni Słowo „dziś” np. oznacza inny dzień, gdy się je wypowie 1-go, a inny 2-go stycznia.

Podobnie jest ze słowem „niniejsze”.   Żeby mogło ono coś oznaczać,  trzeba  stworzyć odpowiedni kontekst sytuacyjny, ale formuły matematyczne to są właśnie takie, które kontekstu takiego nie potrzebują i nawet mieć go nie mogą, dotyczą bowiem obiektów bytujących poza czasem i przestrzenią. A jednak Gödel znalazł wielce pomysłowy sposób na stworzenie odpowiedniego kontekstu, który dostarcza  ekwiwalentu dla słowa „niniejsze”. Stał się on możliwy tylko dzięki arytmetyzacji metajęzyka, a polega na tym, żeby pisząc formułę AG, tę  jej  sygnaturę zastąpić numerem formuły, i to koniecznie w taki sposób, żeby wypadł to numer g*. Jak to zrobić, jest to nader skomplikowany problem, którego rozwiązanie jest majstersztykiem techniki obliczeniowej Gödla. Nie będziemy próbowali za nią nadążyć, poprzestaniemy na przyjrzeniu się wynikowi, którego zapisem jest wiersz zaczynający się od numeru formuły, przy czym numer ten jest liczbą g*,  o której dana formuła stwierdza, że nie istnieje  liczba x*, która byłaby numerem ciągu formuł będącego dowodem formuły numerowanej liczbą g* ; a to znaczy, że oznaczona tą liczbą formuła g nie ma w arytmetyce dowodu. Oto ów zapis:

g*:  ¬∑x* D*(x*, g*).

Operowanie tym napisem wymaga nieco wyobraźni. Trzeba sobie wyobrazić, że na miejscach gwiazdkowanych liter występują jakieś konkretne liczby (ich zapisy byłyby tak długie, że niewykonalne praktycznie na papierze).  Mamy więc do czynienia z twierdzeniem arytmetycznym, które ma nam do powiedzenia dwie rzeczy: jedną, że zachodzi  pewien fakt arytmetyczny, drugą, że formuła z numerem g*  nie ma dowodu formalnego z aksjomatów arytmetyki. Tu drugie może być kolejnym wyzwaniem dla naszej wyobraźni, gdy już poradziliśmy sobie z wcześniejszym, żeby w gwiazdkowanych symbolach upatrywać liczby. Jak jednak dopatrzeć się w formule numer g*  informacji o jej niedowodliwości?

Pomóżmy sobie następująca historią w roli przykładu, nie do końca może realistycznego, ale w granicach fizycznej i społecznej  wykonalności. Wyobraźmy sobie, że w pewnej wysoko zinformatyzowanej uczelni frekwencja na zajęciach jest kontrolowana przez następującą procedurę. Każdy przedmiot wykładowy jest oznaczony pewnym numerem, numerowane są także kolejne wykłady z tego przedmiotu (np. 5,2 to drugi wykład z przedmiotu numer pięć).  Oczywiście, każdy student ma student ma swój własny numer umieszczony w elektronicznej karcie stanowiącej legitymację. Wchodząc do sali wykładowej student rejestruje obecność przez okazanie swej karty czytnikowi, który na życzenie drukuje listy złożone z samych zapisów cyfrowych,  np. na liście pod tytułem 5,2 znajdą się numery kart studentów zarejestrowane w danym dniu, m.in. numer 99. Taki wydruk informuje o pewnych relacjach liczbowych,  np. że 99 znajduje się w zbiorze liczb oznaczonym liczbą 5,2.  Ale nie tylko. Kto zna klucz kodowy zastosowany do numerycznego odwzorowania osób (studenci) i zdarzeń (wykłady), temu jeden z napisów na wydruku powie, że Jan Dyląg (student nr 99) nie był obecny na drugim wykładzie z zakresu przemysłowej hodowli kaczek (przedmiot nr 5).   Jeśli pod koniec roku okaże się po przejrzeniu wszystkich list, że nie ma numeru takiej listy, na której widniałaby cyfra „99”, będzie to zarazem informacja, że  nie ma takiego wykładu, który Jan Dyląg  zaszczyciłby swą obecnością.  Przypomina to po części strukturę formuły z numerem g*, która na takiej  samej zasadzie – odwzorowania przez kodowanie numeryczne – informuje, że nie ma takiej liczby, która byłaby numerem ciągu formuł dowodzącego zdania numerowanego liczbą g*.

W powyższym przykładzie dwie informacje, nazwijmy je, numeryczna i faktograficzna, są  równoważne inferencyjnie, to znaczy, każda z nich da się wywnioskować z drugiej.  Z tego,  że na wszystkich listach brak numeru 99 wynika niezawodnie fakt,  że na wszystkich wykładach brak było Dyląga. I odwrotnie, z faktu nieobecności Dyląga wynika informacja o stanie zapisów numerycznych na listach. A zatem, prawdziwość każdej z tych dwu informacji gwarantuje prawdziwość drugiej.

To,  że wnioskować o prawdziwości  można w obu kierunkach, ma kluczowe znaczenie dla argumentacji o istnieniu w  arytmetyce zdań niedowodliwych formalnie. Zdaniem,  którego prawdziwość potrafimy rozpoznać jest wypowiedź metajęzykowa  MAG, a dzięki owej równoważności zyskujemy  pewność o prawdziwości zdania arytmetycznego na temat liczby g, mającego numer  g*. A że to zdanie mówi o nieistnieniu liczby, która reprezentowałaby  jego formalny dowód, pośrednio stwierdza brak takiego dowodu czyli swą niedowodliwość.  Istnieje przeto w arytmetyce liczb naturalnych zdanie prawdziwe, którego nie da się formalnie dowieść z aksjomatów arytmetyki.  Podsumowujemy to określeniem, że arytmetyka liczb naturalnych jest teorią niezupełną.

§5.  Humanistyczna interpretacja niezupełności  arytmetyki

Przysłowiowe stawianie kropki nad ,,i” jest zabiegiem jak najwłaściwszym, jako że ,,i” bez kropki nie byłoby sobą.  Stawianie dwu kropek byłoby stanowczo przesadą, a  jednak dopuszcza się  czegoś takiego w tym końcowym odcinku. Powtarzam tu bowiem różne rzeczy wcześniej w tym eseju na różnych miejscach powiedziane. Usprawiedliwia to, jak sądzę,  tego rodzaju sytuacja, że pewne rzeczy powiedziane w dwóch pierwszych odcinkach, przed zdaniem sprawy z argumentacji Gödla, mają być szansę głębiej zrozumiane i przyswojone po zaznajomieniu się z  owym sprawozdaniem. Trzeba więc stworzyć mozliwość zetknięcia się z nimi raz jeszcze.  To tak, jak drugie widzenie się  z kimś raz już spotkanym, gdy po pierwszym zapoznaliśmy się z jego życiorysem; teraz  patrzymy na jego postać jakby innymi oczami.

I tak, powracając do końcowego zdania poprzedniego odcinka, postawmy pytanie: dobrze to czy źle dla poznawania świata, że arytmetyka jest  niezupełna?  Znaczna, może przeważająca, część badaczy i autorów pytania takiego nie stawia, uważając za oczywisty pogląd, że to źle; pisuje się nawet w dramatycznym niekiedy tonie, że jest to dotkliwa porażka nauki, bo przecież powołaniem nauki jest dowodzenie twierdzeń, a tu taka bariera dla dowodzenia!  Najgłośniejszy lament pochodzi z kręgu tych filozofów, których ulubionym słówkiem, streszczającym ich główną tendencję jest „tylko”.  Stamtąd słyszymy takie maksymy, jak  „człowiek to tylko jeden z gatunków zwierzęcych”, „moralność to tylko zbiór uwarunkowanych  historycznie konwencji”, i tak dalej, a wśród nich jest i ta sentencja: „umysł to tylko mózg, a mózg to tylko maszyna Turinga”.

Tylko ta ostatnia maksyma łączy się bezpośrednio z naszym problemem,  inne zaś przytoczyłem po to,  by wskazać na humanistyczny aspekt  sądów z tej kategorii. Wszystkie one dotyczą pytania ,,czym jest człowiek?”, a więc tego, w którym ogniskuje się humanistyka.  Jest  ów humanistyczny aspekt obecny także w zagadnieniu niezupełności arytmetyki,  ściśle powiązanym z ideą uniwersalnej maszyny Turinga.

Związek ten sygnalizuje słowo „formalny”, które w tego rodzaju rozważaniach skrupulatnie trzeba dodawać do słowa „dowód”. Dowód formalny to  taki, którego reguły dotyczą jedynie fizycznej formy wyrażeń, a więc ich kształtu i położenia, a nie ich sensu, intencji, czy wyrażanej w nich intuicji. Zdanie niedowodliwe w sensie argumentacji Gödla to zdanie nie dające się dowieść formalnie. Tylko takich może dotyczyć cały jego wywód, bo tylko takie poddają się kodowaniu numerycznemu. Jak to podkreślał Turing, kodować numerycznie można tylko fizyczne symbole. a więc elementy tworzące sekwencje dyskretne, czyli nieciągłe, nie da się natomiast kodować w ten sposób myśli,  te bowiem się zlewają w nieprzerwany strumień świadomości, gdzie nie da się wydzielać  odrębnych elementów, każdy do oznaczenia osobnym numerem.

Uprzytomnienie  kluczowej różnicy między tym,  co ciągłe i tym, co dyskretne, matematycznie oddanej  w odróżnieniu  liczb rzeczywistych od naturalnych,  stanowi podstawę dla humanistycznej interpretacji Gödlowskiego odkrycia niezupełności arytmetyki. W tych bowiem kategoriach trzeba nam zdefiniować umysł ludzki dla odróżnienia go od maszyny Turinga. Maszyna rozwiązuje problemy tylko drogą procedur dyskretnych, umysł zaś ma do dyspozycji także ciągłe. Operującą nimi władzę umysłu określamy,  wzorem Turinga, mianem intuicji. Wiadomość przeto, iż pewnych  prawd nie da się dowieść formalnie,  a więc procedurą dyskretną,  w sposób maszynowy, kładzie tamę możliwościom maszyny, ale nie potencjałowi ludzkiego umysłu z jego talentem myślenia intuicyjnego.

Wszak  argumentacja Gödla prowadząca do wniosku o niezupełności arytmetyki, uznana przez świat uczonych za bezbłędną i  fundamentalną, nie jest bynajmniej dowodem formalnym. Tym nie mniej bez wahania mówi się w literaturze naukowej o dowodzie twierdzenia Gödla, nie deprecjonując go bynajmniej z powodu charakteru nieformalnego.  To jedno powinno wystarczyć, żeby uciszyć lament  licznych autorów z powodu gödlowskiego odkrycia  jako mającego rzekomo ograniczać aspiracje poznawcze umysłu. Dowiódłszy nieformalnie niemożliwości formalnego dowodu pewnych  prawd rozpoznawanych jako prawdy w sposób nieformalny, Gödel wyniósł umysł ludzki na wyżyny, z których może spoglądać z góry na plemię robotów.

To jest jeden aspekt humanistyczny odkrycia Gödla. Dotyczy on natury ludzkiego umysłu i potencjału właściwej mu intuicji jako przewodniczki rozumowań. Jest jeszcze inny, odnoszący się do rytmu i dynamiki rozwoju cywilizacyjnego. Zważmy, jak wielką w nim rolę odegrały algorytmy.  Pomyślmy,  jaki byłby kształt cywilizacji, gdyby nie wynaleziono pozycyjnej notacji arytmetycznej. A przecież to tylko ona umożliwia dokonywanie niezliczonych i czasem zawrotnie złożonych obliczeń, jakich wymaga nowożytna cywilizacja (notacja rzymska z trudnością, wystarczała na potrzeby cywilizacji antycznej i średniowiecznej,  ale to był limit jej możliwości). A jedna z notacji pozycyjnych, mianowicie binarna,  jest tym,  bez czego nie mogłaby nastać era informatyczna.  Notacja pozycyjna to nic innego jak algorytm zapisywania w sposób automatyczny (bez potrzeby wymyślania wciąż nowych oznaczeń i reguł  zapisu) dowolnie wielkich liczb. Gdyby jakiś wirus odebrał naszym  mózgom zdolność jej rozumienia i posługiwania się nią, cywilizacja wstrzymałaby swój pęd i zaczęła gwałtownie się staczać.

Wszechobecność  i niezbędność algorytmów objawia się dziś na każdym kroku posiadaczom i użytkownikom urządzeń elektronicznych. Za każdym uderzeniem w klawiaturę,  za każdą funkcją pralki, telefonu, bankomatu czy komputera,  kryje się jakiś algorytm.  Ta wszech-skuteczność algorytmów jest tym, co sprawia, ze coraz więcej czasu i energii możemy poświęcać na twórcze myślenie, wiedzione naszą intuicją intelektualną. Gdybym ten esej pisał na mojej  starej poczciwej maszynie marki Remington (rocznik 1930)  zużyłbym niepomiernie więcej czasu oraz znużył m.in. poprawianiem literówek (błędy wymazywało się żyletką). Ileż mniej miałbym  wtedy czasu i siły na potrzebną do tych wywodów pracę.

Szczególnie brzemiennym w konsekwencje rysem cywilizacji jest to, że dwa potężne strumienie twórczej  intuicji są kierowane na wytwarzanie nowych algorytmów. Jest  wytwarzanie bezpośrednie, którym zajmują się programiści,  jest też pośrednie, a zarazem bardziej podstawowe, będące domeną matematyków. Każda nowa teoria w matematyce czy nowe  udowodnione twierdzenie to potencjalne źródło nowych algorytmów, które przyjdą w sukurs wiedzionej intuicją twórczości, ta zaś wyprodukuje następne  algorytmy wzmacniające twórczość, która zaowocuje  kolejnymi algorytmami.

Tak dokonuje się ów proces wnikania w  dynamikę postępu gatunku ludzkiego poprzez refleksję nad twórczą naturą Człowieka – w myśl sentencji Alexandra Pope’a. Któż może lepiej niż humanista proces ten rozumieć i objaśniać go innym? A warunkiem, by się do tego powołania przysposobić  jest zapoznanie się z treścią i przesłankami twierdzenia Gödla. Obecny esej ma być w tej materii zachętą oraz czymś w rodzaju pierwszej pomocy.

Zaszufladkowano do kategorii Światopogląd informatyczny | Dodaj komentarz

Snob czyli ktoś na niby

Snobizm jest zjawiskiem nagminnym  i destrukcyjnym. Snobów się do końca nie pozbędziemy, ale nie dobrze jest ze społeczeństwem, w którym ta populacja jest zbyt liczna. Nie jest dobrze, bo społeczeństwo  to zbiorowość, w której każdy ma odegrania rolę dla wspólnego dobra.  Powinien więc odgrywać  ją kompetentnie i realnie, a nie na niby. Ktoś, kto jest na niby poetą nie przysporzy dobrych wierszy, a gdyby zgodnie ze swymi dyspozycjami był, powiedzmy, ogrodnikiem przysporzyłby owoców czy kwiatów.   Snob dobija się do stanowisk politycznych, do których się nie nadaje,  a więc pełni je źle,  albo mości się  w środowisku akademickim dla prestiżu, choć nauka sama w sobie mało go obchodzi.

Nagminność zjawiska snobizmu w różnych czasach i miejscach sprawiła, że ma ono bogate odzwierciedlenie w literaturze każdego narodu. Anglicy mają  „Targowisko próżności”  (Vanity Fair)  Thackeraya,  Molier zabawia Francuzów komedią „Mieszczanin szlachcicem”, Tomasz Mann spisuje „Wyznania hochsztaplera Feliksa Krulla”,   Norwid gorzko kwituje próżność arystokratycznych salonów, Fredro wyśmiewa postać Papkina, a Tadeusz Dołęga-Mostowicz postać Nikodema Dyzmy.

Naturę snobizmu wyraża metaforycznie wzięte z niemieckiego słowo „hochsztapler”, oznaczające osobnika, który się sadowi na wysokim siodle, nie bacząc na to,  jak słabo jeździ konno,  i z tego siodła zazwyczaj spada.   Dobrze też oddaje naturę rzeczy angielska etymologia: „snob” jest skrótem łacińskiego „sine nobilitate” (bez szlachectwa).  Thackeray  definiuje snoba jako osobę gminnego pochodzenia, która próbuje wbrew realnemu  stanowi rzeczy pokazać się otoczeniu jako ktoś  z wyższego stanu lub lepszego towarzystwa, bogatszy, umiejący nadążać za modą itp. W nieco innym lecz podobnym  znaczeniu, jest to ktoś imitujący zachowania swych zwierzchników. Tak czy inaczej, kluczowe jest tu pojęcie imitacji.

Świat przeżyć i zachowań snobadługo by opisywać. Żeby utrzymać się w konwencji zwięzłego szkicu, skupię się na jednej sprawie: jak snobizm psuje inteligencję cierpiącego na tę przypadłość osobnika.  Pomocne w tym będzie odwołanie się do  popularnych wiadomości na temat psychoanalizy. Wprawdzie nie odnoszę się do tego kierunku z respektem,  ośmiesza go pretendowanie do bycia uniwersalną teorią umysłu,  jak też niestrawna porcja mitomanii (zwłaszcza u Freuda), ale to nie znaczy, że wszystkie poczynione przez jego twórców obserwacje muszą być nietrafne.  Do trafnych należą niektóre spostrzeżenia dotyczące mechanizmu samoogłupiania czyli podkopywania własnej inteligencji. Inne mechanizmy uważa za istotne w tym procesie Zygmunt Freud, inne Alfred Adler, ale nim przejdziemy do adlerowskich, bezpośrednio dotyczących snobizmu, przyda się zwrócenie uwagi na to, co jest im wspólne.

Psychoanaliza ma wkład w opisywanie zmagań emocjonalności z racjonalnością.  U Freuda jest to emocjonalność erotyczna, u Adlera dążenie do mocy (Machtstreben) biorące się z poczucia mniejszej wartości (Minderwertigkeitsgefühl).  Wspólne obu autorom jest ukazywanie,  jak dany typ motywacji emocjonalnej spycha do podświadomości racjonalne argumenty stojące na przeszkodzie czyimś przemożnym  pragnieniom. Psuje więc inteligencję.   Ktoś beznadziejnie zakochany nie daje wiary temu, że obiekt jego westchnień ma jakieś skazy, a ktoś pragnący być najlepszym w jakiejś kategorii, np. Papkin w rycerskiej, łacno uwierzy, iż takim jest, choćby fakty uparcie temu przeczyły.

Adlerowskie dążenie do mocy jest samo w sobie motorem rozwoju, trzeba więc przyjrzeć się temu, w jakich okolicznościach ten czynnik skądinąd pozytywny degeneruje się do jakiejś postaci karierowiczostwa, brutalnego eliminowania konkurentów czy właśnie snobizmu. Snob, w odróżnieniu od brutala,  jest nieprzeciętnie wrażliwy na to,  jak  jest widziany przez innych, a zwłaszcza przez najbliższe otoczenie lub otoczenie, w którym chciałby się on znaleźć; to drugie nie musi mu być znane z bezpośredniego oglądu, może to być kwestia wyobrażeń,  jak sobie ktoś przedstawia życie wyższych sfer.

Jeśli ktoś by zapytał, czy jest to przypadłość uleczalna, można przytoczyć przynajmniej dwie znane z historii wskazówki co do remediów. Jedna odwołuje się do religii, druga do logiki.

Tę pierwszą można określić  jako luterańską,  bo choć jest ona głoszona przez niezliczonych moralistów, Luter ze swą religijną nauką o powołaniu stanowi w tej  mierze typ idealny czyli wzorcowy. Luter, były zakonnik, rozszerzył pojęcie powołania na wszystkich chrześcijan i zalecał, żeby  dążenie do własnej wartości (u Adlera Geltungsstreben) urzeczywistniać przez wierność własnemu powołaniu. To zaś jest określone wolą Bożą, która każdemu przydziela jego miejsce w społeczeństwie. W czasach Lutra było to społeczeństwo stanowe, przykazywał więc, żeby każdy trzymał się własnego stanu, nie pretendując do wyższego. W ramach stanu dokładniejsze określenie własnego powołania dawał odziedziczony zawód;  tę doktrynę dobrze oddaje fakt językowy, że w niemieckim słowo „Beruf” oznacza i zawód i powołanie.

Czy  ta nauka, tak nieznośnie staroświecka i antyhumanistyczna, może mieć dziś jakąś rozsądną wersję?  Owszem,  jeśli metaforą powołania posłużyć się dla określenia indywidualnych dyspozycji,  które próbuje się zdefiniować co do zasięgu i co do granic ich możliwości.  Słowem, chodzi o to, żeby być dobrym w swojej rzeczywiście posiadanej klasie, a nie ubiegać się o jakąś klasę nierealną, co musiałoby się skończyć  snobistycznym udawaniem. Takiego rozpoznawania własnej klasy powinno się uczyć młodzież w fazie dojrzewania, co mogłoby stać się pomocne na całe życie. Może to mieć także interpretację religijną, jeżeli luterańskie zdeterminowanie losu przez przynależność stanową zastąpić  przez szacunek dla własnej indywidualności zlokalizowanej w  jakimś porządku wszechświata (wiara w taki porządek, to jest już jest akt religijny).  Myśl, że jestem jedynym w świecie zdolnym zrobić  dla świata to a to, powinna ukontentować nawet  silne Geltungsstreben. Słowem, chodzi o to,  żeby zastąpić snobizm indywidualizmem.  A że  indywidualizm to trudna rzecz, implikująca pełną odpowiedzialność za siebie, trzeba do tej postawy  wychowywać od młodości.

Co do remedium logicznego,  wypadnie udać się w sferę patologii, bo jej wszak przejawem, choć nie drastycznym i nie klinicznym jest  mentalność snobistyczna.  Snob żyje w świecie urojeń łagodnych,  a nie groźnych urojeń schizofrenika, ale ta różnica stopnia nie przeszkadza, żeby przypadek skrajny wziąć za pouczający model możliwej  terapii.  Takiego modelu dostarcza opowieść sprzed stu lat, lecz wciąż ciesząca się powodzeniem (jeśli sądzić po sprzedaży internetowej). Napisał ją Clifford W. Beers, wielki reformator szpitalnictwa psychiatrycznej, ale z zawodu nie psychiatra a handlowiec, pt.  „Umysł który sam siebie odnalazł” (A Mind that  Found  Itself).  Beers, leczony w szpitalu na schizofrenię żył w świecie urojeń prześladowczych, ale miewał chwile logicznego myślenia i w jednym z takich przebłysków dostrzegł  sprzeczność w swoim obrazie nękających go rzekomo prześladowań.  To był początek ozdrowienia, szczelina logicznej i krytycznej myśli coraz bardziej się rozszerzała, aż doprowadziła do pełnej normalności.  Taki przypadek samouleczenia z ostrej choroby jest zapewne rzadki, może jeden na sto lat, ale można przypuszczać, że im łagodniejszy przypadek, tym większa jest szansa na taki ewenement.  Szczęśliwie, snobizm należy do wiele łagodniejszych, ale  znajduje się on również w świecie urojeń,  powinna więc być pomocną  jakaś terapia analogiczna, posiłkująca się logiką.

Poprzestając na tych sugestiach, powrócę w myśl właściwej obecnemu cyklowi konwencji,  do „caeterum censeo”  — że należy czynić świat bardziej liberalnym. Jak  problem snobizmu ma się do  idei liberalizmu?  Prześwituje ona  w tym, co wyżej powiedziano  o dwóch  remediach, mianowicie w odwołaniu się do indywidualizmu i do logicznego krytycyzmu.  Są to naczelne postulaty liberalizmu.   Po wielokroć dawali im wyraz mistrzowie liberalizmu, a wobec tej wielości trzeba by się ograniczyć do jakiejś miarodajnej reprezentacji. Gdy idzie o indywidualizm, w sensie moralnej autonomii jednostki, piękne na ten temat karty znajdziemy u Immanuela Kanta. A co się tyczy krytycyzmu i jego związku z liberalną filozofią społeczną, mistrzem niezrównanym jest Karl Popper w dziele „Open Society”.

Zaszufladkowano do kategorii Światopogląd liberalny | 3 komentarze

Informatyzm jako wgląd w zagadkę umysłu

Jak to się dzieje,  że ludzka inteligencja  potrafi  rozwiązywać  pewne problemy matematyczne,  których nie może rozwiązać  uniwersalna maszyna Turinga (UMT)? Pytanie to znamionuje sposób myślenia właściwy dla informatyzmu czyli  światopoglądu informatycznego. Kto się znajduje poza jego obrębem, ten pytania takiego nie żywi. Raczej zapyta: a dlaczego inteligencja żywego matematyka nie miałaby być do tego zdolna? Skąd to przekonanie, że nie może być  większa niż inteligencja maszyny? Cóż więc zagadkowego,  jeśli jest większa?

Podejście  cechujące informatyzm  rodzi się  z wielowiekowej tradycji uprawiania matematyki.   Jest ona punktem wyjścia dla takich  myślicieli,  jak Leibniz, a w ubiegłym wieku David Hilbert,  filozofowie nauki z Koła Wiedeńskiego i inni.  Przyjęło się uważać, począwszy od matematyków i filozofów starożytnych, że każdy problem matematyczny da się rozwiązać w sposób  rachunkowy czyli za pomocą odpowiedniego algorytmu.  Z tego względu stawiano matematykę za wzór pozostałym naukom,  oczekując, że i one z czasem dojdą do tego poziomu intersubiektywnej ścisłości (słynny program Leibniza  w haśle Calculemus).  To jednak pojęcie rachowania było tylko intuicyjne,  stanowiąc jakby  uogólnienie kolosalnej liczby przypadków z praktyki matematycznej, ale bez precyzyjnej definicji. Definicję taką dał dopiero Turing (1936)  jako opis UMT.  I wtedy się okazało,  że istnieją obiekty nie spełniające tej definicji,  mianowicie funkcje matematyczne, których wartości nie dadzą się znaleźć rachunkowo. Nazwano je funkcjami nieobliczalnymi, a ich wartości — liczbami nieobliczalnymi.

Skoro rozwiązywanie problemów matematycznych przywykło się utożsamiać z obliczaniem, to naturalne wydawało się  przyjąć, że  problemy nie dające się rozwiązać rachunkowo, za pomocą algorytmów, są nierozwiązywalne także dla ludzkiego umysłu.  Stąd,  ogromnym zaskoczeniem okazało się wykazanie przez Kurta Gödla, że istnieją zagadnienia nierozwiązywalne rachunkowo,  to jest,  nierozwiązywalne  dla UMT czyli  (w dzisiejszej wersji technologicznej)  komputera cyfrowego, ale mające rozwiązanie dające się ściśle dowieść na innej drodze.  Wynik tak  przeczący  dotychczasowym przeświadczeniom musiał  wywołać pytanie:  jak to jest możliwe? Informatyzm pytanie to odziedziczył, jest on bowiem spadkobiercą tego problemu w linii genealogicznej wiodącej od Leibniza do współczesnej logiki.

Na tym tle fakt, że ludzki umysł rozwiązuje  pewne problemy, których nie jest w stanie rozwiązać UMT,  wydaje się istotnie zagadkowy. Ważny krok w jej rozważaniu  uczynił Alan Turing w swej  pracy z roku 1938  („Systemy logiki oparte na liczbach porządkowych”).  Jego doniosłość i konsekwencje ujawniają się w miarę,  jak rozwija się projekt sztucznej inteligencji zmierzający do zmniejszania dystansu między inteligencją naturalną i sztuczną czyli między umysłem i UMT (ewentualnie jakimiś projektami, które są względem UMT alternatywne).  Na etapie badań z roku 1938 Turing  próbuje znaleźć sposób myślenia o tym, co nieobliczalne, czyli nieosiągalne dla UMT.  Zdolność do takiego myślenia przejawia się,  w szczególności, w dostrzeżeniu prawdziwości zdania gödlowskiego.  Nazywa on tę zdolność wyrocznią (oracle), wyjaśniając, że jest to element niemechaniczny,  nie należący do UMT.  Jako wyjaśnienie natury psychologicznej,  jakby przekład idei wyroczni na pojęcia dotyczące umysłu,  pomocne w rozważaniach nad inteligencją, dobrze służy następująca wypowiedź Turinga z tejże pracy (cytowana za polskim przekładem książki Andrew Hodgesa: „Turing”,  wyd.Amber, 1997, s.34).

Rozumowanie matematyczne można uznać w uproszczeniu za połączenie dwóch zdolności, które możemy nazwać intuicją i pomysłowością.  Działanie intuicji polega na wydawaniu spontanicznych sądów, które nie są rezultatem świadomych toków rozumowania. Sądy te są często, ale bynajmniej nie zawsze, słuszne.

W tych zdaniach mamy podpowiedź, w jakich kierunkach rozwijać projekt SI, żeby osiągnąć zamierzone podobieństwo SI do inteligencji naturalnej; trzeba mianowicie, zaszczepić tej sztucznej intuicję oraz inwencję (pomysłowość)

Intuicja prowadząca do  zdania gödlowskiego dotyczy pojęcia dowodu sformalizowanego w logice predykatów. Jesteśmy intuicyjnie przekonani, że dowód taki prowadzi zawsze od zdań prawdziwych do prawdziwych, a więc cokolwiek jest wywiedzione z prawdziwych aksjomatów arytmetyki musi być też prawdą.  Mając tę przesłankę, rozumujemy, jak następuje: zdanie gödlowskie  (tj. stwierdzające własną niedowodliwość w arytmetyce) musi być prawdziwe. Bo gdyby nie, to byłoby dowodliwe z aksjomatów arytmetyki,  zatem prawdziwe.  A skoro z  założenia o  fałszywości wynika jego prawdziwość,  to jest ono prawdziwe.

Inny przykład intuicji zdolnej do rozwiązań nieosiągalnych dla UMT można napotkać w procedurach służących do sprawdzania,  czy interesująca nas formuła jest prawem, czyli tautologią, rachunku predykatów.  Istnieją formuły nie będące tautologiami, dla których owa procedura sprawdzania zapętla się w nieskończoność, ponieważ ich struktura generuje wciąż nowe formuły pochodne wymagające sprawdzenia. Są jednak  formuły, w których procedura się zapętla i generuje wciąż nowe  formuły wymagające sprawdzenia. Umysł ludzki szybko rozpoznaje regularność, według której dokonuje się zapętlanie i nabiera pewności,  że proces ten nigdy się nie skończy, z czego wnioskuje,  że dana formuła nie jest tautologią.  Maszyna natomiast nigdy nie zakończy pracy, będzie wciąż produkować nowe pętle .

* * *

Przejdźmy do drugiej z wymienionych przez Turinga cech umysłu, którym zawdzięcza on swą przewagę nad UMT.  Jest to cecha inwencji. Żeby pozbyć się w tym punkcie rysu zagadkowości,  można skorzystać  z dość dobrze już rozpoznanego mechanizmu ewolucji. Tą droga idzie Paweł Stacewicz (esej 8, odc. 3.1), proponując następujące rozwiązanie.

Postulowana na poziomie sterujących robotami programów wiedzo-twórcza ewolucja ma tę przewagę nad innymi metodami, że wprowadza do sztucznego robociego myślenia elementy inwencji. Dlaczego? Otóż, zgodnie z wyjaśnieniami w punkcie 2.1, opiera się ona na wyborach losowych – przypomnijmy, że w przypadku algorytmów genetycznych to los decyduje o mutacjach, krzyżówkach i przebiegu selekcji. Losowość zaś, a razem z nią nieprzewidywalność pomysłów, rozwiązań i decyzji, są cechami swoistymi ludzkiej inwencji.

Istotnie, pomysły są nieprzewidywalne. Według schematu ewolucyjnego, o selekcji decyduje środowisko: wygrywają osobniki lepiej przystosowane.  Co jest środowiskiem  selekcjonującym pomysły?  Droga do odpowiedzi została przetarta przez Karla Poppera, który był zdecydowanym ewolucjonistą w metodologii nauk. Dla teorii naukowych takim środowiskiem dla  konkurujących teorii są kryteria logiczne – wewnętrzna spójność teorii,  jej przewaga nad innymi teoriami pod względem informatywności,  to znaczy, pod względem  zasięgu  wyjaśniania  i przewidywania faktów oraz przewaga pod względem pomyślnie przebytych  prób obalenia.  W takie środowisko logiczne należałoby wyposażyć robota (prócz losowego generatora pomysłów), żeby dać mu szansę bycia kreatywnym.

Środowisko logiczne jako czynnik selekcyjny losowo generowanych prób rozwiązań jest częścią szerszego środowiska selekcyjnego, które zasługuje na miano aksjologicznego.   Znajduje tu zastosowanie tradycyjna trójca wartości. Środowisko logiczne reprezentuje prawdę, a nie mniej istotne kryteria selekcji pomysłów zawdzięczamy wartościom dobra i piękna. Gdy uczony pracuje nad jakimś problemem, może mu się nasuwać ileś rozwiązań ale nie wszystkie możliwe, bo tych może być niewyobrażalnie wiele. Przychodzi mu do głowy to, co jest wedle niego ważne, istotne, przydatne teoretycznie lub praktycznie, a są to oceny z kategorii dobra.  Wielkie też znaczenie w roli kryteriów selekcji grają u uczonych, zwłaszcza matematyków i fizyków,  wartości estetyczne, z kategorii piękna. Czy do tego, żeby weszły one do wyposażenia robota wystarczy,  że liczba połączeń między elementami kodującymi informację zrównała się z liczbą połączeń w mózgu?  Jeśli miałbym odpowiedzieć na to prywatnie, co wolno mi uczynić w blogu, to powiem, że moim zdaniem nie wystarczy. Publicznie tak odpowiedzieć miałbym prawo dopiero wtedy, gdybym miał na to intersubiektywne argumenty. A ja mam tylko subiektywne, biorące się z moich indywidualnych,  niepowtarzalnych  (jak u każdego  indywiduum) doświadczeń umysłowych; może mógłbym uczynić je intersubiektywnymi w jakimś wywiadzie  rzece, ale nie w paru akapitach. Kto zaś by twierdził przeciwnie  i swoje twierdzenie uważał za intersubiektywne, na nim spoczywa onus probandi czyli ciężar dowodzenia.

A skoro jesteśmy pogodzeni z istnieniem czegoś tak zagadkowego,  jak intuicja, czemu nie uznać za jej dzieło  także kryteriów aksjologicznych, które dostarczają naszym pomysłom selekcyjnego  środowiska ewolucji?  Nawet jeśli  tę kwestię pozostawimy na razie bez odpowiedzi definitywnie twierdzącej, a  przyjmiemy ją tylko w roli hipotezy  roboczej, posuwa ona naprzód debatę nad SI.  Na podstawie tej hipotezy trzeba by wyposażyć roboty w kryteria aksjologiczne, żeby umiały coś zrobić z bogactwem swych  pomysłów (powiedzmy, że generowanych losowo).  Kto by tego dokonał,  uczyniłby wielki krok w kierunku awansowania  robotów na istoty dorównujące bladawcom co do zdolności rozwiązywania problemów.

Zaszufladkowano do kategorii Światopogląd informatyczny | 3 komentarze

Pewnik piąty czyli kwintesencja informatyzmu

Gdyśmy rozpatrzyli cztery pewniki informatyzmu, osobno zajmiemy się piątym, wymagającym dłuższej dyskusji. Użyte w tytule słowo „kwintesencja” wiąże się z liczebnikiem „piąty”. Zbieżność to wprawdzie przypadkowa, ale korzystna dla podkreślenia doniosłości naszego pewnika. Piąty to po łacinie quintus, zaś quinta essentia to piąta substancja — według wierzeń starożytnych najcenniejsza, bo z niej są zbudowane dostojne ciała niebieskie, podczas gdy pospolite ziemskie składają się z czterech zwanych żywiołami (ziemia, woda, ogień, powietrze). Z czasem słowo „kwintesencja”, na prawach przenośni,  zaczęło oznaczać ujęcie jakiejś myśli w sposób szczególnie cenny, to jest, trafiający w istotę rzeczy, w sedno sprawy.

Takie jest też zadanie piątego spośród pewników. Ma on ująć syntetycznie kwintesencję światopoglądu informatycznego . Jest nią wizja procesu, w którym za sprawą informatyki dynamicznie wzrasta zdolność jednostek i społeczności do rozwiązywania coraz  większej liczby coraz  bardziej złożonych problemów.

Jeśli ktoś żywi przekonanie,  że istotnie zachodzi powyższe (wskazane kursywą) zjawisko, znaczy to, że należy do ezoterycznego (jak dotąd) grona posiadaczy światopoglądu informatycznego; pozwólmy sobie nazwać ich w skrócie informatystami (od „informatyzm”).  Spróbujmy ułatwić informatyście ekspresję tego przeświadczenia, czyniąc jego zapis możliwie jak najzwięźlejszym.  Trzeba w tym celu zdać sobie sprawę z czynników sprawczych owego wzrostu zdolności do rozwiązywania problemów. Wylicza je następująca lista.

  1. moc obliczeniowa sprzętu
  2. efektywność algorytmów i programów
  3. moc inferencyjna teorii
  4. inwencja badaczy i konstruktorów

Co znaczy pozycja 1 wie z doświadczenia każdy użytkownik komputera, który co jakiś czas kupuje sprzęt  nowszy,  z szybszym procesorem i pojemniejszą pamięcią. Dzięki takim wydatkom powiększa moc obliczeniową swego sprzętu (i w pewnym sensie własną,  jako posiadacza mocniejszego urządzenia).

Co do 2, trzeba to tak rozumieć, że z dwóch algorytmów efektywniejszy jest ten, który mniej wymaga zasobów,  jak czas, pamięć etc.,  do rozwiązania problemu o tym samym rozmiarze.

Pojęcie 3  jest uogólnieniem pojęcia mocy dedukcyjnej. To drugie odnosi się  tylko do teorii aksjomatycznych, posługujących się w dowodzeniu twierdzeń wyłącznie wnioskowaniem dedukcyjnym.  Mówimy o teorii,  że ma większą moc dedukcyjną niż jakaś inna, gdy jej aksjomaty i reguły pozwalają udowodnić wszystkie twierdzenia dowodliwe w tamtej  innej, a ponadto twierdzenia w tamtej niedowodliwe.  Np.  system arytmetyki z aksjomatem indukcji ma większą moc dedukcyjną niż system bez tego aksjomatu.  Gdy idzie o teorie empiryczne, posługujące się  prócz dedukcji innymi rodzajami wnioskowania,  czyli inferencji, porównujemy je co do mocy eksplanacyjnej  czyli zdolności wyjaśniania oraz co do mocy predyktywnej czyli zdolności przewidywania.  Stąd pojęcie mocy inferencyjnej stanowi sumę czyli alternatywę wyżej wymienionych:  jest to moc dedukcyjna lub moc właściwa teorii empirycznej  (tj. eksplanacyjna lub predyktywna).  Większa moc inferencyjna oznacza większą zdolność  rozwiązywania problemów,  tak w sensie ich złożoności,  jak w sensie wielości ich rodzajów.

Na pozycji 4 mamy czynnik, który jest sprawczy w stosunku do trzech poprzednich. Twórcza inwencja ludzi sprawia, że mamy komputery, algorytmy i programy oraz wiedzę naukową czyli teorie dedukcyjne i empiryczne.  Będąc sprawczym, podlega on zarazem oddziaływaniom ze strony swych wytworów.  Jest  to oddziaływanie wzmacniające, zachodzą tu więc dodatnie sprzężenia zwrotne.  I tak,   Istniejące już teorie umożliwiają twórcze konstruowanie nowych.  Gdyby nie było algorytmów rachowania, nie byłoby odkryć matematycznych,  jako że wymagają one żmudnych obliczeń. Bez komputerów i  programów nie doszłoby  do tych twórczych rozwiązań, którym zawdzięczamy loty kosmiczne,  poznanie ewolucji wszechświata czy rozszyfrowanie ludzkiego genomu.

Jakim wspólnym terminem, odpowiednim na nazwę  piątego pewnika, dałoby się objąć te wszystkie czynniki oraz ich wzajemne oddziaływania?  Przydawką obejmującą trzy pierwsze czynniki jest słowo „obliczeniowa”.  Dwa z nich należą do sfery obliczeń  już ze swej nazwy, a trzecim zaś wiemy, że logiczne operacje wnioskowania są też rodzajem obliczeń. Co do czynnika czwartego, nie wiemy dotąd, czy ma on charakter czysto obliczeniowy. Miałby, jeśliby twórczość była sterowana jakimś neuronowym algorytmem, ale czy tak jest, to jedno z wielkich pytań  informatyzmu. Jest jednak inny jeszcze tytuł do użycia tej przydawki. Skoro trzy rozważane tu produkty ludzkiej twórczości mają charakter obliczeniowy, to twórcza inwencja, która je powołuje do bytu zasługuje na określenie „obliczeniotwórcza” . Można to umownie skrócić do formy „obliczeniowa”, zupełnie tak samo,  jak w terminologii logicznej mówimy „funktor zdaniowy” zamiast „funktor zdaniotwórczy”.

Mając już przymiotnik, pora się zastanowić, co będzie określanym przezeń przymiotem.  Atrakcyjną kandydaturę stanowi termin „moc”, ale że szeroko się przyjęło wiązać go z mocą obliczeniową sprzętu,  kosztem tego rozwiązania byłaby wieloznaczność. Użyjmy zatem synonimu, ani trochę w tym kontekście nie zużytego — słowa „potencja”. Oznacza ono moc, a jednocześnie potencjalność, co harmonizuje z potencjalnością obdarzonego inwencją umysłu: ma on wszak moc powiększania swej mocy, jest więc potencjalnie jeszcze mocniejszy niż aktualnie.

Tę potencję obliczeniową tworzą cztery czynniki cechujące się wielką dynamiką wzrostu, a przy tym pozostające we wzajemnych sprzężeniach zwrotnych, co tę dynamikę  dalece wzmaga. O dwóch spośród nich wiemy,  jaki to jest typ dynamiki, mianowicie wzrost wykładniczy. Gdy idzie o sprzęt komputerowy, mówi o tym słynne prawo Moore’a: że jego moc obliczeniowa podwaja się się co 18-24 miesięcy.  Także wzrost mocy inferencyjnej nauki  można uważać za wykładniczy, choć tu oszacowanie jest tylko pośrednie i bardzo zgrubne. Tym mianowicie, co da się ująć statystycznie,  jest wiązka wskaźników,  mianowicie wzrost liczb: publikacji, tytułów czasopism naukowych,  pracowników nauki, instytucji akademickich etc.  Od  połowy wieku 17-go, co się pokrywa z czasowym początkiem nauki nowożytnej  (Newton, pierwsze akademie nauk etc.) ,  liczby te podwajają się co 7-10 lat.   To jeszcze nie jest wzrost mocy inferencyjnej, bo duża ilość publikacji jest (bądźmy szczerzy) bezwartościowa poznawczo, czyli że dla rozwiązywania realnych problemów wynika z nich niewiele lub nic, a to oznacza brak mocy inferencyjnej. Nie ma jednak powodu, by nie przyjąć, że odsetek publikacji wartościowych, czyli obdarzonych mocą inferencyjną,  jest w ich całej masie,  średnio biorąc, stały; a zatem prawo podwojenia w określonych przedziałach czasu zachowa swą ważność.

I tak dochodzimy do poskładania w całość kilku cząstkowych projektów terminologicznych.  Analizowany wyżej proces zasługuje na nazwę „dynamika wzrostu potencji obliczeniowej”. Można ją uprościć, przyjmując  jako domyślną oczywistość, że nie jest to jakaś dynamika regresu ani też zerowa (czyli stagnacja). Wtedy opuszczamy słowo „wzrostu” i dostajemy zwięzłą nazwę kolejnego pewnika informatyzmu: dynamika potencji obliczeniowej.

Czy nasz pewnik, czyli sąd, że istnieje taka dynamika, nie jest na tyle oczywisty,  że nie warto się trudzić nad jego formułowaniem i tworzeniem dlań nazwy?   Nie wydaje się, by nie było warto. Jeśli zważyć,   jak jest modne, zwłaszcza wśród intelektualistów, czarnowidztwo co do losów cywilizacji,  jak postmodernizm i  multikulturalizm z emfazą odmawiają wartości cywilizacji naukowej,  jak od czasów co najmniej Spenglera (tj. od stu lat) wieści się upadek cywilizacji zachodniej,  to pewnik dynamiki potencji obliczeniowej zaczyna się jawić jako pogląd odosobniony i ekscentryczny. Na szczęście, o jego wartości poznawczej nie decydują sondaże opinii publicznej.

 

Zaszufladkowano do kategorii Światopogląd informatyczny | Jeden komentarz

Cztery pewniki informatyzmu

Światopogląd informatyczny jest to odmiana światopoglądu naukowego, to znaczy powstałego z istotnym udziałem wiedzy naukowej. Odmiana ta cechuje epokę  informatyczną, która posiadła niewyobrażalnie wielkie moce obliczeniowe dzięki komputerom i  Sieci. Mieć tego rodzaju światopogląd  to znaczy rozumieć,  że decydujące dla rozwiązywania wszelkich problemów  jest posiadanie należytej informacji oraz odpowiedniej zdolności do jej przetwarzania, oraz rozumieć, od czego ta zdolność zależy i jak ona się ma do mocy obliczeniowej  komputera.

Na rozumienie sprawy składają się zarówno wiedza, w tym przyjmowane pewniki oraz ich logiczne konsekwencje,  jak też  uświadomiona niewiedza, czy wyrastające z danej wiedzy problemy do rozwiązania.   W obecnym szkicu omawiam  cztery pewniki światopoglądu informatycznego. Piątym, jako szczególnie ważnym, zajmuję się w szkicu następnym.

*  *  *

Światopogląd  informatyczny określam krócej jako informatyzm. Niejeden -izm rodzi się w głowie filozofa i dostaje nazwę od jego imienia (jak platonizm). Inne powstają w wyniku  anonimowych procesów społecznych i dopiero po  jakimś czasie zostają przez kogoś nazwane (jak chrystianizm).  Mamy tu do czynienia raczej z drugiego rodzaju przypadkiem; nazwa wisi niejako w powietrzu, ale potrzebny jest jakiś impuls, żeby weszła w użycie.

Prekursorem, którego światopogląd zasługuje na takie określenie jest Leibniz. Postrzegał  on świat jako wysoce uporządkowaną strukturę złożoną z układów przetwarzających informację, które nazywał divina automata, przetwarzanie zaś informacji utożsamiał z obliczaniem. Zaliczał do tej kategorii wszystkie indywidua (monady), a empirycznym jej istnienia świadectwem były dlań organizmy.  Jest to mocna postać informatyzmu. Czy można go przyjąć w tej postaci?  Nie  wydaje się, żeby  współczesna nauka była gotowa do odpowiedzi. Czy elektrony prące tuż po wielkim wybuchu, za sprawą grawitacji, do łączenia się z protonami w atomy wodoru, czyniły to pod wpływem zaprogramowanego wewnątrz impulsu,  jak to czyni pęd roślinny kierując się ku słońcu?  Tego nie wiemy.  Co do organizmów – zgoda; co do reszty, pozostaje wstrzymać się od sądu.

Informatyzm wychodzi od dwóch pojęć: pomiaru informacji oraz przetwarzania informacji. Skoro informację można mierzyć  i przetwarzać,  podobnie jak materię i energię, to jest ona czymś podobnie realnym, trzecią obok tamtych sferą rzeczywistości.  Co więcej, zachodzą między nimi takie realne relacje, jak ta, że informacja jest konieczna do przetwarzania materii (czego przykładem sterowana automatycznie obrabiarka), jak  i do przetwarzania energii (np. wiedza z termodynamiki jest niezbędna w budowie silników). Z drugiej zaś strony, przetwarzanie  informacji wymaga sprzętu i zasilania, czyli materii i energii. Tak pojęta realność informacji  to pierwszy  pewnik informatyzmu; nie jest on trywialny, skoro nie przez każdego filozofa jest akceptowany (odrzucał  go  zdecydowanie np. Tadeusz Kotarbiński).

Pomiar informacji sięga termodynamiki Ludwiga Boltzmanna (1844-1906),  gdzie informacja jest  pojmowana jako odwrotność stanu nieuporządkowania (entropii), a że porządek jest mniej prawdopodobny od nieporządku, informację traktuje się jako funkcję będącą odwrotnością prawdopodobieństwa, będącego czymś mierzalnym.  Adaptacja tej idei w technologii komunikacji (Claude Shannon) oraz w metodologii i filozofii nauki (Karl Popper) to kolejne etapy badań nad miarą informacji.

Przetwarzanie informacji, choć praktykowane przez żywą przyrodę i umysł ludzki odkąd one istnieją, stało się uświadomioną kategorią pojęciową wraz z pierwszą definicją komputera daną przez Alana Turinga w roku 1936. Ścisłą nauką o przetwarzaniu informacji jest logika od samych jej starożytnych początków, ale jest ona ograniczona do pewnego typu przekształceń, mianowicie takich, w którym prawdziwość jednych zdań udziela się innym na mocy pewnych reguł przetwarzania zdań.

Od  badań Alana Turinga (1936) pojmuje się przetwarzanie informacji  jako proces przekształcania ciągów symboli prowadzący do takiego ciągu, który wyraża rozwiązanie problemu, a dokonuje się pod kierunkiem algorytmu czyli bardzo precyzyjnych (tj. bez luk i bez odwoływania się do intuicji) instrukcji przekształcania symboli. Gdy taki algorytm jest realizowany przez urządzenie fizyczne, nazywa się programem. Że przetwarzanie informacji jest obliczaniem – to drugi pewnik informatyzmu.  Ten też nie jest trywialny.  Większość się pewnie zgodzi, że logiczne przetwarzanie informacji, czyli wnioskowanie,  jest obliczaniem. Ale już takie jej przetwarzanie,  jak przekład tekstu na inny język,  malowanie portretu, poszukiwanie jakichś danych w pamięci etc. raczej nie uchodzą za obliczenia. Dopiero na pewnym poziomie wiedzy informatycznej powstaje tego rodzaju świadomość, a ma ona ważkie konsekwencje praktyczne. Wskazuje bowiem, co czynić,  żeby przetwarzanie informacji móc powierzyć komputerom:  trzeba informację zakodować cyfrowo.

Nim doszło do odkrycia kolejnego pewnika, powszechny był w świecie nauki pogląd, że każdy problem obliczeniowy da się rozwiązać  na gruncie należycie kompletnego systemu arytmetyki, i że takie systemy  istnieją (standardem w tej mierze stała się arytmetyka Peano , tak nazwana od jej twórcy).  Kurt Gödel w 1931 i Alan Turing w 1936, a także inni badacze, wykazali, że  nie ma i być nie może tak kompletnego systemu arytmetyki liczb naturalnych, żeby dał się w nim rozwiązać algorytmicznie każdy bez wyjątku problem obliczeniowy; innymi słowy: w każdym stanie teorii arytmetycznej muszą w niej istnieć problemy nierozwiązywalne rachunkowo czyli za pomocą algorytmu.  Stało się więc rzeczą niewątpliwą istnienie w arytmetyce problemów nierozwiązywalnych algorytmicznie trzeci pewnik informatyzmu.

Kompletowanie w tym szkicu listy pewników informatyzmu  jest z natury rzeczy dość arbitralne. Kieruję się w nim doniosłością praktyczną tez awansowanych do rangi pewników,  takiej bowiem doniosłości oczekuje się od światopoglądu.  Mając pewnik trzeci stwierdzający ograniczoność metody algorytmicznej, a więc  ograniczoność komputerów, byłoby praktycznie mieć jeszcze taki, który wskazywałby drogę przezwyciężania tej ograniczoności, odpowiednio poszerzając zakres zastosowań komputera.  Pouczające są w tym względzie te momenty w historii nauki, gdy istniała już teoria empiryczna w fizyce, a szukano dla niej modelu w postaci  teorii matematycznej umożliwiającej rachunki; z niech powinno wynikać,  jakie dane pomiarowe byłyby dla danej teorii empirycznej testem jej poprawności. Póki takiego teorii nie ma w istniejącym repertuarze  matematyki,  nie da się przeprowadzić tego rodzaju testów.  Okazuje się, że geniusz matematyczny potrafi takie  środki rachunkowe stwarzać nawet na bardzo wygórowane potrzeby, np. mechaniki kwantowej (Heisenberg, Schrödinger).  Z taką praktyką badawczą zgodne są wyniki badań logicznych  Gödla (1931, 1936), których sens oddaje z grubsza pewnik czwarty: sukcesywna uzupełnialność aksjomatów i  metod (algorytmicznych) umożliwiająca rozwiązania nowych problemów. Sukcesywność oznacza, że nie da się raz na zawsze stworzyć systemu dającego środki  rozwiązywania wszelkich problemów, ale można system tak uzupełniać, żeby  każdorazowo mógł podołać pewnej klasie nowych problemów.

Kto zna i rozumie te pewniki oraz docenia ich doniosłość teoretyczną i praktyczną,  ten osiągnął pierwszy stopień wtajemniczenia w światopogląd informatyczny. Jest jeszcze drugi stopień, tym od pierwszego odmienny, że nie pewniki go stanowią, ale pytania i to tak trudne, że nie oczekujemy odpowiedzi w jakiejś przewidywalnej przyszłości. Tym nie mniej, trzeba te pytania dobrze zrozumieć, żeby doświadczyć zagadkowości świata. To doświadczenie jest nieodłączne od światopoglądu mieniącego się rozumnym, a takim mieni się informatyzm.

Na osobne rozważenie zasługuje fenomen dynamicznego wzrostu potencji obliczeniowej o czym traktuje pewnik piąty;  jest  on powiązany treściowo z czwartym (nie pretenduje się tu bowiem  do dedukcyjnej niezależności pewników), ale z racji heurystycznych wart jest potraktowania go osobno.

 

 

Zaszufladkowano do kategorii Światopogląd informatyczny | 11 komentarzy