Co to są „złe praktyki” w dyskursie publicznym?

Serwis „Zmowa Obywatelska” chce wspierać dobre praktyki w dyskursie publicznym. Czy chce ganić złe, to nie jest jasne, bo zdaje się tam być w cenie pogląd, żeby się wypowiadać wyłącznie pozytywnie.  Nie ma co jednak z tym się spierać, bo już sam język czyni takie zamiar, nawet jeśli zacny, niewykonalnym. Nie da się mówić o prawej ręce, ignorując istnienie lewej. Nie da się też orzekać o sądach prawdy bez angażowania się w pojęcie fałszu; bo jeśli jest prawdziwe A, to nie-A musi być fałszywe,  są to więc dwa sposoby powiedzenia tego samego. Jest natomiast nietrywialny i nie błahy ten problem,  jak odróżniać sądy prawdziwe od fałszywych, oraz ten,  jak odróżniać dobre i złe zachowania słowne.

Krąg „Zmowy Obywatelskiej” jest tym,  na który należałoby liczyć w pierwszej kolejności, że będzie dawał w tych sprawach jasne i przekonujące odpowiedzi.  Ogłasza to wszak jako swą „misję”. Może nie śledzę dość uważnie dokonujących się w tym kręgu prac intelektualnych, ale dotąd nie udało mi się takich odpowiedzi wyłowić. Owszem przybywa tekstów, ale są to wciąż parafrazy na ten sam, temat że należy wymieniać się myślami kulturalnie, darząc się wzajemnie szacunkiem.

Wydaje mi się, że w trosce o poziom dyskursu publicznego zgubił się w polu widzenia rys najważniejszy dobrego dyskursu. To mianowicie,  że ma on być krytyczny. Jest to główna myśl w „Open Society” u  Karla Poppera, który stał się po równi klasykiem logiki badań naukowych i klasykiem filozofii politycznej. Widząc źródło sukcesu nauki w intensywnym  ścieraniu się poglądów, podobnej  ścieżki sukcesu oczekiwał od demokracji. Szacunek dla oponenta rodzi się z takiej postawy siłą rzeczy;  jest on  bowiem niezbędnym drugim biegunem do wytwarzania napięć poznawczych,  z których wyłania się prawda.

Zwrócenie uwagi na ów kierunek myślenia popperowski to coś, do czego należałoby usilnie zachęcać obywateli zatroskanych o dyskurs publiczny.  Nie da się też uniknąć Poppera w innym punkcie, bardziej już technicznym.  Żeby oceny prawdziwe odróżnić od fałszywych,   trzeba je uczynić – jak mówi Popper — falsyfikowalnymi  czyli podatnymi na obalenie,  jeśli  na to zasłużą.  Nie są podatne na obalenie wypowiedzi mętne;  gdy nie wiadomo, o co w nich chodzi, to  nie wiemy, czy spełniają one, czy nie, kryteria prawdy. Trzeba więc uchronić przed mętnością oceny zawarte w powiedzeniach  „złe praktyki” czy „dobre praktyki”.

* A *

W tym celu proponuję pewien sposób testowania pod tym kątem ocen publicystów i polityków, którymi opatrują oni wypowiedzi innych publicystów i polityków.  Oto wianek utkany z kilku takich  sądów oceniających inne sądy.

1. „Są to słowa kłamliwe, nieodpowiedzialne […]”.  Tak  ocenia autor  następujące wypowiedzi działacza PIS dotyczące pewnego zabójstwa w Łodzi: „Nie zabijajcie nas. Nie chcemy umierać. Mamy rodziny”. I  jeszcze: „to jest ludobójstwo”.

2.   „To ohydne, ale mieści się w czarnym nurcie tradycji politycznej.”  — o tych samych, co wyżej, wypowiedziach.

3. „Biskupi używają fałszującego rzeczywistość języka.” – o porównaniu przez nich in vitro do eugeniki nazistowskiej.

4.  „Ten zdziwaczały warszawski inteligent nie ma nic wspólnego z życiem mieszkańców mojej wsi.” — o Jarosławie Kaczyńskim i jego wystąpieniach.

5. „Prezes PIS zawsze miał oryginalne pomysły polityczne, ale od katastrofy smoleńskiej zachowuje się wyjątkowo destrukcyjnie.”

6. „Jego współpracownicy nie dystansują się nawet od najbardziej absurdalnych jego słów.”

Trzy pierwsze cytaty pochodzą z artykułu Jacka Żakowskiego „Pokusa złych słów”,  Gazeta Wyborcza 25.X. 2010, a trzy następne z Witolda Gadomskiego „Wyborcy z mojej wsi”, Gazeta Wyborcza 23-24.X.2010.

*  B *

I. Kryterium użyteczności diagnostycznej

Określenia wartościujące mają zwykle w swej treści element opisowy. W nim zawiera się nieraz diagnoza ocenianego negatywnie zjawiska, pomocna w jego zwalczaniu. Im więcej takiego elementu diagnostycznego, tym bardziej jest zasadne wygłaszanie danej oceny w imię pożytku społecznego.

II. Kryterium użyteczności prewencyjnej

W sporze politycznym (istotnym dla demokracji) chodzi nie tylko o przekonanie oponenta lecz także (a może jeszcze bardziej) przekonanie obserwującego spór audytorium, np. telewizyjnego. Ocena dezaprobująca zachowania słowne polityków, może zapobiegać szkodom społecznym. Np. (1) zapobiec uwierzeniu w komunikaty czynione z intencją wprowadzenia kogoś w błąd, albo (2) zapobiec utracie wrażliwości, gdy częstość zachowań negatywnych oswaja z nimi jako czymś „normalnym”. Nie da się uczynić pierwszego bez postawienia zarzutu kłamstwa, ani drugiego bez postawienia zarzutu agresywności.

* C *

Kierując się tymi kryteriami,  dostaniemy następujące kwalifikacje  cytowanych wyżej wypowiedzi.

1. NIE jest złą praktyką nazwanie kłamstwem wypowiedzi jawnie fałszywej, w którą sam jej autor nie może wierzyć, jeśli ma elementarną inteligencję .Jest tu uzasadnione domniemanie intencji wprowadzenia opinii publicznej w błąd w celu zdyskredytowania przeciwnika politycznego, a taka praktyka jest społecznie szkodliwa. Spełniona jest definicja kłamstwa, a więc ta negatywna ocena publicysty ma wartość diagnostyczną co do stanu wiedzy i zamiarów danego polityka.

2. TAK. Silnie piętnujący przymiotnik  „ohydne” ma nikłą wartość informacyjną, a więc i diagnostyczną; przyczynia się zaś do eskalacji agresji, którą tak piętnujące słowo wzbudzi u piętnowanych, co byłoby ze szkodą dla pokoju społecznego.

3. TAK, jest złą praktyką, nie ze złej woli lecz z niewiedzy publicysty. Błędne jest przypisanie biskupom nazistowskiego rozumienia eugeniki. Są oni jej przeciwni nie dlatego, że upatrują w niej nazistowska zbrodniczość, ale że uważają ją za nieuprawnione wtrącanie się człowieka w sprawy Boga.

4. NIE jest to zła praktyka, bo mieści się w ogólnie akceptowanej konwencji satyry na polityków, która nie idzie tu dalej niż np. w szopkach politycznych.

5. NIE mamy tu do czynienia ze złą praktyką, bo te destrukcyjne skutki dadzą się wyliczyć i często są w merytorycznym dyskursie wymieniane; np. podważanie całego dorobku III RP, nie uznawanie wyników demokratycznego wyboru, ośmieszanie Polski wobec zagranicy. Może ktoś nie uważać tych ruchów za destrukcyjne, ale to będzie różnica zdań, a nie brak rzeczowości po stronie krytyka.

6. NIE uznajemy tego za złą praktykę, gdyż termin  „absurd” ma znaczną wartość diagnostyczną, informuje o jawnych sprzecznościach w czyimś myśleniu: sprzecznościach wewnętrznych lub zaprzeczaniu niewątpliwym faktom. Stawiając ten zarzut partnerowi dialogu, dajemy mu możność korekty jego poglądów.

* * *

Podejdźmy  do kwestii złych i dobrych praktyk dyskursu jeszcze od innej strony. Nie my pierwsi łamiemy sobie nad tym głowy.  Różne gremia na szerokim świecie przykładały się do takiego myślenia, warto więc sięgnąć do ich doświadczeń i przemyśleń. Przytaczam w tym celu tekst reguł dla komentatorów zabierających głos w blogach, wypracowany w Anglii w środowisku „Gwardiana”.

Oto tekst wart przemyślenia

Zaszufladkowano do kategorii Bez kategorii | Jeden komentarz

Kilka pytań od „Polemik i Rozmówek”
do do „Zmowy Obywatelskiej”

Jak same nazwy wskazują, będzie to rozmowa dwóch – nazwijmy to – blogów, które z racji pokrewnej tematyki są sobie wzajem bliskie.  Ten mój blog jest z zamierzenia polemiczny, a „Zmowa Obywatelska” stoi na straży polemicznego etosu. Trudno więc o lepszy adres, żeby wymienić poglądy, jak  toczyć polemiki, żeby owemu etosowi sprostać.

Pewnym ułatwieniem w udzieleniu odpowiedzi może być materiał,  który w swoim czasie wytworzyłem, zresztą z inspiracji koleżanek i kolegów ze „Zmowy”, który daję jako osobny artykuł w tej samej co obecny tekst kategorii ,,Dyskurs Publiczny”.  Są tam pytania i propozycje odpowiedzi, ale bardzo cząstkowe, jedynie jako drobny przykład, jak można by się do sprawy zabierać.  Tutaj chciałbym postawić kwestię pełniej, rozpisując ją na serię dopełniających się wzajem pytań szczegółowych.

1.  Czy jest rzeczą naganną oceniać postępowanie, a w tym wypowiadanie się, drugiego człowieka?

Pytam nie z powodu niewiedzy.  Oczywiste, że sam fakt oceny nie jest naganny. Może być nawet chwalebny, jeśli jakoś służy naprawie świata. Naganny może być natomiast sposób oceniania, a jaki to ma być sposób, to sprawa następnych pytań. Obecne pytanie stawiam dlatego, że można się spotkać z poglądem (np. u postmodernistów), że ocenianie jest niedopuszczalnym wywyższaniem się ponad obiekt oceny, jest więc naganne (oczywiście, uznanie czegoś za naganne samo jest oceną ganiącą, a więc trzeba by też uznać je za naganne, i tak dostajemy absurd).  Chciałbym mieć pewność, czy intencje Zmowy są wolne od tego absurdu, który szerzy się dziś w środowiskach  gromadzących się pod sztandarami postmodernizmu i multikulturalizmu.

2.  Czy jest rzeczą naganną wypowiadać oceny negatywne?

Nie przyszłoby mi na myśl to pytanie, bo jest dla mnie oczywista odpowiedź przecząca, gdyby nie to, że w deklaracjach Zmowy jawi się zalecenie, żeby nie zajmować się przypadkami, które ocenia się negatywnie. Bo tak chyba trzeba rozumieć następujące zdanie jednego z uczestników  „Zmowy”:  Unikalibyśmy wprowadzania czarnej księgi złych praktyk polityków, komentatorów, dziennikarzy w życiu publicznym. Szkoda, że jest tu tryb warunkowy, który rozmywa sprawę; gdyby powiedziano „powinniśmy unikać” byłaby jasność, ale domyślam się, że intencją jest dyrektywa o powinności.

Przypuśćmy, że osoby dobrze rozeznane w idei  „Zmowy” uznają,  że wypowiadanie ocen, także negatywnych nie jest samo w sobie naganne. To utorowałoby drogę do dalszych pytań mających się przyczynić do powstania kodeksu dyskursu publicznego – KDP.  Stałoby się m.in. jasne, że nie jest naruszeniem tego kodeksu prowadzenie polemiki, czyli dyskursu biorącego się z niezgody; a nie zgadzam się na to, co oceniam negatywnie – jako fałszywe, szkodliwe etc.

Z tego , że coś jest dozwolone, nie wynika, że jest obowiązujące.  Stąd następne pytanie.

3.  Czy w imię naprawy dyskursu publicznego powinno się  zwracać uwagę na zachowania niewłaściwe i publicznie oceniać je negatywnie, dołączając w razie potrzeby przesłanki takiej oceny w celu przekonania do niej innych?

Jako posiadacz blogu „Polemiki” widzę  rację jego bytu w krytykowaniu tego, co uważam za niewłaściwe, co świadczy, że uznaję taką powinność. Ale może się mylę, a jakiś miarodajny rzecznik „Zmowy” odniesie się do mojego stanowiska polemicznie, przekonując mnie, że w KDP nie ma miejsca na taką normę.

Następne  pytanie dotyczą już nie faktu wygłaszania ocen, ale sposobu ich wygłaszania: jaki być on powinien. Żeby podjąć ten temat, niezbędne są pewne wyjaśnienia wstępne.

Przez dyskurs publiczny rozumiem m.in. ten, który dokonuje się w publikacjach; nie jest to definicja zupełna, bo do takiego dyskursu należą też np. kościelne homilie, ale dla obecnych rozważań wystarczy określenie cząstkowe.  Na tej podstawie trzeba odróżniać dyskurs publiczny naukowy od publicystycznego.  W naukach społecznych powinny występować oceny, podobnie jak w publicystyce, ale inaczej motywowane i formułowane.  Zagadnienia dopuszczalności oraz poznawczej potrzeby posługiwania się ocenami w naukach społecznych jest szeroko debatowane i nie miejsce tu na jego podejmowanie.  Wskażę tylko, że konstrukcja myślowa klasyka nauk społecznych, jakim był Max Weber, wspiera się na paru pojęciach wartościujących, jak „racjonalność”, ,,obliczalność” itp.  (wiem, że Weber jest na wykładach socjologii przedstawiany jako autor dyrektywy zabraniającej wartościowań, ale taka wykładnia świadczy o nader pobieżnej lekturze pism Webera).  W dyskursie naukowym oceny powinny być uzasadniane tak, jak się uzasadnia inne twierdzenia naukowe przez rozumowania wyprowadzające wnioski z podstawowych założeń; nie ma tu miejsca na emocje jako czynnik wpływający na treść twierdzeń lub sposób jej przedstawienia.  To oczywiste.  Nie jest natomiast oczywiste, jak sprawa powinna wyglądać w publicystyce.  Stąd dwa następne pytania.

4.  Czy w publicystyce politycznej, gdy się wygłasza oceny, wolno z nimi łączyć ładunek emocjonalny znajdujący swój wyraz w stylistyce wypowiedzi?

5. Czy w publicystyce politycznej, gdy się wygłasza oceny,  powinno się z nimi łączyć ładunek emocjonalny znajdujący swój wyraz w stylistyce wypowiedzi?

Jeśli na pytanie 5 odpowie się twierdząco, to należy też  dać odpowiedź twierdzącą na 4, ponieważ ta druga wynika logicznie z pierwszej. Moim zdaniem należy na 5 odpowiedzieć twierdząco, ale może się mylę; w każdym razie, chętnie podejmę polemikę z jakimś rzecznikiem Zmowy, który by w jej imieniu reprezentował stanowisko przeciwne.  A dlaczego odpowiadam na 5 twierdząco?  Dlatego, że celem tekstu publicystycznego jest nie tylko opis rzeczywistości, lecz także jej przekształcanie, a chodzi tu o rzeczywistość społeczną kształtowaną przez ludzi. Należy więc w publicystyce nie tylko opisywać świat społeczny, jakim on jest, lecz także wskazywać, jakim być powinien, co czyni się za pomocą ocen, oraz skutecznie motywować odbiorcę tekstu do działania na rzecz tego, jakim być powinien. Skuteczna zaś motywacja musi zawierać silny ładunek emocjonalny.  To gniew na złe rządy determinuje, na kogo zagłosują wyborcy, a czasem wyprowadza ich jako demonstrantów na ulice. To uznanie czy podziw dla przywódcy skłania do poparcia jego programu rządzenia.  Tak więc do kanonu obowiązków publicysty politycznego należy umiejętne kształtowanie emocji społecznych, tak by dobrze służyły krajowej racji stanu.

Takie zdefiniowanie roli publicysty nie znaczy bynajmniej,  że w budzeniu emocji wszystkie chwyty są dozwolone. Stąd zagadnienie następne i ostatnie, które właściwie nie jest pojedynczym pytaniem, lecz całą ich wiązką.

6.  Jaki  repertuar słowny i styl  językowy należy stosować w publicystyce politycznej, żeby należycie ukierunkować i umotywować odbiorców do działań dla dobra państwa?

Na to pytanie nie da się odpowiedzieć jednym lub kilkoma zdaniami. Trzeba tu sporządzić długą listę przykładów negatywnych (te bywają skuteczniejsze) oraz pozytywnych i zdać się na to, że czytelnik zdoła z nich wyabstrahować należyte reguły postępowania, których sformułowanie ogólne nie jest możliwe, mamy tu bowiem zbyt wielką różnorodność, żeby dało się ją ująć w ogólnej formule.  Praca nad sporządzeniem takiej listy to kolosalne zadanie, ale nie wydaje się, by przekraczało ono (jeśli poświęci się na nie dostatecznie wiele czasu) potencjał intelektualny „Zmowy Obywatelskiej” – jaki się wyłania z listy jej sygnatariuszy.

Zaszufladkowano do kategorii Bez kategorii | 3 komentarze

Liberalizm – idea uniwersalna rodem z Europy

„Samuel Huntington głosił bzdury”.  Nie napisałbym tego zdania w artykule  naukowym, bo byłoby ono w takim gatunku pisarskim niestosowne. Starałbym się tę ocenę wyrazić oględniej, w należnej pisarstwu naukowemu stylistyce, ale z przekazaniem tej samej treści.   Blog na takie ekstrawagancje językowe pozwala w imię szczerości i zwięzłości.  Bzdurę Huntingtona demaskują liczne kontrprzykłady, ostatnio zaś pojawił się szczególnie wymowny – rewolucja egipska z placu Tahrir (tzn. Wyzwolenia) roku 2011. Nim skomentuję te najnowsze wydarzenia  – parę słów o tym, jak ma się do nich złowieszcze  proroctwo Huntingtona o nieuchronności starcia się naszej cywilizacji z Islamem.

Huntington miał za mistrza angielskiego filozofa dziejów Arnolda Toynbee’go,  ale słowo „mistrz” powinno być w cudzysłowie, bo finezji intelektualnej  u tego autora ani śladu. Jego główną tezą było to, że każda cywilizacja jest wytworem jednej określonej religii, stąd słynne hasło Huntingtona o  nieuniknionym starciu cywilizacji islamskiej z chrześcijańską. Pomińmy brak wiedzy obu autorów o Islamie choć jest on uderzający; wygląda na to, że nigdy nie słyszeli o arabskim kalifacie średniowiecznej Kordoby, w której  np. poziom tolerancji  światopoglądowej dalece przewyższał ten dopuszczalny w ówczesnym Chrześcijaństwie. Nie słyszeli o „Domu Nauki” w Bagdadzie z jego poziomem projektów badawczych, który  Europa osiągnęła parę wieków później, gdy powstawały w wieku 17 akademie nauk. Byłoby jednak błędem w ten sposób się przeciwstawić panom T. i H., żeby wiązać te chlubne rysy z jakimiś cechami Islamu jako religii, co byłoby ich poglądem na cywilizacyjną rolę religii,  tyle że przekręconym na odwrót. Prawda jest taka, że Arabowie ogarnęli swym podbojami  wielkie ośrodki kultury hellenistycznej na bliskim wschodzie i w północnej Afryce, a za sąsiada mieli potężnego spadkobiercę tejże kultury – cesarstwo bizantyjskie. Wystarczyło, że paru kalifów miało z łaski Allaha tyle rozumu, żeby nie puścić tych ośrodków z dymem, lecz asymilować  ich dorobek, a kalif Bagdadu importował z Bizancjum  najcenniejsze księgi naukowe.

Dziwniejsze jest to,  że autorom  jakby brakowało wiedzy o chrześcijaństwie, którego mienili się  być znawcami.  Jakby nie wiedzieli, że cechy  tzw. cywilizacji zachodniej, z których słusznie byli dumni,  jak kolosalne osiągnięcia nauki, państwo prawa, demokracja, prawa człowieka itd. powstały nie za sprawą chrześcijaństwa.  Powstały raczej wbrew niemu, a w każdym razie wbrew temu odłamowi, który jest reprezentowany przez oficjalny Kościół katolicki.   Pewne idee wolnościowe wykluwały się w protestantyzmie, np. u części szkockich prezbiterian (do których należał Adam Smith), czy niektórych pastorów luterańskich w Niemczech, ale to jeszcze bardziej podważa ów przesąd, że chrześcijaństwo jest jakimś myślowym monolitem, który zrodził jednolitą cywilizację.

Wymienione przykładowo cechy  (podkreślone kolorem) cywilizacji zwanej zachodnią, a genetycznie wywodzącej się z Europy, dadzą się ująć w jednym pojęciu: LIBERALIZM.  Wprawdzie etymologia wskazuje tylko na jeden  jego aspekt – ideę wolności, ale pewna doza wiedzy historycznej podpowie jego drugi rys istotny – efektywność w rozwiązywaniu  problemów gospodarczych i politycznych.  Praojciec liberalizmu Adam Smith zalecał wolność handlu nie tylko w imię prawa człowieka do wolności, lecz także w imię efektywności wolnego rynku. Te dwa filary liberalizmu są złączone jakby spajającymi je silnie łukami: efektywność nauki wymaga wolności badań, efektywność państwa prawa stoi na straży wolności jednostki,  życie publiczne w demokracji z jej formalnymi procedurami jest (mimo wszystko) bardziej obliczalne, a więc bardziej efektywne,  niż pod nieobliczalną władzą dyktatora. Itd.

Nawet tak pobieżna charakterystyka liberalizmu wskazuje na jego rys uniwersalny. Pod każdym niebem ludzie wolą wolność od niewoli i  efektywność od indolencji. Ale jeśli tak, to czemu są wcielane w życie tylko pod niebem Europy?  Odpowiedź jest złożona, a w krótkim tekście pozostaje ująć rzecz hasłowo. Będą to hasła z dwóch  odległych od siebie kategorii, filozoficznej i geograficznej,  mianowicie:  Prawa Ewolucji oraz Morze Śródziemne.

Prawa ewolucji mówią, że o tempie ewolucji i jej owocach decydują cechy środowiska oraz przypadek (np. mutacje).  Im liczniejsza populacja, tym większa w niej ilość przypadków tak korzystnych, jak i niekorzystnych, ale że środowisko faworyzuje te korzystne (lepiej służące przetrwaniu i reprodukcji), stają się one dominujące. Liczne i ogromnie różnorodne populacje wokół  Morza Śródziemnego dawały wielką statystyczną szansę na wysiew geniuszów, a hojność przyrody oraz gęstość kontaktów (dzięki znakomitym warunkom żeglugi) przyczyniały się do rozwoju gospodarki,  który jest dla cywilizacji jak żyzna gleba. Nie dało się uprawiać handlu na tak wielką skalę bez powstania pisma, metod rachunkowych i pieniądza, co też się stało za sprawą kupców nad kupcami,  jakimi byli Fenicjanie. Wraz z tym powstały solidne podwaliny cywilizacji. Kwitła ona na południu Europy i na przeciwległych brzegach  morskich przez pond dwa tysiąclecia, aż odkrycia geograficzne od czasu Kolumba odmieniły kierunki ekspansji gospodarczej, zaczęła się bardziej liczyć północ Europy z jej dojściem do Atlantyku. Zaś reformacja protestancka silnie się przyczyniła do wzrostu piśmienności; każdy wierny miał przecież obowiązek osobistego czytania Biblii, a jeśli ktoś umiał czytać Biblię to i każdą inną książkę.  Wraz z wynalazkiem druku, który się zbiegł w czasie, stworzyło  to taką koniunkturę  dla edukacji i uczoności,  jakiej ludzkość wcześniej nigdy nie zaznała. Z wielu powodów stać się to mogło tylko w Europie.

Tylko tutaj sumowały się i wzajem się pobudzały takie czynniki, jak gęstość zaludnienia,  niewielki rozmiar kontynentu  i stąd gęstość kontaktów politycznych, handlowych i naukowych,  spławne drogi wodne, żeglowne  drogi morskie od północy, zachodu i południa, ferment intelektualny w sporach religijnych i sporach religii z nauką (fenomen nie znany poza Chrześcijaństwem),  ścieranie się potężnych sił politycznych — władzy cesarzy i królów, władzy religijnej i mocy  mieszczaństwa (będącej pochodną pochodną  kwitnącego handlu i rzemiosł) — co owocowało  bezcenną cywilizacyjnie sztuką negocjacji,  oraz inne nie mniej doniosłe czynniki, których samo wyliczenie zajęłoby dobre parę stron druku. Długo trzeba by też wyjaśniać, w jaki sposób te i inne procesy  wpłynęły na obecną jakość cywilizacyjną Europy, której zazdroszczą miliardy ludzi w innych obszarach świata.

Pominąwszy z konieczności te arcyciekawe kwestie, zmierzam do morału, który powiąże owe fakty historyczne z fenomenem obecnej rewolucji w Egipcie. Rzecz w tym, że Egipcjanie walczą o te wartości, w których przoduje Europa nie dlatego,  żeby chcieli stać się imitacją Europejczyków, ale dlatego, że pojęli ich zasięg uniwersalny. Oto wypowiedź jednego z uczestników zdarzeń w Kairze (relacja Tomasza Bieleckiego, „Egipt, który nadchodzi”, GW 12-13 lutego 2011).

Młody kairski socjolog Mustafa Zeiton, który od tygodnia koczuje w centrum placu przekonuje, że rewolucja egipska to zryw w imię „uniwersalnych haseł” czyli walki o wolne wybory, o niezależne media, o miejsca pracy, o walkę z korupcją władzy oraz bezkarnością policji, o lepsze życie dla rzesz egipskich biedaków. Na Tahrirze nie sposób usłyszeć innych – religijnych czy ideologicznych – haseł.

Jest to więc pragnienie wolności i efektywności, czyli liberalizmu.

Ewolucja społeczna to nie tylko gra przypadku, który raz sprawia to raz tamto,  raz w tym, raz w innym miejscu. W ostatecznym rachunku zmierza ona zawsze  w pewnym logicznym kierunku.  Wyznacza go nieprzeparte dążenie ludzi, by  żyło się im lepiej,  uniwersalną ludzka zdolność uczenia się na błędach i stopniowa kumulacja osiągnięć ustrojowych, naukowych i  gospodarczych, których ogromnie wiele trzeba mieć za sobą, by wreszcie osiągnąć ten  poziom wolności, efektywności i dobrobytu, jakim cieszy się Europa i jej rozgałęzienia cywilizacyjne.

Stąd fundamentalnej ważności wniosek: każda ludzka zbiorowość napędzana parciem do lepszego bytu  ma szanse dojść kiedyś do tych wartości uniwersalnych, o których marzą ludzie na kairskim placu. Czas, jaki to musi zająć zależy od  właściwości środowiska i od koincydencji historycznych. Okazały się one szczególnie korzystne dla Europy i dlatego ona pierwsza znalazła się na mecie dążeń i wartości uniwersalnych.  Procesy historycznej ewolucji o tyle są łaskawsze od reguł sportu,  że z wygranej jednego zawodnika mogą korzystać inni, przejmując jego doświadczenia i osiągnięcia. Ten rodzaj pierwszeństwa, który stał się przywilejem Europy nie ma nic wspólnego z uwarunkowaniem genetycznym czy cechami rasy, jest to kwestia mniej lub bardziej pomyślnych konfiguracji geograficznych i historycznych.

Nie jest więc więc tak, że istnieje specyficzna cywilizacja europejska czy zachodnia, do której byłyby dysponowane wyłącznie społeczności z tego kręgu.  Istnieje natomiast cywilizacja uniwersalna wywodząca swój ród z Europy. To Europa jak soczewka najpierw skupiła w sobie  kolosalny dorobek ludów środziemnomorskich, a następnie  jak tygiel  przetworzyła go na wartości uniwersalne, do których inne ludy są  dopiero w drodze.

Ale skoro można uczyć się od innych i wzajemnie dzielić się dorobkiem, szczególnie w dobie globalizacji, to zdrowy rozum każe czerpać z tego, czego inni dorobili się wcześniej. Tak niegdyś zachód Europy czerpał obficie z dziedzictwa śródziemnomorskiej  starożytności, przejmował osiągnięcia Hindusów, Chińczyków i Arabów. Polska przejmowała to z Zachodu i dzieliła się potem z Litwą. Tak sztafeta cywilizacji coraz bardziej przybliżała nasz gatunek do tych uniwersalnych wartości liberalnych,  które jak z niezawodnych aksjomatów wynikają z  zasad ludzkiej rozumności.

Miejmy nadzieję, że taka mądra dedukcja — wbrew przepowiedniom Huntingtona — okaże się być owocem egipskiej rewolucji A.D. 2011.

Zaszufladkowano do kategorii Światopogląd liberalny | Jeden komentarz

Wolność słowa i jej koszty

Minęły te czasy, kiedy istniała reżimowa cenzura tak rozrośnięta,  jak wielogłowa hydra, bo nie tylko Urząd Kontroli Prasy, ale i kontrola prawomyślności w obrębie redakcji i wydawnictw,  do tego czujność instancji partyjnych w kontrolowaniu wypowiedzi towarzyszy, a nawet nie-towarzyszy, i jeszcze inne zmyślne regulacje, o których długo by mówić, a dla najmniej uległych – wyrok sądowy za podważanie ustroju. Za tym systemem zasieków mogli sobie bytować bezpiecznie wyznawcy jedynie słusznej idei i aktualna władza polityczna.

Nic z tego dzisiaj w naszej III RP nie pozostało, co  jest wielkim sukcesem, by tak rzec, wolnego ducha, ale duch musi pogodzić się z kosztami tak cennej  wolności. Bo co jest cenne musi kosztować.

Koszt szczególnie przykry, wręcz przygnębiający, to zalew w mediach, a zwłaszcza w Internecie, mowy plugawej. Nie lubię słów drastycznych, ale jeśli mamy określić rzecz bez zaciemnień, to nie unikniemy porównań do plucia czy wylewania pomyj.  Co można na to poradzić? Właściwie nic. Jeśli coś z takich tekstów podpada pod kodeks karny, to sprawa dla prokuratora lub dla pozwów cywilnych.  Zabiegi perswazyjne czy pedagogiczne mają tu skuteczność zerową,  bo  za tą mową bełkotliwą i znerwicowaną kryje się tępota nieprzenikliwa na rzeczowe argumenty oraz chora emocjonalność, której nic tak nie rozdrażnia jak rzeczowość.

Trzeba mieć na uwadze tę pospolitą prawdę, że w każdej populacji istnieje pewien margines patologii, a problem jest dopiero wtedy, gdy nie jest to margines lecz jakaś statystyczna większość.  Tak czy inaczej, margines ten powinien się kurczyć z biegiem czasu i nasza to rzecz o to się starać. Ale nie drogą wezwań i apeli, lecz pracując od podstaw nad zrębami cywilizacji. Im wyższa cywilizacja, tym jej język inteligentniejszy i tym bardziej  liczący się z drugim człowiekiem. Warto pamiętać, że lżenie przeciwników, dziś naganne, było w czasach homeryckich i długo potem obowiązującym wojowników rytuałem (jak to jest dziś w kręgach uliczników). Coś się jednak z biegiem czasu zmienia.

Tym optymistycznym akcentem zamykam część ogólną i przechodzę do szczegółowej. To znaczy do tego, co sam – jako posiadacz i administrator blogu – mam zamiar czynić wobec inwazji chorej mowy.  Wprawdzie mój blog Polemiki i Rozmówki jest na to stosunkowo mało narażony, ale wszystko może się zdarzyć. Jest mniej narażony dlatego, że raczej nie zapuszcza się w trudny gąszcz  problematyki moralnej, która jest drażliwa z racji wielkiej różnorodności zwalczających się poglądów, do których są ludzie bardzo przywiązani emocjonalnie,  i dla których  trudno o kryteria rozstrzygania i uzgadniania.

Przypuśćmy jednak, że kogoś mocno coś zdenerwuje w treści lub stylu kategorii caeterum censeo. I wyrzuci z siebie jakiś stek epitetów pod adresem autora. Co bym wtedy zrobił? Różne mechanizmy WordPress umożliwiają blokowanie niepożądanych wpisów.  Trzeba z tego po prostu korzystać. A już z pewnością na bzdury nie odpowiadać,  jako to szczerze zapowiada w swoim blogu Adam Michnik.

To powiedziawszy, liczę się z tym, że taka postawa może budzić obiekcje. Jedna taka, że byłaby to praktyka cenzurowania, co do której wszyscy się zgadzamy, że  jest  niechlubna. Na to odpowiem, że trzeba odróżnić różne sfery wolności. Każdemu wolno zaśmiecać własny dom i nikomu nic do tego. Jeśli zaśmieca ulicę, obszar publiczny, to powinna się nim zająć straż miejska. A jeśli się wciska do mojego domu, chcąc tam rozsiewać brudy, to moje prawo powiedzieć „wypraszam”. A mój blog to mój dom.

Drugie zastrzeżenie byłoby takie, że odmowa wstępu nie zapobiegnie przypuszczeniu agresji słownej z innego terenu. Napastnik, dotknięty do żywego odmową wstępu może zyskać wstęp do jakiejś innej witryny i wtedy, niejako z okna sąsiada, wykrzyczeć, co o mnie myśli. Nawet jeśli to będzie jakieś lżenie mocno dotkliwe, nic na to nie poradzę. Ale nie ma co dramatyzować. Każdy, kto się decyduje upubliczniać swoje poglądy czy preferencje, powinien liczyć się z tym, że może wypuścić dżina z butelki. Na takiego demona trzeba być po prostu odpornym. Jest to rodzaj waleczności, bez której nie ma co stawać w szranki działań publicznych. Ale nie musi być ona jakoś niezwykle trudna. Być atakowanym przez frustratów o inteligencji poniżej normy to przecież rodzaj komplementu.

Zaszufladkowano do kategorii Bez kategorii | Dodaj komentarz

Dynamika umysłu w perspektywie gödlowskiej

Wprowadzenie. Pojawiała się nieraz w dziejach myśl, że dla każdego  dobrze postawionego problemu da się znaleźć wiodący do  jego rozwiązania algorytm.  Znajdujemy ją u Leibniza, Hilberta, neopozytywistów, a w wydaniu najnowszym – u entuzjastów tzw. silnej teorii sztucznej inteligencji. Algorytm (przypomnijmy po raz któryś) jest to taka metoda rozwiązywania określonego rodzaju problemów, która prowadzi do wyniku w sposób niezawodny, odwołując się jedynie do cech obserwowalnych zmysłowo i kierując się regułami, które określają postępowanie jako serię oddzielnych kroków  z dokładnością do kroków możliwie najmniejszych. W takim postępowaniu nie ma miejsca na wnikanie w sens problemu, na intuicję czy pomysłowość ; toteż  np. Leibniz wierzył (przynajmniej w chwilach  reformatorskiego zapału), że  gdy już się zalgorytmizuje całą wiedzę, to nawet najgłupsi będą sobie radzić z najtrudniejszymi kwestiami.

Czy przyjąć to stanowisko? Jest to pytanie żywotne dla humanistów, bo  jeśliby odpowiedzieć na nie w sposób twierdzący, to humanistyka znikłaby  z mapy naszej wiedzy, a zastąpiłaby ją  robotyka.  A że do humanistów  przede wszystkim adresowany jest obecny esej,  to nim dojdziemy do ujęcia umysłu w perspektywie gödlowskiej, co stanowi współczesną ofertę dla humanistyki, pomocne będzie pewne wspomnienie ze złotego wieku humanistów,  jakim był okres Oświecenia.

Istotę humanistyki ujął  luminarz  tamtej epoki Alexander Pope w powiedzeniu The proper study of mankind is Man (poemat filozoficzny „On the Nature and State of Man”, list II, odc. 1).  Ludzkość jako podmiot cywilizacji i Człowiek jako  podmiot rozumności –  oto tematy  badań humanistycznych.  Wszechstronnym do tej myśli komentarzem  są dociekania nad całokształtem dziejów ludzkości, czyli nad postępem cywilizacji, które zawdzięczamy myślicielom Oświecenia szkockiego, jak Francis Hutcheson, Lord Kames, David Hume, Adam Smith.  Ich kluczem do scenariusza dziejów jest  wgląd w rozumność Człowieka  jako stwórcy cywilizacji:  jest to próba zrozumienia dzieła poprzez poznanie natury twórcy. Ów projekt badawczy sprzed trzech prawie wieków zasługuje na kontynuację w naszych czasach. Jego ciąg dalszy dokonuje się na gruncie tej wiedzy o ludzkim umyśle, która dziś owocuje światopoglądem informatycznym. Wtedy w nowym świetle  jawi się  ludzkość i człowiek jako obiekt dociekań humanistycznych.

§1. Humanistyka a robotyka

Od czasów Arystotelesa  kursuje kilka definicji człowieka, które mają w  swej treści jeden element wspólny: wszystkie zaczynają się od słowa ,,zwierzę”. Mamy więc zwierzę rozumne, społeczne, zdolne do śmiechu (była i taka definicja u scholastyków – animal risibile). Nic dziwnego, że świat zwierząt był  w refleksji nad człowiekiem jedynym porównawczym punktem odniesienia,  skoro innego punktu nie było. Dziś mamy  inny, głębiej wnikający w istotę rzeczy.  Żeby go  uchwycić, skupmy się na drugim członie klasycznej definicji człowieka, na rozumności. Czym ona jest?

Jeśli powiemy, że jest to w gruncie rzeczy to samo, co inteligencja, czyli zdolność do rozwiązywania problemów, będzie to krok w dobrym kierunku, ale  nie można na nim poprzestać,  byłaby to bowiem definicja zbyt szeroka. Rozwiązywanie problemów  jest  właściwe całemu światu organicznemu, a na pewno  królestwu zwierząt;  już bakterie mają swoje problemy i nieźle sobie z nimi radzą (przechytrzając np. ludzi w unieszkodliwianiu antybiotyków).

Ludzie mają możność rozwiązywania problemów na co najmniej dwa sposoby,  jeden podzielany z resztą zwierząt, a drugi  – przy pomocy języka. W tym drugim udział języka jest stopniowalny, a gdy występuje w stopniu maksymalnym,  mamy do czynienia z postępowaniem algorytmicznym.  Polega ono na tym, że aby rozwiązać problem,  nie trzeba mieć ani jakiejś wiedzy instynktownej, ani wiedzy dyskursywnej o prawach rządzących daną dziedziną rzeczywistości; wystarczy mechanicznie   wykonywać słowne instrukcje, których sekwencja stanowi algorytm.  Weźmy najprostszy przykład – instrukcję słodzenia herbaty wykonywaną przez dziecko pouczone przez dorosłych.  Dorosły wie, że cukier jest potrzebny organizmowi i poprawia smak i że wystarczy w tym celu jedna lub dwie łyżeczki do szklanki; dzięki tej wiedzy on rozwiązuje problem ,,czy słodzić  i jak”. Na tej podstawie formułuje słowny przepis, który przekazuje dziecku,  a wtedy problem ,,czy i jak” rozwiązuje ono skutecznie bez posiadania owej wiedzy, a jedynie przez  dokładne wykonanie instrukcji. W takim postępowaniu algorytmicznym dziecko wykazuje podobieństwo nie z jakimkolwiek zwierzęciem (instrukcji słodzenia nie zrozumie bakteria, ani nawet szympans), lecz z odpowiednio zaprogramowanym robotem.

Odkrywamy więc nową możliwość zdefiniowania człowieka, o której nie śniło się starożytnym ani ich następcom, aż po wiek XX.  Klasyczna metoda definiowania polegała na przyjęciu zbioru zwierząt za rodzaj nadrzędny, w którym wyróżnia się gatunek ludzki jako podzbiór, za różnicę gatunkową biorąc cechę rozumności. Teraz bierzemy jako rodzaj nadrzędny klasę układów zdolnych do rozwiązywania problemów, której podzbiorami są:  (A) zwierzęta nie będące ludźmi, (B) roboty, (C) ludzie.  Klasa C podziela z klasą A umiejętność rozwiązywania problemów w sposób instynktowny, a z klasą B – w sposób algorytmiczny.

Rozważmy sumę  klas B+C. Co w tym zbiorze  zsumowanym odróżnia ludzi od pozostałych jego elementów? To samo, co odróżnia dorosłego od dziecka z powyższego przykładu; albo początkującego kuchcika od wytrawnego kucharza, który sam tworzy receptury potraw i przekazuje kuchcikowi do wiernego wykonania według instrukcji. Jest to zdolność tworzenia  algorytmów na podstawie  posiadanej wiedzy.  Towarzyszy jej właściwość nie mniej dla twórczego myślenia istotna – specyficznie ludzka zdolność do stawiania pytań i doświadczania wątpliwości,  ale w obecnym  punkcie rozważań poprzestaniemy na pierwszej.

Zdolność do konstruowania algorytmów wymaga dwóch dyspozycji,  które Alan Turing (1938) uważał za niezbędne w rozumowaniu matematycznym człowieka. Są nimi intuicja oraz pomysłowość czyli inwencja.  Tę obserwację Turinga możemy bez zastrzeżeń uogólnić na wszelkie rozumowania,  mając na uwadze tworzenie algorytmów  jako jedną z odmian w zbiorze rozumowań. Tak dochodzimy do nowoczesnej definicji człowieka,  właściwej epoce informatycznej. Człowiek jest to istota zdolna do rozwiązywania  (A) jednych problemów na drodze instynktownej, (B) innych na drodze  algorytmicznej , (C) jeszcze innych na drodze rozumowań wymagających intuicji i pomysłowości, m.in. rozumowań, których produktami są algorytmy.

Intuicja jest ważnym źródłem wiedzy dla tworzenia algorytmów. Np.  intuicja nieskończonego zbioru liczb naturalnych, z zerem i relacją następnika, stanowi tę porcję wiedzy o świecie liczb,  dzięki której jakiś pomysłowy Hindus w głębokim średniowieczu  stworzył algorytm pozycyjnego zapisu dowolnej liczby naturalnej. Nazwiska tego geniusza nie znamy, wiemy natomiast, że notację tę dopracował  i upowszechnił  uczony arabski Al-Chwarizmi, którego przekręcone przez łacinników imię dało początek słowu ,,algorytm”.

W  powyższym określeniu nie występuje słowo ,,zwierzę”, obecne od tysiącleci w filozoficznej definicji człowieka, mamy więc w tym jakby świtanie nowej humanistyki. W tym świetle, do istoty człowieka nie należy to, żeby miał wątrobę i trzustkę. Wprawdzie w obecnym stanie rzeczy bez tych i innych narządów nie działałby mózg Al-Chwarizmiego ani żadnego innego człowieka, ale jeśli przyroda lub ludzka technika wytworzy kiedyś istotę bez takich atrybutów cielesności, lecz mającą dar intuicji i pomysłowości,  a więc zdolną również do pytań i wątpliwości, bez wahania jej przyznamy atrybut człowieczeństwa.  Natomiast miano robotów zachowamy dla urządzeń zdolnych rozwiązywać problemy tylko dzięki algorytmom. Mogą to być algorytmy gotowe, od początku wbudowane przez programistę, a mogą być takie które sprawiają, że układ jest  zdolny uczyć się  (w wyniku interakcji z otoczeniem) rozwiązywania problemów, ale tak czy inaczej nie są one ekwiwalentem intuicji i pomysłowości. Gdyby jednak ten drugi proces doprowadził jakimś sposobem do wykształcenia się  jednej i drugiej w  jestestwach nie organicznych,  to nie odmówimy im awansu z klasy robotów do klasy istot rozumnych.

§2. Dynamika dodatnich sprzężeń zwrotnych między umysłem i językiem

2.1. Algorytmy jako instrukcje rozwiązywania problemów powstają dzięki ludzkiej  intuicji i pomysłowości. Z drugiej strony, te cnoty umysłu nie wydawałyby owoców, gdyby nie miały do dyspozycji algorytmów jako swych niezastąpionych narzędzi. Niezliczone problemy leżałyby odłogiem nie rozwiązane, inne nie zostałyby w ogóle zauważone, gdyby nie to całe instrumentarium rachowania oparte na algorytmie pozycyjnego zapisu liczb i algorytmach podstawowych działań arytmetycznych.  Droga od intuicji do ugruntowanego twierdzenia prowadzi przez obliczenia sterowane algorytmami. Mógł Pierre Fermat mieć silną intuicją prawdziwości swego twierdzenia i pomysł dowodu, ale dopóki Andrew Wiles w roku 1995 (po trzystu przeszło latach po Fermacie) nie opublikował  swych  składających się na dowód 130 stron obliczeń,  nie mogliśmy na tym twierdzeniu polegać jako na wiarogodnym wglądzie w świat liczb.

Liczba 130 stron to wskaźnik niezwykłej długości dowodu, a ta z kolei jest miarą stopnia złożoności, a więc i stopnia trudności, tego problemu, na który konkluzja dowodu jest odpowiedzią.  Kwestia złożoności dowodu matematycznego, podobnie jak kwestia złożoności oprogramowania dla komputera, dostarcza nam niejako laboratorium do badania stosunku między intuicją i algorytmem. Wiedząc  o zmaganiach Andrew Wilesa z tą gigantyczną trudnością (dziesięć lat wyłącznie temu poświęconych), której przez 300 lat nie zdołali pokonać atakujący ten problem wybitni matematycy, możemy sobie przedstawić,  jak wielkiej wymagało to intuicji i pomysłowości. Wiemy też,  jak trudne było dla recenzentów sprawdzenie poprawności dowodu, a gdy po paru miesiącach od ogłoszenia (1993) pierwszej wersji wykryli  oni błąd, kolejne miesiące zajęła autorowi praca nad jego poprawieniem. O czym to świadczy? O tym, że intuicja nawet znakomitych umysłów bywa zawodna, dobrze by więc było, żeby przyszła jej z pomocą jakaś procedura algorytmiczna. Z tego jednak, co wiemy o komputerowym sprawdzaniu poprawności dowodów,  to tekst dowodu tak opracowany, żeby mógł go interpretować program testujący, bywa dziesiątki razy dłuższy (mierząc liczbą wierszy) niż tekst dowodu intuicyjnego, co w przypadku wywodów Wilesa oznaczałoby tysiące stron do prześledzenia.  A to musiałoby stanowić nieprzekraczalną barierę dla ludzkiej pamięci (typu pamięci operacyjnej,  jeśli użyć porównania do komputera).  Nie ma więc w badaniach naukowych odwrotu od posługiwania się intuicją, i nie stanie się tak,  jak eksperymentował myślowo Leibniz, że dla każdego problemu znajdzie się kiedyś algorytm, który pozwoli nawet umysłom tępym znaleźć nań odpowiedź w sposób mechaniczny, bez myślowego wysiłku.  Z drugiej strony, nawet gdy nic nie wiemy o treści dowodu Wilesa, możemy być pewni, że do zapisu liczb posługiwał się on algorytmem zapisu pozycyjnego, a do obliczania potęg (których dotyczy twierdzenie Fermata) stosował algorytm potęgowania, nie usiłując przedstawiać sobie w myśli, ile to będzie gdy jakieś x pomnożyć przez siebie n razy.  Gdyby z takich środków algorytmicznych nie korzystał,  rozbiłby się o barierę praktycznej niewykonalności. Tak więc, znajdujemy w tej historii wymowny przykład współdziałania między intuicją i pomysłowością z jednej strony oraz algorytmem  z drugiej, a więc interakcji przynoszącej wzmocnienie po obu stronach.

Na potrzeby dalszych rozważań uogólnijmy ten przypadek na dwa sposoby. Zachodząca w nim interakcja algorytmu z intuicją i pomysłowością to szczególny przypadek sprzężenia zwrotnego między umysłem (intuicja i pomysłowość) z tekstem językowym,  jakim jest algorytm, czyli (ogólniej) z językiem. Sprzężenie zwrotne jest to wzajemne oddziaływanie między dwoma czynnikami cechujące się takim rytmem, że jeśli czynnik X wywoła pewną zmianę w czynniku Y,  to wtedy Y wpływa analogicznie na X, potem znów X na Y itd.  Zmiana polega na wzmocnieniu lub na osłabieniu intensywności procesu. Osłabianie zachodzi  m.in. w zjawiskach regulacji, gdy wbudowany w tym celu mechanizm zapobiega przekroczeniu jakiegoś niebezpiecznego progu intensywności, np. ciśnienia w maszynie parowej  (taką kontrolę sprawuje regulator Watta).  Zjawisko to określamy jako sprzężenie zwrotne ujemne.  Natomiast sprzężenie zwrotne dodatnie zachodzi  wtedy, gdy każdy z dwóch procesów oddziałuje na drugi wzmacniająco. Może to być np. zwarcie między mikrofonem i źródłem dźwięku czy eskalacja ostrości sporu, w miarę, jak każda ze stron po retorsjach drugiej czuje się coraz bardziej poszkodowana. Prócz takich sytuacji, raczej negatywnych, istnieją w życiu społecznym sytuacje  rozwijania się różnych wartości dzięki ich  wspieraniu się wzajemnemu na zasadzie sprzężenia.   I tak,  proces rozwoju gospodarki sprzyja wzrostowi stabilizacji politycznej i wolności,  oba zaś te stany przyczyniają się, zwrotnie, do rozwoju gospodarki.  Rosnący poziom edukacji  także sprzyja wzrostowi gospodarczemu, a ten się odwzajemnia wzrostem nakładów na edukację. Podobnie pozytywne wzmocnienia zachodzą między edukacją i badaniami naukowymi, itd.

Niebywały rozwój nauk w naszej cywilizacji tłumaczy się  potężnym sprzężeniem dodatnim, które zachodzi między twórczym umysłem i algorytmem;  jak koło zamachowe napędza ono postęp nauki, wprawiając go w coraz szybsze obroty. Ten szczególny związek  trzeba ujmować w kontekście prawidłowości ogólniejszej, mianowicie sprzężenia między myślą i mową. Pojawia się ta prawidłowość nie tylko na wyżynach poznania naukowego. Doświadczamy jej w codziennym życiu,  kiedy myśl wyprzedza mowę. Tak było,  gdy jakiś nasz praprzodek po raz pierwszy ujrzał ogień, a z ust wydarł mu się okrzyk podziwu czy strachu (czy może jednego z drugim). Ten dźwięk, jeśli się powtórzył,  jeśli powtórzyli go też ileś razy  inni, stał się w danej grupie nazwą ognia. Mamy tu model sytuacji świadczący o pierwszeństwie myśli przed mową, bo zauważenie czegoś,  wyodrębnienie  tego  uwagą z otoczenia oraz wzięcie za reprezentacje pewnej szerszej klasy zjawisk,  to są pierwociny myśli abstrakcyjnej.  A gdy już nazwa ognia się utrwaliła, zaczęła oddawać przysługi myślom,  jak ogień pozyskać,  jak ugasić, do czego użyć itd.

Sformułujmy to ogólnie:  gdy się uda myśl wysłowić, wspomaga to myśl,  żeby stała się pełniejsza i jaśniejsza;  gdy  damy wyraz słowny tej nowej,  to kolejne takie wysłowienie służy dojściu do myśli  bardziej pogłębionej, która rzecz ujmie jeszcze trafniej.  To są te zmagania naszej  myśli i mowy,  które Norwid ujął frazą odpowiednie dać rzeczy słowo (choć może nie każdy zmagań takich doświadcza, oszczędzone one są np. grafomanom).  Jest to więc taka sekwencja: najpierw myśl  bez słów, potem jej wysłowienie, które pomaga narodzić się myśli postrzegającej  następnie wysłowienia tego niedoskonałość,  dzięki czemu nasuwa się werbalizacja bardziej trafna, i tak aż do punktu, w którym uznamy, że ,,to jest to”, czyli że słowo przylega do myśli jak dobrze skrojona szata, a myśl ujmuje sedno rzeczy.  Na swój sposób doświadczają takiego stanu prawdziwi poeci, a na swój sposób matematycy.

2.2. Matematycy są w tej dobrej sytuacji,  że  współczesna logika dostarcza  jasnego i w pełni sprawdzalnego kryterium,  czy werbalizacja jest już doskonała. Trzeba w tym celu teorię zaksjomatyzować i przyjąć odpowiednie reguły wnioskowania, a następnie wykazać, że każde prawdziwe zdanie danej teorii da się wywnioskować z jej aksjomatów,  a żadne fałszywe wywnioskować się nie da. Mówiąc bardziej technicznie, trzeba udowodnić o danej teorii, że jest zupełna oraz niesprzeczna. Będzie to świadczyć niezbicie, że aksjomaty bez reszty opisują tę dziedzinę rzeczywistości, do której opisu zostały powołane.  Jeśliby natomiast było tak, że jakieś zdanie wyrażone w języku danej teorii jest prawdziwe, a wywnioskować z aksjomatów się nie da, to powiemy o danej teorii, że jest niezupełna. A to znaczy, że aksjomatom nie udaje się wyrazić tego, do czego nasza myśl  bez nich dociera, gdy uda się jej rozpoznać jakieś zdanie prawdziwe, a nie dające się z aksjomatów wywnioskować.

Dowodzenie, o którym tu mowa jest zdefiniowane rygorystyczne. Mają  to być reguły tak precyzyjne,  jak te stosowane w algorytmach, a więc dyktujące krok po kroku, jak przekształcać aksjomaty w ich konsekwencje, a te w kolejne konsekwencje, aż dojdzie się do konsekwencji  będącej tym zdaniem, którego prawdziwości chcemy dowieść.  Przy tym,  owe służące wnioskowaniu reguły przekształcania formuł dotyczą ich postrzegalnych zmysłowo cech fizycznych, mianowicie kształtu i położenia, a nie ich treści (por. to z definicją algorytmu na początku eseju).  Tego rodzaju dowód nazywa się  formalnym, a ze względu na wyżej opisany charakter reguł dowodzenia można go też określić jako algorytmiczny.

Gdy z końcem XIX wieku pojawiła się, jako nowa dziedzina wiedzy, logika matematyczna, służąca do analizy i oceny rozumowań w matematyce,  ufano, że dostarczy ona środków, żeby  w sposób zupełny móc zaksjomatyzować dowolną teorię matematyczną; to znaczy tak dobrać jej aksjomaty,  żeby dały się  a nich wyprowadzić w drodze dowodu wszystkie zdania w danej teorii prawdziwe i tylko prawdziwe. Było to, mówiąc swobodnie, równoznaczne z przekonaniem,  że   w matematyce jej precyzyjny język symboliczny ma moc ekspresji zdolną wyrazić adekwatnie wszystkie nasze zrozumienia dotyczące matematycznej rzeczywistości.  Okazało się  jednak,  że te oczekiwania spełniają się tylko w odniesieniu do bardzo prostych teorii, jak niektóre teorie algebraiczne, ale już gdy wejdziemy w świat liczb naturalnych,  język przestaje nadążać za myślą. Pojawiają się zdania,  których prawdziwość myśl nasza rozpoznaje, ale dowodu formalnego, czyli bez reszty zamkniętego w symbolach, dostarczyć się nie da.

Nie musi to jednak oznaczać zastygnięcia teorii formalnej w takim kształcie. Będąc niezupełna, jest ona jednak uzupełnialna do wyższego poziomu, na którym pozbędzie się poprzedniego braku, a choć swoiste braki pojawią się na tym nowym etapie, da się ona uzupełnić do kolejnego poziomu, i tak dalej.  Wchodzi bowiem do gry taka sama dynamika interakcji myśli i języka, jak ta opisana wyżej w odniesieniu do werbalizacji w języku naturalnym. I podobnie jak w wersji ,,naturalnej”, wyższy poziom werbalizacji, która jest w tym przypadku  formalizacją, umożliwia rodzenie się nowych myśli, które nie miałyby szans zaistnienia, gdyby nie dostąpiły wsparcia  ze strony precyzyjnego języka formalnego.

O istnieniu takiej uzupełnialnej stopniowo niezupełności dowiedziano się po raz pierwszy w roku 1931, gdy Kurt Gödel  odkrył,  że jest to właściwość arytmetyki  liczb naturalnych. Wykazał on,  że żadna aksjomatyka nie wystarczy, żeby na jej podstawie udowodnić formalnie (algorytmicznie) wszystkie prawdziwe zdania arytmetyki. Możemy natomiast uzyskiwać coraz większy zbiór prawd dowiedzionych,  w miarę jak wzbogacamy aksjomatykę o nowe formuły, bądź też wzmacniamy logiczne reguły dowodzenia algorytmicznego.  Podsumujmy: na każdym ze szczebli rozwijania aksjomatycznej arytmetyki liczb natualnych są w niej prawdy niedowodliwe formalnie,  ale zarazem z każdego szczebla można wspiąć się na  wyższy,  to jest taki, na którym niektóre prawdy dotąd niedowodliwe dadzą dowieść.

Takie pozyskiwanie za pomocą dowodów formalnych coraz większego zbioru prawd jest procesem bez granic,  potencjalnie nieskończonym. Mamy więc w perspektywie nieskończony proces postępu nauki.  Drugą okolicznością godną uwagi jest  powstawanie warunków do pojawienia się dodatnich sprzężeń zwrotnych – na zasadzie prawidłowości opisanej wyżej w 2.1.  Po intuicyjnym rozpoznaniu jakiejś prawdy niedowodliwej formalnie, możemy ją dołączyć do aksjomatów (one też zostały przyjęte bez dowodu), wzmacniając tą drogą moc dedukcyjną teorii. Oznacza to przyrost  informacji, a im więcej informacji, czyli im większa wiedza, tym większa skala i tempo kolejnego przyrostu.  Tę nieograniczoną perspektywę rozprzestrzeniania się umysłu nazywam tu gödlowską, ponieważ Gödel był tym, który jej istnienie pierwszy dowodnie wykazał, czyniąc to na polu tak sprawdzalnym,  jakim jest arytmetyka.

Żeby się osobiście o tej perspektywie przekonać, trzeba uzyskać jakiś wgląd w treść i uzasadnienie wyniku Gödla. Skala poziomów tego wtajemniczenia może być bardzo rozległa: od kilku zdań ogólnikowej  informacji po specjalistyczne monografie, gdy cały pokaźny tom stanowi wykład i interpretację twierdzenia Gödla o niezupełności arytmetyki.  Dwa następujące dalej odcinki sprawie tej poświęcone są bliskie raczej dolnego progu zrozumień. Ich celem jest doprowadzić Czytelnika,  jeśli nie do przekonania o prawdziwości twierdzenia, to przynajmniej do wyobrażenia sobie, co na czym taki stan przekonania mógłby polegać.  To jest minimum, do którego powinien się czuć zobowiązany współczesny humanista. Żeby odciążyć i możliwie skrócić  tok wywodu, nie opisuję tu metody arytmetyzacji języka przez kodowania liczbowe, mogąc odesłać Czytelnika do poprzedniego eseju, gdzie była o tym mowa z innego jeszcze względu, lecz przede wszystkim ze względu na przygotowanie do obecnego sprawozdania z argumentacji Gödla.

§3.  MAG:  samopotwierdzalne MetaArytmetyczne zdanie Gödlowskie

Istnieje osobliwa klasa wypowiedzi, można powiedzieć, egocentrycznych, że taka wypowiedź mówi jedynie coś o sobie samej, a  nic na inny temat. Oto przykład: „Niniejsze zdanie składa się z siedmiu wyrazów”. Wypowiedzi tego rodzaju są poprawne gramatycznie, a przy tym spełniają bez zarzutu warunek wymagany od każdego zdania, że ma być prawdziwe lub fałszywe. Powyższe  zdanie jest prawdziwe,  a jeśliby słowo „siedmiu” zamienić na inny liczebnik, stanie się fałszywe. Nie można mu więc nic zarzucić poza pewnego rodzaju dziwacznością, ale to  mu nie odbierze statusu zdania w sensie logicznym.

Mamy w tej klasie zdania jeszcze osobliwsze, do których  zastosujemy określenie: zdanie samopotwierdzalne., w skrócie SP. Z treści takiego zdania wynika, że jest ono z konieczności prawdą, czyli samo siebie potwierdza. Do tej  kategorii należy wyrażenie będące bohaterem tego eseju, zwane zdaniem gödlowskim. Swe kluczowe znaczenie dla  dyskutowanego problemu zawdzięcza ono temu, że występuje w dwóch wersjach. Jedna z nich jest samopotwierdzalna w sposób oczywisty i bezpośredni. Druga zaś dzięki temu, że  z pierwszą jest równoważna, okazuje się również samopotwierdzalna.   Ta druga jest sformułowana w języku arytmetyki, co będzie nam przypominał skrót AG – Arytmetyczne zdanie Gödlowskie. Pierwsza jest sformułowana w języku, którym się mówi o arytmetyce, czyli w jej metajęzyku, stąd skrót MAG – MetaArytmetyczne zdanie Gödlowskie. W obecnym odcinku zajmiemy się AG-iem,  a MAG-iem w odcinku następnym.

Żeby zrozumieć istotę zdań samopotwierdzalnych, trzeba mieć na uwadze, że zdanie takie  bierze się z zanegowania jakiegoś zdania antynomialnego czyli, krócej, antynomii. Antynomia jest to wypowiedź, z której wynika jej własne zaprzeczenie, co ją nieuchronnie skazuje na fałszywość. A jeśli antynomia jest z konieczności fałszywa, to jej zaprzeczenie musi być prawdziwe na mocy samej swej treści, co znaczy, że jest zdaniem  samopotwierdzalnym.

Nim opiszemy ten mechanizm dla zdania gödlowskiego, przyjrzyjmy się mu na przykładzie słynnej antynomii kłamcy, występującej w rozmaitych szatach słownych. Rozważmy ją ubraną w krótkie zdanie, które oznaczymy jako: Ant.1 – JESTEM ZAWSZE OMYLNY. To znaczy, cokolwiek sądzę, zawsze to jest fałszywe.  W takim razie, fałszywe jest również zdanie  Ant.1, a w takim razie prawdziwe jest jego zaprzeczenie, czyli sąd, że nie zawsze jestem omylny. Gdy uznaje za prawdę jakiś sąd (tutaj Ant.1) i zarazem muszę uznać jego konsekwencję stanowiącą jego zaprzeczenie, to popadam w sprzeczność, co mnie zobowiązuje do odrzucenia sądu Ant.1.  Odrzucenie go oznacza, iż uznaję za prawdę, że nie zawsze jestem nieomylny” czyli SP.1 : CZASEM JESTEM OMYLNY. To  wnioskowanie każe zaliczyć SP.1 do zdań samopotwierdzalnych.  Skoro bowiem  jego zaprzeczeniem jest zdanie antynomialne,  a więc sprzeczność, zobowiązuje to,  pod sankcją popadnięcia w antynomię,  do uznania sądu SP.1 za prawdę  na mocy samej jego treści, bez potrzeby konfrontowania z jakimiś faktami; a to znaczy, że jego potwierdzenie dokonuje się samo, niejako automatycznie.

MAG jest zdaniem, które stwierdza o sobie samym,  że w arytmetyce liczb naturalnych nie ma dań dowodu formalnego. To znaczy takiego, że reguły dowodzenia twierdzeń, to jest, wyprowadzania ich z aksjomatów,  mają charakter czysto formalny czyli odnoszą się do fizycznego kształtu ciągów symboli, nie zaś do ich sensu. Tę cechę odwoływania się przez reguły wyłącznie do fizycznej postaci symboli, to znaczy do ich kształtu i usytuowania w przestrzeni, dowód formalny podziela z  procedurami algorytmicznymi. Można go jeszcze bardziej przybliżyć do algorytmu, tak dobierając reguły dowodzenia, żeby w przypadku każdej dającej się dowieść formuły  dowód doprowadzał do niej w sposób mechaniczny, to znaczy bez potrzeby posługiwania się jakąkolwiek inwencją (podczas gdy dowody twierdzeń matematycznych nie korzystające z takiej procedury wymagają czasem od matematyków nieprzeciętnej inwencji).  W obecnym jednak rozważaniu ta druga cecha, mechaniczność dochodzenia do konkluzji, nie jest istotna, jest natomiast istotny ów formalny charakter kroków dowodowych.  Będziemy go mieli w domyśle, ilekroć dalej będzie mowa o dowodzie lub dowodliwości; domyśle będzie także to, że chodzi o dowód wychodzący z aksjomatów arytmetyki liczb naturalnych. Pomijając, dla skrótu, te klauzule rozważamy następującą wypowiedź, w której  ,,dowodliwe” znaczy, że zdanie da się dowieść na podstawie aksjomatów, nie koniecznie natomiast dowód ten ma być aktualnie wykonany.

MAG:  Niniejsze zdanie nie jest dowodliwe.

Jest to zdanie samopotwierdzalne, a więc z konieczności prawdziwe – przy założeniu, że są prawdziwe, a więc nie rodzące sprzeczności, aksjomaty arytmetyczne. Jest to założenie istotne; na nim  się opiera następująca argumentacja. Gdyby MAG było zdaniem fałszywym, to  byłoby dowodliwe. A jako dowodliwe na podstawie prawdziwych przesłanek, to jest, wynikające z aksjomatów na mocy reguł logiki, byłoby  prawdziwe. Tak więc,  zaprzeczenie zdania MAG implikuje jego prawdziwość. Gdy jakieś zdanie wynika z własnego zaprzeczenia, trudno o mocniejszy argument na rzecz jego prawdziwości.  Certyfikatem dla tego argumentu jest prawo logiki: (Np→p)→p; można by je nazwać prawem samopotwierdzania.

Rozumowanie to ma być punktem wyjścia dla argumentacji,  że istnieją w arytmetyce zdania prawdziwe, a nie dające się dowieść formalnie. Tak jednak,  jak to zdanie obecnie wygląda,  nie ma w nim odniesienia do arytmetyki (poza domyślną klauzulą, że chodzi  o dowód na podstawie aksjomatów tej teorii).  Wszak niedowodliwe ma być jakieś jakieś zdanie w języku arytmetyki, mówiące coś o liczbach,  MAG natomiast jest zdaniem z jej metajęzyka.  Potrzebne jest więc coś w rodzaju przekładu tego zdania metajęzykowego na język arytmetyczny. A mówiąc dokładniej, powinno to być coś więcej niż przekład bo to zdanie arytmetyczne, podzielając z MAG-iem przypisanie sobie samemu niedowodliwości (w czym jest podobieństwo do przekładu), powinno wyrażać ponadto  jakąś prawdę arytmetyczną (czego MAG nie czyni).  Zabieg, który tu się wykonuje nazywa się technicznie odwzorowaniem,  w takim sensie, w jakim mówi się np. o odwzorowaniu pewnej geometrii nie-euklidesowej w geometrii Euklidesa. Odwzorowanie teorii A w teorii B gwarantuje, że każde twierdzenie prawdziwe w A, gdy się je odwzoruje w B,  także w B będzie prawdziwe.   W obecnym zagadnieniu chodzi o to, żeby odwzorować MAG w arytmetycznym zdaniu gödlowskim AG.

§4.  AG: samopotwierdzalne Arytmetyczne zdanie Gödlowskie

Metodą odwzorowania użytą przez Gödla jest pewien system kodowania napisów za pomocą cyfr. W ten sposób zdanie MAG zamieni się w formułę utworzoną z cyfr, a więc należącą do języka arytmetyki. Opis tej metody, nawet poczyniony w wielkim skrócie, musi być dość obszerny, toteż aby nie odciągać uwagi od głównego nurtu argumentacji, odsyłam do opisu, który dałem wcześniej (esej 17, §3 dotyczący arytmetyzacji języka) z myślą o przygotowaniu do obecnych rozważań.

Za sprawą procedury kodowania każde zdanie zapisane w języku logiki predykatów, czy to arytmetyczne, czy meta-arytmetyczne, jest reprezentowane przez liczbę zwaną jego numerem gödlowskim.  Trzeba więc zacząć od zapisania zdania MAG w postaci formuły logicznej.  Pierwszym przybliżeniem jest  następująca formuła, w pewien sposób pochodna od MAG  (co sygnalizuje  apostrof).

MAG’:  Dla zdania g nie istnieje ciąg formuł x – taki, że D(x, g).

Predykat „D” czytamy „jest dowodem”.  Zwrot „nie istnieje” ma w logice odpowiednik złożony z dwóch symboli, którym są przypisane numery gödlowskie (por. 17,   §3.1; w jednym z ujęć rozumowania Gödla są to liczby: 1 dla negacji oraz 4 dla kwantyfikatora egzystencjalnego).   Zmiennej x, również jest przypisany przez nasz klucz kodowy pewien numer,  który oznaczymy przez x*. Mamy też metodę obliczania numeru całego wyrażenia jako liczby zależnej od wyżej podanych.  Trzeba jeszcze tylko dysponować symbolem dla zapisania relacji arytmetycznej zachodzącej między  g*  jako numerem zdania gödlowskiego g oraz  x* jako numerem ciągu formuł x. Relacja ta jest arytmetycznym odwzorowaniem stosunku, który nazywamy w metajęzyku dowodzeniem; oznaczmy ją przez D* (gwiazdki  tu i wcześniej oznaczają  odwzorowania pojęć metajęzykowych  w arytmetycznych). I tak otrzymamy formułę arytmetyczną:

AG: ·x* D*(x*, g*).

Pominiemy też kwestię,  zbyt dla tych rozważań techniczną, obliczenia wartości liczbowej D*. Pominiemy też szczegóły techniczne rozwiązywania  innej kwestii, ale  jej samej nie możemy tu ignorować,  jest  bowiem dla naszej argumentacji kluczowa.

Jest to pytanie, jak oddać słowo „niniejsze”, które pełni istotną rolę w MAG, a którego nie ma w MAG’  (było na to za wcześnie w tym pierwszym przybliżeniu).  Problem w tym, że w języku logicznym nie ma środków by oddać tego rodzaju słowa. W logicznej teorii języka noszą one miano wyrażeń okazjonalnych; można też rzec sytuacyjnych,  mają one bowiem tę osobliwość, że zachowując wciąż to samo brzmienie nieustannie zmieniają sens w zależności od kontekstu sytuacyjnego, czyli okazji użycia związanej z okolicznościami czasu lub przestrzeni Słowo „dziś” np. oznacza inny dzień, gdy się je wypowie 1-go, a inny 2-go stycznia.

Podobnie jest ze słowem „niniejsze”.   Żeby mogło ono coś oznaczać,  trzeba  stworzyć odpowiedni kontekst sytuacyjny, ale formuły matematyczne to są właśnie takie, które kontekstu takiego nie potrzebują i nawet mieć go nie mogą, dotyczą bowiem obiektów bytujących poza czasem i przestrzenią. A jednak Gödel znalazł wielce pomysłowy sposób na stworzenie odpowiedniego kontekstu, który dostarcza  ekwiwalentu dla słowa „niniejsze”. Stał się on możliwy tylko dzięki arytmetyzacji metajęzyka, a polega na tym, żeby pisząc formułę AG, tę  jej  sygnaturę zastąpić numerem formuły, i to koniecznie w taki sposób, żeby wypadł to numer g*. Jak to zrobić, jest to nader skomplikowany problem, którego rozwiązanie jest majstersztykiem techniki obliczeniowej Gödla. Nie będziemy próbowali za nią nadążyć, poprzestaniemy na przyjrzeniu się wynikowi, którego zapisem jest wiersz zaczynający się od numeru formuły, przy czym numer ten jest liczbą g*,  o której dana formuła stwierdza, że nie istnieje  liczba x*, która byłaby numerem ciągu formuł będącego dowodem formuły numerowanej liczbą g* ; a to znaczy, że oznaczona tą liczbą formuła g nie ma w arytmetyce dowodu. Oto ów zapis:

g*:  ¬∑x* D*(x*, g*).

Operowanie tym napisem wymaga nieco wyobraźni. Trzeba sobie wyobrazić, że na miejscach gwiazdkowanych liter występują jakieś konkretne liczby (ich zapisy byłyby tak długie, że niewykonalne praktycznie na papierze).  Mamy więc do czynienia z twierdzeniem arytmetycznym, które ma nam do powiedzenia dwie rzeczy: jedną, że zachodzi  pewien fakt arytmetyczny, drugą, że formuła z numerem g*  nie ma dowodu formalnego z aksjomatów arytmetyki. Tu drugie może być kolejnym wyzwaniem dla naszej wyobraźni, gdy już poradziliśmy sobie z wcześniejszym, żeby w gwiazdkowanych symbolach upatrywać liczby. Jak jednak dopatrzeć się w formule numer g*  informacji o jej niedowodliwości?

Pomóżmy sobie następująca historią w roli przykładu, nie do końca może realistycznego, ale w granicach fizycznej i społecznej  wykonalności. Wyobraźmy sobie, że w pewnej wysoko zinformatyzowanej uczelni frekwencja na zajęciach jest kontrolowana przez następującą procedurę. Każdy przedmiot wykładowy jest oznaczony pewnym numerem, numerowane są także kolejne wykłady z tego przedmiotu (np. 5,2 to drugi wykład z przedmiotu numer pięć).  Oczywiście, każdy student ma student ma swój własny numer umieszczony w elektronicznej karcie stanowiącej legitymację. Wchodząc do sali wykładowej student rejestruje obecność przez okazanie swej karty czytnikowi, który na życzenie drukuje listy złożone z samych zapisów cyfrowych,  np. na liście pod tytułem 5,2 znajdą się numery kart studentów zarejestrowane w danym dniu, m.in. numer 99. Taki wydruk informuje o pewnych relacjach liczbowych,  np. że 99 znajduje się w zbiorze liczb oznaczonym liczbą 5,2.  Ale nie tylko. Kto zna klucz kodowy zastosowany do numerycznego odwzorowania osób (studenci) i zdarzeń (wykłady), temu jeden z napisów na wydruku powie, że Jan Dyląg (student nr 99) nie był obecny na drugim wykładzie z zakresu przemysłowej hodowli kaczek (przedmiot nr 5).   Jeśli pod koniec roku okaże się po przejrzeniu wszystkich list, że nie ma numeru takiej listy, na której widniałaby cyfra „99”, będzie to zarazem informacja, że  nie ma takiego wykładu, który Jan Dyląg  zaszczyciłby swą obecnością.  Przypomina to po części strukturę formuły z numerem g*, która na takiej  samej zasadzie – odwzorowania przez kodowanie numeryczne – informuje, że nie ma takiej liczby, która byłaby numerem ciągu formuł dowodzącego zdania numerowanego liczbą g*.

W powyższym przykładzie dwie informacje, nazwijmy je, numeryczna i faktograficzna, są  równoważne inferencyjnie, to znaczy, każda z nich da się wywnioskować z drugiej.  Z tego,  że na wszystkich listach brak numeru 99 wynika niezawodnie fakt,  że na wszystkich wykładach brak było Dyląga. I odwrotnie, z faktu nieobecności Dyląga wynika informacja o stanie zapisów numerycznych na listach. A zatem, prawdziwość każdej z tych dwu informacji gwarantuje prawdziwość drugiej.

To,  że wnioskować o prawdziwości  można w obu kierunkach, ma kluczowe znaczenie dla argumentacji o istnieniu w  arytmetyce zdań niedowodliwych formalnie. Zdaniem,  którego prawdziwość potrafimy rozpoznać jest wypowiedź metajęzykowa  MAG, a dzięki owej równoważności zyskujemy  pewność o prawdziwości zdania arytmetycznego na temat liczby g, mającego numer  g*. A że to zdanie mówi o nieistnieniu liczby, która reprezentowałaby  jego formalny dowód, pośrednio stwierdza brak takiego dowodu czyli swą niedowodliwość.  Istnieje przeto w arytmetyce liczb naturalnych zdanie prawdziwe, którego nie da się formalnie dowieść z aksjomatów arytmetyki.  Podsumowujemy to określeniem, że arytmetyka liczb naturalnych jest teorią niezupełną.

§5.  Humanistyczna interpretacja niezupełności  arytmetyki

Przysłowiowe stawianie kropki nad ,,i” jest zabiegiem jak najwłaściwszym, jako że ,,i” bez kropki nie byłoby sobą.  Stawianie dwu kropek byłoby stanowczo przesadą, a  jednak dopuszcza się  czegoś takiego w tym końcowym odcinku. Powtarzam tu bowiem różne rzeczy wcześniej w tym eseju na różnych miejscach powiedziane. Usprawiedliwia to, jak sądzę,  tego rodzaju sytuacja, że pewne rzeczy powiedziane w dwóch pierwszych odcinkach, przed zdaniem sprawy z argumentacji Gödla, mają być szansę głębiej zrozumiane i przyswojone po zaznajomieniu się z  owym sprawozdaniem. Trzeba więc stworzyć mozliwość zetknięcia się z nimi raz jeszcze.  To tak, jak drugie widzenie się  z kimś raz już spotkanym, gdy po pierwszym zapoznaliśmy się z jego życiorysem; teraz  patrzymy na jego postać jakby innymi oczami.

I tak, powracając do końcowego zdania poprzedniego odcinka, postawmy pytanie: dobrze to czy źle dla poznawania świata, że arytmetyka jest  niezupełna?  Znaczna, może przeważająca, część badaczy i autorów pytania takiego nie stawia, uważając za oczywisty pogląd, że to źle; pisuje się nawet w dramatycznym niekiedy tonie, że jest to dotkliwa porażka nauki, bo przecież powołaniem nauki jest dowodzenie twierdzeń, a tu taka bariera dla dowodzenia!  Najgłośniejszy lament pochodzi z kręgu tych filozofów, których ulubionym słówkiem, streszczającym ich główną tendencję jest „tylko”.  Stamtąd słyszymy takie maksymy, jak  „człowiek to tylko jeden z gatunków zwierzęcych”, „moralność to tylko zbiór uwarunkowanych  historycznie konwencji”, i tak dalej, a wśród nich jest i ta sentencja: „umysł to tylko mózg, a mózg to tylko maszyna Turinga”.

Tylko ta ostatnia maksyma łączy się bezpośrednio z naszym problemem,  inne zaś przytoczyłem po to,  by wskazać na humanistyczny aspekt  sądów z tej kategorii. Wszystkie one dotyczą pytania ,,czym jest człowiek?”, a więc tego, w którym ogniskuje się humanistyka.  Jest  ów humanistyczny aspekt obecny także w zagadnieniu niezupełności arytmetyki,  ściśle powiązanym z ideą uniwersalnej maszyny Turinga.

Związek ten sygnalizuje słowo „formalny”, które w tego rodzaju rozważaniach skrupulatnie trzeba dodawać do słowa „dowód”. Dowód formalny to  taki, którego reguły dotyczą jedynie fizycznej formy wyrażeń, a więc ich kształtu i położenia, a nie ich sensu, intencji, czy wyrażanej w nich intuicji. Zdanie niedowodliwe w sensie argumentacji Gödla to zdanie nie dające się dowieść formalnie. Tylko takich może dotyczyć cały jego wywód, bo tylko takie poddają się kodowaniu numerycznemu. Jak to podkreślał Turing, kodować numerycznie można tylko fizyczne symbole. a więc elementy tworzące sekwencje dyskretne, czyli nieciągłe, nie da się natomiast kodować w ten sposób myśli,  te bowiem się zlewają w nieprzerwany strumień świadomości, gdzie nie da się wydzielać  odrębnych elementów, każdy do oznaczenia osobnym numerem.

Uprzytomnienie  kluczowej różnicy między tym,  co ciągłe i tym, co dyskretne, matematycznie oddanej  w odróżnieniu  liczb rzeczywistych od naturalnych,  stanowi podstawę dla humanistycznej interpretacji Gödlowskiego odkrycia niezupełności arytmetyki. W tych bowiem kategoriach trzeba nam zdefiniować umysł ludzki dla odróżnienia go od maszyny Turinga. Maszyna rozwiązuje problemy tylko drogą procedur dyskretnych, umysł zaś ma do dyspozycji także ciągłe. Operującą nimi władzę umysłu określamy,  wzorem Turinga, mianem intuicji. Wiadomość przeto, iż pewnych  prawd nie da się dowieść formalnie,  a więc procedurą dyskretną,  w sposób maszynowy, kładzie tamę możliwościom maszyny, ale nie potencjałowi ludzkiego umysłu z jego talentem myślenia intuicyjnego.

Wszak  argumentacja Gödla prowadząca do wniosku o niezupełności arytmetyki, uznana przez świat uczonych za bezbłędną i  fundamentalną, nie jest bynajmniej dowodem formalnym. Tym nie mniej bez wahania mówi się w literaturze naukowej o dowodzie twierdzenia Gödla, nie deprecjonując go bynajmniej z powodu charakteru nieformalnego.  To jedno powinno wystarczyć, żeby uciszyć lament  licznych autorów z powodu gödlowskiego odkrycia  jako mającego rzekomo ograniczać aspiracje poznawcze umysłu. Dowiódłszy nieformalnie niemożliwości formalnego dowodu pewnych  prawd rozpoznawanych jako prawdy w sposób nieformalny, Gödel wyniósł umysł ludzki na wyżyny, z których może spoglądać z góry na plemię robotów.

To jest jeden aspekt humanistyczny odkrycia Gödla. Dotyczy on natury ludzkiego umysłu i potencjału właściwej mu intuicji jako przewodniczki rozumowań. Jest jeszcze inny, odnoszący się do rytmu i dynamiki rozwoju cywilizacyjnego. Zważmy, jak wielką w nim rolę odegrały algorytmy.  Pomyślmy,  jaki byłby kształt cywilizacji, gdyby nie wynaleziono pozycyjnej notacji arytmetycznej. A przecież to tylko ona umożliwia dokonywanie niezliczonych i czasem zawrotnie złożonych obliczeń, jakich wymaga nowożytna cywilizacja (notacja rzymska z trudnością, wystarczała na potrzeby cywilizacji antycznej i średniowiecznej,  ale to był limit jej możliwości). A jedna z notacji pozycyjnych, mianowicie binarna,  jest tym,  bez czego nie mogłaby nastać era informatyczna.  Notacja pozycyjna to nic innego jak algorytm zapisywania w sposób automatyczny (bez potrzeby wymyślania wciąż nowych oznaczeń i reguł  zapisu) dowolnie wielkich liczb. Gdyby jakiś wirus odebrał naszym  mózgom zdolność jej rozumienia i posługiwania się nią, cywilizacja wstrzymałaby swój pęd i zaczęła gwałtownie się staczać.

Wszechobecność  i niezbędność algorytmów objawia się dziś na każdym kroku posiadaczom i użytkownikom urządzeń elektronicznych. Za każdym uderzeniem w klawiaturę,  za każdą funkcją pralki, telefonu, bankomatu czy komputera,  kryje się jakiś algorytm.  Ta wszech-skuteczność algorytmów jest tym, co sprawia, ze coraz więcej czasu i energii możemy poświęcać na twórcze myślenie, wiedzione naszą intuicją intelektualną. Gdybym ten esej pisał na mojej  starej poczciwej maszynie marki Remington (rocznik 1930)  zużyłbym niepomiernie więcej czasu oraz znużył m.in. poprawianiem literówek (błędy wymazywało się żyletką). Ileż mniej miałbym  wtedy czasu i siły na potrzebną do tych wywodów pracę.

Szczególnie brzemiennym w konsekwencje rysem cywilizacji jest to, że dwa potężne strumienie twórczej  intuicji są kierowane na wytwarzanie nowych algorytmów. Jest  wytwarzanie bezpośrednie, którym zajmują się programiści,  jest też pośrednie, a zarazem bardziej podstawowe, będące domeną matematyków. Każda nowa teoria w matematyce czy nowe  udowodnione twierdzenie to potencjalne źródło nowych algorytmów, które przyjdą w sukurs wiedzionej intuicją twórczości, ta zaś wyprodukuje następne  algorytmy wzmacniające twórczość, która zaowocuje  kolejnymi algorytmami.

Tak dokonuje się ów proces wnikania w  dynamikę postępu gatunku ludzkiego poprzez refleksję nad twórczą naturą Człowieka – w myśl sentencji Alexandra Pope’a. Któż może lepiej niż humanista proces ten rozumieć i objaśniać go innym? A warunkiem, by się do tego powołania przysposobić  jest zapoznanie się z treścią i przesłankami twierdzenia Gödla. Obecny esej ma być w tej materii zachętą oraz czymś w rodzaju pierwszej pomocy.

Zaszufladkowano do kategorii Światopogląd informatyczny | Dodaj komentarz

Snob czyli ktoś na niby

Snobizm jest zjawiskiem nagminnym  i destrukcyjnym. Snobów się do końca nie pozbędziemy, ale nie dobrze jest ze społeczeństwem, w którym ta populacja jest zbyt liczna. Nie jest dobrze, bo społeczeństwo  to zbiorowość, w której każdy ma odegrania rolę dla wspólnego dobra.  Powinien więc odgrywać  ją kompetentnie i realnie, a nie na niby. Ktoś, kto jest na niby poetą nie przysporzy dobrych wierszy, a gdyby zgodnie ze swymi dyspozycjami był, powiedzmy, ogrodnikiem przysporzyłby owoców czy kwiatów.   Snob dobija się do stanowisk politycznych, do których się nie nadaje,  a więc pełni je źle,  albo mości się  w środowisku akademickim dla prestiżu, choć nauka sama w sobie mało go obchodzi.

Nagminność zjawiska snobizmu w różnych czasach i miejscach sprawiła, że ma ono bogate odzwierciedlenie w literaturze każdego narodu. Anglicy mają  „Targowisko próżności”  (Vanity Fair)  Thackeraya,  Molier zabawia Francuzów komedią „Mieszczanin szlachcicem”, Tomasz Mann spisuje „Wyznania hochsztaplera Feliksa Krulla”,   Norwid gorzko kwituje próżność arystokratycznych salonów, Fredro wyśmiewa postać Papkina, a Tadeusz Dołęga-Mostowicz postać Nikodema Dyzmy.

Naturę snobizmu wyraża metaforycznie wzięte z niemieckiego słowo „hochsztapler”, oznaczające osobnika, który się sadowi na wysokim siodle, nie bacząc na to,  jak słabo jeździ konno,  i z tego siodła zazwyczaj spada.   Dobrze też oddaje naturę rzeczy angielska etymologia: „snob” jest skrótem łacińskiego „sine nobilitate” (bez szlachectwa).  Thackeray  definiuje snoba jako osobę gminnego pochodzenia, która próbuje wbrew realnemu  stanowi rzeczy pokazać się otoczeniu jako ktoś  z wyższego stanu lub lepszego towarzystwa, bogatszy, umiejący nadążać za modą itp. W nieco innym lecz podobnym  znaczeniu, jest to ktoś imitujący zachowania swych zwierzchników. Tak czy inaczej, kluczowe jest tu pojęcie imitacji.

Świat przeżyć i zachowań snobadługo by opisywać. Żeby utrzymać się w konwencji zwięzłego szkicu, skupię się na jednej sprawie: jak snobizm psuje inteligencję cierpiącego na tę przypadłość osobnika.  Pomocne w tym będzie odwołanie się do  popularnych wiadomości na temat psychoanalizy. Wprawdzie nie odnoszę się do tego kierunku z respektem,  ośmiesza go pretendowanie do bycia uniwersalną teorią umysłu,  jak też niestrawna porcja mitomanii (zwłaszcza u Freuda), ale to nie znaczy, że wszystkie poczynione przez jego twórców obserwacje muszą być nietrafne.  Do trafnych należą niektóre spostrzeżenia dotyczące mechanizmu samoogłupiania czyli podkopywania własnej inteligencji. Inne mechanizmy uważa za istotne w tym procesie Zygmunt Freud, inne Alfred Adler, ale nim przejdziemy do adlerowskich, bezpośrednio dotyczących snobizmu, przyda się zwrócenie uwagi na to, co jest im wspólne.

Psychoanaliza ma wkład w opisywanie zmagań emocjonalności z racjonalnością.  U Freuda jest to emocjonalność erotyczna, u Adlera dążenie do mocy (Machtstreben) biorące się z poczucia mniejszej wartości (Minderwertigkeitsgefühl).  Wspólne obu autorom jest ukazywanie,  jak dany typ motywacji emocjonalnej spycha do podświadomości racjonalne argumenty stojące na przeszkodzie czyimś przemożnym  pragnieniom. Psuje więc inteligencję.   Ktoś beznadziejnie zakochany nie daje wiary temu, że obiekt jego westchnień ma jakieś skazy, a ktoś pragnący być najlepszym w jakiejś kategorii, np. Papkin w rycerskiej, łacno uwierzy, iż takim jest, choćby fakty uparcie temu przeczyły.

Adlerowskie dążenie do mocy jest samo w sobie motorem rozwoju, trzeba więc przyjrzeć się temu, w jakich okolicznościach ten czynnik skądinąd pozytywny degeneruje się do jakiejś postaci karierowiczostwa, brutalnego eliminowania konkurentów czy właśnie snobizmu. Snob, w odróżnieniu od brutala,  jest nieprzeciętnie wrażliwy na to,  jak  jest widziany przez innych, a zwłaszcza przez najbliższe otoczenie lub otoczenie, w którym chciałby się on znaleźć; to drugie nie musi mu być znane z bezpośredniego oglądu, może to być kwestia wyobrażeń,  jak sobie ktoś przedstawia życie wyższych sfer.

Jeśli ktoś by zapytał, czy jest to przypadłość uleczalna, można przytoczyć przynajmniej dwie znane z historii wskazówki co do remediów. Jedna odwołuje się do religii, druga do logiki.

Tę pierwszą można określić  jako luterańską,  bo choć jest ona głoszona przez niezliczonych moralistów, Luter ze swą religijną nauką o powołaniu stanowi w tej  mierze typ idealny czyli wzorcowy. Luter, były zakonnik, rozszerzył pojęcie powołania na wszystkich chrześcijan i zalecał, żeby  dążenie do własnej wartości (u Adlera Geltungsstreben) urzeczywistniać przez wierność własnemu powołaniu. To zaś jest określone wolą Bożą, która każdemu przydziela jego miejsce w społeczeństwie. W czasach Lutra było to społeczeństwo stanowe, przykazywał więc, żeby każdy trzymał się własnego stanu, nie pretendując do wyższego. W ramach stanu dokładniejsze określenie własnego powołania dawał odziedziczony zawód;  tę doktrynę dobrze oddaje fakt językowy, że w niemieckim słowo „Beruf” oznacza i zawód i powołanie.

Czy  ta nauka, tak nieznośnie staroświecka i antyhumanistyczna, może mieć dziś jakąś rozsądną wersję?  Owszem,  jeśli metaforą powołania posłużyć się dla określenia indywidualnych dyspozycji,  które próbuje się zdefiniować co do zasięgu i co do granic ich możliwości.  Słowem, chodzi o to, żeby być dobrym w swojej rzeczywiście posiadanej klasie, a nie ubiegać się o jakąś klasę nierealną, co musiałoby się skończyć  snobistycznym udawaniem. Takiego rozpoznawania własnej klasy powinno się uczyć młodzież w fazie dojrzewania, co mogłoby stać się pomocne na całe życie. Może to mieć także interpretację religijną, jeżeli luterańskie zdeterminowanie losu przez przynależność stanową zastąpić  przez szacunek dla własnej indywidualności zlokalizowanej w  jakimś porządku wszechświata (wiara w taki porządek, to jest już jest akt religijny).  Myśl, że jestem jedynym w świecie zdolnym zrobić  dla świata to a to, powinna ukontentować nawet  silne Geltungsstreben. Słowem, chodzi o to,  żeby zastąpić snobizm indywidualizmem.  A że  indywidualizm to trudna rzecz, implikująca pełną odpowiedzialność za siebie, trzeba do tej postawy  wychowywać od młodości.

Co do remedium logicznego,  wypadnie udać się w sferę patologii, bo jej wszak przejawem, choć nie drastycznym i nie klinicznym jest  mentalność snobistyczna.  Snob żyje w świecie urojeń łagodnych,  a nie groźnych urojeń schizofrenika, ale ta różnica stopnia nie przeszkadza, żeby przypadek skrajny wziąć za pouczający model możliwej  terapii.  Takiego modelu dostarcza opowieść sprzed stu lat, lecz wciąż ciesząca się powodzeniem (jeśli sądzić po sprzedaży internetowej). Napisał ją Clifford W. Beers, wielki reformator szpitalnictwa psychiatrycznej, ale z zawodu nie psychiatra a handlowiec, pt.  „Umysł który sam siebie odnalazł” (A Mind that  Found  Itself).  Beers, leczony w szpitalu na schizofrenię żył w świecie urojeń prześladowczych, ale miewał chwile logicznego myślenia i w jednym z takich przebłysków dostrzegł  sprzeczność w swoim obrazie nękających go rzekomo prześladowań.  To był początek ozdrowienia, szczelina logicznej i krytycznej myśli coraz bardziej się rozszerzała, aż doprowadziła do pełnej normalności.  Taki przypadek samouleczenia z ostrej choroby jest zapewne rzadki, może jeden na sto lat, ale można przypuszczać, że im łagodniejszy przypadek, tym większa jest szansa na taki ewenement.  Szczęśliwie, snobizm należy do wiele łagodniejszych, ale  znajduje się on również w świecie urojeń,  powinna więc być pomocną  jakaś terapia analogiczna, posiłkująca się logiką.

Poprzestając na tych sugestiach, powrócę w myśl właściwej obecnemu cyklowi konwencji,  do „caeterum censeo”  — że należy czynić świat bardziej liberalnym. Jak  problem snobizmu ma się do  idei liberalizmu?  Prześwituje ona  w tym, co wyżej powiedziano  o dwóch  remediach, mianowicie w odwołaniu się do indywidualizmu i do logicznego krytycyzmu.  Są to naczelne postulaty liberalizmu.   Po wielokroć dawali im wyraz mistrzowie liberalizmu, a wobec tej wielości trzeba by się ograniczyć do jakiejś miarodajnej reprezentacji. Gdy idzie o indywidualizm, w sensie moralnej autonomii jednostki, piękne na ten temat karty znajdziemy u Immanuela Kanta. A co się tyczy krytycyzmu i jego związku z liberalną filozofią społeczną, mistrzem niezrównanym jest Karl Popper w dziele „Open Society”.

Zaszufladkowano do kategorii Światopogląd liberalny | 3 komentarze

Informatyzm jako wgląd w zagadkę umysłu

Jak to się dzieje,  że ludzka inteligencja  potrafi  rozwiązywać  pewne problemy matematyczne,  których nie może rozwiązać  uniwersalna maszyna Turinga (UMT)? Pytanie to znamionuje sposób myślenia właściwy dla informatyzmu czyli  światopoglądu informatycznego. Kto się znajduje poza jego obrębem, ten pytania takiego nie żywi. Raczej zapyta: a dlaczego inteligencja żywego matematyka nie miałaby być do tego zdolna? Skąd to przekonanie, że nie może być  większa niż inteligencja maszyny? Cóż więc zagadkowego,  jeśli jest większa?

Podejście  cechujące informatyzm  rodzi się  z wielowiekowej tradycji uprawiania matematyki.   Jest ona punktem wyjścia dla takich  myślicieli,  jak Leibniz, a w ubiegłym wieku David Hilbert,  filozofowie nauki z Koła Wiedeńskiego i inni.  Przyjęło się uważać, począwszy od matematyków i filozofów starożytnych, że każdy problem matematyczny da się rozwiązać w sposób  rachunkowy czyli za pomocą odpowiedniego algorytmu.  Z tego względu stawiano matematykę za wzór pozostałym naukom,  oczekując, że i one z czasem dojdą do tego poziomu intersubiektywnej ścisłości (słynny program Leibniza  w haśle Calculemus).  To jednak pojęcie rachowania było tylko intuicyjne,  stanowiąc jakby  uogólnienie kolosalnej liczby przypadków z praktyki matematycznej, ale bez precyzyjnej definicji. Definicję taką dał dopiero Turing (1936)  jako opis UMT.  I wtedy się okazało,  że istnieją obiekty nie spełniające tej definicji,  mianowicie funkcje matematyczne, których wartości nie dadzą się znaleźć rachunkowo. Nazwano je funkcjami nieobliczalnymi, a ich wartości — liczbami nieobliczalnymi.

Skoro rozwiązywanie problemów matematycznych przywykło się utożsamiać z obliczaniem, to naturalne wydawało się  przyjąć, że  problemy nie dające się rozwiązać rachunkowo, za pomocą algorytmów, są nierozwiązywalne także dla ludzkiego umysłu.  Stąd,  ogromnym zaskoczeniem okazało się wykazanie przez Kurta Gödla, że istnieją zagadnienia nierozwiązywalne rachunkowo,  to jest,  nierozwiązywalne  dla UMT czyli  (w dzisiejszej wersji technologicznej)  komputera cyfrowego, ale mające rozwiązanie dające się ściśle dowieść na innej drodze.  Wynik tak  przeczący  dotychczasowym przeświadczeniom musiał  wywołać pytanie:  jak to jest możliwe? Informatyzm pytanie to odziedziczył, jest on bowiem spadkobiercą tego problemu w linii genealogicznej wiodącej od Leibniza do współczesnej logiki.

Na tym tle fakt, że ludzki umysł rozwiązuje  pewne problemy, których nie jest w stanie rozwiązać UMT,  wydaje się istotnie zagadkowy. Ważny krok w jej rozważaniu  uczynił Alan Turing w swej  pracy z roku 1938  („Systemy logiki oparte na liczbach porządkowych”).  Jego doniosłość i konsekwencje ujawniają się w miarę,  jak rozwija się projekt sztucznej inteligencji zmierzający do zmniejszania dystansu między inteligencją naturalną i sztuczną czyli między umysłem i UMT (ewentualnie jakimiś projektami, które są względem UMT alternatywne).  Na etapie badań z roku 1938 Turing  próbuje znaleźć sposób myślenia o tym, co nieobliczalne, czyli nieosiągalne dla UMT.  Zdolność do takiego myślenia przejawia się,  w szczególności, w dostrzeżeniu prawdziwości zdania gödlowskiego.  Nazywa on tę zdolność wyrocznią (oracle), wyjaśniając, że jest to element niemechaniczny,  nie należący do UMT.  Jako wyjaśnienie natury psychologicznej,  jakby przekład idei wyroczni na pojęcia dotyczące umysłu,  pomocne w rozważaniach nad inteligencją, dobrze służy następująca wypowiedź Turinga z tejże pracy (cytowana za polskim przekładem książki Andrew Hodgesa: „Turing”,  wyd.Amber, 1997, s.34).

Rozumowanie matematyczne można uznać w uproszczeniu za połączenie dwóch zdolności, które możemy nazwać intuicją i pomysłowością.  Działanie intuicji polega na wydawaniu spontanicznych sądów, które nie są rezultatem świadomych toków rozumowania. Sądy te są często, ale bynajmniej nie zawsze, słuszne.

W tych zdaniach mamy podpowiedź, w jakich kierunkach rozwijać projekt SI, żeby osiągnąć zamierzone podobieństwo SI do inteligencji naturalnej; trzeba mianowicie, zaszczepić tej sztucznej intuicję oraz inwencję (pomysłowość)

Intuicja prowadząca do  zdania gödlowskiego dotyczy pojęcia dowodu sformalizowanego w logice predykatów. Jesteśmy intuicyjnie przekonani, że dowód taki prowadzi zawsze od zdań prawdziwych do prawdziwych, a więc cokolwiek jest wywiedzione z prawdziwych aksjomatów arytmetyki musi być też prawdą.  Mając tę przesłankę, rozumujemy, jak następuje: zdanie gödlowskie  (tj. stwierdzające własną niedowodliwość w arytmetyce) musi być prawdziwe. Bo gdyby nie, to byłoby dowodliwe z aksjomatów arytmetyki,  zatem prawdziwe.  A skoro z  założenia o  fałszywości wynika jego prawdziwość,  to jest ono prawdziwe.

Inny przykład intuicji zdolnej do rozwiązań nieosiągalnych dla UMT można napotkać w procedurach służących do sprawdzania,  czy interesująca nas formuła jest prawem, czyli tautologią, rachunku predykatów.  Istnieją formuły nie będące tautologiami, dla których owa procedura sprawdzania zapętla się w nieskończoność, ponieważ ich struktura generuje wciąż nowe formuły pochodne wymagające sprawdzenia. Są jednak  formuły, w których procedura się zapętla i generuje wciąż nowe  formuły wymagające sprawdzenia. Umysł ludzki szybko rozpoznaje regularność, według której dokonuje się zapętlanie i nabiera pewności,  że proces ten nigdy się nie skończy, z czego wnioskuje,  że dana formuła nie jest tautologią.  Maszyna natomiast nigdy nie zakończy pracy, będzie wciąż produkować nowe pętle .

* * *

Przejdźmy do drugiej z wymienionych przez Turinga cech umysłu, którym zawdzięcza on swą przewagę nad UMT.  Jest to cecha inwencji. Żeby pozbyć się w tym punkcie rysu zagadkowości,  można skorzystać  z dość dobrze już rozpoznanego mechanizmu ewolucji. Tą droga idzie Paweł Stacewicz (esej 8, odc. 3.1), proponując następujące rozwiązanie.

Postulowana na poziomie sterujących robotami programów wiedzo-twórcza ewolucja ma tę przewagę nad innymi metodami, że wprowadza do sztucznego robociego myślenia elementy inwencji. Dlaczego? Otóż, zgodnie z wyjaśnieniami w punkcie 2.1, opiera się ona na wyborach losowych – przypomnijmy, że w przypadku algorytmów genetycznych to los decyduje o mutacjach, krzyżówkach i przebiegu selekcji. Losowość zaś, a razem z nią nieprzewidywalność pomysłów, rozwiązań i decyzji, są cechami swoistymi ludzkiej inwencji.

Istotnie, pomysły są nieprzewidywalne. Według schematu ewolucyjnego, o selekcji decyduje środowisko: wygrywają osobniki lepiej przystosowane.  Co jest środowiskiem  selekcjonującym pomysły?  Droga do odpowiedzi została przetarta przez Karla Poppera, który był zdecydowanym ewolucjonistą w metodologii nauk. Dla teorii naukowych takim środowiskiem dla  konkurujących teorii są kryteria logiczne – wewnętrzna spójność teorii,  jej przewaga nad innymi teoriami pod względem informatywności,  to znaczy, pod względem  zasięgu  wyjaśniania  i przewidywania faktów oraz przewaga pod względem pomyślnie przebytych  prób obalenia.  W takie środowisko logiczne należałoby wyposażyć robota (prócz losowego generatora pomysłów), żeby dać mu szansę bycia kreatywnym.

Środowisko logiczne jako czynnik selekcyjny losowo generowanych prób rozwiązań jest częścią szerszego środowiska selekcyjnego, które zasługuje na miano aksjologicznego.   Znajduje tu zastosowanie tradycyjna trójca wartości. Środowisko logiczne reprezentuje prawdę, a nie mniej istotne kryteria selekcji pomysłów zawdzięczamy wartościom dobra i piękna. Gdy uczony pracuje nad jakimś problemem, może mu się nasuwać ileś rozwiązań ale nie wszystkie możliwe, bo tych może być niewyobrażalnie wiele. Przychodzi mu do głowy to, co jest wedle niego ważne, istotne, przydatne teoretycznie lub praktycznie, a są to oceny z kategorii dobra.  Wielkie też znaczenie w roli kryteriów selekcji grają u uczonych, zwłaszcza matematyków i fizyków,  wartości estetyczne, z kategorii piękna. Czy do tego, żeby weszły one do wyposażenia robota wystarczy,  że liczba połączeń między elementami kodującymi informację zrównała się z liczbą połączeń w mózgu?  Jeśli miałbym odpowiedzieć na to prywatnie, co wolno mi uczynić w blogu, to powiem, że moim zdaniem nie wystarczy. Publicznie tak odpowiedzieć miałbym prawo dopiero wtedy, gdybym miał na to intersubiektywne argumenty. A ja mam tylko subiektywne, biorące się z moich indywidualnych,  niepowtarzalnych  (jak u każdego  indywiduum) doświadczeń umysłowych; może mógłbym uczynić je intersubiektywnymi w jakimś wywiadzie  rzece, ale nie w paru akapitach. Kto zaś by twierdził przeciwnie  i swoje twierdzenie uważał za intersubiektywne, na nim spoczywa onus probandi czyli ciężar dowodzenia.

A skoro jesteśmy pogodzeni z istnieniem czegoś tak zagadkowego,  jak intuicja, czemu nie uznać za jej dzieło  także kryteriów aksjologicznych, które dostarczają naszym pomysłom selekcyjnego  środowiska ewolucji?  Nawet jeśli  tę kwestię pozostawimy na razie bez odpowiedzi definitywnie twierdzącej, a  przyjmiemy ją tylko w roli hipotezy  roboczej, posuwa ona naprzód debatę nad SI.  Na podstawie tej hipotezy trzeba by wyposażyć roboty w kryteria aksjologiczne, żeby umiały coś zrobić z bogactwem swych  pomysłów (powiedzmy, że generowanych losowo).  Kto by tego dokonał,  uczyniłby wielki krok w kierunku awansowania  robotów na istoty dorównujące bladawcom co do zdolności rozwiązywania problemów.

Zaszufladkowano do kategorii Światopogląd informatyczny | 3 komentarze

Pewnik piąty czyli kwintesencja informatyzmu

Gdyśmy rozpatrzyli cztery pewniki informatyzmu, osobno zajmiemy się piątym, wymagającym dłuższej dyskusji. Użyte w tytule słowo „kwintesencja” wiąże się z liczebnikiem „piąty”. Zbieżność to wprawdzie przypadkowa, ale korzystna dla podkreślenia doniosłości naszego pewnika. Piąty to po łacinie quintus, zaś quinta essentia to piąta substancja — według wierzeń starożytnych najcenniejsza, bo z niej są zbudowane dostojne ciała niebieskie, podczas gdy pospolite ziemskie składają się z czterech zwanych żywiołami (ziemia, woda, ogień, powietrze). Z czasem słowo „kwintesencja”, na prawach przenośni,  zaczęło oznaczać ujęcie jakiejś myśli w sposób szczególnie cenny, to jest, trafiający w istotę rzeczy, w sedno sprawy.

Takie jest też zadanie piątego spośród pewników. Ma on ująć syntetycznie kwintesencję światopoglądu informatycznego . Jest nią wizja procesu, w którym za sprawą informatyki dynamicznie wzrasta zdolność jednostek i społeczności do rozwiązywania coraz  większej liczby coraz  bardziej złożonych problemów.

Jeśli ktoś żywi przekonanie,  że istotnie zachodzi powyższe (wskazane kursywą) zjawisko, znaczy to, że należy do ezoterycznego (jak dotąd) grona posiadaczy światopoglądu informatycznego; pozwólmy sobie nazwać ich w skrócie informatystami (od „informatyzm”).  Spróbujmy ułatwić informatyście ekspresję tego przeświadczenia, czyniąc jego zapis możliwie jak najzwięźlejszym.  Trzeba w tym celu zdać sobie sprawę z czynników sprawczych owego wzrostu zdolności do rozwiązywania problemów. Wylicza je następująca lista.

  1. moc obliczeniowa sprzętu
  2. efektywność algorytmów i programów
  3. moc inferencyjna teorii
  4. inwencja badaczy i konstruktorów

Co znaczy pozycja 1 wie z doświadczenia każdy użytkownik komputera, który co jakiś czas kupuje sprzęt  nowszy,  z szybszym procesorem i pojemniejszą pamięcią. Dzięki takim wydatkom powiększa moc obliczeniową swego sprzętu (i w pewnym sensie własną,  jako posiadacza mocniejszego urządzenia).

Co do 2, trzeba to tak rozumieć, że z dwóch algorytmów efektywniejszy jest ten, który mniej wymaga zasobów,  jak czas, pamięć etc.,  do rozwiązania problemu o tym samym rozmiarze.

Pojęcie 3  jest uogólnieniem pojęcia mocy dedukcyjnej. To drugie odnosi się  tylko do teorii aksjomatycznych, posługujących się w dowodzeniu twierdzeń wyłącznie wnioskowaniem dedukcyjnym.  Mówimy o teorii,  że ma większą moc dedukcyjną niż jakaś inna, gdy jej aksjomaty i reguły pozwalają udowodnić wszystkie twierdzenia dowodliwe w tamtej  innej, a ponadto twierdzenia w tamtej niedowodliwe.  Np.  system arytmetyki z aksjomatem indukcji ma większą moc dedukcyjną niż system bez tego aksjomatu.  Gdy idzie o teorie empiryczne, posługujące się  prócz dedukcji innymi rodzajami wnioskowania,  czyli inferencji, porównujemy je co do mocy eksplanacyjnej  czyli zdolności wyjaśniania oraz co do mocy predyktywnej czyli zdolności przewidywania.  Stąd pojęcie mocy inferencyjnej stanowi sumę czyli alternatywę wyżej wymienionych:  jest to moc dedukcyjna lub moc właściwa teorii empirycznej  (tj. eksplanacyjna lub predyktywna).  Większa moc inferencyjna oznacza większą zdolność  rozwiązywania problemów,  tak w sensie ich złożoności,  jak w sensie wielości ich rodzajów.

Na pozycji 4 mamy czynnik, który jest sprawczy w stosunku do trzech poprzednich. Twórcza inwencja ludzi sprawia, że mamy komputery, algorytmy i programy oraz wiedzę naukową czyli teorie dedukcyjne i empiryczne.  Będąc sprawczym, podlega on zarazem oddziaływaniom ze strony swych wytworów.  Jest  to oddziaływanie wzmacniające, zachodzą tu więc dodatnie sprzężenia zwrotne.  I tak,   Istniejące już teorie umożliwiają twórcze konstruowanie nowych.  Gdyby nie było algorytmów rachowania, nie byłoby odkryć matematycznych,  jako że wymagają one żmudnych obliczeń. Bez komputerów i  programów nie doszłoby  do tych twórczych rozwiązań, którym zawdzięczamy loty kosmiczne,  poznanie ewolucji wszechświata czy rozszyfrowanie ludzkiego genomu.

Jakim wspólnym terminem, odpowiednim na nazwę  piątego pewnika, dałoby się objąć te wszystkie czynniki oraz ich wzajemne oddziaływania?  Przydawką obejmującą trzy pierwsze czynniki jest słowo „obliczeniowa”.  Dwa z nich należą do sfery obliczeń  już ze swej nazwy, a trzecim zaś wiemy, że logiczne operacje wnioskowania są też rodzajem obliczeń. Co do czynnika czwartego, nie wiemy dotąd, czy ma on charakter czysto obliczeniowy. Miałby, jeśliby twórczość była sterowana jakimś neuronowym algorytmem, ale czy tak jest, to jedno z wielkich pytań  informatyzmu. Jest jednak inny jeszcze tytuł do użycia tej przydawki. Skoro trzy rozważane tu produkty ludzkiej twórczości mają charakter obliczeniowy, to twórcza inwencja, która je powołuje do bytu zasługuje na określenie „obliczeniotwórcza” . Można to umownie skrócić do formy „obliczeniowa”, zupełnie tak samo,  jak w terminologii logicznej mówimy „funktor zdaniowy” zamiast „funktor zdaniotwórczy”.

Mając już przymiotnik, pora się zastanowić, co będzie określanym przezeń przymiotem.  Atrakcyjną kandydaturę stanowi termin „moc”, ale że szeroko się przyjęło wiązać go z mocą obliczeniową sprzętu,  kosztem tego rozwiązania byłaby wieloznaczność. Użyjmy zatem synonimu, ani trochę w tym kontekście nie zużytego — słowa „potencja”. Oznacza ono moc, a jednocześnie potencjalność, co harmonizuje z potencjalnością obdarzonego inwencją umysłu: ma on wszak moc powiększania swej mocy, jest więc potencjalnie jeszcze mocniejszy niż aktualnie.

Tę potencję obliczeniową tworzą cztery czynniki cechujące się wielką dynamiką wzrostu, a przy tym pozostające we wzajemnych sprzężeniach zwrotnych, co tę dynamikę  dalece wzmaga. O dwóch spośród nich wiemy,  jaki to jest typ dynamiki, mianowicie wzrost wykładniczy. Gdy idzie o sprzęt komputerowy, mówi o tym słynne prawo Moore’a: że jego moc obliczeniowa podwaja się się co 18-24 miesięcy.  Także wzrost mocy inferencyjnej nauki  można uważać za wykładniczy, choć tu oszacowanie jest tylko pośrednie i bardzo zgrubne. Tym mianowicie, co da się ująć statystycznie,  jest wiązka wskaźników,  mianowicie wzrost liczb: publikacji, tytułów czasopism naukowych,  pracowników nauki, instytucji akademickich etc.  Od  połowy wieku 17-go, co się pokrywa z czasowym początkiem nauki nowożytnej  (Newton, pierwsze akademie nauk etc.) ,  liczby te podwajają się co 7-10 lat.   To jeszcze nie jest wzrost mocy inferencyjnej, bo duża ilość publikacji jest (bądźmy szczerzy) bezwartościowa poznawczo, czyli że dla rozwiązywania realnych problemów wynika z nich niewiele lub nic, a to oznacza brak mocy inferencyjnej. Nie ma jednak powodu, by nie przyjąć, że odsetek publikacji wartościowych, czyli obdarzonych mocą inferencyjną,  jest w ich całej masie,  średnio biorąc, stały; a zatem prawo podwojenia w określonych przedziałach czasu zachowa swą ważność.

I tak dochodzimy do poskładania w całość kilku cząstkowych projektów terminologicznych.  Analizowany wyżej proces zasługuje na nazwę „dynamika wzrostu potencji obliczeniowej”. Można ją uprościć, przyjmując  jako domyślną oczywistość, że nie jest to jakaś dynamika regresu ani też zerowa (czyli stagnacja). Wtedy opuszczamy słowo „wzrostu” i dostajemy zwięzłą nazwę kolejnego pewnika informatyzmu: dynamika potencji obliczeniowej.

Czy nasz pewnik, czyli sąd, że istnieje taka dynamika, nie jest na tyle oczywisty,  że nie warto się trudzić nad jego formułowaniem i tworzeniem dlań nazwy?   Nie wydaje się, by nie było warto. Jeśli zważyć,   jak jest modne, zwłaszcza wśród intelektualistów, czarnowidztwo co do losów cywilizacji,  jak postmodernizm i  multikulturalizm z emfazą odmawiają wartości cywilizacji naukowej,  jak od czasów co najmniej Spenglera (tj. od stu lat) wieści się upadek cywilizacji zachodniej,  to pewnik dynamiki potencji obliczeniowej zaczyna się jawić jako pogląd odosobniony i ekscentryczny. Na szczęście, o jego wartości poznawczej nie decydują sondaże opinii publicznej.

 

Zaszufladkowano do kategorii Światopogląd informatyczny | Jeden komentarz

Cztery pewniki informatyzmu

Światopogląd informatyczny jest to odmiana światopoglądu naukowego, to znaczy powstałego z istotnym udziałem wiedzy naukowej. Odmiana ta cechuje epokę  informatyczną, która posiadła niewyobrażalnie wielkie moce obliczeniowe dzięki komputerom i  Sieci. Mieć tego rodzaju światopogląd  to znaczy rozumieć,  że decydujące dla rozwiązywania wszelkich problemów  jest posiadanie należytej informacji oraz odpowiedniej zdolności do jej przetwarzania, oraz rozumieć, od czego ta zdolność zależy i jak ona się ma do mocy obliczeniowej  komputera.

Na rozumienie sprawy składają się zarówno wiedza, w tym przyjmowane pewniki oraz ich logiczne konsekwencje,  jak też  uświadomiona niewiedza, czy wyrastające z danej wiedzy problemy do rozwiązania.   W obecnym szkicu omawiam  cztery pewniki światopoglądu informatycznego. Piątym, jako szczególnie ważnym, zajmuję się w szkicu następnym.

*  *  *

Światopogląd  informatyczny określam krócej jako informatyzm. Niejeden -izm rodzi się w głowie filozofa i dostaje nazwę od jego imienia (jak platonizm). Inne powstają w wyniku  anonimowych procesów społecznych i dopiero po  jakimś czasie zostają przez kogoś nazwane (jak chrystianizm).  Mamy tu do czynienia raczej z drugiego rodzaju przypadkiem; nazwa wisi niejako w powietrzu, ale potrzebny jest jakiś impuls, żeby weszła w użycie.

Prekursorem, którego światopogląd zasługuje na takie określenie jest Leibniz. Postrzegał  on świat jako wysoce uporządkowaną strukturę złożoną z układów przetwarzających informację, które nazywał divina automata, przetwarzanie zaś informacji utożsamiał z obliczaniem. Zaliczał do tej kategorii wszystkie indywidua (monady), a empirycznym jej istnienia świadectwem były dlań organizmy.  Jest to mocna postać informatyzmu. Czy można go przyjąć w tej postaci?  Nie  wydaje się, żeby  współczesna nauka była gotowa do odpowiedzi. Czy elektrony prące tuż po wielkim wybuchu, za sprawą grawitacji, do łączenia się z protonami w atomy wodoru, czyniły to pod wpływem zaprogramowanego wewnątrz impulsu,  jak to czyni pęd roślinny kierując się ku słońcu?  Tego nie wiemy.  Co do organizmów – zgoda; co do reszty, pozostaje wstrzymać się od sądu.

Informatyzm wychodzi od dwóch pojęć: pomiaru informacji oraz przetwarzania informacji. Skoro informację można mierzyć  i przetwarzać,  podobnie jak materię i energię, to jest ona czymś podobnie realnym, trzecią obok tamtych sferą rzeczywistości.  Co więcej, zachodzą między nimi takie realne relacje, jak ta, że informacja jest konieczna do przetwarzania materii (czego przykładem sterowana automatycznie obrabiarka), jak  i do przetwarzania energii (np. wiedza z termodynamiki jest niezbędna w budowie silników). Z drugiej zaś strony, przetwarzanie  informacji wymaga sprzętu i zasilania, czyli materii i energii. Tak pojęta realność informacji  to pierwszy  pewnik informatyzmu; nie jest on trywialny, skoro nie przez każdego filozofa jest akceptowany (odrzucał  go  zdecydowanie np. Tadeusz Kotarbiński).

Pomiar informacji sięga termodynamiki Ludwiga Boltzmanna (1844-1906),  gdzie informacja jest  pojmowana jako odwrotność stanu nieuporządkowania (entropii), a że porządek jest mniej prawdopodobny od nieporządku, informację traktuje się jako funkcję będącą odwrotnością prawdopodobieństwa, będącego czymś mierzalnym.  Adaptacja tej idei w technologii komunikacji (Claude Shannon) oraz w metodologii i filozofii nauki (Karl Popper) to kolejne etapy badań nad miarą informacji.

Przetwarzanie informacji, choć praktykowane przez żywą przyrodę i umysł ludzki odkąd one istnieją, stało się uświadomioną kategorią pojęciową wraz z pierwszą definicją komputera daną przez Alana Turinga w roku 1936. Ścisłą nauką o przetwarzaniu informacji jest logika od samych jej starożytnych początków, ale jest ona ograniczona do pewnego typu przekształceń, mianowicie takich, w którym prawdziwość jednych zdań udziela się innym na mocy pewnych reguł przetwarzania zdań.

Od  badań Alana Turinga (1936) pojmuje się przetwarzanie informacji  jako proces przekształcania ciągów symboli prowadzący do takiego ciągu, który wyraża rozwiązanie problemu, a dokonuje się pod kierunkiem algorytmu czyli bardzo precyzyjnych (tj. bez luk i bez odwoływania się do intuicji) instrukcji przekształcania symboli. Gdy taki algorytm jest realizowany przez urządzenie fizyczne, nazywa się programem. Że przetwarzanie informacji jest obliczaniem – to drugi pewnik informatyzmu.  Ten też nie jest trywialny.  Większość się pewnie zgodzi, że logiczne przetwarzanie informacji, czyli wnioskowanie,  jest obliczaniem. Ale już takie jej przetwarzanie,  jak przekład tekstu na inny język,  malowanie portretu, poszukiwanie jakichś danych w pamięci etc. raczej nie uchodzą za obliczenia. Dopiero na pewnym poziomie wiedzy informatycznej powstaje tego rodzaju świadomość, a ma ona ważkie konsekwencje praktyczne. Wskazuje bowiem, co czynić,  żeby przetwarzanie informacji móc powierzyć komputerom:  trzeba informację zakodować cyfrowo.

Nim doszło do odkrycia kolejnego pewnika, powszechny był w świecie nauki pogląd, że każdy problem obliczeniowy da się rozwiązać  na gruncie należycie kompletnego systemu arytmetyki, i że takie systemy  istnieją (standardem w tej mierze stała się arytmetyka Peano , tak nazwana od jej twórcy).  Kurt Gödel w 1931 i Alan Turing w 1936, a także inni badacze, wykazali, że  nie ma i być nie może tak kompletnego systemu arytmetyki liczb naturalnych, żeby dał się w nim rozwiązać algorytmicznie każdy bez wyjątku problem obliczeniowy; innymi słowy: w każdym stanie teorii arytmetycznej muszą w niej istnieć problemy nierozwiązywalne rachunkowo czyli za pomocą algorytmu.  Stało się więc rzeczą niewątpliwą istnienie w arytmetyce problemów nierozwiązywalnych algorytmicznie trzeci pewnik informatyzmu.

Kompletowanie w tym szkicu listy pewników informatyzmu  jest z natury rzeczy dość arbitralne. Kieruję się w nim doniosłością praktyczną tez awansowanych do rangi pewników,  takiej bowiem doniosłości oczekuje się od światopoglądu.  Mając pewnik trzeci stwierdzający ograniczoność metody algorytmicznej, a więc  ograniczoność komputerów, byłoby praktycznie mieć jeszcze taki, który wskazywałby drogę przezwyciężania tej ograniczoności, odpowiednio poszerzając zakres zastosowań komputera.  Pouczające są w tym względzie te momenty w historii nauki, gdy istniała już teoria empiryczna w fizyce, a szukano dla niej modelu w postaci  teorii matematycznej umożliwiającej rachunki; z niech powinno wynikać,  jakie dane pomiarowe byłyby dla danej teorii empirycznej testem jej poprawności. Póki takiego teorii nie ma w istniejącym repertuarze  matematyki,  nie da się przeprowadzić tego rodzaju testów.  Okazuje się, że geniusz matematyczny potrafi takie  środki rachunkowe stwarzać nawet na bardzo wygórowane potrzeby, np. mechaniki kwantowej (Heisenberg, Schrödinger).  Z taką praktyką badawczą zgodne są wyniki badań logicznych  Gödla (1931, 1936), których sens oddaje z grubsza pewnik czwarty: sukcesywna uzupełnialność aksjomatów i  metod (algorytmicznych) umożliwiająca rozwiązania nowych problemów. Sukcesywność oznacza, że nie da się raz na zawsze stworzyć systemu dającego środki  rozwiązywania wszelkich problemów, ale można system tak uzupełniać, żeby  każdorazowo mógł podołać pewnej klasie nowych problemów.

Kto zna i rozumie te pewniki oraz docenia ich doniosłość teoretyczną i praktyczną,  ten osiągnął pierwszy stopień wtajemniczenia w światopogląd informatyczny. Jest jeszcze drugi stopień, tym od pierwszego odmienny, że nie pewniki go stanowią, ale pytania i to tak trudne, że nie oczekujemy odpowiedzi w jakiejś przewidywalnej przyszłości. Tym nie mniej, trzeba te pytania dobrze zrozumieć, żeby doświadczyć zagadkowości świata. To doświadczenie jest nieodłączne od światopoglądu mieniącego się rozumnym, a takim mieni się informatyzm.

Na osobne rozważenie zasługuje fenomen dynamicznego wzrostu potencji obliczeniowej o czym traktuje pewnik piąty;  jest  on powiązany treściowo z czwartym (nie pretenduje się tu bowiem  do dedukcyjnej niezależności pewników), ale z racji heurystycznych wart jest potraktowania go osobno.

 

 

Zaszufladkowano do kategorii Światopogląd informatyczny | 11 komentarzy