Maszyny autonomiczne.
Co to znaczy i czy kiedykolwiek powstaną?

Niniejszy wpis kieruję przede wszystkim (choć nie tylko) do słuchaczy mojego wykładu „Elementy filozofii i metodologii informatyki” – który prowadzę na wydziale MiNI PW.  Chciałbym zachęcić osoby zainteresowane do dyskusji na tematy, którym częściowy przynajmniej wyraz daje tytuł wpisu. (Dodam w nawiasie, że dyskusja na żywo odbędzie się na najbliższych zajeciach).

Co to znaczy, że maszyna jest (mogłaby być) autonomiczna?
Co łączy hipotetyczną autonomię maszyn ze sztuczną inteligencją?
Czy w historii informatyki (zwłaszcza tej najnowszej) można odnaleźć trop wiodący ku maszynom autonomicznym?
Oto próbka pytań, wokół których mogłyby krążyć komentarze.

Punktem odniesienia dyskusji proponuję uczynić jeden z rozdziałów książki „Umysł-Komputer-Świat” , p.t. „Czy powstaną maszyny autonomiczne?”.
Na dobry początek przytaczam akapit otwierający ów rozdział (cały tekst stanie się dostępny po kliknięciu powyższego linku):

Zdrowy rozsądek podpowiada, że wszelkie maszyny – w tym informatyczne i skomputeryzowane – są, a także będą, tylko i wyłącznie narzędziami w ręku ludzi realizujących za ich pomocą własne cele.
Wyobraźnia  z kolei roztacza przed rozumem fantastyczne wizje maszyn autonomicznych, które byłyby w stanie konkurować ze swoimi pomysłodawcami i konstruktorami.
Który pogląd – ten ostrożniejszy, czy ten śmielszy – ma lepsze uzasadnienie w bieżących dokonaniach informatyki? I  co nas czeka w przyszłości?

Pozdrawiam i zachęcam do zabrania głosu – Paweł Stacewicz.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 33 komentarze

Aksjologiczne źródła autorytetu państwa:
obliczalność systemu, twórcza dynamika elit

Obecny wpis jest tylko zapowiedzią bardziej gruntownych refleksji wywołanych lekturą książki Anny Brożek „Teoria imperatywów i jej zastosowania” (Copernicus Center, Kraków 2012).   Inspiracja okazała się  tak duża,  że powstał materiał na kilka artykułów, a żeby nie obciążać czytelnika takim balastem,  jestem na etapie selekcji. Nim ją ukończę, chcę  podzielić się pewną intencją, co może uczyni zrozumialszymi moje przyszłe uwagi. Ich bowiem  ekscentryczność  (na tle typowej literatury filozoficznej) może okazać się przeszkodą w porozumieniu.

Ekscentryczność polega na tym że fundament aksjologii upatruję w dwóch pojęciach, które są zaczerpnięte z myśli Gödla i Turinga (żadną miarą  nie zaliczanych do koryfeuszy aksjologii),  dopełniając to myślami Maxa Webera i luminarzy ekonomicznej Szkoły Austriackiej – Ludviga von Misesa i Friedricha Hayeka.  Mój kłopot polega na tym,  że ci, co zażyli są z Gödlem mogli nie słyszeć o Weberze, i odwrotnie. Trzeba więc jednym tłumaczyć jedno, drugim drugie i jeszcze obie strony przekonać,  że takie łączenie nie jest od rzeczy. Od tego zaś jeszcze spory kawałek drogi do teorii imperatywów, których obowiązywalność Anna Brożek definiuje w kategoriach autorytetu deontycznego; tego typu autorytetem,  który jest wart najpilniejszej uwagi jest w moim przekonaniu instytucja państwa.

Wspomniane pojęcia fundamentalne to obliczalność oraz twórczość. Jak się mają Gödel i Turing  do obliczalności, to na ogół wiadomo.  Jak  się mają do twórczości, o tym rzadziej się wie, bo nie jest to termin techniczny definiowany  z cała precyzją, lecz środek wyrazu poza   dyskursem ściśle formalnym Turingowi coś się rzekło na ten temat przynajmniej raz (ale w ważnym kontekście), gdy powiedział, że  dowód matematyczny wymaga intuicji i pomysłowości; ujmijmy te cechy w pojęciu twórczości. A że dowód w wersji w pełni sformalizowanej staje się algorytmem,  nie byłoby takich algorytmów bez twórczej aktywności umysłu.  U Gödla wątek twórczości matematycznej pojawia się często np. w jego rozmowach z Hao Wangiem.

Choć dokładna definicja obliczalności pojawiła się dopiero u Turinga, pojęcie to w sposób intuicyjny obecne jest w matematyce od zawsze, i do niego nawiązał Max Weber u progu XX wieku w swej metodologii nauk społecznych, tak oto definiując racjonalne struktury i procesy społeczne: „Zrozumieć w sposób racjonalny możemy w najwyższym stopniu przede wszystkim te struktury sensu, których wzajemne stosunki mają matematyczny czy logiczny charakter„. Dopiero wtedy jesteśmy w stanie wyjaśniać zachowania irracjonalne, np. panikę na giełdzie, gdy się wie,  „jak przebiegałoby działanie, gdyby nie wpływały na nie irracjonalne afekty, a potem uwzględnić owe irracjonalne czynniki jako zakłócenia.”  Weber posuwał się nawet do opisywania w kategoriach algorytmu procedur administracyjnych i sądowniczych, o ile są one w pełni racjonalne. W  metodologii nauk społecznych Weber używa   terminu Brerechenbarkeit w jego dosłownym matematycznym sensie.

Tylko tak funkcjonującemu państwu oraz innym strukturom cywilizacyjnym wróżył Weber sukces, i  za ten rodzaj sukcesu w swej „Protestantische Ethik” gorąco apoteozował cywilizację zachodnią.  Takie państwo ma należyty wśród obywateli autorytet i posłuch dla swych dyrektyw. I tak, widać już związek problematyki obliczalności z kwestią obowiązywalnością norm (stanowiącą centralny temat „Teorii imperatywów”).

Co do twórczej dynamiki elit,  widać z tego, co wyżej się rzekło,  że tworzenie obliczalnych struktur (np.  banków centralnych umiejących panować nad rozgardiaszem rynków) wymaga też  twórczej wizji i rozmachu ze strony elit.  Autorytetem cieszą się ci przywódcy którzy mają wizję, jak prowadzić społeczeństwo ku coraz większej  (w sensie Webera) racjonalności,  w której mieści się  praworządność, wolność, dobrobyt.  Ma też swój rodzaj autorytetu elita uczonych, wynalazców, przedsiębiorców, artystów, która w demokratycznym państwie prawa cieszy się nieograniczoną przestrzenią wolności dla realizowania swych twórczych idei. 

Tylko w takim państwie,  w którym autorytet władzy (kontestowany przez anarchizm) łączy się  z pełnią wolności (negowaną przez totalitaryzm)  cywilizacja dochodzi do szczytu, urzeczywistniając te wartości, którym na imię  obliczalność i wolność.

Zaszufladkowano do kategorii Dialogi wokół recenzji, Etyka, Filozofia polityczna | Dodaj komentarz

Gödla-Chaitina wizja dynamiki wiedzy jako wiodący
nurt nowoczesnej epistemologii

Pytania do książki Marka Hetmańskiego Epistemologia informacji
pod kątem kontynuacji  omawianych przez nią badań

§1. Niniejszy wpis nawiązuje do dwóch recenzji tej książki mających się ukazać w „Wiadomościach Matematycznych”. Jest to mój tekst pt. „Na czym polega związek epistemologii z teorią informacji? Co do jego zrozumienia wnoszą Leibniz, Gödel i Popper?” oraz Pawła Stacewicza „Epistemologia informacji M.Hetmańskiego. Garść uwag polemicznych z punktu widzenia informatyka”.

Nawiązując do  trafnych, moim zdaniem, spostrzeżeń Pawła Stacewicza, że książka nie docenia  roli informatyki i że nie poświęca dość uwagi tak  podstawowym kwestiom epistemologii, jak źródła i granice poznania,  potraktuję te luki w treści w sposób kooperacyjny — jako będące do wypełnienia przez krytycznych dyskutantów. Są to niedopowiedzenia dające się zrozumieć, gdy książka ma  ogarniać  tak rozległy materiał.  Autor zamierzył  omówić w jednej monografii kilka ważnych pionierskich prób oparcia  epistemologii na nowych podstawach —  naukach o informacji. Epistemologia idzie w dobrym kierunku,  gdy przyswaja sobie idee tak  zakorzenione w osiągnięciach nauk matematycznych, przyrodniczych i technicznych,  jak to się udało pewnym pojęciom i wynikom teorio-informacyjnym.  Współtworzą one epistemologię nowoczesną, należącą do tego poglądu na świat,  który  w podtytule blogu nazywamy światopoglądem informatycznym.

Ten właściwy kierunek wskazuje i pomaga w jego rozumieniu książka prof. Hetmańskiego. A kiedy — mając do czynienia z tematem tak rozległym — coś ważnego studium to pomija lub nie zachowuje proporcji,  to od tego by obraz dopełniać czy korygować  jest krytyczna dyskusja z  walnym udziałem ripostującego Autora. Jej zagajeniu służy obecny wpis i  obie wymienione recenzje, wspomagające ten wpis szeregiem uwag bardziej szczegółowych.

§2. Czy  epistemologię informacji Autor zgodziłby się określić mianem  epistemologii teorioinformacyjnej?

Pierwszy  z tych terminów służy za tytuł całej książki,  co by wskazywało,  że ma on objąć wszystkie rozważane w niej koncepcje informacji pod kątem (to mój domysł) ich zastosowań epistemologicznych. Drugi termin funkcjonuje jako hasło w Indeksie terminów, gdzie jest odnoszony do jednej tylko z rozważanych koncepcji: G.Chaitina,  który kontynuuje wyniki matematyczne i zarazem myśl  filozoficzną Gödla, intensywnie przy tym nawiązując do Leibniza.

Wydaje mi się,  że byłoby zrozumialej, biorąc pod uwagę reguły nazwotwórstwa, ten drugi termin  pojmować szerzej;  to znaczy,  objąć nim (zgodnie z brzmieniem nazwy) jako rodzajem (łac. genus)  wszystkie rozważane teorie informacji. Myśl Chaitin dobrze by się zmieściła, jako jeden z gatunków (species),  pod określeniem: epistemologia  algorytmiczna,  ponieważ  Chaitin nazywa swą teorię algorytmiczną teorią informacji.  Dla pozostałych trzeba by stworzyć w takim drzewie klasyfikacyjnym inne nazwy gatunkowe, np.  „epistemologia teorio-entropijna” dla  takich koncepcji jak Shannona czy Wienera.

Propozycja, żeby koncepcję Chaitina nazwać algorytmiczną ma uzasadnienie w jej treści, dotyczy ona bowiem naczelnego problemu w podstawach  informatyki: efektywności algorytmów.   Mamy powody, by sądzić wraz z Gödlem, że źródłem algorytmów jest intuicja matematyczna; jej to bowiem zawdzięczamy niezbędne do ich konstrukcji aksjomaty arytmetyki, teorii mnogości etc.  oraz logiczne reguły wnioskowania.  Wiemy też od Gödla,  że żaden aktualnie posiadany zasób algorytmów nie wystarcza, by rozwiązać dowolny dobrze postawiony problem matematyczny.  Ta niemożność jest dwojaka:  istnieją problemy, które są (przy danym zasobie algorytmów) nie do rozwiązania. Istnieją też takie, które są rozwiązywalne w zasadzie, ale nie w praktyce, gdyż czas pracy algorytmu przekraczałby te zasoby czasowe, jakimi  realnie dysponujemy.

Jeśli jednak intuicja  dostarczy nowych aksjomatów, to  pewne problemy przedtem nierozwiązywalne dadzą się rozwiązać, a inne,  wymagające nieosiągalnych do tej pory  zasobów czasu, staną się łatwe do rozwiązania w czasie,  którym realnie dysponujemy.

Jest to stanowisko,  które Gödel określał mianem racjonalistycznego optymizmu. Porównajmy go z  epistemologicznym optymizmowi Davida Hilberta, który się wyraził w  jego słynnej sentencji: Wir müssen wissen, wir werden wissen.  Gödel podpisywał się pod tą wiarą,  inaczej jednak interpretując czas przyszły. Nie jako przyszły dokonany, kiedy w pewnym momencie posiadłoby się algorytmiczną metodę rozwiązywania wszelkich problemów, lecz jako czas przyszły ciągły (ang. continuous) — na tym polegający,  że zbiór problemów rozwiązywalnych będzie się wciąż powiększał, ale nigdy nie zostanie  w skończonym czasie wyczerpany, ponieważ, ponieważ świat obiektów matematycznych jest niewyczerpywalny.   Trzeba więc po gödlowsku sparafrazować maksymę Hilberta do postaci: musimy wiedzieć,  i będziemy wiedzieć coraz więcej i więcej, lecz nigdy nie dowiemy się wszystkiego.

§3.  Czy Autor uznaje przewagę epistemologii algorytmicznej Chaitina nad innym odmianami  epistemologii teorioinformacyjnej?

Pora zapytać Autora, nawiązując do obiekcji Pawła Stacewicza,  o dwie rzeczy. Po pierwsze, czy dostrzega on ów walor epistemologii  algorytmicznej, że w wielkim zakresie, mianowicie w sprawie poznania matematycznego,  odpowiada ona na trzy tradycyjne zagadnienia  epistemologiczne, to jest dotyczące źródeł,  kryteriów i granic poznania.

(1)  Źródło wiedzy matematycznej jest  w intelektualnej intuicji. Pojęcie intuicji nie do końca wyjaśnia źródła poznania, samo jest bowiem  w pewien sposób zagadkowe. Tacy autorzy jak Gödel czy Chaitin zdają  sobie z tego sprawę i traktują tę zagadkową zdolność umysłu jako rzecz do wyjaśnienia w dalszych badaniach.

(2) Spełnianie kryterium prawdziwości przypisuje ta epistemologia intuicjom, których owocem są efektywne, sprawdzające się w praktyce, algorytmy.

(3)  Wytycza  ten nurt epistemologii  granice poznania algorytmicznego, a zarazem możliwości ich przezwyciężania, przez co granica staje się ruchoma, z tendencją do przesuwania się  naprzód. Obrazowo to oddaje amerykański wyraz o dynamicznej  treści „frontier” w przeciwstawieniu do statycznego, ograniczającego, słowa”limit”. W tym sensie należy rozumieć zwrot dynamika wiedzy w tytule tego szkicu.

Po drugie,  jeśliby Autor „Epistemologii informacji” przyznał,  że Chaitinowska epistemologia algorytmiczna daje odpowiedzi (przynajmniej cząstkowe)  na podstawowe pytania epistemologiczne, , to zrodzą się z tego  kwestie następne. Jedna jest następująca: czy Autor się osobiście z tym  odpowiedziami zgadza czy nie, i jak uzasadnia swój pozytywny bądź negatywny stosunek?  Druga kwestia dotyczy innych niż  algorytmiczna odmian epistemologii teorioinformacyjnej, a więc tych, którym poświęca  wiele więcej miejsca (jednemu z nich aż 40 stron) niż koncepcji Chaitin (6 stron).  Czy jest tak,  że korzystając z pojęć i wyników takiej lub innej teorii informacji przyczyniają się  one do rozwiązania kluczowych kwestii epistemologicznych?  Należałoby na to odpowiedzieć biorąc kolejno pod lupę propozycje, których autorami są Shannon, Floridi, Dretske, Cackowski, Lubański.

Trzeba się liczyć z odpowiedzią, że nic takiego nie było zamiarem Autora.  To znaczy nie zamierzał on posłużyć się środkami teorii informacji dla postępu i modernizacji epistemologii, lecz omawiał je w innym celu.  Być może cel ten jest do odczytania w książce, a przeoczeniu tej deklaracji winna jest niestaranność czytelnika. Szkoda jednak, bu pozostał on ofiarą tej swojej niestaranności, pozostając w niewiedzy co do intencji Autora. Dlatego cenna by była jego w tym względzie pomoc w postaci zwięzłego wyjaśnienia, jakie są najważniejsze problemy, na które książka ma dać odpowiedź, i jakie to są odpowiedzi.

P.S. Poglądy Chaitina można poznać w stopniu wystarczającym na potrzeby obecnej dyskusji, czytając jego artykuł „Epistemology as Information Theory: From Leibniz to Omega”.   Ramy tego wpisu nie pozwalają na omówienie kluczowego w koncepcji Chaitina  pojęcia kompresji informacji. Sygnalizuję je tylko za pomocą jednego cytatu, zachęcając do zapoznania się z całością tego  frapującego i jasno napisanego tekstu.  Oto ów szczególnie znaczący cytat.

I think of a scientific theory as a binary computer program for calculating the observations. And you have a law of nature if there is compression, if the experimental data is compressed into a computer program that has a smaller number of bits that are in the data it explains. The greater the degree of compression, the better the law, the more you understand the data.

Zaszufladkowano do kategorii Dialogi wokół recenzji, Epistemologia i ontologia, Filozofia informatyki | 13 komentarzy

O światopoglądzie informatycznym
(część II: Pojęcia i niektóre tezy)

Niniejszy wpis ma charakter prowizoryczny. Zdecydowałem się go jednak umieścić ze względu na jutrzejszą prezentację i blogu, i światopoglądu informatycznego na zebraniu w PW.

Wpis ten stanowi kontynuację  już dyskutowanej pierwszej części cyklu „O światopoglądzie informatycznym”. Miałem zamiar zebrać w nim wszystkie ważniejsze tezy ŚPI, „nabudowane” na pewnych podstawowych (wywiedzonych z informatyki) pojęciach. Na razie jednak udało mi się opracować tylko część pojęciową, dotyczącą tez o umyśle i jego informatycznych modelach.

Oto główne punkty tekstu, którego całość można przeczytać tutaj.
(Zarówno niniejszy wpis, jak i sprzężony z nim tekst, zostaną niebawem przeredagowane)

*****

POJĘCIA I WYBRANE TEZY

1. Zdecydowana większość pojęć opisujących światopogląd informatyczny (ŚPI) wywodzi się z informatyki teoretycznej, w ramach której definiuje się je ściśle, w odniesieniu do konstrukcji matematyczno-inżynierskich (jak maszyna Turinga). Specyfika ŚPI polega jednak na maksymalnie szerokiej interpretacji tychże pojęć (np. w odniesieniu do umysłu rozumianego jako system do przetwarzania informacji).

2. Najważniejsze pojęcia informatyczne, które leżą u podstaw ŚPI, są powiązane ze sobą siatką następujących znaczeń:

a. System informatyczny jest pewnym automatem, który przetwarza dane w sposób algorytmiczny (czyli zaprogramowany).

b. Dane są to informacje zakodowane w sposób adekwatny do możliwości przetwarzającego je automatu (np. cyfrowo lub analogowo).
Krócej: dane są tworzywem systemów informatycznych.

c. Informatyczne kody mają moc sprawczą, co rozumie się tak, że odpowiednie sekwencje symboli kodowych powodują (ze względu na  konstrukcję automatu) odpowiednie akcje automatu.
Krócej: informatyczny kod jest kodem sterującym.

d. Algorytm jest to schemat operacji możliwych do wykonania przez pewną maszynę informatyczną: d1) uniwersalną maszynę Turinga UMT (algorytm rozumiany wąsko, choć najbardziej precyzyjnie); d2) jakąkolwiek maszynę (algorytm rozumiany szerzej).

e. Algorytmy – służące do rozwiązywania określonych klas problemów – mają różną złożoność (czasową i pamięciową), która jest miarą ich efektywności. Cechę złożoności przypisuje się również samym problemom: złożoność problemu P jest to złożoność najbardziej efektywnego (czyli najmniej złożonego) spośród wszystkich algorytmów rozwiązujących problem P.

f. Nawet w dziedzinie problemów jasno określonych (a tylko te są domeną informatyki) istnieją problemy algorytmicznie nierozwiązywalne:
f1) bezwzględnie – gdy nie istnieje (w sensie obiektywnym) algorytm rozwiązujący wszystkie szczególne przypadki danego problemu; lub
f2) praktycznie – gdy dla danego problemu nie istnieje algorytm o dostatecznie niskiej złożoności czasowej.
Problemy nierozwiązywalne bezwzględnie nazywa się nieobliczalnymi.

g. Zależnie od przyjętego modelu obliczeń/algorytmizacji (np. turingowskiego lub innego) mówi się o różnych rodzajach obliczalności (i nieobliczalności). Problemy rozwiązywalne za pomocą UMT nazywa się t-obliczalnymi, obliczalne za pomocą innego rodzaju maszyn: nt-obliczalnymi.

h. Moc obliczeniowa maszyny określonego typu (np. cyfrowej; typ maszyny zależy od przypisanego jej modelu obliczeń) jest to zakres  rozwiązywalnych przez nią problemów.

3. Typowa dla ŚPI szeroka interpretacja pojęć technicznych (zob. 2a do 2h), prowadzi do różnorodnych tez i pytań, które dotyczą umysłu i świata.
Stają się one sensowne (i zrozumiałe) pod warunkiem, że założymy wstępnie, iż: (a) umysł stanowi pewien system do przetwarzania informacji, (b) pewne fragmenty świata (lub nawet cały świat) mają określoną zawartość informacyjną –  warunkującą  ich strukturę i działanie.

4. Zgodnie z kolejnością założeń wymienionych w punkcie 3 w centrum ŚPI sytuuje się zagadka ludzkiego umysłu, który z jednej strony przypomina sztuczne systemy do przetwarzania danych (komputery), a z drugiej strony, ma nad nimi poznawczą (szerzej: życiową) przewagę.

5. Z ogólno-naukowego punktu widzenia najlepszy wgląd w zagadkę umysłu daje konstrukcja i analiza (naukowych) modeli umysłu.
Z węższego, tj. informatycznego, punktu widzenia (który jest istotą ŚPI) za najbardziej adekwatną strategię modelowania umysłu uznaje się strategię informatyczną –  zgodnie z nią umysł modeluje się jako taki czy inny system do przetwarzania danych (np. cyfrowy i logicystyczny zarazem).

6. Metodologiczna zaleta informatycznych modeli umysłu polega na tym, że opisują one dobrze bardzo ważną, jeśli nie najważniejszą, funkcję umysłu, jaką jest rozwiązywanie problemów (systemy informatyczne służą właśnie rozwiązywaniu odpowiednio kodowanych problemów).

7. Dzięki konstrukcjom i modelom informatycznym udało się uzyskać precyzyjną wiedzę o różnych poziomach (klasach) złożoności problemów, przed którym staje ludzki umysł (nierzadko wspomagany komputerem). Udało się także zidentyfikować problemy algorytmicznie nierozwiązywalne lub trudno-rozwiązywalne (zwane nieobliczalnymi; zob. pkt 2f).
7a. Istnienie problemów nieobliczalnych, a więc istnienie formalnych ograniczeń technik informatycznych, może skłaniać do  przyjęcia tezy o ponadmaszynowej mocy ludzkiego umysłu – który potrafi ograniczenia takie pokonywać, a przynajmniej identyfikować.

8. Z perspektywy rozważań o złożoności problemów stają się widoczne dwa, sprzężone ze sobą, zjawiska kulturowe: (a) złożoność problemów we współczesnym świecie ustawicznie rośnie; jednocześnie jednak (b) nieustannie wzrasta moc obliczeniowa systemów informatycznych (które wspomagają ludzi w rozwiązywaniu tychże problemów).

9. Rozumiejąc i/lub modelując umysł informatycznie, zakłada się w sposób konieczny, że wypełniające umysł informacje są w określony sposób kodowane. Przyjmuje się zatem istnienie wewnątrz-umysłowego kodu (WUK) – który podobnie jak kody dla maszyn informatycznych jest kodem sterującym, a ponadto może zostać (co najmniej w pewnym przybliżeniu) odzwierciedlony w liczbach.

*****

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | Dodaj komentarz

Szkic #2 z cyklu: „Europa — Kuźnia Oświecenia”
Projekty pokoju: Niemcy-Francja i Niemcy-Polska

Poświęćmy chwilę uwagi wystąpieniu Bronisława Komorowskiego w ramach „Berliner Rede”,  17 czerwca 2011.  Nie sama data decyduje o jego aktualności, ale fakt, że myśli w nim zawarte są podstawą aktualnej strategii politycznej urzędującego Prezydenta.  Adresowana do audytorium niemieckiego, mowa ta dotyczy historycznego zwrotu w stosunkach polsko-niemieckich, który stał się możliwy dzięki odzyskaniu suwerenności przez Polskę i dokonaniu się zjednoczenia Niemiec oraz, oczywiście, dzięki silnej woli politycznej obu stron.  Rozważmy następujący fragment, szczególnie doniosły dla edukacji politycznej, zasługujący więc na to,  żeby wzmocnić jego wymowę glossą treści historycznej.

Proces pojednania przyśpieszył gdy Polacy i Niemcy odzyskali prawo do samostanowienia.  To jest warunek — pojednanie może się dokonywać w pełni wtedy, gdy jest demokratyczne otoczenie.  Wkrótce po pokojowej rewolucji 12 listopada 1989 roku pierwszy polski niekomunistyczny premier Tadeusz Mazowiecki spotkał się z kanclerzem Niemiec Helmutem Kohlem na mszy pojednania w Krzyżowej.  Przekazali sobie znak pokoju – symboliczny gest, który otworzył nowy rozdział w stosunkach polsko-niemieckich.  Jest to upamiętnione w Krzyżowej także przez drugi pomnik.  Pomnik przypominający istnienie i obalenie muru berlińskiego.  To drugie po niemiecko-francuskim pojednaniu najważniejsze wydarzenie — pojednanie polsko-niemieckie — w najnowszej historii Europy otworzyło drogę do poszerzenia procesu jednoczenia Europy.  Nie ma bowiem integracji europejskiej bez pojednania narodów.  Takie jest polskie doświadczenie, takie jest doświadczenie niemieckie i wielu innych narodów naszej Europy.

Impulsem dla obecnych rozważań jest zdanie wyróżnione przeze mnie kolorem.  Żeby  doniosłość jego docenić, trzeba przebiec myślą przeszło tysiąc lat historii, poczynając od Karola Wielkiego

1.Tysiącletnia rywalizacja niemiecko-francuska
jako dominanta dziejów Europy

Dzieje średniowiecznej Europy zostały ukształtowane przez syntezę dwóch idei: mesjańskiej idei Królestwa Bożego,  konstytuującej istotę chrześcijaństwa, oraz żywej pamięci o świetności i potędze  upadłego cesarstwa zachodnio rzymskiego.  Doskonale zdawały się  tu dopełniać  Pax Christi i Pax Romana. Ideał ewangeliczny miał być wprowadzany w życie realistycznie, a więc gdy trzeba to ostrym jak rzymski mieczem.

W tym duchu działał Karol Wielki przybrawszy tytuł Imperator Romanorum, z myślą o przywrócenie w Europie dawnej świetności Rzymu. Tym razem pod egidą chrześcijaństwa i w sojuszu z papiestwem. To pozwalało wierzyć, iż zamiar się urzeczywistni – dla dobra ludzi doczesnego i wiecznego –  z niezawodną pomocą Opatrzności.

Gdy stworzone przez Karola rozległe państwo rozpadło się po jego śmierci    na części wschodnią i zachodnią,  przez wieki nie było w centrum Europy ważniejszego problemu, jak ten, która z owych części jest prawym dziedzicem imperium rzymskiego, a jej władca rzymskim imperatorem. Wygrała strona wschodnia, niemiecka. przegrała zachodnia, francuska. Ta druga więc nie ustawała  w próbach rewanżu, aż zwycięski Napoleon — w tysiąc lat po dacie koronacji Karola –wymusił na niemieckim dziedzicu tytułu jego zrzeczenie się na zawsze.

To jednak nie zakończyło zaciętej  francusko-niemieckiej rywalizacji.  Skończył się tylko sztafaż ideologiczny, silnie podbudowany frazeologią religijną, bo  to z woli Boga — potwierdzanej koronacjami przez papieży (Niemcy wymuszali je z reguły siłą)  miał władca Rzeszy być zwierzchnikiem całej chrześcijańskiej Europy.  Realnym napędem wrogości były narastające z wiekami rachunki krzywd wzajem sobie wystawiane przez oba narody. Każda klęska zadana jednemu i odczuwane po niej poniżenie były paliwem dla woli odwetu, a gdy ten się  udał, wtedy po drugiej stronie powstawała jeszcze silniejsza potrzeba odegrania się na wrogu.

Ta złowroga cykliczność pojawia się  z zadziwiająca regularnością. Jeśli ją obserwować od czasów Ludwika XIV, to mamy najpierw jego wielką inwazję na Rzeszę i Niderlandy, którą odparto po zaciętych walkach  z walną pomocą posiłków angielskich. W sto lat potem, z rewanżem za tamtą przegraną wyprawia się pełna zapału rewolucyjna armia francuska. Jej podboje z porażającą skutecznością kontynuuje Napoleon, gromiąc na kolejnych polach bitew Prusaków i Austriaków. Ci z rosyjską pomocą biorą rewanż pod Lipskiem, a potem, jeszcze wsparci przez Anglię — pod Waterloo.

Kiedy za Napoleona III Francja znów się ubiera w splendor cesarstwa,  urosłe w siłę Prusy dają do zrozumienia, kto się bardziej w Europie  liczy, docierając zbrojnym zagonem do Paryża.  Francuzom tak się marzy pomszczenie tamtej klęski, że z niesamowitym entuzjazmem oddziały francuskie wyruszą na wojnę roku 1914.   Wojnę Francja wygrywa, ale powodów do dumy jest o tyle mniej, że się nie obeszło bez  militarnej pomocy Ameryki, a straty ludzkie są tak straszliwe, że pozostaje po nich trauma jak po klęsce.  Nie gaśnie więc wola odwetu i realizuje się  w karnym nałożeniu na Niemcy kolosalnych ciężarów ekonomicznych,  które do cna rujnują i tak już zdewastowaną przez wojnę gospodarkę. Mają więc Niemcy drugi powód do odwetu, prócz gorzkiego doświadczenia   klęski militarnej, co stwarza wymarzony grunt dla puczu Hitlera i jego odwetowej agitacji.

W drugiej wojnie światowej zwycięska w jej początkach Trzecia Rzesza bierze rewanż, upokarzając pokonanego wroga  nie tylko przez okupację. Także przez symboliczny akt podpisania kapitulacji dokładnie w tym samy miejscu,  nawet w tym samym pomieszczeniu, w którym sztab niemiecki kapitulował w roku 1918.

2.  Historyczny zwrot i jego motywacja humanistyczno-chrześcijańska

Wnioskując z tysiącletniej praktyki, należało oczekiwać, że  tym razem Francuzi, dołączywszy mimo początkowej klęski do grona zwycięzców,  motywowani więc do odwetu podwójnie, przez pierwotne upokorzenie i późniejszą siłę, będą nieodparcie przeć do likwidacji Niemiec jako siły politycznej w Europie. Nareszcie, po tysiącu lat zmagań na tej arenie!

Dlaczego stało się tak bardzo inaczej? Dlaczego Francja tak walnie się przyczyniła do odrodzenia siły politycznej Niemiec? Nie tylko ona była tego procesu aktorem,  wybuch zimnej wojny z ZSRR skłaniał także mocarstwa anglosaskie do liczenia na gospodarczy i militarny wkład Niemiec w zapobieżenie sowieckiej agresji, a to pociągało odzyskanie przez nie suwerenności. Ale pełny sukces tych planów byłby nierealny, gdyby nadal płonął konflikt francusko-niemiecki.

Jakim sposobem  tak skutecznie został wygaszony? Stała się rzecz zaskakująca dla znawców europejskiej historii.  Oto doktryna chrześcijańska, która przez wieki była źródłem podziałów, zarzewiem wojen i czystek  religijnych, natchnęła kilku francuskich i niemieckich mężów stanu do przebaczenia, pojednania i sojuszu. Zgodnie z duchem ewangelii, ale wbrew permanentnej praktyce społeczności chrześcijańskich, wbrew polityce wielce chrześcijańskiego  Ludwika XIV i kardynała Richelieu, wbrew też polityce arcychrześcijańskich cesarzy Rzeszy Niemieckiej. Toteż szukając tytułu dla tego odcinka,   zmodyfikowałem przydawkę „chrześcijańska” słowem „humanistyczno”, dla odróżnienia tej twórczej wersji chrześcijaństwa od jego wersji destruktywnej.

Jest to fenomen tak zdumiewający i zarazem tak złożony, że aby zdać zeń sprawę i przeprowadzić owocną na jego temat refleksję, trzeba by osobnej opowieści.  Tu niech wystarczy przypomnienie, że z tej humanistyczno-chrześcijańskiej idei,  fortunnie zespolonej z pragmatyzmem polityczno-ekonomicznym, zrodził się byt polityczny, który po kilku transformacjach stał się dzisiejszą Unią Europejską (wchodzące tu w grę szczegóły znaleźć można w Wikipedii, artykuł „Ojcowie integracji europejskiej”). Tak więc pojednanie francusko-niemieckie po drugiej wojnie światowej, choć nie jest całym fundamentem UE, jest wmurowanym jakby w ten fundament kamieniem węgielnym.

3. Jak się rysuje na tym tle
europejski aspekt pojednania polsko-niemieckiego?

Pytaniem tym nawiązuję do cytowanej na wstępie wypowiedzi  Bronisława Komorowskiego.  Przytoczę ją jeszcze raz. „To drugie po niemiecko-francuskim pojednaniu najważniejsze wydarzenie — pojednanie polsko-niemieckie — w najnowszej historii Europy otworzyło drogę do poszerzenia procesu jednoczenia Europy”.

Trudno jest robić ranking ważności historycznych  zdarzeń. Pewne  jest, że pojednanie polsko-niemieckie należy do zdarzeń doniosłych w powojennych dziejach Europy. Na ile mamy tu analogię do ważności pojednania Francuzów i Niemców?  Niewątpliwa  analogia jest w tym, że  jedno i drugie pojednanie kończy konflikty wynikające z roszczeń terytorialnych i z pamięci krzywd.  Miała też pewne znaczenie, podobnie jak w przypadku francusko-niemieckim, chrześcijańska idea wybaczania krzywd, która się pojawiła w kontaktach między kościołami Polski i Niemiec.

I jeszcze aspekt europejski.  Zbliżenie polsko-niemieckie,  choć nie nie tak fundamentalne dla zjednoczenia Europy,  jak w przypadku francuskim, było jednak do tego celu konieczne. Wiadomo, że czasem bez jednego, drobnego nawet,  elementu mechanizm nie zaskoczy; o takim  elemencie powiemy, że jest nieodzowny, choćby nie był podstawowy.  Ta konstatacja wprowadza nas w nowy  temat: na czym owa nieodzowność polega? A za nim idzie kolejna kwestia: co różni przypadek polski od francuskiego? I jakie z tych różnic płyną wnioski dla obecnych i przyszłych relacji Polski z Niemcami, innych przecież niż stosunki francusko-niemieckie?  To temat do osobnego zastanowienia w swoim czasie.

Zaszufladkowano do kategorii Europeizm (Europeanism), Filozofia polityczna, Światopogląd liberalny, Światopogląd racjonalistyczny | Dodaj komentarz

Konstansy prawa naturalnego
a historyczna zmienność warunków społecznych

Kontynuuję rozważania o prawie naturalnym, nawiązując do wczorajszego w tej materii wpisu.

§1. Zająłem się tym tematem, poniechawszy na chwilę dociekań z zakresu światopoglądu informatycznego, ponieważ widzę w tym potrzebę natury obywatelskiej. Nastał w naszym kraju czas, gdy wpływowe grupy opiniotwórcze prowadzą ofensywę na rzecz uwzględniania norm prawa naturalnego w stanowieniu prawa państwowego. Jest to postulat głęboko słuszny, ale zarazem niebezpieczny, gdy głosiciele takich postulatów nie mają tych zagadnień dobrze w głowie poukładanych.  Jeśliby uznało się np.  za normę prawa natury, że mąż jest zwierzchnikiem żony, bo tak było od wieków, a przy tym tak głosił Arystoteles (od którego idea prawa naturalnego się wywodzi), to byłaby zasadna np. ustawa zabraniająca kobiecie robienia prawa jazdy  bez zgody męża. Nie jest to przykład fikcyjny, skoro  prawa niektórych państw islamskich są  stanowione w tym duchu, a przesłanką  wziętą rzekomo z prawa naturalnego jest mniejsza zdolność kobiety do podejmowania decyzji (jak głosił Arystoteles,  wychodząc z ówczesnych poglądów biologicznych).

Remedium przeciw takim nonsensom jest proponowane przez Tomasza z Akwinu rozróżnienie (odnotowane w poprzednim wpisie) między normami prawa natury, które są absolutnie  uniwersalne  oraz normami, które się dostosowuje do zmiennych historycznie warunków czasu i miejsca.  Te pierwsze nazwę konstansami  prawa naturalnego.

Drugie ze wspomnianych są to normy wtórne logicznie względem konstansów. To znaczy,  konstansy są ich przesłankami, ale nie jedynymi, podczas gdy drugi zestaw przesłanek tworzą sądy o treści historycznej, dotyczące warunków społecznych określonego czasu. Tak widział  strukturę systemu norm Tomasz z Akwinu,  wychodząc z koncepcji metodologicznych,  które wykłada na początku swego opus magnum –„Summa Theologica”.

Weźmy za przykład konstansu to, że w  grupie społecznej — na odpowiednio wysokim poziomie złożoności — konieczna jest władza,  której należy się podporządkować. Aby jednak dokonać racjonalnego wyboru formy władzy, trzeba mieć na uwadze warunki czasu i miejsca. Te w pewnych czasach przemawiały za ustrojem monarchicznym, w innych za republikańskim. Przykład z monarchią jest pouczający, bo przez długi czas niektóre doktryny kościelne zawierały tezę,  że tylko władza monarchiczna jest po wsze czasy wymogiem prawa naturalnego. Mamy tu więc przypadek pomylenia konstansu z normą wtórną.

§2. Odpowiedzialne przeto argumentowania z prawa naturalnego wymaga ustalenia listy konstansów.  Gdy powstanie  spór, czy jakiś projekt ustawy jest zgodny z prawem natury, niech strony przedstawią każda swoją listę konstansów. Może się czasem okazać, że te listy są zgodne, a spór się bierze z odmiennych diagnoz społecznych, które wespół z konstansami służą do wyprowadzania norm wtórnych.  Wtedy zyskujemy mocniejszy grunt pod nogami, bo o takich diagnozach można dyskutować na gruncie empirycznym, gdy się dokona stosownej operacjonalizacji pojęć.

Żeby dać bodaj cząstkowe wyjaśnienie pojęcia konstansów,  przedstawiam tu ich kilka na prawach przykładu, nie dążąc do kompletności.

A.  Jest dla człowieka naturalna  (w sensie należenia do prawa natury) skłonność do działania w sposób rozumny (ad agendam secundum rationem — Tomasz a Akwinu, S.Th. 1-a II-ae,  q.94,  a.4) — B.  Czyń innym to, co chcesz,  żeby tobie czynili, a nie czyń czego, czego byś nie chciał, by czyniono Tobie (ibidem: maksyma ewangeliczna zaliczona do konstansów  przez Tomasza).  — C.  Postępuj  zgodnie z własnym sumieniem, pomimo świadomości,  że może być ono błędne,  dopóki błędu w nim nie dostrzegasz (także teza Tomasza). — D.  Postępuj według takich norm, co do których uważasz, że powinny być prawem powszechnym (Immanuel Kant).  — E.  Gdy trzeba wybierać między opcjami,  z których  wszystkie są złe moralnie, nie zwalniaj się od dokonania wyboru, lecz  wybieraj najmniejsze zło (ten  punkt dodaję od siebie, bez powoływania się na klasyków, będąc gotów bronić go w dyskusji).

§3.  Sięgając po przykłady do kwestii ról społecznych płci,  załóżmy, że jest konstansem, iż funkcje publiczne powinni sprawować ludzie odpowiednio do tego uzdolnieni.  Żeby dostać wniosek — jako normę wtórną prawa naturalnego — że takich funkcji nie powinny sprawować  kobiety,  trzeba obronić przesłankę,  że są one do tego mniej uzdolnione (tak można by argumentować przeciw ustawie o parytecie dla kobiet w kandydowaniu do parlamentu etc).  Następnym krokiem powinna być operacjonalizacja pojęcia „być zdolnym do funkcji publicznych”, a wreszcie przedstawienie dowodów empirycznych (np. ze skanowania mózgu,  o ile technika skanowania osiągnie odpowiedni poziom diagnostyczności).

Biorąc przykład bardziej emocjonujący,  czy liczba płci jest większa od dwóch, trzeba się zdecydować, ile będziemy w argumentacji czerpać z biologii,  tj. z  generalizacji zoologicznych, a  ile z doświadczenia historycznego (np. starożytnych Aten) itd.  Biologia może być ryzykowna dla antypluralistów, bo mrówki i pszczoły mają po trzy płcie, związane ze  strukturą społeczną.  Doświadczenie zaś  historyczno powinno dostarczyć materiału do korelacji cech,  np. na ile homoseksualność mężczyzn koreluje się ze zniewieściałością, albo z osłabieniem potencji intelektualnej.

Na koniec, temat szczególnie trudny poznawczo, ale raczej nie do uniknięcia: jakie zmiany w układzie relacji między płciami może przynieść zawrotny postęp w technikach biologicznych i informatycznych? Np. jeśli prawdą jest pogląd o mózgowym uwarunkowaniu  różnic między zdolnościami mężczyzn i kobiet, może to przestać być aktualne po upowszechnieniu się nanotechnologii z jej nieograniczonymi możliwościami ulepszania organizmów,  a więc wyrównywania braków, także w sferze neuronowej. Rozumiem, że wielu ludzi (w tym i ja sam) woli nie myśleć o takim ,,Nowym Wspaniałym Świecie”,  bo byłoby bardzo trudno w nim się nie pogubić, ale chowanie głowy w piasek  niczego nie zmieni. A jeśli ktoś ma obowiązek o tym myśleć, to filozofowie, teologowie (jak daleko wolno posuwać się człowiekowi w przekształcaniu przyrody?), a także politycy, jeśli mają horyzont dalekowzrocznych mężów stanu.

Jak widać z tych paru przykładów, specjaliści od „Gender Studies” powinni mieć pełne ręce pracy nad ważnymi i trudnymi tematami, które wymagają biegłości w paru niełatwych dyscyplinach, jak biologia, historia idei i obyczajów, czy — niosąca przełom technologiczny i społeczny — informatyka.  Ile z tego się dzieje w różnych na  świecie ośrodkach badań „genderowych”, to sprawa warta zbadania. Jeśli udałoby się sporządzić taką mapę, łatwiej byłoby odróżnić rzetelne godne uwagi badania od uprawiania modnych nonsensów. Te drugie rzucają się w oczy za sprawą publicystycznego wigoru spierających się stron, przesłaniając zagadnienia naprawdę istotne.

 

Zaszufladkowano do kategorii Etyka, Filozofia polityczna, Światopogląd racjonalistyczny | 4 komentarze

Studia nad społecznymi aspektami płci w świetle idei prawa natury u św.Tomasza i Adama Smitha

§1. Jak wichura zaczęła się nad Polską kłębić burzliwa dyskusja wokół „Gender Studies”. To znaczy — badań nad czynnikami, które warunkują społeczne role, zadania i odpowiedzialność kobiet i mężczyzn. Stanowisko w tej materii radykalnie  konserwatywne powołuje się na prawo naturalne jako determinujące  status społeczny każdej z płci.  Podobnie, argumentuje się z prawa naturalnego w sporze o moralną dopuszczalność antykoncepcji — sprawy pośrednio związanej z problemem aktywności zawodowej  kobiet.

Ponieważ do moich hobby zaliczam problematykę prawa natury, którą zdarzało mi się też wykładać prawnikom w UW ( kurs  filozofii prawa),  myślę że nie powinienem w tym sporze stać z boku.  Jednym z bohaterów tamtych wykładów był Tomasz z Akwinu,  zasługujący w pełni na to wyróżnienie z powodów obiektywnych, ale nie brakło też motywacji subiektywnej, jako że poświęciłem mu rozprawę doktorską w KUL na temat relacji między jego metodologią nauk a metodologią współczesną. Miałem też w tematyce tomistycznej znakomitego mistrza Profesora Stefana Swieżawskiego, a ponadto zdarzyło mi się prowadzić wykład „Wprowadzenie do Sumy Teologicznej Tomasza z Akwinu”.

Co do Adama Smitha, jest to hobby nabyte później, ale nie mniej silne. Zainteresowania jego ekonomią doprowadziło  mnie do kwestii jego znaczącego udziału w koncepcjach prawa naturalnego i ewolucji  kulturowej, jakie snuli z rozmachem szkoccy luminarze ery Oświecenia.

§.2.  Postanowiłem więc napisać coś w rodzaju rozprawki, by tak rzec, erudycyjno-polemicznej,  żeby podzielić się wiedzą z tymi obrońcami prawa naturalnego,  którzy nie mieli podobnej sposobności wejścia w temat; a zarazem próbować przekonać do idei prawa naturalnego tych, którzy nie do końca są do niej przekonani.   Rozprawka ukaże się niebawem w materiałach Lectorium Cafe Aleph (do czego dam link w stosownym czasie), a na razie czynię w tej kwestii zapowiedź, która sama w sobie może się przydać jako zagajenie i zachęta do dyskusji.

Chcę uświadomić fakt bardzo znaczący,  że Tomasz w mistrzowski sposób odróżniał podstawową i niezmienną część prawa naturalnego od jej części zmiennej, zależnej od historycznych  okoliczności czasu i miejsca. Za naczelny wśród niezmiennych aksjomat wskazał normę: Postępuj zawsze w sposób racjonalny.  Daje to szerokie możliwości interpretacyjne, na czym racjonalność polega, a więc nawet tę część niezmienną cechuje elastyczność. Jeszcze bardziej elastyczny jest dział relatywizowany do okoliczności historycznych.

I tak np., według Tomasza, w pewnych okolicznościach słuszne będzie istnienie własności prywatnej, a w innych jej uspołecznienie.  Jedno i drugie może się powoływać na prawo naturalne jako przesłankę, lecz przesłankę wymagająca dopełnienia przez inną, określająca stan społeczeństwa, w którym obowiązywałby płynący z obu wniosek.

Tomasz, będąc tak uwrażliwionym na zmiany historyczne, nie próbował jednak wskazać na kierunek tych zmian, ani na rządzące nimi prawidłowości,  a więc wykres ewolucji cywilizacyjnej czyli (w innym słownictwie)  kulturowej.  Na to brakowało jego epoce wiedzy historycznej, geograficznej, socjologicznej.  Po pięciu jednak wiekach, pod koniec osiemnastego stulecia, było tej wiedzy na tyle,  że dało się naszkicować  przekonujący schemat ewolucyjny.  Czas dopisał ciąg dalszy: niebawem nastała rewolucja przemysłowa,  a w wiek potem informatyczna. Mamy więc dziś sporo  danych, żeby prognozować dalsze kierunki ewolucji i na te czasy dookreślać reguły prawa naturalnego, a wśród nich reguły relacji i ról płci.

§3.  Na pełną dokumentacje tych idei będzie miejsce w zapowiedzianej „rozprawce”.  Ale żeby wstępnie je wyposażyć  w pewien certyfikat wiarogodności, podaję garść danych o źródłach. Dla omawianych idei Tomasza podstawowy jest rozdział  Sumy Teologicznej (dział pierwszy części drugiej) zatytułowany „De lege naturali”, a w nim w szczególności artykuły IV i V, ten drugi zatytułowany „Utrum lex naturae mutari possit” (Czy prawo natury może się zmieniać).

Wiedzę na temat ewolucji kulturowej wg  Adama Smitha oraz  jego znakomitych mistrzów i kolegów można zaczerpnąć z barwnej opowieści Arthura Hermana „The Scottish Enlightenment. The Scots’ Invention of Modern World” 2001 ( i wydania następne), gdzie znajdują się też liczne wskazówki do dalszych lektur.

Co do wiążącej definicji „Gender Studies”, a więc najbardziej wiarogodnej klasyki tego problemu, na czele listy mamy definicję WHO (Światowej Organizacji Zdrowia).  Oto ona.

World Health Organization: The word gender is used to describe the characteristics, roles and responsibilities of women and men, boys and girls, which are socially constructed. Gender is related to how we are perceived and expected to think and act as women and men because of the way society is organized, not because of our biological differences.

Szukaj przez Google’a pod hasłem: „Definitions of Gender. World Health Organization”

W sprawie socjologicznej definicji płci istnieją, być może, teksty zabarwione jakimś fanatyzmem ideologicznym.  Takich nie napotkałem, domyślam się ich tylko na tej podstawie, że badaniom pod nazwą „Gender Studies” niektórzy ludzie przypisują  bardzo dziwne właściwości, jak gdyby ich autorzy za  cel mieli deprawację seksualną społeczeństwa.  Jeśli ktoś znajdzie taki tekst autorstwa jakiegoś zdeklarowanego obrońcy i szerzyciela „Gender”, pozyska moją wdzięczność, o ile  w komentarzu do niniejszego wpisu zacytuje ów tekst z podaniem źródła. To by nam wzbogaciło dokumentację, z pożytkiem dla wszystkich, których ta sprawa zajmuje z takich czy innych pozycji.  Czekam więc na tego rodzaju, a także wszelkich innych rodzajów, komentarze.

Zaszufladkowano do kategorii Etyka, Filozofia polityczna, Światopogląd racjonalistyczny | Dodaj komentarz

Jak mają się do siebie wzajem
obliczanie i przetwarzanie informacji?

Niniejszy wpis podejmuje dyskusję z kluczową tezą książki dra Marcina Miłkowskiego „Explaining the Computational Mind” (the MIT Press 2013), do której odnoszę się dalej skrótem ECM, rzeczoną zaś tezę określam skrótowo jako KRM — Kluczowa Równoważność Miłkowskiego.

KRM.  Proponuję, żeby pojęcia przetwarzania informacji i obliczania traktować jako zamienne.  Dzięki temu wszelkie wypowiedzi dotyczące przetwarzania informacji można będzie przekładać na precyzyjne terminy obliczeniowe.

Jest to przekład następującego tekstu kończącego rozdział 1 (str.24).
I propose that the notions of computation and information processing be used interchangeably. This will allow us to translate all talk of information processing into clear computational terms.

Jako czytelnik ECM starałem się tę tezę dobrze zrozumieć, dostrzegając jej podstawową w książce rolę. Z tych prób zrozumienia zrodziły się następujące pytania, które odróżniam numerami poprzedzanymi znakiem §.

§1.  Czy zgodne jest z intencją Autora rozumienie terminu „zamiennie” jako wskazującego na stosunek równozakresowości (a nie np.  równoznaczności)?

§2.1.   Jeśli tak, to skąd wiadomo, że te pojęcia są równozakresowe? Równozakresowość rozumiem tu w myśl następującej parafrazy propozycji KRM (gwiazdka wskazuje, że jest to parafraza).

KRM*.  x jest procesem Przetwarzania INformacji (PIN)  m w informację n wtedy i tylko, gdy x jest procesem OBLiczania (OBL) funkcji n=f(m).

Widzę dwie możliwe odpowiedzi (A,B) na pytanie, jak uzasadnić równozakresowość.

(A) Przyjmuje się KRM* jako postulat znaczeniowy.
(B) Dowodzi się na podstawie określonych założeń, że z każdej ze stron równoważności KRM* wynika druga strona.

§2.2.  Czy parafraza KRM* oddaje intencje KRM?

§2.3.  Poprawna jest odpowiedź A czy B?

§2.4.  Jeśli A, to czy jest ten postulat definicją sprawozdawczą, projektującą czy regulującą?

§2.5.  Jeśli B, to z jakich założeń wynika każda z implikacji:
PIN(x)=>OBL(x)  oraz  OBL(x)=>PIN(x)?

§3.1.  Zarówno przy odpowiedzi A jak i B powstaje pytanie: w jakim sensie brany jest predykat OBL?  Odróżnijmy następujące znaczenia:

OB/T (OBliczanie w sensie Turinga): obliczyć = znaleźć wartość funkcji obliczalnej w sensie Turinga 1936, czyli przez zastosowanie jakiegoś algorytmu.

OB/S (OBliczanie w sensie Szerszym):  obliczyć = (a) znaleźć wartość funkcji obliczalnej lub (b) funkcji nieobliczalnej lub (c) wykazać, że równanie wyrażające daną funkcję nie ma rozwiązania.

Co się tyczy punktu  b, Turing 1939  („Systems of Logic Based on Ordinals”) określał metaforycznie takie „obliczanie”  jako czynność wyroczni (oracle); w zwyczajowym idiomie matematycznym mówi się w tym przypadku o postępowaniu intuicyjnym. Jako osiagnięcie wyroczni podawał Turing przykładowo rozumowanie prowadzące do znalezienia liczby będącej numerem zdania gödlowskiego.

Jako inny znaczący przykład postępowania intuicyjnego podałbym Andrew Wilesa słynny dowód Wielkiego Twierdzenia Fermata (1995), o którym wiemy na pewno, że ten 200-stronicowy tekst nie jest dowodem sformalizowanym, a więc jest obliczaniem w sensie szerszym — dopuszczającym postępowanie, które nie jest algorytmiczne (mamy tu przypadek c z definicji OB/S).  Pozostaje sprawą otwartą, czy problem Fermata jest rozstrzygalny na drodze algorytmicznej (tj.  w sensie OB/T); to jest, czy da się skonstruować program, który umożliwiłby komputerowi samodzielne (tj.  bez wspomagania heurystykami) wykonanie tego dowodu, poczynając od punktu, z którego startował Wiles.

§3.2.  Czy przy takiej interpretacji OB/S zgodne będzie z intencją Autora domniemywać, że w KTM* przyjmuje on szerokie pojęcie obliczania (OB/S)? Opierałbym to domniemanie na deklarowanym przez Autora pluralistycznym ujmowaniu kognitywistyki, przy czym ów pluralizm mieści w sobie hiperkomptacjonizm (por.str.49, gdzie dopuszcza się hyper-Turing functions). Ten zaś polega (jeśli dobrze rozumiem) na uwzględnianiu funkcji nieobliczalnych jako jednego z możliwych przedmiotów poznania, mianowicie poznania intuicyjnego w matematyce.

§4.  Nawet przy tak szerokim pojęciu obliczania, utożsamienie go z wszelkim przetwarzaniem informacji zdaje się napotykać na kontrprzykłady, które są może do uchylenia, ale pod warunkiem dodatkowych wyjaśnień.  Wprawdzie przy rozumieniu szerokim możemy zaliczyć do obliczeń takie procesy przetwarzania informacji, jak twórcze pomysły, nie mające wsparcia w żadnym algorytmie. Wtedy, stwierdzając, że nie jest to obliczanie Turingowskie, można domniemywać, że mamy tu obliczanie jakiejś „hyper-Turing function” (por.3.2 wyżej).

Jak jednak będziemy kwalifikować np.  marzenia senne? W potocznym rozumieniu są to jakieś przetworzenia informacji,  gdy np.  przechowane w pamięci realistyczne obrazy z minionego dnia przekształcają się w jakieś zwidy surrealistyczne.  Jest to czy nie jest przekształcanie?  Jeśli jest, a przy tym nie ma powodu, żeby taki proces uznać za obliczanie w jakimkolwiek sensie, to będziemy mieć wyraźny kontrprzykład do KRM*.

Oczywiście, można zdecydować, że sny itp. procesy przekształcania obrazów i myśli w wyniku przygodnych asocjacji (np.  w luźnej pogawędce) nie należą do kategorii „information processing, nawet jeśli przemawiają za tym nawyki języka potocznego.  Wolno tak postanowić, o ile czyni się to świadomie i z odpowiednią motywacją.

Czy taka jest właśnie strategia Autora?

Zaszufladkowano do kategorii Dialogi wokół recenzji, Filozofia informatyki, Światopogląd informatyczny | 19 komentarzy

O światopoglądzie informatycznym (cz. I: Podstawy)

Osoby zaglądające do naszego blogu dowiadują się na „dzień dobry”, że prowadzi się w nim rozmowy o światopoglądzie informatycznym.
Cóż to jednak znaczy?
I czy ów informatyczny światopogląd istnieje poza umysłami redagujących blog panów?

Innymi słowy:
Czy stanowi on zjawisko powszechne, decydujące o rozumieniu świata przez zwykłych ludzi, czy może mniej powszechne lecz poglądo-twórcze, to znaczy występujące żywo w społeczności akademickiej?

Zanim na te pytania się odpowie (czemu przysłuży się zapewne blogowa dyskusja), trzeba nakreślić z grubsza główne rysy światopoglądu informatycznego – te przynajmniej, które dostrzegają redaktorzy blogu.
Takiemu właśnie syntetycznemu opisowi zamierzam poświęcić trzy wpisy, z których ten jest pierwszy. Ich zawartość będzie stanowić podsumowanie treści rozproszonych po różnych częściach książki „Umysł-Komputer-Świat”, a ponadto po różnych innych wpisach i wstępach blogowych.

Każdy wpis będzie miał identyczną formę: krótki wstęp, zestawienie głównych punktów do dyskusji oraz odwołanie do szerszego tekstu, w którym punkty te zostaną dopełnione i rozwinięte. Właściwą podstawę dyskusji powinien stanowić ów szerszy tekst.

*****

Na dobry początek siedem punktów streszczających
PODSTAWY ŚWIATOPOGLĄDU INFORMATYCZNEGO

1. Światopogląd informatyczny (ŚPI), zwany też informatyzmem, stanowi  dojrzały wyraz świadomości społeczeństwa informacyjnego, które to społeczeństwo ukształtowało się w epoce postindustrialnej, naznaczonej wszechobecnością informacji i urządzeń do jej przetwarzania. Epokę tę możemy nazwać erą informatyczną; informatyzm zaś to światopogląd jej właściwy.

2. Będąca podstawą ŚPI świadomość informatyczna (świadomość właściwa erze informatycznej) ma dwie podstawowe odmiany, które u konkretnych ludzi nie muszą występować łącznie: (a) świadomość technologiczną – związaną z użytkowaniem różnych urządzeń do przetwarzania danych, głównie komputerów (byłby to wąski wymiar świadomości); oraz (b) świadomość ogólną – zbudowaną na wiedzy/przekonaniu, że pojęcia informacji i systemu informatycznego wykraczają daleko poza ludzkie artefakty/wytwory; a dotyczą także organizmów, ludzkiego umysłu i różnych struktur społecznych (byłby to szeroki wymiar świadomości).

3. Granica między świadomością informatyczną a ŚPI nie jest ostra: światopogląd ma charakter bardziej całościowy, dotyczy wszelkich (lub dostatecznie wielu) aspektów rzeczywistości, a wymaga posiadania (przez daną jednostkę) świadomości zarówno technologicznej, jak i ogólnej, obejmującej nadto trzy składniki (poznawczy, prakseologiczny i aksjologiczny).
3a. Warunek dodatkowy – możemy go nazwać głęboką świadomością informatyczną –  to znajomość logiczno-matematycznych podstaw współczesnych technik przetwarzania danych i wynikająca z tej wiedzy świadomość ograniczeń tychże technik.

4. Z uwagi na 3a. trzeba stwierdzić, że ŚPI, jako dojrzały i głęboki wyraz informatycznej świadomości, wyrasta z refleksji naukowej (związanej głównie z matematyką, logiką, informatyką, fizyką i biologią), a ciąży ku filozofii (czyli ujęciu bardziej systematycznemu i specjalistycznemu, osadzonemu nadto w historii tej dyscypliny).

5. Najważniejszą nauką, do której odwołuje się ŚPI, jest współcześnie informatyka (rozumiana i teoretycznie, i technicznie) z jej trzema naczelnymi pojęciami: informacją (danymi), algorytmem i automatem.
5a. Istotą ŚPI w jego warstwie poznawczej jest tendencja do opisywania/objaśniania jak największej liczby zjawisk (technicznych, biologicznych, dotyczących umysłu, społecznych) w kategoriach trzech wymienionych pojęć (a także im pokrewnych lub na nich nabudowanych).

6. W bliskim związku z punktem 5a pozostaje pewien kluczowy postulat metodologiczny ŚPI – będący jednocześnie prognozą co do dalszych losów informatyki. Zgodnie z nim powinna powstać nowa nauka unifikująca, zwana informatyką ogólną, która na odpowiednio wysokim poziomie ogólności opisywałaby różne systemy do przetwarzania informacji: i komputerowe, i naturalne (biologiczne), i społeczne.

7. ŚPI, jako światopogląd ugruntowany naukowo, mieści w sobie pewne charakterystyczne tezy (np. taką, że informacje można kodować liczbowo; o innych powiemy w kolejnym wpisie), w większej mierze jednak jest określony przez  pewien zbiór otwartych pytań (np. „Czym jest informacja?” – pytanie fundamentalne; „Czy wszelkie formy poznania daje się zrealizować sztucznie za pomocą cyfrowych technik przetwarzania danych” – pytanie powiązane z badaniami nad SI).

*****

Zachęcam gorąco do dyskusji.

Jej merytoryczną podstawę powinien stanowić tekst mojego autorstwa:
Podstawy światopoglądu informatycznego”  (rozwijający powyższe punkty).

Pomocny może okazać się także tekst Pawła Polaka:
Komputery, wyobraźnia i współczesna filozofia przyrody”.

Paweł Stacewicz.

Zaszufladkowano do kategorii Bez kategorii, Filozofia informatyki, Światopogląd informatyczny | 10 komentarzy

Rozważania w duchu Kurta Gödla
o granicy między umysłem i maszyną

einsteinAfiliacja autora: Katedra Logiki, Informatyki i Filozofii Nauki *  Uniwersytet w Białymstoku.

Poniższy wpis jest wprowadzeniem do odczytu  (20.XI.2013)  wygłoszonego  w ramach serii wykładów interdyscyplinarnych pt. „Świat ludzi i świat maszyn.  Płynne granice” — organizowanych  przez  Międzywydziałową Pracownię Pytań Granicznych UAM. Obrazek obok przedstawia Einsteina i Gödla na spacerze w Princeton.

„Skąd się biorą nowe idee, to prawdziwa tajemnica.” —   Andrew Wiles, odkrywca (1993/95) dowodu Wielkiego Twierdzenia Fermata.

Matematyka jest wyprawą w obce, dzikie krainy, w których odkrywcy
często się gubią.  Ścisłość powinna być dla matematyka sygnałem, że
wykreślono już mapy, a prawdziwi odkrywcy powędrowali gdzie indziej.”
— W. S. Anglin, autor prac o historii i filozofii matematyki.

 §1. Wprowadzenie: co logika matematyczna wnosi
do wiedzy o maszynach i umyśle

§1.1.  Nazwisko Gödla umieściłem w pierwszej części tytułu, jeszcze przed sformułowaniem problemu, żeby podkreślić jego wagę w myśli współczesnej.  Jest ona porównywalna z wagą Einsteina, choć istnieje wielka różnica w odbiorze obu tych postaci.  Wie o Einsteinie niemal każde dziecko, podczas gdy o Gödlu — tylko garstka specjalistów od logiki matematycznej i teoretycznych podstaw informatyki.  Trzeba jednak dodać do owej garstki tych filozofów, którzy się pasjonują zagadką ludzkiego umysłu.

Dlaczego filozofów umysłu? Dlatego, że moc umysłu i jej ograniczenia dadzą się opisywać i wyjaśniać w sposób niezwykle precyzyjny środkami logiki matematycznej, a w niej genialnym liderem był Gödel; logika należy do fundamentów matematyki wraz z teorią mnogości (mająca za przedmiot zbiory niekończone).  Dzięki logiczno-matematycznej precyzji, możemy konkluzywnie badać różnice między umysłem i maszyną informatyczną — gdy idzie o zasięg ich możliwości w rozwiązywaniu problemów (matematycznych, ale nie tylko).  A zatem, możemy badać dzielącą te dwa jestestwa granicę — w myśl tytułu obecnego odczytu, jak i tytułu serii, w której odczyt ten ma zaszczyt uczestniczyć.

Związek między filozoficzną refleksją nad umysłem, a tym doświadczeniem umysłowym, które zawdzięczają swej dyscyplinie matematycy, oddają następujące po tytule cytaty.

Metafora mapy u Anglina obrazuje te pojęcia matematyki, które są perfekcyjnie pod względem ścisłości zdefiniowane.  Mianowicie, z dokładnością do kształtu wyrażających je symboli.  Takie kształty — jako obiekty fizyczne — mogą być przetwarzane przez maszynę według pedantycznej instrukcji zwanej  algorytmem lub  programem.  Dzieje się to w ten sposób, że kształty symboli są kodowane w maszynie jako stany fizyczne, np. kształt ,,1” jako impuls, a ,,0” jako brak impulsu, to zaś uruchamia przyczynowo procesy fizyczne w procesorze, na ekranie itd.  Co nie daje się wykreślić tą drogą na mapie, a zatem dawać do obróbki maszynom, należy do obszaru niepokojących umysł pytań i do olśnień intuicji, gdy świta pomysł rozwiązania.

Jak to się jednak dzieje, że umysł się rozjaśnia nową ideą, stanowi wielką tajemnicę.  Tak to widzi Andrew Wiles.  Nasuwa się wniosek, że skoro nie znamy natury procesu odkrywczego, nie znamy do tego stopnia, że jest on aż tajemnicą, to nie jesteśmy w stanie wytrenować maszynę w dokonywaniu odkryć. Tak prześwituje zarys granicy między umysłem i maszyną.

Wiles doświadczył, jak mało kto, odkrycia nowej idei. Jest bowiem autorem rozwiązania skrajnie trudnego problemu.  Atakowanego wcześniej bez skutku przez najznakomitszych matematyków na przestrzeni ponad trzech wieków.  Data 1993 to rok ogłoszenia jego dowodu w formie wykładu, a 1995 to rok publikacji mającej już za sobą certyfikat skrupulatnych recenzji.

Zacytowana formuła to zapis prawdy matematycznej, którą około roku 1637 odkrył Pierre Fermat; zapis zaopatrzył adnotacją, że znalazł dowód, ale w tym momencie go nie podaje z braku miejsca na papierze.  Dowodu nie udało się w jego pośmiertnych papierach odszukać, i tak się zaczęła dramatyczna historia parowiekowych prób samodzielnego odkrycia takiego dowodu.

§1.2.  Trwająca wiekami niemożność rozstrzygnięcia o prawdziwości twierdzenia Fermata stwarza tło i sposobność do uchwycenia na tym przykładzie, jak wielkiej jest wagi i jak trudny problem rozstrzygalności w matematyce; a ogólniej, w ludzkim poznaniu.  Dlatego historię tego twierdzenia opowiada się w pracach o sztucznej — czyli maszynowej — inteligencji jako ilustrację do kwestii: czy maszynę byłoby kiedykolwiek stać na to, czego dokonał umysł ludzki, reprezentowany w tym przypadku przez dociekania Wilesa?

Nie byłoby szans, żeby odpowiadać na tego rodzaju pytania, gdyby nie odkrycia Gödla dotyczące zagadnienia rozstrzygalności mechanicznej, osiągalnej dla komputerów, w odróżnieniu od sposobu rozwiązywania problemów przez umysł ludzki.  Toteż trzeba im poświęcić w tych rozw ażaniach sporo uwagi.

Nie jest to jednak proste. Dotyczące tej sprawy wyniki Gödla, uzyskane przezeń w latach 30-tych ubiegłego wieku, są nie mniej trudne do wyłożenia niż, powiedzmy, ogólna teoria względności.  Starając się za nimi nadążać, ocieramy się o granice paradoksu, nie mówiąc o piętrzących się (na miarę Mount Everestu) szczegółach technicznych.  Wikłamy się też w zagadki filozoficzne, które różni różnie próbują rozwikływać, a powstały z tego zgiełk kontrowersji trudno śledzić, o ile się z tego nie uczyni własnej specjalności badawczej.

Nie da się więc odtworzyć argumentacji Gödla co do litery, ale można próbować uchylić rąbek jej filozoficznych inspiracji, a więc niejako odtworzyć co do ducha (stąd ,,duch” w tytule).  A przedtem trzeba wspomnieć o biologicznych podstawach ludzkiej zdolności do widzenia problemów.  Jej źródła tkwią częściowo w naszej naturze zwierzęcej, całkowicie obcej maszynom.  Ma to taki związek z kwestią granicy między umysłem i maszyną, że początkiem myślenia autentycznego (a nie jego maszynowej imitacji) jest podbudowany biologicznie niepokój z potrzeby rozwiązania problemu.

Jego przeżyciowy aspekt trafnie ujął Charles Sanders Peirce, wielki filozof umysłu i prekursor logiki matematycznej, określeniem  irritation of doubt. Tak się irytować nie umie maszyna, umie zaś człowiek.  I w tym jego przewaga.

Konspekt całości wykładu.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | Dodaj komentarz