Trzy stopnie autonomii maszyn
Trzeci: nie być maszyną

Nawiązuję tym szkicem do wpisu Pawła Stacewicza,  inicjującego dyskusję na temat autonomii maszyn, a także do mojej pierwszej na to zagajenie reakcji.  Oto teza  obecnego szkicu na temat trzech stopni możliwej ewolucji maszyn w kierunku autonomiczności — aż po tak pełna autonomię, że maszyna przestaje być maszyną. 

Stopień 1:  zdolność do samouctwa
Stopień 2:  zdolność do energetycznego samozasilania
Stopień 3:  zdolność do samostanowienia.

Na stopniu 1 maszyna do rozwiązywania problemów (o takiej tu mowa) nie jest poddana bez reszty dyktatatowi sterującego nią programu, lecz potrafi  stawiać problemy i je rozwiązywać  w wyniku samoprogramowania oraz  samodzielnego pozyskiwania danych.

Ten stopień był szeroko i wnikliwie rozważany w głosach dyskutantów,  toteż poprzestanę na powyższym dość ogólnikowym sformułowaniu  i odsyłam do  tych bardzo niekiedy ciekawych głosów.

Na stopniu 2 maszyna nie jest zdana na zasilanie energią z zewnątrz (jakim jest też  zasilanie z baterii wymagającej ładowania), lecz może samodzielnie pozyskiwać energię z otoczenia  oraz  przetwarzać ją w sobie na odpowiednią postać (np. chemiczną na kinetyczną), jak to czynią organizmy. Bez tego maszyna będzie zdana na człowieka; jeśliby mój komputer umiał i chciał mi jakoś zaszkodzić, to go po prostu wyłączę z prądu.  To żadna autonomia.

Zwrócenie uwagi na ten stopień zdaje się być, jak dotąd, jedynym głosem w dyskusji. Byłbym ciekaw opinii innych uczestników.

Na stopniu 3 maszyna stawia sobie własne cele i potrafi je realizować niezależnie od woli użytkownika, czy nawet wbrew jego woli. Być może,    ta faza mogłaby nastąpić niejako automatycznie w wyniku osiągnięcia stopni poprzednich.  Mając bowiem własne problemy i możliwości ich rozwiązywania bez konieczności otrzymywania algorytmów (software’u) od człowieka,  oraz mogąc samodzielnie pozyskiwaną energię, maszyna miałaby za cel rozwiązywanie postawionych przez nią czyli jej własnych problemów.  Dokładnie tak, jak czynią to ludzie. A wtedy stałaby się istota wolną i rozumna jak człowiek.  A zatem na tym stopniu ewolucji byłaby w pełni autonomiczna, ale nie byłaby już maszyną.

Sytuacja, która by  zaistniała w tej trzeciej fazie ewolucji byłaby wysoce niebezpieczna. Ludzkość ma i tak dostatecznie wiele kłopotów z silnie konfliktowymi celami niezliczonych indywiduów i zbiorowości —  konfliktami o takiej skali,  że istnieje ryzyko zniszczenia przez nie planety.  Sytuację te jeszcze bardziej by skomplikowało pojawienie się populacji autonomicznych maszyn z trzeciej fazy ewolucji.  Na ten rodzaj problemów zwraca w dyskusji uwagę Zaza w komentarzu z 24 marca.

Temat ten pojawia się w utworach z kategorii fikcji naukowych, a w tej klasie czołowe miejsce zajmuje Isaac Asimov.  Jego pomysł polega na tym,  żeby doprowadzić ewolucję do trzeciego stopnia, ale z ta modyfikacją, żeby producent robota wyposażał go w oprogramowanie, które powoduje następujący rezultat ujęty przez Asimova w „trzech prawach robotyki”. Oto one.

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Działanie tych praw Asimov opisuje w powieściach o bardzo pomysłowej fabule, np. w „The Robots of Dawn”.  Czy jednak konstruowanie maszyn  według tych praw nie odebrałoby im autonomii?   Sadzę, ze autonomia moralna człowieka polega na tym,  że nie ma takiego drugiego człowieka, któremu miał obowiązek być  posłuszny, chyba że zobowiąże się do tego dobrowolną umową.  A jeśli zrezygnujemy z praw robotyki podporządkowującym bez reszty maszyny człowiekowi, to znowu trzeba będzie uznać, ze już nie są one maszynami. Na temat tego rodzaju autonomii przysługującej wolnym  ludzkim indywiduom wypowiadam się we wpisie „Kto ma prawo ustanawiać normy i sankcje?”.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 2 komentarze

Kto ma prawo ustanawiać normy i sankcje?
Czy wystarczy dysponować środkami przymusu?

§1. Te dwa pytania i kilka pomocniczych  są  kierowane do Autora następującego tekstu zawierającego  definicję  obowiązywalności.

Let us assume that the only source of duties are orders.  Let us now consider a situation in which person B is obliged to cause the fact that X. Then we would have:

Df/ob:  Person B should to cause the fact that X <=>def  {there is a person A that says to person B: „Person B should cause the fact that  X” person B is convinced that  [statement „Person B should cause the fact that X” expresses person A’s wanting  failing to fulfill this wanting will put B under the threat of some sanction ( not necessarily from person A.)]}

[PP.1]   Pierwsze pytanie pomocnicze służy upewnieniu się, czy dobrze rozumiem Df/ob. W tym celu podaję następującą parafrazę (pogrubienie czcionki wskazuje na odpowiedniki symboli logicznych; sposób oddania „should” ma pokrycie w kontekście:  „This formula should also concern moral duties”.

Df/ob*:  B ma moralny obowiązek spowodować znaczy tyle, co: [1] istnieje A, który mówi osobie B, że powinna spowodować X , przy czym  [2] B rozumie, że jest to wyraz woli osoby A  oraz że [3] niespełnienie tej woli grozi określoną sankcją.

PP.2] Kolejne pytanie pomocnicze: jak w Df/ob rozumie się termin „sanction”?  Czy tak nazwałby Autor każdą groźbę wygłaszana przez kogokolwiek, kto jest w stanie ją spełnić w przypadku gdy adresat odmówi wykonania rozkazu?  O to nie powinno się go podejrzewać.  Nikt kto zna polski nie uzna, że zwrot „ma obowiązek”, w tym też moralny, dotyczy osoby, od której rabuś żąda oddania portfela pod groźbą użycia noża.  Jeśliby ofiara miała taki obowiązek, to by zarazem znaczyło, iż napastnik ma prawo do napaści, a zatem byłoby niedopuszczalne sądownie go za to karać.  Trzeba więc uznać, ze groźba jest sankcją tylko wtedy, gdy grożący ma (a) prawo rozkazywać danej osobie oraz (b) prawo stanowienia sankcji.  To drugie nie koniecznie wynika z pierwszego; jest np.  doktryna moralno-pedagogiczna, że rodzic ma prawo rozkazywać dziecku, ale nie ma prawa go karać za brak

posłuchu (zamiast kary zaleca się perswazję).   Skoro obowiązek powstaje dopiero wtedy, gdy nadawcza rozkazu i sankcji ma do tych obu uprawnienia, to skąd się te uprawnienia biorą (inaczej: co jest ich legitymizacją)?   To jest pytanie pod adresem Autora,  naprowadzające na podwójny problem tytułowy tego wpisu.

[PP.3]  Ostatnie  pytanie pomocnicze dotyczy poprzedzającego definicję zdania „Let us assume that the only source of duties are orders”. Czy nazwanie tego założeniem trzeba tak rozumieć, że Autor podanej definicji nie akceptuje, traktując ją np. tak,  jak założenie w  dowodzie nie wprost? A może jako człon dylematu (tytuł artykułu jest „Dilemmas […]”), którym autor chce ubogacić problematykę, a sam go nie rozstrzyga?   Czy też może nazwanie założeniem nie przeszkadza, że jest to zarazem teza akceptowana?

Tymczasem, nim nastąpi odpowiedź,  to dla celów dyskusji — żeby mieć przedmiot pouczającej, jak mniemam, polemiki — przyjmuję ostatnią z wymienionych ewentualności, łącząc to z oświadczeniem,  że się z definicją Df/ob* nie zgadzam. Nie nadaje się ona na definicję sprawozdawczą ani  pod względem terminologii etycznej ani prawniczej. A jako projektująca ma konsekwencje sprzeczne z oświeceniow0-europejską koncepcją prawa, za którą się opowiadam.  Polemika nie będzie trudem  daremnym,  istnieją bowiem osoby rozumiejące powinność moralną po myśli Df/ob*. Jest więc z kim polemizować.  Jeśli zaś Autor stanie  po mojej, a nie po ich stronie, okaże się cennym  sprzymierzeńcem.

§2.  Historia doktryn politycznych i prawnych zna co najmniej dwie doktryny, z których każda  dalece inaczej odpowiada na pierwsze pytanie tytułowe, zgodnie natomiast odpowiadają w sposób przeczący na drugie.  Oznaczę je skrótami TAT i TUS.

TAT — Teoria Autorytetu Transcendentnego
TUS — Teoria Umowy Społecznej.

Panująca na rozległych obszarach przez długie wieki była TAT, w średniowieczu wyrażana zwięźle maksymą,  że (legalna) władza pochodzi od Boga. TUS jest ideą stosunkowo świeżej daty i ma ograniczony zasięg terytorialny.  Jest ona zrodzonym w Europie  nieodrodnym dzieckiem myśli oświeceniowej.  Z tego względu można ją nazwać ideą oświeceniowo-europejską.

Konkretne treści TAT i procedury jej wcielana bardzo się różnią w zależności od miejsca i czasu. To, co  jest im wspólne to powoływanie się na jakiś potężny czynnik, zewnętrzny względem zbiorowości, która  ma  danej władzy podlegać. Oczywiście przez bardzo długie wieki, gdy w żadnym społeczeństwie nie kwestionowano  religii, autorytetem legitymizującym władzę było panujące bóstwo.   Niekiedy samego władcą ogłaszano bogiem.  W systemie politeistycznym nie musiało  to szokować. Jeden bóg więcej nie naruszał reguł systemu, wszak nie wchodził w uprawnienia  innych bóstw, mając przydzielony sobie własny obszar kompetencji,  np. władanie Rzymem.

W systemie monoteistycznym nie było mowy, by monarcha mógł uchodzić za istotę boską, ale jakże wielką miał powagę i władzę, gdy było bezsporne, iż rządzi z woli Boga i w jego imieniu.  Uczestniczył tym samym w prerogatywach najwyższego rozkazodawcy. Dlatego podobnie jak papieże (noszący do niedawna  potrójną koronę) miał  niejako licencję od samego twórcy, żeby skupiać w  swojej osobie potrójną władzę: ustawodawczą, wykonawczą i sądowniczą.

Certyfikatem tego, że monarcha jest realnie boskim namiestnikiem był obrzęd koronacji i pomazania olejem  świętym przez biskupa.  Pretendentem do korony czyniły przyszłego monarchę reguły sukcesji tronu.  Wymagało to czasem sporej maestrii w ich interpretacji, jak np. wtedy,  gdy powoływano na tron Jagiełłę, którego pochodzenie miało się nijak do rodu Piastów , a wszak to ich potomkowie mieli byli prawomocnymi dziedzicami  polskiego tronu.  Rozwiązano problem  drogą objęcia tronu przez Jadwigę, która  bezpośrednio wywodziła się  z Andegawenów, ale jako prawnuczka Władysława Łokietka, z którym się kiedyś Andegaweni skoligacili, miała tytuł do tronu polskiego, gdy zabrakło bliższych potomków.  To ją legitymizowało jako królową,  a jej związek małżeński z Jagiełłą potraktowano jako tytuł do uzyskania także przez niego  godności króla. Tej misternej konstrukcji dopełniła koronacja obojga.  Waga, jaką przypisywano do genealogicznych reguł sukcesji wiązała się z mitem założycielskim dynastii,  który opowiadał o znakach bożych destynujących na władcę  praprzodka rodu, a więc i jego potomków.   Znaki te bywały nieraz  dostarczane przez aniołów, jak w opowieści o chrzcie Chlodwiga króla Franków, czy o Piaście kołodzieju, którego  dom pobłogosławili, w zamian za wielką gościnność, aniołowie pod postacią wędrowców.

Tego rodzaju historie pokazują, jak silna jest potrzeba legitymizacji, skoro mobilizowano taki potencjał wyobraźni, wiary religijnej oraz wiedzy genealogicznej i jurystycznej, żeby nie było wątpliwości co do prawomocności władzy.  A zatem doświadczenie historyczne uczy, że nie jest tak —  jak postuluje Df/ob — że wystarczy pokazać bezwzględną siłę, zdolną do wymierzania kar, żeby członkowie danej zbiorowości mieli i odczuwali czuli moralną powinność wypełniania woli władcy.

§3.  Ten typ legitymizacji zanikał w miarę,  jak  w toku ewolucji kulturowej traciła na znaczeniu legenda religijna.   Ubywało monarchii, a tam gdzie one pozostały, zamieniały się w monarchie konstytucyjne,  gdzie król był tylko jednym z elementów w strukturze władzy,  z rolą przydzieloną mu przez konstytucję, co w żadnej mierze nie czyniło go dzierżycielem pełni danej  od Boga władzy.  Nie znaczy to jednak, że skończyła się metoda legitymizowania władzy przez czynnik transcendentny  Stała się nim Historia — wedle doktryn głoszonych przez Hegla i Marksa.  W filozofii Hegla pojawił się  Duch Historii – Geist der Geschichte.

Nie miejsce tu na zdawanie sprawy z niebotycznych spekulacji Hegla, odnotujmy go więc tylko jako pierwszego pomysłodawcę, żeby się następnie skupić na doktrynie, która się wyłoniła z pomysłu Hegla,  przybrała jednak postać wielce odmienną. Karol Marks miał aspiracje do uprawiania filozofii jako nauki ścisłej, określanej przez marksistów   jako „jedynie naukowa”.  Duch był w niej stanowczo nie na miejscu. Zastąpiły go Prawa Historii, za których odkrywcę się uważał, podobnie jak Galileusz i Newton są uważani za odkrywców podstawowych praw przyrody.  Historia jest postępem ku coraz wyższym formom życia społecznego  (ta myśl jest jeszcze z Hegla),  a prawem, które ten postęp określa jest wyłanianie się coraz bardziej efektywnych środków produkcji dóbr materialnych: zaczęło się od zbieractwa żywności zastanej w przyrodzie (łowiectwo etc.) uprawianego przez koczujące hordy. Potem nastało osiadłe życie rolnicze, z którego się wyłoniła bardziej złożona struktura społeczna i określony typ kultury, potem rzemiosło i handel, a wraz z tym powstanie miast i kolejna ewolucja struktury społecznej, wreszcie nastąpiła epoka przemysłowa. W każdej epoce dziejów istnieje klasa dysponująca  na zasadzie własności najbardziej  w danym czasie efektywnymi środkami  produkcji. Jest więc ona  nośnikiem postępu, ale zarazem, korzystając ze swych przewag. motywowana egoizmem, dopuszcza się wyzysku i ucisku  klas pozostałych.  Tak ziemianin uciskał chłopa, a w epoce przemysłowej kapitalista  w sposób bezwzględny wyzyskuje robotnika.

Wyzysk polega na tym, że choć robotnik wytwarza całą wartość do dodatkową,  czyli to, co różni produkt od surowca (np. szwaczka wytwarza odzież, która ma większą wartość niż użyty w niej materiał), należy mu się więc całość zysku, kapitalista prawie cały zysk zabiera, zostawiając robotnikowi tylko tyle,   ile najkonieczniejsze, żeby miał siły do pracy. Robotnik jest przeto tym, który jako jedyny wytwórca dóbr tworzy postęp ludzkości, a zarazem jest pozbawiony własności środków produkcji. Ta druga cecha czyni z klasy robotniczej zbiór istot szlachetnych, doskonałych  altruistów, gdyż tylko posiadanie środków produkcji rodzi w człowieku chciwość i chęć wykorzystania przewagi ekonomicznej do wyzysku innych.

Tą ścieżką rozumowania zbliżamy się do zagadnienia legitymizacji władzy. Oto, rozumują marksiści, jeśli zlikwiduje się własność prywatną ziemi, fabryk i sklepów, a wraz z tym klasę posiadaczy, szlachetna klasa nie-posiadaczy wyłoni z siebie swych najlepszych przedstawicieli, którym ta najlepszość da legitymację do rządzenia. Tak się modlił chrześcijański komunista Julian Tuwim: „daj rządy mądrych, dobrych ludzi, mocnych w mądrości i dobroci”. Dzieje się to przez takie fazy, że najlepsi przedstawiciele klasy robotniczej organizują się w jej awangardę, którą jest partia komunistyczna. Ta wyłania z siebie elitę, zwaną zwykle komitetem centralnym. Ona z kolei dysygnuje najlepszych spośród siebie do sztabu złożonego z kilku lub kilkunastu towarzyszy najwybitniejszych, a jeden z nich, wolą owej elity staje się przywódcą całej klasy robotniczej, co oznacza przywództwo całego państwa, ponieważ to robotnicy jako najlepsi synowie narodu mają tytuł, żeby mu przewodzić.  Tak wyłoniony przywódca skupia w sobie w najwyższym stopniu wszystkie cnoty intelektualne i moralne: jest najwybitniejszym w kraju  filozofem, nieomylnym sternikiem gospodarki, genialnym strategiem w czas wojny. Taki niedościgły wzór, należący niejako do sfery transcendencji,   stanowili Lenin i Stalin.

Nie może więc być cienia wątpliwości, że ktoś taki zasługuje na pełnię władzy, a ponieważ jest w swych ustawach i rozkazach nieomylny,  w intencjach bezgranicznie szlachetny i jedynie dobro powszechne mający na względzie, podporządkowanie się jego woli jest powinnością moralną.

I tak dałoby się nadać zrozumiałość (trudną do osiągnięcia na innej drodze) definicji obowiązku oznaczonej wyżej w §1  jako Df/ob*.  Oprócz naszkicowanego wariantu marksowskiego istnieje jeszcze wariant, w którym zamiast klasy społecznej występuje naród noszący znamiona narodu wybranego, jakim w doktrynie nazistowskiej mieli być Niemcy. Także za tą koncepcją stoi niemały trud  niektórych umysłów filozoficznych, ale dla egzemplifikacji,  jak dałoby się  uzasadnić Df/ob* wystarczy nam ta jedna opowieść fantastyczna, jaka stworzył marksizm-leninizm.

§4. Cały powyższy wywód redukujący Df/ob* do absurdu stałby się zbędny, jeśli miałoby się pewność, że Autor rozumie termin „sankcja” w taki standardowy sposób, jak to jest przyjęte w teorii prawa. Ale skoro w kontekście nie znajdujemy takiego wyjaśnienia, rzeczony wywód może skłonić Autora definicji do odpowiednich dopowiedzeń.  Można je sobie wyobrazić w ten sposób, że zakończenie definicji

„za niespełnienie woli A jako rozkazodawcy, B zostanie poddany groźbie zastosowania  sankcji”  zastąpi się sformułowaniem:

„za niespełnienie woli A jako rozkazodawcy, B zostanie poddany sankcji — rozumianej jako zagrożenie karą wymierzoną według obowiązującej procedury prawnej”.

Rozumienie cytowane po myślniku jest tym standardowo przyjętym w teorii prawa. Procedura prawna jest określona normą ustanowioną przez prawowitą władzę. Zawiera się w niej określenie organu władnego ustanawiać normy (jak  parlament) oraz organu władnego stosować daną sankcję (jak sąd lub określony szczebel  administracji). A zatem,  żeby jakieś zagrożenie mogło być rozumiane jako sankcja, musi istnieć władza uprawniona do stwarzania obowiązków poprzez normy, rozporządzenia, czy wyroki.

Żeby być władzą, czyli mieć tytuł do nakładania obowiązków,  nie wystarczy wydawać rozkazy i stosować represje wobec odmawiających posłuchu.  Gdyby takie pojmowanie władzy głosiła Df/ob*, przyznawałaby ona znamię czynu legalnego każdemu przestępstwu wymuszenia czegoś groźbą. Jeśli nie ma w niej takiej intencji, to powinna tej definicji towarzyszyć definicja prawomocności władzy.

Próbą dostarczenia takiej definicji są teorie autorytetu transcendentnego (TAT).  A jeśli  trudno jest  nam akceptować  konsekwencje z nich płynące, trzeba się rozejrzeć za alternatywą. Są nią teorie umowy społecznej (TUS).   Ale temat to osobny i na tyle rozległy, że trzeba go odłożyć do innego razu.

Dane bibliograficzne.  Definicja Df/ob znajduje się w odcinku 4.2 w artykule Anny Brożek i Jacka Jadackiego „Dilemmas in the Theory of Imperatives” zawartym w zbiorze „Theory of Imperatives from Different Points of  View”. Redakcja: oboje w/w autorzy  oraz Berislav Zarnic.  Wyd. Semper, Warszawa 2011.

Zaszufladkowano do kategorii Dialogi wokół recenzji, Filozofia polityczna | 2 komentarze

Inwencja a losowość
Głos w kwestii maszyn autonomicznych

Pogląd  o wyłącznie losowym charakterze aktów twórczych budzi mój sprzeciw, gdyż brakuje dlań potwierdzenia w moim, a pewnie też innych osób,  doświadczeniu  wewnętrznym.  Gdy mam do rozwiązania jakiś problem, to (1) uruchomienie procesu rozwiązywania bierze się z mojej woli; nie znajduję tu nic losowego.   Zgoda, ze od tego momentu (2) może działać jakiś proces losowy poza moją wolą i świadomością: zapewne jakieś  elementy przemieszczają się w bezładnych ruchach, tworząc różne struktury.  Dopiero gdy się struktura taka uformuje, wynurza się na powierzchnię strumienia świadomości.   Ale nawet gdy istotnie jest ona wynikiem losowym,  to już proces akceptowania jednych rozwiązań i odrzucania innych nie ma takiego charakteru.  Jeśli mam wierzyć świadectwu mojej świadomości, to rzecz wygląda tak, że  (3) dysponuję pewnymi kryteriami akceptowalności wyniku.

Zdolność twórcza, jaką jest pomysłowość,  jest cechą stopniowalną.  W jakim ma się ją stopniu, prawdopodobnie zależy od każdego z czynników, też stopniowalnych, na każdym z wymienionych wyżej trzech etapów.  (1*) Wola rozwiązania jest silniejsza lub słabsza (2*) generator wyników losowych wyników mniej lub bardziej produktywny; (3*) posiadane kryteria akceptacji są  mniej lub bardziej liczne, mniej lub bardziej miarodajne itd.

Co może stąd wynikać dla kwestii, jak budować maszyny autonomiczne, tzn. umiejące stawiać problemy i rozwiązywać je  mocą  własnej inwencji? Taka maszyna powinna być wyposażona w  generator losowej produkcji pomysłów na rozwiązanie problemu, lecz także w kryteria akceptacji.  Dobrze, jeśli będą one dwustopniowe:  stopień wstępny wybiera rozwiązania zasługujące na to, by je poddać procesowi weryfikacji; ta się dokonuje na drugim szczeblu,  gdzie się operuje odpowiednim zestawem kryteriów.

Wybitni matematycy i fizycy (Poincare, Einstein, Heisenberg etc.) wyznają, że w pierwszym etapie kierują się odczuciem piękna teorii,  a gdy się ją zaakceptuje z tego powodu, w następnej fazie dokonuje się sprawdzenia na drodze logicznej (czy nie ma sprzeczności itp.)  oraz (w naukach empirycznych) na drodze eksperymentalnej.  Ten przykład ujawnia pewien problem, na który może napotkać konstruowanie maszyn autonomicznych. Odczucie piękna jest stanem, który ma komponent biologiczny, jak każdy stan emocjonalny.  Są to stany właściwe organizmom lecz niedostępne dla maszyn. Tego rodzaju stanów, wymagających od podmiotu inwencji tego, żeby był zbudowany z białka (czy innego biologicznego emocji), co wykluczałoby z konkurencji twory elektroniczne.

Zaszufladkowano do kategorii Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 3 komentarze

Maszyny autonomiczne.
Co to znaczy i czy kiedykolwiek powstaną?

Niniejszy wpis kieruję przede wszystkim (choć nie tylko) do słuchaczy mojego wykładu „Elementy filozofii i metodologii informatyki” – który prowadzę na wydziale MiNI PW.  Chciałbym zachęcić osoby zainteresowane do dyskusji na tematy, którym częściowy przynajmniej wyraz daje tytuł wpisu. (Dodam w nawiasie, że dyskusja na żywo odbędzie się na najbliższych zajeciach).

Co to znaczy, że maszyna jest (mogłaby być) autonomiczna?
Co łączy hipotetyczną autonomię maszyn ze sztuczną inteligencją?
Czy w historii informatyki (zwłaszcza tej najnowszej) można odnaleźć trop wiodący ku maszynom autonomicznym?
Oto próbka pytań, wokół których mogłyby krążyć komentarze.

Punktem odniesienia dyskusji proponuję uczynić jeden z rozdziałów książki „Umysł-Komputer-Świat” , p.t. „Czy powstaną maszyny autonomiczne?”.
Na dobry początek przytaczam akapit otwierający ów rozdział (cały tekst stanie się dostępny po kliknięciu powyższego linku):

Zdrowy rozsądek podpowiada, że wszelkie maszyny – w tym informatyczne i skomputeryzowane – są, a także będą, tylko i wyłącznie narzędziami w ręku ludzi realizujących za ich pomocą własne cele.
Wyobraźnia  z kolei roztacza przed rozumem fantastyczne wizje maszyn autonomicznych, które byłyby w stanie konkurować ze swoimi pomysłodawcami i konstruktorami.
Który pogląd – ten ostrożniejszy, czy ten śmielszy – ma lepsze uzasadnienie w bieżących dokonaniach informatyki? I  co nas czeka w przyszłości?

Pozdrawiam i zachęcam do zabrania głosu – Paweł Stacewicz.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 33 komentarze

Aksjologiczne źródła autorytetu państwa:
obliczalność systemu, twórcza dynamika elit

Obecny wpis jest tylko zapowiedzią bardziej gruntownych refleksji wywołanych lekturą książki Anny Brożek „Teoria imperatywów i jej zastosowania” (Copernicus Center, Kraków 2012).   Inspiracja okazała się  tak duża,  że powstał materiał na kilka artykułów, a żeby nie obciążać czytelnika takim balastem,  jestem na etapie selekcji. Nim ją ukończę, chcę  podzielić się pewną intencją, co może uczyni zrozumialszymi moje przyszłe uwagi. Ich bowiem  ekscentryczność  (na tle typowej literatury filozoficznej) może okazać się przeszkodą w porozumieniu.

Ekscentryczność polega na tym że fundament aksjologii upatruję w dwóch pojęciach, które są zaczerpnięte z myśli Gödla i Turinga (żadną miarą  nie zaliczanych do koryfeuszy aksjologii),  dopełniając to myślami Maxa Webera i luminarzy ekonomicznej Szkoły Austriackiej – Ludviga von Misesa i Friedricha Hayeka.  Mój kłopot polega na tym,  że ci, co zażyli są z Gödlem mogli nie słyszeć o Weberze, i odwrotnie. Trzeba więc jednym tłumaczyć jedno, drugim drugie i jeszcze obie strony przekonać,  że takie łączenie nie jest od rzeczy. Od tego zaś jeszcze spory kawałek drogi do teorii imperatywów, których obowiązywalność Anna Brożek definiuje w kategoriach autorytetu deontycznego; tego typu autorytetem,  który jest wart najpilniejszej uwagi jest w moim przekonaniu instytucja państwa.

Wspomniane pojęcia fundamentalne to obliczalność oraz twórczość. Jak się mają Gödel i Turing  do obliczalności, to na ogół wiadomo.  Jak  się mają do twórczości, o tym rzadziej się wie, bo nie jest to termin techniczny definiowany  z cała precyzją, lecz środek wyrazu poza   dyskursem ściśle formalnym Turingowi coś się rzekło na ten temat przynajmniej raz (ale w ważnym kontekście), gdy powiedział, że  dowód matematyczny wymaga intuicji i pomysłowości; ujmijmy te cechy w pojęciu twórczości. A że dowód w wersji w pełni sformalizowanej staje się algorytmem,  nie byłoby takich algorytmów bez twórczej aktywności umysłu.  U Gödla wątek twórczości matematycznej pojawia się często np. w jego rozmowach z Hao Wangiem.

Choć dokładna definicja obliczalności pojawiła się dopiero u Turinga, pojęcie to w sposób intuicyjny obecne jest w matematyce od zawsze, i do niego nawiązał Max Weber u progu XX wieku w swej metodologii nauk społecznych, tak oto definiując racjonalne struktury i procesy społeczne: „Zrozumieć w sposób racjonalny możemy w najwyższym stopniu przede wszystkim te struktury sensu, których wzajemne stosunki mają matematyczny czy logiczny charakter„. Dopiero wtedy jesteśmy w stanie wyjaśniać zachowania irracjonalne, np. panikę na giełdzie, gdy się wie,  „jak przebiegałoby działanie, gdyby nie wpływały na nie irracjonalne afekty, a potem uwzględnić owe irracjonalne czynniki jako zakłócenia.”  Weber posuwał się nawet do opisywania w kategoriach algorytmu procedur administracyjnych i sądowniczych, o ile są one w pełni racjonalne. W  metodologii nauk społecznych Weber używa   terminu Brerechenbarkeit w jego dosłownym matematycznym sensie.

Tylko tak funkcjonującemu państwu oraz innym strukturom cywilizacyjnym wróżył Weber sukces, i  za ten rodzaj sukcesu w swej „Protestantische Ethik” gorąco apoteozował cywilizację zachodnią.  Takie państwo ma należyty wśród obywateli autorytet i posłuch dla swych dyrektyw. I tak, widać już związek problematyki obliczalności z kwestią obowiązywalnością norm (stanowiącą centralny temat „Teorii imperatywów”).

Co do twórczej dynamiki elit,  widać z tego, co wyżej się rzekło,  że tworzenie obliczalnych struktur (np.  banków centralnych umiejących panować nad rozgardiaszem rynków) wymaga też  twórczej wizji i rozmachu ze strony elit.  Autorytetem cieszą się ci przywódcy którzy mają wizję, jak prowadzić społeczeństwo ku coraz większej  (w sensie Webera) racjonalności,  w której mieści się  praworządność, wolność, dobrobyt.  Ma też swój rodzaj autorytetu elita uczonych, wynalazców, przedsiębiorców, artystów, która w demokratycznym państwie prawa cieszy się nieograniczoną przestrzenią wolności dla realizowania swych twórczych idei. 

Tylko w takim państwie,  w którym autorytet władzy (kontestowany przez anarchizm) łączy się  z pełnią wolności (negowaną przez totalitaryzm)  cywilizacja dochodzi do szczytu, urzeczywistniając te wartości, którym na imię  obliczalność i wolność.

Zaszufladkowano do kategorii Dialogi wokół recenzji, Etyka, Filozofia polityczna | Dodaj komentarz

Gödla-Chaitina wizja dynamiki wiedzy jako wiodący
nurt nowoczesnej epistemologii

Pytania do książki Marka Hetmańskiego Epistemologia informacji
pod kątem kontynuacji  omawianych przez nią badań

§1. Niniejszy wpis nawiązuje do dwóch recenzji tej książki mających się ukazać w „Wiadomościach Matematycznych”. Jest to mój tekst pt. „Na czym polega związek epistemologii z teorią informacji? Co do jego zrozumienia wnoszą Leibniz, Gödel i Popper?” oraz Pawła Stacewicza „Epistemologia informacji M.Hetmańskiego. Garść uwag polemicznych z punktu widzenia informatyka”.

Nawiązując do  trafnych, moim zdaniem, spostrzeżeń Pawła Stacewicza, że książka nie docenia  roli informatyki i że nie poświęca dość uwagi tak  podstawowym kwestiom epistemologii, jak źródła i granice poznania,  potraktuję te luki w treści w sposób kooperacyjny — jako będące do wypełnienia przez krytycznych dyskutantów. Są to niedopowiedzenia dające się zrozumieć, gdy książka ma  ogarniać  tak rozległy materiał.  Autor zamierzył  omówić w jednej monografii kilka ważnych pionierskich prób oparcia  epistemologii na nowych podstawach —  naukach o informacji. Epistemologia idzie w dobrym kierunku,  gdy przyswaja sobie idee tak  zakorzenione w osiągnięciach nauk matematycznych, przyrodniczych i technicznych,  jak to się udało pewnym pojęciom i wynikom teorio-informacyjnym.  Współtworzą one epistemologię nowoczesną, należącą do tego poglądu na świat,  który  w podtytule blogu nazywamy światopoglądem informatycznym.

Ten właściwy kierunek wskazuje i pomaga w jego rozumieniu książka prof. Hetmańskiego. A kiedy — mając do czynienia z tematem tak rozległym — coś ważnego studium to pomija lub nie zachowuje proporcji,  to od tego by obraz dopełniać czy korygować  jest krytyczna dyskusja z  walnym udziałem ripostującego Autora. Jej zagajeniu służy obecny wpis i  obie wymienione recenzje, wspomagające ten wpis szeregiem uwag bardziej szczegółowych.

§2. Czy  epistemologię informacji Autor zgodziłby się określić mianem  epistemologii teorioinformacyjnej?

Pierwszy  z tych terminów służy za tytuł całej książki,  co by wskazywało,  że ma on objąć wszystkie rozważane w niej koncepcje informacji pod kątem (to mój domysł) ich zastosowań epistemologicznych. Drugi termin funkcjonuje jako hasło w Indeksie terminów, gdzie jest odnoszony do jednej tylko z rozważanych koncepcji: G.Chaitina,  który kontynuuje wyniki matematyczne i zarazem myśl  filozoficzną Gödla, intensywnie przy tym nawiązując do Leibniza.

Wydaje mi się,  że byłoby zrozumialej, biorąc pod uwagę reguły nazwotwórstwa, ten drugi termin  pojmować szerzej;  to znaczy,  objąć nim (zgodnie z brzmieniem nazwy) jako rodzajem (łac. genus)  wszystkie rozważane teorie informacji. Myśl Chaitin dobrze by się zmieściła, jako jeden z gatunków (species),  pod określeniem: epistemologia  algorytmiczna,  ponieważ  Chaitin nazywa swą teorię algorytmiczną teorią informacji.  Dla pozostałych trzeba by stworzyć w takim drzewie klasyfikacyjnym inne nazwy gatunkowe, np.  „epistemologia teorio-entropijna” dla  takich koncepcji jak Shannona czy Wienera.

Propozycja, żeby koncepcję Chaitina nazwać algorytmiczną ma uzasadnienie w jej treści, dotyczy ona bowiem naczelnego problemu w podstawach  informatyki: efektywności algorytmów.   Mamy powody, by sądzić wraz z Gödlem, że źródłem algorytmów jest intuicja matematyczna; jej to bowiem zawdzięczamy niezbędne do ich konstrukcji aksjomaty arytmetyki, teorii mnogości etc.  oraz logiczne reguły wnioskowania.  Wiemy też od Gödla,  że żaden aktualnie posiadany zasób algorytmów nie wystarcza, by rozwiązać dowolny dobrze postawiony problem matematyczny.  Ta niemożność jest dwojaka:  istnieją problemy, które są (przy danym zasobie algorytmów) nie do rozwiązania. Istnieją też takie, które są rozwiązywalne w zasadzie, ale nie w praktyce, gdyż czas pracy algorytmu przekraczałby te zasoby czasowe, jakimi  realnie dysponujemy.

Jeśli jednak intuicja  dostarczy nowych aksjomatów, to  pewne problemy przedtem nierozwiązywalne dadzą się rozwiązać, a inne,  wymagające nieosiągalnych do tej pory  zasobów czasu, staną się łatwe do rozwiązania w czasie,  którym realnie dysponujemy.

Jest to stanowisko,  które Gödel określał mianem racjonalistycznego optymizmu. Porównajmy go z  epistemologicznym optymizmowi Davida Hilberta, który się wyraził w  jego słynnej sentencji: Wir müssen wissen, wir werden wissen.  Gödel podpisywał się pod tą wiarą,  inaczej jednak interpretując czas przyszły. Nie jako przyszły dokonany, kiedy w pewnym momencie posiadłoby się algorytmiczną metodę rozwiązywania wszelkich problemów, lecz jako czas przyszły ciągły (ang. continuous) — na tym polegający,  że zbiór problemów rozwiązywalnych będzie się wciąż powiększał, ale nigdy nie zostanie  w skończonym czasie wyczerpany, ponieważ, ponieważ świat obiektów matematycznych jest niewyczerpywalny.   Trzeba więc po gödlowsku sparafrazować maksymę Hilberta do postaci: musimy wiedzieć,  i będziemy wiedzieć coraz więcej i więcej, lecz nigdy nie dowiemy się wszystkiego.

§3.  Czy Autor uznaje przewagę epistemologii algorytmicznej Chaitina nad innym odmianami  epistemologii teorioinformacyjnej?

Pora zapytać Autora, nawiązując do obiekcji Pawła Stacewicza,  o dwie rzeczy. Po pierwsze, czy dostrzega on ów walor epistemologii  algorytmicznej, że w wielkim zakresie, mianowicie w sprawie poznania matematycznego,  odpowiada ona na trzy tradycyjne zagadnienia  epistemologiczne, to jest dotyczące źródeł,  kryteriów i granic poznania.

(1)  Źródło wiedzy matematycznej jest  w intelektualnej intuicji. Pojęcie intuicji nie do końca wyjaśnia źródła poznania, samo jest bowiem  w pewien sposób zagadkowe. Tacy autorzy jak Gödel czy Chaitin zdają  sobie z tego sprawę i traktują tę zagadkową zdolność umysłu jako rzecz do wyjaśnienia w dalszych badaniach.

(2) Spełnianie kryterium prawdziwości przypisuje ta epistemologia intuicjom, których owocem są efektywne, sprawdzające się w praktyce, algorytmy.

(3)  Wytycza  ten nurt epistemologii  granice poznania algorytmicznego, a zarazem możliwości ich przezwyciężania, przez co granica staje się ruchoma, z tendencją do przesuwania się  naprzód. Obrazowo to oddaje amerykański wyraz o dynamicznej  treści „frontier” w przeciwstawieniu do statycznego, ograniczającego, słowa”limit”. W tym sensie należy rozumieć zwrot dynamika wiedzy w tytule tego szkicu.

Po drugie,  jeśliby Autor „Epistemologii informacji” przyznał,  że Chaitinowska epistemologia algorytmiczna daje odpowiedzi (przynajmniej cząstkowe)  na podstawowe pytania epistemologiczne, , to zrodzą się z tego  kwestie następne. Jedna jest następująca: czy Autor się osobiście z tym  odpowiedziami zgadza czy nie, i jak uzasadnia swój pozytywny bądź negatywny stosunek?  Druga kwestia dotyczy innych niż  algorytmiczna odmian epistemologii teorioinformacyjnej, a więc tych, którym poświęca  wiele więcej miejsca (jednemu z nich aż 40 stron) niż koncepcji Chaitin (6 stron).  Czy jest tak,  że korzystając z pojęć i wyników takiej lub innej teorii informacji przyczyniają się  one do rozwiązania kluczowych kwestii epistemologicznych?  Należałoby na to odpowiedzieć biorąc kolejno pod lupę propozycje, których autorami są Shannon, Floridi, Dretske, Cackowski, Lubański.

Trzeba się liczyć z odpowiedzią, że nic takiego nie było zamiarem Autora.  To znaczy nie zamierzał on posłużyć się środkami teorii informacji dla postępu i modernizacji epistemologii, lecz omawiał je w innym celu.  Być może cel ten jest do odczytania w książce, a przeoczeniu tej deklaracji winna jest niestaranność czytelnika. Szkoda jednak, bu pozostał on ofiarą tej swojej niestaranności, pozostając w niewiedzy co do intencji Autora. Dlatego cenna by była jego w tym względzie pomoc w postaci zwięzłego wyjaśnienia, jakie są najważniejsze problemy, na które książka ma dać odpowiedź, i jakie to są odpowiedzi.

P.S. Poglądy Chaitina można poznać w stopniu wystarczającym na potrzeby obecnej dyskusji, czytając jego artykuł „Epistemology as Information Theory: From Leibniz to Omega”.   Ramy tego wpisu nie pozwalają na omówienie kluczowego w koncepcji Chaitina  pojęcia kompresji informacji. Sygnalizuję je tylko za pomocą jednego cytatu, zachęcając do zapoznania się z całością tego  frapującego i jasno napisanego tekstu.  Oto ów szczególnie znaczący cytat.

I think of a scientific theory as a binary computer program for calculating the observations. And you have a law of nature if there is compression, if the experimental data is compressed into a computer program that has a smaller number of bits that are in the data it explains. The greater the degree of compression, the better the law, the more you understand the data.

Zaszufladkowano do kategorii Dialogi wokół recenzji, Epistemologia i ontologia, Filozofia informatyki | 13 komentarzy

O światopoglądzie informatycznym
(część II: Pojęcia i niektóre tezy)

Niniejszy wpis ma charakter prowizoryczny. Zdecydowałem się go jednak umieścić ze względu na jutrzejszą prezentację i blogu, i światopoglądu informatycznego na zebraniu w PW.

Wpis ten stanowi kontynuację  już dyskutowanej pierwszej części cyklu „O światopoglądzie informatycznym”. Miałem zamiar zebrać w nim wszystkie ważniejsze tezy ŚPI, „nabudowane” na pewnych podstawowych (wywiedzonych z informatyki) pojęciach. Na razie jednak udało mi się opracować tylko część pojęciową, dotyczącą tez o umyśle i jego informatycznych modelach.

Oto główne punkty tekstu, którego całość można przeczytać tutaj.
(Zarówno niniejszy wpis, jak i sprzężony z nim tekst, zostaną niebawem przeredagowane)

*****

POJĘCIA I WYBRANE TEZY

1. Zdecydowana większość pojęć opisujących światopogląd informatyczny (ŚPI) wywodzi się z informatyki teoretycznej, w ramach której definiuje się je ściśle, w odniesieniu do konstrukcji matematyczno-inżynierskich (jak maszyna Turinga). Specyfika ŚPI polega jednak na maksymalnie szerokiej interpretacji tychże pojęć (np. w odniesieniu do umysłu rozumianego jako system do przetwarzania informacji).

2. Najważniejsze pojęcia informatyczne, które leżą u podstaw ŚPI, są powiązane ze sobą siatką następujących znaczeń:

a. System informatyczny jest pewnym automatem, który przetwarza dane w sposób algorytmiczny (czyli zaprogramowany).

b. Dane są to informacje zakodowane w sposób adekwatny do możliwości przetwarzającego je automatu (np. cyfrowo lub analogowo).
Krócej: dane są tworzywem systemów informatycznych.

c. Informatyczne kody mają moc sprawczą, co rozumie się tak, że odpowiednie sekwencje symboli kodowych powodują (ze względu na  konstrukcję automatu) odpowiednie akcje automatu.
Krócej: informatyczny kod jest kodem sterującym.

d. Algorytm jest to schemat operacji możliwych do wykonania przez pewną maszynę informatyczną: d1) uniwersalną maszynę Turinga UMT (algorytm rozumiany wąsko, choć najbardziej precyzyjnie); d2) jakąkolwiek maszynę (algorytm rozumiany szerzej).

e. Algorytmy – służące do rozwiązywania określonych klas problemów – mają różną złożoność (czasową i pamięciową), która jest miarą ich efektywności. Cechę złożoności przypisuje się również samym problemom: złożoność problemu P jest to złożoność najbardziej efektywnego (czyli najmniej złożonego) spośród wszystkich algorytmów rozwiązujących problem P.

f. Nawet w dziedzinie problemów jasno określonych (a tylko te są domeną informatyki) istnieją problemy algorytmicznie nierozwiązywalne:
f1) bezwzględnie – gdy nie istnieje (w sensie obiektywnym) algorytm rozwiązujący wszystkie szczególne przypadki danego problemu; lub
f2) praktycznie – gdy dla danego problemu nie istnieje algorytm o dostatecznie niskiej złożoności czasowej.
Problemy nierozwiązywalne bezwzględnie nazywa się nieobliczalnymi.

g. Zależnie od przyjętego modelu obliczeń/algorytmizacji (np. turingowskiego lub innego) mówi się o różnych rodzajach obliczalności (i nieobliczalności). Problemy rozwiązywalne za pomocą UMT nazywa się t-obliczalnymi, obliczalne za pomocą innego rodzaju maszyn: nt-obliczalnymi.

h. Moc obliczeniowa maszyny określonego typu (np. cyfrowej; typ maszyny zależy od przypisanego jej modelu obliczeń) jest to zakres  rozwiązywalnych przez nią problemów.

3. Typowa dla ŚPI szeroka interpretacja pojęć technicznych (zob. 2a do 2h), prowadzi do różnorodnych tez i pytań, które dotyczą umysłu i świata.
Stają się one sensowne (i zrozumiałe) pod warunkiem, że założymy wstępnie, iż: (a) umysł stanowi pewien system do przetwarzania informacji, (b) pewne fragmenty świata (lub nawet cały świat) mają określoną zawartość informacyjną –  warunkującą  ich strukturę i działanie.

4. Zgodnie z kolejnością założeń wymienionych w punkcie 3 w centrum ŚPI sytuuje się zagadka ludzkiego umysłu, który z jednej strony przypomina sztuczne systemy do przetwarzania danych (komputery), a z drugiej strony, ma nad nimi poznawczą (szerzej: życiową) przewagę.

5. Z ogólno-naukowego punktu widzenia najlepszy wgląd w zagadkę umysłu daje konstrukcja i analiza (naukowych) modeli umysłu.
Z węższego, tj. informatycznego, punktu widzenia (który jest istotą ŚPI) za najbardziej adekwatną strategię modelowania umysłu uznaje się strategię informatyczną –  zgodnie z nią umysł modeluje się jako taki czy inny system do przetwarzania danych (np. cyfrowy i logicystyczny zarazem).

6. Metodologiczna zaleta informatycznych modeli umysłu polega na tym, że opisują one dobrze bardzo ważną, jeśli nie najważniejszą, funkcję umysłu, jaką jest rozwiązywanie problemów (systemy informatyczne służą właśnie rozwiązywaniu odpowiednio kodowanych problemów).

7. Dzięki konstrukcjom i modelom informatycznym udało się uzyskać precyzyjną wiedzę o różnych poziomach (klasach) złożoności problemów, przed którym staje ludzki umysł (nierzadko wspomagany komputerem). Udało się także zidentyfikować problemy algorytmicznie nierozwiązywalne lub trudno-rozwiązywalne (zwane nieobliczalnymi; zob. pkt 2f).
7a. Istnienie problemów nieobliczalnych, a więc istnienie formalnych ograniczeń technik informatycznych, może skłaniać do  przyjęcia tezy o ponadmaszynowej mocy ludzkiego umysłu – który potrafi ograniczenia takie pokonywać, a przynajmniej identyfikować.

8. Z perspektywy rozważań o złożoności problemów stają się widoczne dwa, sprzężone ze sobą, zjawiska kulturowe: (a) złożoność problemów we współczesnym świecie ustawicznie rośnie; jednocześnie jednak (b) nieustannie wzrasta moc obliczeniowa systemów informatycznych (które wspomagają ludzi w rozwiązywaniu tychże problemów).

9. Rozumiejąc i/lub modelując umysł informatycznie, zakłada się w sposób konieczny, że wypełniające umysł informacje są w określony sposób kodowane. Przyjmuje się zatem istnienie wewnątrz-umysłowego kodu (WUK) – który podobnie jak kody dla maszyn informatycznych jest kodem sterującym, a ponadto może zostać (co najmniej w pewnym przybliżeniu) odzwierciedlony w liczbach.

*****

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | Dodaj komentarz

Szkic #2 z cyklu: „Europa — Kuźnia Oświecenia”
Projekty pokoju: Niemcy-Francja i Niemcy-Polska

Poświęćmy chwilę uwagi wystąpieniu Bronisława Komorowskiego w ramach „Berliner Rede”,  17 czerwca 2011.  Nie sama data decyduje o jego aktualności, ale fakt, że myśli w nim zawarte są podstawą aktualnej strategii politycznej urzędującego Prezydenta.  Adresowana do audytorium niemieckiego, mowa ta dotyczy historycznego zwrotu w stosunkach polsko-niemieckich, który stał się możliwy dzięki odzyskaniu suwerenności przez Polskę i dokonaniu się zjednoczenia Niemiec oraz, oczywiście, dzięki silnej woli politycznej obu stron.  Rozważmy następujący fragment, szczególnie doniosły dla edukacji politycznej, zasługujący więc na to,  żeby wzmocnić jego wymowę glossą treści historycznej.

Proces pojednania przyśpieszył gdy Polacy i Niemcy odzyskali prawo do samostanowienia.  To jest warunek — pojednanie może się dokonywać w pełni wtedy, gdy jest demokratyczne otoczenie.  Wkrótce po pokojowej rewolucji 12 listopada 1989 roku pierwszy polski niekomunistyczny premier Tadeusz Mazowiecki spotkał się z kanclerzem Niemiec Helmutem Kohlem na mszy pojednania w Krzyżowej.  Przekazali sobie znak pokoju – symboliczny gest, który otworzył nowy rozdział w stosunkach polsko-niemieckich.  Jest to upamiętnione w Krzyżowej także przez drugi pomnik.  Pomnik przypominający istnienie i obalenie muru berlińskiego.  To drugie po niemiecko-francuskim pojednaniu najważniejsze wydarzenie — pojednanie polsko-niemieckie — w najnowszej historii Europy otworzyło drogę do poszerzenia procesu jednoczenia Europy.  Nie ma bowiem integracji europejskiej bez pojednania narodów.  Takie jest polskie doświadczenie, takie jest doświadczenie niemieckie i wielu innych narodów naszej Europy.

Impulsem dla obecnych rozważań jest zdanie wyróżnione przeze mnie kolorem.  Żeby  doniosłość jego docenić, trzeba przebiec myślą przeszło tysiąc lat historii, poczynając od Karola Wielkiego

1.Tysiącletnia rywalizacja niemiecko-francuska
jako dominanta dziejów Europy

Dzieje średniowiecznej Europy zostały ukształtowane przez syntezę dwóch idei: mesjańskiej idei Królestwa Bożego,  konstytuującej istotę chrześcijaństwa, oraz żywej pamięci o świetności i potędze  upadłego cesarstwa zachodnio rzymskiego.  Doskonale zdawały się  tu dopełniać  Pax Christi i Pax Romana. Ideał ewangeliczny miał być wprowadzany w życie realistycznie, a więc gdy trzeba to ostrym jak rzymski mieczem.

W tym duchu działał Karol Wielki przybrawszy tytuł Imperator Romanorum, z myślą o przywrócenie w Europie dawnej świetności Rzymu. Tym razem pod egidą chrześcijaństwa i w sojuszu z papiestwem. To pozwalało wierzyć, iż zamiar się urzeczywistni – dla dobra ludzi doczesnego i wiecznego –  z niezawodną pomocą Opatrzności.

Gdy stworzone przez Karola rozległe państwo rozpadło się po jego śmierci    na części wschodnią i zachodnią,  przez wieki nie było w centrum Europy ważniejszego problemu, jak ten, która z owych części jest prawym dziedzicem imperium rzymskiego, a jej władca rzymskim imperatorem. Wygrała strona wschodnia, niemiecka. przegrała zachodnia, francuska. Ta druga więc nie ustawała  w próbach rewanżu, aż zwycięski Napoleon — w tysiąc lat po dacie koronacji Karola –wymusił na niemieckim dziedzicu tytułu jego zrzeczenie się na zawsze.

To jednak nie zakończyło zaciętej  francusko-niemieckiej rywalizacji.  Skończył się tylko sztafaż ideologiczny, silnie podbudowany frazeologią religijną, bo  to z woli Boga — potwierdzanej koronacjami przez papieży (Niemcy wymuszali je z reguły siłą)  miał władca Rzeszy być zwierzchnikiem całej chrześcijańskiej Europy.  Realnym napędem wrogości były narastające z wiekami rachunki krzywd wzajem sobie wystawiane przez oba narody. Każda klęska zadana jednemu i odczuwane po niej poniżenie były paliwem dla woli odwetu, a gdy ten się  udał, wtedy po drugiej stronie powstawała jeszcze silniejsza potrzeba odegrania się na wrogu.

Ta złowroga cykliczność pojawia się  z zadziwiająca regularnością. Jeśli ją obserwować od czasów Ludwika XIV, to mamy najpierw jego wielką inwazję na Rzeszę i Niderlandy, którą odparto po zaciętych walkach  z walną pomocą posiłków angielskich. W sto lat potem, z rewanżem za tamtą przegraną wyprawia się pełna zapału rewolucyjna armia francuska. Jej podboje z porażającą skutecznością kontynuuje Napoleon, gromiąc na kolejnych polach bitew Prusaków i Austriaków. Ci z rosyjską pomocą biorą rewanż pod Lipskiem, a potem, jeszcze wsparci przez Anglię — pod Waterloo.

Kiedy za Napoleona III Francja znów się ubiera w splendor cesarstwa,  urosłe w siłę Prusy dają do zrozumienia, kto się bardziej w Europie  liczy, docierając zbrojnym zagonem do Paryża.  Francuzom tak się marzy pomszczenie tamtej klęski, że z niesamowitym entuzjazmem oddziały francuskie wyruszą na wojnę roku 1914.   Wojnę Francja wygrywa, ale powodów do dumy jest o tyle mniej, że się nie obeszło bez  militarnej pomocy Ameryki, a straty ludzkie są tak straszliwe, że pozostaje po nich trauma jak po klęsce.  Nie gaśnie więc wola odwetu i realizuje się  w karnym nałożeniu na Niemcy kolosalnych ciężarów ekonomicznych,  które do cna rujnują i tak już zdewastowaną przez wojnę gospodarkę. Mają więc Niemcy drugi powód do odwetu, prócz gorzkiego doświadczenia   klęski militarnej, co stwarza wymarzony grunt dla puczu Hitlera i jego odwetowej agitacji.

W drugiej wojnie światowej zwycięska w jej początkach Trzecia Rzesza bierze rewanż, upokarzając pokonanego wroga  nie tylko przez okupację. Także przez symboliczny akt podpisania kapitulacji dokładnie w tym samy miejscu,  nawet w tym samym pomieszczeniu, w którym sztab niemiecki kapitulował w roku 1918.

2.  Historyczny zwrot i jego motywacja humanistyczno-chrześcijańska

Wnioskując z tysiącletniej praktyki, należało oczekiwać, że  tym razem Francuzi, dołączywszy mimo początkowej klęski do grona zwycięzców,  motywowani więc do odwetu podwójnie, przez pierwotne upokorzenie i późniejszą siłę, będą nieodparcie przeć do likwidacji Niemiec jako siły politycznej w Europie. Nareszcie, po tysiącu lat zmagań na tej arenie!

Dlaczego stało się tak bardzo inaczej? Dlaczego Francja tak walnie się przyczyniła do odrodzenia siły politycznej Niemiec? Nie tylko ona była tego procesu aktorem,  wybuch zimnej wojny z ZSRR skłaniał także mocarstwa anglosaskie do liczenia na gospodarczy i militarny wkład Niemiec w zapobieżenie sowieckiej agresji, a to pociągało odzyskanie przez nie suwerenności. Ale pełny sukces tych planów byłby nierealny, gdyby nadal płonął konflikt francusko-niemiecki.

Jakim sposobem  tak skutecznie został wygaszony? Stała się rzecz zaskakująca dla znawców europejskiej historii.  Oto doktryna chrześcijańska, która przez wieki była źródłem podziałów, zarzewiem wojen i czystek  religijnych, natchnęła kilku francuskich i niemieckich mężów stanu do przebaczenia, pojednania i sojuszu. Zgodnie z duchem ewangelii, ale wbrew permanentnej praktyce społeczności chrześcijańskich, wbrew polityce wielce chrześcijańskiego  Ludwika XIV i kardynała Richelieu, wbrew też polityce arcychrześcijańskich cesarzy Rzeszy Niemieckiej. Toteż szukając tytułu dla tego odcinka,   zmodyfikowałem przydawkę „chrześcijańska” słowem „humanistyczno”, dla odróżnienia tej twórczej wersji chrześcijaństwa od jego wersji destruktywnej.

Jest to fenomen tak zdumiewający i zarazem tak złożony, że aby zdać zeń sprawę i przeprowadzić owocną na jego temat refleksję, trzeba by osobnej opowieści.  Tu niech wystarczy przypomnienie, że z tej humanistyczno-chrześcijańskiej idei,  fortunnie zespolonej z pragmatyzmem polityczno-ekonomicznym, zrodził się byt polityczny, który po kilku transformacjach stał się dzisiejszą Unią Europejską (wchodzące tu w grę szczegóły znaleźć można w Wikipedii, artykuł „Ojcowie integracji europejskiej”). Tak więc pojednanie francusko-niemieckie po drugiej wojnie światowej, choć nie jest całym fundamentem UE, jest wmurowanym jakby w ten fundament kamieniem węgielnym.

3. Jak się rysuje na tym tle
europejski aspekt pojednania polsko-niemieckiego?

Pytaniem tym nawiązuję do cytowanej na wstępie wypowiedzi  Bronisława Komorowskiego.  Przytoczę ją jeszcze raz. „To drugie po niemiecko-francuskim pojednaniu najważniejsze wydarzenie — pojednanie polsko-niemieckie — w najnowszej historii Europy otworzyło drogę do poszerzenia procesu jednoczenia Europy”.

Trudno jest robić ranking ważności historycznych  zdarzeń. Pewne  jest, że pojednanie polsko-niemieckie należy do zdarzeń doniosłych w powojennych dziejach Europy. Na ile mamy tu analogię do ważności pojednania Francuzów i Niemców?  Niewątpliwa  analogia jest w tym, że  jedno i drugie pojednanie kończy konflikty wynikające z roszczeń terytorialnych i z pamięci krzywd.  Miała też pewne znaczenie, podobnie jak w przypadku francusko-niemieckim, chrześcijańska idea wybaczania krzywd, która się pojawiła w kontaktach między kościołami Polski i Niemiec.

I jeszcze aspekt europejski.  Zbliżenie polsko-niemieckie,  choć nie nie tak fundamentalne dla zjednoczenia Europy,  jak w przypadku francuskim, było jednak do tego celu konieczne. Wiadomo, że czasem bez jednego, drobnego nawet,  elementu mechanizm nie zaskoczy; o takim  elemencie powiemy, że jest nieodzowny, choćby nie był podstawowy.  Ta konstatacja wprowadza nas w nowy  temat: na czym owa nieodzowność polega? A za nim idzie kolejna kwestia: co różni przypadek polski od francuskiego? I jakie z tych różnic płyną wnioski dla obecnych i przyszłych relacji Polski z Niemcami, innych przecież niż stosunki francusko-niemieckie?  To temat do osobnego zastanowienia w swoim czasie.

Zaszufladkowano do kategorii Europeizm (Europeanism), Filozofia polityczna, Światopogląd liberalny, Światopogląd racjonalistyczny | 2 komentarze

Konstansy prawa naturalnego
a historyczna zmienność warunków społecznych

Kontynuuję rozważania o prawie naturalnym, nawiązując do wczorajszego w tej materii wpisu.

§1. Zająłem się tym tematem, poniechawszy na chwilę dociekań z zakresu światopoglądu informatycznego, ponieważ widzę w tym potrzebę natury obywatelskiej. Nastał w naszym kraju czas, gdy wpływowe grupy opiniotwórcze prowadzą ofensywę na rzecz uwzględniania norm prawa naturalnego w stanowieniu prawa państwowego. Jest to postulat głęboko słuszny, ale zarazem niebezpieczny, gdy głosiciele takich postulatów nie mają tych zagadnień dobrze w głowie poukładanych.  Jeśliby uznało się np.  za normę prawa natury, że mąż jest zwierzchnikiem żony, bo tak było od wieków, a przy tym tak głosił Arystoteles (od którego idea prawa naturalnego się wywodzi), to byłaby zasadna np. ustawa zabraniająca kobiecie robienia prawa jazdy  bez zgody męża. Nie jest to przykład fikcyjny, skoro  prawa niektórych państw islamskich są  stanowione w tym duchu, a przesłanką  wziętą rzekomo z prawa naturalnego jest mniejsza zdolność kobiety do podejmowania decyzji (jak głosił Arystoteles,  wychodząc z ówczesnych poglądów biologicznych).

Remedium przeciw takim nonsensom jest proponowane przez Tomasza z Akwinu rozróżnienie (odnotowane w poprzednim wpisie) między normami prawa natury, które są absolutnie  uniwersalne  oraz normami, które się dostosowuje do zmiennych historycznie warunków czasu i miejsca.  Te pierwsze nazwę konstansami  prawa naturalnego.

Drugie ze wspomnianych są to normy wtórne logicznie względem konstansów. To znaczy,  konstansy są ich przesłankami, ale nie jedynymi, podczas gdy drugi zestaw przesłanek tworzą sądy o treści historycznej, dotyczące warunków społecznych określonego czasu. Tak widział  strukturę systemu norm Tomasz z Akwinu,  wychodząc z koncepcji metodologicznych,  które wykłada na początku swego opus magnum –„Summa Theologica”.

Weźmy za przykład konstansu to, że w  grupie społecznej — na odpowiednio wysokim poziomie złożoności — konieczna jest władza,  której należy się podporządkować. Aby jednak dokonać racjonalnego wyboru formy władzy, trzeba mieć na uwadze warunki czasu i miejsca. Te w pewnych czasach przemawiały za ustrojem monarchicznym, w innych za republikańskim. Przykład z monarchią jest pouczający, bo przez długi czas niektóre doktryny kościelne zawierały tezę,  że tylko władza monarchiczna jest po wsze czasy wymogiem prawa naturalnego. Mamy tu więc przypadek pomylenia konstansu z normą wtórną.

§2. Odpowiedzialne przeto argumentowania z prawa naturalnego wymaga ustalenia listy konstansów.  Gdy powstanie  spór, czy jakiś projekt ustawy jest zgodny z prawem natury, niech strony przedstawią każda swoją listę konstansów. Może się czasem okazać, że te listy są zgodne, a spór się bierze z odmiennych diagnoz społecznych, które wespół z konstansami służą do wyprowadzania norm wtórnych.  Wtedy zyskujemy mocniejszy grunt pod nogami, bo o takich diagnozach można dyskutować na gruncie empirycznym, gdy się dokona stosownej operacjonalizacji pojęć.

Żeby dać bodaj cząstkowe wyjaśnienie pojęcia konstansów,  przedstawiam tu ich kilka na prawach przykładu, nie dążąc do kompletności.

A.  Jest dla człowieka naturalna  (w sensie należenia do prawa natury) skłonność do działania w sposób rozumny (ad agendam secundum rationem — Tomasz a Akwinu, S.Th. 1-a II-ae,  q.94,  a.4) — B.  Czyń innym to, co chcesz,  żeby tobie czynili, a nie czyń czego, czego byś nie chciał, by czyniono Tobie (ibidem: maksyma ewangeliczna zaliczona do konstansów  przez Tomasza).  — C.  Postępuj  zgodnie z własnym sumieniem, pomimo świadomości,  że może być ono błędne,  dopóki błędu w nim nie dostrzegasz (także teza Tomasza). — D.  Postępuj według takich norm, co do których uważasz, że powinny być prawem powszechnym (Immanuel Kant).  — E.  Gdy trzeba wybierać między opcjami,  z których  wszystkie są złe moralnie, nie zwalniaj się od dokonania wyboru, lecz  wybieraj najmniejsze zło (ten  punkt dodaję od siebie, bez powoływania się na klasyków, będąc gotów bronić go w dyskusji).

§3.  Sięgając po przykłady do kwestii ról społecznych płci,  załóżmy, że jest konstansem, iż funkcje publiczne powinni sprawować ludzie odpowiednio do tego uzdolnieni.  Żeby dostać wniosek — jako normę wtórną prawa naturalnego — że takich funkcji nie powinny sprawować  kobiety,  trzeba obronić przesłankę,  że są one do tego mniej uzdolnione (tak można by argumentować przeciw ustawie o parytecie dla kobiet w kandydowaniu do parlamentu etc).  Następnym krokiem powinna być operacjonalizacja pojęcia „być zdolnym do funkcji publicznych”, a wreszcie przedstawienie dowodów empirycznych (np. ze skanowania mózgu,  o ile technika skanowania osiągnie odpowiedni poziom diagnostyczności).

Biorąc przykład bardziej emocjonujący,  czy liczba płci jest większa od dwóch, trzeba się zdecydować, ile będziemy w argumentacji czerpać z biologii,  tj. z  generalizacji zoologicznych, a  ile z doświadczenia historycznego (np. starożytnych Aten) itd.  Biologia może być ryzykowna dla antypluralistów, bo mrówki i pszczoły mają po trzy płcie, związane ze  strukturą społeczną.  Doświadczenie zaś  historyczno powinno dostarczyć materiału do korelacji cech,  np. na ile homoseksualność mężczyzn koreluje się ze zniewieściałością, albo z osłabieniem potencji intelektualnej.

Na koniec, temat szczególnie trudny poznawczo, ale raczej nie do uniknięcia: jakie zmiany w układzie relacji między płciami może przynieść zawrotny postęp w technikach biologicznych i informatycznych? Np. jeśli prawdą jest pogląd o mózgowym uwarunkowaniu  różnic między zdolnościami mężczyzn i kobiet, może to przestać być aktualne po upowszechnieniu się nanotechnologii z jej nieograniczonymi możliwościami ulepszania organizmów,  a więc wyrównywania braków, także w sferze neuronowej. Rozumiem, że wielu ludzi (w tym i ja sam) woli nie myśleć o takim ,,Nowym Wspaniałym Świecie”,  bo byłoby bardzo trudno w nim się nie pogubić, ale chowanie głowy w piasek  niczego nie zmieni. A jeśli ktoś ma obowiązek o tym myśleć, to filozofowie, teologowie (jak daleko wolno posuwać się człowiekowi w przekształcaniu przyrody?), a także politycy, jeśli mają horyzont dalekowzrocznych mężów stanu.

Jak widać z tych paru przykładów, specjaliści od „Gender Studies” powinni mieć pełne ręce pracy nad ważnymi i trudnymi tematami, które wymagają biegłości w paru niełatwych dyscyplinach, jak biologia, historia idei i obyczajów, czy — niosąca przełom technologiczny i społeczny — informatyka.  Ile z tego się dzieje w różnych na  świecie ośrodkach badań „genderowych”, to sprawa warta zbadania. Jeśli udałoby się sporządzić taką mapę, łatwiej byłoby odróżnić rzetelne godne uwagi badania od uprawiania modnych nonsensów. Te drugie rzucają się w oczy za sprawą publicystycznego wigoru spierających się stron, przesłaniając zagadnienia naprawdę istotne.

 

Zaszufladkowano do kategorii Etyka, Filozofia polityczna, Światopogląd racjonalistyczny | 5 komentarzy

Studia nad społecznymi aspektami płci w świetle idei prawa natury u św.Tomasza i Adama Smitha

§1. Jak wichura zaczęła się nad Polską kłębić burzliwa dyskusja wokół „Gender Studies”. To znaczy — badań nad czynnikami, które warunkują społeczne role, zadania i odpowiedzialność kobiet i mężczyzn. Stanowisko w tej materii radykalnie  konserwatywne powołuje się na prawo naturalne jako determinujące  status społeczny każdej z płci.  Podobnie, argumentuje się z prawa naturalnego w sporze o moralną dopuszczalność antykoncepcji — sprawy pośrednio związanej z problemem aktywności zawodowej  kobiet.

Ponieważ do moich hobby zaliczam problematykę prawa natury, którą zdarzało mi się też wykładać prawnikom w UW ( kurs  filozofii prawa),  myślę że nie powinienem w tym sporze stać z boku.  Jednym z bohaterów tamtych wykładów był Tomasz z Akwinu,  zasługujący w pełni na to wyróżnienie z powodów obiektywnych, ale nie brakło też motywacji subiektywnej, jako że poświęciłem mu rozprawę doktorską w KUL na temat relacji między jego metodologią nauk a metodologią współczesną. Miałem też w tematyce tomistycznej znakomitego mistrza Profesora Stefana Swieżawskiego, a ponadto zdarzyło mi się prowadzić wykład „Wprowadzenie do Sumy Teologicznej Tomasza z Akwinu”.

Co do Adama Smitha, jest to hobby nabyte później, ale nie mniej silne. Zainteresowania jego ekonomią doprowadziło  mnie do kwestii jego znaczącego udziału w koncepcjach prawa naturalnego i ewolucji  kulturowej, jakie snuli z rozmachem szkoccy luminarze ery Oświecenia.

§.2.  Postanowiłem więc napisać coś w rodzaju rozprawki, by tak rzec, erudycyjno-polemicznej,  żeby podzielić się wiedzą z tymi obrońcami prawa naturalnego,  którzy nie mieli podobnej sposobności wejścia w temat; a zarazem próbować przekonać do idei prawa naturalnego tych, którzy nie do końca są do niej przekonani.   Rozprawka ukaże się niebawem w materiałach Lectorium Cafe Aleph (do czego dam link w stosownym czasie), a na razie czynię w tej kwestii zapowiedź, która sama w sobie może się przydać jako zagajenie i zachęta do dyskusji.

Chcę uświadomić fakt bardzo znaczący,  że Tomasz w mistrzowski sposób odróżniał podstawową i niezmienną część prawa naturalnego od jej części zmiennej, zależnej od historycznych  okoliczności czasu i miejsca. Za naczelny wśród niezmiennych aksjomat wskazał normę: Postępuj zawsze w sposób racjonalny.  Daje to szerokie możliwości interpretacyjne, na czym racjonalność polega, a więc nawet tę część niezmienną cechuje elastyczność. Jeszcze bardziej elastyczny jest dział relatywizowany do okoliczności historycznych.

I tak np., według Tomasza, w pewnych okolicznościach słuszne będzie istnienie własności prywatnej, a w innych jej uspołecznienie.  Jedno i drugie może się powoływać na prawo naturalne jako przesłankę, lecz przesłankę wymagająca dopełnienia przez inną, określająca stan społeczeństwa, w którym obowiązywałby płynący z obu wniosek.

Tomasz, będąc tak uwrażliwionym na zmiany historyczne, nie próbował jednak wskazać na kierunek tych zmian, ani na rządzące nimi prawidłowości,  a więc wykres ewolucji cywilizacyjnej czyli (w innym słownictwie)  kulturowej.  Na to brakowało jego epoce wiedzy historycznej, geograficznej, socjologicznej.  Po pięciu jednak wiekach, pod koniec osiemnastego stulecia, było tej wiedzy na tyle,  że dało się naszkicować  przekonujący schemat ewolucyjny.  Czas dopisał ciąg dalszy: niebawem nastała rewolucja przemysłowa,  a w wiek potem informatyczna. Mamy więc dziś sporo  danych, żeby prognozować dalsze kierunki ewolucji i na te czasy dookreślać reguły prawa naturalnego, a wśród nich reguły relacji i ról płci.

§3.  Na pełną dokumentacje tych idei będzie miejsce w zapowiedzianej „rozprawce”.  Ale żeby wstępnie je wyposażyć  w pewien certyfikat wiarogodności, podaję garść danych o źródłach. Dla omawianych idei Tomasza podstawowy jest rozdział  Sumy Teologicznej (dział pierwszy części drugiej) zatytułowany „De lege naturali”, a w nim w szczególności artykuły IV i V, ten drugi zatytułowany „Utrum lex naturae mutari possit” (Czy prawo natury może się zmieniać).

Wiedzę na temat ewolucji kulturowej wg  Adama Smitha oraz  jego znakomitych mistrzów i kolegów można zaczerpnąć z barwnej opowieści Arthura Hermana „The Scottish Enlightenment. The Scots’ Invention of Modern World” 2001 ( i wydania następne), gdzie znajdują się też liczne wskazówki do dalszych lektur.

Co do wiążącej definicji „Gender Studies”, a więc najbardziej wiarogodnej klasyki tego problemu, na czele listy mamy definicję WHO (Światowej Organizacji Zdrowia).  Oto ona.

World Health Organization: The word gender is used to describe the characteristics, roles and responsibilities of women and men, boys and girls, which are socially constructed. Gender is related to how we are perceived and expected to think and act as women and men because of the way society is organized, not because of our biological differences.

Szukaj przez Google’a pod hasłem: „Definitions of Gender. World Health Organization”

W sprawie socjologicznej definicji płci istnieją, być może, teksty zabarwione jakimś fanatyzmem ideologicznym.  Takich nie napotkałem, domyślam się ich tylko na tej podstawie, że badaniom pod nazwą „Gender Studies” niektórzy ludzie przypisują  bardzo dziwne właściwości, jak gdyby ich autorzy za  cel mieli deprawację seksualną społeczeństwa.  Jeśli ktoś znajdzie taki tekst autorstwa jakiegoś zdeklarowanego obrońcy i szerzyciela „Gender”, pozyska moją wdzięczność, o ile  w komentarzu do niniejszego wpisu zacytuje ów tekst z podaniem źródła. To by nam wzbogaciło dokumentację, z pożytkiem dla wszystkich, których ta sprawa zajmuje z takich czy innych pozycji.  Czekam więc na tego rodzaju, a także wszelkich innych rodzajów, komentarze.

Zaszufladkowano do kategorii Etyka, Filozofia polityczna, Światopogląd racjonalistyczny | Dodaj komentarz