O informatycznym uzasadnieniu teorii ewolucji
(wg G. Chaitina)

Miło mi poinformować, że Cafe Aleph zyskało niedawno swój realny (tj. nie-wirtualny) „organ” w postaci kameralnego seminarium na Politechnice Warszawskiej. Mam nadzieję, że będzie on dostarczał cennego materiału do dyskusji internetowych.

Jako owoc pierwszego posiedzenia przedstawiamy prezentację przygotowaną przez dr-a Radosława Siedińskiego z Polsko-Japońskiej Wyższej Szkoły Technik Komputerowych w Warszawie. Jest ona poświęcona inspirowanej informatycznie koncepcji metabiologii G. Chaitina.

Oto jak dr Siedliński wprowadza w temat swojej PREZENTACJI:

W swojej prezentacji starałem się omówić centralne idee projektu tzw. „metabiologii” przedstawionej przez Gregory Chaitina w cyklu artykułów powstałych po 2009 roku i zwieńczonych książką „Proving Darwin”.
Chaitin szkicuje w niej matematyczny model procesów ewolucji biologicznej w drodze doboru naturalnego oraz udowadnia pewne twierdzenia z nim związane.
Po przedstawieniu genezy oraz ogólnych ram jego (skrajnie redukcjonistycznego) rozumienia biologii oraz procesów życia (slajdy 2-8) prezentuję rdzeń Chaitinowego modelu (slajdy 10-12). Nastepnie pokazuję, że jest on nieoczywisty, ponieważ zakłada użycie Turingowskiej wyroczni (slajd 13). Wspominam również o krytyce metabiologii zarzucającej modelowi Chaitina teleologiczność (slajd 15). Kończąc stawiam pytanie o domniemany platonizm ujęcia Chaitinowskiego (slajd 18) zwracając jednak uwage na jego nieoczywistość.

Życzę wszystkim owocnej lektury (zob. link wyżej) i zapraszam do ewentualnej dyskusji…
Paweł Stacewicz.

Dodam na marginesie, że inne koncepcje Chaitina, dotyczące nieobliczalności, były już u nas dyskutowane (zob. np. wpis Chaitin o nieobliczalności).

Zaszufladkowano do kategorii Bez kategorii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 2 komentarze

Matematyka – Człowiek – Świat

Witam wszystkich po długiej wakacyjnej przerwie, ;-) .

Dobrą okazję, by tę przerwę przerwać, stanowi mój wczorajszy wykład na warszawskim Festiwalu Nauki pod tytułem „Dlaczego matematyka jest wszędzie?” (wykład popularno-naukowy). Jego tematem wiodącym były poglądy różnych filozofów (a także filozofujących matematyków) na temat wielowiekowej już zagadki matematyczności świata.
Ponieważ po wykładzie rozgorzała dyskusja, a ze względów organizacyjnych nie mogliśmy jej kontynuować, zdecydowałem się zagaić niektóre wątki w blogu.

A zatem:
Dlaczego matematyka jest wszędzie?
Mówiąc zaś inaczej (i na odwrót):
Dlaczego świat wokół nas tak efektywnie poddaje się matematycznym opisom?

Oto kilka sformułowanych na wykładzie odpowiedzi, które etykietuję nazwami najbliższych im stanowisk filozoficznych (ponieważ odpowiedzi dotyczą tego samego zagadnienia każdą nich zaczynam tylko od słówka „bo”):

A) Odpowiedź platońska:
– bo świat wokół nas jest pewnego rodzaju przejawem/zjawiskiem/odbiciem idealnego świata obiektów matematycznych, które po prostu istnieją (w sposób niezależny od aktów ludzkiego umysłu), a można je poznać czysto rozumowo.

B) Odpowiedź arystotelesowa:
– bo rzeczy w świecie mają pewne stałe własności, które człowiek potrafi wyabstrahować (spośród innych) i ująć matematycznie w postaci adekwatnych idealizacji (w odróżnieniu od platońskich idei), a następnie zbudowanych na ich podstawie matematycznych teorii; ponieważ zaś owe idealizacje i teorie wywodzą się ze świata, nie może dziwić, że tak dobrze z nim korespondują.

C) Odpowiedź kantowska:
– bo człowiek (jako gatunek) jest wyposażony w pewne konieczne formy poznawania świata, które każą mu porządkować dane doświadczenia na sposób matematyczny (matematyczność świata stanowi zatem pochodną właściwości odzwierciedlającego ten świat umysłu).

D) Odpowiedź formalistyczna:
– bo dla celów intersubiektywnej komunikacji człowiek musi wytworzyć pewien (symboliczny) język, a najbardziej precyzyjnym i efektywnym językiem opisu świata jest język matematyki (przy czym nie wszystkie fragmenty tego języka, tj . teorie formalne, muszą odnosić się do świata; niektóre pozostaną na zawsze wolnym wytworem ludzkiego umysłu).

Z zarysowanymi wyżej odpowiedziami A-B-C-D wiąże się doniosła kwestia pochodzenia matematyki: jej metod, obiektów, struktur etc.
Wyrażają ją następujące pytania:

Czy obiekty matematyczne wywodzą się bardziej ze świata, którego opisowi (niekiedy) służą?
Czy też bardziej z właściwości i/lub wolnych decyzji ludzkiego umysłu, który ów świat matematycznie (niekiedy) opisuje?

Zachowując symetrię z układem wcześniejszych wyjaśnień, można odpowiedzieć następująco:

AA) Według platoników: obiekty matematyczne nie tylko wywodzą się ze świata, lecz po prostu tkwią w nim, a dokładniej tkwią w jego głębi, tj. pod powierzchnią ulotnych zjawisk.

BB) Według arystotelików: matematykę umożliwia świat (stałe własności rzeczy), lecz tworzy ją człowiek (zdolny do wytwarzania idealizacji).

CC) Według zwolenników myśli kantowskiej: rzutowana na świat matematyka tkwi w człowieku pod postacią specyficznych poznawczych form.

DD) Według formalistów: obiekty matematyczne są obiektami językowymi (zestawy symboli), wytwarzanymi przez człowieka nie tylko (choć również) z intencją opisu świata.

Tyle niech wystarczy na początek. Będę bardzo wdzięczny za krytyczne uwagi.
Dla przypomnienia treści wykładu udostępniam obrazujące go slajdy.
Dodatkowo, zachęcam wszystkich do przejrzenia wcześniejszej dyskusji w blogu, która dotyczyła również matematyczności świata, choć w nieco innym kontekście.

Z blogowymi pozdrowieniami — Paweł Stacewicz

Zaszufladkowano do kategorii Bez kategorii, Filozofia nauki, Światopogląd racjonalistyczny | 12 komentarzy

Od naturalizmu Searle’a do naturalizmu
w badaniach nad SI

Kilka dni temu na zajęciach z przyszłymi informatykami i matematykami miałem okazję dyskutować historyczny już tekst J.R. Searle’a p.t. „Czy komputery mogą myśleć?” (jest to jeden z rozdziałów książki „Umysł, mózg i nauka”).

Odniosłem wrażenie, że argumentacja autora niespecjalnie trafia dyskutantom do przekonania. Argumentację tę można streścić następująco.

Żaden komputer cyfrowy – niezależnie od użytych w nim rozwiązań sprzętowych i programistycznych – NIE MOŻE faktycznie realizować czynności umysłowych.
Dzieje się tak, PONIEWAŻ:

a) komputer z zasady działa czysto syntaktycznie, przetwarzając nijak nieinterpretowane, nic dla niego nie znaczące symbole (dane).
Mówiąc krótko: komputer niczego nie rozumie, a człowiek myślący musi rozumieć i rozumie.

b) komputer nie doświadcza żadnych świadomych przeżyć (doznań, emocji, uczuć itp…), a te w przypadku człowieka (wiemy to z introspekcji) zawsze towarzyszą rozumieniu czegoś, czyli wnikaniu w znaczenia przetwarzanych danych.

c) komputerowy program nie jest powiązany z biologicznym i jednostkowo niepowtarzalnym mózgiem, a ten w przypadku homo sapiens stanowi oczywistą podstawę myślenia (czyli umysłu).
Mówiąc krótko: ludzki umysł nie mógłby istnieć bez mózgu.
W terminologii filozoficznej tezę tę nazywa się biologicznym naturalizmem (w kwestii natury myślenia i umysłu).

Jeśli moje wstępne wrażenie, że dyskutanci wątpili w siłę stwierdzeń a), b) i c) jest słuszne, to zachęcam ich do rozwinięcia swoich wątpliwości w blogu.

Ja natomiast chciałbym podzielić się kilkoma uwagami na nieco inny temat.

Otóż, czytając ponownie anonsowany wyżej tekst, uświadomiłem sobie, że Searle – uważany słusznie za filozoficznego przeciwnika sztucznej inteligencji (nigdy nie będzie to prawdziwa inteligencja, lecz zawsze jej pewna symulacja czy też namiastka) – po prostu przyczynił się do zintensyfikowania badań nad SI w tym nurcie, który ja nazywam naturalizmem.
Chodzi o tego rodzaju badania, które są inspirowane obserwacją natury, a więc naturalnych systemów do przetwarzania informacji (jak np. mózg). Do sztandarowych osiągnięć naturalizmu należą: sztuczne sieci neuronowe i algorytmy genetyczne (ale nie tylko one).

A zatem: filozoficznie myślącemu Searlowi udało się nie tyle przekonać informatyków o niemożności skonstruowania sztucznej inteligencji, co pchnąć ich badania na nowe tory.
W ten sposób biologiczny naturalizm w filozofii umysłu zaowocował bujnym rozwojem informatycznego naturalizmu w badaniach nad SI.

Czy jednak sztuczne układy naturalistyczne – wyposażone nadto w sensory, manipulatory, oddziaływujące ze środowiskiem, komunikujące się ze sobą etc – mogą zasadnie podważyć argumentację a-b-c (która – dodajmy to koniecznie – była „wycelowana” w komputery cyfrowe, a nie analogowe na przykład)?
Wydaje mi się, że TAK – choć nie będę w tej chwili kontrargumentował.

Podzielę się natomiast pewną wątpliwością (którą już kiedyś w blogu formułowałem).
Oto wyrażające ją pytanie:
Czy dla ewentualnej sztucznej realizacji umysłu za pomocą układów naturalistycznych (jak sieci neuronowe czy systemy ewolucyjne) WYSTARCZY:
A) odwzorować w naszych wytworach zasady natury (np. zasady działania mózgu);
czy też
B) trzeba jeszcze posłużyć się materią natury (np. biologicznym substratem mózgu)?

Searle optowałby raczej – zgodnie z punktem c) swojej argumentacji – za możliwością B, a ponadto mógłby mieć opory przed zaklasyfikowaniem wytworu zbudowanego z elementów biologicznych jako komputera (mówiąc filozoficznie, optowałby za antyfunkcjonalizmem).

Ciekaw jestem zdania innych na ten temat (jak również tematy pozostałe)…
Punktem odniesienia dyskusji proponuję uczynić anonsowany na początku tekst Searle’a.

Zaszufladkowano do kategorii Bez kategorii, Filozofia informatyki, Światopogląd informatyczny | 17 komentarzy

Cafe Aleph w radiu TOK FM

Bardzo miło mi poinformować wszystkich, że Cafe Aleph zostało docenione przez radiowców i doczekało się już dwóch audycji w radiu TOK FM.
A zapowiadają się kolejne…

Szczególnie zadowolony jestem z audycji wczorajszej, podczas której rozmawiałem z red. Cezarym Łasiczką o maszynach autonomicznych. Rozmowa nawiązywała w sposób istotny do naszej dyskusji blogowej, zainicjowanej wpisem p.t. „Maszyny autonomiczne. Co to znaczy i czy kiedykolwiek powstaną?. W trakcie audycji cytowałem nawet niektóre wypowiedzi dyskutantów.

Gdyby ktoś chciał wysłuchać w/w audycji, to powinien wejść na stronę archiwum radia TOK FM, i wpisać w polu „Wyszukaj” tekst „O maszynach autonomicznych”. Pojawi się wówczas obrazek rozmowy, którego kliknięcie spowoduje odtworzenie audycji (dodam w nawiasie, że odbyła się ona 5-05-2014). Niestety, ze względu na aktualną politykę radia, jest to jedyny sposób dotarcia do nagrania (radio nie udostępnia żadnych linków) .

Gorąco wszystkich zapraszam –- Paweł Stacewicz.
(Komentarze oczywiście mile widziane; albo tu, albo w ramach naszej wcześniejszej dyskusji).

Zaszufladkowano do kategorii Bez kategorii | Jeden komentarz

O wspomaganym filozoficznie nauczaniu matematyki

Obecny wpis powstał w porozumieniu z redakcją czasopisma Semina Scientiarum, do którego został zgłoszony mój artykuł o Archipelagu Matematyki (przypomnę, że temat Archipelagu gościł w naszym blogu już kilkukrotnie; zob. np. wpis z dnia 20.10.2013)

Wspomniany artykuł dotyczy filozoficznych wątków Archipelagu, które z grubsza da się streścić w następujących punktach:

(1) Prezentując niektóre treści matematyczne, przyjęto sokratejską metodę pytań zmierzających do wydobycia z rozmówcy jego ukrytej wiedzy matematycznej.

(2) Przedstawiając niektóre źródła matematycznych pojęć, sięgnięto wprost do myśli tych filozofów, którzy zajmowali się twórczo matematyką i logiką (np. Arystotelesa czy Leibniza).

(3) Pragnąc ukazać związki matematyki z innymi dziedzinami, przedstawiono pewne pytania filozoficzne, do których prowadzą ustalenia matematyków (np. twierdzenia matematyczne).

(4) Objaśniając specyfikę poznania matematycznego (w szczególności zdumiewającą zgodność wielu matematycznych twierdzeń z rzeczywistością), ukazano różne filozoficzne stanowiska w tej sprawie (jak platonizm czy instrumentalizm).

Zasygnalizowawszy filozoficzne wątki Archipelagu, chciałbym teraz poddać pod dyskusję końcowy fragment w/w artykułu, dotyczący nauczania matematyki w powiązaniu z filozofią (i na odwrót).

A oto i tekst…

**********

KOŃCOWY  FRAGMENT  ARTYKUŁU
O związkach matematyki z filozofią
na przykładzie projektu Archipelag Matematyki

Na koniec artykułu chciałbym podzielić się z czytelnikiem garścią uwag metodologicznych, do których skłania uczestnictwo w opisanym projekcie. Uwagi te będą dotyczyć nauczania obydwu tytułowych dyscyplin, matematyki i filozofii, w taki sposób jednak, by druga z nich  jak najwięcej na tym skorzystała.

Uwagi będą koncentrować się wokół dwóch pytań:
(1) W jaki sposób w nauczaniu matematyki wykorzystywać filozofię?,
(2) Jak uczyć filozofii, wykorzystując matematykę (a także inne nauki ścisłe)?[1]

Cząstkowej odpowiedzi na pytanie pierwsze dostarcza drugi z opisanych w artykule przykładów. Jego forma dialogowa powinna nasunąć skojarzenie z Dialogami Platońskimi, i zawartą w nich sokratejską metodą stopniowego wydobywania wiedzy z rozmówcy poprzez podsuwanie trafnych skojarzeń i pytań (tzw. metoda majeutyczna). Uważam, że dydaktycy matematyki powinni częściej stosować tę metodę, bazując na nabytych i wrodzonych intuicjach ucznia (zakorzenionych niekiedy w języku potocznym). Stosując ją, mogliby powoływać się (nawet w formie ciekawostki) na jej filozoficzny, sokratejsko-platoński, rodowód. Dodam jeszcze, że w Archipelagu Matematyki nie brakuje materiałów zorganizowanych w taki właśnie sposób, a wiele z nich przynależy do kategorii mat-wywiadów (zob. np. zamieszczony w blogu mat-wywiad o liczbach nieobliczalnych).

Kolejna „filozoficzna” wskazówka dla dydaktyków matematyki wiąże się również z pytaniami – tym razem jednak chodzi o motywowanie uczniów do samodzielnego stawiania pytań filozoficznych. Nie tylko matematycznych, związanych z taką czy inną definicją lub metodą, lecz bardziej ogólnych. Oto sugestywny przykład: „Czym jest liczba?” i „Czy naprawdę to wiemy?”. Niech uczeń wczuje się w ten problem, zestawi różne rodzaje liczb, pozna różne sposoby odpowiedzi…  niech przekona się w ten sposób o otwartym charakterze matematyki, w której wciąż przecież konstruuje się nowe pojęcia, w tym nowe rodzaje liczb.
Przy okazji stosowania tego rodzaju metody warto podkreślać – i to ma już bezpośredni związek z historią filozofii – że historycznie rzecz biorąc, wiele matematycznych odkryć było inspirowanych pytaniami filozoficznymi (tak np. rozumował G.W. Leibniz; zob. artykuł K. Trzęsickiego).

Podążając tropem pytań, za sprawą których filozofia może przyczynić się do skuteczniejszego nauczania matematyki, dochodzimy do kwestii kolejnej. Otóż często przedstawia się matematykę jako narzędzie – narzędzie, które warto opanować po to, by móc poprawnie rozumować, formułować trafne przewidywania czy skuteczniej przekształcać świat. Innymi słowy zwraca się uwagę na bogate zastosowania matematyki. Wybierając taką strategię popularyzacji (a tak właśnie uczyniono w omawianym projekcie), przyjmuje się domyślnie, że świat wokół nas jest matematyczny. Ale dlaczego tak jest? Skąd wynika ta jego zdumiewająca cecha? Są to najgłębsze pytania filozoficzne, którymi warto dopełnić prosty przekaz o mnogości zastosowań. Warto zachęcić ucznia (zwłaszcza humanistę) do sformułowania własnego stanowiska w tej sprawie (omawiając wcześniej typowe odpowiedzi Platona, Arystotelesa, Kanta i innych) i  pokazać w ten sposób, że matematyki nie tylko trzeba się uczyć, ale warto także się nad nią zastanawiać.

Podsumujmy zatem: pozytywna rola filozofii w nauczaniu matematyki polega przede wszystkim  na tym, że zachęca ona do stawiania pytań – pytań kierunkujących myślenie (metoda majeutyczna), pytań o istotę matematycznych pojęć, oraz pytań o stosunek matematyki do świata.

Przejdźmy z kolei do pytania drugiego, w którym główny akcent pada na nauczanie filozofii, a nie matematyki[2]. Z uwagi na specyfikę omawianego projektu (a także kończący poprzednie zdanie przypis) pytaniu temu poświęcę nieco mniej miejsca.

Na początek narzuca się uwaga następująca: gdyby chcieć zachować symetrię z układem wcześniejszych wniosków, to można by stwierdzić, że podobnie jak w nauczaniu matematyki pożądana wydaje się metoda majeutyczna, tak w nauczaniu filozofii winno się stosować metody matematyczne.  To znaczy: precyzyjne definiowanie terminów, aksjomatyzację, formalne dowody itp. Do wniosku tego skłania nadto podobnie ogólny i abstrakcyjny charakter pojęć  używanych w obydwu dyscyplinach (np. z jednej strony mamy byt, a z drugiej – liczbę).

Ponieważ powyższa uwaga jest bardzo ogólna, a jej rozwinięcie wymagałoby dalszego precyzowania o jakie metody matematyczne chodzi, i które z nich można by z powodzeniem wykorzystać, proponuję rozpatrzyć na koniec trochę inny punkt widzenia, mocno zbieżny z przykładem z punktu 2.2. Mam na myśli taką metodę nauczania filozofii, która mimo zachowania wysokiego poziomu abstrakcji nawiązuje do konkretnych pojęć, metod i twierdzeń matematyki. Z grubsza idzie o metodę następującą: (i) wychodzimy od matematycznego „konkretu”, którego opis nie pozostawia żadnych niedomówień (np. od cantorowskiego pojęcia nieskończoności), (ii) omawiamy ów matematyczny punkt wyjścia w kontekście filozoficznym (np. przedstawiamy będące jego źródłem intuicje filozofów czy też stosujemy go do zilustrowania lub rozjaśnienia pewnych kwestii filozoficznych), (iii) jeśli pierwotne matematyczne definicje  okazują się filozoficznie nieadekwatne, próbujemy je przeformułować (np. zmienić cantorowskie ujęcie nieskończoności).

Metoda taka, choć opisana bardzo zgrubnie, ma dwie istotne zalety: zbyt spekulatywnych i dygresyjnie nastawionych filozofów przymusza do ścisłości wywodu, matematyków z kolei wyposaża w pewną ciekawą heurystykę (heurystykę filozoficzną) dochodzenia do nowych pojęć (a w rezultacie: nowych twierdzeń i nowych teorii). Owe dwie zalety, niekoniecznie związane z powyższą metodą,  można uznać za kwintesencję wszelkich prób łączenia matematyki z filozofią.

Przypisy

[1]
Na marginesie pierwszego z pytań warto zauważyć, że uwzględnienie w omawianym projekcie filozofii było inicjatywą samych matematyków, a szczególnie kierującego całym przedsięwzięciem prof. Tadeusza Rzeżuchowskiego.  Już sam ten fakt jest znaczący: okazuje się bowiem, że przedstawiciele innych dyscyplin, w tym tak –  wydawałoby się –  samowystarczalnych jak matematyka, pragną sięgać do filozofii. Kwestia kolejna to bardzo dobre przyjęcie filozoficznej zawartości Archipelagu przez nauczycieli (recenzujących niektóre materiały) oraz uczniów (testujących projekt). Na koniec zaś pewien akcent personalny: otóż w ostatniej fazie realizacji projektu funkcję głównego redaktora merytorycznego (a także specjalisty od pewnych spraw technicznych)  pełnił filozof z wykształcenia: pan Adam Wasążnik.

[2]
Mimo innego rozłożenia akcentów zauważyć trzeba, ze pytanie drugie pokrywa się po części z pierwszym. Dzieje się tak, ponieważ nauczanie matematyki z wykorzystaniem filozofii jest jednocześnie pewną metodą przybliżania niektórych zagadnień filozoficznych.

**********

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii | 5 komentarzy

Informacyjna piramida

Obecny wpis może wyglądać trochę na… odgrzewanie starego kotleta.

Chciałbym powrócić bowiem do tematu, który był dyskutowany w roku ubiegłym pod nagłówkiem „O informatycznym i ogólnym pojęciu informacji”.

To byłby nasz zeszłoroczny kotlet, z którego wybierzemy jednak część najbardziej smakowitą, dotyczącą tzw. „informacyjnej piramidy”.

Temat omawialiśmy na wykładzie, a tak oto anonsowałem go w roku ubiegłym (w jednym z komentarzy):

Czy pamiętacie Państwo kreślony na wykładzie obraz „informacyjnej piramidy”?

U dołu tejże piramidy (którą możemy potraktować jako obraz ludzkiego umysłu, a nawet ludzkiej kultury) sytuują się DANE, czyli pewne niezinterpretowane łańcuchy symboli (teksty, liczby, obrazy itp.); nad nimi sytuują się INFORMACJE, czyli dane zinterpretowane, wplecione jakoś w ludzką świadomość i mające określony sens; na informacjach nabudowuje się z kolei poziom WIEDZY – czyli ogółu informacji zweryfikowanych, a więc dostatecznie dobrze uzasadnionych; nad wiedzą zaś góruje wierzchołek piramidy, który możemy opatrzyć etykietą MĄDROŚCI – byłaby to wiedza poddana wartościowaniu, czyli ta jej część, która jest zgodna z nadrzędnym dla danej jednostki (lub danej kultury) systemem wartości. Mędrcem byłby zatem ten, kto potrafiłby ze swojej wiedzy umiejętnie korzystać, np. szerzyć dobro lub zapewnić sobie szczęście.

Piramida nasza zawiera zatem cztery poziomy – 1) dane, 2) informację, 3) wiedzę i 4) mądrość – poziomy wsparte na twardym gruncie faktów (a więc tego, co dzieje się w otaczającym piramidę świecie). Do przejścia z poziomu 1) na poziom 2) jest niezbędna czynność interpretowania; z poziomu 2) na 3) – czynność weryfikacji czy też uzasadniania; z poziomu 3) na 4) – czynność wartościowania.

Wszystkie te poziomy i czynności składają się, moim zdaniem, na najszerszy kulturowy kontekst pojęcia informacji – informacji, która wywodzi się z danych, ciąży ku wiedzy, a pod pewnymi warunkami może stać się podstawą mądrości.

Dla uatrakcyjnienia powyższego opisu wklejam niżej wykładowy slajd.

Obrazek informacyjnej piramidy

Potraktujmy powyższy obraz  jako  wstępną metaforę (pierwszy szkic) sytuacji człowieka w świecie, który stojąc na twardym gruncie faktów (na obrazku go nie ma), zastanawia się, czy faktycznie droga ku mądrości wymaga pokonywania kolejnych poziomów piramidy…

Zastanówmy się, czy obraz ten stanowi dobry punkt wyjścia do uporządkowania relacji w pojęciowym czworokącie: [dane, informacja, wiedza, mądrość]?
Co trzeba w nim zmienić, dodać, dopowiedzieć… by stał się bardziej adekwatny?

Czekam na komentarze, do których obiecującym wstępem była ciekawa dyskusja na ostatnich zajęciach.

Do komentowania zapraszam, rzecz jasna, nie tylko uczestników zajęć.

Pozdrawiam wszystkich — Paweł Stacewicz.

Zaszufladkowano do kategorii Bez kategorii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 15 komentarzy

W jakim sensie ilościowa teoria informacji
jest fundamentem epistemologii?

Książka Marka Hetmańskiego „Epistemologia informacji”, 2013,  ma do odegrania ważną rolę w polskich dyskusjach epistemologicznych.  Warto ją postawić na półce obok „Przewodnika po epistemologii”, 2013, pod redakcją Renaty Ziemińskiej, której anons zawierajacy spis treści ukazał  się tym blogu w roku 2011.

O pojawieniu się epistemologii informacyjnej  „Przewodnik” powiadamia w artykule Urszuli Żegleń pt.  „Epistemologia a kognitywistyka” oraz  w artykule Marcina Miłkowskiego (także obecnego w tym blogu)  pt.  „Epistemologia znaturalizowana”. Oba składają się  na dział książki  trafnie  przez Redakcję zatytułowany „Nowe tendencje”.  Obie prace, gdy mowa o epistemologii informacyjnej, koncentrują się na twórczości Freda Dretskego,  który w roku 1981 zainicjował tę problematykę książką „Knowledge and the Flow of Information”.  Jest to autor, którego  Marek Hetmański omawia bardzo szeroko (w stosunku do innych omówień)  na blisko 50 stronach.  Widać, że obie wymienione książki są  zgodne w wysokiej ocenie wkładu tego autora,  toteż monografię Hetmańskiego należy postrzegać  jako cenną kontynuację działu „Nowe tendencje”.

Z tym przekonaniem, wracam do dyskusji z prof. Hetmańskim rozpoczętej w lutym przez wpis  „Gödla-Chaitina wizja dynamiki wiedzy jako wiodący nurt nowoczesnej epistemologii„.  W tamtym upomniałem się o większe docenienie roli Gödla i Chaitina.  W obecnym zaś, parafrazując prozą sugestywny dwuwers Norwida „I stąd największym Cezar historykiem, który dyktował z konia, nie przy biurze”, coś podobnego chcę powiedzieć na temat roli i  zasług Karla Poppera jako epistemologu  trzymającego  się gruntu realnie uprawianej nauki.

Nie pretendując do etykiet w rodzaju „epistemologia informacyjna”,  Popper mocno i konkretnie powiązał ilościowe pojęcie informacji z praktyką badań naukowych w „Logik der Forschung”, 1934 i kolejnych pracach.  Bardzo istotne jest to, żeby epistemologia i sprzymierzona z nią metodologia nauk liczyły się z faktem,  że nauczycielką postępowania poznawczego jest historia nauki z jej wiedzą o sukcesach i porażkach przedsięwzięć badawczych. To ona skuteczniej niż konstrukcje terminologiczne Dretskego czy Floridiego przekonuje  nas do tej naczelnej u Poppera zasady: że wyposażenie teorii w możliwie największy zasób informacji powinno wyprzedzać procedury testujące jej  prawdziwość.  Gdy testy wypadają pomyślnie,  zwiększa to wiarogodność teorii,  wcielając ją tym  coraz silniej w całokształt  wiedzy.

Odróżnienie informacji  od wiedzy jest dla epistemologii kluczowe i głęboko intuicyjne. Każdy się zgodzi, że np. Wielkie twierdzenie Fermata tyle samo „mówiło” czyli dostarczało informacji,  Fermatowi i jego współczesnym,  co Andrew Wilesowi i jego słuchaczom, gdy w roku 1993 przedstawiał swój dowód . Nastąpiła jednak za  jego sprawą  kolosalna  zmiana sytuacji poznawczej. Zachowując tę samą  porcję informacji co przez poprzednie wieki, twierdzenie Fermata po jego udowodnieniu  stało się elementem wiedzy matematycznej, którym dotąd nie było.

Toteż  trudno wczuć się w autora,  który uważa,  iż „informacje są informacjami tylko wówczas, gdy są prawdziwe”. Tak M.Miłkowski  w „Przewodniku po epistemologii (s.593) zdaje sprawę ze stanowiska Dretskego.   Ale czyż nie jest tak,  że  twierdzenie Fermata mówi nieporównanie  więcej niż Pitagorasa, skoro to drugie dotyczy tylko równań,  których wyrazy są podnoszone do kwadratu, podczas gdy u Fermata wykładnikami potęgi są sukcesywnie wszystkie liczby naturalne większe od dwóch?

Utożsamiając  informację z wiedzą, która się legitymuje  dowodem prawdziwości,  wchodzi się w konflikt z tą oczywistością, którą we wpisie z 12.IV.2014   Paweł Stacewicz ujmuje słowami: ,,Nad DANYMI sytuują się INFORMACJE, czyli dane zinterpretowane, wplecione jakoś w ludzką świadomość i mające określony sens; na  informacjach nadbudowuje się z kolei poziom WIEDZY  – czyli ogółu informacji zweryfikowanych, a więc dostatecznie dobrze uzasadnionych.”

Oszacowanie, jak wiele informacji przynosi hipoteza jeszcze nie testowana jest nam potrzebne do decyzji, czy ją testować.  Jeśli jej zawartość informacyjna jest  tak szczupła, że bliska banałowi czy tautologii, to szkoda na jej sprawdzanie czasu, uwagi i pieniędzy.  Ale gdy  wchodzi w grę  coś takiego, jak  hipoteza Wielkiego wybuchu, wyposażona w niewyobrażalnie wielki ładunek informacji, to warto było włożyć dziesiątki milionów dolarów w satelitę COBE, który przeprowadzając pomiary mikrofalowego promieniowania tła, stwierdził taką jego wielkość, jaka wynika z teorii Wielkiego Wybuchu.  Od tego momentu teoria ta, zachowując ten sam stopień informacji, co miała w momencie jej postawienia,  uzyskała  o wiele większy stopień wiarogodności, czyli zintegrowania z korpusem wiedzy.

Tak więc, uprawiając realną naukę, a nie  akrobacje definicyjne, znajdziemy się na gruncie ilościowej koncepcji informacji oraz odróżniania informacji od zweryfikowanej wiedzy.  Ilość informacji jest pojmowana przez Shannona i innych jako pewna odwrotność prawdopodobieństwa.  Nie wydaje się, żeby Marek Hetmański, postulując wraz z Floridim oparcie epistemologii na pojęciu informacji, był entuzjastą koncepcji ilościowej.   W różnych miejscach (np.na s.298) tak to wygląda, jakby się od tego dystansował. Mój artykuł,   pod takim samym jak obecny wpis tytułem  jest próbą odgadnięcia, jak daleko sięga ów dystans, a rzeczą Autora byłoby potwierdzić ów domysł lub go uchylić.

Po pierwsze, zgodziłbym się z Autorem, jeśliby miał na myśli to, że nie da się oszacować, ile bitów informacji zawiera Newtona teoria grawitacji, a ile teoria Einsteina.  Tak mocna charakterystyka ilościowa nie jest możliwa. Ale łatwo się przekonać, że ta druga teoria zawiera ich więcej niż pierwsza czyli, krócej mówiąc, jest bardziej informatywna.  Analizuję te relację w cytowanym przed chwilą tekście.   Takie konstatacje porównawcze są chlebem codziennym nauki: kinetyczna teoria ciepła jest bardziej informatywna niż koncepcja cieplika, logika drugiego rzędu — bardziej niż  pierwszego, itd.  Żeby terminologię sharmonizować z szerszym kontekstem, zauważmy, że wśród skal pomiarowych mamy skalę porządkującą przez relacji większości.  Mniej dokładną niż innych, tym nie mniej jest to skala. Jeśli o czymś da się w ten sposób mówić, to owo coś znajduje się w kategorii ilości.

Po drugie, zgodziłbym się z Autorem,  jeśliby sądził,  że co się tyczy pojęcia prawdopodobieństwa w definicji informacji,  epistemologia nie ma pożytku z jego wersji częstościowej przyjmowanej przez Shannona.  Można jednak jego formalizm interpretować w terminach prawdopodobieństwa logicznego (w sensie Keynesa czy Carnapa), co właśnie czyni Popper.  Dostajemy wtedy pojęcie informacji inne niż Shannonowskie; nadal jednak ilościowe, skoro prawdopodobieństwo wyraża się  liczbowo ułamkiem między 0 i 1.  Jeśliby prof.  Hetmański nie chciał mieć do czynienia z prawdopodobieństwem logicznym, to będziemy w tym punkcie stać na różnych pozycjach, bo ja nie mam nic przeciw niemu.  Jeśli jednak nie ma  on w tym względzie oporów, to możemy się znaleźć w jednym froncie.  I wspólnie pracować nad ugruntowaniem epistemologii w ilościowej teorii informacji.

Zaszufladkowano do kategorii Dialogi wokół recenzji, Epistemologia i ontologia, Filozofia informatyki | 3 komentarze

Trzy stopnie autonomii maszyn
Trzeci: nie być maszyną

Nawiązuję tym szkicem do wpisu Pawła Stacewicza,  inicjującego dyskusję na temat autonomii maszyn, a także do mojej pierwszej na to zagajenie reakcji.  Oto teza  obecnego szkicu na temat trzech stopni możliwej ewolucji maszyn w kierunku autonomiczności — aż po tak pełna autonomię, że maszyna przestaje być maszyną. 

Stopień 1:  zdolność do samouctwa
Stopień 2:  zdolność do energetycznego samozasilania
Stopień 3:  zdolność do samostanowienia.

Na stopniu 1 maszyna do rozwiązywania problemów (o takiej tu mowa) nie jest poddana bez reszty dyktatatowi sterującego nią programu, lecz potrafi  stawiać problemy i je rozwiązywać  w wyniku samoprogramowania oraz  samodzielnego pozyskiwania danych.

Ten stopień był szeroko i wnikliwie rozważany w głosach dyskutantów,  toteż poprzestanę na powyższym dość ogólnikowym sformułowaniu  i odsyłam do  tych bardzo niekiedy ciekawych głosów.

Na stopniu 2 maszyna nie jest zdana na zasilanie energią z zewnątrz (jakim jest też  zasilanie z baterii wymagającej ładowania), lecz może samodzielnie pozyskiwać energię z otoczenia  oraz  przetwarzać ją w sobie na odpowiednią postać (np. chemiczną na kinetyczną), jak to czynią organizmy. Bez tego maszyna będzie zdana na człowieka; jeśliby mój komputer umiał i chciał mi jakoś zaszkodzić, to go po prostu wyłączę z prądu.  To żadna autonomia.

Zwrócenie uwagi na ten stopień zdaje się być, jak dotąd, jedynym głosem w dyskusji. Byłbym ciekaw opinii innych uczestników.

Na stopniu 3 maszyna stawia sobie własne cele i potrafi je realizować niezależnie od woli użytkownika, czy nawet wbrew jego woli. Być może,    ta faza mogłaby nastąpić niejako automatycznie w wyniku osiągnięcia stopni poprzednich.  Mając bowiem własne problemy i możliwości ich rozwiązywania bez konieczności otrzymywania algorytmów (software’u) od człowieka,  oraz mogąc samodzielnie pozyskiwaną energię, maszyna miałaby za cel rozwiązywanie postawionych przez nią czyli jej własnych problemów.  Dokładnie tak, jak czynią to ludzie. A wtedy stałaby się istota wolną i rozumna jak człowiek.  A zatem na tym stopniu ewolucji byłaby w pełni autonomiczna, ale nie byłaby już maszyną.

Sytuacja, która by  zaistniała w tej trzeciej fazie ewolucji byłaby wysoce niebezpieczna. Ludzkość ma i tak dostatecznie wiele kłopotów z silnie konfliktowymi celami niezliczonych indywiduów i zbiorowości —  konfliktami o takiej skali,  że istnieje ryzyko zniszczenia przez nie planety.  Sytuację te jeszcze bardziej by skomplikowało pojawienie się populacji autonomicznych maszyn z trzeciej fazy ewolucji.  Na ten rodzaj problemów zwraca w dyskusji uwagę Zaza w komentarzu z 24 marca.

Temat ten pojawia się w utworach z kategorii fikcji naukowych, a w tej klasie czołowe miejsce zajmuje Isaac Asimov.  Jego pomysł polega na tym,  żeby doprowadzić ewolucję do trzeciego stopnia, ale z ta modyfikacją, żeby producent robota wyposażał go w oprogramowanie, które powoduje następujący rezultat ujęty przez Asimova w „trzech prawach robotyki”. Oto one.

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Działanie tych praw Asimov opisuje w powieściach o bardzo pomysłowej fabule, np. w „The Robots of Dawn”.  Czy jednak konstruowanie maszyn  według tych praw nie odebrałoby im autonomii?   Sadzę, ze autonomia moralna człowieka polega na tym,  że nie ma takiego drugiego człowieka, któremu miał obowiązek być  posłuszny, chyba że zobowiąże się do tego dobrowolną umową.  A jeśli zrezygnujemy z praw robotyki podporządkowującym bez reszty maszyny człowiekowi, to znowu trzeba będzie uznać, ze już nie są one maszynami. Na temat tego rodzaju autonomii przysługującej wolnym  ludzkim indywiduom wypowiadam się we wpisie „Kto ma prawo ustanawiać normy i sankcje?”.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | Jeden komentarz

Kto ma prawo ustanawiać normy i sankcje?
Czy wystarczy dysponować środkami przymusu?

§1. Te dwa pytania i kilka pomocniczych  są  kierowane do Autora następującego tekstu zawierającego  definicję  obowiązywalności.

Let us assume that the only source of duties are orders.  Let us now consider a situation in which person B is obliged to cause the fact that X. Then we would have:

Df/ob:  Person B should to cause the fact that X <=>def  {there is a person A that says to person B: „Person B should cause the fact that  X” person B is convinced that  [statement „Person B should cause the fact that X” expresses person A’s wanting  failing to fulfill this wanting will put B under the threat of some sanction ( not necessarily from person A.)]}

[PP.1]   Pierwsze pytanie pomocnicze służy upewnieniu się, czy dobrze rozumiem Df/ob. W tym celu podaję następującą parafrazę (pogrubienie czcionki wskazuje na odpowiedniki symboli logicznych; sposób oddania „should” ma pokrycie w kontekście:  „This formula should also concern moral duties”.

Df/ob*:  B ma moralny obowiązek spowodować znaczy tyle, co: [1] istnieje A, który mówi osobie B, że powinna spowodować X , przy czym  [2] B rozumie, że jest to wyraz woli osoby A  oraz że [3] niespełnienie tej woli grozi określoną sankcją.

PP.2] Kolejne pytanie pomocnicze: jak w Df/ob rozumie się termin „sanction”?  Czy tak nazwałby Autor każdą groźbę wygłaszana przez kogokolwiek, kto jest w stanie ją spełnić w przypadku gdy adresat odmówi wykonania rozkazu?  O to nie powinno się go podejrzewać.  Nikt kto zna polski nie uzna, że zwrot „ma obowiązek”, w tym też moralny, dotyczy osoby, od której rabuś żąda oddania portfela pod groźbą użycia noża.  Jeśliby ofiara miała taki obowiązek, to by zarazem znaczyło, iż napastnik ma prawo do napaści, a zatem byłoby niedopuszczalne sądownie go za to karać.  Trzeba więc uznać, ze groźba jest sankcją tylko wtedy, gdy grożący ma (a) prawo rozkazywać danej osobie oraz (b) prawo stanowienia sankcji.  To drugie nie koniecznie wynika z pierwszego; jest np.  doktryna moralno-pedagogiczna, że rodzic ma prawo rozkazywać dziecku, ale nie ma prawa go karać za brak

posłuchu (zamiast kary zaleca się perswazję).   Skoro obowiązek powstaje dopiero wtedy, gdy nadawcza rozkazu i sankcji ma do tych obu uprawnienia, to skąd się te uprawnienia biorą (inaczej: co jest ich legitymizacją)?   To jest pytanie pod adresem Autora,  naprowadzające na podwójny problem tytułowy tego wpisu.

[PP.3]  Ostatnie  pytanie pomocnicze dotyczy poprzedzającego definicję zdania „Let us assume that the only source of duties are orders”. Czy nazwanie tego założeniem trzeba tak rozumieć, że Autor podanej definicji nie akceptuje, traktując ją np. tak,  jak założenie w  dowodzie nie wprost? A może jako człon dylematu (tytuł artykułu jest „Dilemmas […]”), którym autor chce ubogacić problematykę, a sam go nie rozstrzyga?   Czy też może nazwanie założeniem nie przeszkadza, że jest to zarazem teza akceptowana?

Tymczasem, nim nastąpi odpowiedź,  to dla celów dyskusji — żeby mieć przedmiot pouczającej, jak mniemam, polemiki — przyjmuję ostatnią z wymienionych ewentualności, łącząc to z oświadczeniem,  że się z definicją Df/ob* nie zgadzam. Nie nadaje się ona na definicję sprawozdawczą ani  pod względem terminologii etycznej ani prawniczej. A jako projektująca ma konsekwencje sprzeczne z oświeceniow0-europejską koncepcją prawa, za którą się opowiadam.  Polemika nie będzie trudem  daremnym,  istnieją bowiem osoby rozumiejące powinność moralną po myśli Df/ob*. Jest więc z kim polemizować.  Jeśli zaś Autor stanie  po mojej, a nie po ich stronie, okaże się cennym  sprzymierzeńcem.

§2.  Historia doktryn politycznych i prawnych zna co najmniej dwie doktryny, z których każda  dalece inaczej odpowiada na pierwsze pytanie tytułowe, zgodnie natomiast odpowiadają w sposób przeczący na drugie.  Oznaczę je skrótami TAT i TUS.

TAT — Teoria Autorytetu Transcendentnego
TUS — Teoria Umowy Społecznej.

Panująca na rozległych obszarach przez długie wieki była TAT, w średniowieczu wyrażana zwięźle maksymą,  że (legalna) władza pochodzi od Boga. TUS jest ideą stosunkowo świeżej daty i ma ograniczony zasięg terytorialny.  Jest ona zrodzonym w Europie  nieodrodnym dzieckiem myśli oświeceniowej.  Z tego względu można ją nazwać ideą oświeceniowo-europejską.

Konkretne treści TAT i procedury jej wcielana bardzo się różnią w zależności od miejsca i czasu. To, co  jest im wspólne to powoływanie się na jakiś potężny czynnik, zewnętrzny względem zbiorowości, która  ma  danej władzy podlegać. Oczywiście przez bardzo długie wieki, gdy w żadnym społeczeństwie nie kwestionowano  religii, autorytetem legitymizującym władzę było panujące bóstwo.   Niekiedy samego władcą ogłaszano bogiem.  W systemie politeistycznym nie musiało  to szokować. Jeden bóg więcej nie naruszał reguł systemu, wszak nie wchodził w uprawnienia  innych bóstw, mając przydzielony sobie własny obszar kompetencji,  np. władanie Rzymem.

W systemie monoteistycznym nie było mowy, by monarcha mógł uchodzić za istotę boską, ale jakże wielką miał powagę i władzę, gdy było bezsporne, iż rządzi z woli Boga i w jego imieniu.  Uczestniczył tym samym w prerogatywach najwyższego rozkazodawcy. Dlatego podobnie jak papieże (noszący do niedawna  potrójną koronę) miał  niejako licencję od samego twórcy, żeby skupiać w  swojej osobie potrójną władzę: ustawodawczą, wykonawczą i sądowniczą.

Certyfikatem tego, że monarcha jest realnie boskim namiestnikiem był obrzęd koronacji i pomazania olejem  świętym przez biskupa.  Pretendentem do korony czyniły przyszłego monarchę reguły sukcesji tronu.  Wymagało to czasem sporej maestrii w ich interpretacji, jak np. wtedy,  gdy powoływano na tron Jagiełłę, którego pochodzenie miało się nijak do rodu Piastów , a wszak to ich potomkowie mieli byli prawomocnymi dziedzicami  polskiego tronu.  Rozwiązano problem  drogą objęcia tronu przez Jadwigę, która  bezpośrednio wywodziła się  z Andegawenów, ale jako prawnuczka Władysława Łokietka, z którym się kiedyś Andegaweni skoligacili, miała tytuł do tronu polskiego, gdy zabrakło bliższych potomków.  To ją legitymizowało jako królową,  a jej związek małżeński z Jagiełłą potraktowano jako tytuł do uzyskania także przez niego  godności króla. Tej misternej konstrukcji dopełniła koronacja obojga.  Waga, jaką przypisywano do genealogicznych reguł sukcesji wiązała się z mitem założycielskim dynastii,  który opowiadał o znakach bożych destynujących na władcę  praprzodka rodu, a więc i jego potomków.   Znaki te bywały nieraz  dostarczane przez aniołów, jak w opowieści o chrzcie Chlodwiga króla Franków, czy o Piaście kołodzieju, którego  dom pobłogosławili, w zamian za wielką gościnność, aniołowie pod postacią wędrowców.

Tego rodzaju historie pokazują, jak silna jest potrzeba legitymizacji, skoro mobilizowano taki potencjał wyobraźni, wiary religijnej oraz wiedzy genealogicznej i jurystycznej, żeby nie było wątpliwości co do prawomocności władzy.  A zatem doświadczenie historyczne uczy, że nie jest tak —  jak postuluje Df/ob — że wystarczy pokazać bezwzględną siłę, zdolną do wymierzania kar, żeby członkowie danej zbiorowości mieli i odczuwali czuli moralną powinność wypełniania woli władcy.

§3.  Ten typ legitymizacji zanikał w miarę,  jak  w toku ewolucji kulturowej traciła na znaczeniu legenda religijna.   Ubywało monarchii, a tam gdzie one pozostały, zamieniały się w monarchie konstytucyjne,  gdzie król był tylko jednym z elementów w strukturze władzy,  z rolą przydzieloną mu przez konstytucję, co w żadnej mierze nie czyniło go dzierżycielem pełni danej  od Boga władzy.  Nie znaczy to jednak, że skończyła się metoda legitymizowania władzy przez czynnik transcendentny  Stała się nim Historia — wedle doktryn głoszonych przez Hegla i Marksa.  W filozofii Hegla pojawił się  Duch Historii – Geist der Geschichte.

Nie miejsce tu na zdawanie sprawy z niebotycznych spekulacji Hegla, odnotujmy go więc tylko jako pierwszego pomysłodawcę, żeby się następnie skupić na doktrynie, która się wyłoniła z pomysłu Hegla,  przybrała jednak postać wielce odmienną. Karol Marks miał aspiracje do uprawiania filozofii jako nauki ścisłej, określanej przez marksistów   jako „jedynie naukowa”.  Duch był w niej stanowczo nie na miejscu. Zastąpiły go Prawa Historii, za których odkrywcę się uważał, podobnie jak Galileusz i Newton są uważani za odkrywców podstawowych praw przyrody.  Historia jest postępem ku coraz wyższym formom życia społecznego  (ta myśl jest jeszcze z Hegla),  a prawem, które ten postęp określa jest wyłanianie się coraz bardziej efektywnych środków produkcji dóbr materialnych: zaczęło się od zbieractwa żywności zastanej w przyrodzie (łowiectwo etc.) uprawianego przez koczujące hordy. Potem nastało osiadłe życie rolnicze, z którego się wyłoniła bardziej złożona struktura społeczna i określony typ kultury, potem rzemiosło i handel, a wraz z tym powstanie miast i kolejna ewolucja struktury społecznej, wreszcie nastąpiła epoka przemysłowa. W każdej epoce dziejów istnieje klasa dysponująca  na zasadzie własności najbardziej  w danym czasie efektywnymi środkami  produkcji. Jest więc ona  nośnikiem postępu, ale zarazem, korzystając ze swych przewag. motywowana egoizmem, dopuszcza się wyzysku i ucisku  klas pozostałych.  Tak ziemianin uciskał chłopa, a w epoce przemysłowej kapitalista  w sposób bezwzględny wyzyskuje robotnika.

Wyzysk polega na tym, że choć robotnik wytwarza całą wartość do dodatkową,  czyli to, co różni produkt od surowca (np. szwaczka wytwarza odzież, która ma większą wartość niż użyty w niej materiał), należy mu się więc całość zysku, kapitalista prawie cały zysk zabiera, zostawiając robotnikowi tylko tyle,   ile najkonieczniejsze, żeby miał siły do pracy. Robotnik jest przeto tym, który jako jedyny wytwórca dóbr tworzy postęp ludzkości, a zarazem jest pozbawiony własności środków produkcji. Ta druga cecha czyni z klasy robotniczej zbiór istot szlachetnych, doskonałych  altruistów, gdyż tylko posiadanie środków produkcji rodzi w człowieku chciwość i chęć wykorzystania przewagi ekonomicznej do wyzysku innych.

Tą ścieżką rozumowania zbliżamy się do zagadnienia legitymizacji władzy. Oto, rozumują marksiści, jeśli zlikwiduje się własność prywatną ziemi, fabryk i sklepów, a wraz z tym klasę posiadaczy, szlachetna klasa nie-posiadaczy wyłoni z siebie swych najlepszych przedstawicieli, którym ta najlepszość da legitymację do rządzenia. Tak się modlił chrześcijański komunista Julian Tuwim: „daj rządy mądrych, dobrych ludzi, mocnych w mądrości i dobroci”. Dzieje się to przez takie fazy, że najlepsi przedstawiciele klasy robotniczej organizują się w jej awangardę, którą jest partia komunistyczna. Ta wyłania z siebie elitę, zwaną zwykle komitetem centralnym. Ona z kolei dysygnuje najlepszych spośród siebie do sztabu złożonego z kilku lub kilkunastu towarzyszy najwybitniejszych, a jeden z nich, wolą owej elity staje się przywódcą całej klasy robotniczej, co oznacza przywództwo całego państwa, ponieważ to robotnicy jako najlepsi synowie narodu mają tytuł, żeby mu przewodzić.  Tak wyłoniony przywódca skupia w sobie w najwyższym stopniu wszystkie cnoty intelektualne i moralne: jest najwybitniejszym w kraju  filozofem, nieomylnym sternikiem gospodarki, genialnym strategiem w czas wojny. Taki niedościgły wzór, należący niejako do sfery transcendencji,   stanowili Lenin i Stalin.

Nie może więc być cienia wątpliwości, że ktoś taki zasługuje na pełnię władzy, a ponieważ jest w swych ustawach i rozkazach nieomylny,  w intencjach bezgranicznie szlachetny i jedynie dobro powszechne mający na względzie, podporządkowanie się jego woli jest powinnością moralną.

I tak dałoby się nadać zrozumiałość (trudną do osiągnięcia na innej drodze) definicji obowiązku oznaczonej wyżej w §1  jako Df/ob*.  Oprócz naszkicowanego wariantu marksowskiego istnieje jeszcze wariant, w którym zamiast klasy społecznej występuje naród noszący znamiona narodu wybranego, jakim w doktrynie nazistowskiej mieli być Niemcy. Także za tą koncepcją stoi niemały trud  niektórych umysłów filozoficznych, ale dla egzemplifikacji,  jak dałoby się  uzasadnić Df/ob* wystarczy nam ta jedna opowieść fantastyczna, jaka stworzył marksizm-leninizm.

§4. Cały powyższy wywód redukujący Df/ob* do absurdu stałby się zbędny, jeśli miałoby się pewność, że Autor rozumie termin „sankcja” w taki standardowy sposób, jak to jest przyjęte w teorii prawa. Ale skoro w kontekście nie znajdujemy takiego wyjaśnienia, rzeczony wywód może skłonić Autora definicji do odpowiednich dopowiedzeń.  Można je sobie wyobrazić w ten sposób, że zakończenie definicji

„za niespełnienie woli A jako rozkazodawcy, B zostanie poddany groźbie zastosowania  sankcji”  zastąpi się sformułowaniem:

„za niespełnienie woli A jako rozkazodawcy, B zostanie poddany sankcji — rozumianej jako zagrożenie karą wymierzoną według obowiązującej procedury prawnej”.

Rozumienie cytowane po myślniku jest tym standardowo przyjętym w teorii prawa. Procedura prawna jest określona normą ustanowioną przez prawowitą władzę. Zawiera się w niej określenie organu władnego ustanawiać normy (jak  parlament) oraz organu władnego stosować daną sankcję (jak sąd lub określony szczebel  administracji). A zatem,  żeby jakieś zagrożenie mogło być rozumiane jako sankcja, musi istnieć władza uprawniona do stwarzania obowiązków poprzez normy, rozporządzenia, czy wyroki.

Żeby być władzą, czyli mieć tytuł do nakładania obowiązków,  nie wystarczy wydawać rozkazy i stosować represje wobec odmawiających posłuchu.  Gdyby takie pojmowanie władzy głosiła Df/ob*, przyznawałaby ona znamię czynu legalnego każdemu przestępstwu wymuszenia czegoś groźbą. Jeśli nie ma w niej takiej intencji, to powinna tej definicji towarzyszyć definicja prawomocności władzy.

Próbą dostarczenia takiej definicji są teorie autorytetu transcendentnego (TAT).  A jeśli  trudno jest  nam akceptować  konsekwencje z nich płynące, trzeba się rozejrzeć za alternatywą. Są nią teorie umowy społecznej (TUS).   Ale temat to osobny i na tyle rozległy, że trzeba go odłożyć do innego razu.

Dane bibliograficzne.  Definicja Df/ob znajduje się w odcinku 4.2 w artykule Anny Brożek i Jacka Jadackiego „Dilemmas in the Theory of Imperatives” zawartym w zbiorze „Theory of Imperatives from Different Points of  View”. Redakcja: oboje w/w autorzy  oraz Berislav Zarnic.  Wyd. Semper, Warszawa 2011.

Zaszufladkowano do kategorii Dialogi wokół recenzji, Filozofia polityczna | 2 komentarze

Inwencja a losowość
Głos w kwestii maszyn autonomicznych

Pogląd  o wyłącznie losowym charakterze aktów twórczych budzi mój sprzeciw, gdyż brakuje dlań potwierdzenia w moim, a pewnie też innych osób,  doświadczeniu  wewnętrznym.  Gdy mam do rozwiązania jakiś problem, to (1) uruchomienie procesu rozwiązywania bierze się z mojej woli; nie znajduję tu nic losowego.   Zgoda, ze od tego momentu (2) może działać jakiś proces losowy poza moją wolą i świadomością: zapewne jakieś  elementy przemieszczają się w bezładnych ruchach, tworząc różne struktury.  Dopiero gdy się struktura taka uformuje, wynurza się na powierzchnię strumienia świadomości.   Ale nawet gdy istotnie jest ona wynikiem losowym,  to już proces akceptowania jednych rozwiązań i odrzucania innych nie ma takiego charakteru.  Jeśli mam wierzyć świadectwu mojej świadomości, to rzecz wygląda tak, że  (3) dysponuję pewnymi kryteriami akceptowalności wyniku.

Zdolność twórcza, jaką jest pomysłowość,  jest cechą stopniowalną.  W jakim ma się ją stopniu, prawdopodobnie zależy od każdego z czynników, też stopniowalnych, na każdym z wymienionych wyżej trzech etapów.  (1*) Wola rozwiązania jest silniejsza lub słabsza (2*) generator wyników losowych wyników mniej lub bardziej produktywny; (3*) posiadane kryteria akceptacji są  mniej lub bardziej liczne, mniej lub bardziej miarodajne itd.

Co może stąd wynikać dla kwestii, jak budować maszyny autonomiczne, tzn. umiejące stawiać problemy i rozwiązywać je  mocą  własnej inwencji? Taka maszyna powinna być wyposażona w  generator losowej produkcji pomysłów na rozwiązanie problemu, lecz także w kryteria akceptacji.  Dobrze, jeśli będą one dwustopniowe:  stopień wstępny wybiera rozwiązania zasługujące na to, by je poddać procesowi weryfikacji; ta się dokonuje na drugim szczeblu,  gdzie się operuje odpowiednim zestawem kryteriów.

Wybitni matematycy i fizycy (Poincare, Einstein, Heisenberg etc.) wyznają, że w pierwszym etapie kierują się odczuciem piękna teorii,  a gdy się ją zaakceptuje z tego powodu, w następnej fazie dokonuje się sprawdzenia na drodze logicznej (czy nie ma sprzeczności itp.)  oraz (w naukach empirycznych) na drodze eksperymentalnej.  Ten przykład ujawnia pewien problem, na który może napotkać konstruowanie maszyn autonomicznych. Odczucie piękna jest stanem, który ma komponent biologiczny, jak każdy stan emocjonalny.  Są to stany właściwe organizmom lecz niedostępne dla maszyn. Tego rodzaju stanów, wymagających od podmiotu inwencji tego, żeby był zbudowany z białka (czy innego biologicznego emocji), co wykluczałoby z konkurencji twory elektroniczne.

Zaszufladkowano do kategorii Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 3 komentarze