Odcinek A. Klub Optymistów Poznawczych
Optymizm poznawczy to cecha wrodzona osób uprawiających nauki ścisłe, nieodłączny rys ich powołania. Po cóż mieliby się trudzić, z niemałym często poświęceniem czasu, energii oraz własnych spraw życiowych, gdyby nie wiara w oczekiwany sukces poznawczy?
Inaczej ma się rzecz z filozofami. Ci dzielą się na dwie kategorie – optymistów i pesymistów. Podczas gdy w naukach pesymizm poznawczy się nie opłaca, jest jak sypanie piasku w tryby umysłu, to w karierze akademickiej filozofa może być nawet intratny. Świadczy o tym prestiż i profity tych, co uprawiają freudyzm (teza o przewadze popędów nad rozumem), multikulturalizm (kultura naukowa ma równe prawa z magiczną itp.), postmodernizm (grzechem nowoczesności jest wiara w rozum), fideizm („rozumie ludzki, tyś mały przed Panem”). Nie będę wnikał w mechanizm takich karier, to temat osobny i zbyt może kuszący do ironizowania; wystarczy ta wzmianka jako tło kontrastowe, by uwydatnić naturę optymizmu poznawczego, który cechuje klasykę filozofii racjonalistyczną, najpełniej reprezentowaną przez Kartezjusza i Leibniza. Każdy z nich zarysował jasno i dobitnie konkurencyjny względem drugiego program metodologiczny dotyczący całości wiedzy, tak naukowej jak i filozoficznej. Projekt Leibniza, z jego optymistyczną wiarą w możliwość algorytmizacji całej wiedzy, zajmuje poczesne miejsce w tym drzewie genealogicznym, w którym znajdzie się w dwa wieki później Program Hilberta.
Projekt Kartezjusza, z jego krytycyzmem co do sensu i szans algorytmizacji, ale za to z wielce optymistyczną wiarą w potęgę intuicji intelektualnej, należy do klasyki konkurencyjnego nurtu racjonalizmu. Gödlowi udało się dojść do takich wyników, że nie musiał dokonywać wyboru między przeciwnymi opcjami, ale w pewien pomysłowy sposób dokonał syntezy obu optymizmów. Nie jest to wynik łatwy do przyswojenia, toteż warto skorzystać z każdego środka mogącego w tym pomóc; jednym ze środków są analogie oraz genealogie historyczne. Teraźniejszość lepiej rozumiemy dzięki wyprowadzaniu jej z przeszłości, a przeszłość dzięki temu, że dziś wiemy, do jakiej prowadziła ona teraźniejszości; takim założeniem badawczym kierowaliśmy się (wespół z Romanem Murawskim) min. w książce „Mechanization of Reasoning in a Historical Perspective”, Amsterdam 1995 (dostępna przez Google’a i przez Kindle’a).
Optymizm poznawczy nie jest postawą powszechną ani banalną. Odżegnywali się od niego starożytni sofiści i sceptycy, dziś zaś relatywiści i postmoderniści, a w pewnym aspekcie także pozytywiści, którzy są optymistami, gdy idzie o nauki ścisłe, ale pesymistami co do szans poznania filozoficznego. Racjonaliści to optymiści na każdym froncie. W tym gronie mamy Kartezjusza z Lebnizem. W czasach nowożytnych dominują w kręgu racjonalizmu Georg Cantor i Kurt Gödel, jeśli wymienić najwyrazistszych, lecz także plejada innych znakomitości którzy łączyli swój optymistyczny racjonalizm filozoficzny z osiągnięciami w logice (np. Jan Łukasiewicz), matematyce (np. A.N.Whitehead), fizyce (np. Werner Heisenberg).
Tak został zarysowany skład Klubu Optymistów Poznawczych, w którym wiodącą rolę grają racjonaliści pod przewodem Kartezjusza i Leibniza, Cantora, Hilberta, Gödla, wspierani przez Ojców Założycieli informatyki, na których czele mamy Turinga.
Ciekawemu wprowadzeniu do obszernego cyklu artykułów dotyczących istotnej problematyki (rzecz idzie przecież o motywacje badawczą, a to kwestia niebanalna) brak jednak, w moim odczuciu, zasadniczego elementu – ustalenia jak dokładnie rozumieć tytułowy „optymizm poznawczy”.
Nie twierdzę, że takie ustalenie jest kluczowe, być może wystarczy rozumienie potoczne – „optymizm = przekonanie, że osiągnięcie finalnych rozwiązań nurtujących nas problemów poznawczych jest możliwe”. Niemniej w trakcie lektury nasunął mi się szereg rozmaitych pytań dodatkowych, spośród których kilka pozwolę sobie poniżej sformułować.
a) czy – w odniesieniu do konkretnych problemów – możliwość rozwiązania ma szanse zrealizowania „w realnym czasie” (tzn. w czasie życia jednego lub kilku pokoleń a nie w czasie geologiczno-astronomicznym)? Czy też raczej jest ona asymptotą, granicą ku której możemy się jedynie przybliżać wiedząc, że istocie nigdy jej nie sięgniemy (bo np. wyliczenie rozwiązania – choć możliwe – wymagałoby czasu, dajmy na to, 10 razy dłuższego niż wiek Wszechświata i to przy użyciu hipotetycznych komputerów kwantowych)? Tu też pytanie: czy wobec tego popperowska „versimilitude” jest koncepcją optymistyczną, czy pesymistyczną?
b) jak uzyskać pewność, że dane rozwiązanie jest w istocie finalne? pytanie to wydaje mi się być istotne w świetle wyników Chaitina pokazujących niemożność znalezienia dolnego ograniczenia kompresowalności danego łańcucha bitów (co oznacza, że w ogólności nigdy nie możemy być pewni, że nie istnieje twierdzenie pozwalające bardziej skompresować łańcuch bitów, który uznaliśmy uprzednio za niekompresowalny)
c) jak – w dyskutowanym kontekście – umieścić ustalenia psychoewolucjonizmu, które, w dużym uproszczeniu, pokazują, że cała nasza aparatura poznawcza (zarówno neuronalna, jak i psychiczna) jest efektem działania dwóch doborów: naturalnego oraz seksualnego, których celem nie było bynajmniej stworzenie człowieka jako maszyny do rozwiązywania zadań poznawczych, lecz raczej do unikania drapieżników i znajdowania pożywienia oraz partnerów do rozrodu?
Przypomina mi się tu niewesoła refleksja, autorstwa bodajże Hoimara von Ditfurtha, obrazowo pokazująca ograniczenia zdolności poznawczych homo sapiens. Otóż dla każdego gatunku istot żywych istnieje górna granica „rozdzielczości” poznawczej poza którą nie może on „wyjrzeć”. Np. kot postrzega rozmaite obiekty, wychwytuje zależności między nimi, potrafi wyciągać z nich wnioski i odpowiedni reagować. Niemniej nigdy – z przyczyn zasadniczych, ewolucyjnych – nie zrozumie on tego, co percepuje tak jak człowiek, lub choćby tylko szympans. Nic nie stoi na przeszkodzie aby uznać, że analogiczna sytuacja może mieć miejsce w przypadku człowieka, konkluduje von Ditfurth. A jeżeli tak, to wówczas nigdy nie możemy mieć pewności, że nie istnieje klasa problemów, których nie tylko nie możemy rozwiązać, ale nawet nie możemy ich precyzyjnie sformułować (czy jeszcze mocniej – nie możemy ich nawet pomyśleć, czy choćby tylko przeczuć).
d) co począć z – wydaje się, że fundamentalną i nieusuwalną – probabilistycznością świata kwantowego? Czy przyjęcie zasady nieoznaczoności Heisenberga jako dolnej granicy „rozdzielczości” poznawczej mikroświata jest objawem pesymizmu? A jeżeli tak, to czy uparte poszukiwania tzw. „parametrów ukrytych” rozpoczęte przez Einsteina i kontynuowane przez Bohma są przejawem optymizmu poznawczego? Czy może jest dokładnie na odwrót – wraz z zasadą Heisenberga osiągnęliśmy finalne rozwiązanie pewnego problemu (optymizm), zaś uparte nieprzyjmowanie tego do wiadomości pokazuje, że dążenie do newtonowskiego ideału znajdowania rozwiązań o dowolnym stopniu dokładności potrafi generować gęste zasłony iluzji (pesymizm)?
Pytania takie można by naturalnie mnożyć, nie to jednak jest celem mojego komentarza. Chodziło mi raczej o podkreślenie, że znaczenie słowa „optymizm” w odniesieniu do naukowych praktyk poznawczych nie jest bynajmniej jasne. Jeżeli zaś nie podejmiemy trudu jego doprecyzyowania, to wówczas można łatwo wskazywać, że w naukę wpisany jest z konieczności pesymizm. Tym samym więc dojdziemy do wniosku dokładnie przeciwnego, niż zamierzony przez prof. Marciszewskiego przy pisaniu swojego cyklu. To starałem się pokazać stawiając na gorąco powyższe pytania.
Sumując: sprecyzujmy co dokładnie mamy na myśli mówiąc o optymizmie w nauce? Oraz – co równie ważne – gdzie przebiegają granice owego optymizmu, i w jaki sposób je wyznaczać. Wszakże jesteśmy tylko ludźmi, więc jakieś granice efektów naszych praktyk poznawczych MUSZĄ istnieć…
Uwaga ogólna.
Od definicji zwykliśmy oczekiwać, że będzie ona równościowa, tzn. zakres
definiendum pokryje się z zakresem definiensa. Jest to jednak oczekiwanie
zbyt wygórowane, spełnialne z reguły w matematyce, a z reguły niespełnialne w materii empirycznej, gdzie pojęcia są na ogół nieostre; to jest, nie o każdym przypadku da się rozstrzygnąć, czy należy on czy nie do zakresu danego pojęcia. Nie mogąc całkiem wyeliminować nieostrości, możemy jednak ją redukować, to znaczy powiększać zbiór przypadków rozstrzygalnych, czyniąc to przez definicje cząstkowe czyli warunkowe, tj. podające pewne warunki konieczne i pewne wystarczające przynależności do zakresu pojęcia, nad którego zaostrzeniem pracujemy.
Wybór takich a nie innych warunków zaostrzających zależy od tego, jaki jest problem, dla którego rozwiązania potrzebujemy określonej definicji. Raz potrzebny będzie taki zbiór warunków, innym razem inny. Przykładem warunków mogą być wskaźniki liczbowe w ekonomii. Nieostre jest np. pojęcie „kryzys gospodarczy”. Pełna jego definicja nie jest osiągalna, ale ze względu na określony problem, np. czy dokonywać cięć socjalnych pod presją kryzysu, posłuży jakaś definicja cząstkowa, np. że do uznania sytuacji za kryzysową wystarczy że zaistniał taki to a taki deficyt budżetowy trwający co najmniej tyle a tyle czasu. Z wielkości deficytu wynika zakres oszczędności, i tak definicja cząstkowa oddałaby oczekiwaną przysługę.
Moje rozważania o optymizmie poznawczym mają ograniczony kontekst problemowy (stąd cząstkowość definicji) jako polemiczne względem poglądu, że Leibniz i Hilbert byli optymistami w kwestii szans na algorytmizację wiedzy (Hilbert matematyki, a Leibniz całej wiedzy), zaś Gödel pesymistą. Nietrafność takiego poglądu na Gödla wykazuję cytatami z Gödla w odcinku B, a wrócę do tego szerzej w następnych odcinkach.
Uwaga do a) Optymizm w kwestii wykonalności algorytmu w realnie dostępnym czasie ma u Gödla źródło, które zacznę omawiać w odcinku C. Dziękuję za poruszenie tego tematu, bo pomaga ono ukierunkować (ze względu na zainteresowania rozmówców) treść odcinka C i następnych.
Uwaga do b i d) To pytanie, podobnie jak d, naprowadza na myśl, że co się
uzna za optymizm, a co za pesymizm jest w pewnej mierze sprawą
charakterologiczną. Jednego cieszy pewność uzyskania ostatecznego wyniku, a jest optymistą, gdy wierzy w osiągalność takiej pewności. Innego cieszy szansa, że „za jedną siną dalą druga dal” (piosenka Osieckiej, a jest
optymistą, gdy liczy na dostąpienie tej satysfakcji. Mnie np. podoba się
wizja Bohma – wielkiego (nieskończonego?) ciągu coraz głębszych poziomów złożoności, a mój odruchowy (bo nie stać mnie tu na przemyślany) optymizm skłania do nadziei, że Einstein i Bohm maja rację. Cantor ironizował o swych przeciwnikach, że mają „horror infiniti”, a więc dla nich kantoryzm jest pesymistyczny, bo niesie to, czego się boją. A ja np. odczuwam „horror finiti”, toteż jeśli napotkam na łańcuch bitów, który uchodzi za niekompresowalny, ale brak ostatecznej wiedzy w tej sprawie daje furtkę nadziei, że jest kompresowalny, to dla mnie jest to dobra wiadomość.
Uwaga do c) Nie mam żalu do Ewolucji, że jako człowiek nigdy nie dostąpię
perspektywy kota czy szympansa. To nie powód do pesymizmu. Naszym braciom w Ewolucji raczej współczuję, że nieosiągalne jest dla nich np. piękno logiki predykatów wyższych rzędów, którym ja mogę się delektować (więc raczej kot ma powód do pesymizmu). A jeśli ktoś wierzy, że treść geometrii, teorii mnogości, analizy itd. jest owocem doboru naturalnego i seksualnego, a ich niesłychana skuteczność poznawcza i technologiczna geometrii etc. jest niezamierzoną pomyłką ewolucyjnego mechanizmu, to niech przemyśli raz jeszcze, czy warto być czcicielem Ewolucji — skoro albo jest tak, że tworzy ona dziwolągi niepotrzebne do życia (jak matematyka), albo jest tak, że tworzy rzeczy potrzebne (gdy za taką uznać matematykę), ale nie wiadomo jakim cudem, bo dobór naturalny i seksualny raczej nie ma szans na wyprodukowanie czegoś takiego.
Korekta w zw. z poniższym komentarzem prof. Marciszewskiego:
„Uwaga do c) Nie mam żalu do Ewolucji, że jako człowiek nigdy nie dostąpię
perspektywy kota czy szympansa. To nie powód do pesymizmu. Naszym braciom w Ewolucji raczej współczuję, że nieosiągalne jest dla nich np. piękno logiki predykatów wyższych rzędów, którym ja mogę się delektować (więc raczej kot ma powód do pesymizmu).”
Po namyśle stwierdzam, że nie dość jasno sformułowałem moją myśl w punkcie c). Szło mi w nim mianowicie o fakt, że tak jak np. kotu niedostępna jest perspektywa poznawcza człowieka, tak człowiekowi niedostępna może być perspektywa poznawcza hipotetycznych innych – poza homo sapiens – istot rozumnych.
Otóż nie jest nierozsądnym przyjęcie, że takowe istoty mogą istnieć (wielu twierdzi wręcz, że niemal na pewno istnieją). Jeżeli tak, to możemy być niemalże pewni, że ich aparat poznawczy jest dalece odmienny od naszego. Wobec tego również problemy, które da się za jego pomocą dostrzegać i formułować mogą być niedostępne dla nas z powodów zasadniczo nieusuwalnych (tak jak kot nie jest w stanie ująć mentalnie choćby najprostszego problemu, z zakresu matematyki szkoły podstawowej – ponieważ… jest tylko kotem).
Ten prosty eksperyment myślowy pozwala, jak sądzę, obrazowo pokazać potencjalne istnienie olbrzymiej klasy problemów, z którymi nigdy nie będzie nam dane się zmierzyć – gdyż po prostu nigdy ich nie dostrzeżemy (a przynajmniej nie na obecnym etapie naszego rozwoju ewolucyjnego).
Nie miałem natomiast intencji sugerowania, iżby TREŚCI matematyki lub logiki były proweniencji ewolucyjnej. To byłoby, rzecz jasna, zbyt dużym uproszczeniem. I to pomimo faktu, że sam aparat poznawczy umożliwiający nam wgląd w owe treści jest bezdyskusyjnie owocem milionletnich procesów bezmyślnego doboru naturalnego. Swoją drogą fakt ów nie przestaje mnie zdumiewać – oto bowiem automatyczny (czy wręcz „algorytmiczny”, jak twierdzi np. Daniel Dennett) proces ewolucji w drodze doboru naturalnego był w stanie wytworzyć obiekt fizyczny – ludzki mózg – oraz „oprogramowanie” doń (umysł), które wspólnie tworzą system potrafiący abstrahować i uzyskać tą drogą wgląd w świat matematyki…
Rozumiem, kot jest dowodem na istnienie inności poznawczej, ale nie wyższości nad nami. Argument „z kota” jest taki, że skoro istnieje inność (co wiemy), to można sobie wyobrazić inność przewyższającą umysł ludzki. Na to zgoda, i to może temperować nasz optymizm co do bycia istotami o największych we wszechświecie możliwościach poznawczych. Ale takiego poglądu bynajmniej nie forsuję.
Podzielam zdziwienie nad tym, że „proces ewolucji w drodze doboru naturalnego był w stanie wytworzyć obiekt fizyczny – ludzki mózg – oraz „oprogramowanie” doń (umysł), które wspólnie tworzą system potrafiący abstrahować i uzyskać tą drogą wgląd w świat matematyki…” Ale może należy wyciągnąć z tego wniosek, że to nie dobór naturalny jest jedynym autorem tego zdumiewającego zjawiska. Polecam pod refleksję zdanie Poppera kończące jego książkę „The Open Universe. An Argument for Indeterminism”. Oto polski przekład.
„Bez względu na to, czy uznajemy Wszechświat za maszynę fizyczną, czy nie, musimy stanąć wobec faktu, że wytworzył on życie i twórczych ludzi. […] Jest on w najlepszym sensie tego słowa twórczy […] – w tym samym sensie, w jakim za twórczych uznajemy […] wielkich matematyków, uczonych i wynalazców.”
Może to zabrzmieć mistycznie (choć Popper nie należy do klasyków mistyki), ale trzeźwe wsparcie znajdujemy w nurcie zainicjowanym przez Konrada Zuse (inżynier niemiecki, który wyprzedził o dekadę Amerykanów w konstrukcji komputera cyfrowego) pod hasłem „wszechświat jako komputer”. W tym nurcie znajduje się też Stephen Wolfram (ten precyzuje, że jest to automat komórkowy), a szczególnie barwny jest Ed Fredkin ze swoją „digital physics”, „digital philosophy” (polecam szukać przez Googla pod tym terminem) etc.
Cytat:
„trzeźwe wsparcie znajdujemy w nurcie zainicjowanym przez Konrada Zuse (inżynier niemiecki, który wyprzedził o dekadę Amerykanów w konstrukcji komputera cyfrowego) pod hasłem „wszechświat jako komputer”. W tym nurcie znajduje się też Stephen Wolfram (ten precyzuje, że jest to automat komórkowy), a szczególnie barwny jest Ed Fredkin ze swoją „digital physics”, „digital philosophy” ”
Koncepcje wymienionych badaczy znam, choć niestety nie dogłębnie (chyba najlepiej Wolframa – przebiłem się przez jego monumentalną „New Kind Of Science”, co nie było proste głównie ze względu na objętość…). Rzeczywiście wspólna im wizja – natura jest dyskretna zaś procesy fizyczne są obliczeniami – jest frapująca, a momentami wręcz porywająca. Niemniej jednak, w moim odczuciu, jest niezbyt płodna poznawczo. Po przeczytaniu księgi Wolframa poczułem się bowiem skonfudowany. Z jednej strony mamy bowiem elegancki w swej prostocie, ładnie poklasyfikowany i spektakularnie wręcz objaśniony świat automatów komórkowych. Z drugiej zaś całe nieprawdopodobne wręcz bogactwo form przyrody – ożywionej i nieożywionej. Tym zaś co powoduje moją konfuzję jest całkiem serio stawiana przez Wolframa teza: natura – physis – jest automatem komórkowym (CA). Na to wszakże nijak nie mogę się zgodzić, nawet nie dlatego, iżbym nie chciał. Po prostu poza ładnymi obrazkami (a te są naprawdę ładne) i gorącymi zapewnieniami nie znalazłem w książce Wolframa nic, co pozwoliłoby przekuć tę tezę na program badawczy. Nie wiadomo nawet co dokładnie miałoby się za nią kryć. Czy świat JEST komputerem? Czy raczej funkcjonuje JAK komputer? Czym miałyby być realne odpowiedniki abstrakcyjnych reguł (rules) – prawami fizyki? chemii? biologii? Jak DOKŁADNIE przejść od owych reguł do biochemicznego konkretu? Pomiędzy matematyką a fizyczną rzeczywistością zieje w koncepcji Wolframa przepaść, której – póki co – nie ma chyba jak zasypać. Tego typu pytania wobec teorii Wolframa można by mnożyć. Wśród nich być może najważaniejszym jest – czy jest ona w ogóle falsyfikowalna..? Dlatego sądzę, że „New Kind Of Science”, acz ciekawa i pobudzająca wyobraźnię, w istocie jest mało płodna poznawczo – gdyż nie da się z niej wiele wycisnąć w praktyce badawczej. Trudno mi orzec, czy ten sam zarzut można postawić również np. Fredkinowi, gdyż za słabo znam jego teksty. Postaram się jednak nadrobić tę lukę w przyszłości.
O wiele, w moim odczuciu, ciekawsze (bo stosowane w mniejszej skali – i pozbawione Wolframowego rozmachu metafizycznego) sa wyniki wieloletnich badań biologa teoretycznego i biochemika Stuarta Kauffmana nad sieciami genów regulacyjnych. Otóż na potrzeby stworzenia uproszczonego modelu matematycznego nieprawdopodobnie złożonych sieci zależności między genami (w ramach genomu) Kauffman uogólnił ideę automatu komórkowego do postaci tzw. losowych sieci boolowskich (random boolean networks). Badając (od końca lat 60′) ich właściwości był w stanie stworzyć ciekawy model matematyczny (tzw. NK-model), który w efekcie doprowadził go nawet do stworzenia teorii biogenezy (na przełomie lat 80’/90′). Piszę tu o Kauffmanie, gdyż wychodząc on z podobnego punktu co Wolfram (studiowanie sieci, których węzły działają w oparciu o proste reguły boole’owskie) doszedł jednak do nietrywialnych i płodnych poznawczo wyników, które był w stanie spożytkować nie tylko w badaniach z zakresu genetyki i biochemii, lecz również stworzyć (ciekawą i testowalną empirycznie) teorię powstania życia. Czyli dokładnie odwrotnie niż Wolfram, który operuje na zbyt abstrakcyjnym i ogólnym poziomie rozważań, by jego teorię dało się, by tak rzec, „sprowadzić pod strzechy laboratoriów”.
Osoby zainteresowane nieco bliższym zapoznaniem się z ideą losowych sieci boole’owskich odsyłam do poniższych źródeł:
http://arxiv.org/pdf/nlin/0408006v3.pdf
http://en.wikipedia.org/wiki/Boolean_network
Garść podstawowych informacji o NK-modelu można zaś znaleźć tu:
http://en.wikipedia.org/wiki/NK_model
Dwa słowa w sprawie ewolucji… (temat wprawdzie dla komentowanego tekstu poboczny, ale w komentarzach mocno obecny). Nie jestem tu specjalistą, znam temat raczej od strony informatyki, gdzie obmyśla się różne niestandardowe, inspirowane teorią ewolucji, techniki przetwarzania danych (choćby algorytmy genetyczne), ale mam pewne ogólne spostrzeżenie.
W swoim komentarzu Radek napisał:
„… sam aparat poznawczy umożliwiający nam wgląd w owe treści jest bezdyskusyjnie owocem milionletnich procesów bezmyślnego doboru naturalnego”, a wcześniej Witold Marciszewski wyraził się sceptycznie co do nauko-twórczej siły ewolucji.
Spostrzeżenie moje dotyczy rzekomej „bezmyślności” doboru naturalnego, selekcji naturalnej i w ogóle (działającej selektywnie) ewolucji.
Czy nie jest tak, że reguły ewolucji przejawiają się na bardzo wielu poziomach nieświadomego i świadomego bytu?
Czy uprawiając naukę, rozwiązując problemy, stawiając hipotezy (itd…), nie działamy trochę tak (i jako zbiorowość, i jako jednostki), jak to opisują reguły ewolucji. Np. rozwiązując pewien problem, generujemy szereg konkurencyjnych pomysłów, zmieniamy coś w nich, łączymy ze sobą pewne ich elementy i poddajemy te cząstkowe propozycje jakiejś procedurze selekcji (ze względu na prawdopodobieństwo uzyskania rozwiązania)?
A nawet jeśli tak nie jest w psychologii ludzkiego poznania, to wiemy przecież, że informatycy opracowują narzędzia (narzędzia naszego poznania, choćby algorytmy genetyczne), które tak właśnie rozwiązują problemy. A są to problemy trudno-rozwiązywalne w inny sposób.
Być może zatem ewolucja działa tak, że wytwarza pewne nowe jakości (np. pierwociny ludzkiej myśli), a potem kierunkuje rozwój już na innym jakościowo poziomie – aż do powstania kolejnej, nowej jakości. Być może też jest tak, że w sytuacji gdy istnieją już odrębne jakościowo poziomy (np. przyroda nieożywiona i ożywiona, byty nieświadome i świadome) ewolucja toczy się częściowo niezależnie (częściowo — bo muszą zachodzić interakcje między poziomami) na tych odrębnych poziomach. Na przykład — nadal powstają nowe gatunki organizmów prymitywnych (jak bakterie) , ale jednocześnie powstają nowe wytwory ludzkiej myśli.
W owych „przeskokach ewolucji” na wyższe poziomy widziałbym okoliczność sprzyjającą coraz gwałtowniejszemu rozwojowi ludzkiej cywilizacji, której elementem jest matematyka.
Paweł Stacewicz pisze:
„Czy nie jest tak, że reguły ewolucji przejawiają się na bardzo wielu poziomach nieświadomego i świadomego bytu?”
Osobiście jestem przekonany, że dokładnie tak jest. Sądzę też, że nie jestem w tym przekonaniu odosobniony. Świadczyć o tym mogą rozmaite teorie twórczo spożytkowujące schemat ewolucji w drodze doboru naturalnego odkryty i opisany przez Darwina. Niektórzy (Dennett, Dawkins) uważają wręcz, że Darwin odkrył ogólny schemat (algorytm?) rządzący rozwojem fizycznych układów o różnym stopniu złożoności. Tak się złożyło, że odkrył go badając morfologię pewnych gatunków zwierząt, ale sam schemat jest jakoby uniwersalny, tj. nieograniczony wyłącznie do świata biologicznego. Z takiego rozpoznania źródło biorą tak rozmaite aplikacje teorii Darwina jak memetyka Dawkinsa, „darwinizm neuronalny” Edelmana, czy wspomniane przez Pawła koncepcje ewolucyjnej epistemologii Poppera, czy też algorytmy genetyczne Hollanda. A przecież lista ta nie wyczerpuje bynajmniej wszelkich inspiracji darwinowskich w nauce współczesnej.
Prof. Marciszewski pisze:
„Podzielam zdziwienie nad tym, że „proces ewolucji w drodze doboru naturalnego był w stanie wytworzyć obiekt fizyczny – ludzki mózg – oraz „oprogramowanie” doń (umysł), które wspólnie tworzą system potrafiący abstrahować i uzyskać tą drogą wgląd w świat matematyki…” Ale może należy wyciągnąć z tego wniosek, że to nie dobór naturalny jest jedynym autorem tego zdumiewającego zjawiska.”
Zdecydowanie zgadzam się z przypuszczeniem wyrażonym w ostatnim zdaniu. Tezy ultradarwinistów postrzegających dobór naturalny jako ultymatywne i jedyne źródło bogactwa i regularności biosfery nie wydają mi się rozstrzygające i w pełni przekonujące. W biologii XX-wiecznej istnieje zresztą pewien nurt, którego przedstawiciele uparcie twierdzą, że w porządkowaniu biosfery działa „coś więcej” (bez żadnych konotacji religijnych!) niż tylko darwinowski dobór naturalny. Nurt ów – idący jeszcze z badań D’Arcy Thompsona nad morfogenezą wśród zwierząt prowadzonych na samym początku minionego wieku – współcześnie ma wybitnych przedstawicieli w osobach Briana Goodwina oraz wspomnianego Stuarta Kauffmana. Badacze ci starają się uchwycić naturę owego „czegoś” posiłkując się szeroko narzędziami matematycznymi. (Jednym z pytań, na które – ich zdaniem nie odpowiada ultradarwinizm – jest kwestia zdolności do ewoluowania (evolvability) organizmów, która jest podstawą teorii darwinowskiej, jednakże nie może być przez nią samą wyjaśniona.) Stawia ich to zresztą w niejakiej opozycji do kolegów po fachu, którzy zarzucają im, że zbyt dużo w ich tekstach spekulacji popartych równaniami, a zbyt mało danych empirycznych.
Tak więc nie utrzymuję, że dobór naturalny jest autorem fenomenu życia (w tej liczbie – również ludzkiego), lecz jedynie jego współautorem. Pytaniem na wagę złota – póki co dalekim od rozstrzygnięcia – jest: cóż POZA doborem miałoby mieć prawo do owego współautorstwa..?
Radek pisze:
„Tak więc nie utrzymuję, że dobór naturalny jest autorem fenomenu życia (w tej liczbie – również ludzkiego), lecz jedynie jego współautorem. Pytaniem na wagę złota – póki co dalekim od rozstrzygnięcia – jest: cóż POZA doborem miałoby mieć prawo do owego współautorstwa..?”
To zdanie dobrze ilustruje intencję, która mną kierowała, gdy postanowiłem stworzyć blog z gatunku, który określiłem jako akademicki. Wyobrażałem sobie, że będą to dyskusje osób wysoce kompetentnych, o różnych specjalnościach i punktach widzenia. Dyskusje konkluzywne (co jest rzadkością), ale nie koniecznie z konkluzją w formie udowodnionego twierdzenia. Świat jest zbyt złożony, żeby mogło się to często spełniać. Cieszy i taka konkluzja, która jest dobrze postawionym pytaniem. Takie pytanie, to krok do odpowiedzi, do której mogą z czasem dojść uczestnicy tej dyskusji lub jej przyszli kontynuatorzy. Powyższe „pytanie na wagę złota” (istotnie!) to przykład owocnej konkluzji w postaci zdania pytajnego.
Dzięki włączeniu się do blogu Panów Stacewicza i Radka, wspieranych przez zainteresowania i próby dyskusyjne studentów, ten sen autora blogu zaczyna się spełniać. Wydaje się, że pytanie kończące poprzedni komentarz jest podzielane przez nas trzech, a taka jednomyślność w pytaniu, to dobry prognostyk dla wspólnego szukania odpowiedzi.
I ZARAZEM ZNAKOMITY TEMAT DO ŻYCZEŃ ŚWIĄTECZNYCH („dolce far niente” świąteczne niech użyźnia mózgową glebę) ORAZ NOWOROCZNYCH: OBY TAK DALEJ WSPÓLNIE SIĘ MYŚLAŁO W NOWYM ROKU I ŻEBY POJAWIAŁY SIĘ DALSZE FRAPUJĄCE PYTANIA, A NIEKIEDY NAWET ODPOWIEDZI.