Jak wiedza o demonach obliczeń machinalnych
pomaga zrozumieć mechaniczny aspekt umysłu

§1. Od słowa „maszyna: wywodzą się trzy przymiotniki orzekane o procesach,  które zachodzą w pewnych układach.  (1)  Proces maszynowy to taki, który dzieje się w maszynie.

(2) Proces nazywamy mechanicznym,  gdy ma miejsce  w maszynie lub innym układzie, jak organizm czy umysł, a z maszynowym ma to wspólne, że doprowadza do określonego wyniku czy produktu bez udziału intuicji i pomysłowości. Mechaniczne jest wykonywanie działań arytmetycznych przez stosowanie algorytmów dodawania, mnożenia etc. Mechaniczne jest też  sprawdzanie poprawności dowodu jakiegoś twierdzenia, gdy mamy ten dowód w postaci sformalizowanej.  A  także samo dowodzenie, gdy je wykonujemy metodą nie wymagającą inwencji, jaką są np. tabele semantyczne Betha, w ten sam sposób realizowane przez człowieka i przez komputer.  Takie procesy mechaniczne dokonują się z udziałem świadomości w każdej fazie: mamy świadomość stanowiących informację na wejściu, świadomość kolejnych  kroków w toku przetwarzaniu informacji  i reguł  nimi kierujących,  a na koniec świadomi jesteśmy wyniku.

(3) Proces jest machinalny, gdy jest mechaniczny i dokonuje się bez  dostrzegania  przez umysł  fazy przekształceń  informacji wejściowej w informację na wyjściu, a przy tym jest zazwyczaj natychmiastowy. Takich zdarzeń jest w naszym życiu każdego dnia bez liku.  Czynność tak powszednia jak chodzenie i jej naturalny składnik, jakim jest omijanie przeszkód to proces, w którym mamy wzrokową świadomość danych wyjściowych,  tj. obraz terenu, w którym się poruszam, ale  świadome postrzeganie fazy wyjścia tu się nie pojawia;  po prostu robimy krok, jaki trzeba, nie zwracając na to uwagi.  Mniej machinalności jest np. w nauce tańca. Tu stan wyjściowy tj. wykonanie figury jest zauważany  i oceniany przez instruktora, ocena zaś komunikowana wykonawcy, żeby był jej świadom.  To porównanie  obrazuje typową różnicę  między etapem nabywania umiejętności i etapem praktykowania po należytym jej sobie przyswojeniu. Na etapie nauki,  np. kursu jazdy, trzeba dużej koncentracji uwagi, refleksji nad regułami postępowania i nad popełnianymi błędami, mamy więc daleko idący udział świadomości. Staje się on zbędny, a nawet zawadzający, po przyswojeniu sobie umiejętności.  Przychodzi stadium postępowania machinalnego; można je też nazwać automatycznym.

Metafora demonów, mająca oddać obrazowo  machinalność,  jest zaczerpnięta z dialektu informatycznego opisującego  system  operacyjny Unix.  Ukryte w tym systemie demony są to podprogramy działające bez świadomości i  woli  użytkownika, w odróżnieniu od  takich programów, jak np. edytory, które użytkownik komputera z własnej woli uruchamia i świadomie się nimi posługuje. Demony unixowe (inaczej niż w niektórych mitach)  nie są złowieszcze, są raczej opiekuńcze jak daimonion Sokratesa.  Z mitycznymi podzielają to,  że działają  niewidzialnie  oraz są obdarzone niedostępną dla użytkownika mocą sprawczą.   Np. demon zegarowy zwany cron (od Chronosa, greckiego boga czasu) synchronizuje zegar systemowy, zapewniając właściwą kolej rzeczy. Jego godną uwagi cechą, do wykorzystania w naszej metaforze, jest zdolność zasypiania, gdy wykona swe zadanie, oraz budzenia się, gdy jest potrzebny. Jest oczywiste, że demon unixowy jest systemem obliczeniowym, jak każdy program czy algorytm.  Nie tak już oczywiste, lecz stanowiące wysoce akceptowalną hipotezę jest to, że podobny doń demon umysłowy jest też obliczeniowy — w tym sensie, że owe machinalne zachowanie są wynikiem przeprowadzanych przez umysł obliczeń.

§2. Z  tym założeniem podchodzę do interpretowania tytułu książki Marcina Miłkowskiego Explaining the Computational Mind (MIT Press, 2013).  Jej przesłanie  oddają dwa pierwsze zdania.

This book is explaining cognitive processes by appeal to computation.
The mind can be explained computationally because it is computational.

Koncepcja demonów zapobiega zbyt wąskiej interpretacji terminu „computational”, która byłaby (jak się wydaje) niezgodna z myślą Autora.  Ta wąska, nie obca pewnym autorom, polega na takim zbyt dosłownym,  i przez to zbyt wąskim, odczytaniu opisu maszyny Turinga, że drukuje ona na taśmie symbole,  które muszą być widzialne dla naszego oka. Tak, oczywiście, czyni komputer cyfrowy, będący fizyczną realizacją abstrakcyjnej maszyny Turinga; komputer bowiem drukuje, czy wyświetla teksty na ekranie dla nas użytkowników.  Tym jednak nie należy się sugerować.   Jeden system symboli może  koduje jakąś informację, dając opis rzeczywistości  adresowany do odbiorcy ludzkiego,  inny może kodować zbiór poleceń sterujący jakimś układem, np. obrabiarką, pojazdem, mózgiem.

Demony Unixa są to jestestwa niewątpliwie obliczeniowe, a przypominają ten rodzaj zachowań umysłu,  o którym mowa wyżej; stąd bierze się myśl, że zastanowienie się nad ich naturą może wniesie przyczynek do przyjmowanej w kognitywistyce pewnej koncepcji umysłu. Jest to koncepcja, którą Miłkowski określa jako mechanicystyczną i podpisuje się pod nią w licznych miejscach książki.  Wzgląd na machinalność zachowań umysłowych demono-podobnych powinien  rzucić  światło na mechaniczność pewnych procesów poznawczych, a wraz z tym na powiązaną z nią obliczeniowość.

Określenie „obliczeniowy” implikuje dwa inne: „obliczający” i „obliczalny”.  Pierwsze znaczy tyle, że każdy problem,  przed którym staje umysł rozwiązuje on w drodze obliczeń; to znaczy, przetwarza  informację, w której dane wejściowe oraz dane wyjściowe,  tj. rozwiązanie problemu, są wyrażalne obiektywnie w jakichś  liczbach  rzeczywistych, nawet jeśli nie są one  dla umysłu przedmiotem świadomości dającym się określić w cyfrach.  To, że umysł jest obliczalny znaczy tyle, że obserwator,  który znałby dane wejściowe oraz reguły ich przetwarzania,  (składające się zawsze na pewien program, czyli zaimplementowany algorytm)  potrafiłby przewidzieć wynik tego procesu, będący jakaś liczbą rzeczywistą.

Lektura nie daje mi pewności, czy obie te implikacje są po myśli Autora, jak też nie mam jasności, czy zgodziłby się na określanie danych i wyników w liczbach rzeczywistych nie  ograniczając dyskursu do jakiegoś zbioru przeliczalnego (wszak bywają kognitywiści nieufni  wobec continuum).  Nie znaczy to,  że Autor poniechał wypowiedzenia się w tych sprawach, nie jest to jednak powiedziane explicite, trzeba by więc poddawać tekst interpretacji, co jest mniej ekonomiczne i mniej niezawodne niż wprost  zapytać o to Autora (korzystając z łatwości komunikowania się na blogu).

Zaszufladkowano do kategorii Dialogi wokół recenzji, Epistemologia i ontologia, Światopogląd informatyczny | Dodaj komentarz

Co słychać obecnie w kognitywistyce?
Czy mechanicyzm trzyma się mocno?

Refleksje nad książką Marcina Miłkowskiego
Explaining the Computational  Mind

§1.  O pytaniach, które wyrastają z gleby „docta ignorantia”. Książka, o której tu mowa, została wydana przez The MIT Press w roku 2013, co stanowi obietnicę, że znajdziemy w niej odpowiedź na pierwsze z pytań tytułowych. Sądząc po dacie,  w rzeczy samej realizuje ona zapowiedź „obecnie”, a sądząc po szyldzie tak renomowanej oficyny, oczekujemy wysoce kompetentnych publikacji o stanie nauki.  Istotnie, książka Marcina Miłkowskiego (z Instytutu Filozofii UW) dostarcza ważnych i aktualnych wiadomości, co dzieje się dziś w kognitywistyce. To jest, w nauce o poznaniu pojmowanym jako proces przetwarzania informacji, opisywany i wyjaśniany w kategoriach informatyki,  logiki matematycznej,  neurobiologii, psychologii.

Spośród pojęć kluczowych najbardziej kluczowe w książce są dwa: komputacjonizm (computationalism)  oraz mechanicyzm (mechanistic theory, mechanistic account, mechanistic explanation).  Są to nazwy poglądu, pod którym Autor się podpisuje i argumentuje na jego rzecz.   Czy chodzi tu o jeden i ten sam pogląd dwojako nazywany,czy o dwa w jakiś sposób się dopełniające?

Nim będziemy mieli sposobność poznać wyjaśnienie Autora,  na prawach hipotezy interpretacyjnej przyjmijmy tę pierwszą wersję. Przy częstym odnoszeniu się do dyskutowanego  poglądu, dobrze jest mieć jakiś  jego symbol skrótowy.  Gdy określenia „umysł obliczeniowy” i „umysł mechaniczny” uzna się za równoważne, każde z nich nada się równie dobrze do utworzenia odeń skrótu.  Wybieram do tego celu  termin „mechanicyzm”,  za czym przemawia pewien wskaźnik ilościowy:  zwrot „mechanistic account” (i jego synonimy) ma w książce 131 wystąpień, zaś „computationalism” (z synonimami)  ma ich 45.

Tym się kierując, przyjmuję skrót MM — od „Mechanicyzm Miłkowskiego”.  To, że w tytule książki mamy określenie „computational mind”, a nie „mechanical  mind” tłumaczy się zapewne  faktem,  że ten pierwszy zwrot utrwalili  wybitni przedstawiciele kognitywistyki,  jak Putnam, Fodor czy Pylyshyn (zob. art.  The Computational Theory of Mind w SEP), do których Autor często i z aprobatą nawiązuje.  Główne przesłanie MM  oddają dwa pierwsze zdania książki.

This book is explaining cognitive processes by appeal to computation.
The mind can be explained computationally because it is computational.

Niech one wyznaczą tematykę obecnego dyskursu.  Nie będzie on  polemiczny, czyli z pozycji  oponenta, lecz z pozycji, którą można określić frazą (Mikołaja z Kuzy) docta ignorantia.  Dyskutant nie ukrywa, że w roztrząsanej  materii nie ma urobionego poglądu, stąd „ignorantia”.  Chce go jednak sobie urobić, stawiając Autorowi serię pytań i  licząc na jego wyjaśnienia i argumenty. Stawianie pytań wymaga posiadania pewnej wiedzy na tematy w nich zawarte,  jest to więc poniekąd niewiedza uczona, stąd to paradoksalne określenie docta ignorantia.

Określenia „mechanicyzm” i  „komputacjonizm”  są kluczowe jako etykiety informujące o tezie książki. W innym sensie, bardziej podstawowym, kluczowe są terminy, od których oba -izmy się wywodzą: „maszyna” i „obliczanie”, o ich zatem sens będę pytał  z pozycji własnej niewiedzy.  Wprawdzie  Autor dostarcza kontekstów, z których ten sens można wyprowadzać,  ale czytelnik dopiero wtedy nabiera poczucia rozumienia, kiedy pojęcia wzięte z lektury powiąże ze swym własnym „środowiskiem” pojęciowym.  W moim środowisku płodna w zrozumienia jest dziedzina rozważań, na którą się składa  pięć zbiorów indywiduów (nie koniecznie są one rozłączne): obrabiarki przetwarzające materię,  silniki przetwarzające  energię, oraz maszyny przetwarzające informację,  jakimi są  automaty,  mózgi i umysły.  Liczę się z pytaniem:  czemu nie zredukować ich do trzech, umieszczając umysły i mózgi  w kategorii automatów, a przynajmniej do czterech, utożsamiając umysł  z mózgiem?  Dopiero taki redukcjonizm byłby, w mniemaniu wielu, stanowiskiem należycie naukowym.  W rzeczywistości jednak nastręcza on trudności, o których mowa niżej.

§2. Najpierw, krótko, o relacji umysł-mózg. Krótko, bo nie wchodząc w gigantyczny i odwieczny „mind body problem”, wspomnę tylko o pewnych trudnościach natury językowej. Utożsamienie umysłu z mózgiem skutkuje na płaszczyźnie językowej twierdzeniem, że pojęcia te  mają ten sam zbiór indywiduów jako swój zakres.  Rozumie się to zwykle w ten sposób, że indywiduum istniejącym realnie jest mózg, zaś umysł jest nazwą nadawaną mózgowi w pewnych kontekstach, gdy tego wymaga ustalony zwyczaj językowy.

Nie wydaje się jednak, żeby udało się sprowadzić problem do niuansów stylistycznych.  To, że słowa „bicz” i „bat”, nie różniąc się zakresem, różnią się  stylistycznie, ma np. ten skutek, że  zwrot „dostał sto batów” brzmi naturalniej niż „dostał sto biczów”, nie zmienia faktu, że każdy z tych zwrotów jest prawdą o jakimś nieszczęśniku zawsze wtedy i tylko wtedy, gdy prawdą jest drugi. Logicy mawiają,  że takie wyrażenia są wymienne „salva  veritate”.

Zastosujmy ten test do wyrazów „umysł” i „mózg”.  W  prawdziwym zdaniu „Mózg człowieka waży średnio od 1200 do 1400 g” wymieniamy „mózg” na „umysł”. Co sądzić o wartości logicznej tego nowego zdania? Można mu odmówić wartości logicznej, potraktowawszy je jako nonsens językowy, co też będzie świadczyć o braku zamienności salva veritate.  A jeśli nie ma się do tej opcji przekonania, to trzeba  się zgodzić, że zdanie prawdziwe przeszło w fałszywe,  co by świadczyło,  że zakresy tych słów się nie pokrywają,  nie ma tu więc zachowującej wartość logiczną zamienności. Kto by się jednak upierał, że to drugie zdanie jest też prawdziwe, poniesie konsekwencje, takie jak konieczność uznania za prawdę, że umysł delfina jest cięższy niż człowieka itp. , co grozi demontażem funkcjonującej od wieków  aparatury pojęciowej. Nie będziemy więc dociekać, czemu Autor MM nie zatytułował swej książki „Explaining the Computational Brain”. Wystarczy przyjąć, że podziela argumentację o braku zamienności salva veritate.

Ten wniosek nie odbiera sensu ani prawdziwości  orzekaniu także o mózgu, że jest on układem obliczeniowym.  Pogląd ten, zapoczątkowany w roku 1942 sławną pracą Pittsa i McCullocha, jest tak powszechny, że wystarczy się przyłączyć do akademickiego „vox populi”,  pomijając głosy osobne. Takim  np. Poppera idea, że wszechświat jest twórczy, a więc nie jest obliczeniowy. A skoro tak, to i mózg, jego najznamienitszy element również nie jest obliczeniowy. Głos osobny, choć innej treści, zgłasza też Roger Penrose, traktując mózg jako układ kwantowo nie deterministyczny, czego nie da się pogodzić z funkcjonowaniem algorytmicznym.

Jeśli umysł ma swoją rację bytu i  ma naturę obliczeniową,  a obliczeniowy jest także mózg, to jak ma się jedno do drugiego? Czy umysł jest obliczeniowy dzięki temu, że wyrasta jakby z gleby obliczeniowego  mózgu? (Metafora gleby jest tu aluzją do emergentyzmu oraz interakcjonizmu w stylu Poppera i Ecclesa, ale z braku miejsca na rozwinięcie tematu, poprzestanę na tej aluzji). Żeby podejmować takie pytania, trzeba mieć jasność, co to znaczy być układem lub procesem obliczeniowym. Czy to samo algorytmicznym. Czy proces algorytmiczny to jest dokładnie to samo, co proces wykonalny dla maszyny Turinga? Jej działanie nie jest analogowe, a czy komputer analogowy, który nie jest maszyną Turinga, nie działa według jakiegoś algorytmu? Część tych pytań podejmuję w następnym odcinku.

 §3. O tym, jak umysłowi niezbędna  jest inwencja, żeby stawać się robotem czyli rozwiązywaczem problemów zautomatyzowanym. 

Podkreślenie słowa „stawać się” nawiązuje do podkreślenia „is” przez  Miłkowskiego w drugim wstępnym zdaniu jego książki.  W  kategorycznym „jest”  przejawia się pewność,  że umysł ludzkiego indywiduum  jest obliczeniowy (computational)  przez cały czas swego bytowania, a nie tylko czasem, gdy się nim staje na własne życzenie i za sprawą własnej pomysłowości.

Rozważmy tę drugą wersję pojęcia obliczeniowości.  Do jej poniechania mógł się przyczynić bezkrytyczny entuzjazm kognitywistów dla testu Turinga, biorący się z przeoczenia, że test nie uwzględnia  pewnej istotnej  różnicy między umysłem człowieka i robota. Tej, że człowiek  bywa wobec pewnych problemów bezradny, a poczucie bezradności (które świetnie oddał Lem w noweli „Rozprawa”)  tak go irytuje, że  wyzwala w nim (jak głosił z mocą C.S.Peirce) twórczy proces poszukiwania rozwiązań. Natomiast maszyna Turinga — logiczno-matematyczny model robota — wobec takiej niemożności po prostu staje,  i koniec.

Powracam w tym rozważaniu do pytania  z zakończenia odcinka §1: czy zasadne jest zaliczanie umysłów do automatów?  W obecnym kontekście ujawnia się jego chwiejność znaczeniowa polegająca na tym,  że może to znaczyć jedno z dwojga: umysł jest automatem (A)   zawsze w sposób aktualny, czy (B) zawsze potencjalnie, a tylko niekiedy aktualnie. Od czego zależy aktualizacja? Turing 1939 podpowiada, że od dwóch cech  twórczego rozumowania: intuicji oraz inwencji. W tym punkcie rozchodzą się drogi kognitywistów.  Ci, których można określić (prowizorycznie czyli ad hoc) jako  intuicjonistów  (Gödel,  Post,  Mostowski, Wang, Searle, Penrose, Dreyfus etc.)  sądzą, że taka twórczość wyklucza się z automatyzmem,  podczas gdy obóz mechanicystów głosi,   że stanowi ona inny sposób czy inny  etap działania automatu.

Możliwe jest jednak ustalenie wspólnej aparatury pojęciowej,  żeby następnie, w sposób intersubiektywny, wyrażać w niej odmienność stanowisk.  Odróżnijmy bycie automatem w sposób aktualny i w sposób potencjalny, gdy to drugie wyraża się w poglądzie: mogę stać się  automatem dzięki mojej intuicji wraz z inwencją (te dwie cechy twórczości matematycznej warunkujące automatyzację rozumowania wymienia Turing 1939).  Uznanie takiej potencjalności stanowi jedną z interpretacji twierdzenia Gödla o niezupełności  sformalizowanej (czyli zautomatyzowanej) arytmetyki oraz o możliwości jej sukcesywnego jej uzupełniania przez nowe, biorące się z intuicji i pomysłowości konstrukcje pojęciowe, np. zaprzęgnięcie do pracy logiki wyższych rzędów. Dzięki nowym pojęciom można uzupełniać teorię o nowe aksjomaty lub  reguły wnioskowania. Dzięki temu stanie się w niej możliwe automatyczne  dowodzenie twierdzeń,  nieosiągalne we wcześniejszej fazie,  przy skromniejszej aparaturze pojęciowej.

Jeżeli stwierdzenia „umysł jest obliczeniowy” i „umysł jest automatem” uznaje się za równoważne (tzn. z każdego wynika drugie), to rozróżnienie aktualnego i potencjalnego sensu bycia automatem przynosi też dwa pojęcia obliczeniowości.   Dla większej czytelności, wyjaśnijmy to rozróżnienie tylko w takim wzorcowym przypadku, jaki stanowi arytmetyka Peano (pierwszego rzedu).   Powiemy, ze umysł jest obliczeniowy aktualnie, gdy dowodliw

 

owiemy wtedy:  (A) umysł jest obliczeniowy aktualnie, gdy każdy problem rozwiązuje w sposób zautomatyzowany,  oraz że  (B)  jest obliczeniowy potencjalnie, gdy zachodzi alternatywa:   (B1) umysł potrafi aktualnie rozwiązywać  każdy problem w sposób zautomatyzowany lub (B2) może stać się zdolny do rozwiązywania w sposób zautomatyzowany w wyniku procesu,  który zawdzięcza  swej intuicji i pomysłowości.

 

Lektura książki Miłkowskiego nasuwa myśl o potrzebie badań, w których kluczowe pojęcia kognitywistyki byłyby definiowane  operacyjnie przez analizę  konkretnych przypadków reprezentujących różne rodzaje i poziomy  procesów poznawczych.  Byłaby to  operacjonalizacja rzucająca światło na rolę tych kluczowych pojęć w wyjaśnianiu i przewidywaniu czynności poznawczych umysłu. Na pierwszy ogień powinien pójść proces rozwiązywania problemów w sposób mechaniczny, czyli zautomatyzowany,  oraz rozwiązywania w sposób obliczeniowy; to powinno też pomóc w wyświetleniu,  jak ma się mechaniczność do obliczeniowości. Obecne refleksje nad książką Marcina Miłkowskiego są dobrą okazją do rozpoczęcia takiego projektu.

W zamyśle, który ma być sukcesywnie realizowany w tym blogu,  projekt  obejmuje na początek trzy typy problemów, wzięte z trzech poziomów złożoności: (a) najniższego, do czego będzie kandydować pewien  pierwotniak (euglena zielona)  rozwiązujący skutecznie problem zaopatrywania się w energię;  (b) najwyższego, gdzie godnym przedstawicielem byłby  Giuseppe Peano  rozwiązujący problem aksjomatyzacji arytmetyki — istotnego etapu w jej mechanizacji;  (c)  pośredniego, który  będzie reprezentowany przez deliberacje wspomnianego w tytule terminatora. Dlaczego terminatora, a nie czeladnika czy samego majstra? Dlatego, że ci rutynowani osiągnęli już mechanizację swych czynności,  podczas gdy terminator dopiero do niej  dochodzi. Pozwala  to uchwycić ów proces „in statu nascendi”, gdy od fazy wymagającej namysłu czy inwencji, dochodzi  się do fazy rutyny, czyli czynności zmechanizowanych.  Obserwacja takiego procesu dostarczy pewnego testu na zdolność teorii MM

Niech na to patrząc,  rozsądzi  kognitywista, zwolennik MM,  czy faza wstępna, z błędami, które eliminuje namysł i pomysł,  czy ta już  w pełni mechaniczna, czyli nie wymagająca myślenia,  przystoi umysłowi,  któremu się  przypisuje charakter obliczeniowy.  Wspomniane progi (a, b),  dolny i górny, odkładam do innego szkicu, tu zaś zajmę się szczeblem pośrednim.

Searle s.34 — Czy mózg to komputer cyfrowy?”. Na potrzeby dalszej dyskusji traktuję to pytanie jako równoważne pytaniu: „Czy procesy mózgowe są obliczeniowe?”.

s.37 zaprzeczanie temu, że mózg jest obliczeniowy niesie ryzyko utraty członkowstwa w społeczności naukowej.

Apostolos … s.69 — Ustalony obraz obliczeń to taki, że jest to mechaniczne przetwarzanie informacji (tzn. przekształcenie wejścia w wyjście, gdzie wejście jest całkowicie określone przed początkiem obliczeń a wyjście daje rozwiązanie określonego problemu)…. „Silna teza AI” to stwierdzenie, że komputery są teoretycznie zdolne do myślenia, rozumienia i ogólnie posiadania treści intencjonalnych w takim samym stopniu, jak człowiek. Z drugiej strony, „słaba teza AI” to stwierdzenie, że komputery mogą jedynie symulować myślenie a nie myśleć. Argumentacja Searle’a stanowiąca najbardziej powszechny argument przeciw komputacjonizmowi (tzn. filozofii stojącej za „silną tezą AI”) … s.7o  mózg jest istotnie maszyną, maszyną organiczną, która w oczywisty sposób przewyższa zdolności maszyny Turinga. Searle nazywa swoje podejście do filozofii umysłu naturalizmem biologicznym.

Zaszufladkowano do kategorii Epistemologia i ontologia, Światopogląd informatyczny | Dodaj komentarz

Jak wyjaśnia procesy poznawcze
obliczeniowa koncepcja umysłu?

  §1.  O tym,  że tok  tych rozważań wyznacza przyjęta taktycznie pozycja Ignoranta.  Tytułowe pytanie jest adresowane do książki Marcina Miłkowskiego Explaining the Computational Mind (MIT Press 2013) —  dalej, w skrócie ECM,  zaś wywołują je dwa otwierające książkę zdania:

This book is explaining cognitive processes by appeal to computation.
The mind can be explained computationally because it is computational.

Podkreślenie „is” pochodzi od Autora, będąc jakby wyrazem jego zdecydowanej asercji. To pozwala uważać go rzecznika tezy,  że umysł jest układem obliczeniowym, czyli aktywnego tej koncepcji zwolennika, argumentującego na jej rzecz.  Zdanie „the mind is computational” tłumaczę poprzedzając przydawkę „obliczeniowy” rzeczownikiem „układ”,  gdyż fraza rzeczownikowa nadaje się zarówno na predykat jak i na podmiot zdania, a w roli podmiotu będziemy jej też potrzebować.  Jako przykłady układów obliczeniowych można z całą pewnością wymienić komputery, a przynajmniej hipotetycznie: organizmy, ich  komórki, umysły, organizacje, społeczności ludzkie i zwierzęce itd.  Rzecznika tezy, że umysł jest układem obliczeniowym,  nazywam tu Obliczeniowcem (nie w znaczeniu  potocznym,  lecz ukutym na potrzeby obecnego tekstu).

Jego rozmówcę nazywam Ignorantem — nie w sensie deprecjonującym, lecz raczej w sensie zwrotu docta ignorantia (pochodzącego od Mikołaja z Kuzy). Ignorant, w tej intencji, jest to ktoś, kto przyjmuje w dyskusji rolę strony wstrzymującej się od asercji,  stawiającej tylko pytania  rzecznikowi dyskutowanej tezy. Jest to taktyka stosowna w  pierwszej  fazie dialogu, zmierzająca  do wyklarowania pojęć,  a jeszcze niekoniecznie  do wspólnej konkluzji. Stawianie pytań też wymaga jakiejś wiedzy, stanowiącej tzw. (w logice)  założenia pytań,  stąd owa ignorancja zasługuje na miano uczonej (docta),  nie implikuje to  jednak opozycji w stosunku  do poglądów drugiej strony.

Przyjmując w tej dyskusji rolę Ignoranta,   zaczynam od zapowiedzi,  że kluczową w moich pytaniach rolę pełni pojęcie uniwersalnej maszyny Turinga (skr. UMT; będę też dla skrótu opuszczał wyraz „uniwersalna”).  Jego doniosłość bierze się m.in. stąd, że stanowi ono jakby wspólny mianownik dla wszystkich stron dyskutujących nad problematyką  obliczeń.  Niezależnie od tego, jak kto szeroko pojmuje ideę układu obliczeniowego, każdy przyjmuje, że jest takim układem  UMT.  Tak więc, choć nie  uzgodniono definicji pełnej  układu obliczeniowego,  to znaczy takiej, która wymienia wszystkie warunki wystarczające i konieczne, mamy powszechna zgodę co do definicji cząstkowej, mianowicie, że aby być układem obliczeniowym wystarczy być maszyną Turinga.

Co więcej, nawet jeśli byłyby inne jeszcze warunki wystarczające, to ten ma rolę wyróżnioną,  którą można porównać do funkcji wzorców pomiarowych, np. wzorca metra. Maszyna Turinga jest z całkowitą precyzją zdefiniowana co do zakresu rozwiązywalnych przez nią problemów, czyli co do swojej zdolności poznawczej. Toteż jeśli trzeba określić zakres zdolności obliczeniowych czy, ogólniej,  poznawczych  jakiegoś innego rodzaju układu, czynimy to przez wskazanie dystansu do maszyny Turinga:  o ile dany układ może mniej, czy o ile więcej. Na szczególną uwagę zasługuje pogląd,  że nie ma układów, które mogłyby więcej,  czyli że maszyna Turinga wyznacza w tej materii maksimum.  Do tego poglądu  będą  nawiązywać pytania Ignoranta.

§2.  Czy pierwotniak ma umysł?  Jeśli tak, to czy  obliczeniowy?  Jeśli tak, to czy jest on maszyną Turinga?  Zapytajmy jeszcze i to: czy odpowiedź twierdząca na któreś z tych pytań wyjaśnia  jakieś zachowania pierwotniaka? W  zrozumieniu, na czym polegałoby wyjaśnianie zachowań, mogą pomóc takie przykłady, jak zasada celowości w tłumaczeniu i przewidywaniu funkcjonowania  organizmów, zasada racjonalności  w odniesieniu do postępowań ludzkich (np. gdy gracz szachowy przewiduje ruchy partnera), czy tez espól twierdzeń, w który nas wyposaża darwinizm.  Mając te osiągnięcia poznawcze na uwadze, pytamy:  czy podobnymi  mogłaby  poszczycić  się hipoteza, że pierwotniak posiada umysł  pracujący na zasadzie maszyny Turinga?

Nie trzeba jej odmawiać z miejsca szans na „tak”, skoro  pomysł nie jest obcy klasyce filozoficznej, mianowicie Monadologii Leibniza — z jej koncepcją organizmu jako automatu, a wszechświata jako gigantycznej struktury automatów uporządkowanej hierarchicznie według rosnących zdolności poznawczych.  Jeśli tę wizję metafizyczną połączyć z naszą obecną wiedzą, to na samym dole tej hierarchii ujrzymy pierwotniaki, a na szczycie znajdą się geniusze, w szczególności matematyczni.  „W szczególności” znaczy tyle, że ta przede wszystkim kategoria umysłów genialnych interesuje nas w obecnych rozważaniach.  Tematyka bowiem i metoda ich pracy jest najłatwiej porównywalna z funkcjonowaniem maszyny Turinga; wszak dla Turinga pierwowzorem jego maszyny był ludzki rachmistrz, nazwany przezeń „computer”.  W następnym odcinku naszej opowieści ów szczyt będzie reprezentował Giuseppe Peano jako twórca aksjomatyzacji arytmetyki.  Dlatego ten właśnie uczony, że pytanie o proces poznawczy dochodzenia do aksjomatów jest czymś w rodzaju testu; czeka on radykalnych obliczeniowców, którzy redukują wszelkie procesy poznawcze do wykonywania programów zainstalowanych w maszynie Turinga.

A tymczasem wracajmy do pierwotniaków.  Niech je reprezentuje gatunek euglena zielona,  stanowiąca jedną komórkę, której bieg życia uwarunkowany jest zdolnością do fotosyntezy  oraz faktem  posiadania czerwonej plamki pigmentu. Będąc nieprzezroczysta,  plamka ta rzuca cień na resztę przezroczystego ciała eugleny, a gdy w trakcie chaotycznych ruchów komórki cień padnie na korzonek służącej do poruszania się wici wykonuje ona ruch sterujący w kierunku padającego gdzieś w okolicy na wodę światła słonecznego.  Gdy się tam znajdzie, następuje fotosynteza będąca źródłem energii do dalszej aktywności komórki.

Zaszufladkowano do kategorii Epistemologia i ontologia, Światopogląd informatyczny | Dodaj komentarz

Mechanicyzm w filozofii umysłu
O dosłownym i o przewrotnym jego rozumieniu

§1.Tak pojęty mechanicyzm jest osiągnięciem i zasługą Kurta Gödla, choć on sam używał tego słowa na określenie doktryny swych oponentów.

 

Nasuwa się ono jako pierwszoplanowe przy lekturze  książki Marcina Miłkowskiego „Explaining the Computational Mind”, MIT Press 2013,  napisanej z niemałym znawstwem tematu i pobudzającej intensywnie do namysłu (ewenementem jest wydanie rozprawy młodego autora z Polski przez  wydawnictwo o tak światowej renomie).  Do tego,  żeby uznać to pytanie za  pierwszoplanowe, skłaniają  już pierwsze zdania książki.

This book is explaining cognitive processes by appeal to computation. The mind can be explained computationally because it is computational.

Powiedzieć, że umysł jest obliczeniowy w klasycznym tej przydawki rozumieniu, to tyle, co powiedzieć, że umysł jest uniwersalną maszyną Turinga, nazywaną dalej (dla skrótu) robotem.  Czy Autor tak klasycznie rozumie swe tytułowe określenie? Nie daje  do tego podstawy, skoro swój  komputacjonizm, którego wykładem i obroną jest ta książka obdarza autor przydawkami „pluralistyczny” i „ekumeniczny”.  Podpisuje się on również,  z podobną  siłą przekonania, pod poglądem, który określa jako mechanicyzm, wolno więc wnosić, że są to nazwy tego samego stanowiska, ujmowanego w różnych aspektach. Jeśli tak, to do niego też należy odnosić obie wspomniane przydawki.

 

Choć mamy wypowiedzi Autora, które wskazują,  że  rozumie on termin „computational” inaczej, pozwolę sobie w tym rozważaniu przyjąć ów sens klasyczny na prawach myślowego eksperymentu. Umówmy się, że to ja jestem skrajnym mechanicystą,  który próbuje zredukować umysł do robota i przy takiej redukcji pyta, jak sobie może on poradzić z wymyśleniem aksjomatów arytmetyki liczb naturalnych, co  uczynił (domniemany)  robot imieniem Giuseppe Peano w roku 1889.

Autor zaś omawianej książki, mając  w moim ujęciu tak jawne i radykalne sformułowanie mechanicyzmu, będzie miał sposobność do odpowiedzi, czy z tak radykalnym  by się zgodził.  Jego postulowanie pluralistycznego czy, jak powida, ekumenicznego  mechanicyzmu

Jeśli tak, to jako szczery mechanicysta radykalny będzie miał też okazję do korekt czy ulepszeń w moim ujęciu mechanicyzmu,  które będąc tylko próbą ad hoc (dla potrzeb argumentacji) może w jakichś punktach być nie dość wierne.  A jeśli się na tak radykalny mechanicyzm nie godzi, przeciwstawiając mu np. jakiś bardziej umiarkowany (można rzec, ekumeniczny),  to na tym kontrastowym tle wyraziściej będzie mógł przedstawić swe stanowisko i argumentację.

W tym drugim przypadku doczekamy się wyjaśnienia,  jakie procesy prowadzące do aksjomatyzacji wolno uznać za obliczeniowe, jak przystało na „computational mind” — w sensie bardziej liberalnym  niż algorytmiczność,  czyli redukowalność do maszyny Turinga.  Aksjomatyzacja arytmetyki jest tu szczególnie pouczającym przykładem,  gdyż  wiemy, jak w arytmetyce dobrze sobie robot sobie radzi w sposób algorytmiczny  z pozostałymi zadaniami — dowodzenia twierdzeń i obliczania wartości funkcji;  skupimy się więc na tym jedynym  zadaniu problematycznym. Dodajmy dla jasności, że mówimy tu tylko  (póki nie powie się  inaczej) o arytmetyce pierwszego rzędu.

Podsumujmy ten odcinek stwierdzeniem,  że pytanie o procedurę algorytmiczną,  czyli charakterystyczną dla robota, która prowadziłaby do wyprodukowania układu aksjomatów,  jest tu pomyślane jako test wiarygodności radykalnego mechanicyzmu. Jeśli  jego rzecznicy zdołaliby  przekonująco taką procedurę wskazać, będzie to dla tego kierunku solidnym potwierdzeniem. A ponieważ nie udało mi się spotkać kogoś, kto by się pokusił, by dostarczyć algorytm produkowania aksjomatyki, w zastępstwie niejako i prowizorycznie  próbuję tu rozpoznać pewne tropy, które by mogły do tego prowadzić.

 

 

 

I tak, gdzieś przy końcu XIX wieku, maszyna Turinga w czaszce robota imieniem Giuseppe Peano wyprodukowała układ aksjomatów arytmetyki liczb naturalnych (nazwanie Peano robotem jest nie do uniknięcia, skoro w obudowie czaszki ma on zamontowaną maszynę). Jakikolwiek  produkt maszyny Turinga może powstać tylko wtedy, gdy maszyna jest wyposażona w  zestaw instrukcji sterujących procesem wytwarzania w sposób,opisany w definicji algorytmu.  Nazywamy taki zestaw programem.  Pouczającą tego procesu ilustrację dają krosna Jacquarda  z  roku 1805 (wiedza, jaką  miał o  nich John von Neumann  inspirowała go w projektowaniu pierwszych komputerów).   Krosna te wytwarzają wzór na tkaninie według programu zakodowanego w określonym zestawie kart perforowanych; pomysł z kartami zastosowano potem w maszynie rachującej  Babbage’a.

Każdy nowy wzór wymaga nowego programu.  Toteż jeśli maszyna ma wyprodukować nowe pojęcie, trzeba ją wyposażyć w odpowiedni do tego program.  Niech słowo „idea” stosuje się tu do pojęć,  które są wynikiem nowego pomysłu (ang. „idea” oznacza i pojęcie i pomysł, stąd naturalność tej umowy).  Weźmy  przykładowo kilka ideotwórczych programów, które musiały się pojawić w dziejach  arytmetyki, nim doszło do jej aksjomatyzacji.

§2.  Oto przed wieloma tysiącami lat  roboty (pamiętajmy, że wszyscy ludzie są robotami) w jakimś pierwotnym niepiśmiennym  plemieniu wymyśliły kilka liczebników,  tj.  nazw dla  takich własności, że czegoś jest dwa, czegoś  trzy itd.   Żeby wytworzyć ten produkt, wcześniej nie istniejący,  musiały mieć zakodowany w mózgach odpowiedni program – oznaczmy go jako nr 1 – który został  aktywowany zapewne w wyniku pewnych bodźców wzrokowych.

Na wyższym  szczeblu ewolucji kulturowej, który się zbiegł z posiadaniem pisma, uświadomiono sobie, że dla każdej liczby istnieje liczba od niej większa.  Zarazem, dla celów rachowania powstała potrzeba,  żeby z samego kształtu liczebników dało się odczytać, który oznacza większą liczbę niż inny (co nie wynika np.  z kształtu napisów „dwa” i „trzy”).  Naturalną była idea,  żeby oddawać  liczbę rzeczy liczbą kresek, jak to uczyniono w punkcie wyjścia notacji rzymskiej. Ale że przy większej liczbie kresek byłoby to całkiem nieczytelne, wprowadzono zamiast ich ciągów skróty literowe, np. dla stu kresek „C” (od  łac.  centum — sto). Skąd w pewnym momencie przyszło robotom do głowy, że od każdej liczby istnieje większa? W maszynie Turinga żaden wynik się nie bierze znikąd;  niech program, który doprowadził do tej myśli ma nr 2.

Na jak długo starczy liter, żeby nimi oznaczać coraz większe liczby? Ta metoda nie mogła się utrzymać w długofalowym rozwoju nauki, sięgającym po coraz większe i większe liczby. I oto jakiś robot w Indiach wpadł na ideę, że istnieje liczba zero (co nie przyszło do głowy twórcom notacji rzymskiej;  bo jak tu wytworzyć widzialne dla oka zero kresek?).   W Bagdadzie, dokąd to odkrycie przywędrowało w VIII wieku, zmyślne roboty arabskie opracowały  algorytm zwany notacją pozycyjną. W niej dzięki posługiwaniu się  symbolem zera  można wytwarzać cyfry oznaczające dowolnie wielkie liczby,  a  metoda zapisywania ciągów symboli pozwala na mechaniczne, czyli algorytmiczne, otrzymywanie wyników czterech działań.  Niech ten program, któremu się zdarzyło być zakodowanym w głowie Al-Chwarizmiego,  zasłużony dla wyprodukowania  algorytmów arytmetycznych, nosi nr 3.

Program nr 4 wyprodukował na przestrzeni wieków metodologiczną ideę aksjomatyzacji matematyki i innych działów wiedzy, ale do czasów Peano nikt nie próbował zastosować tej metody do arytmetyki. Skąd wzięło się to u niego. Okazał się on pierwszą maszyną Turinga,  która została wyposażona w program uzdalniający do powzięcia i przeprowadzenia tego pomysłu.  Jak do tego doszło? Może za sprawą jakichś mutacji genetycznych? W każdym razie, w komórkach białka w mózgu Peano musiał być zakodowany  program nr 5 — zestaw instrukcji, który pokierował procesem neuronowym prowadzącym do powstania produktu, jakim jest aksjomatyzacji arytmetyki.

Zaszufladkowano do kategorii Epistemologia i ontologia, Światopogląd informatyczny | Dodaj komentarz

Czy mechanicyzm potrafi wyjaśnić, jak powstają pomysły, błędy i wątpliwości?

§1. Czy mechanicyzm dopuszcza  ciągłość  w procesach mózgowych?  Mam tu na uwadze mechanicyzm w filozofii  umysłu  lub (jak kto woli) w kognitywistyce, a nie np. w filozofii fizyki. Jest on tezą omawianej w moich wcześniejszych wpisach książki Marcina Miłkowskiego ,,Explaining the Computational Mind” (MIT Press 2013). Być może, mechanicyzm Miłkowskiego wiele potrafi, ponieważ jest on połączeniem w formie alternatywy pewnej liczby stanowisk; dzięki temu,  jak nie ten to inny człon alternatywy  może się przydać do wyjaśnień, o których mówi tytuł obecnego wpisu. Nie jestem jednak przekonany, czy każdemu z tych członów przysługuje etykieta mechanicyzmu, toteż w poprzednim i w obecnym wpisie zajmuję się tylko tym najniewątpliwszym, jaki reprezentuje książka J.C.Webba ,,Mechanism, Mentalism, and Metamathematics. An Essay on Finitism”.  (Reidel 1980,  2010).

Rekonstruuję  go jako tezę następującą: sądy przypisywane intuicji, czyli pewnemu postępowaniu, które nie kieruje się algorytmem, są w istocie sądami uzyskiwanymi w wyniku postępowania algorytmicznego zachodzącego w mózgu,  zaś złudzenie braku algorytmiczności bierze się z niedostatku naszej wiedzy neurobiologicznej. Co innego, gdyby czaszka ludzka była wielkości fabryki,  która można by zwiedzać i po konfiguracjach trybów maszynowych czy innych ustawieniach elementów rozpoznawać,  jakie maszyna wykonuje aktualnie funkcje.  Tak sobie to wyobrażał Leibniz, taktując mózg jako rodzaj maszynerii.

Podobnie myśli współczesny mechanicysta,  ubolewając, że miniaturyzacja oraz zawrotna złożoność mózgu czynią go tak mało dostępnym dla obserwacji. To jednak nie podcina jego wiary, że obserwacja, gdyby była dostępna,  dałaby nam wgląd w algorytmiczny mechanizm tego, co uchodzi u mentalistów za akt intelektualnej intuicji.  Widziałoby się wtedy, jakie obroty mechanizmu prowadzą w skończonej liczbie stanów dyskretnych do wyprodukowania na wyjściu np. zdania (odwzorowanego w kodzie arytmetycznym) ,,niniejsza wypowiedź jest niedowodliwa”.

Porównanie Leibniza jest  inspirujące również przez to,  że szybko obraca się przeciw pewnej postaci mechanicyzmu. Tej mianowicie, która jak u Webba jest nieodłączna od finityzmu (wymienionego  w tytule książki).  Jeśliby maszyny w tej wyobrażonej hali pracowały na sposób arytmometru Leibniza i maszyny Turinga, byłaby to doskonała ilustracja finityzmu, ponieważ są to urządzenia mające skończoną liczbę stanów dyskretnych.  Ale dlaczego nie miałyby prawa tam się znaleźć obecne w realnych fabrykach obrabiarki? A są to maszyny, jak tokarka, heblarka, prasa hydrauliczna itd., pracujące w trybie ciągłym, a to znaczy, że w każdym skończonym odcinku czasu mieści się  nieskończenie wiele stanów — nieodróżnialnych dla obserwatora, ale tym nie mniej realnych.  Wraz z tym spostrzeżeniem otwiera się perspektywa na mechanicyzm który jako model  przetwarzania informacji dopuszcza także jej obróbkę ciągłą  na wzór fabrycznych obrabiarek.  (Być może w tym kierunku prowadzi pluralistyczna tendencja Miłkowskiego; warto by od niego samego usłyszeć, czy przyjmuje ten kierunek, czy się odeń dystansuje).

Praktykując we wczesnej młodości w warsztacie mechanicznym, miałem okazję do wglądu w sprzężenie między  mającym naciskać w sposób ciągły wiertłem  oraz  mięśniem ramienia (a  więc i jakimś ośrodkiem mózgowym).  Nawiercałem  otworki w walcu bębna będącego elementem prasy hydraulicznej do oleju (na załadowaną w nim masę ziarna naciska tłok).  Cieniutkie wiertła często się łamały.  Zdarzało się  to wtedy, gdy nie ustawiłem bębna tak, żeby wiertło wchodziło  dokładnie pionowo,  lub gdy z nierównym natężeniem naciskałem na dźwignię przenosząca nacisk ramienia na wiertło.   Z czasem zdobyłem taką kontrolę oka i  mięśni, że  ustawiałem wiertło ściśle  pionowo  do maksymalnej wypukłości walca,  a dźwignię  naciskałem  równiutko w sposób ciągły.   Wtedy wiertła przestały się łamać.

To doświadczenie podpowiada, jak może powstać konfiguracja procesów obejmująca ruchy ciągłe oraz sekwencję czynności dyskretnych pod dyktando instrukcji przypominających algorytm. Ciągły jest tu ruch obrotowy wiertła napędzanego prądem (pole elektromagnetyczne) oraz powtarzane co jakiś czas ruchy ramienia, dźwigni i pionowego posuwu wiertła.  Dyskretne i podobne procedurze algorytmicznej  jest postępowanie  wg następującej instrukcji.

1) Wysuń wiertło z wywierconego już otworu, 2) przesuń walec do miejsca, gdzie ma być następne wiercenie, 3) dosuń wiertło do  tego miejsca,  4) wywieraj ramieniem ciągły i równy nacisk na dźwignię wprawiającą wiertło w ruch pionowy,  5) wstrzymaj nacisk po przebiciu przez wiertło ściany bębna. Potem powtórz  cykl.

Niektóre z uczestniczących w opisanym procesie ruchów mają charakter ciągły i zarazem analogowy: tak jest z napinaniem naciskającego dźwignię ramienia; ten proces biologiczny maszyna odwzorowuje (tu analogowość!)  w mechanicznej sile nacisku wiertła. Jeśli nawet tak prymitywna wiertarka w tandemie z  operatorem,  żeby wykonać  proste zadanie,   łączy procesy dyskretne z takimi, które są ciągłe i analogowe, to jaki jest sens obstawać przy poglądzie, że  najbardziej skomplikowany obiekt wszechświata, mózg ludzki,  nie może mieć cech analogowości i ciągłości? Ale obstają  przy tym radykalni (w sensie finityzmu) mechanicyści w kognitywistyce, jak też entuzjaści silnej sztucznej inteligencji ze swą dewizą:  „mózg, to nic innego, jak  maszyna Turinga”.

§2. Komplementarność  ciągłości i nieciągłości w procesach poznawczych.  Na ile  „horror continui” jest zasadny w kwestiach przetwarzania informacji?  Horror continui jest pewną odmianą postawy określanej przez  GeorgaCantora jako „horror infiniti” (lęk przed nieskończonością) — termin przezeń ukuty na wzór arystotelesowkiego „horror vacui”, żeby określić  postawę   przeciwników teorii  mnogości czyli teorii zbiorów nieskończonych.  Ten lęk przed spekulacją,  obcą naszym potocznym intuicjom, u niektórych idzie tak daleko,  że kwestionują nawet nieskończoność stosunkowo bliską intuicji, jak ta cechująca zbiór liczb naturalnych. Inni się z nią godzą, ale odmawiają akceptacji dla wyższego szczebla nieskończoności, na którym się znajduje continuum liczb rzeczywistych. W każdym razie, nie sądzą,  żeby jakieś continuum było przynależne do fizycznego  świata,  zaś  na argument,  że jest to oczywisty atrybut czasu i przestrzeni ripostują,  że jest to fikcja dogodna w obliczeniach, ale tak naprawdę, to przestrzeń i czas mają naturę kwantową.

W obecnych rozważaniach nie musimy się zastanawiać,  jak rzeczy się mają z punktu widzenia fizyki, wspominam ten punkt  tylko w roli  kontekstu ilustrującego sens terminów.  Kognitywistykę interesują procesy poznawcze, a te polegają na przetwarzaniu informacji.  Temu, że któreś z nich mogłyby mieć charakter ciągły zaprzecza stanowczo  mechanicyzm radykalny. To znaczy ten, który za jedynie adekwatny model przetwarzania informacji uważa uniwersalną maszynę Turinga.   W czym jest sedno problemu, doskonale pokazuje argument Turinga (1936/37,  s.249n), dlaczego w pracy maszyny występuje zawsze liczba symboli skończona  i dlaczego to samo się odnosi do liczby jej stanów;  skończoność zaś implikuje dyskretność (Turing 1936, s.249n, podział cytatu na odcinki A i B – od WM).

A. I shall also suppose that the number of symbols which may be printed is finite. If we were to allow an infinity of symbols, then there would be symbols differring to an arbitrarily small extent. […]  B. We will also suppose that the number od states of mind which will be taken into account is finite. The reason for this are the same which restrict the number of symbols. If we admitted an infinity of states of mind, some of them will be „arbitrarily close” and will be confused.

Zdanie A jest oczywiste;  jeśli w skończonym odcinku miałoby się zmieścić nieskończenie wiele  symboli, to byłyby tak stłoczone, że nie dałoby się ich odróżniać.  A  ponieważ stany maszyny są odwzorowane w symbolach, to samo odnosi się do stanów, co konstatuje B.

Odwzorowanie stanów w symbolach jest definicyjną cechą, a więc koniecznym atrybutem maszyny Turinga. Czy z tego wynika,  że jest koniecznym atrybutem mózgu czy umysłu?  Tu jest akurat przeciwnie. Nieuniknione jest to, ze liczba symboli zawsze jest mniejsza od liczby stanów umysłu. Tej oczywistości zaprzeczali tylko behawioryści, ale doświadczenie ją uprzytomnia na każdym kroku. Wszak istotą każdego poznania jest to,  że dostrzegamy wzrokiem lub umysłem jakiś obiekt wcześniej nie dostrzegany, a więc i nie nazwany; póki się go nie nazwie, stan postrzegania nie ma odwzorowania w żadnym symbolu. On jest, a symbolu jeszcze nie ma; temu zaprzeczyć, to jakby zaprzeczyć,  że 1>0.

To jednak, że więcej jest stanów umysłu niż symboli,  nie przesądza, czy tych pierwszych może być  aż nieskończenie wiele.  Nie będę  tu dowodził,  że tak jest,  zestawię tylko parę spostrzeżeń, które mnie osobiście skłaniają do odpowiedzi na „tak”, ale zamiast przekonywać do niej czytelnika, lepiej zostawić sprawę jego własnej refleksji.  Jako przykład procesu przetwarzania informacji weźmy proces tworzenia tekstu,  np. dowodu jakiegoś twierdzenia. Na tym przykładzie dobrze widać, że wytwór procesu jest dyskretny, może być nawet przejrzyście podzielony na numerowane wiersze.  Niczego jednak takiego się nie dostrzega w prowadzącym do tego wytworu procesie myślowym. Nie da się w nim wyróżnić oddzielnych elementów takich,  żeby żaden nie zachodził na inny.   Doświadczamy raczej tego,  że jeden stan płynnie przechodzi w coś innego, jak odcienie barwne w widmie słonecznym.   Zaciekawienie problemem wprowadza w  stan namysłu,  który może w sposób ciągły przybierać przez pewien czas na intensywności, ale nie tak żeby stopnie tej rosnącej intensywności dały się jakoś od siebie oddzielać.  Pojawiają się myśli, w jakim kierunku szukać rozwiązania;  zrazu niejasne, potem się stopniowo rozjaśniające, to znów atakowane jakąś wątpliwością, i tak się to snuje, aż się pojawi  klarowne rozwiązanie, które przybierze postać tekstu o wyraziście dyskretnym charakterze.

Nie znaczy to jednak, że na tym się kończy proces taki proces przetwarzania informacji. Przeszedł on przez fazę subiektywną w czyimś indywidualnym umyśle, co owocuje  wytworem fizycznym — tekstem dowodu. Teraz przychodzi faza intersubiektywności, bo  taki wytwór fizyczny jesty dla każdego dostepny i stąd przez każdego może być kontrolowany. Faza kontroli jest nieodzowna do tego, żeby zabezpieczać nasze poznanie przed błędami biorącymi się z  nieuwagi, luk w posiadanej wiedzy, skłonności do fantazjowania itd.  Kontrolerem nie musi być ktoś drugi, może być nim sam autor tekstu, który po jego wyprodukowaniu ma szanse sprawdzania i korygowania niepomiernie większe niż w fazie, gdy był to tylko półprodukt czy luźny pomysł.  Tak oto rysuje się wzajemne dopełnianie się dwóch typów procesów poznawczych — ciągłego i dyskretnego. Z tej rewelacyjnej relacji, nieznanej światu zwierzęcemu, bierze się postęp ludzkiej wiedzy.

Jak się wyżej rzekło, nie potrafiłbym dać intersubiektywnej repliki, jeśliby ktoś głosił, że to wrażenie ciągłości jest złudne,  że ów proces składa się z oddzielonych spacjami czasu elementów,  których nasz umysł nie potrafi rozróżniać, i stąd daje się uwieść doznaniu nieskończoności. A skąd mój oponent miałby to wiedzieć?  Chyba z głębokiego przekonania, że na nieskończoność nie ma w tym świecie miejsca,  że musi on być skończony. Jak w każdym zderzeniu się sądu apriorycznego z doświadczalnym,  doświadczenie musi ustąpić placu  w umyśle u finitysty  mającego  takie aprioryczne intuicje.

Nic jednak nie przeszkadza, żeby finitysta próbował hipotetycznie zrekonstruować  jako dyskretne  pewne procesy przetwarzania informacji, które w dziejach wiedzy doprowadziły do przełomowych wyników.  To nie tylko materia do zakładania się, kto ma rację, lecz realne zadanie, którego nie unikną realizatorzy projektu silnej sztucznej inteligencji. To znaczy robotów, które będą nie tylko wykonywać, jak obecnie, wysoce złożone algorytmy, lecz także same tworzyć algorytmy. Takie, które w postaci programów sterujących przetwarzaniem informacji będą prowadzić do odkryć na miarę Newtona, Cantora, Gödla,  na miarę dowodu twierdzenia Fermata, itd.  Można będzie na serio mówić o wygraniu przez robota testu  Turinga, tylko wtedy.  gdy obserwator  jego działania nie zdoła rozsądzić, czy autorem jest człowiek czy robot.  Podstawowym zadaniem byłaby konstrukcję algorytmów sterujących u robota procesami, które będąc dyskretne (jak przystało na maszyny Turinga),  stworzą pojęciowe podwaliny arytmetyki — jako przygotowanie nieodzowne do konstruowania wszelkich  algorytmów.  Oto ewentualna lista osiągnięć, na które powinien zdobyć się robot pretendujący do wygrania ostatecznego i najtrudniejszego testu Turinga.

Zadanie 1.  Symuluj cyfrowo  ten tok przetwarzania informacji, który człowieka prymitywnego doprowadził do pojęć pary i trójki w procesie wychodzącym od spostrzeżeń zmysłowych, jak np. obserwacja wzrokowa,  że ma się dwie ręce.  Dalej, symuluj zrozumienie, że trzeba tym pojęciom przyporządkować jakieś wyrazy (liczebniki).

Zadanie 2.  Symuluj cyfrowo powstanie pojęcia następnika wraz ze zrozumieniem,  że każda liczba całkowita ma następnik, a więc narodziny pojęcie potencjalnej nieskończoności.   W dziejach nauki takim osiągnięciem była notacja rzymska, z którą powiązane było zrozumienie, że w miarę potrzeby da się tworzyć symbole oznaczające coraz większe liczby.

Zadanie 3. Symuluj cyfrowo odkrycie, że istnieje liczba zero i sformułowanie na tej podstawie notacji pozycyjnej wraz z algorytmem zapisywania w tej notacji cyfr oznaczających dowolnie wielkie liczby.

Zadanie 4. Symuluj cyfrowo argumenty  przekątniowe Cantora i Turinga dotyczące, odpowiednio,  nieprzeliczalności zbioru liczb rzeczywistych oraz istnienia liczb nieobliczalnych.

Zadanie 5.  Symuluj cyfrowo skrajnie trudny dowód twierdzenia arytmetycznego, np. twierdzenia Fermata.

Dopiero po tego rodzaju przygotowaniach robot byłby dopuszczony do autentycznego testu, takie spełniającego warunki,  żeby dla obserwatora z zewnątrz robot był nieodróżnialny od człowieka. W tym celu powinien on podzielać z człowiekiem nie tylko sukcesy, lecz także błędy (jak branie fałszu za prawdę),  próby nieudane (np. dowiedzenia twierdzenia Fermata),  rozwiązania mniej efektywne (np. notacja rzymska w porównaniu z arabską), programy niewykonalne a a zrazem płodne poznawczo (np.  program Hilberta),  stany niepewności co do prawdy jakiegoś twierdzenia (np. hipotezy continuum).  Są też do uwzględnienia stany wątpienia i niepewności,  które w naszych odczuciach  są stopniowalne  bez możliwości odróżniania stopni,  wykazując tym samym cechę ciągłości.  Trzeba zwrócić uwagę na  fakt paradoksalny, że te ludzkie słabości nie tylko że nie blokują postępu wiedzy, ale bywają jego twórczym czynnikiem. Na błędach uczymy się nieraz rzeczy,  które nie były przewidziane w programie; np. błędy intuicji matematycznej, które doprowadziły do antynomii eksplodowały nową niezwykle płodną dziedziną badań, w wśród jej owoców są przełomowe odkrycia Gödla, Turinga etc.  To nie mogłoby się zdarzyć zdarzyć w populacji nieomylnych i niezawodnych w swej pracy robotów,  które będąc maszynami Turinga żywią totalną awersję (horror) do ciągłości. O tym powinno się pamiętać,  gdy ma się skłonność do umieszczania gatunku ludzkiego w kategorii maszyn Turinga – uznawanej przez radykalnych mechanicystów za szczyt  możliwości poznawczych.

Zaszufladkowano do kategorii Epistemologia i ontologia, Światopogląd informatyczny | Dodaj komentarz

Czy robot cyfrowy mógłby stworzyć arytmetykę?

§1. Medytacje terminologiczne. Arytmetyka jest dziełem robotów, skoro jest dziełem ludzi, a my ludzie jesteśmy robotami,  czyli maszynami nadającymi się do robienia tego,  co  robią ludzie. Taki wniosek można by wyprowadzić — przy pewnej koncepcji maszyny —  z  tej teorii umysłu, którą pod mianem mechanicyzmu konstruuje Marcin Miłkowski w niezwykle erudycyjnej  książce ,,Explaining the Computational Mind” (MIT Press 2013).

Czy istotnie taka jest intencja książki?  W jej rozpoznaniu mają pomóc pytania, które stawiam w tym szkicu.  Pytając o racje mechanicyzmu — jako poglądu, że każdy problem poznawczy rozwiązywalny dla człowieka jest też rozwiązywalny dla uniwersalnej maszyny Turinga (UMT), czyli cyfrowego robota — koncentruję się na problemie tworzenia arytmetyki.

Do tego,  żeby pogląd Autora nazwać mechanicyzmem,  upoważniają konstatacje w rodzaju:  ,,the mechanistic account of explanation fits the practice of cognitive science much better than do the competing accounts”. Tak wysoka ocena mechanicystycznego trybu wyjaśniania zjawisk poznawczych musi iść w parze z akceptacją tego trybu także przez Autora. Uderzająca jest też częstość posługiwania się terminem „mechanistic” (131 wystąpień na kartach książki) bynajmniej nie w celach polemicznych.  Jeśli się mylę, przypisując Autorowi mechanicyzm, będę rad z komentarza, który by to sprostował.

Ponieważ swą teorię nazywa też Autor komputacjonizmem,  powstaje następna kwestia interpretacyjna: czy jest to termin oznaczający to samo, co ,,mechanicyzm”, a dwoistość nazywania brałaby się z nawiązywania w różnych kontekstach do różnych aspektów tej samej teorii?  Prowizorycznie (do wyjaśnienia przez Autora)  zakładam odpowiedź twierdzącą, a dalszą dyskusję prowadzę z użyciem tylko słowa ,,mechanicyzm” jako kierującego uwagę na maszynową naturę rozważanego podmiotu poznania, mianowicie robota pojmowanego jako UMT.

Mechanicyzm rozumie Autor szeroko, nazywając  takie podejście pluralistycznym.  Jest to pluralizm  rozległy, na który się składają tak różne stanowiska, jak:  klasyczne  turingowskie (z publikacji 1950) — do którego się ograniczę w dalszym rozważaniu —  lecz także  biorobotyczne, cybernetyczne, konekcjonistyczne, dynamicystyczne, neurokomputacyjne,  analogowe,  a nawet hyperkomputacyjne (jak to pochodzące od Turinga, 1939).  Jest to wyliczenie w postaci alternatywy, to znaczy: jestem mechanicystą, gdy jestem turingowcem (1950)  lub konekcjonistą lub analogowcem itd. Nasuwa się pytanie, czy przy tak szerokim spektrum zmieszczą się wszystkie jego elementy pod  tym samym  szyldem,  jak to zdaje się być przyjęte w  omawianej książce.  Jeśli jest inaczej, cenne będzie sprostowanie w komentarzu do obecnego wpisu.

W każdym razie,  nawet jeśli powyższą alternatywę skróci się o któreś człony, to musi w niej pozostać ten klasyczny:  że umysł jest mechaniczny, gdy jest uniwersalną maszyną Turinga.  Mieć takie  przekonanie wystarczy, żeby zasłużyć na tytuł mechanicysty, choć przy wspomnianym wyżej pluralizmie Autora nie jest to dlań, zapewne,  jedyny z możliwych warunek wystarczający.

Jestestwo mechaniczne z gatunku UMT nazywam robotem cyfrowym.  Przydawka zostawia otwartą furtkę dla definiowania innych gatunków, np.  robotów analogowych.  W tym ujęciu,  roboty cyfrowe nie pretendują do tego, żeby być  gatunkiem  w populacji robotów jedynym (harmonizowałoby to z ekumeniczną tendencją wywodów Miłkowskiego). Jeśli jest ich więcej, to trzeba każdy gatunek z osobna przebadać co do zdolności produkowania teorii arytmetycznych. Naturalne jest zacząć od cyfrowców jako gatunku dobrze  zdefiniowanego teoretycznie przez Turinga,  a przy tym  znanego  z praktycznych  doświadczeń z komputerem cyfrowym.   Przydawkę ,,cyfrowy” będę odtąd opuszczał jako domyślną, bo tylko o tym gatunku jest tu mowa.

§2.  Argumentacja  wspierająca  Radykalny Mechanicyzm Neurobiologiczny (RMN) w odniesieniu do arytmetyki.  Ograniczam ją do arytmetyki liczb naturalnych oraz stosowanego w niej narzędzia dedukcji, jakim jest rachunek predykatów (dowolnie wysokiego rzędu) .  Taka jest bowiem  fundamentalna rola tych dyscyplin w całokształcie nauki,  że gatunek robotów, który miałby wyręczyć lub zastąpić ludzkość w dalszym tworzeniu wiedzy, musiałby dorównać ludzkiemu pod względem kompetencji arytmetycznej i logicznej.  Trzeba więc zbadać w pierwszej kolejności, czy ten warunek ma szansę się spełnić.

Dlaczego nie bierze się tu pod uwagę teorii mnogości  — jako bardziej podstawowej, z której daje się wyprowadzić arytmetyka?  Przyznając, że i taka droga jest możliwa, dokonuję wyboru na rzecz arytmetyki.  W sytuacji bowiem, gdy niesprzeczności nie da się udowodnić formalnie (tj.  algorytmicznie) ani dla jednej ani dla drugiej, arytmetyka ma przewagę niezliczonych praktycznych zastosowań doświadczanych przez tysiące lat rozwoju cywilizacji.  Daje to największe z możliwych uprawdopodobnienie braku sprzeczności, gdyż w takich warunkach sprzeczność powinna by się przy jakiejś okazji uwidocznić, jeśli obciążałaby arytmetykę.  Teoria mnogości nie cieszy się ani tym atutem, ani też takim jak arytmetyka stopniem intuicyjności.  Pewne jednak jej zagadnienia wypadnie w obecnym kontekście poruszyć.

Jeżeli trudno jest komuś uznać racje, które by przemawiały na rzecz RMN, to
powinien on — dla wyjaśnienia sprawy — starannie  tych racji szukać. A dopiero gdy znaleźć się nie da, usprawiedliwi to brak poparcia dla RMN.  Podejmuję taką próbę szukania racji pod wpływem książki, która broni radykalnego mechanicyzmu z wielką stanowczością, czyniąc to z pomocą rozlicznych odniesień do literatury.  Jest nią pozycja: Judson C.  Webb, ,,Mechanism, Mentalism, and Metamathematics. An Essay in Finitism”,   Reidel 1980, Synthese Library; nowe wydanie – 2010.

W pierwszych słowach Wprowadzenia Webb twierdzi, że niezupełność arytmetyki należy pojmować nie jako niemożliwość sformalizowania pojęcia liczby, lecz jako naszą  niemożliwość opisu zachowania się pewnych maszyn.  Nim się skonfrontuje  to twierdzenie z dalszym tekstem (rozdział IV ,,Effectiveness Mechanized”), już w tym momencie nasuwa się domysł, że chodzi o maszynę, jaką jest mózg ludzki.  Polega ten domysł na interpretacji mechanicyzmu w drodze następującego rozumowania.

To, że można sformalizować pojęcie liczby oznacza, że wszelkie problemy arytmetyki dadzą się rozwiązywać  algorytmicznie.  Wiemy zaś od Gödla, że nie wszelkie problemy arytmetyczne dadzą się rozwiązać   na podstawie formuł językowych, jakimi są aksjomaty arytmetyki i reguły logiki dające się kodować w uniwersalnej maszynie Turinga. To znaczy,  nie wszystkie dadzą się rozwiązać algorytmicznie na drodze symbolicznej (tj. językowej).  W takim razie muszą być rozwiązywalne przez taką maszynę Turinga,  w której dane i instrukcje nie są kodowane symbolicznie lecz za pomocą innego kodu. Jedyną alternatywą jest kod neuronowy, w którym pracuje mózg.   A zatem rozwiązania, które nie-mechanicyści uważają za uzyskiwane intuicyjnie, np. sąd o niedowodliwości i prawdziwości zdania gödlowskiego, nie są w gruncie rzeczy owocem intuicji lecz działającego w mózgu algorytmu neurobiologicznego.  Pozostaje on nierozpoznany z powodu wspomnianej wyżej niemożności uzyskania pełnego opisu zachowania pewnych maszyn. W oryginale: ,,our inability to completely describe the  behavior of certain machines” (kursywa Webba);  certain machines  to przypuszczalnie mózgi ludzkie, których nie potrafimy w pełni opisać w aktualnym stanie wiedzy.

Dlaczego jednak mechanicyści tak obstają przy tezie,  że nie mogą istnieć rozwiązania intuicyjne? I uciekają się do hipotetycznego założenia o kodzie neuronowym nadającym się do tego, żeby w nim zapisać całą arytmetykę i logikę, łącznie z  aksjomatami i regułami o nie znanej nam dziś treści, z których wynikałoby  algorytmicznie (a więc nie intuicyjnie!)  zdanie  gödlowskie, aksjomaty Peano itp.?   Z pewnością zdają sobie oni sprawę, że nie jest dobrze wyjaśniać ignotum per ignotum.  uważają to jednak za mniejszą szkodę poznawczą  niż wiara w istnienie umysłu będącego czymś innym od mózgu.

A skoro pojęcie  umysłu jest puste (choć zapewnia wygodny sposób mówienia),  to (1)  jako podmiot rozwiązujący problemy pozostaje na placu tylko mózg.  Dalsze rozumowanie przebiega, jak następuje.    (2) Mózg jest tworem fizycznym. (3) Wszystkie więc jego procesy przebiegają według  praw fizyki . (4) Wszystkie prawa fizyki są deterministyczne. (4)  Prawa deterministyczne mają charakter algorytmów.  A zatem (6)  wszystkie procesy zachodzące w mózgu są algorytmiczne, w tym procesy uchodzące za intuicyjne,  jak te którym zawdzięczamy  zdanie gödlowskie,  aksjomaty Peano, reguły logiki itp.

Nie jest to jedyna możliwa argumentacja na rzecz mechanicyzmu.  Inna mogłaby odwoływać się do założenia o o dyskretnym (nieciągłym) i skończonym charakterze procesów rozwiązywania problemów, który jest właściwy procedurom algorytmicznym. Tego wątku jednak nie rozwijam, bo dość uwagi zajmie ustosunkowanie się do zdań 1-6, jeśli ktoś przyjąłby to za strategię dyskusji z mechanicyzmem.

Zaszufladkowano do kategorii Epistemologia i ontologia, Światopogląd informatyczny | Dodaj komentarz

Czy podpisać się pod radykalnym mechanicyzmem?

§1.   Kwestie wstępne.  Przygotowują one do podjęcia  tytułowego pytania.  Nie jest to z mojej strony pytanie retoryczne. Wyraża ono autentyczną niewiedzę i ciekawość pytającego, który prywatnie jest skłonny odpowiedzieć przecząco, ale nie ma dość argumentów, by tego zaprzeczenia bronić publicznie.  Pomocy będę szukał  w książce Marcina Miłkowskiego „Explaining the Computational Mind” (MIT Press 2013).  Zacznę od pewnych  kwestii przygotowawczych, z których dwie dotyczą głównej tezy książki, a trzecia jej tytułu.  Pytania oznaczam literą Q z kolejnymi cyframi, stosowanymi w granicach danego odcinka.

Q1.  Swą tezę nazywa Autor komputacjonizmem.  Pod tym słowem często rozumie się  w literaturze  pogląd, że  ludzkie osoby są maszynami Turinga (the view that human persons are Turing Machines – zob. cytowanego w §2 Stanneta, s.10, odc.2.1).  Wiele miejsc w książce świadczy, że Autor się z takim ograniczeniem nie zgadza i postuluje w tej kwestii pluralizm, który nazywa też, nieco metaforycznie — ekumenizmem. Pod skrzydła ekumenicznego komputacjonizmu zagarnia Autor takie stanowiska, jak: biorobotyczne, cybernetyczne, konekcjonistyczne, dynamiczne (tj.  biorące m.in.  pod uwagę procesy przyczynowo-skutkowe),  neurokomputacyjne,  symboliczne (to ostatnie pokrywa się  chyba z podejściem w kategorii maszyn Turinga, skoro na s.9  nazywa się je tradycyjnym).   Do tej listy dołącza Autor na innych stronach (24, 47)  przetwarzanie informacji, czyli  obliczanie,  analogowe,  a także to z gatunku „hypercomputational” (s.47). Tego drugiego terminu nie wyjaśnia, ale w literaturze mamy dobrze  poświadczone nazywanie w ten sposób obliczeń,  które wykraczają poza możliwości maszyny Turinga. Tak czyni np.  Mike Stanett: „The Case for Supercomputation” w  „Applied Mathematics and Computation” 178 (2006) 8-24,  gdzie czytamy na wstępie, co następuje:

Hypercomputation refers to the idea that formal systems can be constructed, and physical systems identified, designed, constructed or exploited, that have capabilities beyond those of the Turing machine. Hypercomputation typically refers to systems that can compute non-recursive functions.

Tak dochodzimy do następującego pytania. Czy hiper-komputacjonizm dotyczy zbioru procesów rozłącznego względem innych (z w/w  listy)? Czy może nazwa ta oznacza zbiór procesów nadrzędny względem jakiejś innej klasy procesów obliczeniowych,  lub przecinający się z jakąś klasą? Np.  klasą procesów  analogowych? Albo neurokomputacyjnych? Oczywiście,   uprawnione może się też okazać wyjaśnienie, że obecny stan nauki  nie daje podstaw do  takich odpowiedzi.

Q2.  Swą  główną tezę nazywa też Autor mechanicyzmem.  Stąd pytanie: Czy zbiór mechanistycznych wyjaśnień procesów poznawczych pokrywa się ze zbiorem wyjaśnień komputacjonistycznych?   W każdym razie, mechanicyzm jest przez Autora podobnie jako komputacjonizm ceniony,  o czym świadczy m.in.  wypowiedź: „the mechanistic account of explanation fits the practice of cognitive science much better than do the competing accounts.” Czy są to zatem nazwy  jednego, czy też może  dwóch  podejść mających to wspólne, że oba należą do głównych tez i są  podobnie silnie akceptowane?  W odpowiedzi trzeba by się odnieść do standardowej koncepcji mechanicyzmu, która nie zdaje się być po myśli Autora, skoro wbrew jego pluralizmowi przyznaje monopol wyjaśnieniom w kategoriach maszyny Turinga, jak ta w monografii J.C.Webba „Mechanism, Mentalism, and Metamathematics” (Reidel 1980, Synthese Library). Webb określa mechanicyzm  jako pogląd, że maszyna Turinga jest adekwatnym modelem człowieka (s. ix u Webba).  Ta koncepcja jest nie do pogodzenia z hiper-komputacjonizmem,  który dobrze się odnajduje w pluralistycznym spektrum Miłkowskiego, musi on więc mieć na uwadze jakiejś określenie spoza powyższego standardu.

Prekursorem hiper-komputacjonizmu był Alan Turing w okresie, kiedy pod oficjalną kuratelą A.Churcha (1938-39) pisał  w Princeton rozprawę doktorską pt. „Systems of logic defined by ordinals” (Proc. Lond. Math. Soc., Ser. 2, 45: 161-228).  Turing rozważa tam urządzenie zdolne do znajdowania wartości funkcji nieobliczalnych,  a więc urządzenie przewyższające maszynę Turinga czyli (w poźniejszej terminologii)  hiper-komputacyjne. Nazywa je wyrocznią i stwierdza stanowczo,  że nie jest ono maszyną.  (zob. art. A.Hodgesa w encyklopedycznym artykule o Turingu.)  Jak widać, standardowe rozumienie terminu „maszyna” i odeń pochodnych, obecne u Webba, wywodzi się od samego Turinga, z czym należałoby się liczyć, projektując znaczenie dla wyrazu „mechanicyzm”.

Q3. Czemu Autor, będąc mechanicystą, nie zatytułował swej  książki „Explaining the Computational Brain”? Czy uważa, iż istnieje umysł jako coś różnego od mózgu i że to coś także (nie tylko mózg) jest maszyną? W takim razie dystansowałby się od stanowiska, które Gödel określa jako neuralism, definiując je słowami: „the thesis that the brain suffices for the explanation of mental phenomena” (s.183)?   Jeśli się nie przyjmuje neuralizmu,  powiada dalej Gödel, to problem komputacjonizmu rozdziela się na dwie kwestie, z których jedna dotyczący zjawisk neuronowych (neural), druga zaś umysłowych (mental).  Może nasz Autor uznaje za zasadne obie te kwestie,  przy czym mechaniczność mózgu uznaje za oczywistą, i dlatego zajmuje się tylko mechanicznością (czyli charakterem obliczeniowym, jeśli te dwie cechy utożsamić) ludzkiego umysłu? To kolejne pytanie oczekujące na odpowiedź.

§2. Co głosi mechanicyzm radykalny i w czym różni się odeń ekumeniczny?

Proponuję następujący podział pracy: podstawie znanej mi literatury spróbuję odpowiedzieć na pierwszą część tego pytania,  zaś odpowiedź na drugą byłaby zadaniem Autora „Explaining[…]” jako rzecznika stanowiska,  które określa jako ekumeniczne, to znaczy dopuszczające wersje mechanicyzmu nie będącego radykalnym.  Poniższa lista twierdzeń radykalnego mechanicyzmu (MR) nie pretenduje do pewności, ale powinna wystarczyć, żeby ustosunkowując się do nich, nasz Autor określił  tą drogą treść mechanicyzmu ekumenicznego (ME).

Zaszufladkowano do kategorii Epistemologia i ontologia, Światopogląd informatyczny | Dodaj komentarz

Zadanie na miarę Herkulesa: zdefiniować pojęcie
przetwarzania informacji (information processing)

§1. Wstępne próby definiowania.  Pastuszek struga  z kory wierzbowej  fujarkę, żeby grać  liryczne melodie swej pasterce.  Czy jest to czynność przetwarzania informacji? Jest to niewątpliwie przetwarzanie kawałka materii, ale na tym  odpowiedź się nie kończy, bo przetwarzanie polega tu na daniu  nowej   formy.  Jest to więc czynność  formowania,  którą w języku Arystotelesa i scholastyków oddawano terminem informatio. Czy brać tę etymologię na serio — w tym sensie, że przetwarzając formę zwitka kory na formę instrumentu pastuszek przetwarza informację? Zostawmy to pytanie scholastykom i podejdźmy do sprawy od innej strony.

Zwitek kory obrabiany przez pastuszka jest w teorii Shannona reprezentowany przez pewną liczbę bitów informacji. Niezbyt jest kształtny,  czyli forma w nim uboga, nie jest to więc liczba imponująca. Wzbogaci się ona  po nadaniu drewnu kształtu fujarki,  czyli przybędzie tu bitów.  A to dlatego, że najkrótszy słowny opis fujarki będzie dłuższy od najkrótszego opisu użytego do niej materiału; ten drugi bowiem będzie częścią pierwszego, a do tego dojdzie opis struktury i funkcji (dalece  innej niż np. struktura i funkcja bębna bojowego).  Skoro mamy zwiększenie liczby bitów, czyż nie dokonał się akt przetwarzania informacji?

Filozoficznie  rzecz biorąc, nie bardzo wiadomo, dlaczego odpowiedź nie miałaby być twierdząca.  Zrezygnujemy z niej jednak ze względów praktycznych,  żeby pojęcie przetwarzania informacji nie stało się kłopotliwie rozdęte. Choćby przez to,  że objęłoby ono całą wytwórczość rzemieślniczą,  i przemysłową,  i jeszcze dużo więcej; wszak powszechny podatek VAT bierze się z większej „informatywności” produktu bardziej przetworzonego niż ma ją produkt wyjściowy,  mniej przetworzony.

Skoro w argumentacji  tyczącej się wzrostu liczby bitów odwołujemy się do długości opisu,  a więc do pewnego tekstu, to sama narzuca się myśl, żeby za przedmiot przetwarzania informacji uznać wszelkie teksty. Wszelkie? A może tylko pisane, bo w przypadku mówionych trudno zidentyfikować produkt przetwarzania, gdzieś się on rozpływa w powietrzu (scripta manent, verba volant — mówi łacińska maksyma).

Pisane, ale jak? W jakim kodzie? Czy uwzględnić także  zapisy w kodzie neuronowym albo w language of thought  w sensie Jerry Fodora?  Gdy prowadzę jakieś obliczenia w pamięci, czy w ten sposób przetwarzam informację? Trudno zaprzeczyć, ale trudno też wskazać na uchwytny tekst.  Jeszcze trudniej, gdy wziąć pod uwagę zachowania  pierwotniaków. Jeden z nich zwany błyszczką (euglena viridis)  odbiera specjalną plamką impuls świetlny (co wskazuje kierunek, w którym trzeba się  udać po energię fotosyntezy)  i przetwarza go na polecenie sterowania wicią w pożądanym kierunku. Nie jest to jednak coś, co dałoby się umieścić na półce bibliotecznej. Co więcej, ten proces biologiczny ma zarazem charakter wyraźnie chemiczny, trzeba by więc także w reakcjach chemicznych dopatrywać się przetwarzania informacji.

§2. Do czego potrzebna jest nam refleksja  nad przetwarzaniem informacji? Od początku swego istnienia gatunek ludzki zajmuje  się przetwarzaniem materii (na żywność, ubrania,  domy, oręż  etc.)  jak i przetwarzaniem  informacji. To drugie w dokonywanych na każdym kroku rozumowaniach, obliczeniach,  aktach instruowania i perswadowania etc.  Przez tysiąclecia robiono jedno i drugie z niemałym powodzeniem, nie dysponując ogólną teorią przetwarzania materii ani  ogólną teorią przetwarzania informacji.  Wystarczały  opracowania, jak to robić dla poszczególnych celów.  Co się tyczy informacji,   zajmowały się tym od starożytności logika, gramatyka i retoryka.  Na ogólną teorię przetwarzania materii nadal nie ma zapotrzebowania, z powodzeniem nam wystarczają różnorakie technologie specjalistyczne. Skąd więc w naszych czasach taka potrzeba w odniesieniu do informacji?

Powody są co najmniej dwa.  Jednym jest to, że przetwarzanie materii  — dla zaspokojenia rosnących z  gwałtownym przyspieszeniem potrzeb w sferze konsumpcji, zdrowia,  bezpieczeństwa itd. — w coraz większym stopniu zależy od sukcesów w przetwarzaniu informacji, mianowicie od postępu nauk, tak teoretycznych jak i stosowanych.  Łącznie tworzą one gigantyczną fabrykę przetwarzania informacji, a od jej wydajności coraz bardziej zależy los cywilizacji. Teoria informacji, w tej części, która się pokrywa z metodologią nauk, jest potrzebna w rozwiązywaniu dylematu, jak maksymalizować jednocześnie  dwie wielkości tak przeciwstawne, że jedna jest odwrotnością drugiej, mianowicie informację i prawdopodobieństwo (ten dylemat jest np. osią twórczości Karla Poppera).  W tym celu trzeba nam ogólniejszej  refleksji nad naturą informacji — jej pomiarem, kryteriami wiarogodności etc.

Na drugi powód rzuca światło pewna analogia z energią, mianowicie  z pojawieniem się maszyn do jej przetwarzania. Nie znano takich maszyn po wiek XIX, choć proste maszyny do przetwarzania materii (obrabiarki),  jak młyny,  prasy czy krosna były obecne już we wczesnych fazach  cywilizacji.  Tym się to tłumaczy, że z taką materią, jak kamień, drewno czy rośliny ma się do czynienia w codziennym doświadczeniu, więc  do poznawania jej podatnych na obróbkę właściwości nie trzeba było  specjalnych instrumentów ani teorii.  Energia natomiast jest żywiołem bardziej tajemnym,  występuje w różnych niedostępnych oku postaciach, toteż przetwarzanie przez silniki jednej postaci w inną, bardziej użyteczną, wymagało takiego poziomu nauk,  jaki przyniosła dopiero nowożytność i to nie od razu.  Na ten  rewelacyjny zestaw  złożyły się termodynamika, chemia, teoria elektromagnetyzmu, wreszcie  fizyka cząstek elementarnych.

Maszyny do przetwarzania informacji — komputery — pojawiły się wiek później, a wymagało to,  podobnie jak w przypadku silników,  wysoce  zaawansowanych  abstrakcyjnych teorii (algebra Boole’a, logika matematyczna itp).  W obu też przypadkach  słowo”przetwarzanie” rozumiemy inaczej niż w sensie potocznym (który dopuszcza, by przetwarzaniem nazywać też  transformacje destrukcyjne,  np. rozbiórkę części budynku).

 

by przetworzeniem nazw nie jakiekolwiek transformacje, lecz takie, które są pożądane (nie interesuje nas np. takie np. przetwarzanie, jakim jest deformacja jakiejś wiadomości powstała w toku przetwarzania w łańcuchu plotek). Trzeba więc w teorii przetwarzania informacji określić ów zamierzony punkt odniesienia.  W wiekowej tradycji logiki określa się go jako przeniesienie prawdziwości informacji zawartej w przesłankach na informację we wniosku — łac. salva veritate.   Ten warunek, nazwijmy go SV (od owego  zwrotu),

 

sie logicznym, tj. jako jednoznacznego przyporządkowania wartości funkcji do jej argumentu).  To pierwsze

 

,  idąc śladem odwiecznej tradycji logicznej,  jako przekształcanie salva veritate, czyli z zachowaniem prawdziwości danych wejściowych (przesłanek), która powinna być transmitowana na dane wyjściowe  (wnioski).

 

Pierwsze pomysły maszyn do przetwarzania informacji pojawiły się w wieku XVII,  ale żeby mogły one wyjść poza gazę ręcznych kalkulatorów mechanicznych na cztery działania,  trzeba było czekać na taki stan techniki oraz  matematyki (algebra, logika matematyczna), jaki zaistniał w wieku XX.  Dopiero ten poziom rozwoju umożliwia  konstruowanie komputerów — maszyn do wielkoskalowego przetwarzania informacji.  Jednocześnie coraz liczniejsze zjawiska będące przedmiotem nauk empirycznych staje się na tyle dobrze rozpoznane, ze umożliwia to ich opis ilościowy, a wraz z tym symulacje  obliczeniowe w wykonaniu komputerów.

 

 

 

 

rzy takich różnych zastrzeżeniach, trzeba nadal poszukiwać odpowiedzi.  Cennego do niej materiału  dostarcza książka Marcina Miłkowskiego Explaining the Computational Mind  (2013,  MIT  Press).  Blogowy nad  jej propozycjami  dyskurs jest ułatwiony przez okoliczność, że kilka  jej streszczeń,  na różnych poziomach szczegółowości, jest  dostępnych elektronicznie w Sieci. Można więc wstępnie podjąć tu dyskusję, bez potrzeby uprzedniego streszczania książki. Jedno sprawozdanie dał Autor na własnej  stronie poświęconej książce,  inne – na na stronie MIT Press, gdzie zachęcają do myślenia nad książką także dołączone do abstraktu opinie specjalistów. Do tego dochodzi obszerny konspekt do wykładu na tenże temat prowadzonego przez Autora w Instytucie Filozofii UW.

 

 

 

  Na problem obecnego szkicu naprowadza następująca wypwiedź Autora na końcu rozdziału 1 (s.24).  I propose that the notions of computation and information processing be used interchangeably.  Nazwijmy ją Deklaracją Miłkowskiego, w skrócie DM, i zapiszmy zwięźle jako równość:  

[DM] Przetwarzanie informacji = Obliczanie.

Znak równości jest tu symbolem pokrywania się  zakresów (nie znaczeń).  

W tym punkcie pojawia się pierwsze z serii pytań, które czytelnik chciałby zadać Autorowi. Oznaczał je będę skrótem PA z następującym dalej numerem pytania,  np. PA.1. Nie zmienia tej strategii okoliczność,  że będę tam, gdzie to możliwe, sam doszukiwał się odpowiedzi w tekście odpowiedzi Autora; taka próba jest hipotezą interpretacyjną którą Autor może potwierdzić lub zanegować.  A oto pierwsze z pytań.

 PA.1: Czy DM jest (1) definicją,  w której jeden z terminów definiuje się przez drugi, czy  (2)  zdaniem syntetycznym, w którym sens obu stron równości jest znany skądinąd,  i stwierdzamy empirycznie identyczność zakresów?

Wywód w rozdziale 2 w odcinku 4 pt. „Information Processing and Computation” (s.42-51), prowadzi do opcji (1), z następującym uszczegółowieniem  OA.1: DM jest definicją obliczania, w której role definiensa pełni pojęcie przetwarzania informacji.

 

Taki wydaje się być sens następującego zdania podsumowującego uprzednią argumentację: „This characterization of computations in terms of information processing is very broad” (s.47) – o ile zwrot „characterization in terms” rozumieć jako synonim zwrotu „definition in terms”.  To samo wyraża zwięzłe stwierdzenie: „So computation is simply information processing” (s.46).

§2.  Drugie z moich pytań do Autora bierze się z próby interpretacji  następującego zdania”:  „Computation is a kind of flow of information, in at least the most general sense of the latter idea”  (s.46).  Na czym polega ów najbardziej ogólny sens pojęcia przetwarzania  informacji (czyli strumienia przekształceń informacji – „flaw of information”)?  Podejdźmy do sprawy na dwa sposoby.  Najpierw  zapytamy o najogólniejszy sens terminu „obliczanie”, to bowiem dzięki równości DM w §1, wskaże nam też możliwie największy zakres terminu „przetwarzanie informacji” (o drugim sposobie – za chwilę). 

 

W tym celu stawiamy najpierw pytanie pomocnicze: czy Autor zgadza się, że ex definitione obliczenie jest to znajdowanie wartości funkcji – przy szerokim rozumieniu funkcji jako relacji jednoznacznej? Jeśli tak, to dokonajmy jeszcze jednego rozszerzenia. Tego mianowicie, które zawdzięczamy Turingowi: że istnieją funkcje nieobliczalne, tj. takie, których wartościami są liczby nieobliczalne (Turing 1936), oraz że przynajmniej niektóre z nich dadzą się rozpoznać drogą  intuicji (Turing 1939).  Treściwą informację o tym drugim wyniku podaje Andrew Hodges w encyklopedycznym artykule o Turingu.

Stąd,  przy założeniu DM, dostaniemy maksymalnie szerokie określenie: Przetwarzanie informacji jest to znajdowanie wartości funkcji, określonych w zbiorze informacji i przybierających wartości z tego zbioru,  nie wyłączając funkcji nieobliczalnych.  Wzorcowym przykładem  informacji będącej wartością funkcji nieobliczalnej jest nierozstrzygalne zdanie arytmetyczne zwane gödlowskim.

Zestawmy to z możliwie najszerszym potocznym pojęciem przetwarzania informacji. Nie jest to zwrot, którego byśmy często używali na  co dzień, ale że jego składniki powszechnie są zrozumiałe, łatwo też chwytamy sens złożenia – przy rozumieniu słowa „informacja” jako „wiadomość”.  Każdy wie, co to jest przetwarzanie rozumiane szeroko, to jest, niezależnie od tego, co się przetwarza, jakim sposobem, i co z tego wychodzi (owocem tej wiedzy jest m.in. idea VAT jako podatku od wzrostu wartości towaru uzyskiwanej w wyniku kolejnych jego  przetworzeń).  Przetworzenia produktu nazywamy też  przekształceniami, a w tej drugiej wersji da się sformułować ważne pytanie:  Czy do kategorii przekształceń  (z łac. – transformacji) należą też zniekształcenia (z łac. – deformacje), które w skrajnym przypadku są tym samym, co unicestwienia?

Te ogólne prawidłowości, i rodzące się z nich pytania, dotyczą też jako szczególnego przypadku, przekształcania informacji (w sensie – wiadomości).  Mam więc pytanie: czy deformacja wiadomości jest także jej przetworzeniem? W sytuacji,  gdy (jak postuluje Autor),  mamy operować najszerszym pojęciem przetwarzania informacji należałoby odpowiedzieć twierdząco. Czy jednak da się to pogodzić z pojęciem przetwarzania informacji jako obliczania w sensie procesu znajdowania wartości funkcji?

Zaszufladkowano do kategorii Dialogi wokół recenzji, Epistemologia i ontologia, Światopogląd informatyczny | Dodaj komentarz

Polemiki wokół Ajdukiewicza:
ziarno pragmatyzmu w jego konwencjonalizmie

Tytuł ten dla niejednego ucha może zabrzmieć ekscentrycznie.  Pragmatyzm w konwencjonalizmie?  Wszak mówi się powszechnie, że Ajdukiewicz miał najpierw fazę konwencjonalizmu, a potem empiryzmu.  Skąd domniemanie, że  podpisywał się pod pragmatyzmem,  i że to czynił pozostając przy tym konwencjonalistą (jeżeli już,  to może w wyniku jakiejś ewolucji)?   Co do Gödla, to choć nie unikał on samookreśleń, np.  tego, że jest platonikiem, nie określał  się expressis verbis jako pragmatysta i nie jest wymieniany w tym gronie przez historyków.

O Gödlu będzie mowa dalej.  Co się zaś tyczy Ajdukiewicza, to świadectwo jego poczucia bliskości z pragmatyzmem, nie ostentacyjne, ale jednoznaczne, znajdujemy w samym manifeście  konwencjonalizmu: „Das Weltbild und die Begriffsaparatur” (w „Erkenntnis” IV,  1934).   W przekładzie: „Obraz świata i aparatura pojęciowa” (w „Język i poznanie”, tom I,  1960).  To oświadczenie pojawia się w kontekście (§7, s.192), który nas upewnia, że konwencjonalizm Ajdukiewicza, choć nazwany przezeń radykalnym,  jest czymś zdecydowanie innym niż epistemologiczny relatywizm. Autor odrzuca myśl, że wszystkie aparatury pojęciowe i z nich wytworzone obrazy świata są równie dobre. Odrzuca dlatego,  że każda aparatura ma służyć jakiemuś celowi poznawczemu, czyli jakimś zastosowaniom, a nie każda się do określonych zastosowań nadaje.  To odniesienie do zastosowań jest czymś, do czego   — zdaniem Autora — „nawiązuje pragmatyzm, dla którego nasze ostatnie wywody nie będą brzmiały zbyt obco.”

Żeby udokumentować zbieżność swego stanowiska z pragmatyzmem, Ajdukiewicz przywołuje w przypisie artykuł niemieckiego socjologa Georga Simmela (

Tytuł ten dla niejednego ucha może zabrzmieć ekscentrycznie.  Pragmatyzm w konwencjonalizmie?  Wszak mówi się powszechnie, że Ajdukiewicz miał najpierw fazę konwencjonalizmu, a potem empiryzmu.  Skąd domniemanie, że  podpisywał się pod pragmatyzmem,  i że to czynił pozostając przy tym konwencjonalistą (jeżeli już,  to może w wyniku jakiejś ewolucji)?   Co do Gödla, to choć nie unikał on samookreśleń, np.  tego, że jest platonikiem, nie określał  się expressis verbis jako pragmatysta i nie jest wymieniany w tym gronie przez historyków.

O Gödlu będzie mowa dalej.  Co się zaś tyczy Ajdukiewicza, to świadectwo jego poczucia bliskości z pragmatyzmem, nie ostentacyjne, ale jednoznaczne, znajdujemy w samym manifeście  konwencjonalizmu: „Das Weltbild und die Begriffsaparatur” (w „Erkenntnis” IV,  1934).   W przekładzie: „Obraz świata i aparatura pojęciowa” (w „Język i poznanie”, tom I,  1960).  To oświadczenie pojawia się w kontekście (§7, s.192), który nas upewnia, że konwencjonalizm Ajdukiewicza, choć nazwany przezeń radykalnym,  jest czymś zdecydowanie innym niż epistemologiczny relatywizm. Autor odrzuca myśl, że wszystkie aparatury pojęciowe i z nich wytworzone obrazy świata są równie dobre. Odrzuca dlatego,  że każda aparatura ma służyć jakiemuś celowi poznawczemu, czyli jakimś zastosowaniom, a nie każda się do określonych zastosowań nadaje.  To odniesienie do zastosowań jest czymś, do czego   — zdaniem Autora — „nawiązuje pragmatyzm, dla którego nasze ostatnie wywody nie będą brzmiały zbyt obco.”

Żeby udokumentować zbieżność swego stanowiska z pragmatyzmem, Ajdukiewicz przywołuje w przypisie artykuł niemieckiego socjologa Georga Simmela (

Tytuł ten dla niejednego ucha może zabrzmieć ekscentrycznie.  Pragmatyzm w konwencjonalizmie?  Wszak mówi się powszechnie, że Ajdukiewicz miał najpierw fazę konwencjonalizmu, a potem empiryzmu.  Skąd domniemanie, że  podpisywał się pod pragmatyzmem,  i że to czynił pozostając przy tym konwencjonalistą (jeżeli już,  to może w wyniku jakiejś ewolucji)?   Co do Gödla, to choć nie unikał on samookreśleń, np.  tego, że jest platonikiem, nie określał  się expressis verbis jako pragmatysta i nie jest wymieniany w tym gronie przez historyków.

O Gödlu będzie mowa dalej.  Co się zaś tyczy Ajdukiewicza, to świadectwo jego poczucia bliskości z pragmatyzmem, nie ostentacyjne, ale jednoznaczne, znajdujemy w samym manifeście  konwencjonalizmu: „Das Weltbild und die Begriffsaparatur” (w „Erkenntnis” IV,  1934).   W przekładzie: „Obraz świata i aparatura pojęciowa” (w „Język i poznanie”, tom I,  1960).  To oświadczenie pojawia się w kontekście (§7, s.192), który nas upewnia, że konwencjonalizm Ajdukiewicza, choć nazwany przezeń radykalnym,  jest czymś zdecydowanie innym niż epistemologiczny relatywizm. Autor odrzuca myśl, że wszystkie aparatury pojęciowe i z nich wytworzone obrazy świata są równie dobre. Odrzuca dlatego,  że każda aparatura ma służyć jakiemuś celowi poznawczemu, czyli jakimś zastosowaniom, a nie każda się do określonych zastosowań nadaje.  To odniesienie do zastosowań jest czymś, do czego   — zdaniem Autora — „nawiązuje pragmatyzm, dla którego nasze ostatnie wywody nie będą brzmiały zbyt obco.”

Żeby udokumentować zbieżność swego stanowiska z pragmatyzmem, Ajdukiewicz przywołuje w przypisie artykuł niemieckiego socjologa Georga Simmela (1858-1918) z pogranicza socjologii i teorii poznania, choć ten autor ani sam nie  nazwał się pragmatystą, ani nie  jest w ten sposób przedstawiany w dotyczących go opracowaniach;   jego filozoficzną afiliację stanowił neokantyzm.

 

Pomimo braku formalnych certyfikatów pragmatyzmu, lektura tego artykułu upoważnia do wniosku,  że Ajdukiewicz rozumiał  pragmatyzm

 

 

 

W tymże §7 pt. „Tendencje ewolucyjne aparatur pojęciowych”  Ajdukiewicz odwołuje się do ewolucjonizmu, żeby odpowiedzieć,  czy wszystkie wszystkie aparatury pojęciowe równie dobrze służą celowi, ku któremu w swej ewolucji zmierza nauka. W tym miejscu (s.192)  pojawia się zdanie o punkcie docelowym,  które (choć własne Autora)  brzmi tak,  jak gdyby było wzięte z Peirce’a  lub Ramseya (też wybitnego pragmatysty).

Jeśli tu mówimy o celu, do którego zmierza rozwój nauki,  nie chcemy jednak rozumieć wyrazu „cel” antropomorficznie jako coś, do  czego ktoś świadomie zmierza.   Przez cel nauki rozumiemy idealne stadium końcowe, do którego zbliżają się stopniowo poszczególne stadia nauki, podobnie jak wyrazy ciągu do jego granicy. Jakie jest to stadium końcowe, można przypuszczalnie stwierdzić obserwując tendencje objawiające się w toku rozwoju.

Autor „Obrazu świata” wymienia cztery możliwe cele nauki.  Zajmiemy jednym z racji pojawienia się w nim  pojęcia rozstrzygalności wiążącego pragmatyzm Ajdukiewicza z  pragmatyzmem Gödla.

 

 

 

 

 

 

 

 

 

 

 

W tymże §7 pt. „Tendencje ewolucyjne aparatur pojęciowych”  Ajdukiewicz odwołuje się do ewolucjonizmu, żeby odpowiedzieć,  czy wszystkie wszystkie aparatury pojęciowe równie dobrze służą celowi, ku któremu w swej ewolucji zmierza nauka. W tym miejscu (s.192)  pojawia się zdanie o punkcie docelowym,  które (choć własne Autora)  brzmi tak,  jak gdyby było wzięte z Peirce’a  lub Ramseya (też wybitnego pragmatysty).

Jeśli tu mówimy o celu, do którego zmierza rozwój nauki,  nie chcemy jednak rozumieć wyrazu „cel” antropomorficznie jako coś, do  czego ktoś świadomie zmierza.   Przez cel nauki rozumiemy idealne stadium końcowe, do którego zbliżają się stopniowo poszczególne stadia nauki, podobnie jak wyrazy ciągu do jego granicy. Jakie jest to stadium końcowe, można przypuszczalnie stwierdzić obserwując tendencje objawiające się w toku rozwoju.

Autor „Obrazu świata” wymienia cztery możliwe cele nauki.  Zajmiemy jednym z racji pojawienia się w nim  pojęcia rozstrzygalności wiążącego pragmatyzm Ajdukiewicza z  pragmatyzmem Gödla.

 

 

 

 

 

 

 

 

 

 

 

W tymże §7 pt. „Tendencje ewolucyjne aparatur pojęciowych”  Ajdukiewicz odwołuje się do ewolucjonizmu, żeby odpowiedzieć,  czy wszystkie wszystkie aparatury pojęciowe równie dobrze służą celowi, ku któremu w swej ewolucji zmierza nauka. W tym miejscu (s.192)  pojawia się zdanie o punkcie docelowym,  które (choć własne Autora)  brzmi tak,  jak gdyby było wzięte z Peirce’a  lub Ramseya (też wybitnego pragmatysty).

Jeśli tu mówimy o celu, do którego zmierza rozwój nauki,  nie chcemy jednak rozumieć wyrazu „cel” antropomorficznie jako coś, do  czego ktoś świadomie zmierza.   Przez cel nauki rozumiemy idealne stadium końcowe, do którego zbliżają się stopniowo poszczególne stadia nauki, podobnie jak wyrazy ciągu do jego granicy. Jakie jest to stadium końcowe, można przypuszczalnie stwierdzić obserwując tendencje objawiające się w toku rozwoju.

Autor „Obrazu świata” wymienia cztery możliwe cele nauki.  Zajmiemy jednym z racji pojawienia się w nim  pojęcia rozstrzygalności wiążącego pragmatyzm Ajdukiewicza z  pragmatyzmem Gödla.

Zaszufladkowano do kategorii Epistemologia i ontologia | Dodaj komentarz

O związkach matematyki z informatyką w perspektywie historycznej

Niniejszym tymczasowym wpisem chciałbym poinformowac wszystkich zainteresowanych (również studentów), że w środę 19.06 (w godzinach 11.30-14.30 w sali 206, w Gmachu Głównym Politechniki Warszawskiej) odbędzie się otwarte spotkanie dyskusyjne na tematy: 1) pojęcie obliczania, 2) komputerowe wspomaganie dowodów w matematyce.

Inicjujące dyskusję odczyty wygłoszą: prof. Krzysztof Wójtowicz z UW, oraz prof.Krzysztof Maślanka z PAN.

Zapraszam w imieniu organizatorów.

Zaszufladkowano do kategorii Bez kategorii | Jeden komentarz