Turingowskie inspiracje… czyli o myśleniu ludzi i maszyn raz jeszcze

Szanowni Państwo!

Proponuję podjąć raz jeszcze dyskusję na temat omawiany w blogu co najmniej dwukrotnie…
Polecam, na przykład, dyskusję z roku 2012, a także nieco nowszą, z roku 2019.

W obydwu rozmowach inspirowaliśmy się niezwykle ważnym dla filozofii umysłu tekstem Alana Turinga pt. „Maszyny liczące a inteligencja”. W tekście tym znajdujemy, po pierwsze, oryginalne sformułowanie testu na inteligencję maszyn, nazywanego dziś testem Turinga, po drugie jednak, szereg polemicznych uwag Turinga do wysuwanych w jego czasach argumentów na rzecz niemożności skonstruowania maszyn myślących. Są one zawarte w rozdziale 7 wzmiankowanego tekstu.

Proponuję wziąć te uwagi za punkt wyjścia blogowej dyskusji.

Czy argumenty przytaczane przez Turinga zachowały swoją aktualność? Które z nich są najsilniejsze? Które z nich Turing odpiera w sposób przekonywujący, a które opierają się jego krytyce? Czy możemy dzisiaj, z perspektywy współczesnych dokonań informatyki, wysunąć argumenty inne lub rozbudować jakoś polemikę Turinga?

Wszelkie wypowiedzi mile widziane. Również takie, które wychodzą poza dość wąską definicję myślenia jako czynności możliwej do stwierdzenia za pomocą (werbalnego i behawioralnego zarazem) testu Turinga.

Na rozgrzewkę proponuję  fragment mojego dawnego komentarza z dyskusji prowadzonej w roku 2012.

<<
Interesujący nas temat, czyli [samo myślenie] oraz [hipotetyczne myślenie maszyn], jest niezwykle trudny, ponieważ nie za bardzo potrafimy wyjaśnić jednoznacznie, a także zgodzić się co do tego, cóż to znaczy „myśleć”.
Oczywiście nie tylko my. Nad problemem tym łamią sobie głowy (i pióra) wybitni specjaliści: psychologowie, neurobiologowie, filozofowie itd…
Sam Turing, podobnie jak będący dla niego pewnego rodzaju inspiracją psychologowie-behawioryści (nie badajmy myślenia jako takiego, badajmy korelacje między bodźcami i reakcjami organizmu), próbował ten temat ominąć – próbował bowiem utożsamić myślenie z jego zewnętrznymi przejawami (taka jest w istocie intencja testu Turinga).
Dla Turinga zatem i godzących się z nim dyskutantów “myśleć” to chyba tyle co „skutecznie rozwiązywać problemy (którą to skuteczność daje się jakoś mierzyć)” .
Dla anty-turingowców z kolei „myśleć” to coś więcej, a mianowicie „przeżywać (świadomie) pewne wewnętrzne stany, jak poczucie zrozumienia czy satysfakcji z uzyskanego rozwiązania, które to stany niezwykle trudno opisać obiektywnie”.
Ci pierwsi łatwiej zapewne zgodzą się na możliwość skonstruowania myślących maszyn, ci drudzy trudniej.
Do tego wszystkiego dochodzi jeszcze jedna sprawa. Otóż za odpowiedzią pozytywną na interesujące nas pytanie („Tak. Maszyna może myśleć.”) kryje się dość często czyjeś przekonanie (i podejrzenie zarazem), że umysł ludzki jest w istocie skomplikowaną maszyną, a pozornie tylko wydaje się, że nią nie jest.
Czy nie tak właśnie – mniej lub bardziej świadomie – mniemał Alan Turing (zauważmy, że pada w tekście kilkukrotnie dziwne określenie „ludzka maszyna cyfrowa”)?
Dla osób o takim nastawieniu zupełnie naturalne wydaje się, że maszyny będą mogły kiedyś dorównać mechanicznemu (z założenia) umysłowi. A zatem będą mogły myśleć.
Osoby odpowiadające przeciwnie zakładają z kolei, że „umysł nie jest mechaniczny”, a przyczyną jego nie-mechaniczności może być np. specyficzne fizyczne tworzywo umysłu-mózgu (umysł zatem to nie tylko program, ale nadto substancja ów program implementująca) albo nie-materialna dusza jakoś sprzężona z mózgiem.
Ja proponuję, choćby na chwilę, przyjąć jeszcze inny punkt widzenia.
Otóż, być może, bardziej istotne od pytania o to “czy maszyny mogą myśleć?”, jest pytanie o to “czy maszyny pozwolą nam zrozumieć lepiej, na czym polega ludzkie myślenie?”. Być może taki właśnie najgłębszy sens – tj. chęć lepszego zrozumienia fenomenu ludzkiej myśli – ma konstruowanie i analizowanie maszyn (informatycznych) do sztucznej realizacji czynności poznawczych.
>>

Serdecznie zapraszam do swobodnej rozmowy!

Paweł Stacewicz

Zaszufladkowano do kategorii Bez kategorii, Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 57 komentarzy

Era informacji, informatyczna, cyfrowa…
Czy te i inne „informacyjne” etykiety dobrze pasują do naszych czasów?

Obecnym wpisem chciałbym odświeżyć przedwakacyjną dyskusję pt. „Czy żyjemy w erze informacji i co to znaczy?”.  Temat wydaje się banalny, a odpowiedź oczywista: tak, żyjemy w erze informacji, a sama informacja, głównie za sprawą informatyki, ma coraz częściej postać cyfrową.

Oto próbka tekstu naukowego, w którym termin „era cyfrowa” jest traktowany jako zupełnie oczywista nazwa naszych czasów:

<< Podstawową charakterystyką ery cyfrowej jest bezprecedensowa ekspansja informacji. Począwszy od lat 80. XX wieku, wolumen zgromadzonych na świecie danych i skumulowana moc obliczeniowa podwajają się co 2–3 lata (Hilbert i Lopez, 2011). Koszt standardowej operacji obliczeniowej spada średnio o 53% rocznie (Nordhaus, 2017). Można powiedzieć, że przetwarzanie, przechowywanie i transmisja informacji odspoiły się od możliwości poznawczych ludzkiego mózgu – przed erą cyfrową to człowiek za to odpowiadał, dziś w zdecydowanej większości jest to już domeną komputerów i innych urządzeń elektronicznych. Przed 1980 r. mniej niż 1% informacji było zakodowanych w postaci cyfrowej, dziś ponad 99% (Gillings, Hilbert i Kemp, 2016).>>
Źródło:  J. Growiec, “Społeczny odbiór nauki w erze cyfrowej”, z książki Ewolucja cywilizacyjnej roli i społecznego odbioru nauki

Dyskutując powyższe kwestie kilka miesięcy temu, wiele osób wykazało zdrowy – moim zdaniem –  krytycyzm co do nazbyt pośpiesznych prób nazwania współczesności. Nazbyt pośpiesznych, bo czynionych ze zbyt bliskiej czasowej perspektywy. 
Oto kilka reprezentatywnych głosów:

1.
Uważam, że samo spojrzenie technologiczno-informatyczne może być zbyt zawężoną perspektywą spojrzenia na nasze czasy. Z pewnością jest to jeden z głównych aspektów definiujących nasze społeczeństwo, ale nie jedyny. Myślę, że nie sama informacja jest tu słowem kluczem, a bardziej jest to „globalizacja”.

2.
Czy zatem można powiedzieć, że żyjemy w erze informacji? Osobiście nie zgadzam się z tym stwierdzeniem. Aktualnie posiadamy szybszy przesył informacji, dzięki czemu możemy wykorzystać więcej zasobów, ale informacja nie zyskała większej wagi niż to było w poprzednich epokach. Moim zdaniem trafniejszym określeniem jest to, że „żyjemy w erze danych”.

3.
Nie powiedziałbym, że dzisiejsze społeczeństwo możemy nazwać „społeczeństwem informacji”, jako głównym mianem. Podobnie jak kilku moich przedmówców, nazwałbym nas prędzej „społeczeństwem dezinformacji”. Łatwość dostępu do wiedzy sprawia, że trudniej jest ją filtrować, sięgamy po najprostsze środki (wyszukiwarka Google), nie zastanawiając się, czy strona, na którą trafiliśmy jest wiarygodna. Nie mówiąc już o algorytmach, które wyświetlają nam treści zgodne z naszym światopoglądem, co prowadzi nas do mylnego wrażenia, że wszyscy na świecie myślą podobnie do nas.

4.
Chociaż wszyscy możemy się zgodzić, że komputer jest wynalazkiem definiującym w pewnym sensie nasz czas (jednak należy tutaj też uważać, ponieważ tkwimy w pewnej bańce informacyjnej środowiska informatycznego i nasza opinia może być nieobiektywna), to pozostawiłbym nazywanie obecnych czasów przyszłym pokoleniom. Może nie dostrzegamy czegoś, co było jeszcze ważniejsze dla rozwoju cywilizacji albo może robimy coś nieprawdopodobnie złego (chociażby dla środowiska) przez co zostaniemy nazwani „erą szkód”.

Potraktujmy przytoczone głosy jako sygnał wywoławczy do dalszej rozmowy…
Chociaż wybrałem głosy co najmniej wstrzemięźliwe wobec określeń typu „era informacyjna” czy „cyfrowa”, to niekoniecznie musimy te nazwy skreślać.
Argumentujmy i polemizujmy zgodnie z własnym „rozpoznaniem sytuacji”.

Serdecznie zapraszam do dyskusji – Paweł Stacewicz

Jako materiał pomocniczy proponuję następujące źródła:

♦ artykuł A. Sicińskiego: Społeczeństwo informacyjne: próba nazwania naszych czasów

♦ artykuł J. Growca: Społeczny odbiór nauki w erze cyfrowej

♦ prezentacja P Stacewicza: Informacja jako pojęcie interdyscyplinarne

Zaszufladkowano do kategorii Bez kategorii, Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 29 komentarzy

Analog computations: continuous vs empirical

We would like to invite everyone to discuss the material  that has been presented during virtual conference Computability in Europe (5-9 July 2021).

The entire slideshow (with large sections of text from our paper draft) is available HERE.

We decided to submit it for discussion, because we are now working on a new publication devoted to analog/continuous computations, and all additional critical input, and each additional discussion will be for us very precious.

Thus, we will be grateful for any comments that may contribute both: the improvement of our text (which still is in the reviewing process), and the development of our new ideas.

To encourage you to read the whole slideshow, we put two representative (text) passages below:

Two basic (general) meanings of analogicity

When talking about analog computing, i.e. a kind of non-standard computing, there are two different (yet not necessarily separate) ways of understanding analogicity.

The first meaning, we shall call it AN-C, refers to the concept of continuity. Its essence is the generalisation (broadening) of digital methods in order to make not only discrete (especially binary) but also continuous data processing possible. On a mathematical level, these data correspond to real numbers from a certain continuum (for example, an interval of a form [0,1]), yet on a physical level – certain continuous measurable variables (for example, voltage or electric potentials).

The second meaning, we shall call it AN-E, refers to the concept of analogy. It acknowledges that analog computations are based on natural analogies and consist in the realisation of natural processes which, in the light of defined natural theory (for example physical or biological), correspond to some mathematical operations. Metaphorically speaking, if we want to perform a mathematical operation with the use of a computational system, we should find in nature its natural analogon. It is assumed that such an analogon simply exists in nature and provides the high effectiveness of computations.

In a short comment to this distinction, we would like to add that the meaning of AN-E has, on the one hand, a historical character because the techniques, called analog, which consisted in the use of specific physical processes to specific computations, were applied mainly until the 1960s. On the other hand, it looks ahead to the future – towards computations of a new type that are more and more often called natural (for example, quantum or computations that use DNA).

The meaning of AN-C, by contrast, is more related to mathematical theories of data processing (the theoretical aspect of computations) than to their physical realisations.

The categories AN-C and AN-E are not disjoint, as there are empirical computations that consist in processing continuous quantities.  As such, they are AN-E, but also fall into the AN-C category.

Empirical justification of AN-E computations

AN-E computations are closely related to the theories of empirical sciences (e.g., physics or biology). This means that specific computations of this type could neither be specified nor physically implemented without reference to a specific theory of this type.

Typically, such theories are treated as a tool for accurate description of physical reality in terms of mathematical structures and operations. Thus, their cognitive aspect is highlighted.

From the computational point of view (or more precisely: from the implementation one) they can be treated as a basis for realizing certain mathematical operations by means of physical processes described by these operations. With such an approach, a particular theory is treated as something that justifies the physical implementation of certain mathematical-algorithmic operations. It is therefore a justifying theory for a particular type of AN-E computation.

Once again, we invite everyone to discuss our slideshow — Paula Quinon & Paweł Stacewicz.

Zaszufladkowano do kategorii Bez kategorii | 2 komentarze

Między wiedzą „jak” i wiedzą „dlaczego”.
Kontekst algorytmiczny.

Jako sygnał wywoławczy kolejnej blogowej rozmowy chciałbym przywołać następujący cytat z tekstu Donalda Knutha o algorytmach:

Być może największym odkryciem będącym rezultatem wprowadzenia komputerów okaże się to, że algorytmom, jako przedmiotom badania, przysługuje niezwykłe bogactwo interesujących własności oraz to, że algorytmiczny punkt widzenia jest użytecznym sposobem organizacji wiedzy w ogólności.

Algorytmiczny punkt widzenia…
Zastosujmy go nieco węziej niż to postuluje Knuth, przyjmując, że algorytm stanowi wzorcowy (schematyczny, jednoznaczny, intersubiektywnie dostępny…) zapis wiedzy „jak”, czyli wiedzy o tym, jak rozwiązywać problemy określonego typu. Na przykład: jak znajdować pierwiastki równań kwadratowych czy diagnozować choroby układu oddechowego.
Warto napomknąć tutaj, że na polu epistemologii wiedzę „jak” odróżnia się od wiedzy „że”. Ta pierwsza ma charakter proceduralny, operacyjny, pragmatyczny (w naszym ujęciu: algorytmiczny)… ta druga zaś,  dotyczy faktów i zależności między nimi (oto przykład: Wisła jest dłuższa od Odry); ma zatem charakter deklaratywny lub opisowy.

O użyteczności algorytmów w ogólnym kontekście gromadzenia i zdobywania wiedzy dyskutowaliśmy już kilka razy, np. przy okazji wpisu Siła algorytmów czy wpisu Algorytmiczne podejście do zdobywania, zapisywania i przekazywania wiedzy….

Tym razem proponuję przyjrzeć się zagadnieniu przejrzystości poznawczej algorytmów — koncentrując się roboczo na kontekście informatycznym, a dokładniej na metodach i systemach sztucznej inteligencji (SI). Nie znaczy to oczywiście, że w dalszej rozmowie nie możemy wychodzić poza ten roboczy kontekst!

Otóż we współczesnych systemach SI, a więc systemach służących do automatyzacji czynności poznawczych człowieka (takich jak wnioskowanie czy komunikacja językowa), coraz częściej stosuje się algorytmy (samo)uczące się. Mają one status schematów pomocniczych, a więc schematów „drugiego poziomu”, które prowadzą do udoskonalenia algorytmu właściwego, odpowiedzialnego za działanie systemu.
Przykładowo: jeśli system służy do stawiania diagnoz medycznych, to algorytm właściwy mówi „jak przechodzić od obserwowanych objawów do stwierdzenia takiej a takiej choroby”, natomiast algorytm uczenia się ma na celu wcześniejsze dopasowanie pewnych parametrów algorytmu właściwego (być może nawet: utworzenie go od podstaw), tak aby ten ostatni działał poprawnie.
Dopowiedzmy koniecznie, że sporo współczesnych systemów uczących się ma postać sztucznych sieci neuronowych. W ich przypadku algorytmy uczenia się są pewnymi (inspirowanymi biologicznie) schematami samoorganizacji tych sieci – samoorganizacji, która polega na „dostrajaniu” wag połączeń międzyneuronalnych, a niekiedy też pewnych parametrów sztucznych neuronów.

Mając na uwadze rozróżnienie między algorytmami działania (jak rozwiązać problem, jak podjąć decyzję itp.) oraz algorytmami uczenia się (jak utworzyć lub udoskonalić algorytm właściwy), można postawić zagadnienie przejrzystości poznawczej tych pierwszych.
Chociaż stanowią one wiedzę „jak” i są podstawą efektywnych działań systemu, to w konkretnych przypadkach można się zastanawiać, w jakim stopniu wiedza ta ma status wiedzy „dlaczego”?
Przykładowo: wiemy, jak system stawia diagnozy i widzimy ich poprawność, nie do końca jednak rozumiemy, dlaczego są to takie właśnie diagnozy. Innymi słowy: system ma taką strukturę i taki algorytm działania (np. jest on bardzo złożony lub zawiera pewne techniczne parametry niskiego poziomu), że nie dostarcza wprost dobrych wyjaśnień podejmowanych przez siebie decyzji. Być może nawet, wyjaśnienia takie są w ogóle nieosiągalne.
Mówiąc obrazowo, system taki przypomina nieprzejrzystą poznawczo czarną skrzynkę.

Wobec zarysowanych trudności chciałbym poddać pod dyskusję następujące pytania:

Czy problem nieprzejrzystości poznawczej jest dla informatyków istotny?
Jeśli tak, to jakich systemów/algorytmów dotyczy?
Jakie czynniki ten problem wywołują i potęgują?
Czy znacie Państwo jakieś sposoby przezwyciężania tego problemu?
A może: w przypadku systemów informatycznych wiedza typu „dlaczego” jest nie do końca potrzebna, bo wystarczy skuteczna w praktyce wiedza „jak”?

Zachęcam do swobodnej rozmowy na powyższe tematy – z możliwością wykroczenia poza nie!

Na rozgrzewkę zaś przytaczam historyczny komentarz stałego bywalca Cafe Aleph, niejakiego k-ma, który dotyczył podobnych kwestii (komentarz ten delikatnie przeredagowałem):

<< Wobec współczesnych dokonań informatyki możliwa jest sytuacja, w której wiedza naukowa będzie mogła być efektywnie poszerzana przez „uczące się” automaty — korzystające ze sformalizowanych procedur tak, że plon tej zalgorytmizowanej działalności będzie racjonalny, to znaczy komunikowalny i intersubiektywnie sprawdzalny przez inne automaty korzystające z algorytmów na coraz to nowszych „jakościowo poziomach” — ALE wiedza ta nie będzie mogła się przełożyć na „wiedzę indywidualną” ludzi korzystających z owych automatów. Badacze będą mogli zyskać czasem wiedzę „że” i „jak”, ale nie wiedzę „dlaczego”. >>

Jako materiały pomocnicze do dyskusji (zob. też linki wyżej) proponuję:

tekst Donalda Knutha o roli algorytmów w informatyce
tekst Pawła Stacewicza o metodzie algorytmicznej
slajdy Pawła Stacewicza do wykładu nt, informacji i wiedzy

Serdecznie zapraszam do dyskusji – Paweł Stacewicz

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 19 komentarzy

Czy żyjemy w erze informacji i co to znaczy?

Do obecnej dyskusji zapraszam przede wszystkim (choć nie tylko!) studentki i studentów wydziału WEiTI Politechniki Warszawskiej, z którymi prowadzę zajęcia z filozofii informacji.
Na kolejne zajęcia zaplanowaliśmy debatę, którą proponuję rozpocząć wstępnie, a potem kontynuować :), w blogu. Mam nadzieję, że dołączą do nas również inne osoby, w tym stali bywalcy Cafe Aleph.

Tematem debaty jest era informacyjna, a dokładniej znaczenie i zasadność stwierdzenia, że „żyjemy w erze informacji„.
Ze stwierdzeniem tym korespondują rożne inne określenia, bardzo chętnie stosowane przez kulturoznawców, socjologów i filozofów.
Oto szczególnie wyraziste przykłady: społeczeństwo informacyjne (dopełniane zwykle  przymiotnikiem: postindustrialne), społeczeństwo sieciowe (mamy tu podkreślenie roli  Internetu) czy epoka cyfryzacji (uwypuklające rolę wynalazku komputera cyfrowego i powiązanych z nim technologii).

Dlaczego jednak  informację akurat, a nie coś innego, mamy uznać za kategorię definiującą nasze czasy?

Czy przesądza o tym wszechobecność urządzeń i technologii do przetwarzania informacji?

Czy chodzi może o skuteczne zastosowania pojęcia informacji w naukach (biologii, psychologii, fizyce…), które tworzą dzięki temu pojęciu pewien nowy obraz świata?

A może idzie o to, że coraz częściej świat realny zastępuje się wirtualnym, a więc w jakimś sensie informacyjnym?

A może zmienił się dominujący wzorzec aktywności ekonomiczno-gospodarczej i niemal wszystko w tej sferze zależy dziś od pozyskiwanych i posiadanych informacji?

Proszę Państwa, potraktujmy ten katalog pytań jako sygnał wywoławczy do dyskusji, która może się potoczyć również w innych kierunkach!
Wszelkie głosy MILE widziane…

Jako materiał pomocniczy do dyskusji proponuję następujące teksty i prezentację:

♦  artykuł A. Sicińskiego Społeczeństwo informacyjne: próba nazwania naszych czasów

♦  artykuł T. Goban-Klasa Teoretycy społeczeństwa informacyjnego

♦  prezentacja z ostatniego wykładu (wzbogacona o kilka nowych slajdów)

Serdecznie ZAPRASZAM do dyskusji wszystkich Czytelników bloga — Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 26 komentarzy

O pięknie pojęć i teorii naukowych

Zachęcony niezwykle interesującą wymianą myśli ze studentami Wydziału Fizyki PW zdecydowałem się wywołać w blogu dyskusję na temat piękna w nauce. Przede wszystkim w matematyce i fizyce.
Zamiast klasycznego wstępu przedstawiam niżej kilka reprezentatywnych głosów z zajęć, które były wpisywane na wykładowym czacie podczas referatu o humanistycznych aspektach fizyki. Są to oczywiście pewne wyrywkowe i spontaniczne spostrzeżenia, które możemy niżej dowolnie komentować i rozwijać. Mam nadzieję, że będą one stanowić dobry impuls do rozmowy.

1.
Dlaczego naukowcy posługują się pewną intuicją związaną dość mocno z poczuciem estetycznego piękna teorii naukowych? Dlaczego uznają niektóre z nich za piękniejsze, a tym samym warte większego zainteresowania?
Czasem piękno może oznaczać prostotę — to, że daną teorię da się sprowadzić do podstawowych form i operacji matematycznych. Czasem jednak niesamowicie przeładowana matematyką teoria może wydać się piękna właśnie dlatego, że zdołała opisać pewien nowy lub  nierozwiązany dotychczas problem. Zatem intuicja i poczucie estetyki u naukowca mogą być przydatne, by rozpoznać to, co ma potencjał do okazania się dobrą teorią. 

2.
Wydaje mi się, że piękno to pochodna biologicznego instynktu, który podpowiada nam, co jest piękne; podpowiada po to, by móc dokonać właściwego wyboru z punktu widzenia przetrwania (np. przy wyborze partnera/ki).

3.
A może piękno teorii jest wynikiem zespołu cech, które odpowiadają za „skuteczność” teorii… M. Heller w jednej ze swoich książek przytacza porównanie, jakiego użył S. Weinberg, zestawiając piękno teorii fizycznej z pięknem konia sportowego. Doświadczony trener rozpozna konia o odpowiednich cechach; już na pierwszy rzut oka potrafi wstępnie określić jego możliwości. Dobra teoria, podobnie jak koń sportowy, posiada zestaw cech, które zapewniają jej skuteczność.

4.
Czy piękno to swojego rodzaju idealność? Czy np. fuzję jądrową można nazwać pięknym źródłem energii (zero odpadów, CO2 itp.)? Podobne określenie możemy zastosować do teorii fizycznej, która wydaje się być idealna… W sumie to dość sensowna definicja piękna. W życiu też pięknym nazywamy, to co instynktownie uznajemy za idealne.

5.
Według mnie mieszanie piękna i prawdy jest błędne i nie powinno się na gruncie naukowym dyskutować o tym, czy jakaś nauka jest piękna, czy brzydka, bo prawda jest obiektywna, a wrażenia estetyczne – subiektywne.

A zatem: na czym miałoby polegać piękno zmatematyzowanej teorii naukowej? Na jej prostocie, symetrii, wewnętrznym uporządkowaniu, idealności…? Czy kryteria tego rodzaju  można precyzyjnie sformułować, nie uciekając się do „miękkich” porównań i metafor?

Serdecznie zapraszam do rozmowy – Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia nauki, Światopogląd racjonalistyczny | 36 komentarzy

Szerokie pojęcie obliczania i rozszerzona interpretacja tezy Churcha-Turinga Extended concept of computing and extended interpretation of the Church-Turning thesis

Szerokie pojęcie obliczania i rozszerzona interpretacja tezy Churcha-Turinga
Extended concept of computing and extended interpretation of the Church-Turning thesis

1. W większości dyskusji dotyczących tezy CT przyjmuje się, że dotyczy ona (intuicyjnego) pojęcia obliczania: definiuje go, objaśnia go, stanowi pewne uogólnienie oparte na analizie sposobu działania realnych systemów obliczeniowych… (mamy tu wiele interpretacji).

In most discussions on the CT thesis, it is assumed that it concerns the (intuitive) concept of computing: it defines it, explicates it, is a kind of generalization based on the analysis of how real computing systems work… (we have many interpretations here).

2. Wybijając na pierwszy plan pojęcie obliczania, ignoruje się fakt, że we wszystkich wariantach tezy CT jest mowa o efektywności (mamy w nich sformułowania typu: „funkcja efektywnie obliczalna”, „obliczalność efektywna” etc.). A zatem: teza CT mówi wprawdzie o obliczeniach, lecz kładzie (główny) nacisk na ich efektywność.
By putting the concept of computing into the foreground, one ignores the fact that in all variants of the CT thesis there is a reference to effectiveness (we have in them expressions like: ” effectively computable function”, ” effective computability” etc). Thus: although the CT thesis speaks about computation, it focuses (mainly) on its effectiveness.

3. Centralna rola efektywności w tezie CT jest szczególnie widoczna w następujących jej sformułowaniach:
— Każda funkcja efektywnie obliczalna jest funkcją obliczalną za pomocą UMT.
— Jeśli funkcja jest efektywnie obliczalna, to jest obliczalna za pomocą UMT.
— Funkcja jest efektywnie obliczalna wtedy i tylko wtedy, gdy jest obliczalna za pomocą UMT.
/W skrócie: OE implikuje (lub jest równoważne) OUMT//
Uwaga: Nie przesądzam tutaj, czy teza CT jest formułowana jako implikacja czy jako równoważność (pierwotne sformułowanie Churcha jest chyba implikacją)

The central role of effectiveness in the CT thesis is particularly visible in the following formulations:
— Each function that is effectively computable is computable by UMT.
— If the function is effectively computable, it is computable by UMT.
— A function is effectively computable if and only if it is computable by UMT.
/In short, E-C implies (or is equivalent to) C-by-UMT//
Note: I do not prejudge here whether the CT thesis is formulated as an implication or as an equivalence (the original Church formulation is probably an implication).

4. We wszystkich wskazanych wyżej sformułowaniach termin „obliczanie” występuje po obu stronach tezy CT, zaś termin „efektywność” tylko po stronie lewej (tej „intuicyjnej”). Znaczy to, że za pomocą tezy jest eksplikowane/definiowane/precyzowane… pojęcie efektywności (obliczeń), a nie pojęcie samego obliczania.

In all of the above mentioned formulations, the term „computable” occurs on both sides of the CT thesis, while the term ” effectiveness” occurs only on the left side (the „intuitive” one). This means that the thesis is used to explicate/define/specify… the concept of effectiveness (of computing) and not the concept of computing itself.

5. Zgodnie z powyższą obserwacją wolno uznać, że pojęcie obliczania jest dla tezy CT zewnętrzne, tj. uprzednie i zastane.

According to the above observation, the concept of computing can be considered as external to the CT thesis, i.e. previous and existing.

6.  Taka interpretacja otwiera drogę do uwzględnienie w tezie CT, a właściwie w różnych jej wariantach, różnych pojęć obliczania , a nie tylko obliczania rozumianego klasycznie (czyli tak, jak rozumieli je pierwsi teoretycy obliczeń: Church, Turing, Post, Markow i inni). Przy czym można przyjąć, że rożne warianty pojęcia obliczania składają się na szerokie pojęcie obliczania.

Such an interpretation paves the way for including in the CT thesis, or rather in its various variants, different concepts of computing, and not only computing understood classically (i.e. as they were understood by the first theoreticians of computing: Church, Turing, Post, Markow and others). At the same time it can be assumed that different variants of the notion of computing make up a generalized (broad/extended) concept of computing.

7.  Szerokie pojęcie obliczania wydaje się zgodne ze współczesną praktyką informatyczną (obliczeniową), co zresztą znajduje swój wyraz w języku. Wszak mówiąc współcześnie o obliczeniach wyróżnia się obliczenia cyfrowe (turingowskie), analogowe, naturalne (empiryczne), ewolucyjne, deterministyczne, indeterministyczne etc… /przyjmując, chociażby na próbę, że niektóre przynajmniej z wyróżnionych typów obliczeń są istotnie różne od turingowskich, definiowanych m.in. w modelu UMT/.

The extended concept of computing seems to be in line with modern computer science (computing) practice, which, in fact, is expressed in language. Speaking of computations today, we distinguish digital (Turing), analog, natural (empirical), evolutionary, deterministic, indeterministic (etc…) computations /assuming, at least for an attempt, that some of the distinguished types of computations are significantly different from Turing ones, i.e. UMT-defined /.

8. Przyjmując szerokie pojęcie obliczania oraz dostrzegając centralną rolę efektywności w tezie CT, możemy formułować różne jej warianty (CTi) – warianty, które dotyczą efektywności obliczeń różnego typu.
W pracy skupimy się na obliczeniach analogowych. Zastanowimy się, czy w dziedzinie obliczeń analogowych pojęcie efektywności może być wyeksplikowane/uściślone na sposób carnapowski, a dokładniej, czy można podać dla nich jakiś wystarczająco ogólny model matematyczny (tak ogólny jak UMT dla obliczeń cyfrowych), na gruncie którego można by uściślić, a następnie badać, zagadnienie efektywności.

Taking into account the exended/generalized concept of computing and recognizing the central role of effectiveness in the CT thesis, we can formulate its various variants (CTi) – variants that concern the effectiveness of various types of computations.
In this work we will focus on analog computations. We will consider whether in the field of analog computing the notion of effectiveness can be explicated/clarified in the Carnap way, and more precisely, whether it is possible to provide for them some sufficiently general mathematical model (as general as UMT for digital computing), on the basis of which the issue of effectiveness could be clarified and then examined.

9.  Zakładając, że pojęciem centralnym po lewej stronie tezy CT jest pojecie efektywności, należy sprecyzować wstępnie i ogólnie odpowiednie warunki/kryteria działania efektywnego.
Przykładowe możliwości: efektywne = wykonalne fizyczne, efektywne = wykonalne fizycznie i poznawalne przez ludzki umysł, efektywne = wykonalne fizycznie przy użyciu osiągalnych w praktyce zasobów (czas, środki zapisu, np. pamięć maszyny……)

Assuming that the central concept on the left hand side of the CT thesis is the concept of effectiveness, the appropriate conditions/criteria for effective action should be predefined.
Examples of possibilities: effective = physically feasible, effective = physically feasible and cognisable by the human mind, effective = physically feasible with the use of resources available in practice (time, means of recording, e.g. machine memory……).

10. W pracy skupimy się na najprostszym bodaj praktycznym rozumieniu efektywności obliczeń: efektywności jako ich fizycznej realizowalności. (Nie wykluczamy przy tym dygresji o innych, również węższych, sposobach rozumienia).
Dyskusję przeprowadzimy w ramach obecnego w informatyce rozróżnienie między obliczeniami cyfrowymi (klasycznymi, opisywanymi matematycznie w ramach modelu UMT) oraz analogowymi (rozumianymi jako obliczenia ciągłe, niekiedy zaś ciągłe i empiryczne zarazem).

In this work we will focus on the simplest and most practical understanding of the effectiveness of computing: effectiveness as their physical realizability. (We do not rule out digressions about other, also narrower, ways of understanding.)
The discussion will be conducted within the framework of the distinction between digital computations (classic, described mathematically within the UMT model) and analog ones (understood as continuous, sometimes continuous and empirical at the same time).

*** Rożne warianty tezy CT?

Jako CT0 – możemy oznaczyć klasyczną tezę CT, dotyczącą obliczeń turingowskich/cyfrowych, jako kolejne CTi – wersje CT dotyczące różnych wariantów obliczeń nieturingowskich.
Dla różnych sposobów rozumienia efektywności otrzymalibyśmy z kolei różne warianty CTij.
Przez maksymalnie szeroką interpretację tezy CT można rozumieć klasę CT* złożoną ze wszystkich możliwych wariantów CTij.

*** Different variants of the CT thesis?

As CT0 – we can mark the classic CT thesis on Turing/digital computations, as further CTi – CT versions on different variants of non-Turing computations.
For different ways of understanding the effectiveness we would in turn receive different variants CTij.
By a maximum broad interpretation of the CT thesis we can understand a CT* class consisting of all possible variants of CTij.

Zaszufladkowano do kategorii Bez kategorii | Dodaj komentarz

Niewidzialne Kolegium Filozofii Informatycznej

§1. Tło historyczne

Pojęcie Invisible College upowszechnił  wybitny historyk nauki Derek J. De Solla Price w książce „Little Science, Big Science”, 1963, uogólniając i aktualizując pojęcie powstałe w pewnym znakomitym gronie dżentelmenów w 17-wiecznym Londynie. Definiuje się je encyklopedycznie w takich sformułowaniach, jak np. następujące (wikipedia)

Invisible College is the term used for a small community of interacting scholars who often met face-to-face, exchanged ideas and encouraged each other. One group that has been described as a precursor group to the Royal Society of London, consisted of a number of natural philosophers.

Zabrakło mi w encyklopediach wyjaśnienia: dlaczego taka społeczność nazywa się niewidzialną, skoro składa się nie z duchów, lecz z bytów cielesnych spotykających się”face-to-face”? Mój domysł jest następujący. Istotnym rysem takiego zespołu jest coś, co powinno być wspomniane już w jego definicji. mianowicie okoliczność, że nie  można go zobaczyć na żadnej liście instytucji naukowych czy akademickich, jak uczelnie, akademie, laboratoria etc. Ten fakt niejako negatywny ma w sobie potężny ładunek pozytywny, dobrze oddany w słynnym powiedzeniu  Wernera Heisenberga: Wissenschaft ensteht im Gespräch.  Jak wiemy z autobiografii, miał on na uwadze  głównie rozmowy nieformalne między przyjaciółmi — przy piwie, w parku, na górskiej wycieczce.  Ważna bowiem dla nowych twórczych pomysłów jest spontaniczność we wzajemnych inspiracjach czy sporach, nie krepowana porządkiem obrad, ani względem, jak mój głos będzie przyjęty przez dane audytorium, itp.

Nie tylko Londyn był miejsce narodzin tego społecznego fenomenu. Nie byle jakie głowy gromadziły się w pubach Edynburga, szkockiej stolicy intelektu w tymże czasie. Scenki  z takich spotkań wspominam w felietonie „Pubs, Cafes, and Europe’s Intellectual Success”.

§2.  Filozofia informatyczna =  filozofia w informatyce + filozofia informatyki

§2.1. Filozofia informatyczna jako filozoficzny program uprawiania informatyki: kwestia AI, cyfrowość versus aalogowość etc.

§2.2. Od logiki do filozofii informatycznej: Boole, Frege, Hilbert, Turing.

Ta sławna historia ma przesławną prehistorię, ale to osobny rozdział, nie do zmieszczenia w obecnym szkicu. Powiedzmy tylko, co najważniejszego przekazała prehistoria dziejom najnowszym datowanym od Boole’a. A także, jakie niedomagania przeszkodziły jej być rodzicielką dzisiejszej informatyki z jej filozofią.

Arystoteles, a potem Leibniz byli w błędzie, uważając sylogistykę za ostatnie słowo w księdze logiki. Był to raczej wspaniały i kunsztowny inicjał, bez którego  księga logiki z informatyką nie mogłaby się zacząć, ale nie główna jej treść.  Arystoteles nie dostrzegał w niej świetnych zadatków na algebrę. Wyczuł  je dopiero Leibniz, nie zaszedł jednak w tych pierwszych krokach daleko.  Doszedł natomiast do głosu geniusz Arystotelesa w pomyśle wprowadzenia symboli zmiennych reprezentujących uniwersalia. To był wielki krok  naprzód, ale nie tak wielki ,żeby osiągnąć szczyt; zabrakło kluczowego elementu, jakim jest kategoria zmiennych indywiduowych.

Drogę do stania się pełną logiką najbardziej  zablokowało sylogistyce  ignorowanie kategorii relacji. U Leibniza było to coś więcej niż poniechanie, była to świadoma strategia redukowania predykatów relacyjnych  czyli wieloargumentowych do predykatów monadycznych czyli jednoargumentowych. Wywodzi się ona z pewnych metafizycznych tez monadologii wraz z właściwym jej założeniem  radykalnego determinizmu. Skoro każda monada, powiedzmy x, odwzorowuje poznawczo całe uniwersum monad, to  relację y do z, np. Aleksandra macedońskiego do Filipa, i uznając ją za absolutnie konieczną (determinizm),  to x ma podstawy, żeby bycie Filipa ojcem Aleksandra uznać konieczną cechą Filipa; trzeba by więc orzekać ją o Filipie za pomocą predykatu monadycznego „jest ojcem Filipa”.  W ten sposób drugi argument relacji zostałby wpisany w treść tego predykatu. Od strony syntaktycznej  można się tu dopatrzeć operacji, na jakiej proponował oprzeć składnię logiczną Moses Schönfinkel, a podjął ja Curry w logice kombinatorycznej. Może więc dałoby się tworzyć logikę  matematyczną po tej linii, i  tak bronić monadologii argumentem, że nie zawadza ona w rozwoju logiki. Z informatycznego jednak punktu widzenia, który uwzględnia m.in. maszynową kontrolę poprawności dowodów pisanych  ludzką ręką, zmuszanie matematyków do pisania dowodów w składni Schönfinkla byłoby skrajnie niepraktyczne. Kto  chce się o tym przekonać, niech spróbuje w tej składni sparafrazować Euklidesa, czy choćby  aksjomatykę Peano.  Kwestia jest jednak otwarta, i warto by usłyszeć w niej głos znawców logiki kombinatorycznej.

Było jednak w projekcie Leibniza coś, co mimo  jego śmiałości oraz niewystarczalności środków czyniło go podatnym na realizację, gdy dojrzeje po temu. grunt. Dojrzewał on m.in. w analizie matematycznej, która wymagała dość wyrafinowanego stosowania  kwantyfikatorów i zmiennych indywiduowych.  Projekt Leibniza pod nazwą ”  dowodzenia twierdzeń naukowych i filozoficznych przez maszynę, która dostaje zakodowane cyfrowo przesłanki dowodu i przetwarza je na wniosek za pomocą reguł logiki. We współczesnej logice nazywa się to formalizacją tekstu. Głównym autorem tej idei i jej perfekcyjnym wykonawcą był David Hilbert. Tekst sformalizowany jest przekładalny na dowolny język programowania. Tak to oddaje Gregory Chaitin wybitny kontynuator myśli Gödla.

The role that Hilbert envisioned for formalism in mathematics is best served  by computer programming languages, which are in fact formalisms that can be  mechanically interpreted, but they are formalisms for computing and  calculating.

 

Kwestia rozstrzygalności logiki predykatów należy do logiki matematycznej (dokładniej : do metalogiki). Na równych  jednak prawach należy do epistemologii, a więc do działu filozofii.  Jeśli zgodzimy się określić informatykę jako naukę o skutecznym rozstrzyganiu problemów za pomocą maszyn, to logiczne zagadnienie rozstrzygalności staje się też informatycznym dzięki uzyskaniu nań odpowiedzi za sprawą UMT — Uniwersalnej Maszyny Turinga.  Mówiąc „też” ,wypada  mieć w polu uwagi priorytet  logiki w porządku kroków badawczych, gdzie wpierw musi być pytanie nim przyjdzie odpowiedź; taki jest sens przyimka „do” w tytule §2.1. Pytanie  postawił logik  Hilbert. Odpowiedział logik Turing, ale kluczowe w jego odpowiedzi pojęcie maszyny uczyniło zeń ojca informatyki.

Klasyczne sformułowanie problemu rozstrzygalności logiki pochodzi od Davida Hilberta. Od omawiania tego doniosłego faktu zwalnia mnie w tym miejscu fakt, że obecny tekst da się traktować

 

o zastosowaniu maszyn do wszelkich problemów informatycznych lub dających się reprezentować matematycznie, to  poprzez pojęcie maszyny Turinga epistemologiczna (a więc filozoficzna) kwestia rozstrzygalności logiki staje się również kwestią  podstaw informatyki informatyki.  Podobnie jak jak w matematyce kwestię  tego rodzaju podstaw zalicza się do filozofii matematyki, tak tę wypada zaliczyć do filozofii informatyki.

Obszar objęty terminem „filozofia nauki” dzieli się ileś jakby prowincji, mianowicie filozofie poszczególnych nauk: matematyki, fizyki, biologii etc.  Jest to w każdym przypadku refleksja filozoficzna nad przedmiotem i metodami danej dyscypliny. Np.  w sprawie matematyki filozof  zastanawia się nad  kategorią ontologiczną rozważanych w niej przedmiotów,  nad epistemologiczną kwestią sposobu ich poznawania etc.  Gdy spojrzeć na określoną naukę jako na pewien system twierdzeń, pojęć itd., to filozofia danej nauki jest względem niej metasystemem. Tak więc filozofia informatyki jest metasystemowym  ujęciem tej dyscypliny.  Gdy np. Donald Knuth pyta, czy informatyka ma taki sam status metodologiczny jak matematyka, albo gdy pytamy, jak ma się koncepcja maszyny Turinga do logiki matematycznej, to  typowe pytanie z filozofii informatyki.

Inaczej ma się relacja  informatyki do filozofii  wyrażana pojęciem: filozofia w informatyce. Bierze się  ono z ogólniejszego przekonania, że każda z nauk szczegółowych ma pewne założenia  filozoficzne. Jedne  bywają bardzo ogólne,  wspólne wielu naukom, jak np. prawo przyczynowości.  Inne są charakterystyczne dla określonej dyscypliny,  a zależnie od tego, jaka u podstaw znajdzie  się filozofia, otrzymuje się takie lub inne wyjaśnienia i przewidywania  procesów historycznych.  Wyrazistą tego ilustracją może być porównanie oświeceniowo konserwatywnej filozofii Edmunda Burke’a z  filozoficzną utopią przywódców Wielkiej Rewolucji.  O tym, jak  zasadność przyjętej filozofii historii wpływa na trafność w przewidywaniu procesów historycznych,  świadczy imponujący sukces prognoz Burke’a.  Z kolei, w fizyce nie powstałaby  teorii względności, gdyby Einstein  podpisał się pod filozoficzną wiarą Newtona, że są możliwe oddziaływania fizyczne dokonujące się poza czasem (jak sądził Newton o grawitacji).

§3. Środowisko filozoficzne w Politechnice Warszawskiej — zalążek niewidzialnego kolegium filozofii informatycznej

Tak pojmowany, jak rzekło  się wyżej, warunek niewidzialności spełnia  pewna społeczność pasjonatów filozofii informatycznej. Nim tę społeczność pokrótce opiszę, wypada wyjaśnić, jak będziemy  filozofię  informatyczną rozumieć. Może on bowiem ten termin brzmieć enigmatycznie dla niektórych Czytelników,  a i specjaliści od informatyki może nie zawsze   się domyślą, o co tu chodzi.  Rozważmy, jak mają sie do niego dwa terminy bliskie znaczeniowo.

seminarium, którego zalążek powstał w Zakładzie Filozofii z  Wydziału Administracji Nauk Społecznych Politechniki Warszawskiej  z inicjatywy Pawła Stacewicza magistra informatyki (PW), doktora filozofii (UW), autora pokaźnej książki „Umysł a modele maszyn uczących się” (której niżej podpisany miał sposobność być recenzentem), 2010,   i  współautora (z tymże niżej podpisanym) książki „Umysł – komputer – świat. O zagadce umysłu z informatycznego punktu widzenia”, 2011. Stacewicz jest inicjatorem oraz, by tak rzec menadżerem, prac tego gremium. O nim to mówi podtytuł naszego bloga” [Blog]  Affiliated with a Seminar at the Warsaw University of Technology.

Seminarium zaistniało na progu roku 2015, można więc rzec, iż w 2020 ma swój mały jubileusz.  Pięć lat intensywnej aktywności to dobry powód, żeby poświęcić  naszemu  koleżeńskiemu kolegium anons taki jak obecny. Nie widnieje ono w wykazie zajęć PW  ani w innym tego rodzaju dokumencie, stąd jego tytuł, by mienić się niewidzialnym, pomimo, że jest to zespół pokaźny co swego składu jakościowego. Jego silnym atutem jest regularna obecność profesorów z innych dziedzin,  jak fizyka kwantowa (Marek Kuś),  telekomunikacja (Józef Lubacz), historia matematyki (Zbigniew Król), jak też znawców biologii, ekonomii, prawa etc. Innym atutem jest  pozyskiwanie referentów z różnych ośrodków (Wrocław, Toruń,  Łódź, Lublin, Kraków i in.) oraz różnych specjalności.

Z tegoż seminarium wyszła inicjatywa organizowania dorocznych ogólnopolskich konferencji poświęconych filozofii informatyki. Odbywały się one od roku 2015 w uczelniach Warszawy (PW), Krakowa (UJPII), Poznania UAM z, z udziałem Politechniki), znów Warszawy PW i WAT), Lublina (UMCS).  Można powiedzieć, że  ich organizatorzy z innych niż PW ośrodków — koledzy profesorowie Paweł Polak (UJPII),  Sławomir Leciejewski (UAM), Krzysztof Sołoducha (WAT) i Marek Hetmański (UMCS) wraz ze swymi współpracownikami i z autorami odczytów — dalece poszerzyli, tak ilościowo jak i merytorycznie, krąg naszego Collegium Invisibile.

Zaszufladkowano do kategorii Bez kategorii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | Dodaj komentarz

Racjonalistyczny optymizm Hilberta, Gödla, Turinga

Obecny wpis jest moim głosem w dyskusji na międzyuczelnianym (IFiS PAN, IF UW, środowisko filozoficzne PW) posiedzeniu seminarium pt. „Ku filozofii informatycznej”, 17.XI.2020.  Dwa główne na tym posiedzeniu odczyty, profesorów Pawła Polaka („Filozofia informatyki, o jakiej nie śniło się  informatykom”)  i Kazimierza Trzęsickiego („Filozofia informatyczna i paradygmat Turinga”), mają pewien wspólny wątek — pankomputacjonizm, do którego chciałbym się odnieść w tych uwagach jako do szczególnie wyrazistej gałęzi filozofii informatycznej. Dobre tło dla tych uwag stanowi wprowadzenie do seminarium, autorstwa doktora Pawła Stacewicza.

§1. Anty-limitatywne  twierdzenie Gödla, 1936, ilustrujące epistemiczny pankomputacjonizm jako gałąź filozofii informatycznej.

Posługując się terminem „pankomputacjonizm epistemiczny” należy wyjaśnić, od jakiego innego kierunku ma go odróżniać ten przymiotnik.  Rzecz jest warta pilnej uwagi, bowiem ów inny kierunek jest rozległymi frapującym działem filozofii informatycznej.  Proponuje określać go mianem pankomputacjonizm ontyczny, wkracza on bowiem w kwestię natury bytu glosząc myśl że podstawowym tworzywem świata nie są elementarne cząstki materii lecz bity czyli elementarne cząstki informacji.  Wyraża tę myśl maksyma Johna Wheelera it from bit (można to oddać jako „byt z bitów”).  Cała rzeczywistość jest według tej koncepcji gigantycznym komputerem cyfrowym przetwarzającym bity wedle algorytmu kierującego ewolucją wszechświata.

Jakkolwiek fantastycznie brzmi ta koncepcja, zasługuje ona na uwagę, skoro opowiada się za nią grupa tak wybitnych fizyków kwantowych i  kosmologów, jak  omawiany w odczycie prof. Trzęsickiego Konrad Zuse,  wspomniany wyżej John Wheeler, a także Stephen Wolfram, Ed Fredkin, Frank Tipler i inni.

Uznawszy, że skierowanie do tekstu Trzęsickiego pozwala wspomnieć w paru tylko słowach  komputacjonizm ontyczny,  przechodzę do kwestii pankomputacjonizmu w wersji epistemicznej.  Oto doniosłe stwierdzenie Gödla, dobrze się nadające na drogowskaz ku tej części filozofii informatycznej, jaką jest epistemiczny pankomputacjonizm.

Der Übergang zur Logik der nächst höheren Stufe bewirkt also nicht bloß, daß gewisse früher unbeweisbare Sätze beweisbar zu werden, sondern auch daß  unendlich viele der schon vorhandenen Beweise außerordentlich stark abgekürzt werden können. — „Über die Lange von Beweisen”

Powiada w tym ustępie Gödel, że przejście do wyższego rzędu logiki powoduje nie tylko to, że dadzą się dowieść pewne twierdzenia dotąd niedowodliwe, lecz także to, że nieskończenie wiele już istniejących dowodów ulega nadzwyczajnemu skróceniu.  Ciekawą tego egzemplifikacją w praktyce matematycznej jest w aksjomatyce Peano przejście od aksjomatu indukcji pierwszego rzędu do sformułowania w logice drugiego rzędu.

Dowód w rozumieniu tak Gödla jak  iHilberta jest to dowód sformalizowany, a więc wykonalny  lub sprawdzalny dla maszyny cyfrowej. Znaczy to, że każdy problem matematyczny da się rozwiązać algorytmicznie czyli obliczeniowo. W tym sensie ów pogląd Gödla zasługuje na określenie pankomputacjonizm, a przydawka epistemiczy odróżnia go od ontycznego.

Algorytmiczne rozwiązywanie kolejnych  problemów poprzez wspinanie się na coraz wyższe rzędy logiki  jest wymowną  ilustrację fenomenu poznawczego, jakim jest twórcza konceptualizacja poprzez postulaty znaczeniowe (meaning postulates w sensie Carnapa 1947 ).  Szczególnie ważnym ważnym dla postępu nauki środkiem są  aksjomaty w teoriach sformalizowanych.  Zachodzi to także w rozważanym przykładzie Gödla ponieważ każdy nowy rząd logiki jest określany przez swoiste dlań aksjomaty.

Tenże przypadek, ujawniając dobitnie doniosła i niezbywalną rolę filozofii w informatyce, harmonizuje z  wypowiedzią prof.Polaka, że „filozofia okazuje się dla przyszłości informatyki równie ważna co umiejętności techniczne i ścisła wiedza”. Istotnie, żeby informatyka  była zdolna do algorytmicznego rozwiązywania problemów w tak wydajny sposób, musi przyjąć ontologię platońską w sensie istnienia uniwersaliów pojętych jako  zbiory w sensie teorii mnogości.  Antyplatońska filozofia nominalizmu, np. reizm Kotarbińskiego, jest w tym względzie bezradna.

Twórcza konceptualizacja czyli inwencja pojęciowa to czynnik fundamentalny,   obecny  na każdym kroku  postępu wiedzy. Spektakularnym przykładem takiej odkrywczości jest  pojęcie zera. Poświęca mu wiele uwagi odczyt Trzęsickiego, poprzestanę więc na zauważeniu, że bez obecności tego obiektu  w świecie liczb nie byłoby nawet najprostszych algorytmów czterech działań arytmetycznych. Gdyby przyjąć filozofię, które nie dopuszcza takich bytów jak zero, nigdy byśmy się nie doczekali  maszyny Turinga.

Optymistyczny  racjonalizm Gödla buduje się na założeniu, że gdy do rozwiązania jakiegoś problemu  brak nam algorytmu, to należycie usilna praca inwencji pojęciowej doprowadzi do znalezienia pojęć, które po sprecyzowaniu  przez aksjomatyzację oraz sformalizowaniu teorii aksjomatycznej  dostarczy potrzebnego algorytmu.

§.2. Racjonalistyczny optymizm Gödla  a stanowiska Hilberta  i Turinga

§2.1.  Moje propozycje w tej kwestii znajdują się m.in.  w następujących artykułach, dostępnych w elektronicznych wersjach periodyków i w bazach danych po wklejeniu w wyszukiwarce całego tytułu.

Does Science Progress towards Ever Higher Solvability through Feedbacks between Insights and Routines?Studia Semiotyczne„, tom 32 nr 2, 2018. Odcinki 1.4,  2.2, 3.1,  3.2, 5.1, 5.2.

Jako komentarz do zwrotu Feedbacks between Insights and Routines  niech posłużą dwie wypowiedzi koryfeuszy informatyki.  Pierwsza pochodzi od Gregory Chaitina, druga od Donalda Knutha. Chaitin wyjaśnia, co nas upoważnia do epistemicznego pankomputacjonizmu  w matematyce pomimo Gödlowskiego dowodu jej niezupełności.

Gödel’s own belief was that in spite of his incompleteness theorem there is in fact no limit to what mathematicians can achieve by using their intuition and creativity instead of depending only on logic and the axiomatic method. He believed that any important mathematical question could eventually be settled, if necessary by adding new fundamental principles to math, that is, new axioms or postulates. Note however that this implies that the concept of mathematical truth becomes something dynamic that evolves, that changes with time, as opposed to the traditional view that mathematical truth is static and eternal. […]  In discovering and creating new mathematics, mathematicians do base themselves on intuition and inspiration, on unconscious motivations and impulses, and on their aesthetic sense, just like any creative artist would.

Z kolei, Knuth zwraca uwagę, że  osiągnięte dzięki twórczej intuicji algorytmy pomagają  tejże intuicji  docierać do  bogactwa interesujących własności obiektów matematycznych.

Być może największym  odkryciem będącym rezultatem wprowadzenia komputerów okaże się to, że algorytmom, jako przedmiotom badania, przysługuje niezwykłe bogactwo interesujących własności oraz to, że algorytmiczny punkt widzenia jest użytecznym sposobem organizacji wiedzy w ogólności.  […] ˙Najbardziej wartościowym elementem edukacji naukowej czy technicznej są służące ogólnym celom narzędzia umysłowe, które będą służyły przez całe życie.  Szacuję, że język naturalny i matematyka są najważniejszymi takimi narzędziami, a informatyka stanowi trzecie narzędzie.

Tę myśl Knutha rozwija P.Stacewicz we wpisie „Algorytmiczne podejście do zdobywania, zapisywania i przekazywania wiedzy”, który następuje po obecnym.

§2.2. Inną moją pozycją, która traktuje szerzej o zagadnieniach poruszanych w obecnym tekście jest artykuł: The progress of science from a computational point of view: the drive towards ever higher solvability – „Foundations of Computing and Decision Sciences„, Vol.44, No~1, 2019. Odcinki  3 i 4.

Tę optymistyczną myśl, że  dla każdego matematycznego problemu istnieje w  0biektywnym świecie jestestw matematycznych rozwiązujący go algorytm, do którego zdoła dotrzeć po jakimś  czasie myśl ludzka (o ile starczy na to czasu trwania cywilizacji),  analizuje wszechstronny, a  kończący się  znakiem zapytania, fragment tekstu  Pawła Stacewicza  zatytułowany „A Discussion of Marciszewski’s Optimistic Realism” w książce „Interdisciplinary Investigations into the Lvov-Warsaw School” (redakcja A.Drabarek, J.Woleński, M.Radzki), Palgrave 2019.

Zdobywamy głębszy wgląd w powyższą myśl Gödla, biorąc pod uwagę  jego odwoływanie się do fenomenologii Husserla w próbach uzasadnienia epistemicznego optymizmu. Ujawnia się wtedy  zakorzenienie tej kwestii  w metafizyce, co nie rokuje szybkiego rozwiązania. Stanowi jednak atrakcyjne wyzwanie dla badaczy, których nie odstrasza ryzyko metafizycznych spekulacji.

Zaszufladkowano do kategorii Filozofia informatyki, Filozofia nauki | 20 komentarzy

Algorytmiczne podejście do zdobywania, zapisywania i przekazywania wiedzy. Pożądane czy szkodliwe?

Niniejszy wpis kieruję przede wszystkim, choć nie tylko, do studentów wydziału WEiTI Politechniki Warszawskiej, z którymi mam obecnie zajęcia filozoficzno-informatyczne.
W trakcie tych zajęć poruszyliśmy problem, który był dyskutowany na blogu już kilkukrotnie (zob. np. tutaj), ale wciąż wydaje mi się wart dalszej rozmowy. Chodzi o metodologiczną przydatność pojęcia algorytmu – pojęcia, które znamy przede wszystkim z informatyki.

Czy algorytmizacja, a więc jakiegoś rodzaju schematyzacja i automatyzacja, są w nauce czymś pożądanym? Czy wiedza zapisana, ale także przekazywana, w postaci algorytmicznej, może stymulować rozwój nauki? A może jest inaczej: zbytnia algorytmizacja powoduje, że w nauce i  edukacji zaczyna brakować inwencji i kreatywności?

Można też spytać szerzej: czy podejście algorytmiczne, które przeniknęło do naszej kultury głównie za sprawą wynalazku komputera, wywiera jakiś istotny wpływ na tęże kulturę – wpływ pozytywny lub negatywny? Mam tu na myśli kulturę pojętą całościowo, a nie tylko technicznie…

Bardzo proszę o swobodne wypowiedzi nawiązujące do powyższych pytań; poza które można oczywiście wykraczać :).

Jako lektury wprowadzające  do dyskusji proponuję:

tekst Donalda Knutha o roli algorytmów w informatyce
tekst Pawła Stacewicza o metodzie algorytmicznej

Oto kilka zaczerpniętych z tych prac cytatów:

Knuth:
Być może największym odkryciem będącym rezultatem wprowadzenia komputerów okaże się to, że algorytmom, jako przedmiotom badania, przysługuje niezwykłe bogactwo interesujących własności oraz to, że algorytmiczny punkt widzenia jest użytecznym sposobem organizacji wiedzy w ogólności.

Knuth:
Zacytujmy ponownie George’a Forsythe’a: „Najbardziej wartościowym elementem edukacji naukowej czy technicznej są służące ogólnym celom narzędzia umysłowe, które będą służyły przez całe życie. Szacuję, że język naturalny i matematyka są najważniejszymi takimi narzędziami, a informatyka stanowi trzecie narzędzie” (Forsythe 1959).

Knuth:
Próba sformalizowania czegoś w postaci algorytmu prowadzi do głębszego zrozumienia niż ma to miejsce, gdy po prostu próbuje się daną rzecz pojąć w sposób tradycyjny.

Stacewicz:
Można pokusić się nawet o stwierdzenie, że dana dyscyplina uzyskuje postać dojrzałą wówczas, gdy powstaje w jej obrębie pewien schematyczny rachunek pozwalający z powodzeniem stosować metodę algorytmiczną.

Stacewicz:
Do zalet metody algorytmicznej, należy niewątpliwie wiedzotwórczość, która przejawia się na dwóch poziomach: a) każde zastosowanie algorytmu do nowych danych skutkuje nową wiedzą (rozwiązaniem nowego problemu), b) trafnie dobrany zbiór algorytmów ułatwia penetrację danej dziedziny na nowym jakościowo poziomie (na niższym poziomie dokonała się już automatyzacja).

Serdecznie zapraszam do rozmowy, w której oczywiście sam chętnie wezmę udział.

Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 25 komentarzy