Granice rozumienia z perspektywy “filozofii in silico”

Niniejszy wpis przygotowałem w imieniu Pana Konrada Maślenickiego, który jest wieloletnim czytelnikiem i komentatorem naszego bloga, piszącym pod pseudonimem k-m.

Zgodnie z tytułem wpis dotyczy „filozofii in silico”,  a zatem – o ile dobrze rozumiem – pewnego projektu uprawiania filozofii metodą informatyczną, tj. z wykorzystaniem pojęć, narzędzi i modeli informatycznych, takich np. jak sztuczne sieci neuronowe (SSN). Ponieważ filozofia tego rodzaju, musi mieć u swoich podstaw informatyczny światopogląd, tym chętniej witamy niniejszy wpis w Cafe Aleph.

Za przedmiot swoich rozważań autor obrał rozumienie i znaczenie – pojęcia, które od stuleci spędzają sen z oczu wszystkim niemal filozofom.

Co to znaczy rozumieć coś?
Jak dochodzi do zrozumienia czegoś?
Co w przypadku człowieka jest podstawą nadawania, rozumienia i uzgadniania znaczeń?
Co wspólnego mają z tymi zagadnieniami sztuczne sieci neuronowe?

Oto próbka pytań, które autor stawia w przesłanym tekście.

Aby zachęcić do jego przeczytania, wklejam niżej fragment zawierający niektóre argumenty i konkluzje.

4.  Z dwóch „stron” zależności definiującej znaczenie (i rozumienie) pojęć mamy zatem:
a. sposoby regularnego użycia pojęcia w określonych okolicznościach
b. prawidłowości w odpowiadających tym okolicznościom stanach/przetwarzaniem w fizycznych strukturach neuronalnych mózgu
i to korespondencja pomiędzy a i b określa znaczenia – w sposób, który trudno odwzorować w definicji, w „tradycyjny” dla formalnych systemów sposób.

Reasumując dotychczasowe rozważania: Modele (in silico) filozofii funkcjonujące bez modelu procesów, w ramach których realnie realizują się procesy rozumienia (znaczeń), nie odzwierciedlą realnego znaczenia przetwarzanych pojęć, przez co w rzeczywistości nie rozjaśniają filozoficznych kwestii.

5.  Nie ma powodu zakładać, że swoista „formalizacja” (czy wręcz model cyfrowy) w ogóle nie jest możliwa. – Wymaga ona jednak wprowadzenia właściwej architektury. Programiści licząc na rewolucyjny postęp mądrości (filozoficznej) nie powinni liczyć na modele „transparentne poznawczo” – a winni starać się odwzorować procesy fundujące znaczenie z obu stron w/w (punkt 4) korespondencji.
Musieliby opracować model trafnie odzwierciedlający „w działaniu”:
– charakter równoległego i rozproszonego przetwarzania (generującego ludzkie intuicje, przeświadczenia itd.) zapewniając zastosowanie układów o odpowiedniej architekturze („rozproszenie” i równoległe przetwarzanie jak w SSN)
– i to jak oryginał (ludzki mózg) był programowany: w procesach ewolucji naturalnej oraz w ramach Wittgenstein’owskich rozgrywek słownych (w rozumienie) – umożliwiając wirtualną ewolucję systemów sterujących cyfrowymi bytami w warunkach konkurencji o przetrwanie, a w szczególności zawierając możliwość ogrywania rezultatów działań w/w SSN w dziedzinie sterowania cyfrowymi ustrojami na polach gry odpowiadających (co do istotnych własności) okolicznościom, które określiły przetrwanie naszych przodków.
Wtedy moglibyśmy stworzyć cyfrowy model „trafnego” rozumienia, w którym dostępne byłyby wszelkie komponenty pozwalające uruchomić (w jego ramach) „program” dowolnej teorii filozoficznej.
Filozofia (nawet „in silico”) pozostałaby jednak nadal mętna/zawikłana logicznie i „nieprzejrzysta poznawczo”: jeśli model rozumienia ma trafnie uwzględniać wszelkie definiujące ‘znaczenie’ elementy, to ludzkie zrozumienie polegnie wobec gąszczu równoległych uwarunkowań systemu (nawet jeśli będzie on złożony z funkcjonujących ze ścisłą koniecznością „cegiełek”) , który odznaczać się powinien złożonością równoważną „oryginalnym systemom niosącym znaczenie” – aby zapewnić podobną zdolność zrozumienia.

Gorąco zachęcam do dyskusji, przed którą warto przeczytać cały tekst – w wersji skróconej albo rozszerzonej.

Oto niezbędne linki:

♦  Granice rozumienia…wersja skrócona
♦  Granice rozumienia…wersja rozszerzona

Otwieram zatem dyskusję nad tekstem Pana Konrada Maślenickiego…

Ten wpis został opublikowany w kategorii Filozofia informatyki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

12 Responses to Granice rozumienia z perspektywy “filozofii in silico”

  1. Jarosław Strzelecki pisze:

    Dziękuję Konradzie, za twoją rozprawę na temat znaczenia w ogóle i rozumienia w ogóle, w której znalazły się krytyczne uwagi o filozofii in silico. Samo zainteresowanie się tą ideą przez kogoś innego niż ja jest dla mnie bardzo cenne, a już krytyczne odniesienie się do tej idei wręcz bezcenne.

    Nie będę ukrywał, że twój styl pisanie jest dla mnie trudny w odbiorze, więc z góry przepraszam, jeżeli coś błędnie zrozumiałem.

    Odniosę się do twojego tekstu wersji rozszerzonej i tylko do kwestii, które bezpośrednio związane są z ideą filozofii in silico (skrót FiS).

    Ad.1.
    twoje tezy (chyba):
    1.1. W FiS tworzy się aksjomatyczne systemy.
    1.2. W FiS redukuje się znaczenia przedmiotów/fenomenów teorii filozoficznej do przekształceń wewnątrz modelu cyfrowego, co prowadzi do redukcji prawd zawartych
    w tej teorii.
    1.3. Znaczenia występujące w teoriach filozoficznych są kształtowane przez procesy poza formalne (chodzi o ideę ucieleśnionego umysłu i procesy ewolucyjne,
    które kształtują wszelki kontakt organizmu ze środowiskiem), a ich redukcja do
    przekształceń wewnątrz modelu cyfrowego nie prowadzi do postępu w filozofii.
    1.4. Tworzenie i analiza modelu nie daje wiedzy pewnej o ludzkim sposobie rozumienia,
    bo model nie odzwierciedla w pełni ani zasad działania ludzkiego umysłu, ani wyników działań ludzkiego umysłu.

    Ad. 1.1.
    W FiS można konstruować systemy aksjomatyczne (np. język Prolog, w którym
    baza wiedzy jest systemem aksjomatycznym; jednak ten system nie jest w pełni zgodny
    z systemem aksjomatycznym w logice formalnej, chociażby dlatego, że przeprowadzanie
    dowodu może ulec zmianie w trakcie samego dowodzenia). Jednak FiS nie ogranicza się
    wyłącznie do systemów aksjomatycznych. Modele mogą być funkcyjne (np. język Haskell)
    lub obiektowe (np. język Python).

    Ad. 1.2. (na ile dobrze zrozumiałem tę tezę).
    Każde tłumaczenie z jednego języka na drugi coś do tłumaczonego tekstu dodaje coś zabiera.
    Tak samo jest z każdą formalizacją teorii filozoficznych.
    Tak samo jest z każdą „informatyzacją” (tworzenie modelu cyfrowego) teorii filozoficznych.

    W trakcie tworzenie modelu cyfrowego można dostrzec w teorii filozoficznej zagadnienia,
    które wcześniej nie były łatwo zauważalne. Choć nie znaczy to, że tak się dzieje wyłącznie
    w przypadku użycia pojęć i narzędzi z IT.
    Ciekawym zagadnieniem byłoby zbadanie, jakie ukryte problemy teorii filozoficznych wydobyły pojęcia i narzędzia IT oraz dlaczego te pojęcia i narzędzia umożliwiły ich dostrzeżenie (ale to wymagałby wcześniejszego powstania wielu cyfrowych modeli).

    Ad. 1.3.
    Wydaje mi się, że dużo zależy od przyjętych kryteriów postępu. Pomińmy tę kwestię.
    Przypuszczam, że wkradło się tu pewne nieporozumienie. W FiS nie chodzi o zastąpienie
    wszelkich rozważań filozoficznych do odpowiednich algorytmów, ale
    o m.in. tworzenie cyfrowych modeli i analizę wyników pracy nad i z modelami.
    Na przykład, jeżeli uważamy, że
    obiektowy model pamięci z teorii Hume’a jest adekwatny względem tej teorii,
    a ludzka pamięć nie jest cyfrowa, to
    czy nie powinniśmy odrzucić Humeowskej koncepcji doświadczenia,
    która ufundowana jest na takim a nie innym pojęciu pamięci
    i innych filozoficznych konsekwencji, które wynikają z Humeowsko pojętego doświadczenia.

    Ad. 1.4.
    a. Oczywiście żaden model nie oddaje w pełni modelowanej rzeczywistości.
    Tylko, że to dotyczy również języka naturalnego, w którym toczą się dyskusje filozoficzne.

    b. Wiem, że w filozofii dość często dąży się do wiedzy pewnej, bo uznaje się, że wiedza
    jest albo pewna albo żadna.
    Jednak stoję na stanowisku mniej radykalnym. Nawet częściowa wiedza o pewnym przedmiocie jest jakąś wiedzą o tym przedmiocie.

    c. Przedstawiony przeze mnie na ostatniej konferencji obiektowy model
    Humeowskie pamięci należy donosić jedynie do teorii Hume’a a nie
    realnego ludzkiego umysł.

    d. Tworzenie cyfrowych modeli ludzkiego umysłu jest poznawczo wartościowe, bo
    nawet jeżeli okazałoby się, że takie modele w żaden sposób nie przystają do ludzkiego
    umysłu, to dzięki temu zdobędziemy częściową wiedzę o naturze naszego umysłu.
    Negatywna odpowiedź na zadane pytanie jest jakąś odpowiedzią, dostarcza pewnej informacji.

    C.D.N.

    • Paweł Stacewicz pisze:

      Wydaje mi się — choć tutaj musiałby wypowiedzieć się Autor — że punkt 1.3

      /Znaczenia występujące w teoriach filozoficznych są kształtowane przez procesy poza formalne (chodzi o ideę ucieleśnionego umysłu i procesy ewolucyjne,
      które kształtują wszelki kontakt organizmu ze środowiskiem)…/

      — nie oddaje trafnie intencji Autora.

      Wydaje mi się, że Autor “stawia” na możliwe do formalnego opisu modele w postaci sztucznych sieci neuronowych, które jednak z konieczności (m.in. wskutek rozproszonej i subsymbolicznej metody reprezentacji wiedzy, w tym wypadku: znaczenia pojęć) są poznawczo nieprzejrzyste.
      Modele te mogą zatem prowadzić do skutecznej realizacji działania (na podstawie pojęć posiadanych przez podmiot), ale nie wyjaśniają w sposób przejrzysty motywów/uwarunkowań/podstaw tegoż działania.
      (Innego rodzaju modele, np. regułowe czyli quasi-aksjomatyczne, takich wyjaśnień dostarczyłyby).

      • Jarosław Strzelecki pisze:

        Być może masz rację. o ile uwzględni się dalsze partie tekstu.
        Jednak w swoim pierwszym komentarzu odniosłem się wyłącznie do punktu pierwszego wersji rozszerzonej.

      • km pisze:

        Bardzo dziękuję za komentarze. W oczekiwaniu na spełnienie obietnicy („C.D.N”) odniosę się pokrótce do jednej z kwestii:
        „Oczywiście żaden model nie oddaje w pełni modelowanej rzeczywistości.
        Tylko, że to dotyczy również języka naturalnego, w którym toczą się dyskusje filozoficzne.”
        Tak – to jeden z fundamentów mojego spojrzenia na sprawę: to co SIĘ rozumie z dyskusji wykracza poza to co w znakach języka – jest uwarunkowane „aparatem” (jego „technologią”) i powinno się o tym pamiętać starając się in silico modelowac filozofię. I właśnie komentarz Dra Stacewicza (za który również niniejszym dziękuję) trafnie oddaje moje intencje/obawy.
        Gdy Carnap pisał o definicji pojęć (w „Pismach Semantycznych”) wymieniał możliwości takie jak odwołanie do ekstensji lub własności (np. kolor itd.) …. I sprawy robiły się coraz bardziej skomplikowane (aż do wątpliwości czy filozofia w ogóle powinna zajmować się znaczeniem – czy pozostać na poziomach syntaktycznym czy pragmatycznym).
        – Obawiam się, że „trafne” przedstawienie tego „co stoi” za znaczeniem („czegokolwiek”) i rozumieniem wielu pojęć (używanych nie tylko w dyskusjach filozoficznych) może być o wiele trudniejsze do jasnego przedstawienia niż Carnapowska idea definicji liczby jako „własności drugiego rzędu”. Chodzi o to, że sama struktura definiująca znaczenie „po stronie” Umysłu (oparta na fizycznych procesach – funkcjonujących zgodnie z właściwymi im koniecznościami co do których zakładamy, że dają się formalnie opisać) może być tak skomplikowana, iż poznawczo nietransparentna.
        Nie wiemy za dobrze co można „zredukować” ze znaczenia/obrazu (jaki moglibyśmy przedstawić w cyfrowym modelu) niektórych pojęć tak aby wszystko dalej „poprawnie” funkcjonowało – tak jak nie wiemy, które wirtualne elementy z (symulowanych) sztucznych sieci neuronowych grających w gry strategiczne czasu rzeczywistego moglibyśmy „usunąć” tak by nadal wygrywały z ludzkimi graczami.
        Pojęcia mogą być wzajemnie powiązane nie w Quine’owskie „łańcuchy znaczeniowe” a być zawieszone na swoistych „pajęczynach” wielowymiarowych rozgałęzień – tak, że brak trafnego odzwierciedlenia w modelu tylko niektórych elementów może zupełnie zrujnować własności całości.
        Nawet gdyby dało się wyabstrahować jakiś kontekst filozoficzny i uzyskać trafne przedstawienie ujętego w jego ramach pojedynczego pojęcia, to jego przedstawienia w modelu i tak może nie dać się „ogarnąć” ludzkim Umysłem – a z obserwacji samego modelu nie wypływało by więcej informacji niż z obserwacji „analogowego” użycia pojęcia. Nie rozpisując się tu o kwestii nie-prywatnej/użycia (Wittgenstein’owskiej strony) definicji znaczenia widzę w w/w kwestiach pewien kłopot.
        – Problem, który można by częściowo rozwiązać w scenariuszu stworzenia cyfrowego modelu Umysłu rozumującego (i rozumiejącego) w wirtualnym Świecie – korzystającego z (filozoficznych) pojęć regularnie tak jak ludzie. – Rozwinięcie idei testu Turinga mogłoby być możliwą rękojmią, że model trafnie odzwierciedla procesy rozumienia znaczeń.
        Być może wtedy uprawiać by można było filozofię „empiryczną” in silico: wprowadzając zmiany po stronie definiowania znaczenia przez użycie, lub po stronie korespondującego z nim „stanu” cyfrowego Rozumu, moglibyśmy mieć jakiś obraz tego, co jest mniej, a co bardziej właściwym (dla osiągnięcia określonych rezultatów) rozumieniem filozoficznych zagadnień. Ale nawet wtedy poznanie filozoficzne byłoby „jednością projektowaną” (zgodnie z inżynierską iteracyjną praktyką projektowania: metodą prób i błędów).
        Ja także (z mymi naturalnie redukcjonistycznymi intuicjami) cieszę się z cząstkowych sukcesów – ale w mojej “krytyce” FiS chodzi o to, że może być trudno rozpoznać jej (sukcesu) granice. A – z drugiej strony – ścisłe określenie tego czego możemy być pewni – w oparciu o te małe wiktorie – może doprowadzić do tego, że nie pozostaje nic rzeczywiście „znaczącego”.

        Pewne kwestie związane z filozofią in Silico wydają mi się idealnym punktem wyjścia dla zobrazowania tego co w rozumieniu w ogóle i znaczeniu w ogóle zdaje się być dość powszechnie pomijane – i z mojego (osobistego) punktu widzenia już ta rola (soczewki) wydaje się cenna.

        • j.s. pisze:

          Chyba wkradło się nieporozumienie.
          W FiS nie chodzi o zbudowanie modelu ludzkiego umysłu, czyli takiego,
          który by poznawał znaczenia, dla którego wymiar pragmatyczny i semantyczny byłby tak łatwo dostępny, jak teraz jest syntaktyczny.

          Gdy model cyfrowy jest skonstruowany, znaczenie “pojawia się” po stronie filozofa.

  2. Jarosław Strzelecki pisze:

    Ad. 2. (Filozofia in silico => FiS; rekonstruowane tezy są moim rozumieniem tekstu Konrada)

    Przyjęta perspektywa: Wittgenstein łączy rozumienie znaczeń z działaniami, czyli człowiek rozumie słowa, bo zastępują one ludzie działania.

    2.1. Modele cyfrowe FiS są w sposób istotny ograniczone, ponieważ nie obejmują pojęcia informacji oraz pojęć z etyki i aksjologii.

    2.2. Modele cyfrowe FiS są w sposób istotny ograniczone, ponieważ dopuszczają wiele różnych (jednako uprawnionych interpretacji),
    więc idea prawdy pojętej klasycznie jest do nich niestosowalna.

    2.3. Modele cyfrowe FiS są fałszywe, ponieważ ludzki mózg to nie hardware oraz taki model cyfrowy jest wyabstrahowany z relacji społecznych, które
    w sposób istotny konstytuują znaczenia słów.

    Ad. 2.1.
    Tak, to prawda.

    Ad.2.2.
    Tak, częściowo jest to prawdą. Takie modele mogą mieć różne interpretacje,
    ale nie jest to ich ograniczenie.
    Na przykład w Prologu można skonstruować bazę wiedzy, która jest stosowalna
    do różnych sytuacji ze świata realnego (ma różne i uprawnione interpretacje):
    relacje przestrzenne między rzeczami na biurku, relacje pokrewieństwa, relacje
    czasowe, … (np. xx(F,Y) – może oznaczać, że „Piotr kupuje dom”, „Mrówka wchodzi na drzewo”, „Bomba wodorowa wybuchła na Warszawą”, …)

    Jednak w FiS nie chodzi o redukcję filozofii do algorytmów, ale o częściową algorytmizację (ale nie tylko o algorytmizację) niektórych koncepcji filozoficznych i w dalszym etapie – przy użyciu języka naturalnego – o rozważenie udanych i nie udanych algorytmizacji.

    Ad. 2.3.
    Częściowo już w Ad.2.2. odpowiedziałem.

    Uważam, że J. Searle miał w pewnym sensie rację, gdy mówił, że kalkulator niczego nie oblicza, że to my jego działania interpretujemy matematycznie. Modele FiS nie obliczają/konstruują znaczeń, to my te znaczenia im nadajemy.
    Gdy w Prologu do bazy wiedzy wprowadzimy fakt atenczyk(sokrates) („Sokrates jest ateńczykiem), to dla interpretera nie ma znaczenia sens tego faktu, ale dla nas już tak.

    Gdy fizycy budują symulację komputerową zderzających się galaktyk, to dla samego
    komputera nie ma żadnego znaczenia, o czym jest ta symulacja. Jego hardware ma się
    nijak do „hardware’u” galaktyk. Jego realne relacje, w jakie jest uwikłany, mają się nijak do relacji galaktyk z całym wszechświatem. Tylko, że to wszystko nie ma znaczenia dla prawdziwości przeprowadzanych symulacji. To naukowcy wynikom przeprowadzanych symulacji nadają sens.

    • km pisze:

      “W trakcie tworzenie modelu cyfrowego można dostrzec w teorii filozoficznej zagadnienia,
      które wcześniej nie były łatwo zauważalne.
      (to czy model w ogóle powstanie jest tu pomijalne- przyp. km)
      Ciekawym zagadnieniem byłoby zbadanie, jakie ukryte problemy teorii filozoficznych wydobyły pojęcia i narzędzia IT oraz dlaczego te pojęcia i narzędzia umożliwiły ich dostrzeżenie”
      – i jakie (jakiego “kalibru”) zagadnienia rozstrzygnęły?
      Nie chodzi mi o krytykę prób (domniemanych) sprowadzania wszelkich rozważań filozoficznych do algorytmów ale tego jak techniki te mogą ubogacić rozumienie filozoficznych problemów (lub je rozwiązać)
      – Czy wiedza, która z nich nie wypływa nie sprowadza się do tego, że:
      “trudno” jasno ująć palące filozoficzne kwestie – a jeśli się je sformalizuje “adekwatnie” (model zafunkcjonuje jak należy) to przedstawienie przestaje być transparentny poznawczo?
      Jak bronić FIS przed tezą, że w obu wypadkach niewiele “praktycznie” z tego wynika? Problem znalezienia rozwiązania zastępuje trudność zrozumienia / weryfikacji zasadności rozwiązania- w wynik “z kalkulatora” wierzę znając zasady działania – model FIS może nic nie “wyjaśnić” (choć działać skutecznie jak AlphaGO). A jeśli nie domyślamy się nawet zasady stojącej za funkcjonowaniem jakiegoś modelu cyfrowego to jak (nawet jeśli zgodnie z indukcyjna praktyką założymy, że w kolejnych próbach działania modelu nie pojawi się “czarny łabędź”) próbować rozciągnięcia fragmentarycznego sukcesu poza granice dziedziny modelu (z jego założeniami abstrahujacymi go od reszty rzeczywistości i znaczeń jej fenomenów dla rozumującego Umysłu?)
      Umysł może dalej interpretować przedstawienia modelu po zadaniu określonych założeń- ale jak nie rozumiejąc zasadniczo tego jak model działa wyciągać z tego wnioski poza model wykraczające?
      Fizyk może oddać matematykowi teoretyczny model “do obróbki” ale jeśli nie rozumie nawet działania podstawowych relacji jak miałby wyprowadzić z rezultatów matematyka znaczące wnioski?

      • j.s. pisze:

        Uwagi jak najbardziej słuszne.
        Uważam, że żadnych apriorycznych wniosków na temat granic FiS nie da się wyprowadzi.
        Trzeba by pozwolić FiS się rozwinąć i dopiero po jej owocach ją ocenić, ale
        aktualnie jest ona w powijakach.

        FiS to niekoniecznie sama formalizacja (pisanie programów), ale również
        odczytanie teorii filozoficznej przy użyciu pojęć z IT (np. teoria monad zdaje się być osobliwym przypadkiem teorii obiektów (OOP), tak jak prosta jest osobliwym przypadkiem krzywej).

        Z mojego małego doświadczenia w tworzeniu modeli cyfrowych wynika,
        że ich tworzenie bardzo szybko i w sposób transparentny wskazuje na braki teorii filozoficznych, które my uzupełniamy na wpół świadomie,
        a które w modelu cyfrowym muszą być wyrażone expressis verbis.

        Do przykładu z fizykiem:
        – Gdy filozof jest wykształconym informatykiem, model cyfrowy jest transparentny (pomijam sieci neuronowe, bo to trochę inna kwestia),
        więc może wyprowadzać odpowiednie wnioski.
        – problem, który tu stawiasz, pojawił się u Kartezjusza: jeżeli żaden akt poznawczy (poza aktem cogito) nie jest pewny, to akty pamięciowe również nie są pewne, a zatem o żadnym rozumowaniu, którego poszczególne kroki są zapamiętywane, nie można powiedzieć, że prowadzi do wiedzy.

  3. km pisze:

    W trybie sprostowania/wyjaśnienia dodam jeszcze:
    Co do ad1. 1. Nie chciałem sprowadzać arsenału możliwości FIS do systemów aksjomatycznych – one (i inne elementy, które określam w tekście mianem “tradycyjnego sposobów definiowania pojęć”) są przeze mnie przywołane jako to, co świadomy Rozum względnie łatwo może pojąć i przedstawić. W przeciwieństwie do tej idealnej jasności część procesów rozumienia wydaje być się możliwa do modelowania tylko z pomocą technik zupełnie nietransparentnych poznawczo i dalekich od w/w “tradycji”. Przyznaję, że rozwiązań możliwych do zastosowania w FiS – w końcu w tekście proponuję SSN czy “deeplearning” właśnie w tym celu. Skupiam się jednak na niejasności czającej się w skuteczności działania tych technik, która- nawet jeśli jest niewielkim problemem dla Informatyka – stanowi (chyba) kłopot dla Filozofa.
    W tych informatycznych rozwiazaniach abstrakcje tworzą Się na innym (nie Rozumu programisty) poziomie. (Zresztą tak jak wg. A. R. Damasio emocjonalne znaczenia niektórych pojęć tworzą się na poza-świafomym/ nietransparentnym dla rozumu poziomie. )
    Co do ad 2.2 Także byłbym daleki od twierdzenia, że mózg to nie hardware- wg mnie jest on swoistym sprzętem, o określonej genezie, w którym funkcjonują specyficzne systemy, realizując przetwarzanie informacji na określone sposoby.
    Dlatego (co do ad 1.2): Języków może być wiele jak i modeli, ale rozumienie określonych pojęć realizujące się w w/w mózgowych systemach (reprezentacje pojęć w strukturach neuronalnych) jest chyba dość ściśle określone własnościami mózgu niebędącego ani “pustą tablicą” ani sprzętem zdolnym do realizacji dowolnych obliczeń (co staram się uzasadnić w tekście). Dlatego tłumaczenie z języka na język może zachować (rozumiane) znaczenie (funkcjonalna reprezentacja neuronalna może zostać taka sama) i można także pomyśleć różne formalizacje nie zmieniające rozumienia przez Umysł danego pojęcia (relacje pomiędzy pojęciami mogą zostać równoważne). W rzeczywistych procesach rozumienia znaczeń chyba mniej zależy od arbitralnego wyboru niż w abstrakcyjnych konstrukcjach.

  4. Paweł Stacewicz pisze:

    Właśnie przeczytałem powyższą dyskusję – za którą jako redaktor bloga serdecznie DZIĘKUJĘ.

    Nie jestem pewien, czy posunę ją do przodu, ale przyszły mi do głowy następujące kwestie:

    I.
    Z dyskusji zdaje się wynikać, że „filozofię in silico” można rozumieć na co najmniej dwa sposoby (do pierwszego skłania się chyba bardziej j.s., do drugiego – km):
    1) ma ona służyć do „komputerowej” analizy koncepcji z zakresu historii filozofii, np. koncepcji Hume’a czy Kartezjusza, np. w celu ujawnienia ich ukrytych założeń czy pewnych (logicznych) niedoskonałości,
    2) ma ona służyć do zasadniczo nowego, informatycznego, ujęcia tradycyjnych kwestii filozoficznych, jak np. problem znaczenia czy relacji umysłu do świata; wg. km-a wyrazem owego nowego podejścia byłoby np. użycie modeli opartych na SSN.

    Mam wrażenie, ale może jest to tylko wrażenie, że różnica zdań między dwoma głównymi dyskutantami była spowodowana owym odmiennym podejściem do celów FiS: 1) vs 2).

    Z mojego punktu widzenia obydwa podejścia można by połączyć w taki sposób, że: informatyczne analizy koncepcji historycznych mogłyby prowadzić do sformułowania koncepcji istotnie nowych (np. poprzez zdecydowane odrzucenie pewnych sprzecznych założeń czy ich modyfikację).

    II.
    Bardzo ciekawi mnie stosunek FiS do promowanej w tym blogu idei światopoglądu informatycznego (ŚPIN).
    Wydaje mi się, że w wersji najszerszej (do której skłania się km), polegającej na próbach zrozumienia wielkich problemów filozoficznych za pomocą różnego rodzaju pojęć i modeli informatycznych (wykraczających zresztą poza obliczenia cyfrowe/turingowskie), byłaby FiS swoistą kulminacją ŚPIN, czymś do czego ŚPIN dąży (tj. filozofią informatyczną).
    W wersji węższej (do której skłania się j.s) byłaby FiS pewną drogą do filozofii informatycznej.

    III.
    Ostatnia kwestia dotyczy zasadności stosowania modeli opartych na SSN w filozofii umysłu czy próbach zrozumienia umysłu/mózgu.
    W dyskusji zgodzono się, że modele takie nie są transparentne poznawczo. Pozwalają coś sztucznie zrealizować (np. zdolność percepcji), ale nie dostarczają niezbędnych wyjaśnień (np. dlaczego podjęto taką a taką decyzję w realnym działaniu).
    Mam tu dwie wątpliwości: po pierwsze, jakiś rodzaj wyjaśnienia uzyskujemy (tkwi on np. we właściwościach algorytmu uczenia się, który stosujemy w przypadku takiej a takiej sieci; np. jeśli dana sieć sprawdza się dobrze w percepcji, to możemy wysunąć roboczą hipotezę, że w umyśle/mózgu działa podobny algorytm uczenia się jak w SSN); po drugie, znając algorytm uczenia się, możemy próbować zrekonstruować przejrzyste znaczeniowo, symboliczne reguły, które wyjaśniają działanie sieci (słyszałem, że takie narzędzia już się tworzy).

    Poza tym wydaje się, że czynienie SSN modelami wyjaśniającymi musi odbywać się w interakcji (sprzężeniu zwrotnym) informatyki z neuronaukami. Ewentualne wyjaśnienia generowane przez sieć (i sposób ich generowania) powinniśmy konfrontować z naszą tymczasową wiedzą o tym, jak neurobiologowie wyjaśniają zachowania.
    Sprzężenie obydwu dyscyplin powinno prowadzić do coraz lepszych zrozumień.
    Jestem tu optymistą.

Skomentuj j.s. Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *