Nieobliczalność i złożoność

Idąc na fali wykładu o problemach nieobliczalnych (który już się odbył; zob. poprzedni wpis), chciałbym podzielić się z Państwem kilkoma jeszcze spostrzeżeniami odnośnie związku między złożonością, nieobliczalnością i nieprzewidywalnością.
Podzielić się m.in. po to, by wybrzmiała wyraźniej konkluzja wykładu.

1) Otóż, po pierwsze, złożoność w sensie najbardziej dosłownym dotyczy struktury algorytmów. Patrząc na złożoność z perspektywy tegoż sensu, musimy uświadomić sobie, że współczesne programy komputerowe (czyli implementacje algorytmów) mają niezwykle skomplikowany kod, który służy nie rozwiązywaniu jakiegoś pojedynczego problemu (np. sortowania), lecz gigantycznej liczby splątanych ze sobą problemów, które składają się na realizowane przez program zadanie (np. obsługa terminali lotniskowych). Programy takie tworzą nadto całe zespoły programistów (niekoniecznie zorientowanych w tym, co robi kolega i niekoniecznie „ogarniających” całość algorytmu). Dochodzą do tego nieustanne poprawki kodu, czynione często ad hoc, w odpowiedzi na jakieś wychwytywane wyrywkowo błędy. A co powiedzieć o takiej jeszcze sytuacji, kiedy niektóre fragmenty programów lub nawet całe programy powstają po części losowo, np. w drodze symulowanej ewolucji (zahaczyliśmy o to na wykładzie)…?
To wszystko powoduje, że złożoność strukturalna algorytmów przekłada się gładko na nieprzewidywalność programów/komputerów, czyli na ich nieobliczalność (w pewnym sensie). Mówiąc prosto: większość programów jest tak skomplikowana, że mimo ich wielokrotnego testowania, poprawiania itd., trudno przewidzieć, co we wszystkich możliwych sytuacjach dany program „zrobi”.

2) Po drugie jednak, w znaczeniu mniej dosłownym – przyjętym za to wśród informatyków i omawianym na wykładzie – złożonością nazywa się pewną własność algorytmów, która dotyczy ich działania (a nie struktury). Właściwie są to różne własności. Mamy tu przede wszystkim złożoność czasową, czyli miarę zależności między czasem realizacji a rozmiarem danych. Informuje ona, jak szybko rośnie czas wykonywania algorytmu, gdy wzrasta rozmiar danych (np. w tempie logarytmicznym, czyli bardzo wolno, lub w tempie wykładniczym, czyli bardzo szybko). Mamy też złożoność pamięciową, która mówi o tym, jak rośnie zużycie pamięci maszyny, gdy rośnie rozmiar danych.
Owo „działaniowe” rozumienie złożoności może być mylące (zwłaszcza w języku polskim), bo przecież nie idzie w nim o złożoność samego algorytmu (ten może być bardzo prosty), ani o zawiły opis rozwiązywanego problemu (ten znowu może być bardzo prosto wyrażony), idzie w nim o trudność, czyli komplikację, w rozwiązywaniu problemu dla dużych danych. Komplikacja ta odnosi wprost do nieobliczalności w sensie informatycznym – wszak problemy trudne lub algorytmicznie nierozwiązywalne zwie się właśnie nieobliczalnymi (praktycznie lub bezwzględnie).
A w jaki sposób owa druga, „działaniowa złożoność”, wpływa na hipotetyczną nieprzewidywalność komputerów (czyli nieobliczalność w nieco innym sensie niż wyżej)?
Tu powtórzę konkluzję z wykładu: wpływa tak, że chcąc ominąć problem nadmiernej złożoności czasowej lub pamięciowej danego algorytmu, trzeba stosować pewne „niedokładne” heurystyki (to znaczy: zastąpić nieefektywny algorytm dokładny efektywnym algorytmem aproksymacyjnym); heurystyki zaś zależą niekiedy od wyborów losowych; to zaś pociąga za sobą mniejszą lub większą nieprzewidywalność wykonującego algorytm komputera.

Tyle tytułem dopowiedzenia do wykładu.
Jeśli sam wykład lub powyższe uwagi, zainspirowały kogoś do jakichś przemyśleń, gorąco zapraszam do dyskusji w blogu (proszę śmiało komentować).

A wszystkim cierpliwym uczestnikom wczorajszych zajęć serdecznie dziękuję.

Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Filozofia informatyki, Światopogląd informatyczny. Dodaj zakładkę do bezpośredniego odnośnika.

Komentarze do Nieobliczalność i złożoność

  1. km pisze:

    Gdybyśmy mieli taki to materiał którego właściwości bylibyśmy pewni i stworzyli zeń mechanizmy o niezawodnym działaniu…
    W zasadzie nie miałem pytań co do tego co przedstawiono w tekstach „Niebliczalni i nieobliczalne” i „nieobliczalność i złożoność” poza jednym- na ile sensowne są rozważania ocierające się o kwestie obliczalności ludzkiego umysłu czynione przy założeniu abstrakcji od własności fizycznej struktury mózgu i jej złożoności. W związku z tym, że w tekście sformułowanie precyzujące tor rozważań, że „złożonością nazywa się pewną własność algorytmów która dotyczy ich działania (a nie struktury)”-wyjaśniam, że mi chodzi o strukturę fizyczną wykonującą obliczenia.
    Czy abstrakcja od (fizycznych) struktur nie wyprowadza całego myślowego modelu poza naszą rzeczywistość? Czy jakakolwiek „złożony byt” w naszej rzeczywistości spełnia wymagania niezależności od własności rzeczywistości/ struktury/ bytów z których się składa, na przejawach istnienia których swe funkcjonowanie opiera? Pamiętać należy, że i cały ów model niosą struktury zależne od w/w własności.

    A najlepsza dostępna wiedza (przyjmując, że miarą jakości jest miara trafności predykcji teorii) o rzeczywistości przedstawia nam obraz rzeczywistości, w której nawet dwie struktury opierające swe przejawianie się na „takich samych” cząstkach elementarnych umocowanych w „takich samych” konfiguracjach (wzajemnym oddziaływaniu), nie mogą dla siebie nawzajem stanowić niezawodnego modelu przyszłego stanu. I tu jakakolwiek przewidywalność i obliczalność może być podważona. Nie chodzi mi tu jednak o spory o prawdopodobieństwo trafności obliczeń – „cud nauki”, rozwój poznania świadczy o tym, że „zasadnicza” trafność jest w „pewnych aspektach” spraw co najmniej „wystarczająca”… Chodzi raczej o to, że pomija się tu bardzo ważny aspekt w kontekście równoważności obliczalności i przewidywalności.
    „Można zauważyć”, że regularność w przejawianiu się materii umożliwia funkcjonowanie złożonych struktur w rzeczywistości- jednocześnie „wyraźnie widać”, że chaotyczność manifestująca się jako druga strona rzeczywistości nie pozwala niezawodnie przewidywać/ obliczać tego jaki będzie wynik (czymkolwiek miałby on być) funkcjonowania struktur w rzeczywistości.
    Nawet w praktycznym ujęciu „inżynierii filozoficznej” najciekawsze mogą być właśnie kwestie tego jak (czy) w układzie tak skomplikowanym, o tak dużej liczbie stopni swobody jak ludzki mózg działają mechanizmy „korekcji błędów”. I jak rozumieć zaistnienie „błędu”. Co dzieje się w wypadku konfliktu kognitywnego przewodu intelektualnego z cerebralnym przetwarzaniem, przejawami funkcjonowania systemów pierwotnych mechanizmów homeostatycznych takich jak instynkty? Wielopłaszczyznowość i wielowątkowość przetwarzania informacji w ramach fizycznych struktur mózgu stawia w zupełnie innym świetle kwestie „obliczalności”- nawet jeśli każde z oddziaływań elementów z osobna można (sprowadzając co algorytmów) z jakimś prawdopodobieństwem przewidzieć/ obliczyć.

    Pozostaje także sprawa tego jak to się dzieje, że mamy jednak odczucie koherencji i rozumienia własnego stanowiska/ decyzji (przynajmniej czasami). Nauka mówi nam już „co nieco” o tych interakcjach i te przedstawienia mogłyby nam rozświetlić już trochę kwestie „świadomości i rozumu” ludzkiego lepiej niż model który abstrahuje od tych czynników. Założenia abstrakcji od ściśle fizycznych właściwości struktur uniemożliwia „dogłębne” rozważanie tych aspektów. W wypadku braku programisty (z jakim mamy do czynienia w wypadku umysłu) tym dobitniej widać, że linijki programu tego najbardziej interesującego komputera piszą manifestujące się własności rzeczywistości i bytów w niej się przejawiających a nie abstrakcyjne ich idealizacje i przybliżenia.

    Ciekawe jest także i to jak na funkcjonowanie takich bytów jak komputer czy ludzki mózg wpływają czynniki nie tylko odwołujące się do skłonności ku chaotycznym wybrykom cegiełek, z których same te byty są złożone, ale tego jaki wpływ na nie mogą mieć czynniki, które traktujemy jako odrębne. Jak bardzo „obliczalny” był wynik np. renderingu grafiki gdy jakiś zewnętrzny wpływ, choćby wysokoenergetyczna cząstka sprawił to, że jeden z miliardów procesów składających się na obliczenia nie dał rezultatu takiego jaki powinien z 99.99% prawdopodobieństwem. (Czy komputerem był zamknięty w obudowie układ który rozpoczął obliczenia, czy on i odległa o milion lat świetlnych gwiazd która wyemitowała w wybuchu supernowej fatalną cząstkę, odmieniając milion lat potem kolor jednego z pikseli naszego obrazu.)
    Ludzki mózg także jest podatny na zewnętrzne wpływy niezależnych czynników, które mogą mieć wpływ na treść świadomości a co za tym idzie świadome decyzje mimo przeświadczenia posługiwania się w rozumowaniu normalnymi dla siebie przekonaniami/ dyspozycjami/ algorytmami. (ekstremalnym przykładem jest to, że pijany człowiek może mieć problemy z podaniem wyniku najprostszych arytmetycznych operacji).

    Jeśli zaś chaotyczność, a co za tym idzie zawodność obliczeń, zdaje się być wpisana w strukturę rzeczywistości to czy możemy w ogóle mówimy o zawodności w modelowaniu obliczeniami rzeczywistości?
    Czy jeśli na najbardziej podstawowym poziomie złożoności struktur (jaki jest nam dostępny- zgłębianym w dziedzinie mechaniki kwantowej) to samo może przysługiwać i nie przysługiwać temu samemu w tym samym czasie, w ten sam sposób i pod tym samym względzie (i chodzi tu o coś tak istotnego jak istnienie) możemy mówić o poprawnych wynikach algorytmów rozpisanych w języku matematyki i logiki? Czy logika i arytmetyka nie są jedynie przybliżeniami, które ostatecznie spisywane będą zawsze zgłoskami, które u swego sedna nie trzymają się wyroków naszych logicznych teorii? A najważniejsze czy w rozważaniach o przewidywalności/ obliczalności/ zdeterminowaniu ludzkiego umysłu (w szczególności) kwestie fizycznych właściwości struktur nie są zasadnicze (kwestie komplikacji informatycznych struktur jakie miałyby modelować funkcjonowanie umysłu zdają się być wobec nich wtórne) .

  2. Paweł Stacewicz pisze:

    Dziękuję za cenny komentarz, który w sumie wart jest głębszego namysłu i głębszej dyskusji niż poniższa odpowiedź.

    A odpowiem krótko tak.

    Problem który nurtuje p. km, nurtuje również i mnie. Otóż każdy algorytm, jako schemat opisujący pewną procedurę przetwarzania informacji, potrzebuje do swojej realizacji (w tym komputerowej) fizycznego nośnika tejże informacji. W związku z tym pojawia się pytanie, czy własności tego nośnika nie determinują w jakiś sposób procesu wykonywania (abstrakcyjnego) algorytmu, a ponadto, czy własności tegoż nośnika nie wyznaczają pewnych granic wszelkim algorytmom wykonywanym z jego wykorzystaniem. Na przykład: czy nośnik krzemowy zapewnia większą czy mniejszą obliczeniową moc niż nośnik białkowy? Z pytaniem o sam nośnik sprzężone jest równie (a może bardziej) doniosłe pytanie o fizyczną naturę procesów (a nie samego ich tworzywa) zapewniających przetwarzanie informacji. W szczególności: czy są one skwantowane (jak w maszynach cyfrowych), czy ciągłe (którą to ciągłość wielu przypisuje procesom nerwowym)?

    Km idzie ze swoimi wątpliwościami jeszcze dalej. Czy nie jest tak, że świat fizyczny (a więc wszelkie nośniki informacji i wszelkie procesy odpowiedzialne za jej obróbkę) przenika niepewność, niezdeterminowanie, zawodność…?
    Jeśli by tak było, to w sposób w miarę oczywisty właściwości świata fizycznego przekładałyby się na nieprzewidywalność/nieobliczalność komputerów wykonujących jakiekolwiek algorytmy (choć tu musi dziwić fakt, że istnieje mnóstwo algorytmów niezawodnych i jeszcze więcej ich perfekcyjnych realizacji). Mielibyśmy zatem kolejne, według km najważniejsze, źródło nieobliczalności komputerów…

    Zaysowane wyżej pytania są oczywiście ważne – choć, przyznam szczerze, są one trudno-rozstrzygalne (nawet wobec aktualnej dominacji w fizyce wyjaśnień kwantowych, opartych na teorii chaosu itp).

    Między innymi wobec ich trudnej rozstrzygalności bardzo sensowne i ważne wydaje mi się rozważanie samej STRUKTURY algorytmów i samego SPOSOBU przetwarzania danych. Okazuje się bowiem, że nawet przyjmując podejście abstrakcyjne, to znaczy abstrahując od właściwości fizycznych nośników informacji, dochodzimy do prawdy o istnieniu problemów nieobliczalnych (bezwzględnie lub praktycznie). Problemów, których istnienie, połączone z chęcią pokonania bariery nieobliczalności, pociąga za sobą fakt nieprzewidywalności komputerowych procedur.
    Czy zagadnienie to jest jałowe i wtórne wobec problemu „materii świata”? Wydaje mi się, że NIE — że są to kwestie równoległe lub komplementarne. Materia nie istnieje bowiem bez formy, a forma przejawia się na różnych poziomach rzeczywistości :).

  3. Radek pisze:

    Pan/i km faktycznie porusza wiele rozmaitych kwestii, jednakże ich wspólnym mianownikiem jest – jak rozumiem – sugestia istnienia silnego związku między, ogólnie rzecz ujmując, fizycznym nośnikiem a cechami, w które jest wyposażony. Takie postawienie sprawy mam za ważne i prowokujące do refleksji. W zw. z tym poniżej zamieszczam garść własnych uwag nad wybranymi cytatami z postu p. km.

    CYTAT:
    „na ile sensowne są rozważania ocierające się o kwestie obliczalności ludzkiego umysłu
    czynione przy założeniu abstrakcji od własności fizycznej struktury mózgu i jej złożoności.”

    Funkcjonalizm obliczeniowy, bo o tym stanowisku zapewne jest powyżej mowa, to koncepcja niezwykle płodna poznawczo, owocująca rozlicznymi teoriami i konceptami,
    autorami których są specjaliści tej klasy co Hilary Putnam, Jerry Fodor lub Dan Dennett. W czasach kiedy był formułowany (lata 60′ ubiegłego wieku) istniały zapewne dobre przesłanki, by mniemać, że jest on stanowiskiem słusznym i może doprowadzić do realizacji celów stawianych przez ojców założycieli GOFAI – stworzenia sztucznego umysłu wyposarzonego w charakterystykę umysłu ludzkiego. Jednym z głównych konceptów w ramach funkcjonalizmu obliczeniowego jest idea tzw. wielorakiej realizowalności mówiąca, iż ten sam stan mentalny może być realizowany przez różne układy fizyczne o ile tylko cechują się izomorfią struktur przetwarzania informacji. (W istocie zakładał to już w 1950 roku Alan Turing, zaś w Polsce niewiele później – i niezwykle ciekawie – analizował owo założenie Stanisław Lem w swoich „Dialogach” opublikowanych w r. 1957).
    Naturalnie nie znaczy to, że funkcjonalizm i wieloraka realizowalność są
    nieproblematyczne. Wprost przeciwnie, lista zastrzeżeń wobec funkcjonalizmu
    obliczeniowego jest całkiem długa. Wśród nich znajduje się również i to zakładające
    kluczową rolę fizykalnych cech układu komputującego zarówno dla przebiegu, jak i efektu procesu komputacji – a przecież od fizykalnych cech układu funkcjonalizm właśnie programowo abstrahuje. Ustalenia współczesnej neurobiologii zdają się coraz bardziej potwierdzać, że dokonane przez funkcjonalizm rozpoznanie wzajemnych relacji między fizycznym środowiskiem obliczeń a ich ostatecznym efektem jest w istocie błędne. Otóż podstawą idei wielorakiej realizowalności jest założenie niezmienniczości organizacyjnej głoszące, że tym, co najważniejsze w układzie przetwarzającym informacje jest struktura logiczna łącząca jego podzespoły realizujące poszczególne funkcje, nie zaś ich cechy fizykochemiczne.
    Kłopot w tym, że owo założenie, przy bliższym przyjrzeniu, okazuje się być niezwykle
    problematyczne. Komórki żywego mózgu zbudowane są z białek, te zaś składają się w
    ponad 50% z węgla, który ma inne cechy fizykochemiczne, niż krzem będący podstawą obecnych technologii cyfowego przetwarzania informacji (np. korzystając z krzemu nie da się stworzyć funkcjonalnych substytutów neuronów, gdyż nie można w przy jego użyciu odtworzyć ani kanałów jonowych, ani struktur wychwytujących neuroprzekaźniki, które są fundamentem komunikacji synaptycznej). Dlatego też w świetle obecnego stanu wiedzy neurobiologicznej obstawanie przy klasycznej wielorakiej realizowalności (tzn. możliwości ODTWARZANIA ludzkich stanów mentalnych w nieorganicznym środowisku obliczeniowym) wydaje się być nieuprawomocnione. Nie oznacza to bynajmniej, że W OGÓLE nie jest możliwe wytworzenie stanów mentalnych w nieorganicznym środowisku obliczeniowym. Ta kwestia pozostaje otwarta, niemniej jedno jest jasne – nawet jeżeli jest to możliwe, to stworzony system mentalny nie będzie ludzki.

    CYTAT:
    „Czy abstrakcja od (fizycznych) struktur nie wyprowadza całego myślowego modelu poza naszą rzeczywistość?”

    Przyznam, iż nie jest dla mnie jasne w jakim sensie abstrahowanie od cech fizycznych miałoby „wyprowadzać poza rzeczywistość”. Jednym z podstawowych narzędzi nauki jest abstrakcja, zaś jej przydatność dla uchwytywania ogólnych cech badanego obszaru rzeczywistości jest bezdyskusyjna. W istocie stanowi ona fundament procedur idealizacyjnych, bez których nie byłoby współczesnego przyrodoznawstwa. „Obieramy” rzeczywistość z „mięsa” zmysłowych szczegółów celem wypreparowania
    „szkieletu” porządku ukrytego pod nim, tworzymy uproszczony model badanego
    fragmentu świata, testujemy go, po czym przystępujemy do jego ponownego
    uszczegóławiania. Jest to standard w nowożytnym przyrodoznawstwie. Domniemuję
    jednak, że pierwsze pytanie jest de facto rodzajem figury retorycznej sugerującej konieczność głębszego namysłu nad GRANICAMI stosowania procedur idealizacyjnych w nauce. Prawdę powiedziawszy zastanawiam się, czy granice takie da się w ogóle wyznaczyć (czasami można brać w nawias nawet tak fundamentalną własność badanych obiektów, jak samo ich istnienie – dzieje się tak w tzw. logikach wolnych, gdzie uchyla się pozornie oczywiste założenie niepustości dziedziny rozważanych obiektów).

    CYTAT:
    „Czy jakakolwiek „złożony byt” w naszej rzeczywistości spełnia wymagania niezależności od własności rzeczywistości/ struktury/ bytów z których się składa, na przejawach istnienia których swe funkcjonowanie opiera?”

    Bez wątpienia jest to pytanie trafne i na miejscu. Jest to również pytanie „dużego kalibru” poznawczego. Co nie znaczy, że nie da się na nie jednoznacznie odpowiedzieć.
    Sądzę też, że odpowiedź na nie jest twierdząca. Tak, istnieje cała klasa obiektów („złożonych bytów”), które są DO PEWNEGO STOPNIA niezależne od swoich
    składowych. Myślę tu o tzw. zjawiskach emergentnych, które powstają w układach
    złożonych i mają to do siebie, że nie dają się zredukować do elementów składowych
    danego układu (np. żywy, myślący mózg jest czymś więcej, niż plątaniną neuronów, które się nań składają, z kolei każdy z neuronów jest czymś więcej niż tylko zestawem
    białkowych cegiełek, z których jest zbudowany itd…). W istocie emergencja, czyli wyłanianie się nieprzewidywalnej i nieredukowalnej nowości w układach złożonych, jest zjawiskiem powszechnym – zarówno w świecie ożywionym jak i nieożywionym. Z pewnością też zjawiska emergentne są niezależne od elementów tworzących układ tylko do pewnego stopnia (np. są od nich zależne ontycznie – nie wystąpiłyby, gdyby uprzednio nie zaistniały elementy składowe układu). Niemniej jednak na pytanie postawione tak, jak w cytowanym fragmencie wypowiedzi pana/i km, należy, w mojej ocenie, udzielić odpowiedzi pozytywnej.

    CYTAT:
    „W wypadku braku programisty (z jakim mamy do czynienia w wypadku umysłu) tym dobitniej widać, że linijki programu tego najbardziej interesującego komputera piszą manifestujące się własności rzeczywistości i bytów w niej się przejawiających a nie abstrakcyjne ich idealizacje i przybliżenia.”

    To ciekawe i trafne spostrzeżenie, które jednak chciałbym uzupełnić kilkoma uwagami. Zadajmy mianowicie pytanie, co/kto DOKŁADNIE, pod nieobecność owego „programisty”, pisze linijki oprogramowania ludzkiego komputera mózgowego? Odpowiedź, iż są to „manifestujące się własności rzeczywistości i bytów w niej się przejawiających” mam za zbyt ogólnikową – i przez to niewystarczającą (co nie znaczy bynajmniej – fałszywą). Otóż twórcą zarówno naszego mózgu, jak i (co najmniej niektórych) cech mentalnych przezeń przejawianych jest proces darwinowskiej ewolucji w drodze doboru naturalnego. Ewolucyjna proweniencja ludzkich zdolności kognitywnych nie budzi już dziś żadnych wątpliwości (chyba że wśród ortodoksyjnych przedstawicieli humanistyki, zwolenników radykalnego determinizmu kulturowego). W zw. z tym „autorstwo” ludzkiego umysłu w całym jego bogactwie należy przypisać nie tyle niejasnym „własnościom rzeczywistości i bytów”, ile raczej konkretnym procesom ewolucyjnym zachodzącym w świecie ożywionym i zidentyfikowanym i badanym przez biologów. Idzie mi tu mianowicie o to, że nasze wyposażenie kognitywne mam raczej za owoc działania procesów rozgrywających się w stosunkowo wysokiej skali – co najmniej dwa poziomy powyżej poziomu fundamentalnego – atomowego (powyżej jest poziom chemiczny, a jeszcze wyżej – właśnie biologiczny). W wypowiedzi p. km zauważam natomiast (być może błędnie) tendencję przeciwną: do podkreślania fundamentalnego znaczenia/wpływu poziomu (sub)atomowego dla funkcjonowania struktur wyższego rzędu. O ile bowiem sam fakt istnienia owego znaczenia/wpływu mam za bezsporny, to jednakże jego fundamentalność wydaje mi się zbyt mocno podkreślana. To prowadzi mnie do ostatniego cytatu i komentarza:

    CYTAT:
    „Czy jeśli na najbardziej podstawowym poziomie złożoności struktur (jaki jest nam dostępny- zgłębianym w dziedzinie mechaniki kwantowej) to samo może przysługiwać i nie przysługiwać temu samemu w tym samym czasie, w ten sam sposób i pod tym samym względzie (i chodzi tu o coś tak istotnego jak istnienie) możemy mówić o poprawnych wynikach algorytmów rozpisanych w języku matematyki i logiki?”

    W powyższym cytacie również dostrzegam wspomnianą tendencję do podkreślania znaczenia zjawisk zachodzących w mikroskali dla zjawisk zachodzących w makroskali. Otóż wydaje mi się, że ów związek, aczkolwiek istniejący, nie jest jednak tak ważny, jak się wynikałoby to z rozważań p. km. Dla mnie raczej fascynujący jest fakt, że POMIMO ciągłego zachodzenia zjawisk kwantowych w nas i wszędzie wokół nas potrafimy (my, i cały świat ożywiony) przeprowadzać spójne procesy kognitywne: poprawnie rozpoznawać kształty, twarze, orientować się w miejscach, które znamy, pamiętać przeszłe zdarzenia, każdego dnia budzimy się z poczuciem własnej tożsamości itp. Podobnież wszelkie urządzenia obliczające generują te same wyniki dla tych samych danych wejściowych co pozwala nam przewidywać ich zachowania i powierzać częstokroć ważne zadania wymagające dużej mocy obliczeniowej. Okazuje się więc, że znane nam układy przetwarzające informacje są w znacznym stopniu NIEZALEŻNE od zjawisk poziomu kwantowego (i w ogóle charakteryzują się dużą zdolnością do korekcji błędów tudzież operowania na niepełnych danych, co stanowi przecież duży problem dla układów sztucznych). Naturalnie powyższe uwagi nie odnoszą się do komputerów kwantowych, które dla stabilności działania musiałby radzić sobie ze zjawiskiem dekoherencji kwantowej, co stanowi jak na razie wielkie wyzwanie dla badaczy. Natomiast w komputacyjnej makroskali, w jakiej póki co operujemy, zjawiska kwantowe są, jak sądzę, pomijalne jako nie mające istotnego wpływu zarówno na przebieg, jak i na wyniki obliczeń (zarówno w przypadku układów biologicznych, jak i sztucznych).

  4. km pisze:

    1. Nie uważam, że przedstawienie kwestii obliczalności i nieprzewidywalności tak jak zostały przedstawione (w „Nieobliczalność i złożoność” i „Nieobliczalni nieobliczalne”) były jałowe.
    Może gdybym przypomniał elementy moich komentarzy do tekstów o monadologii Leibniza i do dyskusji o możliwości porównania umysłu do maszyny Turinga jaśniejsze by się stało, iż oprócz tego, że chciałem zwrócić uwagę na aspekty pominięte w tekstach „Nieobliczalność i złożoność” i „nieobliczalni nieobliczalne” i to jakie ograniczenia może to nakładać na wnioski z tych rozważań, chciałem również by rozważone zostały kwestie tego jakie ograniczenia na wpływ pominiętych aspektów (w szczególności ostatnio modnej 'kwantowej nieokreśloności’) nakłada obserwowana regularność i przewidywalność/ obliczalność w przejawianiu się złożonych struktur. Chodziło mi o to, że można (znajdując właściwe proporcje) określić to jaki wpływ mają na interesujące kwestie umysłu ludzkiego (jego obliczalności/ przewidywalności) mają pominięte aspekty, jakiej „jakości” i wagi są to problemy. Pozwoliło by to, w mym mniemaniu, sprawić, że czytelnik/ słuchacz mógłby bardziej wziąć do siebie przedstawione rozważania- zrozumieć, że to dotyczy także jego a nie jest tylko tematem akademickich rozważań o laboratoryjnych bytach.
    Nawet jeśli uczciwy naukowiec nie przyrzecze 100% pewności wyniku doświadczenia i nawet jeśli w skalach zupełnie „nie-kwantowych” chaotyczność i złożoność otaczających nas uwarunkowań sprawia, że 100% pewność mogą mieć jedynie „uargumentowane retrogenezy”, to mimo wszystko nie wyrzucę swojego kalkulatora jako bezużytecznego urządzenia.
    W każdym momencie możemy natrafić na wyraz chaosu a „ostateczna granica obliczalności” w każdym momencie i wszędzie może dać swój wyraz niwecząc wszelką pewność. Ale jednocześnie możliwe jest tworzenia trafnych konstruktów umysłowego poznania (modeli rzeczywistości trafnie ja opisujących) na tej samej zasadzie jak możliwe jest to, że w tej skażonej potencją nieobliczalności rzeczywistości trwają jednak struktury, w których funkcjonowaniu przejawia się taka regularność, że mogą podtrzymywać w funkcjonowaniu coś tak złożonego jak ludzki umysł.
    Pisałem we wcześniejszych komentarzach, że fakt obserwowania prawidłowości w przejawianiu się struktur fizycznych na poziomie systemów neuronalnych, z którymi co najmniej skorelowana jest regularnie umysłowa aktywność, stawia ograniczenia na postulaty metafizycznej wolności świadomości. To w mym mniemaniu utrudnia spójne pożenienie monadologi Leibniza z wynikami współczesnej nauki. Niweczy to także próby zachowania wiary w niepodległość umysłu od materii i moc poza-fizyczną własnego JA przy jednoczesnym twierdzeniu, że nie tylko nie wierzy się w paranormalne zjawiska ale nawet pozostaje się na bieżąco z najnowszymi wynikami fizyki (mechaniki kwantowej).
    Rozważania o granicach obliczalności i złożoności zdobywających „kolejne sprawności” komputerów jak najbardziej może być wartościowe.
    Z tym, że staje się to szczególnie ciekawe gdy rozpatrzy się to jak działają elementy mózgu ludzkiego- jak można ich funkcjonowanie interpretować jako przetwarzanie informacji, jakie są cechy charakterystyczne wynikające ze swoistej konstrukcji systemów neuronalnych, jak trafnie można symulować funkcjonowanie ich elementów składowych. Czy to co pozostaje poza naszymi technicznymi możliwościami w „symulowaniu świadomości/ umysłu” za pomocą komputerów jest wynikiem złożoności oraz kwestii konieczności odzwierciedlenia wpływu funkcjonalnego mechanizmów regulujących ku homeostazie, „programów”/ dyspozycji ku przetrwaniu oraz „kanałów przetwarzania informacji o otoczeniu” (cielesności zmysłowości- a zatem tego jak bardzo umysł stanowi funkcjonalną całość z resztą ustroju ciała ludzkiego)? Jeśli tak, jeśli to tylko (aż) kwestia złożoności- ale rozpatrywanie poszczególnych elementów jest możliwe w analogii do szeroko rozumianych komputerów- to wszystkie aspekty przedstawione w „Nieobliczalność i złożoność” i „Nieobliczalni nieobliczalne” zdają się w sposób bardziej uprawniony rozszerzać domenę swego obowiązywania na to co w sposób naturalny może najbardziej interesować przeciętnego człowieka (np. piszącego te słowa).

    2.Kwestie reguł rządzących systemami formalnymi zgodnymi z naszą intuicją poruszyłem by sygnalizować to, że sprzeczność „kwantowej” logiki z ludzkimi możliwościami pojmowania sama w sobie także daje wskazówkę co do tego jak działają tryby przetwarzania myślowego. Pisałem o mechanizmach „korekcji błędu” lecz nie zaprojektowanych, ale stanowiących konieczną funkcję złożoności układu przetwarzającego informacje (w wypadku mózgu ludzkiego, a nie jak napisał słusznie p. Radek- komputera kwantowego).

    3. Nie uważam także, że tworzenie modeli idealizujących rzeczywistość nie jest normalnym elementem poznania naukowego. W końcu każde przedstawienie rzeczywistości można traktować jako jej model wyidealizowany/ uproszczony z racji różnicy skali między tym co chcemy przedstawić a tym z czego ów model „konstruujemy”. To, że pomimo porzucenia wiary w możliwość bezpośredniego wglądu w istotę nauka jest zdolna do trafnego opisu świata samo w sobie wiele mówi o tym jaka jest ta rzeczywistość. Idealizacje i modele są z pewnym marginesem- zależnym od szczegółowości opisu- „poprawne” a to nakłada ograniczenia na dowolność „sprawczą” tego co zostało w modelu pominięte.
    Modele nauki, a nawet inżynierii, nie powinny jednak pomijać kwestii jeśli mają one wpływ na wynik ( przekraczający granice błędu na jaki się godzimy), a w szczególności gdy ich wpływ ma znaczenie dla samej formy/ logiki opisywanego procesu.

    4. Wiem, że pominięcie pewnych aspektów jest konieczne i celowe właśnie dlatego by rozważania nie utknęły w jałowym (nomen omen) splątaniu. W pewnym stopniu mój komentarz spowodowały m. in. dyskusje związane z kwestią tego czy umysł jest maszyną Turinga tu i w „dyskursie publicznym” przedstawiane poglądy na temat zależności między mózgiem a umysłem. Obserwuję tendencje do ucieczki od osiągnięć naukowej wiedzy ku swoiście pojmowanej „kwantowej” wolności świadomości. Obietnicę wolności woli i niezawisłości umysłu od świata materii wielu zdaje się widzieć (w sposób dla mnie niezrozumiały) w kwantowym niedeterminowaniu. W takim sensie abstrakcyjne (abstrahujące od fizycznej rzeczywistości, toczone w uniwersum formalnych bytów) rozważania pozwalają nie brać wniosków z nich płynących „do siebie”. Chciałem by zwrócono uwagę, na to, że mimo „kwantowej magii” na wyższych poziomach złożoności funkcjonują struktury dla których funkcjonalną normą jest procedowanie tak, że cechują się przewidywalnością/ obliczalnością zgodną z ich nowymi „jakościowo” właściwościami. Mimo chaotyczności i nieprzewidywalności zjawisk manifestuje się poznaniu także ich regularność, która pozwala trwać strukturom złożonym. A my odczuwamy ciągłość świadomości, jesteśmy zdolni do jako tako uporządkowanych przemyśleń (nawet jeśli moje komentarze nie są najlepszymi przykładami).
    Pisałem już także (w poprzednich komentarzach), że dziwi minie utożsamianie wolności i przypadkowości, oraz pomijanie kwestii tego czym lepszy jest internalizowany, spisany metafizycznymi zgłoskami system wartości, od takiego wyrytego w fizycznych strukturach umysłu- dlaczego ten metafizyczny ma być wyrazem mego wolnego Ja a ten zawarty w konstrukcji mojego neuronalnego ja ma mnie zniewalać (jednak nie być częścią mnie)?

    5. Interesujące jest właśnie to jak/ z jaka mocą może objawić się pierwiastek nieokreśloności i jaki to ma wpływ na wynik obliczeń/ stan złożonej struktury (w tym jej stan wobec świata). Trudno oszacować ten wpływ pomijając aspekt konstrukcji.
    (Gdybyśmy mieli komputer zdający „super” test Turinga tzn. dający na wyjściu zawsze taki sam wynik jak mózg otrzymawszy te same dane na wejściu, może dało by się uniknąć wgłębiania się w „aspekt konstrukcyjny”.)

    Mimo wszystko można powiedzieć, że uzyskałem to co chciałem (z naddatkiem) poprzez swój poprzedni komentarz.

    Co do kwestii przedstawionych przez p. Radka.

    1.Uważam przy tym, że manifestować zdolność do generowania umysłu/ świadomości/ rozumu/ inteligencji będą mogły układy nie koniecznie „biologiczne”. Inną kwestią jest to jak bardzo dogłębnie owe nie-biologiczne struktury będą musiały symulować struktury biologiczne ludzkiego mózgu by ludzie byli skłonni przyznać im miano świadomych umysłów a nie zmyślnych/inteligentnych „ale tylko” aparatów.

    2.Co do różnicy akcentów i zbytniego podkreślania roli ‘elementarnych bytów’.
    Pojęcia ewolucji i jej praw są ujęciem/ przyporządkowaniem określonego zbioru manifestujących się regularności w przejawianiu się rzeczywistości (zwykle w tym miejscu dodaję „na różnych poziomach złożoności”). Podkreślam pierwszeństwo manifestowania się poznaniu regularności w przedstawieniach rzeczywistości bo nawet jeśli może to być uznane za określenia zbyt ogólnikowe to jednak pozwala uniknąć sugestii nadawania mocy sprawczej bytom rodem z modelu naukowego.

    Chciałem uniknąć, że to ewolucja, jej prawa coś spowodowały (tak jak się czasem pisze, że prawo grawitacji zmusza cząstki do zbliżania się ku sobie tak jakby dokonywały obliczeń podstawiając się same za zmienne formuł).
    Animizujący i antropomorfizujący język sprawia, że niektórzy traktują ewolucję jak matkę naturę projektującą z namysłem przyszłe modele organizmów co w kontekście pisania o programiście umysłu zdało mi się szczególnie niebezpieczne.

    I jeszcze co do ogólności- rozróżnianie poziomów złożoności do jakich należą dane regularności jest kwestią umowy, tak jak demarkacja między fizyką, chemią, biologią. Konwencja taka choć pomocna w porządkowaniu ogromu danych może nie być zasadą, której trzymają się w swym przejawianiu same byty (niezależnie od ich złożoności).

    Proszę zwrócić uwagę, że czasem właściwości przejawiania się pojedynczych fizycznych cząstek mają wpływ na kształt złożonych prawideł ewolucji. Chaotyczność manifestacji się rzeczywistości na poziomie, który nazwałem podstawowym sprawia, że ewolucję bardziej złożonych struktur cechuje coś co ujmujemy w poznaniu przez pojęcia takie jak zmienność wewnątrzgatunkowa. Obserwowane regularności w procesie radiacji form trwania także nazywanego biologicznym nie były by możliwe gdyby do „pewnego stopnia niezależne” struktury nie zależały jednak (bezpośrednio w najszerszym sensie ) od (wąsko rozumianych) własności „cegiełek” z jakich są złożone. Gdyby pierwotne organizmy były zdolne tworzyć swe idealne kopie dzieląc się nigdy nie powstały by cudownie zorganizowane organizmy z wszystkimi swymi mechanizmami regulacji trwania ku homeostazie- które wciąż podatne są na przypadkowe mutacje, raz prowadzące do tragicznego końca, kiedy indziej nie rodzące skutków „w wyższej skali” a czasem dające nowy impet trybom ewolucji. Zależności nie są jedynie ontyczne a model winien odzwierciedlać możliwie pełen zakres czynników, jeśli mają one wpływ- nawet gdy należą one do innej myślowo wyodrębnionej dziedziny / dyscypliny nauki.Czy „błędy” w procesie dziedziczenia na poziomie pojedynczych chaotycznych cząstek chemicznych generujące mutacje implikujące powstawanie nowych cech są zjawiskami podstawowymi- wynikiem fizycznych właściwości- czy elementami zmienności podyktowanej prawami ewolucji?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *