Z prawdziwą przyjemnością chciałbym zaprosić do dyskusji nad tekstem Pana Pawła Ciniewskiego z Uniwersytetu im. Adama Mickiewicza w Poznaniu (Zakład Filozofii Techniki i Rozwoju Cywilizacji). Autor przekonująco argumentuje, że we współczesnym obrazie świata pojęcie informacji pełni podobną funkcję do tej, jaką w starożytnej Grecji różni filozofowie przypisywali arché.
Rekomendowany do dyskusji tekst zaczyna się następująco:
„Przedstawiony tekst dotyczy dwóch z pozoru bardzo odległych od siebie pojęć: informacji i arché. To pierwsze jest pojęciem współczesnym z konotacjami naukowymi i potocznymi, które nie miałyby sensu w starożytnej Grecji. Tymczasem to właśnie z niej pochodzi wspomniane już arché, nazywane czasami prazasadą. Adaptacja pojęć archaicznych do współczesnego stanu świata nauki jest zadaniem trudnym. Inne są bowiem warunki społeczne i stan techniczny Antyku oraz współczesności. Aby zatem szukać odpowiednika arché należy znaleźć takie pojęcie analogiczne, które z jednej strony służy do opisu rzeczywistości na podstawowym poziomie, a z drugiej stało się na tyle powszechne, że występuje w większości dziedzin nauk przyrodniczych i technicznych. Wydaje się, że pojęcie informacji spełnia te warunki. „
Chciałbym wyjaśnić jeszcze, że tekst Pana Ciniewskiego zredagowaliśmy w sposób nietypowy. Włączyliśmy doń komentarze redaktora bloga, Pawła Stacewicza (PS), które są efektem wstępnej dyskusji z autorem. Mamy nadzieję, że taka forma prezentacji dodatkowo zachęci czytelników do wpisywania własnych komentarzy. Bardzo na to liczymy.
Na rozgrzewkę przedstawiamy fragment dyskusji obecnej w zalinkowanym tekście:
<<
Ciekawym przykładem (i być może też najważniejszym) są także Pitagorejczycy, dla których zasadę stanowiła liczba. Była ona rozumiana przez starożytnych bardzo materialnie: w samych przedmiotach zawarta jest już związana z nimi liczba, zbiór przedmiotów określony jest liczbą jej elementów itp. Same liczby były zatem statycznym aspektem arché, dynamicznym zaś relacje liczbowe. Jakże ciekawy jest fakt, że teoria Shannona jest teorią matematyczną, a dzięki komputerom cyfrowym (!) możemy skwantyfikować niemal każdy proces przyrodniczy. Na marginesie dodam, że zdaniem Jay’a Boltera maszyna cyfrowa jest pewnego rodzaju powrotem do antycznego myślenia o liczbie jako o czymś intymnie wplecionym w rzeczywistość. Niewymierność lub nieskończoność pewnych zjawisk (których to cech tak panicznie obawiali się Pitagorejczycy) nigdy nie będą w doskonały sposób odzwierciedlone za pomocą maszyn cyfrowych.
[ PS:
„Liczbowe” arché Pitagorejczyków wydaje się najbliższe współczesnemu rozumieniu informacji jako cyfrowego kodu, który właśnie ze względu na swoją cyfrowość (dyskretność) ma idealne odzwierciedlenie w liczbach.
To dzięki praktyce użytkowania komputerów cyfrowych wiemy, że różne fragmenty/aspekty rzeczywistości dają się efektywnie kodować jako liczby — zarówno dane dla programów komputerowych, jak i same programy, mogą być przedstawione jako ciągi bitów (zer/jedynek), które to ciągi można rozumieć jako liczby; operacje komputera z kolei mogą, a nawet muszą, być postrzegane jako operacje na liczbach.
Uzyskujemy zatem nowy wgląd w pitagorejskie hasło, że „wszystko jest liczbą”. Najprzeróżniejsze (być może nawet wszystkie) zjawiska w świecie daje się zakodować/odzwierciedlić liczbowo we wnętrzu komputerów. Co więcej, za pomocą liczb i operacji na nich jesteśmy w stanie kreować wirtualne światy (pod pewnymi względami nieodróżnialne od naszego).
Słusznie jednak zauważono wyżej, że wyłącznie cyfrowa wizja świata może (choć nie musi) być niepełna, ponieważ w świecie mogą istnieć takie zjawiska, dla których opisu są niezbędne liczby nieobliczalne (w sensie Turinga). Wyżej jest mowa o niewymierności; w gruncie rzeczy jednak, chodzi o specjalnego rodzaju (trudną!) niewymierność zwaną nieobliczalnością.
]
>>
Gorąco zapraszamy do dyskusji w blogu — Witold Marciszewski i Paweł Stacewicz.
A oto finalny link do rekomendowanego tekstu:
Paweł Ciniewski, Informacja jako współczesne arché.
Kilka uwag.
Bardzo ciekawa próba rozwiązania problemu istoty informacji. Oczywiście pojęcie arche może być związane z pojęciem informacji (tak jak Logos czy Tao), ale z jakim pojęciem informacji. Co by to znaczyło, że informacja jest podstawowym składnikiem wszechświata?
Definicja Shannona nie ma raczej i nie miała na celu zdefiniowania czegoś podstawowego. Jest to ściśle określona własność pewnych procesów komunikacyjnych (bardzo ścisłe założenia dotyczące przestrzeni prawdopodobieństwa zmiennych losowych w równaniu Shannona). To że możemy użyć wzoru Shannona do obliczenia „entropi” dowolnego ciągu symboli 01 raczej nie uprawnia nas do interpretowania tego ciągu w kontekście teorii Shannona. Jak już wspominałem teoria ta ma bardzo ścisłe założenia co do przestrzeni zmiennych losowych. Nawiasem mówiąc, wartości dwóch prawdopodobieństw można tylko porównać jeżeli ich przestrzenie zmiennych losowych są takie same. Z tego wynika, że teoria/definicja Shannona jest często nadinterpretowana.
Wydaje mi się również, że użycie przez Shannona terminu entropia było oparte wyłącznie na symbolicznym podobieństwie dwóch wyrażeń matematycznych, a nie na istocie zjawisk. np. dwa zjawiska wyrażone równaniem prostej nie koniecznie mają coś w sobie podobnego. Dlatego analogie między entropią termodynamiczną a entropią Shannona należy wskazywać bardzo ostrożnie, jeżeli w ogóle.
Tak też użycie pewnych podobieństw między entropią termodynamiczną a entropią Shannona jako argumentu za możliwością stosowania kategorii informacji do „wszystkiego co fizyczne” jest raczej może zbyt pośpieszne.
I dalej. Informacja Shannona jest miarą pewnej własności sygnału. I tak jak miara masy nie mówi nic o tym, czym ta masa jest, informacja Shannona nie mówi nic, czym informacja jest. Shannon sam nawet ubolewał że użył terminu „informacja”, gdyż to doprowadziło do pewnego pomieszania pojęć.
Więc jakby się informacja Shannona miała mieć do Arche?
Słuszna uwaga autora, że nie ma jakiejś spójnej definicji informacji. W takim razie, jak my możemy ją interpretować jako arche?
Trochę porządku w tym chaosie pojęć można by wprowadzić, jeżeli popatrzy się na to, że większość pojęć może być rozpatrywana z punktu epistemologicznego lub ontycznego. W każdym z tych wymiarów jest jeszcze aspekt subiektywny i obiektywny. Informacja jako arche musi być, jak się wydaje, pojęciem epistemicznie i ontologicznie obiektywnym. No ale co to by miało znaczyć dla pojęcia informacji?
Kilka pytań:
„W fizyce entropię zmniejsza dopływ energii z zewnątrz”; – czy to znaczy, że jak podgrzejemy gaz w zbiorniku, to zmniejszymy jego entropię?
Stwierdzenie Lloyda, że wszechświat należy uznać za komputer kwantowy należało by bardzo brać ostrożnie, gdyż nie za bardzo wiadomo co by to miało w praktyce oznaczać. Komputer kwantowy operuje na wartościach dyskretnych (tak są interpretowane stany kwantowe), a procesy naturalne niekoniecznie muszą mieć charakter dyskretny. I co by to znaczyło że „wszechświat manipuluje informacją” – przecież ciągle nie wiemy, czym ta informacja jest.
Samo stwierdzenie „Wszechświat jest kwantowym automatem komórkowym.” zawiera jak mi się wydaje pewną sprzeczność. Procesy automatów komórkowych są bardzo lokalne, a w fizyce kwantowej cząstki w zasadzie są obecne (potencjalnie) wszędzie.
Wyłączyłbym z dyskusji kwestię Boga, gdyż to jest dziedzina teologii, a nie filozofii informatyki. A te niekoniecznie się krzyżują – co nie oznacza, że dyskusja tego typu w odpowiednim kontekście nie byłaby ciekawa i wartościowa. Ale raczej to by była teologia.
Zdanie:
„informacja jako „dane” przekształcane przez wszechświat” sugeruje, że elementarnym pierwiastkiem wszechświata nie jest informacja (jak chyba jest postulowane na początku) ale dane. A co to są dane? Czy jest to GDI?
Zdanie:
„informacja jako zbiór instrukcji, algorytm, zgodnie z którym wszechświat tymi danymi operuje”.
Jak w tym kontekście interpretować „algorytm” – algorytm w ścisłym tego słowa znaczeniu to raczej jest coś innego. Trzeba by to chyba wyjaśnić. No i co by miało znaczyć sformułowanie „zbiór instrukcji dla wszechświata”?
„W fizyce klasycznej informacja zazwyczaj odnosi się do wiedzy dostępnej dla obserwatora o danym układzie fizycznym.” W tym kontekście informacja ma zdecydowane znaczenie epistemologiczne. Ale jako pojęcie epistemologiczne – zależne od umysłu- jak by się ono przekładało na podstawowy element wszechświata (Berkeley?).
Nie wiem, czy moje uwagi do czegoś się przydadzą… Wpisywałem je „na gorąco”.
Ciekaw jestem odpowiedzi…
Oczywiście, Shannon wprost powiedział, że informację traktuje jako pojęcie pierwotne, którego nie ma zamiaru definiiować. Słusznie zauważa Pan również, że entropia w termodynamice i entropia informacyjna mają różne punkty odniesienia i raczej nie należy traktować tego ich jako tożsamych. Shannon nie widział w swojej teorii żadnej istoty wszechrzeczy. Odpowiadając na pytanie: "Jakby się informacja Shannona miała mieć do Arche?" należy powiedzieć, że Shannon w swojej teorii o informacji nic nie powiedział, powiedział jedynie jak ją mierzyć i jakie warunki muszą zajść, aby mogła zachodzić łączność. To nie informacja jest miarą informacji, tylko jednostki wyrażane w bitach, tritach itp (zależnie od zbioru wyjściowego) – tak jak gram jest miarą masy. Shannonowski model pomiaru informacji bardzo dobrze sprawdza się w fizyce czarnych dziur i fizyce kwantowej, gdzie bez informacji już liczyć pewnych rzeczy nie można (stąd np. Lloydowska hipoteza o wszechświecie jako kwantowym komputerze).
Jeśli chodzi o brak jednolitej definicji informacji, to zamysłem mojej hipotezy jest raczej chęć dostarczenia nowych intuicji wobec tego, jak taką definicję można sformułować. Nie twierdzę nigdzie, że nie istnieje spójna definicja informacji, lecz że nie ma jak dotąd definicji ogólnej. Możliwe, że obecnie funkcjonujące definicje cząstkowe wzajemnie się wykluczają, co utrudnia sformułowanie ogólnej definicji przed indukcję. Nie oznacza to jednak, że takowa ogólna definicja nie może być w ogóle spójna. Kolejna sprawa: inaczej można definiować informację z punktu widzenia ontycznego, a inaczej z epistemologicznego. Wskazując na arche jako metaforę informacji, zdecydowanie kieruję się w kierunku ontologii, epistemologię czyniąc wtórną.
Oczywiście, ze zmniejszeniem entropii popełniłem pewne uproszczenie: aby zmniejszyć antropię potrzebny jest do tego wydatek energii, a ponieważ w układach izolowanych energia ta zawsze musi być pobrana z wewnątrz, ogólna entropia zawsze wzrasta (spadek entropi lokalnej jest mniejsza niż wzrost entropii globalnie). W związku z tym jedynym sposobem na zmniejszenie entropii globalnie jest wykorzystanie energii spoza układu.
Co do kwestii algorytmu: odniosę się do komentarza pana Stacewicza, który wskazuje, że algorytm (rozumiany jako schemat przetwarzania danych) obok danych jest jednym sposobów interpretowania informacji w jej dynamicznym ujęciu.
Podobnie dane: jako interpretacja informacji w jej statycznym ujęciu. Łącznie te dwa pojęcia interpretuję jako odpowiednio statyczny i dynamiczny aspekt informacji.
Bardzo dziękuję Panu za wszystkie uwagi. Mam nadzieję, że nieco rozjaśniłem niektóre wątpliwości.