Postęp naukowy i polityczno-gospodarczy
z informatycznego punktu widzenia

Intencją tych rozważań jest sprawdzenie: czy, a jeśli tak, to jak dalece, stosowanie kategorii informatycznych do różnych obszarów rzeczywistości pomaga w rozwiązywaniu ich problemów? Jako „pole doświadczalne” w pierwszym tego zadania kroku, wybieram wymienione w tytule obszary postępu.  Postęp nauki należy do kluczowych czynników postępu społecznego, na który składają się przemiany polityczne, gospodarcze i socjalne (czyli społeczne, w węższym tego słowa znaczeniu). Gdy postęp społeczny jest w jakimś państwie na tyle znaczący, że dzięki niemu wywiązuje się ono ze swych zadań w wysokim stopniu, przyjęło się je określać  jako państwo inteligentne.

Postęp nauki przyspiesza postęp inteligencji tego państwa, w którym się ją uprawia, i odwrotnie. Takie sprzężenie sprawia, że badanie łącznie obu linii postępu mówi o każdej z nich wiele więcej, niż gdy  je rozpatrywać z osobna. Ten rodzaj zastosowań informatyki (wraz z zakładaną w niej filozofią) nazywam informatycznym punktem widzenia, a w skrócie — informatyzmem. W inspirowanych nim rozważaniach o postępie kluczowe są następujące kategorie: złożoność problemu, ilość informacji, przetwarzanie informacji (obliczanie), obliczalność, moc obliczeniowa.

§1. Dynamika postępu nauki

W sposób oczywisty pojęcie informacji stosuje się do nauki, której zadaniem jest dostarczanie wiedzy o świecie, coraz bardziej rozległej i coraz bardziej wnikliwie sprawdzanej. W kwestii postępu nauki stajemy przed problemem, jaki jest stosunek między rozległością wiedzy, czyli ilością dostarczanej informacji oraz stopniem  wiarogodności, uzyskiwanym dzięki coraz doskonalszym metodom sprawdzania. Pierwszym, który na ten problem zwrócił uwagę był Karl Popper w dziele „Logik der Forschung”, 1935; w wersji angielskiej: „The Logic of Scientific Discovery”, 1959.

Pojęcie informacji jest u Poppera wyrażane również terminami content (treść) lub composition (złożoność) jako atrybut ilościowy cechujący zdanie w tym wyższym stopniu, im niższe jest jego prawdopodobieństwo (logiczne): increases with degree of falsibiality or testability, and with improbability  (s.470).

Ilustracją tej zależności nich będzie sekwencja struktur logicznych o rosnącym prawdopodobieństwie, co się pokrywa z malejącą ilością informacji, czyli malejącą informatywnością  (wprowadzam ten termin dla uzwięźlenia wypowiedzi). Oto przykład takiej sekwencji:  p&q,   p,   p⊕q,   (p⊗q)⊗ r,   itd. ( ⊗ jest tu symbolem alternatywy).

To zaś, jak informatywność bywa zależna od relacji między podmiotem i orzeczeniem, ilustrują następujące zdania (w tle jest informacja, że każdy wróbel jest passerem, lecz nie odwrotnie, itp. inkluzje).

A. Każdy passer jest ptakiem
B. Każdy wróbel zwyczajny jest ptakiem
C. Każdy wróbel zwyczajny jest kręgowcem

inf(A)>inf(B),   inf(B)>inf(C)

Gdy ktoś powie, że spostrzegł passera, jest w tym mniejsze ryzyko pomyłki, a więc większe prawdopodobieństwo trafności, niż gdy powie, że zauważył zwyczajnego wróbla. Jeśli bowiem jest to mazurek, to będzie także prawdą, ze jest passerem. To kolejny przykład na odwrotność informatywności i prawdopodobieństwa. Wysoce informatywna jest wieść sensacyjna, bo jest bardzo mało na gruncie posiadanej wiedzy spodziewana, i w tym sensie najmniej prawdopodobna.

Ta logiczna koncepcja informatywności tym ustępuje Shannonowskiej, że nie dostarcza miary informacji w takich jednostkach jak np. bity. Często jednak zdaje egzamin jako podstawa oszacowań porównawczych. W szczególności, jeśli się porównuje informatywność teorii naukowych, to stwierdzenie, że teoria T2 jest bardziej informatywna niż T1, wskazuje na pewien warunek konieczny postępowości T2 względem T1. Dzięki spełnianiu tego warunku (daleko więcej konsekwencji empirycznych) teoria heliocentryczna jest bardziej informatywna aniżeli geocentryczna. Logika Fregego bardziej informatywna (niepomiernie większy zakres zastosowań) niż Arystotelesa.

Nie jest to jednak warunek wystarczający postępowości, skoro wysoka informatywność nieubłaganie pociąga — na gruncie aktualnej wiedzy — niskie prawdopodobieństwo. Oznaczmy je skrótowo przez „P”. Maksymalną informatywność ma zdanie wewnętrznie sprzeczne, wynika zeń bowiem każde zdanie danego języka, a to oznacza zero P. Trzeba więc mieć sposób na zwiększanie P bez utraty pożądanego poziomu informatywności.

Takim sposobem jest procedura testowania, czyli prób falsyfikacji rozważanych hipotez. Powiedzmy, że detektyw na gruncie dotychczasowych wyników śledztwa dochodzi do pewności, że prawdą jest alternatywa trzech hipotez (A, B, C) co do osoby sprawcy włamania. To znaczy, że P(A⊕B⊕C)=1. Jeśli dalsze śledztwo (np. poprzez alibi) wykazuje, że P(C)=0, czyli falsyfikuje C, to zachowamy pewność z poprzedniego etapu, a zyskamy hipotezę bardziej informatywną: P(A⊕B)=1. Jeśli z kolei nastąpi falsyfikacja hipotezy B, to na gruncie tej nowej wiedzy, osiągniętej dzięki falsyfikacjom, dochodzimy do pewności, że P(A)=1, połączonej ze wzrostem informatywności; a to jest postęp poznawczy w stosunku do stanu wiedzy z etapu P(A⊕B⊗C)=1.

c.d.n.

Ten wpis został opublikowany w kategorii Bez kategorii. Dodaj zakładkę do bezpośredniego odnośnika.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *