W jakim sensie ilościowa teoria informacji
jest fundamentem epistemologii?

Książka Marka Hetmańskiego „Epistemologia informacji”, 2013,  ma do odegrania ważną rolę w polskich dyskusjach epistemologicznych.  Warto ją postawić na półce obok „Przewodnika po epistemologii”, 2013, pod redakcją Renaty Ziemińskiej, której anons zawierajacy spis treści ukazał  się tym blogu w roku 2011.

O pojawieniu się epistemologii informacyjnej  „Przewodnik” powiadamia w artykule Urszuli Żegleń pt.  „Epistemologia a kognitywistyka” oraz  w artykule Marcina Miłkowskiego (także obecnego w tym blogu)  pt.  „Epistemologia znaturalizowana”. Oba składają się  na dział książki  trafnie  przez Redakcję zatytułowany „Nowe tendencje”.  Obie prace, gdy mowa o epistemologii informacyjnej, koncentrują się na twórczości Freda Dretskego,  który w roku 1981 zainicjował tę problematykę książką „Knowledge and the Flow of Information”.  Jest to autor, którego  Marek Hetmański omawia bardzo szeroko (w stosunku do innych omówień)  na blisko 50 stronach.  Widać, że obie wymienione książki są  zgodne w wysokiej ocenie wkładu tego autora,  toteż monografię Hetmańskiego należy postrzegać  jako cenną kontynuację działu „Nowe tendencje”.

Z tym przekonaniem, wracam do dyskusji z prof. Hetmańskim rozpoczętej w lutym przez wpis  „Gödla-Chaitina wizja dynamiki wiedzy jako wiodący nurt nowoczesnej epistemologii„.  W tamtym upomniałem się o większe docenienie roli Gödla i Chaitina.  W obecnym zaś, parafrazując prozą sugestywny dwuwers Norwida „I stąd największym Cezar historykiem, który dyktował z konia, nie przy biurze”, coś podobnego chcę powiedzieć na temat roli i  zasług Karla Poppera jako epistemologu  trzymającego  się gruntu realnie uprawianej nauki.

Nie pretendując do etykiet w rodzaju „epistemologia informacyjna”,  Popper mocno i konkretnie powiązał ilościowe pojęcie informacji z praktyką badań naukowych w „Logik der Forschung”, 1934 i kolejnych pracach.  Bardzo istotne jest to, żeby epistemologia i sprzymierzona z nią metodologia nauk liczyły się z faktem,  że nauczycielką postępowania poznawczego jest historia nauki z jej wiedzą o sukcesach i porażkach przedsięwzięć badawczych. To ona skuteczniej niż konstrukcje terminologiczne Dretskego czy Floridiego przekonuje  nas do tej naczelnej u Poppera zasady: że wyposażenie teorii w możliwie największy zasób informacji powinno wyprzedzać procedury testujące jej  prawdziwość.  Gdy testy wypadają pomyślnie,  zwiększa to wiarogodność teorii,  wcielając ją tym  coraz silniej w całokształt  wiedzy.

Odróżnienie informacji  od wiedzy jest dla epistemologii kluczowe i głęboko intuicyjne. Każdy się zgodzi, że np. Wielkie twierdzenie Fermata tyle samo „mówiło” czyli dostarczało informacji,  Fermatowi i jego współczesnym,  co Andrew Wilesowi i jego słuchaczom, gdy w roku 1993 przedstawiał swój dowód . Nastąpiła jednak za  jego sprawą  kolosalna  zmiana sytuacji poznawczej. Zachowując tę samą  porcję informacji co przez poprzednie wieki, twierdzenie Fermata po jego udowodnieniu  stało się elementem wiedzy matematycznej, którym dotąd nie było.

Toteż  trudno wczuć się w autora,  który uważa,  iż „informacje są informacjami tylko wówczas, gdy są prawdziwe”. Tak M.Miłkowski  w „Przewodniku po epistemologii (s.593) zdaje sprawę ze stanowiska Dretskego.   Ale czyż nie jest tak,  że  twierdzenie Fermata mówi nieporównanie  więcej niż Pitagorasa, skoro to drugie dotyczy tylko równań,  których wyrazy są podnoszone do kwadratu, podczas gdy u Fermata wykładnikami potęgi są sukcesywnie wszystkie liczby naturalne większe od dwóch?

Utożsamiając  informację z wiedzą, która się legitymuje  dowodem prawdziwości,  wchodzi się w konflikt z tą oczywistością, którą we wpisie z 12.IV.2014   Paweł Stacewicz ujmuje słowami: ,,Nad DANYMI sytuują się INFORMACJE, czyli dane zinterpretowane, wplecione jakoś w ludzką świadomość i mające określony sens; na  informacjach nadbudowuje się z kolei poziom WIEDZY  – czyli ogółu informacji zweryfikowanych, a więc dostatecznie dobrze uzasadnionych.”

Oszacowanie, jak wiele informacji przynosi hipoteza jeszcze nie testowana jest nam potrzebne do decyzji, czy ją testować.  Jeśli jej zawartość informacyjna jest  tak szczupła, że bliska banałowi czy tautologii, to szkoda na jej sprawdzanie czasu, uwagi i pieniędzy.  Ale gdy  wchodzi w grę  coś takiego, jak  hipoteza Wielkiego wybuchu, wyposażona w niewyobrażalnie wielki ładunek informacji, to warto było włożyć dziesiątki milionów dolarów w satelitę COBE, który przeprowadzając pomiary mikrofalowego promieniowania tła, stwierdził taką jego wielkość, jaka wynika z teorii Wielkiego Wybuchu.  Od tego momentu teoria ta, zachowując ten sam stopień informacji, co miała w momencie jej postawienia,  uzyskała  o wiele większy stopień wiarogodności, czyli zintegrowania z korpusem wiedzy.

Tak więc, uprawiając realną naukę, a nie  akrobacje definicyjne, znajdziemy się na gruncie ilościowej koncepcji informacji oraz odróżniania informacji od zweryfikowanej wiedzy.  Ilość informacji jest pojmowana przez Shannona i innych jako pewna odwrotność prawdopodobieństwa.  Nie wydaje się, żeby Marek Hetmański, postulując wraz z Floridim oparcie epistemologii na pojęciu informacji, był entuzjastą koncepcji ilościowej.   W różnych miejscach (np.na s.298) tak to wygląda, jakby się od tego dystansował. Mój artykuł,   pod takim samym jak obecny wpis tytułem  jest próbą odgadnięcia, jak daleko sięga ów dystans, a rzeczą Autora byłoby potwierdzić ów domysł lub go uchylić.

Po pierwsze, zgodziłbym się z Autorem, jeśliby miał na myśli to, że nie da się oszacować, ile bitów informacji zawiera Newtona teoria grawitacji, a ile teoria Einsteina.  Tak mocna charakterystyka ilościowa nie jest możliwa. Ale łatwo się przekonać, że ta druga teoria zawiera ich więcej niż pierwsza czyli, krócej mówiąc, jest bardziej informatywna.  Analizuję te relację w cytowanym przed chwilą tekście.   Takie konstatacje porównawcze są chlebem codziennym nauki: kinetyczna teoria ciepła jest bardziej informatywna niż koncepcja cieplika, logika drugiego rzędu — bardziej niż  pierwszego, itd.  Żeby terminologię sharmonizować z szerszym kontekstem, zauważmy, że wśród skal pomiarowych mamy skalę porządkującą przez relacji większości.  Mniej dokładną niż innych, tym nie mniej jest to skala. Jeśli o czymś da się w ten sposób mówić, to owo coś znajduje się w kategorii ilości.

Po drugie, zgodziłbym się z Autorem,  jeśliby sądził,  że co się tyczy pojęcia prawdopodobieństwa w definicji informacji,  epistemologia nie ma pożytku z jego wersji częstościowej przyjmowanej przez Shannona.  Można jednak jego formalizm interpretować w terminach prawdopodobieństwa logicznego (w sensie Keynesa czy Carnapa), co właśnie czyni Popper.  Dostajemy wtedy pojęcie informacji inne niż Shannonowskie; nadal jednak ilościowe, skoro prawdopodobieństwo wyraża się  liczbowo ułamkiem między 0 i 1.  Jeśliby prof.  Hetmański nie chciał mieć do czynienia z prawdopodobieństwem logicznym, to będziemy w tym punkcie stać na różnych pozycjach, bo ja nie mam nic przeciw niemu.  Jeśli jednak nie ma  on w tym względzie oporów, to możemy się znaleźć w jednym froncie.  I wspólnie pracować nad ugruntowaniem epistemologii w ilościowej teorii informacji.

Ten wpis został opublikowany w kategorii Dialogi wokół recenzji, Epistemologia i ontologia, Filozofia informatyki. Dodaj zakładkę do bezpośredniego odnośnika.

Komentarze do W jakim sensie ilościowa teoria informacji
jest fundamentem epistemologii?

  1. Marek Hetmański pisze:

    Należy się zgodzić z poglądem, że epistemologia (każda z jej wersji: tradycyjna czy naturalistyczna; ta druga w stopniu większym) może, a nawet powinna, mieć jakiś fundament, na którym opierać się mogą jej główne tezy czy wierdzenia. Przez „fundament” epistemologii należy wówczas rozumieć takie podstawy – zestaw albo jej własnych twierdzeń (postulatów, aksjomatów czy meta-twierdzeń), albo zestaw twierdzeń (szczegółowych teorii) przyjętych z innych dziedzin wiedzy, głównie z nauki – które nadają jej ważnego i obowiązującego (względnie) charakteru. Tak zakłada wielu filozofów, epistemologów; tak też postępuje Profesor Marciszewski, pisząc w swoim tekście, że epistemologia może mieć istotne korzyści z wykorzystania ilościowej interpretacji informacji.

    Podobnie sądzę i ja, lecz chciałbym niniejszym doprecyzować sens terminu „fundament”, w jakim ilościowa interpretacja informacji mogłaby występować w stosunku do epistemologii jako ogólnej teorii wiedzy. Nie można oczekiwać, aby teoria informacji (jakakolwiek jej specyficzna czy poszerzona interpretacja) była jedynym i niezmiennym fundamentem epistemologii. Wprawdzie Dretske uważa, że Shannonowska teoria informacji jest bardo użyteczna dla rozstrzygania niektórych kwestii epistemologicznych (uzasadniania wiedzy), zaś Floridi sądzi nawet, że wszystkie problemy filozoficzne dadzą się ujmować z punktu widzenia teorii informacji (jego tzw. semantycznej koncepcji), to jednak obie stanowiska nie są do końca przekonywające. Jeśli mówić zatem o „fundamentalnym” znaczeniu teorii informacji dla epistemologii, to jedynie w takim rozumieniu kluczowego słowa, które dawałoby się zinterpretować jako „perspektywa” czy „punkt widzenia”, w roli których teoria informacji – nie tylko w ilościowej, lecz także jakościowej interpretacji, o czym pragnę mówić poniżej – mogłaby występować w stosunku do epistemologii. Słowem, teoria informacji może być użytecznym narzędziem w epistemologicznych analizach poznania i wiedzy.

    Kluczowe w całej sprawie jest rozumienie pojęcia informacji. Jeśli do jego zdefiniowania używa się pojęcia prawdopodobieństwa w którymś z kluczowych jego znaczeń (a jest ich kilka), to wpływa to na dokładne znaczenie informacji, pośrednio poznania i wiedzy; bez tego doprecyzowania pozostaje ona nazbyt wieloznaczna i nieprecyzyjna. W efekcie, jako konsekwencja metodologiczna (w znaczeniu parafrazy epistemologicznej) z przyjętej definicji prawdopodobieństwa i informacji, formułowane mogą być dopiero epistemologiczne interpretacje wiedzy. W takim właśnie znaczeniu można mówić o „fundamentalnej” roli teorii informacji dla epistemologii. Ale które ze znaczeń prawdopodobieństwa jest istotne dla pogłębionego rozumienia informacji? Są dwie możliwości.

    Jedna to prawdopodobieństwo logiczne, za którym obstaje Profesor Marciszewski, uważając, że daje ono podstawę dla ważnej czynności oceny zawartości informatywnej zdań, twierdzeń czy teorii naukowych. To rzeczywiście istotna kwestia o epistemologicznym charakterze – możliwość rozpoznania, porównania i oceny danych jednostek wiedzy od strony ich zawartości informacyjnej. U podstaw tego leży prawdopodobieństwo logiczne jako stopień obiektywnej pewności pozwalającej uznać dane zdanie (teorię) na podstawie innego zdania za wystarczająco uzasadnione (a więc odpowiednio prawdopodobne). To formalne (ilościowe) kryterium prawdopodobieństwa i jego stopnia – wzrastającego lub malejącego odwrotnie proporcjonalnie do informatywności zdania w znaczeniu logicznym – jest ważne, ale nie jedyne dla zdefiniowania tego, czym w ogóle jest informacja.

    Można także przyjąć szersze pojęcie prawdopodobieństwa odwołujące się nie tylko do obiektywnego stanu rzeczy, jakimi są formalne relacje między zdaniami czy związki przyczynowe między zdarzeniami, lecz także do kryterium podmiotowego. Przypisywanie poszczególnym zdaniom czy zdarzeniom – w charakterze losowych jednostek układających się w ciągi czy stanowiących zbiory – liczbowych wartości pozwala na określenie stopnia prawdopodobieństwa ich zachodzenia (zawsze w obrębie owych ciągów lub zbiorów). Daje to niezwykle ważne narzędzie poznawania rzeczywistości oraz kryterium oceny jego prawomocności i uzasadnienia. Ważne jest zatem podejście do prawdopodobieństwa, w którym formułuje się oczekiwanie względem rezultatu zdania czy zdarzenia, którego wynik liczbowy nie jest jeszcze znany. Idzie w tym wypadku o wyraźnie podmiotowe kryterium prawdopodobieństwa – nie sam obiektywny stan losowych zdarzeń i ich liczbowym miar oraz wyników, lecz o stopień podmiotowo pojętej pewności związanej z przewidywaniem wyniku nieznanych zdań czy zdarzeń w stosunku do ciągu już rozpoznanego czy co najmniej oszacowanego.

    Kluczowe jest tutaj klasyczne już rozróżnienie na prawdopodobieństwo obiektywne i prawdopodobieństwo subiektywne, którego dokonał Frank Ramsey w latach dwudziestych minionego stulecia. Odnosiło się ono zarówno do Keynesowskiego pojęcia obiektywistycznego prawdopodobieństwa, jak i subiektywistycznej jego interpretacji. Stosowało się bowiem (jako praktyczny wniosek z analiz ilościowych) do szacowania wiedzy podmiotów gospodarczych czy fiskalnych na rynku. Ramsey mówił o subiektywnym rawdopodobieństwie, jako równie ważnym jak obiektywistyczne ujęcie; za nim poszło wielu innych badaczy.

    Ujęcie prawdopodobieństwa jako kategorii obiektywno-subiektywnej ułatwia zdefiniowanie informacji w znaczący sposób. Ponadto jest, na co chcę zwrócić uwagę, współbieżne z pojęciem prawdopodobieństwa zastosowanym przez Shannona i Weavera do zdefiniowania informacji w ich matematycznej teorii łączności (zwanej także, chociażnie poprawnie, teorią komunikacji). Odwołują się oni w pierwszej kolejności do ilościowego ujęcia informacji jako stopnia (i zarazem miary) redukcji prawdopodobieństwa zdarzeń w trakcie transmisji sygnałów w dowolnym kanale komunikacyjnym, czyli stopnia prawdopodobieństwa zdarzeń-sygnałów w losowym ich rozkładzie. Punktem wyjścia ich koncepcji jest pojęcie prawdopodobieństwa, chociaż nie umiem w tym miejscu sprecyzować, do którego z klasycznych pojęć prawdopodobieństwa się odwołują (wydaje mi się, że do tzw. częstotliwościowej definicji, sformułowanej w 1931 roku przez R. von Misesa). Wychodzą od kodowania oraz transmisji sygnałów między źródłem a przeznaczeniem – dwoma kluczowymi punktami (w sensie abstrakcyjnym, nie konkretnym) każdej operacji łączności. Ilość informacji, jaką można wiązać z ciągiem sygnałów oraz danym komunikatem utworzonym przez sygnały, zależy wówczas od ich prawdopodobieństwa, dokładniej mówiąc, ich nieprzewidywalności. Określić zaś ją można w rachunku prawdopodobieństwa, porównując prawdopodobieństwo wygenerowanego komunikatu u źródła (wysłania) z prawdopodobieństwem w miejscu jego przeznaczenia (otrzymania). Ilość informacji jest wówczas stopniem (miarą) prawdopodobieństwa komunikatu, inaczej też mówiąc – prawdopodobieństwo (wzgl. nieprawdopodobieństwo) jest miarą ilości informacji. Im bardziej nieprawdopodobnym zdarzeniem jest dany komunikat, inaczej mówiąc, najmniej oczekiwanym (określonym w stosunku do wszystkich docierających poprzednio komunikatów), tym więcej informacji ze sobą on niesie. Miarą ilości informacji komunikatu jest redukcja stopnia niepewności jego zaistnienia mierzona poprzez porównanie dwóch jego wielkości liczbowych – u źródła i w przeznaczeniu. Otrzymujemy więcej informacji, jeśli komunikat został wybrany z bogatszego zbioru alternatyw (wyborów) niż ze zbioru o mniejszej ilości alternatyw. I tak, sygnał czy też komunikat wybrany ze zbioru, przykładowo, stu alternatyw przekazuje więcej informacji niż ten sam wybrany z dziesięciu, ponieważ jego zaistnienie (a więc wybór) eliminuje więcej możliwości. Inaczej mówiąc, redukcja taka daje zawsze określoną ilość informacji.

    Shannonowska teoria jest wyraźnie ilościową koncepcją informacji; obaj jej autorzy (zwłaszcza jednak Weaver) wyraźnie zaznaczają, że pojęcie znaczenia komunikatu nie jest w niej konieczne, chociaż możliwe. Koncepcja ta jest, na co warto zwrócić uwagę, zbieżna z potocznymi, zdroworozsądkowymi intuicjami. Przede wszystkim poprzez pojęcie prawdopodobieństwa jako operacji przewidywania możliwych tendencji w ciągu zdarzeń oraz redukowania niepewności związanej z przewidywaniem. Przewidywanie czy prognozowanie prawdopodobnych zdarzeń w ich losowym ciągu jest operacją stricte poznawczą i wiąże się z poznawczymi dyspozycjami podmiotu poznającego, a nie tylko z obiektywnymi własnościami ciągu zdarzeń i ich liczbowymi miarami. Każdy, kto przewiduje, dokonuje wyboru jednej z wielu możliwych alternatywnych prognoz. Każde zdobywanie jakiejś wiedzy w postaci zdania czy ogólnej opinii jest wyborem między możliwościami i zarazem redukcją niepewności związanej z takim wyborem. Przyjęcie modelu probabilistycznego do opisu ludzkiego poznawania i tworzenia wiedzy jest wprawdzie dość abstrakcyjne, a może nawet nazbyt schematyczne, lecz w moim rozumieniu trafnie oddaje jeden z ważniejszych aspektów (punktów widzenia) poznania – wybieranie i podejmowanie decyzji wobec sygnałów, danych doświadczenia, komunikatów dochodzących do podmiotu poznającego z szeroko pojętego otoczenia.

    Moim zdaniem Shannonowska teoria ilości informacji jest w zaskakujący sposób współbieżna z naszym poznawaniem tego, co niejawne, rozpoznawania i przewidywania, a także możliwości podejmowania decyzji poznawczych czy praktycznych w oparciu o uzyskaną informację. Informacja taka stanowi w efekcie wiedzę, jaką podmiot szacujący prawdopodobieństwo zdarzeń, prognozujący ich kierunek, redukujący niepewność z tym związaną może zdobyć w trakcie takich operacji. Ilościowa charakterystyka informacji łączy się tutaj wyraźnie z jakościową interpretacją wiedzy. Nie umiałbym w tej chwili w szczegółach uzasadnić tę współbieżność (wymagałoby to odwołania się do psychologii poznawczej oraz teorii podejmowania decyzji), lecz jest ona aż nazbyt wyraźna i narzucająca się. Pozwala to w efekcie na połączenie ilościowej koncepcji informacji z jakościową, subiektywną jej interpretacją. O tym właśnie traktuje Ramseyowska koncepcja. Dzięki temu możliwe jest budowanie epistemologii na ilościowych koncepcjach informacji. Obie definicje prawdopodobieństwa – Ramseyowska i Shannonowska – dają podstawę do pełnego, uwzględniającego zarówno obiektywne (ilościowe), jak i subiektywne (jakościowe, podmiotowe) zdefiniowania informacji w jej uwikłaniu z wiedzą. W tym też sensie można mówić o „fundamentalnym” znaczeniu teorii ilości informacji dla epistemologicznych analiz poznania i wiedzy. Takie jest moje rozumienie relacji teorii informacji i epistemologii zapośredniczonej w pojęciu szeroko rozumianego prawdopodobieństwa. Podsumowując, więcej nadziei wiązałbym jednak z pojęciem prawdopodobieństwa, którego pewne sensy dadzą się wywieść z Shannonowskiej koncepcji niż z pojęciem prawdopodobieństwa logicznego. Dlaczego? To pierwsze szerzej ujmuje istotę czynności poznawczych (przewidywania, prognozowani itp.) i ich kontekstów (podejmowania decyzji), gdy drugie dotyczy wyłącznie wyników poznania – zdań czy teorii.

  2. Odpowiem nowym wpisem w najbliższych dniach. Powrócę w nim (A ) do kwestii, jakie pojęcie prawdopodobieństwa (częstościowe, logiczne, psychologiczne czyli subiektywne) zawiera się w Popperowskiej teorii falsyfikacji, oraz (B) do pytania, czy Autor „Epistemologii informacji” zgadza się z następującym poglądem.

    >>Odróżnienie informacji od wiedzy jest dla epistemologii kluczowe i głęboko
    intuicyjne. Wielkie twierdzenie Fermata tyle samo „mówiło” czyli dostarczało informacji, Fermatowi i jego współczesnym, co Andrew Wilesowi i jego słuchaczom, gdy w roku 1993 przedstawiał swój dowód. Nastąpiła jednak za jego sprawą kolosalna zmiana sytuacji poznawczej. Zachowując tę samą porcję informacji co przez poprzednie wieki, twierdzenie Fermata po jego udowodnieniu stało się elementem wiedzy matematycznej, którym dotąd nie było.<< Czy Autor zgadza się z tym, że (B1) fakt zaistnienia dowodu nie zmienia ilości zawartej w danym twierdzeniu informacji, (B2) zmienia natomiast jego status poznawczy, czyniąc to twierdzenie elementem wiedzy, którym dotąd nie było?

  3. km pisze:

    1 „Przyjęcie modelu probabilistycznego do opisu ludzkiego poznawania i tworzenia wiedzy (…) w moim rozumieniu trafnie oddaje jeden z ważniejszych aspektów (punktów widzenia) poznania – wybieranie i podejmowanie decyzji wobec sygnałów, danych doświadczenia, komunikatów dochodzących do podmiotu poznającego z szeroko pojętego otoczenia.
    Daniel Wolpert powiedział na wykładzie w ramach TED, że można trafnie opisać matematycznie jakie zostaną wygenerowane przekonania o świecie przez człowieka wobec niepewności (zmieniających się okoliczności świata zewnętrznego) na podstawie prawdopodobieństw różnych wariantów zdarzeń w określonych okolicznościach (zdaje się, że na przykładzie nauki gry w tenisa)
    mając dwa źródłach informacji:
    -dane sensoryczne przetwarzane na przekonania
    -wcześniejsza wiedza zakumulowana we wspomnieniach
    ludzie podejmują decyzję zgodnie z regułą Bayesa (nieświadomie obliczając prawdopodobieństwa zgodnie z tą regułą znajdując optymalną proporcję dla łączenia danych zmysłowych i zakumulowanej wiedzy)
    Kilka lat temu podobno wykazano, że dokładnie tak się dzieje podczas nauki nowych umiejętności ruchowych.
    Mózg nieustannie stara się tworzyć teorie o przyszłych danych zmysłowych na podstawie zakumulowanych danych i aktualnych bodźców zmysłowych- i na podstawie obliczonych prawdopodobieństw kieruje zmysły w stronę najbardziej prawdopodobnych źródeł wartościowych informacji.
    Ale pozwala to także odróżnić wpływ nieprzewidzianego zewnętrznego świata od normalnych skutków własnego działania (różnica w przewidywaniach pomiędzy tym co powinno trafić ze zmysłów po wykonaniu ruchu i tego co w rzeczywistości trafiło).
    Obliczanie prawdopodobieństw skutków własnych działań w zaistniałych okolicznościach stanowi zatem podstawę działalności mózgu i umożliwia poznawanie świata.
    Nieustanne tworzenie teorii o świecie o różnym prawdopodobieństwie, wybór spośród nich na podstawie oceny tych prawdopodobieństw i weryfikacja w eksperymencie- coś mi to przypomina.
    Najlepsze jest to, że dzieje się to instynktownie i na poziomie założeń co do świata odczuwanych, tak, że by działać nie musimy szukać rozumowego uzasadnienia dla tropionych relacji przyczyna skutek.
    Także wybieramy wariant, który zdaje się na podstawie doświadczenia bardziej prawdopodobny mimo, że przecież nie musimy podważać sceptycznych argumentów (że los nie był stronniczy w przedstawianiu nam do tej pory tylko jednej strony danego zagadnienia i nasze szacunki mogą być zupełnie niewłaściwe).

    2.Odnośnie artykułu „W jakim sensie ilościowa teoria informacji jest fundamentem epistemologii?”
    Fragment tego tekstu stanowi: „posłużę się terminem wysoka informatywność tekstu. Z tym ukierunkowaniem oddaję ów termin ideę, która przenika rozważania Poppera, choć ten termin w nich nie występuje”.
    Występuje u Poppera termin 'zawartość’ -system dedukcyjny lub zbiór konsekwencji zdania/ teorii (także zdania/teorii A względem zdania/teorii B w wypadku porównania zawartości względnej) przy czym funkcja prawdopodobieństwa
    p (A,B) wzrasta wraz ze zmniejszającą się zawartością względną tak, że
    zawartość względna (A,B)= 1-p(A,B)
    W związku z tym mam pytanie jak bardzo istotne są wątpliwości Poppera co do idei porównywania zawartości zawarte w jego „Wiedzy obiektywnej” („Dodatek 2. Uwagi uzupełniające”).
    W szczególności pojawia się tam kwestia porównania teorii (także teorii Newtona i Einsteina). I szerzej rozważane są kwestie postępu nauki i „wyboru” teorii na podstawie porównania zawartości
    Moją uwagę (wobec deklaracji o hipotetycznym charakterze teorii) zwróciło to, że Popper przedstawia wątpliwość co do satysfakcjonującego projektu epistemologicznej metody wyboru teorii na podstawie zawartości. (a więc i odwrotności prawdopodobieństwa, zatem i informacji/ informatywności)
    W sytuacji idealnej rozwiązanie kwestii preferencji teorii może się dokonać na drodze „porównania zawartości teorii na podstawie istotnych problemów- tych problemów które uczony w swojej praktyce uznaje za istotne” a więc „na drodze relatywizacji zawartości”. Jest to możliwe gdy Teoria późniejsza zawiera wszystkie odpowiedzi teorii poprzedniej (…) nawet jeśli czasem „odpowiedź brzmi: to pytanie nie powstaje”,
    Jednak pod wpływem krytyki w „Wiedzy obiektywnej” Popper przyznał się do błędu:
    „nie wszystkie możliwe pytania rozstrzygane przez teorię poprzednią będą rozstrzygane przez teorię późniejszą. Moim błędem było stwierdzenie, że wszystkie pytania są rozstrzygane”
    I tu właśnie pojawia się moja wątpliwość- czy konieczne jest dokonywanie wyboru:
    Czy praktycznie niezbędne jest stosowanie tylko jednej z teorii o częściowo pokrywających się zawartościach? Przecież jeśli o jednej z nich wiemy, że jest skuteczniejsza w jednej dziedzinie a o drugiej, że w pozostałym obszarze dostępnych pomiarów, to co stoi na przeszkodzie by stosować je wymiennie, zależnie od okoliczności? Pewnie to, ze czasem trudno stosować taki zbiór wzajemnie uzupełniających się modeli by pokryć cały obszar badań. Ale czy w praktyce nie jest to przypadek zachodzący w różnych obszarach zainteresowania mechaniki kwantowej?.
    I co jeśli jest to najlepsze rozwiązanie? Rozumiem kwestie estetyczne ale czy idea dążenia do prawdy gdy mowa o
    porównaniu teoretycznego znaczenia zdań wynikających z modelu
    z teoretyczną interpretacją pomiarów (wyników zgodnie z teorią skonstruowanych eksperymentów)
    to czy rzeczywiście istotne jest czy obszary stosowalności różnych modeli są poszatkowane najzupełniej arbitralnie?
    Przecież, nie można wykluczyć, że już zawsze taki patchworkowy zespół teorii będzie korespondował z faktami i ostatecznie nie uda nam się podważyć „podobieństwa do prawdy” takiego konglomeratu połączonych modeli sprzyjających rozumieniu- nawet gdy nie będziemy potrafili zrozumieć dlaczego akurat w takich miejscach przebiega granica pomiędzy obszarami ich zastosowań.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *