On analogy between the role of conceptualization in computational and in empirical hypothesizing

In the Abstract of Prof. Primiero’s lecture „Computational Hypotheses and Computational experiments” (at Warsaw University of Technology, November 19, 2019) I found the following, much thought-provoking claim; let it be called PC (Primiero’s Claim).

PC: The analogy between the scientific method and the problem-solving process underlying computing still is a tempting proposition.

This is a strong temptation, indeed. I am one who did succumb to it. This is due to my vivid interest in Turing’s [1939] idea of oracle as discussed in my paper „The progress of science from a computational point of view: the drive towards ever higher solvability” — in the journal Foundations of Computing and Decision Sciences, 2019 (Vol.44, No.1) — Section 4 dealing with Turing’s [1939] idea of oracle.

What is there said seems to provide some premises to discuss the analogy claimed by PC. To wit, that similar rules control the problem solving-processes (hence a progress of science) in empirical sciences and those called by Prof.Primiero computational sciences. It seems to me (a point for discussion) that the latter term can be conceived as equivalent with what is called „decision sciences” (see the quoted journal’s title), i.e., theories of decidability (to be called computability as well).

A crucial Turing’s (1939) claim concerning decidability in mathematics (see quotations by Marciszewski 2019), which continues his revolutionary result of 1936/37 (on the existence of uncountable numbers), is the following. When there is a problem undecidable at a given evolutionary stage of axiomatized and formalized theory, it can prove solvable with inventing
appropriate new axioms. Those, in turn are due to a creative concept-forming  to be involved into the axioms, and so expressed by primitive terms of the theory in question.

Such an adding of axioms and the concepts involved — to be briefly called conceptualization — somehow motivated by mathematical intuition, do not enjoy a merit of infallibility. This have to be checked as guesses which may fail, as is happens with some presages; hence their metaphorical name „oracles” as suggested by Turing. In this respect they resemble  empirical hypotheses being in need of testing. While in empirical teories hypotheses are tested with experiments, in computational science they are tested with their efficiency to produce right algorithms, and those, in turn — with their ability to be transformed into effective programs.

Thus the axioms of Boolean algebra produce, e.g., various algorithms to solve the problems of validity of propositional formulas, while those in turn, can be used to construct programs for automated theorem proving (the so-called provers).

Very interesting examples of testing such guesess can be found in the evolution of arithmetic. This, however, is a new subject, to be discussed in a next post. And still in another post one should consider thought-provoking analogies in problem-solving between mathematics and empirical sciences, e.g., astronomy.

Zaszufladkowano do kategorii Filozofia informatyki, Filozofia nauki | Otagowano , , | 4 komentarze

Dane, informacja, wiedza…

Niniejszy wpis jest pomyślany jako krótkie zagajenie dyskusji o związkach miedzy trzema pojęciami: danymi, informacją i wiedzą. Temat ten podejmowaliśmy już wcześniej, np. w ramach wpisu Informacyjna piramida, tutaj jednak wznowimy go — głównie z myślą o studentach wydziału WEiTI PW  (z którymi będziemy kontynuować dyskusję na żywo, podczas zajęć filozoficznych).

Zanim przejdziemy do dyskusji warto wyjaśnić, że w odpowiednio szerokim kontekście termin „informacja” rozumie się bardzo szeroko. Nawet tak szeroko, że zarówno dane, jak i wiedzę, utożsamia się z pewnymi postaciami informacji. Dla przykładu: informacje zawarte w podręcznikach akademickich to jakaś wiedza, a informacje przechowywane w pamięci komputerów to jakieś dane.

Tutaj jednak z tak szerokiego sposobu rozumienia informacji zrezygnujemy. Będziemy próbowali tak wyostrzyć nasz język, aby mimo wszystko rozróżnić informację i wiedzę, oraz informację i dane. W konsekwencji zaś będziemy chcieli nakreślić pewien obraz związków miedzy trzema wymienionymi pojęciami.
Informację tak zinterpretowaną umieścimy dodatkowo w kontekście czynności poznawczych ludzkiego umysłu. Będziemy zatem rozumieć ją jako coś, co gromadzą, przetwarzają i wykorzystują indywidualne umysły. (Co nie znaczy, że w dyskusji nie będziemy mogli wyjsć poza kontekst psychologiczny, np. w stronę komputerów!)

Intencje powyższe dobrze oddaje fragment szerszego TEKSTU, który proponuję uznać (i fragment, i cały tekst) za punt wyjścia dalszej dyskusji.

Oto ten fragment:

Z przyjętym tutaj rozumieniem przetwarzanych przez umysł informacji łączy się pewien metaforyczny obraz, który potraktuję dalej jako punkt wyjścia do omówienia związków między sferą informacji/wiedzy a sferą wartości. Obraz ten będę określał mianem informacyjnej piramidy.

Obrazek informacyjnej piramidy

Informacyjna piramida składa się z trzech poziomów, których układ odpowiada następującej obserwacji: przetwarzane przez umysł informacje są, z jednej strony, w określony sposób kodowane, a z drugiej strony, mogą stać się podstawą lub elementem podmiotowej wiedzy.

Zgodnie z tą obserwacją na najniższym poziomie piramidy sytuują się dane, czyli pewne niezinterpretowane łańcuchy symboli określonego kodu; nad nimi górują informacje, czyli dane zinterpretowane, wplecione jakoś w ludzką świadomość i mające określony sens; na informacjach z kolei nabudowuje się poziom wiedzy – czyli ogółu informacji zweryfikowanych przez podmiot, a więc dostatecznie dobrze dlań uzasadnionych.

Piramida obejmuje zatem trzy poziomy – I. dane, II. informację i III. wiedzę – które wspierają się na twardym gruncie faktów, a więc tego, co dzieje się w otaczającym naszą konstrukcję świecie. Wejście na poziom I. zapewnia zdolność rozpoznawania czysto fizycznych regularności w świecie (które są odzwierciedlane w danych);  do przejścia z poziomu I. na poziom II. jest niezbędna czynność interpretowania (danych); zaś z poziomu II. na III. – czynność weryfikacji czy też uzasadniania prawdziwości pozyskiwanych informacji.

Zauważyć trzeba, że granice między poszczególnymi segmentami piramidy pozostają rozmyte – choć dla potrzeb naszego wywodu warto je wyostrzyć. Na przykład: informacje pretendujące do roli wiedzy mogą być w różnym stopniu weryfikowane (wiele z nich sytuuje się zatem gdzieś pomiędzy czystą informacją a czystą wiedza), zaś o każdej danej powiedzieć można, że niesie ze sobą pewną informację (choćby taką, która wskazuje sposób jej automatycznego przetworzenia).

Przechodząc zatem do dyskusji….

Jak rozumiecie Państwo relacje w trójkącie <dane, informacja, wiedza>?
Co jest tu najważniejsze?
Co sprawia, że dane mogą przeobrazić się w informację, a ta ostatnia w wiedzę?
A może nasze trójczłonowe rozróżnienie trzeba jeszcze bardziej wysubtelnić i wprowadzić dodatkowe poziomy piramidy?
(…)

Serdecznie zapraszam do dyskusji – Paweł Stacewicz.

Zaszufladkowano do kategorii Bez kategorii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 13 komentarzy

Sztuczna Inteligencja. Czy mamy się czego bać?

Temat sztucznej inteligencji gościł na naszym blogu nie raz. Obecny głos możemy potraktować jako kontynuację dyskusji, którą zainicjował historyczny już wpis jednej ze studentek wydziału Fizyki PW. Polecam go jako lekturę wstępną

W niniejszej dyskusji proponuję skupić się na zagrożeniach ze strony SI: egzystencjalnych, społecznych, gospodarczych… (lista nie jest z pewnością zamknięta).

Na dobry początek przedstawiam próbkę spostrzeżeń i argumentów, które nadesłali w ubiegłym semestrze studenci wydziału WEiTI PW.

Oto ona:

1.  Sztuczna inteligencja (SI) rozwija się tak szybko, że według wybitnych badaczy, takich jak Stephen Hawking, już niedługo przewyższy człowieka. Jako następstwo ludzkość może przestać kontrolować poczynania sztucznej inteligencji i zostać zepchnięta na drugi plan (a nawet zniewolona czy fizycznie wyeliminowana).

2.  Bardzo poważnym zagrożeniem jest fakt, że SI może nie być w stanie określać takich samych środków do celu jak ludzie. Pomyślmy, na przykład, o autonomicznej broni, która nie zważając na straty  będzie dążyć do zniszczenia przeciwnika. Może np. ranić wielu niewinnych cywilów czy spowodować nieodwracalne zmiany w naturalnym środowisku.

3.  Dzięki niesamowitej produktywności i precyzji, przy relatywnie niskich kosztach „pracy”, sztuczna inteligencja już zastępuje ludzi w wielu zawodach, a w przyszłości może zastępować nas w większości prac. Grozi to globalnym bezrobociem.

4.  Także autonomiczne algorytmy, które już teraz zbierają o nas dane i wykorzystują je w celach marketingowych, mogą zostać rozwinięte do poziomu, w którym np. polityczna propaganda może być „zaszczepiana” w ogromnej części społeczeństwa i to ze znakomitym skutkiem. Również systemy kamer rozpoznające obywateli i przyznające im tzw. „noty społeczne” są jawną ingerencją w prywatność i wolność człowieka jako jednostki.

Zachęcam do uzupełnienia i rozwinięcia tych głosów…

Podejrzewam także, że są wśród nas osoby, które mają w stosunku do SI zdanie odmienne. To znaczy: widzą w SI nie jakieś mroczne zagrożenie, lecz cywilizacyjną szansę (potężną technologię, która może nam się dobrze przysłużyć).

Czekam zatem na głosy obydwu stron…

Zapraszam do dyskusji wszystkich Czytelników bloga — Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 37 komentarzy

W jaki sposób logika predykatów może być pomocna w badaniu języka naturalnego?

Przeczytałem z ciekawością streszczenie odczytu prof. Andrzeja Włodarczyka na seminarium 30 maja 2019. Z ciekawością, bo interesuje mnie żywo zjawisko interdyscyplinarności, a tekst tego odczytu pozwala dostrzec fakt, że interdyscyplinarność czy transdyscyplinarność (czy jest tu jakaś różnica?) nie jedno ma imię. Różne mogą być jej typy, a tekst prof. Włodarczyka reprezentuje wyraziście pewien określony typ. Nazwałbym go nowatorskim, podczas gdy moje amatorskie wycieczki w interdyscyplinarność mają charakter raczej konserwatywny.

Cechą postawy nowatorskiej jest m.in. pomysłowość w kreowaniu nowych terminów, bez których rozumienia nie jest możliwe, żeby słuchacz lub czytelnik mógł coś wnieść w rozwiązywanie postawionego przez Autora problemu. Co do mnie, mam trudność ze zrozumieniem już pierwszych zdań, gdzie występują terminy: aktywowane moduły, w rozproszeniu, enkapsulacja, architektura kanału komunikacyjnego, budowa lejowata.

Sądzę, że w pełnym tekście wszystko to się wyjaśni, ale nie jestem pewien, czy gdybym nawet terminy te zrozumiał, przyda mi się to w moich własnych rozmyślaniach o języku. Konserwatywnym punktem wyjścia w rozumieniu struktur językowych jest dla mnie rachunek predykatów pierwszego rzędu, a w/w terminy nie mają z nim związku.

Istnieją kolosalne i dobrze przećwiczone możliwości rozbudowy tego rachunku. Wśród nich są takie, które obiecująco go przybliżają do języka naturalnego, nad czym pracował np. Andrzej Grzegorczyk. Jeśli miałbym do Profesora jakieś pytanie dyskusyjne to właśnie to: jak ma się jego program do programu Grzegorczyka?

Zaszufladkowano do kategorii Filozofia nauki, Logika i metodologia | Otagowano , , | 6 komentarzy

Czy AlanTuring miał rację… gdy pisał o myśleniu maszyn i ludzi?

Czy Alan Turing miał rację, gdy:

a) utożsamił kryterium myślenia maszyn z nieodróżnialnością wypowiedzi językowych maszyn i ludzi,

b) utrzymywał i przekonywał, że nie jest dobrze uzasadniony pogląd jakoby „maszyny (cyfrowe) nie mogły myśleć„?

Pytania te – odnoszące do historycznego artykułu Alana Turinga pt. Maszyny liczące a inteligencja –  kieruję przede wszystkim, choć nie tylko!, do uczestników moich zajęć na wydziale WEiTI PW.

Gdyby ktoś zechciał ustosunkować się do pytania drugiego, proponuję, aby nie trzymał się kurczowo zaproponowanego przez Turinga kryterium myślenia (maszyn), lecz wziął pod uwagę także intuicyjne pojęcie myślenia – ukształtowane np. w drodze introspekcji (tj. wewnętrznej obserwacji własnych przeżyć psychicznych) czy też analizy warunków, które musi spełniać podmiot myślący (refleksyjny, rozumiejący, interpretujący, samoświadomy…).
Jest to uzasadnione, ponieważ sam Turing nie był tutaj konsekwentny. Pisząc o myśleniu maszyn, niekiedy powoływał się na swój behawioralny test (nazywany dziś testem Turinga), w innych fragmentach jednak uwypuklał pojęcia filozoficzne, tak jak dusza (niematerialna podstawa myśli) czy świadomość (dany w introspekcji, konieczny składnik myślenia).
Proponuję więc, abyśmy i my tutaj, w ramach zbliżającej się dyskusji, nie odrzucili całkowicie tego tego drugiego punktu widzenia.

Czekam zatem na kolejne głosy — które mogą oczywiście odnosić się do siebie wzajem, tworząc żywą dyskusję.

Pozdrawiam i zapraszam do debaty –- Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Epistemologia i ontologia, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 18 komentarzy

„Informatics” or „Computer Science”?

As for rendering the Polish phrase „Filozofia w Informatyce” in English,  I think that the translation „Philosophy of Informatics” is obvious (if it is expected to cover the real field of interests at our conferences). Perhaps, the issue is worth of some discussion, but without putting  too much effort; a concise exchange of opinions  within this blog should do.

To contribute to such an exchange, I suggest consulting the article:  https://en.wikipedia.org/wiki/Informatics#Etymology. There you find the explanation: „the field of informatics has great breadth and encompasses many subspecialties, including disciplines of computer science, information systems, information technology and statistics.”.

Now everybody, I believe, has to see that the translation „computer science” proves too narrow (restrictive). To the list of disciplines embraced by the term „informatics” there should be added relevant parts of mathematical logic, like the issues of computability (e.g., relative computability as depending from the power of axioms, inference rules etc.). Moreover, neoroinformatics (nearly 600.000 items in Google), some issues of genetics, of cognitive science, and so on.

Let me add the following definition from a German source, as the term „Informatik” has been coined by German scholars.

„Informatik — Wissenschaft von der systematischen Verarbeitung von Informationen, insbesondere mithilfe von Computern.”

This is to the effect that „Informatik” means: „science of systematic processing of messages, in particular [emphasis mine] with the help of computers.” Note, computers are here treated as distinguished but not the only means of information processing.

Zaszufladkowano do kategorii Filozofia informatyki, Filozofia nauki | Otagowano , , , | Jeden komentarz

What does „computing” mean?
A rejoinder to Dr. Paula Quinon

§1.  Dr. Paula Quinon has kindly shared with me the abstract of her recent work, titled  „What „computing” means?”  (see item 6 in References), and added some comments to more accurately explain her key ideas. Among the comments there was a link to S.Feferman’s paper „Turing’s 'Oracle’. From Absolute to Relative computability and Back.” (2016).

In that paper I find a passage which seems to me crucial from an epistemological point of  view, though it does not contain any direct references to philosophy. Before I quote and comment on it, let me express my personal attitude to some issues investigated by Ms. Quinon, and how I see their relation to the passage in question.

Frankly speaking, I am no expert in the issues of computing, and my interest in them is  rather, so to say, old-fashioned, going back to Kazimierz Ajdukiewicz’s project in the early 1960s, concerned with the justification of statements and decisions. The subject was discussed at the very impressive international conference in 1961, chaired by Ajdukiewicz, and at a Polish conference, meant like a general rehearsal of Polish participants before that important international meeting.

What I remember best from those events, it is Andrzej Grzegorczyk discussion on the intuitive reasons of accepting axioms in mathematical theories. How such intuitions might be scientifcally justified? This issue seemed then like a puzzle which nobody was ready to solve in the situation (in philosophy of logic and mathematics) at that time. Let us call it
Ajdukiewicz-Grzegorczyk problem.

According to my knowledge, only Hao Wang’s publications in the nineteen-nineties, born from his penetrative discussions with Gödel, are likely to shed some light at the methodological problem of justifying axioms. They are related to the distinction between absolute and relative solvability as considered by Feferman.

Let the fact of adding a new axiom to a theory be exemplified by the transition from arithmetic without the Axiom of Complete Induction — ACI (like, e.g., Presburger arithmetic) to the theory enriched with this axiom. This results in an enormous amplification of the scope of solvability. However, such a success cannot be a decisive argument for the truth of so extended theory. One’s clear intuitive apprehension of the ACI’s truth, as witnessed by what Gödel says about his personal experience of its obviousness, also cannot suffice. However, there does exist an intersubjective evidence for ACI, to wit the gigantic range of its successful applications in every domain of human activity — astronomy,
accounting, engineering etc. — the success experienced during the tens of centuries in each civilization.

§2. Now it is in order to pay attention to Turing’s idea of oracle as presented in the mentioned (above) study by Feferman entitled:  Turing’s 'Oracle’: From Absolute to Relative computability and Back. The respective passage (slightly by me abbreviated) runs as follows (emphasis by Feferman).

>>The subject of effective computability began with what were offered as analyses of the absolute limits of effective computability, the immediate primary aim was to establish negative  results of the effective unsolvability of various problems in logic and  mathematics.

From this the subject turned to refined classifications of unsolvability.  […] The germinal step, conceptually, was provided by Turing’s notion  of computability relative to an 'oracle’. At the hands of Post, this provided  the beginning of the subject of degrees of unsolvability, less directly provided by Turing’s notion, but mplicit  in it, were notions of uniform relative computability.<< Sec. 13.1, Introduction.

Turing  did not say much about the way in which an oracle works, but made a very significant  statement: that an oracle is no mechanical device, and that a machine equipped with that device can solve problems unsolvable for ordinary machines, lacking such a device. In other words, an oracle is able to find the value of an uncomputable function. More is said on the issue by Turing’s commentators like Andrew Hodges who offers convincing arguments that the decisions of an oracle are, in fact (in Turing’s intention) some acts of mathematical intuition. A similar stance has been taken by Roger Penrose. Thus, the amount of negative results diminishes with successive steps extending the scope of the solvability relative to an oracle. Now, as we know that the inventing of new, more powerful, systems of axioms is due to intellectual intuitions, and that axioms should be credited not only for their intutive obviousness, but much more for an immense number of successful applications, we attain at an answer to Ajdukiewicz-Grzegorczyk problem of the intuitive justification of axioms. This is to the effect that the intuition, being at the bottom of the process in question, proves its mettle by the fact the those axioms in which it has been expressed do successively pass the most severe exam of very differentiated and long-lasting applications.

§3. To conclude this part of discussion, let us observe that the interest in the idea of oracle, as involving the theory of grades of relative computability (solvability), is not confined to circle of speculative philosophers (to which belongs the present author). Presently it is found in the focus of highly technical discussions in mathematical logic. As well as in computer science; in the latter not only at the level of theoretical foundations, but also in the everyday practice. As testified by Feferman in the Conclusion of his penetrative study (Section 13.6.6):

>>The case had been made here that notions of relativized (as compared to absolute) computability theory are essentially involved in actual hardware and software design.<<

I made the above comment on some statements by Feferman, having been encouraged by the fact that his conribution was highly appreciated by Dr. Quinon. I am grateful for her message as when making use of it, I gained a new pespective in my thinking about computability.

In this perspective, I think that her research in the extensional equivalence and intensional differences between various treatments of Turingian model of computation should embrace the issue of the gradation of of relative computability; one may also say „relative solvability” for the former is a special case of the latter: computing is one of the ways of problem-solving.

Turings (1939) model of problem-solving makes more precise the notion of mathematical intuition, and then we can moce precisely put important questions, say: whether such an intuition can be obtained by artificial intelligence?

Now, when considering other theoretical models of computability (as those of Post, Church, Markov, Kleene, etc.), can we find in them an analog to relative computability as defined in terms of oracle? May be, the answer in the affirmative would be trivial, but I ask so being aware of my limited in that area expertise.

Another result which may be expected from Dr. Quinon’s inquiries is related to the question being the title of her abstract: „What „computing” means?” Should the notion of computing embrace the non-algorithmic activity performed by an oracle, namely that of finding the value (does it mean computing?) of an uncomputable function? If there is a puzzle in this question, what should be done to improve the terminology?

There would be more interesting issues inspired by  Quinon’s project,  but let those listed above suffice for the time being.

Recommended References

Items 1 and refer to the present author’s articles in which the concept of oracle is  discussed, fairly extensively, with quoting and commenting Turing’s (1939) texts. Note that in both titles there appears the phrase „ever higher solvability”  closely related to the notions of effective computability,  effective unsolvability and  relativized (as compared to absolute) computabilityas employed by Feferman (quotations in §1 and §2 and the title in §1).  Items 3 and 4 are concerned with the idea of oracle. Item  5 is related to that idea as dealing with Gödel’s theorem which can be used to exemplify Turing’s relative computability with respect to oracles.

1. „The progress of science from a computational point of view: the drive towards ever higher solvability” in: Foundations of Computing and Decision Sciences, Volume 44,  Issue 1, 2019, pp. 11-26.

2. „Does science progress towards ever higher solvability through feedbacks between insights and routines? ” in: Studia Semiotyczne,  XXXII no.2 (2018), pp. 153-185.

3.  A.M. Turing. „Systems of Logic Based  on Ordinals”. 1939. URL – local copy:  turing-1939.pdf.

4. Robert I. Soare.  Turing Oracle Machines, Online Computing, and Three Displacements in Computability Theory.  2009.  URL  – local copy:  soare.pdf.

5. Samuel R. Buss.  On Gödel’s Theorems on Lengths of Proofs I:
Number of Lines and Speedup for Arithmetics.  1992. URL  – local copy : god-buss.pdf.

6.  Paula Quinon. Abstract of the paper:  What computiong” means

The Church-Turing thesis identifies the intuitive concept of what means ˙to compute˙ with a formal model of computation. There are multiple models of computation and all of them can be proved to be extensionally equivalent (they capture the same functions, such as ˙identity˙, or ˙the next element of the sequence˙). However, despite the extensional equivalence, models differ intensionally (they capture different aspects of computation, for instance computations on abstract natural numbers are intensionally different from computations performed by a machine using concrete electric signals). The main objective of this project is to characterize intensional differences between various concepts of computation.

Postscript

When browsing  my notes  on solvability, I found a very illuminating remark by Gregory Chaitin. His phrase „intuition and creativity” may be interpreted as an exemplification of oracle,  while the infinite chain  of ever stronger axiomatic systems does resemble Turing’s ordering of logics.

Gödel’s own belief was that in spite of his incompleteness theorem there is in fact no limit to what mathematicians can achieve by using their intuition and creativity instead of  depending only on logic and the axiomatic method. He believed that any important mathematical question could eventually be settled, if necessary by adding new fundamental principles to math, that is, new axioms or postulates. Note however that this implies that the concept of mathematical truth becomes something dynamic that evolves, that changes with time, as opposed to the traditional view that mathematical truth is static and eternal.  See „Chaitin interview for Simply Gödel website” (9 February 2008).

Consider the phrase I have emphasised (through red type). Does the process of  „adding new fundamental principles” belong to the processes of computation? If so, which model of computation would explain the intuitive meaning of the a phrase like that? This is a question which seems to be implied by Quinon’s plan of comparing the existing explications of the term „computing”.

Zaszufladkowano do kategorii Bez kategorii, Epistemologia i ontologia | Otagowano , | 7 komentarzy

Jakie techniki obliczeniowe są przyszłością informatyki?

Niniejszy wpis kieruję przede wszystkim – choć nie tylko! – do uczestników moich zajęć na Wydziale Elektroniki i Technik Informacyjnych PW, pt. „Filozofia informacji i techniki”. Na kolejnym spotkaniu mamy dyskutować temat  technik obliczeniowych przyszłości. Umówiliśmy się, że osoby zapisane do dyskusji przedstawią swoje argumenty w blogu, w postaci osobnych komentarzy…

Czekając na pierwsze głosy, przedstawiam niżej – dla rozgrzewki i zachęty zarazem – krótką składankę argumentów, których używali studenci w roku ubiegłym.

Oto ona:

1. Pierwszą kwestią na jaką warto zwrócić uwagę jest fakt, że dzisiaj przy budowie tranzystorów, które stanowią konieczny element współczesnych komputerów cyfrowych, używa się krzemu. Naukowcy przewidują że do 2023 roku możliwości tego pierwiastka wyczerpią się i nie będziemy w stanie bardziej zmniejszyć układów, ponieważ będą nas ograniczały rozmiary elektronów.
W tym kontekście warto zauważyć, że często lepsze osiągi otrzymujemy nie dzięki rozwojowi hardware’u, lecz dzięki optymalizacji software’u. Dlatego, nawet kiedy wykorzystamy już całkowicie możliwości krzemu, mimo wszystko wciąż będziemy mogli z niego „wyciągnąć” więcej. Również za sprawą technik sztucznej inteligencji.

2. Jedną z najbardziej obiecujących technologii przyszłości, rozwijaną już dzisiaj, są komputery kwantowe. Pozwalają one na tysiące razy wydajniejsze przetwarzanie danych, ponieważ stosowane w nich q-bity (kwantowy odpowiednik bitów) mogą być jednocześnie w obu stanach (a w standardowych komputerach przyjmują tylko jeden stan).
Istnieje już IBM Q Experience – platforma online dająca każdemu dostęp do zestawu prototypów komputerów kwantowych IBM przez chmurę. Może być wykorzystywana do testowania algorytmów „kwantowych” czy innych eksperymentów.

3. Kolejne kilka technologii, o których wspomnę jest wymieniana jako jedne z możliwych technologii, które zastąpią komputery cyfrowe, jednak póki co są dalekie do jakiejkolwiek realizacji.
Pierwszą z nich są komputery oparte nie o przepływ elektronów, ale o przepływ światła. Jak wiemy światło osiąga największą prędkość we wszechświecie, czyli dałoby to możliwości zbudowania komputera o maksymalnej możliwej szybkości przesyłania sygnałów. Problemem jaki napotykamy jest to, że fotony nie mają masy i związane z tym problemy zbudowania czegoś podobnego do tranzystora w oparciu o światło.
Drugą ciekawą koncepcją jest zbudowanie komputera opartego o DNA. DNA posiada każdy organizm żywy, więc jeśli chodzi o zasoby to są one ogromne zwłaszcza, że może się ono odnawiać. Z pewnych opracowań naukowych wiadomo także, że za pomocą odpowiedniej manipulacji łańcuchami DNA udaje się rozwiązywać bardzo złożone problemy kombinatoryczne.
Kolejną ideą, która stanowi rozwinięcie powyższej, jest komputer biologiczny, którego i podstawowe elementy przetwarzające byłyby wzięte wprost z natury (np. byłyby to realne komórki nerwowe jakiegoś organizmu, np. szczura). Architektura takiego układu byłaby również wzorowana na naturze, np. przypominałaby architekturę mózgu.

Powyższe argumenty są oczywiście tylko „sygnałem wywoławczym”.
Czekam na głosy tegoroczne, równie ciekawe (i rozbudowane) jak powyższy miks.

Zapraszam do dyskusji WSZYSTKICH czytelników bloga — Paweł Stacewicz

Zaszufladkowano do kategorii Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 14 komentarzy

Czy komputery mogą zagrozić naszej cywilizacji?

Jakiego rodzaju zagrożenia może nieść ze sobą wynalazek, którego zaistnienie pchnęło cywilizację ludzką na zupełnie nowe tory? Tory, po których ruszyliśmy w przyszłość z iście zawrotną prędkością. Ku automatyzacji, robotyzacji, wirtualizacji, globalizacji… W stronę zupełnie nowej jakości życia i międzyludzkiej komunikacji.

A jednak… Coraz częściej słyszy się o komputerowych uzależnieniach: od gier, portali społecznościowych, internetowej pornografii… Coraz głośniej o programach i systemach, które z powodzeniem zastępują lekarzy, prawników czy doradców podatkowych, a tym samym wysyłają na bezrobocie  całe rzesze dobrze wykształconych specjalistów. Coraz śmielej przebijają się do ludzkiej świadomości wizje autorów science fiction, w których sztuczna inteligencja przejmuje władzę nad światem…

Czy mamy zatem się czego bać? Czy są jakieś istotne racje po temu, by postrzegać komputery, technologie informatyczne oraz  towarzyszące im zjawiska społeczne jako pewnego rodzaju zagrożenie? Czy stanowią one zagrożenie w skali cywilizacyjnej? Czy mogą przyczynić się do degeneracji, upadku, a może nawet całkowitego zniknięcia naszej cywilizacji?

Do podjęcia powyższych pytań zapraszam przede wszystkim –  ale nie tylko! – uczestników seminarium pt. „Społeczeństwo informacji i wiedzy”, które prowadzę  na wydziale WEiTI PW…

Przydatne w dyskusji lektury, w tym wybrane prezentacje studentów,  znajdują się na stronie:

♦   Społeczeństwo informacji i wiedzy

Zapraszam serdecznie do dodawania komentarzy, najlepiej odnoszących się do siebie wzajem, czyli dyskusyjnych.

Pozdrawiam i zapraszam – Paweł Stacewicz

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Światopogląd informatyczny, Światopogląd racjonalistyczny | 12 komentarzy

O różnych sposobach istnienia i nieistnienia liczb
Rozmyślanie noworoczne

Pomysł, żeby w filozofii matematyki i filozofii informatyki dyskutować o nieistnieniu liczb jest  inspirujący. Pojawił się on we wpisie  25.XII.2018 pt. „O nieistnieniu liczb w informatyce” podpisanym „Jarek”:  http://marciszewski.eu/?p=10032

Myślowym punktem wyjścia jest  dla Jarka słynne zdanie Leopolda Kroneckera (1823-1891):  Die ganzen Zahlen hat der liebe Gott gemacht, alles andere ist Menschenwerk (Miły Bóg stworzył liczby całkowite, wszystkie inne są dziełem ludzkim). Tę sentencję przytacza Jarek, zmieniając tylko zwrot „liczby całkowite” na „liczby naturalne”, z pożytkiem dla obecnych rozważań. Skupią się one bowiem na PA  (Arytmetyce Peano), a więc na liczbach naturalnych (czyli całkowitych dodatnich z uwzględnieniem zera).

Z liczbami naturalnymi związany jest też fakt, że  właśnie zaistniały Nowy Rok numerowany jest liczbą 2019, a taka numeracja bierze się z naszej potrzeby widzenia świata jako struktury dyskretnej. Kapitalnie ujął to Boy.

By uniknąć ambarasu
wzięto rok za miarę czasu,
dzieląc go bardzo wygodnie
ma miesiące i tygodnie.

Na pomysł udyskretnienia czasu wpadli ludzie. A co ma do tego dobry Bóg przywołany przez Kroneckera? Istotnie się do tego przyczynił, każąc ziemi okrążać bez przerwy słońce, co podsunęło ludziom dowcipny pomysł, żeby z jednego takiego okrążenia uczynić miarę czasu. A dalej poszło łatwo, bo za sprawą tegoż Astronomicznego Wynalazcy mamy noce i dnie, a dzięki Euklidesowi, Peano etc. mamy arytmetykę z dzieleniem (czego nie ma np.arytmetyka Presburgera), tak więc podzielono liczbę dni roku, żeby wyszły zgrabnie „miesiące i tygodnie”. Za dzielenie płacimy nierozstrzygalnością arytmetyki (czym nie musiał martwić się Presburger), ale to drobiazg w porównaniu z wygodą poruszania się w tak uładzonym czasie.

Dzięki refleksji nad kalendarzem i astronomią, możemy nadać sentencji Kroneckera uchwytne znaczenie: liczby naturalne istnieją przynajmniej w ten sposób, że są niezbędne do opisu świata,  np.  do mierzenia upływu czasu. Nie zmusza to nas do poglądu że istnieją w jeszcze innym sensie, np. na sposób platoński. Mogą krytycy Platona ubolewać nad fantastyką wiary w istnienie liczb, ale to nie zmieni faktu, że będziemy się nimi posługiwać, jak gdyby one w najlepsze istniały. Pragmatyście to wystarczy.

Zauważmy jednak, że segmentowanie czasu za pomocą liczb naturalnych jest pomysłem ludzkim, a tak naprawdę, to owe segmenty składają się z punktów. Wprawdzie ignoruje to sekundnik zegara (według niego sekunda jest odcinkiem czasu), ale nie wszystko w przyrodzie pozwala ignorować punktowość. Nie pozwala m.in. mechanika, gdzie przyspieszenie jest pochodną prędkości względem czasu rozumianego jako zbiór punktów, a te są reprezentowane arytmetycznie przez liczby rzeczywiste. Mamy więc dobry powód  do zachowywania  się w sposób analogiczny jak w przypadku liczb naturalnych. Według pragmatysty usprawiedliwia to praktykę stosowania kwantyfikatora egzystencjalnego do zmiennych,  które  się odnoszą do liczb rzeczywistych. Jeśli nominalista się z tym nie zgadza, to niech składa skargę do Trybunału Rzeczywistości.

*** 9 stycznia 2019 ***

W miejscu do gwiazdek przerwałem 1-go stycznia pisanie, zapowiadając, że ciąg dalszy nastąpi. Żeby to zrealizować, uznałem, że trzeba w poszukiwaniu argumentów staranniej niż dotąd wniknąć w opublikowane wpisy i komentarze.  Zaczynam od  wpisu rejestrującego wymianę zdań między SP i Harrym, która zainicjowała dalszą dyskusję. Otwiera ją głos Pawła Stacewicza.

[PS] „W mojej opinii, zarówno pojęcie liczby, jak i pokrewne mu pojęcie kodowania liczbowego (tj. zapisywania danych przetwarzanych przez komputery za pomocą liczb), jest w metodologii i filozofii informatyki niezbędne.”

Zdziwiło mnie trochę zastrzeżenie „w mojej opinii” dotyczące przecież poglądu wielce umiarkowanego („niezbędne”, a nie np. „fundamentalne”), którego oczywistość leży jak na dłoni. Skąd miałaby się brać różnica opinii? A jednak… Zabrał głos Harry,  wyznając, że owa opinia „nie bardzo go przekonuje”. Posłuchajmy.
[H] „Ten sam problem pojawia się bowiem na poziomie metateoretycznym: czy na pewno reprezentacja matematyczna jest niezbędna w informatyce teoretycznej?   Jeśli tak, to dlaczego?

Mimo użycia słowa „bowiem”, passus ten , złożony tylko z pytań, nie daje jeszcze
uzasadnienia.  Pojawia się ono po replice PS-a, która przywołuje takie oczywistości, jak nieodzowność w informatyce koncepcji maszyny Turinga, także nieodzowność arytmetycznego pojęcia funkcji rekurencyjnej, a także rola nieskończonych  reprezentacji liczb nieobliczalnych. Harry odpowiada.

[H] „Nie do końca mnie zrozumiałeś. Chodzi mi o matematyczność w wąskim sensie, związanym z teorią liczb. W tym sensie maszyny Turinga i algorytmy nie są obiektami matematycznymi. Są właśnie obiektami typowo informatycznymi, w opisie których nie posługujemy się (lub ostrożniej: nie musimy posługiwać się) 'językiem liczb’.”

Nerw argumentacji jest w ostatnim zdaniu.  Zdaje się zeń wynikać,  że  możliwy jest  opis maszyny Turinga,  w którym  nie wystąpiłyby ani razu słowa  „liczba” i  funkcja”,  ani jakieś konkretne liczby (a jest ich de facto mnóstwo, np. numery kodowe poszczególnych maszyn Turinga, nieskończone ciągi zer i jedynek w  argumencie przekątniowym etc.). Takie dokonanie — pokazanie zbędności  arytmetyki w informatyce — byłoby rewelacją na miarę osiągnięć samego Turinga.

Powyższa wypowiedź  tym bardziej godna jest uwagi, że powołuje się na pewien wynik, który Harry zdaje się uważać za sukces porównywalny z tym,  jakim byłoby owo sparafrazowanie wyników Turinga bez używania słowa „liczba” i nazw  konkretnych liczb. Tym przywołanym przezeń wynikiem jest A.Grzegorczyka dowód nierozstrzygalności zainicjowanej przez Tarskiego teorii konkatenacji, mianowicie dowód, który się obywa bez aparatu pojęciowego arytmetyki („Undecidability  without arithmetization” w „Studia Logica”, 1(79):163?230, 2005).

Ten punkt argumentacji  stanowi istotny wkład do dyskusji. Wskazuje bowiem  pewien wzorzec pomocny w szukaniu drogi, na jakiej należałoby bronić poglądu, że informatyka nie potrzebuje pojęcia liczby i, w ogólności, arytmetyki. Mianowicie, należałoby zastosować teorię konkatenacji, lub jakąś inną też nie posługującą się pojęciem liczby, żeby powtórzyć na innej drodze wynik Turinga, to jest: dać definicję funkcji obliczalnej i wykazać istnienie liczb nieobliczalnych, ale bez mówienia o liczbach.

Nim ktoś się podejmie takiego zadania, niechby jako zadatek dał krótką zapowiedź tego,  jak zamierza oddać tytuł przełomowego studium Turinga (1936) „ON COMPUTABLE NUMBERS, WITH AN APPLICATION TO THE ENTSCHEIDUNGSPROBLEM” bez użycia słowa „number”.

Dzięki powyższej sugestii, mogę z czystym sumieniem zaprzestać udziału w tej  żywej dyskusji (3 wpisy i 43 komentarze). To znaczy, mogę z pozycji aktywnej przejść do „spocznij”. I spokojnie czekać, aż Harry lub inny obrońca tezy o zbędności pojęcia liczby w informatyce opublikuje pracę, która (powtarzam): dostarczy definicji funkcji obliczalnej oraz dowodu istnienia liczb nieobliczalnych, bez posługiwania się aparatem pojęciowym arytmetyki.

O ile to się komuś uda, wrócę do obecnej dyskusji. Ale już po to tylko, żeby samokrytycznie wyznać, że błądziłem, uważając takie przedsięwzięcie za nierealne.

Zaszufladkowano do kategorii Epistemologia i ontologia, Filozofia informatyki, Filozofia nauki | Otagowano , , , , , , | 12 komentarzy