Analogicity in Computer Science

I would like to invite everyone to discuss another text that has been submitted to the international workshop „Computational Modeling II” (organized in Cracow, on 11.03.2019, at the UPJPII University).

The whole text is available HERE.

The text, enriched with some new elements by Paula Quinon, is an extract from two articles by Paweł Stacewicz: 1) „On different meanings of analogicity in computer science” (already published in Polish, in the journal „Semina Scientiarium”), 2) „Analogicity in Computer Science. A Methodological Analysis” (submitted and currently reviewed in the journal „Studies in Logic, Grammar and Rhetoric”).

Therefore it is not a fully original work.

Nevertheless, we decided to submit it for discussion, because we are now working on a new publication devoted to analog/continuous computations, and all additional critical input, and each additional discussion will be for us very precious.

Thus, we will be grateful for any comments that may contribute both: the improvement of the text no. 2 (which still is in the reviewing process), and the development of our new ideas.

To encourage you to read the whole text, we put two representative passages below:

Two basic (general) meanings of analogicity
Regardless of the (technical) aspect that is considered in contemporary computer science there exist two different (yet not necessarily separate) ways of understanding analogicity.
The first meaning, we shall call it AN-A, refers to the concept of analogy. It acknowledges that analog computations are based on natural analogies and consist in the realisation of natural processes which, in the light of defined natural theory (for example physical or biological), correspond to some mathematical operations. Metaphorically speaking, if we want to perform a mathematical operation with the use of a computational system, we should find in nature its natural analogon. It is assumed that such an analogon simply exists in nature and provides the high effectiveness of computations. The initial examples of AN-A techniques (that will be developed later) are: the calculation of quotient using the Ohm’s law (an illustrative example) or the integration of functions using physical integrators (a realistic example).
The second meaning, we shall call it AN-C, refers to the concept of continuity. Its essence is the generalisation (broadening) of digital methods in order to make not only discrete (especially binary) but also continuous data processing possible. On a mathematical level, these data correspond to real numbers from a certain continuum (for example, an interval of a form [0,1]), yet on a physical level – certain continuous measurable variables (for example, voltage or electric potentials).
In a short comment to this distinction, we would like to add that the meaning of AN-A has, on the one hand, a historical character because the techniques, called analog, which consisted in the use of specific physical processes to specific computations, were applied mainly until the 1960s. On the other hand, it looks ahead to the future – towards computations of a new type that are more and more often called natural (for example, quantum or computations that use DNA). The meaning of AN-C, by contrast, is more related to mathematical theories of data processing (the theoretical aspect of computations) than to their physical realisations. Perhaps, it is solely a theoretical meaning that, in practice, is reduced to discreteness/digitality (wedevelop this subject in section 2.2) due to physical features of data carriers.
Additionally, it is important to note that analogousness does not exclude continuity. This means that both continuous and discrete signals can be processed as analogons. Therefore, the above-differentiated meanings are not completely opposed.

The physical realisation of continuous (hyper)computations
Another methodological issue is related to analog computations in the sense of AN-C, that is continuous. Theoretical analyses indicate that computations of this type – described, for example, with the use of a model of recursive real-valued functions – have the status of hypercomputations. This means that they allow solving problems that are out of reach for digital techniques which are formally expressed by the model of universal Turing machine. One of such problems is the issue of solvability of diophantine equations.
Although the theory of continuous computations does predict that they have higher computational power than digital techniques, the important question about practical implementability of continuous computations arises. That is to say: if the physical world, the source of real data carriers and processes to process data, was discrete (quantised), we would never be able to perform any analog-continuous computations.
The question about the separateness of the mind (or even the mind-brain understood as a biological system) from the physical world, to which real digital automaton belong, is related to this issue. Perhaps the fact that the mind’s computational power is higher than the power of digital machines – which, according to some people, is proven by the observed ability of the mind to solve intuitively difficult mathematical problems – can be justified with the continuity of mental sphere (or even the continuity of nervous system).

Once again, we invite everyone to discuss our text — Paula Quinon & Paweł Stacewicz.

Zaszufladkowano do kategorii Epistemologia i ontologia, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 4 komentarze

Invention, Intension and the Extension of the Computational Analogy

The current entry is part of the Research Workshop titled „Computational Modelling„, which will be held on 11.03.2019 in Cracow, at John Paul II University. It concerns the text by Professor Hajo Greif on the possibility of computational realization of such human cognitive abilities like intuition and invention.

I would like to invite to the blog discussion not only the workshop participants, but all interested readers of the blog.
Of course, Hajo Greif will be present at the workshop and available for face-to-face discussion of his paper.

The whole text can be read HERE.

Below, however, I put a short abstract of the article and slightly longer final remarks.

Abstract.
This short philosophical discussion piece explores the relation between two common assumptions: first, that at least some cognitive abilities, such as inventiveness and intuition, are specifically human and, second, that there are principled limitations to what machine-based computation can accomplish in this respect. In contrast to apparent common wisdom, this relation may be one of informal association. The argument rests on the conceptual distinction between intensional and extensional equivalence in the philosophy of computing: Maintaining a principled difference between the processes involved in human cognition, including practices of computation, and machine computation will crucially depend on the requirement of intensional equivalence. However, this requirement was neither part of Turing’s expressly extensionally defined analogy between human and machine computation, nor is it pertinent to the domain of computational modelling. Accordingly, the boundaries of the domains of human cognition and machine computation might be independently defined, distinct in extension and variable in relation.

Concluding remarks.
I have no proof or other formal conclusion to end on but merely one observation, a morale, another observation and yet another morale: First, the relation between the limits of computation and the limits of human inventiveness remains an open question, with each side of the equation having to be solved independently.
       Second, it will be worthwhile to expressly acknowledge and address the relation between human and machine abilities as an open question, and as multifaceted rather than as a strict dichotomy. Any possible decision for one position or another will have rich and normatively relevant implications. On most of the more tenable accounts outlined above, the domains of human cognition and machine computation will be distinct in kind and extension, but this will be not a matter of a priori metaphysical considerations but of empirical investigation and actual, concrete human inventions.
     Third, whatever the accomplishments of AI are and may come to be, intensional equivalence is not going to come to pass. In fact, several of the classical philosophical critiques of AI build on the requirement that the same cognitive functions would have to be accomplished in the same way in machines as in human beings for AI to be vindicated. Even if questions of AI are not involved, different kinds of computing machines – for example analog, digital and quantum computers – might provide identical solutions to the same functions, but the will do so in variant ways. Hence, intensional equivalence will remain out of reach here, too.
     Fourth, intensionality is an interesting and relevant concept in mathematics and partly also in computing, to the extent that one is concerned with the question of what mathematical objects are to human beings (which was the explicit guiding question for Feferman 1985). However, intensional equivalence might prove to be too much of a requirement when it comes to comparing realisations of computational processes in human beings and various types of machines. Extensional equivalence will have to suffice. It might become a more nuanced concept once we define the analogies involved with sufficient precision and move beyond the confines of pure Turing-computability. After all, Turing’s computer analogy builds on extensional equivalence between human and machine operations. This kind of equivalence and its possible limitations are essential to the very idea of computer modelling. This leaves open the possibility of other relations of extensional equivalence to hold between different types or levels of systems, computational or other.

I cordially invite you to a discussion in which we can refer both to the details of Professor Greif’s argumentation and to some general issues that constitute the philosophical background of the article.

Here are three examples of these issues:

1) What is extensional and intensional equivalence in the theory of computation, with particular respect to comparisons between computing machines and the human mind?

2) Do we have good reasons to believe that the mind is not extensionally equivalent to a digital computer (with potentially unlimited resources)?

3) What is the relationship between human intuition and inventiveness?

Once again, I warmly encourage everyone to discuss — Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Epistemologia i ontologia, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 5 komentarzy

Granice rozumienia z perspektywy „filozofii in silico”

Niniejszy wpis przygotowałem w imieniu Pana Konrada Maślenickiego, który jest wieloletnim czytelnikiem i komentatorem naszego bloga, piszącym pod pseudonimem k-m.

Zgodnie z tytułem wpis dotyczy „filozofii in silico”,  a zatem – o ile dobrze rozumiem – pewnego projektu uprawiania filozofii metodą informatyczną, tj. z wykorzystaniem pojęć, narzędzi i modeli informatycznych, takich np. jak sztuczne sieci neuronowe (SSN). Ponieważ filozofia tego rodzaju, musi mieć u swoich podstaw informatyczny światopogląd, tym chętniej witamy niniejszy wpis w Cafe Aleph.

Za przedmiot swoich rozważań autor obrał rozumienie i znaczenie – pojęcia, które od stuleci spędzają sen z oczu wszystkim niemal filozofom.

Co to znaczy rozumieć coś?
Jak dochodzi do zrozumienia czegoś?
Co w przypadku człowieka jest podstawą nadawania, rozumienia i uzgadniania znaczeń?
Co wspólnego mają z tymi zagadnieniami sztuczne sieci neuronowe?

Oto próbka pytań, które autor stawia w przesłanym tekście.

Aby zachęcić do jego przeczytania, wklejam niżej fragment zawierający niektóre argumenty i konkluzje.

4.  Z dwóch „stron” zależności definiującej znaczenie (i rozumienie) pojęć mamy zatem:
a. sposoby regularnego użycia pojęcia w określonych okolicznościach
b. prawidłowości w odpowiadających tym okolicznościom stanach/przetwarzaniem w fizycznych strukturach neuronalnych mózgu
i to korespondencja pomiędzy a i b określa znaczenia – w sposób, który trudno odwzorować w definicji, w „tradycyjny” dla formalnych systemów sposób.

Reasumując dotychczasowe rozważania: Modele (in silico) filozofii funkcjonujące bez modelu procesów, w ramach których realnie realizują się procesy rozumienia (znaczeń), nie odzwierciedlą realnego znaczenia przetwarzanych pojęć, przez co w rzeczywistości nie rozjaśniają filozoficznych kwestii.

5.  Nie ma powodu zakładać, że swoista „formalizacja” (czy wręcz model cyfrowy) w ogóle nie jest możliwa. – Wymaga ona jednak wprowadzenia właściwej architektury. Programiści licząc na rewolucyjny postęp mądrości (filozoficznej) nie powinni liczyć na modele „transparentne poznawczo” – a winni starać się odwzorować procesy fundujące znaczenie z obu stron w/w (punkt 4) korespondencji.
Musieliby opracować model trafnie odzwierciedlający „w działaniu”:
– charakter równoległego i rozproszonego przetwarzania (generującego ludzkie intuicje, przeświadczenia itd.) zapewniając zastosowanie układów o odpowiedniej architekturze („rozproszenie” i równoległe przetwarzanie jak w SSN)
– i to jak oryginał (ludzki mózg) był programowany: w procesach ewolucji naturalnej oraz w ramach Wittgenstein’owskich rozgrywek słownych (w rozumienie) – umożliwiając wirtualną ewolucję systemów sterujących cyfrowymi bytami w warunkach konkurencji o przetrwanie, a w szczególności zawierając możliwość ogrywania rezultatów działań w/w SSN w dziedzinie sterowania cyfrowymi ustrojami na polach gry odpowiadających (co do istotnych własności) okolicznościom, które określiły przetrwanie naszych przodków.
Wtedy moglibyśmy stworzyć cyfrowy model „trafnego” rozumienia, w którym dostępne byłyby wszelkie komponenty pozwalające uruchomić (w jego ramach) „program” dowolnej teorii filozoficznej.
Filozofia (nawet „in silico”) pozostałaby jednak nadal mętna/zawikłana logicznie i „nieprzejrzysta poznawczo”: jeśli model rozumienia ma trafnie uwzględniać wszelkie definiujące ‘znaczenie’ elementy, to ludzkie zrozumienie polegnie wobec gąszczu równoległych uwarunkowań systemu (nawet jeśli będzie on złożony z funkcjonujących ze ścisłą koniecznością „cegiełek”) , który odznaczać się powinien złożonością równoważną „oryginalnym systemom niosącym znaczenie” – aby zapewnić podobną zdolność zrozumienia.

Gorąco zachęcam do dyskusji, przed którą warto przeczytać cały tekst – w wersji skróconej albo rozszerzonej.

Oto niezbędne linki:

♦  Granice rozumienia…wersja skrócona
♦  Granice rozumienia…wersja rozszerzona

Otwieram zatem dyskusję nad tekstem Pana Konrada Maślenickiego…

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 12 komentarzy

Czy maszyny mogą stać się prawdziwie inteligentne?

O tym, że sztuczna inteligencja istnieje – z naciskiem na odnoszące do informatyki słowo „sztuczna” – nie trzeba nikogo przekonywać.
Istnieje ona pod postacią zaawansowanych programów komputerowych, które potrafią rozpoznawać złożone obiekty (np. ludzkie twarze), prowadzić niezawodne wnioskowania (np. matematyczne) i uczyć się w interakcji z otoczeniem (co czynią np. sztuczne sieci neuronowe)…

W tytule obecnego wpisu widnieje jednak termin „prawdziwa inteligencja”, który należałoby odnieść do najbardziej wyrafinowanej formy inteligencji, jaką znamy z natury, a więc inteligencji ludzkiej.
Czy maszyny mogą zatem dorównać ludziom – o których wiemy, że nie tylko potrafią coś automatycznie rozpoznać czy mechanicznie wywnioskować, ale niemal zawsze, z natury rzeczy, czynią to ze zrozumieniem. Mało tego, nie na tym tylko polega ich siła, że rozwiązują problemy, lecz na tym, że je dostrzegają i stawiają.

Podobną dyskusję prowadziliśmy już wcześniej, pod nagłówkiem Turing czy Searle?, odwołując się zatem do poglądów dwóch pionierów debaty nad hipotetycznym myśleniem maszyn.

Obecna dyskusja może iść zarówno tym dawnym tropem, jak też poruszać nowe wątki.
Podobnie jak poprzednio jej podstawą proponuję uczynić arcyciekawy tekst Turinga, w którym znajdziemy ideę testu na inteligencję maszyn (tzw. testu Turinga), popularny opis pierwszych maszyn cyfrowych oraz różne argumenty na rzecz możności zaistnienia maszyn inteligentnych (szerzej: myślących).
Właśnie do tych argumentów, zawartych w szóstym rozdziale artykułu, proponuję tutaj nawiązywać.

Podaję link do wspomnianego tekstu:
♦   Alan Turing: „Maszyny liczące a inteligencja”.

I otwieram nową dyskusję, licząc na ciekawe i wchodzące w żywą interakcję głosy…

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 41 komentarzy

Która z nauk wpływa najsilniej na współczesny światopogląd?

Obecny wpis został zainspirowany bardzo ciekawą dyskusją, którą odbyliśmy kilka tygodni temu na Politechnice Warszawskiej w ramach przedmiotu „Nauka a światopogląd”.
Jako że nasz blog – zgodnie z hasłem widocznym pod jego tytułem, proszę zerknąć wyżej :) – ma służyć „promocji” światopoglądu informatycznego, liczyłem na to, że niektórzy przynajmniej dyskutanci, wskażą informatykę jako naukę ważną światopoglądowo.

Nic takiego jednak się nie stało :).
Studenci wymieniali raczej nauki (dyscypliny) humanistyczne, z rzadka tylko odnosząc się do nauk przyrodniczych czy ścisłych.

Oto jeden z silnie reprezentatywnych głosów:

Moim zdaniem nauki prawne najsilniej wpływają na światopogląd współczesnego człowieka. Prawo reguluje wszystkie dziedziny życia jednostki, zasady życia społecznego, politycznego, a także gospodarczego, co powoduje, iż społeczeństwo tworzy własny system wartości, norm i opinii, który składa się na pojęcie światopoglądu człowieka. Chciałabym podkreślić, że ma to znaczenie uniwersalne, czyli dotyczy to wszystkich zbiorowości świata, pomimo że systemy norm prawnych poszczególnych państw znacznie różnią się między sobą, to zawsze zachodzi zjawisko wpływu wskazanej dziedziny na światopogląd współczesnego człowieka. Liczne prawa, wolności, obowiązki, zakazy oddziałują na przekonania jednostki, gdyż określają jakie zachowanie jest dobre bądź złe.

Inne osoby punktowały historię, ekologię, medycynę, biologię…
Niektórzy odżegnywali się od nauk, wskazując religię.

Nie tracąc nadziei, że ktoś doceni światopoglądową rolę informatyki, a razem z nią algorytmów, komputerów, technologii cyfrowych, rzeczywistości wirtualnej, badań nad sztuczną inteligencją…. otwieram dyskusję.

A zatem:

Która z nauk, Państwa zdaniem, wpływa najsilniej na światopogląd współczesnego człowieka?

Być może rozpocznie ktoś ze studentek/ów…

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 10 komentarzy

Informacja w ujęciu obliczeniowym. Dyskusja wokół tekstu Giuseppe Primiero.

Chciałbym wywołać luźną dyskusję nad tekstem Giuseppe Primiero, który w ramach swojej wizyty badawczej na PW (listopad 2019) omawiał między innymi zagadnienie wskazane w tytule obecnego wpisu.

Podstawą dyskusji chciałbym uczynić: a) artykuł naukowy prof. Primiero, oraz b) slajdy do jego wykładu, wygłoszonego na wydziale WEiTI PW.
Być może przydatne okażą się także moje slajdy, w których prezentuję podobne zagadnienia, choć z nieco innej perspektywy.

Dobrym streszczeniem koncepcji omawianej w źródłach a i b (czyli podstawowych) jest następujący obrazek:

Obrazek informacyjnej piramidy

Widzimy na nim 5 warstw abstrakcji (ang. layers of abstractions), które dotyczą informacji w ujęciu obliczeniowym. Na warstwie najniższej (u góry rysunku) informację utożsamia się z układem fizycznych (elektrycznych) stanów maszyny, które są kontrolowane za pomocą struktur określonych na wyższych warstwach. Na warstwie najwyższej (u dołu) informację rozumie się jako – właściwie jest to kwestia do dyskusji – konfigurację mentalnych stanów projektanta systemu obliczeniowego, który to projektant „ma w swojej głowie” reprezentację pewnego problemu do rozwiązania, żywi intencję jego rozwiązania oraz, co najważniejsze, zna ogólny sposób rozwiązania. Ów sposób jest rozpisywany/implementowany na kolejnych warstwach… jako algorytm, program, a następnie maszynowy kod.
W moim odczuciu, w obrębie wszystkich warstw, informacja jest rozumiana jako relacja pomiędzy wejściem i wyjściem, czy też między danymi wejściowymi i danymi wyjściowymi – choć w tekście Giuseppe Primiero nie znajdziemy wprost takiego określenia. Z tego względu informacja jest tutaj czymś dynamicznym, algorytmicznym, obliczeniowym… jest wprawdzie pewną strukturą, ujmowaną na różnych poziomach w różny sposób, ale strukturą relacyjną, warunkującą działanie (action, operation, problem solving itp).

W powyższym skrótowym opisie, podzieliłem się z Państwem własną interpretacją koncepcji prof. Primiero, którą to interpretację poddaję, rzecz jasna, pod dyskusję.
Poddaję pod dyskusję również kilka innych zagadnień, które nasunęły mi się podczas lektury zalinkowanych wyżej źródeł.
Oto one:

1) Która z warstw wskazanych na rysunku wydaje się Państwu, z punktu widzenia informatyki, najważniejsza?

2) Czy wszystkie warstwy są równie istotne dla ujęcia istoty informacji/danych? Na przykład: czy trzech warstw wewnętrznych (kod maszynowy, program, algorytm) nie należałoby „zwinąć” do postaci jednej, algorytmiczno-programistycznej, warstwy?

3) Czy przedstawione ujęcie nie zamazuje różnicy między danymi (również strukturami danych) i algorytmami? Czy ujęcie to, poprzez utożsamienie informacji z czymś algorytmicznym (relacyjnym, regułowym, dynamicznym), nie postuluje jednak, że najważniejszym pojęciem informatyki jest algorytm, a nie informacja?

4) Czy do przedstawionego zestawu warstw nie należy czegoś dodać, np. warstwy modelu obliczeń, na której moglibyśmy rozróżnić (w ujęciu matematycznym) różne elementarne sposoby kodowania/zapisywania danych (np. w przypadku układów analogowych mamy kod ciągły, a w przypadku cyfrowych – dyskretny)?

Oczywiście, jak zwykle, można stawiać inne jeszcze pytania i próbować na nie odpowiadać.
Najlepiej w interakcji z innymi, :).

Z niecierpliwością czekam na pierwsze głosy – Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 25 komentarzy

Techniki obliczeniowe przyszłości…

Obecny wpis stanowi kolejną odsłonę tematu, które dyskutowaliśmy w blogu już kilkukrotnie. Ostatnią dyskusję — potraktujmy ją jako zakończoną i nowe komentarze dodawajmy już tutaj — można przeczytać w tym miejscu.

Tegoroczny wpis kieruję przede wszystkim – choć nie tylko! – do uczestników moich zajęć na Wydziale Elektroniki i Technik Informacyjnych PW, pt. „Filozofia informacji i techniki”; zwłaszcza tych uczestników, którzy zapisali się do dyskusji online, i zobowiązali się przedstawić swoje wstępne argumenty w postaci osobnych komentarzy do tego wpisu…

Czekając na pierwsze głosy, przedstawiam niżej – dla rozgrzewki i zachęty zarazem – krótką składankę argumentów, których używali studenci w latach ubiegłych.

Oto ona:

1. Pierwszą kwestią na jaką warto zwrócić uwagę jest fakt, że dzisiaj przy budowie tranzystorów, które stanowią konieczny element współczesnych komputerów cyfrowych, używa się krzemu. Naukowcy przewidują że do 2023 roku możliwości tego pierwiastka wyczerpią się i nie będziemy w stanie bardziej zmniejszyć układów, ponieważ będą nas ograniczały rozmiary elektronów.
W tym kontekście warto zauważyć, że często lepsze osiągi otrzymujemy nie dzięki rozwojowi hardware’u, lecz dzięki optymalizacji software’u. Dlatego, nawet kiedy wykorzystamy już całkowicie możliwości krzemu, mimo wszystko wciąż będziemy mogli z niego „wyciągnąć” więcej. Również za sprawą technik sztucznej inteligencji.

2. Jedną z najbardziej obiecujących technologii przyszłości, rozwijaną już dzisiaj, są komputery kwantowe. Pozwalają one na tysiące razy wydajniejsze przetwarzanie danych, ponieważ stosowane w nich q-bity (kwantowy odpowiednik bitów) mogą być jednocześnie w obu stanach (a w standardowych komputerach przyjmują tylko jeden stan).
Istnieje już IBM Q Experience – platforma online dająca każdemu dostęp do zestawu prototypów komputerów kwantowych IBM przez chmurę. Może być wykorzystywana do testowania algorytmów „kwantowych” czy innych eksperymentów.

3. Kolejne kilka technologii, o których wspomnę jest wymieniana jako jedne z możliwych technologii, które zastąpią komputery cyfrowe, jednak póki co są dalekie do jakiejkolwiek realizacji.
Pierwszą z nich są komputery oparte nie o przepływ elektronów, ale o przepływ światła. Jak wiemy światło osiąga największą prędkość we wszechświecie, czyli dałoby to możliwości zbudowania komputera o maksymalnej możliwej szybkości przesyłania sygnałów. Problemem jaki napotykamy jest to, że fotony nie mają masy i związane z tym problemy zbudowania czegoś podobnego do tranzystora w oparciu o światło.
Drugą ciekawą koncepcją jest zbudowanie komputera opartego o DNA. DNA posiada każdy organizm żywy, więc jeśli chodzi o zasoby to są one ogromne zwłaszcza, że może się ono odnawiać. Z pewnych opracowań naukowych wiadomo także, że za pomocą odpowiedniej manipulacji łańcuchami DNA udaje się rozwiązywać bardzo złożone problemy kombinatoryczne.
Kolejną ideą, która stanowi rozwinięcie powyższej, jest komputer biologiczny, którego i podstawowe elementy przetwarzające byłyby wzięte wprost z natury (np. byłyby to realne komórki nerwowe jakiegoś organizmu, np. szczura). Architektura takiego układu byłaby również wzorowana na naturze, np. przypominałaby architekturę mózgu.

Powyższe argumenty są oczywiście tylko „sygnałem wywoławczym”.
Czekam na głosy tegoroczne, równie ciekawe (i rozbudowane) jak powyższy miks.
Zachęcam też, aby komentarze odnosiły się do siebie wzajem, tworząc żywą dyskusję.

Zapraszam do dyskusji WSZYSTKICH czytelników bloga — Paweł Stacewicz

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 10 komentarzy

On analogy between the role of conceptualization in computational and in empirical hypothesizing

In the Abstract of Prof. Primiero’s lecture „Computational Hypotheses and Computational experiments” (at Warsaw University of Technology, November 19, 2019) I found the following, much thought-provoking claim; let it be called PC (Primiero’s Claim).

PC: The analogy between the scientific method and the problem-solving process underlying computing still is a tempting proposition.

This is a strong temptation, indeed. I am one who did succumb to it. This is due to my vivid interest in Turing’s [1939] idea of oracle as discussed in my paper „The progress of science from a computational point of view: the drive towards ever higher solvability” — in the journal Foundations of Computing and Decision Sciences, 2019 (Vol.44, No.1) — Section 4 dealing with Turing’s [1939] idea of oracle.

What is there said seems to provide some premises to discuss the analogy claimed by PC. To wit, that similar rules control the problem solving-processes (hence a progress of science) in empirical sciences and those called by Prof.Primiero computational sciences. It seems to me (a point for discussion) that the latter term can be conceived as equivalent with what is called „decision sciences” (see the quoted journal’s title), i.e., theories of decidability (to be called computability as well).

A crucial Turing’s (1939) claim concerning decidability in mathematics (see quotations by Marciszewski 2019), which continues his revolutionary result of 1936/37 (on the existence of uncountable numbers), is the following. When there is a problem undecidable at a given evolutionary stage of axiomatized and formalized theory, it can prove solvable with inventing
appropriate new axioms. Those, in turn are due to a creative concept-forming  to be involved into the axioms, and so expressed by primitive terms of the theory in question.

Such an adding of axioms and the concepts involved — to be briefly called conceptualization — somehow motivated by mathematical intuition, do not enjoy a merit of infallibility. This have to be checked as guesses which may fail, as is happens with some presages; hence their metaphorical name „oracles” as suggested by Turing. In this respect they resemble  empirical hypotheses being in need of testing. While in empirical teories hypotheses are tested with experiments, in computational science they are tested with their efficiency to produce right algorithms, and those, in turn — with their ability to be transformed into effective programs.

Thus the axioms of Boolean algebra produce, e.g., various algorithms to solve the problems of validity of propositional formulas, while those in turn, can be used to construct programs for automated theorem proving (the so-called provers).

Very interesting examples of testing such guesess can be found in the evolution of arithmetic. This, however, is a new subject, to be discussed in a next post. And still in another post one should consider thought-provoking analogies in problem-solving between mathematics and empirical sciences, e.g., astronomy.

Zaszufladkowano do kategorii Filozofia informatyki, Filozofia nauki | Otagowano , , | 4 komentarze

Dane, informacja, wiedza…

Niniejszy wpis jest pomyślany jako krótkie zagajenie dyskusji o związkach miedzy trzema pojęciami: danymi, informacją i wiedzą. Temat ten podejmowaliśmy już wcześniej, np. w ramach wpisu Informacyjna piramida, tutaj jednak wznowimy go — głównie z myślą o studentach wydziału WEiTI PW  (z którymi będziemy kontynuować dyskusję na żywo, podczas zajęć filozoficznych).

Zanim przejdziemy do dyskusji warto wyjaśnić, że w odpowiednio szerokim kontekście termin „informacja” rozumie się bardzo szeroko. Nawet tak szeroko, że zarówno dane, jak i wiedzę, utożsamia się z pewnymi postaciami informacji. Dla przykładu: informacje zawarte w podręcznikach akademickich to jakaś wiedza, a informacje przechowywane w pamięci komputerów to jakieś dane.

Tutaj jednak z tak szerokiego sposobu rozumienia informacji zrezygnujemy. Będziemy próbowali tak wyostrzyć nasz język, aby mimo wszystko rozróżnić informację i wiedzę, oraz informację i dane. W konsekwencji zaś będziemy chcieli nakreślić pewien obraz związków miedzy trzema wymienionymi pojęciami.
Informację tak zinterpretowaną umieścimy dodatkowo w kontekście czynności poznawczych ludzkiego umysłu. Będziemy zatem rozumieć ją jako coś, co gromadzą, przetwarzają i wykorzystują indywidualne umysły. (Co nie znaczy, że w dyskusji nie będziemy mogli wyjsć poza kontekst psychologiczny, np. w stronę komputerów!)

Intencje powyższe dobrze oddaje fragment szerszego TEKSTU, który proponuję uznać (i fragment, i cały tekst) za punt wyjścia dalszej dyskusji.

Oto ten fragment:

Z przyjętym tutaj rozumieniem przetwarzanych przez umysł informacji łączy się pewien metaforyczny obraz, który potraktuję dalej jako punkt wyjścia do omówienia związków między sferą informacji/wiedzy a sferą wartości. Obraz ten będę określał mianem informacyjnej piramidy.

Obrazek informacyjnej piramidy

Informacyjna piramida składa się z trzech poziomów, których układ odpowiada następującej obserwacji: przetwarzane przez umysł informacje są, z jednej strony, w określony sposób kodowane, a z drugiej strony, mogą stać się podstawą lub elementem podmiotowej wiedzy.

Zgodnie z tą obserwacją na najniższym poziomie piramidy sytuują się dane, czyli pewne niezinterpretowane łańcuchy symboli określonego kodu; nad nimi górują informacje, czyli dane zinterpretowane, wplecione jakoś w ludzką świadomość i mające określony sens; na informacjach z kolei nabudowuje się poziom wiedzy – czyli ogółu informacji zweryfikowanych przez podmiot, a więc dostatecznie dobrze dlań uzasadnionych.

Piramida obejmuje zatem trzy poziomy – I. dane, II. informację i III. wiedzę – które wspierają się na twardym gruncie faktów, a więc tego, co dzieje się w otaczającym naszą konstrukcję świecie. Wejście na poziom I. zapewnia zdolność rozpoznawania czysto fizycznych regularności w świecie (które są odzwierciedlane w danych);  do przejścia z poziomu I. na poziom II. jest niezbędna czynność interpretowania (danych); zaś z poziomu II. na III. – czynność weryfikacji czy też uzasadniania prawdziwości pozyskiwanych informacji.

Zauważyć trzeba, że granice między poszczególnymi segmentami piramidy pozostają rozmyte – choć dla potrzeb naszego wywodu warto je wyostrzyć. Na przykład: informacje pretendujące do roli wiedzy mogą być w różnym stopniu weryfikowane (wiele z nich sytuuje się zatem gdzieś pomiędzy czystą informacją a czystą wiedza), zaś o każdej danej powiedzieć można, że niesie ze sobą pewną informację (choćby taką, która wskazuje sposób jej automatycznego przetworzenia).

Przechodząc zatem do dyskusji….

Jak rozumiecie Państwo relacje w trójkącie <dane, informacja, wiedza>?
Co jest tu najważniejsze?
Co sprawia, że dane mogą przeobrazić się w informację, a ta ostatnia w wiedzę?
A może nasze trójczłonowe rozróżnienie trzeba jeszcze bardziej wysubtelnić i wprowadzić dodatkowe poziomy piramidy?
(…)

Serdecznie zapraszam do dyskusji – Paweł Stacewicz.

Zaszufladkowano do kategorii Bez kategorii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 13 komentarzy

Sztuczna Inteligencja. Czy mamy się czego bać?

Temat sztucznej inteligencji gościł na naszym blogu nie raz. Obecny głos możemy potraktować jako kontynuację dyskusji, którą zainicjował historyczny już wpis jednej ze studentek wydziału Fizyki PW. Polecam go jako lekturę wstępną

W niniejszej dyskusji proponuję skupić się na zagrożeniach ze strony SI: egzystencjalnych, społecznych, gospodarczych… (lista nie jest z pewnością zamknięta).

Na dobry początek przedstawiam próbkę spostrzeżeń i argumentów, które nadesłali w ubiegłym semestrze studenci wydziału WEiTI PW.

Oto ona:

1.  Sztuczna inteligencja (SI) rozwija się tak szybko, że według wybitnych badaczy, takich jak Stephen Hawking, już niedługo przewyższy człowieka. Jako następstwo ludzkość może przestać kontrolować poczynania sztucznej inteligencji i zostać zepchnięta na drugi plan (a nawet zniewolona czy fizycznie wyeliminowana).

2.  Bardzo poważnym zagrożeniem jest fakt, że SI może nie być w stanie określać takich samych środków do celu jak ludzie. Pomyślmy, na przykład, o autonomicznej broni, która nie zważając na straty  będzie dążyć do zniszczenia przeciwnika. Może np. ranić wielu niewinnych cywilów czy spowodować nieodwracalne zmiany w naturalnym środowisku.

3.  Dzięki niesamowitej produktywności i precyzji, przy relatywnie niskich kosztach „pracy”, sztuczna inteligencja już zastępuje ludzi w wielu zawodach, a w przyszłości może zastępować nas w większości prac. Grozi to globalnym bezrobociem.

4.  Także autonomiczne algorytmy, które już teraz zbierają o nas dane i wykorzystują je w celach marketingowych, mogą zostać rozwinięte do poziomu, w którym np. polityczna propaganda może być „zaszczepiana” w ogromnej części społeczeństwa i to ze znakomitym skutkiem. Również systemy kamer rozpoznające obywateli i przyznające im tzw. „noty społeczne” są jawną ingerencją w prywatność i wolność człowieka jako jednostki.

Zachęcam do uzupełnienia i rozwinięcia tych głosów…

Podejrzewam także, że są wśród nas osoby, które mają w stosunku do SI zdanie odmienne. To znaczy: widzą w SI nie jakieś mroczne zagrożenie, lecz cywilizacyjną szansę (potężną technologię, która może nam się dobrze przysłużyć).

Czekam zatem na głosy obydwu stron…

Zapraszam do dyskusji wszystkich Czytelników bloga — Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 37 komentarzy