Turingowskie modele umysłu

W dniach 22-24 września br. odbędzie się w Białymstoku XI Zjazd Polskiego Towarzystwa Kognitywistycznego, w ramach którego wygłoszę referat pt. „Czy turingowskie modele umysłu są jeszcze interesujące?”.  Już sam tytuł podpowiada, że będzie to temat mocno powiązany z dyskusjami, które wiedliśmy na tym blogu, chociażby z dyskusją nt. „Co to znaczy, że umysł jest maszyną Turinga?”.

Ponieważ do Zjazdu pozostało kilka dni, a ja wciąż pracuję nad tekstem i slajdami, chciałbym poddać pod rozwagę blogowiczów kilka punktów przygotowanego wcześniej streszczenia.
Być może skłonią one kogoś do wstępnej refleksji, która mnie z kolei zainspiruje.
Będę wdzięczny za każde pytanie, dopowiedzenie, uwagę etc…
Dyskusję będziemy mogli kontynuować także po wygłoszeniu przeze mnie referatu.

A oto wspomniany tekst streszczenia.

Czy turingowskie modele umysłu są jeszcze interesujące?

1.  Mianem turingowskiego modelu umysłu (TMU) określam każdy model informatyczny, polegający na przyrównaniu umysłu (a dokładniej: pewnego zbioru struktur i czynności umysłowych) do pewnego systemu informatycznego, który  na odpowiednio niskim poziomie opisu jest równoważny pewnej  maszynie Turinga.

2.  Chociaż koncepcje konkretnych i uniwersalnych maszyn Turinga powstały w 1-ej połowie XX wieku, to po dziś dzień wyznaczają one teoretyczne standardy obliczeń cyfrowych (realizowanych przez zdecydowaną większość współczesnych komputerów). Ich stosunkowo proste założenia pozwalają także określić nieprzekraczalne granice technik cyfrowych (związane z problemami cyfrowo nieobliczalnymi, jak np. problem równań diofantycznych).

3.  Z punktu widzenia kognitywistyki modele TMU wydają się interesujące z dwóch przeciwstawnych powodów.
Po pierwsze, za ich pomocą, to znaczy nie negując żadnej z cech konstytutywnych obliczeń turingowskich, daje się opisywać umysł na różnych poziomach i pod różnymi, wciąż nowymi, względami. Z faktem tym współgra niezwykle bogactwo programów komputerowych (niekiedy modelujących umysł), które są turingowskie w tym sensie, iż daje się je przełożyć na programy uniwersalnej maszyny Turinga.
Po drugie jednak, modele TMU stanowią dobrze określony teoretyczny punkt wyjścia do formułowania modeli alternatywnych, osadzonych w teorii tzw. hiperobliczeń (tj. obliczeń, które z teoretycznego punktu widzenia pozwalają rozwiązywać niektóre problemy nieobliczalne dla maszyn Turinga).

4.  Modele alternatywne względem TMU uzyskuje się poprzez takie poszerzanie modelu turingowskiego, które polega na modyfikowaniu co najmniej jednej z jego kluczowych cech: a) dyskretności (cyfrowości), b) skończoności (skończona liczba operacji wykonywanych w skończonym czasie), oraz b) determinizmu (ściśle określony schemat przetwarzania danych).
Modyfikacja jednej z w/w cech prowadzi odpowiednio do modelu: a’) analogowego, b’) infinitystycznego, c’) niedeterministycznego (modyfikacja większej liczby cech do modeli mieszanych).

5.  Z uwagi na uzasadnione wątpliwości co do praktycznej realizowalności (niektórych) hiperobliczeń, a także wciąż nie rozpoznaną relację między obliczeniami cyfrowymi i hiperobliczeniami (czy te drugie są praktycznie sprowadzalne do tych pierwszych?), modele TMU są wciąż proponowane i analizowane.

Pozdrawiam wszystkich – Paweł Stacewicz.

Zaszufladkowano do kategorii Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | Otagowano , , | 2 komentarze

O kolonizacji kosmosu przez sztuczną inteligencję

P. Jacek Gładysz w dyskusji zainicjowanej wpisem *Sztuczna inteligencja: Wyzwanie czy zagrożenie” porusza b.ciekawy temat: „czy jesteśmy gotowi na kolonizację kosmosu? W moim odczuciu taki będzie główny długofalowy skutek zaistnienia prawdziwej sztucznej inteligencji.” Jest to trafna obserwacja warta podjęcia.

Żeby ją podjąć ze znajomością rzeczy, trzeba by zapoznać się ze słynnym w tej materii projektem Johna von Neumanna — samoreplikujących się sond kosmicznych —  inteligentnych (na ludzkim poziomie) maszyn badających i kolonizujących wszechświat. Google dostarcza dziesiątki tysięcy haseł na ten temat, a wszedł on nawet do popkultury za sprawą „Odysei” S.Kubricka. Żeby zdobyć w tej sprawie wiadomości, wystarczy w Googlu zadać hasło „sondy von neumanna” lub „von Neumann probes”.

Najbardziej inspirujące i fachowe na ten temat uwagi znalazłem w książce: „The Anthropic Cosmological Principle” Barrowa i Tipplera (gdzieś napisano, że dzięki niej nasza wiedza o życiu i kosmosie „will never be the same after this book”). Jest to odcinek 9.2 „General Theory of Space Exploration and Colonization”.

Przy okazji, będąc „przy głosie”, zwracam się prośbą do uczestników tej dyskusji o informację dot. testu Turinga. Sporo o nim czytałem, ale nigdzie nie napotkałem wiadomości moim zdaniem kluczowej: czy test ten wykrywa zdolność do zadawania pytań? Przecież to najważniejszy sprawdzian inteligencji. Wie prosty belfer, że inteligencję ucznia poznaje się nie tylko po trafności odpowiedzi (do tego wystarczy się wykuć i jako tako rozumować), ale i po twórczej zdolności do stawiania posuwających wiedzę pytań. To niemożliwe żeby ten fakt przeoczyli wybitni specjaliści od testu Turinga, więc widocznie brak mi w tej materii wiedzy. Będę wdzięczny za pomoc.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | Otagowano | Dodaj komentarz

Czy człowiek jest maszyną?

Kontynuując dobrą passę dyskusji ze studentami, zamieszczam w blogu intrygujący tekst Pana Jacka Gładysza – studenta matematyki na wydziale MiNI PW – który to tekst, wpisuje się dobrze w klimat ostatniej naszej dyskusji pt. „Turing czy Searle?”.

Tekst Pana Jacka jest na tyle ciekawy (i obszerny!), że zasługuje na osobną dyskusję. A oto jak sam Autor zachęca do dyskusji  nad nim:

****

W roku 1950 Alan Turing zaproponował test, który ma umożliwić uznanie maszyny za równą człowiekowi, ponad 30 lat później John Searle zaprowadził nas do pokoju mającego dowieść, że maszyny nam równe nigdy nie będą.  Czy jednak Turing i Searle faktycznie muszą być postrzegani jako rzecznicy poglądów przeciwnych? Czy proponowane przez nich spojrzenia wykluczają się? Być może warto rozważyć możliwość, że zamknięty w pokoju tłumacz może zdać test Turinga ze znajomości języka chińskiego.

Zastanawiając się nad pytaniami typu „Czy maszyny mogą myśleć?” albo „Czy człowiek jest maszyną?” napotykamy kilka problemów. Jednym z nich jest problem definiowania. Może się okazać, że nasze rozważania będą prowadzić do ślepych uliczek z tak banalnego powodu jak ten, że nie mówimy o tych samych rzeczach. Co to znaczy myśleć? Co nazywamy maszyną?

Proponuję inne podejście do tematu. Wielokrotnie w historii nauki (matematyki w szczególności) okazywało się, że spojrzenie na dane zagadnienie z innej strony prowadzi do wniosków, do których inną drogą nie mogliśmy dojść przez długi czas. Kluczowe w przypadku poszukiwania interesującej nas odpowiedzi może być przeanalizowanie podobieństw między człowiekiem i maszyną.

****

Gorąco zapraszamy do dyskusji nad załączonym tekstem „Czy człowiek jest maszyną?
Jacek Gładysz i Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Światopogląd informatyczny | 13 komentarzy

Debata o nieskończoności

Z wielką przyjemnością informuję, że 21 czerwca o godz. 16.30 w sali 206 Gmachu Głównego Politechniki Warszawskiej odbędzie się debata na temat:

◊  Czy zbiory nieskończone istnieją?

Referat i koreferat wygłoszą: prof. dr hab. Marek Kuś (Centrum Fizyki Teoretycznej PAN) i prof. dr hab. Krzysztof Wójtowicz (Zakład Filozofii Nauki UW).

Spotkanie poprowadzą: prof. dr hab. Andrzej Biłat (Zakład Filozofii PW) i prof. dr hab. Zbigniew Król (Zakład Filozofii Nauki, Socjologii i Podstaw Techniki PW).

W imieniu organizatorów serdecznie zapraszam wszystkich zainteresowanych…
Paweł Stacewicz

***************

W ramach przygotowań do debaty polecam kilka dyskusji o nieskończoności, które toczyły się w naszym blogu, a także bardzo ciekawy artykuł przeglądowy Profesora Murawskiego.

Oto i wspomniane materiały:

♦   O nieskończoności zbiorów na chłopski rozum
♦   Horror infiniti
♦   Amor infiniti. Jakie doń prowadzą intuicje filozoficzne?
♦   Nieskończoność w matematyce... (artykuł Romana Murawskiego)

Życzę miłej lektury, a gdyby ktoś chciał podyskutować jeszcze przed rozpoczęciem debaty, to zapraszam do wpisywania komentarzy: albo tutaj, albo w ramach w/w rozmów.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia nauki, Logika i metodologia | Dodaj komentarz

Sztuczna inteligencja. Wyzwanie czy zagrożenie?

Obecny wpis zamieszczam w blogu w imieniu Pani Natalii Wochtman (studentki Wydziału Fizyki PW), która chciałaby sprowokować swoje koleżanki i kolegów do dyskusji na temat   sztucznej inteligencji. Dyskusja rozpoczęła się w „realu”, na naszych zajęciach; być może jednak znajdzie swoją kontynuację tutaj.

Oto obszerne zagajenie autorstwa Pani Natalii:

Po raz pierwszy terminu sztuczna inteligencja użył John McCarthy w 1956r., definiując sztuczną inteligencję jako „naukę i inżynierię tworzenia inteligentnych maszyn”. Wszelkie definicje z perspektywy inżynierskiej odwołują się zaś do wyjaśnienia terminu „sztuczna inteligencja” poczynionego przez Marvina Minsky’ego w 1960r., który określił sztuczną inteligencję jako naukę o maszynach realizujących zadania, które wymagają inteligencji, gdy są wykonywane przez człowieka”.
Jedna ze współczesnych definicji traktuje z kolei sztuczną inteligencję jako „badanie i projektowanie inteligentnych agentów, gdzie inteligentny agent jest systemem, który rozpoznaje swoje otoczenie i podejmuje działania maksymalizujące jego szanse na rozwój”.
Sztuczną inteligencję definiować można również jako własność systemów informatycznych, dzięki której wykazują one znamiona ludzkiej inteligencji lub maszyn, które taką własność posiadają. Niemniej jednak przeważająca większość definicji odnosi się do aspektów inżynierskich i badań.

Dotychczasowe osiągnięcia w dziedzinie badań nad sztuczną inteligencją, jak również przewidywania dotyczące najbliższych lat są naprawdę imponujące. Jako doskonały przykład ilustrujący te prognozy posłużyć może firma Google, która  stworzyła „sztuczny mózg” – czyli maszynę, która jest w stanie zrozumieć to, co widzi i wyciągnąć z tego racjonalne wnioski.
Z kolei analitycy firmy Gartner w swoich prognozach przepowiadają m.in. że od 2018 roku maszyny stopniowo zaczną zastępować piszących raporty i sprawozdania, a ponad 2 miliony pracowników będzie musiało nosić urządzenia monitorujące stan zdrowia i ogólną kondycję jako warunek zatrudnienia.
Wybitny badacz profesor Alan Black, który zajmuje się między innymi syntezą mowy, twierdzi z kolei, że roboty kolejnej generacji będą wzdychać, chrząkać oraz uśmiechać się i płakać. Mają to być tzw. wypełniacze rozmowy. Chodzi o to, aby roboty miały osobowość, a nie zachowywały się zawsze tak samo. Wtedy człowiek rozmawiający z robotem znajdującym się za ścianą nie będzie do końca pewny czy ma do czynienia rzeczywiście ze sztuczną inteligencją, czy z drugim człowiekiem. Przykład ten choć z naszej perspektywy wydaje się nieco futurystyczny doskonale pokazuje, że rozwój sztucznej inteligencji wykracza daleko poza ściśle rozumiane zagadnienia technologiczne.
Przy obecnym tempie rozwoju badań wydaje się nieuniknione wkroczenie sztucznej inteligencji w sferę stosunków społecznych, które do tej pory wydawały się zarezerwowane wyłącznie dla ludzi. Ingerencja sztucznej inteligencji w sferę relacji i emocji stanowić może niezwykłą rewolucję w zakresie kontaktów międzyludzkich. Czy nie doprowadzi to do katastrofy? Oto sztuczny twór myśli i inwencji stać się może równoprawnym partnerem dla człowieka. Co więcej twór ten w wielu kwestiach dalece wykraczać będzie poza zdolności umysłowe ludzi. Fakt ten wydaje się równie fascynujący jak i groźny.

Nadal istnieje wiele aspektów ludzkiej inteligencji, których według niektórych naukowców sztuczna inteligencja nie jest w stanie pojąć. Na przykład jeśli nie słyszymy całej treści rozmowy, jesteśmy w stanie ze względną łatwością wypełnić „luki” poprzez interpretacje jej kontekstu, czy charakteru naszego rozmówcy. Według niektórych naukowców, komputery nie są do tego zdolne, bowiem to pamięć i jej efektywne wykorzystanie stanowi kluczowy warunek do poznania otaczającego nas świata.
Jednocześnie należy zauważyć, że sam ludzki mózg pozostaje jedną z największych tajemnic współczesnej nauki i medycyny. Nie są bowiem dokładnie poznane wszystkie mechanizmy umożliwiające mu  tworzenie naszej inteligencji.

Podkreślić trzeba, że problematyka sztucznej inteligencji dalece wykracza poza sferę technologii i nauki. Dotyka ona także podstawowych problemów społecznych, a nawet filozoficznych. Naukowcy pracujący nad projektami związanymi z wdrożeniem projektów dotyczących sztucznej inteligencji tworzą w pewnym sensie „świat równoległy” niejako konkurencyjny wobec inteligencji naturalnej. Z całą pewnością otwiera to niespotykane dotychczas możliwości oraz pozwala rozwijać zupełnie niezagospodarowane obszary badawcze. Projekty te tworzą więc nowe szanse rodząc jednocześnie nieznane do tej pory wyzwania. Wizje rozwoju sztucznej inteligencji tak mocno osadzonej w nauce mają często charakter futurystyczny rodem z filmów science-fiction. W tym zakresie racjonalne i pragmatyczne metody, a także projekty naukowe mocno ingerują w świat rzeczywistych relacji społecznych.

W tym kontekście warto postawić następujące pytania:

Czy jesteśmy gotowi na to by nasze dzieła nie tylko nam dorównywały, ale także w wielu aspektach nas przewyższały?

Czy komputery mogą stać się niezawodne? Nieomylne? Czy sztuczna inteligencja nas przewyższy i będzie lepsza od nas pod każdym względem?

Czy istnienie sztucznej inteligencji zagraża nam jako społeczeństwu? Czy może dojść do sytuacji, gdy nasza władza nad technologią wymknie się spod kontroli? A może istnienie takiego bytu przyniesie nam tylko korzyści?

ZAPRASZAMY do dyskusji – Natalia Wochtman i Paweł Stacewicz.

Na rozgrzewkę zaś polecamy następujące materiały:
♦   Czy istnieje sztuczna inteligencja? (esej P. Stacewicza)
♦   https://www.youtube.com/watch?v=MaItaCQcYIE
♦   https://www.youtube.com/watch?v=5rNKtramE-I
♦   https://www.youtube.com/watch?v=CK5w3wh4G-M

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 25 komentarzy

Turing czy Searle?

Podczas kilku ostatnich zajęć na różnych Wydziałach PW (zob. spis przedmiotów) dyskutowaliśmy o hipotetycznym myśleniu maszyn. Dość nawet zażarcie. Odnosiliśmy się przy tym do klasycznych tekstów Alana Turinga i Johna Searle’a, które zalinkowałem na końcu wpisu. Wydaje mi się, że zawarte w tych tekstach  argumenty są wciąż warte komentowania.

Choć w tym roku studenci nie garną się zbytnio do naszego bloga, to akurat w ramach powyższego tematu zadeklarowali wstępnie chęć porozmawiania.
Zaczynam zatem blogową dyskusję, a czynię to fikcyjnymi głosami dwóch naszych bohaterów.

*********

Rozmowę zaczyna SEARLE:

– Panie Alanie, skoro mamy rozmawiać o hipotetycznym myśleniu maszyn, to niech Pan określi na początek, co to w ogóle znaczy – według Pana –  „myśleć”. Myśleć oczywiście przez duże „M”, a nie na przykład wtedy, gdy na coś instynktownie reagujemy lub wykonujemy ślepo czyjeś rozkazy.

TURING odpowiada:

– Hmm… Właściwie, to nie wiadomo, cóż to znaczy. Wiadomo jednak, że istotami, które myślą przez największe „M” są ludzie. Ludzie zaś używają niezwykle wyrafinowanego języka, który ze względu na składnię, bogactwo odniesień, siłę wyrazu etc… nie daje  się porównać z językiem żadnego innego gatunku.
Maszyna myśląca zatem powinna być zdolna do używania naszego języka. Jeśli podczas swobodnej rozmowy z maszyną, nie będę potrafił odróżnić jej od człowieka, to będę musiał uznać ją za myślącą.

SEARLE:

– Zaraz, zaraz… Do maszyn jeszcze dojdziemy. Póki co jednak skupmy się na ludziach. Pan powiada, że nie za bardzo wiadomo, co to znaczy „myśleć”. Ja na to odpowiadam, że „dobrze wiem, kiedy myślę, to znaczy, kiedy ja myślę”.
Myślę, gdy rozumiem (ewentualnie: usiłuję zrozumieć) to co robię, lub to co mówię.
Gdy działam w sposób instynktowny, nie myślę; gdy powtarzam dźwięki innych jak papuga, nie myślę; gdy rozwiązuję zadanie, wykonując mechanicznie pewien algorytm, nie myślę…
Myśleć zatem to rozumieć (rozum mieć, :-)), a rozumieć można tylko przy udziale świadomości. Świadomość czegoś jest zatem warunkiem koniecznym, choć nie wystarczającym, myślenia.

TURING:

Uua… Poleciał Pan teraz po maśle maślanym. Myśleć to znaczy rozumieć (lub usiłować rozumieć), a rozumieć to być (co najmniej) świadomym.  Czy w ogóle potrafi Pan wyjaśnić, czym jest rozumienie i świadomość?

SEARLE:

Nie poleciałem po maśle maślanym, bo podałem przykłady. Podejrzewam, że i Pan potrafi rozpoznać  sytuacje, w których działa Pan ze zrozumieniem, i sytuacje, w których żadnego rozumienia nie ma. W pierwszych sytuacjach Pan myśli (przez duże M), w drugich – nie.
Dlatego też, jeśli mamy oceniać, czy maszyna myśli, czy nie – to musimy wyobrazić  sobie, że działamy tak jak ona i ocenić uczciwie, czy działamy wtedy ze zrozumieniem. Jeśli widzimy, że rozumienia nie ma (i być nie musi), to nie wolno nam uznać maszyny za myślącą.  Tak właśnie stawiam sprawę w znanej Panu argumentacji chińskiego pokoju.

TURING:

Panie Johnie…  Ja uważam jednak, że odwoływanie się do własnej tylko wyobraźni jest nieuczciwe. W gruncie rzeczy powiada Pan, że nie może sobie wyobrazić, iż maszyna (jedną z nich Pan w swoim chińskim eksperymencie naśladuje) posiądzie świadomość.
Rozumiem, że trudno sobie wyobrazić, jak człowiek (który już posiada świadomość), wykonując bez ustanku jakieś dziwne komputerowe operacje niskiego poziomu (przeznaczone dla zupełnie innych niż człowiek elementów), może wzmocnić swoją świadomość lub zyskać jakąś nową warstwę świadomości.
Proszę jednak pomyśleć o maszynie, która początkowo świadomości nie ma, lecz realizuje pewien bardzo złożony program, który rozwijając się w interakcji ze środowiskiem,  wytwarza jakieś pierwociny świadomości.  Pierwociny, które stopniowo mogą przekształcać się w świadomość głęboką i wieloaspektową. Według mnie to całkiem realna perspektywa.
Innymi słowy, ja przeciwnie do Pana jestem w stanie wyobrazić sobie, że odpowiednia złożoność programu – programu wchodzącego w interakcje z otoczeniem (czego Pan w chińskim pokoju nie dopuszcza) – może dać maszynie świadomość.
Inna sprawa, że wcale nie wiemy, czy o skuteczności działań jakiegokolwiek układu w świecie decyduje świadomość (nam znana z introspekcji). W to jednak nie będę wchodził…

SEARLE:

Przypuśćmy na próbę, że przyjmuję Pańskie argumenty i godzę się na możność zaistnienia świadomości wskutek odpowiednio wysokiej złożoności programu sterującego systemem interaktywnym.
Co Pan jednak na to, że ludzie posiadają mózgi, a mózgi są układami biologicznymi, złożonymi z materii organicznej. Nawet jeśli mózgi mają jakieś złożone oprogramowanie, to ów „niematerialny” software jest nierozerwalnie spleciony z biologicznym hardware. Biologicznym – powtarzam. Nie krzemowym, nie mechanicznym, nie jakimś zupełnie dowolnym – lecz złożonym z takich a takich substancji organicznych.
Gdyby świadomość była zależna od biologii mózgu, to złożoność mózgowego oprogramowania nie wystarczałaby do jej zaistnienia…

Tutaj musimy przerwać nasz fikcyjny dialog i poprosić czytelników o jego kontynuowanie w formie komentarzy.  Kontynuacja może polegać zarówno na ustosunkowywaniu się do przedstawionych argumentów, jak i formułowaniu nowych.

Gorąco ZAPRASZAM…

A oto linki do dwóch tekstów źródłowych:
♦  Alan Turing, „Maszyny liczące a inteligencja”.
♦  John Searle, „Czy maszyny mogą myśleć?”.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 24 komentarze

Główne pytanie kognitywistyki: czy zdolność poznawcza umysłu przewyższa maszynę Turinga?

Projekt badawczy kognitywistyki sprowadza się do kwestii: czy umysł ludzki jest równoważny maszynie Turinga? Równoważny pod względem zdolności poznawczych czyli możliwości rozwiązywania problemów. Równoważność określamy przez porównanie dwóch zbiorów problemów:

T = zbiór problemów rozwiązywalnych przez maszynę Turinga.
U = zbiór problemów rozwiązywalnych przez umysł ludzki.

Wtedy owa kwestia kognitywistyki zamknie się w pytaniu o równość zbiorów: U=T?

Odpowiedź twierdząca implikuje pogląd negatywny co do potrzeby kognitywistyki jako odrębnej dyscypliny. Jeśli jest on słuszny, to pracujący pod tą firmą zasilą szeregi bezrobotnych. Ich miejsca pracy zajmą informatycy jako specjaliści od maszyny Turinga, którzy z równą łatwością, z jaką badają tę maszynę mogą się zająć badaniem umysłu.

Zwolenników odpowiedzi twierdzącej nazwijmy krótko turingowcami, a zwolenników przeczącej — super-turingowcami. Ci drudzy uważają, że klasa T jest tylko częścią (właściwą) klasy U.

Moja odpowiedź na pytanie „U=T?” jest super-turingowska, a więc zdecydowanie przecząca. Czerpię ją z osobistej intuicji filozoficznej. Nie może jednak taka intuicja być argumentem w dyskusji naukowej. Toteż proponuję przyjąć ją jako hipotezę roboczą. Wysuwane za nią racje poddamy pod krytykę turingowców; jeśli je obalą, to przejdziemy na ich stronę lub zawiesimy sąd w tej sprawie.

Racje na rzecz non(U=T) są dwojakie: ze sfery motywacji i ze sfery efektywności poznania. Te pierwsze odnoszą sie do faktu, że mamy dwa rodzaje motywacji poznawczej: ciekawość oraz niepokój wobec jakiejś trudności, który pragniemy usunąć, a problemem jest: jak to zrobić? Jedno i drugie jest rodzajem uczucia: ciekawość jest uczuciem przyjemnym, a ów
niepokój przykrym. Żeby być zdolnym do przyjemności i do przykrości,  trzeba mieć system nerwowy, ten zaś musi być zbudowany z materii organicznej, a nie np. z drutu. Ponieważ w definicji maszyny Turinga ów czynnik emocjonalny nie występuje (milczy też o nim test Turinga), a jest on w poznaniu konieczny, maszyna nie dorównuje tu umysłowi. Być może, któreś ogniwo tego rozumowania jest błędne, czego turingowiec powinien by dowieść.

Argument z efektywności poznania odwołuje się do doświadczeń z dziejów języka, w tym naukowego, w szczególności języka matematyki. Zanim powstało w języku człowieka pierwotnego słowo „ogień”, ktoś musiał ogień zobaczyć, a więc ogląd wyprzedził słowo. Mógł on występować w rozumowaniach bez użycia słów, na przykład: „jeśli włożę rękę w ogień, to się sparzę, a więc żeby się nie sparzyć, trzeba jej w ogień nie kłaść”. Na każdym kroku tak bez słów — w sposób wyłącznie oglądowy — rozumują zwierzęta. Czy da się to symulować na maszynie Turinga? Być może. Niech turingowiec powie jak, co powinno
otworzyć kolejny etap dyskusji.

Pojęcie oglądu  dotyczy nie tylko spostrzeżeń lub wyobrażeń zmysłowych, lecz także oglądu intelektualnego obiektów abstrakcyjnych.  Żeby się zgodzić na Euklidesową definicję punktu, trzeba rozumieć o czym ona mówi, a więc mieć ogląd obiektów w niej wymienionych. A nie jest to ogląd zmysłowy. Wszystkie rozumowania Euklidesa odwołują się do takich oglądów, nie kierując się wcale regułami przetwarzania ciągów symboli, których dostarcza logika jako narzędzie formalizacji dającej się wykonać na maszynie Turinga.

Zagadnienie rozumowań oglądowych  jest szerzej dyskutowane a artykule (w  postaci serii slajdów) „Rozumowania oglądowe a rozumowania sformalizowane”, gdzie porusza się też kwestię swoistości kognitywistyki. Komentarze do tego artykułu (ze wskazaniem numeru (§ i cyfra) odpowiedniego odcinka, można umieszczać poniżej na prawach komentarzy do obecnego wpisu. Adres artykułu: http://calculemus.org/CA/epist/16/kogn-synt.pdf

Zaszufladkowano do kategorii Epistemologia i ontologia, Filozofia informatyki | Jeden komentarz

Kognitywistyczne interpretacje pojęć informatycznych

Niniejszy wpis czynię z myślą o białostockich Spotkaniach z kognitywistyką, na których będę miał zaszczyt wygłosić wykład pt. „O kognitywistycznej interpretacji niektórych pojęć informatycznych”. Mam nadzieję, że dyskusja rozpoczęta na spotkaniu będzie miała swój odpowiednik blogowy – zapraszam do niej nie tylko słuchaczy wykładu.

Podstawą rozmowy proponuję uczynić wykładowe SLAJDY.

Proponuję też przyjąć następującą konwencję dyskusji.
Jeśli ktoś ma pytania lub sugestie do któregokolwiek ze slajdów, niech wstawi odpowiedni komentarz pod tym wpisem, a ja się do niego odniosę, stymulując w ten sposób dalszą dyskusję. Jeśli uznam dodatkowo, że wywołany temat zasługuje na osobną rozmowę, poczynię osobny wpis, pod którym będziemy mogli omawiać ten właśnie temat.

***

W ramach krótkiego wstępu do dalszej dyskusji objaśnię w punktach ideę anonsowanego wyżej wykładu.

1) Traktuję pojęcia informatyczne, a także opisywane przez nie obiekty (algorytmy, struktury danych, kody…), jako pojęcia formalne, które można interpretować – na podobieństwo formalizmów matematycznych – w różnych dziedzinach problemowych.
(Na przykład: będący abstrakcyjnym obiektem formalnym algorytm przeszukiwania grafów może być wykorzystywany w dziedzinie sieci transportowych, gier komputerowych etc…)

2) Interpretacja kognitywistyczna pojęć informatycznych polega na ich wykorzystaniu w ramach pewnego modelu umysłu/mózgu – modelu zazwyczaj cząstkowego, opisującego pewien fragment aktywności poznawczej umysłu.
(Na przykład: sztuczną sieć neuronową – jak perceptron czy cognitron – można uczynić kluczowym elementem modelu ludzkiej percepcji).

3) Kognitywistycznie zinterpretowany układ pojęć jest tym cenniejszy – z punktu widzenia kognitywistyki, a nie samej informatyki – im bardziej pobudza do cennych poznawczo pytań o umysł.
(Na przykład: pojęcie nieobliczalności, sprzężone z pojęciem realizującego obliczenia automatu (jak maszyna Turinga), pozwala postawić pytanie o struktury wewnątrz-umysłowe, które pozwalają umysłowi rozwiązywać problemy nieobliczalne)

4) Jeśli przyjąć, że w ramach interdyscyplinarnych badań kognitywistycznych istnieje pewien „podział pracy”, to rolą filozofów winno być zadawanie pytań (także takich, które są inspirowane informatycznie), a rolą empiryków – weryfikowanie możliwych odpowiedzi.

***

Zachęcam gorąco do dyskusji (która może dotyczyć także powyższych wyjaśnień).
Paweł Stacewicz

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 5 komentarzy

Homo Informaticus 3.0

W dniach 4-5 grudnia br. odbędzie się w Poznaniu konferencja naukowa pod nazwą HOMO INFORMATICUS 3.0, na której wygłoszę referat o algorytmach.

W przededniu tejże Konferencji chciałbym podzielić się z Państwem kilkoma skojarzeniami, które wzbudza we mnie intrygująca nazwa Konferencji: Homo Informaticus. W moim odczuciu jest to nazwa wysoce metaforyczna, a przez to przemawiająca do wyobraźni.
Jej metaforyczność polega, po pierwsze, na usytuowaniu człowieka w sferze informatyki i informatycznych technologii, po drugie zaś — na wzbudzaniu rozmaitych skojarzeń, które określają bliżej człowieka współczesnego (także jego przyszłość).

W moim przypadku są to następujące skojarzenia:

1) skojarzenie technologiczno-cywilizacyjne: człowiek współczesny żyje w świecie przenikniętym na wskroś informacją, informatyką i jej zastosowaniami; coraz większa część jego aktywności (tak prywatnej, jak zawodowej) polega na zdobywaniu, selekcjonowaniu i przekazywaniu informacji; technologie informatyczne (związane np. z Internetem) stały się dlań elementem życiowo niezbędnym: za ich pośrednictwem wchodzi w relacje z innymi, zdobywa wiedzę, realizuje własne ambicje etc.

2) skojarzenie filozoficzno-światopoglądowe: człowiek współczesny, chcąc nie chcąc, opisuje świat w kategoriach informacyjno-informatycznych, np. wyodrębnia w organizmach część informacyjną (kod DNA), zastanawia się nad podobieństwem umysłu do komputera, postrzega informację jako trzeci, obok materii i energii, element konstytutywny świata; innymi słowy: człowiek współczesny żywi jakąś formę informatycznego światopoglądu.
[w tej sprawie warto przeczytać niektóre wpisy z bloga Cafe Aleph,
np. http://marciszewski.eu/?p=8224 oraz http://marciszewski.eu/?p=6729]

3) skojarzenie futurystyczne: człowiek współczesny może stać się fizycznym homo informaticus, to znaczy zastępując pewne części swojego ciała (również mózgu) wytworzonymi sztucznie układami do przetwarzania informacji, może przeobrazić się w organiczno-maszynową hybrydę (o większych możliwościach poznawczo-praktycznych niż homo sapiens).

Już powyższa próbka moich spontanicznych skojarzeń ukazuje metaforyczny potencjał określenia HOMO INFORMATICUS. ivexterm comprar españa
Ciekaw jestem innych skojarzeń i uwag…

Zaszufladkowano do kategorii Bez kategorii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | Dodaj komentarz

Analogowość, analogiczność, ciągłość

Obecny wpis jest pomyślany jako krótkie wprowadzenie do tematu następnego seminarium na PW, które będzie poświęcone urządzeniom/komputerom analogowym (w odróżnieniu od cyfrowych).

W ramach tego wprowadzenia chciałbym:

1) po pierwsze, przypomnieć slajdy z poprzedniego posiedzenia seminaryjnego pt. Cyfrowość i analogowość (by je obejrzeć, proszę kliknąć w link obok),

2) po drugie, poczynić pewne dopowiedzenie do wspomnianych wyżej slajdów, które dotyczy wieloznaczności terminu analogowość (i terminów pochodnych, jak: obliczenia analogowe czy maszyny/komputery analogowe).

Rozwijając punkt 2) skupię się na pewnych technikach (metodach) rozwiązywania problemów, które z punktu widzenia ich informatycznej (szerzej: sztucznej) realizacji można rozumieć jako techniki przetwarzania danych (a nie tylko: zapisu czy transmisji).

Pośród ogółu wspomnianych wyżej technik wyróżnia się grupę technik analogowych, czyli takich, których cechą szczególną jest analogowość.
Jak jednak rozumie się ową analogowość? Na jeden sposób czy kilka?
Otóż wydaje mi się, że mówiąc ogólnie o technikach analogowych, ma się na myśli co najmniej trzy ich rodzaje (które dopiero po bliższym zbadaniu mogą, pod pewnymi warunkami, zostać uznane za podobne).

Są to:

a) analogowe techniki nieobliczeniowe – oparte na bezpośrednim modelowaniu/symulowaniu badanego zjawiska fizycznego Z przez bardzo podobne, choć łatwiej obserwowalne, zjawisko ZP. Zjawisko ZP można nazwać analogonem (inaczej: modelem realnym lub fizycznym) zjawiska Z. Na przykład: gdy układ planetarny UP, modeluje się za pomocą analogicznego doń miniaturowego układu fizycznego UF, to pewne problemy dotyczące UP rozwiązuje się poprzez fizyczną manipulację modelem UF i (realną) obserwację jego zachowania.

b) analogowe techniki obliczeniowe – czyli takie metody rozwiązywania problemów, które wymagają wstępnego opisu danego problemu za pomocą liczb (szerzej: obiektów matematycznych), a następnie wykonania odpowiednich operacji na tych liczbach (szerzej: obiektach matematycznych).

Nazywając obliczenia realizowane w przypadku b) analogowymi, nie unikamy kolejnej dwuznaczności, która polega na braku wskazania, o jaki typ obliczeń chodzi.

Możemy bowiem mieć na myśli:
b1) obliczenia ciągłe (w odróżnieniu od dyskretnych), niekoniecznie jednak analogiczne
albo
b2) obliczenia naturalne i analogiczne zarazem (bez przesądzania o ich ciągłości)

W przypadku b1) mamy do czynienia z działaniami na ciągłych wielkościach fizycznych (ich teoretycznym odpowiednikiem są liczby rzeczywiste, ewentualnie: funkcje zmiennej rzeczywistej), które dają w wyniku inne ciągłe wielkości fizyczne. Obliczenia tego typu definiuje się w ramach różnych modeli uniwersalnych komputerów analogowych (np. GPAC czy BSS), które mają określoną architekturę (np. obejmują integrator i wzmacniacz), a ponadto są programowalne (program określa odpowiednią sekwencję operacji podstawowych, przypisanych do odpowiednich elementów architektury). Do wykonania obliczeń jest zatem potrzebny kod.
Cechami szczególnymi obliczeń typu b1) są zatem: ciągłość (gwarantowana na poziomie modelu teoretycznego) i fizyczność rozumiana w sposób ciągły (przetwarzane wielkości fizyczne rozumie się jako ciągłe).

W przypadku b2) z kolei mamy do czynienia z fizyczną realizacją obliczeń za pomocą naturalnych procesów fizycznych, które są odpowiednikami (analogonami) określonych operacji matematycznych. Na przykład: jeśli obliczenie polega na rozwiązywaniu układu równań liniowych, to z układem równań można związać wstępnie pewien układ ciał i wiążących je sił, a procedurę rozwiązywania układu zaimplementować jako proces ustalania się równowagi między ciałami po wcześniejszej zmianie ich konfiguracji.
Obliczenia typu b2) realizuje się zwykle za pomocą wyspecjalizowanych urządzeń i maszyn analogowych (a nie komputerów rozumianych jako uniwersalne maszyny analogowe). Maszyny takie działają na zasadzie analogii: ich wewnętrzne operacje są bowiem fizycznymi odpowiednikami (analogonami) przeprowadzanych obliczeń (np. operacji całkowania czy różniczkowania). Nie jest tu potrzebny żaden kod sterujący sekwencją obliczeń, gdyż urządzenie realizuje bezpośrednio konkretny typ obliczenia.
Cechami szczególnymi analogowych obliczeń typu b2) są zatem: fizyczność (dla danego typu obliczeń szuka się realizującego go bezpośrednio, nie zaś symbolicznie, procesu) oraz analogiczność (ów proces jest analogonem obliczenia). Obliczeniom tego typu może, ale nie musi, przysługiwać także cecha ciągłości – przysługuje ona pod warunkiem, że realizowane fizycznie obliczenia są obliczeniami ciągłymi (jak np. różniczkowanie i całkowanie), a ponadto przetwarzane wielkości fizyczne są faktycznie ciągłe.

Z powyższych zestawień wyłania się dość zaskakująca puenta.

1) Cechą wspólną opisanych wyżej technik analogowych, czyli cechą konstytutywną analogowości w najszerszym znaczeniu, jest nie analogiczność (co mógłby sugerować przymiotnik „analogowe”), a także nie ciągłość (co mogłyby sugerować modele tzw. uniwersalnych obliczeń analogowych), lecz FIZYCZNOŚĆ (w odróżnieniu od właściwej technikom cyfrowym: SYMBOLICZNOŚCI).
[Kwestię tę dostrzegł na ostatnim seminarium prof. Lubacz – za co mu bardzo dziękuję]

2) Drugą cechą wspólną technik analogowych (a przynajmniej tych, które nazwaliśmy obliczeniowymi) jest CIĄGŁOŚĆ. To jednak pod warunkiem, że ciągłości przewidzianej w teoretycznym modelu obliczeń (operacje na liczbach rzeczywistych) odpowiada faktyczna ciągłość przetwarzanych wielkości fizycznych (nośników danych).

Tyle tytułem uzupełnienia slajdów, które zalinkowałem na początku wpisu.
Z wielką ciekawością czekam na ewentualne uwagi, a także referat Jarka przewidziany na najbliższy czwartek.

Podejrzewam, że będzie on dotyczył obliczeń typu b2.

Pozdrawiam wszystkich – Paweł Stacewicz.

Zaszufladkowano do kategorii Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | Dodaj komentarz