Turing jako maszyna z wyrocznią
lecz bez daru nieomylności

Głos na konferencji „Filozofia w Informatyce”, Kraków 2016

Odczyt jest skomponowany jako sekwencja pytań,  przy których są skrótowo naszkicowane dane do odpowiedzi. Poniżej znajdują się te kwestie jako ułatwienie w pisaniu komentarza: autor komentarza proszony jest o wska  pzanie numeru kwestii, do której nawiązują jego uwagi. Pełniejsze rozwinięcie odczytu zostanie opublikowane pod koniec listopada 2016.

Q.1. Jak nazwać światopogląd, w którym kategorią centralną jest pojęcie
mocy obliczeniowej?

Q.2. Czy pojęcie mocy obliczeniowej  może być zrozumiałe intuicyjnie dla osoby nie znającej języka informatyki?

Q.3. Czy intuicyjne pojęciee mocy obliczeniowej odgrywa rolę w naukach niezależnie od jego uściślenia w informatyce?

Q.4. . Co wnosi do jego uściślenia pojęcie uniwersalnej maszyny Turinga
oraz wyniki Gödla?

Q.5. Czy jest powód, żeby pogląd mający jako centralną kategorię pojęciemocy obliczeniowej zaliczać do światopoglądów?

Q.6. Czy Turing należy do którejś kategorii maszyn Turinga?

Q.7. Dlaczego komputera (UTM) nie stać na dowód przekątniowy?

Q.8. Jak pojmował Turing możliwość nie-mechanicznych aktów umysłu?

Q.9. Czy maszyna wyroczna realizuje obliczenia naturalne?

Q.10. Czy maszyna wyroczna może być omylna?

Zaszufladkowano do kategorii Bez kategorii | Otagowano , | Jeden komentarz

Obliczenia naturalne i quasi-naturalne

Niniejszym wpisem chciałbym wywołać dyskusję nad zagadnieniem obliczeń naturalnych. Zagadnienie to sytuuje się na pograniczu informatyki (badającej różne modele i/lub implementacje obliczeń) oraz nauk przyrodniczych (badających naturę, w obrębie której zachodzą pewne procesy obliczeniowe).

Nie jest to oczywiście zagadnienie sztuczne ( :-)).
Od dobrych kilkunastu lat toczą się realne badania nad natural computing, których dwoistą naturę streszcza następująca uwaga specjalisty:
Natural computing has taught us to think ‘naturally’ about computation and also to think computationally about nature
(L.N. de Castro 2007, przytaczam za przygotowanym do publikacji tekstem P. Polaka).

———–

Podstawą naszej dyskusji proponuję uczynić tekst przeglądowy G. Rosenberga i L. Kari „The Many Facets of Natural Computing”, a także  moje robocze slajdy, które do tego tekstu częściowo nawiązują.

Chciałbym się skupić na następujących kwestiach (w kolejnych punktach zestawiam pytania główne, a pod nimi pytania sugerujące pewne kierunki odpowiedzi):

1)  Czym są w ogóle obliczenia i obliczanie (ang. computing)?

—  Czy mamy się zgodzić, na to że:  a) w sensie bardzo ogólnym „obliczać” to tyle co „przetwarzać dane (kody) za pomocą pewnych dobrze określonych reguł”, zaś b) w sensie bardzo szczegółowym  to tyle, co „realizować operacje zgodne z pewnym ściśle określonym, formalnym modelem obliczeń (jak uniwersalna maszyna Turinga)”?

2)  Czym są obliczenia naturalne?

—  Czy może nas zadowolić taka oto trójznaczność: A) obliczenia sztuczne, lecz inspirowane obserwacją natury, B) obliczenia sztuczne, lecz realizowane za pomocą pochodzących z natury nośników i/lub procesów, C) obliczenia występujące w naturze (czyli przyrodzie).

—  Czy nie trafniej byłoby nazwać obliczenia typu A i B quasi-naturalnymi, bo w gruncie rzeczy są one sztuczne (projektowane przez ludzi), a ich związek z naturą polega na stosowaniu zaczerpniętych z natury reguł (forma) i/lub nośników (materia)?

3)  Czy obliczenia naprawdę naturalne (typu C) naprawdę istnieją, czy też to człowiek opisuje odpowiadające im procesy w kategoriach obliczeniowych?

—  Czy możemy wątpić w to, że np. kod DNA jest pewną paczką danych, i że kody takie podlegają (w sposób naturalny) pewnym rozpoznanym przez nas przekształceniom?

—  Czy założenie o istnieniu obliczeń naprawdę naturalnych nie jest konieczne do tego, by móc wytwarzać obliczania quasi-naturalne?

4)  Czy każdy proces w przyrodzie ma charakter obliczeniowy? Czy jego natura jest obliczeniowa?

—  Czy nawet nie wierząc w Boga, możemy zaakceptować domysł Leibniza, że „Cum Deus calculat, fit mundus”   (czyli: „Gdy Bóg rachuje/oblicza, staje się świat”)?

5)  Czy dla skuteczności projektowanych przez nas obliczeń quasi-naturalnych wystarczy odwołać się do natury nieożywionej (układy fizyczne), czy też trzeba naśladować lub wykorzystywać naturę ożywioną (układy co najmniej biologiczne)?

—  Przykładowo: czy mamy bardziej wierzyć w obliczenia kwantowe, czy bio-molekularne? (dwie wymienione kategorie nie wyczerpują oczywiście dostępnej palety możliwości).

Pozdrawiam wszystkich i zapraszam do dyskusji — Paweł Stacewicz.

Zaszufladkowano do kategorii Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | Otagowano , , | 8 komentarzy

Czy warto być sceptykiem?

Obecny wpis służy wywołaniu dyskusji na temat sceptycyzmu jako postawy światopoglądowej – mającej swoje oparcie, a także odparcie, w pewnych stanowiskach filozoficznych (jak np. starożytny sceptycyzm Pirrona).

Zarówno ten wpis, jak i komentarze do niego, są po części historyczne — to znaczy były publikowane około rok temu (piszę te słowa 8-11-2017) .
Niniejszym treść wpisu modyfikuję, tak aby zachęcić do dyskusji kolejny rocznik studentek/ów. Czekam również na argumenty tych osób, które zgłosiły na tegorocznych zajęciach (w ramach przedmiotu „Nauka a światopogląd”) chęć uczestnictwa w dyskusji. Gdy tylko je dostanę,  zalinkuję w tym miejscu.

Dalszą dyskusję mogą ukierunkować slajdy do mojego wykładu, na których przedstawiam wybiórczo rożne argumenty filozofów przyznających się do skrajnego bądź umiarkowanego sceptycyzmu.

♦   Oto te  SLAJDY (dostępne w pliku pdf)

Aby ośmielić nowe osoby do przysyłania swoich argumentów, a także dodawania komentarzy pod już toczącą się dyskusją, przedstawiam trzy przeciwstawne głosy studenckie (pochodzące z roku ubiegłego).

***********************

Oto wspomniane GŁOSY (za i przeciw postawie sceptycznej):

1-za.
Sceptyk nigdy nie jest „zadowolony”, więc nigdy nie spoczywa na laurach.

1-przeciw.
Ciągła niepewność o to, czy jakiekolwiek z naszych przekonań jest właściwe sprawia, że życie staje się o wiele trudniejsze.

2-za.
Sceptycyzm = Wolność — od opinii innych, ich oraz własnych emocji. Wolność i samodzielność sceptyka są bezgraniczne.

2-przeciw.
Sceptycy zrażają do siebie ludzi, gdyż stale podważając opinie i przekonania drugiego człowieka sprawiają, ze jego pewność siebie i chęć działania się zmniejszają. Tym samym sceptykom musi być trudno nawiązywać więzi emocjonalne z innymi ludźmi.

3-za.
Sceptycyzm jest kolebką intelektualizmu i ważnym czynnikiem wkroczenia człowieka na drogę „ku mądrości” – występuje on przeciwko prostocie i głupocie.

3-przeciw.
Wątpiący nie może zwątpić tylko w to, że wątpi, bo jak w to zwątpi to okazuje się głupcem.

ZACHĘCAM DO DYSKUSJI nad tymi i innymi argumentami — Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii | Otagowano , | 11 komentarzy

Turingowskie modele umysłu

W dniach 22-24 września br. odbędzie się w Białymstoku XI Zjazd Polskiego Towarzystwa Kognitywistycznego, w ramach którego wygłoszę referat pt. „Czy turingowskie modele umysłu są jeszcze interesujące?”.  Już sam tytuł podpowiada, że będzie to temat mocno powiązany z dyskusjami, które wiedliśmy na tym blogu, chociażby z dyskusją nt. „Co to znaczy, że umysł jest maszyną Turinga?”.

Ponieważ do Zjazdu pozostało kilka dni, a ja wciąż pracuję nad tekstem i slajdami, chciałbym poddać pod rozwagę blogowiczów kilka punktów przygotowanego wcześniej streszczenia.
Być może skłonią one kogoś do wstępnej refleksji, która mnie z kolei zainspiruje.
Będę wdzięczny za każde pytanie, dopowiedzenie, uwagę etc…
Dyskusję będziemy mogli kontynuować także po wygłoszeniu przeze mnie referatu.

A oto wspomniany tekst streszczenia.

Czy turingowskie modele umysłu są jeszcze interesujące?

1.  Mianem turingowskiego modelu umysłu (TMU) określam każdy model informatyczny, polegający na przyrównaniu umysłu (a dokładniej: pewnego zbioru struktur i czynności umysłowych) do pewnego systemu informatycznego, który  na odpowiednio niskim poziomie opisu jest równoważny pewnej  maszynie Turinga.

2.  Chociaż koncepcje konkretnych i uniwersalnych maszyn Turinga powstały w 1-ej połowie XX wieku, to po dziś dzień wyznaczają one teoretyczne standardy obliczeń cyfrowych (realizowanych przez zdecydowaną większość współczesnych komputerów). Ich stosunkowo proste założenia pozwalają także określić nieprzekraczalne granice technik cyfrowych (związane z problemami cyfrowo nieobliczalnymi, jak np. problem równań diofantycznych).

3.  Z punktu widzenia kognitywistyki modele TMU wydają się interesujące z dwóch przeciwstawnych powodów.
Po pierwsze, za ich pomocą, to znaczy nie negując żadnej z cech konstytutywnych obliczeń turingowskich, daje się opisywać umysł na różnych poziomach i pod różnymi, wciąż nowymi, względami. Z faktem tym współgra niezwykle bogactwo programów komputerowych (niekiedy modelujących umysł), które są turingowskie w tym sensie, iż daje się je przełożyć na programy uniwersalnej maszyny Turinga.
Po drugie jednak, modele TMU stanowią dobrze określony teoretyczny punkt wyjścia do formułowania modeli alternatywnych, osadzonych w teorii tzw. hiperobliczeń (tj. obliczeń, które z teoretycznego punktu widzenia pozwalają rozwiązywać niektóre problemy nieobliczalne dla maszyn Turinga).

4.  Modele alternatywne względem TMU uzyskuje się poprzez takie poszerzanie modelu turingowskiego, które polega na modyfikowaniu co najmniej jednej z jego kluczowych cech: a) dyskretności (cyfrowości), b) skończoności (skończona liczba operacji wykonywanych w skończonym czasie), oraz b) determinizmu (ściśle określony schemat przetwarzania danych).
Modyfikacja jednej z w/w cech prowadzi odpowiednio do modelu: a’) analogowego, b’) infinitystycznego, c’) niedeterministycznego (modyfikacja większej liczby cech do modeli mieszanych).

5.  Z uwagi na uzasadnione wątpliwości co do praktycznej realizowalności (niektórych) hiperobliczeń, a także wciąż nie rozpoznaną relację między obliczeniami cyfrowymi i hiperobliczeniami (czy te drugie są praktycznie sprowadzalne do tych pierwszych?), modele TMU są wciąż proponowane i analizowane.

Pozdrawiam wszystkich – Paweł Stacewicz.

Zaszufladkowano do kategorii Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | Otagowano , , | 2 komentarze

O kolonizacji kosmosu przez sztuczną inteligencję

P. Jacek Gładysz w dyskusji zainicjowanej wpisem *Sztuczna inteligencja: Wyzwanie czy zagrożenie” porusza b.ciekawy temat: „czy jesteśmy gotowi na kolonizację kosmosu? W moim odczuciu taki będzie główny długofalowy skutek zaistnienia prawdziwej sztucznej inteligencji.” Jest to trafna obserwacja warta podjęcia.

Żeby ją podjąć ze znajomością rzeczy, trzeba by zapoznać się ze słynnym w tej materii projektem Johna von Neumanna — samoreplikujących się sond kosmicznych —  inteligentnych (na ludzkim poziomie) maszyn badających i kolonizujących wszechświat. Google dostarcza dziesiątki tysięcy haseł na ten temat, a wszedł on nawet do popkultury za sprawą „Odysei” S.Kubricka. Żeby zdobyć w tej sprawie wiadomości, wystarczy w Googlu zadać hasło „sondy von neumanna” lub „von Neumann probes”.

Najbardziej inspirujące i fachowe na ten temat uwagi znalazłem w książce: „The Anthropic Cosmological Principle” Barrowa i Tipplera (gdzieś napisano, że dzięki niej nasza wiedza o życiu i kosmosie „will never be the same after this book”). Jest to odcinek 9.2 „General Theory of Space Exploration and Colonization”.

Przy okazji, będąc „przy głosie”, zwracam się prośbą do uczestników tej dyskusji o informację dot. testu Turinga. Sporo o nim czytałem, ale nigdzie nie napotkałem wiadomości moim zdaniem kluczowej: czy test ten wykrywa zdolność do zadawania pytań? Przecież to najważniejszy sprawdzian inteligencji. Wie prosty belfer, że inteligencję ucznia poznaje się nie tylko po trafności odpowiedzi (do tego wystarczy się wykuć i jako tako rozumować), ale i po twórczej zdolności do stawiania posuwających wiedzę pytań. To niemożliwe żeby ten fakt przeoczyli wybitni specjaliści od testu Turinga, więc widocznie brak mi w tej materii wiedzy. Będę wdzięczny za pomoc.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | Otagowano | Dodaj komentarz

Czy człowiek jest maszyną?

Kontynuując dobrą passę dyskusji ze studentami, zamieszczam w blogu intrygujący tekst Pana Jacka Gładysza – studenta matematyki na wydziale MiNI PW – który to tekst, wpisuje się dobrze w klimat ostatniej naszej dyskusji pt. „Turing czy Searle?”.

Tekst Pana Jacka jest na tyle ciekawy (i obszerny!), że zasługuje na osobną dyskusję. A oto jak sam Autor zachęca do dyskusji  nad nim:

****

W roku 1950 Alan Turing zaproponował test, który ma umożliwić uznanie maszyny za równą człowiekowi, ponad 30 lat później John Searle zaprowadził nas do pokoju mającego dowieść, że maszyny nam równe nigdy nie będą.  Czy jednak Turing i Searle faktycznie muszą być postrzegani jako rzecznicy poglądów przeciwnych? Czy proponowane przez nich spojrzenia wykluczają się? Być może warto rozważyć możliwość, że zamknięty w pokoju tłumacz może zdać test Turinga ze znajomości języka chińskiego.

Zastanawiając się nad pytaniami typu „Czy maszyny mogą myśleć?” albo „Czy człowiek jest maszyną?” napotykamy kilka problemów. Jednym z nich jest problem definiowania. Może się okazać, że nasze rozważania będą prowadzić do ślepych uliczek z tak banalnego powodu jak ten, że nie mówimy o tych samych rzeczach. Co to znaczy myśleć? Co nazywamy maszyną?

Proponuję inne podejście do tematu. Wielokrotnie w historii nauki (matematyki w szczególności) okazywało się, że spojrzenie na dane zagadnienie z innej strony prowadzi do wniosków, do których inną drogą nie mogliśmy dojść przez długi czas. Kluczowe w przypadku poszukiwania interesującej nas odpowiedzi może być przeanalizowanie podobieństw między człowiekiem i maszyną.

****

Gorąco zapraszamy do dyskusji nad załączonym tekstem „Czy człowiek jest maszyną?
Jacek Gładysz i Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Światopogląd informatyczny | 13 komentarzy

Debata o nieskończoności

Z wielką przyjemnością informuję, że 21 czerwca o godz. 16.30 w sali 206 Gmachu Głównego Politechniki Warszawskiej odbędzie się debata na temat:

◊  Czy zbiory nieskończone istnieją?

Referat i koreferat wygłoszą: prof. dr hab. Marek Kuś (Centrum Fizyki Teoretycznej PAN) i prof. dr hab. Krzysztof Wójtowicz (Zakład Filozofii Nauki UW).

Spotkanie poprowadzą: prof. dr hab. Andrzej Biłat (Zakład Filozofii PW) i prof. dr hab. Zbigniew Król (Zakład Filozofii Nauki, Socjologii i Podstaw Techniki PW).

W imieniu organizatorów serdecznie zapraszam wszystkich zainteresowanych…
Paweł Stacewicz

***************

W ramach przygotowań do debaty polecam kilka dyskusji o nieskończoności, które toczyły się w naszym blogu, a także bardzo ciekawy artykuł przeglądowy Profesora Murawskiego.

Oto i wspomniane materiały:

♦   O nieskończoności zbiorów na chłopski rozum
♦   Horror infiniti
♦   Amor infiniti. Jakie doń prowadzą intuicje filozoficzne?
♦   Nieskończoność w matematyce... (artykuł Romana Murawskiego)

Życzę miłej lektury, a gdyby ktoś chciał podyskutować jeszcze przed rozpoczęciem debaty, to zapraszam do wpisywania komentarzy: albo tutaj, albo w ramach w/w rozmów.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia nauki, Logika i metodologia | Dodaj komentarz

Sztuczna inteligencja. Wyzwanie czy zagrożenie?

Obecny wpis zamieszczam w blogu w imieniu Pani Natalii Wochtman (studentki Wydziału Fizyki PW), która chciałaby sprowokować swoje koleżanki i kolegów do dyskusji na temat   sztucznej inteligencji. Dyskusja rozpoczęła się w „realu”, na naszych zajęciach; być może jednak znajdzie swoją kontynuację tutaj.

Oto obszerne zagajenie autorstwa Pani Natalii:

Po raz pierwszy terminu sztuczna inteligencja użył John McCarthy w 1956r., definiując sztuczną inteligencję jako „naukę i inżynierię tworzenia inteligentnych maszyn”. Wszelkie definicje z perspektywy inżynierskiej odwołują się zaś do wyjaśnienia terminu „sztuczna inteligencja” poczynionego przez Marvina Minsky’ego w 1960r., który określił sztuczną inteligencję jako naukę o maszynach realizujących zadania, które wymagają inteligencji, gdy są wykonywane przez człowieka”.
Jedna ze współczesnych definicji traktuje z kolei sztuczną inteligencję jako „badanie i projektowanie inteligentnych agentów, gdzie inteligentny agent jest systemem, który rozpoznaje swoje otoczenie i podejmuje działania maksymalizujące jego szanse na rozwój”.
Sztuczną inteligencję definiować można również jako własność systemów informatycznych, dzięki której wykazują one znamiona ludzkiej inteligencji lub maszyn, które taką własność posiadają. Niemniej jednak przeważająca większość definicji odnosi się do aspektów inżynierskich i badań.

Dotychczasowe osiągnięcia w dziedzinie badań nad sztuczną inteligencją, jak również przewidywania dotyczące najbliższych lat są naprawdę imponujące. Jako doskonały przykład ilustrujący te prognozy posłużyć może firma Google, która  stworzyła „sztuczny mózg” – czyli maszynę, która jest w stanie zrozumieć to, co widzi i wyciągnąć z tego racjonalne wnioski.
Z kolei analitycy firmy Gartner w swoich prognozach przepowiadają m.in. że od 2018 roku maszyny stopniowo zaczną zastępować piszących raporty i sprawozdania, a ponad 2 miliony pracowników będzie musiało nosić urządzenia monitorujące stan zdrowia i ogólną kondycję jako warunek zatrudnienia.
Wybitny badacz profesor Alan Black, który zajmuje się między innymi syntezą mowy, twierdzi z kolei, że roboty kolejnej generacji będą wzdychać, chrząkać oraz uśmiechać się i płakać. Mają to być tzw. wypełniacze rozmowy. Chodzi o to, aby roboty miały osobowość, a nie zachowywały się zawsze tak samo. Wtedy człowiek rozmawiający z robotem znajdującym się za ścianą nie będzie do końca pewny czy ma do czynienia rzeczywiście ze sztuczną inteligencją, czy z drugim człowiekiem. Przykład ten choć z naszej perspektywy wydaje się nieco futurystyczny doskonale pokazuje, że rozwój sztucznej inteligencji wykracza daleko poza ściśle rozumiane zagadnienia technologiczne.
Przy obecnym tempie rozwoju badań wydaje się nieuniknione wkroczenie sztucznej inteligencji w sferę stosunków społecznych, które do tej pory wydawały się zarezerwowane wyłącznie dla ludzi. Ingerencja sztucznej inteligencji w sferę relacji i emocji stanowić może niezwykłą rewolucję w zakresie kontaktów międzyludzkich. Czy nie doprowadzi to do katastrofy? Oto sztuczny twór myśli i inwencji stać się może równoprawnym partnerem dla człowieka. Co więcej twór ten w wielu kwestiach dalece wykraczać będzie poza zdolności umysłowe ludzi. Fakt ten wydaje się równie fascynujący jak i groźny.

Nadal istnieje wiele aspektów ludzkiej inteligencji, których według niektórych naukowców sztuczna inteligencja nie jest w stanie pojąć. Na przykład jeśli nie słyszymy całej treści rozmowy, jesteśmy w stanie ze względną łatwością wypełnić „luki” poprzez interpretacje jej kontekstu, czy charakteru naszego rozmówcy. Według niektórych naukowców, komputery nie są do tego zdolne, bowiem to pamięć i jej efektywne wykorzystanie stanowi kluczowy warunek do poznania otaczającego nas świata.
Jednocześnie należy zauważyć, że sam ludzki mózg pozostaje jedną z największych tajemnic współczesnej nauki i medycyny. Nie są bowiem dokładnie poznane wszystkie mechanizmy umożliwiające mu  tworzenie naszej inteligencji.

Podkreślić trzeba, że problematyka sztucznej inteligencji dalece wykracza poza sferę technologii i nauki. Dotyka ona także podstawowych problemów społecznych, a nawet filozoficznych. Naukowcy pracujący nad projektami związanymi z wdrożeniem projektów dotyczących sztucznej inteligencji tworzą w pewnym sensie „świat równoległy” niejako konkurencyjny wobec inteligencji naturalnej. Z całą pewnością otwiera to niespotykane dotychczas możliwości oraz pozwala rozwijać zupełnie niezagospodarowane obszary badawcze. Projekty te tworzą więc nowe szanse rodząc jednocześnie nieznane do tej pory wyzwania. Wizje rozwoju sztucznej inteligencji tak mocno osadzonej w nauce mają często charakter futurystyczny rodem z filmów science-fiction. W tym zakresie racjonalne i pragmatyczne metody, a także projekty naukowe mocno ingerują w świat rzeczywistych relacji społecznych.

W tym kontekście warto postawić następujące pytania:

Czy jesteśmy gotowi na to by nasze dzieła nie tylko nam dorównywały, ale także w wielu aspektach nas przewyższały?

Czy komputery mogą stać się niezawodne? Nieomylne? Czy sztuczna inteligencja nas przewyższy i będzie lepsza od nas pod każdym względem?

Czy istnienie sztucznej inteligencji zagraża nam jako społeczeństwu? Czy może dojść do sytuacji, gdy nasza władza nad technologią wymknie się spod kontroli? A może istnienie takiego bytu przyniesie nam tylko korzyści?

ZAPRASZAMY do dyskusji – Natalia Wochtman i Paweł Stacewicz.

Na rozgrzewkę zaś polecamy następujące materiały:
♦   Czy istnieje sztuczna inteligencja? (esej P. Stacewicza)
♦   https://www.youtube.com/watch?v=MaItaCQcYIE
♦   https://www.youtube.com/watch?v=5rNKtramE-I
♦   https://www.youtube.com/watch?v=CK5w3wh4G-M

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 25 komentarzy

Turing czy Searle?

Podczas kilku ostatnich zajęć na różnych Wydziałach PW (zob. spis przedmiotów) dyskutowaliśmy o hipotetycznym myśleniu maszyn. Dość nawet zażarcie. Odnosiliśmy się przy tym do klasycznych tekstów Alana Turinga i Johna Searle’a, które zalinkowałem na końcu wpisu. Wydaje mi się, że zawarte w tych tekstach  argumenty są wciąż warte komentowania.

Choć w tym roku studenci nie garną się zbytnio do naszego bloga, to akurat w ramach powyższego tematu zadeklarowali wstępnie chęć porozmawiania.
Zaczynam zatem blogową dyskusję, a czynię to fikcyjnymi głosami dwóch naszych bohaterów.

*********

Rozmowę zaczyna SEARLE:

– Panie Alanie, skoro mamy rozmawiać o hipotetycznym myśleniu maszyn, to niech Pan określi na początek, co to w ogóle znaczy – według Pana –  „myśleć”. Myśleć oczywiście przez duże „M”, a nie na przykład wtedy, gdy na coś instynktownie reagujemy lub wykonujemy ślepo czyjeś rozkazy.

TURING odpowiada:

– Hmm… Właściwie, to nie wiadomo, cóż to znaczy. Wiadomo jednak, że istotami, które myślą przez największe „M” są ludzie. Ludzie zaś używają niezwykle wyrafinowanego języka, który ze względu na składnię, bogactwo odniesień, siłę wyrazu etc… nie daje  się porównać z językiem żadnego innego gatunku.
Maszyna myśląca zatem powinna być zdolna do używania naszego języka. Jeśli podczas swobodnej rozmowy z maszyną, nie będę potrafił odróżnić jej od człowieka, to będę musiał uznać ją za myślącą.

SEARLE:

– Zaraz, zaraz… Do maszyn jeszcze dojdziemy. Póki co jednak skupmy się na ludziach. Pan powiada, że nie za bardzo wiadomo, co to znaczy „myśleć”. Ja na to odpowiadam, że „dobrze wiem, kiedy myślę, to znaczy, kiedy ja myślę”.
Myślę, gdy rozumiem (ewentualnie: usiłuję zrozumieć) to co robię, lub to co mówię.
Gdy działam w sposób instynktowny, nie myślę; gdy powtarzam dźwięki innych jak papuga, nie myślę; gdy rozwiązuję zadanie, wykonując mechanicznie pewien algorytm, nie myślę…
Myśleć zatem to rozumieć (rozum mieć, :-)), a rozumieć można tylko przy udziale świadomości. Świadomość czegoś jest zatem warunkiem koniecznym, choć nie wystarczającym, myślenia.

TURING:

Uua… Poleciał Pan teraz po maśle maślanym. Myśleć to znaczy rozumieć (lub usiłować rozumieć), a rozumieć to być (co najmniej) świadomym.  Czy w ogóle potrafi Pan wyjaśnić, czym jest rozumienie i świadomość?

SEARLE:

Nie poleciałem po maśle maślanym, bo podałem przykłady. Podejrzewam, że i Pan potrafi rozpoznać  sytuacje, w których działa Pan ze zrozumieniem, i sytuacje, w których żadnego rozumienia nie ma. W pierwszych sytuacjach Pan myśli (przez duże M), w drugich – nie.
Dlatego też, jeśli mamy oceniać, czy maszyna myśli, czy nie – to musimy wyobrazić  sobie, że działamy tak jak ona i ocenić uczciwie, czy działamy wtedy ze zrozumieniem. Jeśli widzimy, że rozumienia nie ma (i być nie musi), to nie wolno nam uznać maszyny za myślącą.  Tak właśnie stawiam sprawę w znanej Panu argumentacji chińskiego pokoju.

TURING:

Panie Johnie…  Ja uważam jednak, że odwoływanie się do własnej tylko wyobraźni jest nieuczciwe. W gruncie rzeczy powiada Pan, że nie może sobie wyobrazić, iż maszyna (jedną z nich Pan w swoim chińskim eksperymencie naśladuje) posiądzie świadomość.
Rozumiem, że trudno sobie wyobrazić, jak człowiek (który już posiada świadomość), wykonując bez ustanku jakieś dziwne komputerowe operacje niskiego poziomu (przeznaczone dla zupełnie innych niż człowiek elementów), może wzmocnić swoją świadomość lub zyskać jakąś nową warstwę świadomości.
Proszę jednak pomyśleć o maszynie, która początkowo świadomości nie ma, lecz realizuje pewien bardzo złożony program, który rozwijając się w interakcji ze środowiskiem,  wytwarza jakieś pierwociny świadomości.  Pierwociny, które stopniowo mogą przekształcać się w świadomość głęboką i wieloaspektową. Według mnie to całkiem realna perspektywa.
Innymi słowy, ja przeciwnie do Pana jestem w stanie wyobrazić sobie, że odpowiednia złożoność programu – programu wchodzącego w interakcje z otoczeniem (czego Pan w chińskim pokoju nie dopuszcza) – może dać maszynie świadomość.
Inna sprawa, że wcale nie wiemy, czy o skuteczności działań jakiegokolwiek układu w świecie decyduje świadomość (nam znana z introspekcji). W to jednak nie będę wchodził…

SEARLE:

Przypuśćmy na próbę, że przyjmuję Pańskie argumenty i godzę się na możność zaistnienia świadomości wskutek odpowiednio wysokiej złożoności programu sterującego systemem interaktywnym.
Co Pan jednak na to, że ludzie posiadają mózgi, a mózgi są układami biologicznymi, złożonymi z materii organicznej. Nawet jeśli mózgi mają jakieś złożone oprogramowanie, to ów „niematerialny” software jest nierozerwalnie spleciony z biologicznym hardware. Biologicznym – powtarzam. Nie krzemowym, nie mechanicznym, nie jakimś zupełnie dowolnym – lecz złożonym z takich a takich substancji organicznych.
Gdyby świadomość była zależna od biologii mózgu, to złożoność mózgowego oprogramowania nie wystarczałaby do jej zaistnienia…

Tutaj musimy przerwać nasz fikcyjny dialog i poprosić czytelników o jego kontynuowanie w formie komentarzy.  Kontynuacja może polegać zarówno na ustosunkowywaniu się do przedstawionych argumentów, jak i formułowaniu nowych.

Gorąco ZAPRASZAM…

A oto linki do dwóch tekstów źródłowych:
♦  Alan Turing, „Maszyny liczące a inteligencja”.
♦  John Searle, „Czy maszyny mogą myśleć?”.

Zaszufladkowano do kategorii Filozofia informatyki, Światopogląd informatyczny | 24 komentarze

Główne pytanie kognitywistyki: czy zdolność poznawcza umysłu przewyższa maszynę Turinga?

Projekt badawczy kognitywistyki sprowadza się do kwestii: czy umysł ludzki jest równoważny maszynie Turinga? Równoważny pod względem zdolności poznawczych czyli możliwości rozwiązywania problemów. Równoważność określamy przez porównanie dwóch zbiorów problemów:

T = zbiór problemów rozwiązywalnych przez maszynę Turinga.
U = zbiór problemów rozwiązywalnych przez umysł ludzki.

Wtedy owa kwestia kognitywistyki zamknie się w pytaniu o równość zbiorów: U=T?

Odpowiedź twierdząca implikuje pogląd negatywny co do potrzeby kognitywistyki jako odrębnej dyscypliny. Jeśli jest on słuszny, to pracujący pod tą firmą zasilą szeregi bezrobotnych. Ich miejsca pracy zajmą informatycy jako specjaliści od maszyny Turinga, którzy z równą łatwością, z jaką badają tę maszynę mogą się zająć badaniem umysłu.

Zwolenników odpowiedzi twierdzącej nazwijmy krótko turingowcami, a zwolenników przeczącej — super-turingowcami. Ci drudzy uważają, że klasa T jest tylko częścią (właściwą) klasy U.

Moja odpowiedź na pytanie „U=T?” jest super-turingowska, a więc zdecydowanie przecząca. Czerpię ją z osobistej intuicji filozoficznej. Nie może jednak taka intuicja być argumentem w dyskusji naukowej. Toteż proponuję przyjąć ją jako hipotezę roboczą. Wysuwane za nią racje poddamy pod krytykę turingowców; jeśli je obalą, to przejdziemy na ich stronę lub zawiesimy sąd w tej sprawie.

Racje na rzecz non(U=T) są dwojakie: ze sfery motywacji i ze sfery efektywności poznania. Te pierwsze odnoszą sie do faktu, że mamy dwa rodzaje motywacji poznawczej: ciekawość oraz niepokój wobec jakiejś trudności, który pragniemy usunąć, a problemem jest: jak to zrobić? Jedno i drugie jest rodzajem uczucia: ciekawość jest uczuciem przyjemnym, a ów
niepokój przykrym. Żeby być zdolnym do przyjemności i do przykrości,  trzeba mieć system nerwowy, ten zaś musi być zbudowany z materii organicznej, a nie np. z drutu. Ponieważ w definicji maszyny Turinga ów czynnik emocjonalny nie występuje (milczy też o nim test Turinga), a jest on w poznaniu konieczny, maszyna nie dorównuje tu umysłowi. Być może, któreś ogniwo tego rozumowania jest błędne, czego turingowiec powinien by dowieść.

Argument z efektywności poznania odwołuje się do doświadczeń z dziejów języka, w tym naukowego, w szczególności języka matematyki. Zanim powstało w języku człowieka pierwotnego słowo „ogień”, ktoś musiał ogień zobaczyć, a więc ogląd wyprzedził słowo. Mógł on występować w rozumowaniach bez użycia słów, na przykład: „jeśli włożę rękę w ogień, to się sparzę, a więc żeby się nie sparzyć, trzeba jej w ogień nie kłaść”. Na każdym kroku tak bez słów — w sposób wyłącznie oglądowy — rozumują zwierzęta. Czy da się to symulować na maszynie Turinga? Być może. Niech turingowiec powie jak, co powinno
otworzyć kolejny etap dyskusji.

Pojęcie oglądu  dotyczy nie tylko spostrzeżeń lub wyobrażeń zmysłowych, lecz także oglądu intelektualnego obiektów abstrakcyjnych.  Żeby się zgodzić na Euklidesową definicję punktu, trzeba rozumieć o czym ona mówi, a więc mieć ogląd obiektów w niej wymienionych. A nie jest to ogląd zmysłowy. Wszystkie rozumowania Euklidesa odwołują się do takich oglądów, nie kierując się wcale regułami przetwarzania ciągów symboli, których dostarcza logika jako narzędzie formalizacji dającej się wykonać na maszynie Turinga.

Zagadnienie rozumowań oglądowych  jest szerzej dyskutowane a artykule (w  postaci serii slajdów) „Rozumowania oglądowe a rozumowania sformalizowane”, gdzie porusza się też kwestię swoistości kognitywistyki. Komentarze do tego artykułu (ze wskazaniem numeru (§ i cyfra) odpowiedniego odcinka, można umieszczać poniżej na prawach komentarzy do obecnego wpisu. Adres artykułu: http://calculemus.org/CA/epist/16/kogn-synt.pdf

Zaszufladkowano do kategorii Epistemologia i ontologia, Filozofia informatyki | Jeden komentarz