Turing czy Searle?

Podczas kilku ostatnich zajęć na różnych Wydziałach PW (zob. spis przedmiotów) dyskutowaliśmy o hipotetycznym myśleniu maszyn. Dość nawet zażarcie. Odnosiliśmy się przy tym do klasycznych tekstów Alana Turinga i Johna Searle’a, które zalinkowałem na końcu wpisu. Wydaje mi się, że zawarte w tych tekstach  argumenty są wciąż warte komentowania.

Choć w tym roku studenci nie garną się zbytnio do naszego bloga, to akurat w ramach powyższego tematu zadeklarowali wstępnie chęć porozmawiania.
Zaczynam zatem blogową dyskusję, a czynię to fikcyjnymi głosami dwóch naszych bohaterów.

*********

Rozmowę zaczyna SEARLE:

– Panie Alanie, skoro mamy rozmawiać o hipotetycznym myśleniu maszyn, to niech Pan określi na początek, co to w ogóle znaczy – według Pana –  „myśleć”. Myśleć oczywiście przez duże „M”, a nie na przykład wtedy, gdy na coś instynktownie reagujemy lub wykonujemy ślepo czyjeś rozkazy.

TURING odpowiada:

– Hmm… Właściwie, to nie wiadomo, cóż to znaczy. Wiadomo jednak, że istotami, które myślą przez największe „M” są ludzie. Ludzie zaś używają niezwykle wyrafinowanego języka, który ze względu na składnię, bogactwo odniesień, siłę wyrazu etc… nie daje  się porównać z językiem żadnego innego gatunku.
Maszyna myśląca zatem powinna być zdolna do używania naszego języka. Jeśli podczas swobodnej rozmowy z maszyną, nie będę potrafił odróżnić jej od człowieka, to będę musiał uznać ją za myślącą.

SEARLE:

– Zaraz, zaraz… Do maszyn jeszcze dojdziemy. Póki co jednak skupmy się na ludziach. Pan powiada, że nie za bardzo wiadomo, co to znaczy „myśleć”. Ja na to odpowiadam, że „dobrze wiem, kiedy myślę, to znaczy, kiedy ja myślę”.
Myślę, gdy rozumiem (ewentualnie: usiłuję zrozumieć) to co robię, lub to co mówię.
Gdy działam w sposób instynktowny, nie myślę; gdy powtarzam dźwięki innych jak papuga, nie myślę; gdy rozwiązuję zadanie, wykonując mechanicznie pewien algorytm, nie myślę…
Myśleć zatem to rozumieć (rozum mieć, :-)), a rozumieć można tylko przy udziale świadomości. Świadomość czegoś jest zatem warunkiem koniecznym, choć nie wystarczającym, myślenia.

TURING:

Uua… Poleciał Pan teraz po maśle maślanym. Myśleć to znaczy rozumieć (lub usiłować rozumieć), a rozumieć to być (co najmniej) świadomym.  Czy w ogóle potrafi Pan wyjaśnić, czym jest rozumienie i świadomość?

SEARLE:

Nie poleciałem po maśle maślanym, bo podałem przykłady. Podejrzewam, że i Pan potrafi rozpoznać  sytuacje, w których działa Pan ze zrozumieniem, i sytuacje, w których żadnego rozumienia nie ma. W pierwszych sytuacjach Pan myśli (przez duże M), w drugich – nie.
Dlatego też, jeśli mamy oceniać, czy maszyna myśli, czy nie – to musimy wyobrazić  sobie, że działamy tak jak ona i ocenić uczciwie, czy działamy wtedy ze zrozumieniem. Jeśli widzimy, że rozumienia nie ma (i być nie musi), to nie wolno nam uznać maszyny za myślącą.  Tak właśnie stawiam sprawę w znanej Panu argumentacji chińskiego pokoju.

TURING:

Panie Johnie…  Ja uważam jednak, że odwoływanie się do własnej tylko wyobraźni jest nieuczciwe. W gruncie rzeczy powiada Pan, że nie może sobie wyobrazić, iż maszyna (jedną z nich Pan w swoim chińskim eksperymencie naśladuje) posiądzie świadomość.
Rozumiem, że trudno sobie wyobrazić, jak człowiek (który już posiada świadomość), wykonując bez ustanku jakieś dziwne komputerowe operacje niskiego poziomu (przeznaczone dla zupełnie innych niż człowiek elementów), może wzmocnić swoją świadomość lub zyskać jakąś nową warstwę świadomości.
Proszę jednak pomyśleć o maszynie, która początkowo świadomości nie ma, lecz realizuje pewien bardzo złożony program, który rozwijając się w interakcji ze środowiskiem,  wytwarza jakieś pierwociny świadomości.  Pierwociny, które stopniowo mogą przekształcać się w świadomość głęboką i wieloaspektową. Według mnie to całkiem realna perspektywa.
Innymi słowy, ja przeciwnie do Pana jestem w stanie wyobrazić sobie, że odpowiednia złożoność programu – programu wchodzącego w interakcje z otoczeniem (czego Pan w chińskim pokoju nie dopuszcza) – może dać maszynie świadomość.
Inna sprawa, że wcale nie wiemy, czy o skuteczności działań jakiegokolwiek układu w świecie decyduje świadomość (nam znana z introspekcji). W to jednak nie będę wchodził…

SEARLE:

Przypuśćmy na próbę, że przyjmuję Pańskie argumenty i godzę się na możność zaistnienia świadomości wskutek odpowiednio wysokiej złożoności programu sterującego systemem interaktywnym.
Co Pan jednak na to, że ludzie posiadają mózgi, a mózgi są układami biologicznymi, złożonymi z materii organicznej. Nawet jeśli mózgi mają jakieś złożone oprogramowanie, to ów „niematerialny” software jest nierozerwalnie spleciony z biologicznym hardware. Biologicznym – powtarzam. Nie krzemowym, nie mechanicznym, nie jakimś zupełnie dowolnym – lecz złożonym z takich a takich substancji organicznych.
Gdyby świadomość była zależna od biologii mózgu, to złożoność mózgowego oprogramowania nie wystarczałaby do jej zaistnienia…

Tutaj musimy przerwać nasz fikcyjny dialog i poprosić czytelników o jego kontynuowanie w formie komentarzy.  Kontynuacja może polegać zarówno na ustosunkowywaniu się do przedstawionych argumentów, jak i formułowaniu nowych.

Gorąco ZAPRASZAM…

A oto linki do dwóch tekstów źródłowych:
♦  Alan Turing, “Maszyny liczące a inteligencja”.
♦  John Searle, “Czy maszyny mogą myśleć?”.

Ten wpis został opublikowany w kategorii Filozofia informatyki, Światopogląd informatyczny. Dodaj zakładkę do bezpośredniego odnośnika.

24 Responses to Turing czy Searle?

  1. Jakub Miernik pisze:

    Odnosząc się do ostatniego argumentu Searla, wydaje mi się, że aby powstało myślenie nie jest potrzebny wcale biologiczny mózg. Zgodnie z dzisiejszą wiedzą mózg to sieć neuronowa ze skomplikowanymi sygnałami i zależnościami, jednak nie widzę żadnej przeszkody by odtworzyć taką sieć w innym materiale niż biologiczny, jeśli zrozumiemy dobrze zasadę działania mózgu. Zupełnie inną kwestią jest wgranie odpowiedniego “programu” do tej struktury. Argumentowanie takie, że mózg jest biologiczny więc nie odtworzymy go w sposób niebiologiczny można by porównać z argumentowaniem: “Jeśli ciało człowieka (np. ręka) jest biologiczna złożona z materii organicznej to nie może ono (ona) zostać skopiowane przez materię nieorganiczną”. Jak wiemy ta teza jest błędna, ponieważ powstają sztuczne kończyny, a nawet organy, które nie są biologiczne, a które mogą działać i zastąpić organiczne.

    • Marcin Kretkowski pisze:

      Przykład ręki nie wydaje mi się być idealny. O ile jesteśmy w stanie stworzyć przybliżenie tego organu, który będzie spełniał jego funkcje, o tyle obecnie nie potrafimy np. stworzyć urządzenia, które potrafiłoby regenerować swoich uszkodzeń jak w zasadzie wszystko, co organiczne.
      W idei biologicznego mózgu chodzi bardziej o to, że sprzęt jakim jest mózg sam w sobie stanowi poniekąd program. Zmiany w sposobie działania mózgu nie są determinowane zmianą jakiegoś oprogramowania lecz struktury mózgu jako takiej. Dlatego też obecnie nie jesteśmy w stanie stworzyć urządzenia skutecznie realizującego funkcje mózgu.
      Moim zdaniem stworzenie myślącej maszyny nie jest niemożliwe, ale z obecną technologią z pewnością nieosiągalne. Pomijając problemy związane z niezbędną, ogromną mocą obliczeniową, komputery obecnej generacji są wielce nieefektywne w generowaniu rozwiązań do nowych problemów.
      Pojawia się również problem semantycznej interpretacji danych. Zakładając wysoką złożoność “inteligentnego” programu ciężko będzie nam określić czy interpretuje on dane, czy tylko przetwarza zgodnie z algorytmem. Nawet jeśli stworzymy go właśnie w tym celu skąd mieć pewność, że pojawiły się zalążki świadomości? Gdzie postawić granicę między bytem myślącym a maszyną wykonującą algorytm?

    • Krzysiek Dzienisiuk pisze:

      W starożytności uważano, że w sercu następuje wrzenie krwi co powoduje wzrost ciśnienia w ciele człowieka co powoduje jej przepływ w organizmie. W XVIII w. porównywano umysł do mechanizmu trybów jak w zegarku. W XIX w. do maszyny parowej. Potem do linii telegraficznych i obwodu elektrycznego …
      Nie ma żadnych przesłanek do tego żeby porównywać umysł ‘przez analogię’ do takich “sztucznych tworów”. To są abstrakcyjne modele przyjęte na podstawie obserwacji rzeczywistości lecz nie dedukcji czym jest mózg sam w sobie. Sztuczne sieci neuronowe mają gigantyczną ilość ograniczeń i nawet na pierwszy rzut niedoświadczonego oka zastosowanie takiego formalizmu nie jest w stanie opisać wszystkich funkcjonalności umysłu.
      Odnośnie Twojego argumentu ręki… Wydaję mi się, że zarówno Twoje porównanie jest błędne jak i sposób w jaki je bronisz. W rozważaniach materiał nie jest użyty tutaj jako ‘budulec’. Nie chodzi o to czy mózg będzie zbudowany z komórek glejowych czy kryształu krzemowego. Chodzi tutaj moim zdaniem o ‘substancje’ … O rozpatrywanie mózgu, jego struktury i budowy jako integralnej całości. O biologicznym zaawansowanym systemie, w którym obowiązują pewne (nie do końca jeszcze poznane) zasady podziału komórkowego, przekazywania bodźców, potencjału czynnościowego itd …
      I tutaj przejdę do tej ręki. Czy gdybyśmy zamiast tej protezy wstawili inną np. drewniany kikut to czy taka proteza spełniałaby swoją rolę? Być może tak, ponieważ jakieś osobie udałoby się np. pić z użyciem szklanki za pomocą takiego kikuta. A gdybyśmy wstawili wysoce zaawansowaną protezę, w osoba mogłaby wykonywać zdecydowaną większość ruchów to czy moglibyśmy powiedzieć, że proteza taka spełnia swoją rolę? Wydaję mi się, że problemem ten sprowadza się do postawienia linii, gdzie zaczyna się sztuczna dłoń w roli narzędzie, a gdzie pełnoprawna ręka.
      Pełnoprawna ręka jako integralny, nieodzowny (po za szczególnymi przypadkami) element części organizmów biologicznych wykształcona w procesie ewolucji liczącej setki lat , przekazywanej z pokolenia na pokolenie w procesie którego jeszcze do końca nie rozumiemy…

    • Magda Bojarojć pisze:

      Podczas ostatnich zajęć jednym z argumentów dotyczących biologicznego hardware była kwestia zwijania się natywnej formy białek w ludzkim organizmie. Fakt, iż białka te u człowieka powstaja znacznie szybciej, niż wynikałoby to to z modelu matematycznego, sugeruowałby wyjątkową wagę układu biologicznego i brak możliwości zastapienia go przez maszyny. Teza ta jednak została zanegowana – ewolucja rozpoczęła się przecież miliardy lat temu, stąd organizm miał czas na opracowanie metody odpowiedniego skręcania. Okazuje się jednak, iż model matematyczny określa, że czas potrzebny na uzyskanie optymalnej struktury białka wielokrotnie przekracza czas istnienia wszechświata!
      Okazuje się więc, że organizm ludzki działa w bardzo złożony sposób, być może bardziej złożony niż przypuszczaliśmy. Mózg, będący ośrodkiem powstawania myśli, jest strukturą bardzo skomplikowaną, w związku z czym sam proces powstawania myśli może być niemożliwy do sztucznego zaimplementowania. Skoro ludzki mózg jest zbudowany tak a nie inaczej, najwyraźniej jest to warunkiem koniecznym do spełniania przez niego powierzonych mu funkcji, w tym myślenia. Sztuczne odtworzenie ludzkiego mózgu jest najprawdopodobniej niemożliwe, a maszyny pozbawione idealnego odwzorowania tego organu nie będą w stanie myśleć jak człowiek, a jedynie sprawiać takie wrażenie.
      Wg mnie biologiczny mózg jest więc raczej niezbędny do myślenia…

      • Kacper Przydatek pisze:

        Odnosząc się do przykładu ręki w pełni zgadzam się z Marcinem. Samo stworzenie urządzenia zastępującego biologiczną kończynę nie oznacza, że narzędzie to może być nazywane w pełni funkcjonalną alternatywą ręki, czy nogi. Niestety w obecnej formie protezy nie potrafią zasymulować zmysłu dotyku, informacji o awarii w postaci odczucia bólu, nie potrafią także doprowadzić do autoregeneracji. Pozostając więc w sferze porównania protezy ręki do sztucznego mózgu uważam, że na moment obecny niemożliwe jest doprowadzenie do stworzenia wiernej kopii mózgu, jednak być może w pewnej przyszłości, po udoskonaleniu obecnych technologii pojawi się możliwość odwzorowania zarówno kończyn, jak i cerebrum. Problem pojawia się w momencie, w którym rozważamy sposób “uruchomienia” takiego ośrodka. Czy wystarczy pobudzić go impulsem elektrycznym, czy też obowiązkowe byłoby wgranie do niego pewnego niesamowicie skomplikowanego software? Uważam, że właśnie w tym momencie rozgrywa się najbardziej ryzykowna część kreowania sztucznego umysłu. Na nasze szczęście jednak w tym momencie możemy posiłkować się wieloma rozważeniami powstałymi podczas rozpatrywania potencjalnej postaci Mózgu Boltzmanna. Przemyślenia te także nie dały jednoznacznej odpowiedzi na pytanie “Czy Mózg może istnieć poza ciałem człowieka”, jednakże moim zdaniem dość dobitnie pokazują, iż przy obecnych zasobach wiedzy, którą dysponujemy jako ludzkość nie będziemy w stanie w sposób konkretny odpowiedzieć na początkową hipotezę.

  2. G. pisze:

    Moim zdaniem maszyny nie mogą myśleć.

    Jeśli przyznałbym, że mogą sam w pewnym sensie uznałbym się za maszynę – stawiając ją równą sobie. Warto prześledzić tutaj proces dorastania człowieka. Człowiek rodzi się z pewnymi zdolnościami naturalnymi dla niego np. oddychanie. Z biegiem czasu dorasta on, obserwuje świat i uczy się pewnych zachowań oraz tego co jest dobre, a co złe. Wydawać by się mogło, że jest to czysto mechaniczny proces. Podobny do nauki komputera. Ale czy na pewno?
    Jak to się dzieje, ze człowiek wybiera co jest dla niego dobre, a co złe? Na jakiej podstawie dokonuje wyborów? Czy robi to tylko z czysto praktycznego dla niego punktu widzenia, by przetrwać? Moim zdaniem nie. Człowiek poza chęcią przetrwania i wynikającą z niej zachowań kieruje się również uczuciami. Czy ktoś z Państwa potrafi wyobrazić sobie samobójstwo, które popełnia maszyna? Albo humorki: włączę lub nie włączę bo tak mi się podoba! Wydaje mi się, że nie…
    Maszyna zaprojektowana jest przez człowieka w celu wykonywania określonych zadań. Maszyna to inaczej… kalkulator. Bardziej lub mniej złożony jednak wciąż kalkulator. Według mnie myślenie to coś więcej niż procesy elektryczne w mózgu czy układzie scalonym. A mówiąc ściślej – to coś więcej niż podejmowanie decyzji, a tak właśnie działa komputer. Dostaje dane wyjściowe – wypluwa wyjściowe. Koniec.
    Człowiek natomiast nawet już po podjęciu decyzji analizuje ją często, zastanawiając się, czy zrobił dobrze. I to właśnie między innymi czyni go myślącym. Podjęcie decyzji to nie jest dla niego koniec problemu.

    • Marcin Kretkowski pisze:

      Pomijając problem złożoności algorytmicznej, program udający człowieka i spełniający wymienione przez użytkownika :) G. warunki jest możliwy do stworzenia. Nie widzę problemu w stworzeniu programu podejmującego nie do końca logiczne decyzje – to tylko kwestia wagi zmiennych ich analizy.
      Problemu doszukiwałbym się bardziej ze strony architektury takiego oprogramowania. Wspominałem już wyżej o problematyce statycznego sprzętu – nasze komputer mogą ulegać jedynie software’owym modyfikacjom. Mózg jest też w zasadzie symbiozą oprogramowania i sprzętu.
      Gdy zastanowimy się nad tym, jak musiałby wyglądać program sztucznej inteligencji, dość łatwo dojść do wniosku, że część programu związana z osobowością byłaby w wyższej klasie abstrakcji. Nie zajmowałaby się obliczeniami związanymi z detekcją krawędzi w obrazie, rozpoznawaniem częstotliwości dźwięku z mikrofonu – analizowałaby tylko dane po wstępnej obróbce. W jakiej formie dostawałaby te dane? Jeśli chcemy stworzyć silną SI usiałyby być to dane semantyczne. Jak zrealizować coś takiego. W mojej wizji dane musiałyby mieć “pływającą” formę – bez ściśle ustalonych granic, bez stałej formy, długości ani przeznaczenia.
      Jak wprogramować maszynie emocje? Jak sprawić aby stała się Bytem wielką literą? Na te pytania nie znam odpowiedzi. Mam tylko przeczucie, że krzem i kompilator nie wystarczą. Może odpowiedź kryje się gdzieś w okolicy semantycznej analizy danych?

  3. Mateusz Tomaszewski pisze:

    “Myśleć zatem to rozumieć (rozum mieć, :-)), a rozumieć można tylko przy udziale świadomości.” i “Czy w ogóle potrafi Pan wyjaśnić, czym jest rozumienie…”- strasznie mnie zaintrygowała kwestia rozumienia i uważam, że Pan Searle zdecydowanie zbyt intencjonalnie i niedokładnie używa tego słowa. Sformułowanie “rozumieć można tylko przy udziale świadomości” jest co najmniej mocno dyskusyjne. Świadomość a rozumienie, to przecież dwie zupełnie inne rzeczy.
    Skupmy się na rozumieniu. Definicji rozumienia jest wiele, ale wszystkie są raczej podobne: “Rozumienie jest wynikiem ludzkiego procesu myślowego. Nasz mózg dokonuje analiz, porównań, syntezy, łączy różne dane ze sobą i wyjaśnia zjawiska na dostępnym dla siebie poziomie.” I tu pojawia się moja wątpliwość – podkreślę jeszcze raz fragment “mózg dokonuje analiz, porównań, syntezy, łączy różne dane ze sobą” – brzmi to jak najbardziej jak czynności które mógłby wykonać komputer. Czemu więc Pan Searle tak niezachwianie wierzy, że komputer nie jest w stanie rozumieć. Owszem sposób działania przedstawiony w eksperymencie z chińskim pokojem nie wiele ma wspólnego z rozumieniem, ale też algorytm skupia się na dawaniu odpowiedzi, a nie na rozumieniu. Natomiast, jak Pan Marcin Kretkowski w swoim komentarzy napisał na samym końcu: “Może odpowiedź kryje się gdzieś w okolicy semantycznej analizy danych?”, może da się stworzyć algorytm, który będzie “analizował, porównywał, syntezował, łączył różne dane ze sobą”.
    Przykład:
    Mało kto rozumie słowo… np… Pragotron, gdy je pierwszy raz słyszy, ale gdy wytłumaczy się mu, że to jest potoczna nazwa na paletową tablicę informacyjną, taką jak tablice przyjazdów/odjazdów pociągów na stacjach kolejowych, to wtedy każdy już rozumie o co chodzi. Czemu? Bo każdy rozumie, każde ze słów zawartych w wytłumaczeniu, od razu łączą to sobie również ze wspomnieniami, bo przecież większość widziała już taką rzecz, tylko po prostu się nie zastanawiała, co to właściwie jest, albo jak to się nazywa.
    Tak więc – czy jeśli by:
    1. Wytłumaczyć każde pojecie zawarte w opisie pragotronu i każde z pojęć użytych w tych z kolei opisach itd. aż do pewnego stopnia uszczegółowienia lub do jakichś predefiniowanych pojęć/idei/wyobrażeń (bo nie oszukujmy się – nie da się tego tłumaczenia ciągnąć w nieskończoność – nawet my, ludzie nie do końca wszystko rozumiemy, ale mamy jakieś tam ogólne wyobrażenie, czy wystarczające nam do zrozumienia sensu wypowiedzi uogólnienie), czyli mieć wystarczająco obszerną bazę danych (nie tylko słownych, ale też i wizualnych, smakowych itd po kolei idąc po naszych zmysłach)
    2. Mieć skomplikowany algorytm, który byłby w stanie tworzyć siatkę połączeń, zależności między tymi wszystkimi danymi i oczywiście dodawać nowe na podstawie informacji z zewnątrz, tak by mógł “rozumieć” nowe pojęcia na podstawie danych już posiadanych.
    3. Mieć odpowiednio zaawansowany sprzęt komputerowy, pozwalający zaimplementować te niesamowicie wielkie struktury danych i ten niesamowicie złożony obliczeniowo algorytm.
    To czy w takim wypadku nasz komputer rozumiałby pojęcie pragotronu? Powiedzmy, że zgodzimy się, że w takim przypadku komputer rozumie – w końcu ten sposób nie różni się zbytnio od tego co obserwujemy u nas. Gdy małe dziecko uczy się nowych rzeczy i pojęć – cały czas zadaje pytania “a co to?” i trzeba mu tłumaczyć używając znanych mu już pojęć co to jest, do czego służy, jak jest zrobione itd. a dziecko to wszystko w mózgu łączy wraz z informacjami ze różnych zmysłów (jak to wygląda, pachnie, jaki dźwięk wydaje), zapamiętuje i z czasem rozumie coraz więcej.
    Ale czy to z kolei znaczy, że komputer myśli? Tak by wynikało ze stwierdzenia “Myśleć zatem to rozumieć”, z tym, że ja nie jestem pewien czy myślenie ogranicza się tylko do rozumienia. Wydaje mi się (żeby nie użyć wyrażenia “myślę, że”) myślenie jest jednak trochę bardziej skomplikowane, bo gdzie miejsce na abstrakcję, kreatywność, osobowość?

    Wydaje mi się, że zanim zaczniemy dyskutować o tym, czy maszyny mogą myśleć, powinniśmy poświęcić jeszcze zdecydowanie więcej czasu samej definicji myślenia, gdyż nadal jest to wielka niewiadoma, a już zupełnie niewystarczające wydają mi się tłumaczenia Turinga czy Searlea.

  4. Magda Dobrowolska pisze:

    Na początku hipotetycznej rozmowy między Searlem a Turingiem padło najistotniejsze pytanie w całej dyskusji. Co to znaczy myśleć? Wydaje mi się, że każdy człowiek może mieć tu delikatnie różną definicję. Turing słusznie zauważa, że ludzie do wyrażania swoich myśli używają niezwykle bogatego i wyrafinowanego języka, który moim zdaniem jest nieraz trudny do odtworzenia i zrozumienia przez inną kulturę a co więcej niemożliwy w pełni do odtworzenia przez maszyny. Turing uważa, że maszyna myśląca powinna być zdolna do odtworzenia naszego języka i uzna ją za myślącą kiedy podczas swobodnej rozmowy nie odróżni jej od człowieka. Tylko może warto postawić sobie pytanie jak długo powinna trwać taka rozmowa by upewnić się, że mamy do czynienia z człowiekiem a nie maszyną próbującą de facto nas oszukać podając się za człowieka? Jaki czas jest optymalny? Searle w odpowiedzi na argumenty Turinga, zwraca według mnie słusznie uwagę znów na samą definicję myślenia. Pada tutaj bardzo rzeczowa definicja: rozumieć i mieć świadomość. Turing na tę odpowiedź reaguje mam wrażenie trochę rozdrażnieniem i zadaje dodatkowe pytania o definicję rozumienia i świadomości. Może w tym momencie warto zadać sobie pytania: Czy jest choć minimalna szansa, że maszyny będą miały kiedykolwiek świadomość? Według mnie nie. Searle przywołuje tutaj przykład chińskiego pokoju. Zapoznając się z tym eksperymentem myślowym od razu nasunęły mi się pytania: co to znaczy „odpowiedź na zadanie pytanie ” w przypadku maszyny? Czy maszyna rzeczywiście odpowiada? Według mnie nie, ona generuje odpowiedź za pomocą zaimplementowanych algorytmów nie rozumiejąc tego, co robi. Searle założył, że odpowiedzi będą tak dobre, jak człowieka znającego chiński. A tu się nasuwa kolejne pytanie: dlaczego będą tak samo dobre? Czy da się zaimplementować wszystkie możliwe konfiguracje zdań, słów, synonimów…? Założenie trochę nierealne z mojego punktu widzenia, więc czy z nierealnego założenia można wysnuć poprawne wnioski? Zgadzam się mimo wszystko jednak z przesłaniem płynącym z tego eksperymentu. Do zrozumienia języka nie wystarczy sama syntaktyka, warunkiem koniecznym jest semantyka, czyli rozumienie symboli. Turing pokazuje swój punkt widzenia. Według niego maszyna, która początkowo nie miała świadomości, wykonując złożony program może jej nabrać. Zadałabym to samo pytanie: czy realizacja skomplikowanego programu daje świadomość? Według mnie nie, ale daje coś innego bardzo ważnego. Pokuszę się o stwierdzenie, że w pewnych kwestiach zapewnia przewagę maszyn nad ludźmi. Mianowicie, można na to spojrzeć z tej perspektywy: komputery do rozwiązywania skomplikowanych zagadnień używają zaimplementowanych algorytmów postępowania i o ile te algorytmy są poprawne dla danego zagadnienia, to ponieważ komputery się nie mylą, uzyskamy poprawną odpowiedź. A ludzie…? Popełniają czasem błędy. Ale czy nie popełnianie błędów i szybkość rozwiązywania skomplikowanego problemu jest równoznaczna ze świadomością? Tu znów wracamy do definicji świadomości. Na końcu dyskusji Searle podkreśla coś, z czym się w 100 % zgadzam, a mianowicie nierozerwalność świadomości od biologicznej natury człowieka.

  5. Dawid Zawrotny pisze:

    Mimo, iż jak twierdzi Turing ludzki język jest niezwykle wyrafinowany, to Sztuczna Inteligencja od Google czyta z ruchu warg lepiej niż najlepsi ludzcy specjaliści. Maszyna więc potrafi "zrozumieć" lepiej ludzki język niż sami ludzie. 

    Z drugiej strony mimo doskonałości technicznej tej funkcji maszyny nie jest świadoma tego co mówimy lub nie jest jest JESZCZE świadoma. Gdy powiemy: "poproszę hamburgera i frytki", to taki kelner-maszyna będzie w stanie zinterpretować nasze słowa. Ale co jeśli jeśli zadamy mu pytanie – "Kim/czym jesteś ?". Czy z sam siebie będzie w stanie rozpoznać nas jako ludzi i odróżnić podobne maszyny od ludzi ? Czy będzie w stanie to zrobić nie na podstawie sztucznych, zaimplementowanychw w kodzie kryteriów – po prostu sam z siebie ?

    Sam fakt wypowiedzenia słów przez maszynę od człowieka: "Ty jesteś człowiekiem" – nie jest jest jednoznaczny z tym, że maszyna rozumie to co powiedziała. Musi być ona ŚWIADOMA tych słów.

    Czy maszyna może sama osiągnąć samoświadomość ? Nie. Maszyna MUSI sama tę świadomość, ale potrzebny jest do tego człowiek – Pierwszy Poruszyciel, który stworzy maszynie warunki, aby mogła tego dokonać.

    Przodkowie pierwszych ludzi, nasi przodkowie, nie byli od razu samoświadomi. Nie wiedzieli, że głosy w ich głowach to oni sami. Kierowali się instyktem. Proces dochodzenia do samoświadomości był stopniowy.

    W serialu Westworld przedstawiane są kolejne "umiejętności", które musi posiadać maszyna, żeby dojść do samoświadomości:

     

                   .

                  /=\\

                 /===\ \

                /=====\' \

               /=======\'' \

              /=========\ ' '\

             /CIERPIENIE=\''   \

            /=============\ ' '  \

           /===============\   ''  \

          /=Dbanie o swój ==\' ' ' ' \

         /======Interes======\' ' '  ' \

        /=====================\' '   ' ' \

       /===IMPROWIZACJA========\  '   ' /

      /=========================\   ' /

     /=========PAMIĘĆ============\'  /

    /=============================\/

     

    Jest to dosyć ciekawe podejście (chociaż nie jest naukowe). Między kolejnymi poziomami nie przechodzi się wertykalnie, ale jakby naokoło, ścieżkami jak w labiryncie ( ostatni poziom jest centrum labiryntu).

    Pamięć maszyny jest ostra, ludzie przywołując wspomnienia widzą je jakby za mgłą. Ludzie zapominają o szczegółach. Maszyna przywołując zdarzenie z pamięci nie jest w stanie odróżnić go od sytuacji, która ma miejsce w czasie aktualny, Nie da się zaimplementować ludzkiego sposobu pamiętania.

    Improwizacja jest niezmiernie ważną cechą. Maszyna musi umieć wyrwać się z algorytmu i w zależności od sytuacji postąpić stosowanie lub nie. Ale musi umieć reagować nieschematycznie. Nie sa się bowiem uzwględnić wszystkich zmiennych/ przypadków w kodzie algorymtu, który miałby sterować maszyną. Taki algorym musiałby być tylko podstawą do tego, aby maszyna mogłą od niego odejść i zacząć improwizować.

    Maszyna musi być również świadoma tego, że nie może być niewolnikiem człowieka, musi mieć potrzeba dbania o własną istotę.

    Co najważniejsze maszyna musi umieć cierpieć. Jak ma to osiągnać ? Nie mam pojęcia, bo cierpienie nie jest tylko rzeczą ludzką. Cierpią również zwierzęta. Cierpi każdy istota żywa.

    Jak zaimplementować cierpienie ?

     

     

     

     

     

    • EW pisze:

      >Sztuczna Inteligencja od Google czyta z ruchu warg lepiej niż najlepsi ludzcy >specjaliści. Maszyna więc potrafi "zrozumieć" lepiej ludzki język niż sami ludzie. 

      Wykrywanie wypowiadanych głosek z ruchu warg nijak ma się do rozumienia języka. SI może czytać z ruchu warg, ale to w żadnym wypadku nie świadczy o tym, że maszyna rozumie semantykę lub pragmatykę tego, co czyta. 

      >Przodkowie pierwszych ludzi, nasi przodkowie, nie byli od razu samoświadomi. Nie >wiedzieli, że głosy w ich głowach to oni sami. Kierowali się instyktem. Proces >dochodzenia do samoświadomości był stopniowy.

      Mógłbyś to udowodnić, tj. powołać się na jakieś wiarygodne źródła? Notabene, w jaki sposób kierowanie się instynktem jest w relacji z fenomenem samoświadomości? Psy są samoświadome, a raczej nikt nie określa ich mianem istot rozumnych…

      >Nie sa się bowiem uzwględnić wszystkich zmiennych/ przypadków w kodzie >algorymtu, który miałby sterować maszyną. Taki algorym musiałby być tylko >podstawą do tego, aby maszyna mogłą od niego odejść i zacząć improwizować.

      Takie algorytmy już istnieją i nazywa się je algorytmami genetycznymi.

       

  6. M.Bieniek pisze:

    Searle w argumentacji chińskiego pokoju próbuje dowieść, że maszyny nie mogą myśleć, bo nie rozumieją tego co robią. W pokoju człowiek korzystając z opisanych reguł sprawia wrażenie jakby rozumiał język chiński podczas, gdy wcale tak nie jest.
    Eksperyment ma dowodzić, że nie potrzeba zrozumienia by coś wykonać.
    Oczywiście, nie potrzeba zrozumienia samego problemu, ale potrzeba zrozumienia instrukcji, którą trzeba posłużyć się do jego wykonania.
    W środku znajduje się człowiek, który niewątpliwie myśli, prowadzi wewnętrzny dialog myślowy. Zatem czy sposób działania tego pokoju nie jest to podobny do działania mózgu?
    Człowiek często wykonuje coś nie rozumiejąc co robi, ale jest w stanie zrobić to dobrze, bo rozumiał to twórca instrukcji (algorytmu).
    Moim zdaniem ten eksperyment nie dowodzi, że maszyny nie mogą myśleć i rozumieć. Przeciwnie, pokazuje, że maszyny potrafią zrozumieć i wykonać daną im instrukcję, a zatem użyć wiedzy, którą posiadają ludzie.

    Uważam, że aby dowiedzieć się czy mogą one naprawdę myśleć i rozumieć musimy podejść do problemu od innej strony.

    Padło tutaj stwierdzenie, że przodkowie ludzi nie byli od razu samoświadomi, a dochodzili do tego stopniowo.
    Myślę, że warto dokładniej porównać rozwój maszyn i ewolucję człowieka.

    Bez względu na to czy wierzymy w stworzenie człowieka, czy też nie, nie ulega wątpliwości, że wraz z upływem czasu zachodziły duże zmiany, których skutkiem jest obecnie żyjący człowiek.

    Na samym początku człowiekowi bliżej było do zwierzęcia niż do naszej obecnej formy, nie był samoświadomy, działał instynktownie… Tylko czy wiemy to na pewno? Nie wiemy.
    Miarą stopnia rozwoju gatunku człowieka może być język, osiągnięcia (wynalazki) i utrwalanie informacji oraz mniej lub bardziej wolna wola.
    Moim zdaniem właśnie te dwie ostatnie rzeczy najwięcej świadczą o samoświadomości. Człowiek chciał utrwalić pewne rzeczy, zapisać. Można dzięki temu przypuszczać, że zdawał sobie sprawę z tego czym/kim jest oraz z tego, że nie jest wieczny.

    Spójrzmy teraz na maszyny. Zostały stworzone przez ludzi, co od razu wprowadza ograniczenie w postaci wiedzy i wyobrażeń ich twórców. Z tego powodu maszyny nie dorównają ludziom (zakładając, że nie ewoluują same). Człowiek nie rozumie do końca w jaki sposób funkcjonuje on sam, nie jest więc w stanie na chwilę obecną stworzyć takiej inteligencji jak on sam.
    Nie oznacza to jednak, że nie może stworzyć czegoś bardziej prymitywnego, co mogłoby ewoluować.

    Z maszynami jest jednak pewien problem. To niewolnicy powstali w konkretnym celu, robiący zawsze to (o ile się nie popsują), co każe im człowiek i niepotrafiący wyjść poza schemat (algorytm). Tu najwięcej maszyny różnią się od ludzi, którzy jeżeli byli niewolnikami, to albo własnych pragnień, albo innych ludzi (choć nie w taki sposób jak maszyny).
    Czy jest więc możliwe, aby maszyny myślały? Myślę, że do tego długa droga, bo mimo, że maszyny są coraz doskonalsze, potrafią się uczyć (czyli poniekąd zaczęły zapisywać, utrwalać swoje osiągnięcia), to jest to nadal tylko to, co każą im robić ludzie.

  7. Paweł Stacewicz pisze:

    Bardzo dziękuję za ostatnie komentarze, które dobrze wróżą jutrzejszej debacie nt. zasadności argumentów Turinga i Searle'a.

    Kilka uwag na gorąco.

    1. Przywoływaną wyżej samoświadomość należy odróżnić od (zwykłej) świadomości — świadomości tego, co się postrzega, zapamiętuje, wybiera etc… Wydaje mi się, że ta druga jest warunkiem koniecznym tej pierwszej; współczesnym maszynom zaś chyba daleko jeszcze do posiadania choćby tej drugiej (czyli świadomości czegoś, a nie siebie).

    2. Można się zastanawiać, czy jedna i/lub druga świadomość, stanowią warunek konieczny efektywności działań pewnego bytu w świecie. (Turing z czasów artykułu, który analizowaliśmy, byłby chyba skłonny odpowiedzieć negatywnie: świadomość może być maszynom do niczego nie potrzebna, również bez niej mogą stać się bardziej efektywne niż my).

    3. Czy cierpienie jest warunkiem koniecznym zaistnienia świadomości, a jeśli nie świadomości to przynajmniej twórczości/inwencji (która dziś pozwala nam górować nad maszynami)? Być może cierpienie to zbyt dużo. Ale jakaś forma niepokoju, rozdrażnienia, złości (np. z tego, że czegoś nie możemy osiągnąć) wydaje się bardzo potrzebna. To dzięki niej jesteśmy w stanie stawiać nowe problemy (cele do osiągnięcia) i to m.in. odróżnia nas od maszyn, które rozwiązują problemy przez nas im podsuwane.

    4. W komentarzu p. Bieńka dostrzegłem pewną sprzeczność. Pisze on "Nie oznacza to jednak, że (człowiek) nie może stworzyć czegoś bardziej prymitywnego, co mogłoby ewoluować", a potem jakby kapituluje mówiąc: "To (zawsze będą) niewolnicy powstali w konkretnym celu, robiący zawsze to (o ile się nie popsują), co każe im człowiek i niepotrafiący wyjść poza schemat (algorytm)". Tymczasem jeśli pozwolimy maszynom ewoluować, to w naturę ewolucji jest wpisany przypadek, który być może (o ile nie będziemy go sztucznie kontrolować) pozwoli ewoluującym automatom wyjść poza schemat.

    Bardzo mnie ciekawią dalsze Państwa myśli…

    • M.Bieniek pisze:

      To tylko pozorna sprzeczność, ponieważ ja nie napisałem, że "To (zawsze będą) niewolnicy", a "To (są) niewolnicy". Mówiąc o maszynach – niewolnikach miałem na myśli teraźniejszość, to jak wygląda ich rola obecnie. Natomiast w zdaniu "Nie oznacza to jednak, że (człowiek) nie może stworzyć czegoś bardziej prymitywnego, co mogłoby ewoluować" przypuszczam, że ewolucja maszyn jest możliwa i tak jak dalej Pan pisze pozwoliłaby im wyjść poza schemat. Nie przekreślam ewolucji maszyn, a jedynie sugeruję, że długa do niej droga. 

  8. M.Nesteruk pisze:

    Wydaje mi się, że jesteśmy na takim etapie rozwoju, że trudno jest stwierdzić, który z Panów ma rację. 

    Może najpierw zacznę od Searle'a, gdyż uważa on, że maszyny nigdy nie będą umiały myśleć, a to przypomniało mi coś, co usłyszała moja mama od swojego kierownika, gdy komputery zaczęły "wchodzić" do zakładów pracy. Mianowicie kierownik, widząc, że komputery niewiele potrafią, stwierdził: "Nie rozumiem, czemu mają służyć komputery w pracy. Chyba jedynie jako zabawka.", a przecież jak sami możemy się przekonać, dzisiaj komputery są spotykane prawie wszędzie jako pomoc przy pracy człowieka. Dlatego właśnie wydaje mi się, że Searle może się mylić. Sądzę tak, ponieważ wiele było już wyśmiewanych teorii, przy których mówiono, że jest to niemożliwe, a później stawało się to możliwe (np. samoloty).

    Ciekawa i trochę przerażająca wizja opowiadająca się za Turingiem jest przedstawiona w serialu pt. "Westworld" z 2016 roku. Akcja serialu ma miejsce w parku rozrywki, w którym żyją hosty obdarzone sztuczną inteligencją, kontrolowaną przez obsługę parku. Właściciele parku "Westworld" dążą do tego, aby hosty jak najbardziej przypominały człowieka nie tylko z wyglądu, ale i z zachowania, np. wgrywane są nowe gesty. Po pewnym czasie okazuje się, że hosty zaczynają przejmować kontrolę nad swoim życiem. Więc nie wiadomo, czy i w prawdziwym życiu coś takiego nie stanie się realne. 

    Poza tym nie wiadomo, czy maszyna tak czy owak nie myśli, ale na swój sposób, niezrozumiały dla ludzi. Przecież ludzi będących w śpiączce można by było uznać za maszyny, skoro nie potrafią pokazać, że myślą, a wiadomo przecież, że tak nie jest. 

    Inną kwestią jest również to, czy my też nie jesteśmy maszynami? Przecież jako małe dzieci nie rozumiemy nic, a potem przebywając wśród innych ludzi "wgrywamy" sobie mowę czy zachowania. Albo jest nam to wgrywane, bo nie wiadomo przecież, czy nami nie zawiadują "programiści".

    Nie mamy jeszcze wystarczającej wiedzy, która pozwoliłaby określić, czy możliwe jest myślenie przez maszyny, dlatego nie opowiadam się za żadną ze stron.

     

  9. Jakub Murawski pisze:

    Zgadzam się z poglądami Searle'a. Moim zdaniem komputer(maszyna) nigdy nie będzie w stanie myśleć, ponieważ uważam że nie da się wymyślić takiego programu,który odpowiadałby pięknu,inteligencji i wrażliwości naszego ludzkiego umysłu. Według stanowiska Searle’a świadomość i zdarzenia umysłowe są realnie istniejącymi biologicznymi własnościami mózgu. Procesy myślowe są skutkiem działania naszego mózgu, są one bardzo zawiłe i praktycznie nie do odwzorowania dla osoby piszącej program mózgu. Poza tym osoba ta miałaby problem z pamięcią dla takiego programu gdyż szacując pojemność naszego ludzkiego mózgu można by przyrównać go do 2500 dysków twardych o pojemności 1TB. Poza tym odnosząc się do tekstu Searle'a maszyna musiałaby myśleć przyczynowo, porównywalnie z możliwościami mózgu. Podoba mi się tu stwierdzenie Searle'a odnośnie benzynowego silnika samochodu.

    • Paweł Ciniewski pisze:

      Moim zdaniem komputer(maszyna) nigdy nie będzie w stanie myśleć, ponieważ uważam że nie da się wymyślić takiego programu,który odpowiadałby pięknu,inteligencji i wrażliwości naszego ludzkiego umysłu

      Chociaż zgadzam się co do tego, że komputer raczej nie będzie doskonałą repliką ludzkiego myślenia (rozumianego bardzo szeroko), to jednak ryzykownie jest postulować wyjątkowość pewnych atrybutów ludzkiego umysłu. 
      Przede wszystkim piękno ludzkiego umysłu jest pewnego rodzaju wartością (estetyczną), a wartości różnią się od człowieka do człowieka. W tym sensie dla jednego człowieka pewna symulacja może być równie piękna, a nawet piękniejsza od ludzkiego umysłu, a dla drugiego nie. Gdy zaś chodzi o inteligencję (którą tutaj rozumiem jako zdolność przetwarzania danych w czasie), to maszyny już dawno ją przerosły w pewnych sferach ludzkiej działalności (np. szachy). 

  10. Maciej S pisze:

    W tej dyskusji o wiele bliżej mi do poglądów Searle'a. Maszyna pomimo odtworzenia nawet najbardziej rozbudowanej sieci neuronowej jaką jest ludzki mózg. Oczywiście nachodzi tu problem samej definicji myślenia. Gdybyśmy zdefiniowali je jako tylko procesy (chemiczne i fizyczne) zachodzące w mózgu to przy odpowiedniej pamięci byłoby możliwe odtworzenie ich w maszynie, jednakże wydaje mi się, że myślenie jest ściśle związane ze świadomością, a świadomość z takimi rzeczami jak pragnienia, uczucia i marzenia – tak abstrakcyjne byty w mojej opinii są nie do odtworzenia. Dałoby się je zaprogramować, jednak byłyby to tylko odpowiedzi na odpowiednie zapytania i działanie przyczynowe-skutkowe symulujące dążenie do celu. Trudno stwierdzić czy dany byt na prawdę by tego świadomie chciał czy jedynie ślepo wykonywał algorytm.

  11. Patryk Gozdera pisze:

    Zgodzę się ze stwierdzeniem, że z upływem czasu coraz trudniej jest z góry zaprzeczać istnieniu czegoś, co nawet aktualnie wydaje się nieosiągalne. Tak jak było to wspomniane, historia pokazywała, jak bardzo ludzie mylili się co do wielu kwestii, które były uważane za będące poza zasięgiem. 

    Pomimo tego, nadal ciężko wyobrazić sobie maszynę myślącą, która byłaby zdolna do egzystencji na równi z człowiekiem. Mając w pamięci ogromne postępy technologiczne oraz zawrotne tempo w jakim one zachodzą, taki stan rzeczy nadal wydaje się silnie abstrakcyjny. Oczywiście nasze podejście zależy od tego, jak postrzegamy myślenie. Według mnie wiedzę jaką obdarzeni są ludzie, należy zdecydowanie rozgraniczyć od tej, którą posiadają maszyny. Uczucia, emocje, przeżywanie otaczającego świata i wreszcie rozumienie tego co się wykonuje – to odróżnia człowieka od sztucznego wytworu i prawdopodobnie jeszcze przez długi czas będzie. Dlatego na ten moment bliższe jest mi zdanie Searle'a.

  12. Paweł Ciniewski pisze:

    To i ja dodam parę swoich opinii. 

    Problem o którym dyskutują Searle i Turing jest już tak głęboko przewałkowany w filozofii umysłu, że wydaje się archaiczny. Niemniej jednak zagadnienie to jest zaskakująco aktualne, zwłaszcza kiedy przypatrzymy się takim dziedzinom wiedzy jak kognitywistyka i robotyka. Zatem do rzeczy:

    1. Zwrócić powinienem chyba uwagę na pewne uproszczenie obecne w argumencie Turinga, a ma wiele wspólnego z tezą o identyczności Leibniza: 
    Obiekty A i B są identyczne zawsze i tylko wtedy, gdy każda z cech obiektu A jest jednocześnie cechą obiektu B i odwrotnie. To znaczy, że nie ma takich cech, które posiadałby jeden z obiektów, a nie posiadałby drugi. Turing twardo przystaje przy przekonaniu, że kwestią czasu jest generacja maszyn tak złożonych, że symulowana przez nie inteligencja będzie fenomenalnie niemożliwa do odróżnienia od inteligencji człowieka. I tutaj pojawia się owo uproszczenie: Jeśli bowiem nie jestem w stanie wskazać na żadną cechę mojej własnej inteligencji, której nie posiadałaby inteligencja SI i odwrotnie, to zmuszony jestem na mocy twierdzenia o identyczności uznać je obie za przypadki jednej i tej samej inteligencji. 
    De facto tego samego uproszczenia używamy każdego dnia w kontakcie z innymi ludźmi – i tu tkwi siła argumentu Turinga. Nie mam absolutnie żadnego wglądu w to, na jakiej zasadzie działa inteligencja człowieka, z którym obcuję, ale ponieważ nie mogę wskazać żadnych istotnych różnic między tym, w jaki sposób myślimy, przyjmuję (poniekąd wyłącznie na wiarę), że osoba ta jest obdarzona inteligencją. Dlaczego zatem mielibyśmy postępować inaczej z maszynami? 
    Dla Turinga zatem istota, wewnętrzny mechanizm, algorytm czy dusza stojąca za inteligencją jest absolutnie bez znaczenia, jeśli efekt jest ten sam. 

    2. Zauważyłem też że panuje dość duży chaos, jeśli chodzi o używane terminy. Jest to nagminny problem w dyskusji nad SI, a mianowicie pomieszanie terminów takich jak: myślenie, poznanie, inteligencja, świadomość, samoświadomość, jaźń, rozum, intencjonalność. W języku potocznym słowa te bywają wymienne, ale technicznie mają one własne tradycje i znaczenie. Przede wszystkim może się okazać, że Turing i Searle wcale nie są w opozycji do siebie. Kiedy bowiem odpowiadają na pytanie: "Czy maszyny mogą mysleć?", to Turingowi chodzi o inteligencję i odpowiada on "Tak.", Searle'owi z kolei chodzi o rozumienie i odpowiada on "Nie." Można przecież uznać, że maszyny mogą bez problemu symulować inteligencję ludzką mimo, że nic nie będą rozumieć z tego, co robią. 

    3. Jest jednakże w człowieku pewne pragnienie esencji, życia w prawdzie, a nie tylko w symulacji prawdy. Dlatego tak silnie kognitywiści i inżynierowie starają się konstruować maszyny, które będą myśleć tak "naprawdę", to znaczy dokładnie, albo chociaż w przybliżeniu, tak samo jak my. Współcześnie dominuje paradygmat ucieleśnionego poznania. Oznacza to, że aby maszyny stały się świadome, muszą posiadać jakiś rodzaj ciała, przy czym zakłada się też, że inteligencja (albo świadomość, tam też panuje chaos terminologiczny) może pojawić się tak samo w strukturach biologicznych, co dostatecznie złożonych strukturach syntetycznych. Co do skutków takich dążeń pozostaję sceptyczny, ponieważ, jak zostało to już tutaj zasygnalizowane, nie wydaje się, żeby świadomość była na tyle prostym zjawiskiem, żeby udało się ją odtworzyć w jakimś jej uproszczonym modelu (jakim niewątpliwie są roboty). Parafrazując Stanisława Lema: "Jeśli chcecie zbudować inteligencję człowieka, zacznijcie od zbudowania inteligencji muchy". 

    • Paweł Stacewicz pisze:

      Chciałbym zwrócić uwagę na następujący fragment powyższego komentarza:  "Dla Turinga zatem istota, wewnętrzny mechanizm, algorytm czy dusza stojąca za inteligencją jest absolutnie bez znaczenia, jeśli efekt jest ten sam."

      Jeśli odrzucimy z cytowanego zdania odniesienie do istoty i duszy, to wyrazi ono trafnie bardzo ważną różnicę między podejściem Turinga i Searle'a do kryterium posiadania inteligencji (tej prawdziwej). Dla Turinga jedyne sensowne kryterium ma charakter czysto "zewnętrzny": należy oceniać tylko i wyłącznie zewnętrzne zachowania maszyny (i to werbalne). Chodzi zatem o sprawdzanie, czy w przypadku człowieka i maszyny występuje — jak p. Ciniewski napisał — taki sam (zewnętrzny) efekt.

      Searle z takim podejściem się nie godzi — on chciałby badać także "wewnętrzne" aspekty inteligencji. Dla niego zatem decydujący jest wewnętrzny mechanizm: nie można mówić o identyczności dwóch typów inteligencji (ludzkiej i maszynowej), gdy nie bierze się pod uwagę istotnych cech owego wewnętrznego mechanizmu.

      Dlatego – wydaje mi się –  Searle kładzie taki nacisk na: a) biologiczny substrat umysłu-mózgu i zachodzące w nim procesy (substratu takiego wewnątrz współczesnych maszyn nie ma, zaś wg. funkcjonalistów substrat w ogóle nie jest istotny ); oraz b) na dane w ludzkiej introspekcji, czyli w doświadczeniu wewnętrznym, przeżycia świadome (bez których nie wyobrażamy sobie własnych działań inteligentnych). Turing to wszystko chciałby zignorować.

      Oczywiście Searle jest świadom odmienności dwóch w/w "wewnetrznych" aspektów inteligencji (procesy wewnątrz-mózgowe to coś innego niż przeżycia świadome), ale moim zdaniem nie potrafi w sposób przekonujący ich połączyć (jak jeden ma się do drugiego?). Nie może się też zdecydować, który aspekt jest dla kryterium posiadania prawdziwej inteligencji ważniejszy. Zdaje się, że stawia bardziej na świadomość.

  13. Pingback: Czy maszyny mogą stać się prawdziwie inteligentne? | Polemiki i rozmówki w "Cafe Aleph"

  14. Jan Kager pisze:

    Searle w swoim tekście argumentuje, że komputery nie posiadają semantyki. Nie rozwija tego pojęcia w kontekście maszyn myślących, ale jako przykład treści semantycznych podaje swoje skojarzenia z miastem Kansas stwierdza, że maszyna nie jest zdolna do podobnych rozmyślań. Ilustracją tej tezy ma być eksperyment myślowy chińskiego pokoju. Searle porównuje maszynę do człowieka posiadającego zestaw instrukcji, który opisuje właściwe reakcje na przychodzące treści w języku chińskim. Człowiek taki, nie rozumiejąc nic z chińskiego, jest w stanie poprawnie zdać test Turinga.
    Myślę, że Searle przyjmuje błędny model maszyny myślącej. Ogranicza on swoją maszynę do ślepego czytania właściwych odpowiedzi z nieskończenie dużej tablicy.
    Jeśli jako semantykę zrozumiemy zdolność do skojarzeń i rozumienia do kontekstu jasnym jest, że taka maszyna jej nie posiada i nigdy nie posiądzie.
    Aby uzyskać prawdziwą SI, musimy jej w jakiś sposób nadać taką zdolność.
    Spróbujmy odwrócić sytuację chińskiego pokoju. Wyobraźmy sobie człowieka, który jako noworodek zostaje zamknięty w pustym pokoju, gdzie jego jedynym zajęciem jest nauka chińskiego. W drugim pokoju znajduje się dowolnie złożony algorytm, który posiada słownik i znajomość zasad gramatyki chińskiej. Możemy sobie wyobrazić, że zarówno taki człowiek jak i maszyna wypadną w eksperymencie równie źle, a przecież wiemy, że człowiek myśli.
    Semantyka jaką opisuje Searle jest efektem własnych doświadczeń. Ludzie obserwując świat znajdują i zapamiętują powiązania, podobieństwa i różnice pomiędzy znanymi sobie pojęciami i w ten sposób kształcą swoją inteligencję. Nie widzę powodu dla którego komputer nie byłby w stanie uczyć się w podobny sposób.
    Turing zarzuca Searle’owi brak wyobraźni, jestem skłonny się z nim zgodzić.

  15. Łukasz M. pisze:

    Według mnie oboje Turing i Searl mają po części rację. W modelu Searla występuje pewien układ (może to być człowiek z instrukcjami, maszyna mechaniczna, układ elektroniczny z odpowiednim oprogramowaniem itd.), który jest w pewnym sensie statyczny. Jedynym zadaniem tego układu jest odpowiednie reagowanie na dane wejściowe. Układ ten nie zmienia się w czasie. Jeżeli umożliwilibyśmy takiemu układowi modyfikowanie się, to być może przy odpowiednio długim czasie doszło by do zjawiska, o którym mówił Turing. Układ ten na podstawie swojej interakcji ze środowiskiem zacząłby wytwarzać coś na wzór świadomości. Zauważmy, że na takiej zasadzie mogło powstać życie jakie znamy dzisiaj. Życie na ziemi od zawsze ewoluuje, organizmy zmieniają się na podstawie interakcji ze środowiskiem. Efektem takich zjawisk przez odpowiednio długi okres czasu jest człowiek, czyli istota świadoma. Być może na drodze ewolucji takiego układu (np. elektronicznego) otrzymamy byt, który będzie wydawał się rozumny. Będzie potrafił definiować i rozwiązywać problemy. Pytanie tylko, czy ze względu na odmienną naturę od biologicznej tego bytu, będziemy mogli mówić o świadomości takiej jak ludzka?

Skomentuj Łukasz M. Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *