Od naturalizmu Searle’a do naturalizmu
w badaniach nad SI

Kilka dni temu na zajęciach z przyszłymi informatykami i matematykami miałem okazję dyskutować historyczny już tekst J.R. Searle’a p.t. „Czy komputery mogą myśleć?” (jest to jeden z rozdziałów książki „Umysł, mózg i nauka”).

Odniosłem wrażenie, że argumentacja autora niespecjalnie trafia dyskutantom do przekonania. Argumentację tę można streścić następująco.

Żaden komputer cyfrowy – niezależnie od użytych w nim rozwiązań sprzętowych i programistycznych – NIE MOŻE faktycznie realizować czynności umysłowych.
Dzieje się tak, PONIEWAŻ:

a) komputer z zasady działa czysto syntaktycznie, przetwarzając nijak nieinterpretowane, nic dla niego nie znaczące symbole (dane).
Mówiąc krótko: komputer niczego nie rozumie, a człowiek myślący musi rozumieć i rozumie.

b) komputer nie doświadcza żadnych świadomych przeżyć (doznań, emocji, uczuć itp…), a te w przypadku człowieka (wiemy to z introspekcji) zawsze towarzyszą rozumieniu czegoś, czyli wnikaniu w znaczenia przetwarzanych danych.

c) komputerowy program nie jest powiązany z biologicznym i jednostkowo niepowtarzalnym mózgiem, a ten w przypadku homo sapiens stanowi oczywistą podstawę myślenia (czyli umysłu).
Mówiąc krótko: ludzki umysł nie mógłby istnieć bez mózgu.
W terminologii filozoficznej tezę tę nazywa się biologicznym naturalizmem (w kwestii natury myślenia i umysłu).

Jeśli moje wstępne wrażenie, że dyskutanci wątpili w siłę stwierdzeń a), b) i c) jest słuszne, to zachęcam ich do rozwinięcia swoich wątpliwości w blogu.

Ja natomiast chciałbym podzielić się kilkoma uwagami na nieco inny temat.

Otóż, czytając ponownie anonsowany wyżej tekst, uświadomiłem sobie, że Searle – uważany słusznie za filozoficznego przeciwnika sztucznej inteligencji (nigdy nie będzie to prawdziwa inteligencja, lecz zawsze jej pewna symulacja czy też namiastka) – po prostu przyczynił się do zintensyfikowania badań nad SI w tym nurcie, który ja nazywam naturalizmem.
Chodzi o tego rodzaju badania, które są inspirowane obserwacją natury, a więc naturalnych systemów do przetwarzania informacji (jak np. mózg). Do sztandarowych osiągnięć naturalizmu należą: sztuczne sieci neuronowe i algorytmy genetyczne (ale nie tylko one).

A zatem: filozoficznie myślącemu Searlowi udało się nie tyle przekonać informatyków o niemożności skonstruowania sztucznej inteligencji, co pchnąć ich badania na nowe tory.
W ten sposób biologiczny naturalizm w filozofii umysłu zaowocował bujnym rozwojem informatycznego naturalizmu w badaniach nad SI.

Czy jednak sztuczne układy naturalistyczne – wyposażone nadto w sensory, manipulatory, oddziaływujące ze środowiskiem, komunikujące się ze sobą etc – mogą zasadnie podważyć argumentację a-b-c (która – dodajmy to koniecznie – była „wycelowana” w komputery cyfrowe, a nie analogowe na przykład)?
Wydaje mi się, że TAK – choć nie będę w tej chwili kontrargumentował.

Podzielę się natomiast pewną wątpliwością (którą już kiedyś w blogu formułowałem).
Oto wyrażające ją pytanie:
Czy dla ewentualnej sztucznej realizacji umysłu za pomocą układów naturalistycznych (jak sieci neuronowe czy systemy ewolucyjne) WYSTARCZY:
A) odwzorować w naszych wytworach zasady natury (np. zasady działania mózgu);
czy też
B) trzeba jeszcze posłużyć się materią natury (np. biologicznym substratem mózgu)?

Searle optowałby raczej – zgodnie z punktem c) swojej argumentacji – za możliwością B, a ponadto mógłby mieć opory przed zaklasyfikowaniem wytworu zbudowanego z elementów biologicznych jako komputera (mówiąc filozoficznie, optowałby za antyfunkcjonalizmem).

Ciekaw jestem zdania innych na ten temat (jak również tematy pozostałe)…
Punktem odniesienia dyskusji proponuję uczynić anonsowany na początku tekst Searle’a.

Print Friendly
Ten wpis został opublikowany w kategorii Bez kategorii, Filozofia informatyki, Światopogląd informatyczny. Dodaj zakładkę do bezpośredniego odnośnika.

17 odpowiedzi na „Od naturalizmu Searle’a do naturalizmu
w badaniach nad SI

  1. kosmos pisze:

    Pierwsza rzecz, która przychodzi mi do głowy to refleksja nad tym, jak nasz umysł zamienia dane syntaktyczne na semantyczne. Jeżeli widzę napis „kotlet schabowy”, to skąd wiem, że ten ciąg liter oznacza usmażony kawałek mięsa. Mogę tę definicję przedstawiać równoważnie poprzez rozmaite parafrazy: „odcinek piersiowo-lędźwiowy tuszy świńskiej zdatny do spożycia”, „tradycyjne polskie danie”, „moja ulubiona potrawa”. Nadal jednak pozostaję na poziomie ciągu znaków, na poziomie języka. Moim zdaniem, wiemy, że dana rzecz jest tym czym jest, jeśli mamy różne przestrzenie w których można ją zdefiniować bądź doznawać. Wracając do kotleta. Pierwszą z nich przedstawiłem, tj. językową. Kolejne z nich niech będą tym czym postrzegamy świat, czyli zmysłami. W przestrzeni wzroku doznajemy go jako bryłę o złocistym odcieniu. W słuchu jako cos skwierczącego wyjętego z patelni. W dotyku jako coś ciepłego. W zapachu jako coś o kuszącym aromacie. W smaku jako danie pieszczące podniebienie. Aby maszyna stała się inteligentna, trzeba jej wdrożyć rozmaite programy, które rozpatrywalyby dane pod innymi kątami. Musiałyby być one jednak zarówno niezależne (aby analizować według własnych norm) jak i połączone (aby móc przesyłać między sobą wnioski). Optowałbym również za wbudowaniem maszynie quasi-zmysłowych sensorów. Zapisywalyby one w komputerze dane jako dźwięki, obrazy itp. Problem jednak polega na tym, że owe dane mogłyby znów stać się nic nie znaczącymi symbolami. Żeby temu zapobiec, można zastąpić cyfrowe nośniki (jak proponowane jest wyżej) analogowymi lub organiczną materią. Co prawda dalej taka maszyna nie przeżywa emocji, uczuć, ale myślę, że brak takich doznań nie przeszkadza w nazywaniu jej sztucznie inteligentną.

    • KT pisze:

      Dziwi mnie argument „z mózgu”, oczywiście on jest potrzebny… ale tak samo jak inne części układu nerwowego, jeśli nie ma zmysłów i reakcji na bodźce, to nie ma semantyki.

      Można opisywać zaawansowane roboty jako inteligentne, tak samo można opisywać zwierzęta (pies, szympans), dopiero kiedy mam język, możemy używać odpowiedniej do tak skomplikowanych zachowań (w tym językowych) heurystyki – czyli opisu w kategoriach mentalnych (umysł, myślenie itd.)

      Wydaje mi się, że aby mówić o sztucznej inteligencji, trzeba po prostu naśladować życie takie jakie znamy. Podmiot mechaniczny/cyfrowy musi zachowywać się tak jak życie organiczne. Największym problemem wydaje się interakcja z otoczeniem, kwestia uczenia się, unikania pewnych bodźców i lgnięcie do innych (popęd). Musimy zacząć po kolei, najpierw stworzyć sztuczne życie, które będziemy udoskonalać, aż dojdziemy do zachowań językowych, wtedy można będzie takie coś opisać jako inteligentne, myślące itd. Czy da się to osiągnąć na podłożu nieorganicznym, to pytanie empiryczne.

      @kosmos
      „…quasi-zmysłowych sensorów. Zapisywałyby one w komputerze dane jako dźwięki, obrazy itp.”

      Niepotrzebnie wpadasz w problem qualiów. W opisie behawioralnym (bodziec – reakcja) nie ma tego problemu.

  2. Rafał Kobiela pisze:

    Moim zdaniem argumentacja Searle’a o tym, że „Żaden komputer cyfrowy – niezależnie od użytych w nim rozwiązań sprzętowych i programistycznych – NIE MOŻE faktycznie realizować czynności umysłowych” jest totalnie nietrafiona.
    Zacznijmy od pierwszego argumentu, czyli tego, że komputer nie może niczego rozumieć, natomiast człowiek myślący musi rozumieć. Zacznijmy od drugiej części. Stwierdzenie o tym, że człowiek musi rozumieć nie jest do końca trafione. Za przykład mogę wziąć ten z zajęć. Weźmy taką całkę nieoznaczoną. Większość ludzi, która jest zaznajomiona z tym pojęciem tak naprawdę nie rozumie go, nie zna jego definicji, nie wie skąd się wziął taki a nie inny sposób jej liczenia. Umie natomiast wziąć funkcję, scałkować ją i otrzymać żądany wynik bez wnikania w jej naturę. Dlatego uważam, że komputer nie musi niczego rozumieć w potocznym znaczeniu tego słowa. Komputerowi bez problemu można zaimplementować w kodzie definicję całki, całą etymologię i wiele różnych uzasadnień i dowodów tego pojęcia, co człowiek patrzący z boku jednoznacznie określiłby, jako rozumienie tego.
    Drugi argument mówi o tym, że komputer nie doświadcza uczuć emocji itp. i że są one potrzebne do rozumienia czegoś. Z tym argumentem również jestem zmuszony się nie zgodzić. Weźmy za przykład sędzię. Mimo, że bez wątpienia sędzia podczas procesu ma jakieś uczucia (np. współczucie) to podczas procesu będzie się kierował nie właśnie nimi, ale zimną kalkulacją i znajomością prawa. Nie wyda innego wyroku niż nakazuje mu prawo, ponieważ sam tak uważa, ponieważ są to jego subiektywne odczucia. To pokazuje, że rozumienie nie koniecznie musi się odbywać z udziałem emocji, bo choć sędzia je odczuwa to nie bierze ich pod uwagę. Pozwala to całkowicie wyeliminować te ze sfery rozumienia. Z drugiej jednak strony, dlaczego nie zainstalować komputerowi odpowiednich czujników i nie napisać odpowiednich algorytmów symulujących te odczucia? Przecież ludzkie uczucia działają podobnie. Narządy wysyłają tylko odpowiedni sygnał i mózg odpowiednia go interpretuje. Niejednoznaczność tego można najprościej zauważyć na przykładzie wzroku. Ludzie i dajmy na to psy zupełnie inaczej widzą otaczający nas świat. Pokazuje to, że komputer również może widzieć inaczej niż my, czyli inaczej przetwarzać docierające do oka(kamery) różne długości fal elektromagnetycznych). Z kolei symulacja różnych uczuć jest możliwa. Weźmy na to taki strach. Komputer mógłby wykrywać zagrożenie i w zależności od jego wielkości decydować czy ma odczuwać strach i na przykład uciekać czy pozostać. Przeciwnicy tego pewnie powiedzą, że ludzie tego tak nie odczuwają. A skąd to wiadomo? Natura ludzkiego mózgu jest na tyle niezbadana, że nie można tego stwierdzić ani wykluczyć tego, że ludzie nie działają podobnie.
    W trzecim argumencie mowa o tym, że ludzki umysł nie mógłby istnieć bez mózgu. O ile zasadność tego stwierdzenia jest tematem na osobną dyskusję, jednak osobiście uważam, że w przyszłości będzie to możliwe. Nie uważam, żeby to był jakikolwiek argument za tym, że komputery nie będą wstanie myśleć i rozumieć. Nie widzę żadnych przeciwwskazań, aby ludzki mózg zastąpić komputerem cyfrowym, kwantowym czy innym. Argument o tym, że ludzki mózg jest niepowtarzalny jest moim zdaniem trochę oderwany i nie widzę powiązania. Hipotetyczne załóżmy, że klonowanie ludzi jest możliwe. Czy klon, mimo, że ma taki sam mózg jak jego dawca, nie mógłby być w stanie myśleć?

    • Kalawander pisze:

      Niestety nie mogę się z Tobą zgodzić. Argument z całką

      nieoznaczoną uważam za błędny, gdyż ludzie potrafiący liczyć

      całki nieoznaczone różnych funkcji nie wychodzącą poza poziom maszyn, jeśli nie rozumieją czym całka nieoznaczona jest. Moim zdaniem maszyna może liczyć całki oraz znać wszelakie definicje tego pojęcia, lecz nie jest w stanie samodzielnie wyciągnąć wniosków jakie płyną z tego, że funkcja ma całkę, bądź że całka ma jakąś wartośc na przedziale i dopóki człowiek nie jest w stanie wnioskować na podstawie tego, co policzył nie można mówić o rozumieniu przez niego tego zagadnienia.
      Argument sędziego również do mnie nie przemawia. Po to właśnie w sądach sądzą sędziowie, żeby mogli spojrzeć na sprawę nie ograniczając się do schematów. Sprawy są rozpatrywane przez ludzi, mimo że istnieje zagrożenie, że przez emocje nie będą całkowicie obiektywni, po to aby oprócz przepisów prawa wzięli pod uwagę ludzi, których sądzą. Dlatego też jako karę za przestępstwa ludzie tworzący prawo wyznaczyli „widełki”, a nie konkretne sankcje. Myślę, że sędzia powinien wydawać wyroki bez emocji, ale zdając sobie sprawę z tego, że często właśnie one wpłynęły na oskarżonych. Czy komputer, który tych emocji nie posiada, były w stanie odpowiednio wziać je pod uwagę?
      Jeśli chodzi o zmysły, to owszem są one postrzegane przez różne osoby w inny sposób (i nawet nie musimy szukać wsród innych gastunków, wystarczy spojrzeć na osoby z daltonizmem), jednak znów dochodzimy do interpretacji docierających do nas danych. Maszyna może reagować na bodźce, do których została zaprogramowana, jednak czy jest w stanie podjąć decyzję, kiedy spotka się ze zjawiskiem, którego twórcy nie przewidzeli? Moim zdaniem to jest właśnie istota myślenia. Z kolei emocje najbardziej wymykają się algorytmom. To, że maszyna dokona chłodnej kalkulacji i zdecyduje, czy uciekać czy walczyć nijak ma się do działania strachu, który raczej „wyłącza” logiczne myślenie u ludzi i zmusza ich do działań nieprzemyślanych, instynktownych. Natomiast na pytanie „skąd wiadomo, że tak jest?” mogę stwierdzić, że z doświadczenia, kiedy to po przemyśleniu sytuacji na spokojnie stwierdziałem, że w strachu dokonałem złych decyzji ( a więc nie działałem na podstawie zimnej analizy danych).
      Na koniec dla odmiany, częściowo zgodzę się z przedmówcą. Również myślę, że w przyszłości możliwe będzie przeniesienie ludzkiego mózgu na inny nośnik, jednak mam inne zdanie, co do natury tego nośnika. Uważam, że zanim to nastąpi potrzebne jest wynalezienie odpowiednio podobnego do ludzkiego mózgu nośnika, który będzie w stanie odtwarzać, niezrozumiane dzisiaj, impulsy nerwowe, bez których o człowieku mówić nie można. Natomiast, jeśli chodzi o klony to, moim zdaniem, w momencie sklonowania mamy dwie jednostki identyczne, jednak od tego momentu, ich działanie jest niezależne i podlega innym bodźcom, dlatego też są w stanie mysleć „inne rzeczy”.
      Rozpisałem się, ale mam nadzieję, że nie zanudziłem tych, którzy dotarli do końca.
      Pozdrawiam
      Kalawander

      • Rafał Kobiela pisze:

        Odnosząc się do argumentu z całką. Zauważ, że nie formowanie twierdzeń, wniosków i przemyśleń niekoniecznie pociąga za sobą brak zrozumienia danego twierdzenia, pojęcia czy jak w tym przypadku całki. Wiele ludzi pomimo doskonałego zrozumienia danego pojęcia (powiedział bym nawet, że większość) nie potrafi wysnuć dalszych wniosków. Niewiele ludzi posiada taką umiejętność i gdyby była ona warunkiem koniecznym do rozumienia to obawiam się, że większość ludzi nie rozumiała by ogromu rzeczy. Częściowo muszę się jednak z Tobą zgodzić, że komputery raczej nie posiądą umiejętności formułowania nowych twierdzeń czy wniosków, ale moim zdaniem nie to jest istotą rozumienia.
        Co do sędziego to owszem, w prawie są przewidziane widełki. Ale nie są one przewidziane dlatego, żeby sędzia miał jakiś wybór, czy zależnie od humoru czy współczucia mógł sobie wybrać dolną albo górną granicę. Są one po to aby móc uwzględnić pewne nie przewidziane czynniki, okoliczności łagodzące lub zaostrzające karę. Są one również przewidziane w prawie dlatego z łatwością można je zaimplementować maszynie.
        Odnosząc się do argumentu ze zmysłami. Tak jak napisałeś, człowiek pod wpływem niektórych uczuć podejmuje decyzje czasem niezgodne z jego rozumem. I mimo, iż czasem są one niezgodne z naszymi przekonaniami, honorem itp. to często są to bodźce, które nas ratują przed zagrożeniem. Np. zamiast stawać do walki z jakimś niebezpiecznym zwierzem, uciekamy bo się boimy. Mózg wie, że to dla nas jest lepsze. I mimo, że mógł na tym ucierpieć nasz honor albo nasza duma to przeżyliśmy. I uczucia tak samo mogły by działać w maszynie. W człowieku odbywają się one raczej poza naszym rozumieniem i świadomością ale bez wątpienia są obsługiwane przez mózg. W maszynie spokojnie mogły my się one odbywać na tej samej płaszczyźnie co inne procesy.

        • Kalawander pisze:

          Jeśli chodzi o argument z całką (aczkolwiek już w ogólności) to owszem formowanie wniosków i przemyśleń wykracza poza możliwości wieli ludzi ( a raczej nie przeforsuję tezy, że najprościej tych ludzi zakwalifikować jako niemyślących), ale nie zgodzę się, że samo pamiętanie treści twierdzeń jest warunkiem wystarczającym do zrozumienia. Myślę, że całkiem sensownym warunkiem na rozumienie danej rzeczy(jeśli definitywnie sprzeciwiasz się mojej poprzedniej definicji, przy której pozostaję) jest zdolność wytłumaczenia jej (niekoniecznie innych ludziom, wystarczy mi zdolność przetłumaczenia jakiegoś pojęcia sobie). Natomiast dla obecnych komputerów całka to ciągle są tylko, albo słowa podane jako treść twierdzeń, albo metoda potrzebna do liczenia. I uprzedzając odniesienie do ludzi, uważam, że jeśli człowiek nie wyszedł poza zakres poprzedniego zdania to może i umie calki, ale ich nie rozumie.

          „Częściowo muszę się jednak z Tobą zgodzić, że komputery raczej nie posiądą umiejętności formułowania nowych twierdzeń czy wniosków”
          akurat ja uważam, że kiedyś mogą posiąść, ale nie na obecnych nośnikach danych

          „ale moim zdaniem nie to jest istotą rozumienia.”
          jak napisałem wcześniej myślę, że jeśli nie istotą, to jego istotną częścią

          Do kolejnych dwóch argumentów nie będę się odnosił zbyt rozwlekle, bo tutaj chyba różnią nas założenia i raczej żaden z nas nie przekona drugiego. Według mnie sędzia ma prawo uwzględnić nie tylko okoliczności, ale również własne odczucia (ale nie wypaczając wyroku tzn ma prawo przesunąć się kawałek w widełkach nie zważając na okoliczności, bo sądzi, że tak będzie sprawiedliwiej).
          W odniesieniu do argumentu o zmysłach zacząłem pisać, że instynkty są niealgorytmizowalne, ale uświadomiłem sobie, że właściwie to się z tym nie zgadzam. Więc przyznaję Ci rację, że instynkt (który właściwie nie jest uczuciem, a kalkulacją podświadomości) da się zaprogramować komputerowi, jednak nie przemawia do mnie idea programowania innych uczuć. Czy nie jest ich ideą, że reakcje na nie są spontaniczne, niezaplanowane? Czy da się zaprogramować reakcję na np radość, czy jest ona wypadkową elementów, których wpływ da się policzyć?
          Pytanie pozostawiam otwarte, bo mimo że wydaje mi się, że nie da się programować emocji, to nie jestem w stanie przedstawić zbyt solidnych argumentów.
          Pozdrawiam
          Kalawander

  3. Macio B. pisze:

    Ja chciałbym odnieść się do zmysłów i uczuć, a konkretnie do artystycznej części naszego umysłu i do poczucia estetyki. Jednym z argumentów przytoczonych na zajęciach w kwestii porównania umysłu ludzkiego do komputera była właśnie niemożność tego drugiego do odczuwania piękna. Powiedziane zostało, że komputer nie jest w stanie stworzyć artystycznego dzieła. I ja się z tym nie zgadzam.
    Do tego trzeba wiedzieć, że artysta, często nieświadomie, używa pewnych schematów i mechanizmów. Odniosę się głównie do muzyki, gdyż z nią miałem/mam najwięcej do czynienia. Otóż istnieją połączenia akordów, które idealnie do siebie pasują (zwane kadencjami; przykładem kadencji jest C-dur, F-dur, G-dur, C-dur zagrane pod rząd). Muzycy umieszczają tego typu połączenia w swoich utworach, gdyż im się podobają (proszę uwierzyć na słowo – kadencje brzmią naprawdę dobrze), ale też powielają pewien „schemat” i stosują właściwości harmoniki, a tych jesteśmy w stanie nauczyć program komputerowy. Podobnie w malarstwie: różne barwy inaczej współpracują z innymi, np. czerwień kontrastuje z zielenią, a także multum innych własności których nie znam. Występują też różne techniki malowania, korzystanie z innych pędzli, mieszanie farb itd. I tego wszystkiego możemy moim zdaniem nauczyć komputer. Jest on w stanie stworzyć dzieła sztuki. Czy tak wybitne jak powstałe z ludzkich rąk? Ocenę pozostawiam innym.
    Pozdrawiam

    • Kalawander pisze:

      Komputer za pomocą algorytmu jest w stanie stworzyć
      muzykę, która będzie dziełem, jednak może należałoby zapytać czy
      dla komputera, to co stworzył jest tylko ciągiem symboli, czy
      też komputer może się zachwycić brzmieniem kombinacji dźwięków?
      Gdy zastanawiamy się czy komputer myśli, moim zdaniem, kluczowe
      jest pojęcie abstrakcji. Ja słuchając jakiegoś utworu mogę go
      kojarzyć na przykład z babciną szarlotką, którą jadłem słuchając
      go po raz pierwszy. Będzie to unikatowy, mój własny ciąg
      skojarzeń, niczym niepodobny do skojarzeń innych ludzi.
      Chciałbym teraz zadać pytanie, czy komputer tworzący dzieło
      muzyczne jest w stanie tworzyć irracjonalne, bądź nielogiczne na
      pierwszy rzut oka powiązania? Czy komputerowi może się to dzieło
      z czymś kojarzyć? Myślę, że dopiero kiedy na te pytania
      odpowiemy twierdząco będziemy mogli stwierdzić, że komputer
      wyszedł ze sfery przetwarzania danych do myślenia ( nie chcę
      napisać rozumienia, gdyż jeśli za rozumienie uznamy znajomość
      powiązań pomiędzy dźwiękami, to analityczny komputer „rozumie”
      muzykę lepiej niż tworzący pod wpływem emocji ludzie).

      Nie napiszę wiele na temat malarstwa, ponieważ w
      odniesieniu do współczesnej sztuki nie wyszedłem poza poziom
      komputera, dla którego dzieła to losowe kolorowe plamy na
      płótnie (czyli nie jestem w stanie wyjść poza poziom analizy
      obrazu do abstrakcyjnego znaczenia, które chciał przekazać
      autor). Natomiast klasyczne malarstwo (to jest martwa natura,
      pejzaże, czy portrety) komputer może odtworzyć, odbierając
      jakimś substytutem wzroku obraz, który przeleje na płotno,
      jednak użyję tego samego argumentu, co wcześniej: czy dla komputera obraz może mieć jakieś znaczenie? Jakiś widok może przemawiać do duszy autora( wzbudzać w nim emocje) i dlatego autor stwierdzi, że to jest coś co warto utrwalić, jednak czy komputer będzie kiedyś w stanie przeprowadzić takie wartościowanie?
      Pozdrawiam
      Kalawander

  4. RimEl pisze:

    Przeczytałam powyższą dyskusję mojej współlokatorce. Po chwili zaczęłyśmy prowadzić ożywioną dyskusję, której chyba najciekawszym stwierdzeniem był taki oto wniosek mojej koleżanki:
    Komputer nie jest i nie będzie świadomy tego, że jest, że istnieje. Nie ma samoświadomości. Nie ma świadomości tego, co go otacza.

    Wydaje mi się że maszyna może posiąść wiedzę – jasne, wszystko co do tej pory wynalazł człowiek jest sobie w stanie przyswoić. Będzie „mądrzejsza” od wszystkich ludzi na Ziemi, ale wciąż będzie tylko narzędziem w naszych rękach.

    Co sprawia, że człowiek jest w stanie myśleć? Może to, że posiada wiedzę na dany temat? Nie tylko. Po prostu wyciąga z tych informacji dalsze wnioski. Nie wiemy, jak działa nasz mózg. Dajmy może przykład rozwiązywania zadania matematycznego. Dobrze, zgadzam się z tym, że jeśli maszyna ma na wejściu założenia, posiada wiedzę potrzebną do rozwiązania danego problemu, to go znajdzie, ale każdy chyba przyzna, że miał w życiu taką chwilę, w której rozwiązanie przychodziło znikąd – powiedzmy „przypływ geniuszu”. To według mnie nazywamy kreatywnym myśleniem. Czy maszyna będzie umiała myśleć kreatywnie? Pojęcie to łączę mimowolnie z wyobrażeniem artysty. Zgadzam się z Macio B., że maszyna znając schematy, będzie umiała stworzyć chwytliwe dla ucha dzieło, ale tylko dlatego, że pokażemy jej te schematy. Sama nic nie wymyśli.

    Kolejna kwestia – aksjomaty. Jest to pojęcie, które trzeba stworzyć kompletnie z niczego. Na początku mamy przed sobą pustą, białą kartkę. Żadnych danych na wejściu. Pewnie większość wpadnie na to, że jeśli mamy dwa punkty, to za żadne skarby nie poprowadzimy przez nie dwóch linii. Czy maszyna nie mając na wejściu żadnych danych, umiałaby wymyślić coś kompletnie nowego? Myślę, że nie. Maszyny uczące się nie tworzą: mają jakieś narzędzia, podstawowe działania do rozwikłania zadania, rozwiązują tymi metodami problem i następnym razem gdy dostaną podobne zagadnienie, to od razu przejdą do rozwiązania go poznanym sposobem. Fizyk obserwuje zjawiska, musi rozwikłać dany problem, czuje taką potrzebę, kombinuje. Według mnie maszyna nie będzie miała takiej potrzeby. Rozwiąże tylko te problemy, które przed nią postawimy. Nie będzie wstanie nic stworzyć.

    Maszyna poda wynik, interpretację całki, ale nie będzie naprawdę czuła, co to takiego jest. Pozna definicję, ale jej nie zrozumie. Pytanie, co to znaczy rozumieć? Rozumiem = umiem wytłumaczyć. Przypuśćmy, że musimy wytłumaczyć naszej młodszej siostrze proste, w naszym zamyśle, zadanie z matematyki. Siadamy z nią i cierpliwie ( to tylko teoria ) tłumaczymy problem. Po chwili widzę, że moja mała siostra niestety nie rozumie, chociaż uparcie twierdzi, że tak i mówi, że mam ją już zostawić w spokoju. Obserwuję jej zachowanie, poddaję ją próbie. W końcu wytłumaczę. Jak nie w podstawowy sposób, to nawet na wykałaczkach jej wytłumaczę. Czy maszyna umiałaby tak zrobić? Czy może z uporem podawałaby cały czas tę samą definicję, zamiast podejść do sprawy z innej strony? Czy rozumiałaby problem? Wszyscy zgodzą się ze mną, że nie warto mówić, że się coś rozumie, dopóki nie postara się wytłumaczyć danego zagadnienia postronnej osobie. Będzie ona zadawała różne dziwne pytania i jeśli będziemy umieli na nie odpowiedzieć albo przynajmniej czuli, że wiemy jak dany problem ugryźć i nie pojawi się nam w głowie myśl: „Ojej, chyba nie do końca to rozumiem” to wtedy jesteśmy pewni: tak, wszystko rozumiem. A maszyna? Nie będzie umiała wytłumaczyć, nie zrozumie problemu. Nie będzie zdolna do interakcji.

    Czy po znalezieniu rozwiązania, maszyna będzie chciała znaleźć inną, szybszą metodę? Nie, nie zrozumie, co oznacza sprytne rozwiązanie, nie będzie ciekawska. Chęć nauki, poznania nowych rzeczy wynika z naszej ciekawości. Maszyna, dopóki nie damy jej na wejściu polecenia: szukaj kilku rozwiązań, sama z siebie nic nie wygeneruje.

    A to co teraz tworzę? Ten esej? Włączam abstrakcyjne myślenie, cały czas się zastanawiam, argumentuję swoje zdanie, mam swoje idee, przemyślenia. Czy maszyna mogłaby dyskutować na filozoficzne tematy? Filozofowie zadawali pytania. Maszyna nie wpadłaby na pomysł, żeby się nad czymś zastanawiać. Nie myślałaby nad porządkiem świata, nie szłaby do przodu. Rozwiązywałaby problemy dane przez człowieka, ale sama by ich nie tworzyła.

    Z moich przydługich rozmyślań wynika chyba wniosek, że jak na razie nikt mnie nie przekonał do możliwości skonstruowania sztucznej inteligencji.
    Pozdrawiam

  5. Paweł Stacewicz pisze:

    Przeczytawszy powyższe komentarze – za które bardzo wszystkim dziękuję – doszedłem do wniosku, że moje wrażenie z zajęć, iż argumentacja Searle’a jest dla współczesnych studentów matematyki/informatyki nieprzekonywująca, było MYLNE.

    A zatem: Chińczyki (i ich pokój) trzymają się mocno!

    Wydaje mi się jednak, że większość osób popierających Searle’a odwołuje się przeważnie do introspekcji (zresztą bardzo ciekawie: był kotlet, szarlotka, wrażenia z koncertów, korepetycje…).
    Z perspektywy tejże introspekcji, czyli uważnej obserwacji własnych przeżyć, faktycznie niepojęte wydaje się, by komputer (przez nas przecież zaprogramowany) zachwycił się utworem muzycznym czy wspomnieniem babcinej szarlotki.

    Przypomnijmy sobie jednak sposób myślenia Turinga:

    (1) Przecież o przeżyciach innych ludzi też nie możemy się dowiedzieć na podstawie introspekcji (lecz jedynie przez obserwację ich zachowań). A mimo to nie bronimy się przed nazwaniem ich myślącymi.

    (2) Skąd wiemy, że dla skuteczności naszego myślenia (i opartych na nim działań) są niezbędne przeżycia świadome?

    (3) Dlaczego mamy zakładać (jak np. RimEl), że „maszyna nie będzie umiała wytłumaczyć, nie będzie zdolna do interakcji, nie będzie w stanie nic stworzyć”. A jeśli stwierdzimy, komunikując się z nią, że jednak umie wytłumaczyć, że wysunęła jakiś ciekawy pomysł, że zmienia swoje reakcje w interakcji… Co wtedy, jeśli maszyna stanie się nieodróżnialna od człowieka pod tymi właśnie względami?

    Nie twierdzę tutaj, że argumenty Turinga mnie do końca przekonują, ale niewątpliwie wskazują na trudności związane z argumentacją searlo-podobną.

    Pozdrawiam wszystkich i zapraszam do dalszych głosów…

    • Kalawander pisze:

      A ja tak szybko bym nie obalał argumentu introspekcji. W końcu komputer również otrzymuje informacje z zewnątrz, mogą to być typowe dane tekstowe czy liczbowe, ale technologia pozwala na odbieranie przez komputer dźwięków czy obrazów, może kiedyś również komputer będzie mógł stwierdzić, że użytkownik powinien się umyć ( dalej nie wychodząc do poziomu inteligencji, można zaprogramować mu, żeby na jakieś zapachy, przetłumaczone na jakiś język binarny, reagował w określony sposób). Skoro zaś komputer ma w pamięci, że otrzymał jakieś dane (np zapach i wygląd babcinej szarlotki) to moim argumentem było, że uznam go za myślący, jeśli będzie w stanie wytworzyć abstrakcyjne połączenie pomiędzy danymi o szarlotce, a czymś innym to uznam go za sztuczną inteligencję ( ale mam na myśli połączenie niebazujące na jakiejś funkcji rand).
      Pozdrawiam
      Kalawander

  6. RimEl pisze:

    To prawda, po przemyśleniu swojego komentarza doszłam do wniosku, że opieram się na wizerunkach „nieczułych”, wszystkowiedzących maszyn, które swoim zachowaniem i brakiem kreatywności w niczym nie przypominają człowieka. Traktowałam je jako wytwór człowieka, narzędzie w jego rękach. Mam wrażenie, że po prostu nie mogę sobie wyobrazić, jak to napisał Pan Stacewicz:” że jednak umie wytłumaczyć, że wysunęła jakiś ciekawy pomysł, że zmienia swoje reakcje w interakcji… Co wtedy, jeśli maszyna stanie się nieodróżnialna od człowieka pod tymi właśnie względami?”
    Widząc niesamowity postęp techniczny nie powinnam niczego zakładać. Ale tak ciężko jest mi sobie wyobrazić stworzenie maszyny tak bardzo podobnej do człowieka. Będzie to niemal jak stworzenie nowego życia, istoty myślącej. W tym momencie uważam, że będzie ona istotą żyjącą ( nie mówię tutaj o prowadzeniu procesów życiowych jakie prowadzi człowiek by przeżyć). Jestem osobą wierzącą, nie mam prawa wierzyć, że mamy moc stwórczą.
    Z drugiej strony, jest mi tak ciężko. Wszystko wskazuje na to, że kiedyś, na innym nośniku danych komuś się uda. Jednak boję się takiego momentu. Świadomość, że maszyny byłyby kreatywne i mogły wprowadzać swoje idee, a przy tym byłyby bardziej trwałe od nas i dużo mądrzejsze jest przerażająca.. Dlaczego skoro byłyby tak inteligentne, nie miałyby np. ochoty by wyrwać się spod władzy człowieka, nie pomagać mu.
    Wiem, że w swoich rozważaniach wybiegam za bardzo naprzód, mówię o skutkach, ale chcę powiedzieć, że skutki stworzenia maszyny kreatywnej, zbliżonej pod względem zachowania do człowieka mogą być na tyle przerażające, że jak na razie nie chcę zakładać takiego scenariusza.
    Podsumowując chaotyczne rozważania: nie umiem powiedzieć, że nie uda się stworzyć maszyn myślących, nie wolno mi tego zakładać. Postęp jest zbyt duży. Wiem też, że nie będę umiała polemizować z bardzo mądrymi argumentami jakie przedstawią mi zwolennicy idei Turinga. Z drugiej strony nikt też nie udowodni mi, że na pewno uda się je stworzyć. Ale mam prawo wierzyć, że tak się nie stanie. Takie jest moje prawo, myślę, że nie ma nic złego w pomyłce.

    • km pisze:

      Inteligentne i wolne osoby powszechnie „odmawiają sobie prawa” do określonych przekonań mimo (różne) argumenty (Bo tak czują?) Może zatem nie ma się czego bać- automat wykona instrukcje- bo będzie czuł wewnętrzną konieczność, z którą będzie się utożsamiał, nawet gdy potrafił będzie podważyć jej zasadność?
      Nic nowego „Litością zdjęty kosmos cały, wyciąga do was ludzi dłonie, mających uczuć ideały w najpaskudniejszym ciał regionie” (cyt „z pamięci” więc może niedokładnie). Lem opisywał także żartobliwie skutki działania substancji obnażającej (nomen omen) przed ludźmi smutne i męczące praktyki wielbienia „wydalinowych okolic”. Czasem „mądre argumenty” nie trafiają do przekonania i nie odstręczają od praktyki zachowania, mimo „modułu” pozwalającego „rozumieć” całki oznaczone (a może jedynie „postępować zgodnie z regułą”) ?
      W końcu kto zaświadczy, że nie ma wśród dyskutantów „automatu konwersacyjnego” podłączonego dla zgrywy do bloga?

  7. Paweł Stacewicz pisze:

    Odnośnie głosów p. RimEl.
    Oczywiście nie popełniła Pani żadnej pomyłki. Bardzo się cieszę, że tak ciekawie i żywo wyraża Pani własną opinię n.t. maszyn inteligentnych/myślących, które mogłyby zaistnieć w przyszłości. Zapraszam Panią do takich i innych dyskusji. Ja po prostu chciałem zwrócić uwagę na argumenty Turinga oraz osób podobnie myślących(mniej lub bardziej trafne argumenty).

    A dla wszystkich mam ciekawą informację, która już chyba zaistniała w mediach.
    Otóż kilka dni temu pierwszy komputer w dziejach informatyki przeszedł Test Turinga. Komputer nazywa się Eugene, a zdarzenie miało miejsce w Royal Society w Londynie.

    Oto link do oryginalnej informacji:
    http://www.reading.ac.uk/news-and-events/releases/PR583836.aspx

    • Macio B. pisze:

      Odnosząc się do tego komputera, który przeszedł test Turinga uważam, że zostało tu dokonane pewne przekłamanie. Ten program, stworzony przez Ukraińskiego naukowca, miał „udawać” trzynastoletniego chłopca z Ukrainy, który niezbyt dobrze zna język angielski. Uważam, że te okoliczności trochę zaburzają wiarygodność tekstu. Nie chciałbym za mocno generalizować, ale trzynastoletni człowiek rzadko jest w stanie nawiązać poważną dyskusję, i nawet przy braku narzucanych tematów rozmowy, czego wymaga test Turinga, dialog z młodym chłopcem będzie wyglądał inaczej niż z dorosłym człowiekiem. Dzieci mają tendencje do zmieniania tematów rozmów, kolokwialnie mówiąc, „ni z gruszki ni z pietruszki”. Podobnie zachowują się tego typu programy – zdarzało mi się dyskutować z Cleverbotem i nigdy nie pomyliłbym go z człowiekiem, zdecydowana większość jego odpowiedzi była bezsensowna, nie na temat. Wracając do meritum: uważam, że naśladowanie trzynastoletniego chłopca, zwłaszcza średnio znającego język angielski, jest łatwiejsze niż naśladowanie dorosłego, i sędziowie mogli się przez to łatwiej pomylić.
      Mimo wszystko gratulacje dla ukraińskiego naukowca, to na pewno bardzo ważny krok w kierunku autonomii. Nawet jeśli nie jestem przekonany co do wiarygodności tego testu, to nie można odmówić mu niemałego sukcesu i może w przyszłości jego dzieło będzie jeszcze skuteczniej oszukiwać nasze zmysły i lepiej wcielać się w człowieka, tym razem dorosłego.
      Pozdrawiam

  8. km pisze:

    Odpowiedź Searle’a na pytanie o materiał w jakim mediatyzować mogłaby się świadomość/ umysł/ rozumienie – wydaje się być oczywista.
    Nawet teraz- w świetle zmian, które w 2004 roku wprowadził do swej koncepcji biologicznego naturalizmu. (Sam Searle twierdzi, że to nie poważne modyfikacje, co najwyżej gdzie indziej stawia akcent – wypada mu wierzyć, że wie co „od początku” miał na myśli) Tak czy owak- inna zdaje się być wymowa argumentu z „chińskiego pokoju”, w którym (jak i w całej swej koncepcji umysłu) bardziej podkreśla znaczenie pierwszoosobowej perspektywy, która nie tylko nadaje specyficzne qualia świadomym stanom, ale wręcz implikuje całą „pierwszoosobową ontologię”- nieredukowalną do trzecioosobowej (pomimo tego, że redukcja kauzalna stanów umysłowych do fizycznych struktur mózgu jest wg. Searla możliwa). Pojawia się silnie sprawa „szczeliny decyzyjnej” (od rozumującego ja do kwantowych elementów) – mogąca dodatkową byc przesłanką jeśli chodzi o możliwą „substancję” umysłu.
    I to co o owej pierwszoosobowej ontologii i jej fizycznym (biologicznym) „sensie” zdaje się potwierdzać opinię co do przekonania Searle’a o „konieczności biologiczności”. Searle przyjmuje możliwość tworzenia informatycznych symulakrów (czy surogatów człowieka jak to nazywa w cytowanym we wpisie tekście) zdających test Turinga, ale pozbawionych jakości ‘ja’ nadającego znaczenia temu co wykonują.

    1.Możemy podejrzewać jak odpowiedziałby Searle spytany o materiały- bo sednem jego koncepcji (w pewnym sensie) jest biologiczność jego naturalizmu. Biologiczne ustroje posiadają owe jakości pierwszoosobowe- czego nie trzeba udowadniać (każdy głupi wie- po sobie).
    Biologiczność sprawia, magię, w ramach której (jak pisze Searle) :
    redukowalne (kauzalnie) „stany mentalne, nie mają mocy sprawczej” ale „wchodzą w relacje przyczynowo skutkowe”, „będąc same przyczynami zdarzeń” (jako one same ale tylko kauzalnie- poprzez ich trzecioosobowo poznawalne neurologiczne wcielenie. Ale nie one ontologicznie boć są stany mentalne pierwszoosobowo nieredukowalne do trzecioosobowych zjawisk badanych przez ścisłe nauki) Może to i neurologiczne wyładowania sterują moją ręką ale to ja chcę by się uniosła- i gdy mam taką chęć to ona się unosi (znowu każdy wie, że tak to działa).
    Sprawić to ma „szczelina decyzyjna”. Krytykując losowość kwantową jako generator nieobliczalności/ nieprzewidywalności- i przez to wolności z racji na ślepy traf, Searle widzi w splątaniu możliwość:
    By to „z góry”- z najwyższego poziomu złożoności, z całości struktury „mediatyzującej ‘ja’” ze świadomego umysłu- płynęła na sam spód konstrukcji, informacja o tym jakie poszczególne cząstki mają przyjąć stany, by urzeczywistnić się mogła w pełni wolna wola.
    Searle – gdy pisze o 1-osobowej perspektywie- wyraźnie wskazuje, że chodzi mu o BIOLOGICZNY naturalizm, o taką a nie inną fizyczną (tj. biologiczną) strukturę- oferującą właśnie takie jakości.
    Natomiast komputer (nie-biologiczny – cyfrowy- rozbudowany kalkulator) może co najwyżej kierować symulakrum. Jak przekonuje Searle (sprowadzając zagmatwane spory filozoficzno/ naukowe na właściwe tory) każdy kto miał do czynienie z komputerem wie, że krzemowy twór jest głupi. Z rozwinięcia takiej głupoty nic mądrego wyjść nie może. Nawet jeśli program będzie sterował zachowaniem automatu, tak, że nie odróżnimy go od człowieka nie osiągnie nigdy ‚ja’. Przetwarza bowiem tylko symbole (nawet jeśli robi to tak, że mamy ułudę, że przetwarza znaczenia jakby rozumiał). To, że składamy się z cząstek, przejawiających własności, i tworzących złożone struktury poprzez wzajemne oddziaływania (pomiar owych własności- który można zmatematyzować w ramach modelów nauki- i obliczać) – a samych w sobie głupich- do Searle’a chyba nie przemawia.
    To, że byty przetwarzane przez komputer to jedynie znaki a neurologiczne reprezentacje pojęć to nie innego rodzaju znaki a trzecioosobowe reprezentacje znaczących, semantycznych treści- także każdy wie- po sobie (w końcu moje myśli coś znaczą).
    Searle nie zastanawia się jak sprawdzamy to co znaczą
    2. Searle jednak pisze:
    „Teoretycznie rzecz biorąc moglibyśmy może odtworzyć świadomość w jakiejś innej substancji materialnej (niż mózg- przyp. km) – rzecz jasna, na razie nie mamy pojęcia jak to zrobić”
    W tym momencie konieczne jest jeszcze uzupełnienie, znów sam Searle:
    „zanim go ogłosiłem (argument z „chińskiego pokoju”- przyp. km) , ataki na sztuczną inteligencję ograniczały się głównie do prób wskazania, ze ludzki umysł dysponuje jakimiś szczególnymi zdolnościami, których komputer nie ma i których nie nabędzie. Taka strategia argumentacyjna jest dość ryzykowna, ponieważ zawsze gdy ktoś zadeklaruje, ze coś jest niemożliwe, pojawia się silna pokusa (…) aby napisać program, który pozwoli komputerowi symulować dokładnie te zdolności poznawcze”
    Jak widać Searle już zabezpiecza się na wypadek, gdy ktoś złośliwie namówi go do rozmowy z komputerem, a on nie pozna, że ma do czynienia z czymś nie posiadającym qualiów umysłowych, pierwszoosobowych stanów.
    3.W świetle powyższego- jeśli napiszemy program „symulujący” w komputerze (nie-biologicznym) własności najmniejszych elementów tworzących mózg, skonfigurowane wzajemnie zgodnie z mózgową architekturą („wirtualnie” złożymy z nich symulator mózgu) – to i tak nie odtworzymy istoty- szczeliny decyzyjnej.

    Co ciekawe- może zachowanie symulakrum byłoby nieodróżnialne od człowieczego- bo zdawałoby się nieprzewidywalne (nieobliczalne) – ale to właśnie byłaby losowość (wolność zasymulowana) a nie wynik decyzji „najwyższej instancji” – umysłu.

    Bardzo ładne- ale jest parę problemów:
    A. Funkcjonowanie szczeliny…
    B. Jak świadomość miałaby zstąpić do dna- na poziom kwantowy żerując na jego dowolności, ale tak, że rosnąca struktura (przed obudzeniem się świadomości wolnej – w historii osobniczej) nie rozpadłaby się z racji na chaotyczność- przed ukonstytuowaniem się „spajającego ją w jedność- poprzez decyzje”- rozumu?
    C.Jak jednak mielibyśmy sprawdzić czy istotnie odtworzono ową świadomość- skoro żaden trzecioosobowy test (Turinga) czy obserwacja zachowania nie może nakłonić nas (przynjmniej wg Searle’a) do uznania istnienia owego ‚ja’ w maszynie?
    Na takiej zasadzie teoretyczna jest dla mnie świadomość Searla

  9. M. Nesteruk pisze:

    Ludzi też można nazwać w pewnym sensie robotami. Np. jak nie jesteśmy w stanie zrozumieć tego, to spisujemy sobie krok po kroku to, co chcemy wykonać, a więc w tym momencie stajemy się maszynami. I co, może się wydać kontrowersyjne, z ludźmi upośledzonymi umysłowo? Przecież nie każdy z nich ma świadomość istnienia i otaczającego go świata… A przecież nie mówimy, że są oni maszynami.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *