O sztucznej inteligencji z Turingiem w tle

Kolejną dyskusję w ramach MiNI-spotkań proponuję przeprowadzić w oparciu o tekst Alana Turinga — matematyka, inżyniera i filozofa, który położył teoretyczne fundamenty pod współczesne badania informatyczne.

Chodzi o słynny artykuł „Computing Machinery and Intelligence” (po polsku „Maszyny liczące a inteligencja”), który ukazał się w latach 50-tych XX wieku w czasopiśmie „Mind”. To w nim właśnie wysuwa Turing ideę testu nierozróżnialności (zwanego dziś testem Turinga), a traktując ów test jako wiarygodny wskaźnik inteligencji maszyn, analizuje różne argumenty za i przeciw „myśleniu maszyn”.

Polski przekład artykułu umieściłem na stronie „Filozofia informatyki”, w dziale lektur: http://blog.marciszewski.eu/?page_id=1447.
Przed przystąpieniem do dyskusji należałoby go przeczytać.
 
Dyskusję naszą proponuję zogniskować wokół dwóch pytań:
(A) Jakie wady, a jakie zalety ma test Turinga?
(B) Które argumenty przeciw możności zaistnienia maszyn myślących (rozdział 6) wydają się najsilniejsze?
 
Oczywiście można poruszać inne wątki i stawiać inne pytania…
Ja gorąco zapraszam do dyskusji, a zacznijmy ją tak, jak Alan Turing rozpoczął swój artykuł:
<<Proponuję rozważyć problem „Czy maszyna może myśleć?”>>

Ten wpis został opublikowany w kategorii Filozofia informatyki. Dodaj zakładkę do bezpośredniego odnośnika.

Komentarze do O sztucznej inteligencji z Turingiem w tle

  1. Jarek Bączyk pisze:

    Uważam, że maszyny mogą być w stanie tylko sprawiać wrażenie, że myślą. Maszyny powszechnie nazywane myślącymi używają jedynie sprytnie wymyślonych reguł, które są zakodowane w ich programie. Celem testu Turinga było przybliżenie nas do odpowiedzi na pytanie „Czy maszyny mogą myśleć?”. Jednak do przejścia testu nie jest konieczna zdolność podobnego do ludzkiego rozumowania. Wystarczy fakt, że maszyna będzie w stanie prowadzić prostą konwersację z użytkownikiem. Obecnie istnieją aplikacje takie jak chatterboty, które potrafią oszukać użytkowników podczas „gry w imitację”. Bazują one na tekście wiadomości wprowadzonej przez człowieka, wyszukują jej słowa kluczowe i przekształcają wiadomość użytkownika w celu uzyskania odpowiedzi lub też używają utartych formułek, które mogą stanowić odpowiedź na znaczną część pytań. Ich interakcja z użytkownikiem jest oparta na zbiorze instrukcji i poleceń, na które zdecydował się programista przy tworzeniu programu. Tak więc ta cyfrowa „książka reguł” ma ograniczoną liczbę wpisów, przez co nie może objąć wszystkich tematów, którymi może zajmować się ludzki umysł.

    Wiąże to się z zarzutem lady Lovelace, który można streścić następująco: „Maszyna może robić tylko to, co powiemy, że ma zrobić”. „Myśląca maszyna” może sobie pozwolić tylko na zadania, których rozwiązanie składa się z określonych kolejnych instrukcji „książki reguł”. Dlatego ciężko mówić jest o inwencji, inicjatywie czy kreatywności takich maszyn. Dobrym i zarazem prostym przykładem z artykułu jest sytuacja z zapalonymi jednocześnie światłami czerwonym i zielonym. Jest to sytuacja dość nietypowa, ale maszyna powinna sobie poradzić i z takim problemem. Możliwe, że programista uwzględnił taki przypadek w kodzie programu maszyny. Jednak miejmy na uwadze, że jest to bardzo prosta sytuacja, a na świecie może wydarzyć się wiele bardziej skomplikowanych sytuacji. Wtedy bez kreatywności maszyny muszą zawieść. Pewną nadzieję stanowią algorytmy samouczące się, jednak sądzę, że nie rozwiąże to problemu w całości.

  2. CyRyL pisze:

    Uważam wręcz przeciwnie, że jesteśmy w stanie stworzyć maszyny myślące. Dlaczego tak uważam?
    Trzeba wyjść z innej strony, to jest: co znaczy że człowiek myśli.
    Ludzie rozwiązują zadania na podstawie swojego doświadczenia, wyuczonych algorytmów itd.( w odniesieniu do komputerów będzie to ta „Książka reguł”). Kiedyś nie potrafiono rozwiązać równania kwadratowego. Ktoś kto to rozwiązał był bardzo inteligentny. Dzisiaj rozwiązują to gimnazjaliści. Czy oni są tak samo inteligentni? Rozwiązanie powyższego zadanie nie świadczy o tym, bo znali oni już algorytm rozwiązania.
    Jeżeli ludzie nie znają algorytmu na dany problem, zaczynają myśleć. W jaki sposób poszukują rozwiązania?
    Odwołują się do podobnych zadań, przeszukują bazy danych, szukają pośród swoich doświadczeń i jeśli coś zaczynają to rozwijać mając nadzieję, ze do czegoś ich to doprowadzi. ( w komputerach będą to algorytmy samouczące się).
    Jeśli to wszystko zawiedzie, człowiek musi zacząć być kreatywny. Patrzeć na problem z innej strony. Tego też możemy nauczyć komputer.
    Pytanie czy możemy nauczyć komputer bycia kreatywnym. Co znaczy być kreatywnym? Jak w ludzkiej głowie rodzi się nowa myśl? Myśl to tylko impuls elektryczny. Tworzy on myśl odkrywczą ale również i głupią. Czy to nie jest więc zwykły generator losowych rozwiązań? Z zadanymi warunkami początkowymi? Później zapisujemy to na kartce i a nuż to będzie rozwiązanie.
    Komputer też może tak zrobić. Wygenerować wstępne rozwiązania i sprawdzać czy są dobre.

  3. Agnieszka Sierzputowska pisze:

    Mam opinię bardzo podobną do A. Turinga i chociaż on pomylił się trochę co do ilości czasu, który musi upłynąć zanim maszyny staną się inteligentne, nie świadczy to w żaden sposób o tym, że maszyny nie mogą myśleć.

    Wydaje mi się, że głównym problemem w odpowiedzi na pytanie „Czy maszyny mogą myśleć?” jest nasze rozumienie pojęcia „myślenie”. Otóż kiedy sobie myślę o „myśleniu”, to jest to dla mnie czynność dosyć abstrakcyjna, nie mająca związku z niczym fizycznym, myśl wydaje mi się jakąś smużką informacji pływającą w eterze. Tymczasem myśli powstają przecież w mózgu – organie jak najbardziej biologicznym, sterowanym procesami fizycznymi. Ponieważ nie mamy dokładnej wiedzy na temat tego, co to jest myśl i w jakim procesie powstaje, wydaje nam się to czymś niezwykłym i niemożliwym do „podrobienia”. Procesy zachodzące w komputerze dokładnie znamy, dlatego tak przeraża nas pomysł, że to, co uważamy za cechę odróżniającą nas od wszystkich innych istot mogłoby być zwykłym przepływem energii – A. Turing nazwał to sprzeciwem „głów w piasku”. Zatem czy maszyny rzeczywiście mogą być kiedyś w stanie „myśleć” (zachowywać się w sposób analogiczny do nas)?

    Moim zdaniem tak. Jak już wspomniałam, mózg jest materialny i sterują nim procesy fizyczne, co czyni go podobnym do maszyn. Skoro on może przetwarzać informacje w sposób, który nazywamy myśleniem, to z pewnością da się to też osiągnąć na innych urządzeniach. Należy jedynie znaleźć odpowiedni sposób, aby móc „uczyć” komputer.

    Wydaje mi się, że pomóc tu mogłaby obserwacja człowieka i analiza tego, jak poznaje on świat. Małe dzieci, gdy się rodzą, nie znają języka, tabliczki mnożenia ani twierdzenia Pitagorasa. Stopniowo otrzymują coraz więcej informacji o świecie, najpierw uczą się pierwszych pojęć. Znaczenie słów wywodzą z kontekstu, poznają dodawanie, uczą się pierwszych schematów zadań. Tą wiedzę przetwarzają w tylko sobie znany sposób. Potem są już w stanie rozwiązać podobne problemy. Analogicznie może być z maszynami – budowę fizyczną mamy podobną, należy jedynie stworzyć odpowiednie algorytmy samouczące. Dzisiejsze maszyny mają już zdolność myślenia kilkulatka – są w stanie konstruować samodzielnie zdania (niekoniecznie do końca poprawne), rozwiązywać proste zadania podobne do tych, które już kiedyś poznały. Kluczem do stworzenia inteligentnych maszyn jest zbadanie procesów poznawczych człowieka. Doskonaląc algorytmy jesteśmy w stanie stworzyć komputery „myślące” tak jak ludzie dorośli. Już na zajęciach, podczas dyskusji o możliwości „myślenia” maszyn nurtowała mnie myśl, którą znalazłam później również w odpowiedzi Turinga na zarzut lady Lovelace – my nie jesteśmy tak kreatywni jak nam się wydaje. Wszystko, co robimy, jest oparte w jakiś sposób na czymś, z czym w życiu się już spotkaliśmy, jest jedynie dosyć oryginalnym połączeniem. Dlatego nie wymagajmy od maszyn, że nagle wymyślą coś nowego, wspaniałego, bez używania tego, co już poznały. Cała wiedza, którą posiadamy była rozwijana przez tysiące lat przez wielu ludzi. Wszystko wynika logicznie z czegoś innego, więc mając dane i cel, jaki chcemy osiągnąć możemy nauczyć maszynę zbliżać się do niego, tak jak sami kiedyś byliśmy uczeni.

  4. Paweł Stacewicz pisze:

    Bardzo dziękuję za dotychczasowe głosy w dyskusji.

    Interesujący nas temat, czyli [samo myślenie] oraz [hipotetyczne myślenie maszyn], jest niezwykle trudny, ponieważ nie za bardzo potrafimy wyjaśnić jednoznacznie, a także zgodzić się co do tego, cóż to znaczy „myśleć”.
    Oczywiście nie tylko my. Nad problemem tym łamią sobie głowy (i pióra) wybitni specjaliści: psychologowie, neurobiologowie, filozofowie itd…
    Sam Turing, podobnie jak będący dla niego pewnego rodzaju inspiracją psychologowie-behawioryści (nie badajmy myślenia jako takiego, badajmy korelacje między bodźcami i reakcjami organizmu), próbował ten temat ominąć – próbował bowiem utożsamić myślenie z jego zewnętrznymi przejawami (taka jest w istocie intencja testu Turinga).

    Dla Turinga zatem i godzących się z nim dyskutantów „myśleć” to chyba tyle co „skutecznie rozwiązywać problemy (którą to skuteczność daje się jakoś mierzyć)” .

    Dla anty-turingowców z kolei „myśleć” to coś więcej, a mianowicie „przeżywać (świadomie) pewne wewnętrzne stany, jak poczucie zrozumienia czy satysfakcji z uzyskanego rozwiązania, które to stany niezwykle trudno opisać obiektywnie”.

    Ci pierwsi łatwiej zapewne zgodzą się na możliwość skonstruowania myślących maszyn, ci drudzy trudniej.

    Do tego wszystkiego dochodzi jeszcze jedna sprawa. Otóż za odpowiedzią pozytywną na interesujące nas pytanie („Tak. Maszyna może myśleć.”) kryje się dość często czyjeś przekonanie (i podejrzenie zarazem), że umysł ludzki jest w istocie skomplikowaną maszyną, a pozornie tylko wydaje się, że nią nie jest.
    Czy nie tak właśnie – mniej lub bardziej świadomie – mniemał Alan Turing (zauważmy, że pada w tekście kilkukrotnie dziwne określenie „ludzka maszyna cyfrowa”)?
    Dla osób o takim nastawieniu zupełnie naturalne wydaje się, że maszyny będą mogły kiedyś dorównać mechanicznemu (z założenia) umysłowi. A zatem będą mogły myśleć.

    Osoby odpowiadające przeciwnie zakładają z kolei, że „umysł nie jest mechaniczny”, a przyczyną jego nie-mechaniczności może być np. specyficzne fizyczne tworzywo umysłu-mózgu (umysł zatem to nie tylko program, ale nadto substancja ów program implementująca) albo nie-materialna dusza jakoś sprzężona z mózgiem.

    Ja proponuję, choćby na chwilę, przyjąć jeszcze inny punkt widzenia.
    Otóż, być może, bardziej istotne od pytania o to „czy maszyny mogą myśleć?”, jest pytanie o to „czy maszyny pozwolą nam zrozumieć lepiej, na czym polega ludzkie myślenie?”. Być może taki właśnie najgłębszy sens – tj. chęć lepszego zrozumienia fenomenu ludzkiej myśli – ma konstruowanie i analizowanie maszyn (informatycznych) do sztucznej realizacji czynności poznawczych.

    Tyle ogólnie i na początek.
    Chętnie będę zabierał głos dalej – np. w kwestii automatycznego uczenia się, które niektórzy dyskutanci uznają za warunek konieczny (a niekiedy i wystarczający) myślenia maszyn.

  5. K. pisze:

    Ad. dzisiejszy wykład
    Wpadł mi pewien pomysł do głowy. Ale że nie mieści się to w moich zainteresowaniach, nie będę prowadziła tu o nim dyskusji, a jedynie go zaznaczę.

    Nie jest prawdą, że świadomość jest rzeczą absolutnie niemierzalną. Jedną z podstawowych cech świadomości – świadomości jaką znają ludzie – jest chęć jej przetrwania. Czy może, z racji chwilowego charakteru świadomości, lepiej powiedzieć niechęć przed jej unicestwieniem. Tak więc testem na choćby możliwość zaistnienia świadomości może być pytanie „Czy chcesz umrzeć?”, po wcześniejszym wyjaśnieniu na czym ta śmierć polega. Problemem tu jest naiwność takiego testu, na którą zwrócił uwagę Paweł (przepraszam, jestem zdecydowaną przeciwniczką budowania ścian międzyludzkich, w tym m.in. wszystkich panowań i paniowań; jeśli to jakiś dyskomfort proszę mi powiedzieć). Programista może zaszyć odpowiedź a priori na to pytanie w maszynie. Czy można sobie poradzić z tym problemem? I czy takie podejście ma sens? Kwestię zostawiam otwartą, bo jak mówiłam nie mieści się to stricte w obrębie moich zainteresowań.

    Możliwe próby radzenia sobie z naiwnością:
    – kazać maszynie uzasadnić swoją odpowiedź – problem zostaje, programista może zaszyć uzasadnienie a priori; dwa – odpowiedź może bazować na innych wartościach niż ludzkie, jej forma może być może być nie zrozumiała dla człowieka, poziom komplikacji może przekraczać zdolności rozumienia człowieka (formuła kilkuset zmiennych)
    – pytać maszynę czy chce, żeby przeprowadzono na niej operacje, co do których jesteśmy pewni, że zniszczyły by jej świadomość

    Możliwe przewagi nad testem Turinga:
    – maszyna nie musi dysponować intelektem równym człowiekowi
    – świadomość maszyny może różnić się od ludzkiej

    Pewna konkluzja
    Obiekty świadome o niskiej inteligencji mogą być nieodróżnialne od nieświadomych programów z warunkiem przetrwania. Może to świadczyć o nierozstrzygalności problemu etycznego – kiedy człowiekowi wolno zabijać.

  6. Maciek pisze:

    @K.
    Ciekawa myśl. Osobiście poszedłbym jeszcze dalej. Moim zdaniem jednym z przejawów świadomości jest posiadanie swojego systemu wartości. Oczywiście można go komuś mniej lub bardziej narzucić (tak jak np rodzice dzieciom) ale zawsze istnieje szansa, że osoba odrzuci dane wartości i pójdzie swoją drogą. To dlatego w świadomości istnieje niechęć do bezzasadnego przerwania jej. Własne istnienie jest wyżej w hierarchii niż wykonanie nowej czynności.
    Dlatego też dowodem sztucznej inteligencji byłoby gdyby okazało się, że maszyna posiadała swoją, inną od twórców hierarchię wartości. Dowodziłoby to możliwości własnych wyborów.
    Oczywiście brak tego rodzaju nie jest dowodem na nie istnienie sztucznej inteligencji. Być może po prostu maszyna uznałaby swoim aktem woli, że twórcy mają słuszność.

    Dobrym testem byłoby więc czy maszyna w czymkolwiek sprzeciwiłaby się twórcy.
    Test ten byłby w stanie jedynie na 100% dowieść, że sztuczna inteligencja zaistniała, a nie przejście go oznaczało by nierozstrzygalność. Jak dotąd nie słyszałem jednak i myślę, że jeszcze długo nie usłyszę o czymś takim.

    @turingowcy
    Myśl to nie tylko impuls elektryczny. To słowo, jako informację, można zapisać jako w postaci elektrycznej, ale myśl to coś więcej. Istoty rozumne posiadają intelekt. To miejsce w którym powstają myśli. Ale słowa nie wyrażają ich całkowicie. Są tylko ich odbiciem. Intelekt to nie tylko zbiór komunikatów z losowym generatorem. To coś znacznie więcej. Mówienie tak to trochę 'odbieranie sobie duszy’. Po prostu nie wyobrażam sobie, że moja osobowość cała przeszłość itd, była tylko działaniem algorytmu. Przecież w momentach podejmowania decyzji mam wolność. Mogę zrobić tak – mogę inaczej. Nie jestem zdeterminowany. Gdyby uznać nasze zachowanie za bardzo trudno i złożony algorytm to tak naprawdę nie ma po co żyć czy starać się. I tak już wszystko byłoby zdeterminowane. Ale może to tylko, jak zauważyła Agnieszka, metafizyczne lęki przed uznaniem siebie za mierzalnego i skończonego? ;)

  7. CyRyL pisze:

    Maćku, sam stwierdzasz, że nie dopuszczasz do siebie myśli, że Nasze zachowania to tylko skomplikowany algorytm, gdyż wtedy życie nie miałoby sensu. Nie rozważasz tego, bo chcesz wierzyć że żyjesz w jakimś celu i coś tutaj możesz zdziałać.
    Niektórzy wierzą, że wszystko jest zapisane w jakiejś księdze. Więc działamy wedle jakiegoś, komuś już znanemu schematowi.
    Twoje stwierdzenia wynikają tylko ze strachu przed bezsensem swego istnienia oraz trzymaniem się tego ze jako ludzie jesteśmy wyjątkowi.
    Czym różnimy się od zwierząt?
    Czy one są inteligentne?
    Czy mają duszę?
    Czy my mamy duszę?
    Czym jest dusza?
    Czy maszyna może mieć duszę?
    I czym więcej jest myśl?
    Uważasz że nie jesteś zdeterminowany?
    Jest coś, jakiś Twój wybór, zachowanie, działanie, myśl, która nie była na podstawie doświadczeń?
    Arystoteles powiedział:
    Mądrość to w jednakowej mierze doświadczenie i refleksja.

    • Hypatia pisze:

      Na kilka pytań mogę odpowiedzieć :
      – oczywiście, że maszyna nie ma duszy, bo jest sztucznym tworem, niezdolnym do przejawiania wyższych uczuć…
      -ludzie różnią się (niestety nie wszyscy) od zwierząt tym, że zwierzęce instynkty nie są jednym motorem ich działań, na pierwszym miejscu jest rozum ( nie bagatelizuję oczywiście roli intuicji, nie chce być posądzona o bycie skrajną racjonalistką ;) ) Ważną rolę w życiu czlowieka dogrywa ponadto życie duchowe, którego zwierzęta raczej (chyba) nie mają…
      – Czy uważam, że jestem zdeterminowana? W jakim sensie? Bo chyba nie masz na myśli determinimu sensum stricte… Jeśli tak, to bardziej opowiadałbym się za prowidencjalizmem… Myślę, że mamy jednak trochę, w tym naszym nędznym życiu do powiedzenia i trochę jednak od nas zależy ;)
      -myślę, że idea „skomplikowanego alogorytmu” jako mechanizmu naszego działania nie wyjaśniałaby zjawisku geniuszu… Czy komputer jest w stanie doświadczyć olśnienia swego, rodzaju iluminacji czy komputer posiada intuicję? Czy komputer będzie w stanie wyciągać wnioski niezależne od doświadczenia? Czy naprawdę według Ciebie nie istnieje coś takiego jak wrodzona intuicja czy nazwijmy to po Kantowsku, naocznośc aprioryczna?
      I wreszcie : jeśli jesteśmy tylko wielce skomplikowanym algorytmem to kto go zaimplementował? I jakim cudem, z tyloma błędami skompilował? :)

    • Hypatia pisze:

      ciąg dalszy ( przepraszam za literówki w poprzedniej części mojej wypwoiedzi)

      -„Jest coś, jakiś Twój wybór, zachowanie, działanie, myśl, która nie była na podstawie doświadczeń?” – oczywiście, w każdej chwili człowiek może znaleźć się w sytuacji nowej, niecodziennej, która albo go przerośnie, albo której stawi czoło…
      Wbrew pozorom ludzie bardzo często nie działają logicznie, działają pod wpływem emocji, jakiegoś impulsu, czego nie czyni maszyna… Bardzo często postępują wbrew doświadczeniu i wcale nie zawsze uczą się na błędach… Tak przynajmniej wynika z moich obserwacji…
      To właśnie świat uczuć i emocji jest tym co między innymi odróżnia nas od komputerów… Chociaż Ty jako determinista, sprowadzisz pewnie nawet Miłość do popędu seksualnego, chęci przedłużenia gatunku itp…

      – Co do duszy to już raczej kwestia wiary i wyznawanego światopoglądu…
      – Przeraża mnie trochę Twoja pewność i łatwość w wydawaniu osądów na temat tego czym jest myśl… Zapominasz chyba, że w dalszym ciągu nie znamy jeszcze dokładnie mechanizmu działania mózgu i absolutnie nie jesteśmy w stanie z całą pewnością stwierdzić czym myśl jest, a czym nie jest… Postęp naukowy jest ogromny, ale w dalszym ciągu jesteśmy pogrążenia w mrokach niewiedzy, więc unikałabym nadmiernego zachłystywania się dotychczasowymi zdobyczami świata nauki… Pokuszę się nawet o stwierdzenie, że więcej nie wiemy niż wiemy… Prawdziwą mądrością jest też wiedzieć, czego się nie wie ( „Wiem, że nic nie wiem, ale wiem, że wiem więcej niż Ci którzy mówią, że wiedzą wszystko”) to tak tytułem uzupełnienia, Twoich ostatnich słów.
      „Najmądrzejszy jest, który wie, czego nie wie.” – Sokrates

      • Hypatia pisze:

        małe sprostowanie :

        W jednym ze zdań w moim pierwszym komentarzu wkradła się mała nieścisłość ( a w zasadzie wewnętrzna sprzeczność spowodowana brakiem doprecyzowania mojego wywodu).
        Napisałam : „ludzie różnią się (niestety nie wszyscy) od zwierząt tym, że…” Oczywiście miałam na myśli : ludzie różnią się (ludzie -ci spośród przedstawicieli gatunku homo sapiens, którym można przypisać człowieczeństwo, bo niestety niektórym bliżej do zwierzęcia) od zwierząt tym, że…

  8. Cogito pisze:

    Myślę, że wiele osób zarówno tutaj jak i z tego co obserwuję podczas dyskusji na wykładzie po prosu zbyt wiele wymaga do maszyn. Chcą, żeby maszyny odczuwały, tworzyły jakieś nowe twierdzenia matematyczne, a następnie je udowadniały, były niezwykle kreatywne i umiały odpowiadać prawidłowo na wszystkie pytania. Moim zdaniem nie do końca w ten sposób powinniśmy podchodzić do kwestii sztucznej inteligencji.

    Wydaje mi się, że jedną z podstaw takich rozważań jest pytanie: „Czy maszyny mogą kiedykolwiek dorównać ludziom?” Uważam, że to właśnie tego typu pytania i próba porównania maszyny do człowieka były punktem wyjścia do rozmyślań nad sztuczną inteligencją. Dlatego też moim zdaniem częściej w naszych rozważaniach powinniśmy zastanawiać się nad tym właśnie dorównywaniem maszyn człowiekowi. Według mnie w ten sposób zaczniemy od inteligentnych maszyn wymagać nieco mniej, bo przecież ilu jest na świecie ludzi, którzy wymyślili jakieś nowe twierdzenie matematyczne i potrafili je udowodnić? Lepiej może weźmy takiego przeciętnego człowieka (o ile takie pojęcie w ogóle istnieje) i jego porównajmy do maszyny. Myślę, że nietrudno byłoby maszynie spełnić takie wymagania.

    Nie każdy jest aż tak kreatywny, żeby wymyślać nowe rzeczy. Sami też w jakiś sposób zostaliśmy wyuczeni pewnych zachowań, reakcji. Dokładnie te same zachowania można by wszczepić maszynie, która przykładowo chodziłaby codziennie do pracy, tam wykonywała jakąś czynność, którą jej ktoś narzuci, następnie wracała do domu, siadała przed telewizorem, zajmowała się wszystkim tym, czym my zajmujemy się na co dzień. Jeśli zachowań takiej maszyny nie moglibyśmy odróżnić od zachowań człowieka to czy nie moglibyśmy ją nazwać myślącą? Jeśli nie, oznaczałoby to, że jakiegoś człowieka pozbawiamy myślenia. Mówimy, że on nie wymyśla czegoś kreatywnego, więc nie jest istotą myślącą. Rozumiem, że jest tu pewna doza uproszczenia i pewnie wiele osób nie zgodzi się ze mną, ponieważ taka maszyna z góry miałaby zaprogramowane co ma robić, więc w pewnym sensie nie myślałaby nad tym co robi, nie byłoby tego pierwiastka wolnej woli czy nieprzewidywalności. Tutaj jednak chyba zgadzam się z Turingiem, ponieważ jakie dla nas znaczenie miałoby co tam w środku tej maszyny siedzi, jak jest zaprogramowana i na jakiej podstawie podejmuje decyzje, jeśli nie moglibyśmy odróżnić jej zachowań od zachowań drugiego człowieka? (podobną obserwację poczynił Turing proponując swój „test na inteligencję”) Czy w takim wypadku nie uznamy tej maszyny za pełnoprawnego obywatela, pracownika, klienta czy w końcu człowieka?

  9. Coolthulhu pisze:

    Rozszerzony test Turinga nie powinien zawierać łatwo imitowanych zachowań jak instynkt samozachowawczy, sprzeciwianie się twórcy czy przekonanie o własnej niepowtarzalności.
    Instynkt samozachowawczy i wszelkie jego „wyższe” odmiany (np. ochrona młodych, państwa czy nawet idei) nie wymagają nadzwierzęcego intelektu. Co więcej – ludzie są jednymi z bardziej samobójczych stworzeń posiadających „normalny” instynkt samozachowawczy (jako „nienormalny” mogę tu podać np. pszczoły, które poświęcają się za swój ul).
    Sprzeciwienie się twórcy może płynąć choćby ze zbyt płytkich obserwacji. Pies nie musi mieć hierarchii wartości swojego pana i nie świadczy to o jego wysokiej inteligencji.
    Nie możemy też wymagać, żeby nasza maszyna musiała sama generować sobie sensowne „życiowe” cele, bo wtedy wymagalibyśmy od niej więcej, niż można wymagać od ludzi. U nas też wszystko zaczyna się od celów płynących z biologii (np. głodu, uczucia zimna) i dopiero na tej bazie może powstać jakiś „wyższy” cel. Budowa schronienia, narzędzi do polowania, później sztuki czy religii.

    Choć dowodząc, że nasza maszyna nie jest osobą dowiedziemy, że nie przechodzi testu Turinga, imitowanie osobowości nie jest jeszcze dobrym wyznacznikiem inteligencji.
    Osobiście uważam, że test Turinga rozszerzony o pytania w zupełności wystarczy. Dokładanie do niego elementów testujących naturalność tylko spowodowałoby, że zaburzalibyśmy wykrywanie wyższej niż średniej inteligencji. Odrzucilibyśmy w ten sposób więcej informatyków niż maszyn.

    @Maciek
    Jak na razie nie ma powodów twierdzić, że ludzki umysł jest czymś więcej niż algorytmem. Nie jest zdeterminowany, bo jest losowy (stopień tej losowości nie jest jeszcze znany), ale nie zostało zaproponowane prawo fizyki, które dawałoby mu jakąś inną niedeterminowalność. Wygląda to jednak bardziej na algorytm z kwantowym generatorem liczb losowych, niż na taki, który pyta „kogoś z zewnątrz” o input.
    Każdy neuron pełni swoją funkcję, która jest (poza tą losowością) dobrze określona. Jeżeli nie da się zbudować z kwantowych bramek logicznych myślącej maszyny, to jak można wymagać tego od ich biologicznych, analogowych odpowiedników?

    @Cogito
    „(…) ponieważ taka maszyna z góry miałaby zaprogramowane co ma robić, więc w pewnym sensie nie myślałaby nad tym co robi, nie byłoby tego pierwiastka wolnej woli czy nieprzewidywalności.”
    Nieprzewidywalność wynika z losowości, niewiedzy o danym obiekcie, lub jego ogromnej złożoności. Maszyna bez trudu może zyskać przynajmniej to pierwsze.
    Kompletny brak wolnej woli pokazuje się łatwo. Wszystko powyżej tego to już często kwestia opinii lub założeń. Zależnie od przyjętej definicji, możemy pokazać, że maszyna ma wolną wolę, lub że człowiek nie może jej mieć.

  10. Mateusz Skalniak pisze:

    Szczególnie podoba mi się komentarz Agnieszki, która słusznie zauważyła, że „Ponieważ nie mamy dokładnej wiedzy na temat tego, co to jest myśl i w jakim procesie powstaje, wydaje nam się to czymś niezwykłym i niemożliwym do „podrobienia””.

    Moim zdaniem (może trochę abstrakcyjnym), to co nazywamy inteligencją, myśleniem jest to generator, który jako ziarno losowości przechowuje pewną rozbudowaną strukturę. W tej strukturze znalazło się miejsce zarówno dla wskaźników do naszego bieżącego stanu fizycznego, psychicznego, emocjonalnego, itp. jak również dostęp do bazy doświadczeń, posiadanej wiedzy. Na podstawie tych rozbudowanych warunków początkowych oraz pewnej dozy losowości (która wynika z genów) w naszym mózgu pojawiają się różne myśli.

    Z tego dosyć jasno wynika mój pogląd na temat tego, czym jest wolna wola i w jaki sposób człowiek podejmuje decyzje. Otóż uważam, że każde zachowanie ludzkie jest czymś zdeterminowane, jednak dodatkowo w genach zapisany mamy pewną namiastkę „losowości” przez co każdy człowiek zachowuje się nieco inaczej.

    Dalej rozwijając tę hipotezę warto zwrócić uwagę na bliźnięta jednojajowe. Takie osoby mają zazwyczaj ten sam genotyp. Można zauważyć, że bliźnięta, które od samego początku życia są ze sobą związane i ciągle przebywają ze sobą mają bardzo podobny charakter, a czasem ciężko, nawet po wielu tygodniach spędzonych z nimi, odróżnić, który jest którym. Może gdyby mogły urodzić się dokładnie w tym samym momencie, stać w tym samym miejscu, itp. to wtedy każdy ich ruch byłby identyczny, a każda myśl pojawiałaby się w tym samym czasie w obu umysłach. Takiego eksperymentu przeprowadzić jednak się nie da ;)

    Nawiązując dalej do słów: „Wszystko wynika logicznie z czegoś innego, więc mając dane i cel, jaki chcemy osiągnąć możemy nauczyć maszynę zbliżać się do niego, tak jak sami kiedyś byliśmy uczeni.”

    Gdy znajdziemy się w pewnym ograniczonym modelu, w którym znamy wszystkie prawa, jakie rządzą danymi ciałami to jesteśmy w stanie, w sposób jednoznaczny, wskazać, co się stanie.
    Weźmy idealny model (wszystko zachowuje się według reguł, w które wierzy człowiek), w którym istnieje tylko pewna książka, stół, podłoga, siła grawitacji i pewna siła F. Gdy siła F zadziała na książkę, leżącą na stole w odpowiednim kierunku to książka zsunie się ze stołu i upadnie za sprawą siły przyciągania. Co więcej, możemy nawet obliczyć dokładny czas, w którym książka znajdzie się na podłodze. To wszystko jest jasne do przewidzenia w tak okrojonym modelu.

    Gdyby jednak ten model rozszerzyć do modelu całego Wszechświata to prawdopodobnie moglibyśmy przewidzieć każdy przyszły stan. Może nawet istnieje wzór opisujący cały Wszechświat?
    Może to nawet w nas samych „zapisany” jest ten wzór i wszystko, co robimy ma wpływ na świat zewnętrzny. Należy pamiętać, że w człowieku został zaimplementowany dość toporny system operacyjny, który wykorzystuje jedynie kilka procent możliwości naszego procesora (mózgu). Gdybyśmy mogli wykorzystać 100% to być może moglibyśmy przewidywać przyszłość, zgodnie z poprzednimi rozważaniami na temat znajomości modelu Wszechświata.

    Uważam, więc, że maszyn myślących w taki sam sposób jak człowiek nie uda nam się zbudować. (Chyba, że sami posiądziemy 100% możliwości ludzkiego mózgu.) Jednak dzięki zaopatrzeniu tych maszyn w ogromne bazy danych i skomplikowane algorytmy samouczące będzie możliwe stworzenie maszyny w pewnym (wysokim) stopniu symulującej zachowanie dorosłego człowieka.

  11. Arkady pisze:

    Oglądając po raz kolejny film braci Wachowskich „Matrix” przypomniałem sobie postawione na wykładzie pytanie, będące wstępem rozważań Alana Turinga i głównym motywem tego działu „Czy maszyna może myśleć ?”.
    „Matrix” prezentuje nam wizję świata, w którym maszyna nauczyła się myśleć, i to nawet za bardzo, gdyż wystąpiła przeciwko swojemu stwórcy. Wizja ta jest nieodłącznym elementem rozważań nad stworzeniem sztucznej inteligencji. Boimy się, że wykreujemy coś tak doskonałego, że przerośnie nas w drabinie rozwoju gatunkowego. Jednakże jeśli głębiej się temu przyjrzeć, obawy te nie dotyczą zagrożenia ze strony nowej cywilizacji maszyn lecz tego, które pochodzi od nas samych.
    Chcemy stworzyć inteligencję, która będzie działać na nasz obraz, i tylko my możemy zaszczepić w niej rządzę władzy i represji. Maszyna potrafiąca myśleć, bez ingerencji człowieka, nie zachowa się w sposób niewłaściwy. Dlatego wszelkie zarzuty co do zagrożenia ze strony nienaruszonej idei idealnej sztucznej inteligencji są moim zdaniem nieuzasadnione. Dlatego odpowiadając sobie na pytanie „rozbiegowe” – „czy możemy sobie pozwolić na próbę stworzenia sztucznej inteligencji”, nie warto od razu rezygnować, gdyż to właśnie rozwój SI przyczynia się do naszego rozwoju. Być może zgłębiając tajniki sztucznej inteligencji poznamy sposób na to, byśmy sami weszli na wyższy poziom intelektu.
    A wracając do właściwego pytania muszę przyznać, że tekst Alana Turinga oraz dyskusja przeprowadzona wyżej dość mocno przedstawiły moje poglądy na ten temat. Oczywiście nie mogę zgodzić się w pełni z każdą wypowiedzią, jednakże wszystkie zawierały to filozoficzne ziarenko przemyśleń, ukierunkowane w stronę drążenia zadanego tematu. Dlatego nie chcąc powtarzać wymienionych poglądów, chciałbym tylko krótko nawiązać do kilku:
    „… uważam, że każde zachowanie ludzkie jest czymś zdeterminowane, jednak dodatkowo w genach zapisany mamy pewną namiastkę „losowości” przez co każdy człowiek zachowuje się nieco inaczej.” Popieram zdecydowanie pierwsze zdanie – zdecydowana większość decyzji podejmowanych przez człowieka można by opisać nawet niezbyt skomplikowaną funkcją, która opierała by się na kilku podstawowych parametrach jak: wola życia, bycie w grupie, itp. Niestety co do drugiego zdania mam pewne wątpliwości, gdyż przedmówca twierdzi, że w genach mamy zapisany pewien motor losowości, który ustala nasze zachowania. Popieram myśl, że nasze geny mają wpływ na specyfikację naszego życia i zachowań, jednakże moim zdaniem losowość w niektórych zachowaniach bierze się głównie ze specyficznego stanu otoczenia, który wyzwala niestandardowe posunięcia. Podsumowując myśl, pragnę wskazać, że te dwa spostrzeżenia mogą mieć kluczowy wpływ na odpowiedź na główne pytanie. Chcąc naśladować ludzki umysł większą cześć pracy możemy wykonać stosując dobrze znane nam metody algorytmiczne. Obserwując nowinki technologiczne dostrzegamy maszyny, które w niektórych zachowaniach przypominają człowieka. Może nie wszyscy to dostrzegają, ale te wynalazki to już jest prawdziwa sztuczna inteligencja. Oczywiście oczekujemy maszyny, która będzie w stanie zachowywać się zupełnie jak człowiek, jednakże nie możemy twierdzić, że jesteśmy w ślepej uliczce, bo już dokonaliśmy małego cudu stworzenia. Dlatego pytanie „czy maszyna może myśleć” już teraz zamieniłbym na „jak wysoki stopień intelektualny osiągnie maszyna”.
    To pytanie, w przeciwieństwie do pierwszego uwzględnia już naszą ciężką pracę włożoną w rozwój SI oraz dokonane osiągnięcia.
    Kończąc wypowiedź chciałem jeszcze nawiązać do pierwszego postu:
    „Maszyny powszechnie nazywane myślącymi używają jedynie sprytnie wymyślonych reguł, które są zakodowane w ich programie.” – trudno się z tym faktem nie zgodzić, ale ja wolę na to patrzeć z innej strony: skąd wiem jak działa moja inteligencja, czy przypadkiem ktoś nie wszczepił mi programu, na podstawie, którego toczy się moje całe życie? To, że nasza inicjatywa opiera się na ograniczeniach płynących z zakodowania pewnych reguł, wcale nie oznacza, że w ostateczności nie uzyskamy pożądanego efektu, a porównywanie sztucznej inteligencji do swojej, której sami nie znamy do końca i nie rozumiemy nie jest najwłaściwszym podejściem do sprawy.

    • Paweł Stacewicz pisze:

      Zdziwiły mnie ciutkę następujące zdania:
      „Chcemy stworzyć inteligencję, która będzie działać na nasz obraz, i tylko my możemy zaszczepić w niej rządzę władzy i represji. Maszyna potrafiąca myśleć, bez ingerencji człowieka, nie zachowa się w sposób niewłaściwy.”

      Skąd wiadomo, że zainicjowany przez nas rozwój sztucznych systemów inteligentnych (np. taki, który będzie dokonywać się w drodze sztucznej ewolucji) nie doprowadzi do powstania maszyn groźnych, agresywnych, niebezpiecznych, chciwych, morderczych, żądnych władzy itp… ?
      Czy zło istniejące w świecie pochodzi tylko od czlowieka? Czy to, co nazywamy złem, nie jest wpisane w reguły ewolucji, którym podobnie jak podlegamy my, będą podlegać hipotetyczne autonomiczne maszyny przyszlości?

      • Arkady pisze:

        Dziękuję bardzo za znalezienie w mojej poprzedniej wypowiedzi tej niejasności. Oczywiście analizując wczoraj postawiony problem przeoczyłem jeden dość ważny element rozwoju sztucznej inteligencji. Dlatego rozwinę swoją myśl nanosząc pewne korekty, jednakże co do niektórych uwag wyrażę swoją dezaprobatę.

        Wspomnianym wyżej elementem jest mechanizm decyzyjny maszyny wyposażonej w sztuczną inteligencję. Jeśli maszyna ma symulować człowieka, jej głównym motorem decyzyjnym będą podstawowe cele egzystencjalne, o których wspomniałem wyżej. Niestety nie dostrzegłem, że na drodze ewolucji maszyna za optymalne rozwiązanie może przyjąć takie, które zaszkodzi człowiekowi. Istnieje możliwość, że maszyna nauczy się współpracy w obrębie swego gatunku oraz uzna dominację nad innymi mieszkańcami globu, za właściwe rozwiązanie. Popieram stwierdzenie, że to co nazywamy złem jest wpisane w reguły ewolucji gatunku, jednak miałem nadzieję, że uda nam się stworzyć gatunek, który nie będzie tym obarczony. Nie porzucam tego przekonania, gdyż moim zdaniem to, co skłania nas do bycia władczymi nad innymi gatunkami, jest uwarunkowane naszymi fizycznymi niedoskonałościami (potrzeba przestrzeni, pożywienia). Te problemy mogą nie pojawić się w przypadku myślących maszyn.
        Pozostaję również przy stwierdzeniu, że wszelkie wyobrażenia o destrukcyjnym wpływie maszyn autonomicznych na ludzi są spowodowane wyłącznie tym, że oceniamy je jak ludzi. Niestety ludzie, którzy osiągają przewagę nad ogółem zwykle wykorzystują fakt w egoistycznym i degradującym innych celu. Tym samym szablonem oceniamy maszyny myślące. Boimy się, że nauczą się one od nas pożądania władzy i agresji. Ja natomiast uważam, że autonomiczny system myślący wybierając optymalną drogę rozwoju nie przyswoi sobie naszych wad i będzie funkcjonował w odrębnej, nieporównywalnej z naszą umysłowej rzeczywistości. Obawy zawsze pozostaną, a zdrowy rozsądek podpowiada zachować ostrożność, jednak jeśli nie podejmiemy się tego wyzwania, to tak jakbyśmy poddali nasz rozwój cywilizacyjny. Można przeżyć pozostały czas bezpiecznie, w stałym deterministycznym środowisku, oczekując „gruszek na wierzbie” po śmierci. Ale dla kogoś kto widzi w egzystencji więcej niż ustaloną podróż z A do B, praca nad rozwojem sztucznej inteligencji powinna być jednym z priorytetów rozwoju.

        • Harriet pisze:

          Zapewne zostanę zlinczowana i wywołam oburzenie moim stanowiskiem, jednak ja osobiście nie widzę sensu w tworzeniu maszyn które miałyby mieć inteligencję tego samego rodzaju, którą ma człowiek. Powyższy komentarz brzmi trochę jak dążenie do stworzenia lepszych ludzi, czyli tak samo inteligentnych i myślących, jednak pozbawionych ich wad. Według mnie, zastąpienie człowieka tak autonomiczną maszyną zaczęłoby prowadzić do degradacji ludzkości, ponieważ coraz częściej zaczęlibyśmy wyręczać się robotami zamiast myśleć samodzielnie. Jak najbardziej, nie chcę postulować zaprzestania prac nad sztuczną inteligencją, jednak według mnie powinna ona zawsze pozostać… no właśnie… Sztuczna. Zależna od człowieka. Czy jeśli po stworzeniu już tych hipotetycznych, wspaniałych, idealnych myślących maszyn złożymy na ich naoliwione ręce obowiązek pchania nauki naprzód, to czy wciąż będzie można mówić o rozwoju ludzkości?
          Osobiście trochę obawiam się tych coraz to inteligentniejszych maszyn. Z jednej strony tak, znacznie ułatwiłyby życie, ich rozwijanie oznaczałoby postęp i tak dalej, ale gdzie w tym wszystkim miejsce dla prostego człowieka? Przy wynalezieniu inteligentnych maszyn, pracujących powiedzmy jako sprzedawcy w sklepach dużo ludzi straciłoby pracę.
          Swoim komentarzem chciałam właściwie trochę ochłodzić zachwyt i oczekiwania w stosunku do super inteligentnych maszyn . Według mnie, priorytetem rozwoju powinno być wprowadzanie coraz to nowocześniejszych metod poznawania tajników ludzkiego ciała i generalnie rozwijanie inżynierii biomedycznej, gdyż według mnie to o wiele bardziej przysłuży się gatunkowi ludzkiemu niż stworzenie maszyny która zastąpi człowieka, chodzi ludzi mamy na Ziemi miliony.
          P.S. Aż strach pomyśleć, co takie idealne , inteligentne, pozbawione uczuć i emocji maszyny zdołałyby uczynić podczas wojny.

          • Arkady pisze:

            „Aż strach pomyśleć, co takie idealne , inteligentne, pozbawione uczuć i emocji maszyny zdołałyby uczynić podczas wojny.” I to właśnie uważam za mierzenie maszyn swoją miarą. Obecnie człowiek stoi na szczycie drabiny rozwoju, ale nikt nie może twierdzić, że tak będzie zawsze. Historia pokazuje, że nawet niezwyciężone nacje w końcu kiedyś odnoszą porażkę (inaczej nie panowalibyśmy na tej planecie). Prędzej czy później dowiemy się, że tak naprawdę nasza siła jest niczym w porównaniu z lepiej rozwiniętymi cywilizacjami na innych planetach (brzmi to pewnie jak przeciętne SF, ale moim zdaniem błędem jest wierzenie w to, że jesteśmy jedyni i wyjątkowi – „wybrani przez kreatora świata”). Dlatego co nam szkodzi spróbować zabawy w Stwórcę. Jeśli stracimy przy tym dominację to będzie to wyraz tego, że nasz czas się po prostu skończył. Jednakże wydaje mi się, że większość obaw dotyczących maszyn autonomicznych pochodzi właśnie ze wspomnianego wcześniej SF. Dziwi mnie koncentrowanie się wyłącznie na destrukcyjnej sferze istnienia maszyn inteligentnych nie wiedząc nawet czy do takiej sytuacji w ogóle dojdzie.
            Równocześnie chciałbym podkreślić słuszność stwierdzenia, że należy poświęcić uwagę nad inżynierią biomedyczną, gdyż jest to jak najbardziej kluczowe zagadnienie w rozwoju naszego społeczeństwa, które może zaowocować wieloma sukcesami. Jednakże nie pozostając dłużnym koleżance:
            P.S. Aż strach pomyśleć, co będzie, jak inżynieria biomedyczna stworzy nam armię klonów, a ludzi zamieni w chodzące cyborgi.

            Każde rozwiązanie może mieć negatywne skutki i z tym problemem nie wygramy niezależnie od tego, którą drogę obierzemy.

      • Ignacy Sosnowski pisze:

        Moim zdaniem, nie musimy obawiać się tego, że ewentualne stworzone przez człowieka sztuczne systemy inteligencji doprowadzą do wymienionych przez Pana drastycznych ewentualności.

        Uważam tak, ponieważ człowiek wbrew pozorom jest istotą słabą i mimo zaawansowanych technologii, które gromadził, gromadzi i będzie gromadził na przestrzeni wieków, nigdy nie będzie w stanie stworzyć inteligencji silniejszej niż jego zdolności, ponieważ ludzki umysł nie został jeszcze odkryty na tyle, tworzyć coś silniejszego niż nieznane ludzkości umiejętności.

        Uważam, że istniejące na świecie zło pochodzi tylko i wyłącznie od człowieka, ponieważ niesłusznie uznaliśmy, że jesteśmy panami tego świata i że możemy robić wszystko na co tylko mamy ochotę.

        Stworzone przez nas maszyny nigdy nie będą podlegały takim destrukcyjnym żądzom, ponieważ człowiek nie będzie w stanie stworzyć emocji, które są odpowiedzialne za zło.

  12. Paweł Stacewicz pisze:

    Wymiana myśli między p. Harriet a p. Arkadym przywiodła mi na myśl argument b) z tekstu Turinga: tzw. „sprzeciw głów w piasku”.
    Turing pisze: „Konsekwencje myślenia maszyn byłyby zbyt okropne. Miejmy nadzieję i wierzmy, że one nie mogą myśleć… Chcemy wierzyć, że Człowiek jest w jakiś subtelny sposób wyższy ponad resztę stworzenia”.

    Otóż myśląc trochę w tym samym duchu zwróciliście Państwo (zwłaszcza p. Harriet) uwagę na coś, co Turing zupełnie pominął. Być może jest to znak naszych czasów. Z pewnego punktu widzenia Człowiek jest nie tyle wyższy ponad resztę stworzenia, co jest o wiele od tej reszty groźniejszy i bardziej okrutny. W myśleniu ludzkim tkwi coś destrukcyjnego, co każe mu niszczyć nie tylko inne gatunki, nie tylko swoje środowisko, ale również swój gatunek (a niekiedy i samego siebie).
    Pani Harriet sądzi, że to coś tkwi w samym myśleniu, samym intelekcie – pozbawionym uczuć i emocji. P. Arkady mniema chyba wręcz przeciwnie: że w intelekcie tkwi samo dobro, a elementów destrukcyjnych dostarczają sprzężone z nim popędy i emocje. Stąd, zdaje się, płynie jego wiara w to, że „idealna” sztuczna inteligencja będzie pozbawiona ludzkich wad.

    Tak czy siak poruszyliście Państwo ciekawy wątek: z dzisiejszej perspektywy psychologiczny opór przed projektem maszyn myślących wynika nie tylko z chęci zachowania obrazu człowieka jako istoty wyższej (od innych stworzeń), ale także z obaw przed wytworzeniem skrajnie destrukcyjnego nad-człowieka.
    Wątek bardzo ciekawy…

  13. Harriet pisze:

    Pozwolę sobie streścić mniej więcej wnioski do jakich doszliśmy podczas dzisiejszej dyskusji.

    1) Należy rozgraniczyć terminy „Maszyna posiada sztuczną inteligencję” oraz „Maszyna myśli” . Test Turinga przedstawiony w artykule może ewentualnie dowieść jedynie pierwszego sformułowania, ponieważ skłaniamy się ku rozumieniu myślenia jako coś więcej niż inteligencji – czegoś wymagającego świadomości, odczuwania, ciekawości świata i własnej inicjatywy.

    2) Wysunęłam propozycję modyfikacji testu, polegającej na zamiane ról sędziego i maszyny – to maszyna, zadając odpowiednie pytania i analizując odpowiedzi pod względem możliwości kłamstwa musiałaby rozróżnić – i tutaj są dwa warianty do ewentualnego przedyskutowania :
    a) dwoje ludzi, na przykład kobietę i mężczyznę,
    b) maszynę i człowieka.

    Moim argumentem za taką zamianą jest to, że według mnie umiejętność sprawnej analizy odpowiedzi nie tylko pod względem czysto programowalnej poprawności, ale też potencjalnej możliwości kłamstwa wymaga czegoś więcej niż tylko powiedzmy, dopasowania wzorca. Możnaby pójść dalej i zamiast jednego sędziego dać dwóch, człowieka i maszynę, a na podstawie porównania ich toków myślenia rozsądzić, czy tok pytań maszyny przedstawia jakiś sposób rozumowania.

    Argumentem przeciwko wariantowi A, wysuniętym przez Alberta, jest jego przekonanie, że aby dobrze kłamać, maszyna musi wiedzieć jakie pytania mogą być jej zadane, zatem rola sędziego jest mniej wymagająca niż rola odpytywanego. Ja się osobiście z tym nie zgadzam, aczkolwiek ma to jakiś sens.

    Argumentem przeciwko wariantowi B jest zdanie Krzyśka, który twierdzi że maszyna zawsze rozpozna maszynę ponieważ ich toki rozumowania będą identyczne, oparte na tych samych algorytmach ( przynajmniej tak to zrozumiałam).

    3) Wspólnie zaproponowaliśmy nasz własny test – maszyny możnaby uznać za myślące wtedy, gdy byłyby one w stanie same przeżyć w otaczającym nas świecie i wręcz wytworzyć własną cywilizację. Taki scenariusz z kolei przywołuje na myśl pytanie – czy naprawdę chcemy i potrzebujemy stworzyć nową nację, która w sposób naturalny (wynikający z ewolucji i chęci przetrwania każdego organizmu – czy to maszyny czy też człowieka) stałaby się naszym konkurentem lub wręcz wrogiem. Jak Krzysiek zauważył, rozwiązaniem na zniwelowanie takiego zagrożenia mogłoby być ukierunkowanie maszyn w konkretnym celu. Pamiętając jednak, ze największym wrogiem człowieka jest on sam, możemy być pewnymi, że znajdzie się ktoś, kto ukierunkuje maszyny właśnie w złym celu, co może w konsekwencji wymknąć się spod kontroli.

    4) Rozważaliśmy również, gdzie znajduje się granica między biologią a informatyką w zagadnieniu komputerów biologicznych, omówienia tej dyskusji jednak się nie podejmuję gdyż nie wydaje mi się, byśmy coś konkretnego zauważyli.

    Oczywiście jest to dość duży skrót naszych przemyśleń, jeśli coś pominęłam to zapraszam innych członków dyskusji do uzupełnienia.

  14. Krzychooo pisze:

    Mała adnotacja do naszych autorskich testów:
    Na zajęciach wspominałem o pewnej sprzeczności występującej w teście, gdzie maszyna musi odróżnić człowieka i maszynę na podstawie ich odpowiedzi na pytania. Teraz już wiem dokładnie o co mi chodziło.

    Przyjmijmy, że maszyna odpowiadająca na pytania i oceniająca są identyczne.
    Załóżmy, że maszyna jest niedoskonała – wtedy za człowieka weźmie drugą maszynę, ponieważ jej myśli pójdą tymi samymi torami (jest niedoskonała, więc jej sposób myślenia musi być niedoskonały, zatem obarczony tymi samymi skłonnościami) – test oblany.
    Załóżmy, że maszyna jest doskonała. Wtedy maszyna odpowiadająca na pytania też jest doskonała, a maszyna oceniająca może wziąć ją za człowieka i wcale nie będzie to jej błąd. Test znowu oblany.
    Wniosek – taki test nie może być przeprowadzany na dwóch takich samych maszynach. Maszyną odpowiadającą musiałaby być taka maszyna, która wcześniej nie przejdzie klasycznego testu Turinga.

  15. Krzychooo pisze:

    Jak już tu w końcu trafiłem, to zacząłem czytać dyskusję Harriet i Arkadego na temat zagrożeń, jakie stwarza sztuczna inteligencja i teraz nie mogę się powstrzymać od komentarza. Mam nadzieję, że nie odkopuję przy tym wojennego topora.

    Arkady w swoich wypowiedziach pisze „… moim zdaniem to, co skłania nas do bycia władczymi nad innymi gatunkami, jest uwarunkowane naszymi fizycznymi niedoskonałościami (potrzeba przestrzeni, pożywienia). Te problemy mogą nie pojawić się w przypadku myślących maszyn.”, a więc twierdzi, że typowa w naturze brutalność i bezwzględność związana jest tylko z troską o własne przetrwanie.
    Uważam, że nie można ich przypisać tylko czysto egzystencjalnym potrzebom. Nie szukając daleko, weźmy na przykład zachowanie małych dzieci – zupełnie niezagrożone i nieobarczone jeszcze żadnymi bolesnymi przeżyciami (czym można by ewentualnie usprawiedliwiać agresję ludzi dorosłych) potrafią męczyć, niekiedy katować zwierzęta. Niepodważalny jest fakt, że nie czynią tego ze względów egzystencjalnych (każdy z nas widział ten szaleńczy uśmiech na twarzy, który nie wykazywał bynajmniej strachu przed zagładą z rąk (łap?) kota, czy obawy przed śmiercią głodową). Skąd więc może brać się ich bezinteresowna skłonność do zadawania bólu?

    Pierwszy wariant jest taki, że dziecko jest w jakiś sposób genetycznie obciążone – tysiące lat walki ludzkości o przetrwanie zrobiły swoje i przemoc stała się nie tyle nabywanym przez życie nawykiem, ile dosłownie punktem wyjścia życia człowieka. Szczęśliwie nasze idealne maszyny pominą ten etap ewolucji – prosto z inkubatorów trafią do przyjaznego otoczenia i zabijanie z musu będzie im obce. Pozbawieni tego typu skaz w materiale genetycznym rodzice-maszyny będą wychowywali dzieci-maszyny w duchu pacyfizmu. W porządku.

    Skłonność do brutalności z pewnością może się też brać z otoczenia, które przypadkowo zaszczepiło w dziecku przemoc przez przypadkiem włączony w jego obecności telewizor, czy gazetę ze zdjęciami z Iraku na pierwszej stronie. Można argumentować, że w świecie jego rodziców nie będzie przemocy w telewizji, ani wojny w Iraku, patrz poprzedni akapit. Zgoda.

    A co jeśli agresja wzięła się z najzwyklejszej, typowej dla dziecka ciekawości? Z ciekawości połączonej z nieświadomością krzywdy czynionej zwierzęciu? Bezwzględność bierze się tutaj z dociekania. „Dobrze, ale to tylko dziecko” – można by rzec. W ciągu lat oczywiście nabierze mądrości i moralności. Nasze roboty pominą również to stadium – będą przecież konstruowane w pełni rozwinięte, a więc tylko ciekawe, nie nieświadome. Będą w pełni świadome bólu zadawanego innym istotom. Będą jednak maszynami bez uczuć (gdyby miały uczucia, targane emocjami musiałyby wejść na drogę agresji, sprzeczność), a więc świadomość bólu sprawianego innym istotom nie będzie grała dla nich żadnej roli. Nie widzę powodu, dla którego nie miałyby wkrótce okazać wrogości ludziom ze zwykłej naukowej, ba, akademickiej ciekawości.
    Człowiek w imię postępu przeprowadza eksperymenty medyczne na zwierzętach. Przychodzi mu to z trudem (liczne protesty obrońców zwierząt), ale fakt faktem, zabija dla nauki (i to w niebanalny sposób). Nasze maszyny tymczasem nie będą płakać na widok martwych szczurów (a więc i ludzi).
    Ciekawość i potrzeba postępu muszą prędzej czy później zaprowadzić maszyny tam, gdzie jesteśmy my. Bynajmniej nie dlatego, że okrucieństwo jest sprzężone z ciekawością – w żadnym wypadku. Powinno do tego kiedyś dojść w drodze losowości i pomysłowości nieczujących maszyn. Nie w drodze konieczności – maszyny mogłyby z nami doskonale współżyć i nie sądzę, by miały z tego powodu bardzo cierpieć (STOP, to tylko idiom) – ale zwyczajnie przez przypadek. Nie chcę mnożyć tu drastycznych przykładów, ale moja wyobraźnia (a więc i wyobraźnia maszyn) jest w stanie znaleźć mnóstwo przykładów na zastosowanie ludzkiego ciała na przykład jako surowca.
    Można by twierdzić, że maszyny będą pozbawione nie tylko uczuć, ale też ciekawości. Ale – uwaga – cofniemy się do wtedy do maszyn fabrycznych. Maszyna bazująca na algorytmach nie będzie sztuczną inteligencją bez ciekawości, czy mechanizmów losowości (niezależnie od tego, czy uważamy te dwie rzeczy za tożsame czy też nie).
    Chciałbym w tym miejscu rozdzielić te dwa czynniki, którymi człowiek się różni od maszyn – uczucia i ciekawość. Uczucia obserwowane z zewnątrz można rozumieć jako czynnik, który odwodzi od najprostszej, matematycznie optymalnej drogi, do matematycznie nakreślonego celu. Ciekawość rozumiem jako pewien losowy czynnik, który napędza działania istoty do rozwoju poprzez nadawanie im sensu, ściśle związany z wolą życia.

  16. Paweł Stacewicz pisze:

    Witam pięknie p. Krzycha, który poruszył na „dzień dobry” kilka ciekawych spraw – w tym sprawę hipotetycznej ciekawości maszyn.

    Chętnie namówię go na kilka bardziej szczegółowych wyjaśnień, ale zanim to zrobię, chciałbym wypowiedzieć coś bardziej ogólnego i skierowanego do wszystkich dyskutantów.

    Dlaczego kwestie świadomości, uczuć, przeżyć, woli, ciekawości (a więc sfer, których każdy człowiek osobiście dotyka i które z własnego doświadczenia zna) trudno jest oddzielać od inteligencji? Dlaczego mówiąc o inteligencji sztucznej (czyli maszynowej) nie możemy od tych kwestii abstrahować? Dlaczego na dzień dzisiejszy nie możemy powiedzieć, że „intelekt sobie, a uczucia sobie”, albo „że budując sztuczną inteligencję nie warto wgłębiać się w mętne kwestie świadomości, przeżyć czy uczuć”?
    Z prostego powodu. Na dzień dzisiejszy, to człowiek góruje intelektualnie nad maszyną. Ba – nie licząc różnych fantazji spod znaku S-F – to człowiek (homo sapiens) jest najbardziej rozwiniętą intelektualnie (znaną nam) istotą we Wszechświecie.
    U człowieka tymczasem to wszystko, o czym pisałem wyżej, jest ze sobą splecione: inteligencja nie istnieje bez sfery emocjonalnej i wolicjonalnej.
    Rozwiązując jakiś poważny problem, nie kalkulujemy jak automaty: wmyślamy się weń, zżywamy się z nim, analizujemy go świadomie, a wszelkie związane z nim niepowodzenia wzbudzają w nas emocje, które tym zacieklej każą „atakować” problem z innych stron. Dzięki temu – być może – jesteśmy tak skuteczni.
    Być może zatem świadomość nie jest „bez sensu”, emocje i uczucia nie są „bez sensu” – być może dopiero wtedy, gdy zrozumiemy skąd się one biorą, jak funkcjonują i jak łączą się z „bezduszną inteligencją”, będziemy w stanie konstruować równie skuteczne jak my informatyczno/biologiczne automaty.
    Mówiąc krótko: nawet jeśli chcemy budować inteligencję inną niż ludzka (ale autonomiczną), to musimy wziąć w rachubę fakt, że najpotężniejsza w znanym nam wszechświecie inteligencja (czyli inteligencja ludzka), jest świadoma, sprzężona z biologicznym ciałem i zabarwiona emocjonalnie.
    To tyle ogólnie.

    A teraz mam dwie prośby do p. Krzycha, żeby objaśnił dokładniej, co miał na myśli, pisząc
    „Chciałbym w tym miejscu rozdzielić te dwa czynniki, którymi człowiek się różni od maszyn – uczucia i ciekawość. Uczucia obserwowane z zewnątrz można rozumieć jako czynnik, który odwodzi od najprostszej, matematycznie optymalnej drogi, do matematycznie nakreślonego celu. Ciekawość rozumiem jako pewien losowy czynnik, który napędza działania istoty do rozwoju poprzez nadawanie im sensu, ściśle związany z wolą życia.”

    Czy uważa Pan, że w poznaniu natury matematycznej uczucia/emocje nakierowane na badany problem są zbędne? Przeczą temu relacje matematyków, którzy dopiero zżywając się z problemem, angażując się weń uczuciowo i emocjonalnie, dochodzą (niekiedy po wielu latach) do rozwiązania. Niech Pan zauważy, że rozwiązując jakiś problem, nie znamy jeszcze optymalnej drogi.
    I druga sprawa: ciekawość-losowość-nadawanie sensu-wola życia. Warto byłoby to rozwinąć i przedyskutować…

  17. Krzychooo pisze:

    Od dłuższego czasu planowałem udzielić się na blogu, ale nie miałem czasu, więc dopiero teraz objaśniam:

    Nie uważam absolutnie, że matematyka jako nauka jest pozbawiona elementu ciekawości (bo to ciekawość popycha ludzi do spędzenia godzin albo nawet życia na rozwiązywaniu matematycznych problemów). Co więcej, nawet same matematyczne modele rzeczywistości (na przykład fizyczne) są na tyle abstrakcyjne, że trudno sobie wyobrazić, by dało się je zbudować algorytmicznie.
    Pisząc „matematycznie najprostsza droga do matematycznie nakreślonego celu” miałem na myśli drogę o najmniejszej, wyliczonej według posiadanej wiedzy i znanych algorytmów długości, do czegoś, co też zostało czysto liczbowo uznane za najbardziej potrzebne.
    Dla przykładu – wyobraźmy sobie studenta uczącego się do egzaminu. Jeśli najważniejszy dla niego cel w danej chwili to zaliczyć przedmiot, powinien siedzieć i się uczyć, póki będzie miał siłę. W ten sposób przynajmniej problem rozwiązałaby maszyna. Tymczasem po trzech godzinach nauki (albo i wcześniej) studenta zdążą najść wszelkie możliwe myśli niezwiązane z egzaminem. Tak więc student pójdzie obejrzeć w telewizji ważny dla niego mecz (ponieważ jest uczuciowo związany z sukcesami ulubionego tenisisty), zadzwoni do znajomego (ponieważ brak żywej duszy w jego otoczeniu wywoła w nim wrażenie odosobnienia i smutek) lub zwyczajnie podda się pierwszej lepszej chętce dlatego, że nie ma ochoty już poznawać kolejnych metod numerycznych rozwiązywania układów równań (to oczywiście też jest związane z uczuciami).
    Tak więc człowiek mimo czegoś, co w danej chwili uznałby za najważniejszy dla siebie krótko- lub długoterminowy cel, nie zmierza wprost do niego, mimo pełnej świadomości tego, że mógłby osiągnąć go szybciej nie zbaczając z drogi. Że już nie wspomnę o sytuacjach, kiedy człowiek dosłownie w prostej linii oddala się od spełnienia swoich zamierzeń, kiedy, przykładowo, wykonuje swoją pracę, ale w połowie robi jakiś głupi błąd i ze złości na samego siebie wyrzuca wszystko do kosza, by zacząć od nowa, mimo że z pewnością nie całość pracy nadawała się do kosza i z wielu jej fragmentów mógłby wiele zaczerpnąć.

    Jedyne, co bym wycofał z mojej poprzedniej wypowiedzi to określenie „matematycznie nakreślony cel”. Czysto algorytmiczna maszyna (pozbawiona sztucznej inteligencji tj. ludzkich atrybutów) nie mogłaby sama nakreślić sobie celu. Jej cel mógłby być tylko określony z zewnątrz (zaprogramowany przez człowieka) lub mógłby wynikać właśnie z ciekawości. Nie istnieje więc w żadnym razie coś takiego, jak wyliczony cel (no chyba że w ramach większego celu trzeba nakreślić, a więc wyliczyć jakieś pomniejsze cele będące krokami do celu najwyższego).

    • SitKom pisze:

      Czysto algorytmiczna maszyna? Co to właściwie znaczy? Czy właśnie twórcy systemów SI nie próbują uczynić tych algorytmów na tyle skomplikowanymi aby mogły stać się podobne człowiekowi?

      Zakładając że implementacja procesu wnioskowania będzie doskonała (nie mam tu na myśli podejmowania zawsze najlepszych z możliwych decyzji, lecz jedynie tych na przeciętnym ludzkim poziomie) można by faktycznie obdarzyć maszynę pewnymi warunkami początkowymi, tj.: system wartości – wspomniane cele oraz charakter – na ile skłonna będzie maszyna do wykonywania określonych czynności. Próbując dążyć do zaprogramowanych celów przy uwzględnieniu charakterystycznych skłonności będzie musiała wybrać, a następnie zrealizować szereg podcelów pośrednich. Wydaje mi się że ten proces może zawierać elementy twórcze. Jednak dotychczas nie napisałem nic nowego – cele zostały dane z góry, przez człowieka.

      ‘Nic nie rodzi się z niczego’. Przyglądając się człowiekowi błędem byłoby sądzić iż jego działania są całkowicie niezależne (pochodzą tylko i wyłącznie z wnętrza jednostki). Zgodzisz się że każdy z nas został ukształtowany częściowo przez otrzymane geny, będące dziedzictwem wielu pokoleń, częściowo przez środowisko (co do ważności obu czynników poglądy są podzielone). Skutkiem tego każdy z nas posiada indywidualny system wartości oraz charakter. Ze strony biologicznej do działania popychają nas instynkty (przetrwania, zachowania gatunku), ze strony środowiskowej są to różnego rodzaju ambicje i nabyte zainteresowania. W tym miejscu wydaje mi się że nie różnimy się już tak bardzo od opisanej maszyny. Różny jest jedynie czas ‘programowania warunków początkowych’.

      A więc czy taka maszyna ma prawo być nazywana inteligentną (w ludzki sposób)? Czy jednak to człowiek stracił swoją pozycję i może być przyrównany do niezwykle skomplikowanego systemu?

  18. Paweł Stacewicz pisze:

    W ostatnim zdaniu (niby pytajnym, lecz wyrażającym chyba Pana pogląd) wyraził Pan dobrze stanowisko Turinga i jego zwolenników.
    Skąd możemy wiedzieć, że umysł ludzki nie jest w istocie pewnym skomplikowanym algorytmem, a na pozór tylko wydaje się czymś jakościowo od algorytmu różnym?
    A jeśli algorytmem jest, to nic nie stoi na przeszkodzie (poza złożonością programu implementującego umysł), by wytworzyć maszynę nieodróżnialną od człowieka. Nieodróżnialną ze względu na efektywność poznawczą, czyli podobnie skutecznie rozwiązującą rozmaite problemy.
    Właściwie cały tekst Turinga (ten, który zapoczątkował naszą dyskusję), jest argumentacją na rzecz tezy, że faktycznie jest tak, jak pisze p. Sitkom „Tak. Wraz z postępem technologii cyfrowych, rozwojem sztuki programowania itd. człowiek w coraz większym stopniu będzie tracił swoją uprzywilejowaną pozycję w świecie; będzie ją tracił mimo naturalnego (psychologicznego) oporu tych, którzy chcieliby wierzyć „że człowiek jest w jakiś subtelny sposób wyższy ponad resztę stworzenia”.

    • km pisze:

      „Dlaczego kwestie świadomości, uczuć, przeżyć, woli, ciekawości (a więc sfer, których każdy człowiek osobiście dotyka i które z własnego doświadczenia zna) trudno jest oddzielać od inteligencji?”
      ‘Zrozumienie’ automatu może być, bardziej niż to się wydaje, zależne od odtworzenia wpływu uczuć niż tylko od skonstruowania samej li tylko ‘inteligentnej rozumności’. Rozpoznanie w rozmówcy ‘drugiego człowieka’ opiera się po części na wspólności mechanizmów emocjonalnych nie tylko w dyskusji na „tematy uczuć”. Może informatyków rozważających problem sztucznej inteligencji mogą zainteresować ustalenia i poglądy specjalistów od badania tego co twórcy sztucznej inteligencji mieliby zasymulować/ emulować/ skonstruować.
      Przykładowo Antonio R. Damasko przedstawia uczucia jako uświadomione dyspozycje/siły kierujące ku określonym działaniom będące rezultatem działania mechanizmy regulacji ku homeostazie funkcjonujących w starych (ewolucyjnie) , cerebralnych obszarach mózgu, w których równolegle (a więc bez możliwości kognitywnego wglądu- świadomość jest „jednowątkowa” a na pewno, nawet „napoleońska”, nie dałaby się dostatecznie podzielić) odzwierciedlane są stany ciała i reakcje na bodźce zewnętrzne.
      Mechanizmy sterujące układem immunologicznym, prostymi odruchami, instynktami wraz z wzrostem złożoności sterujące funkcjonowaniem zwierząt stojących coraz „wyżej” w Linneuszowej hierarchii nie były usuwane z „kolejnych generacji systemu operacyjnego”.
      Ich funkcjonowanie w nieświadomych obszarach mózgu daje się właśnie odczuć siłą afektów, a co może być istotne :
      1.Mają one pierwszeństwo (nie tylko ewolucyjne) wobec świadomych mechanizmów podejmowania decyzji. Wystarczy przypomnieć eksperyment, w którym stwierdzono, że sygnał do ciała by wstać z krzesła zostaje wysłany przed powstaniem świadomej decyzji ‘by wstać’- powolne funkcjonowanie cielesnego okablowania sprawia, że wszystko się w codziennym doświadczeniu „właściwie zgrywa” w czasie. Także u pytanych o przekonania co do odrębność siebie jako jednostki i własną wolna wolę aktywowały się „nieświadome” obszary mózgu.
      2.Lepiej radzą sobie z przetwarzaniem bodźców w ilości niemożliwej do uchwycenia dla świadomości- w końcu to szybsze „wielowątkowe przetwarzanie”- i to nie tylko w regulowaniu ruchami ciała, by zachować „równowagę przy chodzeniu w trakcie pokonywania trójwymiarowego toru przeszkód”. Wiele eksperymentów, w których podawano badanym zbyt wiele informacji na przykład danych finansowych (a więc ‘rozumnej’, matematycznej natury ) i stawiano problem obliczeniowy, który przekraczał możliwość przeprowadzenia jakiegoś zgrabnego szacunku kończyło się tym, że w rezultacie najtrafniejsze decyzje były podejmowane „na czuja”.
      3.Może najważniejsze jest to, że ludzie z uszkodzonymi obszarami mózgowymi odpowiedzialnymi za oddziaływanie emocjonalne na świadomość zwykle doprowadzali się do „życiowej katastrofy” mimo zachowania pełni inteligencji i całości wiedzy. Nie radzili sobie w sytuacjach społecznych i podejmowali złe decyzje finansowe/ zawodowe. (W końcu inne eksperymenty pokazują, że choćby decyzje wyborcze podejmujemy kierując się odczuciami). Co ciekawe gdy w laboratoryjnych warunkach przedstawiano im sytuację w której „dali plamę” i dawano czas na to by się spokojnie zastanowić najczęściej potrafili wskazać „właściwy sposób postępowania”. Zwyczajnie bez „uczuciowych” ‘regulacji ku przetrwaniu’ „głupiejemy”.
      Inna kwestia to czy to ‘dobre’.
      ” Pani Harriet sądzi, że to coś tkwi w samym myśleniu, samym intelekcie – pozbawionym uczuć i emocji. P. Arkady mniema chyba wręcz przeciwnie: że w intelekcie tkwi samo dobro, a elementów destrukcyjnych dostarczają sprzężone z nim popędy i emocje. Stąd, zdaje się, płynie jego wiara w to, że „idealna” sztuczna inteligencja będzie pozbawiona ludzkich wad.”
      Warto zauważyć, że mechanizmy emocjonalne sterują zachowaniem tak że „odzwierciedla się istota” ‘jednostki ludzkiej’ jako „istoty społecznej” działającej (statystycznie) z tendencją do „maksymalizacji korzyści dla jak największej liczby zainteresowanych”. Można powiedzieć, że uczucia (w szczególności emocje społeczne) zapewniają idylliczny kompromis między indywidualistycznym a altruistycznym wypełnieniem się ”istoty dobra” .
      Sęk w tym, że mechanizmy te wyewoluowały przez miliony lat dla kierowania przetrwaniem stadnym a potem plemiennym i odzwierciedlają logikę takiego przetrwania. Wystarczy znowu przypomnieć pewien eksperyment (tym razem myślowy) : „Czy zniszczyłbyś swoje nowe buty wbiegając do sadzawki w której tonęło by dziecko? Jeśli tak to dlaczego kupujesz nowe buty zamiast przesłać pieniądze dla umierających z głodu gdzieś w III świecie?”
      Choć może wystarczy „uniwersalny system praw” „z którymi każdy musi się zgodzić” którego sformułowania oryginale by nie kraść i nie zabijać (prawdomównie) dotyczyło współplemieńców.
      „Skąd możemy wiedzieć, że umysł ludzki nie jest w istocie pewnym skomplikowanym algorytmem, a na pozór tylko wydaje się czymś jakościowo od algorytmu różnym?”
      W wyżej wymienionych przypadkach ludzi z uszkodzonymi emocjonalnymi obszarami „niezdolnych do odczuwania uczuć wyższych”- oni mieli fizycznie uszkodzone konkretne struktury (lub jak wolą niektórzy systemy mózgowe) przecież tródno zakładać, że to były obszary „w których zdarza się cud”…

      • Harriet pisze:

        Bardzo ciekawa odpowiedź, zupełnie nie słyszałam o takich badaniach. Faktycznie, znamy zasadę działania ludzkiego mózgu na tyle słabo, że jest tam jeszcze duże pole do odkryć i gdyby udało się zaimplementować taki „system odczuwania” w maszynie to rzeczywiście stworzylibyśmy coś, co różniłoby się od człowieka jedynie rodzajem energii umożliwiającym działanie.

        Mogłoby to doprowadzić do nowych konfliktów natury etycznej – maszyny „czujące” musiałyby chyba być traktowane tak jak ludzie skoro zdolne byłyby do oczuwania smutku i nieszczęścia to nie można by było ich tak po prostu „odciąć” .

        Czy wyłączenie takiej teoretycznej maszyny z zaimplementowanym mechanizmem uczuć byłoby morderstwem?

  19. km pisze:

    Dość powszechnie ‘rozumne myślenie’ jest utożsamiane z logicznymi przewodami na modłę matematycznych dowodów- a kto poproszony o przeprowadzenie czegoś w rodzaju testu Turinga pytałby o problemy matematyczne? Idea GOFAI mocno „podupadła” jeszcze w ubiegłym wieku atakowana z różnych stron (np. Dreyfus). Atakowano przekonanie o możliwości stworzenia świadomości, która zaistniała by dowodząc dedukcyjnie swego istnienia i prawdziwości przekonań. Ale są i inne argumenty- właśnie konstrukcyjno (neurologiczne)/ ewolucyjne- za tym by zainteresować się tym jak funkcjonuje to co chcielibyśmy sztucznie odtworzyć, jaka była przyczyna zaistnienia tego (kosztownego) tworu w ramach ewolucji. Oczywiście jeśli chcemy się z tym ‘tworem’ jakoś ‘zrozumieć’.
    Są nawet tacy specjaliści z dziedzin neurokognitywistyki, którzy przyczynę istnienia mózgu (niezależnie od skali jego złożoności) widzą tylko i wyłącznie w jego roli jako mechanizmu kontroli ruchów (skurcze mięśni jako jedyny sposób wpływu na otoczenie- poza zapachem). Jak zauważa Daniel Wolpert są komputery wygrywające w szachy z najlepszymi szachistami, nie ma zdolnych pokierować humanoidalnym ramieniem robota tak by przesuwała figurami szachowymi i przeprowadzić partyjkę.
    Warto przy tym zauważyć, że aparatem gębowym kraba (który do najprostszych nie należy), kieruje 12 neuronów. Wydaje się, że ludzkie podejście do rozwiązywania problemów którymi naprawdę na co dzień zajmuje się mózg nie jest „zbyt efektywne”.
    Mózg i kognitywne 'Ja’ są tak silnie związane z ciałem, że 'Świadomość’ 'umysłu’ znika gdy uszkodzone zostają obszary mapujące stany ciała- mimo braku uszkodzeń w korze nowej/ asocjacyjnej kojarzonej z myśleniem 'w tradycyjnym rozumieniu’ (ciekawe, że bodźce zmysłowe nadal są przetwarzane na wstępnych etapach- brak jednak podstawy/ rdzenia w odniesieniu do którego mogły by przerodzić się w impulsy do podejmowania decyzji czy w ogóle rozmyślania).
    Ów rdzeń/ podstawa/ istota świadomości, której istnienie na mocy introspektywnych badań dopatrywało się wielu filozofów- zanim w ogóle rozpoczęto badania neurologiczne- wydaje się zasadzać na ciągłości parametrów mapowanych stanów ustroju a nie na dedukcyjnych peregrynacjach ‘Ja’ pośród inteligibilnych idei. Wielu myślicieli których tezy nie były ani „uduchowione” ani „rozemocjonowane” pisało właśnie o introspektywnym zmyśle nakierowanym właśnie na to co dzieje się we wnętrzu. Właśnie zmyśle nakierowanym do wewnątrz- takie określenie, nie wydzielające poza obręb ‘człowieka myślącego’ ciała (podkreślanie nierozerwalnego związku z umysłem) zdaje się być trafne w świetle ustaleń neurobadaczy.
    Krytycznym dla istnienia Podmiotu przed którym wyświetla się „film świadomości” jest obszar „na wejściu” z rdzenia kręgowego, a gdy pytani jesteśmy o wolna wolę, czy odrębność nas jako jednostki „rozświetlają” się obszary mózgu niedostępne dla świadomego wglądu, ewolucyjnie stare, których wyniki przetwarzania objawiają się poprzez instynkty, odczucia.
    I jeszcze odnośnie podstawowego waloru emocjonalnych wag siłą uczuć przekładających się na rozumne zachowania ludzi. Pacjenci poprawnie rozpoznający obiekty na podstawie bodźców wzrokowych mogą nie potrafić właściwie oceniać sytuacji, podejmować decyzji (na przykład niedoceniając zagrożenia na widok niebezpieczeństwa, czy żywić przekonanie o tym że pod bliską osobę podszywa się oszust który tylko wygląda jak np. matka) gdy uszkodzone zostanie połączenie między obszarami odpowiedzialnymi za analizę obrazów a ciałem migdałowatym (generatorem uczuć).
    Już najprostsza synestezja obrazuje jak w mózgu przetwarzanie bodźców jest splątane, i jak bardzo wątki poboczne nadają walor ludzkiemu rozumowaniu.

  20. Pingback: Turingowskie inspiracje… czyli o myśleniu ludzi i maszyn raz jeszcze | Cafe Aleph

  21. Kuba D. pisze:

    Na pytanie „Czy maszyny mogą myśleć?” nie ma prostej odpowiedzi. Zależy to od definicji „myślenia” i kryteriów, jakie stosujemy do jego oceny.
    Z jednej strony, maszyny potrafią już wykonywać wiele zadań, które kiedyś uważano za wyłączną domenę człowieka. Potrafią grać w gry, pisać teksty, tłumaczyć języki, a nawet tworzyć sztukę. Robią to w sposób coraz bardziej wyrafinowany i inteligentny.
    Z drugiej strony, maszyny wciąż nie dorównują ludziom pod względem wielu kluczowych aspektów inteligencji. Nie posiadają one takiej samej kreatywności, intuicji, zdolności do abstrakcyjnego myślenia i rozumienia emocji. Nie są również w stanie uczyć się i dostosowywać do nowych sytuacji w taki sam sposób jak ludzie.
    Ja uważam, że maszyny mogą myśleć. Z uwagi na to, że stwierdzamy czy druga osoba myśl na podstawie interakcji z nią lub zakładamy, że z definicji ludzie myślą. W przypadku tego drugiego rozumowania, możemy też założyć z definicji, że maszyny nie myślą i cała dyskusja nie ma sensu. Więc na podstawie rozmowy z maszyną, jeśli stwierdzimy, że ona myśli to tak jest.
    Należy również pamiętać, że sztuczna inteligencja jest wciąż na wczesnym etapie rozwoju. Możliwe, że w przyszłości maszyny zostaną wyposażone w zdolności, które obecnie wydają się nam niewyobrażalne.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *