Czy AlanTuring miał rację… gdy pisał o myśleniu maszyn i ludzi?

Czy Alan Turing miał rację, gdy:

a) utożsamił kryterium myślenia maszyn z nieodróżnialnością wypowiedzi językowych maszyn i ludzi,

b) utrzymywał i przekonywał, że nie jest dobrze uzasadniony pogląd jakoby „maszyny (cyfrowe) nie mogły myśleć„?

Pytania te – odnoszące do historycznego artykułu Alana Turinga pt. Maszyny liczące a inteligencja –  kieruję przede wszystkim, choć nie tylko!, do uczestników moich zajęć na wydziale WEiTI PW.

Gdyby ktoś zechciał ustosunkować się do pytania drugiego, proponuję, aby nie trzymał się kurczowo zaproponowanego przez Turinga kryterium myślenia (maszyn), lecz wziął pod uwagę także intuicyjne pojęcie myślenia – ukształtowane np. w drodze introspekcji (tj. wewnętrznej obserwacji własnych przeżyć psychicznych) czy też analizy warunków, które musi spełniać podmiot myślący (refleksyjny, rozumiejący, interpretujący, samoświadomy…).
Jest to uzasadnione, ponieważ sam Turing nie był tutaj konsekwentny. Pisząc o myśleniu maszyn, niekiedy powoływał się na swój behawioralny test (nazywany dziś testem Turinga), w innych fragmentach jednak uwypuklał pojęcia filozoficzne, tak jak dusza (niematerialna podstawa myśli) czy świadomość (dany w introspekcji, konieczny składnik myślenia).
Proponuję więc, abyśmy i my tutaj, w ramach zbliżającej się dyskusji, nie odrzucili całkowicie tego tego drugiego punktu widzenia.

Czekam zatem na kolejne głosy — które mogą oczywiście odnosić się do siebie wzajem, tworząc żywą dyskusję.

Pozdrawiam i zapraszam do debaty –- Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Dydaktyka logiki i filozofii, Epistemologia i ontologia, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

14 odpowiedzi na „Czy AlanTuring miał rację… gdy pisał o myśleniu maszyn i ludzi?

  1. Xpi pisze:

    Kluczowa definicja czasownika ‘myśleć‘ zaproponowana przez kogoś innego może być zupełnie inna od tej podanej poniżej. Moje rozważania są też krótkie, szybkie i niepełne, a rozważone przykłady można policzyć na palcach jednej ręki. Dodatkowo moje kompetencje w temacie debaty kończą się na osobistych opinii i doświadczeniu oraz lekturze kilku dłuższych wypowiedzi ekspertów. Polecam lekturę wywiadu z Pamelą McCorduck i artykułu z BuisnessInsider’a.
    Odnoszę wrażenie, że gra zaproponowana przez Turinga w teście „Maszyny liczące a inteligencja” nie oddaje w pełni tego, co rzeczywiście próbujemy zbadać zadając pytanie: „Czy maszyny mogą myśleć?”. Mimo tego rozważania dotyczące strategii jaką powinien przyjąć człowiek i komputer oraz jakie pytania powinienem zadawać przesłuchujący mogą być naprawdę ciekawe, szczególnie biorąc pod uwagę fakt jak bardzo różnią się od siebie pola kompetencji obu przesłuchiwanych. Oczywistym jest przecież fakt, że maszyna licząca (komputer) wykonuje obliczenia znacznie szybciej i bardziej niezawodnie niż jakikolwiek człowiek (przez obliczenia rozumiem np. mnożenie dwóch liczb dziesięciocyfrowych), a także, że człowiek… no właśnie, czy jest coś, co potrafi zrobić człowiek, a czego nie jest zdolna stworzyć maszyna cyfrowa? Wydaje mi się, że to właśnie na tym aspekcie powinniśmy skupić nasze rozważania, natomiast w ‘imitation game’ Turinga dużą rolę odgrywa zmylenie przesłuchującego (tzn. gdy poprosi on on napisanie wiersza, zarówno maszyna jak i człowiek mogę odpowiedzieć, że nie potrafią tego zrobić zamiast go napisać).
    Jednym z kluczowych punktów w jakiejkolwiek dyskusji na ten temat to zdefiniowanie czasownika ‘myśleć’. Uważam, że jedną z lepszych definicji tego słowa jest „t w o r z y ć coś (wiedzę) tam , gdzie wcześniej niczego nie było”, lub też „t w o r z y ć coś (wiedzę) bez wcześniejszej wiedzy jak”. Gdy głębiej się na nią zastanowimy, wydaje się być całkiem trafna. Krzysztof kolumb nie wymyślił Ameryki, Izaak Newton i Albert Einstein wymyślili (stworzyli) zasady i prawa, które rządzą otaczającym nas światem, kucharz robiąc naleśniki nie wymyśla przepisu na naleśniki, bo wie jak je zrobić, natomiast ja nie znając przepisu mogę go wymyślić (stworzyć). Podobnie Alexander Fleming nie wymyślił penicyliny, natomiast wymyślił, że może być ona stosowana do niszczenia bakterii powodujących choroby u ludzi, Carl Gauss w znanej anegdocie wymyślił jak sumować ze sobą kolejne liczby naturalne, dlatego, że wcześniej nikt nie podał mu wzoru, natomiast ja znając już wzór, nie mogę go wymyślić, a Pitagoras (przyjmijmy, że) wymyślił sposób udowodnienia swojego własnego równania, ponieważ wcześniej nikt tego dowodu nie podał. Równie ciekawe jest rozważanie przykładów z dziedziny sztuki. Adam Mickiewicz zdecydowanie wymyślił „Pana Tadeusza”, a Leonardo da Vinci portret damy z łasiczką. Czy jakakolwiek maszyna cyfrowa stworzyła coś, bez wcześniejszych instrukcji jak?
    Co w takim razie z programem ATP( automated theorem proving ) rozwiązującym problem Robinns’a, programem Logic Theorist dowodzącym 38 z 52 teorii z ‘Principia Mathematica’ i książką „True Love” napisaną w 2008 przez komputer: <> Niektóre dowody dostarczone przez Logic Theorist były przecież nowymi, lepszymi i bardziej zwięzłymi dowodami w porównaniu z już istniejącymi. Spróbujmy dojść do dna procesu jego tworzenia: Dlaczego komputer dowiódł tego twierdzenia? – bo poruszając się po drzewie wyszukiwania (składających się z dowiedzionych już teorii) dotarł do postawionej hipotezy; Dlaczego poruszał się po drzewie poszukiwań? – Bo takie polecenia widniały w jego kodzie źródłowym; albo do tego jak została napisana „True Love”: Dlaczego komputer zastosował to porównanie: <>? – bo Haruki Murakami często stosuje porównania do obiektów tej klasy, a porównania do nici występują w „Annie Kareninie” Lwa Tołstoja. Dlaczego opierałeś się na analizie dzieł tych autorów? – bo takie polecenie widniały w kodzie. Wydaje mi się, że badając intencje stojące za stworzeniem czegoś, zawsze dochodzimy do pewnego człowieka. Intencje nigdy nie mają swojego początku w istocie nie będącej samoświadomą. Czy maszyny mogą być zatem samoświadome? – To pytanie wydaj mi się być kluczowe dla całej dyskusji. Turing w swoim tekście bardzo trafnie zauważa, że twierdząc, że nie maszyny cyfrowe nie posiadają świadomości, przyjmujemy solistyczny punkt widzenia. Zgodnie z nim w odniesieniu do dowolnej osoby: możemy wiarygodnie ocenić czy jest ona świadoma tylko będąc tą właśnie osobą. Czy w takim razie może intencje przejawiane przez nas – ludzi też są jedynie bardzo zawiłym następstwem wcześniejszych wydarzeń w naszym życiu: wychowania, środowiska, wykształcenia, etc.?
    Osobiście uważam, że nasz ludzki magiczny pyłek to właśnie intencja samoświadomej istoty, której zawsze będzie brak maszynom cyfrowym. Pozostaną więc one niesamowicie potężnymi (dalece przekraczającymi nasze możliwości), lecz tylko narzędziami w naszych rękach.

    Piotr Siwy

    • Paweł Stacewicz pisze:

      Bardzo ciekawa wypowiedź.

      Warto zauważyć,że pierwsza jej część dotyczy nie tyle myślenia w ogóle (np. zastanawiania się nad tym co tu i teraz robię), lecz myślenia twórczego, to znaczy wymyślania czegoś (np. wzoru na sumę szeregu arytmetycznego). Wydaje mi się,że zanim postawimy pytania o kreatywność czy twórczość maszyn, warto rozważyć możliwość samego myślenia, niekoniecznie twórczego (do tego zdaje się odnosi druga część powyższej wypowiedzi, gdzie pojawia się kwestia świadomości).
      Rysuje się także taki oto ciekawy wątek: czy dla kreatywności maszyny niezbędne jest jej myślenie w sensie bycia świadomą? Inaczej: czy mogłyby istnieć kreatywne, ale nieświadome niczego, maszynowe zombi?

      Ciekaw jestem także rozwinięcia końcowej tezy: uważam, że nasz ludzki magiczny pyłek to właśnie intencja samoświadomej istoty, której zawsze będzie brak maszynom cyfrowym.
      Dlaczego akurat samoświadoma czy świadoma intencja nie może powstać za sprawą technologii cyfrowej i odpowiednich (odpowiednio złożonych) programów?
      Co stoi na przeszkodzie: brak niematerialnej duszy? A może brak możliwości przetwarzania sygnałów ciągłych (a nie tylko dyskretnych/cyfrowych)? A może jeszcze coś innego…?

    • Jan Zgorzelski pisze:

      Chciałbym odwołać się do stwierdzenia, w którym podważona zostaje definicja słowa ‚myśleć’. Niezupełnie zgadzam się z zaproponowaną nową definicją: „t w o r z y ć coś (wiedzę) tam , gdzie wcześniej niczego nie było”, moim zdaniem stworzenie czegoś z niczego nie jest utożsamieniem powszechnie rozumianego myślenia. Moja interpretacja słowa myśleć bliższa jest definicji ,,przetwarzania”. W tym przypadku faktycznie można to identyfikować z przetwarzaniem komputerowym, mając do dyspozycji dane wejściowe po przetworzeniu ich otrzymujemy dane wyjściowe – zazwyczaj rozwiązanie problemu. Im większy zbiór danych wejściowych tym wyższe prawdopodobieństwo otrzymania poprawnego rozwiązania, analogiczna do tego może być wiedza, człowiek posiadający dużą wiedzę jest zazwyczaj w stanie ,,stworzyć nową wiedzę” na podstawie ,,przetwarzania” tych informacji, jednak nie zgodzę się, że będzie to ,,stworzenie tam gdzie wcześniej niczego nie było”. Biorąc pod uwagę chociażby sztuczną inteligencję, a konkretniej uczenie maszynowe poprzez technikę sieci neuronowych analogia zasad działania nie jest przypadkowa, nieustannie próby poznawania ludzkiego organizmu umożliwiają wzorowanie się na mechanizmach mózgu i uproszczone implementacje wśród maszyn. Podsumowując, maszyny mogą ,,myśleć”, ale jest ono w porównaniu do ludzkiego myślenia bardzo ograniczone, chociaż stale rozwijane.

      • Paweł Stacewicz pisze:

        Czy przetwarzając coś bez zrozumienia myślę?
        Czy działając czysto instynktownie i/lub automatycznie, np. cofając rękę przed gorącym przedmiotem (co wymaga przetworzenia określonych bodźców przez mózg, system nerwowy i mięśnie) myślę?
        Czy komputer sortujący listę symboli (interpretowanych przez człowieka jako nazwiska), a więc przetwarzający dane wejściowe w wyjściowe, cokolwiek sobie myśli?

  2. J Strawa pisze:

    Czym jest myślenie? Jakąkolwiek dyskusję należałoby rozpocząć od próby odpowiedzi na to pytanie. Skupię się na tym problemie głównie od strony maszyn i ich możliwości. Moją wypowiedź zacznę od tego, że postaram się przedstawić argumenty za i przeciw, chociaż nie jestem żadnym specjalistą w tej dziedzinie. Używam terminów AI oraz silna sztuczna inteligencja zamiennie z pojęciem myślącej maszyny o której pisał Turing. Myślenie w kontekście maszyn jest czymś kompletnie innym od ludzkiego pojmowania tego terminu. Noam Chomsky, amerykański filozof, odniósł się do pytania postawionego w temacie dyskusji w ciekawy sposób: „A czy łodzie podwodne potrafią pływać?” To pytanie daje nam pewne zrozumienie tematu i poziomu abstrakcji o której pisał Turing. Otóż przy obecnym poziomie rozwoju technologii nie możemy mówić o ludzkim rozumowaniu maszyn. Spróbujmy jednak podejść do tego tematu z otwartą głową. Dyskusję warto rozpocząć od zdefiniowania pojęcia „myślenia”.

    Jeśli myślenie interpretujemy jako umiejętność do wpłynięcia na człowieka, to maszyny myślą od kilku lat. Codziennie używamy internetu i jesteśmy celem reklam, które mają namówić nas do nabycia produktu lub usługi. Dobierane są one przez bardzo skomplikowane algorytmy, które podejmują decyzje jaki rodzaj reklam jest dla nas najbardziej odpowiedni, a ich nowsze iteracje mają za zadanie dobierać reklamy coraz trafniej. Podobne systemy możemy odnaleźć w wielu branżach, na przykład w serwisach streamingowych, gdzie algorytm wybiera najtrafniejsze dla nas treści. Jest to argument za tym, że maszyny potrafią podejmować decyzje, co dla wielu jest pewnym krokiem ku tzw. silnej sztucznej inteligencji.

    Do osiągnięcia pełnej silnej sztucznej inteligencji potrzebna jest chociażby imitacja wolnej woli, człowiek zawsze ma wybór, może podjąć decyzję, nawet irracjonalną dla obserwatora. I możemy wtedy zadać pytanie: czy to wybór, czy obserwator jest irracjonalny? Odnosząc się jeszcze do mojego poprzedniego argumentu, jeśli maszyna dokona wyboru, którego człowiek nie akceptuje, człowiek może go zignorować, używać jako podstawa do dokonania zupełnie innego wyboru, a nawet wyłączyć maszynę. Stawi to przed nami kolejne pytania: czym jest decyzja? Na czym polega prawdziwie silna wola? Czy ludzie mają prawdziwie wolną wolę? Ale zostawię je, gdyż nie one są tematem tej dyskusji.

    Warte naszej uwagi są dokonania maszyn w pewnych dziedzinach wymagających kreatywności. Jest to próba odpowiedzi na pytanie czy maszyny mogą być kreatywne oraz czy mogą same stać się twórcą. Przykładowo kilka lat temu powstał scenariusz do 10 minutowego filmu napisany w całości przez sztuczną inteligencje, który następnie został zrealizowany przez prawdziwych aktorów. Co więcej, AI napisało własną piosenkę do filmu. Firma Visual Voice, która specjalizuje się w komercyjnym zastosowaniu AI, wgrała reklamy samochodów i danych firmy Lexus z ostatnich 15 lat maszynie, która następnie stworzyła scenariusz do krótkiej reklamy auta. Reżyser był zachwycony i stwierdził, że scenariusz jest idealny, pełny akcji i trzymający w napięciu. Może to być argument za tym, że maszyny mogą (zapewne nieświadomie) powodować emocje u ludzi. Co ciekawe, reklama spowodowała 35% wzrost sprzedaży reklamowanego w Europie modelu auta. Hollywood także bardzo często sięga po podobne rozwiązania technologiczne. Maszyny stworzyły formułę na idealny trailer horroru oraz na podstawie zachowań konsumentów są w stanie określić która aktorka lub aktor mogą przynieść większy zysk. Istnieje także maszyna tworząca nowe przepisy kulinarne.

    Jednym z większych projektów próbującym stworzyć prawdziwą sztuczną inteligencję jest projekt Watson IBM, który rozumie pytania w naturalnym języku angielskim, ma 2880 rdzeni, 15 TB pamięci operacyjnej i nie korzysta z internetu. W 2011 wygrał amerykański teleturniej Jeopardy z jego dotychczasowymi najlepszymi zawodnikami. Watson korzysta z setek równolegle pracujących algorytmów i na podstawie ich wyników określa najbardziej prawdopodobne rozwiązanie problemu, co w pewnym stopniu imituje pracę mózgu. „Wiedza” komputera opiera się na milionach stron dokumentów: encyklopedii, artykułów oraz dzieł literackich. Celem IBM jest szerokie użycie Watsona w medycynie i biznesie, co na chwile obecną już możemy zaobserwować na oddziałach onkologicznych. Zastrzeżenia budzi jednak sposób działania Watsona. Jest on zaawansowaną przeglądarką internetową, która przeszukuje encyklopedie. Nie zachodzą u niej żadne procesy myślowe w ludzkim pojmowaniu tego terminu. Jednak, jeśli chodzi o maszyny myślące w sposób zbliżony do człowieka, to niestety nie uważam żeby stworzenie tak skomplikowanej maszyny było możliwe, a przynajmniej nie w bliskiej przyszłości. Zgadzam się jednak ze stwierdzeniem Turinga, że zawsze maszyna będzie lepsza od człowieka w pewnych dziedzinach i vice versa, co udowodniły moje poprzednie argumenty. Na obecną chwile nawet połączenie kilku zaawansowanych maszyn dałoby ludzkości najlepszy superkomputer, ale ograniczenia technologiczne sprawiają, że ten cel wydaje się bardzo odległy, jeśli w ogóle możliwy.

    Kolejnym terminem wartym bliższej analizy jest paradoks Moraveca. Mówi on o tym, że stosunkowo łatwo osiągnąć jest zaawansowane rozumowanie, ale percepcja nawet na niskim poziomie (mówimy o poziomie 2 letniego dziecka) wydaje się być praktycznie nieosiągalna (wymaga gigantycznej mocy obliczeniowej). Z tego powodu komputery pokonały ludzi już w praktycznie każdej grze (ciekawym wyjątkiem jest brydż), a wykrywalność pewnych chorób (m.in. raka płuc i czerniaka) jest na poziomie o wiele wyższym od najlepszych lekarzy, mimo że tłumacze dalej nie potrafią w pełni poprawnie przełożyć zdania po angielsku na bardziej skomplikowany gramatycznie język (problemem jest tu brak zrozumienia przez maszyny kontekstu i znaczenia). Jednak obecnie rozpoznawanie mowy, obrazów i tekstów jest porównywalne ze średnim ludzkim wynikiem w takich testach, co daje pewne nadzieje na przyszłość. Jednakże w dalszym ciągu nie mamy pewności czy połączenie tych wszystkich algorytmów będzie kiedykolwiek możliwe.

    Zastrzeżenia budzi także sam test Turinga, który wymaga tylko oszukania sędziego, że jest się człowiekiem, co w żadnym stopniu nie przesądza o inteligencji maszyny, a już na pewno nie o jej samoświadomości. Co więcej, test zakłada, że maszyny potrafią celowo popełniać błędy (w celu oszukania człowieka), co jawnie stoi w sprzeczności z założeniami sztucznej inteligencji, której zadaniem jest pomoc człowiekowi. Maszyna taka mogłaby w konsekwencji oszukać swojego twórcę, co jest przez nas niepożądane. Jednak istnieje czat bot – CleverBot, który uzyskał prawie 60% w teście Turinga (średni wynik człowieka to 63%). Warto przyjrzeć się ankiecie przeprowadzonej wśród specjalistów w dziedzinie AI. Aż 2/3 z nich uważa, że do 2050 uda nam się stworzyć silną sztuczną inteligencję. Jestem jednak sceptycznie nastawiony do tych prognoz.

    Moim zdaniem ostatecznym dowodem przeciwko silnej sztucznej inteligencji jest eksperyment chińskiego pokoju zaproponowany przez Johna Searle’a. Jego celem jest udowodnienie, że komputer może udawać posługiwanie się językiem mandaryńskim, pomimo kompletnego niezrozumienia wyświetlanych odpowiedzi. Z zewnątrz nie widać żadnej różnicy pomiędzy komputerem, a człowiekiem, ale komputer nie rozumie co robi, używa on tylko bazy danych (np. słownika języka mandaryńskiego i zasad gramatyki). Widoczna jest różnica między semantyką, a syntaktyką. Eksperyment ten jest również uzupełnieniem gry w imitacje o której pisał Turing. Maszyna nie potrafiłaby odpowiedzieć na nawet proste pytanie dotyczące semantyki języka, którego kompletnie nie rozumie. Podobnie wygląda sytuacja z „poczuciem humoru” u inteligentnych asystentów (Siri, Alexa). Jesteśmy w stanie zaśmiać się z żartu, który stworzy maszyna, ale nie oznacza to, że posiada ona poczucie humoru i rozróżnia co jest dla niej zabawne, a co nie. Myślę, że nauczenie AI tworzenia żartów wymagałoby nauczenia jej śmiechu, co brzmi równie zabawnie, co niewyobrażalnie. Zupełnie innym pytaniem jest: czy maszyna potrzebuje poczucia humoru do osiągnięcia prawdziwej inteligencji? Pozostawię to pytanie bez odpowiedzi.

    Podsumowując, nie wykluczam, że kiedyś powstanie bardzo zaawansowana AI, która z zewnątrz będzie wyglądała na myślącą, ale w środku pozostanie nadal tylko maszyną, pełną algorytmów i innej zaawansowanej technologii, ale bez samoświadomości i ludzkiego „pierwiastka”, które uczyniłyby ją człowiekiem. Ale może to lepiej dla ludzi, by jak najdłużej pozostali najbardziej inteligentnym gatunkiem na Ziemi.

    Jakub Strawa

  3. Gerard Wypych pisze:

    Odnosząc się do pierwszego pytania. Według mojego zrozumienia tekstu Turing wcale nie “utożsamił kryterium myślenia maszyn z nieodróżnialnością wypowiedzi językowych maszyn i ludzi”. Przedstawił on próbę – być może niekoniecznie doskonałą – ukazania zagadnienia myślenia w inny, bardziej precyzyjny sposób. Traktuje on to jako implikację, ale nie tożsamość. Według niego z nieodróżnialności wypowiedzi językowych maszyn i ludzi wynika myślenie maszyn na wzór ludzki. Zależność ta nie działa jednak w drugą stronę. Być może można nazwać myśleniem coś co myślenia w ludzkim znaczeniu nie przypomina w ogóle. Po przeczytaniu tekstu ponadto mam wrażenie, że Turing nie tyle niezaprzeczalnie uważa, że jego test jest prawidłowy, co uważa, że problem “Czy maszyny mogą myśleć?” jest zbyt mało precyzyjny, aby warto było prowadzić na jego temat dyskusję. Sugeruje, że trzeba szukać bardziej jednoznacznych, ale bezpośrednio związanych problemów.

    Sam termin “myśleć” jest niezdefiniowany. Wielu ludzi ma różne przekonania co do tego co to oznacza. Wymienia się tutaj “myślenie twórcze”, “twórczość”, “rozumienie”, “samoświadomość” itd. Wszystkie te sformułowania jednak również nie są zdefiniowane. Co wiemy o “myśleniu”? “Myśleniem” nazywamy zjawisko, które jest nieodłączne człowiekowi. Każdy człowiek “myśli”. Cokolwiek to znaczy. Nawet jak w czyimś przekonaniu nie istnieje coś takiego jak wolna wola, twórczość, “rozumienie”, a świat jest w pełni deterministyczny, to może zgodzić się z tym, że jeżeli ludzie twierdzą, że “myślą”, to jest to jakieś zjawisko, które można przypisać człowiekowi. Może nie warto więc w ogóle próbować zdefiniować terminu “myśleć”?

    Najbardziej sensownym wydaje się więc sprawdzenie czy człowiek (jako istota myśląca) jest w stanie odróżnić maszynę od innego człowieka. Albo raczej, czy może istnieć taka maszyna, której człowiek nie odróżni od drugiego człowieka. Jeżeli mu się to nie uda, to jak lepiej można sprawdzić czy zachodzi proces myślenia? Skoro zakładamy, że ludzie myślą, to człowiek jest tak naprawdę jedynym możliwym obiektem, do którego możemy porównać maszynę, aby sprawdzić czy maszyna myśli. Ktoś mógłby powiedzieć, że jeszcze zwierzęta myślą. Nie wszyscy ludzie są co do tego jednak zgodni. Zresztą, jak Turing zauważył w swoim tekście pewien krańcowy pogląd (argument świadomości): “jedynym sposobem przekonania się, że jakiś człowiek myśli jest być tym właśnie człowiekiem”. Możemy więc przyjąć, że aby udowodnić, że maszyna myśli, musi być w pewnym sensie identyczna człowiekowi.

    W jaki więc sposób można porównać maszynę z człowiekiem, tak aby dowiedzieć się czy maszyna ma z człowiekiem część wspólną zwaną “myśleniem”?

    Można by było podejść do zagadnienia bardzo “prosto”. Sprawdźmy czy maszyna jest w 100% identyczna z człowiekiem, do którego ją porównujemy. Jeżeli tak jest to znaczy, że potrafi myśleć. Jest to niezbyt przydatne spojrzenie na temat. Nie da się skonstruować czegoś identycznego do drugiego czegoś. Pomijając nawet tę kwestię, chyba niezbyt o to nam chodzi. Jak już Turing zauważył w swoim tekście, nie chcemy aby maszyna była człowiekiem.

    W takim razie może zamiast porównywać całą maszynę do całego człowieka, zawęźmy krąg poszukiwań do czegoś co w miarę precyzyjnie jesteśmy w stanie określić, że zawiera “myślenie”. Po czym człowiek może poznać człowieka? Po wyglądzie. Nie uznamy jednak manekina, który może wyglądać identycznie jak człowiek, za istotę myślącą. Możemy więc odrzucić wygląd, fizyczność. Jedynym sensownym porównaniem wydaje się, więc rozmowa z maszyną i człowiekiem. Nie ma znaczenia jednak głos rozmówcy. Są ludzie, którzy nie potrafią mówić, ale w dalszym ciągu jesteśmy w stanie prowadzić z nimi normalne rozmowy i uznajemy ich za istoty myślące. Możemy rozmawiać np. listownie. Charakter pisma nie ma znaczenia. Możemy porozumiewać się chociażby alfabetem Morse’a. Dalej będziemy w stanie stwierdzić, że rozmawiamy z istotą myślącą. Doszliśmy więc właściwie do zaproponowanej przez Alana Turinga gry w naśladownictwo.

    Istnieje być może w tym rozumowaniu pewna luka, nieścisłość. Dzieje się to w momencie, gdy zawężamy krąg poszukiwań “myślenia” w człowieku. Niektórzy mogą się nie zgodzić z powyższym uściśleniem sprowadzającym człowieka do rozmowy z nim i może mają w tym trochę racji. Im bardziej odcinamy się od fizycznego kontaktu z drugim człowiekiem i im bardziej upraszczamy interakcję z nim, tym trudniej nam jest ocenić czy rozmawiamy z istotą myślącą. A może na tym polega cały problem? Może zbyt łatwo przychodzi nam uznanie za myślące istot, z którymi mamy kontakt fizyczny i zachowują się podobnie do nas? Może wydaje nam się, że “myślenie” jest czymś innym niż tak naprawdę jest? Wkracza tutaj problem potocznej definicji terminu “myśleć”. Być może kontrargumenty w postaci np. chińskiego pokoju przedstawionego przez Johna Searle’a, pokazują nie tyle niepoprawność testu Turinga, co zbyt wielkie oczekiwania w stosunku do “myślenia”, czy “rozumienia”. Jeżeli przyjąć, że zarówno test Turinga jak i argument chińskiego pokoju są poprawne, to można by dojść do wniosku, że myślenie nie jest niczym twórczym, a po prostu wynika z determinizmu świata.

  4. km pisze:

    Czekam z niecierpliwością na relacje z introspektywnego oglądu (Ich własnego) myślenia przez dyskutantów. Nie zdziwi mnie jednak jeśli „narracja” (komentarzy) niestety ominie te kwestie- zupełnie jak większość znanego mi dorobku Filozofii, mimo że zdawać by się mogło, że takie przedstawienia (myślenia) będą częstym przedmiotem dziedziny „umiłowania mądrości”. (Któż wszak nie zna sentencji „myślę więc jestem”?). Większość wielkich myślicieli na jakich trafiłem była raczej oszczędna w przedstawianiu podobnych raportów. A jeśli już, to skupiali się na doznaniach olśnień genialności tak bardzo, że blask ten przesłaniał wszystko inne (codzienną „praktykę” myślenia). Biorąc jednak pod uwagę ich dzieła, to stałego dostępu do transcendentalnej krynicy mądrości raczej nie mieli – nie ma w nich bowiem nic czego nie mógłby zrozumieć ktoś taki jak ja: kto nigdy świadomie nie wkroczył do Świata intelligibilnych idej. A jeśli nie stać ich było na coś lepszego (co by mnie „powaliło na kolana”) to podejrzewam, że w ich głowach nie działo się nic jakościowego innego (diametralnie różnego) niż to co jest mym doświadczeniem („po owocach ich poznacie”). Może to czego doświadczali nie pasowało im do ideologii wielkości ludzkiego rozumu i zostało „programowo” ominięte… A może nie chcieli wyjść pospolicie – na zwykłego głupka?
    Ale cóż: taka jest właśnie moja rola na tym blogu, zatem pozwolę sobie bezwstydnie ukazać własny obraz (mojego) ‘myślenia. Podkreślam przy tym, że będę pisał o mym świadomym ja, moim: myśleniu, rozumieniu, umyśle, rozumie – nawet jeśli ten osobisty wymiar pominę w poniższym przedstawieniu.

    1. Myśli pojawiają się wraz z przekonaniem o (ich) sensowności, mądrości i (co najmniej założeniem roboczym o) prawdziwości sądów w nich zawartych. Świadomy rozum nie tworzy zdania (na jakiś temat) słowo po słowie z namysłem tak, że w trakcie tego uważnego konstruowania myśli decyduje się dopiero określone przekonanie (w danej sprawie). Formowanie opinii „dzieje się” wcześniej- choć świadomie przyznaję się do danego sądu w chwili wypowiedzenia (utożsamiam się z osobą „autora”) ‚domyślam’ się jakie dane/treści z mego (życiowego) doświadczenia miały wpływ na to co powiedziałem. Ale już po wypowiedzeniu czy (zwłaszcza) spisaniu dany sąd – jako kolejna przetwarzana poza-świadomie informacja – może mieć wpływ na to jak w przyszłości kształtować się będzie moja opinia. Tak, że gdy będę kolejny raz spytany o to samo z mych ust popłyną słowa świadczące o innych/przeciwnych przeświadczeniach. Przekonaniach, które na dobrą sprawę pojawiają się tak jak rozwiązanie problemu po przespanej nocy- jako wynik „głębokiego” rozproszonego w umykającej świadomości wielości wątków. Przeświadczeniach które roszczą sobie prawa do (obowiązywania/prawdziwości) tego by ich bronić (choćby w uczonej dyskusji) bo to jak są przekonywujące jest odbiciem tego, że ich rolą jest regulacja działania. Gdy uczciwie spojrzę na to jak często w trakcie 24 godzin do współudziału w decyzji dopuszczany jest ‚świadomy rozum’ to widzę jak marginalne jest jego rola. (A wola „marzy tylko” by te incydenty – w których rozum musi trudzić się rozwagą nad działaniami i obserwacją konsekwencji dyspozycji „autopilota”- ograniczyć do minimum.)

    2. Rozważanie jawiących się myśli świadome dokonuje się także w tle- wybór jednej z wersji z nieodpartym uczuciem przekonania pojawia się tak jak wcześniej zjawiły się alternatywy. I znów gdy wynik się objawia rozumiem go, i jestem przekonany, że świadome ja o nim zadecydowało. Czuję wyraźnie, że moje przekonanie nie jest wynikiem zdeterminowanych obliczeń w nieświadomym tle- choć (bezpośrednio i aktualnie w mej świadomości) zjawiło się „gotowe”- zupełnie jak wynik obliczeń na wyświetlaczu kalkulatora.

    3. Nie trzeba zakładać, że rozum świadomy jest czymś poza/ innym niż procesem z pierwszoosobowej perspektywy doświadczalnej integracji wyników obliczeń rozproszonego, głęboko ukrytego przetwarzania danych (obliczania). – Taka własność II rzędu splątania funkcjonalnego wielu procesów „nastawionych” na przetrwanie wobec otaczającego środowiska.

    4. Świadomy rozum jest jak osoba w „chińskim pokoju” (Searle’a) która wykonuje instrukcje sama nie dokonując obliczeń- pokój (z którym jest bytowo zżyta) przedstawia jej od razu gotowe wyniki wraz z ich znaczeniem w zrozumiałej dla kognitywnego ja (zdolnej się uświadomić) formie. Pokój jest nie tylko barierą ale i jedynym pośrednikiem, tłumaczem (więc – z definicji – oszustem) określającym możliwe znaczenia- nie ma (z)rozumienia poza nim (instrukcjami obliczeń w tle i sposobami jakimi ich rezultaty docierają do ‚ja’). Dlatego argument Searla wydawał mi się być zawsze niejako „z boku” – nietrafnie stawiając komputerom warunki, których rozum ludzki nie do końca spełnia.

    Ad.1.
    Popularny narracyjny zwrot: „Mówił (…) ważąc każde słowo” – wydaje mi się wynikiem romantycznych wizji ludzkich władz umysłowych – chyba że chodzi o powolne wypowiadanie zdania, w którym i tak nie możemy zmienić wypływającego z nieświadomości słów by wypowiedź nie zmieniła się w marną jąkaninę . Kiedy w toku wypowiedzi orientuję się, że to co zaraz powiem może mi zaszkodzić to, jeśli szybko nie „wpadnę na” wypływające z nieświadomości słowa pozwalające na „zmianę wersji”/tematu (tym zgrabniejszą im lepiej ograny mam repertuar na takie okazje) to raczej zapadnie niezręczna cisza. Na powolne tworzenie nowego przekazu słowo po słowie mam chyba za mało „mocy obliczeniowej”- taka procedura wydaje mi się w ogóle nienaturalna, nierealna w sytuacji w której rozum wyewoluował w sytuacji walki o byt. Myśli pojawiają się w świadomości wraz z przekonaniem iż są wyrazem własnej woli – bo są odbiciem osobowości – ale jej całości a nie świadomej „nakładki” na wszelkie intelektualne procesy. W moich myślach jest odbicie wszystkiego tego co słyszałem, czytałem, co wcześniej rozważałem w danej sprawie. Odzwierciedla się w tym to co w tej kwestii powiedziałem, napisałem oraz historia mych nieprzedstawionych osobom trzecim rozważań (patrz pkt 2.)
    Manifestuje się w tym i efekt odczuć jakie wzbudziły się we mnie wobec reakcji Innych gdy me myśli przedstawiłem.
    Jest w (danej myśli) moja wiedza, mniemanie, intuicje, odczucia, instynkty (odbicie charakteru) – wszystko to co definiuje myśli znaczenia (i poszczególnych pojęć).
    Myśl ta jest moja, utożsamiam się z autorem ale nie powstała z niczego, od zera- pojawiła się „gotowa” wraz w całym w/w bagażem- określającym znaczenie i moje rozumienie tej myśli. Nie widzę innej drogi, którą miałyby te myśli dojść mej uwagi, niż poprzez aktywność „w tle” do której nie mam świadomego dostępu. Wraz z przyjęciem tezy o matematyczności Świata (zwłaszcza wobec owocności takiego założenia) winno się przyjąć, że tą aktywność w tle także można do obliczeń „sprowadzić”.

    Ad.2.
    Kiedy czegoś nie jestem pewien – to dosłownie: „muszę się zastanowić co sam sądzę na ten temat”.
    (Gdy o tym myślę to nie konstruuję swej opinii świadomie składając w gramatyczne formę słowa „od zera” tak by wyrazić ideę, której wszystkie elementy (ich znaczenia) posiadam pod (logiczną) świadomą kontrolą.)
    – „Zaglądam w głąb siebie” i uświadamia mi się jakiś sąd w pewnej całości (kolejne wpływające strumieniem „zdania”) którego świadomość na pewno nie jest aktualnym i bieżącym źródłem- źródło pozostaje „w tle”. (Jest w tym sensie „bezwładne”, że zgodnie z zasadą następstwa przyczyny i skutku istnieje odstęp pomiędzy przynajmniej częścią domniemanych procesów w tle a aktualnym stanem świadomości). Choć w przyszłych manifestacjach „stanu rozważań” nad daną kwestią, dać się będzie odczytać efekt aktualnego uświadomienia sobie, to nie do końca będzie on rezultatem kognitywnej decyzji- a w szczególności tylko tego co świadomie dostępne. Wypowiedziany/ spisany sąd (prócz zawartych w nim „formalnie” świadomych informacji) „robi na mnie wrażenie”/”budzi odczucie”(np. wątpliwości) które także SIĘ uświadamia. A o mocy tych uczuć się nie decyduje nie konstruuje się rozumnie podstaw tego odczuwania.
    Gdy pojawiająca się myśl „od pierwszego wejrzenia” mnie nie przekonuje- czasem pojawia się wraz z „konkurencją”:
    Gdy coś ‚rozważam’ to właśnie miarkuję możliwości jakie się mi jawią w tych w/w ‚pewnych całościach’ (i płynących za nimi strumieniami myśli i odczuć). Nie konstruuję jakiejś kompromisowej/konsensualnej opinii (znowu) „od zera” – gdy rozważając uzyskam przeświadczenie, że prawda leży np. „po środku”, to wraz z tym odczuciem pojawią się zdania werbalizujące i poczucie spełnienia (wymyśliłem „trzecią drogę”). – Ale to znów musi być wynik aktywności w tle do jakiej nie mam świadomego wglądu, gdyż aktualnie uwagę moją wypełnia „w całości” rozwiązanie.

    Ad. 3.
    Nie wydaje mi się by coś z tego świadczyło o ostatecznej transcendentalności mojego umysłu- chyba, że jego „wykraczanie poza” rozumieć jako zakotwiczenie w fundamentalnych procesach „w tle” (niedostępnych świadomemu wglądowi) stojących za treścią i rozumieniem tego co się uświadamia. Wgląd i olśnienia to nie prześwity intelligibilnego świata idei a uświadomienie sobie rezultatów przetwarzania informacji w obszarach których „obliczaniem” nie steruje/kieruje kognitywnie ‚ja’. Ekspozycja treści myśli (w spektaklu dla świadomości który ‚Ja’ obserwuje z pierwszoosobowej perspektywy) jest tu wtórna, ważne co dzieje się „w tle”- to zadecyduje o tym co będzie ‚sądził’ rozum – tak jak przed ruchem ręki można odczytać „skanerem” aktywności neuronalnej taką intencję nim się uświadomi.
    Czytanie tego co napisałem ma (dla mnie) znaczenie – jak każdy inny bodziec jest przetwarzane i ma wpływ na później uświadamiające się myśli- precyzacje/zmianę zdań/opinii. Ale rola świadomego rozumu jest w tym sensie bierna, że w szczególności „w nim samym” (wyabstrahowanym ze znaczeń niesionych przez „ukryte tło”) nic się nie decyduje (a jedynie uświadamia), Dlatego sam rozum wydaje się być chyba li tylko fenomenem perspektywy wewnętrznego spojrzenia na procesy integracji treści płynących z wielu równoległe pracujących systemów.

    Ad.4.
    Świadomy rozum uświadamia sobie kolejne „gotowe” myśli (także dyspozycje/intencje działań) mając przeświadczenie, że rozumie- bo przecież wraz z myślami z tego samego źródła wypływa  znaczenie tych myśli. Jakby osobie zamkniętej w chińskim pokoju przedstawiano na ekranie zobrazowanie znaczenia poszczególnych znaków i filmy agitujące za określonymi w instrukcjach sposobami odpowiedzi na znaki tak, że z chęcią i wolą wysyłałaby chińskie symbole w odpowiedzi- jednak nadal to nie świadome rozumowania (obliczenia) tej osoby stałyby (bezpośrednio i aktualnie) za rezultatem w postaci instrukcji. (Świadomy jest tylko akt ich przedstawienia – sobie – i wykonania).

    Reasumując:
    Nie wydaje mi się by w „jakościach myślenia” jakich doświadczam było coś co teoretycznie nie jest osiągalne dla maszyn liczących (nie wydaje mi się bym potrzebował założenia, że nie jestem li tylko biologiczną maszyną by wyjaśnić swe stany psychiczne).
    To jak trudne jest przetłumaczenie sposobów na jakie sztuczne sieci neuronowe (i metody „deep learning”) dochodzą do rozwiązania nowych problemów wydaje mi się być zasadniczo podobne do tego jak ciężko świadomemu ‘ja’ (przed którym myśli płyną jasno w jednym wątku – choć odczuwa kłębiące się działania w tle) sięgnąć „wzrokiem” do źródła myśli. Analityczny umysł może oczywiście rozłożyć element po elemencie na przykład sposób rozwiązania matematycznego problemu (przedstawić zrozumiałe wyjaśnienie). Ale „wpadamy na rozwiązanie”, coś „staje się dla nas jasne” – w jednej chwili. Wydaje się, że funkcjonujący model rozwiązania (problemu) „działa” w tle dając trwające „poczucie zrozumienia” całości a nie poszczególnych („ogarnialnych: świadomie) elementów/myśli z osobna.
    W sieciach neuronowych „prostych” zwierząt „zakodowane” są dyspozycje do określonych zachowań – my wykonujemy je świadomie z przeświadczeniem, że z wolną wola decydujemy co zrobić. I istotnie gdy coś zachcemy zrobić to spróbujemy to uczynić – ale nie możemy aktualnie nie chcieć tego co aktualnie chcemy. Nie ma tu więc miejsca na niezdeterminowanie pojawiających się świadomemu rozumowi myśli i odczuć – jeśli wierzymy że rezultaty mają swoje przyczyny.
    Wola i twórczość jakie są dostępne ludziom (a przynajmniej mi) wydają się być jak najbardziej możliwe do realizacji jako wynik obliczenia.
    Pozostaje pierwszoosobowa perspektywa, która – intuicyjnie – wydaje się być problematyczna – ale na dobrą sprawę: powszechny sposób na weryfikację jej obecności u drugiego człowieka jest analogiczny do testu Turinga. Jeśli zaś chodzi o maszyny: gdzie mielibyśmy postawić granicę występowania tej „perspektywy” ze środka uświadamiającej sobie własne działania? Czy pies, mucha lub najprostszy robak „patrzą na świat” z takiej perspektywy? Jeśli nawet odrzucić takie radykalne cybernetyczne ujęcie, zgodnie z którym świadomy może być nawet toster, to osiągnięcie przez ustrój możliwości zaistnienia w jego wnętrzu owej „pierwszoosobowej” perspektywy zdaje się być kwestią złożoności organizmu i konieczności integracji danych o otaczających go warunkach (wobec parametrów wewnętrznych/ ciała). A to w wypadku maszyn cyfrowych/robotów wydaje się być (najwyżej) kwestią czasu. Zatem jeśli maszyny zdadzą rozmaite testy z postępowania zgodnie z „rozumnymi” regułami, to o istnienie w nich świadomości trzeba będzie je same zapytać (i uwierzyć na słowo).

    Zaiste czekam na raporty kolejnych Komentatorów z „obserwacji (ich) własnych czynności psychicznych” – bo biorąc pod uwagę moje własne myślenie, uważam że test Turinga świadczy o całkiem trafnym uchwyceniu przez niego rozumienia istoty myślenia/intelektu ludzkiego (w ramy dość ponurego obrazu).

  5. Maciej Dmowski pisze:

    Mówiąc o procesie myślenia przez maszyny, porównujemy go najczęściej z procesem myślenia u ludzi, który uznaje się jako proces charakterystycznych dla istoty ludzkiej. Turing utożsamił kryterium myślenia maszyn jedynie z nieodróżnialnością wypowiedzi językowych maszyn i ludzi, co w znacznym stopniu spłyca proces myślenia.
    Jeżeli rozbijemy ten proces na pewne składowe elementarne, a spełnienie ich wszystkich uznamy za kryterium myślenia przez maszyny możemy dojść do zupełnie innych wniosków.

    Proces wyciągania wniosków z pewnego rodzaju przesłanek można uznać za jedną z głównych składowych procesu myślenia. Człowiek jest z pewnością zdolny do przeprowadzenia tego procesu, a czy komputer potrafi również „myśleć” w tym zakresie?
    Biorąc pod uwagę dość prosty przykład program, który generuje losowo formuły logiczne i sprawdza ich poprawność a także zapamiętuje zdania prawdziwe, możemy powiedzieć, że komputer się czegoś nauczyć, bo w swojej pamięci ma teraz przykłady poprawnych zdań. Można zatem uznać, że komputer myślał w rozważanym sensie.
    Tworzenie wypowiedzi i prowadzenie konwersacji – główne założenia eksperymentu Turinga – również można uznać za składową procesu myślenia. Jeśli maszyna pozytywnie przejdzie ten test to możemy z pewnością stwierdzić, że posiada inteligencję konwersacyjną podobną do ludzkiej. Wiarygodność komputera jako rozmówcy można powiązać z liczbą zwrotów jakie posiada w swojej pamięci a także sposobem i szybkością ich przetwarzania. Jednakże tych samych cech nie powiążemy chociażby ze świadomością, która jest zasadniczą różnicą między maszyną a człowiekiem.
    Aby rozważać, czy maszyny mogą posiąść świadomość musimy przeanalizować czym ona jest, jednakże trudno ją zdefiniować. Potrafimy odróżnić świadomość od snu, wiemy czym są stany zaburzenia świadomości, ale czy umiemy określić jakimiś konkretnymi warunkami czym ona jest? Czy możemy przetestować, czy maszyna jest świadoma swojego istnienia, skoro sami nie umiemy zdefiniować warunków, które musiałaby spełnić?
    Ludzie często powołują się na swoją intuicję, nie umiemy określić czym ona jest, lecz wiąże się ona z procesem myślowym. Również nie jesteśmy w stanie określić konkretnym testem czy maszyna posiada intuicję, bo sami nie wiemy, jak definiować ludzką intuicję.

    Bardzo ciekawym elementem procesu myślowego jest kreowanie, które poruszył Piotr Siwy w poprzednim komentarzu. Jeżeli uznamy kreatywność za wymagane kryterium w procesie myślenia maszyn, możemy się zastanowić, czy maszyny mogą „tworzyć wiedzę bez wcześniejszej wiedzy”. Ludzie tworząc, wymyślając nie zaczynają od zera, wiele rzeczy obserwują i analizują, a następnie wykorzystują w celu jaki potrzebują. Czy maszyna, która przetworzy wiele danych a następnie stworzy określony twór również stworzyła coś sama? Czy jednak z racji tego, że została o to „poproszona” nie możemy uznać tego za jej twór a pochodną instrukcji wydanej przez człowieka? Wydaje mi się, że w tej sprawie może być wiele dyskusji z powodu coraz szerszej definicji sztuki i dzieł kreatywnych. Trudno jednoznacznie określić czy artysta inspirując się wieloma dziełami sztuki, działa wiele inaczej od maszyny, której też zostanie postawione polecenie przeanalizowanie tychże dzieł i na ich podstawie stworzenie czegoś. Jednakże, jeśli uznamy, że maszyna wykonując polecenia nigdy nie będzie kreatywna, bo zawsze będzie wykonywała jedynie algorytm napisany przez człowieka to możemy dojść do wniosku, że dopóki nie powstanie algorytm, który sam się wytworzy lub maszyny nie będą nieodłącznie związane z algorytmami to nigdy nie zobaczymy kreatywnej pracy maszyny.

    Ostatecznie rysuje się wizja, że w zależności od sposobu rozumienia pojęcia myślącej maszyny, możemy stwierdzić, że maszyny już dawno posiadły tę umiejętność, bo są w stanie się czegoś nauczyć i na podstawie swojej pamięci przetwarzać i manipulować danymi, albo że nigdy nie zdobędą tej umiejętności, bo sami nie umiemy w pełni zdefiniować i zrozumieć procesu myślowego. Wydaje mi się, że należy zdefiniować różne elementy myślenia i rozpatrywać je osobno, a następnie oceniać, które maszyna jest w stanie spełnić. Jednakże dojdziemy do wniosku, że niektórych z nich nie da się łatwo zdefiniować, sprawdzać i testować, gdyż są subiektywne, bądź nie ma (być może póki co) możliwości jednoznacznego sposobu ich oceny. Może okazać się, że z tego powodu myślenie maszyn zostanie zupełnie inaczej zdefiniowane niż ludzkie myślenie. Uważam, że aby jednoznacznie stwierdzić, czy maszyna myśli jak człowiek, musiałaby spełnić wszystkie kryteria ludzkiego procesu myślowego, co prowadzi do paradoksu, gdyż sami nie potrafimy jednoznacznie określić wszystkich jego elementów.

  6. Jarosław Zabuski pisze:

    Rozbicie kategorii postrzegania inteligencji na równoważne sobie kategorie jest niezwykle ważne, gdy rozmawiamy o czymś takim jak sztuczna inteligencja i czy stawiana teza, że maszyny „nie mogą myśleć”, ma rację bytu, albowiem tak jak wspomniał w powyższym komentarzu Maciej Dmowski, możemy dojść do zupełnie innych wniosków.

    Podczas rozpatrywania kategorii w jakich może „myśleć” maszyna, najczęściej mimowolnie skupiamy się na najbardziej podstawowej kategorii, jaką jest inteligencja potrzebna do samego wykreowania nowej wartości, wiedzy, informacji, która wynika z wcześniej przyswojonych z środowiska danych. Nie mniej jednak ważnym do zauważenia jest, że przy obecnym rozwoju technologii machine learningu nie ma miejsca na bardziej „życiowe”, mniej związane z samym rozwojem mocy obliczeniowej komputerów, a dotyczące przykładowo samego odczuwania emocji czy własnej egzystencji, typów inteligencji. Jeżeli tezę Turinga dotyczącą tego, że maszyny „nie mogą myśleć” zawęzimy do konkretnego typu inteligencji, jaką jest inteligencja emocjonalna czy intrapersonalna, łatwo zauważyć że na ten moment jego słowa są prawdziwe. Wszystkie największe projekty dotyczące symulacji ludzkiego umysłu, ludzkiej inteligencji skupiają się bowiem na poszerzeniu bazy danych wejściowych w naiwny sposób „na pokazywanie większej ilości obrazków niż dotychczas”. Przykładem takiego działania może być bot Tay prowadzony poprzez platformę społecznościową Twitter przez firmę Microsoft. Podczas interakcji z użytkownikami portalu Tay miała zbierać informacje behawiorystyczne na temat tego jak ludzie prowadzą ze sobą rozmowy „aby naśladować wzorce językowe 19-letniej amerykańskiej dziewczyny i uczyć się od interakcji z ludzkimi użytkownikami Twitter” (źr: https://www.businessinsider.com/microsoft-deletes-racist-genocidal-tweets-from-ai-chatbot-tay-2016-3?IR=T). Nie przewidziano jednak w projekcie możliwości odbywania nieszczerych rozmów przez użytkowników w złej intencji, poprzez celowe kierowanie rozmów na tematy ksenofobiczne lub rasistowskie. Po pierwsze, była to porażka Microsoftu na polu projektowym który musiał zawiesić bota Tay niedługo po uruchomieniu. Po drugie, porażka ta pokazała niemożność ówczesnej (jak również i obecnej) sztucznej inteligencji do odróżnienia faktów prawdziwych, zgodnych z rzeczywistością, jak i faktów nieszczerych, podawanych ze złą intencją. Sztuczna inteligencja bowiem na obecnym poziomie nie jest w stanie samodzielnie segregować danych z których powinna czerpać by uzyskać potrzebną wiedzą, a z których nie. Jest to główny problem spowodowany jednowymiarowością wprowadzania danych do sztucznej inteligencji, która jest karmiona danymi w sposób niepozwalający na zbudowanie szerszego kontekstu niż to absolutnie konieczne, który jest całkowicie niezbędny do osiągnięcia prawdziwej inteligencji, na polu intrapersonalnym czy językowym czy innym, w zależności od tego, do czego chcielibyśmy ją wykorzystać.

  7. Jan Zgorzelski pisze:

    Moja interpretacja słowa myśleć w kwestii maszyn bliższa jest definicji ,,przetwarzania”. W tym przypadku faktycznie można to identyfikować z przetwarzaniem komputerowym, mając do dyspozycji dane wejściowe po przetworzeniu ich otrzymujemy dane wyjściowe – zazwyczaj rozwiązanie problemu. Im większy zbiór danych wejściowych tym wyższe prawdopodobieństwo otrzymania poprawnego rozwiązania, analogiczna do tego może być wiedza, człowiek posiadający dużą wiedzę jest zazwyczaj w stanie ,,stworzyć nową wiedzę” na podstawie ,,przetwarzania” tych informacji, jednak nie zgodzę się, że będzie to ,,stworzenie tam gdzie wcześniej niczego nie było”. Biorąc pod uwagę chociażby sztuczną inteligencję, a konkretniej uczenie maszynowe poprzez technikę sieci neuronowych analogia zasad działania nie jest przypadkowa, nieustannie próby poznawania ludzkiego organizmu umożliwiają wzorowanie się na mechanizmach mózgu i uproszczone implementacje wśród maszyn. Podsumowując, maszyny mogą ,,myśleć”, ale jest ono w porównaniu do ludzkiego myślenia bardzo ograniczone, chociaż stale rozwijane.
    Różnica w funkcjonowaniu ludzkiego mózgu a maszyny z dnia na dzień staje się coraz mniejsza, jednak nie da się jej obliczyć bez dokładnego poznania obu. Zacznijmy od wyjaśnienia, że nie wiemy dokładnie jak działa mózg – według popularnego cytatu „gdyby ludzki mózg był tak prosty, że moglibyśmy go zrozumieć, bylibyśmy wtedy tak głupi, że nie zrozumielibyśmy go i tak”. Na dobrą sprawę różnią się wszystkim. Mózg doskonaliła ewolucja przez miliony lat, pod kątem automatyzacji zachowań, które maksymalizują szanse powielenia genów. Dobrym przykładem różnicy i podobieństwa jest wcześniej wspomniana sztuczna inteligencja wykorzystująca wzorowane na prawdziwych neuronach żywego mózgu sztuczne sieci neuronowe. Ich związek z mózgiem możemy porównać do relacji między samolotem a ptakiem: samolot stworzył człowiek po to, żeby robił mniej więcej to, co robią ptaki, czyli latał. Mówimy więc o naśladowaniu samego rozwiązania konkretnego problemu latania, nauczyliśmy liczyć maszyny, ale ciężko oczekiwać od nich, że zrobią z tą umiejętnością coś dodatkowego.

    Chcąc odpowiedzieć na pytanie czy maszyny myślą tak samo jak człowiek odpowiedź brzmi stanowczo – nie. Możemy projektować maszyny wzorując się na mechanizmach funkcjonowania organizmów żywych, ale jest to tylko i wyłącznie w zakresie poznanych dotychczas funkcjonalności, a jak dobrze wiemy jest to bardzo mały odsetek. Moim zdaniem słowo ,,myślenie” kryje w sobie dużo więcej niż wspomniane wcześniej ,,przetwarzanie”. Jednym z wyraźnych braków w przetwarzaniu maszyn jest brak kreatywności, którą posiadają ludzie. Maszyna posiadając dane wejściowe wymaga sprecyzowanego algorytmu, czyli na przykład wzoru matematycznego. Wśród maszyn wymagany jest sposób oceny realizacji rozwiązania na przykład minimalizacja funkcji błędu. Nie posiadając wspomnianego wcześniej algorytmu dane wejściowe są bezużyteczne i nie jest możliwe osiągnięcie rozwiązania problemu.

  8. Marcin Michalski pisze:

    Obecny proces uczenia maszynowego przebiega dość podobnie do nauki małego dziecka. Komputer nie wie czego się uczy, przetwarza ogromne ilości informacji, które zostaną mu przekazane, na podstawie których wypracowuje schematy „zachowań”. Gdyby wziąć pod uwagę wypowiedź profesora Jeffersona, w której stwierdza, że maszyna nie dorówna mózgowi, to można by orzec, iż pułap ten został już osiągnięty (w 2016 r pojawiają się informacje o sztucznej inteligencji tworzącej przyjemną w odsłuchu muzykę na podstawie analizy tysięcy utworów). Można by podważać ten argument twierdząc, że człowiek wymyśla sztukę na nowo, ale czy nieprawdą jest fakt, że ludzie od zawsze inspirują się czymś, w dużej mierze naturą. Moim zdaniem obecny tempo rozwoju komputerów i oprogramowania pozwala przypuszczać, że w bliższej lub dalszej przyszłości możliwe będzie zasymulowanie ludzkiego mózgu, a w dalszej konsekwencji tworzenie robotów „myślących”, na dodatek „lepszy” od człowieka w znaczeniu, że będzie wolny od wad wrodzonych, jak to zdarza się w przypadku ludzi. Osiągnięcie tego celu pokazałoby, czy rzeczywiście posiadamy w sobie pierwiastek człowieczeństwa, czy jest on czymś niezwykłym, czy tylko elementem ewolucji (a może się okazać, że jest to nasza niezwykła cecha, która wynika z naszej niedoskonałości, działamy impulsywnie, nie zawsze logicznie). Na chwilę obecną uważam, iż jest za wcześnie na wysnuwanie wniosków, że maszyny myślą, jednak pewien zalążek tego powstaje. Już teraz można spotkać się artykułami generowanymi przez sztuczną inteligencję, wspomniana powyżej muzyka tworzona przez algorytm etc. W końcowym rozrachunku możemy dojść do momentu, w którym stworzone przez nas maszyny będą doskonalsze, zawsze logiczne, zwięzłe matematycznie i to my, ludzie zostaniemy uznani za stworzenia prymitywne, niemyślące.

  9. Mateusz Szymański pisze:

    Pytanie „Czy maszyny mogą myśleć?” jest pytaniem na które nie da się jednoznacznie odpowiedzieć ze względu na brak jednoznacznej definicji myślenia. Główną domeną maszyn jest myślenie jako przetwarzanie danych, co jest poprawną definicją gdyż ludzki mózg de facto ciągle przetwarza dane pochodzące z otoczenia i na tej podstawie kreuje ludzką świadomość. Zarówno człowiek, jak i obecne maszyny myślące potrafią nie tylko przetworzyć dane, ale również i na ich podstawie dokonywać wyborów i wykonywać odpowiednie akcje. Argument mówiący o tym, że maszyny nie potrafiłyby wytłumaczyć dlaczego podjęły decyzje taką a nie inną nie jest do końca trafny, gdyż stworzenie algorytmów będących w stanie uzasadnić swoje decyzje na podstawie uzyskanych danych jest jak najbardziej możliwe, aczkolwiek duża część z nich nie posiada takiej możliwości. Jednakże w wielu przypadkach ludzie także nie są do końca pewni swoich wyborów – w wielu przypadkach ludzie robią coś wbrew własnej woli, lub też kierują się „intuicją” która nie ma żadnego oparcia w otrzymanej otaczającym nas świecie, co wskazuje na kolejny problem, a mianowicie ograniczoną wiedzę ludzkości na temat ludzkiego mózgu. Gdyby umieć dokładnie opisać ludzki mózg w stylu przypominającym algorytm programu, to porównanie maszyny było by znacznie ułatwione, gdyż możliwe, że dało by się wtedy wydzielić część odpowiedzialną za świadomość. Jako iż nie jest to obecnie możliwe można zastanowić się nad bardzo często poruszaną kwestią a mianowicie „myśleniem kreatywnym”. Człowiek jest istotą, która potrafi bez danych na temat funkcjonowania danego zjawiska lub też wiedzy na temat działania urządzenia samemu je zaprojektować, stworzyć, zbadać, wymyślić coś nowego. Potrafimy także stwierdzić, że coś nam się po prostu podoba i na tej podstawie uznajemy to np. za dzieło sztuki lub wspaniałą kompozycję. W przypadku maszyn, na chwilę obecną takie przypadki nie miały miejsca. Jednak skąd możemy mieć pewność że nie wynika to z naszej ograniczonej do tej pory wiedzy na temat myślenia maszynowego? Z reguły maszyny tworzy się w konkretnych celach, ograniczając ich wykorzystanie jedynie do pewnej dziedziny, a czasem nawet do pojedynczej funkcji. Być może gdyby rozszerzyć tą funkcjonalność, lub też jako funkcję takiej maszyny przyjąć tworzenie czegoś nowego – czy to na podstawie danych z otoczenia, tak jak niegdyś artyści czerpali inspirację z otaczającego ich świata, lub też wzorując się na dotychczasowych dziełach – tak jak i wielcy artyści mieli swoich naśladowców możliwe było by stworzenie maszyn kreatywnych. Może wydawać się, że mogłby to przypominać kreatywność metodą prób i błędów – jest to jednak cecha charakterystyczna także u ludzi. Wielu wynalazców, artystów, zanim wykonało swój ostateczny twór często spędziła bardzo dużo czasu ucząc się, a także wykonując wersje próbne. Jeśli wziąć pod uwagę początki ludzkości, to przez kilka milionów lat ludzkość nie była w stanie wymyślić nic nowego poza najbardziej prymitywnymi narzędziami i w swoich poczynaniach głównie kierowała się potrzebami biologicznymi i instynktami, które w zasadzie można by porównać do podstawowych funkcji maszyny i dało by się je w pewien sposób zalgorytmizować. Przykładowo dało by się stworzyć algorytm typu: widzisz duże zwierzę → boisz się → uciekaj. Tu od razu rodzi się kolejne pytanie – czy maszyna wie tak naprawdę czym jest strach? Odpowiem na nie innym pytaniem: A czy my, ludzie wiemy? Po prostu boimy się czegoś i od razu reagujemy my, oraz nasz organizm. To co czujemy jest w zasadzie wynikiem reakcji naszego organizmu na dany bodziec. Podsumowując, uważam iż obecnie stopień zaawansowania sztucznej inteligencji jest zbyt niski aby mieć pewność co do jakichkolwiek wniosków, a ponadto bez dokładnej wiedzy o działaniu ludzkiego mózgu nie jesteśmy w stanie do końca porównać człowieka z maszyną. Być może maszyny w chwili obecnej działają „instynktownie” korzystając z dostarczonych im najprotszych algorytmów niczym ludzkość u zarania dziejów? A może „myślenie” maszyny jest czymś zupełnie innym niż myślenie u człowieka, jednak one także mają jakiś swój stan świadomości? Prawdpodobnie wraz z rozwojem sztucznej inteligencji oraz wiedzy o ludzkim mózgu odpowiedzi na te pytania zostaną podane.

    • km pisze:

      Zasadniczo zgadzam się, ale w paru punktach mam uwagi :

      “w wielu przypadkach ludzie robią coś wbrew własnej woli “
      -To prawda, że często wydaje nam się, że chcemy czegoś a jednak czynimy wbrew naszym świadomym dążeniom. Jednak patrząc na to z perspektywy, dostrzec można w tych „niechcianych” działaniach wyraźne „trendy”. Nasi znajomi rozpoznają w tym stałe cechy naszego charakteru („Kondzio zarzekał się, że musi w końcu wziąć się za naukę, że rozumie, iż od tego zależy jego przyszłość… ale jak zwykle poszedł z kolegami na miasto”). „Po prostu” nie całość aktywności procesów „w tle” jest dostępna świadomemu wglądowi (Choć zjawiska te „kreują świadomość” to jest ona tylko „wierzchołkiem góry lodowej”). Czasem „logiczna” analiza informacji przedstawiających się Świadomości owocuje rezultatem, który odbiega od wyników działania procesów odpowiedzialnych za instynkty, emocje, odczucia, intuicje – które mają pierwszeństwo w wydawaniu dyspozycji do działania. Systemy mózgowe odpowiedzialne za nie powstały wcześniej i są o wiele lepiej ewolucyjnie przetestowane niż „racjonalny” umysł, do ich obliczeń podstawianych jest jednocześnie o wiele więcej danych o otaczającym świecie i stanie ciała niż kognitywne ‚ja’ jest w stanie jednocześnie „wziąć pod uwagę”. Nic więc dziwnego, że w wypadku „konfliktu interesów” często nie działamy zgodnie z zapatrywaniami logicznego rozumu. (w/w Kondzio może i zawali kolejny egzamin, ale podtrzyma znajomości i przyjaźnie, które dla jego praprzodków były decydujące w walce o byt.)

      „ludzie (…) kierują się „intuicją” która nie ma żadnego oparcia w otrzymanej otaczającym nas świecie, co wskazuje na kolejny problem, a mianowicie ograniczoną wiedzę ludzkości na temat ludzkiego mózgu.”
      Jeśli mamy ograniczoną wiedzę na temat ludzkiego mózgu, to jak stawiać tezę, że nasze intuicje, odczucia, instynktowne zachowania – nie mają oparcia w danych płynących z otaczającego nas świata? Na pewno świadomemu ‘ja’ czasem się tak wydaje – jednak biorąc pod uwagę, że w/w regulacje homeostatyczne (systemy regulacji zachowania, które dają nam o sobie znać poprzez odruchy, emocje itd.) wyewoluowały skutecznie zapewniając ustrojom przetrwanie w środowisku – właśnie poprzez reagowanie na zbierane z otoczenia dane. Wypada zatem założyć (jeśli nie przyjmujemy, że za „intuicją” stoi Boska opatrzność), że z chwilą zaistnienia „rozumnego ja” nie zaprzestały swej działalności i dalej modelują w swych systemach otaczające nas środowisko. Dlaczego? – Bo nadal „pozaświadome” mechanizmy w nas skutecznie działają (gdy ktoś np. rzuci piłkę to złapiemy ją „odruchowo”, nim uświadomimy sobie, że leci) nie tylko w prostych przypadkach. W miarę rozwiązywania bardzo złożonych problemów – wymagające uwzględnienia ogromu danych i doświadczenia, trudnych do ogarnięcia dla świadomego rozumu – pojawia się i rośnie w nas odczucie zrozumienia i intuicje co do tego jak należy je rozwiązać (przywoływany wielokrotnie przeze mnie eksperyment, w którym badani podejmowali lepsze decyzje inwestycyjne, w sytuacji ogromu danych, gdy stawiali na intuicję niż gdy próbowali świadomie/ logicznie rozstrzygnąć co należy zrobić.)

      „Człowiek jest istotą, która potrafi bez danych na temat funkcjonowania danego zjawiska lub też wiedzy na temat działania urządzenia samemu je zaprojektować, stworzyć, zbadać, wymyślić coś nowego.”
      Jak wyżej napisałem – czasem tylko „wydaje nam się” że brak nam danych. Co więcej systemy regulacji zachowania wyewoluowały nieustannie działając „w sytuacji niepełnej wiedzy o rozstrzyganym”. – Stąd nasze odważne stawianie hipotez, parcie do przodu w beznadziejnych sytuacjach (Ci co nie parli… nie przekazywali genów i swych skłonności potomnym). Często zakładamy także istnienie analogi/podobieństw w różnych zjawiskach z różnych poziomów złożoności i porządków – i próbujemy podobnych rozwiązań, do tych które kiedyś zadziałały nawet jeśli okoliczności (dziedzina) problemu była inna. Spójny „logos” rzeczywistości (zjawis z różnych dziedzin) sprawia, że taka taktyka popłaca. W końcu z ewolucyjnego sukcesu podobnych praktyk wynikają nasze intuicje i dyspozycje do działania poprzez „kreatywność metodą prób i błędów”.

  10. Łukasz Pokorzyński pisze:

    Pytanie, „Czy maszyny potrafią/mogą myśleć?” to pytanie już krążące w obiegu i naszej społeczności od już stosunkowo dawna. Jest to temat bardzo często poruszany w naszej pop kulturze, m. in. w filmach „Ja, Robot”, „Bladerunner”, „Ex Machina” żeby podać kilka z wielu, jest to temat chwytliwy w książkach, a także coraz częściej poruszany w grach komputerowych (np. Detroit: Become Human, które na swój sposób jest filmem interaktywnym). Wśród ludzi coraz częściej pojawia sie ogromna obawa względem maszyn oraz ich możliwością „myślenia” – czy wraz z rozwojem technologii dojdziemy do takiego momentu, że wyprą one ludzkość? Czy będą na tyle zaawansowane, że zastąpią nas przy pracy? Wszystko to sprowadza sie jednak do pytania postawionego na początku – czy jednak maszyny MOGĄ myśleć? Na swój maszynowy sposób z pewnością tak – jednakże będzie to w niewielkim stopniu myślenie, jakie jest znane nam ludziom.

    Postawmy sprawę jasno – możliwość „myślenia” przez maszyny to nic innego jak pewien skomplikowany algorytm, który przetwarzany przez maszynę, pozwala jej zbierać informacje, przetwarzać je i „wypluwać” wyniki takie, jakie zostały przewidziane w wyniku działania algorytmu. Cały ten proces „myślenia” jest próbą odtworzenia takiego samego procesu znanego człowiekowi, ale w pewnym języku mozliwym do odczytania przez hardware. Samych w sobie maszyn nie można nazwać inteligentnymi i kreatywnymi (co, jak wcześniej zostało zauważone, łączy się z procesem myślenia), ponieważ odtwarzają pewną wizję człowieka odpowiedzialnego za zaprojektowanie sprzętu. Oczywiście zaraz pojawią się głosy, że istnieją pewne „inteligentne” algorytmy tworzące i kreujace właśnie muzykę (przykłąd został juz podany przez jednego przedmówców), obrazy (chociażby stworzenie nowego obrazu Rembrandta https://www.nextrembrandt.com/ czy też tworzenie obrazków słodkich kotków i innych https://affinelayer.com/pixsrv/ ). Oczywiście, są to bardzo inteligentne algorytmy, systemy itp., lecz nie nazwałbym ich dowodem na myślenie, kreowanie i inteligencje maszyn. Są to wyniki zapewne wieloletniego zbierania danych i badań nad sieciami neuronowymi, algorytmami naukowców, którzy zdołali przenieść to na język maszynowy. Maszyny wykorzystują te algorytmy i schematy im przekazane do wykonania pewnego zadania. To, że w jednej próbie otrzymamy na obrazie kobietę, w drugiej mężczyznę jest jedynie wynikiem dobrania odpowiednich danych, zmiennych oraz schematów przez maszynę, by możliwie najbliżej oddać wizję twórców. Być może jest to jakieś maszynowe myślenie – ale bardzo ograniczone i z pewnością nie możemy go przyrównać do ludzkiego myślenia, które nie jest ustanowione przez linijki kodu w liczbie X i osobiście nie nazwałbym tego „myśleniem” w takim sensie, jak jest to stosowane względem rasy ludzkiej.

    Wyżej został podany również inny przykład, bota Tay stworzonego przez Microsoft, który w założeniu miał zbierać dane z wypowiedzi użytkowników prowadzących z „nią” rozmowy. Jak zostało to trafnie zauważone przez Jarosława, problemem tego bota był brak możliwości „przefiltrowania” odpowiednich i moralnych (w naszej wizji) treści. Aczkolwiek nie można za to winić bota – został on zaprojektowany w taki, a nie inny sposób. Jego sposób „myślenia” był zamknięty, on nie przetwarzał informacji w wystarczajacy sposób, by zamemu wysnuc wnioski i wyrobić sobie opinię, co jest niezwykle integralną częścia procesu myślowego. Po prostu jeżeli jakaś informacja trafiałą do tego bota w wystarczajacej ilości, to on uznawał go za pewnik, akceptujac go i nie zastanawiajac się, czy może to być w jakiś sposób krzywdzące. A spowodowane to było wadliwym, niewystarczajaco zabezpieczonym algorytmem. Nie uważam jednak, że była to wina inżynierów Microsoftu – wręcz przeciwnie, z pewnością wykorzystali swoją całą wiedzę i umiejętności, by stworzyc bota działajacego jak najlepiej. Lecz jest to dowód na to, jak bardzo dużo brakuje nam, by zrobić w 100% myślącego, w sensie ludzkim, robota, który będzie do złudzenia przypominał człowieka.

    Podsumowujac myślę, że określenie „myślenia” do robotów nie jest i na pewno przez dłuższy czas nie będzie się kwalifikowało. Z powodu naszych ograniczeń w możliwości tworzenia inteligentnych algorytmów, sieci neuronowych jeszcze dużo czasu minie, zanim będziemy mogli doswiadczyć prawdziwego twórczego, ale też ogólnie, myślenia wśród robotów i maszyn. Na te chwilę uważam, że najtrafniejszym słowem byłoby w kontekście maszyn „przetwarzanie”, aniżeli myślenie.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *