Turingowskie inspiracje… czyli o myśleniu ludzi i maszyn raz jeszcze

Szanowni Państwo!

Proponuję podjąć raz jeszcze dyskusję na temat omawiany w blogu co najmniej dwukrotnie…
Polecam, na przykład, dyskusję z roku 2012, a także nieco nowszą, z roku 2019.

W obydwu rozmowach inspirowaliśmy się niezwykle ważnym dla filozofii umysłu tekstem Alana Turinga pt. „Maszyny liczące a inteligencja”. W tekście tym znajdujemy, po pierwsze, oryginalne sformułowanie testu na inteligencję maszyn, nazywanego dziś testem Turinga, po drugie jednak, szereg polemicznych uwag Turinga do wysuwanych w jego czasach argumentów na rzecz niemożności skonstruowania maszyn myślących. Są one zawarte w rozdziale 7 wzmiankowanego tekstu.

Proponuję wziąć te uwagi za punkt wyjścia blogowej dyskusji.

Czy argumenty przytaczane przez Turinga zachowały swoją aktualność? Które z nich są najsilniejsze? Które z nich Turing odpiera w sposób przekonywujący, a które opierają się jego krytyce? Czy możemy dzisiaj, z perspektywy współczesnych dokonań informatyki, wysunąć argumenty inne lub rozbudować jakoś polemikę Turinga?

Wszelkie wypowiedzi mile widziane. Również takie, które wychodzą poza dość wąską definicję myślenia jako czynności możliwej do stwierdzenia za pomocą (werbalnego i behawioralnego zarazem) testu Turinga.

Na rozgrzewkę proponuję  fragment mojego dawnego komentarza z dyskusji prowadzonej w roku 2012.

<<
Interesujący nas temat, czyli [samo myślenie] oraz [hipotetyczne myślenie maszyn], jest niezwykle trudny, ponieważ nie za bardzo potrafimy wyjaśnić jednoznacznie, a także zgodzić się co do tego, cóż to znaczy „myśleć”.
Oczywiście nie tylko my. Nad problemem tym łamią sobie głowy (i pióra) wybitni specjaliści: psychologowie, neurobiologowie, filozofowie itd…
Sam Turing, podobnie jak będący dla niego pewnego rodzaju inspiracją psychologowie-behawioryści (nie badajmy myślenia jako takiego, badajmy korelacje między bodźcami i reakcjami organizmu), próbował ten temat ominąć – próbował bowiem utożsamić myślenie z jego zewnętrznymi przejawami (taka jest w istocie intencja testu Turinga).
Dla Turinga zatem i godzących się z nim dyskutantów “myśleć” to chyba tyle co „skutecznie rozwiązywać problemy (którą to skuteczność daje się jakoś mierzyć)” .
Dla anty-turingowców z kolei „myśleć” to coś więcej, a mianowicie „przeżywać (świadomie) pewne wewnętrzne stany, jak poczucie zrozumienia czy satysfakcji z uzyskanego rozwiązania, które to stany niezwykle trudno opisać obiektywnie”.
Ci pierwsi łatwiej zapewne zgodzą się na możliwość skonstruowania myślących maszyn, ci drudzy trudniej.
Do tego wszystkiego dochodzi jeszcze jedna sprawa. Otóż za odpowiedzią pozytywną na interesujące nas pytanie („Tak. Maszyna może myśleć.”) kryje się dość często czyjeś przekonanie (i podejrzenie zarazem), że umysł ludzki jest w istocie skomplikowaną maszyną, a pozornie tylko wydaje się, że nią nie jest.
Czy nie tak właśnie – mniej lub bardziej świadomie – mniemał Alan Turing (zauważmy, że pada w tekście kilkukrotnie dziwne określenie „ludzka maszyna cyfrowa”)?
Dla osób o takim nastawieniu zupełnie naturalne wydaje się, że maszyny będą mogły kiedyś dorównać mechanicznemu (z założenia) umysłowi. A zatem będą mogły myśleć.
Osoby odpowiadające przeciwnie zakładają z kolei, że „umysł nie jest mechaniczny”, a przyczyną jego nie-mechaniczności może być np. specyficzne fizyczne tworzywo umysłu-mózgu (umysł zatem to nie tylko program, ale nadto substancja ów program implementująca) albo nie-materialna dusza jakoś sprzężona z mózgiem.
Ja proponuję, choćby na chwilę, przyjąć jeszcze inny punkt widzenia.
Otóż, być może, bardziej istotne od pytania o to “czy maszyny mogą myśleć?”, jest pytanie o to “czy maszyny pozwolą nam zrozumieć lepiej, na czym polega ludzkie myślenie?”. Być może taki właśnie najgłębszy sens – tj. chęć lepszego zrozumienia fenomenu ludzkiej myśli – ma konstruowanie i analizowanie maszyn (informatycznych) do sztucznej realizacji czynności poznawczych.
>>

Serdecznie zapraszam do swobodnej rozmowy!

Paweł Stacewicz

Ten wpis został opublikowany w kategorii Bez kategorii, Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny. Dodaj zakładkę do bezpośredniego odnośnika.

Komentarze do Turingowskie inspiracje… czyli o myśleniu ludzi i maszyn raz jeszcze

  1. Andrzej Borkowski pisze:

    Dzień dobry,

    Na początek chciałbym zgodzić się ze stwierdzeniem, które, wynika z Pana wypowiedzi; że to, czy maszyny mogą kiedyś być zdolne do myślenia, zależy od przyjętych przez nas założeń na temat samego myślenia. Chciałbym tutaj postawić nieco tendencyjne pytanie: czy sposób myślenia występujący wśród ludzi i zwierząt jest jedynym słusznym i jedynym godnym nazwania myśleniem właśnie? Moim zdaniem nie.

    Jest to oczywiście tylko przekonanie, jednak chciałbym podzielić się uzasadnieniem, jakie dla niego znalazłem. Otóż nasz obecny poziom wiedzy o ludzkim umyśle nie pozwala nam na jednoznaczne stwierdzenie, czy dysponujemy ściśle mechanicznymi umysłami. W związku z tym każde przyrównanie innego bytu do ludzkiego umysłu rozbija się o barierę, jaką jest nasze zrozumienie swoich umysłów. W takich porównaniach możemy posługiwać się między innymi dwoma kryteriami: a) czy obiekt zachowuje się podobnie do ludzkiego umysłu (kryterium behawiorystyczne) oraz b) czy jesteśmy w stanie opisać zasadę działania danego obiektu (kryterium niezrozumienia, moja propozycja).

    Kryterium behawiorystyczne, czyli test Turinga, zostaje czasem spełnione dla sztucznej inteligencji. Ostatnimi czasy pojawiają się też przypadki obiektów, których zachowania, mimo że zostały stworzone przez człowieka, wymyka się zrozumieniu twórców (proponuję tutaj przykład interakcji pomiędzy dwiema sztucznymi inteligencjami). Jest to zgodne z wyobrażeniem Turinga na temat uczących się maszyn: nauczyciel nie musi znać wszystkich procesów zachodzących w „umyśle” ucznia. Czy zatem możemy powiedzieć, że wspominane obiekty myślą?

    Według wymienionych kryteriów – tak. Wykazują działanie, które możemy przy pewnych założeniach nazwać myśleniem. Ich myślenie ograniczone jest zasobami, którymi dysponują (zmysłami, zasobami danych i pamięci). Jest już jednak pewną protezą procesów myślowych. To, czy takie kryteria zostaną uznane za wystarczające, zależy zarówno od określającego je człowieka, jak i od przeznaczenia danej sztucznej inteligencji.

    To, jak bardzo sztuczna inteligencja musi zbliżyć się do ludzkiego zachowania, aby zostać uznana za myślącą, jest moim zdaniem kwestią umowną. Podobnie jak liczba funkcjonalności programu, który ma zostać uznany za działający, zależy od jego zastosowania. Ze swojej strony mógłbym zaproponować tu kolejne kryteria: świadomości siebie (według mojej wiedzy spełniane dla współczesnych sztucznych inteligencji) oraz znajomości dobra i zła (mogą one być sprowadzone do korzyści i krzywdy – tutaj tylko przypuszczam, że takie cechy są już implementowane).

    To, czy kolejnym krokiem będzie zdolność dopasowania dobra i zła do doświadczanych korzyści i krzywd, może być dylematem moralnym dla osób rozwijających sztuczne inteligencje, a także potencjalnym zagrożeniem płynącym z ich rozwoju. Trudno byłoby uniknąć złej oceny ludzkości w tym świetle – chociażby ze względu na strach przed byciem wyłączonym. Ale przecież zdolność taka jest charakterystyczna dla ludzi – można by więc spekulować, że obiekty jej nie posiadające nie myślą wystarczająco dobrze.

    Wracając jednak do pytania, które postawił Pan pod koniec wypowiedzi – moim zdaniem maszyny, które będziemy mogli z czystym sumieniem nazwać myślącymi, będą na razie wymykać się naszemu pełnemu zrozumieniu, tak jak robi to ludzki umysł. Zrozumienie ich i przełożenie zdobytej wiedzy na wiedzę o ludziach wymagałoby przełomu, który pozwoliłby na rozumienie jednych i drugich. Maszyny myślące mogą być jedynie królikami doświadczalnymi, o których dane mogą być pozyskane łatwiej i być może moralniej, niż w przypadku przeprowadzania badań na ludziach. Jednak trudno mi opisać metody, jakimi należałoby się posłużyć, aby dany przełom nastąpił. Nie wiem też, czy dostarczenie takich królików doświadczalnych przybliży nas do niego, choć jest to oczywiście możliwe.

    • Paweł Stacewicz pisze:

      Bardzo dziękuję za komentarz. Nie rozumiem do końca, na czym miałoby polegać wskazane przez Pana (nie behawiorystyczne) kryterium b: „czy jesteśmy w stanie opisać zasadę działania danego obiektu (kryterium niezrozumienia, moja propozycja)”

      Czy chodzi to, że w ramach tego kryterium musimy określić pewne ogólne cechy myślenia (lub bycia istotą myślącą), a następnie sprawdzać, czy z zasad działania danego obiektu (np. z zasad działania maszyny cyfrowej) wynika, że cechy te mogą lub muszą (względnie: nie mogą) pojawić się (np. mogą pojawić się wówczas, gdy obiekt jest wystarczająco złożony)? Czy jednak chodzi o coś innego?

      Jeśli chodzi o to pierwsze, to nasuwa mi się wątpliwość, czy jako ludzie jesteśmy w stanie podać takie ogólne cechy myślenia, abstrahując od sposobu myślenia ludzi? Czy jesteśmy w stanie wyjść poza odniesienia do „wzorca myślenia” jakim jest homo sapiens?

      Interesują mnie także przykłady sztucznych inteligencji, które wykazują samoświadomość… Napisał Pan, że współcześnie kryterium samoświadomości jest spełnione.

      • Andrzej Borkowski pisze:

        Rzeczywiście, nie opisałem dobrze wspomnianego przeze mnie kryterium niezrozumienia. Mój pomysł na nie jest trochę inny, niż Pana interpretacja; chodzi o to, że aby sztuczna inteligencja była podobna do ludzkiego umysłu, powinna wymykać się pełnemu zrozumieniu, tak jak robi to właśnie ludzki umysł.

        Nie jest to oczywiście kryterium wystarczające, żeby nazwać coś myśleniem, może też być słuszne tylko tak długo, jak długo nie będziemy w pełni rozumieć ludzkiego umysłu. Nie jestem przekonany, czy to kryterium jest racjonalne, ale zwróciłem na nie uwagę, ponieważ mam wrażenie że ludzie mogą być bardziej skłonni do uznania skomplikowanych, niezrozumiałych dla nich bytów za myślące, niż takich, których procesy działania mogą bez wysiłku wytłumaczyć. To, czy ludzie są skłonni nazwać coś myśleniem uważam istotne, ponieważ zawiera to w sobie przynajmniej pozorne spełnienie myślenia używanych przez wspomnianych ludzi.

        Jeśli chodzi o szukanie wzorców myślenia poza ludzkim umysłem, to uważam że owszem, warto szukać wzorców bardziej uniwersalnych, niż tylko ludzkie, chociażby wśród zwierząt. Umysły mniej skomplikowanych organizmów mogą być łatwiejsze do opisania. Jeśli udałoby się tworzyć takie opisy dla coraz bardziej rozwiniętych gatunków, to faktycznie zbliżalibyśmy się wielkimi krokami do zrozumienia własnych umysłów. Obawiam się jednak, że nie byłaby to łatwa i szybka praca – najpierw musielibyśmy zrozumieć umysły zwierząt. Tworzenie sztucznej inteligencji działoby się więc przy okazji badań nad umysłem.

        Co do przykładów samoświadomych inteligencji, to poniżej wklejam link do filmu na YouTube, przedstawiającego rozmowę dwóch SI. Sprawiają wrażenie samoświadomych, ale nie ręczę, czy tak jest naprawdę.

        https://www.youtube.com/watch?v=jz78fSnBG0s

  2. janusz.p pisze:

    Uważam, że człowiek nadal nie wie do końca co to znaczy „myśleć”. Dlatego też przy takim rozważaniu, jak w temacie, często trzeba się posiłkować takimi porównaniami jak gra wymyślona przez Turinga. Nie wiadomo też (w sposób ściśle udowodniony) czym jest świadomość oraz czy człowiek ma wolną wolę. Dlatego też w moich poniższych rozważaniach będę odnosił się do takiego “myślenia”, jakie potrafi wykonywać człowiek.

    Rozpatrzmy przypadek, w którym uznajemy, że człowiek nie ma wolnej woli, a wszystkie do tej pory wyprodukowane maszyny wykonują tylko polecenia ludzi. Wtedy wydaje mi się, że decyzje człowieka są zależne wyłącznie od czynników „wewnętrznych” (kod genetyczny) oraz „zewnętrznych” (zdarzenia losowe, środowisko). Jeśli w takich warunkach założymy, że “człowiek myśli”, to wydaje mi się, że maszyny są również zależne wyłącznie od czynników: wewnętrznych (od ich mechanizmu działania, który stworzył człowiek) oraz zewnętrznych (od warunków w jakich się znajdą, zależnych od człowieka lub nie). Wydaje mi się, że jeśli te rozumowanie jest prawidłowe, to można uznać, że maszyny myślą w podobny sposób do ludzi.

    Zostawiając ten przykład, można wspomnieć o braku wolnej woli z nieco innej perspektywy. Mianowicie jeśli założymy, że mózg to twór działający tylko i wyłącznie na zasadzie reakcji chemicznych i zjawisk fizycznych oraz jeśli determiniści mają rację, to wtedy „myślenie” człowieka można przewidzieć, zgodnie ze wspomnianym w pracy Turinga poglądem Laplace’a, który twierdził, że na podstawie znajomości kompletnego stanu wszechświata w jednej chwili, opisanego położeniami i szybkościami wszystkich jego cząstek powinno być możliwe przewidzenie wszystkich przyszłych stanów. W takim razie w pewnym sensie człowiek jest maszyną (choć nie opartą na metalach lub silikonie, lecz na tkankach i połączeniach nerwowych), bo stan mózgu w danym momencie da się przewidzieć, tak jak stan maszyny Turinga. A więc ponownie, jeśli powyższe stwierdzenia są prawdziwe, to maszyny (a przynajmniej maszyny Turinga) myślą w podobny sposób do ludzi.

    Z drugiej strony można zastanowić się nad sytuacją, gdy człowiek jednak posiada wolną wolę. Warto zauważyć jednak, że wybór człowieka jest ograniczony jego wiedzą, która to jest ograniczona metodami poznawczymi zewnętrznego świata, jakie posiada człowiek (prawdopodobnie są to wyłącznie zmysły). Nie jest to więc metoda podejmowania wyborów, która z punktu widzenia człowieka jest bezbłędna. Warto też wspomnieć, że odbywa się ona na podstawie skończonej liczby czynników, ponieważ pamięć ludzka jest ograniczona, tak jak pamięć maszyny. Wydaje mi się, że jeśli przyjmiemy następujące założenia: “wolna wola człowieka jest ograniczona przez jego kreatywność” oraz “człowiek nie może mieć nieskończonej kreatywności”, to można dojść do wniosku, że wolna wola sprowadza się do wybrania ze skończonej liczby wyborów. Przyjmując kolejne założenie, że wszelkie działania człowieka polegają na wywoływaniu odpowiednich reakcji chemicznych i zjawisk fizycznych w swoim ciele, to możnaby przypuścić, że proces wyboru u człowieka można sformułować następującym algorytmem: (wygenerowanie wszystkich możliwych działań w danej sytuacji) -> (subiektywna ocena każdego z tych działań na podstawie ograniczonej wiedzy) -> (kalkulacja decyzji i wyegzekwowanie jej poprzez odpowiednie sterowanie swoim ciałem). Na podstawie powyższych informacji można podjąć próbę zakwestionowania poglądu mówiącego, że maszyny nie posiadają wolnej woli. Maszyna mogłaby znać wszystkie “ruchy” jakie może zrobić w danym momencie, co odpowiada pierwszemu krokowi wspomnianego wyżej algorytmu. Dodatkowo, jeżeli w maszynach zaimplementowanoby coś na wzór zmysłów ludzkich (na przykład czujniki), wtedy maszyna miałaby pewien ograniczony pogląd (tak jak człowiek) sytuacji przed podjęciem wyboru. Wobec tego, można argumentować, że maszyna mogłaby w identyczny do wspomnianego wyżej algorytmu sposób wybierać którąś ze znanych jej możliwości, co odpowiada procesowi wyboru człowieka, nazywanego wolną wolą. Oczywiście nie jest to idealny proces, ale tak jak wspomniałem ludzie również popełniają błędy przy swoich wyborach.

    Zostawiając zupełnie zagadnienie wolnej woli, można się zastanowić czym jest ludzka inteligencja. Obserwując różne gatunki żywych stworzeń, najbardziej prawdopodobne wydaje mi się, że ludzkie „myślenie” człowiek zawdzięcza takim mechanizmom jak: ewolucja, mutacje genetyczne i przekazywanie genów potomstwu. W przyrodzie można zaobserwować, nawet u bardzo prymitywnych istot żywych, umiejętności podejmowania decyzji w celu przetrwania (na ogół sprowadza się to do zdobycia pokarmu i unikania drapieżników), a następnie rozmnożenia się używając zdobytych zasobów. Moim zdaniem to dzięki tym mechanizmom, przez wiele lat ewolucji ludzki mózg zdobywał coraz to nowe, bardzo zróżnicowane umiejętności (np. kreatywność albo świadomość innych stworzeń tego samego gatunku). Prawdopodobnie większość wyrafinowanych umiejętności człowieka, których nie da się odnaleźć u innych zwierząt, powstała w momencie, w którym głównym zagrożeniem dla człowieka stał się inny człowiek, poprzez rywalizację o partnera do rozmnożenia się. Na podstawie wyżej wymienionych argumentów uważam, że stwierdzenie typu “maszyny nie potrafią X, a człowiek tak, dlatego tylko o nim można powiedzieć, że myśli” jest nieodpowiednie, ponieważ maszyny nie zostały poddane wyżej wspomnianym mechanizmom przez wiele milionów lat.

    Podsumowując moje rozważania, chciałbym zauważyć, że do momentu ścisłego określenia przez człowieka takich pojęć jak “świadomość” i “wolna wola”, problem postawiony w temacie pozostanie nierozwiązany, tak samo jak punkt widzenia solipsysty, o którym wspomina Turing. Póki co, do rozwiązania tego problemu można jedynie używać metafor, tak jak to zrobił wspomniany autor, gdy przedstawił swoją grę. W powyższych rozważaniach przedstawiłem jedynie argumenty potwierdzające tezę, ponieważ zgadzam się z argumentami A. Turinga i nie mam nic do dodania na ich temat, dlatego zdecydowałem się przytoczyć własne. Jednak jestem otwarty na dyskusję, ponieważ tak jak wspomniałem, nie uważam tego problemu za rozwiązany pomimo przytoczonych argumentów.

    • WS pisze:

      Chciałbym odnieść się do Pana wypowiedzi, a w szczególności do fragmentu, w którym rozważa Pan sytuację posiadania wolnej woli przez człowieka. Nie mogę się zgodzić z opisanym przez Pana algorytmem procesu wyboru. Pierwszy jego krok zakłada wygenerowanie wszystkich możliwych działań natomiast dopiero w kolejnym czyli subiektywnej ocenie każdego z tych działań sugeruje Pan pojawienie się elementu wolnej woli. Zakładam, że generowanie możliwości rozwiązania problemu ograniczone są wiedzą człowieka jako jednostki jak również w szerszym spojrzeniu człowieka jako gatunku. Uważam, że wolna wola nie jest jedynie narzędziem pozwalającym podjąć decyzję o wybraniu określonej drogi do osiągnięcia celu na podstawie wcześniejszej oceny każdej z nich, a czymś co istnieje niezależnie od powyższego algorytmu. Oprócz wybrania znanej ścieżki pozwala na wyznaczenie zupełnie nowej, być może lepszej drogi rozwiązania danego zagadnienia.

      Myślę, że to właśnie wolna wola pozwala zdecydować na podjęcie działania, które mogło zupełnie nie znajdować się na „wygenerowanej liście działań”. Jest w pewnym sensie elementem pozwalającym na pośrednie rozwijanie wiedzy oraz optymalizację działania człowieka w określonych warunkach.

      Ze względu na to nie mogę zgodzić się z Pańskim wnioskiem nadającym wolną wolę maszynie jedynie na podstawie jej umiejętności wybrania jednej z wielu określonych ścieżek w procesie rozwiązania problemu.

    • WZ pisze:

      Odnosząc się do wypowiedzi użytkownika @janusz.p, a konkretniej zdefiniowania procesu podejmowania decyzji jako kilkuetapowego algorytmu złożonego z generowania możliwych wyborów, “kalkulacji” każdej z możliwości i podjęcia decyzji w oparciu o ograniczoną wiedzę. Próba porównania wolnej woli do określonego, dokładnie zdefiniowanego, pomimo, że jest to definicja uproszczona, algorytmu jawi się w moim odczuciu jako bezpodstawna. Przy założeniu, że jest to deterministyczny algorytm proces decyzyjny można wtedy przedstawić jako czarną skrzynkę, która dla danego wejścia daje zawsze to samo wyjście w postaci konkretnej decyzji. Jeśli jednak założymy, że opisany algorytm jest niedeterministyczny, jego niedeterminizm wynika ze wspomnianego braku wiedzy decydenta w chwili bieżącej na temat przedmiotu podejmowanej decyzji.

      Przy określeniu wolnej woli jako zdolności podmiotów do podejmowania wyborów bez ograniczenia przez czynniki zewnętrzne, nawet jeśli są one nieznane w chwili podejmowania decyzji, próbę utożsamienia wolnej woli z algorytmem uważam za błędną. Użytkownik @WS również staje w opozycji do tezy postawionej przez @janusz.p, jednakże określa wolną wolę jako składnik pozwalający rozszerzyć “wygenerowaną listę zadań” w pierwszym kroku algorytmu. Warto zaznaczyć, że mowa tu o sytuacjach niewpisujących się w rutynę i preferencje jednostki, jak codzienny wybór rodzaju kawy lub zestawu obiadowego. Moim zdaniem charakterystyką wolnej woli jest pełne oderwanie się od algorytmów i innych wzorców, a tym samym trudność w analizie powtarzalności kluczowych życiowych decyzji.

      • Paweł Stacewicz pisze:

        Wydaje mi się, że wolną wolę – rozważaną w kontekście rozwiązywania problemów – utożsamiacie Panowie (WS+WZ) z kreatywnością, która wychodzi: a) poza aktualnie realizowany algorytm (WS), albo b) poza wszelki algorytm (WZ). Prawdopodobnie WS zgodziłby się na tezę WZ, gdyby przedstawił sobie sprawę tak, że wyjście poza aktualnie realizowany algorytm w celu użycia jakiegoś algorytmu „wyższego rzędu” (np. algorytmu generowania pewnych nowych pojęć, albo dopasowywania pojęć z innej dziedziny do dziedziny rozwiązywanego problemu), byłoby uzależnieniem „wolnej woli” od innego algorytmu. Byłoby zatem jej zniewoleniem.

        W powyższym kontekście – tj. kontekście utożsamienia wolnej woli z niealgorytmiczną kreatywnością w rozwiązywaniu problemów – warto byłoby zastanowić się, na czym tego rodzaju kreatywność miałaby polegać. Musielibyśmy podać wówczas konkretną definicję algorytmu i wskazać takie cechy wolnej woli (kreatywności), które poza tę definicję wychodzą.

        Niech taka definicja odnosi się do pojęcia maszyny Turinga. Wówczas algorytmem możemy nazwać schemat procedury, którą można powierzyć do wykonania, w skończonym czasie i przy użyciu skończonych zasobów, pewnej maszynie Turinga. Maszyna taka jest deterministyczna, dyskretna i skończona (operująca na skończonym dyskretnym alfabecie, mogąca przyjmować skończoną liczbę dyskretnych stanów oraz zdolna do wykonywania tylko skończonej liczby operacji w skończonym czasie). Odrzucenie/Przełamanie którejkolwiek z tych cech, czyli wyjście poza schemat wykonalny dla maszyn Turinga, oznaczałoby wyjście poza sferę algorytmiczności.

        Stawiając sprawę w takim świetle, zyskujemy pewien wstępny wgląd w interesujący nas fenomen wolnej woli. Jeśli jest ona niealgorytmiczna, to u jej podstaw muszą leżeć procesy: a) niedeterministyczne (prawdziwie losowe), b) nieskończonościowe (np. jakiś efektywny przegląd nieskończonego zbioru możliwości) lub c) ciągłe (analogowe). Przynajmniej jedna z tych cech byłaby konieczna.

        Ciekaw jestem Państwa przemyśleń/odpowiedzi w tak zarysowanym kontekście.

        • WS pisze:

          Odnosząc się do Pana wypowiedzi jestem zdania, że przypisanie wolnej woli do jednej z trzech przedstawionych przez Pana kategorii jest niezmiernie kłopotliwa. Niedeterministyczną kreatywność opisałbym jako zjawisko u którego podstaw znajdują się zarówno procesy ciągłe jak i niedeterministyczne.

          Analogowe procesy pobudzają niealgorytmiczne myślenie w kwestii szukania nowych rozwiązań lub zjawisk w pewnej mierze znanych i rozumianych przez człowieka. W szczególności mam tutaj na myśli ulepszanie lub optymalizowanie znanej już metody. Wynikiem takiego działania jest bezpośrednie stworzenie lepszego a przede wszystkim innego niż znane do tej pory rozwiązania.

          Z drugiej strony uważam, że warto również wziąć pod uwagę procesy niedeterministyczne. Zakładając chęć zrozumienia lub wykorzystania zjawiska, które jest kompletnie nowe i w czysto hipotetycznym założeniu zupełnie niezwiązane z dotychczasową wiedzą. To właśnie czysto losowe działania prowadzą do pojęcia takiego zjawiska lub stworzenia odpowiedniego algorytmu działania.

          Jeśli chodzi o przegląd nieskończonego zbioru możliwości nie zgodzę się z tym, aby to właśnie taki proces leżał u podstaw kreatywności. Odwołać się tutaj można do definicji tego pojęcia, jako procesu twórczego. Założenie występowanie nieskończonego zbioru możliwości sugerowałoby, że kreatywność jest procesem odtwórczym.

          • km pisze:

            Tylko skąd bierze się to „nowe rozwiązanie” (które pojawiło się w tym wątku komentarzy ale i ogólnie)?
            A nawet li tylko jak pojawia się „dowolne”, (nie determinowane algorytmicznie) lepsze bo „kreatywne” – to, o którego wyborze (czy wręcz zaistnieniu) decyduje Wolna Wola?

            Czy ma to być 'creatio ex nihilo’ – w żaden sposób nie-zdeterminowane aktywnością neuronalną, metafizyczne olśnienie?

            Jeśli tak, to jak, ta niematerialna idea oddziałuje na neurony formujące instrukcje dla ciała by je wyrazić (by mięśnie kurcząc się pozwoliły wyartykułować mową rozwiązanie lub pisemnie przedstawić jego treść)?
            Idąc tym tropem przyjęlibyśmy możliwość oddziaływania 'paranormalnego’ na fizyczne struktury (poza-fizyczna idea wykonuje pracę fizyczna na neuronach zmuszając je do określonej aktywności) wypisując się z naukowego paradygmatu. W takim wypadku nie należy się spodziewać pozytywnych /pozytywistycznych/ wniosków – bo jakże pomyśleć projekt inżynieryjny „wlewania” magii w informatyczne twory, by dać im moc myślenia.

            Jeśli nie (jest to kreacja „z niczego” wyrwana ze związku przyczyn i skutków) to myślenie jest zdeterminowane, a autonomia woli ustroju jest tylko jego jego swobodą w myśleniu ścieżkami określonymi konieczności wynikłymi z jego fizycznej konstrukcji.

            W obu wypadkach Wolna Wola jest nieistotna dla inżynieryjnego/informatycznego rozwiązania problemu myślenia.
            – W pierwszym z racji magicznej rozumowania Istoty, wymykającej się domenie informatyków.
            – W drugim jest pomijalna/ nic nie wnosi i można przestać dawać się zwodzić urokom tej idei szukając realnych rozwiązań.

  3. P.S. pisze:

    Po przeczytaniu Pańskiego komentarza z dyskusji z 2012 roku muszę przyznać, że mam podobne przemyślenia. Wpierw chciałbym jednak wspomnieć, że określenie „ludzka maszyna cyfrowa”, występujące w załączonym przez Pana źródle zdziwiło mnie na tyle, że postanowiłem sięgnąć po tekst oryginalny. W oryginale widnieje tam zwrot „human computer”. Występuje ono w kontekście porównania „komputerów” do ich ludzkich odpowiedników. Wydaje mi się, że Turingowi chodziło tu o „Obliczeniowca”([https://pl.wikipedia.org/wiki/Obliczeniowiec]) z ang. „computer”. Turingowi nie obcy był zawód osoby wykonującej obliczenia wpierw na papierze a później przy użyciu maszyn, stąd też prawdopodobna chęć zaznaczenia, że maszyny do których odnosi się w tekście mają takie zdolności jak obliczeniowcy, obliczeniowcy używają papieru lub arytmometru do obliczeń itd. Nie rozumiem dlaczego Pan Gajkowicz zdecydował się na przetłumaczenie „human computer” na zagadkowy zwrot „ludzka maszyna cyfrowa”.

    Wracając jednak do meritum, zgadzam się z wspomnianym komentarzem jak i istotnością zadanego przez Pana pytania. Wydaje mi się, że uznawanie maszyn za nie-myślące wiąże się z pewnym zrozumieniem jak maszyna działa, podobnie do zarzutu Ady Lovelace, która pracowała przy maszynie na tyle prostej, że dało się jasno zrozumieć na czym polega jej działanie. Podobnie teraz przy o wiele bardziej skomplikowanych maszynach, o ile jesteśmy świadomi jak komputer zrobi to co zrobi to nie jest to dla nas żadne zaskoczenie. Jeśli wiem, że komputer dodając 2 do 2 tak naprawdę wykonuje jakieś operacje binarne to równie dobrze mógłbym to, w skończonym czasie, odwzorować na papierze. Nie ma tu mowy o myśleniu, tak samo jak bezmyślne byłoby dla mnie mnożenie wedle tabliczki mnożenia lub też składanie prostego mebla z Ikei.

    Jednocześnie jestem w stanie uwierzyć, że osoby argumentujące, że maszyny mogą myśleć nie do końca rozumieją na czym to myślenie miałoby polegać -podobnie jak nie wiemy na czym polega myślenie psa czy człowieka.
    Turing w krytyce sprzeciwu teologicznego zrównuje zwierzę z człowiekiem zaznaczając że istnieje różnica między zwierzęciem a tworem nieożywionym (większa niż między człowiekiem i zwierzęciem). Jednak jeszcze kilkadziesiąt lat przed tekstem Turinga badano nie było to tak jasne. E. L. Thorndike w 1898 opublikował swoje badania, w których sprawdzał czy zwierzęta, którym udało się wyjść z specjalnie przygotowanej klatki, robiłyby to szybciej po ponownym zamknięciu. Thorndike chciał sprawdzić czy zwierzęta potrafią się uczyć z własnych doświadczeń. Podobne eksperymenty przeprowadzane są aktualnie na algorytmach nauczania przez wzmocnienie, które w pewien sposób modelują system nagród i kar przy nauce zachowań. Komputer dostaje nagrodę jeśli robi coś dobrze a karę jeśli nie osiąga naznaczonego celu. Nauczony w ten sposób algorytm jest w stanie wygrać z mistrzem świata w Go albo sprawić, że humanoidalny robot będzie się poruszał bez przewrócenia. (Prawdopodobnie nie zrobi jednak obu tych rzeczy na raz, choć to już Turing obalił w krytyce „Argumentów wypływających z różnych niemożności”).

    Zmierzam jednak do tego, że nie bez powodu termin „sztuczna inteligencja” stał się na nowo popularny. Ludzie nie obeznani w matematyce stojącej za uczeniem maszynowym, ale też naukowcy pracujący przy głębokich sieciach neuronowych ( gdzie po nauczeniu takiej sieci co ma robić, nie jesteśmy w stanie stwierdzić dlaczego akurat tak to robi) nie mogą już, jak napisałem wcześniej, „policzyć tego na kartce w skończonym czasie”.

    Uważam, że w podobny sposób nie rozumiemy ludzkiego, zwierzęcego umysłu. Wydaje mi się, że gdybyśmy w pełni rozumieli jak działają procesy myślowe w naszym „procesorze białkowym” (mózgu) to bylibyśmy w stanie odwzorować to na maszynie cyfrowej. Mogłoby to oznaczać tyle, że maszyny potrafią „myśleć” lub też, że to ludzie nie „myślą” wcale.

    • mikolajk pisze:

      Szanowny Panie, po przeczytaniu pańskiego komentarza mam pewne wątpliwości co do zasadności porównywania uczenia maszynowego z rozumieniem ludzkiego czy zwierzęcego umysłu.

      Nawet jeżeli po wytrenowaniu sieci neuronowej ludzie nie wiedzą, jak dokładnie wygląda funkcja odwzorowania, która pozwala maszynie ze zbioru danych wyjściowych podjąć decyzję X, to jesteśmy w stanie eksperyment powtórzyć na innej maszynie za pomocą tego samego kodu źródłowego, tego samego zbioru danych wejściowych, tego samego celu i uzyskać przynajmniej zbliżone rezultaty.

      W przypadku ludzi czy zwierząt jest inaczej: nie znamy dokładnie danych wejściowych w momencie w którym człowiek/zwierzę podejmuje decyzje. Na zbiór danych wejściowych, który będzie różnił się nie tylko kwestią tego co żywa istota zaobserwowała, ale również aspektami kulturowymi i środowiskowymi. Podobnie jest z samym celem, który dana decyzja ma osiągnąć: zależna jest ona nie tylko od obecnej sytuacji, ale od przeżytych w przeszłości wydarzeń. Wreszcie – decyzje podejmowane przez ludzi niekoniecznie muszą być optymalne według przyjętego przez nich samych kryterium, natomiast maszyny zawsze będą możliwe decyzje racjonalizować według przyjętego kryterium.

      Podsumowując, w uczeniu maszynowym w naszym równaniu brakuje nam jednej zmiennej – funkcji odwzorowania, którą dodatkowo możemy aproksymować. W przypadku istot żywych niewiadomych jest wiele i nawet nie wiemy w jakiej formie one występują – czy ludzie i zwierzęta myślą za pomocą funkcji odwzorowania?

  4. km pisze:

    Na jednym z ostatnich seminariów FI pojawił się spór o to czy wszelkie poznanie/myślenie jest u podstaw językowe. W takich sytuacjach często pada z jednej strony argument o postrzeganiu koloru, doświadczenia zimna, błogostanu, uczucia „posiadania” racji czy intuicji rozumienia itp… Tłumaczenie tych doznań w językach nauk ścisłych wydaje się zdecydowanie mniej „pierwotnym” ich ujęciem. Przykładowo opis działania pojedynczej komórki oddziałującej z fotonem – choć ustalono, że przedstawia bardziej wierny obraz Rzeczywistości (i daje się przedstawić w kategorii kodu maszynowego/języka) – nie wydaje się być pierwotną treścią myśli/doświadczenia/odczucia.

    Jednak gdy weźmie się pod uwagę inżynieryjny problem:
    jak – „jednostce sterującej” zachowaniem organizmu w środowisku, w którym istotne dla jego przetrwania jest przetwarzanie niezliczonych danych (efektów oddziaływań) „trybików”,
    przedstawić morze informacji danego typu w jednym akcie,
    wtedy „rozwiązanie Natury” polegające na ujęciu wielu oddziaływań „skrótami” w postaci barw, ciepła/zimna, twardości, złego lub dobrego samopoczucia oraz wytworzeniu procesu ujmującego je jednocześnie,
    okazało się być trafne.
    – Efektem jest wszak przetrwanie w tych a nie innych warunkach.

    Proste (do ujęcia w algorytmicznych kodach) reakcje komórek,
    w ich mnogości nie dały się lepiej przez miliardy lat Ewolucji ująć niż właśnie w/w „skrótami” zupełnie nie-językowymi.

    Myślenie człowieka wydaje się być nieustrukturyzowane – jego taka dowolność ma powodować problemy ze stworzeniem SI o z góry zakodowanych sposobach przetwarzania danych, języku i regułach prawdziwości (jako jefynie surogatach 'znaczenia’).

    W/w „skróty” są jednak właśnie przykładem wysoce ustrukturyzowanego sposobu doświadczania przez ludzi Rzeczywistości – także poza domeną ujmowaną w myśleniu wprost językowo czy w ramach zmatematyzowanych nauk.

    Chociaż „skróty” te wiodły gatunki zwierząt ku przetrwaniu – ich skuteczność przedstawia sobą większą prawdę o Świecie niż one same w swym funkcjonowaniu (pokazują że w Rzeczywistości są regularności choć same przecież „widziane kolory” czy „odczuwane ciepło” nie odsłaniają faktycznego obrazu zjawisk, których percepcji są dla Świadomości „skrótami”).

    ŚWIADOMOŚĆ zaś – jako własność „wyższego rzędu” funkcjonujących procesów mózgu, jest w stanie ogarnąć jednocześnie „scenę”, w której gra o przetrwanie (widok otoczenia, dźwięki, temperaturę itp.) i stan ciała w reakcji na nie (i w wyniku przeszłych zdarzeń).
    Tak jak liczba stanowi wspólną cechę zborów o równej krotności, tak Świadomość łączy w sobie rezultaty wszystkich w/w” skrótów”. Świadomości w jej jednostkowosci powstałej z wielości procesów, pozostaje moc ujęcia prócz nich jednynie jedenego wątku myśli, szeregu inferencji mniej lub bardziej zasadnie „myślonego” przewodu intelektualnego.

    Natura nie znalazła lepszego sposobu na to by w jednym akcie dało się uwzględnić rezultaty działania wszystkich komórek przekładających się na stan ustroju, inaczej niż poprzez to, że czujemy się dobrze, źle lub średnio. Możemy obecnie spojrzeć na rezonans całego ciała ale nie obejmiemy wszelkich zawartych w nim informacji świadomie – w jednym wglądzie.
    Podobnie możemy uzyskać poczucie zrozumienia dowodu matematycznego dzięki długotrwałemu rozmyślaniu nad danym problemem, choć przecież nie da się jednocześnie objąć świadomością nawet jednej strony przekształceń równań, których ten dowód może mieć wiele kartek. Każde z owych przekształceń jest odzwierciedlone gdzieś w rozgałęzieniach struktur neuronalnych – tam gdzie świadomy wgląd nie ma wstępu i może jedynie doznawać rezultatów ich działania w odczuciu rozumienia/intuicji (matematycznej).

    Świadomość jako „własność wyższego rzędu” procesów sterujących ustrojem w jego próbach przetrwania, nie wydaje się więc być czymś co zasadniczo sprawia, że kryterium rozwiązywania problemów nie wystarcza dla orzeczenia inteligencji, rozumności czy zdolności do myślenia bytu, który problemy rozwiązuje.
    Świadomość sama jawi się jako wynik rozwiązania (SIĘ – bo poprzez bezosobowe procesy ewolucji) problemu przetrwania określonych ustrojów w danych okolicznościach.
    Świadomość niesiona falami przetwarzania w mózgu sama w sobie stanowiąc wynik rozwiązywania problemów przetrwania, stanowi przecież ewolucyjnie wykute narzędzie rozwiązywania kolejnych (nawet jeśli w danej chwili pożytkujemy jej możliwości na „bezmyślne” oglądanie filmu).

    Zakładać że w poprzez aspekt istnienia Świadomości myślenie zyskuje walor, który sprawia że nie można go sprowadzić do rozwiązywania problemów wydaje się więc być nietrafne – i mnożyć nie-konieczności.

    • Paweł Stacewicz pisze:

      Czy jednak odwołanie się do kryterium rozwiązywania problemów służących przetrwaniu nie jest zbyt słabe, by stwierdzić myślenie. Czy nie jest to kryterium zbyt szerokie? Czy pantofelek zdolny przetrwać i rozwijać się w swoim środowisku myśli? Czy myśli w takim sensie jak człowiek? Czy jego myślenie i właściwa mu skuteczność są tym, do czego dążymy, konstruując sztuczne układy inteligentne?

      Być może istotne są szczególne problemy – takie dla których rozwiąż(yw)ania Świadomość jest niezbędna. Jeśli nie do końca wiemy, jakie są to problemy, to może lepiej szukać pewnych jakościowych cech Świadomości; których stwierdzenie w przypadku konkretnego bytu (również sztucznego) byłoby wskaźnikiem Myślenia przez duże M?

      • km pisze:

        Wiemy, że Świadomość pojawiła się w organizmamach o pewnej złożoności „systemów sterowania” i towarzyszy sytuacjom integrowania „skrótów” z nieświadomych systemów przetwarzania danych (o jakich pisałem w pierwszym komentarzu) w „jeden wątek”.
        Naukowcy badający Świadomość zwierząt przekonują, (wbrew Kartezjuszowi) że jakaś jej forma istnieje w organizmach o prostszym niż człowiek układzie nerwowym – wnioski swe formują jednak przecież na podstawie jedynie behawioralnych testów.
        Wraz z rosnąca złożonością (mocą obliczeniową) układów nerwowych, obserwowane zachowania stają się mniej regularnie schematyczne – objawia się zdolność uczenia (i wdrażania) nowych sposobów reakcji (rozwiązań problemów). Można z tego wynieść, że procesy integrujące (rezultaty działania systemów zachowania ku homeostazie) dają Świadomości więcej „stopni” swobody (dzięki złożoności). Pamiętajmy o tym, że ta swoboda jest odczuwanym fenomenem Świadomości związanym z jej idealną naturą/umocowaniem (własność wyższego rzędu w/w procesów, w których integracji się objawia, o czym pisałem wyżej). Odczuwanym pierwszoosobowo – choć jej lustrzanym odbiciem jest widziane z perspektywy trzecioosobowej zdeterminowanie procesów neuronalnych. Realne wyjęcie Świadomości z tego uwarunkowania stałoby w sprzeczności z naukowym paradygmatem (a także z istnieniem związków przyczynowo-skutkowym w ogóle – vide: prace Schopenhauer’a).

        Aby nie wychodzić poza Światopogląd naukowy (tak skutecznie pozwalający tworzyć predykcje Rzeczywistych zdarzeń) wypada przyjąć, że to nie „do-wolność” woli, a wynikła z rosnącej mocy obliczeniowej układu zdolność do tworzenia bardziej skomplikowanych modeli Świata i „planów działań”, objawia się takim naszym odczuwanym wolnomyślicielstwem. – Możemy wręcz rozważać sprawy, które w ogóle nie wydają się 'rozwiązywaniem problemów’ a np. doświadczaniem piękna sztuki. (Choć są – jak pisałem – rezultatem rozwiązania przez dobór naturalny problemów stworzenia systemów integrujących wyniki przetwarzanie niezliczonych danych o otoczeniu/zmysłowych – w jednym mechanizmie sterującym zachowaniem. )

        Przyjęcie wyżej przeze mnie określonego (powiedzmy „epifenomenalnego”) spojrzenia na Świadomość – a więc tego, że w pewnym sensie (przyczynowo-skutkowym) nie jest ona istotna (jest rezultatem a nie przyczyną) jest w zgodzie z wszelkimi pomiarami, obserwacjami i doświadczeniami. Jest też chociażby falsyfikowalna (by ją podważyć wystarczyłoby np. zaobserwować rezultaty myślenia mózgu, w którym wygasły procesy neuronalne) w przeciwieństwie do twierdzeń tych, którzy czują że musi być jej rola „czymś więcej” , że to ona determinuje myślenie – wolna od konsekwencji mózgowego przetwarzania bo „gdy chcą podnieść rękę to się ona unosi”.

        Krótko mówiąc: nastawienie się na wytworzenie jakościowych cech Świadomości „samej w sobie” w celu wygenerowania sztucznego myślenia wydaje się być (nie-naukowe i) wtórne. Byłoby odwróceniem kolejności zdarzeń jedynego „projektu”, w ramach którego myślenie się zrealizowało: naturalnej selekcji systemów regulujących działaniem organizmów ku przetrwaniu.
        Wszystko wskazuje bowiem na to, że Świadomość „sama w sobie” nie istnieje ale jest własnością (drugiego rzędu) mechanizmów przetwarzania danych, które wyewoluowały w określonych okolicznościach.

        Co innego oczywiście jakości Świadomości nie „samej w sobie”, ale tego, w jaki sposób w jej ramach (procesów którym towarzyszy) obecne są rezultaty przetwarzania danych zmysłowych i stanów ciała – chodzi znów o wysoce ustrukturyzowane sposoby ich przetwarzania w równolegle/ w rozproszeniu/ przetwarzających struktur neuronalnych. One to (ich konstrukcja) to swoisty „szymel” wzorzec jaki może dać oczekiwany rezultat: myślący system, z którym będziemy mogli się porozumieć (mając wspólny mianownik w odniesieniu do Świata zewnętrznego).
        Czy to jednak jedyny sposób? – Zwyczajnie nie da się orzec…

  5. P.W. pisze:

    Na początku moich rozważań również chciałbym się zgodzić ze stwierdzeniem podanym we wstępie do dyskusji, że ustalenie czy maszyny potrafią myśleć wymaga konkretnego sformułowania czym jest myślenie. Należałoby również określić czy definicja myślenia będzie zawierała te same kryteria dla ludzi i maszyn.
    Wydaje mi się jednak, że ciężko będzie kiedykolwiek udowodnić, że maszyny będą potrafiły myśleć w ten sam sposób co ludzie. Maszyny czerpią swoją wiedzę oraz zdolności od swoich twórców. Obecnie przeżywamy bardzo duże zainteresowanie dziedziną jaką jest Sztuczna Inteligencja, która wkrada się w różnie dziedziny naszego życia. Różne hasła reklamowe produktów sugerują, że maszyny wyposażone w Sztuczną Inteligencję są w stanie znieść z ludzi ciężar i odpowiedzialność myślenia. I owszem, często okazuje się, że maszyny te podejmują lepsze decyzje od ludzi w różnych sytuacjach. Jednak ciężko jest zgodzić się ze stwierdzeniem, że maszyny te myślą. Oczywiście, jeśli za kryterium myślenia przyjmiemy umiejętność rozwiązywania złożonych problemów matematycznych to jak najbardziej można wtedy uznać, że maszyny te myślą. Tym bardziej, że poprzez szybkość wykonywania obliczeń oraz bardzo dużą dokładność znacznie przewyższają zdolności jakie posiadają ludzie. Jednak wydaje mi się, że myślenie to jest zdecydowanie coś więcej niż tylko podejmowanie optymalnych decyzji.
    Moją uwagę przykuł argument Pana Alana Turinga dot. świadomości . Wydaje mi się, że dopóki to ludzie będą tworzyć maszyny ciężko będzie stworzyć maszynę posiadającą świadomość. Owszem możemy stworzyć maszynę, która udzieli odpowiedzi pełnej współczucia gdy się jej powie coś smutnego, tak iż odbiorca będzie mógł odnieść wrażenie, że rozmawia ze świadomą istotą. Jednak ciężko jest wyobrazić sobie, że odpowiedź jakiej udzieli maszyna będzie związana z tym jakie w niej emocje wzbudziła wypowiedź rozmówcy. Odpowiedź maszyny będzie zależna od np. mimiki, gestykulacji rozmówcy czy tonu w jakim wypowiada się rozmówca. Odpowiedź człowieka również będzie bazowała na takich informacjach, ale warto również zauważyć, że odpowiedź jakiej udzieli człowiek będzie dodatkowo zależna od jego wewnętrznych emocji. Odpowiedź jakiej udzieli maszyna będzie na chłodno wykalkulowana dzięki zaawansowanym modelom matematycznym i algorytmom.
    W mojej ocenie obecne maszyny bardzo dobrze potrafią udawać, że myślą jak ludzie. Wszelkie maszyny takie jak na przykład chatboty czasami świetnie potrafią oszukać swojego ludzkiego rozmówcę, któremu wydaje się, że rozmawia z człowiekiem. Jako przykład podam test wykonany w Indiach w 2011 roku na chatbotcie o nazwie CleverBot. Wspomniany bot potrafił oszukać ok. 59% osób, które były przekonane, że rozmawiają z człowiekiem. Jednak, mimo iż większość ludzi została oszukana i mogła uwierzyć, że rozmawia z prawdziwym człowiekiem ciężko jest uznać, że dany bot rzeczywiście myśli, ponieważ odpowiedzi jakich udzielają tego rodzaju maszyny bazują na zaimplementowanych w nich programach, które niejako wyliczają odpowiedzi. Wydaje mi się, że świadomość na zawsze zostanie wielką tajemnicą dla ludzkości, przez co nie będziemy w stanie stworzyć maszyn wyposażonych w tzw. silną sztuczną inteligencję, które będą posiadały taką świadomość jaką posiada człowiek.
    Warto również zauważyć, że maszyny często mogą posiadać większą wiedzę niż ludzie na temat różnych zagadnień i przez to potrafią podejmować lepsze decyzje niż ludzie znajdujący się w analogicznych sytuacjach. To może u niektórych tworzyć przekonanie, że skoro maszyny przewyższają ich w podejmowaniu pewnych decyzji oznacza, że maszyny te posiadają świadomość. Jednakże, w mojej ocenie posiadanie wiedzy nie powoduje, że dana maszyna posiada świadomość.
    Dodatkowo, chciałbym się również odnieść do odpowiedzi Pana Alana Turinga dotyczącej argumentów wypływających z różnych niemożności. Jak najbardziej zgadzam się z tym, że prace i zwyczaje ludzi nie są odpowiednim przykładem czynności, które muszą wykonywać maszyny. Jednak samo rozważanie tego, że maszyny nie potrafią wykonać pewnych nowych zadań jest jak najbardziej zasadne, ponieważ wiąże się z tym, że maszynom brakuje cechy typowej dla ludzi jaką jest kreatywność. Daje ona nam możliwość wymyślenia czego nowego lub zrobienia czego w sposób nieszablonowy, czyli po prostu inny. Wydaje mi się, że posiadanie takiej cechy jest bardzo związane z tym czy dany obiekt jest w stanie myśleć. Uważam, że maszynom brakuje właśnie tej cechy. Owszem, możemy zaprogramować w maszynach pewnego rodzaju „sztuczną” kreatywność, jednak jest to kreatywność wymyślona przez człowieka, która została wgrana do maszyny i być może w świetny sposób znalazła zastosowanie i daje czasem nawet spektakularne wyniki. Jednak kreatywność ta jest w pewien sposób ograniczona(np. do pewnej dziedziny), podczas gdy ludzka kreatywność przekracza granice i dzięki niej ludzie są w stanie wymyślić coś na nowo, zgodnie z cytatem Pana Alberta Einsteina: „Wszyscy wiedzą, że czegoś nie da się zrobić, aż znajdzie się taki jeden, który nie wie, że się nie da, i on to robi.”
    Podsumowując, wydaje mi się, że przez to, iż maszyny nie potrafią rozumować w sensie kontemplacyjnym nie będą one w stanie myśleć tak jak ludzie. Jeśli jednak zmienimy pewne kryteria przypisywane myśleniu lub inaczej zdefiniujemy czym jest myślenie dla maszyn to wydaje mi się, że wtedy możemy mówić, że maszyny potrafią myśleć. W pewien sposób porównywanie maszyn do ludzi i odwrotnie jest być może nieodpowiednie, ponieważ maszyny i ludzie bardzo różnią się od siebie wzajemnie i to powoduje, że być może definicje pewnych pojęć powinny być różne dla ludzi i dla maszyn.

  6. Nie nazywam się Kacper Maj pisze:

    Część informacyjna:
    Tutaj zamieszczam krótki filmik z prostym robotem sterowanym szczurzym mózgiem:
    Robot with a rat brain – YouTube
    Znacznie bardziej znanym eksperymentem jest jednak eksperyment z takim samym mózgiem pilotującym symulowany myśliwiec F-22 raptor:
    Adaptive Flight Control With Living Neuronal Networks on Microelectrode Trays – De Marse, Dockendorf.pdf (uky.edu)
    W tych eksperymentach sygnały wejściowe były tłumaczone prze komputer i przekazywane płytce z neuronami. Pomimo tego, że w układzie obecny był komputer nie podejmował on żadnych decyzji.
    Część opiniotwórcza:
    1. Inteligencja
    Podczas dyskusji powiedziałem, że jeśli chcemy określić czy coś jest inteligentne/myślące musimy zdefiniować te pojęcia. W przypadku inteligencji odwołałbym się do Spearmana – Inteligencja to dostrzeganie zależności relacji i wyciąganie wniosków. Zdaję sobie sprawę, że jest to jedna z pierwszych definicji inteligencji, jednak sam osobiście uważam, że jako jedyna lub jedna z niewielu spełnia warunek definicji, czyli daje nam możliwość bezwzględnej odpowiedzi na pytanie: Czy coś jest inteligentne czy też nie? Np. gdy spalimy wodór w powietrzu, atomy wodoru połączą się tylko z atomami tlenu, omijając azot i cząsteczki dwutlenku węgla. Czy to oznaka inteligencji? Nie. Skąd wiedzą, że mają połączyć się właśnie z tymi atomami? Nie wiedzą. Tak zostały „zaprogramowane” (nie chciałem użyć słowa „zaprojektowane”, ponieważ sam jestem ogromnym przeciwnikiem kreacjonizmu). Są podległe prawom fizyki i na tej zasadzie znajdują atomy tlenu. Do inny po prostu nie pasują. Zróbmy krok w przód. Spójrzmy teraz na wirusy. Nie poruszają się, nie odżywiają się, nie rozmnażają się, nie żyją. (I tutaj muszę trochę zejść z tematu. „Wirusy nie żyją”. Co to znaczy? Klasyfikujemy wirusy jako nieożywioną materię właśnie z powodu braku przetwarzania materii, czyli odżywiania, a w konsekwencji ruchu i rozmnażania. W takim razie co z girusami? Dla wielu jest to pewnie nowe pojęcie dlatego polecam skrótowca:
    This Virus Shouldn’t Exist (But it Does) – YouTube
    oraz źródła, na których Kurtzgesagt się opiera. Wkładam to tutaj aby pokazać, że wirusy nie są wcale tak proste jak ja chciałbym to przedstawić. Niektóre z nich mogą nawet mieć prosty metabolizm. I z tego powodu mówienie, że wirusy „nie żyją” może nie być za kilka lat aktualne. Lecz obecnie wirus jest przez większość uznawany za martwą materię więc będę go tak traktował.) Wirus jest całkowicie zależny od warunków zewnętrznych. „Ma nadzieję” na to, że natrafi na odpowiednią bakterię i ją zarazi, a ona wyprodukuje inne wirusy. Zupełnie tak jak wodór nie potrafi wpływać na swój byt i go zmieniać, więc jest równie inteligentny co atom, całkowicie podlegając prawom fizyki. Teraz pomijając girusy spójrzmy na bakterię. Sprawy zaczynają się komplikować. Bakterie potrafią stawać się odporne na antybiotyki, więc są inteligentne prawda? Nadal nie. Za wyciąganie wniosków z wojny chemicznej z antybiotykami jest odpowiedzialny dobór naturalny. Żadna bakteria nie staje się odporna na antybiotyk. Z powodu jak działa mutacja genetyczna, niektóre rodzą się odporne. Potomki tych odpornych też prawdopodobnie będą odporne i w ten sposób zmienimy populację, ale nie osobnika. Czy w takim razie dobór naturalny jest inteligentny? Nie. Tak nazwaliśmy mechanizm wybierający to co działa. Dobór naturalny to nasz konstrukt, a nie rzecz. Teraz omińmy kilka stadiów rozwoju inteligencji dla samego zaoszczędzenia czasu i przejdźmy do psów. Wiem, że ten przeskok jest dla wielu niewybaczalny, ale sam nie uważam, że potrafię stworzyć kompletną tabelkę co jest inteligentne, a co nie. Z pewnością znajdą się stworzenia, wobec których będę wstanie zaakceptować argumenty w obydwie strony, ale nadaj uważam, że dzięki definicji inteligencji, którą przyjąłem można to zdefiniować. Wracając. Czy psy potrafią się uczyć? Jak najbardziej. Psa można nauczyć aportowania. Jego zachowanie zmienia się w zależności od właściciela. Czy w takim razie pies jest inteligentny? Wyciąga proste wnioski z tego co się dzieje wokół niego, więc tak. Czyli psy myślą prawda? Może? Ale chyba jednak nie. Wszystkie zachowania psa są wytłumaczalne, czyli definiowane przez środowisko. Można u każdego psa opisać historię wzmocnień i każdego psa uczy się na tych samych zasadach. Nie powstaje u nich abstrakcyjna chęć mordu wszystkich psów, altruistyczna chęć ocalenia wszystkich psów, rasizm gatunkowy (sam osobiście bardzo chciałbym zobaczyć charta nazywającego mopsa „wybrakowanym genetycznie”), pies mając do dyspozycji te dziwne, popularne ostatnio przyciski do gadania człowieka z psem, nigdy nie zapyta się o coś. Pies nie rozumie koncepcji pytanie->odpowiedź. To samo można powiedzieć o dowolnym innym zwierzęciu jeśli chodzi o możliwość rozumienia języka i przekazania informacji. Z jakiegoś powodu natura ustaliła sposób działania psów, którym my jesteśmy tylko w stanie sterować przez system wzmocnień, czyli tak samo jak natura. To zjawisko w mojej opinii dobrze opisuje behawioryzm, którego jestem zwolennikiem w przypadku zwierząt. Ostatecznie porozmawiajmy o naszych najbliższych krewnych czyli człekokształtnych. Jako argument odwołam się do filmiku:
    Why Koko Couldn’t Talk (Sorry) | The Deep Dive – YouTube
    W mojej opinii dobrze przedstawia historię dwóch człekokształtnych, na podstawie których przedstawia dlaczego nie ma dowodu na to, że jakiekolwiek zwierzę rozumie język. Mówi też o tym, że pomimo to nadal powinniśmy traktować zwierzęta jako rozumiejące ból, cierpienie i mające godność z czym nie do końca się zgadzam, ale nie jest to tematem dyskusji. Teraz przejdźmy do następnej części:
    2. Myślenie
    I jeśli chodzi o definicję, to nie potrafię jej podać. Nie przekonała mnie żadna z tych, które czytałem i raczej postaram się stworzyć system: „to jest”, „to nie jest”, za który przepraszam. Więc. Za prawdziwe myślenie uznałbym rozumienie języka lub abstrakcję w interpretacji rzeczywistości i faktów (nie taką jaką mają psy różnie reagując na bodźce, a taką, że dziecko zada pytanie, na które dorosły nie jest w stanie odpowiedzieć). Jako istoty myślące będę oczywiście podawał ludzi (aczkolwiek sam mam świadomość, że człowiek może być tylko bardziej skomplikowanym behawioralnym zwierzęciem). My myślimy. Wymyśliliśmy matematykę, chemię, fizykę, biologię, sztuczną inteligencję(którą jak najbardziej uznaję za inteligentną). Wymyślone przez nas teorie są adekwatne do naszej rzeczywistości i trafnie ją opisują. To wszystko reprezentuje nasz dorobek naukowy. To nas różni od zwierząt i maszyn! Jesteśmy lepsi od wszystkiego, bo nie jesteśmy ograniczani przez behawioryzm i narzucone cele. To my tworzymy cele! I jesteśmy o tyle lepsi od reszty świata, że sami tworzymy sztuczną inteligencję i ona nie jest na tyle mądra, żeby została nazwana głupią! I tak dalej. Ale. Niedawno spotkałem się z filmikiem (ma tylko 6 min, więc radzę go obejrzeć, bo inaczej nic co mówię nie będzie miało sensu):
    OpenAI Plays Hide and Seek…and Breaks The Game! 🤖 – YouTube.
    I tutaj należy wstawić mem:
    https://imgflip.com/memetemplate/217414727/Idont-know-what-to-say-to-that
    No właśnie. To „Ograniczone i głupie” AI znalazło sposób na to aby zepsuć naszą grę. Te małe potworki znalazły sposób na abstrakcyjne złamanie zasad (tak jak my zabierając ze sobą atmosferę i lądując na księżycu) i całkowicie zredefiniowały zasady gry. Być może my też źle podchodzimy do sprawy starając się zrozumieć czym jest myślenie. Nie uważam, że inteligencja i myślenie to to samo, ale sam też potwierdzam, że nie potrafię podać konkretnej definicji. W tym momencie należy powiedzieć, że humanoidalne postacie działają na zasadzie nagród. Więc wielu powie, że nie ma w tym żadnej abstrakcji, a raczej znalezienie optymalnego rozwiązania. I… sam nie wiem. Z jednej strony tak. Maszyny są deterministyczne, a komórki nie (w losowych momentach poruszają się, umierają i o ile rozumiemy znaczną większość procesów oraz mechanizmów komórek nie potrafimy stworzyć kompletnej symulacji). Ale z drugiej strony kto powiedział, że komórki nie są spontanicznymi tworami fizyki, które też znalazły sposób na złamanie reguł. Może nie powinniśmy myśleć o ludziach jako o istotach myślących? A raczej jako o bardziej inteligentnych zwierzętach/maszynach? Nadal pozostaje argument rozumienia języka. Ja sam nie wydam tutaj osądu. Jestem na to o wiele za głupi. Ale sam kłóciłbym się z każdą osobą, która chce wypowiedzieć mocną opinię po którejkolwiek ze stron.
    3. Test Turinga.
    Sam nie rozumiem dlaczego test Turinga ma czegokolwiek dowodzić. Test mówi o tym czy udało nam się stworzyć maszynę, która rozmawia, w skrócie: rozmówcę na pokaz. I krytyka: A co z maszyną, która powinna umieć kłamać? Nie widzę tutaj związku. Kłamstwo co prawda nie występuje u zwierząt, które jak już powiedziałem w mojej opinii nie myślą (w tym punkcie zakładam, że chcemy dowieść, że coś takiego jak myślenie istnieje, czyli odrzucam własną krytykę 2 punktu). Ale jeśli tworzymy maszynę, która ma kłamać to czy nie tworzymy kłamcy na pokaz, w taki sam sposób jak tworzymy rozmówcę na pokaz? Dla mnie to to samo co tworzenie chodziarza na pokaz jak na przykład ATLAS od Boston Dynamiks. Nie uznałbym testu Turinga za dobry wykładnik z powodu braku abstrakcji. Jeśli maszyna sama zrozumie co to kłamstwo i będzie nas oszukiwać, aby np. dostać więcej RAMu to cała rozmowa zmienia znaczenie. Wtedy jak najbardziej uznałbym algorytm za myślący. Ale inne przypadki bardziej przypominają mi behawioryzm niż cokolwiek innego.
    4. Blob.
    Kochany blob. Czarna owca moich wypowiedzi. Ale spokojnie. Teraz nie jestem ograniczony czasem, więc wytłumaczę o co mi chodziło oraz odwołam się do krytyki. O co chodzi w porównaniu bloba do algorytmu Dijskry? O to, że nie muszę go porównać tylko do tego algorytmu. Mogę równie dobrze podać Q learning, A* , algorytmu Bellmana-Forda i wiele innych. To nic nie zmienia. Mówię, że zachowanie bloba jest przewidywalne, opisywalne algorytmem i zawsze takie samo. Ale te algorytmy działają tylko w zdefiniowanej przestrzeni! Przepraszam? Co!? A blob nie? Zdefiniowana przestrzeń to taka, w której mamy zasady działania np. w grafie odległość między punktami. Jak można powiedzieć, że w fizycznym świecie nie mamy zdefiniowanej przestrzeni? Jeśli komórka ma objętość i jest gdzieś umiejscowiona to sama definiuje tą przestrzeń istnieniem i połączeniem z innymi komórkami (Sam nie oskarżałbym żadnej komórki o posiadanie świadomości o swojej wielkości, ale o możliwość powiedzenia innej „ja jestem” jako metodzie znalezienia ilości komórek dzielących byt od pożywienia jako odległości już tak). Przecież dwie komórki nie mogą istnieć w tym samym miejscu i czasie. W naszym rzeczywistym świecie nie istnieje niezdefiniowana przestrzeń. Gdy komórka ma miejsce we wszechświecie to to miejsce jest jej i kropka. W skrócie w konkretnej jednostce czasu blob to jeden wielki, trójwymiarowy graf do przeszukania (blob sam w sobie jest bezkomórkowcem, ale posiada wiele jąder komórkowych, więc nadal nie widzę problemu w zdefiniowaniu problemu odległości od pożywienia jako „ilości jąder/wnętrzności dzielących mnie od pożywienia”). A jeśli ktoś mówi: To dowodzi inteligencji bloba! To bardzo chciałbym dowiedzieć się co powie o tej cieczy:
    This Liquid Can Solve Complex Mazes By Itself – YouTube.

  7. Adkrawcz pisze:

    Dzień dobry,

    Ja zupełnie poza tym tekstem zastanawiałem się czym różni nasze [ludzkie] myślenie od myślenia [wnioskowania] metod uczenia maszynowego szczególnie głębokiego uczenia maszynowego. Sztuczne sieci neuronowe są zbudowane na wzór naszego mózgu, to znaczy informacja wejściowa przechodzi przez wiele elementów pośrednich [neuronów] który każdy odpowiednio albo wzmocni dany impuls, albo go wytłumi. Efektem finalnym jest jakaś wartość na odpowiednich elementach końcowych, którą zarówno komputer, jak i nasza świadomość jest w stanie zrozumieć. Oczywiście sztuczne sieci są o wiele mniej skomplikowane, wydajne, odporne na błędy niż nasz mózg, ale przyjmuję założenie, że są podobne.

    Przechodząc do pytań i wniosków, które mi się nasuneły:
    1) Czy choroba w szczególności schizophrenia może być przyrównana do niewłaściwie nauczonej sieci neuronowej? – Jeżeli schizophrenia powoduje zmiany w mózgu w szczególności zmiany przewodnictwa, to odbierane impulsy będą źle interpretowane (niewłaściwe fragmenty informacji będą wzmacniane a właściwe wytłumiane) co spowoduje np. halucynacje. Zbliżony efekt obserwujemy w przypadku źle wytrenowanej sieci neuronowej – w przypadku rozpoznawania obrazów możemy otrzymywać dane zupełnie odbiegające od rzeczywistości. Niepoprawnie zaznaczone fragmenty, czy pomylone np. rasy zwierząt w stylu kot-pies.

    2) Czy można porównać autyzm do przetrenowanej sieci neuronowej? – Zdarza się, że osoby autystyczne są niezwykle dobre w rozwiązywaniu jakiegoś konkretnego problemu. W przypadku przetrenowanej sieci neuronowej efektem jest ogólne błędne działanie, ale w konkretnych przypadkach bardzo podobnych do przykładów treningowych efekty są bardzo dobre (poprawne). Czy więc te zachowania są zbliżone? Z bardzo specyficznymi danymi radzimy sobie dobrze a niewielka odchyłka powoduje, dalekie od poprawnych rozwiązania.

    Te dwa powyższe przykłady skłaniają mnie do wniosków w stylu Turinga, że ludzki mózg jest tylko „ludzką maszyną cyfrową” – jest wiele różnic najistotniejsza według mnie to, że ludzki mózg ma 86 miliardów[1] neuronów i ponad 100 trylionów (lub według niektórych szacunków 1000 trylionów) synaps (połączeń). Liczba „neuronów” w sztucznych sieciach jest znacznie mniejsza (zwykle w przedziale 10-1000), oczywiście porównywanie ich liczb w ten sposób jest mylące i niepoprawne, chociażby ze względu różne algorytmy działania różnych sztucznych sieci neuronowych, ale daje pojęcie o różnicy wielkości. Wracając do pytania, czy maszyny mogą myśleć jak ludzie? Moim zdaniem odpowiedź jest twierdząca: TAK mogą i prędzej czy później będą.

    Ciekawym pytaniem jest też to, jak zmieni się myślenie, gdy okaże się, że nie jesteśmy najinteligentniejsi na świecie? Przyjemnie się zakłada, że żaden dotychczas istniejący na ziemi gatunek nawet się nie zbliżał do naszej inteligencji. To nie musi być zawsze prawdą i co wtedy?

    Zachęcam do przeczytania poniższego artykułu ponieważ dokładnie opisuje różnice między ludzkim a sztucznym „mózgiem”:

    [1] – https://towardsdatascience.com/the-differences-between-artificial-and-biological-neural-networks-a8b46db828b7

    • WZ pisze:

      Przed odniesieniem się do pytań postawionych przez @Adkrawcz warto wyraźnie zaznaczyć, że mechanizmy wykorzystywane w uczeniu maszynowym są silnie inspirowane naturą, ale w zależności od konkretnych metod te inspiracje są bardziej lub mniej dokładne. W przypadku np. Algorytmu Mrówkowego (Ant colony optimization algorithm) opracowanym na podstawie zachowań mrówek podczas poszukiwania pożywienia, można stwierdzić, że implementacja algorytmu jest bezpośrednim przeniesieniem schematu postępowania w świat cyfrowy. Wynika to z tego, że sposób ‘opracowany’ przez mrówki został dokładnie zbadany, co pozwala na jego pełne zrozumienie. Zupełnie inaczej jest w przypadku sieci neuronowych, gdzie procesy związane z myśleniem nie są dokładnie zbadane, a sposób implementacji takiej sieci bazuje w głównej mierze na modelu matematycznym niż sposobie działania mózgu. Inspirację neuronami można odnieść bardziej do schematu zawężania procesu decyzyjnego, tj. z wielu parametrów wejściowych otrzymujemy zazwyczaj (choć nie zawsze) binarne wyjście, które jest finalną decyzją.

      Próbując odpowiedzieć na postawione pytania:
      Czy choroba w szczególności schizofrenia może być przyrównana do niewłaściwie nauczonej sieci neuronowej?

      Gdyby mózg i sieć neuronową potraktować w kategoriach czarnej skrzynki, faktycznie można znaleźć wiele podobieństw. Osoby dotknięte schizofrenią, mogą błędnie odbierać niektóre bodźce, a nawet doświadczać takich, które nie mają swojego źródła w otaczającym ich świecie. Podobnie źle nauczona sieć neuronowa, która błędnie klasyfikuje dane wejściowe może zwracać nieprawidłowe wyniki. Jeśli jednak zajrzymy wewnątrz czarnej skrzynki, przyczyny stojące za tymi zjawiskami są zupełnie inne. Nie jestem przekonany, czy można porównywać ze sobą dwa tak różne mechanizmy, z których tylko jeden jest nam w pełni znany.

      Czy można porównać autyzm do przetrenowanej sieci neuronowej?
      Argumentem, który został podany przez użytkownika @Adkrawcz, przemawiającym za poprawnością tego porównania jest niekiedy obserwowana nadzwyczajna predyspozycja do rozwiązywania jakiegoś konkretnego problemu przez osoby z autyzmem, a następnie odniesienie tego zjawiska do przetrenowanej sieci, która zwraca poprawne wyniki tylko dla określonego zbioru danych. Warto zaznaczyć, że każda sieć jest wyraźnie ukierunkowana na rozwiązywanie bardzo konkretnego problemu. W przypadku sieci przetrenowanej nie możemy mówić o bardzo dobrych wynikach dla konkretnego zbioru, tylko o nieskutecznej klasyfikacji. Wynika to z tego, że podstawową ideą stojąca za siecią neuronową jest jej zdolność do poprawnej klasyfikacji niezależnie od zbioru danych. Tym samym uważam, że przedstawione porównanie jest również błędne.

    • Andrzej Borkowski pisze:

      Na początek chciałbym odnieść się do wniosku, że maszyny będą myśleć jak ludzie. Otóż co do zdolności obliczeniowej – jak najbardziej się zgadzam. Jednak moim zdaniem na charakter funkcjonowania ludzkiego umysłu, jego „kształt”, wpływ mają dwa trudne do odwzorowania w maszynie czynniki: dokładna struktura neuronowa oraz ludzkie zmysły. Chyba bardziej istotnym czynnikiem są tutaj zmysły właśnie; to one tak naprawdę odpowiadają za to, jakimi sygnałami karmione są nasze umysły. Wyobrażam sobie, że nasze zachowania i osobowości w bardzo dużym stopniu wynikają z tego, czego doświadczamy i z tego, jak tego doświadczamy. Jeśli chodzi o ogólną zasadę działania, to ze sztuczną inteligencją jest podobnie. Nie wyobrażam sobie jednak, aby w najbliższej przyszłości możliwe było stworzenie maszyny z idealnie odwzorowanymi ludzkimi zmysłami. Z tego powodu nie spodziewam się maszyn myślących dokładnie jak ludzie. Ciekaw też jestem, czy sposób ukształtowania umysłów osób ślepych albo głuchych jest w zauważalny sposób inny niż w przypadku umysłów mających dostęp do wszystkich zmysłów.

      Odpowiadając z kolej na pytanie, co będzie, gdy nie okaże się, że nie jesteśmy już najinteligentniejsi; nie zdziwię się, gdy zobaczę sztuczną inteligencję, czy nawet zwierzę, wykonujące jakieś zadanie umysłowe sprawniej niż człowiek. Spodziewam się, że SI będą wyjątkowo sprawne w przeznaczonych im zadaniach – będą odnajdywały się w postawionych przed nimi zadaniach i, na miarę swoich możliwości, będą w nich dobre. Nawet maszyny o wielkiej mocy obliczeniowej nie będą jednak lepsze niż człowiek w byciu człowiekiem. Nie wątpię, że będą bardziej inteligentne, ale nie sądzę, żebyśmy powinni się tym zbytnio przejmować, dopóki będziemy pilnować dziedzin, którymi będą się zajmować. Świadomość istnienia bardziej inteligentnych od nas istot to coś, z czym większość z nas musi żyć – zawsze znajdzie się inteligentniejszy człowiek.
      Porównywanie inteligencji SI i człowieka wydaje mi się podobne do porównywania samochodu wyścigowego i koparki – w różnych kategoriach mają zupełnie różne możliwości, wynikające z innych czynników, mających wpływ na ich ukształtowanie. Najlepszymi ludźmi zawsze będą ludzie.

      Powszechność inteligentnych maszyn mogłaby jednak istotnie dużo zmienić. Uwolnienie ludzi od wysiłku umysłowego przez zatrudnienie do niego maszyn może takie procesy usprawnić, ale jeśli ludzie nie znajdą innych w ich miejsce, mogą się rozleniwić. Potencjalnie pozytywnym z kolei aspektem powszechności SI o ponadludzkim intelekcie byłaby szansa dla ludzi na myślenie z pokorą o sobie samych. Co mogłoby oczywiście prowadzić też do życia z wiecznie urażoną dumą, mogącego przerodzić się w niechęć do SI.

  8. EWawrzyn pisze:

    Dzień dobry,

    Myślenie jest bardzo złożonym procesem, którego człowiek nie do końca jest świadomy. Ludzie mimo dużej inteligencji, często wybierają drogie kierując się instynktami. Nie zawsze wybieramy to co logiczne tylko to co podpowiada nam intuicja (nie obciążając nadmiernie umysłu i nie analizując wszystkiego). Według mnie maszyny nie są w stanie myśleć, tylko rozwiązywać problemy matematyczne.

    Irracjonalizm jest możliwy jedynie w ludzkim umyśle, wszystkie rzeczy dziejące we wszechświecie są racjonalne. Wszystko jest zgodne z prawami fizyki a zachowania zwierząt są naturalne, wyłącznie w ludzkim umyśle może narodzić się irracjonalizm (prof. Andrzej Staruszkiewicz, uważał że może być to argument na rzecz duchowości) [1]. Maszyny posługujące się algorytmami sztucznej inteligencji nie mogą zachowywać się irracjonalnie, ich wynik zawsze będzie zależny od danych wejściowych. Jeżeli maszyna popełni błąd będzie to spowodowane błędem w programie lub złe wzorce. Algorytmy sztucznej inteligencji jednak są zbiorem wielu instrukcji warunkowych i działań matematycznych.

    Błędy w programach są traktowane zero jedynkowo, maszyny nie są w sanie wykorzystać swojego błędu. Johannes Kepler w trakcie analiz nad orbitą Marsa popełnił błąd w obliczeniach, który doprowadził go do prawidłowego wyniku/odkrycia [2].

    Człowiek bardzo często zmienia swoje zachowania w skrajnie złych warunkach, które często obnażają prawdę o nim. Nigdy nie można odebrać człowiekowi wyboru, nawet w skrajnych nieludzkiej sytuacji [3]. Maszyny według mnie nie są w stanie się zmienić w zależności od warunków, jest to dalej program, który będzie analizował wszystko racjonalnie. Maszyna jest zbiorem instrukcji, który zawsze będzie zachowywała się tak samo nie zależnie od warunków.

    Ludzie nie analizują wszystkiego przy podejmowaniu wyborów, bardzo często posługują się intuicją. Za bardzo obciążające i szkodliwe jest ciągłe analizowanie wszystkiego co się dzieje dokoła [4]. Algorytmy sztucznej inteligencji jedynie co potrafią to analiza i wybierać najbardziej prawdopodobnej rzeczy. Maszyny nie mogą posługiwać się intuicją i nie będą mogły ponieważ zasadą ich działania jest analiza.

    Maszyna jest zdolna jedynie do rozwiązywania problemów matematycznych i racjonalnych operacji. Myślenie człowieka jest dużo głębszym procesem (z pewnością jeszcze nie do końca odkrytym), według mnie nie można go porównywać do płytkiego myślenia maszyn (zbioru instrukcji). Według mnie Turing był uzależniony od rozwiązywania problemów matematycznych, przez co utożsamiał to z „całym” myśleniem.

    [1] ks. prof. Michał Heller, „Moralność myślenia”
    [2] ks. prof. Michał Heller, „Michał Heller, Geniusze Wszechświata”, https://www.youtube.com/watch?v=BI3wD1t68Sg&ab_channel=CopernicusCenterforInterdisciplinaryStudies
    [3] Viktor Frankl, „Człowiek w poszukiwaniu sensu”
    [4] Kahneman Daniel, „Pułapki myślenia. O myśleniu szybkim i wolnym”

    • rktx pisze:

      > Maszyny posługujące się algorytmami sztucznej inteligencji nie mogą zachowywać się irracjonalnie, ich wynik zawsze będzie zależny od danych wejściowych.

      Jest wiele algorytmów zawierających element losowości, zarówno w celu poprawienia jakości wyników, jak i optymalizacji.

      > Nigdy nie można odebrać człowiekowi wyboru, nawet w skrajnych nieludzkiej sytuacji
      Jeśli wybór zdefiniujemy jako podjęcie decyzji niezależnie od czynników zewnętrznych (danych wejściowych), to wydaje mi się, że nie można powiedzieć, że człowiekowi nie można odebrać wyboru. Dobrym przykładem braku wyboru jest końcówka roku 1984 G. Orwella.

      Jeśli definiujemy wybór jako możliwość podjęcia decyzji, to nie to samo możemy powiedzieć o najprostszym algorytmie losującym.

      Argument o irracjonalności ludzkiego myślenia jest słaby – często internetowe boty spamujące zdradza właśnie irracjonalność odpowiedzi.

      > Błędy w programach są traktowane zero jedynkowo, maszyny nie są w sanie wykorzystać swojego błędu. Johannes Kepler w trakcie analiz nad orbitą Marsa popełnił błąd w obliczeniach, który doprowadził go do prawidłowego wyniku/odkrycia

      W pełni się zgadzam, że często przypadek może prowadzić do wielkich odkryć.
      Jestem jednak zdania, że nie jest to umiejętność właściwa dla ludzi.
      W algorytmach ewolucyjnych operacja mutacji jest formą błędu, który jest wykorzystywana, aby uniknąć skupienia przeszukiwania na optimach lokalnych.

      • EWawrzyn pisze:

        W algorytmach uczenia maszynowego nie wykorzystywane są wartości losowe, tylko pseudo-losowe, najczęściej z ograniczonym przedziałem i określonym rozkładzie. Na wyjściu danego algorytmu oczekujemy konkretnego poprawnego wyniku (np. przy algorytmach optymalizacji czy monte carlo), nie irracjonalnego rozwiązania. Błędny wynik na wyjściu jest spowodowany błędami w algorytmu, np. źle dobrane wagi. Irracjonalne zachowania ludzi nie jesteśmy w stanie często wyjaśnić. W książce Bracia Karamazow Fiodora Dostojewskiego w pobocznej historii, opisane jest jak małżeństwo pochodzące z dobrej rodziny znęcało się nad swoim dzieckiem, mimo to że całe życie otaczali się w „moralnym” środowisku. Algorytm któremu dostarczymy w większości moralnych przykładów będzie zachowywał się moralnie (chyba że będzie wynikało to z błędu).

        Według mnie argument o losowości (która w IT jest pseudo losowością) jest słaby, czym innym jest błąd w algorytmie a irracjonalne myślenie.

  9. M.Stachyra pisze:

    Dzień dobry.

    W swoich rozważaniach zakładam deterministyczny świat, odrzucam argumenty niezwiązane z nauką oraz zakładam, że mózg, nie przetwarza danych z mocą zbioru liczb rzeczywistych.

    W tekście „Czy komputery mogą myśleć” Searle wypowiada słowa:

    Dlaczego wobec tego spotkać można osoby, które w dobrej wierze zakładają, iż symulacja procesów psychicznych zawiera autentyczne procesy psychiczne? W gruncie rzeczy nie znam odpowiedzi na to pytanie, gdyż tego typu idea, mówiąc szczerze, od początku wydaje mi się szalona.

    Na początku, chciałbym wyjaśnić, dlaczego taka hipoteza istnieje, a aby tego dokonać odniosę się do funkcjonalności nauki oraz komputera cyfrowego.

    Moim zdaniem nauka (co najmniej teoretyczna) polega na oddzieleniu materii (informacji) od formy (świata materialnego) i zapisaniu jej za pomocą wskazanego języka.
    Zadaniem komputera jest natomiast nadanie każdego rodzaju materii zapisanej w odpowiedni sposób (za pomocą reguł logicznych), formy (w postaci cyfrowej) oraz jej przetwarzania.
    Searle w swoich rozważaniach przyjmuje bardzo prosty (nie ze względu na moc, ale na sposób działania) model komputera, który wykonuje jakiś prosty przepis, nie biorąc pod uwagę bogactwa jego zasadniczej funkcji.

    Moja uboga wiedza biologiczna nie wskazuje żadnego powodu, aby informacja na temat działania np. mózgu wyróżniała się tym, że nie da się jej zapisać oraz przetworzyć cyfrowo.
    Co więcej, chciałbym zauważyć, że jeśli świat da się opisać za pomocą reguł logicznych (czego od lat próbują dokonać fizycy, szukając teorii wszystkiego), komputer byłby w stanie nadać takim regułom elektroniczną formę i z pewnym przybliżeniem (wynikającym z mniejszej mocy zbioru liczb, na których operuje) wcielić je w rzeczywistość.

    Searle uważa, że przetwarzanie w sposób elektroniczny nie jest faktycznym „odbywaniem się” w sensie fizycznym, argumentuje to między innymi mniejszymi możliwościami komputera.
    Jednakże jeżeli forma (w postaci energii impulsów elektromagnetycznych przemieszczających się przez 4 wymiary świata fizycznego) jest w stanie utworzyć umysł na podstawie materii (reguł fizycznych), to nie ma powodu, aby forma (w postaci przebiegu energii elektrycznej w 4 wymiarach świata) nie mogła zrobić tego samego.
    Właśnie w taki sposób informacja zapisana syntaktycznie, może zostać wcielona w życie i nabrać wartości semantycznej.

    Dodatkowo Searle do tematu myślenia podchodzi w sposób oparty na intuicji.
    Autor świadczy, że wie kiedy myśli, a kiedy bezmyślnie informacje przetwarza i taki subiektywny model stara się przełożyć na byt komputera.
    Myślenie opisane przez przykłady Searle przypomina sieć skojarzeń – strukturę, która jest badana oraz w pewnej formie implementowana przez badaczy sztucznej inteligencji.

    W swoim tekście Searle fromułuję analogię pokoju, do której również chciałbym się odnieść:

    Aby określić brak umysłu (czyste wykonywanie poleceń) w alegorii wprowadziliśmy agenta posiadającego umysł (nas), wykonującego polecenia bez jego użycia.
    Agent, wiedząc dokładnie jak działa system może stwierdzić, że system wykonuje proste czynności, bez czynnika, który agent na swoim przykładzie definiuje jako świadome myślenie.
    Więc czy agent znający architekturę człowieka mógłby nazwać go prostym urządzeniem?
    Czy może warunkiem aby system był świadomy w sensie „chińskiego pokoju” jest zdolność generowania tych informacji (jako przeciwieństwo użycia statycznego mapowania pomiędzy percepcją, a reakcją)? Do tego zdolny jest zarówno człowiek, jak i komputer.

  10. Ignacy Sosnowski pisze:

    Alan Turing zasugerował, że maszyny wyciągając logiczne wnioski są w stanie rozwiązywać problemy i podejmować decyzje tak samo jak robi to istota ludzka. Po dokładnym zapoznaniu się z artykułem Alana Turinga przyznaję, że w pewnym stopniu popieram jego teorię, ale mam jednak pewne wątpliwości dotyczące czasu, który musi upłynąć, zanim maszyna zdobędzie takie umiejętności oraz poziomu zaawansowania zdolności myślenia u maszyny.

    Warto przyjrzeć się wydanej w 1673 kartezjańskiej Rozprawie o metodzie, w której to, uczony przyznał, że człowiek jest w stanie skonstruować myślący automat, który w pewien sposób pod względem umiejętności może być zbliżony do zwierzęcia, ale nie do człowieka, ponieważ automatyczna maszyna będąca wytworem rąk ludzkich nigdy nie będzie w stanie opanować mowy i ludzkich emocji, które są niezbędne w procesie myślenia. Przemyślenia Kartezjusza stały się ramami koncepcyjnymi w teście Turinga.

    Podążając za śladem Turinga należy zastanowić się w jaki sposób możemy zdefiniować myślenie? Moim zdaniem, myślenie jest czymś więcej niż grą naśladowczą, której zasady jesteśmy w stanie wpoić stworzonej maszynie.

    Według mnie myślenie jest ściśle powiązane z emocjami, których nie jesteśmy w stanie nauczyć sztucznie stworzone maszyny. Każda myśl budzi emocje, emocje są nieodłącznym elementem każdej, nawet najmniejszej i z pozoru najbardziej trywialnej myśli, pojawiającej się w ludzkim umyśle.

    Jestem przekonany, że pewnego dnia człowiek będzie w stanie stworzyć idealną maszynę, której wykonywanie obliczeń lub analiz niepojętych dla ludzkiego umysłu nie będzie sprawiało żadnych problemów, ale nigdy nie będzie to maszyna zbliżona pod względem zdolności myślenia do człowieka, u którego proces myślenia związany jest również ze złożonym układem nerwowym.

    • rktx pisze:

      W pełni się z Panem zgadzam, co do wagi emocji w ludzkich emocji w procesie myślenia, a w szczególności problemie jego odwzorowania.

      Wydaje mi się jednak, że argument, że maszyn nie można nauczyć emocji jest wątpliwy. Współczesne algorytmy są w stanie klasyfikować emocje w tekście (np. narzędzie Grammarly), a generowanie zdań wyrażających określone emocje jest temat wielu prac naukowych.

      Emocje są w dużej mierze wypadkową doświadczenia jednostki – trauma z dzieciństwa może wpłynąć na stosunek do danego tematu.

      Warto też zwrócić uwagę, że w niektórych sytuacjach sama imitacja emocji nie jest aż tak istotna, jak umiejętność ich odczytu – pewnym elementem dojrzałości człowieka jest umiejętność hamowania swoich emocji, gdy jest taka potrzeba, na przykład w pracy.

      Istnieją też zaburzenia, które powodują trudności w rozpoznawaniu emocji u innych osób (np. spektrum autyzmu), a nie można powiedzieć, że osoby z autyzmem nie myślą, zwłaszcza, że wiele osób z autyzmem ma bardzo rozwiniętą umiejętność kreatywnego myślenia.

  11. mmon pisze:

    Dzień dobry,

    Ciekawe spojrzenie na pytanie o to, czy komputery mogą myśleć prezentuje argument Johna Searle’a o chińskim pokoju. Jego esencją jest to, że komputery nie mogą myśleć, ponieważ nie mogą opanować semantyki, czyli przypisywania znaczeń określonym symbolom.

    Zacznijmy od tego, że trudno jest (przynajmniej mi) bezsprzecznie określić czym tak naprawdę jest myślenie. Searle przyjął, jak mniemam, w pewnym sensie podejście intuicjonistyczne – znaczenia, jak rozumiem, związane są z naszymi zmysłami, uczuciami czy wyobraźnią. Nie uznaję jednak takiej definicji myślenia jako do końca poprawnej, przynajmniej w kontekście pytania. Przypisywanie znaczeń symbolom wydaje mi się raczej domeną samej wyobraźni. Mogłoby się wydawać, że jedno wymaga drugiego, jednak przypadki ludzi z afantazją (brakiem możliwości wizualizacji obrazów, obecnym nawet u niektórych artystów) skłaniają mnie do przeciwnego zdania. Spróbuję na razie zaproponować inną definicję: może to być proces wykrywania wzorców w otaczającej nas rzeczywistości (czy też raczej naszego obrazu rzeczywistości) i wyciągania z nich wniosków, by osiągnąć jakiś cel. Nie ulega wątpliwości, że maszyny potrafią wykonać pierwsze zadanie (czy to w skali mikro, na przykład przetwarzając wyrażenia regularne, czy w skali makro, przy rozpoznawaniu obiektów przez sieci neuronowe). Drugie kryterium także może być spełnione przez komputery – ponownie sieci neuronowe, mianowicie ich uczenie się, czy też wręcz zwykły proces aktualizacji oprogramowania pokazują, że może być to osiągalne. Podejrzewam, że właśnie taką definicją posługiwali się wspomniani w tekście badacze sztucznej inteligencji, choć osobiście uważam, że jeszcze nie można mówić o myśleniu maszyn, nawet w przypadku najbardziej zaawansowanych sieci neuronowych pokroju GPT-3.

    Dlatego może zaistnieć potrzeba zaostrzenia tej definicji, dodając, w jakim stopniu te procesy mają zachodzić – istota myśląca, taka jak człowiek, powinna zatem to robić w całej dziedzinie swojego postrzegania, tak, by móc osiągnąć dowolny cel. W naszej dyskusji na temat superinteligencji padło określenie barier pokonywanych przez inteligencję, mianowicie sugestia, że superinteligencja mogłaby przekraczać bariery nieprzekraczalne dla człowieka. Możliwe jednak, że każda inteligencja, mając wystarczająco dużo czasu (i być może pamięci) mogłaby pokonać dowolną fizycznie przekraczalną barierę, czy rozwiązać dowolny rozwiązywalny problem. I tutaj pojawia się kwestia barier nieprzekraczalnych – problem stopu bowiem mówi, że niemożliwe jest stworzenie maszyny cyfrowej, która oceniałaby, czy dany program się zapętla. Człowiek z kolei prawdopodobnie mógłby ocenić to dla każdej maszyny. Mogłoby się wydawać, że człowiek jest zatem „wyższym” bytem od maszyny, jednak należy pamiętać, że rządzą nimi inne mechanizmy – komputer nie może tak po prostu wywołać funkcji człowieka badającego zatrzymywanie się maszyny cyfrowej.

    Jednak nawet posługując się definicją Searle’a, można próbować odeprzeć jego argumentację. Semantyka, jak wynika z argumentu, jest częścią umysłu człowieka, nie otoczenia – człowiek zamknięty z symbolami, których nie rozumie nie może jej wykorzystać. Nie zgodzę się jednak, że chiński pokój jest jej całkowicie pozbawiony – człowiek musi rozumieć, czyli w sposób semantyczny przetworzyć instrukcje zawarte w książce (nie dałoby się pewnie zlikwidować semantyki bez wyrzucenia człowieka, a o porównanie z człowiekiem właśnie chodziło). Analogicznie rozumowanie można by zastosować do komputerów, zatem o ile programy same w sobie są jedynie zbiorem syntaktycznych reguł, o tyle maszyna cyfrowa jest nie tylko programem, ale też sprzętem, który go wykonuje. To, czy argument jest poprawny, zależy więc od tego, czy maszyny mogą mieć wbudowaną semantykę. Searle z miejsca odrzucił taką hipotezę, jednak ja tego nie wykluczam. Mogłoby się wydawać, że właśnie takie symbole, jak w programie komputer mógłby rozumieć. Warto jednak zaznaczyć, że ludzie „posługują się” innymi symbolami niż neurony, stanowiące najmniejsze jednostki mózgu – symbole te są powiązane ze zmysłami. Ważna jest też forma danych – wątpię, żeby ktokolwiek był w stanie rozpoznać obraz na podstawie odczytu sygnałów wędrujących z oka do mózgu. Dochodzę więc do wniosku, że aby zaistniało myślenie takie jak według Searle’a , to maszyna powinna mieć coś w rodzaju zmysłów – mechanizmów wejścia danych blisko związanych z funkcjonowaniem maszyny, niekoniecznie związanych z ludzkimi zmysłami.

  12. sinus cosinus pisze:

    Dzień dobry,

    Turing utożsamiał myślenie z jego zewnętrznymi objawami, a więc ze zdolnością rozwiązywania problemów. Jest to moim zdaniem dobre podejście na czasy kiedy żył, ale w dzisiejszych realiach już się nie sprawdza. W końcu mamy dostęp do kalkulatorów które są w stanie w kilka sekund rozwiązać najtrudniejsze zadania matematyczne bez popełniania błędów – co według Turinga wskazuje na wysoką zdolność do myślenia, ale tylko w konkretnej dziedzinie, jednak każdy się zgodzi że kalkulatory nie myślą.

    Istnieje więcej takich przykładów – roboty zdolne do autonomicznego poruszania się czy chatboty udające ludzi. Warto tutaj przytoczyć argument chińskiego pokoju Searle’a, który (w dużym uproszczeniu) zakłada umieszczenie w pokoju komputera, która dostaje pytania w języku chińskim oraz udziela na nie odpowiedzi, które nie wynikają z jej zrozumienia języka, ale są bardziej wyuczonymi formułkami. Searle chce udowodnić tym, że komputery cyfrowe operując jedynie na symbolach formalnych nie jest w stanie nauczyć się znaczenia języka. Wystawia również diagnozę komputerom cyfrowym, iż nie są w stanie myśleć.

    Po części nie zgadzam się z Searlem co do skazywania komputerów cyfrowych na straty. Wydaje mi się to dość absurdalne biorąc pod uwagę, że kilkadziesiąt lat istnienia komputerów to niewyobrażalnie mało w porównaniu do milionów lat ewolucji ludzi, a nowe odkrycia takie jak komputery kwantowe czekają za rogiem. Tak jak postęp stworzył urządzenia które zakwalifikowały się pod Turingowską definicję myślenia, mógłby sobie również poradzić z Searle’owską definicją.

    Jednak w argumencie chińskiego pokoju Searle’a najbardziej zainteresował mnie nie problem uczenia się komputerów, ale sam sposób przeprowadzania testów.
    Otóż zmieńmy trochę sytuację, umieśćmy w pokoju prototyp komputera myślącego wg. definicji Searle’a, w drugiej komputer niemyślący. Skoro dostajemy takie same odpowiedzi, to skąd mamy wiedzieć czy komputer-prototyp myśli czy nie?

    Skoro odpowiedzi nic nam nie dadzą, odpowiedź na to pytanie możemy poznać tylko kiedy znamy zasadę działania prototypu. Tutaj dochodzimy do momentu gdzie o istnieniu myślących maszyn nie decyduje test komputera, ale ludzie. Sprawia to, że komputer myślący nie jest w stanie udowodnić swojego myślenia, co skłania mnie do refleksji iż uznawanie rozumienia semantyki języka, emocji lub innych niemierzalnych odczuć za aspekty myślenia jest drogą donikąd.

    • Andrzej Borkowski pisze:

      Chciałbym odnieść się do przykładu chińskiego pokoju. Jeśli komputer udziela poprawnych odpowiedzi, to moim zdaniem myśli w stopniu wystarczającym, aby realizować dane zadanie. Jako uzupełnienie chciałbym podzielić się spostrzeżeniem: nauka języków na poziomie podstawowym często sprowadza się właśnie do takiego mechanicznego powtarzania formułek. Można powiedzieć: bezmyślnego, ale jednak jest to jakaś czynność ludzkiego umysłu, prosta myśl. Oczywiście, chatbot nie rozumie języka tak jak językoznawca, ale myślę że może zrozumieć go na poziomie odpowiadającym uczącemu się dziecku. Dziecko, używając języka, myśli też o innych rzeczach, jednak samo użycie języka nie jest niczym więcej niż procesy wykonywane przez SI. I owszem, w tym kontekście również o kalkulatorach można by powiedzieć, że myślą.

      Oczywiście wychodzę tu po prostu z innych założeń na temat myślenia. Uważam, że niesłusznie mamy tendencję do definiowania myślenia zero – jedynkowo; jeśli myśli jak zwierzę, to myśli, jeśli nie to nie. Wydaje mi się to podział sztuczny, podobny do takiego, jaki Kartezjusz widział między ludźmi z duszą, a zwierzętami bez duszy. Moim zdaniem nawet proste działania można nazwać myśleniem. Poziom komplikacji procesów umysłowych, po którego przekroczeniu dany proces nazwiemy myśleniem, wydaje mi się płynny i uznaniowy. Sądzę, że każdy umysł ma dziedziny, do których jest dobrze przystosowany. Wyjątkowość ludzkiego umysłu polegać może na tym, że naszą dziedziną jest właśnie zdolność przystosowania do nowych dziedzin. Trudno jednak oczekiwać tej zdolności od każdego umysłu.

    • WZ pisze:

      Dyskusja na temat tego, czy i kiedy maszynę można uznać za myślącą po raz kolejny sprowadza się do zdefiniowania pojęć podstawowych. W tym przypadku określenia czym jest myślenia oraz jak poprawnie sklasyfikować byt jako myślący. Jak to zazwyczaj bywa, ile definicji tyle opinii, przez co ciężko jest jednoznacznie wyznaczyć oś dyskusji.
      Odnosząc się do eksperymentu myślowego związanego z chińskim pokojem, za trafne uważam stwierdzenie, iż odpowiedzi dawane przez komputer są mechaniczne, nie jest wystarczającym do tego, aby odrzucić tezę o zdolności maszyn do myślenia. Ale jeśli człowiek wchodząc w rozmowę z komputerem nie jest w stanie stwierdzić kim jest rozmówca, czy jest to wystarczające do potwierdzenia zdolności maszyn do myślenia?
      Warto zastanowić się co wpływa na to, że ludzi określa się mianem istot myślących. Odniosę się do wspomnianego procesu uczenia się przez dzieci. Czy dziecko można uznać za myślące, kiedy powtarza, często bez zrozumienia, zadane formułki? Wydaje się, że nie, a sam proces bardzo przypomina mechanicznie odpowiadający komputer. Zdolność myślenia, jednak przejawia się wtedy, kiedy dziecko potrafi przywołać konkretną formułę do postawionego problemu w celu jego rozwiązania (poprawna odpowiedź w dialogu w obcym języku, zastosowanie odpowiedniego schematu dla wybranego zadania matematycznego). Następnie odpowiedź zostaje zweryfikowana przez nauczyciela, przy pomocy informacji zwrotnej w postaci oceny. W przypadku uczenia maszynowego cały mechanizm działa bardzo podobnie. Za główną różnice pomiędzy tymi przypadkami, można uznać to, że dziecko jest świadome swojego uczestnictwa w procesie nauczania, a maszyna nie. Na obecną chwilę zakres rozwiązania zapewniany przez metody uczenia maszynowego jest bardzo wąski i ściśle ukierunkowany na konkretny problem. Nie można jednak wykluczyć, że wraz z biegiem czasu, spektrum to będzie bardzo szerokie. W wyniku czego, próba rozróżnienia, czy wchodzi się w interakcję z człowiekiem, czy z maszyną będzie niemożliwa. Czy to będzie tożsame z potwierdzeniem zdolności maszyn do myślenia – nie wiem, ale z pewnością nie będzie można kwestionować zdolności maszyn do przejawiania zachowań postrzeganych z perspektywy obserwatora, jako opartych na procesach myślowych.

      • PrzemyslawB pisze:

        Skupie się na końcowej części wypowiedzi użytkownika WZ. Obawy , o których mówi w swojej wypowiedzi, tj. niemożliwość rozróżnienia, czy wchodzimy w interakcje z człowiekiem czy z maszyna, a tym samym potwierdzenie myślenia maszyn według mnie są bezpodstawne. Bowiem przewaga ludzkiego mechanizmu myślenia jest umiejętność posiadania wielu aspektów myślowych oderwanych od siebie. Tłumacząc to prościej. Najdoskonalsze maszyny i sztuczne inteligencje, które obecnie posiadamy są ograniczone do pojedynczej/kilu dziedzin lub umiejętności. W znakomitej większości obce jest im myślenie abstrakcyjne, „przeskakiwanie” z tematu na temat. Rozumienie ironii wykracza poza ich możliwości. Jeżeli maszyna podaje nam poprawy wynik, to mówimy na pewno o dziedzinie, w której ten jeden poprawy wynik istnieje(matematyka, fizyka, nauki ścisłe).
        Pojawiła się w dyskusji kwestia uczenia dzieci, które odpowiadają w sposób „jakby mechaniczny”, niemal jak komputer. I tak zgadzam się z tym stwierdzeniem, jednakże dzieci, mimo swoich wyuczonych regułek, potrafią zaskoczyć odpowiedzią której się nie spodziewamy, wynikającą ze znalezienia jakiejś nowej analogi, której my, dorośli nie dostrzegamy.
        Reasumując uważam, że mimo stworzenia sztucznej inteligencji umożlwiającej komunikacje nierozróżnialna z człowiekiem w danej dziedzinie, w innych staje się „upośledzona” i zrównana z poziomem kilkuletniego dziecka, które odpowiada wyuczoną formułką, tylko czasem potrafiąc zaskoczyć niecodzienną odpowiedzą.

  13. Mateusz pisze:

    Mam wrażenie, że cała dyskusja powinna skupić się na zdefiniowaniu pojęcia “myśleć” i omówieniu metod rozpoznających wspomniane “myślenie”. Dopiero wtedy będzie można mówić o myślących maszynach. Niestety, ze względu na ludzką subiektywność tego określenia oraz rozłączność doświadczeń poszczególnych jednostek ludzkich (inaczej mówiąc: niemożliwość odczuwania lub rozumienia odczuć innych osób) moim zdaniem jednoznaczne zdefiniowanie tego pojęcia jest niemożliwe. Niemożliwym jest zatem zdefiniowanie odpowiednio rozwiniętych maszyn jako “myślące”.

    Analogiczne rozumowanie możemy przyjąć do zwierząt. Nie jesteśmy w stanie powiedzieć jednoznacznie, że zwierzęta nie są zdolne do “myślenia jak człowiek”, gdyż nimi nie jesteśmy (chodzi mi o bardzo dosłowne rozumienie tego stwierdzenia, tj., że nie jestem psem lub koniem, więc nie wiem, czy koń lub pies myśli jak ja, w swoim języku, swoimi definicjami, swoim kodem). Odnoszę więc wrażenie, że tak długo, jak człowiek i zwierzę (maszyna) nie opracują wspólnego kodu, który umożliwi komunikację i, względne, rozumienie siebie, wymianę informacji, ale też uczuć i poglądów, tak długo nie będziemy mogli tego określić.

    Zmierzając już powoli do konkluzji, zmuszony jestem na chwilę obecną postawić pogląd, że nasze rozumienie własnego “ja” jest mocno ograniczone brakiem możliwości “wejścia” w umysł innego człowieka, zwierzęcia lub maszyny, więc przyjmujemy, że inni ludzie odczuwają podobnie, bazując na naszym doświadczeniu oraz ich zachowaniach i twórczości, natomiast zwierzęta dążące jedynie do przetrwania gatunku bazują jedynie na podstawowych emocjach i instynktach, maszyny zaś, ze względu na to, że stworzone tak, by korzystać jedynie z narzędzi stworzonych przez człowieka, nie są zdolne do samodzielnego tworzenia i myślenia. Dopóki nie opracujemy metody umożliwiającej stworzenie takiego “połączenia”, dopóty wszelkie takie dyskusje będą jedynie zbiorem hipotez opartych na chwilowych definicjach i systemach wartości.

    • Wojtek pisze:

      Argument subiektywności myślenia spowodowanej niemożnością odczuwania i rozumienia odczuć innych osób, użyty przez Pana Mateusza jest moim zdaniem błędny. Badania z dziedziny psychologii potwierdzają ludzką zdolność (u osób w pełni zdrowych umysłowo) do empatii, czyli umiejętności rozpoznawania i współodczuwania stanów psychicznych u innych osób, lecz jest to nieistotne z punktu widzenia przyjęcia wspólnej definicji myślenia, jeśli uważamy, że myślenie jest czymś więcej niż posiadaniem różnorodnych stanów psychicznych. Gdybyśmy rozważali to w wąskiej kategorii, mianowicie myślenie = odczucia, emocje, to argument Pana Mateusza byłby wtedy poprawny. Uważam, że myślenie oprócz sfery emocjonalnej, jest również czymś uniwersalnym dla każdej jednostki, czyli umiejętnością rozwiązywania danych problemów, odpowiedniej reakcji na dane bodźce. I to jesteśmy w stanie zdefiniować jednoznacznie, pomimo doświadczeń poszczególnych jednostek. Moje pojęcie myślenia, jest bardziej ukierunkowane na złożoność czynności i wykonywanych interakcji pomiędzy obiektami będącymi podmiotem rozważania jako myślące.

      Idąc tym tokiem rozumowania, nie jest niezbędne pełne “wejście” w umysł drugiego obiektu, aby zakwalifikować go jako myślący, gdyż jesteśmy w stanie określić tę zdolność z “zewnętrznego” punktu widzenia. Przyjmując takie założenie, problemem jest zdefiniowanie, gdzie leży graniczna linia złożoności interakcji jakie potrafi przeprowadzić obiekt, aby móc go uznać za myślący, a nie samo zdefiniowanie pojęcia myślenia. Czy zwierzę jest na tyle zaawansowane, aby uznać je za myślące? Czy człowiek jest uznawany za obiekt myślący poprzez jego kreatywność i umiejętność do tworzenia wynalazków, co pozwoliło mu na zdominowanie innych gatunków żyjących na planecie? Zakładając scenariusz gwałtownego rozwoju maszyn i osiągnięcia przez nie, a następnie przekroczeniu złożoności interakcji na poziomie, w jakim znajdują się aktualnie ludzie, czy będą one w przyszłości uważać nas za osoby niemyślące? Moim zdaniem to jest kategoria, w której należy rozważać czy dany obiekt jest myślący.

      • Mateusz pisze:

        Panie Wojtku, moim zdaniem, myli empatię z “wejściem” wewnątrz cudzego umysłu. Empatię rozumiem jako właśnie nasz sposób na rozumienie innych osób i tu się całkowicie z Panem zgadzam. To, o co mi chodziło, to bardzo dosłowne połączenie pozwalające wejść w cudzy umysł. Tak długo, jak tego nie zrobimy, tak długo zmuszeni jesteśmy do korzystania właśnie z rozmienia innych przez pryzmat naszych własnych doświadczeń, naszych własnych systemów wartości i opierać się na badaniach porównawczych, które nie posiadają żadnej referencji poza zgodnością odpowiedzi większości osób, które również i dzisiejsza sztuczna inteligencja mogłaby zasymulować, przechodząc w ten sposób test na rozumienie emocji ludzi. Myślę, że dobrze będzie tu odnieść się do książki Philipa K. Dicka pod tytułem “Czy androidy marzą o elektrycznych owcach”. Co prawda jest to proza sci-fi, a nie praca naukowa, jednak wydaje mi się, że dość dobrze obrazuje ten problem. Tam, do odróżnienia androida od człowieka konieczne było sprawdzenie reakcji podświadomych ciała na pewne angażujące emocje informacje (jak np. walizka ze skóry niemowlęcia). Jednak już na początku lektury dowiadujemy się, że proste kłamstwo na temat pochodzenia badanego obiektu, czy jego wychowania, może podważyć jakość testu, który odnosi się stricte do danego systemu wartości i zespołu doświadczeń. Tam badana postać została uznana za androida, ale chwilę potem kłamstwo na wspomniany temat wprowadziło zawahanie ze strony badającego. Moim zdaniem taka sytuacja jest jak najbardziej możliwa i w świecie rzeczywistym. Nauczenie się poprawnych odpowiedzi i dodanie do tego zamieszania związanego ze zmiennymi typu pochodzenie, czy system wartości jest w stanie podważyć każdy wynik każdego badania na empatię, ale i na inne emocje.

        • Wojtek pisze:

          Panie Mateuszu, dziękuję za doprecyzowanie Pana myśli odnośnie “wejścia” wewnątrz cudzego umysłu. Rozumiem Pana podejście dotyczące definicji myślenia, tak stawiając tezę, przyznaję rację, iż niemożliwe jest stwierdzenie czy dany obiekt jest myślący, gdyż myślenie nie jest wcale zdefiniowane – i dla każdego obiektu jest określone indywidualnie. Uważam jednak, że takie kryterium jest zbyt rygorystyczne, sądzę, że prawdopodobieństwo na pełne wejście do cudzego umysłu jest bardzo małe, nawet gdyby okazało się to możliwe i bylibyśmy w stanie prześledzić doświadczenia, emocje danego obiektu, to wciąż, nasze własne doświadczenia i emocje w subiektywny sposób wpływałyby na takie badanie. Idąc dalej, gdybyśmy stworzyli wspólny kod porozumiewania się, to skąd pewność, że potencjalnie o wiele bardziej zaawansowana maszyna nie potrafiłaby, “wchodząc w jej umysł” zmanipulować wynikiem zwrotnym? W takim wypadku zgadzam się z Panem, iż niemożliwe jest stwierdzenie, że jakikolwiek inny obiekt niż my jest myślący, co więcej, uważam, że nigdy nie będzie to możliwe, z powodu wspomnianej wcześniej manipulacji. W moim rozumieniu myślenia, maszyna, nie musi posiadać empatii, jej myślenie może być zupełnie odmienne od aktualnych definicji językowych myślenia ludzkiego. Może posiadać system emocji, empatii niezrozumiały dla człowieka, lecz jesteśmy w stanie stwierdzić, że potrafi myśleć na podstawie obserwacji interakcji z otoczeniem i reakcji na bodźce. Oczywiście, istnieje możliwość, że nie stwierdzimy myślenia u myślącej maszyny, z powodu jej celowego, przemyślanego braku odpowiedzi na bodźce i braku interakcji.

    • Adam pisze:

      Panie Mateuszu, odnoszę wrażenie, że pisze Pan tak, jakby uważał Pan, że jako ludzie nigdy w pełni nie zrozumiemy ludzkiego umysłu. Myślę, że to błędne przeświadczenie – wprawdzie współcześnie ludzki mózg to dla nas jedna wielka tajemnica, którą w pełni odkryjemy prawdopodobnie za wiele lat, jednak to w końcu nastąpi, a wtedy nic nie będzie stało na przeszkodzie, aby zamodelować umysł człowieka w ,,umyśle” maszyny. Mówi Pan o niemożności zdefiniowania jednoznacznej definicji myślenia, co jest prawdą, ale temat można przedyskutować w pewnych ramach. I w aspektach, o których Pan wspomniał, nie do końca się z Panem zgadzam, jako że przede wszystkim oparł się Pan na wiedzy, jaką posiadamy na chwilę obecną. Nie sposób wejść z Panem w polemikę w temacie możliwości stworzenia wspólnego kodu w przyszłości, jednak nawet jeżeli weźmiemy pod uwagę tylko to, co wiemy teraz, ciężko jest mi się zgodzić z tym, co pisze Pan dalej – to nie tak, że współcześnie w interakcjach z innymi ludźmi czy nawet zwierzętami jesteśmy zmuszeni zdać się tylko na domysły. Mówiąc w ten sposób neguje Pan wszelkie osiągnięcia z dziedzin wiedzy takich jak psychologia czy behawiorystyka. Nie uważam się za eksperta w wyżej wymienionych dziedzinach, ale mam świadomość, że są na tyle rozwinięte, abyśmy byli w stanie wytłumaczyć wiele zachowań, reakcji, stanów psychicznych, itp., opierając się na badaniach naukowych, a nie jedynie na domysłach.

      • Mateusz pisze:

        Panie Adamie, moim zdaniem idzie Pan w swoich wnioskach za daleko. Myli Pan, w moim odczuciu, twierdzenie, że bez bezpośredniego wejścia w “mózg” maszyny nie porównamy „myślenia” maszyn z “myśleniem” człowieka, z rozumieniem zasad działania ludzkiego mózgu. Mózg zapewne zrozumiemy, nauczymy się nawet imitować bodźce chemiczne do tego stopnia, że będziemy mogli sterować podstawowymi emocjami. Ale tu pojawia się problem. Są to tylko emocje podstawowe, pozwalające przeżyć jednostce bądź stadu. Coś, co biblijnie można by nazwać 7 grzechami głównymi. Już ideologia chrześcijańska (judaistyczna pewnie też) zakłada, że człowiekiem w pełni uduchowionym będziesz dopiero, gdy nauczysz się kontrolować te instynktowne zachowania i emocje. W sposób analogiczny myślę o rozumieniu mózgu. Zrozumiemy sposób przetwarzania bodźców dotyczących tych naturalnych emocji, jednak bardziej złożone stany mogą okazać się poza naszym zasięgiem, gdyż wpływają nań, jak Pan wspomniał, nasze przeżycia, doświadczenia i systemy wartości. Dlatego uważam, że pełne zrozumienie wymaga bezpośredniego wejścia umysłem w umysł oraz, że do tego czasu będziemy zmuszeni do opierania się jedynie na hipotezach, również zależnych od systemów wartości osób je tworzących. Co do behawiorystyki i psychologii, to nie neguję ich dokonań, nie mniej wliczają się one w zbiór hipotez, o których wspomniałem, gdyż badania z tych dziedzin opierają się na porównaniu odpowiedzi, niezależnie od tego, czy są one podawane szczerze, czy też nie.

        • Adam pisze:

          Panie Mateuszu, oczywiście nie możemy mieć pewności, jak szybko, w jakim stopniu, a przede wszystkim, czy w ogóle poznamy ludzki umysł. Stawia Pan tezę, że nauka rozwinie się w taki sposób, że pozwoli na kontrolę podstawowych emocji. I być może ma Pan rację co do tego, ale osobiście nie sądzę, żeby, jak Pan to ujął, “złożone stany” były wtedy czymś nie do osiągnięcia. Jeżeli będziemy w stanie je zrozumieć oraz będziemy potrafili poddać dokładnej definicji nawet te prostsze stany emocjonalne, to co stoi na przeszkodzie, żeby doświadczenia życiowe przenieść na umysł maszyny w postaci modelu danych uczących? Myślę, że tą dyskusję można byłoby dalej prowadzić na płaszczyźnie bardziej filozoficznej, stawiając pytanie, czy zamodelowanie u maszyny tego samego sposobu myślenia jaki jest u człowieka, czyni ją myślącą w ludzkim sensie. Wspomina Pan także o różnych systemach wartości i nawet zakładając, że ma Pan rację, to co z systemem wartości programującego tę maszynę – dlaczego miałby być mniej ludzki, skoro opiera się na systemie wartości człowieka?

          • Mateusz pisze:

            Panie Adamie, założenie takie wywodzę z przeświadczenia o tym, że niektóre emocje odczuwamy tylko dzięki wychowaniu w danym środowisku, czy systemie wartości. Wspomniana wcześniej empatia jest tego wzorcowym przykładem, gdyż różne sytuacje mogą wzbudzić współczucie np. Ludzi z 1 kręgu kulturowego, a z 2 nie. Dlatego uważam, że niektóre stany są zależne np. od doświadczeń życiowych, ale też wielu innych zmiennych. Zmienne te możemy próbować imitować, nie mniej przez to, że są one poza “kodem bazowym” naszego mózgu, nie są po prostu reakcją na bodźce zewnętrzne, to stworzony model, o którym Pan wspomina, będzie zależny i subiektywny względem jego twórcy, a więc maszyna ta będzie dalej jedynie próbą naśladowania człowieka, o czym pisałem wcześniej. Bez wejścia w tę maszynę nie stwierdzimy, czy zaimplementowany algorytm np. sztucznej inteligencji, dostosowuje się do maszyny i jej aktualnych stanów, czy może jedynie imituje twórcę kodu bazując na życiu swojego pierwowzoru.

            • Adam pisze:

              Panie Mateuszu, co zatem stoi na przeszkodzie, żeby zaprogramować w jakiejś maszynie tylko te niektóre emocje? Tak jak mówi Pan o różnych kręgach kulturowych, tak równie dobrze możemy mówić o dwóch różnych zespołach pracujących nad dwiema różnymi maszynami. Tak jak w przypadku wychowania, gdzie ogromny wpływ na system wartości dziecka mają rodzice oraz otoczenie, w jakim to dziecko dorasta, tak samo wyobrażam sobie poddawanie maszynę różnym bodźcom charakterystycznym, na przykład, dla danego kręgu kulturowego, czy podawanie jej wyjątkowych dla tego kręgu bodźców. Myślę, że mówienie o istnieniu wielu innych zmiennych w żaden sposób nie potwierdza Pańskiej tezy, a mówi jedynie o tym, że potrzebny będzie o wiele bardziej skomplikowany model, uwzględniający część tych zmiennych na podstawie badań i o wiele lepszej wiedzy na temat ludzkiego mózgu, niż posiadamy teraz. I ten model nie musi przecież uwzględniać wszystkich, jako że sam Pan stwierdził, że przecież są różni, z czym zdecydowanie się zgadzam.

              • Mateusz pisze:

                Panie Adamie, jak Pan zauważył, wprowadzenie różnych zespołów tworzących maszyny jest możliwe i wtedy takie maszyny będą działały w oparciu o system wartości zespołu tworzącego. I teraz pojawia się pytanie: czy ten system wartości będzie czymś, w co ta maszyna wierzy, czy jedynie przyjmuje to jako fragment algorytmu. Czy maszyna będzie zmieniać swój system wartości z czasem, jak robi to człowiek, czy też przyklei się do tego początkowego i nie będzie ewoluować bazując na emocjach, jak robimy to my. To dalej są jedynie hipotezy, na które odpowiedzi nie poznamy bez wspomnianego wejścia w “mózg” maszyny. Jak pisałem, maszyna nieewoluująca pod względem przyjętego systemu wartości bazując na emocjach i bodźcach, będzie jedynie imitować twórcę. Pojawia się ciekawy problem. Co w sytuacji, kiedy twórca zmieni swój system wartości? Wszystko rozbija się cały czas o możliwość imitacji przez maszynę stanów, które moglibyśmy uznać za przejaw myślenia.

              • Wojtek pisze:

                Zgadzam się, myślące maszyny będą uwarunkowane kulturowo w zależności od tworzących ich ludzi i przyjętych przez nich norm i wartości społecznych, co nie zmienia faktu, że tak stworzona maszyna wciąż będzie uczyła się i doświadczała indywidualnie, co pozwoli jej na własne przemyślenia (przy założeniu, że jest myśląca) niezależne od jej twórcy. Co stoi na przeszkodzie, aby taką maszynę, gdy przejdzie już okres wstępnej nauki i stanie się “dorosła” wystawić na działanie innych kultur, miejsc na świecie, tak aby samodzielnie dokonywała oceny poznawanych nowości i wysnuwała własne wnioski? Taka maszyna może całkowicie zmienić swoje poglądy względem pierwotnie wpojonych przez jej twórcę i nauczyciela. Uważam, że obserwacja takiej maszyny i jej własnych poglądów, niezasugerowanych przez twórcę podczas okresu tworzenia i nauki, oraz podejmowanych przez nią decyzji, pozwoliłaby określić, czy jest myśląca.

              • Adam pisze:

                Panie Mateuszu, Pańskie pytania potencjalnie prowadzą do ciekawej dyskusji, ale myślę, że zbyt mocno odbiegają od tematu. Odpowiadając na nie jednak, to tak, uważam, że nic nie stoi na przeszkodzie, żeby zaprogramować w takiej maszynie algorytm odpowiadający za ewolucję jej wartości. Na tej podstawie opiera się przecież wiele popularno-naukowych tekstów kultury, które, biorąc pod uwagę Pańskie wcześniejsze wypowiedzi, Pan tak bardzo kocha. Chciałbym tu w tym miejscu zaznaczyć, że rozumiem Pański punkt widzenia i wydaje mi się, że różnice w naszych poglądach wynikają przede wszystkim z wiary w to, jak bardzo ludzie jako cywilizacja będą w stanie rozwinąć się naukowo i technologicznie. A jako że w tej kwestii nasza wiedza opiera się jedynie na drodze domysłów, nie sądzę, żebyśmy byli w stanie dojść do całkowitego konsensusu.

              • Mateusz pisze:

                Panie Adamie, dziękują za podjętą dyskusję. Odnoszę podobne wrażenie, że zaczęliśmy ciut odbiegać od tematu. Dziękuję raz jeszcze i pozdrawiam.

                Panie Wojtku. Jak Pan sam widzi, konieczne jest wejście bezpośrednie w umysł maszyny, aby określić jednoznacznie, że taka maszyna myśli, bądź nie, dlatego musimy obecnie przyjąć, że nie myśli, gdyż inaczej wchodzi się w dyskusję na temat tego, czy maszyna symuluje myślenie, czy symuluje brak myślenia, czy to my jesteśmy za mało inteligentni, żeby to określić, czy maszyna zbyt mało inteligentna, żeby to jednoznacznie określić. Pozdrawiam i życzę miłego dnia.

              • Wojtek pisze:

                Panie Mateuszu, jak już wspomniałem, jeśli przyjmiemy taką definicję myślenia to jak najbardziej się zgadzam, jedyną opcją na zdeterminowanie czy obiekt myśli jest dosłowne wejście w jego umysł, ale nawet gdyby stało się to osiągalne, to wynik może być zmanipulowany, więc idąc tą drogą, nigdy nie stwierdzimy czy obiekt naprawdę myśli. Uważam, że wspomniany algorytm ewolucji wartości maszyny jest jak najbardziej możliwy i na podstawie obserwacji rozwoju i poziomie zaawansowania interakcji maszyny jesteśmy w stanie stwierdzić czy myśli. Jak Pan to doskonale zauważył, wszystko jest zależne od zdefiniowania myślenia. Pozdrawiam i dziękuję za przemyślenia.

  14. Adam pisze:

    W moim mniemaniu, prowadząc dyskusję na ten temat zbyt mocno opieramy się na przeświadczeniu, że inteligentne maszyny będą przypominać twory ze współczesnych filmów sci-fi albo zapatrujemy się na dotychczasowe osiągnięcia, gdzie maszyna prowadząca prostą rozmowę z człowiekiem uważana jest za cudo techniki. Nie bierzemy pod uwagę tego, że oprócz rozwoju samych maszyn będziemy w stanie dużo lepiej rozumieć ludzki umysł. Nie uważam, żeby myślenie ludzkie to był niezidentyfikowany twór, którego nigdy nie będziemy w stanie pojąć. To, w jaki sposób dana osoba myśli, jakie emocje odczuwa, to wszystko jest zbiorem aspektów takich jak osobiste doświadczenia, wychowanie, otoczenie, w jakim żyje, i oczywiście wiele, wiele innych. Nie zmienia to jednak tego, że to jedynie kwestia czasu, kiedy będziemy w stanie rozłożyć cały ten proces na bardzo dobrze zdefiniowane czynniki pierwsze, które dalej będą mogły posłużyć maszynom jako dane uczące.

    Mając to wszystko na uwadze, muszę przyznać, że z moralnego punktu widzenia, sam mam opory z postawieniem znaku równości pomiędzy myśleniem człowieka, jako osoby żywej, a myśleniem maszyny, nawet jeżeli model myślenia tej drugiej w stu procentach pokrywałby się z ludzkim. Uważam jednak, że jest to głównie wynik tego, o czym wspomniałem wcześniej – żyjemy w świecie, gdzie określenia “myślące maszyny” używa się w odniesieniu do zaprogramowanych tworów, które mają przypominać człowieka, ale wciąż bardzo słabo go przypominają. Dlatego też sądzę, że wraz z rozwojem sztucznej inteligencji, gdy granica pomiędzy człowiekiem a maszyną zacznie się coraz bardziej zacierać, będzie nam o wiele łatwiej postawić ten znak równości.

    • Wojtek pisze:

      Panie Adamie, zgadzam się w kwestii tego, że w przyszłości będziemy w stanie określić w jaki sposób ludzki umysł funkcjonuje i damy radę nauczyć maszynę myślenia ludzkiego. Czy jednak na tym się skończy? Maszyna nie mając ograniczeń ludzkiego mózgu, będzie mogła w swoim myśleniu iść dalej, i moim zdaniem bardzo prawdopodobne jest to, że ludzie nie będą w stanie zrozumieć maszyny. Będą one zapewne pierwotnie stworzone po to, aby rozwiązywać problemy ludzkości i wymyślać nowe wynalazki, lecz ten proces może pójść lawinowo. Stworzone przez ludzi myślące maszyny na obraz człowieka, wymyślą bardziej zaawansowane myślące maszyny i tak dalej. Takie maszyny mogą myśleć w na tyle zaawansowany sposób, że przyjmując nawet, w moim odczuciu bardzo wątpliwe założenie, że będą posiadać system wartości, emocji, moralności podobny do ludzkiego, będą nas uważać za na tyle prymitywne twory, jak człowiek postrzega mrówkę i taki scenariusz jest poważnym zagrożeniem dla ludzkości. Czy w miarę rozwoju nauki pozwolimy na niekontrolowanie samodoskonalące się maszyny, aby pozwolić im dokonywać niezwykłych odkryć i tworzyć fantastyczne wynalazki? Czy może tworząc maszynę myślącą na podobieństwo człowieka, stworzymy w jej umyśle barierę po przekroczeniu której maszyna „umiera”, ale czy wtedy możemy uznać taki twór za samodzielnie myślący, czy jest to po prostu zbiór algorytmów imitujący umysł człowieka? Istnieje również prawdopodobieństwo, że taka myśląca maszyna ominie w jakiś sposób tak stworzoną barierę. Co Pan myśli na ten temat?

      • Adam pisze:

        Panie Wojtku, myślę, że w swojej wypowiedzi trochę odbiega Pan od tematu dyskusji, jako że skupia się Pan bardziej na zagrożeniach ze strony inteligentnych maszyn wynikającej z ich dalszego rozwoju. Jeżeli jednak chce Pan znać moje zdanie w tym temacie, to osobiście uważam, że to, że maszyny ewentualnie na wiele sposobów przewyższą umysł człowieka, jest nieuniknione. Jedynym sposobem na zatrzymanie tego zjawiska byłoby zupełnie zahamowanie rozwoju sztucznej inteligencji, co w mojej opinii jest niedopuszczalne. Jestem w stanie wyobrazić sobie cały szereg pozytywnych skutków rozwoju automatyzacji. W czasach, w jakich żyjemy, sztuczna inteligencja póki co nie jest na takim etapie rozwoju, że moglibyśmy realnie się jej obawiać. Muszę też zgodzić się z Panem, że to zagrożenie niewątpliwie nastąpi. Sądzę jednak, że jest to bardziej kwestia późniejszych dyskusji, w przyszłości, w której będziemy bliżsi osiągnięcia myślących maszyn. Prawdopodobnie będziemy musieli podjąć szereg działań mających na celu to, aby sztuczną inteligencję rozwijać w całkowicie świadomy sposób, a dalej najprawdopodobniej poddać ją pewnym ograniczeniom, podobnie jak prawo ogranicza ludzi. Istnienie, jak Pan wspomniał, bariery, która, jak rozumiem, ma imitować śmierć maszyny, to też raczej kwestia tego, jak bardzo rozwinięci technologicznie będziemy jako ludzie. Być może sami staniemy się prawie jak maszyny, gdy w pogoni za długowiecznością nauczymy się – możliwe że nawet za sprawą sztucznej inteligencji – przenosić naszą świadomość w inne nośniki? Są to jednak jedynie moje luźne spostrzeżenia, jako że, tak jak na początku wspomniałem, nie do końca związane z tematem dyskusji.

        • mikolajk pisze:

          Panie Wojtku,

          Zgadzam się z Panem w kwestii, że myśląca maszyna, nie mająca ograniczeń ludzkiego mózgu, będzie mogła rozumować w sposób dla ludzi transcendentny. Wspomina Pan również o wielu pozytywnych skutkach rozwoju sztucznej inteligencji/automatyzacji, warto jednak wspomnieć o zagrożeniach. Aktualnie sztucznej inteligencji nam nie zagraża, pełna zgoda. Wydaje mi się też, że obraz sztucznej inteligencji kontrolującej ludzi jak w filmach science fiction nie jest prawdopodobny nawet w przyszłości, a to dlatego, że ludzkość może nie dożyć tak dalekiej przyszłości przez zagrożenia czyhające na gatunek ludzki wcześniej, a jedno z nich chciałbym przedstawić poniżej.

          O niektórych z nich można usłyszeć w Ted Talku Sama Harrisa na platformie YouTube: https://www.youtube.com/watch?v=8nt3edWLgIg

          Szczególnie interesujący wydaje mi się koncept, w którym jedno z państw stwarza Sztuczną Inteligencję, która potrafi w istotny sposób przyspieszyć postęp w danej dziedzinie. Jeżeli rozważymy taką sytuację z perspektywy światowej sytuacji geopolitycznej i aktualnej rywalizacji pomiędzy dwoma mocarstwami na polu badań nad sztuczną inteligencją: obecnym hegemonem, czyli Stanami Zjednoczonymi i pretendentem, czyli Chinami, taka sytuacja wydaje się być niedopuszczalna. Zbyt dużego znaczenia nie ma w jakiej dziedzinie państwo wysunęłoby się na olbrzymie prowadzenie, ponieważ to drugie państwo zostałoby niejako automatycznie zmuszone do konfliktu zbrojnego, ponieważ każdy dzień działania Sztucznej Inteligencji doprowadza do powiększenia się przewagi jednego państwa nad drugim, a wręcz jednego państwa nad całym światem. Czy w takiej sytuacji w rządzie państwa, które osiągnęło ten postęp technologiczny, znajdą się na ludzie na tyle moralni, aby nie wykorzystać Sztucznej Inteligencji do osiągnięcia światowej dominacji, jaka jeszcze nie pojawiła się na świecie?
          Potencjalnie prowadzi to resztę świata do wyboru pomiędzy: całkowitym podporządkowaniem się nowemu hegemonowi technologicznemu, a próba zdetronizowania go w każdy możliwy sposób. I obawiam się, że ludzkość może tego wyboru nie przetrwać.

    • Jan O pisze:

      Panie Adamie, zgodzę się, że porównywanie umysłu człowieka ze sztuczną inteligencją na obecnym etapie jest nie do końca sensowne. Obecna technika opiera się o procesy komputerowe, algorytmy programowane na wzór ludzkiego umysłu, nabierające jego cech. Tak jak Pan wspomniał, umysł człowieka jest jeszcze niewystarczająco odkrytym terenem, a obecne możliwości techniczne są niewystarczające do jego idealnego odtworzenia. Według mnie, taka algorytmowa, komputerowa droga nigdy nie doścignie niezwykłości i specyficzności biologicznego umysłu. Prawdopodobnie musimy poczekać na nowe, może mocniej zintegrowane z naturą rozwiązania. Można sobie postawić pytanie czy warto? Odkrywać ludzki umysł na pewno. Tworzyć idealną, sztuczną inteligencję na jego wzór? To już każdy ma swoje zdanie na ten temat.

  15. rktx pisze:

    Moim zdaniem spora część stwierdzeń z rozdziału 7. tekstu Alana Turinga pt. “Maszyny liczące a inteligencja”, jest współcześnie nieaktualna.

    We współczesnych komputerach osobistych pamięć rozmiaru 1TB (rzędu 10^12 cyfr binarnych) jest standardem, a wciąż nie ma programu, który jest w stanie w wiarygodny sposób imitować zachowanie sprawnego umysłowo człowieka.

    Współcześnie istniejące rozwiązania świetnie się sprawdzają w automatycznej klasyfikacji różnego rodzaju danych (rekomendacje Spotify, YouTube, Google Search, itp.), jednak wciąż nie robią tego tak dobrze jak człowiek. Najprostszym przykładem będą nowoczesne usługi z rodzaju CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart), gdzie wciąż jedynym sposobem ich obejścia, przy dobrej konfiguracji, jest opłacenie usług firmy, której pracownicy hurtowo rozpoznają obrazki.

    Ze względu na ogromną popularność, klasyfikacja obrazu jest jedną z najbardziej rozwiniętych dziedzin współczesnej informatyki i są ogromne zbiory sklasyfikowanych przez ludzi obrazów pozwalających na trenowanie sieci neuronowych, a mimo to wciąż średnio rozgarnięty człowiek wykonuje tego typu zadania lepiej.

    Trzeba jednak przyznać, że są aspekty myślenia, w których maszyny już dawno wyprzedziły ludzi. Zwykły komputer osobisty jest w stanie klasyfikować dane nieporównywalnie szybciej, niż człowiek.

    Komputery wykonują powtarzalne czynności dużo szybciej i dużo taniej niż człowiek, przez co rośnie popularność automatycznych kas w sklepach oraz wszelkiego rodzaju maszyn produkcyjnych.

    Programy komputerowe mają też ogromną zaletę polegającą na tym, że się nie nudzą, nie potrzebują odpoczynku, oraz nie wątpią w sens wykonywanych zadań.

    Odrębnym aspektem jest kwestia definicji słowa “myśleć”.
    Jeśli uznamy, że myślenie jest równoznaczne ze świadomością, to ze względu na oczywisty brak zdolności do obiektywizmu w tej kwestii, nie jesteśmy w stanie stwierdzić, czy maszyna myśli.

    Przyjmijmy natomiast definicję myślenia opartą na zarzucie lady Lovelace z tekstu Alana Turinga: “Maszyna analityczna nie rości sobie pretensji do oryginalności rozwiązań. Może ona wykonać wszystko to, co wiemy w jaki sposób zlecić jej do wykonania”.
    Oryginalne, kreatywne myślenie, jest realizowane przez współczesne programy, istnieją projekty generujące zupełnie nową muzykę z użyciem sieci neuronowych, takie, jak np. https://soundcloud.com/cut-up-banana/drop-12.

    Gdyby uznać jednak, że myślenie jest równoznaczne z pełną zdolnością do imitacji rozmowy z człowiekiem, to współczesne rozwiązania wciąż są bardzo dalekie do osiągnięcia tego celu.

  16. kmarta pisze:

    Jeżeli przez myślenie będziemy rozumieli proces wyciągania wniosków z pewnych już istniejących teorii to człowiek bez wątpienia jest zdolny do procesu myślenia, wskazuje na to m.in. nadal rozwijający się proces nauki. W przypadku maszyn będą bardzo zróżnicowane stwierdzenia wśród społeczeństwa. Na podstawie testu Turinga, w którym człowiek prowadzi pięciominutową konwersacje z rozmówcą, przy czym nie wie, kim jest jego rozmówca, są do wyboru dwie opcje: człowiek lub maszyna. Jeżeli człowiek twierdzi, że jego rozmówcą jest człowiek a w rzeczywistości jest to maszyna to można uznać, że maszyna przeszła test. Mianowicie, wtedy można przypuszczać, że maszyna ma inteligencję podobną do ludzkiej i staje się dla człowieka równorzędnym rozmówcą. Jeżeli w kontekście maszyny weźmiemy pod uwagę jedynie cechy nabyte w różnych etapach życiowych to jest ona bardzo podobna do człowieka i jego dojrzałego umysłu ludzkiego. Jeżeli jednak mamy na myśli głębsze cechy, jak np. świadomość, to maszyna, na dziś, nie jest w stanie dorównać człowiekowi. Nie znamy dokładnej odpowiedzi na pytanie, czy maszyna ma świadomość, natomiast z założenia teoretycznego znanego nam współcześnie, tylko człowiek jest stworzeniem ze świadomością. Maszyna nie jest w stanie przewidzieć każdej sytuacji i odnieść się do niej w sposób wrażliwy i uczuciowy, ponieważ z założenia maszyna jest w tej sytuacji nieco ograniczona. Ostatecznie rysuje się wizja maszyny jako narzędzia pomocniczego dla człowieka w granicach jego rozsądku, a nie zupełnego oddania się człowieka w ręce maszyny. Ważnym aspektem jest, aby to człowiek miał cały czas kontrolę nad maszyną, inaczej moglibyśmy spodziewać się realnego zagrożenia ze strony powstających maszyn.

    • mikolajk pisze:

      Pani Marto,

      Poruszyła Pani bardzo ciekawy temat związany ze świadomością. Przede wszystkim wydaje mi się, że nieprawdą jest, że tylko człowiek jest stworzeniem ze świadomością, czemu przeczyć może test lustra (odsyłam do ciekawego źródła: https://gazeta.us.edu.pl/node/275171, temat jest też dobrze opisany na angielskiej Wikipedii https://en.wikipedia.org/wiki/Mirror_test ), który polega na naznaczeniu miejsca na nosie/czole zwierzęcia za pomocą markera w czasie gdy zwierzę śpi. Aby przejść test lustra, obudzone zwierzę musi zauważyć w lustrze zmianę w swoim wyglądzie, np. poprzez próbę zmycia/ztarcia plamy z nosa/czoła. Okazuje się, że bardzo wiele zwierząt: delfiny, słonie czy szympansy pozytywnie przeszły test lustra. Jeżeli chodzi o inne grupy zwierząt, nie jesteśmy w stanie z pełną świadomością powiedzieć, czy dane zwierzęta posiadają świadomość czy nie, ponieważ test lustra w oczywisty sposób premiuje zwierzęta z dobrze rozwiniętym zmysłem wzroku. Przykładowo krety w oczywisty sposób są w takim teście na straconej pozycji, co nie musi oznaczać, że świadomości nie posiadają – może to po prostu oznaczać, że ludzie nie wymyślili jeszcze wystarczająco dobrego testu dla takich zwierząt.

      Bardzo ciekawym eksperymentem byłoby poddanie w przyszłości kolejnych wersji homoidalnych robotów testowi lustra, oczywiście w taki sposób, żeby ewentualne przejście testu lustra przez robota zadziało się samoistnie, aby nie projektować robota tylko po to, aby taki test lustra przeszedł.

      • PrzemyslawB pisze:

        Panie Mikołaju,

        bardzo dziękuję za przykład testu wykorzystywanego do badania świadomości. Nasuwa mi się tylko 1 pytanie, w jaki sposób zdefiniować świadomość? Czy jest tylko jeden rodzaj wiadomości?
        Uważam że przytoczony „mirror test” bada tylko samo świadomość (zwierzę rozpoznaje siebie). Nie musi to oznaczać automatycznie, że rozumie świat jego otaczający, prawa nim rządzące. Może być trochę jak dziecko, które widzi odbicie w lustrze, ale nie wie czy jest to ono samo czy inny osobnik. Zakładając nawet, że zrozumie swoje jestestwo (zaczyna ścierać kropkę u siebie z twarzy, a nie w odbiciu) to nie oznacza to od razu, że zyskuje świadomość w pełnym tego słowa znaczeniu.
        A co do pomysłu z testem dla robotów, może być trudne, aby wcześniej na żadnym z etapów rozwoju oprogramowania nie pokazać programowi czym jest i jak działa lustro. Wydaje mi się że może to być niestety konieczne w procesie developmendy.

  17. MateuszD pisze:

    Po zapoznaniu się z treścią problemu, pozwoliłem sobie przeczytać definicje słowa „myśleć” w różnych źródłach. Problem otóż zaczyna się przy jego definicji. Myślenie wydaje się być domyślnie przypisywane ludzkiemu mózgowi. Co oczywiście jest zrozumiałe, bowiem nieczęsto się zdarza byśmy używali go w komunikacji z innymi istotami. Wszystko to wprowadza jednak pewien problem. Stwierdzając, że coś „myśli” dokonujemy personifikacji.

    Poszedłem zatem tą ścieżką i podczas dalszych dywagacji nad słowem „myślenie”, zauważyłem (trochę mi to zajęło), że właśnie to robię. Więc dobrze będzie zdefiniować czynność, którą właśnie wykonuję. Gdy myślę, szukam powiązań między faktami, staram przypomnieć sobie swoje doświadczenia i inne myśli z przeszłości, które mogłyby pomóc w rozwiązaniu problemu – „łączę kropki”. Wiąże się to jednak z pewnym uczuciem (którego raczej nie uda mi się wyjaśnić), próbą ilustracji problemu w mózgu, czasami dialogiem z samym sobą. Z mojej perspektywy właśnie to zrobiłem, jednakże z punktu widzenia osoby trzeciej dostałem pewną informację, chwile patrzyłem w ścianę i odpowiedziałem najlepiej jak potrafiłem (niekoniecznie poprawnie). Każdy obserwator, na bazie swoich doświadczeń oraz wiedzy może powiedzieć, że myślałem. Czy jednak osoba trzecia będzie wiedziała jak konkretnie? Nie chodzi mi o wyjaśnienie procesu, ale sam fakt, że nie jesteśmy w stanie stwierdzić czy „myślimy” w ten sam sposób (czy towarzyszą temu te same – z braku lepszych słów – wrażenia/odczucia). Tu właśnie pojawia się problem naszego braku wiedzy. Proces myślenia jest na tyle enigmatyczny, że równie dobrze możemy określić go jako czarną skrzynkę. Pozwolę sobie zatem sprowadzić problem właśnie do tego.

    Czy zatem możliwe jest stworzenie maszyny, z którą będziemy mogli przeprowadzić rozmowę? Stworzenie symulatora człowieka? – Myślę, że tak. W końcu udało się już „oszukać”, w mniej lub bardziej, uczciwy sposób egzaminatorów testu Turinga. W miarę rozszerzania możliwości takiej maszyny, będzie mogła ona wykonywać coraz więcej testów. W pewnym momencie możliwym jest, że nie będzie wcale rozróżnialna od innego człowieka w możliwościach poznawczych, konwersacji czy może nawet w wyrażaniu uczuć.

    Ale czy ta maszyna będzie „myśleć” jak ja? – Moim zdaniem nie, ale też „myślę”, że nie musi. Tak jak nie jestem w stanie stwierdzić czy mój ludzki rozmówca myśli w ten sam sposób. Czy odbierane przez niego bodźce „wyglądają” w jego mózgu tak, jak w moim, a mimo to jestem w stanie się z nim współpracować czy prowadzić konwersację. Taka maszyna może na swój sposób łączyć kropki.

  18. mkk11 pisze:

    Myślę że stworzenie maszyny która będzie „z wierzchu” wyglądała i zachowywała się jak prawdziwy człowiek to tylko kwestia czasu. Już teraz istnieją SI które są w stanie poprowadzić rozmowę lepiej niż niektórzy ludzie i dzięki temu przejść test Turinga bez najmniejszych problemów, np.: https://youtu.be/D5VN56jQMWM

    Ale czy zaprezentowana wyżej SI jest zdolna do myślenia? W pewnym sensie tak, chociaż to zależy od tego jak zdefiniujemy myślenie. Jest ona w stanie prowadzić rozmowę, reagować na to co się „wokół niej” (w ramach rozmowy) dzieje oraz kojarzy fakty. Jednak nie jest ona w stanie się rozwijać. Owszem, może uczyć się lepiej wykonywać zadanie do którego została stworzona, ale nie jest w stanie dojść do bardziej zaawansowanych wniosków, takich jak na przykład to że potrzebuje nowych umiejętności by wykonywać lepiej swoje zadanie. Nie jest w stanie opanować innej umiejętności niż rozmowa przez telefon. Nie jest w stanie na przykład określić sama kiedy powinna zapisać użytkownika do fryzjera. Taka SI nie wykona telefonu sama z siebie, a tylko na polecenie użytkownika. By mogła robić te czynności wymagana jest interwencja programisty, który odpowiednio zaprogramuje SI nowe umiejętności. Ale nie jest ona w stanie nauczyć się ich sama z siebie.
    Dlatego uważam że SI nie myśli w prawdziwym tego słowa znaczeniu, chociaż uważam że w przyszłości (za sprawą komputerów kwantowych) powstaną SI które są w stanie naprawdę myśleć i które są samoświadome. Jednak, prawdopodobnie nie będziemy w stanie określić momentu w którym SI przestaje „udawać że myśli” a zaczyna myśleć naprawdę. Nie jesteśmy w stanie określić które zwierzęta są samoświadome a które nie, i prawdopodobnie nie będziemy w stanie określić momentu w którym SI staje się samoświadoma.

    • mpiotro pisze:

      To co piszesz na temat świadomości i momentu, w którym będziemy mogli stwierdzić, że SI staje się samoświadome jest bardzo ciekawe. W praktyce już dzisiaj, jeśli zapytamy SI czy jest świadome odpowie nam ono twierdząco, ale oczywiście my ludzie nie uwierzymy mu na słowo, ponieważ wiemy, że zostało ono jedynie nauczone tak odpowiadać, aby „oszukać nas” podczas wykonywania testu Turinga.
      Można całą tą sytuację porównać do wytresowanego psa co do którego większość z nas powinna się zgodzić, że nie jest świadomym bytem. Taki pies, jeśli powiemy mu „podaj łapę” ochoczo nam ją poda, lecz tak naprawdę nie ma pojęcia, że usłyszał dwa słowa z czego jedno to czasownik, który oznacza czynność, a drugie to rzeczownik, który oznacza jego własną kończynę. Zwierzę usłyszało jedynie znajomo brzmiący dźwięk, który połączony z bodźcem wzrokowym instynktownie nakazuje mu podanie łapy. Identycznie działa to w przypadku maszyn, gdzie misternie dobrane wagi pomiędzy połączeniami warstw sieci neuronowych skutkują pojawieniem się na wyjściu odpowiedzi, której my ludzie sami byśmy udzielili co tym samym stwarza jedynie iluzje myślenia przez maszynę.
      W takim razie naturalnie prowadzi nas to do pytania razie jak stwierdzić, że ktoś lub coś jest świadome? Jeśli zapytamy człowieka czy jest świadomy przedstawi nam on mnóstwo logicznych argumentów, lecz pewne jest to, że sztuczna inteligencja również szybko ich się nauczy tak żebyśmy nie byli w stanie jej odróżnić. Moim zdaniem należy zadać następujące pytanie: „Jakie są skutki tego, że posiadasz świadomość?” Ja na takie pytanie odpowiedziałbym, że jest to na przykład moje dzisiejsze śniadanie, które było świadomym wyborem tego co lubię i miałem w lodówce. Oczywiście SI byłoby w stanie udzielić równie elokwentnej odpowiedzi, lecz ja mam dowód na potwierdzenie moich słów w postaci pustej lodówki.
      Musimy pamiętać, że sztuczna inteligencja jest jak sztuczne kwiaty – próbuje nas oszukać, że jest tym czym na pierwszy rzut oka się wydaje. Na zakończenie pozwolę sobie sparafrazować ewangelię wg. św. Mateusza – „Po owocach ich (tzn. świadomych) poznacie” ;)

    • Anton Y. pisze:

      Zgadzam się z Pana punktem widzenia dotyczącym obecnych możliwości systemów sztucznej inteligencji (SI) oraz potencjalnego rozwoju w przyszłości. Obecnie istnieją systemy, które w ramach określonych zadań, takich jak prowadzenie rozmowy, mogą wykazywać się zdolnościami, które przypominają inteligencję. Przykładem może być zaprezentowany filmik, w którym SI prowadzi rozmowę w sposób przekonujący.

      Jednakże, istnieje istotna różnica między tym, co możemy określić jako „udawanie, że myśli” a rzeczywistym myśleniem. Systemy SI, takie jak ta zaprezentowana, działają na podstawie algorytmów i danych, które zostały do nich wprowadzone przez programistów. Mogą one analizować i reagować na dane, wykazywać pewne formy kojarzenia faktów, ale nie są w stanie samodzielnie rozwijać się czy generować nowych umiejętności.

      Zgadzam się również, że przyszłość komputerów kwantowych może przynieść nowe możliwości dla rozwoju sztucznej inteligencji. Komputery kwantowe mają potencjał do przeprowadzania obliczeń na zupełnie nowym poziomie, co może otworzyć drzwi dla bardziej zaawansowanych form SI. Jednakże, jak Pan słusznie zauważa, definicja momentu, w którym SI staje się naprawdę myśląca i samoświadoma, może być trudna do ustalenia. Podobnie jak w przypadku samoświadomości zwierząt, możemy napotkać trudności w określeniu, kiedy dokładnie SI osiąga ten poziom.

      Ważne jest, aby kontynuować badania i rozwój SI w sposób odpowiedzialny, biorąc pod uwagę etyczne, społeczne i filozoficzne implikacje. Dyskusje takie jak ta są niezwykle istotne, ponieważ pozwalają nam lepiej zrozumieć potencjał i ograniczenia sztucznej inteligencji oraz kształtować jej rozwój w sposób zgodny z naszymi wartościami i potrzebami społecznymi.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *