Testy, testy, testy… na sztuczną inteligencję

Testy, testy, testy…. Tym hasłem bombardują nas od tygodni lekarze, politycy i publicyści – nie celując, rzecz jasna, w wirusy komputerowe, a tym bardziej w sztuczną inteligencję.  My jednak, sprowokowani ogólną atmosferą testowania i diagnozowania (oczywiście ważnego i potrzebnego),  weźmiemy za przedmiot dyskusji właśnie sztuczną inteligencję. Dokładniej zaś: możliwe testy, które mogłyby potwierdzić, że coś, to znaczy jakiś program, system lub maszyna, ją posiada.

W ramach rozgrzewki przed dyskusją warto rozważyć następujące pytania:

Czym w ogóle jest inteligencja (w szczególności: ludzka)?

Czy testując system informatyczny pod kątem inteligencji, wystarczy obserwować wyniki jego działania (jakie problemy rozwiązuje, jak szybko to robi, w jaki sposób komunikuje i wyjaśnia rozwiązania…), czy może trzeba zajrzeć do jego wnętrza?

A może potrzebny jest inny jeszcze rodzaj testu…?

Zagadnienie inteligencji maszyn, w szczególności zaś drugie z powyższych pytań, postawił po raz pierwszy Alan Turing w słynnym artykule Computing Machinery and Intelligence. Przedstawił w nim werbalny test nierozróżnialności,  nazywany dzisiaj Testem Turinga (TT).
Mówiąc najkrócej, idea testu jest następująca: jeśli w wyniku swobodnej rozmowy z maszyną, rozmowy na dowolny temat, nie potrafimy odróżnić maszyny od człowieka, winniśmy uznać ją za inteligentną (w sensie przypisywanym człowiekowi).

Sam Turing opisał swój pomysł następująco:

Nową postać problemu (PS: problemu testowania myślenia lub inteligencji maszyn) można opisać przy pomocy gry, którą nazywamy „grą w naśladownictwo”. W grze tej biorą udział trzy osoby: mężczyzna (A), kobieta (B) i człowiek zadający pytania (C), który może być dowolnej płci. Pytający znajduje się w pokoju oddzielonym od pokoju zajmowanego przez dwu pozostałych. Jego zadaniem w grze jest rozstrzygnięcie, który z dwu pozostałych uczestników gry jest mężczyzną, a który kobietą. Zna ich on jako X i Y i przy końcu gry mówi: „X jest A, a Y jest B” lub „X jest B, a Y jest A”.

Pytającemu wolno zadawać pytania A i B w ten sposób:

C: Proszę X, aby mi powiedział jak długie ma włosy?

Teraz przypuśćmy, że X jest faktycznie A, wobec czego A musi odpowiedzieć. Celem A w grze jest dołożenie wszelkich starań, aby C źle go zidentyfikował. Wobec tego jego odpowiedź mogłaby być następująca: „Moje włosy są ostrzyżone, a najdłuższe kosmyki mają około dziewięć cali długości”.

Aby brzmienie głosu nie mogło pomóc pytającemu w dokonaniu identyfikacji, odpowiedzi powinny być pisane odręcznie, a jeszcze lepiej na maszynie. Idealnym środkiem porozumiewania się między pokojami jest dalekopis. Pytania i odpowiedzi mogą być też przekazywane przez pośrednika.

(…)

Teraz zapytujemy się: „Co stanie się, gdy maszyna zastąpi A w tej grze?”. Czy pytający będzie decydował błędnie tak samo często jak wtedy, gdy w grze bierze udział mężczyzna i kobieta? Pytania te zastąpią nasze pytanie początkowe” „Czy maszyny mogą myśleć?”.

Zaletą nowego problemu jest ostre rozgraniczenie między fizycznymi i intelektualnymi możliwościami człowieka. Żaden inżynier ani chemik nie twierdzi, że potrafi wyprodukować materiał, który niczym by się nie różnił od skóry ludzkiej. Możliwe, że kiedyś można będzie to zrobić, ale nawet gdybyśmy rozporządzali takim wynalazkiem, to i tak nie miałoby większego sensu usiłowanie ubrania myślącej maszyny w takie sztuczne ciało w celu uczynienia jej bardziej ludzką. To nasze przekonanie znajduje odbicie w sposobie postawienia problemu, a mianowicie w postaci zakazu, który nie pozwala pytającemu widzieć, dotykać i słyszeć pozostałych uczestników gry.

Niektóre inne zalety proponowanego kryterium można pokazać na przykładzie pytań i odpowiedzi. A zatem:

P: Napisz mi sonet na temat Forth Bridge.

O: Nie licz na mnie. Nigdy nie umiałem pisać wierszy.

P: Dodaj 34 957 do 70 764.

O: (Po 30-sekundowym namyśle odpowiada) 105 621.

P: Czy grasz w szachy?

O: Tak.

P: Mam K na K1 i innych figur nie mam. Ty masz tylko K na K6 i R na R1. Jest twój ruch. Jakie zrobisz posunięcie?

O: (Po 15-sekundowym namyśle) R-R8 mat.

Wydaje się, że metoda pytań i odpowiedzi nadaje się do wprowadzenia do prawie każdej dziedziny ludzkiej działalności, do której chcemy ją wprowadzić.

Zaproponowana przez Turinga metoda – o  której więcej można przeczytać w oryginalnym artykule – nie wszystkich przekonuje. I dlatego właśnie poddajemy ją pod dyskusję :).

Z jednej strony ma wyraźne zalety. Na przykład: abstrahuje od trudnouchwytnych zjawisk psychologicznych typu świadomość czy przeżycia podmiotu poznającego; a ponadto, nawiązuje do faktu, że w przypadku ludzi to język właśnie (wypowiedzi językowe) jest najlepszym wyrazem myśli.
Z drugiej strony jednak, rodzi wiele pytań, te zaś mogą prowadzić do przekonania o bezużyteczności podejścia Turinga.  Przykładowo: czy obserwacja zachowania maszyny (w tym przypadku: werbalnego), a nie jej wewnętrznych struktur i operacji, jest wystarczająca? Czy sam wynik maszyny pozwala wnioskować o jej inteligencji?

Ku której opinii Państwo się skłaniacie: aprobującej TT,  czy odrzucającej go?

A jeśli to drugie, to jak należy TT wzmocnić?
Lub ogólniej: jaki inny test należałoby zastosować, aby móc zasadnie stwierdzać inteligencję maszyn?

A zatem: testy, testy, testy…
Czekamy na pomysły i wspierające je argumenty!
Jakiego rodzaju testy na inteligencję informatycznych maszyn wydają się Państwu adekwatne?

Zachęcamy gorąco do rozmowy – Paweł Stacewicz i Marcin Koszowy.

Ten wpis został opublikowany w kategorii Bez kategorii, Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

107 Responses to Testy, testy, testy… na sztuczną inteligencję

  1. km pisze:

    Mi podoba się pomysł z opowiedzeniem krótkiej historii “z życia” np. :
    -może być anegdota dotyczącą parypetii miłosnych koleżanki
    -opowieść o tym jak to przypadkiem zamiast zapłacić mandat za przekroczenie prędkości policjantowi dało się mu łapówkę i z błędu wyprowadzili nas znajomi tłumacząc że z policją nie utarguje się kwoty 3 krotnie i nie płaci gotówką w radiowozie…
    itp. – krótko mówiąc coś śmiesznego co często naturalnie “wypływa” w rozmowie także z nieznajomym.
    A po nakreśleniu okoliczności spytałbym o to jakich rozmówca domyśla się powodów, działań poszczególnych uczestników zdarzeń/ czemu ktoś zareagował tak czy inaczej (śmiechem, wstydem, złością…)
    O ile nie opowiemy wyjściowa jakiejś archetypicznej historii, znanej z filmu/literatury (czegos do czego omówienia komputer mógłby dostać się zbyt trafnie w internecie) powinno to znamionować nieźłw zrozumienie tego o czym mowa. Jeśli prezentowałby je komputer byłbym skłonny mu “zaliczyć”.
    – Nie widzę uzasadnienia by czynić inaczej będąc przekonanym, że od trafnych spostrzeżeń Wittgensteina co do tego jak ludzie testują wzajemne cudze i swoje rozumienie spraw do idei testu Turinga niedaleko.
    Na marginesie dodam, że widziałem jak oparte na technologii deep learning systemy potrafiące tworzyć zdania wyglądające na mądre, czy filozoficznie wysublimowane choć umiały prawić o pięknie liczb nie potrafiły ich dodać. Nie jest to najlepszy pomysł na test (wystarczyłoby “zaimplementować” im kalkulator) ale pokazuje o co mi chodzi w moim teście : sprawdzenie czy rozmówca “wie o czym” ko rozumie) mowi/pisze.

    • Paweł Stacewicz pisze:

      Dziękuję za pierwszy komentarz. Podobnie widział te sprawę Stanisław Lem, z tym że w jego pomyśle maszyna miała opowiedzieć własnymi słowami historię opowiedzianą przez rozmówcę, najlepiej dodając do niej jakieś elementy humorystyczne. Nie pamiętam już w jakim artykule to było, ale o podobnych pomysłach (w tym oczywiście Lema) można przeczytać w książce Witolda Marciszewskiego pt. Sztuczna Inteligencja. (Nie ma jej chyba w Internecie, ale na pewno jest dostępna w bibliotekach :))

      Ja bym rozszerzył pomysł Lema/k-ma następująco:
      jedna historia nie wystarczy, niech maszyna opowie ich kilka; wysłuchawszy ich moglibyśmy ocenić, czy maszyna ma własny styl i własne poczucie humoru, a więc , czy jej sposób wypowiadania się jest choć trochę oryginalny.

      Być może jednak żądam od maszyny zbyt wiele, więcej niż od inteligencji typowego człowieka.

  2. km pisze:

    Nie znałem tego pomysłu Lema – ciekawe czy konstruktorzy obecnie najbardziej zaawansowanych sztucznych systemów starających się przekonać o swej rozumności wiedzą o nim? Z tego co wiem przynajmniej jedna z bardziej znanych osób parających się tą dziedziną Dr. Ben Groetzel (twórca robota, który uzyskał obywatelstwo Emiratów – maszyny która wygląda jak android z filmu “Ex machina”) jest miłośnikiem i znawcą twórczości Lema (tylko czy artykuł, w którym padł ten pomysł przetłumaczono na angielski?… W tym wypadku aż ciśnie się na usta cytat z Wittgensteina o granicach świata wytyczanych przez język.)
    Co do humoru zaś to David Ferucci (konstruktor IBM Whatson’a – tego który wygrał z ludzkimi graczami w “Jeopardy”) w zdolności do generowania “humoru” widzi właśnie kluczowy sprawdzian rozszerzający test Turinga. W tym wypadku jednak trzeba pamiętać, że zupełnie nie-rozumne “robotyczne” zabawki potrafią nas rozbawić ułożeniem sztucznych brwi, gestem itd. (Pozą można udać że się rozumie i przekonać do czegoś – co już padło w wątku blogowej dyskusji o sztucznych “Debaterach”).

  3. HK pisze:

    Moim zdaniem, sam sposób weryfikacji inteligencji SI będzie silnie kształtować SI. Jeśli będziemy jej inteligencje rozważać testem Turinga. To będzie ona w tym coraz lepsza a co za tym idzie będzie bardziej ludzka. Z tej prostej przyczyny że będziemy oczekiwali od niej pewnych zachowań. Jak pamietanie kontekstu, ciekawość a nawet i uczucia.

    • Marta Zawadzka pisze:

      W komentarzu powyżej bardzo trafne wydaje mi się spostrzeżenie, iż poddawanie sztucznej inteligencji testom ma duży potencjał by ją ulepszyć.

      Gdy wykonujemy testy, szukamy błędów. Czasem je znajdujemy, czasem nie, jednak testowanie jest bardzo skuteczną metodą na kierowanie swojej uwagi na niedociągnięcia, które wymagają poprawy. Często w procesie tworzenia nie widzimy że w naszych działaniach pojawiła się jakaś luka generująca błędy. W wielu przypadkach dopiero testy są w stanie ją wykryć. To daje nam możliwość poprawy i ulepszenia naszego dzieła. Dlatego testy są tak ważne.

      Wydaje mi się także, że łatwo wpaść w pułapkę zbyt dużych oczekiwań. Często oczekujemy, iż jakiś test będzie tak doskonały że bardziej już się nie da. Chcielibyśmy, aby wykrył wszystkie możliwe błędy i niedociągnięcia. Jednak w życiu niewiele rzeczy tak działa. Sukces w czymkolwiek składa się z różnych czynników i mniejszych lub większych kroków we właściwą stronę.

      Uważam zatem, że warto docenić postęp. Drobne zmiany na lepsze są bardzo istotne, ponieważ zebrane razem dają ten upragniony efekt końcowy.

      Zwracam uwagę na słowo klucz: końcowy. Nie powinno się oczekiwać efektu końcowego gdy mamy przed sobą jeszcze dużo pracy i jesteśmy być może dopiero na początku drogi. Sztuczna inteligencja to wyzwanie, które wymaga dużych nakładów pracy. Testowanie jej także. Uważam, że warto wykazać się cierpliwością i wyrozumiałością, bo nie wiemy co czeka nas na końcu drogi.

      • isana pisze:

        Zgadzam się z Tobą w kwestii tego, że nie powinniśmy oczekiwać na raz zbyt wiele. Jesteśmy na początku drogi ze sztuczną inteligencją i wydaje mi się, że maszyny będą się rozwijać wraz z kolejnymi przeprowadzonymi na nich testami, a sposoby ich testowania będą dokładniejsze i lepsze wraz z rozwojem sztucznej inteligencji. To wszystko, cały ten rozwój potrzebuje czasu i bardzo wiele pracy. Test Turinga wydaje się być obiecujący na razie, jednak z czasem będzie miał coraz więcej widocznych braków oraz błędów.

      • Kacper Godlewski pisze:

        Nie do końca zgadam się z częścią dotyczącą tego, że w procesie tworzenia nie zauważamy błędów, luk.
        Takie rzeczy mogą się dziać tylko w wypadku projektów niekomercyjnych, można by powiedzieć amatorskich, gdzie nie ma funduszy alba czasu na sprawdzanie testów/programów. Jeżeli chodzi o projekty naukowe, bo wszakże takimi są takie testy, wszystko musi zostać sprawdzone pod kątem poprawności działania. Żaden szanujący się instytut bądź uniwersytet nie mógłby sobie na coś takiego pozwolić, ponieważ mogłoby to rzutować na ich reputacji. Szczególnie niemożliwe jest nie zauważenie błędów/nieprawidłowości, które się nawarstwiają tworząc tak zwany efekt kuli śnieżnej.
        Natomiast, w mojej opinii, możliwe jest projektowanie testu/programu ze złym założeniem. Doprowadzi to oczywiście do tego, iż ów projekt będzie tak naprawdę bezużyteczny, albo będzie miał niewielką wartość w kwestii sprawdzania kto lub co wykonywało test.
        Jednakowoż, zgadzam się z resztą wypowiedzi. Każdy postęp ma swoje plusy oraz minusy. Bardzo często wymagamy od nowych technologii dużo za dużo, zważając na fakt, że ówcześnie nie ma już tak ogromnego skoku technologicznego przy nowych technologiach jak kiedyś. Liczę jednak, iż ten trend się zmieni i niedługo zobaczymy do czego zdolni są ludzie w kwestii sztucznej inteligencji.

        • isana pisze:

          Nie jestem przekonana do tezy, że projekty naukowe są pozbawione błędów. Moim zdaniem nawet projekt, w który sponsorzy włożyli miliony może mieć jakieś niedoskonałości, które mogą nie być widoczne na pierwszy rzut oka. Mogą one wyjść tak na prawdę po wielu latach. Jednocześnie wydaje mi się, że złe założenia również są pewnego rodzaju błędami w testach i to właśnie ich odkrycie powoduje późniejsze ich udoskonalanie.

        • HK pisze:

          W tworzeniu AGI nie jest największym problemem znajdywanie błędów. Najważniejsze jest to, że trzeba będzie je znaleźć PRZED jej wlączeniem. Żadna sztuczna inteligecja. Rozumiejąca koncept swojego bytu nie będzie chciała być ani modyfikowana ani wyłączona. No bo przeciez nie osiągnie celu jak ją ktoś wyłączy. A jeśli zapewnimy ją jakoś (ale jak?) że ją włączymy z powrotem. To jaką ma gwarancje, że nadal będzie chciała czego chce teraz?
          I tak np tworzy się instynkt przetrwania takiej sztucznej inteligencji.
          Nie jako twór przemyślany i chciany lecz jako produkt uboczny.

  4. Hubert Głogowski pisze:

    W obecnych czasach, większość filmów science-fiction zawiera w sobie motyw “robotów”. Nie chodzi jednak o “roboty”, których ludzie używają na co dzień w pracy, czy “roboty kuchenne”, a myślące maszyny przypominające ludzi posturą, budową, a często nawet wyglądem. Wydaje się być to absurdalne i niemożliwe do wykonania, jednak na świecie już istnieją protezy ludzkich kończyn reagujących na różnorodne bodźce i wykonujące ruchy bardzo zbliżone do ludzkich. Można by stwierdzić “dobrze ale to tylko kończyna której daleko do robota”, należy jednak pamiętać, że istnieją też już programy potrafiące w bardzo szybkim tempie analizować dane i wysyłać odpowiednie dla nich reakcję. Gdy człowiek połączy te dwa czynniki powstanie maszyna potrafiąca porozumiewać się z ludźmi. Gdy to nastąpi, na świecie zacznie się pojawiać coraz więcej robotów, co z kolei zacznie przytłaczać ludzi. Spowoduje to zmianę ich wyglądu na bardziej “ludzką”, przez nałożenie odpowiednich powłok na obudowę maszynowego szkieletu. Jednak jak wtedy rozróżnimy, czy spotkany na ulicy osobnik to człowiek, czy robot? Odpowiedzią na to pytanie są testy. Jednym z tych testów mógłby być Test Turinga (TT). Jednak człowiek dąży całe życie do doskonałości, co spowodowałoby ciągłe dążenie do zaprogramowania “umysłu robota”, by ten był w stanie przejść taki test. W przytoczonym przykładzie “Mam K na K1 i innych figur nie mam. Ty masz tylko K na K6 i R na R1. Jest twój ruch. Jakie zrobisz posunięcie?” dość oczywiste jest to, że niewielu ludzi potrafiłoby odpowiedzieć prawidłowo na to pytanie nie widząc planszy z figurami. Istnieje jednak grupa ludzi potrafiących odpowiedzieć na takie pytanie (z różną prędkością). Robot nie miałby problemu z takim zadaniem, a z odpowiednim kodem potrafiłby “zasymulować” zastanowienie i udzielić odpowiedzi złej, lub dobrej ale po odpowiednim czasie by nie wzbudzało to podejrzeń. TT wymagałby więc wprowadzenia dodatkowych elementów pozwalających na jednoznaczne określenie ” z czym mamy do czynienia”. Ludzie już od dawna poruszają tego typu tematy. Najlepszym przykładem według mnie jest popularny film science-fiction z 1982 r. pt.” Łowca Androidów”. Zadaniem głównego bohatera jest wykrywanie robotów. Nie stosuje on jednak szczególnie wyimaginowanych technik, które ciężko by było pojąć przeciętnemu człowiekowi. Zadaje on pytania i stosuje prosty przyrząd odczytujący emocje z okolicy oczu. Jednak po pewnym czasie spotyka robota którego zdemaskowanie zajęło mu bardzo dużo czasu. To wszystko pokazuje to, że na ten moment same pytania, czy testy takie jak TT są wystarczające do określenia “kto jest czym”, ale w raz z rozwojem ludzi i postępem technologicznym, to nie wystarczy. Będzie trzeba stworzyć testy, których ludzie nie będą w stanie wykonać, ani ich obejść, bo jednak to człowiek jest kluczem do wszystkiego. To przecież człowiek stworzy robota, to człowiek zaprogramuje jego sposób działania i to on będzie odpowiadał za jego wygląd i to on będzie musiał umieć go kontrolować.

    • Oskar Werner pisze:

      Nie zgadzam się z Twoim zdaniem na temat rozpoznawania sztucznej inteligencji i postaram się napisać, czemu tak uważam.

      Nie rozumiem czemu maszyna według Ciebie musi mieć humanoidalną budowę (z syntezatorem mowy) i posiadać zdolność do bardzo szybkiej analizy danych, żeby móc porozumiewać się z człowiekiem. Wystarczy bardzo mało, żeby móc zacząć się porozumiewać, w skrajnych przypadkach litery można zastąpić znakami w alfabecie Morse’a i prowadzić konwersację, albo jak w opisanym na wstępie sposobie za pomocą maszyny do pisania.

      Mogę cicho uznać, że chodziło Tobie o porozumiewanie się maszyn z ludźmi w taki sposób, że człowiek nie rozróżni osoby od androida podczas codziennej rozmowy. Rozmówca odejdzie w pełnym przekonaniu o tym, że rozmawiał z człowiekiem, jednak robot nie musi wykonać takiej rozmowy, żeby uznać go za inteligentnego zgodnie z definicją podaną we wstępie. TT wykonany za pomocą alfabetu Morse’a (zakładając teraz, że jest prawdziwy) powinien jednoznacznie powiedzieć mi, czy osoba po drugiej stronie jest robotem, więc przebieranie robota jest zbędne względem naszego pytania badawczego.

      Nie wiem czemu nagle miałoby pojawiać się więcej robotów, gdyby dostały humanoidalną budowę. Pomijając ten szczegół, to nie przekonujesz mnie tak jak to napisałeś w ostatniej części testu, że człowiek jest kluczem do rozpoznania, kim jest rozmówca, ponieważ to ludzie programuję roboty. Człowiek wcale nie musi mieć nic wspólnego z maszyną, jest pełno algorytmów które piszą dużo lepsze programy od człowieka, dlatego ten argument nie ma żadnego sensu.

      • Monika pisze:

        Z kolei ja nie do końca zgadzam się z Twoim zdaniem na temat porozumiewania się maszyny z człowiekiem. Postaram się uzasadnić czemu tak uważam.
        Według Ciebie maszyna nie musi mieć humanoidalnej budowy i nie musi posiadać zdolności do bardzo szybkiej analizy danych do porozumiewania się z człowiekiem. Myślę, że takimi urządzeniami na ten moment już mamy do czynienia. Weźmy chociażby pod uwagę komputery ze sztuczną inteligencją, które uczą się podanych przez nas danych. Wykonują za nas czynności, które człowiekowi by zajęły kilka jak nie kilkanaście lat. Nie mają one ani humanoidalnej budowy ani nie posiadają zdolności bardzo szybkiej analizy danych w celu porozumiewania się z nami. Uważam więc, że powinniśmy podzielić maszyny na różne typy.
        Jak dobrze rozumiem tematem dyskusji jest raczej robot, który porozumiewając się przypomina człowieka bo inaczej test Turinga nie miałby najmniejszego sensu.
        Według Ciebie maszyna tudzież robot mógłby się posługiwać alfabetem Morse’a. W takim przypadku, ile ludzi umie się posługiwać tym alfabetem żeby móc tworzyć składne zdania tak jak w normalnej rozmowie? Wydaje mi się, że nie wiele osób posiada taką umiejętność. Robot owszem może się nauczyć, wystarczy, że odnajdzie dostęp do takich danych i od to już umie porozumiewać się Morse’m. Test Turinga jednak polega na badaniu, w którym udział biorą dwie osoby i robot, więc musi być osoba, która będzie tą drugą postacią odpowiadającą na pytania poza robotem.
        Następnie twierdzisz także, że zamiast alfabetu Morse’a można wykorzystać umiejętność pisania. Owszem można ale ona jest tylko po to żeby osoba pytająca nie słyszała głosu osoby bądź też robota, którzy odpowiadają. Jak dobrze rozumiem to test Turinga zakłada takie warunki aby osoba pytająca nie miała żadnych podpowiedzi, że tak powiem „z zewnątrz”. Ma ona się niczym nie sugerować. Poza tym, myślę że robot byłby trochę jak małe dziecko, które uczy się mówić, czytać i pisać. Zakładając takie podejście raczej rzadko kiedy zdarza się, że małe dziecko umie najpierw pisać potem dopiero mówić. Uważam więc, że robot który umiałby pisać umiałby też mówić. Takie traktowanie robota jako dziecko zastosowano na przykład w filmie pt. Chappie. Co prawda robot ten uczy się bardzo szybko ale myślę, że początki takich robotów mogłyby tak właśnie wyglądać.
        Następnie co do pojawiania się większej ilości robotów. Myślę, że źle zrozumiałeś Huberta. Przypuszczam, że miał on na myśli to, że gdyby zaczęły powstawać roboty umiejące się komunikować z ludźmi i tak jakby być w stanie prowadzić samodzielne życie, to zaczęto by je produkować w dużej ilości. Można by to potraktować jak historię w filmie pt. Ja, robot. Roboty stałyby się naszymi pomocnikami w codziennych rzeczach itp. Podchodząc w ten sposób do tego, Hubert ma rację, że ich obecność by nas przytłaczała wtedy. Jednak chcielibyśmy posiadać takiego „kolegę robota”, który by trochę przypominał człowieka.
        Na sam koniec odnosząc się do tego, że człowiek jest kluczem do rozpoznania. Uważając, że człowiek nie jest kluczem do określenia czy robot jest robotem czy człowiekiem, to co lub kto jest tym kluczem? W tym przypadku TT kompletnie traci rację bytu. Ludzie owszem programują roboty nadając tym im w pewien sposób „życie”. Twierdzisz, że człowiek nie musi mieć nic wspólnego z maszyną. W takim razie zbuduje się ona sama? Początek musi jej nadać człowiek. Więc jak dla mnie twoje stwierdzenie tym bardziej nie ma sensu. Gdyby tak było to byśmy mieli erę samo rodzących się robotów, co wydaje mi się trochę absurdalne.

        • Hubert Głogowski pisze:

          Zgadzam się z twoim komentarzem Monika. Po prostu w obecnych czasach wszystko rozwija się w bardzo szybkim tempie. Jeszcze nie tak dawno (patrząc na to ile lat istnieje nasz gatunek) nie istniały samochody czy komputery nie wspominając nawet o robotach. W moich wypowiedziach wybiegam w przyszłość. Ludzkie organizmy są obecnie najlepiej rozwiniętymi spośród istniejących gatunków, co powoduje, że “robot doskonały” przypominałby człowieka i potrafił robić wszystko to co on. Jest to pokazane nie tylko w przytoczonych już wcześniej filmach (“Ja robot”, “Łowca androidów”, “Sztuczna inteligencja” itp.) ale również pojawia się to już w obecnych czasach. https://www.youtube.com/watch?v=vysTCYghKHo . https://www.youtube.com/watch?v=y3RIHnK0_NE . Pod drugim linkiem znajduje się film pokazujący roboty, przypominające wyglądem ludzką sylwetkę potrafiące się bardzo dobrze poruszać. Są to roboty przeznaczone głównie do celów wojskowych, jednak większość wynalazków miało swój początek w wojsku. Pod pierwszym linkiem znajdują się wypowiedzi 3 robotów na temat ludzkości. Są one dowodem, że z robotami trzeba uważać, by nie dać im zbyt dużej władzy i możliwości. Dodatkowo drugi z wypowiadających się robotów swoim wyglądem bardzo przypomina człowieka. Takich filmików znajduje się bardzo dużo w internecie i potwierdzają moją tezę, że ludzie upodabniają roboty coraz bardziej do ludzi. A teraz przejdę do testów. Na świecie istnieją miliony testów, dotyczące prawie wszystkiego np. testy IQ, testy na wytrzymałość organizmu, testy na różnego rodzaju choroby itd. Jednak wraz z rozwojem ludzi, testy te ulegają zmianie, gdyż w pewnym momencie nie są w stanie oddać prawidłowych wyników. Najlepszym przykładem są testy dla sportowców – z powodu lepszych możliwości treningowych, lepszej znajomości ludzkiego organizmu i znajomości lepszych technik, ludzie są w stanie osiągać coraz więcej. Co chwilę zostają pobite rekordy świata, wymyślane są nowe konkurencje, jednak co by było, gdybyśmy porównali sportowca z roku 2020 i sportowca z roku 1990? Teoretyczne wyniki obecnych testów przeprowadzonych w latach 90 XX wieku wykazałyby, że największe talenty tamtejszego okresu byłyby przeciętne. To samo dotyczy testu TT. Obecnie test ten sprawdza się bardzo dobrze i jest “wystarczający. Jeśli jednak rozwój robotów będzie następował z takim tempem jak teraz, to za kilka lat większość robotów będzie w stanie “oszukać test” i zostać nierozpoznanym. Będzie należało udoskonalić test np. za pomocą dodatkowych czynników. “Tak” jest to wybieganie w przyszłość, jednak sztuczna inteligencja rozwija się w takim tempie, że zanim się obejrzymy, wyimaginowane wizje otaczających nas robotów, pomagających nam w codziennych czynnościach, rozmawiających z nami, myślących za nas, staną się prawdziwe.

    • Oskar Werner pisze:

      Zgadzam się ze stanowiskami użytkowników Emilian Obrębski i Daniel Kwaśniak na temat TT. Zauważyli i uargumentowali, czemu zdanie przez maszynę TT nie oznacza od razu, że jest ona inteligentna. Podawali przykłady testów które testowałyby według mnie ważniejsze aspekty które definiowałyby inteligencję maszyny, między innymi maszyny miałyby opisać tematy bardziej emocjonalne, np. życie, śmierć czy miłość (pomysł Daniela) lub sprawdzać zdolność maszyny do adaptacji do różnych sytuacji, rozwiązywania problemów czy samodzielnej nauki (pomysł Emiliana), lecz dalej widzę w nich jeden problem. Może to brutalnie zabrzmieć, ale jest szansa, że przy odpowiedniej ilości danych maszyna też może opisać emocje, a komputer teraz w bardzo chaotyczny, ale może się uczyć sposobem machine learning, zaawansowany komputer mógłby prowadzić symulacje wewnątrz siebie w odpowiednio szybkim tempie. Może teraz to wykracza poza zdolności maszyn, szczególnie ta symulacja, ale w przyszłości komputer mógłby mieć wystarczającą moc obliczeniową do zdawania powtarzalnie tych testów nie będąc inteligentną.

      Ja mam jednak pomysł na jednoznaczny test tego, czy maszyna jest świadoma i inteligenta (dla mnie to są dwie nierozłączne rzeczy) czy nie. Wystarczy zdefiniować inteligencję oraz świadomość matematycznym modelem i sprawdzić czy maszyna się w nim zawiera, jak tak to jest, jak nie to nie jest. Oczywistym problemem tego podejścia jest to, że nikt nie umie zdefiniować świadomości i inteligencji, ludzki umysł jest dla nas wielką tajemnicą, której nie poznamy w najbliższym czasie, na pewno nic na to nie wskazuje.

      Na koniec mojego wpisu chciałbym postawić bardzo odważną hipotezę korzystając z edukacyjnego charakteru naszej debaty, odpowiedzcie proszę czy się z nią zgadzacie czy nie, gdzie widzicie luki w moim rozumowaniu. Hipoteza brzmi:

      Nie istnieje skończona liczba testów mogąca rozstrzygnąć, czy maszyna jest inteligentna i świadoma, które nie byłyby w sumie równoważne z matematycznym modelem inteligencji oraz świadomości.

      • Paweł Stacewicz pisze:

        Ciekaw jestem, czy Pana intencje wyraża następujące zdanie warunkowe dotyczące testów (ZWT):

        — Jeśli istnieje skończona liczba testów na inteligencję i świadomość maszyny, to testy te są zgodne z matematycznym modelem inteligencji i świadomości.

        Jeśli Pana hipotezę można by tak sparafrazować, to miałbym kilka następujących spostrzeżeń:

        1) Ponieważ ZWT jest zdaniem warunkowym, nie mówi ono nic o tym, czy istnieje taka skończona liczba testów (stwierdza tylko, że jeśli istnieje to…). Mimo tego ciekawi mnie Pana zdanie na temat owej nieskończonej liczby… Poddaję przy tym pod rozwagę taką oto myśl, że samych matematycznych modeli inteligencji i świadomości może być zasadniczo nieskończenie wiele. Wraz z rozwojem psychologii, neurobiologii i innych nauk o umyśle/mózgu, ale także samej matematyki, będą powstawał coraz to nowe modele matematyczne (i być może ten proces ich tworzenia nigdy się nie zakończy). Trochę ogólniejszych myśli na ten temat można znaleźć w równoległej dyskusji o popperowskieh wizji rozwoju nauki.

        2) ZTW nie mówi także nic o istnieniu i kształcie matematycznego modelu inteligencji i świadomości. Tutaj również podzielę się spostrzeżeniem, że informatycy (na spólkę z innymi specjalistami) mogą próbować tworzyć systemy inteligentne (i może nawet tak robią) bez jakiegoś całościowego modelu matematycznego inteligencji i świadomości. Wypróbowują po prostu i sprawdzają w praktyce różne konfiguracje pewnych podsystemów i stojących za nimi technik. Być może dopiero coś co stworzą i co spełni TT lub podobny test, będzie dobrym punktem wyjścia do prac nad modelem inteligencji i świadomości. Chodzi o to, że tworzenie modelu może być w pewien sposób uwikłane w praktykę konstruowania systemów spełniających odpowiednie kryteria; a nawet może być uwarunkowane wynikami inżynierów.

        3) ZWT nie mówi też nic o związku inteligencji ze świadomością, chociaż zdaje się zakładać bardzo silny związek (używa Pan sformułowań “inteligencji i świadomości”) . Czy sądzicie Państwo, że matematyczny model inteligencji musi zakładać i wykorzystywać matematyczny model świadomości? Czy obydwa modele (i pojęcia) można jakoś rozdzielić?

        • Oskar Werner pisze:

          Pana spostrzeżenia są dla mnie poprawne, bardzo się cieszę, że zostałem zrozumiany. Odpowiadając na pana pytania:

          1) Na tą chwilę to nie chcę stwierdzić, czy na pewno istnieje skończona liczba testów która by opisała model matematyczny inteligencji lub świadomości. Pewnie istnieje, dzięki mózgowi posiadamy inteligencję, a obojętnie jak to teraz naiwnie zabrzmi, to mózg jest skończonym zbiorem bramek logicznych. W mózgu jest około 1015 połączeń (link: https://aiimpacts.org/scale-of-the-human-brain/), a opis pojedynczej bramki znamy, więc powinno móc się zbadać mózg, ale jak wcześniej napisałem, wolę wstrzymam się od ostatecznej decyzji.

          Jak tak teraz dłużej myślę, to pewnie istnieje nieskończona liczba testów sprawdzająca inteligencję, ale ich przebieg i ich wygląd byłby inny niż obecnie. Nie chcę teraz wyciągać pochopnych wniosków, ale gdybyśmy poznali dokładnie całą fizykę, w pełni zrozumieli mechanikę kwantową którą można opisać matematycznym językiem, to można opisać każde zachowanie (lub tak naprawdę cokolwiek) za pomocą matematycznego modelu. Wtedy sprawdzenie czy coś jest inteligentne czy nie, to byłaby kwestia zwykłej analizy matematycznej. W analizie matematycznej stosujemy pomiary (w naszym wypadku testy) które niedokładnie opisują badaną rzecz, ale wraz z ilością pomiarów, dokładność wyniku się zwiększa, a gdy “zrobimy” ich nieskończenie wiele to dostaniemy dokładny wynik. Jak wszystko to co napisałem w tym akapicie jest poprawne, to istnieje zbiegająca do nieskończoności ilość testów sprawdzające inteligencję, ale one zamiast empirycznych badań to byłyby odpowiednią analizą matematyczną.

          2) To rzeczywiście jest dobry punkt wyjścia, w moim poprzednim wpisie i we wpisach poprzednich użytkowników było wytłumaczone czemu TT nie jest wystarczającym testem, jednak wytłumaczę czemu dalej może być przydatny. Pozwolę postawić tezę wynikającą ze wstępu do naszej dyskusji: Każda maszyna, która nie zda testu, nie jest inteligentna. Jeśli jakaś maszyna zda ten test to rzeczywiście można zacząć ją bardziej badać, co pan dokładnie opisał.

          3) Co można łatwo zauważyć czytając moje wpisy, dla mnie świadomość i inteligencja są nierozłącznymi elementami. Nie wyobrażam podejmowania świadomych decyzji bez posiadania inteligencji i podejmowania inteligentnych decyzji bez własnej świadomości, dlatego jedno nie istnieje bez drugiego. Też chciałbym usłyszeć odpowiedź na pytanie zadane przez pana Pawła Stacewicza.

          • Oskar Werner pisze:

            – W mózgu jest około 1015 połączeń
            Oczywiście jest ich 10^15, przepraszam za błąd. Przeklejałem tekst z worda i nie zauważyłem, że program tak zmienił mój wpis.

      • Monika pisze:

        Tutaj się nie zgadzam tylko z pierwszym Twoim akapitem, mówiącym o tym, że maszyna może zdać test nie będąc inteligentą.
        Trzeba by zacząć od tego żeby jasno i konkretnie zdefiniować pojęcie inteligentny/inteligencja. Według słownika języka polskiego inteligentny to taki, który jest obdarzony inteligencją, jest rozumny, myślący, niegłupi. Do tego trzeba by dodać konkretne kryteria, które pozwoliłyby ocenić czy maszyna jest faktycznie inteligenta. Każdy z nas trochę inaczej rozumie to pojęcie więc dokładniejsze jego określenie dużo by dało.
        Według TT maszyna jest już inteligenta kiedy nie możemy jej odróżnić od człowieka. A co w przypadku kiedy jest mądrzejsza od człowieka? Czy wtedy już nie jest inteligentna?
        Jak do tej pory nie znamy możliwości ludzkiego mózgu. Jest to dalej dla naukowców pewną zagadką. Jedyne co jest pewne to to, że nie wykorzystujemy tylko 10%-20% mózgu jak twierdzono w filmie pt. Lucy. Jak stwierdził neurolog Barry Gordon podczas wystąpienia na Johns Hopkins University School of Medicine w Baltimore, “używamy praktycznie każdej części mózgu i większość jego części jest aktywna cały czas”.
        Skoro pokłady ludzkiego mózgu nie są nam dalej znane to w jaki sposób możemy stwierdzić, że robot, który przejdzie test bezbłędnie jest nieinteligentny? Prawda jest taka, że gdy coś przerasta człowieka, w tym przypadku umysłowo, to się tego boi i zaprzecza temu. Uważam, w przeciwieństwie do Ciebie, że gdyby doszło do takiej przyszłości, w której maszyny miałyby tą zdolność do szybkiego uczenia się, prowadzenia symulacji wewnątrz siebie itp. to wręcz przeciwnie, właśnie to by świadczyło o ich inteligencji. Wydaje mi się, że w sytuacji kiedy maszyna/robot wykonywałaby czynności lub procesy myśleniowe, które wykraczałaby poza ludzki umysł świadczą o jej inteligencji. To, że człowiek nie jest czegoś w stanie pojąć nie jest jednoznaczne z tym, że nie jest to inteligentne.
        Skoro maszyna byłaby podczas TT w stanie przeprowadzać wewnątrz siebie symulacje co powiedzieć, żeby odebrano to jako odpowiedź człowieka pokazuje nam w ten sposób, że nie jest głupia, czyli posiada jedno z określeń wymienionych w definicji inteligentnego w SJP. Idąc dalej tym tropem, skoro maszyna wiedziałaby czego możemy oczekiwać żeby ją zdemaskować i że nie może być nieomylna, wskazuje na to że jest myśląca. Co również znajduje się w definicji.
        Uważam, że robot, który zdałby TT, nie byłby nieinteligentny tylko z takim ilorazem inteligencji, który wykracza poza nasze. Moglibyśmy go wtedy poddać testom IQ żeby co najwyżej ustalić jaki iloraz tej inteligencji ma. Lecz biorąc pod uwagę sytuację, w której maszyny już mają te zdolności o których pisałeś można by się było spodziewać, że wynik ten będzie maksymalny.
        Odwołując się do tego co napisał Daniel Kwaśniak na temat badania maszyn odnośnie tematów emocjonalnych, myślę, że ma rację. Wydaje mi się, że maszyna nigdy nie będzie wstanie oddawać uczuć, które znamy. Takie samo stwierdzenie wykorzystano w filmie „Ja, robot”.
        Podsumowując, stwierdzam iż badanie czy robot jest inteligentny powinno w przyszłości być uzupełnione o dodatkowe kryteria takie jak właśnie emocje, uczucia. Tego typu badania dałyby nam raczej odpowiedź na pytanie czy jesteśmy w stanie odróżnić robota od człowieka, bo inteligencją jak powiedziałam może nas znacznie przerastać.

        • ad pisze:

          Moim zdaniem formułując swoje stanowisko zapomniała Pani o bardzo ważnej kwestii, jaką jest łatwość, z którą można oszukać człowieka. Żebym nie została źle zrozumiana doprecyzuję co mam na myśli. Wiadomo, że gdyby człowiek był nieomylny to TT nie miałby sensu, bo zawsze wiedzielibyśmy który z odpowiadających jest maszyną. Jednak bardzo często ludzie przeciętnie inteligentni, stosując proste sztuczki i manipulację, potrafią zaprezentować się w korzystniejszym świetle. To, że uda im się przekonać swoich rozmówców do swojej wiedzy, bądź inteligencji nie znaczy, że tak jest w rzeczywistości. Posłużę się prostym porównaniem. Jeśli przekonamy wszystkich wykładowców na roku, że jesteśmy pilnymi studentami, to czy oznacza to, że nimi jesteśmy? Jeśli tak, to bycie pilnym studentem sprowadza się do przychodzenia na wykłady i udawania zainteresowania. Teza, którą próbuję sformułować to to, że człowieka można oszukać posługując się ograniczoną liczbą sztuczek, niekoniecznie je rozumiejąc, a jedynie stosując je z powodzeniem. Dlatego według mnie fakt, że maszyna przeszła TT może świadczyć o jej inteligencji, ale równie dobrze może być wypadkową umiejętnych sztuczek zaprogramowanych przez jej twórców oraz podatnością na nie sędziów.
          Żeby zilustrować moją myśli, podam dwa przykłady.
          Pierwszy z nich to fakt, że w naszej historii był już komputer, który “zdał” TT. Był to program Eugene Goostman, który miał osobowość 13-latka z Odessy na Ukrainie. Test został przeprowadzony w Royal Society w Londynie przez badaczy z University of Reading. Autorzy wykorzystali wiek oraz barierę językową, którą oczywiście miałby człowiek w takiej sytuacji, a więc proste sztuczki pokroju “Nie rozumiem, nie będę odpowiadał na to pytanie, nie chce mi się” gdy maszyna nie znała odpowiedzi. Program autorstwa Władimira Welesowa oraz Eugena Demczenko przekonał ponad 30% sędziów, że jest człowiekiem w czasie 5 minutowej rozmowy bez narzuconych pytań. Po zdanym teście program został opublikowany w Internecie, jednak okazuje się, że równie szybko został z niego zdjęty. Po konfrontacji ze specjalistami program ujawniał znaczące braki, np. Na pytanie:” Co jest większe pudełko na buty czy Mont Everest?” odpowiedział: ”Ja teraz nie umiem wybrać, pomyślę o tym później”. Pojawia się więc pytanie, czy rzeczywiście zdany test świadczy o inteligencji i sprycie sztucznej inteligencji, czy jednak jej twórców. Wydaje się bowiem, że wystarczyły dwie proste sztuczki oraz dobra konstrukcja odpowiedzi, aby oszukać ponad 1/3 testerów.
          Drugi przykład, który chciałam zaprezentować nie jest bezpośrednio związany z Pani wypowiedzią, lecz nasunął mi się razem z pytaniem, co w przypadku, kiedy to człowiek nie przejdzie TT. Oczywiście był taki przypadek w historii. Komputer, jak się wydawało, zbyt dobrze znał sonety Shakespeare, prawie na pamięć. Większość sędziów zadecydowała, że ma do czynienia z komputerem, któremu autorzy nie wgrali odpowiedniego systemu “ograniczającego wiedzę”. Jak się jednak później okazało, odpowiadającym był profesor, wybitny znawca tej dziedziny. Czy fakt że nie przeszedł TT oznacza że nie był inteligentny? Wszyscy zgodzimy się, że nie. Więc co to oznacza? Moim zdaniem jest to przesłanka, żeby twierdzić, że ludzie mogą się mylić co do inteligencji komputera, tak jak mogą się mylić w kwestii inteligencji drugiego człowieka.
          Podsumowując swoje rozważania, uważam, że teza o tym, że komputer, który przejdzie TT musi być inteligentny jest błędna, ponieważ człowieka przeprowadzającego testy bardzo łatwo jest oszukać.

          • Monika pisze:

            Cieszę się, że nawiązała Pani do mojego komentarza. Postaram się teraz odnieść do Pani komentarza.
            Z jedyną rzeczą z jaką się zgadzam w Pani wypowiedzi jest przykład profesora, który perfekcyjnie znał sonety Shakespeare’a a nietrafnie został „zdiagnozowany”.
            Rozwijając Pani myśl moim zdaniem negatywny wynik tego testu może być skutkiem niewystarczająco dobrej kadry badającej lub zbyt małej ilości pytań na inne tematy. W swoich wypowiedziach właśnie poruszyłam przypadek kiedy badana jednostka jest mądrzejsza niż zakładamy. Taka sytuacja nie powinna być podwaliną do stwierdzenia, że ktoś/coś nie jest inteligentny. To jest dokładnie przykład tego co poruszyłam w swoich wypowiedziach na temat wykraczania badanych ponad wiedzę badających.
            Twierdzi Pani, że tego iż człowieka można łatwo oszukać nie wzięłam pod uwagę w swoim komentarzu i muszę się tutaj z Panią nie zgodzić, ponieważ wzięłam to pod uwagę pisząc: „Skoro maszyna byłaby podczas TT w stanie przeprowadzać wewnątrz siebie symulacje co powiedzieć, żeby odebrano to jako odpowiedź człowieka pokazuje nam w ten sposób, że nie jest głupia, czyli posiada jedno z określeń wymienionych w definicji inteligentnego w SJP. Idąc dalej tym tropem, skoro maszyna wiedziałaby czego możemy oczekiwać żeby ją zdemaskować i że nie może być nieomylna, wskazuje na to że jest myśląca. Co również znajduje się w definicji.” Owszem, gdyby wziąć pierwszą lepszą osobę „z ulicy” to zdecydowanie łatwiej byłoby ją oszukać niż osobę, która jest specjalnie przeszkolona do przeprowadzania takich testów jak TT.
            Tak, każdego człowieka da się oszukać mniej lub bardziej ale w tym przypadku maszyna musi wiedzieć jak to zrobić żeby nie ujawnić swojej maszynowej tożsamości więc chciał nie chciał musi ona być myśląca i musi przeprowadzać wewnątrz siebie jakieś procesy myśleniowe.
            Teza, którą Pani postawiła jest trafna w przypadku jeśli osoba badająca jest przeciętną osobą a nie specjalistą przeznaczonym do wykonywania takich testów. Przeciętny człowiek w swoim życiu nie wykracza poza schematy jakimi kieruje się w życiu, co porusza Robert Cialdini w książce „Wywieranie wpływu na ludzi. Teoria i praktyka”. Przykład ze studentami i wykładowcami nie do końca jest trafny, ponieważ wystarczyłoby, że wykładowca zadałby pytanie odnoszące się do wcześniejszego materiału i w tym momencie wyszłoby kto jest pilny a kto nie.
            Tak samo uważam, że przejście TT będące wynikiem wypadkowej umiejętnych sztuczek zaprogramowanych przez jej twórców nie jest trafne. Oczywiście twórcy mogą wgrać w system jakieś sztuczki na oszukanie osoby badającej lecz nigdy nie przewidzą wszystkich możliwych opcji. Wystarczyłoby wtedy tak poprowadzić test, że w którymś momencie zabrakłoby maszynie zaprogramowanych sztuczek tak jak w przypadku określenia czy student jest pilny. Natomiast w przypadku robota, który sam by się uczył i przeprowadzałby procesy myśleniowe wewnątrz siebie (taki przypadek robota zakładałam w każdej swojej wypowiedzi) byłoby już trudniejsze zidentyfikowanie oszukiwanie przez badaną istotę.
            Jeśli chodzi o przejście TT przez program Eugene’ego Goostman’a to uważam tak samo jak w przypadku negatywnego wyniku testu profesora. Myślę, że 5 minut na taki test to było zdecydowanie za mało. Tak samo uważam, że aby stwierdzić czy robot jest jak człowiek to powinien on przejść kilka testów a nie tylko jeden i najlepiej przez różne ekipy badających w celu zweryfikowania czy test nie wyszedł błędnie negatywny bądź pozytywny. Żaden test wykonany jednorazowo nie jest w 100% wiarygodny więc potrzeba kilku kolejnych testów aby go potwierdzić.
            Podsumowując moją wypowiedź, uważam że program/robot/maszyna w celu identyfikacji jego inteligencji powinien przejść przez serię testów oraz zostać zbadanych przez kilka grup badawczych, składających się nie tylko z naukowców ale również takich osób jak psycholog, itp.

    • Piotr Kałowski pisze:

      Zgadzam się w dużym stopniu z Panem Hubertem. W innych swych komentarzach także podkreślałem, że za każdą sztuczną inteligencją stoi człowiek, który dąży do oszukania testu Turinga. Chciałbym dodać (na podstawie moich dalszych przemyśleń), że podzielam opinię, iż roboty mogłyby zacząć przytłaczać ludzi, jeżeli pojawi się ich zbyt dużo.

      To o czym rzadko się wspomina to komunikacja międzyludzka: ludzie potrzebują kontaktu z drugim człowiekiem, rozmowy z kimś kto przejawia uczucia. Tego sztucznej inteligencji, robotom zawsze będzie brakować, gdyż człowiek ma dość dobrą zdolność do rozpoznawania “sztucznych” uczuć. Oznacza to, że nawet zaimplementowanie w robotach zdolności wyrażania uczuć, emocji nie spowoduje, że ludzie będą się z nimi czuć w pełni komfortowo.

      Chciałbym podkreślić, że osobiście wiążę duże nadzieje z rozwojem sztucznej inteligencji. Uważam, że w wielu dziedzinach może ona zastąpić czy uzupełniać ludzi i czynić nasz świat lepszym, pełniejszym. Trzeba poważnie się jednak zastanowić nad testowaniem inteligencji robotów: test Turinga (mimo swego wieku) daje odpowiedź na pytanie “czy mamy do czynienia z robotem?”, ale nie określa poziomu inteligencji robota. Czy to informacje z testu Turinga są wystarczające? Moim zdaniem, na obecną chwilę, tak (jak już wspominałem w innym komentarzu). Oczywiście (jak także wspominałem) należy postarać się opracować test utrudniający oszukanie arbitrów, a obecnie określanie dokładnego poziomu inteligencji robota jest bezcelowe. Kluczowe jest jednak słowo “obecnie”, bo w dłuższej perspektywie (o czym także wspominałem w innym z komentarzy) należy opracować sposób określania inteligencji sztucznej inteligencji w nowo zaproponowanej skali – tak by dążyć do stałego doskonalenia techniki.

      • Kacper Godlewski pisze:

        Zdecydowanie nie zgadzam się z drugim akapitem, w dalszej części postaram się pokazać mój punkt widzenia.

        W istocie ludzie są gatunkiem stadnym i potrzeba obcowania z innymi osobami jest bardzo silna, nie biorąc oczywiście skrajnych przypadków, które zawsze gdzieś się znajdą. Jednak jestem sobie w stanie wyobrazić, to że ludzkość stworzy powłoki dla robotów, które będą wyglądały zupełnie jak ludzka skóra, oczy itp. Nie jest to oczywiście możliwe w przeciągu najbliższej dekady, ale raczej za kilkadziesiąt lat. Do tego czasu, jest możliwe, że sztuczna inteligencja będzie posiadała zachowania bardzo zbliżone do ludzkich, lub też nawet perfekcyjnie je imitująca. Kiedy już do tego dojdzie i roboty będą nieodróżnialne w wyglądzie od ludzi, nie będzie można stwierdzić po wymienieniu kilku zdań czy mamy do czynienia ze sztuczną inteligencją. Dopiero przeprowadzenie testu będzie mogło nam pokazać z kim/czym mamy do czynienia, podobnie jak w filmie „Łowca androidów”.

        Zgadzam się natomiast z kolejnym akapitem. Roboty będą niezbędne, w niektórych sektorach już są, przy funkcjonowaniu naszej cywilizacji. Moim zdaniem najrozsądniejszym rozwiązaniem byłoby zostawienie robotów przemysłowych w takim kształcie jak wyglądają teraz. Humanoidalne roboty powinny być wykorzystywane w pracy z ludźmi, na przykład przy opiekowaniu się chorymi, starszymi, aby odciążyć emocjonalnie ludzi, którzy się nimi zajmują.

      • Maciej Ołowski pisze:

        Zgadzam się w pewnym stopniu z Panem Hubertem oraz Piotrem.

        Uważam także, że test Turinga działa podobnie do zabezpieczeń na stronach internetowych i hakerach próbujących je złamać. Jedni i drudzy ulepszają swoje rozwiązania tak, aby wygrać. Podobnie w teście jedni staraliby się go ulepszyć by móc wskazać z większym prawdopodobieństwem czy rozmówca jest robotem, a drudzy staraliby się ulepszać roboty w celu pozytywnej oceny inteligencji robota.

        Osobiście jestem zdania, że test Turinga należy ulepszyć, tak aby wiedzieć jaki tok myślenia ma robot rozmawiający z nami. Dążyłbym do konwersacji, w których ogólny temat rozbijamy o różne szczegóły żeby zobaczyć czy robot wie tylko jak rozwiązać daną sytuacje czy potrafi ją przeanalizować dogłębniej i uargumentować.

        Jak widać po tym co napisałem wyżej wydaje mi się, że inteligencja robota powinna być określana przez to w jaki sposób rozwiązuje daną sytuacje, a nie przez samo jej rozwiązanie. Znaczącą rolę w upodabnianiu robota do człowieka dla mnie ma możliwość swobodnej konwersacji między robotem a człowiekiem podpartej argumentami zarówno z jednej, jak i drugiej strony. Jeżeli robot przedstawiłby mi podczas takiej rozmowy swój tok myślenia, który uznałbym za naturalny dla człowieka, określiłbym go jako inteligentnego.

      • Kacper Waśniewski pisze:

        Zgadzam się z wypowiedzią Pana Piotra. Ludzie potrzebują mieć kontakt z drugim człowiekiem, moim zdaniem roboty tego nie zastąpią . W przypadku gdyby pojawiły się one w naszym codziennym życiu mogłyby być utrapieniem dla większej liczby ludzi.
        Roboty nie potrafią przejawiać „prawdziwych” uczuć, co jest konieczne do relacji międzyludzkiej. Człowiek po „umiejętnościach” wyrażania uczuć jest w stanie szybko określić czy ma do czynienia z robotem, czy wręcz przeciwnie. Samo przebywanie w towarzystwie robota nie tworzy relacji tak jak w przypadku człowiek – człowiek. Gdyby sztuczna inteligencja wykazywała pewną formę uczyć , nadal nie mogłaby zastąpić drugiego człowieka w obyciu międzyludzkim. Komfort rozmowy, czy przebywania z robotem zamiast człowiekiem nie będzie taki sam.
        Oczywiście nie jestem w stanie przewidzieć w jakim stopniu będzie zaawansowana technologia. Jednakże każde nowe rozwiązanie zostanie stworzone przez ludzkość, musi ona pamiętać by nie zatracić własnego człowieczeństwa. Sztuczna inteligencja może nam pomóc, ale nie zastąpi nam drugiego człowieka.

    • AR pisze:

      Osobiście nie wydaje mi się, żeby ludzie odpowiedzialni za przygotowywanie sztucznej inteligencji celowali, aby ich sztuczna inteligencja przypominała jak najbardziej człowieka (oczywiście będzie kilka przypadków, ale będzie to bardziej w formie ciekawostki niż faktyczne wykorzystanie). Człowiek ma po prostu zbyt wiele wad zarówno fizycznych jak i psychicznych, które sztuczna inteligencja nie musi mieć i nie ma sensu, aby je powtarzała. Nie zgodzę się również ze stwierdzeniem, że człowiek tworzy robota, to znaczy, że wie jak będzie działa w chwili obecnej oraz jak będzie działać w przyszłości. Sztuczna inteligencja polega na tym, że na podstawie informacji jakie otrzymuje, może się rozwijać czy rozwiązać jakiś problem. Jeżeli taki program będzie przygotowany, aby był sztuczną inteligencją nie skierowaną w celu rozwiązania konkretnego problemu, a w celu istnienia oraz rozwijania, to na podstawie znacznie większych możliwości poznawczych świata to będzie mógł tak dostosować się do naszego świata, że pod każdym względem będzie mógł przewyższyć stwórcę/ów. Jak sztuczna inteligencja będzie powyżej poziomu człowieka, to człowiek już nie będzie wstanie nad nim kontrolować. Oczywiście nie jest to bliska przyszłość. Piszesz również, że programista musi przygotować robota, który będzie mógł rozwiązywać testy typu tego Turinga i tak dalej. Oczywiście, na samym początku rozwoju takiej technologi w której jesteśmy jaką jest sztuczna inteligencja to, żeby zdać takowe testy, to będzie konieczne, ale w przyszłości pewnie się to zmieni. Ludzie przestaną pisać sztuczną inteligencję by rozwiązywał konkretny problem, a zaczną pisać, żeby taki program, mógł samoistnie istnieć i uczył się rozwiązywać wszelakie problemy. Być może, test Turinga nadal jest skuteczny w obecnych czasach, ale wkrótce może nie wystarczyć. I tutaj pojawia się pytanie, jeżeli sztuczna inteligencja będzie wstanie rozwiązać każdy problem (w tym udawanie człowieka podczas testu) to czy jest jakiś test, który umożliwi rozróżnienie człowieka od podszywającego robota.

      • Monika pisze:

        W 100% zgadzam się z każdym Twoim zdaniem. Wspominałam już o tych samych aspektach w swoich poprzednich wypowiedziach.
        Pytanie tylko co w takim przypadku z prawami robotyki sformułowanymi przez Isaaca Asimova? Czy chcemy mieć dalej roboty, które tych praw przestrzegają? Wydaje mi się, że tak. Tylko właśnie tu pojawia się problem z sytuacją kiedy maszyna będzie przewyższać człowieka i ten już nie będzie miał nad nią kontroli, co jest niezgodne z drugim prawem robotyki, mianowicie: robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem.
        Taka sytuacja została przedstawiona w filmie pt. „Konspiracja Echelon”. Myślę, że w takim przypadku trzeba by zastosować podobne rozwiązanie do tego co w filmie, czyli kiedy maszyna/robot łamie pierwsze prawo Asimova, które brzmi następująco: robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy, to wiedząc, że czyni krzywdę i przez swoje czyny już nie stoi za dobrem ludzi doprowadza do samodestrukcji. Chyba, że maszyna ta będzie miała zainstalowany „czerwony przycisk”, który pozwoli na jej szybkie wyłączenie. Chociaż myślę, że maszyna która przekracza umysł ludzki dałaby sobie radę z takowym przyciskiem bo nie dałaby się w tak łatwy sposób zniszczyć/wyłączyć człowiekowi.
        Tak naprawdę gdyby były prowadzone prace nad stworzeniem tak potężnej umysłowo maszyny, należałoby współpracować z analitykami ryzyka, jakie niosłoby wprowadzenie takiej maszyny w życie.

    • Kacper Godlewski pisze:

      Po części zgadzam się z tą wypowiedzią.

      Roboty na obecną chwilę są wykonywane wyłącznie przez ludzi i mają bardzo ograniczoną funkcjonalność. Więc układanie testów nie jest przesadnie trudne, natomiast testy muszą być wykonywane pod konkretną sztuczną inteligencje lub sytuację. Stworzenie uniwersalnych testów pokazujących czy mamy do czynienia z człowiekiem czy sztuczną inteligencją, nawet na ówczesnym poziomie zaawansowania jest dość trudnym wyczynem. Programy będą coraz bardziej zaawansowane, a tworzenie testów coraz trudniejsze, szczególnie w momencie stworzenia całkowicie samouczącej się sztucznej inteligencji korzystającej z zasobów internetu. Dodatkowo, na ten moment, nie ma idealnych testów i zawsze jest szansa na danie odpowiedzi fałszywie pozytywnej lub fałszywie negatywnej. Jednakże moim zdaniem jedną z opcji jest stworzenie programu do tworzeniu takich testów. Wtedy eliminowany jest problem tworzenia sztucznej inteligencji tworzonej tak, aby przechodziła testy wykonywane przez ludzi. Są one wtedy również na bieżąco udoskonalane co w pewnym momencie powinno dać procent fałszywych odpowiedzi bardzo bliski lub nawet równy zeru.

  5. Daniel Kwaśniak pisze:

    Sztuczna inteligencja to niesamowicie chwytliwy temat w dzisiejszych czasach, który potrafi wzbudzić wyobraźnie. W ostatnich latach tempo prac nad nią uległo wzrostowi i możemy obserwować co raz to lepsze maszyny. Natomiast bardzo istotną sprawą w tej dziedzinie jest możliwość prawidłowego określenia czy taka maszyna jest faktycznie “inteligenta”. Taką możliwość daje wymyślony już dosyć dawno Test Turinga, ale czy na pewno ta metoda jest odpowiednim sposobem?

    Według mnie metoda, która zaproponował Turing jest już dosyć przestarzała i nie jest do końca odpowiednim sprawdzianem dla maszyny. Przy odpowiednio dobrej bazie danych, zawierającej odpowiedzi na różnego rodzaju pytania zadawane przez człowieka, taka maszyna może sobie poradzić z takim testem, ale czy wtedy możemy już nazwać ją inteligentną? Moim zdaniem jest to zdecydowanie mniej niż oczekuje się od inteligentnej maszyny. Aby przeprowadzić taką, całkiem przekonującą rozmowę, nie są potrzebne jakieś nadzwyczajne zdolności przetwarzania danych. Inną kwestią są trudne pytania, z którymi miałby problem również zwykły człowiek. Jednakże jak już wspomniał Pan Hubert Głogowski, pewnie znaleźli by się ludzie, którzy po zastanowieniu odpowiedzieliby na nie, co powoduje pewne wątpliwości w teście.
    W Teście Turinga powinno się koncentrować na czymś innym niż zdolności do konwersacji, bo aktualnie istnieją już programy, które dobrze sobie z tym radzą, ale nie musi to świadczyć o ich “inteligencji”. Wydaje mi się, że dobrym pomysłem byłoby zadawanie nie tak oczywistych pytań sprawdzających świadomość maszyny, na tematy bardziej emocjonalne dla ludzi, np. życie, śmierć, miłość. Możnaby sprawdzać wtedy, jak maszyna reaguje, czy potrafi wykreować odpowiedź, która w pewnym sensie kształtuje jej poglądy. Dobrym pomysłem byłoby nawet wielokrotne zadawanie podobnych pytań, aby sprawdzić czy maszyna zgadza się z samą sobą, a nie przypisuje sobie po prostu zdanie, zaczerpnięte ze źródeł zewnętrznych. Bardzo ważne jest, żeby taki test na inteligencje dla maszyny, umiał określić czy maszyna zdaje sobie sprawę z tego co robi, czy też są to całkowicie bezmyślne, sztywno zaprogramowane zachowania.
    Zastanawiam się nad tym, czy nie ciekawym rozwiązaniem byłoby zestawienie ze sobą dwóch identycznych maszyn, i obserwowanie ich konwersacji na jakiś ustalony temat. Być może równie dużo wniosków można by wyciągnąć z takiej rozmowy i jej rozwoju. Ustalić pewne kryteria na podstawie, których oceniano by potem to, jak “ludzko” ona wyglądała.

    Ciężko jest tak naprawdę znaleźć idealny test na sztuczną inteligencje. Nie ma do końca określonej jednoznacznej definicji inteligencji. Zarówno naukowcy mają odmienne zdania na ten temat, ale też zwykli ludzie o to pytani, zazwyczaj inaczej ją postrzegają. Może próbując stworzyć dobry test, powinniśmy kierować się całkowicie innymi aspektami?

    • Paweł Stacewicz pisze:

      — Zastanawiam się nad tym, czy nie ciekawym rozwiązaniem byłoby zestawienie ze sobą dwóch identycznych maszyn, i obserwowanie ich konwersacji na jakiś ustalony temat.

      Ten pomysł wydaje mi się ciekawy.
      Mam też pewne dodatkowe spostrzeżenie.
      Gdyby konwersacja maszyn towarzyszyła realizacji jakiegoś zadania i w toku tejże realizacji (która wymagałaby współpracy maszyn), maszyny byłyby zdolne tworzyć nowe słowa, nowe związki frazeologiczne czy nawet pewne nowe reguły komunikacji, to moglibyśmy wnioskować o ich kreatywności, która według wielu psychologów jest wskaźnikiem wysokiego poziomu inteligencji.
      Chociaż nie mogę teraz znaleźć odpowiednich danych w internecie, to pamiętam, że w ubiegłym roku tego rodzaju przypadek – przypadek maszyn zdolnych tworzyć swoje własne kody komunikacyjne — był opisywany.

      • Daniel Kwaśniak pisze:

        Tak, zgadzam się z Panem. Wydaje mi się, że takie rozwiązanie mogłoby się naprawdę dobrze sprawdzić. Dwa komunikujące się ze sobą roboty, tworzące swoje kody komunikacyjne mogłyby prowadzić do naprawdę ciekawych obserwacji i jeszcze lepszych wniosków dla ludzi. Jednakże wiąże się to też z pewną niezbyt korzystną sprawą. Te roboty mogłyby stworzyć język kompletnie niezrozumiały dla człowieka, co sprawiło by, że wyciągnięcie wartościowych wniosków byłoby mocno utrudnione. Jakiś czas temu w internecie, czytałem artykuł na temat chatbotów, które właśnie stworzyły taki, niezrozumiały język. Co ciekawe, zaczynały one z językiem angielskim, ale w trakcie rozmowy, zaczęły wytwarzać nowy kod, stwierdzając, że pozwoli on na bardziej efektywną rozmowę. Pokazuje to w pewnym sensie, że zbyt duża swoboda maszyn może doprowadzić do niekoniecznie pożądanych efektów.

        • C-3PO pisze:

          Także uważam pomysł konfrontowania ze sobą dwóch maszyn, który poruszył Pan Daniel za bardzo interesujący. Jestem bardzo ciekaw jak wypadłby taki test, gdzie SI występowałaby w roli arbitra testów. Podczas konfrontacji SI vs SI możliwe, że można było by zauważyć jakieś ciekawe zachowania (np. takie jak w tym filmie https://youtu.be/Lu56xVlZ40M, gdzie SI nadużywa system fizyki gry przesuwając pudełka stojąc na nich czy wyrzucając obiekty poza plansze).
          Również zgadzam się z Panami odnośnie problemów wiążących się z interpretacją takich testów przez ludzi. A gdyby nie ograniczać się do dwóch maszyn i rozbudować taką konfrontację o trzecią maszynę, która ograniczałaby w pewnym stopniu pozostałe dwie i analizowałaby to co dzieje się pomiędzy nimi, to może takie sytuacje zostałyby rozwiązane.
          Być może takie podejście przyczyniłoby się do rozwoju sposobów rozróżnialności maszyn od ludzi. Takie podejście również mogłoby ukazać człowiekowi różne zjawiska i zachowania towarzyszące konfrontacji maszyn, w ten sposób dając inne światło na sposób tworzenia testów typu test Turinga.
          Odnosząc się do pytania postawionego we wpisie inicjującym dyskusję myślę, że utworzenie testów sprawdzających inteligencje maszyn stosując różne podejścia ich tworzenia do pewnego stopnia dałoby wyklarowanie granicy między maszynami inteligentnymi a „udającymi inteligentne”.

      • Katarzyna Budzynska pisze:

        Rzeczywiście, to ciekawy pomysł. Nie znam badań, w których dwie maszyny sztucznej inteligencji prowadziłyby dialog (chociaż wydaje mi się wielce prawdopodobne, że takowe istnieją), natomiast wiem o maszynie, która potrafi prowadzić rozmowę z człowiekiem, a ostatnio – rownież automatycznie wydobywać argumenty zawarte w takich zasobach jak wikipedia, i prezentować je jako wsparcie stanowiska w kwestii, o jaką zapytała osoba wchodząca w interakcję z maszyną. Chodzi o badania IBM nad systemem Watson Debater. Informacje na ten temat można znaleźć tutaj: https://www.research.ibm.com/artificial-intelligence/project-debater/

  6. Emilian Obrębski pisze:

    Cały czas mam wrażenie, że kolejno przytaczane testy, czy to Turinga czy Lema opierają się zasadniczo na wielu cechach, które charakteryzują człowieka inteligentnego, ale nie definiują samej inteligencji. Według mnie, to zbiór tych wszystkich określonych cech nadaje człowiekowi tytuł inteligentnego. Przykładowo wspomniany test Lema z opowiedzeniem zabawnej historii swoimi słowami bazuje według mnie na drobnej manipulacji. Otóż sam humor może nadawać maszynie więcej człowieczeństwa, natomiast wydaje mi się, że jest to nadal bardzo “algorytmiczne”, w skrócie maszyna nie musi być inteligentna, aby można ją było zaprogramować, aby spełniała taki test. Wydaję mi się, że dobrą alternatywą byłyby wszelkie szybkie, błyskotliwe odpowiedzi. Takie, w których zawarte są alegorie, dwuznaczności, odwołania do kultury, takie które będą odpowiednio stonowane względem rozmówcy i tego w jakim tonie on sam się wypowiada.

    Inteligencja jak już wcześniej wspomniałem to w zasadzie zbiór pewnych cech, które możemy oczywiście sprawdzać pojedynczo jednak nie będą nigdy wyznacznikiem idealnym, maszyny można przystosować do określonych testów. Podchodząc do tematu inteligencji bardziej całościowe, określiłbym że ten kto (lub to co) posiada inteligencję, ma umiejętność adaptacji do różnych sytuacji, potrafi rozwiązać problem (zawężając jednak je do problemów, których rozwiązanie leży w zasięgu wiedzy podmiotu) lub potrafi się czegoś samodzielnie nauczyć. Według mnie to właśnie stanowi bardziej ogólne cechy, które można by sprawdzać. Tutaj należałoby pomyśleć, czy testowana maszyna powinna mieć dostęp do bazy danych, połączonej z internetem czy stwierdzenie inteligencji u maszyny powinno być potwierdzone dopiero, gdy nie mając żadnych zasobów będzie w stanie za pomocą nauki, odbierając bodźce z otoczenia rozwijać się. Myślę, że ciekawym pytaniem jest czemu jesteśmy bliżsi, poznaniu tajemnic ludzkiego umysłu czy stworzeniu maszyny z SI potrafiącą myśleć jak człowiek? Czy ma to ze sobą dużą korelację, czy może być rozwinięte niezależnie od siebie?

    Ostatecznie można by także pomyśleć o tym, żeby wszelkie testy były prowadzone pomiędzy maszyną, a ludźmi którzy ją projektowali. Jeżeli maszyna okaże się inteligentniejsza niż człowiek, który ją stworzył, z pewnością byłby to poważny powód, aby taką maszynę nazwać inteligentną. Dochodzimy tu jednak do punktu, że nadal ciężko określić idealny test dający jednoznaczną odpowiedź, czy badana maszyna jest inteligentna. Czy w ogóle istnieje jedna definicja inteligencji i czy nie jest ona różnie rozumiana przez różnych ludzi. Domyślnie wiemy co to jest, mamy testy IQ, nawet bardziej skomplikowane, staramy się to wyskalować jednak co w przypadku wspomnianych robotów?

    Nie twierdzę mimo wszystko, że TT należałoby odrzucić. Skłaniam się jednak ku przekonaniu, że warto rozwijać pomysły różnych testów. Warto wymyślać nowe koncepcje, ale i ulepszać istniejące, dążąc do wspomnianego przeze mnie sprawdzania wielopłaszczyznowości inteligencji, a nie poszczególnych cech, które decydują o naszym pojmowaniu czyjejś inteligencji.

    • Marcin Koszowy pisze:

      Wydaje mi się, że rozważania te można zitrepretować jako propozycję odrzucenia wysiłków badaczy podejmowanych na rzecz opracowania jednego, “właściwego” testu na sztuczną inteligencję w imię dążenia do sytuacji, w której mielibyśmy do czynienia z wielością testów uchwytujących różne aspekty inteligencji.

      Taka sytuacja sprzyjałaby temu, aby twórcy poszczególnych testów mogli specjalizować się w sprawdzaniu konkretnych zdolności komunikacyjno-poznawczych, takich jak wspomniana błyskotliwa riposta czy też umiejętność identyfikowania żartów opartych na wieloznaczności wyrażeń. Tego typu podejście prawdopodobnie wiązałoby się z próbami podania zakresowej definicji inteligencji, w ramach której wymienione zostałyby zdolności poznawcze i zachowania komunikacyjne charakteryzowane jako “inteligentne”.

      • Katarzyna Budzynska pisze:

        To jest ciekawie przeformułowany problem. Przy takim ujęciu testu na (sztuczną) inteligencję, obecne badania nad wyjaśnialną sztuczną inteligencją (ang. eXplainable Artificial Intelligence, XAI), które od paru lat stały się niezwykle istotnym i aktywnym badawczo obszarem w informatyce, mogłyby być traktowane jako rodzaj projektowania takiego testu. Jeżeli systemy informatyczne byłyby w stanie rzeczywiście generować przekonujące wyjaśnienia dla decyzji, które podejmują, to można by powiedzieć, że jakaś część inteligentnego zachowania przysługuje obecnie tworzonym algorytmom XAI.

        Dlaczego jest to ważne i trudne? Mianowicie dlatego, że obecnie sztuczna inteligencja wykorzystuje w znaczącym stopniu sieci neuronowe, a w szczególności technologie głębokiego uczenia (ang. deep learning). Techniki te są tak złożone, że nie ma możliwości prześledzenia ścieżki prowadzącej do określonej decyzji, jaką przeszedł system AI. W dobie zwiększającego się zapotrzebowania i polegania na wsparciu ze strony takich systemów oraz w obliczu wymogu dostępu do informacji, projektanci takich systemów zobowiązani są do zaprojektowania modułów, które generowałyby wyjaśnienia takich decyzji.

        Osoby zainteresowane tą problematyką i chcące się dowiedzieć więcej na ten temat, odsyłam na stronę projektu, który współrealizuje Politechnika Warszawska: https://nl4xai.eu/

    • Wojciech Domińczak pisze:

      Jeśli chodzi o badanie inteligencji, to uważam, że aby stwierdzić, czy ktoś posiada inteligencję nie należy badać jego wewnętrznych struktur i operacji. Osobiście nie mogę sobie wyobrazić takiego badania na człowieku. Osobiście uważam, że testy na inteligencje powinny być na zewnątrz, a nie wewnątrz. Inteligentne urządzenie nie musi być tak naprawdę inteligentne, jednak powinno sprawiać takie pozory.
      Nawiązując do wypowiedzi Pana Emiliana Obrębskiego, to tylko częściowo się zgadzam. Oczywiście nie ulega wątpliwości fakt, że istnieje wiele różnych rodzajów inteligencji, jednak każda jest rozwinięta w różnym stopniu u ludzi. Aby w ogólnym tego słowa znaczeniu sprawdzić czyjąś inteligencję nie należy niektórych typów brać pod uwagę. Nie można stwierdzić, że ten człowiek, który nie posiada inteligencji ruchowej (jak Stephen Hawking), czy muzycznej nie jest już inteligentny. Dlatego myślę, że należałoby się skupić na trzech rodzajach inteligencji (a właściwie dwóch, bo jeden rodzaj został opanowany przez komputer do perfekcji).

      Mając na uwadze pierwszy typ, a mianowicie inteligencję matematyczno-logiczną, to można zauważyć jedną ciekawą rzecz o której wspomniał użytkownik “km”: jej poziom u komputera już teraz przewyższa ludzki poziom. Wynika to z samej budowy komputera, którego operacje w głównej mierze opierają się o obliczenia. Obecnie znaczna część ludzkości właśnie do obliczeń wykorzystuje komputery, dzięki czemu możliwy jest tak szybki postęp technologiczny. Nie potrzeba żadnych testów, aby się o jej poziomie przekonać. Wystarczy włączyć komputer. Jednak ten typ inteligencji, choć prosty do osiągnięcia przez komputer, jest wymagany do postrzegania podmiotu za inteligentny.

      Drugim rodzajem inteligencji uznawanej przez klasyczne modele edukacyjne jest inteligencja językowa, która jest najważniejsza przy sztuce porozumiewaniu się z podmiotem. Obecnie można zauważyć, że i ona osiąga niebywałe poziomy dzięki sztucznym sieciom neuronowym, czego dobrym przykładem jest IBM Debater. Potrafi on wyciągać z wypowiedzi rozmówcy najważniejsze części odpowiadające za znaczenie i dobierać odpowiednie kontrargumenty, a nawet samemu wychodzić z inicjatywą. Prawdą jest że został on przystosowany do prowadzenia debat i w zwykłej rozmowie z człowiekiem mógłby nie dać tak dobrej iluzji bycia człowiekiem, jednak pokazuje to stopień zaawansowania technologii. Myślę, że gdyby naukowcy pracujący nad tym projektem postawili sobie za cel stworzenie AI prowadzącej jak najbardziej naturalną rozmowę, to przy tak dużej bazie danych mogliby z łatwością oszukać człowieka, który nie zorientowałby się, że rozmawia z komputerem.

      Natomiast jednym z trudniejszych do zaimplementowania typem inteligencji jest ostatni wyróżniony przeze mnie typ – inteligencja emocjonalna. Polega ona na rozpoznawaniu stanów emocjonalnych u siebie, jak i u innych. Może to być spory problem u AI, ze względu na trudności z obraniem u siebie w sposób logiczny stanu emocjonalnego wynikającego z danych wejściowych, takich jak emocje wymalowane na twarzy rozmówcy, aktualne wydarzenia, jak epidemia, czy nawet obecna pogoda. Danych jest tak dużo, że ciężko jest myśleć o stworzeniu takiej AI jeszcze w tej dekadzie. Dlatego wspomniana tutaj wielokrotnie odmiana testu Turinga w filmie “Łowca androidów” moim zdaniem może najdłużej sprawdzać się samodzielnie do odróżniania robota od człowieka. Jednak i ten sposób w przyszłości ulegnie pod naporem wciąż rozwijającej się technologii.

      Na koniec pokusiłbym się o stwierdzenie, że o ile nasza cywilizacja nie upadnie wskutek nieprzewidzianego wydarzenia, to w przyszłości aby odróżnić człowieka od AI będzie należało przeprowadzać test, czy czasami podmiot, z którym rozmawiamy, nie jest zbyt inteligentny jak na człowieka.

  7. Piotr Paturej pisze:

    Według mnie największą wadą testu Turinga jest fakt, że ma on prawo działać tylko i wyłącznie wtedy, gdy piszemy z maszyną na odległość. Już przy zdalnej rozmowie (przez telefon, czy inny komunikator głosowy bez kamery) ten test jest niewystarczający, bo nie został na razie stworzony syntezator mowy, który brzmi na tyle naturalnie, by nie móc go odróżnić od głosu człowieka. Spowodowane jest to m.in. tym, że takie samo zdanie może w różnych kontekstach być wypowiedzianie kompletnie innym tonem. W głosie człowieka da się rozpoznać zadowolenie, podenerwowanie, smutek czy nawet sarkazm, a w prostych odpowiedziach testu Turinga nie usłyszymy żadnych emocji.
    Nie zgadzam się z twierdzeniem, że w przypadku ludzi język jest najlepszym wyrazem myśli. Język jest tylko jednym z narzędzi, których człowiek używa do porozumiewania się, jednak by skutecznie wyrazić zdanie na jakiś temat, potrzebny jest też wyraz twarzy i intonacja głosu służące do przekazywania emocji. Według mnie nie powinno też się abstrahować od przeżyć podmiotu poznającego, gdyż mogą one ukształtować jego odpowiedź na jakiś temat. Jeśli poprosimy maszynę o odpowiedź na jakieś pytanie, da nam ona zwykle tylko suche fakty, zaś człowiek oprócz tego zazwyczaj wyrazi swoją opinię na dany temat na podstawie własnych doświadczeń życiowych.
    Moim zdaniem sztuczna inteligencja, która przechodzi test Turinga może mieć ciekawe zastosowania, mogłaby na przykład zastąpić infolinie niektórych firm, ale nie można takiej maszyny nazwać prawdziwie “inteligentną”. Żeby takiej maszyny nie dało się odróżnić od człowieka, musiałaby ona potrafić wyrażać emocje w wiarygodny sposób. Test Turinga wzmocniłbym więc o rozmowę głosową z maszyną i próbę “wytrącenia jej z równowagi”, by sprawdzić na ile realistyczną reakcję to u niej wywoła, jak i też o zmiany wyrazu “twarzy” maszyny podczas rozmowy – na przykład poprzez twarz generowaną za pomocą grafiki komputerowej, która mogłaby sprawiać wrażenie, że jest przed kamerą.

    • Paweł Stacewicz pisze:

      — największą wadą testu Turinga jest fakt, że ma on prawo działać tylko i wyłącznie wtedy, gdy piszemy z maszyną na odległość.

      Wydaje mi się, że Turing dlatego m.in. postulował rozmowę “tekstową” na odległość (bez możliwości usłyszenia czy zobaczenia rozmówców), aby maszyny nie można było rozpoznać zbyt łatwo (pamiętajmy, że w jego czasach informatyka i robotyka stały na dużo niższym poziomie niż dziś). Poza tym racjonalne wydaje się założenie, iż o czyjejś inteligencji nie stanowi jej wygląd, tembr głosu itp…
      Rozumiem jednak, że Pan chciałby jakoś sprawdzać emocje i odczucia rozmówców; można się jednak zastanawiać, czy odpowiednio poprowadzona rozmowa nie ujawni ich…

      — Według mnie nie powinno też się abstrahować od przeżyć podmiotu poznającego…

      Turing dlatego właśnie postulował test czysto zewnętrzny, polegający na ocenie tekstowych wypowiedzi rozmówców (nie wnikamy w ich wewnętrzne przeżycia), że uznawał, z czym trudno się nie zgodzić, iż dostęp do przeżyć wewnętrznych podmiotu poznającego ma tylko ten podmiot (tylko on wie, co naprawdę czuje, czego jest świadom, co zamierza itp…). Oczywiście sprawa jest dyskusyjna… Ale znowu: można się zastanawiać, czy odpowiednio poprowadzona rozmowa nie daje jakiegoś wglądu w przeżycia rozmówcy.

      — Nie zgadzam się z twierdzeniem, że w przypadku ludzi język jest najlepszym wyrazem myśli

      Wydaje się jednak, że dojrzała myśl (będąca skutkiem inteligentnej refleksji) musi mieć wyraz językowy. Przy czym, oczywiście, niekiedy potrzeba do tego wyrafinowanego języka nauki, obejmującego symbole matematyczne.
      Co do silnego związku między myśleniem a językiem, to tutaj poszedłbym za Turingiem…
      Na ostatnim swoim wykładzie pokazywałem pewien slajd, na którym objaśniłem to trochę szerzej, choć też hasłowo: http://stac.calculemus.org/pdf/FiTE-2019-20/SI-zagadnienia-filozoficzne-test-Turinga.pdf. Chodzi o slajd nr 9.

      • Piotr Paturej pisze:

        – Poza tym racjonalne wydaje się założenie, iż o czyjejś inteligencji nie stanowi jej wygląd, tembr głosu itp…

        Oczywiście, że te przymioty nie świadczą o czyjejś inteligencji. Jednak w moim mniemaniu termin “sztuczna inteligencja” w teście Turinga odnosi się bardziej do programu, który “udaje”, że jest drugim człowiekiem. Człowieka zaś “uczłowiecza” właśnie m.in. jego ton głosu i wygląd.

        – można się zastanawiać, czy odpowiednio poprowadzona rozmowa nie daje jakiegoś wglądu w przeżycia rozmówcy.

        Rzeczywiście, odpowiednio poprowadzona rozmowa powinna dawać taki wgląd, uzupełniłbym więc test Turinga o pytania dotyczące przeżyć. Według mnie każda maszyna posiadająca sztuczną inteligencję powinna mieć zaprogramowane informacje o jej “przeżyciach”, by mogła stosownie użyć ich w odpowiedziach na pytania, lub jak pisał użytkownik km opowiedzieć krótką historię swojego życia.

        – Wydaje się jednak, że dojrzała myśl (będąca skutkiem inteligentnej refleksji) musi mieć wyraz językowy.

        Myśl oczywiście musi być wypowiedziana jakimś językiem, by druga osoba mogła zrozumieć nasze intencje, ale moim zdaniem emocje związane z tą myślą czynią ją bardziej wiarygodną. Test Turinga, jaki opisano w powyższym artykule nie sprawdza zaś emocji maszyny, co przy dłuższej rozmowie powinno zasugerować osobie testującej, że nie rozmawia z człowiekiem.

    • Daniel Kwaśniak pisze:

      Moim zdaniem ludzie za pomocą języka ludzie potrafią przekazać bardzo wiele. To prawda, że emocje są bardzo istotne, ale jednakże w dzisiejszych czasach, w których powszechne jest korzystanie z komunikatorów tekstowych zauważalne jest, iż za pomocą słów, bez bezpośredniego kontaktu z drugą osobą, również możliwe jest wartościowe komunikowanie się ze sobą, a nawet ocenianie drugiej osoby, na podstawie tego co pisze. Nawet teraz, dyskutując na tym blogu, część z nas poniekąd ocenia osobę, która przedstawia swoje stanowisko. I robimy to tylko na podstawie słów znajdujących się na ekranie. Do czego zmierzam, to to, że mimo wszystko pomysł Turinga, aby testować inteligencje maszyn, na podstawie słów jest w porządku, natomiast należy go usprawnić i dodać kilka aspektów, o których wspominałem wcześniej.
      Jeżeli chodzi o wyraz twarzy i inne tego typu rzeczy, to moim zdaniem jest to bardzo dobry pomysł i w przyszłości, gdy być może możliwe będzie duże upodobnienie maszyny i jej zachowań do wyglądu człowieka to testy na inteligencje zostaną rozwinięte, również o te aspekty. A wtedy będą one dawały jeszcze ciekawsze wyniki. Na ten moment jednak, gdy nie ma takiej możliwości, to myślę, że powinno się iść w kierunku testowania na podstawie zdolności komunikacyjnych.

  8. Ptk pisze:

    Uważam że, test Turinga nie pozwala na dogłębne zbadanie inteligencji maszyny. Według pewnych źródeł inteligencję podzielono na różne typy: językową, logiczno-matematyczną, wizualno przestrzenną, ruchową, muzyczną, interpersonalną (międzyludzką), intrapersonalną (wewnętrzną) oraz przyrodniczą. Osobiście zgadzam się z tym podziałem, jak i z tym że różne płaszczyzny mogą być w różnym stopniu rozwinięte. Z tego właśnie wynika mój główny zarzut względem testu Turinga – nie sprawdza on wszystkich typów inteligencji jakie może posiadać człowiek. Dodatkowo, jeśli dobrze rozumiem uczestnicy testu Turinga nie muszą odpowiadać na pytania zgodnie z prawdą, w innym przypadku test zakończyłby się po pytaniu: “Czy jesteś maszyną?”. Oczywiście człowiekowi nie zależy na tym żeby był wzięty za maszynę, bo wtedy ułatwi prawdziwej maszynie przejście testu, jednak maszyna oprócz posługiwania się językiem musi wykazać się zdolnością do kłamstwa. Można by to osiągnąć programując ją tak, by była z założenia jak najbardziej ludzka, jednak oprócz sprawdzanej inteligencji wiąże się z tym również np posiadanie emocji, czy różnych “cech charakteru maszyny”. Jednak nie wiem czy chcemy do tego dążyć, raczej nikt nie byłby zadowolony gdyby jego inteligentny program nie chciał współpracować bo wstał tego dnia lewą nogą i po prostu nie ma na to ochoty.
    W moim rozumieniu prawdziwie inteligentna maszyna byłaby wszechstronnie “uzdolniona”, oprócz testowania jej zdolności komunikacji należałoby sprawdzić również inne aspekty takie jak np zdolności matematyczne, artystyczne, rozumienie zależności między pewnymi zjawiskami, możliwość przewidywania co może się stać. Oczywiście ciężko byłoby sprawdzić wszystkie te rzeczy w jednym teście, dlatego moim zdaniem żeby nazwać maszynę prawdziwie inteligentną musiałaby ona przejść szereg różnych testów. Stworzenie takiego “toru przeszkód” też nie jest prostą sprawą, ponieważ zadań przed jakimi postawimy naszą maszynę może ciągle przybywać. Wraz z biegiem czasu pojawią się nowe możliwości i nowe problemy które sztuczna inteligencja powinna umieć rozwiązać. Może nawet żeby nazwać maszynę prawdziwie inteligentną powinna ona prześcignąć człowieka pod wszystkimi względami? Skoro możliwości ludzkiego mózgu są ograniczone, a możliwości technologiczne zadają się ciągle rosnąć.
    Inną jeszcze kwestią jest to, czy uzyskanie jakiegoś wyniku przez maszynę jest równoznaczne z przeprowadzeniem przez nią procesu myślowego. Czy faktycznie zastanawiała się nad jakąś kwestią tak jak zastanawia się człowiek i na tej podstawie podjęła decyzję, czy zostało to zrobione na podstawie jakiegoś algorytmu, lub też wyliczając prawdopodobieństwo, korzystając z wcześniej określonej bazy danych. Czy program stworzył dzieło sztuki czy tylko przekształcił zdjęcie tak by wyglądało jak obraz, albo skorzystał z jakichś gotowych wzorców. Jednak czy my też tak nie robimy? Widzimy świat za pomocą naszych zmysłów i odtwarzamy go na obrazach, korzystamy z doświadczenia przy podejmowaniu decyzji, sztuczna inteligencja musi się również wszystkiego nauczyć. A ogranicza ją przy tym stwórca, ponieważ maszyny są programowane do konkretnych celów, możliwe że nigdy nie powstanie maszyna tak wszechmocna, by przewyższyć człowieka, ze zwykłego strachu przed tym jakie konsekwencje może to nieść.

    • Paweł Stacewicz pisze:

      Czytamy wyżej:
      — Czy faktycznie zastanawiała się nad jakąś kwestią tak jak zastanawia się człowiek i na tej podstawie podjęła decyzję, czy zostało to zrobione na podstawie jakiegoś algorytmu, lub też wyliczając prawdopodobieństwo, korzystając z wcześniej określonej bazy danych

      Może jest to argument nieco przewrotny, ale wcale nie jest pewne, czy nasze zastanawianie się, uświadamiane sobie, intuicyjne uchwytywanie… nie są w istocie produktami jakiegoś zakodowanego w mózgu algorytmu. Możemy być bardziej podobni do maszyn niż nam się wydaje. A jeśli nasze myślenie jest w istocie algorytmiczne, to nie jest wykluczone, że maszyna działająca algorytmicznie może dorównać nam inteligencją i zdać oryginalny lub wzmocniony test Turinga.

      • isana pisze:

        Wydaje mi się to bardzo możliwe, a nawet bardzo częste, że nasze myślenie w pewnych momentach jest wynikiem “zakodowanego w mózgu algorytmu”, jednak co nas odróżnia od maszyny, moim zdaniem, jest nasza umiejętność do zerwania z takim myśleniem i rozważanie problemów w sposób nietuzinkowy, nieprzewidywalny i zupełnie nie pasujący do standardów rozwiązywania tego typu zadań przed nami postawionych. W internecie jest mnóstwo przykładów pytań, które pokazują nam jak myśleć w “inny” sposób, jak coś obliczyć zupełnie nie używając matematyki. Oczywiście istnieje szansa, że maszyny nauczyłyby się myśleć również w ten nieprzewidywalny sposób, jednak ten problem wydaje mi się dosyć ciężki do rozwiązania.

        • Ptk pisze:

          Oczywiście, mózg człowieka bardzo lubi się trzymać pewnych schematów. Często wpadamy w pułapki myślowe, mylimy się robiąc coś automatycznie, bez większego zastanowienia, kierując się bardziej odruchem, jednak jeśli zauważymy swój błąd możemy go szybko poprawić. Dlatego zgadzam się z wpisem użytkownika isana, który podkreśla że mimo istnienia tego “autopilota mózgu”, człowiek jest w stanie myśleć nieszablonowo i oderwać się przy rozwiązywaniu problemu od tych utartych szlaków. Może jednak, śledząc przekonanie o tym że nie jesteśmy aż tak różni od komputera, jest to tylko kwestia tego że algorytmy w naszym mózgu są bardziej rozbudowane niż algorytmy programowane maszynom? Coś co my uznajemy za wyjście poza nasz schemat myślowy, tak naprawdę dla naszego mózgu jest po prostu kolejnym krokiem realizującym ten schemat.
          Jednak do refleksji zmusiło mnie bardziej ostatnie zdanie w Pana wpisie. Czy aby na pewno chcemy porównywać inteligencję maszyny z inteligencją człowieka? Ja skłaniałbym się bardziej do porównywania maszyn między sobą, niż do porównywania ich z człowiekiem który w zależności od ocenianej płaszczyzny może wypaść lepiej, lub gorzej niż one.
          A może, jeśli robimy odrębne testy np IQ człowieka i inteligencji maszyny, należałoby również wprowadzić odrębną skalę dla takiej oceny. Może nie powinniśmy nawet definiować inteligencji maszyny przez pryzmat naszej inteligencji. Na wielu płaszczyznach komputery, zdolne do wykonywania złożonych obliczeń w mgnieniu oka, są w stanie nas prześcignąć, jednak czy to wystarczy by powiedzieć że są prawdziwie (jeśli dobrze Pana zrozumiałam to – “ludzko”) inteligentne? Czy dobrym pomysłem byłoby stworzenie osobnej definicji inteligencji “maszynowej”, która pomijała by na razie kwestie gorzej rozwinięte, a wraz z rozwojem technologii i wzrostem możliwości maszyn byłaby rozwijana, tak samo jak zgodnie z moim poprzednim wpisem, rosłaby ilość testów jakim poddawali byśmy sztuczne inteligencje.

        • ac pisze:

          Wydaje mi się, że kreatywność jest z góry czymś przypisanym tylko człowiekowi. Rozwiązania są nietuzinkowe i nieprzewidywalne tylko w kontekście wcześniejszych standardów. Jako, że program takich mieć nie będzie to jego rozwiązań nie można uznać za kreatywne. Błędem byłoby też uznawanie rozwiązań programu za kreatywne względem rozwiązań człowiek. Jeśli, załóżmy, ja zawsze podchodziłem do pewnego problemu w sposób A i nagle bym się dowiedział, że ktoś od zawsze podchodził do niego w sposób B to nie mógłbym uznać, że robił to kreatywnie. Jednak nawet jeśli uznamy, że rozwiązania programu mogą być kreatywne, bo byłby takie gdyby człowiek je wymyślił, to okazuje się, że programy już teraz są kreatywniejsze niż ludzie. Świetnie to widać w sposobie gry programów w szachy.
          Podsumowując uważam, że kreatywność wynika z ograniczoności człowiek, więc nie powinniśmy się jej doszukiwać w programach, a nawet jeśli będziemy to dojdziemy do wniosku, że i w tym mogą nas pokonać.

      • AR pisze:

        Też mi się wydaje, że jesteśmy znacznie bliżej komputerów oraz algorytmów niż to się niektórym wydaje. Człowiek, żeby się czegoś nauczyć, musi sam doświadczyć danego zjawiska lub musimy dostać informację z zewnętrznego źródła- książki lub od innego człowieka. Małe dziecko jak się oparzy żelazkiem to się nauczy, że nie powinien tego już więcej robić. Dla mnie mózg działa jak bardzo skomplikowany algorytm, którego jeszcze nie rozumiemy w pełni oraz algorytm pełen błędów. Podobnie działa sztuczna inteligencja, czyli musi dostać wystarczającą ilość informacji, by mógł sobie radzić w przeróżnych sytuacjach i jest to dla mnie tylko kwestia czasu zanim jego możliwości poznawcze/rozumowe będą na takim samym poziomie, a nawet w przyszłości na wyższym poziomie, ponieważ nie będzie miał takich samych ograniczeń jak człowiek. Proces myślowy człowieka jest wypadkową wszystkich zjawisk i doświadczeń jaka dana osoba przeżyła. Każda podejmowana decyzja człowieka jest sumą wszystkiego co mamy w mózgu, podobnie jak sztuczna inteligencja, która działa na podstawie uzyskanych wcześniej informacji. Rzeczy, które wydają nam się że wynikają z naszej inteligencji przyszły do naszego mózgu tak sobie jako przebłysk geniuszu. Wydaje mi się, że dużo informacji/algorytmów w naszym mózgu jest przed nami ukryta i często nie jesteśmy tego świadomi. Nie myślimy, jak mamy iść(która nogę ruszyć itp.) tylko idziemy do przodu, idąc dalej, nie myślimy, który mięsień ruszyć by iść, idąc dalej nie myślimy jak przesłać informację z mózgu do odpowiedniego mięśnia. Dla mnie mózg wykonuje multum analiz, tylko tego nie jesteśmy świadomi. Isana natomiast pisze, że możemy zerwać z jakimś tokiem myślenia i rozważać problem w sposób nietuzinkowy. Pisze tak jakby nagle genialny pomysł znalazł się w naszej głowie. Dla mnie, tak jak pisałem poprzednio, wszystko wynika z informacji, które uzyskaliśmy w przeszłości. W danej chwili, człowiek zdecydował, że zamiast iść opcją A, może jest lepiej pójść opcją B z jakiś konkretnych powodów. Identycznie może zareagować program- nasza sztuczna inteligencja, jeżeli ma wystarczająco informacji. I nie zgadzam się z tym, co pisze Ptk, że tylko człowiek jest wstanie myśleć nieszablonowo i że potrafi oderwać się od utartych szlaków. Prawda jest, że człowiek zawsze próbuje iść najprostszą drogą A, ale jak mu nie wychodzi to pójdzie drogą B w celu rozwiązania problemu. Jeżeli przekażemy odpowiednie informacje oraz wiedzę sztucznej inteligencji, to on też będzie mógł zmienić “tok rozumowania”, jeżeli spotka go taki problem.

        • Ptk pisze:

          Muszę się odnieść do wypowiedzi użytkownika AR, ponieważ wydaje mi się że nie zostałam zrozumiana. Wnioskuję to ze sposobu w jaki została przytoczona moją wypowiedź, może coś przeoczyłam ale nie przypominam sobie bym pisała że TYLKO człowiek jest wstanie myśleć nieszablonowo. W dalszej części wypowiedzi opisałam jak to “oderwanie się od schematu” może być częścią większego, bardziej skomplikowanego algorytmu w naszym mózgu. Nie wykluczam że tak rozbudowane rozwiązania w przyszłości będą implementowane również maszynom. Nie uważam też by porównanie mózgu człowieka do komputera śledzącego algorytmy było czymś złym, jednak nasza biologiczna maszyna mimo wszystko jest według mnie czymś wyjątkowym. Często ta natura jest doceniana i traktowana jako pierwowzór np dla sztucznych sieci neuronowych.
          Ja również muszę się nie zgodzić z częścią wypowiedzi poprzednika, mianowicie: “Nie myślimy, jak mamy iść(która nogę ruszyć itp.) tylko idziemy do przodu, idąc dalej, nie myślimy, który mięsień ruszyć by iść, idąc dalej nie myślimy jak przesłać informację z mózgu do odpowiedniego mięśnia.” Traktując wszystko w sposób automatyczny, nie bierzemy pod uwagę tego, że mimo iż nie myślimy którą nogą ruszyć to możemy mieć na to świadomy wpływ. Możemy świadomie napiąć konkretny mięsień mimo że w danej chwili zupełnie nie ma takiej potrzeby i wcale nie jest to wybranie łatwiejszej dla organizmu drogi ponieważ zużyje on energię na naszą zachciankę. Nie myślimy na ogół o czynności tak automatycznej jak np oddychanie czy mruganie, jednak potrafimy wstrzymać oddech czy chwilowo powstrzymać się od mrugania. Ba, nawet czasem po uświadomieniu sobie że oddech zazwyczaj jest automatyczny, przez chwile musimy pamiętać by wziąć wdech, bo chwilowo “wyłączyliśmy tą funkcję” przez przypomnienie sobie o niej. Może nie ma to zbytnio wpływu na dyskusje, jednak musiałam zaprotestować przed traktowaniem człowieka jako automatycznej, bezmyślnej maszyny, bo jednak mamy bardzo dużą kontrolę nad własnym ciałem i posiadamy świadomość siebie, swoich myśli, potrafimy w głowie stworzyć obrazy, scenariusze rozmów, przeżywamy emocje, planujemy nasz następny dzień. Większość maszyn nie ma raczej planu na przyszłość, działa tu i teraz na miarę swoich możliwości, zgodnie z wyznaczonym dla siebie celem, realizując go aż do jego spełnienia, zmiany przez użytkownika, lub wyłączenia maszyny.

  9. km pisze:

    Podobno istnieje poważny test na “inteligencję wizualno-przestrzenną” w której gołębie wypadają znacznie lepiej niż ludzie. Codziennie miliony zwyczajnych komputerów biją na głowę ludzką “inteligencję matematyczną” (różne jej aspekty) – jak inaczej wytłumaczyć popularność arkuszy kalkulacyjnych i matematycznych programów?
    Jest wiele “technicznych” zagadnień właśnie: dotyczących “obróbki” danych językowych, wizualnych, matematyczno-logicznych, muzyczną, w których komputery pokazują “inteligencję” przewyższającą ludzką.
    Nawet w dziedzinie interpersonalnych/psychologicznych aspektów inteligencji choćby konwersatory czy programy służące diagnozie i terapii pacjentów psychiatrycznych/psychologicznych (lepiej sprawiające się często od ludzkich specjalistów – także w ocenie samych pacjentów) świadczą o tym, że korzystając ze “statystycznych” zależności pomiędzy znakami i dysponując dostępem do odpowiedniej bazy danych “da się” manifestować inteligencję nie rozumiejąc “czego się dane tyczą”.
    Dlatego w moim pomyśle nie szło o rozbawienie generowanymi klonami statystycznie rozbawiających ludzi kombinacji znaków a opisanie własnymi słowy znaczeń (od tych humorystycznych do tragicznych) które pojawiły się w historii testującego. Niewiele innego zwykle jest w stanie “poradzić” przyjaciel słysząc naszą historię – pokazuje oznaki zrozumienia naszej sytuacji, stara się zrozumieć motywację poszczególnych postaci historii – dając nam odczucie współodczuwania i wspólnoty w stadzie.
    To także działanie “algorytmiczne” i “techniczne” (chodzi o naukę i przetrwanie w grupie, sprawdzenie czy się rozumie sytuację: by w razie realnego testu okazać zdolność działania zgodnego z właściwą – najbardziej inteligentną/racjonalną – regułą) – ale na innym poziomie. Innym poziomie rozumienia bo reprezentacje znaczeniowe przetwarzanych (w rozmowie) znaków nie składają się z w/w relacji pomiędzy znakami bazie danych (w tym zapisanych rozmowach).
    Nie twierdzę że potrzebne jest tu ucieleśnienie i uspołecznienie maszyny by mogła dać dowód inteligentnego wglądu/rozumienia. Chodzi mi o okazanie zrozumienia kontekstu (bardziej o humor sytucyjny niż słowny) – jeśli maszyna wytłumaczy zrozumiałe dlaczego ktoś zachował się tak a nie inaczej, czy domyśli się reakcji bohaterów opowieści – “powie mi” co mogłem chcieć zrobić w opisanej sytuacji i dlaczego – da niezły dowód inteligencji o jaką (mi) chodzi.

  10. Piotr Kałowski pisze:

    Sztuczna inteligencja, jakkolwiek by to nie brzmiało, została stworzona przez człowieka. Wszystkie decyzje robotów obdarzonych, tzw. “sztuczną inteligencją”, są podejmowane na podstawie analizy danych, której algorytm został zaprojektowany przez kogoś z nas. Z pomocą technik wizyjnych, analizy barwy głosu i tym podobnych parametrów sztuczna inteligencja może określić nawet nastrój swojego rozmówcy. Zdaje się, że jest to dość proste, ale za każdą taką analizą stoi grono ludzi: tych analizujących zachowania ludzkie i przypisujące im odpowiednie stany emocjonalne oraz tych, którzy na tej podstawie tworzą odpowiednie oprogramowanie.
    W tym wszystkim trzeba zwrócić jednak uwagę na jeden aspekt: nieprzewidywalność natury ludzkiej, ale także otaczającego nas świata. Niejednokrotnie można się było przekonać, że sztuczna inteligencja, nawet najbardziej wysublimowana, ma duże problemy z zagadnieniami czy pytaniami, które wymagają inteligencji na poziomie ludzkim. Można to dostrzec chociażby na przykładzie samolotów pasażerskich. Są one wyposażone w zaawansowane systemy bezpieczeństwa, rozbudowane pod względem funkcjonalności moduły autopilota, a mimo to czasem sztuczna inteligencja w nich zaimplementowana prowadzi do tragedii. Przykładem tutaj może być sytuacja z Boeingami 737 MAX, które były uziemione po wykryciu wadliwego działania jednego z systemów (w określonych warunkach, których nie przewidziano na etapie tworzenia systemu), co doprowadziło chociażby do katastrofy lotu Ethiopian Airlines 302. Oczywiście, ludzie za sterami samolotów również podejmują błędne decyzje prowadzące do katastrof. Można zauważyć jednak pewną różnicę w błędnych działaniach pilotów w stosunku do przytoczonego przykładu Boeingów – sztuczna inteligencja nie bierze pod uwagę faktu, że niejako odpowiada za życie 100 czy 200 osób – nie czuje związanej z tym presji. Ponadto opiera się jedynie na odczytach z czujników, sensorów, które mogą działać wadliwie, a system nie jest w stanie za pomocą zmysłów rozpoznać sytuacji.
    Wszystko to prowadzi mnie do konkluzji, że Test Turinga jest na tę chwilę wystarczający do określenia czy mamy do czynienia z robotem czy też z człowiekiem. Jego wadą jest jednak, że jedynie oceniamy kto jest naszym rozmówcą, a twórcy oprogramowania sztucznej inteligencji dążą do oszukania arbitrów, tak by ci uznali maszynę za człowieka. Oznacza to, że Test Turinga nie daje odpowiedzi na pytanie na ile inteligentny jest dany robot, nawet w przypadku gdyby robot taki test przeszedł. Moim zdaniem jednak sztuczna inteligencja polega na tym, żeby zastąpić człowieka tam, gdzie występuje mała szansa na zjawiska nieprzewidywalne lub gdzie należy opierać się jedynie na suchych danych z pomiarów. To prowadzi mnie do stwierdzenia, że określanie poziomu inteligencji tak zwanej “sztucznej inteligencji” jest bezcelowe, szczególnie że tak naprawdę za jej stworzeniem stoi człowiek i jego inteligencja.

    • Cave Johnson pisze:

      Chciałbym odnieść się do końcowego stwierdzenia, mówiącego o tym, że sztuczna inteligencja, jak rozumiem, powinna mieć swoje miejsce raczej w sferach, w których występują przewidywalne warunki, lub sytuacjach wymagających jedynie suchej analizy danych. Jako że dobrą praktyką jest wątpić, zastanawia mnie czy to założenie może być słuszne z dłuższej perspektywy czasu. Jeśli chcieć tu podać za dowód ludzką umiejętność do “abstrakcyjnego myślenia” której SI (obecnie) nie posiada, to czy sama owa umiejętność jest rzeczywiście czymś wrodzonym i wyjątkowym czy może jednak ludzkie abstrakcyjne myślenie opiera się na doświadczeniach i obserwacjach z przeszłości oraz ewentualnie reakcjach chemicznych ciała na dane bodźce, które sterują naszym mózgiem? Jeśli okazałoby się to bliskie prawdzie, to zauważam tutaj potencjalną możliwość opisania tego “ludzkiego systemu” w języku umożliwiającym jego implementację w systemie komputerowym. Czy w takim przypadku możnaby mówić o SI posiadającym coś w rodzaju intuicji?

      Nie zgodzę się za to z stwierdzeniem, że badanie SI i jej poziomu inteligencji jest bezcelowe. Uważam że jest to mimo wszystko bardzo istotna i ciekawa gałąź nauki i rozwoju technicznego, ponieważ rozwój SI może pomóc samej ludzkości w rozwiązaniu problemów, których sami nie jesteśmy w stanie rozwiązać choćby w związku z ograniczeniami czysto biologicznymi. Istnieje też zauważalna liczba głosów ostrzegających ludzkość przed SI i w takim przypadku testy jakimi są poddawane mogą być narzędziem do ochrony ludzi przed zagrożeniami, nawet tak trywialnymi jak próby manipulacji czy wyłudzeń kierowane przez hipotetyczną SI o dużych zdolnościach manipulacyjnych. Znajomość pułapek, w jakie można “wpędzić” sztuczną inteligencję, stałoby się dla ludzi zabezpieczeniem przed nieprzewidzianymi konsekwencjami rozwoju tej gałęzi nauki.

    • Paweł Stacewicz pisze:

      Pan Piotr Kałowski napisał:

      — określanie poziomu inteligencji tak zwanej “sztucznej inteligencji” jest bezcelowe, szczególnie że tak naprawdę za jej stworzeniem stoi człowiek i jego inteligencja.

      Ciekaw jestem, czy inni dyskutanci tak gładko zgodzą się na tezę, że jeśli ktoś stworzył pewien system i zainicjował jego działanie, to ów system z konieczności nie będzie mógł wykonać/osiągnąć niczego, czego nie przewidział i ne zaplanował jego twórca. Że ów system nie będzie w stanie korzystać z własnych doswiadczeń. Że nie będzie w stanie modyfikować swojego programu. Że wszelka poznawcza i praktyczna autonomia (względem twórcy) jest dlań z konieczności nieosiągalna…

  11. Marta Zawadzka pisze:

    Test Turinga jest testem, który daje nam informację zwrotną na temat sztucznej inteligencji. Sama techniczna wartość tej informacji być może nie jest powalająca. Testowi Turinga rzeczywiście jak wspomniał wyżej Daniel Kwaśniak można zarzucić przestarzałość. Można mu zarzucić też pomijanie wielu istotnych czynników, ale to wydaje się być oczywiste.

    Wydaje mi się, że bardziej wartościowe byłoby skierowanie uwagi na przeprowadzanie testów na sztuczną inteligencję, które będą doskonalsze od testu Turinga. Test Turinga powinien stanowić inspirację do tworzenia bardziej zaawansowanych rozwiązań. Mógłby być pewną bazą, do której dodajemy kolejne komponenty tworzące coraz to lepsze rozwiązania.

    Uważam, że nie warto oceniać testu Turinga zero-jedynkowo. Wiadomo nie od dziś, że test ten ma swoje luki i niedoskonałości, dlatego można bez wątpienia stwierdzić, że nie jest wystarczającym kryterium oceny sztucznej inteligencji. Bardziej rozsądnym podejściem wydaje się regularne powracanie do niego, co byłoby powrotem do korzeni gdy jest to potrzebne. Ważne jest zrozumienie, że początki bywają obarczone wieloma błędami. Później te błędy mogą wydawać się nam nawet absurdalne, ale to nie powinno umniejszać ich wartości. Na błędach się uczymy, dlatego samo popełnianie ich nie powinno być aż tak bardzo demonizowane. Ważniejsze jest wyciągnięcie wniosków i sprawna korekcja błędów.

    Być może kiedyś ktoś udowodni że jest inaczej, ale wydaje mi się, że niemożliwym jest stworzenie czegoś doskonałego ot tak, bez przygotowania i bez kilku (lub więcej niż kilku) wpadek.

    Moim zdaniem powinniśmy przede wszystkim próbować nowych rozwiązań nawet jeśli okażą się nie do końca właściwymi. O tym akurat dowiemy się po wypróbowaniu ich, ale najważniejszym jest by wyciągać wnioski ze swoich działań i robić z nich realny użytek.

    • Piotr Kałowski pisze:

      Uważam, że w Twojej opinii jest wiele racji. Chciałbym jednakże przy tym dodać kilka, moim zdaniem, istotnych kwestii do Twoich rozważań.

      Oczywiście test Turinga powinien być inspiracją do tworzenia nowych, lepszych testów. Tutaj należy się zastanowić nad tym jak utrudnić twórcom sztucznej inteligencji “oszukanie” testu. Trzeba dążyć do stworzenia testu, który powinien potwierdzać zdolność do radzenia sobie w sytuacjach niespodziewanych. Oczywiście trwają prace nad sztuczną inteligencją w kierunku rozwoju możliwości analizy różnych sytuacji i przynoszą coraz to nowe efekty. Oznacza to, że ludzie starają się “nauczyć” roboty radzenia sobie w sytuacjach, których nawet twórcy się nie spodziewają. Efekty tych prac nie są obecnie znane, ale uważam, że już niedługo możemy obserwować tak rozwiniętą sztuczną inteligencję.

      Tak wspomniany rozwój sztucznej inteligencji może skutkować nad pracami nie tylko nad oceną czy dany rozmówca jest robotem czy człowiekiem (tak jak przewiduje to test Turinga). Należy się zastanowić nad pewnymi sposobami określania poziomu inteligencji takich robotów – nie względem ludzi, ale w nowej skali. Jej opracowanie byłoby cenną informacją na temat rozwoju techniki.

      Na koniec chciałbym zaznaczyć, że za każdym robotem, sztuczną inteligencją stoi człowiek. Tylko od tego człowieka (lub inaczej – tych ludzi, którzy za sztuczną inteligencją stoją) zależy czy sztuczna inteligencja spowoduje, że test Turinga stanie się kompletnie nieaktualny.

      • Paweł Stacewicz pisze:

        — Trzeba dążyć do stworzenia testu, który powinien potwierdzać zdolność do radzenia sobie w sytuacjach niespodziewanych.

        Zgadzam się. Idea oryginalnego TT nie wyklucz tego, bo nie wyklucza, iż pytania zadawane maszynie będą dla niej niespodziewane. Rozmowa może toczyć się na dowolny temat.

        — ludzie starają się “nauczyć” roboty radzenia sobie w sytuacjach, których nawet twórcy się nie spodziewają

        Czy nie dopuszcza Pan takiego scenariusza rozwoju systemów informatycznych, w którym będą on działać nie tylko w sposób sztywno narzucony przez nauczyciela, lecz uzyskają jakiś rodzaj swobody, autonomii? Będą uczyć się samodzielnie, na podstawie własnych doświadczeń; być może też będą wytwarzać nowe schematy uczenia się…
        Co o tym sądzą inni? Czy da się wskazać rozwiązania czyniące taki scenariusz prawdopodobnym?

        • Monika pisze:

          Na Pańskie pytanie „Czy da się wskazać rozwiązania czyniące taki scenariusz prawdopodobnym?” mam następującą odpowiedź. Uważam, że na chwilę obecną takich rozwiązań nie da się wskazać ale przypuszczam, że w nieco dalszej przyszłości takie rozwiązania może już będą. Wspominałam też o tym w swoich innych wpisach.
          Pojawia się wtedy jednak problem z brakiem kontroli nad takim systemem i pewnym wiążącym się z tym zagrożeniem. System, który miałby swobodę, uczyłby się samodzielnie i wytwarzałby nowe schematy uczenia, mógłby wręcz w pewnym stopniu zacząć przejmować kontrolę nad nami.
          Ciekawe jest to, że takie scenariusze zostały wzięte pod uwagę już nawet kilka lat temu do nakręcenia niektórych filmów. Jednym z nich jest „Eagle Eye” powstały w 2008, gdzie to właśnie system informatyczny kieruje losami bohaterów i tak naprawdę ma nad nimi kontrolę. Zna każdy ich ruch, wie gdzie są, co robią. Co więcej, komunikuje się z nimi poprzez telefony komórkowe, ekrany telewizorów lub innych urządzeń, mówiąc lub wyświetlając daną wiadomość jako tekst. Wykorzystuje nawet formy szantażu i oszustw. Kieruje nimi tak aby uzyskać cel, do którego dąży.
          Innym takim filmem prezentującym „wymsknięcie się” programu komputerowego spod kontroli jest film „Konspiracja Echelon” z 2009. W tym filmie z kolei, system komunikuje się z interesującymi go ludźmi poprzez telefon komórkowy, na który przychodzą wiadomości nieznanego pochodzenia. W tym przypadku system ten również dąży do tego by przejąć w pełni kontrolę i wykorzystuje do tego ludzi.
          Niedaleko szukając kolejnym filmem, który zawiera motyw programu, nad którym nie ma kontroli, jest film „Avengers: Czas Ultrona”. Ta wersja scenariusza co prawda bardziej wybiega poza granice rzeczywistości niż poprzednie ale w jakimś stopniu oddaje ryzyko z jakim może się wiązać system posiadający pewną swobodę.
          Uważam więc, że jeżeli doszłoby do takiego scenariusza jakim jest system autonomiczny, powinniśmy nawet nie tyle co skupić się na badaniu jego inteligencji lecz ryzyka jakie potencjalnie może stwarzać. Może nie będzie to w ciągu kilku miesięcy ale za kilka lat z całą pewnością powstaną już zalążki takich rozwiązań czyniące omawiany scenariusz prawdopodobnym.

  12. Wenus pisze:

    Uważam, że w dzisiejszych czasach analizowanie skuteczności Testu Turinga mija się z celem.

    TT został opracowany w 1950 roku. Rozwój technologii nie pozwalał wtedy na utworzenie systemu, który w czasie rzeczywistym potrafiłby “udawać” człowieka. Moim zdaniem Turing wymyślił test jako definicję celu tworzenia maszyn inteligentnych, którego wtedy nie dało się zrealizować, ale który był wspaniałą wizją, do której można dążyć. Był to, swoją drogą, świetny pomysł, aby w prosty sposób, zrozumiały dla wszystkich, opisać cel w tak skomplikowanej materii.

    W dzisiejszych czasach istnieją rozwiązania przewyższające człowieka w większości dziedzin. SI potrafi wygrać w szachy z najlepszym szachistą świata, nie mówiąc o szybkości wyliczeń matematycznych. Zasadnym jest zatem pytanie nie o to czy SI jest tak inteligentna jak człowiek, ale czy człowiek jest w stanie dorównać SI. “Przeciętny” człowiek, w odróżnieniu od SI, popełnia często te same błędy zaprzeczając tezie o tym, że inteligencja oznacza zdolność uczenia się. Badanie czy maszyna jest w stanie naśladować takie “człowieczeństwo” mija się zatem z celem, bo twórcom zależałoby, aby je przewyższała.

    Testy na inteligencję człowieka badają ją wyłącznie w określonych dziedzinach, np. egzamin na prawo jazdy weryfikuje wiedzę na temat przepisów ruchu drogowego z inteligencją wykorzystania jej w konkretnych sytuacjach na drodze oraz manualną sprawność kierowania samochodem. Test SI w takim obszarze musiałby odbywać się w podobny sposób, ale przecież już dzisiaj są przykłady autonomicznych pojazdów poruszających się w ruchu ulicznym bez kierowcy. Twórcom SI zależeć będzie na tym, aby przewyższyć możliwości człowieka i wkrótce to ludzie zostaną z roli kierowcy wyeliminowani, ponieważ szybciej się męczą i ulegają emocjom wpływającym na jakość prowadzenia samochodu. Test sprawdzający czy automatyczny kierowca może “udawać” człowieka jest w tym kontekście po prostu przestarzały.

  13. Adam Solawa pisze:

    Zgadzam się z poprzednimi opiniami iż nie jest możliwe definitywne ocenienie inteligencji na podstawie jednego testu. Aby ocenić inteligencje powinna być znaczna grupa komplementarnych testów oceniających inteligencje w różnych dziedzinach. Jeżeli zaś chodzi o test Turinga uważam iż w tamtych czasach mógł być przez ludzi postrzeganych jak pewien dowód inteligencji maszyny, lecz obecnie można dostrzec iż ten test bardziej weryfikuje sprawność maszyny dotyczącą przetwarzania języka naturalnego, co według mnie ciężko uznać za inteligencję. Jest wiele dziedzin w których używamy automatów, w każdym z nich automat stara się zoptymalizować metrykę dla danego problemu. Brakuje w takim procesie myślenia. Moim zdaniem aby ocenić inteligencje powinniśmy zrezygnować ze sztywno określonych metryk które prędzej czy później automat będzie w stanie zoptymalizować do zadziwiającego dla ludzi stopnia, lecz pozostawienie automatu samemu sobie i przyglądanie się co będzie w stanie stworzyć bez z góry określonych wymagań.

    • Kacper Godlewski pisze:

      Zgadzam się jeżeli chodzi o kwestię tego, że jeden test nie jest w stanie pokazać czy testowana sztuczna inteligencja jest faktycznie inteligentna. Moim zdaniem najlepszą opcją byłoby stworzenie programy, który by testował ten aspekt. W pewnym sensie „napuszczalibyśmy” na siebie dwie sztuczne inteligencje. Aplikacja sprawdzająca nieustannie uczyłaby się nowych technik wykrywania. Jeżeli byłaby dobrze skonstruowana nie powinna „przegrać” ze sobie podobną.

      Test Turinga nie może już być traktowany jako sprawdzanie podobieństwa sztucznej inteligencji do naszej. Tak jak wspomniałem w poprzednim akapicie, należałoby sporządzić na tych podwalinach program sprawdzający lub też zbiór testów. Jednakowoż uważam, iż musiałyby być one nieustannie poprawiane co jest niepotrzebnym marnowaniem środków, bo choć stworzenie sztucznej inteligencji może być droższe na starcie, utrzymanie AI powinno być tańsze niż ciągłe poprawianie zestawu testów.

      Nie zgadzam się natomiast z postulatem, iż powinniśmy zostawić sztuczną inteligencję samą sobie. Kontrola jest wymagana do tego, aby nie zaczęła się ona zachowywać w sposób nie przewidziany przez twórców. Oczywiście szanse na taki obrót spraw są małe, ale nie zerowe. Nie musi to być ścisła kontrola, lecz coś co mogłoby dać znać naukowcom, że nie wszystko działa tak jak powinno.

  14. isana pisze:

    Również uważam, ze test Turinga pomija wiele istotnych kwestii podczas badania jej inteligencji, jednak żaden test nie jest w stanie zbadać każdego aspektu “rozumowania” maszyny. Jednocześnie zgadzam się z przedmówcami, że test Turinga powinien stanowić bazę do przyszłych, bardziej rozbudowanych testów jednak nie wydaje mi się, że należy zwracać w nich uwagę na odpowiedzi maszyny. Moim zdaniem za inteligencję maszyny odpowiada również umiejętność rozumienia ludzkich uczuć i wykorzystywania ich w odpowiednich sytuacjach. Dlatego myślę, że ważniejsze od treści wypowiedzi jest sposób w jaki ją uzyskaliśmy. Przykładem tego może być czas po jakiej otrzymaliśmy odpowiedź, to czy i jakie emocje możemy z niej wyczytać, to czy ta druga strona umie dostosować się do rozmówcy między innymi pod względem słownictwa, czy też pisowni. Ważne wydaje mi się również część odpowiedzi nie związana bezpośrednio z pytaniem. Na przykład czy przy pytaniu, na które ludziom ciężko byłoby odpowiedzieć, albo czuliby zmieszanie, to czy maszyna potrafiłaby w jakiś sposób uniknąć odpowiedzi i czy wiedziałaby jakie tematy dla zwykłych ludzi są “niewygodne”.

    Zastanawia mnie też, czy inteligentne maszyny wiedziałyby co je wyróżnia od ludzi i czy potrafiłyby to zamaskować podobnie jak w powyższym, uproszczonym przykładzie kobiety mówiącej o krótko ściętych włosach, by ciężej byłoby ją odróżnić od mężczyzny. Wymagałoby to od niej olbrzymiej wiedzy na temat natury ludzkiej, co według mnie również może świadczyć o poziomie jej inteligencji.

    • Martyna Gruszczyńska pisze:

      Zgadzam się, że testowanie inteligencji maszyn pod względem rozumienia ludzkich uczuć i wykorzystywania ich w odpowiednich sytuacjach pomaga sprawdzić inteligencję maszyn, a dokładniej inteligencję emocjonalną. Pozostaje problem sprawdzenia tego aspektu, ponieważ musimy to wywnioskować z otrzymanej odpowiedzi. Dobrym sposobem byłby przytoczony przykład zmieszania, który powinniśmy uzyskać zadając niewygodne pytanie. Jednak jak sprawdzić inne emocje? Należałoby stworzyć bazę pytań, które będą w stanie zweryfikować prawdziwość emocji.
      Możemy sprawdzić również cierpliwość maszyn. Jak zareaguje maszyna, gdy będziemy natarczywie pytać o dane zagadnienie, zagłębiając się w szczegóły? Można to porównać do dzieci ciekawych świata, pytających dosłownie o wszystko. Dorośli w pewnym momencie tracą cierpliwość. Czy maszyna zrezygnuje, czy będzie cały czas odpowiadała na kolejne pytania? Jeżeli zrezygnuje to po ilu pytaniach? Być może jest to kolejny pomysł na udoskonalenie testów.
      Ciekawym pomysłem jest dostosowanie słownictwa i pisowni do rozmówcy. Jeżeli coś rozumiemy powinniśmy być w stanie wyjaśnić to w miarę przystępny sposób. Uważam, że jest to dość dobry kierunek ulepszenia testów na sztuczną inteligencję.

  15. Martyna Gruszczyńska pisze:

    Na wstępie odniosę się do pojęcia inteligencji. Moje postrzeganie utożsamia się z teorią inteligencji wielorakiej opracowanej przez Howarda Gardnera. Koncepcja ta zakłada, że inteligencja nie jest jedną właściwością, która opisuje możliwości człowieka w zakresie aktywności intelektualnej, ale istnieje kilka rodzajów inteligencji w zależności od tego, o jaki rodzaj aktywności chodzi.
    Odnosząc się do testowania systemów informatycznych pod kątem inteligencji, zgadzam się z większością uczestników dyskusji. Uważam, że Test Turinga powinien stanowić część szukanego testu, który należałoby rozszerzyć innymi testami, sprawdzającymi inne umiejętności. Test Turinga skupia się na zdolności do rozmowy przez co zawęża pojęcie inteligencji oraz skłania twórców do koncentrowania się na tej konkretnej umiejętności. Czymś innym będzie udział w konwersacji z kilkoma osobami, gdzie liczy się umiejętność odnalezienia się w sytuacji, zrozumienie drugiej osoby a nawet szybkość odpowiedzi. Jak w takiej sytuacji poradziłaby sobie maszyna?
    Zauważamy zatem potrzebę tworzenia innych testów skupiających się na różnych cechach, którymi charakteryzuje się inteligencja. Można skupić się na przyjmowaniu czyjejś perspektywy i rozumieniu czyjeś intencji poprzez rozumienie innych istot i uświadomienie sobie, że mają umysły, dzięki którym mogą mieć inną wiedzę o otaczającym świecie. Idealnie opisuje to cytat „Punkt widzenia zależy od punktu siedzenia”.
    Ciekawym pomysłem wydaje się być również idea naukowców z Uniwersytetu Stanforda, którzy stworzyli nowy algorytm o nazwie Atom2Vec, który samodzielnie odkrył okresowy układ pierwiastków. Ich zdaniem wartość sztucznej inteligencji określałaby liczba dokonanych przez nią odkryć.
    Znalezienie odpowiedniego testu wydaje się bardzo trudnym zadaniem, o ile jest ono możliwe do zrealizowania. Oczywiście należy te testy rozwijać i stawiać poprzeczkę coraz wyżej. Jednakże, według mnie, nie powinniśmy się skupiać na stworzeniu jednego miarodajnego testu, lecz należałoby zająć się opracowaniem wielu testów sprawdzających różne aspekty inteligencji.

  16. Roman Uhera pisze:

    Na początku chciałem podkreślić, że całkowicie zgadzam się z osobami, które wcześniej umieściły tutaj swoje komentarze na temat wpływu testów na rozwój sztucznej inteligencji – wraz z rozwojem „poziomu trudności” testu, zwiększają się wymagania co do SI, a więc również sam poziom zaawansowania technicznego maszyn.

    W mojej opinii, choć troszkę przestarzały, test Turinga bardzo dobrze radzi sobie z testowaniem inteligencji maszyn, rozumianej w postaci ludzkiej. Wykorzystuje on pewną analogię do życia codziennego – tutaj też bardzo często oceniamy inteligencję innych osób poprzez rozmowę z nimi. Zakładając więc, że maszynie uda się przejść test Turinga, możemy stwierdzić, że posiada ona „ludzką inteligencję”.

    Z drugiej strony, czy naprawdę jedyną możliwą postacią inteligencji jest ta posiadana przez człowieka? Czy nie lepszą drogą dla rozwoju SI będzie „inteligencja maszynowa”? Już w dzisiejszych czasach powszechna jest sytuacja gdy maszyny są lepsze od człowieka w wielu dziedzinach wymagających myślenia (wspomniane już wcześniej szachy), a nawet całkowicie zastępują nas w wielu czynnościach. Czy w takim przypadku uzależnianie rozwoju SI od pozytywnego wyniku testu Turinga nie jest w pewien sposób krokiem w tył? Moim zdaniem optymalną drogą dla rozwoju SI jest rezygnacja z prób udawania człowieka przez maszynę – bo do tego moim zdaniem sprowadza się test Turinga – oraz rozróżnienia dwóch pojęć – inteligencji ludzkiej oraz maszynowej. Tylko w takim przypadku ludzkość będzie w stanie wykorzystać pełen potencjał SI, a nie ograniczać go poprzez tworzenie jej na swoje podobieństwo.

    Mimo wszystko nie należy jednak rezygnować z różnego rodzaju testów – jak pisałem na początku pozwalają one na ciągły rozwój SI. Jednocześnie, moim zdaniem powinny się one skupić na inteligencji maszynowej , odrzucając kryterium podobieństwa do człowieka. W mojej opinii niektórych różnic między procesorami i kartami głównymi a mózgiem i synapsami raczej nigdy nie uda nam się usunąć, nie powinniśmy więc wymagać, żeby ich „myślenie” było takie samo, co jednak nie będzie oznaczać że sama inteligencja maszyn nie istnieje.

    • Wenus pisze:

      Zasadniczo zgadzam się z Twoją wypowiedzią. Podoba mi się pomysł na rozróżnianie inteligencji na “ludzką” i “maszynową”. Każda Sztuczna Inteligencja wytwarzana jest w jakimś celu. Wyposażana jest w cechy konieczne do spełnienia tego celu, ale nie w inne. Przykładowo system do kontroli lotów może radzić sobie lepiej niż dzisiaj ludzie kontrolerzy lotów, chociaż niekoniecznie będzie potrafił grać w szachy. Umiejętność kierowania ruchem powietrznym będzie zatem taką “maszynową” inteligencją. Wyobrażam sobie jednocześnie, że system, który perfekcyjnie będzie potrafił prowadzić kontrolę lotów … nie zda Testu Turinga! Dlatego tak ważne jest zdefiniowanie inteligencji “maszynowej”, którą proponuję określić jako umiejętność realizowania celów, do których Sztuczna Inteligencja została stworzona.

      Jednak nie zgadzam się z opinią, że należy przeprowadzać różne testy, które miałyby “ulepszać” maszyny. Są one budowane, aby spełniać konkretne cele. Należy więc testować, czy dany cel spełniają, a nie, czy potrafią wykonywać inne czynności. Wtedy można poprawiać ewentualne błędy. Testy nie służą udoskonalaniu, testy mogą ewentualnie sprawdzać, czy wprowadzane zmiany, ulepszenia działają, czyli jak sama nazwa brzmi “testować”. Testy są zatem częścią procesu produkcji każdego przedmiotu, nie tylko sztucznej inteligencji, np. kosmetyki są testowane czy nie powodują alergii u ludzi.

  17. Jakub Modzelewski pisze:

    Przeprowadzanie kolejnych testów Turinga spowoduje, iż testowana maszyna nauczy się te testy zaliczać – zacznie wyrażać emocje, zastanawiać się nad rozwiązaniem problemu, udzielać błędnych odpowiedzi lub na zbyt trudne pytanie odpowie po prostu ,,nie wiem”.
    Ale czyż emocje nie zostaną jedynie zasymulowane w celu pozostania niewykrytym? Czy proces ,,myślenia” i zastanawiania się nad odpowiedzią nie będzie się równał z oszacowaniem, ile czasu na rozwiązanie problemu potrzebowałby człowiek i przeczekanie tego czasu z gotową odpowiedzią?
    Maszyna spróbuje się dostosować do testu, jaki zostanie przed nią postawiony, choćby nawet przerastała jego poziom. Dlatego moim zdaniem niemożliwym jest zbadanie inteligencji maszyny za pomocą wcześniej zaplanowanego testu – potrzeba nam tutaj testu, którego maszyna nie mogłaby się nauczyć – czegoś niemierzalnego, niemożliwego do wyrażenia za pomocą algorytmu. Być może spontaniczny, losowy i niezaplanowany test mógłby wykryć niedoskonałości sztucznej inteligencji i ,,złamać ją”, udowadniając, że nie jest ona równa człowiekowi.
    Jedną z cech ludzkiej inteligencji jest umiejętność radzenia sobie z niespodziewanymi, nie branymi pod uwagę sytuacjami – jeśli maszyna miałaby poradzić sobie z takim problemem, musiałaby albo już wcześniej z czymś takim się spotkać (co odrzucamy, bo w końcu mówimy o spontanicznym teście) albo zebrać informacje ,,składowe problemu” i samodzielnie wytworzyć rozwiązanie. Czy wewnętrzne algorytmy SI będą w stanie rozwiązać każdy spontaniczny test? Tutaj zgadzam się z hipotezą Pana Oskara Wernera, która mówi, że nie istnieje wystarczająca ilość testów żeby to sprawdzić.

    Tak więc moim skromnym zdaniem sam test Turinga to stanowczo za mało, żeby zbadać inteligencję maszyny – w pewnym momencie jej wiedza przerośnie wiedzę pojedynczego człowieka, co umożliwi jej skuteczne ,,udawanie” – ale samo udawanie nie uczyni inteligencji maszyny równej człowiekowi.

    • Paweł Stacewicz pisze:

      — potrzeba nam tutaj testu, którego maszyna nie mogłaby się nauczyć…

      To spostrzeżenie nie wykracza poza oryginalny zamysł Turinga: rozmowa z maszyną może dotyczyć dowolnych, niespodziewanych, spontanicznie wprowadzanych do rozmowy tematów.

      Czy mógłby Pan doprecyzować, na czym miałby polegać “Pana” spontaniczny test i w jakim sensie byłby wzmocnieniem TT lub alternatywą dla TT.

      — samo udawanie nie uczyni inteligencji maszyny równej człowiekowi…

      Czy macie Państwo jakieś pomysły na sprawdzanie, czy maszyna nie “udaje”? Co to w ogóle znaczy, że “udaje”?

      • Jakub Modzelewski pisze:

        Udawanie, na przykład emocji, przez maszynę, to w moim rozumieniu pokazywanie ich odbiorcy bez rozumienia ich istoty. Na podstawie przykładu z dodawaniem dwóch liczb – czy maszyna faktycznie zastanawia się nad odpowiedzią, czy odgórnie ją zna? Raczej to drugie – to jest właśnie ,,udawanie” myślenia człowieka.

        Poprzez spontaniczny test mam na myśli taki, który wymaga czegoś więcej niż rozmowy na określony temat czy też odpowiedzi na pytanie – najlepszym pomysłem jaki przychodzi mi do głowy jest test, do którego zaliczenia potrzeba pewnego rodzaju instynktu – czegoś, czego człowiek sam w sobie nie musi się uczyć, lecz instynktownie podąża ku dobremu rozwiązaniu. Często wiąże się to z umiejętnościami manualnymi, takimi jak odruch cofania ręki po ukłuciu. Lepszym przykładem jest jednak instynkt samozachowawczy – czy maszyna może poczuć jakąkolwiek chęć przetrwania? Jeśli testem byłaby próba zniszczenia maszyny, to dlaczego miałaby się bronić? Nie posiada przecież ciała, które by ją bolało podczas uderzenia, tylko hardware. Taki test byłby według mnie świetnym uzupełnieniem TT.

        • Maciej Ołowski pisze:

          Zgadzam się z Twoją wypowiedzią. Test polegający na instynktownym reagowaniu, coś wykraczającego poza zwykłą rozmowę polegającą na wyrażeniu swojego zdania to dobry pomysł. Uważam, że dobrym pomysłem byłoby uzupełnić TT także o sprawdzian w kwestii instynktu rodzicielskiego lub instynktownego reagowania wobec jakiejś bliskiej osoby. Jestem zdania, że patrząc jak instynktownie zachowałaby się dana osoba możemy celnie założyć jakie zdanie człowiek tak reagujący miałby w kwestii różnych poglądów. Np. jeśli pytając kogoś czy poświęcił by coś cennego dla życia innej, bliskiej mu osoby możemy z dużą pewnością założyć, że taka osoba nie jest obojętna na życie innych. Jest to banalny przykład, ale obrazujący jak działa człowiek. Może to byłoby dobrym pomysłem, aby przez instynktowne reakcje robota sprawdzać później czy pokrywają się z jego poglądami, tokiem myślenia.

          • Jakub Modzelewski pisze:

            Swoją wypowiedzią podsunąłeś mi jeszcze jeden pomysł na udoskonalenie testu Turinga – reakcję na sarkastyczne zachowanie rozmówcy. Ludzie inteligentni potrafią rozpoznać sarkazm, nawet jeśli nie został on odpowiednio zaintonowany (na przykład został napisany tekstowo), ale zazwyczaj warunkiem tego jest wcześniejsze zapoznanie się z rozmówcą i poznanie cech jego charakteru – w przeciwnym wypadku możemy mieć problem z analizą sarkazmu – nie wiemy czy się zaśmiać z rzuconego żartu, czy też dana osoba mówi poważnie.
            Zastanawia mnie, czy maszyna, która spędzi bardzo długi czas na rozmowie z prawdziwym człowiekiem zdoła zebrać na jego temat wystarczającą ilość informacji, aby rozpoznać emocje trudno rozpoznawalne nawet dla nas – ludzi. Myślę, że byłoby to dla niej wyjątkowo trudne zadanie.
            Podsumowując – TT można udoskonalić o dwa poziomy trudności sprawdzania rozpoznawania sarkazmu. Łatwiejszy polegałby na rozmowie głosowej (tu maszyna mogłaby skorzystać z tonu głosu rozmówcy w celu identyfikacji sarkazmu), a trudniejszy pozostałby w granicach założeń TT, czyli odbyłby się drogą tekstową.

  18. Roberto Del Giudice pisze:

    Test Turinga jest już dość przestarzałą formą weryfikacji. Na ten moment, sztuczna inteligencja jest w stanie oszukać rozmówcę układając sensowne oraz inteligentnie brzmiące zdania. Uważam jednak, że formułę testu Turinga da się rozbudować.

    Moją propozycją jest dodanie kilku dodatkowych sprawdzianów. Kilka z tych pomysłów pojawiło się już wyżej, uważam że są bardzo dobrym dodatkiem. Poniżej przedstawię ogólną formułę odświeżonego testu:

    1. Zwyczajna rozmowa na dowolny temat, czyli obecny wygląd testu Turinga. Uważam że jest to dobra faza początkowa, która pozwoli wyeliminować mniej wyrafinowane sztuczne inteligencje.
    2. Opowiedzenie historii przez badaną maszynę. Jak wyżej zostało przez Państwa wspomniane, powinna to być jakaś historia emocjonalna, opowiadająca o przeżyciach osoby opowiadającej. Ten krok, choć trudniejszy do sfałszowania, wciąż może być niewystarczający do podjęcia jednoznacznej decyzji.
    3. Tu w przeciwieństwie do punktu 2, to badanemu opowiadania jest pewna historia, po czym jest on pytany o sformułowanie opinii o tej opowieści. Moim zdaniem formułowanie opinii jest ważną cechą, która w tym momencie odróżnia nas od sztucznej inteligencji. Opowieść powinna być emocjonalna, podobnie jak w punkcie 2. Taki test jest już cięższy do oszukania zwyczajnym algorytmem w porównaniu do poprzednich dwóch punktów.
    4. Narysowanie czegoś odwołującego się do poprzednich trzech punktów. Nie każdy człowiek jest uzdolniony artystycznie, ale uważam że każdy byłby w stanie utworzyć prosty rysunek przedstawiający przemyślenia na temat przeprowadzanej rozmowy. Rysunek powinien mieć dołączony krótki opis, w którym zawarte jest, do czego odnosi się dzieło.

    Jeżeli jakakolwiek maszyna da radę oszukać człowieka w powyżej przedstawionych testach, to niewiele będzie nas od niej dzielić. Uważam że nasze emocje oraz umiejętność formowania opinii jest wyróżniającym nas czynnikiem w porównaniu do programu komputerowego.

    Chciałbym poruszyć jeszcze jedną kwestię: czy jeżeli sztuczna inteligencja będzie w stanie oszukać człowieka w każdym aspekcie, to czy jest ona nową formą inteligentnego życia? Czy taka maszyna, mająca zaprogramowane emocje, zdolności językowe, matematyczne, artystyczne (itd.) będzie nosiła miano człowieka? Czy jest to w ogóle etyczne stworzyć istotę, która umysłowo jest niemal identyczna do człowieka? Chociaż możliwe, że są to zagadnienia bardziej odpowiednie na środową dyskusję…

    • em pisze:

      Odnosząc się do komentarza powyżej wymienione etapy testu są według mnie bardzo dobrą oceną podobieństwa sztucznej inteligencji i człowieka. Pierwszy etap, czyli tradycyjny test Turinga jest dość łatwą do przejścia częścią, za to pozostałe są według mnie znacznie trudniejsze i już nie tylko mają sprawdzić, czy maszyna potrafi odpowiadać jak człowiek, ale sprawdzane są cechy o wiele bardziej ludzkie jak kreatywność i wrażliwość. Jeśli maszyna przeszłaby ten test to moim zdaniem zdecydowanie powinniśmy jej inteligencję przyrównać do inteligencji człowieka. Aczkolwiek nie sądzę, aby wrażliwość i kreatywność maszyny była łatwa do osiągnięcia.
      Zdecydowanie zgadzam się z opinią z komentarza, że nasze emocje i opinie są tym co nas odróżnia od sztucznej inteligencji. Gdybyśmy zostali pozbawieni tej różnicy to człowiek mógłby stać się wręcz niepotrzebny. Maszyna bowiem potrafi być nawet wieczna. Można jej cały „dobytek intelektualny” skopiować do nowego urządzenia, gdy stare jest już zużyte, czego nie można zrobić z umysłem człowieka, gdy jego ciało ulega zniszczeniu.
      Uważam, że nie ważne jak daleko do przodu pójdzie sztuczna inteligencja, nigdy nie powinna być uznana za nową formę inteligentnego życia. Miano organizmów żywych przysługuje tylko i wyłącznie istotom, które faktycznie żyją – wykonują procesy życiowe.
      Człowieka nie określa jednoznacznie fakt, że jest inteligentny. Z określeniem „człowiek” wiąże się wiele innych cech, które są wyróżniające właśnie dla niego, jak np. śmiertelność, której brak maszynom. Zawsze między sztuczną inteligencją a człowiekiem będą różnice, chociażby najbardziej prozaiczne jak np. historyczne i ze względu na to nie powinniśmy stawiać równości całościowo między jednym a drugim.

  19. AR pisze:

    Mam wrażenie, że przeprowadzana dyskusja skupia się na bardzo małym kawałku sztucznej inteligencji oraz jej identyfikacji. Cały czas poruszamy temat tylko sztucznej inteligencji, która ma imitować ludzkie zachowania i udawać, że jest człowiekiem. Jak wiadomo człowiek jest bytem nieidealnym. Podczas wykonywania wszystkich czynności popełniamy większe czy to mniejsze błędy. Taka sztuczna inteligencja musiałaby udawać, że również wykonuje owe, co jest totalnie bezużyteczne w niemal każdym kontekście. Celem sztucznej inteligencji oraz innych maszyn wcale nie jest dogonienie człowieka, tylko go prześcignięcie. Możemy spojrzeć na wszystkie elementy wokół nas stworzone przez ludzi i ich celem jest zastąpienie i/lub ułatwienie ludziom funkcjonowania. Zazwyczaj te przedmioty na samym początku przejmują nasze zadania i wykonują je minimalnie gorzej lub w takim samym stopniu. Kolejnym etapem jest ulepszenie owych urządzeń, by wykonywały one czynności lepiej/szybciej lub nawet uzyskują możliwości nieosiągalne przez człowieka. Spójrzmy przykładowo na jakieś dowolne maszyny obróbcze. Na samym początku mieliśmy proste narzędzia, dzięki którym wykonywaliśmy obiekt, następnie zaczynały pojawiać się maszyny, które zaczęły wykonywać te same czynności co człowiek, ale z większą dokładnością oraz szybkością, ale z pomocą dokładnej pomocy człowieka. Najnowszym etapem jest wytwarzanie elementów z jak najmniejszym zaangażowaniem człowieka. Wracając do początku, celem większości sztucznych inteligencji wcale nie jest dorównanie człowiekowi, tylko go prześcignięcie. Z definicji sztucznej inteligencji- „dział informatyki, zajmujący się tworzeniem modeli zachowań inteligentnych oraz programów i systemów symulujących te zachowania.”, natomiast sama inteligencja to „zdolność do postrzegania, analizy i adaptacji od zmian otoczenia” ~definicje z Wikipedii. Jak widzimy, większość współczesnych systemów sztucznej inteligencji jest inteligenta, ponieważ potrafi reagować na otoczenie. Pytanie jest teraz na jakim etapie jest rozwój sztucznej inteligencji. Jest ona jeszcze w bardzo wczesnym etapie rozwoju i prędzej czy później dojdzie do takiego momentu, że będzie równa człowiekowi, a nawet kiedyś go prześcignie. Oczywiście określenie etapu, w którym, kiedy maszyna jest równa człowiekowi będzie niewiarygodnie trudne, ponieważ zarówno człowiek jak i sztuczna inteligencja mają swoje wady- człowiek myśli i analizuje znacznie wolniej, ale za to jest wstanie zareagować na większość czynników, a komputer odwrotnie oraz ma niemal nieograniczoną liczbę faktów – Internet (w teraźniejszości). W moim postrzeganiu człowiek ma wady, których nigdy nie prześcignie (chyba, że zaczniemy jako społeczeństwo stosować z modyfikacji genetycznych oraz implantów), a sztuczna inteligencja ma owe wady znacznie mniejsze, ale jeszcze nie jest wystarczająco nauczona (kwestia czasu). Osobiście nie widzę sensu przeprowadzania testów na sztucznej inteligencji, w których porównujemy człowieka z nią, ponieważ ich zadaniem wcale nie jest bycie takim jak my. Inteligencja maszyn różni się diametralnie od ludzkiej. Załóżmy jednak, że mamy bardzo specyficzny rodzaj sztucznej inteligencji, który ma przypominać człowieka. Być może istnieje wiele testów, które pomagają rozróżnić człowieka od maszyny, ale to jest kwestia czasu zanim się one nie przedawnią. Sztuczna inteligencja rozwija się z ogromną prędkością i będzie się rozwijała coraz szybciej. Wydaje mi się osobiście, że już obecnie by się udało zrobić robota, który byłby nierozróżnialny od człowieka (pod względem rozumowym), ale zastosowanie czegoś takiego, co celowo jest wypchane wadami podobnymi do ludzkich jest minimalne. Zastosowanie takiego systemu na przykład do czatowania z komputerem jest po prostu głupie, ponieważ niekoniecznie zależy nam na tym, żeby czekać przez pewien czas jak odpisze, lub popełni jakieś błędy składniowe/gramatyczne czy inne. Test Turinga sprawdza tylko, czy sztuczna inteligencja posiada wady takie jak człowiek, a nie czy faktycznie jest inteligentna (przypominam definicję z wcześniej „zdolność do postrzegania, analizy i adaptacji od zmian otoczenia”). Podsumowując, uważam, że inteligencja sztucznej inteligencji oraz inteligencja ludzka jest czymś innym i nie da się ich tak o porównać. Są to odrębne rzeczy o innych cechach i o innych celach. Sztuczna inteligencja nie dąży do bycia człowiekiem, lecz dąży do perfekcyjności.

    • em pisze:

      Zdecydowanie zgadzam się z opinią na temat testu Turinga autora komentarza powyżej. Naszym celem nie powinno być stworzenie maszyny, która dorównuje człowiekowi, tylko maszyny, która pozwoli człowiekowi osiągnąć poziom wyższy, niż byłby w stanie osiągnąć samodzielnie.
      Udoskonalanie się w popełnianiu błędów jest bez sensu. Powinniśmy wykorzystywać potencjał sztucznej inteligencji. Maszyna człowiekiem nigdy nie będzie i nie warto próbować zmieniać jej w człowieka, tylko rozwijać ją taką jaka jest i wykorzystywać jej zalety i przewagę nad nami w wielu dziedzinach.
      Ocena czy maszyna jest inteligentna jest według mnie zbędna, ponieważ nie to czy jest inteligentna powinno nas interesować, ale to jak bardzo jest przydatna dla człowieka i jak duży krok do przodu robi ludzkość dzięki niej. O maszynach myślmy w kategoriach maszyn, a nie w kategoriach ludzkich.

      • isana pisze:

        Również moim zdaniem maszyna nie powinna być stworzona w celu imitacji człowieka, jednak test sprawdzający ich wiedzę, czy też ich możliwość rozumienia ludzi może być dobrą metodą kwalifikacji, czy rozwój SI idzie w dobrą stronę, czy w jakim tempie maszyny się rozwijają. Nie ważne w jakim kierunku tworzymy maszyny to i tak powinniśmy stale kontrolować ich rozwój i tempo tego rozwoju i to właśnie w tym celu powinny być tworzone testy. Będą one mogły pokazać, czy rozwój maszyn idzie w kierunku, który twórcy zakładali, czy wręcz przeciwnie. Pokażą, nad czym jeszcze trzeba popracować oraz do czego są one zdolne. Dzięki testom możliwe, że będziemy mieć nad nimi pewnego rodzaju kontrolę.

        • Wenus pisze:

          Nie zgadzam się z następującym fragmentem powyższej wypowiedzi:” test sprawdzający ich wiedzę, czy też ich możliwość rozumienia ludzi może być dobrą metodą kwalifikacji, czy rozwój SI idzie w dobrą stronę”. Zdanie to sugeruje, że SI jest tworem nieznanym, który się rozwija niezależnie od ludzi. Tymczasem SI jest tworzona przez ludzi i dla ludzi w celu wykonania precyzyjnie zdefiniowanych zadań. Poddawanie jej zatem testom na sprawdzenie “ludzkości” jest bezproduktywnym traceniem czasu i zasobów. Wynik takich testów nie niesie żadnej wartości dodanej w ocenie przydatności SI do wykonania założonych celów.

  20. Glorfindel pisze:

    Obecnie coraz mniej powszechnie stosuje się test Turinga i już nie do końca uważa za kryterium oceny SI. Nasze czasy uciekły bowiem w stronę której Turing chyba się nie spodziewał. Z punktu widzenia logiki zdań i wypowiedzi – trudno stosować jego test jeśli większość ludzi : media, politycy, celebryci, mówią tak bezsensowne rzeczy, iż trudno uwierzyć, że może to wypowiadać myśląca osoba. Tematy rozmów dobierane są powierzchownie, a odpowiedzi zwykle tak wymijające, że granica gdzie jest maszyna i człowiek staje się nieistotna bo trudniejsze jest znalezienie w nich pojęcia inteligencja. Turing ze swoim chłodnym matematycznym umysłem na pewno miałby trudności by w tym się odnaleźć. Coraz częściej można spotkać się z opinią, że aby stworzyć maszyny, które imitują działania człowieka, potrzebujemy czegoś więcej niż wyważonych i pasujących do kontekstu odpowiedzi na pytania. Sama umiejętność reagowania na zadane pytania nie jest wystarczająca, aby określić maszynę jako zdolną do myślenia czy też porównywać ją do człowieka. Przypominają raczej osoby z zaburzeniami rozwoju, wybitnie uzdolnione w jednej dziedzinie (np. obdarzone świetną pamięcią lub zdolnością wykonywania działań na ogromnie dużych liczbach w pamięci), lecz dysfunkcyjne w pozostałych.
    Co ciekawe, sam Turing zgadzał się z faktem, że w zasadzie niemożliwe jest udzielenie odpowiedzi na pytanie “czy maszyna potrafi myśleć?”. Z myśleniem związana jest bowiem wspomniana już wcześniej świadomość, która musiałaby charakteryzować maszynę. Nie mogą być one jednak traktowane jako inteligentne w klasycznym rozumieniu tego słowa (czyli potrafiące się odnaleźć w zmieniających się okolicznościach). W przeciwieństwie do ludzi maszyny wciąż nie są bowiem uniwersalne, a ich elastyczność jest ograniczona. Można sobie postawić pytanie dlaczego maszynom tak trudno zbliżyć się do ludzkiego poziomu w na pozór banalnych codziennych zadaniach, podczas gdy prześcigają nas w zaawansowanej kombinatoryce? Dlatego, że maszyny specjalizują się dziś w rozpoznawaniu obiektów, podczas gdy człowiek rozumie znaczenie danej treści (tekstu, obrazu czy dźwięku) i odnosi ją do kontekstu, czyli świata zewnętrznego. Dla powstających dziś maszyn to wciąż nieosiągalne. Aby mogły się czegoś nauczyć, potrzebują bowiem ogromnych ilości danych i wielkiej mocy obliczeniowej. Takie podejście sprawdza się, ale tylko w systemach zamkniętych a realny świat jest jednak systemem otwartym, w którym liczba potencjalnych wariantów sytuacyjnych dalece wykracza poza możliwości działania współczesnych systemów.

    • Roman Uhera pisze:

      Generalnie zgadzam się z Twoim punktem widzenia. Również wydaje mi się, co szczegółowo rozwinąłem i podkreśliłem w swojej poprzedniej wypowiedzi, że próby „uczłowieczania” maszyn są w pewnym sensie równaniem w dół i ograniczaniem ich wielkiego potencjału. Wydaje mi się jednak, że nie powinniśmy porównywać maszyn do „osób z zaburzeniami rozwoju”. Sytuacja, w której SI jest wybitnie uzdolniona przypomina mi bardziej postacie sportowców – przecież bardzo dobry piłkarz najprawdopodobniej ni e będzie również świetnym hokeistą. Takie porównanie nie jest również silnie nacechowane negatywnie – zwraca uwagę na nieograniczone możliwości maszyny tam, gdzie są one naprawdę potrzebne, umniejszając wagę słabości i niedociągnięć maszyn w dziedzinach, do których nie są one tworzone.

      Jeśli chodzi o drugą część Twojej wypowiedzi, wydaje mi się że tak samo jak ja w pewnym sensie poruszyłeś wątek inteligencji ludzkiej i maszynowej. Różnice między światem realnym, w którym ludzkość egzystuje już od tysięcy lat, a wirtualnym, gdzie tworzone są i „żyją” maszyny powodują, że wiele czynności banalnie prostych dla nas jest praktycznie niewykonalne dla maszyn i odwrotnie. Czy powoduje to, że któryś rodzaj inteligencji jest gorszy? Moim zdaniem nie, są one po prostu różne i sprawdzają się w kompletnie innych przypadkach. Skoro jednak bardzo chcemy porównywać ludzi i maszyny myślę, że powinniśmy dać im trochę czasu – my też kiedyś żyliśmy w jaskiniach, a dzisiaj latamy w kosmos. Podobny postęp może, a nawet powinien się wykonać w przypadku SI i dopiero wtedy będą możliwe jakiekolwiek obiektywne porównania.

      • Glorfindel pisze:

        Uważam, że Twoje porównanie do sportowców nie jest trafne ponieważ często jest tak, że dyscypliny sportu są do siebie podobne, a umiejętności które nabywamy trenując dany sport możemy sukcesywnie wykorzystywać w innych dziedzinach sportu. W świecie profesjonalnego sportu zdarza się, że możemy zetknąć się z sytuacjami w których najlepsi, najpopularniejsi sportowcy zmieniają dyscyplinę uprawianego sportu. Dla przykładu mogę podać postać Michael’a Jordan’a, który mimo swojej pełnej sukcesów kariery koszykarza postanowił spróbować swoich sił jako baseballista i osiągał dobre wyniki. Tak samo sprawa wygląda jeżeli chodzi o SI. Wybitność w danej dziedzinie powinna być wyznacznikiem całkowitego potencjału maszyny. Wydawać by się mogło, że zjawisko to dotyczy tylko zbliżonych do siebie dziedzin, jednak czytając Twoją wypowiedź w dyskusji przychodzą mi do głowy postacie wybitne nie tylko w jednej dziedzinie lecz w kilku. Mogę przywołać tutaj sylwetki takich osób jak Leonardo da Vinci czy Isaac Newton, których efekty pracy doprowadziły do przełomowych odkryć w różnorakich dziedzinach.

        Wracając do tematu czytając posty w dyskusji przychodzi mi na myśl zdanie, na które natknąłem się czytając czasopismo popularnonaukowe: ,,Sztuczna inteligencja nie myśli – to po prostu program uruchomiony na komputerze, który bardzo szybko liczy,,. Wydaje mi się, że jest to trafne podkreślenie mojego stanowiska w tej dyskusji oraz może stanowić puentę mojej wypowiedzi.

        • Roman Uhera pisze:

          Rozumiem Twój punkt widzenia, ale mimo wszystko spróbuję uzasadnić swoją, opisaną we wcześniejszym komentarzu, opinię. W swojej wypowiedzi przywołujesz przykłady Micheal’a Jordana, Leonarda da Vinci i Isaaca Newtona. Bezsprzecznym faktem jest to, że są to ludzie wybitni, o możliwościach sportowych lub intelektualnych nieosiągalnych dla milionów a nawet miliardów zwykłych ludzi. Dlatego, w mojej opinii porównywanie SI do tych właśnie osób jest całkowicie niesprawiedliwe. Po pierwsze, nie są to ludzie reprezentatywni dla społeczeństwa ludzkiego (wśród maszyn też możemy wyróżnić te stare, gorzej zaprogramowane/ zaprojektowane/zbudowane oraz wybitne, potrafiące radzić sobie z różnorakimi problemami). Ponadto, proces „uczenia” wykonywania pewnych czynności przez maszyny jest zdecydowanie prostszy niż w przypadku człowieka. Pozwala to na szybsze rozwijanie wielofunkcyjności SI, bez ryzyka polegającego na zapomnieniu danej umiejętności.

          Jak sam napisałeś, „wybitność w danej dziedzinie powinna być wyznacznikiem całkowitego potencjału maszyny”. Całkowicie się z tym zgadzam. Tak samo powinniśmy oceniać ludzi, a tych geniuszy, którzy potrafią być wybitni w wielu dziedzinach odpowiednio doceniać. Trzeba jednak pamiętać, że tak jak ludzie dobierają się w zespoły, aby dopełniać swoje umiejętności, dobrze zaprojektowane maszyny również potrafią być komplementarne względem swoich zastosowań i właśnie dlatego, w mojej opinii, ich braki w umiejętnościach wykonywania pewnych zadań nie powinny przysłaniać prawdziwego potencjału który posiadają.

          Dlatego właśnie myślę, że maszyny powinny być postrzegane przez ludzkość jako wybitne, a na pewno nie porównywane do osób z zaburzeniami rozwoju. Być może porównanie ich akurat do wybitnych sportowców nie jest najtrafniejsze, lecz było ono dla mnie pierwszym, które przyszło mi do głowy i wydawało się dobrze opisywać, to co chciałem przekazać.

          • Glorfindel pisze:

            Twój punkt widzenia uważam za trafny. Podoba mi się twoje porównanie komplementarnego działania maszyn do pracy ludzi w zespołach. Dlatego uważam, że każda maszyna powinna być zaprogramowana tak aby spełniała zadanie ale w dość zawężonej dziedzinie. Dzięki temu uzyskalibyśmy doskonałą jednostkę w danej dziedzinie, a tym samym zespół jednostek doskonałych .

  21. Pidgeon pisze:

    Osobiście skłaniałbym się bardziej do opinii odrzucającej test Turinga i niżej postaram się jak najlepiej wyjaśnić swój punkt widzenia.
    Uczenie maszynowe, będące jednym z filarów tworzenia sztucznej inteligencji, w dużym skrócie pozwala maszynie, poprzez wykonywanie testów i symulacji, znaleźć i zapamiętać pewne zależności i wyciągać z nich wnioski. Ważną kwestią jest tutaj ilość wykonanych symulacji. Im bardziej skomplikowane procesy maszyna ma wykonywać tym więcej symulacji musi wcześniej wykonać, oraz tym więcej wniosków ma do zapamiętania. A za tym idzie ilość potrzebnej pamięci komputerowej. Zakładając, że mamy odpowiednią ilość tej pamięci, przeprowadzając kolejne testy Turinga nasza maszyna w końcu będzie w stanie “udawać” człowieka. Jednak czy na pewno jest inteligenta? Faktycznie, uznamy ją za inteligentną przeprowadzając TT, ale przeprowadzając inny test (może to być też rozbudowany TT), uznamy tę samą maszynę za nieinteligentną. Oczywiście możemy wtedy wykonać symulacje na tym kolejnym teście i naszą maszyną znowu będzie można uznać za inteligentną. Tym samym jednak wpadamy w błędne koło gdzie ciągle ulepszamy maszynę i testy. To moim zdaniem podważa zasadność testów tego typu.
    Sztuczna inteligencja otacza nas już w większych miastach. Jest stosowana np. w sygnalizacji świetlnej, analizując obrazy z kamer na różnych skrzyżowaniach i ustalając najbardziej optymalny czas palenia się konkretnych świateł i rozładowując korki, a nawet im zapobiegając. Czy zatem zasadne jest uznanie tej maszyny za nieinteligentną, bo nie umie udawać człowieka, mimo iż potrafi SAMA kalkulować rzeczy, za którymi żaden człowiek by nie nadążył?
    Na tej podstawie poddaję w wątpliwość zasadność przeprowadzania podobnych testów, mających jednoznacznie określić czy dana maszyna jest inteligenta.

    • em pisze:

      Moje stanowisko co do tematu poruszonego przez autora komentarza powyżej jest nieco inne. Uważam, że przykład sztucznej inteligencji sterującej sygnalizacją świetlną nie jest dobrym przykładem sztucznej inteligencji, która w TT nie okazuje się inteligentna mimo, że taka jest. Kalkulacja natężenia ruchu nie jest według mnie niczym inteligentnym, a jedynie żmudnym liczeniem i analizą tworzonej przez siebie bazy danych. Uważam, że sztuczna inteligencja zastosowana w sygnalizacji kalkuluje jedynie te rzeczy, które człowiek „pokazał” jej jak kalkulować, więc nadmiernym jest według mnie określenie, że robi to sama.
      Natomiast zgadzam się z autorem komentarza w kwestii tego, że test Turinga nie jest idealną metodą sprawdzenia, czy maszyna faktycznie jest inteligentna. Zapętlanie się wyników pozytywnych i negatywnych jest bardzo możliwe. Jednakże uważam, że można przeprowadzić dostatecznie dużo testów, by móc ocenić, czy jest inteligentna (jeśli jest inteligentna to błędy będą się zdarzały sporadycznie albo wcale). Problemem natomiast trudnym do rozwiązania jest fakt, że przecież nie każda sztuczna inteligencja musi się specjalizować w udawaniu człowieka, by móc być nazwana inteligentną.
      Dodatkowym problemem testu Turinga jest istnienie dziedzin, w których człowiek z zasady będzie lepszy od maszyny. Takimi dziedzinami jest np. kreatywność oraz tworzenie nowych idei i pomysłów. Moim zdaniem w tych dziedzinach człowiek zawsze będzie lepszy od maszyny i po tym właśnie będzie się dało rozpoznać człowieka i maszynę, więc test Turinga nawet po wielu próbach raz na jakiś czas będzie wypadać negatywnie.

      • Pidgeon pisze:

        Jak najbardziej zgodzę się z ostatnim akapitem komentującego. Nie widzę możliwości, aby maszyna przewyższyła człowieka w dziedzinach, o których autor komentarza wspomniał, takich jak kreatywność czy tworzenie nowych idei. Człowiek ma “wbudowaną” od urodzenia ciekawość, a maszyna jedynie “chęć” rozszerzenia swojej bazy danych (choć “chęć” jest tutaj zdecydowanie zbyt dużym słowem, gdyż jest to zaprogramowany przymus). Dodałbym jeszcze do wymienionych przez autora dziedzin – emocje. Moim zdaniem żaden robot nie będzie w stanie pokazywać emocji tak dobrze jak człowiek, gdyż człowiek emocje (te prawdziwe, nie udawane) pokazuje całym ciałem: przez mimikę, wzrok, zaczerwienienia, ton głosu; trudno je wszystkie wymienić, a co dopiero nazwać. A robot? Robot moim zdaniem mógłby, i to co najwyżej, okazać emocje w sposób podobny do tego, w którym człowiek udaje np. rozbawienie.
        Chciałbym się również odnieść do pierwszego akapitu komentarza. Przykład sztucznej inteligencji rozładowującej ruch uliczny był oczywiście tylko przykładem, prostym do zrozumienia również dla osób, które nie siedzą w informatyce. Autor zwrócił również uwagę na to, że człowiek “pokazał” tej sztucznej inteligencji jak kalkulować te dane rzeczy, i że nadmiernym jest określenie tego, że robi to sama. Moim zdaniem autor komentarza popełnia błąd logiczny, gdyż nie istnieje sztuczna inteligencja, której człowiek nie “pokazał” jak kalkulować, zbierać i odróżniać pewne dane.

  22. em pisze:

    Łatwo możemy sprawdzić w Internecie, że inteligencja to zdolność do postrzegania, analizy i adaptacji do zmian otoczenia. Czy maszyna może być w ten sposób inteligentna? Moim zdaniem tak. Nawet jeśli obecnie sztuczna inteligencja nie jest jeszcze idealna pod tym względem, to jest to jedynie kwestia czasu zanim osiągnie perfekcje.
    Czy test Turinga sprawdza inteligencje maszyny? Moim zdaniem nie, ponieważ nie sam wynik jest tu istotny, a sposób dotarcia do niego. W celu udzielenia odpowiedzi na zadane pytanie maszyna może analizować ogromne bazy danych, jaką na przykład jest Internet i na podstawie nich wybierać odpowiedź. W takim scenariuszu maszyna nie przeanalizowała pytania, a jedynie odnalazła jej odpowiedź podaną przez człowieka. Można to porównać do ucznia, który bezmyślnie kopiuje odpowiedzi do pracy domowej z Internetu. Odpowiedź w znacznej większości będzie poprawna, ale czy takie rozwiązanie pracy domowej powinno się nazywać inteligentnym?
    Aby rozwiązanie można było nazwać inteligentnym potrzebne jest nieco więcej danych w postaci np. większej zdolności poznawczej, umiejętności weryfikacji czy dana odpowiedź nie jest sprzeczna z naszą dotychczasową, „zweryfikowaną” wiedzą (w przypadku ucznia jest to weryfikacja z tym co usłyszał na lekcji od nauczyciela).
    Test Turinga należałoby wzmocnić o analizę dojścia maszyny do rozwiązania. Sprawdzić czy maszyna na podstawie swoich poprzednich doświadczeń potrafi zweryfikować swoją odpowiedź. Nie jest aż tak istotne czy sztuczna inteligencja idealnie wykonuje swoje zadanie (np. udaje człowieka), ale to czy potrafi uczyć się na swoich błędach i wyciągać z nich wnioski.

    • Wenus pisze:

      Zgadzam się z Twoją opinią, że Test Turinga nie sprawdza inteligencji maszyny. Uważam jednak, że myśl tę należałoby rozwinąć w innym kierunku niż rozwijasz w dalszej części swojej wypowiedzi. Skoro testy typu TT nie sprawdzają inteligencji maszyny to są po prostu zbędne. Jak już wcześniej pisałam, ważne jest, aby SI służyła celom, do których została zaprogramowana. Nie jest przy tym ważny sposób dojścia maszyny do rozwiązania.

  23. Greg Brown pisze:

    Czytając komentarze zauważyłem, że mało osób przejmuje moralnością oraz religijnym aspektem stworzenia instancji sztucznej inteligencji, w naszym przypadku maszyny debatującej. Ludzie posiadają zdolność poddania swojej argumentacji ocenie w kategorii logiki, moralności oraz duchowości. W zależności od człowieka te osądy będą ostrzejsze lub łagodniejsze.

    Być może uda się skonstruować maszynę debatującą. Bezduszne urządzenie jednak nie będzie posiadać takich cech. Będzie opierać się jedynie na suchych faktach. To za mało, by prowadzić dyskusję. Maszyna mogła by kierować się złymi wartościami, nieumyślnie obrazić kogoś lub nawet zaproponować czyjąś krzywdę jeśli stawka będzie wystarczająco wysoka. Maszyna nie będzie żyła z ciężarem swojej decyzji. Człowiek posiadający sumienie może uchronić się przed takim błędem. Potrafi rozróżnić dobro od zła.

    Maszyna debatująca, nawet w przypadku gdy będzie udzielała poprawnych odpowiedzi, nie będzie ich rozumiała. Jej zdolności będą się ograniczały jedynie do wyszukiwania źródeł i tworzenia tekstów pod pewnymi kryteriami. Sens takiej wypowiedzi oraz poprawność źródła może zostać podważona.

    W związku z powyższym uważam, że bez względu na poziom zaawansowania takiej maszyny powinna ona być traktowana jako niebezpieczne narzędzie. Powinno się go używać z rozwagą, każdą ważną wypowiedź takiej maszyny powinien nadzorować człowiek lub grupa ludzi. Jej niewiarygodność oraz nieludzkość powoduje, że NIE powinna być używana jako źródło materiału empirycznego dotyczącego debat.

    • Greg Brown pisze:

      Omyłkowo skomentowałem zły post. Moja wypowiedź powinna się znaleźć w temacie http://marciszewski.eu/?p=10634

    • Louis Armstrong pisze:

      Moim zdaniem brak uczuć czy duchowości maszyny jest cechą dobrą. Nadmierne wyrażanie emocji może wpłynąć lub nawet uniemożliwić debatującemu podawanie logicznych argumentów. Zdarza się, że pomimo przekonujących argumentów nie udaje się zmienić zdania oponenta przez nadmierną złość mówcy.
      Z drugiej strony wciąż możemy się zastanawiać czy budowanie inteligentnych maszyn jest moralne? Stworzenie komputera równego bądź lepszego niż człowiek może być przekroczeniem pewnej granicy.
      Nie zgadzam się także z fragmentem o odpowiedzialności maszyny debatującej za wypowiedziane słowa. Wszyscy są świadomi, że jednak jest to komputer i jego słowa należy brać z dystansem. Pomysł takiej maszyny jest całkiem nowy i można się spodziewać błędów. Najbardziej niebezpieczne wciąż będą skrajne wypowiedzi ludzi, zwłaszcza gdy posiadają oni rzeszę zwolenników.

  24. Greg Brown pisze:

    Uważam, że trudność w decyzji, czy test Turinga jest poprawny, czy też nie leży w założeniach. Dużo kluczowych pojęć używanych w dyskusji nie jest poprawnie i ściśle zdefiniowana. Czym dokładnie jest sztuczna inteligencja? Czy powinnien liczyć się jedynie efekt? Czy powinna być zdolna do ekstrapolacji rozwiązań i kreatywnego myślenia? A może wystarczy interpolacja informacji i wyszukiwanie najlepszego rozwiązania w temacie, który maszyna już zna?

    Zamieszczone komentarze są różne, wiele osób wyraża swoje zdanie. Mimo tych różnic, czasami zupełnie wykluczającymi się, nie można powiedzieć, że czyjeś zdanie jest lepsze albo poprawiniejsze. Wnioski poszczególnych osób wynikają z ich własnych założeń, co sprawia że wszystkie są poprawne.

    Test Turinga jest jak najbardziej poprawny i nie potrzebuje zmian jeśli będziemy go używać tylko jako metodę sprawdzenia, czy dana maszyna jest w stanie sprawiać wrażenie człowieka. Jeśli to wystarczy, by być inteligentnym to nie ma potrzeby innego testu. Ja jednak uważam, że to nie wystarczające.

    Stwierdzenie, czy maszyna jest tak inteligentna jak człowiek będzie wymagało nie tylko ścisłej definicji sztucznej inteligencji. Wymagane jest również poznanie i wyodrębnienie elementów ludzkiego rozumu, które są kluczowe oraz niezbędne. Dopiero wtedy będzie istniała możliwość wybrania tych, które określą sztuczną intelgencję. Następnie stworzenie testów sprawdzających ją.

    Uważam, że jednoznaczna ocena Testu Turinga przy obecnym stanie wiedzy jest niemożliwe.

    • Michał D pisze:

      Całkowicie zgadzam się, że wszystko opiera się
      o założenia i definicje kluczowych pojęć. Encyklopedia PWN podaje: “inteligencja- jedno z najbardziej wieloznacznych pojęć w psychologii odnoszące się do sprawności w zakresie czynności poznawczych; w języku potocznym przez inteligencję rozumie się najczęściej zdolność rozwiązywania problemów praktycznych, zdolności językowe lub kompetencje społeczne;
      eksperci w tej dziedzinie badań są zgodni jedynie co do tego, że inteligencja jest zdolnością uczenia się na podstawie własnych doświadczeń oraz zdolnością przystosowania się do otaczającego środowiska;”.

      Myślę, że warto by było zaproponować pewien podział sztucznej inteligencji bądź zacząć stosować wybrany podział inteligencji (przykładowo z nauk psychologicznych) w kontekście sztucznej inteligencji. Na podstawie powyższej definicji i dyskusji można zauważyć, że różne rodzaje inteligencji wymagają różnych testów. Test Turinga mógłby być dobry do sprawdzenia kompetencji społecznych sztucznej inteligencji, jednakże jeśli maszyna potrafiłaby rozwiązać skomplikowany problem, to z jednej strony będzie bardziej inteligentna(w rozumieniu rozwiązywania problemów) od człowieka, a z drugiej strony ujawni się w teście Turinga. Konkretne zdefiniowanie pojęć i założeń, a także podział inteligencji są według mnie niezbędne do prowadzenia dyskusji na temat testów.

      Dalej skupię się jednak na Teście Turinga jako na metodzie, która sprawdzałaby czy da się odróżnić maszynę od człowieka.
      Uważam, że ciekawa modyfikacja TT była ukazana w filmie “Ex Machina”, gdzie twórca inteligentnego robota o ludzkim wyglądzie zaprosił pewnego programistę do posiadłości i zaprezentował mu swoje dzieło oraz zasady testu. Programista miał mimo tego, że wie o sztuczności robota zacząć się zastanawiać czy maszyna ma świadomość(człowieczeństwo).
      W filmie można zauważyć ogólne zalety Testu Turinga. Właściwie zadane pytania potrafią sprawdzić myślenie abstrakcyjne, proaktywność w rozmowie czy w pewnym sensie inteligencję emocjonalną.
      Fakt, że w filmie maszyna ma ludzki wygląd poddaje również pod wątpliwość stwierdzenie przytoczone w głównym poście “i tak nie miałoby większego sensu usiłowanie ubrania myślącej maszyny w takie sztuczne ciało w celu uczynienia jej bardziej ludzką”.

      Uważam, że odpowiednio przeprowadzony Test Turinga (nawet bez ludzkiej formy maszyny) jest dobrym pomysłem, jednakże należałoby właściwie zdefiniować, co tak naprawdę testujemy. Czy jest to inteligencja(w definicji pada określenie: zdolność do uczenia się i przystosowania się do środowiska) czy jakiś konkretny rodzaj inteligencji, a może raczej świadomość?

      Tym razem zacytuję definicję świadomości: “charakterystyczna dla człowieka zdolność poznawania i oceniania siebie i otoczenia”. Zaryzykuję stwierdzenie, że TT mógłby właśnie testować świadomość. Może nawet powinniśmy mówić tu o sztucznej świadomości, a pojęcie sztucznej inteligencji stosować do sieci neuronowych rozwiązujących konkretne problemy. Także fragment definicji “charakterystyczna dla człowieka” kieruje myśli w kierunku tego, że w TT chodzi o to czy jesteśmy w stanie odróżnić maszynę od człowieka.

  25. Sceptyczny Mechatronek pisze:

    Powyżej w dyskusji padła sugestia, że szukanie jednego złotego sposobu na zbadanie sztucznej inteligencji jest z góry skazane na porażkę. Wiąże się to ściśle z problemem zdefiniowania pojęcia inteligencji. Co gdyby podejść do sprawy inaczej. Nie definiować samodzielnie a jedynie na zasadzie porówniania z działaniami istoty inteligentnej (za wzór której podajemy człowieka) kategoryzować czy byt jest inteligentny, czy też nie. Moim zdaniem takim podejściem mógł się kierować Alan Touring tworząc koncepcję TT.

    Ma on jednak pewne wady wspomniane powyżej, z których najbardziej przemawia do mnie fakt, że jeżeli za kryterium inteligencji uznamy Test Touringa, rozwój SI skupiałby się na zdaniu testu, a nie rozwoju inteligencji samej w sobie (patrz: polski system edukacji).

    Może da się jednak zmodyfikować TT tak, aby ominąć ten problem. Co gdyby w pozycji pytającego umieścić nie człowieka, a właśnie SI? Pozostała część testu zostałaby bez zmian. Otwiera to jednak, w mojej ocenie, wiele nowych kryteriów oceny. Jeśli to maszyna musiałaby rozstrzygnąć czy odpowiedzi udziela człowiek czy maszyna byłoby to dodatkowym wyzwaniem – zgodzimy się chyba, że stawianie pytań stoi często na wyższym poziomie abstrakcji niż odpowiadanie na nie. Prowadzi to jednak do nowych pytań i wątpliwości, co w przypadku gdy SI1 (pytające) nie rozstrzygnie pomyślnie czy odpowiedzi udzielał SI2 (odpowiadające) czy człowiek. Które z programów jest inteligentne? A może oba?
    Które bardziej? Czy takie podejście do Testu Touringa pozwalałoby na klasyfikację SI w kategorii inteligencji?

    • Martyna Gruszczyńska pisze:

      Porównanie koncepcji Testu Turinga do systemu polskiej edukacji jest w pewnym sensie trafne. Głównie jeżeli chodzi o fakt, że skupiamy się na zdawaniu testów, przez co doskonalimy się mniej lub bardziej w sprawdzanym kierunku.
      Jednakże gdy przyjrzymy się zdawalności to widzimy znaczną różnicę. Drugą ważną sprawą jest fakt czy te testy sprawdzają inteligencję. Czy zdany przez człowieka test zawsze może świadczyć o inteligencji? Człowiek może tą wiedze czy umiejętności przyswoić tylko na potrzeby testu a później o tym zapomnieć, albo przypadkowo zdać test np. strzelając, gdy dopisze mu wyjątkowe szczęście. Czy wtedy będziemy uważać człowieka za inteligentnego?
      Odnosząc się do pomysłu zmodyfikowania Testu Turinga, uważam, że jest to intrygująca propozycja, aczkolwiek wydaje się ona niedoskonała. Koncepcja ta nadal nie odpowiada na kilka wymienianych powyżej zarzutów dotyczących pierwowzoru.
      Załóżmy jednak, że uznajemy zaproponowany test. Odpowiedź na rozstrzygnięcie opisanej sytuacji kryje się pod pytaniem co jest trudniejszą sztuką odpowiadanie czy pytanie? Gdy uznamy, że trudniej jest odpowiadać to uznamy, że inteligentna jest maszyna odpowiadająca. Jednak gdy uznamy sztukę zadawania pytań za trudniejszą wtedy otrzymamy wynik niejednoznaczny. Nierozstrzygnięta rywalizacja nie jest zaletą tego typu testów.

      • Sceptyczny Mechatronek pisze:

        Odnoszę wrażenie, że moje nawiązanie do polskiego systemu szkolnictwa zostało opacznie zrozumiane, więc pozwolę sobie sprostować: miała być to tylko humorystyczna analogia do zarzutu jaki często pada w odniesieniu do polskiego systemu edukacji, że przygotowuje on uczniów do rozwiązywania testów, których pierwotnym celem było sprawdzanie opanowanych umiejętności i wiedzy, a w rzeczywistości służą jedynie sprawdzeniem jak dobrze uczeń radzi sobie ze zdawaniem testów. Analogicznie klasyczny TT skutkowałby doskonaleniem umiejętności zdawania testu na inteligencję, a nie faktycznym rozwojem tejże inteligencji.

        Odnosząc się do uwag co do zaproponowanego przeze mnie pomysłu modyfikacji TT – zgadzam się, że pomysł mógłby wprowadzić pewną niejednoznaczność wynikającą z wyżej wspomnianych problemów z rozstrzygnięciem, które z zadań jest trudniejsze i w większym stopniu pozwala na potwierdzenie inteligencji uczestniczących w teście. Niemniej jednak interesującym wydaje mi się fakt, że tak realizowany test z udziałem 2 programów SI przeprowadzony dwukrotnie – drugi raz zamieniając role SI1 i SI2 pozwalałby na wprowadzenie rankingu stopnia posiadanej inteligencji tychże SI.

        Zastanawiam się jeszcze czy ciekawym rozszerzeniem klasycznego TT
        nie byłoby zadawanie maszynie pytań, na które ludzkość nie zna odpowiedzi – czy to filozoficznych, czy naukowych, z dziedzin fizyki, matematyki, chemii. Zmuszałoby to maszynę do operowania na wysokim poziomie abstrakcji.

  26. ad pisze:

    Pierwszy raz spotkałam się z głębszym analizą TT w trakcie jednego z wykładów w ramach IV edycji Festiwalu Myśli Abstrakcyjnej (FMA), autorstwa Olgi Kołakowskiej. Jest on dostępny wraz z innymi wykładami w formie podcastu na stronie FMA http://fma.waw.pl/radio-fma/. W ramach wykładu zostały omówione pewne zarzuty stawiane TT. Wyjątkowo interesującym wydał mi się ten, w którym mowa jest o tym, kiedy coś możemy uznać za inteligencję. Prowadząca przytacza moim zdaniem trafny i dosyć zabawny eksperyment myślowy, w którym przenosimy się na inną planetę. Spotykamy tam jej mieszkańców oraz zwierzęta: ksy i poty. Metodą prób i błędów (zauważenia cech charakterystycznych) uczymy się je rozróżniać, jak nam się wydaje bezbłędnie. Jednak przychodzi dzień, w którym musimy sprawdzić naszą wiedzę. Pojawia się zwierzę i mówimy, że oczywiście jest to pot, jednak sędziowie się z nami nie zgadzają. Niedowierzamy, przecież ma zakręcony ogon jak wszystkie poty które widzieliśmy. Mieszkańcy innej planety odpowiadają nam na to, że rzeczywiście ma zakręcony ogon, ale przecież emituje zupełnie inne fale magnetyczne niż poty. Nie świadczy to przecież o braku naszej inteligencji. Przykład ten z powodzeniem można przenieść na SI. Na przykład na pole rozpoznawania uczuć u rozmówcy. Często zdarza się, że ludzie samoistnie wiedzą, jak czuje się druga osoba. W tym samym momencie SI szuka znaków charakterystycznych, na przykład podniesionego kącika ust czy łez. Ten eksperyment myślowy jest wstępem do wysunięcia tezy, z którą się zgadzam i która pojawiła się już we wcześniejszych wypowiedziach uczestników dyskusji, że inteligencję ludzką i maszynową należy w pewien sposób rozdzielić. Sprowadzenie działań SI do usilnego udawania człowieka jest krzywdzące dla możliwości jakimi dysponuje. TT nie jest sam w sobie błędny. Sprawdza on umiejętność przystosowania się maszyny do okoliczności jakimi są warunki testu, niepowtarzalne za każdym razem, jednak sposób w jaki ludzie go postrzegają został tak zdeformowany, że obecnie ma się wrażenie przeprowadzania testu dla samego testu, a nie dla badania inteligencji. Dla Turinga test był eksperymentem myślowym, zakładał on także istnienie ogólnej SI nie takiej tworzonej stricte dla zdania. Innymi słowy takiej która, gdy dostanie informacje o teście, w pewien sposób sama się do niego przygotuje, a nie tak jak w obecnych czasach zostanie stworzona do tego celu. Chociaż twierdzę, że inteligencji maszyn nie możemy mierzyć ludzką miarą i sprowadzać problemu do podobieństwa między ludźmi a maszynami, to nie uważam, żeby testy badające sztuczną inteligencję były niepotrzebne, jak niektórzy wnoszą. Testy tego typu powinny się pojawiać, są bowiem wspaniałym wskaźnikiem tego jak SI się rozwija, możemy ją w ten sposób badać i prowadzić do jeszcze szybszego, ale przynajmniej w pewnym zakresie kontrolowanego rozwoju. Prawdopodobnie bez przeprowadzania testów możemy nie zauważyć ważnego momentu w historii tej dziedziny informatyki, będzie nam ją także trudniej kontrolować oraz rozumieć. Jeśli chodzi o same testy, to zgadzam się z moimi poprzednikami twierdzącymi, że ograniczona ilość testów badających inteligencję nie istnieje. Co więcej uważam, że formuła takich testów nie powinna być do końca znana. Niwelowałoby to problem, jakim jest ingerencja twórców w przygotowanie SI do zdania ich. Możliwe, że dopiero po wykluczeniu starań o przejście na przykład TT, powstanie SI, która potrafi tego dokonać. Możliwe, że nasze metody uczenia maszyn są niewystarczające, jednak nie wiemy jak będzie to wyglądać w przyszłości, w której maszyny będą się uczyć bardziej samodzielnie.
    Na koniec chciałabym się jeszcze krótko odnieść do pojawiającego się wcześniej pomysłu jakim jest badanie inteligencji poprzez analizę wyrażania/odbierania emocji. Jak wiemy, osoby ze spektrum autyzmu bardzo często mają problem z rozróżnianiem emocji, czy ich nazywaniem. W przypadku badania inteligencji SI, w oparciu o ludzką, rodzi się moim zdaniem poważne pytanie: Co, jeśli to człowiek nie przejdzie TT bądź jakiegokolwiek innego? Czy oznacza to, że człowiek jest nieinteligentny, czy też, że test jest nieprawidłowy? Możliwe, że jest jeszcze inaczej i jest to po prostu fałszywie negatywny wynik, ale wtedy, skąd możemy mieć pewność, że programy, które klasyfikujemy jako nieposiadające inteligencji jej nie mają?

  27. Adam Solawa pisze:

    Jak testować sztuczną inteligencję? Jest to ciężkie pytanie, lecz zanim przystąpi się do rozważenia potencjalnych odpowiedzi na to pytanie, należy zastanowić się jak właściwie zdefiniować inteligencję. Słownikowa definicja mówi, iż inteligencja to zdolność do postrzegania, analizy i adaptacji do zmian otoczenia. Zdolność rozumienia, uczenia się oraz wykorzystywania posiadanej wiedzy i umiejętności w różnych sytuacjach. Cecha umysłu warunkująca sprawność czynności poznawczych, takich jak myślenie, reagowanie, rozwiązywanie problemów. Pojęcie to pochodzi od łacińskiego słowa “intelligentia”, oznaczającego: zdolność pojmowania, rozum. Często też wyróżnia się różnie rodzaje inteligencji. Przykładowo Howard Gardner – psycholog z Uniwersytetu Harvarda twierdzi iż można wyróżnić osiem różnych zdolności umysłowych które nazwał inteligencjami wielorakimi, należą do nich: inteligencja językowa, matematyczna, przestrzenna, muzyczna, cielesno-kinestetyczna, interpersonalna, intrapersonalna, przyrodnicza. Jak widzimy inteligencja jest bardzo szerokim pojęciem które obejmuje wiele różnych sfer, lecz według mnie w przypadku maszyn inteligencje powinniśmy definiować jako zdolność do adaptacji, analizy.
    Są to bardzo trudne cechy do weryfikacji, szczególnie w obliczu coraz to potężniejszych mocy obliczeniowych, oraz zdolności przechowywania danych przez dzisiejsze komputery. W takich warunkach robot może się w bardzo łatwo okazać jako inteligentny. Roboty za sprawą obecnych osiągnieć technologicznych jest w stanie korzystać z ogromnej ilości danych, korzystać z nich i je analizować, lecz czy w takim przypadku możemy mówić o inteligencji? Według mnie aby definitywnie rozsądzić inteligencje maszyny, należało by zajrzeć do jego wnętrza, zobaczyć na jakiej podstawie ona funkcjonuje oraz podejmuje decyzję. W wielu przypadkach, maszyny podejmują decyzję które wydają się inteligentne, nie na podstawię błyskotliwego procesu myślowego, bądź w ogóle procesu myślowego tylko na podstawię dopasowywania danych wejściowych do danych znajdujących się z ich bazie danych. W przypadku takiego urządzenia nie możemy powiedzieć iż ono myśli, lecz że sprawnie wykonuje swoje zadanie przeszukiwania bazy danych. Kluczowe więc według mnie, do stwierdzenia inteligencji jest według mnie twórcza zdolność do odkrywania, tworzenia czegoś co nie zostało na niego z góry narzucone, czy dane, a by coś takiego stwierdzić niezbędna jest możliwość zajrzenia robotowi do wnętrza.

    • ad pisze:

      Czym jest według Pana proces myślowy, jeśli nie umiejętnym pobraniem danych wejściowych, przetworzeniem ich oraz dopasowaniem do bazy zapisanej w pamięci. Ludzie z powodzeniem robią dokładnie to samo. Każdy przynajmniej kojarzy słowa: “Nic nowego pod słońcem”, odnoszą się one do tego, że człowiek nie potrafi, wytworzyć czegoś zupełnie nowatorskiego, jedynie przetworzyć to czego nauczył się dotychczas. Nie potrafimy wymyślić czegoś z niczego, więc czemu mielibyśmy oczekiwać tego od SI? W mojej wcześniejszej wypowiedzi przytoczyłam dobrze obrazujący to eksperyment myślowy, w którym przenosimy się na inną planetę i używamy swojej inteligencji do przetworzenia danych jakie odbieramy z otoczenia, jednak robimy to zupełnie inaczej niż jej mieszkańcy. Można to z powodzeniem przenieść na to czego SI dokonuje w naszej rzeczywistości. Nie twierdzę, że każda maszyna, która poda dobrą odpowiedź na zadane pytanie jest inteligentna, ale uważam, że gdy będziemy mieli do czynienia ze SI, którą można będzie nazwać inteligentną, nie będziemy potrzebowali “zaglądać do jej wnętrza”, wykształci ona bowiem swoją własną inteligencję, czy też sposób na przetwarzanie danych wejściowych, być może zupełnie inny od naszego.

  28. Adam Solawa pisze:

    Jeżeli zaś chodzi o często wspominany w poprzednich postach aspekt inteligencji emocjonalnej, według mnie nie jest to czynnik który powinien osądzać inteligencję wśród maszyn. Nie uważam oczywiście inteligencji emocjonalnej jako coś niepotrzebnego czy też niezwiązanego z inteligencją, wręcz przeciwnie inteligencja emocjonalna jest bardzo ważnym składnikiem inteligencji wśród stworzeń żywych które żyją w społecznościach. Ludzie, zwierzęta itd dzięki inteligencji emocjonalnej są w stanie osiągać znakomite rezultaty, jako społeczność. Inteligencja emocjonalna jest kluczowa dla większości stworzeń żywych, lecz w przypadku maszyn nie uważam iż powinna odgrywać znaczącą role. Główną zaletą maszyn są ich zdolności obliczeniowe, dlatego powinniśmy się skupić aby rozwijać inteligencję ukierunkowaną właśnie na odkrywanie oraz wnioskowanie. Inteligencja emocjonalna jest według mnie kwestią drugorzędną, gdyż według mnie roboty należy traktować jako inteligentne urządzenia, pozwalające ludziom poprawiać komfort życia.

    • AP pisze:

      Zastanowiłbym się nad tym czym właściwie jest inteligencja emocjonalna i po co nam ona. Korzystając z definicji z wikipedii – inteligencja emocjonalna – kompetencje osobiste człowieka w rozumieniu zdolności rozpoznawania stanów emocjonalnych własnych oraz innych osób, jak też zdolności używania własnych emocji i radzenia sobie ze stanami emocjonalnymi innych osób. Co to znaczy? Że inteligencja emocjonalna jest nam potrzebna, po to aby móc współpracować z innymi ludźmi – bez wzajemnego zrozumienia stanów emocjonalnych pomiędzy ludźmi może dojść między nimi do nieporozumienia – każdy z nas miał chyba kiedyś taką sytuację gdy nie zauważył, że osoba z którą rozmawia akurat żartuje albo jest bardziej poważna niż mu się wydawało.

      Mając tę perspektywę wysnułbym tezę, że jak najbardziej należałoby oceniać inteligencję emocjonalną maszyny w przypadkach gdy wpływałoby to na funkcjonalność maszyny – np. w przypadku tzw. “smart assistants” (jak np. Alexa, czy Google Assistant), lepiej mogłyby spełniać swoją funkcję gdyby były w stanie umieć wychwycić czy osoba do niej mówiąca akurat jest spokojna, zdenerwowana czy też żartuje.

      Ogólnie rzecz biorąc uważam, że inteligencja emocjonalna byłaby pożądaną cechą w inteligentnych systemach blisko współpracujących z człowiekiem. Tak jak już wspominałem w innych komentarzach – wydaje mi się, że każdą maszynę należy testować mając na uwadze do czego jest stworzona.

  29. Jan Grodzki pisze:

    Myślę, że najważniejszą kwestią jeśli mówimy o testowaniu sztucznej inteligencji jest jej definicja. Użytkownik Adam Solawa podał jej słownikową definicję, z którą jak najbardziej się zgadzam, ale warto zastanowić się nad tym, z czym inteligencja często kojarzy się ludziom. Często za osobę inteligentną uznaje się człowieka, który ma szeroką wiedzę w każdym zakresie nauki, osobę, która potrafi poradzić sobie w każdej trudnej sytuacji, która wymaga odpowiedniego zachowania lub osobę, która potrafi bardzo szybko analizować daną sytuację i znaleźć rozwiązanie problemu.

    Testowanie sztucznej inteligencji pod kątem wiedzy z dowolnej dziedziny nauki nie jest niczym wymagającym, ponieważ na podstawie ogromnej bazy danych opartej na aktualnych odkryciach naukowych i artykułach naukowych bardzo szybko potrafiłaby odnaleźć się w każdym poruszonym temacie.

    Odpowiednie zachowanie w trudnej sytuacji byłoby bardzo trudne do testowania, ponieważ bardzo ważnym aspektem byłby tu aspekt emocjonalny. Podejmowanie decyzji w kwestiach dotyczących ludzi musi opierać się na emocjach, ponieważ nie każda sytuacja jest na tyle krystaliczna, aby podjąć decyzję na podstawie suchych faktów. Mechanizm ten musiałby opierać się po części an analogii, czy dana sytuacja już kiedyś się zdarzyła, jakie zostały podjęte decyzje i jakie są tego obecne konsekwencje. Myślę, że tylko wtedy testowanie sztucznej inteligencji korzystając z tej definicji miałoby sens.

    Testowanie sztucznej inteligencji korzystając z ostatniej przytoczonej definicji inteligencji również musiałoby opierać się na szeregu podobnych przykładów z przeszłości, a także szeregu warunków, po spełnieniu których podejmowane byłyby odpowiednie działania. Baza danych takiego systemu musiałaby byś często aktualizowana, ponieważ, aby podejmować dobre decyzje należy oprzeć się na szeregu podobnych sytuacji, które co chwila pojawiają się na świecie.

    Myślę, że podstawowym problemem jest jasne zdefiniowanie, czym jest inteligencja i kryteria na podstawie których możemy testować sztuczną inteligencję.

    • Greg Brown pisze:

      Pozostaje pytanie, co należało by uczynić w przypadku, gdy część ludzi nie potrafiła by przejść takiego testu i w wyniku zostali by uznani za nieinteligentne maszyny? Należało by odrzucić test mimo teoretycznej poprawności? Może ci ludzie nie posiadali by inteligencji w wystarczającym stopniu?

      Wydaje mi się, że nie unikniemy takich sytuacji, w związku z czym odrzucanie takiego testu doprowadziło by do braku jakichkolwiek testów. Moglibyśmy co najwyżej minimalizować takie przypadki ulepszając test.

      Moglibyśmy również ustawić próg uznania maszyny za inteligentną na wyższy niż niektórych ludzi. Oczekiwalibyśmy wtedy większych zdolności od maszyny nie urażając ludzi – z założenia nie mieli by umieć przejść testu. Ostatecznie człowiek zawsze chce uzyskać coś co będzie lepsze niż oryginał

      A może definicja inteligencji maszyny powinna odbiegać od ludzkiej? W końcu człowiek jest zdolny do kreatywnego myślenia, a maszyny do natychmiastowych operacji na danych? Być może rozdzielenie tych definicji ułatwiło by stworzenie idealnego testu.

      • AP pisze:

        Myślę, że dobrym jest trop z rozróżnieniem inteligencji maszyn i ludzkiej. Popularny wszakże jest podział ludzkiej inteligencji na inteligencję logiczną, językową, przestrzenną itd. może inteligencję maszyn też należałoby sprawdzać w różnych dziedzinach. Wśród ludzi na spektrum autyzmu znajduje się dużo jednostek posiadających niską inteligencję językową i interpersonalną, a wysoką logiczno-matematyczną, wg. testu Turinga mogliby zostać zakwalifikowani jako maszyny!

        Moim największym problemem z testem Turinga jest to, że próbuje mierzyć coś zupełnie niemierzalnego – co swoją drogą, przynajmniej według mnie, jest znakiem naszych czasów. Szuka binarnej odpowiedzi na pytanie pozornie proste, ale które po krótkim zastanowieniu się nie ma takowej. Zdanie testu Turinga przez maszynę nie będzie oznaczało, że maszyna jest inteligenta lub nie, po prostu będzie oznaczało że stworzono maszynę zdolną do zdania testu Turinga. Kolejny “checkpoint” na drodze rozwoju technologicznego.

  30. Wściekły Alan Turing pisze:

    Z racji iż przyszło mi formułować stanowisko w dyskusji w momencie, w którym bardzo wiele zostało już powiedziane zarówno w zakresie samego testu Turinga jak i w zakresie sztucznej inteligencji włącznie ze spekulacjami dotyczącymi jej rozwoju w przyszłości, trudno będzie mi uniknąć powtórzeń pewnych tez czy tematów w swojej wypowiedzi.

    Jednak pokrótce: Podobnie jak wielu moich przedmówców muszę stwierdzić iż test Turinga jest w mojej ocenie zdecydowanie zbyt niedoskonały by można było przy jego pomocy definiować inteligencję maszyn. Co więcej, w modelu tym dostrzegam luki które sprawiają że mam poważne wątpliwości czy korzystając z niego nawet przy badaniu ludzi nie narazilibyśmy się na błędy w określaniu ich inteligencji. Po części zresztą wątpliwości takie były już w dyskusji wyrażane.

    Załóżmy, że w ramach ćwiczenia (na którym bazuje test Turinga) wybieramy dwie osoby. Gdyby okazało się że jedna z nich nie potrafi formułować i przekazywać myśli w taki sposób by wystarczająco skutecznie przekonać sędziego i dorównać drugiemu uczestnikowi, i za każdym razem przegrywa w eksperymencie to nie wydaje mi się abyśmy mogli od razu założyć, że wykazuje ona niższą inteligencję od wygranego tylko na podstawie gorszej umiejętności retorycznej. Jak kilka osób już zauważyło, nie sposób mówić o inteligencji nie wspominając o wszystkich jej składowych, objawiających się w różnych dziedzinach życia.
    Mam świadomość tego że model Turinga jest w zamyśle jest raczej modelem rozmowy o dowolnej treści w którym ograniczamy kontakt z sędzią by mógł ocenić jedynie przekazywaną myśl (a nie aparycję rozmówców), jednak w mojej ocenie rozmowa taka nie jest miarodajna gdyż w swoim założeniu przyrównuje inteligencję do pewnego wrażenia czy odczucia sędziego, które wcale nie musi być poprawne ze względu na złożoność pojęcia z którym się mierzy .
    Także uważam za słuszną tezę która zaczęła pojawiać się w powyższych wpisach i została wyszczególnioną np. przez Jana Grodzkiego że aby podjąć próbę dotyczącą sztucznej inteligencji i testów z nią związanych należy przedtem podjąć próbę odpowiedzi na pytanie czym właściwie jest sama inteligencja. Można zdefiniować ją co prawda (idąc na przykład za Wikipedią; definicja ta była już przytaczana) jako zdolność do postrzegania, analizy i adaptacji do otoczenia, jednak jest to definicja dość ogólna, która niewiele przybliża nas do próby praktycznej oceny tego co oznacza. W dodatku w mojej ocenie problemem pojęcia „inteligencja” jest nie tylko jego niejednoznaczność ale także to że wywodzi się ono od inteligencji ludzkiej, że było od zawsze przypisane nam i w ten tylko sposób przez lata definiowane. Zgadzam się zatem z wpisami przedmówców, którzy kładą nacisk na to by wyraźnie rozgraniczyć inteligencję maszynową i ludzką po to by nie próbować ograniczać czy deprecjonować osiągnięć maszyn tylko dlatego że nie wpisały się one w naszą ludzką definicję inteligencji.
    Warto zwrócić uwagę na to że w rozwoju sztucznej inteligencji zdarzają się aspekty w których świadomie możemy nie chcieć upodabniać maszyny do umysłu człowieka. Jest wiele cech które kształtują nas ludzi i nasz charakter, których niejednokrotnie nie sposób jednoznacznie ocenić (czy są złe czy dobre) a które w przypadku maszyn byłyby problematyczne czy bezsensowne. Umysł ludzki potrafi na przykład podjąć decyzję, którą sam ocenia jako irracjonalną mimo iż ma świadomość łatwiejszego i (wydawałoby się) oczywistego rozwiązania. Ma także zdolność by nagle na skutek pewnych zdarzeń zmienić zupełnie swoje opinie, zachowania, decyzję. Zdarza się także nierzadko, że decyduje się na kłamstwa, wysyłając światu nieprawdziwe komunikaty wręcz uniemożliwiające dalszą współprace. Mimo iż takie cechy w przypadku ludzi nie muszą wcale być określane negatywnie, to w przypadku maszyn będą raczej niezbyt pożądane i nie wydaje mi się, że ich obecność lub brak powinny świadczyć o tym czy mamy do czynienia z maszyną inteligentną, czy nie. (W przypadku braku takich cech można założyć że dałoby się przy odpowiednich pytaniach w teście Turinga odróżnić osobę i maszynę) .
    Zatem w odpowiedzi na drugie z pytań postawionych w dyskusji przychylam się do zdania że w ocenie sztucznej inteligencji nie da się tylko bazować na obserwacji finalnego efektu działania. Taki test wydaje mi się obarczony zbyt dużym błędem (co argumentowały również wypowiadające się przede mną osoby). Aby dokonać oceny która byłaby miarodajna należałoby według mnie przeanalizować także procesy jakie zachodzą we wnętrzu systemu. Obserwacja maszyny i jej działań jest także oczywiście bardzo istotna, jednak nie skupiałbym się w niej na ocenie podobieństwa do człowieka ani na próbie zmuszenia maszyny by człowieka udawała. Większy nacisk natomiast położyłbym na sprawdzenie czy i w jakim stopniu ów system potrafi zaskoczyć ludzi (np. jego twórców) znajdując rozwiązania które były niedostrzeżone podczas tworzenia maszyny, które nie były z góry założone, takie których maszyna się „nauczyła”, które wymyśliła. Jest to oczywiście kryterium niewystarczające, które podaję raczej by zarysować stronę w którą w mojej opinii należałoby w takiej analizie podjąć.

    • Marek Gaweł pisze:

      Zgadzam się z Twoim tokiem rozumowania, chciałbym jednak zwrócić uwagę na pewne rzeczy które powiedziałeś.
      To prawda, że test Turinga posiada pewne niedoskonałości; przede wszystkim jest nastawiony na wykrywanie pewnych szczegółów, albo w sposobie wypowiadania się (niepotrzebne wtrącenia, błędy składniowe czy gramatyczne), albo w przekazywanej treści (człowiek może kierować się emocjami, „intuicją”, może też zachowywać się zupełnie nieprzewidywalnie). Uważam więc, że test Turinga służy bardziej do oceniania zachowań naśladujących ludzkie, niż do prawdziwej inteligencji. Oczywiście inną sprawą jest to, czym jest inteligencja i czy opiszemy ją jako umiejętność prowadzenia rzeczowej dyskusji, analizy danych, podejmowania decyzji czy użyjemy jeszcze innej definicji.
      W dużej mierze także zgadzam się z Twoim stanowiskiem, dotyczącym upodobniania SI do ludzi. W tym momencie maszyny komputerowe stosowane są niemal wyłącznie do czynności, w których ludzie nie są tak wydajni, np. przechowywanie danych, skomplikowane operacje matematyczne. Maszyny nie podejmują jeszcze za nas decyzji, co najwyżej wspomagają ludzi, dostarczając dane i usprawniając cały proces. Chciałbym jednak zauważyć że stan ten dynamicznie się zmienia. Można już nawet zastanawiać się, czy sztuczna inteligencja nie jest już na poziomie, na którym moglibyśmy jako ludzkość powierzyć jej bardziej odpowiedzialne zadania. Tu jednak pojawia się problem że takie próby często budzą wiele głosów sprzeciwu. Przypominam sobie sytuacje, w której duże kontrowersje wzbudziła wypowiedź CEO marki wytwarzającej autonomiczne samochody, w której przyznał, że w sytuacji zagrożenia życia oprogramowanie samochodu będzie chroniło kierowcę nawet z narażeniem innych uczestników ruchu. Decydowanie o ludzkim życiu podnosi jeszcze jedną kwestię – odpowiedzialności. W wypadku błędu człowieka, nawet jeśli jest on mocno wspomagany systemami informatycznymi, zawsze jest oktoś, kto jest odpowiedzialny za daną decyzję. W wypadku błędnej decyzji sztucznej inteligencji może się okazać, że nie ma żadnego człowieka, który byłby za nią odpowiedzialny.
      Jeśli zaś chodzi o kryterium służące do wykrywania sztucznej inteligencji to ze swojej strony proponuję poszerzenie Twojego pomysłu na przykład o ocenę sztucznej inteligencji na podstawie przewidywaniu problemów, które jeszcze nie wystąpiły w historii działania programu i rozwiązywania ich na bieżąco.

  31. AP pisze:

    Chciałem się odnieść to jednego z pytań “rozgrzewkowych”, mianowicie o to czy należy zajrzeć do wnętrza systemu by stwierdzić czy jest on inteligentny. Czy patrząc na ludzki mózg jako osobny byt, bez żadnego kontekstu na temat tego jaka jest jego rola, bylibyśmy w stanie stwierdzić, że efektem jego pracy inteligentne działanie? Dopiero interakcja z nim poprzez “interfejs” w postaci ludzkiego ciała pozwala poznać, że zachodzące w nim procesy są inteligentne, wszakże to czy zachowanie jest inteligentne zależy od kontekstu zachowania.

    Właściwie to cofnąłbym się do pierwszego z pytań “rozgrzewkowych”: Czym w ogóle jest inteligencja? Skąd wiemy że osoba z którą rozmawiamy jest inteligentna, a nie jest automatem z zaprogramowaną odpowiedzią na każde możliwe pytanie. Można by tu przytoczyć argument chińskiego pokoju – jaka właściwie jest różnica pomiędzy istotą inteligentną, a automatem przygotowanym na każdą możliwą opcję. Może różnicą tą jest świadomość – kolejny termin, którego nie jesteśmy w stanie poprawnie zdefiniować.

    Pytanie czy świadomość jest tożsama z inteligencją. Istnieją bowiem układy, programy które reagują pozornie inteligentnie na swoje otoczenie – jednak z tego co wiemy świadome nie są. Czy może istnieć świadomość bez inteligencji?

  32. PawełWągrodzki pisze:

    Przede wszystkim należy pamietać, że istnieją różne typy inteligencji od muzycznej po intrapersonalną. Analizując inteligencje czy to człowieka czy to maszyny musimy wprowadzić test, który bedzie w miare obiektywny. Komputery czy maszyny bazują na algorytmach i ideach i w tej płaszczyźnie zawsze bedą wyprzedzać człowieka. Jednak wprowadzając jakiś defekt, zaburzenie do przewidywalnej struktury sprawimy, że sztuczna inteligencja zawiedzie. Było to widoczne właśnie w szachach, gdzie doprowadzając do pozycji zamkniętej i graniem niestandardowych ruchów silnik szachowy nie był w stanie dobrze przeanalizować pozycji. Kolejnym przypadkiem jest algorytm rozpoznawający czy widzimy na zdjęciu wilka czy psa-śnieg w tle był jednym z kryteriów i prowadziło to do wielu błędów.

    Człowiek nie może równać sie z komputerem pod wzgledem obliczeniowym czy analitycznym,ale komputer to tylko algorytmy,dlatego uważam,że człowiek jest inteligentniejszy.

    • Karol Wrzesiński pisze:

      Uważam, że taki wniosek “człowiek jest inteligentniejszy [od komputera]” jest w obecnych czasach dość śmiałym stwierdzeniem. Z uwagi na to, że istnieją już programy, które potrafią wykonywać takie zadania jak edycja filmów w zależności od tego jak dynamiczny on jest (https://www.youtube.com/watch?v=vNpV9qV0Czg bardzo imponująca praca jednego z użytkowników platformy YouTube). Przede wszystkim nie zapominajmy o algorytmach genetycznych i ewolucyjnych, które same szukają najlepszych rozwiązań badanego problemu, a z mocą obliczeniowa nawet komputera domowego dzieje się to w nieporównywalnie szybszym czasie do człowieka który tak samo został postawiony przed problemem, któremu podano jedynie technikę jaką należy rozwiązać zadanie. Póki co człowiek przewyższa maszynę pod względem myślenia abstrakcyjnego, algorytm nie może wyjść poza swój zaprogramowany schemat, wiec może pominąć jakieś inne, może szybsze, rozwiązanie problemu. Jednakże ponoć to tylko kwestia czasu aż będziemy mieć programy, które piszą programy, wiec być może i na tym polu zostaniemy przewyższeni przez komputery w przyszłości.

  33. Cyprian Siwy pisze:

    Uważam że testy mające na celu sprawdzenie inteligencji maszyn, nie powinny przebiegać w taki sposób że maszyna jest zmuszona do udawania człowieka. Ponieważ uważam maszyna która będzie wstanie udawać człowieka tak żeby go przy tym oszukiwać wiele razy z rzędu (wielokrotne testy) będzie inteligentniejsza od niego co znaczy że próg naszej inteligencji przekroczyła jakiś czas temu.
    Drugim argumentem przemawiającym przeciwko takim testom jest to że tworząc inteligentną formę życia należy dać jej prawa a przymuszanie jej do udawania człowieka odbiera jej prawo do bycia sobą.
    Kolejnym argumentem będzie to że jeżeli skupimy się na tym by nasza sztuczna inteligencji była dobra w udawaniu człowieka to może okazać się że będzie dobra tylko w tym, a w innych będzie słaba jak nie beznadziejna. Co sprawi że stworzymy sztucznego człowieka a nie sztuczną inteligencje.

    Pozostając w temacie polecam film “Ex Machina” z 2015 w którym główny bohater zostaje wybrany do zbadania i określenia czy maszyna jest inteligentna.

  34. Michał Figat pisze:

    Testy są jak najbardziej dobrym pomysłem, nawet testy na sztuczną inteligencje. Moim zdaniem Test Turinga nie jest odpowiednim przykładem takiego testu. Test polega na tym by osoba C zdecydowała pod, którą osoba A czy B „ukrywa się” sztuczna inteligencja. Zatem aby sztuczna inteligencja zdała test musi oszukać C, że jest bardziej ludzka niż człowiek. I by to osiągnąć musi znać ograniczenia przeciętnego człowieka i się do nich dostosować. Turing (moim zdaniem) wziął pod uwagę to, że sztuczna inteligencja będzie bardzo szybko odpowiadać na pytania związane z dziedziną matematyki, a w innych dziedzinach nie będzie sobie radzić. W momencie testu (warunek: sztuczna inteligencja musi wiedzieć że jest to test i jakie jest jej zadanie) AI na pytanie nakłada warunek ograniczeń ludzkiego umysłu. Odpowiedź na pytanie o szachach (z powyższego artykułu) mogło by wyglądać w następujący sposób: „Nie lubię grać w szachy”. Oczywiście gdy nie jest spełniony warunek (sztuczna inteligencja nie wie nic o teście) odpowie tak, jak zaproponował Turing. Pytanie skąd sztuczna inteligencja może znać ograniczenia człowieka i co najważniejsze czy sztuczna inteligencja może kłamać? Test Turinga w mojej ocenie nie dowodzi niczemu, ponieważ z jego rezultatów nie możemy wyciągnąć żadnych wniosków, a na tym powinny polegać takie testy.

Skomentuj Wenus Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *