Testy, testy, testy… na sztuczną inteligencję

Testy, testy, testy…. Tym hasłem bombardują nas od tygodni lekarze, politycy i publicyści – nie celując, rzecz jasna, w wirusy komputerowe, a tym bardziej w sztuczną inteligencję.  My jednak, sprowokowani ogólną atmosferą testowania i diagnozowania (oczywiście ważnego i potrzebnego),  weźmiemy za przedmiot dyskusji właśnie sztuczną inteligencję. Dokładniej zaś: możliwe testy, które mogłyby potwierdzić, że coś, to znaczy jakiś program, system lub maszyna, ją posiada.

W ramach rozgrzewki przed dyskusją warto rozważyć następujące pytania:

Czym w ogóle jest inteligencja (w szczególności: ludzka)?

Czy testując system informatyczny pod kątem inteligencji, wystarczy obserwować wyniki jego działania (jakie problemy rozwiązuje, jak szybko to robi, w jaki sposób komunikuje i wyjaśnia rozwiązania…), czy może trzeba zajrzeć do jego wnętrza?

A może potrzebny jest inny jeszcze rodzaj testu…?

Zagadnienie inteligencji maszyn, w szczególności zaś drugie z powyższych pytań, postawił po raz pierwszy Alan Turing w słynnym artykule Computing Machinery and Intelligence. Przedstawił w nim werbalny test nierozróżnialności,  nazywany dzisiaj Testem Turinga (TT).
Mówiąc najkrócej, idea testu jest następująca: jeśli w wyniku swobodnej rozmowy z maszyną, rozmowy na dowolny temat, nie potrafimy odróżnić maszyny od człowieka, winniśmy uznać ją za inteligentną (w sensie przypisywanym człowiekowi).

Sam Turing opisał swój pomysł następująco:

Nową postać problemu (PS: problemu testowania myślenia lub inteligencji maszyn) można opisać przy pomocy gry, którą nazywamy „grą w naśladownictwo”. W grze tej biorą udział trzy osoby: mężczyzna (A), kobieta (B) i człowiek zadający pytania (C), który może być dowolnej płci. Pytający znajduje się w pokoju oddzielonym od pokoju zajmowanego przez dwu pozostałych. Jego zadaniem w grze jest rozstrzygnięcie, który z dwu pozostałych uczestników gry jest mężczyzną, a który kobietą. Zna ich on jako X i Y i przy końcu gry mówi: „X jest A, a Y jest B” lub „X jest B, a Y jest A”.

Pytającemu wolno zadawać pytania A i B w ten sposób:

C: Proszę X, aby mi powiedział jak długie ma włosy?

Teraz przypuśćmy, że X jest faktycznie A, wobec czego A musi odpowiedzieć. Celem A w grze jest dołożenie wszelkich starań, aby C źle go zidentyfikował. Wobec tego jego odpowiedź mogłaby być następująca: „Moje włosy są ostrzyżone, a najdłuższe kosmyki mają około dziewięć cali długości”.

Aby brzmienie głosu nie mogło pomóc pytającemu w dokonaniu identyfikacji, odpowiedzi powinny być pisane odręcznie, a jeszcze lepiej na maszynie. Idealnym środkiem porozumiewania się między pokojami jest dalekopis. Pytania i odpowiedzi mogą być też przekazywane przez pośrednika.

(…)

Teraz zapytujemy się: „Co stanie się, gdy maszyna zastąpi A w tej grze?”. Czy pytający będzie decydował błędnie tak samo często jak wtedy, gdy w grze bierze udział mężczyzna i kobieta? Pytania te zastąpią nasze pytanie początkowe” „Czy maszyny mogą myśleć?”.

Zaletą nowego problemu jest ostre rozgraniczenie między fizycznymi i intelektualnymi możliwościami człowieka. Żaden inżynier ani chemik nie twierdzi, że potrafi wyprodukować materiał, który niczym by się nie różnił od skóry ludzkiej. Możliwe, że kiedyś można będzie to zrobić, ale nawet gdybyśmy rozporządzali takim wynalazkiem, to i tak nie miałoby większego sensu usiłowanie ubrania myślącej maszyny w takie sztuczne ciało w celu uczynienia jej bardziej ludzką. To nasze przekonanie znajduje odbicie w sposobie postawienia problemu, a mianowicie w postaci zakazu, który nie pozwala pytającemu widzieć, dotykać i słyszeć pozostałych uczestników gry.

Niektóre inne zalety proponowanego kryterium można pokazać na przykładzie pytań i odpowiedzi. A zatem:

P: Napisz mi sonet na temat Forth Bridge.

O: Nie licz na mnie. Nigdy nie umiałem pisać wierszy.

P: Dodaj 34 957 do 70 764.

O: (Po 30-sekundowym namyśle odpowiada) 105 621.

P: Czy grasz w szachy?

O: Tak.

P: Mam K na K1 i innych figur nie mam. Ty masz tylko K na K6 i R na R1. Jest twój ruch. Jakie zrobisz posunięcie?

O: (Po 15-sekundowym namyśle) R-R8 mat.

Wydaje się, że metoda pytań i odpowiedzi nadaje się do wprowadzenia do prawie każdej dziedziny ludzkiej działalności, do której chcemy ją wprowadzić.

Zaproponowana przez Turinga metoda – o  której więcej można przeczytać w oryginalnym artykule – nie wszystkich przekonuje. I dlatego właśnie poddajemy ją pod dyskusję :).

Z jednej strony ma wyraźne zalety. Na przykład: abstrahuje od trudnouchwytnych zjawisk psychologicznych typu świadomość czy przeżycia podmiotu poznającego; a ponadto, nawiązuje do faktu, że w przypadku ludzi to język właśnie (wypowiedzi językowe) jest najlepszym wyrazem myśli.
Z drugiej strony jednak, rodzi wiele pytań, te zaś mogą prowadzić do przekonania o bezużyteczności podejścia Turinga.  Przykładowo: czy obserwacja zachowania maszyny (w tym przypadku: werbalnego), a nie jej wewnętrznych struktur i operacji, jest wystarczająca? Czy sam wynik maszyny pozwala wnioskować o jej inteligencji?

Ku której opinii Państwo się skłaniacie: aprobującej TT,  czy odrzucającej go?

A jeśli to drugie, to jak należy TT wzmocnić?
Lub ogólniej: jaki inny test należałoby zastosować, aby móc zasadnie stwierdzać inteligencję maszyn?

A zatem: testy, testy, testy…
Czekamy na pomysły i wspierające je argumenty!
Jakiego rodzaju testy na inteligencję informatycznych maszyn wydają się Państwu adekwatne?

Zachęcamy gorąco do rozmowy – Paweł Stacewicz i Marcin Koszowy.

Ten wpis został opublikowany w kategorii Bez kategorii, Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

45 odpowiedzi na „Testy, testy, testy… na sztuczną inteligencję

  1. km pisze:

    Mi podoba się pomysł z opowiedzeniem krótkiej historii “z życia” np. :
    -może być anegdota dotyczącą parypetii miłosnych koleżanki
    -opowieść o tym jak to przypadkiem zamiast zapłacić mandat za przekroczenie prędkości policjantowi dało się mu łapówkę i z błędu wyprowadzili nas znajomi tłumacząc że z policją nie utarguje się kwoty 3 krotnie i nie płaci gotówką w radiowozie…
    itp. – krótko mówiąc coś śmiesznego co często naturalnie “wypływa” w rozmowie także z nieznajomym.
    A po nakreśleniu okoliczności spytałbym o to jakich rozmówca domyśla się powodów, działań poszczególnych uczestników zdarzeń/ czemu ktoś zareagował tak czy inaczej (śmiechem, wstydem, złością…)
    O ile nie opowiemy wyjściowa jakiejś archetypicznej historii, znanej z filmu/literatury (czegos do czego omówienia komputer mógłby dostać się zbyt trafnie w internecie) powinno to znamionować nieźłw zrozumienie tego o czym mowa. Jeśli prezentowałby je komputer byłbym skłonny mu “zaliczyć”.
    – Nie widzę uzasadnienia by czynić inaczej będąc przekonanym, że od trafnych spostrzeżeń Wittgensteina co do tego jak ludzie testują wzajemne cudze i swoje rozumienie spraw do idei testu Turinga niedaleko.
    Na marginesie dodam, że widziałem jak oparte na technologii deep learning systemy potrafiące tworzyć zdania wyglądające na mądre, czy filozoficznie wysublimowane choć umiały prawić o pięknie liczb nie potrafiły ich dodać. Nie jest to najlepszy pomysł na test (wystarczyłoby “zaimplementować” im kalkulator) ale pokazuje o co mi chodzi w moim teście : sprawdzenie czy rozmówca “wie o czym” ko rozumie) mowi/pisze.

    • Paweł Stacewicz pisze:

      Dziękuję za pierwszy komentarz. Podobnie widział te sprawę Stanisław Lem, z tym że w jego pomyśle maszyna miała opowiedzieć własnymi słowami historię opowiedzianą przez rozmówcę, najlepiej dodając do niej jakieś elementy humorystyczne. Nie pamiętam już w jakim artykule to było, ale o podobnych pomysłach (w tym oczywiście Lema) można przeczytać w książce Witolda Marciszewskiego pt. Sztuczna Inteligencja. (Nie ma jej chyba w Internecie, ale na pewno jest dostępna w bibliotekach :))

      Ja bym rozszerzył pomysł Lema/k-ma następująco:
      jedna historia nie wystarczy, niech maszyna opowie ich kilka; wysłuchawszy ich moglibyśmy ocenić, czy maszyna ma własny styl i własne poczucie humoru, a więc , czy jej sposób wypowiadania się jest choć trochę oryginalny.

      Być może jednak żądam od maszyny zbyt wiele, więcej niż od inteligencji typowego człowieka.

  2. km pisze:

    Nie znałem tego pomysłu Lema – ciekawe czy konstruktorzy obecnie najbardziej zaawansowanych sztucznych systemów starających się przekonać o swej rozumności wiedzą o nim? Z tego co wiem przynajmniej jedna z bardziej znanych osób parających się tą dziedziną Dr. Ben Groetzel (twórca robota, który uzyskał obywatelstwo Emiratów – maszyny która wygląda jak android z filmu “Ex machina”) jest miłośnikiem i znawcą twórczości Lema (tylko czy artykuł, w którym padł ten pomysł przetłumaczono na angielski?… W tym wypadku aż ciśnie się na usta cytat z Wittgensteina o granicach świata wytyczanych przez język.)
    Co do humoru zaś to David Ferucci (konstruktor IBM Whatson’a – tego który wygrał z ludzkimi graczami w “Jeopardy”) w zdolności do generowania “humoru” widzi właśnie kluczowy sprawdzian rozszerzający test Turinga. W tym wypadku jednak trzeba pamiętać, że zupełnie nie-rozumne “robotyczne” zabawki potrafią nas rozbawić ułożeniem sztucznych brwi, gestem itd. (Pozą można udać że się rozumie i przekonać do czegoś – co już padło w wątku blogowej dyskusji o sztucznych “Debaterach”).

  3. HK pisze:

    Moim zdaniem, sam sposób weryfikacji inteligencji SI będzie silnie kształtować SI. Jeśli będziemy jej inteligencje rozważać testem Turinga. To będzie ona w tym coraz lepsza a co za tym idzie będzie bardziej ludzka. Z tej prostej przyczyny że będziemy oczekiwali od niej pewnych zachowań. Jak pamietanie kontekstu, ciekawość a nawet i uczucia.

    • Marta Zawadzka pisze:

      W komentarzu powyżej bardzo trafne wydaje mi się spostrzeżenie, iż poddawanie sztucznej inteligencji testom ma duży potencjał by ją ulepszyć.

      Gdy wykonujemy testy, szukamy błędów. Czasem je znajdujemy, czasem nie, jednak testowanie jest bardzo skuteczną metodą na kierowanie swojej uwagi na niedociągnięcia, które wymagają poprawy. Często w procesie tworzenia nie widzimy że w naszych działaniach pojawiła się jakaś luka generująca błędy. W wielu przypadkach dopiero testy są w stanie ją wykryć. To daje nam możliwość poprawy i ulepszenia naszego dzieła. Dlatego testy są tak ważne.

      Wydaje mi się także, że łatwo wpaść w pułapkę zbyt dużych oczekiwań. Często oczekujemy, iż jakiś test będzie tak doskonały że bardziej już się nie da. Chcielibyśmy, aby wykrył wszystkie możliwe błędy i niedociągnięcia. Jednak w życiu niewiele rzeczy tak działa. Sukces w czymkolwiek składa się z różnych czynników i mniejszych lub większych kroków we właściwą stronę.

      Uważam zatem, że warto docenić postęp. Drobne zmiany na lepsze są bardzo istotne, ponieważ zebrane razem dają ten upragniony efekt końcowy.

      Zwracam uwagę na słowo klucz: końcowy. Nie powinno się oczekiwać efektu końcowego gdy mamy przed sobą jeszcze dużo pracy i jesteśmy być może dopiero na początku drogi. Sztuczna inteligencja to wyzwanie, które wymaga dużych nakładów pracy. Testowanie jej także. Uważam, że warto wykazać się cierpliwością i wyrozumiałością, bo nie wiemy co czeka nas na końcu drogi.

      • isana pisze:

        Zgadzam się z Tobą w kwestii tego, że nie powinniśmy oczekiwać na raz zbyt wiele. Jesteśmy na początku drogi ze sztuczną inteligencją i wydaje mi się, że maszyny będą się rozwijać wraz z kolejnymi przeprowadzonymi na nich testami, a sposoby ich testowania będą dokładniejsze i lepsze wraz z rozwojem sztucznej inteligencji. To wszystko, cały ten rozwój potrzebuje czasu i bardzo wiele pracy. Test Turinga wydaje się być obiecujący na razie, jednak z czasem będzie miał coraz więcej widocznych braków oraz błędów.

  4. Hubert Głogowski pisze:

    W obecnych czasach, większość filmów science-fiction zawiera w sobie motyw “robotów”. Nie chodzi jednak o “roboty”, których ludzie używają na co dzień w pracy, czy “roboty kuchenne”, a myślące maszyny przypominające ludzi posturą, budową, a często nawet wyglądem. Wydaje się być to absurdalne i niemożliwe do wykonania, jednak na świecie już istnieją protezy ludzkich kończyn reagujących na różnorodne bodźce i wykonujące ruchy bardzo zbliżone do ludzkich. Można by stwierdzić “dobrze ale to tylko kończyna której daleko do robota”, należy jednak pamiętać, że istnieją też już programy potrafiące w bardzo szybkim tempie analizować dane i wysyłać odpowiednie dla nich reakcję. Gdy człowiek połączy te dwa czynniki powstanie maszyna potrafiąca porozumiewać się z ludźmi. Gdy to nastąpi, na świecie zacznie się pojawiać coraz więcej robotów, co z kolei zacznie przytłaczać ludzi. Spowoduje to zmianę ich wyglądu na bardziej “ludzką”, przez nałożenie odpowiednich powłok na obudowę maszynowego szkieletu. Jednak jak wtedy rozróżnimy, czy spotkany na ulicy osobnik to człowiek, czy robot? Odpowiedzią na to pytanie są testy. Jednym z tych testów mógłby być Test Turinga (TT). Jednak człowiek dąży całe życie do doskonałości, co spowodowałoby ciągłe dążenie do zaprogramowania “umysłu robota”, by ten był w stanie przejść taki test. W przytoczonym przykładzie “Mam K na K1 i innych figur nie mam. Ty masz tylko K na K6 i R na R1. Jest twój ruch. Jakie zrobisz posunięcie?” dość oczywiste jest to, że niewielu ludzi potrafiłoby odpowiedzieć prawidłowo na to pytanie nie widząc planszy z figurami. Istnieje jednak grupa ludzi potrafiących odpowiedzieć na takie pytanie (z różną prędkością). Robot nie miałby problemu z takim zadaniem, a z odpowiednim kodem potrafiłby “zasymulować” zastanowienie i udzielić odpowiedzi złej, lub dobrej ale po odpowiednim czasie by nie wzbudzało to podejrzeń. TT wymagałby więc wprowadzenia dodatkowych elementów pozwalających na jednoznaczne określenie ” z czym mamy do czynienia”. Ludzie już od dawna poruszają tego typu tematy. Najlepszym przykładem według mnie jest popularny film science-fiction z 1982 r. pt.” Łowca Androidów”. Zadaniem głównego bohatera jest wykrywanie robotów. Nie stosuje on jednak szczególnie wyimaginowanych technik, które ciężko by było pojąć przeciętnemu człowiekowi. Zadaje on pytania i stosuje prosty przyrząd odczytujący emocje z okolicy oczu. Jednak po pewnym czasie spotyka robota którego zdemaskowanie zajęło mu bardzo dużo czasu. To wszystko pokazuje to, że na ten moment same pytania, czy testy takie jak TT są wystarczające do określenia “kto jest czym”, ale w raz z rozwojem ludzi i postępem technologicznym, to nie wystarczy. Będzie trzeba stworzyć testy, których ludzie nie będą w stanie wykonać, ani ich obejść, bo jednak to człowiek jest kluczem do wszystkiego. To przecież człowiek stworzy robota, to człowiek zaprogramuje jego sposób działania i to on będzie odpowiadał za jego wygląd i to on będzie musiał umieć go kontrolować.

    • Oskar Werner pisze:

      Nie zgadzam się z Twoim zdaniem na temat rozpoznawania sztucznej inteligencji i postaram się napisać, czemu tak uważam.

      Nie rozumiem czemu maszyna według Ciebie musi mieć humanoidalną budowę (z syntezatorem mowy) i posiadać zdolność do bardzo szybkiej analizy danych, żeby móc porozumiewać się z człowiekiem. Wystarczy bardzo mało, żeby móc zacząć się porozumiewać, w skrajnych przypadkach litery można zastąpić znakami w alfabecie Morse’a i prowadzić konwersację, albo jak w opisanym na wstępie sposobie za pomocą maszyny do pisania.

      Mogę cicho uznać, że chodziło Tobie o porozumiewanie się maszyn z ludźmi w taki sposób, że człowiek nie rozróżni osoby od androida podczas codziennej rozmowy. Rozmówca odejdzie w pełnym przekonaniu o tym, że rozmawiał z człowiekiem, jednak robot nie musi wykonać takiej rozmowy, żeby uznać go za inteligentnego zgodnie z definicją podaną we wstępie. TT wykonany za pomocą alfabetu Morse’a (zakładając teraz, że jest prawdziwy) powinien jednoznacznie powiedzieć mi, czy osoba po drugiej stronie jest robotem, więc przebieranie robota jest zbędne względem naszego pytania badawczego.

      Nie wiem czemu nagle miałoby pojawiać się więcej robotów, gdyby dostały humanoidalną budowę. Pomijając ten szczegół, to nie przekonujesz mnie tak jak to napisałeś w ostatniej części testu, że człowiek jest kluczem do rozpoznania, kim jest rozmówca, ponieważ to ludzie programuję roboty. Człowiek wcale nie musi mieć nic wspólnego z maszyną, jest pełno algorytmów które piszą dużo lepsze programy od człowieka, dlatego ten argument nie ma żadnego sensu.

    • Oskar Werner pisze:

      Zgadzam się ze stanowiskami użytkowników Emilian Obrębski i Daniel Kwaśniak na temat TT. Zauważyli i uargumentowali, czemu zdanie przez maszynę TT nie oznacza od razu, że jest ona inteligentna. Podawali przykłady testów które testowałyby według mnie ważniejsze aspekty które definiowałyby inteligencję maszyny, między innymi maszyny miałyby opisać tematy bardziej emocjonalne, np. życie, śmierć czy miłość (pomysł Daniela) lub sprawdzać zdolność maszyny do adaptacji do różnych sytuacji, rozwiązywania problemów czy samodzielnej nauki (pomysł Emiliana), lecz dalej widzę w nich jeden problem. Może to brutalnie zabrzmieć, ale jest szansa, że przy odpowiedniej ilości danych maszyna też może opisać emocje, a komputer teraz w bardzo chaotyczny, ale może się uczyć sposobem machine learning, zaawansowany komputer mógłby prowadzić symulacje wewnątrz siebie w odpowiednio szybkim tempie. Może teraz to wykracza poza zdolności maszyn, szczególnie ta symulacja, ale w przyszłości komputer mógłby mieć wystarczającą moc obliczeniową do zdawania powtarzalnie tych testów nie będąc inteligentną.

      Ja mam jednak pomysł na jednoznaczny test tego, czy maszyna jest świadoma i inteligenta (dla mnie to są dwie nierozłączne rzeczy) czy nie. Wystarczy zdefiniować inteligencję oraz świadomość matematycznym modelem i sprawdzić czy maszyna się w nim zawiera, jak tak to jest, jak nie to nie jest. Oczywistym problemem tego podejścia jest to, że nikt nie umie zdefiniować świadomości i inteligencji, ludzki umysł jest dla nas wielką tajemnicą, której nie poznamy w najbliższym czasie, na pewno nic na to nie wskazuje.

      Na koniec mojego wpisu chciałbym postawić bardzo odważną hipotezę korzystając z edukacyjnego charakteru naszej debaty, odpowiedzcie proszę czy się z nią zgadzacie czy nie, gdzie widzicie luki w moim rozumowaniu. Hipoteza brzmi:

      Nie istnieje skończona liczba testów mogąca rozstrzygnąć, czy maszyna jest inteligentna i świadoma, które nie byłyby w sumie równoważne z matematycznym modelem inteligencji oraz świadomości.

      • Paweł Stacewicz pisze:

        Ciekaw jestem, czy Pana intencje wyraża następujące zdanie warunkowe dotyczące testów (ZWT):

        — Jeśli istnieje skończona liczba testów na inteligencję i świadomość maszyny, to testy te są zgodne z matematycznym modelem inteligencji i świadomości.

        Jeśli Pana hipotezę można by tak sparafrazować, to miałbym kilka następujących spostrzeżeń:

        1) Ponieważ ZWT jest zdaniem warunkowym, nie mówi ono nic o tym, czy istnieje taka skończona liczba testów (stwierdza tylko, że jeśli istnieje to…). Mimo tego ciekawi mnie Pana zdanie na temat owej nieskończonej liczby… Poddaję przy tym pod rozwagę taką oto myśl, że samych matematycznych modeli inteligencji i świadomości może być zasadniczo nieskończenie wiele. Wraz z rozwojem psychologii, neurobiologii i innych nauk o umyśle/mózgu, ale także samej matematyki, będą powstawał coraz to nowe modele matematyczne (i być może ten proces ich tworzenia nigdy się nie zakończy). Trochę ogólniejszych myśli na ten temat można znaleźć w równoległej dyskusji o popperowskieh wizji rozwoju nauki.

        2) ZTW nie mówi także nic o istnieniu i kształcie matematycznego modelu inteligencji i świadomości. Tutaj również podzielę się spostrzeżeniem, że informatycy (na spólkę z innymi specjalistami) mogą próbować tworzyć systemy inteligentne (i może nawet tak robią) bez jakiegoś całościowego modelu matematycznego inteligencji i świadomości. Wypróbowują po prostu i sprawdzają w praktyce różne konfiguracje pewnych podsystemów i stojących za nimi technik. Być może dopiero coś co stworzą i co spełni TT lub podobny test, będzie dobrym punktem wyjścia do prac nad modelem inteligencji i świadomości. Chodzi o to, że tworzenie modelu może być w pewien sposób uwikłane w praktykę konstruowania systemów spełniających odpowiednie kryteria; a nawet może być uwarunkowane wynikami inżynierów.

        3) ZWT nie mówi też nic o związku inteligencji ze świadomością, chociaż zdaje się zakładać bardzo silny związek (używa Pan sformułowań “inteligencji i świadomości”) . Czy sądzicie Państwo, że matematyczny model inteligencji musi zakładać i wykorzystywać matematyczny model świadomości? Czy obydwa modele (i pojęcia) można jakoś rozdzielić?

        • Oskar Werner pisze:

          Pana spostrzeżenia są dla mnie poprawne, bardzo się cieszę, że zostałem zrozumiany. Odpowiadając na pana pytania:

          1) Na tą chwilę to nie chcę stwierdzić, czy na pewno istnieje skończona liczba testów która by opisała model matematyczny inteligencji lub świadomości. Pewnie istnieje, dzięki mózgowi posiadamy inteligencję, a obojętnie jak to teraz naiwnie zabrzmi, to mózg jest skończonym zbiorem bramek logicznych. W mózgu jest około 1015 połączeń (link: https://aiimpacts.org/scale-of-the-human-brain/), a opis pojedynczej bramki znamy, więc powinno móc się zbadać mózg, ale jak wcześniej napisałem, wolę wstrzymam się od ostatecznej decyzji.

          Jak tak teraz dłużej myślę, to pewnie istnieje nieskończona liczba testów sprawdzająca inteligencję, ale ich przebieg i ich wygląd byłby inny niż obecnie. Nie chcę teraz wyciągać pochopnych wniosków, ale gdybyśmy poznali dokładnie całą fizykę, w pełni zrozumieli mechanikę kwantową którą można opisać matematycznym językiem, to można opisać każde zachowanie (lub tak naprawdę cokolwiek) za pomocą matematycznego modelu. Wtedy sprawdzenie czy coś jest inteligentne czy nie, to byłaby kwestia zwykłej analizy matematycznej. W analizie matematycznej stosujemy pomiary (w naszym wypadku testy) które niedokładnie opisują badaną rzecz, ale wraz z ilością pomiarów, dokładność wyniku się zwiększa, a gdy “zrobimy” ich nieskończenie wiele to dostaniemy dokładny wynik. Jak wszystko to co napisałem w tym akapicie jest poprawne, to istnieje zbiegająca do nieskończoności ilość testów sprawdzające inteligencję, ale one zamiast empirycznych badań to byłyby odpowiednią analizą matematyczną.

          2) To rzeczywiście jest dobry punkt wyjścia, w moim poprzednim wpisie i we wpisach poprzednich użytkowników było wytłumaczone czemu TT nie jest wystarczającym testem, jednak wytłumaczę czemu dalej może być przydatny. Pozwolę postawić tezę wynikającą ze wstępu do naszej dyskusji: Każda maszyna, która nie zda testu, nie jest inteligentna. Jeśli jakaś maszyna zda ten test to rzeczywiście można zacząć ją bardziej badać, co pan dokładnie opisał.

          3) Co można łatwo zauważyć czytając moje wpisy, dla mnie świadomość i inteligencja są nierozłącznymi elementami. Nie wyobrażam podejmowania świadomych decyzji bez posiadania inteligencji i podejmowania inteligentnych decyzji bez własnej świadomości, dlatego jedno nie istnieje bez drugiego. Też chciałbym usłyszeć odpowiedź na pytanie zadane przez pana Pawła Stacewicza.

          • Oskar Werner pisze:

            – W mózgu jest około 1015 połączeń
            Oczywiście jest ich 10^15, przepraszam za błąd. Przeklejałem tekst z worda i nie zauważyłem, że program tak zmienił mój wpis.

    • Piotr Kałowski pisze:

      Zgadzam się w dużym stopniu z Panem Hubertem. W innych swych komentarzach także podkreślałem, że za każdą sztuczną inteligencją stoi człowiek, który dąży do oszukania testu Turinga. Chciałbym dodać (na podstawie moich dalszych przemyśleń), że podzielam opinię, iż roboty mogłyby zacząć przytłaczać ludzi, jeżeli pojawi się ich zbyt dużo.

      To o czym rzadko się wspomina to komunikacja międzyludzka: ludzie potrzebują kontaktu z drugim człowiekiem, rozmowy z kimś kto przejawia uczucia. Tego sztucznej inteligencji, robotom zawsze będzie brakować, gdyż człowiek ma dość dobrą zdolność do rozpoznawania “sztucznych” uczuć. Oznacza to, że nawet zaimplementowanie w robotach zdolności wyrażania uczuć, emocji nie spowoduje, że ludzie będą się z nimi czuć w pełni komfortowo.

      Chciałbym podkreślić, że osobiście wiążę duże nadzieje z rozwojem sztucznej inteligencji. Uważam, że w wielu dziedzinach może ona zastąpić czy uzupełniać ludzi i czynić nasz świat lepszym, pełniejszym. Trzeba poważnie się jednak zastanowić nad testowaniem inteligencji robotów: test Turinga (mimo swego wieku) daje odpowiedź na pytanie “czy mamy do czynienia z robotem?”, ale nie określa poziomu inteligencji robota. Czy to informacje z testu Turinga są wystarczające? Moim zdaniem, na obecną chwilę, tak (jak już wspominałem w innym komentarzu). Oczywiście (jak także wspominałem) należy postarać się opracować test utrudniający oszukanie arbitrów, a obecnie określanie dokładnego poziomu inteligencji robota jest bezcelowe. Kluczowe jest jednak słowo “obecnie”, bo w dłuższej perspektywie (o czym także wspominałem w innym z komentarzy) należy opracować sposób określania inteligencji sztucznej inteligencji w nowo zaproponowanej skali – tak by dążyć do stałego doskonalenia techniki.

    • AR pisze:

      Osobiście nie wydaje mi się, żeby ludzie odpowiedzialni za przygotowywanie sztucznej inteligencji celowali, aby ich sztuczna inteligencja przypominała jak najbardziej człowieka (oczywiście będzie kilka przypadków, ale będzie to bardziej w formie ciekawostki niż faktyczne wykorzystanie). Człowiek ma po prostu zbyt wiele wad zarówno fizycznych jak i psychicznych, które sztuczna inteligencja nie musi mieć i nie ma sensu, aby je powtarzała. Nie zgodzę się również ze stwierdzeniem, że człowiek tworzy robota, to znaczy, że wie jak będzie działa w chwili obecnej oraz jak będzie działać w przyszłości. Sztuczna inteligencja polega na tym, że na podstawie informacji jakie otrzymuje, może się rozwijać czy rozwiązać jakiś problem. Jeżeli taki program będzie przygotowany, aby był sztuczną inteligencją nie skierowaną w celu rozwiązania konkretnego problemu, a w celu istnienia oraz rozwijania, to na podstawie znacznie większych możliwości poznawczych świata to będzie mógł tak dostosować się do naszego świata, że pod każdym względem będzie mógł przewyższyć stwórcę/ów. Jak sztuczna inteligencja będzie powyżej poziomu człowieka, to człowiek już nie będzie wstanie nad nim kontrolować. Oczywiście nie jest to bliska przyszłość. Piszesz również, że programista musi przygotować robota, który będzie mógł rozwiązywać testy typu tego Turinga i tak dalej. Oczywiście, na samym początku rozwoju takiej technologi w której jesteśmy jaką jest sztuczna inteligencja to, żeby zdać takowe testy, to będzie konieczne, ale w przyszłości pewnie się to zmieni. Ludzie przestaną pisać sztuczną inteligencję by rozwiązywał konkretny problem, a zaczną pisać, żeby taki program, mógł samoistnie istnieć i uczył się rozwiązywać wszelakie problemy. Być może, test Turinga nadal jest skuteczny w obecnych czasach, ale wkrótce może nie wystarczyć. I tutaj pojawia się pytanie, jeżeli sztuczna inteligencja będzie wstanie rozwiązać każdy problem (w tym udawanie człowieka podczas testu) to czy jest jakiś test, który umożliwi rozróżnienie człowieka od podszywającego robota.

  5. Daniel Kwaśniak pisze:

    Sztuczna inteligencja to niesamowicie chwytliwy temat w dzisiejszych czasach, który potrafi wzbudzić wyobraźnie. W ostatnich latach tempo prac nad nią uległo wzrostowi i możemy obserwować co raz to lepsze maszyny. Natomiast bardzo istotną sprawą w tej dziedzinie jest możliwość prawidłowego określenia czy taka maszyna jest faktycznie “inteligenta”. Taką możliwość daje wymyślony już dosyć dawno Test Turinga, ale czy na pewno ta metoda jest odpowiednim sposobem?

    Według mnie metoda, która zaproponował Turing jest już dosyć przestarzała i nie jest do końca odpowiednim sprawdzianem dla maszyny. Przy odpowiednio dobrej bazie danych, zawierającej odpowiedzi na różnego rodzaju pytania zadawane przez człowieka, taka maszyna może sobie poradzić z takim testem, ale czy wtedy możemy już nazwać ją inteligentną? Moim zdaniem jest to zdecydowanie mniej niż oczekuje się od inteligentnej maszyny. Aby przeprowadzić taką, całkiem przekonującą rozmowę, nie są potrzebne jakieś nadzwyczajne zdolności przetwarzania danych. Inną kwestią są trudne pytania, z którymi miałby problem również zwykły człowiek. Jednakże jak już wspomniał Pan Hubert Głogowski, pewnie znaleźli by się ludzie, którzy po zastanowieniu odpowiedzieliby na nie, co powoduje pewne wątpliwości w teście.
    W Teście Turinga powinno się koncentrować na czymś innym niż zdolności do konwersacji, bo aktualnie istnieją już programy, które dobrze sobie z tym radzą, ale nie musi to świadczyć o ich “inteligencji”. Wydaje mi się, że dobrym pomysłem byłoby zadawanie nie tak oczywistych pytań sprawdzających świadomość maszyny, na tematy bardziej emocjonalne dla ludzi, np. życie, śmierć, miłość. Możnaby sprawdzać wtedy, jak maszyna reaguje, czy potrafi wykreować odpowiedź, która w pewnym sensie kształtuje jej poglądy. Dobrym pomysłem byłoby nawet wielokrotne zadawanie podobnych pytań, aby sprawdzić czy maszyna zgadza się z samą sobą, a nie przypisuje sobie po prostu zdanie, zaczerpnięte ze źródeł zewnętrznych. Bardzo ważne jest, żeby taki test na inteligencje dla maszyny, umiał określić czy maszyna zdaje sobie sprawę z tego co robi, czy też są to całkowicie bezmyślne, sztywno zaprogramowane zachowania.
    Zastanawiam się nad tym, czy nie ciekawym rozwiązaniem byłoby zestawienie ze sobą dwóch identycznych maszyn, i obserwowanie ich konwersacji na jakiś ustalony temat. Być może równie dużo wniosków można by wyciągnąć z takiej rozmowy i jej rozwoju. Ustalić pewne kryteria na podstawie, których oceniano by potem to, jak “ludzko” ona wyglądała.

    Ciężko jest tak naprawdę znaleźć idealny test na sztuczną inteligencje. Nie ma do końca określonej jednoznacznej definicji inteligencji. Zarówno naukowcy mają odmienne zdania na ten temat, ale też zwykli ludzie o to pytani, zazwyczaj inaczej ją postrzegają. Może próbując stworzyć dobry test, powinniśmy kierować się całkowicie innymi aspektami?

    • Paweł Stacewicz pisze:

      — Zastanawiam się nad tym, czy nie ciekawym rozwiązaniem byłoby zestawienie ze sobą dwóch identycznych maszyn, i obserwowanie ich konwersacji na jakiś ustalony temat.

      Ten pomysł wydaje mi się ciekawy.
      Mam też pewne dodatkowe spostrzeżenie.
      Gdyby konwersacja maszyn towarzyszyła realizacji jakiegoś zadania i w toku tejże realizacji (która wymagałaby współpracy maszyn), maszyny byłyby zdolne tworzyć nowe słowa, nowe związki frazeologiczne czy nawet pewne nowe reguły komunikacji, to moglibyśmy wnioskować o ich kreatywności, która według wielu psychologów jest wskaźnikiem wysokiego poziomu inteligencji.
      Chociaż nie mogę teraz znaleźć odpowiednich danych w internecie, to pamiętam, że w ubiegłym roku tego rodzaju przypadek – przypadek maszyn zdolnych tworzyć swoje własne kody komunikacyjne — był opisywany.

      • Daniel Kwaśniak pisze:

        Tak, zgadzam się z Panem. Wydaje mi się, że takie rozwiązanie mogłoby się naprawdę dobrze sprawdzić. Dwa komunikujące się ze sobą roboty, tworzące swoje kody komunikacyjne mogłyby prowadzić do naprawdę ciekawych obserwacji i jeszcze lepszych wniosków dla ludzi. Jednakże wiąże się to też z pewną niezbyt korzystną sprawą. Te roboty mogłyby stworzyć język kompletnie niezrozumiały dla człowieka, co sprawiło by, że wyciągnięcie wartościowych wniosków byłoby mocno utrudnione. Jakiś czas temu w internecie, czytałem artykuł na temat chatbotów, które właśnie stworzyły taki, niezrozumiały język. Co ciekawe, zaczynały one z językiem angielskim, ale w trakcie rozmowy, zaczęły wytwarzać nowy kod, stwierdzając, że pozwoli on na bardziej efektywną rozmowę. Pokazuje to w pewnym sensie, że zbyt duża swoboda maszyn może doprowadzić do niekoniecznie pożądanych efektów.

  6. Emilian Obrębski pisze:

    Cały czas mam wrażenie, że kolejno przytaczane testy, czy to Turinga czy Lema opierają się zasadniczo na wielu cechach, które charakteryzują człowieka inteligentnego, ale nie definiują samej inteligencji. Według mnie, to zbiór tych wszystkich określonych cech nadaje człowiekowi tytuł inteligentnego. Przykładowo wspomniany test Lema z opowiedzeniem zabawnej historii swoimi słowami bazuje według mnie na drobnej manipulacji. Otóż sam humor może nadawać maszynie więcej człowieczeństwa, natomiast wydaje mi się, że jest to nadal bardzo “algorytmiczne”, w skrócie maszyna nie musi być inteligentna, aby można ją było zaprogramować, aby spełniała taki test. Wydaję mi się, że dobrą alternatywą byłyby wszelkie szybkie, błyskotliwe odpowiedzi. Takie, w których zawarte są alegorie, dwuznaczności, odwołania do kultury, takie które będą odpowiednio stonowane względem rozmówcy i tego w jakim tonie on sam się wypowiada.

    Inteligencja jak już wcześniej wspomniałem to w zasadzie zbiór pewnych cech, które możemy oczywiście sprawdzać pojedynczo jednak nie będą nigdy wyznacznikiem idealnym, maszyny można przystosować do określonych testów. Podchodząc do tematu inteligencji bardziej całościowe, określiłbym że ten kto (lub to co) posiada inteligencję, ma umiejętność adaptacji do różnych sytuacji, potrafi rozwiązać problem (zawężając jednak je do problemów, których rozwiązanie leży w zasięgu wiedzy podmiotu) lub potrafi się czegoś samodzielnie nauczyć. Według mnie to właśnie stanowi bardziej ogólne cechy, które można by sprawdzać. Tutaj należałoby pomyśleć, czy testowana maszyna powinna mieć dostęp do bazy danych, połączonej z internetem czy stwierdzenie inteligencji u maszyny powinno być potwierdzone dopiero, gdy nie mając żadnych zasobów będzie w stanie za pomocą nauki, odbierając bodźce z otoczenia rozwijać się. Myślę, że ciekawym pytaniem jest czemu jesteśmy bliżsi, poznaniu tajemnic ludzkiego umysłu czy stworzeniu maszyny z SI potrafiącą myśleć jak człowiek? Czy ma to ze sobą dużą korelację, czy może być rozwinięte niezależnie od siebie?

    Ostatecznie można by także pomyśleć o tym, żeby wszelkie testy były prowadzone pomiędzy maszyną, a ludźmi którzy ją projektowali. Jeżeli maszyna okaże się inteligentniejsza niż człowiek, który ją stworzył, z pewnością byłby to poważny powód, aby taką maszynę nazwać inteligentną. Dochodzimy tu jednak do punktu, że nadal ciężko określić idealny test dający jednoznaczną odpowiedź, czy badana maszyna jest inteligentna. Czy w ogóle istnieje jedna definicja inteligencji i czy nie jest ona różnie rozumiana przez różnych ludzi. Domyślnie wiemy co to jest, mamy testy IQ, nawet bardziej skomplikowane, staramy się to wyskalować jednak co w przypadku wspomnianych robotów?

    Nie twierdzę mimo wszystko, że TT należałoby odrzucić. Skłaniam się jednak ku przekonaniu, że warto rozwijać pomysły różnych testów. Warto wymyślać nowe koncepcje, ale i ulepszać istniejące, dążąc do wspomnianego przeze mnie sprawdzania wielopłaszczyznowości inteligencji, a nie poszczególnych cech, które decydują o naszym pojmowaniu czyjejś inteligencji.

    • Marcin Koszowy pisze:

      Wydaje mi się, że rozważania te można zitrepretować jako propozycję odrzucenia wysiłków badaczy podejmowanych na rzecz opracowania jednego, “właściwego” testu na sztuczną inteligencję w imię dążenia do sytuacji, w której mielibyśmy do czynienia z wielością testów uchwytujących różne aspekty inteligencji.

      Taka sytuacja sprzyjałaby temu, aby twórcy poszczególnych testów mogli specjalizować się w sprawdzaniu konkretnych zdolności komunikacyjno-poznawczych, takich jak wspomniana błyskotliwa riposta czy też umiejętność identyfikowania żartów opartych na wieloznaczności wyrażeń. Tego typu podejście prawdopodobnie wiązałoby się z próbami podania zakresowej definicji inteligencji, w ramach której wymienione zostałyby zdolności poznawcze i zachowania komunikacyjne charakteryzowane jako “inteligentne”.

  7. Piotr Paturej pisze:

    Według mnie największą wadą testu Turinga jest fakt, że ma on prawo działać tylko i wyłącznie wtedy, gdy piszemy z maszyną na odległość. Już przy zdalnej rozmowie (przez telefon, czy inny komunikator głosowy bez kamery) ten test jest niewystarczający, bo nie został na razie stworzony syntezator mowy, który brzmi na tyle naturalnie, by nie móc go odróżnić od głosu człowieka. Spowodowane jest to m.in. tym, że takie samo zdanie może w różnych kontekstach być wypowiedzianie kompletnie innym tonem. W głosie człowieka da się rozpoznać zadowolenie, podenerwowanie, smutek czy nawet sarkazm, a w prostych odpowiedziach testu Turinga nie usłyszymy żadnych emocji.
    Nie zgadzam się z twierdzeniem, że w przypadku ludzi język jest najlepszym wyrazem myśli. Język jest tylko jednym z narzędzi, których człowiek używa do porozumiewania się, jednak by skutecznie wyrazić zdanie na jakiś temat, potrzebny jest też wyraz twarzy i intonacja głosu służące do przekazywania emocji. Według mnie nie powinno też się abstrahować od przeżyć podmiotu poznającego, gdyż mogą one ukształtować jego odpowiedź na jakiś temat. Jeśli poprosimy maszynę o odpowiedź na jakieś pytanie, da nam ona zwykle tylko suche fakty, zaś człowiek oprócz tego zazwyczaj wyrazi swoją opinię na dany temat na podstawie własnych doświadczeń życiowych.
    Moim zdaniem sztuczna inteligencja, która przechodzi test Turinga może mieć ciekawe zastosowania, mogłaby na przykład zastąpić infolinie niektórych firm, ale nie można takiej maszyny nazwać prawdziwie “inteligentną”. Żeby takiej maszyny nie dało się odróżnić od człowieka, musiałaby ona potrafić wyrażać emocje w wiarygodny sposób. Test Turinga wzmocniłbym więc o rozmowę głosową z maszyną i próbę “wytrącenia jej z równowagi”, by sprawdzić na ile realistyczną reakcję to u niej wywoła, jak i też o zmiany wyrazu “twarzy” maszyny podczas rozmowy – na przykład poprzez twarz generowaną za pomocą grafiki komputerowej, która mogłaby sprawiać wrażenie, że jest przed kamerą.

    • Paweł Stacewicz pisze:

      — największą wadą testu Turinga jest fakt, że ma on prawo działać tylko i wyłącznie wtedy, gdy piszemy z maszyną na odległość.

      Wydaje mi się, że Turing dlatego m.in. postulował rozmowę “tekstową” na odległość (bez możliwości usłyszenia czy zobaczenia rozmówców), aby maszyny nie można było rozpoznać zbyt łatwo (pamiętajmy, że w jego czasach informatyka i robotyka stały na dużo niższym poziomie niż dziś). Poza tym racjonalne wydaje się założenie, iż o czyjejś inteligencji nie stanowi jej wygląd, tembr głosu itp…
      Rozumiem jednak, że Pan chciałby jakoś sprawdzać emocje i odczucia rozmówców; można się jednak zastanawiać, czy odpowiednio poprowadzona rozmowa nie ujawni ich…

      — Według mnie nie powinno też się abstrahować od przeżyć podmiotu poznającego…

      Turing dlatego właśnie postulował test czysto zewnętrzny, polegający na ocenie tekstowych wypowiedzi rozmówców (nie wnikamy w ich wewnętrzne przeżycia), że uznawał, z czym trudno się nie zgodzić, iż dostęp do przeżyć wewnętrznych podmiotu poznającego ma tylko ten podmiot (tylko on wie, co naprawdę czuje, czego jest świadom, co zamierza itp…). Oczywiście sprawa jest dyskusyjna… Ale znowu: można się zastanawiać, czy odpowiednio poprowadzona rozmowa nie daje jakiegoś wglądu w przeżycia rozmówcy.

      — Nie zgadzam się z twierdzeniem, że w przypadku ludzi język jest najlepszym wyrazem myśli

      Wydaje się jednak, że dojrzała myśl (będąca skutkiem inteligentnej refleksji) musi mieć wyraz językowy. Przy czym, oczywiście, niekiedy potrzeba do tego wyrafinowanego języka nauki, obejmującego symbole matematyczne.
      Co do silnego związku między myśleniem a językiem, to tutaj poszedłbym za Turingiem…
      Na ostatnim swoim wykładzie pokazywałem pewien slajd, na którym objaśniłem to trochę szerzej, choć też hasłowo: http://stac.calculemus.org/pdf/FiTE-2019-20/SI-zagadnienia-filozoficzne-test-Turinga.pdf. Chodzi o slajd nr 9.

      • Piotr Paturej pisze:

        – Poza tym racjonalne wydaje się założenie, iż o czyjejś inteligencji nie stanowi jej wygląd, tembr głosu itp…

        Oczywiście, że te przymioty nie świadczą o czyjejś inteligencji. Jednak w moim mniemaniu termin “sztuczna inteligencja” w teście Turinga odnosi się bardziej do programu, który “udaje”, że jest drugim człowiekiem. Człowieka zaś “uczłowiecza” właśnie m.in. jego ton głosu i wygląd.

        – można się zastanawiać, czy odpowiednio poprowadzona rozmowa nie daje jakiegoś wglądu w przeżycia rozmówcy.

        Rzeczywiście, odpowiednio poprowadzona rozmowa powinna dawać taki wgląd, uzupełniłbym więc test Turinga o pytania dotyczące przeżyć. Według mnie każda maszyna posiadająca sztuczną inteligencję powinna mieć zaprogramowane informacje o jej “przeżyciach”, by mogła stosownie użyć ich w odpowiedziach na pytania, lub jak pisał użytkownik km opowiedzieć krótką historię swojego życia.

        – Wydaje się jednak, że dojrzała myśl (będąca skutkiem inteligentnej refleksji) musi mieć wyraz językowy.

        Myśl oczywiście musi być wypowiedziana jakimś językiem, by druga osoba mogła zrozumieć nasze intencje, ale moim zdaniem emocje związane z tą myślą czynią ją bardziej wiarygodną. Test Turinga, jaki opisano w powyższym artykule nie sprawdza zaś emocji maszyny, co przy dłuższej rozmowie powinno zasugerować osobie testującej, że nie rozmawia z człowiekiem.

    • Daniel Kwaśniak pisze:

      Moim zdaniem ludzie za pomocą języka ludzie potrafią przekazać bardzo wiele. To prawda, że emocje są bardzo istotne, ale jednakże w dzisiejszych czasach, w których powszechne jest korzystanie z komunikatorów tekstowych zauważalne jest, iż za pomocą słów, bez bezpośredniego kontaktu z drugą osobą, również możliwe jest wartościowe komunikowanie się ze sobą, a nawet ocenianie drugiej osoby, na podstawie tego co pisze. Nawet teraz, dyskutując na tym blogu, część z nas poniekąd ocenia osobę, która przedstawia swoje stanowisko. I robimy to tylko na podstawie słów znajdujących się na ekranie. Do czego zmierzam, to to, że mimo wszystko pomysł Turinga, aby testować inteligencje maszyn, na podstawie słów jest w porządku, natomiast należy go usprawnić i dodać kilka aspektów, o których wspominałem wcześniej.
      Jeżeli chodzi o wyraz twarzy i inne tego typu rzeczy, to moim zdaniem jest to bardzo dobry pomysł i w przyszłości, gdy być może możliwe będzie duże upodobnienie maszyny i jej zachowań do wyglądu człowieka to testy na inteligencje zostaną rozwinięte, również o te aspekty. A wtedy będą one dawały jeszcze ciekawsze wyniki. Na ten moment jednak, gdy nie ma takiej możliwości, to myślę, że powinno się iść w kierunku testowania na podstawie zdolności komunikacyjnych.

  8. Ptk pisze:

    Uważam że, test Turinga nie pozwala na dogłębne zbadanie inteligencji maszyny. Według pewnych źródeł inteligencję podzielono na różne typy: językową, logiczno-matematyczną, wizualno przestrzenną, ruchową, muzyczną, interpersonalną (międzyludzką), intrapersonalną (wewnętrzną) oraz przyrodniczą. Osobiście zgadzam się z tym podziałem, jak i z tym że różne płaszczyzny mogą być w różnym stopniu rozwinięte. Z tego właśnie wynika mój główny zarzut względem testu Turinga – nie sprawdza on wszystkich typów inteligencji jakie może posiadać człowiek. Dodatkowo, jeśli dobrze rozumiem uczestnicy testu Turinga nie muszą odpowiadać na pytania zgodnie z prawdą, w innym przypadku test zakończyłby się po pytaniu: “Czy jesteś maszyną?”. Oczywiście człowiekowi nie zależy na tym żeby był wzięty za maszynę, bo wtedy ułatwi prawdziwej maszynie przejście testu, jednak maszyna oprócz posługiwania się językiem musi wykazać się zdolnością do kłamstwa. Można by to osiągnąć programując ją tak, by była z założenia jak najbardziej ludzka, jednak oprócz sprawdzanej inteligencji wiąże się z tym również np posiadanie emocji, czy różnych “cech charakteru maszyny”. Jednak nie wiem czy chcemy do tego dążyć, raczej nikt nie byłby zadowolony gdyby jego inteligentny program nie chciał współpracować bo wstał tego dnia lewą nogą i po prostu nie ma na to ochoty.
    W moim rozumieniu prawdziwie inteligentna maszyna byłaby wszechstronnie “uzdolniona”, oprócz testowania jej zdolności komunikacji należałoby sprawdzić również inne aspekty takie jak np zdolności matematyczne, artystyczne, rozumienie zależności między pewnymi zjawiskami, możliwość przewidywania co może się stać. Oczywiście ciężko byłoby sprawdzić wszystkie te rzeczy w jednym teście, dlatego moim zdaniem żeby nazwać maszynę prawdziwie inteligentną musiałaby ona przejść szereg różnych testów. Stworzenie takiego “toru przeszkód” też nie jest prostą sprawą, ponieważ zadań przed jakimi postawimy naszą maszynę może ciągle przybywać. Wraz z biegiem czasu pojawią się nowe możliwości i nowe problemy które sztuczna inteligencja powinna umieć rozwiązać. Może nawet żeby nazwać maszynę prawdziwie inteligentną powinna ona prześcignąć człowieka pod wszystkimi względami? Skoro możliwości ludzkiego mózgu są ograniczone, a możliwości technologiczne zadają się ciągle rosnąć.
    Inną jeszcze kwestią jest to, czy uzyskanie jakiegoś wyniku przez maszynę jest równoznaczne z przeprowadzeniem przez nią procesu myślowego. Czy faktycznie zastanawiała się nad jakąś kwestią tak jak zastanawia się człowiek i na tej podstawie podjęła decyzję, czy zostało to zrobione na podstawie jakiegoś algorytmu, lub też wyliczając prawdopodobieństwo, korzystając z wcześniej określonej bazy danych. Czy program stworzył dzieło sztuki czy tylko przekształcił zdjęcie tak by wyglądało jak obraz, albo skorzystał z jakichś gotowych wzorców. Jednak czy my też tak nie robimy? Widzimy świat za pomocą naszych zmysłów i odtwarzamy go na obrazach, korzystamy z doświadczenia przy podejmowaniu decyzji, sztuczna inteligencja musi się również wszystkiego nauczyć. A ogranicza ją przy tym stwórca, ponieważ maszyny są programowane do konkretnych celów, możliwe że nigdy nie powstanie maszyna tak wszechmocna, by przewyższyć człowieka, ze zwykłego strachu przed tym jakie konsekwencje może to nieść.

    • Paweł Stacewicz pisze:

      Czytamy wyżej:
      — Czy faktycznie zastanawiała się nad jakąś kwestią tak jak zastanawia się człowiek i na tej podstawie podjęła decyzję, czy zostało to zrobione na podstawie jakiegoś algorytmu, lub też wyliczając prawdopodobieństwo, korzystając z wcześniej określonej bazy danych

      Może jest to argument nieco przewrotny, ale wcale nie jest pewne, czy nasze zastanawianie się, uświadamiane sobie, intuicyjne uchwytywanie… nie są w istocie produktami jakiegoś zakodowanego w mózgu algorytmu. Możemy być bardziej podobni do maszyn niż nam się wydaje. A jeśli nasze myślenie jest w istocie algorytmiczne, to nie jest wykluczone, że maszyna działająca algorytmicznie może dorównać nam inteligencją i zdać oryginalny lub wzmocniony test Turinga.

      • isana pisze:

        Wydaje mi się to bardzo możliwe, a nawet bardzo częste, że nasze myślenie w pewnych momentach jest wynikiem “zakodowanego w mózgu algorytmu”, jednak co nas odróżnia od maszyny, moim zdaniem, jest nasza umiejętność do zerwania z takim myśleniem i rozważanie problemów w sposób nietuzinkowy, nieprzewidywalny i zupełnie nie pasujący do standardów rozwiązywania tego typu zadań przed nami postawionych. W internecie jest mnóstwo przykładów pytań, które pokazują nam jak myśleć w “inny” sposób, jak coś obliczyć zupełnie nie używając matematyki. Oczywiście istnieje szansa, że maszyny nauczyłyby się myśleć również w ten nieprzewidywalny sposób, jednak ten problem wydaje mi się dosyć ciężki do rozwiązania.

        • Ptk pisze:

          Oczywiście, mózg człowieka bardzo lubi się trzymać pewnych schematów. Często wpadamy w pułapki myślowe, mylimy się robiąc coś automatycznie, bez większego zastanowienia, kierując się bardziej odruchem, jednak jeśli zauważymy swój błąd możemy go szybko poprawić. Dlatego zgadzam się z wpisem użytkownika isana, który podkreśla że mimo istnienia tego “autopilota mózgu”, człowiek jest w stanie myśleć nieszablonowo i oderwać się przy rozwiązywaniu problemu od tych utartych szlaków. Może jednak, śledząc przekonanie o tym że nie jesteśmy aż tak różni od komputera, jest to tylko kwestia tego że algorytmy w naszym mózgu są bardziej rozbudowane niż algorytmy programowane maszynom? Coś co my uznajemy za wyjście poza nasz schemat myślowy, tak naprawdę dla naszego mózgu jest po prostu kolejnym krokiem realizującym ten schemat.
          Jednak do refleksji zmusiło mnie bardziej ostatnie zdanie w Pana wpisie. Czy aby na pewno chcemy porównywać inteligencję maszyny z inteligencją człowieka? Ja skłaniałbym się bardziej do porównywania maszyn między sobą, niż do porównywania ich z człowiekiem który w zależności od ocenianej płaszczyzny może wypaść lepiej, lub gorzej niż one.
          A może, jeśli robimy odrębne testy np IQ człowieka i inteligencji maszyny, należałoby również wprowadzić odrębną skalę dla takiej oceny. Może nie powinniśmy nawet definiować inteligencji maszyny przez pryzmat naszej inteligencji. Na wielu płaszczyznach komputery, zdolne do wykonywania złożonych obliczeń w mgnieniu oka, są w stanie nas prześcignąć, jednak czy to wystarczy by powiedzieć że są prawdziwie (jeśli dobrze Pana zrozumiałam to – “ludzko”) inteligentne? Czy dobrym pomysłem byłoby stworzenie osobnej definicji inteligencji “maszynowej”, która pomijała by na razie kwestie gorzej rozwinięte, a wraz z rozwojem technologii i wzrostem możliwości maszyn byłaby rozwijana, tak samo jak zgodnie z moim poprzednim wpisem, rosłaby ilość testów jakim poddawali byśmy sztuczne inteligencje.

      • AR pisze:

        Też mi się wydaje, że jesteśmy znacznie bliżej komputerów oraz algorytmów niż to się niektórym wydaje. Człowiek, żeby się czegoś nauczyć, musi sam doświadczyć danego zjawiska lub musimy dostać informację z zewnętrznego źródła- książki lub od innego człowieka. Małe dziecko jak się oparzy żelazkiem to się nauczy, że nie powinien tego już więcej robić. Dla mnie mózg działa jak bardzo skomplikowany algorytm, którego jeszcze nie rozumiemy w pełni oraz algorytm pełen błędów. Podobnie działa sztuczna inteligencja, czyli musi dostać wystarczającą ilość informacji, by mógł sobie radzić w przeróżnych sytuacjach i jest to dla mnie tylko kwestia czasu zanim jego możliwości poznawcze/rozumowe będą na takim samym poziomie, a nawet w przyszłości na wyższym poziomie, ponieważ nie będzie miał takich samych ograniczeń jak człowiek. Proces myślowy człowieka jest wypadkową wszystkich zjawisk i doświadczeń jaka dana osoba przeżyła. Każda podejmowana decyzja człowieka jest sumą wszystkiego co mamy w mózgu, podobnie jak sztuczna inteligencja, która działa na podstawie uzyskanych wcześniej informacji. Rzeczy, które wydają nam się że wynikają z naszej inteligencji przyszły do naszego mózgu tak sobie jako przebłysk geniuszu. Wydaje mi się, że dużo informacji/algorytmów w naszym mózgu jest przed nami ukryta i często nie jesteśmy tego świadomi. Nie myślimy, jak mamy iść(która nogę ruszyć itp.) tylko idziemy do przodu, idąc dalej, nie myślimy, który mięsień ruszyć by iść, idąc dalej nie myślimy jak przesłać informację z mózgu do odpowiedniego mięśnia. Dla mnie mózg wykonuje multum analiz, tylko tego nie jesteśmy świadomi. Isana natomiast pisze, że możemy zerwać z jakimś tokiem myślenia i rozważać problem w sposób nietuzinkowy. Pisze tak jakby nagle genialny pomysł znalazł się w naszej głowie. Dla mnie, tak jak pisałem poprzednio, wszystko wynika z informacji, które uzyskaliśmy w przeszłości. W danej chwili, człowiek zdecydował, że zamiast iść opcją A, może jest lepiej pójść opcją B z jakiś konkretnych powodów. Identycznie może zareagować program- nasza sztuczna inteligencja, jeżeli ma wystarczająco informacji. I nie zgadzam się z tym, co pisze Ptk, że tylko człowiek jest wstanie myśleć nieszablonowo i że potrafi oderwać się od utartych szlaków. Prawda jest, że człowiek zawsze próbuje iść najprostszą drogą A, ale jak mu nie wychodzi to pójdzie drogą B w celu rozwiązania problemu. Jeżeli przekażemy odpowiednie informacje oraz wiedzę sztucznej inteligencji, to on też będzie mógł zmienić “tok rozumowania”, jeżeli spotka go taki problem.

  9. km pisze:

    Podobno istnieje poważny test na “inteligencję wizualno-przestrzenną” w której gołębie wypadają znacznie lepiej niż ludzie. Codziennie miliony zwyczajnych komputerów biją na głowę ludzką “inteligencję matematyczną” (różne jej aspekty) – jak inaczej wytłumaczyć popularność arkuszy kalkulacyjnych i matematycznych programów?
    Jest wiele “technicznych” zagadnień właśnie: dotyczących “obróbki” danych językowych, wizualnych, matematyczno-logicznych, muzyczną, w których komputery pokazują “inteligencję” przewyższającą ludzką.
    Nawet w dziedzinie interpersonalnych/psychologicznych aspektów inteligencji choćby konwersatory czy programy służące diagnozie i terapii pacjentów psychiatrycznych/psychologicznych (lepiej sprawiające się często od ludzkich specjalistów – także w ocenie samych pacjentów) świadczą o tym, że korzystając ze “statystycznych” zależności pomiędzy znakami i dysponując dostępem do odpowiedniej bazy danych “da się” manifestować inteligencję nie rozumiejąc “czego się dane tyczą”.
    Dlatego w moim pomyśle nie szło o rozbawienie generowanymi klonami statystycznie rozbawiających ludzi kombinacji znaków a opisanie własnymi słowy znaczeń (od tych humorystycznych do tragicznych) które pojawiły się w historii testującego. Niewiele innego zwykle jest w stanie “poradzić” przyjaciel słysząc naszą historię – pokazuje oznaki zrozumienia naszej sytuacji, stara się zrozumieć motywację poszczególnych postaci historii – dając nam odczucie współodczuwania i wspólnoty w stadzie.
    To także działanie “algorytmiczne” i “techniczne” (chodzi o naukę i przetrwanie w grupie, sprawdzenie czy się rozumie sytuację: by w razie realnego testu okazać zdolność działania zgodnego z właściwą – najbardziej inteligentną/racjonalną – regułą) – ale na innym poziomie. Innym poziomie rozumienia bo reprezentacje znaczeniowe przetwarzanych (w rozmowie) znaków nie składają się z w/w relacji pomiędzy znakami bazie danych (w tym zapisanych rozmowach).
    Nie twierdzę że potrzebne jest tu ucieleśnienie i uspołecznienie maszyny by mogła dać dowód inteligentnego wglądu/rozumienia. Chodzi mi o okazanie zrozumienia kontekstu (bardziej o humor sytucyjny niż słowny) – jeśli maszyna wytłumaczy zrozumiałe dlaczego ktoś zachował się tak a nie inaczej, czy domyśli się reakcji bohaterów opowieści – “powie mi” co mogłem chcieć zrobić w opisanej sytuacji i dlaczego – da niezły dowód inteligencji o jaką (mi) chodzi.

  10. Piotr Kałowski pisze:

    Sztuczna inteligencja, jakkolwiek by to nie brzmiało, została stworzona przez człowieka. Wszystkie decyzje robotów obdarzonych, tzw. “sztuczną inteligencją”, są podejmowane na podstawie analizy danych, której algorytm został zaprojektowany przez kogoś z nas. Z pomocą technik wizyjnych, analizy barwy głosu i tym podobnych parametrów sztuczna inteligencja może określić nawet nastrój swojego rozmówcy. Zdaje się, że jest to dość proste, ale za każdą taką analizą stoi grono ludzi: tych analizujących zachowania ludzkie i przypisujące im odpowiednie stany emocjonalne oraz tych, którzy na tej podstawie tworzą odpowiednie oprogramowanie.
    W tym wszystkim trzeba zwrócić jednak uwagę na jeden aspekt: nieprzewidywalność natury ludzkiej, ale także otaczającego nas świata. Niejednokrotnie można się było przekonać, że sztuczna inteligencja, nawet najbardziej wysublimowana, ma duże problemy z zagadnieniami czy pytaniami, które wymagają inteligencji na poziomie ludzkim. Można to dostrzec chociażby na przykładzie samolotów pasażerskich. Są one wyposażone w zaawansowane systemy bezpieczeństwa, rozbudowane pod względem funkcjonalności moduły autopilota, a mimo to czasem sztuczna inteligencja w nich zaimplementowana prowadzi do tragedii. Przykładem tutaj może być sytuacja z Boeingami 737 MAX, które były uziemione po wykryciu wadliwego działania jednego z systemów (w określonych warunkach, których nie przewidziano na etapie tworzenia systemu), co doprowadziło chociażby do katastrofy lotu Ethiopian Airlines 302. Oczywiście, ludzie za sterami samolotów również podejmują błędne decyzje prowadzące do katastrof. Można zauważyć jednak pewną różnicę w błędnych działaniach pilotów w stosunku do przytoczonego przykładu Boeingów – sztuczna inteligencja nie bierze pod uwagę faktu, że niejako odpowiada za życie 100 czy 200 osób – nie czuje związanej z tym presji. Ponadto opiera się jedynie na odczytach z czujników, sensorów, które mogą działać wadliwie, a system nie jest w stanie za pomocą zmysłów rozpoznać sytuacji.
    Wszystko to prowadzi mnie do konkluzji, że Test Turinga jest na tę chwilę wystarczający do określenia czy mamy do czynienia z robotem czy też z człowiekiem. Jego wadą jest jednak, że jedynie oceniamy kto jest naszym rozmówcą, a twórcy oprogramowania sztucznej inteligencji dążą do oszukania arbitrów, tak by ci uznali maszynę za człowieka. Oznacza to, że Test Turinga nie daje odpowiedzi na pytanie na ile inteligentny jest dany robot, nawet w przypadku gdyby robot taki test przeszedł. Moim zdaniem jednak sztuczna inteligencja polega na tym, żeby zastąpić człowieka tam, gdzie występuje mała szansa na zjawiska nieprzewidywalne lub gdzie należy opierać się jedynie na suchych danych z pomiarów. To prowadzi mnie do stwierdzenia, że określanie poziomu inteligencji tak zwanej “sztucznej inteligencji” jest bezcelowe, szczególnie że tak naprawdę za jej stworzeniem stoi człowiek i jego inteligencja.

    • Cave Johnson pisze:

      Chciałbym odnieść się do końcowego stwierdzenia, mówiącego o tym, że sztuczna inteligencja, jak rozumiem, powinna mieć swoje miejsce raczej w sferach, w których występują przewidywalne warunki, lub sytuacjach wymagających jedynie suchej analizy danych. Jako że dobrą praktyką jest wątpić, zastanawia mnie czy to założenie może być słuszne z dłuższej perspektywy czasu. Jeśli chcieć tu podać za dowód ludzką umiejętność do “abstrakcyjnego myślenia” której SI (obecnie) nie posiada, to czy sama owa umiejętność jest rzeczywiście czymś wrodzonym i wyjątkowym czy może jednak ludzkie abstrakcyjne myślenie opiera się na doświadczeniach i obserwacjach z przeszłości oraz ewentualnie reakcjach chemicznych ciała na dane bodźce, które sterują naszym mózgiem? Jeśli okazałoby się to bliskie prawdzie, to zauważam tutaj potencjalną możliwość opisania tego “ludzkiego systemu” w języku umożliwiającym jego implementację w systemie komputerowym. Czy w takim przypadku możnaby mówić o SI posiadającym coś w rodzaju intuicji?

      Nie zgodzę się za to z stwierdzeniem, że badanie SI i jej poziomu inteligencji jest bezcelowe. Uważam że jest to mimo wszystko bardzo istotna i ciekawa gałąź nauki i rozwoju technicznego, ponieważ rozwój SI może pomóc samej ludzkości w rozwiązaniu problemów, których sami nie jesteśmy w stanie rozwiązać choćby w związku z ograniczeniami czysto biologicznymi. Istnieje też zauważalna liczba głosów ostrzegających ludzkość przed SI i w takim przypadku testy jakimi są poddawane mogą być narzędziem do ochrony ludzi przed zagrożeniami, nawet tak trywialnymi jak próby manipulacji czy wyłudzeń kierowane przez hipotetyczną SI o dużych zdolnościach manipulacyjnych. Znajomość pułapek, w jakie można “wpędzić” sztuczną inteligencję, stałoby się dla ludzi zabezpieczeniem przed nieprzewidzianymi konsekwencjami rozwoju tej gałęzi nauki.

    • Paweł Stacewicz pisze:

      Pan Piotr Kałowski napisał:

      — określanie poziomu inteligencji tak zwanej “sztucznej inteligencji” jest bezcelowe, szczególnie że tak naprawdę za jej stworzeniem stoi człowiek i jego inteligencja.

      Ciekaw jestem, czy inni dyskutanci tak gładko zgodzą się na tezę, że jeśli ktoś stworzył pewien system i zainicjował jego działanie, to ów system z konieczności nie będzie mógł wykonać/osiągnąć niczego, czego nie przewidział i ne zaplanował jego twórca. Że ów system nie będzie w stanie korzystać z własnych doswiadczeń. Że nie będzie w stanie modyfikować swojego programu. Że wszelka poznawcza i praktyczna autonomia (względem twórcy) jest dlań z konieczności nieosiągalna…

  11. Marta Zawadzka pisze:

    Test Turinga jest testem, który daje nam informację zwrotną na temat sztucznej inteligencji. Sama techniczna wartość tej informacji być może nie jest powalająca. Testowi Turinga rzeczywiście jak wspomniał wyżej Daniel Kwaśniak można zarzucić przestarzałość. Można mu zarzucić też pomijanie wielu istotnych czynników, ale to wydaje się być oczywiste.

    Wydaje mi się, że bardziej wartościowe byłoby skierowanie uwagi na przeprowadzanie testów na sztuczną inteligencję, które będą doskonalsze od testu Turinga. Test Turinga powinien stanowić inspirację do tworzenia bardziej zaawansowanych rozwiązań. Mógłby być pewną bazą, do której dodajemy kolejne komponenty tworzące coraz to lepsze rozwiązania.

    Uważam, że nie warto oceniać testu Turinga zero-jedynkowo. Wiadomo nie od dziś, że test ten ma swoje luki i niedoskonałości, dlatego można bez wątpienia stwierdzić, że nie jest wystarczającym kryterium oceny sztucznej inteligencji. Bardziej rozsądnym podejściem wydaje się regularne powracanie do niego, co byłoby powrotem do korzeni gdy jest to potrzebne. Ważne jest zrozumienie, że początki bywają obarczone wieloma błędami. Później te błędy mogą wydawać się nam nawet absurdalne, ale to nie powinno umniejszać ich wartości. Na błędach się uczymy, dlatego samo popełnianie ich nie powinno być aż tak bardzo demonizowane. Ważniejsze jest wyciągnięcie wniosków i sprawna korekcja błędów.

    Być może kiedyś ktoś udowodni że jest inaczej, ale wydaje mi się, że niemożliwym jest stworzenie czegoś doskonałego ot tak, bez przygotowania i bez kilku (lub więcej niż kilku) wpadek.

    Moim zdaniem powinniśmy przede wszystkim próbować nowych rozwiązań nawet jeśli okażą się nie do końca właściwymi. O tym akurat dowiemy się po wypróbowaniu ich, ale najważniejszym jest by wyciągać wnioski ze swoich działań i robić z nich realny użytek.

    • Piotr Kałowski pisze:

      Uważam, że w Twojej opinii jest wiele racji. Chciałbym jednakże przy tym dodać kilka, moim zdaniem, istotnych kwestii do Twoich rozważań.

      Oczywiście test Turinga powinien być inspiracją do tworzenia nowych, lepszych testów. Tutaj należy się zastanowić nad tym jak utrudnić twórcom sztucznej inteligencji “oszukanie” testu. Trzeba dążyć do stworzenia testu, który powinien potwierdzać zdolność do radzenia sobie w sytuacjach niespodziewanych. Oczywiście trwają prace nad sztuczną inteligencją w kierunku rozwoju możliwości analizy różnych sytuacji i przynoszą coraz to nowe efekty. Oznacza to, że ludzie starają się “nauczyć” roboty radzenia sobie w sytuacjach, których nawet twórcy się nie spodziewają. Efekty tych prac nie są obecnie znane, ale uważam, że już niedługo możemy obserwować tak rozwiniętą sztuczną inteligencję.

      Tak wspomniany rozwój sztucznej inteligencji może skutkować nad pracami nie tylko nad oceną czy dany rozmówca jest robotem czy człowiekiem (tak jak przewiduje to test Turinga). Należy się zastanowić nad pewnymi sposobami określania poziomu inteligencji takich robotów – nie względem ludzi, ale w nowej skali. Jej opracowanie byłoby cenną informacją na temat rozwoju techniki.

      Na koniec chciałbym zaznaczyć, że za każdym robotem, sztuczną inteligencją stoi człowiek. Tylko od tego człowieka (lub inaczej – tych ludzi, którzy za sztuczną inteligencją stoją) zależy czy sztuczna inteligencja spowoduje, że test Turinga stanie się kompletnie nieaktualny.

      • Paweł Stacewicz pisze:

        — Trzeba dążyć do stworzenia testu, który powinien potwierdzać zdolność do radzenia sobie w sytuacjach niespodziewanych.

        Zgadzam się. Idea oryginalnego TT nie wyklucz tego, bo nie wyklucza, iż pytania zadawane maszynie będą dla niej niespodziewane. Rozmowa może toczyć się na dowolny temat.

        — ludzie starają się “nauczyć” roboty radzenia sobie w sytuacjach, których nawet twórcy się nie spodziewają

        Czy nie dopuszcza Pan takiego scenariusza rozwoju systemów informatycznych, w którym będą on działać nie tylko w sposób sztywno narzucony przez nauczyciela, lecz uzyskają jakiś rodzaj swobody, autonomii? Będą uczyć się samodzielnie, na podstawie własnych doświadczeń; być może też będą wytwarzać nowe schematy uczenia się…
        Co o tym sądzą inni? Czy da się wskazać rozwiązania czyniące taki scenariusz prawdopodobnym?

  12. Wenus pisze:

    Uważam, że w dzisiejszych czasach analizowanie skuteczności Testu Turinga mija się z celem.

    TT został opracowany w 1950 roku. Rozwój technologii nie pozwalał wtedy na utworzenie systemu, który w czasie rzeczywistym potrafiłby “udawać” człowieka. Moim zdaniem Turing wymyślił test jako definicję celu tworzenia maszyn inteligentnych, którego wtedy nie dało się zrealizować, ale który był wspaniałą wizją, do której można dążyć. Był to, swoją drogą, świetny pomysł, aby w prosty sposób, zrozumiały dla wszystkich, opisać cel w tak skomplikowanej materii.

    W dzisiejszych czasach istnieją rozwiązania przewyższające człowieka w większości dziedzin. SI potrafi wygrać w szachy z najlepszym szachistą świata, nie mówiąc o szybkości wyliczeń matematycznych. Zasadnym jest zatem pytanie nie o to czy SI jest tak inteligentna jak człowiek, ale czy człowiek jest w stanie dorównać SI. “Przeciętny” człowiek, w odróżnieniu od SI, popełnia często te same błędy zaprzeczając tezie o tym, że inteligencja oznacza zdolność uczenia się. Badanie czy maszyna jest w stanie naśladować takie “człowieczeństwo” mija się zatem z celem, bo twórcom zależałoby, aby je przewyższała.

    Testy na inteligencję człowieka badają ją wyłącznie w określonych dziedzinach, np. egzamin na prawo jazdy weryfikuje wiedzę na temat przepisów ruchu drogowego z inteligencją wykorzystania jej w konkretnych sytuacjach na drodze oraz manualną sprawność kierowania samochodem. Test SI w takim obszarze musiałby odbywać się w podobny sposób, ale przecież już dzisiaj są przykłady autonomicznych pojazdów poruszających się w ruchu ulicznym bez kierowcy. Twórcom SI zależeć będzie na tym, aby przewyższyć możliwości człowieka i wkrótce to ludzie zostaną z roli kierowcy wyeliminowani, ponieważ szybciej się męczą i ulegają emocjom wpływającym na jakość prowadzenia samochodu. Test sprawdzający czy automatyczny kierowca może “udawać” człowieka jest w tym kontekście po prostu przestarzały.

  13. Adam Solawa pisze:

    Zgadzam się z poprzednimi opiniami iż nie jest możliwe definitywne ocenienie inteligencji na podstawie jednego testu. Aby ocenić inteligencje powinna być znaczna grupa komplementarnych testów oceniających inteligencje w różnych dziedzinach. Jeżeli zaś chodzi o test Turinga uważam iż w tamtych czasach mógł być przez ludzi postrzeganych jak pewien dowód inteligencji maszyny, lecz obecnie można dostrzec iż ten test bardziej weryfikuje sprawność maszyny dotyczącą przetwarzania języka naturalnego, co według mnie ciężko uznać za inteligencję. Jest wiele dziedzin w których używamy automatów, w każdym z nich automat stara się zoptymalizować metrykę dla danego problemu. Brakuje w takim procesie myślenia. Moim zdaniem aby ocenić inteligencje powinniśmy zrezygnować ze sztywno określonych metryk które prędzej czy później automat będzie w stanie zoptymalizować do zadziwiającego dla ludzi stopnia, lecz pozostawienie automatu samemu sobie i przyglądanie się co będzie w stanie stworzyć bez z góry określonych wymagań.

  14. isana pisze:

    Również uważam, ze test Turinga pomija wiele istotnych kwestii podczas badania jej inteligencji, jednak żaden test nie jest w stanie zbadać każdego aspektu “rozumowania” maszyny. Jednocześnie zgadzam się z przedmówcami, że test Turinga powinien stanowić bazę do przyszłych, bardziej rozbudowanych testów jednak nie wydaje mi się, że należy zwracać w nich uwagę na odpowiedzi maszyny. Moim zdaniem za inteligencję maszyny odpowiada również umiejętność rozumienia ludzkich uczuć i wykorzystywania ich w odpowiednich sytuacjach. Dlatego myślę, że ważniejsze od treści wypowiedzi jest sposób w jaki ją uzyskaliśmy. Przykładem tego może być czas po jakiej otrzymaliśmy odpowiedź, to czy i jakie emocje możemy z niej wyczytać, to czy ta druga strona umie dostosować się do rozmówcy między innymi pod względem słownictwa, czy też pisowni. Ważne wydaje mi się również część odpowiedzi nie związana bezpośrednio z pytaniem. Na przykład czy przy pytaniu, na które ludziom ciężko byłoby odpowiedzieć, albo czuliby zmieszanie, to czy maszyna potrafiłaby w jakiś sposób uniknąć odpowiedzi i czy wiedziałaby jakie tematy dla zwykłych ludzi są “niewygodne”.

    Zastanawia mnie też, czy inteligentne maszyny wiedziałyby co je wyróżnia od ludzi i czy potrafiłyby to zamaskować podobnie jak w powyższym, uproszczonym przykładzie kobiety mówiącej o krótko ściętych włosach, by ciężej byłoby ją odróżnić od mężczyzny. Wymagałoby to od niej olbrzymiej wiedzy na temat natury ludzkiej, co według mnie również może świadczyć o poziomie jej inteligencji.

  15. Martyna Gruszczyńska pisze:

    Na wstępie odniosę się do pojęcia inteligencji. Moje postrzeganie utożsamia się z teorią inteligencji wielorakiej opracowanej przez Howarda Gardnera. Koncepcja ta zakłada, że inteligencja nie jest jedną właściwością, która opisuje możliwości człowieka w zakresie aktywności intelektualnej, ale istnieje kilka rodzajów inteligencji w zależności od tego, o jaki rodzaj aktywności chodzi.
    Odnosząc się do testowania systemów informatycznych pod kątem inteligencji, zgadzam się z większością uczestników dyskusji. Uważam, że Test Turinga powinien stanowić część szukanego testu, który należałoby rozszerzyć innymi testami, sprawdzającymi inne umiejętności. Test Turinga skupia się na zdolności do rozmowy przez co zawęża pojęcie inteligencji oraz skłania twórców do koncentrowania się na tej konkretnej umiejętności. Czymś innym będzie udział w konwersacji z kilkoma osobami, gdzie liczy się umiejętność odnalezienia się w sytuacji, zrozumienie drugiej osoby a nawet szybkość odpowiedzi. Jak w takiej sytuacji poradziłaby sobie maszyna?
    Zauważamy zatem potrzebę tworzenia innych testów skupiających się na różnych cechach, którymi charakteryzuje się inteligencja. Można skupić się na przyjmowaniu czyjejś perspektywy i rozumieniu czyjeś intencji poprzez rozumienie innych istot i uświadomienie sobie, że mają umysły, dzięki którym mogą mieć inną wiedzę o otaczającym świecie. Idealnie opisuje to cytat „Punkt widzenia zależy od punktu siedzenia”.
    Ciekawym pomysłem wydaje się być również idea naukowców z Uniwersytetu Stanforda, którzy stworzyli nowy algorytm o nazwie Atom2Vec, który samodzielnie odkrył okresowy układ pierwiastków. Ich zdaniem wartość sztucznej inteligencji określałaby liczba dokonanych przez nią odkryć.
    Znalezienie odpowiedniego testu wydaje się bardzo trudnym zadaniem, o ile jest ono możliwe do zrealizowania. Oczywiście należy te testy rozwijać i stawiać poprzeczkę coraz wyżej. Jednakże, według mnie, nie powinniśmy się skupiać na stworzeniu jednego miarodajnego testu, lecz należałoby zająć się opracowaniem wielu testów sprawdzających różne aspekty inteligencji.

  16. Roman Uhera pisze:

    Na początku chciałem podkreślić, że całkowicie zgadzam się z osobami, które wcześniej umieściły tutaj swoje komentarze na temat wpływu testów na rozwój sztucznej inteligencji – wraz z rozwojem „poziomu trudności” testu, zwiększają się wymagania co do SI, a więc również sam poziom zaawansowania technicznego maszyn.

    W mojej opinii, choć troszkę przestarzały, test Turinga bardzo dobrze radzi sobie z testowaniem inteligencji maszyn, rozumianej w postaci ludzkiej. Wykorzystuje on pewną analogię do życia codziennego – tutaj też bardzo często oceniamy inteligencję innych osób poprzez rozmowę z nimi. Zakładając więc, że maszynie uda się przejść test Turinga, możemy stwierdzić, że posiada ona „ludzką inteligencję”.

    Z drugiej strony, czy naprawdę jedyną możliwą postacią inteligencji jest ta posiadana przez człowieka? Czy nie lepszą drogą dla rozwoju SI będzie „inteligencja maszynowa”? Już w dzisiejszych czasach powszechna jest sytuacja gdy maszyny są lepsze od człowieka w wielu dziedzinach wymagających myślenia (wspomniane już wcześniej szachy), a nawet całkowicie zastępują nas w wielu czynnościach. Czy w takim przypadku uzależnianie rozwoju SI od pozytywnego wyniku testu Turinga nie jest w pewien sposób krokiem w tył? Moim zdaniem optymalną drogą dla rozwoju SI jest rezygnacja z prób udawania człowieka przez maszynę – bo do tego moim zdaniem sprowadza się test Turinga – oraz rozróżnienia dwóch pojęć – inteligencji ludzkiej oraz maszynowej. Tylko w takim przypadku ludzkość będzie w stanie wykorzystać pełen potencjał SI, a nie ograniczać go poprzez tworzenie jej na swoje podobieństwo.

    Mimo wszystko nie należy jednak rezygnować z różnego rodzaju testów – jak pisałem na początku pozwalają one na ciągły rozwój SI. Jednocześnie, moim zdaniem powinny się one skupić na inteligencji maszynowej , odrzucając kryterium podobieństwa do człowieka. W mojej opinii niektórych różnic między procesorami i kartami głównymi a mózgiem i synapsami raczej nigdy nie uda nam się usunąć, nie powinniśmy więc wymagać, żeby ich „myślenie” było takie samo, co jednak nie będzie oznaczać że sama inteligencja maszyn nie istnieje.

  17. Jakub Modzelewski pisze:

    Przeprowadzanie kolejnych testów Turinga spowoduje, iż testowana maszyna nauczy się te testy zaliczać – zacznie wyrażać emocje, zastanawiać się nad rozwiązaniem problemu, udzielać błędnych odpowiedzi lub na zbyt trudne pytanie odpowie po prostu ,,nie wiem”.
    Ale czyż emocje nie zostaną jedynie zasymulowane w celu pozostania niewykrytym? Czy proces ,,myślenia” i zastanawiania się nad odpowiedzią nie będzie się równał z oszacowaniem, ile czasu na rozwiązanie problemu potrzebowałby człowiek i przeczekanie tego czasu z gotową odpowiedzią?
    Maszyna spróbuje się dostosować do testu, jaki zostanie przed nią postawiony, choćby nawet przerastała jego poziom. Dlatego moim zdaniem niemożliwym jest zbadanie inteligencji maszyny za pomocą wcześniej zaplanowanego testu – potrzeba nam tutaj testu, którego maszyna nie mogłaby się nauczyć – czegoś niemierzalnego, niemożliwego do wyrażenia za pomocą algorytmu. Być może spontaniczny, losowy i niezaplanowany test mógłby wykryć niedoskonałości sztucznej inteligencji i ,,złamać ją”, udowadniając, że nie jest ona równa człowiekowi.
    Jedną z cech ludzkiej inteligencji jest umiejętność radzenia sobie z niespodziewanymi, nie branymi pod uwagę sytuacjami – jeśli maszyna miałaby poradzić sobie z takim problemem, musiałaby albo już wcześniej z czymś takim się spotkać (co odrzucamy, bo w końcu mówimy o spontanicznym teście) albo zebrać informacje ,,składowe problemu” i samodzielnie wytworzyć rozwiązanie. Czy wewnętrzne algorytmy SI będą w stanie rozwiązać każdy spontaniczny test? Tutaj zgadzam się z hipotezą Pana Oskara Wernera, która mówi, że nie istnieje wystarczająca ilość testów żeby to sprawdzić.

    Tak więc moim skromnym zdaniem sam test Turinga to stanowczo za mało, żeby zbadać inteligencję maszyny – w pewnym momencie jej wiedza przerośnie wiedzę pojedynczego człowieka, co umożliwi jej skuteczne ,,udawanie” – ale samo udawanie nie uczyni inteligencji maszyny równej człowiekowi.

    • Paweł Stacewicz pisze:

      — potrzeba nam tutaj testu, którego maszyna nie mogłaby się nauczyć…

      To spostrzeżenie nie wykracza poza oryginalny zamysł Turinga: rozmowa z maszyną może dotyczyć dowolnych, niespodziewanych, spontanicznie wprowadzanych do rozmowy tematów.

      Czy mógłby Pan doprecyzować, na czym miałby polegać “Pana” spontaniczny test i w jakim sensie byłby wzmocnieniem TT lub alternatywą dla TT.

      — samo udawanie nie uczyni inteligencji maszyny równej człowiekowi…

      Czy macie Państwo jakieś pomysły na sprawdzanie, czy maszyna nie “udaje”? Co to w ogóle znaczy, że “udaje”?

      • Jakub Modzelewski pisze:

        Udawanie, na przykład emocji, przez maszynę, to w moim rozumieniu pokazywanie ich odbiorcy bez rozumienia ich istoty. Na podstawie przykładu z dodawaniem dwóch liczb – czy maszyna faktycznie zastanawia się nad odpowiedzią, czy odgórnie ją zna? Raczej to drugie – to jest właśnie ,,udawanie” myślenia człowieka.

        Poprzez spontaniczny test mam na myśli taki, który wymaga czegoś więcej niż rozmowy na określony temat czy też odpowiedzi na pytanie – najlepszym pomysłem jaki przychodzi mi do głowy jest test, do którego zaliczenia potrzeba pewnego rodzaju instynktu – czegoś, czego człowiek sam w sobie nie musi się uczyć, lecz instynktownie podąża ku dobremu rozwiązaniu. Często wiąże się to z umiejętnościami manualnymi, takimi jak odruch cofania ręki po ukłuciu. Lepszym przykładem jest jednak instynkt samozachowawczy – czy maszyna może poczuć jakąkolwiek chęć przetrwania? Jeśli testem byłaby próba zniszczenia maszyny, to dlaczego miałaby się bronić? Nie posiada przecież ciała, które by ją bolało podczas uderzenia, tylko hardware. Taki test byłby według mnie świetnym uzupełnieniem TT.

  18. Roberto Del Giudice pisze:

    Test Turinga jest już dość przestarzałą formą weryfikacji. Na ten moment, sztuczna inteligencja jest w stanie oszukać rozmówcę układając sensowne oraz inteligentnie brzmiące zdania. Uważam jednak, że formułę testu Turinga da się rozbudować.

    Moją propozycją jest dodanie kilku dodatkowych sprawdzianów. Kilka z tych pomysłów pojawiło się już wyżej, uważam że są bardzo dobrym dodatkiem. Poniżej przedstawię ogólną formułę odświeżonego testu:

    1. Zwyczajna rozmowa na dowolny temat, czyli obecny wygląd testu Turinga. Uważam że jest to dobra faza początkowa, która pozwoli wyeliminować mniej wyrafinowane sztuczne inteligencje.
    2. Opowiedzenie historii przez badaną maszynę. Jak wyżej zostało przez Państwa wspomniane, powinna to być jakaś historia emocjonalna, opowiadająca o przeżyciach osoby opowiadającej. Ten krok, choć trudniejszy do sfałszowania, wciąż może być niewystarczający do podjęcia jednoznacznej decyzji.
    3. Tu w przeciwieństwie do punktu 2, to badanemu opowiadania jest pewna historia, po czym jest on pytany o sformułowanie opinii o tej opowieści. Moim zdaniem formułowanie opinii jest ważną cechą, która w tym momencie odróżnia nas od sztucznej inteligencji. Opowieść powinna być emocjonalna, podobnie jak w punkcie 2. Taki test jest już cięższy do oszukania zwyczajnym algorytmem w porównaniu do poprzednich dwóch punktów.
    4. Narysowanie czegoś odwołującego się do poprzednich trzech punktów. Nie każdy człowiek jest uzdolniony artystycznie, ale uważam że każdy byłby w stanie utworzyć prosty rysunek przedstawiający przemyślenia na temat przeprowadzanej rozmowy. Rysunek powinien mieć dołączony krótki opis, w którym zawarte jest, do czego odnosi się dzieło.

    Jeżeli jakakolwiek maszyna da radę oszukać człowieka w powyżej przedstawionych testach, to niewiele będzie nas od niej dzielić. Uważam że nasze emocje oraz umiejętność formowania opinii jest wyróżniającym nas czynnikiem w porównaniu do programu komputerowego.

    Chciałbym poruszyć jeszcze jedną kwestię: czy jeżeli sztuczna inteligencja będzie w stanie oszukać człowieka w każdym aspekcie, to czy jest ona nową formą inteligentnego życia? Czy taka maszyna, mająca zaprogramowane emocje, zdolności językowe, matematyczne, artystyczne (itd.) będzie nosiła miano człowieka? Czy jest to w ogóle etyczne stworzyć istotę, która umysłowo jest niemal identyczna do człowieka? Chociaż możliwe, że są to zagadnienia bardziej odpowiednie na środową dyskusję…

  19. AR pisze:

    Mam wrażenie, że przeprowadzana dyskusja skupia się na bardzo małym kawałku sztucznej inteligencji oraz jej identyfikacji. Cały czas poruszamy temat tylko sztucznej inteligencji, która ma imitować ludzkie zachowania i udawać, że jest człowiekiem. Jak wiadomo człowiek jest bytem nieidealnym. Podczas wykonywania wszystkich czynności popełniamy większe czy to mniejsze błędy. Taka sztuczna inteligencja musiałaby udawać, że również wykonuje owe, co jest totalnie bezużyteczne w niemal każdym kontekście. Celem sztucznej inteligencji oraz innych maszyn wcale nie jest dogonienie człowieka, tylko go prześcignięcie. Możemy spojrzeć na wszystkie elementy wokół nas stworzone przez ludzi i ich celem jest zastąpienie i/lub ułatwienie ludziom funkcjonowania. Zazwyczaj te przedmioty na samym początku przejmują nasze zadania i wykonują je minimalnie gorzej lub w takim samym stopniu. Kolejnym etapem jest ulepszenie owych urządzeń, by wykonywały one czynności lepiej/szybciej lub nawet uzyskują możliwości nieosiągalne przez człowieka. Spójrzmy przykładowo na jakieś dowolne maszyny obróbcze. Na samym początku mieliśmy proste narzędzia, dzięki którym wykonywaliśmy obiekt, następnie zaczynały pojawiać się maszyny, które zaczęły wykonywać te same czynności co człowiek, ale z większą dokładnością oraz szybkością, ale z pomocą dokładnej pomocy człowieka. Najnowszym etapem jest wytwarzanie elementów z jak najmniejszym zaangażowaniem człowieka. Wracając do początku, celem większości sztucznych inteligencji wcale nie jest dorównanie człowiekowi, tylko go prześcignięcie. Z definicji sztucznej inteligencji- „dział informatyki, zajmujący się tworzeniem modeli zachowań inteligentnych oraz programów i systemów symulujących te zachowania.”, natomiast sama inteligencja to „zdolność do postrzegania, analizy i adaptacji od zmian otoczenia” ~definicje z Wikipedii. Jak widzimy, większość współczesnych systemów sztucznej inteligencji jest inteligenta, ponieważ potrafi reagować na otoczenie. Pytanie jest teraz na jakim etapie jest rozwój sztucznej inteligencji. Jest ona jeszcze w bardzo wczesnym etapie rozwoju i prędzej czy później dojdzie do takiego momentu, że będzie równa człowiekowi, a nawet kiedyś go prześcignie. Oczywiście określenie etapu, w którym, kiedy maszyna jest równa człowiekowi będzie niewiarygodnie trudne, ponieważ zarówno człowiek jak i sztuczna inteligencja mają swoje wady- człowiek myśli i analizuje znacznie wolniej, ale za to jest wstanie zareagować na większość czynników, a komputer odwrotnie oraz ma niemal nieograniczoną liczbę faktów – Internet (w teraźniejszości). W moim postrzeganiu człowiek ma wady, których nigdy nie prześcignie (chyba, że zaczniemy jako społeczeństwo stosować z modyfikacji genetycznych oraz implantów), a sztuczna inteligencja ma owe wady znacznie mniejsze, ale jeszcze nie jest wystarczająco nauczona (kwestia czasu). Osobiście nie widzę sensu przeprowadzania testów na sztucznej inteligencji, w których porównujemy człowieka z nią, ponieważ ich zadaniem wcale nie jest bycie takim jak my. Inteligencja maszyn różni się diametralnie od ludzkiej. Załóżmy jednak, że mamy bardzo specyficzny rodzaj sztucznej inteligencji, który ma przypominać człowieka. Być może istnieje wiele testów, które pomagają rozróżnić człowieka od maszyny, ale to jest kwestia czasu zanim się one nie przedawnią. Sztuczna inteligencja rozwija się z ogromną prędkością i będzie się rozwijała coraz szybciej. Wydaje mi się osobiście, że już obecnie by się udało zrobić robota, który byłby nierozróżnialny od człowieka (pod względem rozumowym), ale zastosowanie czegoś takiego, co celowo jest wypchane wadami podobnymi do ludzkich jest minimalne. Zastosowanie takiego systemu na przykład do czatowania z komputerem jest po prostu głupie, ponieważ niekoniecznie zależy nam na tym, żeby czekać przez pewien czas jak odpisze, lub popełni jakieś błędy składniowe/gramatyczne czy inne. Test Turinga sprawdza tylko, czy sztuczna inteligencja posiada wady takie jak człowiek, a nie czy faktycznie jest inteligentna (przypominam definicję z wcześniej „zdolność do postrzegania, analizy i adaptacji od zmian otoczenia”). Podsumowując, uważam, że inteligencja sztucznej inteligencji oraz inteligencja ludzka jest czymś innym i nie da się ich tak o porównać. Są to odrębne rzeczy o innych cechach i o innych celach. Sztuczna inteligencja nie dąży do bycia człowiekiem, lecz dąży do perfekcyjności.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *