Czy maszyny mogą stać się prawdziwie inteligentne?

O tym, że sztuczna inteligencja istnieje – z naciskiem na odnoszące do informatyki słowo “sztuczna” – nie trzeba nikogo przekonywać.
Istnieje ona pod postacią zaawansowanych programów komputerowych, które potrafią rozpoznawać złożone obiekty (np. ludzkie twarze), prowadzić niezawodne wnioskowania (np. matematyczne) i uczyć się w interakcji z otoczeniem (co czynią np. sztuczne sieci neuronowe)…

W tytule obecnego wpisu widnieje jednak termin „prawdziwa inteligencja”, który należałoby odnieść do najbardziej wyrafinowanej formy inteligencji, jaką znamy z natury, a więc inteligencji ludzkiej.
Czy maszyny mogą zatem dorównać ludziom – o których wiemy, że nie tylko potrafią coś automatycznie rozpoznać czy mechanicznie wywnioskować, ale niemal zawsze, z natury rzeczy, czynią to ze zrozumieniem. Mało tego, nie na tym tylko polega ich siła, że rozwiązują problemy, lecz na tym, że je dostrzegają i stawiają.

Podobną dyskusję prowadziliśmy już wcześniej, pod nagłówkiem Turing czy Searle?, odwołując się zatem do poglądów dwóch pionierów debaty nad hipotetycznym myśleniem maszyn.

Obecna dyskusja może iść zarówno tym dawnym tropem, jak też poruszać nowe wątki.
Podobnie jak poprzednio jej podstawą proponuję uczynić arcyciekawy tekst Turinga, w którym znajdziemy ideę testu na inteligencję maszyn (tzw. testu Turinga), popularny opis pierwszych maszyn cyfrowych oraz różne argumenty na rzecz możności zaistnienia maszyn inteligentnych (szerzej: myślących).
Właśnie do tych argumentów, zawartych w szóstym rozdziale artykułu, proponuję tutaj nawiązywać.

Podaję link do wspomnianego tekstu:
♦   Alan Turing: “Maszyny liczące a inteligencja”.

I otwieram nową dyskusję, licząc na ciekawe i wchodzące w żywą interakcję głosy…

Ten wpis został opublikowany w kategorii Dydaktyka logiki i filozofii, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

41 Responses to Czy maszyny mogą stać się prawdziwie inteligentne?

  1. Jakub Kajzer pisze:

    Możliwe że nie będzie to możliwe, aby zbudować prawdziwą inteligencje, gdyż może tak być, że taka inteligencja potrzebuje niesamowicie dużej mocy obliczeniowej, gdyż zauważmy, że sztuczna inteligencja potrafi tylko małe części “pełnej” inteligencji.

    • Jan Kager pisze:

      Zauważmy też, że ludzie zbyt dużej mocy obliczeniowej nie posiadają, a przecież myślą. Ograniczenia SI wynikają raczej z niedostatecznej złożoności algorytmu niż hardware’u. Maszyny mają tą zaletę, że można ich zasoby, przynajmniej w teorii, dowolnie rozszerzać.

      • Piotr Czubak pisze:

        Uważam, że Pańskie pierwsze stwierdzenie jest kwestią sporną – zależy co uznamy za “dużą moc obliczeniową”. Zgodnie z (http://webhome.phy.duke.edu/~hsg/363/table-images/brain-vs-computer.html) mózg dorosłego człowieka przeprowadza około 10^15 operacji logicznych na sekundę. W przywołanym źródle pokazano, że wartość ta jest porównywalna z możliwościami obecnych superkomputerów. W związku z tym wydaje mi się, że ludzkie mózgi mają ogromną moc obliczeniową, tym bardziej jeśli spojrzymy czysto na przywołaną liczbę.

        Natomiast jeśli chodzi o “złożoność algorytmu”, to się zgadzam. Co więcej, problemem jest “optymalizacja działania”. W przytoczonym przeze mnie tekście porównano mózg z superkomputerem o podobnej mocy obliczeniowej pod kątem fizycznie zajmowanego miejsca i poboru energii. Superkomputer zajmuje przestrzeń dużej hali i pobiera milion razy więcej watów od ludzkiego mózgu. Nie mogę się oprzeć pokusie, żeby napisać, że miliony lat ewolucji robią swoje. Należy również pamiętać, że procesy w naszych mózgach nie są wyłącznie poświęcone logicznemu myśleniu. Znaczna część wykonywanych operacji poświęcona jest podtrzymywaniu funkcji życiowych, przetwarzaniu bodźców zewnętrznych (wzrok, dotyk, węch, równowaga) i podświadomych reakcji. Można tu także przywołać popularny mit o tym, że wykorzystujemy jedynie 10% możliwości naszego mózgu. Mit ten został już dawno obalony, jednakże ziarnko prawdy może być zinterpretowane właśnie w taki sposób, iż tylko pewna część zasobów mózgu jest wykorzystywana do myślenia.

    • Piotr Czubak pisze:

      W odpowiedzi na określone przez Pana potencjalne ograniczenie w postaci mocy obliczeniowej, to chciałbym nawiązać do mojej wypowiedzi skierowanej do Pana Jana Kagera. Skoro istnieją już od ponad 10 lat komputery o zasobach porównywalnych do tych ludzkiego mózgu, a nie zobaczyliśmy jeszcze “prawdziwie inteligentnych maszyn”, oznacza to, że moc obliczeniowa nie stanowi tu głównego problemu. Tak jak pisał Jan Kager i później ja, to sposób wykorzystania i optymalizacja są przeszkodami. Moje prywatne zdanie jest takie, że dopóki w pełni nie poznamy sposobu funkcjonowania ludzkiego mózgu (i umysłu), dopóty nie będziemy w stanie stworzyć sztucznej LUDZKIEJ inteligencji. A zatem prawdziwym ograniczeniem jest wiedza o nas samych.

  2. JW 4I2 283649 pisze:

    Przytoczę tutaj Chiński Pokój (pojęcie/argument autorstwa wspomnianego Searle’a), jako że dotyczy konkretnie inteligencji i zrozumienia u maszyn.

    Należy wyobrazić sobie program komputerowy, zdolny przyjąć dowolne pytanie w języku chińskim i zwrócić odpowiedź poprawną syntaktycznie i sensowną semantycznie, do tego stopnia, że zdanie testu Turinga nie stanowi dla niego problemu.

    Następnie, argumentuje Searle, można zastąpić komputer nim samym, zamkniętym w pokoju, a program wydrukować jako serię instrukcji, które na chińskim tekście miałby on wykonać. Byłby wtedy w stanie (pomijając czas wykonania) zrobić dokładnie to samo, czyli udzielić sensownej odpowiedzi, mimo że nie rozumie ani słowa po chińsku.

    W mojej opinii, najważniejszym wnioskiem jest to, że Chiński Pokój nie wyklucza istnienia maszyn rozumiejących i/lub świadomych, natomiast pokazuje, że nie da się stwierdzić świadomości/zrozumienia lub ich braku na podstawie tylko zewnętrznej obserwacji zachowania. Według Searle’a żeby to rozstrzygnąć trzeba “zajrzeć do środka”.

    To oczywiście stwarza pewne problemy natury etycznej, np. w sprawie ewentualnego przyznania praw AI z własną świadomością – jak stwierdzić czy jest świadoma?
    Może na wszelki wypadek przyznać je “na wyrost” – wystarczą zewnętrzne “symptomy” świadomości? Czy system, który nie ma świadomości, tylko jej “symptomy” będzie przestrzegał prawa i/lub zasad moralnych?

    Oczywiście istnieje wiele kontrargumentów, przytoczę poniżej dwa, które w mojej opinii mają największą “siłę”:
    (nazwy ode mnie)

    1) “Uproszczenie w założeniu”
    Błędne jest założenie, że możliwe jest utworzenie algorytmu o opisanych możliwościach komunikacji i zaliczenia testu Turinga, który działałby tylko na warstwie syntaktycznej, czyli po prostu przesuwał symbole. Nie mogłyby istnieć wspomniane wydrukowane instrukcje, które pozwoliłyby wykonać program osobie nieznającej chińskiego.

    2)”Różne standardy – kredyt zaufania”
    Ten argument sformułował sam Turing, niejako z wyprzedzeniem, kiedy projektował test Turinga. Mówi on, że nie wiemy, czy pozostali, otaczający nas ludzie są faktycznie świadomi, czy tylko się tak zachowują (jest to kwestia bardziej “czysto” filozoficzna).
    Przyjęło się jednak uważać ich za tak samo świadomych jak samego siebie, niejako “na kredyt”. Dlatego, według Turinga, maszyna, która jest w stanie zdać test Turinga (innymi słowy po samej treści rozmowy nie do odróżnienia od człowieka), powinna dostać taki sam kredyt zaufania i zostać uznana za inteligentną/świadomą.

    • Paweł Stacewicz pisze:

      JW napisał
      — W mojej opinii, najważniejszym wnioskiem jest to, że Chiński Pokój nie wyklucza istnienia maszyn rozumiejących i/lub świadomych, natomiast pokazuje, że nie da się stwierdzić świadomości/zrozumienia lub ich braku na podstawie tylko zewnętrznej obserwacji zachowania. Według Searle’a żeby to rozstrzygnąć trzeba „zajrzeć do środka”.

      Mam pytanie odnośnie drugiej części cytatu.
      Czy strategia “zaglądania do środka” ma na celu upewnienie się, że tam w środku, czyli wewnątrz maszyny, wszystko wygląda mniej więcej tak jak w ludzkim mózgu? Jeśli to właśnie ma na celu, to eliminuje możliwość stwierdzenia świadomości/rozumienia w przypadku bytów, których wewnętrzne struktury i operacje są zupełnie inne niż w domenie ludzkiego mózgu. Tymczasem trudno wykluczyć, że może powstać inteligencja prawdziwa w sensie towarzyszących jej przeżyć (jak np. poczucie rozumienia i zrozumienia), nie podobna jednak (w sensie materialnego podłoża i/lub wewnętrznych operacji) do ludzkiej.

      • JW 4I2 283649 pisze:

        Oryginalnie sytuacja dotyczyła wyłącznie porównania człowiek-maszyna.
        Argument wyklucza możliwość stwierdzenia bądź wykluczenia świadomości wyłącznie na podstawie obserwacji zachowań.
        Jednakże jest tak dlatego, że (według Searle’a) maszyna (konkretnie nieorganiczna) może stać się inteligentna/świadoma jedynie poprzez wykorzystanie technologii opartej o budowę mózgu istoty świadomej (dodajmy, że chodzi o istotę organiczną). Według niego świadomość jest konsekwencją specyficznej budowy mózgu, a nie przejawem działania odpowiedniego “oprogramowania”.

        Innymi słowy, w zamierzeniu twórcy, argument ten nie wyklucza możliwości istnienia (albo utworzenia w przyszłości) inteligencji pozaludzkiej (również sztucznej), natomiast obecnie istniejące komputery (tj. maszyny czysto obliczeniowe) uważa za niezdolne do posiadania świadomości.

        • Paweł Stacewicz pisze:

          Przy czym, moim zdaniem, przekonanie Searle’a o niemożności zaistnienia świadomości wewnątrz maszyn cyfrowych nie wynika z argumentu “chińskiego pokoju”.
          Szersza dyskusja blogowa na ten temat jest dostępna tutaj: http://marciszewski.eu/?p=8578 (wpis pt. “Turing czy Searle?”).

  3. MSh pisze:

    Ja muszlę że maszyny nie mogą stać prawdziwie inteligentne i na to jest kilka przyczyn:
    Przyczyna pierwsza to zbyt duże zapotrzebowanie na moc obliczeniową dla funkcjonowania prawdziwego intelektu, w porównaniu:nasz mózg ma 10^22 flops(są różne dane wynikające z uwzględnienia różnych struktur w mózgu – jeżeli uwzględniać tylko synapsy i neurony wychodzi 10^16 flops, a jeżeli wziąć pod uwagę mikrotubule i nawet poszczególne proteiny w komórkach to wychodzi 10^28 flops ) a superkomputer Summit(top 1 w świecie według TOP500) ma tylko 148.6*10^15 flops.Progres nie stoi na jednym miejscu,są nowe technologie, takie jak komputery kwantowe, które, w przyszłości, mogą pozwolić na osiągnięcie tak wysokiej mocy obliczeniowej.Ale nie teraz, i nie przez rok, i może nie przez 100 lat…(Jestem pesymistą).
    Druga przyczyna polega na tym, że nie możemy powtórzyć działanie tego, co nie wiemy do końca jak działa.Dziś możemy powiedzieć, że mamy dobry pomysł na to jak działa jedna komórka nerwowa.Ale między komórką a obszarem mózgu jest kolejny, bardzo ważny poziom – zespół neuronów. Nadal istnieje wiele niejasności. Za pomocą PET możemy śledzić, które obszary mózgu są „włączane” podczas wykonywania niektórych zadań, ale co dzieje się w tych obszarach, jakie sygnały są wysyłane do siebie przez komórki nerwowe, w jakiej kolejności, w jaki sposób wchodzą ze sobą w interakcje – mówimy o tym na razie wiemy trochę.Aktywność komórek nerwowych w takich obszarach jest podporządkowana własnym rytmom, własnej hierarchii. W związku z tymi cechami zniszczenie niektórych komórek nerwowych może być niezastąpioną utratą dla mózgu, podczas gdy inne mogą równie dobrze zastąpić sąsiednie „ponownie przeszkolone” neurony. Każdy neuron można zobaczyć tylko w obrębie całej akumulacji komórek nerwowych. Moim zdaniem, głównym zadaniem jest teraz rozszyfrowanie kodu nerwowego, czyli zrozumienie, w jaki sposób zapewnione są wyższe funkcje mózgu. Najprawdopodobniej można to zrobić poprzez badanie interakcji elementów mózgu, poprzez zrozumienie, w jaki sposób poszczególne neurony łączą się w strukturę, a struktura w system i w cały mózg.Żeby to zrobić potrzebujemy nowe nieinwazyjne metody badania mózgu.PET, fMRI
    nie mogą dać rozdzielczość potrzebną dla analizy tego, co dzieję się na poziomie poszczególnych neuronów.A techniki MEG(magnetoencephalography) są niesamowicie drogie bo potrzebują ekranowanego od pola magnetycznego ziemi pomieszczenia które składa się z cewek Helmholtza i bardzo drogich metali dla ścian.I nawet tak to dobrze nie działa.Na przykład na wydziale mechatroniki jest taki pokuj i całe to ekranowanie przestaje działać kiedy przejeżdża tramwaj(duży kawałek żelaza co wywołuje zaburzenie pola magnetycznego).
    Trzecia przyczyna to hormony.W zależności od różnego stężenia hormonów mózg w różny sposób przetwarza informacje.Tak przy jednakowych sytuacjach możemy popełnić różne decyzje w zależności od nastroju.Z tego wynika, że istnieje nieskończona liczba kombinacji stężeń poszczególnych hormonów i jak wynik nieskończona liczba wariantów, jak ten sam mózg może interpretować te same dane.To znacznie utrudnia powstanie prawdziwej inteligencji.

  4. Adam Siemasz pisze:

    Moje zdanie jest dosyć podzielone – z jednej strony patrząc na definicję inteligencji – “Zdolność rozumienia, uczenia się oraz wykorzystywania posiadanej wiedzy i umiejętności w różnych sytuacjach.” to współczesne maszyny spełniają te kryteria. Istnieją już komputery zdające test Turinga.
    Jednak jakby spojrzeć na to głębiej do pełnej inteligencji potrzeba też pewnej świadomości, abstrakcyjnego myślenia, ale tak jak wspomniał kolega wyżej, to czy człowiek jest istotą świadomą, czy też zachowuje się zgodnie z pewnymi schematami też jest kwestią sporną. Trafia też do mnie argument, że ludzki mózg nie jest jeszcze do końca poznany – czy jest w ogóle możliwe skonstruowanie komputera o takiej złożoności? I jak należałoby traktować prawdziwie inteligentne maszyny? Na równi z ludźmi?

  5. Karolcia pisze:

    Rozważania chciałabym rozpocząć od definicji słowa maszyna. Dla mnie słowo to jest ściśle powiązane ze słowem kontrola. Maszyny wykonują określone zadania, które to my ludzie na pewnym poziomie im wyznaczamy. Przy obecnej technologii nie jestem sobie w stanie wyobrazić stworzenia maszyny o prawdziwej inteligencji.
    Szukając informacji na ten temat znalazłam interesujący artykuł dotyczący urządzenia zbudowanego z sieci srebrnych nanodrucików (https://www.sztucznainteligencja.org.pl/miniaturowe-srebrne-mozgi/?fbclid=IwAR3qJD9lk1gf4bD5Z6pgkMdKd-0ohmSd_ggEWVAvZt22ciFuh53-gGhip48). Podczas badań okazało się, iż procesy zachodzące w sieci przypominają proces uczenia się i zapamiętywania u ludzi.
    To czy człowiek jest w stanie stworzyć prawdziwie inteligentną maszynę jest jedną kwestią, ale zastanawia mnie co innego. Tworząc maszynę prawdziwie inteligentną pozbawimy się kontroli nad nią. Czy nie oznacza to, iż termin maszyna będzie dla takiego tworu zbyt wąskim określeniem? Czy posiadanie przez “maszynę” prawdziwej inteligencji, nie sprawi iż stanie się bytem równym człowiekowi?

  6. Wojciech Szerszeń pisze:

    Na początek chciałbym zwrócić uwagę na problem jednoznacznego stwierdzenia, czy jakiś byt posiada umiejętność myślenia.
    Z jednej strony, jesteśmy przyzwyczajeni do badania inteligencji na zasadzie obserwacji zachowania podmiotu badanego. Przykładem może być test IQ, w którym wnioskujemy o poziomie inteligencji na podstawie odpowiedzi na pytania. Podobny schemat można zauważyć w teście zaproponowanym przez Turinga. Jeśli oparlibyśmy swoje rozważania tylko i wyłącznie na testach behawioralnych, to moglibyśmy szybko dojść do wniosku, że powstanie ,,prawdziwej inteligencji” jest tylko kwestią czasu. Już teraz możemy obserwować, jak tworzone przez ludzi maszyny zbliżają się do przejścia testu Turinga na poziomie tekstu, czy ludzkiej mowy (np. Google Duplex).
    Z drugiej strony, jak zauważył Searle, test oparty na obserwacji zachowania maszyny może być niewystarczający do stwierdzenia, że badana maszyna potrafi myśleć. Idealnym sposobem na to, byłoby porównanie sposobu jej działania do sposobu funkcjonowania ludzkiego umysłu. Współcześnie, taki test jest jednak niemożliwy, ze względu na bardzo ograniczoną wiedzę dotyczącą mechanizmu myślenia człowieka.
    Innym sposobem rozmyślania na temat inteligencji, może być wnioskowanie na podstawie subiektywnych odczuć. Przykładowo możemy stwierdzić, że posiadamy świadomość i zdolność do myślenia. Następnie, widząc podobieństwo między nami, a innymi ludźmi, możemy dojść do wniosku, że wszyscy ludzie je posiadają. Analogicznie, można stwierdzać, że maszyny posiadają inteligencję, dostrzegając podobieństwa między nimi, a ludźmi.
    Podsumowując, uważam, że nie ma obecnie argumentów, które w niepodważalny sposób wykluczałyby możliwość powstania prawdziwie inteligentnych maszyn. Takie odkrycie, wydaje się być naturalnym krokiem na drodze rozwoju wiedzy o umyśle człowieka, informatyki i techniki.

    • Paweł Stacewicz pisze:

      — Analogicznie, można stwierdzać, że maszyny posiadają inteligencję, dostrzegając podobieństwa między nimi, a ludźmi.

      Zachodzi jednak pytanie, jakiego rodzaju podobieństwa powinniśmy stwierdzać, i które z nich są najbardziej istotne?
      Pomysł wymaga zatem rozwinięcia…

      • d81ad9165eb285ff91f4e2367cb8ef9e pisze:

        Duża część komentarzy w tym wątku, wraz z komentarzem pana Wojciecha, odnosi się do umiejętności logiczno-matematycznych. Jeśli jednak mamy porównywać myślenie ludzi do maszyn i na tej podstawie stwierdzać na ile maszyny odstają od ludzi, to moim zdaniem należy spojrzeć trochę szerzej.

        Amerykański psycholog Howard Gardner stwierdził, że istnieje osiem odrębnych bloków inteligencji, nie tylko ta mierzona przez test IQ. Szukając podobieństw między maszynami i ludźmi powinniśmy rozpatrywać każdy z tych rodzajów inteligencji.

        Według teorii Gardnera wartości różnią się pomiędzy społeczeństwami, zgodnie z tym co dla danego społeczeństwa jest potrzebne, użyteczne i cenione. Doszukiwanie się podobieństw między ludźmi a maszyną będzie dawało różne rezultaty w zależności od tego, z jakiego społeczeństwa są Ci ludzie. Co za tym idzie ta sama maszyna może być uznana za mniej lub bardziej “myślącą” w zależności od tego, kto i gdzie ją badał.

        Gardner wyróżnia inteligencje intrapersonalną i interpersonalną. Nietrudno jest doszukiwać się podobieństw w tych typach inteligencji między ludźmi. Gdy jednak do porównania podstawiamy masznę sprawa robi się mniej oczywista. Czy w przypadku inteligencji interpersonalnej wciąż należy doszukiwać się podobieństw między maszyną a człowiekiem czy może również między maszynami? Czy szukanie podobieństw w sposobie postrzegania samego siebie między człowiekiem a maszyną jest zasadne? Może w przypadku tych dwóch typów inteligencji pownniśmy porównywać również maszyny między sobą? Być może najważniejszym podobieństwem prawdziwie inteligentnych maszyn do ludzi, którego należy się doszukiwać, będzie ich forma komunikacji między sobą.

        Poszukiwanie dowodów na prawdziwą inteligencję maszyn przez podobieństwa do inteligencji ludzkiej nie jest moim zdaniem właściwą drogą i może stawiać więcej pytań niż dawać odpowiedzi.

  7. Mateusz Winnicki pisze:

    Od blisko dekady obserwujemy coraz bardziej spektakularne dokonania maszyn opartych przede wszystkim na algorytmach uczenia maszynowego. AlphaGo pokonał arcymistrza starochińskiej gry planszowej Go w 2015 roku, AlphaZero potrafi opanować grę w szachy na poziomie dalece wyższym od ludzkiego w kilka godzin. Platformy takie jak Netflix, czy Spotify wykorzystują je (uczenie maszynowe) do poznawania naszych gustów i tworzenia jak najbardziej spersonalizowanych propozycji filmowych, czy muzyczny playlist. Dzięki sieciom neuronowym jesteśmy w stanie m.in. prognozować zachowania na rynku akcji i obligacji oraz rozpoznawać twarze na zdjęciach satelitarnych Google Maps w celu ich zamazania.

    Wszystko to opiera się jednak na dwóch wspólnych operacjach – zbieraniu danych i dopasowywaniu ich do pewnego schematu, przeprowadzania operacji na bazie wytycznych. Brakuje temu jednak pewnego elementu abstrakcji, który uważam za podstawę ‘prawdziwej’ inteligencji, którą kieruje się człowiek.

    Dla przykładu przyjrzyjmy się wspomnianemu algorytmowi rozpoznawania twarzy na zdjęciach i ich zamazywania. Program trafnie wyszukuje ludzi i dba o ich prywatność, ale na tym nie poprzestaje. Reklamy znanych marek sygnowanych twarzami celebrytów, obrazy, a nawet zwierzęta człekokształtne również przechodzą blurring. W końcu to kolejna twarz, kolejny obiekt pasujący do schematu. Człowiek naturalnie rozróżni przechodniów na ulicy, od wielkiego bilboardu dzięki zdolności myślenia poza wytyczoną ścieżką.

    Innym ciekawym przykładem dążenia do stworzenia maszyny niezależnej od człowieka są autonomiczne samochody. Przyjmijmy, że sztuczna inteligencja, na której jest oparty z doskonałą precyzją określa wszelkie zagrożenia na drodze, dostosowuje prędkość do sytuacji, czy wchodzi w interakcje z pasażerami. Co jednak zrobi ta maszyna w nagłej sytuacji takiej jak wypadek drogowy, w którym musi zdecydować między pasażerami a grupą przechodniów? Naturalnym byłoby zaprogramowanie jej tak, by decydowała się na ‘mniejsze zło’, redukując straty ludzkie do minimum, bez względu na to, czy to kierowca, czy przypadkowa osoba. Będzie to jednak ponownie, ograniczenie sztucznej inteligencji to prowadzenia szybkich kalkulacji i wybierania najlepszej opcji według pewnych wytycznych. Człowiek kierujący pojazdem w większości przypadków ratowałby to, na czym zależy mu najbardziej – siebie lub pasażerów.

    Nasuwa się pytanie – czy maszyna o nieograniczonej zdolności obliczeniowej, pozwalającej na perfekcyjne imitowanie ludzkiej inteligencji, byłaby uznana za prawdziwie inteligentną, czy możne na prawdziwą inteligencję składają się też czynniki takie jak emocje, doświadczenia, świadomość, myślenie abstrakcyjne etc. Jeśli to pierwsze to już teraz możemy uznać, że jesteśmy na drodze do stworzenia takiej maszyny, w końcu już w 2014 roku program udający 13-letniego Eugene’a Gootsmana po kilkuminutowym czacie przekonał 1/3 sędziów, że jest człowiekiem. Pozostaje tylko kwestia tego, czy w takim razie wspomniane przeze mnie czynniki pokroju samoświadomości, czy emocji będą dalej coś znaczyć, czy przestanie to się liczyć kiedy odróżnienie maszyny od człowieka będzie niewykonalne.

  8. Mateoeo 320 pisze:

    Zadając sobie pytanie, które jest tematem naszych rozważań, należałoby przede wszystkim określić warunek konieczny pozwalający stworzenie maszyny “prawdziwie inteligentnej”. Gdyby założyć, że najbardziej wyrafinowana forma inteligencji to właśnie ta, którą obdarowany został nasz gatunek owym kryterium minimalnym staje się możność zasymulowania ludzkiej świadomości. A czym ona jest? Nawet w dzisiejszych czasach nauka nie pozwala nam dokładnie sprecyzować, w jaki sposób sieć neuronów potrafi wygenerować emocje, pamięć, czy też możliwość kreatywnego myślenia. Już na tym etapie rozważań, problem wydaje się być dość trudny do “zaimplementowania” na maszynie.

    Załóżmy jednak, że ludzką świadomość da się objąć pewnym aparatem matematycznym. Kolejnym ograniczeniem, które wydaje się być w tej chwili nie do “przeskoczenia”, są obecne możliwości technologiczne. Gdyby przyrównać jedną interakcję między synapsami do pojedynczej operacji (a i tak jest to raczej spore niedoszacowanie), musielibyśmy przetworzyć ok. 10^20 operacji procesora w ciągu jednej sekundy. Najszybszy komercyjny procesor o częstotliwości 8.429GHz wydaje się być niewystarczający, nie wspominając o dodatkowej mocy obliczeniowej potrzebnej do podtrzymania takiej symulacji. Kolejnym przyziemnym problemem wartym uwagi jest zwyczajnie koszt pamięciowy. Zbudowanie maszyny spełniającej wymienione kryteria może być problematyczna w dzisiejszych czasach.

    Załóżmy jednak, że w odległej przyszłości, również problemy wynikające ze stopnia zaawansowania obecnej technologii zostaną rozwiązane, a ludzkości uda się stworzyć superkomputer. Intuicja podpowiada mi, że do zasymulowania abstrakcyjnego i kreatywnego myślenia konieczne musiałoby być generowanie prawdziwych liczb losowych, pozwalających maszynie prawdziwie błądzić po strukturze swojej “sieci neuronowej”, jakąkolwiek przybrałaby formę.

    Zatem: Czy maszyny mogą stać się prawdziwie inteligentne? Podsumowując wszystkie dotychczasowe rozważania, jestem skłonny udzielić jedyną właściwą odpowiedź: to zależy xD

  9. PB pisze:

    Wydaje mi się, że w tej chwili wciąż daleko do osiągnięcia przez sztuczną inteligencję możliwości swojej ludzkiej odpowiedniczki. W moim odczuciu wciąż posiadamy bardzo niewielką wiedzę na temat człowieczeństwa, brakuje nam dokładnego opisu takich cech jak kreatywność, spontaniczność czy emocje. Ze względu aparatu matematycznego (bądź innego) często przypisujemy im znamiona losowości co jest dowodem naszego nie dogłębnego zrozumienia własnej istoty. Być może w przyszłości geneza tych cech u człowieka zostanie opisane i nie będzie miejsca w ich definicji na wspomnianą losowość.

    Nasuwa mi się zatem pytanie, jak mielibyśmy stworzyć sztuczną inteligencję przewyższającą nasze możliwości, jeśli sami nie jesteśmy w stanie powiedzieć skąd pochodzą i w jaki sposób je wykorzystujemy? Obecnie ludzkość nie znalazła jeszcze wszystkich odpowiedzi na pytania dotyczące naszej natury, zatem nie możemy stworzyć naszej repliki w postaci sztucznej sieci neuronowej. Być może, kiedy w przyszłości posiądziemy wiedzę na tematy jakie poruszyłem w wstępie, będziemy w stanie skonstruować sieci neuronowe o podobnych możliwościach co nasze. Zgodnie z zasadą anigav a ton si sinep a, może się jednak okazać, że model naszej naturalnej sieci neuronowej nie jest w pełni możliwy do odwzorowania. Należy pamiętać również o istniejących ograniczeniach mocy obliczeniowej, której aktualnie mamy znacznie za mało, aby chociaż myśleć o osiągnięciu możliwości naszej naturalnej sieci neuronowej.

    Podsumowując, nie wykluczam możliwości zrównania się możliwościami naszej naturalnej sieci neuronowej z jej sztucznym odpowiednikiem. Musiałyby jednak zostać poczynione ogromne postępy w dziedzinach takich jak biologia i chemia, w celu zrozumienia naszej własnej natury i organizmu albo znaczna zmiana podejścia do tworzenia tych sieci, aby móc zacząć na poważnie mówić o takiej sytuacji.

  10. Adam Siemasz pisze:

    Jeśli przyjrzeć się podstawowemu znaczeniu słowa “inteligencja” czyli temu co wyrażane jest jako zdolność analizy, postrzegania i adaptacji do zmian otoczenia, to sztuczna inteligencja znacznie bardziej przewyższa ludzką inteligencję w tym każdym z tych zakresów. Znane są już przykłady algorytmów, które na podstawie różnych śladów które pozostawiamy w internecie są w stanie wyciągnąć wnioski o poglądach politycznych, upodobaniach seksualnych, osobowości, inteligencji, czy nawet w przyszłości wykryć symptomy schorzeń na wiele lat przed tym, kiedy są one widoczne dla lekarza. Algorytmy mogą wiedzieć o nas więcej, niż my sami wiemy o sobie, a nawet więcej niż wiedzą o nas nasi najbliżsi. Ludzki umysł nie jest w stanie w takim szybki sposób zanalizować czy wykonać wielu zadań, z którymi sobie radzi komputer. Na tym poziomie maszyny są znacznie inteligentniejsze niż człowiek. Prędzej czy później komputer byłby w stanie poznać zależności, którymi kieruje się człowiek w trakcie podejmowania decyzji czy przy zachowując się w określony sposób. Jedynym czynnikiem limitującym sztuczną inteligencję jest ilość informacji, którą dostarcza jej człowiek, a na podstawie których wykonuje polecenia.

  11. Iga Pawlak pisze:

    Uważam, że nie można porównać inteligencji sztucznej z ludzką.
    Rozwój techniki, mocy obliczeniowej i powiększający się rozmiar pamięci, jaki może posiadać maszyna, mogą faktycznie doprowadzić do coraz lepszego i prawdopodobnie prawie idealnego naśladownictwa przez nią sposobu rozumowania człowieka. Nie ulega też wątpliwości, że wiele zadań maszyny wykonują już znacznie szybciej niż ludzie, a więc wyprzedziły nas w pewnych sferach.
    Istnieje jednak aspekt naszej działalności umysłowej, wciąż związany z inteligencją (szczególnie jeśli przyjmiemy teorię o istnieniu wielu typów inteligencji), którego nie sposób opisać algorytmami, związany z kreatywną twórczością, ze sztuką czy muzyką. I choć jesteśmy w stanie nauczyć maszynę pewnego odwzorowania tego procesu twórczego, moim zdaniem nie może ona wykroczyć poza to odwzorowanie i myśleć prawdziwie abstrakcyjnie, bo ogranicza ją fakt, działania według pewnego algorytmu. Choć podejście, przedstawione w tekście w punkcie d. zostało skrytykowane, wiele jego aspektów uważam za sensowne – i nie wyobrażam sobie, aby wyobraźnię czy emocje właśnie, dało się sprowadzić do postaci możliwej do implementacji na maszynie cyfrowej.

    • Piotr Czubak pisze:

      Zdecydowanie nie zgadzam się z Pani stanowiskiem. Czyż myślenie i kreatywność nie są, aby odwzorowaniem naszych dotychczasowych doświadczeń? Według mnie, ludzkie myślenie jest uwarunkowane tym, czego mózg nauczył się o otaczającym go świecie. Istnieje prawdopodobna teoria mówiąca o tym, że każda twarz jaką widzimy w naszych snach jest twarzą jakiejś osoby, którą zobaczyliśmy w przeszłości. (https://neuroscience.stanford.edu/news/can-sleeping-brain-create-unique-people-waking-brain-has-never-seen). Słyszałem też o teorii sugerującej (niestety nie mogę znaleźć do niej źródła), że większość melodii pojawiających się w obecnych utworach muzycznych, zostało skomponowanych dziesiątki i setki lat temu – teraz doświadczamy jedynie ich “recyklingu”. Faktycznie, sam zaobserwowałem w przypadku muzyki, że te same lub bardzo podobne melodie pojawiają się w wielu utworach różnych artystów, których dzielą generacje. Czy zatem obecni artyści popełniają plagiat? Nie, a przynajmniej nie zawsze i niekoniecznie świadomie. Słuchając tysięcy różnych utworów ich mózgi po prostu przyswoiły te melodie.

      Wspomniała Pani o emocjach jako o kwestii niemożliwej do implementacji w maszynie cyfrowej. Czym są emocje, jeśli nie reakcjami chemicznymi aktywowanymi przez różne hormony wydzielane pod wpływem bodźców zewnętrznych? Uważam, że jeśli poznamy w pełni mechanizmy związane z naszymi emocjami, to replikacja ich w postaci cyfrowej nie będzie stanowiła problemu tak dużego jak właśnie zrozumienie nas samych.
      Nie chciałbym z tej wypowiedzi tworzyć nieprzystępnego elaboratu, więc postaram się krótko. Przez całe nasze życie uczymy się różnych rzeczy i mamy różne doświadczenia. Uważam, że tworzone przez nas dzieła są pewną kombinacją tych wszystkich doświadczeń i zgodnie z inżynierską (pewnie nie tylko) zasadą “co na wejściu, to na wyjściu”, to jakimi doświadczeniami nauczymy naszą sztuczną inteligencję, tak inteligentna ona będzie. Obecnie skupiamy się na maszynach spełniających konkretne funkcje, przy ich nauce nie zapewniamy im pełnego spektrum doświadczeń.

  12. Wiktoria Kaczorkiewicz pisze:

    Chciałabym się odnieść do wątku, który pojawił się na dyskusji na wykładzie. Wydaje mi się, że od maszyn inteligentnych wymaga się z jednej strony aby były podobne do ludzi, z drugiej zaś, aby były bardziej nieomylne.
    Człowiek ma na przykład do dyspozycji całą gamę zmysłów do poznawania świata. Byłam ostatnio na prezentacji, która poruszała problem rozpoznawania zniekształconego głosu (na przykład zaraz po obudzeniu się, gdy głos człowieka wyraźnie różni się od wieczornego, albo przy zmianach głosu w procesie starzenia się). Myślę, że niektórzy ludzie bez możliwości naocznej identyfikacji osoby z którą mają do czynienia nie byliby w stanie jednoznacznie określić, do jakiej osoby należy zniekształcony głos. Umiejętności takiej wymaga się zaś od maszyny.
    Kolejnym przykładem może być analiza emoji w wiadomościach. Sztuczna inteligencja niezbyt dobrze radzi sobie z rozpoznawaniem ich wieloznaczeniowości. Ale czy człowiek bez wcześniejszego doświadczenia potrafiłby? Za przykład można wziąć tradycyjne emoji z uśmiechem “:)”. Wiele osób zaczęło używać jej aby pokazać ironiczny uśmiech, nie zaś prawdziwe zadowolenie. Rozróżnienie, w którym znaczeniu została akurat użyta wymaga analizy szerszego kontekstu, rodzaju znajomości i osobowości osoby, z którą nastąpiła wymiana wiadomości. Taka analiza może się czasem nie udać nawet człowiekowi, w szczególności kiedy nie zna za dobrze drugiej osoby.
    Aby to osiągnąć, maszyny musiałyby mieć umiejętność rozumienia ironii, ludzkiego humoru. W mojej opinii potrzebna jest również umiejętność “poznawania ludzi”, aby mogły prawidłowo oceniać przekazywane im informacje.

  13. B K pisze:

    Moim zdaniem błędnym jest uznanie możliwości człowieka za miarę inteligencji w odniesieniu do maszyn. Jest bowiem wiele dziedzin, w których deklasują one go nie pozostawiając szans na rywalizację. Przykładem jest chociażby sprawność w wykonywaniu działań matematycznych. Nie zapominamy o fakcie , że AI tworzone jest zwykle z myślą o sprecyzowanym przeznaczeniu podczas gdy mózg człowieka zajmuje się zarówno fizycznym ciałem jak i procesami myślowymi. Rozwinięte cyfrowe sieci neuronowe mają potencjał na przekroczenie naszych ograniczeń, musimy jednak określić jasno kryteria tego co uznajemy za rozumowanie i autonomiczne myślenie.

  14. B K pisze:

    Moim zdaniem podczas dyskusji na temat sztucznej inteligencji powinniśmy się zastanowić nad naszymi ograniczeniami, wykrzywionymi wymaganiami wobec potencjalnej maszyny oraz fundamentalnie niewłaściwą próbą przyrównania jej do człowieka. Już obecnie cyfrowe sieci neuronowe potrafią wytrenować efektywne wykonywanie skomplikowanych zadań, nad którymi spędziłby znaczne pokłady czasu i najprawdopodobniej popełnił błędy. Nie znaczy to jednak, że udało im się zasymulować emocje i autonomię myślenia. Takie “właściwości” teoretycznie możliwe są do uzyskania, ale konieczne by było do tego czas oraz odpowiednie zaplecze technologiczne, którego jeszcze nie mamy. Ostatecznie mózg oraz procesor zbyt się od siebie różnią, aby mowa było o obiektywnym ich zestawieniu.

  15. Bepis pisze:

    Wydaje mi się, że za naszymi procesami myślowymi stoi w dużej mierze nasza fizyczna natura. Nasze potrzeby i emocje odgrywają dużą rolę w tym, jak postrzegamy otaczający nasz świat i jakie wyciągamy wnioski na podstawie odbieranych z zewnątrz sygnałów. Do tej pory nie jesteśmy w stanie w pełni pojąć, zrozumieć i opisać wielu takich procesów zachodzących w naszych mózgach. Dopóki się to nie stanie, nie widzę możliwości, aby maszyna osiągnęła poziom inteligencji rzeczywiście odzwierciedlający tę ludzką. Być może w przyszłości uda nam się dotrzeć do sedna tych pojęć, które w dzisiejszych czasach wydają się być kompletnie abstrakcyjne z punktu widzenia programowania maszyn. W takim wypadku nie widzę przeszkód, aby powstała “prawdziwa” inteligencja maszynowa – wszak człowiek także jest swego rodzaju biologiczną maszyną.

  16. Ania pisze:

    Nie ulega wątpliwości, że maszyny w niejednej dziedzinie już wyprzedziły człowieka pod względem umiejętności, sprawności czy efektywności działania. Uważam jednak, że mimo tego maszyny nie mogą osiągnąć właściwej człowiekowi, wyróżniającej go i stawiającej ponad innymi stworzeniami i wytworami, prawdziwej inteligencji.

    Wynika to przede wszystkim z faktu, że ludzkiego umysłu, nie sposób w pełni wyjaśnić na gruncie materialnym. Istnieją w nim bowiem aspekty, które pozostają (i być może pozostaną na zawsze) niewytłumaczalne. To elementy jakościowe, określane mianem qualia (łac. qualitas – jakość), które nie są dostępne człowiekowi na polu doświadczenia zmysłowego (F. Jackson).

    Ciekawe spostrzeżenie, dotyczące różnicy między człowiekiem a maszyną, jest wnioskiem z eksperymentu myślowego John’a Searle’a, nazwanego argumentem chińskiego pokoju – to, że komputer jest zaprogramowany, aby dobrze zestawiał różne symbole i wykonywał określone polecenia, nie znaczy, że umie on myśleć.

    Dla jeszcze lepszego zobrazowanie można posłużyć się argumentem „What Mary Didn’t Know”, sformułowanym przez Franka Jacksona. Uczony podaje przykład neurobiolożki Mary, która dysponuje kompletną teoretyczną wiedzą z zakresu ludzkiej anatomii na temat ośrodka układu nerwowego. Filozof zakłada, że Mary od urodzenia żyje w monochromatycznym otoczeniu, pozbawionym kolorów, więc nie ma pojęcia na czym polega odczucie towarzyszące widzeniu np. czerwieni. Nie zna go pomimo całej posiadanej wiedzy, rozumienia optyki i znajomości zjawisk, którym podlega światło w kontakcie z okiem ludzkim. Posługując się tym przykładem dochodzi do interesującego wniosku, że materialistyczna teoria umysłu nie tłumaczy tego i pozostałych wrażeń, a co za tym idzie nie daje pełni poznania i zrozumienia.

    Prawdziwa inteligencja, charakteryzująca dojrzałego człowieka, nie może być bez uszczerbku dla zintegrowanej osobowości jeśli zostanie zawężona jedynie do sprawnego poruszania się po polu problemów logiczno-matematycznych. Na prawdziwą inteligencję składają się również choćby zdolności intrapersonalne, związane z poznaniem siebie, swoich motywacji, uczuć, potrzeb, czy interpersonalne, odnoszące się do roztropnego funkcjonowania w relacjach, w społeczeństwie, co do tej pory pozostaje nieosiągalne dla maszyn.

    • Paweł Stacewicz pisze:

      Bardzo dziękuję za ten sceptyczny głos.

      Kwestia qualiów — czy też pewnych prywatnych, dostępnych w tzw. planie pierwszo-osobowym przeżyć towarzyszących działaniom – wydaje się o tyle kontrowersyjna, że trzeba by jakoś wykazać, że mają one istotny wpływ na skuteczność podmiotu w rozwiązywaniu różnorodnych problemów. Trzeba by też wskazać jakieś kryterium, które pozwala stwierdzać istnienie tychże przeżyć u jakichkolwiek innych podmiotów (również ludzi) różnych od osoby coś-przeżywającej.
      W dużym uproszczeniu: czy nie jest tak, że równie trudno jest udowodnić istnienie qualiów u innych ludzi, jak u maszyn.
      Być może, przy roztrząsaniu tego rodzaju kwestii pomocna okaże się dawna dyskusja pt. Turing czy Searle: https://marciszewski.eu/?p=8578.

      Jeśli chodzi o argument neurobiolożki, to można się zastanawiać jednak czy owa „kompletna teoretyczną wiedza z zakresu ludzkiej anatomii…”, która nie pozwala czegoś neurobiolożce odczuć, nie pozwoli jednak wytworzyć bytu (nie będącego neurobiolożką), który te odczucia będzie posiadał. Tego chyba argument nie wyklucza… Wiedza może być tego rodzaju, że samo jej posiadanie „nie daje odczuć”, ale zastosowanie jej w praktyce (technicznej, konstruktorskiej itp.), poprzez odpowiednie „skonfigurowanie” pewnych materialnych elementów, będzie skutkować powstaniem odczuć w bycie skonstruowanym.

  17. Jakub Górczyński pisze:

    Swoją refleksję zacząłbym od kilku słów uznania dla Alana Turinga, za rzetelność z jaką podjął się analizy potencjalnych odpowiedzi na pytanie “Czy maszyny mogą myśleć?”: przez argumenty całkiem – subiektywnie rzecz ujmując – sensowne i przekonujące, jak również te, powiedzmy, nieco absurdalne i oderwane od rzeczywistości (por. Argument wypływający z pozazmysłowej percepcji).

    Warto zauważyć jak trafny Turing był w swoich rozważaniach, np. we fragmencie: “Obserwując wyniki swojego własnego zachowania się, może ona modyfikować swoje własne programy, tak aby efektywniej osiągnąć pewne cele. Są to raczej możliwości bliskiej przyszłości niż utopijne marzenia.”, jawnie nawiązując do tego, co dziś znamy pod postacią modeli uczenia maszynowego i ich trenowania.

    Jeśli chodzi o istotę bycia “zaskakiwanym” przez maszynę, Turing mówi tak: Maszyny często mnie zaskakują. Dzieje się tak przeważnie dlatego, że nie dokonałem niezbędnych obliczeń, aby móc określić co można od nich oczekiwać, albo raczej ponieważ chociaż dokonałem obliczeń, to jednak wykonałem je w pośpieszny, niedbały sposób, podejmując ryzyko takiego podejścia. (…) Oczywiście, często nie mam racji i rezultatem tego jest moje zaskoczenie, ponieważ od czasu wykonania eksperymentu zapomniałem o tych założeniach. Te założenia narażają mnie na wymówki na temat mojego nieprawidłowego sposobu postępowania, ale nie rzucają wątpliwości na moją wiarygodność, gdy mówię o doznawanym przez siebie zaskoczeniu.” – co warto zauważyć, maszyna nie zaskakuje “per se”, w rozumieniu takim, że zwraca wynik zupełnie niespodziewany. Zaskoczenie wynika z błędu człowieka, który ją obsługuje, wprowadza dane i oczekuje odpowiedzi. Umówmy się, że korzystamy z maszyn jako narzędzia weryfikacji teoretycznych założeń, metod numerycznych itd. Koniec końców wykonuje instrukcje… zatem to te instrukcje są źródłem potencjalnego zaskoczenia, nie maszyna sama w sobie (choć łatwiej jest nam, jednostkom inteligentnym, o tym “zaskoczeniu” monologować z maszyną).

    Innym ciekawym fragmentem, do którego w mojej ocenie warto nawiązać, to argument świadomości. Pierwszym popkulturalnym skojarzeniem, które osobiście mi się nasunęło (i które pokrywa się z mową Jeffersona) jest krótki fragment filmu “Ja, Robot” z Willem Smithem w roli głównej; scena, w której pyta robota, czy potrafiłby napisać symfonię lub zamienić puste płótno w piękne dzieło sztuki, a w odpowiedzi słyszy: >>czy Ty umiesz?<<. Wg Turinga następuje tu pewne naruszenie słuszności testu i sprowadzenie polemiki do solipsystycznego, kartezjańskiego "być, to myśleć".

    Osobiście trudno mi przyjąć powyższą argumentację (tę wyrażaną przez Jeffersona) za słuszną, choć być może rozpatruję temat zbyt zdroworozsądkowo, bez właściwej finezji i wyobraźni: o ile w przypadku człowieka "myślę, więc jestem" – na potrzeby tej dyskusji – nie budzi wątpliwości (nota bene Kartezjusz zdaniem tym wyraził poszukiwanie podstaw wiedzy ludzkiej), tak w przypadku maszyn skłaniałbym się raczej ku zdaniom-sloganom "wykonuję, więc jestem", "interpretuję, więc jestem", ale już niekoniecznie "rozumiem, czuję, wzruszam się, …, więc jestem".

    W sumie odnoszę wrażenie, że podobnie ten fragment konstatuje sam Turing: "(…) myślę, że większość tych, którzy popierają argument świadomości, dałaby się raczej skłonić do zaniechania tego argumentu, niż być zmuszona do przejścia na pozycję solipsystyczną."

    • Paweł Stacewicz pisze:

      Turing, faktycznie, tak konstruuje swój test, aby nie brać pod uwagę kwestii świadomości.
      Wydaje mi się jednak, że Pan — odwołując się do sformułować zawierających słówko “jestem” — nie ignoruje świadomości. Uważa Pan świadomość za coś dla inteligencji istotnego. Tym bardziej, gdy pisze Pan “interpretuję, więc jestem” podkreśla Pan jednak rolę rozumienia i rozumiejącej świadomości.
      Trudno mi sobie wyobrazić czynność interpretowania bez rozumienia.

      • Jakub Górczyński pisze:

        Ma Pan słuszność – przyznam, że komentarz był pisany “jednym tchem” i to rozważanie nie jest pozbawione wad. Zależało mi na wypunktowaniu faktu niezdolności maszyn do samodzielnego myślenia. Brakuje mi w tym momencie dobrego zastępnika “jestem” – tak, aby wyeliminować branie pod uwagę świadomości, wszak maszyny samoświadome (według mnie) nie są. (używając słowa “jestem”, miałem na myśli po prostu fizyczną reprezentację jakiegoś sprzętu, jakiejś “czarnej skrzynki”, która bezkrytycznie realizuje rozkazy i instrukcje. Zgadzam się jednak co do “interpretuję, więc jestem” – zrobiłem skrót myślowy i zbyt ogólnie przedstawiłem temat, wprowadzając Czytelnika w błąd)

  18. MK pisze:

    Uważam, że maszyny raczej nie będą potrafiły być prawdziwie inteligentne. Maszyny są obiektami których umiejętności są zaprogramowane przez człowieka, a możliwość decyzyjności wynika z przeanalizowania ogromnej ilości danych oraz zaprojektowanych algorytmów. Prawdziwa inteligencja polega na samodzielności i kreatywności myślenia i postępowania. Natomiast obecna tzw. sztuczna inteligencja nie jest jeszcze prawdziwą inteligencją, ponieważ polega na realizowaniu działań zaprogramowanych, działa w wyznaczonych granicach. Dzięki sztucznej inteligencji maszyny działają szybciej od człowieka, ale nie posiadają umiejętności samodzielnego myślenia, a od prawdziwej inteligencji powinno oczekiwać takich cech. Uważam, że maszyny jako obiekty zaprogramowane, nie posiadają i nie będą raczej posiadać świadomości moralnej oraz nie będą w stanie doświadczać uczuć, czy emocji, a to jest częścią prawdziwej inteligencji ( tzw. inteligencji emocjonalnej ). Maszyny wyposażone w sztuczną inteligencje uważam, że będą pozbawione w możliwość budowania relacji interpersonalnych. Maszyny nie będą w stanie ocenić drugiej osoby w kategorii cech osobowości np. czy jest to osoba miła czy żartobliwa, ponieważ wynika to z odczuć jakie wywiera na kimś druga osoba. Prawdziwa sztuczna inteligencja maszyn byłaby to taka inteligencja która przekroczyłaby granicę wyznaczoną przez algorytmy, a to uważam że nie jest możliwe, czyli musiałaby nauczyć się podejmować decyzje niezaprogramowane. Maszyny już dzisiaj potrafią poradzić sobie z człowiekiem np. w grze w szachy, aczkolwiek cały czas wynika to z faktu przeanalizowania ogromnej ilości możliwości i przeanalizowaniu opłacalności danego posunięcia, natomiast wszystko to opiera się na analizie danych, a nie kreatywnym myśleniu. Kolejną cechą prawdziwej inteligencji jest fakt samoświadomości. Uważam, że maszyny nie będą świadome swojego istnienia, czy faktu że po pewnym czasie mogą „umrzeć” ( np. poprzez eksploatacje materiałów ) oraz nie będą dążyły aby temu zapobiec.

    • Paweł Stacewicz pisze:

      Czy jakiegoś rodzaju algorytm, np. algorytm odwołujący się do wyborów losowych skutkujących zmianami w materialnym nośniku programu sterującego maszyną (jak chociażby algorytm genetyczny), nie może spowodować,że maszyna wyjdzie bardzo daleko poza to, co w niej pierwotnie zaprogramowano?
      Być może maszyna “sterowana” takim algorytmem będzie potrafiła generować własne cele, które będą wprawdzie podporządkowane pewnemu celowi głownemu, ale cel będzie ten będzie na tyle ogólny (np. przetrwaj w swoim środowisku), iż jego określenie nie będzie ograniczało swobody maszyny. A przynajmniej nie będzie ograniczało w większym stopniu niż dzieje się to w przypadku ludzi.

  19. Bartosz Kunowski pisze:

    Za definicję myślenia przyjmę posiadanie świadomości. Nie określono żadnych fizycznych właściwości obiektu, które wskazywałyby na to czy posiada on świadomość czy nie. Oceniamy to jedynie po zachowaniu. Zazwyczaj najwięcej przyznajemy jej ludziom, mniej zwierzętom, a najmniej/zupełnie nie roślinom. Filozoficznym zombie nazywamy istotę, która w niczym nie różni się od człowieka z wyjątkiem tego, że nie jest świadoma. Czy filozoficzny zombie jest w ogóle możliwy? Ponieważ nie znaleziono niczego po czym możnaby określić świadomość obiektu, jej źródła, jedna z teorii zwana panpsychizmem głosi, że cała materia posiada przynajmniej w najmniejszym stopniu świadomość, nawet elektron, a wyższy jej stopień związany jest z większym stopniem przetwarzania informacji. W takim wypadku maszyny byłyby bardzo świadome.

    • Michał Ł pisze:

      Bardzo inspirujący komentarz. Chętnie bym wszedł w polemikę, jeśli pozwolisz.

      Koncepcja panpsychizmu na ten moment do mnie nie przemawia, częściowo bo jest praktycznie nietestowalna naukowo. W końcu sam elektron nie musi mieć świadomości, żeby człowiek ją miał – podobnie jak atom jest niepostrzegalny gołym okiem, ale człowiek będący zlepkiem atomów już jak najbardziej (tzn. inaczej mówiąc, pewne własności przysługują obiektowi, mimo że żadna z jego indywidualnych składowych ich nie posiada). Ale z pewnością sam koncept jest niesamowicie ciekawy i wart uwagi.

      Wydaje mi się, że rozumiem pod pojęciem “świadomości” coś innego, niż Ty. Nie jestem przekonany, żeby jakaś głęboka świadomość była konieczna, żeby zachodziły procesy myślowe. Często myśli pojawiają się u nas w pewnym sensie bez naszej kontroli (patrz rozróżnienie Systemu 1 i Systemu 2 aut. Kahnemanna). Ale może należałoby wyróżnić różne świadomości, np. świadomość rozumianą w sensie percepcyjnym i świadomość w sensie samoświadomość swojego istnienia i myślenia?

      Z drugiej strony, możemy być nieświadomi naszego stanu (np. tak pochłonięci nauką, że nie zauważamy że boli nas głowa), jednocześnie myśląc.

      Analogicznie, osoby wprowadzające się w odpowiedni stan wskutek medytacji czy psychodelików mogą powiedzieć, że ich samoświadomość jest kompletnie inna (np. czują się jednością ze wszystkim, czują jakby wyszli z ciała, albo nie czują w ogóle świadomości i są tylko biernym obserwatorem rzeczywistości klarującej się przed ich oczami). Czyli samoświadomość jest też dość płynnym konceptem.

      Niemniej jednak nieuzasadnione wydaje mi się stwierdzenie, że w którejś z tych dwóch sytuacji człowiek nie myśli.

      Zgodziłbym się z faktem, że nie znamy na ten moment własności fizycznych, które jednoznacznie określałyby posiadanie świadomości i to jest pojęcie oparte na naszej obserwacji zachowania obiektów. Tylko pytanie, czy przynajmniej częściowym winowajcą nie jest trudna do zdefiniowania świadomość. A może uważasz, że to istotne kryterium w determinowaniu czy “coś” jest inteligentne, tylko należy sprecyzować pojęcia lepiej, niż ja to zrobiłem?

  20. Eryk pisze:

    Odnosząc się do serii sprzeciwów oraz argumentów uwydatnionych w rozważaniach Turinga na temat inteligencji maszyn liczących, można dojść do wniosku, iż z dużym prawdopodobieństwem rozpoczęliśmy naszą dyskusję “od środka”. Kluczowym aspektem, który mógłby ułatwić znalezienie rozwiązania problemu, nad którym wspólnie się pochylamy, powinno być ustalenie definicji ów “inteligencji”, którą chcemy odebrać bądź przypisać maszynom liczącym. W bardzo uproszczony sposób można powiedzieć, że Turing przedstawił w swojej rozprawie kilka takich swego rodzaju “definicji”, wedle których próbował ocenić, czy istotnie możemy klasyfikować maszyny jako pewnego rodzaju byt obdarzony inteligencją.

    Oczywiście, niestety i takie podejście do dyskusji okazałoby się zapewne nieskuteczne. Prawdopodobnie, znalezienie konsensusu odnośnie zdefiniowania inteligencji oraz wyznaczenia sztywnych ram, pozwalających na stwierdzenie o kierowaniu się właśnie nią przez dany twór nie byłoby wręcz możliwe. Ciężko bowiem, patrząc na argumenty zawarte w rozprawie Turinga, wybrać jednoznacznie wedle którego powinniśmy oceniać maszyny liczące. Który jest właściwy? Który jest najbliższy prawdy? A być może żaden z nich? Wokół tego zagadnienia narasta jeszcze więcej pytań, na które prawdopodobnie nie jesteśmy w stanie jednoznacznie odpowiedzieć.

  21. Piotr Olszewski pisze:

    Uważam że maszyny mogą być prawdziwie inteligentne (przynajmniej do granic naszego poznania). Częstym argumentem przeciwko inteligencji maszyn jest brak kreatywności, czyli fakt, że maszyny nie są w stanie stworzyć czegoś nowego, tylko potrafią imitować. Fundamentalnie nie zgadzam się z tym stwierdzeniem, ale nie dlatego, że uważam, że maszyny są kreatywne, tylko dlatego, że uważam, że ludzka kreatywność nie jest jakąś magiczną rzeczą, która tworzy rzeczy z niczego, tylko bardziej “remiksuje” różnego rodzaju uczucia, wrażenia, i fakty. Pokazaliśmy, że sztuczna inteligencja jest w stanie replikować, mieszać a nawet konwertować różne style artystyczne (projekty typu DeepArt). Można więc dojść do wniosku, że co w tej chwili różni nas od maszyn jest to, jaki ogrom danych różnych typów przetwarzamy, gdzie inteligentne maszyny głównie zajmują się jednym typem danych (np. tworzenie muzyki, identyfikowanie obiektów na obrazach, itd). Za ważniejsze pytanie uznałbym “czy maszyny mogą być ludzkie?”, czyli czy dało by się odtworzyć ludzkie rodzaje rozumowania i rozumienia świata w maszynach.

    • Łukasz M. pisze:

      Według mnie jednym z głównych aspektów umożliwiających rozróżnienie inteligencji maszynowej od prawdziwej inteligencji jest umiejętność stawianai problemów.

      Zgodzę się, że maszyny można uznać za byty kreatywne. Świadczyć o tym może wiele utworów artystycznych, grafik bądź muzyki zostało utworzonych przez maszyny. Jednakże wszystkie te utwory tworzone są na podstawie już istniejących utworów. Ludzie i maszyny kreują sztukę w podobny sposób, lecz zawsze w pewnym stopniu wzorują się na czymś co powstało wcześniej.

      Argument o kreatywności przemawia za inteligencją maszyn. Moim zdaniem jest on jednak niewystarczający ponieważ, SI nie posiada (jeszcze?) pewnej umięjetności ludzkiej inteligencji, a mianowicie stawiania problemów. Wszystkie maszyny rozwiązują problemy, które są odgórnie zdefiniowane przez człowieka. Przykładem jest twórczość SI. To człowiek stawia przed maszyną zadanie utworzenia utworu artystycznego dając mu dane początkowe (istniejącą sztukę) służące do rozwiązania danego problemu

      Prawdziwa ludzka inteligencja objawia się tym, że tylko człowiek potrafi sam z siebie zdefiniować jakiś problem. W przeszłości ludzkość sama musiała rozwiązywać postawione sobie problemy, lecz w tym momencie tworzymy sztuczne byty, inteligencję maszynową, której zadaniem jest rozwiązywanie naszych problemów.

      W moim przekonaniu maszyny będą prawdziwie inteligentne w chwili kiedy będą same potrafiły definiować problemy i je rozwiązywać. W ten czas będą one prawdziwie inteligentne, gdyż nie będą potrzebowały ludzi do swojego rozwoju.

  22. Jakub Szymański pisze:

    Nie wiem czy wcześniej pojawiły się takie głosy – niestety brakuje mi czasu na przeczytanie wszystkich komentarzy, natomiast chciałbym zwrócić uwagę, że wg Howarda Gadnera możemy wyróżnić kilka rodzajów inteligencji. Teoria, którą stworzył, czyli inteligencja wieloraka, dzieli inteligencje na 8 odrębnych bloków, m. in. inteligencja muzyczna czy logiczno-matematyczna. Rozdzielając w ten sposób inteligencję można łatwo zauważyć, że niektóre z tych typów trudno połączyć z maszyną. Przykładem może być inteligencja interpersonalna czy intrapersonalna. W moim odczuciu maszyny nigdy nie osiągną stanu, w którym będą odczuwały emocje czy będą szukać motywacji do działań. Moim zdaniem do tych 8 typów inteligencji można by dorzucić jeszcze jeden odłam inteligencji – sztuczna inteligencja. Mogłaby się ona składać nawet z kilku podtypów, ale nigdy nie osiągnie statusu pełnej inteligencji ze względu na brak emocji i uczuć.

  23. Jan Kager pisze:

    Searle w swoim tekście argumentuje, że komputery nie posiadają semantyki. Nie rozwija tego pojęcia w kontekście maszyn myślących, ale jako przykład treści semantycznych podaje swoje skojarzenia z miastem Kansas stwierdza, że maszyna nie jest zdolna do podobnych rozmyślań. Ilustracją tej tezy ma być eksperyment myślowy chińskiego pokoju. Searle porównuje maszynę do człowieka posiadającego zestaw instrukcji, który opisuje właściwe reakcje na przychodzące treści w języku chińskim. Człowiek taki, nie rozumiejąc nic z chińskiego, jest w stanie poprawnie zdać test Turinga.
    Myślę, że Searle przyjmuje błędny model maszyny myślącej. Ogranicza on swoją maszynę do ślepego czytania właściwych odpowiedzi z nieskończenie dużej tablicy.
    Jeśli jako semantykę zrozumiemy zdolność do skojarzeń i rozumienia do kontekstu jasnym jest, że taka maszyna jej nie posiada i nigdy nie posiądzie.
    Aby uzyskać prawdziwą SI, musimy jej w jakiś sposób nadać taką zdolność.
    Spróbujmy odwrócić sytuację chińskiego pokoju. Wyobraźmy sobie człowieka, który jako noworodek zostaje zamknięty w pustym pokoju, gdzie jego jedynym zajęciem jest nauka chińskiego. W drugim pokoju znajduje się dowolnie złożony algorytm, który posiada słownik i znajomość zasad gramatyki chińskiej. Możemy sobie wyobrazić, że zarówno taki człowiek jak i maszyna wypadną w eksperymencie równie źle, a przecież wiemy, że człowiek myśli.
    Semantyka jaką opisuje Searle jest efektem własnych doświadczeń. Ludzie obserwując świat znajdują i zapamiętują powiązania, podobieństwa i różnice pomiędzy znanymi sobie pojęciami i w ten sposób kształcą swoją inteligencję. Nie widzę powodu dla którego komputer nie byłby w stanie uczyć się w podobny sposób.
    Turing zarzuca Searle’owi brak wyobraźni, jestem skłonny się z nim zgodzić.

  24. Michał Ł. pisze:

    Rzucam parę luźnych przemyśleń po debacie, może już zbytnio momentami odchodząc od Searle’a, który nie spowodował znaczącego podziału wśród debatujących, bo większość się z nim po prostu nie zgodziła.

    Wydaje mi się (i nasze wnioski z ostatniej debaty zdają się również to afirmować), że branie emocji jako wyznacznika inteligencji jest faktycznie ślepą uliczką.

    Tak, inteligencja emocjonalna to istotna rzecz w naszym świecie. Ale moim zdaniem clou problemu to nie czy SI takową inteligencję by kiedykolwiek miała, czy nie, choć osobiście byłbym w stanie postawić większą kwotę na to, że tak. Istotne jest pytanie “czy to jest wyznacznik czegokolwiek w przypadku sztucznej inteligencji?”.

    Po prostu sądzę, że stawianie takiego wymagania SI, to nieco, zangielszczając, “moving the goalpost” albo może wręcz zbytni antropocentryzm – czy komukolwiek naprawdę ten rodzaj inteligencji przychodzi na myśl jako pierwszy, gdy mielibyśmy sprawdzić, czy rasa kosmitów jest inteligentna? Fan sci-fi zaproponowałby chociaż kierujących się chłodną logiką Wolkan ze Star Treka jako przykład istot znacząco przewyższających ludzi inteligencją (więc może i świadomością?), a jednak niekierujących się emocjami.

    Ale ten rodzaj “obliczeniowej” inteligencji sprawdzany np. w testach IQ także nie może być oczywiście wyznacznikiem inteligencji jako takiej, zwłaszcza poza naszym kręgiem kulturowym. Przychodzi mi na myśl choćby mieszkające w dżungli amazońskiej plemię Pirahã, które mimo podejmowanych prób nie nauczyło się liczyć, częściowo z powodów kulturowych, a częściowo gdyż (jeśli wierzyć tym niesamowicie przełomowym doniesieniom, badało je głównie paru badaczy) może w języku nie posiadać rekurencji. A jednocześnie wiemy, badając ich zachowanie i język, że ich zdolności kognitywne nie są drastycznie niskie.

    Właściwie podejście, jakie (przy mojej bardzo ograniczonej wiedzy filozoficznej, z chęcią usłyszę rozsądniejszą propozycję) wydawałoby mi się najwłaściwsze jest następujące – jeśli dany byt, organiczny czy nie, twierdzi o sobie że jest świadom ORAZ złożoność strukturalna jego “ośrodka poznawczego”, czymkolwiek by on nie był, jest tak duża, ze nie jesteśmy w stanie stwierdzić, że kłamie, powinniśmy zachować ostrożność.

    Co nie znaczy, że uważam że gatunek ludzki będzie się świadomością SI zbyt przejmował – warto spojrzeć, jak okropnie czasem traktujemy ssaki naczelne, o których wiemy, że są w zauważalnym stopniu inteligentne, mają świadomość, osobowość i emocje.

  25. Jan Kager pisze:

    Czego powinniśmy wymagać od maszyny aby uznać ją za prawdziwie inteligentną? Jeśli przyjąć rozważania Turinga, to taka maszyna powinna umieć naśladować zachowanie człowieka. Zachowanie, które jakby nie patrzeć, zakorzenione jest w zwierzęcej naturze człowieka. SI będąca bytem czysto racjonalnym, potrafi wykonywać złożone instrukcje i samodzielnie podejmować decyzje. W pierwszym odruchu można by ją nazwać inteligentną, ale w kontekście testu Turinga poradziłaby sobie znacznie gorzej. Największą przeszkodą w rozwoju sztucznej inteligencji jest ludzki dualizm pomiędzy myśleniem racjonalnym, a instynktownym.
    Ludzkie myślenie jest w dużej mierze uwarunkowane procesami biologicznymi, nie tylko w mózgu, ale w całym ciele. Człowiek kształci swoją inteligencję poprzez zdobywanie doświadczeń i budowanie skojarzeń pomiędzy wiedzą, odczuciami i zmysłami. W dalekiej przyszłości maszyny mogłyby uczyć się w podobny sposób, ale ponieważ maszyna “postrzega” świat zupełnie inaczej niż człowiek, nigdy nie osiągnie takiej samej inteligencji. W złożonych systemach, nawet drobne różnice mogą prowadzić do zupełnie różnych rezultatów.
    Jeśli myślenie maszyny ma naśladować ludzkie, jej funkcjonowanie również powinno naśladować człowieka.
    W chwili obecnej, nasza wiedza na temat działania umysłu jest niewystarczająca, ale w przyszłości jeśli ustalimy, które mechanizmy biologiczne są dla myślenia najistotniejsze, moglibyśmy wykonać ich elektroniczny odpowiednik. Maszyna o infrastrukturze odpowiadającej ludzkiej i symulująca ludzki proces nauki mogłaby stać się wystarczająco podobna do człowieka, aby uznać ją za prawdziwie inteligentną.

  26. Piotr Czubak pisze:

    Chciałbym odnieść się do wstępu do dyskusji sformułowanego przez Pana Pawła Stacewicza, a mianowicie do fragmentu:

    „W tytule obecnego wpisu widnieje jednak termin „prawdziwa inteligencja”, który należałoby odnieść do najbardziej wyrafinowanej formy inteligencji, jaką znamy z natury, a więc inteligencji ludzkiej.”

    Uważam, że autor popełnia duży błąd z góry utożsamiając inteligencję ludzką z prawdziwą, jednocześnie nazywając ją najbardziej wyrafinowaną formą w naturze. Zanim przejdę do wyjaśnienia, dlaczego uważam to za błędne rozumowanie, to chciałbym powiedzieć, że odnoszę wrażenie, iż jest w tych słowach pewna doza narcyzmu, stawiania człowieka na piedestale, ponad całą naturę. Można mieć tu skojarzenia do opisu argumentu „Sprzeciw „głów w piasku””, gdzie Turing mówi o wierze człowieka w jego wyższość ponad resztę stworzenia. Takie podejście może skutkować brakiem obiektywności i racjonalności w formułowanych twierdzeniach.

    Wracając jednak do mojego zarzutu w kierunku autora, to po pierwsze, jeśli zadajemy sobie pytanie czy maszyny mogą stać się prawdziwie inteligentne, to powinniśmy stworzyć definicję lub zespół warunków taką inteligencję określających oraz ewentualnie dokonać stopniowania różnych poziomów inteligencji. W przeciwnym wypadku będziemy błądzić nie będąc w stanie jednoznacznie odpowiedzieć na postawione pytanie. Natomiast jeśli za punkt odniesienia uznajemy inteligencję ludzką, to powinniśmy od razu zapytać „Czy maszyny mogą posiąść inteligencję równą ludzkiej?”.

    Po drugie uważam, że ograniczenie się do inteligencji ludzkiej nie jest zasadne. Wykluczamy w ten sposób każdą inną formę inteligencji. Chciałbym tutaj się odnieść do programu naukowego który kiedyś oglądałem (fragment: https://www.youtube.com/watch?v=L8spFl1iJfs). Był w nim przeprowadzony eksperyment porównujący sposoby rozwiązywania problemów przez kilkuletnie dzieci i szympansy. Obiektom badawczym pokazane było czarne pudełko i sposób jego otwarcia patyczkiem. Zestaw czynności do wykonania tym patyczkiem w celu otwarcia pudełka zawierał kilka zbędnych ruchów. W pierwszej próbie dzieciom i szympansom dano takie samo czarne pudełko. Zarówno dzieci jak i szympansy powtórzyły dokładnie pełną sekwencję ruchów patyczkiem i otworzyły pudełko. W drugiej próbie dostały one takie same, tyle że przezroczyste pudełka, w których widać było cały mechanizm zwalniający. Ludzkie dzieci znów powtórzyły pełną sekwencję, a szympansy pominęły zbędne ruchy. Można by zatem stwierdzić, że w tym przypadku szympansy są inteligentniejsze od dzieci. Wnioski z eksperymentu były jednak szersze – dzieci oczekują być nauczane przez dorosłych, a szympansy potrafią kopiować, ale nie uczą siebie nawzajem w taki sposób jak ludzie. „Dokładne kopiowanie gra ogromną rolę w naszym rozwoju jako ludzi – w ten sposób uczymy się języka, interakcji z obiektami, zachowań kulturowych […] Tak jakby domyślne dla nas, ludzi było dokładne kopiowanie.” A więc finalnie można wyciągnąć wniosek, że sposób uczenia ma ewidentne znaczenie dla postaci wynikowej inteligencji, nie tylko sam jej fizyczny „nosiciel”. Ponadto uważam, że różne formy inteligencji są dostosowane do różnych warunków otoczenia i fizjologii, w związku z czym nie powinniśmy wyłącznie naszej ludzkiej inteligencji określać jako prawdziwej. Być może, jeśli jakaś obca cywilizacja, podążająca tym, w mojej opinii błędnym tokiem rozumowania, napotkałaby na nasz gatunek, nie określiłaby nas jako „prawdziwie inteligentnych”.

Skomentuj Wiktoria Kaczorkiewicz Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *