Czy maszyny mogą stać się prawdziwie inteligentne?

O tym, że sztuczna inteligencja istnieje – z naciskiem na odnoszące do informatyki słowo “sztuczna” – nie trzeba nikogo przekonywać.
Istnieje ona pod postacią zaawansowanych programów komputerowych, które potrafią rozpoznawać złożone obiekty (np. ludzkie twarze), prowadzić niezawodne wnioskowania (np. matematyczne) i uczyć się w interakcji z otoczeniem (co czynią np. sztuczne sieci neuronowe)…

W tytule obecnego wpisu widnieje jednak termin „prawdziwa inteligencja”, który należałoby odnieść do najbardziej wyrafinowanej formy inteligencji, jaką znamy z natury, a więc inteligencji ludzkiej.
Czy maszyny mogą zatem dorównać ludziom – o których wiemy, że nie tylko potrafią coś automatycznie rozpoznać czy mechanicznie wywnioskować, ale niemal zawsze, z natury rzeczy, czynią to ze zrozumieniem. Mało tego, nie na tym tylko polega ich siła, że rozwiązują problemy, lecz na tym, że je dostrzegają i stawiają.

Podobną dyskusję prowadziliśmy już wcześniej, pod nagłówkiem Turing czy Searle?, odwołując się zatem do poglądów dwóch pionierów debaty nad hipotetycznym myśleniem maszyn.

Obecna dyskusja może iść zarówno tym dawnym tropem, jak też poruszać nowe wątki.
Podobnie jak poprzednio jej podstawą proponuję uczynić arcyciekawy tekst Turinga, w którym znajdziemy ideę testu na inteligencję maszyn (tzw. testu Turinga), popularny opis pierwszych maszyn cyfrowych oraz różne argumenty na rzecz możności zaistnienia maszyn inteligentnych (szerzej: myślących).
Właśnie do tych argumentów, zawartych w szóstym rozdziale artykułu, proponuję tutaj nawiązywać.

Podaję link do wspomnianego tekstu:
♦   Alan Turing: “Maszyny liczące a inteligencja”.

I otwieram nową dyskusję, licząc na ciekawe i wchodzące w żywą interakcję głosy…

Ten wpis został opublikowany w kategorii Dydaktyka logiki i filozofii, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

16 odpowiedzi na „Czy maszyny mogą stać się prawdziwie inteligentne?

  1. Jakub Kajzer pisze:

    Możliwe że nie będzie to możliwe, aby zbudować prawdziwą inteligencje, gdyż może tak być, że taka inteligencja potrzebuje niesamowicie dużej mocy obliczeniowej, gdyż zauważmy, że sztuczna inteligencja potrafi tylko małe części “pełnej” inteligencji.

  2. JW 4I2 283649 pisze:

    Przytoczę tutaj Chiński Pokój (pojęcie/argument autorstwa wspomnianego Searle’a), jako że dotyczy konkretnie inteligencji i zrozumienia u maszyn.

    Należy wyobrazić sobie program komputerowy, zdolny przyjąć dowolne pytanie w języku chińskim i zwrócić odpowiedź poprawną syntaktycznie i sensowną semantycznie, do tego stopnia, że zdanie testu Turinga nie stanowi dla niego problemu.

    Następnie, argumentuje Searle, można zastąpić komputer nim samym, zamkniętym w pokoju, a program wydrukować jako serię instrukcji, które na chińskim tekście miałby on wykonać. Byłby wtedy w stanie (pomijając czas wykonania) zrobić dokładnie to samo, czyli udzielić sensownej odpowiedzi, mimo że nie rozumie ani słowa po chińsku.

    W mojej opinii, najważniejszym wnioskiem jest to, że Chiński Pokój nie wyklucza istnienia maszyn rozumiejących i/lub świadomych, natomiast pokazuje, że nie da się stwierdzić świadomości/zrozumienia lub ich braku na podstawie tylko zewnętrznej obserwacji zachowania. Według Searle’a żeby to rozstrzygnąć trzeba “zajrzeć do środka”.

    To oczywiście stwarza pewne problemy natury etycznej, np. w sprawie ewentualnego przyznania praw AI z własną świadomością – jak stwierdzić czy jest świadoma?
    Może na wszelki wypadek przyznać je “na wyrost” – wystarczą zewnętrzne “symptomy” świadomości? Czy system, który nie ma świadomości, tylko jej “symptomy” będzie przestrzegał prawa i/lub zasad moralnych?

    Oczywiście istnieje wiele kontrargumentów, przytoczę poniżej dwa, które w mojej opinii mają największą “siłę”:
    (nazwy ode mnie)

    1) “Uproszczenie w założeniu”
    Błędne jest założenie, że możliwe jest utworzenie algorytmu o opisanych możliwościach komunikacji i zaliczenia testu Turinga, który działałby tylko na warstwie syntaktycznej, czyli po prostu przesuwał symbole. Nie mogłyby istnieć wspomniane wydrukowane instrukcje, które pozwoliłyby wykonać program osobie nieznającej chińskiego.

    2)”Różne standardy – kredyt zaufania”
    Ten argument sformułował sam Turing, niejako z wyprzedzeniem, kiedy projektował test Turinga. Mówi on, że nie wiemy, czy pozostali, otaczający nas ludzie są faktycznie świadomi, czy tylko się tak zachowują (jest to kwestia bardziej “czysto” filozoficzna).
    Przyjęło się jednak uważać ich za tak samo świadomych jak samego siebie, niejako “na kredyt”. Dlatego, według Turinga, maszyna, która jest w stanie zdać test Turinga (innymi słowy po samej treści rozmowy nie do odróżnienia od człowieka), powinna dostać taki sam kredyt zaufania i zostać uznana za inteligentną/świadomą.

    • Paweł Stacewicz pisze:

      JW napisał
      — W mojej opinii, najważniejszym wnioskiem jest to, że Chiński Pokój nie wyklucza istnienia maszyn rozumiejących i/lub świadomych, natomiast pokazuje, że nie da się stwierdzić świadomości/zrozumienia lub ich braku na podstawie tylko zewnętrznej obserwacji zachowania. Według Searle’a żeby to rozstrzygnąć trzeba „zajrzeć do środka”.

      Mam pytanie odnośnie drugiej części cytatu.
      Czy strategia “zaglądania do środka” ma na celu upewnienie się, że tam w środku, czyli wewnątrz maszyny, wszystko wygląda mniej więcej tak jak w ludzkim mózgu? Jeśli to właśnie ma na celu, to eliminuje możliwość stwierdzenia świadomości/rozumienia w przypadku bytów, których wewnętrzne struktury i operacje są zupełnie inne niż w domenie ludzkiego mózgu. Tymczasem trudno wykluczyć, że może powstać inteligencja prawdziwa w sensie towarzyszących jej przeżyć (jak np. poczucie rozumienia i zrozumienia), nie podobna jednak (w sensie materialnego podłoża i/lub wewnętrznych operacji) do ludzkiej.

      • JW 4I2 283649 pisze:

        Oryginalnie sytuacja dotyczyła wyłącznie porównania człowiek-maszyna.
        Argument wyklucza możliwość stwierdzenia bądź wykluczenia świadomości wyłącznie na podstawie obserwacji zachowań.
        Jednakże jest tak dlatego, że (według Searle’a) maszyna (konkretnie nieorganiczna) może stać się inteligentna/świadoma jedynie poprzez wykorzystanie technologii opartej o budowę mózgu istoty świadomej (dodajmy, że chodzi o istotę organiczną). Według niego świadomość jest konsekwencją specyficznej budowy mózgu, a nie przejawem działania odpowiedniego “oprogramowania”.

        Innymi słowy, w zamierzeniu twórcy, argument ten nie wyklucza możliwości istnienia (albo utworzenia w przyszłości) inteligencji pozaludzkiej (również sztucznej), natomiast obecnie istniejące komputery (tj. maszyny czysto obliczeniowe) uważa za niezdolne do posiadania świadomości.

        • Paweł Stacewicz pisze:

          Przy czym, moim zdaniem, przekonanie Searle’a o niemożności zaistnienia świadomości wewnątrz maszyn cyfrowych nie wynika z argumentu “chińskiego pokoju”.
          Szersza dyskusja blogowa na ten temat jest dostępna tutaj: http://marciszewski.eu/?p=8578 (wpis pt. “Turing czy Searle?”).

  3. MSh pisze:

    Ja muszlę że maszyny nie mogą stać prawdziwie inteligentne i na to jest kilka przyczyn:
    Przyczyna pierwsza to zbyt duże zapotrzebowanie na moc obliczeniową dla funkcjonowania prawdziwego intelektu, w porównaniu:nasz mózg ma 10^22 flops(są różne dane wynikające z uwzględnienia różnych struktur w mózgu – jeżeli uwzględniać tylko synapsy i neurony wychodzi 10^16 flops, a jeżeli wziąć pod uwagę mikrotubule i nawet poszczególne proteiny w komórkach to wychodzi 10^28 flops ) a superkomputer Summit(top 1 w świecie według TOP500) ma tylko 148.6*10^15 flops.Progres nie stoi na jednym miejscu,są nowe technologie, takie jak komputery kwantowe, które, w przyszłości, mogą pozwolić na osiągnięcie tak wysokiej mocy obliczeniowej.Ale nie teraz, i nie przez rok, i może nie przez 100 lat…(Jestem pesymistą).
    Druga przyczyna polega na tym, że nie możemy powtórzyć działanie tego, co nie wiemy do końca jak działa.Dziś możemy powiedzieć, że mamy dobry pomysł na to jak działa jedna komórka nerwowa.Ale między komórką a obszarem mózgu jest kolejny, bardzo ważny poziom – zespół neuronów. Nadal istnieje wiele niejasności. Za pomocą PET możemy śledzić, które obszary mózgu są „włączane” podczas wykonywania niektórych zadań, ale co dzieje się w tych obszarach, jakie sygnały są wysyłane do siebie przez komórki nerwowe, w jakiej kolejności, w jaki sposób wchodzą ze sobą w interakcje – mówimy o tym na razie wiemy trochę.Aktywność komórek nerwowych w takich obszarach jest podporządkowana własnym rytmom, własnej hierarchii. W związku z tymi cechami zniszczenie niektórych komórek nerwowych może być niezastąpioną utratą dla mózgu, podczas gdy inne mogą równie dobrze zastąpić sąsiednie „ponownie przeszkolone” neurony. Każdy neuron można zobaczyć tylko w obrębie całej akumulacji komórek nerwowych. Moim zdaniem, głównym zadaniem jest teraz rozszyfrowanie kodu nerwowego, czyli zrozumienie, w jaki sposób zapewnione są wyższe funkcje mózgu. Najprawdopodobniej można to zrobić poprzez badanie interakcji elementów mózgu, poprzez zrozumienie, w jaki sposób poszczególne neurony łączą się w strukturę, a struktura w system i w cały mózg.Żeby to zrobić potrzebujemy nowe nieinwazyjne metody badania mózgu.PET, fMRI
    nie mogą dać rozdzielczość potrzebną dla analizy tego, co dzieję się na poziomie poszczególnych neuronów.A techniki MEG(magnetoencephalography) są niesamowicie drogie bo potrzebują ekranowanego od pola magnetycznego ziemi pomieszczenia które składa się z cewek Helmholtza i bardzo drogich metali dla ścian.I nawet tak to dobrze nie działa.Na przykład na wydziale mechatroniki jest taki pokuj i całe to ekranowanie przestaje działać kiedy przejeżdża tramwaj(duży kawałek żelaza co wywołuje zaburzenie pola magnetycznego).
    Trzecia przyczyna to hormony.W zależności od różnego stężenia hormonów mózg w różny sposób przetwarza informacje.Tak przy jednakowych sytuacjach możemy popełnić różne decyzje w zależności od nastroju.Z tego wynika, że istnieje nieskończona liczba kombinacji stężeń poszczególnych hormonów i jak wynik nieskończona liczba wariantów, jak ten sam mózg może interpretować te same dane.To znacznie utrudnia powstanie prawdziwej inteligencji.

  4. Adam Siemasz pisze:

    Moje zdanie jest dosyć podzielone – z jednej strony patrząc na definicję inteligencji – “Zdolność rozumienia, uczenia się oraz wykorzystywania posiadanej wiedzy i umiejętności w różnych sytuacjach.” to współczesne maszyny spełniają te kryteria. Istnieją już komputery zdające test Turinga.
    Jednak jakby spojrzeć na to głębiej do pełnej inteligencji potrzeba też pewnej świadomości, abstrakcyjnego myślenia, ale tak jak wspomniał kolega wyżej, to czy człowiek jest istotą świadomą, czy też zachowuje się zgodnie z pewnymi schematami też jest kwestią sporną. Trafia też do mnie argument, że ludzki mózg nie jest jeszcze do końca poznany – czy jest w ogóle możliwe skonstruowanie komputera o takiej złożoności? I jak należałoby traktować prawdziwie inteligentne maszyny? Na równi z ludźmi?

  5. Karolcia pisze:

    Rozważania chciałabym rozpocząć od definicji słowa maszyna. Dla mnie słowo to jest ściśle powiązane ze słowem kontrola. Maszyny wykonują określone zadania, które to my ludzie na pewnym poziomie im wyznaczamy. Przy obecnej technologii nie jestem sobie w stanie wyobrazić stworzenia maszyny o prawdziwej inteligencji.
    Szukając informacji na ten temat znalazłam interesujący artykuł dotyczący urządzenia zbudowanego z sieci srebrnych nanodrucików (https://www.sztucznainteligencja.org.pl/miniaturowe-srebrne-mozgi/?fbclid=IwAR3qJD9lk1gf4bD5Z6pgkMdKd-0ohmSd_ggEWVAvZt22ciFuh53-gGhip48). Podczas badań okazało się, iż procesy zachodzące w sieci przypominają proces uczenia się i zapamiętywania u ludzi.
    To czy człowiek jest w stanie stworzyć prawdziwie inteligentną maszynę jest jedną kwestią, ale zastanawia mnie co innego. Tworząc maszynę prawdziwie inteligentną pozbawimy się kontroli nad nią. Czy nie oznacza to, iż termin maszyna będzie dla takiego tworu zbyt wąskim określeniem? Czy posiadanie przez “maszynę” prawdziwej inteligencji, nie sprawi iż stanie się bytem równym człowiekowi?

  6. Wojciech Szerszeń pisze:

    Na początek chciałbym zwrócić uwagę na problem jednoznacznego stwierdzenia, czy jakiś byt posiada umiejętność myślenia.
    Z jednej strony, jesteśmy przyzwyczajeni do badania inteligencji na zasadzie obserwacji zachowania podmiotu badanego. Przykładem może być test IQ, w którym wnioskujemy o poziomie inteligencji na podstawie odpowiedzi na pytania. Podobny schemat można zauważyć w teście zaproponowanym przez Turinga. Jeśli oparlibyśmy swoje rozważania tylko i wyłącznie na testach behawioralnych, to moglibyśmy szybko dojść do wniosku, że powstanie ,,prawdziwej inteligencji” jest tylko kwestią czasu. Już teraz możemy obserwować, jak tworzone przez ludzi maszyny zbliżają się do przejścia testu Turinga na poziomie tekstu, czy ludzkiej mowy (np. Google Duplex).
    Z drugiej strony, jak zauważył Searle, test oparty na obserwacji zachowania maszyny może być niewystarczający do stwierdzenia, że badana maszyna potrafi myśleć. Idealnym sposobem na to, byłoby porównanie sposobu jej działania do sposobu funkcjonowania ludzkiego umysłu. Współcześnie, taki test jest jednak niemożliwy, ze względu na bardzo ograniczoną wiedzę dotyczącą mechanizmu myślenia człowieka.
    Innym sposobem rozmyślania na temat inteligencji, może być wnioskowanie na podstawie subiektywnych odczuć. Przykładowo możemy stwierdzić, że posiadamy świadomość i zdolność do myślenia. Następnie, widząc podobieństwo między nami, a innymi ludźmi, możemy dojść do wniosku, że wszyscy ludzie je posiadają. Analogicznie, można stwierdzać, że maszyny posiadają inteligencję, dostrzegając podobieństwa między nimi, a ludźmi.
    Podsumowując, uważam, że nie ma obecnie argumentów, które w niepodważalny sposób wykluczałyby możliwość powstania prawdziwie inteligentnych maszyn. Takie odkrycie, wydaje się być naturalnym krokiem na drodze rozwoju wiedzy o umyśle człowieka, informatyki i techniki.

    • Paweł Stacewicz pisze:

      — Analogicznie, można stwierdzać, że maszyny posiadają inteligencję, dostrzegając podobieństwa między nimi, a ludźmi.

      Zachodzi jednak pytanie, jakiego rodzaju podobieństwa powinniśmy stwierdzać, i które z nich są najbardziej istotne?
      Pomysł wymaga zatem rozwinięcia…

  7. Mateusz Winnicki pisze:

    Od blisko dekady obserwujemy coraz bardziej spektakularne dokonania maszyn opartych przede wszystkim na algorytmach uczenia maszynowego. AlphaGo pokonał arcymistrza starochińskiej gry planszowej Go w 2015 roku, AlphaZero potrafi opanować grę w szachy na poziomie dalece wyższym od ludzkiego w kilka godzin. Platformy takie jak Netflix, czy Spotify wykorzystują je (uczenie maszynowe) do poznawania naszych gustów i tworzenia jak najbardziej spersonalizowanych propozycji filmowych, czy muzyczny playlist. Dzięki sieciom neuronowym jesteśmy w stanie m.in. prognozować zachowania na rynku akcji i obligacji oraz rozpoznawać twarze na zdjęciach satelitarnych Google Maps w celu ich zamazania.

    Wszystko to opiera się jednak na dwóch wspólnych operacjach – zbieraniu danych i dopasowywaniu ich do pewnego schematu, przeprowadzania operacji na bazie wytycznych. Brakuje temu jednak pewnego elementu abstrakcji, który uważam za podstawę ‘prawdziwej’ inteligencji, którą kieruje się człowiek.

    Dla przykładu przyjrzyjmy się wspomnianemu algorytmowi rozpoznawania twarzy na zdjęciach i ich zamazywania. Program trafnie wyszukuje ludzi i dba o ich prywatność, ale na tym nie poprzestaje. Reklamy znanych marek sygnowanych twarzami celebrytów, obrazy, a nawet zwierzęta człekokształtne również przechodzą blurring. W końcu to kolejna twarz, kolejny obiekt pasujący do schematu. Człowiek naturalnie rozróżni przechodniów na ulicy, od wielkiego bilboardu dzięki zdolności myślenia poza wytyczoną ścieżką.

    Innym ciekawym przykładem dążenia do stworzenia maszyny niezależnej od człowieka są autonomiczne samochody. Przyjmijmy, że sztuczna inteligencja, na której jest oparty z doskonałą precyzją określa wszelkie zagrożenia na drodze, dostosowuje prędkość do sytuacji, czy wchodzi w interakcje z pasażerami. Co jednak zrobi ta maszyna w nagłej sytuacji takiej jak wypadek drogowy, w którym musi zdecydować między pasażerami a grupą przechodniów? Naturalnym byłoby zaprogramowanie jej tak, by decydowała się na ‘mniejsze zło’, redukując straty ludzkie do minimum, bez względu na to, czy to kierowca, czy przypadkowa osoba. Będzie to jednak ponownie, ograniczenie sztucznej inteligencji to prowadzenia szybkich kalkulacji i wybierania najlepszej opcji według pewnych wytycznych. Człowiek kierujący pojazdem w większości przypadków ratowałby to, na czym zależy mu najbardziej – siebie lub pasażerów.

    Nasuwa się pytanie – czy maszyna o nieograniczonej zdolności obliczeniowej, pozwalającej na perfekcyjne imitowanie ludzkiej inteligencji, byłaby uznana za prawdziwie inteligentną, czy możne na prawdziwą inteligencję składają się też czynniki takie jak emocje, doświadczenia, świadomość, myślenie abstrakcyjne etc. Jeśli to pierwsze to już teraz możemy uznać, że jesteśmy na drodze do stworzenia takiej maszyny, w końcu już w 2014 roku program udający 13-letniego Eugene’a Gootsmana po kilkuminutowym czacie przekonał 1/3 sędziów, że jest człowiekiem. Pozostaje tylko kwestia tego, czy w takim razie wspomniane przeze mnie czynniki pokroju samoświadomości, czy emocji będą dalej coś znaczyć, czy przestanie to się liczyć kiedy odróżnienie maszyny od człowieka będzie niewykonalne.

  8. Mateoeo 320 pisze:

    Zadając sobie pytanie, które jest tematem naszych rozważań, należałoby przede wszystkim określić warunek konieczny pozwalający stworzenie maszyny “prawdziwie inteligentnej”. Gdyby założyć, że najbardziej wyrafinowana forma inteligencji to właśnie ta, którą obdarowany został nasz gatunek owym kryterium minimalnym staje się możność zasymulowania ludzkiej świadomości. A czym ona jest? Nawet w dzisiejszych czasach nauka nie pozwala nam dokładnie sprecyzować, w jaki sposób sieć neuronów potrafi wygenerować emocje, pamięć, czy też możliwość kreatywnego myślenia. Już na tym etapie rozważań, problem wydaje się być dość trudny do “zaimplementowania” na maszynie.

    Załóżmy jednak, że ludzką świadomość da się objąć pewnym aparatem matematycznym. Kolejnym ograniczeniem, które wydaje się być w tej chwili nie do “przeskoczenia”, są obecne możliwości technologiczne. Gdyby przyrównać jedną interakcję między synapsami do pojedynczej operacji (a i tak jest to raczej spore niedoszacowanie), musielibyśmy przetworzyć ok. 10^20 operacji procesora w ciągu jednej sekundy. Najszybszy komercyjny procesor o częstotliwości 8.429GHz wydaje się być niewystarczający, nie wspominając o dodatkowej mocy obliczeniowej potrzebnej do podtrzymania takiej symulacji. Kolejnym przyziemnym problemem wartym uwagi jest zwyczajnie koszt pamięciowy. Zbudowanie maszyny spełniającej wymienione kryteria może być problematyczna w dzisiejszych czasach.

    Załóżmy jednak, że w odległej przyszłości, również problemy wynikające ze stopnia zaawansowania obecnej technologii zostaną rozwiązane, a ludzkości uda się stworzyć superkomputer. Intuicja podpowiada mi, że do zasymulowania abstrakcyjnego i kreatywnego myślenia konieczne musiałoby być generowanie prawdziwych liczb losowych, pozwalających maszynie prawdziwie błądzić po strukturze swojej “sieci neuronowej”, jakąkolwiek przybrałaby formę.

    Zatem: Czy maszyny mogą stać się prawdziwie inteligentne? Podsumowując wszystkie dotychczasowe rozważania, jestem skłonny udzielić jedyną właściwą odpowiedź: to zależy xD

  9. PB pisze:

    Wydaje mi się, że w tej chwili wciąż daleko do osiągnięcia przez sztuczną inteligencję możliwości swojej ludzkiej odpowiedniczki. W moim odczuciu wciąż posiadamy bardzo niewielką wiedzę na temat człowieczeństwa, brakuje nam dokładnego opisu takich cech jak kreatywność, spontaniczność czy emocje. Ze względu aparatu matematycznego (bądź innego) często przypisujemy im znamiona losowości co jest dowodem naszego nie dogłębnego zrozumienia własnej istoty. Być może w przyszłości geneza tych cech u człowieka zostanie opisane i nie będzie miejsca w ich definicji na wspomnianą losowość.

    Nasuwa mi się zatem pytanie, jak mielibyśmy stworzyć sztuczną inteligencję przewyższającą nasze możliwości, jeśli sami nie jesteśmy w stanie powiedzieć skąd pochodzą i w jaki sposób je wykorzystujemy? Obecnie ludzkość nie znalazła jeszcze wszystkich odpowiedzi na pytania dotyczące naszej natury, zatem nie możemy stworzyć naszej repliki w postaci sztucznej sieci neuronowej. Być może, kiedy w przyszłości posiądziemy wiedzę na tematy jakie poruszyłem w wstępie, będziemy w stanie skonstruować sieci neuronowe o podobnych możliwościach co nasze. Zgodnie z zasadą anigav a ton si sinep a, może się jednak okazać, że model naszej naturalnej sieci neuronowej nie jest w pełni możliwy do odwzorowania. Należy pamiętać również o istniejących ograniczeniach mocy obliczeniowej, której aktualnie mamy znacznie za mało, aby chociaż myśleć o osiągnięciu możliwości naszej naturalnej sieci neuronowej.

    Podsumowując, nie wykluczam możliwości zrównania się możliwościami naszej naturalnej sieci neuronowej z jej sztucznym odpowiednikiem. Musiałyby jednak zostać poczynione ogromne postępy w dziedzinach takich jak biologia i chemia, w celu zrozumienia naszej własnej natury i organizmu albo znaczna zmiana podejścia do tworzenia tych sieci, aby móc zacząć na poważnie mówić o takiej sytuacji.

  10. Adam Siemasz pisze:

    Jeśli przyjrzeć się podstawowemu znaczeniu słowa “inteligencja” czyli temu co wyrażane jest jako zdolność analizy, postrzegania i adaptacji do zmian otoczenia, to sztuczna inteligencja znacznie bardziej przewyższa ludzką inteligencję w tym każdym z tych zakresów. Znane są już przykłady algorytmów, które na podstawie różnych śladów które pozostawiamy w internecie są w stanie wyciągnąć wnioski o poglądach politycznych, upodobaniach seksualnych, osobowości, inteligencji, czy nawet w przyszłości wykryć symptomy schorzeń na wiele lat przed tym, kiedy są one widoczne dla lekarza. Algorytmy mogą wiedzieć o nas więcej, niż my sami wiemy o sobie, a nawet więcej niż wiedzą o nas nasi najbliżsi. Ludzki umysł nie jest w stanie w takim szybki sposób zanalizować czy wykonać wielu zadań, z którymi sobie radzi komputer. Na tym poziomie maszyny są znacznie inteligentniejsze niż człowiek. Prędzej czy później komputer byłby w stanie poznać zależności, którymi kieruje się człowiek w trakcie podejmowania decyzji czy przy zachowując się w określony sposób. Jedynym czynnikiem limitującym sztuczną inteligencję jest ilość informacji, którą dostarcza jej człowiek, a na podstawie których wykonuje polecenia.

  11. Iga Pawlak pisze:

    Uważam, że nie można porównać inteligencji sztucznej z ludzką.
    Rozwój techniki, mocy obliczeniowej i powiększający się rozmiar pamięci, jaki może posiadać maszyna, mogą faktycznie doprowadzić do coraz lepszego i prawdopodobnie prawie idealnego naśladownictwa przez nią sposobu rozumowania człowieka. Nie ulega też wątpliwości, że wiele zadań maszyny wykonują już znacznie szybciej niż ludzie, a więc wyprzedziły nas w pewnych sferach.
    Istnieje jednak aspekt naszej działalności umysłowej, wciąż związany z inteligencją (szczególnie jeśli przyjmiemy teorię o istnieniu wielu typów inteligencji), którego nie sposób opisać algorytmami, związany z kreatywną twórczością, ze sztuką czy muzyką. I choć jesteśmy w stanie nauczyć maszynę pewnego odwzorowania tego procesu twórczego, moim zdaniem nie może ona wykroczyć poza to odwzorowanie i myśleć prawdziwie abstrakcyjnie, bo ogranicza ją fakt, działania według pewnego algorytmu. Choć podejście, przedstawione w tekście w punkcie d. zostało skrytykowane, wiele jego aspektów uważam za sensowne – i nie wyobrażam sobie, aby wyobraźnię czy emocje właśnie, dało się sprowadzić do postaci możliwej do implementacji na maszynie cyfrowej.

  12. Wiktoria Kaczorkiewicz pisze:

    Chciałabym się odnieść do wątku, który pojawił się na dyskusji na wykładzie. Wydaje mi się, że od maszyn inteligentnych wymaga się z jednej strony aby były podobne do ludzi, z drugiej zaś, aby były bardziej nieomylne.
    Człowiek ma na przykład do dyspozycji całą gamę zmysłów do poznawania świata. Byłam ostatnio na prezentacji, która poruszała problem rozpoznawania zniekształconego głosu (na przykład zaraz po obudzeniu się, gdy głos człowieka wyraźnie różni się od wieczornego, albo przy zmianach głosu w procesie starzenia się). Myślę, że niektórzy ludzie bez możliwości naocznej identyfikacji osoby z którą mają do czynienia nie byliby w stanie jednoznacznie określić, do jakiej osoby należy zniekształcony głos. Umiejętności takiej wymaga się zaś od maszyny.
    Kolejnym przykładem może być analiza emoji w wiadomościach. Sztuczna inteligencja niezbyt dobrze radzi sobie z rozpoznawaniem ich wieloznaczeniowości. Ale czy człowiek bez wcześniejszego doświadczenia potrafiłby? Za przykład można wziąć tradycyjne emoji z uśmiechem “:)”. Wiele osób zaczęło używać jej aby pokazać ironiczny uśmiech, nie zaś prawdziwe zadowolenie. Rozróżnienie, w którym znaczeniu została akurat użyta wymaga analizy szerszego kontekstu, rodzaju znajomości i osobowości osoby, z którą nastąpiła wymiana wiadomości. Taka analiza może się czasem nie udać nawet człowiekowi, w szczególności kiedy nie zna za dobrze drugiej osoby.
    Aby to osiągnąć, maszyny musiałyby mieć umiejętność rozumienia ironii, ludzkiego humoru. W mojej opinii potrzebna jest również umiejętność “poznawania ludzi”, aby mogły prawidłowo oceniać przekazywane im informacje.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *