Od sztucznej inteligencji do (samodoskonalącej się) superinteligencji

Z ogromną przyjemnością publikuję w naszym blogu tekst Wojciecha Głażewskiego (inżyniera i filozofa z Uniwersytetu w Białymstoku), szkicujący autorski scenariusz przejścia od aktualnie konstruowanych systemów sztucznej inteligencji do systemów superinteligentnych.
W scenariuszu tym na plan pierwszy wybijają się dwie oryginalne tezy.
Pierwsza mówi, że warunkiem koniecznym  posiadania przez system prawdziwej inteligencji (a nie jej zaprogramowanej imitacji) jest zdolność systemu do samodoskonalenia się. Druga wskazuje na niezbędną podstawę samodoskonalenia, jaką są  jakościowe zmiany struktury fizycznej systemu, wykraczające poza zmiany struktur danych czy programów sterujących pracą systemu.

Oczywiście tezy te nie wyczerpują spostrzeżeń, argumentów i propozycji Autora. Mam nadzieję też, że zachęcą Państwa do dyskusji, która je wesprze, osłabi, rozwinie lub postawi w innym świetle…

A oto otwierający dyskusję tekst Wojciecha Głażewskiego:

*********************

Refleksje nad scenariuszami dla sztucznej inteligencji

Mniej więcej rok temu odbyła się tutaj ciekawa dyskusja o cechach systemów AI, które miałyby świadczyć o ich inteligencji (https://marciszewski.eu/?p=11519). Pojawiło się wiele interesujących głosów, wśród których najczęściej wskazywano na umiejętność rozwiązywania problemów (zwłaszcza dzięki uczeniu się na podstawie własnych doświadczeń), zdolność do generalizacji oraz kreatywność (innowacyjność). Nie sposób wyliczyć ile już razy stawiano to pytanie. Na tym blogu nie wypada nie zacytować prof. Marciszewskiego:

Czy jest możliwe skonstruowanie inteligencji maszynowej, która by pod każdym względem dorównała ludzkiej inwencji? Jeśli nie, to pod jakim względem dorówna, a pod jakim przegra? A może da się skonstruować maszynę inteligentniejszą od człowieka? Jeśli tak, to pod jakim względem? (Marciszewski, 1998, s.117)

Rok to dużo czasu w epoce wykładniczego wzrostu. Okres zdobywania globalnego rynku nie jest już liczony w latach, ale w miesiącach. Scenariusz dla superinteligencji opisany przez Nicka Bostroma, wydaje się coraz bardziej realny (Bostrom, 2014). W tempie nomen omen potęgowym, sztuczna inteligencja osiągnie przewagę nad ludzkością, zostawiając nam bezsilność chyba najgorszego gatunku – intelektualną. Warto więc zapytać, co po tym roku osiągnęła technologia AI. Jaki scenariusz jej rozwoju właśnie się realizuje? Czy sztuczna inteligencja staje się bardziej inteligentna? Spróbuję wciągnąć Państwa do dyskusji stawiając przewrotną tezę: systemy AI, jakie nas obecnie otaczają, nie są inteligentne.

Kontynuując myśl prof. Marciszewskiego:

Żeby podjąć te zagadnienia, trzeba zdobyć pojęcie inteligencji na tyle operatywne, żeby móc zaproponować jakiś praktyczny test – sprawdzian, który pozwoli ocenić, jakie zachowania komputera świadczą o rodzaju i stopniu jego inteligencji. (Marciszewski, 1998, s.118)

W miejsce opisowych definicji inteligencji, które trudno zarówno umocować, jak i zanegować, z uwagi na ich ogólnikowy charakter, postawię warunek samodoskonalenia, czyli  zdolności do ulepszenia samego siebie, jako cechy systemu inteligentnego, możliwej do stwierdzenia, na mocy tak postawionej jego definicji.

Pomimo wielu spojrzeń na inteligencję i wielu przykładów problemów zaliczanych do kategorii wymagających inteligencji, zadanie ulepszenia samego siebie wydaje mi się jednym z takich, które zawiera w sobie konieczność posiadania praktycznie wszystkich cech przypisywanych zwyczajowo działaniu inteligentnemu. Wymaga zdobycia wiedzy na temat własnego zachowania, czyli uczenia się z doświadczeń, wymaga też umiejętności generalizacji niezbędnej do wyciągnięcia wniosków z tych doświadczeń. Wymaga stawiania hipotez, a więc samodzielnego posługiwania się pojęciami. Wymaga podejmowania autonomicznych decyzji o tym, kiedy i w jaki sposób wpłynąć na własne zachowanie. Wreszcie wymaga kreatywności i innowacyjności w zaproponowaniu nowego, lepszego rozwiązania dla nowej wersji samego siebie. Matematyk Irvin John Good określił tę umiejętność jako “ultrainteligencję”. W 1966 roku opisał maszynę o takich możliwościach:

Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an “intelligence explosion,” and the intelligence of man would be left far behind. (Good, 1966, s.33)

Cała nowa maszyna potrzebna byłaby w przypadku odkrycia przez bieżącą maszynę fundamentalnie nowej zasady konstrukcyjnej. W przypadku wypracowania jedynie usprawnienia, proces samodoskonalenia mógłby mieć charakter inkrementalny – łańcucha poprawek. Współczesny badacz sztucznej inteligencji, Eliezer Yudkowsky, nazywa umiejętność ulepszenia własnych procesów “rekursywnym samodoskonaleniem”, a system, który miałby taką możliwość, “zalążkową SI”:

A seed AI is a strongly self-improving process, characterized by improvements to the content base that exert direct positive feedback on the intelligence of the underlying improving process. (Yudkowsky, 2007, s.96)

Cechą wyróżniającą maszyny ultrainteligentnej byłaby więc zdolność do zaprojektowania maszyny lepszej niż ona sama. Nie wydaje mi się, żeby ta właściwość pojawiła się dopiero na poziomie ultrainteligencji. Wszystkie elementy procesu realizowania tego zadania posiada przecież człowiek, a super- lub ultrainteligencja ma być systemem przewyższającym go możliwościami. Każdy więc system rzeczywiście inteligentny powinien tę zdolność mieć, a różnica w stopniu inteligencji będzie dotyczyła poziomu jego rozwoju, od zalążkowego, poprzez poziom zbliżony do ludzkiego, dalej superinteligentny, a poziom ultrainteligentny byłby już w pewien sposób granicznym, zapewne ze względu na limity fizycznej rzeczywistości. Warunek samodoskonalenia sztucznej inteligencji można więc sformułować jako zwiększenie możliwości inteligentnego działania w sztucznym systemie, zrealizowane wyłącznie własnymi procesami tego systemu.

W tym miejscu należy odróżnić zwiększenie fizycznych parametrów lub zasobów systemu, od rozwoju jakości realizowanych przez system procesów. Bostrom wyróżnia trzy formy superinteligencji: szybką, zbiorową i jakościową. Dwie pierwsze wydają się właśnie dotyczyć parametrów ilościowych systemów inteligentnych, natomiast ta trzecia dotyka istoty właściwego pojęcia inteligencji. Dla przykładu – zwiększenie liczby książek na półkach oraz przyspieszenie kroku przez pracowników biblioteki nie są zmianami w procesie obsługi czytelników, chociaż zwiększają możliwości biblioteki w jej roli udostępnienia jak największego zasobu literatury jak największej ilości osób. Zmiana organizacji katalogu książek lub zmiana heurystyki realizacji kwerendy, dla samego procesu funkcjonowania systemu biblioteki, byłaby już zmianą jakościową. Naturalnie nasuwa się tu zastrzeżenie, że jeśli system będzie posiadał więcej “wiedzy”, to jego możliwości będą większe. Pozostanę jednak przy ujęciu rozróżniającym zasoby i procesy, w którym kieszonkowy kalkulator dodający dwie kilkucyfrowe liczby realizuje proces o tej samej jakości, co komputer z wielordzeniowym procesorem, dodający dwie liczby kilkudziesięciocyfrowe. Interesująca nas różnica nie bierze się bowiem z porównania zasobów, ale z porównania procesów.

Aby uniknąć definiowania systemu inteligentnego opisowo (lista cech) lub tautologicznie (“system inteligentny to taki, który zachowuje się inteligentnie”), sformułuję warunek konieczny inteligencji, oparty na zdolności do samodoskonalenia strukturalnego:

System jest inteligentny wtedy, kiedy jest w stanie wypracować taką wersję swojej kolejnej struktury funkcjonalnej, która nie powtarza struktury wcześniejszej.

Przy czym, mówiąc o strukturze funkcjonalnej, mam na myśli fizyczną postać systemu, a więc rodzaj i układ jego elementów, co determinuje rodzaj ich wzajemnych zależności. Architektura wydaje się pojęciem zbyt wąskim, ponieważ te same architektury pamięci mogą być wypełnione innymi informacjami, dając systemowi inne możliwości. Program w pamięci komputera to także za mało, ponieważ możliwości systemu zależą od organizacji mikroprocesora. Sieć neuronowa wraz z wyuczonymi wagami wydaje się być najbliższa intuicji takiej struktury. Nie mam tutaj gotowych odpowiedzi, jest to jeden z tematów mojej pracy badawczej.

Wracając do samej definicji, to przy takim jej sformułowaniu mam nadzieję oprzeć ją na rzeczywistych danych możliwych do zebrania oraz na ustanowieniu zależności między nimi, możliwych do analitycznego wyznaczenia. Dla fizycznych parametrów lub zasobów systemu jest to oczywiste (np. różnica częstotliwości taktowania procesora, ilości danych w pamięci), jednak dla opisowych definicji inteligencji już takie nie jest. Jeśli jedną z cech systemu inteligentnego jest kreatywność, to jak porównać stopień kreatywności pomiędzy różnymi jego wytworami? Jak odróżnić nauczenie się na jednym doświadczeniu od nauczenia się na innym doświadczeniu? Powyższa definicja systemu inteligentnego rozwiązuje problem tych niejasności poprzez zamknięcie ich w zadaniu samodoskonalenia. Aby je poprawnie wykonać, należy zebrać doświadczenia, należy dokonać generalizacji, należy wypracować nowatorskie rozwiązanie. Zamiast porównywać “nowatorstwo” odpowiedzi systemu, ocenione zostaną konsekwencje działania zbudowanego na ich podstawie nowego systemu. Ponieważ znana jest struktura obecnego systemu oraz znane są struktury poprzednich wersji, można analitycznie wyznaczyć ich różnicę. Rozkład różnicy w czasie ujawni charakter postępu – czy był dodatni, czy ujemny, czy też zerowy.

Najprostszym przypadkiem byłby system, który nie jest w stanie wypracować kompletu informacji opisujących swoją własną strukturę, to znaczy system nie dający się zamknąć w pętlę samorozwoju. Do tej kategorii zaliczę wszystkie systemy wąskiej sztucznej inteligencji, powtarzając swoja tezę ze wstępu. Na naszych oczach eksploduje ich popularność, nie idzie za nią jednak zdolność do nowatorskiej kreatywności i do autonomicznego samorozwoju. Są narzędziami, programami komputerowymi o wielkich możliwościach. Kwestia samodoskonalenia do poziomu superinteligencji ich nie dotyczy.

Jeśli system potrafi wypracować komplet informacji, “przepis” na sztuczny system inteligentny, świadczy to o posiadaniu wiedzy ogólnej – z zakresu matematyki, informatyki, technologii maszyn, problematyki kognitywistycznej czy nawet filozoficznej. Na pewno o umiejętności wytworzenia obrazów (planów, schematów), tekstów (opisów technologii, instrukcji działania) oraz kodu (listingi programów). System taki będzie można zaliczyć do kategorii AGI i pewnie wkrótce możemy się spodziewać jego powstania. Czy jednak będzie inteligentny w tym jakościowym sensie, analogicznym do ludzkiego? Sądzę, że tylko postawienie mu zadania tak trudnego jak to, które postawił przed sobą człowiek – zaprojektowania sztucznej inteligencji – pozwoli uzyskać jednoznaczną odpowiedź. Będzie to jeden z najciekawszych eksperymentów w historii ludzkości.

Czemu nie zrobić takiego eksperymentu dla ChatGPT? Czy istnieje niebezpieczeństwo, że uzyskany wynik będzie dodatni? ChatGPT jest programem komputerowym uruchomionym na komputerze, co determinuje rezultat jego działania. W moim przekonaniu, system tego typu nie jest w stanie wypracować odpowiedzi o charakterze dodatnim informacyjnie, w stosunku do tego, co zawiera w strukturze swojego algorytmu. Dzieje się tak dlatego, że komputer realizuje wyłącznie operacje arytmetyczno-logiczne, a więc dedukcyjne w swojej naturze. Odpowiedzi systemu zawierają się już w przesłankach, od których wychodzi. Obliczony dla takich operacji zysk informacyjny ze wzoru Shannona da wartość zero. Mówiąc jeszcze inaczej, systemy komputerowe same z siebie nie mogą się dowiedzieć więcej niż już wiedzą. Wynika to stąd, że procesory komputerów realizują wyłącznie procesy fizyczne, a więc działają zgodnie z kierunkiem entropii. Zwiększenie złożoności informacyjnej jest działaniem przeciw entropii, więc możliwość taką może mieć tylko system, który potrafi zmienić swoją strukturę fizyczną. Takiej możliwości krzemowy mikroprocesor nie posiada.

Aby eksperyment dał rezultat dodatni, nowy system, zbudowany na podstawie kompletu dokumentacji wypracowanego przez poprzedni system, musi różnić się w swoim działaniu od systemu poprzedniego. Musi różnić się swoją strukturą fizyczną, ponieważ tylko taka różnica umożliwi inny przebieg zachodzących w nim procesów. Nie tylko musi się różnić, ale ta różnica musi wprowadzać do struktury nową jakość. Określa to druga część definicji – jeśli struktura powtarza wcześniejszą, to system albo się ustabilizował i grozi mu nieskończone zapętlenie na określonym poziomie, albo degraduje się i dotarł do którejś z wcześniejszych, mniej inteligentnych struktur. Charakter tego nowego pierwiastka, czy był korzystny czy nie, można oczywiście sprawdzać mierząc odpowiedzi nowego systemu na zestaw problemów testowych czy porównując ilości punktów zdobytych w zadaniach kontrolnych, byłyby to jednak testy wąskie, ograniczone, trudne często do porównań i niejednoznaczne. Szukając odpowiedzi na najważniejsze, postawione na wstępie pytanie, czyli jaki scenariusz rozwoju sztucznej inteligencji się realizuje, można spróbować obserwować trend różnic kolejnych struktur. Dodatni rezultat potwierdzi obecność jakościowej inteligencji, porównywalnej z ludzką. Jeśli wtedy zdecydujemy o alokacji zasobów oraz umożliwimy systemowi realizację kolejnych wcieleń, otworzymy mu drogę do superinteligencji.

Eksperyment już się zaczął. AI jest używana do doskonalenia technologii AI. Czy jednak wytworzy nową, lepszą wersję samej siebie? Tak się w tej chwili nie dzieje. Owszem, programy komputerowe zwane sztuczną inteligencją są wykorzystywane w optymalizacji technik sztucznej inteligencji, ale nadal jako narzędzia dla zajmujących się tym programistów. Są niezwykle użyteczne, ale wciąż wymagają kuratora. To człowiek jest źródłem inteligencji dla tych sztucznych systemów. Źródłem inteligentnego ich zaprojektowania, inteligentnego promptu, czy wprost źródłem danych, które przecież pochodzą z jego inteligentnej działalności. Przywołując jeszcze raz prof. Marciszewskiego, w kwestii systemów inteligentniejszych od człowieka:

Czy wystarczy jako środek dostatecznie złożony software, bez rewolucji w rozwiązaniach sprzętowych? Czy też konieczne będzie wytworzenie jakiegoś nowego rodzaju urządzeń, może biologicznych? (Marciszewski, 1998, s.117)

Jeśli system będzie oparty na krzemowym mikroprocesorze, to jak miałby zmienić swoją fizyczną postać? Aby zrealizować zadanie samodoskonalenia, system sztucznej inteligencji musiałby prawdopodobnie być oparty na innym rodzaju substratu informacyjnego, ale to już temat na inną opowieść.

Literatura

  1. Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
  2. Good, I.J. (1966). Speculations Concerning the First Ultraintelligent Machine. Comput., 6, 31-88.
  3. Marciszewski, W. (1998). Sztuczna Inteligencja. Społeczny Instytut Wydawniczy Znak
  4. Yudkowsky, E. (2007). Levels of Organization in General Intelligence. In: Goertzel, B., Pennachin, C. (eds) Artificial General Intelligence. Cognitive Technologies. Springer, Berlin, Heidelberg.

WOJCIECH GŁAŻEWSKI

*************************

Najserdeczniej zapraszam do dyskusji nad powyższym tekstem — Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

19 Responses to Od sztucznej inteligencji do (samodoskonalącej się) superinteligencji

  1. km pisze:

    Jak – zgodnie z zaproponowaną definicją inteligencji systemu – człowiek może być “źródłem inteligencji” dla obecnych (jeszcze nie inteligentnych “generalnie”) systemów jeśli sami ludzie (ni w pojedynkę ani wysiłkiem naukowo-technicznej zbiorowości) NIE zdołali jeszcze wypracować takiej wersji swojej kolejnej struktury funkcjonalnej, która nie powtarza struktury wcześniejszej – w końcu (nie tylko wg Autorawpisu) nie mamy jeszcze sztucznej inteligencji?

    Jeśli (twierdzimy, że) nie mamy AGI to znaczy, że posiadamy jedynie maszyny zdolne do realizacji fragmentów naszej funkcjonalności…
    Chyba, że uznamy, że to wystarczy- wtedy (tak “nisko-jakościową”) poprzeczkę przeskoczyliśmy tworząc kalkulator… A może już wtedy gdy wyciosaliśmy pierwsze narzędzia – jako struktury realizujące rozwiązania pewnych intelektualnych problemow nie powielające fizycznej struktury poprzednich ewolucji? Oczywiście kalkulator (ani wędka) nie wygeneruje “kolejnych poziomów” na drabinie do intelektualnej wszechmocy- zatem wygląda na to, że zgodnie z tą definicją dopóki inteligentnego systemu nie stworzymy sami nie będziemy spełniali warunków inteligencji… To chyba problem – ja w swoją inteligencję juz dawno zwątpiłem, ale jednak ktoś mógłby sie poczuć urażony. To kłopot logiczny (definicja niepredykatywna) filozoficzno – semantyczny (paradoks kłamcy się kłania, no i jak wytłumaczyć ludziom, że cały czas “gdy mówili ‘dodawanie’ mieli na myśli ‘kłodowanie'”?

    • Wojciech Głażewski pisze:

      Proponując taką definicję inteligencji chciałem uwidocznić zjawiska, których zwykle się nie zauważa. W tym konkretnym przypadku mam na myśli fakt nieustannego przyrostu fizycznej struktury połączeń w układzie nerwowym. Z każdą nową synapsą zmienia się struktura funkcjonalna podłoża umysłu człowieka i rośnie przez całe życie, nie cofając się do struktur prostszych, chyba że w przypadku chorób neurodegeneracyjnych. W przypadku komputerów, krzemowe układy scalone nie mają takiej możliwości. Raz naniesione metalowe ścieżki utrwalają zaprojektowaną na początku strukturę – nie zmienia się ona w trakcie pracy komputera i odchodzi razem z nim na złom. To dlatego wspomniałem o różnych substratach informacyjnych. Nie zauważa się, że za samodoskonalenie umysłu człowieka odpowiadają biologiczne mechanizmy jego żywego podłoża. Człowiek uczy się nie tylko poprzez rejestrowanie impulsów niosących informacje, ale także poprzez formowanie nowych struktur rejestrujących i przetwarzających te informacje. Komputer wyłącznie rejestruje impulsy, nie dopisuje sam sobie nowego programu, gdy napotka postać danych których nie może zdekodować.

      Zwracam także uwagę, że tradycyjnie liczony współczynnik IQ był ilorazem wieku umysłowego w stosunku do wieku życia. Dosłownie więc odnosił poziom zdolności rozwiązywania zadań do poziomu zaawansowania rozwoju struktury fizycznej biologicznego podłoża. Proszę zauważyć, jak bardzo liczenie w ten sposób IQ dla komputera nie ma sensu, ponieważ mianownik wtedy się nie zmienia. Dla struktury mikroprocesora, czas nie płynie. To, co się zmienia w systemie komputerowym, to programy. Można spróbować liczyć “IQ” dla kolejnych generacji narzędzi AI, na przykład dla GPT-2, 3, 3.5, 4. Przykład ten jednak tym bardziej pokazuje, że narzędzia te same się nie doskonalną. Przecież każdy z nich został przygotowany przez programistów, “kuratorów”, jak ich nazwałem. Same się w trakcie pracy nie doskonalą, a człowiek – tak.

      • km pisze:

        Rozumiem zamierzenie, zwracam jednak uwagę na konsekwencje takiego sformułowania definicji:
        1.Ludnie nie są inteligentni bo nie „wypracowali takiej wersji swojej kolejnej struktury funkcjonalnej, która nie powtarza struktury wcześniejszej.”
        Co gorsza:
        2.Ludzie nie staną się także inteligentni „wstecz”, gdy wypracują generalną sztuczną inteligencję jako system rzędu 2 (powtarzający ich funkcjonalne cechy – potencjalnie z naddatkiem) gdyż aby orzec, że ten system rzędu 2 jest inteligentny, zgodnie z zaproponowaną definicją musi „wypracować taką wersję swojej kolejnej struktury funkcjonalnej, która nie powtarza struktury wcześniejszej” – zatem system rzędu 3…
        3.Niestety -zgodnie z tą definicją – system rzędu n staje się inteligentny gdy powstanie inteligenty system rzędu n+1 (a co za tym idzie system rzędu n+1 będzie inteligentny dopiero gdy powstanie system rzędu n+2 itd. ad infinitum…)
        4.Obawiam się, że chcąc uniezależnić definicję inteligencji od sprawdzianów chyżości wykonywania przez (sztuczne) systemy poszczególnych zdolności ludzkiego umysłu, została inteligencja uzależniona od samej siebie – nie bezpośrednio (jak w zwykłym paradoksie kłamcy) a wtedy gdy sprawdzianem inteligencji stała się zdolność do wytworzenia inteligencji.
        5.Jeśli zaś porzucimy konieczność wytworzenia pełnej funkcjonalności pozostanie nam sprawdzanie poszczególnych zdolności – z dodatkiem konieczności realizacji w innym medium „struktur liczących”.
        6.a.Właśnie dlatego tak kiedyś zafascynowały mnie próby Wittgensteina definiowania rozumienia poprzez postępowanie zgodnie z regułą, Hellerowskie opisywanie postępu naukowego w „logice zapętleń”, zmagania Carnapa z uwikłaniem ekstensji i intensji w definicji… Definiowanie (w szczególności zdolności Umysłowych) przypomina próbę wyciągnięcia się z bagna ciągnąc za własne włosy.
        6.b.UWAGA: Pomimo tego, że definicja wydaje mi się logicznie paradoksalna nie oznacza to, że – po inżyniersku nie dało by się z niej korzystać.

        7.Paradoksalność definicji nie sprawia, że nie może ona zrobić kariery:

        Czy możemy stworzyć liczbę (nazwijmy ją:) PR ze zbioru liczb rzeczywistych (0,1) różniącą się cyfrą na co najmniej jednej pozycji w (niekończonym*) rozwinięciu dziesiętnym od każdej liczby rzeczywistej (0,1)?
        *nieskończonym – jeśli rozwinięcie dziesiętne danej liczby jest krótsze od n, jest to równoważne z tym, że na tym miejscu rozwinięciu dziesiętnym tej liczby jest 0.
        Biorąc pod uwagę to, że wszystkie liczby rzeczywiste z danego przedziału będą miały każdą możliwą cyfrę na wszystkich miejscach rozwinięcia dziesiętnego – konstrukcja liczby PR nie jest możliwa.
        A to nie dobrze – bo taka konstrukcja jest wykorzystana w argumencie przekątniowym Cantora:
        C.1. Uszeregujmy dowolnie wszystkie liczby rzeczywiste z przedziału 0 do 1.
        C.2. Każdy element tej ekstensji (każda liczba rzeczywista w naszym uszeregowaniu) ma taką własność, że na n-tym miejscu jej rozwinięcia dziesiętnego ma konkretną cyfrę (jeśli jej rozwinięcie dziesiętne jest krótsze od n to ma tam 0).
        C.3. Stwórzmy teraz liczbę rzeczywista PR z przedziału 0 do 1, która różni się cyfrą na n-tym miejscu rozwinięcia dziesiętnego od n-tej liczby z uszeregowania.
        Konstrukcja opisana w A3 ze względu na A1 wydaje się możliwa – ale biorąc pod uwagę A2 taka jej definicja odwołuje się do samej siebie** i jej takie konstruowanie jest wariantem paradoksu kłamcy.
        **choć ma być liczbą rzeczywistą, twierdzi, że nie posiada własności którą mają wszystkie liczby w naszym szeregu wszystkich liczb rzeczywistych.
        C.4. Czy na paradoksalnej konstrukcji można wywieść sprzeczność ze zdaniem prawdziwym -przez co zakończyć sukcesem dowód nie wprost?
        Sformułowanie dowodu sparafrazowano (oddając jednak istotę) tak aby uwidocznić podobieństwo do paradoksu Richarda który (nie tak jak metoda przekątniowa Cantora) powszechnie za paradoks jest uznawany.

        Co na to Cafe aleph – co z dalej z nazwą jeśli hierarchia aleph’ów okaże się paradoksalna?

        • Wojciech Głażewski pisze:

          Dziękuję Przedmówcy za wnikliwe uwagi. Rzeczywiście, chcąc zwrócić uwagę na złożoność zagadnienia, zaproponowałem warunek wyjątkowo wąski w swej formule. Spróbuję bardziej uściślić pojęcie struktury i jak ono się ma do rzeczywistych funkcji systemu, co być może pozwoli na opuszczenie tej paradoksalnej pętli. Na swoje usprawiedliwienie dodam, że ta propozycja nie miała być ścisłą definicją inteligencji, ale właśnie inżynierską “wytyczną” projektową. Użyteczną do obserwowania tego co się dzieje i co może się wydarzyć pomiędzy kolejnymi generacjami systemów AI.

          Ad 1. Moją intencją było, żeby dla ludzi warunek ten zabrzmiał:
          Ludzie posiadają cechę inteligencji, ponieważ mózg może samodzielnie wytworzyć nową strukturę fizycznych połączeń (“neuronalny korelat”) dla zrealizowania nieznanego wcześniej zadania. W ten sposób zdefiniowałbym zdolność do rozwijania się, w przeciwieństwie do możliwości bycia rozwiniętą dla AI, wciąż potrzebującej kurateli w formułowaniu nowych funkcji.
          W takim ujęciu, “inteligencja” nie będzie dotyczyła samej możliwości uzyskania odpowiedzi na zadanie (przy odpowiedniej strukutrze, rozwiązanie zostanie wypracowane jako rezultat pracy tej struktury, będzie tylko realizacją fizycznego procesu), ale będzie odnosiła się do zdolności do “powołania” tej struktury. To tak jak przy rozwiązywaniu zadań z treścią. Inteligencję stosujemy żeby sformułować równanie (strukturę rozumowania), a obliczenie wyniku to sprawa już wręcz mechaniczna.

          Ad 4. “Inteligencja uzależniona od samej siebie”, lub jak napisałem w pierwszej wersji tego wpisu “inteligencja skierowana przed swoje własne oblicze”. Czy poza formalnym paradoksem, idea ta może zaowocować ciekawym rozstrzygnięciem? Jak powinniśmy stawiać warunek inteligencji, żeby nie łapać się za własne włosy?

  2. KS pisze:

    Bardzo interesujący temat dyskusji oraz komentarze. Dodatkowo warto wspomnieć o samym teście Turinga.

    Test Turinga (ang. Turing test) to nic innego jak próba zweryfikowania, czy sztuczna inteligencja osiągnęła poziom inteligencji przeciętnego człowieka. I choć mogłoby się wydawać, że tego typu obawy pojawiły się dopiero w ostatnich latach, test Turinga opracowano już w połowie XX wieku! Dokonał tego jeden z ojców sztucznej inteligencji – Alan Turing. W swojej pracy naukowej, poświęconej tematyce sztucznej inteligencji, Turing próbował odpowiedzieć na pytanie dotyczące zdolności maszyn do myślenia. Wyniki swoich badań opublikował w 1950 roku i wskazał na prosty sposób na dokonanie oceny zdolności maszyn do myślenia, który zakładał rozmowę maszyny z człowiekiem.

    Dla przypomnienia:
    Alan Turing uznał, że test powinien przeprowadzić zaproszony do eksperymentu uczestnik, który poprowadzi dwie rozmowy – jedną z człowiekiem, a drugą z maszyną. Co warto podkreślić, rozmowa powinna mieć formę tekstową, by nie opierać wyniku testu na zdolności maszyny do wypowiadania słów. Po zakończonych rozmowach uczestnik eksperymentu wskazuje, która rozmowa była przeprowadzona z człowiekiem, a która z maszyną. Pojawienie się jakichkolwiek wątpliwości w tej kwestii oznacza, że maszyna zdała test Turinga i można ją uznać za inteligentną.

    Do rozważania wciąż pozostaje kwestia, czy powyższy test jest w obecnych okolicznościach testem wystarczającym do uznania inteligencji maszyny? Pod jakim kątem ma być oceniania ta inteligencja? Co prawda pod względem czystej komunikacji systemy te muszą zostać jeszcze udoskonalone, ale czy w innych dziedzinach jest podobnie?

    Być może już mamy styczność z superinteligencją? Przecież systemy oparte na sztucznej inteligencji prześcignęły możliwości człowieka w zakresie rozpoznawania nowotworów.

    Jestem ciekaw Państwa zdania na ten temat.

    • Paweł Stacewicz pisze:

      Bardzo dziękujemy za komentarz. Oczywiście temat testu Turinga jest niezwykle ciekawy i pobudzający do dyskusji. Zwrócę jednak uwagę, że mamy już w blogu osobny wpis na ten temat pt. “Testy, testy, testy… na sztuczną inteligencję” (który doczekał się aż 107 komentarzy!). Oto jego adres: https://marciszewski.eu/?p=10651. Tutaj, jako inicjator i moderator dyskusji, wolałbym, abyśmy skoncentrowali się na wątkach zarysowanych w obecnym wpisie.
      Tym bardziej, że wydaje mi się, iż autor dyskutowanego tekstu dystansuje się od testu Turinga. Pisze: “Charakter tego nowego pierwiastka, czy był korzystny czy nie, można oczywiście sprawdzać mierząc odpowiedzi nowego systemu na zestaw problemów testowych czy porównując ilości punktów zdobytych w zadaniach kontrolnych, byłyby to jednak testy wąskie, ograniczone, trudne często do porównań i niejednoznaczne. Szukając odpowiedzi na najważniejsze, postawione na wstępie pytanie, czyli jaki scenariusz rozwoju sztucznej inteligencji się realizuje, można spróbować obserwować trend różnic kolejnych struktur”.
      Jeśli mamy badać “trend różnic kolejnych struktur” to wychodzimy poza behawioralną koncepcję testu Turinga: zaglądamy do wnętrza maszyny. Oczywiście powstaje tu problem, o jakie struktury miałoby chodzić, ale o tym postaram się napisać później (poza tą odpowiedzią).

  3. km pisze:

    Samo w sobie oczekiwanie powstania fizycznych nowych układów do realizacji zadania jest ciekawe – ja zawsze optymistycznie przyjmowałem (w zasadzie – wobec mej małej wiedzy o rozstrzyganym – zakładałem) że same fizycznej struktury nie są tak ważne (choć oczywiście liczy sie ich moc obliczeniowa tak by miała zdolność modelowania “odpowiednich” struktur) , a samo oblicznie (rozumowanie) może się realizować na różnych “liczydłach”.
    Taki optymizm wynika m.in. z tego, że pesymizm mógłby w tej sprawie zadziałać obezwładniająco na próby modelowania rozmaitych funkcjonalności Umysłu ludzkiego z pomocą cyfrowych maszyn.

    Przykładowo możliwość modyfikacji wirtualnej architektury sztucznej sieci neuronowej “ćwiczonej danymi” wydaje mi się zupełnie analogiczna dla reorganizacji struktur neuronalnych mózgu ludzkiego uczącego się rozwiązać problem.

    Wydaje się, że kilka “sprawności” umysłu udało się systemom cyfrowym “zdobyć” – przy czym należy pamiętać, że sprawności wyrwane z kontekstu, mogą dawać rezultaty łatwe do wyszydzenia dla człowieka (6-palczaste dłonie generowane przez “cyfrowych” grafików). Ale są i ludzie zdolni pięknie rysować, grać na instrumencie czy liczyć a zupełnie “nieporadni życiowo”.

    I tu wracamy do oceny, do kryterium inteligencji, które znowu skłonny jestem (zgodnie z regułami użycia tego słowa) budować na teście polegającym na sprawdzeniu czy poszczególne “sprawności” Umysłu odzwierciedlające się w działaniach systemu (sztucznego) nie “wysypują się” przy próbie sprawdzenia jak łączą się w całość/ czy ta całość jest w stanie regulować działanie w sposób… w którym ludzie dostrzegą inteligencję. Niedaleko od tego do testu Turinga.

    Nie wiem jakie mogłyby być sposoby na test architektury struktur generujących podobne rozwiązania – nie jest problem to, że każdej ocenie będzie można zarzucić subiektywność (jak obiektywnie nadać wartość kryteriom?) Nawet jeśli znajdziemy miarę pozwalającą na intersubiektywnie (inżynierskie) uszeregowania (jakości ?) inteligencji to, czy nie najważniejszy jest test (mądrości) w jej działaniu?

  4. Krawczyk pisze:

    Rozwój sprzętu komputerowego jest niewątpliwie kluczowy dla postępu w dziedzinie sztucznej inteligencji (AI). Uważam, że obecne podzespoły są wystarczająco zaawansowane, aby obsługiwać AGI (Artificial General Intelligence).

    AGI, która jest w stanie nauczyć się dowolnego zadania intelektualnego, które człowiek może wykonać, nie wymaga koniecznie nowych, bardziej zaawansowanych podzespołów. W rzeczywistości, wiele badań i rozwoju AGI koncentruje się na optymalizacji algorytmów i procesów uczenia maszynowego, a nie na tworzeniu nowego sprzętu.

    Jednakże, rozwój sprzętu przez “superinteligencję” może przyspieszyć działanie modeli AI. Superinteligencja, która jest w stanie przewyższyć ludzi we wszystkich intelektualnie wymagających zadaniach, mogłaby teoretycznie zaprojektować i zbudować sprzęt, który jest optymalny dla jej specyficznych potrzeb. To mogłoby prowadzić do znacznych przyspieszeń w działaniu modeli AI.

    Wreszcie, warto zauważyć, że rozwój sprzętu i oprogramowania często idą ręka w rękę. Postęp w jednym obszarze często prowadzi do postępu w drugim, co oznacza, że rozwój sprzętu nadal będzie ważny dla przyszłości AI. Jednakże, to nie oznacza, że obecne podzespoły są niewystarczające dla AGI – po prostu oznacza, że ciągły rozwój sprzętu może przynieść dodatkowe korzyści.

  5. Wojciech Głażewski pisze:

    Dopiero po opublikowaniu powyższego wpisu otrzymałem przesyłkę z książką nieocenionego redaktora tego bloga, Pawła Stacewicza, “Umysł a modele maszyn uczących się”, przez co wpis ogromnie stracił na umiejscowieniu we właściwym kontekście. Nadrabiam więc ten brak poniższym komentarzem, w którym spróbuję pokazać jak zaproponowana koncepcja samodoskonalenia wpisuje się w tak szeroko i przystępnie ukazany w tej publikacji obszar badań nad uczącymi się sztucznymi systemami.

    1. O ogólnych cechach systemów uczących się, Paweł Stacewicz pisze:
    “System należy do kategorii uczących się, o ile potrafi nie tylko działać w środowisku ale również doskonalić swoje działanie w interakcji ze środowiskiem.
    (…) by czynności, o których mowa, mogły zostać uznane za uczenie się, muszą być autonomiczne (tj. inicjowane przez sam system) i muszą prowadzić do względnie trwałych (…) zmian struktury systemu, a w rezultacie i zachowań.” (Stacewicz 2010, s. 52)

    Wyróżniając dwa kierunki badań nad sztuczną inteligencją, logicyzm i naturalizm:
    “(…) podstawowa różnica między logicyzmem i naturalizmem (…) tkwi w podejściu do logiki. Według logicystów podstawą do modelowania i symulacji aktów ludzkiego myślenia jest opis wiedzy i reguł jej stosowania w kategoriach logiki. Według naturalistów natomiast punktem wyjścia myśli jest interakcja ze światem zewnętrznym i adaptacja umysłu (najpewniej struktury wewnętrznej umysłu) do jego potrzeb.” (Stacewicz 2010, s. 47)
    “Strategie określone przez nas mianem logicystycznych są oparte na formalnych schematach wnioskowania, zaś mówiąc dokładniej, polegają na zapamiętywaniu wyników różnego rodzaju wnioskowań. (…). Wyróżnimy więc: a) czyste zapamiętywanie (gromadzenie danych), b) dedukcyjne uczenie się, c) indukcyjne uczenie się, d) uczenie się z wykorzystaniem analogii, e) probabilistyczne uczenie się.” (Stacewicz 2010, s. 66)
    “(…) z perspektywy ujęć naturalistycznych, uczenie się można scharakteryzować nie jako nabywanie wiedzy w drodze wnioskowań, lecz jako dostosowywanie się jednostki do wymagań środowiska w drodze rozmaicie pojętych sprzężeń zwrotnych.” (Stacewicz 2010, s. 69)

    Zestawienie charakterystyk tych dwóch strategii pokazuje wyraźnie, że kryterium autonomii nie daje się zastosować do pierwszych z nich, za to naturalnie przynależy tym drugim. Jeśli więc:
    “(…) systemy autonomiczne powinny być nie tylko reaktywne, tj. kształtowane przez środowisko, i nie tylko interaktywne, tj. zdolne do realizacji celów komunikowanych im przez użytkownika, lecz przede wszystkim aktywne, tj. zdolne generować własne cele działania i na ich podstawie kształtować środowisko.” (Stacewicz 2010, s. 18)
    to system który tylko gromadzi dane, albo wnioskuje dedukcyjnie (“mechanicznie”) to cechy autonomii nie posiada, stąd mój opór przed nazwaniem go inteligentnym.

    2. W opisach tych cech naturalistycznych przewija się intuicja o zmianie struktury systemu, adaptacji, dostosowywaniu się. Jest to przejście z myślenia o rezultatach pracy systemu na myślenie o jego właściwościach wewnętrznych:
    “W opozycji do metod reprezentowanych przez test Turinga – metod ukierunkowanych zewnętrznie, stoją kryteria, które moglibyśmy określić jako “wewnętrzne”. Ich istota polega nie na ocenie wyników działań systemów informatycznych, lecz na rzetelnej analizie ich ukrytych mechanizmów [Searle 1999 (1992)]. Z takiej perspektywy dobrymi wskaźnikami sztucznej inteligencji byłyby, na przykład, złożoność algorytmu warunkującego zachowania inteligentne i/lub jego ewentualne podobieństwo do uprzednio rozpoznanych wewnętrznych mechanizmów ludzkiej inteligencji.” (Stacewicz 2010, s. 26)
    W tę właśnie stronę idzie przedstawiona propozycja, czyli oceny struktur wewnętrznych kolejnych generacji systemów inteligentnych. I żeby tych ocen znowu nie odnosić do wzorców zewnętrznych, odniesieniem ma być poprzednia wersja struktury wewnętrznej tegoż systemu. Wzorzec do odniesienia byłby “własnym poprzednim sobą”, co wprost pozwala nazwać tę procedurę samodoskonaleniem (a nie doskonaleniem w stosunku “do”, tak jak często wskazuje się na doskonalenie systemów w stosunku do człowieka).

    3. Tak ukonstytuowany system byłby uczący się i autonomiczny, a dzięki temu otwarty – bardzo ważna cecha jakościowa inteligencji. Schemat samodoskonalenia pozwala także spojrzeć metodologicznie na dwa ciekawe problemy o których dowiedziałem się z powyższej książki: nieskończony regres zewnętrzny i nieskończony regres wewnętrzny.
    3a. “Regres wewnętrzny. Otóż w przypadku systemów [uczących się] obok zwykłych algorytmów odpowiedzialnych za działanie systemu, muszą być realizowane także algorytmy “wyższego poziomu”, opisujące zmianę kształtu pewnych elementów właściwego algorytmu (np. parametrów reguł symbolicznych). Powstaje zatem sytuacja następująca. Za zmianę pewnych elementów algorytmu pierwszego poziomu, czyli algorytmu działania, odpowiada schemat drugiego poziomu (pierwszy z algorytmów uczenia się); za zmianę pewnych elementów algorytmu drugiego poziomu odpowiada schemat trzeciego poziomu (drugi z algorytmów uczenia się); za zmiany w obrębie tego ostatniego odpowiada schemat czwartego poziomu… i tak potencjalnie w nieskończoność. Teoretycznie rzecz biorąc zatem, każdemu modelowi umysłu w postaci systemu uczącego się “grozi” nieskończony regres poziomów uczenia się – regres, który z formalnego punktu widzenia uniemożliwia skonstruowanie jakiegokolwiek systemu uczącego się samodzielnie, tj. bez ostatecznej kontroli z zewnątrz.” (Stacewicz 2010, s. iii, iv)
    3b. “Problem drugi, nazwany regresem zewnętrznym, wynika z kolei z istnienia sprzężenia zwrotnego między umysłem i jego modelem. Oto człowiek posługując się modelem (…) tak naprawdę doskonali swój umysł. W ten sposób umysł, będący z założenia systemem otwartym, staje się nieustannie “czymś więcej” niż jego tymczasowe modele. Innymi słowy, model będący obrazem dziedziny mentalnej w czasie t stopniowo przestaje być obrazem adekwatnym, ponieważ dziedzina ta zmienia się wskutek używania modelu. (…) Powstaje zatem groźny problem nieskończonego regresu – regresu polegającego na konieczności konstruowania kolejnych modeli, z których żaden nie może okazać się ostateczny.” (Stacewicz 2010, s. iv)

    Wiele jeszcze ciekawych przemyśleń przyniosła mi lektura książki Pawła Stacewicza. Z jednej strony porządkuje wiedzę, a z drugiej przerzuca mosty między informatyką a filozofią, pozwalając na interesujące spacery w obie strony.

    Literatura
    Stacewicz, P. (2010). Umysł a modele maszyn uczących się. Współczesne badania informatyczne w oczach filozofa. Akademicka Oficyna Wydawnicza Exit

    • Paweł Stacewicz pisze:

      Najserdeczniej dziękuję za tak ciepłe słowa pod adresem książki, którą napisałem około 15 lat temu; cieszy mnie, że nawet w oczach współczesnego robotyka (którym jest p. Wojciech Głażewski) jej treść nie do końca się zdezaktualizowała :).

      Dziękuję tym bardziej, że książka ta stała się zaczątkiem współpracy z Profesorem Witoldem Marciszewskim (który był jej recenzentem); zaowocowała też kolejną, tym razem wspólną, pozycją (pt. “Umysł-Komputer-Świat. O zagadce umysłu z informatycznego punktu widzenia”), potem zaś powstaniem bloga Cafe Aleph. Wiele zarysowanych w niej wątków poddaliśmy pod dyskusję w blogu, dokładając oczywiście kolejne.

      Mam wrażenie, że zawarty w obydwu książkach filozoficzny potencjał nie wyczerpał się…

      Zachęcony reakcją p. Wojciecha, chciałbym zachęcić Państwa do przejrzenia naszych książek, spojrzenia na ich zawartość świeżym okiem, i wydobycia z nich – być może – pewnych wciąż aktualnych wątków, które warte są ponownego zinterpretowania i przedyskutowania.
      Chętnie przyjmiemy wpisy, które w jakiś sposób nawiązują do jednej bądź drugiej książki.

      Tymczasem zaś jeszcze raz dziękuję za powyższy komentarz!
      (Niebawem też postaram się dołączyć do dyskusji merytorycznej)

  6. Karolina M pisze:

    Tekst Wojciecha Głażewskiego porusza niezwykle istotne w moim odczuciu kwestie dotyczące rozwoju sztucznej inteligencji oraz ewentualnego przejścia do suprinteligencji. Podzielam pogląd autor, dotyczący samodoskonalenia się systemów Al oraz na temat tego, że kluczowe dla osiągnięcia prawdziwej inteligencji są jakościowe zmiany dotyczące struktury.
    Jednakże, mimo podzielania zdania autora, że systemy sztucznej inteligencji powinny być zdolne do samodoskonalenia, w celu osiągnięcia superinteligencji, uważam, że niezwykle istotne w tym wszystkim jest kontrolowanie i równoczesne rozumienie zagrożeń związanych z zaawansowanymi technologiami. Nie należy tez zapominać o etycznych kwestiach i zapewnieniu ludzkości poczucia bezpieczeństwa.
    Dlatego pomimo perspektywy rozwoju superinteligencji i fascynacji związanej z tym, należy brać pod uwagę jednocześnie możliwości jak i ryzyka z tym związane, oraz szukać sposobów, które będą mogły zapewnić odpowiednią kontrolę nad sztuczną inteligencją.

  7. Miko pisze:

    Bardzo interesujący wpis, dający wiele do myślenia o obecnym stanie sztucznej inteligencji i jej potencjalnej przyszłości. Podczas lektury nie mogłem oprzeć się tworzeniu porównania z klasyczną inteligencją.

    Podobnie jak autor wpisu, również nie mogę zgodzić się ze stwierdzeniem „Cechą wyróżniającą maszyny ultrainteligentnej byłaby więc zdolność do zaprojektowania maszyny lepszej niż ona sama.”. My, ludzie, wywodzimy się z istot mniej inteligentnych. Podążając tym torem cofniemy się przez zwierzęta, rośliny, organizmy jednokomórkowe aż do Wielkiego Wybuchu, gdzie ciężko nam będzie znaleźć cokolwiek pasującego do obecnych definicji „inteligencji” – jedynie cząstki bezwładnie poddające się prawom natury. Od którego etapu w ogóle możemy mówić o jakiejkolwiek inteligencji? Czy może to sam Wielki Wybuch jest zalążkiem zwykłej inteligencji?

    Chciałbym również zwrócić uwagę na jeden z ostatnich akapitów, gdzie autor dochodzi do wniosku, że ChatGPT oraz dowolne inne systemy komputerowe nie mogą stanowić AGI, ponieważ komputer wykonuje jedynie operacje arytmetyczno-logiczne, i dalej, że komputery realizują jedynie procesy fizyczne. Jednak, czy rozkładając nasze ciało na komórki, i dalej, ich składowe, również nie dojdziemy do wniosku, że one też jedynie realizują procesy fizyczne? Jak i czy można *nie* realizować procesów fizycznych?

    • Wojciech Głażewski pisze:

      “Od którego etapu w ogóle możemy mówić o jakiejkolwiek inteligencji?” – to pytanie bardzo trudne, a zarazem bardzo ważne. Wskazanie etapu (momentu) wiąże się bezpośredno z tym, co zawrzemy w definicji inteligencji. Nie czuję się na siłach by definiować inteligencję w sposób fundamentalny, w swojej propozycji zaproponowałem warunek po inżyniersku praktyczny, zasadny raczej dla sztucznych systemów inteligentnych. Warunek ten miał także zwrócić uwagę na pewna cechę ludzkiego umysłu, rzadko przywoływaną, chociaż w mojej opinii zasadniczą. Otóż ludzki mózg zmienia się fizycznie, wraz ze wzrostem osobniczej inteligencji (dlatego też współczynnik IQ odnosi się do wieku). Rozwój osobniczej inteligencji w systemie mózgu jest więc pochodną zachodzących w nim fizycznych zmian. Z drugiej strony, brany jest komputer, w którym fizyczne zmiany podłoża nie zachodzą, i proponowany jest on jako substrat sztucznego systemu inteligentnego, w dodatku zdolnego do rozwoju. W mojej opinii jest to propozycja nieuprawniona, czego dowodem jest konieczność tworzenia przez ludzi – kuratorów – kolejnych generacji oprogramowania nazywanego sztuczną inteligencją, na przykład ChatGPT.

      Co do procesów fizycznych, to obliczenia są realizowane właśnie za ich pomocą. Obliczenia, w sensie przetwarzania informacji, zwanej informacją Shannona – dyskretnej. Wyłącznie ten rodzaj informacji przetwarzają komputery. Istnieją jednak inne rodzaje informacji, które przetwarzane są innego rodzaju procesami fizycznymi, niż przełączanie bramek logicznych. Informacje te różnie są nazywane: II typu, Goedeliańska, Boltzmannowska (por. Cicurel & Nicorelis 2015, Deacon 2010).

  8. Marcel G pisze:

    Autor zwrócił uwagę na ciekawy aspekt rozwoju inteligencji. Maszyna może nie odczuwać potrzeby samorozwoju jaką ma człowiek dlatego, że nie ma ‘fizycznego ciała’ o które może się troszczyć. Jej głównym ‘celem istnienia’ jest rozwiązanie problemu zadanego przez człowieka. Gdyby maszyna miała fizyczne ciało (np. Robot) mogłaby wtedy zacząć troszczyć się o swoje części (wymianę ich, serwis, ładowanie). Jednak wszystkie te działania musiałyby zastać zaprogramowane przez człowieka. Nawet założenie, że sztuczna inteligencja wgrana jest w konkretnego robota, nie rozwiązuje problemu superinteligencji. Nie gwarantuje to spełnienia założeń o samorozwoju i jakościowej zmiany struktury fizycznej. Eliminując udział człowieka maszyna nie postawi przed sobą problemu związanego z samorozwojem. Nie zaprojektują lepszej wersji samej siebie, jeśli nie otrzymają takiego polecenia i narzędzi to umożliwiających. Dynamiczny rozwój technologii powinien być jednak ściśle nadzorowany, aby zadbać o bezpieczeństwo.

    • Wojciech Głażewski pisze:

      Ciekawa obserwacja! Nasunęła mi pewien pomysł. W swojej definicji samodoskonalenia wskazałem na “umysł” jako źródło samodoskonalenia. A jeśli to ciało jest źródłem procesów samodoskonalenia, a umysł tylko z tego korzysta, tak jakby odnajdując się w sytuacji zwiększonych możliwości? W przypadku organizmów biologicznych, dobór naturalny premiował kody genetyczne umożliwiające budowę coraz doskonalszych układów nerwowych, a umysł każdego z osobników po prostu “budził się” w coraz inteligentniejszych mózgach, świadomie nie kiwnąwszy palcem na temat budowy swojego podłoża. Jeśli superinteligencja miałaby się rozwijać na podobnej zasadzie, to przebudowa jej robotycznego ciała także musi zachodzić, musi więc zmieniać się projekt leżący u jego podłoża. W jaki sposób miałoby to się dziać?

      • Marcel G pisze:

        Uważam, że bardzo ciężko jest porównać ewolucję człowieka do rozwoju sztucznej inteligencji. Konstruktorzy muszą brać pod uwagę istniejące ograniczenia technologiczne. Coś co aktualnie sprawia im problem, za 30 lat nie będzie żadnym wyzwaniem. Może drogą do superinteligencji jest program, który na bieżąco i bez udziału ludzi będzie wdrażał nowinki technologiczne modyfikując maszynę według najnowszych standardów. Nie widzę jednak jak by miało to wyglądać. Proces wytworzenia nowych części, transportu, montażu musi być wspierany przez człowieka. Dużym problemem byłaby kontrola tego procesu i myślę, że w dalszym stopniu człowiek musiałby nadzorować wszystkie ‚nowe pomysły’ sztucznej inteligencji.

  9. Paweł Stacewicz pisze:

    Bardzo przepraszam, że dopiero teraz, po dość długim czasie, udaje mi się włączyć do merytorycznej dyskusji…
    Od razu zatem przechodzę do meritum…

    1.
    Największa trudność, jaką widzę w koncepcji zaproponowanej przez Wojciecha Głażewskiego – trudność, którą dostrzega także k-m – wiąże się z pojęciem struktury.
    Pojęcie to jest niezwykle pojemne. Być może jest ono pierwotne i niedefiniowalne, ale mimo to trzeba by wyraźniej, niż to określono we wpisie, rozróżnić i ponazywać różne rodzaje istotnych dla sztucznej inteligencji struktur. Na przykład, czym innym jest: a) struktura logiczna/software’owa systemu obliczeniowego – dotyczy ona wykorzystywanych w systemie algorytmów i struktur danych (jak tablice czy drzewa, b) struktura fizyczna/hardwarowa systemu – polegająca na pewnej organizacji elementów sprzętowych (np. sieciowej lub klasycznej, w stylu architektury von Neumanna), a także c) struktura fizyczna substratu obliczeniowego – dotycząca pewnych właściwości medium, w którym i za pomocą którego dokonują się obliczenia (można by tu rozróżnić chociażby substraty organiczne i nieorganiczne).

    Apropos możliwości ostatniej, to z mojej perspektywy bardzo istotne jest rozróżnienie na substraty o strukturze dyskretnej (wykorzystywane w komputerach cyfrowych), i substraty o strukturze ciągłej (wykorzystywane w układach analogowych, najprawdopodobniej też w systemach biologicznych, w tym w mózgach). Z rozróżnieniem tym wiąże się wiele pytań, w tym podstawowe: „Czy w ogóle istnieją substraty fizyczne ciągłe?” Napisałem na ten temat kilka tekstów.
    Poszukując właściwej podstawy dla określenia inteligencji (czy system jest inteligentny?), Autor wpisu zdaje się kłaść nacisk na struktury typu b i c. Pisze bowiem: „…mówiąc o strukturze funkcjonalnej, mam na myśli fizyczną postać systemu, a więc rodzaj i układ jego elementów, co determinuje rodzaj ich wzajemnych zależności”.
    Można się zastanawiać jednak, czy dla inteligencji nie wystarcza pojęcie pierwsze: inteligencja systemu sztucznego czy naturalnego polegałaby na tym, że system jest w stanie wyjść poza dotychczasowy i/lub narzucony mu algorytm, a także sprzężone z nim struktury danych; jest w stanie wytworzyć nowy algorytm, realizujący być może zupełnie nowe cele. Wszak ludzkie mózgi nie zmieniają ani swojego substratu fizycznego, ani swojej całościowej architektury; a mimo to są w stanie kreować nowe cele i nowe algorytmy. W sensie fizycznym, wewnętrznym (abstrahując od zewnętrznego wyrazu/zapisu tych algorytmów w jakimś języku) algorytmom tym odpowiadają zapewne utrwalone na jakiś czas zmiany lokalnych konfiguracji połączeń międzyneuronalnych; prawdopodobnie też jakichś fizycznych własności samych neuronów.
    Nawiasem mówiąc, Autor wpisu za wzorzec istotnej dla posiadania inteligencji struktury uznaje „sieć neuronową wraz z wyuczonymi wagami”. Nie ma tu jednak mowy o zmianie substratu fizycznego. Owe wyuczone wagi zaś definiują pewien złożony (i możliwy do dalszych zmian) algorytm działania sieci.

    2.
    Kolejna trudność, jaką dostrzegam, wiąże się z teorią/metodą porównywania struktur.
    Czytamy we wpisie: „Ponieważ znana jest struktura obecnego systemu oraz znane są struktury poprzednich wersji, można analitycznie wyznaczyć ich różnicę.” Ale jakiego rodzaju różnicę mamy wyznaczać? Czego ona ma dotyczyć? Czy chodzi o złożoność: struktura bardziej złożona (ale wg. jakiej teorii?) byłaby lepsza od mniej złożonej? Czy chodzi może o moc obliczeniową, czyli zakres możliwych do rozwiązania problemów: struktury zapewniające większą moc obliczeniową byłyby lepsze od tych, które mają mniejszy zbiór problemów rozwiązywalnych. A może chodzi o coś jeszcze innego?

    Gdyby pozostać przy mocy obliczeniowej, to faktycznie istotne mogą się okazać substraty materialne, np. dyskretne vs ciągłe. Mamy pewne wyniki matematyczne, które mówią, że określone modele obliczeń, wymagające określonego substratu (np. o strukturze dyskretnej, ciągłej, kwantowej…), mają mniejszą lub większą moc obliczeniową. To jest moim zdaniem ciekawy kierunek poszukiwań.

    3.
    Za bardzo wartościowy element wpisu uznaję wskazanie zdolności do samodoskonalenia się jako cechy definicyjnej inteligencji. Systemy AI musiałyby posiadać tę cechę, aby można je było uznać za prawdziwie inteligentne.

    Termin „samodoskonalenie” przemawia do mnie. „Doskonalenie się” wykracza bowiem poza „uczenie się”. Zakłada istnienie pewnego wzorca, pewnej idei, doskonałości właśnie, do której jakaś istota (np. człowiek) sama z siebie dąży. Człowiek jako istota rozumna, czyli prawdziwie inteligentna, dąży do prawdy, w której niejednokrotnie rozpoznaje swoiste piękno. Co równie ważne, nie tylko dąży, ale próbuje uchwycić istotę samego wzorca – snując chociażby rozważania filozoficzne.
    To jest z pewnością temat na osobny mój komentarz, ale już tymi kilkoma myślami chciałbym Państwa sprowokować do rozmowy na temat trafności sformułowania „samodoskonalenie się”. Według nie jest bardzo sugestywne. W kontekście AI moglibyśmy powiedzieć, że systemy samodoskonalące się to coś więcej niż systemy uczące się. I to być może z innych powodów niż te, które wskazał Autor wpisu. Czasami jednak tak bywa, że wybrane przez kogoś sformułowanie niesie ze sobą więcej treści niż jego autor wstępnie planował.

    Pozdrawiam wszystkich i gorąco zachęcam do dalszej rozmowy…

  10. Wojciech Głażewski pisze:

    1. Rzeczywiście pojęcie struktury jest bardzo ogólne, dotyczy zarówno architektury (struktury operacyjnej), algorytmu (struktury procesu) jak i układu bramek logicznych (struktury obwodu). Na potrzeby swojej pracy badawczej, definiuję strukturę jako organizację funkcji systemu, której odpowiada organizacja procesów fizycznych realizujących te funkcje. Czyli ten poziom organizacji strukturalnej, który leży najbliżej fizycznej warstwy systemu. Poziom ten ma pewną szczególną własność – pomiędzy zależnościami funkcjonalnymi w strukturze a zależnościami fizycznymi między elementami substratu, istnieje ODPOWIEDNIOŚĆ.
    Przykładem jest bramka logiczna, jako najniższy element struktury systemu cyfrowego. Żeby zrealizować praktycznie “przełączanie” w bramce logicznej, należy zestawić układ elektroniczny, który zrealizuje zmianę napięcia na wyjściu, odpowiadającą zmianie funkcji logicznej. Funkcjonalność systemu cyfrowego nie sięga “niżej” niż poziom bramek (system widzi tylko jedynki i zera) a z nowu między różnymi bramkami w ramach organizacji układu może być ustanowiona dowolna zależność fizyczną (proces fizyczny w obwodzie elektronicznym determinuje stan na wyjściu bramki, ale nie determinuje jaka będzie następna bramka, lub jak te bramki ze sobą zestawiać).
    Dyskretnej organizacji elementów systemu odpowiada więc dyskretna struktura substratu.

    2. Kwestię różnicy struktur tak naprawdę widzę w sposób otwarty. Najbardziej w tym zagadnieniu budzi się moja ciekawość – chciałbym po prostu zobaczyć, CO nowego się pojawi. Niech to będzie zagadką, niech pcha nas do przeprowadzenia tego eksperymentu, do urzeczywistnienia tej wizji :)

    3. Tu się w pełni zgadzamy – “Doskonalenie się wykracza bowiem poza uczenie się”. Dziekuję za to proste podsumowanie, że samodoskonalenie oznacza dążenie. Dążenie, do uchwycenia i przekroczenia własnej istoty.

    • Paweł Stacewicz pisze:

      Chciałbym nawiązać szerzej do powyższej deklaracji: “Na potrzeby swojej pracy badawczej, definiuję strukturę jako organizację funkcji systemu, której odpowiada organizacja procesów fizycznych realizujących te funkcje. Czyli ten poziom organizacji strukturalnej, który leży najbliżej fizycznej warstwy systemu. Poziom ten ma pewną szczególną własność – pomiędzy zależnościami funkcjonalnymi w strukturze a zależnościami fizycznymi między elementami substratu, istnieje ODPOWIEDNIOŚĆ”.

      W badania tak zaplanowane, może się wpisać dobrze pewna dyskusja, którą odbyliśmy kilka lat temu, a przede wszystkim materiały, które wskazałem w inicjującym ją wpisie. Chodzi przede wszystkim o artykuł Giuseppe Primiero poświęcony informacji (chyba wart uwzględnienia w Pana badaniach).

      Podaję tytuł i adres wpisu: “Informacja w ujęciu obliczeniowym. Dyskusja wokół tekstu Giuseppe Primiero.” (https://marciszewski.eu/?p=10493)

      W ramach dyskusji sformułowałem (między innymi) dwa spostrzeżenia, które wydają mi się wciąż warte rozmowy. Trzeba je czytać w kontekście schematu warstw abstrakcji, opisującego pojęcie informacji (jest on przedstawiony w w/w wpisie):

      1. W moim odczuciu, w obrębie wszystkich warstw, informacja jest rozumiana jako relacja pomiędzy wejściem i wyjściem, czy też między danymi wejściowymi i danymi wyjściowymi – choć w tekście Giuseppe Primiero nie znajdziemy wprost takiego określenia. Z tego względu informacja jest tutaj czymś dynamicznym, algorytmicznym, obliczeniowym… jest wprawdzie pewną strukturą, ujmowaną na różnych poziomach w różny sposób, ale strukturą relacyjną, warunkującą działanie (action, operation, problem solving itp).

      2. Czy do przedstawionego zestawu warstw nie należy czegoś dodać, np. warstwy modelu obliczeń, na której moglibyśmy rozróżnić (w ujęciu matematycznym) różne elementarne sposoby kodowania/zapisywania danych (np. w przypadku układów analogowych mamy kod ciągły, a w przypadku cyfrowych – dyskretny)?

      Drugie spostrzeżenie nawiązuje do pewnych moich sugestii z poprzedniego komentarza.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *