Od sztucznej inteligencji do (samodoskonalącej się) superinteligencji

Z ogromną przyjemnością publikuję w naszym blogu tekst Wojciecha Głażewskiego (inżyniera i filozofa z Uniwersytetu w Białymstoku), szkicujący autorski scenariusz przejścia od aktualnie konstruowanych systemów sztucznej inteligencji do systemów superinteligentnych.
W scenariuszu tym na plan pierwszy wybijają się dwie oryginalne tezy.
Pierwsza mówi, że warunkiem koniecznym  posiadania przez system prawdziwej inteligencji (a nie jej zaprogramowanej imitacji) jest zdolność systemu do samodoskonalenia się. Druga wskazuje na niezbędną podstawę samodoskonalenia, jaką są  jakościowe zmiany struktury fizycznej systemu, wykraczające poza zmiany struktur danych czy programów sterujących pracą systemu.

Oczywiście tezy te nie wyczerpują spostrzeżeń, argumentów i propozycji Autora. Mam nadzieję też, że zachęcą Państwa do dyskusji, która je wesprze, osłabi, rozwinie lub postawi w innym świetle…

A oto otwierający dyskusję tekst Wojciecha Głażewskiego:

*********************

Refleksje nad scenariuszami dla sztucznej inteligencji

Mniej więcej rok temu odbyła się tutaj ciekawa dyskusja o cechach systemów AI, które miałyby świadczyć o ich inteligencji (https://marciszewski.eu/?p=11519). Pojawiło się wiele interesujących głosów, wśród których najczęściej wskazywano na umiejętność rozwiązywania problemów (zwłaszcza dzięki uczeniu się na podstawie własnych doświadczeń), zdolność do generalizacji oraz kreatywność (innowacyjność). Nie sposób wyliczyć ile już razy stawiano to pytanie. Na tym blogu nie wypada nie zacytować prof. Marciszewskiego:

Czy jest możliwe skonstruowanie inteligencji maszynowej, która by pod każdym względem dorównała ludzkiej inwencji? Jeśli nie, to pod jakim względem dorówna, a pod jakim przegra? A może da się skonstruować maszynę inteligentniejszą od człowieka? Jeśli tak, to pod jakim względem? (Marciszewski, 1998, s.117)

Rok to dużo czasu w epoce wykładniczego wzrostu. Okres zdobywania globalnego rynku nie jest już liczony w latach, ale w miesiącach. Scenariusz dla superinteligencji opisany przez Nicka Bostroma, wydaje się coraz bardziej realny (Bostrom, 2014). W tempie nomen omen potęgowym, sztuczna inteligencja osiągnie przewagę nad ludzkością, zostawiając nam bezsilność chyba najgorszego gatunku – intelektualną. Warto więc zapytać, co po tym roku osiągnęła technologia AI. Jaki scenariusz jej rozwoju właśnie się realizuje? Czy sztuczna inteligencja staje się bardziej inteligentna? Spróbuję wciągnąć Państwa do dyskusji stawiając przewrotną tezę: systemy AI, jakie nas obecnie otaczają, nie są inteligentne.

Kontynuując myśl prof. Marciszewskiego:

Żeby podjąć te zagadnienia, trzeba zdobyć pojęcie inteligencji na tyle operatywne, żeby móc zaproponować jakiś praktyczny test – sprawdzian, który pozwoli ocenić, jakie zachowania komputera świadczą o rodzaju i stopniu jego inteligencji. (Marciszewski, 1998, s.118)

W miejsce opisowych definicji inteligencji, które trudno zarówno umocować, jak i zanegować, z uwagi na ich ogólnikowy charakter, postawię warunek samodoskonalenia, czyli  zdolności do ulepszenia samego siebie, jako cechy systemu inteligentnego, możliwej do stwierdzenia, na mocy tak postawionej jego definicji.

Pomimo wielu spojrzeń na inteligencję i wielu przykładów problemów zaliczanych do kategorii wymagających inteligencji, zadanie ulepszenia samego siebie wydaje mi się jednym z takich, które zawiera w sobie konieczność posiadania praktycznie wszystkich cech przypisywanych zwyczajowo działaniu inteligentnemu. Wymaga zdobycia wiedzy na temat własnego zachowania, czyli uczenia się z doświadczeń, wymaga też umiejętności generalizacji niezbędnej do wyciągnięcia wniosków z tych doświadczeń. Wymaga stawiania hipotez, a więc samodzielnego posługiwania się pojęciami. Wymaga podejmowania autonomicznych decyzji o tym, kiedy i w jaki sposób wpłynąć na własne zachowanie. Wreszcie wymaga kreatywności i innowacyjności w zaproponowaniu nowego, lepszego rozwiązania dla nowej wersji samego siebie. Matematyk Irvin John Good określił tę umiejętność jako “ultrainteligencję”. W 1966 roku opisał maszynę o takich możliwościach:

Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an “intelligence explosion,” and the intelligence of man would be left far behind. (Good, 1966, s.33)

Cała nowa maszyna potrzebna byłaby w przypadku odkrycia przez bieżącą maszynę fundamentalnie nowej zasady konstrukcyjnej. W przypadku wypracowania jedynie usprawnienia, proces samodoskonalenia mógłby mieć charakter inkrementalny – łańcucha poprawek. Współczesny badacz sztucznej inteligencji, Eliezer Yudkowsky, nazywa umiejętność ulepszenia własnych procesów “rekursywnym samodoskonaleniem”, a system, który miałby taką możliwość, “zalążkową SI”:

A seed AI is a strongly self-improving process, characterized by improvements to the content base that exert direct positive feedback on the intelligence of the underlying improving process. (Yudkowsky, 2007, s.96)

Cechą wyróżniającą maszyny ultrainteligentnej byłaby więc zdolność do zaprojektowania maszyny lepszej niż ona sama. Nie wydaje mi się, żeby ta właściwość pojawiła się dopiero na poziomie ultrainteligencji. Wszystkie elementy procesu realizowania tego zadania posiada przecież człowiek, a super- lub ultrainteligencja ma być systemem przewyższającym go możliwościami. Każdy więc system rzeczywiście inteligentny powinien tę zdolność mieć, a różnica w stopniu inteligencji będzie dotyczyła poziomu jego rozwoju, od zalążkowego, poprzez poziom zbliżony do ludzkiego, dalej superinteligentny, a poziom ultrainteligentny byłby już w pewien sposób granicznym, zapewne ze względu na limity fizycznej rzeczywistości. Warunek samodoskonalenia sztucznej inteligencji można więc sformułować jako zwiększenie możliwości inteligentnego działania w sztucznym systemie, zrealizowane wyłącznie własnymi procesami tego systemu.

W tym miejscu należy odróżnić zwiększenie fizycznych parametrów lub zasobów systemu, od rozwoju jakości realizowanych przez system procesów. Bostrom wyróżnia trzy formy superinteligencji: szybką, zbiorową i jakościową. Dwie pierwsze wydają się właśnie dotyczyć parametrów ilościowych systemów inteligentnych, natomiast ta trzecia dotyka istoty właściwego pojęcia inteligencji. Dla przykładu – zwiększenie liczby książek na półkach oraz przyspieszenie kroku przez pracowników biblioteki nie są zmianami w procesie obsługi czytelników, chociaż zwiększają możliwości biblioteki w jej roli udostępnienia jak największego zasobu literatury jak największej ilości osób. Zmiana organizacji katalogu książek lub zmiana heurystyki realizacji kwerendy, dla samego procesu funkcjonowania systemu biblioteki, byłaby już zmianą jakościową. Naturalnie nasuwa się tu zastrzeżenie, że jeśli system będzie posiadał więcej “wiedzy”, to jego możliwości będą większe. Pozostanę jednak przy ujęciu rozróżniającym zasoby i procesy, w którym kieszonkowy kalkulator dodający dwie kilkucyfrowe liczby realizuje proces o tej samej jakości, co komputer z wielordzeniowym procesorem, dodający dwie liczby kilkudziesięciocyfrowe. Interesująca nas różnica nie bierze się bowiem z porównania zasobów, ale z porównania procesów.

Aby uniknąć definiowania systemu inteligentnego opisowo (lista cech) lub tautologicznie (“system inteligentny to taki, który zachowuje się inteligentnie”), sformułuję warunek konieczny inteligencji, oparty na zdolności do samodoskonalenia strukturalnego:

System jest inteligentny wtedy, kiedy jest w stanie wypracować taką wersję swojej kolejnej struktury funkcjonalnej, która nie powtarza struktury wcześniejszej.

Przy czym, mówiąc o strukturze funkcjonalnej, mam na myśli fizyczną postać systemu, a więc rodzaj i układ jego elementów, co determinuje rodzaj ich wzajemnych zależności. Architektura wydaje się pojęciem zbyt wąskim, ponieważ te same architektury pamięci mogą być wypełnione innymi informacjami, dając systemowi inne możliwości. Program w pamięci komputera to także za mało, ponieważ możliwości systemu zależą od organizacji mikroprocesora. Sieć neuronowa wraz z wyuczonymi wagami wydaje się być najbliższa intuicji takiej struktury. Nie mam tutaj gotowych odpowiedzi, jest to jeden z tematów mojej pracy badawczej.

Wracając do samej definicji, to przy takim jej sformułowaniu mam nadzieję oprzeć ją na rzeczywistych danych możliwych do zebrania oraz na ustanowieniu zależności między nimi, możliwych do analitycznego wyznaczenia. Dla fizycznych parametrów lub zasobów systemu jest to oczywiste (np. różnica częstotliwości taktowania procesora, ilości danych w pamięci), jednak dla opisowych definicji inteligencji już takie nie jest. Jeśli jedną z cech systemu inteligentnego jest kreatywność, to jak porównać stopień kreatywności pomiędzy różnymi jego wytworami? Jak odróżnić nauczenie się na jednym doświadczeniu od nauczenia się na innym doświadczeniu? Powyższa definicja systemu inteligentnego rozwiązuje problem tych niejasności poprzez zamknięcie ich w zadaniu samodoskonalenia. Aby je poprawnie wykonać, należy zebrać doświadczenia, należy dokonać generalizacji, należy wypracować nowatorskie rozwiązanie. Zamiast porównywać “nowatorstwo” odpowiedzi systemu, ocenione zostaną konsekwencje działania zbudowanego na ich podstawie nowego systemu. Ponieważ znana jest struktura obecnego systemu oraz znane są struktury poprzednich wersji, można analitycznie wyznaczyć ich różnicę. Rozkład różnicy w czasie ujawni charakter postępu – czy był dodatni, czy ujemny, czy też zerowy.

Najprostszym przypadkiem byłby system, który nie jest w stanie wypracować kompletu informacji opisujących swoją własną strukturę, to znaczy system nie dający się zamknąć w pętlę samorozwoju. Do tej kategorii zaliczę wszystkie systemy wąskiej sztucznej inteligencji, powtarzając swoja tezę ze wstępu. Na naszych oczach eksploduje ich popularność, nie idzie za nią jednak zdolność do nowatorskiej kreatywności i do autonomicznego samorozwoju. Są narzędziami, programami komputerowymi o wielkich możliwościach. Kwestia samodoskonalenia do poziomu superinteligencji ich nie dotyczy.

Jeśli system potrafi wypracować komplet informacji, “przepis” na sztuczny system inteligentny, świadczy to o posiadaniu wiedzy ogólnej – z zakresu matematyki, informatyki, technologii maszyn, problematyki kognitywistycznej czy nawet filozoficznej. Na pewno o umiejętności wytworzenia obrazów (planów, schematów), tekstów (opisów technologii, instrukcji działania) oraz kodu (listingi programów). System taki będzie można zaliczyć do kategorii AGI i pewnie wkrótce możemy się spodziewać jego powstania. Czy jednak będzie inteligentny w tym jakościowym sensie, analogicznym do ludzkiego? Sądzę, że tylko postawienie mu zadania tak trudnego jak to, które postawił przed sobą człowiek – zaprojektowania sztucznej inteligencji – pozwoli uzyskać jednoznaczną odpowiedź. Będzie to jeden z najciekawszych eksperymentów w historii ludzkości.

Czemu nie zrobić takiego eksperymentu dla ChatGPT? Czy istnieje niebezpieczeństwo, że uzyskany wynik będzie dodatni? ChatGPT jest programem komputerowym uruchomionym na komputerze, co determinuje rezultat jego działania. W moim przekonaniu, system tego typu nie jest w stanie wypracować odpowiedzi o charakterze dodatnim informacyjnie, w stosunku do tego, co zawiera w strukturze swojego algorytmu. Dzieje się tak dlatego, że komputer realizuje wyłącznie operacje arytmetyczno-logiczne, a więc dedukcyjne w swojej naturze. Odpowiedzi systemu zawierają się już w przesłankach, od których wychodzi. Obliczony dla takich operacji zysk informacyjny ze wzoru Shannona da wartość zero. Mówiąc jeszcze inaczej, systemy komputerowe same z siebie nie mogą się dowiedzieć więcej niż już wiedzą. Wynika to stąd, że procesory komputerów realizują wyłącznie procesy fizyczne, a więc działają zgodnie z kierunkiem entropii. Zwiększenie złożoności informacyjnej jest działaniem przeciw entropii, więc możliwość taką może mieć tylko system, który potrafi zmienić swoją strukturę fizyczną. Takiej możliwości krzemowy mikroprocesor nie posiada.

Aby eksperyment dał rezultat dodatni, nowy system, zbudowany na podstawie kompletu dokumentacji wypracowanego przez poprzedni system, musi różnić się w swoim działaniu od systemu poprzedniego. Musi różnić się swoją strukturą fizyczną, ponieważ tylko taka różnica umożliwi inny przebieg zachodzących w nim procesów. Nie tylko musi się różnić, ale ta różnica musi wprowadzać do struktury nową jakość. Określa to druga część definicji – jeśli struktura powtarza wcześniejszą, to system albo się ustabilizował i grozi mu nieskończone zapętlenie na określonym poziomie, albo degraduje się i dotarł do którejś z wcześniejszych, mniej inteligentnych struktur. Charakter tego nowego pierwiastka, czy był korzystny czy nie, można oczywiście sprawdzać mierząc odpowiedzi nowego systemu na zestaw problemów testowych czy porównując ilości punktów zdobytych w zadaniach kontrolnych, byłyby to jednak testy wąskie, ograniczone, trudne często do porównań i niejednoznaczne. Szukając odpowiedzi na najważniejsze, postawione na wstępie pytanie, czyli jaki scenariusz rozwoju sztucznej inteligencji się realizuje, można spróbować obserwować trend różnic kolejnych struktur. Dodatni rezultat potwierdzi obecność jakościowej inteligencji, porównywalnej z ludzką. Jeśli wtedy zdecydujemy o alokacji zasobów oraz umożliwimy systemowi realizację kolejnych wcieleń, otworzymy mu drogę do superinteligencji.

Eksperyment już się zaczął. AI jest używana do doskonalenia technologii AI. Czy jednak wytworzy nową, lepszą wersję samej siebie? Tak się w tej chwili nie dzieje. Owszem, programy komputerowe zwane sztuczną inteligencją są wykorzystywane w optymalizacji technik sztucznej inteligencji, ale nadal jako narzędzia dla zajmujących się tym programistów. Są niezwykle użyteczne, ale wciąż wymagają kuratora. To człowiek jest źródłem inteligencji dla tych sztucznych systemów. Źródłem inteligentnego ich zaprojektowania, inteligentnego promptu, czy wprost źródłem danych, które przecież pochodzą z jego inteligentnej działalności. Przywołując jeszcze raz prof. Marciszewskiego, w kwestii systemów inteligentniejszych od człowieka:

Czy wystarczy jako środek dostatecznie złożony software, bez rewolucji w rozwiązaniach sprzętowych? Czy też konieczne będzie wytworzenie jakiegoś nowego rodzaju urządzeń, może biologicznych? (Marciszewski, 1998, s.117)

Jeśli system będzie oparty na krzemowym mikroprocesorze, to jak miałby zmienić swoją fizyczną postać? Aby zrealizować zadanie samodoskonalenia, system sztucznej inteligencji musiałby prawdopodobnie być oparty na innym rodzaju substratu informacyjnego, ale to już temat na inną opowieść.

Literatura

  1. Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
  2. Good, I.J. (1966). Speculations Concerning the First Ultraintelligent Machine. Comput., 6, 31-88.
  3. Marciszewski, W. (1998). Sztuczna Inteligencja. Społeczny Instytut Wydawniczy Znak
  4. Yudkowsky, E. (2007). Levels of Organization in General Intelligence. In: Goertzel, B., Pennachin, C. (eds) Artificial General Intelligence. Cognitive Technologies. Springer, Berlin, Heidelberg.

WOJCIECH GŁAŻEWSKI

*************************

Najserdeczniej zapraszam do dyskusji nad powyższym tekstem — Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

33 Responses to Od sztucznej inteligencji do (samodoskonalącej się) superinteligencji

  1. km pisze:

    Jak – zgodnie z zaproponowaną definicją inteligencji systemu – człowiek może być “źródłem inteligencji” dla obecnych (jeszcze nie inteligentnych “generalnie”) systemów jeśli sami ludzie (ni w pojedynkę ani wysiłkiem naukowo-technicznej zbiorowości) NIE zdołali jeszcze wypracować takiej wersji swojej kolejnej struktury funkcjonalnej, która nie powtarza struktury wcześniejszej – w końcu (nie tylko wg Autorawpisu) nie mamy jeszcze sztucznej inteligencji?

    Jeśli (twierdzimy, że) nie mamy AGI to znaczy, że posiadamy jedynie maszyny zdolne do realizacji fragmentów naszej funkcjonalności…
    Chyba, że uznamy, że to wystarczy- wtedy (tak “nisko-jakościową”) poprzeczkę przeskoczyliśmy tworząc kalkulator… A może już wtedy gdy wyciosaliśmy pierwsze narzędzia – jako struktury realizujące rozwiązania pewnych intelektualnych problemow nie powielające fizycznej struktury poprzednich ewolucji? Oczywiście kalkulator (ani wędka) nie wygeneruje “kolejnych poziomów” na drabinie do intelektualnej wszechmocy- zatem wygląda na to, że zgodnie z tą definicją dopóki inteligentnego systemu nie stworzymy sami nie będziemy spełniali warunków inteligencji… To chyba problem – ja w swoją inteligencję juz dawno zwątpiłem, ale jednak ktoś mógłby sie poczuć urażony. To kłopot logiczny (definicja niepredykatywna) filozoficzno – semantyczny (paradoks kłamcy się kłania, no i jak wytłumaczyć ludziom, że cały czas “gdy mówili ‘dodawanie’ mieli na myśli ‘kłodowanie'”?

    • Wojciech Głażewski pisze:

      Proponując taką definicję inteligencji chciałem uwidocznić zjawiska, których zwykle się nie zauważa. W tym konkretnym przypadku mam na myśli fakt nieustannego przyrostu fizycznej struktury połączeń w układzie nerwowym. Z każdą nową synapsą zmienia się struktura funkcjonalna podłoża umysłu człowieka i rośnie przez całe życie, nie cofając się do struktur prostszych, chyba że w przypadku chorób neurodegeneracyjnych. W przypadku komputerów, krzemowe układy scalone nie mają takiej możliwości. Raz naniesione metalowe ścieżki utrwalają zaprojektowaną na początku strukturę – nie zmienia się ona w trakcie pracy komputera i odchodzi razem z nim na złom. To dlatego wspomniałem o różnych substratach informacyjnych. Nie zauważa się, że za samodoskonalenie umysłu człowieka odpowiadają biologiczne mechanizmy jego żywego podłoża. Człowiek uczy się nie tylko poprzez rejestrowanie impulsów niosących informacje, ale także poprzez formowanie nowych struktur rejestrujących i przetwarzających te informacje. Komputer wyłącznie rejestruje impulsy, nie dopisuje sam sobie nowego programu, gdy napotka postać danych których nie może zdekodować.

      Zwracam także uwagę, że tradycyjnie liczony współczynnik IQ był ilorazem wieku umysłowego w stosunku do wieku życia. Dosłownie więc odnosił poziom zdolności rozwiązywania zadań do poziomu zaawansowania rozwoju struktury fizycznej biologicznego podłoża. Proszę zauważyć, jak bardzo liczenie w ten sposób IQ dla komputera nie ma sensu, ponieważ mianownik wtedy się nie zmienia. Dla struktury mikroprocesora, czas nie płynie. To, co się zmienia w systemie komputerowym, to programy. Można spróbować liczyć “IQ” dla kolejnych generacji narzędzi AI, na przykład dla GPT-2, 3, 3.5, 4. Przykład ten jednak tym bardziej pokazuje, że narzędzia te same się nie doskonalną. Przecież każdy z nich został przygotowany przez programistów, “kuratorów”, jak ich nazwałem. Same się w trakcie pracy nie doskonalą, a człowiek – tak.

      • km pisze:

        Rozumiem zamierzenie, zwracam jednak uwagę na konsekwencje takiego sformułowania definicji:
        1.Ludnie nie są inteligentni bo nie „wypracowali takiej wersji swojej kolejnej struktury funkcjonalnej, która nie powtarza struktury wcześniejszej.”
        Co gorsza:
        2.Ludzie nie staną się także inteligentni „wstecz”, gdy wypracują generalną sztuczną inteligencję jako system rzędu 2 (powtarzający ich funkcjonalne cechy – potencjalnie z naddatkiem) gdyż aby orzec, że ten system rzędu 2 jest inteligentny, zgodnie z zaproponowaną definicją musi „wypracować taką wersję swojej kolejnej struktury funkcjonalnej, która nie powtarza struktury wcześniejszej” – zatem system rzędu 3…
        3.Niestety -zgodnie z tą definicją – system rzędu n staje się inteligentny gdy powstanie inteligenty system rzędu n+1 (a co za tym idzie system rzędu n+1 będzie inteligentny dopiero gdy powstanie system rzędu n+2 itd. ad infinitum…)
        4.Obawiam się, że chcąc uniezależnić definicję inteligencji od sprawdzianów chyżości wykonywania przez (sztuczne) systemy poszczególnych zdolności ludzkiego umysłu, została inteligencja uzależniona od samej siebie – nie bezpośrednio (jak w zwykłym paradoksie kłamcy) a wtedy gdy sprawdzianem inteligencji stała się zdolność do wytworzenia inteligencji.
        5.Jeśli zaś porzucimy konieczność wytworzenia pełnej funkcjonalności pozostanie nam sprawdzanie poszczególnych zdolności – z dodatkiem konieczności realizacji w innym medium „struktur liczących”.
        6.a.Właśnie dlatego tak kiedyś zafascynowały mnie próby Wittgensteina definiowania rozumienia poprzez postępowanie zgodnie z regułą, Hellerowskie opisywanie postępu naukowego w „logice zapętleń”, zmagania Carnapa z uwikłaniem ekstensji i intensji w definicji… Definiowanie (w szczególności zdolności Umysłowych) przypomina próbę wyciągnięcia się z bagna ciągnąc za własne włosy.
        6.b.UWAGA: Pomimo tego, że definicja wydaje mi się logicznie paradoksalna nie oznacza to, że – po inżyniersku nie dało by się z niej korzystać.

        7.Paradoksalność definicji nie sprawia, że nie może ona zrobić kariery:

        Czy możemy stworzyć liczbę (nazwijmy ją:) PR ze zbioru liczb rzeczywistych (0,1) różniącą się cyfrą na co najmniej jednej pozycji w (niekończonym*) rozwinięciu dziesiętnym od każdej liczby rzeczywistej (0,1)?
        *nieskończonym – jeśli rozwinięcie dziesiętne danej liczby jest krótsze od n, jest to równoważne z tym, że na tym miejscu rozwinięciu dziesiętnym tej liczby jest 0.
        Biorąc pod uwagę to, że wszystkie liczby rzeczywiste z danego przedziału będą miały każdą możliwą cyfrę na wszystkich miejscach rozwinięcia dziesiętnego – konstrukcja liczby PR nie jest możliwa.
        A to nie dobrze – bo taka konstrukcja jest wykorzystana w argumencie przekątniowym Cantora:
        C.1. Uszeregujmy dowolnie wszystkie liczby rzeczywiste z przedziału 0 do 1.
        C.2. Każdy element tej ekstensji (każda liczba rzeczywista w naszym uszeregowaniu) ma taką własność, że na n-tym miejscu jej rozwinięcia dziesiętnego ma konkretną cyfrę (jeśli jej rozwinięcie dziesiętne jest krótsze od n to ma tam 0).
        C.3. Stwórzmy teraz liczbę rzeczywista PR z przedziału 0 do 1, która różni się cyfrą na n-tym miejscu rozwinięcia dziesiętnego od n-tej liczby z uszeregowania.
        Konstrukcja opisana w A3 ze względu na A1 wydaje się możliwa – ale biorąc pod uwagę A2 taka jej definicja odwołuje się do samej siebie** i jej takie konstruowanie jest wariantem paradoksu kłamcy.
        **choć ma być liczbą rzeczywistą, twierdzi, że nie posiada własności którą mają wszystkie liczby w naszym szeregu wszystkich liczb rzeczywistych.
        C.4. Czy na paradoksalnej konstrukcji można wywieść sprzeczność ze zdaniem prawdziwym -przez co zakończyć sukcesem dowód nie wprost?
        Sformułowanie dowodu sparafrazowano (oddając jednak istotę) tak aby uwidocznić podobieństwo do paradoksu Richarda który (nie tak jak metoda przekątniowa Cantora) powszechnie za paradoks jest uznawany.

        Co na to Cafe aleph – co z dalej z nazwą jeśli hierarchia aleph’ów okaże się paradoksalna?

        • Wojciech Głażewski pisze:

          Dziękuję Przedmówcy za wnikliwe uwagi. Rzeczywiście, chcąc zwrócić uwagę na złożoność zagadnienia, zaproponowałem warunek wyjątkowo wąski w swej formule. Spróbuję bardziej uściślić pojęcie struktury i jak ono się ma do rzeczywistych funkcji systemu, co być może pozwoli na opuszczenie tej paradoksalnej pętli. Na swoje usprawiedliwienie dodam, że ta propozycja nie miała być ścisłą definicją inteligencji, ale właśnie inżynierską “wytyczną” projektową. Użyteczną do obserwowania tego co się dzieje i co może się wydarzyć pomiędzy kolejnymi generacjami systemów AI.

          Ad 1. Moją intencją było, żeby dla ludzi warunek ten zabrzmiał:
          Ludzie posiadają cechę inteligencji, ponieważ mózg może samodzielnie wytworzyć nową strukturę fizycznych połączeń (“neuronalny korelat”) dla zrealizowania nieznanego wcześniej zadania. W ten sposób zdefiniowałbym zdolność do rozwijania się, w przeciwieństwie do możliwości bycia rozwiniętą dla AI, wciąż potrzebującej kurateli w formułowaniu nowych funkcji.
          W takim ujęciu, “inteligencja” nie będzie dotyczyła samej możliwości uzyskania odpowiedzi na zadanie (przy odpowiedniej strukutrze, rozwiązanie zostanie wypracowane jako rezultat pracy tej struktury, będzie tylko realizacją fizycznego procesu), ale będzie odnosiła się do zdolności do “powołania” tej struktury. To tak jak przy rozwiązywaniu zadań z treścią. Inteligencję stosujemy żeby sformułować równanie (strukturę rozumowania), a obliczenie wyniku to sprawa już wręcz mechaniczna.

          Ad 4. “Inteligencja uzależniona od samej siebie”, lub jak napisałem w pierwszej wersji tego wpisu “inteligencja skierowana przed swoje własne oblicze”. Czy poza formalnym paradoksem, idea ta może zaowocować ciekawym rozstrzygnięciem? Jak powinniśmy stawiać warunek inteligencji, żeby nie łapać się za własne włosy?

  2. KS pisze:

    Bardzo interesujący temat dyskusji oraz komentarze. Dodatkowo warto wspomnieć o samym teście Turinga.

    Test Turinga (ang. Turing test) to nic innego jak próba zweryfikowania, czy sztuczna inteligencja osiągnęła poziom inteligencji przeciętnego człowieka. I choć mogłoby się wydawać, że tego typu obawy pojawiły się dopiero w ostatnich latach, test Turinga opracowano już w połowie XX wieku! Dokonał tego jeden z ojców sztucznej inteligencji – Alan Turing. W swojej pracy naukowej, poświęconej tematyce sztucznej inteligencji, Turing próbował odpowiedzieć na pytanie dotyczące zdolności maszyn do myślenia. Wyniki swoich badań opublikował w 1950 roku i wskazał na prosty sposób na dokonanie oceny zdolności maszyn do myślenia, który zakładał rozmowę maszyny z człowiekiem.

    Dla przypomnienia:
    Alan Turing uznał, że test powinien przeprowadzić zaproszony do eksperymentu uczestnik, który poprowadzi dwie rozmowy – jedną z człowiekiem, a drugą z maszyną. Co warto podkreślić, rozmowa powinna mieć formę tekstową, by nie opierać wyniku testu na zdolności maszyny do wypowiadania słów. Po zakończonych rozmowach uczestnik eksperymentu wskazuje, która rozmowa była przeprowadzona z człowiekiem, a która z maszyną. Pojawienie się jakichkolwiek wątpliwości w tej kwestii oznacza, że maszyna zdała test Turinga i można ją uznać za inteligentną.

    Do rozważania wciąż pozostaje kwestia, czy powyższy test jest w obecnych okolicznościach testem wystarczającym do uznania inteligencji maszyny? Pod jakim kątem ma być oceniania ta inteligencja? Co prawda pod względem czystej komunikacji systemy te muszą zostać jeszcze udoskonalone, ale czy w innych dziedzinach jest podobnie?

    Być może już mamy styczność z superinteligencją? Przecież systemy oparte na sztucznej inteligencji prześcignęły możliwości człowieka w zakresie rozpoznawania nowotworów.

    Jestem ciekaw Państwa zdania na ten temat.

    • Paweł Stacewicz pisze:

      Bardzo dziękujemy za komentarz. Oczywiście temat testu Turinga jest niezwykle ciekawy i pobudzający do dyskusji. Zwrócę jednak uwagę, że mamy już w blogu osobny wpis na ten temat pt. “Testy, testy, testy… na sztuczną inteligencję” (który doczekał się aż 107 komentarzy!). Oto jego adres: https://marciszewski.eu/?p=10651. Tutaj, jako inicjator i moderator dyskusji, wolałbym, abyśmy skoncentrowali się na wątkach zarysowanych w obecnym wpisie.
      Tym bardziej, że wydaje mi się, iż autor dyskutowanego tekstu dystansuje się od testu Turinga. Pisze: “Charakter tego nowego pierwiastka, czy był korzystny czy nie, można oczywiście sprawdzać mierząc odpowiedzi nowego systemu na zestaw problemów testowych czy porównując ilości punktów zdobytych w zadaniach kontrolnych, byłyby to jednak testy wąskie, ograniczone, trudne często do porównań i niejednoznaczne. Szukając odpowiedzi na najważniejsze, postawione na wstępie pytanie, czyli jaki scenariusz rozwoju sztucznej inteligencji się realizuje, można spróbować obserwować trend różnic kolejnych struktur”.
      Jeśli mamy badać “trend różnic kolejnych struktur” to wychodzimy poza behawioralną koncepcję testu Turinga: zaglądamy do wnętrza maszyny. Oczywiście powstaje tu problem, o jakie struktury miałoby chodzić, ale o tym postaram się napisać później (poza tą odpowiedzią).

  3. km pisze:

    Samo w sobie oczekiwanie powstania fizycznych nowych układów do realizacji zadania jest ciekawe – ja zawsze optymistycznie przyjmowałem (w zasadzie – wobec mej małej wiedzy o rozstrzyganym – zakładałem) że same fizycznej struktury nie są tak ważne (choć oczywiście liczy sie ich moc obliczeniowa tak by miała zdolność modelowania “odpowiednich” struktur) , a samo oblicznie (rozumowanie) może się realizować na różnych “liczydłach”.
    Taki optymizm wynika m.in. z tego, że pesymizm mógłby w tej sprawie zadziałać obezwładniająco na próby modelowania rozmaitych funkcjonalności Umysłu ludzkiego z pomocą cyfrowych maszyn.

    Przykładowo możliwość modyfikacji wirtualnej architektury sztucznej sieci neuronowej “ćwiczonej danymi” wydaje mi się zupełnie analogiczna dla reorganizacji struktur neuronalnych mózgu ludzkiego uczącego się rozwiązać problem.

    Wydaje się, że kilka “sprawności” umysłu udało się systemom cyfrowym “zdobyć” – przy czym należy pamiętać, że sprawności wyrwane z kontekstu, mogą dawać rezultaty łatwe do wyszydzenia dla człowieka (6-palczaste dłonie generowane przez “cyfrowych” grafików). Ale są i ludzie zdolni pięknie rysować, grać na instrumencie czy liczyć a zupełnie “nieporadni życiowo”.

    I tu wracamy do oceny, do kryterium inteligencji, które znowu skłonny jestem (zgodnie z regułami użycia tego słowa) budować na teście polegającym na sprawdzeniu czy poszczególne “sprawności” Umysłu odzwierciedlające się w działaniach systemu (sztucznego) nie “wysypują się” przy próbie sprawdzenia jak łączą się w całość/ czy ta całość jest w stanie regulować działanie w sposób… w którym ludzie dostrzegą inteligencję. Niedaleko od tego do testu Turinga.

    Nie wiem jakie mogłyby być sposoby na test architektury struktur generujących podobne rozwiązania – nie jest problem to, że każdej ocenie będzie można zarzucić subiektywność (jak obiektywnie nadać wartość kryteriom?) Nawet jeśli znajdziemy miarę pozwalającą na intersubiektywnie (inżynierskie) uszeregowania (jakości ?) inteligencji to, czy nie najważniejszy jest test (mądrości) w jej działaniu?

  4. Krawczyk pisze:

    Rozwój sprzętu komputerowego jest niewątpliwie kluczowy dla postępu w dziedzinie sztucznej inteligencji (AI). Uważam, że obecne podzespoły są wystarczająco zaawansowane, aby obsługiwać AGI (Artificial General Intelligence).

    AGI, która jest w stanie nauczyć się dowolnego zadania intelektualnego, które człowiek może wykonać, nie wymaga koniecznie nowych, bardziej zaawansowanych podzespołów. W rzeczywistości, wiele badań i rozwoju AGI koncentruje się na optymalizacji algorytmów i procesów uczenia maszynowego, a nie na tworzeniu nowego sprzętu.

    Jednakże, rozwój sprzętu przez “superinteligencję” może przyspieszyć działanie modeli AI. Superinteligencja, która jest w stanie przewyższyć ludzi we wszystkich intelektualnie wymagających zadaniach, mogłaby teoretycznie zaprojektować i zbudować sprzęt, który jest optymalny dla jej specyficznych potrzeb. To mogłoby prowadzić do znacznych przyspieszeń w działaniu modeli AI.

    Wreszcie, warto zauważyć, że rozwój sprzętu i oprogramowania często idą ręka w rękę. Postęp w jednym obszarze często prowadzi do postępu w drugim, co oznacza, że rozwój sprzętu nadal będzie ważny dla przyszłości AI. Jednakże, to nie oznacza, że obecne podzespoły są niewystarczające dla AGI – po prostu oznacza, że ciągły rozwój sprzętu może przynieść dodatkowe korzyści.

  5. Wojciech Głażewski pisze:

    Dopiero po opublikowaniu powyższego wpisu otrzymałem przesyłkę z książką nieocenionego redaktora tego bloga, Pawła Stacewicza, “Umysł a modele maszyn uczących się”, przez co wpis ogromnie stracił na umiejscowieniu we właściwym kontekście. Nadrabiam więc ten brak poniższym komentarzem, w którym spróbuję pokazać jak zaproponowana koncepcja samodoskonalenia wpisuje się w tak szeroko i przystępnie ukazany w tej publikacji obszar badań nad uczącymi się sztucznymi systemami.

    1. O ogólnych cechach systemów uczących się, Paweł Stacewicz pisze:
    “System należy do kategorii uczących się, o ile potrafi nie tylko działać w środowisku ale również doskonalić swoje działanie w interakcji ze środowiskiem.
    (…) by czynności, o których mowa, mogły zostać uznane za uczenie się, muszą być autonomiczne (tj. inicjowane przez sam system) i muszą prowadzić do względnie trwałych (…) zmian struktury systemu, a w rezultacie i zachowań.” (Stacewicz 2010, s. 52)

    Wyróżniając dwa kierunki badań nad sztuczną inteligencją, logicyzm i naturalizm:
    “(…) podstawowa różnica między logicyzmem i naturalizmem (…) tkwi w podejściu do logiki. Według logicystów podstawą do modelowania i symulacji aktów ludzkiego myślenia jest opis wiedzy i reguł jej stosowania w kategoriach logiki. Według naturalistów natomiast punktem wyjścia myśli jest interakcja ze światem zewnętrznym i adaptacja umysłu (najpewniej struktury wewnętrznej umysłu) do jego potrzeb.” (Stacewicz 2010, s. 47)
    “Strategie określone przez nas mianem logicystycznych są oparte na formalnych schematach wnioskowania, zaś mówiąc dokładniej, polegają na zapamiętywaniu wyników różnego rodzaju wnioskowań. (…). Wyróżnimy więc: a) czyste zapamiętywanie (gromadzenie danych), b) dedukcyjne uczenie się, c) indukcyjne uczenie się, d) uczenie się z wykorzystaniem analogii, e) probabilistyczne uczenie się.” (Stacewicz 2010, s. 66)
    “(…) z perspektywy ujęć naturalistycznych, uczenie się można scharakteryzować nie jako nabywanie wiedzy w drodze wnioskowań, lecz jako dostosowywanie się jednostki do wymagań środowiska w drodze rozmaicie pojętych sprzężeń zwrotnych.” (Stacewicz 2010, s. 69)

    Zestawienie charakterystyk tych dwóch strategii pokazuje wyraźnie, że kryterium autonomii nie daje się zastosować do pierwszych z nich, za to naturalnie przynależy tym drugim. Jeśli więc:
    “(…) systemy autonomiczne powinny być nie tylko reaktywne, tj. kształtowane przez środowisko, i nie tylko interaktywne, tj. zdolne do realizacji celów komunikowanych im przez użytkownika, lecz przede wszystkim aktywne, tj. zdolne generować własne cele działania i na ich podstawie kształtować środowisko.” (Stacewicz 2010, s. 18)
    to system który tylko gromadzi dane, albo wnioskuje dedukcyjnie (“mechanicznie”) to cechy autonomii nie posiada, stąd mój opór przed nazwaniem go inteligentnym.

    2. W opisach tych cech naturalistycznych przewija się intuicja o zmianie struktury systemu, adaptacji, dostosowywaniu się. Jest to przejście z myślenia o rezultatach pracy systemu na myślenie o jego właściwościach wewnętrznych:
    “W opozycji do metod reprezentowanych przez test Turinga – metod ukierunkowanych zewnętrznie, stoją kryteria, które moglibyśmy określić jako “wewnętrzne”. Ich istota polega nie na ocenie wyników działań systemów informatycznych, lecz na rzetelnej analizie ich ukrytych mechanizmów [Searle 1999 (1992)]. Z takiej perspektywy dobrymi wskaźnikami sztucznej inteligencji byłyby, na przykład, złożoność algorytmu warunkującego zachowania inteligentne i/lub jego ewentualne podobieństwo do uprzednio rozpoznanych wewnętrznych mechanizmów ludzkiej inteligencji.” (Stacewicz 2010, s. 26)
    W tę właśnie stronę idzie przedstawiona propozycja, czyli oceny struktur wewnętrznych kolejnych generacji systemów inteligentnych. I żeby tych ocen znowu nie odnosić do wzorców zewnętrznych, odniesieniem ma być poprzednia wersja struktury wewnętrznej tegoż systemu. Wzorzec do odniesienia byłby “własnym poprzednim sobą”, co wprost pozwala nazwać tę procedurę samodoskonaleniem (a nie doskonaleniem w stosunku “do”, tak jak często wskazuje się na doskonalenie systemów w stosunku do człowieka).

    3. Tak ukonstytuowany system byłby uczący się i autonomiczny, a dzięki temu otwarty – bardzo ważna cecha jakościowa inteligencji. Schemat samodoskonalenia pozwala także spojrzeć metodologicznie na dwa ciekawe problemy o których dowiedziałem się z powyższej książki: nieskończony regres zewnętrzny i nieskończony regres wewnętrzny.
    3a. “Regres wewnętrzny. Otóż w przypadku systemów [uczących się] obok zwykłych algorytmów odpowiedzialnych za działanie systemu, muszą być realizowane także algorytmy “wyższego poziomu”, opisujące zmianę kształtu pewnych elementów właściwego algorytmu (np. parametrów reguł symbolicznych). Powstaje zatem sytuacja następująca. Za zmianę pewnych elementów algorytmu pierwszego poziomu, czyli algorytmu działania, odpowiada schemat drugiego poziomu (pierwszy z algorytmów uczenia się); za zmianę pewnych elementów algorytmu drugiego poziomu odpowiada schemat trzeciego poziomu (drugi z algorytmów uczenia się); za zmiany w obrębie tego ostatniego odpowiada schemat czwartego poziomu… i tak potencjalnie w nieskończoność. Teoretycznie rzecz biorąc zatem, każdemu modelowi umysłu w postaci systemu uczącego się “grozi” nieskończony regres poziomów uczenia się – regres, który z formalnego punktu widzenia uniemożliwia skonstruowanie jakiegokolwiek systemu uczącego się samodzielnie, tj. bez ostatecznej kontroli z zewnątrz.” (Stacewicz 2010, s. iii, iv)
    3b. “Problem drugi, nazwany regresem zewnętrznym, wynika z kolei z istnienia sprzężenia zwrotnego między umysłem i jego modelem. Oto człowiek posługując się modelem (…) tak naprawdę doskonali swój umysł. W ten sposób umysł, będący z założenia systemem otwartym, staje się nieustannie “czymś więcej” niż jego tymczasowe modele. Innymi słowy, model będący obrazem dziedziny mentalnej w czasie t stopniowo przestaje być obrazem adekwatnym, ponieważ dziedzina ta zmienia się wskutek używania modelu. (…) Powstaje zatem groźny problem nieskończonego regresu – regresu polegającego na konieczności konstruowania kolejnych modeli, z których żaden nie może okazać się ostateczny.” (Stacewicz 2010, s. iv)

    Wiele jeszcze ciekawych przemyśleń przyniosła mi lektura książki Pawła Stacewicza. Z jednej strony porządkuje wiedzę, a z drugiej przerzuca mosty między informatyką a filozofią, pozwalając na interesujące spacery w obie strony.

    Literatura
    Stacewicz, P. (2010). Umysł a modele maszyn uczących się. Współczesne badania informatyczne w oczach filozofa. Akademicka Oficyna Wydawnicza Exit

    • Paweł Stacewicz pisze:

      Najserdeczniej dziękuję za tak ciepłe słowa pod adresem książki, którą napisałem około 15 lat temu; cieszy mnie, że nawet w oczach współczesnego robotyka (którym jest p. Wojciech Głażewski) jej treść nie do końca się zdezaktualizowała :).

      Dziękuję tym bardziej, że książka ta stała się zaczątkiem współpracy z Profesorem Witoldem Marciszewskim (który był jej recenzentem); zaowocowała też kolejną, tym razem wspólną, pozycją (pt. “Umysł-Komputer-Świat. O zagadce umysłu z informatycznego punktu widzenia”), potem zaś powstaniem bloga Cafe Aleph. Wiele zarysowanych w niej wątków poddaliśmy pod dyskusję w blogu, dokładając oczywiście kolejne.

      Mam wrażenie, że zawarty w obydwu książkach filozoficzny potencjał nie wyczerpał się…

      Zachęcony reakcją p. Wojciecha, chciałbym zachęcić Państwa do przejrzenia naszych książek, spojrzenia na ich zawartość świeżym okiem, i wydobycia z nich – być może – pewnych wciąż aktualnych wątków, które warte są ponownego zinterpretowania i przedyskutowania.
      Chętnie przyjmiemy wpisy, które w jakiś sposób nawiązują do jednej bądź drugiej książki.

      Tymczasem zaś jeszcze raz dziękuję za powyższy komentarz!
      (Niebawem też postaram się dołączyć do dyskusji merytorycznej)

  6. Karolina M pisze:

    Tekst Wojciecha Głażewskiego porusza niezwykle istotne w moim odczuciu kwestie dotyczące rozwoju sztucznej inteligencji oraz ewentualnego przejścia do suprinteligencji. Podzielam pogląd autor, dotyczący samodoskonalenia się systemów Al oraz na temat tego, że kluczowe dla osiągnięcia prawdziwej inteligencji są jakościowe zmiany dotyczące struktury.
    Jednakże, mimo podzielania zdania autora, że systemy sztucznej inteligencji powinny być zdolne do samodoskonalenia, w celu osiągnięcia superinteligencji, uważam, że niezwykle istotne w tym wszystkim jest kontrolowanie i równoczesne rozumienie zagrożeń związanych z zaawansowanymi technologiami. Nie należy tez zapominać o etycznych kwestiach i zapewnieniu ludzkości poczucia bezpieczeństwa.
    Dlatego pomimo perspektywy rozwoju superinteligencji i fascynacji związanej z tym, należy brać pod uwagę jednocześnie możliwości jak i ryzyka z tym związane, oraz szukać sposobów, które będą mogły zapewnić odpowiednią kontrolę nad sztuczną inteligencją.

  7. Miko pisze:

    Bardzo interesujący wpis, dający wiele do myślenia o obecnym stanie sztucznej inteligencji i jej potencjalnej przyszłości. Podczas lektury nie mogłem oprzeć się tworzeniu porównania z klasyczną inteligencją.

    Podobnie jak autor wpisu, również nie mogę zgodzić się ze stwierdzeniem „Cechą wyróżniającą maszyny ultrainteligentnej byłaby więc zdolność do zaprojektowania maszyny lepszej niż ona sama.”. My, ludzie, wywodzimy się z istot mniej inteligentnych. Podążając tym torem cofniemy się przez zwierzęta, rośliny, organizmy jednokomórkowe aż do Wielkiego Wybuchu, gdzie ciężko nam będzie znaleźć cokolwiek pasującego do obecnych definicji „inteligencji” – jedynie cząstki bezwładnie poddające się prawom natury. Od którego etapu w ogóle możemy mówić o jakiejkolwiek inteligencji? Czy może to sam Wielki Wybuch jest zalążkiem zwykłej inteligencji?

    Chciałbym również zwrócić uwagę na jeden z ostatnich akapitów, gdzie autor dochodzi do wniosku, że ChatGPT oraz dowolne inne systemy komputerowe nie mogą stanowić AGI, ponieważ komputer wykonuje jedynie operacje arytmetyczno-logiczne, i dalej, że komputery realizują jedynie procesy fizyczne. Jednak, czy rozkładając nasze ciało na komórki, i dalej, ich składowe, również nie dojdziemy do wniosku, że one też jedynie realizują procesy fizyczne? Jak i czy można *nie* realizować procesów fizycznych?

    • Wojciech Głażewski pisze:

      “Od którego etapu w ogóle możemy mówić o jakiejkolwiek inteligencji?” – to pytanie bardzo trudne, a zarazem bardzo ważne. Wskazanie etapu (momentu) wiąże się bezpośredno z tym, co zawrzemy w definicji inteligencji. Nie czuję się na siłach by definiować inteligencję w sposób fundamentalny, w swojej propozycji zaproponowałem warunek po inżyniersku praktyczny, zasadny raczej dla sztucznych systemów inteligentnych. Warunek ten miał także zwrócić uwagę na pewna cechę ludzkiego umysłu, rzadko przywoływaną, chociaż w mojej opinii zasadniczą. Otóż ludzki mózg zmienia się fizycznie, wraz ze wzrostem osobniczej inteligencji (dlatego też współczynnik IQ odnosi się do wieku). Rozwój osobniczej inteligencji w systemie mózgu jest więc pochodną zachodzących w nim fizycznych zmian. Z drugiej strony, brany jest komputer, w którym fizyczne zmiany podłoża nie zachodzą, i proponowany jest on jako substrat sztucznego systemu inteligentnego, w dodatku zdolnego do rozwoju. W mojej opinii jest to propozycja nieuprawniona, czego dowodem jest konieczność tworzenia przez ludzi – kuratorów – kolejnych generacji oprogramowania nazywanego sztuczną inteligencją, na przykład ChatGPT.

      Co do procesów fizycznych, to obliczenia są realizowane właśnie za ich pomocą. Obliczenia, w sensie przetwarzania informacji, zwanej informacją Shannona – dyskretnej. Wyłącznie ten rodzaj informacji przetwarzają komputery. Istnieją jednak inne rodzaje informacji, które przetwarzane są innego rodzaju procesami fizycznymi, niż przełączanie bramek logicznych. Informacje te różnie są nazywane: II typu, Goedeliańska, Boltzmannowska (por. Cicurel & Nicorelis 2015, Deacon 2010).

  8. Marcel G pisze:

    Autor zwrócił uwagę na ciekawy aspekt rozwoju inteligencji. Maszyna może nie odczuwać potrzeby samorozwoju jaką ma człowiek dlatego, że nie ma ‘fizycznego ciała’ o które może się troszczyć. Jej głównym ‘celem istnienia’ jest rozwiązanie problemu zadanego przez człowieka. Gdyby maszyna miała fizyczne ciało (np. Robot) mogłaby wtedy zacząć troszczyć się o swoje części (wymianę ich, serwis, ładowanie). Jednak wszystkie te działania musiałyby zastać zaprogramowane przez człowieka. Nawet założenie, że sztuczna inteligencja wgrana jest w konkretnego robota, nie rozwiązuje problemu superinteligencji. Nie gwarantuje to spełnienia założeń o samorozwoju i jakościowej zmiany struktury fizycznej. Eliminując udział człowieka maszyna nie postawi przed sobą problemu związanego z samorozwojem. Nie zaprojektują lepszej wersji samej siebie, jeśli nie otrzymają takiego polecenia i narzędzi to umożliwiających. Dynamiczny rozwój technologii powinien być jednak ściśle nadzorowany, aby zadbać o bezpieczeństwo.

    • Wojciech Głażewski pisze:

      Ciekawa obserwacja! Nasunęła mi pewien pomysł. W swojej definicji samodoskonalenia wskazałem na “umysł” jako źródło samodoskonalenia. A jeśli to ciało jest źródłem procesów samodoskonalenia, a umysł tylko z tego korzysta, tak jakby odnajdując się w sytuacji zwiększonych możliwości? W przypadku organizmów biologicznych, dobór naturalny premiował kody genetyczne umożliwiające budowę coraz doskonalszych układów nerwowych, a umysł każdego z osobników po prostu “budził się” w coraz inteligentniejszych mózgach, świadomie nie kiwnąwszy palcem na temat budowy swojego podłoża. Jeśli superinteligencja miałaby się rozwijać na podobnej zasadzie, to przebudowa jej robotycznego ciała także musi zachodzić, musi więc zmieniać się projekt leżący u jego podłoża. W jaki sposób miałoby to się dziać?

      • Marcel G pisze:

        Uważam, że bardzo ciężko jest porównać ewolucję człowieka do rozwoju sztucznej inteligencji. Konstruktorzy muszą brać pod uwagę istniejące ograniczenia technologiczne. Coś co aktualnie sprawia im problem, za 30 lat nie będzie żadnym wyzwaniem. Może drogą do superinteligencji jest program, który na bieżąco i bez udziału ludzi będzie wdrażał nowinki technologiczne modyfikując maszynę według najnowszych standardów. Nie widzę jednak jak by miało to wyglądać. Proces wytworzenia nowych części, transportu, montażu musi być wspierany przez człowieka. Dużym problemem byłaby kontrola tego procesu i myślę, że w dalszym stopniu człowiek musiałby nadzorować wszystkie ‚nowe pomysły’ sztucznej inteligencji.

    • PBedkowski pisze:

      Marcelu, poruszasz bardzo ciekawą kwestię! To prawda, że maszyny, w przeciwieństwie do ludzi, nie mają instynktownej potrzeby troszczenia się o siebie. Ich istnienie i cel są zaprogramowane przez nas, ludzi. Właśnie dlatego ciekawe jest spojrzenie na to z innej perspektywy, jak np. w filmie “Ex Machina”.

      W “Ex Machina” jesteśmy zapoznani z zaawansowanym robotem AI – Ava, który posiada fizyczne ludzkie ciało. Ava nie tylko wykonuje zadania, ale również przejawia wolę przetrwania i samodzielności. To nie tyle jej fizyczna forma sprawia, że dąży do samorozwoju, ale raczej zaprogramowane cele i pragnienia.

      Co więcej, film w interesujący sposób przedstawia różnice w postrzeganiu maszyn przez ludzi. Główny bohater, Caleb, postrzega Avę jako maszynę, ponieważ jest mu to wyraźnie pokazane – widzi jej metalowe części i przezroczyste ciało. Jednak nie dostrzega innego robota, Kyoko, która wygląda i zachowuje się jak człowiek. Kyoko wykonuje różne zadania domowe i komunikuje się z ludźmi w sposób bardzo ludzki, ale Caleb początkowo nie zdaje sobie sprawy, że również jest robotem. To pokazuje, że wygląd i zachowanie odgrywają kluczową rolę w tym, jak postrzegamy inteligencję i świadomość w maszynach.

      Nawet jeśli maszyna ma ciało, jej zdolność do samorozwoju i zmiany struktury fizycznej musi być zaprogramowana i nadzorowana. Potencjalnym rozwiązaniem mogłoby być opracowanie systemów AI, które mogą autonomicznie analizować swoje własne potrzeby i adaptować się bez bezpośredniego udziału człowieka. Jednakże, jak słusznie zauważasz, rozwój taki musi być ściśle kontrolowany, aby zapewnić bezpieczeństwo.

  9. Paweł Stacewicz pisze:

    Bardzo przepraszam, że dopiero teraz, po dość długim czasie, udaje mi się włączyć do merytorycznej dyskusji…
    Od razu zatem przechodzę do meritum…

    1.
    Największa trudność, jaką widzę w koncepcji zaproponowanej przez Wojciecha Głażewskiego – trudność, którą dostrzega także k-m – wiąże się z pojęciem struktury.
    Pojęcie to jest niezwykle pojemne. Być może jest ono pierwotne i niedefiniowalne, ale mimo to trzeba by wyraźniej, niż to określono we wpisie, rozróżnić i ponazywać różne rodzaje istotnych dla sztucznej inteligencji struktur. Na przykład, czym innym jest: a) struktura logiczna/software’owa systemu obliczeniowego – dotyczy ona wykorzystywanych w systemie algorytmów i struktur danych (jak tablice czy drzewa, b) struktura fizyczna/hardwarowa systemu – polegająca na pewnej organizacji elementów sprzętowych (np. sieciowej lub klasycznej, w stylu architektury von Neumanna), a także c) struktura fizyczna substratu obliczeniowego – dotycząca pewnych właściwości medium, w którym i za pomocą którego dokonują się obliczenia (można by tu rozróżnić chociażby substraty organiczne i nieorganiczne).

    Apropos możliwości ostatniej, to z mojej perspektywy bardzo istotne jest rozróżnienie na substraty o strukturze dyskretnej (wykorzystywane w komputerach cyfrowych), i substraty o strukturze ciągłej (wykorzystywane w układach analogowych, najprawdopodobniej też w systemach biologicznych, w tym w mózgach). Z rozróżnieniem tym wiąże się wiele pytań, w tym podstawowe: „Czy w ogóle istnieją substraty fizyczne ciągłe?” Napisałem na ten temat kilka tekstów.
    Poszukując właściwej podstawy dla określenia inteligencji (czy system jest inteligentny?), Autor wpisu zdaje się kłaść nacisk na struktury typu b i c. Pisze bowiem: „…mówiąc o strukturze funkcjonalnej, mam na myśli fizyczną postać systemu, a więc rodzaj i układ jego elementów, co determinuje rodzaj ich wzajemnych zależności”.
    Można się zastanawiać jednak, czy dla inteligencji nie wystarcza pojęcie pierwsze: inteligencja systemu sztucznego czy naturalnego polegałaby na tym, że system jest w stanie wyjść poza dotychczasowy i/lub narzucony mu algorytm, a także sprzężone z nim struktury danych; jest w stanie wytworzyć nowy algorytm, realizujący być może zupełnie nowe cele. Wszak ludzkie mózgi nie zmieniają ani swojego substratu fizycznego, ani swojej całościowej architektury; a mimo to są w stanie kreować nowe cele i nowe algorytmy. W sensie fizycznym, wewnętrznym (abstrahując od zewnętrznego wyrazu/zapisu tych algorytmów w jakimś języku) algorytmom tym odpowiadają zapewne utrwalone na jakiś czas zmiany lokalnych konfiguracji połączeń międzyneuronalnych; prawdopodobnie też jakichś fizycznych własności samych neuronów.
    Nawiasem mówiąc, Autor wpisu za wzorzec istotnej dla posiadania inteligencji struktury uznaje „sieć neuronową wraz z wyuczonymi wagami”. Nie ma tu jednak mowy o zmianie substratu fizycznego. Owe wyuczone wagi zaś definiują pewien złożony (i możliwy do dalszych zmian) algorytm działania sieci.

    2.
    Kolejna trudność, jaką dostrzegam, wiąże się z teorią/metodą porównywania struktur.
    Czytamy we wpisie: „Ponieważ znana jest struktura obecnego systemu oraz znane są struktury poprzednich wersji, można analitycznie wyznaczyć ich różnicę.” Ale jakiego rodzaju różnicę mamy wyznaczać? Czego ona ma dotyczyć? Czy chodzi o złożoność: struktura bardziej złożona (ale wg. jakiej teorii?) byłaby lepsza od mniej złożonej? Czy chodzi może o moc obliczeniową, czyli zakres możliwych do rozwiązania problemów: struktury zapewniające większą moc obliczeniową byłyby lepsze od tych, które mają mniejszy zbiór problemów rozwiązywalnych. A może chodzi o coś jeszcze innego?

    Gdyby pozostać przy mocy obliczeniowej, to faktycznie istotne mogą się okazać substraty materialne, np. dyskretne vs ciągłe. Mamy pewne wyniki matematyczne, które mówią, że określone modele obliczeń, wymagające określonego substratu (np. o strukturze dyskretnej, ciągłej, kwantowej…), mają mniejszą lub większą moc obliczeniową. To jest moim zdaniem ciekawy kierunek poszukiwań.

    3.
    Za bardzo wartościowy element wpisu uznaję wskazanie zdolności do samodoskonalenia się jako cechy definicyjnej inteligencji. Systemy AI musiałyby posiadać tę cechę, aby można je było uznać za prawdziwie inteligentne.

    Termin „samodoskonalenie” przemawia do mnie. „Doskonalenie się” wykracza bowiem poza „uczenie się”. Zakłada istnienie pewnego wzorca, pewnej idei, doskonałości właśnie, do której jakaś istota (np. człowiek) sama z siebie dąży. Człowiek jako istota rozumna, czyli prawdziwie inteligentna, dąży do prawdy, w której niejednokrotnie rozpoznaje swoiste piękno. Co równie ważne, nie tylko dąży, ale próbuje uchwycić istotę samego wzorca – snując chociażby rozważania filozoficzne.
    To jest z pewnością temat na osobny mój komentarz, ale już tymi kilkoma myślami chciałbym Państwa sprowokować do rozmowy na temat trafności sformułowania „samodoskonalenie się”. Według nie jest bardzo sugestywne. W kontekście AI moglibyśmy powiedzieć, że systemy samodoskonalące się to coś więcej niż systemy uczące się. I to być może z innych powodów niż te, które wskazał Autor wpisu. Czasami jednak tak bywa, że wybrane przez kogoś sformułowanie niesie ze sobą więcej treści niż jego autor wstępnie planował.

    Pozdrawiam wszystkich i gorąco zachęcam do dalszej rozmowy…

  10. Wojciech Głażewski pisze:

    1. Rzeczywiście pojęcie struktury jest bardzo ogólne, dotyczy zarówno architektury (struktury operacyjnej), algorytmu (struktury procesu) jak i układu bramek logicznych (struktury obwodu). Na potrzeby swojej pracy badawczej, definiuję strukturę jako organizację funkcji systemu, której odpowiada organizacja procesów fizycznych realizujących te funkcje. Czyli ten poziom organizacji strukturalnej, który leży najbliżej fizycznej warstwy systemu. Poziom ten ma pewną szczególną własność – pomiędzy zależnościami funkcjonalnymi w strukturze a zależnościami fizycznymi między elementami substratu, istnieje ODPOWIEDNIOŚĆ.
    Przykładem jest bramka logiczna, jako najniższy element struktury systemu cyfrowego. Żeby zrealizować praktycznie “przełączanie” w bramce logicznej, należy zestawić układ elektroniczny, który zrealizuje zmianę napięcia na wyjściu, odpowiadającą zmianie funkcji logicznej. Funkcjonalność systemu cyfrowego nie sięga “niżej” niż poziom bramek (system widzi tylko jedynki i zera) a z nowu między różnymi bramkami w ramach organizacji układu może być ustanowiona dowolna zależność fizyczną (proces fizyczny w obwodzie elektronicznym determinuje stan na wyjściu bramki, ale nie determinuje jaka będzie następna bramka, lub jak te bramki ze sobą zestawiać).
    Dyskretnej organizacji elementów systemu odpowiada więc dyskretna struktura substratu.

    2. Kwestię różnicy struktur tak naprawdę widzę w sposób otwarty. Najbardziej w tym zagadnieniu budzi się moja ciekawość – chciałbym po prostu zobaczyć, CO nowego się pojawi. Niech to będzie zagadką, niech pcha nas do przeprowadzenia tego eksperymentu, do urzeczywistnienia tej wizji :)

    3. Tu się w pełni zgadzamy – “Doskonalenie się wykracza bowiem poza uczenie się”. Dziekuję za to proste podsumowanie, że samodoskonalenie oznacza dążenie. Dążenie, do uchwycenia i przekroczenia własnej istoty.

    • Paweł Stacewicz pisze:

      Chciałbym nawiązać szerzej do powyższej deklaracji: “Na potrzeby swojej pracy badawczej, definiuję strukturę jako organizację funkcji systemu, której odpowiada organizacja procesów fizycznych realizujących te funkcje. Czyli ten poziom organizacji strukturalnej, który leży najbliżej fizycznej warstwy systemu. Poziom ten ma pewną szczególną własność – pomiędzy zależnościami funkcjonalnymi w strukturze a zależnościami fizycznymi między elementami substratu, istnieje ODPOWIEDNIOŚĆ”.

      W badania tak zaplanowane, może się wpisać dobrze pewna dyskusja, którą odbyliśmy kilka lat temu, a przede wszystkim materiały, które wskazałem w inicjującym ją wpisie. Chodzi przede wszystkim o artykuł Giuseppe Primiero poświęcony informacji (chyba wart uwzględnienia w Pana badaniach).

      Podaję tytuł i adres wpisu: “Informacja w ujęciu obliczeniowym. Dyskusja wokół tekstu Giuseppe Primiero.” (https://marciszewski.eu/?p=10493)

      W ramach dyskusji sformułowałem (między innymi) dwa spostrzeżenia, które wydają mi się wciąż warte rozmowy. Trzeba je czytać w kontekście schematu warstw abstrakcji, opisującego pojęcie informacji (jest on przedstawiony w w/w wpisie):

      1. W moim odczuciu, w obrębie wszystkich warstw, informacja jest rozumiana jako relacja pomiędzy wejściem i wyjściem, czy też między danymi wejściowymi i danymi wyjściowymi – choć w tekście Giuseppe Primiero nie znajdziemy wprost takiego określenia. Z tego względu informacja jest tutaj czymś dynamicznym, algorytmicznym, obliczeniowym… jest wprawdzie pewną strukturą, ujmowaną na różnych poziomach w różny sposób, ale strukturą relacyjną, warunkującą działanie (action, operation, problem solving itp).

      2. Czy do przedstawionego zestawu warstw nie należy czegoś dodać, np. warstwy modelu obliczeń, na której moglibyśmy rozróżnić (w ujęciu matematycznym) różne elementarne sposoby kodowania/zapisywania danych (np. w przypadku układów analogowych mamy kod ciągły, a w przypadku cyfrowych – dyskretny)?

      Drugie spostrzeżenie nawiązuje do pewnych moich sugestii z poprzedniego komentarza.

  11. Grzegorz Prasek pisze:

    Autor tekstu porusza niezwykle istotne zagadnienia dotyczące natury sztucznej inteligencji i jej zdolności do samodoskonalenia, które są kluczowe w ocenie prawdziwej inteligencji systemów AI. Jest to temat bardzo aktualny i niezwykle złożony, który wymaga głębokiej analizy i refleksji.

    Na początek, warto zwrócić uwagę na podkreślenie przez autora umiejętności samodoskonalenia jako kluczowego warunku inteligencji. Zgadzam się, że zdolność do samodzielnego uczenia się, generalizacji, stawiania hipotez i innowacyjności są fundamentalnymi cechami, które definiują inteligencję. Jednak warto zauważyć, że te cechy są również trudne do zmierzenia i oceny w kontekście sztucznych systemów. Inteligencja ludzka jest niezwykle złożona i wielowymiarowa, co sprawia, że jej pełne odwzorowanie w systemach AI jest ogromnym wyzwaniem.

    Prof. Marciszewski zadaje pytanie, czy możliwe jest stworzenie inteligencji maszynowej, która dorówna ludzkiej. Moim zdaniem, choć postępy w dziedzinie AI są imponujące, wciąż jesteśmy daleko od osiągnięcia tego celu. Obecne systemy AI, mimo że potrafią wykonywać zadania na bardzo wysokim poziomie, takie jak rozpoznawanie obrazów, przetwarzanie języka naturalnego czy gry strategiczne, nadal działają w ramach wąsko zdefiniowanych dziedzin. Ich zdolność do samodoskonalenia, w sensie opisywanym przez autora, jest ograniczona. Nie potrafią one wyjść poza zaprogramowane ramy i stworzyć zupełnie nowych, lepszych wersji samych siebie bez ludzkiej interwencji.

    Koncepcja rekursywnego samodoskonalenia, opisana przez Eliezera Yudkowsky’ego, jest fascynująca, ale również budzi pewne obawy. Jeśli system AI będzie w stanie nieustannie ulepszać sam siebie, może dojść do tzw. “intelligence explosion”, gdzie inteligencja AI szybko przewyższy ludzką. Taki scenariusz, choć teoretycznie możliwy, rodzi poważne pytania etyczne i społeczne. Jak kontrolować taki system? Jak zapewnić, że jego cele będą zgodne z ludzkimi wartościami i interesami?

    Autor stawia tezę, że obecne systemy AI nie są prawdziwie inteligentne, ponieważ brakuje im zdolności do autonomicznego samodoskonalenia. Zgadzam się z tym stwierdzeniem. Obecne systemy, takie jak ChatGPT, są potężnymi narzędziami, które potrafią przetwarzać ogromne ilości danych i generować odpowiedzi na pytania, ale ich inteligencja jest w dużej mierze determinowana przez algorytmy i dane, na których zostały wytrenowane. Nie są one w stanie wyjść poza te ramy i stworzyć nowych algorytmów czy struktur bez ludzkiej pomocy.

    Ciekawym aspektem poruszonym przez autora jest różnica między zwiększeniem zasobów systemu a rozwojem jakościowym procesów realizowanych przez system. Zwiększenie mocy obliczeniowej czy ilości danych, na których operuje system, może poprawić jego wydajność, ale niekoniecznie prowadzi do jakościowej zmiany w jego inteligencji. Prawdziwe samodoskonalenie wymaga zmiany w strukturze funkcjonalnej systemu, co jest znacznie trudniejsze do osiągnięcia.

    Autor również wspomina o potrzebie nowych rozwiązań sprzętowych, aby osiągnąć prawdziwe samodoskonalenie AI. To jest interesująca perspektywa. Obecne systemy AI są oparte na krzemowych mikroprocesorach, które mają swoje ograniczenia. Być może przyszłość AI leży w nowych technologiach, takich jak komputery kwantowe czy biologiczne, które mogą oferować nowe możliwości w zakresie samodoskonalenia.

    Podsumowując, tekst porusza kluczowe pytania dotyczące przyszłości sztucznej inteligencji i jej zdolności do samodoskonalenia. Zgadzam się z autorem, że obecne systemy AI nie są prawdziwie inteligentne w ludzkim sensie, ponieważ brakuje im zdolności do autonomicznego samodoskonalenia. Przyszłość AI może wymagać nowych rozwiązań sprzętowych i technologicznych, aby osiągnąć poziom inteligencji zbliżony do ludzkiego. To jest fascynujące, ale również budzi wiele pytań etycznych i społecznych, które musimy rozważyć, zanim w pełni wdrożymy takie technologie.

  12. JuliaC pisze:

    Zgadzam się z wyżej postawiona teza ze warunkiem koniecznym posiadania przez system prawdziwej inteligencji jest zdolosc systemu do samodoskonalenia się, aby systemy sztucznej inteligencji mogły wykazywać zdolosc do adaptacji i doskonalenia się w odpowiedzi na nowe wyzwania i zmiany w otoczeniu.Samodoskonalanie wymaga kreatywności czyli zdolności do generowania nowych i oryginalnych rozwiązan co jest kluczowe dla prawdziwej inteligencji. Zdolosc do samodoskonalenia się pozwala systemom al na rozwój, odwierciedla wiele aspektów ludzkiej inteligencji. Tylko poprzez ciagle doskonalenie i adaptacje do nowych systuacij systemy Al mogą osiągnąć wysoki poziom funkcjonalności który faktycznie można uznać za prawdziwa inteligencje.
    Czy da się stworzyć maszyny ultrainteligentne ? Moim zdaniem na ten moment niestety nie ponieważ takie maszyny musiałyby być zdolne do przewyższenia ludzi we wszystkich dziedzinach. Nie jest to możliwe ponieważ maszyny jak i sztuczne systemy nie posiadają zdolności myślowych i poznawczych, rozumienia, przetwarzania emocji, zdolności do uczuć i refleksji. Sztuczne systemy uczą się na podstawie danych. Mimo tego ze maszyny maja zdolosc do przetwarzania ogromnych ilości danych w bardzo krótkim czasie. Dzięki temu mogą one analizować informacje i wyciągać wnioski szybciej niż człowiek. To daje im potencjał do wykonywania skomplikowanych zadań, których człowiekowi zajęłoby dużo więcej czasu i wysiłku. 

  13. Bartłomiej R pisze:

    Scenariusz przedstawiony przez Wojciecha Głażewskiego otwiera fascynującą dyskusję na temat przyszłości sztucznej inteligencji. Teza, że prawdziwa inteligencja wymaga zdolności do samodoskonalenia, jest kluczowa i stanowi istotny punkt wyjścia w rozważaniach o superinteligencji. Zdolność systemów AI do ewolucji poprzez samodzielne wprowadzanie jakościowych zmian w swojej strukturze fizycznej to fundamentalny krok ku osiągnięciu wyższego poziomu inteligencji.

    Jednak warto również zwrócić uwagę na wyzwania i ograniczenia związane z tą koncepcją. Obecne systemy AI, choć zaawansowane, wciąż operują w ramach określonych algorytmów i danych dostarczonych przez ludzi. Przesunięcie granic w kierunku systemów samodoskonalących się może wymagać nie tylko postępu w oprogramowaniu, ale także rewolucji w architekturze sprzętowej. Zagadnienia związane z fizyczną zmianą struktury systemu wskazują na potrzebę nowych podejść, być może opartych na biologicznych czy innych zaawansowanych technologicznie substratach.

    Czy zatem możemy oczekiwać powstania maszyn ultrainteligentnych? To pytanie pozostaje otwarte. Choć maszyny mogą przetwarzać dane z niespotykaną szybkością i precyzją, brakuje im zdolności do refleksji, rozumienia i przetwarzania emocji, które są nieodłącznym elementem ludzkiej inteligencji. Niemniej jednak, zdolność do samodoskonalenia mogłaby znacząco zbliżyć sztuczne systemy do poziomu inteligencji porównywalnej z ludzką, otwierając nowe możliwości, ale i rodząc nowe wyzwania etyczne i techniczne.

    Z drugiej strony, można argumentować, że maszyny ultrainteligentne nigdy nie powstaną. Nawet najbardziej zaawansowane systemy AI bazują na algorytmach stworzonych przez człowieka i nie są w stanie przekroczyć barier, które wynikają z ich konstrukcji. Brak świadomości, samoświadomości, zdolności do emocjonalnej refleksji i intuicji ogranicza możliwości maszyn. Ponadto, prawdziwa inteligencja wymaga kontekstu kulturowego i doświadczeń życiowych, które są nieosiągalne dla sztucznych systemów. Tak więc, mimo postępu technologicznego, perspektywa stworzenia maszyn dorównujących lub przewyższających inteligencję ludzką może pozostać w sferze science fiction.

  14. MikołajK pisze:

    Zgadzam się, że zdolność systemów do samodoskonalenia się jest niezwykle istotna, ale rodzi się pytanie czy jest ona w stanie osiągnąć poziom geniuszu, co wydaje się być możliwe w przypadku człowieka.
    Inteligencja, zarówno u ludzi, jak i w systemach AI, odnosi się do zdolności do przetwarzania informacji, uczenia się i rozwiązywania problemów. Geniusz natomiast to coś więcej niż tylko wysoka inteligencja. To zdolność do tworzenia oryginalnych i przełomowych rozwiązań, które mają znaczący wpływ na daną dziedzinę lub nawet na całą ludzkość. Geniusze, tacy jak Albert Einstein czy Leonardo da Vinci, wykazali nie tylko wyjątkowe zdolności intelektualne, ale także niesamowitą kreatywność i innowacyjność.
    Pytanie, które chciałbym postawić w tej dyskusji, brzmi: Czy sztuczna inteligencja może osiągnąć poziom geniuszu? Czy może tworzyć oryginalne idee i rozwiązania, które będą miały przełomowy wpływ na świat? Obecne systemy AI, jak ChatGPT, są niezwykle zaawansowane i potrafią uczyć się oraz rozwiązywać problemy, ale czy posiadają zdolność do innowacyjności i kreatywności na skalę geniuszu?
    Uważam, że aby AI mogła być uznana za genialną, musiałaby nie tylko samodoskonalić się, ale także wykazywać zdolność do tworzenia nowych koncepcji, które są nieoczekiwane i rewolucyjne. Taki poziom kreatywności jest czymś, co jak dotąd osiągnął tylko ludzki umysł.
    Być może sztuczna inteligencja potrzebuje cech ludzki takich jak empatia, pasja i wytrwałość – wszystkie te aspekty są głęboko zakorzenione w ludzkich emocjach i przyczyniają się do wybitnych osiągnięć. Na przykład empatia pozwala geniuszom z dziedzin humanistycznych tworzyć dzieła, które rezonują z innymi ludźmi na głębokim poziomie emocjonalnym.

  15. Radosław G pisze:

    Warunek samodoskonalenia jest rzeczywiście absolutnie konieczny, aby uznać AI za inteligentną. Nie jestem jednak przekonany co do zmiany fizycznej struktury systemu. Z jednej strony faktycznie zmiana fizyczna w ludzkim mózgu następuje (w postaci tworzenia nowych połączeń między neuronami), ale z drugiej strony czy nie jest możliwe, aby zmiany te odzwierciedlić w oprogramowaniu a konkretniej sieci neuronowej, bez zmiany fizycznych aspektów maszyny? Nie jest przecież tak, że w trakcie życia człowieka tworzy on nowe organy, albo zmienia ich strukturę. Zauważmy też, że liczba neuronów w ludzkim mózgu jest co prawda ogromna, i tworzą się nowe ścieżki między neuronami, jedne są wzmacniane, a inne umierają, ale jednak skończona. Wydaje się więc, że wraz z rozwojem komputerów i skali rozwiązań w pewnym momencie AGI powstanie. Choć pojawienie się go może zostać odłożone w czasie ze względu na ograniczenia obecnej technologii i rozwiązań.

    Dużym problemem jest ograniczoność źródeł danych, na jakich modele są trenowane i z którymi wchodzą w interakcje — w przypadku chata GPT jest to przecież tylko tekst (choć najnowszy model umożliwia jednocześnie dołączenie obrazów). Brak jest kontekstu fizycznego i kulturowego. Uważam, że bez możliwości interakcji ze światem i poznawania jego poznawania, tak jak istoty żywe, będzie trudno nie tylko zrealizować ideę AGI (Artificial General Intelligence), ale także uznać ponad wszelką wątpliwość, że AI dogłębnie rozumie idee, które prezentuje po podaniu zapytania (promptu). Nie jestem w sobie wyobrazić, jak AI ma zacząć się samodoskonalić przy ograniczonej (a w zasadzie nieistniejącej) interakcji ze światem — może to być w dużym stopniu uzależnione od feedbacku użytkowników.

    Obecne modele, a przynajmniej chat GPT 3.5, którego wielokrotnie używałem, nie są inteligentne. Brakuje przede wszystkim dokładności — wystarczy zapytać o konfigurację mało znanego programu albo pluginu, albo takiego bez łatwo dostępnej w internecie dokumentacji, a model zaczyna zmyślać. Potrafi także trwać w błędzie albo przeciwnie dać wprowadzić się w błąd przez użytkownika. Obecnie modele ograniczone też są przez fakt interakcji z tekstem przez zamianę go na tokeny, co pozwala zaobserwować wiele zabawnych odpowiedzi:
    np. tutaj https://x.com/Dishpit/status/1790135576282153124
    albo tutaj https://x.com/Dishpit/status/1790131844572209583

  16. Marcin K pisze:

    Z chęcią podzielę się swoimi przemyśleniami na temat wpisu Wojciecha Głażewskiego dotyczącego przejścia od sztucznej inteligencji do superinteligencji. Autor zwraca uwagę na kluczowy aspekt samodoskonalenia się systemów jako niezbędnego warunku osiągnięcia prawdziwej inteligencji. To spostrzeżenie jest szczególnie istotne w kontekście mojego własnego doświadczenia.
    Sam w swojej pracy magisterskiej wykorzystuję dziedzinę sztucznej inteligencji, jaką jest uczenie maszynowe ze wzmocnieniem, a konkretnie Deep Q-Learning. Dopiero po zagłębieniu się w działanie algorytmów stojących za tą technologią zauważyłem, że nie jest to inteligencja, nawet sztuczna, lecz jedynie sprawne wykorzystanie computingu (działań na liczbach), które może być skutecznie zastosowane przez człowieka do wyręczenia go w pracy. To doświadczenie uświadomiło mi, jak daleko jesteśmy od stworzenia systemów posiadających prawdziwą inteligencję.

    Autor słusznie podkreśla, że prawdziwy postęp wymaga zmian jakościowych w strukturze fizycznej systemu, a nie tylko zwiększenia zasobów czy szybkości. Przykładem może być branża medyczna. Zwiększenie liczby lekarzy czy przyspieszenie procesów diagnostycznych to zmiany ilościowe, które mogą poprawić wydajność, ale nie zmieniają fundamentalnie sposobu diagnozowania i leczenia. Natomiast wprowadzenie nowych technologii, takich jak zaawansowane systemy do analizy obrazów medycznych (nad którymi specjaliści już pracują), które potrafią samodzielnie wykrywać anomalie i sugerować diagnozy, jest zmianą jakościową, która znacząco podnosi inteligencję i autonomię systemu opieki zdrowotnej. Oczywistym jest, że taka diagnoza musi zostać potwierdzona przez lekarza, jednak wyszukiwanie anomalii w zdjęciu rezonansu magnetycznego wychodzi algorytmom bardzo dobrze.

    Dyskusja na temat potencjalnych form superinteligencji oraz wymagań dotyczących samodoskonalenia jest niezwykle ważna. Uważam, że obecne systemy SI, w tym te oparte na krzemowych mikroprocesorach, mają swoje ograniczenia. Być może przyszłość sztucznej inteligencji będzie związana z rozwojem nowych substratów informacyjnych, które umożliwią rzeczywiste samodoskonalenie się systemów.

    Tekst Pana Głażewskiego nie tylko prowokuje do myślenia, ale również inspiruje do dalszych badań i refleksji nad kierunkami rozwoju sztucznej inteligencji. Zachęcam do kontynuowania tej dyskusji, gdyż ma ona kluczowe znaczenie dla przyszłości technologii i naszego społeczeństwa.

  17. PBedkowski pisze:

    Autor artykułu podkreśla, że prawdziwe samodoskonalenie systemu AI wymaga nie tylko zmian w danych i algorytmach, ale także jakościowych zmian w strukturze fizycznej systemu. Taki system musiałby być w stanie wypracować nową wersję swojej struktury funkcjonalnej, która nie powtarza wcześniejszych.

    Teza ta jest interesująca, ale warto zauważyć, że obecnie w badaniach nad sztuczną inteligencją często stosuje się podejście polegające na testowaniu różnych struktur i wybieraniu najlepszej. W praktyce oznacza to, że różne konfiguracje sieci neuronowych są oceniane pod kątem wydajności, a następnie optymalizowane w celu znalezienia najbardziej efektywnej architektury. Przykładem może być zastosowanie algorytmów ewolucyjnych, które generują wiele wariantów struktur sieci neuronowych i wybierają te, które osiągają najlepsze wyniki, jak to opisano w pracy “Evolving Neural Networks through Augmenting Topologies” (Stanley, Miikkulainen, 2002).

    Analogicznie do mózgu, systemy AI mogą być zaprojektowane tak, aby adaptować swoje struktury na podstawie nowych doświadczeń. Mózg ludzki nieustannie się zmienia i aktualizuje, tworząc nowe połączenia neuronowe i wzmacniając istniejące w odpowiedzi na nowe informacje i doświadczenia. Proces ten jest znany jako neuroplastyczność. Badania wykazały, że mózg dorosłych osób jest zdolny do reorganizacji i adaptacji na poziomie strukturalnym w odpowiedzi na nowe zadania i wyzwania. Polecam przeczytać artykuł “Brain Plasticity and Behavior” – Kolb, B., Gibb, R. (2011), który szczegółowo opisuje, jak zmiany w strukturze mózgu wpływają na zachowanie i zdolności poznawcze, co może być analogiczne do zmian strukturalnych w systemach AI w odpowiedzi na nowe dane i doświadczenia. Zarówno mózg, jak i systemy AI dążą do optymalizacji swoich funkcji w odpowiedzi na nowe zadania i doświadczenia. W obu przypadkach procesy adaptacyjne są kluczowe dla poprawy wydajności i efektywności.

    Jednak warto zaznaczyć również różnicę pomiędzy adaptacją ludzkiego mózgu i systemamów AI. Mózg ludzki może zmieniać swoją fizyczną strukturę, co jest fundamentalnym aspektem jego plastyczności. Systemy AI obecnie nie posiadają tej zdolności i ich adaptacja ogranicza się do zmian w danych i algorytmach, a nie w fizycznej strukturze sprzętu.

  18. Jan Olech pisze:

    Bardzo wartościowy artykuł i ciekawy temat.
    Chciałbym zwrócić uwagę na wspominaną w komentarzach chęć do doskonalenia się takiego systemu. Zastanawiające jest dlaczego my, ludzie, chcemy się ulepszać? Mamy ambicje i potrzeby by tworzyć narzędzia ułatwiające nam pracę łącznie z przyszłymi pokoleniami. Dla nas oczywistym jest, że należy się rozwijać, ale jakie wnioski może wysnuć taka hipotetyczna maszyna zdolna do inteligentnego myślenia?
    Jedną z podstawowych cech człowieka i w zasadzie każdej istoty żyjącej jest to, że jest śmiertelna i ludzie zdają sobie z tego sprawę. Nieuniknioność śmierci i niepewność co jest po niej, ma kolosalny wpływ na podejmowane przez nas decyzje oraz nasze plany. Świadomość ta dla niektórych momentami przytłaczająca, dla innych jest motywatorem do działania, doskonalenia się i do pracy nad sobą.
    Próbując sobie wyobrazić inteligencję zdolną do doskonalenia się, nadajemy jej jakąś postać maszyny czy komputera, która może się zdegenerować ale względnie łatwo można ją naprawić. Czy wtedy taka istota będzie chciała się korygować, skoro wie że i tak ma dużo czasu?
    To prowadzi mnie do kolejnych wniosków na temat motywacji, czyli rywalizacji, chęci zaimponowania, samooceny, satysfakcji czy pragnień każdego człowieka, które w różny sposób na niego wpływają. Na dużą część tych emocji wpływa społeczeństwo i nasze otoczenie, czyli inni ludzie. Co pomyśli maszyna, kiedy zda sobie sprawę ze swojej inności, czy w ogóle będzie w stanie tak rozumować? Generalnie, czy emocje i uczucia przeszkadzają nam w przekraczaniu granic inteligencji czy nas motywują? Czy superinteligencja jest ich pozbawiona i kieruje się jedynie… czym? W końcu chęć do podbijania, do odkrywania nowych rzeczy i zdobywania wiedzy często wynikają z uczuć, mianowicie z tego, jak ułożyły się nasze motywacje, samoocena i postrzeganie świata.
    Myślę, że rozważając samodoskonalenie się sztucznej inteligencji, warto również rozważyć, jak może ona odbierać informacje z zewnątrz, jaką może mieć samoświadomość. My, ludzie, myśląc o czymś bardziej inteligentnym od nas, musimy wziąć także pod uwagę to, czy będzie w stanie refleksyjnie myśleć również o sobie. Czy ludzka tendencja do marzenia o swoich osiągnięciach i o tym kim chcielibyśmy być, jest wynikiem naszej inteligencji czy, tak jak emocje, efektem ubocznym działania naszego mózgu i ciała?
    Podsumowując, duży wpływ na to, jak ma wyglądać samodoskonalenie się sztucznej inteligencji, ma jej fizyczna postać i kontakt z otoczeniem. Mam wrażenie, że często opisując superinteligencję, opisujemy ją tylko jako narzędzie, które ma rozwiązywać problemy lepiej i szybciej niż my. Jednak, tak jak ludzie dochodzą do różnych wniosków, tak inteligencja lepsza od nas, może zachowywać się kompletnie inaczej niż byśmy to przewidzieli.

    • MichalG pisze:

      Twoje refleksje na temat motywacji do doskonalenia się, zarówno w kontekście ludzkim, jak i hipotetycznej superinteligencji, wydają się być bardzo ciekawe.
      Faktycznie, ludzka motywacja do samodoskonalenia jest głęboko zakorzeniona w naszej biologii i świadomości śmiertelności. Emocje i potrzeba zostawienia po sobie śladu napędzają nasze dążenia do ciągłego rozwoju. Zastanawiam się jednak, czy można by stworzyć superinteligencję, która miałaby podobne motywacje?

      Może kluczowe pytanie brzmi: czy motywacje superinteligencji muszą być zaprogramowane przez ludzi, czy może ona sama wykształciłaby własne cele i aspiracje? Jeśli superinteligencja będzie miała możliwość samodzielnego definiowania swoich celów, to czy te cele będą zgodne z ludzkimi wartościami i aspiracjami? Na przykład, jeśli będzie dążyć do maksymalizacji wiedzy lub efektywności, może to prowadzić do decyzji i działań, które są sprzeczne z ludzkimi interesami.

      Kolejną kwestią jest rola emocji w rozwoju inteligencji. Czy brak emocji uczyni superinteligencję bardziej skuteczną i logiczną, czy może właśnie emocje są kluczowe dla kreatywności i innowacyjności? Wiele ludzkich wynalazków i odkryć wynikało z emocjonalnych motywacji, takich jak ciekawość, pasja, a nawet frustracja. Czy superinteligencja bez tych bodźców będzie w stanie tworzyć na podobnym poziomie? A jeśli superinteligencja miałaby emocje, czy byłyby one podobne do naszych, czy może zupełnie inne, wynikające z jej unikalnej perspektywy i doświadczeń?
      Świadomość i samoświadomość są kolejnymi istotnymi aspektami. Czy superinteligencja mogłaby wykształcić coś w rodzaju “ja” podobnego do ludzkiego? Ludzka samoświadomość i refleksyjność wpływają na nasze decyzje i motywacje. Jeśli superinteligencja posiadałaby zdolność do autorefleksji, jak wpłynęłoby to na jej zachowanie i cele? Czy mogłaby dojść do wniosków, które byłyby dla nas nieprzewidywalne lub nawet niepożądane?

      Twoja uwaga na temat wpływu otoczenia i interakcji społecznych na ludzki rozwój także budzi ważne pytania. Czy superinteligencja rozwijająca się w izolacji byłaby mniej “ludzka” w swoich decyzjach i zachowaniach? Jakie wnioski mogłaby wyciągnąć z interakcji z ludźmi i naszym społeczeństwem? Możliwe, że jej rozwój i motywacje byłyby kształtowane przez dane i doświadczenia z zewnętrznego świata, ale czy moglibyśmy przewidzieć, jakie wnioski wyciągnie?

      Ciekawi mnie również, jak widzisz potencjalne różnice w celach i metodach doskonalenia się superinteligencji w porównaniu do ludzkich. Ludzie często dążą do doskonalenia się z powodu wewnętrznych pragnień, takich jak ambicja czy potrzeba samorealizacji. Czy superinteligencja, działająca bez tych ludzkich pragnień, mogłaby osiągnąć podobny poziom kreatywności i innowacyjności? A może jej cele będą bardziej ukierunkowane na optymalizację i efektywność, co mogłoby prowadzić do zupełnie innych rezultatów?

      Podsumowując, Twoje pytania otwierają wiele fascynujących wątków do dyskusji. Czy superinteligencja bez emocji mogłaby osiągnąć poziom kreatywności i innowacyjności, który przewyższa ludzki? Jakie implikacje miałoby to dla naszej przyszłości? Chętnie usłyszałbym Twoje myśli na ten temat i jestem ciekaw, jak inni czytelnicy widzą te kwestie. Zachęcam wszystkich do dalszej dyskusji – jakie inne aspekty superinteligencji mogą wpływać na jej motywacje i zdolności do samodoskonalenia się?

  19. Wojciech Matejuk pisze:

    Bardzo podoba mi się Pańskie podejście do natury wytwarzania informacji. Pchnęło mnie ono jednak w stronę roważań o ludzkiej zdolności do tworzenia informacji, a mianowicie do pytania ile informacji jest w stanie wytworzyć człowiek? Czy ludzki mózg nie jest również jedynie maszyną analizującą otaczającą ją wiedzę o świecie żeby następnie pobrać więcej informacji ze swiata? Czy kreatywny proces tworzenia nowych sposobów budowania systemów ML nie jest tylko przetwarzaniem wiedzy zdobytej wcześniej z książek?
    Mnóstwo koncepsji i wzorów matematycznych na których sztuczna inteligencja jest oparta zostały opisane kilkadziesiąt lat temu, dopiero większa moc obliczeniowa pozwoliła nam te systemy trenować. Czy mając dostęp do tych samych danych co ludzie, idealny model AI nie byłby w stanie zaprojektować jeszcze lepszego systemu tak jak zrobiłby to człowiek?

    Myślę że moją “rozkminę” mógłbym zawrzeć w jednym pytaniu:
    Ile ludzkiej kreatywności i nowej informacji niesie ze sobą wysnucie nowej koncepcji technicznej, jeśli opiera się ona na danych których nauczyliśmy się z książek?

    Wydaje mi się, że w większości przypadków – niewiele…

  20. michalw pisze:

    Fascynujący wpis, który dla osób niezaznajomionych z głębokimi rozważaniami o systemach AI i ich “inteligencji”, może rzucić nowe światło na ten temat. Może to skłonić do refleksji przy każdym kolejnym korzystaniu z jakiejkolwiek formy systemu AI: “Skąd mam pewność, że ten chat nie jest już rzeczywiście inteligentny?”.
    Czytając wypowiedź autora, zacząłem zastanawiać się, kiedy odpowiedź na tak postawione pytanie mogłaby faktycznie być twierdząca. Gdyby człowiek stworzył w końcu system inteligentny zgodnie z zaproponowaną definicją, oznaczałoby to, że ten system miałby możliwość stworzenia nowej, ulepszonej wersji siebie, która również musiałaby być inteligentna. Jednak ta nowa wersja byłaby uznana za inteligentną tylko wtedy, gdyby sama posiadała zdolność samoudoskonalenia – stworzenia kolejnego systemu w drabince. Kontynuując takie rozważania i oceniając systemy według tej definicji, doszlibyśmy do wniosku, że nigdy nie dowiemy się, czy stworzona przez nas struktura jest w ogóle inteligentna.
    Zastanawiając się nad definicją, która lepiej określiłaby pojęcie inteligencji, nie przychodzi mi nic do głowy. I tutaj rodzi się pytanie: czy inteligencję można w ogóle wystarczająco zdefiniować? Czym jest ludzkie nazywanie swojego gatunku inteligentnym, jeśli sami nie umiemy powiedzieć co to tak właściwie znaczy?

  21. Viacheslav Popov pisze:

    Konieczność samodoskonalenia: Autor twierdzi, że zdolność systemu do samodoskonalenia jest warunkiem koniecznym posiadania prawdziwej inteligencji. Nie jestem przekonany, że to założenie jest trafne. Wiele systemów wykazuje cechy inteligentnego działania, takie jak rozwiązywanie problemów czy uczenie się na podstawie doświadczeń, bez potrzeby samodoskonalenia. Na przykład, obecne systemy AI w medycynie są w stanie diagnozować choroby z dużą precyzją, korzystając z ogromnych zbiorów danych, choć nie zmieniają swojej struktury fizycznej.

    Zmiany strukturalne: Druga teza dotyczy konieczności jakościowych zmian struktury fizycznej systemu. Argument ten wydaje się problematyczny, zwłaszcza w kontekście obecnych osiągnięć technologicznych. Współczesne systemy AI są w stanie znacząco poprawiać swoje możliwości poprzez optymalizację algorytmów i zwiększanie mocy obliczeniowej bez konieczności zmiany swojej struktury fizycznej. Zwiększenie liczby rdzeni procesora czy pamięci operacyjnej nie zmienia fundamentalnie struktury komputera, ale znacznie zwiększa jego możliwości.

    Kwestia kreatywności: Autor sugeruje, że kreatywność jest kluczowym elementem samodoskonalenia. Choć kreatywność jest niewątpliwie ważną cechą inteligencji, nie wydaje się być jedynym determinantem samodoskonalenia. Wiele systemów AI jest w stanie poprawiać swoje działania poprzez analizę danych i optymalizację algorytmów, bez konieczności wykazywania kreatywności w tradycyjnym sensie. Zdolność do innowacji i adaptacji może być realizowana na poziomie programowym, co podważa konieczność jakościowych zmian strukturalnych.

    Porównanie do ludzkiej inteligencji: Wreszcie, porównanie inteligencji maszynowej do ludzkiej może być mylące. Ludzka inteligencja operuje w kontekście biologicznym i społecznym, który znacząco różni się od warunków, w jakich funkcjonują systemy AI. Próba osiągnięcia ludzkiej superinteligencji może wymagać rewolucyjnych zmian nie tylko w technologii, ale także w rozumieniu samej natury inteligencji.

  22. Jan Budziński pisze:

    Jako ktoś zajmujący się modelami SI profesjonalnie, a więc obracający się w towarzystwie wielu jej pasjonatów (jak również sam takim będący) z zaciekawieniem przeczytałem tekst prof. Głażewskiego poruszający jakże fascynujący temat rozwoju sztucznej inteligencji do poziomu, a nawet ponad poziom tej ludzkiej. Niewątpliwie od momentu osiągnięcia takich postępów w dziedzinie SI bowiem świat zmieniłby się bezpowrotnie. Jednakże, jak sam autor sugeruje, droga do superinteligencji będzie najprawdopodobniej długa i wyboista.

    Wiele słyszy się o niedługim nadejściu AGI. Sam jestem na ten temat bardziej sceptyczny niż wielu moich znajomych zajmujących się SI, którzy oczekują takiego przełomu lada moment. Pomimo tego, iż zauważam znaczący postęp w rozwoju takich modeli, jak GPT (jego wersji interaktywnej ChatGPT używam niemal codziennie i bardzo cenię), który od wersji 3.5 do obecnie najnowszej 4o usprawnił się diametralnie, to na ten moment nadal nie radzą sobie one z zadaniami wymagającymi wielowarstwowego myślenia, jak np. w bardziej złożonych problemach programistycznych. Wtedy ujawniają się ich słabości i widoczne jest to, że, przynajmniej na ten moment, są to jedynie narzędzia o większej wygodzie użycia niż dotychczasowe szukanie wszystkiego w wyszukiwarce Google, a niewiele mają wspólnego z faktyczną inteligencją.

    W przypadku wielu modeli, po okresie gwałtownego rozwoju obserwuje się w niedawnym czasie znaczne spowolnienie progresu. Nie jest to według mnie przypadkowe, iż zauważono taki trend w momencie, gdy modele te zaczęły się zbliżać w jakości wykonywania zadań, do których były stworzone, do poziomu ludzkiego. Zgadzam się z artykułem w tej kwestii, że aby osiągnąć rezultaty wysoko powyżej poziomu naszej własnej inteligencji, potrzebny byłby przełom rekursywny. Modele działające wyłącznie na bazie algorytmów matematycznych są bowiem, choć może to być dla nas zbyt złożone, aby to z powodzeniem „rozplątać”, deterministyczne.

    Jest to z jednej strony pożądane od strony biznesowej – taka świadomość pozwala na przekonanie inwestorów, jak i regulatorów prawnych, że rozumie się działanie własnego produktu i jest się w stanie nad nim zapanować. Osiągnięcie rzeczywistej inteligencji przez maszyny może wymagać jednak pozbycia się tego komfortu, co może być problemem nie tylko natury technicznej, jak i politycznej.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *