Z ogromną przyjemnością publikuję w naszym blogu tekst Wojciecha Głażewskiego (inżyniera i filozofa z Uniwersytetu w Białymstoku), szkicujący autorski scenariusz przejścia od aktualnie konstruowanych systemów sztucznej inteligencji do systemów superinteligentnych.
W scenariuszu tym na plan pierwszy wybijają się dwie oryginalne tezy.
Pierwsza mówi, że warunkiem koniecznym posiadania przez system prawdziwej inteligencji (a nie jej zaprogramowanej imitacji) jest zdolność systemu do samodoskonalenia się. Druga wskazuje na niezbędną podstawę samodoskonalenia, jaką są jakościowe zmiany struktury fizycznej systemu, wykraczające poza zmiany struktur danych czy programów sterujących pracą systemu.
Oczywiście tezy te nie wyczerpują spostrzeżeń, argumentów i propozycji Autora. Mam nadzieję też, że zachęcą Państwa do dyskusji, która je wesprze, osłabi, rozwinie lub postawi w innym świetle…
A oto otwierający dyskusję tekst Wojciecha Głażewskiego:
*********************
Refleksje nad scenariuszami dla sztucznej inteligencji
Mniej więcej rok temu odbyła się tutaj ciekawa dyskusja o cechach systemów AI, które miałyby świadczyć o ich inteligencji (https://marciszewski.eu/?p=11519). Pojawiło się wiele interesujących głosów, wśród których najczęściej wskazywano na umiejętność rozwiązywania problemów (zwłaszcza dzięki uczeniu się na podstawie własnych doświadczeń), zdolność do generalizacji oraz kreatywność (innowacyjność). Nie sposób wyliczyć ile już razy stawiano to pytanie. Na tym blogu nie wypada nie zacytować prof. Marciszewskiego:
Czy jest możliwe skonstruowanie inteligencji maszynowej, która by pod każdym względem dorównała ludzkiej inwencji? Jeśli nie, to pod jakim względem dorówna, a pod jakim przegra? A może da się skonstruować maszynę inteligentniejszą od człowieka? Jeśli tak, to pod jakim względem? (Marciszewski, 1998, s.117)
Rok to dużo czasu w epoce wykładniczego wzrostu. Okres zdobywania globalnego rynku nie jest już liczony w latach, ale w miesiącach. Scenariusz dla superinteligencji opisany przez Nicka Bostroma, wydaje się coraz bardziej realny (Bostrom, 2014). W tempie nomen omen potęgowym, sztuczna inteligencja osiągnie przewagę nad ludzkością, zostawiając nam bezsilność chyba najgorszego gatunku – intelektualną. Warto więc zapytać, co po tym roku osiągnęła technologia AI. Jaki scenariusz jej rozwoju właśnie się realizuje? Czy sztuczna inteligencja staje się bardziej inteligentna? Spróbuję wciągnąć Państwa do dyskusji stawiając przewrotną tezę: systemy AI, jakie nas obecnie otaczają, nie są inteligentne.
Kontynuując myśl prof. Marciszewskiego:
Żeby podjąć te zagadnienia, trzeba zdobyć pojęcie inteligencji na tyle operatywne, żeby móc zaproponować jakiś praktyczny test – sprawdzian, który pozwoli ocenić, jakie zachowania komputera świadczą o rodzaju i stopniu jego inteligencji. (Marciszewski, 1998, s.118)
W miejsce opisowych definicji inteligencji, które trudno zarówno umocować, jak i zanegować, z uwagi na ich ogólnikowy charakter, postawię warunek samodoskonalenia, czyli zdolności do ulepszenia samego siebie, jako cechy systemu inteligentnego, możliwej do stwierdzenia, na mocy tak postawionej jego definicji.
Pomimo wielu spojrzeń na inteligencję i wielu przykładów problemów zaliczanych do kategorii wymagających inteligencji, zadanie ulepszenia samego siebie wydaje mi się jednym z takich, które zawiera w sobie konieczność posiadania praktycznie wszystkich cech przypisywanych zwyczajowo działaniu inteligentnemu. Wymaga zdobycia wiedzy na temat własnego zachowania, czyli uczenia się z doświadczeń, wymaga też umiejętności generalizacji niezbędnej do wyciągnięcia wniosków z tych doświadczeń. Wymaga stawiania hipotez, a więc samodzielnego posługiwania się pojęciami. Wymaga podejmowania autonomicznych decyzji o tym, kiedy i w jaki sposób wpłynąć na własne zachowanie. Wreszcie wymaga kreatywności i innowacyjności w zaproponowaniu nowego, lepszego rozwiązania dla nowej wersji samego siebie. Matematyk Irvin John Good określił tę umiejętność jako “ultrainteligencję”. W 1966 roku opisał maszynę o takich możliwościach:
Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an „intelligence explosion,” and the intelligence of man would be left far behind. (Good, 1966, s.33)
Cała nowa maszyna potrzebna byłaby w przypadku odkrycia przez bieżącą maszynę fundamentalnie nowej zasady konstrukcyjnej. W przypadku wypracowania jedynie usprawnienia, proces samodoskonalenia mógłby mieć charakter inkrementalny – łańcucha poprawek. Współczesny badacz sztucznej inteligencji, Eliezer Yudkowsky, nazywa umiejętność ulepszenia własnych procesów “rekursywnym samodoskonaleniem”, a system, który miałby taką możliwość, “zalążkową SI”:
A seed AI is a strongly self-improving process, characterized by improvements to the content base that exert direct positive feedback on the intelligence of the underlying improving process. (Yudkowsky, 2007, s.96)
Cechą wyróżniającą maszyny ultrainteligentnej byłaby więc zdolność do zaprojektowania maszyny lepszej niż ona sama. Nie wydaje mi się, żeby ta właściwość pojawiła się dopiero na poziomie ultrainteligencji. Wszystkie elementy procesu realizowania tego zadania posiada przecież człowiek, a super- lub ultrainteligencja ma być systemem przewyższającym go możliwościami. Każdy więc system rzeczywiście inteligentny powinien tę zdolność mieć, a różnica w stopniu inteligencji będzie dotyczyła poziomu jego rozwoju, od zalążkowego, poprzez poziom zbliżony do ludzkiego, dalej superinteligentny, a poziom ultrainteligentny byłby już w pewien sposób granicznym, zapewne ze względu na limity fizycznej rzeczywistości. Warunek samodoskonalenia sztucznej inteligencji można więc sformułować jako zwiększenie możliwości inteligentnego działania w sztucznym systemie, zrealizowane wyłącznie własnymi procesami tego systemu.
W tym miejscu należy odróżnić zwiększenie fizycznych parametrów lub zasobów systemu, od rozwoju jakości realizowanych przez system procesów. Bostrom wyróżnia trzy formy superinteligencji: szybką, zbiorową i jakościową. Dwie pierwsze wydają się właśnie dotyczyć parametrów ilościowych systemów inteligentnych, natomiast ta trzecia dotyka istoty właściwego pojęcia inteligencji. Dla przykładu – zwiększenie liczby książek na półkach oraz przyspieszenie kroku przez pracowników biblioteki nie są zmianami w procesie obsługi czytelników, chociaż zwiększają możliwości biblioteki w jej roli udostępnienia jak największego zasobu literatury jak największej ilości osób. Zmiana organizacji katalogu książek lub zmiana heurystyki realizacji kwerendy, dla samego procesu funkcjonowania systemu biblioteki, byłaby już zmianą jakościową. Naturalnie nasuwa się tu zastrzeżenie, że jeśli system będzie posiadał więcej “wiedzy”, to jego możliwości będą większe. Pozostanę jednak przy ujęciu rozróżniającym zasoby i procesy, w którym kieszonkowy kalkulator dodający dwie kilkucyfrowe liczby realizuje proces o tej samej jakości, co komputer z wielordzeniowym procesorem, dodający dwie liczby kilkudziesięciocyfrowe. Interesująca nas różnica nie bierze się bowiem z porównania zasobów, ale z porównania procesów.
Aby uniknąć definiowania systemu inteligentnego opisowo (lista cech) lub tautologicznie (“system inteligentny to taki, który zachowuje się inteligentnie”), sformułuję warunek konieczny inteligencji, oparty na zdolności do samodoskonalenia strukturalnego:
System jest inteligentny wtedy, kiedy jest w stanie wypracować taką wersję swojej kolejnej struktury funkcjonalnej, która nie powtarza struktury wcześniejszej.
Przy czym, mówiąc o strukturze funkcjonalnej, mam na myśli fizyczną postać systemu, a więc rodzaj i układ jego elementów, co determinuje rodzaj ich wzajemnych zależności. Architektura wydaje się pojęciem zbyt wąskim, ponieważ te same architektury pamięci mogą być wypełnione innymi informacjami, dając systemowi inne możliwości. Program w pamięci komputera to także za mało, ponieważ możliwości systemu zależą od organizacji mikroprocesora. Sieć neuronowa wraz z wyuczonymi wagami wydaje się być najbliższa intuicji takiej struktury. Nie mam tutaj gotowych odpowiedzi, jest to jeden z tematów mojej pracy badawczej.
Wracając do samej definicji, to przy takim jej sformułowaniu mam nadzieję oprzeć ją na rzeczywistych danych możliwych do zebrania oraz na ustanowieniu zależności między nimi, możliwych do analitycznego wyznaczenia. Dla fizycznych parametrów lub zasobów systemu jest to oczywiste (np. różnica częstotliwości taktowania procesora, ilości danych w pamięci), jednak dla opisowych definicji inteligencji już takie nie jest. Jeśli jedną z cech systemu inteligentnego jest kreatywność, to jak porównać stopień kreatywności pomiędzy różnymi jego wytworami? Jak odróżnić nauczenie się na jednym doświadczeniu od nauczenia się na innym doświadczeniu? Powyższa definicja systemu inteligentnego rozwiązuje problem tych niejasności poprzez zamknięcie ich w zadaniu samodoskonalenia. Aby je poprawnie wykonać, należy zebrać doświadczenia, należy dokonać generalizacji, należy wypracować nowatorskie rozwiązanie. Zamiast porównywać “nowatorstwo” odpowiedzi systemu, ocenione zostaną konsekwencje działania zbudowanego na ich podstawie nowego systemu. Ponieważ znana jest struktura obecnego systemu oraz znane są struktury poprzednich wersji, można analitycznie wyznaczyć ich różnicę. Rozkład różnicy w czasie ujawni charakter postępu – czy był dodatni, czy ujemny, czy też zerowy.
Najprostszym przypadkiem byłby system, który nie jest w stanie wypracować kompletu informacji opisujących swoją własną strukturę, to znaczy system nie dający się zamknąć w pętlę samorozwoju. Do tej kategorii zaliczę wszystkie systemy wąskiej sztucznej inteligencji, powtarzając swoja tezę ze wstępu. Na naszych oczach eksploduje ich popularność, nie idzie za nią jednak zdolność do nowatorskiej kreatywności i do autonomicznego samorozwoju. Są narzędziami, programami komputerowymi o wielkich możliwościach. Kwestia samodoskonalenia do poziomu superinteligencji ich nie dotyczy.
Jeśli system potrafi wypracować komplet informacji, “przepis” na sztuczny system inteligentny, świadczy to o posiadaniu wiedzy ogólnej – z zakresu matematyki, informatyki, technologii maszyn, problematyki kognitywistycznej czy nawet filozoficznej. Na pewno o umiejętności wytworzenia obrazów (planów, schematów), tekstów (opisów technologii, instrukcji działania) oraz kodu (listingi programów). System taki będzie można zaliczyć do kategorii AGI i pewnie wkrótce możemy się spodziewać jego powstania. Czy jednak będzie inteligentny w tym jakościowym sensie, analogicznym do ludzkiego? Sądzę, że tylko postawienie mu zadania tak trudnego jak to, które postawił przed sobą człowiek – zaprojektowania sztucznej inteligencji – pozwoli uzyskać jednoznaczną odpowiedź. Będzie to jeden z najciekawszych eksperymentów w historii ludzkości.
Czemu nie zrobić takiego eksperymentu dla ChatGPT? Czy istnieje niebezpieczeństwo, że uzyskany wynik będzie dodatni? ChatGPT jest programem komputerowym uruchomionym na komputerze, co determinuje rezultat jego działania. W moim przekonaniu, system tego typu nie jest w stanie wypracować odpowiedzi o charakterze dodatnim informacyjnie, w stosunku do tego, co zawiera w strukturze swojego algorytmu. Dzieje się tak dlatego, że komputer realizuje wyłącznie operacje arytmetyczno-logiczne, a więc dedukcyjne w swojej naturze. Odpowiedzi systemu zawierają się już w przesłankach, od których wychodzi. Obliczony dla takich operacji zysk informacyjny ze wzoru Shannona da wartość zero. Mówiąc jeszcze inaczej, systemy komputerowe same z siebie nie mogą się dowiedzieć więcej niż już wiedzą. Wynika to stąd, że procesory komputerów realizują wyłącznie procesy fizyczne, a więc działają zgodnie z kierunkiem entropii. Zwiększenie złożoności informacyjnej jest działaniem przeciw entropii, więc możliwość taką może mieć tylko system, który potrafi zmienić swoją strukturę fizyczną. Takiej możliwości krzemowy mikroprocesor nie posiada.
Aby eksperyment dał rezultat dodatni, nowy system, zbudowany na podstawie kompletu dokumentacji wypracowanego przez poprzedni system, musi różnić się w swoim działaniu od systemu poprzedniego. Musi różnić się swoją strukturą fizyczną, ponieważ tylko taka różnica umożliwi inny przebieg zachodzących w nim procesów. Nie tylko musi się różnić, ale ta różnica musi wprowadzać do struktury nową jakość. Określa to druga część definicji – jeśli struktura powtarza wcześniejszą, to system albo się ustabilizował i grozi mu nieskończone zapętlenie na określonym poziomie, albo degraduje się i dotarł do którejś z wcześniejszych, mniej inteligentnych struktur. Charakter tego nowego pierwiastka, czy był korzystny czy nie, można oczywiście sprawdzać mierząc odpowiedzi nowego systemu na zestaw problemów testowych czy porównując ilości punktów zdobytych w zadaniach kontrolnych, byłyby to jednak testy wąskie, ograniczone, trudne często do porównań i niejednoznaczne. Szukając odpowiedzi na najważniejsze, postawione na wstępie pytanie, czyli jaki scenariusz rozwoju sztucznej inteligencji się realizuje, można spróbować obserwować trend różnic kolejnych struktur. Dodatni rezultat potwierdzi obecność jakościowej inteligencji, porównywalnej z ludzką. Jeśli wtedy zdecydujemy o alokacji zasobów oraz umożliwimy systemowi realizację kolejnych wcieleń, otworzymy mu drogę do superinteligencji.
Eksperyment już się zaczął. AI jest używana do doskonalenia technologii AI. Czy jednak wytworzy nową, lepszą wersję samej siebie? Tak się w tej chwili nie dzieje. Owszem, programy komputerowe zwane sztuczną inteligencją są wykorzystywane w optymalizacji technik sztucznej inteligencji, ale nadal jako narzędzia dla zajmujących się tym programistów. Są niezwykle użyteczne, ale wciąż wymagają kuratora. To człowiek jest źródłem inteligencji dla tych sztucznych systemów. Źródłem inteligentnego ich zaprojektowania, inteligentnego promptu, czy wprost źródłem danych, które przecież pochodzą z jego inteligentnej działalności. Przywołując jeszcze raz prof. Marciszewskiego, w kwestii systemów inteligentniejszych od człowieka:
Czy wystarczy jako środek dostatecznie złożony software, bez rewolucji w rozwiązaniach sprzętowych? Czy też konieczne będzie wytworzenie jakiegoś nowego rodzaju urządzeń, może biologicznych? (Marciszewski, 1998, s.117)
Jeśli system będzie oparty na krzemowym mikroprocesorze, to jak miałby zmienić swoją fizyczną postać? Aby zrealizować zadanie samodoskonalenia, system sztucznej inteligencji musiałby prawdopodobnie być oparty na innym rodzaju substratu informacyjnego, ale to już temat na inną opowieść.
Literatura
- Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
- Good, I.J. (1966). Speculations Concerning the First Ultraintelligent Machine. Comput., 6, 31-88.
- Marciszewski, W. (1998). Sztuczna Inteligencja. Społeczny Instytut Wydawniczy Znak
- Yudkowsky, E. (2007). Levels of Organization in General Intelligence. In: Goertzel, B., Pennachin, C. (eds) Artificial General Intelligence. Cognitive Technologies. Springer, Berlin, Heidelberg.
WOJCIECH GŁAŻEWSKI
*************************
Najserdeczniej zapraszam do dyskusji nad powyższym tekstem — Paweł Stacewicz.
Jak – zgodnie z zaproponowaną definicją inteligencji systemu – człowiek może być „źródłem inteligencji” dla obecnych (jeszcze nie inteligentnych „generalnie”) systemów jeśli sami ludzie (ni w pojedynkę ani wysiłkiem naukowo-technicznej zbiorowości) NIE zdołali jeszcze wypracować takiej wersji swojej kolejnej struktury funkcjonalnej, która nie powtarza struktury wcześniejszej – w końcu (nie tylko wg Autorawpisu) nie mamy jeszcze sztucznej inteligencji?
Jeśli (twierdzimy, że) nie mamy AGI to znaczy, że posiadamy jedynie maszyny zdolne do realizacji fragmentów naszej funkcjonalności…
Chyba, że uznamy, że to wystarczy- wtedy (tak „nisko-jakościową”) poprzeczkę przeskoczyliśmy tworząc kalkulator… A może już wtedy gdy wyciosaliśmy pierwsze narzędzia – jako struktury realizujące rozwiązania pewnych intelektualnych problemow nie powielające fizycznej struktury poprzednich ewolucji? Oczywiście kalkulator (ani wędka) nie wygeneruje „kolejnych poziomów” na drabinie do intelektualnej wszechmocy- zatem wygląda na to, że zgodnie z tą definicją dopóki inteligentnego systemu nie stworzymy sami nie będziemy spełniali warunków inteligencji… To chyba problem – ja w swoją inteligencję juz dawno zwątpiłem, ale jednak ktoś mógłby sie poczuć urażony. To kłopot logiczny (definicja niepredykatywna) filozoficzno – semantyczny (paradoks kłamcy się kłania, no i jak wytłumaczyć ludziom, że cały czas „gdy mówili 'dodawanie’ mieli na myśli 'kłodowanie'”?
Proponując taką definicję inteligencji chciałem uwidocznić zjawiska, których zwykle się nie zauważa. W tym konkretnym przypadku mam na myśli fakt nieustannego przyrostu fizycznej struktury połączeń w układzie nerwowym. Z każdą nową synapsą zmienia się struktura funkcjonalna podłoża umysłu człowieka i rośnie przez całe życie, nie cofając się do struktur prostszych, chyba że w przypadku chorób neurodegeneracyjnych. W przypadku komputerów, krzemowe układy scalone nie mają takiej możliwości. Raz naniesione metalowe ścieżki utrwalają zaprojektowaną na początku strukturę – nie zmienia się ona w trakcie pracy komputera i odchodzi razem z nim na złom. To dlatego wspomniałem o różnych substratach informacyjnych. Nie zauważa się, że za samodoskonalenie umysłu człowieka odpowiadają biologiczne mechanizmy jego żywego podłoża. Człowiek uczy się nie tylko poprzez rejestrowanie impulsów niosących informacje, ale także poprzez formowanie nowych struktur rejestrujących i przetwarzających te informacje. Komputer wyłącznie rejestruje impulsy, nie dopisuje sam sobie nowego programu, gdy napotka postać danych których nie może zdekodować.
Zwracam także uwagę, że tradycyjnie liczony współczynnik IQ był ilorazem wieku umysłowego w stosunku do wieku życia. Dosłownie więc odnosił poziom zdolności rozwiązywania zadań do poziomu zaawansowania rozwoju struktury fizycznej biologicznego podłoża. Proszę zauważyć, jak bardzo liczenie w ten sposób IQ dla komputera nie ma sensu, ponieważ mianownik wtedy się nie zmienia. Dla struktury mikroprocesora, czas nie płynie. To, co się zmienia w systemie komputerowym, to programy. Można spróbować liczyć „IQ” dla kolejnych generacji narzędzi AI, na przykład dla GPT-2, 3, 3.5, 4. Przykład ten jednak tym bardziej pokazuje, że narzędzia te same się nie doskonalną. Przecież każdy z nich został przygotowany przez programistów, „kuratorów”, jak ich nazwałem. Same się w trakcie pracy nie doskonalą, a człowiek – tak.
Rozumiem zamierzenie, zwracam jednak uwagę na konsekwencje takiego sformułowania definicji:
1.Ludnie nie są inteligentni bo nie „wypracowali takiej wersji swojej kolejnej struktury funkcjonalnej, która nie powtarza struktury wcześniejszej.”
Co gorsza:
2.Ludzie nie staną się także inteligentni „wstecz”, gdy wypracują generalną sztuczną inteligencję jako system rzędu 2 (powtarzający ich funkcjonalne cechy – potencjalnie z naddatkiem) gdyż aby orzec, że ten system rzędu 2 jest inteligentny, zgodnie z zaproponowaną definicją musi „wypracować taką wersję swojej kolejnej struktury funkcjonalnej, która nie powtarza struktury wcześniejszej” – zatem system rzędu 3…
3.Niestety -zgodnie z tą definicją – system rzędu n staje się inteligentny gdy powstanie inteligenty system rzędu n+1 (a co za tym idzie system rzędu n+1 będzie inteligentny dopiero gdy powstanie system rzędu n+2 itd. ad infinitum…)
4.Obawiam się, że chcąc uniezależnić definicję inteligencji od sprawdzianów chyżości wykonywania przez (sztuczne) systemy poszczególnych zdolności ludzkiego umysłu, została inteligencja uzależniona od samej siebie – nie bezpośrednio (jak w zwykłym paradoksie kłamcy) a wtedy gdy sprawdzianem inteligencji stała się zdolność do wytworzenia inteligencji.
5.Jeśli zaś porzucimy konieczność wytworzenia pełnej funkcjonalności pozostanie nam sprawdzanie poszczególnych zdolności – z dodatkiem konieczności realizacji w innym medium „struktur liczących”.
6.a.Właśnie dlatego tak kiedyś zafascynowały mnie próby Wittgensteina definiowania rozumienia poprzez postępowanie zgodnie z regułą, Hellerowskie opisywanie postępu naukowego w „logice zapętleń”, zmagania Carnapa z uwikłaniem ekstensji i intensji w definicji… Definiowanie (w szczególności zdolności Umysłowych) przypomina próbę wyciągnięcia się z bagna ciągnąc za własne włosy.
6.b.UWAGA: Pomimo tego, że definicja wydaje mi się logicznie paradoksalna nie oznacza to, że – po inżyniersku nie dało by się z niej korzystać.
7.Paradoksalność definicji nie sprawia, że nie może ona zrobić kariery:
Czy możemy stworzyć liczbę (nazwijmy ją:) PR ze zbioru liczb rzeczywistych (0,1) różniącą się cyfrą na co najmniej jednej pozycji w (niekończonym*) rozwinięciu dziesiętnym od każdej liczby rzeczywistej (0,1)?
*nieskończonym – jeśli rozwinięcie dziesiętne danej liczby jest krótsze od n, jest to równoważne z tym, że na tym miejscu rozwinięciu dziesiętnym tej liczby jest 0.
Biorąc pod uwagę to, że wszystkie liczby rzeczywiste z danego przedziału będą miały każdą możliwą cyfrę na wszystkich miejscach rozwinięcia dziesiętnego – konstrukcja liczby PR nie jest możliwa.
A to nie dobrze – bo taka konstrukcja jest wykorzystana w argumencie przekątniowym Cantora:
C.1. Uszeregujmy dowolnie wszystkie liczby rzeczywiste z przedziału 0 do 1.
C.2. Każdy element tej ekstensji (każda liczba rzeczywista w naszym uszeregowaniu) ma taką własność, że na n-tym miejscu jej rozwinięcia dziesiętnego ma konkretną cyfrę (jeśli jej rozwinięcie dziesiętne jest krótsze od n to ma tam 0).
C.3. Stwórzmy teraz liczbę rzeczywista PR z przedziału 0 do 1, która różni się cyfrą na n-tym miejscu rozwinięcia dziesiętnego od n-tej liczby z uszeregowania.
Konstrukcja opisana w A3 ze względu na A1 wydaje się możliwa – ale biorąc pod uwagę A2 taka jej definicja odwołuje się do samej siebie** i jej takie konstruowanie jest wariantem paradoksu kłamcy.
**choć ma być liczbą rzeczywistą, twierdzi, że nie posiada własności którą mają wszystkie liczby w naszym szeregu wszystkich liczb rzeczywistych.
C.4. Czy na paradoksalnej konstrukcji można wywieść sprzeczność ze zdaniem prawdziwym -przez co zakończyć sukcesem dowód nie wprost?
Sformułowanie dowodu sparafrazowano (oddając jednak istotę) tak aby uwidocznić podobieństwo do paradoksu Richarda który (nie tak jak metoda przekątniowa Cantora) powszechnie za paradoks jest uznawany.
Co na to Cafe aleph – co z dalej z nazwą jeśli hierarchia aleph’ów okaże się paradoksalna?
Dziękuję Przedmówcy za wnikliwe uwagi. Rzeczywiście, chcąc zwrócić uwagę na złożoność zagadnienia, zaproponowałem warunek wyjątkowo wąski w swej formule. Spróbuję bardziej uściślić pojęcie struktury i jak ono się ma do rzeczywistych funkcji systemu, co być może pozwoli na opuszczenie tej paradoksalnej pętli. Na swoje usprawiedliwienie dodam, że ta propozycja nie miała być ścisłą definicją inteligencji, ale właśnie inżynierską „wytyczną” projektową. Użyteczną do obserwowania tego co się dzieje i co może się wydarzyć pomiędzy kolejnymi generacjami systemów AI.
Ad 1. Moją intencją było, żeby dla ludzi warunek ten zabrzmiał:
Ludzie posiadają cechę inteligencji, ponieważ mózg może samodzielnie wytworzyć nową strukturę fizycznych połączeń („neuronalny korelat”) dla zrealizowania nieznanego wcześniej zadania. W ten sposób zdefiniowałbym zdolność do rozwijania się, w przeciwieństwie do możliwości bycia rozwiniętą dla AI, wciąż potrzebującej kurateli w formułowaniu nowych funkcji.
W takim ujęciu, „inteligencja” nie będzie dotyczyła samej możliwości uzyskania odpowiedzi na zadanie (przy odpowiedniej strukutrze, rozwiązanie zostanie wypracowane jako rezultat pracy tej struktury, będzie tylko realizacją fizycznego procesu), ale będzie odnosiła się do zdolności do „powołania” tej struktury. To tak jak przy rozwiązywaniu zadań z treścią. Inteligencję stosujemy żeby sformułować równanie (strukturę rozumowania), a obliczenie wyniku to sprawa już wręcz mechaniczna.
Ad 4. „Inteligencja uzależniona od samej siebie”, lub jak napisałem w pierwszej wersji tego wpisu „inteligencja skierowana przed swoje własne oblicze”. Czy poza formalnym paradoksem, idea ta może zaowocować ciekawym rozstrzygnięciem? Jak powinniśmy stawiać warunek inteligencji, żeby nie łapać się za własne włosy?
Bardzo interesujący temat dyskusji oraz komentarze. Dodatkowo warto wspomnieć o samym teście Turinga.
Test Turinga (ang. Turing test) to nic innego jak próba zweryfikowania, czy sztuczna inteligencja osiągnęła poziom inteligencji przeciętnego człowieka. I choć mogłoby się wydawać, że tego typu obawy pojawiły się dopiero w ostatnich latach, test Turinga opracowano już w połowie XX wieku! Dokonał tego jeden z ojców sztucznej inteligencji – Alan Turing. W swojej pracy naukowej, poświęconej tematyce sztucznej inteligencji, Turing próbował odpowiedzieć na pytanie dotyczące zdolności maszyn do myślenia. Wyniki swoich badań opublikował w 1950 roku i wskazał na prosty sposób na dokonanie oceny zdolności maszyn do myślenia, który zakładał rozmowę maszyny z człowiekiem.
Dla przypomnienia:
Alan Turing uznał, że test powinien przeprowadzić zaproszony do eksperymentu uczestnik, który poprowadzi dwie rozmowy – jedną z człowiekiem, a drugą z maszyną. Co warto podkreślić, rozmowa powinna mieć formę tekstową, by nie opierać wyniku testu na zdolności maszyny do wypowiadania słów. Po zakończonych rozmowach uczestnik eksperymentu wskazuje, która rozmowa była przeprowadzona z człowiekiem, a która z maszyną. Pojawienie się jakichkolwiek wątpliwości w tej kwestii oznacza, że maszyna zdała test Turinga i można ją uznać za inteligentną.
Do rozważania wciąż pozostaje kwestia, czy powyższy test jest w obecnych okolicznościach testem wystarczającym do uznania inteligencji maszyny? Pod jakim kątem ma być oceniania ta inteligencja? Co prawda pod względem czystej komunikacji systemy te muszą zostać jeszcze udoskonalone, ale czy w innych dziedzinach jest podobnie?
Być może już mamy styczność z superinteligencją? Przecież systemy oparte na sztucznej inteligencji prześcignęły możliwości człowieka w zakresie rozpoznawania nowotworów.
Jestem ciekaw Państwa zdania na ten temat.
Bardzo dziękujemy za komentarz. Oczywiście temat testu Turinga jest niezwykle ciekawy i pobudzający do dyskusji. Zwrócę jednak uwagę, że mamy już w blogu osobny wpis na ten temat pt. „Testy, testy, testy… na sztuczną inteligencję” (który doczekał się aż 107 komentarzy!). Oto jego adres: https://marciszewski.eu/?p=10651. Tutaj, jako inicjator i moderator dyskusji, wolałbym, abyśmy skoncentrowali się na wątkach zarysowanych w obecnym wpisie.
Tym bardziej, że wydaje mi się, iż autor dyskutowanego tekstu dystansuje się od testu Turinga. Pisze: „Charakter tego nowego pierwiastka, czy był korzystny czy nie, można oczywiście sprawdzać mierząc odpowiedzi nowego systemu na zestaw problemów testowych czy porównując ilości punktów zdobytych w zadaniach kontrolnych, byłyby to jednak testy wąskie, ograniczone, trudne często do porównań i niejednoznaczne. Szukając odpowiedzi na najważniejsze, postawione na wstępie pytanie, czyli jaki scenariusz rozwoju sztucznej inteligencji się realizuje, można spróbować obserwować trend różnic kolejnych struktur”.
Jeśli mamy badać „trend różnic kolejnych struktur” to wychodzimy poza behawioralną koncepcję testu Turinga: zaglądamy do wnętrza maszyny. Oczywiście powstaje tu problem, o jakie struktury miałoby chodzić, ale o tym postaram się napisać później (poza tą odpowiedzią).
Samo w sobie oczekiwanie powstania fizycznych nowych układów do realizacji zadania jest ciekawe – ja zawsze optymistycznie przyjmowałem (w zasadzie – wobec mej małej wiedzy o rozstrzyganym – zakładałem) że same fizycznej struktury nie są tak ważne (choć oczywiście liczy sie ich moc obliczeniowa tak by miała zdolność modelowania „odpowiednich” struktur) , a samo oblicznie (rozumowanie) może się realizować na różnych „liczydłach”.
Taki optymizm wynika m.in. z tego, że pesymizm mógłby w tej sprawie zadziałać obezwładniająco na próby modelowania rozmaitych funkcjonalności Umysłu ludzkiego z pomocą cyfrowych maszyn.
Przykładowo możliwość modyfikacji wirtualnej architektury sztucznej sieci neuronowej „ćwiczonej danymi” wydaje mi się zupełnie analogiczna dla reorganizacji struktur neuronalnych mózgu ludzkiego uczącego się rozwiązać problem.
Wydaje się, że kilka „sprawności” umysłu udało się systemom cyfrowym „zdobyć” – przy czym należy pamiętać, że sprawności wyrwane z kontekstu, mogą dawać rezultaty łatwe do wyszydzenia dla człowieka (6-palczaste dłonie generowane przez „cyfrowych” grafików). Ale są i ludzie zdolni pięknie rysować, grać na instrumencie czy liczyć a zupełnie „nieporadni życiowo”.
I tu wracamy do oceny, do kryterium inteligencji, które znowu skłonny jestem (zgodnie z regułami użycia tego słowa) budować na teście polegającym na sprawdzeniu czy poszczególne „sprawności” Umysłu odzwierciedlające się w działaniach systemu (sztucznego) nie „wysypują się” przy próbie sprawdzenia jak łączą się w całość/ czy ta całość jest w stanie regulować działanie w sposób… w którym ludzie dostrzegą inteligencję. Niedaleko od tego do testu Turinga.
Nie wiem jakie mogłyby być sposoby na test architektury struktur generujących podobne rozwiązania – nie jest problem to, że każdej ocenie będzie można zarzucić subiektywność (jak obiektywnie nadać wartość kryteriom?) Nawet jeśli znajdziemy miarę pozwalającą na intersubiektywnie (inżynierskie) uszeregowania (jakości ?) inteligencji to, czy nie najważniejszy jest test (mądrości) w jej działaniu?
Rozwój sprzętu komputerowego jest niewątpliwie kluczowy dla postępu w dziedzinie sztucznej inteligencji (AI). Uważam, że obecne podzespoły są wystarczająco zaawansowane, aby obsługiwać AGI (Artificial General Intelligence).
AGI, która jest w stanie nauczyć się dowolnego zadania intelektualnego, które człowiek może wykonać, nie wymaga koniecznie nowych, bardziej zaawansowanych podzespołów. W rzeczywistości, wiele badań i rozwoju AGI koncentruje się na optymalizacji algorytmów i procesów uczenia maszynowego, a nie na tworzeniu nowego sprzętu.
Jednakże, rozwój sprzętu przez “superinteligencję” może przyspieszyć działanie modeli AI. Superinteligencja, która jest w stanie przewyższyć ludzi we wszystkich intelektualnie wymagających zadaniach, mogłaby teoretycznie zaprojektować i zbudować sprzęt, który jest optymalny dla jej specyficznych potrzeb. To mogłoby prowadzić do znacznych przyspieszeń w działaniu modeli AI.
Wreszcie, warto zauważyć, że rozwój sprzętu i oprogramowania często idą ręka w rękę. Postęp w jednym obszarze często prowadzi do postępu w drugim, co oznacza, że rozwój sprzętu nadal będzie ważny dla przyszłości AI. Jednakże, to nie oznacza, że obecne podzespoły są niewystarczające dla AGI – po prostu oznacza, że ciągły rozwój sprzętu może przynieść dodatkowe korzyści.
Dopiero po opublikowaniu powyższego wpisu otrzymałem przesyłkę z książką nieocenionego redaktora tego bloga, Pawła Stacewicza, “Umysł a modele maszyn uczących się”, przez co wpis ogromnie stracił na umiejscowieniu we właściwym kontekście. Nadrabiam więc ten brak poniższym komentarzem, w którym spróbuję pokazać jak zaproponowana koncepcja samodoskonalenia wpisuje się w tak szeroko i przystępnie ukazany w tej publikacji obszar badań nad uczącymi się sztucznymi systemami.
1. O ogólnych cechach systemów uczących się, Paweł Stacewicz pisze:
“System należy do kategorii uczących się, o ile potrafi nie tylko działać w środowisku ale również doskonalić swoje działanie w interakcji ze środowiskiem.
(…) by czynności, o których mowa, mogły zostać uznane za uczenie się, muszą być autonomiczne (tj. inicjowane przez sam system) i muszą prowadzić do względnie trwałych (…) zmian struktury systemu, a w rezultacie i zachowań.” (Stacewicz 2010, s. 52)
Wyróżniając dwa kierunki badań nad sztuczną inteligencją, logicyzm i naturalizm:
“(…) podstawowa różnica między logicyzmem i naturalizmem (…) tkwi w podejściu do logiki. Według logicystów podstawą do modelowania i symulacji aktów ludzkiego myślenia jest opis wiedzy i reguł jej stosowania w kategoriach logiki. Według naturalistów natomiast punktem wyjścia myśli jest interakcja ze światem zewnętrznym i adaptacja umysłu (najpewniej struktury wewnętrznej umysłu) do jego potrzeb.” (Stacewicz 2010, s. 47)
“Strategie określone przez nas mianem logicystycznych są oparte na formalnych schematach wnioskowania, zaś mówiąc dokładniej, polegają na zapamiętywaniu wyników różnego rodzaju wnioskowań. (…). Wyróżnimy więc: a) czyste zapamiętywanie (gromadzenie danych), b) dedukcyjne uczenie się, c) indukcyjne uczenie się, d) uczenie się z wykorzystaniem analogii, e) probabilistyczne uczenie się.” (Stacewicz 2010, s. 66)
“(…) z perspektywy ujęć naturalistycznych, uczenie się można scharakteryzować nie jako nabywanie wiedzy w drodze wnioskowań, lecz jako dostosowywanie się jednostki do wymagań środowiska w drodze rozmaicie pojętych sprzężeń zwrotnych.” (Stacewicz 2010, s. 69)
Zestawienie charakterystyk tych dwóch strategii pokazuje wyraźnie, że kryterium autonomii nie daje się zastosować do pierwszych z nich, za to naturalnie przynależy tym drugim. Jeśli więc:
“(…) systemy autonomiczne powinny być nie tylko reaktywne, tj. kształtowane przez środowisko, i nie tylko interaktywne, tj. zdolne do realizacji celów komunikowanych im przez użytkownika, lecz przede wszystkim aktywne, tj. zdolne generować własne cele działania i na ich podstawie kształtować środowisko.” (Stacewicz 2010, s. 18)
to system który tylko gromadzi dane, albo wnioskuje dedukcyjnie (“mechanicznie”) to cechy autonomii nie posiada, stąd mój opór przed nazwaniem go inteligentnym.
2. W opisach tych cech naturalistycznych przewija się intuicja o zmianie struktury systemu, adaptacji, dostosowywaniu się. Jest to przejście z myślenia o rezultatach pracy systemu na myślenie o jego właściwościach wewnętrznych:
“W opozycji do metod reprezentowanych przez test Turinga – metod ukierunkowanych zewnętrznie, stoją kryteria, które moglibyśmy określić jako “wewnętrzne”. Ich istota polega nie na ocenie wyników działań systemów informatycznych, lecz na rzetelnej analizie ich ukrytych mechanizmów [Searle 1999 (1992)]. Z takiej perspektywy dobrymi wskaźnikami sztucznej inteligencji byłyby, na przykład, złożoność algorytmu warunkującego zachowania inteligentne i/lub jego ewentualne podobieństwo do uprzednio rozpoznanych wewnętrznych mechanizmów ludzkiej inteligencji.” (Stacewicz 2010, s. 26)
W tę właśnie stronę idzie przedstawiona propozycja, czyli oceny struktur wewnętrznych kolejnych generacji systemów inteligentnych. I żeby tych ocen znowu nie odnosić do wzorców zewnętrznych, odniesieniem ma być poprzednia wersja struktury wewnętrznej tegoż systemu. Wzorzec do odniesienia byłby “własnym poprzednim sobą”, co wprost pozwala nazwać tę procedurę samodoskonaleniem (a nie doskonaleniem w stosunku “do”, tak jak często wskazuje się na doskonalenie systemów w stosunku do człowieka).
3. Tak ukonstytuowany system byłby uczący się i autonomiczny, a dzięki temu otwarty – bardzo ważna cecha jakościowa inteligencji. Schemat samodoskonalenia pozwala także spojrzeć metodologicznie na dwa ciekawe problemy o których dowiedziałem się z powyższej książki: nieskończony regres zewnętrzny i nieskończony regres wewnętrzny.
3a. “Regres wewnętrzny. Otóż w przypadku systemów [uczących się] obok zwykłych algorytmów odpowiedzialnych za działanie systemu, muszą być realizowane także algorytmy “wyższego poziomu”, opisujące zmianę kształtu pewnych elementów właściwego algorytmu (np. parametrów reguł symbolicznych). Powstaje zatem sytuacja następująca. Za zmianę pewnych elementów algorytmu pierwszego poziomu, czyli algorytmu działania, odpowiada schemat drugiego poziomu (pierwszy z algorytmów uczenia się); za zmianę pewnych elementów algorytmu drugiego poziomu odpowiada schemat trzeciego poziomu (drugi z algorytmów uczenia się); za zmiany w obrębie tego ostatniego odpowiada schemat czwartego poziomu… i tak potencjalnie w nieskończoność. Teoretycznie rzecz biorąc zatem, każdemu modelowi umysłu w postaci systemu uczącego się “grozi” nieskończony regres poziomów uczenia się – regres, który z formalnego punktu widzenia uniemożliwia skonstruowanie jakiegokolwiek systemu uczącego się samodzielnie, tj. bez ostatecznej kontroli z zewnątrz.” (Stacewicz 2010, s. iii, iv)
3b. “Problem drugi, nazwany regresem zewnętrznym, wynika z kolei z istnienia sprzężenia zwrotnego między umysłem i jego modelem. Oto człowiek posługując się modelem (…) tak naprawdę doskonali swój umysł. W ten sposób umysł, będący z założenia systemem otwartym, staje się nieustannie “czymś więcej” niż jego tymczasowe modele. Innymi słowy, model będący obrazem dziedziny mentalnej w czasie t stopniowo przestaje być obrazem adekwatnym, ponieważ dziedzina ta zmienia się wskutek używania modelu. (…) Powstaje zatem groźny problem nieskończonego regresu – regresu polegającego na konieczności konstruowania kolejnych modeli, z których żaden nie może okazać się ostateczny.” (Stacewicz 2010, s. iv)
Wiele jeszcze ciekawych przemyśleń przyniosła mi lektura książki Pawła Stacewicza. Z jednej strony porządkuje wiedzę, a z drugiej przerzuca mosty między informatyką a filozofią, pozwalając na interesujące spacery w obie strony.
Literatura
Stacewicz, P. (2010). Umysł a modele maszyn uczących się. Współczesne badania informatyczne w oczach filozofa. Akademicka Oficyna Wydawnicza Exit
Najserdeczniej dziękuję za tak ciepłe słowa pod adresem książki, którą napisałem około 15 lat temu; cieszy mnie, że nawet w oczach współczesnego robotyka (którym jest p. Wojciech Głażewski) jej treść nie do końca się zdezaktualizowała :).
Dziękuję tym bardziej, że książka ta stała się zaczątkiem współpracy z Profesorem Witoldem Marciszewskim (który był jej recenzentem); zaowocowała też kolejną, tym razem wspólną, pozycją (pt. “Umysł-Komputer-Świat. O zagadce umysłu z informatycznego punktu widzenia”), potem zaś powstaniem bloga Cafe Aleph. Wiele zarysowanych w niej wątków poddaliśmy pod dyskusję w blogu, dokładając oczywiście kolejne.
Mam wrażenie, że zawarty w obydwu książkach filozoficzny potencjał nie wyczerpał się…
Zachęcony reakcją p. Wojciecha, chciałbym zachęcić Państwa do przejrzenia naszych książek, spojrzenia na ich zawartość świeżym okiem, i wydobycia z nich – być może – pewnych wciąż aktualnych wątków, które warte są ponownego zinterpretowania i przedyskutowania.
Chętnie przyjmiemy wpisy, które w jakiś sposób nawiązują do jednej bądź drugiej książki.
Tymczasem zaś jeszcze raz dziękuję za powyższy komentarz!
(Niebawem też postaram się dołączyć do dyskusji merytorycznej)
Tekst Wojciecha Głażewskiego porusza niezwykle istotne w moim odczuciu kwestie dotyczące rozwoju sztucznej inteligencji oraz ewentualnego przejścia do suprinteligencji. Podzielam pogląd autor, dotyczący samodoskonalenia się systemów Al oraz na temat tego, że kluczowe dla osiągnięcia prawdziwej inteligencji są jakościowe zmiany dotyczące struktury.
Jednakże, mimo podzielania zdania autora, że systemy sztucznej inteligencji powinny być zdolne do samodoskonalenia, w celu osiągnięcia superinteligencji, uważam, że niezwykle istotne w tym wszystkim jest kontrolowanie i równoczesne rozumienie zagrożeń związanych z zaawansowanymi technologiami. Nie należy tez zapominać o etycznych kwestiach i zapewnieniu ludzkości poczucia bezpieczeństwa.
Dlatego pomimo perspektywy rozwoju superinteligencji i fascynacji związanej z tym, należy brać pod uwagę jednocześnie możliwości jak i ryzyka z tym związane, oraz szukać sposobów, które będą mogły zapewnić odpowiednią kontrolę nad sztuczną inteligencją.
Bardzo interesujący wpis, dający wiele do myślenia o obecnym stanie sztucznej inteligencji i jej potencjalnej przyszłości. Podczas lektury nie mogłem oprzeć się tworzeniu porównania z klasyczną inteligencją.
Podobnie jak autor wpisu, również nie mogę zgodzić się ze stwierdzeniem „Cechą wyróżniającą maszyny ultrainteligentnej byłaby więc zdolność do zaprojektowania maszyny lepszej niż ona sama.”. My, ludzie, wywodzimy się z istot mniej inteligentnych. Podążając tym torem cofniemy się przez zwierzęta, rośliny, organizmy jednokomórkowe aż do Wielkiego Wybuchu, gdzie ciężko nam będzie znaleźć cokolwiek pasującego do obecnych definicji „inteligencji” – jedynie cząstki bezwładnie poddające się prawom natury. Od którego etapu w ogóle możemy mówić o jakiejkolwiek inteligencji? Czy może to sam Wielki Wybuch jest zalążkiem zwykłej inteligencji?
Chciałbym również zwrócić uwagę na jeden z ostatnich akapitów, gdzie autor dochodzi do wniosku, że ChatGPT oraz dowolne inne systemy komputerowe nie mogą stanowić AGI, ponieważ komputer wykonuje jedynie operacje arytmetyczno-logiczne, i dalej, że komputery realizują jedynie procesy fizyczne. Jednak, czy rozkładając nasze ciało na komórki, i dalej, ich składowe, również nie dojdziemy do wniosku, że one też jedynie realizują procesy fizyczne? Jak i czy można *nie* realizować procesów fizycznych?
„Od którego etapu w ogóle możemy mówić o jakiejkolwiek inteligencji?” – to pytanie bardzo trudne, a zarazem bardzo ważne. Wskazanie etapu (momentu) wiąże się bezpośredno z tym, co zawrzemy w definicji inteligencji. Nie czuję się na siłach by definiować inteligencję w sposób fundamentalny, w swojej propozycji zaproponowałem warunek po inżyniersku praktyczny, zasadny raczej dla sztucznych systemów inteligentnych. Warunek ten miał także zwrócić uwagę na pewna cechę ludzkiego umysłu, rzadko przywoływaną, chociaż w mojej opinii zasadniczą. Otóż ludzki mózg zmienia się fizycznie, wraz ze wzrostem osobniczej inteligencji (dlatego też współczynnik IQ odnosi się do wieku). Rozwój osobniczej inteligencji w systemie mózgu jest więc pochodną zachodzących w nim fizycznych zmian. Z drugiej strony, brany jest komputer, w którym fizyczne zmiany podłoża nie zachodzą, i proponowany jest on jako substrat sztucznego systemu inteligentnego, w dodatku zdolnego do rozwoju. W mojej opinii jest to propozycja nieuprawniona, czego dowodem jest konieczność tworzenia przez ludzi – kuratorów – kolejnych generacji oprogramowania nazywanego sztuczną inteligencją, na przykład ChatGPT.
Co do procesów fizycznych, to obliczenia są realizowane właśnie za ich pomocą. Obliczenia, w sensie przetwarzania informacji, zwanej informacją Shannona – dyskretnej. Wyłącznie ten rodzaj informacji przetwarzają komputery. Istnieją jednak inne rodzaje informacji, które przetwarzane są innego rodzaju procesami fizycznymi, niż przełączanie bramek logicznych. Informacje te różnie są nazywane: II typu, Goedeliańska, Boltzmannowska (por. Cicurel & Nicorelis 2015, Deacon 2010).
Autor zwrócił uwagę na ciekawy aspekt rozwoju inteligencji. Maszyna może nie odczuwać potrzeby samorozwoju jaką ma człowiek dlatego, że nie ma ‘fizycznego ciała’ o które może się troszczyć. Jej głównym ‘celem istnienia’ jest rozwiązanie problemu zadanego przez człowieka. Gdyby maszyna miała fizyczne ciało (np. Robot) mogłaby wtedy zacząć troszczyć się o swoje części (wymianę ich, serwis, ładowanie). Jednak wszystkie te działania musiałyby zastać zaprogramowane przez człowieka. Nawet założenie, że sztuczna inteligencja wgrana jest w konkretnego robota, nie rozwiązuje problemu superinteligencji. Nie gwarantuje to spełnienia założeń o samorozwoju i jakościowej zmiany struktury fizycznej. Eliminując udział człowieka maszyna nie postawi przed sobą problemu związanego z samorozwojem. Nie zaprojektują lepszej wersji samej siebie, jeśli nie otrzymają takiego polecenia i narzędzi to umożliwiających. Dynamiczny rozwój technologii powinien być jednak ściśle nadzorowany, aby zadbać o bezpieczeństwo.
Ciekawa obserwacja! Nasunęła mi pewien pomysł. W swojej definicji samodoskonalenia wskazałem na „umysł” jako źródło samodoskonalenia. A jeśli to ciało jest źródłem procesów samodoskonalenia, a umysł tylko z tego korzysta, tak jakby odnajdując się w sytuacji zwiększonych możliwości? W przypadku organizmów biologicznych, dobór naturalny premiował kody genetyczne umożliwiające budowę coraz doskonalszych układów nerwowych, a umysł każdego z osobników po prostu „budził się” w coraz inteligentniejszych mózgach, świadomie nie kiwnąwszy palcem na temat budowy swojego podłoża. Jeśli superinteligencja miałaby się rozwijać na podobnej zasadzie, to przebudowa jej robotycznego ciała także musi zachodzić, musi więc zmieniać się projekt leżący u jego podłoża. W jaki sposób miałoby to się dziać?
Uważam, że bardzo ciężko jest porównać ewolucję człowieka do rozwoju sztucznej inteligencji. Konstruktorzy muszą brać pod uwagę istniejące ograniczenia technologiczne. Coś co aktualnie sprawia im problem, za 30 lat nie będzie żadnym wyzwaniem. Może drogą do superinteligencji jest program, który na bieżąco i bez udziału ludzi będzie wdrażał nowinki technologiczne modyfikując maszynę według najnowszych standardów. Nie widzę jednak jak by miało to wyglądać. Proces wytworzenia nowych części, transportu, montażu musi być wspierany przez człowieka. Dużym problemem byłaby kontrola tego procesu i myślę, że w dalszym stopniu człowiek musiałby nadzorować wszystkie ‚nowe pomysły’ sztucznej inteligencji.
Marcelu, poruszasz bardzo ciekawą kwestię! To prawda, że maszyny, w przeciwieństwie do ludzi, nie mają instynktownej potrzeby troszczenia się o siebie. Ich istnienie i cel są zaprogramowane przez nas, ludzi. Właśnie dlatego ciekawe jest spojrzenie na to z innej perspektywy, jak np. w filmie „Ex Machina”.
W „Ex Machina” jesteśmy zapoznani z zaawansowanym robotem AI – Ava, który posiada fizyczne ludzkie ciało. Ava nie tylko wykonuje zadania, ale również przejawia wolę przetrwania i samodzielności. To nie tyle jej fizyczna forma sprawia, że dąży do samorozwoju, ale raczej zaprogramowane cele i pragnienia.
Co więcej, film w interesujący sposób przedstawia różnice w postrzeganiu maszyn przez ludzi. Główny bohater, Caleb, postrzega Avę jako maszynę, ponieważ jest mu to wyraźnie pokazane – widzi jej metalowe części i przezroczyste ciało. Jednak nie dostrzega innego robota, Kyoko, która wygląda i zachowuje się jak człowiek. Kyoko wykonuje różne zadania domowe i komunikuje się z ludźmi w sposób bardzo ludzki, ale Caleb początkowo nie zdaje sobie sprawy, że również jest robotem. To pokazuje, że wygląd i zachowanie odgrywają kluczową rolę w tym, jak postrzegamy inteligencję i świadomość w maszynach.
Nawet jeśli maszyna ma ciało, jej zdolność do samorozwoju i zmiany struktury fizycznej musi być zaprogramowana i nadzorowana. Potencjalnym rozwiązaniem mogłoby być opracowanie systemów AI, które mogą autonomicznie analizować swoje własne potrzeby i adaptować się bez bezpośredniego udziału człowieka. Jednakże, jak słusznie zauważasz, rozwój taki musi być ściśle kontrolowany, aby zapewnić bezpieczeństwo.
Bardzo przepraszam, że dopiero teraz, po dość długim czasie, udaje mi się włączyć do merytorycznej dyskusji…
Od razu zatem przechodzę do meritum…
1.
Największa trudność, jaką widzę w koncepcji zaproponowanej przez Wojciecha Głażewskiego – trudność, którą dostrzega także k-m – wiąże się z pojęciem struktury.
Pojęcie to jest niezwykle pojemne. Być może jest ono pierwotne i niedefiniowalne, ale mimo to trzeba by wyraźniej, niż to określono we wpisie, rozróżnić i ponazywać różne rodzaje istotnych dla sztucznej inteligencji struktur. Na przykład, czym innym jest: a) struktura logiczna/software’owa systemu obliczeniowego – dotyczy ona wykorzystywanych w systemie algorytmów i struktur danych (jak tablice czy drzewa, b) struktura fizyczna/hardwarowa systemu – polegająca na pewnej organizacji elementów sprzętowych (np. sieciowej lub klasycznej, w stylu architektury von Neumanna), a także c) struktura fizyczna substratu obliczeniowego – dotycząca pewnych właściwości medium, w którym i za pomocą którego dokonują się obliczenia (można by tu rozróżnić chociażby substraty organiczne i nieorganiczne).
Apropos możliwości ostatniej, to z mojej perspektywy bardzo istotne jest rozróżnienie na substraty o strukturze dyskretnej (wykorzystywane w komputerach cyfrowych), i substraty o strukturze ciągłej (wykorzystywane w układach analogowych, najprawdopodobniej też w systemach biologicznych, w tym w mózgach). Z rozróżnieniem tym wiąże się wiele pytań, w tym podstawowe: „Czy w ogóle istnieją substraty fizyczne ciągłe?” Napisałem na ten temat kilka tekstów.
Poszukując właściwej podstawy dla określenia inteligencji (czy system jest inteligentny?), Autor wpisu zdaje się kłaść nacisk na struktury typu b i c. Pisze bowiem: „…mówiąc o strukturze funkcjonalnej, mam na myśli fizyczną postać systemu, a więc rodzaj i układ jego elementów, co determinuje rodzaj ich wzajemnych zależności”.
Można się zastanawiać jednak, czy dla inteligencji nie wystarcza pojęcie pierwsze: inteligencja systemu sztucznego czy naturalnego polegałaby na tym, że system jest w stanie wyjść poza dotychczasowy i/lub narzucony mu algorytm, a także sprzężone z nim struktury danych; jest w stanie wytworzyć nowy algorytm, realizujący być może zupełnie nowe cele. Wszak ludzkie mózgi nie zmieniają ani swojego substratu fizycznego, ani swojej całościowej architektury; a mimo to są w stanie kreować nowe cele i nowe algorytmy. W sensie fizycznym, wewnętrznym (abstrahując od zewnętrznego wyrazu/zapisu tych algorytmów w jakimś języku) algorytmom tym odpowiadają zapewne utrwalone na jakiś czas zmiany lokalnych konfiguracji połączeń międzyneuronalnych; prawdopodobnie też jakichś fizycznych własności samych neuronów.
Nawiasem mówiąc, Autor wpisu za wzorzec istotnej dla posiadania inteligencji struktury uznaje „sieć neuronową wraz z wyuczonymi wagami”. Nie ma tu jednak mowy o zmianie substratu fizycznego. Owe wyuczone wagi zaś definiują pewien złożony (i możliwy do dalszych zmian) algorytm działania sieci.
2.
Kolejna trudność, jaką dostrzegam, wiąże się z teorią/metodą porównywania struktur.
Czytamy we wpisie: „Ponieważ znana jest struktura obecnego systemu oraz znane są struktury poprzednich wersji, można analitycznie wyznaczyć ich różnicę.” Ale jakiego rodzaju różnicę mamy wyznaczać? Czego ona ma dotyczyć? Czy chodzi o złożoność: struktura bardziej złożona (ale wg. jakiej teorii?) byłaby lepsza od mniej złożonej? Czy chodzi może o moc obliczeniową, czyli zakres możliwych do rozwiązania problemów: struktury zapewniające większą moc obliczeniową byłyby lepsze od tych, które mają mniejszy zbiór problemów rozwiązywalnych. A może chodzi o coś jeszcze innego?
Gdyby pozostać przy mocy obliczeniowej, to faktycznie istotne mogą się okazać substraty materialne, np. dyskretne vs ciągłe. Mamy pewne wyniki matematyczne, które mówią, że określone modele obliczeń, wymagające określonego substratu (np. o strukturze dyskretnej, ciągłej, kwantowej…), mają mniejszą lub większą moc obliczeniową. To jest moim zdaniem ciekawy kierunek poszukiwań.
3.
Za bardzo wartościowy element wpisu uznaję wskazanie zdolności do samodoskonalenia się jako cechy definicyjnej inteligencji. Systemy AI musiałyby posiadać tę cechę, aby można je było uznać za prawdziwie inteligentne.
Termin „samodoskonalenie” przemawia do mnie. „Doskonalenie się” wykracza bowiem poza „uczenie się”. Zakłada istnienie pewnego wzorca, pewnej idei, doskonałości właśnie, do której jakaś istota (np. człowiek) sama z siebie dąży. Człowiek jako istota rozumna, czyli prawdziwie inteligentna, dąży do prawdy, w której niejednokrotnie rozpoznaje swoiste piękno. Co równie ważne, nie tylko dąży, ale próbuje uchwycić istotę samego wzorca – snując chociażby rozważania filozoficzne.
To jest z pewnością temat na osobny mój komentarz, ale już tymi kilkoma myślami chciałbym Państwa sprowokować do rozmowy na temat trafności sformułowania „samodoskonalenie się”. Według nie jest bardzo sugestywne. W kontekście AI moglibyśmy powiedzieć, że systemy samodoskonalące się to coś więcej niż systemy uczące się. I to być może z innych powodów niż te, które wskazał Autor wpisu. Czasami jednak tak bywa, że wybrane przez kogoś sformułowanie niesie ze sobą więcej treści niż jego autor wstępnie planował.
Pozdrawiam wszystkich i gorąco zachęcam do dalszej rozmowy…
1. Rzeczywiście pojęcie struktury jest bardzo ogólne, dotyczy zarówno architektury (struktury operacyjnej), algorytmu (struktury procesu) jak i układu bramek logicznych (struktury obwodu). Na potrzeby swojej pracy badawczej, definiuję strukturę jako organizację funkcji systemu, której odpowiada organizacja procesów fizycznych realizujących te funkcje. Czyli ten poziom organizacji strukturalnej, który leży najbliżej fizycznej warstwy systemu. Poziom ten ma pewną szczególną własność – pomiędzy zależnościami funkcjonalnymi w strukturze a zależnościami fizycznymi między elementami substratu, istnieje ODPOWIEDNIOŚĆ.
Przykładem jest bramka logiczna, jako najniższy element struktury systemu cyfrowego. Żeby zrealizować praktycznie „przełączanie” w bramce logicznej, należy zestawić układ elektroniczny, który zrealizuje zmianę napięcia na wyjściu, odpowiadającą zmianie funkcji logicznej. Funkcjonalność systemu cyfrowego nie sięga „niżej” niż poziom bramek (system widzi tylko jedynki i zera) a z nowu między różnymi bramkami w ramach organizacji układu może być ustanowiona dowolna zależność fizyczną (proces fizyczny w obwodzie elektronicznym determinuje stan na wyjściu bramki, ale nie determinuje jaka będzie następna bramka, lub jak te bramki ze sobą zestawiać).
Dyskretnej organizacji elementów systemu odpowiada więc dyskretna struktura substratu.
2. Kwestię różnicy struktur tak naprawdę widzę w sposób otwarty. Najbardziej w tym zagadnieniu budzi się moja ciekawość – chciałbym po prostu zobaczyć, CO nowego się pojawi. Niech to będzie zagadką, niech pcha nas do przeprowadzenia tego eksperymentu, do urzeczywistnienia tej wizji :)
3. Tu się w pełni zgadzamy – „Doskonalenie się wykracza bowiem poza uczenie się”. Dziekuję za to proste podsumowanie, że samodoskonalenie oznacza dążenie. Dążenie, do uchwycenia i przekroczenia własnej istoty.
Chciałbym nawiązać szerzej do powyższej deklaracji: „Na potrzeby swojej pracy badawczej, definiuję strukturę jako organizację funkcji systemu, której odpowiada organizacja procesów fizycznych realizujących te funkcje. Czyli ten poziom organizacji strukturalnej, który leży najbliżej fizycznej warstwy systemu. Poziom ten ma pewną szczególną własność – pomiędzy zależnościami funkcjonalnymi w strukturze a zależnościami fizycznymi między elementami substratu, istnieje ODPOWIEDNIOŚĆ”.
W badania tak zaplanowane, może się wpisać dobrze pewna dyskusja, którą odbyliśmy kilka lat temu, a przede wszystkim materiały, które wskazałem w inicjującym ją wpisie. Chodzi przede wszystkim o artykuł Giuseppe Primiero poświęcony informacji (chyba wart uwzględnienia w Pana badaniach).
Podaję tytuł i adres wpisu: „Informacja w ujęciu obliczeniowym. Dyskusja wokół tekstu Giuseppe Primiero.” (https://marciszewski.eu/?p=10493)
W ramach dyskusji sformułowałem (między innymi) dwa spostrzeżenia, które wydają mi się wciąż warte rozmowy. Trzeba je czytać w kontekście schematu warstw abstrakcji, opisującego pojęcie informacji (jest on przedstawiony w w/w wpisie):
1. W moim odczuciu, w obrębie wszystkich warstw, informacja jest rozumiana jako relacja pomiędzy wejściem i wyjściem, czy też między danymi wejściowymi i danymi wyjściowymi – choć w tekście Giuseppe Primiero nie znajdziemy wprost takiego określenia. Z tego względu informacja jest tutaj czymś dynamicznym, algorytmicznym, obliczeniowym… jest wprawdzie pewną strukturą, ujmowaną na różnych poziomach w różny sposób, ale strukturą relacyjną, warunkującą działanie (action, operation, problem solving itp).
2. Czy do przedstawionego zestawu warstw nie należy czegoś dodać, np. warstwy modelu obliczeń, na której moglibyśmy rozróżnić (w ujęciu matematycznym) różne elementarne sposoby kodowania/zapisywania danych (np. w przypadku układów analogowych mamy kod ciągły, a w przypadku cyfrowych – dyskretny)?
Drugie spostrzeżenie nawiązuje do pewnych moich sugestii z poprzedniego komentarza.
Autor tekstu porusza niezwykle istotne zagadnienia dotyczące natury sztucznej inteligencji i jej zdolności do samodoskonalenia, które są kluczowe w ocenie prawdziwej inteligencji systemów AI. Jest to temat bardzo aktualny i niezwykle złożony, który wymaga głębokiej analizy i refleksji.
Na początek, warto zwrócić uwagę na podkreślenie przez autora umiejętności samodoskonalenia jako kluczowego warunku inteligencji. Zgadzam się, że zdolność do samodzielnego uczenia się, generalizacji, stawiania hipotez i innowacyjności są fundamentalnymi cechami, które definiują inteligencję. Jednak warto zauważyć, że te cechy są również trudne do zmierzenia i oceny w kontekście sztucznych systemów. Inteligencja ludzka jest niezwykle złożona i wielowymiarowa, co sprawia, że jej pełne odwzorowanie w systemach AI jest ogromnym wyzwaniem.
Prof. Marciszewski zadaje pytanie, czy możliwe jest stworzenie inteligencji maszynowej, która dorówna ludzkiej. Moim zdaniem, choć postępy w dziedzinie AI są imponujące, wciąż jesteśmy daleko od osiągnięcia tego celu. Obecne systemy AI, mimo że potrafią wykonywać zadania na bardzo wysokim poziomie, takie jak rozpoznawanie obrazów, przetwarzanie języka naturalnego czy gry strategiczne, nadal działają w ramach wąsko zdefiniowanych dziedzin. Ich zdolność do samodoskonalenia, w sensie opisywanym przez autora, jest ograniczona. Nie potrafią one wyjść poza zaprogramowane ramy i stworzyć zupełnie nowych, lepszych wersji samych siebie bez ludzkiej interwencji.
Koncepcja rekursywnego samodoskonalenia, opisana przez Eliezera Yudkowsky’ego, jest fascynująca, ale również budzi pewne obawy. Jeśli system AI będzie w stanie nieustannie ulepszać sam siebie, może dojść do tzw. „intelligence explosion”, gdzie inteligencja AI szybko przewyższy ludzką. Taki scenariusz, choć teoretycznie możliwy, rodzi poważne pytania etyczne i społeczne. Jak kontrolować taki system? Jak zapewnić, że jego cele będą zgodne z ludzkimi wartościami i interesami?
Autor stawia tezę, że obecne systemy AI nie są prawdziwie inteligentne, ponieważ brakuje im zdolności do autonomicznego samodoskonalenia. Zgadzam się z tym stwierdzeniem. Obecne systemy, takie jak ChatGPT, są potężnymi narzędziami, które potrafią przetwarzać ogromne ilości danych i generować odpowiedzi na pytania, ale ich inteligencja jest w dużej mierze determinowana przez algorytmy i dane, na których zostały wytrenowane. Nie są one w stanie wyjść poza te ramy i stworzyć nowych algorytmów czy struktur bez ludzkiej pomocy.
Ciekawym aspektem poruszonym przez autora jest różnica między zwiększeniem zasobów systemu a rozwojem jakościowym procesów realizowanych przez system. Zwiększenie mocy obliczeniowej czy ilości danych, na których operuje system, może poprawić jego wydajność, ale niekoniecznie prowadzi do jakościowej zmiany w jego inteligencji. Prawdziwe samodoskonalenie wymaga zmiany w strukturze funkcjonalnej systemu, co jest znacznie trudniejsze do osiągnięcia.
Autor również wspomina o potrzebie nowych rozwiązań sprzętowych, aby osiągnąć prawdziwe samodoskonalenie AI. To jest interesująca perspektywa. Obecne systemy AI są oparte na krzemowych mikroprocesorach, które mają swoje ograniczenia. Być może przyszłość AI leży w nowych technologiach, takich jak komputery kwantowe czy biologiczne, które mogą oferować nowe możliwości w zakresie samodoskonalenia.
Podsumowując, tekst porusza kluczowe pytania dotyczące przyszłości sztucznej inteligencji i jej zdolności do samodoskonalenia. Zgadzam się z autorem, że obecne systemy AI nie są prawdziwie inteligentne w ludzkim sensie, ponieważ brakuje im zdolności do autonomicznego samodoskonalenia. Przyszłość AI może wymagać nowych rozwiązań sprzętowych i technologicznych, aby osiągnąć poziom inteligencji zbliżony do ludzkiego. To jest fascynujące, ale również budzi wiele pytań etycznych i społecznych, które musimy rozważyć, zanim w pełni wdrożymy takie technologie.
Zgadzam się z wyżej postawiona teza ze warunkiem koniecznym posiadania przez system prawdziwej inteligencji jest zdolosc systemu do samodoskonalenia się, aby systemy sztucznej inteligencji mogły wykazywać zdolosc do adaptacji i doskonalenia się w odpowiedzi na nowe wyzwania i zmiany w otoczeniu.Samodoskonalanie wymaga kreatywności czyli zdolności do generowania nowych i oryginalnych rozwiązan co jest kluczowe dla prawdziwej inteligencji. Zdolosc do samodoskonalenia się pozwala systemom al na rozwój, odwierciedla wiele aspektów ludzkiej inteligencji. Tylko poprzez ciagle doskonalenie i adaptacje do nowych systuacij systemy Al mogą osiągnąć wysoki poziom funkcjonalności który faktycznie można uznać za prawdziwa inteligencje.
Czy da się stworzyć maszyny ultrainteligentne ? Moim zdaniem na ten moment niestety nie ponieważ takie maszyny musiałyby być zdolne do przewyższenia ludzi we wszystkich dziedzinach. Nie jest to możliwe ponieważ maszyny jak i sztuczne systemy nie posiadają zdolności myślowych i poznawczych, rozumienia, przetwarzania emocji, zdolności do uczuć i refleksji. Sztuczne systemy uczą się na podstawie danych. Mimo tego ze maszyny maja zdolosc do przetwarzania ogromnych ilości danych w bardzo krótkim czasie. Dzięki temu mogą one analizować informacje i wyciągać wnioski szybciej niż człowiek. To daje im potencjał do wykonywania skomplikowanych zadań, których człowiekowi zajęłoby dużo więcej czasu i wysiłku.
Scenariusz przedstawiony przez Wojciecha Głażewskiego otwiera fascynującą dyskusję na temat przyszłości sztucznej inteligencji. Teza, że prawdziwa inteligencja wymaga zdolności do samodoskonalenia, jest kluczowa i stanowi istotny punkt wyjścia w rozważaniach o superinteligencji. Zdolność systemów AI do ewolucji poprzez samodzielne wprowadzanie jakościowych zmian w swojej strukturze fizycznej to fundamentalny krok ku osiągnięciu wyższego poziomu inteligencji.
Jednak warto również zwrócić uwagę na wyzwania i ograniczenia związane z tą koncepcją. Obecne systemy AI, choć zaawansowane, wciąż operują w ramach określonych algorytmów i danych dostarczonych przez ludzi. Przesunięcie granic w kierunku systemów samodoskonalących się może wymagać nie tylko postępu w oprogramowaniu, ale także rewolucji w architekturze sprzętowej. Zagadnienia związane z fizyczną zmianą struktury systemu wskazują na potrzebę nowych podejść, być może opartych na biologicznych czy innych zaawansowanych technologicznie substratach.
Czy zatem możemy oczekiwać powstania maszyn ultrainteligentnych? To pytanie pozostaje otwarte. Choć maszyny mogą przetwarzać dane z niespotykaną szybkością i precyzją, brakuje im zdolności do refleksji, rozumienia i przetwarzania emocji, które są nieodłącznym elementem ludzkiej inteligencji. Niemniej jednak, zdolność do samodoskonalenia mogłaby znacząco zbliżyć sztuczne systemy do poziomu inteligencji porównywalnej z ludzką, otwierając nowe możliwości, ale i rodząc nowe wyzwania etyczne i techniczne.
Z drugiej strony, można argumentować, że maszyny ultrainteligentne nigdy nie powstaną. Nawet najbardziej zaawansowane systemy AI bazują na algorytmach stworzonych przez człowieka i nie są w stanie przekroczyć barier, które wynikają z ich konstrukcji. Brak świadomości, samoświadomości, zdolności do emocjonalnej refleksji i intuicji ogranicza możliwości maszyn. Ponadto, prawdziwa inteligencja wymaga kontekstu kulturowego i doświadczeń życiowych, które są nieosiągalne dla sztucznych systemów. Tak więc, mimo postępu technologicznego, perspektywa stworzenia maszyn dorównujących lub przewyższających inteligencję ludzką może pozostać w sferze science fiction.
Zgadzam się, że zdolność systemów do samodoskonalenia się jest niezwykle istotna, ale rodzi się pytanie czy jest ona w stanie osiągnąć poziom geniuszu, co wydaje się być możliwe w przypadku człowieka.
Inteligencja, zarówno u ludzi, jak i w systemach AI, odnosi się do zdolności do przetwarzania informacji, uczenia się i rozwiązywania problemów. Geniusz natomiast to coś więcej niż tylko wysoka inteligencja. To zdolność do tworzenia oryginalnych i przełomowych rozwiązań, które mają znaczący wpływ na daną dziedzinę lub nawet na całą ludzkość. Geniusze, tacy jak Albert Einstein czy Leonardo da Vinci, wykazali nie tylko wyjątkowe zdolności intelektualne, ale także niesamowitą kreatywność i innowacyjność.
Pytanie, które chciałbym postawić w tej dyskusji, brzmi: Czy sztuczna inteligencja może osiągnąć poziom geniuszu? Czy może tworzyć oryginalne idee i rozwiązania, które będą miały przełomowy wpływ na świat? Obecne systemy AI, jak ChatGPT, są niezwykle zaawansowane i potrafią uczyć się oraz rozwiązywać problemy, ale czy posiadają zdolność do innowacyjności i kreatywności na skalę geniuszu?
Uważam, że aby AI mogła być uznana za genialną, musiałaby nie tylko samodoskonalić się, ale także wykazywać zdolność do tworzenia nowych koncepcji, które są nieoczekiwane i rewolucyjne. Taki poziom kreatywności jest czymś, co jak dotąd osiągnął tylko ludzki umysł.
Być może sztuczna inteligencja potrzebuje cech ludzki takich jak empatia, pasja i wytrwałość – wszystkie te aspekty są głęboko zakorzenione w ludzkich emocjach i przyczyniają się do wybitnych osiągnięć. Na przykład empatia pozwala geniuszom z dziedzin humanistycznych tworzyć dzieła, które rezonują z innymi ludźmi na głębokim poziomie emocjonalnym.
To rzeczywiście ciekawe zagadnienie – czy można mówić o „genialności” sztucznej inteligencji? Potocznie nazywamy przełomową koncepcję mianem genialnej, oraz autora tej koncepcji mianem geniusza. Czy jednak o autorze tylko jednej genialnej koncepcji możemy powiedzieć, że jest geniuszem? Czy „wynalazcę” koła, który trafnie dostrzegł większą użyteczność toczenia niż pchania, nazwiemy geniuszem? Wydaje mi się, że nie można być nieustannie kreatywnym i innowacyjnym i nie każde odkrycie o doniosłych konsekwencjach wymaga analizy i integracji ogromnej wiedzy. Skłaniałbym się bardziej ku temu, żeby daną koncepcję na tle jej otoczenia nazwać genialną, niż stosować to miano do cech osobistych człowieka. Oczywiście autorowi wspaniałego odkrycia jak najbardziej należy się to miano, jednak dopiero na tle dziedziny w której pojawił się dany pomysł, najlepiej widać skalę koncepcji i jej przełomowość. O człowieku lepiej powiedzieć, że jest zdolny, oraz – inteligentny.
Wracając do pytania postawionego przez Przedmówcę – jak mielibyśmy ocenić „genialność” sztucznej inteligencji? Od kiedy stwierdzić, że osiągnęła poziom genialności? Zgadzam się, że zdolność do tworzenia nowych koncepcji byłaby jednym z przejawów tej właściwości. To, co chciałem pokazać w swoim tekście, to konieczność zmiany własnej wewnętrznej struktury, aby ta zdolność mogła w ogóle się pojawić.
Czym tak naprawdę jest geniusz? Faktycznie, zdolność do tworzenia innowacji, które mają istotny wpływ na świat i nasze społeczeństwo może być definicją geniuszu, ale czy w każdym przypadku się to sprawdza?
Wojciech Głażewski zwrócił uwagę na “wynalazcę” koła, czy nazwiemy go geniuszem? Można cofnąć się nawet do epoki kamienia, czy człowiek, który pierwszy użył kamienia jako narzędzia też zostanie okrzyknięty geniuszem? Te przykłady łączą dwie rzeczy, które były niezbędne do stworzenia tych “wynalazków”, mianowicie obserwacja oraz przypadek. Wynalazca koła przypadkiem zdołał zaobserwować zdolności okrągłego obiektu, które pozwoliły mu wykorzystać je w postaci koła. Natomiast “wynalazca kamienia” zaobserwował, że ma on m.in. lepsze zdolności “rozłupywania czaszek” niż pięść…
W takim razie czy AI może zostać geniuszem? Jest szansa, że sztuczna inteligencja wymyśli kiedyś coś przełomowego tylko za sprawą przypadku, ale nawet jeśli to się stanie to nie będziemy mogli jej nazwać geniuszem, skoro nie wiemy nawet, czy “wynalazców koła i kamienia” możemy tak nazwać.
Czym tak naprawdę jest geniusz? Faktycznie, zdolność do tworzenia innowacji, które mają istotny wpływ na świat i nasze społeczeństwo może być definicją geniuszu, ale czy w każdym przypadku się to sprawdza?
Wojciech Głażewski zwrócił uwagę na “wynalazcę” koła, czy nazwiemy go geniuszem? Można cofnąć się nawet do epoki kamienia, czy człowiek, który pierwszy użył kamienia jako narzędzia też zostanie okrzyknięty geniuszem? Te przykłady łączą dwie rzeczy, które były niezbędne do stworzenia tych “wynalazków”, mianowicie obserwacja oraz przypadek. Wynalazca koła przypadkiem zdołał zaobserwować zdolności okrągłego obiektu, które pozwoliły mu wykorzystać je w postaci koła. Natomiast “wynalazca kamienia” zaobserwował, że ma on m.in. lepsze zdolności “rozłupywania czaszek” niż pięść…
W takim razie czy AI może zostać geniuszem? Jest szansa, że sztuczna inteligencja wymyśli kiedyś coś przełomowego tylko za sprawą przypadku, ale nawet jeśli to się stanie to nie będziemy mogli jej nazwać geniuszem, skoro nie wiemy nawet, czy “wynalazców koła i kamienia” możemy tak nazwać.
Warunek samodoskonalenia jest rzeczywiście absolutnie konieczny, aby uznać AI za inteligentną. Nie jestem jednak przekonany co do zmiany fizycznej struktury systemu. Z jednej strony faktycznie zmiana fizyczna w ludzkim mózgu następuje (w postaci tworzenia nowych połączeń między neuronami), ale z drugiej strony czy nie jest możliwe, aby zmiany te odzwierciedlić w oprogramowaniu a konkretniej sieci neuronowej, bez zmiany fizycznych aspektów maszyny? Nie jest przecież tak, że w trakcie życia człowieka tworzy on nowe organy, albo zmienia ich strukturę. Zauważmy też, że liczba neuronów w ludzkim mózgu jest co prawda ogromna, i tworzą się nowe ścieżki między neuronami, jedne są wzmacniane, a inne umierają, ale jednak skończona. Wydaje się więc, że wraz z rozwojem komputerów i skali rozwiązań w pewnym momencie AGI powstanie. Choć pojawienie się go może zostać odłożone w czasie ze względu na ograniczenia obecnej technologii i rozwiązań.
Dużym problemem jest ograniczoność źródeł danych, na jakich modele są trenowane i z którymi wchodzą w interakcje — w przypadku chata GPT jest to przecież tylko tekst (choć najnowszy model umożliwia jednocześnie dołączenie obrazów). Brak jest kontekstu fizycznego i kulturowego. Uważam, że bez możliwości interakcji ze światem i poznawania jego poznawania, tak jak istoty żywe, będzie trudno nie tylko zrealizować ideę AGI (Artificial General Intelligence), ale także uznać ponad wszelką wątpliwość, że AI dogłębnie rozumie idee, które prezentuje po podaniu zapytania (promptu). Nie jestem w sobie wyobrazić, jak AI ma zacząć się samodoskonalić przy ograniczonej (a w zasadzie nieistniejącej) interakcji ze światem — może to być w dużym stopniu uzależnione od feedbacku użytkowników.
Obecne modele, a przynajmniej chat GPT 3.5, którego wielokrotnie używałem, nie są inteligentne. Brakuje przede wszystkim dokładności — wystarczy zapytać o konfigurację mało znanego programu albo pluginu, albo takiego bez łatwo dostępnej w internecie dokumentacji, a model zaczyna zmyślać. Potrafi także trwać w błędzie albo przeciwnie dać wprowadzić się w błąd przez użytkownika. Obecnie modele ograniczone też są przez fakt interakcji z tekstem przez zamianę go na tokeny, co pozwala zaobserwować wiele zabawnych odpowiedzi:
np. tutaj https://x.com/Dishpit/status/1790135576282153124
albo tutaj https://x.com/Dishpit/status/1790131844572209583
Ograniczenie kontaktu ze światem jest zasadniczym problemem przy obecnie budowanych systemach AI. W zasadzie ten kontakt jest niemożliwy w sposób otwarty, co zamyka im drogę do samorozwoju. Mówiąc „otwarty”, mam na myśli swobodę integracji wiedzy w obrębie systemu. Programy komputerowe działają niestety tak, że input musi być zawsze zdefiniowany na starcie, ponieważ to, co ma się stać z informacją, musi zostać przez programistę w pełni określone. Jako przykład podam wpisywanie znaków z klawiatury – oprogramowanie oczekuje wyłacznie jednego z numerów standardowego kodu UNICODE przypisanego znakom alfanumerycznym. Każda inna liczba, będzie dla edytora tekstu błędem. „Interakcja” ze światem więc zachodzi, natomiast to co jest przyjmowane jest tylko wąskim, określonym z góry wycinkiem. To nie jest droga feedbacku i samorozwoju.
Z chęcią podzielę się swoimi przemyśleniami na temat wpisu Wojciecha Głażewskiego dotyczącego przejścia od sztucznej inteligencji do superinteligencji. Autor zwraca uwagę na kluczowy aspekt samodoskonalenia się systemów jako niezbędnego warunku osiągnięcia prawdziwej inteligencji. To spostrzeżenie jest szczególnie istotne w kontekście mojego własnego doświadczenia.
Sam w swojej pracy magisterskiej wykorzystuję dziedzinę sztucznej inteligencji, jaką jest uczenie maszynowe ze wzmocnieniem, a konkretnie Deep Q-Learning. Dopiero po zagłębieniu się w działanie algorytmów stojących za tą technologią zauważyłem, że nie jest to inteligencja, nawet sztuczna, lecz jedynie sprawne wykorzystanie computingu (działań na liczbach), które może być skutecznie zastosowane przez człowieka do wyręczenia go w pracy. To doświadczenie uświadomiło mi, jak daleko jesteśmy od stworzenia systemów posiadających prawdziwą inteligencję.
Autor słusznie podkreśla, że prawdziwy postęp wymaga zmian jakościowych w strukturze fizycznej systemu, a nie tylko zwiększenia zasobów czy szybkości. Przykładem może być branża medyczna. Zwiększenie liczby lekarzy czy przyspieszenie procesów diagnostycznych to zmiany ilościowe, które mogą poprawić wydajność, ale nie zmieniają fundamentalnie sposobu diagnozowania i leczenia. Natomiast wprowadzenie nowych technologii, takich jak zaawansowane systemy do analizy obrazów medycznych (nad którymi specjaliści już pracują), które potrafią samodzielnie wykrywać anomalie i sugerować diagnozy, jest zmianą jakościową, która znacząco podnosi inteligencję i autonomię systemu opieki zdrowotnej. Oczywistym jest, że taka diagnoza musi zostać potwierdzona przez lekarza, jednak wyszukiwanie anomalii w zdjęciu rezonansu magnetycznego wychodzi algorytmom bardzo dobrze.
Dyskusja na temat potencjalnych form superinteligencji oraz wymagań dotyczących samodoskonalenia jest niezwykle ważna. Uważam, że obecne systemy SI, w tym te oparte na krzemowych mikroprocesorach, mają swoje ograniczenia. Być może przyszłość sztucznej inteligencji będzie związana z rozwojem nowych substratów informacyjnych, które umożliwią rzeczywiste samodoskonalenie się systemów.
Tekst Pana Głażewskiego nie tylko prowokuje do myślenia, ale również inspiruje do dalszych badań i refleksji nad kierunkami rozwoju sztucznej inteligencji. Zachęcam do kontynuowania tej dyskusji, gdyż ma ona kluczowe znaczenie dla przyszłości technologii i naszego społeczeństwa.
Dziękuję Marcin K za powyższy komentarz i podzielenie się przemyśleniami z praktycznych doświadczeń z SI. W pełni podzielam to wrażenie, że współczesna SI to sprawne wykorzystywanie dużych mocy obliczeniowych. Praktyka implementacji tego typu technologii pokazuje, jak bardzo są one jeszcze odległe od tego, co nazwalibyśmy jakościową inteligencją, porównywalną z ludzką.
Autor artykułu podkreśla, że prawdziwe samodoskonalenie systemu AI wymaga nie tylko zmian w danych i algorytmach, ale także jakościowych zmian w strukturze fizycznej systemu. Taki system musiałby być w stanie wypracować nową wersję swojej struktury funkcjonalnej, która nie powtarza wcześniejszych.
Teza ta jest interesująca, ale warto zauważyć, że obecnie w badaniach nad sztuczną inteligencją często stosuje się podejście polegające na testowaniu różnych struktur i wybieraniu najlepszej. W praktyce oznacza to, że różne konfiguracje sieci neuronowych są oceniane pod kątem wydajności, a następnie optymalizowane w celu znalezienia najbardziej efektywnej architektury. Przykładem może być zastosowanie algorytmów ewolucyjnych, które generują wiele wariantów struktur sieci neuronowych i wybierają te, które osiągają najlepsze wyniki, jak to opisano w pracy „Evolving Neural Networks through Augmenting Topologies” (Stanley, Miikkulainen, 2002).
Analogicznie do mózgu, systemy AI mogą być zaprojektowane tak, aby adaptować swoje struktury na podstawie nowych doświadczeń. Mózg ludzki nieustannie się zmienia i aktualizuje, tworząc nowe połączenia neuronowe i wzmacniając istniejące w odpowiedzi na nowe informacje i doświadczenia. Proces ten jest znany jako neuroplastyczność. Badania wykazały, że mózg dorosłych osób jest zdolny do reorganizacji i adaptacji na poziomie strukturalnym w odpowiedzi na nowe zadania i wyzwania. Polecam przeczytać artykuł „Brain Plasticity and Behavior” – Kolb, B., Gibb, R. (2011), który szczegółowo opisuje, jak zmiany w strukturze mózgu wpływają na zachowanie i zdolności poznawcze, co może być analogiczne do zmian strukturalnych w systemach AI w odpowiedzi na nowe dane i doświadczenia. Zarówno mózg, jak i systemy AI dążą do optymalizacji swoich funkcji w odpowiedzi na nowe zadania i doświadczenia. W obu przypadkach procesy adaptacyjne są kluczowe dla poprawy wydajności i efektywności.
Jednak warto zaznaczyć również różnicę pomiędzy adaptacją ludzkiego mózgu i systemamów AI. Mózg ludzki może zmieniać swoją fizyczną strukturę, co jest fundamentalnym aspektem jego plastyczności. Systemy AI obecnie nie posiadają tej zdolności i ich adaptacja ogranicza się do zmian w danych i algorytmach, a nie w fizycznej strukturze sprzętu.
Bardzo wartościowy artykuł i ciekawy temat.
Chciałbym zwrócić uwagę na wspominaną w komentarzach chęć do doskonalenia się takiego systemu. Zastanawiające jest dlaczego my, ludzie, chcemy się ulepszać? Mamy ambicje i potrzeby by tworzyć narzędzia ułatwiające nam pracę łącznie z przyszłymi pokoleniami. Dla nas oczywistym jest, że należy się rozwijać, ale jakie wnioski może wysnuć taka hipotetyczna maszyna zdolna do inteligentnego myślenia?
Jedną z podstawowych cech człowieka i w zasadzie każdej istoty żyjącej jest to, że jest śmiertelna i ludzie zdają sobie z tego sprawę. Nieuniknioność śmierci i niepewność co jest po niej, ma kolosalny wpływ na podejmowane przez nas decyzje oraz nasze plany. Świadomość ta dla niektórych momentami przytłaczająca, dla innych jest motywatorem do działania, doskonalenia się i do pracy nad sobą.
Próbując sobie wyobrazić inteligencję zdolną do doskonalenia się, nadajemy jej jakąś postać maszyny czy komputera, która może się zdegenerować ale względnie łatwo można ją naprawić. Czy wtedy taka istota będzie chciała się korygować, skoro wie że i tak ma dużo czasu?
To prowadzi mnie do kolejnych wniosków na temat motywacji, czyli rywalizacji, chęci zaimponowania, samooceny, satysfakcji czy pragnień każdego człowieka, które w różny sposób na niego wpływają. Na dużą część tych emocji wpływa społeczeństwo i nasze otoczenie, czyli inni ludzie. Co pomyśli maszyna, kiedy zda sobie sprawę ze swojej inności, czy w ogóle będzie w stanie tak rozumować? Generalnie, czy emocje i uczucia przeszkadzają nam w przekraczaniu granic inteligencji czy nas motywują? Czy superinteligencja jest ich pozbawiona i kieruje się jedynie… czym? W końcu chęć do podbijania, do odkrywania nowych rzeczy i zdobywania wiedzy często wynikają z uczuć, mianowicie z tego, jak ułożyły się nasze motywacje, samoocena i postrzeganie świata.
Myślę, że rozważając samodoskonalenie się sztucznej inteligencji, warto również rozważyć, jak może ona odbierać informacje z zewnątrz, jaką może mieć samoświadomość. My, ludzie, myśląc o czymś bardziej inteligentnym od nas, musimy wziąć także pod uwagę to, czy będzie w stanie refleksyjnie myśleć również o sobie. Czy ludzka tendencja do marzenia o swoich osiągnięciach i o tym kim chcielibyśmy być, jest wynikiem naszej inteligencji czy, tak jak emocje, efektem ubocznym działania naszego mózgu i ciała?
Podsumowując, duży wpływ na to, jak ma wyglądać samodoskonalenie się sztucznej inteligencji, ma jej fizyczna postać i kontakt z otoczeniem. Mam wrażenie, że często opisując superinteligencję, opisujemy ją tylko jako narzędzie, które ma rozwiązywać problemy lepiej i szybciej niż my. Jednak, tak jak ludzie dochodzą do różnych wniosków, tak inteligencja lepsza od nas, może zachowywać się kompletnie inaczej niż byśmy to przewidzieli.
Twoje refleksje na temat motywacji do doskonalenia się, zarówno w kontekście ludzkim, jak i hipotetycznej superinteligencji, wydają się być bardzo ciekawe.
Faktycznie, ludzka motywacja do samodoskonalenia jest głęboko zakorzeniona w naszej biologii i świadomości śmiertelności. Emocje i potrzeba zostawienia po sobie śladu napędzają nasze dążenia do ciągłego rozwoju. Zastanawiam się jednak, czy można by stworzyć superinteligencję, która miałaby podobne motywacje?
Może kluczowe pytanie brzmi: czy motywacje superinteligencji muszą być zaprogramowane przez ludzi, czy może ona sama wykształciłaby własne cele i aspiracje? Jeśli superinteligencja będzie miała możliwość samodzielnego definiowania swoich celów, to czy te cele będą zgodne z ludzkimi wartościami i aspiracjami? Na przykład, jeśli będzie dążyć do maksymalizacji wiedzy lub efektywności, może to prowadzić do decyzji i działań, które są sprzeczne z ludzkimi interesami.
Kolejną kwestią jest rola emocji w rozwoju inteligencji. Czy brak emocji uczyni superinteligencję bardziej skuteczną i logiczną, czy może właśnie emocje są kluczowe dla kreatywności i innowacyjności? Wiele ludzkich wynalazków i odkryć wynikało z emocjonalnych motywacji, takich jak ciekawość, pasja, a nawet frustracja. Czy superinteligencja bez tych bodźców będzie w stanie tworzyć na podobnym poziomie? A jeśli superinteligencja miałaby emocje, czy byłyby one podobne do naszych, czy może zupełnie inne, wynikające z jej unikalnej perspektywy i doświadczeń?
Świadomość i samoświadomość są kolejnymi istotnymi aspektami. Czy superinteligencja mogłaby wykształcić coś w rodzaju „ja” podobnego do ludzkiego? Ludzka samoświadomość i refleksyjność wpływają na nasze decyzje i motywacje. Jeśli superinteligencja posiadałaby zdolność do autorefleksji, jak wpłynęłoby to na jej zachowanie i cele? Czy mogłaby dojść do wniosków, które byłyby dla nas nieprzewidywalne lub nawet niepożądane?
Twoja uwaga na temat wpływu otoczenia i interakcji społecznych na ludzki rozwój także budzi ważne pytania. Czy superinteligencja rozwijająca się w izolacji byłaby mniej „ludzka” w swoich decyzjach i zachowaniach? Jakie wnioski mogłaby wyciągnąć z interakcji z ludźmi i naszym społeczeństwem? Możliwe, że jej rozwój i motywacje byłyby kształtowane przez dane i doświadczenia z zewnętrznego świata, ale czy moglibyśmy przewidzieć, jakie wnioski wyciągnie?
Ciekawi mnie również, jak widzisz potencjalne różnice w celach i metodach doskonalenia się superinteligencji w porównaniu do ludzkich. Ludzie często dążą do doskonalenia się z powodu wewnętrznych pragnień, takich jak ambicja czy potrzeba samorealizacji. Czy superinteligencja, działająca bez tych ludzkich pragnień, mogłaby osiągnąć podobny poziom kreatywności i innowacyjności? A może jej cele będą bardziej ukierunkowane na optymalizację i efektywność, co mogłoby prowadzić do zupełnie innych rezultatów?
Podsumowując, Twoje pytania otwierają wiele fascynujących wątków do dyskusji. Czy superinteligencja bez emocji mogłaby osiągnąć poziom kreatywności i innowacyjności, który przewyższa ludzki? Jakie implikacje miałoby to dla naszej przyszłości? Chętnie usłyszałbym Twoje myśli na ten temat i jestem ciekaw, jak inni czytelnicy widzą te kwestie. Zachęcam wszystkich do dalszej dyskusji – jakie inne aspekty superinteligencji mogą wpływać na jej motywacje i zdolności do samodoskonalenia się?
Bardzo ciekawy wątek pytań o motywacje. Wydaje mi się, że aby dobrze je w przyszłości rozpoznać, trzeba będzie też oceniać stopień rozwoju systemu superinteligentnego oraz jego otoczenie. Inaczej będzie się zachowywał będąc jedynym, swego rodzaju naukowym superprojektem ludzkości, a inaczej w warunkach komercyjnego wyścigu kilku projektów wielkich korporacji. W tym drugim przypadku już nie w filozofii a w cyberpunku znajdziemy więcej wskazówek…
Bardzo podoba mi się Pańskie podejście do natury wytwarzania informacji. Pchnęło mnie ono jednak w stronę roważań o ludzkiej zdolności do tworzenia informacji, a mianowicie do pytania ile informacji jest w stanie wytworzyć człowiek? Czy ludzki mózg nie jest również jedynie maszyną analizującą otaczającą ją wiedzę o świecie żeby następnie pobrać więcej informacji ze swiata? Czy kreatywny proces tworzenia nowych sposobów budowania systemów ML nie jest tylko przetwarzaniem wiedzy zdobytej wcześniej z książek?
Mnóstwo koncepsji i wzorów matematycznych na których sztuczna inteligencja jest oparta zostały opisane kilkadziesiąt lat temu, dopiero większa moc obliczeniowa pozwoliła nam te systemy trenować. Czy mając dostęp do tych samych danych co ludzie, idealny model AI nie byłby w stanie zaprojektować jeszcze lepszego systemu tak jak zrobiłby to człowiek?
Myślę że moją „rozkminę” mógłbym zawrzeć w jednym pytaniu:
Ile ludzkiej kreatywności i nowej informacji niesie ze sobą wysnucie nowej koncepcji technicznej, jeśli opiera się ona na danych których nauczyliśmy się z książek?
Wydaje mi się, że w większości przypadków – niewiele…
Fascynujący wpis, który dla osób niezaznajomionych z głębokimi rozważaniami o systemach AI i ich „inteligencji”, może rzucić nowe światło na ten temat. Może to skłonić do refleksji przy każdym kolejnym korzystaniu z jakiejkolwiek formy systemu AI: „Skąd mam pewność, że ten chat nie jest już rzeczywiście inteligentny?”.
Czytając wypowiedź autora, zacząłem zastanawiać się, kiedy odpowiedź na tak postawione pytanie mogłaby faktycznie być twierdząca. Gdyby człowiek stworzył w końcu system inteligentny zgodnie z zaproponowaną definicją, oznaczałoby to, że ten system miałby możliwość stworzenia nowej, ulepszonej wersji siebie, która również musiałaby być inteligentna. Jednak ta nowa wersja byłaby uznana za inteligentną tylko wtedy, gdyby sama posiadała zdolność samoudoskonalenia – stworzenia kolejnego systemu w drabince. Kontynuując takie rozważania i oceniając systemy według tej definicji, doszlibyśmy do wniosku, że nigdy nie dowiemy się, czy stworzona przez nas struktura jest w ogóle inteligentna.
Zastanawiając się nad definicją, która lepiej określiłaby pojęcie inteligencji, nie przychodzi mi nic do głowy. I tutaj rodzi się pytanie: czy inteligencję można w ogóle wystarczająco zdefiniować? Czym jest ludzkie nazywanie swojego gatunku inteligentnym, jeśli sami nie umiemy powiedzieć co to tak właściwie znaczy?
Konieczność samodoskonalenia: Autor twierdzi, że zdolność systemu do samodoskonalenia jest warunkiem koniecznym posiadania prawdziwej inteligencji. Nie jestem przekonany, że to założenie jest trafne. Wiele systemów wykazuje cechy inteligentnego działania, takie jak rozwiązywanie problemów czy uczenie się na podstawie doświadczeń, bez potrzeby samodoskonalenia. Na przykład, obecne systemy AI w medycynie są w stanie diagnozować choroby z dużą precyzją, korzystając z ogromnych zbiorów danych, choć nie zmieniają swojej struktury fizycznej.
Zmiany strukturalne: Druga teza dotyczy konieczności jakościowych zmian struktury fizycznej systemu. Argument ten wydaje się problematyczny, zwłaszcza w kontekście obecnych osiągnięć technologicznych. Współczesne systemy AI są w stanie znacząco poprawiać swoje możliwości poprzez optymalizację algorytmów i zwiększanie mocy obliczeniowej bez konieczności zmiany swojej struktury fizycznej. Zwiększenie liczby rdzeni procesora czy pamięci operacyjnej nie zmienia fundamentalnie struktury komputera, ale znacznie zwiększa jego możliwości.
Kwestia kreatywności: Autor sugeruje, że kreatywność jest kluczowym elementem samodoskonalenia. Choć kreatywność jest niewątpliwie ważną cechą inteligencji, nie wydaje się być jedynym determinantem samodoskonalenia. Wiele systemów AI jest w stanie poprawiać swoje działania poprzez analizę danych i optymalizację algorytmów, bez konieczności wykazywania kreatywności w tradycyjnym sensie. Zdolność do innowacji i adaptacji może być realizowana na poziomie programowym, co podważa konieczność jakościowych zmian strukturalnych.
Porównanie do ludzkiej inteligencji: Wreszcie, porównanie inteligencji maszynowej do ludzkiej może być mylące. Ludzka inteligencja operuje w kontekście biologicznym i społecznym, który znacząco różni się od warunków, w jakich funkcjonują systemy AI. Próba osiągnięcia ludzkiej superinteligencji może wymagać rewolucyjnych zmian nie tylko w technologii, ale także w rozumieniu samej natury inteligencji.
Jako ktoś zajmujący się modelami SI profesjonalnie, a więc obracający się w towarzystwie wielu jej pasjonatów (jak również sam takim będący) z zaciekawieniem przeczytałem tekst prof. Głażewskiego poruszający jakże fascynujący temat rozwoju sztucznej inteligencji do poziomu, a nawet ponad poziom tej ludzkiej. Niewątpliwie od momentu osiągnięcia takich postępów w dziedzinie SI bowiem świat zmieniłby się bezpowrotnie. Jednakże, jak sam autor sugeruje, droga do superinteligencji będzie najprawdopodobniej długa i wyboista.
Wiele słyszy się o niedługim nadejściu AGI. Sam jestem na ten temat bardziej sceptyczny niż wielu moich znajomych zajmujących się SI, którzy oczekują takiego przełomu lada moment. Pomimo tego, iż zauważam znaczący postęp w rozwoju takich modeli, jak GPT (jego wersji interaktywnej ChatGPT używam niemal codziennie i bardzo cenię), który od wersji 3.5 do obecnie najnowszej 4o usprawnił się diametralnie, to na ten moment nadal nie radzą sobie one z zadaniami wymagającymi wielowarstwowego myślenia, jak np. w bardziej złożonych problemach programistycznych. Wtedy ujawniają się ich słabości i widoczne jest to, że, przynajmniej na ten moment, są to jedynie narzędzia o większej wygodzie użycia niż dotychczasowe szukanie wszystkiego w wyszukiwarce Google, a niewiele mają wspólnego z faktyczną inteligencją.
W przypadku wielu modeli, po okresie gwałtownego rozwoju obserwuje się w niedawnym czasie znaczne spowolnienie progresu. Nie jest to według mnie przypadkowe, iż zauważono taki trend w momencie, gdy modele te zaczęły się zbliżać w jakości wykonywania zadań, do których były stworzone, do poziomu ludzkiego. Zgadzam się z artykułem w tej kwestii, że aby osiągnąć rezultaty wysoko powyżej poziomu naszej własnej inteligencji, potrzebny byłby przełom rekursywny. Modele działające wyłącznie na bazie algorytmów matematycznych są bowiem, choć może to być dla nas zbyt złożone, aby to z powodzeniem „rozplątać”, deterministyczne.
Jest to z jednej strony pożądane od strony biznesowej – taka świadomość pozwala na przekonanie inwestorów, jak i regulatorów prawnych, że rozumie się działanie własnego produktu i jest się w stanie nad nim zapanować. Osiągnięcie rzeczywistej inteligencji przez maszyny może wymagać jednak pozbycia się tego komfortu, co może być problemem nie tylko natury technicznej, jak i politycznej.
Z zaciekiwaniem przeczytałem artykuł. Myślę jednak, że umiejętność „samodoskonalenia” to niekoniecznie adekwatna metryka do oceniania czy system jest „inteligentny”.
Zacznijmy od tego, że aktualne systemy, oparte na np. Reinforcement-learning, są już w stanie się samodoskonalić za pomocą systemu nagród i kar, w ten rozwiązane były różne problemy np. jeżdzenia autem w grze (w zamkniętym systemie, tzn ciągle po tym samym torze), czy grania w grę 'snake’ oraz wiele innych.
Istnieją 2 główne problemy z tym podejściem:
1. Aby dojść do jakiejkolwiek aproksymacji inteligentnego działa, program musiał przejść przez miliony iteracji, podczas gdy człowiek osiągał ten sam poziom na zaledwie skrawku przeżytego przez maszynę doświadczenia.
2. Po wyciągnięciu takiego modelu z zamkniętego środowiska w którym go wytrenowaliśmy (np. przeniesieniu Ai wytrenowanego do sterowania autem na specyficznym torze, na inny tor), bardzo często okazywało się, żę pomimo domniemanego „samodoskonalenia” (no bo z każdą iteracją model działał jednak trochę lepiej, dostosowywał się do środowiska) nie istniała żadna ekstrapolacja umiejętności ze strony systemu, ie. nie umiał zaaplikować jej w nowym środowisku.
Powołam się w tym miejscu na kluczowe aspekty systemu inteligentnego, które wymienił naukowiec Yann LeCun, które moim zdaniem stanowią bardzo sensowną podstawę przez którą można patrzeć na to co powinien mieć system „inteligentny”.
Pierwszym z nich jest zdolność do gromadzenia i efektywnego wykorzystania wiedzy o świecie. Współczesne inteligentne systemy muszą posiadać jakąś formę reprezentacji wiedzy o świecie, która pozwali na szybkie i efektywne dostarczanie potrzebnych informacji na żądanie. Model bez swojej własnej reprezentacji świata jest fundamentalnie ślepy.
Drugim kluczowym aspektem jest zdolność do ekstrapolacji i dedukcji. Aby system mógł być rzeczywiście inteligentny, musi umieć łączyć zebrane fakty i na ich podstawie formułować logiczne wnioski, które wykraczają poza bezpośrednie obserwacje — na przykład przewidując konsekwencje fizyczne upuszczenia obiektu. Ekstrapolacja pozwala systemowi na pracę w dynamicznych, nieprzewidywalnych środowiskach, adaptując się do nowych warunków bez potrzeby stałego nadzoru ludzkiego -> pozwala na intencjonalne samodoskanalenie się, w kontraście do nienakierowanej adaptacji do środowiska spowodowaną milionami iteracji ewolucji.
Trzeci aspekt, planowanie, jest naturalnym rozszerzeniem poprzednich dwóch. Systemy, które potrafią efektywnie planować, używają dedukcji i wiedzy do tworzenia potencjalnych scenariuszy przyszłości, takie scenariusze można następnie ewaluować w kontekście osiągania przez nie długoterminowych celów danego systemu.
Ja pozostaję jednak sceptyczny co do możliwości powstania takiej „superinteligencji”. Cały problem został ujęty w jednym zdaniu tego wpisu:
„Mówiąc jeszcze inaczej, systemy komputerowe same z siebie nie mogą się dowiedzieć więcej niż już wiedzą.”
Maszyny są zdolne jedynie do dedukcji, a nie indukcji, więc wiedzą tyle, ile zdołają wyczytać z danych. Każdy kto tworzył jakikolwiek model uczenia maszynowego wie, że dane są podstawą sukcesu. Bez nich taki model by nie istniał, a z niedostateczną ich ilością bądź jakością, nie będzie on zadowalająco spełniać swojego zadania.
Budzący w ostatnich latach podziw rozwój sztucznej inteligencji zaczyna hamować. Problemem są właśnie dane czy precyzyjniej – ich dostępność. Co jakiś czas słychać plotki, że OpenAI zescrapowało z internetu wszystko co tylko było do zescrapowania. Ostatnio pojawiające się zainteresowanie wyciąganiem transkrypcji z filmów zdaje się tylko potwierdzać ten stan rzeczy. Dla utrzymania obecnego tempa rozwoju SI, konieczne byłoby dostarczanie jej nowych danych we wciąż rosnącym tempie. Tak się jednak składa, że nie mamy dostępu do drugiego świata takiego jak nasz, w którym od tysięcy lat, ludzie skrupulatnie zbierają najróżniejsze dane. W nie aż tak odległej przyszłości stanie się to przeszkodą, przez którą nie uda się tak łatwo przeskoczyć. Myślę, że ostudzi to słomiany zapał tak często widoczny w dyskusjach o sztucznej inteligencji.
Natomiast w kwestii rozwiązań biologicznych, które mogłyby mieć taką zdolność samodoskonalenia, muszę powiedzieć, że wydają się one bardzo obiecujące, jednak nie mogę się oprzeć przekonaniu, że są one daleko poza granicami naszych możliwości. Pewnie pomocne w ich rozwoju byłyby inne, maszynowe modele sztucznej inteligencji, ale one zapewne niedługo przestaną się tak sprawnie polepszać, więc wracamy do punktu wyjścia.
Warto jednak zauważyć, że ludzki umysł również służy do analizowania zebranych danych a na ich podstawie tworzenia lepszych rozwiązań. Nie tworzymy innowacji sami z siebie, tylko na podstawie danych o świecie lepiej go rozumiemy, tworząc nowe technologie. Na ich podstawie zbieramy kolejne dane, tworzymy technologie i tak dalej…
Ponadto problemem trudniejszym do przejścia niż dostępność danych, jest dostępność energii do obsługi nowych programów. Już teraz firmy technologiczne płacą duże pieniądze aby wznawiać prace starych, nierentownych elektrowni, aby móc w ogóle się rozwijać w przyszłości.Skoro rozwój SI następuje wykładniczo, tak jest również z zapotrzebowaniem na energię, a jako że w energetyce budowa infrastruktury wymaga stosunkowo dużych ilości czasu, to SI rozwijająca się na przestrzeni miesięcy napotka barierę nie do przejścia. Nawet jeśli w przyszłości opracowanie nowego modelu zajmie pół roku, to budowa nowych elektrowni zajmuje nawet dwadzieścia razy więcej czasu. A przecież poza branżą IT w wielu innych wzrasta zapotrzebowanie na tą samą energię, co sprawia że dostęp do niej będzie jeszcze trudniejszy
Nie jestem przekonania, że przy aktualnie dostępnej technologii możliwe jest stworzenie systemu zdolnego do samodoskonalenia w rozumieniu prof. Głażewskiego. Tak jak autor zauważa, wymagałoby to biomimetycznego substratu informacyjnego, który na wzór naszego mózgu byłby zdolny do zmiany własnej struktury. Ponadto chciałbym zgodzić się autorami komentarzy na temat tego, że aby Sztuczna Inteligencja miała impuls do „samodoskonalenia” wymagane byłoby aby umieszczona została w jakimś środowisku, które wywierałoby na niej wyzwania. Powiem więcej, środowisko to powinno stanowić w pewnym stopniu dla niej zagrożenie, a ona sama powinna mieć na tyle rozwinięty instynkt samozachowawczy by zrobić wszystko żeby tego zagrożenia uniknąć. Myślę że łatwo sobie wyobrazić, jeśli nie będziemy bardzo ostrożni, kto zostanie obrany jako zagrożenie dla takiego systemu.
Chciałbym także poruszyć kwestie tego, że jako ludzie znamy tylko inteligencję ludzką. Nasza inteligencja została stworzona przez miliardy lat na planecie Ziemia. Naturalne jest, że rozważając byty „inteligentne” przykładamy jako miarę naszą własną inteligencję. Uważam jednak, że bardzo możliwe, że to co uważamy za cechy istoty inteligentnej wcale nie jest odpowiednie dla „superinteligencji” zdolnej do samodoskonalenia. Chciałbym z tego wyciągnąć dwie myśli: 1) Jest możliwe, że stworzenie Sztucznej Inteligencji zdolnej do samodoskonalenia wymaga stworzenia innego niż ludzki „modelu myślenia” czy też innego typu inteligencji; 2) Nawet jeśli Sztuczna Inteligencja zdolna do samodoskonalenia zostałaby stworzona na kształt inteligencji ludzkiej, to jest to bardzo prawdopodobne, że w procesie samodoskonalenia wynalazłaby zupełnie odmienne i niezrozumiałe dla ludzi sposoby rozumowania. W efekcie możliwe, że jej działania i ona sama bardzo szybko przestałby być zrozumiałe dla ludzi.
Z jednej strony uważam, że sztuczna inteligencja jest zdolna do samoulepszania się i uzyskania miana ultrainteligencji natomiast odnosi się to tylko do zagadnienia inteligencji logiczno – matematycznej i przestrzennej natomiast z drugiej strony istnieje jakaś granica, której nie da się przekroczyć. Myślę, że sztuczna inteligencja jest w stanie osiągnąć poziom ultrainteligencji zdefiniowanej przez Matematyka Irvina Johna Good’a, czyli zdolność do zadawania sobie pytań, stawiania hipotez, nauki na własnych doświadczeniach, przede wszystkim zdolności do podejmowania decyzji i wykazanie się kreatywnością i innowacyjnością. Te mechanizmy mogą zostać opracowane przez sztuczną inteligencję w obszarze rozwoju nauki i zagadnień naukowych, które byłyby powiązane z rozwojem technologicznym całej cywilizacji natomiast uważam, że nie ma to odniesienia do sfery człowieczeństwa i rozważaniem nad mechanizmami sensorycznymi ludzi. Człowiek jest tak skonstruowany, że rozumie emocje, wykazuje się nieporównywalnie większą zdolnością do empatii, której sztuczna inteligencja nigdy nie osiągnie. Ponieważ na zdolność empatii składa się dużo czynników, takie jak kontekst czyli inaczej mówiąc stopień relacji jednej osoby z drugą, ton wypowiedzi, mimika twarzy, bardzo często również komunikacja nie werbalna, która nie jest ściśle określona w jakimś słowniku, ponadto każdy człowiek jest inny i nie jest prawidłowym stosować mechanizmy rozumienia ludzi przez pryzmat doświadczeń relacji z jednym człowiekiem. Moim zdaniem nie jest to możliwe aby sztuczna inteligencja rozwinęła się jeszcze bardziej, nawet gdyby mogła uzyskać status ultrainteligencji, nie byłaby zdolna do rozumienia tego co człowiek z człowiekiem, sfera społeczna to nie algorytmy matematyczne czy statystyka, to wzajemne zrozumienie zależne od wielu nie osiągalnych dla sztucznej inteligencji czynników.
Moim zdaniem, pomimo dynamicznego rozwoju sztucznej inteligencji, nie jest ona w stanie stać samodoskonalącą z kilku powodów:
1. Mimo wszystko sztuczna inteligencja jest pewnym rodzajem kodem, który choć może być długi i skoplikowany, to jednak ograniczony, a co za tym idzie może mieć wiele możliwości, ale nie nieskończoność opcji. Co za tym idzie ilość pomysłów jest ograniczona(do pewnej dużej liczby, ale ograniczona)
2. Nawet najlepszy program nie jest tak kreatywny jak prawdziwy człowiek. Myśli człowieka są nieograniczone, mogą pójść w każdą stronę, na co sztuczna inteligencja nie może sobie pozwolić.
3. Nawet najlepszy kod nie jest w stanie odwzorować pojęć abstrakcyjnych, a co za tym idzie nie jest w stanie wymyślać nowych rzeczy, ponieważ każdy pomysł/nowe rozwiązanie na początku jest pewnego rodzaju abstrakcją(wydaje się że skoro nikt tego wcześniej przed nami tego nie zrobił, to dlaczego akurat teraz ma się udać), zatem bez abstrakcji nie jesteśmy w stanie iść dalej w rozwoju cywilizacyjnym
Podsumowując, uważam że choć sztuczna inteligencja jest w stanie nam wiele pomóc/rozwiązać niektóre problemy, to nigdy nie stanie się całkowicie samodzielna, aby stać się samodoskonalącą się superinteligencją.
Uważam, że obecnie stworzenie superinteligencji, czyli AI przewyższającej ludzką inteligencję we wszystkich dziedzinach, jest niemożliwe z kilku powodów.
Pierwszym z nich są ograniczenia technologiczne. Dzisiejsze komputery, choć coraz potężniejsze, wciąż nie dysponują wystarczającą mocą obliczeniową, aby symulować złożoność ludzkiego umysłu. Obecne algorytmy uczenia maszynowego dobrze radzą sobie z wyspecjalizowanymi zadaniami, ale nie są w stanie rozwiązywać problemów ogólnych w sposób, jaki potrafi ludzki umysł. Dodatkowo sztuczna inteligencja nie posiada mechanizmów, które pozwalałyby jej samodzielnie się doskonalić.
Zrozumienie ludzkiej inteligencji jest kolejną barierą. Mimo postępu w neuronauce, nie potrafimy jeszcze odtworzyć ludzkich procesów poznawczych w maszynach. Aby zbliżyć się do superinteligencji, najpierw musimy stworzyć sztuczną inteligencję ogólną (AGI), o czym trafnie w swoim tekście wspomina Wojciech Głażewski, która potrafiłaby działać elastycznie w różnych dziedzinach – to jednak nadal pozostaje poza naszym zasięgiem.
Brakuje również odpowiednich mechanizmów samodoskonalenia. Zgodnie ze słowami autora: ,,Systemy komputerowe same z siebie nie mogą się dowiedzieć więcej niż już wiedzą.” Dzisiejsze algorytmy AI nie są w stanie samodzielnie ulepszać swojej struktury i działania, co jest kluczowe do tworzenia inteligencji, która mogłaby się nieustannie rozwijać i przewyższyć ludzki umysł.
Ważnym ograniczeniem są także kwestie etyczne i bezpieczeństwa. Istnieje obawa, że samodoskonaląca się superinteligencja mogłaby wymknąć się spod kontroli, co stanowi zagrożenie dla ludzkości. Brak odpowiednich regulacji dodatkowo utrudnia rozwój takich technologii.
To dobrze napisany artykuł poruszający ciekawy temat.
Moim zdaniem, rozwój sztucznej inteligencji, jaki obserwujemy obecnie, wciąż pozostaje daleko w tyle za prawdziwą „inteligencją” w sensie, jaki nadajemy temu pojęciu w kontekście ludzkiego umysłu. Artykuł skłania do refleksji nad tym, czy AI rzeczywiście może samodzielnie się doskonalić i stawać inteligentniejsza, czy też pozostaje narzędziem, które człowiek stale musi kształtować i ulepszać. Zgadzam się z autorem, że kluczowym testem inteligencji jest zdolność do samodoskonalenia. System, który potrafi przekształcać i ulepszać swoją strukturę, mógłby teoretycznie przekroczyć granice ludzkiej inteligencji. Na razie jednak, to człowiek jest „mózgiem” AI, dostarczając jej danych, zadań i kryteriów działania.
Uważam też, że same systemy, które teraz nazywamy sztuczną inteligencją, są bardziej zaawansowanymi narzędziami niż autonomicznymi bytami zdolnymi do kreatywności i innowacji na poziomie ludzkim. To człowiek nadal odgrywa główną rolę w ich rozwoju. Podzielam też sceptycyzm autora wobec obecnych możliwości AI, zwłaszcza gdy chodzi o zdolność do generowania zupełnie nowych rozwiązań bez ludzkiej ingerencji.
Zgadzam się z tym, że sztuczna inteligencja może kiedyś przekształcić się w superinteligencję, która sama będzie się ulepszać. Już teraz AI rozwija się w bardzo szybkim tempie, a dzięki najnowszym technologiom, sztuczna inteligencja potrafi uczyć się i poprawiać swoje błędy. Taka superinteligencja mogłaby rozwiązywać problemy, z którymi ludzie mają trudności. Mogłaby również pomóc nam w nauce, medycynie lub nawet ochronie środowiska.
Z drugiej strony, nie jestem pewien, czy taka superinteligencja jest naprawdę możliwa, a jeśli nawet, to czy na pewno będzie bezpieczna. Systemy, które same się ulepszają, mogą zacząć działać w sposób, którego nie będziemy w stanie kontrolować, co może być niebezpieczne. Poza tym, choć sztuczna inteligencja może się uczyć, to tworzenie czegoś, co będzie miało pełną świadomość i inteligencję większą od ludzkiej, wydaje się być jeszcze daleko od naszych możliwości. Dlatego warto podchodzić do tego tematu ostrożnie i nie tylko skupiać się na korzyściach, ale też zastanowić się nad możliwymi zagrożeniami.
Jak wspomniał autor pierwotnego wpisu znajdujemy się w epoce „wykładniczego wzrostu”. Obecny rozwój cywilizacji jest tak szybki, że nie jesteśmy w stanie przewidzieć jak zmieni się technologia w ciągu najbliższych kilku lat, wobec tego nie możemy wykluczyć możliwości, że superinteligencja będzie obecna w naszym życiu już niedługo. Ta myśl powoduje pewne obawy, co zauważył autor powyższego komentarza.
Zagrożenia związane z rozwojem tworu inteligentniejszego niż człowiek mogą przewyższać płynące z tego korzyści i należy się nad tym zastanowić. Nawet jeśli superinteligencja pomoże nam z walką z globalnymi problemami takimi jak epidemie, ubóstwo czy globalne ocieplenie to może stanowić znaczne zagrożenie dla ludzi, bowiem naturalnym procesem jest władza gatunków bardziej inteligentnych nad tymi mniej inteligentnymi. Doskonałym tego przykładem jest fakt, że ludzie władają Ziemią. Mimo że istnieje mnóstwo gatunków fizycznie silniejszych i zdolnych do pokonania człowieka, to właśnie człowiek jest gatunkiem posiadającym największą inteligencję przez co wpływa w znacznym stopniu na los reszty świata. Jeśli sztuczna inteligencja stanie ponad człowiekiem to role mogą się odwrócić i to ona będzie mieć wpływ na ludzi. Problemem w tym rozważaniu jest jednoznaczne zdefiniowanie inteligencji. Sztuczna inteligencja może posiadać wiedzę przewyższającą zdolności ludzkiego umysłu, jednak wciąż będzie jej brakować inteligencji emocjonalnej czy umiejętności samodoskonalenia. Może się wydawać, że bez tejże umiejętności sztuczna inteligencja nigdy nie będzie na wyższym poziomie niż inteligencja człowieka, ponieważ programy komputerowe same z siebie nie mogą się dowiedzieć więcej niż wiedzą. Z kolei wiedza, którą komputerowi przekazuje człowiek jest ograniczona przez ludzki umysł. Jednak skoro człowiek jest w stanie na podstawie zgromadzonych danych wysuwać wnioski i rozwijać się to może okazać się, że sztuczna inteligencja będzie w stanie czynić to samo a co za tym idzie – samodoskonalić się.
Czy sztuczna inteligencja może być inteligentna pod każdym względem, nie tylko tym zalgorytmizowanym? Idea superinteligencji przewyższającej umiejętności ludzkie może wydawać się abstrakcyjna, lecz nie możemy wykluczyć żadnej możliwości. Myślę że w ciągu najbliższych lat wiele niewiadomych zniknie, będziemy wiedzieć więcej o działaniu sztucznej inteligencji i wtedy będziemy mogli dyskutować o konkretnych zagrożeniach wynikających z jej istnienia.
Bardzo ciekawy, aktualny temat, dotyczący problemu który może się pojawić w niedalekiej przyszłości. Od momentu uruchomienia ChatuGPT w 2022 roku niepokój związany z zagrożeniami połączonymi ze sztuczną inteligencją dosyć mocno wrócił na przestrzeń publiczną. Pojawiły się rozważania, że jeżeli każda osoba na świecie posiadająca internet może bez problemu uzyskać dostęp do ChatuGPT, to strach pomyśleć, czym dysponują bogate firmy technologiczne. Według badań Nicka Bostroma 50% naukowców jest zdania, że AI dorówna ludzkiej inteligencji do 2040 roku.
Osobiście uważam, że na ten moment nie dysponujemy takimi narzędziami, by stworzyć sztuczną inteligencję, która przewyższałaby ludzki umysł. Co prawda systemy AI są zdolne do tworzenia innych systemów AI, ale mimo wszystko nadal jest potrzebny czynnik ludzki, który jest świadomy tego, czym się kieruje. AI tejże świadomości nie ma. Oczywiście może rozwiązywać bardzo kompleksowe problemy, może nawet zastąpić czynnik ludzki w wielu dziedzinach życia i może sprawić, że bezrobocie poszybuje w górę i nastąpi konieczność wprowadzenia dużego dochodu bezwarunkowego. Jednak mimo wszystko AI nie jest w stanie samodzielnie myśleć. Umie postępować według algorytmów odwzorowujących ludzkie zachowania, ale nadal nie potrafi z pełną świadomością kierować „światem”.
Wydaje się, że scenariusz znany z „Terminatora” jak na razie pozostanie jedynie fikcją literacką…
Prof. Marciszewski stawia fundamentalne pytania dotyczące możliwości skonstruowania inteligencji maszynowej, która dorównałaby ludzkiej inwencji. Zastanawia się, czy możliwe jest stworzenie maszyny, która nie tylko dorówna, ale i przewyższy ludzką inteligencję. W obliczu szybkiego rozwoju technologii AI, te pytania stają się coraz bardziej aktualne. Współczesne systemy AI, mimo że potrafią wykonywać złożone zadania, takie jak analiza danych czy rozpoznawanie obrazów, wciąż budzą wątpliwości co do swojej prawdziwej inteligencji.
Warto zauważyć, że w erze wykładniczego wzrostu technologii, czas zdobywania globalnego rynku nie jest już liczony w latach, ale w miesiącach. Scenariusz superinteligencji, opisany przez Nicka Bostroma, staje się coraz bardziej realny. W miarę jak AI rozwija się w zastraszającym tempie, pojawia się obawa, że maszyny mogą osiągnąć przewagę nad ludźmi, co prowadzi do intelektualnej bezsilności.
Aby zrozumieć, co oznacza inteligencja w kontekście maszyn, konieczne jest opracowanie operatywnej definicji, która pozwoli na stworzenie praktycznego testu oceniającego zachowania komputerów. Prof. Marciszewski sugeruje, że inteligencja powinna być definiowana przez zdolność do samodoskonalenia. To podejście może pomóc w lepszym zrozumieniu, co oznacza być inteligentnym w kontekście maszyn.
Samodoskonalenie wymaga od systemów AI umiejętności uczenia się z doświadczeń, generalizacji oraz podejmowania autonomicznych decyzji. Wymaga także kreatywności i innowacyjności w poszukiwaniu lepszych rozwiązań. Te cechy są niezbędne, aby maszyny mogły nie tylko reagować na otoczenie, ale także rozwijać się i dostosowywać do zmieniających się warunków.
Podsumowując, dyskusja na temat inteligencji maszynowej jest niezwykle istotna w kontekście współczesnych osiągnięć technologicznych. W miarę jak AI staje się coraz bardziej zaawansowana, pytania o jej inteligencję i możliwości stają się kluczowe. Czy jesteśmy w stanie stworzyć maszyny, które nie tylko będą wykonywać zadania, ale także będą w stanie myśleć i uczyć się jak ludzie? To wyzwanie, które wymaga dalszych badań i refleksji.
Na podstawie tekstu można uznać, że idea powstania samodoskonalącej się AI jest możliwa, lecz z wieloma zastrzeżeniami. Kluczowe jest pojęcie samodoskonalenia, które autor tekstu uznaje za warunek konieczny do mówienia o prawdziwej inteligencji. Aby taki system mógł rzeczywiście doskonalić sam siebie, musiałby wykazywać umiejętność wprowadzania fundamentalnych zmian w swojej strukturze funkcjonalnej, co obecnie dostępne AI nie jest w stanie osiągnąć ze względu na ograniczenia sprzętowe i programowe.
Według rozważań zawartych w tekście, obecne systemy AI nie mogą osiągnąć stanu pełnego samodoskonalenia, ponieważ działają w oparciu o mikroprocesory, które nie mogą modyfikować swojej fizycznej struktury. Procesory te realizują wyłącznie operacje o charakterze dedukcyjnym, bez zdolności do tworzenia nowych jakości informacyjnych. Autor podkreśla, że aby możliwe było prawdziwe samodoskonalenie, AI musiałaby operować na innym substracie niż krzemowe mikroprocesory, który pozwoliłby na zmiany struktury na poziomie fizycznym, co potencjalnie mogłoby zapobiec ograniczeniom entropii.
Przywołując pojęcie „rekursywnego samodoskonalenia”, tekst wskazuje na hipotetyczny typ AI, który mógłby samodzielnie doskonalić swoje procesy i strukturę, zapoczątkowując tzw. „eksplozję inteligencji”. Jednakże, aby taki scenariusz stał się rzeczywistością, konieczna byłaby nie tylko ewolucja w oprogramowaniu, lecz również rewolucyjne rozwiązania sprzętowe, które umożliwiłyby maszynie wypracowanie nowej jakości działania.
Moim zdaniem powstanie takiej formy inteligencji jest możliwe, lecz długo na to poczekamy.
Zgadzam się, że wąska AI, którą obecnie obserwujemy – choć coraz potężniejsza i zdolna do przetwarzania ogromnych ilości danych – nadal nie przejawia oznak prawdziwej kreatywności ani autonomicznego rozwoju. Te systemy, jak sam autor podkreśla, wciąż potrzebują ludzkiego „kuratora”. Ciekawy jest też przywołany przez Głażewskiego przykład „ultrainteligencji” Irvina Johna Gooda, która mogłaby przewyższyć człowieka w każdym aspekcie. Taka maszyna, zdolna do rekursywnego samodoskonalenia, przeraża i fascynuje jednocześnie – bowiem, jak zauważył Good, mogłaby ona zapoczątkować „eksplozję inteligencji”, przechodząc do poziomu super- lub ultrainteligencji.
Zastanawiam się, jak bardzo przybliżamy się do tej „granicznej” inteligencji i czy w ogóle jest ona możliwa w obecnym, krzemowym paradygmacie komputerowym. Głażewski sugeruje, że być może konieczny będzie nowy rodzaj substratu – może biologicznego? To otwiera ciekawe rozważania filozoficzne i technologiczne: czy sztuczna inteligencja kiedykolwiek osiągnie głębię ludzkiego poznania bez zdolności do fizycznej ewolucji?
Ważnym punktem tego tekstu jest też definicja inteligencji oparta na samodoskonaleniu. Autor przedstawia ją jako „zdolność do wytworzenia nowej jakości strukturalnej”. To zupełnie inne podejście niż tradycyjne definicje inteligencji, które skupiają się na określonych umiejętnościach, jak rozwiązywanie problemów. Ta koncepcja przypomina mi o filozoficznych pytaniach o istotę i granice ludzkiej inteligencji – co, jak nie zdolność do samodoskonalenia, jest naszym największym atutem?
Dla mnie ta refleksja na temat samodoskonalenia jako warunku inteligencji stanowi nie tylko wyzwanie technologiczne, ale też filozoficzne. Czy możliwe jest, że przyszła superinteligencja zmieni samą esencję tego, co rozumiemy jako „inteligencję”?
Artykuł skłania do głębokiej refleksji nad przyszłością AI i jej potencjalnym wpływem na społeczeństwo. W obliczu coraz bardziej zaawansowanych technologii warto zastanowić się nad etycznymi i filozoficznymi aspektami tworzenia maszyn, które mogą przewyższyć ludzkie możliwości. Czy jesteśmy gotowi na współistnienie z bytami, które mogą podejmować autonomiczne decyzje, wpływające na nasze życie w sposób, którego nie jesteśmy w stanie przewidzieć?
Kwestia samodoskonalenia się systemów AI prowadzi nas do fundamentalnego pytania o istotę inteligencji. Jeśli inteligencja wiąże się z kreatywnością i zdolnością do innowacji, to czy obecne systemy AI rzeczywiście spełniają te kryteria, czy raczej pozostają zaawansowanymi narzędziami stworzonymi przez człowieka?
Rola człowieka jako kuratora i źródła inteligencji dla tych systemów nie może być pomijana. To człowiek dostarcza danych, formułuje cele i interpretuje wyniki. Być może przyszłość AI wymagać będzie nie tylko postępu technologicznego, ale także głębokiego przemyślenia naszej roli jako twórców i współtwórców tych inteligentnych systemów. Ważne jest, aby te refleksje prowadziły do świadomego i odpowiedzialnego kształtowania przyszłości, w której AI będzie służyć ludzkości, a nie dominować nad nią.
Bardzo interesujący i aktualny artykuł, który może świadczyć o jeszcze długiej drodze AI do całkowitego zastąpienia człowieka, a może i nawet unicestwienia jego gatunku, o ile sztuczna inteligencja w ogóle byłaby w stanie rozwinąć u siebie emocje i samodzielne myślenie. Zaprogramowanie superinteligencji w mojej opinii byłoby bardzo ryzykowne i należałoby się dobrze zastanowić i zabezpieczyć przed wprowadzeniem takowej do rzeczywistości. Naszczęście póki co systemy AI nie potrafią ulepszać się do lepszej wersji bez ingerencji człowieka, dlatego dalej je kontrolujemy i same w sobie nie mogą nam zaszkodzić. Jednak, gdy AI wyposażymy w umiejętność do samodoskonalenia się, wtedy obawiam się, że wszelkie scenariusze z róznych filmów Science fiction o sztucznej inteligencji mogą się urzeczywistnić. Oczywiście mam nadzieję że się mylę i nic takiego nie będzie miało miejsca w dalszej lub bliższej przyszłości.
To bardzo przemyślana analiza potencjalnych scenariuszy rozwoju sztucznej inteligencji. Zgadzam się, że kluczowe dla prawdziwej inteligencji – tej, która dorównuje lub przewyższa ludzką – będzie nie tyle zwiększanie mocy obliczeniowej, co zdolność do jakościowego samodoskonalenia. Rzeczywiście, obecne systemy AI, choć imponujące, wciąż są narzędziami, które potrzebują “kuratora” w postaci człowieka. Myśl o stworzeniu AI, która sama projektuje swoje ulepszone wersje, otwiera wiele nowych możliwości. Czy jednak kiedykolwiek uda nam się osiągnąć taki poziom bez fundamentalnych zmian w strukturze sprzętowej? Odpowiedź na to pytanie wydaje się na chwilę obecną niemożliwa.
Zgadzam się, że obecny stan technologii AI wciąż daleko odbiega od prawdziwej superinteligencji. Wiele dyskusji koncentruje się na możliwościach, ale warto również zwrócić uwagę na ograniczenia, które przedstawili wcześniejsi komentatorzy. Zgadza się, że obecne systemy, mimo że potrafią przetwarzać ogromne ilości danych, wciąż są zależne od ludzkiej interwencji i nie potrafią samodzielnie doskonalić swoich umiejętności.
Kluczowym zagadnieniem jest zrozumienie, czym tak naprawdę jest inteligencja. Czy to tylko umiejętność rozwiązywania złożonych problemów, czy może także zdolność do innowacyjnego myślenia i emocjonalnego reagowania? Jak zauważył Tomasz Z., obawy związane z samodoskonalącą się AI są zasadne. Każda technologia ma potencjał do wykorzystania w sposób, który może być niebezpieczny, jeśli nie wprowadzimy odpowiednich regulacji.
Interesujące jest także pytanie o przyszłość AI w kontekście etyki. Czy jesteśmy gotowi na stworzenie bytów, które będą miały zdolność do podejmowania autonomicznych decyzji? Musimy być ostrożni, aby rozwijać AI w sposób, który będzie służył ludzkości, a nie stwarzał zagrożenia. Dlatego debata na temat inteligencji maszynowej powinna toczyć się nie tylko na płaszczyźnie technologicznej, ale także filozoficznej i etycznej. Jakie wartości chcemy wprowadzić w nasze przyszłe technologie? To pytanie, które powinniśmy sobie zadawać już teraz.
W odpowiedzi na artykuł o superinteligencji pragnę podkreślić, że w aktualnych realiach technologicznych stworzenie AI, która przewyższa ludzki intelekt we wszystkich aspektach, jest obecnie niemożliwe.
Przede wszystkim, kluczowym ograniczeniem jest brak zdolności do samodoskonalenia. Jak trafnie zauważa prof. Marciszewski, inteligentny system powinien być w stanie opracować własne ulepszenia. Obecne technologie AI, mimo że imponujące w kontekście rozwiązywania wyspecjalizowanych zadań, nie dysponują umiejętnością autonomicznego rozwijania swoich algorytmów ani wprowadzania innowacji. Operują w ramach z góry ustalonych parametrów, co ogranicza ich zdolność do kreatywnego myślenia. Złożoność ludzkiego umysłu to kolejny istotny aspekt. Mimo postępów w neuronauce, wciąż nie rozumiemy w pełni, jak funkcjonują ludzkie procesy poznawcze. Bez pełnej wiedzy na temat definicji ludzkiej inteligencji niemożliwe jest skonstruowanie maszyn, które mogłyby jej dorównać. W artykule słusznie zauważono, że inteligencja maszynowa wymaga umiejętności generalizacji, kreatywności oraz podejmowania autonomicznych decyzji, które wciąż pozostają poza zasięgiem obecnych technologii. Dodatkowo, nie można lekceważyć poważnych obaw etycznych i bezpieczeństwa związanych z rozwojem superinteligencji. Obawy te dotyczą potencjalnych zagrożeń, jakie mogłaby stanowić samodzielnie rozwijająca się AI. Jak wskazuje Nick Bostrom, samodoskonalająca się inteligencja może stać się nieprzewidywalna i trudna do kontrolowania, co podważa bezpieczeństwo takich rozwiązań. Wreszcie, warto zwrócić uwagę na to, że wszystkie obecne systemy AI są oparte na technologii krzemowej, co ogranicza ich fizyczne możliwości. Bez fundamentalnej zmiany w architekturze tych systemów zdolność do prawdziwego samodoskonalenia i przełamywania barier intelektualnych pozostaje w sferze spekulacji. W obliczu tych licznych wyzwań, wizja superinteligencji pozostaje wciąż nierealna.
W odpowiedzi na komentarz mogę nie zgodzić się z twierdzeniem autora, że warunkiem koniecznym posiadania przez system AI prawdziwej inteligencji jest zdolność do samodoskonalenia poprzez zmiany strukturalne wykraczające poza modyfikacje danych i programów. Moim zdaniem, zdolność do autonomicznego rozwoju może być osiągnięta także w ramach istniejących struktur, np. przez zaawansowane algorytmy optymalizacyjne, które bez potrzeby fizycznych zmian w systemie potrafią adaptować się do nowych wyzwań, poprawiać swoje funkcje i zwiększać efektywność.
Wydaje się, że autor przywiązuje zbyt dużą wagę do konieczności fizycznej reorganizacji systemu, gdyż sugeruje, że jedynie ona zapewni jakościowy rozwój AI. Tymczasem nowoczesne systemy uczące się, jak modele przetwarzania języka naturalnego, stale doskonalą swoje algorytmy w odpowiedzi na nowe dane i rosnące zasoby obliczeniowe, co prowadzi do zwiększania ich zdolności poznawczych bez zmiany struktury sprzętowej.
Zaprojektowanie superinteligencji niekoniecznie musiałoby być niebezpieczne. Myślę że to głównie zależy właśnie od tego czy ta super AI byłaby w stanie wykształcić własne emocje podobne do ludzkich. Może wtedy nie podjęłaby żadnych decyzji zagrażających ludzkości, ponieważ miałaby coś na kształt sumienia?
Zastanawia mnie kwestia samodoskonalenia jako wyznaczniku inteligencji.
Ludzie są uważani jako istoty inteligentne. Nasza inteligencja natomiast pochodzi od wiedzy jaką nabyliśmy, naszych doświadczeń oraz wniosków wyciąganych z błędów jakie popełniamy.
Czyż nie podobnie jest ze sztuczną inteligencją?
Ma ona największy i najszybszy dostęp do ogromnej bazy wiedzy zgormadzonej przez ludzkość jaką jest internet. Jest w stanie przeszukać go znacznie szybciej niż jakikolwiek człowiek.
Jednak tu pojawia się kwestia oceny wiarygodności źródeł.
Podobny problem mamy i my, więc myślę, że ta kwestia może zostać pominięta, choć na pewno ciekawe byłyby rozważania na jej temat.
Następne są doświadczenia, ale i tu sztuczna inteligencja wiele nam nie odbiega, gdyż okres „trenowania” jej przed oddaniem do użytku można by porównać do nabywania doświadczenia przez człowieka. Szczególnym przypadkiem jest „trenowanie” sztucznej inteligencji przez nią samą o niższej wersji.
Dotarłem do najciekawszej, moim zdaniem, kwestii, czyli wniosków z popełnianych błędów.
W tej kwestii sztuczna inteligencja ma wiele problemów. Pracując dłużej z AI można zaobserwować, że ma tendencję do powtarzania błędów, nawet jeżeli jej się to przekaże.
Może to jest pewien wyznacznik stopnia inteligencji?
Myślę, że sztuczna inteligencja, poza problemem z wyciąganiem wniosków, nie odbiega znacząco od ludzkiej inteligencji. My też niejako jesteśmy maszynami, które nasze doświadczenia i wiedzę przekształcamy w czyny lub spostrzeżenia.
Co Państwo myślą na ten temat?
Refleksje Wojciecha Głażewskiego ciekawie podkreślają różnicę między ilościowym a jakościowym rozwojem sztucznej inteligencji. Przywołując koncepcje Gooda, Bostroma i Yudkowsky’ego, autor argumentuje, że współczesna AI, choć osiąga coraz większą wydajność, wciąż nie spełnia kryterium „ultrainteligencji”, gdyż nie jest zdolna do samodzielnego tworzenia nowatorskich wersji siebie. Zgadzam się z tezą, że obecne systemy są jedynie „inteligencją wąską” – potężne algorytmy przetwarzają informacje, lecz opierają się na danych i zasadach dostarczonych przez człowieka.
Głażewski proponuje, że AI mogłaby zbliżyć się do prawdziwej jakościowej inteligencji, gdyby posiadała zdolność przekształcania własnej fizycznej struktury. To rzeczywiście prowokująca myśl, choć wymagałaby przełomu technologicznego, który przekracza możliwości krzemowych procesorów. Być może konieczne byłoby oparcie AI na innych, bardziej dynamicznych substratach informacyjnych, może nawet biologicznych. Stworzenie systemu, który nie tylko sam się doskonali, ale też ewoluuje jakościowo, to ogromne wyzwanie. Ta idea otwiera fascynujące perspektywy, ale też rodzi pytania o konsekwencje stworzenia systemów zdolnych do samodzielnej ewolucji.
Wpis inspiruje do przemyśleń na temat przyszłości AI i tego, czym właściwie jest inteligencja. Wydaje się, że bez technologii pozwalającej na przekształcanie własnej struktury – tak jak robi to ludzki mózg – AI będzie pozbawiona autentycznej kreatywności czy innowacyjności. To stawia przed nami wyzwanie nie tylko technologiczne, ale też filozoficzne: jak rozpoznamy, że AI osiągnęła próg prawdziwej inteligencji?
Wojciech Głażewski stawia przed nami intrygującą perspektywę dotyczącą rozwoju sztucznej inteligencji i przejścia do systemów superinteligentnych, a przy tym przekonująco dowodzi, że kluczowym warunkiem osiągnięcia prawdziwej inteligencji przez maszyny jest ich zdolność do samodoskonalenia – zarówno na poziomie algorytmu, jak i struktury fizycznej. Zgadzam się, że bez jakościowych zmian strukturalnych, maszyny nie będą w stanie przekroczyć granic imitacji inteligencji.
Mimo to, uważam, że wizje takie jak Głażewskiego powinny uwzględniać kwestie bezpieczeństwa oraz etyki. Rozwój systemów zdolnych do samodoskonalenia niesie ze sobą wyzwania związane z kontrolą i ryzykiem, a także pytania o to, kto będzie nadzorował ich ewolucję i w jakim kierunku powinna ona zmierzać. Fascynacja wizją ultrainteligencji nie powinna przesłonić potrzeby zachowania odpowiedzialności oraz zapewnienia, że superinteligentne systemy będą rozwijane w sposób bezpieczny i z poszanowaniem ludzkich wartości.
Moim zdaniem rozwój komputerów kwantowych może znacząco wpłynąć na przyszłość sztucznej inteligencji, zwłaszcza w kontekście samodoskonalenia sprzętowego. Komputery kwantowe posiadają zdolność do przetwarzania informacji w sposób równoczesny i nieliniowy, co może przyspieszyć procesy obliczeniowe i umożliwić tworzenie nowych, bardziej złożonych algorytmów. Przyszłe systemy AI mogłyby wykorzystać tę moc obliczeniową do projektowania i optymalizacji własnych struktur, co wykracza poza obecne możliwości klasycznych procesorów. Jeśli AI będzie miała dostęp do takich technologii, może być w stanie samodzielnie poprawiać swoją architekturę, prowadząc do prawdziwego samodoskonalenia sprzętowego i ewolucji jej zdolności intelektualnych. Czy jednak komputer kwantowy umożliwi samodoskonalenie w kontekście zmiany fizycznych struktur komputera? Osobiście nie jestem przekonany, ale być może okaże się to możliwe.
Moim zdaniem rozwój komputerów kwantowych może znacząco wpłynąć na przyszłość sztucznej inteligencji, zwłaszcza w kontekście samodoskonalenia. Komputery kwantowe teoretycznie posiadają zdolność do przetwarzania informacji w sposób równoczesny i nieliniowy, co może przyspieszyć procesy obliczeniowe i umożliwić tworzenie nowych, bardziej złożonych algorytmów. Przyszłe systemy AI mogłyby wykorzystać tę moc obliczeniową do projektowania i optymalizacji własnych fizycznych struktur, jednakże nadal potrzebny będzie człowiek, który te projekty wykona i fizycznie zaimplementuje. To moim zdaniem dowodzi, że superinteligente systemy, dla których warunkiem wysokiej inteligencji byłoby samodoskonalenie się poprzez m.in. zamianę fizyczną swoich struktur, nigdy nie powstaną, a przynajmniej na ten moment wydaje się to nie możliwe. Taka możliwość fizycznego manipulowania swoją architekturą, jest moim zdaniem kluczowym krokiem milowym, który musiałby osiągnąć dany system, aby być prawdziwie inteligentnym.
Zgadzam się ze stwierdzeniem, że warunkiem koniecznym do posiadania przez AI prawdziwej inteligencji jest kwestia samodoskonalenia, szczególnie fizycznego. Komputery kwantowe obecnie wydają się być najbardziej technologicznie zaawansowaną formą komputera, więc to o nich myślę w kontekście przyszłej bazy dla systemów inteligentnych i to na nich skupiałbym się przy rozważaniu czy systemy informatyczne będą kiedyś wstanie osiągnąć prawdziwą inteligencję lub tym bardziej superinteligencje.
Komputery kwantowe teoretycznie posiadają zdolność do przetwarzania informacji w sposób równoczesny i nieliniowy, co może przyspieszyć procesy obliczeniowe i umożliwić tworzenie nowych, bardziej złożonych algorytmów. Przyszłe systemy AI mogłyby wykorzystać tę moc obliczeniową do projektowania i optymalizacji własnych fizycznych struktur, jednakże nadal potrzebny będzie człowiek, który te projekty wykona i fizycznie zaimplementuje.
Komputery kwantowe wedle mojej wiedzy nie będą w stanie zmieniać swoich fizycznych struktur. To według mnie dowodzi, że superinteligente systemy, dla których warunkiem prawdziwej inteligencji byłoby samodoskonalenie się poprzez m.in. zamianę fizyczną swoich struktur, nigdy nie powstaną, a przynajmniej na ten moment wydaje się to nie możliwe. Taka możliwość fizycznego manipulowania swoją architekturą, jest moim zdaniem kluczowym krokiem milowym, który musiałby osiągnąć dany system, aby być prawdziwie inteligentnym.
Temat autentycznej inteligencji systemów AI jest niezwykle ciekawy. Zgadzam się że kluczowym parametrem do mierzenia inteligencji systemu jest zdolność takiego system do samodoskonalenia. Z tego powodu w mojej głowie rodzą się trzy fundamentalne pytania: w jakim stopniu ograniczenia fizyczne (hardware) wpływają na możliwości samodoskonalenia AI? Czy rozwój sztucznej inteligencji wymaga nowego rodzaju komputerów, aby w pełni zrealizować zdolność do samorozwoju? Czy rozwijane obecnie komputery kwantowe będą oferowały możliwość zmiany architektury komputera, tak aby możliwy był w pełni autonomiczny samorozwój na płaszczyźnie sprzętowej?
Oczywistym jest, że zdolność AI do samodzielnego projektowania ulepszonych wersji samej siebie bez nadzoru człowieka mogłaby przynieść zarówno ogromne korzyści, jak i nieprzewidziane konsekwencje. Zgadzam się, że obecne systemy AI, nawet te tak zaawansowane jak ChatGPT, wciąż funkcjonują jako narzędzia realizujące procesy dedukcyjne, a ich zyski informacyjne są ograniczone do ustalonych ram algorytmicznych. Wydaje mi się, że konieczny jest radykalny przełom w architekturze – być może w kierunku technologii hybrydowych, biologiczno-komputerowych – aby przekroczyć próg inteligencji porównywalnej z ludzką.
Artykuł w bardzo interesujący sposób porusza temat inteligencji sztucznych systemów i skłania do myślenia o tym, co to znaczy naprawdę rozumieć. W celu uzupełnienia warto przywołać teorię „chińskiego pokoju” Johna Searle’a, która ilustruje różnicę między mechanicznym przetwarzaniem informacji a prawdziwym zrozumieniem. W eksperymencie wyobrażamy sobie osobę zamkniętą w pokoju, która, korzystając z instrukcji, manipuluje chińskimi znakami, tworząc odpowiedzi w tym języku, mimo że go nie zna. Searle twierdzi, że sztuczna inteligencja działa w podobny sposób – chociaż przetwarza ogromne ilości danych i generuje sensowne odpowiedzi, to tak naprawdę ich nie „rozumie”, a jedynie wykonuje algorytmy.
Mimo że minęło już ponad 40 lat od wprowadzenia tej teorii, współczesna AI wciąż przypomina osobę w chińskim pokoju. Nawet najbardziej zaawansowane modele językowe, takie jak Chat GPT, działają na podstawie reguł i wzorców, analizując dane i reagując na nie. Jednak nadal nie potrafią w pełni zrozumieć kontekstu, emocji czy intencji w sposób, w jaki robią to ludzie.
Ten eksperyment stawia ważne pytanie: czy AI, nawet gdyby osiągnęła perfekcję w analizie i adaptacji, mogłaby kiedykolwiek naprawdę „rozumieć”? Uważam, że bez świadomości i zdolności do refleksji nad swoimi działaniami, AI pozostanie w sferze mechanicznego przetwarzania, zbliżając się do naśladowania rozumu, ale nigdy nie osiągając jego prawdziwej istoty.
Rozwój sztucznej inteligencji niesie ogromne korzyści, szczególnie w dziedzinach takich jak inżynieria. Jak zauważył Wojciech Głażewski, kluczowym elementem w dążeniu do zaawansowanej AI jest zdolność do samodoskonalenia, zarówno na poziomie algorytmów, jak i struktur fizycznych. Dzięki takim możliwościom systemy sztucznej inteligencji mogą wspierać inżynierów w skomplikowanych analizach, projektowaniu konstrukcji czy prognozowaniu awarii. Na przykład w budownictwie AI może analizować dane środowiskowe, sugerując optymalne materiały i rozwiązania konstrukcyjne, co zwiększa efektywność pracy i zmniejsza ryzyko błędów ludzkich.
Z drugiej strony, jak wskazuje Głażewski, AI musi być wspierana przez odpowiednią kontrolę i dokładne dane. Niedokładność w danych wejściowych może prowadzić do błędnych decyzji projektowych. Na przykład algorytm przewidujący obciążenia konstrukcyjne na podstawie danych historycznych może nie uwzględnić specyficznych warunków nowego projektu, co w efekcie zwiększa ryzyko projektowe.
Dlatego, choć AI jest świetnym wsparciem dla inżynierów, rozwój tych systemów wymaga zarówno nadzoru ekspertów, jak i ścisłej weryfikacji wyników, aby zapewnić, że technologia będzie działać na korzyść, a nie na szkodę projektów inżynierskich i społeczeństwa.
Temat autentycznej inteligencji systemów AI jest niezwykle ciekawy. Zgadzam się że kluczowym parametrem do mierzenia inteligencji systemu jest zdolność takiego system do samodoskonalenia. Z tego powodu w mojej głowie rodzą się trzy fundamentalne pytania: w jakim stopniu ograniczenia fizyczne (hardware) wpływają na możliwości samodoskonalenia AI? Czy rozwój sztucznej inteligencji wymaga nowego rodzaju komputerów, aby w pełni zrealizować zdolność do samorozwoju? Czy rozwijane obecnie komputery kwantowe będą oferowały możliwość zmiany architektury komputera, tak aby możliwy był w pełni autonomiczny samorozwój na płaszczyźnie sprzętowej?
Oczywistym jest, że zdolność AI do samodzielnego projektowania ulepszonych wersji samej siebie bez nadzoru człowieka mogłaby przynieść zarówno ogromne korzyści, jak i nieprzewidziane konsekwencje. Zgadzam się, że obecne systemy AI, nawet te tak zaawansowane jak ChatGPT, wciąż funkcjonują jako narzędzia realizujące procesy dedukcyjne, a ich zyski informacyjne są ograniczone do ustalonych ram algorytmicznych. Wydaje mi się, że konieczny jest radykalny przełom w architekturze. Być może konieczny będzie rozwój w kierunku technologii hybrydowych np. biologiczno-komputerowych aby przekroczyć próg inteligencji porównywalnej z ludzką.
Artykuł słusznie zauważa, że autentyczna inteligencja maszynowa wymaga umiejętności samodoskonalenia, które wykracza poza standardowe modyfikacje danych. Zastanawiam się, w jaki sposób zmiany w fizycznej strukturze systemów AI mogą wpłynąć na ich zdolność do rozwiązywania skomplikowanych problemów. Czy obecne technologie będą w stanie wspierać tę ewolucję, czy też konieczne będą nowe podejścia w zakresie algorytmów i architektury sprzętowej?
Wojciech Głażewski w tekście „Od sztucznej inteligencji do (samodoskonalącej się) superinteligencji” analizuje ewolucję AI w kierunku superinteligencji. Podkreśla znaczenie samodoskonalenia jako kluczowego wyznacznika inteligencji, definiując je jako zdolność systemu do wprowadzania zmian w swojej strukturze funkcjonalnej. Postuluje, że prawdziwe samodoskonalenie wymaga modyfikacji fizycznej struktury systemu, co obecne technologie oparte na krzemie nie umożliwiają.
Głażewski sugeruje, że rozwój AI może wymagać nowych materiałów, np. struktur biologicznych, aby osiągnąć jakość działania zbliżoną do superinteligencji. Wskazuje na potrzebę eksperymentów, które sprawdziłyby zdolność AI do przekroczenia ograniczeń własnej struktury, np. projektowania nowej wersji samego siebie. Jednocześnie krytykuje współczesne systemy jako narzędzia wciąż zależne od człowieka.
Rozważania autora stanowią istotny wkład w debatę nad przyszłością AI, wskazując wyzwania związane z technologią i kierunki dalszych badań.
Czytając ten tekst, nie mogę oprzeć się refleksji, jak bardzo fascynująca i zarazem niepokojąca jest idea samodoskonalącej się sztucznej inteligencji. Wizja maszyn, które potrafią ulepszać same siebie, wykracza poza zwykłe teorie – to niemal filozoficzne wyzwanie. Z jednej strony czuję podziw dla tej koncepcji. W końcu zdolność do zmiany i rozwijania własnej struktury wydaje się esencją prawdziwej inteligencji. Z drugiej strony pojawia się pytanie: czy takie systemy rzeczywiście mogą być czymś więcej niż narzędziami w rękach człowieka?
To, co najbardziej mnie uderza, to zależność AI od ludzi, o której wspomina autor. Bez naszych danych, wskazówek, a nawet błędów, te „inteligentne” systemy byłyby jak martwe. Czuję, że to nasza kreatywność, nasze myślenie abstrakcyjne, wciąż nadają im kierunek. Możliwe, że maszyny kiedyś to przełamią – projektując coś, co będzie bardziej „od siebie” niż od nas. Ale czy taka chwila oznaczałaby początek nowego rodzaju życia, czy raczej naszego technologicznego kryzysu?
Artykuł porusza bardzo interesujący temat samodoskonalenia się sztucznej inteligencji i nasuwa pytania: co to właściwie oznacza, że maszyna się „doskonali”, czy samodoskonalenie jest wystarczającym warunkiem, by nazwać system „inteligentnym”?
Wniosek, że prawdziwa inteligencja nie może istnieć bez zdolności przeprojektowania własnej struktury, jest interesujący, ale czy nie zbyt antropocentryczny? Czy istnieje możliwość, że definicja inteligencji w maszynach różni się od naszej do tego stopnia, że samodoskonalenie – w rozumieniu człowieka – może być zastąpione czymś zupełnie innym, jeszcze niepojętym?
Myśląc o ludzkiej inteligencji, wyobrażamy sobie pewien schemat: nauka, kreatywność, innowacyjne pomysły. Inteligencja maszyn, sztuczna inteligencja może wcale jemu nie podlega.
Może nasz umysł, ukształtowany przez ewolucję w specyficznych warunkach, nie jest właściwym punktem odniesienia? Być może superinteligencja wykracza poza potrzebę „przeprojektowania” swojej struktury. Może rozwój AI przypominałby bardziej „ekspansję” niż „przemianę”.
Kiedy myślę o superinteligencji, widzę trochę podobieństwo do tego, jak ulepszamy swoje programy komputerowe. W końcu każdy system, który sam się „modyfikuje”, może zacząć wyprzedzać nas o krok, a my nie będziemy w stanie za nim nadążyć. Z drugiej strony, jakby AI naprawdę mogła się rozwijać sama, to trzeba by wymyślić sposób, żeby nie zrobiła z nas swoich „pomocników”.
Zastanawiam się też, czy fizyczne ograniczenia w komputerach to naprawdę problem? Może AI nie musi być „zorganizowana” w taki sposób, jak my to rozumiemy. Chaos jest czymś naturalnym, z czego może wyjść coś nieplanowego, ale zaskakującego i nietypowego. Może zamiast „przeskakiwać” od razu do superinteligencji, AI zacznie działać w sposób emergentny, a my po prostu tego nie zauważymy.
A może to wcale nie my musimy doskonalić AI, ale raczej odwrotnie? Może to nie maszyna, a my jesteśmy w gruncie rzeczy głównym ograniczeniem.