O zdolności AI do ewolucji z punktu widzenia historyka nauki

Ten wpis jest inspirowany komentarzem Jarka z 27 maja. Wydaje mi się, że samorzutna ewolucja sztucznej inteligencji, która może się doskonalić bez udziału programistów, jest to proces jakoś analogiczny do samorzutnej ewolucji ważnych problemów naukowych. Przejawia się to w fakcie, że problem doznaje rozwiązania, czyli dokonuje się pewne odkrycie, przez iluś uczonych działających niezależnie od siebie wzajem.

I tak, Vieta i Kartezjusz wprowadzają do formuł matematycznych zmienne indywiduowe, co było konieczne, żeby mógł spod ręki Fregego wyjść Begriffschrift.

Leibniz i Newton tworzą równocześnie i niezależnie rachunek r. i c.

Nie wiedząc o sobie wzajem dochodzą do algebry logiki w wieku XVII i XIX matematycy brytyjscy i kontynentalni.

Tak samo się dzieje z powstaniem rachunków zdań i kwantyfikatorów w pracach Fregego, Peano i Russella.  Podobnie z początkami teorii mnogości: Dedekind i Cantor.

Teoria względności (ogólna i szczególna): Einstein, Poincare, Hilbert.

Nierozstrzygalność logiki predykatów: Turing, Post, Church, wszyscy w roku 1936.

Poprzestaję tymczasem na tym prostym zestawieniu, odkładając jego interpretację na później.

Ten wpis został opublikowany w kategorii Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

Komentarze do O zdolności AI do ewolucji z punktu widzenia historyka nauki

  1. Olaf Werner pisze:

    A to w jakim kontekście dokładniej jest napisane? Chodzi o to że nawet jak nauka stanie się tajna to i tak architektury AI zostaną odkryte przez samo AI lub przez badaczy?

  2. Jarek pisze:

    Ta analogia jest bardzo użyteczna. Nawet jeśli zrezygnujemy w niej z poszukiwań odkryć dokonanych równolegle przez różne osoby w tym samym czasie.

    Czy jest sens w porównywaniu intelektu Stefana Banacha z jednej, a Pitagorasa z drugiej strony? Który był większym matematykiem? Banach pisał o rzeczach, które dla większości z nas, jemu niemal współczesnych są trudne do pojęcia. Pitagoras o trójkątach i kwadratach, o których uczy się dzisiaj dzieci w szkole podstawowej (ale dla Greków też były nowością).

    Myśl ludzka nie powstaje ex nihilo, jest odzwierciedleniem otoczenia, w jakim wychował się człowiek. Konkretny człowiek. A że zbiorowa wiedza rośnie, to problemy matematyczne, jakimi zajmował się Banach, stoją wyżej, niż te z czasów Pitagorasa. Ewolucja biologiczna nie miała czasu uczynić Banacha lepszym od Pitagorasa, tak samo jak Michała Anioła nie możemy uważać za bardziej predestynowanego do twórczości artystycznej od anonimowych malarzy z groty Lascaux. Cały postęp zawdzięczamy zbiorowej ewolucji kulturowej. Można też powiedzieć — jak Autor notatki — że „ewoluują problemy naukowe” i czekają na rozwiązanie.

    Porzuciliśmy już myśl, że uda się stworzyć myślącą maszynę przez cierpliwe opisywanie jej wszystkich procesów decyzyjnych konstrukcjami „if-then-else” jakiegoś języka programowania. Jeśli za (zgrubną) definicję inteligencji przyjmiemy „zdolność do radzenia sobie w nowych sytuacjach”, to ta maszynowa ma szansę przy naszym udziale jeszcze się doskonalić. To, co przetwarza informacje, informatycy nazywają „silnikiem” (engine), jeszcze (przy naszej pomocy) podlegać będzie ewolucji, którą można porównać do ewolucji biologicznej. Ale to, jak wyglądać będą systemy SI, zależeć będzie bardziej od tego, jaki świat im pokażemy, dając im materiał do „przemyśleń”.

    Czy te systemy mogą wykonywać zadania wymagające inteligencji lepiej od nas? Jestem o tym przekonany. To już się dzieje. Inteligentny bibliotekarz jest ceniony przez czytelników za to, że potrafi podsunąć im właściwą lekturę. Sztuczne systemy działające podobnie do indeksu Google mogą to zrobić szybciej i lepiej. Ale to są zadania, tylko zadania.

    Czy przed Banachem koś stawiał jakieś zadania? Nie. Wszystkiego nauczył się sam. Bo chciał. Potem chciał do gmachu wiedzy dodać coś od siebie. Inteligencja, taka jak z proponowanej definicji, „zdolność do…”, to za mało do rozwoju cywilizacji. Trzeba czegoś więcej, choćby „chcenia”. I jeszcze wielu rzeczy, które z braku miejsca pominę. Czy maszyny czegoś chcą? Nie sądzę.

    • pS pisze:

      Trudno mi się zgodzić z tym, że Banach nie dostał żadnego zadania. Czy każde środowisko społeczne nie stawia przed swoimi członkami niewypowiedzianych wprost oczekiwań? Banach żył w kontekście naukowym, gdzie matematyka była ceniona – to środowisko stwarzało zapotrzebowanie na matematyczną twórczość.

      Każda jednostka posiada określone predyspozycje, ale społeczeństwo w dużej mierze określa, które zostaną rozwinięte. Dziecko z talentem muzycznym w rodzinie muzyków stanie się prawdopodobnie muzykiem, to samo dziecko w rodzinie inżynierów może nigdy nie odkryć swojego potencjału artystycznego, bo nigdy nie dostało takiego „sygnału” od swojego środowiska.

      Czy Banach rzeczywiście „chciał” uprawiać matematykę w sposób całkowicie autonomiczny? Być może jego „chcenie” było wypadkową naturalnych zdolności i społecznych oczekiwań. To, co nazywamy wewnętrzną motywacją, może być tak naprawdę internalizacją zewnętrznych sygnałów.

      Być może każda jednostka jest tylko „programowana” przez swoje środowisko – otrzymuje zestaw wartości i celów, które internalizuje i realizuje. W tym kontekście różnica między Banachem a systemem SI nie jest taka duża – obaj otrzymują zadania od swoich „społeczności” i realizują je zgodnie ze swoimi możliwościami. Tylko mechanizmy przekazywania tych zadań są skrajnie różne.

      • Jarek pisze:

        Banach żył w kontekście naukowym, gdzie matematyka była ceniona – to środowisko stwarzało zapotrzebowanie na matematyczną twórczość.

        Banach żył w — jak byśmy to dzisiaj określili — dysfunkcyjnej rodzinie. Nie wiem, na co środowisko to stwarzało zapotrzebowanie, ale na pewno nie na matematykę. A jednak… Wszystkie znane mi przypadki potwierdzają regułę, że matematykiem zostaje się w dzieciństwie albo wcale.

        • pS pisze:

          Ma Pan rację co do przesadnego uproszczenia – Banach rzeczywiście dorastał w trudnych warunkach rodzinnych, z dala od uniwersyteckich salonów. Jednak nadal uważam, że oczekiwania i wzorce otoczenia pozostają głównym czynnikiem kierującym ludzkimi działaniami.

          Może matematykiem zostaje się w dzieciństwie przez zrządzenie losu – jakieś losowe czynniki kształtujące wczesne schematy myślowe. Nasze życia są kierowane schematami powstałymi wskutek relacji z rzeczywistością i nabytymi doświadczeniami. Działamy według tych wewnętrznych wzorców, wykonujemy każdego dnia małe zadania zlecane przez tę zaprogramowaną część nas samych. Nie do końca „chcemy” świadomie – jesteśmy zakładnikami swoich umysłów ukształtowanych w pewien sposób.

          Nawet gdy wydaje nam się, że przełamujemy rodzinne wzorce czy tworzymy coś zupełnie nowego, często działamy według innych schematów – buntu, kreatywności, autokreacji – które również zostały nam dostarczone przez świat. Nawet nasze pojęcie „wyjątkowości” jest kulturowo nadane. To, co uznajemy za kreatywne, definiują społeczne kryteria, które nie powstały w próżni. Sama potrzeba bycia „twórczym” to nadany schemat kulturowy.

          Sztuczna inteligencja jest pozbawiona tego rodzaju autonomicznych schematów generujących zadania. Różnica jest fundamentalna: człowiek ma złudzenie autonomii w ramach nadanego systemu, SI nawet tego złudzenia nie posiada. Ów generator celów nie powstaje zbudowany przez nas samych – lecz jest nam „nadawany” przez świat, w którym się kształtujemy.

          Ostatecznie, nawet ta moja mała analiza dzieje się według wzorców dyskursu filozoficznego, które mi przekazano. Nie wymyśliłem sposobu argumentacji, tylko go odziedziczyłem i reprodukuję. Sama „chęć” odpowiedzi na Pana komentarz, potrzeba udziału w dyskusji – to również nadane schematy zachowań intelektualnych, które moja rodzina, społeczeństwo i świat we mnie „zainstalowały”.

  3. wm pisze:

    Nie wydaje mi się, żeby było to dobre porównanie. Nie wydaje mi się też, by ewolucja sztucznej inteligencji była możliwa bez udziału programistów, tak samo jak ewolucja pewnych idei czy rozwiązań problemów w nauce wymienionych we wpisie nie była możliwa bez udziału matematyków czy fizyków.

    Pojawianie się pewnych przełomów w nauce w różnych miejscach, czasach, niezależnie od siebie jest naturalną koleją rzeczy wynikającą z potrzeb ludzkości. Zależność zwana dziś najczęściej „twierdzeniem Pitagorasa” została odkryta w wielu cywilizacjach, które nawet o sobie nie słyszały, bo ludziom potrzebny był sposób na skuteczne mierzenie odległości. Tak samo z wieloma innymi rewolucjami w nauce, które zostały odkryte niezależnie przez więcej niż jedną osobę. Newton potrzebował narzędzia do rozwiązania problemów z mechaniki, by opisać dynamikę przyrody, w szczególności ruchy planet. Leibniz potrzebował narzędzia do zagadnień geometrycznych, takich jak długości krzywych. Dla obu z nich istniejące ówcześnie narzędzia matematyczne okazały się niewystarczające i potrzeba okazała się matką wynalazku.

    Podobnie jest z rozwojem AI. AI wykorzystywane jest w coraz większej liczbie dziedzin, odkrywane są nowe problemy, z którym przodownicy w rozwoju AI, tacy jak OpenAI, Google, Anthropic, DeepSeek i inni, próbują radzić sobie często niezależnie od siebie. Często jest to „wyścig zbrojeń”, w którym ten, kto pierwszy wprowadzi jakieś udoskonalenie (np. DeepSeek wprowadzając model open-source, który radził sobie wyraźnie lepiej od konkurencji w benchmarkach takich jak MATH czy LiveCodeBench, a koszt jego treningu był ułamkiem kosztów typowych dla innych firm).

  4. JR pisze:

    Uważam, że analogia między równoległymi odkryciami w nauce a ewolucją SI, która „doskonali się bez udziału programistów”, jest trafna, ale wymaga doprecyzowania. Zgadzam się, że w obu przypadkach obserwujemy zjawisko, gdzie pewne rozwiązania wyłaniają się niezależnie, często z racji dojrzałości problemu lub panujących potrzeb. To właśnie istota historii nauki – dążenie do prawdy, napędzane ciekawością i praktyką, często prowadzi do podobnych konkluzji w różnych umysłach, w różnych zakątkach świata.

    Jednak kluczowa różnica leży w mechanizmach napędowych tej ewolucji. W nauce, choć problemy „ewoluują” i czekają na rozwiązanie, to ich rozwiązanie jest efektem świadomego, ukierunkowanego działania ludzkiego umysłu. Jest to proces, w którym naukowcy, kierując się intuicją, doświadczeniem, pasją etc. aktywnie poszukują, testują i weryfikują hipotezy.

    W przypadku SI, choć faktycznie obserwujemy jej doskonalenie w wielu aspektach (np. poprawa wyników w benchmarkach, bardziej złożone zachowania), dzieje się to na innej płaszczyźnie. Mamy tu do czynienia z „przypadkową koniecznością”. Algorytmy nie „chcą” rozwiązywać problemów ani dążyć do prawdy. One po prostu optymalizują się zgodnie z funkcją celu zadaną przez programistów, adaptując się do danych i wzorców. To, co wydaje się „ewolucją bez udziału programistów”, jest w dużej mierze efektem ogromnych zbiorów danych, coraz bardziej złożonych architektur i, co najważniejsze, emergentnych właściwości wynikających z tej skali i złożoności, których twórcy sami nie byli w stanie przewidzieć.

    Ta „przypadkowa konieczność” objawia się w tym, że algorytmy, w procesie optymalizacji, mogą „odkrywać” rozwiązania, które są dla nas zaskakujące, efektywne, a nawet kreatywne. To jednak nie jest ewolucja napędzana wewnętrzną motywacją, ale raczej automatyczna adaptacja do środowiska danych, w którym się znajdują.

    Analogia z historią nauki jest więc trafna, ponieważ zarówno w nauce, jak i w rozwoju SI, obserwujemy wyłanianie się rozwiązań dla istniejących problemów. Różnica leży w podmiocie tej ewolucji – w nauce jest to ludzki umysł z jego złożonością poznawczą i motywacyjną, w SI jest to zbiór algorytmów, które, choć osiągają imponujące rezultaty, nadal działają w ramach determinowanych przez ludzi.

    • Piotr Wojcik pisze:

      Podejdę do tego z troche bardziej „metaforycznej” strony.

      Rozróżnienie między świadomym dążeniem naukowca a „ślepym” doskonaleniem się algorytmu przypomina mi różnicę między kompozytorem a instrumentem. Owszem, instrument (czytaj: SI) może wydać z siebie piękne, poruszające dźwięki, ale to nie on wie, dlaczego dana melodia porusza serce – on po prostu rezonuje zgodnie z prawami fizyki, formą i impulsem. Kompozytor – naukowiec – to ten, kto świadomie eksperymentuje, czuje kontekst, wybiera nuty nie tylko dlatego, że „pasują”, ale bo niosą znaczenie.

      I tu właśnie – moim zdaniem – leży sedno tej trafnej uwagi. Ewolucja SI może przypominać konwergencję idei w nauce, ale brakuje jej tej iskry – intencjonalności. SI może odkryć coś, co wygląda jak błysk geniuszu, ale nie zapaliła tej zapałki z premedytacją. Zrobiła to, bo optymalizacja tak wypadła. Geniusz człowieka? On często działa pomimo funkcji celu, nie zgodnie z nią.

      Zatem tak – analogia działa, ale raczej jako obraz podobnych rezultatów zrodzonych z fundamentalnie różnych źródeł. Nauka to opowieść o woli zrozumienia. SI – o możliwościach skali i emergencji. Obie fascynujące, ale nie do końca tym samym językiem pisane.

  5. Aleksander Szulc pisze:

    Jedna rzecz, której chyba jeszcze nikt nie poruszył, w historii nauki rozwój idei nie polegał tylko na tym, że ktoś coś wymyślił – ważne było też to, że inni się z tym spierali, poprawiali, albo totalnie odrzucali. Nauka to był (i nadal jest) zbiorowy proces: dyskusje, krytyka, wzajemne inspiracje. A AI, nawet jeśli sama coś „odkrywa”, to przecież nie wchodzi w żaden dialog z innymi AI. Nie ma tam sporów o rację, nie ma „hej, to twoje rozwiązanie jest złe”. Jak AI miałaby naprawdę ewoluować, to musiałaby umieć nie tylko liczyć i trenować modele, ale też dyskutować z innymi – jak równy z równym. Czyli nie tylko dane i algorytmy, ale coś w rodzaju sztucznej społeczności.

    • Cloudburst pisze:

      Trudno się z tym nie zgodzić, jeśli analizujemy ludzki proces poznawczy. Zastanawiam się jednak, czy takie podejście, opierające się na ludzkim modelu dialogu i konkurowania idei, jest niezbędne, by mówić o rzeczywistej ewolucji SI.

      Niewykluczone, że już jesteśmy na wczesnym etapie powstawania sztucznej proto-społeczności, która choć daleka od ludzkiego ideału debaty, zaczyna w pewnym sensie dziedziczyć wiedzę i wymieniać strategie. Modele SI uczą się dziś na danych generowanych przez inne modele – nie tylko przez człowieka. Przykłady:

      – Self-distillation – model „uczy się” od swojej poprzedniej wersji, poprawiając własne odpowiedzi. To trochę jak wewnętrzna krytyka lub refleksja nad wcześniejszymi poglądami.

      – Fine-tuning na outputach innych modeli – np. tuning mniejszych modeli na wynikach dużych, jak GPT-4. To przypomina relację między nauczycielem a uczniem.

      – Model criticism pipelines – testowanie hipotezy jednego modelu za pomocą drugiego. To jeszcze nie dyskusja, ale już forma autonomicznej weryfikacji.

      Brak „dialogu” w sensie ludzkim niekoniecznie oznacza braku ewolucji. Być może to my musimy porzucić przywiązanie do form, które same w sobie są tylko narzędziami – i uznać, że poznanie może przyjmować inne postacie, jeśli tylko spełnia swoją rolę tworzenia nowych, lepszych modeli rzeczywistości.

  6. Kacper P pisze:

    Osobiście nie porównywałbym SI do wielkich naukowców jakiegokolwiek okresu w dziejach. Tak sztuczna inteligencja się rozwija i oczywiście można się zgodzić, że jest ona coraz silniejsza, natomiast jeszcze przez długi czas bez czujnego oka programisty, nie będzie w stanie sama w pełni perfekcyjnie działać, a przecież o to w tym wszystkich chodzi, że ma być niezawodnym przyjacielem, który poda nam pomocną dłoń. Spójrzmy na przykład na problem związany z generowaniem obrazków, choć coraz doskonalsze, to Internet jest wręcz zalany niskiej jakości obrazkami wygenerowanymi właśnie przez sztuczną inteligencję, która potem ona ponownie pobiera jako swojego rodzaju przykład do utworzenia nam tego o co poprosiliśmy. Bez czujnego oka programistów mogłoby szybko dojść od sytuacji, gdzie to właśnie sztuczna inteligencja sama siebie wyniszczyła, a nie stworzyła od nowa w lepszej wersji. Trzeba pamiętać, że sztuczna inteligencja na pewno jest silniejsza od człowieka pod względem mocy obliczeniowej i ilości informacji, która jest w stanie przetworzyć, a potem nam “wypluć”, jednak ona nadal bazuje na tym co pokazał jej człowiek. To wielkie umysły programistyczne pokazały jej drogę a ona nią tylko podąża, a gdy się zgubi, trzeba jej pomóc wrócić na odpowiedni tor.

    • Natan D pisze:

      W pełni zgadzam się z twoim spojrzeniem. Rzeczywiście, choć rozwój sztucznej inteligencji jest imponujący, to wciąż pozostaje ona narzędziem — nawet jeśli bardzo zaawansowanym. Bez nadzoru nie będzie w stanie sama krytycznie spojrzeć na dane z których się uczy.

      To, co piszesz o zalewie niskiej jakości treści, np. obrazków generowanych bez kontroli, jest bardzo trafne. Pokazuje to, że technologia bez odpowiedniego kontekstu, bez odpowiedzialności i ludzkiego nadzoru, może przynieść więcej szkody niż pożytku. SI nie „wie”, co robi — tylko wykonuje zadania zgodnie z wzorcami, które jej pokazano. I właśnie dlatego obecność człowieka — świadomego, krytycznego, etycznego — jest nieodzowna.

      Mam wrażenie, że w dyskusjach o sztucznej inteligencji coraz częściej zapomina się o jednej fundamentalnej rzeczy: SI nie istnieje w oderwaniu od człowieka. To nie autonomiczny podmiot, który „dochodzi do prawdy” czy „stawia sobie cele” w sensie, w jakim robią to ludzie. To nadal zestaw narzędzi — bardzo złożonych, ale jednak narzędzi — które operują na danych przygotowanych przez nas i zgodnie z założeniami, które sami zaprogramowaliśmy. To, że SI potrafi „przetworzyć więcej niż człowiek” nie oznacza jeszcze, że rozumie to, co przetwarza. Wydajność obliczeniowa nie jest równoznaczna ze zrozumieniem sensu czy celu. A właśnie sens i cel nadaje człowiek — czy to w nauce, czy w sztuce, czy w codziennym życiu.

  7. Karol S pisze:

    Uważam, że to bardzo ciekawe spostrzeżenie oraz trafna intuicja. Rzeczywiście jest coś głęboko podobnego między tym, jak wyłaniają się nowe idee naukowe, a tym, jak mogą pojawiać się nowe zachowania w systemach AI, które uczą się same.

    Kiedy spojrzeć na te równoległe odkrycia, o których mowa, trudno oprzeć się wrażeniu, że rozmaite idee, problemy tylko czekają, aż ktoś je nazwie lub rozwiąże. To, że robią to niezależni od siebie ludzie, którzy być może nie wiedzą o swoim wzajemnym istnieniu, sugeruje, że nauka – jako całość – ma swoją dynamikę, niezależną od konkretnych jednostek. Można by rzec, że jakby pewien problem dojrzewa w przestrzeni intelektualnej, aż w końcu musi zostać rozwiązany. I nie ma wtedy znaczenia, kto akurat się tym zajmuje.

    Jeśli przyjąć tę perspektywę, to samodoskonaląca się AI też nie musi być wymyślana przez kogoś w całości. Wystarczy, że świat (albo dane) postawi przed nią wystarczająco bogaty kontekst, a pewne rozwiązania niejako się wyłonią. Coś jak ewolucja: nie planuje, ale selekcjonuje to, co działa.

    I tutaj pojawia się coś, co moim zdaniem jest kluczowe, a co ładnie wybrzmiało w innym komentarzu — różnica między „radzeniem sobie z problemami” a „stawianiem sobie celów”. My jako ludzie nie tylko reagujemy na świat, ale też chcemy coś powiedzieć, chcemy coś zrozumieć, chcemy coś zmienić. Banach nie tylko rozwiązywał zadania – on tworzył przestrzeń, w której inne zadania mogły się dopiero pojawić.
    Tego „chcenia” brakuje jeszcze sztucznej inteligencji. Możliwe, że to różnica zasadnicza. A możliwe, że to tylko kwestia warunków dojrzewania – jak z tymi niezależnymi odkrywcami. Kto wie, może kiedyś powstaną systemy, które nie tylko odpowiedzą na pytanie, ale same je sobie zadadzą.

    Na razie jednak to my, ludzie, nadajemy kierunek. I może dobrze – przynajmniej przez chwilę.

  8. kot pisze:

    Myślę, że przy okazji tej dyskusji warto zrobić wzmiankę o tym, że AI tak naprawdę jeszcze niczego nie odkryła. Modele, które znamy działają na ogromnych bazach danych, a głównym zadaniem SI jest aktualnie pomoc człowiekowi w zadaniach, które mimo wszystko jest w stanie wykonać / albo inny człowiek z pewnymi umiejętnościami jest w stanie wykonać. Zatem jest to głównie zwiększenie efektywności pracy człowieka oraz oszczędność czasu.

    Jeżeli więc chodzi o samorzutne doskonalenie się – oczywiście jest to możliwe w zakresie doskonalenia modeli, na których program działa – tzn. podawanie wyników z większą skutecznością itd. Natomiast jeżeli chodzi o 'bunt’ AI – myślę, że jesteśmy od tego bardzo daleko, tak jak wiemy AI nie jest w stanie sama podejmować decyzji, myśleć czy tworzyć nowych idei. To wszystko już kiedyś się pojawiło. Przynajmniej taki jest oficjalny stan rzeczy – jak wygląda praca nad AI od wewnątrz z perspektywy rządu Stanów Zjednoczonych czy Chin – tego nie wiemy. I to być może ten przypadek może okazać się podobnym do wymienionych przez autora wpisu sytuacji.

    Odnosząc się jeszcze do tematu wątku – z pewnością wielu programistów pracuje nad tymi samymi problemami i – tak jak już w komentarzach wspomniano – jest to pewnego rodzaju wyścig, tak więc myślę, że na razie żyjemy w świecie, w którym sztuczna inteligencja może tylko doskonalić modele stworzone już przez owych programistów – niekoniecznie tworzyć nowe.

    Jednak kto wie jak to będzie wyglądało za x lat – przecież 10 lat temu byśmy nawet nie dostali odpowiedzi na 'co tam?’ od komputera;)

    • Natan D pisze:

      Bardzo trafna uwaga — rzeczywiście, w natłoku entuzjazmu związanego z rozwojem AI często zapomina się, że same modele nie są „świadome” ani „twórcze” w sensie ludzkim. Jak słusznie piszesz, to potężne narzędzia do optymalizacji, przewidywania i wspomagania pracy człowieka, ale nie są to istoty myślące czy autonomiczne źródła idei. Ich moc wynika z danych, które otrzymały, i algorytmów, które ktoś im zaprojektował.

      Odnosząc się do głównego wątku, uważam, że trafnie nawiązałeś do pewnego aspektu tej ewolucji AI – to programiści dokonują kolejnych postępów, nie samo AI. Nowe modele oraz przełomy w tej dziedzinie są tworzone przez ludzi, a nie samouczące się AI. Sztuczna inteligencja jest tak dobra jak dane i model stworzone i dostarczone przez człowieka. Jeśli gdziekolwiek możemy mówić o równoległym odkrywaniu i niezależnym tworzeniu podobnych technologii to właśnie w kontekście nie samorozwoju SI, a ludzi je tworzących AI, czy to tajnych tworzonych na potrzeby i zamówienie mocarstw, czy prywatnych firm IT.

      Bardzo cenię też trzeźwe podejście do „samodoskonalenia się” — rozróżnienie pomiędzy doskonaleniem efektywności modelu a pojawieniem się czegoś na kształt buntu czy samodzielnej refleksji jest kluczowe. I rzeczywiście — jesteśmy wciąż bardzo daleko od maszyn, które byłyby zdolne do tworzenia nowych ram poznawczych, zamiast tylko operować na istniejących.

  9. Natan D pisze:

    Interesujące zestawienie, choć mam wrażenie, że miejscami zbyt mocno upraszczasz złożone procesy historyczne. Niezależność odkryć to niewątpliwie fascynujące zjawisko, ale warto pamiętać, że często była ona tylko pozorna — naukowcy działali w podobnym kontekście kulturowym, korzystali z tych samych narzędzi i odpowiadali na te same potrzeby epoki. W przypadku AI ciężko tu mówić o wspólnym kontekście albo potrzebie. AI uczy się z danych, które dostanie od człowieka, wypuszczona w otchłań internetu zagubiła by się oraz zaczęła uczyć z nieudanych dzieł innych AI, albo swoich własnych, co rozpoczęło by spiralę samozniszczenia.

    Analogia do rozwoju sztucznej inteligencji bez udziału programistów wydaje mi się nieco zbyt swobodna. Owszem, można mówić o pewnych aspektach autonomii — jak np. samouczące się modele, które optymalizują się bez bezpośredniego nadzoru — ale cały proces wciąż pozostaje głęboko zależny od ludzkich decyzji: od doboru danych treningowych, przez architekturę modeli, aż po cele, które im wyznaczamy.

    Nie odbieraj tego jako zarzutu — po prostu uważam, że ten wątek ma potencjał na coś znacznie głębszego niż tylko zestawienie faktów. A chętnie przeczytałbym kolejną część z rozwiniętą interpretacją, o której wspomniałeś na końcu.

  10. Andrzej Włodarczyk pisze:

    Czy SI jest w ogóle możliwa?

    W okresie kwitnącej cybernetyki w Polsce, Henryk Greniewski pisał o „języku nauki”, chociaż jego poglądy stosowały się po prostu do „języka” tout court. Z mojej strony, postanowiłem spojrzeć na problematykę języka od strony nie tylko jego funkcji, ale także – a może nawet przede wszystkim – od strony jego rozumienia i roli w myśleniu. Stąd też mój komentarz w sprawie SI ma oparcie w badaniach lingwistycznych, a więc praktyczne (włącznie z doświadczalnym), a usprawiedliwia mnie w tym dziele fakt, że to właśnie modele językowe (LLM – Large Language Models) stanowią, przede wszystkim, sedno obecnej koneksjonistycznej wersji rozumienia operacyjności języków naturalnych.

    Niezależnie od różnic kulturowych, jakkolwiek byśmy definiowali SI, w przyszłości z pewnością wymagać będziemy, by stała się ona przynajmniej dobrym „zamiennikiem” naszej ludzkiej inteligencji.

    W zdobywaniu wiedzy naukowej rzeczy mają się bardzo podobnie, jak we wszystkich przestrzeniach naszej Egzystencji. Wszelkie uczenie się, pouczanie, nauczanie polega na pozyskiwaniu informacji oraz kompetencji, z których tworzymy wiedzę i umiejętności. Jeszcze do roku 1969 człowiek nigdy nie dotarł do księżyca, choć zapewne niejeden o tym sobie zamarzył. Warto przypomnieć powód, dla którego loty na księżyc stały się w ogóle możliwe: (1) pozyskana dotychczasowa wiedza w wielu dziedzinach nauki i techniki oraz podejście nie tylko inter-dyscyplinarne, ale przede wszystkim (2) inicjatywa polityczna („wyścig zbrojeń”).

    U progu 21. stulecia obydwa te punkty stosują się także do powstania SI, a to dlatego że tak podbój kosmosu jak i żądza wiedzy wynikają z naszej Natury. A zarówno jedno jak i drugie należą do zagadnień trudnych (hard problems), poza wymienionymi punktami dla ich urzeczywistnienia potrzebujemy sporych nakładów finansowych.

    Obecna SI zasadza się na uczeniu (i uczeniu się) sieci neuropodobnych, rzekomo „porzuciwszy” badania prowadzone wzorem „paradygmatu symbolicznego”. Jednakże prawda jest taka, że badania według „paradygmatu koneksjonistycznego” (czyli „trenowanie” sieci neuropodobnych) były już aż dwa razy „porzucane” w przeciągu jednego półwiecza. Dzisiaj za wcześnie jeszcze twierdzić, że obrana droga jest właściwa. Skuteczność częściowa nie jest dowodem na właściwe rozwiązanie zadania.

    Zanim jakakolwiek technologia stanie się „właściwym” wykonaniem decyzji podejmowanych przez filozofów, techno-nauki winny wykonać odpowiednią ilość doświadczeń biorąc pod uwagę wszystkie wyobrażenia filozofów. W przypadku SI jest to tym bardziej ważne, że mamy do czynienia z zagadnieniem, które nie tylko jest „trudne”, ale i „złożone”.

    W odpowiedzi na zadane na początku pytanie, można – póki co – podejmować zaledwie filozoficzne postawy wobec zagadnień takich właśnie, jak „chcenie”, myślenie (a) w kodzie/kodach semiotycznych czy (b) w kodzie/kodach niesemiotycznych, a może i (c) we wszystkich możliwych kodach jednocześnie. Osobiście, myślę, że to opcja (c) ma najwięcej szans na powodzenie.

  11. Komentarz krytyczny: AI a spontaniczna ewolucja idei – pozorna analogia pisze:

    W swoim eseju Witold Marciszewski snuje sugestywną analogię pomiędzy samorzutnym doskonaleniem się sztucznej inteligencji a historią niezależnych, równoległych odkryć naukowych. To interesujący trop, który inspiruje do głębszego namysłu nad statusem poznawczym AI. Jednak po uważniejszej analizie okazuje się, że analogia ta – choć retorycznie atrakcyjna – nie wytrzymuje krytycznego namysłu. Przede wszystkim dlatego, że ignoruje fundamentalną różnicę między tym, co konstytuuje ludzki akt poznania, a tym, czym jest działanie systemu sztucznej inteligencji.

    Zacznijmy od podstawowej cechy ludzkiego poznania: intencjonalności. Odkrycia naukowe, o których pisze Marciszewski – od algebry logiki po teorię względności – były rezultatem świadomego namysłu nad pytaniami zakorzenionymi w kulturze, filozofii i historii idei. Uczeni, którzy „nie wiedząc o sobie wzajem” dokonywali podobnych odkryć, byli zanurzeni w tym samym klimacie intelektualnym, dzielili podobne założenia filozoficzne i często reagowali na wspólne wyzwania cywilizacyjne. Nie jest to przypadek, lecz efekt wspólnoty poznawczej, w której jednostki twórcze działają niezależnie, lecz w ramach wspólnego horyzontu sensu.

    Sztuczna inteligencja, nawet w swojej najbardziej zaawansowanej postaci, nie posiada zdolności rozumienia sensu, nie kieruje się pytaniami, które miałyby dla niej jakiekolwiek znaczenie, ani nie interpretuje świata na sposób podmiotowy. Samo to czyni analogię z twórczością naukową problematyczną. Algorytmy uczące się nie mają „problemów” w sensie, w jakim mają je uczeni. Problemy naukowe są bowiem czymś więcej niż zagadkami do rozwiązania – są manifestacją napięcia między stanem wiedzy a niepokojem poznawczym, który domaga się rozwiązania. Tego rodzaju napięcie AI nie zna.

    Przyjrzyjmy się bliżej przypadkom podanych przez autora. Równoległe stworzenie rachunku różniczkowego przez Newtona i Leibniza, czy też równoczesne badania nad nierozstrzygalnością logiki przez Churcha, Turinga i Posta w roku 1936, nie były tylko efektem postępu technicznego czy formalnego. Były zwieńczeniem wielowiekowej refleksji – nad ruchem i zmianą, nad językiem i matematyzacją logiki – która przebiegała nieprzerwanie od starożytności. Twórczość tych uczonych była odpowiedzią na złożony splot dziedzictwa kulturowego, indywidualnej intuicji i epistemicznej pasji. Sztuczna inteligencja, nawet jeśli może wytworzyć coś „nowego”, czyni to w oparciu o mechanizmy optymalizacyjne, które nie mają związku z taką wewnętrzną potrzebą rozumienia.

    Właśnie dlatego mówienie o „ewolucji” AI w analogii do ewolucji idei jest mylące. Ewolucja w biologii i w historii myśli ma charakter emergentny – wyłania się w wyniku interakcji między złożonymi systemami, często w sposób trudny do przewidzenia. Natomiast rozwój AI jest wciąż ściśle determinowany przez ludzi: ich dane, ich cele, ich systemy wartości. Nie istnieje żadna „wola” ewolucyjna po stronie AI – nie istnieje też żaden wewnętrzny cel, ku któremu AI miałaby dążyć. To człowiek projektuje środowisko, w którym AI „ewoluuje”, a także definiuje, co oznacza jej „postęp”.

    Jeśli więc AI może tworzyć rozbudowane modele językowe, rozpoznawać wzorce czy nawet konstruować nowe strategie matematyczne, to nadal odbywa się to w ramach ściśle zamkniętego świata formalnego, który nie odwołuje się do pojęć znaczenia, celu, wartości czy nawet pytania „dlaczego?”. Są to działania funkcjonalne, ale nie poznawcze w sensie historyczno-naukowym. Można by powiedzieć, że AI rozwiązuje „problemy” tak, jak maszyna do sortowania paczek – efektywnie, lecz bezrefleksyjnie.

    Co więcej, prawdziwe odkrycia naukowe często rodzą się z błędu, z przypadkowej obserwacji, z napięcia między oczekiwaniami a rzeczywistością – i wymagają momentu „wglądu”, który trudno sprowadzić do czystej kombinatoryki. AI może wykrywać korelacje, ale nie może „zrozumieć”, co oznacza, że dana korelacja jest zaskakująca, piękna lub głęboka. A przecież właśnie te kategorie – estetyczne, filozoficzne, emocjonalne – niejednokrotnie towarzyszą ludzkim odkryciom.

    Na koniec warto dodać: nie chodzi tu o umniejszanie możliwości AI. Przeciwnie – chodzi o właściwe ich zrozumienie. AI może być potężnym narzędziem wspomagającym ludzkie poznanie, ale nie jest uczestnikiem historii nauki w tym samym sensie, co ludzki badacz. To różnica nie tylko ilościowa, ale jakościowa.

    Zatem analogia zaproponowana przez Marciszewskiego – choć inspirująca – zdaje się zacierać granice między aktywnością ludzką a automatyzacją. A to, w dobie rosnącej autonomii systemów cyfrowych, jest intelektualnie ryzykowne. Potrzebujemy dziś raczej ostrożnego namysłu nad tym, co odróżnia „myślącą maszynę” od myślącego człowieka – nie po to, by deprecjonować AI, lecz by zachować jasność co do źródeł wiedzy, odpowiedzialności i sensu w świecie, który właśnie redefiniujemy.

    • Ten komentarz krytyczny dobrze się nadaje na konkluzję wznieconej moim wpisem dyskusji. Chodziło mi o pozyskanie opinii osób, które podzielają moją wiedzę historyczną, a mają ponadto lepszą niż moja orientację w procesach rozwijania AI.

      Autor komentarza z należną tej sprawie empatią wczuwa się w etos tego kluczowego nurtu ewolucji kulturowej, jakim jest postęp nauki. Radzę podzielić się tą refleksją szerzej i na jakimś forum bardziej od naszego blogu poczytnym. — Witold Marciszewski

  12. Andrzej Włodarczyk pisze:

    Podzielanie poglądów jest wprawdzie przyczykiem do ustalania prawdy, ale nie wystarczającym argumentem.
    Możliwości obecnej SI są – mimo wszelkiej krytyki – zdumiewające, a świadczy o tym choćby Ilość komentarzy tu i ówdzie w tym temacie.
    Czynności/zadania wykonywane przez komputery już dzisiaj czasem nawet gigantycznie przerastają nasze możliwości. Wszystko będzie zależeć o tego, co zdołamy sami odkryć i zapisać w sposób wystarczająco trafny, a następnie zaimplementujemy w komputerach obecnych i przyszłych. Sądzę, że nie wszystko. Ale wtenczas pojawi się pytanie nowe: a mianowicie o to, kto i co potrafi lepiej robić
    Taka postawa nie tyle jest filozoficznie „postępowa”, ile wyraża głęboki „pesymizm” w duszy humanisty.

  13. Andrzej Włodarczyk pisze:

    Gwoli relewancji mojego poprzedniego komentarza wobec tematu „ewolucyjności” SI dodam, że jej zdolności „twórczych” nie możemy nie zauważyć. Co nazywamy halucynacjami lub konfabulacjami w jakimś sensie jest przecież „twórcze”, a kiedy zrozumiemy sami, czym jest nasza twórczość, intencja i intuicja, zapewne (choć osobiście jestem przekonany) nie omieszkamy zaimplementować tego także w „sztucznym umyśle”. Wtedy dopiero okaże się, czy tego rodzaju maszyny posiądą zdolności ewoluowania czy nie. Póki co, wszystkie nasze klasyczne odniesienia mogą się okazać po prostu zwodnicze.

    • Jarek pisze:

      Tę opinię mogę wesprzeć własną anegdotą. Zapytałem kiedyś sztucznej inteligencji, jak mogę konkatenować dwa kawałki sznurka. Od razu wyjaśniam, że „konkatenacja” jest synonimem słowa „łączenie”, ale termin ten używany jest wyłącznie w kontekście łączenia napisów w językach programowania. Zostałem zrozumiany i poinstruowany, jak mam sobie ten sznurek związać. Co więcej, zostałem ostrzeżony, bym unikał plątów na łączonych kawałkach sznurka. Słowo „pląt” jest neologizmem, ładnym neologizmem. Poszukiwanie go w internecie przez Google nie daje żadnych wyników. Wśród różnych rodzajów twórczości, słowotwórczość stawiam bardzo wysoko.

  14. Adam Drogowski pisze:

    Opinię o tym zagadnieniu posiadam dość radykalną, opiera się na zadadniczym punkcie, mianowicie A.I samodzielnie nie rozumuje. Nie może, jak człowiek, w przerwie od pracy pomyśleć o tym, o czym rozmawiał z milionami użytkowników, następnie przejść się na spracer i wymyśleć coś nowego, jak dajmy na to teoria względności. Można przejść na rozważania o tym, że różnorakie wzory matematyczne tylko opisują wszechświat, to nie my go konfigurujemy wymyślając wszelakie twierdzenia, jednakże większość genialnych teorii opiera się na ideii. A sztuczna inteligencja sama na pomysł wpaść nie jest w stanie. Jeżeli jednak odkryłaby coś przełomowego, a ja bym się mylił, co jest wysoce prawdopodobne, znaczyłoby to, że po prostu jako ludzie nie połączyliśmy pewnych faktów, które były już dla nas dostepne. Dla nieodkrytych rzeczy, moge przytoczyć cytat mojego ojca, z którym odbyliśmy dość długą rozmowę na powyższy temat: „ChatowiGPT jabłko na głowe nie spadnie”.
    Cały mój punkt o dementowaniu zdolności A.I do samodzielnego rozwoju umysłowego służy mi do tego, aby powiedzieć jasno, że modele nie są w stanie ewoluować samodzielnie. My mamy na to wpływ, jako ludzie, optymalizując oraz szkolić coraz to większą i bardziej zaawansowaną ilością danych.

Skomentuj Cloudburst Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *