Niniejszy wpis kieruję przede wszystkim (choć nie tylko) do słuchaczy mojego wykładu „Elementy filozofii i metodologii informatyki” – który prowadzę na wydziale MiNI PW. Chciałbym zachęcić osoby zainteresowane do dyskusji na tematy, którym częściowy przynajmniej wyraz daje tytuł wpisu. (Dodam w nawiasie, że dyskusja na żywo odbędzie się na najbliższych zajeciach).
Co to znaczy, że maszyna jest (mogłaby być) autonomiczna?
Co łączy hipotetyczną autonomię maszyn ze sztuczną inteligencją?
Czy w historii informatyki (zwłaszcza tej najnowszej) można odnaleźć trop wiodący ku maszynom autonomicznym?
Oto próbka pytań, wokół których mogłyby krążyć komentarze.
Punktem odniesienia dyskusji proponuję uczynić jeden z rozdziałów książki „Umysł-Komputer-Świat” , p.t. „Czy powstaną maszyny autonomiczne?”.
Na dobry początek przytaczam akapit otwierający ów rozdział (cały tekst stanie się dostępny po kliknięciu powyższego linku):
„Zdrowy rozsądek podpowiada, że wszelkie maszyny – w tym informatyczne i skomputeryzowane – są, a także będą, tylko i wyłącznie narzędziami w ręku ludzi realizujących za ich pomocą własne cele.
Wyobraźnia z kolei roztacza przed rozumem fantastyczne wizje maszyn autonomicznych, które byłyby w stanie konkurować ze swoimi pomysłodawcami i konstruktorami.
Który pogląd – ten ostrożniejszy, czy ten śmielszy – ma lepsze uzasadnienie w bieżących dokonaniach informatyki? I co nas czeka w przyszłości?”
Pozdrawiam i zachęcam do zabrania głosu – Paweł Stacewicz.
Jak się ma używane tu pojęcie „autonomiczności” do polskiej szkoły cybernetyki i prof. Mariana Mazura? Czy ma się w ogóle?
Dziękuję za komentarz-pytanie.
Odpowiem krótko tak:
(1) w tekście, który zaanonsowałem jako podstawę dyskusji nie ma zbyt wielu odniesień do pojęć, metod i teorii cybernetycznych (wynika to stąd, ze nie jestem w tej dziedzinie specjalistą)
(1a) jedno odniesienie jest jednak ważne; chodzi o sformułowaną w cybernetyce ideę sprzężenia zwrotnego, która we wspólczesnej informatyce znajduje rozwiniecie w koncepcji maszyn uczących się, tj. modyfikujących swoje programy na podstawie interakcji ze środowiskiem. Uważam, że algorytmy uczenia się (które są przedmiotem rozwiniętego już działu informatyki) powinny stanowić jądro przyszłych maszyn autonomicznych.
Ponieważ nasz blog jest jednak blogiem dyskusyjnym, zapraszam p. MufTur do szerszej wypowiedzi, w której wypowiedziałaby/by się (w sposób zrozumiały również dla laików) na temat autonomii maszyn z punktu widzenia cybernetyki. Zakładam, że skoro temat ją/go interesuje pytajnie, to ma o nim jakąś wiedzę.
Chciałbym też zwrócić uwagę, że do dyskusji włączył się również prof. Marciszewski, dając osobny wpis p.t. „Inwencja a losowość. Głos w sprawie maszyn autonomicznych”. Wydaje mi się, że do tego głosu możemy się odnosić również w tym ciągu komentarzy (żeby zbytnio dyskusji nie „rozpraszać”)
Z mojego punktu widzenia kwestia powstania maszyn autonomicznych powinna raczej być rozpatrywana jakos proces ciągły, toczący się już od kilku ładnych lat. Nie uważam, jakoby maszyny autonomiczne miałyby po prostu „powstać”. Raczej do tego dążyć. Wystarczy spojrzeć na wręcz wykładniczy rozwój prostych urządzeń do liczenia do, praktycznie mówiąc, „maszyn do wszystkiego”. Coraz więcej zjawisk, bytów i relacji daje się zakodować liczbowo. Coraz szersza porcja naszej rzeczywistości staje się zrozumiała dla komputerów. Dodatkowo, prężnie rozwijające się w przeciągu ostatnich lat algorytmy oraz maszyny uczące się zapełniają luki w dziedzinie interakcji maszyny ze samym sobą. W dniu dzisiejszym wszelkiego rodzaju urządzenia są w stanie zmienić swoje własne zachowanie, własne pojmowanie rzeczywistości, na podstawie zebranych i przeanalizowanych przez siebie danych. Jeżeli za autonomiczność uznajemy właśnie to, czyli możliwość samoczynnej, ciągłej adaptacji do czynników zewnętrznych oraz interakcja ze światem, która logicznie wynika z tychże czynników, to według mnie główną kwestią jeżeli chodzi o „powstanie” maszyn autonomicznych nie jest „czy?”, ale „kiedy?”.
Witam wszystkich.
Spróbuję podsumować dyskusję, która odbyła się na ostatnich zajęciach.
Podsumuję te wątki, które wniosły coś nowego w porównaniu z zawartością tekstu będącego podstawą dyskusji.
1) Po pierwsze, zgodziliśmy się co do tego, że określenie „maszyna autonomiczna” brzmi lepiej niż używane w podobnych kontekstach określenia „maszyna myśląca” czy też „maszyna inteligentna”. Dzieje się tak, ponieważ mówiąc o autonomii (czyli działaniu częściowo niezależnym od metod i celów narzucanych maszynie przez jej twórcę i/lub użytkownika), nie musimy wnikać w istotę tak subtelnych i właściwych ludziom czynności/własności, jak myślenie czy inteligencja (które zresztą nadal, mimo różnych koncepcji i teorii, pozostają naukową zagadką). Nie musimy zakładać nadto, że maszyna autonomiczna winna przypominać człowieka (tj. przetwarzać dane w podobny sposób).
2) Po drugie, dyskusja ujawniła, że istnieją różne jakby stopnie hipotetycznej autonomii maszyn. Maszyna autonomiczna w stopniu najniższym realizuje cel określony przez konstruktora/użytkownika (np. rozpoznaje pewne obiekty), ale czyni to w sposób oryginalny, niezależny od zamysłu człowieka, niekiedy nawet niezrozumiały dla niego (bo np. odpowiednia metoda ustaliła się w trakcie uczenia, a jej wynik jest dla konstruktora/programisty nie do końca przejrzysty).
Maszyna autonomiczna w stopniu wyższym generuje własne oryginalne cele działania, a następnie podejmuje równie oryginalne próby ich realizacji. Przykładem tego rodzaju autonomii byłaby np. sytuacja, w której maszyna odkryłaby i postawiła przed innymi jakiś nowy ciekawy problem matematyczny.
Maszyna autonomiczna w stopniu jeszcze wyższym generuje kryteria akceptacji własnych celów – kryteria pozwalające wybrać tylko niektóre spośród licznych generowanych autonomicznie celów. Myśl ta nawiązuje w sposób istotny do wpisu prof. Marciszewskiego „Inwencja a losowość”, w którym wprowadza on pojęcie „kryteriów akceptacji”.
Jako rozszerzenie tego wątku dyskusji proponuję namysł nad pytaniem o to „czy „istnieje kres kolejnych szczeblów/stopni autonomii?”. Zauważmy bowiem, że zarówno w przypadku maszyn, jak i ludzi, możemy mówić o kryteriach akceptacji celów, następnie o kryteriach akceptacji tych kryteriów, następnie o kryteriach akceptacji tych drugich kryteriów itd. Gdyby w przypadku maszyn, któreś z tych kolejnych kryteriów zostały narzucone przez człowieka/konstruktora, to czy moglibyśmy mówić o pełnej autonomii maszyn…?
3) Po trzecie rozważaliśmy kwestię losowości, która mogłaby stanowić podstawę autonomicznych działań maszyn. Zgodziliśmy się, że jeśli za autonomię (czyli w gruncie rzeczy inwencję) maszyn na którymkolwiek poziomie (metody, cele, kryteria akceptacji celów i ewentualnie kolejne kryteria…) miałyby odpowiadać jakieś mechanizmy probabilistyczne, to musiałyby one mieć charakter sprzętowy (a nie programistyczny, związany np. z generatorami liczb pseudo-losowych).
Tu większość osób, ku mojemu zdziwieniu, wysunęła argument, że „losowość sprzętowa” niekoniecznie w ogóle musi istnieć, bo de facto nie ma w świecie żadnej losowości: wszystko jest przewidywalne, a tylko wskutek naszej niewiedzy o pewnych stanach zjawisk, uznajemy że zachodzi jakaś losowość. Innymi słowy: w świecie panuje totalny determinizm, a pozorny indeterminizm jest wynikiem naszej niedostatecznej wiedzy o stanach świata.
Na przykład: wszelkie programy komputerowe – nawet te, których działanie zależałoby od sprzętowych generatorów „losowości” – byłyby zasadniczo przewidywalne i ktoś o dostatecznie dużej wiedzy o samym programie (wartościach jego parametrów) oraz środowisku, z którego pochodzą jego dane wejściowe, mógłby dokładnie przewidzieć (a także zaplanować), co w danej sytuacji program zrobi. Innymi słowy: przy takiej wizji świata żaden program komputerowy i żadna maszyna nie mogłyby być naprawdę autonomiczne; ich cele i działania byłyby bowiem zawsze dokładnie określone (choć my wskutek naszej niewiedzy moglibyśmy uważać je za autonomiczne).
Jeśli chodzi o pytanie, czy sytuacja ta dotyczy tylko maszyn czy również ludzi (obdarzonych być może jako jedyne byty we wszechświecie wolną wolą), to zdania były podzielone.
Muszę przyznać, że przedstawiony wyżej – skrajnie deterministyczny – tok rozumowania do mnie nie przemawia. Uważam, że argument o nieistnieniu losowości kłóci się z aktualnymi interpretacjami fizyki kwantowej, które mówią, że na poziomie mikro-cząstek mamy do czynienia ze zjawiskami czysto losowymi. Ponadto, nawet jeśli przyjąć religijne w istocie założenie o istnieniu DOSKONAŁEGO I WSZECHWIEDZĄCEGO UMYSŁU, który zna wszystkie stany świata i wszystko potrafi przewidzieć (a więc z jego perspektywy nie ma żadnej losowości, przypadkowości, inwencji, autonomii itd…), to niewątpliwie my takimi umysłami nie jesteśmy obdarzeni. Z naszej zatem, ludzkiej i niedoskonałej perspektywy, losowość jest po prostu losowością, a autonomia oparta na losowości jak najbardziej może istnieć. Choć możemy sobie zakładać/wierzyć, że de facto (obiektywnie) nie istnieje. (Nawiasem mówiąc, przywołana wyżej argumentacja na rzecz determinizmu pochodzi z XVIII wieku i łączy się z pojęciem demona Laplace’a; zob. np. Wikipedia).
Powyższe wątki wydały mi się najciekawsze.
Być może ktoś inny zrozumiał wypowiadane argumenty inaczej…
Być może też są tacy, którzy chcieliby coś dopowiedzieć…
Przepraszam że się wtrącam i że ważę się na komentarz mimo, że nie byłem świadkiem dyskusji- jedynie po przeczytaniu wpisu i komentarzy (w szczególności tą dyskusję podsumowującego) ale proszę o wytłumaczenie jednej kwestii:
mam problem ze zrozumieniem jak można uzależniać jakkolwiek autonomię od losowości- czy zdawanie się na przypadek to niezależność od zewnętrznych wpływów?
Reguły które przyjmują są wynikiem konstrukcji (osobowości czy też fizykochemicznych struktur) – czy odpowiadając uparcie, że 2+2 jest 4 to oznacza, że nie jestem autonomiczny (i- choć pozostawiono to z boku- nie myślę samodzielnie)? Czy przyjmując zasady algebry jestem niewolnikiem a wykonująca w nieprzewidzianych okolicznościach maszyna dyktat swego programu w powiązaniu z własną konstrukcją (możliwościami) nie jest w ogóle autonomiczna?
Aby bardziej wyklarować o co mi chodzi zauważę, że „skrajny determinizm” czy nieoznaczoność mechaniki kwantowej można go w ogóle wykluczyć z dyskusji. W tym sensie, że nie ma wybór między nimi specjalnego wpływu na rozumowanie w kwestii wolności czy autonomii.
Precyzuje zatem dalej: chodzi mi o definicję wolności/ autonomii ( w tym wolności w myśleniu)
Czy
jeśli okaże się „rzeczywiście”, że funkcja falowa przypadkowość swą objawia jedynie z tego powodu, że mamy do czynienia z czymś w fizyce kwantowej z czego na razie w pełni nie ogarniamy (np. z przekrojami wielowymiarowych struktur choćby strun) co w rozważone w pełni da się deterministycznie przewidywać
to
człowiek (tym bardziej każde inne stworzenie/ konstrukcja w takim uniwersum) okaże się być bezwolnym nieautonomicznym automatem? Czy pozostaje uwierzyć w niezawisłość wspieraną codzienną dozą paranormalnych/ pozazmysłowych oddziaływań magicznej duszy na fizyczne struktury umysłu?
Lub inaczej to ujmując:
Jeśli w umyśle ludzkim mają miejsce przełączniki pozwalające zadecydować losowo dzięki przeniesieniu/ wzmocnieniu kwantowej nieoznaczoności na makroskopową strukturę mózgu
to tylko wtedy (losowość warunkiem koniecznym) okaże się, że wola człowieka (maszyny wykorzystującej takie efekty) jest wolna i autonomiczna?
Lub jeszcze inaczej:
Jeśli
kieruję się konsekwentnie przekonaniami i jestem w tym uparty to jestem automatem – nie odbiegając od reguły, w której słuszność wierzę? Czy jeśli spisze własny kodeks tak, że każdy będzie mógł sprawdzić czy jestem mu wierny w swym postępowaniu to znaczy, że mogę być niewolnikiem postępując z własną wolą (istotą tak jak maszyna podąża za programem) dochowania zasad?
Podsumowując:
Może to jakaś informatyczna definicja autonomiczności/ wolności ( i stąd ucieczka od kwestii myślenia i inteligencji) i w myśl tej definicji człowiek o internalizowanym ugruntowanym światopoglądzie nie jest autonomiczny i nie jest wolny. Jeśli tak to jeszcze raz przepraszam.
Jeśli chodzi tu o tą samą wolność i autonomię co nie- informatykom to przeraża mnie to bardziej niż demon Laplace’a. Ale w sumie nie byłby to pierwszy raz (Compton, Penrose- w sumie doborowe towarzystwo) gdy ktoś przedstawia wizję w myśl której zdanie się na wolę chaotycznego przypadku definiuję wolność rozumowej decyzji)
Cytuję:
„Czy jeśli spisze własny kodeks tak, że każdy będzie mógł sprawdzić czy jestem mu wierny w swym postępowaniu to znaczy, że mogę być niewolnikiem postępując z własną wolą (istotą tak jak maszyna podąża za programem) dochowania zasad? ”
Zasadnicza różnica, która tutaj wydaje mi się kluczowa to kwestia tego, kto ustanawia reguły. Komputer podążający za programem to nic innego jak twór ograniczony tylko do (z góry określonych) zachowań. Co więcej akcje które podejmuje zostału mu już z góry narzucone. Nie ma świadomości (w naszym rozumieniu) która umożliwiłaby zmianę zasad postępowania.
Ja, jako człowiek, taki wybór (lub samą jego świadomość) posiadam. I tutaj wydaje mi się, leży nasza autonomia (być może też niepełna). Sama dyskusja jak dla mnie miała na celu wyrażenie swojego zdania na temat możliwości powstania maszyn postępujących wedle swoich reguł – nieskrępowanych naszymi kanonami myślenia i wartościowana.
Być może (a raczej na pewno) nie odpowiedziałem w pełni na postawione pytania i zarzuty, jednak to pierwsza myśl, który przyszła mi do głowy.
Pozdrawiam.
Cóż zupełnie obok…
W każdej chwili podejmując działanie akcje, które podejmuję są określone przez konstrukcję mojego umysłu- przeze mnie-i bodźce doń- do mnie- docierające. Co za różnica czy program napisał splot ewolucyjnych trafów i historia mojego życia czy programista.
Co to znaczy z góry narzucone? Czy historia mojego życia i konstrukcja mojego umysłu nie są „z góry narzucone” w stosunku do sytuacji podejmowania decyzji
Co do uciekania się do kryterium świadomości- to dość niebezpieczna droga do definiowania autonomii. W eksperymentach neurologicznych wykazano, że sygnał by rozpocząć dana aktywność jest wysłany nim „zaświecą” się w (badaniu w skanerach obrazowania aktywności) obszary mózgu które są aktywne gdy świadomie przetwarzamy informacje. Czy jeśli uświadamiam sobie mój wybór by wstać a jest on podyktowany aktywnością w cerebralnych obszarach kory (do których nie mamy kognitywnego wglądu) to znaczy, że to nie mój wybór mimo tylko narzucony przez ewolucję i determinizm praw fizykochemicznych procesów? Mimo, że świadomie się utożsamiam z tym wyborem i mam przeświadczenie że byłą to autonomiczna i wolna decyzja? Czy pozbawiony tego dyktatu z góry narzuconych mechanizmów byłbym wolny?
Cóż świadome części kory przestają działać bez sygnałów z systemów odpowiedzialnych za mapowanie ciała nawet gdy medycy podtrzymują dostarczanie doń właściwych substancji….
W mojej poprzedniej wypowiedzi chciałem bardziej zawrzeć problem relatywnego postrzegania autonomii niż definiować wymagania, które musi spełniać twór, aby mogła ona zachodzić. Zgadzam się również z tym, że kwestia świadomości to trudny i cały czas niezbadany obszar naszych badań. Ale póki co to chyba właśnie ona daje nam poczucie bycia niezależnym. Przynajmniej ja tak czuję. To, że moje decyzje uświadamiam sobie z opóźnieniem, tzn. że osoba z zewnątrz obserwując reakcje chemiczne zachodzące w moim organizmie potrafiłaby przewidzieć moje reakcje wcześniej ode mnie, nie znaczy, że czuję się zniewolony. Przynajmniej dla mnie aktywność mózgu jest do tego stopnia losowa, że nie postrzegam siebie jako podążającego ściśle określonymi regułami.
To samo można powiedzieć o komputerach: tworząc dla nich odpowiednio duży zbiór możliwych działań a następnie implementując metodę losującą z niego pewne akcje które następnie program wykona, moglibyśmy stworzyć dla maszyny iluzję wyboru (oczywiście jeżeli moglibyśmy tutaj mówić o samej świadomości podejmowanych działań). Zbiór możliwych działań jest tutaj oczywiście „narzucony z góry”, ograniczony. Jako człowiek postawiony w konkretnej sytuacji też oczywiście mam pewne ograniczone możliwości działania, jednakże są one na tyle rozbudowane, że mogę mówić o moich własnych kryteriach ich selekcji. Mówiąc o maszynach autonomicznych człowiek zazwyczaj ma zazwyczaj na myśli maszyny które swoją autonomią przypominają naszą.
Dlaczego konieczna jest losowość? Czy nielosowy mózg (przy założeniu determinizmu fizycznego) pozostawiony sobie samemu w nowym środowisku, uczący się, podejmujący decyzję jako funkcję własnej (umysłu) konstrukcji- na którą miało wpływ jego jednostkowe „życiowe” doświadczenie- nie byłby wolny i autonomiczny?
I gdzie wtedy leżała by różnica między nim (co do autonomii)a sztucznym automat samotnie działający np. na Marsie?
Mam wrażenie, że tu chodzi o to, że możliwość przewidzenia decyzji w jakiś magiczny sposób odbiera wolność i autonomię.
Inaczej mówiąc: gdyby symulować jego środowisko i jego samego to dałoby się przewidzieć „wcześniej” jego zachowanie więc nie jest wolny. Bezwolny nie wykonuje nic poza tym co zapisane w jego konstrukcji- ale czy wykonywanie tego co należy do naszej istoty nie jest właśnie wolnością?
W kwestii przewidywalności najśmieszniejszy jest parametr- obliczenia wyniku decyzji nim się ona dogoni w automacie- a czym jest czas- parametrem porządkującym oddziaływania…
Co to znaczy iluzja wyboru- od którego momentu zaczyna się prawdziwy wybór? Ile przypadkowych „kwantowych” efektów i jak wzmocnionych musi zajść by wybór był na tyle losowy i nieprzewidywalny by był „wolny” i „autonomiczny” (aż trudno mi się formułuje to pytanie)
Jak mnogość możliwości wyboru powoduje to, że wybór staje się autonomiczny? Czy mechanizmy fizykochemiczne przestają działać zgodnie z regułą gdy wybór odnosi się więcej niż do- no właśnie jakiej liczby możliwości?
Może wystarczyło by zapewnić programowo taką ich możliwość komputerowi i proszę- nowa droga dla informatyki autonomicznych automatów.
Witam,
odpowiadam pod swoim komentarzem, ale odpowiedź jest skierowana do wypowiedzi Pana km.
Konieczność wystąpienia losowości w przypadku tworzenia maszyn autonomicznych jest niezbędna ze względu na naszą (jako ludzi) niemożność wygenerowania zbioru wszystkich możliwych decyzji i działań. Mówiąc o maszynach autonomicznych w sposób analogiczny do ludzkiego zgadzam się w kwestii, że gdyby istniała istota mogąca w PEŁNY sposób zaimplementować naszą naturę maszynie (być może w postaci programu), to taką maszynę my ludzie postrzegalibyśmy jako autonomiczną.
Jeżeli chodzi o autonomię robota na Marsie – jak najbardziej jest on „wolny”, ma prawo podejmować decyzje zależne od warunków, ale które nie są dyktowane mu przez kogokolwiek. Problem rozbija się jednak o to, że dla ludzi robot taki nie będzie postrzegany jako w pełni autonomiczny właśnie ze względu na inną niż nasza autonomię.
Iluzją wyboru zaś nazwałem sytuację podejmowania decyzji przez dowolny twór według którego działanie jest wynikiem jego wolności. Może być jednak tak, że ktoś „poza systemem” widzi prawdziwą „iluzję wyboru”. Chodziło mi tutaj o coś w rodzaju relatywnej wizji autonomii.
Witam,
chciałbym wypowiedzieć na temat podsumowania ostatniej dyskusji, dokonanej przez mojego poprzednika.
Zgadzam się w kwestii pojęciowej, że termin „maszyna autonomiczna” lepiej brzmi w kontekście naszej dyskusji. Wszak jest on niejako rozwinięciem pojęcia „maszyny myślącej”, bądź „inteligentnej”. Moim zdaniem, kluczowym pojęciem jest tu sama autonomia. Zgodnie z definicją podaną przez Wikipedię jest to: „możliwość stanowienia norm samemu sobie, samodzielność”. Umiejętność logicznego myślenia czy dedukcji niekoniecznie musi się wiązać z niezależnością. Jestem zdania, że człowiek tworząc program komputerowy, czy maszynę, obarcza ją niejako (z góry ustalonym) celem, który ma w głowie rozpoczynając proces twórczy. Maszyna może być „inteligentna” na tyle, na ile pozwoli jej system w ramach którego została stworzona i w ramach którego działa.
Tak więc jeżeli mówimy o „maszynach myślących” najczęściej mamy na myśli twory zanurzone w tej samej przestrzeni pojęciowej co my. Innymi słowy chcemy stworzyć coś, co będzie dorównywać nam pod względem intelektualnym, decyzyjnym i, być może – emocjonalnym. Czy jest to jednak prawdziwa autonomia? Czy my sami jesteśmy prawdziwie autonomiczni? Jeżeli uznamy się za twory prawdziwie (absolutnie) wolne otrzymamy odpowiedź twierdzącą – wraz z obdarzeniem maszyny świadomością i „wolną wolą” stworzymy byt dorównujący nam stopniem skomplikowania. Ale wtedy autonomia maszyn równałaby się pojęciu maszyn myślących, co przeczyłoby temu, co dotychczas napisałem.
Osobiście jestem zdania, że my sami jesteśmy tylko na tyle autonomiczni, na ile pozwala nam nasz system (ten pojęciowy, emocjonalny i metafizyczny). Obdarzyć prawdziwą autonomią znaczyłoby pozwolić tej autonomii się rozwijać: bez ingerencji, nadzoru i korekcji. Zostać tylko inicjatorem zmian, które z czasem (być może) przerodziłyby się w coś autonomicznego. No właśnie: COŚ – to znaczy co? Być może nasz ograniczony aparat poznawczy nawet nie zarejestrowałby narodzin nowej autonomii. Być może nie bylibyśmy w stanie pojąć nowo utworzonych abstrakcji i pojęć, gdyż nie byłoby dla nich odwzorowań w naszej rzeczywistości. Ale może być też na odwrót – eksperyment pozwoliłby nam na otworzenie swojego umysłu na zupełnie nowy rodzaj jakości myślenia. Być może odkrylibyśmy rzeczy, które dotychczas umykały naszej uwadze? Tutaj również niekoniecznie musielibyśmy mieć do czynienia z „autonomią ostateczną” – być może byłaby to kolejna autonomia naszego pokroju. Nie jest to jednak istotne, gdyż otrzymalibyśmy maszynę w pełni niezależną od naszej natury – tak więc dalibyśmy niejako „wolną wolę” w decydowaniu maszyn o sobie. W tej sytuacji uważałbym nasz eksperyment za jak najbardziej udany. Czy jednak coś takiego jest w ogóle możliwe?
Moim zdaniem utworzenie maszyn autonomicznych – lub też tylko tych „myślących” nie jest niewykonalne. Pytanie które się nasuwa to: „czy człowiek jest w stanie stworzyć taką maszynę”? Tutaj wkracza wątek losowości (lub też pseudo-losowości): w sposób świadomy jest to dla nas niewykonalne. Dlaczego? Bo człowiek nie rozumie do końca sam siebie. Żeby stworzyć maszynę „tylko” myślącą i tak będą potrzebne procesy do końca dla nas niezrozumiałe. Poziom skomplikowania systemu kiedyś nas przerośnie i wtedy dopiero będziemy mogli mówić o dorównaniu maszyny nam poziomem, gdy sami do końca nie będziemy pojmowali jej motywacji i działań. Świadomość bycia zmuszonym do określonego wyboru wynikająca z napisanego kodu postrzegamy jako coś przeczącego naszej wolności. Musimy więc mieć wrażenie i przeświadczenie o losowości generowanych rozwiązań i celowości kryteriów ich wyboru. Inaczej nici z autonomii. Jakiejkolwiek. Nawet tej ograniczonej.
Pozdrawiam.
Witam,
Pragnę poruszyć inną kwestię istnienia maszyn autonomicznych.
Odłóżmy na chwilę na bok pytania czy maszyny autonomiczne powstaną, jak, czy też kiedy to nastąpi. Warto zastanowić się nad tym, jakie będą skutki istnienia takich maszyn.
Pozwolę sobie zacytować fragment książki:
„Systemy autonomiczne winny być nie tylko reaktywne, tj. kształtowane przez środowisko, i nie tylko interaktywne, tj. zdolne do realizacji celów komunikowanych im przez użytkownika, lecz przede wszystkim aktywne, tj. zdolne generować własne cele działania i zgodnie z nimi kształtować środowisko.”
Przenieśmy się myślami w przyszłość, kiedy otaczają nas maszyny autonomiczne, które same stawiają sobie pewne cele i dążą do ich realizacji.
Zastanawia mnie: czy inteligentne maszyny będą potrafiły rozróżnić rzeczy i czyny dobre od złych? Czy pojmowanie tych pojęć będzie zależne od tego jak my – ludzie przekażemy maszynom ich definicje, czy ukształtują je sobie same i według nich będą postępować? A może wykreują swój system wartości lepszy od naszego i będą chciały „ulepszać świat”.
A może będą się buntować?
Może to trochę katastroficzna wizja rozwoju maszyn autonomicznych, ale mogą przecież uznać nas – ludzi za zagrożenie dla Ziemi i postawić sobie za cel ochronę planety.
Tutaj stawiam pod znakiem zapytania to, czy w ogóle warto, aby maszyny całkowicie autonomiczne w ogóle istniały.
Pozdrawiam
Jeśli uważamy, że nasz ideał dobra i rozumienie zła zmieniły się choć trochę „na lepsze” -dzięki rozkwitowi kultury, cywilizacji, postępowi wiedzy- to można domniemywać, że inteligentniejsze i mądrzejsze od nas stworzenia będą mogły zmienić dalej 'rozumienie’ owych pojęć (są tacy co w to wątpią, w ogóle nie ufają wynikom refleksji- tym bardziej filozoficznej- która prowadzi do zwyrodnienia raczej, a to w stanie natury jest racja i dobro najczystsze).
Zwłaszcza jeśli owe stworzenia (maszyny) będą pozbawione pozostałości ewolucyjnej historii w postaci mechanizmów regulujących odczucia i zachowania -kreujące plemienny kształt naszych wartości, w których odbija się historia walki o byt
(Przykazania dotyczyły „bliźniego swego” czyli członka własnego plemienia. I nawet dziś są politycy, którzy oficjalnie bronią tego, że obywatel rodzący się w społeczeństwie powinien być własnością rodziców: państwo nie powinno się mieszać w jego wychowanie, społeczność powinna szanować dowolne wartości wybrane przez rodziców dla „ich dzieci”. No i w ramach wolnego rynku i równości szans każdy ma prawo starać się sprawić by jego dziecko miało szanse „równiejsze” na zajęcie posady kierowniczej i by start innego dziecka przygotował je do zaspokojenia potrzeb rynku- na hydraulika czy pomywacza. W końcu ideał wolnego rynku może być przedstawiany jako wartość obliczana przez pozostawione sobie społeczeństwo- z sumy średniej niekompetencji jego członków- ku ideałowi obliczalnej aksjologii.)
Oczywiście jeśli nie zaimplementujmy maszynom analogicznych do w/w mechanizmów, ich wyroki mogą nie zgadzać się z naszym poczuciem dobra i zła.
Możemy mieć wówczas w ogóle problemy z ich zrozumieniem- trochę jak byśmy rozmawiali z kimś z zespołem aspergera (lub z Golemem XIV).
A jeśli im takie mechanizmy wbudujemy mogą nas potraktować jak obce plemię.
Dziękuję bardzo za tak intensywną dyskusję.
Wymianę myśli między k_m i P. Waszkiewiczem muszę jeszcze przemyśleć.
Na gorąco:
Ciekawe wydaje mi się, że k_m zwrócił uwagę na ten aspekt autonomii, który wspólnie przeoczyliśmy.. W rozumieniu k_m ważnym atrybutem autonomii byłaby niepodatność na wpływy z zewnątrz: np. konsekwentna realizacja własnego celu czy też konsekwentne postępowanie zgodnie z uprzednio wypracowanym systemem wartości. Faktycznie, w przypadku ludzi — o których domyślnie zakładamy, że są obdarzeni wolnością wyboru i swojego rodzaju kreatywnością – takie rozumienie autonomii (jednego z jej przejawów) jest jak najbardziej słuszne.
W przypadku maszyn (hipotetycznych maszyn przyszłości) inaczej rozkładamy akcenty. To, co w przypadku człowieka zakładamy domyślnie (inwencja, aktywność, kreatywność), wybija się na plan pierwszy. Po pierwsze chcemy, by maszyna autonomiczna wykazywała inwencję, kreowała własne cele, wypracowywała własne wartości, a to wszystko po części niezależnie od zamysłu jej konstruktora/ów. Oczekujemy zatem, żeby maszyna była nie tylko naszym narzędziem, lecz czymś więcej – być może (jak chce chyba P. Waszkiewicz) czymś dla nas, ze względu na swój sposób widzenia świata, inspirującym.
K-m jednak zwraca uwagę, że podobnie jak w przypadku ludzi, z tego rodzaju aktywnością powinna iść w parze konsekwencja w dążeniu do celu, „uparte” podążanie za regułą, która została wcześniej wypracowana (np. w interakcji ze środowiskiem).
Jednym słowem: autonomia to nie tylko niezależność i kreatywność, ale także niepodatność na zewnętrzne wpływy.
Nadal jednak pozostaje problem inwencji. Jej związek z losowością nadal wydaje mi się silny, choć po uwagach k_m muszę jego naturę intensywniej przemyśleć
Ja zwracam przede wszystkim uwagę na to, że maszyna „autonomiczna” (na modłę człowieka) okazując
inwencję, kreatywność, aktywność, potrafiąc być może zainspirować obserwatorów swymi działaniami czy zmieniać cele
nie powinna się w tym zdawać (li tylko) na ślepy traf.
Że droga przypadku miała by być rozwiązaniem problemu wolności jest dla mnie dziwacznym pomysłem- tak jak kuriozalne zdaje się mi filozoficzne (czy też przez filozofujących fizyków serwowane) tłumaczenie doświadczania przez ludzi wolności wyboru poprzez wzmocnienie losowych stanów kwantowych cegiełek budujących sieci neuronalne.
Sposób postępowania ludzi (i zwierząt) pokazuje nam, że mechanizmy działające w tle, nieuświadomione, biorące pod uwagę ogromną liczbę przetwarzanych równocześnie aspektów otaczającego środowiska i stanów ciała (nowe bodźce, głód, zmęczenie, konieczność zajęcia się czym innym) mogą sprawiać wrażenie losowej zmiany toku postępowania z problemem ale w istocie dają wyraz „mądrości” i chyżości przetwarzania mechanizmów regulacji homeostatycznych.
Nieuświadomione mechanizmy (znamy je tylko po efektach- intuicjach, odczuciach) sprawiają, że zmieniamy sposób działania, nie zapętlamy się i czasem wartościujemy rozmaite alternatywy mimo, że nie potrafimy do końca sposobu przypisania owych wag wytłumaczy. Generują odczucie piękna rozwiązania, intuicyjną wiarę. Może mieć na nie wpływ zarówno odczucie wywołane historycznymi zaszłościami związanymi z którąś z możliwości w sposób nie związany bezpośrednio z danym problemem (i zupełnie nas mylić jak rytuały myślenia magicznego).
Ale to, że ich udział (walka o „estetykę” teorii) jest tak wyraźny także w historii naukowych odkryć (gdzie wydaje się, że powinno się dać poszczególne zmiany teorii wytłumaczyć jedynie „logiką rozumowania”) może być wynikiem tego, że owe równolegle przetwarzające/ w sposób rozproszony analizujące/ informacje mechanizmy, do których świadomość nie ma wstępu- bo nie może się ‘podzielić na wątki’- mają zwyczajnie większą moc obliczeniową niż „nakładka generująca świadomość”.
Sposób ich uczenia się jest inny niż programowanie w tradycyjnym rozumieniu- a rola świadomości (z jej rozumową kalkulacją krok po kroku, jedną ścieżką inferencji czy dowodu) to kolejny mechanizm kontroli zachowania wynikły z wyścigu ewolucyjnego.
Dlatego symulując działanie tylko świadomej kalkulacji a pomijamy cały fundament funkcjonowania rozumu działającego w praktyce, nie osiągniemy analogii w autonomii między człowiekiem i maszyną- raczej na pewno nie przez generatory losowości czy zdawanie się na losowe efekty w konstrukcji fizycznej automatów.
Jeszcze uwaga o konieczności „wystąpienia losowości w przypadku tworzenia maszyn autonomicznych”:
Człowiek nieustannie staje w obliczu konieczności decydowania w sytuacji „niepełnej wiedzy o rozstrzyganym”- przy czym uświadomiona wiedza jest jeszcze mniejsza niż rzeczywisty wynik obliczania w strukturach neuronalnych, których świadomość jest tylko jedną z „funkcji”. I czasem- jak pokazują eksperymenty z podejmowaniem decyzji gdy podawano badanym zbyt wiele danych by je mogli świadomie rozważyć/ pojąć – wyniki przetwarzania informacji w mechanizmach regulacji siłą emocji/odczuć/intuicji kierują ludźmi tak, że można udowodnić, że statystycznie podejmowana „na czuja”/„intuicyjnie” decyzja jest zbyt często trafna by był to wynik zdawania się na przypadek.
Zupełnie co innego to „ niemożność wygenerowania zbioru wszystkich możliwych decyzji i działań.” które wymagałoby stworzenia w modelu kopii wszechświata (mechanika kwantowa tryby takiego modelu chyba by i tak popsuła) i jako argument w dyskusji o możliwości tworzenia autonomicznych maszyn zdaje się być może nie tyle sprowadzeniem problemu do absurdu co wymówką- a chyba najwyższy czas by informatycy „wzięli się do roboty”.
Alternatywnie proponuje wprowadzenie 'inf-autonomii’ jako autonomii poprzez zdanie się na ślepy traf (możemy to nazwać „estymatorem kulowym”* lub „fusy logic”* w hołdzie dla urządzeń i metodologii, którymi posługują się kobiety romskiego pochodzenia dla modelowania przyszłości). Także uczniowie, którzy nie mają czasu na naukę matematyki mogliby wprowadzić „inf-rozwiązanie” jako sposób na autonomiczne i wolne (od wszelkich algorytmów przewidzianych tradycyjnie) uzyskiwanie wyników zadań matematycznych- poprzez rzut kostką.
*- nazwy zastrzegam sobie w wypadku prób zastosowań komercyjnych
Nazwa „fusy logic” faktycznie jest godna zastrzeżenia, :).
(Nawiasem mówiąc, wyczuwam w niej pewną dodatkową ironię w stosunku do modnej w informatycznych zastosowaniach „fuzzy logic” – wszak występujące w tej logice funkcje charakterystyczne zbiorów rozmytych są często jakby z fusów wzięte, to znaczy określone arbitralnie, tak by pasowały do jakiegoś szczególnego zastosowania).
Ale wróćmy do tematu „losowość-inwencja-autonomia maszyn”, który nie tylko mnie tak mocno zajmuje.
Większość dyskutantów zgadza się, że dla zapewnienia maszynom inwencji są niezbędne jakieś czynniki losowe (choć nie tylko one).
Prawdopodobnie na myśl tę naprowadza wstępnie takie oto spostrzeżenie: „Skoro wyniki inwencji mają być (niejako z definicji) nieprzewidywalne i zaskakujące, to proces, który wiedzie do tych wyników też musi być nieprzewidywalny; a więc zależy od jakichś czynników losowych”.
Spostrzeżeniu temu można przeciwstawić – i być może takie są niektóre intuicje k_m-a – założenie, że za nieprzewidywalność wyników inwencji odpowiadają nie żadne czynniki losowe, lecz niepowtarzalny charakter podmiotu/automatu, który dane działania podejmuje; owa niepowtarzalność, jakaś zupełnie nieznana innym podmiotom/maszynom konstrukcja (a przynajmniej pewna istotna część tej konstrukcji) powodowałaby, że wyniki działań danego podmiotu mogłyby również być niepowtarzalne, a tym samym dla innych nieprzewidywalne. Być może coś takiego miał na myśli Leibniz, pisząc o niepowtarzalnych choć ściśle deterministycznych (o ile się nie mylę) monadach.
Główny dyskutant k_m niezwykle mocno i sugestywnie neguje istnienie związku między inwencją a losowością. Z jego komentarzy wynika jednak, że ma na myśli wyłącznie „losowość wewnętrzną”: wzmacnianie efektów kwantowych w sieciach neuronalnych, użycie sprzętowych generatorów losowości wewnątrz maszyn itp.
Jeśli chodzi o innego rodzaju czynniki losowe, ulokowane „na zewnątrz” podmiotu/automatu, to k_m twierdzi wręcz przeciwnie, że odgrywają one znakomitą rolę w jego doświadczeniach i decyzjach. Tym samym wprowadza czynnik losowy tylnimi jakby drzwiami: nie ma go wprawdzie wewnątrz, lecz na zewnątrz jak najbardziej jest i jak najbardziej wpływa na wewnętrzny „program” podmiotu/automatu.
Można tu przeprowadzić analogię z procesem uczenia się sztucznych sieci neuronowych: reguły uczenia się są (mogą być) ściśle określone, niezależne od jakichkolwiek czynników losowych, ale efekt ich zastosowania, wskutek nieprzewidywalności/losowości doświadczanych przez sieć bodźców, jest (może być) niepowtarzalny.
Jednym słowem: zarówno z argumentów k_m-a, jak i innych osób, wnioskuję, że losowość trzyma się mocno: nie do końca potrafimy ją usunąć z prób wyjaśniania specyfiki ludzkiej czy maszynowej inwencji.
W moim przekonaniu, choć to już temat na kolejny komentarz lub wpis, to wszystko łączy się z ideą ewolucji. Idea ta w przekonujący sposób pozwala połączyć „losowość wewnętrzną” (mutacje, krzyżówki itp.) z „losowością zewnętrzną” (właściwą środowisku, w którym następuje selekcja osobników). W koncepcji ewolucyjnej nie neguje się istnienia ani jednego, ani drugiego typu losowości – obydwa czynniki współgrają ze sobą, choć czynnik zewnętrzny kierunkuje zmiany wywoływane przez czynnik wewnętrzny.
I właśnie o ewolucji jest mój komentarz do wpisu „Trzy stopnie autonomii maszyn
Trzeci: nie być maszyną”.
Witam.
Nasza dyskusja o maszynach autonomicznych uległa pewnemu rozproszeniu — ponieważ mamy trzy wpisy odnoszące się do tego samego tematu, w tym ostatni, bardzo ciekawy, głos Witolda Marciszewskiego o trzech stopniach autonomii maszyn.
W związku z powyższym mam poważny dylemat (trylemat), gdzie odpowiadać…
Ponieważ jednak najwięcej głosów znajduje się pod pierwszym wpisem, będę kontynuował dyskusję w tym miejscu.
Sprawa pierwsza. Witold Marciszewski proponuje trzy stopnie autonomii: samouctwo, samozasilanie, samostanowienie.
Wydaje mi się, że samozasilanie powinno być na pierwszym miejscu. Co do dwóch pozostałych szczebli, to mam pewną wątpliwość odnośnie zaproponowanej charakterystyki. Samouctwo w drodze samoprogramowania miałoby polegać na stawianiu własnych problemów, a samostanowienie – na formułowaniu własnych celów. Czy jedno nie pokrywa się z drugim? Maszyna stawiająca własny (a nie narzucony z góry) problem jednocześnie wyznacza sobie pewien autonomiczny cel…
Kwestia druga. W tym samym wpisie, o którym wyżej mowa, autor zwraca w gruncie rzeczy uwagę, że pojęcie „maszyny autonomicznej” jest wewnętrznie sprzecznie. Bycie maszyną kłóci się bowiem z autonomią działań („maszyna” autonomiczna de facto przestaje być maszyną, bo nie realizuje określonego z góry programu).
Jeśli jednak przez automat będziemy rozumieć pewien nasz wytwór (niekoniecznie mechaniczny czy elektroniczny), który potrafi działać samoczynnie (bez ingerencji człowieka, a jedynie w ewentualnej interakcji z nim), to wtedy pojęcie działającej automatycznie i autonomicznie maszyny nie będzie wewnętrznie sprzeczne. A w związku z tym będzie można dyskutować o perspektywach wytworzenia tego rodzaju automatów.
Na koniec chciałbym zagaić nowy wątek. Z perspektywy współczesnych badań, a także pewnych zastosowań, rysuje się jeszcze jedna droga ku maszynom autonomicznym, opatrywana często etykietą transhumanizmu. Chodzi o poszerzanie naturalnych zdolności poznawczych człowieka za pomocą technologicznych wszczepów, np. chipów wzmacniających pamięć czy zdolność koncentracji. W efekcie tego rodzaju zabiegów (prowadzonych jak gdyby od wewnątrz, bo to człowiek sam by się umaszynawiał) mógłby powstać zupełnie nowy gatunek ludzko-maszynowy, który posiadałby zapewne większą autonomię poznawczo-pratyczną niż homo-sapiens.
Wątek tylko zagajam , licząc że inni rozwiną go w kontekście dyskutowanego tu pojęcia maszyny autonomicznej.
Czekałem na komentarze o nowych rozszerzeniach informatycznych umysłu, wymyślnych sposobach na połączenie urządzeń z rozumem tak by łatwiej nam było nawigować w rzeczywistości.
Ale może to ze względu na to jak bardzo przywiązany jestem do „specyficznej jakości mojego rozumowania” – splotów i rozplotów myślowych torów i dygresji- mnie najbardziej interesowało by jednak (w 1 kroku) zachowanie jak najdłuższe obecnej formy ‘ja’. Proponuję zatem wymianę- element po elemencie, na nano-poziomie – struktur neuronalnych na zbudowane z bardziej trwałego elementu. Kluczem jest tu określenie „element po elemencie”- zbudowane z nowych materiałów elementy wplecione w istniejącą sieć winny zachowywać się identycznie jak oryginały- by po jednej komórce wymienić całą strukturę przy zachowaniu ciągłości „systemu” podtrzymującego świadomość.
Zresztą do cielesności także jestem przywiązany- i podobną kurację utrwalającą zachowującą jej „specyficzne jakości” także bym chętnie wprowadził. Żadne transfery świadomości do pamięci komputera mnie nie interesują- w najlepszym wypadku byłyby raczej kopiowaniem niż zachowaniem „istoty”. Nadal chce być niczym rumak w stanie natury.
Jednocześnie łatwiej byłoby przyjąć, komuś przywiązanemu do rozstrzygania podług budulca, że tak zmieniony- bez odmieniania rozumnej istoty- byłbym maszyną autonomiczną „pełną gębą”.
Gdy wymiana okaże się kompletna, wtedy (w kroku 2) znów „krok po kroku”” można byłoby osiągi podkręcać pozwalając sobie na szybsze tworzenie rychlejszych połączeń kreujących rozleglejsze i bardziej rozbudowane/szczegółowe reprezentacje umysłowe rozważanych pojęć. Tak by zapamiętywać łatwiej, pamiętać więcej, przypominać sobie szybciej- rozumiejąc i czując proporcjonalnie więcej- a wciąż będąc ciągłym rozwinięciem obecnego ‘ja’.
Pozdrawiam wszystkich dyskutantów.
Prześledziłem wpisy dotyczące rozpoczętego przez Pawła Stacewicza tematu autonomicznych maszyn i zauważyłem rzecz ciekawą. Otóż mimo, iż padło tu wiele ciekawych uwag o pojęciu autonomiczności, to żaden z dyskutantów nie wyłożył jasno co dokładnie mielibyśmy rozumieć pod pojęciem maszyny. Słowem: dyskutuje się o możliwości zaistnienia maszyn autonomicznych nie wiedząc czymże miałby być maszyny same. A przecież ustalenie czym jest klasa obiektów, o których próbujemy orzekać autonomiczność jest dla owocności bieżącej dyskusji kluczowe.
Z dotychczasowych wpisów wynika, że dyskutanci milcząco przyjęli, iż maszyna to obiekt niebiologiczny, dokładniej – uczyniony ręką ludzką, owoc nauki i techniki. Przekonuje o tym nieobecność rozważań nad, powiedzmy, autonomicznością dowolnych zwierząt, czy choćby i pierwotniaków (swoją drogą ciekawe: czy dlatego, iż dyskutanci uważają je w oczywisty sposób za autonomiczne? czy może raczej za równie oczywiście nieautonomiczne?). Takie pojmowanie maszyn zda mi się wszakże zbyt wąskie. Zostawia bowiem za burtą olbrzymią kategorię maszyn biologicznych będących dziełem procesów ewolucyjnych i żywym (sic!) dowodem twórczych mocy przyrody.
Tymczasem np. w klasycznym ujęciu cybernetycznym maszyna jest rozumiana szeroko, jako dowolny układ/system fizyczny, w którym zachodzi przekształcanie informacji i energii. (W. Ross Ashby, „Wstęp do cybernetyki”, 1963).
Przy tym rozumieniu możliwe byłyby co najmniej trzy typy maszyn:
a) biologiczne,
b) niebiologiczne (technologiczne),
c) hybrydy obu powyższych.
Istoty ludzkie byłby oczywiście egzemplami typu a). W tej sytuacji problem możliwości zaistnienia maszyn autonomicznych w ogólności przestaje, rzecz jasna, być w ogóle problemem.
Rozumiem jednak, iż w obecnej dyskusji rzecz idzie o to, czy możliwe jest nie tyle samo zaistnienie maszyn autonomicznych (takowe bowiem istnieją – są to maszyny biologiczne, a co najmniej ich podzbiór – ludzie), ile raczej zaistnienie maszyn autonomicznych i niebiologicznych zarazem. Co więcej – z przebiegu dyskusji wynika też, że w rozumieniu dyskutantów owa autonomiczność miałaby zasadzać się na powieleniu „charakterystyki mentalnej” przedstawicieli gatunku homo sapiens w materiale nieorganicznym. To z kolei otwiera nam drogę ku dyskusji wzbudzonej przed ponad 3 dekadami przez J. Searle’a i jego argument tzw. „chińskiego pokoju”. Jako że temat to niepomiernie rozległy, dlatego nawet nie próbuję go poruszać poprzestając na wskazaniu. Zwrócę jedynie uwagę, iż argument Searle’a nie został uznany za rozstrzygający w dyskusji nad (nie)możnością odtworzenia pełnej charakterystyki umysłowej człowieka in silico. Słowem: dyskusja nad tym wciąż trwa.
Co się zaś tyczy samego pojęcia autonomicznych maszyn, to proponuję przybliżenie doń na bazie poniższego zbioru definicji:
[SysAut] Autonomicznym jest system spełniający cybernetyczną definicję maszyny oraz pozostający poza bezpośrednią kontrolą świadomego użytkownika.
Dalej:
[Kont] Kontrola bezpośrednia jest to sterowanie polegające na transmisji energii i informacji w dowolnej postaci (elektrycznej, ale i cieplnej, kinetycznej itd.) od użytkownika do maszyny, celem wpływania na jej działania w świecie.
Intuicyjnie rzecz ujmując:
[MaszAut] Autonomiczną jest maszyna wewnątrzsterowna.
Krótko mówiąc: maszyną autonomiczną będzie dowolny układ, który gromadzi informacje, przetwarza je i podejmuje na ich podstawie decyzje co do swoich dalszych działań w świecie. Utożsamiam zatem autonomiczność z samodzielnością (maszyna autonomiczna działa „on its own”).
Zwróćmy jednak uwagę, że z powyższego nie wynika absolutnie nic nt. źródeł owej samodzielności. W żaden sposób nie odniosłem się do przecież problemu pochodzenia oprogramowania maszyny (czyli zbioru reguł pozwalającego jej przetwarzać zgromadzone informacje i podejmować działania w świecie).
Źródło oprogramowania maszyny może być co najmniej dwojakie:
a) ludzkie (świadomy człowiek) – dla maszyn niebiologicznych,
b) pozaludzkie (procesy ewolucyjne) – dla maszyn biologicznych.
Pytanie, które się w tym momencie nasuwa brzmi: czy źródło oprogramowania ma jakikolwiek wpływ na autonomiczność maszyn? Trudno jest mi na nie odpowiedzieć, aczkolwiek odnoszę wrażenie, że naturalna intuicja większości ludzi sugeruje odpowiedź pozytywną (wszak mamy nieprzeparte wrażenie, że pies lub kot są bardziej autonomiczne, niźli komputery, nawet i najpotężniejsze).
Dlatego postępując za ową intuicją proponuję poszerzyć ostatnią definicję maszyny autonomicznej do następującej postaci:, która nie została oprogramowana do działania w świecie przez świadomego użytkownika.
[FullAut] W pełni autonomiczną maszyną jest
Zwróćmy uwagę, że w tym sensie [FullAut] są z pewnością wszystkie organizmy żywe (przyjmuję tu skrajnie upraszczające założenie, że oprogramowaniem danego organizmu jest jego genom) poza, być może, GMO (Genetycznie Modyfikowanymi Organizmami). Problemem może się jednak okazać status gatunku homo sapiens. Generuje go fakt, że my – poza oprogramowaniem biologicznym – posiadamy również oprogramowanie kulturowe, w które jesteśmy wyposażani w procesie socjalizacji i enkulturacji przez świadome jednostki ludzkie (rodziców, wychowawców, nauczycieli). Stąd moje zastrzeżenie. Tego wątku nie będę tu jednak dalej rozwijał.
Podumowując: starałem się powyżej coś, co możnaby nazwać „maszyną minimalnie autonomiczną” – obiektem wewnątrzsterownym i samodzielnym (zarówno informacyjnie, jak i energetycznie). Sądzę, że może to stanowić dobry punkt wyjścia do dalszych rozważań nad „maszynami wysokiego rzędu autonomiczności” – takimi jak ludzie, lub też maszyny niebiologiczne posiadające „mentalne charakterystyki” wzorowane na ludzkich. A o takie przede wszystkim chodzi Pawłowi Stacewiczowi i – jak mniemam – reszcie dyskutantów.
Rodem z Serle’a: chociaż my sami nie rozumieliśmy o czym piszemy zdania („ nie wiedząc czymże miałby być maszyny sam”) Panu udało się rozpoznać o czym mowa.
Pozostaje mi „przyjąć Pańską terminologię”- coś tu Popper się panoszy aż za bardzo, ale w jego niedbałym podejściu do definicji chyba jednak coś jest skoro dało się tak łatwo zrozumieć odgłosy z naszego „chińskiego pokoju”.
Oczywiście zgadzam się z pożytkiem dla dyskusji z przytoczonych klasyfikacji a także ze wróceniem uwagi na oczywistą (dla mnie) kwestię możliwości rozpatrywania istot żywych jako maszyn i. To uporządkowanie dyskusji może jeszcze bardziej ją ożywi mimo arbitralność proponowanych podziałów:
Skoro człowiek jest maszyną (a jego działanie jest wynikiem oprogramowania genetycznego oraz swoistego programu tworzącego się w interakcji ze światem w ramach funkcjonowania sieci neuronalnych) całość ludzkiego ustroju jest więc (nawet jeśli emergentną to ) jednak wyrazem funkcjonowania prawidłowości w przejawianiu się zjawisk w rzeczywistości (tzw „praw natury”). A więc także program informatyczny napisany przez człowieka takim wyrazem. Podział na ludzkie i pozaludzkie źródła „w istocie” zaciera się, choć jest pomocny dla dyskusji
A co do Serle’a jeszcze- choć to temat rzeczywiście zbyt szeroki i nierozstrzygnięty- to ja mam wrażenie, że jego argument dowodzi raczej czegoś zupełnie przeciwnego niż w zamierzeniu autora- skoro rozumowanie można „symulować” wykonując instrukcje w „rozproszeniu”.
Witam,
Zacznę od poruszenia kwestii nazywania organizmów żywych maszynami.
W moim odczuciu jest to bardzo nienaturalne, dziwne. Rozumiem, że takie definicje maszyn (obejmujące żywe organizmy) dostarczają nam różne encyklopedie, lecz czy to nie kłóci się z naszą intuicją?
Czy powiedzielibyśmy, że pies cieszący się na widok swojego właściciela wracającego do domu jest maszyną?
Oczywiście nie wszystkie organizmy żywe są na tyle bliskie człowiekowi, że można by je nazwać członkami rodziny, lecz myślę, że nawet takie organizmy, które są takimi małymi „automatami”, których jedynym celem jest przedłużenie gatunku, nie potrafilibyśmy nazwać maszynami.
Uważam, że nie powinniśmy rozmawiać o gatunkach już istniejących, znanych człowiekowi ponieważ – no właśnie – już powstały i nie musimy się nad tym zastanawiać.
W takim razie, w moim odczuciu, maszynami biologicznymi są organizmy wytworzone przez człowieka, np. w wyniku badań nad krzyżowaniem genów. Wtedy będziemy mogli nadać tym organizmom coś w rodzaju „stanu początkowego”, czy też zbiór właściwości, zachowań i dopiero wtedy obserwować, jak rozwija się ich autonomiczność.
Odnośnie hybryd maszyn biologicznych i technologicznych – nie jest dla mnie do końca jasne, czy chodzi nam o organiczne ciało z nieorganicznym „mózgiem”/centrum sterującym, czy na odwrót?
Myślę, że najbliższa nam i najbardziej naturalna definicja maszyny, to właśnie ten twór nieorganiczny i nad tym pojęciem powinniśmy się skupić.
Pozdrawiam
Dziękuję za ten głos. Doskonale rozumiem wspomniane intuicje. Gdy widzimy psa, kota, lub ptaka zajmującego się swoimi sprawami, to słowo „maszyna” wydaje się żałośnie nieadekwatne.
Proszę wszakże zauważyć, że chodzi tu o potoczne, codzienne, rozumienie tego terminu. W moim wpisie bazowałem natomiast na rozumieniu cybernetycznym – uogólnionym – które jest zgoła niepotoczne.
Poza tym należy pamiętać, że intuicyjne rozumienia rozmaitych terminów mogą nas często zwodzić (bądź wręcz – zawodzić). Otóż pies witający właściciela z pewnością nie bardzo przypomina (potocznie rozumianą) maszynę. Ale co począć z płazińcami lub pierścienicami (tasiemiec, dżdżownica)..? A co z pierwotniakami lub bakteriami (pantofelek, escherichia coli)..? Czy one są mało „maszynowe” w równie oczywisty sposób co pies..? Sądzę, że odpowiedź pozytywna byłaby tutaj o wiele mniej intuicyjna, niż w przypadku psa.
Na początek chciałbym podziękować Radkowi za tak obszerny, przemyślany i wnikliwy głos w dyskusji (ten z 6.04.2014).
Proponowana przezeń definicja maszyny ma pewną cybernetyczną tradycję, ale muszę przyznać, że nie oddaje intencji pytania inicjującego dyskusję „Czy kiedykolwiek powstaną maszyny autonomiczne?”. Gdyby apriori za maszynę uznać człowieka lub inne zwierzęta „wyższe”, to wzmiankowanego pytania w ogóle nie trzeba by zadawać (chyba, że ktoś chciałby mierzyć się ze sceptycyzmem co do autonomii ludzi i zastanawiać się, czy mogą powstać jakieś ponadludzkie „maszyny” naprawdę autonomiczne).
Przyznam się, że wolę podejście turingowskie: definiujemy maszynę jako twór działający tak a tak (niekoniecznie musi to być schemat uniwersalnej maszyny Turinga UMT), a następnie wyposażeni w taką – możliwą do technologicznych rozwinięć/zastosowań – definicję, próbujemy zrozumieć, czy daje ona podstawę wytworzenia systemów co najmniej tak autonomicznych jak ludzie. Mam wrażenie, że tak samo (lub bardzo podobnie) widzi sprawę w swoim komentarzu Zaza.
Tego rodzaju podejście jest dla mnie bardziej owocne poznawczo (również filozoficznie), bo nie zamyka dyskusji, lecz ją otwiera. W jego ramach nie utożsamiamy człowieka wstępnie z maszyną, lecz zastanawiamy się czy maszyny tak a tak zdefiniowane (np. na modłę UMT, ale niekoniecznie) mogłyby dorównać człowiekowi pod względem autonomii.
(Być może jest to sprawa terminologii, ale wybór terminów ma jednak pewne konsekwencje co do argumentacji).
Wydaje mi się, że przy takim podejściu (maszyna jako twór działający samoczynnie, choć zgodnie z pewnymi – co najmniej początkowymi – prawidłami, określonymi w definicji maszyny), moglibyśmy dopuścić istnienie maszyn organicznych (na co np. Zaza się nie godzi). Na przykład: maszyn budowanych z wykorzystaniem komórek organizmów żywych czy sterowanych za pomocą jakichś specjalnie wytworzonych sekwencji DNA. Abyśmy jednak takie twory mogli określać mianem maszyn, musielibyśmy podać precyzyjne reguły konstrukcji (w jaki sposób łączymy sekwencje DNA, jakie komórki możemy wykorzystywać, jak je możemy łączyć w bardziej złożone systemy itp…). W ten sposób podalibyśmy pewną definicję maszyny (jednej z maszyn) i otworzylibyśmy pole do dyskusji nad możliwym stopniem autonomii tego typu maszyn (której punktem odniesienia byłby zapewne człowiek).
A na koniec (i trochę na marginesie powyższych uwag) chciałbym powiedzieć, że bardzo spodobało mi się ciekawe pytanie z komentarza Zazy.
Cytuję: „Odnośnie hybryd maszyn biologicznych i technologicznych – nie jest dla mnie do końca jasne, czy chodzi nam o organiczne ciało z nieorganicznym „mózgiem”/centrum sterującym, czy na odwrót?”.
Ciekaw jestem dalszych głosów, bo mam wrażenie, że dyskusja się jeszcze nie wyczerpała.
Chyba niedostateczny akcent kładłem w swych komentarzach na oczywistą dla mnie kwestię- wiążącą się z traktowaniem człowieka jak wzorca autonomicznego automatu- a mianowicie na „jakość” wolności dostępnej człowiekowi.
Może należy się cofnąć o krok- a właściwie o parę stuleci:
Znane jest zapewne powszechnie Hume’a rozwiązanie kwestii koniecznego związku między przyczyną a skutkiem- to, że obserwujemy powtarzającą się relację w występowaniu A po B i odczuwamy (z przyzwyczajenia) konieczność takiej A i B wzajemnej konfiguracji także w przyszłości. Przeświadczenia co do owej konieczności budują założenia pozwalające nam poznawać rzeczywistość i są także fundamentalne dla postępu nauk ścisłych i wszelkich technologii i działań.
Z tym, że istota „pośredniego” kroku między A i B nie może być docieczona- nawet cieszące się sukcesem nauki ścisłe badają pomiary skażone od razu owym założeniem i obciążone teorią, w rezultacie tworząc jedynie modele sprzyjające rozumieniu a nie odkrywające istotę koniecznego połączenia (może nieprecyzyjnie ale krótko mówiąc: błędnym kołem byłoby stwierdzenie, że ją przedstawiają, skoro, po części, ja zakładają).
Ale takie same regularne występowanie A po B można dostrzec statystycznie opracowując relacje między motywami ludzi a ich działaniami. Jeśli więc ktoś ma problem z przyjęciem możliwości określenia automatu „zdeterminowanego” koniecznością nauk ścisłych czy nie powinien mieć zastrzeżeń do określenia człowieka wolnym – niezdetermionwanym koniecznością „duchową” czy wynikającą z „nauk moralnych”?
Oczywiście dla mnie duchowa konieczność, wynikająca z metafizycznej konstrukcji osobowości, sama w sobie może zostać sprowadzona do tej opisywanej przez nauki ścisłe, ale nie trzeba tego przyjmować by dostrzec granice i „obniżyć poprzeczkę” sztucznym tworom (o to po części chodziło w niektórych wątkach moich komentarzy).
Tym razem zatem powstrzymam się od argumentów z neurokognitywistyki a przytoczę to czego trafność każdy może sprawdzić „we własnym zakresie” i „niezależnie”- do przemyśleń Hume’a zrodzonych z jego badań introspekcyjnych i analizy logiczne:
„Przewagę teorii wolności można wyjaśnić, wskazując (…) fałszywe odczucie czy też pozorne doświadczanie wolności lub nieskrępowania [indifference], którego doznajemy lub możemy doznawać podczas wielu naszych działań.”
„wolność (…) jest tylko brakiem takiego zdeterminowania oraz swego rodzaju swobodą czy nieskrępowaniem, które odczuwamy, przechodząc bądź nie od idei określonego przedmiotu do któregokolwiek z przedmiotów po nim następujących”
„kiedy rozważamy ludzkie (innych) działania na ogół zdolni jesteśmy wówczas ze znaczną pewnością wnioskować o nich na podstawie motywów oraz usposobienia stojących za nimi osób, to jednak zdarza się częstokroć, że sami dokonując tych działań, coś na podobieństwo owej swobody lub nieskrępowania odczuwamy”
„Czujemy, że w większości przypadków nasze działania podporządkowane są naszej woli i roimy sobie, iż odczuwamy, że sama wola nie jest podporządkowana niczemu, gdyż kiedy zaprzeczenie tym faktom sprowokuje nas do próby, czujemy, że wola z łatwością zwraca się w dowolnym kierunku, wytwarzając swój obraz (…) nawet po stronie której nie obrała (…) Nie zauważamy na to, iż motywem naszego działania jest tu ekscentryczne pragnienie zamanifestowania wolności”
Pragnienie- zatem uczucie (czy jak chce Hume 'impresja’) coś odczuwane (jak pisał Hume- jest to więc „ukryta sprężyna naszego działania”). Odczucie wolności to rezultat procesów, nad którymi nie mamy świadomej kontroli niepoznawalnych- a nie wydedukowana 'idea’.
Dla naszej dyskusji bardzo ważne jest i to, że istota konieczności dostrzegana w relacji między A i B jest analogiczna zarówno przy badaniu zjawisk przyrody jak i działań człowieka:
„Konieczność dowolnego działania, bez względu na to czy jest to działanie materii, czy umysłu, nie jest, prawdę mówiąc, jakością czynnika działającego, lecz przysługuje każdej myślącej i rozumnej istocie analizującej to działanie oraz zasadza się przede wszystkim na takim zdeterminowaniu myśli tej istoty, które nakazuje jej wnioskować o zaistnieniu tegoż działania na podstawie określonych poprzedzających ją przedmiotów”
Reasumując- uważam, że dostrzeżenie granic czy też właściwej „mocy” wolności jaką dysponuje człowiek-wzorzec najwyższego znanego nam stopnia samosterowalności i autonomii – we właściwy sposób porządkuje dyskusję i unaocznia co właściwie- tworząc „sztuczne” automaty- chcemy/ możemy osiągnąć.
Tak samo jak wskazanie ewolucyjnych procesów, jako tych których owocem są obiekty będące wzorem autonomii, wskazuje jak walka z chaosem okoliczności (z losowością) w imię podtrzymania trwania jest jedyną znaną nam drogą by dojść do omawianego celu.
1. Rozumiem doskonale podejście turingowskie proponowane przez Pawła. Upatruję w nim jednak problemu polegającego na tym, iż w tej perspektywie maszyna, o której dyskutujemy redukuje się po prostu do maszyny liczącej, czyli swojskiego komputera, natomiast problem autonomii tak rozumianych maszyn inną odsłoną dyskusji zapoczątkowanej przez Searle’a w latach 80′. A wówczas zapewne mamy niewielkie szanse wnieść do niej coś nowego.
2. Mimo to widzę jednak pewną ścieżkę pozwalającą uniknąć osunięcia się naszej dyskusji w ów „searle’owski kocioł”. Otóż jest nią odseparowanie pojęcia autonomiczności od pojęć wywodzących się z języka psychologii i filozofii umysłu („umysł”, „świadomość”, „intencja”, „wola” itp.).
Wówczas pytalibyśmy, czy mogą istnieć maszyny liczące, które nie będąc wyposażone w stany „umysłopodobne” byłyby jednocześnie autonomiczne.
3. Tutaj natykamy się jednak na kolejny problem. Otóż póki co nie udało nam się opisać pojęcia autonomiczności bez korzystania ze wspomnianych pojęć ze słownika psychologii rodem…
W swoim pierwszym komentarzu (z 6 kwietnia) usiłowałem właśnie coś takiego uczynić. Zaproponowałem mianowicie rozumienie autonomiczności jako wewnątrzsterowności – samodzielności energetycznej i informacyjnej maszyny w świecie. Proszę zauważyć, że nie użyłem nigdzie języka psychologizującego. Być może warto byłoby pójść dalej tym tropem? Z przyjemnością zapoznam się z głosami innych dyskutantów w tej kwestii.
Warto- pewnie jest wiele komercyjnych zastosowań dla maszyn o różnym przedziale autonomiczności zdefiniowanej bez pojęć rodem z psychologizującego języka.
Jak daleko można tak dojść tym tropem- pewnie tak daleko, aż wewnątrzsterowność i samodzielność energetyczna nie sprawi, że przestanie być warto właśnie- ze względu na ryzyko braku zwrotu kapitału.
Czy odseparowywanie „wewnątrzsterowności – samodzielności energetycznej i informacyjnej maszyny w świecie” od pojęć psychologicznych- wolności, swiadomości, umysłu etc.- jest rzeczywiście właściwym krokiem by rozważyć te kwestie w kierunku których biegła dyskusja? Czy rzeczywiście była ona bezcelowa?
Wszak ludzkie automaty dzielą oba światy (opisywany psychologizującym i „uprzedmiotawiającym” językiem „cybernetycznym”/ „ścisłych nauk”) w praktyce. Czemu zatem rezygnować z kompletnego opisu czegoś co jest nam dane (każdy może badać swój egzemplarz) i co stanowi przez to wzorzec jakości, które chcielibyśmy osiągnąć także w naszych sztucznych tworach.
Wolność nie przeciwstawia się wewnętrznej konieczności a przymusowi zewnętrznemu- choćby taka parafraza słów Hume’a już przybliża nas w kierunku odpowiedzi na jedno z pytań dyskusji- o to czy postępowanie zgodne z programem może być uznane za autonomiczne (skoro konieczność zgody z charakterem nie niweczy wolności).
Ogólnie zdaje się, że tak jak wiele do filozofii umysłu może wnieść informatyka to stopniowo
ograniczenia rozumności i opis istoty wolności człowieka, przedstawiane od stuleci przez filozofię, mogą wnieść coraz więcej do tego na co możemy liczyć projektując nasze automaty.
Te elementy można wprowadzić do definicji autonomiczności zgodnej z wymogami ram psychologicznych pojęć- bo do ich opisu pierwotnie się odnoszącym- osiągając cel i pełne zrozumienie.
A jeśli nie znajduje się w dorobku filozoficznym praktycznych wskazówek- cóż, może trzeba lepiej szukać?
Jeśli już znowu mowa o Searlu- to trzymając się „narracji cybernetycznej” jedną ręką, można do jego „kotła” włożyć drugą by wyłowić odpowiedź na pytanie o „test” na 'posiadanie świadomości’. Chodzi mi o tezę Searl’a, według której warunkiem (pewnie nie jedynym) zaliczenia owego testu jest złożenie deklaracji: świadomości posiadania (wykład Serla w TED).
No właśnie- spytajmy teraz o wolność i niezależność:
Czy rzeczywiście bez wiedzy z zakresu filozofii umysłu i neurokognitywistyki nie wiedzielibyśmy, że odczucie wolności działania rodzi się poza obszarami mózgu odpowiedzialnymi za świadomość?
Pełnię świadomości deklarujemy, wolność zaś odczuwamy pod presją mechanizmów regulacji zachowania. Odczuwamy wolność „nie wiedzieć czemu”- bo przecie określeni jesteśmy koniecznościami regularności w funkcjonowaniu umysłu
Sądzę, że te wyniki były dostępne z zbiorze filozofii już od stuleci.
Jeśli jakieś problemy w filozofii zdają się „kotłować” to może jednak „coś w nich jest”. A to, że konflikt trwa nie oznacza, że nie można wysnuć z dyskusji praktycznych nauk.
Weźmy wszystkie zastrzeżenia sceptycznej filozofii i rozważmy je w odniesieniu do siebie:
Każdy deklaruje, że jest rozumny, racjonalny i niezależny. Jakie są możliwe do jasnego przedstawienia i rozumowo pewne fundamenty takiego obrazu własnej osoby i przekonania o niezależności jako jednostki? Czy właściwie powinno się mówić zwykle: 'Wiem czego chcę’ czy 'Czuje czego chcę’ ? 'Wybieram rozumnie cele’, czy 'Używam rozumu by osiągnąć cele, które czuję że są zgodne z moim charakterem’ ?
Uwaga: zdarza się, że przekonania o niezależności i samodzielności nabieramy na podstawie opinii innych na nasz temat.- co może wyjść „w praniu” i choć nie o to dokładnie mi chodzi to- samo w sobie- jest ciekawym wynikiem.
Wiem, wiem: była krytyka psychologii, teraz może nastąpić krytyka tanich sceptycznych chwytów, które nigdzie nie prowadzą zupełnie jak „beznadziejny stan kartezjańskiego zawieszenia”.
Ale właśnie o to idzie (a w zasadzie grzęźnie) – o to popadanie w impas gdy przychodzi o jasną manifestację rozumności jako atrybutu 'ja’ i dylematy związane z wolnością.
A więc- wbrew pozorom- wciąż jestem „w temacie”- chodzi mi o przyjmowanie zbyt wysokich standardów dla maszyn ze względu na mylny obraz własnych przymiotów).
Bo dyskusja jest o autonomii maszyn a problem zaiste leży w definicjach- w ich sprawiedliwym stosowaniu.
Może więc właśnie rozciągnijmy reguły stosowane wobec ludzi na maszyny ale nie piętrzmy przeszkód – stosujmy równe kryteria łącznie z tymi określonymi poprzez psychologizujące pojęcia- by otrzymać rezultat zgodny z intuicją, poczuciem wolności zgodnie ze zmysłem sprawiedliwości.
By racjonalnie pójść naprzód- z pochodem nauk ścisłych- nie wdając się w mętne paradoksy- przyjmujemy założenia zgodne z naszymi intuicjami.
A te intuicje określają to jak chcemy rozumieć wolność i autonomię i to z wewnętrznej perspektywy ( i niestety znów psychologizujące pojęcia właściwe dla tego od wewnątrz spojrzenia na proces się kłaniają).
Nauki ścisłe zaś pokazują obraz tych samych procesów z zewnętrznej perspektywy.
I te obrazy muszą się dopełnić. Tylko zajrzenie z obu stron usatysfakcjonuje w pełni dyskutantów.
Cel ostateczny osiągniemy, gdy maszyna nie tylko będzie zachowywała się autonomicznie (sama się sterować, będąc niezależna energetycznie, koniecznie trzymając się jedynie własnych wewnętrznych zasad- nie działając pod zewnętrznym przymusem) ale gdy spytana zadeklaruje, że jest świadoma własnej wolności- a nam (w obliczu jej pozostałych działań) będzie wypadało uwierzyć.
Chciałbym (w miarę możliwości zwięźle) przedstawić pomysł zwiększania autonomii maszyn, który (zapewne dzięki ignorancji) nazywam własnym.
Rozwiązanie o jakie mi chodzi polega na tym by w automacie generatory losowości (mające chronić przed beznadziejnym utknięciem tradycyjnych algorytmów wobec nieprzewidzianych okoliczności) zastąpić sztuczną siecią neuronową.
W trakcie gdy ów automat sterowany byłby tradycyjnymi automatami- przez sieć tą przepuszczane miałyby być wszelkie dane związane z monitorowaniem zewnętrznych okoliczności, stanem własnym automatu (np. poziomem energii) jak i etapem realizacji zaprogramowanych działań- „tresując” ją tak by odzwierciedlał się w niej logos zjawisk otaczającej ją rzeczywistości. Obserwując jakość ludzkich olśnień twierdzę, że ostateczny rezultat mógłby nie odróżniać się w działaniu od manifestowania się „intuicji”.
Wiadomo, że zrazu zezwolenie sieci na to by „pchnęła algorytmy” w nowym kierunku nie gwarantowałoby (tak samo jak w przypadku generatora losowości) skutecznej inwencji na drodze do celów. Ale uważam, że byłoby bliższe znanemu nam z obserwacji zachowań ludzi i zwierząt (wzorców autonomii i rozumowych działań) uwzględnianiu nieoczywistych i nieuświadomionych powiązań w przejawianiu się zjawisk świata zewnętrznego i wewnętrznego stanu ustroju wobec nich. Umożliwiałoby także by w tle ścisłego rozważania określonych zadań w przypadkowym środowisku „majaczyła” konieczność podtrzymania trwania w krytycznych momentach uniemożliwiając zapętlenie się- bardziej „naturalnie” niż poprzez rzut kostką.
Nic nie stoi na przeszkodzie by w okresie „edukacji”- w razie niemocy- wkraczali opiekunowie i ręcznie sterowali urządzeniem- przy czym ich działania także zostałyby „odzwierciedlone” w sieci i to w powiązaniu z zaistniałymi okolicznościami zewnętrznymi i stanami własnymi urządzenia.
Co do ewolucji koniecznej na dojściu do pożądanego rezultatu (gdy tak ulotna jest rozumienie rozproszonego przetwarzania- nie do końca kontrolowanego- danych w sieci) to mogłaby się ona odbywać dwutorowo w ramach iteracyjnego modyfikowania tradycyjnych algorytmów (implementowania nowych) lub zwiększania wirtualnej objętości sieci.
W zasadzie w takim ujęciu byłby to bardziej proces powstawania nowych jakości w ramach „inteligentnego projektu” niż ewolucji- przy czym stwórca projektowałby tu odpowiedzi na pytania, których sposobu rozwiązania sam nie do końca rozumie.
Na koniec dodam, że taki automat przejawiałby w swym działaniu jakości jakie wymykać mają się możliwości komputerów- według opinii dyskutantów w wątku „Od naturalizmu Searle’a do naturalizmu w badaniach nad SI”. Łącząc (kojarząc), nadając nieoczywiste znaczenia poprzez powiązania ogółu monitorowanych zjawisk w rzeczywistości mógłby (w zasadzie) przejawiać taki automat zdolność do olśnień, intuicji i definiowania problemów na nowe sposoby.
Oczywistym jest, że w swym przetwarzaniu danych nigdy nie byłby wolny od założeń jawnych jak i skrytych w splątanych meandrach sieci – tak samo jak człowiek- i co do zasady w równym stopniu jak on autonomiczny.
Panie Stacewicz,
Widać i czuć, żeś Pan jest filozof. Bardzo mnie interesuje czy brał Pan udział w jakimkolwiek projekcie którego produktem byłby jakikolwiek obiekt fizyczny typu – robot, urządzenie "autonomiczne" czy nawet program komputerowy wykorzystywany w praktyce?
Nie ukrywam, że jestem zwolennikiem praktycznych zastosowań… Z tej całej dyskusji (i nnych z Pana udziałem) nie jestem niestety w stanie wyciągnąć jakiejś praktycznej wiedzy. To co tutaj napisane może i rozwija umysł dyskutantów ale niestety nie ma żadnego praktycznego przełożenia na cokolwiek. Takie gadu-gadu.
tym niemniej podrawiam,
bigos
Szanowny Panie,
Nasz blog nie jest czymś w rodzaju praktycznego poradnika dla programistów czy inżynierów. Jeśli tak Pan odczytał nasze intencje, to przepraszamy. Według mnie dobrze wyjaśnił je Witold Marciszewski w tekście wprowadzającym w tematykę blogu, dostępnym na jego pasku poziomym, pod etykietką „O blogu”: http://marciszewski.eu/?page_id=7.
Staramy się też , aby prowadzone rozmowy nie były zwykłym „gadu-gadu”. Proszę zauważyć, że większość głosów jest dość obszerna, dobrze przemyślana i wpisuje się w pewien ciąg dyskutowanych wcześniej argumentów. Nawiasem mówiąc, Pański głos – gdyby go lepiej przemyśleć i rozbudować – pasowałby raczej do dwóch dyskusji o przydatności filozofii: http://marciszewski.eu/?p=1565 oraz http://marciszewski.eu/?p=3985. Bardzo ciekawie wypowiadali się w nich m.in. studenci wydziału MiNI, a więc osoby o praktycznym raczej nastawieniu do nauki i życia. Proszę poczytać. Niektórzy byli sceptyczni wobec filozofii, inni nie.
Co do moich dokonań praktycznych na polu informatyki i jej zastosowań, to nie są one oszałamiające, ale fakt jest faktem, że pisałem kiedyś programy (jeden nawet sprzedawał się komercyjnie). W ostatnich latach zaś uczestniczyłem intensywnie – jako filozof i matematyk zarazem – w poważnym projekcie Archipelag Matematyki, którego finalnym efektem jest produkt jak najbardziej fizyczny, tj. internetowa i multimedialna gra edukacyjna, mająca zachęcić uczniów szkół średnich do zgłębiania matematyki: http://www.archipelagmatematyki.pl. W ramach tegoż projektu współpracowałem z grafikami komputerowymi i programistami; głównie jednak zajmowałem się opracowywaniem i recenzowaniem materiałów dydaktycznych. W naszym blogu są zamieszczone dwie próbki takich materiałów: http://marciszewski.eu/?p=3389 oraz http://marciszewski.eu/?p=4490. Pod jednym z nich wywiązała się nawet dość długa dyskusja.
Mam nadzieję, że odpowiedziałem na wszystkie Pana pytania – i te zadane wprost, i te nie-wprost.
Zachęcam gorąco do udziału w naszych rozmowach blogowych, które zapewne nabiorą tempa po wakacjach. Gdyby miał Pan ciekawe spostrzeżenia o maszynach autonomicznych, bardzo chętnie je poznam.
Pozdrawiam – Paweł Stacewicz.
Drogi Kolego
Jest to system wydatnie ułatwiający pracę matematykom, którego stworzenie wymagało programistycznego mistrzostwa. Nie miałem żadnego udziału w tym programowaniu (na tym się nie znam), ale miałem udział w jego powstaniu jako organizator. M.in. zainicjowałem i prowadziłem jako kierownik duży ogólnopolski projekt badawczy, zdobywszy z Ministerstwa fundusze na wyposażenie w IMB XT (był rok 1986) kilkunastu ośrodków uczelnianych kooperujących w rozwijaniu Mizara. Projekt miał tytuł "Systemy logiczne i algorytmy do testowania przez komputer poprawności dowodów".
Niektórzy koledzy filozofowie patrzyli na to z lekceważącym pobłażaniem, jak na niezrozumiałe dziwactwo. Ale ja byłem pewny, że to ma przyszłość, bo miałem inną niż oni filozofię, ukształtowaną na wysoce teoretycznych pracach Hilberta i Gödla (który nie napisał ani jednego programu, ale zainicjował wielce dziś aktualne narzędzia do określania efektywności programów). Mój informatyczny wkład do Mizara był żaden, system się zrodził z pomysłowości, talentów i wiedzy Andrzeja Trybulca, ale takie projektu wymagają wsparcia organizacyjnego, a także opiniotwórczego (m.in. dla pozyskiwania funduszy) w środowiskach również humanistycznych, z których się rekrutuje większość decydentów ministerialnych itp. Wkładem opiniotwórczym jest np. mój artykuł "A Jaśkowski-Style System of Computer-Assisted Reasoning" w tomie "Philosophical Logic in Poland" (Kluwer 1994). Taką rzecz mógł napisać tylko filozof.
Takie tematy podejmuje dr Stacewicz, mający jeszcze i ten atut, że jest nie tylko filozofem, ale i zawodowym matematykiem. Spróbuję kiedyś włączyć się w zainicjowaną przez niego dyskusje o autonomii maszyn, wskazując na jej praktyczną doniosłość dla projektu SI. Projekt ten stoi przed pytaniem, w jakim rozwijać go kierunku: czy poprzestać na możliwościach obliczeniowych maszyny Turinga, czy sięgać po hiperobliczenia (o ile są one możliwe — to problem typowo filozoficzny)?
Życzę sukcesów w praktyce zawodowej i dalszego wkładu w "Polemiki i Rozmówki" — WM.
Temat w zasadzie został omówiony już bardzo szeroko – w samym rodziale książki „Umysł-Komputer-Świat” , p.t. „Czy powstaną maszyny autonomiczne?” jak i przez poprzedników. Informacje pojawiające się były bardzo spójne: maszyny automatyczne nie powstaną z dnia na dzień, ich rozwój zdefiniowany jest przez rozwój towarzyszących technologii ( wspomniane w ksiażce kolejne generacje komputerów, ewolucja oprogramowania (rozwój interfejsów, przetwarzania dźwięków i obrazów czy kontrola innych urządzeń) i powstanie internetu.
Zważywszy na dotychczasowy postęp w tej dziedzinie, osobiście, jestem przekonana, że w przeciągu następnych dwóch dekad maszyny autonomiczne ujrzą światło dzienne. W mojej definicji, zbieżnej zresztą z definicjami kolegów i koleżanek – maszyny autonomiczne to takie, które potrafią podejmować decyzje samodzielnie, bez udzialu użytkownika. Ponadto, wziąwszy pod uwagę docierające doń sygnały oraz rezultaty wlasnych działań i komputacji potrafią modyfikować swoje oprogramowanie i dostosowywać je do naszych (bądź swoich) potrzeb. Nie zgodzę się, tak jak km, z cechą losowości jako będącą niezbędnym składnikiem do uzyskania nieprzewidywalności. Z dwóch powodów. Po pierwsze, jest to jedynie cecha sprzętowa, która może być zaprogramowana na wyższym poziomie w sposób nie przejawiający się w losowości uzyskiwanych wyjściowych rezultatów. Po drugie, nieprzewidywalność nie stanowi, według mnie kryterium do oceny stopnia autonomiczności maszyny. Ważniejszym wydaje się tu swego rodzaju umiejętność autoreflekcji maszyny i jej zdolność do modyfikacji działań.
Abyśmy jednak osiągnęli ten stopień zaawansowania technologicznego potrzeba jeszcze udoskonalenia pojedynczych narzędzi: sensorów, przetwarzania skomplikowanych obrazów dźwięków czy choćby ludzkich emocji. Odgraniczyłabym się tu od spekulacji o cech ludzkich takich jak kreatywność, empatia, poczucie humoru czy estetyki. Rozważamy tu wszak autonomię maszyny, a nie jej świadomość.
Warto jeszcze wspomnieć, że obecnie do opis maszyn używa się nie samego pojęcia autonomiczności, a stopnia autonimiczności – w zależności od wykonywanego przez maszynę samodzielnie zakresu zadań. Jako przykład pozwolę sobie podzielić się artykułem o samochodach autonomicznych: http://www.eenewsautomotive.com/news/ai-computing-platform-targets-level-5-autonomy