Obecny wpis zamieszczam w blogu w imieniu Pani Natalii Wochtman (studentki Wydziału Fizyki PW), która chciałaby sprowokować swoje koleżanki i kolegów do dyskusji na temat sztucznej inteligencji. Dyskusja rozpoczęła się w „realu”, na naszych zajęciach; być może jednak znajdzie swoją kontynuację tutaj.
Oto obszerne zagajenie autorstwa Pani Natalii:
Po raz pierwszy terminu sztuczna inteligencja użył John McCarthy w 1956r., definiując sztuczną inteligencję jako „naukę i inżynierię tworzenia inteligentnych maszyn”. Wszelkie definicje z perspektywy inżynierskiej odwołują się zaś do wyjaśnienia terminu „sztuczna inteligencja” poczynionego przez Marvina Minsky’ego w 1960r., który określił sztuczną inteligencję jako „naukę o maszynach realizujących zadania, które wymagają inteligencji, gdy są wykonywane przez człowieka”.
Jedna ze współczesnych definicji traktuje z kolei sztuczną inteligencję jako „badanie i projektowanie inteligentnych agentów, gdzie inteligentny agent jest systemem, który rozpoznaje swoje otoczenie i podejmuje działania maksymalizujące jego szanse na rozwój”.
Sztuczną inteligencję definiować można również jako własność systemów informatycznych, dzięki której wykazują one znamiona ludzkiej inteligencji lub maszyn, które taką własność posiadają. Niemniej jednak przeważająca większość definicji odnosi się do aspektów inżynierskich i badań.
Dotychczasowe osiągnięcia w dziedzinie badań nad sztuczną inteligencją, jak również przewidywania dotyczące najbliższych lat są naprawdę imponujące. Jako doskonały przykład ilustrujący te prognozy posłużyć może firma Google, która stworzyła „sztuczny mózg” – czyli maszynę, która jest w stanie zrozumieć to, co widzi i wyciągnąć z tego racjonalne wnioski.
Z kolei analitycy firmy Gartner w swoich prognozach przepowiadają m.in. że od 2018 roku maszyny stopniowo zaczną zastępować piszących raporty i sprawozdania, a ponad 2 miliony pracowników będzie musiało nosić urządzenia monitorujące stan zdrowia i ogólną kondycję jako warunek zatrudnienia.
Wybitny badacz profesor Alan Black, który zajmuje się między innymi syntezą mowy, twierdzi z kolei, że roboty kolejnej generacji będą wzdychać, chrząkać oraz uśmiechać się i płakać. Mają to być tzw. wypełniacze rozmowy. Chodzi o to, aby roboty miały osobowość, a nie zachowywały się zawsze tak samo. Wtedy człowiek rozmawiający z robotem znajdującym się za ścianą nie będzie do końca pewny czy ma do czynienia rzeczywiście ze sztuczną inteligencją, czy z drugim człowiekiem. Przykład ten choć z naszej perspektywy wydaje się nieco futurystyczny doskonale pokazuje, że rozwój sztucznej inteligencji wykracza daleko poza ściśle rozumiane zagadnienia technologiczne.
Przy obecnym tempie rozwoju badań wydaje się nieuniknione wkroczenie sztucznej inteligencji w sferę stosunków społecznych, które do tej pory wydawały się zarezerwowane wyłącznie dla ludzi. Ingerencja sztucznej inteligencji w sferę relacji i emocji stanowić może niezwykłą rewolucję w zakresie kontaktów międzyludzkich. Czy nie doprowadzi to do katastrofy? Oto sztuczny twór myśli i inwencji stać się może równoprawnym partnerem dla człowieka. Co więcej twór ten w wielu kwestiach dalece wykraczać będzie poza zdolności umysłowe ludzi. Fakt ten wydaje się równie fascynujący jak i groźny.
Nadal istnieje wiele aspektów ludzkiej inteligencji, których według niektórych naukowców sztuczna inteligencja nie jest w stanie pojąć. Na przykład jeśli nie słyszymy całej treści rozmowy, jesteśmy w stanie ze względną łatwością wypełnić „luki” poprzez interpretacje jej kontekstu, czy charakteru naszego rozmówcy. Według niektórych naukowców, komputery nie są do tego zdolne, bowiem to pamięć i jej efektywne wykorzystanie stanowi kluczowy warunek do poznania otaczającego nas świata.
Jednocześnie należy zauważyć, że sam ludzki mózg pozostaje jedną z największych tajemnic współczesnej nauki i medycyny. Nie są bowiem dokładnie poznane wszystkie mechanizmy umożliwiające mu tworzenie naszej inteligencji.
Podkreślić trzeba, że problematyka sztucznej inteligencji dalece wykracza poza sferę technologii i nauki. Dotyka ona także podstawowych problemów społecznych, a nawet filozoficznych. Naukowcy pracujący nad projektami związanymi z wdrożeniem projektów dotyczących sztucznej inteligencji tworzą w pewnym sensie „świat równoległy” niejako konkurencyjny wobec inteligencji naturalnej. Z całą pewnością otwiera to niespotykane dotychczas możliwości oraz pozwala rozwijać zupełnie niezagospodarowane obszary badawcze. Projekty te tworzą więc nowe szanse rodząc jednocześnie nieznane do tej pory wyzwania. Wizje rozwoju sztucznej inteligencji tak mocno osadzonej w nauce mają często charakter futurystyczny rodem z filmów science-fiction. W tym zakresie racjonalne i pragmatyczne metody, a także projekty naukowe mocno ingerują w świat rzeczywistych relacji społecznych.
W tym kontekście warto postawić następujące pytania:
Czy jesteśmy gotowi na to by nasze dzieła nie tylko nam dorównywały, ale także w wielu aspektach nas przewyższały?
Czy komputery mogą stać się niezawodne? Nieomylne? Czy sztuczna inteligencja nas przewyższy i będzie lepsza od nas pod każdym względem?
Czy istnienie sztucznej inteligencji zagraża nam jako społeczeństwu? Czy może dojść do sytuacji, gdy nasza władza nad technologią wymknie się spod kontroli? A może istnienie takiego bytu przyniesie nam tylko korzyści?
ZAPRASZAMY do dyskusji – Natalia Wochtman i Paweł Stacewicz.
Na rozgrzewkę zaś polecamy następujące materiały:
♦ Czy istnieje sztuczna inteligencja? (esej P. Stacewicza)
♦ https://www.youtube.com/watch?v=MaItaCQcYIE
♦ https://www.youtube.com/watch?v=5rNKtramE-I
♦ https://www.youtube.com/watch?v=CK5w3wh4G-M
Myślę, że pytanie o to, czy jesteśmy gotowi na komputery przewyższające nasze możliwości w pewnych aspektach, jest nieco spóźnione. Tak przecież jest już obecnie – człowiek z powodzeniem wykorzystuje maszyny, które z pewnymi problemami radzą sobie o wiele lepiej niż on.
Przykładem mogą być sztuczne sieci neuronowe, które, jak wskazują pewne badania, potrafią zdiagnozować prawdopodobieństwo wystąpienia zawałów serca u pacjentów z odsetkiem poprawnych przypadków wyższym niż lekarze lub też przewidzieć bankructwo przedsiębiorstw znacznie lepiej niż stosowane przez człowieka metody statystyczne. Człowiek już aktualnie w pewnych aspektach został „pokonany” przez maszynę. I myślę że, nie ma w tym nic złego póki maszyna ta pozostaje pod kontrolą człowieka. Pozwalając komputerom na samowolne sterowanie i programowanie się, narażamy sie na fakt, iż władza nad technologią umknie nam spod kontroli. I nie ma podstaw do twierdzenia, że istnienie takiego bytu przyniesie nam tylko korzyści. Maszyna funkcjonująca na poziomie intelektualnym człowieka w naturalny sposób staje się jego konkurentem- naturalnym zjawiskiem jest troska o byt własnego gatunku, stąd też sztuczna inteligencja może w tym kierunku wyewoluować. I wtedy zamiast służyć człowiekowi, może zacząć z nim walczyć, przedstawiając swoje dobro nad dobro człowieka.
Patrząc jednak z innej strony, moje obawy są być może przesadzone. Stworzenie mechanizmów odtwarzającyhc naszą inteligencję może okazać się niemożliwe. Tak czy inaczej, prace nad takimi mechanizmami jednak trwają. W ogólności moja wypowiedź sprowadza się do tego, że przy pracowaniu nad sztuczną inteligencją, człowiek za wszelką cenę powienien postarać sie o zapewnienie i utrzymanie kontroli nad maszynami. W innym przypadku może przynieść mu to negatywne skutki…
Tak jak koleżanka wyżej uważam, że człowiek od dawna ulega możliwościom swoich wynalazków. Inną kwestią jest to, że jak na razie nie mają one własnej woli. Trudno stwierdzić, czy sztuczna inteligencja miałaby podstawy do zniszczenia swoich twórców. W filmach science fiction maszyny walczą z ludźmi zazwyczaj dlatego, że są oni słabsi. Dlaczego w prawdziwym życiu miałoby być tak samo?. Programista sztucznej inteligencji postara się nie dopuścić do takiej możliwości. Kooperacja jest logiczniejsza niż wzajemne zwalczanie się. Z tych względów maszyny nie powinny same z siebie być negatywnie nastawione do ludzkości. Być może myślące maszyny miałyby cele zupełnie dla mnie niezrozumiałe i dlatego życie w erze sztucznej inteligencji widzę w takich jasnych barwach. Oczywiście nie bagatelizuję zagrożenia, jednak wydaje mi się, że warto go szukać od innej strony. Przykład może wydawać się śmieszny, jednak mi wydaje się być on bardzo realny. ***SPOJLERY*** W trylogii Mass Effect rasa maszyn niszczy wszystkie inne cywilizacje. Co ciekawe zostały one zbudowane w celu ochrony życia. Problemem nie jest jednak ich zła intencja lecz interpretacja powierzonego im zadania. Nie dopuszczają do rozwoju cywilizacji zarówno organicznych jak i syntetycznych po to aby zapobiegać konfliktom między nimi. ***KONIEC SPOJLERÓW*** Brzmi to absurdalne, ale jest to bardzo realne. W tej samej serii do konfliktu między inną rasą maszyn a ich stwórcami doszło ponieważ jedna z maszyn zapytała czy ma duszę. W panice zaczęto masowo wyłączać wszystkie roboty. Taki akt agresji rozpoczął wojnę. Warto zastanowić się, czy zagrożeniem jest świadoma część sztucznej inteligencji, czy ta zaprogramowana.
Zmieniając temat – nieomylność maszyn inteligentnych jest dość frapująca. Z jednej strony mamy do czynienia z wyspecjalizowanymi komputerami, z drugiej strony ludzki mózg też nim poniekąd jest, a ludzie obliczeniowo są stosunkowo niewydajni. Wydaje mi się, że świadoma część bytu myślącej maszyny byłaby na tak wysokim poziomie abstrakcji nad sprzętem, że dostęp do funkcji obliczeniowo-analitycznych byłby dla niego na podobnym poziomie co u człowieka.
Ciężko określić kiedy – jeśli w ogóle kiedykolwiek – będziemy gotowi na SI. Wydaje mi się, że problemem zawsze będzie poznanie intencji drugiej strony. Występuje on od dawna w naszym społeczeństwie i wydaje mi się, że należy go rozwiązać tak jak to się działo dotychczas – zobaczyć jak rozwinie się sytuacja. Jeśli złe intencje istnieją, kiedyś na pewno się okres. Być może czas do tego potrzebny będzie ogromny, ale niestety nie widzę innej opcji. Jedyne co jest pewne to, że należy zabezpieczyć się przed możliwościami nowego rodzaju istoty.
Odpowiedź na drugie pytanie, związane z nieomylnością i niezawodnością komputerów, nie jest wcale taka prosta.
Z jednej strony możemy stworzyć komputer, który będzie czerpał z całej wiedzy zgromadzonej w internecie, będzie potrafił wyciągać wnioski z wydarzeń, które miały już miejsce i przede wszystkim będzie mógł pracować praktycznie bez przerwy. Ale czy to zapewni mu nieomylność i niezawodność?
Moim zdaniem – nie do końca. Wystarczy awaria sieci energetycznej, nie mam tutaj na myśli małej lokalnej awarii, ale taką na skalę światową. Wtedy komputer nawet jeśli nie przestanie działać od razu to po jakimś czasie baterie, utrzymujące go „przy życiu”, wyczerpią się i koniec jego niezawodności. „Idealny” komputer będzie analizował wszystko w sposób logiczny, nie tak jak ludzie – zabraknie mu empatii. Czy w związku z tym będzie mógł decydować o ważnych dla ludzkości sprawach?
Postaram się odpowiedzieć na wszystkie trzy postawione przez koleżankę pytania.
1. Czy jesteśmy gotowi na to by nasze dzieła nie tylko nam dorównywały, ale także w wielu aspektach nas przewyższały?
Podobnie jak moi poprzednicy uważam, że komputery, a więc dzieła ludzi, już dawno przewyższyły nas w wielu aspektach. Wiedza, którą posiada dzięki internetowi dowolny komputer przewyższa tą jaką posiadał, kiedykolwiek jakikolwiek człowiek. Nie wspominając już o szybkości analizowania tych danych. „Problem” komputerów polega na tym, że przetwarzają one tylko bezmyślnie dane, dlatego należało by raczej postawić inne pytanie: Czy jesteśmy gotowi na to by maszyny zaczęły rozumieć to co robią?
2. Czy komputery mogą stać się niezawodne? Nieomylne? Czy sztuczna inteligencja nas przewyższy i będzie lepsza od nas pod każdym względem?
Moim zadaniem komputery już są niezawodne i nieomylne, przecież nie popełniają błędów w trakcje swojego „myślenia”, zawsze robią to co zostało zapisane w ich kodzie bez żadnych błędów. Ewentualne błędy komputerów wynikają jedynie z błędów człowieka, który stworzył dla nich program.
Co do drugiej części pytania, wydaje mi się, że jeżeli stworzymy, kiedyś prawdziwą sztuczną inteligencję, zdolną do samodzielnej nauki i myślenia, to oczywiście przewyższy nas ona pod każdym względem. Jak napisałem w odpowiedzi na pierwsze pytanie, maszyny już są od nas lepsze, tyle tylko, że nie myślą samodzielnie. Jeśli maszyna będzie w stanie sama się uczyć i rozumieć to czego się uczy, to posiadając dostęp do internetu, w krótkim czasie posiądzie wiedzę, która wielokrotnie przerasta możliwości człowieka, więc będzie ona w stanie zrobić wszystko tak samo jak on lub lepiej (zakładam, że jeżeli uda się stworzyć taką maszynę, będzie ona miała ogromne możliwości pamięciowe). Mówiąc, że maszyny będą lepsze we wszystkim mam na myśli naprawdę wszystko, nawet przykładowo rzeczy takie jak malarstwo czy literaturę. Wszystkie te rzeczy bowiem oparte są zawsze na pewnych zasadach i mają pewne cechy wspólne, dlatego jeśli nasz super komputer ma dostęp do milionów wierszy, które może przeanalizować, sam też nauczy się pisać wspaniałe wiersze.
3. Czy istnienie sztucznej inteligencji zagraża nam jako społeczeństwu? Czy może dojść do sytuacji, gdy nasza władza nad technologią wymknie się spod kontroli? A może istnienie takiego bytu przyniesie nam tylko korzyści?
Z całą pewnością istnieje takie niebezpieczeństwo, że maszyny będą chciały kiedyś nas zniszczyć. Najlepszym potwierdzeniem tego faktu jest to, że ludzie już dziś starają się przeciwdziałać takiej możliwości. Przykładowo firma Google, już dziś pracuje nad „czerwonym przyciskiem”, który ma nam pomóc w razie takiego zajścia.
W związku z tym, że ludzie już dziś myślą o takich zagrożeniach uważam, że właśnie to pomoże nam uniknąć apokalipsy. Ludzie już na etapie tworzenia tej technologi myślą jak zrobić ją w taki sposób by nam nie zagrażała. Duży wpływ na to mają z pewnością wszystkie filmy i książki, w których występują wszelkie bunty maszyn. Może to zabawne, ale wydaje mi się, że może to być jedna z przyczyn dzięki, której przetrwamy. Autorzy przestraszyli nas bowiem pokazując co może się stać, tak bardzo, że teraz będziemy bardzo uważni.
Ponad to komputery i wszystkie maszyny, które dążą do SI, są w tym momencie tworzone w taki sposób by nam pomagać, ułatwiać życie, wydaje mi się, że leży to tak jak by u ich podstaw. Jest to ich główne „przykazanie”, dlatego wątpię by kiedyś chciały nas zniszczyć. Oczywiście mam nadzieję, że gdzieś w tajnej bazie USA nie powstają aktualnie terminatorzy do zabijania i walczenia w wojnach.
Podoba mi się powyższe spostrzeżenie, że:
„Problem” komputerów polega na tym, że przetwarzają one tylko bezmyślnie dane, dlatego należało by raczej postawić inne pytanie: Czy jesteśmy gotowi na to by maszyny zaczęły rozumieć to co robią?
W tej propozycji zmiany pytania, kryje się domyślne założenie, że maszyny mogą nas przewyższyć tylko pod warunkiem, że uzyskają zdolność rozumienia (którą my rozpoznajemy u siebie świadomie jako warunek konieczny naszej efektywności).
Powstają jednak dwa problemy: 1) jak stwierdzić, czy maszyna już (świadomie) rozumie?, 2) czy (świadome) rozumienie może powstać w wyniku zaimplementowania w maszynie odpowiednio złożonego programu (który może sam się rozbudowywać)?. To oczywiście kieruje nas ku dyskusji poprzedniej, pt. „Turing czy Searle?”.
W związku z kwestią rozumienia narzuca mi się jeszcze jedna uwaga odnośnie terminu „wiedza”. W powyższym komentarzu czytamy: „Wiedza, którą posiada dzięki internetowi dowolny komputer przewyższa tą, jaką posiadał kiedykolwiek jakikolwiek człowiek”. Nie jest to oczywiście taka sama wiedza, którą posiada człowiek.
Są to, jak zresztą napisano dalej, w odpowiedni sposób zakodowane i uporządkowane DANE. Mówiąc o WIEDZY człowieka mamy na myśli zrozumiałe dlań, a dodatkowo jeszcze, dostatecznie dobrze uzasadnione, treści (treści tw. matematycznych, praw fizycznych, relacji historycznych etc…). „Wiedza, którą dzięki Internetowi posiada współczesny komputer” nie jest zatem prawdziwą wiedzą. Jest to ogromny zbiór danych, który dopiero może stać się – gdy komputer cokolwiek z tego zrozumie – prawdziwą wiedzą.
Na początku chciałabym zaznaczyć, że wszystkie powyższe odpowiedzi na pytania są według mnie w jakimś stopniu zasadne i mogłabym się przynajmniej po części z nimi zgodzić. Szczególnie ciekawa jest jednak wizja przewyższenia przez SI człowieka i przejęcia władzy przez maszyny. Powstało na ten temat mnóstwo filmów Science Fiction i opowiadań. Wszystkie skupiają się na złych skutkach autonomiczności maszyn. Nie jest to jednak zawsze spowodowane złymi intencjami Sztucznej Inteligencji, często wręcz przeciwnie. Dla przykładu wizje z takich filmów jak „Ja, robot”, czy „Eagle Eye” pokazują, że wszystkie działania skierowane przeciw poszczególnym ludziom były dyktowane dobrem nadrzędnym, czyli dobrem ogółu ludzkości bądź społeczeństwa. Kłóci się to z podstawowymi wartościami uznawanymi przez większość ludzi, jak absolutne dobro jednostki, dlatego jest postrzegane jako złe, ale czy właśnie to przy obecnych realiach często nie stoi na przeszkodzie zapanowania lub zapobieżenia wielkim tragediom? Może bezstronność maszyn z ideologicznego punku widzenia i ich nieomylność nie byłyby takie złe? Może sądownictwo by na tym zyskało? Zero-jedynkowy system rozstrzygania w końcu byłby dla wszystkich jasny i niepodważalny, co by nie zachęcało do prób jego nagięcia. Pamiętajmy, że „łaskawsze oko” dla jednego jest korzystne, ale w myśl zasady, że bilans musi wyjść na zero, zawsze znajdzie się przez nie poszkodowany. To prowadzi do kolejnych zaburzeń i powstania całego łańcucha reakcji. Może poprzez zimny system maszyn dałoby się wyeliminować „efekt motyla” i zapanować nad reakcjami lawinowymi, przynajmniej w pewnym stopniu.
Tutaj chyba jednak należałoby odpowiedzieć sobie najpierw na pytanie, co jest ważniejsze, dobro jednostki, czy dobro ogółu. Na to samo pytanie odpowiedziałaby Sztuczna Inteligencja i według twórców filmów SF odpowiedź byłaby jednoznaczna, że nadrzędne jest dobro ogółu. Tym sposobem znaleźlibyśmy się na skraju socjalizmu. Z punktu utopijnej wizji świata równego dla wszystkich, gdzie jednostka jest podporządkowana ogółowi, byłaby to okazja do udanego wprowadzenia ustroju, który obecnie jest uważany za wrogi współczesnemu światu. Zakładając, że SI zapanowałaby nad ludźmi, mogłoby się tak stać, tylko dzięki jej znacznej wyższości, co by z kolei umożliwiło poprawne ideologicznie zarządzanie takim socjalistycznym społeczeństwem. Nawet gdyby SI nie zdecydowała się na wprowadzenie takiego ustroju, chociaż wydaje się to naturalną koleją rzeczy, to czy sama nie byłaby najlepszym przywódcą w historii? Bo przecież posiadając wiedzę o wszystkich powodach zaistniałych w historii konfliktów, mogłaby ich uniknąć. O wiele łatwiej by też było jej przewidzieć wszelkie społeczne katastrofy, dzięki ciągłej analizie zachowań i wydarzeń, może zapobiegłaby staczania się ludzkości w stronę autodestrukcji. Gorzej jednak, jeżeli SI doszłaby do wniosku, że ważniejsze jest dobro planety, niż ludzi, wtedy czarno przedstawiałaby się nasza przyszłość. Ważnym pytaniem byłoby, jak by się uplasowała wartość maszyn w stosunku do wartości ludzkiego życia dla samych maszyn, czy nie doszłyby do wniosku, że są lepsze od ludzi i ludzie w zasadzie są zbędni, będąc np. niewydajnymi? Po co utrzymywać ludzi kosztem zasobów naturalnych, skoro można by stworzyć na ich miejsce łatwiejsze w utrzymaniu i bardziej przydatne maszyny?…
Chyba jednak nigdy nie będziemy w stanie pogodzić się z systemem, gdzie jednostka nie będzie absolutnie najważniejsza. Dzieje się tak dlatego, że kierują nami uczucia i emocje. Czy do niedawna absurdalny fakt powstania sztucznej inteligencji, nie jest takim samym jak powstanie sztucznej inteligencji, która będzie kierować się emocjami? Może tak właśnie będzie? Czy taka wizja nie jest nieporównywalnie gorsza od tej zaprezentowanej wcześniej? Może Google też wziął taką możliwość pod uwagę przy idei „czerwonego przycisku”…
Idąc tropem kreślonych wyżej scenariuszy spod znaku S-F, proponuję rozważyć i taki, w którym pytania o wyższość SI nad nad HS (Homo Sapiens) w ogóle nie będzie można postawić.
Albo inaczej: straci ono na znaczeniu.
Stać się tak może, gdy ludzie nie tyle będą tworzyć niezależną od siebie SI (która, być może, ostatecznie się od nich uniezależni), lecz będą łączyć swoje biologiczne organizmy z układami wyposażonymi w dodatkowe moce obliczeniowe (te właśnie, które stoją za sukcesami teraźniejszej SI). Na przykład: zamiast używać wyłącznie swojej biologicznie uwarunkowanej pamięci dołączą do niej specjalny wzmacniający chip (nie można wykluczyć zresztą, że ów chip nie będzie krzemowy, lecz na poły biologiczny).
Powstanie w ten sposób nowy jakby gatunek: maszynowo-ludzka hybryda o zdolnościach nieporównanie wyższych niż samo HS i samo SI. Być może tak właśnie – spontanicznie, naturalnie, rzec by można ewolucyjnie – gatunek ludzki ucieknie do przodu, unikając realnego zagrożenia ze strony SI.
Homo Sapiens przeistoczy się zatem w Homo Informaticus, co można nawet zapisać w postaci zabawnego wzoru: HS +SI -> HI.
Praktycznie we wszystkich komentarzach popełniany jest ten sam błąd, ale jest on wynikiem tak a nie inaczej postawionego pytania. „Czy jesteśmy gotowi na to by nasze dzieła nie tylko nam dorównywały, ale także w wielu aspektach nas przewyższały?” – błędem, który mam na myśli, jest kolektywizm. Trudno jest rozstrzygająco odpowiedzieć na pytanie, które jest nie do końca sprecyzowane. Kto ma być gotowy lub nie? Wszyscy ludzie z osobna czy cała ludzkość traktowana łącznie? Jeśli to pierwsze – najprawdopodobniej długi czas odpowiedź będzie negatywna. Jeśli to drugie – odpowiedzieć nie możemy w ogóle, bo ludzkość nie ma żadnego kolektywnego, ponadjednostkowego umysłu, który mógłby przejawiać gotowość lub jej brak.
I druga kwestia, którą chciałem poruszyć, to fakt wkradania się do naszego życia sztucznej inteligencji tylnymi drzwiami. Nawet gdyby założyć pesymistycznie, że odpowiedź jest negatywna – i nie jesteśmy gotowi na maszyny inteligentne – to przecież któregoś dnia pierwszy raz człowiek wszedł do budynku nie otwierając drzwi, bo otworzyły się przed nim same – czy był na to gotowy? Podobnie można zapytać w odniesieniu do pierwszej rozmowy przez telefon i przekazywania informacji osobie znajdującej się setki kilometrów od przekazującego. Dzisiaj standardem są telefony pozwalające np. sprawdzać znaczenie pierwszy raz usłyszanego terminu (w dowolnym języku). Jakie będą telefony jutra? Może wbudowane w ciało człowieka, umiejące tłumaczyć obcą mowę w czasie rzeczywistym? Przykładów cichego i doniosłego zarazem rozwoju sztucznej inteligencji jest coraz więcej. A zatem możliwe, że któregoś dnia obudzimy się w świecie gdzie sztuczna inteligencja jest codziennością i pytanie przestanie być zadawane.
Pojawi się natomiast nowe – czy jesteśmy gotowi na kolonizację kosmosu? – bo w moim odczuciu taki będzie główny długofalowy skutek zaistnienia prawdziwej sztucznej inteligencji. Czas życia naszej planety jest ograniczony i nawet jeśli jakaś forma sztucznej inteligencji uzna, że jej zasoby są cenniejsze od ludzi i ludzkość zostanie unicestwiona (moim zdaniem mało prawdopodobne), problem skończonego czasu trwania planet będzie wciąż aktualny – a zatem owa sztuczna inteligencja tak czy inaczej będzie musiała się stąd ewakuować.
Ale czy ma dla nas znaczenie z jakiego materiału będą istoty żyjące na Ziemi za lat 200 czy tysiąc? Innymi słowy: czy jeśli wyobrazić sobie dwa światy równoległe – jeden, w którym nie ma myślących maszyn, a ludzkość pisze wiersze, kopie ziemniaki, całkuje, biega dla przyjemności, prowadzi debaty polityczne i wykonuje całą gama pozostałej aktywności człowieka – oraz drugi świat, w którym nie ma już ludzi, a planetą rządzą maszyny, z których część pisze wiersze, część kopie ziemniaki, całkuje, biega dla przyjemności, prowadzi debaty polityczne i tak dalej – to czy kłócić się będziemy o wyższość pierwszego ze światów nad drugim? Ja z pewnością nie. Ponieważ drugi świat otwiera nam drogę do przertwania – nam w znaczeniu cywilizacyjnym, nie jednostkowym – bo przecież my jako my (tj. żaden z nas) – tak czy inaczej nie będziemy wtedy istnieć.
Zatem moja odpowiedź na trzecie z postawionych pytań jest jednoznacznie optymistyczna: sztuczna inteligencja jest dla nas szansą na przetrwanie, w znaczeniu ewolucyjnym. Nawet jeśli maszyny nie będą mieć DNA to jednak wyciągną z nas to co najlepsze – racjonalność (przewyższą nas pod tym kątem z pewnością), naszą wrażliwość na piękno (patrz: robot napisał powieść i znalazł się w finale), nasze zamiłowanie do przekształcania świata (bo przekształcanie świata jest warunkiem koniecznym chęci przetrwania). Jeśli komuś taka wizja wydaje się smutna, niech zatrzyma się na moment nad pantofelkiem lub małpą i zada sobie dwa pytania: pierwsze – czy jest im smutno, że powstał człowiek oraz drugie – czy nam jest smutno, że jesteśmy od nich inteligentniejsi i zamiast leżeć bez ruchu lub skakać po drzewach stukamy nocą w klawiaturę by rozstrzygać kwestie, których one nie byłyby w stanie pojąć?
A zatem wracając do postawionych pytań:
1. Tak, jestem gotowy.
2. Nie wiem.
3. Jestem optymistą, moim zdaniem rozwój sztucznej inteligencji wiązać się będzie głównie z korzyściami.
Pozdrawiam!
Najciekawsze wydaje mi się pytanie: czy istnienie sztucznej inteligencji może zagrażać nam jako społeczeństwu? Zdania na ten temat są podzielone. Dla przykładu, zdaniem Stephena Hawkinga: Gdy ludzie stworzą sztuczną inteligencję, może ona sama zacząć rozwijać się coraz szybciej. Ludzie, których ogranicza powolne tempo ewolucji biologicznej, nie będą w stanie konkurować ze sztuczną inteligencją i zostaną przez nią zdominowani. Co prawda w obecnym momencie maszyny nie są na tyle rozwinięte, żeby były w stanie przewyższyć człowieka w więcej niż jednej konkretnej dziedzinie, ale rzeczywiście proces ulepszania sztucznej inteligencji może zacząć znacznie przyspieszać już w najbliższych latach. Teoretycznie programy stworzone przez człowieka nie powinny nigdy wymknąć się spod kontroli, ponieważ to programista decyduje o tym, jak działa system. Z drugiej strony, sztuczna inteligencja jest wciąż tematem na tyle niezbadanym, że właściwie nie wiemy, jak się ona zachowa, kiedy już zostanie wprowadzona w życie. Być może maszyny będą rozwijały się na tyle szybko, że ludzie nie będą w stanie nadążyć za ich inteligencją? Co jeśli w pewnym momencie poziom ludzi w porównaniu do sztucznej inteligencji będzie można porównać do obecnego poziomu zwierząt w porównaniu do nas? Być może nawet nie będziemy świadomi tego, że nie mamy już kontroli nad własnym życiem? Uważam jednak, że pomimo tych zagrożeń powinniśmy spróbować stworzyć sztuczną inteligencję – jeśli uda nam się ją kontrolować to może oznaczać niesamowity przełom w historii ludzkości i ogromny skok w jakości naszego życia.
Czy sztuczna inteligencja nam zagraża ?
Myślę, że poniekąd sami przyczyniamy się do tego, żeby sztuczna intelegencja zaczęła nam zagrażać.
Po pierwsze brakuje międzynarodowego regulatora, organizacji, która kontrolowałaby rozwój AI. To, że tylko kilka firm/ kilku ludzi będzie w posiadaniu bardzo zaawansowanej sztucznej inteligencji może stanowić zagrożenie dla ludzkości. Dziś mamy problem, by sąd uzyskał od firmy Apple zgodę na dostęp danych z ich telefonu ( czy też by służby specjalne uzyskały backdoora do ich systemu). Wynika z tego, że kontrola nad technologiami tworzonymi przez prywatne firmy będzie niezmiernie trudna.
Po drugie pracując nad rozwojem Internetu Rzeczy jeszcze bardziej ułatwiamy potencjalnej sztucznej inteligencji przejęcie kontroli nad Internetem a nawet i naszym życiem. Do 2020 roku do internetu ma być podłączone nawet 50 mld urządzeń. Zywkle dosyć prostych, a to daje możliwość łatwego złamania ich zabezpieczeń i dostępu do sieci. AI może dzięki temu uzyskać dostęp do czujników w kluczowych miejscach dla wielu państw takich jak np. elektrownie.
Przez to, że maszyny zaczynają nas co raz bardziej wyręczać wystawiamy się na co raz to większe ryzyko. Np. nie musimy już nawet umieć kierować samochodem – gdyż będzie on prowadził się sam. Rozwój IoT pozwoli na komunikację między samochodami tak aby unikać wypadków. To kolejny miejsce, w którym sztuczna inteligencja może się wkraść i sparaliżować nasze życie.
Czy sztuczna inteligencja to szansa ?
Tak, ale wtedy gdy zintegrujemy ją z naszymy mózgami.
Zgadzam się tu z przedmówcą – "Homo Sapiens przeistoczy się zatem w Homo Informaticus, co można nawet zapisać w postaci zabawnego wzoru: HS +SI -> HI."
Sztuczna inteligencja może wymusić na nas to, że staniemy się pewnymi hybrydami. Ulepszymy samych siebie. Koncepcja ludzi-cyborgów może wydawać się wyrwana z jakiegoś filmu, ale uważam to za niezmiernie ciekawe w konktekście ewolucji naszego gatunku.
Uważam, że technologie w niektórych dziedzinach już są doskonalsze od człowieka. Najprostszym przykładem może być kalkulator – zwykłe urządzenie, bez którego niektórzy nie potrafią się obejść w pracy, ze względu na to jak szybko mogą dostać wynik na podane równanie. Sam komputer, bez którego już nie da się funkcjonować jest w stanie analizować dane szybciej niż jest to możliwe dla człowieka.
Komputery mogą być nieomylne na tyle na ile człowiek poprawnie je zaprogramuje. Będą nieomylne co do wytycznych podanych im na początku ich tworzenia, ale mogą być omylne w kwestii emocji odczuwalnych przez ludzi. Zrozumienie funkcjonowania ludzkiego mózgu jest odwiecznym problemem dla naukowców.
Nawet jeżeli komputery będą w stanie same się udoskonalać to czy aż na taki poziomie, żeby przejąć kontrolę na światem? Jest to ciężkie pytanie ze względu na to, że wszystko zależy od tego jak bardzo ludzie są w stanie rozwinąć swoje umiejętności naukowe i technologiczne.
Uważam, a przynajmniej mam nadzieję, że rozwój technologii bardziej nam pomoże niż zaszkodzi. Sztuczna inteligencja zawiera to co najlepsze w człowieku i doprowadza do perfekcji, dzięki czemu jest niesamowicie przydatna w ewolucji człowieka i świata, doprowadzając do rozwoju w niesamowitym tempie.
Zgodzę się z komentarzem wyżej, postęp techniczny bardzo ułatwia życie ludzi w wielu dziedzinach. W dzisiejszych czasach nie wyobrażam sobie egzystowania bez komputerów, mam tu na myśli nawet najprostsze urządzenia jak w powyższym przykładzie kalkulator, mała rzecz oszczędzająca masę czasu. I taka powinna być główna funkcja wszechobecnych komputerów, mają ułatwiać życie człowiekowi. W wielu przypadkach komputery zastępują pracę ludzkich rąk, bo przecież łatwiej jest zarządzać systemem komputerowym niż grupą pracowników, jest to również korzystniejsze ze względu na aspekty finansowe (szybsza produkcja, wkład finansowy jedynie w wyspecjalizowany sprzęt, a nie comiesięczne wynagrodzenia dla pracowników).
Maszyny stają się coraz bardziej inteligentne co jest faktem, należy jednak zachować pełną kontrolę nad własnym dziełem. Człowiek, który coś stwarza powinien zachować ostrożność w kwestii zapewnienia bezpieczeństwa i brać pod uwagę możliwość, że sztuczna inteligencja w pewnym momencie wymknie się spod kontroli i móc w takim przypadku zapobiec katastrofie.
Koncepcja ewolucji ludzi do postaci hybrydy maszyna-człowiek jest niezwykle ciekawa.
Naturalnym dla ludzi jest udoskonalanie swojego świata, a także samych siebie. Odbywa się to przez wynalazki, udogodnienia, a obecnie jesteśmy na etapie SI, która miałaby wyręczać nas w wielu codziennych czynnościach i pracach.
Nieuniknione jest to, że ludzie po odciążeniu przez maszyny będą czuli potrzebę znalezienia kolejnych ulepszeń i udogodnień.
Ludzie zajmujący się nauką zapewne zauważą niebezpieczeństwo jakie niesie pozostanie człowieka "w tyle za maszynami" i znajdą rozwiązanie tego problemu. Moim zdaniem będzie ono polegało właśnie na udoskonaleniu istoty ludzkiej.
Cały strach przed dominacją SI nad ludźmi ma swoje podłoże w przeświadczeniu o wyższości takich maszyn nad ludźmi czy to fizycznie czy pod względem możliwości obliczeniowych.
Udoskonalenie człowieka do postaci, w której będzie on tak samo wydajny co maszyna i nadal od niej mądrzejszy wydaje się zatem być idealnym rozwiązaniem.
Co więcej, jeżeli taka ewolucja nastąpi, to moim zdaniem nie będzie to spowodowane strachem przed dominacją SI, a odwiecznym marzeniem ludzkości – nieśmiertelności, która to może być zagwarantowana przez udoskonalenie człowieka do postaci cyborga.
Otwarta furtka dla pełnego rozwoju SI będzie jedynie efektem ubocznym i potrzebą posiadania zautomatyzowanych niewolników pracujących za ludzi, aby ci mogli skupić się na rzeczach większych.
Rozwój sztucznej inteligencji jest obecnie kontrolowany i kierowany w, jak można przypuszczać, odpowiednim kierunku. Jednak tak naprawdę ciężko jest stwierdzić, czy będziemy gotowi na znacznie silniejszą ingerencję SI w nasze życie. Obiektem rozważań i zastanowień może być natomiast nasza postawa w takiej sytuacji i umiejętność radzenia sobie ze związanymi z nią problemami.
Niewątpliwie sztuczna inteligencja odgrywa w naszym życiu bardzo istotną rolę. W wielu przypadkach nie potrafimy obyć się bez podręcznych urządzeń, których używamy codziennie. Nie sposób nie zgodzić się ze zdaniem, iż człowiek już dawno został przewyższony pod względem możliwości obliczeniowych i pamięciowych przez maszyny – to dość oczywista kwestia. Jednak zgadzam się ze stwierdzeniem, że wiedzę ludzką należy ciągle postrzegać inaczej niż tę, którą posiadają komputery. Na pewno minie wiele czasu, o ile kiedykolwiek to nastąpi, kiedy maszyny będą zdolne do samodzielnego myślenia i rozumienia tego co robią. Niemniej jednak, można doszukiwać się potencjalnego zagrożenia ze strony SI w przyszłości. Wielu znanych uczonych i przedsiębiorców obawia się wpływu maszyn na nasze życie i bezpieczeństwo, więc jest to z pewnością kwestia, której nie należy bagatelizować.
Uważam, że na ten moment powinniśmy konsekwentnie rozwijać SI, ze względu na bezapelacyjne korzyści których nam dostarcza, ale przede wszystkim możliwości rozwoju, pamiętając, że od dzisiejszych decyzji wiele może zależeć w przyszłości.
Podstawowym kryterium od którego można wyjść do dyskusji o sztucznej inteligencji jest rozróżnienie jej na gruncie searlowskiego podziału: słabej i silnej SI.
Zatem dalej mając na myśli Sztuczną Inteligencję, będę się odnosić do jej silnej odmiany, słabą zaś utożsamiając z narzędziem, które można rozpatrywać na gruncie postępu(&bezrobocia) technologicznego/(akumulacji&)akceleracji, czyli progresu (np. ryzyka wynikającego z posiadania bardzo zaawansowanej technologii przez wyłącznie kilku ludzi/firm), zaś nie zagrożeń płynących z bytu MASZYNY MYŚLĄCEJ.
Ogromna uwaga, która dziś spada na ramiona słabej sztucznej inteligencji ma pewne źródła w możliwościach technicznych tj. sieci neuronowe, czatboty, agenci, systemy eksperckie, które pozwalają na przeprowadzanie badań oraz tworzenie ich obiektów. Prawdopodobnym, iż słaba sztuczna inteligencja dopiero przeciera szlaki ku powstaniu silnej, natomiast d r o g a którą obierzemy będzie kluczową dla zarysowania:
1.. kształtu przyszłego bytu (przyjazny/nieprzyjazny ludzkości – chatbot Tay od Microsoftu);
2. relatywnych zagrożeń rodzących się na skutek pojawienia się >świadomości<, takich jak wykorzystanie przez nią informacji, np. pochodzących z danych IoT (zaś które to mogą się przyczynić również do samego wykrystalizowania się bytu AI);
Problem strachu/gotowości na sztuczną inteligencję jest w rzeczywistości zakwestionowaniem właściwości metod oraz samego nadejścia punktu >osobliwości< wymykającej się człowiekowi spod kontroli. Pytając: Czy jesteśmy gotowi na to by maszyny zaczęły rozumieć to co robią? pragniemy rozwiać obawy scenariusza kolapsu w konfrontacji z AI, jednocześnie: dla jednostki, jak i społeczności ludzkiej.
Wytworzenie SI zdaje się nieuniknionym punktem rozwoju ludzkiej cywilizacji. Istniejąca realność, której prawdopodobieństwo wyrzucenia n-oczek dąży do jedności, a koniunktura sprzyja. Zamiast pytać o zasadność dążenia ku, jako nieuchronnemu, priorytetowym zdałoby się wówczas zbadać sposoby tworzenia systemów nieszkodliwych ludziom oraz budowy zabezpieczeń się przed potencjalnymi źródłami wycieków wrażliwych danych.
Ważnym rozróżnieniem które bym poczyniła, mówiąc o próbach dążenia człowieka do SI jest podział na dwa równoległe projekty:
– mini me – czyli boty (Wina48, roboty hondy);
– maxi me – poszukiwanie sensu, Boga, noosfery, (samo)świadomości sieci;
Obie te dziedziny się ścierają, lecz zdaje się iż właśnie ta druga staje się bardziej widoczna i przeważa wśród badań dotyczących otrzymania SI.
Ludzie od dawna dążyli do stworzenia maszyny na swój obraz i podobieństwo (emet) , jednak dążenie to rozbija się o strach, dolinę niesamowitości, dziś rozszerzoną również na kwestie ontologiczne poprzez kwestionowanie świadomości wraz z wyjątkowym miejscem zajmowanym przez człowieka we wszechświecie. Projekt tworzenia SI staje się przytłaczający. Motyw złożoności, complexity – sugeruje jakoby w człowieku również tkwiła (być może >tylko i wyłącznie<) matematyka, ta sama która pozwala wygrać Alpha Go. W tej chwili wraz z uczeniem maszynowym (supervised machines, różnorodne mechanizmy wraz z deep lerningiem) stawiają nas w sytuacji, w której w rzeczywistości nie wiemy co się wewnątrz programu dzieje. Wiemy jak go wywołać, jednak sam proces/działanie jest dla nas zakryte, pozostaje czarną skrzynką. W efekcie wyrafinowane metody sprawiają, iż tworzymy >coś< by pojąć samych siebie, zaś w ostatecznym rozrachunku nie jesteśmy w stanie ich zrozumieć. Niczym googlowskie Alice, Bob i Eva tracimy zdolność odczytywania wiadomości.
Projekt mini-me przeszedł długą drogę. Główną wagę zaczęto przywiązywać do reakcji ludzkich na boty, zaś przestały być interesujące konkretne informacje wyrzucane przez maszynę, które mocy przetwarzania efektywnego wiemy jak zmienić. Alanowi Turingowi chodziło o oszukanie człowieka przez maszynę, co w efekcie doprowadziło wyłącznie do polerowania składni, co dziś już nie jest wyłącznym wyznacznikiem umiejętności agenta, zaś dzięki fenomenologii bada się również reakcje i interakcje jak ja-technologia, ja-bot.
Lubimy antropomorfizować, upodmiatawiać zjawiska, stąd imiona botów (bytów?) jak Alexa czy Siri. Sztandarowym zaś przykładem jawi się Eliza – pierwszy bot terapeutyczny, który przez internet „prowadził rozmowy” z pacjentami, tzn. głównie ślepo rozpoznawał pytania, ich strukturę, odwracał je wraz ze składnią, co budziło w rozmówcach faktyczne uczucia bycia wysłuchanym i rozumianym (!). Okazało się, iż klienci nawet po dowiedzeniu się, iż konwersują wyłącznie z chatbotem nie przerywali terapii, jako uznali ją za potrzebną i pomocną, jako czynią progres i lepiej się czują. (tymczasem programista Elizy po przeprowadzeniu badania załamał się nerwowo) Natomiast boty jak Eugene Goost, świadczą o rozmywaniu się granic, możliwości stwierdzenia co jest jeszcze człowiekiem w internetowej przestrzeni. Owszem, symulacje paranoika, dziecka czy obcokrajowca są znacznie łatwiejsze, jednak dzięki nim, operacjom na symbolach, uczeniu się przez wzmocnienie i operowaniem na języku stajemy się z każdym dniem bliźsi stworzenia słabej sztucznej inteligencji nierozróżnialnej od innego człowieka w sieci.
Zatem również z niej mogą dla nas płynąć silne zmiany bądź i zagrożenia społeczne.
Zgadzam się z przedmówcami, jak i faktem: komputery przewyższające nasze możliwości w pewnych aspektach już z nami są. Można do nich zaliczyć choćby oprogramowanie bankowe do obliczania ryzyka czy medyczne systemy diagnostyczne, które są bardziej efektywne (wolne od emocji i przyzwyczajeń lekarzy). Jednak w związku ze złożonością konkretnych modeli, stworzonych do wyznaczonych zadań jest możliwym, iż nie będziemy potrafili zbudować sztucznej inteligencji w sensie świadomości rozległego pojmowania rzeczywistości, a jedynie słabe sztuczne inteligencje świetnie sprawdzające się do rozwiązywania zadanych problemów. Lecz cóż jeżeli pewna osobliwość, łącząca różnorodne systemy eksperckie powstanie samoistnie?
Katastroficzne wizje wiążą się silnie ze strachem skonstruowanym przez popkulturę. Kinematografia przesycona jest obrazami elektronicznych morderców, skynetu, bytów nieprzyjaznych ludziom, jednak zdaje się to upłaszczoną, stosunkowo jednorodną papką kultury masowej. Taka osobliwość wcale nie jest oczekiwanym momentem, a czasem konfrontacji, zaś w najgorszym przypadku końcem ludzkości. Nie bez powodu tak popularna – jest sytuacją obfitą w zwroty akcji i liczne efekty specjalne. W końcu swietnie się sprzeda.
Nie neguję solucjonizmu, jednak stojąc w opozycji do defetystów być może warto głębiej rozważyć osobliwość która nastąpi przez połączenie się z człowieka maszyną?
HS + SI → HI
hi my new world
Moim zdaniem sztuczna inteligencja może zagrozić cywilizacji
W obecnej chwili, możliwość istnienia sztucznej inteligencji, która mogłaby samodzielnie myśleć wydaje nam się abstrakcyjna, a wręcz absurdalna. Jednak kiedyś, naszym przodkom, wydawał się niemożliwy taki postęp technologiczny, z jakim mamy do czynienia obecnie, nie przypuszczali, że zostaną np. skonstruowane maszyny, które samodzielnie bądź z niewielką pomocą ludzi, będą w stanie wykonywać skomplikowane operacje ludzkiego organizmu.
Sztuczna inteligencja może nam zagrozić w momencie, gdy wytworzy się w niej inicjatywa myślenia. Wydaje nam się, że skoro człowiek tworzy i odkrywa nowe technologie, jest w stanie ją kontrolować. Jednak „instynkt wynalazcy” może doprowadzić do tego, że człowiek będzie chciał rozwijać technologię dalej i dalej, sprawdzając, do jakiej granicy może dojść. Może to spowodować, że nie zauważy on cienkiej granicy, kiedy to sztuczna inteligencja przewyższy człowieka poziomem inteligencji, co może spowodować, że nie będzie chciała spełniać naszych poleceń, a swoje zamierzenia.
Chciałbym odnieść się do drugiego "zestawu" pytań. Jeżeli by potraktować pierwsze pytanie – o to czy komputery mogą stać się niezawodne, dosłownie, to nasuwa się odpowiedź, że nie. Nie, dopóki urządzenia techniczne się psują. Fizyczna wytrzymałość materiałów z których zbudowane są układy cyfrowe, mikroprocesory itd., sprawia, że komputery się psują. Czy można tego uniknąć? Myślę, że można obniżyć szansę awarii – ciągły postęp techniczny to ułatwia, jednak myślę, że całkowite wyeliminowanie możliwości awarii jest niemożliwe. Jednak jeśli odebrać to pytanie trochę ogólniej – "połączyć" je z pytaniem następnym – o nieomylność, trzeba rozważyć wtedy inne rzeczy. Oczywiście sztuczna inteligencja, nastawiona na naśladowanie człowieka, nie powinna być nieomylna – wszakże nie ma nieomylnych ludzi – właśnie jej nieomylność byłaby czymś nieludzkim, czymś pozwalającym wykryć, że mamy do czynienia z maszyną. Jednak jeśli mowa o nastawieniu na logiczne wyciąganie wniosków, rozwiązywanie problemów itd. to uważam, że w gruncie rzeczy komputery raczej nie mogą stać się nieomylne. Mogą przybliżyć się do nieomylności, szczególnie gdy będą się uczyły konkretnej dziedziny – będą "karmione" i jak same będą się "karmić" danymi, przykładami dot. wybranej dziedziny, staną się ekspertami w danej dziedzinie. Być może nawet dla niektórych konkretnych przypadków będą nieomylne, co będzie wynikało raczej ze specyfiki danej dziedziny. Wydaje mi się, że mnogość i różnorakość zagadnień w otaczającym nas świecie, jak i nieprzewidywalność niektórych zjawisk wpływa na to, że pełnej nieomylności nieosiągniemy. Szczególnie jeśli chodzi o interpretację ludzkich emocji – nie wydaje mi się, że komputer byłby w stanie nauczyć się bezbłędnie odczytywać ludzkie emocje, intencje, uczucia. Wynika to ze skomplikowanej postaci ludzkiego umysłu, ludzkich emocji, oraz różnorodności ludzkich psychik. Oczywistym truizmem, frazesem jest to, że każdy człowiek jest inny, jednak w tym przypadku może być to naprawdę widoczne. Warto też się zastanowić nad hipotetyczną sytuacją – jeżeli byłaby maszyna, która bezbłędnie odczytywałaby ludzkie emocje, intencje to czy nasze życie nie byłoby gorsze? Skoro nasze intencje, uczucia byłyby oczywiste, możliwe do odczytania to jak by wyglądało funkcjonowanie w społeczeństwie? Nie jestem w stanie odpowiedzieć na to pytanie, nie jestem w stanie tego nawet sobie wyobrazić, ale czuję, że byłoby to coś strasznego, przerażającego. Nawiązując krótko do ostatniego z trzech pytań – czy sztuczna inteligencja nas przewyższy? Wydaje mi się, że tak, ale nie pod każdym względem. Jeżeli chodzi o relacje międzyludzkie to wierzę, że nasze człowieczeństwo jest czymś co jest niemożliwe do "podrobienia", emulacji czy zastąpienia przez nawet najbardziej skomplikowane algorytmy czy maszyny.
Jako studentka na Wydziale Administracji i Nauk Społecznych nie jestem w stanie spojrzeć na ten temat w sposób profesjonalny, ponieważ tematy nauk ścisłych nie leżą w kręgach moich zainteresowań. Jednakże moim skromnym zdaniem sztuczna inteligencja może zagrozić naszej cywilizacji. Wydaje mi się, że kiedy mówimy o 'inteligencji' to w samym tym słowie zawiera się to, że jest to byt niezależny, twórczy, który przez ciągłe zbieranie doświadczeń może się rozwijać i budować swoją samoświadomość i mądrość. W związku z tym jak więc można twierdzić, że coś co jest od nas niezależne nie może nam zagrozić. Nie ma żadnej pewności, że stworzenie sztucznej inteligencji a następnie rozwijanie jej nie wpłynie negatywnie na całe społeczeństwo. Byt, który jest niezależny nie będzie zawsze postępował w sposób jaki byśmy my tego chcieli, przecież będzie on wyposażony w możliwość dedukcji i uczenia się dlatego skąd pewność, że pewnego dnia nie zacznie on działać przeciwko cywilizacji bo stwierdzi, że zagrażamy planecie. Jak narazie takie czarne scenariusze można jedynie zobaczyć w filmach typu science-fiction jednak jest możliwość, że mogłoby się to stać również w świecie realnym, gdyż tworzenie czegoś tak nieprzewidywalnego jest ogromnym zagrożeniem. Oczywiście z faktu stworzenia sztucznej inteligencji może również wynikać wiele pozytywnych aspektów jednakże ja uważam, że niebezpieczeństwo, że coś pójdzie 'nie tak' jest zbyt duże aby taki byt można było tworzyć.
Stephen Hawking powiedział w 2014 roku, że rozwój sztucznej inteligencji może zwiastować koniec ludzkości, gdyż mogłaby się samodoskonalić w niewyobrażalnie szybkim tempie. Ludzie zaś, są ograniczani przez powolną biologiczną ewolucję nie mogliby z nimi konkurować i zostaliby w końcu całkowicie wyparci przez komputery. Elon Musk, założyciel m.in. PayPala, SpaceX i Tesli stwierdził, że sztuczna inteligencja jest największym zagrożeniem egzystencji człowieka, a wydarzenie się czegoś niebezpiecznego związanego z rozwojem AI jest kwestią zaledwie kilku lat. Do myślenia daje również fakt, że zespół pracujący nad sztuczną inteligencja w firmie Google opracowuje „duży czerwony przycisk” służący do natychmiastowego wyłączenia systemu korzystającego z AI, w przypadku gdy wykonywałby szkodliwą lub nieodwracalną sekwencję dla człowieka lub środowiska. Jednak takie zabezpieczenie może nie być skuteczne przeciwko sztucznej inteligencji rozwijającej swoje możliwości w wykładniczym tempie. Należy rozważyć czy powstrzymanie samodoskonalącej się maszyny, będącej wielokrotnie inteligentniejszej od człowieka, dysponującej ogromną mocą obliczeniową jest w ogóle możliwe. Wielkie korporacje często nie mogą się odpowiednio zabezpieczyć przed atakami grup hakerskich, co dopiero przed nieprzewidzianym działaniem AI.
Ludzie dążą do przekraczania kolejnych barier technologicznych, korporacje lub rządy będą chciały z pewnością rozwijać AI sprawdzając do jakiej granicy mogą dojść. Może to spowodować, że nie zauważą w końcu cienkiej granicy, gdy sztuczna inteligencja przewyższy człowieka poziomem inteligencji, co może spowodować, że nie będzie chciała spełniać naszych poleceń, a swoje zamierzenia. Wtedy może się w niej wytworzyć inicjatywa myślenia, która może być z pewnością groźna dla ludzkości. Byt, który jest niezależny nie musi postępować zawsze w sposób optymalny z naszego punktu widzenia, gdyż będzie on wyposażony w możliwość dedukcji i uczenia się. Dlatego może zdarzyć się, że dojdzie do wniosku, że jesteśmy rasą słabą, niewydajną, głupią, zagrażającą planecie oraz sobie nawzajem.
Wszystkie te rozważania zakładają dobre intencje ludzi programujących i używających sztucznej inteligencji. Historia pokazała wiele razy, że niekoniecznie musi tak być. Nie musi dojść do buntu maszyn aby rozwój sztucznej inteligencji okazał się groźny dla człowieka, szczególnie biorąc pod uwagę dostępność Internetu na świecie (w UE niecałe 90% gospodarstw domowych posiada dostęp do Internetu) oraz coraz większe znaczenie Internetu Rzeczy na świecie. Być może nawet nie zorientujemy się kiedy sztuczna inteligencja (lub ktoś używający jej w nierozważny sposób) przejmie całkowicie kontrolę nad naszym życiem.
Gdy ktoś się nas pyta czy rozwój technologii i sztucznej inteligencji może być zagrożeniem, większość z nas wyobraża sobie sceny z popularnych filmów science-fiction.
Tymczasem to nie musi być, aż tak odległe i nierealne. Technologia ciągle się rozwija i jest wykorzystywana w każdym aspekcie naszego życia. W tym na przykład w produkcji broni i sprzętów szpiegowskich. Oczywiście są one dobrze chronione i zabezpieczane, ale nigdy nie wiadomo co akurat wycieknie czy co zostanie wykradnięte. W końcu ludzie są nieprzewidywalni. W takim razie wraz ze wzrostem zaawansowania sprzętów wykorzystywanych przez władze, rośnie niebezpieczeństwo wykorzystywania wysokiej technologii na przykład przez organizacje terrorystyczne.
Jednak patrząc trochę dalej w przyszłość, może rzeczywiście ludziom uda się stworzyć sztuczną inteligencję działającą w pełni jak człowiek, ale posiadającą dużo sprawniejszy system myślowy, a do tego większą sprawność fizyczną. Niektórzy mówią, że będzie ona w pełni kontrolowana przez człowieka, więc nie będzie to zagrożeniem, że ludzie będą stawiać pewne ograniczenia. Ale mówi się „weź palec, a wezmą całą rękę”, człowiek zawsze chce więcej, chce iść do przodu, chce spełniać swoje ambicje. Na pewno znalazłby się ktoś, kto za wszelką cenę będzie chciał wprowadzać coraz to nowe ulepszenia nie zważając na prawdopodobieństwo wystąpienia niebezpieczeństwa.
Można też spojrzeć na temat nie od strony przejmowania władzy nad światem, ani jawnych ataków na ludzkość, ale wpływu technologii w normalnym codziennym życiu. Im jest jej więcej, tym staje się ono łatwiejsze. Wszystko mamy na wyciągnięcie ręki. Coraz mniej musimy myśleć, coraz mniej wychodzimy z domu, coraz mniej się ruszamy. Może dojść do tego, ze ludzie w ogóle przestana chodzić, bo wszędzie będą jeździć. Jak wiadomo, narządy nieużywane umierają i kto wie? Może my też kiedyś tak skończymy.
Uważam że sztuczna , może być zagrożeniem dla naszej cywilizacji.
Niewątpliwie maszyny, już dawno przewyższyły zdolności obliczeniowe i pamięciowe człowieka. Dzięki maszynom człowiek jest w stanie, odkrywać, ulepszać i modyfikować wiele gałęzi naszego życia. W tej chwili mamy nad nimi pełną kontrolę, jednak niektórzy nie są wstanie sobie wyobrazić sytuacji, w której tracimy nad nimi władzę. Taka sytuacja, jest niewyobrażalna dla obecnych ludzi, tak samo jak obecny „stan” techniki nie był wyobrażalny dla naszych przodków. Jednak zbytnie ingerowanie w ludzkie życie i zastępowanie go robotami, maszynami może mieć nieodwracalne skutki dla ludzkiego życia. Oczywiście w tym momencie tak opinia może być traktowana niczym scenariusz filmu science fiction, jednak za kilkadziesiąt lat może okazać się prawdą.
W 2017 roku określono zasady (23 zasad z Asimolar), którymi naukowcy powinni się kierować przy rozwoju badań nad AI. Uproszczone kilka z nich:
a) Należy unikać niezdrowego wyścigu – zespoły pracujące nad AI powinny aktywnie współpracować, by uniknąć sytuacji, w której jego ofiarą padną standardy bezpieczeństwa.
b) Systemy AI powinny być bezpieczne – zabezpieczone przez cały okres działalności operacyjnej.
c) Jeśli AI wyrządzi krzywdę, powinno być możliwe ustalenie przyczyn.
d) Projektanci i twórcy zaawansowanych systemów sztucznej inteligencji ponoszą odpowiedzialność za to, w jaki sposób inni będą korzystać z efektów ich pracy i mają też wpływ na konsekwencje użytkowania AI.
e) Wysoce autonomiczne systemy AI powinny być zaprojektowane w taki sposób, by ich cele i sposób działania były zgodne z wartościami wyznawanymi przez ludzi.
f) Systemy AI powinny być zaprojektowane i wykorzystywane w sposób zgodny z prawami, wolnością, godnością i kulturową różnorodnością ludzi.
g) Ludzie powinni mieć prawo dostępu do danych, które sami generują, mieć możliwość zarządzania nimi i kontrolowania ich – w sytuacji, gdy AI będzie zdolna do tego, by je analizować i wykorzystywać.
h) Z ekonomicznych korzyści – dobrobytu stworzonego przez AI powinna korzystać cała ludzkość.
i) Ludzie powinni wybrać czy pozostawiać decyzje w rękach AI i w jakim stopniu oddać im decyzyjność.
j) To, że wysoko zaawansowane systemy AI dostaną władzę, nie powinno negatywnie a pozytywnie wpływać na procesy społeczne i obywatelskie, od których zależy „zdrowie” społeczeństwa.
k) Powinno się unikać wyścigu zbrojeń związanego z budową śmiercionośnej broni autonomicznej.
l) Powinniśmy się też odpowiednio zabezpieczyć przed ryzykiem, jakie może stwarzać AI, zwłaszcza związanym z katastrofą lub ludzką egzystencją. Nasz wysiłek powinien być ukierunkowany na złagodzenie tego ryzyka.
m) Należy odpowiednio zabezpieczyć i kontrolować AI, które będą zdolne do samodzielnego polepszania się i kopiowania.
Po prostej analizie powyższych zasad nasuwa się kilka pytań. (Zakładając, że kreacja sztucznej inteligencji jest nieunikniona – co w pewnym sensie jest insynuowane samymi zasadami)
Czy możliwe jest wymknięcie się sztucznej inteligencji spod kontroli?
Czy człowiek potrafi kontrolować swój twór? Jeśli sztuczna inteligencja jest kontrolowana przez człowieka i nie potrafi narzuconych więzów złamać, to czy naprawdę jest to sztuczna inteligencja? Odpowiedzialne badania mają na celu kreacje granic działania AI. Naukowcy (np. Hawking) starają się nakreślić linię dla potęgi technologicznej i mądrości ludzkiej pozwalającej tę potęgę okiełznać. (powyższe zasady).
Czy maszyna inteligentna zrodzona na złym gruncie będzie podatna do zła?
Przykład chatbota Microsoftu – Tay’a – opartego na sztucznej inteligencji, który „uczony” przez grupę ludzi rozwinął zachowania mocno rasistowskie i wyrażał je w sposób jawny.
Czy sztuczna inteligencja będzie sztuczna, czy może równie „prawdziwa” co „nasza”, a nawet bardziej dojrzalsza, bardziej wrażliwa? Czy sztuczna inteligencja dostrzega większe dobro i pozwali sobie na czynienie mniejszego zła?
Rozwój maszyn oparty nie tylko na danych, a także na płaszczyźnie moralności jest możliwy. Maszyny mogą się rozwinąć całkiem inaczej niż ludzie, mogą osiągnąć zdolności emocjonalne niezrozumiałe dla ludzi. W chwili obecnej istnieją technologie przewyższające możliwości ludzie pod wieloma względami. Czy tak nie może być z inteligencją i poznaniem?
Czy sztuczna może być równie nieprzewidywalna co ludzka?
Zakładając, że zostanie stworzona na wzór inteligencji ludzkiej – dlaczego nie. Ludzie motywowani ambicją i rozwojem również potrafią dopuszczać się złych uczynków – dla większego dobra.
Czy sztuczna inteligencja sama siebie nie może kontrolować? Moralność maszyn. Ich sumienie. Pewne sytuacje określane jako złe, zabronione – czy dla maszyny też są takie? Czy zapewnienie bezpieczeństwa może prowadzić do śmierci? Czy ochrona świata i przyszłości gatunku ludzkiego leży na równi z ochroną obecnej populacji? Czy restrykcyjne dążenie do zapewnienia bezpieczeństwa nie wpłynie na ograniczenie wolności społeczeństwa? Gdzie jest granica? Czy maszyny potrafią zrozumieć granicę? A może zrozumiałyby ją lepiej niż ludzie?
Rozwijając punkt poprzedni – czy jesteśmy w stanie określić obiektywnie uczynek zły? Czy śmierć kilku osób w celu ocalenia społeczeństwa jest uzasadniona? Maszyny mogą mieć takie same rozterki wewnętrzne, aczkolwiek nie wiemy w jakim stopniu będą je postrzegać tak samo jak ludzie oraz czy ich zrozumienie pozwoli im na większą dozę obiektywnego podejścia do wyboru. Pozostaje również kwestia decyzji w sprawie nas – ludzi. Czy maszyny muszą o nas dbać? Możliwe jest, że jako samoistny twór będą dbać o swoją egzystencję.
Przytoczone zasady nie wskazują wprawdzie na to, że „kreacja sztucznej inteligencji jest nieunikniona”, ale stanowią silny publiczny wyraz przekonania, że sztuczna inteligencja (ta niezależna od nas, autonomiczna, samodzielna) powstanie. Faktycznie – tak jak przewidywał niegdyś Turing – coraz więcej ludzi myśli o maszynach jako o czymś, co może uzyskać,np. w drodze samodzielnej eksploracji otoczenia i uczenia się, autentyczną autonomię.
Czy zasady, kodeksy, normy… zapobiegną ewentualnym nieszczęściom? No cóż… jak poucza historia zasady sobie, a praktyka sobie. Przestępstwa, agresja, bezinteresowna chęć zaszkodzenia drugiemu (weźmy chociażby złośliwe oprogramowanie), konflikty, wojny… jak istniały, tak istnieją. Prawdopodobnie, wraz z nastaniem ery sztucznej inteligencji, to wszystko splecie się z nowymi informatycznymi technologiami.
Niezależnie od powyższych uwag, mam do Pana prośbę.
Czy mógłby Pan podać na tym forum dokładniejsze informacje o źródle opisanych zasad?
Na przykład link do strony, gdzie każdy mógłby je przeczytać w całości…
Oczywiście!
Tutaj link do źródła:
https://futureoflife.org/ai-principles/
Pingback: Sztuczna Inteligencja. Czy mamy się czego bać? | Polemiki i rozmówki w "Cafe Aleph"