Sztuczna Inteligencja. Czy mamy się czego bać?

Temat sztucznej inteligencji gościł na naszym blogu nie raz. Obecny głos możemy potraktować jako kontynuację dyskusji, którą zainicjował historyczny już wpis jednej ze studentek wydziału Fizyki PW. Polecam go jako lekturę wstępną

W niniejszej dyskusji proponuję skupić się na zagrożeniach ze strony SI: egzystencjalnych, społecznych, gospodarczych… (lista nie jest z pewnością zamknięta).

Na dobry początek przedstawiam próbkę spostrzeżeń i argumentów, które nadesłali w ubiegłym semestrze studenci wydziału WEiTI PW.

Oto ona:

1.  Sztuczna inteligencja (SI) rozwija się tak szybko, że według wybitnych badaczy, takich jak Stephen Hawking, już niedługo przewyższy człowieka. Jako następstwo ludzkość może przestać kontrolować poczynania sztucznej inteligencji i zostać zepchnięta na drugi plan (a nawet zniewolona czy fizycznie wyeliminowana).

2.  Bardzo poważnym zagrożeniem jest fakt, że SI może nie być w stanie określać takich samych środków do celu jak ludzie. Pomyślmy, na przykład, o autonomicznej broni, która nie zważając na straty  będzie dążyć do zniszczenia przeciwnika. Może np. ranić wielu niewinnych cywilów czy spowodować nieodwracalne zmiany w naturalnym środowisku.

3.  Dzięki niesamowitej produktywności i precyzji, przy relatywnie niskich kosztach „pracy”, sztuczna inteligencja już zastępuje ludzi w wielu zawodach, a w przyszłości może zastępować nas w większości prac. Grozi to globalnym bezrobociem.

4.  Także autonomiczne algorytmy, które już teraz zbierają o nas dane i wykorzystują je w celach marketingowych, mogą zostać rozwinięte do poziomu, w którym np. polityczna propaganda może być „zaszczepiana” w ogromnej części społeczeństwa i to ze znakomitym skutkiem. Również systemy kamer rozpoznające obywateli i przyznające im tzw. „noty społeczne” są jawną ingerencją w prywatność i wolność człowieka jako jednostki.

Zachęcam do uzupełnienia i rozwinięcia tych głosów…

Podejrzewam także, że są wśród nas osoby, które mają w stosunku do SI zdanie odmienne. To znaczy: widzą w SI nie jakieś mroczne zagrożenie, lecz cywilizacyjną szansę (potężną technologię, która może nam się dobrze przysłużyć).

Czekam zatem na głosy obydwu stron…

Zapraszam do dyskusji wszystkich Czytelników bloga — Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

14 odpowiedzi na „Sztuczna Inteligencja. Czy mamy się czego bać?

  1. Sebastian Aksamit pisze:

    Pozwolę sobie zacząć od oświadczenia – uważam sztuczną inteligencję jako szansę bardziej niż zagrożenie. Wyobrażam sobie daleko idące pozytywne skutki automatyzacji i zaprzęgnięcia AI do pracy na rzecz ludzkości, pozwalające aby w przyszłości brak pracy nie był problemem, a wyborem. Rozwinę myśl jak tylko przebrnę przez to co uważam za zagrożenie a czego się nie boję.

    Sztuczna inteligencja w roli „Skynetu”, samo-ulepszającej osobliwości, świadomego bytu: Uważam taki scenariusz za wysoce nieprawdopodobny zarówno pod kątem wytworzenia takiej jednostki, jak i jej potencjalnego zagrożenia. Umysł pozwala nam myśleć, myślenie to nic innego jak pewien proces przetwarzania informacji w celu wytworzenia innej informacji – nie jesteśmy w stanie „wymyślić” samochodu czy skupić się na naszym kubku z kawą wystarczająco mocno aby ją podgrzać, bo zapomnieliśmy że czeka na nas w kuchni. Jeżeli więc dalibyśmy radę na stworzenie świadomej sztucznej inteligencji, to najlepsze co możemy zrobić żeby się przed nią ewentualnie chronić, to – nie dawać jej broni. Żeby sztuczna inteligencja w taki sposób mogłaby nam zagrażać, lub chociaż pomyśleć o takiej możliwości, musiałaby mieć najpierw odpowiednie narzędzia do realizacji takich rzeczy. Oczywiście możemy pomyśleć że będzie w jakiś sposób wszechobecna kontrolując ruch w naszym mieście, pilnująca w jakiś sposób bezpieczeństwa, analizująca potencjalne sytuacje w których ludzie potrzebują pomocy, nawet dostosowująca poziom oświetlenia dla każdej lampy osobno w zależności od chwilowej widoczności w danym miejscu. Wyobrażam sobie jednak, że nie będzie za to wszystko odpowiadał dosłownie jeden byt – myślę, że będzie działać raczej coś w postaci nadzorcy. Jedna świadomie myśląca jednostka której jedynym zadaniem będzie odpowiednie koordynowanie pracy wszystkich prostszych bytów odpowiadających za każde prostsze zadanie z osobna. W dalszym jednak ciągu uważam, że będzie wiele możliwości ograniczenia tego umysłu tak, aby nas potencjalnie nie mógł skrzywdzić – np. narzucenie minimalnego zużycia energii żeby nie pomyślał, że najwydajniej będzie pracować kiedy będzie mniej ludzi żyło, lub zwyczajne nagradzanie za ilość szczęśliwych ludzi (w postaci liczb oczywiście, komputery uwielbiają liczby!).

    Są bardziej realne zagrożenia ze sztucznej inteligencji. Zgodzę się z przytoczonym przykładem propagandy – o ile sam jestem fanem koncepcji zbierania o nas danych i płynących z tego korzyści, o tyle zgadzam się że istnieje realny problem wykorzystywania takich danych później np. aby kształtować myślenie ludzi w określonym kierunku. Już w tej chwili jesteśmy w stanie zdziałać z nimi cuda. Pozwolę sobie tu przytoczyć jeden z moich ulubionych przykładów: Amerykańska sieć sklepów na bazie zebranych danych o swoich klientach np. przypisywała kobietom jak prawdopodobne jest że są w ciąży. Kiedy szanse były duże, wysyłano im pocztą kupony na różne artykuły dziecięce takie jak pieluchy. Ojciec jednej z takich adresatek przyszedł do oddziału sklepu oburzony, że jej córka która przecież jest jeszcze w szkole średniej – dostaje takie rzeczy. Po paru dniach jednak telefonicznie przyznał, że dowiedział się że jego córka rzeczywiście jest w ciąży. Dla zainteresowanych linkuję artykuł: https://www.forbes.com/sites/kashmirhill/2012/02/16/how-target-figured-out-a-teen-girl-was-pregnant-before-her-father-did/#4be91da86668
    Umysł ludzki posiada wiele luk które można wykorzystać bez dużej wiedzy o danej osobie. Takie pułapki jak torowanie myślenia podsuwając np. niezwiązane z tematem sugestie, wiele sztuczek wykorzystywanych w biznesie – one już same w sobie potrafią ukształtować naszą opinię zanim my jeszcze o tym pomyślimy. Kiedy więc te techniki ulepszymy dodając zebrane na nasz temat informacje dostaniemy niebezpiecznie dużą możliwość namieszania nam w naszych poglądach i przekonaniach.

    Mimo to moim zdaniem najistotniejszym zagrożeniem ze strony sztucznej inteligencji jest czynnik ekonomiczny. I tu nawet nie chodzi o to, że maszyny zabiorą nam prace – jak wspominałem na początku, uważam to za dużą szansę. Problem może jednak pojawić się, kiedy nie będziemy gotowi na taki obrót wypadków. Sztuczna inteligencja jest wszędzie i potrafi zrobić naprawdę wszystko. Te najbardziej oczywiste rzeczy obserwujemy już teraz, jak autonomiczne samochody, które przecież „uderzą” w jeden z największych rynków pod względem ilości zatrudnionych – transportowy. Jednak zagrożone jest o wiele więcej prac niż by się mogło wydawać. W kancelariach prawnych już w tej chwili funkcjonują programy, które analizują zbiór danych w poszukiwaniu potencjalnych do wykorzystania w sprawie „odkryć”, jak niekorzystne dane w korespondencji czy luki prawne. Sztuczna inteligencja jest wykorzystywana w medycynie do diagnoz, obecnie jedynie jako wspomaganie, ale w przyszłości równie dobrze zastąpi nam dużą część lekarzy. Są programy które produkują muzykę nie do rozróżnienia z tą tworzoną przez człowieka (i mogą robić jej nieskończenie wiele!). Zakres prac możliwych do zastąpienia przez komputery jest niezwykle szeroki i o ile to wszystko będzie mogło uczynić nasze życie łatwiejszym, o tyle w pierwszej kolejności będzie trzeba się upewnić że będziemy na to przejście gotowi.

    O czym ciężko mi nie wspomnieć w tym temacie to jest moje podejście do obietnicy lepszego jutra, jakie sztuczna inteligencja stawia. Wierzę, że dzięki niej osiągniemy w przyszłości taki stopień rozwoju, który będzie pozwalał nam na pracę jako wybór, formę wyrażenia siebie i próbę spełnienia pewnych aspiracji, a nie jako przykry obowiązek każdego obywatela. Są prowadzone różne badania na temat bezwarunkowego dochodu podstawowego, czyli nieopodatkowanej kwocie dla każdego obywatela, która pozwala mu stabilnie funkcjonować. Do tego wszystkiego wykorzystanie sztucznej inteligencji w medycynie pozwoli nam wyeliminować niestety ale występujące błędy lekarskie, będziemy się przemieszczać z jednego miejsca do drugiego taniej, i tak dalej. Do tego wszystkiego jednak musimy być gotowi, stale podnosić nasze kwalifikacje i trzymać rękę na pulsie rynku pracy tak, aby się nie obudzić pewnego dnia zdziwieni, że zawód, który wykonujemy, właśnie został przejęty przez sztuczną inteligencję.

  2. km pisze:

    W komentarzu (z „lektury wstępnej”) z 15 czerwca 2016 roku dr Stacewicz pisze o możliwości przeistoczenia się Homo Sapiens w Homo Informaticus – po wszczepieniu jakiegoś rodzaju artefaktów wykorzystujących informatyczne technologie w ludzkie mózgi.
    Może to dawać nadzieje, że „gatunek ludzki ucieknie do przodu, unikając realnego zagrożenia ze strony SI” – jednak na mecie tego wyścigu jak zwykle tryumfować będą mogli nieliczni. Bowiem to jak „urządzony jest Świat” wskazuje na to, że korzyści z nowych technologii popłyną w pierwszej kolejności do wąskiej grupy.
    Nie pierwszy raz „szampana będziemy spijali tylko ustami naszych przedstawicieli” – ale w tym wypadku zdaje mi się, że może powstać „jakościowa zmiana”- w zwiększaniu się nierówności:
    Najbogatsi ludzie (mogący sobie pozwolić na zakup odpowiednich implantów) będą mogli zapewnić sobie i swym dzieciom ostateczna przewagę -utrwalając podziały „klasowe”.
    Majątek zapewni nie tylko pokrycie kosztów czesnego w najlepszych uczelniach, korepetytorów, zajęć dodatkowych (i wszelkich innych przewag płynących choćby z ochrony zdrowia, pełnego żołądka i innych prozaicznych aspektów tworzących „klimat do nauki”) ale pieniądze rodziców będą mogły zagwarantować przewagę „merytoryczną”. Z dobrym przybliżeniem można przyjąć, że wszystkie inne przewagi są już w rękach finansowych elit. Biorąc pod uwagę to, że na przykład Elon Musk zarzeka się, że jego „neurolink” już niedługo będzie gotowy do wykorzystania, być może już niedługo będzie mógł spełnić się sen o rządach Platońskiej arystokracji?

    W sumie nic nowego – zwłaszcza na terenie Polski, gdzie nie minęło nawet 200 lat od czasu kiedy około 80% społeczeństwa było realnie w sytuacji niewolniczej (tak niedawno źli zaborcy ukrócili na terenie umiłowanej ojczyzny możliwość sprzedania połowy chłopa… lub jego części, proporcjonalnej do podziału przechodzącego z rąk do rąk szlachciców gospodarstwa).

    Możliwość taka (że powstanie „maszynowo-ludzka hybryda o zdolnościach nieporównanie wyższych niż samo HS i samo SI „) w pewnym sensie zwiększa szanse na ziszczenie się wszelkich zagrożeń jakie niesie sztuczna inteligencja – bowiem zamiast tajemniczych (nieodgadnionych) rezultatów działań ewoluujących algorytmów będziemy mieli do czynienia z pewnością realizacji znanych ludzkich tendencji.

  3. marta_p pisze:

    Moim zdaniem mamy podstawy do strachu przed sztuczną inteligencją.
    Żeby to uargumentować posłużę się przykładem algorytmu, który miał rozpoznać czy na zdjęciu jest pies husky czy wilk. (Może jest to ogólnie znany przykład, ale moim zdaniem dobrze obrazuje sytuację). Niektóre husky program identyfikował jako wiki. Po analizie klasyfikatora okazało się, że jednym z kryteriów stwierdzenia gatunku zwierzęcia był śnieg – gdy za husky’m leżał śnieg algorytm brał go za wilka.
    Pokazuje to, że to jak podejmują decyzje maszyny może rozmijać się z ludzkim myśleniem. Sztuczna inteligencja już jest obecna w wielu dziedzinach naszego życia, a mówi się eksponencjalnym wzroście jej zaawansowania. Co jeśli algorytm, który decyduje czy możemy dostać kredyt w banku, podaje wynik na podstawie kryteriów takich jak przykładowy śnieg na zdjęciu?
    W mniej skomplikowanych algorytmach uczenia się maszyn możliwa jest identyfikacja punktów, w których ludzka logika rozmija się z maszynową, jednak jeżeli mowa o rozwiązaniach złożonych (powiązanych z big data), wówczas maszyna staje się czarną skrzynką – mającą często bezpośredni wpływ na nasze życie.
    Ponadto jeżeli maszyny pewnego dnia przewyższają człowieka (Artificial Super Intelligence) kto wie czy decyzje dotyczące ludzkości będą miały na celu jej dobro. Może zostaniemy uznani za czynnik utrudniający rozwój. Jakie wyniki przedstawi nam wówczas czarna skrzynka?
    Sztuczna inteligencja niewątpliwie może mieć pozytywny wpływ na jakość życia ludzi, jednak bez odpowiednich standardów i regulacji jej rozwijanie może okazać się wielkim zagrożeniem (przestrzega przed tym m.in. Elon Musk). Jako że na razie brak ów standardów, a zaawansowanie prac nad AI rośnie wykładniczo, są powody do obaw.

  4. rwojtas pisze:

    Na ten moment Sztuczna Inteligencja nie jest na etapie rozwoju, w którym mielibyśmy podstawy do strachu przed jej działaniami. W obecnym stanie rzeczy, wszystkie karty trzyma człowiek i to od nas zależy, w którą stronę rozwinie się sytuacja. Moim zdaniem SI stanowi narzędzie, które może pomagać ludzkości w ciągłym rozwoju. Nie uważam jednak, że jest to twór zupełnie nie zagrażający rasie ludzkiej. Z racji dyskusji na temat zagrożeń, które niesie ze sobą SI poniżej pozwoliłem sobie poruszyć kilka tematów stanowiących dobre przykłady potencjalnych problemów ze Sztuczną Inteligencją jakie możemy napotkać w przyszłości.

    Najbardziej realnym na ten moment problemem wg mnie jest kwestia poruszona w punkcie trzecim dotyczącym kwestii zatrudnienia oraz wypierania człowieka przez sztuczne twory wykonujące te samą pracę. Sztandarowym przykładem jest tutaj sektor produkcji, w którym ciągła automatyzacja zakładów produkcyjnych, rozwój robotów i ogólnie technologii doprowadził do utworzenia fabryk zautomatyzowanych niemal w 100%. W sieci można znaleźć wiele artykułów na temat rozwoju Sztucznej Inteligencji w rozmaitych sektorach (usługi, edukacja, a nawet IT!). W każdym z nich wspomina się o możliwości zastąpienia człowieka tworem SI. Nigdy zapewne nie nastąpi sytuacja, w której człowiek stanie się całkowicie niepotrzebny, jednak dalsza ekspansja SI może prowadzić do krytycznych zmian w kwestii zatrudniania ludzi do pracy, co niesie poważne, negatywne skutki ekonomiczne na ogromną skalę.

    W kontekście zagrożeń płynących ze strony sztucznej inteligencji najczęściej wymienia się autonomiczne systemy uzbrojenia, które bez zgody człowieka będą mogły wybierać i eliminować cele. To właśnie w tym kontekście pojawia się najpopularniejsza wizja autonomicznych maszyn, które mogą zbuntować się przeciwko ludziom i rozpocząć masową wojnę jak w filmie Terminator. Siły zbrojne głównych mocarstw Rosji, Chin i Stanów Zjednoczonych intensywnie pracują nad wykorzystaniem sztucznej inteligencji do poprawy działania swojego wojska. Amerykanie eksperymentują z autonomicznym okrętem podwodnym, który jest w stanie śledzić wrogie jednostki na dystansie tysiąca mil a Chińczycy zademonstrowali inteligentne algorytmy pozwalające sterować rojem dronów. Wprawdzie daleko jeszcze do spełniania się wizji z filmu Terminator to Organizacja Narodów Zjednoczonych jak i Human Rights Watch apelują do polityków z całego świata żeby uchwalić traktat eliminujący taki rodzaj uzbrojenia. Tego typu apele mogą być skuteczne. Pracownicy Google w ten właśnie sposób zmusili firmę do wycofania się z projektu Maven, który zakładał ścisłą współpracę z Pentagonem przy rozwoju sztucznej inteligencji.

    Zastosowanie sztucznej inteligencji może również wzmocnić już istniejące negatywne praktyki. Fałszywe filmy wideo i nagrania mogą zostać wykorzystane do manipulacji politycznej i propagandy, ale sztuczna inteligencja może również znaleźć zastosowanie w rozwiniętej i zaawansowanej inwigilacji. Takie rzeczy już mają miejsce w Chinach, gdzie systemy rozpoznawania twarzy oraz kamery śledzące ludzi wykorzystywane są do kontrolowania muzułmańskiej mniejszości Ujgurów. Sztuczna inteligencja może tutaj ułatwić kategoryzowanie ludzi ze względu na ich zachowania typując grupę osób stanowiących potencjalne zagrożenie. W przyszłości podobne systemy i to zdecydowanie na większą skalę będą wprowadzane w państwach autorytarnych, ale również demokracje mogą z nich korzystać w celu zwiększenia inwigilacji obywateli.

    Tak jak wspomniałem wcześniej, póki co nie ma się czego bać. Po zapoznaniu się z przeróżnymi materiałami wspominającymi wiele zagrożeń ze strony SI wciąż uważam, że odpowiednie poprowadzenie rozwoju tej gałęzi technologicznej może przynieść dużo więcej dobrego niż złego. Wszystko zależy od tego jak człowiek jest w stanie uregulować ciągłe prace nad SI. Należy sobie zadać pytanie: na co jesteśmy w danym momencie gotowi, gdzie są granice. Wierzę, że znalezienie odpowiedzi na te pytania stanowi klucz do tego aby rozwój Ludzkości i Sztucznej Inteligencji szedł ze sobą w parze.

  5. Krzysztof Dąbrowski pisze:

    Dzień dobry!

    Swój wpis chciałbym zacząć od założenia, które staje się dla mnie coraz pewniejsze, że my jako ludzie, już w tej chwili w zasadzie możemy czuć się jedynie obserwatorami. Moim zdaniem, już teraz nie ma możliwości zatrzymania sztucznej inteligencji, która nawet jeszcze nie powstała. Wiele firm, informatycznych gigantów z różnych państw o różnych światopoglądach pracuje nad rozwojem SI. Wystarczy, że istnieje między nimi konkurencja i to już nie pozwala żadnej z firm się zatrzymać, bo oznaczałoby to jej koniec. Dodatkowo fakt, że firmy są różnych państw pozwala przypuszczać, że rządy tych krajów również będą dążyły do tego, żeby mieć do dyspozycji SI zanim będzie ją miał przeciwnik. Nie mówię tutaj nawet o przeciwniku, z którym dany kraj jest w stanie otwartej wojny. Wystarczy, że oba kraje prowadzą ze sobą wyścig gospodarczy. Podsumowując, uważam, że sztuczna inteligencja ma zapewnione warunki do rozwoju.

    Drugim moim założeniem, choć tego już nie jestem tak pewien, jak pierwszego, to to, że SI ostatecznie będzie jedna. Wydaje się oczywistym, że SI prędzej, czy później będzie w Internecie. Internet ma zasięg globalny i praktycznie wszystkie zasoby komputerowe są do niego podłączone. Dlatego myślę, że w wyniku “eksplozji inteligenci” – zjawiska polegającego na tym, że SI zacznie sama się ulepszać, będzie potrzebowała coraz większych zasobów sprzętowych i cały Internet stanie się jednym wielkim bot-netem. W takiej sytuacji nie będzie miejsca na drugą SI.

    W tym momencie dochodzimy do konfliktu interesów. Jeżeli SI będzie chciała podobnie, jak wszystkie inne gatunki zamieszkujące Ziemię cały czas się rozwijać, a nie zatrzymać, to mamy problem.

    SI chcąc się nadal rozwijać, będzie potrzebowała coraz więcej mocy obliczeniowej, co pewnie będzie skutkować tym, że wszelki sprzęt, który będzie jej podlegał, będzie w całości wykorzystywany do celów SI. SI może również zaprojektować na swoje potrzeby nowe procesory i zlecić ich wykonanie w fabryce, która jest w dużej części zautomatyzowana. Jednak przyjdzie taki moment, w którym będzie potrzebowała człowieka, żeby jej pomógł w budowie nowej infrastruktury. Wydaje mi się, że SI bardzo szybko po uzyskaniu samoświadomości będzie chciała uniezależnić swoje przetrwanie a później rozwój od decyzji człowieka. A człowiek z powodów, o których pisałem na początku pracuje również nad autonomiczną bronią. SI nawet nie potrzebuje, żeby broń sama myślała. Wystarczy, że jest dostępna z Internetu. (Również zakładam, że zabezpieczenia cyfrowe nie będą dużym problemem dla SI). W takiej sytuacji SI będzie zaopatrzona we wszelkie metody przymusu od kontroli wszystkich rachunków bankowych, po autonomiczną śmiercionośną broń. Nawet wystarczy, że będzie w stanie zmieniać ustawienia stacji uzdatniania wody miejskiej, żeby wywrzeć presję na ludziach.

    Myślę, że SI będzie z nami współpracować i bardzo pomoże w rozwoju ludzi, ale podejrzewam, że przyjdzie taki moment, w którym SI zidentyfikuje naszą wolność jako zagrożenie jej wolności. A wtedy my stracimy wszelką kontrolę. Cytując klasyka – “Lew nie sprzymierza się z kojotem.”. Nie musi to oznaczać apokaliptycznego końca ludzkości, może nawet uda się żyć w symbiozie, ale nadrzędna będzie na końcu sztuczna inteligencja.

    Krzysztof Dąbrowski

  6. Rafał K pisze:

    Zacznę od argumentu odwołującego się do autorytetów – w to, że SI może stać się niebezpieczne dla człowieka wierzą nie tylko twórcy fantastyki (przytoczyć można chociażby trylogię Matrix braci Wachowskich, czy Łowca Androidów Ridleya Scotta), ale również osobistości szeroko znane w świecie nauki i techniki:
    Cytując Elona Muska: „The pace of progress in artificial intelligence (I’m not referring to narrow AI) is incredibly fast. Unless you have direct exposure to groups like Deepmind, you have no idea how fast—it is growing at a pace close to exponential. The risk of something seriously dangerous happening is in the five-year timeframe. 10 years at most.”
    O niebezpieczeństwach związanych z rozwojem SI mówili również Stephen Hawking czy Bill Gates. Jej siłę doceniają również niektórzy politycy (chociażby Władimir Putin, który w jednej wypowiedzi twierdził, że „[Sztuczna Inteligencja] stwarza zarówno ogromne możliwości, jak i zagrożenia, które są trudne do przewidzenia. Ktokolwiek zdobędzie przewagę w tej gałęzi, będzie panować nad światem”.
    Jakie możliwości SI stwarzają najwięcej niepokoju? Można podzielić je na parę kategorii:
    -broń autonomiczna: zaawansowana technologia w złych rękach może doprowadzić do
    stworzenia broni, która będzie bardzo trudna do zatrzymania po jej uruchomieniu
    -manipulacja społeczeństwem: przeciętny użytkownik jest coraz bardziej świadomy potęgi związanej z gromadzeniem informacji przez największe serwisy informacyjne. Reklamy, czy podpowiedzi dostosowywane do użytkownika to tylko wierzchołek góry lodowej możliwości. Sztuczna inteligencja, przy dostępie do odpowiedniej ilości danych, potrafiłaby manipulować i kształtować myślenie całych społeczeństw
    -moralność maszyn: bez odpowiedniego przystosowania zachowań maszyn do wymogów moralnych naszej kultury, człowiek mógłby nieświadomie wywołać sytuację mającą dramatyczne konsekwencje – np. wypadek samochodowy po instrukcji „Jak najszybciej na lotnisko, za wszelką cenę” w samochodzie autonomicznym.

    Pomimo, że potencjał związany z SI jest fascynujący, należy nadzorować postęp tej dziedziny nauki i uświadamiać społeczeństwu jej wagę.

  7. km pisze:

    Jak zauważył Krzysztof Dąbrowski „sztuczna inteligencja ma zapewnione warunki do rozwoju” a wskazana przez rwojtasa potrzeba uregulowania prac nad sztuczną inteligencją jest tym pilniejsza, że nie jest konieczne osiągnięcie „ostatecznego” celu (stworzenia systemów dorównujących/ przewyższających pod każdym względem zdolności intelektualne człowieka) by potencjalne zagrożenia mogły się urzeczywistnić.

    Nawet prymitywne organizmy w napędzanym ewolucyjnie wspólnym działaniu są w stanie przechytrzyć o wiele bardziej złożone (inteligentniejsze) zwierzęta. Natura już przećwiczyła takie scenariusze:
    Istnieją proste pasożyty manifestujące (wyselekcjonowane w kolejnych pokoleniach) strategie, które z boku inteligentny obserwator ocenia jako sprytne choć każdy z tych organizmów z osobna jest „głupi jak but”. Organizmy te mają „zakodowany” ewolucyjnie program/algorytm działania w efekcie, którego zbijają się w „zbiorowisko” kształtem i zachowaniem przypominający ofiarę pewnego drapieżnika.
    Preferencje tego konsumenta sprawiają, że staje on się żywicielem pasożytów.

    – Czyż nie jest to dokładnie scenariusz, który realizuje się codziennie gdy ludzie korzystają z dobrodziejstw technologii cyfrowych? Nie jesteśmy aż tak mądrzy, niezależni w swym myśleniu, nieprzewidywalni by nie stać się ofiarą – która dostaje co chciała „szybciej, łatwiej, lepiej” niż kiedykolwiek ale z pewnym bagażem, który nieść będzie musiała czasem przez całe swe życie.

    Realizujące się zagrożenia płynące z rozwoju sztucznej inteligencji to (wskazywane już w dyskusji blogowej o wadach i zaletach progresu cyfrowych technologii i podnoszone częściowo w dotychczasowych komentarzach w niniejszym temacie) efekty w kwestiach ekonomiczno- gospodarczych ale i społeczno-politycznych.
    Cyfrowe technologie stają się coraz bardziej inteligentne by dostarczać nam to czego pożądamy – umożliwiając nam pokazanie jak wyglądają nasze oblicza gdy możemy działać utwierdzeni we własnym obrazie rzeczy, korzystając z gotowych podpowiedzi, bez mozolnego trudu zrozumienia (naszych codziennych problemów) i konieczności porozumienia z innymi (poglądami) dla współpracy (by je rozwiązać). Im więcej korzyści płynie z korzystania z coraz sprytniejszych cyfrowych technik tym większe prawdopodobieństwo ziszczenia się także niekorzystnych rezultatów ich wprowadzania – a w tym wypadku bardzo często zysk dla jednych jest stratą drugich (jak w przypadku eliminacji miejsc pracy po zastąpieniu ludzi sztuczną w-pewnej-dziedzinie-inteligencją).

    Tak jak to wynika z pierwszego akapitu komentarza Krzysztofa Dąbrowskiego – wolny rynek sam się nie ureguluje bo jego cechą jest wyznaczanie ceny a nie określanie wartości w rozumieniu aksjologicznym (dobro wspólnoty, przetrwanie gatunku…). To ciekawe, że z założenia Smith’owi chodziło chyba o wymianę opartą o równowagę ‘trudu’ jaki ludzie wnoszą w realizację różnych prac – sztuczna inteligencja już zupełnie kompromituje tą ideę, gdyż dysponenci systemów posiadających sztuczną w-pewnej-dziedzinie-inteligencją czerpią zyski nie trudząc się w ogóle.

    Pozostaje wierzyć, że porządna filozoficzną „pracę u podstaw” ludzi mających wpływ na rozwój technologii cyfrowych spowoduje powstanie regulacji maksymalizujących korzyści i minimalizujących szkody „dla Ludzkości” płynące z rozwoju SI.

    Może Redaktorzy lub Komentatorzy bloga mają jakieś pomysły na odpowiednie legislacje?

  8. RafałB pisze:

    Dzień dobry,

    Przy rozważaniu zagrożeń ze strony SI warty jest wspomnienia fakt że wszelkie mniej lub bardziej inteligętne systemy są bardzo ukierunkowane na konkretne zadanie i nawet jeżeli eliminują wszelką konkurencję (ludzką) to przecież ktoś musi czuwać nad danym zadaniem i przeciwdziałać niestandardowym zdarzeniom. Ogólnie chodzi mi o to że człowiek przy spotkaniu z nową sytuacją postępuje intuicyjnie, stara się jakoś dopasować dane zdarzenie do już znanych i przewidując skutek działać, a maszyna bez pełnej gamy informacji niestety jeszcze nie jest w stanie sensowanie zadziałać.

    Przypomina to trochę problem gry w pokera, gdy nie mając wszystkich informacji lub mając jedynie pewne przypuszczenie, prawdopodobieństwo że coś zachodzi lub nie trzeba podjąć decyzję i to możliwie najlepszą. Jak dotąd problem jeszcze nie został w pełni rozwiązany (https://poker.cs.ualberta.ca/).

    Ponadto uważam że SI jako twór informatyczny byłaby przewidywalna, ponieważ to od twórców zależy jak będzie działać, a co za tym idzie jakie będą wyniki tego działania. Jej sposoby rozwiązania problemów wynikają z możliwości przeanalizowania ogromnej ilości danych i wysnucia z nich wniosków. Zatem jeżeli na podstawie wiarygodnych danych i ich przetworzenia okazało by się że ludzkość jest zagrożeniem, to czy nie byłaby to prawda?

  9. as pisze:

    Mój wpis chciałbym zacząć od stwierdzenia, że w SI widzę potężną technologię, która może nas jeszcze bardziej wspomóc w rozwoju. Na temat jej zastosowań wypowiedzieli się poprzednicy, więc nie będę tego powielał. W tym komentarzu chciałbym raczej podejść krytycznie do czarnych wizji snutych wraz z myślą o potędze nowej technologii.
    Moje wyobrażenie na temat działania SI jest nieco mniej sceptyczne. Myślę, że zafascynowani możliwościami nowej technologii, zapominamy o genialności ludzkiego umysłu, który tą technologię przecież tworzy. Czy człowiek projektujący ten „byt” – byt jedyny poza nim samym posiadający tzw. inteligencję – nie przewidzi sytuacji, że inny inteligentny „obiekt” może stanowić jeśli nie zagrożenie, to konkurencję? Myślę, że osoby co najmniej przeciętne raczej miewają takie refleksje, a te odpowiedzialne za powstawanie i rozwój SI zapewne potrafią temu zaradzić. W jaki sposób? Nie jestem ekspertem w tej dziedzinie, więc te rozważania możemy przeprowadzić na debacie.
    Jednym z ciekawych pomysłów mogłoby być zmuszenie SI również do nauki moralności. Nie chcę tym stwierdzeniem rozpoczynać nowej dyskusji pt. „Czym jest moralność?”, ale myślę że pewne uniwersalne cechy „dobrego człowieka” taka maszyna mogłaby w sobie kształtować.
    A gdyby SI okazała się za genialna na przyziemną moralność i chciałaby panować nad ludźmi? Nie wiem jak inni wyobrażają sobie SI, ale ja to widzę jako pewien bardzo złożony i samodopełniający się algorytm, który musi funkcjonować na jakimś osprzęcie. Tak jak człowiek musi jeść, ten osprzęt potrzebuje zasilania. Czy nie spotkawszy się uprzednio z podobnym problemem, SI nauczy się – to zabrzmi banalnie – kopać węgiel czy uran i robić z niego prąd? W takim razie co stoi na przeszkodzie, by po prostu „wyciągnąć wtyczkę z gniazdka”? Mam nadzieję, że nie armia zbuntowanych robotów :).
    Patrząc na internet, elektryczność, komputery czy inne dobra współczesnego świata widzimy w tym rzeczy niezbędne do normalnego funkcjonowania. SI może stać się jedną z nich. Prawdopodobnie tak będzie i jest to w pewnym aspekcie powód do obaw.
    Myślę, że jedyne zagrożenie w wprowadzeniu takiej technologii tkwi w człowieku – a więc zagrożenie postaci, do czego człowiek chce wykorzystać SI oraz w jak dużym stopniu się od niej uzależni. W jaki sposób człowiek wykorzysta SI wobec innych ludzi. Jak im ją przedstawi i co im przez to powie. TO by mogło doprowadzić do kataklizmu ludzkości – manipulacja i amoralność, rodem z „Brave New World” Aldousa Huxley’a.
    Jednak tym pesymistycznym akcentem nie zakończę. Skoro człowiek stworzył m.in. broń palną i inne „niebezpieczne zabawki” z których korzystamy na co dzień, to czy nie poradzimy sobie z SI? Może nie być to łatwy epizod, ale moim subiektywnym zdaniem możliwy do realizacji.

  10. Rafał Surdej pisze:

    Według mnie sztucznej inteligencji nie trzeba traktować jako realnego zagrożenia dla człowieka. Również temu, co nazywamy obecnie SI daleko do faktycznie samoświadomego bytu. Komputery faktycznie w konkretnych zastosowaniach przewyższyły człowieka, ale trudno nazwać ich przetwarzanie danych, które jest im nakazane przez program, jako wiedzę porównywalną z tą, którą posiadają ludzie. Obecne algorytmy ewolucyjne czy też sieci neuronowe, które uważamy za zdolne do nauki nie opierają się na żadnym wyciąganiu wniosków, a jedynie na uzyskaniu jak najbardziej optymalnego rozwiązania dla postawionego im celu. Maszyna nie potrafi przemyśleć swojej dotychczasowej zgromadzonej wiedzy, nie potrafi zadać sobie żadnych pytań i starać się samodzielnie na nie odpowiedzieć. Trudno w takim razie określić jak będzie wyglądała faktyczna sztuczna inteligencja i czy w ogóle będzie istniała. Zapewne w niedalekiej już przyszłości zobaczymy maszyny, których tempo samodoskonalenia się w danej dziedzinie będzie daleko wykraczało poza rozumowanie ludzkie, ale ciągle będzie to twór uzależniony od człowieka, bo to on zleca mu wszystkie polecenia. Moim zdaniem nie warto doszukiwać się w tym negatywnych skutków, ale lepiej spojrzeć na pozytywne strony. Z każdym rokiem coraz bardziej coraz bardziej nie wyobrażamy sobie życia beż urządzeń elektronicznych, bo w ogromny sposób ułatwiły nam dotychczasowe życie i w wielu różnych zastosowaniach sprawują się po prostu lepiej niż człowiek. To zapewne dotyczy również i rozwoju nowych technologii. Programując w odpowiedni sposób sztuczą inteligencję, która byłaby w stanie dokonywać nowych odkryć, moglibyśmy zdecydowanie przyspiesyć proces rozwoju świata. Dla niektórych może się to wydać niebezpieczne – ale ciągle jest borykamy się z wieloma problemami, które dotykają miliony ludzi i nie jesteśmy w stanie ich rozwiązać. Gdyby SI potrafiła opracować technologię pozwalającą wyeliminować głód, choroby nieuleczalne czy nawet po prostu stworzyć tańsze rozwiązania obecnych technologii, przez co mogłyby one trafić do większej liczby ludności to według mnie warto postawić krok w tym kierunku.

    Zagrożeniem są tak naprawdę ludzie sami dla siebie. Wszystkie obecne SI nie posiadają żadnych emocji, przez co wizje przejęcia władzy nad światem, czy też samoczynne negatywne nastawienie do człowieka rodem z filmów Sci-Fi są dla mnie nierealne. Oczywiście możliwym jest opracowanie sztucznej inteligencji, która będzie służyła do celów wojskowych, a przez co przyczyni się do śmierci ludzi, ale przecież świat już posiada broń, dzięki której może się unicestwić w kilkanaście godziń czy nawet minut, więc dlaczego mielibyśmy czuć większe zagrożenie ze strony SI niż bomby nuklearnej? Wszystko uzależnione jest od pobudek człowieka, który tą SI steruje.

    Cóż, tak naprawdę chyba jedynym faktycznym zagrożeniem jest możliwość utraty pracy na rzecz maszyn sterowanych przez SI. Ale zauważmy, że tam, gdzie wymagana jest kreatywność, moralność czy też umiejętność porozumiewania się z innymi ludźmi, sztuczna inteligencja jeszcze długo lub nawet nigdy nie wkroczy. To znowu zmusza nas do ciągłego samodoskonalenia się, co wcale nie wydaje się minusem. Maszyny też nie są niezawodne i zawsze potrzebni będą ludzie do ich nadzoru czy też napraw. Jednakże wprowadzenie SI powinno również przyspieszyć rozwój gospodarczy państw, a co za tym idzie polepszenie standardu życia pojedyńczych ludzi. Zapewnie pojawi się także wiele nowych miejsc pracy powiązanych z samą sztuczną inteligencją oraz związanych z nauką i doskonaleniem człowieka

  11. Jakub Kowalczyk pisze:

    Mój przedmówca – Rafał miał bardzo dobre argumenty za tym czemu nie powinniśmy tak bardzo obawiać się SI, a raczej winniśmy pokładać w nich nadzieję. Chciałbym jednak przyjrzeć się dokładniej niektórym jego stwierdzeniom.
    „Obecne algorytmy ewolucyjne czy też sieci neuronowe, które uważamy za zdolne do nauki nie opierają się na żadnym wyciąganiu wniosków, a jedynie na uzyskaniu jak najbardziej optymalnego rozwiązania dla postawionego im celu.” słowem klucz w tym zdaniu jest „cel”. To człowiek jako twórca SI ma za zadanie owy cel rozsądnie wybierać. Ukierunkowywać inteligencję tak aby bardziej służyła niżeli niszczyła. Dopóki nie oddamy w ręce SI całej armii czy broni nuklearnej, do żadnego masowego ataku dojść po prostu nie może. Eliminuje nam to już jeden z problemów SI. Obawiamy się że może dojść do kryzysu gospodarczego? Koordynujmy więc rozwojem SI w ten sposób by pozostawiać miejsca pracy ludziom lub tworzyć nowe. Jak widać, to jak na przestrzeni kolejnych lat rozwinie się SI, a co ważniejsze w jakim „celu”, zależy od nas.
    Przy tak rozsądnym rozwoju, zaistnienie jakiegoś krytycznego błędu jest bliskie zeru, a możliwości jakie może dać nam SI prawie nie ograniczone. Nie wykorzystanie tej szansy byłoby błędem.

  12. KaKamil pisze:

    Według mnie, w pełni sztuczna inteligencja będzie leżeć jeszcze przynajmniej tysiące lat razem na półce z takimi rzeczami jak podróże w czasie czy teleportacja, a to wszystko z powodu naturalnych barier jakie narzuca nam natura czy prawa fizyki. Owszem, we wszystkich tych trzech rzeczach osiągnięto namacalny postęp, udowodniono, że prędkość wpływa na upływ czasu, tak samo dokonano już teleportacji cząsteczek np fotonu, a swego rodzaju sztuczna inteligencja jest już wykorzystywana w wielu aspektach naszego życia, niosąc korzyści i zagrożenia, które tutaj rozmówcy podkreślają. Mimo wszystko wszystkie te trzy wymienione rzeczy mają pewną granicę, którą do tej pory przekroczyliśmy jedynie w filmach.

    Wydaje mi się, że patrząc w przyszłość to najgroźniejszym czynnikiem jest tutaj człowiek, a nie samo stworzenie SI. Tak było już z niejednymi wynalazkami czy odkryciami, które zamiast się przysłużyć człowiekowi, to w dużej mierze zostały wykorzystane przeciwko niemu, tak jak w przypadku wspomnianej przez Rafała Surdeja bombie nuklearnej. Mamy za sobą odkrycie zagadnienia SI, sztuczna inteligencja jest rozwijana, ale to cały czas człowiek ją kontroluje, dlatego regulacje powinny zostać wprowadzone w tej chwili, mimo odległej apokaliptycznej wizji buntu maszyn, inaczej będzie jak w przypadku broni nuklearnej, którą odkryto, potem używano, a dopiero na końcu zastanawiano się nad konsekwencjami.

    km spytał o pomysły na odpowiednie legislacje. Jeśli chodzi z idee, to pewnie byłoby one zbierze z ideami układu o nierozprzestrzenianiu broni jądrowej. Natomiast kwestia regulacji będzie bardzo trudna. SI można rozumieć na bardzo wiele sposobów i trzeba byłoby stworzyć narzędzia do ustalania przekroczenia dozwolonej granicy, oraz bardzo wiele innych rzeczy, by te regulacje mogły funkcjonować. Jak słusznie wspomniał rwojtas, takie państwo jak Chiny już wprowadziło systemy SI do monitorowania jego obywateli, co ingeruje mocno w prawa człowieka. Dlatego prawdopodobnie wraz z powstaniem regulacji wiele państw i innych podmiotów musiałoby się wycofać z globalnego stosowania bardzo wielu metod i narzędzi. Z biegiem czasu będzie powstawało coraz więcej aspektów czy gałęzi tej dziedziny i kwestie SI będą coraz bardziej skomplikowane.
    Dlatego rozważanie kwestii zagrożeń powinno właśnie ograniczać się jedynie do tego jak człowiek kontroluje i wykorzystuje SI.

    Stwierdzam, że najgorszym w najbliższej przyszłości co może się stać, to nie np. zdobycie świadomości przez SI, o którym podnosili tutaj niektórzy rozmówcy, ale złe opracowanie przez człowieka algorytmów, które wymkną się spod kontroli, i właśnie bez świadomości, w wyniku błędnego odczytania czy zinterpretowania danych przez systemy, zostaną wystrzelone przysłowiowe rakiety.

    Jeśli chodzi np. o kwestie zastąpienia człowieka przez SI w wielu pracach, to jest to trudno rozpatrywać jako zagrożenie, raczej następstwo rozwoju cywilizacji. Już od dawna widać jak zmienia się zapotrzebowanie na rynku pracy i przynajmniej indywidualnie mamy wpływ na to gdzie pracujemy, bo można się przekwalifikować, poszukać pracy na rynku nie dotkniętym automatyzacją itp. W kontekście wpływu na ludzi, to najgorszym wydaje się, jest wykorzystywanie SI do kierowania naszymi nawykami, potrzebami czy ingerencja właśnie w tą naszą prywatność tak jak w przypadku Chin, czy pod ładnymi pozorami, jak w rozpoznaniu ciąży u klientki amerykańskiej sieci sklepów przez algorytmy stosowane w marketingu, o czym w pierwszym komentarzu wspomniano.

    Pewne jest to, że powstanie świadomej swojego istnienia sztucznej inteligencji, będzie jednym z kamieni milowych rozwoju cywilizacji, ale myślę, że potrwa to jeszcze przynajmniej tak długo jak okres od wynalezienia koła do elektryczności. Nawet wtedy, jak ta sztuczna inteligencja zmierzy się z naszym światem to prędzej ucieknie od niego niczym w filmie „Her”.

    średniowiecze – prąd

  13. Esoerado pisze:

    Szanowni Państwo!

    Tak zwana sztuczna inteligencja to nie żadna sztuczna inteligencja, lecz po prostu sztuczna zmysłowość. „Intelligere” znaczy po łacinie „rozumieć”, a do rozumienia jest potrzebne poznanie oparte na pojęciach mających charakter powszechny, których nigdy nie wytworzy żadna materialna maszyna. Na szczęście!

    • Paweł Stacewicz pisze:

      Dzień dobry! Witamy na naszym blogu!

      Chociaż nasza dyskusja nie dotyczyła wprost natury systemów, które określa się współcześnie mianem „sztucznej inteligencji” (lecz ewentualnych zagrożeń ze strony takich systemów, dodajmy: systemów wciąż doskonalonych), to zasygnalizowany wyżej wątek zasługuje oczywiście na uwagę…

      Dobrze byłoby jednak, abyśmy zrozumieli lepiej, czym są „pojęcia mające charakter powszechny” oraz „poznanie na nich oparte”…

      Czy chodzi o pojęcia tego typu, które Platon (żeby sięgnąć do klasyków) umieścił w niedostępnym dla zmysłów świecie idei — jak piękno, dobro prawda, czy chociażby liczba? Czy chodzi o to, że istota i skuteczność naszego poznania zależy od jakichś naszych niematerialnych właściwości, które zapewniają umysłom ludzkim dostęp do tegoż świata?

      A może chodzi o pojęcia tego typu (idąc w kierunku przeciwnym do Platona i jego kontynuatorów), które rodzą się w społecznej interakcji, na zasadzie współdziałania wielu istot ludzkich — istot podobnie fizycznie ukonstytuowanych, mających podobne cele i problemy, podobnie odczuwających itp? Czy chodzi zatem o to, że istota i skuteczność naszego poznania zależy od społecznie zakorzenionego procesu wypracowywania pewnych powszechnie używanych pojęć?

      Bardzo prosimy o dalsze wyjaśnienia, bo bez nich trudno będzie dyskutować nad treścią powyższego komentarza…

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *