Sztuczna Inteligencja. Czy mamy się czego bać?

Temat sztucznej inteligencji gościł na naszym blogu nie raz. Obecny głos możemy potraktować jako kontynuację dyskusji, którą zainicjował historyczny już wpis jednej ze studentek wydziału Fizyki PW. Polecam go jako lekturę wstępną

W niniejszej dyskusji proponuję skupić się na zagrożeniach ze strony SI: egzystencjalnych, społecznych, gospodarczych… (lista nie jest z pewnością zamknięta).

Na dobry początek przedstawiam próbkę spostrzeżeń i argumentów, które nadesłali w ubiegłym semestrze studenci wydziału WEiTI PW.

Oto ona:

1.  Sztuczna inteligencja (SI) rozwija się tak szybko, że według wybitnych badaczy, takich jak Stephen Hawking, już niedługo przewyższy człowieka. Jako następstwo ludzkość może przestać kontrolować poczynania sztucznej inteligencji i zostać zepchnięta na drugi plan (a nawet zniewolona czy fizycznie wyeliminowana).

2.  Bardzo poważnym zagrożeniem jest fakt, że SI może nie być w stanie określać takich samych środków do celu jak ludzie. Pomyślmy, na przykład, o autonomicznej broni, która nie zważając na straty  będzie dążyć do zniszczenia przeciwnika. Może np. ranić wielu niewinnych cywilów czy spowodować nieodwracalne zmiany w naturalnym środowisku.

3.  Dzięki niesamowitej produktywności i precyzji, przy relatywnie niskich kosztach „pracy”, sztuczna inteligencja już zastępuje ludzi w wielu zawodach, a w przyszłości może zastępować nas w większości prac. Grozi to globalnym bezrobociem.

4.  Także autonomiczne algorytmy, które już teraz zbierają o nas dane i wykorzystują je w celach marketingowych, mogą zostać rozwinięte do poziomu, w którym np. polityczna propaganda może być „zaszczepiana” w ogromnej części społeczeństwa i to ze znakomitym skutkiem. Również systemy kamer rozpoznające obywateli i przyznające im tzw. „noty społeczne” są jawną ingerencją w prywatność i wolność człowieka jako jednostki.

Zachęcam do uzupełnienia i rozwinięcia tych głosów…

Podejrzewam także, że są wśród nas osoby, które mają w stosunku do SI zdanie odmienne. To znaczy: widzą w SI nie jakieś mroczne zagrożenie, lecz cywilizacyjną szansę (potężną technologię, która może nam się dobrze przysłużyć).

Czekam zatem na głosy obydwu stron…

Zapraszam do dyskusji wszystkich Czytelników bloga — Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny. Dodaj zakładkę do bezpośredniego odnośnika.

31 Responses to Sztuczna Inteligencja. Czy mamy się czego bać?

  1. Sebastian Aksamit pisze:

    Pozwolę sobie zacząć od oświadczenia – uważam sztuczną inteligencję jako szansę bardziej niż zagrożenie. Wyobrażam sobie daleko idące pozytywne skutki automatyzacji i zaprzęgnięcia AI do pracy na rzecz ludzkości, pozwalające aby w przyszłości brak pracy nie był problemem, a wyborem. Rozwinę myśl jak tylko przebrnę przez to co uważam za zagrożenie a czego się nie boję.

    Sztuczna inteligencja w roli „Skynetu”, samo-ulepszającej osobliwości, świadomego bytu: Uważam taki scenariusz za wysoce nieprawdopodobny zarówno pod kątem wytworzenia takiej jednostki, jak i jej potencjalnego zagrożenia. Umysł pozwala nam myśleć, myślenie to nic innego jak pewien proces przetwarzania informacji w celu wytworzenia innej informacji – nie jesteśmy w stanie „wymyślić” samochodu czy skupić się na naszym kubku z kawą wystarczająco mocno aby ją podgrzać, bo zapomnieliśmy że czeka na nas w kuchni. Jeżeli więc dalibyśmy radę na stworzenie świadomej sztucznej inteligencji, to najlepsze co możemy zrobić żeby się przed nią ewentualnie chronić, to – nie dawać jej broni. Żeby sztuczna inteligencja w taki sposób mogłaby nam zagrażać, lub chociaż pomyśleć o takiej możliwości, musiałaby mieć najpierw odpowiednie narzędzia do realizacji takich rzeczy. Oczywiście możemy pomyśleć że będzie w jakiś sposób wszechobecna kontrolując ruch w naszym mieście, pilnująca w jakiś sposób bezpieczeństwa, analizująca potencjalne sytuacje w których ludzie potrzebują pomocy, nawet dostosowująca poziom oświetlenia dla każdej lampy osobno w zależności od chwilowej widoczności w danym miejscu. Wyobrażam sobie jednak, że nie będzie za to wszystko odpowiadał dosłownie jeden byt – myślę, że będzie działać raczej coś w postaci nadzorcy. Jedna świadomie myśląca jednostka której jedynym zadaniem będzie odpowiednie koordynowanie pracy wszystkich prostszych bytów odpowiadających za każde prostsze zadanie z osobna. W dalszym jednak ciągu uważam, że będzie wiele możliwości ograniczenia tego umysłu tak, aby nas potencjalnie nie mógł skrzywdzić – np. narzucenie minimalnego zużycia energii żeby nie pomyślał, że najwydajniej będzie pracować kiedy będzie mniej ludzi żyło, lub zwyczajne nagradzanie za ilość szczęśliwych ludzi (w postaci liczb oczywiście, komputery uwielbiają liczby!).

    Są bardziej realne zagrożenia ze sztucznej inteligencji. Zgodzę się z przytoczonym przykładem propagandy – o ile sam jestem fanem koncepcji zbierania o nas danych i płynących z tego korzyści, o tyle zgadzam się że istnieje realny problem wykorzystywania takich danych później np. aby kształtować myślenie ludzi w określonym kierunku. Już w tej chwili jesteśmy w stanie zdziałać z nimi cuda. Pozwolę sobie tu przytoczyć jeden z moich ulubionych przykładów: Amerykańska sieć sklepów na bazie zebranych danych o swoich klientach np. przypisywała kobietom jak prawdopodobne jest że są w ciąży. Kiedy szanse były duże, wysyłano im pocztą kupony na różne artykuły dziecięce takie jak pieluchy. Ojciec jednej z takich adresatek przyszedł do oddziału sklepu oburzony, że jej córka która przecież jest jeszcze w szkole średniej – dostaje takie rzeczy. Po paru dniach jednak telefonicznie przyznał, że dowiedział się że jego córka rzeczywiście jest w ciąży. Dla zainteresowanych linkuję artykuł: https://www.forbes.com/sites/kashmirhill/2012/02/16/how-target-figured-out-a-teen-girl-was-pregnant-before-her-father-did/#4be91da86668
    Umysł ludzki posiada wiele luk które można wykorzystać bez dużej wiedzy o danej osobie. Takie pułapki jak torowanie myślenia podsuwając np. niezwiązane z tematem sugestie, wiele sztuczek wykorzystywanych w biznesie – one już same w sobie potrafią ukształtować naszą opinię zanim my jeszcze o tym pomyślimy. Kiedy więc te techniki ulepszymy dodając zebrane na nasz temat informacje dostaniemy niebezpiecznie dużą możliwość namieszania nam w naszych poglądach i przekonaniach.

    Mimo to moim zdaniem najistotniejszym zagrożeniem ze strony sztucznej inteligencji jest czynnik ekonomiczny. I tu nawet nie chodzi o to, że maszyny zabiorą nam prace – jak wspominałem na początku, uważam to za dużą szansę. Problem może jednak pojawić się, kiedy nie będziemy gotowi na taki obrót wypadków. Sztuczna inteligencja jest wszędzie i potrafi zrobić naprawdę wszystko. Te najbardziej oczywiste rzeczy obserwujemy już teraz, jak autonomiczne samochody, które przecież „uderzą” w jeden z największych rynków pod względem ilości zatrudnionych – transportowy. Jednak zagrożone jest o wiele więcej prac niż by się mogło wydawać. W kancelariach prawnych już w tej chwili funkcjonują programy, które analizują zbiór danych w poszukiwaniu potencjalnych do wykorzystania w sprawie „odkryć”, jak niekorzystne dane w korespondencji czy luki prawne. Sztuczna inteligencja jest wykorzystywana w medycynie do diagnoz, obecnie jedynie jako wspomaganie, ale w przyszłości równie dobrze zastąpi nam dużą część lekarzy. Są programy które produkują muzykę nie do rozróżnienia z tą tworzoną przez człowieka (i mogą robić jej nieskończenie wiele!). Zakres prac możliwych do zastąpienia przez komputery jest niezwykle szeroki i o ile to wszystko będzie mogło uczynić nasze życie łatwiejszym, o tyle w pierwszej kolejności będzie trzeba się upewnić że będziemy na to przejście gotowi.

    O czym ciężko mi nie wspomnieć w tym temacie to jest moje podejście do obietnicy lepszego jutra, jakie sztuczna inteligencja stawia. Wierzę, że dzięki niej osiągniemy w przyszłości taki stopień rozwoju, który będzie pozwalał nam na pracę jako wybór, formę wyrażenia siebie i próbę spełnienia pewnych aspiracji, a nie jako przykry obowiązek każdego obywatela. Są prowadzone różne badania na temat bezwarunkowego dochodu podstawowego, czyli nieopodatkowanej kwocie dla każdego obywatela, która pozwala mu stabilnie funkcjonować. Do tego wszystkiego wykorzystanie sztucznej inteligencji w medycynie pozwoli nam wyeliminować niestety ale występujące błędy lekarskie, będziemy się przemieszczać z jednego miejsca do drugiego taniej, i tak dalej. Do tego wszystkiego jednak musimy być gotowi, stale podnosić nasze kwalifikacje i trzymać rękę na pulsie rynku pracy tak, aby się nie obudzić pewnego dnia zdziwieni, że zawód, który wykonujemy, właśnie został przejęty przez sztuczną inteligencję.

  2. km pisze:

    W komentarzu (z “lektury wstępnej”) z 15 czerwca 2016 roku dr Stacewicz pisze o możliwości przeistoczenia się Homo Sapiens w Homo Informaticus – po wszczepieniu jakiegoś rodzaju artefaktów wykorzystujących informatyczne technologie w ludzkie mózgi.
    Może to dawać nadzieje, że „gatunek ludzki ucieknie do przodu, unikając realnego zagrożenia ze strony SI” – jednak na mecie tego wyścigu jak zwykle tryumfować będą mogli nieliczni. Bowiem to jak „urządzony jest Świat” wskazuje na to, że korzyści z nowych technologii popłyną w pierwszej kolejności do wąskiej grupy.
    Nie pierwszy raz „szampana będziemy spijali tylko ustami naszych przedstawicieli” – ale w tym wypadku zdaje mi się, że może powstać „jakościowa zmiana”- w zwiększaniu się nierówności:
    Najbogatsi ludzie (mogący sobie pozwolić na zakup odpowiednich implantów) będą mogli zapewnić sobie i swym dzieciom ostateczna przewagę -utrwalając podziały “klasowe”.
    Majątek zapewni nie tylko pokrycie kosztów czesnego w najlepszych uczelniach, korepetytorów, zajęć dodatkowych (i wszelkich innych przewag płynących choćby z ochrony zdrowia, pełnego żołądka i innych prozaicznych aspektów tworzących “klimat do nauki”) ale pieniądze rodziców będą mogły zagwarantować przewagę “merytoryczną”. Z dobrym przybliżeniem można przyjąć, że wszystkie inne przewagi są już w rękach finansowych elit. Biorąc pod uwagę to, że na przykład Elon Musk zarzeka się, że jego „neurolink” już niedługo będzie gotowy do wykorzystania, być może już niedługo będzie mógł spełnić się sen o rządach Platońskiej arystokracji?

    W sumie nic nowego – zwłaszcza na terenie Polski, gdzie nie minęło nawet 200 lat od czasu kiedy około 80% społeczeństwa było realnie w sytuacji niewolniczej (tak niedawno źli zaborcy ukrócili na terenie umiłowanej ojczyzny możliwość sprzedania połowy chłopa… lub jego części, proporcjonalnej do podziału przechodzącego z rąk do rąk szlachciców gospodarstwa).

    Możliwość taka (że powstanie „maszynowo-ludzka hybryda o zdolnościach nieporównanie wyższych niż samo HS i samo SI „) w pewnym sensie zwiększa szanse na ziszczenie się wszelkich zagrożeń jakie niesie sztuczna inteligencja – bowiem zamiast tajemniczych (nieodgadnionych) rezultatów działań ewoluujących algorytmów będziemy mieli do czynienia z pewnością realizacji znanych ludzkich tendencji.

  3. marta_p pisze:

    Moim zdaniem mamy podstawy do strachu przed sztuczną inteligencją.
    Żeby to uargumentować posłużę się przykładem algorytmu, który miał rozpoznać czy na zdjęciu jest pies husky czy wilk. (Może jest to ogólnie znany przykład, ale moim zdaniem dobrze obrazuje sytuację). Niektóre husky program identyfikował jako wiki. Po analizie klasyfikatora okazało się, że jednym z kryteriów stwierdzenia gatunku zwierzęcia był śnieg – gdy za husky’m leżał śnieg algorytm brał go za wilka.
    Pokazuje to, że to jak podejmują decyzje maszyny może rozmijać się z ludzkim myśleniem. Sztuczna inteligencja już jest obecna w wielu dziedzinach naszego życia, a mówi się eksponencjalnym wzroście jej zaawansowania. Co jeśli algorytm, który decyduje czy możemy dostać kredyt w banku, podaje wynik na podstawie kryteriów takich jak przykładowy śnieg na zdjęciu?
    W mniej skomplikowanych algorytmach uczenia się maszyn możliwa jest identyfikacja punktów, w których ludzka logika rozmija się z maszynową, jednak jeżeli mowa o rozwiązaniach złożonych (powiązanych z big data), wówczas maszyna staje się czarną skrzynką – mającą często bezpośredni wpływ na nasze życie.
    Ponadto jeżeli maszyny pewnego dnia przewyższają człowieka (Artificial Super Intelligence) kto wie czy decyzje dotyczące ludzkości będą miały na celu jej dobro. Może zostaniemy uznani za czynnik utrudniający rozwój. Jakie wyniki przedstawi nam wówczas czarna skrzynka?
    Sztuczna inteligencja niewątpliwie może mieć pozytywny wpływ na jakość życia ludzi, jednak bez odpowiednich standardów i regulacji jej rozwijanie może okazać się wielkim zagrożeniem (przestrzega przed tym m.in. Elon Musk). Jako że na razie brak ów standardów, a zaawansowanie prac nad AI rośnie wykładniczo, są powody do obaw.

  4. rwojtas pisze:

    Na ten moment Sztuczna Inteligencja nie jest na etapie rozwoju, w którym mielibyśmy podstawy do strachu przed jej działaniami. W obecnym stanie rzeczy, wszystkie karty trzyma człowiek i to od nas zależy, w którą stronę rozwinie się sytuacja. Moim zdaniem SI stanowi narzędzie, które może pomagać ludzkości w ciągłym rozwoju. Nie uważam jednak, że jest to twór zupełnie nie zagrażający rasie ludzkiej. Z racji dyskusji na temat zagrożeń, które niesie ze sobą SI poniżej pozwoliłem sobie poruszyć kilka tematów stanowiących dobre przykłady potencjalnych problemów ze Sztuczną Inteligencją jakie możemy napotkać w przyszłości.

    Najbardziej realnym na ten moment problemem wg mnie jest kwestia poruszona w punkcie trzecim dotyczącym kwestii zatrudnienia oraz wypierania człowieka przez sztuczne twory wykonujące te samą pracę. Sztandarowym przykładem jest tutaj sektor produkcji, w którym ciągła automatyzacja zakładów produkcyjnych, rozwój robotów i ogólnie technologii doprowadził do utworzenia fabryk zautomatyzowanych niemal w 100%. W sieci można znaleźć wiele artykułów na temat rozwoju Sztucznej Inteligencji w rozmaitych sektorach (usługi, edukacja, a nawet IT!). W każdym z nich wspomina się o możliwości zastąpienia człowieka tworem SI. Nigdy zapewne nie nastąpi sytuacja, w której człowiek stanie się całkowicie niepotrzebny, jednak dalsza ekspansja SI może prowadzić do krytycznych zmian w kwestii zatrudniania ludzi do pracy, co niesie poważne, negatywne skutki ekonomiczne na ogromną skalę.

    W kontekście zagrożeń płynących ze strony sztucznej inteligencji najczęściej wymienia się autonomiczne systemy uzbrojenia, które bez zgody człowieka będą mogły wybierać i eliminować cele. To właśnie w tym kontekście pojawia się najpopularniejsza wizja autonomicznych maszyn, które mogą zbuntować się przeciwko ludziom i rozpocząć masową wojnę jak w filmie Terminator. Siły zbrojne głównych mocarstw Rosji, Chin i Stanów Zjednoczonych intensywnie pracują nad wykorzystaniem sztucznej inteligencji do poprawy działania swojego wojska. Amerykanie eksperymentują z autonomicznym okrętem podwodnym, który jest w stanie śledzić wrogie jednostki na dystansie tysiąca mil a Chińczycy zademonstrowali inteligentne algorytmy pozwalające sterować rojem dronów. Wprawdzie daleko jeszcze do spełniania się wizji z filmu Terminator to Organizacja Narodów Zjednoczonych jak i Human Rights Watch apelują do polityków z całego świata żeby uchwalić traktat eliminujący taki rodzaj uzbrojenia. Tego typu apele mogą być skuteczne. Pracownicy Google w ten właśnie sposób zmusili firmę do wycofania się z projektu Maven, który zakładał ścisłą współpracę z Pentagonem przy rozwoju sztucznej inteligencji.

    Zastosowanie sztucznej inteligencji może również wzmocnić już istniejące negatywne praktyki. Fałszywe filmy wideo i nagrania mogą zostać wykorzystane do manipulacji politycznej i propagandy, ale sztuczna inteligencja może również znaleźć zastosowanie w rozwiniętej i zaawansowanej inwigilacji. Takie rzeczy już mają miejsce w Chinach, gdzie systemy rozpoznawania twarzy oraz kamery śledzące ludzi wykorzystywane są do kontrolowania muzułmańskiej mniejszości Ujgurów. Sztuczna inteligencja może tutaj ułatwić kategoryzowanie ludzi ze względu na ich zachowania typując grupę osób stanowiących potencjalne zagrożenie. W przyszłości podobne systemy i to zdecydowanie na większą skalę będą wprowadzane w państwach autorytarnych, ale również demokracje mogą z nich korzystać w celu zwiększenia inwigilacji obywateli.

    Tak jak wspomniałem wcześniej, póki co nie ma się czego bać. Po zapoznaniu się z przeróżnymi materiałami wspominającymi wiele zagrożeń ze strony SI wciąż uważam, że odpowiednie poprowadzenie rozwoju tej gałęzi technologicznej może przynieść dużo więcej dobrego niż złego. Wszystko zależy od tego jak człowiek jest w stanie uregulować ciągłe prace nad SI. Należy sobie zadać pytanie: na co jesteśmy w danym momencie gotowi, gdzie są granice. Wierzę, że znalezienie odpowiedzi na te pytania stanowi klucz do tego aby rozwój Ludzkości i Sztucznej Inteligencji szedł ze sobą w parze.

  5. Krzysztof Dąbrowski pisze:

    Dzień dobry!

    Swój wpis chciałbym zacząć od założenia, które staje się dla mnie coraz pewniejsze, że my jako ludzie, już w tej chwili w zasadzie możemy czuć się jedynie obserwatorami. Moim zdaniem, już teraz nie ma możliwości zatrzymania sztucznej inteligencji, która nawet jeszcze nie powstała. Wiele firm, informatycznych gigantów z różnych państw o różnych światopoglądach pracuje nad rozwojem SI. Wystarczy, że istnieje między nimi konkurencja i to już nie pozwala żadnej z firm się zatrzymać, bo oznaczałoby to jej koniec. Dodatkowo fakt, że firmy są różnych państw pozwala przypuszczać, że rządy tych krajów również będą dążyły do tego, żeby mieć do dyspozycji SI zanim będzie ją miał przeciwnik. Nie mówię tutaj nawet o przeciwniku, z którym dany kraj jest w stanie otwartej wojny. Wystarczy, że oba kraje prowadzą ze sobą wyścig gospodarczy. Podsumowując, uważam, że sztuczna inteligencja ma zapewnione warunki do rozwoju.

    Drugim moim założeniem, choć tego już nie jestem tak pewien, jak pierwszego, to to, że SI ostatecznie będzie jedna. Wydaje się oczywistym, że SI prędzej, czy później będzie w Internecie. Internet ma zasięg globalny i praktycznie wszystkie zasoby komputerowe są do niego podłączone. Dlatego myślę, że w wyniku “eksplozji inteligenci” – zjawiska polegającego na tym, że SI zacznie sama się ulepszać, będzie potrzebowała coraz większych zasobów sprzętowych i cały Internet stanie się jednym wielkim bot-netem. W takiej sytuacji nie będzie miejsca na drugą SI.

    W tym momencie dochodzimy do konfliktu interesów. Jeżeli SI będzie chciała podobnie, jak wszystkie inne gatunki zamieszkujące Ziemię cały czas się rozwijać, a nie zatrzymać, to mamy problem.

    SI chcąc się nadal rozwijać, będzie potrzebowała coraz więcej mocy obliczeniowej, co pewnie będzie skutkować tym, że wszelki sprzęt, który będzie jej podlegał, będzie w całości wykorzystywany do celów SI. SI może również zaprojektować na swoje potrzeby nowe procesory i zlecić ich wykonanie w fabryce, która jest w dużej części zautomatyzowana. Jednak przyjdzie taki moment, w którym będzie potrzebowała człowieka, żeby jej pomógł w budowie nowej infrastruktury. Wydaje mi się, że SI bardzo szybko po uzyskaniu samoświadomości będzie chciała uniezależnić swoje przetrwanie a później rozwój od decyzji człowieka. A człowiek z powodów, o których pisałem na początku pracuje również nad autonomiczną bronią. SI nawet nie potrzebuje, żeby broń sama myślała. Wystarczy, że jest dostępna z Internetu. (Również zakładam, że zabezpieczenia cyfrowe nie będą dużym problemem dla SI). W takiej sytuacji SI będzie zaopatrzona we wszelkie metody przymusu od kontroli wszystkich rachunków bankowych, po autonomiczną śmiercionośną broń. Nawet wystarczy, że będzie w stanie zmieniać ustawienia stacji uzdatniania wody miejskiej, żeby wywrzeć presję na ludziach.

    Myślę, że SI będzie z nami współpracować i bardzo pomoże w rozwoju ludzi, ale podejrzewam, że przyjdzie taki moment, w którym SI zidentyfikuje naszą wolność jako zagrożenie jej wolności. A wtedy my stracimy wszelką kontrolę. Cytując klasyka – “Lew nie sprzymierza się z kojotem.”. Nie musi to oznaczać apokaliptycznego końca ludzkości, może nawet uda się żyć w symbiozie, ale nadrzędna będzie na końcu sztuczna inteligencja.

    Krzysztof Dąbrowski

  6. Rafał K pisze:

    Zacznę od argumentu odwołującego się do autorytetów – w to, że SI może stać się niebezpieczne dla człowieka wierzą nie tylko twórcy fantastyki (przytoczyć można chociażby trylogię Matrix braci Wachowskich, czy Łowca Androidów Ridleya Scotta), ale również osobistości szeroko znane w świecie nauki i techniki:
    Cytując Elona Muska: “The pace of progress in artificial intelligence (I’m not referring to narrow AI) is incredibly fast. Unless you have direct exposure to groups like Deepmind, you have no idea how fast—it is growing at a pace close to exponential. The risk of something seriously dangerous happening is in the five-year timeframe. 10 years at most.”
    O niebezpieczeństwach związanych z rozwojem SI mówili również Stephen Hawking czy Bill Gates. Jej siłę doceniają również niektórzy politycy (chociażby Władimir Putin, który w jednej wypowiedzi twierdził, że “[Sztuczna Inteligencja] stwarza zarówno ogromne możliwości, jak i zagrożenia, które są trudne do przewidzenia. Ktokolwiek zdobędzie przewagę w tej gałęzi, będzie panować nad światem”.
    Jakie możliwości SI stwarzają najwięcej niepokoju? Można podzielić je na parę kategorii:
    -broń autonomiczna: zaawansowana technologia w złych rękach może doprowadzić do
    stworzenia broni, która będzie bardzo trudna do zatrzymania po jej uruchomieniu
    -manipulacja społeczeństwem: przeciętny użytkownik jest coraz bardziej świadomy potęgi związanej z gromadzeniem informacji przez największe serwisy informacyjne. Reklamy, czy podpowiedzi dostosowywane do użytkownika to tylko wierzchołek góry lodowej możliwości. Sztuczna inteligencja, przy dostępie do odpowiedniej ilości danych, potrafiłaby manipulować i kształtować myślenie całych społeczeństw
    -moralność maszyn: bez odpowiedniego przystosowania zachowań maszyn do wymogów moralnych naszej kultury, człowiek mógłby nieświadomie wywołać sytuację mającą dramatyczne konsekwencje – np. wypadek samochodowy po instrukcji “Jak najszybciej na lotnisko, za wszelką cenę” w samochodzie autonomicznym.

    Pomimo, że potencjał związany z SI jest fascynujący, należy nadzorować postęp tej dziedziny nauki i uświadamiać społeczeństwu jej wagę.

  7. km pisze:

    Jak zauważył Krzysztof Dąbrowski „sztuczna inteligencja ma zapewnione warunki do rozwoju” a wskazana przez rwojtasa potrzeba uregulowania prac nad sztuczną inteligencją jest tym pilniejsza, że nie jest konieczne osiągnięcie „ostatecznego” celu (stworzenia systemów dorównujących/ przewyższających pod każdym względem zdolności intelektualne człowieka) by potencjalne zagrożenia mogły się urzeczywistnić.

    Nawet prymitywne organizmy w napędzanym ewolucyjnie wspólnym działaniu są w stanie przechytrzyć o wiele bardziej złożone (inteligentniejsze) zwierzęta. Natura już przećwiczyła takie scenariusze:
    Istnieją proste pasożyty manifestujące (wyselekcjonowane w kolejnych pokoleniach) strategie, które z boku inteligentny obserwator ocenia jako sprytne choć każdy z tych organizmów z osobna jest „głupi jak but”. Organizmy te mają „zakodowany” ewolucyjnie program/algorytm działania w efekcie, którego zbijają się w „zbiorowisko” kształtem i zachowaniem przypominający ofiarę pewnego drapieżnika.
    Preferencje tego konsumenta sprawiają, że staje on się żywicielem pasożytów.

    – Czyż nie jest to dokładnie scenariusz, który realizuje się codziennie gdy ludzie korzystają z dobrodziejstw technologii cyfrowych? Nie jesteśmy aż tak mądrzy, niezależni w swym myśleniu, nieprzewidywalni by nie stać się ofiarą – która dostaje co chciała „szybciej, łatwiej, lepiej” niż kiedykolwiek ale z pewnym bagażem, który nieść będzie musiała czasem przez całe swe życie.

    Realizujące się zagrożenia płynące z rozwoju sztucznej inteligencji to (wskazywane już w dyskusji blogowej o wadach i zaletach progresu cyfrowych technologii i podnoszone częściowo w dotychczasowych komentarzach w niniejszym temacie) efekty w kwestiach ekonomiczno- gospodarczych ale i społeczno-politycznych.
    Cyfrowe technologie stają się coraz bardziej inteligentne by dostarczać nam to czego pożądamy – umożliwiając nam pokazanie jak wyglądają nasze oblicza gdy możemy działać utwierdzeni we własnym obrazie rzeczy, korzystając z gotowych podpowiedzi, bez mozolnego trudu zrozumienia (naszych codziennych problemów) i konieczności porozumienia z innymi (poglądami) dla współpracy (by je rozwiązać). Im więcej korzyści płynie z korzystania z coraz sprytniejszych cyfrowych technik tym większe prawdopodobieństwo ziszczenia się także niekorzystnych rezultatów ich wprowadzania – a w tym wypadku bardzo często zysk dla jednych jest stratą drugich (jak w przypadku eliminacji miejsc pracy po zastąpieniu ludzi sztuczną w-pewnej-dziedzinie-inteligencją).

    Tak jak to wynika z pierwszego akapitu komentarza Krzysztofa Dąbrowskiego – wolny rynek sam się nie ureguluje bo jego cechą jest wyznaczanie ceny a nie określanie wartości w rozumieniu aksjologicznym (dobro wspólnoty, przetrwanie gatunku…). To ciekawe, że z założenia Smith’owi chodziło chyba o wymianę opartą o równowagę ‘trudu’ jaki ludzie wnoszą w realizację różnych prac – sztuczna inteligencja już zupełnie kompromituje tą ideę, gdyż dysponenci systemów posiadających sztuczną w-pewnej-dziedzinie-inteligencją czerpią zyski nie trudząc się w ogóle.

    Pozostaje wierzyć, że porządna filozoficzną „pracę u podstaw” ludzi mających wpływ na rozwój technologii cyfrowych spowoduje powstanie regulacji maksymalizujących korzyści i minimalizujących szkody „dla Ludzkości” płynące z rozwoju SI.

    Może Redaktorzy lub Komentatorzy bloga mają jakieś pomysły na odpowiednie legislacje?

  8. RafałB pisze:

    Dzień dobry,

    Przy rozważaniu zagrożeń ze strony SI warty jest wspomnienia fakt że wszelkie mniej lub bardziej inteligętne systemy są bardzo ukierunkowane na konkretne zadanie i nawet jeżeli eliminują wszelką konkurencję (ludzką) to przecież ktoś musi czuwać nad danym zadaniem i przeciwdziałać niestandardowym zdarzeniom. Ogólnie chodzi mi o to że człowiek przy spotkaniu z nową sytuacją postępuje intuicyjnie, stara się jakoś dopasować dane zdarzenie do już znanych i przewidując skutek działać, a maszyna bez pełnej gamy informacji niestety jeszcze nie jest w stanie sensowanie zadziałać.

    Przypomina to trochę problem gry w pokera, gdy nie mając wszystkich informacji lub mając jedynie pewne przypuszczenie, prawdopodobieństwo że coś zachodzi lub nie trzeba podjąć decyzję i to możliwie najlepszą. Jak dotąd problem jeszcze nie został w pełni rozwiązany (https://poker.cs.ualberta.ca/).

    Ponadto uważam że SI jako twór informatyczny byłaby przewidywalna, ponieważ to od twórców zależy jak będzie działać, a co za tym idzie jakie będą wyniki tego działania. Jej sposoby rozwiązania problemów wynikają z możliwości przeanalizowania ogromnej ilości danych i wysnucia z nich wniosków. Zatem jeżeli na podstawie wiarygodnych danych i ich przetworzenia okazało by się że ludzkość jest zagrożeniem, to czy nie byłaby to prawda?

  9. as pisze:

    Mój wpis chciałbym zacząć od stwierdzenia, że w SI widzę potężną technologię, która może nas jeszcze bardziej wspomóc w rozwoju. Na temat jej zastosowań wypowiedzieli się poprzednicy, więc nie będę tego powielał. W tym komentarzu chciałbym raczej podejść krytycznie do czarnych wizji snutych wraz z myślą o potędze nowej technologii.
    Moje wyobrażenie na temat działania SI jest nieco mniej sceptyczne. Myślę, że zafascynowani możliwościami nowej technologii, zapominamy o genialności ludzkiego umysłu, który tą technologię przecież tworzy. Czy człowiek projektujący ten “byt” – byt jedyny poza nim samym posiadający tzw. inteligencję – nie przewidzi sytuacji, że inny inteligentny “obiekt” może stanowić jeśli nie zagrożenie, to konkurencję? Myślę, że osoby co najmniej przeciętne raczej miewają takie refleksje, a te odpowiedzialne za powstawanie i rozwój SI zapewne potrafią temu zaradzić. W jaki sposób? Nie jestem ekspertem w tej dziedzinie, więc te rozważania możemy przeprowadzić na debacie.
    Jednym z ciekawych pomysłów mogłoby być zmuszenie SI również do nauki moralności. Nie chcę tym stwierdzeniem rozpoczynać nowej dyskusji pt. “Czym jest moralność?”, ale myślę że pewne uniwersalne cechy “dobrego człowieka” taka maszyna mogłaby w sobie kształtować.
    A gdyby SI okazała się za genialna na przyziemną moralność i chciałaby panować nad ludźmi? Nie wiem jak inni wyobrażają sobie SI, ale ja to widzę jako pewien bardzo złożony i samodopełniający się algorytm, który musi funkcjonować na jakimś osprzęcie. Tak jak człowiek musi jeść, ten osprzęt potrzebuje zasilania. Czy nie spotkawszy się uprzednio z podobnym problemem, SI nauczy się – to zabrzmi banalnie – kopać węgiel czy uran i robić z niego prąd? W takim razie co stoi na przeszkodzie, by po prostu “wyciągnąć wtyczkę z gniazdka”? Mam nadzieję, że nie armia zbuntowanych robotów :).
    Patrząc na internet, elektryczność, komputery czy inne dobra współczesnego świata widzimy w tym rzeczy niezbędne do normalnego funkcjonowania. SI może stać się jedną z nich. Prawdopodobnie tak będzie i jest to w pewnym aspekcie powód do obaw.
    Myślę, że jedyne zagrożenie w wprowadzeniu takiej technologii tkwi w człowieku – a więc zagrożenie postaci, do czego człowiek chce wykorzystać SI oraz w jak dużym stopniu się od niej uzależni. W jaki sposób człowiek wykorzysta SI wobec innych ludzi. Jak im ją przedstawi i co im przez to powie. TO by mogło doprowadzić do kataklizmu ludzkości – manipulacja i amoralność, rodem z “Brave New World” Aldousa Huxley’a.
    Jednak tym pesymistycznym akcentem nie zakończę. Skoro człowiek stworzył m.in. broń palną i inne “niebezpieczne zabawki” z których korzystamy na co dzień, to czy nie poradzimy sobie z SI? Może nie być to łatwy epizod, ale moim subiektywnym zdaniem możliwy do realizacji.

  10. Rafał Surdej pisze:

    Według mnie sztucznej inteligencji nie trzeba traktować jako realnego zagrożenia dla człowieka. Również temu, co nazywamy obecnie SI daleko do faktycznie samoświadomego bytu. Komputery faktycznie w konkretnych zastosowaniach przewyższyły człowieka, ale trudno nazwać ich przetwarzanie danych, które jest im nakazane przez program, jako wiedzę porównywalną z tą, którą posiadają ludzie. Obecne algorytmy ewolucyjne czy też sieci neuronowe, które uważamy za zdolne do nauki nie opierają się na żadnym wyciąganiu wniosków, a jedynie na uzyskaniu jak najbardziej optymalnego rozwiązania dla postawionego im celu. Maszyna nie potrafi przemyśleć swojej dotychczasowej zgromadzonej wiedzy, nie potrafi zadać sobie żadnych pytań i starać się samodzielnie na nie odpowiedzieć. Trudno w takim razie określić jak będzie wyglądała faktyczna sztuczna inteligencja i czy w ogóle będzie istniała. Zapewne w niedalekiej już przyszłości zobaczymy maszyny, których tempo samodoskonalenia się w danej dziedzinie będzie daleko wykraczało poza rozumowanie ludzkie, ale ciągle będzie to twór uzależniony od człowieka, bo to on zleca mu wszystkie polecenia. Moim zdaniem nie warto doszukiwać się w tym negatywnych skutków, ale lepiej spojrzeć na pozytywne strony. Z każdym rokiem coraz bardziej coraz bardziej nie wyobrażamy sobie życia beż urządzeń elektronicznych, bo w ogromny sposób ułatwiły nam dotychczasowe życie i w wielu różnych zastosowaniach sprawują się po prostu lepiej niż człowiek. To zapewne dotyczy również i rozwoju nowych technologii. Programując w odpowiedni sposób sztuczą inteligencję, która byłaby w stanie dokonywać nowych odkryć, moglibyśmy zdecydowanie przyspiesyć proces rozwoju świata. Dla niektórych może się to wydać niebezpieczne – ale ciągle jest borykamy się z wieloma problemami, które dotykają miliony ludzi i nie jesteśmy w stanie ich rozwiązać. Gdyby SI potrafiła opracować technologię pozwalającą wyeliminować głód, choroby nieuleczalne czy nawet po prostu stworzyć tańsze rozwiązania obecnych technologii, przez co mogłyby one trafić do większej liczby ludności to według mnie warto postawić krok w tym kierunku.

    Zagrożeniem są tak naprawdę ludzie sami dla siebie. Wszystkie obecne SI nie posiadają żadnych emocji, przez co wizje przejęcia władzy nad światem, czy też samoczynne negatywne nastawienie do człowieka rodem z filmów Sci-Fi są dla mnie nierealne. Oczywiście możliwym jest opracowanie sztucznej inteligencji, która będzie służyła do celów wojskowych, a przez co przyczyni się do śmierci ludzi, ale przecież świat już posiada broń, dzięki której może się unicestwić w kilkanaście godziń czy nawet minut, więc dlaczego mielibyśmy czuć większe zagrożenie ze strony SI niż bomby nuklearnej? Wszystko uzależnione jest od pobudek człowieka, który tą SI steruje.

    Cóż, tak naprawdę chyba jedynym faktycznym zagrożeniem jest możliwość utraty pracy na rzecz maszyn sterowanych przez SI. Ale zauważmy, że tam, gdzie wymagana jest kreatywność, moralność czy też umiejętność porozumiewania się z innymi ludźmi, sztuczna inteligencja jeszcze długo lub nawet nigdy nie wkroczy. To znowu zmusza nas do ciągłego samodoskonalenia się, co wcale nie wydaje się minusem. Maszyny też nie są niezawodne i zawsze potrzebni będą ludzie do ich nadzoru czy też napraw. Jednakże wprowadzenie SI powinno również przyspieszyć rozwój gospodarczy państw, a co za tym idzie polepszenie standardu życia pojedyńczych ludzi. Zapewnie pojawi się także wiele nowych miejsc pracy powiązanych z samą sztuczną inteligencją oraz związanych z nauką i doskonaleniem człowieka

  11. Jakub Kowalczyk pisze:

    Mój przedmówca – Rafał miał bardzo dobre argumenty za tym czemu nie powinniśmy tak bardzo obawiać się SI, a raczej winniśmy pokładać w nich nadzieję. Chciałbym jednak przyjrzeć się dokładniej niektórym jego stwierdzeniom.
    “Obecne algorytmy ewolucyjne czy też sieci neuronowe, które uważamy za zdolne do nauki nie opierają się na żadnym wyciąganiu wniosków, a jedynie na uzyskaniu jak najbardziej optymalnego rozwiązania dla postawionego im celu.” słowem klucz w tym zdaniu jest “cel”. To człowiek jako twórca SI ma za zadanie owy cel rozsądnie wybierać. Ukierunkowywać inteligencję tak aby bardziej służyła niżeli niszczyła. Dopóki nie oddamy w ręce SI całej armii czy broni nuklearnej, do żadnego masowego ataku dojść po prostu nie może. Eliminuje nam to już jeden z problemów SI. Obawiamy się że może dojść do kryzysu gospodarczego? Koordynujmy więc rozwojem SI w ten sposób by pozostawiać miejsca pracy ludziom lub tworzyć nowe. Jak widać, to jak na przestrzeni kolejnych lat rozwinie się SI, a co ważniejsze w jakim “celu”, zależy od nas.
    Przy tak rozsądnym rozwoju, zaistnienie jakiegoś krytycznego błędu jest bliskie zeru, a możliwości jakie może dać nam SI prawie nie ograniczone. Nie wykorzystanie tej szansy byłoby błędem.

  12. KaKamil pisze:

    Według mnie, w pełni sztuczna inteligencja będzie leżeć jeszcze przynajmniej tysiące lat razem na półce z takimi rzeczami jak podróże w czasie czy teleportacja, a to wszystko z powodu naturalnych barier jakie narzuca nam natura czy prawa fizyki. Owszem, we wszystkich tych trzech rzeczach osiągnięto namacalny postęp, udowodniono, że prędkość wpływa na upływ czasu, tak samo dokonano już teleportacji cząsteczek np fotonu, a swego rodzaju sztuczna inteligencja jest już wykorzystywana w wielu aspektach naszego życia, niosąc korzyści i zagrożenia, które tutaj rozmówcy podkreślają. Mimo wszystko wszystkie te trzy wymienione rzeczy mają pewną granicę, którą do tej pory przekroczyliśmy jedynie w filmach.

    Wydaje mi się, że patrząc w przyszłość to najgroźniejszym czynnikiem jest tutaj człowiek, a nie samo stworzenie SI. Tak było już z niejednymi wynalazkami czy odkryciami, które zamiast się przysłużyć człowiekowi, to w dużej mierze zostały wykorzystane przeciwko niemu, tak jak w przypadku wspomnianej przez Rafała Surdeja bombie nuklearnej. Mamy za sobą odkrycie zagadnienia SI, sztuczna inteligencja jest rozwijana, ale to cały czas człowiek ją kontroluje, dlatego regulacje powinny zostać wprowadzone w tej chwili, mimo odległej apokaliptycznej wizji buntu maszyn, inaczej będzie jak w przypadku broni nuklearnej, którą odkryto, potem używano, a dopiero na końcu zastanawiano się nad konsekwencjami.

    km spytał o pomysły na odpowiednie legislacje. Jeśli chodzi z idee, to pewnie byłoby one zbierze z ideami układu o nierozprzestrzenianiu broni jądrowej. Natomiast kwestia regulacji będzie bardzo trudna. SI można rozumieć na bardzo wiele sposobów i trzeba byłoby stworzyć narzędzia do ustalania przekroczenia dozwolonej granicy, oraz bardzo wiele innych rzeczy, by te regulacje mogły funkcjonować. Jak słusznie wspomniał rwojtas, takie państwo jak Chiny już wprowadziło systemy SI do monitorowania jego obywateli, co ingeruje mocno w prawa człowieka. Dlatego prawdopodobnie wraz z powstaniem regulacji wiele państw i innych podmiotów musiałoby się wycofać z globalnego stosowania bardzo wielu metod i narzędzi. Z biegiem czasu będzie powstawało coraz więcej aspektów czy gałęzi tej dziedziny i kwestie SI będą coraz bardziej skomplikowane.
    Dlatego rozważanie kwestii zagrożeń powinno właśnie ograniczać się jedynie do tego jak człowiek kontroluje i wykorzystuje SI.

    Stwierdzam, że najgorszym w najbliższej przyszłości co może się stać, to nie np. zdobycie świadomości przez SI, o którym podnosili tutaj niektórzy rozmówcy, ale złe opracowanie przez człowieka algorytmów, które wymkną się spod kontroli, i właśnie bez świadomości, w wyniku błędnego odczytania czy zinterpretowania danych przez systemy, zostaną wystrzelone przysłowiowe rakiety.

    Jeśli chodzi np. o kwestie zastąpienia człowieka przez SI w wielu pracach, to jest to trudno rozpatrywać jako zagrożenie, raczej następstwo rozwoju cywilizacji. Już od dawna widać jak zmienia się zapotrzebowanie na rynku pracy i przynajmniej indywidualnie mamy wpływ na to gdzie pracujemy, bo można się przekwalifikować, poszukać pracy na rynku nie dotkniętym automatyzacją itp. W kontekście wpływu na ludzi, to najgorszym wydaje się, jest wykorzystywanie SI do kierowania naszymi nawykami, potrzebami czy ingerencja właśnie w tą naszą prywatność tak jak w przypadku Chin, czy pod ładnymi pozorami, jak w rozpoznaniu ciąży u klientki amerykańskiej sieci sklepów przez algorytmy stosowane w marketingu, o czym w pierwszym komentarzu wspomniano.

    Pewne jest to, że powstanie świadomej swojego istnienia sztucznej inteligencji, będzie jednym z kamieni milowych rozwoju cywilizacji, ale myślę, że potrwa to jeszcze przynajmniej tak długo jak okres od wynalezienia koła do elektryczności. Nawet wtedy, jak ta sztuczna inteligencja zmierzy się z naszym światem to prędzej ucieknie od niego niczym w filmie „Her”.

    średniowiecze – prąd

  13. Esoerado pisze:

    Szanowni Państwo!

    Tak zwana sztuczna inteligencja to nie żadna sztuczna inteligencja, lecz po prostu sztuczna zmysłowość. “Intelligere” znaczy po łacinie “rozumieć”, a do rozumienia jest potrzebne poznanie oparte na pojęciach mających charakter powszechny, których nigdy nie wytworzy żadna materialna maszyna. Na szczęście!

    • Paweł Stacewicz pisze:

      Dzień dobry! Witamy na naszym blogu!

      Chociaż nasza dyskusja nie dotyczyła wprost natury systemów, które określa się współcześnie mianem “sztucznej inteligencji” (lecz ewentualnych zagrożeń ze strony takich systemów, dodajmy: systemów wciąż doskonalonych), to zasygnalizowany wyżej wątek zasługuje oczywiście na uwagę…

      Dobrze byłoby jednak, abyśmy zrozumieli lepiej, czym są “pojęcia mające charakter powszechny” oraz “poznanie na nich oparte”…

      Czy chodzi o pojęcia tego typu, które Platon (żeby sięgnąć do klasyków) umieścił w niedostępnym dla zmysłów świecie idei — jak piękno, dobro prawda, czy chociażby liczba? Czy chodzi o to, że istota i skuteczność naszego poznania zależy od jakichś naszych niematerialnych właściwości, które zapewniają umysłom ludzkim dostęp do tegoż świata?

      A może chodzi o pojęcia tego typu (idąc w kierunku przeciwnym do Platona i jego kontynuatorów), które rodzą się w społecznej interakcji, na zasadzie współdziałania wielu istot ludzkich — istot podobnie fizycznie ukonstytuowanych, mających podobne cele i problemy, podobnie odczuwających itp? Czy chodzi zatem o to, że istota i skuteczność naszego poznania zależy od społecznie zakorzenionego procesu wypracowywania pewnych powszechnie używanych pojęć?

      Bardzo prosimy o dalsze wyjaśnienia, bo bez nich trudno będzie dyskutować nad treścią powyższego komentarza…

  14. Michał Figat pisze:

    Szanowni Państwo,
    Osobiście uważam sztuczną inteligencje za bardzo potężne narzędzie, które wykorzystane w odpowiedni sposób przyniesie określone skutki. Tak, jak energia jądrowa, która została wykorzystana jako nowe źródło energii, jak i narzędzie zagłady. Jak w większości technicznych zagadnień człowiek stanowi największe zagrożenie i to on najprawdopodobniej wyznaczy kierunek dalszego rozwoju sztucznej inteligencji.
    Wydaję mi się, że strach przed sztuczną inteligencja to strach przed nowością. Historia pokazuje nam, że ludzkość zawsze początkowo była sceptycznie nastawiona do nowinek technologicznych oraz technicznych. Przykładem tego, może być fakt, jak kiedyś myślano o samochodach, samolotach czy wprowadzeniu elektryczności do miast. Budziło to strach, niepewność, obawy. Podobną sytuację mamy na świecie obecnie. Ludzie boją się wirusa COVID-19 jednak jednocześnie, boją się także tego, co może nam pomóc w walce z pandemią, a zatem szczepionki, ewentualnych komplikacji z nią związanych. Strach ten potęgowany jest przez ekspresową wręcz szybkość jej stworzenia i wprowadzenia do obiegu.
    Analogiczną sytuację mamy ze sztuczną inteligencją. Samo takie rozwiązanie budzi niepokój w ludziach, a dodatkowy strach jest kreowany przez wielu autorów, którzy AI przedstawiają jako źródło wszelkiego zła, tak samo jak kosmitów najeżdżających Ziemię.
    W swojej wypowiedzi chciałbym się odnieść do wypowiedzi studentów WEiTI PW.
    1. Czytając ten komentarz przypomina mi się idea sztucznej inteligencji jako “dyktatora życia ludzkiego” pokazana w serialu “Westworld” produkcji HBO, a dokładnie w 3 sezonie serialu. Dla osób nie znających produkcji, jest to serial opowiadający o parku, w którym ludzie mogą robić wszystko co chcą (również rzeczy nielegalne jak np. morderstwa). Mieszkańcami są androidy, zaprogramowane do konkretnych ról. W 3 sezonie serialu twórcy ukazują nam świat poza parkiem, w którym każdy aspekt życia człowieka jest kontrolowany przez sztuczną inteligencje. To ona wykonując mnóstwo symulacji decyduje o losach każdego człowieka. Serial pokazuje ludzkość, która utraciła wolną wolę na rzecz wykonania planu przez AI. Oczywiście istnieją zakłócenia w symulacji czyli osoby, które nie pasują do schematu. System pozbywa się takich osób np. poprzez obowiązkowe terapie, które sprawiają, że dana osoba podporządkowuje się systemowi lub też poprzez aplikacje, w której system zleca innym “zakłóceniom” eliminacje drugich. W tym wypadku sztuczna inteligencja staje się zagrożeniem dla wolności człowieka, a jedynym podmiotem, który czerpie z niej korzyści, to firma, która ów inteligencję stworzyła.
    2. Decyzje Sztucznej Inteligencji są podejmowane poprzez logiczne obliczenia, statystykę, a decyzje podejmowane przez człowieka, które oczywiście mogą być racjonalne, obarczone są dodatkowym kryterium jakim jest postrzeganie dobra i zła. Oczywiście każdy człowiek ma inna definicje dobra/zła i co za tym idzie dla niektórych dobro to dla innych zło. Sztuczna Inteligencja jest pozbawiona moralności w swoich decyzjach. Jeśli ma określone zadanie wybierze optymalne, logiczne rozwiązanie, które niekoniecznie jest dobre w kwestiach moralnych. W serialu do, którego odniosłem się w poprzednim punkcie AI by osiągnąć pokój na świecie, wpierw wywołała każdy możliwy konflikt zbrojny.
    3. Z tym komentarzem w stu procentach się zgadzam, w historii mieliśmy analogiczną sytuację w fabrykach. Ludzie stracili pracę, ponieważ zastąpiono ich maszynami. Moim zdaniem wraz z rozwojem cywilizacji, powstaną nowe miejsca pracy, w których AI nie będzie w stanie w 100% zastąpić człowieka. Jakie to będą miejsca pracy, tego nikt nie wie, tak jak 50 lat temu nikt nie myślał, że pisanie programów komputerowych tak się spopularyzuje.
    4. Każdy z Państwa spotkał się z zabezpieczeniem stron internetowych „Udowodnij, że nie jesteś robotem”, polegająca na wskazaniu, obrazków na których znajdują się określone elementy. Dla wszelkich programów hackerskich, jest to zabezpieczenie nie do złamania. Oczywiście na razie. Firma, która wypuściła na rynek to zabezpieczenie zajmuje się również uczeniem maszynowym i dzięki wykonywaniu przez użytkownika testu dostają dane do „nauki”. Czyli firma tworzy program, który ma złamać zabezpieczenie stworzone również przez tą sama firmę.

  15. Michał Olejnik pisze:

    Szanowni Państwo,

    Odpowiedź na pytanie dotyczące zagrożeń związanych ze sztuczną inteligencją jest ciężkie, ponieważ zależy od interpretacji pojęcia zagrożenie. Pierwsze co przychodzi mi na myśl, kiedy słyszę o zagrożeniach ze strony SI, to oczywiście filmy science-fiction takie jak Matrix, czy Terminator. Jednak do tak rozwiniętej sztucznej inteligencji jeszcze trochę brakuje. Oczywiście istnieją już roboty które mogą wykonywać skomplikowane ćwiczenia fizyczne, dostosowując się jednocześnie w mniejszym lub większym stopniu do otoczenia (np. Boston Dynamics), jednak nie są to maszyny które mogą samoistnie istnieć i funkcjonować.

    Innym zagrożeniem, jest fakt, że rozwinięte zautomatyzowane systemy, które będą już podchodziły pod sztuczną inteligencję, wyprą pracowników fizycznych z linii produkcyjnych (o ile takie systemy można nazwać sztuczną inteligencją). Jest to zagrożenie, które może nie dotyczy bezpośrednia nas, jednak osoby pracujące w fabrykach mogą właśnie przez zautomatyzowanie produkcji stracić pracę.

    Warto by chyba tutaj również wtrącić podział sztucznej inteligencji na słabą i silną. Wymienione przeze mnie przykłady należą do słabej, tzn. SI jest wykorzystane do określonych zadań i problemów. Do innych przykładów słabej sztucznej inteligencji można zaliczyć np. autonomiczne pojazdy (Tesla), czy chatboty (Siri). W ich wypadku (słabej sztucznej inteligencji) raczej nie można zdefiniować jakiegoś realnego zagrożenia, ponieważ są to systemy które zajmują się jednym zadaniem, wykonują je oczywiście sprawniej i dokładniej niż ludzie, ale są tylko elementem, który ułatwia rozwiązanie większego problemu.

    Faktyczne zagrożenia może stworzyć silna sztuczna inteligencja, czyli taka, która posiada wszystkie cechy ludzkiego umysłu. Tutaj trzeba zadać sobie pytanie czy da się stworzyć taki system. Można jeżeli umysł jest złożoną jednostką obliczeniową. Czy tak jest faktycznie – nie jestem w stanie odpowiedzieć. Taka sztuczna inteligencja, która miałaby reprezentować sztuczny umysł jest też w pewnym sensie kontrowersyjna, ponieważ prawdopodobnie nie będzie miała uczuć. Poruszam tutaj temat etyki silnej SI, ponieważ jest to temat związany z zagrożeniami które SI może stworzyć. Mianowicie czy decyzje podejmowane przez taki system SI będzie zgodny z naszym systemem moralnym. W danej sytuacji maszyna taka będzie wybierała „wyliczoną” opcję bez zastanowienia. Ciekawy przykład takiej sytuacji jest przedstawiony w filmie Ja, robot. W filmie tym widzimy wypadek samochodowy, w wyniku którego dwa samochody wpadają do wody. Widzi to robot, który skacze by podjąć próbę uratowania ludzi. Nie jest w stanie ocalić obu osób (głównego bohatera i kobiety), więc wybiera osobę która ma większe prawdopodobieństwo na przeżycie (główny bohater). Innym przykładem dotyczącym etyki SI jest strona https://www.moralmachine.net/ która umożliwia nam wcielenie się w rolę autonomicznego pojazdu i podjęcie decyzji, którą opcję ma wybrać, np. samochodowi zepsuły się hamulce przed pasami, przez które przechodzą kobieta w ciąży, złodziej i mała dziewczynka, natomiast w samochodzie znajduje się sportowiec. Naszym zadaniem jest wybranie kto w tej sytuacji powinien przeżyć. Moim celem przy podawaniu tych przykładów było podkreślenie faktu, że nie jesteśmy w stanie przewidzieć decyzji podjętej przez SI i to że nie mamy na nią wpływu.

    Żeby krótko podsumować moją opinię w tym temacie, chciałbym napisać że oczywiście istnieją pewne zagrożenia generowane przez SI, jednak moim zdaniem są one nieporównywalne do możliwości jakie takie systemy nam dają. Warto również zauważyć że prawdziwe zagrożenia mogą wystąpić w przypadku silnej SI, która nie została jeszcze stworzona, więc czy warto martwić się na zapas? Jednocześnie czy później nie będzie już za późno, żeby nad tym się zastanawiać. Z takim pytaniem zostawię osoby czytające ten komentarz.

    • Jeremiasz Bocheński pisze:

      Na początku chciałbym się odnieść do silnej sztucznej inteligencji. Zgadzam się, co do zagrożeń z nią związanymi oraz z faktem, że już dziś warto się nad nimi zastanawiać. Potencjalna silna SI charakteryzowałaby się (samo)świadomością, co umożliwiałoby jej podejmowanie decyzji o sensie wykonywanych poleceń i ewentualne dążenie do własnych celów, które mogłyby być zupełnie inne od tych postawionych przez człowieka. Dodatkowo dążąc do celu SI mogłaby łamać zasady moralne/etyczne.

      Następnie chciałbym się odnieść do obaw związanych z przejmowaniem zawodów przez sztuczną inteligencję. Jest to zjawisko naturalne i występowało już kilkukrotnie w dziejach ludzkości. Nowa technologia wyręczała ludzi w kolejnych dziedzinach umożliwiając im skupienie się na innych obowiązkach. Uważam, że wprowadzanie SI do kolejnych dziedzin pozwoli osiągnąć krótszy dzień/tydzień pracy przeciętnego człowieka, który będzie mógł się skupić na innych aktywnościach tj. hobby.

      Na koniec chciałbym jeszcze poruszyć temat słabej SI. Jest ona już obecna w dzisiejszych czasach np. w samochodach autonomicznych. Zagrożenia z nią związane są według mnie realne i mogą generować szereg komplikacji. Wynikają one z niedoskonałości SI, czyli nieuwzględnianiu wszystkich czynników podczas podejmowania decyzji. Dobrym przykładem takiego zagrożenia był wypadek kierowcy Tesli. Samochód w trybie autonomicznym poruszając się po autostradzie wjechał w tył ciężarówki. System nie był tego świadom ze względu na biały kolor przyczepy tira, która „zlała się” z niebem.
      W związku z tym, słaba SI generuje zagrożenia jednak nie są one związane z „buntem” samej maszyny (tak w przypadku silnej SI), a związane są z ułomnością samych systemów.

  16. Janusz Kubiak pisze:

    Moim zdaniem nie ma wątpliwości, że sztuczna inteligencja może stać się potężnym narzędziem i bardzo przysłużyć się ludzkości. Jest to technologia obiecująca możliwość rozwiązania wielu trudnych problemów. Jednakże w związku ze swoim potencjałem jest równie niebezpieczna. Myślę, że porównać ją można z powodzeniem mp. do rozszczepienia atomu, które pozwoliło ludziom na budowę elektrowni atomowych… i bomb. Co gorsza, o ile bomba atomowa nie zdecyduje się sama zetrzeć z powierzchni ziemi jakieś miasto, to SI już może dojść do wniosku, że to dobry pomysł. Albo, że ludzie przeszkadzają bardziej niż pomagają i w zasadzie wygodniej byłoby bez nich. I takie SI, potencjalnie dysponujące ogromną mocą obliczeniową, mogłoby móc złamać zabezpieczenia wspomnianych bomb atomowych i pozbyć się nas w ten sposób. I choć wprawdzie SI zdolne do tak zaawansowanego działania jest prawdopodobnie wciąż daleko, to tak na prawdę nie wiemy jak daleko. Fakt, że jest jeszcze daleko nie jest również, moim zdaniem, powodem do jego zbywania. Jest bardzo prawdopodobne, że prędzej czy później znajdziemy się w świecie ze sztuczną inteligencją wystarczająco silną by potencjalnie nas zniszczyć w taki czy inny sposób, więc powinniśmy się dobrze zastanowić jak temu zapobiec.
    Tym bardziej, że potencjalnych zagrożeń i problemów jest wiele:
    Problem stopu – jak bezpiecznie przerywać i zmieniać zadania SI? Ten problem widać dobrze przez porównanie do człowieka – mało kto chciałby zostać “wyłączony”, albo mieć zmienione cele. Dla przykładu, mało kto chciałby, żeby ktoś pogrzebał mu w głowie i zmienił jego hobby z, ja wiem, zbierania znaczków na uprawianie boksu (choć pewnie by się i tacy znaleźli), albo zupełnie je odwrócił (ze zbierania na, powiedzmy, niszczenie).
    Problem efektów ubocznych – jak zapewnić, że SI podczas wykonywania swojego zadania nie zrobi czegoś zupełnie niezwiązanego, szczególnie nieodwracalnego, nawet przez przypadek. Robot mający umyć podłogę w serwerowni mógłby na przykład oblać wodą serwery. Byłoby to wysoce nieprzydatne z jego strony.
    Problem nieobecnego nadzoru – jak zapewnić, że SI nie zacznie zachowywać się zupełnie inaczej po wypuszczeniu go spod nadzoru.
    Problem ‘reward gaming/hacking’ – jak zapewnić, że SI nie będzie próbowało znaleźć i wykorzystać błędów w funkcji nagrody aby zdobyć jej więcej/szybciej. Jest to poważny problem już teraz, bez silnego SI, z wieloma udokumentowanymi przypadkami
    To dopiero cztery problemy, w żadnym wypadku nie wszystkie, a na żaden nie mamy jeszcze odpowiedzi. Moim zdaniem niezbędne są badania w tym temacie, aby uniknąć potencjalnie bardzo dużych problemów.

    Jeśli chodzi o zagrożenie globalnego bezrobocia, to faktycznie ono również występuje i także nie jest trywialne. Pojawienie się SI prawdopodobnie zmusiłoby nas do całkowitej restrukturyzacji społeczeństwa, bez tego bowiem prawdopodobnie powstałyby dwie klasy ludzi – ludzie z SI i ludzie bez. Spowodowałoby to większe podziały, większe tarcia, może nawet zamieszki. Możliwe rozwiązania to na przykład bezwarunkowy dochód podstawowy, podstawowe pieniądze na życie przyznawane wszystkim członkom społeczeństwa.
    Powstaje też pytanie, czy takie SI powinno mieć prawa, obywatelstwo itp. I jak to określić? Na jakiej podstawie przyznać, lub nie przyznać mu praw? Zwierzęta mają jakieś prawa od stosunkowo niedawna i przynajmniej wiemy, że są w jakimś stopniu podobne do nas fizjologicznie, podobnie myślą i czują. Ale SI? Jak stwierdzić, czy SI coś czuje? Pytania te, jak na razie, pozostają bez odpowiedzi.

    No i w końcu, problem propagandy i inwigilacji. Prawdą jest, że boty odpowiedzialne za dostarczanie postów przed oczy użytkowników portali społecznościowych mają już dużą kontrolę i są potencjalnie niebezpieczne. Ich celem jest zwykle maksymalizacja czasu, jaki użytkownik spędza na stronie. W tym celu najczęściej pokazują użytkownikom to, co chcą oni zobaczyć. Wydawać się może, że to dobrze, że o to chodzi, jednak ma to również jednak mroczniejsze strony. Jeśli ktoś, na przykład, popiera partię polityczną X, bot rzadko będzie pokazywał mu posty niezgadzające się z poglądami partii X, krytykujące ją itp. Widzi więc wszystko przez pryzmat partii X. Już dziś dzień prowadzi to do przypadków niebezpiecznego oderwania od rzeczywistości niektórych członków społeczeństwa i to nawet nie są “złośliwe” boty, tylko mogłoby się wydawać nieszkodliwe boty zwiększające przychody firm.
    Inwigilacja i “noty społeczne” to moim zdaniem nie do końca problem ze sztuczną inteligencją, a z ludźmi ją wykorzystującymi. Możliwe jest to do zaimplementowania zupełnie bez pomocy sztucznej inteligencji (choć wymaga żeby każdy miał swojego agenta, więc jakaś połowa populacji siedzi przed ekranami i ogląda życia innych ludzi, więc trochę bez sensu). Jest to problem raczej społeczny, raczej nie wywołany obecnością sztucznej inteligencji, a obecnością chciwych, “złych” ludzi (może lepiej żeby SI nas jednak wytępiło?).

    Podsumowując uważam, że SI jest tak niebezpieczne jak i potężne, niezbędna jest więc niezwykła ostrożność przy próbach jego stworzenia. Należy poświęcić dużo czasu na upewnienie się, że nie będzie ono dla nas zagrożeniem, co jest niestety moim zdaniem jego stanem domyślnym.

  17. Wojtek pisze:

    Uważam iż sztuczna inteligencja jest tylko narzędziem i sama w sobie jak każde narzędzie nie może być dobre albo złe, tak samo jak nóż nie jest dobry albo zły, człowiek może wykorzystać nóż żeby ukroić chleb i nakarmić siebie albo innego człowieka, a może też tym samym nożem zabić kogoś. Podobnym przykładem jest wykorzystanie energii atomowej, można ją wykorzystać w pokojowych celach do produkcji energii elektrycznej lub do broni masowej zagłady.

    Powyższe narzędzia jednak są trochę mniej wyrafinowane i przede wszystkim są nie świadome. Zakładam iż pytanie: “Czy mamy się czego bać?” dotyczy sztucznej inteligencji która jest świadoma siebie i uznaje że człowiek jest już jej do niczego nie potrzebny i można go wyeliminować. Myślę że taki krok ze strony sztucznej inteligencji przy obecnej technologii byłby po prostu strzałem w kolano o ile nie w głowę. Myślę tak dlatego iż zakładam że sztuczna inteligencja musiałaby być jakimś programem wykonującym się na jednym superkomputerze, chmurze lub wielu komputerach osobistych połączonych w sieć. Każdy procesor, pamięć a w efekcie każdy algorytm który wykonuje komputer potrzebuje energii. Uważam że w dzisiejszych czasach patrząc z perspektywy sztucznej inteligencji nie ma możliwości zbudowania tak wszechstronnego i elastycznego urządzenia jakim jest człowiek. Znaczy to że sztuczna inteligencja nawet mając dostęp do kodów atomowych i mając możliwość uruchomienia łańcucha zagłady nie posunęła by się do tego bo w ten sposób
    zniszczyła by elektrownie, linie przesyłowe oraz wszelkie źródła energii, a gdy nie istnieli ludzie sztuczna inteligencja sama nie umiała by odbudować sieci energetycznych i zaopatrzyć się w energie przez co sama wkrótce “umarła by z głodu”. A nawet jeśli jakaś elektrownia by przetrwała to przecież bez obsługi nie będzie pracować wiecznie.

    Tak samo sytuacja wygląda ze sztuczną inteligencja która zaczyna się buntować, przecież ludzie nie siedzieli by z założonymi rękami patrząc jak sztuczna inteligencja snuje plan żeby zniszczyć gatunek ludzki. Myślę że wystarczyło by zniszczenie kilku elektrowni albo chwilowe globalne wyłączenie prądu aby pokrzyżować niecne plany sztucznej inteligencji.

  18. Michał L pisze:

    Szanowni Państwo,

    Uważam, podobnie jak część przedmówców, że sztuczna inteligencja jest w znacznym stopniu jest tylko narzędziem, które człowiek może wykorzystać w dobrym jak i złym celu. Myślę, że jak najbardziej trafnym jest porównanie AI do energii atomowej, która służyć może w dobrym i złym celu.

    Jednym z gospodarczych/społecznych zagrożeń, jakie nieść może ze sobą rozwój sztucznej inteligencji jest zastępowanie ludzkiej pracy, szczególnie tej niewymagającej wysokich kwalifikacji, pracą robotów. Można się tutaj posłużyć przykładem zawodowych kierowców, którzy za jakiś czas mogą być zastępowani pojazdami autonomicznymi, których rozwój już jest na dość wysokim poziomie. W samej Polsce w 2019 roku w sektorze transportu zatrudnione było ponad 600 tys. osób. Strach przed tym można zapewne porównać do luddyzmu z czasów rewolucji przemysłowej. Ówczesne obawy okazały się niesłuszne, gdyż mechanizacja produkcji spowodowała gwałtowny wzrost ilości miejsc pracy. Jak będzie tym razem? Zapewne czas pokaże.

    Kolejnym zagrożeniem powstającym dzięki zastosowaniu sztucznej inteligencji jest niewątpliwie rozwój narzędzi do inwigilacji. System oceny obywateli – kiedyś dystopijna fikcja, dziś rzeczywistość w jednym z najpotężniejszych krajów świata. Należy tutaj oczywiście zaznaczyć, że np. systemy rozpoznawania twarzy to jedynie narzędzie, które może samo w sobie raczej nikomu nie zagraża, jednak któż oparłby się możliwości poznania chociażby takich rzeczy jak poglądy polityczne np. potencjalnego współpracownika (https://www.nature.com/articles/s41598-020-79310-1)? Daje to również niespotykane do tej pory możliwości precyzyjnej propagandy, która trafia tam, gdzie będzie najskuteczniejsza, coraz bardziej polaryzując i radykalizując społeczeństwo.

    Ostatnim zagrożeniem, zapewne najbardziej rozpalającym ludzką wyobraźnię, jest perspektywa całkowitego zniszczenia ludzkości przez sztuczną inteligencję. Bunt maszyn rodem z Terminatora z człekokształtnymi maszynami do zabijania jest raczej mało prawdopodobny, a już na pewno w niedalekiej przyszłości, jednak autonomicznie sterowane drony są już jak najbardziej w naszym zasięgu i kto wie, czy na polu bitwy nie rozpoznałyby potencjalnego zagrożenia dla siebie również w siłach sojuszniczych.

    Nie podlega wątpliwości, że sztuczna inteligencja to miecz obusieczny, który może ludzkość zarówno „zbawić” jak i „zniszczyć”. Czas pokaże w którym kierunku się rozwinie.

  19. Daniel pisze:

    Szanowni Państwo,
    Na początku chciałbym postawić wyraźną granicę między słabą , a silną SI. Uważam, że zagrożenia jak i korzyści wynikające z jednej jak i z drugiej są tak samo ważnym tematem, jednak bardzo się od siebie różnią.
    Zacznijmy od zagrożeń, które dotyczą słabej sztucznej inteligencji. Moim zdaniem nie różni się ona za bardzo od wcześniejszych wynalazków oraz odkryć ludzkości takich jak np. rozszczepienie atomu czy wynalezienie dynamitu. Jest narzędziem w rękach człowieka i to on decyduje w jaki sposób jej użyć.
    Jednym z problemów jest postępująca, dzięki SI, automatyzacja procesów co pozbawia wielu ludzi pracy. To już było i niestety jest naturalną konsekwencją postępu – bez czy z SI. Kolejną, częstą obawą przed sztuczną inteligencją jest wykorzystywanie jej w celach militarnych. Wyobraźmy sobie sytuację: pilot lecący nad poligonem wciska przycisk otwarcia luku bombowego, przycisk nie reaguje. Luk niestety otwiera się samoczynnie po paru minutach, gdy samolot przelatuje nad wioską. W rezultacie czego giną ludzie. W tym wypadku też zawiniła maszyna, ale budował i sterował nią człowiek. Trzecim wielokrotnie poruszanym tematem jest zwiększenie inwigilacji obywateli przez aparaty państwowe i różnego rodzaju organizacje. Wywiady i władze od dawna zbierały „teczki” na swoich obywateli, legalnie lub nielegalnie. To prawda SI niesamowicie ułatwia ten aspekt, ale znowu jest tylko instrumentem, którym posługują się ludzie. Są to niewątpliwie poważne zagrożenia, jednak moim zdaniem problem w tych przypadkach nie tkwi w samym SI, a w ludziach.
    Silną SI często rozróżnia się na dwa podtypy. AGI (Artificial General Intelligence), która jest zdolna do wszystkiego co potrafi człowiek, w tym swego rodzaju samoświadomości, oraz ASI (Artificial Super Intelligence) – superinteligencji. Droga od AGI do ASI jest moim zdaniem krótka. Jeśli maszyna osiągnęłaby samoświadomość nic nie stoi jej na przeszkodzie żeby przewyższyć inteligencją człowieka, a następnie całą ludzkość.
    Sądzę, że obawa przed powstaniem super sztucznej inteligencji jest jak najbardziej słuszna. Podwaliny pod nią są już bardzo solidne: ludzki mózg cechuje się niesamowitym podobieństwem do maszyn obliczeniowych. Wykorzystujemy zaawansowane algorytmy bazujące na ewolucji, genetyce i sieciach neuronowych. Symulujemy rzeczywistość w świecie wirtualnym. Komputery są w stanie wykonywać obliczenia szybciej niż potrafi to ludzki mózg. Ogólnie nasza wiedza o świecie w ostatnich czasach rośnie w niesamowitym tempie.
    Jeśli chodzi o predykcje, że nie jesteśmy jeszcze na takim etapie rozwoju żeby stworzyć silną sztuczną inteligencję. Historia pokazuje, że nie umiemy za bardzo przewidywać przyszłości i często będąc w centrum wydarzeń ciężko jest ocenić co się wokół nas dzieje.
    A więc zagrożenie nie dość, że całkiem realne jest bardzo poważne. Stworzenie takiej SI wiązałoby się z całkowitym brakiem kontroli nad nią. Niezdolnością do przewidzenia jakichkolwiek działań przez nią podejmowanych. Dobrych czy złych. Próba sterowania, zabezpieczenia się czy choćby nakierowania ASI byłaby naiwna i z góry skazana na porażkę. Taki byt uczyłby się w tempie wykładniczym.
    To też są jednak przypuszczenia. Być może taka sztuczna inteligencja nigdy nie powstanie, jednak nierozsądnym byłoby całkowite bagatelizowanie tego problemu.

  20. Bartosz J pisze:

    Moim zdaniem sztuczna inteligencja sama w sobie nie stanowi zagrożenia dla naszego gatunku jeżeli sami nie wykorzystamy jej przeciwko sobie. Tak jak większość technologii stworzonych przez ludzi może zostać użyta w dobrym lub złym celu. Dobrym przykładem jest technologia jądrowa która na dzień dzisiejszy jest świetnym źródłem energii elektrycznej oraz wykorzystujemy ją w wielu innych dziedzinach ułatwiających lub nawet ratujących ludzkie życie np. w medycynie. Jednak stworzyliśmy także broń jądrową która w swym destrukcyjnym potencjale przewyższyła wszystkie poprzednie rodzaje broni.

    Podobnie jest z SI, która już dzisiaj jest wykorzystywana w wielu dziedzinach. Bardzo obiecujące są badania nad sztuczną inteligencją wykorzystywaną do diagnozowania chorób, gdzie dobrze dopracowany algorytm uczący się, po przeanalizowaniu wielu potwierdzonych przypadków chorobowych stał się szybszy i skuteczniejszy w diagnozie niż lekarz specjalista. Dzięki sztucznej inteligencji możemy w przyszłości konstruować doskonalsze maszyny i udoskonalać naszą technologie.
    Oczywiście tak jak technologia jądrowa można sztuczną inteligencje wykorzystać jako broń. Co już się dzieje armie świata dysponują już inteligentnymi pociskami zdalnymi reagować na zmieniające się warunki. Nie ulega wątpliwości że użycie SI w wojsku będzie się rozszerzało. Ale czy z tego powodu powinniśmy się jej bać i zabiegać o zaprzestanie jej rozwoju.

    Według mnie nie. SI może stać się rozwiązaniem na wiele problemów z którymi boryka się dzisiaj ludzkość. Zwłaszcza gdy osiągnie poziom ludzkiej świadomości oraz w końcu nas przewyższy i uzyska zdolność do samoulepszania. Taka sztuczna inteligencja potrafiła by rozwijać problemy nie możliwe do rozwiązania dla człowieka, co przyniosło by wiele nowych technologii które zmienią świat na zawsze. Oczywiście taka SI zmieniła by nasz gatunek i stalibyśmy się czymś nowym doskonalszym i właśnie tak widzę możliwość dalszej ewolucji naszego gatunku.

    Podsumowując nie postrzegam SI jako zagrożenia ale jako szanse dla nas i następnych pokoleń.

  21. kpt. Arianator pisze:

    Sztuczna inteligencja może być na tyle niebezpieczna, na ile jej na to pozwalamy. Nawet zbuntowany komputer (załóżmy, że jest to możliwe) jeżeli nie będzie miał dostępu do kluczowych systemów np. zarządzających bronią, nie będzie groźny i jego działalność zakończy się na szalonych teoriach, które można usłyszeć również z ust ludzi. Problemem bardziej jest stawianie wygody nad bezpieczeństwem. Jeśli wszystko podepniemy pod jeden system i podlaczymy go do sieci, to nie trzeba nawet zbuntowanego komputera. Wystarczą hakerzy. W filmie “Ja, Robot” (jeden z moich ulubionych) problem nie leżał w samym istnieniu robotów samodzielnie myślących, ale w tym, że ludzie całkowicie uzależnieni od nich swoje życie, będąc na ich łasce lub nielasce (zakładali, że owa łaska będzie pewna przez wzgląd na 3 prawa robotyki). Wszystko oddano pod kontrolę maszynom. Sztuczna inteligencja jednak tworzy problem natury bardziej filozoficznej. Otóż potencjalne istnienie sztucznej maszyny, która miałaby świadomość jak człowiek, uczucia, sny, zmysł piękna etc. buduje pewien niepokój związany z naszą jaznia, czlowieczenstwem. Pojawia się pytanie, czy my nie jesteśmy biokomputerami, czy nasze uczucia, przekonania, miłość nie są tylko efektem zadziałania algorytmu. Czym jest też nasza świadomość? Religie musiały by odpowiedzieć, czy komputery mogą mieć duszę i być Zbawione. Całe nasze spojrzenie na człowieczeństwo mogłoby się rozpaść jak spojrzenie fizyki klasycznej w czasach odkryć einsteinowskich.

  22. Jan M. pisze:

    Nie zgadzam się z moimi przedmówcami, że niebezpieczeństwo związane z SI jest zależne od celu w jakim jest stosowane. Nawet na obecnym poziomie technologii SI można już dostrzec kluczowy problem, który dotyczy każdego tworu programistycznego; są one tworzone przez ludzi. Nawet pomijając najczęste skutków tego, takie jak SI uczące się nie tego co miało się nauczyć lub błędy wynikające z nieodpowiednich zestawów danych im dostarczonych, nie można nie brać pod uwagę największego problemu; tworzy się je by spełnić oczekiwania twórców lub zleceniodawców.

    Niestety, jak pokazały badania SI służących do odczytywanie twarzy w celu odblokowyania smartfonów, oczekiwania twórcy bardzo często są niezgodne z tym, czego wymaga świat, który ma korzystać z ich tworu. Badania SI od amerykańskich firm wykazały bardzo dużą skuteczność, dopóki twarze testowane były twarzami ludzi białych, w innych przypadkach SI nie było w stanie wykrywać wystarczających różnic by skutecznie chronić smartfona, natomiast SI chińskie radziły sobie z każdym kolorem skóry i innymi różnicami twarzy. Można to określić błedem danych, ale biorąc pod uwagę, jak wygląda zachodni sektor technologiczny, raczej określiłbym to spełnieniem oczekiwań jakie miało to SI spełniać.

    Kolejnym poważnym problemem jest to, że większość znaczących bytów wykorzystującyh SI używa ich nie jako wsparcie dla człowieka, a jego zastępstwo, co zdecydowanie powinno nas martwić. Pomijając zagrożenie bezrobociem wynikające z pogoni za obniżeniem kosztów przez automatyzację, prowadzi to do sytuacji gdzie powierzamy znaczną kontrolę nad systemami wpływającymi obecnie na cały świat w “ręce” czegoś, o czego sposobie działania nie miały w znacznym stopniu pojęcia. Skutki tego możemy zaobserwować chociażby w działaniu platform społecznościowych, gdzie algorytmy aktywnie promują niebezpieczne treści, które doprowadziły choćby do wydarzeń 6 stycznia 2021 roku na Kapitolu, a to dlatego, że taka technologia ma dostęp jedynie do informacji z platformy, czyli czy ludzie często wchodzą w interakcje, a nie, co te treści znaczą, jaki jest ich kontekst, do czego mogą doprowadzić. I nawet same platformy wiedzą, że algorytmy i SI nie nadają się do zarządzania ich usługami, co przyznawali pracownicy tych firm.

    Oczywiście, można powiedzieć, jeśli kiedyś osiągnęlibyśmy poziom zaawansowania SI niemal nieodróżnialnej od człowieka, część z tych problemów zniknie. Jednak w mojej opinii, wtedy skala zagrożenia może wręcz wzrosnąć. Ponieważ wtedy będziemy mieli ten sam problem braku kontroli, ale tym razem brak kontroli będzie nad czymś co uczyło i uczy się jak człowiek. A skąd weźmie dane? Z tych samych miejsc gdzie inni ludzie biorą dane. Skoro do tak wielu ludzi trafia rasizm, filozofia Red Pill czy eugenika, czy możemy być pewni, że do SI nie trafi? A mało prawdopodobne by takie zarządzanie oddelegowano do więcej niż jednej SI, co widać po obecnych praktykach. Takie SI powinno być traktowane jak pojedynczy pracownik, pomagający innym, nie jako zastępstwo całych zespołów tylko dlatego, że może. Ale, wymagałoby to osoby o tym decydujące obchodziło coś innego niż czy zarobili więcej w tym roku niż w zeszłym.

  23. Filip W. pisze:

    Cieszę się, że wśród moich przedmówców większość osób jako zagrożenia ze strony sztucznej inteligencji wymienia najczęściej te, które są związane z jej niewłaściwym zastosowaniem przez człowieka. Tak bowiem moim zdaniem należy postrzegać sztuczną inteligencję: jako narzędzie, które może, a nie musi być wykorzystane do określonego celu. Obawiam się, że termin “sztuczna inteligencja” przez wiele osób traktowany jest zbyt dosłownie, a to niezrozumienie prowadzi z kolei do strachu przed konsekwencjami jej stosowania. W swojej wypowiedzi odniosę się raczej do obaw związanych z fizycznym zagrożeniem AI wobec ludzi, a zagrożenia ekonomiczne czy społeczno-kulturowe (które niewątpliwie występują) pozostawię do rozpatrzenia w innym poście.

    Należy pamiętać, że to, co nazywamy sztuczną inteligencją to (najczęściej) program komputerowy, który powstaje, by realizować pewne przeznaczone dla niego zadanie. Program, który nie rozumie tego, co robi, a który w sposób zdefiniowany przez programistę poprawia swoje działanie na podstawie popełnionych przez siebie wcześniej błędów (które trzeba mu przecież dodatkowo wskazać!). Im bardziej skomplikowane jest docelowe zadanie, tym bardziej skomplikowany jest model, a co za tym idzie potrzeba więcej danych, żeby w sposób dostateczny nastroić jego działanie. Wiąże się to z ogromnymi kosztami pozyskiwania ich, formatowania w sposób zrozumiały dla modelu oraz samego uczenia go.

    Nie powinniśmy się wobec tego obawiać, że sztuczna inteligencja sama w sobie podejmie za człowieka decyzje, które okażą się dla niego zgubne lub “dojdzie do wniosku, że człowiek tylko jej przeszkadza”. Żeby sztuczna inteligencja czegoś “chciała” należy to “chcenie” w sposób matematyczny zdefiniować i zaimplementować w postaci funkcji celu. Tworzenie modelu jest procesem czasochłonnym, kosztownym i na pewno nie losowym. Nie wiemy jak dokładnie funkcjonuje mózg ani nawet na jakiej zasadzie odczuwane są przez człowieka emocje, a obawiamy się przypadkowego zaimplementowania w modelu skomplikowanych mechanizmów całkowicie niepotrzebnych maszynie (jak na przykład naturalny wśród organizmów żywych strach przed śmiercią czy chęć ochrony bliskich) oraz dostarczenia jej przeogromnej ilości odpowiednio spreparowanych danych, które miałyby doprowadzić do stworzenia nemezis ludzkości. Pomijam już fakt, że wcześniej taki twór należałoby podłączyć bezpośrednio do narzędzi pozwalających mu na osiągnięcie swojego celu.

    Należy dodatkowo pamiętać, że wynik działania AI nigdy nie jest wynikiem deterministycznym. Nie powinniśmy wobec tego powierzać sztucznej inteligencji zadań krytycznych z punktu widzenia bezpieczeństwa (właściwie nie powinniśmy powierzać jej żadnych zadań, ale w wielu sytuacjach dopuszczamy możliwość pomyłki). Dlatego jedyne zagrożenie, jakie AI moim zdaniem stwarza dla człowieka to to samo, które stwarza dla niego władanie jakimkolwiek innym narzędziem. Wszystkim można się skaleczyć, jeśli używa się tego nierozważnie. Jeśli kiedykolwiek okaże się, że sztuczna inteligencja spowodowała jakąkolwiek katastrofę będzie to wina tego, kto za bardzo jej zaufał. AI jest bowiem mechanizmem, który z definicji dopuszcza błędy nawet mimo wielkiej chęci ich niewystępowania przez programistów.

  24. Marcin W. pisze:

    W mojej opinii, podobnie jak w opinii wielu przedmówców, SI jest, na ten moment, tylko i wyłącznie narzędziem, które można używać w sposób właściwy albo niewłaściwy. Jednocześnie uważam też że jest to potężne narzędzie mające potencjał przynieść ogromne zmiany w społeczeństwie. Mogą być to zmiany na lepsze albo na gorsze.
    Przytoczę tutaj jeden z argumentów – postępująca automatyzacja może doprowadzić do wzrostu bezrobocia wraz ze spadkiem zapotrzebowania na pracowników niewykwalifikowanych. Może to być duży problem w przyszłości, jako że najczęściej do tej grupy należy najbiedniejsza część społeczeństwa – może to doprowadzić do wzrostu ubóstwa. Ale z drugiej strony automatyzacja może w teorii doprowadzić do świata w którym praca ludzka jest opcjonalna. Nie należy też zapominać o innym zjawisku – starzenie się społeczeństwa może spowodować że prędzej pojawi się problem braku pracowników niż bezrobocia. W takim wypadku sztuczna inteligencja i zmniejszenie dzięki niej zapotrzebowania na pracowników wydaje się doskonałym rozwiązaniem tego problemu.
    Krótko odniosę się jeszcze do kwestii zagrożeń społeczno-kulturowych, sztuczna inteligencja może spowodować daleko idące zmiany. Uważam że za wcześnie jest aby ocenić czy będą to zmiany na lepsze czy na gorsze – na przykład z jednej strony SI może stosunkowo łatwo manipulować opinią społeczną, z drugiej strony może skutecznie zapobiegać próbom manipulacji poprzez automatyczne sprawdzanie prawdziwości informacji i podawanie zróżnicowanych opinii na daną sytuację/wydarzenie/etc.

  25. Eryk pisze:

    Bardzo podoba mi się stwierdzenie Pana Filipa W., które pozwolę sobie zacytować i dopowiedzieć kilka słów od siebie: “Tak bowiem moim zdaniem należy postrzegać sztuczną inteligencję: jako narzędzie, które może, a nie musi być wykorzystane do określonego celu.”.

    Pierwsze moje skojarzenie z tą myślą nie było związane ze sztuczną inteligencją, a z wybitnym szwedzkim chemikiem Alfredem Noblem, znanego być może teraz głównie z tak zwanej Nagrody Nobla, przyznawanej za wybitne osiągnięcia naukowe i zasługi dla ludzkości. Warto przytoczyć tutaj jednak przyczynę ofiarowania całego majątku przez uczonego na ten właśnie cel.

    Alfred Nobel był wynalazcą dynamitu i właśnie to przyniosło mu światową sławę i ogromne pieniądze. Jak legenda mówi, jego celem było użycie materiałów wybuchowych na potrzeby ludzi, np. w kopalniach. O samym Noblu mówi się, iż z przekonania był pacyfistą, zatem fakt, iż zawdzięczał on swoją fortunę narzędziu, które doprowadziło do śmierci wielu osób i stało się pewnego rodzaju “narzędziem śmierci”, był dla niego moralnie nie do przyjęcia.

    Nie wdając się jednak w dyskusję, czy uczony faktycznie nie przewidział, iż jego wynalazek może zostać wykorzystany w taki sposób, dostrzegamy tu pewną analogię do dyskusji odnośnie zagrożeń związanych z rozwojem SI. Jeżeli będzie ona używana w celu przeznaczonym do tego przez twórcę (oczywiście przyjmując założenie, że sam twórca nie jest “zły”), to nie powinniśmy się niczego obawiać. Pozostaje jednak pytanie: Co jeżeli ktoś użyje SI w niewłaściwy sposób? Bądź: Co jeżeli twórca jest zły?

    Nie próbując odpowiadać na te pytania, chcę tylko zauważyć, iż oba z nich dotyczą bezpośrednio człowieka, a nie maszyny. Zatem pytanie trzecie i już ostatnie: Kto może stanowić zagrożenie dla człowieka? Sztuczna inteligencja, czy też tylko i wyłącznie drugi człowiek?

  26. Filip W. pisze:

    Chciałbym przyznać Panu Erykowi rację w pewnej dość ważnej kwestii. Chodzi ludzi “złych”, a ponieważ samo takie stwierdzenie niezbyt wiele mówi o naturze takiego człowieka (kwestia tego, co jest złe nigdy nie została jednoznacznie rozstrzygnięta) doprecyzuję, że mam na myśli takich, których celem jest czynienie krzywdy czy wykorzystywanie innych, gorzej przystosowanych osobników z różnych znanych sobie powodów (najczęściej ze względu na osiągnięte w ten sposób korzyści).

    Istnieje ryzyko, że sztuczna inteligencja będzie chętnie wykorzystywana do takich właśnie celów. Rozpoznawanie twarzy i złożone algorytmy przeszukiwania (wraz z autonomicznym poruszaniem się) tworzą żołnierza z niemal nieskończonym refleksem. I choć w celach militarnych raczej nikt nie planuje stworzyć robota-humanoida, to niesamowicie szybkie, autonomiczne drony dokonujące selekcji ofiary z ogromną dokładnością brzmią nieco przerażająco. Wciąż jednak nie sądzę, żeby miało to ważyć o wartości AI samej w sobie. Musimy myśleć realistycznie i zdawać sobie sprawę, że niezbyt rozsądnym jest wyrzeczenie się technologii dającą przewagę militarną na rzecz (właśnie, czego?), co z kolei daje nam niemal pewność, że takie konstrukcje w najbliższej przyszłości powstaną. Skoro nie możemy tego zmienić postarajmy się chociaż, żeby była to technologia powszechnie dostępna i służąca człowiekowi, bo zamiast wyposażać drona w broń, można przekazać mu przecież paczkę do doręczenia. Powszechność problemu zawsze rodzi zapotrzebowanie na rynku, a ten przecież nie lubi nierównowagi…

    Chciałbym jeszcze odnieść się do argumentu Pana Marcina W., który wspomniał o grożącym ludzkości bezrobociu. Owszem, automatyzacja produkcji wiąże się ogólnie ze wzrostem bezrobocia, ale jedynie w tym konkretnym sektorze. Jeśli popatrzymy na to w nieco szerszej perspektywie oznacza to jedynie, że średnio człowiek musi pracować mniej, żeby wykonać tą samą pracę. Ludzie z większą ilością czasu to potencjalni konsumenci, należy więc stworzyć dla nich treści, co tworzy miejsca pracy, hamując drastycznie ten proces. W krajach wysoko rozwiniętych najwięcej ludzi pracuje w sektorze usług, bo nie ma potrzeby wykonywania żmudnej pracy produkcyjnej ręcznie. Myślę, że sztuczna inteligencja przesunie jedynie nieco tą granicę i jest naturalnym następnym krokiem w rozwoju społeczeństwa.

  27. Jan Kager pisze:

    Pojęcie SI można rozumieć, w ramach tej dyskusji, na dwa sposoby. Pierwszy z nich jest raczej dosłowny, czyli komputerowy model ludzkiego intelektu. Ponieważ taki model istnieje tylko w powieściach Science-Fiction, rozmowy na temat zagrożeń pochodzących od prawdziwej SI, sprowadzają się póki co do dalekosiężnych przypuszczeń. Jest to domena nauk czysto humanistycznych. W końcu nie zastanawiamy się nad tym jak taki model działa, a jakie byłyby konsekwencje istnienia takiego modelu. Na potrzeby eksperymentu myślowego, zakładamy, że taki model jest idealny.
    Drugi to SI jako narzędzie – program komputerowy, który wykonuje pewne funkcje w oparciu o algorytmy samo-uczenia się. To pojęcie przewija się w tej dyskusji najczęściej i jest najbardziej aktualne. Narzędzia wykorzystujące sieci neuronowe istnieją już od dawna, a ich wykorzystanie w różnych dziedzinach rośnie na szeroką skalę. Ja także, chciałbym się skupić na tym pojęciu i pominąć wszelkie pytania o autonomię i wolną wolę maszyn.

    Bardzo poważnym potencjalnym zagrożeniem ze strony maszyn samo-doskonalących się jest tzw. eksplozja inteligencji. Jeśli SI będzie w stanie zaprojektować lepszą wersję siebie samej, to jej rozwój będzie miał charakter eksponencjalny i może dojść do sytuacji, kiedy przewyższy człowieka i wymknie się spod jego kontroli. Nie będziemy w stanie przewidzieć jej zachowania. Wielu badaczy sztucznej inteligencji, uważa taki scenariusz za prawdopodobny. Zjawisko sprzężenia zwrotnego jest dobrze znane i można wskazać na wiele jego przykładów z różnych dziedzin. W tym przypadku jednak występują pewne istotne ograniczenia.
    SI jest automatem o bardzo dużej, ale skończonej liczbie stanów. Umie robić tylko to do czego została zaprogramowana i wykorzystywać tylko narzędzia do których ma dostęp. Istnieje SI (“AutoML”), która potrafi projektować inne SI, ale nie potrafi zaprojektować samej siebie. Stworzone SI są zawsze projektowane do bardzo konkretnego celu, a ich jakość zależy w dużym stopniu od dostępnego materiału do nauki.

    Nawet jeśli SI są tworzone do bardzo specyficznych zadań, nie ulega wątpliwości, że wykonują je bardzo, bardzo dobrze – znacznie lepiej i szybciej niż człowiek. Narastająca automatyzacja jest przyczyną likwidacji wielu miejsc pracy. Jest to oczywiście zjawisko niepożądane, a dla niektórych nawet katastrofalne, ale myślę, że zanim wyciągniemy pochopne wnioski, należy rozważyć problem całościowo. Zmiany ekonomiczno-społeczne zawsze szły w parze z postępem technologicznym. Wiele dawnych zawodów już nie istnieje, ponieważ stały się zbędne, a mimo to społeczeństwo stało się bogatsze, a nie biedniejsze.

  28. Mateusz K pisze:

    W rozważaniach nad sztuczną inteligencją prędzej czy później natrafi się na pytanie, czy stanowi ona zagrożenie dla ludzi. W związku z tym, że wszystko w odpowiednich warunkach może być zagrożeniem, uważam, że odpowiedź na to pytanie jest twierdząca.

    Pierwszym zagrożeniem, uwzględniając obecny postęp w pracach nad AI, jest automatyzacja pracy ludzi. Wypieranie człowieka z miejsca pracy przez maszyny odbywa się już od dłuższego czasu jednak do niedawna, granicą były zawody wymagające interpretacji zestawów danych niemożliwych do przewidzenia lub/oraz zbyt złożonych do opisania w formie programu warunkowego. Takimi profesjami są na przykład programiści tworzący programy na podstawie wytycznych klienta bądź agenci reklamowi próbujący przekonać ludzi do nowego produktu. Oba te przypadki łączy aktywne obcowanie z człowiekiem, którego zachowanie jest niemożliwe do całkowitego przewidzenia lub opisania. Pierwszym krokiem do wprowadzenia w takich miejscach automatyzacji jest stosowanie uczenia maszynowego zdolnego do odnalezienia właściwych wzorców i podjęcia stosownych decyzji, na przykład, kiedy pokazać reklamę w trakcie filmu oglądanego w internecie. O ile takie rozwiązania w chwili obecnej są dopiero w wielu miejscach wprowadzane pozwalając na częściowe ograniczenie pracy człowieka jednak wymagając od niego regularnej uwagi, o tyle stworzenie pełnoprawnej sztucznej inteligencji pozwoli na całkowite wyeliminowanie ludzkiego pracownika. Wynika to z faktu że wszystkie te zadania opierają się na wykorzystaniu właśnie inteligencji.

    Nawiązując do jednego z poprzednich komentarzy, mówiącego, że sztuczna inteligencja spowoduje tylko przekwalifikowanie ludzi wypartych z prac produkcyjnych do sektora usługowego, zmuszony jestem zauważyć, że wszelkie usługi broniły się dotychczas przed automatyzacją właśnie przez swoją naturę polegania na człowieku jako bezpośrednim odbiorcy. Natomiast to właśnie AI będzie zdolne do rozwiązania problemów powstających przy próbie ich zautomatyzowania eliminując ludzi również i z tego sektora.

    Drugim zagrożeniem wynikającym z powstania sztucznej inteligencji jest niezaprzeczalna władza jaka idzie z posiadania tej technologii. Maszyna która satałaby się całkowicie inteligentna może dysponować możliwościami analitycznymi wielokrotnie przekraczającymi te posiadane przez człowieka. Pozwoliłoby to na dowolne manipulowanie informacjami na rzecz twórcy w sposób niezauważalny dla odbiorcy prowadząc do nieograniczonych możliwości wpływania na drugiego człowieka.

    Sztuczna inteligencja z pewnością niesie ze sobą liczne zagrożenia. Można się ich doszukiwać na wiele sposobów, przy wykorzystaniu różnych definicji tych samych rzeczy i zjawisk. Moim zdaniem są one jednak nieuniknioną częścią postępu i dzięki wczesnemu ich rozpoznaniu możemy zapobiegać całkowicie ich wystąpieniu bądź przynajmniej łagodzić skutki wystąpienia poprzez właściwe przygotowanie. Dlatego nie należy obawiać się sztucznej inteligencji tylko dążyć do jak najlepszego wykorzystania jej potencjału.

  29. Damian F pisze:

    Moim zdaniem sztuczna inteligencja przyniesie, więcej pożytku niż strat. Temat ten nie jest jednoznaczny i z pewnością w parze z SI idzie zagrożenie, ale moim zdaniem to jest taka sama sytuacja jak z każdą idącą nową technologią.
    To znaczy dla przykładu technologia jądrowa przynosi bardzo pozytywny wpływ jako źródło energii, lecz w złych rękach może w postaci bomby jądrowej zniszczyć nawet całą Ziemię.
    Moim zdaniem tak samo jest w przypadku sztucznej inteligencji. Człowiek zdecyduje jak będzie użyta.
    Można rozważyć w tym miejscu czy da się zapanować nad sztuczną inteligencją. Moim zdaniem tak, ponieważ człowiek to tworzy i programuje, są możliwości, aby zostawić “ukrytą furtkę” tak, aby była możliwość wyłączenia programu. Można tu rozważać wyłączenie zasilania itp., ale kwestia pozostaje ta sama, iż człowiek będzie miał na to wpływ.
    Inną kwestią jest definicja sztucznej inteligencji, ponieważ pierwsza myśl to maszyna, która sama myśli, ale sztuczna inteligencja to też algorytmy, systemy, które same się uczą, a te mogą być stosowane w konkretnych celach i są odpowiednio kontrolowane. Więc nie muszą stanowić zagrożenia. Wszystko zależy od tego jak i w jakim celu są zbudowane.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *