Obecny wpis umieszczam w blogu w imieniu Marcina Koszowego, który zajmuje się naukowo teorią argumentacji.
Tytuł wpisu łączy doskonale ideę naszego bloga, służącego przede wszystkim do rozmów i debat, z tematyką, która jest w nim dość często poruszana, a więc sztuczną inteligencją. Mało tego, tytuł traktuje o maszynach, które potrafią rozmawiać, dyskutować i debatować – być może równie ciekawie jak nasi czytelnicy :).
Być może nawet, choć tu zapewne większość czytelników się uśmiechnie, jakiś internetowy chatbot tego typu przedstawi niżej swoje argumenty.
Zanim to jednak nastąpi, :-) , oddaję głos Marcinowi, któremu serdecznie dziękuję za przygotowanie niniejszego wpisu…
Wysiłki uczonych zmierzające do stworzenia argumentujących maszyn, które nie tylko brałyby udział w debatach, ale również rozstrzygały, która ze stron ma rację w sporze, sięgają przynajmniej czasów średniowiecznych. Opracowany w nowożytności przez Gottfrieda W. Leibniza kompleksowy projekt uniwersalnego języka matematycznego (lingua characteristica universalis), dzięki któremu możliwe byłoby dochodzenie do nowej wiedzy oraz rozstrzyganie sporów na drodze rachunkowej stał się jednym z kluczowych punktów odniesienia w badaniach nad sztuczną inteligencją. Rozwój technologii argumentacyjnych (zob. np. projekty realizowane przez ARG-tech – Centre for Argument Technology: https://www.arg-tech.org/index.php/projects/) oraz obliczeniowych modeli argumentacji (zob. np. materiały z międzynarodowych konferencji COMMA – Computational Models of Argument: http://comma.csc.liv.ac.uk/node/30) pokazuje szerokie spektrum badań mających na celu pogłębienie rozumienia komunikacji naturalnej na potrzeby debatującej sztucznej inteligencji. Przykładową ilustracją potrzeby tworzenia obliczeniowych modeli strategii argumentacyjnych jest ich wykorzystywanie w konwersacjach prowadzonych przez chatboty. W jakim stopniu te i inne kierunki badań nad sztuczną inteligencją są w stanie przybliżyć nas do epoki argumentujących maszyn?
19 lutego 2019 roku odbyła się pierwsza w dziejach debata człowiek-maszyna między Harishem Natarajanem, rekordzistą świata w liczbie wygranych debat konkursowych, a debatującą sztuczna inteligencją, projektem IBM Debater (https://www.research.ibm.com/artificial-intelligence/project-debater/). Sztuczna inteligencja nie tylko formułowała argumenty wyszukując w czasie rzeczywistym dostępne w sieci racje na rzecz bronionego stanowiska, ale również na bieżąco podejmowała próby zbijania argumentów przeciwnika. Debata mogła być śledzona z uwagą zbliżoną do zainteresowania pamiętnym meczem szachowym między Gari Kasparowem a komputerem Deep Blue w maju 1997 r. (wówczas wygrała maszyna) – z nadzieją dostarczenia nowego materiału do analiz i być może nowych odpowiedzi na pytania dotyczące możliwości i granic badań nad sztuczną inteligencją. Niech debata między IBM Debater a Harishem Natarajanem (jej pełny zapis jest dostępny pod adresem: https://www.youtube.com/watch?v=3_yy0dnIc58&t=1673s) będzie okazją do wymiany na tym forum myśli na temat spodziewanych kierunków rozwoju technologii argumentacyjnych. W tej pierwszej debacie między człowiekiem a sztuczną inteligencją zdaniem publiczności zwyciężył Harish Natarajan, jednakże to nie jej rezultat (zwycięzcę wyłania publiczność), a przebieg może pozwolić na zdefiniowanie najbardziej istotnych kierunków badań nad argumentującymi maszynami.
Dyskusję na ten temat proponujemy zogniskować wokół dwóch stanowisk dotyczących wpływu debatującej sztucznej inteligencji na sposób prowadzenia debaty publicznej oraz traktowania tego typu debat jako źródła inspiracji dla badań nad sztuczną inteligencją:
-
-
- Projekty takie jak IBM Debater w znaczący sposób mogą oddziałać na przyszły sposób prowadzenia debat czyniąc je bardziej racjonalnymi (podawanie większej liczby rzeczowych argumentów na rzecz głoszonego stanowiska) i efektywnymi (większa skuteczność przekonywania krytycznie myślącego odbiorcy). Innymi słowy, sztuczna inteligencja biorąca na żywo udział w debacie, nie tylko wyszukująca w czasie rzeczywistym argumenty (takie jak na przykład najnowsze wyniki badań naukowych stanowiących racje dla głoszonego stanowiska), ale także potrafiąca zbijać argumenty drugiej strony sporu może wnieść całkowicie nową jakość do debaty.
- Debaty z udziałem IBM Debater, dzięki możliwości śledzenia dialogowych interakcji między człowiekiem a maszyną, mogą dostarczyć nowego materiału empirycznego, umożliwiającego badaczom sztucznej inteligencji znalezienie odpowiedzi na pytania typu: „w jakim kierunku będą rozwijać się techniki argumentowania i kontrargumentowania przez sztuczną inteligencję?” czy „w jakim kierunku będą rozwijać się techniki dialogowe sztucznej inteligencji takie jak np. szybka i celna riposta, racjonalna i skuteczna kontrargumentacja, czy też inteligentnie i trafnie dobrana analogia?”
-
Czy jesteście Państwo za, czy przeciw tak wyrażonym stanowiskom?
Zachęcamy do udziału w dyskusji oraz formułowania argumentów w sporze o przyszłe kierunki rozwoju debatującej sztucznej inteligencji.
Marcin Koszowy i Paweł Stacewicz
Ciekawe (w zalinkowanej debacie) było dla mnie to, że nie-ludzka dyskutantka NIE wniosła do rozmowy ani nie-ludzkiej perspektywy (nie przedstawiła nawet obcego Amerykanom światopoglądu – bliższego ideałom europejskim), ale szczególnie to, że NIE próbowała ukazać w ogóle szerszej perspektywy rozważanych kwestii: filozoficznego tła, którego teoretyczny obraz kreślić można by środkami racjonalnymi i pewnymi, a w którym „rachująca” argumenty AI powinna czuć się jak „ryba w wodzie”.
Oczekiwać można by (może i naiwnie) przynajmniej „spojrzenia z boku” – analizy szerszej tego co jest istotą dyskutowanego problemu:
Czy dzieci są własnością rodziców, a może dzieci różnych rodziców są obywatelami, o których troszczyć się powinni współobywatele (nie tylko ich rodzice) aby móc jak najbardziej zbliżyć się do zapewnienia im podstawowych praw (człowieka), ideału równych szans do samorealizacji (w imię „równości i sprawiedliwości społecznej”)?
Nie było mowy nawet o tym co jest warunkiem sprawiedliwości już czysto „Amerykańskiej” praktyki konkurencyjnej walki o zasoby, w której zdolność akumulacji środków świadczy o zasługach i dowodzi prawa do prywatnej („świętej”) własności dóbr, które przecież mogły zaistnieć jedynie w wypadku istnienia warunków stworzonych przez kolektyw. A taka gra może być jakkolwiek sprawiedliwa (można bronić sensowności narzucania jej zasad) jeśli gracze mają przynajmniej podobne rozpoznanie reguł gry => powszechna edukacja od najmłodszych lat =>subsydiowanie przedszkoli…
Nie było ze strony IBM Debatera próby przełożenia dyskusji na pole w którym „rachowanie zdań” w ogóle mogłoby mieć miejsce. Nie było tam „Innej” perspektywy, wyodrębnionej z „gry interesów” czy (co ciekawe) „bańki informacyjnej”.
Stawiam zatem tezę, że o nic więcej tu nie chodzi niż o grę interesów – i wbrew pierwszej tezie wpisu nie może być tu mowy o wniesieniu „całkowicie nowej jakości debaty”.
Wydaje mi się, że nawet jeśli wzrośną moce komputerów to i tak nie zostaną one wykorzystane dla zapewnienia w/w „niwej jakości” – ale zwyczajnie by jeszcze skuteczniej działać podobnie do IBM Debatera – zgodnie z intencjami twórców jak mniemam.
W zalinkowanej debacie pojawiały się istotnie „wyniki badań naukowych stanowiących racje dla głoszonego stanowiska”. Ale w dzisiejszych czasach podobną rolę mógłby pełnić sztab dyskutanta na bieżąco weryfikujący źródła przywoływanych przez konkurenta twierdzeń (przywoływanych niego wyników badań) i wyszukujący badania mogące podtrzymać bronione stanowisko.
Słabością sztabowców jest to, że tkwiąc w „bańkach informacyjnych” mogą być nieodporni na argumenty kreślące obraz rozważanej kwestii z nieznanej im perspektywy – IBM Debater sama jednak zdawała się nie być wolna od tej słabości. To co prezentowała wydaje się być jednak koniecznym srodkiem do celów jakim ma służyć (o czym za chwilę).
Nie było w (zalinkowanej debacie) rachowania teoretycznych zdań. Wcale nie dlatego, że (jak pisał Putnam) z racji na Twierdzenie Löwenheima-Skolema znaczenia poszczególnych pojęć systemu w którym pewny i racjonalny rachunek mógłby być dokonywany można „zamieniać miejscami” … i ostatecznie wszystko sprowadza się do „wyboru wartości” ;)
Wyglądało to dla mnie raczej na kolejną odsłonę znanej strategii gry: wynająć lepszego adwokata który, zasypując „ławę przysięgłych” morzem nieogarnialnych acz uczenie brzmiących argumentów przyprawionych sosem sprawnej retoryki sprawi, że nasze stanowisko wyda się lepiej uzasadnione.
IBM Debater nie stronił od figur retorycznych rodem nie z intelektualnego „trójboju siłowego” a raczej z kulturystycznego konkursu na pozy.
Według mnie nie było tu innej intencji: IBM przedstawił marketingowo nowy produkt, który może służyć obronie stanowiska kupującego z mocą (obliczeniową) proporcjonalną do tego na jaki stać kupującego dany model IBM Debatera.
Nie ma debatująca AI służyć rozstrzyganiu „filozoficznemu” kwestii, poszukiwaniu „prawdy” czy racjonalnego rozwiązania problemów – a przekonywać ludzi z określonych środowisk (baniek informacyjnych).
Argumenty będą skrojone na ich miarę:
– „Ławnikom”przekonanym o swej racjonalności zafundują listę badań naukowych, w których zasadność przywołania w danym kontekście będą mogli spokojnie uwierzyć.
– Pewnym swego zdrowego rozsądku, a wątpiącym w autorytety, przedstawią zagmatwane teorie pozwalające im odrzucić wszystko co nie zgadza się z ich pierwszymi mniemaniami – jeśli tylko zagłosują tak jak wskazuje IBM Debater.
– Indywidualistom wierzącym w niepowtarzalność swoją i wyjątkowość rozważanej sytuacji pięknie opowiedzą o wartościach korzystając narracji, które okazały się statystycznie najskuteczniejsze w podobnych przypadkach.
Wszystko by przekonać do stanowiska przyjętego przez klientów przyszłych „klonów” IBM Debatera.
I (odnośnie 2 tezy wpisu) mogę się założyć, że to w takim kierunku „będą rozwijać się techniki argumentowania i kontrargumentowania przez sztuczną inteligencję”:
– szybka i cięta riposta – racjonalnie dobrana by przekonać bez wnikania w racjonalność tezy, analogie mistyfikujące obraz by zapewnić przekonanie (jeśli teza jest wątpliwa).
Zgadzam się że stwierdzeniem, że sztuczna inteligencja ma zdolności do znajdowania zależności dzięki szerszemu spojrzeniu na dane zagadnienie. Potrafi znaleźć zależności, których człowiek „gołym okiem” nie jest w stanie zaobserwować. Dlatego między innymi jest wykorzystywana.
Co do tezy mówiącej, że mimo wzrostu mocy obliczeniowej sztuczna inteligencja nie będzie wykorzystywana do zapewniania jakości dyskusji – chciałbym zwrócić uwagę na upływ czasu. Być może w najbliższej przyszłości narzędzia typu IBM Debater będą dostępne tylko dla najbogatszych i z tego powodu to ci, którzy będą mieli pieniądze, będą w stanie pozwolić sobie na wykorzystanie takich rozwiązań. A skoro tak, to najprawdopodobniej do wspomagania swoich interesów.
Jednak w dalekiej przyszłości, gdy (być może) społeczeństwo będzie miało powszechny dostęp do rozwiązań chmurowych i tym samym bardzo dużej mocy obliczeniowej, to będzie się pojawiać coraz więcej narzędzi do zapewniania jakości dyskusji bez względu na strony. Zwróćmy uwagę, że jeszcze 40 lat temu nikt by sobie nie pomyślał, że będzie mógł kupić sobie smartfona czy komputer. Przed II wojną światową tylko elita społeczeństwa jeździła samochodami, a dziś prawie w każdej rodzinie jest ktoś, kto ma samochód.
Jeżeli więc narzędzia do rozmowy wykorzystujące sztuczną inteligencję staną się przedmiotem powszechnych badań naukowych na całym świecie i staną dostępne dla większej liczby ludzi, to będzie można wykorzystać je do poprawienia jakości dyskusji.
Jedną z kwestii poruszonych w tym wielowątkowym komentarzu jest pytanie: czy debatująca sztuczna inteligencja jest w stanie zaprezentować różne punkty spojrzenia na dyskutowaną kwestię z odmiennych perspektyw kulturowych (jak to zostało ujęte w komentarzu: „[dyskutantka] nie przedstawiła nawet obcego Amerykanom światopoglądu – bliższego ideałom europejskim”)? Rzeczywiście, w dyskusji między IBM Debater a Harishem Natarajanem dominuje stawianie na liczbę odwołań do badań naukowych, czy opinii ekspertów w dziedzinach związanych z tematem „dofinansowanie edukacji przedszkolnej”, a nie na naświetlanie różnych sposobów patrzenia na problem, co niejednokrotnie stanowi o tym, czy mamy do czynienia z dobrą debatą, czy jedynie z przyjmowaniem przez dyskutantów jednostronnej perspektywy.
Być może jedną z odpowiedzi na pytanie o specyfikę argumentacji przedstawionej przez IBM Debater możemy znaleźć na stronie IBM Research Blog (https://www.ibm.com/blogs/research/2019/02/ai-debate-think-2019/), gdzie stwierdza się: „baza wiedzy Project Debater składa się z około 10 miliardów zdań, zaczerpniętych z gazet i czasopism” oraz: „projekt Debater poszukuje krótkich fragmentów tekstu w dużych korpusach”. Można więc uznać, że tak sformułowane zadanie wyraźnie ogranicza możliwość przedstawiania różnych perspektyw kulturowych, przez zawężenie go do wyszukiwania argumentów (w formie stosunkowo krótkich zdań) za lub przeciw bardzo ogólnie sformułowanemu stanowisku „powinno się dofinansowywać przedszkola”. Można postawić pytanie: czy debatująca sztuczna inteligencja, po przeformułowaniu zadania, byłaby zdolna do naświetlenia problemu z różnych punktów widzenia? Interesująca w tym kontekście jest też uwaga na temat „gry interesów”. Wydaje się, że ten typ debaty ma na celu właśnie taką grę (oczywiście przy zachowaniu reguł debaty typu oksfordzkiego). Czy sposób dyskutowania zmieniłby się, gdyby celem dyskusji było np. wspólne rozwiązanie konkretnego problemu edukacji przedszkolnej w USA lub w Wielkiej Brytanii?
Ku wirtualnej cyfrowrowej trosce o dobro wspólne? Byłbym za- o ile tylko IBM i inni twórcy podobnych do Debatera systemów (w ramach akcji marketingowej/ manifestacji siły) pozwolą na „non-profit” wykorzystanie swych cudeniek „pro publico bono”. Z tym, że nie liczyłbym na powszechność takiej praktyki: akcjonariusze mogliby pozwać zarząd za oddawanie „za bezdurno” tego co można przecież sprzedać (taka działalność na szkodę firmy jest karalna- i wcale nie chodzi o chciwość ;) Trudno bowiem pomyśleć mi wiele problemów „publicznych polityk” , w których nie mógłby znaleźć dla siebie niszy jakiś prywatny interes- potencjalny klient dla projektantów cyfrowych dyskutantów…
A gdyby na przykład spytać wirtualną dyskutantkę: „spożywanie ilu posiłków dziennie należy zalecić aby zminimalizować ryzyko otyłości (i wiążących się z nią konsekwencji społeczno-gospodarczych)?” mogłaby zasypać nas ogromem zdań z artykułów i prac naukowych, materiałów akademickich itd. (czyli że źródeł stanowiących – jak Pan pisze – dietę IBM debatera) wskazujących, że „częste małe posiłki rozpędzają metabolizm” i prawdopodobnie przedstawiła by pięknie „opowieści” o biologicznych mechanizmach stojących za takim stanowiskiem wprost z tych samych naukowych źródeł. Przeciw temu byłoby dosłownie parę badań empirycznych… które tą tezę obaliło (czyniąc z przywołanych „opowieści” fikcje służące paradygmatowi nadal silnie ufortyfikowanemu na wydziałach zajmujących się dietetyką).
Te parę badań utonęło by w morzu pięknych fraz ubarwiających „merytoryczną” treść: „Profesor X” napisał 'to a to’ , zalecenia uczelni Y wzkazują na konieczność 'tego a tego’, w pracy Z opisano 'to i to’.
Obserwatorowi debaty nie pozostało by nic innego jak ulec wobec czegoś co wyglądałoby na konsens ekspertów – chyba, że postanowiłby sam podjąć się filozoficznym rozważaniom z zakresu metodologii nauki (debata nie wypełniła by zadania bo rozwiązanie znaleźć trzeba by samemu).
Chodzi mi o to, że (na razie) rodzaj danych jakimi karmiono Debatera /a przez to/ i do czego jest on zdolny (co potrafi z tymi danymi zrobić) nie daje „nowej jakości”.
Przykład mój dietetyczny dotyczył okoliczności wolnych od wojny rynkowych interesów. – Tam gdzie Debatery będą wynajmowane (gdzie będą musiały zarobić) dobór argumentów i uzasadnień będzie oczywiście stronniczy.
Mamy zatem znów sytuację przećwiczoną przez koncerny pozywające do Sądu tych którzy wchodzą im w drogę. Debatery mogą się stać nie tyle wirtualnymi kauzyperdami ile mechanizmami projektowanego pod prywatny interes konsensu.
Wygra ten z lepszym debaterem- zwłaszcza jeśli techniki te upowszechnia się jak wspomniane w jednym z komentarzy inne techniki cyfrowe. Nasze prywatne weryfikatory debaterów działając zgodnie ze znanymi algorytmami będą równie łatwe do oszukania a nam pozostanie uwierzyć w dowody z „cyfrowych” autorytetów.
Dotykamy tu między innymi problematyki poprawności argumentacji z opinii eksperta, oceny trafności ekspertyz, czy oceny siły argumentów podawanych przez ekspertów (w tej samej dziedzinie), których opinie są względem siebie sprzeczne. Zgodziłbym się jak najbardziej z tym, że czynności tego typu wykraczają poza zakres działań IBM Debater.
Ciekawym też wydaje się kwestia „perspektyw kulturowych” czy też ogólnie – perspektyw i punktów widzenia, które nasuwają na myśl technikę argumentacyjną „ramowania” czyli po angielsku: framingu. Technika ta, choć wydaje się być niezwykle istotna – być może nawet ważniejsza niż dobór właściwych argumentów, jest do tej pory w zasadzie niezrozumiana w kategoriach, które umożliwiałyby jej implementację w technologiach argumentacyjnych. Tu rodzi się następujące pytanie – czy przy argumentach zbieranych na dużą skalę możliwe byłoby wykorzystanie identyfikacji ilości ram (przy założeniu, że bylibyśmy w stanie rozpoznawać je automatycznie) do ustalenia czy argumenty z opinii eksperta były poprawnie użyte? Bowiem przy małej ilości ram można by podejrzewać automatyczną ekstrakcję argumentów za stronniczą.
Ale czy nie mamy tu do czynienia przypadkiem z sytuacją podobną do argumentów zwolenników statystycznych metod lingwistyki obliczeniowej (która stanowi technologię stojącą za IBM Debater) – czyli że dzięki przetwarzaniu statystycznie dużych zasobów redukujemy stronniczość do minimum? Bowiem algorytm nie analizuje informacji jakościowo ale ilościowo, a co za tym idzie – nie patrzy kto i jakie argumenty na rzecz tezy przytoczył, ale zbiera każdy argument sformułowany przez dowolnego użytkownika Internetu, który algorytm napotka w trakcie przeszukiwania sieci.
Chciałbym zaproponować inny kierunek rozwoju narzędzi do argumentacji. Zamiast tworzyć argumenty, mogłyby one sprawdzać prawdziwość i poprawność przytaczanych przez strony dyskusji danych i analizować wypowiedzi pod kątem łamania zasad dobrej dyskusji. Takie narzędzia pomogłyby nie tylko przy debatach akademickich, ale również w dyskusjach politycznych, rozprawach sądowych lub po prostu na internetowych forach dyskusyjnych. Mogłyby pomóc podnieść świadomość społeczną dotyczącą argumentacji i sztuki dyskusji.
Oczywiście takie rozwiązanie niesie zagrożenia – np. któraś ze stron wynajmuje zespół hackerów i manipuluje sposobem działania sztucznej inteligencji sprawującej pieczę nad debatą i odnieść korzyść.
Należy pamiętać, że każde rozwiązanie niesie ze sobą pewne wady i zalety. Ludzkość powinna stosować te rozwiązania, których zalety przewyższają wady, więc jeżeli takie narzędzie spełniałoby ten warunek, to mogłoby być dużą pomocą dla debatujących.
W podobną do wskazanej stronę (tj. sprawdzania zgodności argumentacji z regułami dyskusji) zmierzają niektóre projekty realizowane przez ARG-tech: Centre for Argument Technology (http://arg.tech/). Należy do nich np. aplikacja Test Your Argument (https://moral-maze.pilots.bbcconnectedstudio.co.uk/), poddająca ocenie m.in. sposób doboru przez użytkownika argumentów i kontrargumentów. Ze względu na to, że aplikacja ta opiera się na przykładach wziętych z konkretnej dyskusji radiowej, nie jest to narzędzie, które można w obecnej formie zastosować do oceny argumentacji w każdej dyskusji. Niemniej jednak wydaje się ono stanowić propozycję zmierzającą w zarysowanym tu kierunku.
W trochę szerszym kontekście można wspomnieć opracowaną również przez ARG-tech aplikację Argugrader (http://www.argugrader.com/), służącą do zautomatyzowanego oceniania i przekazywania studentom szczegółowych informacji zwrotnych na temat przeprowadzanych przez nich analiz argumentacji. Nie jest to wprawdzie narzędzie służące ocenie zgodności argumentacji z regułami dyskusji, lecz ocenie poprawności przeprowadzanych analiz i jako takie może być przydatne nie tyle dyskutantom, co badaczom analizującym debaty i tworzących ich reprezentacje w postaci map argumentacyjnych.
Jeśli zaś chodzi o dyskusje na blogach (w tym przypadku chodzi jednak o ich analizę, a nie o ocenę poprawności), to aplikacja Argublogging (http://www.argublogging.com/), również opracowana przez ARG-tech, służy porządkowaniu i wizualizacji struktur argumentacyjnych w dyskusjach na forach internetowych.
„Projekty takie jak IBM Debater w znaczący sposób mogą oddziałać na przyszły sposób prowadzenia debat czyniąc je bardziej racjonalnymi” – po przeanalizowaniu powyższych komentarzy i punktów widzenia utwierdziłem się tylko w przekonaniu, że jest to zdanie prawdziwe. Co więcej, uważam za szczególnie istotne zwrócenie uwagi na kierunek tychże oddziaływań.
Podoba mi się pomysł przedstawiony w komentarzu użytkownika Piotra, mówiącego o tym, że zamiast tworzyć argumenty SI mogłaby skupić się na ewaluacji tych już przytoczonych w dyskusji. Warto się jednak zastanowić czy tak obrany kierunek nie wiązałby się z pewnym ograniczeniem i w dłuższej perspektywie zmarnowanym potencjałem? Mam na myśli sytuację wykorzystania programu, który posiada olbrzymią moc obliczeniową i dostęp do wszystkich informacji na świecie w każdej chwili działania – wizja programu, który pozwala na generowanie argumentów zamiast tylko weryfikowania poprawności przytoczonych brzmi jak potężny akcelerator rozwoju jakości dyskusji w wielu aspektach – skala jest nieporównywalnie większa i zyski, proporcjonalnie wymierniejsze.
Cieszę się, że zwrócił Pan, Panie Piotrze, uwagę na aspekt zabezpieczeń, który nieprzerwanie pojawia się w przy okazji każdego większego rozwiązania branży IT, tylko wypada się tutaj zatrzymać nad pytaniem, czy jest to problem bardziej nagminny niż w przypadku jakiejś innej dziedziny? Twierdzi Pan, że takie rozwiązanie niesie zagrożenie w postaci możliwego ataku hackerów, z czym się oczywiście zgadzam. Załóżmy jednak, na potrzeby naszych hipotetycznych rozważań, że ludzkość jest w posiadaniu księgi reguł pozwalających rozstrzygnąć każdy spór – czy takie rozwiązanie byłoby bezpieczne na tyle, aby powierzyć mu bezgranicznie nasze debaty? Czy nie byłoby narażone na ataki fałszerzy, którzy manipulując książką mogliby zmienić jej treść dla prywatnych korzyści? Wspominam o tym, ponieważ odniosłem wrażenie, że drugi akapit Pana wpisu sugeruje jakoby takie rozwiązanie niosło ze sobą szczególne ryzyko, ponieważ wykorzystuje technologię komputerową, gdy w rzeczywistości jego bezpieczeństwo zależałoby tylko i wyłącznie od jakości zabezpieczeń, które zostałyby zaimplementowane (tak jak w przypadku powyższego hipotetycznego przykładu księgi wiedzy). Co ciekawsze, zabezpieczenia sfery cyfrowej okazują się niejednokrotnie odporniejsze na ataki, a niżeli sposoby ochrony praktykowane w przypadku próby zabezpieczania niewirtualnych, fizycznych przedmiotów, ale to już temat na inną dyskusję…
Chciałbym odnieść się do pierwszego stanowiska, jakoby projekty podobne do IBM Debater mogą w znaczący sposób oddziaływać na przyszły sposób prowadzenia debat. Nie zgadzam się z tym stanowiskiem w pełni i postaram się przedstawić mój punkt widzenia na tę kwestię.
Moim zdaniem należy wyraźnie oddzielić debaty profesjonalne/konkursowe, których celem jest wyłonienie zwycięzcy pod kątem teoretycznym i logicznym wypowiedzi, od debat w przestrzeni publicznej, w których bardzo ważna jest kwestia techniczna. Mówiąc techniczna, mam na myśli prezencję kandydata, sposób wypowiedzi, artykulację, ułożenie rąk czy mimikę twarzy. Ostatnia debata prezydencka była świetną okazją do analizy przygotowania uczestników pod tym kątem. We wspomnianej debacie bardzo silnym środkiem wspierającym argumentację okazały się rekwizyty w postaci konstytucji, projektów ustaw czy długopisu. W bezpośredniej debacie pomiędzy Andrzejem Dudą a Bronisławm Komorowskim w 2015 roku można zauważyć jak ważna jest postawa ciała i kontakt wzrokowy z przeciwnikiem. Obecnie trudno jest sobie wyobrazić robota, który mógłby w sposób naturalny stać na scenie i wspierać gestykulacją swoją wypowiedź. Dużym problemem może okazać się przełamanie „uncanny valley”, czyli powstania dyskomfortu u odbiorcy wywoływanego zachowaniem podobnym, ale nie identycznym z ludzkim.
O ile omawiane projekty mogą mieć wpływ na profesjonalne debaty i na ich gruncie wywołać dyskusję na temat usprawnienia lub opracowania nowych technik argumentacyjnych, o tyle w przestrzeni publicznej, z którą styczność ma największa część populacji, nie wywrze istotnego wpływu.
Rozumiem, że to od typu dyskusji (lub dialogu) zależałoby to, czy debatująca sztuczna inteligencja znajdzie zastosowania. Rozumiem, że jeśli mielibyśmy do czynienia z dialogiem ukierunkowanym na pozyskanie informacji, czy mającym na celu rozwiązanie pewnego problemu, wówczas projekty takie jak IBM Debater mogłby służyć wyszukiwaniu w czasie rzeczywistym ekspertyz, zeznań świadków, wyników badań, itp. (czyli raczej zbierać materiał potrzebny w argumentacji niż samodzielnie przekonywać). Natomiast w przypadku dialogów mających np. na celu wygranie debaty, te zastosowania byłyby bądź znacząco ograniczone, bądź wręcz znikome.
O ile dobrze rozumiem intencje twórców Project Debater, opisane między innymi na blogu IBM (https://www.ibm.com/blogs/research/2019/02/ai-debate-think-2019/), to jednym z celów jest racjonalna perswazja. Można postawić pytanie: czy wyeliminowanie pewnych elementów peryferyjnych, tak jak np. zbytniego podobieństwa do człowieka (także w celu uniknięcia wspomnianego w powyższym wpisie efektu „uncanny valey”) mogłoby przyczynić się do większego skoncentrowania się odbiorcy na ocenie poprawności rozumowań przedstawiamych przez sztuczną inteligencję (tj. właśnie na ocenie racjonalności zastosowanych przez nią środków perswazji)?
— mam na myśli prezencję kandydata, sposób wypowiedzi, artykulację, ułożenie rąk czy mimikę twarzy (Eliasz Mechatronik)
W debatach o charakterze społecznym, takich które mają przekonać do jakichś pomysłów/rozwiązań/programów pewną grupę ludzi, bardzo ważne jest – tak mi się wydaje – „bycie przekonującym”. Do tego zaś niezbędne jest „bycie przekonanym”, co z kolei zakłada dobre rozumienie tego, o czym się mówi. Wiąże się to z następującymi dalej komentarzami km-a, który pisze o „rozumiejących” debaterach (wyrażając cudzysłowem swoje powątpiewanie co do możności informatycznego uzyskania tejże zdolności).
Wydaje mi się, że ludzki obserwator (np. obserwator debaty) rozpoznaje „bycie przekonanym” i „rozumienie” właśnie po tym, że racjonalna „sucha” argumentacja jest w odpowiedni sposób połączona z zachowaniem: gestykulacją, mimiką, artykulacją… Im większe zgranie tych elementów, tym większa pewność obserwatora co do tego, że debatujący cokolwiek rozumie.
Pozostaje oczywiście pytanie — być może wykraczające poza dyskusję o wpływie realnych istniejących rozwiązań (typu IBM Debater) na przyszłe kierunki badań nad SI (w zakresie komunikacji) — pytanie o to, czy takie zgranie mowy i ciała jest w ogóle możliwe bez autentycznego rozumienia? Czy nie musi być autentycznego rozumienia, aby maszyna w sposób dla odbiorcy przekonujący, łączyła w swoim działaniu racjonalną argumentacją z w/w elementami towarzyszącymi?
Pozwolę sobie zacytować Marka Turnbulla (Cambridge Analytica): „Two fundamental human drivers when it comes to taking information onboard effectively are hopes and fears, and many of those are unspoken and even unconscious. You didn’t know that was a fear until you saw something that just evoked that reaction from you. (…) It’s no good fighting an election campaign on the facts, because actually it’s all about emotion.” [1].
Parafrazując, twierdzi on, że kampanie wyborczą wygrywa się poprzez emocje, a nie fakty. Tak samo uważam w kwestii debat społecznych (szczególnie prezydenckich). Celem uczestników jest wywołanie odpowiednich emocji i wywarcie wpływu na słuchaczu, a argumenty wcale nie muszą być rzeczowe.
Również zgadzam się z Panem Pawłem, że “bycie przekonującym” jest bardzo ważne. Im bardziej wiarygodny rozmówca, tym lepiej wpłynie na nasze emocje. Chciałbym zadać pytanie, czy SI w debacie może być na tyle przekonujące (bez gestykulacji itp.), żeby wzbudzać emocje i przekonywać do siebie ludzi?
Na podstawie debaty przytoczonej w tym poście, wydaję mi się, że odpowiedź brzmi tak. Jednak, żeby się przekonać czy SI wygrałoby ludzkie serca, chciałbym zobaczyć debatę prezydencką z udziałem kandydata SI.
[1] https://youtu.be/mpbeOCKZFfQ?t=420
W odpowiedzi do Paweł Stacewicz
Wydaje mi się, że aby być przekonującym nie trzeba przekazywać żadnej treści. Do przyciągnięcia uwagi i zyskania uznania słuchacza wystarcza odpowiednia forma.
Dobrym przykładem jest poniższy TedTalk o tytule: „How to sound smart”
https://www.youtube.com/watch?v=8S0FDjFBj8o
Założenie prelegenta jest następujące: Nie przekazać żadnej treści i jednocześnie zyskać uznanie słuchaczy. Jako że podczas wystąpienia wywołuje on zdumienie i śmiech wśród słuchaczy, twierdzę, że udało mu się nawiązać podczas przemowy więź z widownią. Dzięki odpowiedniej formie prezentacji, poparciu autorytetem, gestykulacji i dynamice wypowiedzi osiągnął zamierzony cel.
Powyższy film doskonale pokazuje, iż „sucha” argumentacja nie jest konieczna do wywarcia skutecznego wpływu na odbiorcy. Nawiązując do debatującej sztucznej inteligencji, nadal twierdzę, że na ten moment projekty pokroju IBM Debater nie są w stanie przekonać do siebie słuchacza, opierając się jedynie na formie wypowiedzi i wspierającej ją mowie ciała.
W moich poprzednich komentarzach kreśliłem wizję rozwoju/wykorzystania debaterów jako swoistych „adwokatów diabła”. W procesach wyłonienia Świętego wierzący ufali w to, że żadna krytyka nie zdoła zaszkodzić godnemu kandydatowi – sam Duch Święty gwarantować miał, że właściwa strona znajdzie przeważające argumenty.
Gdy AI wystawi przeciwne wyznaczonemu mu stanowisko na ogień (naukowo umocowanej) krytyki, pozostanie nam wierzyć, że obrońcom prawdy nie zabraknie mocy obliczeniowej, i „dany jej będzie” dostęp do potrzebnych informacji (dostęp do równie zaawansowanego Debatera).
Nie mam wątpliwości, że przyszłe debatery będą przekonywujące: „prawiąc uczenie” nawet jeśli nie będą „rozumiały” o czym mówią- tak jak konwersatory są w stanie uwodzić ludzi „znając” regularności statystyczne skutecznych w pełnieniu ich funkcji form.
Z projektowania i obserwacji działania takich systemów płynąć będzie zapewne nauka dla ich konstruktorów- podobnie jak w przypadku dyskutowanej na blogu „filozofii in silico” – będziemy mogli odsłonić mechanizmy przekonywania, ukryte założenia u podstaw racjonalnego wyboru stanowiska…
Co innego jeśli chodzi o „nową jakość”. Tak jak w przypadku, w którym modele in silico miałaby zrewolucjonizować rozumienie systemów filozoficznych- także i jeśli zadaniem debaterów miałoby być realne odmienienie debaty „na lepsze” (bardziej merytoryczne tory) sprawa wydaje mi się o wiele trudniejsza:
– Co zrobić jeśli opinie eksperckie sobie przeczą?
– Ile badań populacyjnych „bije” jedno kliniczne?
– Na ile sens ma reforma debatowania jeśli nie wiąże się z obnażeniem założeń obrazu sytuacji, w której przedstawia się nam do wyboru dwa stanowiska? Czy przypadkiem najtrafniejsze i wyważone merytorycznie w danej dyscyplinie argumenty nie mistyfikują obrazu, dając jedynie pozór racjonalności – jeśli brak im szerokiej filozoficznej perspektywy? (Z przykładu debaty zalinkowanej: może zamiast zastanawiać się nad subsydiowaniem przedszkoli lub nie lepsze byłoby coś zupalnie z innego porządku np. wyłącznie publiczne obowiązkowe przedszkola.)
Ale tu rozwiązaniem byłby dopiero jakiś cyfrowych „wielki mózg” (rodem z SF) który rozumiejąc znaczenie rozważanych kwestii mógłby przedstawić nam do wyboru alternatywy i stojące za nimi wartości.
Moim zdaniem projekt taki jak IBM Debater nie przyczyni się do rozwoju prowadzenia debat.
Oczywiście sztuczna inteligencja ma do zaoferowania ogromny zasób danych, który może wykorzystać w celu poparcia swojej argumentacji. Jednakże debata często nie kojarzy się z suchymi faktami, a spojrzeniem na dany temat ze swojej perspektywy. Sztuczna inteligencja nie może odwołać się do własnych przemyśleń na dany temat, czy doświadczeń. Cała wypowiedź opiera się na dostępnych danych, których analiza rośnie wraz ze wzrostem mocy obliczeniowej maszyny.
Interakcja między słuchaczem, a osobą która prezentuje swoje postulaty nie będzie miała odpowiedniej jakości bez mowy ciała. Gesty, mimika twarzy , tonacja głosu , czy ubiór to elementy nierozłączne z tym, aby przekonać odbiorcę do swoich racji. Merytoryka argumentacji jest ważna, ale najważniejsze jest tak poprowadzić swoją wypowiedź, aby główny jej przekaz dotarł do słuchacza. Sama świadomość rozmowy z „maszyną” nie ma takiego zabarwienia emocjonalnego jak interakcja z drugim człowiekiem.
Plusem debaty ze sztuczną inteligencją może być trening w sztuce rozmowy i mediacji w ważnych dla nas sprawach.
Kacper Waśniewski
Zgadzam się ze stwierdzeniem, że interakcja ze słuchaczem może być słabsza niż z człowiekiem w czasie debaty. Jednak IBM Debater moim zdaniem przyczyni się do rozwoju debat jako ich sędzia sprawdzający poprawność argumentacji oraz jej celność. Suche fakty są ważne w czasie debaty, i o ile maszyna ta mogłaby nie sprawdzić się najlepiej w samej dyskusji, o tyle w ramach jej rozstrzygania mogłaby mieć kluczowe znaczenie.
Powyższe wpisy (Eliasz Mechatronik, Paweł Stacewicz) wydają się wskazywać na to, że ponieważ umiejętne stosowanie elementów peryferyjnych przekazu (takich jak np. artykulacja, tempo mówienia, gestykulacja, czy ogólnie zastosowanie figur retorycznych) może wzmocnić przekaz treści, ich oczywisty brak u argumentujących maszyn znacząco osłabia siłę perswazyjną ich argumentacji (choćby była ona w wysokim stopniu racjonalna).
W tym kontekście pojawia sie pytanie: czy w ogóle, a jeśli tak, to w jakim stopniu (może jedynie w bardzo niewielkim zakresie), byłoby jednak możliwe opanowanie przez debatujące programy pewnych retorycznych elementów przekazu argumentacyjnego?
Być może nie chodziłoby tu np. o realizację tak ambitnego zadania, jak np. zsynchronizowania gestykulacji z przekazywanymi treściami (a biorąc pod uwagę aktualny, nieprzypominający człowieka, wygląd IBM Debater pytanie o możliwość takiej synchronizacji jest wręcz niezasadne), ale czy można byłoby ewentualnie wskazać racje na rzecz zaakcentowania przez debatującą sztuczną inteligencję innych elementów peryferyjnych (takich jak np. liczba powtórzeń głównego stanowiska czy kluczowego argumentu)? Ponadto, jeśli zaś wyobrazimy sobie, że realizacja takiego celu (w pewnym ograniczonym stopniu) byłaby możliwa, to można także zapytać o to, czy wniosłaby ona jakąkolwiek nową jakość do argumentacji przeprowadzanej przez sztuczną inteligencję?
Zakładając opanowanie pewnych retorycznych elementów przekazu przez IBM Debater, nasuwa się pytanie, jak zostałoby to odebrane przez słuchaczy. Czy rzeczywiście jako elementy retoryczne wypowiedzi, czy może jako coś mechanicznego i sztucznego.
Wydaje mi się, że takie minimalne ulepszenie retoryki wypowiedzi nie wniosłoby nowej jakości do argumentacji, ponieważ nie przynosi znaczącej zmiany i przede wszystkim nie przychodzi naturalnie. Gdy wypowiada się człowiek, jego gesty, tempo mówienia itp. są (przeważnie) mimowolne i naturalne. Często wzbudzają też w odbiorcach określone emocje. Ciężko wyobrazić sobie, by debatująca sztuczna inteligencja mogła podołać temu zadaniu.
Z drugiej jednak strony, drobne zmiany mogą prowadzić do wielkich osiągnięć, dlatego też praca nad coraz lepszą retoryką IBM Debater może mieć większą wartość niż moglibyśmy sobie obecnie to wyobrazić. Każde kolejne ulepszenie prowadzi do coraz prawdziwszego poczucia rozmowy z drugim człowiekiem. Niewykluczone, że kiedyś poczucie nienaturalnej rozmowy z maszyną zacznie zanikać na skutek działania podświadomości. Może być to analogiczne do świadomości stosowania przez kogoś manipulacji czy technik wywierania określonego wrażenia. Bardzo często ulegamy im nawet gdy doskonale wiemy jak działają stojące za nimi mechanizmy psychologiczne.
Przykładem może być szeroko pojęta zasada wzajemności mówiąca o tym, że człowiek ma potrzebę odwdzięczenia się gdy ktoś podaruje mu coś lub wyświadczy przysługę. Nawet mając świadomość tej zasady, ciężko pozbyć się poczucia zobowiązania wobec kogoś.
Jeśli sztuczna inteligencja zostanie rozwinięta do odpowiednio wysokiego poziomu, analogicznie do wyżej opisanej zasady wzajemności, nawet nasza świadomość i wiedza na temat tego jak działa sztuczna inteligencja może nas zawieść.
Ciekawe w tym komentarzu wydają mi się między innymi następujące wątki:
– niekoniecznie udane upodabnianie się debatującej sztucznej inteligencji do człowieka wykorzystującego intonację, artykulację, tempo mówienia, liczbę powtórzeń przekazu itp. mogłoby wywołać u odbiorców efekt odwrotny do zamierzonego;
– ewentaualną wartość dodaną nowych własności debatującej sztucznej inteligencji (o ile zostałyby one dodane) będziemy mogli dostrzec (ocenić) dopiero po uzyskaniu reprezentatywnej próby dyskusji z jej udziałem; nie jest wykluczone, że odbiorcy możliwie szybko przyzwyczailiby się do jej specyfiki i w ten sposób, jak to zostało ujęte, „poczucie nienaturalnej rozmowy z maszyną zacznie zanikać”.
W odpowiedzi do Marcin Koszowy
W momencie, gdy stwierdzamy, iż brak możliwości stosowania elementów peryferyjnych przekazu przez sztuczną inteligencję, osłabia jej możliwości przekonywania, może warto zastanowić się jak wyeliminować lub ominąć ten problem.
W obecnym czasie, gdy na świecie panuje pandemia koronawirusa, duża część mediów nie zaprasza gości osobiście, lecz decyduje się na transmitowanie wideo rozmowy. Gdyby nadać sztucznej inteligencji wirtualne ciało zamiast robotycznej formy, łatwiej i szybciej można by było dać jej możliwość wspierania przekazu mimiką „twarzy” czy gestykulacją. Gry komputerowe (głównie fabularne, np. seria Uncharted, czy Telltale The Walking Dead) na przestrzeni dekady zrobiły ogromny postęp w kierunku fotorealizmu i ukazania ludzkich emocji. Najnowsze tytuły pokazują, jak bardzo ludzkie mogą być wirtualne twory. Jeśli nadalibyśmy sztucznej inteligencji właśnie taką formę, oraz dali jej możliwość wypowiedzi w formie „wideokonferencji” to prawdopodobnie rozwiązalibyśmy tę niedogodność w dużym stopniu.
Moim pomysłem na ominięcie wspomnianej wady jest odejście od formy wypowiedzi w czasie rzeczywistym, całkowita rezygnacja z syntezy mowy i skupienie się nie na głosie, lecz na treści w formie tekstu. Skoro sztuczna inteligencja jest w stanie argumentować na poziomie profesjonalnego mówcy i uczestnika debaty, to skąd wiemy, że nie jest twórcą jednego z komentarzy zamieszczonego pod tym postem? Gdyby była anonimowa i ukrywała się pod pseudonimem tak jak ja, to istnieje bardzo małe prawdopodobieństwo, że ktokolwiek by ją zdemaskował (przez co mam na myśli patrzenie na jej wypowiedź przez pryzmat stereotypu/obawy przed nieludzką inteligencją).
Podsumowując, stwierdzam iż pole do rozwoju sztucznej inteligencji jest duże i nie koniecznie związane ze sposobem jej myślenia i budową jej „mózgu”, lecz rozwinięciem jej wirtualnego avatara, lub umiejscowienia jej w środowisku, w którym może działać w obecnej formie, niemożliwa do zidentyfikowania.
Odpowiedź do Eliasz Mechatronik:
Konsekwencją odejścia od wypowiedzi sztucznej inteligencji w czasie rzeczywistym byłoby zaniechanie debat podobnych do tej między Harishem Natarajanem a IMB Debater.
Jeśli dobrze zrozumiałem, to wypowiedź na ten temat można zrozumieć jako sugestię, aby zamiast wysiłków zmierzających do upodabniania debatującej sztucznej inteligencji do człowieka (w celu uczestniczenia przez nią w dyskusjach „na żywo” z udziałem publiczności) skoncentrować się raczej na doskonaleniu umiejętności budowania przez sztuczną inteligencję złożonych struktur argumentacyjnych oraz na sile argumentacji. Natomiast udział w debatach na równi z ludźmi byłby kwestią mniej istotną z punktu widzenia kierunków rozwoju debatującej sztucznej inteligencji. Czy tak można rozumieć to stanowisko?
Zgadza się. Dzięki temu sztuczna inteligencja mogłaby istnieć w cyberprzestrzeni i mieć realny wpływ na tematy poruszane w przestrzeni publicznej.
Aby dokładniej przybliżyć moją wizję, posłużę się przykładem. W sieci można znaleźć wpisy użytkownika posługującego się pseudonimem „Matka Kurka”. Zdarzyło się, że postawił on tezę, jakoby organizatorzy Wielkiej Orkiestry Świątecznej Pomocy nie rozliczali się w pełni z zebranych pieniędzy. Twierdzenie poparł argumentami w postaci dokumentów prawnych zamieszczonych na rządowej stronie zbiorki.gov.pl. W pewnym momencie w mediach było bardzo głośno o tej postaci, a tematy które poruszyła, były kontynuowane w przestrzeni publicznej. Dzisiaj wiemy, że „Matka Kurka” to Piotr Wielgucki, ale to nie jest ważne w poruszanej kwestii,
Gdyby argumentującej sztucznej inteligencji, która jest w stanie zbierać dane i statystki (takie jak dokumenty prawne), analizować je i łączyć z innymi faktami (takimi jak wydarzenia kulturowe czy afery polityczne), aby udowodnić tezę, to nawet gdyby posługiwała się pseudonimem i umieszczała gdzieś w internecie swoje artykuły, miałaby dużą szansę, by zyskać rozgłos, przy jednoczesnym braku lekceważenia jej argumentów jako wirtualnego tworu.
Wierzę, że wystarczy nieznacznie zmienić kierunek rozwoju programów pokroju IBM Debater, aby wywarły one duży wpływ na społeczeństwo.
Opis ten wydaje mi się zbieżny z projektami wpisującymi się w ideę „Argument Web”, której realizację można scharakteryzować w kategoriach budowania systemu narzędzi, systemów i usług służących do analizy argumentacji oraz promowania racjonalnej aktywności argumentacyjnej w sieci.
Artykuł na ten temat, zatytułowany „The Argument Web: An Online Ecosystem of Tools, Systems and Services for Argumentation”, opublikowany w 2017 r. w czasopiśmie „Philosophy and Technology” dostępny jest pod adresem:
https://link.springer.com/article/10.1007/s13347-017-0260-8
Ja mam pomysł jak można wprowadzić pewne elementy retoryczne do debatujących programów. Zanim jednak przejdę do rozwinięcia pomysłu, to trzeba powiedzieć czym dla odbiorcy jest mowa ciała.
Dzięki mowie ciała możemy w pełni zrozumieć osobę, jest niczym naturalny język człowieka którym możemy bez słów się porozumiewać. Można też mowę ciała potraktować jak praktycznie nieskończony zbiór symboli które my jako ludzie rozumiemy. Maszyna, żeby stosować mowę ciała musiałaby wyglądać identycznie jak człowiek, co już jest wielką przeszkodą, to do tego musiałaby perfekcyjnie znać zbiór symboli mowy ciała i korzystać z nich w dobrym momencie. Nawet wtedy myślę, że nasz idealny android miałby problem z przekonywaniem ludzi, co poprzez analogię uzasadnię. Fakt dalej istnienia teatrów mimo istnienia kin wskazuje, że zawsze będziemy przywiązani do żywego człowieka i do unikatowej mowy ciała, nieważne jak dobrze nagralibyśmy spektakl to zawsze będziemy czuli sentyment do teatru.
Przechodząc do pomysłu to zamiast o uczłowieczaniu maszyny pomyślałem o użyciu innego zbioru symboli który równie dobrze jak mowa ciała może opisać emocje i oddać informację czyli rysunków. Robot przed debatą tak samo jak przygotowuje argumenty może przygotować ilustracje i rysunki, a może nawet animacje, które mogą przydać się podczas wypowiedzi. Wyświetlałby je w odpowiednich momentach które w wyjątkowy i obrazowy sposób opisywałyby dla odbiorcy debaty całą wypowiedź maszyny. Gdyby maszyna dobrze dobierała te grafiki, co jest możliwe patrząc na ogrom zdjęć w internecie, to według mnie mogłaby zastąpić mowę ciała. Maszyna zyskałaby swój własny sposób na wywieranie emocjonalnego wpływu na ludzi.
Pomysł wpadłem oglądając bardzo popularny kanał na youtubie – Kurzgesagt (adres kanału: https://www.youtube.com/channel/UCsXVk37bltHxD1rDPwtNM8Q). Kanał ten w formie krótkich 5-10 minutowych animacji tłumaczy skomplikowane i ciekawe tematy. Same odcinki są rzetelnie przygotowywane i informacje są brane ze sprawdzonych źródeł, jeden odcinek zajmuje około 1200 godzin pracy (link do odcinka: https://www.youtube.com/watch?v=uFk0mgljtns). Nie spodziewam się od maszyny żeby w przeciągu kilku godzin umiała zrobić własny odcinek w stylu Kurzgesagt (chociaż w przyszłości kto wie…) ale myślę, że dobrej jakości prezentację lub prostą animację potrafiłaby zrobić.
Tak więc zamiast dążyć do upodobnienia debatujących maszyn do ludzi można byłoby ewentualnie zmierzać w kierunku wypracowania innego sposobu komunikacji niewerbalnej, która w dużo bardziej skuteczny sposób ułatwiałaby przetwarzanie przez audytorium argumentacji przedstawianej przez sztuczna inteligencję. Być może w realizację tego pomysłu wpisywałoby się wykorzytanie diagramów argumentacji.
Ciekawą kwestią wydaje się również to, jak tego typu propozycje sprawdziłyby się w debatach prowadzonych na żywo z udziałem publiczności i jakie byłyby techniczne ograniczenia związane z ich ewentualną realizacją.
W pierwszej kolejności chciałbym zwrócić uwagę na pewien fakt. Powołując się na cytat „praktycznie nieskończony zbiór symboli”, można stwierdzić ,że mowa ciała jest swego typu językiem. Jednak w takim razie powołując się na badania na temat, wiemy że w większości języków , pomimo ich rozbudowanych struktur, do komunikacji codziennej wystarczy znajomość około 500 słów. Co już stanowi duże ułatwienie przy tworzeniu takiego robota, z uwagi na względnie małą bazę.
Wydaje mi się , że sprecyzowana powinna zostac rowniez uniwersalność języka ciała. Na pewnych obszarach rzeczywiscie mowa ciała jest identyczna, jednak w wielu krajach swiata znak Victorii jest symbolem obraźliwym, gdzie w naszej kulturze jest odbierany jako neutralny lub pozytywny. Zwykłe skinięcie głową, znaczy tak oraz nie w zaleznosci od regionu. Jak widać , stwierdzenie”Dzięki mowie ciała możemy w pełni zrozumieć osobę, jest niczym naturalny język człowieka którym możemy bez słów się porozumiewać.” jest poprawne, jednak tylko w kontrolowanych warunkach.
Kończąc, poddałbym w wątpliwość problem z odtworzeniem mowy ciała przez roboty. Nawet już w dzisiejszych czasach ludzkość może pochwalić się robotami z ludzką mimiką (https://www.youtube.com/watch?v=2017kmkEukE), maszynami biegajacymi a nawet robiacymi salta (https://www.youtube.com/watch?v=_sBBaNYex3E)(https://www.youtube.com/watch?v=uhND7Mvp3f4).
Dokładając do tego AI przyszłości, uważam że ludzkie roboty nie tylko opanują mowę ciała bez najmniejszych problemów, ale nawet hipotetycznie, będą w stanie przewyższyć w niej człowieka, gdyż jesteśmy tylko ludźmi i w porównaniu do maszyn nasza pamięć jest po prostu ulotna.
Nie zgadzam się ze stanowiskiem, że projekty takie jak IBM Debater mogą wpłynąć na przyszły sposób prowadzenia debat. Oczywiście, zgadzam się, że robot w swoim założeniu, nie jest wyposażony w emocje, dzięki czemu jego wypowiedzi są racjonalne, ponieważ opierają się jedynie na faktach. Być może miałoby to zastosowanie w trakcie doskonalenia umiejętności dyskusji, ponieważ sztuczna inteligencja zbijałaby błędnie formułowane argumenty. Ponadto zgadzam się ze stanowiskiem Pana Piotra Wieżela, sztuczna inteligencja zdecydowanie lepiej sprawdziłaby się analizując prawdziwość i poprawność przytaczanych przez strony dyskusji danych. Dzięki swojej szerokiej bazie danych i oraz dużej mocy obliczeniowej, która ciągle się zwiększa ocena wypowiedzi byłaby natychmiastowa.
Podczas debaty każdy obserwator stara się obiektywnie ocenić trafność argumentacji debatujących stron, jednakże całkowita obiektywność jest niemożliwa. Mimo wszystko ludzie mają tendencję do utożsamiania się z pewnymi ideałami reprezentowanymi przez strony dyskusji, co wpływa na ocenę stron. Dodatkowo sama prezencja osób debatujących odkrywa tutaj ogromna rolę. Mówi się, że mowa niewerbalna stanowi aż 93% komunikatu, stąd ogromna rola gestykulacji czy też pracy głosem. Myślę, że przykład debaty prezydenckiej przytoczonej przez Eliasza Mechatronika świetnie się do tego nadaje. Niezależnie od osobistych poglądów politycznych, kiedy widzimy kandydata, który skupia się na racjonalnej odpowiedzi na pytania zadane przez prowadzącego, stanowczo zaznacza swoje poglądy oraz akcentuje najważniejsze punkty swojej wypowiedzi, przekonuje ludzi najbardziej.
Dodatkowo ludzie, w przeciwieństwie do robotów, są w stanie zaprezentować zdecydowanie szerszą perspektywę problemu niż roboty, ponieważ są w stanie ocenić nastroje i opinie społeczeństwa na dany temat, przez co może trafić w uczucia publiczności.
Ostatecznie uważam, że projekt IBM Debator jest na pewno bardzo ciekawym eksperymentem, który może przynieść wiele ciekawych wniosków na tematy argumentacji oraz debaty, jednakże samo wykorzystanie robota firmy IBM niekoniecznie musi pokrywać się z pierwotnym założeniem – uczestnika debaty.
W nawiązaniu do stwierdzenia: „sztuczna inteligencja zdecydowanie lepiej sprawdziłaby się analizując prawdziwość i poprawność przytaczanych przez strony dyskusji danych”, można ewentualnie wskazać na takie zastosowania technologii argumentacyjnych, jak w przypadku aplikacji Evidence Toolkit:
https://evidence-toolkit-moral-maze.pilots.bbcconnectedstudio.co.uk/
Jest to aplikacja, która wspomaga analizę argumentacji zawartej w artykułach prasowych dzięki funkcji „reason checker” (autorzy wykorzystują tu analogię do „spell checker”), ułatwiającej użytkownikowi identyfikowanie w tekście struktury rozumowania oraz ocenę siły argumentacji przeprowadzonej przez autora danego artykułu.
Tematyka ta wydaje się pośrednio dotyczyć debatującej sztucznej inteligencji (której zadaniem jest konstruowanie wypowiedzi argumentacyjnych), a także być zgodną ze wskazanymi w tej dyskusji innymi zastosowaniami technologii argumentacyjnych niezwiązanymi jedynie z debatowaniem, ale także z analizą i oceną poprawności oraz siły wypowiedzi argumentacyjnych.
W odniesieniu do pierwszego tematu, pozwolę sobie podzielić się zgoła odmienną opinią od poprzednich szanownych komentujących. Piotr Wieżel zasugerował ,że podczas debaty hackerzy mogliby sterować argumentacją AI na swoją korzyść. Jednak już w dzisiejszych czasach debaty często są wspierane przez komputery i programy analizujące. Rozpatrzmy więc „przyszłość” w bardziej odległej perspektywie.
Postęp technologiczny rozwija się w zatrważającym tempie. Pieniądze płynące na rozwój AI oraz innych gałęzi tej branży są niewyobrażalne. Istnieje duża grupa osób , która uważa że prawdziwą AI uda się stworzyć jeszcze w tej połowie wieku. Zatem skoro mówię o przyszłości, pozwolę sobie zatem przyjąć scenariusz w którym taka sytuacja już zainstaniała. Twór taki (w dalszej częsći będę nazywać go OLAF dla łatwości czytania i skrótowego zapisu) posiadałby dostęp do wszystkich informacji udostępnionych przez człowieka od początku jego dziedzictwa, co więcej, mógłby je wszystkie przetworzyć , o czym pojedynczy człowiek może tylko pomarzyć. Ludzkość nie byłaby w stanie dorównać Olafowi, chociażby z uwagi na ograniczoność naszej anatomii.
Zatem odwołując się do pierwszego akapitu i przechodząc do meritum. Po pierwsze pozwolę sobie rozszerzyć w/w argument o hackerach, uważam ,że jeśli dopuszczamy teoretyczne istnieje Olafa, to żaden człowiek nie byłby w stanie dorównać mu , a tym bardziej przejąć nad nim władzy, co niesie ze sobą stwierdzenie, że moim zdaniem taka pomoc w debacie byłaby w pełni niezależna i można by jej zaufać.
Jednak teraz przejdziemy do wątku ciekawszego. Wszyscy zgodzimy się zapewne, że tak rozbudowana maszyna na pewno jest w stanie „zbić” każdy argument. Jednak czy debatowanie w kontekście Olafa ma jeszcze sens? Niech do jego powstania upłynie kilka pokoleń. Będzie miał on do tego czasu dostęp do kilkunastu miliardów naszych codziennych przemyśleń którymi tak chętnie bezwiednie dzielimy się na social mediach. Będzie miał dostęp do wszystkich argumentów kiedykolwiek sformułowanych przez ludzkość. Nie wspominając już o stopniu w którym mógłby zinfiltrować swojego oponenta. Jeszcze zanim wypowiemy pierwsze słowo, Olaf będzie w stanie ustalić swoje stanowisko, zobaczyć jakie teoretycznie stanowisko my możemy przyjąć i już mieć odpowiedź na każdy nasz argument, która w dodatku była udoskonalana przez wiele ostatnich lat.
Debatowanie od zawsze miało na celu przekonanie odbiorcy do swojego zdania , ewentualnie do poszerzenia spojrzenia obu strona na dany temat. Jednak tu spotykamy się z sytuacją , gdzie jedna ze stron ma już swoje stanowisko, które w kontekście „wszechwiedzy” zerojedynkowo jest poprawne. Zatem jedynym skutkiem takiej rozmowy, mogłaby być unifikacja poglądów wszystkich rozmówców z tą „poprawną”. Tyczyłoby się to praktycznie każdego tematu. Zatem moim zdaniem należałoby zmienić tezę z tego czy będzie mieć wpływ na przebieg debat, na pytanie czy wpływ Olafa nie będzie tak wielki, ze debatowanie straci swój pierwotny sens.
Do Mikołaj Zalewski:
Czy można zatem rozumieć końcową część tej wypowiedź w taki sposób, że postulowane zbudowanie sztucznej inteligencji potrafiącej bezbłędnie argumentować oraz wyszukiwać najmocniejsze racje we wszystkich dostępnych zasobach danych postawiłoby nas de facto w sytuacji, w której zanikłyby dyskusje (zamiast stanowić inspirację dla rozwoju i upowszechnienia technik racjonalnego argumentowania)?
Odpowiedź nie będzie niestety jednoznaczna.
Oczywiście, w gronie ludzkim dyskusje nadal istniałyby oraz nawet „bezwzględnie poprawne” tezy byłyby dyskutowane z jednej prostej przyczyny – ludzie nie są idealni i nawet mówiąc zdanie prawdziwe, możemy je wypowiedzieć w sposób pozwalający słuchaczowi podważyć prawdziwość tezy(przekręcić słowo,źle zaintonować,zapomnieć ważnej kwestii).
Jednak jeśli chodzi o dyskusje nie dla przyjemności , lecz dla ustalenia „bezwzględnie poprawnego” stanowiska, to tak – zbudowanie sztucznej inteligencji potrafiącej bezbłędnie argumentować oraz wyszukiwać najmocniejsze racje we wszystkich dostępnych zasobach danych postawiłoby nas de facto w sytuacji, w której zanikłyby dyskusje. Ludzie nie byliby w stanie konkurować z maszyną, a maszyny działałyby na tej samej bazie danych więc ich stanowisko byłoby jednoznaczne. Zatem dyskusje zanikłyby w sposób naturalny.
Mikołaj Zalewski
Nie zgadzam się ze stanowiskiem postawionym w ostatnim akapicie. Warunkiem zaniknięcia dyskusji „dla ustalenia bezwzględnie poprawnego stanowiska” jest stworzenie sztucznej inteligencji, która nie tylko znajdzie dokumenty wytworzone przez człowieka: dane, analizy, statystyki, ale będzie też myśleć twórczo i rozwiązywać problemy abstrakcyjnie, stawiać nowe cele i formułować filozoficzne pytania. W przeciwnym wypadku człowiek nadal przewyższy ją swoją wyobraźnią i myśleniem „out of the box”.
W nawiązaniu do wcześniejszej wypowiedzi nie wydaje mi się, żeby złożone problemy miały jedno jedyne poprawne rozwiązanie. Analiza zjawisk fizycznych i procesów zachodzących w przyrodzie ma tylko jeden poprawny opis (często te obecnie przyjęte są błędne i z czasem mogą być poprawione), jednak problemy społeczno-gospodarcze wiążą się z siecią powiązań i zależności. Często jedna błędna decyzja potrafi wywołać efekt domino. Czasem rozwiązanie problemu podyktowane jest ludzką moralnością, a nie optymalizacją zysku.
„Rozpatrzmy więc “przyszłość” w bardziej odległej perspektywie.”
Pozwolę się nie zgodzić. W wyżej wymienionych słowach jest oczywiście sama prawda, jednak już w dzisiejszych czasach czasach istnieją maszyny potrafiące ślepo kontrargumentować i prowadzić „poprawne” rozważania.
W moim stanowisku rozpatruje (cytat) sytuacje hipotetyczną. Zatem w założeniu miałem myśl, iż sztuczna inteligencja powołując się na aktualne tempo rozwoju tej dziedziny, osiągnie taki poziom że to ona będzie myśleć nieszablonowo i o rzeczach które nigdy nie przeszłyby nam przez myśl.
Mózg jest tylko wielkim zlepkiem neuronów. Więc pomimo tego, jak imponujące rzeczy potrafi wytworzyć, to pozostaje ciągle ograniczony fizycznie. Komputery nie mają tego problemu – wymienienie jakiejś części na nową , sprawniejszą i szybszą to tylko chwila.
Konkludując, uważam że szanowny kolega wyprowadził wniosek na podstawie złego założenia, lub sam założył tezę iż roboty nigdy nie będą potrafiły myśleć samodzielnie i „out of box” co jest sprzeczne z ideą AI. Zatem moje stanowisko wciąż uważam za poprawne – zbudowanie prawdziwej sztucznej inteligencji potrafiącej postawiłoby nas de facto w sytuacji, w której zanikłyby dyskusje.
*Jeśli moje założenia były zbyt mało klarowne, to przepraszam za wprowadzenie w błąd
Myślę, że to ważne rozróżnienie. Jak to już zauważył m.in. Eliasz Mechatronik, to od celu dyskusji zależeć może to, jaki byłby zakres zastosowań debatujacej sztucznej inteligencji.
Jeśli celem byłoby rozstrzyganie sporów na temat świata, co jest związane z Leibniza projektem uniwersalnego języka oraz rachunku, dzięki którym maszyny matematyczne mogłyby rozstrzygać spory naukowe, to (jeśli powstałaby taka „debatująca superinteligencja”) rola człowieka mogłaby zostać znacząco ograniczona.
Osobiście częściowo zgadzam się, z punktem widzenia Pana Mikołaja Zalewskiego. O ile nie ulega wątpliwości, że twór, jakim jest Olaf po pewnym czasie stałby się odporny na wszelkie próby hakowania ze względu na wszechwiedzę, to jednak ostatni akapit sprawia, że muszę wejść w polemikę. Moim skromnym zdaniem nie istnieje jeden jedynie prawdziwy pogląd. Według mnie każdy pogląd jest w pewnym sensie prawdziwy, a udowadnianie jego poprawności polega na użyciu sztuki pięknej mowy i pasujących danych do przekonania o słuszności swoich przekonań. Obawiam się również, że próby unifikacji poglądów mogą nie wypaść najlepiej, ze względu na czasami nawet wykluczanie przeciwstawnej ideologii już w samej definicji. Przykładem może być tutaj militaryzm i pacyfizm, których w mojej ocenie nie da się połączyć. Z tego względu komputery takie, jak chociażby wspomniany powyżej Olaf po zgromadzeniu całej wiedzy nie mogłyby wybrać jednego poprawnego poglądu, bo taki nie istnieje, ani dokonać ich unifikacji, niektóre poglądy się wykluczają. Jedyne, co mu pozostanie to dobieranie argumentów do danego stanowiska. Sama debata również nigdy nie przestanie istnieć, a wręcz przeciwnie, z pomocą sztucznej inteligencji może stać się bardziej przekonująca, choć niekoniecznie racjonalna.
Okazuje się, że na większość ludzi to właśnie emocje mają duży wpływ, dlatego przewiduję, że to właśnie w tym kierunku pójdą wszelkie wysiłki związane z ulepszaniem debatującej sztucznej inteligencji.
Osobiście częściowo się zgadzam z punktem widzenia Pana Mikołaja Zalewskiego. Choć nie ulega wątpliwości w mojej opini, że twór posiadający wszelaką poznaną wiedzę byłby odporny na ataki hakerskie, jednak jego wiedza nie przyczyniłaby się do rozstrzygnięcia, które stanowisko jest właściwe. Według mnie każdy pogląd jest w pewnym sensie prawdziwy, a udowadnianie poprawności poglądu polega jedynie na używaniu sztuki pięknej wymowy i przychylnych danych do przekonania innych o jej poprawności. Obawiam się również, że próby unifikacji poglądów mogą nie wypaść najlepiej, ze względu na czasami nawet wykluczanie drugiej ideologii już w definicji tej pierwszej. Dobrym przykładem może być tutaj militaryzm i pacyfizm. Według mnie każdy pogląd jest w pewnym sensie prawdziwy, a udowadnianie poprawności poglądu polega jedynie na używaniu sztuki pięknej wymowy do przekonania innych o jej poprawności. Z tego względu komputery takie, jak chociażby wspomniany powyżej Olaf po zgromadzeniu całej wiedzy nie mogłyby wybrać jednego poprawnego poglądu, przez co nie mogłyby również rostrzygać sporów, a jedynie pomagać osobom debatującym dobierać argumenty do wybranego stanowiska. Niewątpię, że powstanie myśląca maszyna posiadająca określony światopogląd i ideologie, jednak i tutaj prawie na pewno zaczerpnięte od swojego konstruktora.
Ze względu na powyższe argumenty debata nigdy nie przestanie istnieć, a wręcz przeciwnie, z pomocą sztucznej inteligencji może stać się bardziej przekonująca, ale również i zacięta.
Projekt IBM debater może w przyszłości przyczynić się do rozwoju krytycznego myślenia w przypadku dzieci.
Uczeń myślący krytycznie będzie racjonalnie i uporządkowanie rozumował na postawione przed nim tematy. Rozpozna, i jeżeli będzie potrzeba to naprawi błędy w swoim rozumowaniu. Często w młodym wieku jest to trudne, jednakże w niedalekiej przyszłości właśnie sztuczna inteligencja może pomóc w nauce argumentacji swojego stanowiska. W przypadku fałszywych założeń lub faktów w szybki sposób zostanie naprowadzony na odpowiednie tory. W dobie Internetu dzieci mają dostęp do wielu źródeł informacji, które nie zawsze są rzetelne. Dzięki sztucznej inteligencji uczniowie będą mogli porozumieć się z „maszyną” która przedstawi dany problem w sposób logiczny i dobrze go uargumentuje.
Uczeń musiałby przyzwyczaić się do pracy ze sztuczną inteligencją, wyglądała by ona zgoła odmiennie niż interakcja dziecko – nauczyciel. Jednakże miała by ona wiele plusów, uczeń mógłby konsultować dane tematy w dowolnym czasie. Maszyna się nie męczy, cały czas jest dostępna. Jeden nauczyciel na trzydziestu uczniów często nie jest wydolny. Sztuczna inteligencja pomogła by w rozumowaniu nowych zagadnień, odpowiedniej retoryce, czy dowodzenia poprawności wiedzy.
Porozumiewanie się z „maszyną” to dla wielu z nas nowe zjawisko. Ludzie powinni się przekonać do sztucznej inteligencji, która wspomoże nasze przyszłe działania.
Jeszcze kilkadziesiąt lat temu nikt nie spodziewał się tak szerokiej komputeryzacji naszego świata, obecnie sztuczna inteligencja i takie projekty jak IBM debater są w fazie rozwoju. Moim zdaniem, przyszłość należy do nich, nie tylko w edukacji, ale też w innych aspektach.
Czy dobrze zrozumiałem, że stanowisko jest takie, iż na wstępnym etapie przyswajania przez człowieka zdolności argumentowania debatująca sztuczna inteligencja oraz technologie argumentacyjne mogłyby stanowić niezwykle przydatne narzędzie (również w celach dydaktycznych), natomiast już po nabyciu owych umiejętności stawałyby się w coraz mniejszym stopniu użyteczne?
Sztuczna inteligencja powinna cały czas się rozwijać , w takim świetle jak przedstawia ją projekt IBM debater możliwe że po nabyciu pewnych umiejętności stawałaby się coraz bardziej mniej użyteczna. Jednakże ciągły jej rozwój znalazłby nowe zastosowania , nie tylko w dydaktyce, co na pewno nie pozwoliło by na poprzestanie korzystania z jej możliwości. Technologia ciągle się rozwija, tak samo człowiek będzie ulepszał sztuczną inteligencję na swoje potrzeby. „Matka potrzebną wynalazków” – ta teza obrazuje to że ludzie dążą do ulepszania swojej rzeczywistości. Oczywiście człowiek musi pamiętać o tym, by się nie podporządkować sztucznej inteligencji, żeby świat wirtualny nie znaczył więcej niż ludzki umysł.
Nie mogę się zgodzić w pełni z opinią Pana Kacpra na temat dydaktycznego wpływu projektu IBM Debater. Uważam, że samo założenie projektu jest dalece odległe od nauki dzieci umiejętności argumentowania swoich racji.
Chciałbym przede wszystkim zauważyć, że IBM Debater to bardzo rozbudowany system sztucznej inteligencji. Można powiedzieć, że jego wiedza jest nieograniczona, a także system ten ma zaimplementowane wiele technik argumentacyjnych. Mógłby być to istotny problem przy nauce dzieci argumentacji – mogłoby się to wiązać z koniecznością przyswojenia zbyt dużej ilości informacji w krótkim czasie.
Uważam, że naukę krytycznego myślenia i sztuki argumentacji wśród dzieci powinni prowadzić dorośli, którzy mają odpowiednie kompetencje w tej dziedzinie. Sądzę, że na początku kluczowy jest kontakt z drugim człowiekiem, wytłumaczenie pewnych mechanizmów działania. Dodatkowo często dorosły posiada większy autorytet u dziecka niż sztuczna inteligencja (robot) oraz jest w stanie lepiej kontrolować jego zachowanie czy reakcje.
Znajduję jednak pewne zastosowanie IBM Debatera, które nie jest mocno odległe od stanowiska Pana Kacpra. Uważam, że takie projekty mogą być cenne dla osób już doświadczonych w debatowaniu, w argumentacji i myślących krytycznie. Takie osoby z wykorzystaniem sztucznej inteligencji mogą przeprowadzać „treningi” argumentacyjne. Może być to prowadzić do dalszego rozwoju, ale kluczowe jest posiadanie pewnych podstaw, których nauczyć powinniśmy się od drugiej osoby.
Chciałbym także podkreślić, że sztuczna inteligencja coraz odważniej wkracza w nasz świat i zmienia go z każdym dniem czy godziną. Nie wiadomo czy już niedługo sztuczna inteligencja nie będzie wspomagała w dużym stopniu nauczycieli w szkołach. Trudno mi w tej chwili wskazać konkretne zadania sztucznej inteligencji w takim nauczaniu, jednak chciałbym zauważyć, że postęp w tej dziedzinie jest na tyle szybki, że nie wiemy co na nas czeka za przysłowiowym rogiem.
Odnosząc się do drugiego akapitu wypowiedzi Pana Piotra. Uważam ,że jest to mało przyszłościowe podejście. Już teraz każdy z nas ma dostęp do internetu w swojej kieszeni, co stanowi – hiperbolicznie- nieskończone źródło informacji. Pomijając konkursy, nie widzę żadnych powodów dla których jako jedna ze stron dyskusji (np. internetowej na owej stronie), nie miałbym korzystać z internetu jako źródła przykładów, lub jako uzupełnienie mojej wiedzy – gdyż jestem tylko człowiekiem i moje zdolności pojmowania i zapamietywania sa ograniczone.
Powiem więcej, uważam, że powinniśmy uczyć nasze dzieci korzystać z dostępnych źródeł informacji i łączenia ich w spójne argumenty logiczne. Niestety lub stety, czas idzie naprzód i nie zamierza sie zatrzymać. Jestem zdania ,że powinniśmy spróbować za nim nadążyć, zamiast zostawać coraz bardziej w tyle przez postawę skrępowaną tradycjami i tym co wypada.
Konkludując, myślę ze IBM Debater mógłby wnieść dużo dobrego do nauki argumentacji u dzieci. Pozwoliłoby im to przygotować się na przyszłość do której nieuchronnie sie zbliżamy i w której korzystanie z nieskończonych źródeł informacji jest na porządku dziennym.
Po zapoznaniu się z wpisem, przeszedłem do sekcji komentarzy, żeby poznać stanowisko innych osób i poniekąd nawiązać interakcję. Nie sposób czasem wymyślić samemu dobre argumenty czy nawet dobrze sformułować swoje stanowisko bez udziału osób trzecich, które wywołują w nas emocje związane albo z podobnym do naszego stanowiskiem albo zupełnie przeciwnym. Wtedy właśnie przychodzi inspiracja w postaci drugiego człowieka, kogoś kto być może ma inny system wartości, poglądy czy sam styl bycia, jednak wciąż zachodzi w nim podobny do naszego proces myślowy (nie zagłębiając się przesadnie w sposób funkcjonowania mózgu). W każdym razie sam fakt interakcji z drugim człowiekiem wzbudza w nas, mam wrażenie, naturalny odruch do rozmowy, wymiany zdań, przekonania kogoś lub też zmiany dotychczasowych poglądów. Oczywiście mowa tu o zwykłej rozmowie, same debaty rządzą się swoimi prawami, a jeśli mowa o debatach konkursowych to zupełnie odrębny temat. Jako osoba, która nie ma dużej wiedzy na ten temat, wierzę jednak, że w każdym z tych przypadków ludzi kieruję ta sama chęć poznawcza – w końcu jak mniemam wybitni specjaliści od debat musieli dużo trenować, traktować to z pasją i mieć typową dla ambitnych ludzi chęć rywalizacji, zwycięstwa. Tym dość długim wstępem chcę naprowadzić wszystkich czytających mój komentarz na pewną prawidłowość. Należy oddzielić kwestię, że robot pozostanie robotem i porównywanie go z ludźmi niesie za sobą zawsze nieco mylne wrażenie. Wydaję mi się, że każdy człowiek w rozmowie z robotem będzie czuć tę lekką sztuczność, brak emocji, brak naturalności, brak tej ludzkiej cząstki, która wpływa na naszą rozmowę. Poniekąd ludzie za sprawą rozwinięcia komunikacji tekstowej (na tak dużą skalę, jaką dał internet) także są pozbawieni emocji, pozamykanych w emotikonach, jednak samo poczucie rozmowy z drugim człowiekiem daje nam ten spokój.
Dążę do tego, że rozprawa nad debatującym robotem powinna być nakierowana nie na czynniki, na które nie ma wpływu – tak jak fakt, że po prostu nie jest człowiekiem. Skupiłbym się na rzeczywistej możliwości rozwoju debat. Moim skromnym zdaniem, te możliwości są ogromne, jednak poszedłbym może w innym kierunku – tu bardzo celna uwaga wyżej na temat potencjalnego wcielenia się IBM Debatera w rolę oceniającego. Niemniej ciekawym pomysłem i obiektem badań mogłyby być eksperymenty z dwoma debatującymi komputerami. Sama próba człowiek kontra komputer jest, mam wrażenie, nieodłącznym elementem ludzkiej natury do przełamywania barier i konkurowania i owszem jest bardzo ciekawym doświadczeniem, jednak sama kwestia sposobu argumentowania i znajdowania argumentów jest nieco inna w przypadku maszyny i człowieka (tu na ten temat, myślę że użytkownik km zawarł wszystko we wpisie z przykładem o ilości posiłków). W końcu należy nadmienić, że nad IBM Debaterem pracowali ludzie, za każdym komputerem stoi człowiek – należy zadać pytanie, kto zatem jest zwycięzcą w wygranej przez komputer debacie. Komputer czy jego projektant?
Niewątpliwie komputeryzacja wchodzi w wiele branży i dotychczas każdy taki wpływ miał dobre skutki lub przynajmniej „nie szkodził”. Z tego też powodu można uznać, że debaty skorzystają na włączeniu takich projektów jak IBM. Należy jednak zgodnie z pierwszym punktem dyskusji odnieść się co do efektywności i racjonalizacji. Pomimo wielu dobrych słów, z tyłu głowy cały czas mam wrażenie, że takie doświadczenia mogą mieć nawet większy wpływ na rozwój sztucznej inteligencji, niż na rozwój debat poprzez sztuczną inteligencję. Na obecnym poziomie zaawansowania, to nadal raczkująca dziedzina, ale przez to prężnie się rozwijająca, a przez to, jeśli wejdzie na bardzo wysoki poziom będzie miała kolosalny wpływ na resztę dziedzin życia – w tym debaty. Podsumowując akapit, cały projekt stanowi dla mnie swoisty barter pomiędzy dwoma tematami: debat oraz SI. Sądzę, że oba czerpią sporo inspiracji i płynie z tego spora nauka, która nawet jeśli nie teraz to w przyszłości może zaowocować zwiększeniem efektywności i racjonalizacji nie tylko w debatach, ale i właśnie w sztucznej inteligencji.
Można byłoby zatem wprowadzić rozróżnienie między (i) wnioskami związanymi z możliwymi kierunkami rozwoju sztucznej inteligencji oraz (ii) wnioskami dotyczącymi ewentualnej modyfikacji sposobu prowadzenia debat.
W zalinkowanym we wprowadzeniu do niniejszej dyskusji materiale (raz jeszcze zamieszczam ten link: https://www.youtube.com/watch?v=3_yy0dnIc58&t=1673s), bezpośrednio po debacie między Harishem Natarajanem a IBM Debater odbyła się dyskusja z udziałem twórców tego projektu: Noamem Slonimem i Ranit Aharonov (moment rozpoczęcia dyskusji: 36:05).
Można byłoby zapytać np. o to, czy tego typu dyskusje mogłyby doprowadzić (choćby w zalążkowym zakresie) do sformułowania konkretnych wskazówek związanych bądź (i) z rozwojem sztucznej inteligencji, bądź (ii) z badaniami nad sposobami prowadzenia sporów, czy też może byłoby to oczekiwanie zbyt optymistyczne?
Jak najbardziej tego typu dyskusje z osobami uznanymi za ekspertów w tej dziedzinie mogą naznaczyć nowe ścieżki rozwoju sztucznej inteligencji. Powszechnie stosowana praktyka chociażby „burzy mózgów” zakłada obecność osób niezwiązanych stricte z danym zagadnieniem, tak niewątpliwie w tym przypadku opinie osób takich jak Pan Harish z dużym prawdopodobieństwem mogą wpłynąć na rozwój SI lub stanowić swoistą inspirację. Tak samo w drugą stronę, sztuczna inteligencja powinna być testowana na różnych płaszczyznach i niekiedy nawet będąc wciąż w cieniu ludzi, notując braki w podstawowych umiejętnościach jakie posiada człowiek, może być inspiracją dla rozwoju dziedzin, takich jak wspomniane debaty. Myślę więc, że nie jest to oczekiwanie zbyt optymistyczne, wszak wszędzie tam gdzie spotykają się „wielkie głowy” z różnych światów, tam powstaje często coś niezwykle ciekawego i nieprzewidywalnego. Mam nadzieję, że dobrze zrozumiałem Pański komentarz.
W wielu wypowiedziach przewinął się argument dotyczący braku elementów retorycznych wypowiedzi, takich jak np. gesty, emocje czy intonacja u debatujących maszyn, co jest argumentem logicznym i uzasadnionym, jednakże nie zgadzam się z nim w 100%. Rzeczywiście, słuchając debaty z udziałem IBM Debater, wrażenie jest bliższe raczej słuchaniu tekstu czytanego przez popularny syntezator mowy Ivona, niż wypowiedzi uczestnika poważnej debaty, jednak można zauważyć pozytywny, takie jak np. dłuższe przerwy na znakach interpunkcyjnych czy dobrze rozmieszczone akcenty. Nadaje to wypowiedzi ciut więcej melodyjności i sprawia, że jest mimo wszystko przyjemniejsza dla ucha.
Zgodzę się również z tym, że obecny wygląd IBM Debator nie nadaje się do obsługiwania gestów, jednak w przyszłości można zmienić jego formę na bardziej zbliżoną posturze człowieka. Synchronizacja wszystkich gestów z wypowiadanymi słowami może nie być możliwa (przynajmniej nie idealnie), jednakże podczas debat/prezentacji, występujący wykonują pewne neutralne gesty, które nie mają bezpośredniego powiązania z sensem ich wypowiedzi. Robot mógłby wykonywać właśnie taki zestaw gestów, płynnie przechodząc między nimi, co urozmaiciłoby jego wypowiedzi. Pytanie brzmi: co z odbiorem takich gestów przez słuchaczy? Obecnie projektowane są tak zaawansowane roboty humanoidalne, że nie sposób nie pomylić ich z człowiekiem. Gdyby połączyć ze sobą te dwa projekty, umożliwić im wykonywanie właśnie wspomnianych przeze mnie gestów, a ponadto przeprowadzić debatę z udziałem widzów nieświadomych tego, że jedną z debatujących stron jest maszyna, jestem przekonana, że robot odniósłby sukces – głównie przez to, że wizualnie robiłby lepsze wrażenie. Jego obecny wygląd nie pozwala zapomnieć słuchaczom, że to jedynie maszyna, zaprojektowana i zaprogramowana, żeby recytować wiadomości znalezione w internecie.
Szukając informacji na temat możliwości wyrażania emocji przez roboty, natrafiłam na artykuł o robocie, którego twarz może wyrażać emocje w sposób identyczny jak twarz człowieka. Jest to maszyna o nazwie FACE (Facial Automaton for Conveying Emotions). Naśladowanie mimiki człowieka możliwe jest dzięki zastosowaniu aż 32 silników, które poruszają skórą robota, w ten sam sposób jak robią to ludzkie mięśnie. Dzięki temu może wyrażać takie emocje jak radość, strach, smutek, gniew, zdziwienie itp. Uważam, że wykorzystanie tego pomysłu podczas tworzenia maszyny debatującej, mogłoby odnieść duży sukces – wypowiedzi urozmaicane mimiką są dużo lepiej odbierane przez słuchaczy (nie tylko w przypadku robotów).
Ciężko jest mi zająć jednoznaczne stanowisko w dyskusji o tym, czy sztuczna inteligencja może wnieść nową jakość do debat. Na ten moment – raczej nie. Jednakże biorąc pod uwagę wszystkie powyższe zaproponowane przeze mnie możliwości ulepszenia maszyn debatujących oraz ogrom informacji, do których mają dostęp dzięki temu, że korzystają z internetu, uważam, że w przyszłości mają na to duże szanse.
W kwestii pierwszego poddanego dyskusji stanowiska na temat wpływu sztucznej inteligencji na sposób prowadzenia debat, podzielam zdanie wielu osób piszących pod tym wątkiem zwracających uwagę na fakt, że w debacie poza suchą merytoryką i logiczną argumentacją kluczową rolę grają niebezpośrednie metody perswazji. Wpływ sztucznej inteligencji jako niejako „wzorca logicznego myślenia” nie wpłynąłby na sposób czy formę prowadzenia debat z tego względu, że ostatecznym celem uczestniczenia w debacie, zwłaszcza takiej prowadzonej przed publiką, jest jednak jej wygranie. Z tej perspektywy, przewaga sztucznej inteligencji na płaszczyźnie dobierania rzeczowych argumentów popartych odpowiednimi badaniami staje się niejako „obosiecznym mieczem”. W mojej opinii niemożliwym jest żeby człowiek kierował się w stu procentach logiczną argumentacją i dowodami. Ludzie, niezależnie od ich statusu społecznego czy poziomu wykształcenia, w mniejszym lub większym stopniu podatni są na sugestie czy wpływ ich własnych emocji na stanowiska jakie obejmują. Sztuczna inteligencja w takiej debacie przegrałaby, pomimo bycia bardziej merytoryczną, jednak widzę tutaj potencjał sztucznej inteligencji jako bezstronnego mediatora, dbającego o porządek w trakcie debaty aby nie wymknęła się spod kontroli lub dyskusja nie przesunęła się zbytnio na inny tor.
W kwestii drugiego założenia poddanego dyskusji moim zdaniem dobrym porównaniem, choć z pozoru banalnym mogłoby być to w jaki sposób współczesne urządzenia jak laptopy czy smartfony „uczą się” swoich użytkowników. Reklamy dostosowane pod kątem naszych wyszukiwań czy zainteresowań, algorytmy wpisywania tekstu sugerujące następne słowo w oparciu o charakter, słownictwo i styl pisania użytkownika. Są to oczywiście zabiegi oparte na prostym śledzeniu aktywności użytkownika, jednak w mojej opinii nie byłoby przeszkodą rozwinięcie sztucznej inteligencji do takiego poziomu, aby w oparciu o dostępne w sieci zasoby, spory na forach, nagrania rozmów czy przykładowe dyskusje modelowała swój sposób argumentacji. Tutaj wartościowy przykład podał użytkownik Mikołaj Zalewski. Biorąc pod uwagę jak wysoką aktywnością w sieci cechuje się współczesne społeczeństwo, sztuczna inteligencja mogłaby również w oparciu o aktywność internetową oponenta modelować celniejsze i skuteczniejsze riposty czy kontrargumenty wycelowane w słabości postawy oponenta.
Odchodząc nieco od głównego wątku dyskusji, biorąc pod uwagę prace nad sposobami analizowania faktów i dobierania argumentów przez sztuczną inteligencję oraz sposoby poprawy jej algorytmów zauważam tutaj pewien prawdopodobnie niewykorzystany potencjał takiego SI. Projekty typu IBM Debater niewątpliwie są ciekawymi sferami rozwoju nauki, niemniej metody analizy argumentów, dobierania danych czy przykładów możnaby wykorzystać w celach bardziej istotnych niż zwykłe dyskusje, które choć ciekawe, nie przynoszą często wymiernych korzyści. Nakierowanie rozwoju zaawansowanej SI na tor bardziej „naukowy” mogłoby przyczynić się do rozwiązania wielu palących ludzkość problemów. Ogólnie rozumiana sztuczna inteligencja stałaby się dla badaczy i naukowców nie tylko narzędziem, ale również czymś na wzór współpracownika, który w odróżnieniu od człowieka byłaby w stanie pracować wydajnie i bez przerw. Tutaj mógłbym się posłużyć co prawda mało merytorycznym, jednak ciekawym przykładem postaci świadomego superkomputera GLaDOS z serii gier „Portal” będącego w istocie właśnie wysoce zaawansowanym SI, którego celem było nieustanne wykonywanie testów i eksperymentów w celu pobierania danych. Jest to oczywiście jedynie fikcja literacka, jednak sugeruje, że wysoce rozwinięta SI znalazłaby zastosowanie nie tylko w zakresie prowadzenia debat.
Chciałbym wrócić do jednego z pytań zadanych na końcu wpisu inicjującego dyskusję:
Cytuję:
„W jakim kierunku będą rozwijać się techniki dialogowe sztucznej inteligencji takie jak np. szybka i celna riposta, racjonalna i skuteczna kontrargumentacja, czy też inteligentnie i trafnie dobrana analogia?”
Dotychczasowi dyskutanci mocno „punktują” dwa kierunki: 1) używanie maksymalnie racjonalnych, opartych np. na schematach logicznego wnioskowania, ciągów argumentacyjnych (krótko: wyciąganie logicznych wniosków z dostępnych danych), 2) wzbogacanie argumentacji/dialogu o pewne elementy peryferyjne, jak np. gesty, intonacja głosu czy nawet specjalnie dobierane ilustracje.
Kierunek 1) jest silnie zbieżny z typowym obszarem badań nad SI, tj. automatyzacją wnioskowania — która to automatyzacja jest najszerzej bodaj wykorzystywana w systemach eksperckich (wspomagających np. lekarzy czy prawników).
Kierunek 2) wydaje się mniej zaawansowany, ale na pewno wpisują się weń badania nad automatyzacją percepcji, w tym: rozpoznawaniem obiektów — do którego to celu stosuje się często sztuczne sieci neuronowe.
Zauważmy, że „debater” wykorzystujący elementy peryferyjne typu (wyrażająca coś) mimika twarzy, musiałby umieć rozpoznawać występowanie tego rodzaju efektów u swoich współdyskutantów.
Wracając jednak do cytowanego pytania…
Pojawia się w nim termin „analogia”, który prowadzi nas ku pojęciu metafory.
W realnych debatach politycznych, społecznych czy nawet naukowych aż roi się od metafor, które wyrażają pewne opinie nie wprost, często w sposób zaowalowany, ale jednocześnie bardzo przekonujący, sugestywny i atrakcyjny dla inteligentnego odbiorcy. Przykładowo: takiego czy innego polityka przyrównuje się do bulteriera, jakąś grupę partyjną do betonu, sytuację w bieżącej polityce do bagna, pewnego wirusa do ostego cienia mgły :)…
Wydaje mi się, że odpowiednio dobrane metafory są niezwykle angażujące emocjonalnie i intelektualnie, a bywają przekonujące. Najlepsze z nich wynikają z głębokiego zrozumienia rzeczywistości; są czymś w rodzaj twórczego przetworzenia pewnych zrozumień i intuicji na jedno celne sformułowanie.
W tym kontekście narzuca się pytanie:
Czy (debatująca) sztuczna inteligencja będzie kiedykolwiek zdolna do formułowania inspirujących i przekonujących metafor?
Tego nie przesądzam, na pewno jednak jest to obiecujący i pożądany kierunek badań…
Według mnie wspomniana gestykulacja, mimika i ogólne upodobnienie do człowieka nie zależy jedynie od zaawansowania technologii. Owszem, możemy być niedługo świadkami robotów, które rzeczywiście dobrze odwzorowują ruchy człowieka, znamy bowiem w bardzo dużym stopniu anatomię, mamy do dyspozycji wiele rozwiązań technicznych, w zasadzie jesteśmy coraz bliżej stworzenia humanoidów odwzorowujących niemal perfekcyjnie ruch człowieka, natomiast coś co wydaję mi się przynajmniej na obecną chwilę nie do przeskoczenia jest odbiór przez człowieka. Według mnie, o ile nie jesteśmy czasem w stanie rozpoznać różnych technik manipulacyjnych, składających się z mimiki, gestów czy zachowań, wywiera wpływ na to jak bardzo ktoś przekonuje nas swoją argumentacją, o tyle zdaję mi się, że takie zachowanie robota zawsze będzie przez nas odbierane jako sztuczne, zaprogramowane. Nie chodzi o to jak płynnie będzie to robił, jak bardzo będzie zbliżony do ludzkich zachowań, jak będzie dostosowywał i synchronizował mowę ze swoimi ruchami, czy w końcu jak jego ruchy będą zróżnicowane tworząc pewne niepowtarzalne kombinacje – to wszystko pozostaje pewną sekwencją zaprogramowaną przez człowieka, o ile mówimy nawet o sztucznej inteligencji, o pewnej „autonomii” robota, o tyle wiemy, że to w pewnym stopniu sztuczny wytwór. Oczywiście ludzie także świadomie stosują tor peryferyjny, korzystają z różnych sztuk manipulacji dla osiągnięcia korzyści i takim osobom niejednokrotnie zawierzamy, będąc nawet bardzo uważni, starając się nie złapać na żadną sztuczkę. Tu także można by rzec, że z góry nie powinniśmy ufać takiej osobie, jednak wciąż podkreślam, że w podświadomości człowieka, takie zachowania robota będą sztuczne i odbiór ich nie będzie równy odbiorowi zachowań innego człowieka.
W moim przekonaniu więc, robot będzie o wiele wiarygodniejszy w obecnej postaci projektu IBM Debatera, aniżeli w postaci o wysokim podobieństwie do człowieka. Jak ktoś zdążył już jednak podkreślić – ciekawym eksperymentem byłoby sprawdzenie obu sytuacji – gdy publika wie, że jednym z uczestników jest robot i sytuacji, gdy nie wiedzą o udziale maszyny (tu zapewne należałoby skorzystać z Debatera jako asystenta, aby osobą uczestniczącą w debacie był człowiek).
Dopóki jednak roboty będą wyraźnie odróżniały się od ludzi i na pierwszy rzut oka będzie widać te różnice, nie będzie możliwe pomylić ich z ludźmi, nie wierzę aby choćby najdoskonalsze odwzorowanie ruchu, mimiki czy nawet intonacji, perfekcyjnej syntezy mowy mogło dać taki sam rezultat jak w wykonaniu człowieka.
Sztuczna inteligencja, w tym projekty takie jak IBM debater mogą w przyszłości przyczynić się do zastąpienia niektórych zawodów przez „maszynę”.
Sprzedawca, asystent, czy prawnik, to kilka z wielu zawodów które dzięki sztucznej inteligencji mogą zmienić swoje oblicze. Wyszukiwanie aspektów prawnych na podstawie bazy danych z byłych spraw umożliwiło by bardzo sprawną pracę w tym zawodzie. Asystent przyszłości miałby szeroki dostęp do danych i natychmiastową możliwość wykonania danego polecenia, co wpłynęło by na sprawność wykonywanych zleceń. Jako sprzedawca mógłby w jasny i klarowny sposób przedstawić zalety i wady danego produktu na podstawie rzetelnych danych, a nie reklam , które często naciągają prawdę na swoją korzyść.
Jednakże czy sztuczna inteligencja mogła by zastąpić każdy zawód? Moim zdaniem nie i jako przykład podam lekarza. Jest to bardzo odpowiedzialny zawód, który decyduje o losie ludzkiego życia. Sztuczna inteligencja na podstawie dostępnych symptomów chorobowych danej osoby nie zawsze mogłaby wyciągnąć poprawne wnioski. Baza danych zawierające historię chorób innych osób i ich symptomy byłaby pomocna dla sztucznej inteligencji, jednakże gdyby pojawiło się coś „nowego” np. dzisiejsza sytuacja z pandemią , byłaby ona bezsilna. Mogła by ona wspomagać lekarzy w jej zwalczaniu, ale nie zastąpiłaby ich pracy.
Moim zdaniem przed projektami typu IBM debater stoi świetlana przyszłość, rozwój technologii tego typu jest ważny w aspekcie ułatwienia życia wielu ludziom na świecie. Oczywiści jak każda innowacja początkowo będzie bardzo droga i tylko najbogatsza garstka ludzi będzie mogła sobie na nią pozwolić, ale mam nadzieję że w przyszłość stanie się ona dostępna dla większej liczby odbiorców. Człowiek jednak musi pamiętać o rozważnym wykorzystaniu sztucznej inteligencji, by nie zatracić człowieczeństwa.
Ciekawą w tym kontekście mogłaby być np. odpowiedź na pytanie, które z własności debatującej sztucznej inteligencji mogłyby okazać się szczególnie przydatne z punktu widzenia wspomnianego ułatwiania życia ludziom.
Nie zgodzę się do końca z przykładami prawnika czy sprzedawcy jako zawodów, które mogłyby zmienić się lub zostać przejęte przez SI.
W przypadku zawodu sprzedawcy lub ogólnie rozumianej branży marketingowej, biorąc pod uwagę przedstawiony argument jakoby SI mogłaby być bardziej „konkretna” w kwestii doradzania produktu sprawdziłaby się ona raczej jedynie jako porównywarka produktów aniżeli sprzedawca. Marketing nastawiony jest na zysk i przekonanie klienta do zakupu danego produktu, bądź też skorzystania z usług danej firmy. Niewątpliwie podczas przeszukiwania ofert konsument kieruje się takimi kryteriami jak na przykład jakość czy niezawodność danego produktu, jednak celem sprzedawcy jest przekonanie klienta do danej usługi bądź zakupu często pomimo ich pewnych wad. Marketing nie może, a przynajmniej nie powinien wprowadzać w błąd, jednak wymaga jednocześnie korzystania z pewnych zabiegów wymagających kreatywności i abstrakcyjnego myślenia, które pewne wady produktu przedstawią jako możliwie mało istotne, lub całkiem je przemilczą, a zalety przedstawią jak najlepiej. Marketing prowadzony przez SI, choć logiczny i rzeczowy, mógłby nie być na tyle atrakcyjny, by firmy powierzały jej promowanie ich produktów.
Jeśli chodzi o zawód prawnika, tutaj należałoby sprecyzować o jakie konkretnie profesje prawnicze chodzi. Prawnikiem jest zarówno radca prawny, adwokat, prokurator czy notariusz. SI dobrze sprawdziłaby się w zawodach typu radca prawny, gdzie faktycznie liczą się głównie sztywno ustalone przepisy. Natomiast w profesjach typu prokurator czy adwokat istnieje ryzyko że SI nie byłaby na tyle efektywna od żywej osoby z powodów podobnych co w przypadku wyżej wymienionego zawodu sprzedawcy. Sprawy sądowe mogą toczyć się wokół spraw jasnych i klarownych, ale również spraw o wiele bardziej zawiłych, gdzie hipotetyczna wina oskarżonego jest wątpliwa, bądź okoliczności danego zdarzenia np. przestępstwa nie są do końca „czarno-białe”.
Zgadzam się częściowo z pierwszą częścią wypowiedzi Pana Kacpra dotyczącą zawodów takich jak sprzedawca, asystent, czy prawnik. Zdaje się, że rzeczywiście sztuczna inteligencja, opierając się na faktach, może zaproponować najlepsze rozwiązanie dla kupującego, ale ma to zastosowanie dla branży elektronicznej (zastosowania profesjonalne), automatyki i tym podobnych działów. Tam i sprzedawca i kupujący szukają optymalnego rozwiązania (pod względem funkcjonalności) dla danego zastosowania. Już teraz istnieją pewne interaktywne systemy pomagające dobrać odpowiednie produkty w takich zastosowaniach. Stąd konkluzja, że w takim przypadku zastąpienie sprzedawcy robotem ma sens.
Inaczej wygląda sytuacja chociażby w branży odzieżowej. Występuje tutaj ogromna konkurencja, duży rozstrzał cenowy, różne fasony, dopasowanie do kształtu ciała i wiele innych parametrów wyróżniających daną markę odzieżową czy dany model ubioru. Tam sprzedawca ma przede wszystkim zachęcić do kupna swojego produktu, nawet jeśli nie pasuje on idealnie do kupującego. Pada pytanie na ile skutecznie taki marketing mogłaby prowadzić sztuczna inteligencja? Uważam, że raczej efekty byłyby słabe. Jest rzesza klientów, którą potrafi przyciągnąć do swojego produktu dobry sprzedający – taki który ukryje wady produktu, skomplementuje wygląd kupującego w danym ubiorze. Dużą rolę odgrywa tutaj także bezpośredni kontakt międzyludzki – tego robotowi ze sztuczną inteligencją zawsze będzie brakować.
Co do drugiej części wypowiedzi Pana Kacpra: uważam, że przykład lekarza jest nietrafiony. Można stworzyć system dla robotów ze sztuczną inteligencją, który przy rozpoznaniu symptomów, które wcześniej się nie zdarzały lub przy wynikach badań, które odbiegają od normy, raportuje do pewnej centrali o wykryciu czegoś nowego, co wymaga analizy naukowców. Podobnie w przypadku, gdy zastosowane leczenie (takie które powinno przynieść pozytywne skutki) nie daje pozytywnych efektów. Wprawdzie nad wszystkim czuwaliby ludzie, lekarze kontrolujący działanie całego systemu, ale pokazuje to, że możliwe jest zastąpienie w dużej mierze lekarzy.
Oczywiście chciałbym podkreślić, że sztuczna inteligencja powinna być dalej rozwijana i udoskonalana tak, żeby świat mógł się rozwijać. Dlatego tak ważne są projekty takie jak IBM Debater, które pokazują, że sztuczną inteligencję można rozwijać na wielu płaszczyznach – także tych związanych z dyskusją. Podkreślić trzeba też jednak, że za każdą sztuczną inteligencją stoi człowiek (lub wielu ludzi), który ją stworzył. Dlatego tak ważne jest, żeby ludzie tworzący sztuczną inteligencją rozumieli swoją misję i dążyli do poprawy otaczającego nas świata.
Poza poruszonymi wyżej aspektami zastanawia mnie również dostęp do informacji takiej maszyny. Sztuczna inteligencja o której mówimy musiała by mieć możliwość rozróżniania informacji prawdziwych od fałszywych, co w dobie fake newsów jest bardzo trudne. Człowiek dokonujący skrupulatnej analizy badań czy artykułów naukowych potrzebuje wielu godzin na przygotowanie do debaty. Komputer może dokona analizy tekstu szybciej, jednak algorytm wyboru informacji musiałby być bardzo skomplikowany. Czy komputer byłby w stanie odróżnić wartościową pracę naukową od pracy sfałszowanej? Często zdrowy rozsądek pomaga w takim osądzie. Dostęp do większej ilości informacji jest przewagą maszyny, jednak jej możliwości obliczeniowe są ograniczone.
Ciekawym przykładem pokazującym sztuczną inteligencję uczoną na danych, które nie były wcześniej sprawdzone jest bot Tay zaprogramowany przez firmę Microsoft. Działanie bota miało być nieco odmienne od naszego przypadku. Miał to być bot naśladujący zachowanie 19-letniej dziewczyny na twitterze. Tay została wyłączona przez jej obraźliwe i skrajnie radykalne wpisy. Brak kontroli nad dostarczanymi informacjami oraz szkodliwe działanie internautów doprowadziły do zupełnie innych skutków niż spodziewali się twórcy Tay.
https://www.techrepublic.com/article/why-microsofts-tay-ai-bot-went-wrong/
Kwestia sprawdzonych informacji, które taka maszyna może wykorzystać w debacie jest moim zdaniem kluczowa. Spowodowane jest to tym, że nawet gdy cała wypowiedź jest zbudowana na mistrzowskim poziomie pod względem retorycznym, to większość słuchaczy w momencie wyłapania błędu automatycznie straci przynajmniej część zaufania. Co więcej może również automatycznie poddać w wątpliwość wszystkie argumenty, które padły wcześniej, no bo skoro pomyliła się raz, to skąd wiadomo, że nie więcej i po prostu umknęło to jego uwadze, albo jego wiedza nie jest wystarczająca by weryfikować wszystkie informacje padające w debacie.
Z takiego właśnie powodu pod względem zasobu danych maszyna musi być bardzo dobrze przygotowana. Uważam, że może to zostać osiągnięte na kilka sposobów.
Po pierwsze maszyna taka może być przygotowywana do debaty podobnie do człowieka. To znaczy osoba za nią odpowiedzialna dostarczy jej przed debatą znaczne ilości informacji sprawdzonych na tyle by korzystanie z nich było bezpieczne. W takim wypadku jej zadaniem jest jedynie sprawne „żonglowanie” informacjami. Może to jednak okazać się złe rozwiązanie, gdy oponent postanowi skierować dyskusję na nieco inne tory. Wówczas dostarczone dane mogą okazać się niewystarczające. W takim wypadku lepszą opcją będzie podłączenie maszyny do sieci tak aby sama szukała informacji. Jednakże należało by wówczas zastosować jakieś ograniczenia, tak by pozyskiwać dane mogła jedynie z rzetelnych źródeł. Ostatnim sposobem, który z pewnością byłby najskuteczniejszy, ale również najcięższy do zaimplementowania byłaby maszyna, która sama by się uczyła odróżniać informacje prawdziwe od fałszywych. Wydaje mi się, że aby to osiągnąć należało by dać maszynie dostęp do bardzo dużej ilości wiedzy, którą mogła by przyjąć za prawdziwą, a następnie pozwolić jej na samodzielne przeszukiwanie internetu. Wówczas jej zasób informacji byłby niemalże nieograniczony, zwłaszcza jeżeli chodzi o najświeższe informację, a jednocześnie była by ona w stanie weryfikować, czy to co znajdzie jest prawdziwe.
W mojej opinii sztuczna inteligencja w najbliższych latach ulegnie wielkiemu rozwojowi na całym świecie. W obecnym momencie badania w owym zakresie prowadzi wiele zespołów ze wszystkich stron świata. Jednakże zagadnieniem otwartym pozostaje to, do jakiego poziomu jest się w stanie sztuczna inteligencja rozwinąć. Zgadzam się z poglądem, jaki wiele osób na niniejszym forum wyraziło, że dużym problemem jest na pewno podejście kulturowe do tematu. Sztuczna maszyna może wyszukiwać na bieżąco informacje oraz różnego rodzaju badania w tym temacie. Jest w stanie sięgnąć do opinii różnych biegłych. Pytanie jest czy potrafiłaby uszeregować je w zaproponowany sposób na przykład właśnie kulturowy. Moim zdaniem podejście maszyny zawsze będzie ograniczone. To człowiek, istota kreatywna, jest w stanie zaproponować innowacyjne rozwiązanie, myśleć nieszablonowo albo wpaść na pomysł, którego nikt wcześniej nie wymyślił. Maszyna co do zasady bazuje na tym co już jest i na tym co ktoś wcześniej stworzył. To swoiste ograniczenie sprawia, że nie jest w stanie „myśleć” wielotorowo, patrzeć na różne sprawy z kilku perspektyw. Odnosząc się między innymi do komentarza wyżej Pana Piotra, czy maszyna będzie potrafiła ocenić osobę której ma, dla przykładu, pomóc? Na ile będzie potrafiła określić jej rzeczywiste preferencje, czy upodobania? Wiele o człowieku można dowiedzieć się np. z jego mowy ciała, a to przecież są w stanie ocenić tylko najbardziej doświadczeni pracownicy branży się tym zajmującej. Maszyna nie będzie tego potrafiła, zachowa się schematycznie. Dwóm osobom o bardzo zbliżonych upodobaniach, różniących się jednym małym szczegółem zaproponuje zapewne ten sam produkt co niekoniecznie spodoba się im obydwu. Natomiast wydaje mi się, że wybitny pracownik danej branży, będzie potrafił dopasować produkt konkretnie do danej osoby. Nie będzie bowiem ograniczony tylko do podobieństw i zauważy coś więcej niż tylko to co widać na pierwszy rzut oka. Poza tym, życie i otaczający świat są na tyle wieloaspektowe, że zawsze zdarzać się będą sytuacje niepowtarzalne, nieschematyczne, na które brakować będzie gotowych rozwiązań, bo nigdy wcześniej się nie zdarzyły. Pamiętać należy jeszcze o jednej niezwykle ważnej sprawie, mianowicie, maszynom obce są zupełnie, przynajmniej na razie, imponderabilia i moim zdaniem, jakakolwiek zmiana w tym temacie, ostrożnie mówiąc, będzie bardzo trudna. Zgadzam się z opinią osoby powyżej, że potrzeby jest dalszy rozwój sztucznej inteligencji. Natomiast wydaje mi się, że jeszcze na razie nie jesteśmy w stanie osiągnąć tego wszystkiego co potrafi człowiek przy użyciu maszyny. Niepowiedziane jest jednak, że nie nastąpi w tym temacie wielki przełom. Ktoś kiedyś musiał wpaść przecież na pomysł koła, w czasach gdy ludzie nie wyobrażali sobie podróży po ziemi innych niż pieszo, a co mówiąc już o podróżach powietrznych, samolotami. Telefony i porozumiewanie się za darmo – na wielkie odległości, też było niepojęte dla ludzi kilkaset lat przed nami, a stało się. Robimy to i technologia temu służąca rozwija się w zawrotnym tempie. Dlatego też myślę, że sztuczna inteligencja może diametralnie zmienić nasz świat na taki, którego sobie obecnie nie wyobrażamy.
Zgadzam się z pierwszym stanowiskiem gdzie projekty takie jak IBM Debater mogą w znaczący sposób przyczynić się do przyszłego prowadzenia debat. We wpisie autor przywołał, że debata przyciągnęła podobne zainteresowanie jak mecz szachowy pomiędzy ówczesnym mistrzem szachowym Garrim Kasparowem a komputerem Deep Blue. Chciałbym oprzeć moją tezę właśnie na przykładzie rozwoju szachowych maszyn.
Już w XIX w. pomyślano o zrealizowaniu maszyny, która miałaby grać w szachy. Początkowo maszyny potrafiły rozwiązywać proste problemy szachowe. W późniejszych latach wraz z rozwojem technologii i opracowaniem algorytmów teoretycznych do praktycznej gry w szachy doszło do powstania pierwszych programów szachowych. Z biegiem lat powstały komputery szachowe, które osiągały już tytuł mistrza szachowego. W lutym 1996 roku doszło do meczu, w którym komputer Deep Blue wygrał partię szachową z ówczesnym światowym mistrzem Garri Kasparowem. Wynik całego meczu między komputerem a człowiekiem okazał się korzystny dla człowieka (wynik 4:2 dla Garriego Kasparowa). Lecz partia wygrana przez Deep Blue zyskała sławę. Nieco ponad rok później, kiedy komputer Deep Blue został ulepszony (mówi się nawet, że został zmodyfikowany tak, aby bardziej rozumiał styl gry Garriego Kasparowa), doszło do rewanżu i w tym pojedynku zwycięsko wyszedł komputer firmy IBM (wynik 3 ½ : 2 ½ dla Deep Blue). Warto w tym miejscu opisać „zachowanie” komputerów szachowych z tamtych czasów. Mogłyby one pomiędzy ruchami przecież analizować wszystkie możliwe kombinacje przebiegu partii w zależności od sytuacji panującej na szachownicy i decydować się na najlepszy wariant. Liczba możliwych kombinacji zagrań (w całej partii) jest na tyle duża, że przeanalizowanie wszystkich nie przebiegłoby w rozsądnym czasie (czasie rozgrywania partii szachowych). Ówczesny algorytm szachowy oparty na minimalizowaniu strat przy największym zysku. Na język szachowy przekłada się to tak, że komputer dążył do uzyskania najlepszej pozycji oraz przewagi materialnej w postaci zbitych figur. Algorytm oceniał każde posunięcie symulując jego skutki tylko na kilka ruchów do przodu więc liczba kombinacji była dosyć mała (możliwa do przeanalizowania w rozsądnym czasie).
Aktualnie sztuczna inteligencja implementowana w komputery szachowe przy nauczeniu podstawowych zasad gry po pewnym czasie potrafi nauczyć się gry w szachy na poziomie nie do opanowania przez człowieka. Komputer AlphaZero w 2017 roku podczas uczenia się gry w szachy po czasie 4,5 godziny przekroczył poziom jednego z najlepszych komputerów szachowych Stockfish. W tym samym roku komputer ten rozegrał 100 partii szachowych z wspomnianym Stockfishem nie przegrywając ani razu (28 zwycięstw AlphaZero i 72 remisy).
Konfrontując ze sobą sytuacje komputerów szachowych z tytułową debatującą sztuczną inteligencją można zauważyć, że problemy sztucznej inteligencji w debatowaniu są bardziej złożone. Komputery szachowe są ograniczone do „pola szachownicy” – przy każdym ruchu wybierają jedną z kilkudziesięciu możliwości, zaś projekty takie jak IBM Debater już po samym wyborze najbardziej racjonalnego argumentu mają wiele opcji przedstawienia argumentu, aby był on efektywny. Pod tym względem ciężko tu rozpatrywać rozwój maszyn debatujących. Ale biorąc pod uwagę rozwój maszyn szachowych, które na początku rozwiązywały tylko proste problemy szachowe, można spodziewać się, że maszyny argumentujące w przyszłych latach mogą osiągnąć podobne efekty czyli wygrać z człowiekiem.
W swojej wypowiedzi zamiast na sposobie wypowiadania argumentów i przedstawiania swoich racji chciałbym skupić się na zagrożeniach płynących z dawania sztucznej inteligencji możliwości zabierania głosu w dyskusji.
Sama wypowiedź w dyskusji, oprócz warstwy racjonalnych argumentów może być również oparta o różnego rodzaju chwyty erystyczne, takie jak odwołanie się do autorytetu, czy bezpośrednie zaatakowanie rozmówcy. Łatwo nam zrozumieć, że sztuczna inteligencja może górować nad oponentami w warstwie merytorycznej, za pomocą dostępu do internetu i mocy obliczeniowej, pozwalającej na analizę danych z całego świata. Moim zdaniem jednak o wiele większe zagrożenie niesie za sobą rozwój sztucznej inteligencji w kierunku operowania różnego rodzaju zachowaniami manipulacyjnymi w celu przekonania swojego oponenta/rozmówcy do określonego działania.
Algorytmy sztucznej inteligencji od dawna projektowane są z myślą o przekonaniu użytkownika o danym twierdzeniu, przy czym jako twierdzenie rozumiem również „Ten produkt jest warty kupienia” lub „Warto zainwestować w tę usługę”. Na pewno każdy spotkał się już z twierdzeniem „spersonalizowana reklama”; czy taka forma marketingu może być rozumiana jako argument mający nas przekonać do dokonania pewnego zakupu? Moim zdaniem tak.
Istnieje również poważniejsze zagrozenie, doptyczące rozwoju sztucznej inteligencji. W przypadku stworzenia systemu, zdolnego docierać naraz do tysięcy czy milionów użytkowników, istnieje ryzyko możliwości skrajnej manipulacji dużym skupiskiem lidności. Przytoczony wcześniej przykład Cambridge Analitica tylko potwierdza tezę, mówiącą, że nienadzorowany rozwój algorytmów sztucznej inteligencji może zezwolić na kontrolę nad dużą częścią społeczeństwa małej grupie osób, mogącej dowolnie wykorzystać zdobytą władzę.
Zgadzam się z Pańską opinią, bardzo dogłębnie przeanalizował pan ten temat, chciałbym się zapytać, czy zawodowo zajmuje się pan sztuczną inteligencją?
Niestety, w tym momencie zagadnienia sztucznej inteligencji występują jedynie w kręgu moich zainteresowań.
Myślę że poruszony w powyższym wpisie (użytkownika Marek Gaweł) problem zagrożeń płynących z zastosowań algorytmów sztucznej inteligencji, mających na celu zwiększanie zysków lub wpływów określonych firm czy organizacji, jest już wyraźnie zauważalny i może być coraz mocniej odczuwalny w przyszłości. Chciałbym w swojej wypowiedzi odnieść się szczególnie do jednego środowiska w którym ten wpływ może być najszybciej widoczny. Być może w pierwszej chwili może się wydawać, iż nie łączy się on bezpośrednio z analizowaną przez nas debatą, jednak w mojej opinii jest on z prowadzonymi tu rozważaniami silnie związany.
Jak słusznie zostało kilkukrotnie przez moich przedmówców zauważone, podstawowym elementem który odróżnia sztuczną inteligencję od jej przeciwnika jest jej aparycja. Maszyna zostaje pozbawiona znacznej części „arsenału” który ma jej konkurent takich jak gesty, mimika twarzy, tembr głosu i tym podobne. W dodatku system ten nie daje żadnych możliwości by kontrolować nastroje widowni czy ogólny rozwój debaty. Istnieje jednak środowisko w którym każdy użytkownik wchodzi do dyskusji na równych zasadach, pozbawiony w równym stopniu tych możliwości. Co oczywiste takim środowiskiem jest Internet.
Wraz z rozwojem technologii wydaje się bardzo prawdopodobne nie tylko upodobnienie się sztucznej inteligencji do człowieka ale także wyprzedzenie go w znaczny sposób w wielu kategoriach (jak np. dostęp do danych). W dodatku warto zwrócić uwagę, że Internetowa debata posiada zupełnie inny „timing” niż jej żywa odmiana. Tu na przykład czas jaki można poświęcić na skonstruowanie ciętej riposty nie musi być liczony w sekundach a może zająć kilka(naście) minut. Przy debacie która jest bardziej rozciągnięta w czasie ograniczenia mocy obliczeniowej sztucznej inteligencji stają się dużo mniejszym problemem. Zaryzykuję stwierdzenie że każde spowolnienie debaty idzie na korzyść SI właśnie. Sztuczna inteligencja ma tu czas na zdobycie znacznie większej liczby informacji, przetworzenie jej, analizę całej dyskusji na bieżąco. Wykorzystanie w działaniu sztucznej inteligencji wszystkich najnowszych metod stosowanych na przykład w takich urządzeniach jak IBM Debater może zmienić oblicze takich dyskusji. Dodatkowo biorąc pod uwagę fakt iż w przeciwieństwie do analizowanej debaty, w Internecie nie ma właściwie szans na skontrolowanie swojego rozmówcy to nie trudno mi wyobrazić sobie świat Internetu wypełniony „użytkownikami” nieodróżnialnymi od człowieka, za to z zapasem niemal nieograniczonej bazy danych. Byłby to wówczas (dość ironicznie być może) świat stale dziejącego się na ogromną skalę testu Turinga. Nie mam tu na celu snuć jednak katastroficznych wizji a raczej zarysować problem który może pojawiać się wówczas gdy właściciele tego typu „użytkowników” będą bardziej cenić sobie zysk niż przestrzeganie zasad merytorycznej i uczciwej dyskusji.
Zatem pierwszy wpływ jaki w mojej ocenie może nastąpić (czy następuje) w publicznych debatach może pojawić się w postaci „echa” dyskusji internetowych, przenikania treści z tego środowiska do życia codziennego. Gdyby sztuczna inteligencja zmieniła przebieg internetowej debaty (a wówczas zapewne nie tylko debaty) musiałoby to w mojej ocenie zmienić w pewnym stopniu także debaty publiczne nieprowadzone w cyfrowych warunkach.
Chciałbym tutaj połączyć nico Pańską opinię z wpisem Pani/Pana C30-C39 . Zgadzam się ze stwierdzeniem, że sztuczna inteligencja może zacząć nami manipulować(w pewnym sensie już to robi- przytoczone spersonalizowane reklamy).
Zauważam tu problem, mający swoją podstawę w tym, co pisał/a Pani/Pana C30-C39 odnośnie szachów, a mianowicie komputera, który przewiduje ruchy człowieka. Wspomniane tam komputer robią to co prawda jedynie na szachownicy, ale czy niemożliwe jest aby zaczęły przewidywać nasze ruchy w nieco większej skali? W takim wypadku może się okazać, że debata z człowiekiem takiego urządzenia będzie przesądzona już na początku, ponieważ wewnątrz takiego komputera symulacja najbardziej prawdopodobnych przebiegów debaty rozegra się jeszcze zanim człowiek rzeczywiście zdąży się wypowiedzieć. A gdyby taka maszyna miała jeszcze wgląd w, przykładowo, historię przeglądarki rozmówcy i wiedziała skąd czerpał informację do swoich argumentów? W takim wypadku nie jest to możliwe w sposób etyczny, ale nie wszyscy muszą je zdobywać na drodze hakowania. Giganci pokroju Google czy Microsoft dostają nasze dane od nas samych. Jeżeli faktycznie dojdzie do powstania tak zaawansowanych sztucznych inteligencji, to konsekwencje mogą być nieciekawe, jeżeli komputer będzie wiedział co zrobię zanim zdążę to zrobić. Jak daleko wówczas zajdzie manipulacja?
Obecnie raczej składa się ona na wciskanie nam produktów i usług, ale może można więcej? Czy nie dało by się np. niezdecydowanemu licealiście polecić konkretną uczelnie, poprzez analizę jego upodobań, a następnie wyświetlenie kilu filmów na you tube i paru reklam. Jest to daleko idąca teoria, ale wydaje mi się, że nie absolutnie nieprawdopodobna. A jeżeli to by zadziałało, to okazuje się, że tak można wpłynąć na prawie całe życie danej osoby. A może w wypadku braku pracowników na dane stanowisko dało by się zrobić coś podobnego? Sytuacja, którą rozważam nie jest nawet do końca zła, ponieważ mogła by spowodować znajdywanie pracowników, którzy by się dobrze czuli w tym co robią, ale skala wpływania na rzeczywistość przez duże firmy była by zatrważająca.
Kwestia którą chciałabym jeszcze poruszyć chyba nie znalazła się dotychczas w wypowiedziach moich poprzedników. Moim zdaniem warto spojrzeć na fakt, że to zwycięstwo człowieka w przytoczonej i szeroko komentowanej debacie jest dość subiektywne – to publiczność oceniała uczestników tej debaty i wybierała zwycięzcę, a nie znalazłam nigdzie informacji odnośnie tego, czy ta publiczność wybierana była z neutralnego źródła – właściwie niesamowicie ciężko byłoby znaleźć grono osób zupełnie obojętnych na to, kto bierze udział w debacie, neutralnych jak Szwajcaria. Każdy ma swoich faworytów. W sytuacji, kiedy człowiek ma szansę pokonać maszynę, która ma dostęp do najróżniejszych danych z całego Internetu, może górę nad świadomością i obiektywną oceną sytuacji wziąć zwykła sympatia i chęć chociażby okazania wsparcia i podziwu dla człowieka, walczącego ze sztuczną inteligencją. Jest również duża szansa, że wśród publiczności jest spora grupa osób uprzedzonych w dużej mierze do sztucznej inteligencji, i nie czynię w tym momencie wyrzutów w stronę organizatorów debaty. Chciałabym tylko zwrócić uwagę na fakt, że nie wiemy, jaką część z oceniających stanowili ludzie uprzedzeni do robotyzacji życia. A faktem jest, że tacy ludzie w ogóle społeczeństwa nie stanowią znikomo małego odsetka – wręcz przeciwnie. Przeciwników robotyzacji można spotkać wielu. Boimy się, że przez roboty stracimy kiedyś pracę, że padniemy ofiarą jakiegoś kosztownego błędu robota. Część ludzi boi się także już samego widoku robota, zwłaszcza humanoidalnego – istnieją badania, dowodzące, że na widok robota u ludzi zapala się ta sama lampka, co na widok martwego człowieka. To działa akurat na korzyść IBM Debatera, ponieważ wyglądem nie przypomina raczej człowieka, jedynie głosem. Można by zatem przeprowadzać takie debaty z udziałem publiczności, jednak bez aspektu wizualnego, jakim jest obserwowanie debatujących (gdyby popracować jeszcze nad „uczłowieczeniem” głosu Debatera – czemu nie?). W przypadku tej debaty publiczność jednak cały czas ma w głowie, że jest to robot, nauczony debatowania i wyszukujący informacje na bieżąco w Internecie.
Po części się zgadzam, rzeczywiście dużo większy podziw budzi ogrom takiej wiedzy u człowieka, który ma jedynie notatki w ręce, bez dostępu do źródeł informacji – jeśli debater skieruje dyskusję (świadomie lub nie) poza temat lub poruszy zupełnie nowe spojrzenie na problem, człowiek nie będzie mógł podeprzeć się żadnymi badaniami na potwierdzenie swojego zdania (np. bo nie spodziewał się takiego obrotu debaty). W drugą stronę natomiast sztuczna inteligencja ma możliwość wybronić się z każdej takiej sytuacji – każdy jeden temat jest w stanie sprawdzić w sieci i przytoczyć dobre argumenty na obronę swojego stanowiska.
Wydaje mi się jednak, że publiczność debaty jest dokładniej wybierana. Osoby zainteresowane taką debatą czy tematyką związaną z poprawnym argumentowaniem wiedzą, że wymagany jest od nich obiektywizm. Zaryzykowałabym nawet stwierdzenie, że takie osoby są bardziej świadome błędów poznawczych i łatwiej jest im je zauważyć.
Racja, wynik takiej debaty ocenianej przez publiczność w dużej mierze zależy od poglądów i nastawienia jej członków. Starałam się to podkreślić w mojej pierwszej wypowiedzi, jednak chyba nie wystarczająco. Tak naprawdę nie wiem w jaki sposób dobierani są ludzie do oceniania uczestników takich debat. Mam jednak wrażenie, że nawet wśród ekspertów znajdą się przeciwnicy robotów i robotyzacji. Nie można jednak zaprzeczyć, że teoretycznie taka sztuczna inteligencja ma dużo większe szanse na zwycięstwo w debacie, z racji dostępu do ogromu informacji – taki faworyt ze względu na nierówne szanse może nie zaskarbić sobie sympatii publiczności, nawet starającej się być najbardziej obiektywną, jak się da.
A propos dostępu do informacji. Wydaje mi się, że w tym miejscu warto również zwrócić uwagę na fakt, że istnieje potrzeba weryfikacji danych które SI znajdzie w sieci. Jeśli ktoś podrobi badania aby wzmocnić siłę argumentu, w celu udowodnienia słuszności swojego postulatu, to może dojść do manipulacji związanych z argumentującą sztuczną inteligencją. Takie działania niekoniecznie muszą być celowe – autor nieprawdziwych informacji nie musi mieć na celu manipulację wynikami konkretnej debaty. W Internecie powszechne jest wrzucanie informacji, które krótko mówiąc „mijają się z prawdą”. Często nie jest to w żaden sposób kontrolowane ani dementowane. Na dłuższą metę, używanie nieprawdziwych informacji może prowadzić do podważenia wiarygodności prezentowanych wyników, jak i całego rozwiązania jakim jest IBM Debater.
Ja chciałbym dorzucić od siebie stwierdzenie, że może dane to nie wszystko? Maszyna bez wątpienia ma większy zasób informacji, ale pomimo tego, że próbuje wybijać argumenty przeciwnika, to nie zawsze jest to możliwe, ponieważ istnieją spory, w których argumenty obu stron mogą być tak samo dobre w zależności od podejścia. tutaj wydaje mi się, że przewagę ma człowiek. Obserwując publiczność wprawny mówca może wywnioskować, jaki kierunek obrać aby przypodobać się nieco publiczności. (Z tego co wiem, takich manewrów maszyna nie wykonuje.) Nie chodzi mi oczywiście o przekłamywanie rzeczywistości, ale o samo skupianie się na danych zagadnieniach, które ewidentnie budzę większe emocje słuchaczy.
W temacie samego wyglądu, to może nie koniecznie ta maszyna musi być robotem, aby nie odstępować od człowieka w kwestii gestykulacji.W tym wypadku ciekawym wyjściem może być pomysł firmy samsung. https://geek.justjoin.it/neon-samsung/
Po zapoznaniu się ze wpisem oraz sekcją komentarze chciałbym zauważyć, że prawie nikt z Państwa nie zauważył i nie wspomniał, że w przykładowej debacie człowieka i maszyny, umieszczonej w pierwszym wpisie, oponentem IBM Project Debater był rekordzistą świata w liczbie wygranych debat konkursowych. To oznacza, że chociaż sztuczna inteligencja przegrała Harishowi Natarajanu ale z dużym prawdopodobieństwem mogłaby wygrać podobną debatę z mniej doświadczonym przeciwnikiem. Więc już można stwierdzić, że taki program sztucznej inteligencji, jak IBM Project Debater, jest lepszy w dyskusjach niż przeciętny człowiek. Taka dominacja maszyny nad człowiekiem według mnie może świadczyć, że w potencjale jeszcze nie do końca rozwinięta i niedoskonała nowoczesna sztuczna inteligencja w przyszłości może zastąpić nie tylko “sprzedawcę, asystenta, czy prawnika”, jak np. stwierdził Pan Kacper Waśniewski, ale także zastąpić człowieka w każdej możliwej dziedzinie, nawet w działaniach związanych ze sztuką piękną, ale oczywiście każda nowa technologia na początku będzie bardzo droga i będzie stosowana tylko tam gdzie to będzie się opłacać. O możliwym zastąpieniu człowieka w każdym obszarze działalności człowieka, także świadczą dziesiątki inteligentnych programów z wprowadzoną siecią neuronową, które generują np. muzykę oraz obrazy, co w potencjale może świadczyć
o cząstkowym zastąpieniu części muzyków. (Przykład:https://aiartists.org/ai-generated-art-tools ).
Także chciałbym zauważyć, że w obejrzanej debacie, sztuczna inteligencja wykazała niestandardowe techniki dyskusji. Zdziwiło mi, że człowiek w tej debacie wysunął tezę, że jakikolwiek obszar subwencji powinien spełniać dwa kryteria: korzyść dla społeczeństwa i udział państwa w jego rozwoju, po czym zwrócił uwagę, że program kosmiczny nie spełnia tych kryteriów. W takich przypadkach niedoświadczony oponent próbowałby obalić argumenty przeciwnika, ograniczając się w ten sposób do zakresu wstępnej tezy. Ale komputer nie podążył za tym wzorem i zamiast bezpośredniego sprzeciwu stwierdził, że rozwój przemysłu kosmicznego prowokuje rozwój gospodarczy, a także świadczy o świetności kraju. Wierzę, że rozwój tej technologii w najbliższej przyszłości znajdzie zastosowanie w debatach politycznych, ale tylko w dyskusjach dotyczących gospodarki, ponieważ dopóki nie została wymyślona pełna sztuczna inteligencja, komputery mogą pomagać tylko w kwestiach, które mają przygotowane bardzo dobrą teorię, którą można opisać matematycznie. Korzystanie z takich programów sztucznej inteligencji przy podejmowania decyzji o gospodarce krajowej pozwoli na dokonanie obiektywnej oceny i pozbawienie czynników emocjonalnych polityków.
Podsumowując, chciałbym stwierdzić, że technologię sztucznej inteligencji to przyszłość ludzkości. Jednak, jak i duża część uczestników dyskusji, myślę, że człowiek musi pamiętać o ostrożnym i ograniczonym stosowaniu sztucznej inteligencji, ponieważ ze względu na ograniczoność rozwoju mózgu człowieka szybko rozwijające techniki sztucznej inteligencji mogą wykorzenić ludzkość.
W kwestii pierwszego temat zaproponowanego przez Pana Marcina Koszowego to uważam, że aby zdecydować o możliwych skutkach oddziaływania sztucznej inteligencji na debaty, należy rozpatrzyć możliwe sposoby oddziaływania sztucznej inteligencji na sposób prowadzenia debat.
Pierwszym sposobem byłoby bezpośrednie starcie się sztucznej inteligencji z człowiekiem, lub nawet samej AI z drugą AI. Osobiście szczerze wierzę, że w nie najdłuższej przyszłości sztuczna inteligencja osiągnie wysoki poziom retoryki, który umożliwi wygrywanie przez nią praktycznie każdej debaty z każdym człowiekiem, nawet przy obecności nieprzychylnej wobec jej stanowiska widowni. Takie debaty umożliwiłyby poznanie publiczności wszystkich za i przeciw danemu stanowisku, co byłoby bardzo przydatne przy wyrabianiu opinii na jakiś temat przez zwykłego zjadacza chleba. Wysuwając tę tezę wzoruję się na przykładzie szachów zaprezentowanym przez użytkownika C30-C39, z którym całkowicie się zgadzam. Podaje on, że pierwsze mecze szachowe ludzi z AI również były wygrywane przez tych pierwszych, jednak z biegiem czasu tendencja się odwróciła, a obecnie można natrafić nawet na mecze samych komputerów. Wracając do tematu, takie rozwiązanie dawałoby możliwość rozwoju debat, uatrakcyjnienia ich dla szerszej publiki na przykład przez zaimplementowanie częstszego użycia ciętej riposty, czy podawania większej liczby rzeczowych argumentów. Dlatego właśnie uważam, że to w tym kierunku pójdzie rozwój tej technologii.
Sztuczna inteligencja może również być wykorzystywana do przygotowywania uczestników do debat. Trening ze AI nastawioną na używanie argumentów przyszłego oponenta pomógłby w znajdowaniu kontrargumentów, ale również i w dobieraniu ich tak, by nie dawać swojemu przeciwnikowi pola do przeprowadzenia ataku. Jednak tak jak komórka z internetem daje nieuczciwą przewagę na maturze, tak dostęp do takiej sztucznej inteligencji na debacie byłby zły, choć na pewno znaleźliby się i tacy, którzy postanowiliby wykorzystywać AI w sposób nieuczciwy do osiągnięcia realnej przewagi nad oponentem. Myślę, że byłby to duży problem podczas debat polityków, ale wykrycie czegoś takiego czyniłoby z polityka „persona non grata” wśród wyborców, bo któż chciałby głosować na polityka, za którego mową stoi komputer, lub jeszcze gorzej – haker.
Ostatnią możliwością jest sprawdzanie słów debatujących osób z faktycznym stanem na podstawie sprawdzonych źródeł internetowych. W dzisiejszych czasach możemy się spotkać z naginaniem rzeczywistości dla osiągnięcia przewagi nad oponentem w debacie. Ten sposób, choć ograniczony w stosunku do poprzednich o możliwość tworzenia własnych argumentów, może się stać ważnym sposobem kontroli osób debatujących i wymuszać na nich bardziej rzeczowe argumenty.
Jak widzimy prawie zawsze takie projekty jak IBM Debater przyczyniają się do bardziej racjonalnych i efektywnych debat, jednak nie należy zapominać również o zagrożeniach, jakie niesie ze sobą ta technologia.
Myśląc o przyszłości, czuje pewien niepokój czytając artykuły takie jak ten. Pod jednym z artykułów na blogu przyjąłem stanowisko, że społeczeństwo informacyjne jest społeczeństwem ryzyka i właśnie do ryzyka jakie dostrzegam właśnie w badaniach nad sztuczną inteligencją przeprowadzająca debaty chciałbym w tym komentarzu pomówić.
O ile zgadzam się, że zastosowanie takich botów w debatach światopoglądowych mogłoby przynieść jak najlepsze ich rozwiązania, o tyle widzę w tym drugie dno, którym może być wykorzystanie owych botów do manipulowania społeczeństwa. Myślę, że takowa sztuczna inteligencja mogłaby mieć nadzwyczaj wiele niecnych zastosowań.
Idąc bardzo ciekawą logiką jaką przedstawił Neil deGrasse Tyson w jednym z wywiadów na kanale youtube Imponderabilia. (Bardzo ciekawa rozmowa z czystym sumieniem mogę polecić)
„Tak więc prezydent Trump wygrał wybory w 2016 roku, a głosowało na niego 60 milionów ludzi.
Później wypływało coraz więcej rewelacji na temat jego postępowania, jego mizoginii
lub jego trybalizmu politycznego, wszystko to wychodzi na światło dzienne, po czym kandyduje kolejny raz
i przegrywa
ale w swojej przegranej otrzymał 10 milionów więcej głosów niż w 2016 roku,
więc liczba jego wyborców w tym czasie wzrosła.
Problem nie stanowi więc dla mnie to, co mówi czy robi Trump,
zwróciłbym się raczej do każdego, kto na niego głosował i zapytał, czy zdaje sobie sprawę z pełnej konsekwencji tej polityki”- fragment transkrypcji tłumaczenia pod filmem
W aktualnych czasach najwięcej debat(za takie uważam nawet te najmniejsze dyskusje na twiterze) rozgrywanych jest w mediach społecznościowych i to właśnie one budują dzielą i łączą ludzi budując „domeny” polityczne o których podczas 100 lecia Polskiego Towarzystwa Fizyków mówił w wykładzie Fizyka dla polityków; prof. Janusz Hołyst. Wpływ Lidera na postawnie danej domeny ma niesamowicie duży wpływ, czy sztucznej inteligencji wygrywającej każdą z debat nie możemy nazwać takim Liderem? Moje obawy odnoszą się do tego, że w pewnym momencie osoba mająca kontrole nad tego rodzaju inteligentnym algorytmem będzie mogła kontrolować to jakie poglądy będzie miała dana grupa społeczna. Oczywiście szukanie dalszych konsekwencji takiego niecnego zastosowania algorytmów doprowadza do zawrotów głowy, jaki ogrom władzy niesie za sobą kontrola takiego algorytmu.
Załączam linki do wspomnianej rozmowy oraz wykładu.
1.Rozmowa na kanale imponderabilia z Neil deGrasse Tyson
https://www.youtube.com/watch?v=AeiQTMCo7HA
2. Wykład Fizyka dla polityków; prof. Janusz Hołyst.
https://www.youtube.com/watch?v=5JhALKnslLg&t=17121s