Computing, obliczenia i liczby

Uczestniczyłem ostatnio w kilku konferencjach  i seminariach, które miały w swoich tytułach termin computing —  tłumaczony najczęściej jako obliczanie. Słuchając różnych referatów i dyskusji, uświadomiłem sobie, że nawet w tak wąskim kontekście jak informatyka i jej komputerowe zastosowania, różne osoby używają tego terminu w różnych znaczeniach.
Przykładowo: w znaczeniu wykonywania obliczeń, przetwarzania danych, realizacji algorytmów, rozwiązywania problemów… a nawet jako nazwy dyscypliny naukowej, Computing właśnie, która zajmuje się po trochu wszystkimi wymienionymi czynnościami lub procesami.
W ślad za wieloznacznością idzie tendencja do łączenia computing z przymiotnikami, które mają wskazywać na konkretne formy lub aspekty obliczeń; niekiedy jednak tak od siebie różne, że trudno dopatrzeć się w nich wspólnego mianownika. Mamy zatem: digital computing,  analog computing, quantum computing, hyper-computing, physical computing, natural computing, mortal computing etc…

Dla zobrazowania powyższych obserwacji warto przytoczyć kilka ogólnych określeń specjalistów. Każde z nich próbuje uchwycić istotę computing, lecz wzięte łącznie ukazują  dobrze typową dla współczesnych dyskusji wieloznaczność i wieloaspektowość obliczeń. Rozwinięcie kolejnych cytatów wymagałoby oczywiście osobnego wpisu (może nawet wykładu😊), lecz nie o to tu chodzi. Chodzi o ukazanie różnorodności znaczeń i sprowokowanie dalszej dyskusji…

A oto wybrane przeze mnie przykłady:

To compute is to execute an algorithm (Jack Copeland).

The Church-Turing thesis identifies the intuitive concept of what means “to compute” with a formal model of computation (Paula Quinon).

Computing can be seen as an epistemic process evolving in time, by means of which an agent (or community), aided by some machinery or instrumentation, obtains an answer with respect to a certain state-of-affairs (mathematical or physical) that the agent interprets as a problem, and can express mathematically (Philippos Papayonnopoulos).

Computing, today more than ever before, is a multi-faceted discipline which collates several methodologies, areas of interest, and approaches: mathematics, engineering, programming, and applications (Giuseppe Primiero).

Computing is the manipulation of representations of numbers (Corey Maley).

Sformułowanie ostatnie, poprzez zawarte w nim odniesienie do liczb,  jest najbliższe duchowi polskiego tłumaczenia, o którym wspomniałem na początku:  computing = obliczanie.
Polskie obliczanie odnosi się do liczb w sposób ewidentny. Widać to wyraźnie w zdaniach typu „Oblicz coś…”. Na przykład: „Oblicz pole trójkąta”, „Oblicz wymiary działki”, „Oblicz kąt przy podstawie trójkąta równoramiennego” czy „Oblicz prędkość ciała po 2 sekundach swobodnego spadku w kierunku ziemi”. W każdym z przywołanych kontekstów wynikami czynności obliczania są pewne wartości liczbowe, które uzyskuje się poprzez przekształcanie innych wartości liczbowych za pomocą specjalnie dobranych wzorów i reguł. Wartości te mogą dotyczyć przy tym i obiektów abstrakcyjnych (jak pola figur geometrycznych), i fizycznych (jak wymiary działki).

Właśnie ze względu na swój “liczbowy” charakter polskie obliczanie wydaje się – przynajmniej na pierwszy rzut oka – dużo węższe niż angielskie computing. Spostrzeżenie to może prowadzić do wyboru innych tłumaczeń, spośród których na pierwszy plan wysuwa się przetwarzanie danych. Przetwarzając dane bowiem, niekoniecznie musimy operować na ich reprezentacjach liczbowych. Nie musimy też zakładać, że na pewnym – koniecznym dla informatycznej teorii – poziomie, dane redukują się do jakichś liczb, a operacje na danych do operacji arytmetycznych. Nie musimy zatem posługiwać się nacechowanym „liczbowo” terminem obliczanie – dla którego zresztą w języku angielskim istnieje różny od computing odpowiednik, tj. calculating.

Być może jednak za powszechną praktyką utożsamiania computing z obliczaniem stoi coś istotnego. Być może takie tłumaczenie, choć przy pierwszym spojrzeniu zbyt wąskie a nawet mylące, oddaje jednak istotę czynności nazywanej computing: istota ta polegałaby  na teoretycznej konieczności definiowania różnych rodzajów computations/obliczeń za pomocą różnego rodzaju liczb i operacji na liczbach. Przykładowo: digital computing byłoby definiowane poprzez odniesienie do własności liczb naturalnych  (własność bodaj najprostsza to dyskretność zbioru tych liczb), a pewne przynajmniej postaci analog computing  wymagałyby definicji w kategoriach własności liczb rzeczywistych (jak ciągłość).

Formułując ostatnie zdania, uświadomiłem sobie, że kilka lat temu dyskutowaliśmy o podobnych sprawach przy okazji wpisuO teoretycznej (nie)zbędności pojęcia liczby w informatyce teoretycznej i jej metodologii”. Dyskutowaliśmy nawet dość zażarcie.

Nie będę tutaj powtarzać formułowanych tam argumentów, ALE…

Bardzo jestem ciekaw, jak zapatrujecie się Państwo na:
a) wieloznaczność terminu computing,
b) naturę związków między computations/obliczeniami a światem liczb…?
A także:
c) czy wspomnianą w punkcie (a) wieloznaczność da się istotnie ograniczyć poprzez taką czy inną redukcję computing do operacji na liczbach (co zdaje się sugerować polskie tłumaczenie computing = obliczanie)?

Serdecznie zapraszam do rozmowy  — Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Epistemologia i ontologia, Filozofia informatyki, Światopogląd informatyczny | 13 komentarzy

Życie w erze informacji: między zależnością a uzależnieniem

Obecny wpis zamieszczam w blogu w imieniu Pani Mai Dąbrowskiej, studentki wydziału WEiTI PW, która podczas dyskusji na prowadzonych przeze mnie zajęciach w bardzo intrygujący sposób argumentowała na rzecz tezy, że “żyjemy w erze informacji”. Żyjemy w niej, bo jesteśmy od informacji zależni.
Przykładowo, od dostępu do informacji  i narzędzi  jej efektywnego przetwarzania zależą:  nasz status społeczny, sukces zawodowy, jakość relacji z innymi ludźmi…
Co więcej jednak, w bardzo wielu przypadkach – które być może stają się powoli niepokojącą normą – zależność przechodzi w uzależnienie

Dalsza część obecnego wpisu to już głos Mai Dąbrowskiej :)

***********

Jeśli spojrzymy na etymologię słowa informacja (łac. informatio ‘wyobrażenie’, ‘wyjaśnienie’, ‘zawiadomienie’), możemy dojść do wniosku, że jest ona obecna już od początków komunikacji międzyludzkiej (niewerbalnej i werbalnej) i nawet wówczas stanowiła podstawę społeczeństwa. Więcej: stanowi ona według niektórych wyznacznik człowieczeństwa i warunek życia wychodzącego poza prostą walkę o przetrwanie. Czy wobec tego mówienie o pewnej wyjątkowej zależności współczesnego człowieka od informacji nie jest przesadą? Może lepszym określeniem byłaby zależność od nowych technologii?

Z pewnością informatyka odgrywa tu niebagatelną, a nawet kluczową rolę, jednak w XX i XXI wieku możemy zauważyć również wzrost ilości informacji niezwiązanej z urządzeniami elektronicznymi. Człowiek nadaje coraz więcej nazw, identyfikatorów, form rzeczom i pojęciom: sam posiada numer PESEL, stworzył ideę kodów pocztowych, upowszechnił znaki drogowe; w systemie zdrowia nawet choroby mają określone numery identyfikacyjne. Społeczeństwa zmierzają w stronę formalizacji, dążą do gromadzenia i przekazywania coraz większej ilości informacji, ponieważ ułatwia to ich organizację — niezależnie od tego, czy informacja ta ma formę cyfrową, czy nie.

Zależność, ale w jakim ujęciu?

Aby zrozumieć, dlaczego i w jaki sposób jesteśmy zależni od informacji, przyjrzyjmy się najpierw definicji zależności:

zależność ż V 1. <<związek zachodzący między czymś a czymś, polegający na tym, że istnienie, jakość, itp. czegoś warunkuje istnienie, jakość, itp. czegoś innego>>. 2. <<stan kogoś (czegoś), kto (co) w swym działaniu jest krępowany, ograniczany czyjąś wolą.

Słownik Języka Polskiego, PWN

Kluczowe w powyższej definicji jest według mnie słowo działanie: to, czy jest się zależnym od kogoś (czegoś), czy też nie, określa się na podstawie tego, jakie działanie wykonuje lub chce wykonać osoba (rzecz) potencjalnie zależna. Dlatego, gdy mówimy, że jesteśmy zależni od informacji, musimy się zastanowić w jakim obszarze ta zależność występuje.

Czy można dziś przeżyć bez informacji?

Wydaje się, że informacja nie zawładnęła jeszcze życiem człowieka na tyle, aby brak informacji zupełnie je uniemożliwiał (w rozumieniu biologicznym) –  zwłaszcza w krajach, które nie uległy jeszcze informatyzacji. Postawię jednak tezę, że nie jest bez niej możliwe życie na wysokim lub nawet średnim poziomie komfortu. Większość zawodów wymaga kontaktu z informacją pewnego rodzaju, wiele z nich można wykonywać dopiero po zdobyciu edukacji (w oczywisty sposób nieodłącznie związanej z informacją). Bez interakcji z danymi nie da się również uzyskać dostępu do opieki zdrowotnej (składki, formularze, podpisy), a także opłacić ubezpieczenia.

Prawna zależność od informacji

Istotną zmianą w stosunku do poprzednich wieków jest również obecny w wielu państwach wymóg prawny rozumienia, interpretowania i dostarczania informacji wobec każdego obywatela. Sformalizowana jest większość wydarzeń w ludzkim życiu — narodziny, choroby, ślub, posiadanie miejsca zamieszkania. Prawnie jesteśmy zobowiązani do zdobycia wykształcenia podstawowego i płacenia podatków — to wszystko bez uzyskiwania, przetwarzania i zapisu informacji po prostu nie jest możliwe.

Społeczna zależność od informacji

Człowiek jest istotą społeczną, więc kontakty interpersonalne są elementem jego rzeczywistości. Życie społeczne przeniosło swój środek ciężkości w realia Internetu — nie tylko ze względu na umożliwienie szybkiej i wygodnej komunikacji. Od momentu, w którym ludzie zrozumieli, że mogą łatwo generować i skutecznie rozpowszechniać wiele informacji, Internet stał się dostawcą opinii publicznej, oknem na stan społeczeństwa. Żeby to społeczeństwo rozumieć, żeby się w nim odnajdywać, człowiek zdaje się nie mieć wyboru — musi uczestniczyć w jego życiu informacyjnym.

Dochodzimy tu jednak do pewnej granicy. Zależność człowieka od informacji w kontekście pewnych podstaw życia: edukacji, pracy, opieki zdrowotnej, prawa wydaje się dosyć oczywista. Aktywne uczestniczenie w życiu społecznym zdaje się być czymś więcej, czymś nie aż tak niezbędnym, choć przecież bardzo ludzkim. Nasuwa się jednak pytanie: czy jesteśmy dziś w stanie (jako jednostka) wieść satysfakcjonujące życie społeczne bez urządzeń nowej technologii i dostępu do odpowiednio wysokiej (coraz większej!) ilości informacji? Osobiście jestem skłonna sądzić, że tak – społeczny charakter życia człowieka nie wymaga globalnej sieci powiązań, ale poczucia przynależności i kontaktu z pewną lokalną grupą osób — mogą być to sąsiedzi, studenci jednego kierunku, rodzina. Można więc wysunąć tezę, że uczestniczenie w wirtualnym życiu społeczeństwa nie jest podstawową potrzebą, ale czymś, co człowiek świadomie wybiera. Dlatego widzę podstawy, by twierdzić, że w życiu społecznym człowiek jest tylko w pewnej mierze od informacji zależny — bardziej czyni się od tej informacji zależnym, co prowadzi nas do definicji uzależnienia:

uzależnić — uzależniać «uczynić zależnym od kogoś lub czegoś»

Słownik Języka Polskiego, PWN

Rozumiemy, że jako całość społeczeństwa jesteśmy niejako “winni” faktu, że edukacja, praca, zdrowie, etc. zależne są od informacji, więc jako społeczeństwo uzależniliśmy się od niej. Natomiast jako jednostka w tych dziedzinach po prostu jesteśmy od niej zależni: nie czynimy się, ale rodzimy się takimi. Istnieją jednak domeny, w których jednostka sama uzależnia się od informacji: wspomniane wyżej życie społeczne jest chyba najbardziej wyraźnym przykładem, ale dzieje się tak również chociażby w przypadku rozrywki czy zakupów.

W tym kontekście widzę dwa rodzaje takiego uzależnienia. Pierwszym jest prosta konsekwentność działań — nawiązałem relację z pewną osobą na komunikatorze i chcę ją kontynuować; wykupiłem serwis streamingowy i obejrzałem kilka seriali, nie chcę zmarnować pieniędzy z subskrypcji; za zakupy w sklepie internetowym przysługują mi rabaty, więc je wykorzystam. Drugim natomiast, i o wiele bardziej złożonym, jest uzależnienie w biologicznym i psychologicznym tego słowa znaczeniu.

Uzależnienie psychiczne i fizjologiczne od informacji

Co pozytywnego, przyjemnego widzi nasz mózg w informacji?

Istnieje wiele (niewykluczających się wzajemnie) koncepcji z tym związanych. Jedna z nich sugeruje, że poszukiwanie informacji jest mechanizmem obecnym już w czasach pierwotnych, ponieważ duża ilość informacji o otoczeniu zwiększała wówczas szanse na przeżycie (zob. tutaj) — stąd zachęta ze strony ewolucji w postaci pozytywnej reakcji fizjologicznej na nowe wiadomości. Reakcję taką większość publikacji opisuje jako wyrzut dopaminy i uaktywnienie ośrodka nagrody. Jedne z badań pokazują, że człowiek ma tendencję do przeceniania informacji zanim pozna jej treść — krócej, jest istotą ciekawą. Takiemu oczekiwaniu i otrzymywaniu informacji towarzyszy uaktywnienie tych części mózgu, które odpowiadają za czerpanie przyjemności z jedzenia, pieniędzy i narkotyków (zob. tutaj). Stałe otrzymywanie dopaminy przyzwyczaja organizm do tego stanu, co prowadzi do uzależnienia. Jednak oprócz wydzielania wspomnianego hormonu w odpowiedzi na informacje same w sobie, jej wyrzut następuje także dzięki pozytywnym kontaktom społecznym budowanym poprzez wymianę wiadomości (zob. tutaj).

Czytając o tym, zadałam sobie pytanie: dlaczego więc nie uzależniają nas książki naukowe — niezgłębione źródło informacji? Dlaczego studenci coraz rzadziej uczęszczają na wykłady, dlaczego nudzą nas bogate w treści teksty?

Osobiście skłaniałabym się do wyjaśnienia, że wiedza naukowa jest w naszym pojęciu czymś relatywnie statycznym; mamy świadomość, że treść danych publikacji nie zmieniła się od pewnego czasu, więc nawet, jeśli tej treści nie znamy, nie wydaje nam się ona czymś naprawdę nowym. Teza o poszukiwaniu informacji pozwalającej na przeżycie mogłaby to potwierdzać — szans na przetrwanie nie zwiększa znacząco wiedza o niezmiennych cechach otoczenia, ale zwiększa wiedza o jego aktualnym stanie, o zmianach lub ich braku. Jest to jednak tylko jeden z pomysłów odpowiedzi na to pytanie.

Można także tłumaczyć to szybszym tempem życia i komunikacji. Satysfakcji (w postaci dopaminy) nie daje dokładne zgłębienie i zrozumienie tematu, ale oczekiwanie na informację i moment pierwszej styczności z nią. Stąd, częstsze otrzymywanie niewielkich porcji informacji jest bardziej satysfakcjonujące dla naszego mózgu niż rzadsze zdobywanie dużych porcji.

Między zależnością, uzależnieniem a… ZALEŻNOŚCIĄ?

Współczesna zależność od informacji w podstawowych obszarach życia coraz częściej przechodzi w uzależnienie — zależność zaistniałą w wyniku procesu, na który niejako wyraziliśmy zgodę. Być może jednak nie jest to stan, na którym poprzestaniemy. Film The Social Dilemma opisuje chyba powszechnie już znane zjawisko tworzenia algorytmów dobierania treści i subtelnej manipulacji skutkującej zamknięciem nas w bańkach informacyjnych oraz fizjologicznym uzależnieniem. Gdy jednak weźmiemy pod uwagę intensywny rozwój sztucznej inteligencji i rosnące wraz z nim możliwości manipulacji, a także tworzenia fikcyjnych treści w sposób wysoce wiarygodny — być może jako ludzkość przejdziemy do stanu, w którym nasze uzależnienie od informacji zamieni się w obejmującą wiele obszarów ZALEŻNOŚĆ, na jaką w żadnym momencie nie wyraziliśmy żadnego rodzaju zgody?

***********

Serdecznie ZAPRASZAMY do dyskusji — Maja Dąbrowska i Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 15 komentarzy

Zaufanie do systemów sztucznej inteligencji.
Rola wyjaśniania.

W tym tygodniu ukazała się współredagowana przeze mnie książka pt. „Zaufanie do systemów sztucznej inteligencji”: http://www.wydawnictwopw.pl/index.php?s=karta&id=3800. W jej drugim rozdziale stawiam pewne tezy, które chciałbym niniejszym poddać pod dyskusję. Dotyczą one funkcji wyjaśniających systemów SI oraz ich roli w kształtowaniu relacji zaufania użytkownika do systemu.

Bardzo proszę, aby nie mieć do tych tez zaufania :), spojrzeć na nie krytycznie i wskazać ich słabe punkty…

Tezy są następujące:

1.
Wśród czynników, które wzmacniają zaufanie człowieka do systemów sztucznej inteligencji (SI) na pierwszy plan wybijają się: a) skuteczność – system skutecznie rozwiązuje problemy wchodzące w zakres jego kompetencji, b) zdolność do wyjaśniania – system potrafi wyjaśnić, w sposób przekonujący dla człowieka, dlaczego w danej sytuacji podjął taką a nie inną decyzję; c)  elastyczność i otwartość na krytykę – system może zmienić sposób podejmowania decyzji zależnie od interakcji z użytkownikiem; zwłaszcza w przypadku nieskutecznych działań czy  błędnych decyzji.

2.
Istnieją systemy SI, które wykazują bardzo ograniczoną zdolność do wyjaśniania podejmowanych decyzji, wskutek czego nazywa się je czarnymi skrzynkami (ang. black boxes).  Duża część takich systemów jest oparta na sztucznych sieciach neuronowych (SSN), które nabywają swoje zdolności w drodze niskopoziomowego uczenia się, polegającego na (masowym) modyfikowaniu własności neuronów i połączeń między nimi. Własności te nie przekładają się jednak wprost na wiedzę użytkownika systemu o przyczynach podjęcia przezeń konkretnej decyzji.

3.
Do ogólnych powodów słabych zdolności wyjaśniających niektórych systemów SI (niekoniecznie SSN)  należą: a) zbyt duża złożoność strukturalna systemu (w tym: sterującego nim programu), b) interakcja systemu ze środowiskiem (w tym: uczenie się), c) naśladowanie naturalnych układów do przetwarzania informacji (nie dość dobrze poznanych), d) operowanie na danych niepewnych, e) brak procedur translacji operacyjnych reguł niskiego poziomu na czytelne dla człowieka reguły symboliczne.

4.
Funkcje wyjaśniające systemów SI nie są czymś zbędnym.  Odpowiadają na  naturalną dla człowieka – jako istoty racjonalnej – potrzebę uzasadniania żywionych i przyswajanych sądów, w tym wydawanych i przyjmowanych decyzji.

5.
W aspekcie praktycznym funkcje wyjaśniające są szczególnie ważne wtedy, gdy użytkownik przyjmuje wobec systemu SI zasadę  ograniczonego zaufania (ZOZ): nie ufa mu bezgranicznie, licząc się z możliwością popełniania przezeń błędów. Zgodnie z ZOZ,  zaufanie do systemu jest stopniowalne, a jego poziom musi być tym wyższy, im w większym stopniu system potrafi eliminować błędy i doskonalić swoje działanie.

6.
W świetle zasady ZOZ istotne jest, że systemy generujące wyjaśnienia, są postrzegane przez użytkowników jako systemy zawierające pewien mechanizm monitorujący, który prócz generowania wyjaśnień, pozwala rozpoznać i usunąć odpowiednie błędy. Ponadto, informacje zawarte w wyjaśnieniach, zwłaszcza te, które dotyczą wewnętrznych parametrów systemu, mogą pomóc w udoskonaleniu systemu przez człowieka, np. programistę.

Zachęcam wszystkich do dyskusji nad przytoczonymi tezami. Ich szersze omówienia można znaleźć we wspomnianej wyżej książce, w rozdziale drugim (mojego autorstwa) pod tytułem „Wyjaśnianie, zaufanie i test Turinga”.
Przytaczam niżej obszerny fragment tego rozdziału, który nieco pełniej niż powyższe punkty naświetla mój punkt widzenia.

*****  FRAGMENT ROZDZIAŁU pt. „Wyjaśnianie, zaufanie i test Turinga”
Z KSIĄŻKI „Zaufanie do systemów sztucznej inteligencji”  *****

(…)

Zaufanie a wyjaśnianie. Kontekst psychologiczny

Zaufanie jest relacją natury psychicznej, która polega na tym, że pewna osoba, nazwijmy ją podmiotem zaufania, żywi określonego rodzaju przekonanie co do możliwych  działań drugiej strony, na przykład osoby, zwierzęcia, instytucji, urządzenia czy systemu. Jest ona mianowicie przekonana, że działania te będą zgodne z jej oczekiwaniami, które z kolei mają swoje uzasadnienie w deklaracjach, zobowiązaniach lub technicznych specyfikacjach (w przypadku artefaktów) drugiej strony. Relacja ta ma charakter kontekstowy. Znaczy to, że oczekiwania podmiotu zaufania zależą silnie od tego, czym jest druga strona relacji i jaką funkcję pełni.  Na przykład, czy osoba, której podmiot miałby zaufać, jest pracodawcą, usługodawcą, współpracownikiem, partnerem życiowym etc…

Ponieważ jądrem relacji zaufania są oczekiwania wobec pewnego obiektu (np. osoby), psychologowie bardzo często określają zaufanie za pomocą pojęcia wiarygodności. Oto objaśniający tę kwestię fragment pracy psychologów poznawczych: „Decyzja o zaufaniu opiera się najczęściej na ocenie wiarygodności drugiej osoby. Wiarygodność jest więc podstawą zaufania, a także niezbędnym czynnikiem dla pełnej relacji zaufania. Wiarygodność drugiej osoby oznacza przekonanie, że osoba ta będzie zachowywać się w sposób zgodny z oczekiwaniami.” [Jaklik, Łaguna, 2015]

Kluczową dla relacji zaufania cechę wiarygodności możemy – za M. Szynkiewiczem [2014] – zróżnicować dalej na wiarygodność merytoryczną i wiarygodność etyczno-moralną. Pierwsza zależy od wiedzy, doświadczenia i kompetencji dziedzinowych adresata postawy zaufania, druga – od przejawiających się w jego działaniu norm, zasad i poglądów etycznych. Wiarygodność merytoryczna ma charakter bardziej podstawowy, ponieważ sądy i wybory etyczne muszą dotyczyć działań, które bez należytej wiedzy i bez odpowiednich kompetencji nie mogłyby zostać ani zaplanowane, ani podjęte. Ona też będzie nas interesować w sposób szczególny, ponieważ na obecnym etapie rozwoju systemów informatycznych trudno mówić o maszynach, które autentycznie dokonują samodzielnych wyborów etycznych. Ewentualna etyka czy moralność jest kwestią zewnętrzną – powiązaną z decyzjami ludzi, którzy tak a nie inaczej programują maszyny czy ich używają.

Wyróżniony typ wiarygodności jest weryfikowany w praktyce przez skuteczność działań adresata postawy zaufania. Jest to cecha wpływająca najsilniej na poziom zaufania:  im bardziej efekty działań są zgodne z oczekiwaniami, czyli dają oczekiwany skutek, tym większe zaufanie.  Przykładowo, jeśli pewien chirurg, stawiał w przeszłości trafne diagnozy i przeprowadził wiele udanych operacji, darzymy jego umiejętności wysokim zaufaniem i bez wahania skierujemy się do niego w potrzebie. Warto zauważyć, że wobec niemożności osiągnięcia przez jakikolwiek podmiot idealnej skuteczności działań, zaufanie do niego musi być silnie uzależnione od jego zdolności do poprawy tejże efektywności. Im dany podmiot jest bardziej otwarty na krytykę, im bardziej jest w stanie eliminować błędy w swoim działaniu i zwiększać w ten sposób swoją skuteczność, tym bardziej jest on godny zaufania.
Relacja zaufania pozostaje zatem zakotwiczona w praktyce, jest też ukierunkowana na przyszłość i stopniowalna. Skoro jest stopniowalna, to powstaje pytanie o dodatkowe czynniki, które  istotnie wzmacniają jej siłę.

Twierdzimy, że oprócz kluczowej dla zaufania skuteczności działań (w tym eliminacji błędów zwiększających skuteczność), niezwykle istotną rolę odgrywa tutaj zdolność do wyjaśniania – wyjaśniania motywów działań, stojących za nimi decyzji i przyświecających im celów. Zdolność ta ma zarówno pewne walory praktyczne (o czym powiemy szerzej w kontekście systemów SI), jak i czysto psychologiczne, związane z naturalną dla człowieka potrzebą poszukiwania i uzyskiwania wyjaśnień.

W bliskim psychologii kontekście epistemologicznym kwestia druga wiąże się z samym pojęciem wiedzy, ku której człowiek – jako istota rozumna – w sposób naturalny podąża. W każdej definicji wiedzy podkreśla się czynnik uzasadnienia: jest to zbiór sądów, które oprócz innych własności, muszą posiadać dostatecznie dobre uzasadnienie (por. [Ajdukiewicz, 2006], [Chisholm 1994], [Stacewicz, 2021]). To ostatnie zaś, w formie dostępnej dla człowieka czyli intersubiektywnie komunikowalnej, przyjmuje postać wyjaśnienia, które odpowiada na pytanie „dlaczego?”. Na przykład: „Dlaczego lekarz interpretujący wyniki badań wydał sąd określający konkretną diagnozę i konkretną terapię”. Dostępności tego rodzaju wyjaśnień oczekujemy od każdego eksperta i każdego systemu, który wchodzi w jego rolę. Z samej definicji wiedzy jako czegoś intersubiektywnie dostępnego i komunikowalnego [Ajdukiewicz, 2003] wynika zatem, że wiarygodność merytoryczna – zależna od wiedzy i zdolności jej wykorzystywania – musi być weryfikowana między innymi w oparciu o wyjaśnienia adresata postawy zaufania.

Zaufanie a wyjaśnianie. Kontekst systemów sztucznej inteligencji

Relacja zaufania człowieka do systemów informatycznych – jako relacja natury psychologicznej, której główną stroną jest człowiek –  musi mieć swój mentalny wzorzec w relacjach międzyludzkich. Obserwacja ta idzie w parze z ideą testu Turinga, który nakłada na program sztucznej inteligencji sztywne więzy podobieństwa systemów SI  do człowieka. Wymóg podobieństwa sprawia, że na zaufanie człowieka do systemu niejako podwójnie wpływają wzorce kształtowane w kontaktach międzyludzkich: po pierwsze dlatego, że podmiotem relacji jest człowiek, po drugie zaś dlatego, że system informatyczny ma przypominać człowieka.
Mając to wszystko na uwadze, uwzględniając przy tym nowy kontekst interesującej nas relacji, możemy uwypuklić ponownie dwa czynniki wzmacniające zaufanie i dodać do nich trzeci. Są to:

    • skuteczność – system skutecznie rozwiązuje problemy wchodzące w zakres jego kompetencji (im lepsze statystyki poprawnie realizowanych zadań, tym większe zaufanie użytkownika);
    • zdolność do wyjaśniania – system potrafi wyjaśnić, w sposób przekonujący dla człowieka, dlaczego w danej sytuacji podjął taką a nie inną decyzję (jednym z możliwych sposobów wyjaśniania jest zrozumiała dla człowieka rekonstrukcja kroków, które doprowadziły do decyzji);
    • elastyczność i otwartość na krytykę – system może zmienić sposób podejmowania decyzji zależnie od interakcji z użytkownikiem; zwłaszcza w przypadku nieskutecznych działań, błędnych decyzji etc…

Z dwoma ostatnimi czynnikami wiąże się coś, co moglibyśmy nazwać zasadą  ograniczonego zaufania: użytkownik nie ufa systemowi bezgranicznie, licząc się z możliwością popełniania przezeń błędów. W świetle tak rozumianej zasady zaufanie do systemu jest stopniowalne, a jego poziom musi być tym wyższy, im w większym stopniu system potrafi eliminować błędy i doskonalić swoje działanie. Sprzyjają temu obecne w jego oprogramowaniu moduły uczenia się, ale ponadto, silnie powiązana z mechanizmami naprawczymi zdolność do generowania wyjaśnień.
Stawiamy tezę, że przy akceptacji zasady ograniczonego zaufania istotnie wzrasta rola zdolności do generowania wyjaśnień jako czynnika wzmacniającego wiarygodność systemu. Jeśli użytkownik akceptuje zasadę, a więc jest świadom możliwych błędów w działaniu maszyny, to w sposób naturalny łączy wiarygodność ze zdolnością do poprawy tegoż działania. Chodzi przy tym o perspektywę długoterminową, wykraczającą poza wąski horyzont aktualnie realizowanych zadań. Im większe zdolności naprawcze systemu, tym wyższy poziom zaufania do niego w długoterminowej perspektywie aktualnych i przyszłych zadań.

Mechanizm generowania wyjaśnień jest w tym kontekście niezwykle ważny. Generując wyjaśnienia, system nie tylko zaspokaja pewną epistemiczną potrzebę użytkownika (potrzebę poznania uzasadnień czy wyjaśnień), lecz dostarcza mu silnej przesłanki za tym, że w systemie istnieje pewien mechanizm monitorujący, który prócz generowania wyjaśnień, pozwala rozpoznać i usunąć odpowiednie błędy. Ponadto, informacje zawarte w wyjaśnieniach, zwłaszcza te, które dotyczą wewnętrznych parametrów systemu, mogą pomóc w udoskonaleniu systemu przez człowieka, np. programistę. W kontekście możliwej przebudowy układ taki jest więc bardziej godny zaufania niż układ nie dostarczający wyjaśnień.

Chociaż obydwa powiązane ze sobą czynniki – zdolność do generowania wyjaśnień i zdolność do uczenia się – uznaliśmy za pozytywnie wpływające na zaufanie, to trzeba zwrócić uwagę na inny, bardziej negatywny aspekt ich wzajemnej relacji. Otóż mechanizm uczenia się, a dokładniej zmiany powstające w wyniku jego działania,  uznaje się za jedną z głównych przyczyn nieprzejrzystości poznawczej systemów informatycznych oraz trudnej interpretowalności uzyskiwanych przezeń wyników [Zednik 2021], [Stacewicz, Greif, 2021]. Typowy proces narastania nieprzejrzystości polega na tym, że w efekcie uczenia się do systemu są wprowadzane pewne techniczne parametry, które mają na celu dostosowanie działania systemu do wymogów realizowanego zadania, nie pozwalają natomiast uchwycić istotnej i zrozumiałej dla człowieka relacji między danymi a wynikami. Problem ten pogłębia się, gdy proces uczenia się zależy istotnie od kroków losowych, które (ponownie) mają zapewnić efektywność systemu, nie zaś przejrzystą dla człowieka formę wyjaśnienia. Okazuje się zatem, że chociaż zdolność do uczenia się skutkuje poprawą jakości działania systemu i jako taka wzmacnia relację zaufania, to w przypadku pewnych form uczenia się – takich mianowicie, które prowadzą do nieprzejrzystości poznawczej układu – relacja zaufania zostaje osłabiona.

Narzucającym się rozwiązaniem tego problemu jest powiązanie uczenia się z wyjaśnianiem w taki sposób, aby w obydwa procesy był zaangażowany ten sam mechanizm monitorowania pracy systemu. Z jednej strony, wyniki działania tego mechanizmu, czyli rejestrowane zmiany systemu, byłyby podstawą uczenia się (korzystnych zmian w systemie), a z drugiej strony, byłyby one wykorzystywane w procesie wyjaśniania (odnoszącym się również do stanów wewnętrznych systemu).

(…)

Jeszcze raz zachęcam wszystkich do dyskusji :).

W dalszej rozmowie mogą okazać się przydatne również pewne dodatkowe materiały:

1)  The “black box” metaphor in machine learning
2)  Fragment mojej książki, dotyczący problemu czarnej skrzynki
3)  Starszy wpis w blogu o przejrzystości poznawczej systemów algorytmicznych

Paweł Stacewicz

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Epistemologia i ontologia, Etyka, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 21 komentarzy

Jakie cechy sztucznej inteligencji miałyby świadczyć o jej inteligencji?

Od systemów sztucznej inteligencji (SI) oczekujemy coraz więcej…
Na przykład: wiarygodności, życzliwości (w tej sprawie zobacz poprzedni wpis),  działań budzących zaufanie czy przestrzegania etycznych norm.
Świadczy to niewątpliwie o tym, że inteligencja systemów SI stała się dla nas czymś oczywistym, naturalnym, nie budzącym wątpliwości. Podobnie jak w stosunku do ludzi, przyjmujemy za oczywiste, że system wykazuje inteligencję, a przyjmując to, idziemy o krok dalej. Stawiamy wymagania dotyczące możliwych sposobów jej wykorzystania, w tym takich, które są dla nas potencjalnie niebezpieczne.
Przykładowo: jeśli system SI zastępuje lekarza lub prawnika, a więc dokonuje odpowiednich ekspertyz i dochodzi do trafnych decyzji, to oczekujemy, by decyzje te spełniały pewne dodatkowe warunki — były opatrzone przejrzystymi dla nas uzasadnieniami, nie godziły w nasze prawa, nie naruszały ogólnie przyjętych norm moralnych itp… Oczekiwania te mają psychologiczny sens pod warunkiem, że systemowi przypisujemy – niejako domyślnie – tego rodzaju zdolności, które w odniesieniu do ludzi nazywamy „inteligencją”.

Czy faktycznie jednak kwestia inteligencji systemów SI jest zamknięta?
W szczególności: czy definiując inteligencję sztuczną na podobieństwo naturalnej, mamy jasność co do typów zdolności, które świadczą o jej istnieniu i pozwalają mierzyć jej poziom?
Która ze zdolności jest tu najważniejsza:  zdolność do rozwiązywania problemów (w domyśle: wystarczająco trudnych),  umiejętność uczenia się, czy może kreatywność i ogólnie pojęte zdolności twórcze…?

A może strategia  definiowania inteligencji, poprzez wskazywanie konstytuujących ją cech (zdolności) prowadzi donikąd? Być może trzeba postąpić tak, jak jeden z pionierów badań nad SI, Marvin Minsky, który charakteryzując nowo-powstającą dyscyplinę, użył  takiego oto  określenia: „Nauka o maszynach realizujących zadania, które wymagają inteligencji wtedy, gdy są wykonywane przez ludzi”.
Poprzez cytowane stwierdzenie Minsky ominął sprytnie pytanie o to, na czym polega inteligencja, czyli jakie cechy ją konstytuują. Zamiast na nie odpowiadać, wystarczy stworzyć katalog problemów, do których rozwiązania jest niezbędna – tak czy inaczej pojęta – ludzka inteligencja. Jeśli maszyny będą potrafiły tym problemom sprostać, będziemy mogli je określić mianem inteligentnych.

Proponuję zastanowić się wspólnie nad różnymi możliwymi strategiami definiowania i rozpoznawania sztucznej inteligencji.
Pytanie główne brzmi: Jakie cechy konstytutywne winna posiadać sztuczna inteligencja?
Ewentualnie, przyjmując strategię Minsky’ego: Jakiego typu problemy powinna rozwiązywać?

Jako materiał pomocniczy do rozmowy proponuję pewien swój tekst, zaczerpnięty z książki „Umysł a modele maszyn uczących się…”. Zwracam w nim uwagę na fakt, że na polu psychologii problem definiowania i pomiaru inteligencji jest wciąż otwarty. Czynię to z intencją uświadomienia czytelnikowi, że ten sam problem dotyczy systemów sztucznych — o których coraz częściej sądzimy, że posiadają inteligencję.

A oto wspomniany tekst (po minimalnych zmianach):

<< Próbując definiować sztuczną inteligencję – czy to jako dyscyplinę naukową, czy to jako pewną właściwość systemów informatycznych – jako naturalny „układ odniesienia” przyjmuje się najczęściej inteligencję ludzką. Czyniąc tak, zakłada się domyślnie, że istnieje jakaś ogólnie przyjęta wykładnia tej ostatniej. Tymczasem, jak dotychczas, ani na polu psychologii, ani na polu neurofizjologii, ani na polu innych nauk o człowieku nie udało się wypracować żadnego powszechnie obowiązującego ujęcia inteligencji. Przeważnie traktuje się ją jako zdolność do rozwiązywania problemów – zdolność stopniowalną i mierzalną za pomocą specjalnych testów (np. testów na IQ). Już tutaj jednak występują znaczne różnice zdań, co do struktury zdolności elementarnych (ich typów, liczby i wzajemnych powiązań), których miałyby dotyczyć niezbędne pomiary. Rozbieżności głębsze ogniskują się wokół następującej alternatywy: czy intelekt należy traktować jako już uformowany zespół umiejętności aktywizowanych w działaniu (tj. przy rozwiązywaniu problemów), czy też jako pewien wiedzotwórczy potencjał, odpowiedzialny za pozyskiwanie nowych umiejętności (tj. uczenie się nowych strategii rozwiązywania problemów). Zgodnie ze stanowiskiem pierwszym miarą inteligencji jednostki byłaby trudność wykonywanych zadań, zgodnie z drugim – stopień trudności materiału, który jednostka jest w stanie, na bazie dotychczasowej wiedzy, przyswoić. Okazuje się, że wielu psychologów opowiada się za stanowiskiem drugim, a tym samym podkreśla dynamiczny i otwarty charakter intelektu. Na przykład W. Stern traktuje inteligencję jako zdolność adaptacji do nowych warunków i do wykonywania nowych zadań, a G.A. Ferguson wprost jako zdolność do uczenia się. >>

Zapraszam wszystkich do dyskusji nad różnymi możliwymi sposobami definiowania i rozumienia inteligencji systemów sztucznych…

Paweł Stacewicz

Zaszufladkowano do kategorii Bez kategorii, Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 27 komentarzy

O życzliwości w życiu, etyce i rozmyślaniach nad sztuczną inteligencją

Obecny wpis umieszczam w blogu w imieniu kolegów, dr Bartłomieja Skowrona i dr Marcina Rojszczaka, którzy wystąpili ostatnio na prowadzonym przeze mnie Seminarium z Filozofii Nauki, z intrygującym referatem pt. „Koncepcja życzliwej sztucznej inteligencji. Zagadnienia etyczne i prawne“.

W centrum referatu stało etyczne pojęcie życzliwości (w odróżnieniu od potocznego!) oraz jego rola w projektowaniu wiarygodnych, czyli budzących zaufanie użytkownika, systemów sztucznej inteligencji (SI). Projektowanie było rozumiane szeroko, również w kontekście czegoś, co można by nazwać „infrastrukturą legislacyjną” — a więc takim kształtem regulacji prawnych, które sprzyjałyby tworzeniu systemów życzliwych dla człowieka. W tym kontekście zostały przedstawione najnowsze projekty aktów prawnych Unii Europejskiej, dotyczące aktualnych i możliwych zastosowań SI. Prelegenci oceniali je krytycznie, zwracając uwagę na konieczność głębszego powiązania prawodawstwa z etyką życzliwości.

Tyle tytułem mojego wprowadzenia.

Jako właściwy wstęp do blogowej dyskusji proponuję krótki tekst samych prelegentów, którzy zarysowują etyczne pojęcie życzliwości i stawiają pewne pytania dotyczące życzliwej sztucznej inteligencji…
Powstał on spontanicznie, w efekcie rozmyślań nad spostrzeżeniami i komentarzami uczestników seminarium.

Gorąco zachęcam do rozmowy wszystkich czytelników bloga, nie tylko uczestników seminarium — Paweł Stacewicz

A OTO INICJUJĄCY DYSKUSJĘ TEKST PRELEGENTÓW:

Pojęcie życzliwości pojawia się zarówno w tekstach starożytnych (chociażby w Etyce Nikomachejskiej Arystotelesa), jak i zupełnie współczesnych (spośród tekstów polskich zasługują na uwagę pisma Marii Ossowskiej i Czesława Znamierowskiego). Część etyków, w szczególności etycy angielskiego oświecenia moralnego widzieli w życzliwości podstawę wszelkiej moralności i postulowali prawo o powszechnej obowiązywalności życzliwości.

Niemniej, gdy wspominamy o życzliwości przy okazji różnych publicznych dyskusji, najczęściej spotykamy się z pobłażliwym uśmiechem, który z jednej strony łaskawie i przyjaźnie wspiera ideę wołającą o powszechną życzliwość, a z drugiej strony lekceważąco odnosi się do siły i doniosłości życzliwości. Za tą spontaniczną pobłażliwością stoi takie mniej więcej rozumowanie: „przecież uprzejmość, serdeczność i empatia nie mogą stanowić jakieś trwałej podstawy dla realnych rozstrzygnięć moralnych. Jedni są mili, a inni nie są mili. I tyle w temacie życzliwości”.
W przeciwieństwie do takiej postawy twierdzimy, że życzliwość nie jest ani uprzejmością, ani serdecznością, ani empatią – choć z tymi fenomenami współwystępuje. Co więcej, ze względu na swą siłę oddziaływania ma istotne znaczenie dla projektowania systemów sztucznej inteligencji, na przykład takich, które byłyby używane w zarządzaniu, administracji publicznej czy systemie edukacji. Zatem to nie tyle w temacie!

Twierdzimy, że życzliwość nie jest ani uprzejmością, ani byciem miłym, ani empatią. Wspierając się Etyką Nikomachejską Arystotelesa przyjmujemy, że istotą życzliwości jest dbanie o dobro drugiej osoby: dokładnie o to, co jest właśnie dla tej osoby dobre.
Rodzic może być życzliwy dla dziecka, silnie motywując je do podejmowania działań, które służą jego rozwojowi — niezależnie od tego jednak, może być momentami nieuprzejmy. Podobnie urzędnik, załatwiając sprawę zgodnie z interesem obywatela, może (a nawet powinien!) być życzliwy, choć nie zawsze jest uprzejmy. Oczywiście, życzliwości często towarzyszą uprzejmość, empatia i serdeczność. Nie one jednak są istotą życzliwej postawy.

Wróćmy jednak do sztucznej inteligencji i jej zastosowań publicznych, takich jak publiczna administracja. Wywołując temat życzliwości SI, natykamy się również na pobłażliwe przytakiwanie, wsparte niejawnym sarkastycznym powątpiewaniem: tak, tak, mamy przecież zasadę życzliwej interpretacji w KPA a inteligentne automaty w urzędach, zgodnie z tą zasada, będą się do nas pięknie uśmiechać.
Wiarygodność obliczeniowa SI, niezależnie od jej konkretnych zastosowań, jest mierzona często jej przejrzystością, umiejętnością wyjaśniania podejmowanych decyzji, zgodnością tych decyzji z przewidywaniami itd. Niemniej, naszym zdaniem, nie jest to droga, która zaprowadzi nas do takiej SI, jakiej człowiek, w szczególności obywatel, będzie ufał.
Co z tego, że system jest przejrzysty, jeśli nie bierze pod uwagę interesu i preferencji samego obywatela? Nie jest to strategia, która gwarantuje spełnienie oczekiwań UE w stosunku do SI. Dopiero uwzględnienie życzliwości (i stojących za nią rozwiązań technicznych), pozwoli na wypracowanie takiego modelu prawnego i funkcjonalnego SI w zastosowaniach publicznych, który spełni oczekiwania pokładane w wiarygodnej SI.

Życzliwość SI to nie jest uśmiech robota upodabniającego się do człowieka (taki robot zresztą, im bardziej przypomina człowieka, tym bardziej budzi jego nieufność). SI, jeśli ma być wiarygodna w zastosowaniach publicznych, to powinna być życzliwa, a to oznacza, że powinna brać pod uwagę dobro obywatela.

Zapraszamy do dyskusji – Bartłomiej Skowron i Marcin Rojszczak.

Zaszufladkowano do kategorii Etyka, Filozofia informatyki, Retoryka, Światopogląd informatyczny | 34 komentarze

Turingowskie inspiracje… czyli o myśleniu ludzi i maszyn raz jeszcze

Szanowni Państwo!

Proponuję podjąć raz jeszcze dyskusję na temat omawiany w blogu co najmniej dwukrotnie…
Polecam, na przykład, dyskusję z roku 2012, a także nieco nowszą, z roku 2019.

W obydwu rozmowach inspirowaliśmy się niezwykle ważnym dla filozofii umysłu tekstem Alana Turinga pt. „Maszyny liczące a inteligencja”. W tekście tym znajdujemy, po pierwsze, oryginalne sformułowanie testu na inteligencję maszyn, nazywanego dziś testem Turinga, po drugie jednak, szereg polemicznych uwag Turinga do wysuwanych w jego czasach argumentów na rzecz niemożności skonstruowania maszyn myślących. Są one zawarte w rozdziale 7 wzmiankowanego tekstu.

Proponuję wziąć te uwagi za punkt wyjścia blogowej dyskusji.

Czy argumenty przytaczane przez Turinga zachowały swoją aktualność? Które z nich są najsilniejsze? Które z nich Turing odpiera w sposób przekonywujący, a które opierają się jego krytyce? Czy możemy dzisiaj, z perspektywy współczesnych dokonań informatyki, wysunąć argumenty inne lub rozbudować jakoś polemikę Turinga?

Wszelkie wypowiedzi mile widziane. Również takie, które wychodzą poza dość wąską definicję myślenia jako czynności możliwej do stwierdzenia za pomocą (werbalnego i behawioralnego zarazem) testu Turinga.

Na rozgrzewkę proponuję  fragment mojego dawnego komentarza z dyskusji prowadzonej w roku 2012.

<<
Interesujący nas temat, czyli [samo myślenie] oraz [hipotetyczne myślenie maszyn], jest niezwykle trudny, ponieważ nie za bardzo potrafimy wyjaśnić jednoznacznie, a także zgodzić się co do tego, cóż to znaczy „myśleć”.
Oczywiście nie tylko my. Nad problemem tym łamią sobie głowy (i pióra) wybitni specjaliści: psychologowie, neurobiologowie, filozofowie itd…
Sam Turing, podobnie jak będący dla niego pewnego rodzaju inspiracją psychologowie-behawioryści (nie badajmy myślenia jako takiego, badajmy korelacje między bodźcami i reakcjami organizmu), próbował ten temat ominąć – próbował bowiem utożsamić myślenie z jego zewnętrznymi przejawami (taka jest w istocie intencja testu Turinga).
Dla Turinga zatem i godzących się z nim dyskutantów “myśleć” to chyba tyle co „skutecznie rozwiązywać problemy (którą to skuteczność daje się jakoś mierzyć)” .
Dla anty-turingowców z kolei „myśleć” to coś więcej, a mianowicie „przeżywać (świadomie) pewne wewnętrzne stany, jak poczucie zrozumienia czy satysfakcji z uzyskanego rozwiązania, które to stany niezwykle trudno opisać obiektywnie”.
Ci pierwsi łatwiej zapewne zgodzą się na możliwość skonstruowania myślących maszyn, ci drudzy trudniej.
Do tego wszystkiego dochodzi jeszcze jedna sprawa. Otóż za odpowiedzią pozytywną na interesujące nas pytanie („Tak. Maszyna może myśleć.”) kryje się dość często czyjeś przekonanie (i podejrzenie zarazem), że umysł ludzki jest w istocie skomplikowaną maszyną, a pozornie tylko wydaje się, że nią nie jest.
Czy nie tak właśnie – mniej lub bardziej świadomie – mniemał Alan Turing (zauważmy, że pada w tekście kilkukrotnie dziwne określenie „ludzka maszyna cyfrowa”)?
Dla osób o takim nastawieniu zupełnie naturalne wydaje się, że maszyny będą mogły kiedyś dorównać mechanicznemu (z założenia) umysłowi. A zatem będą mogły myśleć.
Osoby odpowiadające przeciwnie zakładają z kolei, że „umysł nie jest mechaniczny”, a przyczyną jego nie-mechaniczności może być np. specyficzne fizyczne tworzywo umysłu-mózgu (umysł zatem to nie tylko program, ale nadto substancja ów program implementująca) albo nie-materialna dusza jakoś sprzężona z mózgiem.
Ja proponuję, choćby na chwilę, przyjąć jeszcze inny punkt widzenia.
Otóż, być może, bardziej istotne od pytania o to “czy maszyny mogą myśleć?”, jest pytanie o to “czy maszyny pozwolą nam zrozumieć lepiej, na czym polega ludzkie myślenie?”. Być może taki właśnie najgłębszy sens – tj. chęć lepszego zrozumienia fenomenu ludzkiej myśli – ma konstruowanie i analizowanie maszyn (informatycznych) do sztucznej realizacji czynności poznawczych.
>>

Serdecznie zapraszam do swobodnej rozmowy!

Paweł Stacewicz

Zaszufladkowano do kategorii Bez kategorii, Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 57 komentarzy

Era informacji, informatyczna, cyfrowa…
Czy te i inne „informacyjne” etykiety dobrze pasują do naszych czasów?

Obecnym wpisem chciałbym odświeżyć przedwakacyjną dyskusję pt. „Czy żyjemy w erze informacji i co to znaczy?”.  Temat wydaje się banalny, a odpowiedź oczywista: tak, żyjemy w erze informacji, a sama informacja, głównie za sprawą informatyki, ma coraz częściej postać cyfrową.

Oto próbka tekstu naukowego, w którym termin „era cyfrowa” jest traktowany jako zupełnie oczywista nazwa naszych czasów:

<< Podstawową charakterystyką ery cyfrowej jest bezprecedensowa ekspansja informacji. Począwszy od lat 80. XX wieku, wolumen zgromadzonych na świecie danych i skumulowana moc obliczeniowa podwajają się co 2–3 lata (Hilbert i Lopez, 2011). Koszt standardowej operacji obliczeniowej spada średnio o 53% rocznie (Nordhaus, 2017). Można powiedzieć, że przetwarzanie, przechowywanie i transmisja informacji odspoiły się od możliwości poznawczych ludzkiego mózgu – przed erą cyfrową to człowiek za to odpowiadał, dziś w zdecydowanej większości jest to już domeną komputerów i innych urządzeń elektronicznych. Przed 1980 r. mniej niż 1% informacji było zakodowanych w postaci cyfrowej, dziś ponad 99% (Gillings, Hilbert i Kemp, 2016).>>
Źródło:  J. Growiec, “Społeczny odbiór nauki w erze cyfrowej”, z książki Ewolucja cywilizacyjnej roli i społecznego odbioru nauki

Dyskutując powyższe kwestie kilka miesięcy temu, wiele osób wykazało zdrowy – moim zdaniem –  krytycyzm co do nazbyt pośpiesznych prób nazwania współczesności. Nazbyt pośpiesznych, bo czynionych ze zbyt bliskiej czasowej perspektywy. 
Oto kilka reprezentatywnych głosów:

1.
Uważam, że samo spojrzenie technologiczno-informatyczne może być zbyt zawężoną perspektywą spojrzenia na nasze czasy. Z pewnością jest to jeden z głównych aspektów definiujących nasze społeczeństwo, ale nie jedyny. Myślę, że nie sama informacja jest tu słowem kluczem, a bardziej jest to „globalizacja”.

2.
Czy zatem można powiedzieć, że żyjemy w erze informacji? Osobiście nie zgadzam się z tym stwierdzeniem. Aktualnie posiadamy szybszy przesył informacji, dzięki czemu możemy wykorzystać więcej zasobów, ale informacja nie zyskała większej wagi niż to było w poprzednich epokach. Moim zdaniem trafniejszym określeniem jest to, że „żyjemy w erze danych”.

3.
Nie powiedziałbym, że dzisiejsze społeczeństwo możemy nazwać „społeczeństwem informacji”, jako głównym mianem. Podobnie jak kilku moich przedmówców, nazwałbym nas prędzej „społeczeństwem dezinformacji”. Łatwość dostępu do wiedzy sprawia, że trudniej jest ją filtrować, sięgamy po najprostsze środki (wyszukiwarka Google), nie zastanawiając się, czy strona, na którą trafiliśmy jest wiarygodna. Nie mówiąc już o algorytmach, które wyświetlają nam treści zgodne z naszym światopoglądem, co prowadzi nas do mylnego wrażenia, że wszyscy na świecie myślą podobnie do nas.

4.
Chociaż wszyscy możemy się zgodzić, że komputer jest wynalazkiem definiującym w pewnym sensie nasz czas (jednak należy tutaj też uważać, ponieważ tkwimy w pewnej bańce informacyjnej środowiska informatycznego i nasza opinia może być nieobiektywna), to pozostawiłbym nazywanie obecnych czasów przyszłym pokoleniom. Może nie dostrzegamy czegoś, co było jeszcze ważniejsze dla rozwoju cywilizacji albo może robimy coś nieprawdopodobnie złego (chociażby dla środowiska) przez co zostaniemy nazwani „erą szkód”.

Potraktujmy przytoczone głosy jako sygnał wywoławczy do dalszej rozmowy…
Chociaż wybrałem głosy co najmniej wstrzemięźliwe wobec określeń typu „era informacyjna” czy „cyfrowa”, to niekoniecznie musimy te nazwy skreślać.
Argumentujmy i polemizujmy zgodnie z własnym „rozpoznaniem sytuacji”.

Serdecznie zapraszam do dyskusji – Paweł Stacewicz

Jako materiał pomocniczy proponuję następujące źródła:

♦ artykuł A. Sicińskiego: Społeczeństwo informacyjne: próba nazwania naszych czasów

♦ artykuł J. Growca: Społeczny odbiór nauki w erze cyfrowej

♦ prezentacja P Stacewicza: Informacja jako pojęcie interdyscyplinarne

Zaszufladkowano do kategorii Bez kategorii, Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 29 komentarzy

Analog computations: continuous vs empirical

We would like to invite everyone to discuss the material  that has been presented during virtual conference Computability in Europe (5-9 July 2021).

The entire slideshow (with large sections of text from our paper draft) is available HERE.

We decided to submit it for discussion, because we are now working on a new publication devoted to analog/continuous computations, and all additional critical input, and each additional discussion will be for us very precious.

Thus, we will be grateful for any comments that may contribute both: the improvement of our text (which still is in the reviewing process), and the development of our new ideas.

To encourage you to read the whole slideshow, we put two representative (text) passages below:

Two basic (general) meanings of analogicity

When talking about analog computing, i.e. a kind of non-standard computing, there are two different (yet not necessarily separate) ways of understanding analogicity.

The first meaning, we shall call it AN-C, refers to the concept of continuity. Its essence is the generalisation (broadening) of digital methods in order to make not only discrete (especially binary) but also continuous data processing possible. On a mathematical level, these data correspond to real numbers from a certain continuum (for example, an interval of a form [0,1]), yet on a physical level – certain continuous measurable variables (for example, voltage or electric potentials).

The second meaning, we shall call it AN-E, refers to the concept of analogy. It acknowledges that analog computations are based on natural analogies and consist in the realisation of natural processes which, in the light of defined natural theory (for example physical or biological), correspond to some mathematical operations. Metaphorically speaking, if we want to perform a mathematical operation with the use of a computational system, we should find in nature its natural analogon. It is assumed that such an analogon simply exists in nature and provides the high effectiveness of computations.

In a short comment to this distinction, we would like to add that the meaning of AN-E has, on the one hand, a historical character because the techniques, called analog, which consisted in the use of specific physical processes to specific computations, were applied mainly until the 1960s. On the other hand, it looks ahead to the future – towards computations of a new type that are more and more often called natural (for example, quantum or computations that use DNA).

The meaning of AN-C, by contrast, is more related to mathematical theories of data processing (the theoretical aspect of computations) than to their physical realisations.

The categories AN-C and AN-E are not disjoint, as there are empirical computations that consist in processing continuous quantities.  As such, they are AN-E, but also fall into the AN-C category.

Empirical justification of AN-E computations

AN-E computations are closely related to the theories of empirical sciences (e.g., physics or biology). This means that specific computations of this type could neither be specified nor physically implemented without reference to a specific theory of this type.

Typically, such theories are treated as a tool for accurate description of physical reality in terms of mathematical structures and operations. Thus, their cognitive aspect is highlighted.

From the computational point of view (or more precisely: from the implementation one) they can be treated as a basis for realizing certain mathematical operations by means of physical processes described by these operations. With such an approach, a particular theory is treated as something that justifies the physical implementation of certain mathematical-algorithmic operations. It is therefore a justifying theory for a particular type of AN-E computation.

Once again, we invite everyone to discuss our slideshow — Paula Quinon & Paweł Stacewicz.

Zaszufladkowano do kategorii Bez kategorii | 2 komentarze

Między wiedzą “jak” i wiedzą “dlaczego”.
Kontekst algorytmiczny.

Jako sygnał wywoławczy kolejnej blogowej rozmowy chciałbym przywołać następujący cytat z tekstu Donalda Knutha o algorytmach:

Być może największym odkryciem będącym rezultatem wprowadzenia komputerów okaże się to, że algorytmom, jako przedmiotom badania, przysługuje niezwykłe bogactwo interesujących własności oraz to, że algorytmiczny punkt widzenia jest użytecznym sposobem organizacji wiedzy w ogólności.

Algorytmiczny punkt widzenia…
Zastosujmy go nieco węziej niż to postuluje Knuth, przyjmując, że algorytm stanowi wzorcowy (schematyczny, jednoznaczny, intersubiektywnie dostępny…) zapis wiedzy „jak”, czyli wiedzy o tym, jak rozwiązywać problemy określonego typu. Na przykład: jak znajdować pierwiastki równań kwadratowych czy diagnozować choroby układu oddechowego.
Warto napomknąć tutaj, że na polu epistemologii wiedzę „jak” odróżnia się od wiedzy „że”. Ta pierwsza ma charakter proceduralny, operacyjny, pragmatyczny (w naszym ujęciu: algorytmiczny)… ta druga zaś,  dotyczy faktów i zależności między nimi (oto przykład: Wisła jest dłuższa od Odry); ma zatem charakter deklaratywny lub opisowy.

O użyteczności algorytmów w ogólnym kontekście gromadzenia i zdobywania wiedzy dyskutowaliśmy już kilka razy, np. przy okazji wpisu Siła algorytmów czy wpisu Algorytmiczne podejście do zdobywania, zapisywania i przekazywania wiedzy….

Tym razem proponuję przyjrzeć się zagadnieniu przejrzystości poznawczej algorytmów — koncentrując się roboczo na kontekście informatycznym, a dokładniej na metodach i systemach sztucznej inteligencji (SI). Nie znaczy to oczywiście, że w dalszej rozmowie nie możemy wychodzić poza ten roboczy kontekst!

Otóż we współczesnych systemach SI, a więc systemach służących do automatyzacji czynności poznawczych człowieka (takich jak wnioskowanie czy komunikacja językowa), coraz częściej stosuje się algorytmy (samo)uczące się. Mają one status schematów pomocniczych, a więc schematów „drugiego poziomu”, które prowadzą do udoskonalenia algorytmu właściwego, odpowiedzialnego za działanie systemu.
Przykładowo: jeśli system służy do stawiania diagnoz medycznych, to algorytm właściwy mówi „jak przechodzić od obserwowanych objawów do stwierdzenia takiej a takiej choroby”, natomiast algorytm uczenia się ma na celu wcześniejsze dopasowanie pewnych parametrów algorytmu właściwego (być może nawet: utworzenie go od podstaw), tak aby ten ostatni działał poprawnie.
Dopowiedzmy koniecznie, że sporo współczesnych systemów uczących się ma postać sztucznych sieci neuronowych. W ich przypadku algorytmy uczenia się są pewnymi (inspirowanymi biologicznie) schematami samoorganizacji tych sieci – samoorganizacji, która polega na „dostrajaniu” wag połączeń międzyneuronalnych, a niekiedy też pewnych parametrów sztucznych neuronów.

Mając na uwadze rozróżnienie między algorytmami działania (jak rozwiązać problem, jak podjąć decyzję itp.) oraz algorytmami uczenia się (jak utworzyć lub udoskonalić algorytm właściwy), można postawić zagadnienie przejrzystości poznawczej tych pierwszych.
Chociaż stanowią one wiedzę „jak” i są podstawą efektywnych działań systemu, to w konkretnych przypadkach można się zastanawiać, w jakim stopniu wiedza ta ma status wiedzy „dlaczego”?
Przykładowo: wiemy, jak system stawia diagnozy i widzimy ich poprawność, nie do końca jednak rozumiemy, dlaczego są to takie właśnie diagnozy. Innymi słowy: system ma taką strukturę i taki algorytm działania (np. jest on bardzo złożony lub zawiera pewne techniczne parametry niskiego poziomu), że nie dostarcza wprost dobrych wyjaśnień podejmowanych przez siebie decyzji. Być może nawet, wyjaśnienia takie są w ogóle nieosiągalne.
Mówiąc obrazowo, system taki przypomina nieprzejrzystą poznawczo czarną skrzynkę.

Wobec zarysowanych trudności chciałbym poddać pod dyskusję następujące pytania:

Czy problem nieprzejrzystości poznawczej jest dla informatyków istotny?
Jeśli tak, to jakich systemów/algorytmów dotyczy?
Jakie czynniki ten problem wywołują i potęgują?
Czy znacie Państwo jakieś sposoby przezwyciężania tego problemu?
A może: w przypadku systemów informatycznych wiedza typu „dlaczego” jest nie do końca potrzebna, bo wystarczy skuteczna w praktyce wiedza „jak”?

Zachęcam do swobodnej rozmowy na powyższe tematy – z możliwością wykroczenia poza nie!

Na rozgrzewkę zaś przytaczam historyczny komentarz stałego bywalca Cafe Aleph, niejakiego k-ma, który dotyczył podobnych kwestii (komentarz ten delikatnie przeredagowałem):

<< Wobec współczesnych dokonań informatyki możliwa jest sytuacja, w której wiedza naukowa będzie mogła być efektywnie poszerzana przez „uczące się” automaty — korzystające ze sformalizowanych procedur tak, że plon tej zalgorytmizowanej działalności będzie racjonalny, to znaczy komunikowalny i intersubiektywnie sprawdzalny przez inne automaty korzystające z algorytmów na coraz to nowszych „jakościowo poziomach” — ALE wiedza ta nie będzie mogła się przełożyć na „wiedzę indywidualną” ludzi korzystających z owych automatów. Badacze będą mogli zyskać czasem wiedzę „że” i „jak”, ale nie wiedzę „dlaczego”. >>

Jako materiały pomocnicze do dyskusji (zob. też linki wyżej) proponuję:

tekst Donalda Knutha o roli algorytmów w informatyce
tekst Pawła Stacewicza o metodzie algorytmicznej
slajdy Pawła Stacewicza do wykładu nt, informacji i wiedzy

Serdecznie zapraszam do dyskusji – Paweł Stacewicz

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny, Światopogląd racjonalistyczny | 16 komentarzy

Czy żyjemy w erze informacji i co to znaczy?

Do obecnej dyskusji zapraszam przede wszystkim (choć nie tylko!) studentki i studentów wydziału WEiTI Politechniki Warszawskiej, z którymi prowadzę zajęcia z filozofii informacji.
Na kolejne zajęcia zaplanowaliśmy debatę, którą proponuję rozpocząć wstępnie, a potem kontynuować :), w blogu. Mam nadzieję, że dołączą do nas również inne osoby, w tym stali bywalcy Cafe Aleph.

Tematem debaty jest era informacyjna, a dokładniej znaczenie i zasadność stwierdzenia, że “żyjemy w erze informacji“.
Ze stwierdzeniem tym korespondują rożne inne określenia, bardzo chętnie stosowane przez kulturoznawców, socjologów i filozofów.
Oto szczególnie wyraziste przykłady: społeczeństwo informacyjne (dopełniane zwykle  przymiotnikiem: postindustrialne), społeczeństwo sieciowe (mamy tu podkreślenie roli  Internetu) czy epoka cyfryzacji (uwypuklające rolę wynalazku komputera cyfrowego i powiązanych z nim technologii).

Dlaczego jednak  informację akurat, a nie coś innego, mamy uznać za kategorię definiującą nasze czasy?

Czy przesądza o tym wszechobecność urządzeń i technologii do przetwarzania informacji?

Czy chodzi może o skuteczne zastosowania pojęcia informacji w naukach (biologii, psychologii, fizyce…), które tworzą dzięki temu pojęciu pewien nowy obraz świata?

A może idzie o to, że coraz częściej świat realny zastępuje się wirtualnym, a więc w jakimś sensie informacyjnym?

A może zmienił się dominujący wzorzec aktywności ekonomiczno-gospodarczej i niemal wszystko w tej sferze zależy dziś od pozyskiwanych i posiadanych informacji?

Proszę Państwa, potraktujmy ten katalog pytań jako sygnał wywoławczy do dyskusji, która może się potoczyć również w innych kierunkach!
Wszelkie głosy MILE widziane…

Jako materiał pomocniczy do dyskusji proponuję następujące teksty i prezentację:

♦  artykuł A. Sicińskiego Społeczeństwo informacyjne: próba nazwania naszych czasów

♦  artykuł T. Goban-Klasa Teoretycy społeczeństwa informacyjnego

♦  prezentacja z ostatniego wykładu (wzbogacona o kilka nowych slajdów)

Serdecznie ZAPRASZAM do dyskusji wszystkich Czytelników bloga — Paweł Stacewicz.

Zaszufladkowano do kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny | 25 komentarzy