Algorytmiczne podejście do zdobywania, zapisywania i przekazywania wiedzy. Pożądane czy szkodliwe?

Niniejszy wpis kieruję przede wszystkim, choć nie tylko, do studentów wydziału WEiTI Politechniki Warszawskiej, z którymi mam obecnie zajęcia filozoficzno-informatyczne.
W trakcie tych zajęć poruszyliśmy problem, który był dyskutowany na blogu już kilkukrotnie (zob. np. tutaj), ale wciąż wydaje mi się wart dalszej rozmowy. Chodzi o metodologiczną przydatność pojęcia algorytmu – pojęcia, które znamy przede wszystkim z informatyki.

Czy algorytmizacja, a więc jakiegoś rodzaju schematyzacja i automatyzacja, są w nauce czymś pożądanym? Czy wiedza zapisana, ale także przekazywana, w postaci algorytmicznej, może stymulować rozwój nauki? A może jest inaczej: zbytnia algorytmizacja powoduje, że w nauce i  edukacji zaczyna brakować inwencji i kreatywności?

Można też spytać szerzej: czy podejście algorytmiczne, które przeniknęło do naszej kultury głównie za sprawą wynalazku komputera, wywiera jakiś istotny wpływ na tęże kulturę – wpływ pozytywny lub negatywny? Mam tu na myśli kulturę pojętą całościowo, a nie tylko technicznie…

Bardzo proszę o swobodne wypowiedzi nawiązujące do powyższych pytań; poza które można oczywiście wykraczać :).

Jako lektury wprowadzające  do dyskusji proponuję:

tekst Donalda Knutha o roli algorytmów w informatyce
tekst Pawła Stacewicza o metodzie algorytmicznej

Oto kilka zaczerpniętych z tych prac cytatów:

Knuth:
Być może największym odkryciem będącym rezultatem wprowadzenia komputerów okaże się to, że algorytmom, jako przedmiotom badania, przysługuje niezwykłe bogactwo interesujących własności oraz to, że algorytmiczny punkt widzenia jest użytecznym sposobem organizacji wiedzy w ogólności.

Knuth:
Zacytujmy ponownie George’a Forsythe’a: „Najbardziej wartościowym elementem edukacji naukowej czy technicznej są służące ogólnym celom narzędzia umysłowe, które będą służyły przez całe życie. Szacuję, że język naturalny i matematyka są najważniejszymi takimi narzędziami, a informatyka stanowi trzecie narzędzie” (Forsythe 1959).

Knuth:
Próba sformalizowania czegoś w postaci algorytmu prowadzi do głębszego zrozumienia niż ma to miejsce, gdy po prostu próbuje się daną rzecz pojąć w sposób tradycyjny.

Stacewicz:
Można pokusić się nawet o stwierdzenie, że dana dyscyplina uzyskuje postać dojrzałą wówczas, gdy powstaje w jej obrębie pewien schematyczny rachunek pozwalający z powodzeniem stosować metodę algorytmiczną.

Stacewicz:
Do zalet metody algorytmicznej, należy niewątpliwie wiedzotwórczość, która przejawia się na dwóch poziomach: a) każde zastosowanie algorytmu do nowych danych skutkuje nową wiedzą (rozwiązaniem nowego problemu), b) trafnie dobrany zbiór algorytmów ułatwia penetrację danej dziedziny na nowym jakościowo poziomie (na niższym poziomie dokonała się już automatyzacja).

Serdecznie zapraszam do rozmowy, w której oczywiście sam chętnie wezmę udział.

Paweł Stacewicz.

Ten wpis został opublikowany w kategorii Dydaktyka logiki i filozofii, Filozofia informatyki, Filozofia nauki, Światopogląd informatyczny. Dodaj zakładkę do bezpośredniego odnośnika.

11 Responses to Algorytmiczne podejście do zdobywania, zapisywania i przekazywania wiedzy. Pożądane czy szkodliwe?

  1. Krzysztof pisze:

    Moim zdaniem algorytmizacja w nauce jest zdecydowanie czymś pożądanym, o ile każdy etap algorytmu jest zrozumiały dla odbiorcy. Algorytm zawiera określoną ilość kroków i określony cel, co zdecydowanie ułatwia i zmienia spojrzenie na dany problem oraz na jego potencjalne rozwiązanie. Używając algorytmów dążymy do jak najmniejszej ilości i jak najprostszej postaci instrukcji, dzięki czemu algorytm staje się bardziej efektywny. Identycznie jest w przypadku przekazywania wiedzy. Jedyny problem jaki może się pojawić, to późniejszy rozwój nauki. Niebezpieczeństwo polega na tym, że jeśli uczymy się konkretnego rozwiązania problemu, może to ograniczyć umiejętność szerszego spojrzenia, gdyż możemy zamknąć się w pewnym schemacie myślenia. Niebezpieczeństwo to można jednak znacznie ograniczyć, jeśli każdy krok algorytmu zostanie dokładnie opisany i rozwinięty, tak by zobaczyć pewne mocne i słabe strony nie tylko jednego konkretnego rozwiązania, ale wielu różnych, o ile takie istnieją. Pozwoli to na dogłębne zrozumienie problemu i możliwość rozwoju jakiegoś rozwiązania w kierunku, który jest dla nas istotny.

    • Paweł Stacewicz pisze:

      — Używając algorytmów dążymy do jak najmniejszej ilości i jak najprostszej postaci instrukcji, dzięki czemu algorytm staje się bardziej efektywny. Identycznie jest w przypadku przekazywania wiedzy.

      Tu jako wieloletni dydaktyk miałbym wątpliwości :). Czy faktycznie jest tak, że przekazując wiedzę, powinniśmy dążyć do niezbędnego minimum wyjaśnień lub instrukcji. Z mojego doświadczenia wynika, że jest inaczej. Aby uczeń dobrze zrozumiał temat, należy objaśnić go wielokrotnie i z różnych stron, omówić wiele różnorodnych przykładów, rozwiązać szereg podobnych zadań…
      A zatem, nawet jeśli przekazywana treść winna mieć zwartą i maksymalnie ścisłą postać (co jest uzasadnione np. w przypadku matematyki i dziedzin zmatematyzowanych), to “algorytm” prowadzący do jej zrozumienia przez odbiorcę nie powinien być nazbyt minimalistyczny (jak sugeruje Krzysztof).
      Być może w ogóle nie powinien to być algorytm.

      • Krzysztof pisze:

        Pisząc swoją wypowiedź patrzyłem pod kątem nauki informatyki i mam zamiar podtrzymać taką konwencję swojej wypowiedzi. Być może zbyt ogólnie odniosłem się do upraszczania i przekazywania wiedzy, jednak miałem na myśli fakt, że wiedza powinna być przekazywana w jak najprostszy i jak najbardziej zrozumiały sposób oraz bez zbędnych informacji lub dygresji, które są tylko „ciekawostkami”, a nie mają związku z realnym problemem i z tym czego chcemy się nauczyć. Oczywiście wiedza ogólna jest potrzebna i nie sugeruję tutaj ograniczania rozwoju w różnych kierunkach, jednak czas w branży informatycznej często jest bardzo mocno ograniczony i uważam, że powinno się skupiać na najistotniejszych elementach, dzięki którym później jesteśmy w stanie sami dalej się rozwijać, mając najważniejszą bazową wiedzę. Czy ma to jakiś związek z algorytmicznym podejściem? Myślę, że tak, ponieważ właściwe nauczenie podstaw w odpowiedniej kolejności jest bardzo istotne. Przykładem potwornej niekonsekwencji jest nauka trygonometrii w liceum na fizyce, zanim pojawia się ona na matematyce. Innym przykładem jest zaczynanie nauki programowania od prostego języka, który teoretycznie powinien ułatwić naukę, ale jednocześnie może uczyć złych nawyków i nie jest łatwo zacząć pisać w języku trudniejszym. Więc być może powinien istnieć pewien algorytm, który po prostu szereguje pewne zagadnienia tak, by tworzyły one spójną całość.
        Z drugiej strony istotne jest również co później chcemy robić i jakie są nasze cele. Być może nauka tego, co „jest pod spodem” nie jest konieczna, bo po prostu wykorzystujemy to, co już zostało stworzone? Czy konieczne jest wymyślanie na nowo tego, co już ktoś wymyślił? Ciekawym przykładem mogą być sposoby sortowania. Czy lepiej wiedzieć jak napisać każdy z nich, czy może lepiej świetnie znać biblioteki i korzystać z gotowych funkcji napisanych przez innych programistów (prawdopodobnie lepszych od nas)? Tak naprawdę, w praktyce najważniejsze jest to, żeby wiedzieć, kiedy danego sposobu sortowania użyć i jak je zaimplementować w kodzie, tak żeby program działał jak najbardziej wydajnie, niezależnie czy samo sortowanie zostało napisane przez nas czy przez kogoś. Oczywiste jest, że najlepiej „wiedzieć wszystko”, jednak informatyka jest zbyt rozległą dziedziną i zbyt szybko się rozwija, by móc nauczyć się wszystkiego, dlatego trzeba pójść na pewne kompromisy. Uważam, że powinno się używać algorytmów czy może lepiej nazwać je pewnymi schematami nauki, by umożliwić pójście w danym kierunku i specjalizacji w jakiejś dziedzinie, a nie uczyć się „wszystkiego i niczego”. Przez algorytm nauczania rozumiem przemyślany, konsekwentny i zgodny z pewnym zamysłem plan nauczania, którego celem jest przekazanie najważniejszych informacji potrzebnych do późniejszego samorozwoju w danej dziedzinie.

  2. Kamil pisze:

    Odnosząc się do hierarchii pojęć poznawczych (dane, informacja, wiedza oraz mądrość), można zauważyć, że poznanie jest tym bliższe mądrości, im szerzej jest stosowalne. Dane same w sobie nie stanowią źródła mądrości, ale kiedy stworzymy jakiś ogólniejszy model, wewnątrz którego te dane czy obserwacje są spójne, możemy dojść do pewnej wiedzy. Zauważamy więc, że cenne są metody ekstrakcji czy ekstrapolacji dodatkowych informacji z jakiegoś zbioru danych. Formalnym zapisem takiej metody lub sposobu postępowania są właśnie algorytmy. Algorytmiczne podejście do zapisywania i przetwarzania danych wydaje się być zatem cenną metodą, dzięki której możemy zdobyć nowe informacje czy wiedzę. W istocie, takie formalizmy znajdują już zastosowanie w programowaniu logicznym (np. w języku Prolog), gdzie po zdefiniowaniu faktów oraz reguł, możemy zautomatyzować proces wnioskowania i szybko dochodzić do nowych informacji. Innym przykładem mogą być systemy wspomagające dowodzenie twierdzeń typu Coq lub – bardzo popularne w obecnych czasach – metody uczenia maszynowego. Automatyzowalność tego zadania wydaje się być szczególnie cenna w czasach, w których mamy dostęp do ogromnych ilości informacji. Dodatkowo, dzięki formalnemu podejściu do przetwarzania, mamy pewność, że proces ten został przeprowadzony poprawnie i nie dochodzimy do wniosków nieprawdziwych.

    Metodyka ta jednak wydaje się być jednak ograniczona i powinna być raczej rozpatrywana jako pomoc w rozwoju nauki, a nie jako jej główna metoda. Na chwilę obecną pomysłowość umysłów ludzkich wydaję się być niezastępowalna żadną metodą algorytmiczną.

    W kwestii wpływu na kulturę, można argumentować, iż dostępność metod zdobywania wiedzy z danych motywuje do ich zbierania. Efektem tego może być nadmierna inwigilacja, zbieranie danych o użytkowniku, w celu personalizowania reklam i inne podobne temu zjawiska, widoczne w kulturze.

    W świecie nauki zaś, uniwersalność i często wysoka skuteczność na przykład metod nauczania maszynowego może “rozleniwiać” badaczy i odciągać od rozwijania innych, “klasycznych” metod realizacji danego zadania, które potencjalnie mogłoby być lepsze i dawałoby większe zrozumienie danej dziedziny. W ramach przykładu można przytoczyć dowód twierdzenia o czterech barwach, do przeprowadzenia którego wykorzystano komputery, sprawdzające dużą liczbę przypadków. Dowód ten nie uchodzi za elegancki i nie pogłębił znacząco wiedzy matematycznej.

    • Paweł Stacewicz pisze:

      Odnośnie wykorzystywania w nauce różnych metod automatycznego uczenia się (machine learning) mam pewne drobne spostrzeżenie.
      Napisał Pan:
      “… dzięki formalnemu podejściu do przetwarzania, mamy pewność, że proces ten został przeprowadzony poprawnie i nie dochodzimy do wniosków nieprawdziwych.”
      W przypadku większości metod typu machine learning, tak nie jest. Nie stosuje się tam wnioskowań dedukcyjnych, które gwarantują uzyskiwanie prawdziwych wniosków na podstawie prawdziwych przesłanek (tak jak w przypadku automatycznego dowodzenia twierdzeń), lecz stosuje się często metody inne, np. probabilistyczne czy indukcję. Te metody są wprawdzie realizowane niezawodnie (bo ich realizacją kieruje bezbłędny algorytm), nie zawsze jednak prowadzą do prawdziwych wniosków.
      Zauważmy jednak, że w nauce — niekoniecznie wykorzystującej metody informatyczne – sytuacja wygląda podobnie. Dążymy do prawdy, przybliżamy się do niej, ale wysuwając i uzasadniając różne hipotezy, nie mamy najczęściej pewności, czy są prawdziwe.
      Być może algorytmiczne metody uczenia się czyli automatycznego generowania nowej wiedzy na podstawie obserwacji, pomiarów, przykładów… natchną Państwa do jakichś nowych uwag.

      • Krzysztof pisze:

        Zaciekawił mnie temat dotyczący machine learning do którego się Pan odniósł. Takie algorytmy bardzo rzadko dają idealne wyniki, jednak w większości przypadków sprawdzają się bardzo dobrze. W stosunkowo krótkim czasie można uzyskać wynik tak bliski dokładnemu, że można go uznać za optymalny. Niebezpieczeństwo tych algorytmów polega na tym, że czasami utknie on w ekstremum lokalnym i nie potrafi z niego wyjść, by przejść do ekstremum globalnego. Myślę więc, że może być podobnie w przypadku pewnych schematów nauczania, które mogą nas zamknąć na możliwość dalszego rozwoju. Oczywiste jest jednak, że dobry algorytm służący do machine learningu, radzi sobie z wyjściem z ekstremum lokalnego, więc tak samo dobry algorytm nauczania, powinien dawać możliwość rozwoju.

  3. Kacper pisze:

    Algorytmiczne podejście do rozwiązywania problemów i zdobywania wiedzy jest bardzo przydatnym narzędziem, które pozwala na szybszy rozwój. Przede wszystkim daje ono możliwość głębszego zrozumienia danego zagadnienia, a także pomaga w jego przekazywaniu. Ta zaleta jest widoczna praktycznie w każdej dziedzinie naszej kultury, gdzie algorytmy pozwalają skutecznie formalizować wszelakie operacje.

    Algorytmiczne zapisywanie i przekazywanie wiedzy wpływa również na tworzenie się pewnych schematów, dzięki którym pozyskana wiedza nie musi być na nowo zdobywana. Niesie to ze sobą różnorakie zalety, czego przykładem może być chociażby oszczędzony czas, jaki trzeba byłoby przeznaczyć na ponowne szukanie rozwiązania. Jednakże w tej samej własności jest ukryta również szkodliwość, powodująca zabijanie kreatywności osób stawianych przed danym problemem. W tym wypadku, lenistwo odbiorcy może doprowadzić do mechanicznego powtarzania algorytmu pozbawionego analizy jego działania, co rodzi wiele zagrożeń, z których najpoważniejszymi są możliwość manipulacji odbiorcą, a także niemożność rzetelnego przekazania wiedzy na dany temat.

    Dodatkowo, algorytmizacja pewnych zagadnień zawsze wiąże się z ich częściową automatyzacją. To kolejna cecha tego zjawiska, która wpływa na kulturę w znaczący sposób. Z jednej strony przyspiesza wiele czynności, czego przykładem mogą być linie produkcyjne, które spowodowały znaczący wzrost produkcji danego dobra. Z drugiej zaś, po dzień dzisiejszy, wiele gałęzi przemysłu dalej potrzebuje człowieka jako istoty decyzyjnej przy pewnych procesach. Wiąże się to z ograniczeniami jakie niosą ze sobą algorytmy – zdarzają się przypadki, w których rozwiązania istnieją pomimo braku możliwości stworzenia algorytmu.

    • Paweł Stacewicz pisze:

      — podejście algorytmiczne daje możliwość głębszego zrozumienia danego zagadnienia

      Czy mógłby Pan to rozwinąć… Na czym polega owo głębsze zrozumienie? Czy mógłby Pan wskazać konkretne przykłady zagadnień, w przypadku których dokonało się głębsze zrozumienie?

      • Kacper pisze:

        Próba algorytmizacji pewnych procesów pozwala lepiej zrozumieć ich wewnętrzne działanie. Niektóre naturalnie występujące zjawiska ciężko opisać za pomocą jakichkolwiek narzędzi. Wtedy ich formalizacja, choć uciążliwa, może przynieść nieoczekiwane korzyści, np. w postaci odkrycia nowych właściwości danego zjawiska, o których istnieniu nie miało się pojęcia przed formalizacją.

        Ciekawym przykładem, dobrze wyjaśniającym poprzedni akapit, jest analiza skutków algorytmizacji obserwowana na przecięciu dwóch gałęzi nauki – sztucznej inteligencji oraz neurobiologii. Pierwsze sieci neuronowe czerpały swoje podstawy ze zdobytej przez neurobiologię wiedzy. To na niej były opierane założenia pozwalające projektować i tworzyć pierwsze sieci. Początkowy rozwój tej dziedziny był powolny ze względu na trudności w formalizacji wielu zjawisk, jakim sztuczna inteligencja powinna podlegać. Jednakże rozwijanie tego zagadnienia sprawiło, że dzisiaj sztuczna inteligencja jest powszechnie wykorzystywana w wielu gałęziach przemysłu i różnych innych dziedzinach nauki – w tym w neurobiologii! Okazało się bowiem, że podczas tworzenia algorytmów rozwijających sieci neuronowe, programiści wielokrotnie natykali się na problemy, których ówczesna medycyna nie umiała jeszcze wyjaśnić. Najoptymalniejsze rozwiązania zaprojektowane przez programistów, które pozwalały pchać rozwój ich dziedziny do przodu, były wcześniej wykorzystywane w procesach ewolucyjnych odpowiedzialnych za rozwój umysłu człowieka. Dzięki temu, wiedza uzyskana w ten sposób pomogła nie tylko w dalszym rozwoju sztucznej inteligencji, ale nieraz nakierowała naukowców zajmujących się neurobiologią na nowe odkrycia czy też pomogła im wyjaśnić wcześniej nierozumiane procesy.

  4. km pisze:

    Czy jednak Osobom żyjącym z “uprawiania nauki” zależy na tym by ich dziedzina zyskała dojrzałość w takim rozumieniu ( “dyscyplina uzyskuje postać dojrzałą wówczas, gdy powstaje w jej obrębie pewien schematyczny rachunek pozwalający z powodzeniem stosować metodę algorytmiczną”) ?

    Wskazówką mógłby być odzew specjalistów od nauk prawnych wobec propozycji Andrzeja Malca (stworzenia narzędzi dla algorytmizacji stosowania przepisów) opisanych m . in. w książce przedstawionej w blogowym wpisie.

    Kiedyś robotnicy niszczyli maszyny przemysłowe – może niedługo stosujący nauki prawne, medyczne, techniczne…informatyczne (!!!) będą protestować przeciwko bezdusznym algorytmom niezawodnie realizującym najracjonalniejsze drogi rozwiązania problemów, z którymi do tej pory ścierała się śmietanka intelektualna?

    Może administratorzy sztucznych systemów (automatycznie diagnozujących się, konserwujących się, i dostosowujących się do życzeń swych właścicieli) zamiast „learn to code”, będą polecać starającym się znaleźć źródło utrzymania naukę jakiegoś fizycznego „fachu”, opieki nad domem, dziećmi, niepełnosprawnymi…? – Czegoś co nie tak prosto zautomatyzować jak dziedziny objęte ścisłą formaliazcją.

    Może i na „przodku” nauki „fedrować” tajemnice Rzeczywistości będą nieustępliwe zautomatyzowane systemy generowania nowej wiedzy, testowanej niestrudzenie przez algorytmicznie niezawodne mechanizmy weryfikacji i wdrażania w ramy systemu nie-ludzkiej mądrości?

    Może to jedyna droga gdy „dążymy do prawdy” – nawet takiej, której my już nie pojmiemy?

    Nie chcę straszyć wizją upadku potęgi ludzkiego Umysłu. Ludzkość tworzy wiedzę, dzięki której może zaspokajać swoje potrzeby – automatyzacja (zdobywania jej i stosowania) nie byłaby chyba niczym złym, gdyby dostęp do jej zasobów był powszechny (?)

  5. Mateusz pisze:

    Teza o tym, że algorytmiczne podejście do przekazywania wiedzy wpływa na brak rozwoju takich cech jak kreatywność, czy umiejętność nieszablonowego rozwiązywania problemów wydaje mi się jednoznacznie prawdziwa. Podając uczniowi gotowy algorytm jako remedium na jakiś problem, pozbawiamy proces rozwiązywania go zasadniczej fazy, czyli rozważań nas sposobem jego rozwiązania. Jest to sytuacja w pewnym sensie sztuczna, jako że w rozważaniach dotyczących codzienności i przy podejmowaniu zwykłych życiowych wyborów często pozbawionym jest się tego rodzaju algorytmicznej solucji. Możnaby więc twierdzić że algorytmiczne podejście do nauczenia, mimo że pozwala na szybszą naukę sposobów rozwiązywania problemów danej dziedziny, w rzeczywistości upośledza odbiorców edukacji przedstawiając im sposób rozwiązywania problemów, który jest nie do zastosowania w dorosłym życiu i zwyczajnym funkcjonowaniu. Upośledzenie to może następować również w innym rozumieniu – tego typu sposób nauczania może zniechęcać do refleksji nad swoim życiem/funkcjonowaniem dając złudzenie że w kwestiach np. planowania swojego życia zastosować można podejście algorytmiczne tj. że istnieją optymalne ścieżki rozwoju, które pozwalają osiągnąć szczęście czy satysfakcję. Przykładem takiego algorytmu jest droga szkoła->studia->stała praca->założenie rodziny. Rzeczywistość jednak często wymyka się tego typu uproszczeniom i wiele osób po czasie orientuje się, że w rzeczywistości nigdy nie panowało nad swoim życiem i nie było w istocie wolnymi, a po prostu realizowało dany algorytm dając ponieść się potężnej sile inercji, której przezwyciężenie po wejściu na jasno określoną życiową ścieżkę jest często bardzo trudne.

    To, że z tego typu system edukacji spotykamy się obecnie w Polsce widać dobrze na przykładzie matur i testów. Uczą one uczniów w sposób zdecydowany, że kombinowanie właściwie się nie opłaca. Niezastosowanie algorytmu do rozwiązania postawionego problemu może skończyć się nietrafieniem w klucz i utratą cennych punktów. Niealgorytmiczne podejście do nauki do egzaminów jest poza tym zwyczajnie nieopłacalne czasowo. Nie ma sensu poznawać jakiejś dziedziny w sposób ogólny przygotowując się do egzaminu, kiedy zadania są do siebie bardzo podobne i schematyczne. Przykładem może być tu matura z matematyki. Połowa zadań jest co roku taka sama i najlepszym sposobem na nauczenie się do tego egzaminu nie jest czytanie podręczników matematycznych, a ciągłe wykonywanie zadań ze zbiorów przygotowawczych, w celu wytworzenia, mniej lub bardziej świadomie, algorytmów służących do rozwiązywania danego typu zadań. Twierdzę więc, że algorytmiczne podejście do edukacji prowadzić może do mocnego spłycenia spektrum rozważań przeciętnej osoby oraz zatracenia umiejętności radzenia sobie z wieloma problemami.

    Pytanie, czy sytuacja ta jest jednak jednoznacznie negatywna. Rozważyć ją można z dwóch perspektyw – indywidualnej oraz społecznej. Zejście jednostki z utartej drogi może często skończyć się w sposób dwojaki – spektakularnym sukcesem lub upadkiem. Niedostowanie życiowe z kolei może być łagodzone poprzez opiekuńczą działalność państwa oraz nie objawiać się nader widocznie w przypadku redukcji życia do minimum, gdzie jedynym wyborem jest wybór miejsca wyjazdu na wakacje i artykułów spożywczych na obiad (nie objawiać się w kwestii zaburzeń codziennego funkcjonowania jednostki). W kwestii społecznej należałoby zastanowić się, jacy ludzie w większości potrzebni są do funkcjonowania społeczeństwa – ludzie kreatywni i pomysłowi, czy ludzie umiejący w sprawny sposób realizować powierzone im jasno określone zadania. Pytanie to można zadać zarówno w kwestii optymalnego funkcjonowania społeczeństwa, jak i jego stabilności (ludzie mało pomysłowi i mało refleksyjni wydaja się stanowić mniejsze zagrożenie dla ustanowionego porządku społecznego).

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *