Obecny wpis stanowi kolejną odsłonę tematu, które dyskutowaliśmy w blogu już kilkukrotnie. Ostatnią dyskusję — potraktujmy ją jako zakończoną i nowe komentarze dodawajmy już tutaj — można przeczytać w tym miejscu.
Tegoroczny wpis kieruję przede wszystkim – choć nie tylko! – do uczestników moich zajęć na Wydziale Elektroniki i Technik Informacyjnych PW, pt. „Filozofia informacji i techniki”; zwłaszcza tych uczestników, którzy zapisali się do dyskusji online, i zobowiązali się przedstawić swoje wstępne argumenty w postaci osobnych komentarzy do tego wpisu…
Czekając na pierwsze głosy, przedstawiam niżej – dla rozgrzewki i zachęty zarazem – krótką składankę argumentów, których używali studenci w latach ubiegłych.
Oto ona:
1. Pierwszą kwestią na jaką warto zwrócić uwagę jest fakt, że dzisiaj przy budowie tranzystorów, które stanowią konieczny element współczesnych komputerów cyfrowych, używa się krzemu. Naukowcy przewidują że do 2023 roku możliwości tego pierwiastka wyczerpią się i nie będziemy w stanie bardziej zmniejszyć układów, ponieważ będą nas ograniczały rozmiary elektronów.
W tym kontekście warto zauważyć, że często lepsze osiągi otrzymujemy nie dzięki rozwojowi hardware’u, lecz dzięki optymalizacji software’u. Dlatego, nawet kiedy wykorzystamy już całkowicie możliwości krzemu, mimo wszystko wciąż będziemy mogli z niego „wyciągnąć” więcej. Również za sprawą technik sztucznej inteligencji.
2. Jedną z najbardziej obiecujących technologii przyszłości, rozwijaną już dzisiaj, są komputery kwantowe. Pozwalają one na tysiące razy wydajniejsze przetwarzanie danych, ponieważ stosowane w nich q-bity (kwantowy odpowiednik bitów) mogą być jednocześnie w obu stanach (a w standardowych komputerach przyjmują tylko jeden stan).
Istnieje już IBM Q Experience – platforma online dająca każdemu dostęp do zestawu prototypów komputerów kwantowych IBM przez chmurę. Może być wykorzystywana do testowania algorytmów „kwantowych” czy innych eksperymentów.
3. Kolejne kilka technologii, o których wspomnę jest wymieniana jako jedne z możliwych technologii, które zastąpią komputery cyfrowe, jednak póki co są dalekie do jakiejkolwiek realizacji.
Pierwszą z nich są komputery oparte nie o przepływ elektronów, ale o przepływ światła. Jak wiemy światło osiąga największą prędkość we wszechświecie, czyli dałoby to możliwości zbudowania komputera o maksymalnej możliwej szybkości przesyłania sygnałów. Problemem jaki napotykamy jest to, że fotony nie mają masy i związane z tym problemy zbudowania czegoś podobnego do tranzystora w oparciu o światło.
Drugą ciekawą koncepcją jest zbudowanie komputera opartego o DNA. DNA posiada każdy organizm żywy, więc jeśli chodzi o zasoby to są one ogromne zwłaszcza, że może się ono odnawiać. Z pewnych opracowań naukowych wiadomo także, że za pomocą odpowiedniej manipulacji łańcuchami DNA udaje się rozwiązywać bardzo złożone problemy kombinatoryczne.
Kolejną ideą, która stanowi rozwinięcie powyższej, jest komputer biologiczny, którego i podstawowe elementy przetwarzające byłyby wzięte wprost z natury (np. byłyby to realne komórki nerwowe jakiegoś organizmu, np. szczura). Architektura takiego układu byłaby również wzorowana na naturze, np. przypominałaby architekturę mózgu.
Powyższe argumenty są oczywiście tylko „sygnałem wywoławczym”.
Czekam na głosy tegoroczne, równie ciekawe (i rozbudowane) jak powyższy miks.
Zachęcam też, aby komentarze odnosiły się do siebie wzajem, tworząc żywą dyskusję.
Zapraszam do dyskusji WSZYSTKICH czytelników bloga — Paweł Stacewicz
1. Jak już pisano wcześniej, prawie osiągnęliśmy próg poprawnie działających tranzystorów (poniżej 5nm są bardzo duże problemy w pracy tranzystorów). Ale nasz procesor jest „zbudowany” w 2D. Chociaż i składa się z kilku warstw, ale wciąż jest 2D. Następnym krokiem będzie przejście z 2D do 3D (https://en.m.wikipedia.org/wiki/Three-dimensional_integrated_circuit). Oraz powieszenie rozmiarów L1, L2, L3 cachów spowoduje przyspieszenie komputerów. Można powiedzieć, że ulepszenie architektury procesora to będzie coś, czym będziemy zajmować się przez następne 10 lat.
2. Co dotyczy komputerów kwantowych, to trzeba rozumieć, że one będą przeznaczone do zupełnie innych problemów niż te, które mamy teraz. To oznacza że zagrać w Red Dead Redemption 2 na komputze kwantowych nie da sie, ale rozwiązać specyficzny problem matematyczny – tak.
3. Nie wiem, co będzie z komputerem biologicznym, ale napewno ludzie wkrótce co więcej będą zajmować się biohackingiem. I moim zdaniem mózg człowieka połączy się z komputerem.
Moim zdaniem, oprócz oczywistej kontynuacji rozwoju badań w zakresie samego hardware’u (zmniejszania wielkości tranzystorów itp.) najbardziej przyszłościową dziedziną może być bioinformatyka, gdyż w momencie kiedy ludzkość będzie potrafiła zrozumieć i skomunikować sie z naszymi mózgami za pomocą elektroniki, większość problemów do których używamy komputera będziemy mogli użyć naszego mózgu ( policzenie złożonego równania np.). W dodatku możliwe, że wtedy interfejs wykorzystujący nasz mózg będzie mógł być zasilany wprost z organizmu, tak jak nasze organy, co ograniczy pobór mocy całej populacji, co w czasach, kiedy jako ludzkość mamy coraz mniej paliwa naturalnego może być ważne. Jednak mimo pozytywnych stron takiej technologii, jest jednakowoż lekko straszna, jeśli chodzi o hacking i temu podobne, gdzie nasz mózg będzie służył komuś innemu.
— w momencie kiedy ludzkość będzie potrafiła zrozumieć i skomunikować sie z naszymi mózgami za pomocą elektroniki, większość problemów do których używamy komputera będziemy mogli użyć naszego mózgu ( policzenie złożonego równania np.)
Czy mógłby Pan rozwinąć ten temat…
Bo kontrowersyjne jest założenie, iż za pomocą wykorzystywania ludzkich mózgów będziemy mogli rozwiązywać problemy matematyczne (w tym: bardzo złożone równania) szybciej niż za pomocą współczesnych komputerów. Wszak po to je wynaleźliśmy, aby móc szybko i niezawodnie rozwiązywać problemy, które są dla naszych umysłów zbyt złożone (chociażby ze względu na zbyt dużą liczbę operacji do wykonania i wyników pośrednich do zapamiętania).
O jakim sposobie wykorzystywaniu mózgów Pan myśli? Czy złożoność mózgu, a nawet pojedynczego neuronu, nie jest zbyt wielka, aby można się nim(i) było posługiwać skutecznie i bezpiecznie?
Oczywiście Pana punkt widzenia jest jak najbardziej słuszny, lecz mi raczej chodziło o wykorzystanie mózgu człowieka jakby poza świadomością człowieka. Chodzi mi dokładnie że mózg stanowiłby „procesor”. Zadawalibyśmy dany problem interfejsowi który używa naszego mózgu, a od interfejsu dostawalibyśmy tylko wyniki. Dzięki czemu wielu ludzi połączonych ze sobą, mogliby wspierać jakieś trudne obliczenia czy symulacje użyczając mocy obliczeniowej swojego mózgu, a nawet nie będąc świadomym jakie obliczenia wykonuje nasz mózg.
Z tego co wiem, w budowaniu sieci neuronowych używa się prostego modelu neuronu, więc raczej wątpię czy złożoność jednego neuronu jest przeszkodą, natomiast co do mózgu, jak najbardziej się zgadzam że jest to struktura bardzo złożona, natomiast jestem dobrej myśli jeśli chodzi o rozwój nauki, kiedyś przeszczepy serca były rzeczą nie do wyobrażenia, teraz robi się to regularnie, więc może w przyszłości ludzkość zrozumie kompletnie jak działa mózg.
Nawiązując do połączenia ludzkiego mózgu z komputerem, moim zdaniem jeśli udałoby nam się coś takiego stworzyć to komputer nadal miałby podobną role czyli wspomagałby nasz mózg właśnie poprzez wykonywanie obliczeń, rozszerzałby możliwości naszej pamięci (natychmiastowe wyszukiwanie i zapisywanie pomysłów, wspomnień), sprawiałby że od razu posiadali byśmy umiejętności takie jak znajomość języków obcych czy twierdzeń matematycznych. W ten sposób całkowicie moglibyśmy odrzucić „problemy” wkuwania zasad czy twierdzeń na pamięć i skupić się całkowicie na wymyślaniu nowych rzeczy. Czyli na pracy kreatywnej w której nasz mózg jest nieocenionym narzędziem i na tym polu deklasuje komputery (przynajmniej w obecnych czasach).
Komputery oparte na przesyle światła
Światło osiąga największą prędkość we wszechświecie, zatem lepiej sprawdzi się w przesyłaniu danych niż powolne elektrony. Współcześnie w telekomunikacji do budowy nowych sieci wykorzystuje się światłowody zamiast zwykłych przewodów opartych na przesyle elektronów.
Kodowanie informacji do fotonów jest dość proste (robimy to już w światłowodach), problem stanowi przetwarzanie informacji, przesyłanych światłem. Współczesna technologia umożliwia nam tylko przesyłanie informacji za pomocą fotonów, następnie w celu pracy nad danymi, informacje muszą zostać przetworzone na wolne elektrony. Problemem w skonstruowaniu mikroukładów które mogły by pracować ze światłem jest ogromna szybkość światła oraz to, że fotony nie posiadają masy podczas spoczynku. Mimo tych trudności wydaję mi się, że naukowcy szybko znajdą rozwiązanie. Praca nad półprzewodnikami, na których oparta jest cała dzisiejsza elektronika nie była łatwa, Wolfgang Pauli ~ “Nikt nie powinien się zajmować półprzewodnikami, to takie mętne bagno. Kto wie czy one w ogóle istnieją!”.
Komputery kwantowe
Komputery kwantowe to bez wątpienia technologia przyszłości. Nad komputerami kwantowymi pracuje teraz wiele firm, istnieje już możliwość kupienia komputera kwantowego do użytku komercyjnego.
Technologia pozwalająca wykonywać obliczenia dziesiątki tysięcy razy szybciej od klasycznych komputerów. Kwantowa jednostka informacji – kubit różni się od klasycznych bitów tym, że oprócz wartości 0 lub 1 posiadają pełen zakres stanów pośrednich. Kubit jest w stanie przenosić o wiele więcej informacji, dzięki czemu jego wydajność jest wielokrotnie wyższa.
FPGA
Układy programowalne znane są już od wielu lat, lecz wydaję mi się, że w niedalekiej przyszłości staną się one bardzo często wykorzystywane. Układy FPGA dzięki optymalizacji pod to konkretne zastosowanie oferują znacznie wyższą wydajność i skuteczność niż konwencjonalne układy, pozwalają na wykonywanie tysięcy obliczeń równolegle, dzięki temu są szybsze od procesorów.
Firma Microsoft ogłosiła, że każdy ich nowy serwer będzie posiadał układ FPGA.
Chmura
Coraz więcej usług firmy udostępniają jako wirtualne narzędzia, do których klientowi udostępniają moc obliczeniową. W niedalekiej przyszłości wydaję mi się, że prawie wszystko będzie się znajdowało w chmurze, a firmy będą udostępniały serwery zapewniające optymalną moc obliczeniową do działania programu.
Obliczenia kwantowe
Pozwalają na dużo szybsze obliczenie konkretnych problemów. Co jest ich przewagą? – przewagą jest to, że jeżeli mamy np. 32 qbity to tak jakbyśmy obliczali jakiś problem na 232 procesorach, ale płacimy rachunek za prąd z tylko 1 procesora. Przewaga qbitów jest taka, że są dowolną superpozycją 2 stanów kwantowych, ten fakt pozwala na prowadzenie wielu obliczeń na raz. Warto zauważyć, że aktualne komputery kwantowe są w fazie prototypów, obliczenia kwantowe pozwoliłyby na złamanie dzisiejszego szyfrowania danych w szybkim czasie, dlatego „era komputerów kwantowych” zmieniłaby nasz sposób szyfrowania danych. Do takich obliczeń potrzebowalibyśmy komputera z ok. 6000 qbitów, aktualnie największy komputer kwantowy ma 53 qbity. Dlatego na razie nasze dane są bezpieczne.
Najbliższa przyszłość
Aktualnie szybkość Internetu, cena pamięci oraz serwerów powoduje, że obliczenia najlepiej wykonywać w chmurze i pobierać z serwera, np. najnowszy Microsoft Flight Simulator będzie symulatorem streamowanym z chmury, ponieważ będzie potrzebował 2 petabajty danych!, Azure AI będzie analizowało mapy oraz fotogrametrię by stworzyć otoczenie w którym znajduję się użytkownik i wyślę to do niego, takie obliczenia na komputerze użytkownika nie były w większość przypadków możliwe, takie podejście pozwala na granie w bardzo realistycznie wyglądającą i zachowującą się grę nawet na słabszych komputerach. Aktualnie profesjonalne symulatory opierają się na około 10 lokalnych komputerach, ta technologia pozwala osiągnąć ten sam /podobny poziom realizmu u normalnego użytkownika w domu.
Dlatego najbliższa przyszłość będzie się cechować przystępnymi usługami obliczeniowymi na subskrypcję.
Nie ulega wątpliwości, że jesteśmy w stanie wyobrazić sobie informatyczny świat w ciągu najbliższych kilkunastu lat- rozwój tych zagadnień, które dzisiaj stają się popularne (Internet rzeczy, uczenie się maszyn itd.), natomiast przewidywanie jakie techniki obliczeniowe staną się przyszłością informatyki stwarza pewien problem.
W moim mniemaniu najbardziej obiecującym filarem informatyki przyszłości jest kwantyzacja komputerów. Zastąpienie bitów (w komputerze klasycznym) na kubity (w komputerze kwantowym) pozwoli na rozwiązywanie, w rozsądnym czasie, takich problemów, na których rozwiązanie za pomocą klasycznego komputera musielibyśmy czekać godziny a nawet lata.
Ciekawe z punktu widzenia informatyki wydają się również komputery biologiczne złożone z DNA. Nie sądzę, aby osiągnęły one wydajność rzędów komputerów kwantowych, natomiast sam fakt, że DNA posiada każdy żywy organizm (czerpiemy z bardzo głębokiego i odnawialnego źródła) napawa ogromnym optymizmem.
Fantazjując nieco, możemy wyobrazić sobie komputery sprzężone z ludzkim mózgiem oraz zasilane za pomocą ludzkiego organizmu – takie rozwiązanie, choć wydaje się nieco nierealne, może stać się codziennością przyszłych pokoleń.
Ponieważ kilka osób odniosło się wyżej do obliczeń i komputerów kwantowych (jako technologii przyszłości), zachęcam do przejrzenia slajdów prof. Marka Kusia, specjalisty w zakresie fizyki kwantowej, poświęconych obliczeniom kwantowym.
Są one dostępne w blogu, pod zakładką Seminarium:
http://stac.calculemus.org/pdf/Seminarium-2019-20/mk_N.pdf
Jeśli zaś chodzi o tzw. kwantowe przyspieszenie, to nie zależy ono tylko od zamiany bitów na qbity (jak sugerują powyższe komentarze), lecz bardziej od pewnych właściwości układów kwantowych, podlegających prawom mechaniki kwantowej. Prawa te są zaś na tyle nieintuicyjne i różnie interpretowalne (nawet dla fizyków), że programowanie/konfigurowanie komputerów kwantowych może stanowić spory problem. Czy ktoś z dyskutantów ma na tym polu jakieś doświadczenia?
Co do pierwszych kilku wątków komentarzy:
W rozmowie z wykładowcą MIT Lex’em Friedmanem niejaki Yann Le Cun (współtwórca technologii deep learning i ojciec convolutional neural networks) dowodził tego, że twierdzenie, iż ludzka inteligencja to „general intelligence” jest nieuzasadnione (na iście inżynierski sposób) wskazując, że po przecięciu nerwu wzrokowego, pomieszaniu i ponownym połączeniu neuronów systemy mózgowe przetwarzające dane z oka nie poradzą sobie z „interpretacją” danych – nie będą zdolne do obliczenia niczego sensownego. Nie wiem czy to idealny przykład obrazujący brak uniwersalności ludzkiego Umysłu, ale na pewno (jeśli ma rację co do wyników eksperymentu – nie wiem czy go ktoś w praktyce wykonywał) może być problem z wprzęgnięciem ludzkich mózgów w „farmy obliczeniowe” (których idea pojawiła się w dyskusji między Dr-em Stacewiczem a Jakubem Kajzerem). Istotnie ludzkie struktury neuronalne mózgu zdają się być dość ściśle wyspecjalizowane – gdy różni ludzie podejmują podobne czynności intelektualne (czytają, mówią, liczą itd.) we wzorach aktywności neuronalnej (badanych metodami obrazowania mierzącymi fizyczne parametry mózgu) daje się dostrzec dość wyraźne prawidłowości. To dlatego neurolodzy potrafią przewidzieć jakie deficyty poznawcze mogą dosięgnąć pacjentów, którzy uszkodzą sobie określone miejsce w mózgu. Mózgi nie są tak plastyczne jak mogłoby się wydawać – w szczególności jeśli chce się je zaprzęgnąć w coś do czego nie były „ewolucyjnie zaprojektowane” (co można sobie także łatwo uświadomić próbując wyobrazić sobie obraz 6-wymiarowego analogu 3-wymiarowego czworościanu foremnego).
To kłopot także dla tych, którym pomysł połączenia możliwości liczących maszyn cyfrowych i ludzkiego zrozumienia – zdolnego to twórczych rozwiązań – wydaje się obiecujący. Tym bardziej, że sam Elon Musk (miliarder, twórca marki aut Tesla, jeden z pionierów prywatnego przemysłu kosmicznego… bywalec festiwalu Burning man i zdaje się ojciec siedmiorga dzieci) obiecuje nam, że jego nowy pomysł Neurolink (jako nowy sposób „bezpośredniego połączenia” mózgu z komputerem, pomijający ograniczenia dotychczasowych interface’ów) ma zrewolucjonizować kulturę. Rzeczywiście kusząca jest wizja końca z „wkuwaniem zasad czy twierdzeń na pamięć”, mozolnej nauki języków, czy innych trudów, tak by w końcu można było się skupić na kreatywności i „wymyślaniu nowych rzeczy” (jak w komentarzu Michała Ryszki).
Sęk w tym, że byłoby możliwe w dwóch przypadkach:
1. Umysł ludzki postawiony przed zbiorami twierdzeń dokonuje twórczego rozwiązania dzięki jakiejś metafizycznej interwencji, której doświadczają wybrańcy tj.: nie ważny jest mozolny trud nauki twierdzeń, prób ich zrozumienia, sprawdzenia ich działania w niezliczonych przykładach tak by wytworzyło się swoiste dla danego – starającego się je pojąć człowieka – zrozumienie. Granice języka nie są granicami Świata: relacje pomiędzy znaczeniami poszczególnych pojęć, których używać uczymy się w określonych okolicznościach nie są „znaczące”.
– Moglibyśmy skupić się na wytwarzaniu nowej mądrości gdyby oferowany przez maszyny dostęp na życzenie do dowolnego twierdzenia, czy teorii wystarczył do ich zrozumienia. Ale jeśli tak by było, to już teraz sprawność w korzystaniu z google’a i dostęp do zasobów internetu powinna uczynić z nas mędrców i twórców nowych sensownych teorii naukowych.
2. Albo musielibyśmy być zdolni do takiego połączenia komputera z mózgiem by nie dawał on dostępu do jedynie spisanej treści twierdzenia ale do jego rozumienia (wszelkich intuicji, przeświadczeń jakie wytwarzają się w miarę nauki u ludzi rzeczywiście poznających daną dziedzinę) a to wydaje się niezwykle trudne. Systemy komputera musiałyby przeniknąć struktury mózgu, lub sygnały docierające z komputera w danym miejscu do mózgu musiałyby odzwierciedlać wszelkie elementy jakie towarzyszą myśleniu o danych ideach u osoby która nauczyła się ich w „tradycyjny” sposób.
– To temat na osobny tekst, i choć idea jest bardzo ciekawa, jej realizacja zdaje się być odległa.
Z drugiej strony obietnice Musk’a są zastanawiające – wszak nawet gdyby jego Neurolink potrafił „jedynie” podłączyć się do mózgu tak by treści z komputera pojawiały się tak jakbyśmy je widzieli (choć nie mamy przed oczyma ich realnego źródła, jedynie wirtualne fenomeny rozszerzają nasze pole widzenia Rzeczywistości), to znamionowałoby to takiego typu „rozgryzienie” mózgowej sprawności (przekładania impulsów na „zdolność widzenia”) że już powinien on reklamować Neurolink jako sposób na przywrócenie wzroku u osób, które w wyniku urazu oczu utraciły wzrok (zamiast treści z internetu wystarczyłoby „po drugiej stronie” neurolinku podstawić informacje z kamery).
Jest nad czym się rozmyślać – wszak podobne „rozwikłanie” nawet pojedynczych systemów mózgowych otworzyłoby drzwi do biohackingu o którym wspomniał Anrei Shumak, ale i do podziału zupełnie nowych jakości w podziale ludzkości na klasy o różnych możliwościach. Jednak abyśmy rzeczywiście dokonali jakościowego skoku w realnym rozumieniu Rzeczywistości (a nie jedynie polegającego na szybkości dostępu do źródeł) to wymagałoby to zrozumienia/ uzyskania kontroli nad procesami rozumienia realizującymi się w ludzkim mózgu.