Filozofia (el)
- Autor: Anna Leszkowska
- Odsłon: 439
Produkty nowej rewolucji technicznej: Nadludzie i nadkomputery (cz. 1)
Nadczłowiek
Jeśli głupi nie korzystają z własnego rozumu, to po co im sztuczna inteligencja.
Nietzscheańska koncepcja nadczłowiekaPrzez nadczłowieka rozumiem osobę, która przekracza swoje granice zdefiniowane przez odpowiednie prawa przyrody i systemy zakazów kulturowych obowiązujące w jej środowisku.
Jedną z koncepcji nadczłowieka przedstawił niemiecki filozof Friedrich Nietzsche w traktacie „Tako rzecze Zaratustra; książka dla wszystkich i dla nikogo", wydanej w latach 1883-1885. Nadczłowiek jest jednym z pojęć w jego filozofii, które odgrywa kluczową rolę w krytyce współczesnej moralności i kultury. Zdefiniował on nadczłowieka jako istotę, która dążąc do samorealizacji musi wykraczać poza granice wytyczone przez zakazy kulturowe, ufundowane na tradycyjnych wartościach i normach społecznych. W ich miejsce wprowadza własne wartości, normy i zasady, według których układa sobie życie i nadaje mu sens. Ta idea nadczłowieka powstała na bazie krytyki moralności chrześcijańskiej przez Nietschego, którą nazwał „moralnością niewolników”, ponieważ promuje wartości takie jak pokora, współczucie i słabość.
Nadczłowiek odrzuca te wartości. Zamiast nich promuje inne - siłę, moc i twórczość, które uznaje za wartości wyższe od tamtych. Dążąc do realizacji swoich celów i przejmowania kontroli nad swoim życiem, kieruje się mocą woli, która jest główną siłą napędową życia i twórczości. Upadek wartości tradycyjnych oznacza śmierć Boga i nihilizm – bezsens i pustkę. Temu przeciwstawia się moc twórcza nadczłowieka. Ta koncepcja nadczłowieka została zdeformowana i nadużyta przez ideologię nazistowską, która próbowała ją wykorzystać do uzasadnienia nacjonalizmu, rasizmu i eugeniki, czemu stanowczo sprzeciwiał się Nietsche.
Nowa koncepcja nadczłowieka
Inna niż nietzscheańska koncepcja nadczłowieka definiuje go jako istotę nieśmiertelną, tzn. charakteryzującą się nieskończenie długim trwaniem, a więc w pewnym sensie zjednoczoną z nieskończonością. Zawsze, jednym z marzeń człowieka było pokonanie śmierci za pomocą zapewnienia sobie wiecznego bytowania, by nie umrzeć całkowicie. To marzenie jest wciąż aktualne.
Dawniej starano się zrealizować je na różne sposoby, między innymi w wyniku mumifikacji i balsamowania ciała, malowania portretów albo stawiania sobie nagrobków w postaci „pomników trwalszych od spiżu, wznioślejszych od królewskich budowli piramid, których ni deszcze żarłoczne, wichry szalone, lat szeregi bez końca i wieki w swym biegu nie zdołają zniszczyć”.*
Teraz to marzenie można spełniać na inne sposoby dzięki postępowi techniki w różnych dziedzinach, ale przede wszystkim w sferze informatyki. Niczym innym, jak jednoczeniem się z nieskończonością są loty kosmonautów w przestrzeń pozaziemską do bezkresnego kosmosu.
Najnowszy sposób łączenia się człowieka z nieskończonością pojawił się w efekcie digitalizacji człowieka. Digitalizacja człowieka stworzyła najnowszy sposób łączenia się człowieka z nieskończonością - aktywne (świadome) lub pasywne (niecelowe) pozostawianie swoich śladów cyfrowych w chmurach informacyjnych (Chmura internetowa, zwana też informacyjną, to sieć połączonych ze sobą serwerów, która działa podobnie jak pendrive).
Ślad informacyjny to zbiór informacji pozostawiany w rzeczywistości wirtualnej w trakcie korzystania z Internetu. W czasach „big data” taki ślad, zwany również „cyfrowym cieniem”, pozostawia po sobie każdy, kto znajdzie się i działa w cyberprzestrzeni. Generuje on dane, również „wrażliwe”, czyli bardzo osobiste, które natychmiast trafiają do baz danych w chmurach internetowych. W ten sposób tworzy swój e-image i swoją e-tożsamość, które od pewnego czasu stają się specyficznymi towarami, chętnie nabywanymi przez oszustów oraz różne organizacje zajmujące się inwigilacją ludzi. Są one bardziej ich łupem aniżeli zwykłymi towarami.
Ślad cyfrowy może być aktywny, jeśli zawiera dane użytkownika zawarte np. w postach w mediach społecznościowych, komentarzach, rejestracji w serwisach internetowych, które świadomie udostępnia się online. Może też być pasywny, jeśli powstaje bez aktywnego udziału użytkownika mediów internetowych, gdy zawiera się np. w adresach IP, plikach cookies, historii przeglądania stron internetowych lub w danych lokalizacyjnych (GPS).
Ślad informacyjny jest niewidoczny, trudny do usunięcia i może być przechowywany przez „nieskończenie” długi czas w chmurach internetowych. Użytkownik posiadający dostęp do takiej chmury może na niej umieszczać swoje dane, zdjęcia, filmy, dokumenty, programy a nawet cały komputer z systemem oprogramowań.
Do niedawna firmy informatyczne udostępniały tę usługę za darmo. Teraz już sprzedają, ponieważ pojawił się intratny „rynek śladów informacyjnych” o szacunkowej wartości sięgającej już miliardy dolarów, na którym jest coraz więcej chętnych do łączenia się z nieskończonością. Przeważnie są to ludzie bogaci i naiwni, którzy uwierzyli w to, co pisze się w mediach i pokazuje w reklamach na temat możliwości wiecznego bytowania w postaci swojego śladu informacyjnego, szybującego na chmurach internetowych gdzieś w przestworzach. Nota bene, na obietnicy nieskończonego trwania - zmartwychwstania, życia pozagrobowego itp. - żerują także wszystkie religie od początku ich istnienia.
Chmura internetowa posiada następujące zalety:
• Wysoki stopień bezpieczeństwa. (Bardziej prawdopodobne jest to, że złodziej ukradnie laptopa lub pendrive’a z danymi niż że włamie się do naszej chmury.)
• Łatwa dostępność. (Dostęp ma każdy użytkownik Internetu.)
• Ogromna pojemność dyskowa. (Pojemność chmury można dowolnie, a więc nieograniczenie lub „nieskończenie” rozszerzać w zależności od potrzeb.)
• Integracja i współpraca. (Chmura umożliwia łatwą integrację z różnymi aplikacjami i systemami, co ułatwia współpracę między różnymi narzędziami i platformami. Użytkownicy mogą wspólnie pracować nad dokumentami, projektami i danymi w czasie rzeczywistym.)
• Oszczędność kosztów. (Używanie chmury pozwala na redukcję kosztów związanych z zakupem, utrzymaniem i zarządzaniem fizycznymi serwerami i infrastrukturą technologii informatycznej. Firmy płacą tylko za rzeczywiste używanie zasobów.)
Usługi chmury informacyjnej oferują m.in. Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform (GCP), a usługi przechowywania i udostępniania plików, takie firmy, jak Dropbox, Google Drive czy OneDrive. Zastosowanie chmury informacyjnej staje się coraz bardziej powszechne w różnych subdomenach społecznych, jak na przykład w biznesie, edukacji, medycynie i administracji publicznej, przynosząc korzyści w postaci zwiększonej wydajności, lepszej dostępności danych i większej elastyczności operacyjnej.
Wirtualizacja i Homo oeconomicus
Jednym z fundamentalnych produktów świadomości człowieka i zdolności do abstrakcyjnego myślenia, który prawdopodobnie odróżnia nas od innych istot, jest świat pomyślany, czyli wyobrażony. Dzięki wyobraźni potrafimy nie tylko odtwarzać świat sensoryczny, ale wykraczać poza jego granice, tworząc nowe światy pełne idei, które mogą istnieć tylko w umyśle. Wyobraźnia zależy od postępu technicznego i na odwrót. Jest ona motorem innowacji. Dzięki niej potrafimy myśleć o tym, co jeszcze nie istnieje, i tworzyć coś nowego.
Z kolei postęp techniczny dostarcza narzędzi, które pozwalają realizować twory wyobraźni i poszerza jej horyzonty; inspiruje do tworzenia jeszcze bardziej zaawansowanych innowacji. W dobie komputerów i Internetu ludzie dysponują narzędziami, które znacznie poszerzają wyobraźnię i możliwości materializacji idei będących składnikami świata pomyślanego.
Nowym rodzajem światów stworzonych dzięki Internetowi są światy wirtualne. Są one, jak świat pomyślany, tworami abstrakcyjnymi, zrodzonymi z wyobraźni, idei i myśl istniejących głównie w umyśle ludzkim. Nie muszą być ograniczone przez ramy rzeczywiste - fizyczne lub technologiczne. Światami wirtualnymi są trwałe internetowe i komputerowo renderowane przestrzenie, zaludniane naraz nawet przez miliony użytkowników Internetu, którzy postrzegają i odczuwają je prawie tak samo, jak świat realny. Wskutek tego, często nie uświadamiają sobie granicy między światem wirtualnym a realnym i mylą je..
W świecie wirtualnym znajdują się różne istoty i przedmioty wirtualne - awatary, ikony, emotikony itp. Dzięki komputerom i odpowiednim programom składniki świata wirtualnego wyposaża się w dowolne, zazwyczaj wyimaginowane, właściwości, różniące się od właściwości ich realnych korelatów znajdujących się w świecie sensorycznym (rzeczywistym). Świat wirtualny jest już przeciążony informacjami, a ilość ich nadal rośnie hipereksponencjalnie w zastraszającym tempie. (1)
Świat wirtualny wykreował mutanta społecznego (2) w postaci Homo oeconomicus (człowieka ekonomicznego), który zaczął rozwijać się od XIX w. wraz z rozwojem ekonomii klasycznej, teorii użyteczności i racjonalnego wyboru, a także wraz ze wzrostem wpływu kapitalizmu i industrializacji na sposób myślenia o jednostce jako podmiocie ekonomicznym i ze wzrostem ingerencji kapitału w życie prywatne i publiczne - politykę, moralność, religię itd. Homo oeconomicus kieruje się przede wszystkim wartościami ekonomicznymi - pieniądzem, bogactwem, nadkonsumpcją i nadkomfortem, racjonalnością analiz i decyzji w kwestiach gospodarki, działaniem głównie we własnym interesie, dążeniem do maksymalizacji korzyści osobistych i preferencjami odpornymi na emocje oraz impulsy zewnętrzne.
Szybkie tworzenie i konfiguracja nowych środowisk wirtualnych pozwala mu na sprawne wdrażanie nowych rozwiązań, co zwiększa wydajność pracowników i efektywność działania firmy. Wirtualizacja umożliwia mu łatwe przystosowanie się do zmieniających się potrzeb i warunków rynkowych. Jest ona idealnym narzędziem w jego rękach w poszukiwaniu rozwiązań elastycznych i adaptacyjnych. Homo oeconomicus stara się zminimalizować ryzyko, a wirtualizacja pozwala mu tworzyć replikację danych, co zwiększa bezpieczeństwo i ciągłość działania. W razie awarii wirtualne środowiska można szybko przywrócić do działania, co zmniejsza ryzyko przestojów i potencjalnych strat. Dzięki izolacji środowisk wirtualnych unika się zagrożeń i ryzyka wpływu awarii jednego systemu na pozostałe, co sprzyja stabilności operacyjnej.
Homo oeconomicus poszukuje innowacyjnych rozwiązań, które mogłyby zwiększyć jego konkurencyjność i zyski. Wirtualizacja daje dostęp do najnowszych technologii i usług chmurowych, umożliwiając łatwe testowanie i wdrażanie nowych aplikacji, systemów i narzędzi. Pozwala to na eksperymentowanie i przyspieszenie procesów wdrożeniowych, co jest korzystne z punktu widzenia racjonalnego podejścia ekonomicznego.
Tak więc, wirtualizacja jest idealnym narzędziem dla Homo oeconomicus, bo pozwala mu lepiej wykonywać zadania i osiągać lepsze wyniki w zakresie zarządzania finansami i zasobami. Niestety, stopniowo wypiera on i zastępuje tradycyjny gatunek Homo sapiens, co budzi poważne i uzasadnione zaniepokojenie osób trzeźwo myślących o przyszłości naszego gatunku.
Digitalizacja i Homo digitalis
Postęp w dziedzinie technologii komputerowej doprowadził niedawno do pojawienia się nowej formy świata wirtualnego, jaką jest „świat cyfrowy”. Zbudowany jest z cyfrowych (matematycznych) odwzorowań składników świata realnego. (Podobnie, w geometrii analitycznej realne figury geometryczne przedstawia się postaci równań.) Teraz, wszystko, co się da, przedstawia się w postaci zapisów cyfrowych. Wkrótce cały wszechświat zostanie zdigitalizowany.(3)
Ucyfrowione obiekty świata realnego ukazują się na czytnikach powszechnie dostępnych urządzeń elektronicznych, głównie na przenośnych, tj. na laptopach, tabletach, telefonach komórkowych, „inteligentnych zegarkach” i innych „mądrych” urządzeniach i gadżetach. Wciskaniu się cyfryzacji coraz bardziej w życie codzienne sprzyja modny „Internet inteligentnych rzeczy”.(4) Ma on dobre i złe strony. Jak wszelkie „mądre” urządzenia techniczne, ułatwia różne czynności praktyczne, a życie ludzi czyni ciekawszym i bardziej komfortowym. A równocześnie przyczynia się do redukcji sfery prywatności wszędzie tam, gdzie dociera Internet, gdyż upowszechnia dane osobiste i intymne.
Teraz nawet domy i mieszkania tradycyjne przekształca się w „inteligentne”, tzn. kontrolowane i podglądane przez inteligentne urządzenia internetowe, które przekazują informacje o ich mieszkańcach między innymi w celu szpiegowania ich i kradzieży danych. Nawet licznik elektryczny i telewizor potrafią odpowiedzieć na pytania, dotyczące domowników: „Czy są w domu?”, „Co robią?”, „Jak i kiedy odpoczywają?”, „Czy są chorzy?” itd. (5)
Realizacja idei Ubiquitous Computing (wspomagane komputerowo i bez granic przetwarzanie informacji dotyczących wszystkich subdomen społecznych) umożliwia koncernom IT, prywatnym programistom i hobbystom wszczepianie ludziom mikroskopowych urządzeń elektronicznych (chipów) i ucyfrowienie wszystkiego w ich otoczeniu. A dzięki inteligentnej „galanterii elektronicznej” i „inteligentnym implantom” technologia informatyczna może przekraczać granice ludzkiego ciała. Wszystkie te urządzenia są w stanie komunikować się wzajemnie ze sobą oraz z innymi osobami poprzez różnorakie sieci łączności.
Platformy społecznościowe, w szczególności „X” i Facebook, zrewolucjonizowały sposób przesyłania i obiegu informacji, co oprócz dobrych stron ma również złe, ponieważ m. in. otwarły bezprecedensowe możliwości dla manipulantów społecznych. Urządzenia elektroniczne zbierają i gromadzą dane o człowieku i oferują ich użytkownikom więcej informacji o nim, aniżeli on sam posiada o sobie. Instytucje i koncerny wykorzystują je rzekomo dla naszego dobra, ale faktycznie do śledzenia, kontroli, reklamy i marketingu. Obiecuje się ludziom dobrodziejstwa płynące ze społeczeństwa informatycznego, w którym np. ma postępować produktywność i lepsza jakość życia, chociaż nie ma pewności, że będą one rosnąć nieograniczenie i że okażą się tak dobre, jak się teraz przypuszcza.
Natomiast pewne jest to, że postępująca rewolucja cyfrowa implikuje zagrożenie dla wolności i prywatności jednostek. Digitalizacja ludzi pomaga rządzącym uzyskać pełne panowanie nad obywatelami. Dopóki jeszcze ludzie zachowują coś dla siebie, w co nikt inny, a tym bardziej państwo, nie jest w stanie ingerować, dopóty nie mogą być całkowicie zniewoleni. Jak stwierdził Günther Anders: „W każdej dyktaturze ‘Ja’ jest obszarem, który w pierwszym rzędzie musi się zdobyć i okupować”.(6)
Świat cyfrowy wyobcowuje się i stopniowo wymyka się spod kontroli człowieka. W związku z tym staje się wciąż bardziej nieprzewidywalny i stanowi coraz większe - wyobrażone i realne - zagrożenie dla ludzi. Dlatego dziewięciu wybitnych ekspertów europejskich z zakresu Big Data, socjologii, filozofii, prawa, technologii i ekonomii zwraca uwagę na zagrożenie związane z automatyzacją społeczeństwa za pomocą algorytmów oraz sztucznej inteligencji i ostrzega przed „dyktaturą danych”. (7) W swoich pracach i publicznych wystąpieniach ostrzegają przed różnorodnymi zagrożeniami, takimi jak naruszenie prywatności, nierówności społeczne, dyskryminacja oraz brak transparentności i odpowiedzialności w korzystaniu z technologii SI.(8)
W świecie cyfrowym rozwija się jeszcze jeden mutant społeczny człowieka - Homo digitalis (człowiek cyfrowy), który jest jakby inną postacią człowieka wirtualnego.
Ta zero-jedynkowa imitacja człowieka realnego to efekt zapoczątkowanej w XVIII wieku przez pierwszą rewolucję przemysłową ewolucji „człowieka maszynopodobnego”. Prawdopodobnie jest jego postacią najwyżej rozwiniętą. A w pełni rozwinięty człowiek cyfrowy to nic innego, jak robot, którym rządzą algorytmy zaprogramowane przez innych ludzi. Jest on zniewolony w najwyższym stopniu. Jego decyzje nie zależą od tego, czy w ogóle myśli ani co myśli w trakcie ich podejmowania.
Ludzie cyfrowi, obcując na co dzień z rozmaitymi urządzeniami elektronicznymi, wplątują się coraz bardziej w przeróżne sieci internetowe, z których trudno wyzwolić się im, gdyż szybko uzależniają się od nich, jak od narkotyków. Dlatego poddają się ich władzy i stają się ich zakładnikami i niewolnikami. Dlatego słusznie twierdzi Aleksandr Nikishin, że „najnowsze technologie inteligentne, sprawując kontrolę nad ludźmi, grożą przekształceniem się społeczeństwa w cyfrowy obóz koncentracyjny”. (9) Tak oto, w digitalnej cywilizacji krzewi się digitalne niewolnictwo, które jest najnowszą i najdotkliwszą formą neoniewolnictwa w czasach neoliberalizmu.
Proces kształtowania się człowieka cyfrowego postępuje coraz szybciej. Coraz bardziej digitalizowane są jego funkcje cielesne i umysłowe, psychika, osobowość i duchowość oraz zachowania, postawy, emocje i relacje międzyludzkie.
W dniu 13 listopada 2017 r. rozpoczęła się rewolucyjna zmiana świata w konsekwencji zezwolenia na stosowanie w USA pierwszej w świecie „pigułki digitalnej” w postaci mikrochipa. Na razie wprowadzono do niej mikroskopijny sensor, który powiadamia lekarza o czasie jej zażycia. Później będzie umieszczać się w niej więcej sensorów badających parametry i stany organizmu. Pociągnie to za sobą digitalizację pomiarów różnych parametrów ciała oraz diagnostyki lekarskiej za pomocą sztucznej inteligencji, a potem digitalizację terapii i drastyczną zmianę pojmowania zdrowia.
Ostatnio w Szwecji i niektórych innych krajach Europy wszczepiono ludziom na ich życzenie „implanty płatnicze” (10), które zastępują tradycyjne bankowe karty płatnicze działające zbliżeniowo. Z jednej strony, ułatwiają one dokonywanie płatności, ale z drugiej strony umożliwiają zainteresowanym instytucjom wgląd w historię operacji bankowych danej osoby. Zapewne wkrótce będzie się wszczepiać implanty do wykonywania innych czynności.
W ten sposób będzie się coraz bardziej obdzierać ludzi z ich prywatności w celu nie do pomyślenia dokładnej inwigilacji ich przez rozmaite osoby i organizacje oraz do wzrastającej do niebywałych rozmiarów kontroli. A to stanowi poważne zagrożenia dla wolności osobistej i demokracji. Powinno ono stać się ostrzeżeniem dla etyków i polityków i zmusić ich do skutecznego przeciwstawiania się temu. Nie powinni dopuścić do tego, by spełniło się marzenie dyktatorów, by zbudować społeczeństwo homogeniczne, pozbawione indywidualności, doskonale inwigilowane i maksymalnie zniewolone. (11)
Przenikanie digitalizacji do wnętrza człowieka jest zarówno czymś bardzo obiecującym jak przerażającym. Jest mieszaniną fascynacji i lęku przed tym, że człowiek stanie się cyborgiem - hybrydą człowieka i maszyny - istotą przekraczającą własne ograniczenia cielesne, egzotyczną i niespotykaną, a więc jakąś odmianą nadczłowieka. O ile w latach 60-tych ub. w. mówiło się o poszerzaniu granic człowieka na zewnątrz w wyniku robotyzacji, to teraz mówi się o przekraczaniu ich wewnątrz organizmu ludzkiego dzięki wprowadzaniu tam coraz większej liczby nanobotów. (12)
Przewiduje się, że za około dziesięć lat większość bogatych ludzi w krajach uprzemysłowionych będzie obcować z cyborgami, albo stanie się nimi. A umieszczanie nanobotów wewnątrz ciała będzie czymś tak normalnym, jakimi stały się już przeszczepy różnych narządów. Poszczególne nanoboty w człowieku będą połączone ze sobą oraz z nanobotami innych ludzi za pomocą sieci komputerowych (Internetu). Wskutek tego ucieleśni się usieciowienie i digitalizację.
Ray Kurzweil, słynny amerykański wynalazca i dyrektor ds. technicznych w Google, dokładnie przepowiedział, że już w latach 30-tych bieżącego wieku komputery zmierzą się z ludzką inteligencją i pokonają ją, a ludzie będą nosić w mózgach nanoboty wielkości komórek biologicznych połączonych z globalnym Internetem.
To pozwoli im pobierać umiejętności i wytwarzać geny w celach terapeutycznych. Z początku będzie to dostępne dla bogatych, a wkrótce także dla mas, tak jak to było w przypadku telefonów komórkowych. Nanoboty umieszczone w naszych mózgach wytworzą też nowe sposoby odbierania bodźców, inne niż znane wrażenia zmysłowe. Optymistycznie twierdzi się, że takie nanoboty nie zagrożą prywatności, ponieważ każdy człowiek będzie mógł je szyfrować indywidualnie, a szyfrowanie zawsze wyprzedza deszyfraż. Jednak w wyniku postępu technicznego czas między szyfrowaniem i rozszyfrowaniem zmniejsza się. Wobec tego będzie coraz bardziej skracać się czas trwania okresu prywatności.
Poza tym, przyspieszona digitalizacja ciała kryje w sobie wiele konsekwencji trudnych do przewidzenia i opanowania na podstawie dzisiejszej wiedzy. Nie wiadomo, jakie możliwości dla manipulacji myślami, zachowaniami, postawami i uczuciami ludzi stworzy połączenie ich mózgów w jedną sieć globalną i jakie problemy teoretyczne i praktyczne wynikną z nadania robotom praw człowieka i z traktowania ich tak jak „osoby elektroniczne”. Być może digitalizacja ludzi jest wstępem i warunkiem koniecznym do zaprowadzenia centralistycznego rządu światowego. Ta przepowiednia Kurzweila spełniła się już wcześniej z chwilą zbudowania biokomputera z żywych komórek mózgu ludzkiego.
Człowiek cyfrowy to osoba żyjąca i funkcjonująca w erze cyfrowej, korzystający z nowoczesnych technologii i Internetu w codziennym życiu. Obejmują one sferę komunikacji (wykorzystywanie cyfrowych narzędzi komunikacji, takich jak media społecznościowe, e-maile, komunikatory i wideokonferencje), edukacji (dostęp do wiedzy online za pomocą e-learningu, kursów internetowych, wirtualnych bibliotek i platform edukacyjnych), pracy (praca zdalna, telekonferencje, zarządzanie projektami online oraz wykorzystanie narzędzi cyfrowych w codziennej pracy), rozrywki: (konsumpcja treści multimedialnych zawartych w filmach, muzyce, grach wideo i książkach cyfrowych), zakupów i finansów (korzystanie z e-commerce, bankowości online, płatności mobilnych oraz kryptowalut), zdrowia (monitorowanie zdrowia za pomocą aplikacji, konsultacje medyczne online, telemedycyna i urządzenia wearable), kultury (udział w wirtualnych wydarzeniach kulturalnych, społecznościach internetowych i forach dyskusyjnych).
Na późniejszym etapie rozwoju świata wirtualnego pojawiła się sztuczna inteligencja (SI), która otworzyła nowe możliwości w różnych dziedzinach techniki. SI jest działem informatyki, który zajmuje się tworzeniem systemów zdolnych do wykonywania zadań, jakie zwykle wymagają ludzkiej inteligencji. Wraz z uczeniem maszynowym stosuje się ją w wielu dziedzinach, od analizy danych po pojazdy autonomiczne (13). "Sztuczna inteligencja to nauka i inżynieria tworzenia inteligentnych maszyn, zwłaszcza inteligentnych programów komputerowych. Jest to związane z podobnym zadaniem korzystania komputerów do zrozumienia ludzkiej inteligencji, ale SI nie musi ograniczać się do metod, które są biologicznie obserwowalne." (14)
SI wywiera kolosalny wpływ na wiele subdziedzin społecznych Korzysta się z niej w:
• Technologiach opartych na logice rozmytej.
• Systemach eksperckich do rozwiązywania wielu problemów.
• Maszynowym tłumaczeniu tekstów.
• Sieciach neuronowych.
• Uczeniu się maszyn.
• Eksploracji danych.
• Rozpoznawaniu obrazów, mowy, mówców i pisma.
• Sztucznej twórczości artystycznej.
• Inteligentnych interfejsach.
• Prognozowaniu i wykrywaniu oszustw.
• Analizie wideo w czasie rzeczywistym.
Oto kilka rzeczy związanych z SI:
• Uczenie Maszynowe. (Tworzenie algorytmów i modeli umożliwiających systemom uczenie się na podstawie danych.)
• Przetwarzanie języka naturalnego na sztuczne. (Interakcja między komputerami a językami naturalnymi.)
• Robotyka. (Integracja SI z robotami w celu umożliwienia im wykonywania zadań autonomicznych lub półautonomicznych na przykład przez roboty przemysłowe, roboty domowe, drony).
• Wizja Komputerowa. (Analiza i interpretacją obrazów cyfrowych przez komputery. Umożliwia ona rozpoznawanie obiektów, wykrywanie twarzy, analizę ruchu.)
• Systemy eksperckie. (Systemy komputerowe, które naśladują procesy decyzyjne ekspertów w danej dziedzinie.)
• Algorytmy genetyczne. (Techniki optymalizacji inspirowane procesem ewolucji biologicznej.)
Wiesław Sztumski
*Horatius, Ad Melpomenen (III, 30): Exegi mnumentum aere perennius,/regalique situ piramid altius/ Quod non imber edax, non aquilo impotent/ Possit diruere aut innumerabilis/Annorum series et fuga temporum. /Non omnis moriar.
Przypisy:
(1) O ile w końcu XX wieku ogólna ilość informacji produkowanych rocznie w świecie wynosiła 250 megabajtów, a w 2006 r. 150 gigabajtów, to obecnie szacuje się ją grubo ponad 1 exabajt. A więc, w ciągu ćwierć wieku wzrosła bilionkrotnie.
(2) Pojęcie „mutant społeczny” jest często używane w socjologii i psychologii społecznej do opisywania jednostek lub grup, które w znaczący sposób odbiegają od powszechnie przyjętych norm, wartości czy zachowań społecznych. Termin ten sugeruje, że owe osoby lub grupy są wynikiem specyficznych, nieoczekiwanych zmian w strukturze społecznej, analogicznie do biologicznego znaczenia mutacji jako odchylenia od standardu genetycznego.
(3) Andrian Kreye, Der Geist aus der Maschine. Eine superschnelle Menschheitsgeschichte des digitalen Universums [Duch z maszyny. Superszybka historia człowieka w cyfrowym wszechświecie, Wyd. Heyne, Monachium 2024
(4) Termin „Internet Rzeczy” odnosi się do połączenia różnych urządzeń i obiektów codziennego użytku z Internetem, co umożliwia im komunikowanie się ze sobą oraz wymianę danych. Głównym celem jest stworzenie inteligentnych, zautomatyzowanych systemów, które mogą działać samodzielnie lub współpracować z innymi systemami, aby ułatwić życie, zwiększyć efektywność i poprawić jakość usług.
(5) „Mądry Telewizor” przekazuje do chmury internetowej zrzut ekranu co 5 milisekund.
(6) Cyt. za Marta Cywińska, Pomarańczowa rewolucja, 2023
(7) Tylko w 2015 r. pojawiło się tyle danych, ile w całej historii ludzkości do 2014 r. co minutę wysyła się setki tysięcy zapytań do Google’a i tyle samo zamieszcza się postów na facebookach. One zdradzają nasze myśli i uczucia. Szacuje się, że w ciągu dziesięciu lat będzie w ramach „Internetu przedmiotów” około 150 mld usieciowionych czujników pomiarowych, tj. dwadzieścia razy więcej niż liczy dzisiejsza populacja świata. Potem co 12 godzin będzie podwajać się liczba danych. Już dzisiaj wiele organizacji usiłuje te Big Data zamienić na Big Money.
(8) Shoshana Zuboff (profesor w Harvard Business School), Luciano Floridi (profesor filozofii i etyki informacji na Uniwersytecie Oksfordzkim), Cathy O'Neil (autorka książki "Weapons of Math Destruction", która krytykuje algorytmy za ich nieprzejrzystość i potencjalną dyskryminację), Virginia Dignum (profesor na Uniwersytecie Umeå w Szwecji), Antoinette Rouvroy (belgijska prawniczka i filozofka), Ruha Benjamin (profesor socjologii na Princeton University, autorka książki Race After Technology), Philip Alston (specjalny sprawozdawca ONZ ds. skrajnego ubóstwa i praw człowieka), Thomas Metzinger (filozof i kognitywista, profesor na Uniwersytecie w Moguncji), Joanna Bryson (pofesor etyki i technologii na Hertie School w Berlinie).
(9) Nikishin A., Cifrovoje rabstvo v cifrovoj civilizacii, (http://kolokolrussia.ru/globalizaciya/cifrovoerabstvo-v-c-ifrovoy-civilizacii#hcq=Mdvrttq (18.10.2017).
(10) Implant płatniczy pozwala na dokonywanie płatności zbliżeniowych za pomocą wszczepionego pod skórę mikrochipa. Są to małe urządzenia, zwykle wielkości ziarenka ryżu, które można wszczepić pod skórę, najczęściej na dłoni. Implanty te działają na podobnej zasadzie co karty zbliżeniowe czy telefony z funkcją NFC, umożliwiając płatności w punktach obsługujących płatności zbliżeniowe.
(11) Wiesław Sztumski, Spełnia się marzenie dyktatorów, „Sprawy Nauki”, Nr 10 (233), 2018
(12) Nanoboty są ekstremalnie małymi robotami rzędu od 1 do 100 nm. Naukowcy stworzyli je z cząsteczek DNA, które mogą wykonywać proste zadania, takie jak dostarczanie leków do określonych komórek. Mikroroboty są nieco większe od nanobotów. Zostały opracowane do zastosowań takich jak mikrochirurgia i terapia ukierunkowana. Potencjał nanobotów jest ogromny i obiecujący zrewolucjonizowanie dziedzin od medycyny po ekologię. Zanim jednak ich powszechne wdrożenie stanie się rzeczywistością, należy stawić czoła poważnym wyzwaniom naukowym, technicznym i etycznym.
(13) Termin „Sztuczna inteligencja” wprowadził w 1956 r. amerykański informatyk John McCarthy na konferencji w Dartmouth.
(14) McCarthy, J. (2004). What is Artificial Intelligence? Stanford University.
Od Redakcji: Jest to pierwsza część eseju prof. Wiesława Sztumskiego „Produkty nowej rewolucji technicznej: nadludzie i nadkomputery”. Drugą, ostatnią, zamieścimy w następnym numerze, SN 1/25.
- Autor: Anna Leszkowska
- Odsłon: 359
Produkty nowej rewolucji technicznej: Nadludzie i nadkomputery (cz. 2)
Błądzić jest rzeczą ludzką, ale żeby naprawdę coś zepsuć, potrzebny jest komputer. (Paul R. Ehrlich)
Krótka historia ewolucji urządzeń liczących
Wyróżniam w niej trzy okresy – przedkomputerowy, komputerowy i pokomputerowy.
Okres przedkomputerowy
W starożytności, prawdopodobnie najstarszym urządzeniem liczącym, pochodzącym z około 2500 p.n.e., był abakus. Używano go w Mezopotamii, starożytnym Rzymie, Grecji i Chinach. Składał się z kamieni lub koralików przesuwanych po liniach wykreślonych na piasku lub na tabliczkach z rowkami. W średniowieczu i renesansie, w starożytnym Rzymie używano liczydeł rzymskich. Były one bardziej zaawansowane niż abakusy i miały stałe kolumny reprezentujące różne wartości liczbowe. W XV wieku arabscy matematycy, jak na przykład Al-Qalasadi, rozwijali metody algorytmiczne do wykonywania operacji arytmetycznych na papierze, co zapoczątkowało abstrakcyjne metody liczenia.
W 1622 r. William Oughtred wynalazł suwak logarytmiczny, który umożliwiał wykonywać różne obliczenia (dodawanie i odejmowanie, mnożenie i dzielenie, podnoszenie do potęgi, pierwiastkowanie) dzięki zastosowaniu logarytmów. W XVII wieku wprowadzono mechaniczne maszyny liczące. Pierwszy mechaniczny kalkulator, który mógł dodawać i odejmować stworzył w 1642 r. Blaise Pascal. A w 1673 r. Gottfried Wilhelm Leibniz wynalazł kalkulator, który mógł mnożyć, dzielić i pierwiastkować. W 1822 r. Charles Babbage zaprojektował maszynę różnicową do kilku działań algebraicznych.
Okres komputerowy
Prekursorem komputerów współczesnych był Charles Babbage. W 1837 r. zaprezentował on projekt maszyny analitycznej. Potem wprowadzono karty perforowane. (Kartę udoskonaloną przez Hermana Holleritha wykorzystano do spisu ludności USA w 1890 r.). Karty te używane były do przechowywania danych i programów w maszynach liczących.
W XX wieku pojawiły się kalkulatory elektromechaniczne. Harvard Mark stworzył w 1944 r. pierwszy elektromechaniczny komputer zasilany elektrycznie, zdolny do wykonywania skomplikowanych obliczeń. Pierwszy elektroniczny komputer ogólnego przeznaczenia ENIAC (Electronic Numerical Integrator And Computer) skonstruowano w latach 1943–1945 przez J. P. Eckerta i J. W. Mauchly'ego na Uniwersytecie Pensylwanii w USA. Zaprzestano jego używania po dziesięciu latach, w 1955 r.
W rozwoju komputerów elektronicznych wyróżnia się następujące ich generacje.
Do pierwszej generacji zalicza się komputery, do budowy których używano najpierw lamp elektronowych próżniowych, a później tranzystorów. Do drugiej - komputery budowane na układach scalonych. Do trzeciej - komputery o znacznie większej mocy obliczeniowej i mniejszych gabarytach. Do czwartej – komputery, w których korzystano z mikroprocesorów. Do piątej – komputery osobiste z systemem MS-DOS i z graficznym interfejsem użytkownika. Do szóstej można by zaliczyć komputery z innymi systemami operacyjnymi (Microsoft Windows, Apple oraz Linux) i komputery kwantowe. (Od początku XXI w. rozwija się technologię komputerów kwantowych, które wykorzystują zasady mechaniki kwantowej do przetwarzania informacji w sposób znacznie szybszy niż tradycyjne komputery elektroniczne. (1)
Okres pokomputerowy
Okres ten charakteryzuje się postępującym rozwojem biokomputerów. Na pytanie, czy zaliczyć je jeszcze do szóstej lub siódmej generacji komputerów, czy raczej już do całkowicie nowego etapu ewolucji urządzeń liczących udziela się rozbieżnych odpowiedzi.
Biokomputer
Pojawienie się biokomputerów zapoczątkowało faktycznie nowy okres w historii komputerów, który nazwałem pokomputerowym. Różni się on znacząco od poprzedniego okresu. A to dlatego, że w początkach XXI w. rozpoczęto prace nad konstrukcją biokomputera zakończone parę lat temu sukcesem. Różni się on jakościowo tak dalece od wcześniejszych wersji komputerów, że w pełni można go uznać za symptom nowego etapu w rozwoju urządzeń liczących. Od skonstruowania komputera biologicznego datuje się era nadkomputerów. Przez nadkomputer rozumiem urządzeniem, które przekracza granice właściwe komputerom tradycyjnym.
Czym jest komputer biologiczny i jaka jest zasadnicza różnica między nim a komputerem tradycyjnym? Koncepcja komputera biologicznego powstała już w latach 50-tych i 60-tych XX w. A teorię obliczeń biologicznych zapoczątkowały prace brytyjskiego matematyka i informatyka Alana Turinga i innych pionierów komputerowych, którzy teoretyzowali na temat możliwości wykorzystania procesów biologicznych do obliczeń. Jednak w tamtym czasie te koncepcje były raczej spekulatywne. Postępy w biologii molekularnej, takie jak odkrycie struktury DNA przez Watsona i Cricka w 1953 roku, stworzyły podstawy do zrozumienia mechanizmów biologicznych, które mogłyby zostać wykorzystane w biokomputerach. W 1994 roku Leonard Adleman przeprowadził pierwsze udane eksperymenty z obliczeniami DNA, rozwiązując problem ścieżki Hamiltona przy użyciu cząsteczek DNA. To wydarzenie jest często uważane za narodziny biokomputerów.
Komputer biologiczny wykorzystuje molekuły kwasu deoksyrybonukleinowy (DNA) i rybonukleinowego (RNA) , które są nośnikami i magazynami informacji genetycznej w organizmach żywych. Determinują one cechy organizmu. W przeciwieństwie do tradycyjnych komputerów, które opierają się na krzemowych układach scalonych do przetwarzania informacji, biokomputery korzystają w tym celu z procesów i zjawisk biologicznych.
Z początku biokomputerów używano do przeprowadzania skomplikowanych obliczeń na dużą skalę. Potem problemów kryptograficznych (ze względu na zdolność do przeprowadzania równoległych obliczeń), w medycyie (diagnostyka, terapia i inteligentne leki) i biotechnologii (projektowanie i modyfikowanie organizmów na poziomie molekularnym).
W latach 90-tych ub. w. zaczęto rozwijać badania nad automatycznymi systemami biologicznymi, takimi jak biomolekularne automaty komórkowe. Przyczyniły się one do rozwoju bardziej złożonych koncepcji obliczeniowych opartych na biochemii. W pierwszej dekadzie XXI w. nastąpił dalszy rozwój technik biotechnologicznych. Postępy w inżynierii genetycznej, biotechnologii oraz nanotechnologii pozwoliły na bardziej precyzyjną manipulację cząsteczkami biologicznymi, co przyspieszyło rozwój biokomputerów. W tym czasie powstały pierwsze systemy oparte na enzymach, które potrafiły wykonywać proste operacje logiczne, co umożliwiło wykonywania obliczeń logicznych za pomocą biologicznych komponentów.
W drugiej dekadzie tego stulecia pojawiły się pierwsze syntetyczne systemy komórkowe, które mogły wykonywać specyficzne zadania obliczeniowe, takie jak wykrywanie określonych sygnałów chemicznych w środowisku i udzielanie odpowiedź na nie. Oprócz tego biokomputery zostały zastosowane w tworzeniu biosensorów zdolnych do wykrywania chorób i zmian w środowisku na poziomie molekularnym. Obecnie, rozwój syntetycznej biologii pozwolił na stworzenie bardziej złożonych biokomputerów opartych na żywych komórkach, które mogą przetwarzać informacje w sposób analogiczny do komputerów elektronicznych, ale z wykorzystaniem biochemii.
Współczesne badania koncentrują się na integracji biokomputerów z tradycyjnymi układami elektronicznymi, co powinno umożliwić tworzenie hybrydowych systemów obliczeniowych. Przykładem są systemy do analizy danych biologicznych w czasie rzeczywistym lub inteligentne implanty medyczne. Dalsze prace będą ukierunkowane na rozwój bardziej złożonych algorytmów biologicznych opartych na biochemii, co otworzyłoby nowe możliwości w zakresie przetwarzania danych, jak i rozwój komputerów opartych na neuronach, co może doprowadzić do stworzenia biologicznych odpowiedników sztucznej inteligencji, które będą działać na całkiem innych zasadach niż tradycyjna SI.
Trzeba jednak pamiętać, że znacznie trudniej jest sterować biologicznymi procesami aniżeli układami elektronicznymi. Dlatego biologiczne systemy są bardziej podatne na błędy i nieprzewidywalność niż tradycyjne układy elektroniczne. Toteż biokomputery są wciąż znacznie mniej zaawansowane w swoim rozwoju w porównaniu z tradycyjnymi komputerami pod względem mocy obliczeniowej i szybkości i znajdują się wciąż jeszcze w fazie badań.
Komputer biologiczny, który zapoczątkował okres pokomputerowy, jest „nadkomputerem”. Nazwą tą posługuję się w analogii do nazwy „nadczłowiek”, ponieważ tak, jak nadczłowiek przekracza granice tradycyjnego człowieka, tak nadkomputer przekracza granice tradycyjnego komputera. Bowiem nie jest już komputerem martwym, którego procesor zbudowany został z materii nieożywionej (krzemu), lecz jakby żywym, bo jego procesor zrobiony został z organelli.(2) O ile nadczłowiek jest produktem ewolucji społecznej ludzi, to nadkomputer jest produktem ewolucji technicznej urządzeń liczących.
Konkluzja
Przewidywalna przyszłość będzie zdeterminowana przez ludzi cyfrowych i biokomputery. Czy to okaże się dobrodziejstwem czy zagrożeniem? Na to pytanie trudno dziś odpowiedzieć, za małą mamy wiedzę o jednym i drugim. Na gruncie tradycyjnej etyki skłaniamy się ku negatywnej ocenie. Upatrujemy więcej zagrożeń ze strony biokomputerów i cyfrowych ludzi niż pożytków. A jak ocenią je przyszłe pokolenia? Chyba inaczej niż aktualne, ponieważ będą mieć inne systemy wartości, inne poglądy oraz doświadczenia życiowe i będą żyć w innym środowisku.
Rozważania na temat człowieka cyfrowego bardziej skłaniają do dystopijnej konkluzji. Są ku temu różne powody.
Po pierwsze, żyjemy w społeczeństwie wiedzy, w którym każdy ma łatwy dostęp do edukacji i wiedzy naukowej i nic istotnego nie stoi na przeszkodzie, by w maksymalnym stopniu skorzystał z tego. Dzięki temu mógłby racjonalnie myśleć, działać i podejmować decyzje optymalnie dobre dla ludzi oraz ich oikos. A tymczasem człowiek, ulegając presji ideologii konsumpcjonizmu i komfortu upodobnia się do człowieka maszynopodobnego. Głupieje na potęgę i nie chce być mądrzejszy. Tak dalece zgłupiał, że traci swój instynkt samozachowawczy. Coraz mniej korzysta z własnego rozumu i zdrowego rozsądku. Zdaje się chętniej na sztuczną inteligencję, niż na własną, naturalną. Bardziej ufa kłamstwom szalbierzy aniżeli prawdziwym wypowiedziom uczciwych ekspertów. Dotyczy to zarówno mas społecznych, jak i władców świata (megakorporantów). W cyfrowym społeczeństwie coraz więcej ludzi będących jeszcze Homo sapiens przekształca się w Homo digitalis. W takim razie przypuszczenie, że będzie mądrzej i lepiej, okazuje się być tylko kolejną utopią w historii ludzkości. Takiemu Homo digitalis nie pomoże SI.
Po drugie, światem nie tyle rządzą politycy z prawdziwego zdarzenia, kierujący się dobrem wspólnym, co karierowicze, globalni aferzyści i nikła grupa ponadpaństwowych megakorporantów. To są współcześni nadludzie lekceważący wszelkie ograniczenia i normy przyzwoitości. Tym groźniejsi, że gromadzą w swych rękach największe bogactwo (3) i dysponują najnowszą techniką, a w szczególności sztuczną inteligencją i nadkomputerami. Największą ich ambicją jest władza nad światem, zostawienie po sobie jak najtrwalszego śladu na Ziemi i w chmurze informacyjnej, by połączyć się z nieskończonością.
Po trzecie, zdegenerowani przez ideologie konsumpcjonizmu i cywilizację zła nieformalni władcy świata – coraz bardziej pazerni megakorporanci – wraz z oficjalnymi rządami marionetek pociąganymi za linki znajdujące się w rękach oligarchów wprowadziły ludzkość na skraj przepaści. Odbywają tu swoisty „taniec zwycięstwa” nie zważając na to, że niebawem stoczą się na jej dno. Ale dla nich to bez znaczenia, ponieważ żyjąc „tu i teraz” nie martwią się o przyszłość. Nie obchodzi ich to, że pociągną za sobą całą ludzkość w otchłań.
Po czwarte, na niewiele zdają się apele ludzi trzeźwo myślących, dalekowzrocznych realistów znajdujących się wśród naukowców, dziennikarzy, artystów, pisarzy, ekologów itp., którzy kierują się nie tylko zasadą „tu i teraz” lub „po nas choćby potop”, ale też normą „tam i potem”. Bo dla nich, co oczywiste, ważne są sprawy teraźniejszego pokolenia, ale co najmniej tak samo ważne są sprawy przyszłych generacji; nie tylko sprawy lokalne „tu”, ale też globalne „tam”. Rzecz w tym, że nie liczy się z nimi tylu ludzi, ilu powinno, co wystarczyłoby do utworzenia światowego ruchu na rzecz ochrony ludzkości i świata przed zagładą.
Po piąte, współcześni ludzie, głównie w krajach wysoko ucywilizowanych i zlaicyzowanych, zauroczeni osiągnięciami nowoczesnej techniki i nauki, przestali się bać czegokolwiek. Nie są dla nich przerażające straszydła fikcyjne (bogowie, diabły, Gargamele, Baby Jagi itp.) ani rzeczywiste, (wojny, terroryści, zmiany klimatyczne, klęski żywiołowe, kryzysy ekonomiczne, pandemie, samowładcy itp.), Istnienia pierwszych nie weryfikuje nauka, a przed drugimi, jak sądzą, skutecznie obroni technika. Jeśli nie wierzy się w strachy fikcyjne, to nawet dobrze. Gorzej, gdy ignoruje się prawdziwe, bo to zwalnia z obowiązku przeciwstawiania się im.
Po szóste, postępuje gwałtowny wzrost cyfryzacji, który jest olbrzymim zagrożeniem dla wolności jednostek, społeczności, organizacji i państw. Na szczególną uwagę zasługuje cyfryzacja sfery banków i finansów, która bardzo szybko dokonuje się w skali globalnej. Nic nie zniewala ludzi tak, jak pieniądze i banki. Toteż dyktatorzy dokonywali zamachu na wolność obywateli przede wszystkim zmuszając ich do korzystania z coraz liczniejszych usług bankowych w coraz szerszym zakresie. Zrazu bank stał się ogniwem pośrednim między nabywcą i sprzedawcą w wyniku zastąpienia gotówki przez weksle. Potem, w wyniku likwidacji kas wypłacających pobory w zakładach pracy. W końcu, w wyimku zmuszenia ludzi do dokonywania wszelkich przelewów pieniężnych i płatności wyłącznie poprzez banki. W efekcie każdy musi mieć swoje konto bankowe przynajmniej w jednym banku krajowym lub zagranicznym. I każdy jest coraz bardziej kontrolowany przez banki: bank wie wszystko o nim i w coraz większym stopniu decyduje o jego losie i życiu.
Wreszcie, jakby tego było za mało, wprowadzono elektroniczną walutę cyfrową i pieniądze cyfrowe. (4) Waluta elektroniczna miałaby być traktowana na równi z tradycyjnym pieniądzem w formie gotówki – banknotów i monet, ale z czasem ma je wyprzeć z obiegu. Z jednej strony, pieniądze elektroniczne znacznie ułatwiają obrót pieniężny, ale z drugiej strony, są najpotężniejszym instrumentem zniewolenia ludzi nie tylko w aspekcie finansowym. Coraz częściej autorzy publikacji uświadamiają masy o tym i ostrzegają je przed zagrożeniami wynikającymi z tego.(5) Głównie chodzi o to, że dojdzie do całkowitego ubezwłasnowolnienia ludzi. Sprzeciwienie się będzie grozić zablokowaniem środków na koncie. A ponadto garstce ludzi chcących rządzić światem umożliwi realizację tego celu. Chcąc zapewnić sobie sprawowanie absolutnej władzy nad obywatelami, trzeba podporządkować sobie banki. Kto ma władzę nad bankami, ten rządzi ludźmi i światem. Szkopuł jednak w tym, że banki wiedząc o tym bronią swej niezależności od rządów, tzn. chcą rządzić rządami i innymi organami państwa i ich funkcjonariuszami. Garstka mega korporantów hołduje hasłu: „Jeden pieniądz, jeden rząd, jedna władza”.(6)
Po siódme, Cathy O'Neil, amerykańska matematyczka (specjalistka nauki o danych) z Columbia University w książce Weapons of Math Destruction (Broń matematycznego niszczenia) ukazuje inne zagrożenie.(7) Dowodzi ona, że wiele algorytmów stosowanych w ocenie zdolności kredytowej, rekrutacji, czy wyrokach sądowych, działa jak „czarne skrzynki". Oznacza to, że ich działanie jest tajemnicze, a decyzje są nieprzejrzyste dla użytkowników. Algorytmy mogą wzmacniać istniejące nierówności społeczne wskutek uprzedzeń i preferować osoby z pewnych grup społecznych. Stosowane na dużą skalę mogą dawać błędne lub niesprawiedliwe wyniki badań. W konkluzji autorka stwierdza, że algorytmy SI nie są neutralnymi narzędziami, bo zależą od tego, kto ich używa. Dlatego wzywa do większej odpowiedzialności za stosowanie algorytmów, do większej ostrożności i większego krytycyzmu.
Po ósme, „Każdy, kto cofnie się na chwilę i przyjrzy naszemu nowoczesnemu cyfrowemu światu, może dojść do wniosku, że zniszczyliśmy naszą prywatność w zamian za wygodę i fałszywe bezpieczeństwo”. (John Twelve Hawks) (8)
Wiesław Sztumski
Od Redakcji: Jest to druga część eseju prof. Wiesława Sztumskiego „Produkty nowej rewolucji technicznej: nadludzie i nadkomputery”. Pierwszą – Nadczłowiek - zamieściliśmy w grudniowym numerze SN 12/24.
Przypisy:
(1) Do końca ub. w. w ZSRR i innych krajach socjalistycznych z wyjątkiem Niemieckiej Republiki Demokratycznej posługiwano się w sklepach, biurach, bankach, kasach biletowych, restauracjach itp. drewnianymi liczydłami ręcznymi. Liczono na nich z zadziwiającą szybkością i bezbłędnie.
(2) Organella nie jest żywym organizmem. Jest strukturą wewnątrzkomórkową, która pełni specyficzne funkcje w komórce organizmu eukariotycznego konieczne dla prawidłowego funkcjonowania komórki. Sama w sobie nie jest niezależnym żywym organizmem.
(3) W 2023 r. raport Oxfam wskazywał, że 1% najbogatszych ludzi zgromadziło około 45-50% globalnego bogactwa.
(4) Cyfrowa waluta banku centralnego to forma pieniądza, która istnieje tylko w formie elektronicznej, a nie fizycznej, takiej jak tradycyjne banknoty i monety. Pieniądz cyfrowy banku centralnego (CBDC) to cyfrowa wersja waluty narodowej, np. dolara, euro, złotówki czy juana.
(5) Szymon Machniewski, CBDC – „Pieniądz cyfrowy banku centralnego – co to takiego?”, Money.pl, 29.08.2023
(6) Przypomina ono znane zawołanie hitlerowców, które zwabiło masy Niemców: Ein Volk, ein Reich, ein Führer” (Jeden naród, jedna rzesza, jeden wódz”).
(7) Cathy O’Neil, Weapons of Math Destruction, Publisher: Crown, New York 2016
(8) Jest to pseudonim pisarza amerykańskiego, którego prawdziwe nazwisko nie jest znane.
- Autor: Anna Leszkowska
- Odsłon: 4469
- Autor: Wiesław Sztumski
- Odsłon: 4730