Filozofia (el)
- Autor: Wiesław Sztumski
- Odsłon: 5075
Wybór i decyzja
Obydwa słowa są bliskoznaczne, często nawet utożsamiane, albo używane zamiennie. Jednak niektórzy mają co do tego wątpliwości. Wyborów dokonujemy na podstawie naszych wartości, przekonań i wyobrażeń. Decyzja jest postanowieniem w wyniku dokonanego wyboru o robieniu lub o potrzebie robienia czegoś, o czym się myśli - albo tego, co dyktuje nam rozum.
Natomiast wybór to prawo, zdolność, albo możliwość do wybierania.
Słowo „decyzja” pochodzi od "wycinania", a słowo „wybór” - od "postrzegania". Dokonywanie decyzji (proces decyzyjny) polega na analizowaniu danej sytuacji krok po kroku i eliminacji (wycinaniu) tych opcji, które podpowiada rozum. A dokonywanie wyboru polega na rozeznaniu danej sytuacji, postrzeganiu jej i uświadomieniu sobie różnych opcji wyjścia z niej.
Wyboru dokonujemy dlatego, że albo chcemy z własnej i nieprzymuszonej „wolnej woli”, albo musimy w wyniku obiektywnej konieczności pochodzącej z przymusu wewnętrznego lub nakazu zewnętrznego podjąć jakąś decyzję. W każdej chwili i nieustanie samo życie zmusza nas do dokonywania wyborów w sposób naturalny; od nich zależy wiele istotnych spraw, a przede wszystkim przeżycie. Często musimy wybierać w sposób konieczny z mocy prawa (np. obowiązkowy udział w wyborach), albo pod groźbą (np. „pieniądze albo życie”), albo pod presją społeczną.
Wyborów dokonujemy też z przymusu wewnętrznego, podyktowanego sumieniem, powinnością, poczuciem obowiązku i odpowiedzialności oraz nakazami moralnymi. Jednak pełny sens ma tylko wybór niewymuszony, ponieważ wtedy decyduje się w sposób względnie autoteliczny i autonomiczny nie zważając na nic. Dlatego jedną z istotnych przesłanek realnego wyboru jest wolność, która występuje tylko w warunkach słabego determinizmu, gdzie jest miejsce na przypadek, nieokreśloność, wątpliwość i ryzyko.
Ustrojem społecznym charakteryzującym się słabym determinizmem społecznym jest np. demokracja i liberalizm. Trzeba jednak zaznaczyć, że również w tych ustrojach pole manewru wyborcy jest mocno ograniczone paradygmatami systemowymi – ekonomicznymi, kulturowymi, politycznymi, ideologicznymi, religijnymi itd.
W przeciwieństwie do tego, w warunkach silnego determinizmu (np. w niewoli lub dyktaturze) wybór jest tylko pozorny, a wynik – z góry przesądzony i wiadomy. Wybierając z musu i według przemyślnie dobranego systemu, algorytmu lub klucza wyborczego, tylko udaje się, że się wybiera, gdyż wówczas wybór sprowadza się faktycznie do złożenia deklaracji, czyli przestaje być wyborem.
Wybór świadomy i żywiołowy
Wybór wymaga nie tylko słabego determinizmu, ale dobrze sformalizowanej sytuacji, w której się go dokonuje i maksymalnie zracjonalizowanej wiedzy o całym kontekście wyborczym po to, by wszystko, co dotyczy wyborów, było transparentne i proste, żeby nie wybierać w ciemno.
Sytuacja zagmatwana, niejasna i trudna do zrozumienia utrudnia dokonanie rzetelnego wyboru. Utrudnia go również duża liczba możliwych wariantów decyzji; im więcej ich jest, tym większe jest ryzyko nietrafnego, a więc złego wyboru. Z tymi warunkami związane są dwa paradoksy:
- Im słabszy determinizm, tym większe pole dla manipulacji wyborcami. W słabo zdeterminowanej sytuacji wyborczej czy decyzyjnej, gdzie jest większa wolność, jest też wiele możliwych opcji wyborów i wariantów decyzji. Ale ta wolność odzwierciedla się również w swobodzie działania na rzecz podejmowania decyzji przez czynniki zewnętrzne, np. przez manipulantów społecznych (wyborczych). To z kolei pozwala im sugestywnie wpływać na dokonywanie pożądanego wyboru i podejmować odpowiednie działania z wykorzystywaniem różnych technik propagandy i reklamy. Paradoks polega na tym, że im większą ma się wolność dokonywania wyboru, tym bardziej manipulanci ograniczają liczbę potencjalnych wyborów.
- Im jaśniejsza jest sytuacja wyborcza, tym mniejsza liczba wyborów. Stopień transparencji sytuacji zależy od możliwości przedstawienia jej za pomocą wiedzy dyskursywnej. Jest on proporcjonalny do stopnia jej sformalizowania, który rośnie w miarę przechodzenia od determinizmu słabego do silnego. Jednak zyskując na jasności sytuacji, traci się na liczbie potencjalnych wyborów.
A zatem, pojawia się dylemat: czy słaby determinizm, niejasna, zagmatwana i mniej zracjonalizowana sytuacja wyborcza, ale za to więcej możliwych wariantów wyboru, czy silny determinizm, maksymalnie transparentna i zracjonalizowana sytuacja wyborcza i w konsekwencji tego minimalna liczba opcji wyboru.
Co jest lepsze: poczucie wolności wyboru, chociaż wiadomo, że jest ono złudne, i ryzykowny wybór jednego z wielu wariantów czy trafny, pewny i odpowiedzialny wybór w warunkach zniewolenia? A w przypadku wyborów parlamentarnych: czy lepszego wyboru dokona się mając możliwość głosowania na wiele partii politycznych i na wielu kandydatów, z których tylko nieliczni przekroczą wymagany próg wyborczy, czy głosując na jedną partię i na tylu kandydatów, ilu faktycznie będzie rządzić?
Zbyt duża liczba kandydatów utrudnia ich dobre poznanie. Czy lepszy jest system monopartyjny, czy multipartyjny? Jedno i drugie ma szereg zalet i wad. Poczucie wolności w momencie wyboru daje wyborcom komfort psychiczny, ale potem z reguły płacą za niego dyskomfortem życia.
Niestety, nie zawsze, a raczej rzadko kiedy, wolność przynosi szczęście i sprzyja przetrwaniu. Wolność wyboru, jak każda inna, jest zawsze ograniczona. Wynika to zarówno z obiektywnych, sytuacyjnych (niezależnych od wyborcy), jak i od podmiotowych, osobowościowych uwarunkowań możliwości wyboru. Obiektywna sytuacja, jeśli tylko ze względów formalnoprawnych nie ogranicza wolnych wyborów, wywiera raczej mniejszy wpływ na wybór. Bardziej decydują o nim czynniki subiektywne - psychiczne, osobowościowe i świadomościowe: przekonania, poglądy, nadzieje, wiara, emocje, światopogląd, upodobania, przekora, itp.
Dlatego działania agitacyjne podejmowane przez manipulantów po to, by wymusić pożądany wybór, skupiają się na sferze podmiotowej, na razie na długotrwałym - kampanie wyborcze trwają kilka miesięcy - oddziaływaniu na świadomość wyborców za pomocą sugestywnych spotów, plakatów, dyskusji, obietnic, wypowiedzi, spotkań itp.
Są one obliczone na to, że większość elektoratu nie kieruje się mądrością ani zdrowym rozsądkiem, ponieważ według badań M. Cippolego w każdej populacji i grupie społecznej znajduje się aż 80% ludzi głupich. (zob. W. Sztumski, Takie sobie myśli o głupocie, SN Nr 4, 2013), lecz emocjami i dlatego większą wagę przywiązuje do formy aniżeli do treści.
Subiektywny charakter podejmowania decyzji czyni je podatnymi na różne zniekształcenia poznawcze w wyniku dostarczania niepełnej wiedzy, okłamywania, tworzenia fikcji, ukazywania fałszywych obrazów itp.
W przyszłości możliwe będzie skuteczniejsze oddziaływanie na podświadomość elektoratu za pomocą poddźwięków (Hiposonic Sound System), telepatii i promieniowania elektromagnetycznego, albo innych technik opracowywanych przez neurofizjologów mózgu w celu wymuszenia podjęcia decyzji z góry zaplanowanej.
Wybór świadomy wymaga odpowiedniej wiedzy o tym, kogo, co, dlaczego i po co się wybiera. Potrzebna jest też wiedza o skutkach wyboru. Jeśli nie posiada się takiej wiedzy, to wybór jest przypadkowy, tak jak w przypadku gry losowej na „chybił-trafił”. Jednak wiedza o konsekwencjach wyboru jest ograniczona przez możliwość przewidywania sytuacji powyborczej.
Niestety, horyzont przewidywalności we współczesnej rzeczywistości społecznej jest coraz ciaśniejszy ze względu na szybkie zmiany i na coraz bardziej turbulentne i chaotyczne procesy, jakie w niej zachodzą, a także dlatego, że coraz większą rolę w jej kształtowaniu odgrywa czynnik subiektywny. (Zob. W. Sztumski, Krupierzy dziejów, SN Nr 3, 2011) Toteż coraz trudniej jest przewidywać przyszłe stany rzeczywistości społecznej. Przewidywalność jest najdokładniejsza w systemach (ustrojach) silnie zdeterminowanych, ale w nich mocno zredukowana jest wolność wyboru.
Kryteria wyboru
Dokonywanie wyboru zależy od oceny opcji wyborczych za pomocą określonych kryteriów. Mogą one mieć charakter osobisty - wybieramy według swego widzimisię - albo być powszechnie uznawanymi w danej społeczności - wybieramy, bo tak wybierają inni, większość, bo tak nakazuje poprawność polityczna, itp.
Kryteria wyboru mogą być proste lub skomplikowane. Proste dają się wyrazić za pomocą wielkości mierzalnych i ich wartości liczbowych. Dlatego mają przeważnie charakter ilościowy lub porównawczy. Można posługiwać się nimi w sytuacjach opisanych liczbowo oraz wtedy, gdy alternatywne warianty wyboru są w jakiś sposób mierzalne. Im lepiej mierzalne, tym łatwiejszy wybór.
Skomplikowanymi są kryteria jakościowe ufundowane na cechach niemierzalnych. Z reguły są one w większym lub mniejszym stopniu niedookreślone. Dlatego są niewygodne i trudno kierować się nimi.
Kryteria wyboru mogą być racjonalne, nieracjonalne albo irracjonalne. Wydawałoby się, że najbardziej racjonalnymi powinny być kryteria ilościowe. Jednak okazuje się, że nie zawsze tak jest. A poza tym, posługiwanie się nimi nie wyklucza dokonywania wyborów nieracjonalnych.
Na dodatek, stosowanie kryteriów racjonalnych możliwe jest wtedy, gdy racjonalna jest sytuacja wyborcza i wiedza o niej. A tego się w praktyce nie spotyka; jest to raczej przypadek idealny. Sytuacja wyborcza w świecie niepewności, turbulencji i chaosu, charakterystycznym dla naszych czasów, staje się nieracjonalna. Zaś wiedza o sytuacji wyborczej powinna być nie za mała ani nie za duża, lecz optymalna ze względu na kategorię wyborcy i warunki lokalne.
Tymczasem zabiegiem manipulacyjnym przed wyborami jest tworzenie szumu informacyjnego wokół kandydatów i programów w wyniku dostarczania nadmiaru informacji. Wiele z nich jest zbędna. Chodzi jednak o to, by wyborca pogubił się w nich.
Nadmiar wiedzy racjonalnej o sytuacji wyborczej, zwłaszcza niepotrzebnej, skłania, a nawet zmusza wyborcę do zaniechania racjonalnego wyboru i ucieczki w irracjonalizm. Wobec tego, chcąc nie chcąc, musi on korzystać z kryteriów irracjonalnych, tym bardziej, że z różnych względów, przede wszystkim dla zmylenia wyborców, kreuje się sytuacje wyborcze dalekie od racjonalnych, np. budując programy na fałszywych, albo mocno wątpliwych przesłankach.
Tak więc, w praktyce ludzie kierują się takimi kryteriami jak zaufanie, image kandydata, sugestywność jego wypowiedzi, zgodność składanych obietnic z własnymi oczekiwaniami, nadzieja na lepsze warunki życia, itp. ale też nieuzasadniona awersja.
Mając to na uwadze, z reguły w opracowywaniu programów wyborczych celowo unika się klarownych elementów ilościowych i racjonalnych, żeby utrudnić dokonanie dobrego wyboru. A jeśli się je umieszcza, to w postaci danych statystycznych, których wartość poznawcza jest mała, gdyż - jak wiadomo - statystyki są mało wiarygodne.
Podobnie nie określa się bliskich, ani konkretnych terminów realizacji zapowiedzi wyborczych, które mieściłyby się w ramach jednej kadencji. Toteż sukcesu wyborczego mogą spodziewać się autorzy takich właśnie programów. Przecież, wbrew pozorom, wyborcy nie lubią wysiłku intelektualnego w postaci myślenia logicznego lub racjonalnego. Wolą iść na łatwiznę i dokonywać wyborów na podstawie kryteriów irracjonalnych. Lansowaniu myślenia irracjonalnego i odwracaniu uwagi od realiów sprzyjają ludyczne wiece i mitingi wyborcze z fajerwerkami i występami estradowymi „pod publiczkę”.
Jednym z jakościowych i pragmatycznych kryteriów wyboru jest dobro, albo zło. Wybieramy to, co w sposób racjonalny lub nieracjonalny, ale częściej irracjonalny, uznajemy za korzystniejsze dla nas z jakiegoś względu. Gdy mamy do wyboru dwa dobra, wybieramy większe dobro, a gdy do wyboru są dwa zła, wybieramy mniejsze zło. Jesteśmy wtedy w rozterce między wyborem największego dobra lub najmniejszego zła.
Niestety, w każdych kolejnych wyborach parlamentarnych kandydują coraz gorsi ludzie pod względem merytorycznym, moralnym i psychicznym. Potwierdzają to wypowiedzi wielu dawnych polityków, duchowieństwa i reprezentantów władzy państwowej oraz doświadczenia różnych afer w ostatnich dziesięcioleciach, nie tylko u nas.
Do władz pretenduje coraz więcej ludzi, którzy nie potrafią, albo nie lubią uczciwie pracować, psychopaci chorzy „na władzę” oraz uszczęśliwiacze ludzkości, którzy najwyżej cenią sobie dobro własne, a nie publiczne. Spośród czterech kategorii ludzi, jakie wymienia M. Cippola - mądrych, bezradnych, głupich i bandytów – tylko ci ostatni chcą rządzić. (Zob. W. Sztumski, Dylemat polityki: rządy głupich czy bandytów, w: Актуальные проблемы социально-гумантитарных наук. Wyd. MGU im А. А. Kuleszowa, Mohylew, Białoruś, 2013)
Mądrzy ludzie z różnych powodów nie garną się do władzy, głównie dlatego, że są mądrzy, a władza nie znosi mądrych albo ich ogłupia, a oni tego nie chcą. Bezradni nie nadają się do rządzenia, a poza tym, nikt nie wybierze bezradnego do władz. Dlatego do władzy wyznacza się głupich, ponieważ liczy się na to, że łatwo będzie nimi manipulować. A bandyci sami pchają się do władzy, bo to ułatwia im osiąganie partykularnych i egoistycznych celów ze szkodą dla innych. Wobec tego jest się skazanym na rządy głupich, albo bandytów. Oba wybory są złe i irracjonalne. A niepewność, co jest mniejszym złem – rządy bandytów czy głupich - sprawia, że w wyborach zwyciężają jedni i drudzy, co nie wróży niczego dobrego ani dla przyszłości państwa ani społeczeństwa.
Wiesław Sztumski
- Autor: Anna Leszkowska
- Odsłon: 1837
Na digitalizacji pracy zyskają pracodawcy, a stracą pracobiorcy.
W ewolucji techniki występuje uniwersalna tendencja do uprzedmiotowiania procesów technologicznych. Jest to konsekwencja przewagi przedmiotowych uwarunkowań procesów technologicznych nad podmiotowymi oraz ograniczania wpływu czynników ludzkich.
Można by sądzić, że ostatecznym celem tej ewolucji było całkowite wyzwolenie człowieka od pracy w wyniku rugowania go z bezpośredniego uczestnictwa w procesie pracy. Nota bene, ten cel jest zbieżny z odwiecznym marzeniem pokaźnej większości ludzi stroniących od pracy. Jednak realnie jest on nieosiągalny; co najwyżej, można tylko zbliżać się do niego - proporcjonalnie do postępu technicznego.
W konsekwencji doskonalenia środków pracy człowiek stopniowo przestaje być głównym czynnikiem procesu pracy, spełnia w nim rolę coraz to podrzędniejszą. Zamiast znajdować się w centrum tego procesu i być jego animatorem zachowuje się tak, jakby był biernym obserwatorem. Teraz nie on rządzi środkami pracy i procesem pracy, tylko one nim.
W procesie pracy uczestniczą: podmiot pracy, system sterowania, środki pracy i przedmiot pracy. Podmiotem pracy jest człowiek-producent, twórca wszelkiego rodzaju dóbr i usług. Na system sterowania składa się oprogramowanie procesów technologicznych (program operacji i korekt), urządzenia kontrolne i detektory (czujniki, mierniki, indykatory) oraz właściwe im mechanizmy wykonawcze. Środkami pracy są rzeczy, które pracownik umieszcza między sobą a przedmiotem pracy po to, by za ich pośrednictwem mógł celowo oddziaływać nań. Są nimi wszystkie rodzaje urządzeń, sprzętu i wyposażenia technicznego używane do planowania, przygotowywania i wykonania określonego zadania produkcyjnego. Ale najważniejszym składnikiem środków pracy są narzędzia.
Etapy uprzedmiotowienia pracy
W ewolucji techniki można wyróżnić następujące etapy uprzedmiotowienia pracy, czyli przejmowania funkcji podmiotu pracy (człowieka-producenta) przez urządzenia techniczne lub narzędzia pracy.
Pierwszy, najdłuższy, trwał aż do zastosowania maszyn wprawianych w ruch energią eksosomatyczną, czyli czerpaną spoza organizmu ludzkiego. W tym czasie posługiwano się przede wszystkim narzędziami ręcznymi lub maszynami prostymi (dźwignie, krążki, kołowroty itp.), poruszanymi za pomocą energii endosomatycznej, pochodzącej z wnętrza człowieka.
Ich funkcjonowanie zależało najczęściej i w przeważającej mierze od motorycznego i sensorycznego wysiłku człowieka w procesie pracy; rzadziej i w bardzo niskim stopniu od wysiłku intelektualnego. Narzędziami były przeważnie narządy człowieka, a najważniejszym czynnikiem produkcji był podmiot pracy, czyli człowiek-producent. Produkcja zależała od zaangażowania w nią jego siły fizycznej, wiedzy, sztuki manualnej, spostrzegawczości itd.
Ciało ludzkie spełniało naraz funkcje mechanizmu napędowego i transmisyjnego oraz naturalnego narzędzia pracy. Podmiot pracy musiał nie tylko wykonywać wszystkie czynności robocze, ale ponadto sterować procesami technologicznymi – planować i kontrolować je oraz korygować ich przebieg. Tak więc, środki pracy i system sterowania zawierały się w podmiocie pracy.
Drugi etap zapoczątkowała pierwsza rewolucja techniczna (przemysłowa) wraz z mechanizacją pracy dzięki implementacji maszyn, które eliminowały narzędzia ręczne z procesu produkcji. Znacznie też redukowały wysiłek cielesny ludzi związany z czynnościami roboczymi - tzw. żywą pracą. W produkcji maszynowej podmiot pracy zostaje pozbawiony właściwej (roboczej) funkcji pracy, gdyż przekazuje ją elementom roboczym maszyny. Narzędzia pracy są wyrywane z rąk człowieka i przekazywane elementom roboczym maszyn.
W taki sposób, w wyniku eksterioryzacji narzędzi, podmiot pracy zostaje pozbawiony jednej ze swoich istotnych funkcji – funkcji roboczej. W konsekwencji, pozostaje mu tylko sterowanie procesami technologicznymi oraz programowanie, kontrolowanie i korygowanie ich. Realizacja tych zadań wymagała w większym stopniu wysiłku intelektualnego niż fizycznego. Jednak wciąż jeszcze człowiek (podmiot pracy) zredukowany do systemu sterowania jest najważniejszym komponentem procesu pracy.
Trzeci etap uprzedmiotowienia pracy rozpoczął się od odłączania się niektórych elementów systemu sterowania od podmiotu pracy, wskutek czego pozbawiano go funkcji kontroli oraz korekty procesu pracy. To zjawisko rozwija się proporcjonalnie do mechanizacji i automatyzacji procesów produkcyjnych.
Na pierwszym etapie uprzedmiotowiania procesu pracy urządzeniami kontrolnymi były narządy zmysłowe pracownika, które przekazywały do jego mózgu informacje o przebiegu pracy. Były to „urządzenia naturalne”. Teraz są nimi sztuczne urządzenia mechaniczne, optyczne, akustyczne i elektromagnetyczne - różne czujniki, indykatory i mierniki. Są one o wiele lepsze od naturalnych, ponieważ ich czułość znacznie przewyższa czułość receptorów narządów zmysłowych człowieka. Informacje o usterkach i odchyleniach od założonego programu produkcji przekazują one nie do mózgu człowieka, lecz do automatycznych urządzeń korekcyjnych, które natychmiast mogą je poprawiać lub usuwać.
Czwarty etap procesu uprzedmiotowienia pracy rozwija się od niedawna, odkąd system sterowania zaczął odłączać się od podmiotu pracy, przekształcać się w narzędzie i do pewnego stopnia działać niezależnie od człowieka. Najpierw działo się to za sprawą tzw. automatów cyklicznych, albo deterministycznych, które pracują zgodnie ze ściśle (sztywnie) ustalonym programem (algorytmami). Takie automaty nie są jednak zdolne do realizacji kreatywnych funkcji pracy człowieka. Realizują one również funkcję organizatorską, ale tylko w ograniczonym stopniu.
Wobec tego obecność człowieka w procesie pracy nadal jest konieczna do usuwania nieprzewidzianych pomyłek lub przypadkowych awarii.
Na tym etapie dokonuje się coraz szybciej intelektualizacja pracy. Po pierwsze, człowiek wyzwolony od czynności roboczych i kontrolnych może realizować się w pracy jako podmiot myślący i twórczo działający. Po drugie, musi umieć obsługiwać automaty i nadzorować je, a to wymaga odpowiedniej wiedzy oraz zaangażowania jego intelektu proporcjonalnie do „inteligencji”, złożoności i stopnia doskonałości automatów.
Wskutek tego, postępowi technicznemu i uprzedmiotowianiu pracy towarzyszy zacieranie się granicy między pracą cielesną a intelektualną i transformacja podmiotu pracy z pracownika fizycznego (blue collar) w umysłowego (white collar). Jednakże wyzwolenie się człowieka od pracy jest pozorne, ponieważ zmniejszenie wysiłku cielesnego kompensuje wzrost wysiłku intelektualnego.
Dopiero stosowanie automatów acyklicznych (elastycznych) pozwala w pełni przejmować przez nie pozostałe funkcje podmiotu pracy - organizatorską i kreatywną. Digitalizacja pracy i rozwój sztucznej inteligencji mogą przyczynić się do eliminacji z procesu pracy udziału pozostałych funkcji mózgu ludzkiego - myślenia i kreatywności.
Tym samym uprzedmiotowienie procesu pracy dobiegłoby końca. Jednocześnie, w wyniku przejmowania roli podmiotu pracy przez różne, coraz „inteligentniejsze urządzenia”, postępuje uspołecznienie wiedzy technicznej, która dotychczas była własnością prywatną jednostek i pilnie strzeżoną tajemnicą mistrzów w swoim zawodzie, racjonalizatorów i innowatorów.
Perspektywa zupełnego uprzedmiotowienia podmiotu pracy
Jedna z prawidłowości historii techniki głosi: proporcjonalnie do doskonalenia narzędzi pracy procesy technologiczne uniezależniają się od biologicznych i intelektualnych zdolności człowieka - od jego siły fizycznej, czułości receptorów zmysłowych, szybkości reakcji na bodźce, odporności organizmu na działania destrukcyjne, doświadczenia produkcyjnego, pamięci i spostrzegawczości, umiejętności zarządzania i organizacji pracy, wiedzy technicznej, innowacyjności, wprawy, biegłości, bystrości umysłu, możliwości i szybkości adaptacji do środowiska pracy, koncentracji uwagi itp.
Wskutek tego narzędzia też poddają się zjawisku alienacji. Ich wyobcowanie się jest nowym wymiarem alienacji pracy. Na trzy inne wymiary alienacji - produktu pracy, procesu pracy oraz pracy będącej cechą gatunkową człowieka - wskazał Karol Marks w „Rękopisach ekonomiczno-filozoficznych” z 1844 r.
Chociaż alienacja narzędzi pracy postępowała stopniowo od samego początku, to jej negatywne konsekwencje dla ludzi dały wyraźnie znać o sobie dopiero pod koniec XX wieku w wyniku doskonalenia narzędzi za pomocą digitalizacji i sztucznej inteligencji w okresie tzw. czwartej rewolucji technicznej*.
Wskutek tego udział ludzi w pracy, w szczególności w procesach wytwórczych, maleje w coraz szybszym tempie. Współczesne narzędzia różnią się zasadniczo pod wieloma względami od tych, jakimi posługiwano się jeszcze kilkadziesiąt lat temu. Coraz częściej przybierają postać systemów cyberfizycznych.
Są to systemy, których komponenty technologii informatycznej i oprogramowania zostały połączone z komponentami mechanicznymi i elektronicznymi, a przesyłanie i wymiana danych oraz kontrola i sterowanie odbywa się w czasie rzeczywistym za pomocą Internetu (p. O. Bendel, Cyber-physische Systeme, Gabler Wirtschatfskexikon, Springer Vrl. 2013).
Ich istotnymi składnikami są urządzenia mobilne i maszyny (w tym roboty), systemy wbudowane i obiekty sieciowe (Internet Rzeczy). Mają one szeroki zakres zastosowań w produkcji (kontrola procesów przemysłowych), logistyce, medycynie (diagnostyka, terapia, protezy, sztuczne organy), obronności, ochronie środowiska (monitoring środowiska), sterowaniu ruchem, bezpieczeństwie pojazdów i wspomaganiu kierowców, energetyce oraz infrastrukturze komunikacyjnej i kulturalnej.
W miarę rozwoju przejmują one coraz więcej funkcji i ról człowieka w procesie pracy. W rezultacie zaczynają funkcjonować bez ludzi, rugując ich z procesów pracy. Z jednej strony, można to oceniać pozytywnie, gdyż trud i czas pracy człowieka redukuje się do minimum. Jednak z drugiej strony, wywołuje to niekorzystne zjawiska, jak np. wzrost bezrobocia oraz wydłużanie czasu wolnego, który nie wiadomo jak rozsądnie i pożytecznie zagospodarować.
Nowoczesne narzędzia stwarzają poważne zagrożenie, gdy narzucają ludziom odpowiednie sposoby postępowania oraz myślenia, co obecnie jest coraz częstszym zjawiskiem. W szczególności, gdy wymykają się spod kontroli ludzi, mogą wywołać katastrofy, o czym świadczą przykłady różnych awarii i eksplozji, albo gdy zanadto się im ufa, jak GPS-om czy autopilotom w samolotach i samochodach (np. 14.01.18, wskutek zawierzenia inteligentnym systemom kontrolnym, ogłoszono alarm rakietowy na Hawajach, który okazał się fałszywy). W przypadku narzędzi prymitywnych pociągało to za sobą ofiary jednostkowe, albo liczone w setkach osób. Natomiast w przypadku narzędzi wysoce skomplikowanych i „mądrych” liczba ofiar może sięgać milionów, gdy spod kontroli wymknie się np. broń bakteriologiczna, chemiczna lub jądrowa.
Podsumowanie, czyli kto zyskuje, kto traci
Digitalizacja pracy polega na wykorzystywaniu technologii cyfrowych i sztucznej inteligencji w procesach pracy (głównie produkcji i usług), wskutek czego zmienia się model pracy z czteroczłonowego: podmiot pracy - system sterowania - środki pracy - przedmiot pracy na trójczłonowy: podmiot pracy - środki pracy - przedmiot pracy, ponieważ system sterowania wszedł w skład środków pracy.
Digitalizacji i zastosowaniu sztucznej inteligencji zostają poddane na razie narzędzia pracy i systemy sterowania.
Konsekwencją tego jest zastępowanie narzędzi prostych, mechanicznych i automatów przez narzędzia „inteligentne”, czyli przez coraz „mądrzejsze” roboty. Są one nieporównywalnie bardziej wydajne od pracowników, a ich koszty utrzymania są dużo mniejsze. Z tej racji pracodawcy chętnie i masowo pozbywają się pracowników, jeżeli mogą ich zastąpić robotami.
Na digitalizacji pracy zyskają pracodawcy, a stracą pracobiorcy. Szacuje się, że na całym świecie ubędą setki milionów miejsc pracy, co pociągnie za sobą ogromny wzrost bezrobocia i zniknie wiele tradycyjnych zawodów. Dotyczy to również krajów słabo rozwiniętych, bo nawet tam bardziej opłaca się zastępować robotami słabo opłacanych pracowników.
Według badań ING-DiBa-Bank, w Niemczech zagrożonych jest już 18,3 milionów miejsc pracy w ich obecnej formie przez postępową technologię. Szczególnie dotyczy to biur sekretarskich i administracyjnych, usług paczkowych, magazynów, handlu detalicznego, sprzątania i cateringu. A setki tysięcy szwaczek zostaną wyeliminowane z pracy przez roboty szwalnicze.
Najmniej zagrożeni są pracownicy naukowi (zob. T. Kaiser, Maschinen könnten 18 Millionen Arbeitnehmer verdrängen, Die Welt, 02.05.15).
Zdaniem Deepaka Mishry, głównego ekonomisty Banku Światowego, coraz mniejszy będzie popyt na pracowników średnio wykwalifikowanych, a większy na wysoko wykwalifikowanych oraz na niewykwalifikowanych. Wskutek tego szybko postępować będzie erozja grupy pracowników średnio wykwalifikowanych, co niekorzystnie odbije się na statusie, roli i rozwoju klasy średniej, a pośrednio na teraźniejszej gospodarce preferującej tę klasę ( p. H. Jeppesen, Digitalisierung: Wettrennen mit der Technologie, op. cit.).
Proporcjonalnie do digitalizacji pracy zmniejsza się rola podmiotu pracy w wyniku zastępowania człowieka przez „inteligentne urządzenia” - automaty, roboty itp. oraz związana z tym postępująca szybko redukcja wielu zawodów.
Według szacunków Carla Benedikta Frey’a i Michaela A. Osborne’a, ok. 47% całkowitego zatrudnienia w USA jest zagrożone przez postępującą digitalizację pracy. Badali oni prawdopodobieństwo robotyzacji 700 zawodów. Z ich badań wynika, że w ciągu 20 lat mogą zniknąć niektóre zawody, dla których prawdopodobieństwo robotyzacji jest bliskie 100%.
Należą do nich: pracownicy biur maklerskich, niektórzy pracownicy firm ubezpieczeniowych, bibliotekarze, pracownicy obróbki zdjęć fotograficznych, operatorzy obrabiarek, pracownicy podatkowi, agenci Cargo, zegarmistrzowie, rachmistrze, telemarketerzy, księgowi, pakowacze, modelki i hostessy. Natomiast zawody, dla których prawdopodobieństwo robotyzacji jest bliskie 0%, a więc „trwałe”, to: terapeuci rekreacyjności, nadzorcy urządzeń technicznych, instalatorzy, osoby zajmujące się naprawami, pracownicy pogotowia, pracownicy zdrowia psychicznego i ośrodków dla uzależnionych, audiologowie, ortodonci i protetycy, pracownicy opieki społecznej, chirurdzy szczękowo-twarzowi, pracownicy prewencyjni, dietetycy, pracownicy zajmujący się wynajmem lokali, choreografowie, sprzedawcy i lekarze (p. C. B. Frey, M. A. Osborne, The Future of Employment: How susceptible are jobs to computerisation?, Oxford Martin Programme on Tchnology and Employment, Sept. 2016, s. 57-71).
A kiedy w przyszłości „mądre roboty” przejmą już funkcję myślenia twórczego, to być może, będą w stanie wyręczać nawet twórców nauki i sztuki: naukowców, kompozytorów, malarzy, rzeźbiarzy, pisarzy i poetów.
Wiesław Sztumski
* Pierwsza rewolucja trwała od końca XVIII w., kiedy zmechanizowano produkcję w wyniku zastosowania maszyn napędzanych wodą i parą wodną, a później - silników spalinowych.
Druga zaczęła się na początku XX wieku wraz z elektryfikacją procesów technologicznych (zastosowaniem silników elektrycznych), podziałem pracy i zastosowaniem w 1913 r. taśmy montażowej w Henry Ford Company.
Trzecia nastąpiła w latach 70-tych XX w. w wyniku informatyzacji procesów technologicznych (zastosowania komputerów i robotów), zastosowania elektroniki, sztucznej inteligencji i „programowalnych kontrolerów logicznych” (Programmable Logic Controller).
Czwarta rewolucja dopiero się zaczęła w wyniku stosowania systemów cyberfizycznych. (p. H. Jeppesen, Digitalisierung: Wettrennen mit der Technologie, http://p.dw.com/p/1IvJq; 30.05.2016)
Na ten temat pisał też ostatnio na łamach Spraw Nauki (SN nr 1/18) prof. Andrzej Wierzbicki - Czym się zająć?
- Autor: Anna Leszkowska
- Odsłon: 2688
W czasach nowożytnych formacja kapitalistyczna wykreowała właściwy sobie model człowieka - homo oeconomicus (podporządkowanego prawom ekonomii i rynku, bogacącego się za wszelką cenę i ukierunkowanego na coraz większą konsumpcję), który zapoczątkował „epokę kapitału” (capitalocene).
W dalszym rozwoju, a zwłaszcza w XX wieku, pojawiło się wiele innych modeli, które były albo różnymi wersjami „człowieka ekonomicznego”, albo jego postaciami bardziej rozwiniętymi. Pod koniec ubiegłego stulecia pojawił się „człowiek wirtualny” (homo virtualis), który z pomocą komputerów stworzył specyficzny, nieznany wcześniej świat, zwany wirtualnym. Odtąd nastała „epoka świata wirtualnego”.
W skład świata wirtualnego wchodzą różne tzw. byty wirtualne: awatary, ikony, emotikony, e-sklepy, e-pieniądze, e-książki, e-czasopisma, e-portmonetki, radiotelewizja internetowa, portale publicystyczne i społecznościowe (facebook, linkedin, twitter itp.), serwisy internetowe, komunikatory itd. Ten nowy świat, który rozwija się w zawrotnym tempie, coraz bardziej zastępuje ludziom świat realny. Świata wirtualnego można doświadczać cieleśnie, intelektualnie i duchowo (poznawać go i badać). Można aktywnie uczestniczyć w jego funkcjonowaniu i komunikować się w jego obrębie z innymi ludźmi-użytkownikami komputerów.
Fikcje i złudzenia
Obcowanie ze światem wirtualnym pociąga za sobą przynajmniej dwa skutki negatywne:
1) Redukuje bezpośredni kontakt człowieka ze światem realnym, z „żywymi ludźmi” i rzeczywistymi sytuacjami. (Im więcej czasu spędza się z komputerem, tym mniej doświadcza się środowiska naturalnego.)
2) Intensywny i ciągły kontakt ze światem wirtualnym skutkuje rozmyciem granicy między realnością a fikcją zawierającą się w wirtualności. Skutkiem tego nie wie się (szczególnie dotyczy to dzieci), co naturalne, a co sztuczne, co faktyczne, a co tylko wymyślone. W rezultacie przypisuje się walor realności postaciom, zjawiskom i sytuacjom wirtualnym, a to, co realne, traktuje się jak fikcję i na odwrót. Dlatego zachowuje się w realnym świecie oraz w realnych sytuacjach tak, jakby się było w świecie wirtualnym, co nieraz pociąga za sobą rozczarowania i fatalne skutki.
Fikcje i złudzenia tworzono zawsze w wyniku myślenia mitycznego i magicznego, wierzeń religijnych, tworzenia koncepcji ideologicznych i filozoficznych oraz literatury science fiction i bajkopisarstwa. Wymyślano rozmaite fikcje i chętnie wierzono, że one realnie istnieją i posiadają realną moc sprawczą. Jednak oddziaływanie fikcji na świadomość było nieporównywalnie mniejsze niż obecnie, głównie za sprawą masowego korzystania z komputerów i Internetu, twórczości telewizyjnej i reklamowej. Dzisiaj, dzięki łatwym programom komputerowym (grafiki komputerowej) tworzy się nieporównywalnie więcej fikcji, które upowszechnia się na skalę masową. Duża częstotliwość i powtarzalność pokazywania ich w postaci obrazów charakteryzujących się ogromną ekspresją przyczynia się do coraz silniejszego odciskania piętna świata wirtualnego na psychice, świadomości i podświadomości ludzi.
Wszystko smart
W wyniku postępu w dziedzinie technologii komputerowej pojawił się niedawno „świat cyfrowy” jako nowa forma świata wirtualnego. Jego komponentami są (w najprostszym przypadku) cyfrowe reprezentacje matematyczne realnych przedmiotów, procesów i zjawisk. Wszystko co można, przedstawia się teraz w postaci cyfr. Zdigitalizowane składniki świata realnego ukazują się na czytnikach powszechnie dostępnych urządzeń elektronicznych, przede wszystkim na przenośnych - laptopach, tabletach, telefonach komórkowych, „inteligentnych zegarkach” (smart watches) i innych „inteligentnych” urządzeniach i gadżetach. Cyfryzacja wciska się coraz bardziej w życie codzienne dzięki modnemu „Internetowi inteligentnych rzeczy”.
Ma to dobre i złe strony. Jak wszelkie „mądre” urządzenia techniczne, ułatwia różne czynności praktyczne, a życie ludzi czyni ciekawszym i bardziej komfortowym. Ale przyczynia się też do redukcji sfery prywatności wszędzie tam, gdzie dociera Internet, gdyż upowszechnia dane osobiste i intymne. Nawet tradycyjne domy, które przekształca się w „inteligentne”, są kontrolowane i podglądane przez inteligentne urządzenia internetowe, które przekazują informacje o ich mieszkańcach między innymi w celu szpiegowania i kradzieży danych: „Czy są w domu?”, „Co robią?”, „Jak odpoczywają?”, „Czy są chorzy?” itd.
Realizacja idei Ubiquitous Computing (przetwarzanie informacji dotyczących wszystkich sfer życia społecznego, wspomagane komputerowo i bez granic) umożliwia koncernom IT (Information Technology), prywatnym programistom i hobbystom wszczepianie ludziom mikroskopowych urządzeń elektronicznych (chipów) i ucyfrowienie wszystkiego w ich otoczeniu. A dzięki wearables (galanterii elektronicznej) i „inteligentnym implantom” technologia informatyczna może przekraczać granice ludzkiego ciała. Wszystkie te urządzenia są w stanie komunikować się wzajemnie oraz z ludźmi poprzez różne sieci łączności.
Media społecznościowe, w szczególności twitter i facebook, zrewolucjonizowały sposób przesyłania i obiegu informacji, co ma również złe strony, ponieważ m. in. otwarły bezprecedensowe możliwości dla manipulantów społecznych. Różne urządzenia elektroniczne zbierają i gromadzą dane o człowieku i oferują ich użytkownikom więcej informacji o nim, aniżeli on sam wie o sobie. Instytucje i koncerny wykorzystują je rzekomo dla naszego dobra, ale faktycznie do innych celów: śledzenia, kontroli, reklamy i marketingu. Obiecuje się ludziom dobrodziejstwa ze społeczeństwa informatycznego, w którym np. ma postępować produktywność i lepsza jakość życia, chociaż nie ma pewności, że będą one rosnąć nieograniczenie i okażą się tak dobre, jak się przypuszcza.
Utrata wolności
Natomiast pewne jest to, że postępująca rewolucja cyfrowa* implikuje zagrożenie dla wolności i prywatności jednostek. Oprócz tego, automatyzacja społeczeństwa za pomocą algorytmów grozi drążeniem demokracji przez nowe struktury totalitarne (np. rządy monopartyjne), albo - w najgorszym wypadku - za pomocą sterowania obywatelami przez sztuczne inteligencje. Zaczyna się od programowania komputerów, a kończy na programowaniu ludzi. Świadczą o tym przykłady Singapuru i Chin. Wszyscy władcy i dyktatorzy wiedzą o tym, że prywatność jest największą przeszkodą na drodze do uzyskania pełnego panowania nad obywatelami. Dopóki ludzie zachowują jeszcze coś dla siebie, w co nikt inny, a tym bardziej państwo, nie jest w stanie ingerować, dopóty nie mogą być całkowicie zniewoleni. Jak stwierdził Günther Anders: „W każdej dyktaturze ‘Ja’ jest obszarem, który jako pierwszy trzeba okupować”.
Świat cyfrowy wyobcowuje się i stopniowo wymyka się spod kontroli człowieka. W związku z tym staje się wciąż bardziej nieprzewidywalny i stanowi coraz większe zagrożenie dla ludzi. Dlatego dziewięciu wybitnych ekspertów europejskich z zakresu Big Data, socjologii, filozofii i ekonomii zwraca uwagę na zagrożenie związane z automatyzacją społeczeństwa za pomocą algorytmów oraz sztucznej inteligencji i ostrzega przed „dyktaturą danych”.
W świecie cyfrowym kształtuje się nowa postać człowieka wirtualnego - Homo digitalis (człowiek cyfrowy, który może oznaczać albo człowieka sztucznego - imitację człowieka naturalnego, albo człowieka w pewnym sensie zredukowanego do systemu zero-jedynkowego, bo funkcjonującego w cyfrowym świecie pełnym „inteligentnych” urządzeń przenośnych). Jego integralną częścią są cyfrowe wspomagacze i ulepszacze, dzięki czemu powinien być „cyfrowo mądry”, tzn. umieć dobierać odpowiednie narzędzia do wspierania wrodzonych umiejętności i używać ich w celu ułatwienia sobie życia i podejmowania coraz lepszych decyzji. Jednak decyzja (lub wybór) może mieć miejsce tylko w systemach słabo zdeterminowanych, a więc tam, gdzie jest wolność. A tymczasem w pełnym wymiarze człowiek cyfrowy jest faktycznie robotem rządzonym przez algorytmy. A więc funkcjonuje w środowisku silnie zdeterminowanym i dlatego jest zniewolony w najwyższym stopniu. Podejmuje decyzje lub dokonuje wyborów, które dyktuje program (algorytm) narzucony mu z zewnątrz, czyli takie, które bezapelacyjnie musi podjąć w danej sytuacji. Jego decyzje nie zależą od tego, czy myśli, ani co myśli w trakcie ich podejmowania.
Ewolucja człowieka
Człowiek cyfrowy jest efektem ewolucji człowieka podobnego do maszyny, zapoczątkowanej przez pierwszą rewolucję przemysłową w XVIII wieku, prawdopodobnie najwyżej rozwiniętą jego postacią. Proces kształtowania się człowieka cyfrowego postępuje coraz szybciej. Coraz bardziej ulegają digitalizacji funkcje cielesne i umysłowe, psychika, osobowość i duchowość oraz zachowania, postawy, emocje i relacje międzyludzkie. Transformacja homo naturalis w homo digitalis (człowieka naturalnego w cyfrowego) implikuje co najmniej kilka skutków negatywnych:
- Ludzie w obłąkańczym pędzie do robienia kariery, osiągania zysku i bogacenia się, narzucają mordercze tempo swojemu życiu i pracy. Robią to również w obawie przed wykluczeniem społecznym, ekonomicznym i informatycznym. Nie wolno przecież odstawać od średniego standardu zamożności, ani zostawać w tyle za innymi ze względu na umiejętność korzystania z najnowszych technologii informatycznych. Stad bierze się ten pościg za najszybszymi urządzeniami technicznymi bez względu na zgubne tego skutki.
- Biologiczna degradacja gatunku ludzkiego postępuje w wyniku budowania maszyn coraz bardziej podobnych do ludzi. (Najnowszym osiągnięciem w tej dziedzinie jest humanoid „Sofia” zbudowany w 2016 r. przez Davida Hansona, właściciela znanej amerykańskiej firmy „Hanson Robotics”, który nie tylko wygląda, ale także zachowuje się jak człowiek.) Im więcej istotnych cech i funkcji traci człowiek, tym mniej zostaje w nim tego, co ludzkie, tym mniej jest człowiekiem.
- Maszynopodobny człowiek zachowuje się bezmyślnie i bezrefleksyjnie, jak maszyna:
- Odnosi się indyferentnie i bezdusznie do innych osób, ale za to z pełnym wyrachowaniem.
- Kieruje się racjonalnością zredukowaną zazwyczaj do zimnej kalkulacji.
- Posługuje się sztampowymi algorytmami i stereotypami w myśleniu. Wskutek tego degraduje swoją sferę duchową i emocjonalną. Nie tylko zakłóca równowagę między sferą fizyczną, psychiczną i duchową, ale wywołuje znane psychologom zjawiska negatywne, które przyczyniają się do degradacji osobowości.
- Technomorfizacja człowieka odbija się niekorzystnie na podejmowaniu decyzji. Człowiek działający, jak maszyna, przeważnie automatycznie podejmuje decyzje, nie licząc się z przyszłymi konsekwencjami. A w ogóle, chętnie powierza maszynom podejmowanie decyzji za siebie.
- Człowiek maszynopodobny pomniejsza sferę własnej woli i wolności. Wskutek tego staje się mniej aktywny, coraz bierniejszy i podatniejszy na manipulację i zniewalanie.
- W czasach big data każdy człowiek działający w cyberprzestrzeni pozostawia po sobie cyfrowe ślady (cienie), ponieważ generuje dane (również personalne), które trafiają do baz danych i chmur internetowych. W ten sposób tworzy swój image i swoją tożsamość cyfrową (e-tożsamość). Staje się ona swoistym towarem (raczej łupem), chętnie nabywanym przez oszustów, albo różne organizacje zajmujące się szpiegowaniem.
Cyfrowy obóz koncentracyjny
Ludzie cyfrowi, na co dzień obcując z rozmaitymi urządzeniami elektronicznymi, wplątują się coraz bardziej w wielorakie sieci internetowe, z których trudno się im wyzwolić, bo uzależniają się od nich, jak od używek lub narkotyków. W konsekwencji poddają się ich władzy, stają się ich zakładnikami i niewolnikami. Dlatego słusznie twierdzi Aleksandr Nikiszin (Cifrovoje rabstvo v cifrovoj civilizacii), że „najnowsze technologie inteligentne, sprawując kontrolę nad ludźmi, grożą transformacją społeczeństwa w cyfrowy obóz koncentracyjny”. Tak więc, w digitalnej cywilizacji krzewi się digitalne niewolnictwo, które jest najnowszą i najdotkliwszą formą neoniewolnictwa w neoliberalizmie.
Ostatnio media doniosły, że w dniu 13 listopada 2017 r. rozpoczęła się rewolucyjna zmiana świata w konsekwencji zezwolenia na stosowanie w USA pierwszej w świecie „pigułki digitalnej”. Na razie wprowadzono do niej mikroskopijny sensor, który powiadamia lekarza o czasie jej zażycia. Później będzie umieszczać się w niej więcej sensorów badających parametry i stany organizmu. Pociągnie to za sobą digitalizację pomiarów różnych parametrów ciała oraz diagnostyki lekarskiej za pomocą sztucznej inteligencji, a potem digitalizację terapii i drastyczną zmianę pojmowania zdrowia.
Przenikanie digitalizacji do wnętrza człowieka jest zarówno czymś bardzo obiecującym jak i przerażającym. Jest mieszaniną fascynacji i lęku przed tym, że człowiek stanie się cyborgiem - hybrydą człowieka i maszyny - istotą przekraczającą własne ograniczenia cielesne, egzotyczną i niespotykaną. O ile w latach 60-tych ub. wieku mówiło się o poszerzaniu granic człowieka na zewnątrz (extension of man) w wyniku robotyzacji, to teraz mówi się o przekraczaniu ich wewnątrz organizmu ludzkiego (intrusion of man) dzięki nanorobotom (wielkości rzędu 10-9 m) i dalszej postępującej digitalizacji. Technika najpierw atakowała z całą mocą powierzchnię ciała lidzkiego, a teraz przenika do niego coraz głębiej.
Przewiduje się, że za około dziesięć lat większość bogatych ludzi w krajach uprzemysłowionych będzie obcować z cyborgami, albo stanie się nimi. A umieszczanie nanobotów wewnątrz ciała będzie czymś tak normalnym, jak przeszczepy. Poszczególne nanoboty w człowieku będą połączone ze sobą i z nanobotami innych ludzi za pomocą sieci komputerowych (Internetu). Wskutek tego nastąpi ucieleśnienie usieciowienia i digitalizacji.
Ray Kurzweil (słynny amerykański wynalazca, dyrektor ds. technicznych w Google) dokładnie przepowiada, że już w latach 30-tych bieżącego wieku komputery zmierzą się ludzką inteligencją i pokonają ją, a ludzie będą nosić w mózgach nanoboty wielkości komórek biologicznych połączone z globalnym Internetem. To pozwoli im pobierać umiejętności (w stylu Matrixa) i edytować geny w celach terapeutycznych. Z początku będzie to dostępne dla bogatych, a wkrótce także dla mas, tak jak to było w przypadku telefonów komórkowych.
Nanoboty w naszych mózgach wytworzą też nowe sposoby odbierania bodźców, inne niż znane wrażenia zmysłowe. Optymistycznie twierdzi się, że takie nanoboty nie zagrożą prywatności, ponieważ każdy człowiek będzie mógł je szyfrować indywidualnie, a szyfrowanie zawsze jest wcześniejsze od deszyfrażu. Ale czas między szyfrowaniem i rozszyfrowaniem zmniejsza się. Wobec tego prywatność będzie trwać coraz krócej.
Poza tym, przyspieszona digitalizacja ciała kryje w sobie wiele konsekwencji trudnych do przewidzenia i opanowania na podstawie dzisiejszej wiedzy. Nie wiadomo, jakie możliwości dla manipulacji myślami, zachowaniami, postawami i uczuciami ludzi stworzy połączenie ich mózgów w jedną sieć globalną i jakie problemy teoretyczne i praktyczne wynikną z nadania robotom praw człowieka i z traktowania ich jak „osoby elektroniczne”. Możliwe, że digitalizacja ludzi jest wstępem i warunkiem koniecznym do zaprowadzenia centralistycznego rządu światowego.
Wiesław Sztumski
* Tylko w 2015 r. pojawiło się tyle danych, ile w całej historii ludzkości do 2014 r. co minutę wysyła się setki tysięcy zapytań do Google’a i tyle samo zamieszcza się postów na facebookach. One zdradzają nasze myśli i uczucia. Szacuje się, że w ciągu dziesięciu lat będzie w ramach „Internetu przedmiotów” około 150 mld usieciowionych czujników pomiarowych, tj. dwadzieścia razy więcej niż liczy dzisiejsza populacja świata. Potem co 12 godzin będzie podwajać się liczba danych. Już dzisiaj wiele organizacji usiłuje te Big Data zamienić na Big Money.
- Autor: Wieslaw Sztumski
- Odsłon: 6222
Najprościej można rozumieć prywatność jako zamkniecie się w sobie, uwolnienie sięod obecności innych ludzi i ukrywanie się przed nimi.
O prywatności mówi się w dysputach filozoficznych, etycznych, politycznych i prawniczych. Różnie się ją rozumie, ponieważ nie ma jakiejś jednej definicji tego słowa. Prywatność jest pojęciem abstrakcyjnym i kontrowersyjnym. Można ją określić tak, jak Robert Clarke, jako świadomość posiadania „osobistej przestrzeni” wolnej od ingerencji innych osób oraz organizacji. Tę przestrzeń nazywam własną, albo indywidualną przestrzenią życiową. Najprościej można rozumieć prywatność jako zamkniecie się w sobie, uwolnienie się od obecności innych ludzi i ukrywanie się przed nimi.
Są jednak inne, mniej lub więcej złożone definicje, które funkcjonują w różnych sferach życia i naukach o człowieku, a które stworzono dla różnych celów. Na przykład, Slan Westin definiuje prywatność jako prawo jednostki do kontroli, publikacji, zarządzania i usuwania informacji o sobie i decydowania o tym, kiedy, jak i w jakim zakresie informacje o sobie mogą być komunikowane innym.
Najwięcej definicji prywatności występuje w aktach prawnych o ochronie prywatności, a w szczególności w przepisach dotyczących ochrony dóbr osobowych. Tu do sfery prywatności człowieka zalicza się w szczególności dane dotyczące życia rodzinnego i seksualnego, stanu
zdrowia, biografii, sytuacji majątkowej (dochodów). Wyraża się jednocześnie niepokój związany z sekretnym nadzorowaniem ludzi przez różne służby i instytucje. Trudna jest też sprawa podejmowania decyzji o tym, czy, kiedy i komu innemu można ujawniać informacje osobiste.
Prywatność można również rozumieć szerzej na przykład jako wolność od ingerencji innych ludzi w życie i sprawy jednostki niezależnie od tego, czy implikują one dobre, czy złe skutki.
Pojęcie prywatności odzwierciedla poczucie swojego Ja, a sfera prywatności jest ważnym składnikiem życia każdego człowieka i jego światem osobistym, który nie powinien nikogo obchodzić i w który nikomu nie wolno się wtrącać pod żadnym pretekstem. Każdy ma prawo do posiadania takiego świata wewnętrznego i dysponowania nim, jak mu się podoba, nie licząc się ze swym otoczeniem ani innymi ludźmi; świata, z którym i w którym może robić, co zechce, zarządzać nim, jak mu się podoba i nie być przy tym przez nikogo dyrygowany ani w
jakikolwiek sposób podglądany i podsłuchiwany.
Wyróżnia się prywatność fizyczną (zachowanie swojej odrębności cielesnej w przestrzeni i czasie w stosunku do innych), ekspresyjną, (autonomiczne podejmowanie decyzji), informacyjną (określenie informacji wyłączonych od ujawniania ich osobom postronnym) oraz wirtualną (zakaz ujawniania swoich danych w świecie wirtualnym - w komputerach, Internecie itp.).
Prywatność dla naukowców
Prywatność jest obiektem badań multidyscyplinarnych, a każda z dyscyplin naukowych ujmuje ją i bada inaczej, w sposób specyficzny dla niej. W związku z tym jest wiele przestrzeni prywatności: psychologiczna, filozoficzna, etyczna, prawna, socjologiczna i polityczna.
Filozofowie i antropologowie skupiają się na prywatności jako cesze immanentnej naturze człowieka nabywanej za pośrednictwem kultury oraz na relacji jednostki do ogółu. Starają się odpowiedzieć na dwa zasadnicze pytania: czym jest prywatność oraz dlaczego człowiek ceni
swoją prywatność i chce, żeby była ona szanowana przez inne jednostki, organizacje i władzę.
Etyków interesuje przede wszystkim to, czy prywatność jest dobra z natury rzeczy, czy tylko instrumentalnie dobra.
Dla ekonomistów ważne jest badanie informacji osobowych jako dóbr (towarów) oraz jako elementów wpływających na efektywność rynku.
Socjologowie koncentrują się na wpływie gromadzenia i korzystania z danych osobowych na funkcjonowanie władzy i wzmacnianie relacji między jednostkami, grupami i instytucjami w społeczeństwie.
A psychologowie zwracają na przykład uwagę na wymiary prywatności, głównie w aspekcie samowykluczania się, to jest na samotności wynikającej z unikania kontaktów z innymi ludźmi, intymności, zwłaszcza w kontaktach seksualnych, anonimowości związanej z niechęcią do pokazywania się lub zwracania uwagi na siebie i na dystansie albo zachowaniu rezerwy w stosunku do innych.
Redukcja sfery prywatności
Mimo tego, że wiele uwagi poświęca się prywatności i podkreśla jej znaczenie (a czynią to głównie politycy), życie dowodzi, że jest ona coraz bardziej zagrożona we wszystkich jej przestrzeniach i wymiarach. Wprawdzie zawsze była ograniczana i naruszana, ale nigdy w takim stopniu i zakresie, tak nachalnie i przemyślnie, jak teraz. Wszędzie i zawsze podsłuchiwano, podglądano i śledzono, najwięcej ludzi władzy i biznesu, korzystano z usług różnego rodzaju podglądaczy, donosicieli i szpicli, ale działali oni sekretnie, niekiedy nawet z pewną kurtuazją, nie było ich tak dużo i nie dysponowali tak wspaniałymi urządzeniami technicznymi. Byli na ogół źle widziani w kręgach towarzyskich, społecznie nieakceptowani i narażeni na ostracyzm. Dlatego nie chwalili się swoją profesją.
Teraz jest inaczej. Gdzie się da, grasują bezkarnie i ostentacyjnie zgraje różnych podglądaczy w rodzaju paparazzi, szpicle w rodzaju hakerów oraz różnego pokroju łowcy czy wyłudzacie danych osobistych (agenci firm). Dołączają do nich dziennikarze, zwłaszcza prasy kolorowej i komercyjnych stacji telewizyjnych, którzy nie potrafią pisać o niczym innym, jak tylko o pewnej przysłowiowej części ciała Maryni i dlatego poszukują sensacji w życiu osobistym, głównie seksualnym, tzw. celebrytów. Korzystają ze świetnego sprzętu technicznego i
najnowocześniejszych programów komputerowych.
W społeczeństwie przywykłym już do różnych ekscesów ekshibicjonistycznych ich poczynania nie budzą reakcji obronnej w postaci sprzeciwu ani zwykłego napiętnowania, jak by nic złego nie było w pozbawianiu ludzi ich prywatności lub intymności. Szpiedzy uznawani są nawet za bohaterów narodowych, a podglądacze eksponowani i sowicie nagradzani.
Co gorsze, z różnych względów jest coraz większe zapotrzebowanie społeczne na informacje o tym, co powinno być niejawne. Żeby uzasadnić rozwój rynku szpicli i podglądaczy obnażających dosłownie i w przenośni ludzi - a jest to rynek warty wielu miliardów dolarów - dorabia się ideologię tzw. transparencji życia publicznego. Jest ona rzekomo nieodzowna dla demokracji, a obdzieranie ludzi z ich prywatności służy wzniosłemu celowi, jakim jest doskonalenie życia publicznego i ustroju demokratycznego.
Społeczeństwo nadzorowane
Postępująca redukcja sfery prywatności towarzyszy narastającemu globalnemu kryzysowi zaufania, zwłaszcza od pamiętnej daty 11 września 2001 roku. Odtąd, ze strachu przed atakami terrorystycznymi z zewnątrz i z wewnątrz, czyli również ze strony własnych obywateli, rozwój nawet najbardziej demokratycznych państw zmierza w kierunku tworzenia „społeczeństw nadzorowanych”. A to oznacza coraz skrupulatniejsze śledzenie obywateli własnych i cudzych oraz daleko idącą inwigilację ich sfery prywatności.
Ograniczanie i deptanie sfery prywatności dokonuje się w kilku wymiarach.
Po pierwsze, w wymiarze czasowym. Tu redukcja sfery prywatności postępuje w konsekwencji zacierania się różnicy między czasem pracy a czasem wolnym, który należy do sfery prywatności. Do niedawna ściśle i obowiązkowo przestrzegano ostrego podziału na czas pracy
i czas odpoczynku. Czas pracy spędzało się w firmie, poza swoim mieszkaniem; był on przeznaczony na wykonywanie obowiązków zawodowych i maksymalnie wykorzystywany. Czas wolny, (po pracy zarobkowej) można było organizować i wykorzystywać według własnego
uznania w dowolnym miejscu. Spędzano go na czynnościach związanych z prowadzeniem domu, wychowywaniem dzieci, a także w celach relaksu i rozrywki, albo na nic nie robieniu.
Niemal do końca ubiegłego wieku dokładnie było wiadomo, kiedy zaczyna się i kończy czas pracy i czas wolny.
Teraz to się zmieniło. Czas pracy staje się coraz bardziej ruchomy, a od pracowników wymaga się tzw. dyspozycyjności, czyli pozostawania w stanie gotowości do podejmowania pracy w każdej chwili doby, czyli praktycznie non-stop. Poza tym, pracodawcy wydłużają czas pracy, systematycznie wykorzystując nadwyżkę siły roboczej na rynku pracy. Oprócz tego, w związku z koniecznością częstych zmian zawodu (wykonywanie w ciągu całego życia jednego zawodu wyuczonego jest coraz częściej niemożliwe) oraz stałego doskonalenia kwalifikacji trzeba coraz więcej czasu wolnego poświęcać na przekwalifikowanie się i dokształcanie. To jakby w ogóle wydłuża czas pracy i przenosi go do domu. Postępuje też przenikanie się nawzajem czasu pracy i czasu wolnego wraz z wykonywaniem różnego rodzaju prac oferowanych przez Internet i wykonywanych w domu: Home Office, Mobil Office, Tele-job itp. W rezultacie, sfera prywatności w ramach korzystania z czasu wolnego zawęża się praktycznie do minimum niezbędnego do biologicznego i kulturowego funkcjonowania, a pojęcie czasu wolnego traci pierwotny sens. Wobec tego czas wolny jest iluzją, tak jak prywatność.
Po drugie, w wymiarze przestrzennym. Wskutek przenikania się i dyfuzji czasu i życia prywatnego z czasem i życiem publicznym zmniejsza się ich odrębność. Na dobrą sprawę nie wiadomo już dokładnie, kiedy funkcjonuje się jak osoba prywatna, a kiedy jak osoba publiczna. To nie dotyczy wyłącznie przedstawicieli władzy, polityków, aktorów i innych ludzi pokazywanych często i powszechnie znanych, ale również innych, którzy wykonują zawody publiczne - lekarzy, nauczycieli i kapłanów - a nawet ludzi nie pracujących zawodowo.
Właściwie każdego, kto znajdzie się w przestrzeni publicznej. To także wydaje się być niczym nowym. Tyle tylko, że w wyniku różnych procesów społecznych, zacieśniania się sieci zależności międzyludzkich i wzrostu gęstości społecznej (zaludnienia), przestrzeń publiczna coraz bardziej powiększa się kosztem zmniejszania się przestrzeni prywatnej.
Jest to związane z postępującą wraz z postępem cywilizacyjnym redukcją wolności osobistej i indywidualnej przestrzeni życiowej jednostek. To stopniowe pochłanianie przestrzeni prywatnej przez publiczną nakazuje być ostrożnym i kontrolować swoje zachowanie w każdej chwili i w
każdym miejscu. Tym bardziej, że jest się narażonym na permanentne powszechne podglądactwo, a ludzie bardziej cenią sobie własną prywatność niż cudzą. Kierując się zwykłym wścibstwem, nastawiają oczu i uszu na to, co robią inni. Dlatego sięgają po prasę kolorową,
która żywi się plotkami z życia prywatnego i intymnego i chętnie oglądają programy telewizyjne typu reality show. Tak więc, zacierają się coraz bardziej granice między przestrzenią prywatną i publiczną, a to, co prywatne, staje się publicznym i na odwrót.
Kuszące narzędzia kontroli
Oprócz czynników subiektywnych niemałą rolę w ograniczaniu prywatności odgrywa obiektywny postęp techniczny. Rozwijające się technologie informatyczne umożliwiają coraz większe sprawowanie nadzoru nad społeczeństwem. Kuszą niejako do wkraczania w obszary życia prywatnego, do obserwowania ich w różnych sytuacjach, rejestrowania ich zachowań na nośnikach pamięci i do przekazywania masom społecznym zdobytych informacji o osobach prywatnych w Internecie, tym bardziej, że można dzięki temu zostać sławnym, albo nieźle na
tym zarobić. Toteż bez wiedzy osób inwigilowanych gromadzi się w pamięci komputerów coraz więcej danych o nich. Są one później przetwarzane dla celów gospodarczych, informacyjnych i wielu innych - częściej niegodziwych. Z danych pochodzących z dowodów osobistych i paszportów mogą korzystać różne instytucje, a prywatne komputery są przeszukiwane przez rozmaite służby tajne.
Redukcja i naruszanie prywatności postępuje wraz ze wzrostem populacji, urbanizacją, rozbudową rozmaitych infrastruktur (sieci dróg, centrów handlowo-usługowych, łączności itp.), ograniczeń prawnych i administracyjnych itd. Pociąga ona za sobą eskalację jeszcze jednej
formy zniewalania ludzi we `współczesnym świecie. W związku z tym nasuwa się pytanie o jej zasięg i o minimalne granice obszaru prywatności, których przekroczenie groziłoby biologicznemu i społecznemu funkcjonowaniu jednostek. Człowiek z natury jest istotą
społeczną i z tego powodu musi żyć wśród innych ludzi. To implikuje konieczność dzielenia się z nimi wieloma rzeczami, w tym swoją przestrzenią życiową, również prywatną.
Życie stadne, czy - jak kto woli - społeczne, wiąże wymaga wymiany informacji między osobnikami, także osobistych, prywatnych, a więc przenikania sfery prywatnej do publicznej. Ale z drugiej strony, człowiek jest istotą autonomiczną w takim stopniu, w jakim może obyć się bez innych. Powinien mieć zapewnioną możliwość samotności, odrębności, spokoju i odpoczynku od innych, wyizolowania się ze sfery publicznej i zamknięcia się we własnym prywatnym świecie.
Alan F. Westin („Social and Political Dimensions of Privacy”, 2003) pisze, że za ochroną prywatności przemawiają racje natury psychologicznej (ludzie chcą móc zachowywać się w sposób niekontrolowany - szaleć ze złości albo skakać z radości), socjologicznej (ludzie muszą mieć swobodę zachowań oraz dobierania sobie towarzystwa bez obawy, że są obserwowani), ekonomicznej (ludzie chcą mieć prawo do wprowadzania innowacji i swobodnych działań gospodarczych) i politycznej (ludzie chcą mieć swobodę politycznego myślenia, działania i argumentacji, a nadzór ogranicza to i grozi demokracji). A dwaj specjaliści w dziedzinie bezpieczeństwa informacyjnego Philip Schumann i Christian Reiser („Die Bedrohung der Privatsphäre“, 2011) wymieniają następujące racje przemawiające za potrzebą ochrony prywatności:
-
Niektóre dane (np. z dziedziny życia intymnego, seksualności, słabości itp.) mogą wywołać wstyd lub sprawić przykrość.
-
Ludzie posiadający informacje o nas, mogą je wykorzystać w celu uzyskania kontroli albo władzy nad nami albo wywierania presji; to mogłoby szkodzić naszej karierze zawodowej lub politycznej.
-
Czasami chce się coś utrzymywać w tajemnicy, żeby nie wzbudzać negatywnych emocji (zazdrości, zawiści, pożądania) u innych.
-
Jest wysoce prawdopodobne, że posiadanie przez innych informacji (np. o chorobach, przynależności partyjnej lub wyznaniowej) nas dyskryminować.
Dlatego trzeba chronić prywatność i przeciwstawiać się jej niszczeniu. Jednak działania obronne przed utratą prywatności mogą okazać się mało skuteczne, wobec nieustannego, bezapelacyjnego i niepowstrzymanego doskonalenia się technologii szpiegowania i podglądania
i opłacalności wkraczania w sferę prywatną ludzi. Trudno sobie dziś wyobrazić techniki szpiegowania lub nadzoru, jakie pojawią się w najbliższej przyszłości. Będą one jeszcze łatwiej dostępne i masowo wykorzystywane. W związku z tym utrata prywatności może nadal
postępować. Wskutek tego każdy będzie mógł być kontrolowany i obdzierany z prywatności i dlatego znacznie trudniej będzie zachowywać swoje dane osobowe w tajemnicy.
Prawdopodobnie nie da się powstrzymać procesu wzrastającej ingerencji w prywatność i nie da się uniknąć obnażania swojej tożsamości.
Są dwa sposoby wyjścia z tego impasu. Pierwszy to jeszcze bardziej bronić swej prywatności poprzez domaganie się wprowadzenia ostrzejszych przepisów prawnych o ochronie danych i sfery prywatności, zapobieganie szpiegostwu w trakcie komunikowania się z innymi ludźmi, podejmowanie działań na rzecz wzmożenia anonimowości i utajniania tożsamości, zabezpieczanie pomieszczeń, w których się przebywa przed podsłuchem i podglądem, ograniczanie ujawniania swoich danych do jak najmniejszej ilości, ujawnianie wyłącznie tych informacji, które są akceptowane przez otoczenie oraz tworzenie tak wielu fałszywych i bezwartościowych danych o sobie, żeby w ich ogromie trudno było znaleźć informacji prawdziwych. A drugi to nauczyć się żyć w warunkach ustawicznego nadzoru, wzrastającej transparencji i ekshibicjonizmu życia intymnego.
W imię dobra i interesu jednostki powinno się dbać o prywatność, chronić ją przed postępującą redukcją i nie pozwalać na to, by była poddawana nachalnej i przesadnej penetracji przez osoby prywatne, organizacje i instytucje państwowe. W przeciwnym razie globalna demokracja może przekształcić się w globalną dyktaturę pod rządami szpiegów, podglądaczy i donosicieli.
Wiesław Sztumski
30.12.2011