Filozofia (el)
- Autor: Anna Leszkowska
- Odsłon: 2047
Na digitalizacji pracy zyskają pracodawcy, a stracą pracobiorcy.
W ewolucji techniki występuje uniwersalna tendencja do uprzedmiotowiania procesów technologicznych. Jest to konsekwencja przewagi przedmiotowych uwarunkowań procesów technologicznych nad podmiotowymi oraz ograniczania wpływu czynników ludzkich.
Można by sądzić, że ostatecznym celem tej ewolucji było całkowite wyzwolenie człowieka od pracy w wyniku rugowania go z bezpośredniego uczestnictwa w procesie pracy. Nota bene, ten cel jest zbieżny z odwiecznym marzeniem pokaźnej większości ludzi stroniących od pracy. Jednak realnie jest on nieosiągalny; co najwyżej, można tylko zbliżać się do niego - proporcjonalnie do postępu technicznego.
W konsekwencji doskonalenia środków pracy człowiek stopniowo przestaje być głównym czynnikiem procesu pracy, spełnia w nim rolę coraz to podrzędniejszą. Zamiast znajdować się w centrum tego procesu i być jego animatorem zachowuje się tak, jakby był biernym obserwatorem. Teraz nie on rządzi środkami pracy i procesem pracy, tylko one nim.
W procesie pracy uczestniczą: podmiot pracy, system sterowania, środki pracy i przedmiot pracy. Podmiotem pracy jest człowiek-producent, twórca wszelkiego rodzaju dóbr i usług. Na system sterowania składa się oprogramowanie procesów technologicznych (program operacji i korekt), urządzenia kontrolne i detektory (czujniki, mierniki, indykatory) oraz właściwe im mechanizmy wykonawcze. Środkami pracy są rzeczy, które pracownik umieszcza między sobą a przedmiotem pracy po to, by za ich pośrednictwem mógł celowo oddziaływać nań. Są nimi wszystkie rodzaje urządzeń, sprzętu i wyposażenia technicznego używane do planowania, przygotowywania i wykonania określonego zadania produkcyjnego. Ale najważniejszym składnikiem środków pracy są narzędzia.
Etapy uprzedmiotowienia pracy
W ewolucji techniki można wyróżnić następujące etapy uprzedmiotowienia pracy, czyli przejmowania funkcji podmiotu pracy (człowieka-producenta) przez urządzenia techniczne lub narzędzia pracy.
Pierwszy, najdłuższy, trwał aż do zastosowania maszyn wprawianych w ruch energią eksosomatyczną, czyli czerpaną spoza organizmu ludzkiego. W tym czasie posługiwano się przede wszystkim narzędziami ręcznymi lub maszynami prostymi (dźwignie, krążki, kołowroty itp.), poruszanymi za pomocą energii endosomatycznej, pochodzącej z wnętrza człowieka.
Ich funkcjonowanie zależało najczęściej i w przeważającej mierze od motorycznego i sensorycznego wysiłku człowieka w procesie pracy; rzadziej i w bardzo niskim stopniu od wysiłku intelektualnego. Narzędziami były przeważnie narządy człowieka, a najważniejszym czynnikiem produkcji był podmiot pracy, czyli człowiek-producent. Produkcja zależała od zaangażowania w nią jego siły fizycznej, wiedzy, sztuki manualnej, spostrzegawczości itd.
Ciało ludzkie spełniało naraz funkcje mechanizmu napędowego i transmisyjnego oraz naturalnego narzędzia pracy. Podmiot pracy musiał nie tylko wykonywać wszystkie czynności robocze, ale ponadto sterować procesami technologicznymi – planować i kontrolować je oraz korygować ich przebieg. Tak więc, środki pracy i system sterowania zawierały się w podmiocie pracy.
Drugi etap zapoczątkowała pierwsza rewolucja techniczna (przemysłowa) wraz z mechanizacją pracy dzięki implementacji maszyn, które eliminowały narzędzia ręczne z procesu produkcji. Znacznie też redukowały wysiłek cielesny ludzi związany z czynnościami roboczymi - tzw. żywą pracą. W produkcji maszynowej podmiot pracy zostaje pozbawiony właściwej (roboczej) funkcji pracy, gdyż przekazuje ją elementom roboczym maszyny. Narzędzia pracy są wyrywane z rąk człowieka i przekazywane elementom roboczym maszyn.
W taki sposób, w wyniku eksterioryzacji narzędzi, podmiot pracy zostaje pozbawiony jednej ze swoich istotnych funkcji – funkcji roboczej. W konsekwencji, pozostaje mu tylko sterowanie procesami technologicznymi oraz programowanie, kontrolowanie i korygowanie ich. Realizacja tych zadań wymagała w większym stopniu wysiłku intelektualnego niż fizycznego. Jednak wciąż jeszcze człowiek (podmiot pracy) zredukowany do systemu sterowania jest najważniejszym komponentem procesu pracy.
Trzeci etap uprzedmiotowienia pracy rozpoczął się od odłączania się niektórych elementów systemu sterowania od podmiotu pracy, wskutek czego pozbawiano go funkcji kontroli oraz korekty procesu pracy. To zjawisko rozwija się proporcjonalnie do mechanizacji i automatyzacji procesów produkcyjnych.
Na pierwszym etapie uprzedmiotowiania procesu pracy urządzeniami kontrolnymi były narządy zmysłowe pracownika, które przekazywały do jego mózgu informacje o przebiegu pracy. Były to „urządzenia naturalne”. Teraz są nimi sztuczne urządzenia mechaniczne, optyczne, akustyczne i elektromagnetyczne - różne czujniki, indykatory i mierniki. Są one o wiele lepsze od naturalnych, ponieważ ich czułość znacznie przewyższa czułość receptorów narządów zmysłowych człowieka. Informacje o usterkach i odchyleniach od założonego programu produkcji przekazują one nie do mózgu człowieka, lecz do automatycznych urządzeń korekcyjnych, które natychmiast mogą je poprawiać lub usuwać.
Czwarty etap procesu uprzedmiotowienia pracy rozwija się od niedawna, odkąd system sterowania zaczął odłączać się od podmiotu pracy, przekształcać się w narzędzie i do pewnego stopnia działać niezależnie od człowieka. Najpierw działo się to za sprawą tzw. automatów cyklicznych, albo deterministycznych, które pracują zgodnie ze ściśle (sztywnie) ustalonym programem (algorytmami). Takie automaty nie są jednak zdolne do realizacji kreatywnych funkcji pracy człowieka. Realizują one również funkcję organizatorską, ale tylko w ograniczonym stopniu.
Wobec tego obecność człowieka w procesie pracy nadal jest konieczna do usuwania nieprzewidzianych pomyłek lub przypadkowych awarii.
Na tym etapie dokonuje się coraz szybciej intelektualizacja pracy. Po pierwsze, człowiek wyzwolony od czynności roboczych i kontrolnych może realizować się w pracy jako podmiot myślący i twórczo działający. Po drugie, musi umieć obsługiwać automaty i nadzorować je, a to wymaga odpowiedniej wiedzy oraz zaangażowania jego intelektu proporcjonalnie do „inteligencji”, złożoności i stopnia doskonałości automatów.
Wskutek tego, postępowi technicznemu i uprzedmiotowianiu pracy towarzyszy zacieranie się granicy między pracą cielesną a intelektualną i transformacja podmiotu pracy z pracownika fizycznego (blue collar) w umysłowego (white collar). Jednakże wyzwolenie się człowieka od pracy jest pozorne, ponieważ zmniejszenie wysiłku cielesnego kompensuje wzrost wysiłku intelektualnego.
Dopiero stosowanie automatów acyklicznych (elastycznych) pozwala w pełni przejmować przez nie pozostałe funkcje podmiotu pracy - organizatorską i kreatywną. Digitalizacja pracy i rozwój sztucznej inteligencji mogą przyczynić się do eliminacji z procesu pracy udziału pozostałych funkcji mózgu ludzkiego - myślenia i kreatywności.
Tym samym uprzedmiotowienie procesu pracy dobiegłoby końca. Jednocześnie, w wyniku przejmowania roli podmiotu pracy przez różne, coraz „inteligentniejsze urządzenia”, postępuje uspołecznienie wiedzy technicznej, która dotychczas była własnością prywatną jednostek i pilnie strzeżoną tajemnicą mistrzów w swoim zawodzie, racjonalizatorów i innowatorów.
Perspektywa zupełnego uprzedmiotowienia podmiotu pracy
Jedna z prawidłowości historii techniki głosi: proporcjonalnie do doskonalenia narzędzi pracy procesy technologiczne uniezależniają się od biologicznych i intelektualnych zdolności człowieka - od jego siły fizycznej, czułości receptorów zmysłowych, szybkości reakcji na bodźce, odporności organizmu na działania destrukcyjne, doświadczenia produkcyjnego, pamięci i spostrzegawczości, umiejętności zarządzania i organizacji pracy, wiedzy technicznej, innowacyjności, wprawy, biegłości, bystrości umysłu, możliwości i szybkości adaptacji do środowiska pracy, koncentracji uwagi itp.
Wskutek tego narzędzia też poddają się zjawisku alienacji. Ich wyobcowanie się jest nowym wymiarem alienacji pracy. Na trzy inne wymiary alienacji - produktu pracy, procesu pracy oraz pracy będącej cechą gatunkową człowieka - wskazał Karol Marks w „Rękopisach ekonomiczno-filozoficznych” z 1844 r.
Chociaż alienacja narzędzi pracy postępowała stopniowo od samego początku, to jej negatywne konsekwencje dla ludzi dały wyraźnie znać o sobie dopiero pod koniec XX wieku w wyniku doskonalenia narzędzi za pomocą digitalizacji i sztucznej inteligencji w okresie tzw. czwartej rewolucji technicznej*.
Wskutek tego udział ludzi w pracy, w szczególności w procesach wytwórczych, maleje w coraz szybszym tempie. Współczesne narzędzia różnią się zasadniczo pod wieloma względami od tych, jakimi posługiwano się jeszcze kilkadziesiąt lat temu. Coraz częściej przybierają postać systemów cyberfizycznych.
Są to systemy, których komponenty technologii informatycznej i oprogramowania zostały połączone z komponentami mechanicznymi i elektronicznymi, a przesyłanie i wymiana danych oraz kontrola i sterowanie odbywa się w czasie rzeczywistym za pomocą Internetu (p. O. Bendel, Cyber-physische Systeme, Gabler Wirtschatfskexikon, Springer Vrl. 2013).
Ich istotnymi składnikami są urządzenia mobilne i maszyny (w tym roboty), systemy wbudowane i obiekty sieciowe (Internet Rzeczy). Mają one szeroki zakres zastosowań w produkcji (kontrola procesów przemysłowych), logistyce, medycynie (diagnostyka, terapia, protezy, sztuczne organy), obronności, ochronie środowiska (monitoring środowiska), sterowaniu ruchem, bezpieczeństwie pojazdów i wspomaganiu kierowców, energetyce oraz infrastrukturze komunikacyjnej i kulturalnej.
W miarę rozwoju przejmują one coraz więcej funkcji i ról człowieka w procesie pracy. W rezultacie zaczynają funkcjonować bez ludzi, rugując ich z procesów pracy. Z jednej strony, można to oceniać pozytywnie, gdyż trud i czas pracy człowieka redukuje się do minimum. Jednak z drugiej strony, wywołuje to niekorzystne zjawiska, jak np. wzrost bezrobocia oraz wydłużanie czasu wolnego, który nie wiadomo jak rozsądnie i pożytecznie zagospodarować.
Nowoczesne narzędzia stwarzają poważne zagrożenie, gdy narzucają ludziom odpowiednie sposoby postępowania oraz myślenia, co obecnie jest coraz częstszym zjawiskiem. W szczególności, gdy wymykają się spod kontroli ludzi, mogą wywołać katastrofy, o czym świadczą przykłady różnych awarii i eksplozji, albo gdy zanadto się im ufa, jak GPS-om czy autopilotom w samolotach i samochodach (np. 14.01.18, wskutek zawierzenia inteligentnym systemom kontrolnym, ogłoszono alarm rakietowy na Hawajach, który okazał się fałszywy). W przypadku narzędzi prymitywnych pociągało to za sobą ofiary jednostkowe, albo liczone w setkach osób. Natomiast w przypadku narzędzi wysoce skomplikowanych i „mądrych” liczba ofiar może sięgać milionów, gdy spod kontroli wymknie się np. broń bakteriologiczna, chemiczna lub jądrowa.
Podsumowanie, czyli kto zyskuje, kto traci
Digitalizacja pracy polega na wykorzystywaniu technologii cyfrowych i sztucznej inteligencji w procesach pracy (głównie produkcji i usług), wskutek czego zmienia się model pracy z czteroczłonowego: podmiot pracy - system sterowania - środki pracy - przedmiot pracy na trójczłonowy: podmiot pracy - środki pracy - przedmiot pracy, ponieważ system sterowania wszedł w skład środków pracy.
Digitalizacji i zastosowaniu sztucznej inteligencji zostają poddane na razie narzędzia pracy i systemy sterowania.
Konsekwencją tego jest zastępowanie narzędzi prostych, mechanicznych i automatów przez narzędzia „inteligentne”, czyli przez coraz „mądrzejsze” roboty. Są one nieporównywalnie bardziej wydajne od pracowników, a ich koszty utrzymania są dużo mniejsze. Z tej racji pracodawcy chętnie i masowo pozbywają się pracowników, jeżeli mogą ich zastąpić robotami.
Na digitalizacji pracy zyskają pracodawcy, a stracą pracobiorcy. Szacuje się, że na całym świecie ubędą setki milionów miejsc pracy, co pociągnie za sobą ogromny wzrost bezrobocia i zniknie wiele tradycyjnych zawodów. Dotyczy to również krajów słabo rozwiniętych, bo nawet tam bardziej opłaca się zastępować robotami słabo opłacanych pracowników.
Według badań ING-DiBa-Bank, w Niemczech zagrożonych jest już 18,3 milionów miejsc pracy w ich obecnej formie przez postępową technologię. Szczególnie dotyczy to biur sekretarskich i administracyjnych, usług paczkowych, magazynów, handlu detalicznego, sprzątania i cateringu. A setki tysięcy szwaczek zostaną wyeliminowane z pracy przez roboty szwalnicze.
Najmniej zagrożeni są pracownicy naukowi (zob. T. Kaiser, Maschinen könnten 18 Millionen Arbeitnehmer verdrängen, Die Welt, 02.05.15).
Zdaniem Deepaka Mishry, głównego ekonomisty Banku Światowego, coraz mniejszy będzie popyt na pracowników średnio wykwalifikowanych, a większy na wysoko wykwalifikowanych oraz na niewykwalifikowanych. Wskutek tego szybko postępować będzie erozja grupy pracowników średnio wykwalifikowanych, co niekorzystnie odbije się na statusie, roli i rozwoju klasy średniej, a pośrednio na teraźniejszej gospodarce preferującej tę klasę ( p. H. Jeppesen, Digitalisierung: Wettrennen mit der Technologie, op. cit.).
Proporcjonalnie do digitalizacji pracy zmniejsza się rola podmiotu pracy w wyniku zastępowania człowieka przez „inteligentne urządzenia” - automaty, roboty itp. oraz związana z tym postępująca szybko redukcja wielu zawodów.
Według szacunków Carla Benedikta Frey’a i Michaela A. Osborne’a, ok. 47% całkowitego zatrudnienia w USA jest zagrożone przez postępującą digitalizację pracy. Badali oni prawdopodobieństwo robotyzacji 700 zawodów. Z ich badań wynika, że w ciągu 20 lat mogą zniknąć niektóre zawody, dla których prawdopodobieństwo robotyzacji jest bliskie 100%.
Należą do nich: pracownicy biur maklerskich, niektórzy pracownicy firm ubezpieczeniowych, bibliotekarze, pracownicy obróbki zdjęć fotograficznych, operatorzy obrabiarek, pracownicy podatkowi, agenci Cargo, zegarmistrzowie, rachmistrze, telemarketerzy, księgowi, pakowacze, modelki i hostessy. Natomiast zawody, dla których prawdopodobieństwo robotyzacji jest bliskie 0%, a więc „trwałe”, to: terapeuci rekreacyjności, nadzorcy urządzeń technicznych, instalatorzy, osoby zajmujące się naprawami, pracownicy pogotowia, pracownicy zdrowia psychicznego i ośrodków dla uzależnionych, audiologowie, ortodonci i protetycy, pracownicy opieki społecznej, chirurdzy szczękowo-twarzowi, pracownicy prewencyjni, dietetycy, pracownicy zajmujący się wynajmem lokali, choreografowie, sprzedawcy i lekarze (p. C. B. Frey, M. A. Osborne, The Future of Employment: How susceptible are jobs to computerisation?, Oxford Martin Programme on Tchnology and Employment, Sept. 2016, s. 57-71).
A kiedy w przyszłości „mądre roboty” przejmą już funkcję myślenia twórczego, to być może, będą w stanie wyręczać nawet twórców nauki i sztuki: naukowców, kompozytorów, malarzy, rzeźbiarzy, pisarzy i poetów.
Wiesław Sztumski
* Pierwsza rewolucja trwała od końca XVIII w., kiedy zmechanizowano produkcję w wyniku zastosowania maszyn napędzanych wodą i parą wodną, a później - silników spalinowych.
Druga zaczęła się na początku XX wieku wraz z elektryfikacją procesów technologicznych (zastosowaniem silników elektrycznych), podziałem pracy i zastosowaniem w 1913 r. taśmy montażowej w Henry Ford Company.
Trzecia nastąpiła w latach 70-tych XX w. w wyniku informatyzacji procesów technologicznych (zastosowania komputerów i robotów), zastosowania elektroniki, sztucznej inteligencji i „programowalnych kontrolerów logicznych” (Programmable Logic Controller).
Czwarta rewolucja dopiero się zaczęła w wyniku stosowania systemów cyberfizycznych. (p. H. Jeppesen, Digitalisierung: Wettrennen mit der Technologie, http://p.dw.com/p/1IvJq; 30.05.2016)
Na ten temat pisał też ostatnio na łamach Spraw Nauki (SN nr 1/18) prof. Andrzej Wierzbicki - Czym się zająć?
- Autor: Anna Leszkowska
- Odsłon: 2932
W czasach nowożytnych formacja kapitalistyczna wykreowała właściwy sobie model człowieka - homo oeconomicus (podporządkowanego prawom ekonomii i rynku, bogacącego się za wszelką cenę i ukierunkowanego na coraz większą konsumpcję), który zapoczątkował „epokę kapitału” (capitalocene).
W dalszym rozwoju, a zwłaszcza w XX wieku, pojawiło się wiele innych modeli, które były albo różnymi wersjami „człowieka ekonomicznego”, albo jego postaciami bardziej rozwiniętymi. Pod koniec ubiegłego stulecia pojawił się „człowiek wirtualny” (homo virtualis), który z pomocą komputerów stworzył specyficzny, nieznany wcześniej świat, zwany wirtualnym. Odtąd nastała „epoka świata wirtualnego”.
W skład świata wirtualnego wchodzą różne tzw. byty wirtualne: awatary, ikony, emotikony, e-sklepy, e-pieniądze, e-książki, e-czasopisma, e-portmonetki, radiotelewizja internetowa, portale publicystyczne i społecznościowe (facebook, linkedin, twitter itp.), serwisy internetowe, komunikatory itd. Ten nowy świat, który rozwija się w zawrotnym tempie, coraz bardziej zastępuje ludziom świat realny. Świata wirtualnego można doświadczać cieleśnie, intelektualnie i duchowo (poznawać go i badać). Można aktywnie uczestniczyć w jego funkcjonowaniu i komunikować się w jego obrębie z innymi ludźmi-użytkownikami komputerów.
Fikcje i złudzenia
Obcowanie ze światem wirtualnym pociąga za sobą przynajmniej dwa skutki negatywne:
1) Redukuje bezpośredni kontakt człowieka ze światem realnym, z „żywymi ludźmi” i rzeczywistymi sytuacjami. (Im więcej czasu spędza się z komputerem, tym mniej doświadcza się środowiska naturalnego.)
2) Intensywny i ciągły kontakt ze światem wirtualnym skutkuje rozmyciem granicy między realnością a fikcją zawierającą się w wirtualności. Skutkiem tego nie wie się (szczególnie dotyczy to dzieci), co naturalne, a co sztuczne, co faktyczne, a co tylko wymyślone. W rezultacie przypisuje się walor realności postaciom, zjawiskom i sytuacjom wirtualnym, a to, co realne, traktuje się jak fikcję i na odwrót. Dlatego zachowuje się w realnym świecie oraz w realnych sytuacjach tak, jakby się było w świecie wirtualnym, co nieraz pociąga za sobą rozczarowania i fatalne skutki.
Fikcje i złudzenia tworzono zawsze w wyniku myślenia mitycznego i magicznego, wierzeń religijnych, tworzenia koncepcji ideologicznych i filozoficznych oraz literatury science fiction i bajkopisarstwa. Wymyślano rozmaite fikcje i chętnie wierzono, że one realnie istnieją i posiadają realną moc sprawczą. Jednak oddziaływanie fikcji na świadomość było nieporównywalnie mniejsze niż obecnie, głównie za sprawą masowego korzystania z komputerów i Internetu, twórczości telewizyjnej i reklamowej. Dzisiaj, dzięki łatwym programom komputerowym (grafiki komputerowej) tworzy się nieporównywalnie więcej fikcji, które upowszechnia się na skalę masową. Duża częstotliwość i powtarzalność pokazywania ich w postaci obrazów charakteryzujących się ogromną ekspresją przyczynia się do coraz silniejszego odciskania piętna świata wirtualnego na psychice, świadomości i podświadomości ludzi.
Wszystko smart
W wyniku postępu w dziedzinie technologii komputerowej pojawił się niedawno „świat cyfrowy” jako nowa forma świata wirtualnego. Jego komponentami są (w najprostszym przypadku) cyfrowe reprezentacje matematyczne realnych przedmiotów, procesów i zjawisk. Wszystko co można, przedstawia się teraz w postaci cyfr. Zdigitalizowane składniki świata realnego ukazują się na czytnikach powszechnie dostępnych urządzeń elektronicznych, przede wszystkim na przenośnych - laptopach, tabletach, telefonach komórkowych, „inteligentnych zegarkach” (smart watches) i innych „inteligentnych” urządzeniach i gadżetach. Cyfryzacja wciska się coraz bardziej w życie codzienne dzięki modnemu „Internetowi inteligentnych rzeczy”.
Ma to dobre i złe strony. Jak wszelkie „mądre” urządzenia techniczne, ułatwia różne czynności praktyczne, a życie ludzi czyni ciekawszym i bardziej komfortowym. Ale przyczynia się też do redukcji sfery prywatności wszędzie tam, gdzie dociera Internet, gdyż upowszechnia dane osobiste i intymne. Nawet tradycyjne domy, które przekształca się w „inteligentne”, są kontrolowane i podglądane przez inteligentne urządzenia internetowe, które przekazują informacje o ich mieszkańcach między innymi w celu szpiegowania i kradzieży danych: „Czy są w domu?”, „Co robią?”, „Jak odpoczywają?”, „Czy są chorzy?” itd.
Realizacja idei Ubiquitous Computing (przetwarzanie informacji dotyczących wszystkich sfer życia społecznego, wspomagane komputerowo i bez granic) umożliwia koncernom IT (Information Technology), prywatnym programistom i hobbystom wszczepianie ludziom mikroskopowych urządzeń elektronicznych (chipów) i ucyfrowienie wszystkiego w ich otoczeniu. A dzięki wearables (galanterii elektronicznej) i „inteligentnym implantom” technologia informatyczna może przekraczać granice ludzkiego ciała. Wszystkie te urządzenia są w stanie komunikować się wzajemnie oraz z ludźmi poprzez różne sieci łączności.
Media społecznościowe, w szczególności twitter i facebook, zrewolucjonizowały sposób przesyłania i obiegu informacji, co ma również złe strony, ponieważ m. in. otwarły bezprecedensowe możliwości dla manipulantów społecznych. Różne urządzenia elektroniczne zbierają i gromadzą dane o człowieku i oferują ich użytkownikom więcej informacji o nim, aniżeli on sam wie o sobie. Instytucje i koncerny wykorzystują je rzekomo dla naszego dobra, ale faktycznie do innych celów: śledzenia, kontroli, reklamy i marketingu. Obiecuje się ludziom dobrodziejstwa ze społeczeństwa informatycznego, w którym np. ma postępować produktywność i lepsza jakość życia, chociaż nie ma pewności, że będą one rosnąć nieograniczenie i okażą się tak dobre, jak się przypuszcza.
Utrata wolności
Natomiast pewne jest to, że postępująca rewolucja cyfrowa* implikuje zagrożenie dla wolności i prywatności jednostek. Oprócz tego, automatyzacja społeczeństwa za pomocą algorytmów grozi drążeniem demokracji przez nowe struktury totalitarne (np. rządy monopartyjne), albo - w najgorszym wypadku - za pomocą sterowania obywatelami przez sztuczne inteligencje. Zaczyna się od programowania komputerów, a kończy na programowaniu ludzi. Świadczą o tym przykłady Singapuru i Chin. Wszyscy władcy i dyktatorzy wiedzą o tym, że prywatność jest największą przeszkodą na drodze do uzyskania pełnego panowania nad obywatelami. Dopóki ludzie zachowują jeszcze coś dla siebie, w co nikt inny, a tym bardziej państwo, nie jest w stanie ingerować, dopóty nie mogą być całkowicie zniewoleni. Jak stwierdził Günther Anders: „W każdej dyktaturze ‘Ja’ jest obszarem, który jako pierwszy trzeba okupować”.
Świat cyfrowy wyobcowuje się i stopniowo wymyka się spod kontroli człowieka. W związku z tym staje się wciąż bardziej nieprzewidywalny i stanowi coraz większe zagrożenie dla ludzi. Dlatego dziewięciu wybitnych ekspertów europejskich z zakresu Big Data, socjologii, filozofii i ekonomii zwraca uwagę na zagrożenie związane z automatyzacją społeczeństwa za pomocą algorytmów oraz sztucznej inteligencji i ostrzega przed „dyktaturą danych”.
W świecie cyfrowym kształtuje się nowa postać człowieka wirtualnego - Homo digitalis (człowiek cyfrowy, który może oznaczać albo człowieka sztucznego - imitację człowieka naturalnego, albo człowieka w pewnym sensie zredukowanego do systemu zero-jedynkowego, bo funkcjonującego w cyfrowym świecie pełnym „inteligentnych” urządzeń przenośnych). Jego integralną częścią są cyfrowe wspomagacze i ulepszacze, dzięki czemu powinien być „cyfrowo mądry”, tzn. umieć dobierać odpowiednie narzędzia do wspierania wrodzonych umiejętności i używać ich w celu ułatwienia sobie życia i podejmowania coraz lepszych decyzji. Jednak decyzja (lub wybór) może mieć miejsce tylko w systemach słabo zdeterminowanych, a więc tam, gdzie jest wolność. A tymczasem w pełnym wymiarze człowiek cyfrowy jest faktycznie robotem rządzonym przez algorytmy. A więc funkcjonuje w środowisku silnie zdeterminowanym i dlatego jest zniewolony w najwyższym stopniu. Podejmuje decyzje lub dokonuje wyborów, które dyktuje program (algorytm) narzucony mu z zewnątrz, czyli takie, które bezapelacyjnie musi podjąć w danej sytuacji. Jego decyzje nie zależą od tego, czy myśli, ani co myśli w trakcie ich podejmowania.
Ewolucja człowieka
Człowiek cyfrowy jest efektem ewolucji człowieka podobnego do maszyny, zapoczątkowanej przez pierwszą rewolucję przemysłową w XVIII wieku, prawdopodobnie najwyżej rozwiniętą jego postacią. Proces kształtowania się człowieka cyfrowego postępuje coraz szybciej. Coraz bardziej ulegają digitalizacji funkcje cielesne i umysłowe, psychika, osobowość i duchowość oraz zachowania, postawy, emocje i relacje międzyludzkie. Transformacja homo naturalis w homo digitalis (człowieka naturalnego w cyfrowego) implikuje co najmniej kilka skutków negatywnych:
- Ludzie w obłąkańczym pędzie do robienia kariery, osiągania zysku i bogacenia się, narzucają mordercze tempo swojemu życiu i pracy. Robią to również w obawie przed wykluczeniem społecznym, ekonomicznym i informatycznym. Nie wolno przecież odstawać od średniego standardu zamożności, ani zostawać w tyle za innymi ze względu na umiejętność korzystania z najnowszych technologii informatycznych. Stad bierze się ten pościg za najszybszymi urządzeniami technicznymi bez względu na zgubne tego skutki.
- Biologiczna degradacja gatunku ludzkiego postępuje w wyniku budowania maszyn coraz bardziej podobnych do ludzi. (Najnowszym osiągnięciem w tej dziedzinie jest humanoid „Sofia” zbudowany w 2016 r. przez Davida Hansona, właściciela znanej amerykańskiej firmy „Hanson Robotics”, który nie tylko wygląda, ale także zachowuje się jak człowiek.) Im więcej istotnych cech i funkcji traci człowiek, tym mniej zostaje w nim tego, co ludzkie, tym mniej jest człowiekiem.
- Maszynopodobny człowiek zachowuje się bezmyślnie i bezrefleksyjnie, jak maszyna:
- Odnosi się indyferentnie i bezdusznie do innych osób, ale za to z pełnym wyrachowaniem.
- Kieruje się racjonalnością zredukowaną zazwyczaj do zimnej kalkulacji.
- Posługuje się sztampowymi algorytmami i stereotypami w myśleniu. Wskutek tego degraduje swoją sferę duchową i emocjonalną. Nie tylko zakłóca równowagę między sferą fizyczną, psychiczną i duchową, ale wywołuje znane psychologom zjawiska negatywne, które przyczyniają się do degradacji osobowości.
- Technomorfizacja człowieka odbija się niekorzystnie na podejmowaniu decyzji. Człowiek działający, jak maszyna, przeważnie automatycznie podejmuje decyzje, nie licząc się z przyszłymi konsekwencjami. A w ogóle, chętnie powierza maszynom podejmowanie decyzji za siebie.
- Człowiek maszynopodobny pomniejsza sferę własnej woli i wolności. Wskutek tego staje się mniej aktywny, coraz bierniejszy i podatniejszy na manipulację i zniewalanie.
- W czasach big data każdy człowiek działający w cyberprzestrzeni pozostawia po sobie cyfrowe ślady (cienie), ponieważ generuje dane (również personalne), które trafiają do baz danych i chmur internetowych. W ten sposób tworzy swój image i swoją tożsamość cyfrową (e-tożsamość). Staje się ona swoistym towarem (raczej łupem), chętnie nabywanym przez oszustów, albo różne organizacje zajmujące się szpiegowaniem.
Cyfrowy obóz koncentracyjny
Ludzie cyfrowi, na co dzień obcując z rozmaitymi urządzeniami elektronicznymi, wplątują się coraz bardziej w wielorakie sieci internetowe, z których trudno się im wyzwolić, bo uzależniają się od nich, jak od używek lub narkotyków. W konsekwencji poddają się ich władzy, stają się ich zakładnikami i niewolnikami. Dlatego słusznie twierdzi Aleksandr Nikiszin (Cifrovoje rabstvo v cifrovoj civilizacii), że „najnowsze technologie inteligentne, sprawując kontrolę nad ludźmi, grożą transformacją społeczeństwa w cyfrowy obóz koncentracyjny”. Tak więc, w digitalnej cywilizacji krzewi się digitalne niewolnictwo, które jest najnowszą i najdotkliwszą formą neoniewolnictwa w neoliberalizmie.
Ostatnio media doniosły, że w dniu 13 listopada 2017 r. rozpoczęła się rewolucyjna zmiana świata w konsekwencji zezwolenia na stosowanie w USA pierwszej w świecie „pigułki digitalnej”. Na razie wprowadzono do niej mikroskopijny sensor, który powiadamia lekarza o czasie jej zażycia. Później będzie umieszczać się w niej więcej sensorów badających parametry i stany organizmu. Pociągnie to za sobą digitalizację pomiarów różnych parametrów ciała oraz diagnostyki lekarskiej za pomocą sztucznej inteligencji, a potem digitalizację terapii i drastyczną zmianę pojmowania zdrowia.
Przenikanie digitalizacji do wnętrza człowieka jest zarówno czymś bardzo obiecującym jak i przerażającym. Jest mieszaniną fascynacji i lęku przed tym, że człowiek stanie się cyborgiem - hybrydą człowieka i maszyny - istotą przekraczającą własne ograniczenia cielesne, egzotyczną i niespotykaną. O ile w latach 60-tych ub. wieku mówiło się o poszerzaniu granic człowieka na zewnątrz (extension of man) w wyniku robotyzacji, to teraz mówi się o przekraczaniu ich wewnątrz organizmu ludzkiego (intrusion of man) dzięki nanorobotom (wielkości rzędu 10-9 m) i dalszej postępującej digitalizacji. Technika najpierw atakowała z całą mocą powierzchnię ciała lidzkiego, a teraz przenika do niego coraz głębiej.
Przewiduje się, że za około dziesięć lat większość bogatych ludzi w krajach uprzemysłowionych będzie obcować z cyborgami, albo stanie się nimi. A umieszczanie nanobotów wewnątrz ciała będzie czymś tak normalnym, jak przeszczepy. Poszczególne nanoboty w człowieku będą połączone ze sobą i z nanobotami innych ludzi za pomocą sieci komputerowych (Internetu). Wskutek tego nastąpi ucieleśnienie usieciowienia i digitalizacji.
Ray Kurzweil (słynny amerykański wynalazca, dyrektor ds. technicznych w Google) dokładnie przepowiada, że już w latach 30-tych bieżącego wieku komputery zmierzą się ludzką inteligencją i pokonają ją, a ludzie będą nosić w mózgach nanoboty wielkości komórek biologicznych połączone z globalnym Internetem. To pozwoli im pobierać umiejętności (w stylu Matrixa) i edytować geny w celach terapeutycznych. Z początku będzie to dostępne dla bogatych, a wkrótce także dla mas, tak jak to było w przypadku telefonów komórkowych.
Nanoboty w naszych mózgach wytworzą też nowe sposoby odbierania bodźców, inne niż znane wrażenia zmysłowe. Optymistycznie twierdzi się, że takie nanoboty nie zagrożą prywatności, ponieważ każdy człowiek będzie mógł je szyfrować indywidualnie, a szyfrowanie zawsze jest wcześniejsze od deszyfrażu. Ale czas między szyfrowaniem i rozszyfrowaniem zmniejsza się. Wobec tego prywatność będzie trwać coraz krócej.
Poza tym, przyspieszona digitalizacja ciała kryje w sobie wiele konsekwencji trudnych do przewidzenia i opanowania na podstawie dzisiejszej wiedzy. Nie wiadomo, jakie możliwości dla manipulacji myślami, zachowaniami, postawami i uczuciami ludzi stworzy połączenie ich mózgów w jedną sieć globalną i jakie problemy teoretyczne i praktyczne wynikną z nadania robotom praw człowieka i z traktowania ich jak „osoby elektroniczne”. Możliwe, że digitalizacja ludzi jest wstępem i warunkiem koniecznym do zaprowadzenia centralistycznego rządu światowego.
Wiesław Sztumski
* Tylko w 2015 r. pojawiło się tyle danych, ile w całej historii ludzkości do 2014 r. co minutę wysyła się setki tysięcy zapytań do Google’a i tyle samo zamieszcza się postów na facebookach. One zdradzają nasze myśli i uczucia. Szacuje się, że w ciągu dziesięciu lat będzie w ramach „Internetu przedmiotów” około 150 mld usieciowionych czujników pomiarowych, tj. dwadzieścia razy więcej niż liczy dzisiejsza populacja świata. Potem co 12 godzin będzie podwajać się liczba danych. Już dzisiaj wiele organizacji usiłuje te Big Data zamienić na Big Money.
- Autor: Wieslaw Sztumski
- Odsłon: 6721
Najprościej można rozumieć prywatność jako zamkniecie się w sobie, uwolnienie sięod obecności innych ludzi i ukrywanie się przed nimi.
O prywatności mówi się w dysputach filozoficznych, etycznych, politycznych i prawniczych. Różnie się ją rozumie, ponieważ nie ma jakiejś jednej definicji tego słowa. Prywatność jest pojęciem abstrakcyjnym i kontrowersyjnym. Można ją określić tak, jak Robert Clarke, jako świadomość posiadania „osobistej przestrzeni” wolnej od ingerencji innych osób oraz organizacji. Tę przestrzeń nazywam własną, albo indywidualną przestrzenią życiową. Najprościej można rozumieć prywatność jako zamkniecie się w sobie, uwolnienie się od obecności innych ludzi i ukrywanie się przed nimi.
Są jednak inne, mniej lub więcej złożone definicje, które funkcjonują w różnych sferach życia i naukach o człowieku, a które stworzono dla różnych celów. Na przykład, Slan Westin definiuje prywatność jako prawo jednostki do kontroli, publikacji, zarządzania i usuwania informacji o sobie i decydowania o tym, kiedy, jak i w jakim zakresie informacje o sobie mogą być komunikowane innym.
Najwięcej definicji prywatności występuje w aktach prawnych o ochronie prywatności, a w szczególności w przepisach dotyczących ochrony dóbr osobowych. Tu do sfery prywatności człowieka zalicza się w szczególności dane dotyczące życia rodzinnego i seksualnego, stanu
zdrowia, biografii, sytuacji majątkowej (dochodów). Wyraża się jednocześnie niepokój związany z sekretnym nadzorowaniem ludzi przez różne służby i instytucje. Trudna jest też sprawa podejmowania decyzji o tym, czy, kiedy i komu innemu można ujawniać informacje osobiste.
Prywatność można również rozumieć szerzej na przykład jako wolność od ingerencji innych ludzi w życie i sprawy jednostki niezależnie od tego, czy implikują one dobre, czy złe skutki.
Pojęcie prywatności odzwierciedla poczucie swojego Ja, a sfera prywatności jest ważnym składnikiem życia każdego człowieka i jego światem osobistym, który nie powinien nikogo obchodzić i w który nikomu nie wolno się wtrącać pod żadnym pretekstem. Każdy ma prawo do posiadania takiego świata wewnętrznego i dysponowania nim, jak mu się podoba, nie licząc się ze swym otoczeniem ani innymi ludźmi; świata, z którym i w którym może robić, co zechce, zarządzać nim, jak mu się podoba i nie być przy tym przez nikogo dyrygowany ani w
jakikolwiek sposób podglądany i podsłuchiwany.
Wyróżnia się prywatność fizyczną (zachowanie swojej odrębności cielesnej w przestrzeni i czasie w stosunku do innych), ekspresyjną, (autonomiczne podejmowanie decyzji), informacyjną (określenie informacji wyłączonych od ujawniania ich osobom postronnym) oraz wirtualną (zakaz ujawniania swoich danych w świecie wirtualnym - w komputerach, Internecie itp.).
Prywatność dla naukowców
Prywatność jest obiektem badań multidyscyplinarnych, a każda z dyscyplin naukowych ujmuje ją i bada inaczej, w sposób specyficzny dla niej. W związku z tym jest wiele przestrzeni prywatności: psychologiczna, filozoficzna, etyczna, prawna, socjologiczna i polityczna.
Filozofowie i antropologowie skupiają się na prywatności jako cesze immanentnej naturze człowieka nabywanej za pośrednictwem kultury oraz na relacji jednostki do ogółu. Starają się odpowiedzieć na dwa zasadnicze pytania: czym jest prywatność oraz dlaczego człowiek ceni
swoją prywatność i chce, żeby była ona szanowana przez inne jednostki, organizacje i władzę.
Etyków interesuje przede wszystkim to, czy prywatność jest dobra z natury rzeczy, czy tylko instrumentalnie dobra.
Dla ekonomistów ważne jest badanie informacji osobowych jako dóbr (towarów) oraz jako elementów wpływających na efektywność rynku.
Socjologowie koncentrują się na wpływie gromadzenia i korzystania z danych osobowych na funkcjonowanie władzy i wzmacnianie relacji między jednostkami, grupami i instytucjami w społeczeństwie.
A psychologowie zwracają na przykład uwagę na wymiary prywatności, głównie w aspekcie samowykluczania się, to jest na samotności wynikającej z unikania kontaktów z innymi ludźmi, intymności, zwłaszcza w kontaktach seksualnych, anonimowości związanej z niechęcią do pokazywania się lub zwracania uwagi na siebie i na dystansie albo zachowaniu rezerwy w stosunku do innych.
Redukcja sfery prywatności
Mimo tego, że wiele uwagi poświęca się prywatności i podkreśla jej znaczenie (a czynią to głównie politycy), życie dowodzi, że jest ona coraz bardziej zagrożona we wszystkich jej przestrzeniach i wymiarach. Wprawdzie zawsze była ograniczana i naruszana, ale nigdy w takim stopniu i zakresie, tak nachalnie i przemyślnie, jak teraz. Wszędzie i zawsze podsłuchiwano, podglądano i śledzono, najwięcej ludzi władzy i biznesu, korzystano z usług różnego rodzaju podglądaczy, donosicieli i szpicli, ale działali oni sekretnie, niekiedy nawet z pewną kurtuazją, nie było ich tak dużo i nie dysponowali tak wspaniałymi urządzeniami technicznymi. Byli na ogół źle widziani w kręgach towarzyskich, społecznie nieakceptowani i narażeni na ostracyzm. Dlatego nie chwalili się swoją profesją.
Teraz jest inaczej. Gdzie się da, grasują bezkarnie i ostentacyjnie zgraje różnych podglądaczy w rodzaju paparazzi, szpicle w rodzaju hakerów oraz różnego pokroju łowcy czy wyłudzacie danych osobistych (agenci firm). Dołączają do nich dziennikarze, zwłaszcza prasy kolorowej i komercyjnych stacji telewizyjnych, którzy nie potrafią pisać o niczym innym, jak tylko o pewnej przysłowiowej części ciała Maryni i dlatego poszukują sensacji w życiu osobistym, głównie seksualnym, tzw. celebrytów. Korzystają ze świetnego sprzętu technicznego i
najnowocześniejszych programów komputerowych.
W społeczeństwie przywykłym już do różnych ekscesów ekshibicjonistycznych ich poczynania nie budzą reakcji obronnej w postaci sprzeciwu ani zwykłego napiętnowania, jak by nic złego nie było w pozbawianiu ludzi ich prywatności lub intymności. Szpiedzy uznawani są nawet za bohaterów narodowych, a podglądacze eksponowani i sowicie nagradzani.
Co gorsze, z różnych względów jest coraz większe zapotrzebowanie społeczne na informacje o tym, co powinno być niejawne. Żeby uzasadnić rozwój rynku szpicli i podglądaczy obnażających dosłownie i w przenośni ludzi - a jest to rynek warty wielu miliardów dolarów - dorabia się ideologię tzw. transparencji życia publicznego. Jest ona rzekomo nieodzowna dla demokracji, a obdzieranie ludzi z ich prywatności służy wzniosłemu celowi, jakim jest doskonalenie życia publicznego i ustroju demokratycznego.
Społeczeństwo nadzorowane
Postępująca redukcja sfery prywatności towarzyszy narastającemu globalnemu kryzysowi zaufania, zwłaszcza od pamiętnej daty 11 września 2001 roku. Odtąd, ze strachu przed atakami terrorystycznymi z zewnątrz i z wewnątrz, czyli również ze strony własnych obywateli, rozwój nawet najbardziej demokratycznych państw zmierza w kierunku tworzenia „społeczeństw nadzorowanych”. A to oznacza coraz skrupulatniejsze śledzenie obywateli własnych i cudzych oraz daleko idącą inwigilację ich sfery prywatności.
Ograniczanie i deptanie sfery prywatności dokonuje się w kilku wymiarach.
Po pierwsze, w wymiarze czasowym. Tu redukcja sfery prywatności postępuje w konsekwencji zacierania się różnicy między czasem pracy a czasem wolnym, który należy do sfery prywatności. Do niedawna ściśle i obowiązkowo przestrzegano ostrego podziału na czas pracy
i czas odpoczynku. Czas pracy spędzało się w firmie, poza swoim mieszkaniem; był on przeznaczony na wykonywanie obowiązków zawodowych i maksymalnie wykorzystywany. Czas wolny, (po pracy zarobkowej) można było organizować i wykorzystywać według własnego
uznania w dowolnym miejscu. Spędzano go na czynnościach związanych z prowadzeniem domu, wychowywaniem dzieci, a także w celach relaksu i rozrywki, albo na nic nie robieniu.
Niemal do końca ubiegłego wieku dokładnie było wiadomo, kiedy zaczyna się i kończy czas pracy i czas wolny.
Teraz to się zmieniło. Czas pracy staje się coraz bardziej ruchomy, a od pracowników wymaga się tzw. dyspozycyjności, czyli pozostawania w stanie gotowości do podejmowania pracy w każdej chwili doby, czyli praktycznie non-stop. Poza tym, pracodawcy wydłużają czas pracy, systematycznie wykorzystując nadwyżkę siły roboczej na rynku pracy. Oprócz tego, w związku z koniecznością częstych zmian zawodu (wykonywanie w ciągu całego życia jednego zawodu wyuczonego jest coraz częściej niemożliwe) oraz stałego doskonalenia kwalifikacji trzeba coraz więcej czasu wolnego poświęcać na przekwalifikowanie się i dokształcanie. To jakby w ogóle wydłuża czas pracy i przenosi go do domu. Postępuje też przenikanie się nawzajem czasu pracy i czasu wolnego wraz z wykonywaniem różnego rodzaju prac oferowanych przez Internet i wykonywanych w domu: Home Office, Mobil Office, Tele-job itp. W rezultacie, sfera prywatności w ramach korzystania z czasu wolnego zawęża się praktycznie do minimum niezbędnego do biologicznego i kulturowego funkcjonowania, a pojęcie czasu wolnego traci pierwotny sens. Wobec tego czas wolny jest iluzją, tak jak prywatność.
Po drugie, w wymiarze przestrzennym. Wskutek przenikania się i dyfuzji czasu i życia prywatnego z czasem i życiem publicznym zmniejsza się ich odrębność. Na dobrą sprawę nie wiadomo już dokładnie, kiedy funkcjonuje się jak osoba prywatna, a kiedy jak osoba publiczna. To nie dotyczy wyłącznie przedstawicieli władzy, polityków, aktorów i innych ludzi pokazywanych często i powszechnie znanych, ale również innych, którzy wykonują zawody publiczne - lekarzy, nauczycieli i kapłanów - a nawet ludzi nie pracujących zawodowo.
Właściwie każdego, kto znajdzie się w przestrzeni publicznej. To także wydaje się być niczym nowym. Tyle tylko, że w wyniku różnych procesów społecznych, zacieśniania się sieci zależności międzyludzkich i wzrostu gęstości społecznej (zaludnienia), przestrzeń publiczna coraz bardziej powiększa się kosztem zmniejszania się przestrzeni prywatnej.
Jest to związane z postępującą wraz z postępem cywilizacyjnym redukcją wolności osobistej i indywidualnej przestrzeni życiowej jednostek. To stopniowe pochłanianie przestrzeni prywatnej przez publiczną nakazuje być ostrożnym i kontrolować swoje zachowanie w każdej chwili i w
każdym miejscu. Tym bardziej, że jest się narażonym na permanentne powszechne podglądactwo, a ludzie bardziej cenią sobie własną prywatność niż cudzą. Kierując się zwykłym wścibstwem, nastawiają oczu i uszu na to, co robią inni. Dlatego sięgają po prasę kolorową,
która żywi się plotkami z życia prywatnego i intymnego i chętnie oglądają programy telewizyjne typu reality show. Tak więc, zacierają się coraz bardziej granice między przestrzenią prywatną i publiczną, a to, co prywatne, staje się publicznym i na odwrót.
Kuszące narzędzia kontroli
Oprócz czynników subiektywnych niemałą rolę w ograniczaniu prywatności odgrywa obiektywny postęp techniczny. Rozwijające się technologie informatyczne umożliwiają coraz większe sprawowanie nadzoru nad społeczeństwem. Kuszą niejako do wkraczania w obszary życia prywatnego, do obserwowania ich w różnych sytuacjach, rejestrowania ich zachowań na nośnikach pamięci i do przekazywania masom społecznym zdobytych informacji o osobach prywatnych w Internecie, tym bardziej, że można dzięki temu zostać sławnym, albo nieźle na
tym zarobić. Toteż bez wiedzy osób inwigilowanych gromadzi się w pamięci komputerów coraz więcej danych o nich. Są one później przetwarzane dla celów gospodarczych, informacyjnych i wielu innych - częściej niegodziwych. Z danych pochodzących z dowodów osobistych i paszportów mogą korzystać różne instytucje, a prywatne komputery są przeszukiwane przez rozmaite służby tajne.
Redukcja i naruszanie prywatności postępuje wraz ze wzrostem populacji, urbanizacją, rozbudową rozmaitych infrastruktur (sieci dróg, centrów handlowo-usługowych, łączności itp.), ograniczeń prawnych i administracyjnych itd. Pociąga ona za sobą eskalację jeszcze jednej
formy zniewalania ludzi we `współczesnym świecie. W związku z tym nasuwa się pytanie o jej zasięg i o minimalne granice obszaru prywatności, których przekroczenie groziłoby biologicznemu i społecznemu funkcjonowaniu jednostek. Człowiek z natury jest istotą
społeczną i z tego powodu musi żyć wśród innych ludzi. To implikuje konieczność dzielenia się z nimi wieloma rzeczami, w tym swoją przestrzenią życiową, również prywatną.
Życie stadne, czy - jak kto woli - społeczne, wiąże wymaga wymiany informacji między osobnikami, także osobistych, prywatnych, a więc przenikania sfery prywatnej do publicznej. Ale z drugiej strony, człowiek jest istotą autonomiczną w takim stopniu, w jakim może obyć się bez innych. Powinien mieć zapewnioną możliwość samotności, odrębności, spokoju i odpoczynku od innych, wyizolowania się ze sfery publicznej i zamknięcia się we własnym prywatnym świecie.
Alan F. Westin („Social and Political Dimensions of Privacy”, 2003) pisze, że za ochroną prywatności przemawiają racje natury psychologicznej (ludzie chcą móc zachowywać się w sposób niekontrolowany - szaleć ze złości albo skakać z radości), socjologicznej (ludzie muszą mieć swobodę zachowań oraz dobierania sobie towarzystwa bez obawy, że są obserwowani), ekonomicznej (ludzie chcą mieć prawo do wprowadzania innowacji i swobodnych działań gospodarczych) i politycznej (ludzie chcą mieć swobodę politycznego myślenia, działania i argumentacji, a nadzór ogranicza to i grozi demokracji). A dwaj specjaliści w dziedzinie bezpieczeństwa informacyjnego Philip Schumann i Christian Reiser („Die Bedrohung der Privatsphäre“, 2011) wymieniają następujące racje przemawiające za potrzebą ochrony prywatności:
-
Niektóre dane (np. z dziedziny życia intymnego, seksualności, słabości itp.) mogą wywołać wstyd lub sprawić przykrość.
-
Ludzie posiadający informacje o nas, mogą je wykorzystać w celu uzyskania kontroli albo władzy nad nami albo wywierania presji; to mogłoby szkodzić naszej karierze zawodowej lub politycznej.
-
Czasami chce się coś utrzymywać w tajemnicy, żeby nie wzbudzać negatywnych emocji (zazdrości, zawiści, pożądania) u innych.
-
Jest wysoce prawdopodobne, że posiadanie przez innych informacji (np. o chorobach, przynależności partyjnej lub wyznaniowej) nas dyskryminować.
Dlatego trzeba chronić prywatność i przeciwstawiać się jej niszczeniu. Jednak działania obronne przed utratą prywatności mogą okazać się mało skuteczne, wobec nieustannego, bezapelacyjnego i niepowstrzymanego doskonalenia się technologii szpiegowania i podglądania
i opłacalności wkraczania w sferę prywatną ludzi. Trudno sobie dziś wyobrazić techniki szpiegowania lub nadzoru, jakie pojawią się w najbliższej przyszłości. Będą one jeszcze łatwiej dostępne i masowo wykorzystywane. W związku z tym utrata prywatności może nadal
postępować. Wskutek tego każdy będzie mógł być kontrolowany i obdzierany z prywatności i dlatego znacznie trudniej będzie zachowywać swoje dane osobowe w tajemnicy.
Prawdopodobnie nie da się powstrzymać procesu wzrastającej ingerencji w prywatność i nie da się uniknąć obnażania swojej tożsamości.
Są dwa sposoby wyjścia z tego impasu. Pierwszy to jeszcze bardziej bronić swej prywatności poprzez domaganie się wprowadzenia ostrzejszych przepisów prawnych o ochronie danych i sfery prywatności, zapobieganie szpiegostwu w trakcie komunikowania się z innymi ludźmi, podejmowanie działań na rzecz wzmożenia anonimowości i utajniania tożsamości, zabezpieczanie pomieszczeń, w których się przebywa przed podsłuchem i podglądem, ograniczanie ujawniania swoich danych do jak najmniejszej ilości, ujawnianie wyłącznie tych informacji, które są akceptowane przez otoczenie oraz tworzenie tak wielu fałszywych i bezwartościowych danych o sobie, żeby w ich ogromie trudno było znaleźć informacji prawdziwych. A drugi to nauczyć się żyć w warunkach ustawicznego nadzoru, wzrastającej transparencji i ekshibicjonizmu życia intymnego.
W imię dobra i interesu jednostki powinno się dbać o prywatność, chronić ją przed postępującą redukcją i nie pozwalać na to, by była poddawana nachalnej i przesadnej penetracji przez osoby prywatne, organizacje i instytucje państwowe. W przeciwnym razie globalna demokracja może przekształcić się w globalną dyktaturę pod rządami szpiegów, podglądaczy i donosicieli.
Wiesław Sztumski
30.12.2011
- Autor: Anna Leszkowska
- Odsłon: 576
Do czego prowadzi zanik poczucia odpowiedzialności i winyOd kilkudziesięciu lat ogromnie wzrasta postęp w dziedzinach wiedzy i techniki. Wskutek tego coraz więcej uniezależniamy się od obiektywnych uwarunkowań przyrodniczych i społecznych. Dzięki temu stajemy się coraz bardziej wolni.
To rzecz jasna cieszy, gdy ignoruje się uwarunkowania subiektywne wynikające na przykład z poczucia odpowiedzialności i zapomina się o związku wolności z odpowiedzialnością. Przecież im bardziej stajemy się wolni, tym bardziej powinniśmy być odpowiedzialni za swoje zachowanie i postępowanie. Jeśli nie, to szybko ekstremalna wolność przerodzi się w samowolę. A to niechybnie doprowadzi do zburzenia ładu społecznego, co utrudni ludziom życie i zmniejszy bezpieczeństwo państwa.
Mamy zatem do czynienia z jednym z wielu paradoksów naszych czasów: wraz z postępem wiedzy i techniki wzrasta wolność i odpowiedzialność, która coraz bardziej ogranicza wolność. Jeśli tak, to czy naprawdę powiększa się nasza wolność proporcjonalnie do postępu wiedzy i techniki, czy tylko w niewielkim stopniu oraz pod pewnym względem, i czy w ostatecznym rachunku zyskujemy na tym, czy tracimy?
Dlatego choćby z tego względu nie powinno się czynić z postępu wiedzy i techniki ani panaceum, ani przedmiotu kultu religijnego, na przykład w postaci „wokizmu”, wywodzącego się z postmodernizmu oraz ideologii postępactwa.(1) Postęp ten jest procesem nieuniknionym, ale zdaje się przysparzać więcej strat niż pożytków, gdy wymyka się spod kontroli i przebiega żywiołowo, i na dodatek w ustrojach ultraliberalnych.(2) Wiele faktów wskazuje na to, że postęp wiedzy i techniki, nieograniczony odpowiedzialnością za jego negatywne skutki, spowoduje kolaps naszej (zachodniej) cywilizacji. (3)
Odpowiedzialność
W naszych czasach w dużym stopniu.za sprawą postępu wiedzy i techniki ludzie stają się coraz mniej odpowiedzialni za skutki swego zachowania i działania. Jest tak dlatego, że „mądre” czy „inteligentne” urządzenia techniczne zastępują człowieka w pełnieniu funkcji kontrolnych. W związku z tym czyni się je – a nie ludzi - odpowiedzialnymi za awarie, niepowodzenia oraz szkodliwe skutki postępu. Odpowiedzialność podmiotową człowieka zamienia się na odpowiedzialność przedmiotową urządzeń stworzonych przez niego.
Na dodatek wzrasta liczba ludzi i urządzeń odpowiedzialnych za coś. Wskutek tego odpowiedzialność konkretna i jednostkowa przekształca się w abstrakcyjną, zbiorową i anonimową. Im więcej osób zaangażowanych jest w jakieś działanie, w tym mniejszym stopniu odpowiadają one za to, co robią. W granicznym przypadku dojdzie do tego, że wszyscy będą odpowiadać za wszystko, czyli nikt za nic. Odpowiedzialność straci sens i stanie się pojęciem pustym.
Zawsze ludzie unikali odpowiedzialności, ale nigdy w takim stopniu, ani tak masowo jak teraz. Signum temporis stało się nagminne wymigiwanie się konkretnych osób, organizacji i rządów od odpowiedzialności za swoje nietrafne decyzje, niezałatwienie spraw, kryzysy, awarie, katastrofy, błędne diagnozy oraz wybory i zaniechania stwarzające zagrożenia. Każdy stara się uniknąć odpowiedzialności, bo boi się kary. Czyni winnymi wszystko wokół siebie, innych ludzi i przedmioty, byle tylko nie siebie.
Usprawiedliwia go fakt, że nader często do nieodpowiedzialnych zachowań i postępków zmuszają go obiektywne warunki życia w środowisku społecznym. Przede wszystkim stale wzrastające tempo życia i pracy, i związany z tym notoryczny brak czasu. Nie jest on w stanie analizować skutków swoich decyzji oraz działań, przemyśleć je i przewidzieć nawet niezbyt odległej przyszłości, ponieważ ze wzrostem tempa życia wzrasta krótkowzroczność temporalna. (4) Horyzont czasowy zawęża się proporcjonalnie do wzrostu tempa życia - w granicznym przypadku do jednej chwili -„Teraz”. W tak szybko zmieniającym się świecie tylko jakiś superszybki komputer, niczym „Demon Laplace’a”, byłby zdolny przemyśleć wszystkie za i przeciw w podejmowaniu decyzji.
W swoich rozważaniach ograniczam się do dwóch kategorii odpowiedzialności: za skutki swoich decyzji, postaw, działań lub zaniechań oraz odpowiedzialności przed kimś. Jeśli rozpatruje się je w aspekcie przeciwstawnych kategorii odpowiedzialności - aktualnej i potencjalnej, jednostkowej i zbiorowej, jawnej i anonimowej, konkretnej i abstrakcyjnej, bezpośredniej i pośredniej, podmiotowej i przedmiotowej oraz rzeczywistej i fikcyjnej - to po pierwsze, okazuje się, że za sprawą postępu technicznego te przeciwieństwa zanikają i po drugie, że w ich obrębie dokonuje się zamiana jednych kategorii odpowiedzialności na drugie. Prowadzi to do postępującej deflacji poczucia odpowiedzialności.
W poszukiwaniu winnych
W obliczu powszechnej deflacji odpowiedzialności w wymiarze globalnym poszukiwanie winnych staje się zadaniem coraz trudniejszym i coraz częściej wręcz niewykonalnym. Wina, jak odpowiedzialność, rozkłada się na coraz liczniejsze grupy ludzi. Wobec tego jest anonimowa, bezosobowa (przedmiotowa), abstrakcyjna i w gruncie rzeczy, fikcyjna. O tym, ile wysiłku i czasu wymaga udowodnienie komuś winy, najlepiej wiedzą sędziowie w krajach, gdzie kwitnie kumoterstwo, kolesiostwo, partyjniactwo, korupcja, nepotyzm i inne powiązania krępujące rzetelne postępowanie prokuratur, policji i sądów. Dlatego, jeśli mimo to znajdzie się winnego, to coraz trudniej udaje się wymierzyć mu karę sprawiedliwą, czyli adekwatną do jego czynu przestępczego.
Trudno też osadzić skazanych w więzieniu, ponieważ ukrywają się przed nim latami. Na przykład w Polsce co roku kilkadziesiąt tysięcy osób skazanych nie zgłasza do odbycia kary, pomimo upływu terminu stawienia się w więzieniach. (5)
Wina ciąży na sumieniu ludzi, którzy w większości mają je bardziej wrażliwe. Świadomość winy w wyniku popełnienia jakiegoś czynu zabronionego przez normy prawne lub obyczajowe jest przyczyną dyskomfortu psychicznego. Dlatego, by pozbyć się wyrzutów sumienia lub uniknąć odpowiedzialności prawnej, albo moralnej, ludzie nie chcą czuć się winnymi i albo pragną dowieść swej niewinności przed innymi, albo usprawiedliwiają się przed sobą i uniewinniają tak dalece, jak tylko zdołają. W związku z tym poszukują różnych okoliczności sprzyjających, jak na przykład braku wystarczających dowodów, znajdowania świadków zeznających nieprawdę na ich korzyść oraz nakłanianie oskarżyciela do wycofania skargi.
Najłatwiej udowodnia się winę osób biednych i prostych (uczciwych, prostomyślnych i nieposiadających odpowiedniej wiedzy prawniczej), których nie stać na opłacanie dobrych obrońców, ani na łapówki, jak i tym, którzy nie mają wpływowych znajomych lub krewnych. Inni, zwłaszcza aferzyści, politycy, oligarchowie, celebryci i duchowni, jeśli nawet udowodni się im winę, szukają wszelkich sposobów, by nie dopuścić do wyroku skazującego i nie trafić do więzienia. Przede wszystkim korzystają oni z protekcji osób wpływowych, piastujących nawet wysokie stanowiska państwowe, przekupują świadków oraz biegłych, albo przedłużają postępowanie sądowe „w nieskończoność” aż do przedawnienia. Czasem wymuszają na parlamencie zmianę odpowiednich ustaw.
Z reguły ludzie zajmujący wysokie stanowiska uciekają się do symulacji różnych chorób, które szalenie trudno zdiagnozować, albo uciekają za granicę do krajów, gdzie nie obowiązują zasady międzynarodowej współpracy sądowej, na przykład do Albanii czy na Haiti, gdzie są całkowicie bezpieczni. Nawet pozorują śmierć, zmieniają swój wygląd i nazwisko. Faktem jest, że im kto bogatszy i znajduje się na wierzchołku hierarchii społecznej, tym łatwiej i skuteczniej unika kary i lekceważy wymiar sprawiedliwości w swoim kraju. Znane jest powiedzenie „Jesteś biedny i ukradniesz sto złotych, to jesteś złodziejem i zostaniesz natychmiast surowo ukarany, a gdy jesteś aferzystą i ukradniesz miliony, ogłoszą cię sprytnym biznesmenem godnym podziwu i pochwał”.
Wniosek
Dawne pojęcie odpowiedzialności konkretnej i osobowej zmieniło się w wyniku pojawienia się wielu różnych kategorii odpowiedzialności. Wyparte zostało przez odpowiedzialność anonimową i przedmiotową. Zamiast konkretnej osoby czyni się odpowiedzialnymi i winnymi przedmioty, albo enigmatyczne podmioty zbiorowe, których nie da się ukarać. W konsekwencji tego, szybko zanika poczucie odpowiedzialności i winy.
Za to szerzy się poczucie bezkarności. Na razie dotyczy to w większym stopniu światowych elit władzy aniżeli zwykłych ludzi, czyli „globalnej nowej arystokracji”, a nie „globalnego nowego plebsu”. Jednak atrofia poczucia odpowiedzialności i wzrost poczucia bezkarności udzielają się stopniowo ludziom znajdującym się na coraz niższych poziomach struktury społecznej. Wszak, jak głosi znane i sprawdzone przysłowie, „ryba cuchnie od głowy”. Dlatego być może w przyszłości trzeba będzie wykreślić odpowiedzialność i winę z listy tradycyjnych cnót etycznych.
Wiesław Sztumski
Przypisy
(1) Marek. M., Przyszłość cywilizacji zachodniej, czyli podręcznik przetrwania, NEon24.pl, 22.09.2023
(2) Wiesław Sztumski, Rozwój techniki przysparza więcej zła niż dobra, "Tygodnik Spraw Obywatelskich" Nr 84 (32), 14.08.2021,
(3) Piero San Giorgio, Przetrwać upadek cywilizacji i przeżyć. Praktyczny przewodnik, Wyd. Spotkania, Łódź, 2020
(4) W. Sztumski, Krótkowzroczność temporalna i ucieczka w teraźniejszość,: "Res Humana", 6/151, 2017
(5) W Polsce blisko 38 tysięcy skazanych unika więzienia. Dlaczego tak się dzieje? nto.pl, 27. 11.2018