banner


W roku 2013 Cambridge Analytica, brytyjska firma specjalizująca się w konsultingu politycznym, ogłosiła wprowadzenie na rynek aplikacji nazwanej This is Your Digital Life (To jest twoje cyfrowe życie), która została opracowana we współpracy z Aleksandrem Koganem i jego firmą Global Science Research. Aplikacja zadawała użytkownikom kilka pytań na temat ich zachowania i korzystania z cyfrowej technologii.
Cambridge Analytica wykorzystała te dane, by zbudować profile psychologiczne, które można było wykorzystać między innymi do prognozowania zachowań wyborczych.

Aby uzyskać dostęp do danych niezbędnych do stworzenia tych profili, firma skontaktowała się z Facebookiem, który nałożył wymóg przeprowadzenia procesu uzyskania zgody użytkowników na badanie.
Porozumienie między firmami przewidywało, że użytkownicy wypełnią ankietę w zamian za wynagrodzenie, a ich dane zostaną wykorzystane wyłącznie do celów naukowych.
W rzeczywistości aplikacja robiła znacznie więcej niż tylko zbieranie ankiet od poinformowanych o tym użytkowników. Zbierała również dane osobiste od facebookowych znajomych respondentów, o czym ani respondenci, ani jego znajomi nie wiedzieli.
Następnie Cambridge Analytica wykorzystywała te dane do zbudowania ogromnej bazy profili psychologicznych, które służyły do tworzenia ukierunkowanych reklam politycznych.

Gdy wiadomość o wycieku danych trafiła do opinii publicznej, akcje Facebooka spadły o ponad 24 procent w ciągu 10 dni. Była to strata wielkości 134 miliardów dolarów. W roku 2019 Federalna Komisja Handlu Stanów Zjednoczonych nałożyła na Facebook grzywnę wysokości 5 milionów dolarów za pogwałcenie prywatności.
Brytyjskie Biuro Komisarza do spraw Informacji również uznało firmę za winną wykorzystania swoich użytkowników i narażenia ich na poważne straty dotyczące prywatności oraz nałożyło na nią sporą grzywnę.

Prywatność to zagadnienie związane z bezpieczeństwem. Dane są cenne dla firm z wielu powodów, ale przede wszystkim dlatego, że bardzo często zawierają informacje poufne lub prawnie zastrzeżone. Czasem te informacje są generowane lub zbierane przez samą firmę; kiedy indziej przekazują je klienci w zamian za usługi. Tak czy inaczej, przedsiębiorstwa działające w cyfrowym świecie muszą zabezpieczać dane nie tylko po to, by chronić swoich klientów, ale również aby chronić swoje konkurencyjne zasoby.

Nasze własne, osobiste dane również stają się coraz bardziej wartościowe i ważne. Firmy technologiczne, takie jak Google, Facebook i LinkedIn, generują lwią część zysków dzięki zbieraniu danych na temat naszych zachowań, wykorzystywaniu sztucznej inteligencji, by przewidywać, co możemy chcieć kupić, i sprzedawaniu tych prognoz firmom trzecim, które chcą sprzedawać nam swoje produkty za pomocą ukierunkowanych reklam. Stąd też upewnienie się, że dane, które są dla nas cenne, pozostaną bezpieczne, ma najwyższe znaczenie.

Prywatność danych wiąże się z jedną z najpoważniejszych zmian wywołanych cyfryzacją – zwiększeniem widoczności naszych zachowań. Każde działanie wykonane za pomocą technologii cyfrowej zostawia ślad i nasze zachowanie staje się widoczne dla ludzi, którzy wcale nie mieli go zobaczyć.

W erze cyfrowej widoczność powiązana jest z wielkością wysiłku, jaki ludzie muszą włożyć w zlokalizowanie informacji. Jak twierdzi były dyrektor Xerox PARC John Seely Brown, jeśli ludzie uznają, że informacje są trudne do zdobycia, lub nie wiedzą, jakie dane są dla nich dostępne, prawdopodobnie nie będą ich szukać. Gdy tak ujmiemy tę kwestię, może się okazać, że informacje o zachowaniu w pracy, zadaniach, wiedzy itp., choć teoretycznie są dostępne, będą tak naprawdę niewidoczne.
A jednak cyfryzacja zmniejsza wielkość wysiłku, jaki musimy włożyć w to, by nasze zachowanie stało się widoczne, lub by dostrzec zachowanie innych.

Choć technologia cyfrowa sama w sobie nie powoduje widoczności, rosnąca ilość danych na temat zachowań ludzi oznacza, że nie żyjemy już w świecie, gdzie nikt nie widzi nikogo i trzeba się bardzo starać, by ktoś nas zauważył. Obecnie jesteśmy zawsze widoczni dla innych – poprzez swoje ślady, które zostawiamy w danych. To, jak bardzo i na ile sposobów, stanowi ważne pytanie dotyczące prywatności i zgody na dzielenie się nią.
Zachowanie użytkowników Facebooka było widoczne dla Cambridge Analytica, choć zostali oni wyraźnie zapewnieni, że ich dane pozostaną własnością Facebooka.

Prywatność to skomplikowany temat w cyfrowym świecie. Żaden użytkownik Facebooka, czy też jakichkolwiek innych mediów społecznościowych nie może oczekiwać, że jego zachowanie online będzie widoczne jedynie dla kręgu znajomych. Wystarczy, aby jeden ze znajomych kliknął, a post, reakcja, zdjęcie lub mem przez ciebie wysłany dotrze do całkowicie nowej grupy ludzi, których możesz w ogóle nie znać. Pewnie zdajesz sobie sprawę, że to ryzyko istnieje na takich platformach jak Facebook. Możesz jednak nie wiedzieć, że firmy takie jak Facebook mogą zbierać twoje dane i przekazywać je innym firmom.

Jeden ze sposobów, w jaki firmy uwidaczniają nasze zachowania jest nazywany sortowaniem algorytmicznym. Na najbardziej podstawowym poziomie algorytmy sortują, oceniają, rekomendują i kategoryzują informacje, aby były łatwiejsze do zrozumienia i użyteczne. Ale algorytmy generują również widoczność.
Tarleton Gillespie, badacz z Microsoftu twierdzi, że algorytmy nie uwidaczniają każdego zachowania, ani nie uwidaczniają różnych typów zachowań w taki sam sposób. Przede wszystkim nie wszystkie dane są technicznie dostępne, aby poddawać je algorytmicznemu przetwarzaniu. Ponadto to programiści decydują, co jest relewantne. W efekcie algorytmy uwidaczniają pewne zachowania, a inne nie. Nie traktują wszystkich równo. Zachowania uwidocznione przez sortowanie algorytmiczne nie są dla wszystkich takie same. Wyszukiwarki takie jak Google regularnie prezentują różne rankingi różnie sklasyfikowanym użytkownikom, aby stwierdzić, na jaki typ treści najchętniej reagują (kliknięcia), a następnie na drodze analizy porównawczej dokonują dalszych ustaleń, w jaki sposób zmodyfikować algorytm.

W praktyce sortowanie algorytmiczne dotyka naszej prywatności i zgody na to, w jaki sposób nasze dane osobiste będą wykorzystane. Na przykład, jeśli udzielasz informacji na swój temat w formularzach rekrutacyjnych, kwestionariuszach i tym podobnych dokumentach, prawdopodobnie wiesz, że firma może te dane wykorzystać. Jeśli jednak korzystasz z narzędzi cyfrowych, które zbierają pozornie nieszkodliwe zapisy tego, co robisz online, aby stworzyć profil behawioralny, często nie zdajesz sobie sprawy, że twoje dane są gromadzone i widoczne – nawet jeśli zgodziłeś się na to, podpisując umowę o pracę lub formularz zgody na korzystanie z rozwiązania technologicznego.

Dzięki współpracy z firmami, które zbierają i analizują cyfrowe dane, udało nam się wyłowić najlepsze praktyki umożliwiające poszanowanie prawa do prywatności u pracowników i klientów podczas korzystania z cyfrowych narzędzi. Zrozumienie tego, kiedy i w jaki sposób twoje dane osobiste mogą i nie mogą być zbierane, to element niezbędny do wypracowania w sobie cyfrowej mentalności. Jeśli jesteś menedżerem, albo osobą zajmującą się tworzeniem protokołów zapewniających prywatność, najlepsze praktyki, które wymieniamy, posłużą ci jako ogólne wytyczne. A jeżeli jesteś pracownikiem martwiącym się, że twoja firma cię szpieguje lub wkracza na terytorium, którego nie chcesz jej udostępniać, najlepsze praktyki mogą pomóc ci w konfrontacji z rzeczywistością, aby sprawdzić, co firma może, a czego nie powinna wiedzieć na temat twojej cyfrowej aktywności.
Paul Leonardi, Tsedal Neeley

Od Redakcji: powyższy tekst jest fragmentem książki Cyfrowy umysł autorstwa Paula Leonardi’ego i Tsedala Neeleya. Jej recenzję zamieszczamy w tym numerze SN.