Naukowa agora (el)
- Autor: Anna Leszkowska
- Odsłon: 2556
Początek wyścigu
Za motor postępu wszystkie kraje rozwinięte uważają naukę i wynikające z niej innowacje. To dlatego Komisja Europejska w kwietniu 2018 napisała: „Jak maszyna parowa i elektryczność w przeszłości, sztuczna inteligencja zmienia nasz świat, społeczeństwo i przemysł. Jest to jedna z najbardziej strategicznie ważnych technologii XXI wieku. Chodzi o najwyższą stawkę. Sposób, w jaki podejdziemy do sztucznej inteligencji zdefiniuje rzeczywistość, w jakiej będziemy żyć”.
Nie ma wątpliwości, że sztuczna inteligencja (AI), a zwłaszcza uczenie maszynowe, to najważniejsze technologie naszych czasów. Zapowiedziano, że do końca 2020 roku, by sprostać konkurencji Chin, USA i innych krajów, nakłady na rozwój AI i jej zastosowań w Unii Europejskiej powinny osiągnąć 20 mld euro rocznie!
Na spotkaniu w maju 2019 Komisja Europejska ogłosiła powołanie czterech Europejskich Centrów Doskonałości przed końcem roku, każde ma otrzymać na początek 12 mln euro. Skąd ten alarmistyczny ton i tak szybkie działania? Wielu ludzi wciąż uważa, że jesteśmy jeszcze daleko od stworzenia „prawdziwie inteligentnych” maszyn, skupiając się na kontrowersjach wokół definicji inteligencji i futurologicznych rozważaniach o etyce robotów. Nie chodzi jednak o definicje, tylko o określenie, co maszyny już robią, lub w niedalekiej przyszłości będą robić sprawniej niż ludzie. Ta lista robi się coraz dłuższa, a to spowoduje zwiększoną konkurencję, jak i utratę miejsc pracy na dużą skalę, zwłaszcza w biedniejszych krajach.
W dodatku postęp w ostatnich latach pokazał, że naiwne przewidywania dotyczące rozwoju sztucznej inteligencji są błędne. To, że AI czegoś w tej chwili nie potrafi zrobić nie oznacza, że jutro też tak będzie. Przegrana Kasparowa z programem Deep Blue w 1997 roku była szokiem, ale pocieszaliśmy się, że są trudniejsze gry niż szachy, np. go. Postępy były powolne i przewidywano, że zajmie to jeszcze kilkadziesiąt lat. Tymczasem w 2016 roku Lee Sedol, wielokrotnych mistrz świata z Korei, przegrał 4:1 z programem Google AlphaGo. Rok później nowsza wersja Programu, Alpha Go Zero, wygrała z mistrzowskim programem 100:0, ucząc się wszystkiego sama. Ludzka wiedza, gromadzona przez tysiące lat, okazała się zbędna.
Uczenie maszynowe zmieniło reguły gry, komputery nie robią już tego, co im zaprogramujemy, ale potrafią nauczyć się reguł i strategii postępowania. Wygrywają praktycznie we wszystkie gry, w tym złożone zespołowe gry strategiczne takie jak StarCraft czy Dota 2. Roboty nadal grają słabo w piłkę nożną i nie tańczą salsy, ale humanoidalne roboty Boston Dynamics potrafią już zrobić fikołka do tyłu i wykonywać niemal akrobatyczne skoki.
Starcie Lee Seedola z AlphaGo oglądało 280 mln Chińczyków. W ciągu roku entuzjazm inwestorów do AI w Chinach sięgnął zenitu, prawie połowa funduszy kapitału ryzyka na świecie przeznaczona została dla firm rozwijających sztuczną inteligencję i jej zastosowania. Nic dziwnego, że rok później Komisja Europejska uderzyła w alarmowe dzwony. Czy Europa ma szansę w światowym wyścigu wykorzystania i rozwoju sztucznej inteligencji? W połowie listopada byłem na spotkaniu w Trieście zorganizowanym przez SISSA, czyli Międzynarodową Szkołę Studiów Zaawansowanych. To mała uczelnia, specjalizująca się w fizyce, matematyce i neuronaukach na poziomie doktoranckim, uznawana za najlepszą we Włoszech i jedną z najlepszych na świecie. Świadczą o tym choćby 23 granty ERC (European Research Council), najbardziej prestiżowe w Europie - mniej więcej tyle udało się zdobyć wszystkim polskim naukowcom w ciągu całej minionej dekady. Było tylko 10 referatów (w tym mój o tym, jak AI pozwoli naprawiać ludzkie mózgi), a w czasie paneli dyskusyjnych mogliśmy się dowiedzieć, jak wyglądają plany rozwoju badań i programów nauczania sztucznej inteligencji w kilku krajach.
Jedną z najlepszych uczelni brytyjskich jest University College London (UCL). Na 3 magisterskie programy w zakresie uczenia maszynowego i sztucznej inteligencji zgłasza się tam 3000 kandydatów z całego świata, a przyjmowanych jest zaledwie 140.
Kanadyjczycy utworzyli 3 centra badawcze AI (Montreal, Toronto i Edmonton), oraz ufundowali duże projekty dotyczące wybranych zastosowań, np. Scale AI w zakresie logistyki, które ma w ciągu jednej dekady stworzyć 16 tysięcy miejsc pracy i dodać 16.5 mld dolarów do Kanadyjskiego GDP (produktu krajowego brutto).
Jednakże i w tych krajach pojawiają się poważne problemy, bo przemysł (w tym Google DeepMind, twórca AlphaGo) wyciąga z uczelni profesorów, oferując im bardzo atrakcyjne warunki. Gdyby nie imigranci, uczelnie brytyjskie i amerykańskie nie miałyby kogo uczyć w naukach ścisłych i informatyce. Wystarczy popatrzeć na nazwiska autorów publikujących w najlepszych czasopismach związanych z sztuczną inteligencją; ponad 90% to Chińczycy i Hindusi, często pracujący w USA lub Europie. To korzyści z otwarcia się na świat.
Strategia „Plasując AI na czele wizji rozwoju Malty” z marca 2019 roku głosi, że „Malta ma tworzyć przełomowe technologie, a nie tylko być naśladowcą”.
Czesi w swojej strategii za kluczowe uznają przyciąganie talentów i zastosowanie rezultatów badań w praktyce, utworzenie Europejskiego Centrum Doskonałości Badań AI, oraz Europejskich Centrów Testowania i Cyfrowych Innowacji.
Zjednoczone Emiraty Arabskie ogłosiły, że w Abu Dhabi od września 2020 rozpocznie działalność uniwersytet, w którym realizowane będą programy magisterskie i doktoranckie w zakresie sztucznej inteligencji, bo przewidują, iż w 2022 roku globalna wartość różnych firm dzięki AI osiągnie 4 biliony dolarów.
Wszędzie brakuje ekspertów od AI, więc częścią planów wszystkich bogatych krajów jest „brain drain” z biedniejszych krajów. Powinniśmy temu jak najszybciej przeciwdziałać, ale konkurencja jest globalna, więc będzie to kosztowna inwestycja, na którą nas po prostu nie stać.
Francja i Chiny z dużym rozmachem
Francja postawiła sobie ambitny cel: być wśród 5 krajów najbardziej zaawansowanych w rozwoju sztucznej inteligencji. W 2017 roku prezydent Hollande obiecał dodatkowe 1,5 mld euro na ten cel, a po zmianie rządu prezydent Macron podtrzymał te obietnice. Na spotkaniu w SISSA był dr Bertrand Braunschweig, dyrektor odpowiedzialny za wdrażanie planu „Sztuczna inteligencja dla ludzkości” (AI for Humanity Plan) we Francji. Połowa tych pieniędzy przeznaczona będzie na kształcenie i badania (w tym kwestie etyczne i socjologiczne rozwoju AI), a połowa na wdrożenia, w tym cyberbezpieczeństwo i obronność.
Powołano 4 nowe instytuty w Paryżu, Tuluzie, Grenoble i na Uniwersytecie Cote de Azur, każdy z budżetem 300 mln euro, a w nich 130 profesorów z wsparciem ekspertów po doktoracie ściąganych z całego świata. Naucza się tu po angielsku, co we Francji jest rzadkością. Dodatkowo ufundowano 40 nowych katedr związanych z AI, oraz tylko w tym roku 300 stypendiów doktoranckich. Ogłoszono konkursy w czterech obszarach, dotyczących zdrowia, energii, środowiska i obronności, z budżetem 30 mln euro w każdym z nich.
Są też duże inwestycje przemysłu samochodowego w rozwój autonomicznych pojazdów i robotyki, które wymagają dalszych, długoletnich badań w zakresie analizy obrazów i sterowania. Nie ma obecnie takiego sektora gospodarki, który nie zmieni się pod wpływem sztucznej inteligencji. Wpływ na to będą miały też repozytoria dużych danych i kluczowa narodowa infrastruktura superkomputerowa.
Francuzi martwią się utratą ekspertów z narodowych laboratoriów, zatrudnianych przez zagraniczne firmy, dlatego szybko opracowali dobrą strategię (przygotowaną pod kierunkiem znanego matematyka Cedrica Villani) i poczynili odpowiednie inwestycje, by ją urzeczywistnić. Mogli rozdać pieniądze na cele socjalne i uspokoić zamieszki żółtych kamizelek, zwiększając poparcie dla rządu, ale realizują długofalowe cele strategiczne. W swojej strategii podkreślają, że nie ma szans by wynagrodzenia w rządowych laboratoriach było porównywalne z oferowanym przez takie firmy jak Google czy Apple, ale różnice są teraz tak duże, że bez znacznego podniesienia płacy nie będzie szans na zatrzymanie zdolnych informatyków na uczelniach i w instytutach badawczych.
Największe wsparcie dla rozwoju sztucznej inteligencji ogłosiły Chiny, stawiając sobie za cel dominację w tym obszarze do 2030 roku. Eksperci nie mają wątpliwości, że się im to uda. Już od paru lat smartfony wyposażone w aplikację WeChat, chińską „aplikację do wszystkiego”, umożliwiają dostęp do elektronicznej bankowości, robienia zakupów, zamawiania usług, komunikacji i dostępu do sieci społecznościowych, są używane na wielką skalę. Obecnie z tej aplikacji korzysta ponad miliard użytkowników, a firma Tencent, która ją rozwija, działa już w 49 krajach poza Chinami.
Jeśli ktoś ma wątpliwości, że czeka nas nowa era globalnej dominacji Chin, powinien przeczytać książkę Kai-Fu Lee Inteligencja sztuczna, rewolucja prawdziwa. Chiny, USA i przyszłość świata. Autor zrobił doktorat ze sztucznej inteligencji na Uniwersytecie Carnegi Mellon, pracował dla Apple, Silicon Graphics, zakładał Microsoft Research Asia w Pekinie, a następnie Google China, by w 2009 roku utworzyć firmę „Sinovation Ventures”, inwestującą w projekty AI, wartą obecnie miliardy dolarów.
Początkowo inwestycje rządowe, a następnie firmy prywatne, stworzyły w Chinach niesłychanie konkurencyjne środowisko dla rozwoju badań i usług związanych ze sztuczną inteligencją. Tamtejsi eksperci mają dostęp do ogromnej ilości danych dotyczących zachowań konsumentów, finansów i danych medycznych, a chińskie firmy potrafią je wykorzystać (my mamy RODO, które to skutecznie utrudnia i ciągle nie mamy żadnych repozytoriów na większą skalę).
Stworzyć wyszukiwarkę usług, np. restauracji w pobliżu, jest łatwo, ale zbudować ekosystem dostarczania posiłków z dowolnej restauracji, czyli połączyć usługi w sieci z dostarczaniem żywności, potrafili jak dotąd tylko Chińczycy. Skoro każda restauracja może sprzedawać swoje produkty „na dowóz”, którego nie musi sama organizować, klienci mniej sami gotują, a więcej kupują. Zatrudnienie w firmach dowożących i restauracjach wzrasta, a duża konkurencja wpływa na poprawę jakości posiłków, bo trzeba się starać, by klient wrócił.
Taka „pionowa integracja” usług, od wyszukiwania po dostarczenie produktu, pozwala dużym firmom na umocnienie swojej pozycji rynkowej, gdyż trudno jest zbudować podobne konkurencyjne systemy. Na tej zasadzie działa też chiński konkurent Amazona, czyli AliBaba, z którego usług korzysta już ponad 5 mln ludzi w Polsce.
AI a sprawa Polska
Polska poparła działania Komisji Europejskiej i przy końcu 2018 roku wydawało się, że jest szansa, by szybko opracować strategię rozwoju AI, podobnie jak zrobiły to różne kraje Unii. W sierpniu 2018 roku na prośbę Ośrodka Przetwarzania Informacji (to Państwowy Instytut Badawczy podległy MNiSW) środowisko naukowe zorganizowało seminarium, przygotowując różne opracowania dotyczące rozwoju i zastosowań AI (dostępne na stronie www.sztucznainteligencja.org.pl), a następnie - w październiku - dwudniową konferencję na Politechnice Poznańskiej.
Udało się na niej utworzyć Polskie Porozumienie na rzecz Rozwoju Sztucznej Inteligencji (PP-RAI), organizację zrzeszającą kilka polskich towarzystw (sieci neuronowych, sztucznej inteligencji, systemów uczących się, oddziały IEEE towarzystw inteligencji obliczeniowej i cybernetyki). Rok później odbyła się druga konferencja na Politechnice Wrocławskiej.
Inicjatywę opracowania polskiej strategii sztucznej inteligencji powierzono Ministerstwu Cyfryzacji (MC), które współpracuje z Ministerstwem Przedsiębiorczości i Technologii (MPIT), kładąc przede wszystkim nacisk na współpracę z przemysłem. W lutym 2019 powołano międzyresortowy zespół do opracowania strategii, składający się z 12 osób. Pod koniec sierpnia do konsultacji społecznych przedstawiono opracowany przez ten zespół projekt „Polityki Rozwoju Sztucznej Inteligencji w Polsce na lata 2019-2027”.
Dokument skupia się głównie na potencjalnym wpływie sztucznej inteligencji na rozwój społeczno-gospodarczy i pod tym względem spełnia swoje zadanie. W zespole zabrakło doświadczonych naukowców pracujących aktywnie nad AI. Naukę można - jak widać -potraktować podobnie jak hodowlę koni, kompetencje nie są do tego potrzebne.
Pod wieloma względami założenia strategiczne większości krajów są podobne. W Polsce ma powstać lub już utworzono szereg instytucji, które mają wykorzystać sztuczną inteligencję. Nową instytucją powołaną przez rząd jest „Platforma Przemysłu Przyszłości” z siedzibą w Radomiu, wspieraną przez tamtejszy Uniwersytet Technologiczno-Humanistyczny. Planowany jest konkurs dla uczelni wyższych pod nazwą „Akademia Innowacyjnych Zastosowań Technologii Cyfrowych”, wspierający prace magisterskie w zakresie sztucznej inteligencji, uczenia maszynowego oraz cyberbezpieczeństwa.
Projekt rozpocznie się w 2021 roku, a planowany budżet to 100 mln zł. Lider tej Akademii będzie pomagał tworzyć „Wirtualne Instytuty Badawcze” zrzeszające ekspertów z różnych ośrodków w interdyscyplinarnych zespołach badawczych. Ma to być szansą na zachęcenie polskich naukowców do powrotu z ośrodków zagranicznych, jak i nawiązanie współpracy z wiodącymi ośrodkami zagranicznymi. Ma też powstać „Obserwatorium AI dla Rynku Pracy” oraz „Obserwatorium Międzynarodowej Polityki Sztucznej Inteligencji i Transformacji Cyfrowej”.
Zainteresowanych powstaniem takich instytucji jest kilka resortów. W projekcie polityki rozwoju AI poświęcono wiele miejsca aspektom etycznym, planując powstanie „Wirtualnej Katedry Etyki i Prawa”, której zadaniem będzie doradztwo, udział w debacie publicznej oraz poszukiwanie sposobów rozwiązania problemów prawnych i etycznych, jakie mogą się pojawić z powodu rozwoju inteligentnych technologii. Na razie są to jednak tylko wstępne projekty, forma prawna takich instytucji nie jest jasna. Raczej nie ma szans na uruchomienie proponowanych programów przed 2021 rokiem, a więc w stosunku do krajów przodujących, w których już istnieją liczne centra badawcze, czekają nas dodatkowe lata opóźnień.
Kilka inicjatyw już udało się uruchomić. Program GovTech Polska pozwala na zgłaszanie różnym ministerstwom, urzędom, instytucjom samorządowym i prywatnym firmom na przedstawienie istotnych społecznych wyzwań, które można rozwiązać za pomocą technologii informatycznych, w tym sztucznej inteligencji.
Na stronie programu jest sporo wyzwań wymagających budowy systemów z wykorzystaniem sztucznej inteligencji. Jak AI może przechytrzyć potencjalnych cyberprzestępców? Jak zbudować system zobrazowania skomplikowanych sytuacji w cyberprzestrzeni? Jak pomóc pracownikom biura wsparcia klienta w dotarciu do potrzebnych informacji w trakcie konwersacji z klientem? Jak rozpoznać podejrzane oferty sprzedaży? Jak automatycznie zweryfikować wiek gracza maszyn hazardowych?
Rozwiązanie takich problemów wymagać będzie wysokich kompetencji. Służyć temu mają doktoraty wdrożeniowe przy współpracy uczelni, bądź instytutów badawczych, z przedsiębiorcami nad rozwiązaniami konkretnych problemów. Jest to rozwiązanie stosowane w wielu krajach z dobrym skutkiem, ale wymaga od przedsiębiorców pewnej wyobraźni, by sformułować ambitne, ale realistyczne, zadania.
Projekty formułowane przez nowo powstające Szkoły Doktorskie też często związane są z zastosowaniami sztucznej inteligencji. Dobrym przykładem jest tu Szkoła Doktorska Technologii Informacyjnych i Biomedycznych (TIB PAN), w której uczestniczy 6 instytutów Polskiej Akademii Nauk i Państwowy Instytut Badawczy NASK. Na razie na inne działania związane z rozwojem sztucznej inteligencji nie widać funduszy.
Gdybyśmy mieli w Polsce być kreatorami nowych rozwiązań, należałoby najpierw zdefiniować wyzwania, jakie stoją przed sztuczną inteligencją i stworzyć centra badawcze, które by nad nimi pracowały. O tym jednak w omawianym dokumencie nie ma ani słowa. Można odnieść wrażenie, że sztuczna inteligencja to rzemiosło i wystarczy zająć się wdrożeniami na licencji zagranicznych firm oferujących odpowiednie narzędzia.
Nasze możliwości finansowe są znacznie skromniejsze niż przodujących krajów; korzystając z grantów europejskich nie możemy płacić ludziom nawet połowy tego, co Francuzi czy Niemcy. Koszty wejścia Polski do grupy 20–25% wiodących krajów w tworzeniu rozwiązań AI oceniane są we wspomnianym dokumencie na temat polityki rozwoju na prawie 10 mld zł. Rozłożone na 4-5 lat to nie tak wiele dla budżetu zorientowanego na rozwój kraju, ale czy naprawdę można na to liczyć?
Chociaż strategie rozwoju sztucznej inteligencji skupiają się na potencjalnych korzyściach, zastosowaniach, aspektach prawnych i etycznych, trzeba pamiętać, że jest to gałąź informatyki wymagająca dalszego rozwoju. Stosowane w AI algorytmy są coraz bardziej wyrafinowane, a ich zrozumienie i właściwe wykorzystanie wymaga głębokiej wiedzy.
Czy obecny system oceny nauki zachęca do takiego rozwoju? Niestety, ostatnie działania MNiSW raczej w tym nie pomogą. Ustawa 2.0, czyli reforma nauki ministra Gowina, pozwala na dość radykalne zmiany systemowe w sposobie organizacji uczelni wyższych, ale też tworzy bardzo zbiurokratyzowany sposób ewaluacji osiągnięć naukowych. Nie ma wątpliwości, że chęci były dobre, zamierzenia ambitne, szeroko konsultowane, ale skutki mogą być opłakane. W praktyce ocena indywidualna naukowca sprowadza się do podsumowania punktów za jego publikacje, czyli najważniejszy element wkładu danej osoby do oceny jednostki naukowej, w której pracuje. Konieczny jest wybór dyscypliny, do której trzeba przypisać każdą publikację, co w przypadku zastosowań sztucznej inteligencji w różnych dziedzinach będzie trudne.
Czy zastosowania AI mamy przypisać do informatyki technicznej, czy może medycyny, psychologii, ekonomii lub prawa? Pomimo starań, nie udało się uwzględnić badań międzyobszarowych na liście oficjalnych dyscyplin naukowych. Efektem będzie handel publikacjami pomiędzy różnymi dyscyplinami naukowymi, które będą potrzebować punktów by dobrze wypaść w ewaluacji. Tożsamość środowiska ekspertów od AI, rozproszonego w różnych dyscyplinach, zupełnie się rozmyje.
Podobnie jak kilku innych polskich ekspertów, dostałem zaproszenie do udziału w konkursach na kierowanie grupami badawczymi we Francji. Dostałem też zaproszenie do szkoły doktorskiej w Heidelbergu w ramach niemieckiej „Inicjatywy Doskonałości”. Ludzie, którzy coś w tej dyscyplinie już zrobili z Polski po prostu wyjadą. Rząd nawet nie próbował wykorzystać ich wiedzy, powołując zespoły, do których każdy mógł się zgłosić, w których nie było ani jednej osoby działającej w międzynarodowych organizacjach związanych z sztuczną inteligencją. Brak konkretnych działań, wieloletnie opóźnienia w stosunku do innych krajów i trudności w prowadzeniu interdyscyplinarnych badań w tak strategicznym obszarze może nas w przyszłości drogo kosztować.
Włodzisław Duch
UMK Toruń
Wyróżnienia w tekście pochodzą od Redakcji SN.
O sztucznej inteligencji wypowiadali się ostatnio w SN:
- prof. Robert Gałązka, fizyk – Sztuczna inteligencja okiem fizyka – SN 11/19
- prof. Tomasz Downarowicz, matematyk – Sztuczna inteligencja okiem matematyka – SN 10/19
- Martyna Czapska, prawnik – Sztuczna inteligencja a prawo – SN 8-9/19
- dr Małgorzata Suchacka, socjolog – Od człowieka do robota – SN8-9/19
- prof. Ryszard Piotrowski, prawnik – Robot sędzią? – SN 3/18
- prof. Andrzej Wierzbicki, automatyk – Czym się zająć? – SN 1/18
- prof. Wiesław Sztumski, fizyk i filozof – Wykluczanie człowieka – SN 3/18
- Autor: Anna Leszkowska
- Odsłon: 3767
- Autor: Andrzej P. Wierzbicki
- Odsłon: 4047
Przy szerokim rozumieniu pojęcia „kultura” jako całokształtu duchowego i materialnego dorobku społeczeństwa, slogan „triumf techniki nad kulturą” jest oczywistym oxymoronem. Technika jest częścią tego dorobku, a jak część może dominować nad całością? Świadczy to tylko o tym, że autorzy tego sloganu tak dalece nie rozumieją współczesnej techniki, że traktują ją jako coś odrębnego od kultury.
Jednakże użycie tak oczywistej sprzeczności wskazuje, że mamy tu do czynienia z narastającym problemem, zwłaszcza przy wąskim traktowaniu kultury, z pozycji nauk społeczno-humanistycznych.
Tyle tylko, że związana z tym problemem diagnoza pozostanie błędna, jeśli się nie zróżnicuje rozumienia pojęcia „technika” i będzie je stosować w ukrytym sensie społeczno-ekonomicznego systemu wykorzystania techniki. Bo to raczej ten system w swym współczesnym kształcie, a nie technika właściwa, triumfuje nad (wąsko rozumianą) kulturą. Jednakże błędna diagnoza nie pomaga w leczeniu choroby.
Prawidłowa diagnoza powinna raczej opierać się na analizie pytania: Jakie to cechy współczesnego społeczno-ekonomicznego systemu wykorzystania techniki mają negatywny wpływ na kulturowe aspekty rozwoju? Jest wiele takich cech, niektóre z nich nawet poprawnie opisane (N. Postman, 1995: Technoopol – Triumf techniki nad kulturą). Odrębną kwestią jest, co należy czynić, aby ten negatywny wpływ zniwelować.
Jednakże tutaj ograniczę zakres analizy, będąc przekonanym, że najsilniejszy wpływ na kulturowe zachowania ludzi ma dzisiaj telewizja. Zatem pytaniem zasadniczym jest, jak ograniczyć negatywne aspekty nowego społeczeństwa spektaklu, wynikającego z dodatniego sprzężenia zwrotnego pomiędzy techniką telewizyjną (wspomaganą techniką informacyjną, data mining oraz inżynierią wiedzy) a rynkiem reklam.
Reklamodawcy – przedsiębiorcy zlecający reklamy, pracownicy firm reklamowych opracowujący te reklamy, pracownicy telewizji wplatający reklamy w program – doskonale sobie zdają sprawę z potęgi i intuicyjnego oddziaływania przekazu multimedialnego, zatem wykorzystują go właśnie dla zwiększenia asymetrii informacyjnej.
Widzowie tylko podświadomie odczuwają, że są manipulowani; nie mają pełnej informacji o reklamowanych produktach, pamiętają tylko, że mówiono o tym pozytywnie w telewizji i nie rozumieją, dlaczego sami też traktują te produkty pozytywnie. Co gorsza, współczesna technika może być wykorzystana dla pogłębienia tej asymetrii.
Współczesne metody analizy danych i inżynierii wiedzy pozwalają na konstruowanie modeli zachowań użytkownika czy klienta na podstawie danych o jego dotychczasowych zachowaniach. Jeśli zatem wykorzystanie tej techniki będzie rozwijać się w dotychczasowym systemie, to może nastąpić realizacja następującego scenariusza telewizyjnego „Wielkiego Brata”.
W każdym telewizorze zainstalowana będzie kamera obserwująca użytkowników oraz mikroprocesor zbierający i przetwarzający dane o zachowaniu się użytkowników, ich mowie ciała, itp. Producenci telewizorów będą twierdzić, że ma to służyć poprawie interakcji użytkownika z telewizorem, np. automatycznemu wyłączeniu telewizora, jeśli użytkownik zaśnie.
Jednakże faktycznie dane o zachowaniu użytkowników będą zbierane centralnie przez Internet oraz wykorzystywane przez wielkie firmy*, np. dla poprawy jakości prognoz wyborczych, a nawet dla takiej modyfikacji reklam wyborczych, by najsilniej oddziaływały na wyborców. Także dla wzmocnienia skuteczności reklam produktów, ich dostosowania do indywidualnych modeli użytkowników, itp.
Wszystko to spowoduje dalszy wzrost asymetrii informacyjnej – ludzie nie będą sobie zdawali sprawy, jak dalece są manipulowani. Manipulacja taka będzie też wpływać negatywnie na wyższe wartości kulturowe: przekaz telewizyjny już obecnie kształtowany jest w celu maksymalizacji zysku reklamodawców, a nie rozpowszechniania wyższych wartości kulturowych. A to się jeszcze pogłębi.
Jak przeciwdziałać manipulacji?
Nie możemy zakazać działalności reklamowej (nie byłoby to rozsądne), ale trzeba ograniczyć swobodę działalności rynkowej w tym zakresie, bo takie wykorzystanie nowej techniki stwarza niebezpieczeństwo manipulowania ludźmi. Każde jednak ograniczenie działalności rynkowej, aby było rozsądne i skuteczne, musi opierać się na głębokiej wiedzy o przedmiocie ograniczenia.
Do takiego ograniczenia potrzebne jest nowe prawo, a prawo tworzą politycy i prawnicy, w większości kształceni bez głębszego zrozumienia nowej techniki.
Stąd wniosek: niemożliwe jest przeciwdziałanie niebezpieczeństwom tworzonym przez społeczno-ekonomiczny system wykorzystujący zaawansowaną technikę, jeśli kształcenie prawników i przedstawicieli wszelkich dziedzin społeczno-humanistycznych nie obejmie obowiązkowo przynajmniej trzech przedmiotów w zakresie nowej techniki.
Przedmioty te to robotyka - niezbędna dla właściwego rozumienia pojęcia sprzężenia zwrotnego, informatyka - nie tylko z elementami programowania komputerów, lecz także z elementami inżynierii wiedzy oraz inżynieria biomedyczna - niezbędna dzisiaj każdemu wykształconemu człowiekowi, m.in. w związku ze starzeniem się społeczeństw.
Inżynierowie już od kilkudziesięciu lat mają w swym wykształceniu przedmioty społeczno-humanistyczne - dlaczego w kształceniu społeczno-humanistycznym nie jest stosowana zasada wzajemności?
Technika – epokowy czynnik sprawczy
Technika właściwa jest oczywiście czynnikiem sprawczym, skoro narzędzia stosowane w określonej epoce cywilizacyjnej wpływają na sposób postrzegania świata i kreowania wiedzy, a także na stosunki społeczne. Jest wiele tego przykładów, np. wpływ komputeryzacji, robotyzacji oraz komunikacji internetowej na zmniejszający się popyt na pracę.
Jednakże nie jest to wpływ bezpośredni i bez sprzężeń zwrotnych. Twórcy narzędzi są także członkami społeczeństwa i kierują się własną wizją, jakie wynalazki czy nowe narzędzia mogą być dla społeczeństwa przydatne. Jest to zarówno niebezpieczne, gdyż wizje takie mogą być błędne, jak i nieuchronne, gdyż nowe narzędzia wykorzystywane są społecznie nie natychmiastowo, a ze znacznym opóźnieniem.
Tym niemniej, występuje tu wyraźne sprzężenie zwrotne pomiędzy antycypowanymi potrzebami społeczeństwa a kreowaniem nowych narzędzi.
Ponadto, dalszy rozwój już wstępnie rozwiniętych narzędzi zależy od ich akceptacji społeczno-ekonomicznej: występuje wyraźne, nie zawsze korzystne, sprzężenie zwrotne pomiędzy techniką a kapitalistycznym systemem rynkowym.
Tak więc technika co najwyżej współokreśla rozwój społeczno-ekonomiczny i cywilizacyjny, niemniej jest ona istotnym czynnikiem sprawczym dla długich epok cywilizacyjnych. Nie ulega wątpliwości, że wynalazek narzędzi kamiennych, następnie wytopu metali, kolejno brązu oraz żelaza i stali, zmieniały uwarunkowania wczesnych cywilizacji. Fernand Braudel (1979, Civilisation matérielle, économie et capitalisme, XV-XVIII siècle) datował początki epoki kształtowania się kapitalizmu wynalazkiem Gutenberga (który był tylko usprawnieniem znanej wcześniej techniki drukarskiej poprzez skład literowy), zaś koniec - wynalazkiem Watta (który też był tylko znaczącym społecznie usprawnieniem znanej wcześniej maszyny parowej).
Początki rewolucji informacyjnej i nowej epoki cywilizacyjnej nią spowodowanej należy datować na lata 1977-83, gdy dojrzały już do społecznego upowszechnienia wcześniejsze wynalazki komputera cyfrowego (wynalazek Konrada Zuse, 1936, ale społeczne upowszechnienie od Apple 2 Steve Jobsa i Steve Wozniaka, 1977-78) oraz sieci komputerowych (początki Arpanetu ok. 1960, deklasyfikacja Internetu w 1983). Technika jest więc czynnikiem sprawczym dla długich epok cywilizacyjnych.
Nie można natomiast twierdzić, że technika właściwa w pełni determinuje stosunki społeczne w danej epoce. Pozwala tylko na rozmaite sposoby społeczno-ekonomicznego jej wykorzystania, także na modyfikacje starych systemów społeczno-ekonomicznych. Ale wybór tych sposobów oraz modyfikacji zależy od społeczeństwa.
Skutki nie natychmiastowe
Trzeba podkreślić, że społeczna akceptacja i rozpowszechnienie nowego narzędzia jest długotrwałym procesem, charakteryzującym się nie tylko powolną dynamiką, lecz także opóźnieniami w jego rozpowszechnieniu. W przypadku komputera cyfrowego opóźnienie wyniosło 42 lata, a dla sieci komputerowych tylko 23 lata (ale jeśli liczyć do sieci WWW wprowadzonej przez Timothy Berners-Lee w latach 1990-92, to opóźnienie to wzrasta do 30 lat).
Opóźnienie to było jeszcze dłuższe dla wynalazku telefonu komórkowego, głównie z powodu konieczności zmniejszenia jego wymiarów i wagi (wynalazek 1943, początek społeczno-ekonomicznego rozpowszechnienia wersji zminiaturyzowanej ok. 1991, zatem opóźnienie 48 lat).
Największe opóźnienie dotyczy wynalazku najszerzej stosowanego – telewizji – ok. 80 lat. Wynalazek wstępny bowiem to lata 1878-1880 (najpierw Julian Ochorowicz w Polsce, dwa lata później George R. Carey w Bostonie), pełna wersja techniczna kamery i odbiornika telewizyjnego - lata 1922-28 (Vladimir Zvorykin i Kalman Tihanyi w USA), początki rozpowszechnienia odbiorników telewizji czarno-białej - ok. 1950, kolorowej - ok. 1960. Do tego dochodzi jeszcze kilkadziesiąt lat powolnego procesu rozpowszechnienia społecznego użycia określonego narzędzia (zwykle 40-50 lat dla wzrostu upowszechnienia od 0% do blisko 100%). Dla telewizji kolorowej w USA było to ok. 50 lat. Rozpowszechnienie społeczne określonego narzędzia może już wpływać na procesy społeczne, ale rozpowszechnienie to musi być masowe, przekraczać 50%, co zwykle trwa ok. 25 lat.
Zatem technika, zwłaszcza technika właściwa, decydująca o wynalazkach, nie może wpływać na procesy społeczne natychmiastowo - oddziaływanie to ma kilkudziesięcioletnie opóźnienie.
Z niedoceniania tego faktu wynika podstawowy błąd filozofii techniki, która od Heideggera (Die Technik und die Kehre, 1954) oraz Ellula (The Technological Society, 1964) zakłada, że wystarczy oceniać skutki rozwoju techniki całościowo, z perspektywy ogólno-społecznej, post fatum. Tymczasem ocena taka jest oczywiście spóźniona. Jeśli chciałoby się oddziaływać na rozwój techniki, trzeba to czynić w okresie, kiedy następuje udoskonalenie pierwotnego wynalazku tak, aby umożliwić i usprawnić jego szerokie wykorzystanie społeczne. Jeśli natomiast postępować według przyjętego paradygmatu filozofii techniki i patrzeć holistycznie z zewnątrz, post factum, to technika musi się wydawać autonomiczna, samookreślająca się, niesterowalna.
Potrzeba przewidywania
Z teorii sterowania procesów z opóźnieniem, w której sam się specjalizowałem wynika, że dla skutecznego sterowania nimi niezbędne jest przewidywanie przyszłego ich rozwoju na podstawie ich wnikliwej (nie tylko zewnętrznej) obserwacji co najmniej na etapie opóźnienia. Oznacza to konieczność prognozowania rozwoju techniki, a także społeczno-ekonomicznych tego skutków.
Postulat taki może wydawać się sprzeczny z modnym dzisiaj atakiem na wszelkie przewidywanie rozwoju datującym się od postulatów Karla Poppera (1962, Społeczeństwo otwarte i jego wrogowie) do neoliberalnej krytyki przewidywania (Taleb, 2007, The Black Swan: The Impact of the Highly Improbable): bo gdyby dobre przewidywanie było możliwe, to państwo mogłoby działać bardziej racjonalnie niż wolny rynek, który rzekomo przewidywanie zastępuje. Rzekomo, bo racjonalność rynkowa dotyczy przewidywania na najwyżej kilka-kilkanaście lat, a więc nie obejmuje tak długiego okresu, jaki występuje w rozwoju techniki.
Stąd też wbrew wszelkiej modzie, ocena przyszłego rozwoju techniki (technology assessment), która dokonywana jest przez każdą wielką korporację techniczną, staje się niezbędna. Tak więc niezbędne jest przewidywanie przyszłych zastosowań społecznych, ich zalet lub wad, wszelkich nowych technik, których początki są dzisiaj już widoczne, choć szerokie zastosowanie społeczne jeszcze nie nastąpiło, lub jest dopiero w stadium początkowym. Dotyczy to np. nowych elementów biotechniki, inżynierii biomedycznej, udziału robotów w życiu społecznym, itp.
Jest przy tym sprawą oczywistą, że dokładne przewidywanie czy prognozowanie przyszłości jest niemożliwe. Jednak jakieś przewidywanie jest konieczne. Człowiek nie zbudowałby cywilizacji, gdyby nie próbował przewidywać - z lepszymi lub gorszymi rezultatami. Budujemy dom, przewidując zimy i niepogody, powiększenie się rodziny itp. Ale powódź może nas zaskoczyć. Tworzymy sieci komunikacji lotniczej, a one nie mogłyby działać bez przewidywania – czasów przelotów, potrzeb zaopatrzenia w paliwo, itp. Ale np. większy wybuch wulkanu może zakłócić funkcjonowanie takich sieci.
Budujemy roboty, mając wizję, że zastąpią nas w ciężkich, a zwłaszcza niebezpiecznych pracach. Ale przy niezrównoważonym systemie społecznym, nastawionym tylko na krótkoterminowy zysk, może to prowadzić do nadmiernego bezrobocia, lub do użycia robotów przez nieodpowiedzialne czy nawet kryminalne siły społeczne. Trzeba więc przewidywać wpływ robotów na przeszłe ich zastosowania.
Technika to też zagrożenia
We współczesnym wariancie kapitalizmu ,czy ogólniej - w społeczno-ekonomicznym systemie wykorzystania techniki, można odnotować wiele zagrożeń. Są nimi: oligopolizacja przemysłów i usług wysokiej techniki, wirtualizacja gospodarki finansowej, asymetria informacyjna, prywatyzacja intelektualnego dziedzictwa ludzkości, itp. Jednakże zagrożeniem największym, które może decydować o tym, czy nie nastąpi kolejna, globalna rewolucja polityczno-społeczna, jest zagrożenie końca pracy, nadmiernego bezrobocia lub nietrwałości pracy.
Dotychczas w ekonomii dominowała teza, że postęp techniczny zwiększający wydajność pracy nie może powodować bezrobocia, gdyż powoduje wzrost ogólnego dobrobytu, zatem wzrost popytu, w tym także na pracę. Teza ta mogła być uzasadniona jeszcze 20 lat temu, gdy nie występowało w tym stopniu co obecnie neoliberalne osłabienie prawa pracy na korzyść przedsiębiorców oraz znaczne rozwarstwienie dochodowe, przekreślające wnioskowanie oparte na uśrednionym dobrobycie.
W wydaniu „The Economist” z 18-24.01.14 podano, że sytuacja w tym zakresie jest dzisiaj radykalnie odmienna: korzyści z automatyzacji, robotyzacji i komputeryzacji pracy są wykorzystywane głównie przez najbogatszych przedsiębiorców, a dobrobyt klasy średniej nie poprawia się, tylko pogarsza. Zatem w wyniku postępu technicznego popyt na pracę maleje.
Należy się więc obawiać, że wskutek automatyzacji, robotyzacji i komputeryzacji w przyszłości tylko niewielka grupa specjalistów będzie miała pracę. Pozostali będą o pracę konkurować, część znajdzie nietrwałe i niezgodne z ich wykształceniem zatrudnienie w rozmaitych usługach (tworząc prekariat), większa część faktycznie będzie bezrobotna. Taka sytuacja społeczna nie jest trwała, grozi rewolucją – a z wykorzystaniem Internetu rewolucja taka mogłaby mieć zasięg światowy.
Pohamowanie apetytów
Jako człowiek, który całe swe życie zajmował się automatyzacją i robotyzacją w wierze, że przyczyni się to do wzrostu intelektualnego dziedzictwa ludzkości oraz ogólnego dobrobytu, czuję się współodpowiedzialny za ten stan. Ale uważam, że to nie moje prace i wynalazki spowodowały taką sytuację, tylko społeczno-ekonomiczny system wykorzystania takich rozwiązań technicznych, nieskrępowany kapitalizm. Zatem należy narzucić kapitalizmowi odpowiednie ograniczenie.
Ruch robotniczy w społeczeństwie przemysłowym narzucił takie ograniczenie kapitalizmowi, postulując i osiągając 8‑godzinny dzień pracy. Dzisiaj ogół społeczeństwa może to właśnie ograniczenie zaostrzyć, postulując i stopniowo osiągając 4‑godzinny dzień pracy.
Wiadome jest, że w czasach przedhistorycznych ludzie mogli zapewnić wyżywienie sobie i swoim rodzinom, poświęcając na zbieractwo i łowiectwo 3-4 godziny dziennie. Dzisiaj mamy znacznie większe potrzeby, ale też dysponujemy znacznie lepszymi narzędziami, więc 4‑godzinny dzień pracy jest w pełni uzasadniony. Takie rozwiązanie oczywiście zwiększyłoby znacznie popyt na pracę i koszty pracy, tym samym zmniejszając dysproporcje dochodowe, zatem spotka się z pewnością ze znacznym oporem przedsiębiorców i polityków. Jednak 8‑godzinny dzień pracy też nie został wprowadzony bez oporów.
Andrzej P. Wierzbicki
* Dzieje się tak już obecnie w komputerach podłączonych do sieci. Np. automatyczna instalacja uzupełnień oprogramowania to doskonała okazja do zebrania danych o zachowaniach użytkownika komputera, zaś wielkie wyszukiwarki Internetowe konstruują model zachowań użytkownika, tłumacząc to dążeniem do lepszej usługi. W rzeczywistości dążą do lepszego dopasowania reklam do preferencji użytkownika.
Jest to druga część rozważań prof. Andrzeja Wierzbickiego na temat techniki. Pierwszą zamieściliśmy w numerze 4/2014 SN – Czym jest technika?
Tytuł i wytłuszczenia pochodzą od Redakcji.
- Autor: red.
- Odsłon: 4078