Z dr. nauk prawnych, konstytucjonalistą Ryszardem Piotrowskim, profesorem Uniwersytetu Warszawskiego, rozmawia Anna Leszkowska
- Panie Profesorze, prof. Andrzej Wierzbicki z Komitetu Prognoz PAN w opublikowanym w nr. 1/18 Spraw Nauki artykule Czym się zająć? twierdzi, że rewolucja informatyczna doprowadzi do całkowitej likwidacji pracy usługowej człowieka, którą będą wykonywać roboty. Czy zawody prawnicze mogą zostać zautomatyzowane? Czy będą nas sądzić roboty?
- Ale autor tego artykułu stwierdza też, że przetrwają zawody wymagające intuicji i fantazji, czyli wszystkie zawody rozumianej szeroko pracy twórczej, twórczości artystycznej i humanistycznej. Otóż w moim przekonaniu, do tych zawodów wymagających także empatii, do których autor zalicza zawody medyczne i nauczyciela, należy też dodać prawnika. Prawo bowiem nie jest sztuką czytania. Profesja prawnika nie polega na umiejętności czytania, ani umiejętności „chytrego” czytania. Bardzo wielu współczesnych prawników uważa, że prawo jest to umiejętność takiego czytania, aby uzyskać potrzebny rezultat. Według nich prawo to mistrzostwo wykrętów chytrych, jak napisał Tuwim.
Otóż nie, prawo nie polega na tym, że tylko czytamy, ani na tym, że jesteśmy chytrzy z natury i potrafimy wykręcać kota ogonem. Prawo polega na tym, co Rzymianie określali jako sztukę – sztukę sądzenia o tym, co dobre i słuszne – Ius est ars boni et aequi. I żeby taką sztukę uprawiać, trzeba być człowiekiem z intuicją i fantazją, jak zauważa prof. Wierzbicki, ale trzeba też wielkiej kultury, kultury humanistycznej. A żeby empatia mogła się przejawiać, trzeba być człowiekiem. Zatem to, że profesja prawnika może być zastąpiona przez automat jest wykluczone, bo wówczas nie będziemy mieć do czynienia z człowiekiem.
Obecnie prawo do sądu, tzn. prawo do sądzenia przez człowieka gwarantuje nam konstytucja.
- Ale to nie jest wyrażone expressis verbis…
- Na tym polega wykładnia konstytucji, że trzeba się odwoływać do pojęć w niej zawartych. Jednak nie wszystkie pojęcia zawarte w konstytucji są w niej zdefiniowane. Te niezdefiniowane określa się mianem zastanych - ich znaczenie ukształtowało się w kulturze prawnej i w prawie pozytywnym obowiązującym. Pojęcia zastane to np. sąd, sędzia - odnoszące się do ludzi, a nie automatów.
Kiedy mówimy o konstytucji, mówimy także o godności człowieka. Z tego pojęcia wynika bardzo ważne prawo człowieka, które należy dostrzec i promować – prawo do tego, aby decyzje dotyczące człowieka były podejmowane przez ludzi, a nie przez maszyny.
- Prawo jest jednak coraz bardziej rozbudowywane, idzie za życiem, a człowiek nie zawsze wszystko ogarnia. Powstały już przecież firmy prawnicze, które wykorzystują programy komputerowe w swojej pracy, co pozwala im nie tylko obniżać koszty porad prawnych, ale i rezygnować ze specjalizacji. Nietrudno sobie wyobrazić, że wkrótce w procesie sądowym orzekać będzie robot…
- Po pierwsze, prawo nie idzie za życiem, ale przeciwko życiu. Im bardziej jest skomplikowane, wewnętrznie sprzeczne, idiotyczne – tym gorzej dla życia. Prawo oparte na automatycznym wyszukiwaniu, bezrefleksyjnym stosowaniu informacji prawnych idzie przeciwko życiu. Ale oczywiście te wszystkie automaty, urządzenia, o jakich pisze np. Richard Susskind w swojej książce o prawnikach przyszłości – mogą być bardzo użyteczne, choć nie są w stanie zastąpić człowieka. Z pewnością dzięki dostępowi do rozmaitych baz danych jego praca może ulec skróceniu, uproszczeniu. Korzystanie z baz danych, rozmaitych wyszukiwarek, aplikacji – to wszystko jest elementem warsztatu prawnika, jednak trzeba przy tym być ostrożnym, bo nie wiadomo, czy aplikacje nie zawierają ukrytych programów dostarczających prawnikowi informacji niekoniecznie najistotniejszych w danej sprawie. Zawsze więc wyboru będzie dokonywał prawnik, także z uwagi na swoje kwalifikacje i wiedzę.
Po drugie, prawo zapisane w formie elektronicznej jest naruszaniem konstytucji, w której używa się słowa ogłaszanie.
Od roku 1506 ogłaszanie ma formę papierową i forma ta winna być nadal podstawową, bo jeśli zabrakłoby prądu, nie byłoby prawa. W przypadku nośnika papierowego nie ma takiego zagrożenia. Tymczasem teraz urzędową postacią ogłaszania prawa jest nośnik elektroniczny, co oznacza, że prawa - poza przestrzenią wirtualną - w zasadzie nie mamy.
Istnienie prawa w postaci elektronicznej umożliwiło też ciągłe zmienianie przepisów. Gdybyśmy chcieli to robić na papierze, posługując się setkami tysięcy stron dzienników ustaw, nie bylibyśmy w stanie posługiwać się prawem i prawdopodobnie tworzyć nowych przepisów – co byłoby z ogromnym dla nas pożytkiem. Podzielam tu XIX-wieczny pogląd Adhemara Esmeina, że pożytek z nieuchwalenia jednej ustawy może być większy niż z uchwalenia stu innych. Przekonują nas o tym doświadczenia bieżące.
- Czy nie istnieją obawy, że sztuczna inteligencja stanie się mocnym orężem do „chytrego” używania prawa? Przychodzi mi tu na myśl prawo budowlane, w którym ponoć można znaleźć wiele przepisów wzajemnie wykluczających się – zastosowanie odpowiedniego zależy tylko od wiedzy i sprytu prawników…
- Z jednej strony mamy do czynienia z ułatwieniem, ale z drugiej – mogą tu być i zagrożenia, bo ułatwienie może prowadzić do tego, że posługujący się automatami odwykną od myślenia. Zwraca na to uwagę Henry Kissinger w swojej ostatniej książce „Porządek świata”, w której pisze: „Technologie informacyjno-komunikacyjne grożą regresem jednostkowej umiejętności samodzielnego myślenia poprzez nasilenie zależności jednostki od technologii jako narzędzia ułatwiającego myślenie i w nim pośredniczącego. Łatwy i szybki dostęp do informacji zachęca do przyjmowania postaw badawczych, ale może utrudnić wykształcenie sposobu myślenia charakteryzującego przywódcę”. Także sędziego. Sędzia, który z jednej strony jest nieustannie przyuczany przez technologie komunikacyjno-informacyjne do tego, żeby myśleć tak jak w Internecie, żeby postępować tak, jak każą ze wszystkich ekranów, jest sędzią coraz mniej niezawisłym – podobnie jak każdy człowiek staje się coraz mniej niezależny.
Platon już twierdził, że chodzi o to, żeby nikt nigdy nie ważył się myśleć samodzielnie, żeby mył się kiedy każą, żeby jadł to, co każą, żeby ubierał się jak każą, żeby biegał, kiedy każą. Dokładnie z tym mamy do czynienia współcześnie i dlatego ten świat składający się z coraz bardziej bezmyślnych ludzi jest coraz mniej zdolny do samonaprawy, coraz bliższy samozagładzie.
Przecież to, jak ten świat wygląda urąga w ogóle pojęciu ludzkiej inteligencji, a mimo to on tak wyglądać będzie dalej, aż wreszcie jakaś sztuczna inteligencja postanowi zrobić z tym porządek. Cena w postaci nieogarnionego cierpienia, które planeta wyzwala jest chyba zbyt wysoka, żeby podtrzymywać ten eksperyment dalej.
Ale wracając do spraw bardziej przyziemnych: profesja prawnika nie może być wykonywana skutecznie przez ludzi pozbawionych zdolności myślenia. W „Odysei kosmicznej 2001” Stanleya Kubricka komputer Hal wypowiada zdanie, że ta misja jest zbyt poważna, żeby powierzyć ją ludziom, dowodzenie winny objąć komputery. Otóż misja sędziego jest zbyt poważna, żeby powierzyć ją komputerom.
- Jednak świat analogowy, papieru, tradycji, kończy się na naszych oczach. Wkrótce będziemy żyć w świecie komputerów i maszyn. W takim świecie proces sądowy zapewne zostanie zautomatyzowany.
- Sprawiedliwość nie jest automatyczna. Sprawiedliwość jest sprawą bogów, a dopiero potem ludzi. To Salomon otrzymuje od boga dar dobrego sądzenia. Nie stworzono dotychczas takiego narzędzia, które by miało tę właściwość, którą mają ludzie i być może nie tylko oni, a i inne istoty żyjące, a mianowicie duszę. Automat nie ma duszy. Co to jest ta dusza, tego do końca nie wiem, ale Heraklit i Teilhard de Chardin uważali, że dusza ma w sobie coś kosmicznego, transcendentnego.
Otóż dotychczasowe sukcesy w dziedzinie stworzenia świadomości opartej na nośniku innym niż mózg polegają na tym, że ten partner człowieka jest w stanie wygrać z nim w szachy. Podobno też w pokera, a nawet w grę go, wymagającą fantazji, elastyczności, przewidywania.
Ale na tym nie polega sądzenie. Wymierzanie sprawiedliwości to nie jest gra w pokera czy szachy, ani nawet w go. To wymaga cech, których automaty nie mają: one nie cierpią, nie przeżywają zwątpienia.
Tutaj pojawia się problem transhumanizmu: czy istnieją takie byty, które są rezultatem wzmocnienia lub całkowitego zastąpienia świadomości, może inteligencji, tej właściwości człowieka określanej słowem dusza czy godność. Ta właściwość przysługuje tylko człowiekowi i nie tylko z tego względu, że mózg ludzki składa się z ogromnej liczby neuronów, ale że między nimi istnieje coś, czego nie da się policzyć, zmierzyć, zważyć, co czyni człowieka człowiekiem. Te nowe technologie, choć tworzą na świecie postęp, to zatrzymują się jednak ciągle na tej granicy, która oddziela świadomość maszyny od świadomości biologicznej, człowieka.
- Ale ponoć blisko już jesteśmy stworzenia takich algorytmów, które nauczą automat ludzkich uczuć: fantazji, empatii, miłości…
- Ale po co? Nick Bostrom w swojej książce o sztucznej inteligencji („Superinteligencja. Scenariusze, strategie, zagrożenia”) mówi, że znajdujemy się w sytuacji, kiedy widzimy dziecko trzymające w ręku bombę zegarową, której wybuch może znieść całą ludzkość i zagrozić istnieniu planety. A Bostrom należy przecież do nurtu nastawionego optymistycznie w stosunku do sztucznej inteligencji w przeciwieństwie do Leona Kassa czy Francisa Fukuyamy. List w sprawie sztucznej inteligencji, jaki napisali w 2015 roku m.in. Stephen Hawking i Elon Musk, jest kompromisowy, zachęca do umiaru. Oczywiście, żadnego umiaru nie będzie, bo te badania prowadzone są przez kompleks wojskowo-przemysłowo-wywiadowczy i my nawet nie wiemy o wielu ich rezultatach.
Rewolucja informatyczna zmierza w kierunku tworzenia hybryd: człowiek-maszyna, człowiek-komputer, żeby wzmocnić umysł człowieka zasobami komputerowymi, bądź stworzyć mózg od nowa, w sztuczny sposób, czy też nauczyć maszyny myślenia, o czym pisał Alan Turing.
Ale czy można przekazać wartości maszynie, skoro nie można przekazać ich niektórym ludziom? Czy można nauczyć prawa automat, skoro nie można nauczyć polityków? Automat nie ma takiej cechy jak przyzwoitość. Czy można nauczyć maszynę moralności?
To jest niekiedy w stosunku do ludzi niewykonalne. A jeżeli nawet stworzymy maszynę, która będzie zdolna do fantazji, a nawet empatii, to czy jesteśmy w stanie sprawić, żeby nasza moralność przetrwała? I czy wobec tego prace nad sztuczną inteligencją nie okażą się w skutkach bardziej niszczące niż prace nad bombą atomową, czy nie sprawią, że człowiek znajdzie się w pułapce technologicznej, o czym pisał Stanisław Lem?
Rozwiązanie powodujące początkowo trudne do uchwycenia i przewidzenia konsekwencje, z czasem zaczyna nieuchronnie zagrażać istnieniu całego systemu. Według pisarza, człowiek przewyższa wszystkie automaty, całą nekrosferę planety, „wznosi ład w niezmierzoną przestrzeń wszechświata, bo tworzy wartości”.
A jakie wartości może stworzyć maszyna? I jakimi wartościami można zastąpić dotychczasowe wartości, które co prawda zbyt często okazują się martwe – co widać w Europie od wieków. Ale mimo wszystko, te wartości są na tyle cenne, że nie warto ich poświęcać w imię nieznanej perspektywy moralnej, związanej z dobrowolną rezygnacją z człowieczeństwa na rzecz jakiejś alternatywy, która ma za sobą doraźne interesy koncernów zbrojeniowych czy innych.
Oczywiście, tam gdzie chodzi o wzmocnienie diagnozy lekarskiej, orzeczenia sądowego, czy innego rozstrzygnięcia, należy korzystać z takich możliwości, ale wydaje się, że nowe zjawiska wymagają również nowych praw. Takim nowym prawem jest prawo do bycia zapomnianym (choć z uwagi na interesy gospodarcze i polityczne tak sprofilowane, że niewiele z niego zostało), ale powinno też istnieć prawo do bycia sądzonym przez ludzi, aby decyzje dotyczące człowieka były podejmowane przez ludzi, nie maszyny. Decyzje np. o zakończeniu intensywnej terapii nie mogą być podejmowane przez automaty. Decyzje dotyczące ludzi muszą być – przynajmniej w założeniu – oparte na zasadzie godności przyrodzonej i niezbywalnej oraz na zasadzie równości.
Dziękuję za rozmowę.