Sztuczna inteligencja a prawo

Utworzono: niedziela, 28 lipiec 2019 Anna Leszkowska Drukuj E-mail


W latach 50. XX wieku John McCarthy ukuł pojęcie sztucznej inteligencji (ang. artificial intelligence, w skrócie AI), które dzisiaj jest kluczowym pojęciem rozwoju technologicznego. Pojawia się w kontekście właściwie każdej dziedziny życia, zarówno nauki, jak i kultury, nauk społecznych, ale także i prawa. Z uwagi na bariery technologiczne AI rozwinęła skrzydła najpierw w popkulturze, a dopiero potem w rzeczywistości.

Aspekty prawne związane z AI nie są obecnie ukształtowane, a sama dyskusja o tym, jak powinno się zmienić prawo w obliczu kolejnej rewolucji technologicznej, dopiero się zaczyna. Tymczasem ramy prawne mogą umożliwić wdrażanie nowych rozwiązań, ale również ograniczać je czy nawet zahamować. Ich rolą powinno być znalezienie równowagi w zmieniającym się społeczeństwie, ale też ochrona uczestników postępu, w tym ludzi, a w przyszłości może również świadomych maszyn.
Niektóre kraje w większym stopniu niż inne dążą do ułatwiania wprowadzania, testowania czy sprzedawania technologii. Rozpoczął się nowy międzynarodowy wyścig, w którym bierze udział cały świat, gdyż liderzy w dziedzinie AI to Stany Zjedno¬czone, Chiny, Wielka Brytania2, a w kolejce aspirujących krajów ustawiają się już Francja, Niemcy, Finlandia, Kanada, Korea Południowa czy Zjednoczone Emiraty Arabskie.
W tym momencie mamy zdecydowanie więcej pytań niż odpowiedzi, jeżeli chodzi o prawne aspekty związane ze sztuczną inteligencją. Odpowiedzi na te pytania zaczynają się powoli kształtować w strategiach państw dotyczących AI, dyskusji akademickiej czy biznesowej, czasami nawet w przepisach prawa. Wyzwań, jakie stawia przed ustawodawstwami i prawnikami sztuczna inteligencja jest bardzo wiele. Omówienie ich wszystkich przekracza ramy tego opracowania, ale warto zapoznać się z kilkoma zagadnieniami, do których odnoszą się poszczególne rządy czy strategie państwowe.

Black Box i ochrona danych

Wiele osób nie wie, jak dokładnie działa sztuczna inteligencja. Nie wszyscy mają techniczne wykształcenie, inni nie są tym na razie zainteresowani. Faktem jednak jest, że algorytmy oparte o AI, które zostają nauczone określonych zachowań, np. podejmowania decyzji, często nie działają w sposób transparentny. Mówi się o tzw. czarnej skrzynce sztucznej inteligencji (ang. Black Box).
W celu rozwoju AI niezbędne jest zastosowanie dużych ilości danych, które zostają przetworzone i stanowią podstawę do uczenia algorytmów. Rodzaje danych różnią się w zależności od zastosowania konkretnej sztucznej inteligencji. Może więc chodzić o dane takie jak obrazy, które mogą, ale nie muszą zawierać informacji dotyczących konkretnych osób, co trudno jednak w stu procentach kontrolować. Trzeba przyjąć, że zachodzi silna potrzeba tak udostępnienia, jak i ochrony danych.

Uregulowania dotyczące ochrony danych osobowych budzą obawy, że rozwój AI zostanie ograniczony lub spowolniony. Pytania o to pojawiają się w Europie w kontekście ogólnego rozporządzenia o ochronie danych osobowych, w Polsce znanego jako RODO, za granicą jako GDPR. RODO zaczęło w pełni obowiązywać 25 maja 2018 r. i na razie nie zdążyła się ukształtować praktyka jego stosowania, wątpliwości jest więc sporo. Przede wszystkim pojawiają się pytania o profilowanie, czyli wykorzystywanie zautomatyzowa¬nego przetwarzania danych osobowych w celu oceny niektórych czynników dotyczą¬cych danej osoby, takich jak np. zainteresowania czy sytuacja ekonomiczna. Profilowanie i zautomatyzowane podejmowanie decyzji zostało w RODO poddane ograniczeniom, w tym między innymi obowiązkowi przekazania istotnych informacji o zasadach podejmowania takich decyzji. Kładzie to nacisk na wytłumaczalność AI.

Pytanie, na które będą musieli odpowiedzieć programiści, to pytanie o to, czy każdą ścieżkę decyzyjną AI można odtworzyć, a jeżeli nie, to czy ten sam efekt można osiągnąć wytłumaczalną metodą. Od strony technicznej jest to możliwe i są prowadzone w tym kierunku badania3, jednak ograniczyłoby swobodę rozwoju AI. Przewiduje się, że presja społeczna i nieufność, jaką wciąż budzi AI, spowodują, że wytłumaczalność procesów podejmowania decyzji przez sztuczną inteligencję stanie się w najbliższym czasie priorytetem.

Osobną kwestią jest zabezpieczenie stosowanych danych – w przypadku krajów UE, zgodnie z RODO, każdy administrator danych powinien indywidualnie dobrać środki ochrony do wagi, rozmiarów i zakresu przetwarzania danych. Ramy prawne są więc dosyć szerokie, a wypełnienie ich konkretnymi mechanizmami technicznymi to zadanie dla inżynierów. To, czy zastosowane zabezpieczenia są wystarczające, będą oceniać organy kontroli. W ten sposób praktyka i akt prawny mogą w przyszłości uściślić standardy ochrony danych.
O ile w UE ochrona danych osobowych została ustandaryzowana, na świecie poziom ich zabezpieczenia jest różny. Wiele obaw budzi np. podejście do prywatności w Chinach. W Indiach dostępność danych do wykorzystania w pracach przy AI z jednoczesnym poszanowaniem prywatności i norm etycznych jest wymieniana wśród najważniejszych wyzwań dla całego państwa, jako priorytet wskazuje się także na transparentność AI.

Prawa dla robotów

Na razie hasło „prawa robotów” kojarzy się głównie z trzema (a później czterema) prawami robotyki sformułowanymi przez pisarza Isaaca Asimova. Prawa robotyki opisywane w jego twórczości to zbiór zasad etycznych, w które powinien być wyposażony każdy robot, a które mają za zadanie przede wszystkim chronić człowieka.
Kwestia praw dla robotów, na wzór praw człowieka, na razie pozostaje w sferze fantastyki, ale zaczyna być dyskutowana. Są zwolennicy takiego podejścia i jego przeciwnicy, przypominający, że AI nie może równać się z człowiekiem i nie ma w tej chwili sztucznej inteligencji, która wiernie odwzorowywałaby działanie ludzkie¬go mózgu. Niektóre kraje jednak postanowiły mimo wszystko pokazać obecność AI w dość szokujący sposób, nadając jej namiastkę ludzkich praw.

W 2017 roku mieliśmy do czynienia z kilkoma takimi przypadkami. Japonia przyznała prawo do stałego pobytu w Tokio sztucznej inteligencji o imieniu Mirai. Ta AI jest bo¬tem stworzonym na podobieństwo 7-letniego chłopca i nie ma sztucznego ciała. Inaczej niż w przypadku Sophii stworzonej przez Hanson Robotics. Sophia, obecnie chyba najsłynniejszy robot na świecie, otrzymała obywatelstwo Arabii Saudyjskiej, co biorąc pod uwagę sytuację kobiet w tym kraju wywołało zrozumiałe kontrowersje. Z kolei wiosną 2017 r. w Belgii, w urzędzie stanu cywilnego zarejestrowany został robot pod imieniem i nazwiskiem Fran Pepper.

Oczywiście wydanie aktu urodzenia robotowi czy nawet przyznanie mu oby¬watelstwa nie oznacza jak na razie nabycia przez maszynę takich praw, jak te, które mają ludzie. Roboty nie otrzymują więc tzw. zdolności prawnej, nie mogą kupować w sklepach, wynajmować mieszkań, nie płaci im się za to, co robią (np. Fran Pepper „pracuje” w recepcji uniwersytetu PXL). Na razie traktujemy to w kategorii ciekawostki czy zwracania na siebie uwagi, jednak możliwe, że w ciągu nadchodzących lat będzie trzeba zająć się tym problemem na poważnie.

Komisja Europejska w sprawozdaniu opublikowanym na początku 2017 r. nie wyklucza, że wyjątkowo zaawansowane maszyny mogą się w przyszłości stać „osobami elektronicznymi”. Sama nazwa wskazuje, że zbliża się tutaj roboty do ludzi. Indyjski dokument „Report of Task Force on Artificial Intelligence” stwierdza, że przepisy dotyczące osób używających systemów opartych o AI powinny być odpowiednio stosowane do maszyn autonomicznych, zaś twórcy i projektanci AI powinni dbać o przestrzeganie stosownych przepisów prawa. Zostało też zasygnalizowane, że w przyszłości przyjdzie nam się zmierzyć z pytaniem o prawa i odpowiedzialność „bytów autonomicznych” (ang. autonomous entities). Zdaniem autorów tego raportu, prawo będzie musiało ewoluować, a jako przykład po¬dobnej ewolucji wskazują zmiany w zakresie praw zwierząt.

Polska włączyła się w powyższy trend: 13 czerwca 2018 r. Sophia gościła w Krakowie, gdzie otrzymała indeks krakowskiej AGH. Według prorektora tej uczelni, prof. Jerzego Lisa, gest miał być symbolem, ale też sygnałem, że AGH jest gotowe na wyzwania, jakie niesie sztuczna inteligencja.

AI a prawo karne

Prawo karne to pole, w którym na sztuczną inteligencję można patrzeć dwojako. Z jednej strony pojawia się pytanie, kto będzie odpowiedzialny za szkody wyrządzone przez AI czy przez roboty. W przypadku samochodów autonomicznych mieliśmy już do czynienia z pierwszym wypadkiem spowodowanym przez pojazd działający w trybie autonomicznym.
Na razie nie ma mowy o odpowiedzialności karnej sztucznej inteligencji czy, ogólnie rzecz biorąc, maszyn. Jednak wraz z rozwojem AI być może przyjdzie nam się zmierzyć z tym zagadnieniem. Już teraz powoli rozpoczyna się dyskusja nad tym, czy AI może popełnić przestępstwo.

Z drugiej strony, AI może zostać wykorzystana jako narzędzie egzekwowania prawa czy nawet zapobiegania przestępstwom. Sztuczna inteligencja mogłaby analizować wzory zachowań jednostek czy całych grup ludzi i wykrywać anomalnie, które mogą świadczyć o prawdopodobieństwie wystąpienia naruszenia prawa. W Stanach Zjednoczonych mówi się o tym np. w kontekście ochrony obiektów strategicznych, takich jak lotniska. Przedstawiona koncepcja została zobrazowana w filmie pt: ”Raport Mniejszości”.

Kwestią dyskusyjną jest granica pomiędzy zapewnieniem bezpieczeństwa ogółowi a wolnością jednostki. W Chinach trwają prace nad systemem rozpoznawania twarzy, który ma oceniać zachowania poszczególnych osób i ryzyko popełnienia przez nie przestępstwa, wykorzystuje się też tam AI do analizy nagrań z kamer monitoringu miejskiego, a do 2020 roku planowane jest uruchomienie systemu oceny obywateli pod nazwą Social Credit System. Wykorzystywanie tego typu narzędzi powinno iść w parze z gwarancjami poszanowania praw i wolności obywatelskich. W przypadku Chin budzą się obawy związane z ich brakiem, zresztą praktykuje się tam upublicznianie wizerunków osób, które przeszły przez ulicę niezgodnie z przepisami.

Prawo pracy

Wykorzystanie sztucznej inteligencji i automatyzacja powodują spekulacje, które zawody zostaną zastąpione przez AI, co przekłada się na społeczną nieufność wobec nowych technologii. Przykładowo w Chinach testowany jest system oparty na sztucznej inteligencji, który sprawdza wypracowania.
Automatyzacja może długofalowo wpłynąć na stworzenie nowych miejsc pracy i nowych zawodów. Wśród nich wymienia się oczywiście profesje związane z budowaniem czy programowaniem technologii, ale również np. ekspertów od zarządzania technologiami czy zajmujących się jej aspektami prawnymi, czy też zawody związane z przepływem i ochroną danych. Powszechnie wskazywaną tendencją jest również wykorzystanie technologii w opiece nad osobami starszymi: jeżeli część zadań zostanie przejęta przez sztuczną inteligencję i roboty, ludzcy pracownicy będą mieli okazję skupić się na spędzeniu czasu z podopiecznymi. Z drugiej strony starzenie się społeczeństwa wpłynie na zwiększenie roli opiekunów osób starszych.

Nowe miejsca pracy i nowe zawody nie powstaną jednak od razu. W krótkiej perspektywie dojdzie prawdopodobnie do utraty pracy przez część społeczeństwa, a okres pomiędzy rosnącym bezrobociem wynikającym ze zwiększonego wykorzystania technologii a momentem, w którym zaczną powstawać nowe miejsca pracy, będzie wyzwaniem dla ustawodawców z całego świata. Kładzie się nacisk na rolę kształcenia ustawicznego i rozwijania nowych umiejętności.
Z myślą o tych czynnikach Singapur uruchomił program Skillsfuture, który ma ułatwić mieszkańcom Singapuru zdobywanie nowych umiejętności i trwające przez całe życie kształcenie (ang. lifelong learning). Znaczenie kształcenia ustawicznego podkreśla też w swojej strategii Finlandia, a Zjednoczone Emiraty Arabskie planują program edukacyjny dla 500 obywateli, zarówno kobiet, jak i mężczyzn, w dziedzinie sztucznej inteligencji.

Finlandia testuje, na wybranej grupie bezrobotnych, koncepcję dochodu podstawowego, która zakłada przekazywanie obywatelom comiesięcznej kwoty bez konieczności spełnienia jakichkolwiek dodatkowych warunków. Mogłoby to pomóc w utrzymaniu stopy życiowej społeczeństwa na poziomie pozwalającym na zaspokojenie podstawowych potrzeb, a być może również motywować do podjęcia dodatkowego kształcenia czy poszukiwań pracy. Eksperyment finlandzki zakończył się w 2018 roku, a jego wyniki jeszcze nie są znane.

Etyka

Trójka naukowców z MIT Media Lab stworzyła pierwszą na świecie „psychopatyczną AI”, jak sami mówią. Chodziło o zwrócenie uwagi na to, że algorytmy same w sobie nie są dobre ani złe. To dane, które wgrywa się do AI, decydują o tym, w jaki sposób zachowa się sieć neuronowa. Norman, bo takie imię otrzymała AI, jest siecią neuronową karmioną szczególnym zbiorem danych w postaci ciemnych zakamarków serwisu Reddit, takich, które koncentrują się na pokazywaniu drastycznych scen. W związku z tym tam, gdzie inne AI widzą np. wazon z kwiatami, Norman widzi zastrzelonego człowieka.

Norman jest eksperymentem, ale co, gdyby taka zwichnięta AI funkcjonowała w obrocie? Pojawia się kwestia etycznego kodeksu tworzenia sztucznej inteligencji i metod jego egzekwowania. Te ostatnie mogą zostać zapewnione odpowiednimi przepisami prawa wymuszającymi zastosowanie w inżynierii AI określonych standardów etycznych i przewidującymi kary za ich złamanie.
Osobną kwestią jest, kto powinien ustalać te standardy. We Francji padł np. pomysł utworzenia komitetu, który byłby otwarty na głos społeczeństwa i przewodziłby dyskusji na temat etyczności AI w określonych ramach prawnych. Co więcej, różne społeczeństwa postrzegają normy etyczne w różny sposób, co też utrudnia przyjęcie uniwersalnej etyki AI.

Podobnym eksperymentem przez przypadek została Tay, AI zaprezentowana przez Microsoft w 2016 roku. Był to prosty chatbot, który miał wchodzić w interakcje z użyt¬kownikami serwisu Twitter. W ciągu 24 godzin stał się jednak odbiciem skrajnych, często obraźliwych wypowiedzi i zostało przez badaczy odcięty od sieci, a część wiadomości skasowana. Obecnie profil bota na Twitterze wciąż istnieje, jednak wszystkie wiadomości są ukryte przed publicznym wglądem.

Pojazdy autonomiczne

Badania nad autonomicznymi samochodami trwają i nadejdzie zapewne moment, w którym takie pojazdy zaczną być powszechnie używane. Oczywiście najpierw muszą się pojawić odpowiednie regulacje prawne. Chodzi o uznanie istnienia samochodów autonomicznych i wprowadzenie zmian w przepisach drogowych państw, ale nie tylko. W razie wypadku nie da się przewidzieć, jak zareaguje człowiek, jednak AI to zupełnie inna historia. Tutaj muszą się pojawić algorytmy, które będą kierować pojazdem i które zareagują w razie wypadku, nie ma miejsca na ludzką spontaniczność. Brakuje jednak zgody co do tego, jakimi kryteriami powinna kierować się AI w razie zagrożenia wypadkiem. Massachusetts Institute of Technology udostępnia test, który pozwala wcielić się w AI decydującą o przebiegu wypadku.
Można sprawdzić, czy bardziej zależy nam na ratowaniu zwierząt czy ludzi, pasażerów czy pieszych, osób przechodzących na czerwonym świetle czy praworządnych, wysportowanych czy otyłych. To często dylemat wagonika, jednak uzmysławia, ile różnych kryteriów można przyjąć, żeby zaprojektować algorytmy sterujące autonomicznym pojazdem.

W Niemczech stworzono wytyczne, według których powinny być programowane autonomiczne auta. Zwierzęta na drogach czy własność prywatna lub publiczna powinny zejść na dalszy plan. Oprogramowanie miałoby przy tym traktować wszystkich ludzi tak samo, niezależnie od płci, wieku czy innych czynników. Jako naczelną zasadę przyjęto unikanie śmierci człowieka za wszelką cenę.
Niemcy poszli też o krok dalej i przyjęły prawo, zgodnie z którym kierowca znajdujący się w pojeździe autonomicznym powinien być w każdej chwili gotowy do przejęcia kierownicy, jeżeli dostanie sygnał od AI. Jest to zrozumiałe, zwłaszcza w początkowej fazie testów czy upowszechniania takich pojazdów, ale docelowo powinno chodzić jednak o to, żeby kierowca nie był w ogóle potrzebny.

Z kolei Japonia planuje wprowadzenie przepisów, zgodnie z którymi za wypadki będzie odpowiedzialny co do zasady właściciel pojazdu, a producent tylko, jeśli samochód byłby wadliwie wyprodukowany. Hackowanie miałoby być traktowane jak kradzież samochodu, ale właściciel będzie musiał zadbać o odpowiednie zabezpie¬czenia, takie jak regularne aktualizacje oprogramowania pojazdu.
W marcu 2018 r. w Stanach Zjednoczonych w Arizonie doszło do śmiertelnego wypadku z udziałem samochodu Ubera, który działał w trybie autonomicznym. Zginęła kobieta, a wypadek odbił się głośnym echem na świecie, do tego stopnia, że Uber podjął decyzję o zakończeniu testów autonomicznych samochodów w Arizonie. Z doniesień prasowych wiadomo na tę chwilę, że prawdopodobnie oprogramowanie kierujące samochodem zostało źle skonfigurowane i błędnie uznało kobietę poruszającą się pieszo za przeszkodę, którą można zignorować.
Obawy o podobne zdarzenia z udziałem pojazdów autonomicznych są ogromne, pomimo że najprawdopodobniej statystyki wypadków będą niższe niż te z udziałem ludzkich kierowców.

Polskie prawo również nie ignoruje pojazdów autonomicznych. Od lutego 2018r. mamy definicję pojazdu autonomicznego, która zakłada, że w każdej chwili kierowca może przejąć nad nim kontrolę (a zatem podobnie, jak w Niemczech). Prowadzenie testów na drogach jest możliwe po uzyskaniu urzędowego pozwolenia. Żeby je dostać, trzeba wskazać, jaką trasą będzie poruszał się pojazd i kto będzie odpowiedzialny za jej zabezpieczenie, a także mieć specjalną polisę OC za szkody, które mogłyby powstać przy takich testach. Co więcej, trasę konsultuje się z mieszkańcami gminy, w której będą prowadzone testy. Właściciel domu czy działki wzdłuż trasy, po której ma jeździć pojazd autonomiczny, może się temu sprzeciwić. Przepisy nie przewidują, że taki sprzeciw musi mieć jakiekolwiek podstawy, co może rodzić obawy potencjalnych inwestorów. Powstaje pytanie, czy lista wymagań nie okaże się za długa dla firm prowadzących badania i czy poradzą sobie z ewentualnym sceptycyzmem wobec pojazdów autonomicznych, który mógłby zablokować ich testy.
Z kolei Japonia planuje rozpoczęcie testów pojazdów autonomicznych już w 2019 roku, a w maju tego roku Chiny przyjęły przepisy regulujące przeprowadzanie takich testów. Pozwolenie na nie dostał już koncern BMW.

Prawa własności intelektualnej

Eksperymenty ze sztuczną inteligencją wkraczają w sferę zarezerwowaną dotąd dla ludzi: sztukę. AI o imieniu Benjamin stworzyła scenariusz krótkiego filmu science -fiction36, IBM Watson stworzył trailer do filmu „Morgan”. Znany jest też projekt The Next Rembrandt, w ramach którego sztuczna inteligencja przeanalizowała obrazy Rembrandta i stworzyła „nowy” obraz holenderskiego malarza. Sztuczna inteligencja może wspomagać artystów, ale od razu nasuwa się pytanie: do kogo należą prawa autorskie do tego, co stworzy AI?

Koncepcji jest kilka, łącznie z głoszącą, że prawa autorskie w ogóle nie są odpowiednią drogą do uregulowania tej kwestii. Brakuje na razie spójnej koncepcji, czy powinniśmy pójść drogą znowelizowania przepisów albo stworzenia w ogóle nowej regulacji, czy też spróbować wtłoczyć nowe technologie w obowiązujące, czasami ciasne, ramy prawne.

Jak na razie nie ma więc przepisów, które przesądzałyby kwestię praw własności intelektualnej do tego, co tworzy AI. Pewną próbę podjęła Wielka Brytania, która wskazała w swoim ustawodawstwie, że autorem utworów literackich, dramatycznych, muzycznych czy artystycznych, które zostały wygenerowane komputerowo (ang. computer-generated) jest osoba, która podjęła czynności konieczne do tego, aby utwór powstał (ang. the person by whom the arrangements necessary for the creation of the work are undertaken). Jako utwory wygenerowane komputerowo zostały wskazane utwory, w których nie występuje ludzki autor.
Nie jest to precyzyjna regulacja, ale jest pierwszym krokiem w kierunku tego, aby prawo ustaliło autorstwo prac wygenerowanych maszynowo. Naczelną zasadą prawa autorskiego jest to, że autorem może być wyłącznie człowiek i jak dotąd nie doszło do jej przełamania, chociaż pojawiło się kilka takich prób. Nie wydaje się, żeby w najbliższym czasie zmieniło się podejście do ludzkiego autorstwa jako nadrzędnej zasady, ale na pewno prawo będzie musiało zareagować na udział AI w twórczości.

Podsumowanie

Problemem, z którym będą musieli zmierzyć się ustawodawcy, jest rozproszenie. Część krajów przygotowała już strategie rozwoju AI, ale nawet wtedy nie zawsze są one spójne. Świetnym przykładem są Stany Zjednoczone, gdzie podejście do sztucznej inteligencji administracji Donalda Trumpa różni się od tego, co prezentował Barack Obama. W przygotowywanie strategii państwa w sposób naturalny zaangażowana jest administracja rządowa. Idealnym, ale jak się wydaje utopijnym pomysłem byłoby stwo¬rzenie strategii ponad podziałami politycznymi. Może się więc okazać, że aktywność czy kierunek zapoczątkowany w zakresie sztucznej inteligencji będą ulegały modyfikacjom wraz ze zmianami opcji rządzących.
W związku z dużą i rosnącą popularnością zagadnień związanych z AI i robotyzacją, należy prognozować popularność trendu wpisywania się nowych firm w ten nurt. Skoro tak, to dobrym krokiem będzie rozwijanie zachęt inwestycyjnych przeznaczonych na badania i rozwój oraz działalność produkcyjną w dziedzinie robotów. Takie zachęty będą przyciągać start-upy, co wpłynie korzystnie na pozycję oferującego je kraju w dziedzinie AI.
Istotnym czynnikiem opóźniającym wdrożenie nowych technologii jest opór społeczny. W Polsce jego możliwe istnienie uznają wspomniane wyżej przepisy dotyczące pojazdów autonomicznych. Technicznie możliwości automatyzacji są szersze niż jej społeczna akceptowalność. Z tego względu nie doszło do zautomatyzowania wielu czynności wykonywanych przez lekarzy pomimo tego, że byłoby to wykonalne. W związku z tym dla pełnego rozwoju i upowszechnienia AI konieczne będą co najmniej cztery rzeczy: najłatwiejsza do osiągnięcia technologia i trudniejsze do wypracowania ramy prawne, etyczne i społeczne.

Martyna Czapska

Powyższy artykuł noszący tytuł „Aspekty prawne związane z rozwojem sztucznej inteligencji” jest fragmentem raportu „Przegląd rozwoju sztucznej inteligencji na świecie” sporządzonego przez Fundację digitalpoland w 2018 roku.
Publikacja dostępna na licencji CC BY SA 3.0 PL Creative Commons Polska
www.digitalpoland.org

 

Odsłony: 143
Our website is protected by DMC Firewall!