banner

Jak matematyk widzi rozwój sztucznej inteligencji i związane z nią zagrożenia? Czy nauki ścisłe, dzięki którym rozwój AI stał się możliwy nie wypuściły dżina z butelki? Mówi o tym matematyk, prof. Tomasz Downarowicz z Politechniki Wrocławskiej.


downarowicz2- W tej dziedzinie nawet specjaliści są skrajnie podzieleni, bo to jest pogranicze science fiction i tego, co się naprawdę dzieje. Część z nich uważa, że już wkrótce stworzymy roboty posiadające świadomość i AI zacznie żyć własnym życiem, wymknie się spod kontroli jej twórców, a w dalszej perspektywie może stanowić zagrożenie dla ludzkości.

Elon Musk, znany inwestor i przedsiębiorca, widzi to zagrożenie i apeluje do ludzi o ostrożność. Jednocześnie jednak sam tworzy (finansuje) rozwój AI, acz z humanitarnym przesłaniem, aby robić to w sposób bezpieczny. W swoich hasłach zmierza do tego, aby uniemożliwić przejęcie kontroli nad AI politykom, bankierom i wszelkim siłom, które mogłyby użyć AI do zniewolenia i zmanipulowania całych społeczeństw dla własnych korzyści.
Ale Elon Musk też jest miliarderem, więc nie wiadomo, na ile mu można wierzyć. To może być gra polityczna i finansowa, potrzebne są mu przecież środki na jego projekty typu Tesla, Space X, i inne. Ale tu moja wypowiedź wykracza poza obszar matematyki, więc nie będę dalej w tym kierunku spekulować.

Inni specjaliści (zwłaszcza programiści, którzy na co dzień pracują ze sztucznymi sieciami neuronowymi) uważają, że jesteśmy jeszcze daleko od stworzenia tak wysoko rozwiniętej AI i widzą ją raczej jako narzędzie wspomagające i ułatwiające ludzką pracę.
Oczywiście rozwój jest niewątpliwy – jak się porówna możliwości komputerów sprzed kilkunastu czy nawet kilku lat z tym, co obecnie jest możliwe, to widać, że rozwój jest ogromny. Ale jest to głównie rozwój w dziedzinie hardware'u. Choć oczywiście oprogramowanie czy teoria algorytmów również się rozwija, to jednak jak się popatrzy na konstrukcję sztucznych sieci neuronowych (które są podstawą sztucznej inteligencji), to idea, sam pomysł, nie zmienił się od wielu lat, tylko sieci się rozrastają dzięki coraz lepszym możliwościom sprzętowym. Można symulować coraz większe sieci, z coraz większą liczbą neuronów i synaps, i w związku z tym one potrafią dużo szybciej i sprawniej się uczyć, a efekty tego postępu są niesamowite.

Oczywiście, wyzwaniem dla teoretyków jest stworzenie podstaw teoretycznych do tego, aby sieci te rozwijały się nie tylko od strony sprzętowej, ale również od strony algorytmicznej. I to też się dzieje, ale w znacznie wolniejszym tempie. To przemawia za tym, że stworzenie maszyny mającej świadomość, potrafiącej samodzielnie myśleć, a przede wszystkim mieć swoje zachcianki i ambicje, i je realizować, to wciąż domena science fiction. AI wciąż robi to, do czego zostaje zaprogramowana, choć jej odpowiedzi na zadawane pytanie nie są już ręcznie wprowadzane do systemu, lecz potrafi je ona generować.

Niepewna przyszłość nauczycieli

W związku z tym, na razie największym realnym zagrożeniem dla ludzi, które już daje się poważnie odczuć, to konkurowanie o rynek pracy i wypieranie pracowników z wielu stanowisk. Jest to zjawisko tak dobrze znane, że nie będę go nawet omawiać.
I tu, jako pracownik wyższej uczelni, zastanawiałem się nad tym, na ile sztuczna inteligencja zagraża na przykład nauczycielom akademickim. I dochodzę do wniosku, że zagrożenie jest całkiem poważne. Jeśli chodzi o prowadzenie zajęć dydaktycznych, to sami kręcimy na siebie bicz.

Moi koledzy z Wydziału Matematyki stworzyli na Politechnice Wrocławskiej system e-learning, w którym studenci mogą przyswajać sobie wiedzę z podstawowych kursów z matematyki, jak algebra czy analiza. To jest zamknięta wiedza, którą można ogarnąć w całości i wprowadzić do systemu, włączając w to tysiące zadań, generowanych na bieżąco, tak że to nie są w kółko te same zadania. Każdy student może sobie wygenerować zadanie, w którym dane będą się zmieniać losowo, następnie może wprowadzić swoje rozwiązanie, a system to oceni. Tak więc w pewnym momencie może się okazać, że te podstawowe kursy przestaną wymagać żywego nauczyciela i będzie można e-learningiem zastąpić nauczycieli akademickich do pewnego poziomu. Systemy e-learningowe potrafią też inteligentnie odpowiadać na większość standardowych pytań studentów.

Obecnie ten system jest na tyle duży, a pytań studentów na tyle mało, w dodatku one się powtarzają, że system może na zasadzie FAQ, dysponując dostatecznie dużą bazą danych, odpowiadać sensownie na te pytania. Jeśli student zada pytanie nietypowe, to na razie ten system zgłupieje. Jednak w miarę upływu czasu można tę bazę powiększać. Taki system można wzbogacić o sieć neuronową, która będzie się uczyć, czyli doskonalić swoje reakcje, i po pewnym czasie student będzie mógł z takim systemem rozmawiać prawie tak jak z żywym nauczycielem. Ale to jest możliwe dlatego, że mówimy tu o zamkniętym obszarze wiedzy.

Teoretycy mogą spać spokojnie

Natomiast praca matematyka ma też drugą stronę – działalność naukową. I w tej kwestii wydaje mi się, że zagrożenie konkurencją ze strony AI jest (przynajmniej w najbliższej perspektywie czasowej) znikome. Ja zajmuję się matematyką abstrakcyjną, gdzie rozważa się obiekty powiedzmy algebraiczno-geometryczne, które nie występują w rzeczywistości. Wymagają one kreatywności, myślenia abstrakcyjnego i nieszablonowego. Czy sztuczna inteligencja kiedykolwiek zastąpi matematyków-teoretyków? Czy będzie w stanie np. dowodzić twierdzeń? Czy będzie w stanie stawiać pytania i formułować intersujące otwarte problemy?

Obecnie najbardziej interesujące są pytania, które wybitni matematycy postawili dziesiątki, a nawet setki lat temu i których do dzisiaj nie rozwiązano. I tutaj sprawa się bardzo rozmywa, dlatego że moim zdaniem jesteśmy bardzo dalecy od tego, żeby stworzyć sztuczną inteligencję, która będzie w stanie kreatywnie myśleć w taki sposób, w jaki myśli matematyk, pracując nad otwartym problemem.

Kopiowanie mózgu … mrówki

A co my robimy jako konstruktorzy sztucznej inteligencji? Otóż próbujemy naśladować sieci neuronowe istniejące w naszym mózgu. To jest podstawowy obiekt, na którym wzorowane są sztuczne sieci neuronowe. Największe sieci, które obecnie jesteśmy w stanie wyprodukować, mają rozmiar setki tysięcy razy mniejszy od ludzkiego mózgu, porównywalny do rozmiaru systemu nerwowego mrówki. Mimo to potrafią robić niezwykłe rzeczy. Jak się posłucha wywiadu z robotem humanoidalnym Sofią, to robi to rzeczywiście niesamowite wrażenie. Ona potrafi nawet zażartować, odpowiadać na różne pytania dowcipnie i wymijająco. To nie jest maszyna, która klepie jakieś wyuczone formułki, ale coś rzeczywiście generuje.

Ale z drugiej strony wiemy, że te sieci neuronowe są tysiące razy mniejsze niż nasz mózg, zatem jak to jest możliwe, że ta maszyna zaczyna się tak zachowywać jak człowiek? Otóż jest to możliwe dlatego, że ta sieć jest wytrenowana do wykonania jednego zadania. W przypadku Sofii, ten robot ma za zadanie rozmawiać i symulować rozmowę z żywym człowiekiem, natomiast nie umie na przykład chodzić – on jeździ na kółkach. Potrafi pomachać ręką, ma jakieś umiejętności manualne, to jest sprzężenie kilku – kilkunastu robotów. Ale robot, który jest wyspecjalizowany do tego, żeby chodzić po schodach i robić fikołki, na obecnym poziomie wiedzy i możliwości konstruktorskich – nie będzie jednocześnie rozmawiać. Bo cała jego sieć neuronowa jest skoncentrowana na zachowaniu równowagi, rozpoznaniu terenu i poruszaniu się po nim.

Widać z tego, że obecne sieci neuronowe są budowane do jednego czy kilku zadań, natomiast żywa mrówka jednocześnie musi unikać wrogów, rozpoznawać pobratymców ze swojego mrowiska, musi umieć walczyć, jeśli zachodzi potrzeba, musi zbierać pożywienie, karmić larwy, musi stale kontaktować się ze swoją królową, aby mieć odpowiedni zapach, bo inaczej zaatakują ją mrówki z własnego mrowiska. Musi uczyć się rozpoznawać intruzów wyspecjalizowanych w oszukiwaniu mrówek.
Istnieje gatunek osy, która potrafi wytworzyć feromon danego mrowiska, przybrać ten zapach i wtedy nie atakowana może złożyć swoje jaja w larwach mrówek. Następnie taka larwa jest zjadana od środka, a zamiast mrówki wylęga się osa. Ale w procesie ewolucji mrówki się uczą i potrafią coraz skuteczniej się bronić.

Natomiast nasze roboty nie potrafią wykonywać tylu czynności naraz. Wykonują jedną czynność i jeśli się w niej wytrenują, stają się lepsze od człowieka. W dobie Internetu, taki robot może mieć całą wiedzę Wikipedii w „małym palcu”, w ułamku sekundy dostęp do tych wszystkich danych, a człowiek nie ma szans tak szybko przerabiać takiej ilości informacji. Ale to dlatego, że nasz mózg jest nastawiony na rozwiązywanie wielu zadań jednocześnie. My potrafimy rozpoznać twarz kogoś znajomego, a w tym samym czasie coś jeść i stwierdzić, że jest np. przypalone. Więc podświadomie wykonujemy jednocześnie dziesiątki zadań. A takie zadanie jak znalezienie odpowiedzi na skomplikowane pytanie z historii zajmie nam na pewno więcej czasu niż robotowi połączonemu z Internetem.

Błąd w myśleniu

Mam takie wrażenie – i to dotyka pewnie i specjalistów od prognozowania – że mamy taką skłonność do ekstrapolacji szybkości rozwoju pewnych procesów w nieskończoność. Nam się wydaje, że skoro obecnie rosną one liniowo, albo np. wykładniczo, to tak będzie zawsze. Pewne procesy ewolucyjne rzeczywiście mają etap wykładniczy. Więc przykładowo wyobrażamy sobie, że jeśli stworzymy maszynę, która będzie się sama doskonalić, to za chwilę ona wyprodukuje maszynę, która będzie się sama doskonalić w jeszcze doskonalszy sposób itd. I jeśli to zaczniemy ekstrapolować, czyli przedłużać tę krzywą, to dojdziemy do tzw. osobliwości sztucznej inteligencji, gdzie w krótkim czasie te maszyny będą tak inteligentne, że ludzie dla nich będą jak dzisiaj dla nas mrówki. W pewnym momencie nie tylko nie będziemy w stanie nadążyć za maszynami, ale nie będziemy nawet w stanie zrozumieć, jakie procesy tam zachodzą, na jakiej zasadzie przebiegają ich rozumowania.
Ale nie wiem, czy to tak właśnie jest, bo większość procesów zachodzących w rzeczywistości owszem, ma ten etap wzrostu wykładniczego, ale później następuje tak zwane nasycenie. Różne ograniczenia zaczynają zaginać tę krzywą i ona osiąga poziom nasycenia, i jej wzrost się zatrzymuje. Tak więc trudno jest przewidzieć, czy roboty nam zagrożą, jak to pokazują w filmach science fiction.

Chociaż z drugiej strony, ja lubię się bawić różnymi myślami i taka myśl, że sztuczna inteligencja może się wymknąć spod kontroli człowieka i zacznie stanowić dla nas zagrożenie, nie jest całkiem pozbawiona podstaw. Jednak na razie próbujemy kopiować działanie ludzkiego mózgu i jesteśmy na początku tej drogi. Prognostycy przewidują, że za około 15 lat sztuczne sieci neuronowe dorównają rozmiarem ludzkiemu mózgowi. Ja jednak uważam, że stworzenie istot inteligentniejszych od ludzi wymagać będzie skoku jakościowego, a nie tylko ilościowego, wynalezienia algorytmów działających na zasadach innych (lepszych) niż nasz mózg.

Dlatego wydaje mi się, że za mojego życia sztuczna inteligencja nie zagrozi jeszcze na przykład mojemu stanowisku pracy. Matematycy teoretyczni nie będą jeszcze musieli konkurować z maszynami. Ale nauczyciele akademiccy – tak. Podstawowe kursy z matematyki będą prowadzone przez komputer. Moim zdaniem jest to kwestia dziesięciu lat, może nawet mniej. Po co zatrudniać nauczyciela po studiach, któremu trzeba dać uposażenie i świadczenia, skoro to samo może robić system e-learningowy. W zasadzie to już się dzieje, choć na razie oceny wystawiane przez system nie są uznawane. Jest to traktowane jako system pomocniczy w dydaktyce. Ale niebawem okaże się, że system jest na tyle niezawodny, że będzie można przerzucić na niego odpowiedzialność za kształcenie na poziomie podstawowych kursów i żywych ludzi będzie można, nazwijmy to delikatnie, „odciążyć".

Śródtytuły i wyróżnienia pochodzą od Redakcji SN.