Wypowiedź prof. Roberta Gałązki z Instytutu Fizyki PAN
- Panie Profesorze, jak fizyk widzi rozwój sztucznej inteligencji (AI) i związane z tym zagrożenia? W czym sztuczna inteligencja jest przydatna naukom ścisłym, zwłaszcza fizyce?
- Patrzę na sztuczną inteligencję jako obserwator, bo nie uczestniczę w tych badaniach, niemniej kiedy słyszę te wszystkie strachy alarmujące, że może ona zniszczyć ludzi, to wydają mi się one przesadzone. Ja bym się tego tak nie obawiał, bo choć widzę zagrożenia, jakie mogą być efektem rozwoju AI, to jednak jak każda nowa idea, nowy wynalazek, działanie – ma ona i plusy, i minusy.
Plusy są takie, że mnóstwo procesów roboty potrafią wykonać szybciej i lepiej niż człowiek, który w tym obszarze działań staje się stopniowo zbędny. To się już dzieje i nie jest niczym szczególnym, ale to nie ma nic wspólnego ze sztuczną inteligencją – to jest zwykła automatyka.
W ogóle uważam, że nazwa „sztuczna inteligencja” jest nadużywana, bo co to jest inteligencja? Jest to umiejętność rozumowania (z łac. intelligentia – rozum, zdolność uczenia się) i wyciągania wniosków, używania wiedzy, przede wszystkim myślenia. Więc czy taka sztuczna inteligencja będzie myślała? Nie jestem tego pewien.
Sztuczna inteligencja to zresztą stara sprawa – znana jest od 50-60 lat. Początkowo były wielkie nadzieje, że te procesy będą przebiegać bardzo szybko, później jednak okazało się, że to nie jest takie proste. Pokazuje to paradoks Moraveca, który mówi o tym, że skomplikowane dla człowieka procesy myślowe typu dowodzenia twierdzeń, gry w szachy, komputery potrafią rozwiązywać, jest to dla nich stosunkowo łatwe. Natomiast procesy bardzo proste dla człowieka jak system percepcji czy uczenia się są wręcz niemożliwe do zbudowania, wymagają wielkiej mocy obliczeniowej, jakiej jeszcze nie mamy.
W badaniach dotyczących sztucznej inteligencji są dwie drogi. Jedna to algorytmiczna, tzn. buduje się programy komputerowe na podstawie teorii zbiorów rozmytych, logiki rozmytej, kiedy wnioskowanie przeprowadza się z niepełnej liczby danych. I ta droga dla nas wydaje się normalna, choć i ona nie zasługuje na określenie sztucznej inteligencji, bo nie ma nic wspólnego z rozumowaniem. Tu dochodzi do symulacji różnych zachowań, nawet bardzo złożonych, ale to nie jest jeszcze rozumienie, to zaledwie nauczenie maszyny odpowiedniego działania, aby kompilowała wszystkie elementy i wyciągała wnioski na podstawie zaplanowanych procedur.
Druga droga to budowa sieci neuronowych, tj. symulacji działania ludzkiego mózgu. Patrząc od strony fizyki, upakowanie elementów elektronicznych w jednym chipie jest obecnie na poziomie miliarda. Taki chip to dość płaska kostka o wymiarach 5x5 cm, natomiast w mózgu jest 100 razy więcej neuronów, 100 miliardów, czyli 100 takich kostek. Te 100 kostek miałoby objętość mniejszą niż objętość ludzkiego mózgu. To oznacza ,że już obecnie upakowanie elementów elektronicznych jest gęstsze niż neuronów w mózgu. Ale nic z tego nie wynika, bo nawet jeśli połączymy te 100 czy 1000 chipów nie odtworzymy pracy mózgu. Mózg bowiem pracuje na innych zasadach, np. nie zauważamy wszystkich czynności, które wykonujemy automatycznie, jak podnoszenie ręki, powieki, etc. Gdybyśmy chcieli zaprogramować rękę robota np. na chwytanie spadającej ze stołu szklanki, to przy dzisiejszych mocach obliczeniowych jest to zupełnie niemożliwe. Nim robot zrobiłby potrzebne do tego obliczenia, szklanka już by się rozbiła.
W sensie zagrożeń ja bym się tej pierwszej drogi, algorytmicznej, w ogóle nie bał, bo są to de facto deterministyczne sprawy, to jest matematyka. Natomiast sieci neuronowe są ryzykowne, choć już się je robi. Okazuje się bowiem, że do prostych działań naśladujących mózg jak np. ludzkie zachowania, wcale nie potrzeba tak dużo neuronów jak w rzeczywistym mózgu. I to w pewnym sensie jest już niepokojące, bo co one będą robiły – nawet ci, którzy nad nimi pracują nie bardzo potrafią powiedzieć.
Moim zdaniem, są też dwa problemy w zastosowaniach sztucznej inteligencji: pozytywne i negatywne. Jeden z nich to pozbawienie ludzi intymności, prywatności, brak ochrony danych osobowych – właściwie już z tym mamy do czynienia wskutek zaawansowanych technologii np. identyfikacji ludzi w tłumie. Algorytmy używane w mediach elektronicznych potrafią na podstawie zachowania ludzi w sieci wskazać ich preferencje w różnych dziedzinach, a tym samym – posłużyć władzy do wyłuskiwania tych, którzy mogą mieć np. zamiary terrorystyczne. To są groźne skutki zastosowania sztucznej inteligencji, ale są i pozytywne, np. wspomaganie diagnoz lekarskich, leczenia, opieki. Jest jeszcze jeden groźny element - bezkrytyczne zaufanie do wyników pracy komputera. Decyzja o wykorzystaniu wyników nie może należeć do komputera.
Są dwie rzeczy, przy których postawiłbym znaki zapytania. Jedna sprawa dotyczy ogromnej zdolności człowieka do kompilacji danych. To przypomina zabawę z klockami lego – potrafimy je na wiele sposobów łączyć i tworzyć zupełnie różne konstrukcje. I niesłychanie łatwo jest to robić, ale wykreować, stworzyć coś zupełnie nowego – to już jest trudniejsze.
Jako ludzie jesteśmy w tym bardzo słabi - nowe idee, naprawdę nowe, nie wynikające z kompilacji tego, co już wiemy, pojawiają się niezwykle rzadko. To są kamienie milowe ludzkiej cywilizacji.
W fizyce jest taka legenda o Newtonie, który leżąc pod drzewem zobaczył spadające jabłko, co skierowało jego myśli na stworzenie teorii grawitacji. Ludzie przez tysiące lat przed nim też obserwowali spadające jabłka, ale teorii grawitacji nie wymyślili. Chińczycy tysiące lat temu wymyślili kompas wskazujący północ, czyli wszyscy wiedzieli, że są jakieś siły, pola, działania, ale nie wykreowali żadnej teorii opisującej dlaczego tak się dzieje. To samo z teorią Kopernika – przecież przed nim Ptolemeusz miał te same dane, ale stał na nieruchomej Ziemi. Kopernik stanął na Słońcu i zobaczył inny obraz układu planetarnego, z wszystkimi konsekwencjami nie tylko astronomicznymi.
Powstaje więc pytanie, czy sztuczny inteligent potrafi zrobić taki ruch? Wymyślić coś naprawdę nowego? Jeśli pracuje na algorytmach, to zapewne potrafi lepiej zdiagnozować chorobę człowieka niż specjalista, a na pewno zajmie mu to mniej czasu niż człowiekowi. Ale to nie będzie przełomowa jakość w leczeniu.
A takich nierozwiązanych problemów czekających na swoich odkrywców jest mnóstwo: w matematyce, która nie mając weryfikacji eksperymentalnej jaką ma fizyka pozwala wyobrażać sobie wszystko, ale i fizyce, astrofizyce, czy kosmologii – choćby ciemna materia lub ciemna energia. To, co widzimy bowiem i to przez wszystkie urządzenia jakie mamy - to ok. 5% tego, co istnieje we Wszechświecie. Znaków zapytania jest więc bardzo dużo.
W fizyce nie widzę zagrożeń ze strony sztucznej inteligencji, a wyłącznie plusy. Jest ona dobrym narzędziem, a niebezpieczeństwo polega tylko na tym, że komputery mogą nas nieświadomie wprowadzić w błąd. To wynika z naszej nieograniczonej wiary w poprawność działania maszyny, zaufania do algorytmów i poprawności interpretacji wyników przez maszynę. Do weryfikacji wyników z maszyny potrzebna jest wiedza człowieka, bo algorytmy nie mają intuicji. To widać dobrze na przykładzie maszynowego tłumaczenia tekstów literackich, czy poezji, gdzie ważne są konteksty.
Ale jest też jeszcze jedna – poza kreacją nowych idei - rzecz ważna: świadomość własnego istnienia. Sądzę, że żadna maszyna nie będzie jej mieć. Nie będzie w stanie zastanawiać się nad sensem własnego istnienia we Wszechświecie, jaki jest sens jej życia i czy jest coś poza maszynami czy nie? Bo mając taką świadomość, maszyna mogłaby sama o sobie decydować, z jej świadomości mogłyby się rodzić uczucia, emocje, a wówczas mogłaby zagrozić człowiekowi. Może przecież dojść do wniosku, że jest mądrzejsza od człowieka, czegoś od niego chcieć i żądać spełnienia tych oczekiwań.
Gdyby do tego doszło, że maszyna miałaby nie tylko samoświadomość, ale i technologiczne możliwości samodzielnego działania, to byłoby groźne. Ale wtedy to już byłaby prawdziwa a nie sztuczna inteligencja. Myślę jednak, że to nie będzie możliwe.