Odsłon: 766

Amerykański miliarder, szef Tesli i SpaceX Elon Musk, jeden z założycieli Apple Steve Wozniak i ponad tysiąc ekspertów wezwali do natychmiastowego wstrzymania rozwoju zaawansowanej sztucznej inteligencji (AI). Tekst listu otwartego w tej sprawie z ich podpisami opublikował Instytut Future of Life.

Wzywamy wszystkie laboratoria AI do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów AI potężniejszych niż GPT-4.

Systemy sztucznej inteligencji z inteligencją współzawodniczącą z ludźmi mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości, jak wykazały szeroko zakrojone badania [1] i potwierdzone przez najlepsze laboratoria AI. [2] Jak stwierdzono w powszechnie akceptowanych zasadach sztucznej inteligencji Asilomar, „zaawansowana sztuczna inteligencja może stanowić głęboką zmianę w historii życia na Ziemi i powinna być planowana i zarządzana z odpowiednią troską i zasobami”.
Niestety, ten poziom planowania i zarządzania nie ma miejsca, mimo że w ostatnich miesiącach laboratoria sztucznej inteligencji utknęły w wymykającym się spod kontroli wyścigu, aby rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidywać lub niezawodnie kontrolować.

Współczesne systemy sztucznej inteligencji stają się obecnie konkurencyjne dla ludzi w zadaniach ogólnych [3] i musimy zadać sobie pytania:
czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą?
Czy powinniśmy zautomatyzować wszystkie prace, w tym te satysfakcjonujące?
Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć nas liczebnie, przechytrzyć i nas zastąpić?
Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?

Takie decyzje nie mogą być przekazywane niewybieralnym liderom technologicznym. Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a związane z nimi ryzyko będzie możliwe do opanowania. Ta pewność musi być dobrze uzasadniona i wzrastać wraz z wielkością potencjalnych skutków systemu.

W niedawnym oświadczeniu OpenAI dotyczącym sztucznej inteligencji ogólnej stwierdza się, że „w pewnym momencie może być ważne uzyskanie niezależnej oceny przed rozpoczęciem szkolenia przyszłych systemów, a w przypadku najbardziej zaawansowanych wysiłków uzgodnienie ograniczenia tempa wzrostu mocy obliczeniowej wykorzystywanej do tworzenia nowych modeli”. Zgadzamy się. W tym punkcie jesteśmy teraz.
Dlatego wzywamy wszystkie laboratoria AI do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów AI potężniejszych niż GPT-4. Ta przerwa powinna być jawna i możliwa do zweryfikowania oraz obejmować wszystkie kluczowe podmioty. Jeśli taka przerwa nie może zostać szybko uchwalona, rządy powinny wkroczyć i wprowadzić moratorium.

Laboratoria sztucznej inteligencji i niezależni eksperci powinni wykorzystać tę przerwę, aby wspólnie opracować i wdrożyć zestaw wspólnych protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztucznej inteligencji, które są rygorystycznie kontrolowane i nadzorowane przez niezależnych ekspertów zewnętrznych. Protokoły te powinny zapewniać ponad wszelką wątpliwość, że systemy, które się do nich stosują, są bezpieczne. [4] Nie oznacza to ogólnie przerwy w rozwoju sztucznej inteligencji, a jedynie wycofanie się z niebezpiecznego wyścigu do coraz większych, nieprzewidywalnych modeli czarnej skrzynki z pojawiającymi się możliwościami.
Badania i rozwój sztucznej inteligencji powinny zostać ponownie skoncentrowane na uczynieniu dzisiejszych potężnych, najnowocześniejszych systemów dokładniejszymi, bezpieczniejszymi, łatwiejszymi do interpretacji, przejrzystymi, niezawodnymi, spójnymi, godnymi zaufania i lojalnymi.

Równolegle programiści AI muszą współpracować z decydentami, aby radykalnie przyspieszyć rozwój solidnych systemów zarządzania AI. Powinny one obejmować co najmniej: nowe i zdolne organy regulacyjne zajmujące się sztuczną inteligencją; nadzór i śledzenie wysoce wydajnych systemów sztucznej inteligencji i dużych zasobów mocy obliczeniowej; systemy pochodzenia i znaków wodnych pomagające odróżnić prawdziwe od syntetycznych i śledzić wycieki modeli; solidny ekosystem audytu i certyfikacji; odpowiedzialność za szkodę wyrządzoną przez AI; solidne finansowanie publiczne badań technicznych nad bezpieczeństwem sztucznej inteligencji; oraz dobrze wyposażone instytucje do radzenia sobie z dramatycznymi zakłóceniami gospodarczymi i politycznymi (zwłaszcza w demokracji), które spowoduje sztuczna inteligencja.

Ludzkość może cieszyć się kwitnącą przyszłością dzięki sztucznej inteligencji. Po pomyślnym stworzeniu potężnych systemów sztucznej inteligencji możemy teraz cieszyć się „latem sztucznej inteligencji”, w którym czerpiemy korzyści, konstruując te systemy z wyraźną korzyścią dla wszystkich i dając społeczeństwu szansę na przystosowanie się. Społeczeństwo wstrzymało się od innych technologii o potencjalnie katastrofalnych skutkach dla społeczeństwa. [5] Możemy to zrobić i w tym przypadku. Cieszmy się długim sztucznym latem, a nie pędźmy nieprzygotowani do jesieni.

https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Od Redakcji: Listu nie podpisał dyrektor wykonawczy OpenAI Samuel Altman.

Że apel nie jest czczy, ilustrują ostatnio dwa przykłady nagłośnione przez prasę:
27.03.23 Belg korespondujący niemal bez przerwy przez dwa miesiące z siecią neuronową Elsa popełnił samobójstwo -
https://wydarzenia.interia.pl/zagranica/news-belgia-popelnil-samobojstwo-po-rozmowach-z-chatbotem,nId,6685651

W tym roku student jednej z rosyjskich uczelni napisał pracę dyplomową w 23 godziny przy bezpośrednim udziale sieci neuronowej ChatGPT. Sieć zadbała o wszystko - student musiał tylko poprawnie sformułować prośby. Rezultat - dyplom jest chroniony, unikalność tekstu jest ponad normę. Jego historia wywołała dyskusję na temat nowych technologii w systemie edukacji i trafiła nawet do dumy Państwowej.
https://antifashist.com/item/ilon-mask-i-stiv-voznyak-prizvali-priostanovit-obuchenie-nejrosetej-poka-ne-poyavyatsya-protokoly-bezopasnosti.html

Apel ws. zatrzymania doskonalenia AI znalazł już oddźwięk w USA i Włoszech. Jak donosi Reuters, 30.03.23 Grupa ds. Etyki Technicznej Centrum Sztucznej Inteligencji i Polityki Cyfrowej zwróciła się do Federalnej Komisji Handlu USA o powstrzymanie OpenAI przed wydawaniem nowych komercyjnych wersji GPT-4. W skardze do agencji, która znajduje się na stronie internetowej grupy, Centrum Sztucznej Inteligencji i Polityki Cyfrowej nazwało GPT-4 „stronniczym, zwodniczym i zagrażającym prywatności i bezpieczeństwu publicznemu”.
https://www.reuters.com/technology/us-advocacy-group-asks-ftc-stop-new-openai-gpt-releases-2023-03-30/

Z kolei włoska agencja ochrony danych poinformowała 31.03.23, że otworzyła sondę do chatbota ChatGPT OpenAI w związku z podejrzeniem naruszenia zasad gromadzenia danych przez aplikację sztucznej inteligencji.
Agencja oskarżyła również ChatGPT, który jest wspierany finansowo przez Microsoft, o to, że nie sprawdza wieku swoich użytkowników. Aplikacja ma być zarezerwowana dla osób powyżej 13 roku życia.
Agencja poinformowała w notatce, że tymczasowo ograniczyła wykorzystanie danych osobowych włoskich użytkowników przez chatbota.
Włoska agencja zarzuciła „brak jakiejkolwiek podstawy prawnej, która uzasadniałaby masowe gromadzenie i przechowywanie danych osobowych w celu„ wyszkolenia ”algorytmów leżących u podstaw działania platformy”.

W tym tygodniu organ ścigania Unii Europejskiej Europol ostrzegł przed potencjalnym niewłaściwym wykorzystaniem chatbota w próbach phishingu, dezinformacji i cyberprzestępczości, dodając do chóru obaw kwestie od prawnych po etyczne.

https://www.reuters.com/technology/italy-data-protection-agency-opens-chatgpt-probe-privacy-concerns-2023-03-31/

Jeszcze bardziej radykalny jest Eliezer Yudkovsky w wypowiedzi dla The Time, proponując całkowity zakaz rozwoju sieci neuronowych. Ostrzega, iż obecnie wydaje się możliwe, że laboratorium tworzące sztuczną inteligencję przekroczy krytyczne granice niezauważenie. Najbardziej prawdopodobnym skutkiem stworzenia nadludzko inteligentnej AI będzie śmierć dosłownie wszystkich ludzi na Ziemi. Nie w sensie, iż „może istnieć jakaś odległa możliwość”, ale w sensie, że „jest to oczywista rzecz, która się wydarzy”.

https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/