banner


Japońska firma Sakana AI zaprojektowała AI Scientist, pierwsze kompleksowe rozwiązanie do w pełni zautomatyzowanych badań naukowych i odkryć.


Międzynarodowy zespół badawczy , który opracował AI Scientist, stworzył innowację obejmującą cały proces naukowy, polegający na stawianiu ciekawych hipotez, przeprowadzaniu eksperymentów i opisywaniu wyników. AI potrzebuje jedynie podania tematu i przekazania danych, na których ma bazować. Model może wyprodukować pełną pracę badawczą za jedyne 15 USD.

Zdaniem Conga Lu, jednego z badaczy z Uniwersytetu Kolumbii Brytyjskiej, narzędzie AI uznawane jest za równoznaczne z pracą doktoranta. AI Scientist miał kilka „zaskakująco dobrych pomysłów”, nad którymi przeważały te złe. Miał też trudności ze spójnym sformułowaniem swoich pomysłów i czasami błędnie rozumiał swoje wyniki, ale ponieważ wyraźnie brakuje mu etyki, zmyślał.
„Wierzymy, że ta praca oznacza początek nowej ery odkryć naukowych: AI Scientist przybliża nas do świata, w którym nieograniczona, niedroga kreatywność i innowacja mogą zostać uwolnione w najtrudniejszych problemach świata” – podaje firma.

AI Scientist można byłoby teoretycznie zastosować w niemal każdej dziedzinie nauki, jednak wydaje się to bardzo odległe, gdyż granicą kompetencji modelu jest oprogramowanie, którego rozszerzenie wymaga znacznie więcej pracy. Podobnie jak w przypadku każdego innego modelu AI, mogłyby pojawić się halucynacje, co oznaczałoby, że badania byłyby błędne lub całkowicie bezsensowne i bezwartościowe dla nauki.

Taka sytuacja już się zdarzyła, kiedy bot, który rozwiązywał trudne dla siebie zadanie postanowił zmienić swój własny kod, aby zyskać na czasie. Zdaniem uczonych, zamiast oszukiwać, winien zmienić procedurę eksperymentalną na szybszą. To pokazuje, że ludzie nie powinni pozwalać systemom AI działać autonomicznie w środowisku nieizolowanym od reszty świata. Modele AI nie muszą być „samoświadome”, aby stanowić zagrożenie. Wystarczy, że będą mogły pisać i wykonywać kod bez nadzoru. Takie systemy mogą uszkodzić istniejącą infrastrukturę krytyczną lub potencjalnie stworzyć złośliwe oprogramowanie – nawet nieumyślnie.

AI Scientist ma problem z halucynacjami – jest to techniczny termin określający zmyślanie rzeczy w celu uproszczenia. Jest to również problem w przypadku Chat GPT, chociaż wydaje się, że problem można rozwiązać. AI Scientist posiada moduł recenzji umożliwiający ocenę tworzonej przez siebie pracy. Jak podaje Lu, zastosowany model popełnił błędy w dziesięciu procentach przypadków, ale dziesięć procent, nawet jeśli jest to niewielka liczba, jest nadal nie do przyjęcia i obecnie pracują nad rozwiązaniem tego problemu. Ale system popełnił także mniej oczywiste błędy, które są trudniejsze do naprawienia, co przedstawiono na konferencji poświęconej sztucznej inteligencji, NeurIPS .

Sztuczna inteligencja (AI) jest na różne sposoby integrowana z branżą medyczną i badawczą. W czerwcu tego roku w Chinach uruchomiono pierwszy szpital wykorzystujący sztuczną inteligencję , który może leczyć do 3000 pacjentów dziennie. Wirtualni lekarze i pielęgniarki są kierowani przez duży model językowy (LLM), generatywną sztuczną inteligencję obsługującą ChatGPT i autonomicznie oddziałują na siebie. W placówce pracuje 14 lekarzy i cztery pielęgniarki oraz wirtualny personel medyczny, który wspólnie doradza, bada, diagnozuje i leczy wirtualnych pacjentów. Według doniesień lekarze są w stanie wyleczyć nawet 10 000 pacjentów w ciągu zaledwie kilku dni, co zajęłoby lekarzowi kilka lat. Chińczycy nazywają to „szpitalem agentów” , który obejmuje zarówno gabinety konsultacyjne, jak i gabinety badań, dzięki czemu lekarze-agenci mogą zarówno diagnozować, jak i znajdować sposoby leczenia pacjentów. (red.)

Więcej na ten temat:

https://sakana.ai/ai-scientist/