Tego rozwoju nie da się zatrzymać. Tworzymy "gatunek", który będzie w czymś lepszy od człowieka
- Po raz pierwszy będziemy mieć relację z gatunkiem, który w pewnym sensie jest w czymś lepszy od nas - mówi prof. Aleksander Mądry, profesor Massachusetts Institute of Technology i szef działu gotowości w OpenAI - firmie, która stworzyła ChatGPT. Prof. Mądry był gościem Patrycjusza Wyżgi w "Didaskaliach". Tematem rozmowy był rozwój sztucznej inteligencji na świecie.
- Jeśli zapyta się pan, ile sektorów gospodarki jest dotkniętych przez AI, powiedziałbym, że bardzo dużo. My staramy się nie tylko dotknąć, tylko dokonać transformacji. Ciekawe jest, że to najważniejszym sektorem jest budowanie sztucznej inteligencji i programowanie, więc zaczynamy od siebie. Jest jednak parę sektorów, gdzie w ciągu najbliższego roku taka transformacja będzie postępować - zapowiada już na początku rozmowy prof. Aleksander Mądry, profesor MIT w Cambridge i pracownik OpenAI, firmy odpowiedzialnej za ChatGPT.
Imponujący rozwój sztucznej inteligencji
Gość najnowszego odcinka "Didaskaliów" zwrócił uwagę na imponujące tempo rozwoju sztucznej inteligencji, przez co trudno przewidzieć, jakie będą jej kolejne kroki i ile czasu zajmie osiąganie kolejnych celów.
- Wzrost AI zaczął w 2010 roku. Ta technologia była wtedy w powijakach i musiałeś być wariatem, aby myśleć, że to się do czegoś w ogóle przyda. Każde kolejne pięć lat to sobie myślisz, że to jest fajne, ale nie zrobi tego i tamtego. Myślisz, że potrzebuje na to jeszcze dziesięciu lat. Po pięciu latach widzisz jednak, że jakby ktoś uznał to za możliwe, to powiedziałbyś, że to sci-fi - wyjaśnia prof. Mądry.
Dalsza część artykułu pod materiałem wideo
Pracuję w OpenAI. Tak wygląda przyszłość, której się boimy - Aleksander Mądry. Didaskalia#144
- Nawet będąc w OpenAI, jestem w stanie przewidzieć rozwój do pół roku, bo to tempo jest tak duże. Mamy pewne przewidywania, nadzieje i długofalowe wizje. (...) Ciężko sobie uświadomić, jak szybko rzeczy się dzieją. Jestem w OpenAI dwa lata, a wydaje się, że to wieki - dodaje polski informatyk i matematyk.
Od "Ani" do "Asi"
Patrycjusz Wyżga zapytał swojego gościa o etapy rozwoju sztucznej inteligencji: ANI (Artifical Narrow Intelligence), AGI (Artifical General Intelligence), ASI (Artifical Super Intelligence). - "Ania" to inteligencja stworzona, by rozwiązać konkretny problem. "Aga" to z kolei AI na tyle wszechstronne, że może transformować dużą część naszej gospodarki. Prawdziwym snem wizjonerów AI jest "Asia", która ma być modelem dużo mądrzejszym od ludzi. Do tego jednak jeszcze dość daleko - ocenia prof. Mądry.
- Jeśli chodzi o "Agę", to wszystkie ważne przełomy naukowe zostały wymyślone. Teraz jest dużo szlifowania i roboty inżynieryjnej na tym polu. Do "Asi" nam jeszcze czegoś brakuje. (...) To będzie stopniowy proces. Ten zakres sektorów będzie się powoli rozszerzać, aż w końcu stwierdzimy, że mamy generalną sztuczną inteligencję. Nie sądzę, aby to było w 2025 roku - dodaje gość "Didaskaliów".
Prof. Mądry podkreśla, że sztuczna inteligencja "to nie będzie obcy w naszym domu". Jego zdaniem, część osób nawet nie będzie świadoma tego, że ma styczność z AI, wykonując podstawowe prace. Niektórzy nie zetkną się z nią w ogóle. - Jednak pod koniec przyszłego roku będzie to dość znaczna penetracja naszej gospodarki - wskazuje pracownik OpenAI, zakładając dalszy rozwój sztucznej inteligencji.
AI a inteligencja człowieka
Patrycjusz Wyżga poruszył też temat nurtujący wiele osób. Czy na pewnym etapie sztuczna inteligencja może być mądrzejsza od człowieka? - Nie wiem, czy da się odpowiedzieć na to pytanie. Czym jest inteligencja? Dajemy pewne testy ludziom i mówimy, że to twój iloraz inteligencji. Możemy je dać modelom i one pewnie sobie dobrze na nich poradzą. Czy to jest jednak inteligencja? Trudno powiedzieć - mów prof. Mądry.
W programie nawiązano też do Stephena Hawkinga, który sugerował, aby ludzkość odpowiednio przygotowała się i zabezpieczyła do rozwoju sztucznej inteligencji. - Przyglądamy się z dużą wagą do zagrożeń - mówi prof. Mądry, który w OpenAI zbudował zespół, który stara się zrozumieć zagrożenia związane ze sztuczną inteligencją.
- Pisaliśmy nie tylko czarne scenariusze w zespole aby sprawdzić, na ile są realne. Wyobraźmy sobie najgorszy scenariusz, że osoba ze złymi intencjami przejmuje OpenAI i ma dostęp do wszystkich modeli. Chce zrobić coś niebezpiecznego i włamać się do infrastruktury krytycznej. Naszym zadaniem jest zrozumienie, czy jest to realne. Naszym zadaniem jest stworzyć zabezpieczenia, które będą w stanie wytrzymać zainteresowanie takiej osoby - dodaje polski uczony.
Zdaniem prof. Mądrego, sztuczna inteligencja zapewnia człowiekowi wiele zysków, ale tworzy też szeroki wachlarz zagrożeń. Ktoś może próbować wykorzystać ją do stworzenia broni biologicznej albo propagandy. - Jest ekstremalna wersja, jeśli dojdziemy do "Asi", że modele sztucznej inteligencji staną się samoświadome i może nie będziemy w stanie ich kontrolować. To one będą decydować o tym, co robią - kontynuuje profesor MIT.
Rozwoju sztucznej inteligencji nie da się jednak wyhamować. - Po raz pierwszy będziemy mieć relację z gatunkiem, który w pewnym sensie jest w czymś lepszy od nas - przestrzega gość Patrycjusza Wyżgi.