Trwa ładowanie...

Wydali oświadczenie. Eksperci ostrzegają przed sztuczną inteligencją

Setki ekspertów podpisały się pod oświadczeniem, w którym ostrzegają, że sztuczna inteligencja (AI) może doprowadzić do zniszczenia ludzkości. Ryzyko takie powinno być traktowane równie poważnie, jak zagrożenie wojną nuklearną - głosi komunikat cytowany w środę przez "USA Today".

Amerykańscy eksperci ostrzegają przed sztuczną inteligencjąAmerykańscy eksperci ostrzegają przed sztuczną inteligencjąŹródło: East News, fot: Sanctuary AI
d42iop9
d42iop9

Oświadczenie ekspertów opublikowała organizacja pozarządowa Centrum na Rzecz Bezpieczeństwa AI (CAIS), która poinformowała, że zrobiła to, aby skłonić specjalistów, dziennikarzy i polityków do zainicjowania szerokiej społecznej debaty na temat ryzyka związanego z bardzo szybkim rozwojem AI.

Wśród 350 sygnatariuszy komunikatu jest między innymi Geoffrey Hinton nazywany "ojcem chrzestnym sztucznej inteligencji", który odszedł z Google'a, by swobodnie ostrzegać przed zagrożeniami związanymi z AI oraz Sam Altman - dyrektor wykonawczy firmy OpenAI, która jest twórcą popularnego chatbota ChatGPT, a także menedżerowie najsłynniejszych spółek specjalizujących się w AI, jak Google, DeepMind, Microsoft czy Anthropic.

"Sądzę, że jeżeli coś pójdzie źle w (rozwoju) tej technologii, to może pójść całkiem źle. (...) Chcemy współpracować z rządem, aby temu zapobiec" - powiedział niedawno Altman przed komisją Senatu USA. Wyjaśnił też, że szczególnie niepokojący jest scenariusz, w którym AI "rozwinie zdolność do autoreplikacji i wyrwie się na wolność".

Dalsza część artykułu pod materiałem wideo

Zobacz też: PiS atakuje ws. 4 czerwca. "To marsz nienawiści"

Eksperci są zaniepokojeni

Hinton ostrzega, że coraz bardziej niepokoi go błyskawiczna ewolucja technologii AI, w tym jej zdolność "rozwijania prostego rozumowania poznawczego" - relacjonuje "USA Today". Ekspert powiedział też niedawno, że najgorszy scenariusz dotyczący rozwoju AI jest realny i "całkiem możliwe jest, że ludzkość jest tylko przejściową fazą rozwoju inteligencji".

d42iop9

W pisemnym dokumencie przygotowanym przed wystąpieniem w Senacie Altman napisał, że zdaniem niezależnych ekspertów obszary, które należy nadzorować w rozwoju AI, to jej zdolność "generowania nieprawdziwych informacji", czyli tzw. halucynowania, a także dostarczenie informacji na temat broni konwencjonalnej i niekonwencjonalnej.

Jak podkreśla Hinton, to że AI może uczyć się zupełnie nieoczekiwanego zachowania ma znaczenie, ponieważ ludzie i firmy pozwalają sztucznej inteligencji nie tylko na pisanie oprogramowania, ale również na uruchamianie go, co pewnego dnia może doprowadzić do powstania autonomicznej broni.

AI jak broń jądrowa?

Wyścig między koncernami technologicznymi może przerodzić się w wyścig między państwami, którego mogą nie być w stanie kontrolować międzynarodowe regulacje, jak udało się to zrobić z bronią jądrową - uważa Hinton.

d42iop9

Jednak inni eksperci oceniają, że przesadny niepokój związany z rozwojem AI jest nieuzasadniony, ponieważ jest to "niezmiernie wyrafinowana platforma programująca, która jednak może pójść tylko tak daleko, jak pozwolą jej ludzie" - pisze "USA Today".

W wywiadzie dla "New York Timesa" z początku maja Hinton powiedział: "Myślałem, że AI stanie się bardziej inteligentna niż ludzie za 30-50 lat lub później; oczywiście teraz już tak nie sądzę".

Masz newsa, zdjęcie lub filmik? Prześlij nam przez dziejesie.wp.pl
d42iop9
Oceń jakość naszego artykułu:
Twoja opinia pozwala nam tworzyć lepsze treści.

WP Wiadomości na:

Komentarze

Trwa ładowanie
.
.
.
d42iop9
Więcej tematów