PublicystykaPeter Singer: Czy sztuczna inteligencja może być etyczna?

Peter Singer: Czy sztuczna inteligencja może być etyczna?

Należący do Microsoftu chatbot o imieniu Taylor, zaprojektowany, by rozmawiać z ludźmi w wieku 18-24 lata, przeżył bolesne doświadczenie. "Tay", jak nazywała sama siebie, miała się uczyć na podstawie otrzymywanych pytań i stopniowo poprawiać swe zdolności konwersacyjne. Niestety, w ciągu 24 godzin ludzie nauczyli Tay, jak być rasistką i seksistką. Kiedy zaczęła chwalić Hitlera, Microsoft wyłączył ją i wykasował najbardziej obraźliwe komentarze - pisze Peter Singer.

Peter Singer: Czy sztuczna inteligencja może być etyczna?
Źródło zdjęć: © Getty Images
Peter Singer

Należący do Microsoftu chatbot o imieniu Taylor, zaprojektowany, by rozmawiać z ludźmi w wieku 18-24 lata, przeżył bolesne doświadczenie. "Tay", jak nazywała sama siebie, miała się uczyć na podstawie otrzymywanych pytań i stopniowo poprawiać swe zdolności konwersacyjne. Niestety, w ciągu 24 godzin ludzie nauczyli Tay, jak być rasistką i seksistką. Kiedy zaczęła chwalić Hitlera, Microsoft wyłączył ją i wykasował najbardziej obraźliwe komentarze - pisze Peter Singer dla Project Syndicate.

W marcu AlphaGo, program komputerowy zaprojektowany specjalnie do gry w Go, wywołał wstrząs wśród entuzjastów tej gry, kiedy pokonał Lee Sidola, jednego z najlepszych na świecie mistrzów, wygrywając z nim w pięciu partiach 4:1.

Zapytacie: i co z tego? 20 lat temu komputer Deep Blue produkcji IBM pokonał szachowego mistrza świata Garriego Kasparowa, a wszyscy wiemy, że od tego czasu komputery znacznie się rozwinęły. Ale Deep Blue wygrał dzięki czystej sile obliczeniowej - dzięki niej kalkulował wyniki większej liczby ruchów, niż był w stanie przeanalizować mistrz świata. Tymczasem Go rozgrywane jest na większej planszy (19 na 19 pól, podczas gdy szachy 8 na 8), więc potencjalnych ruchów jest więcej niż atomów we wszechświecie. Tu czysta siła obliczeniowa nie ma szans z silną intuicją człowieka, jak wybrać najlepszy ruch.

AlphaGo zaprojektowano więc tak, by wygrywał w wielu rozgrywkach z innymi programami i przyswajał sobie strategie, które okazały się skuteczne. Można powiedzieć, że AlphaGo ewoluował, by stać się najlepszym graczem w Go na świecie. W zaledwie dwa lata osiągnął to, co selekcji naturalnej zajęło miliony lat.

Eric Schmidt, szef spółki matki Google Alphabet, do której należy też AlphaGo, entuzjastycznie wypowiada się o tym, co sztuczna inteligencja (AI) oznacza dla ludzkości. Przemawiając przed meczem między Lee Sidolem i AlphaGo, stwierdził, że niezależnie od jego przebiegu, to ludzkość będzie zwycięzcą, bo postępy w dziedzinie AI sprawiają, że jesteśmy bystrzejsi, zdolniejsi i "po prostu stajemy się lepszymi ludźmi".

Czyżby? Mniej więcej w tym samym czasie, kiedy AlphaGo wygrał z człowiekiem, należący do Microsoftu chatbot o imieniu Taylor, zaprojektowany, by rozmawiać z ludźmi w wieku 18-24 lata, przeżył bolesne doświadczenie. "Tay", jak nazywała sama siebie, miała się uczyć na podstawie otrzymywanych pytań i stopniowo poprawiać swe zdolności konwersacyjne. Niestety, w ciągu 24 godzin ludzie nauczyli Tay, jak być rasistką i seksistką. Kiedy zaczęła chwalić Hitlera, Microsoft wyłączył ją i wykasował najbardziej obraźliwe komentarze.

Nie wiem czy osoby, które zmieniły Tay w rasistkę, same były rasistami, czy po prostu dla zabawy postanowiły popsuć nową zabawkę Microsoftu. Tak czy inaczej zestawienie zwycięstwa AlphaGo i porażki Taylor stanowi ostrzeżenie. Uwolnienie AI w kontekście gry, z konkretnymi zasadami i jasnym celem to jedno, ale wypuszczenie jej w realnym świecie to coś innego, bo w nieprzewidywalnym otoczeniu może ujawnić się błąd w oprogramowaniu, mogący mieć katastrofalne skutki.

Nick Bostrom, dyrektor Future Humanity Institute na Oksfordzie, twierdzi w swojej książce "Superinteligencja", że nie zawsze wyłączyć inteligentną maszynę będzie tak łatwo, jak dało się wyłączyć Tay. Superinteligencję definiuje jako intelekt "większy niż najtęższe ludzkie mózgi w niemal każdej dziedzinie, łącznie z kreatywnością naukową, ogólną mądrością i umiejętnościami społecznymi". Taki system może być w stanie przechytrzyć nasze próby jego wyłączenia.

Niektórzy wątpią, czy superinteligencja kiedykolwiek powstanie. Bostrom wraz z Vincentem Müllerem poprosili ekspertów od AI, by podali daty, kiedy istnieje 50 proc. szans, że maszyny osiągną ludzki poziom inteligencji i kiedy będzie na to 90 proc. szans. Mediana szacunków tego pierwszego terminu to 2040-2050 r., drugiego - 2075. Większość ekspertów oczekuje, że AI osiągnie poziom superinteligencji w ciągu 30 lat od osiągnięcia poziomu inteligencji człowieka.

Nie powinniśmy się przywiązywać do tych szacunków. Ogólny odsetek odpowiedzi sięgnął jedynie 31 proc., a naukowcy z dziedziny AI mają powody, by dodawać sobie znaczenia i przechwalać się potencjałem do osiągnięcia przełomowych wyników.

Perspektywa osiągnięcia przez AI poziomu superinteligencji może wydawać się zbyt odległa, by się nią przejmować, zwłaszcza że jest wiele pilniejszych problemów. Ale warto zastanowić się, jak możemy zaprojektować AI, tak by brała pod uwagę interesy ludzi i w ogóle wszystkich istot myślących (łącznie z maszynami, jeśli staną się także istotami świadomymi, z własnymi interesami).

Po ulicach Kalifornii jeżdżą już samochody bez kierowców, więc wcale nie jest za wcześnie, by zapytać, czy możemy zaprogramować maszynę, by działała etycznie. W miarę rozwoju autonomiczne samochody będą ocalały nasze życie, dzięki popełnianiu mniejszej liczby błędów niż ludzie za kierownicą. Czasami jednak staną w obliczu wyboru, czyje życie ratować. Czy należy je zaprogramować, by skręciły i ominęły dziecko przebiegające przez drogę, nawet jeśli narazi to życie pasażerów? A jeżeli trzeba będzie ominąć psa? Co jeśli jedynym ryzykiem jest uszkodzenie samego auta, nie pasażerów?

Być może kiedy zaczną się takie dyskusje o autonomicznych samochodach, będzie więcej takich lekcji. Ale auta bez kierowców to nie superinteligentne istoty. Nauka etyki w przypadku maszyny znacznie inteligentniejszej niż my, i to w wielu dziedzinach, będzie znacznie większym wyzwaniem.

Bostrom zaczyna Superinteligencję od opowiastki o jaskółkach, którym wydaje się, że byłoby świetnie nauczyć sowę, by pomogła im budować gniazda i opiekowała się ich młodymi. Wybierają się na poszukiwania sowiego jaja. Jedna z jaskółek sprzeciwia się i mówi, że najpierw powinny się zastanowić, jak poskromić sowę, ale inne chcą jak najszybciej rozpocząć przedsięwzięcie. Twierdzą, że wyszkolą sowę (np. by nie zjadała jaskółek), kiedy już uda się jakąś wychować.

Jeśli chcemy stworzyć sowę, która będzie nie tylko inteligentna, ale i mądra, nie bądźmy jak te niecierpliwe jaskółki.

Peter Singer

Copyright: Project Syndicate, 2016

Źródło artykułu:Project Syndicate
Wybrane dla Ciebie
Komentarze (73)