Niebezpieczne zabawy z deepfake’ami [OPINIA]

Deepfake to niebezpieczna broń, której odbezpieczenie i znormalizowanie może mieć dramatyczne skutki. Ten, kto użył jej jako pierwszy w debacie politycznej, powinien mieć świadomość własnej odpowiedzialności za nieobliczalne skutki jakie może to wywołać.

Donald Tusk w Senacie
Donald Tusk w Senacie
Źródło zdjęć: © East News | Andrzej Iwanczuk/REPORTER
Tomasz P. Terlikowski

25.08.2023 | aktual.: 04.10.2023 10:53

Tekst powstał w ramach projektu WP Opinie. Przedstawiamy w nim zróżnicowane spojrzenia komentatorów i liderów opinii publicznej na kluczowe sprawy społeczne i polityczne.

Polityka, tak jak technika, potrzebuje etyki, by pozostać przestrzenią działania ludzkiego. To, że coś jest możliwe, a nawet skuteczne, wcale nie oznacza, że powinno być zastosowane czy użyte.

Cel, to stara zasada, nie uświęca środków, a osoby, które jako pierwsze decydują się na zastosowanie pewnych technik, powinny rozważyć nie tylko ich bezpośrednie skutki, ale także, to jak ich działania mogą skutkować długofalowo. I tak właśnie jest z zastosowaniem przez Platformę Obywatelską - po raz pierwszy w naszym życiu politycznymi - sztucznie wygenerowanego głosu polityka, i to nie oznaczonego, do tego, by wzmocnić własny przekaz wyborczy.

Dalsza część artykułu pod materiałem wideo

Przekroczenie granicy

To przekroczenie granicy, która - choć na tym etapie nie jest jeszcze skodyfikowana prawnie, nie powinna być przekroczona. I otwarcie puszki Pandory, w której - nikt nie ma nawet świadomości - co może się ukrywać.

Jeśli brać pod uwagę krótkie terminy, to oczywiście działanie to Platformie Obywatelskiej może się opłacać. Polskie i unijne prawo - choć to niebawem ma się zmienić - nie nakazuje jeszcze oznaczania treści wygenerowanych za pomocą sztucznej inteligencji. Można więc bezkarnie wykonać deepfake i wykorzystać go w propagandzie politycznej.

W tym przypadku zaś ma to także tę pozytywną - z perspektywy PO - stronę, że pozwala o wiele mocniej skontrastować oficjalne i nieoficjalne wypowiedzi premiera Mateusza Morawieckiego. Odbiorcy inaczej przyjmowaliby zestawienie ze sobą treści wypowiedzianych przez premiera z tymi, które zostały po prostu odczytane z napisanych przez niego maili (choć strona rządowa nigdy tego nie potwierdziła, to jak się zdaje możemy przyjąć, że tak właśnie było) przez innego lektora. To nie dałoby takiego efektu. I dlatego, gdyby rzeczywistość nie miała wymiaru etycznego, można by powiedzieć, że PO skutecznie zagrała atutami, które miała.

Tyle tylko że tego typu działanie, bez najmniejszego oznaczenia, oznacza - ni mniej, ni więcej - tylko wejście na równię pochyłą, z której nie ma bezpiecznego zejścia i którego skutków nie da się przewidzieć.

Wykorzystają rzekome słowa Tuska?

Jako filozof mam oczywiście świadomość, że argument z "równi pochyłej" jest intelektualnie najsłabszy, ale… jednocześnie jako dziennikarz mam świadomość, że zaskakująco często się on sprawdza. I dlatego proponuje wszystkim krótkie ćwiczenie z wyobraźni, do czego to jeszcze może posłużyć technika, którą PO zastosowało.

W nieco zapomnianej już książce Janusza Palikota "Kulisy Platformy" jest wiele rzekomych lub prawdziwych słów Donalda Tuska, które sztuczna inteligencja może spokojnie tak przetworzyć, by uchodziły one za prawdziwe. A skoro nie ma konieczności ich oznaczania jako sztucznie wygenerowanych, to niebawem możemy usłyszeć sztucznie generowany głos Tuska, który przekonuje, że "od zawsze nienawidzi kleru", że "po tych pięciu latach ja jakimś wielkim fanem Kościoła katolickiego to nie jestem".

Można nawet wygenerować całą rozmowę między Palikotem a Tuskiem, w której ten ostatni pyta, czy oby na pewno "nienawidzi kleru". Czy to byłoby pójście krok dalej niż PO, użyto by nie tyle słów zapisanych w nieoficjalnych i ujawnionych pozaprawnie mailach, a jedynie przypisanych? Tak, byłoby, ale… doświadczenie dziennikarskie uczy mnie, że gdy coś zostanie już użyte, to, ci którzy stosują to jako drudzy, zawsze o krok czy dwa przekraczają wyznaczone granice.

Tak było z Trybunałem Konstytucyjnym, przy którym majstrować zaczęła Platforma Obywatelska, a PiS doprowadził go do ostatecznych granic. Gdy pojawiają się jakiekolwiek zarzuty wobec referendum jakie szykuje PiS, nieodmiennie słyszymy, że przecież Bronisław Komorowski chciał zrobić to samo.

Kolejne przekraczanie granicy

Co może być kolejnym krokiem? Nie chciałbym być doradcą nikogo, ale - warto zauważyć, że PiS - czego przykładem jest wyprodukowany przez TVP serial "Reset" - od dawna gra zdjęciami i obrazami ze spotkania Putina i Tuska na molo w Sopocie. I naprawdę nie trzeba mieć wielkiej wyobraźni, by przyjąć, że można sztucznie wygenerować treść takiej rozmowy (w formie jaką od dawna sugeruje PiS). Czy to by było gigantyczne przekroczenie jakichkolwiek norm? Tak.

Czy można by powiedzieć, że to o wiele gorsze, niż to, co zrobiła Platforma? Oczywiście, że tak. Tyle, że w plemiennej polityce, która nieustannie sięga po argumenty apokaliptyczne, każde kolejne przekroczenie norm jest uzasadniane z jednej strony świętością i ostatecznością celu, a z drugiej tym, że przecież oni już zaczęli.

Jak PO mogłoby odpowiedzieć na takie - gdyby do nich doszło - działania PiS-u? I znowu nie trzeba wielkiej wyobraźni, by przyjąć, że jej PR-owcy mogliby wygenerować sztucznie głos Lecha Kaczyńskiego z samolotu w drodze do Smoleńska i włożyć w jego usta słowa, które przypisywali mu już różni politycy i eksperci, a na których wypowiedzenie nie ma żadnych dowodów. I obawiam się, że także wówczas - choć to przekraczałoby kolejne granice - znaleźliby się tacy, którzy by to usprawiedliwili, przekonując, że PiS trzeba zatrzymać, że oni też robili straszne rzeczy, i że jedyne, co robią, to uświadamiają hipokryzję i fałsz władzy.

Tę listę możliwych kolejnych kroków w eskalowaniu wykorzystania AI w marketingu politycznym można ciągnąć jeszcze długo, i zapewniam, że nie trzeba wielkiej wyobraźni, by uświadomić sobie, co może być dalej. Ale poza - jak sądzę - realistycznie zarysowaną wizją "równi pochyłej", są jeszcze argumenty etyczne i filozoficzne przeciwko takim działaniom. I o nich też warto pomyśleć.

Deepfake nie tylko w polityce

Wykorzystanie i normalizacja deepfake’ów w debacie politycznej otwiera drogę do wykorzystania ich w mediach, w życiu prywatnym, w sporach między rozwodzącymi się małżonkami itd., a rozwój tej techniki sprawia, że coraz trudniej będzie odróżnić, co jest realne, a co wytworzone sztucznie.

Efekt? Kłamstwo, fałsz, pomówienie i niesłuszne oskarżenie uzyska wirtualny dowód na swoją prawdziwość. Prawda i fałsz będą już - także w wymiarze wypowiedzi, obrazów - nie do odróżnienia. Każdą wypowiedź będzie można przypisać każdemu, każdego będzie można skompromitować przy pomocy wygenerowanych sztucznie wypowiedzi czy obrazów, a możliwości obrony będą niemal żadne. Coraz trudniejsze będzie też odróżnienie treści prawdziwych od sztucznie wygenerowanych w przestrzeni wiedzy i nauki. Matrix stanie się rzeczywistością.

Oczywiście, o czym też trzeba pamiętać, Unia Europejska powoli zaczyna te sprawy regulować, i wiele wskazuje na to, że regulacje te wejdą w życie niebawem także w Polsce. Oznaczanie takich treści będzie więc konieczne, a brak oznaczeń karalny. Istnienie deepfake sprawi też, że zaczną powstawać programy ujawniające fałszerstwa. I jedno, i drugie nie będzie jednak w stanie dać nam pewności, że obcujemy z "adekwatnie przedstawioną rzeczywistością", bo po pierwsze, internet jest przestrzenią globalną, a fałszywki wrzucać można nie za pośrednictwem własnej strony, ale podstawionych farm trolli czy kont wygenerowanych w krajach, gdzie pewne prawa obowiązywać nie będą.

Wielkiej nadziei nie daje także fakt, że tam, gdzie rozwijać się będą sztucznie generowane treści, powstaną także instrumenty do ich ujawnienia. Dlaczego i tu jestem pesymistą? Bo te ostatnie będą zawsze o krok w tyle za twórcami narzędzi do tworzenia alternatywnych rzeczywistości.

Platforma Obywatelska sięgając po to narzędzie, powinna mieć świadomość skutków, do jakich może doprowadzić normalizacja pewnych działań nie tylko w polskiej polityce. Oczywiście to nie oznacza, że będzie ona za nie bezpośrednio odpowiadała, ale bez wątpienia to na niej będzie spoczywała odpowiedzialność za uczynienie pierwszego kroku na drodze zatarcia granic między prawdą a deepfake’iem.

Dlatego warto, by politycy, zrezygnowali z tego narzędzia. Dopóki to jest jeszcze możliwe i dopóki nie przekroczono kolejnych granic.

Tomasz P. Terlikowski jest doktorem filozofii, pisarzem, publicystą RMF FM

Wybrane dla Ciebie
Komentarze (702)