Deepfake nie pomógł Rosjanom. Tak próbowali oszukać Ukraińców
Rosjanie chcieli wmówić Ukraińcom, że ich głowa państwa ogłosiła kapitulację. W tym celu, z wykorzystaniem technologii deepfake, stworzyli film, na którym rzekomo miał przemawiać Wołodymyr Zełenski. Głowa prezydenta Ukrainy okazała się zbyt duża względem reszty ciała. Jest też inaczej oświetlona i umieszczona pod złym kątem. Dlatego łatwo odgadnąć, iż to fikcyjne nagranie.
Rosjanie wpadli na pomysł, iż z wykorzystaniem aplikacji Deepfake spreparują wideo, za sprawą którego wmawiać będą Ukraińcom, że prezydent kraju ogłosił kapitulację. - Okazało, że nie jest tak łatwo być prezydentem - mówi na nagraniu postać, którą ma być Wołodymyr Zełenski.
W dalszej części "orędzia" można usłyszeć, iż Zełenski postanowił "zwrócić Donbas" Rosji, a wysiłki ukraińskiej armii "zawiodły". - Moją radą dla was jest złożenie broni i powrót do swoich rodzin. Nie warto umierać w tej wojnie. Moja rada dla was jest taka - przeżyjcie. Ja wybieram to samo - takimi słowami kończy się wypowiedź.
Tyle że w "orędziu" nie przemawia Wołodymyr Zełenski i łatwo to dostrzec. Rosjanie stworzyli nagranie przy pomocy techniki deepfake.
Trwa ładowanie wpisu: twitter
Wojna w Ukrainie. Czym jest deepfake?
Deepfake to technika obróbki zdjęcia lub filmu, która polega na łączeniu obrazów twarzy ludzkich przy użyciu technik sztucznej inteligencji. "Problem" w tym, że Rosjanie do stworzenia sfabrykowanego nagrania nie przyłożyli się zbyt starannie. W efekcie głowa Zełenskiego jest zbyt duża względem reszty ciała, do którego została cyfrowo przymocowana.
Co więcej, głowa Zełenskiego jest inaczej oświetlona niż reszta postaci. Została też umieszczona pod złym kątem. Na dobrej jakości ekranie da się dostrzec pikselozę na twarzy prezydenta Ukrainy, podczas gdy podobnego zjawiska nie doświadczymy na pozostałej części ciała.
Rosyjska dziennikarka protestuje przeciwko wojnie. "Nie sądzę, że to jest jakaś ustawka"
Jeden z ekspertów pracujących dla brytyjskiego Sky News ocenił też głos Zełenskiego, jaki możemy usłyszeć na nagraniu. W jego opinii jest on głębszy i wolniejszy niż w przypadku rzeczywistego prezydenta Ukrainy.
Rosjanie w środę dokonali też ataku hakerskiego na telewizję Ukraina 24. Wyświetlono w niej pasek informacyjny, który głosił, iż Zełenski ogłosił kapitulację i wezwał żołnierzy do złożenia broni. Prezydent Ukrainy natychmiast zareagował i opublikował w mediach społecznościowych film, w którym wszystkiemu zaprzeczył.
- My jesteśmy w domu. Bronimy swoich dzieci, swoich rodzin. Żadnej broni nie zamierzamy składać aż do naszego zwycięstwa - przekazał Zełenski i podkreślił, że "broń mogą złożyć tylko Rosjanie".
Trwa ładowanie wpisu: facebook
Co ciekawe, Ukraińskie Centrum Komunikacji Strategicznej i Bezpieczeństwa już na początku miesiąca ostrzegało, że Rosjanie mogą próbować wykorzystać technologię deepfake, aby stworzyć film z Wołodymyrem Zełenskim. W tym celu wydano nawet ostrzeżenie adresowane do Ukraińców.
"Wyobraźcie sobie, że widzicie w telewizji Wołodymyra Zełenskiego, który składa oświadczenie o poddaniu się. Widzicie go, słyszycie go, więc to prawda. Jednak to nie jest prawda. To technologia deepfake. To nie będzie prawdziwy film, ale stworzony z wykorzystaniem specjalnych algorytmów sztucznej inteligencji" - napisano wówczas w ostrzeżeniu do narodu ukraińskiego.
Czytaj też:
WP Wiadomości na:
Wyłączono komentarze
Jako redakcja Wirtualnej Polski doceniamy zaangażowanie naszych czytelników w komentarzach. Jednak niektóre tematy wywołują komentarze wykraczające poza granice kulturalnej dyskusji. Dbając o jej jakość, zdecydowaliśmy się wyłączyć sekcję komentarzy pod tym artykułem.
Redakcja Wirtualnej Polski