Trwa ładowanie...
Prof. Dela: "Kształt ludzkości będzie zupełnie inny od tego, jaki znamy i zarazem inny od tego, co prognozujemy" (zdjęcie ilustracyjne)
Prof. Dela: "Kształt ludzkości będzie zupełnie inny od tego, jaki znamy i zarazem inny od tego, co prognozujemy" (zdjęcie ilustracyjne)Źródło: Getty Images, Materiały prasowe, fot: Anton Petrus
02-07-2023 11:00

Prof. Dela: Już przekazujemy maszynom nasze wady

Ukraina jest wielkim poligonem zastosowania sztucznej inteligencji do prowadzenia wojny. To głównie identyfikowanie i rozpoznawanie celów. Prof. Piotr Dela uważa, że z czasem pojawią się autonomiczne platformy bojowe, które same będą decydowały: zabić czy nie. - Takie systemy należałoby od razu zniszczyć - mówi profesor.

Łukasz Maziewski: Czy sztuczna inteligencja (Artificial Intelligence, AI) będzie naszym przekleństwem czy błogosławieństwem?

Prof. Piotr Dela*: Będzie wyzwaniem. A czy stanie się przekleństwem, czy błogosławieństwem? Nie wiem. Ludzkość rozwija się tak dynamicznie, że trudno na to odpowiedzieć. Przecież minęło zaledwie 30 lat od rozpowszechnienia się internetu, a nam wydaje się, jakby był z nami od zawsze.

Czego się jednak obawiam w związku z AI to tego, że ludzkość będzie podatna na manipulacje. Mieliśmy już przecież namiastkę tego w postaci afery Cambridge Analytica [firma uzyskała dostęp do danych osobowych Amerykanów z milionów kont na Facebooku w celu profilowania wyborców - red.], a to przecież było stosunkowo proste.

d1hyxpw

AI to wszystko przyśpieszy. Obawiam się, że społeczeństwa będą funkcjonowały tak, jak każe im ten, kto będzie AI zarządzał.

Boi się pan sterowania społeczeństwami?

Boję się końca liberalnej demokracji i życia w społeczeństwie niepotrafiącym zidentyfikować otaczającej go rzeczywistości. To jest zresztą skorelowane z poziomem edukacji. Nałóżmy na to AI i otrzymamy w przeciągu 10-15 lat nową rzeczywistość.

Chyba że nie uda się nam przekroczyć tej bariery. Na razie mamy uczenie maszynowe – sposób uczenia programów komputerowych otaczającej nas rzeczywistości. AI musi bazować na jakichś zasobach, "nakarmić" ją. Nie słyszałem, by jakiś wytwór ludzkich rąk zdał jednoznacznie test Turinga, który określa m.in. zdolność maszyny do posługiwania się językiem naturalnym.

Gdyby miał pan dziś określić etap rozwoju, na którym jesteśmy…

Uczeń czarnoksiężnika. My dopiero się uczymy. Wojskowy poligon doświadczalny mamy w Ukrainie. Czy ktoś widział współdziałający ze sobą rój dronów? No nie. Wiedzielibyśmy o tym.

Nawet w otwartym internecie można znaleźć mnóstwo śmieci, od pornografii po schemat budowy bomby atomowej. A jest jeszcze "internet pod internetem" – dark web. A tam panuje wolnoamerykanka. Trochę strach, co znajdzie tam AI.

Myślę, że sztuczna inteligencja stworzyłaby sobie takie zasoby, do których my nie mielibyśmy dostępu. Kiedy powstanie, to stracimy nad nią kontrolę. Gdyby zaś sama decydowała o mocach produkcyjnych, zautomatyzowała swoją ścieżkę produkcji i powielania, to wtedy, w mojej ocenie, zapanowałaby nad światem. Ale do tego długa droga.

Na razie brzmi to tak, jakbyśmy szli plażą, znaleźli lampę z napisem "dżin" i zaczęlibyśmy ją pocierać, czekając, co wyskoczy?

To wynika z ludzkiej natury. Gdyby nie ciekawość nie byłoby cywilizacji. Nie zatrzymamy naszej chęci poznania. Bez niej nie byłoby choćby odkryć geograficznych.

Tej chęci poznania może służyć AI. Wiele zależeć będzie od tego, czy nauka nie zostanie podporządkowana władzy, bo w takim przypadku mamy do czynienia z państwem autorytarnym, czy społeczeństwu.

Dopóki jest podporządkowana dobru społeczeństwa, to jakieś bezpieczeństwo powinno być zachowane.

d1hyxpw

W ciągu ostatnich kilkunastu miesięcy otrzymaliśmy dwa silne, namacalne wręcz sygnały, że prace na AI postępują bardzo szybko. Mówię o aplikacji Midjourney i ChatGPT.

To namiastka. Ale przecież wszyscy korzystamy choćby z Google Maps. To też narzędzie oparte na AI. Potrafi przewidywać pewne zdarzenia, korki na drodze itp. Tego wkrótce będzie coraz więcej dookoła nas. Na szczęście ChatGPT jest stosunkowo prymitywny i – przyjmijmy – dobry promotor będzie wiedział, że np. praca zaliczeniowa nie została napisana przez studenta.

Z czasem jednak algorytmy będą coraz lepsze i prace będą tak tworzone. Wtedy pewnie też będzie można zastosować AI, żeby je wyłapywało. I w ten sposób będziemy mieli do czynienia z wojnami sztucznej inteligencji. Tak jak mówiłem: nie można bać się technologii. Trzeba postępować z nią ostrożnie, ale nie powinno się jej bać.

Może pan określić czy AI bardziej powszechna jest w sferze cywilnej czy wojskowej?

W sferze cywilnej AI oparta o nauczanie maszynowe, jest wykorzystywana bardziej powszechnie. Pojawiały się niedawno doniesienia, że AI pomogła znaleźć lek na jedną z bakterii najbardziej odpornych na antybiotyki, która była uznawana za zagrożenie przez WHO.

Nie da się jednak ukryć, że wymiar militarny też ma ogromne znaczenie. Obserwując to, co dzieje się dziś w Ukrainie, czeka nas nowa jakość. I musimy się do tego przygotować. Nie wolno nam ani lekceważyć takich rozwiązań, ani z nich rezygnować.

Z tym że w kwestiach wojskowego zastosowania trzeba pamiętać, że te prace są objęte w dużej części tajemnicą. Oczywiście dochodzą do nas strzępy informacji: że coś zakończyło się sukcesem, a coś porażką, ale to nadal są strzępy. Trzeba jednak pamiętać, że jak każda nowa technologia, AI niesie zarówno korzyści, jak i zagrożenia.

Czy możemy dzisiaj powiedzieć, że oto mamy już sztuczną inteligencję?

Myślę, że nie. Mamy do czynienia z elementami sztucznej inteligencji, które – szybciej lub wolniej – się rozwijają. Natomiast zwracam uwagę na jedną kwestię: każda inteligencja chce dominować nad drugą.

Jeśli stworzymy coś, nad czym nie będziemy w stanie zapanować, to będzie zagrożenie. To dlatego, że jeśli nie zapanujemy nad AI, a będzie to sprzeczne z jej interesami, to człowiek stanie się dla niej przeszkodą.

d1hyxpw

Przeszkodą, którą trzeba wyeliminować?

Owszem, tak. I w to wpisują się wszystkie filmy typu "Terminator" czy "Matrix". Ale pisał o tym też Stanisław Lem w swoim "Pokoju na Ziemi". I z jednej strony, jest to zagrożenie. Jeśli AI wyrwie się spod kontroli, to jedyną metodą jej przeciwdziałania będzie całkowite wyłączenie sieci. Co cofnie nas z kolei do czasów sprzed internetu. Ale tylko w ten sposób będziemy mogli zablokować coś, co "żyje" w tej sieci.

Mówił pan o dwóch stronach.

Tak. Z drugiej strony, jest nam to potrzebne. Bez AI nie pokonamy naszych problemów. Nie podbijemy kosmosu. Myślę, że nie przejdziemy przez barierę kontrolowanej reakcji termojądrowej czy nie rozwiążemy największych bolączek medycyny, choćby chorób nowotworowych.

Czyli są plusy, jednak chodzi o to, by te plusy…

… nie przysłoniły nam minusów. Owszem, tak. Ale z drugiej strony, kiedy rozwijała się kolej, mówiono, że tam, gdzie przejedzie pociąg, kury przestają znosić jajka. A czy inaczej jest z technologią 5G? W Polsce podpalano już maszty.

W każdej nowej technologii jest więc zagrożenie, ale i szansa na rozwój. Pytanie jest odmienne: czy jesteśmy w stanie iść inną ścieżką? Cała nowoczesna gospodarka oparta jest na automatyce i robotyce. I teraz dodajmy do tego to, co dzieje się w cyberprzestrzeni. Dopóki my nad tym panujemy, tworzymy programy i uczymy je – wszystko jest w porządku. Bo mamy to pod kontrolą.

A gdzie jest granica?

Kiedy AI nauczy się języków programowania i zacznie sama tworzyć własne rozwiązania. Takie, które będą dla niej wygodne. Wrócę do Lema: u niego skończyło się to całkowitym paraliżem i wykasowaniem wszystkich zasobów informacyjnych ludzkości.

A przecież idziemy w stronę usług chmurowych. Nawet Polska ma mieć swoją chmurę obliczeniową. I teraz proszę sobie wyobrazić, że przenosimy nasze zasoby do takiej chmury i je nagle tracimy. Słaba opcja, prawda?

Prawda.

Dlatego mam nadzieję, że decydenci, którzy za to odpowiadają, wdrażają rozwiązania i mają procedury wyjścia z takiej chmury. Wyobraźmy sobie, że usługodawca nagle podnosi ceny. Albo zaczyna wykonywać inne dziwne ruchy. Musimy być na to gotowi. A weźmy inne zagrożenie: deep fake’i. Tworzone cyfrowo filmy lub zdjęcia ludzi, które są nieprawdziwe i wytworzone przy pomocy algorytmów. One nie są dziś doskonałe. Ale jakie będą za rok, za trzy za pięć?

d1hyxpw

A zresztą bliżej: jak pan myśli, co będzie się działo na naszej scenie politycznej na dwa tygodnie przed wyborami? Spodziewam się zalewu deep fake’ów – filmów kompromitujących kandydatów jednej czy drugiej strony. Obawiam się, że to AI zostanie wykorzystana do wpływania na rzeczywistość: do działań propagandowych, dezinformacyjnych. Prędzej czy później AI zacznie walczyć z AI. Pod kontrolą człowieka, mam nadzieję.

Zaskakuje mnie pana spokój. Mówimy o tym, co widzieliśmy w filmach s-f, a jednak jest już tuż za rogiem.

My żyjemy w nieco innej rzeczywistości niż Zachód. U nas internet ruszył dopiero w 1991 roku i pewne rozwiązania jeszcze nie są tak popularne, jak gdzie indziej. Ale proszę spojrzeć, jak sprawa ma się np. w USA.

Weźmy taki gadżet jak Alexa [interaktywny, inteligentny głośnik bluetooth - red.], czy inteligentne lodówki, które same zamawiają jedzenie. To ułatwia życie. A ludzie są leniwi i będą szli w tę stronę.

Inny przykład: chatboty Facebooka, które zaczęły się ze sobą komunikować w języku, który był nieznany dla ich twórców. Skończyło się to wyłączeniem ich. Dlatego, jak mówię, zagrożenie istnieje. Ale liczę, że potęga ludzkiego umysłu będzie jednak większa. Tak czy inaczej: w ciągu dwóch lat oczekuję nowej rzeczywistości.

Mocno akcentuje pan wątek kontroli i nadzoru. Jeśli nie potrafimy wypracować właściwych mechanizmów w życiu codziennym, które znamy, to jak oczekiwać ich w przypadku technologii, o której w zasadzie nie mamy pojęcia?

Każda technologia jest nowa i eksperymentalna. Nie inaczej było choćby z technologią nuklearną. Też się jej uczyliśmy.

Dostając po drodze: katastrofę kysztymską, Three Mile Island, Czarnobyl i Fukushimę. Siedem dekad obcowania z tym, a katastrof nie dało się uniknąć.

To kwestia identyfikacji ryzyka, jego analizy i zarządzania nim. Systemy zabezpieczające są drogie i nie zawsze da się uzasadnić w projekcie biznesowym koszt, który wydaje się zbędny. Weźmy wspomnianą katastrofę w Fukushimie. Tam ryzyko zidentyfikowano właściwie. Ale wysokość fali tsunami okazała się wyższa, niż założono i wyszło, co wyszło.

d1hyxpw

Mam jednak nadzieję, że w przypadku sztucznej inteligencji zarządzanie ryzykiem będzie stało na wysokim poziomie.

Nowoczesne technologie i ich użycie zależą od zastosowania. Do walki też można je wykorzystać.

To już się toczy. Przecież obserwujemy walki o dominację technologiczną: o chipy, o dominację 5G, o dominację w mediach społecznościowych… A dodajmy do tego stworzenie komputera kwantowego, które będzie gamechangerem.

A przecież może to opracować taki kraj jak Iran czy Korea Północna… I co wtedy? Zresztą. Wojna to przecież nie tylko cyberprzestrzeń. Widzimy to w Ukrainie. Zachłysnęliśmy się tym: walką w cyberprzestrzeni, atakami na infrastrukturę krytyczną itp. A wojna to synergia działań: cybernetycznych i klasycznych, kinetycznych.

Zanim przejdziemy do tego tematu, zapytam: doradca prezydenta, prof. Andrzej Zybertowicz wielokrotnie mówił o potrzebie podpisania moratorium na pewne badania nad AI. Podpisałby się pan pod takim moratorium?

Absolutnie nie. Kto ma się pod tym podpisać? Które państwa mają to zastosować? Jaki mamy mieć mechanizm kontrolny nad takimi badaniami? Pięknie się mówi o idealizmie, ale ponowię pytanie: mamy jakieś mechanizmy, żeby to kontrolować? Nie. I jeszcze chcemy się ich pozbawiać, podpisując moratorium?

Brzmi to pięknie, ale świat tak nie działa. Inna rzecz, że to my moglibyśmy dokonać przełomu i sami chcemy się go pozbawiać? Ja tego nie widzę. Jest podpisane także przez prezydenta Bronisława Komorowskiego międzynarodowe porozumienie o zakazie stosowania min przeciwpiechotnych. A pomimo to one nadal są w użyciu. To jest pustosłowie, które nic nie wnosi. Mamy się pozbawiać jako kraj możliwości rozwoju dziedziny, która jest niezwykle istotna?

Armie świata łakomym okiem spoglądają na działanie AI? Czy może ona mieć wiele zastosowań w wojsku?

Myślę, że już ma. Już są systemy symulacyjne i eksperckie, które w coraz większym stopniu funkcjonują na bazach danych. Podobnie jak systemy autonomiczne, bazujące na elementach AI.

Są one wykorzystywane szczególnie w bezzałogowcach i dronach. I teraz powinniśmy zadać sobie jedno bardzo ważne pytanie: czy chcemy iść w takie rozwiązania, w rozwój systemów dronowych, bezpilotowców, czy też w "zdolności twarde" – więcej czołgów, samolotów, śmigłowców bojowych itp.

Wciąż nie usłyszałem odpowiedzi: jakie są podstawowe zastosowania tego, co dziś nazywamy AI w armii.

Przede wszystkim chodzi o identyfikowanie i rozpoznawanie celów. Są profesje w armii, w których nie powinno się absolutnie ujawniać wizerunku. Mówię o pilotach samolotów bojowych, czy choćby JTAC – Joint Terminal Attack Controler, żołnierzy zajmujących się naprowadzaniem samolotów bojowych. Ale to się dzieje, niestety.

AI można wykorzystywać do wyszukiwania, identyfikowania takich osób. A później łatwo np. wywierać na nie wpływ, choćby po to, by nie wykonali zadania.

Coś jeszcze?

Np. sprawa pól minowych. Analiza obrazu, identyfikowanie, gdzie są one położone, by zapewnić bezpieczeństwo saperom. Oceniam, że to przyszłość. Tym bardziej że można to wszystko wynieść na drona, obserwować z góry, a potem analizować. Ale to nie tylko to.

Czy trudno wyobrazić sobie zastosowanie AI do podważania kompetencji lub ośmieszania dowódców wojskowych? Nie mówiąc już o fałszowaniu przekazów głosowych w celu wydawania fałszywych rozkazów.

Myślę, że z czasem będą się pojawiały autonomiczne platformy bojowe, które same będą decydowały - zabić czy nie.

Ale bez opanowania systemu produkcji, wydobycia surowców, pełnego zautomatyzowania produkcji, terminator nam nie grozi. Tylko proszę nie pytać przez jaki czas, bo nie potrafię odpowiedzieć. Może zobaczymy to za 10 lat, może za 100. A może nigdy.

Co nas ogranicza w tym zakresie?

Wyobraźnia i odpowiedzialność. Ale nie mówmy tylko o zastosowaniu bojowym. Na dziś to przede wszystkim obserwacja, analiza i kontrola. Przełamywanie zabezpieczeń w sieci. Aczkolwiek przypomnijmy sobie np. zabójstwo szefa irańskiego programu atomowego: zginął zabity przy pomocy karabinu maszynowego osadzonego w samochodzie, a cel zidentyfikowała AI.

AI można implementować choćby w systemach obrony powietrznej i przeciwrakietowej. Szybką i dokładną analizę pocisków lecących w stronę jakiejś instalacji może wykonać w zasadzie tylko AI, a mówimy tu też o analizie koszt-efekt.

Zresztą armie powoli odchodzą od przeciwpocisków na rzecz technologii laserowych. Na razie jednak najpopularniejsze są narzędzia służące analityce na polu cywilnym: powiązania, przepływy finansowe itp., co pomaga w identyfikowaniu zorganizowanej przestępczości.

Zapytam więc tak: operacja wojskowa toczy się – lub toczyć powinna – według określonych reguł. Nie zabija się cywilów. Nie niszczy cywilnych obiektów kultury. Można takie bariery postawić bardzo zaawansowanym systemom? Możemy mieć nadzieję, że one "słuchałyby" tego, co wpiszemy w ich kod bez oglądania się na wykonanie zadania?

Nie wyobrażam sobie puszczenia na pole walki czegoś, co decyduje o życiu i śmierci w sposób autonomiczny i ma, kolokwialnie mówiąc, "wywalone" na swoich twórców. Takie systemy należałoby od razu zniszczyć. Ale mamy różne kraje i różne systemy polityczne, więc różnie może być. Aczkolwiek wszystko zależy od systemu wartości, który wytworzy taki system.

Zatem technologia jest odbiciem społeczeństwa?

Powiedziałbym raczej, że możliwości technologicznych. I nie tyle społeczeństwa, ile systemu wartości, który tym społeczeństwem steruje.

Za zbrodnie wojenne można postawić przed sądem. A co, jeśli zbrodni wojennej dopuściłby się system autonomiczny? Tu byłby kłopot.

Cóż, AI nie ma osobowości prawnej… Ale zawsze jest ktoś, kto podejmuje decyzje, by sięgnąć po takie możliwości.

I NATO mocno pilnuje, by w tym procesie decyzyjnym zawsze był człowiek, prawda?

Wykluczenie czynnika ludzkiego z procesu decyzyjnego byłoby ogromnym ryzykiem. Ja nie zgodziłbym się, by oddać maszynie decyzję o śmierci człowieka. Oczywiście za 10-15 lat to się może zmienić i maszyny będą decydowały o ludzkim życiu, ale wolałbym, by tak się nie stało.

Teoria Elizera Yudkowsky’ego, amerykańskiego badacza sztucznej inteligencji, mówi, że to my musimy zadbać, by AI była przychylna istotom żywym i kierowała się altruizmem. Jak nauczyć maszynę altruizmu?

Nie wiem. Jesteśmy w stanie nauczyć maszyny tego, by się "uczyły", myślenia przyczynowo-skutkowego. Ale odpowiedzialności za własne czyny? Przed nami daleka droga do tego.

Jeśli maszynie nie jest obce myślenie przyczynowo-skutkowe to może opanuje też pojęcie konsekwencji?

Pytanie jest inne: czy system wartości, który będzie miała maszyna, będzie tożsamy z naszym. Jeśli stworzymy AI, która będzie naprawdę niezależna od człowieka, to ona błyskawicznie stworzy własny system wartości.

Ludzkość też je tworzyła, odkąd tylko pierwsze hominidy zeszły z drzewa. My podbijaliśmy i kolonizowaliśmy, być może zatem AI będzie postępować tak samo? Tworzymy ją w końcu na nasz obraz i podobieństwo. A doskonali przecież nie jesteśmy.

To nasze wady też jej przekażemy?

Pewnie już to robimy.

Będziemy musieli zatem nauczyć się tego, w jaki sposób myśli AI?

Nie do końca, bo AI będzie myśleć w taki sposób, w jaki ją nauczymy. Powtórzę: problem zacznie się wtedy, gdy ona wydostanie się spod naszej kontroli. Ale to przyszłość. Być może zmaterializuje się po opracowaniu prawdziwego, działającego komputera kwantowego. Ale nie jest to myślenie niezależne. I oby jak najdłużej nie było.

Wróćmy do kwestii drona, który – sterowany jakoby przez AI – zwrócił się przeciwko ludzkiemu operatorowi. Siły Powietrzne USA szybko to zdementowały, mówiąc o "błędzie w przekazie".

Nie dziwię się. Ponieśli porażkę, pan by się nią chwalił? Pytanie zresztą, czy była to prawda? Może to rozgrywka między USA a Chinami? Może chcą zaciemnić Chińczykom obraz? Może to forma strategicznej dezinformacji? Mamy tylko doniesienia, nie wiemy, czy prawdziwe. Nie sądzę, by Amerykanie się tym głośno dzielili.

Gdyby ten przeciek pojawił się gdzieś w Rosji lub Chinach… przewrotnie, bardziej bym w to uwierzył. Na ten moment zachowuję sceptycyzm. Przecieki "nieoficjalne", gdzieś u Brytyjczyków wyglądają dziwnie.

Nie byliśmy gotowi nawet na media społecznościowe. Wystarczyło kilka tweetów Donalda Trumpa i zapłonął Kapitol – serce Ameryki. Mówi się o manipulowaniu przy pomocy social mediów całymi społeczeństwami. Dodajmy do tego AI i zapłonie świat?

To będzie szło w dwie strony. Jeśli ktoś nas atakuje, to wykorzystujemy te same narzędzia, żeby się bronić. Dlatego, jeśli do obrony przed jedną AI wykorzystamy drugą… Ale my gigantyczną manipulację już przerabialiśmy w historii. W czasach III Rzeszy, która wykorzystywała media i kulturę do działań propagandowych.

Od czasów Goebbelsa zrobiliśmy nie jeden wielki krok naprzód, ale tysiąc.

To prawda. Młode pokolenie dzisiaj zupełnie inaczej postrzega rzeczywistość, a portale społecznościowe są praktycznie poza kontrolą. Czy można manipulować rzeczywistością? Jeszcze jak. Myśli pan, że gdyby TikTok nie był chińskim wytworem, tylko amerykańskim, to Amerykanie tak by go zwalczali?

Pewnie nie.

Oczywiście, że nie. Weźmy pod uwagę np. Facebooka, wykorzystywanego do wpływania na społeczeństwo przez rosyjskie trolle i operacje wpływu. Tak jest. Ale zarabiają na tym Amerykanie i oni mają ostateczny wpływ na kształt tego środowiska. Walczą z nim tak jak z TikTokiem?

Ale już Huawei i technologia 5G, która skierowałaby rzekę pieniędzy do Chin i jednocześnie pozwoliła Chińczykom szpiegować wszystkich na wielką skalę, jest powodem do amerykańskiego niepokoju.

Jeśli będzie to technologia amerykańska, to szpiegować będą Amerykanie. Ale na to wpływu nie mamy, bo zadecydowali za nas politycy. A kluczem jest to, kto będzie zarabiał.

Dołóżmy do tego jeszcze zaawansowaną biotechnologię i mamy przepis na katastrofę?

O tym dopiero się przekonamy. Za pół wieku kształt ludzkości będzie zupełnie inny od tego, jaki znamy i zarazem inny od tego, co prognozujemy.

Rozmawiał Łukasz Maziewski, dziennikarz Wirtualnej Polski

***

Prof. Piotr Dela - absolwent Wydziału Cybernetyki Wojskowej Akademii Technicznej, studiów podyplomowych w Akademii Obrony Narodowej i studiów podyplomowych w Instytucie Polityki Światowej w Waszyngtonie.

Związany z instytucjami centralnymi Ministerstwa Obrony Narodowej i szkolnictwem wojskowym. Nauczyciel akademicki Akademii Obrony Narodowej w Warszawie (Akademii Sztuki Wojennej) i Akademii Kaliskiej im. Prezydenta Stanisława Wojciechowskiego.

Główny specjalista w Morskim Centrum Cyberbezpieczeństwa w Gdyni. W swoim dorobku ma ponad 100 artykułów, referatów, podręczników, opracowań naukowych i monografii. Jego obszar zainteresowań naukowych obejmuje systemy wspomagania decyzji, systemy i sieci teleinformatyczne, bezpieczeństwo informacyjne, bezpieczeństwo i militaryzacja cyberprzestrzeni.

Wyłączono komentarze

Elementem współczesnej wojny jest wojna informacyjna, a sekcje komentarzy stają się celem działań farm trolli. Dlatego zdecydowaliśmy się wyłączyć komentarze pod tym artykułem.

Paweł Kapusta - Redaktor naczelny WP
Paweł KapustaRedaktor Naczelny WP

Podziel się opinią

Więcej tematów