Reklama
  • WIADOMOŚCI

Nowy model oficera operacyjnego w epoce AI

Największy błąd w postrzeganiu znaczenia sztucznej inteligencji w funkcjonowaniu wywiadu polega obecnie na tym, że zbyt dużo uwagi poświęca się maszynie, która jest tylko narzędziem, a zbyt mało człowiekowi, któremu ma ona służyć. Z tej racji następuje nadmierne skupienie na modelach, algorytmach, automatyzacji, analizie danych i nowych systemach rozpoznania. Tymczasem nie stanowi to istoty problemu, gdyż rzeczywisty przełom nie dotyczy wyłącznie tego, jak AI wpłynie na efekty analizy wywiadowczej, lecz tego, jaka ma być nowa rola i jakie zadania staną przed oficerami operacyjnymi. Dlatego nasuwa się pytanie, czy nowe technologie spowodują w konsekwencji osłabienie znaczenia czynnika ludzkiego, czy paradoksalnie nastąpi wzrost jego znaczenia?

komputer klawiatrura myszka
Autor. pxhere.com/CC0

Jak pisze David Ignatius, czołowy amerykański publicysta specjalizujący się w tematyce wywiadu, w The Washington Post, współczesne środowisko operacyjne coraz bardziej przypomina przestrzeń, w której tradycyjne filary wywiadu – przykrycie i metody pracy operacyjnej – zostały podważone przez wszechobecną obserwację techniczną. Podkreśla on, że miliony kamer rejestrują ruch, dane cyfrowe są przechowywane i łączone z innymi śladami, a telefon czy konto w mediach społecznościowych ujawniają nie tylko tożsamość, ale także wzory zachowań. Co więcej, według niego nawet próba ukrycia się może sama stać się sygnałem alarmowym. Opisuje przypadek siatki agenturalnej, która korzystała z telefonów w sposób zbyt rzadki i właśnie ta „anomalia” doprowadziła do jej wykrycia przez lokalny algorytm.

Reklama

Ignatius idzie jednak dalej niż tylko opis technologicznego zagęszczenia pola operacyjnego. Pisze, że problemem nie są już wyłącznie kamery, lecz całe środowisko danych: systemy płatnicze, aplikacje mobilne, węzły Wi-Fi i wszelka technologia, która produkuje informacje „żyjące permanentnie” w systemie. W jego ujęciu klasyczne praktyki, takie jak surveillance detection routes czy budowanie pewności, że oficer jest „black”, czyli nieobserwowany, stają się znacznie trudniejsze do utrzymania. Nawet jeśli nikt nie zatrzyma oficera na gorącym uczynku, jego wcześniejsze i późniejsze ruchy mogą zostać odtworzone z zapisu danych i przeanalizowane pod kątem podejrzanych wzorców. Ignatius przywołuje też opinię byłych oficerów CIA, według których ukryte kamery i trwałość danych sprawiają, że „niezłapanie za rękę” przestaje gwarantować bezpieczeństwo operacji.

Z tego wynika jego bardzo radykalny wniosek: klasyczne szpiegostwo twarzą w twarz będzie coraz trudniejsze, a w wielu przypadkach rzadsze niż dawniej. Ignatius pisze wprost, że ludzcy szpiedzy w terenie staną się rzadkością, a osobiste pozyskiwanie informacji będzie raczej wyjątkiem niż regułą, zarezerwowanym dla sytuacji, w których stawka informacji jest wyjątkowo wysoka. Zarazem zaznacza, że CIA przetrwa jako skuteczna służba tylko wtedy, jeśli dokona głębokiej zmiany paradygmatu i przestawi się na nowe narzędzia. Nie oznacza to, że technologia utrudnia stare metody, lecz że istnieje konieczność przejścia do innego modelu pracy wywiadowczej, w którym przewagę mają podmioty potrafiące szybciej przetwarzać dane, wychwytywać anomalie i działać w środowisku „wiecznego śladu”.

Inne podejście przedstawia natomiast Thomas Mulligan, badacz RAND Corporation i zarazem były oficer operacyjny CIA w swoim eseju opublikowanym na łamach Studies in Intelligence. Stawia on tezę częściowo odmienną od bardziej katastroficznych diagnoz o „końcu szpiega w terenie”, nie twierdzi jednak, że AI pozostawi HUMINT bez zmian. Przeciwnie, już we wstępie pisze, że nowoczesna AI „już zmienia” sposób pracy oficerów prowadzących, a dalszy postęp technologiczny zmieni go jeszcze bardziej.

Autor porządkuje tę zmianę wokółpięciu pól: nowych wymagań informacyjnych związanych z AI, problemu fałszerzy wspomaganych przez modele językowe, przeobrażenia tradecraftu pod presją coraz skuteczniejszej obserwacji kontrwywiadowczej, wykorzystania AI do walidacji źródeł oraz użycia AI jako narzędzia wzmacniającego perswazję. Innymi słowy, w eseju Mulligana AI nie jest dodatkiem do warsztatu HUMINT, lecz czynnikiem, który zaczyna przebudowywać niemal każdy etap jego pracy.

Nie zatrzymuje się on na samej diagnozie zagrożeń. Jego zdaniem AI może zwiększyć znaczenie HUMINT, ponieważ uczyni techniczne zbieranie informacji tańszym i szerzej dostępnym, zaleje środowisko informacyjne dezinformacją i szumem oraz może osłabić bezpieczeństwo komunikacji elektronicznej. W takim świecie wywiad osobowy nie znika, lecz zyskuje nową funkcję: ma pomagać odróżniać sygnał od syntetycznego szumu, weryfikować to, czego same systemy techniczne nie potrafią pewnie rozstrzygnąć i dostarczać tego rodzaju wiedzy, której nie da się łatwo pozyskać wyłącznie przez analizę danych. Dlatego dochodzi on do wniosku, że AI może przekształcić HUMINT, ale nie uczyni go zbędnym. Przeciwnie, może sprawić, że jego wartość wzrośnie właśnie dlatego, iż świat stanie się bardziej nasycony techniką, a przez to bardziej podatny na fabrykację, przeciążenie informacyjne i utratę zaufania do komunikacji cyfrowej.

Z tej perspektywy pytanie nie brzmi już, czy AI wpłynie na pracę oficera operacyjnego, lecz jaki jego typ będzie w stanie działać skutecznie w środowisku nasyconym algorytmami. Według Mulligana nie musi on stać się specjalistą technicznym od AI, ale musi uzyskać przynajmniej „baseline” wiedzy o pojęciach, terminologii i technologiach związanych z tym obszarem. Bez takiego przygotowania może on po prostu nie rozpoznać wartości wywiadowczej informacji, którą pozyska. Z tej racji sama umiejętność nawiązania relacji opierająca się na intuicji i znajomości podstawowych prawideł psychologii obecnie nie wystarczy, jeżeli nie będzie on rozumiał, jakie obszary AI mają znaczenie wywiadowcze, a co może być syntetycznym fałszem, i będzie w stanie funkcjonować w warunkach coraz bardziej gęstej obserwacji technicznej oraz korzystać z narzędzi, które mogą wspierać przygotowanie rozmowy, ocenę ryzyka czy walidację źródła.

Reklama

Mulligan bardzo wyraźnie zaznacza, że zmiana ta nie dotyczy wyłącznie wiedzy, lecz samej metodologii pracy. W jego ujęciu AI ułatwia fałszerzom tworzenie wiarygodnych raportów, wzmacnia możliwości służb kontrwywiadowczych w zakresie wykrywania anomalii i może pomagać zarówno w obserwacji, jak i w ocenie wiarygodności agentury. Równocześnie sugeruje, że AI może wspierać oficerów prowadzących w doborze argumentów, rozumieniu motywacji rozmówcy i przygotowaniu bardziej precyzyjnej komunikacji. To nie jest jeszcze definitywny koniec dawnego tradecraftu, ale z pewnością jest to początek jego głębokiej przebudowy: od oficera, który przede wszystkim „pracuje z człowiekiem”, do oficera, który musi jednocześnie pracować z człowiekiem, przeciwko maszynie i przy pomocy maszyny.

Najtrafniej tę zmianę opisuje formuła „human-machine team” – wspomagany przez AI zespół człowiek–maszyna. Jak wynika z omówienia raportu Special Competitive Studies Project „The Digital Case Officer: Reimagining Espionage with AI”, świat wywiadu wchodzi dziś w moment przesilenia. Nie chodzi już o kolejne techniczne usprawnienie ani o zwykłą modernizację narzędzi. Chodzi o zmianę znacznie głębszą – taką, która może przedefiniować samą istotę jego funkcjonowania. AI, systemy autonomiczne, analiza danych na ogromną skalę, rzeczywistość rozszerzona i wirtualna oraz robotyka nie są już dodatkiem do operacji wywiadowczych, lecz stają się środowiskiem, w którym będą musiały funkcjonować.

To właśnie dlatego obecna transformacja jest najpoważniejszą zmianą w działalności wywiadowczej od czasu pojawienia się internetu. Nowoczesna AI nie tylko przyspiesza analizę i obróbkę informacji. Ona zmienia samą naturę zbierania danych, wykrywania celów, budowania profili i prowadzenia relacji operacyjnych. Coraz tańsze i szerzej dostępne modele, w tym systemy generatywne, multimodalne i agentowe, trafiają do coraz większej liczby organizacji i urządzeń. W rezultacie gwałtownie rośnie skala sygnałów, które można zbierać, analizować i wykorzystywać.

Te rozwiązania wdrażane są już na dużą skalę. Oznacza to, że klasyczne metody techniki pracy operacyjnej stają się coraz bardziej ryzykowne. Telefony, kamery, aktywność w sieci i inne ślady cyfrowe tworzą środowisko wszechobecnego nadzoru technicznego, które systematycznie odbiera anonimowość niezbędną dla tradycyjnego szpiegostwa. To, co dawniej dawało oficerowi prowadzącemu przestrzeń manewru, dziś coraz częściej staje się źródłem zagrożenia.

A jednak nie oznacza to końca HUMINT-u. Przeciwnie – właśnie w takim świecie jego znaczenie może okazać się jeszcze większe. Technologia potrafi skutecznie monitorować działania przeciwnika, ale nie potrafi sama wiarygodnie dotrzeć do jego intencji. A to właśnie intencje pozostają najcenniejszą zdobyczą wywiadu. Wywiad osobowy jest też niezastąpiony tam, gdzie trzeba pokonać „ostatnią milę”: wejść do systemów odizolowanych od sieci, dotrzeć do wrażliwych rozważań kierownictwa albo uzyskać dostęp do informacji, których nie da się zebrać metodami technicznymi. Szpiegostwo nadal opiera się więc na tym, czego nie daje sama maszyna – na zaufaniu, empatii, intuicji i psychologii relacji.

Dlatego przyszłość nie należy ani do samego człowieka, ani do samej maszyny. Należy do układu człowiek–maszyna. To właśnie ten model ma wzmacniać oficera prowadzącego, a nie go zastępować. W takim układzie zaawansowana AI może wspierać każdy etap procesu operacyjnego: od identyfikowania i priorytetyzowania potencjalnych źródeł, przez tworzenie ich profili psychologicznych, aż po prowadzenie długotrwałych, spersonalizowanych interakcji przygotowujących grunt pod podejście operacyjne.

Reklama

„Cyfrowy oficer prowadzący” mógłby analizować ogromne zbiory danych i wskazywać cele według ich dostępu, motywacji i podatności. Mógłby także budować profile psychologiczne na podstawie śladów cyfrowych i prowadzić równolegle setki rozmów rozwojowych – czego człowiek nie jest w stanie zrobić samodzielnie. Na dalszym etapie mógłby wspierać przygotowanie indywidualnie dopasowanych ofert rekrutacyjnych, a po pozyskaniu źródła pomagać w jego bezpiecznym prowadzeniu. Innymi słowy, sztuczna inteligencja może przejąć skalę, szybkość i ciężar obróbki danych, dając człowiekowi możliwość skupienia się na zadaniach najwyższej wartości.

Ale właśnie tu zaczyna się najważniejszy problem. Im większa moc AI w HUMINT-cie, tym większe ryzyka prawne, etyczne i operacyjne. Pojawiają się pytania o legalność danych wykorzystywanych do szkolenia modeli, o prywatność osób, których informacje mogą trafiać do takich zbiorów, o przejrzystość i rozliczalność decyzji podejmowanych przez systemy działające jak „czarna skrzynka”. Jeszcze poważniejszy jest problem granic moralnych: bez jasnych zabezpieczeń AI mogłaby stosować strategie manipulacji, których oficer prowadzący by nie zaakceptował.

Dlatego fundamentem całego modelu musi pozostać zasada znaczącej kontroli człowieka. W każdej chwili krytycznej – zwłaszcza przy decyzji o rekrutacji, zadaniowaniu źródła czy działaniu niosącym poważne ryzyko – ostateczny osąd musi należeć do odpowiedzialnego człowieka. Nie chodzi o nieufność wobec technologii, lecz o zrozumienie, że odpowiedzialności za operację nie da się przełożyć na maszynę.

Stąd także wniosek praktyczny: wywiad nie może już pozwolić sobie na powolne, zachowawcze dostosowywanie się do tej zmiany. Potrzebne są nowe zasady użycia AI w HUMINT-cie, wyraźne wymogi nadzoru ludzkiego, międzyagencyjne modele współpracy, stałe testy bezpieczeństwa, zmiana szkolenia z zakresu metod pracy operacyjnej oraz jasne reguły odpowiedzialności i raportowania. To nie jest już kwestia wygody czy prestiżu technologicznego. To kwestia utrzymania realnej przewagi wywiadowczej.

Najważniejszy wniosek pozostaje jednak prosty. Przyszłość wywiadu nie będzie należała do maszyny działającej bez człowieka. Będzie należała do tego, kto najlepiej połączy skalę i szybkość AI z ludzkim osądem, relacją i odpowiedzialnością. Jeśli ta transformacja się powiedzie, wywiad nie wejdzie tylko w erę nowych narzędzi. Wejdzie w nowy model działania – taki, w którym ponadczasowe umiejętności człowieka zostaną wzmocnione przez najbardziej zaawansowaną technologię.

Ten sam kierunek potwierdza także Mulligan w swoim eseju, pokazując, że przyszłość oficera operacyjnego nie ma polegać na tym, że maszyna go wyprze, lecz że zmusi go do pracy w nowym układzie. AI ma przejąć skalę przetwarzania danych i część wstępnych działań, a człowiek ma zachować kontrolę nad tym, co w szpiegostwie najcenniejsze: oceną charakteru źródła, zarządzaniem zaufaniem, podejmowaniem decyzji pod presją i prowadzeniem operacji, w których stawką jest nie tylko informacja, ale często również bezpieczeństwo całej sieci. Dlatego według niego należy dziś mówić nie o „cyfrowym szpiegu”, lecz o oficerze prowadzącym wspomaganym przez system – człowieku, który nie znika z operacji, ale przestaje działać samotnie.

Reklama

To właśnie w tym nowym układzie człowiek–maszyna najostrzej ujawnia się problem najbardziej fundamentalny dla HUMINT-u: kwestia wiarygodności źródła i przekazywanej przez nie informacji. Jak podkreślają Jiawei Zhou, Yixuan Zhang, Qianni Luo, Andrea G. Parker i Munmun De Choudhury w pracy „Synthetic Lies: Understanding AI-Generated Misinformation and Evaluating Algorithmic and Human Solutions”, duże modele językowe potrafią generować treści masowe, płynne i perswazyjne, które nie tylko brzmią jak wytwory człowieka, ale różnią się od tradycyjnej dezinformacji także pod względem struktury językowej. Autorzy pokazują, że AI-generowana dezinformacja ma skłonność do wzmacniania szczegółów, komunikowania niepewności, wyciągania pozornie logicznych wniosków i symulowania osobistego tonu. To szczególnie niebezpieczne, bo właśnie takie cechy bywają przez odbiorcę odczytywane jako oznaki autentyczności, rozwagi i wiarygodności.

Zwracają też uwagę, że problem nie sprowadza się wyłącznie do samej zdolności modelu do tworzenia kłamstwa. Ich analiza pokazała, że istniejące systemy wykrywania dezinformacji, trenowane głównie na treściach pisanych przez ludzi, radzą sobie z materiałami generowanymi przez modele wyraźnie gorzej. W przywoływanym omówieniu badań wskazano, że narzędzie COVID-Twitter-BERT częściej przepuszczało dezinformację wygenerowaną przez GPT niż dezinformację stworzoną przez człowieka, właśnie dlatego, że teksty te były językowo inne: bardziej złożone, mniej oczywiste i słabiej dopasowane do słów kluczowych, których standardowo szukają systemy wykrywania.

Z punktu widzenia wywiadu osobowego oznacza to zmianę jakościową. Fałszywa informacja nie musi już być nieporadna, przesadnie toporna ani wewnętrznie sprzeczna. Może przybrać postać komunikatu, który brzmi spokojnie, rzeczowo i „naukowo”, a przez to łatwiej przechodzi zarówno przez filtry techniczne, jak i przez ludzką intuicję. W praktyce oznacza to, że oficer operacyjny nie może już zakładać, iż dobrze przygotowany człowiek rozpozna oszustwo po jego języku, stylu czy tonie. Coraz częściej będzie musiał wychodzić z przeciwnego założenia: że materiał może być właśnie dlatego groźny, iż wygląda na uporządkowany, ostrożny i wiarygodny.

W tym sensie AI nie tylko zwiększa skalę dezinformacji, ale podważa sam warsztat oceny źródła. Skoro model potrafi tworzyć przekaz logiczny, elastycznie zmieniać ton i dostosowywać narrację do różnych odbiorców, to problem wiarygodności przestaje dotyczyć wyłącznie źródła, a zaczyna dotyczyć także produktu informacyjnego jako takiego. Dla HUMINT-u oznacza to konieczność jeszcze większego nacisku na walidację, kontekst i wielowarstwowe sprawdzanie treści, bo w epoce generatywnej AI nawet dobrze brzmiąca informacja może być starannie wyreżyserowanym fałszem.

Mulligan natomiast w swych rozważaniach idzie tu jeszcze dalej i pisze wprost, że źródło, które utraciło dostęp do informacji, chce zwiększyć wynagrodzenie albo prowadzi grę podwójną, może wykorzystać model językowy do zbudowania wiarygodnie brzmiącego raportu: zasilić go nazwiskami, strukturami organizacyjnymi, wiedzą o pracy otoczenia i własnym wcześniejszym reportingiem, a następnie otrzymać wiarygodną historię gotową do przekazania oficerowi prowadzącemu. W takiej rzeczywistości zadania oficera operacyjnego nie mogą się ograniczać do pozyskiwania źródeł, lecz przede wszystkim do permanentnego badania wiarygodności produktu informacyjnego i zadawania pytania, czy nie ma do czynienia z dobrze wyreżyserowanym fałszem wspomaganym przez AI.

Druga wielka zmiana dotyczy pola działania. U Ignatiusa świat oficera operacyjnego to przestrzeń, w której telefon, aplikacja, kamera, rytm poruszania się, a nawet brak typowej cyfrowej aktywności mogą pozostawiać ślad i stać się elementem wykrywalnego wzorca. Mulligan formułuje podobną obawę w bardziej systematyczny sposób: AI może pomagać służbom kontrwywiadowczym wydobywać z ogromnej ilości pozornie nic nieznaczących informacji wzorce, anomalie i podejrzane sekwencje zachowań.

Reklama

Zestawienie też tych dwóch autorów prowadzi do ostrożnego, ale mocnego wniosku: nowy oficer operacyjny będzie pracował nie tyle w świecie większej improwizacji, ile większego rygoru, z mniejszym marginesem błędu niż jego poprzednicy. Trzeba jednak pamiętać, że Ignatius widzi w tym przede wszystkim kryzys klasycznych metod pracy operacyjnej, podczas gdy Mulligan uważa, że odpowiedzią na ten kryzys może być nie zanik HUMINT, lecz jego nowa wartość.

Sztuczna inteligencja może jednak nie tylko utrudniać pracę oficera. Może też wzmacniać jego podstawową broń, czyli wpływ na rozmówcę. Jak pokazują Sandra C. Matz, Jacob D. Teeny, S. S. Vaid, H. Peters, G. M. Harari i M. Cerf w artykule „The Potential of Generative AI for Personalized Persuasion at Scale”, stawką nie jest już samo generowanie przekonującego tekstu, lecz automatyzacja perswazji spersonalizowanej. Autorzy definiują ten mechanizm jako dopasowanie języka i treści komunikatu do psychologicznego profilu odbiorcy i podkreślają, że wcześniejszą barierą nie było tylko rozpoznanie takiego profilu, ale także czasochłonne ręczne tworzenie komunikatów „skrojonych” pod konkretną osobę. Ich badania ukazują, że duże modele językowe mogą domknąć ten proces: nie tylko korzystać z ograniczonych informacji o odbiorcy, ale też na tej podstawie automatycznie pisać wiadomości, które okazują się bardziej wpływowe niż komunikaty niespersonalizowane.

Autorzy piszą wręcz, że ich wyniki należą do pierwszych empirycznych dowodów na to, iż AI może „skalować” perswazję spersonalizowaną przez automatyzację tworzenia takich komunikatów. Przeprowadzili oni cztery badania obejmujące łącznie siedem podbadań i próbę o liczebności 1788 osób. Spersonalizowane wiadomości tworzone przez ChatGPT okazywały się bardziej wpływowe niż wiadomości niespersonalizowane w różnych obszarach perswazji, między innymi w marketingu produktów konsumenckich, apelach politycznych dotyczących klimatu oraz przekazach zdrowotnych.

Co więcej, efekt ten pojawiał się przy różnych profilach psychologicznych – od cech osobowości Wielkiej Piątki, czyli podstawowych wymiarów osobowości takich jak ekstrawersja, sumienność, ugodowość, neurotyczność i otwartość na doświadczenie, po orientację polityczną, regulatory focus i fundamenty moralne. Innymi słowy, nie chodziło o pojedynczy trik stylistyczny, lecz o bardziej ogólną zdolność modelu do dopasowywania przekazu do różnych typów odbiorców.

Szczególnie istotne jest to, że autorzy uzyskali te wyniki przy bardzo skromnym wkładzie informacyjnym. Model często otrzymywał jedynie krótki prompt wskazujący lub opisujący docelowy wymiar psychologiczny, a mimo to potrafił tworzyć komunikaty, które odbiorcy oceniali jako bardziej skuteczne. Badacze podkreślają wręcz, że ich wyniki mogą być oszacowaniem raczej konserwatywnym, ponieważ eksperymenty opierały się na minimalnej informacji o celu, a skuteczność mogłaby być jeszcze większa przy bogatszym profilu odbiorcy.

Z perspektywy wywiadu osobowego to bardzo ważny sygnał: system nie potrzebuje pełnej „mapy psychologicznej” rozmówcy, by zacząć sensownie różnicować język, ton i argumenty. Już ograniczona wiedza może wystarczyć do wygenerowania przekazu lepiej dopasowanego niż komunikat ogólny. Skuteczność takiej personalizacji nie znika automatycznie wtedy, gdy odbiorca wie, że ma do czynienia z AI. W jednym z eksperymentów uczestników informowano, że reklamy zostały wygenerowane przez GPT-3, a nawet że były projektowane tak, by przemawiać do określonych typów osobowości.

Mimo tego – jak podają autorzy – efekty „w dużej mierze się utrzymały”. To szczególnie istotne, bo osłabia prostą obronę w rodzaju: „gdy ludzie dowiedzą się, że komunikat został wygenerowany przez maszynę, przestanie on działać”. Wyniki Matz i współautorów sugerują, że sama świadomość użycia AI nie musi neutralizować przewagi komunikatu psychologicznie dopasowanego. ChatGPT bywa skuteczny w kształtowaniu postaw i zamierzonych zachowań, choć autorzy zaznaczają, że efekty nie były jednolite dla wszystkich tematów, wszystkich wymiarów psychologicznych i wszystkich miar.

Właśnie tutaj najlepiej widać sens formuły „human-machine team”. Nie chodzi o to, że bot zwerbuje agenta zamiast człowieka. Chodzi raczej o to, że oficer operacyjny przyszłości będzie coraz częściej wspierany przez system, który pomoże mu lepiej przygotować profil motywacyjny rozmówcy, uporządkować ryzyko, wskazać luki w historii źródła i lepiej zaplanować rozmowę. Człowiek pozostanie twarzą operacji i ostatecznym decydentem, ale maszyna może stać się coraz ważniejszym zapleczem poznawczym tej operacji. Tę tezę wspiera zarówno analiza SCSP o wzmacnianiu, a nie zastępowaniu oficerów, jak i wyniki badań Matz o skalowalnej personalizacji przekazu.

Z tej racji nowa wizja pracy oficera operacyjnego nie polega na jego zastąpieniu przez maszynę, lecz na wyraźnym podniesieniu wymagań. W świecie opisywanym przez Mulligana, SCSP, Ignatiusa, Zhou i współautorów oraz Matz i współautorów dobry oficer nie będzie już wyłącznie człowiekiem od pozyskiwania ludzi do współpracy. Będzie musiał łączyć umiejętność pracy ze źródłem z rosnącą zdolnością do oceny wiarygodności informacji, rozumienia technologii wspomagających decyzję i działania w coraz mniej wybaczającym środowisku operacyjnym. Im więcej syntetycznego fałszu w obiegu, tym większa wartość sprawdzonego źródła; im mniej bezpieczne staje się środowisko cyfrowe, tym ważniejsza staje się jakość metod pracy operacyjnej; im silniejsza staje się maszyna, tym większe znaczenie ma człowiek, który potrafi z niej korzystać, ale nie oddaje jej ostatniego słowa.

Reklama

Zobacz również

Reklama