Reklama

Jak ocenić jakość analizy wywiadowczej?

Fot. Agencja Wywiadu/YouTube
Fot. Agencja Wywiadu/YouTube

Analiza wywiadowcza przeszła daleką drogę — od modelu opartego głównie na szybkim przekazywaniu surowych danych decydentom, aż po złożone metody integrujące zaawansowane technologie, wieloźródłowe informacje i dogłębne ekspertyzy. Mimo postępu w tej dziedzinie, wciąż trudno jednoznacznie określić, jak mierzyć jakość produktu analitycznego, zwłaszcza gdy w grę wchodzą nieprzewidywalne czynniki polityczne, społeczne czy militarne.

Tradycyjna analiza wywiadowcza kojarzyła się przede wszystkim z pozyskiwaniem, porządkowaniem i udostępnianiem informacji decydentom. Model „informacji przygotowanych do działania” powstał w początkach funkcjonowania agencji wywiadowczych, zwłaszcza w warunkach wojennych. Jego priorytetem było dostarczanie dowódcom i decydentom aktualnych, kluczowych danych niezbędnych do podejmowania szybkich decyzji i opracowywania strategii.

Reklama

Służby wywiadowcze koncentrowały się wówczas na gromadzeniu maksymalnej liczby surowych informacji z wielu źródeł, m.in. z wywiadu ludzkiego (HUMINT), sygnałowego (SIGINT) i obrazowego (IMINT). Dane przetwarzano i przekazywano w przyspieszonym tempie, tak aby decydenci mogli natychmiast reagować. W praktyce oznaczało to większy nacisk na ilość informacji niż na ich wnikliwą analizę, co często nazywano „wywiadem taktycznym”. Sama analiza ograniczała się zwykle do zwięzłego streszczenia i wskazania najważniejszych kwestii. Było to podejście raczej reaktywne niż proaktywne, wynikające z potrzeby szybkiego działania w dynamicznie zmieniających się warunkach, zwłaszcza w sytuacjach wymagających błyskawicznych decyzji.

Na przestrzeni ostatnich dekad nastąpił jednak wyraźny zwrot ku bardziej złożonemu i wieloaspektowemu modelowi analizy wywiadowczej. Nowe podejście, określane jako „wynik analizy informacji w celu uzyskania informacji wywiadowczych”, zyskało na znaczeniu z kilku powodów. Postęp w technologii informacyjnej umożliwił gromadzenie i przetwarzanie ogromnych ilości danych, co pozwala agencjom na znacznie głębsze oraz bardziej wnikliwe wnioski.

    Analitycy wywiadu nie są już wyłącznie „zbieraczami” surowych informacji, lecz wysoko wykwalifikowanymi ekspertami, którzy potrafią krytycznie oceniać dane, wykrywać wzorce i formułować trafne konkluzje. Akcent przesunął się z gromadzenia jak największej ilości informacji na uzyskiwanie ich wartości wywiadowczej. W obliczu coraz poważniejszych wyzwań — takich jak terroryzm, cyberataki czy wojna hybrydowa — konieczne stały się nie tylko szybkie reakcje, lecz również prognozowanie zagrożeń i wspomaganie długofalowych decyzji strategicznych.

    Służby wywiadowcze coraz częściej współpracują z innymi instytucjami rządowymi, środowiskiem naukowym i sektorem prywatnym, co dodatkowo wzmacnia wielowymiarowość analizy. Ewolucja od „informacji zaprojektowanych do działania” ku „wynikom analizy informacji w celu uzyskania informacji wywiadowczych” odzwierciedla fundamentalną zmianę w postrzeganiu roli agencji i analityków wywiadu. Współcześni specjaliści w tej dziedzinie odpowiadają nie tylko za dostarczanie danych, ale przede wszystkim za formułowanie użytecznych wniosków, które wspierają decyzje strategiczne, chronią bezpieczeństwo państwa i pozwalają radzić sobie ze złożonymi zagrożeniami. Ta zmiana potwierdza, jak ważne są wysokie kompetencje analityczne, zaawansowana technologia oraz proaktywne, przyszłościowe podejście do analizy wywiadowczej.

    W „Sztuce wojny” Sun Tzu napisał: „Jeśli znasz wroga i znasz siebie, nie musisz obawiać się wyniku stu bitew. Jeśli znasz siebie, ale nie wroga, za każde odniesione zwycięstwo zapłacisz przegraną. Jeśli nie znasz ani siebie, ani wroga, przegrasz każdą bitwę”. Z tej maksymy wynika jasno, że bez pełnej i kompleksowej wiedzy zarówno o sobie, jak i o przeciwniku, nie sposób osiągnąć zwycięstwa. Dotyczy to tradycyjnego pola walki, cyberprzestrzeni oraz wszelkich środowisk, w których prowadzi się analizę wywiadowczą. Z tego względu wywiad nie może sobie pozwolić na ignorowanie nawet drobnych szczegółów.

    Reklama

    Analiza wywiadowcza nie jest zadaniem prostym. Przewidywanie przyszłego krajobrazu zagrożeń bywa trudne, jednak w oparciu o trendy i wnikliwe badania można przynajmniej wskazać prawdopodobny kierunek rozwoju. Wymaga to jednak ogromnego wysiłku oraz rzetelnej pracy. Analitycy wywiadu muszą być przygotowani na żmudne i skrupulatne przeglądanie danych, często wielokrotnie dochodząc do tych samych wniosków, dopóki nie pojawi się przełom pozwalający stworzyć spójny produkt informacyjny, który może stać się podstawą decyzji.

    Komandor rez. dr Kevin Riehle, analityk wywiadu z ponad 30-letnim doświadczeniem m.in. w Federalnym Biurze Śledczym i Narodowym Centrum Kontrwywiadu, a obecnie wykładowca w zakresie wywiadu i bezpieczeństwa międzynarodowego na Brunel University London, opublikował w czasopiśmie „Wywiad i bezpieczeństwo narodowe 2025” artykuł pt. „Skąd wiemy, czy produkt analityczny jest dobry?”. Przedstawia w nim trzy metody, które służby wywiadowcze stosują do oceny jakości analiz: zgodność z przyjętymi standardami procesu analitycznego; trafność prognoz i ocena faktów z perspektywy czasu; prześledzenie czy produkt analityczny wywarł wpływ na faktyczne decyzje decydentów.

      Każda z tych metod ma swoje słabe strony, co pokazuje, że ustalenie, czym jest „wiarygodna analiza”, bywa równie złożone, jak samo jej tworzenie. Mimo to wszystkie trzy sposoby oceny pozwalają określić, które analizy najbardziej zbliżają się do optymalnego poziomu.

      Kolejną klasyczną pozycją jest książka Roberta Jervisa „Why Intelligence Fails: Lessons from the Iranian Revolution and the Iraq War” (Cornell University Press, 2011), opisująca liczne systemowe błędy w analizach wywiadowczych. Autorzy tych i innych opracowań (np. David Kahn w artykule „The Intelligence Failure of Pearl Harbor”, „Foreign Affairs” 1991) wskazują na niepowodzenia rozciągające się od ataku na Pearl Harbor (1941) po błędne wnioski dotyczące zbrojeń Iraku (2003). Ostatnie wydarzenia, takie jak atak Hamasu na Izrael w październiku 2023 roku, po raz kolejny stały się przyczynkiem do zadania pytania, dlaczego wywiad zawiódł i w jaki sposób można było tego uniknąć.

      Uczyć się na błędach

      W tym kontekście pojawiają się także błędne analizy dotyczące wczesnej fazy wojny na Ukrainie, które zaważyły na dalszym przebiegu konfliktu. Kluczową rolę odegrały tu wcześniejsze doświadczenia wywiadu Stanów Zjednoczonych w Afganistanie. Gdy talibowie przejęli władzę w tym kraju, cztery amerykańskie agencje wywiadowcze — CIA, DIA, Biuro Dyrektora Wywiadu Narodowego oraz biuro wywiadu Departamentu Stanu — przygotowały obszerne opracowania dotyczące Afganistanu.

      Reklama

      Jak informował m.in. Wall Street Journal, żadna z tych służb nie przewidziała tak szybkiego upadku Kabulu. Wysoki rangą urzędnik w Waszyngtonie, cytowany przez tę gazetę, przyznał, że DIA „dała się zwieść pewnym mitom” o możliwościach afgańskich sił zbrojnych, wcześniej szkolonych przez USA. Generał Mark Alexander Milley, przewodniczący Kolegium Połączonych Szefów Sztabów, stwierdził natomiast, że nie było żadnych sygnałów wskazujących na to, iż afgańska armia i rząd mogą upaść w ciągu zaledwie 11 dni.

      Porażka amerykańskich agencji wywiadowczych w przewidywaniu szybkiego załamania się afgańskich struktur obronnych odbiła się na późniejszych ocenach sytuacji wokół Rosji i Ukrainy. Jesienią 2022 roku trafnie przyjęto, że Moskwa przygotowuje się do zbrojnego ataku, lecz spodziewano się „scenariusza afgańskiego”. W efekcie zaniżono przewidywaną skuteczność oporu Ukrainy, a zawyżono ocenę potencjału armii rosyjskiej. Wpłynęło to na decyzje polityczne, ponieważ uznano, że wsparcie militarne dla Kijowa nie przyniesie większych korzyści, a jedynie sprowokuje Rosję.

      Jak zauważa Taras Kuzio, profesor nauk politycznych na Uniwersytecie Narodowym Akademii Kijowsko-Mohylańskiej („Geopolitical Monitor”), większość zachodnich specjalistów od rosyjskich sił zbrojnych była wówczas przekonana o potędze armii Rosji i jej zdolności do szybkiego pokonania Ukrainy.

        Kolejny czynnik związany był z obawą, że potencjalna wojna w Ukrainie przybierze formę konfliktu partyzanckiego. Dlatego kraje zachodnie i NATO początkowo skłaniały się ku dostarczaniu Ukrainie sprzętu odpowiedniego do walki w warunkach okupacji. Proste zestawienie zasobów ludzkich i sprzętowych zdawało się bowiem wskazywać, że Ukraina nie ma szans w bezpośredniej konfrontacji z Rosją. Takie prognozy, przewidujące szybkie zwycięstwo Moskwy, podzielali niektórzy decydenci w Pentagonie, politycy niemieccy czy zachodnioeuropejscy, a także liczne think tanki, w tym RUSI (Royal United Services Institute).

        Tuż przed wybuchem inwazji opublikowano tam raport opisujący rzekome sukcesy, jakie Rosja miałaby osiągnąć natychmiast po ataku. W praktyce okazało się to zupełnie nietrafne. W prognozach przedstawiano Ukrainę jako państwo słabe, skorumpowane i zinfiltrowane przez rosyjskie służby.

        Tego typu błędy analityczne nie były odosobnione. Profesor Hugh Gusterson z Uniwersytetu Kolumbii Brytyjskiej podkreślił w rozmowie z The Daily Beast, że nawet w rosyjskim wywiadzie doszło do podobnych nieprawidłowości, co przypominało porażkę z 1979 roku, kiedy to Kreml zakładał przychylne nastawienie Afgańczyków. Z kolei Amerykanie nie uwzględnili morale i taktycznych zdolności irackich czy afgańskich powstańców, opierając się głównie na analizie liczebności wojsk i wyposażenia.

        Reklama

        Laurence Pfeiffer, dawny szef sztabu byłego dyrektora CIA Michaela V. Haydena, stwierdził w The Daily Beast, że przyczyną było długoletnie skupienie uwagi amerykańskich służb na zwalczaniu terroryzmu, a nie na potencjalnych starciach z innymi wielkimi mocarstwami. Po zimnej wojnie Stany Zjednoczone i NATO prowadziły głównie misje ekspedycyjne poza Europą, co wpłynęło na sposoby analizowania ewentualnych przeciwników.

        W Wielkiej Brytanii – jak donosi BBC – ostrzeżenia płynące z GCHQ i MI6 początkowo wzbudzały wątpliwości w niektórych kręgach rządowych, bo mało kto przypuszczał, że w XXI wieku w Europie może dojść do pełnoskalowego konfliktu. Dopiero pod koniec 2021 roku Wspólny Komitet Wywiadu oficjalnie uznał inwazję Rosji za wysoce prawdopodobną.

        We Francji i Niemczech sytuacja była gorsza: generał Eric Vidaud, ówczesny szef francuskiej Dyrekcji Wywiadu Wojskowego (DRM), uważał, że koncentracja sił rosyjskich przy granicy z Ukrainą nie oznacza nieuchronnej wojny. Z kolei Bruno Kahl, szef BND, został całkowicie zaskoczony atakiem Rosji podczas pobytu na Ukrainie. Do grudnia 2021 roku Republika Federalna Niemiec blokowała też w NATO uruchomienie procedur wczesnego planowania kryzysowego w związku z możliwą inwazją Rosji.

          W marcu 2022 roku Avril Haines, Dyrektor Wywiadu Narodowego USA, oświadczyła przed senacką komisją ds. wywiadu, że CIA nie doszacowała skali trudności, z jakimi zmaga się rosyjska armia. Generał Scott Berrier, szef Agencji Wywiadu Obronnego (DIA), wskazywał, że wcześniejsze założenia o gotowości i woli walki Ukraińców były niewystarczające. Ocena motywacji i morale obu stron w konflikcie jest niezwykle trudna.

          Jeden z oficerów amerykańskiego wywiadu przyznał w rozmowie z The Intercept, że brak pogłębionych raportów o korupcji w otoczeniu Putina i niekompetencji w rosyjskich strukturach wojskowych spowodował zawyżenie faktycznych możliwości sił zbrojnych Rosji. Generał Tod Wolters, dowódca sił USA w Europie, powiedział w wywiadzie dla The Good News Network i World Stock Market, że niedokładność danych wywiadowczych doprowadziła do przeszacowania potencjału militarnego Rosji i niedocenienia zdolności obronnych Ukrainy.

          Podczas przesłuchań w senackich komisjach przedstawiciele amerykańskich agencji wywiadowczych bronili się, twierdząc, że ich prognozy o szybkiej klęsce Kijowa były oparte na dostępnych wówczas informacjach o stanie sił zbrojnych i wyposażenia obu stron. Wydarzenia pokazały jednak, że nie wzięto pod uwagę kluczowych czynników ludzkich, takich jak morale i determinacja społeczeństwa ukraińskiego. Generał David Berger, dowódca Korpusu Piechoty Morskiej USA, w wypowiedzi dla Breaking Defense zaznaczył, że komputerowe modele zakładały zwycięstwo Rosji w ciągu 72–96 godzin, co okazało się dalece nietrafne.

          W praktyce amerykańskie prognozy powieliły część błędnych założeń rosyjskich, według których ukraińskie społeczeństwo jest wrogie wobec własnych władz i nie będzie stawiać większego oporu. Taka analogia z Afganistanem okazała się jednak zupełnie chybiona.

          Reklama

          Ostatnie wydarzenia, w tym wspomniany atak Hamasu na Izrael w październiku 2023 roku, ponownie nakłaniają do rozważań nad zawodnością wywiadu i sposobami jej ograniczenia. Niektóre nieudane analizy przypisuje się błędom samych analityków, choć przyczyny bywają złożone: od pułapek poznawczych i nacisków politycznych po brak wystarczającej wymiany informacji i współpracy między różnymi instytucjami. Istnieją nawet specjalistyczne programy akademickie zajmujące się wyłącznie badaniem niepowodzeń wywiadowczych, prowadzone m.in. na Leiden University, University of Leicester i University of Buckingham.

          Mimo wielu opracowań wciąż nie ma jednoznacznej odpowiedzi, jak zdefiniować właściwe standardy oceny analizy wywiadowczej i kiedy konkretny produkt analityczny rzeczywiście spełnia swoje zadanie. Ogólnie przyjmuje się jednak, że analiza powinna realizować trzy podstawowe cele:

          • Porządkowanie chaotycznych informacji – selekcja najważniejszych faktów i wzorców w gąszczu danych,
          • Ostrzeganie przed zagrożeniem lub wskazywanie szans – dostarczanie w porę informacji umożliwiających skuteczną reakcję,
          • Wspieranie decydenta – analiza nie polega na przekazywaniu gotowych rozwiązań, lecz na takim przedstawieniu danych, by decydent sam zrozumiał ich konsekwencje i mógł dojść do trafnych wniosków.

            Brian Holmes w artykule „Pathos, Where Art Thou? Intelligence Analysis and Ethical Persuasion” („War on the Rocks”, wrzesień 2016) nazwał to „etyczną perswazją”, odnosząc się do standardów opisanych w Intelligence Community Directive 203 (ICD 203).

            Trzy sposoby mierzenia jakości analizy

            W dyskusjach publicznych, np. w publikacji Kelly’ego Mulligana i Alexandra Schmitta „What the Intelligence Community Doesn’t Know Is Hurting the United States” (wrzesień 2020, Center for American Progress), wielokrotnie przywołuje się argumenty uzasadniające olbrzymie nakłady na wywiad oraz potrzebę efektywnego mierzenia ich rezultatów. W książce Christiana Leuprechta i Hayley McNorton Intelligence as Democratic Statecraft (Oxford University Press, 2021) zwraca się uwagę, że właściwa ocena jakości analiz ma duże znaczenie także w mniejszych organizacjach wywiadowczych.

            Reklama

            Próbując zdefiniować „dobrą” analizę, wyróżnia się trzy kryteria:

            1. Zgodność z przyjętymi standardami Czy analiza spełnia wymogi obiektywizmu, niezależności politycznej, terminowości i wykorzystania szerokiego spektrum źródeł? Czy właściwie wskazuje źródła, rozważa alternatywy oraz unika nieuzasadnionych uproszczeń?
            2. Sprawdzanie trafności z perspektywy czasu Czy prognozy okazały się zgodne z późniejszym rozwojem wydarzeń? Jak często analityk trafnie przewidział to, co się wydarzyło?
            3. Ocena wpływu na realne decyzje Nawet najlepsza analiza nie spełni swojej funkcji, jeśli nie zostanie uwzględniona w procesie decyzyjnym.

              Stephen Marrin, w artykule „Evaluating the Quality of Intelligence Analysis: By What (Mis)Measure?” („Intelligence and National Security”, 2012) zauważa, że każda z tych metod ma wady. Czasem trudno jednoznacznie ustalić, czy konkretna decyzja polityczna była konsekwencją danej analizy, ponieważ decydenci korzystają z wielu źródeł informacji.

              Po atakach z 11 września 2001 r. i błędach w ocenie uzbrojenia Iraku w 2003 r. w Stanach Zjednoczonych powołano komisje śledcze, co zaowocowało reformami społeczności wywiadowczej. Uchwalenie Intelligence Reform and Terrorism Prevention Act (IRTPA) z 2004 roku wprowadziło wymóg podniesienia poziomu analiz, uszczegółowienia procedur i metod oraz usprawnienia współpracy międzyinstytucjonalnej.

              Na mocy IRTPA powstały m.in. dokumenty Intelligence Community Directive 200 (ICD 200), Management, Integration, and Oversight of Intelligence Analysis (z 8 stycznia 2007 r.) i ICD 203, Analytic Standards (z 21 czerwca 2007 r., aktualizowane w 2015 r.). Określają one takie zasady jak: obiektywność i niezależność od polityki; wykorzystywanie wszystkich dostępnych źródeł; identyfikacja niepewności i potencjalnego ryzyka; rozważanie scenariuszy alternatywnych; jasna i logiczna argumentacja.

              Reklama

              Powołano także biuro Analytic Integrity and Standards (AIS), które losowo sprawdza produkty analityczne agencji wywiadowczych i przedstawia wyniki Kongresowi. Każdy dokument oceniany jest w skali 0–3, obejmującej większość kryteriów z ICD 203 (z wyjątkiem trafności przewidywań). Podobną rolę w Defense Intelligence Agency (DIA) pełni Product Evaluation Board (PEB), przeprowadzający audyty mające na celu wykrywanie błędów systemowych. Nie służy to ocenie konkretnych analityków, lecz sprawdza, czy organizacja jako całość funkcjonuje właściwie.

              Robert T. Cardillo w artykule „Intelligence Community Reform: A Cultural Evolution” („Studies in Intelligence”, 2021) wskazuje, że te procedury podnoszą ogólny standard pracy. Jednak krytycy, np. Josh Kerbel, w wystąpieniu „Are the Analytic Tradecraft Standards Hurting as Much as Helping?”, zwracają uwagę na ryzyko nadmiernej formalizacji, mogącej ograniczać elastyczność i kreatywność analityków.

              Ocena trafności i dokładności wniosków

              Drugim sposobem weryfikacji jakości produktu wywiadowczego jest sprawdzenie czy przewidywania i wnioski rzeczywiście znalazły odzwierciedlenie w rzeczywistości. Już w latach 50. XX wieku brytyjski Joint Intelligence Committee (JIC) próbował porównywać starsze raporty z faktycznym biegiem wydarzeń (w dokumentach „Review of Assessments of Communist Intentions since January, 1947”). Zadanie to okazało się jednak złożone, ponieważ niektóre oceny były zbyt ogólne lub zawierały wiele zastrzeżeń, a sytuacja mogła się zmienić w wyniku działań polityków (tzw. samounieważniające się przepowiednie).

                Podobnie było w Central Intelligence Agency (CIA), która w 1955 roku rozpoczęła analizę trafności National Intelligence Estimates (NIE). Ówczesny dyrektor Office of National Estimates (ONE), Sherman Kent, w publikacjiSherman Kent and the Board of National Estimates: Collected Essays zauważył, że „liczenie średniej w baseballu” może prowadzić do błędnych wniosków. Z kolei jego zastępca, Abbot Smith, w tekście „On the Accuracy of National Intelligence Estimates” podkreślał, że proste kategorie „spełnione–niespełnione” nie zawsze oddają złożoność sytuacji.

                Kiedy wnioski dotyczą aspektów technicznych, np. zasięgu rakiet, łatwiej jednoznacznie je zweryfikować. Jednak w obszarze polityczno-strategicznym, gdzie jeden niespodziewany ruch przywódcy może przesądzić o całej sprawie, o pewne prognozy zdecydowanie trudniej. Mark Lowenthal w artykule „Towards a Reasonable Standard for Analysis: How Right, How Often on which Issues?” („Intelligence and National Security”, 2008) stwierdza, że żaden zbiór reguł formalnych nie daje gwarancji nieomylności.

                Czy analizy wywiadowcze mają realny wpływ?

                Nawet precyzyjna i dobrze uzasadniona analiza może nie odnieść skutku, jeśli decydenci nie uwzględnią jej w procesie podejmowania decyzji. Były Zastępca Dyrektora Central Intelligence, John McLaughlin, we wstąpieniu „Keeping Intelligence Smart: Reflections from the Intelligence World” (Aspen Institute, 2016), wspominał, że przed rozbrojeniem Libii w 2004 roku wywiad dostarczył decydentom obszernych analiz, ale ostatecznie sukces przypisano działaniom dyplomatycznym, marginalizując wkład agencji wywiadowczych.

                Reklama

                CIA wielokrotnie próbowała śledzić, w jakim stopniu National Intelligence Estimates wpływają na decyzje Rady Bezpieczeństwa Narodowego (np. w raportach „Quarterly Report of National Intelligence Estimates Used in Support of NSC Policy Papers” z 1958 r.). Politycy korzystają jednak z wielu innych źródeł, co utrudnia ustalenie, na ile dany raport przesądził o podjętych działaniach. Dobrym przykładem jest dokument „Yugoslavia Transformed” z października 1990 roku — trafnie prognozował rozpad Jugosławii, lecz nie miał większego oddziaływania na politykę USA. Gregory Treverton i Renanah Miles w publikacji „Unheeded Warning of War: Why Policymakers Ignored the 1990 Yugoslavia Estimate” (Center for the Study of Intelligence, 2015) wyjaśniają to innymi priorytetami Białego Domu i nieufnością osób, które uważały się za ekspertów od Bałkanów.

                Podobnie było w przypadku października 2023 roku, gdy krytyka spadła na służby izraelskie, choć najwyraźniej istniały pewne ostrzeżenia, tyle że nie przekształcono ich w sygnał alarmowy docierający do odpowiednich osób. Ben Kaspit w artykule „A Day After the Massacre, Four Former Commanders of the Unit Entered 8200 headquarters…” („Maariv”, luty 2024) sugeruje, że winny był wadliwy system informowania, a nie sama jakość sporządzonych analiz.

                  Każda z trzech metod — zgodność z wytycznymi, trafność wniosków i faktyczny wpływ na decyzje — ma swoje zalety, ale też ograniczenia. Dlatego najlepsze efekty osiąga się, łącząc je ze sobą:

                  • Przestrzeganie standardów zapewnia analizom przejrzystość, logikę i obiektywizm, choć nie gwarantuje nieomylności.
                  • Weryfikacja trafności pozwala zorientować się, czy dane analizy nie były jedynie przypadkowo skuteczne lub błędne, lecz nie zawsze wyjaśnia, czy przyczyną porażki była słaba analiza, czy nieprzewidywalna zmiana sytuacji.
                  • Realny wpływ bywa najważniejszym czynnikiem, bo wywiad ma dostarczać decydentom przewagi. Jednoznaczne ustalenie, że to konkretna analiza przesądziła o decyzjach politycznych czy wojskowych, bywa jednak trudne.

                  Mimo ograniczeń wywiad — uczący się z sukcesów i porażek — może doskonalić swoje produkty. Błędy dostarczają cennych lekcji, a udane przykłady analiz stanowią wzorzec do naśladowania. Tylko w ten sposób da się tworzyć materiały, które z jednej strony spełniają standardy warsztatowe, z drugiej zaś realnie wspierają decydentów w podejmowaniu właściwych decyzji.

                  Reklama
                  WIDEO: Na „pasku”, czyli jak Mińsk atakuje migrantami
                  Reklama

                  Komentarze

                    Reklama