Łukasz Maziewski
Łukasz Maziewski| 

"Rosjanie nie potrzebują maili Dworczyka". Eksperci wytykają "niepojętą indolencję"

Trolle, farmy, boty, cyberataki. Te słowa od kilku lat funkcjonują w słowniku wszystkich ekspertów bezpieczeństwa sieciowego. Jak odróżnić bota od trolla? Czy Michał Dworczyk padł ofiarą rosyjskiego cyberataku? Jak bronić się przed dezinformacją w sieci? O tym opowiedzieli o2.pl praktycy tematu: Andrzej Skwarski i Jarosław Nowak.

"Rosjanie nie potrzebują maili Dworczyka". Eksperci wytykają "niepojętą indolencję"
- Sfery rządowe pominęły aspekt właśnie zwykłej indolencji, łatwo "idąc" w aferę z udziałem obcych służb - mówi w rozmowie z o2.pl dr Andrzej Skwarski. Na zdjęciu Michał Dworczyk (PAP)

Łukasz Maziewski: Trolle, boty, farmy – są odmieniane przez wszystkie możliwe przypadki. Jak to z nimi jest? Istnieją i są groźne?

Andrzej Skwarski: Istnieją, działają i są groźne. Głównie chińskie, rosyjskie. Ostatnio mocno zaktywizowali się Chińczycy. Trochę banują ich Twitter i Facebook. Ale bezsprzecznie mistrzami świata są w tym Rosjanie.

Dlaczego?

AS: To wynika z historii. Zaczęli się tym narzędziem posługiwać w średniowieczu, a oficjalnie przyjęli ją jako metodę w 1923 r., tworząc stosowny wydział w OGPU, czyli służbę specjalną odpowiedzialną za wywiad i kontrwywiad. Nawet samo słowo "dezinformacja" chcieli zakłamać i "ubrać" je w język francuski. Ale im się to nie udało.

Jarosław Nowak: Trolle, boty i ich "farmy" rzeczywiście istnieją. I są nielegalne w świetle rozumienia prawa polskiego.

Czemu służą?

JN: Walce. Atakowi na konkurencję, przeciwników. Politycznych, biznesowych i wizerunkowych. Chodzi o wywieranie wpływu np. w mediach społecznościowych, choć nie tylko. Ale służą także dezinformacji, to sianie fake newsów. Żeby to dobrze zrozumieć, musimy zacząć od rzeczy podstawowych.

Zobacz także: Dziewięć etapów cyberataku na firmę

Od wyjaśnienia różnicy między trollem i botem?

JN: Bot jest narzędziem – oprogramowaniem, które służy do pewnego rodzaju automatycznej komunikacji. Odpowiednio zaprogramowany bot może służyć też do wywierania wpływu lub dyskredytowania w poszczególnych zakresach, np. ataku na osoby czy firmy, który wpłynie na powszechną zmianę wizerunku. Cały aspekt ataku na firmy czy instytucje publiczne ma dwa wymiary. Po pierwsze: konkurencyjności. Załóżmy, że ktoś zabiega o dużą inwestycję.

I wtedy...

JN: Wtedy konkurencja może próbować niszczyć reputację firmy, a najłatwiejszym i najszybszym narzędziem z ekonomicznego punktu widzenia będzie odpowiednio zaprogramowany bot. Takie działania robione są od zawsze, tylko dziś używa się innych narzędzi, najczęściej właśnie w sieci. Nasze funkcjonowanie pocovidowe będzie hybrydowe i to zwiększy możliwości ataku, bo to wygeneruje odpowiednio sterowaną opinię, mającą możliwość zniszczenia np. inwestycji lub zasiania dezinformacji.

Dezinformacja różni się od klasycznego kłamstwa?

AS: Bardzo! Kłamstwo jest czymś, co w miarę łatwo można udowodnić, a potem wymagać publicznych przeprosin itd. A tzw. fake news – krótkie działanie, mające na celu niszczenie wizerunku danej firmy, może mieć formę kłamstwa. Pisze się wtedy np., że firma ta produkuje złe produkty. To jest najprostsze i banalne. Ale także stosuje się rozproszone działania w sieci w postaci odpowiednich narzędzi czy oprogramowania, za którym teoretycznie nikt nie stoi.

A dezinformacja?

AS: O dezinformacji myśli się w kontekście taktycznym i strategicznym. Taktyczny przygotowuje się kilka miesięcy i – cały czas w odniesieniu do biznesu – buduje opinię na temat firmy. Powolutku, nie wyjeżdżając od razu z mocnymi argumentami, metodycznie. A dezinformację strategiczną buduje się latami. W biznesie jest tego mniej, choć proszę przyjrzeć się np. temu, co dzieje się dookoła deweloperów albo rynku śmieci. Ale w głównej mierze wykorzystuje się dezinformację strategiczną w kontekście rozgrywek między państwami lub instytucjami międzynarodowymi.

Tak jak robi to np. Rosja wobec Unii Europejskiej i NATO?

AS: Dokładnie tak! Podważa się wiarygodność instytucji, rozsiewa fałszywe informacje – o wypadkach, zdarzeniach z udziałem żołnierzy NATO, rozpuszcza fałszywe informacje, które mają wyglądać na prawdziwe... Dezinformacja budowana jest latami i wydawane są na nią ogromne pieniądze.

Czy w wypadku tego, co dzieje się dookoła ministra Dworczyka, też mamy do czynienia z operacją dezinformacyjną? A może z realnym wyciekiem maili, w którym nie maczały palców żadne obce służby specjalne?

AS: Ja się tu nie dopatruję wielkich afer i szpiegostwa. [ustalenia ABW i SKW mówią o prawdopodobnym powiązaniu atakujących z rosyjskimi służbami - red.] W mojej ocenie mamy tu do czynienia ze zwykłą niefrasobliwością i indolencją. Mamy wykorzystanie prywatnych maili do państwowej działalności. Sfery rządowe pominęły aspekt właśnie zwykłej indolencji, łatwo "idąc" w aferę z udziałem obcych służb. Nie chcę tu uderzać w rządzących obecnie, bo wszyscy poprzednicy robili tak samo. Wydaje się im, że mogą wszystko, a mówienie o tym, że "ktoś będzie nas inwigilował", to takie tam straszenie.

Na czym cierpi bezpieczeństwo. Być może się mylę, ale większa jest obawa rządzących, że własne służby będą patrzyły im na ręce, i naginają procedury, niekoniecznie przyjmując do wiadomości, że tego rodzaju działania są zaproszeniem właśnie dla obcych wywiadów.

AS: Dokładnie. I to ludzie, których sami wybieramy. Bo przecież każda władza "ustawia" sobie szefów służb pod siebie. I dochodzi do sytuacji kuriozalnych! Rząd Donalda Tuska np. nie darzył szczególnym zaufaniem ABW, dowodzonego przez Krzysztofa Bondaryka. ABW opracowało wtedy bezpieczny system łączności, umożliwiający przekazywanie informacji do klauzuli "zastrzeżone". I z niego nie korzystano, to był słynny CATEL. Potem zresztą trochę poprawiony przez SKW. Jednak w historii ministra Dworczyka dochodzi jednak jeszcze jeden rzekomy aspekt: prywatny. Biznesowo w połączeniu z bezpieczeństwem państwa najprostszym przykładem jest zamieszanie dookoła firmy Huawei.

To znaczy?

AS: Mamy za mało informacji i nie mamy żadnych twardych dowodów, więc wszystko, co by się powiedziało o czyjejś prywatnej zemście na nim, jest spekulacją. Nie zamierzam spekulować. Tak czy inaczej – całość tej sprawy wydaje mi się po pierwsze banalna, a po drugie bardzo naganna. Mieszanie w to Rosjan wydaje mi się naciągane.

Ale z pewnością ucieszyli się z takiego "prezentu".

AS: To nie ulega wątpliwości. Nawet nie musieli się o to starać, sami im daliśmy amunicję do rąk. Nie wiemy, czy była ich ingerencja w tej sytuacji. Ale wygląda to tak, że jeśli nawet nie było, to sami ich chwalimy! Chciałby pan usłyszeć "no, dobra robota" za coś, czego pan nie zrobił? Bo ja bym chciał.

JN: 10- czy 12-letnie dziecko, które trochę się interesuje tematyką, będzie w stanie wejść na naszą pocztę. Może nie rządową, ale prywatną… Tym bardziej że minister korzystał ze "zwykłego" Gmaila, nie z płatnych, dodatkowo szyfrowanych rozwiązań Google’a. Ale wracając do pierwotnego pytania: zgadzam się z Andrzejem, że tu nie mamy do czynienia z ingerencją naszych wschodnich "braci". Indolencja osób, używających prywatnych maili do wymieniania się informacjami o znaczeniu żywotnym - czy to dla firmy, korporacji, czy państwa - jest po prostu ogromna. I dla mnie niepojęta. My nie uczymy się na błędach. W USA była kilka lat temu afera z wykorzystaniem maili Hillary Clinton. Bylibyśmy naiwni, sądząc, że Rosjanie dokładnie nie przestudiowali wyników tamtych działań. Zresztą… wszyscy zafiksowaliśmy się na Rosjanach. A przecież działają tu i inne wywiady. Chińczycy na przykład. Prawda?

Prawda.

AS: W pewnym sensie to też jest mechanizm dezinformacyjny. Budowanie w narracji oczywistego i prostego zabiegu "to na pewno Rosjanie!" też jest swoistą dezinformacją. Zamiast mówić o własnej indolencji, nie szukając realnej przyczyny wycieku, mówimy "Rosjanie" i wtedy wszyscy potulnie milkną i biorą to za pewnik, bo przecież nikt nie ma narzędzi, by to sprawdzić. Bo wiadomo: Rosjanie, wielki niedźwiedź znad Wołgi, szpiedzy. Temat zamknięty, my się bronimy, dziękuję. Reductio ad absurdum.

JN: Mam wrażenie, że Rosjanie mają na tyle dobre rozeznanie tego, co dzieje się w Polsce, że nie potrzebują kilku maili ministra Dworczyka.

Ale tej opcji też jednoznacznie i całkowicie odrzucić nie można. A przynajmniej nie powinien jej odrzucać kontrwywiad. Prawda?

AS: Wychodząc z Polski na przełomie lat 80. I 90., ZSRR zostawiło w Polsce około 1000 agentów. Realnych nielegałów. Nie mówię o tych pracujących z pozycji ambasady, to są zabawki. Z czasem ci ludzie stają się coraz bardziej niebezpieczni.

Dlaczego?

AS: Bo żyjąc tu, mieszkając przez lata, wtapiając się w krajobraz, stają się coraz bardziej niebezpieczni. Oczywiście działa tu biologia, bo nie są oni nieśmiertelni. Ale przez ten czas, kiedy osiadają i "otorbiają się", zyskują coraz większe możliwości. Jak perła, która buduje się dookoła ziarna piasku w ciele ostrygi, tak samo i oni zyskują kontakty, możliwości wywierania wpływu, budują dookoła siebie sieci uzależnień, powiązań.

Gdzie są dziś ci agenci?

AS: Odpowiem tak: wpływy Rosji po 1989 r. w Polsce pojawiały się w naprawdę wielu aspektach. Popatrzmy choćby na umowę zakupu gazu przez jeden z wczesnych rządów po 1989 r. Podpisałby pan tak niekorzystną umowę na zakup samochodu? Pewnie nie.

Chce pan przez to powiedzieć, że premier, który podpisywał tę umowę, był agentem?

AS: Nie. Chcę powiedzieć, że doradzali mu przy podpisywaniu tej umowy jacyś ludzie. I tam szukałbym tych osób, o których mówiłem wyżej.

JN: Swoją drogą, to też przykład procesów dezinformacyjnych. Wyszliśmy od pytania o trolle i boty. Wykorzystywanie takich botów do prowadzenia działań, do kształtowania pewnej – nazwijmy to – "policy of truth", polityki prawdy, można zauważyć, śledząc postawę Polaków wobec konfliktu na Ukrainie. Wykorzystywanie najpierw pojedynczych trolli, potem mikrogrup, których głosy i opinie z czasem zaczynają przebijać się do opinii publicznej, działa. Najpierw pojawiają się pytania: "a czy na pewno koniecznie musimy popierać Ukraińców? Może warto dogadać się z naszym drugim, bratnim narodem?" – takie głosy pojawiły się błyskawicznie. A potem były sukcesywnie podlewane, pielęgnowane i wzmacniane. Dziś są coraz częstsze. Coraz chętniej posługuje się radykalnymi mniejszościami. Dziś chętnie sięga się np. po modną geopolitykę, by stawiać pytania, kto na pewno jest naszym przyjacielem, a kto wrogiem i kwestionuje się dotychczasowe sojusze, prawda? I to trwa kilka dobrych lat.

AS: I to jest właśnie dezinformacja strategiczna. To nie trwa od tygodnia, miesiąca czy półrocza, takich działań nie opracowuje się i nie realizuje krótkoterminowo. Dopóki nie zdamy sobie sprawy, że dezinformacja jest bronią, będziemy przegrywać.

A przegrywamy?

AS: Jaka jest liczebność Bundeswehry? 180 tys.? 120 tys. w Polsce. A Słowacja i Litwa mają po 13 tys. Na co Rosja odpowiada liczebnością sił zbrojnych na poziomie miliona. I dwóch kolejnych w rezerwie. I co? Nie chodzi zresztą o wielkie liczby. Dlaczego my się szarpiemy i tworzymy teraz wojska cybernetyczne, a Rosjanie mają je i wykorzystują od dawna? Pomijam już kwestie, że to powinno być w gestii służb cywilnych. Tyle że odpowiednio wzmocnionych i dofinansowanych.

Jak to? Dlaczego?

AS: Problemy w tym świecie, cyberświecie, zmieniają się z niemal z minuty na minutę. A wojsko ze swoim podejściem nie jest tak elastyczne, działa w nieco innym systemie. Moim zdaniem, jedyną służbą, która powinna się tym w Polsce zajmować, jest ABW. Tyle że rozwinięta liczebnie i dofinansowana. Szczodrze.

A może stworzyć nową służbę zajmującą się tylko cyberbezpieczeństwem?

JN: Po co? To jest typowo polskie myślenie. Jak sobie z czymś nie radzimy, to budujemy nową formację. Tylko najpierw zaczynamy od budynków, samochodów, szefów, sekretarek i koloru okien. A można byłoby dofinansować i rozwinąć twórczo to, co już mamy. Mamy już pięć służb specjalnych. Naprawdę potrzebujemy kolejnej?

Niecałe dwa tygodnie temu Czesi poinformowali, że po wydaleniu 18 rosyjskich dyplomatów z placówki w Pradze spadła aktywność prorosyjskich botów w czeskiej infosferze. To znaczy, że Rosjanie kontrolowali owe boty z ambasady?

JN: Może po prostu wydalono akurat tego oficera, który to kontrolował? Takiej farmy nie trzeba prowadzić w danym państwie, by mieć na nie wpływ.

Jak wygląda farma trolli?

JN: Powiem w ten sposób: przez różne rozwiązania sprzętowe i programistyczne utrzymuje się fejkowe, wirtualne konta na portalach społecznościowych i w innych strategicznych miejscach sieci. To po pierwsze. A po drugie, utrzymuje się technicznie infrastrukturę, nazwijmy to, do obsługi trolli i botów. Wie pan, na czym polega różnica?

Z grubsza.

JN: Zatem w skrócie: troll to osoba. Np. wynajmowana do siania zamętu. Może to być albo ideowiec, albo pseudodziennikarz, który jest karmiony informacjami, by wywoływać zamęt. Albo też czasem osoba po prostu chora, którą wykorzystuje się do ataków. A boty to specjalnie tworzone konta, mające sztucznie podtrzymywać ruch w sieci, kreować go, podbijać określone tematy, a inne zagłuszać.

AS: Boty są automatyczne. A trolle są często faktycznie istniejącymi osobami, zarzucającymi jak w wędkarstwie sieć i czekającymi, aż ryby same zaczną do niej wpływać. A przecież formą dezinformowania są także memy! Mało kto o tym myśli, ale obrazki z komentarzami, odpowiednio spreparowanymi, także są znakomitym narzędziem do dezinformowania czy wywoływania określonych działań w infosferze. To metoda skrojona pod dzisiejsze czasy. Bo kotwicząca w głowie określony przekaz. Pokaże mi pan swój telefon?

Nie, to intymny przedmiot.

AS: A każdy z nas trzech na pewno ma w swoim telefonie jakieś memy. A gdzie one powstały i jaki był cel ich stworzenia? Pan to wie? Na sto procent? No właśnie. Mem kotwiczy w naszej głowie, nawet nieświadomie, czasem wbrew naszej woli, określone idee i wzorce, których życzy sobie jego twórca. Jest cały przemysł robienia memów. Większość z nich jest nieszkodliwa. Ale nie wszystkie. Czasem tylko pozornie są nieszkodliwe.

Jak z tym walczyć?

JN: Tymi samymi narzędziami. Identyfikacja procesu, nazwanie go – to pierwsze kroki. A potem wykorzystanie bardzo podobnych narzędzi internetowych do odwrócenia procesu.

Trudno namierza się taką farmę?

AS: Zaczyna się od rozpoznania ruchu w internecie. Trzeba poznać istotę i cel działania. Jakoś radzi sobie z tym np. Twitter i Facebook. Ale można to zrobić także samemu – poznając pewne konkretne cechy takich działań. Narzucanie swojej opinii, brak reakcji na opinię innych, zadawanie pytań, na które znamy już odpowiedzi czy stosowanie nierówności wypowiedzi – dyskusja toczy się między trzema osobami, a jedna zajmuje 80 proc. czasu wszystkich i rzuca tematami "od czapy". Załóżmy, że rozmowa jest o przemyśle mleczarskim, a ktoś zaczyna mówić o produkcji czołgów. Przynajmniej tak to wygląda od strony, nazwijmy to, ideologicznej.

A od strony sprzętowej?

JN: Trudno będzie stworzyć sprzętowe narzędzie, które będzie zapobiegało takim działaniom. Nie ma "czarciej zapadki na trolling". Ale można próbować. Przynajmniej na razie – biznesowo. Próbujemy stworzyć narzędzie do identyfikacji, co jest trollingiem, co internetowym hejtem, co jest intencyjnie wymierzone np. w przedsiębiorstwo jako atak. To są konkretne narzędzia do identyfikowania ruchu w internecie czy ataku na infrastrukturę. Ale o kuchni nie chcę mówić. Pracujemy nad takimi narzędziami, chcemy je rozwijać. Ale działania informatyczne muszą współdziałać z analityką ludzką. Bo sztuczna inteligencja będzie działać tak, jak ją tego nauczymy. Bez człowieka się nie obędzie.

Może pan o tym opowiedzieć w skrócie?

JN: W skrócie działa to tak: najpierw człowiek informuje o problemie. Potem rozwiązanie informatyczne przeszukuje zasoby, a na końcu inny człowiek, widząc wyniki przeszukiwań, podejmuje decyzję co do dalszych działań. Nasze narzędzie ma przyśpieszyć identyfikację problemów, by szybciej nimi zarządzać.

Wasze rozwiązania są kierowane do sektora prywatnego czy państwowego?

JN: Na razie do sektora prywatnego. Ale chcemy iść z tym dalej, do sektora państwowego.

Wróćmy jeszcze na chwilę do botów i farm. Mówi pan, że wychodząc z Polski, Rosjanie zostawili około 1000 agentów. A ile działa obecnie w Polsce farm trolli?

JN: A jaki miernik pan wyznacza? Bo jeśli uznamy za "farmę" zasób 5-10 sztucznych kont służących czemuś, to ich liczebność może iść w setki. Nie jest problemem założyć coś takiego np. na Ukrainie. 500 m od granicy z Polską, dysponując kilkunastoma laptopami, można wygenerować farmę liczącą kilkaset bot-kont, które zrobią olbrzymi ruch w internecie.

A jak wygląda to od strony finansowej? Można to oszacować?

AS: Koszt ludzi, urządzeń i dostępu do szerokopasmowego internetu.

Można byłoby zmieścić się w kwocie… no nie wiem, 16 tys. zł?

JN: A ile mielibyśmy takich kont stworzyć?

Powiedzmy, że 1500.

JN: Nie ma sprawy.

AS: A z taką liczbą sztucznych kont już można napsocić. Tyle że to 16 tys. zł to byłby koszt miesięczny. Bo to musiałoby funkcjonować.

Decyzyjność i procesy polityczne coraz bardziej sprowadzone do właściwego czytania ciągu zer i jedynek. Dość smutna wizja.

JN: To już się dzieje i sami na to pozwalamy. Kilka lat temu głośno było o narzędziu firmy Cambidge Analitica, która tworzyła – i sprzedawała – dane o użytkownikach Facebooka. Potem wykorzystywano to do mikrotargetowania, np. w polityce. Powtórzę: sami na to pozwalamy, dając dostęp do swoich danych. Już toczy się debata w USA, ile powinien płacić nam Facebook za użytkowanie swoich danych.

AS: Jedno ważne zastrzeżenie: jeśli każde nasze zachowanie, myśl, miejsce, gdzie jesteśmy, nastrój musimy wrzucić na Facebooka, to my mamy problem, a nie Facebook. My decydujemy, co chcemy udostępnić. Kiedyś chłop, wychodząc w pole, brał pług. I wiedział, że jeśli podstawi pod ten pług nogę, to on mu ją uszkodzi. Dzisiaj wychodzi się – przepraszam za kulawą metaforę – w pole z Facebookiem. A nasze dane są cenne. Dla każdego w innym stopniu: zależy, czego się szuka. I co chce się ukryć. Kilka lat temu było głośno o tym, że zamachowiec, który w berlińskim parku zastrzelił czeczeńskiego dysydenta, był w Polsce. Być może dostał tu broń, która posłużyła do zamachu. I na takiej podstawie już można budować opinię, że Polska jest miejscem, gdzie się wspiera terrorystów. Breivik też kupował materiały do budowy swoich bomb w Polsce.

JN: Wszystko jest kwestią zarządzania opinią. Kiedyś nie docenialiśmy tego, że jedna opinia może wyrządzić gigantyczne szkody reputacyjne. Ten problem nie jest dostrzegany wyraźnie w Polsce.

Wy też zbieracie informacje w swoim narzędziu?

JN: Nie do końca. Zbieramy dane ze źródeł otwartych, po czym łączymy to z naszym narzędziem, analizującym aktywność użytkowników na portalach społecznościowych. Łączymy te dane, crossujemy je. To wszystko służy temu, by analityk pracujący nad klientem i jego problemem miał możliwość szybszego reagowania i budowania analiz dla klienta. Chcemy budować proces, identyfikujący potencjalne trolle i boty pod kątem ich intencji.

To może docieramy do punktu, w którym 1000 botów będzie skuteczniejsze niż jeden z tego 1000 zostawionych w Polsce 30 lat temu agentów?

JN: Nie sądzę. Taki ktoś będzie być może zarządzał tymi botami. Nie uważam, by tak szybko dało się zastąpić człowieka w tego rodzaju działalności. Nasz biznes jest nakierowany na obronę ludzi przed działalnością tego rodzaju botów, trolli innych wynalazków.

A użyłby pan go do ataku?

JN: Nie. Nie mieści się to w moim aksjologicznym podejściu do prowadzenia biznesu. W odróżnieniu do niektórych, kreujących się na wielkich PR-ców, którzy po prostu prowadzili negatywne, hejterskie kampanie.

Powie pan, o kogo chodzi?

JN: Niech się pan domyśli.

Dr Andrzej Skwarski - specjalista z zakresu bezpieczeństwa, emerytowany oficer służb specjalnych

Jarosław Nowak - CEO firmy Jupiter-19, zajmującej się badaniem wpływu na wizerunek w internecie

Oceń jakość naszego artykułu:

Twoja opinia pozwala nam tworzyć lepsze treści.

Zobacz także:
Oferty dla Ciebie
Wystąpił problem z wyświetleniem stronyKliknij tutaj, aby wyświetlić