Polska znajduje się na trzecim miejscu w Europie pod względem narażenia na cyberataki sponsorowane przez obce państwa. Zbliżające się wybory mogą więc stać się polem bitwy w cyberprzestrzeni. Czy w erze deepfake’ów możemy być o nie spokojni? Jak rozpoznać manipulacje i jak się przed nimi bronić?
Pod cyfrowym ostrzałem
Według Check Point Research w 2024 r. Polska była celem blisko 100 tys. cyberataków, a nasz sektor użyteczności publicznej doświadczał 2041 incydentów tygodniowo, przewyższając światową średnią. Według raportu Microsoft Digital Defense nasz kraj zajmuje trzecie miejsce w Europie pod względem narażenia na ataki ze strony cyberprzestępczych organizacji sponsorowanych przez obce państwa.
Zagrożenie cyberatakami wymierzonymi w wybory jest więc realne. Ich celem jednak może wcale nie być bezpośrednia zmiana wyniku głosowania.
– Cyberprzestępcy mogą dążyć np. do podważenia zaufania do procesu wyborczego, polaryzacji społeczeństwa, próbować wpłynąć na to, czy w ogóle pójdziemy zagłosować – komentuje Łukasz Boduch, Software & Applications – Solutions Architect z firmy IT SoftServe Poland.
AI i social media w walce o głosy
Arsenał atakujących obejmuje wiele narzędzi.
– Najbardziej prawdopodobne scenariusze obejmują ataki DDoS na strony internetowe PKW, partii politycznych czy podmiotów odpowiedzialnych za cyberbezpieczeństwo, phishing wymierzony w kandydatów, ich bliskich, komitety wyborcze czy partie, a także manipulowanie opinią publiczną np. poprzez publikowanie deepfake’ów w social media – wymienia Łukasz Boduch z SoftServe Poland.
Dezinformacja może też obejmować fałszywe komunikaty np. o wcześniejszym zamykaniu lokali wyborczych.
Możliwość manipulacji zwiększyła sztuczna inteligencja.
– AI umożliwia dziś tworzenie bardzo przekonujących deepfake’ów, np. sfałszowanych wideo, na których politycy >>mówią<< rzeczy, których nigdy nie powiedzieli. Przeciętny wyborca może mieć naprawdę spore trudności z odróżnieniem fałszywki od autentycznego materiału – ostrzega Łukasz Boduch z SoftServe Poland.
Rozprzestrzenianiu takich treści sprzyjają social media. Sieci botów i fałszywych kont mogą sztucznie wzmacniać zasięg określonych narracji, tworząc wrażenie ich popularności.
Jak rozpoznać manipulacje?
– Krytyczne myślenie to podstawa. Sprawdzajmy źródła i szukajmy potwierdzenia w innych, oficjalnych źródłach. Szczególną ostrożność zachowajmy względem sensacyjnie brzmiących newsów i >>przecieków<<, zwłaszcza takich, które pojawiają się tuż przed ciszą wyborczą – mówi Łukasz Boduch z SoftServe Poland. Uważajmy też na to, co „podajemy dalej”.
A co z deepfake’ami? Sztuczna inteligencja tworzy coraz bardziej zaawansowane treści, ale nadal z wieloma elementami sobie nie radzi.
– W przypadku materiałów wizualnych o tym, że zostały stworzone przez AI, najczęściej świadczy to, że obraz wygląda nienaturalnie, postacie często mają szkliste, puste oczy i są pokazywane albo bez kończyn, albo np. z sześcioma czy czterema palcami ręki. W wideo warto zwrócić uwagę na nienaturalne ruchy oraz mimikę i to, czy dźwięk jest zsynchronizowany z obrazem bądź zapętlony. Sztuczna inteligencja nie jest też dobra w kreowaniu elementów poza pierwszym planem – często są one rozmyte, wyglądają sztucznie – podpowiada Łukasz Boduch z SoftServe Poland.
W social mediach warto też sprawdzić profil, z którego pochodzą treści – np. to, jak długo istnieje i co wcześniej publikował. Uważajmy także na dane czy cytaty, które mogą być wyrwane z kontekstu, krytycznie podchodźmy też do tekstów zawierających liczne błędy.
Na wszelkie próby dezinformacji warto reagować i je zgłaszać – to realny wpływ na bezpieczeństwo państwa i nas samych.