Postępująca cyfryzacja życia codziennego przyzwyczaiła nas do algorytmów dobierających muzykę, filmy czy nawet podpowiadających treść maili, jednak gdy technologia ma wkroczyć w sferę administracji państwowej, nasz entuzjazm gwałtownie stygnie. Najnowsze dane płynące z raportu ClickMeeting rzucają ciekawe światło na nastroje społeczne w Polsce, pokazując wyraźną granicę, której jako obywatele nie chcemy przekraczać. Okazuje się, że wygoda kończy się tam, gdzie zaczyna się przetwarzanie naszych wrażliwych danych przez bezduszne maszyny, a wizja urzędnika-robota budzi raczej niepokój niż nadzieję na sprawniejszą obsługę. Zamiast zachwytu nad nowoczesnością, dominuje ostrożność i obawa o to, czy państwowe systemy są gotowe na starcie z rosnącą falą cyberzagrożeń.
Analizując wyniki badania przeprowadzonego pod koniec 2025 roku, trudno nie dostrzec pewnego paradoksu w naszym podejściu do technologii. Z jednej strony chętnie korzystamy z nowinek w sferze prywatnej, z drugiej – aż 44 proc. ankietowanych stanowczo sprzeciwia się wykorzystaniu sztucznej inteligencji w instytucjach publicznych. Niechęć ta dotyczy kluczowych aspektów, takich jak wsparcie w podejmowaniu decyzji administracyjnych, rozpatrywanie wniosków czy analiza zeznań podatkowych. Wygląda na to, że w sprawach wagi państwowej wciąż wyżej cenimy omylnego, ale „ludzkiego” urzędnika niż najdoskonalszy nawet algorytm, co może wynikać z głęboko zakorzenionego braku zaufania do szczelności cyfrowych systemów państwowych.
Strach przed niewidzialnym wrogiem
Bardzo niepokojące wnioski płyną z analizy naszej świadomości na temat cyberbezpieczeństwa, która zdaje się być mieszanką ignorancji i fałszywego poczucia bezpieczeństwa. Aż 61 proc. badanych jest przekonanych, że nigdy nie padło ofiarą wycieku danych, co w świetle statystyk dotyczących ataków na infrastrukturę w 2025 roku brzmi wręcz naiwnie. Eksperci słusznie zauważają, że brak wiedzy o wycieku nie oznacza, że do niego nie doszło – wiele naruszeń pozostaje niewidocznych dla przeciętnego Kowalskiego przez długie miesiące. Ta dysproporcja między rzeczywistym zagrożeniem a naszym postrzeganiem sytuacji pokazuje, jak wiele pracy edukacyjnej jest jeszcze do wykonania.
Sztuczna inteligencja jako zagrożenie
Większość z nas intuicyjnie czuje, że wprowadzenie AI do powszechnego użytku to broń obosieczna, co potwierdzają liczby – niemal trzy czwarte badanych uważa powszechność tej technologii za czynnik zwiększający ryzyko cyberzagrożeń. Nie jest to bezpodstawna obawa, biorąc pod uwagę, jak skutecznie hakerzy wykorzystują algorytmy do tworzenia coraz bardziej wyrafinowanych ataków phishingowych czy dezinformacji. Skoro niemal połowa Polaków zna kogoś, komu przejęto konto w mediach społecznościowych, naturalnym odruchem jest strach przed tym, że podobna sytuacja mogłaby dotyczyć systemów, w których przechowujemy dane o naszym zdrowiu, majątku czy tożsamości.
Zaufanie trzeba zbudować od podstaw
Kluczowym problemem nie jest sama technologia, lecz sposób jej wdrażania i zabezpieczania, na co zwracają uwagę specjaliści z branży. Wdrażanie innowacji w sektorze publicznym bez solidnych fundamentów w postaci certyfikowanych centrów danych i zgodności z normami takimi jak ISO/IEC 27001 czy dyrektywa NIS2, to prosty przepis na katastrofę wizerunkową. Polacy zdają się to rozumieć lepiej niż decydenci, stawiając opór przed „cyfryzacją na siłę”. Dopóki instytucje nie udowodnią, że potrafią skutecznie chronić nasze cyfrowe „ja” przed zautomatyzowaną przestępczością, dopóty sztuczna inteligencja w urzędzie będzie kojarzyć się z ryzykiem, a nie z postępem.
Jeden komentarz
Super artykuł