Skip to content Skip to footer

Rośnie znaczenie europejskiej inicjatywy Roberta Szustkowskiego. Polacy coraz częściej chcą chronić swoją tożsamość i wizerunek w sieci

W czasie, gdy ustawa wdrażająca akt o usługach cyfrowych (DSA) została w Polsce zawetowana, rośnie skala społecznych obaw o prywatność i reputację w Internecie. Polska znajduje się dziś wśród państw o wysokim poziomie wrażliwości na ochronę danych osobowych, a liczba wniosków o ich usunięcie dynamicznie rośnie.

Z najnowszych danych Google wynika, że w okresie od stycznia 2025 do stycznia 2026 Polacy złożyli 24 200 wniosków o usunięcie swoich danych z wyników wyszukiwania. Pozytywnie rozpatrzono jedynie około połowę z nich. Jednocześnie rośnie znaczenie europejskiej inicjatywy filantropa i aktywisty społecznego Robert Szustkowski, której celem jest zwiększenie ochrony wizerunku obywateli UE oraz rozszerzenie „prawa do bycia zapomnianym” również na media jako administratorów danych.

Choć liczba wniosków składanych przez Polaków pozostaje niższa niż w Wielkiej Brytanii (103 000), Francji (86 500) czy Niemczech (71 000), Polska znajduje się w ścisłej czołówce Unii Europejskiej — na 7. miejscu wśród państw, których obywatele najczęściej ubiegają się o ochronę swojej tożsamości w sieci. Wynika to z raportu Google Transparency Report 2025.

„Prawo do bycia zapomnianym” coraz częściej wykorzystywane

Polacy coraz aktywniej korzystają z tzw. prawa do bycia zapomnianym — unijnego mechanizmu wynikającego z przepisów RODO (GDPR), który umożliwia osobom prywatnym i firmom żądanie usunięcia danych osobowych z Internetu lub wyników wyszukiwania.

Prawo to stało się istotnym narzędziem zarządzania cyfrowym śladem, co potwierdza szybki wzrost liczby wniosków:

  • 12 800 wniosków w 2023 r.
  • 13 800 wniosków w 2024 r.
  • 24 200 wniosków w 2025 r.

Oznacza to blisko 90-procentowy wzrost rok do roku. Większość zgłoszeń dotyczy usuwania nieprawdziwych treści z mediów społecznościowych lub materiałów publikowanych przez media, które mogą negatywnie wpływać na reputację osobistą lub korporacyjną.

Rola aktu o usługach cyfrowych

Wzmocnieniem tych działań miał być Digital Services Act — unijny akt regulujący odpowiedzialność platform internetowych za treści publikowane przez użytkowników. Jego celem jest zwiększenie przejrzystości działania serwisów, ochrona praw użytkowników oraz skuteczniejsza walka z nielegalnymi treściami online.

Regulacje obejmują m.in. dostawców usług hostingowych, platformy handlowe i media społecznościowe. Szczególne obowiązki nałożono na tzw. bardzo duże platformy i wyszukiwarki mające ponad 45 mln użytkowników w UE, takie jak Facebook, Google, Amazon czy TikTok.

Skala problemu jest znacząca. Z danych DSA Transparency Database wynika, że od uruchomienia systemu we wrześniu 2023 r. platformy zgłosiły już 3,6 mld tzw. „statements of reasons” — zapisów decyzji moderacyjnych dotyczących m.in. usuwania treści lub blokowania dostępu do nich.

Europejska inicjatywa ochrony reputacji

Na tym tle rośnie znaczenie inicjatywy Roberta Szustkowskiego, która w 2025 r. otrzymała rekomendacje władz Komisji Europejskiej. Projekt zakłada utworzenie rejestru naruszeń praw osobistych oraz powołanie Rzecznika Praw Czytelnika, który wspierałby osoby poszkodowane przez fałszywe informacje w przygotowaniu standardowych zgłoszeń.

Zdaniem autora projektu ma to umożliwić skuteczniejszą walkę z dezinformacją w całej Unii Europejskiej.

„Proponowane zmiany mają zapobiegać szerzeniu dezinformacji, budować świadomość obywateli UE o narzędziach ochrony wizerunku. Każdy człowiek, bez względu na możliwości finansowe, powinien mieć prawo dbania o swoją reputację bez konieczności prowadzenia długoletnich procesów sądowych” – podkreśla Robert Szustkowski, który prowadzi dialog z Ministerstwem Sprawiedliwości RP, Ministerstwem Cyfryzacji oraz prezesem UODO.

Dane Google pokazują, że wnioski składane przez Polaków w 2025 r. dotyczyły głównie nieprawdziwych informacji w mediach i serwisach społecznościowych — łącznie stanowiły one około 50 proc. zgłoszeń. Najwięcej obaw o ochronę danych dotyczyło mediów (8 proc.) oraz platform społecznościowych (5 proc.).

Czy brak wdrożenia DSA osłabi ochronę obywateli?

Pojawia się pytanie, czy odrzucenie ustawy wdrażającej DSA w Polsce ograniczy skuteczność ochrony obywateli przed fałszywymi informacjami i odpowiedzialnością platform cyfrowych.

Zgodnie z art. 9 DSA krajowe organy sądowe lub administracyjne mogą wydawać nakazy usunięcia nielegalnych treści na podstawie prawa UE lub prawa krajowego, a dostawcy usług są zobowiązani do podjęcia działań i poinformowania o ich przebiegu.

„Brak wejścia w życie przepisów DSA jest niepokojącym sygnałem ostrzegawczym z punktu widzenia ochrony wizerunku osobistego i praw naszych obywateli przed nieprawdziwymi informacjami” – podkreślają eksperci.

Unia Europejska powołała co prawda krajowe centra EDMO (European Digital Media Observatory), które prowadzą działania fact-checkingowe i reagują na sytuacje wymykające się ramom prawa, jednak skala wyzwań rośnie.

AI i nowe zagrożenia dla reputacji

Współcześnie niemal każdy użytkownik Internetu styka się z treściami generowanymi przez sztuczną inteligencję. Materiały te często nie zawierają bezpośrednich kłamstw, lecz subtelnie budują skojarzenia między osobą lub firmą a określoną ideą — pozytywną lub negatywną.

„Prawdopodobieństwo zetknięcia się z treściami generowanymi przez AI – zwłaszcza w mediach społecznościowych – jest dziś niemal stuprocentowe. Sztuczna inteligencja potrafi w bardzo krótkim czasie tworzyć atrakcyjne emocjonalnie treści i obrazy, które łatwo się rozprzestrzeniają. Problem nie dotyczy wyłącznie dezinformacji czy fałszywych faktów. Coraz częściej mamy do czynienia z materiałami, które nie muszą wprost kłamać, ale subtelnie budują skojarzenia między osobą lub firmą a określoną ideą – pozytywną lub negatywną. Takie treści mogą prowadzić do niesłusznego szkalowania wizerunku i reputacji, nawet jeśli formalnie nie zawierają oczywistych nieprawd” – mówi Wojciech Głażewski, dyrektor firmy Check Point w Polsce.

Orzeczenia sądów wzmacniają ochronę

Przykładem stanowczych działań organów UE jest wyrok Trybunał Sprawiedliwości Unii Europejskiej z 2023 r., który zobowiązał Google do usunięcia szkodliwych informacji dotyczących osób prywatnych — członków zarządu niemieckiej firmy, których reputacja została zniszczona przez publikacje oparte na nieprawdziwych danych.

„Wizerunek firmy, biznesmena, przedsiębiorcy to jeden z najważniejszych czynników determinujących sukces rynkowy” – zauważył TSUE, podkreślając znaczenie obrony reputacji.
„Jeżeli osoba, która złożyła wniosek o usunięcie odnośnika, przedstawi istotne i wystarczające dowody pozwalające uzasadnić jej wniosek oraz wykazać oczywistą nieprawdziwość informacji zawartych w treści, do której odsyła link, operator wyszukiwarki jest zobowiązany do uwzględnienia tego wniosku” – podsumowali sędziowie.

Podobne stanowisko zajął w 2025 r. polski wymiar sprawiedliwości. Naczelny Sąd Administracyjny wskazał, że jeśli przetwarzanie danych osobowych nie jest już niezbędne, prawo do bycia zapomnianym powinno przysługiwać osobom, których dane znajdują się w cyfrowych archiwach prasowych (wyrok z 26 marca 2025 r., sygn. III OSK 3446/23).

Media i platformy pod presją regulacji

Duże koncerny medialne oraz firmy technologiczne przyjęły zobowiązania wynikające z nowego Kodeksu Dobrych Praktyk w ramach DSA. W lutym 2025 r. Komisja Europejska i Europejska Rada ds. Usług Cyfrowych zatwierdziły jego integrację z ramami aktu, a od 1 lipca 2025 r. stał się on benchmarkiem zgodności w obszarze walki z dezinformacją i weryfikacji faktów.

Rosnąca liczba wniosków o usunięcie danych oraz rozwój inicjatyw na poziomie europejskim pokazują jednoznacznie: ochrona tożsamości i reputacji w sieci staje się jednym z kluczowych wyzwań cyfrowej rzeczywistości. Wraz z rozwojem AI, platform społecznościowych i archiwów cyfrowych presja na stworzenie skutecznych narzędzi prawnych i instytucjonalnych będzie tylko rosnąć.

Show CommentsClose Comments

Leave a comment