Jak prawo unijne i Parlament chroni obywateli przed cyberzagrożeniami? Cyberbezpieczeństwo w UE

2025-11-07 0:02 Materiał sponsorowany

Z badania[1] nt. sztucznej inteligencji i przyszłości pracy wynika, że Polacy są wielkimi entuzjastami AI. Podobnie jak 60 proc. Europejczyków, dostrzegają pozytywny wpływ sztucznej inteligencji zarówno na miejsca pracy, jak i gospodarkę czy jakość życia. Podczas gdy 67 proc. obywateli UE widzi zalety wykorzystania technologii cyfrowych, w tym robotów i AI w miejscu pracy, w Polsce taką deklarację składa aż 70 proc. osób. Jednak cyfro¬wy świat to też zagrożenia.

cyberbezpieczenstwo

i

Autor: Ivan Marc/ Shutterstock

Z raportu CERT Polska za 2024 r. wynika, że liczba zgłoszeń cyber­przestępstw i incydentów naru­szających bezpieczeństwo w sieci wzrosła aż o ok. 62 proc. w porów­naniu do 2023 r. W ub.r. Centralne Biuro Zwalczania Cyberprzestęp­czości (CBZC) postawiło zarzuty ponad 1 tys. podejrzanym i zatrzy­mało ok. 850 osób. Skala tych incy­dentów jest dużo większa.

Bezpieczeństwo produktów cyfrowych

Wiele osób na co dzień korzysta m.in. z routera Wi-Fi czy smartwa­tcha. Produkty zawierające elemen­ty cyfrowe są podatne na cyberata­ki. Aby zminimalizować zagrożenie Parlament Europejski zatwierdził jednolity zestaw obowiązkowych wytycznych dla produktów podłą­czonych do sieci lub innych urzą­dzeń – Akt w sprawie cyberodpor­ności. Zobowiązuje on producentów i sprzedawców produktów cyfro­wych do spełnienia bardziej rygory­stycznych norm w zakresie ich bez­pieczeństwa - automatyczne aktualiza­cje zabez­pieczeń i zapewnienie bezpieczeń­stwa w całym cyklu życia pro­duktu. Posłowie i posłanki wynegocjo­wali rozszerzenie listy urzą­dzeń i oprogramowań, które będą musiały spełniać ostrzejsze wymo­gi, o kamery systemów bezpieczeń­stwa, elektroniczne nianie, smar­twache i inteligentne zabawki.

Zaostrzenie wymogów

Dyrektywa w sprawie bezpieczeń­stwa sieci i informacji (NIS2) zobo­wiązuje podmioty publiczne oraz średnie i duże firmy do zwiększenia poziomu bezpieczeństwa IT. NIS2 nakłada obowiązki na operatorów usług, z których korzystamy na co dzień m.in. usług finansowych, szpi­tale i przychodnie, dostawców wody, energii, Internetu, transport publicz­ny, administrację publiczną i usługi cyfrowe. W związku z tym podmio­ty te powinny wdrożyć wyższe stan­dardy bezpieczeństwa, m.in. szybciej wykrywać włamania i raportować incydenty, obowiązkowo tworzyć kopie zapasowe danych, lepiej chro­nić dane osobowe i medyczne oraz zwiększyć ochronę przed skutkami awarii np. energetycznych.

Sztuczna Inteligencja

Kwestie związane z wykorzysta­niem sztucznej inteligencji regu­luje Akt AI. Zakazuje on m.in. stosowa­nia systemów AI tam, gdzie ryzyko jest zbyt duże np. w zabawkach akty­wowanych głosem, lotnictwie, autach, urzą­dzeniach medycznych, win­dach. O wyjątkowych przypad­kach decydować ma sąd. W unijnej bazie danych będą musiały być zarejestrowane systemy AI nale­żące do 8 obszarów związanych z m.in. infrastrukturą krytyczną, zatrudnieniem, edukacją, usługa­mi. Obywatele będą mogli składać skargi dotyczące systemów AI do organów krajowych.

– Egzekwujemy istniejące prze­pisy. AI Act działa „w zależno­ści od ryzyka”: systemy manipu­lujące ludźmi są zakazane, a te wysokiego ryzyka muszą speł­nić twarde wymogi, zanim tra­fią do ludzi. To realna tarcza dla konsumentów. Mamy też pakiet dla Internetu: DSA i DMA plus przepisy o nieuczciwych prakty­kach i bezpieczeństwie produk­tów.

Liczy się egze­kwowanie wobec największych gra­czy: X, TikToka i AliEx­press. W IMCO planujemy wdro­żenia, terminy są znane: część zakazów już działa, pełne zasto­sowanie będzie w 2026 r. Komisja szykuje wytyczne, a my dopilnu­jemy, by te reguły były zrozumia­łe i działały w praktyce. – mówi posłanka do PE Kamila Gasiuk­-Pihowicz, Wiceprzewodnicząca Komisji Rynku Wewnętrznego i Ochrony Konsumentów (IMCO).

 Wymagania przejrzystości

Sztuczna inteligencja daje korzy­ści, ale w złych rękach szkodzi. Widzimy to przy wojnie hybrydo­wej: fałszywe treści, „deepfake” i boty potrafią zalać Internet i wpływać na wybory. Walczy­my z tym, żeby nikt nie mani­pulował Polakami w sieci. Prob­lem dotyczy też dużych platform: X (Twitter) i TikTok były już wzy­wane do wyjaśnień, a AliExpress musi lepiej pilnować sprzedaw­ców. Chcemy, by każdy – skądkol­wiek – grał według europejskich zasad i nie wciskał Polakom bubli. – komentuje Kamila Gasiuk-Piho­wicz. Systemy AI m.in. ChatGPT muszą przestrzegać wymogów przejrzystości i praw autorskich UE, w tym być tak zaprojektowa­ne (wraz z publikacją streszczenia szkoleń AI), by nie tworzyły treści nielegalnych. Muszą być wyraźnie oznaczone jako treści wygenero­wane przez sztuczną inteligencję.

 Ochrona graczy online

Parlament Euro­pejski dąży też do zapewnienia lepszej ochrony graczom. W tym celu proponuje m.in.: zmiany w praktykach zakupowych (aby zapo­biec m.in. spirali płat­nych opcji dostęp­nych w grach typu loot box, czy­li pakietów loso­wych przedmiotów ułatwiających grę), ułatwienie rezygnacji z subskrypcji gier, wpro­wadzenia efektywniej­szych narzędzi kon­troli rodzicielskiej i skuteczniejszą ochronę danych osobowych.

Jak powinniśmy chronić się sami?

  1. Bądź ostrożny, gdy otrzymasz spontanicznego mai­la, SMS-a lub telefon.
  2. Pamiętaj! Urzędy i banki nigdy nie pro­szą o ujawnienie hasła.
  3. Naucz się roz­poznawać treści stworzone przez AI.
  4. Chroń się przed dezinformacją.
  5. Zabezpiecz domo­wą sieć (zmień hasło do Wi-fi).
  6. Wzmocnij wszystkie hasła.
  7. Chroń sprzęt – aktu­alizuj i zainstaluj program antywi­rusowy2.

[1]Specjalny Eurobarometr 554, Sztuczna inteligencja i przyszłość pracy: https://europa.eu/eurobarometer/surveys/detail/3222.

[2] Zalecenia pochodzą z strony Parlamentu Europejskiego www.europarl.europa.eu.

belka parlament

i

Autor: se.pl

Player otwiera się w nowej karcie przeglądarki