Z raportu CERT Polska za 2024 r. wynika, że liczba zgłoszeń cyberprzestępstw i incydentów naruszających bezpieczeństwo w sieci wzrosła aż o ok. 62 proc. w porównaniu do 2023 r. W ub.r. Centralne Biuro Zwalczania Cyberprzestępczości (CBZC) postawiło zarzuty ponad 1 tys. podejrzanym i zatrzymało ok. 850 osób. Skala tych incydentów jest dużo większa.
Bezpieczeństwo produktów cyfrowych
Wiele osób na co dzień korzysta m.in. z routera Wi-Fi czy smartwatcha. Produkty zawierające elementy cyfrowe są podatne na cyberataki. Aby zminimalizować zagrożenie Parlament Europejski zatwierdził jednolity zestaw obowiązkowych wytycznych dla produktów podłączonych do sieci lub innych urządzeń – Akt w sprawie cyberodporności. Zobowiązuje on producentów i sprzedawców produktów cyfrowych do spełnienia bardziej rygorystycznych norm w zakresie ich bezpieczeństwa - automatyczne aktualizacje zabezpieczeń i zapewnienie bezpieczeństwa w całym cyklu życia produktu. Posłowie i posłanki wynegocjowali rozszerzenie listy urządzeń i oprogramowań, które będą musiały spełniać ostrzejsze wymogi, o kamery systemów bezpieczeństwa, elektroniczne nianie, smartwache i inteligentne zabawki.
Zaostrzenie wymogów
Dyrektywa w sprawie bezpieczeństwa sieci i informacji (NIS2) zobowiązuje podmioty publiczne oraz średnie i duże firmy do zwiększenia poziomu bezpieczeństwa IT. NIS2 nakłada obowiązki na operatorów usług, z których korzystamy na co dzień m.in. usług finansowych, szpitale i przychodnie, dostawców wody, energii, Internetu, transport publiczny, administrację publiczną i usługi cyfrowe. W związku z tym podmioty te powinny wdrożyć wyższe standardy bezpieczeństwa, m.in. szybciej wykrywać włamania i raportować incydenty, obowiązkowo tworzyć kopie zapasowe danych, lepiej chronić dane osobowe i medyczne oraz zwiększyć ochronę przed skutkami awarii np. energetycznych.
Sztuczna Inteligencja
Kwestie związane z wykorzystaniem sztucznej inteligencji reguluje Akt AI. Zakazuje on m.in. stosowania systemów AI tam, gdzie ryzyko jest zbyt duże np. w zabawkach aktywowanych głosem, lotnictwie, autach, urządzeniach medycznych, windach. O wyjątkowych przypadkach decydować ma sąd. W unijnej bazie danych będą musiały być zarejestrowane systemy AI należące do 8 obszarów związanych z m.in. infrastrukturą krytyczną, zatrudnieniem, edukacją, usługami. Obywatele będą mogli składać skargi dotyczące systemów AI do organów krajowych.
– Egzekwujemy istniejące przepisy. AI Act działa „w zależności od ryzyka”: systemy manipulujące ludźmi są zakazane, a te wysokiego ryzyka muszą spełnić twarde wymogi, zanim trafią do ludzi. To realna tarcza dla konsumentów. Mamy też pakiet dla Internetu: DSA i DMA plus przepisy o nieuczciwych praktykach i bezpieczeństwie produktów.
Liczy się egzekwowanie wobec największych graczy: X, TikToka i AliExpress. W IMCO planujemy wdrożenia, terminy są znane: część zakazów już działa, pełne zastosowanie będzie w 2026 r. Komisja szykuje wytyczne, a my dopilnujemy, by te reguły były zrozumiałe i działały w praktyce. – mówi posłanka do PE Kamila Gasiuk-Pihowicz, Wiceprzewodnicząca Komisji Rynku Wewnętrznego i Ochrony Konsumentów (IMCO).
Wymagania przejrzystości
– Sztuczna inteligencja daje korzyści, ale w złych rękach szkodzi. Widzimy to przy wojnie hybrydowej: fałszywe treści, „deepfake” i boty potrafią zalać Internet i wpływać na wybory. Walczymy z tym, żeby nikt nie manipulował Polakami w sieci. Problem dotyczy też dużych platform: X (Twitter) i TikTok były już wzywane do wyjaśnień, a AliExpress musi lepiej pilnować sprzedawców. Chcemy, by każdy – skądkolwiek – grał według europejskich zasad i nie wciskał Polakom bubli. – komentuje Kamila Gasiuk-Pihowicz. Systemy AI m.in. ChatGPT muszą przestrzegać wymogów przejrzystości i praw autorskich UE, w tym być tak zaprojektowane (wraz z publikacją streszczenia szkoleń AI), by nie tworzyły treści nielegalnych. Muszą być wyraźnie oznaczone jako treści wygenerowane przez sztuczną inteligencję.
Ochrona graczy online
Parlament Europejski dąży też do zapewnienia lepszej ochrony graczom. W tym celu proponuje m.in.: zmiany w praktykach zakupowych (aby zapobiec m.in. spirali płatnych opcji dostępnych w grach typu loot box, czyli pakietów losowych przedmiotów ułatwiających grę), ułatwienie rezygnacji z subskrypcji gier, wprowadzenia efektywniejszych narzędzi kontroli rodzicielskiej i skuteczniejszą ochronę danych osobowych.
Jak powinniśmy chronić się sami?
- Bądź ostrożny, gdy otrzymasz spontanicznego maila, SMS-a lub telefon.
- Pamiętaj! Urzędy i banki nigdy nie proszą o ujawnienie hasła.
- Naucz się rozpoznawać treści stworzone przez AI.
- Chroń się przed dezinformacją.
- Zabezpiecz domową sieć (zmień hasło do Wi-fi).
- Wzmocnij wszystkie hasła.
- Chroń sprzęt – aktualizuj i zainstaluj program antywirusowy2.
[1]Specjalny Eurobarometr 554, Sztuczna inteligencja i przyszłość pracy: https://europa.eu/eurobarometer/surveys/detail/3222.
[2] Zalecenia pochodzą z strony Parlamentu Europejskiego www.europarl.europa.eu.
i