AI Act wchodzi w życie — realny koszt dla polskich firm tech
AI Act to nie abstrakcyjna regulacja z Brukseli — to konkretne obowiązki, terminy i kary do 35 mln euro. Co polskie firmy technologiczne muszą zrobić już teraz.
Rozporządzenie 2024/1689, znane jako AI Act, weszło w życie 1 sierpnia 2024 roku, ale jego pełne konsekwencje dopiero teraz zaczynają docierać do polskich firm technologicznych. Pierwsze zakazy — dotyczące systemów niedopuszczalnego ryzyka — obowiązują od 2 lutego 2025. Obowiązki dla modeli ogólnego przeznaczenia (GPAI) ruszyły 2 sierpnia 2025. Pełne wymagania dla systemów wysokiego ryzyka zaczną obowiązywać 2 sierpnia 2026.
Dla polskiego sektora tech oznacza to trzy rzeczy: konkretne koszty compliance, konieczność klasyfikacji własnych produktów oraz — w wielu przypadkach — przeprojektowanie procesów rozwoju AI. Firmy, które traktują to jako formalność, ryzykują kary sięgające 35 mln euro lub 7% globalnego obrotu, w zależności od tego, która kwota jest wyższa.
Największym problemem nie są jednak kary, lecz niepewność interpretacyjna. Polska wciąż nie wyznaczyła w pełni operacyjnie organu nadzoru — projekt ustawy powierzający rolę Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji jest procedowany, ale firmy już teraz muszą dokumentować zgodność, nie mając pewności, przed kim będą z niej rozliczane.
Klasyfikacja ryzyka — gdzie naprawdę znajduje się twój produkt
AI Act dzieli systemy na cztery kategorie: niedopuszczalnego ryzyka (zakazane), wysokiego ryzyka, ograniczonego ryzyka (obowiązki transparentności) oraz minimalnego ryzyka. Większość polskich startupów zakłada, że mieści się w ostatniej kategorii — i często się myli.
Systemy scoringowe w HR, narzędzia do analizy CV, chatboty obsługujące wnioski kredytowe, systemy biometryczne w kontroli dostępu — wszystko to Załącznik III klasyfikuje jako wysokie ryzyko. Oznacza to obowiązek prowadzenia systemu zarządzania ryzykiem, dokumentacji technicznej zgodnej z Załącznikiem IV, rejestracji w bazie UE, nadzoru ludzkiego oraz oceny zgodności.
35 000 000 € | Maksymalna kara za naruszenie zakazów z art. 5 AI Act lub 7% globalnego obrotu — w zależności od tego, co wyższe
Co istotne, odpowiedzialność spoczywa nie tylko na dostawcach (providers), ale także na podmiotach wdrażających (deployers). Polska firma, która integruje amerykański model LLM w swoim produkcie HR, staje się deployerem systemu wysokiego ryzyka — ze wszystkimi konsekwencjami.
Koszty compliance — konkretne liczby
Szacunki Komisji Europejskiej z oceny skutków regulacji mówiły o koszcie 6 000–7 000 euro na system wysokiego ryzyka. Praktyka pokazuje, że to zaniżone dane. Raport CEPS z 2024 roku wskazuje, że pełne wdrożenie systemu zarządzania zgodnością dla firmy z kilkoma produktami AI to koszt 200 000–400 000 euro w pierwszym roku, głównie z powodu audytów, dokumentacji i konieczności zatrudnienia specjalistów ds. compliance AI.
Dla polskich MŚP, które stanowią trzon sektora, to poważny problem. Średnia marża w polskim IT oscyluje wokół 8–12% — jednorazowy koszt compliance może pochłonąć cały roczny zysk mniejszego dostawcy. Rozporządzenie przewiduje co prawda mechanizmy wsparcia dla MŚP (piaskownice regulacyjne, uproszczona dokumentacja), ale ich praktyczna dostępność w Polsce w 2025 roku jest ograniczona.
Firmy, które działają w sektorze B2B i sprzedają do klientów z regulowanych branż — finansów, zdrowia, energetyki — odczuwają to już teraz. Klienci wymagają deklaracji zgodności z AI Act w zapytaniach ofertowych, nawet jeśli formalne terminy jeszcze nie minęły.
Modele ogólnego przeznaczenia — pułapka dla integratorów
Od 2 sierpnia 2025 obowiązki dla dostawców modeli GPAI weszły w życie. Dotyczy to OpenAI, Anthropic, Google, ale także firm europejskich jak Mistral. Problem w tym, że obowiązki kaskadują w dół łańcucha dostaw.
Polska firma budująca produkt na GPT-4 lub Claude musi teraz wymagać od dostawcy dokumentacji zgodnej z Załącznikiem XI, w tym informacji o danych treningowych, zużyciu energii i testach bezpieczeństwa. Jeśli dostawca odmawia lub dostarcza dokumentację niepełną, ryzyko przenosi się na integratora. To realna zmiana w negocjacjach kontraktowych — i dźwignia dla europejskich dostawców modeli, którzy mogą oferować lepszą przejrzystość.
Kodeks postępowania dla GPAI, opublikowany w lipcu 2025 przez AI Office, precyzuje te obowiązki, ale jego dobrowolny charakter tworzy dodatkową niepewność. Sygnatariusze zyskują domniemanie zgodności — niesygnatariusze muszą udowadniać compliance indywidualnie.
Co robić teraz — priorytety operacyjne
Pierwszym krokiem jest inwentaryzacja. Nie chodzi o listę produktów AI, lecz o mapowanie wszystkich miejsc, gdzie systemy algorytmiczne podejmują decyzje wpływające na ludzi — także tych wbudowanych w narzędzia SaaS używane wewnętrznie. W typowej polskiej firmie tech takich punktów jest 15–30, z czego zespół zazwyczaj identyfikuje 5–8.
Drugim krokiem jest klasyfikacja zgodnie z Załącznikiem III i przygotowanie dokumentacji technicznej dla wszystkiego, co kwalifikuje się jako wysokie ryzyko. Trzecim — renegocjacja umów z dostawcami modeli i komponentów AI, tak aby zapewnić dostęp do dokumentacji wymaganej przez AI Act.
Wreszcie: monitoring decyzji polskiego organu nadzoru, który — gdy już powstanie — będzie interpretował przepisy w praktyce. Różnice interpretacyjne między państwami członkowskimi będą znaczące, a polska praktyka regulacyjna historycznie skłania się ku restrykcyjnej wykładni.
Suwerenność regulacyjna jako szansa
AI Act jest często krytykowany jako regulacja hamująca innowacje. W kontekście polskim można jednak spojrzeć inaczej: wymusza on poziom dokumentacji i przejrzystości, który w dłuższej perspektywie faworyzuje dostawców europejskich nad amerykańskimi czy chińskimi gigantami oferującymi "czarne skrzynki".
Polskie firmy, które potraktują compliance nie jako koszt, lecz jako element przewagi konkurencyjnej — szczególnie w sprzedaży do sektora publicznego i regulowanych branż — mogą wykorzystać regulację na swoją korzyść. Warunek: zacząć teraz, nie w lipcu 2026.
Najczęściej zadawane pytania
- Czy AI Act dotyczy firm, które tylko używają ChatGPT wewnętrznie?
- Tak, jeśli wyniki modelu wpływają na decyzje dotyczące pracowników, klientów lub procesów biznesowych. Firma staje się wtedy deployerem i musi spełnić obowiązki dotyczące nadzoru ludzkiego oraz transparentności. Zakres zależy od klasyfikacji zastosowania — nie samego narzędzia.
- Kto w Polsce będzie egzekwował przepisy AI Act?
- Projekt ustawy przewiduje Komisję Rozwoju i Bezpieczeństwa Sztucznej Inteligencji jako główny organ nadzoru, z udziałem UODO w kwestiach dotyczących danych osobowych. Do czasu pełnej operacjonalizacji firmy powinny dokumentować zgodność zgodnie z wytycznymi AI Office na poziomie UE.
- Czy małe firmy mają jakieś ulgi w AI Act?
- Tak — art. 62 przewiduje priorytetowy dostęp do piaskownic regulacyjnych, uproszczoną dokumentację techniczną oraz niższe opłaty za oceny zgodności. Kary dla MŚP są także proporcjonalnie obniżone. Praktyczna dostępność tych mechanizmów w Polsce rozwija się stopniowo w 2025 i 2026 roku.
Komentarze
Bądź pierwszy, który skomentuje.
Zaloguj się, aby skomentować.