Wpływ AI Act na startupy – jak nowe regulacje zmienią rynek i jakie kroki należy podjąć, aby zachować zgodność z przepisami
Autorzy: Wojciech Piszewski, Marcin Serafin
AI Act zmieni sposób, w jaki przedsiębiorstwa mogą rozwijać, sprzedawać i wdrażać rozwiązania oparte na AI. Przestrzeganie nowych wymogów będzie kluczowe dla startupów, które chcą pozostać konkurencyjne i jednocześnie uniknąć kar finansowych, ale również dla tych, które planują zyskać zaufanie klientów i inwestorów przez wdrożenie odpowiedzialnych praktyk AI.
Czym jest AI Act i kogo dotyczy?
AI Act określa wymagania dla firm oferujących lub stosujących AI w UE w zależności od poziomu ryzyka przypisanego do konkretnych systemów AI. Proste chatboty czy systemy rekomendacji wymagają jedynie przejrzystości i oznakowania jako rozwiązania AI. Z kolei systemy wysokiego ryzyka, np. używane w sektorze finansowym czy rekrutacji, muszą przejść pełną ocenę zgodności i być odpowiednio udokumentowane przed wprowadzeniem na rynek. AI Act całkowicie zakazuje także niektórych zastosowań AI uznanych za zbyt inwazyjne (tzw. zakazane praktyki).
Najważniejsze wyzwania dla startupów
Przede wszystkim koszty związane z wdrożeniem AI Act mogą być wyzwaniem dla startupów, szczególnie tych, które rozwijają systemy wysokiego ryzyka. W szczególności konieczność przeprowadzenia audytu zewnętrznego i stworzenia dokumentacji technicznej to wydatek, który może być znaczący dla małych firm. Tworzenie procesów od podstaw, takich jak system zarządzania jakością dla AI, wymaga czasu i zasobów, których startupom może brakować. Skomplikowane i dość rygorystyczne wymogi mogą utrudnić konkurowanie z większymi firmami, które mają zasoby i mechanizmy, aby szybciej dostosować się do przepisów.
AI Act nakłada wyraźne ograniczenia na niektóre technologie, uznając je za „zakazane” lub ryzykowne. Może to w jakimś stopniu zahamować rozwój nowych technologii w Europie i innowacyjnych rozwiązań, np. w zakresie biometrii, algorytmów przewidujących czy systemów analizy emocji. Istnieje pewne ryzyko, że część inwestorów wybierze projekty o niższym ryzyku lub zainwestuje poza Europą, co ograniczy dostęp do finansowania dla startupów AI w UE.
Pokonanie tych wyzwań wymaga strategicznego planowania i elastyczności, aby sprostać zmieniającym się wymogom prawnym i rynkowym. Wyzwaniem może być znalezienie specjalistów, którzy są na tyle obeznani z przepisami i zagadnieniami AI, aby skutecznie zarządzać rozwojem technologii zgodnej z AI Act.
Jak przygotować się na wdrożenie AI Act?
1. Inwentaryzacja systemów AI
Niezbędnym pierwszym krokiem jest sporządzenie pełnej inwentaryzacji systemów AI w organizacji. Taka dokumentacja będzie podstawą do dalszej analizy i oceny, które systemy podlegają przepisom AI Act i jakie działania należy podjąć.
Warto przy tym upewnić się, że wszystkie zastosowania AI zostały zgłoszone do osób odpowiedzialnych za ten obszar – również w zakresie publicznie dostępnych narzędzi, które bywają często wykorzystywane bez wiedzy organizacji. Kluczowa jest tu odpowiednia komunikacja z pracownikami i wdrożenie mechanizmów AI Governance, które pozwolą na całościowy nadzór nad stosowaniem AI również w przyszłości.
2. Wykluczenie zakazanych praktyk
Każdy system AI powinien zostać oceniony, aby ustalić, czy należy do którejkolwiek z kategorii zakazanych w AI Act, takich jak stosowanie technik podprogowych czy rozpoznawanie emocji w pracy. Szczególną uwagę należy zwrócić na systemy zaprojektowane do interakcji z klientami, marketingu, podejmowania decyzji oraz przetwarzania danych wrażliwych lub biometrycznych.
Jeśli jakiekolwiek systemy AI zostaną zidentyfikowane jako potencjalnie zabronione, należy opracować plan ich wycofania lub modyfikacji. Istotne jest też ustanowienie wewnętrznych polityk i procedur monitorowania systemów AI, aby zapobiec nieumyślnemu stosowaniu zakazanych praktyk. Takie procedury powinny obejmować m.in. zapewnianie jakości danych i przegląd algorytmów. Udokumentowanie sposobów projektowania, szkolenia i wdrażania systemów AI pozwoli wykazać zgodność podczas ewentualnych audytów czy kontroli.
3. Klasyfikacja systemów i określenie poziomu ryzyka
Klasyfikacja systemów AI na podstawie ich celu i zastosowań, danych, które przetwarzają, funkcjonalności oraz potencjalnego wpływu pozwala przypisać im określony poziom ryzyka. Systemy AI wysokiego ryzyka mogą np. przetwarzać dane biometryczne, oceniać ryzyko kredytowe lub wspomagać podejmowanie decyzji w obszarach takich jak zatrudnienie, edukacja lub dostęp do istotnych usług. Aby zidentyfikować konieczne działania i obowiązki, trzeba przypisać poziom ryzyka do każdego systemu AI wykorzystywanego w organizacji.
Można też podjąć decyzję o wykluczeniu ze swojej działalności systemów AI, które wiążą się z wysokim ryzykiem. W takim przypadku ramy dozwolonego użycia powinny być jasno opisane w przyjętej Polityce AI.
4. Dostosowanie do nowych przepisów
Niezależnie od poziomu ryzyka przypisanego do systemu AI, trzeba spełnić wymogi transparentności. Użytkownicy, którzy wchodzą w interakcję z systemem AI lub produktami jego pracy – takimi jak materiały audiowizualne, zwłaszcza w przypadku deepfake'ów – muszą zostać o tym poinformowani.
Dla systemów wysokiego ryzyka AI Act wymaga szczegółowej dokumentacji technicznej, obejmującej opis systemu, wykorzystane dane, wyniki testów oraz środki ochrony danych. Niezbędne jest wdrożenie systemu zarządzania ryzykiem i jakością, a także zapewnienie mechanizmów rejestrowania zdarzeń i nadzoru ze strony człowieka. Wymagania bezpieczeństwa można spełnić poprzez symulowane ataki lub Red Teaming, stosowane do testowania zachowań systemów AI w różnych warunkach, aby sprawdzić ich podatność na manipulację, stronniczość i nieautoryzowane wykorzystanie danych.
Systemy wysokiego ryzyka muszą przejść formalną ocenę zgodności. Ważnym krokiem jest także wdrożenie procedur monitorowania zgodności, aby na bieżąco identyfikować i minimalizować ryzyko.
5. Szkolenia i budowanie świadomości wśród pracowników
Startupy powinny wdrożyć regularne programy szkoleniowe, aby zapoznać pracowników z wymogami prawnymi i zasadami odpowiedzialnego stosowania AI. To nie tylko zwiększa zgodność z przepisami, ale jest też niezbędne dla skutecznego identyfikowania i ograniczania ryzyka związanego z AI.
AI Governance
Jak wynika z powyższych zaleceń, wdrożenie AI Act wymaga solidnych podstaw zarządzania zgodnością i ryzykiem. Dostosowanie się do nowych przepisów stanowi wyzwanie, jednak może też przynieść wymierne korzyści. Zgodność z AI Act zwiększy przejrzystość i zaufanie klientów, co jest kluczowe dla budowania trwałej pozycji rynkowej.
AI Act to jeden z pierwszych takich aktów prawnych, ale prawdopodobnie nie ostatni. Możemy spodziewać się dalszych zmian w regulacjach, które pojawią się w Europie i na świecie. Dynamicznie zmieniające się przepisy mogą wymagać elastyczności i gotowości do częstych zmian w zarządzaniu AI.