AI Act: Zakazane praktyki w AI
Autorzy: Wojciech Piszewski, Marcin Serafin
Przepisy AI Act dotyczące zakazanych praktyk wejdą w życie jako pierwsze na początku lutego 2025 r. i stworzą jasne ramy dla tego, co sztuczna inteligencja może, a czego nie może robić w UE. Przepisy dotyczą wszystkich podmiotów, zarówno publicznych, jak i prywatnych. W tym zakresie AI Act stawia sprawę jasno: pewne zastosowania AI wiążą się z tak dużym ryzykiem, że nie da się go ograniczyć. Systemów AI stosujących takie praktyki po prostu nie można tworzyć ani wykorzystywać.
Czym są zakazane praktyki
AI Act, zgodnie z tzw. risk based approach (podejściem opartym na ryzyku), klasyfikuje systemy AI na podstawie poziomu ryzyka związanego z ich użyciem. Z niedopuszczalnym ryzykiem wiążą się takie zastosowania AI, które naruszają podstawowe wartości Unii Europejskiej i prawa jej obywateli, dlatego zostały uznane za zakazane praktyki. Wprowadzanie do obrotu, oddawanie do użytku i wykorzystywanie takich systemów jest bezwzględnie zabronione. Przewidziano pewne wyjątki, na przykład na potrzeby poszukiwania zaginionych osób lub zapobiegania atakom terrorystycznym, jednak dla zastosowań biznesowych nie mają one znaczenia.
Kary za stosowanie zakazanych praktyk mogą wynosić do 35 milionów euro lub 7% całkowitego rocznego obrotu firmy. To najwyższa kwota, jaką przewidują przepisy AI Act. Ponadto organy krajowe będą regularnie raportować do Komisji Europejskiej, co będzie je skłaniać do działania.
Jakie praktyki są zakazane
Zakazane zastosowania AI to w pewnym uproszczeniu:
- Wprowadzanie kogoś w błąd lub manipulowanie nim tak, że podejmuje decyzje, które mu poważnie szkodzą
- Wykorzystanie słabości, takiej jak wiek, niepełnosprawność lub trudna sytuacja życiowa
- Ocena ludzi na podstawie ich zachowania lub cech osobistych (tzw. scoring społeczny)
- Przewidywanie, czy ktoś popełni przestępstwo, na podstawie jego cech osobistych
- Tworzenie baz danych do rozpoznawania twarzy przez zbieranie zdjęć z internetu lub telewizji
- Ocena emocji w miejscach pracy czy szkołach (poza celami medycznymi lub bezpieczeństwa)
- Używanie systemów biometrycznych do określania takich cech jak rasa, poglądy polityczne, religia czy orientacja seksualna
- Zdalne rozpoznawanie ludzi w czasie rzeczywistym na ulicach przez policję
Oczywiście każdy przypadek stosowania zakazanych praktyk trzeba ocenić indywidualnie, z uwzględnieniem kontekstu konkretnej sytuacji.
Manipulacja i wprowadzanie w błąd
Zakazane jest stosowanie podprogowych (podświadomych) i manipulacyjnych technik, które nakłaniają do niekorzystnych decyzji i działań. Zabronione są zatem systemy AI, które wykorzystują podstępne, podświadome metody do znaczącej zmiany czyjegoś zachowania. To na przykład ukryte wpływanie na decyzje zakupowe, podprogowe treści w reklamach czy zatajanie ważnych warunków oferty. Dotyczy to sytuacji, gdy osoba nie jest świadoma stosowania wobec niej takich praktyk, lub jest ich świadoma, ale nie może im przeciwdziałać.
Zakazanie takich praktyk w AI Act to również uzupełnienie innych przepisów dotyczących nieuczciwych praktyk handlowych – w odniesieniu do systemów AI, które mogłyby ułatwić lub zmaksymalizować ich stosowanie.
Wykorzystanie słabości osoby lub grupy
AI Act zakazuje stosowania systemów AI do manipulowania osobami szczególnie podatnymi, takimi jak dzieci czy osoby starsze, osoby niepełnosprawne lub ubogie, przez znaczącą zmianę ich zachowania w szkodliwy sposób. Przykładem może być prezentowanie specjalnie skonstruowanych ofert w momentach, gdy klient jest bardziej podatny na manipulację, np. ze względu na chorobę. Ochrona osób, które wymagają szczególnego traktowania, ma nadrzędne znaczenie w AI Act.
Scoring społeczny
Scoring społeczny to ocenianie ludzi na podstawie zachowania lub osobistych cech, na przykład analizy aktywności w mediach społecznościowych (publikowanych treści, takich jak zdjęcia, posty czy interakcje) przez algorytmy AI. Scoring społeczny nie jest całkowicie zakazany, ale nie może uwzględniać niepowiązanego kontekstu lub być nieproporcjonalny. Jak zawsze w AI Act, istotny jest też skutek – taka ocena musi prowadzić do niesprawiedliwego traktowania, aby uznać ją za zakazaną praktykę.
Ocena emocji w miejscu pracy i szkołach
AI Act zakazuje stosowania systemów AI do oceny emocji w miejscach pracy i instytucjach edukacyjnych. Różnice kulturowe i indywidualne sprawiają, że takie systemy mogą być nieprecyzyjne i prowadzić do niesprawiedliwego traktowania. Zakaz nie dotyczy zastosowań medycznych, na przykład terapeutycznych, lub związanych z bezpieczeństwem.
Biometria i tworzenie baz danych
Wiele systemów AI, które wykorzystują dane biometryczne (takie jak np. skan twarzy), będzie systemami wysokiego ryzyka, dozwolonymi przez AI Act po spełnieniu wymagań. Zakazane jest jednak wykorzystywanie danych biometrycznych, aby wnioskować na temat poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych, rasy, życia seksualnego lub orientacji seksualnej danej osoby.
Zabronione są również systemy AI, które tworzą bazy do rozpoznawania twarzy, zbierając zdjęcia z internetu lub nagrań TV bez konkretnego celu (ang. untargeted scraping). Takie działanie zwiększa poczucie masowego nadzoru i może poważnie naruszać podstawowe prawa, w tym prawo do prywatności.
Praktyki organów publicznych
Pozostałe zakazane praktyki obejmują głównie stosowanie AI przez organy publiczne, takie jak administracja czy policja, i nie mają bezpośredniego wpływu na większość startupów. Dotyczą m.in. przewidywania przestępstw czy rozpoznawania osób za pomocą monitoringu. Ich zakaz wynika przede wszystkim z troski, aby państwo nie miało prawa do nadmiernej kontroli i ingerencji w prywatność obywateli.
Problemy i wątpliwości
AI Act przy opisie zakazanych praktyk używa skomplikowanego i nieprecyzyjnego języka. Na przykład zastosowanie manipulacji musi wyrządzać „poważną szkodę” danej osobie, nie wiadomo jednak, jak to ocenić w konkretnym przypadku i gdzie przebiega granica między zwykłą a „poważną” szkodą. W tym zakresie na pewno pojawią się różne interpretacje. Komisja Europejska zapowiedziała opracowanie wytycznych, co powinno wyjaśnić niektóre wątpliwości. W ostatnim czasie pojawiła się też broszura Ministerstwa Cyfryzacji na ten temat. To pozytywny sygnał, ale już jej pobieżna lektura pokazuje, że jasnych odpowiedzi na niektóre pytania po prostu nie będzie.
Co istotne, nie wystarczy zapewnić, że zastosowania przewidziane dla systemu AI nie służą zakazanym celom. Zgodnie z AI Act liczy się skutek, a nie intencja. Nieumyślne i przypadkowe zastosowanie zakazanej praktyki także może skutkować wysoką karą. A ponieważ sposób i rezultat działania AI nigdy nie jest 100% pewny, konieczne jest stałe monitorowanie i nadzór ze strony człowieka również po wdrożeniu systemu.