AI Act: Bezpieczeństwo i etyka w AI – przewodnik po zasadach bezpieczeństwa i etyki w tworzeniu oraz wdrażaniu AI
Autorzy: Wojciech Piszewski, Marcin Serafin
Automatyzacja, optymalizacja procesów i zdolność podejmowania decyzji na podstawie ogromnych ilości danych – to tylko niektóre korzyści, jakie oferuje AI. Jednak rozwój tej technologii niesie ze sobą także odpowiedzialność za jej bezpieczne działanie. Poniżej przedstawiamy przewodnik po najważniejszych zasadach bezpieczeństwa i etyki w odniesieniu do AI.
Zasady godnej zaufania AI
Każda firma rozwijająca lub stosująca sztuczną inteligencję powinna przestrzegać podstawowych zasad, które zapewnią, że systemy AI będą działały odpowiedzialnie i zgodnie z normami etycznymi. AI Act nie wprowadza takich wymogów dla wszystkich systemów, ale odwołuje się do wytycznych opracowanych przez grupę ekspertów Komisji Europejskiej. Wytyczne te przedstawiają cztery główne zasady etyczne, które stanowią podstawę godnej zaufania sztucznej inteligencji:
- Poszanowanie autonomii człowieka – każdy ma prawo podejmować własne decyzje i zachować kontrolę nad swoim życiem. AI nie powinna przymuszać, manipulować ani oszukiwać użytkowników, dlatego takie praktyki są zakazane w AI Act.
- Zapobieganie szkodom – zarówno fizycznym, jak i psychicznym. Obejmuje to bezpieczeństwo techniczne, ale także troskę o grupy szczególnie wrażliwe (np. dzieci, osoby starsze, osoby z niepełnosprawnościami).
- Sprawiedliwość – równe traktowanie i prawo do dostępu do korzyści płynących z zastosowania AI.
- Możliwość wyjaśnienia – przejrzystość i wytłumaczalność działania systemów AI.
Aby spełnić te zasady, wytyczne wprowadzają siedem kluczowych wymagań dla systemów AI:
1. Przewodnia i nadzorcza rola człowieka
Systemy AI powinny wspierać autonomię człowieka. Użytkownicy powinni mieć pełną świadomość, kiedy system podejmuje decyzje, i być w stanie kontrolować ten proces. Należy umożliwić nadzór człowieka nad systemem AI, co oznacza możliwość interwencji, gdy system działa niewłaściwie.
2. Solidność techniczna i bezpieczeństwo
AI musi być bezpieczna. Oznacza to, że system powinien działać poprawnie w różnych warunkach, być wytrzymały w przypadku problemów i odporny na ataki cybernetyczne. Solidność techniczna obejmuje także dokładność – czyli zdolność podejmowania trafnych decyzji lub generowania właściwych wyników – oraz niezawodność działania.
Należy regularnie testować system w różnych scenariuszach, aby upewnić się, że pracuje on zgodnie z oczekiwaniami. Ważna jest też zdolność do odtworzenia wyników w powtarzalnych sytuacjach, co ma kluczowe znaczenie dla ich wiarygodności.
3. Ochrona prywatności i zarządzanie danymi
System AI należy rozwijać i wykorzystywać zgodnie z przepisami ochrony danych osobowych, aby chronić prywatność użytkowników. Należy pamiętać o takich zasadach, jak minimalizacja danych – czyli gromadzenie i przetwarzanie jedynie tych danych, które są niezbędne do funkcjonowania AI. Niezwykle ważne jest odpowiednie zarządzanie danymi i dbanie o ich jakość. Użycie niepełnych lub błędnych informacji może prowadzić do nierzetelnych wyników AI.
4. Przejrzystość
Systemy AI powinny być przejrzyste, co oznacza, że kluczowe decyzje podejmowane przez AI powinny być możliwe do wyjaśnienia, zwłaszcza gdy mają istotny wpływ na życie ludzi. Użytkownicy muszą wiedzieć, kiedy wchodzą w interakcję z AI, a kiedy z człowiekiem. Powinni mieć świadomość zdolności i ograniczeń systemu AI. W szczególności w przypadku systemów generujących treści (np. deepfake) istnieje obowiązek ujawniania, że materiały zostały wygenerowane sztucznie. Osoby, na które AI ma wpływ, należy informować o przysługujących im prawach.
5. Różnorodność, niedyskryminacja i sprawiedliwość
AI powinna działać sprawiedliwie i niedyskryminująco. Systemy AI nie mogą faworyzować określonych grup społecznych ani dyskryminować ludzi na podstawie płci, rasy, wieku czy innych cech osobistych. Należy przeglądać dane treningowe, aby uniknąć wprowadzenia stronniczości, oraz monitorować działanie AI, aby upewnić się, że nie generuje ona niesprawiedliwych wyników.
6. Dobrostan społeczny i środowiskowy
AI powinna przyczyniać się do dobrostanu społeczeństwa i minimalizować negatywny wpływ na środowisko. Technologie AI powinny wspierać cele zrównoważonego rozwoju i poprawiać jakość życia jednostek.
7. Odpowiedzialność
Twórcy są odpowiedzialni za skutki działania swoich produktów, a podmioty stosujące AI – za ich wpływ na klientów i inne osoby objęte działaniem systemu. Warto prowadzić regularne audyty modeli AI i danych, aby upewnić się, że system działa zgodnie z założeniami, oraz zapewnić użytkownikom możliwość zgłaszania negatywnych skutków działania systemu AI.
Bezpieczeństwo AI
W AI Act bezpieczeństwo odgrywa kluczową rolę, szczególnie w odniesieniu do systemów AI wysokiego ryzyka. Przepisy nakładają obowiązek osiągnięcia wysokiej odporności na błędy, usterki lub niespójności, które mogą wystąpić w systemie wysokiego ryzyka lub jego środowisku. W sytuacjach awaryjnych systemy te powinny mieć wdrożone mechanizmy bezpiecznego przerywania działania, tzw. fail-safe.
Systemy AI powinny być również odporne na ataki cybernetyczne, takie jak:
- zatruwanie danych – manipulacja danymi wprowadzanymi do systemu,
- ataki na modele – kradzież algorytmów lub modyfikacja ich działania,
- ataki kontradyktoryjne – wprowadzanie małych, prawie niedostrzegalnych zmian w danych wejściowych, które powodują istotne zmiany w wynikach AI (np. zmianę klasyfikacji obrazu).
Środki zapewniające ochronę przed zagrożeniami trzeba dostosować do okoliczności i poziomu ryzyka. Powinny służyć nie tylko zapobieganiu atakom, lecz także ich skutecznemu wykrywaniu i rozwiązywaniu. Ważnym elementem testowania jest symulacja potencjalnych zagrożeń i ataków na system, aby odkryć słabe punkty, które mogą zostać wykorzystane (tzw. red teaming). Proces uczenia się systemu AI musi być stale monitorowany, aby zapewnić, że nie wprowadza on nowych zagrożeń ani błędów.
Zwiększone wymagania dla systemów wysokiego ryzyka
AI Act wprowadza szczegółowe wymagania w zakresie bezpieczeństwa i etyki dla systemów AI, które są klasyfikowane jako wysokiego ryzyka. Takie systemy wymagają dodatkowych środków ostrożności i procedur, w tym przede wszystkim:
- Dostawcy muszą wdrożyć systemy zarządzania ryzykiem.
- Wymagana jest szczegółowa dokumentacja techniczna i przechowywanie danych o zdarzeniach związanych z działaniem systemu.
- Dostawcy muszą dostarczyć odpowiednie informacje o przeznaczeniu i użytkowaniu systemu.
- Należy umożliwić kontrolę ze strony człowieka i interwencję w przypadku niewłaściwego działania.
Oznacza to, że startupy, które rozwijają lub wdrażają systemy AI wysokiego ryzyka, muszą zidentyfikować możliwe zagrożenia i wprowadzić środki zapobiegawcze. Trzeba przygotować informacje dla użytkowników oraz szczegółową dokumentację techniczną. Napiszemy o tym więcej w kolejnym artykule: **Wpływ AI Act na startupy – jak nowe regulacje wpłyną na startupy i jakie kroki należy podjąć, aby być zgodnym z przepisami.