AI Act: Edukacja i zasoby – materiały edukacyjne nt. sztucznej inteligencji
AI Act wprowadza rewolucyjne zmiany w zarządzaniu sztuczną inteligencją. Dla startupów technologicznych rozwijających AI oznacza to konieczność stosowania konkretnych praktyk związanych z bezpieczeństwem i przejrzystością. Kluczowe jest zrozumienie wymogów oraz przygotowanie odpowiedniej dokumentacji i polityk. W internecie zaczęły pojawiać się inicjatywy i materiały edukacyjne wspierające wdrożenie nowych przepisów. Poniżej przedstawiamy wybrane przez nas najważniejsze i najciekawsze z nich.
Akt w sprawie sztucznej inteligencji
Podstawowym źródłem informacji jest oczywiście sam AI Act, którego polska wersja jest dostępna tutaj. To obszerny dokument, ale warto zwrócić uwagę zwłaszcza na najważniejsze artykuły:
- Artykuł 5. Zakazane praktyki w zakresie AI – w tym artykule przedstawiono, jakie zastosowania AI są zakazane, aby chronić prawa podstawowe i wartości UE. Obejmuje to m.in. stosowanie technik podprogowych czy wykorzystywanie słabości takich jak wiek lub sytuacja ekonomiczna.
- Artykuł 6. Zasady klasyfikacji systemów AI wysokiego ryzyka – określone tutaj systemy wysokiego ryzyka podlegają szczególnym wymaganiom, w tym ocenie zgodności i monitorowaniu.
- Artykuły 8–15. Wymogi dotyczące systemów AI wysokiego ryzyka – w artykułach zawartych w sekcji 2 opisano wymagania dla systemów AI wysokiego ryzyka dotyczące m.in. zarządzania, dokumentacji technicznej i bezpieczeństwa.
- Artykuł 16. Obowiązki dostawców systemów AI wysokiego ryzyka – wskazano tu wszystkie obowiązki podmiotów rozwijających systemy AI, szczegółowo opisane w kolejnych artykułach.
- Artykuł 50. Obowiązki w zakresie przejrzystości – artykuł ten dotyczy wymogów przejrzystości, które zobowiązują do informowania użytkowników o interakcji z AI i oznaczania treści generowanych przez sztuczną inteligencję.
Podsumowanie najważniejszych informacji można również znaleźć w cyklu publikowanym przez Polski Fundusz Rozwoju, począwszy od pierwszego artykułu „AI Act: Nowe wyzwania i obowiązki dla startupów technologicznych”.
Ministerstwo Cyfryzacji – Portal sztucznej inteligencji
Ministerstwo Cyfryzacji uruchomiło dedykowany portal poświęcony sztucznej inteligencji, dostępny pod adresem gov.pl/web/ai. To kompendium wiedzy na temat rozwoju i wdrażania AI w Polsce, które prezentuje działania podejmowane przez polski rząd na rzecz rozwoju sztucznej inteligencji. Portal zawiera informacje o bieżących projektach, inicjatywach i kluczowych zmianach legislacyjnych w tym obszarze.
W sekcji dla przedsiębiorców udostępniono bazę wiedzy na temat zastosowań sztucznej inteligencji w biznesie, w tym opisy wdrożeń w polskich firmach. Można tam znaleźć m.in. informacje o programach wsparcia dla przedsiębiorstw zainteresowanych wdrażaniem rozwiązań AI oraz szczegółowe dane o źródłach finansowania, w tym funduszach i dotacjach.
Portal oferuje także przewodniki i materiały edukacyjne dla przedsiębiorców i instytucji publicznych. W sekcji „Edukacja” znajdują się informacje o dostępnych kursach i szkoleniach. Szkolenia te obejmują podstawy AI oraz praktyczne zastosowania sztucznej inteligencji w różnych sektorach.
Komisja Europejska – Kształtowanie cyfrowej przyszłości Europy
Na stronie Komisji Europejskiej można znaleźć szczegółowe informacje dotyczące AI Act, które mogą pomóc w lepszym zrozumieniu przepisów. Europejski Urząd ds. Sztucznej Inteligencji (AI Office) to nowy organ, który będzie nadzorował wdrożenie AI Act i działał na rzecz zgodności z nowymi regulacjami.
Wcześniej Komisja Europejska powołała grupę ekspertów (AI HLEG), która stworzyła „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji”. Pisaliśmy o nich w artykule na temat bezpieczeństwa i etyki AI, ponieważ to podstawowy dokument określający europejski standard w tym obszarze. Wytyczne opierają się na trzech głównych zasadach: zgodności z prawem, zgodności z zasadami etyki i solidności.
Wytyczne i raporty instytucji unijnych
Europejska Rada Ochrony Danych (EDPB) publikuje wytyczne dotyczące ochrony danych osobowych w kontekście AI, pomagając zrozumieć, jak AI Act łączy się z RODO. Na przykład zdefiniowano metodykę audytu systemów i aplikacji AI, która pozwala ocenić zabezpieczenia ochrony danych w kontekście aktu o sztucznej inteligencji.
Europejska Agencja ds. Bezpieczeństwa Sieci i Informacji (ENISA) udostępnia ciekawe raporty, dotyczące zagrożeń cyberbezpieczeństwa dla sztucznej inteligencji (Artificial Intelligence Cybersecurity Challenges) i analizy obecnych standardów związanych z bezpieczeństwem AI (Cybersecurity of AI and Standardisation).
Frameworki AI Governance i inne materiały edukacyjne
Wśród najciekawszych inicjatyw wspierających odpowiedzialne zarządzanie AI można wymienić:
- Framework AIGA opracowany przez Uniwersytet w Turku – zbiór zasad i najlepszych praktyk pomagających w odpowiedzialnym zarządzaniu procesami AI.
- Framework AI RMF amerykańskiego NIST – pomaga organizacjom zarządzać ryzykiem związanym z AI.
- Standard Microsoft – koncentruje się na etyce, transparentności, odpowiedzialności oraz ochronie danych.
Pomocna będzie także strona Instytutu Alana Turinga, gdzie można znaleźć osiem modułów edukacyjnych w ramach programu „AI Ethics and Governance in Practice”.
Podsumowanie
Warto śledzić źródła oraz oficjalne komunikaty instytucji unijnych i krajowych, aby być na bieżąco z najnowszymi materiałami. Wdrożenie AI Act wymaga zaangażowania i inwestycji w nowe procesy, ale może przynieść wymierne rezultaty. Dobrze przygotowany startup, wspierany przez powyższe inicjatywy, ma szansę skutecznie dostosować się do nowych wymogów i czerpać korzyści z odpowiedzialnego podejścia do technologii AI.