Przejdź do treści
Publikacje Data publikacji: 04 grudnia 2024

AI Act: Edukacja i zasoby – materiały edukacyjne nt. sztucznej inteligencji

AI Act wprowadza rewolucyjne zmiany w zarządzaniu sztuczną inteligencją. Dla startupów technologicznych rozwijających AI oznacza to konieczność stosowania konkretnych praktyk związanych z bezpieczeństwem i przejrzystością. Kluczowe jest zrozumienie wymogów oraz przygotowanie odpowiedniej dokumentacji i polityk. W internecie zaczęły pojawiać się inicjatywy i materiały edukacyjne wspierające wdrożenie nowych przepisów. Poniżej przedstawiamy wybrane przez nas najważniejsze i najciekawsze z nich.

Akt w sprawie sztucznej inteligencji

Podstawowym źródłem informacji jest oczywiście sam AI Act, którego polska wersja jest dostępna tutaj. To obszerny dokument, ale warto zwrócić uwagę zwłaszcza na najważniejsze artykuły:

  • Artykuł 5. Zakazane praktyki w zakresie AI – w tym artykule przedstawiono, jakie zastosowania AI są zakazane, aby chronić prawa podstawowe i wartości UE. Obejmuje to m.in. stosowanie technik podprogowych czy wykorzystywanie słabości takich jak wiek lub sytuacja ekonomiczna.
  • Artykuł 6. Zasady klasyfikacji systemów AI wysokiego ryzyka – określone tutaj systemy wysokiego ryzyka podlegają szczególnym wymaganiom, w tym ocenie zgodności i monitorowaniu.
  • Artykuły 8–15. Wymogi dotyczące systemów AI wysokiego ryzyka – w artykułach zawartych w sekcji 2 opisano wymagania dla systemów AI wysokiego ryzyka dotyczące m.in. zarządzania, dokumentacji technicznej i bezpieczeństwa.
  • Artykuł 16. Obowiązki dostawców systemów AI wysokiego ryzyka – wskazano tu wszystkie obowiązki podmiotów rozwijających systemy AI, szczegółowo opisane w kolejnych artykułach.
  • Artykuł 50. Obowiązki w zakresie przejrzystości – artykuł ten dotyczy wymogów przejrzystości, które zobowiązują do informowania użytkowników o interakcji z AI i oznaczania treści generowanych przez sztuczną inteligencję.

Podsumowanie najważniejszych informacji można również znaleźć w cyklu publikowanym przez Polski Fundusz Rozwoju, począwszy od pierwszego artykułu „AI Act: Nowe wyzwania i obowiązki dla startupów technologicznych”.

 

Warto także skorzystać z darmowego kursu dostępnego na stronie Strefa Wiedzy PFR

Kurs „AI od podstaw. Zwiększ efektywność w pracy.” został opracowany przez PFR wspólnie z parterami: Coders Lab i Escola. 

Ministerstwo Cyfryzacji – Portal sztucznej inteligencji

Ministerstwo Cyfryzacji uruchomiło dedykowany portal poświęcony sztucznej inteligencji, dostępny pod adresem gov.pl/web/ai. To kompendium wiedzy na temat rozwoju i wdrażania AI w Polsce, które prezentuje działania podejmowane przez polski rząd na rzecz rozwoju sztucznej inteligencji. Portal zawiera informacje o bieżących projektach, inicjatywach i kluczowych zmianach legislacyjnych w tym obszarze.

W sekcji dla przedsiębiorców udostępniono bazę wiedzy na temat zastosowań sztucznej inteligencji w biznesie, w tym opisy wdrożeń w polskich firmach. Można tam znaleźć m.in. informacje o programach wsparcia dla przedsiębiorstw zainteresowanych wdrażaniem rozwiązań AI oraz szczegółowe dane o źródłach finansowania, w tym funduszach i dotacjach.

Portal oferuje także przewodniki i materiały edukacyjne dla przedsiębiorców i instytucji publicznych. W sekcji „Edukacja” znajdują się informacje o dostępnych kursach i szkoleniach. Szkolenia te obejmują podstawy AI oraz praktyczne zastosowania sztucznej inteligencji w różnych sektorach.

Komisja Europejska – Kształtowanie cyfrowej przyszłości Europy

Na stronie Komisji Europejskiej można znaleźć szczegółowe informacje dotyczące AI Act, które mogą pomóc w lepszym zrozumieniu przepisów. Europejski Urząd ds. Sztucznej Inteligencji (AI Office) to nowy organ, który będzie nadzorował wdrożenie AI Act i działał na rzecz zgodności z nowymi regulacjami.

Wcześniej Komisja Europejska powołała grupę ekspertów (AI HLEG), która stworzyła „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji”. Pisaliśmy o nich w artykule na temat bezpieczeństwa i etyki AI, ponieważ to podstawowy dokument określający europejski standard w tym obszarze. Wytyczne opierają się na trzech głównych zasadach: zgodności z prawem, zgodności z zasadami etyki i solidności.

Wytyczne i raporty instytucji unijnych

Europejska Rada Ochrony Danych (EDPB) publikuje wytyczne dotyczące ochrony danych osobowych w kontekście AI, pomagając zrozumieć, jak AI Act łączy się z RODO. Na przykład zdefiniowano metodykę audytu systemów i aplikacji AI, która pozwala ocenić zabezpieczenia ochrony danych w kontekście aktu o sztucznej inteligencji.

Europejska Agencja ds. Bezpieczeństwa Sieci i Informacji (ENISA) udostępnia ciekawe raporty, dotyczące zagrożeń cyberbezpieczeństwa dla sztucznej inteligencji (Artificial Intelligence Cybersecurity Challenges) i analizy obecnych standardów związanych z bezpieczeństwem AI (Cybersecurity of AI and Standardisation). 

Frameworki AI Governance i inne materiały edukacyjne

Wśród najciekawszych inicjatyw wspierających odpowiedzialne zarządzanie AI można wymienić:

  • Framework AIGA opracowany przez Uniwersytet w Turku – zbiór zasad i najlepszych praktyk pomagających w odpowiedzialnym zarządzaniu procesami AI.
  • Framework AI RMF amerykańskiego NIST – pomaga organizacjom zarządzać ryzykiem związanym z AI.
  • Standard Microsoft – koncentruje się na etyce, transparentności, odpowiedzialności oraz ochronie danych.

Pomocna będzie także strona Instytutu Alana Turinga, gdzie można znaleźć osiem modułów edukacyjnych w ramach programu „AI Ethics and Governance in Practice”.

Podsumowanie

Warto śledzić źródła oraz oficjalne komunikaty instytucji unijnych i krajowych, aby być na bieżąco z najnowszymi materiałami. Wdrożenie AI Act wymaga zaangażowania i inwestycji w nowe procesy, ale może przynieść wymierne rezultaty. Dobrze przygotowany startup, wspierany przez powyższe inicjatywy, ma szansę skutecznie dostosować się do nowych wymogów i czerpać korzyści z odpowiedzialnego podejścia do technologii AI.