Serwis internetowy www.startup.pfr.pl stosuje pliki cookies. Aby dowiedzieć się więcej, zapoznaj się z Polityką Prywatności.

AI Act – co zawiera europejskie prawo dotyczące AI i jak zmieni rynek sztucznej inteligencji?

Parlament Europejski głosował w połowie czerwca w sprawie regulacji związanych ze sztuczną inteligencją. Jakie ważne zapisy wnosi do europejskiego ekosystemu nowe prawo? Jak wpłynie na badania i rozwój technologii? Zapraszamy do lektury.

14 czerwca Parlament Europejski głosował nad przyjęciem projektu AI Act – europejskiej ustawy regulującej działanie oprogramowania wykorzystującego sztuczną inteligencję. Projekt trafił do Komisji Europejskiej, ale jest de facto pierwszym w skali świata dokumentem regulującym działanie sztucznej inteligencji. Europa wyprzedziła pod tym względem USA, pomimo tego, że kongres tego kraju wyraźnie poruszył potrzebę stworzenia regulacji na tym poziomie.

Co zawiera AI Act? Mityguje ryzyka

Unia Europejska w swoim dokumencie podeszła do tematyki AI stosując restrykcje odnośnie wprowadzania rozwiązań w zależności od ryzyka, które mogą one tworzyć. Zakazuje wykorzystywanie AI w obszarach, które uznaje za „niedopuszczalne” To takie obszary jak:

- Predykcyjne aplikacje policyjne („predictive policing”)

Systemy pozwalające policji i innym służbom na przewidywanie kryminalnych zachowań na podstawie algorytmów są od dawna kontrowersyjne – głównie z powodu błędnych ocen. Takie rozwiązania stosowane w Wielkiej Brytanii czy Hiszpanii były powodem szeroko opisywanych w mediach przypadków, kiedy aresztowano na podstawie ich informacji niewinne osoby, a z drugiej nie wykrywały sprawców głośnych i brutalnych przestępstw, mimo tego, że byli w ich bazach danych. Zapisy AI Act zakazują takich rozwiązań.

- Narzędzia biometryczne do analizy emocji w czasie rzeczywistym

AI Act zakazuje rozwoju narzędzi, które wykrywają ludzkie emocje w takich obszarach jak miejsca pracy, szkoły, czy zastosowania policyjne. Technologie analizujące twarze i emocje bywają często krytykowane z takich powodów jak ich niedokładność i przenoszenie na algorytmy uprzedzeń ich twórców. Z drugiej strony twórcy AI twierdzą, że rozwiązania tego typu mają bardzo szerokie zastosowania, takie jak ocena, czy uczniowie rozumieją materiał na lekcji, czy wykrywanie czy kierowca nie zaśnie za kierownicą. Wcześniejsze wersje projektu też nie zawierały tego zapisu, więc może zostać jeszcze zmodyfikowany.

- Rozwiązania social scoringowe

Social scoring to termin, który może kojarzyć się np. z Chinami, gdzie tego typu rozwiązanie, oceniające społeczne i antyspołeczne zachowania obywatela przekładają się na jego szanse uzyskania kredytu, zdobycie awansu w pracy, czy mogą nawet uniemożliwić mu podróże pociągami. Zastosowanie takich modeli wspieranych przez AI jest przez Parlament Europejski uznane za niedopuszczalne, ale z drugiej strony takie modele działają w takich branżach jak ubezpieczenia, reklama czy oceny kredytowe.

Parlament Europejski wprowadza także restrykcje w takich obszarach jak algorytmy social mediów, które decydują o tym, jakie treści są widoczne dla ich użytkowników – według zapisów ustawy platformy społecznościowe będą mogły odpowiadać za wyświetlane treści, a same algorytmy powinny być możliwe do analizy i oceny. Do tego treści związane z polityką i inne rozwiązania AI, które mogą wpływać na decyzje wyborców mają być poddane dodatkowemu nadzorowi.

Kolejnym obszarem, który ma być bardziej kontrolowany ma być generatywna AI. Według AI Act rozwiązania generujące treści mają z jednej strony zawierać informacje, że dzieło zostało stworzone przez AI, a jego twórcy mają w otwarty sposób udostępniać informacje o tym, jakie źródła zostały wykorzystane do „nauki” algorytmu – o co postulowali twórcy cyfrowi.

Dr Tomasz Michalak, lider grupy roboczej AI dla bezpieczeństwa w IDEAS NCBR

- Znalezienie odpowiedniej równowagi między regulacją a innowacją jest dużym wyzwaniem. Wymaga ciągłego dialogu między decydentami, badaczami, przedsiębiorcami i społeczeństwem. Należy monitorować potencjalne ryzyka i korzyści wynikające z technologii oraz wybrać odpowiedni czas i zakres regulacji. Zatem dyskusje jakie się obecnie toczą w Unii Europejskiej, USA i na całym świecie są jak najbardziej na miejscu. Zważywszy na potencjalne ryzyka i wpływ AI na ludzkość, moim zdaniem, dmuchanie na zimne i regulacje są podejściem w tym przypadku właściwszym. Oczywiście, pytanie jakie regulacje i komu służące - mówi dr. Tomasz Michalak, lider grupy badawczej AI ds. bezpieczeństwa  w IDEAS NCBR.  Jak dodaje ekspert, istnieje wiele przykładów technologii, do których wielu było najpierw nastawionych sceptycznie, ale dzięki regulacjom zyskały zaufanie społeczeństwa – jak na przykład wczesne lotnictwo.

AI Act dotyczy tylko komercyjnych zastosowań sztucznej inteligencji i nie ogranicza badań naukowych, więc Unia Europejska w dziedzinie badań nad AI raczej nie zostanie w tyle za USA czy Chinami, chociaż na obietnice regulacji odpowiadają już główni gracze z tego obszaru – firma Open AI, twórca Chat GPT stwierdziła, że może być zmuszona do wycofania się z europejskiego rynku jeśli legislacja wejdzie w życie. Trudno jednak stwierdzić, czy to nie próba nacisku na polityków. Na pewno pomoże w ustrukturyzowaniu rynku AI i być może wpłynie pozytywnie na jego dalszy rozwój, a przynajmniej zmniejszy obawy części użytkowników technologii.

Inne aktualności

Międzynarodowe targi BEYOND w Grecji – Zgłoś swój startup!

Endeavor State of Polish Tech – jak powstawał raport i jak wygląda? [Rozmowa[