
W odpowiedzi na dynamiczny rozwój technologii sztucznej inteligencji (AI), w kwietniu 2021 r. Unia Europejska rozpoczęła proces legislacyjny dotyczący unijnego rozporządzenia o sztucznej inteligencji (tzw. AI Act), gdzie obecnie kulminacją tego procesu stał się trialog, czyli negocjacje pomiędzy przedstawicielami Komisji Europejskiej, Rady Unii Europejskiej i Parlamentu Europejskiego.
Projekt Rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt w sprawie sztucznej inteligencji) i zmieniające niektóre akty ustawodawcze Unii, stanowić ma kamień milowy w prawnej regulacji sztucznej inteligencji, z istotnym naciskiem na równowagę między innowacjami a etycznym oraz bezpiecznym wykorzystaniem AI. AI Act stanowi istotny moment dziejowy w zakresie zarządzania technologicznego, ustanawiając zharmonizowane zasady dotyczące stosowania AI. Z jednej strony, AI Act ma na celu wspieranie innowacji i postępu technologicznego, z drugiej — zabezpieczenie przed ryzykami etycznymi, prywatnościowymi i bezpieczeństwem. Projektowane regulacje rozpoczęły szeroką debatę na temat roli Europy w globalnym wyścigu technologicznym, gdzie eksperci dokonują porównania regulacji unijnych z podejściami innych światowych potęg, takich jak Chiny czy USA. AI Act nie tylko definiuje sposób, w jaki Europa będzie podchodziła do AI, ale również stawia pytania o przyszłość innowacji technologicznych i etycznego zarządzania nimi na starym kontynencie.
Szczegółowa Historia AI Act
Proces powstawania AI Act rozpoczął się, kiedy Komisja Europejska opublikowała białą księgę na temat sztucznej inteligencji (BIAŁA KSIĘGA w sprawie sztucznej inteligencji, Europejskie podejście do doskonałości i zaufania, Bruksela 2020). W dokumencie tym Komisja przedstawiła wizję rozwoju AI w UE, która opierała się na trzech filarach: innowacji, etyki i odpowiedzialności.
Na podstawie białej księgi Komisja Europejska rozpoczęła prace nad projektem AI Act. Projekt ten był przedmiotem konsultacji publicznych, w których wzięły udział organizacje z całego świata, w tym przedsiębiorstwa, organizacje pozarządowe, instytucje naukowe i rządy. W wyniku konsultacji projekt AI Act został zmodyfikowany i ostatecznie przyjęty przez Parlament Europejski w kwietniu 2021 roku.
Następnie projekt został skierowany do trójstronnych negocjacji (tzw. trilog) Rady, Parlamentu Europejskiego i Komisji Europejskiej. Przeprowadzonych zostało szereg tur negocjacji, w efekcie których 8 grudnia 2023 r. Parlament Europejski i Rada osiągnęły porozumienie polityczne w ramach procedury trilogu co do ram przyszłego rozporządzenia unijnego dotyczącego sztucznej inteligencji (AI Act).
“Deal!” — z ekscytacją wskazał na platformie X unijny komisarz ds. rynku wewnętrznego i usług Thierry Breton. Nadmienił również, iż:
UE staje się pierwszym kontynentem, który ustali jasne zasady stosowania sztucznej inteligencji.
Rozwój AI Act był procesem wieloetapowym, ukierunkowanym na stworzenie zbalansowanej regulacji prawnej, która by odpowiedziała na wyzwania i możliwości prezentowane przez rosnące zastosowanie sztucznej inteligencji. Wywodzący się z obaw społecznych i etycznych, związanych z takimi kwestiami jak prywatność, bezpieczeństwo danych i dyskryminacja, proces tworzenia Aktu o sztucznej inteligencji stał się odpowiedzią na skandale związane z użyciem danych i AI. W jego kształtowaniu kluczową rolę odegrały liczne debaty publiczne, konsultacje z ekspertami technologicznymi, organizacjami obywatelskimi, a także przemysłem AI. W drodze do powstania obecnej wersji AI Act, projekt rozporządzenia przechodził przez różne etapy legislacyjne, łącząc w sobie wizję innowacji technologicznych z koniecznością ochrony praw podstawowych i wolności indywidualnych. AI Act stał się wyrazem dążenia Europy do stania się globalnym liderem w etycznym podejściu do AI, podkreślając równowagę między postępem technologicznym a ochroną obywateli.
Jednakże czy na pewno? — takie pytanie stawiają przeciwnicy projektu.
Dlaczego powstało AI Act?
Podstawą do stworzenia AI Act była rosnąca świadomość wpływu, jaki AI może mieć na społeczeństwo, oraz potrzeba odpowiedzi na pojawiające się wyzwania z tym związane. Wśród kluczowych motywacji leżały obawy dotyczące prywatności, potencjalnej dyskryminacji przez algorytmy oraz ryzyka związanego z bezpieczeństwem danych. Przykłady użycia technologii rozpoznawania twarzy do celów nadzoru, a także raporty wskazujące na możliwość niezamierzonego uprzedzenia w algorytmach, podkreśliły potrzebę regulacji. AI Act powstał również w odpowiedzi na dążenie do stworzenia zrównoważonego środowiska, które wspiera innowacje przy jednoczesnym zapewnieniu, że rozwój technologii odbywa się w sposób odpowiedzialny i zgodny z wartościami europejskimi. Ten akt prawny ma w założeniach nie tylko adresować obecne wyzwania, ale także przewidywać przyszłe kierunki rozwoju AI, stawiając fundamenty pod bezpieczne i etyczne wykorzystanie technologii.
Podsumowując, AI Act został wprowadzony w odpowiedzi na szereg czynników, w tym w szczególności wobec:
- Rosnącego zainteresowania i inwestycji w AI na całym świecie.
- Obaw dotyczących potencjalnych zagrożeń związanych z AI, takich jak dyskryminacja, naruszenie prywatności i bezpieczeństwa danych.
- Potrzeb zapewnienia, aby AI była wykorzystywana w sposób zgodny z unijnymi wartościami i zasadami.
Regulacje Dotyczące Generatywnych Modeli Językowych w AI Act
Popularność otwartych, ogólnych i generatywnych modeli, takich jak Bard (już Gemini) Google’a, Chat GPT, doprowadziła do ożywionej debaty na temat tego, czy odpowiadają one na wyzwania stawiane przez prawa dotyczące sztucznej inteligencji. W związku z tym AI Act skupia się także na regulacji generatywnych modeli językowych, które stanowią istotną część współczesnych aplikacji AI. Kluczowe regulacje w tym obszarze koncentrują się na przejrzystości i odpowiedzialności. Przepisy stanowione wymagają przede wszystkim, by systemy AI były zaprojektowane w taki sposób, aby użytkownicy byli świadomi interakcji z maszyną, a nie z człowiekiem.
Według AI Act, systemy AI wykorzystujące generatywne modele językowe muszą spełniać następujące wymagania:
- Muszą być zaprojektowane i zaimplementowane w sposób zapewniający przejrzystość i zrozumienie przez użytkowników. Oznacza to, że użytkownicy muszą być świadomi tego, że rozmawiają z maszyną, a nie z człowiekiem. Przepisy te mają na celu ograniczenie potencjalnych manipulacji i zapewnienie, że użytkownicy są w pełni świadomi charakteru i ograniczeń interakcji z AI.
- Muszą być zaprojektowane i zaimplementowane w sposób zapewniający, że dane wykorzystywane do ich szkoleń są zbierane i przetwarzane w sposób zgodny z unijnymi przepisami o ochronie danych. Oznacza to, że dane muszą być zbierane w sposób legalny i etyczny, a ich przetwarzanie nie może naruszać prywatności użytkowników.
- Generatywne modele językowe, w przypadku gdyby zostały zakwalifikowane jako systemy AI wysokiego ryzyka, muszą zostać poddane ocenie ryzyka przed wprowadzeniem do obrotu.
Artykuł 28b AI Act określa szczegółowe wymogi dla dostawców systemów AI wykorzystujących generatywne modele językowe. Wymagania te mają na celu zapewnienie, że systemy te są wykorzystywane w bezpieczny, etyczny i odpowiedzialny sposób.
Szczegółowe wymogi artykułu 28b:
Przejrzystość i wyjaśnienie: Dostawcy muszą zapewnić, że ich systemy są przejrzyste i wyjaśnialne, czyli że użytkownicy mogą rozumieć, jak systemy działają i jak generują tekst.
Ochrona danych: Dostawcy muszą podjąć odpowiednie środki w celu zapewnienia, że dane wykorzystywane do trenowania systemów są zbierane i przetwarzane zgodnie z prawem o ochronie danych UE.
Ocena ryzyka: Dostawcy muszą przeprowadzić ocenę ryzyka swoich systemów w celu identyfikacji i ograniczenia potencjalnych ryzyk, takich jak dyskryminacja i naruszenia prywatności.
Monitorowanie po wdrożeniu: Dostawcy muszą monitorować swoje systemy w sposób ciągły, aby zapewnić, że nadal spełniają wymagania rozporządzenia AI.
Zgodnie zatem z art.28b proponowanej obecnie wersji AI Act językowe modele generatywne muszą spełniać następujące wymogi:
- zapewnić, aby racjonalnie przewidywalne zagrożenia dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności stwarzane przez takie modele zostały zidentyfikowane, ograniczone i wyeliminowane;
- przetwarzanie zbiorów danych musi być wykonane zgodnie z odpowiednimi procesami zarządzania tymi;
- projektowanie i opracowywanie modeli w celu osiągnięcia odpowiednich poziomów wydajności, przewidywalności, interpretowalności, zmienności, bezpieczeństwa i cyberbezpieczeństwa z perspektywy cyklu życia (w tym odpowiednie szkolenia i testy);
- modele winny być projektowane i opracowywane w celu zmniejszenia zużycia energii, zasobów i odpadów oraz poprawy efektywności energetycznej i wydajności systemu;
- przygotowanie i udostępnienie odpowiedniej dokumentacji technicznej i podręczników;
- zapewnienie systemu oceny jakości i spełnienie wymogów w pozostałych przepisach AI Act.
Oprócz tych konkretnych wymagań, artykuł 28b zawiera również szereg ogólnych zasad, które obowiązują wszystkie systemy AI. Te zasady obejmują:
- Brak dyskryminacji: Systemy AI nie mogą dyskryminować żadnej chronionej cechy, takiej jak rasa, pochodzenie etniczne, płeć lub religia.
- Nadzór człowieka: Systemy AI muszą podlegać nadzorowi i kontroli człowieka.
- Projektowanie zorientowane na człowieka: Systemy AI muszą być projektowane z uwzględnieniem wartości i etyki ludzkiej.
Wymagania artykułu 28b stanowią ważny krok w kierunku zapewnienia, że generatywne modele językowe są wykorzystywane w bezpieczny i odpowiedzialny sposób. Promując przejrzystość, wyjaśnienie i ochronę danych, te wymagania mogą pomóc w zapobieganiu niewłaściwemu wykorzystaniu tych systemów i ochronie praw użytkowników.
Dodatkowo art. 28b ust. 4 lit. a i b AI Act wskazuje, iż modele generatywne zaprojektowane dla tworzenia treści, obrazków, audio i wideo powinny spełniać dodatkowe wymagania dot. transparencji staranności i bezpieczeństwa w zakresie treningu (art. 28b ust. 4 lit. a i b AIA), oraz co statuuje art. 28b ust 4 lit. c AI Act: dokumentować i publicznie udostępnić szczegółowe podsumowanie danych użytych do treningu AI, które są chronione prawem autorskim.
Zgodnie z projektowanym art. 60 AI Act niezbędne będzie zarejestrowanie modelu generatywnej AI w odpowiednim rejestrze. Z kolei art. 71 statuuje, iż brak zastosowania się do powyższych wymagań może doprowadzić do nałożenia sankcji finansowej aż do 10 mln € lub 2% całkowitego światowego obrotu, w zależności która kwota jest wyższa.

Z uwagi natomiast na okoliczność taką, iż generatywne modele językowe mogą być zakwalifikowane, zgodnie z załącznikiem III do projektowanego AI Act, jako systemy AI wysokiego ryzyka, muszą także wówczas spełniać dodatkowe, rygorystyczne wymagania.
Systemy AI wysokiego ryzyka muszą zostać poddane ocenie ryzyka przed wprowadzeniem ich do obrotu. Ocena ryzyka jest procesem, w którym ocenia się potencjalne zagrożenia związane z systemem AI.
Ocena ryzyka powinna uwzględniać następujące czynniki:
- Rodzaj systemu AI — systemy AI wysokiego ryzyka to systemy, które mogą powodować poważne szkody, takie jak dyskryminacja, naruszenie prywatności lub bezpieczeństwa danych.
- Zastosowanie systemu AI — systemy AI wysokiego ryzyka są wykorzystywane tam, gdzie mogą mieć znaczący wpływ na życie ludzi, takich jak systemy kontroli dostępu lub systemy rozpoznawania twarzy.
- Dane wykorzystywane do szkolenia systemu AI — dane wykorzystywane do szkolenia systemu AI nie mogą być ukierunkowane lub dyskryminujące.
Ocena ryzyka powinna być przeprowadzona przez niezależnego eksperta. Wyniki oceny ryzyka powinny zostać opublikowane i udostępnione publicznie. W przypadku, gdy ocena ryzyka wykaże, że system AI wysokiego ryzyka może powodować poważne szkody, system ten może zostać zakazany lub ograniczony w zakresie jego stosowania.
Przykłady systemów AI wysokiego ryzyka, które muszą zostać poddane ocenie ryzyka:
- Systemy AI wykorzystywane do podejmowania decyzji w zakresie przyznawania kredytów, które mogą dyskryminować osoby należące do mniejszości etnicznych.
- Systemy AI wykorzystywane do rozpoznawania twarzy, które mogą być wykorzystywane do inwigilacji.
- Systemy AI wykorzystywane w systemach autonomicznych pojazdów, które mogą powodować wypadki.
Z kolei Systemy AI innego niż wysokie ryzyka będą mogły być opracowywane i wdrażane w UE bez szczególnie surowych obowiązków; projekt AI proponuje, aby powyższe zasady były odpowiednio stosowane do systemów nieobarczonych wysokim ryzykiem. W przypadku takich systemów zachęca się je do opracowania wewnętrznych procedur w oparciu o katalog obowiązków mających zastosowanie do AI wysokiego ryzyka. W związku z tym, nawet jeśli system sztucznej inteligencji nie jest określany jako system wysokiego ryzyka, może być konieczne dostosowanie go do zasad poszczególnych przepisów dotyczących sztucznej inteligencji. Może to wpłynąć na konkurencyjność rozwiązań AI na rynku.
Art. 52 AI Act wprowadza natomiast dodatkowe obowiązki w zakresie przejrzystości, bez szczegółowego definiowania kategorii ryzyka. Obejmuje to systemy, które wchodzą w interakcję z ludźmi (np. chatterboty), systemy rozpoznawania emocji, systemy klasyfikacji biometrycznej i systemy AI typu deepfakes. Użytkownicy takich systemów muszą być świadomi, że wchodzą w interakcję ze sztuczną inteligencją, aby mogli podjąć świadomą decyzję o korzystaniu z rozwiązań AI.
Regulacje AI poza Europą
W innych regionach świata podejście do regulacji sztucznej inteligencji jest zróżnicowane. W Chinach, rząd przyjął podejście, które łączy rozwój AI z narodowymi celami bezpieczeństwa i kontroli społecznej. Regulacje te charakteryzują się silnym zaangażowaniem państwa i naciskiem na kontrolę oraz bezpieczeństwo. Z kolei w Ameryce Północnej, szczególnie w Stanach Zjednoczonych, podejście do regulacji AI jest zdecydowanie bardziej nakierowane na rynkową innowację i samoregulację. Amerykański rząd obecnie prowadzi prace nad ustawą o sztucznej inteligencji, która ma zapewnić, aby AI była wykorzystywana w sposób bezpieczny i odpowiedzialny. Amerykańskie ramy prawne skupiają się na promowaniu rozwoju technologicznego, przy jednoczesnym zapewnieniu, że przestrzegane są standardy ochrony danych i prywatności.
Analiza wpływu AI Act na sektor sztucznej inteligencji w Europie w porównaniu do takich regionów świata jak Azja i Ameryka Północna ukazuje różnice w podejściu do regulacji i innowacji. W Europie, AI Act wprowadza zbalansowane ramy prawne, które mają na celu równoczesne wspieranie innowacji i zapewnienie odpowiedzialnej implementacji AI. Tymczasem, w Azji, zwłaszcza w Chinach, regulator skupia się na wykorzystaniu sztucznej inteligencji jako narzędzia do osiągnięcia celów gospodarczych i społecznych, często kosztem prywatności i indywidualnych praw i wolności. W Stanach Zjednoczonych, podejście do AI jest bardziej ukierunkowane na rynek, z naciskiem na innowacje i samoregulację, co sprzyja szybszemu rozwojowi technologii, ale może również rodzić wyzwania związane z etyką i ochroną danych. Różnice te wpływają na globalną dynamikę rozwoju sztucznej inteligencji, a Europa, z AI Act, stara się wypracować równowagę między rozwojem technologicznym a ochroną podstawowych wartości i praw obywatelskich.
Potencjalne Skutki AI Act dla Europy

AI Act ma fundamentalne znaczenie dla przyszłości AI w Europie, zarówno pod względem innowacji, jak i potencjalnych ograniczeń. Z jednej strony, może on sprzyjać rozwojowi bardziej etycznych i bezpiecznych systemów AI, co może zwiększyć zaufanie konsumentów i inwestorów. Z drugiej strony, istnieje obawa, że restrykcyjne przepisy mogą hamować innowacyjność i ograniczyć zdolność europejskich firm do konkurowania na globalnym rynku AI. Możliwe jest, że AI Act stworzy nowe wyzwania dla start-upów i większych firm technologicznych, które będą musiały dostosować swoje produkty i usługi do nowych wymogów prawnych. Długoterminowy wpływ AI Act na europejski sektor AI powinna pozostawać przedmiotem bacznej obserwacji, a jego efektywność w osiąganiu równowagi między innowacją a ochroną będzie kluczowa dla przyszłego rozwoju technologicznego w Europie.
Jaka klaruje się przyszłość europejskich regulacji w przedmiocie AI?
AI Act jest pierwszym aktem prawnym regulującym tak szczegółowo sztuczną inteligencję na poziomie prawa europejskiego. Akt ten jest ważnym krokiem w kierunku zapewnienia, aby AI była wykorzystywana w sposób bezpieczny i odpowiedzialny. Jednakże, AI Act nie jest ostatecznym rozwiązaniem. Akt ten będzie musiał być regularnie aktualizowany w miarę rozwoju technologii. Rozważając przyszłość regulacji sztucznej inteligencji, w tym ewentualne zmiany w AI Act, kluczowe będzie dostosowanie do szybko zmieniającego się krajobrazu technologicznego. Innowacje w AI, a szczególnie w zakresie generatywnych modeli językowych nieustannie ewoluują, a przepisy muszą być elastyczne, aby nadążać za tymi zmianami i nowymi wyzwaniami. Ponadto, europejskie podejście do regulowania sztucznej inteligencji może wyznaczać globalne standardy w dziedzinie AI, wpływając na międzynarodowe dyskusje o etyce, prywatności i bezpieczeństwie. Ostatecznie, równowaga między wspieraniem innowacji a ochroną społeczną i etyczną będzie kluczowa dla przyszłego kształtu regulacji AI na świecie.

Podsumowując, AI Act, w tym regulacje dotyczące generatywnych modeli językowych, są znaczącym krokiem w kierunku zarządzania rozwojem sztucznej inteligencji w Europie. Akt ten może pomóc w zapewnieniu, bezpieczniejszego i bardziej odpowiedzialnego stosowania AI, jednocześnie promując innowacje. Może to także wspomóc Europę w utrzymaniu swojej konkurencyjności w globalnym wyścigu technologicznym. Jego wpływ na innowacje, konkurencyjność na rynku globalnym oraz etyczne zarządzanie technologią będzie z pewnością przedmiotem bacznej obserwacji. AI Act nie tylko ustanawia ramy dla obecnego stanu technologii, ale również otwiera drogę do przyszłych dyskusji i kierunków rozwoju, które będą miały kluczowe znaczenie dla kształtowania przyszłości sztucznej inteligencji, zarówno w Europie, jak i na całym świecie.
Czy jednak zbytnie uregulowanie sztucznej inteligencji, nie będzie coraz bardziej zaciskającą się pętlą na rozwoju AI, która zdusi ogrom potencjału drzemiącego w tych systemach? To pytanie na razie pozostaje bez odpowiedzi — weryfikację przyniesie nam przyszłość, w której to może będziemy stać ramię w ramię z AI.
Autor artykułu: adwokat Szymon Zagozda