1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW

UE z pierwszym prawem o AI: „Wprowadziliśmy 2 tys. poprawek”

13 marca 2024

Parlament Europejski przyjął przełomowe prawo o AI, zakazujące m.in. wykorzystywania w UE ryzykownych technologii, w tym punktowania społecznego i kategoryzowania ludzi na podstawie ich cech, jak wyznanie czy narodowość.

https://p.dw.com/p/4dTEK
PE przyjął AI Act
PE przyjął AI ActZdjęcie: picture alliance /

Prace nad unijną ustawą o AI trwały latami. Ostatnie, grudniowe negocjacje między Parlamentem, Komisją i państwami członkowskimi, które doprowadziły do finalnego porozumienia, miały być wyjątkowo trudne.

– Spędziliśmy ze sobą 38 godzin. To były najdłuższe negocjacje, jakie kiedykolwiek miały miejsce w historii tzw. trylogu, czyli trójstronnych negocjacji między instytucjami UE – wspominał we wtorek (12.03) podczas debaty parlamentarnej w Strasburgu komisarz UE ds. rynku wewnętrznego Thierry Breton. Jsk zaznaczył, UE udało się jednak  osiągnąć historyczny kompromis.

– Wprowadziliśmy 2 tysiące poprawek, ale się udało! To jest przyszłość AI ukierunkowanej na człowieka, technologii, która nam pomaga, a nie zagraża – wtórował mu rumuński europoseł Dragos Tudorache (Renew), który nadzorował prace nad pakietem z ramienia PE.

– Dzisiejsza debata kończy pewien historyczny cykl – ocenił Breton.

AI: od zakazanej po dopuszczalną

Miał rację, bo już w środę (13.03) Parlament Europejski większością głosów przyjął pierwszą w UE i na świecie ustawę o sztucznej inteligencji (AI Act), regulującą wykorzystanie technologii w zależności od stopnia potencjalnego ryzyka, jakie za sobą pociąga i wpływu, jaki wywiera na użytkowników. Nowe przepisy dzielą sztuczną inteligencję na cztery grupy: oprogramowanie wysokiego ryzyka, technologie ograniczonego i minimalnego wpływu i systemy nieakceptowalne. Te ostatnie będą w Unii zakazane.

Mowa tu o wszystkich aplikacjach AI, które stanowią wyraźne zagrożenie dla praw podstawowych użytkowników, czyli technologie pozwalające m.in. na monitorowanie i szpiegowanie ludzi czy wykorzystywanie ich danych wrażliwych, jak orientacja seksualna, pochodzenie lub wyznanie do przewidywania ich zachowań (w tym ryzyka popełnienia przez nich przestępstw) lub do podsuwania im treści mogących wpłynąć na ich decyzje i zachowanie. – To poniżające praktyki – komentuje w rozmowie z DW Ursula Pachl z unijnej organizacji konsumentów BEUC.

Punktowanie społeczne w Chinach

Do grupy technologii zakazanych zaliczają się m.in. systemy tzw. scoringu społecznego, służące do oceny obywateli na podstawie ich zachowań społecznych. Punktowanie obywateli funkcjonuje w Chinach, gdzie sąsiedzi oceniają się nawzajem i punktują np. kto segreguje śmieci albo sprawia problemy na osiedlu.

Co więcej osoby wykazujące pożądane zachowania społeczne, w tym zaangażowane w działania charytatywne, sprzątanie osiedla, krwiodawstwo czy opiekujące się starszymi członkami rodziny, są przez władze nagradzane i mogą np. uzyskać lepsze oprocentowanie w banku. Na obniżenie punktacji wpływają natomiast takie zachowania, jak oszukiwanie, prowadzenie pod wpływem alkoholu, kradzież, a nawet przechodzenie na czerwonym świetle.

Jak zapowiedział w środę podczas konferencji prasowej włoski socjaldemokrata Brando Benifei, jeden ze sprawozdawców tematu z ramienia PE, do końca roku zabronione powinny zostać także inne praktyki, w tym wykorzystywanie systemów biometrii do pozyskiwania danych wrażliwych danej osoby, jak jej wyznanie czy pochodzenie etniczne. Jak mówią unijni politycy, może to prowadzić to do takich sytuacji, gdzie obywatel jest obserwowany przez organy rządowe tylko dlatego, że jest np. muzułmaninem czy katolikiem lub zakłada się, że popełni on przestępstwo tylko dlatego, że ma inny kolor skóry.

Zabroniona zostanie także technologia AI wykorzystywana do manipulowania ludzkim zachowaniem. Chodzi tu o takie stosowanie sztucznej inteligencji, żeby skłonić użytkowników do określonych działań. Mowa tu przede wszystkim o wykorzystywaniu algorytmów analizujących dane użytkowników i ich zachowania online, żeby na tej podstawie przewidywać ich preferencje, zachowania i potrzeby. Wiedza ta może być wykorzystywana do podsuwania internautom określonych produktów i usług, ale także do manipulowania ich zachowaniami i wyborami.

Biometria? Tylko za zgodą sądu

– Zabronione zostaną także systemy monitorujące emocje ludzi w miejscach pracy, urzędach, szkołach lub na uczelniach – zapewniał Bonifei tłumacząc, że technologia taka bywa wykorzystywana do monitorowania np. gotowości pracowników do strajku czy niepokojów. – To nie będzie dopuszczalne. W ten sposób chronimy prawa obywateli – mówił włoski polityk.

AI nie będzie mogła być też wykorzystywana do śledzenia poczynań obywateli lub pobierania wizerunków ich twarzy z internetu lub nagrań z telewizji przemysłowej, by stworzyć bazy danych służące rozpoznawaniu twarzy, chociaż z systemów rozpoznawania twarzy będą pod pewnymi warunkami mogły korzystać służby.

Sztuczna inteligencja. Czy zastąpi pracowników?

Jak zapowiadają legislatorzy, biometria będzie mogła być wykorzystywana przez organy ścigania tylko w ściśle określonych przypadkach, w tym przy poszukiwaniach osób podejrzewanych lub skazanych za poważne przestępstwa, poszukiwaniach ofiar np. porwania, handlu ludźmi, wykorzystywania seksualnego lub przy przeciwdziałaniu atakom terrorystycznym. Zgodę na jej zastosowanie jednak będzie wcześniej musiał wydać sąd lub właściwy organ administracyjny. – To będą wyjątki - zapewniał Brando Benifei.

Prawo do skargi na AI

Surowe wymogi spełniać będą musiały systemy sztucznej inteligencji uznane za wysoce ryzykowne, choć dopuszczalne. To technologie wykorzystywane na przykład w infrastrukturze krytycznej, edukacji, opiece zdrowotnej, egzekwowaniu prawa, zarządzaniu granicami lub wyborach, będą musiały spełniać surowe wymogi. Mogą to być np. systemy AI wykorzystywane przez firmy, uczelnie lub banki do analizowania podań o pracę czy pożyczkę, wniosków o stypendium czy przyjęcie na studia, przez ośrodki zdrowia do wytypowania pacjentów do leczenia czy przez urzędy w procesie przyznawania wiz.

Do ryzykownych zalicza się tu również technologie wykorzystywane do liczenia głosów w wyborach. – Nie może być tak, że sztuczna inteligencja decydować będzie o życiu lub przyszłości obywateli, w tym o ich dostępie do edukacji czy otrzymaniu pracy – mówią unijni legislatorzy.

Nowe unijne przepisy nakładają na producentów obowiązek oceny wpływu i monitoringu ryzykownej technologii zanim ta trafi na rynek UE oraz przez cały cykl jej życia. Obywatele będą mieli również prawo do składania skarg na systemy AI i domagania się wyjaśnień odnośnie decyzji opartych na AI, np. kiedy odmówi im się kredytu.

Deepfake pod specjalnym nadzorem

Regulacje obejmą także szybko rozwijające się modele sztucznej inteligencji niskiego i minimalnego ryzyka, jak chatboty (w tym popularny ChatGPT), gry oparte na sztucznej inteligencji, a nawet filtry antyspamowe. Te również spełniać będą musiały wymogi przejrzystości. W praktyce oznacza to głównie to, że internauci będą musieli mieć świadomość, że korzystają z treści wygenerowanych przez AI lub „rozmawiają” z botem.

Deepfejki: realne zagrożenie

Dodatkowe wymogi bezpieczeństwa nałożone zostaną na treści zmanipulowane, czyli tzw. deepfakes: wprowdzające w błąd materiały wygnerowane przez AI poprzez łączenie obrazów. Jak przyznają eksperci, jakość tego typu materiałów jest coraz lepsza, co sprawia, że coraz trudniej odróżnić je od prawdziwych przekazów. Dlatego też unijni legislatorzy nałożyli obowiązek wyraźnego oznaczania takich treści np. przez nakładanie na nich znaków wodnych.

– Myślę, że osiągnęliśmy dobrą równowagę między zarządzaniem ryzykiem, a kontynuacją unijnego wsparcia dla innowacji. Wprowadzamy ograniczenia tylko, jeśli istnieje ryzyko i tylko wobec tego rodzaju technologii, która jest niezgodna z wartościami UE i prawami podstawowymi – mówił komisarz Breton.

Firmy, które nie będą przestrzegać unijnych przepisów o AI będą musiały liczyć się z surowymi karami, te wahać się będą od 7,5 mln euro lub 1,5 proc. światowych obrotów do 35 mln euro i 7 proc. obrotów.

Rozwój, ale nie kosztem ludzi

Jak mówią unijni politycy nowe regulacje są odpowiedzią na potrzeby społeczne. Unijne badanie opinii społecznej Eurobarometr ujawniło, że 87 proc. respondentów uważa, że Europejczycy powinni być chronieni przeciwko ryzykom związanym z nieetycznym wykorzystywaniem technologii. – Rozwój technologiczny nie powinien się odbywać kosztem praw obywateli – mówił w Strasburgu bułgarski socjaldemokrata Petar Vitanov.

Unijne organizacje konsumentów przyjęły przepisy z umiarkowanym entuzjazmem. - Przyjmując pierwsze na świecie horyzontalne przepisy dotyczące sztucznej inteligencji, UE słusznie daje do zrozumienia, że technologia tak potężna jak AI, przy wszystkich swoich zaletach, potrzebuje barier. Konsumenci będą chronieni przed niektórymi poniżającymi praktykami, takimi jak ocena społecznościowa, i będą mogli dołączyć do zbiorowych roszczeń odszkodowawczych, jeśli zostaną skrzywdzeni przez ten sam system sztucznej inteligencji – mówi DW Ursula Pachl z BEUC

Dodaje jednak, że przepisy powinny były pójść dalej. – Teraz jednak głównym priorytetem KE i państw członkowskich powinno być jak najszybsze ich wdrożenie – mówi.

Żeby te mogły wejść w życie muszą teraz zostać formalnie przyjęte przez państwa członkowskie. Przepisy powinny zacząć w pełni obowiązywać w 2026 r.. Wyjątkiem będą zakazy niedozwolonych praktyk, które zaczną obowiązywać wcześniej, bo już sześć miesięcy po wejściu ustawy w życie.