Nowa era odpowiedzialnej sztucznej inteligencji
Sztuczna inteligencja rozwija się w błyskawicznym tempie, oferując niesamowite możliwości w medycynie, edukacji, przemyśle czy administracji publicznej. Z drugiej strony, jej niewłaściwe zastosowanie może prowadzić do poważnych naruszeń praw człowieka, dyskryminacji i manipulacji. W odpowiedzi na te zagrożenia, Unia Europejska wprowadza w życie nowe przepisy – AI Act. Od 2 lutego 2025 roku obowiązywać będzie zestaw regulacji prawnych mających na celu kontrolowanie najbardziej ryzykownych i nieetycznych zastosowań AI.
Nowe prawo nie tylko chroni obywateli przed potencjalnymi zagrożeniami, ale także tworzy jasne ramy dla rozwoju bezpiecznych i przejrzystych technologii. AI Act to pierwszy tak kompleksowy dokument prawny w historii, który skupia się wyłącznie na sztucznej inteligencji. W tym artykule przeanalizujemy szczegółowo, czego podmiotom działającym w ramach Unii Europejskiej nie wolno będzie tworzyć, sprzedawać ani używać po wejściu AI Act w życie. Przedstawimy również konkretne przykłady, narzędzia i sytuacje, które zostały zakazane, oraz wyjaśnimy, jakich konsekwencji należy się spodziewać w przypadku łamania nowych przepisów.
Czym jest AI Act?
Nowa strategia legislacyjna UE
AI Act to rozporządzenie Unii Europejskiej, które reguluje kwestie związane z tworzeniem, używaniem i komercjalizacją systemów sztucznej inteligencji. Jego głównym celem jest zapewnienie, by technologie AI były zgodne z wartościami demokratycznymi, przestrzegały praw podstawowych i były wykorzystywane w sposób bezpieczny dla społeczeństwa. AI Act zakłada podejście oparte na analizie ryzyka – im wyższe potencjalne ryzyko danej technologii, tym surowsze wymagania i ograniczenia.
W praktyce oznacza to, że UE klasyfikuje systemy AI w czterech kategoriach ryzyka: minimalne, ograniczone, wysokie oraz niedopuszczalne – te ostatnie są całkowicie zakazane. Przepisy mają zastosowanie do szerokiego grona podmiotów: od gigantów technologicznych, przez startupy, instytucje publiczne, aż po twórców ogólnych modeli AI takich jak generatory tekstów czy obrazów.
Kogo dotyczą nowe regulacje?
AI Act będzie miał zastosowanie do wszystkich organizacji wdrażających lub oferujących technologie AI w UE, niezależnie od ich lokalizacji geograficznej. Oznacza to, że nawet firmy spoza Europy będą musiały dostosować swoje produkty i usługi, jeśli mają kontakt z obywatelami UE. Nowe regulacje obejmują też twórców oprogramowania, dystrybutorów i użytkowników końcowych systemów AI. Jedynym ważnym wyjątkiem są zastosowania wojskowe oraz działania naukowe do momentu, w którym dana technologia zostanie wprowadzona na rynek.
Firmy i instytucje mają czas do 2 lutego 2025 roku na dostosowanie się do nowych przepisów. To oznacza potrzebę przeprowadzenia dokładnego audytu własnych systemów AI oraz opracowania strategii zgodnej z wytycznymi AI Act. Jakie technologie zostaną bezwzględnie zakazane? O tym poniżej.
Zakazane systemy AI według AI Act
Kryteria zakazu – kiedy AI staje się zagrożeniem?
Unia Europejska zakazała tworzenia, sprzedaży i stosowania określonych systemów AI, które uznała za nieakceptowalnie ryzykowne. Kryterium zakazu dotyczy przede wszystkim stopnia ingerencji w wolność jednostki, możliwość manipulacji zachowaniami oraz naruszania prywatności i danych biometrycznych. Systemy te są uznawane za sprzeczne z podstawowymi wartościami UE, takimi jak godność, równość czy wolność wyrażania opinii.
W poniższej części szczegółowo opisaliśmy każdą z zakazanych kategorii systemów, ilustrując je konkretnymi przykładami użycia. Jeśli jakiekolwiek przedsiębiorstwo wdraża takie technologie – powinno je niezwłocznie usunąć lub znacząco zmodyfikować ich sposób działania, by nie narazić się na poważne sankcje finansowe.
1. Manipulacja i techniki podprogowe
UE zakazuje systemów AI, które używają technik manipulacyjnych w celu wpłynięcia na zachowanie użytkownika w sposób nieświadomy i niekontrolowany. To szczególnie niebezpieczne w kontekście psychologii sprzedaży i marketingu. Chodzi zwłaszcza o techniki podprogowe, które mogą wykorzystywać przekaz dźwiękowy albo wizualny ukryty pod głównym komunikatem – niewidoczny lub niesłyszalny świadomie dla odbiorcy, ale rejestrowany przez jego zmysły.
Przykład: System reklamowy online, który w tle muzyki odtwarza słowa typu „kup teraz”, „wydaj więcej”, czy „skorzystaj z promocji” na bardzo niskiej częstotliwości, wpływając na decyzje zakupowe użytkownika bez jego świadomości. Tego typu praktyki zostały uznane za nieetyczne i całkowicie zakazane.
2. Wykorzystywanie słabości grup wrażliwych
Systemy AI nie mogą celowo wykorzystywać informacji o wieku, stanie zdrowia czy niepełnosprawności użytkownika dla uzyskania komercyjnych lub politycznych korzyści. Seniorzy, dzieci i osoby z ograniczonym postrzeganiem cyfrowym są w szczególny sposób objęci ochroną przez nowe przepisy. Wykorzystanie ich ograniczeń poznawczych do manipulacji decyzjami zakupowymi czy życiowymi stanowi poważne naruszenie AI Act.
Przykład: Firma wypuszcza asystenta głosowego, który promuje skomplikowane produkty finansowe wśród osób starszych, celując w ich niewiedzę dotyczącą oprocentowania, kosztów ukrytych lub ryzyka inwestycyjnego. Takie systemy muszą zostać wycofane z rynku UE przed 2025 rokiem.
3. Scoring społeczny (ocena jednostek przez AI)
AI Act zakazuje systemów scoringowych opartych na monitorowaniu i ocenianiu zachowań obywateli. Chociaż takie systemy są znane głównie z Chin, UE uznała, że analogiczne narzędzia stanowią zagrożenie również na kontynencie europejskim. Ocenianie jednostek za ich styl życia, aktywność online czy obywatelską postawę prowadzi do dyskryminacji i utraty zaufania społecznego.
Przykład: Aplikacja analizująca codzienne działania mieszkańców (np. segregowanie śmieci, poziom zużycia energii, zachowanie w środkach transportu publicznego), a następnie przypisująca im punkty wpływające na dostęp do usług komunalnych. Taka technologia będzie całkowicie nielegalna w UE.
4. Biometryczna kategoryzacja ludzi
Systemy prowadzące analizę danych biometrycznych (np. rozpoznawanie twarzy, głosu, chodu) celem przypisania danym osobom określonych cech, np. pochodzenia etnicznego, orientacji seksualnej, poglądów religijnych czy politycznych – są surowo zakazane. UE wskazuje, że takie działania mają charakter dyskryminujący i są niezgodne z Kartą Praw Podstawowych UE.
Przykład: Oprogramowanie HR w firmie, które analizuje mikromimikę kandydatów i przypisuje im określone cechy psychologiczne lub społeczne w trakcie rekrutacji, bez ich wiedzy i zgody. Takie działanie będzie nielegalne niezależnie od celu – zatrudnienie, awans czy ocena lojalności.
5. Przewidywanie przestępczości na podstawie danych osobowych
AI Act całkowicie zakazuje systemów, które na podstawie danych socjodemograficznych, psychologicznych lub behawioralnych prognozują prawdopodobieństwo popełnienia przestępstwa. Przewidywanie przyszłych działań jednostek na podstawie ich przeszłych zachowań reprezentuje niebezpieczne podejście typu „prewencyjna sprawiedliwość”, znane z dystopijnych filmów.
Przykład: AI analizująca dane z social media, wyniki testów psychologicznych lub lokalizacje, które użytkownik odwiedza, by prognozować jego skłonność do przyszłych działań przestępczych. Takie rozwiązania nie będą dopuszczone w przestrzeni publicznej ani korporacyjnej w UE.
6. Zdalna identyfikacja biometryczna w czasie rzeczywistym
Zgodnie z przepisami AI Act, zakazane jest wykorzystywanie kamer i systemów AI do identyfikacji biometrycznej obywateli w czasie rzeczywistym w przestrzeniach publicznych. Chociaż bywają wyjątki (np. działania policyjne za zgodą sądu), to ogólnie praktyka taka została uznana za naruszającą prywatność i wolność obywatelską.
Przykład: Miasto instaluje systemy monitoringu ulicznego wyposażone w AI analizujące twarze przechodniów w czasie rzeczywistym, automatycznie łącząc je z bazą danych policyjnych wykroczeń. Tego typu rozwiązania od 2025 roku będą nielegalne w Unii Europejskiej.
7. Scraping danych biometrycznych – nowe granice prywatności
Jednym z istotnych zakazów wprowadzonych przez AI Act jest nielegalne pozyskiwanie danych biometrycznych bez zgody osoby, której te dane dotyczą. Chodzi przede wszystkim o tzw. scraping – czyli automatyczne zbieranie zdjęć, nagrań wideo lub innych materiałów z sieci, w tym mediów społecznościowych, forów internetowych czy monitoringu miejskiego. Systemy AI, które analizują takie dane, by tworzyć profile osób, modele rozpoznawania twarzy lub inne systemy identyfikacyjne, są uznane za szczególnie ryzykowne i niezgodne z przepisami UE.
Przykład: Firma technologiczna tworzy bazę danych do rozpoznawania twarzy, zbierając zdjęcia użytkowników z publicznych profili na Instagramie, Facebooku czy TikToku – bez ich wiedzy i zgody. Tego typu działanie będzie od 2025 roku w Unii Europejskiej nielegalne. W praktyce oznacza to, że twórcy systemów AI muszą zapewnić pełną przejrzystość źródeł danych oraz ich zgodność z przepisami o ochronie danych osobowych – w tym RODO.
8. Rozpoznawanie emocji – ograniczenia technologii wrażliwych
AI Act zakazuje również systemów, które analizują emocje ludzi w celach innych niż medyczne, terapeutyczne lub związane z bezpieczeństwem. Rozpoznawanie emocji na podstawie mimiki twarzy, tonu głosu czy mowy ciała może prowadzić do błędnych ocen, dyskryminacji oraz naruszenia prywatności. Szczególnie ryzykowne są przypadki, w których system decyduje o zatrudnieniu, awansie czy ocenie efektywności pracownika na podstawie jego emocjonalnych reakcji.
Przykład: Pracodawca instaluje kamery w miejscu pracy, które analizują twarze pracowników, aby ocenić ich poziom stresu, zaangażowania lub motywacji. Na tej podstawie podejmuje decyzje kadrowe. Takie praktyki będą od 2025 roku zakazane w UE, z wyjątkiem przypadków, gdy system jest używany w kontekście zdrowia psychicznego – i tylko za wyraźną zgodą użytkownika.
Kary za naruszenie przepisów AI Act
Wysokie grzywny i sankcje
AI Act przewiduje surowe kary finansowe dla podmiotów, które nie dostosują się do nowych przepisów. Najpoważniejsze naruszenia – takie jak tworzenie zakazanych systemów AI – mogą skutkować karą do 35 milionów euro lub 7% całkowitego rocznego obrotu firmy na świecie, w zależności od tego, która kwota jest wyższa. To oznacza, że nawet globalne korporacje muszą potraktować regulacje UE bardzo poważnie.
W przypadku mniej poważnych naruszeń, takich jak brak odpowiedniego oznaczenia treści generowanych przez AI, kary są niższe – ale nadal znaczące. Mogą wynieść do 10 milionów euro lub 2% rocznego obrotu. Dodatkowo, firmy mogą być zmuszone do wycofania produktu z rynku, a nawet podlegać zakazowi prowadzenia działalności na terenie UE.
System nadzoru i egzekwowania prawa
AI Act przewiduje powołanie krajowych organów nadzoru w każdym państwie członkowskim, które będą odpowiedzialne za kontrolę wdrażania przepisów. Wspierać je będzie Europejska Rada ds. Sztucznej Inteligencji, która zajmie się koordynacją działań i interpretacją przepisów. Firmy będą musiały nie tylko spełniać wymagania techniczne, ale też składać raporty zgodności i prowadzić dokumentację dotyczącą ryzyka i bezpieczeństwa systemów AI.
Jak przygotować się do AI Act? Praktyczne kroki dla firm
1. Audyt istniejących systemów AI
Każda firma korzystająca z technologii AI powinna rozpocząć od dokładnej inwentaryzacji swoich rozwiązań. Należy zidentyfikować, które systemy podlegają regulacjom AI Act i określić poziom ich ryzyka. Szczególną uwagę trzeba zwrócić na narzędzia do rozpoznawania twarzy, scoringu użytkowników, analizy zachowań czy personalizacji treści marketingowych.
Warto skorzystać z dostępnych narzędzi do samooceny ryzyka AI, takich jak AI Risk Assessment Toolkit udostępniany przez Komisję Europejską. Taki audyt powinien być przeprowadzony przez zespół interdyscyplinarny – w skład którego wchodzą specjaliści IT, prawnicy, eksperci ds. etyki i ochrony danych osobowych.
2. Klasyfikacja systemów AI według poziomu ryzyka
AI Act dzieli systemy AI na cztery kategorie ryzyka: minimalne, ograniczone, wysokie i niedopuszczalne. Przykładowo, chatboty sprzedażowe mogą być uznane za systemy o ograniczonym ryzyku, natomiast systemy rozpoznawania twarzy w przestrzeni publicznej – za niedopuszczalne. Każda firma musi przypisać swoje rozwiązania do odpowiedniej kategorii i wdrożyć odpowiednie środki zaradcze.
W przypadku systemów wysokiego ryzyka konieczne będzie spełnienie dodatkowych wymagań, takich jak prowadzenie dokumentacji technicznej, zapewnienie nadzoru człowieka nad systemem, przeprowadzanie testów bezpieczeństwa oraz zgłoszenie systemu do krajowego rejestru AI.
3. Oznaczanie treści generowanych przez AI
Jednym z wymogów AI Act jest obowiązek oznaczania treści generowanych przez sztuczną inteligencję. Dotyczy to tekstów, obrazów, nagrań audio i wideo tworzonych przez AI – w tym deepfake’ów, syntezowanych głosów czy generowanych zdjęć. Celem tego obowiązku jest zapewnienie przejrzystości i umożliwienie odbiorcom rozpoznania, że mają do czynienia z treścią nienaturalną.
Przykład: Platforma e-learningowa wykorzystuje AI do generowania wideo z lektorem, który tłumaczy materiał edukacyjny. Od 2025 roku taki materiał musi zawierać informację, że głos i obraz zostały wygenerowane przez sztuczną inteligencję. Brak takiego oznaczenia może skutkować karami finansowymi.
4. Szkolenia i kultura zgodności
Wdrożenie AI Act to nie tylko kwestia techniczna, ale również edukacyjna. Firmy powinny przeszkolić swoich pracowników – szczególnie tych pracujących nad rozwojem, wdrażaniem i nadzorem nad systemami AI – w zakresie etyki, prawa i bezpieczeństwa. Warto zainwestować w cykliczne szkolenia oraz stworzyć kodeks etyczny dotyczący rozwoju AI w firmie.
W dłuższej perspektywie budowanie kultury zgodności z przepisami przyczyni się do zwiększenia zaufania klientów, partnerów biznesowych i inwestorów. Przestrzeganie AI Act to nie tylko obowiązek, ale również szansa na zbudowanie przewagi konkurencyjnej.
AI Act jako szansa, a nie tylko obowiązek
AI Act to przełomowe rozporządzenie, które zmieni sposób, w jaki sztuczna inteligencja jest tworzona, wdrażana i używana w Unii Europejskiej. Choć nowe regulacje mogą wydawać się rygorystyczne, ich celem jest ochrona fundamentalnych wartości i praw człowieka. Zakazy dotyczące systemów manipulacyjnych, dyskryminujących lub naruszających prywatność są krokiem w stronę bardziej etycznej i odpowiedzialnej technologii.
Dla firm i instytucji AI Act to wyzwanie, ale również okazja do budowania zaufania społecznego, transparentności i bezpieczeństwa. Przestrzegając nowych przepisów, organizacje nie tylko unikną kar finansowych, ale także zyskają przewagę na rynku, który coraz bardziej ceni odpowiedzialność i etykę. Warto już teraz przygotować się do zmian, by od 2025 roku działać zgodnie z prawem i w duchu europejskich wartości.
Nowa era sztucznej inteligencji w Europie zaczyna się właśnie teraz – z szacunkiem dla człowieka, jego wolności i godności. To kierunek, który warto wspierać i rozwijać z pełną świadomością odpowiedzialności, jaką niesie za sobą technologia.