- 2 sierpnia 2025 r. wchodzą w życie przepisy AI Act o karach za stosowanie zakazanych praktyk w zakresie AI1 (art. 5 i art. 99 AI Act).
- Stosowanie zakazanych praktyk podlegać będzie karze pieniężnej w wysokości do 35 000 000 EUR lub do 7 % całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego (w zależności od tego, która z tych kwot jest wyższa).
- Przepisy o karach wejdą w życie, ale wciąż nie będą egzekwowane w Polsce, bo nie ma jeszcze właściwego organu nadzoru, który miałby te kary nakładać. W tym zakresie czekamy na polską ustawę implementującą.
- Ponieważ jest jeszcze chwila czasu, to tym bardziej warto zastanowić się co zrobić z systemem, który podpada pod zakazaną praktykę.
- Poniżej kilka pomysłów co zrobić jeżeli Twój system podpada pod jedną lub więcej z zakazanych praktyk.
Sprzedawaj poza EOG
Zakazane praktyki dotyczą wprowadzania do obrotu, oddawania do użytku i korzystania na terenie UE, a właściwie EOG, ale wśród zakazanych praktyk nie ma tworzenia systemów.
Można więc tworzyć i rozwijać system AI w UE, a oferować go i wdrażać tylko poza EOG np. do USA, Chin czy Brazylii. Trzeba przy tym pamiętać, że testy mogą odbywać się tylko w środowisku testowym, a nie w unijnej rzeczywistości.
Zmień przeznaczenie systemu na cele wojskowe, obronne lub bezpieczeństwa narodowego
AI Act przewiduje wyłączenie w zakresie wprowadzania do obrotu, oddawania do używania i korzystania wyłącznie do celów wojskowych, obronnych lub bezpieczeństwa narodowego.
- system AI musi być wprowadzany do obrotu, oddany do użytku lub używany wyłącznie do tych celów w przeciwnym razie nie korzysta z wyłączenia;
- systemy o podwójnym zastosowaniu nie podlegają wyłączeniu w zakresie w jakim oferowane są do celów cywilnych;
- wyłączenie stosuje się zarówno do podmiotów publicznych, jak i do prywatnych.
Czym jest bezpieczeństwo narodowe?
- Podstawowy interes w ochronie podstawowych funkcji państwa oraz fundamentalnych interesów społeczeństwa obejmujący np. zapobieganie działalności terrorystycznej.
- To państwa członkowskie określają co jest tym podstawowym interesem.
- Zapobieganie, wykrywanie, prowadzenie dochodzeń i ściganie przestępstw oraz wykonywanie kar kryminalnych wykonywane przez Policję i inne organy ścigania, nie podlega pod ten wyjątek.
Zmień przeznaczenie systemu na cele badań naukowych i rozwojowych
AI Act nie stosuje się do systemów AI lub modeli AI, w tym ich wyników, rozwiniętych i oddanych do użytku wyłącznie do celów badań naukowych i rozwojowych.
Obejmuje to:
- Systemy i modele AI rozwinięte i oddane do użytku wyłącznie do celów badań naukowych i rozwojowych.
- Działalność badawczo-rozwojową dotyczącą systemów lub modeli AI przed wprowadzeniem tych systemów lub modeli do obrotu lub oddaniem ich do użytku (w tym zorientowaną na produkty działalność badawczą, testową i rozwojową dotyczącą systemów lub modeli AI przed oddaniem tych systemów i modeli do użytku lub wprowadzaniem ich do obrotu).
Wyłączenie nie obejmuje systemów AI, które mogą być wykorzystywane nie tylko do prowadzenia działalności badawczo-rozwojowej – te będą podlegać AI Act.
Open source nie jest rozwiązaniem
Można sobie wyobrazi taki model biznesowy, w którym wypuszczony na licencji open source system jest udostępniony przez nas za darmo, ale świadczymy są usługi wdrożeniowe, szkoleniowe i utrzymaniowe. Niestety ten model biznesowy nie uratuje nas przed praktykami zakazanymi z AI Act
AI Act zawiera wprawdzie wyjątek dotyczący systemów open source, ale faktycznie jest on pustosłowiem.
Zgodnie z art. 2 ust. 12 AI Act nie stosuje się go do systemów AI udostępnianych na podstawie bezpłatnych licencji otwartego oprogramowania, chyba że … systemy te są wprowadzane do obrotu lub oddawane do użytku jako system AI:
- wysokiego ryzyka lub
- objęty art. 5 – systemy objęte praktykami zakazanymi, lub
- objęty art. 50 – systemy, dla których przewidziano obowiązki informacyjne.
Podsumowanie
System podpadający w AI Act pod praktyki zakazane, może być rozwijany w UE i sprzedawany poza nią. Alternatywą jest zmiana przeznaczenia systemu na cele wojskowe, obronne, bezpieczeństwa narodowego lub badań naukowych i rozwojowych – wtedy można taki system wprowadza do obrotu w EOG.
Jeżeli ciekawi Cię temat, którego jeszcze nie opisałem albo masz dodatkowe pytania, napisz do mnie. Możesz też sprawdzić bazę wiedzy Kancelarii JDP.
- Wytyczne KE w zakresie praktyk zakazanych:
Commission publishes the Guidelines on prohibited artificial intelligence (AI) practices, as defined by the AI Act. | Shaping Europe’s digital future ↩︎

Dodaj komentarz