Kiedy praktyki zakazane w zakresie AI są dozwolone?

praktyki zakazane AI Act
  • 2 sierpnia 2025 r. wchodzą w życie przepisy AI Act o karach za stosowanie zakazanych praktyk w zakresie AI1 (art. 5 i art. 99 AI Act). 
  • Stosowanie zakazanych praktyk podlegać będzie karze pieniężnej w wysokości do 35 000 000 EUR lub do 7 % całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego (w zależności od tego, która z tych kwot jest wyższa).
  • Przepisy o karach wejdą w życie, ale wciąż nie będą egzekwowane w Polsce, bo nie ma jeszcze właściwego organu nadzoru, który miałby te kary nakładać. W tym zakresie czekamy na polską ustawę implementującą.
  • Ponieważ jest jeszcze chwila czasu, to tym bardziej warto zastanowić się co zrobić z systemem, który podpada pod zakazaną praktykę.
  • Poniżej kilka pomysłów co zrobić jeżeli Twój system podpada pod jedną lub więcej z zakazanych praktyk.

Sprzedawaj poza EOG

Zakazane praktyki dotyczą wprowadzania do obrotu, oddawania do użytku i korzystania na terenie UE, a właściwie EOG, ale wśród zakazanych praktyk nie ma tworzenia systemów.

Można więc tworzyć i rozwijać system AI w UE, a oferować go i wdrażać tylko poza EOG np. do USA, Chin czy Brazylii. Trzeba przy tym pamiętać, że testy mogą odbywać się tylko w środowisku testowym, a nie w unijnej rzeczywistości.

Zmień przeznaczenie systemu na cele wojskowe, obronne lub bezpieczeństwa narodowego

AI Act przewiduje wyłączenie w zakresie wprowadzania do obrotu, oddawania do używania i korzystania wyłącznie do celów wojskowych, obronnych lub bezpieczeństwa narodowego.

  • system AI musi być wprowadzany do obrotu, oddany do użytku lub używany wyłącznie do tych celów w przeciwnym razie nie korzysta z wyłączenia; 
  • systemy o podwójnym zastosowaniu nie podlegają wyłączeniu w zakresie w jakim oferowane są do celów cywilnych;
  • wyłączenie stosuje się zarówno do podmiotów publicznych, jak i do prywatnych.

Czym jest bezpieczeństwo narodowe?

  • Podstawowy interes w ochronie podstawowych funkcji państwa oraz fundamentalnych interesów społeczeństwa obejmujący np. zapobieganie działalności terrorystycznej. 
  • To państwa członkowskie określają co jest tym podstawowym interesem.
  • Zapobieganie, wykrywanie, prowadzenie dochodzeń i ściganie przestępstw oraz wykonywanie kar kryminalnych wykonywane przez Policję i inne organy ścigania, nie podlega pod ten wyjątek.

Zmień przeznaczenie systemu na cele badań naukowych i rozwojowych

AI Act nie stosuje się do systemów AI lub modeli AI, w tym ich wyników, rozwiniętych i oddanych do użytku wyłącznie do celów badań naukowych i rozwojowych. 

Obejmuje to:

  1. Systemy i modele AI rozwinięte i oddane do użytku wyłącznie do celów badań naukowych i rozwojowych. 
  2. Działalność badawczo-rozwojową dotyczącą systemów lub modeli AI przed wprowadzeniem tych systemów lub modeli do obrotu lub oddaniem ich do użytku (w tym zorientowaną na produkty działalność badawczą, testową i rozwojową dotyczącą systemów lub modeli AI przed oddaniem tych systemów i modeli do użytku lub wprowadzaniem ich do obrotu).

Wyłączenie nie obejmuje systemów AI, które mogą być wykorzystywane nie tylko do prowadzenia działalności badawczo-rozwojowej – te będą podlegać AI Act.

Open source nie jest rozwiązaniem

Można sobie wyobrazi taki model biznesowy, w którym wypuszczony na licencji open source system jest udostępniony przez nas za darmo, ale świadczymy są usługi wdrożeniowe, szkoleniowe i utrzymaniowe. Niestety ten model biznesowy nie uratuje nas przed praktykami zakazanymi z AI Act

AI Act zawiera wprawdzie wyjątek dotyczący systemów open source, ale faktycznie jest on pustosłowiem.

Zgodnie z art. 2 ust. 12 AI Act nie stosuje się go do systemów AI udostępnianych na podstawie bezpłatnych licencji otwartego oprogramowania, chyba że … systemy te są  wprowadzane do obrotu lub oddawane do użytku jako system AI:

  1. wysokiego ryzyka lub 
  2. objęty art. 5 – systemy objęte praktykami zakazanymi, lub
  3. objęty art. 50 – systemy, dla których przewidziano obowiązki informacyjne.

Podsumowanie

System podpadający w AI Act pod praktyki zakazane, może być rozwijany w UE i sprzedawany poza nią. Alternatywą jest zmiana przeznaczenia systemu na cele wojskowe, obronne, bezpieczeństwa narodowego lub badań naukowych i rozwojowych – wtedy można taki system wprowadza do obrotu w EOG.

Jeżeli ciekawi Cię temat, którego jeszcze nie opisałem albo masz dodatkowe pytania, napisz do mnie. Możesz też sprawdzić bazę wiedzy Kancelarii JDP.

  1. Wytyczne KE w zakresie praktyk zakazanych:
    Commission publishes the Guidelines on prohibited artificial intelligence (AI) practices, as defined by the AI Act. | Shaping Europe’s digital future ↩︎


Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *