

Unia Europejska podjęła historyczny krok wraz z wejściem w życie AI Act, pierwszego na świecie kompleksowego prawodawstwa dotyczącego sztucznej inteligencji. Ten rewolucyjny akt prawny, który stawia Europę na czele zarządzania sztuczną inteligencją, ustanawia ramy regulacyjne oparte na ryzyku, które mają na celu zrównoważenie innowacji i ochrony praw podstawowych. Rozporządzenie to stanowi jednak również kolejny przejaw tzw.efektu brukselskiego" - tendencji UE do narzucania swoich zasad na skalę globalną poprzez swoją siłę rynkową, niekoniecznie napędzając innowacje technologiczne.
Podczas gdy Stany Zjednoczone i Chiny przodują w rozwoju sztucznej inteligencji dzięki ogromnym inwestycjom publicznym i prywatnym (odpowiednio 45% i 30% globalnych inwestycji w 2024 r.), Europa przyciągnęła zaledwie 10% globalnych inwestycji w sztuczną inteligencję. W odpowiedzi UE stara się zrekompensować swoje opóźnienie technologiczne poprzez regulacje, narzucając standardy, które ostatecznie wpływają na cały globalny ekosystem.
Zasadnicze pytanie brzmi: czy Europa tworzy środowisko, które promuje odpowiedzialne innowacje, czy po prostu eksportuje biurokrację? biurokrację do branży, w której nie może konkurować?
Ustawa o sztucznej inteligencji ma zastosowanie nie tylko do przedsiębiorstw europejskich, ale także do tych, które działają na rynku europejskim lub których systemy sztucznej inteligencji mają wpływ na obywateli UE. Ta eksterytorialna jurysdykcja jest szczególnie widoczna w przepisach dotyczących modeli GPAI, gdzie motyw 106 ustawy stanowi, że dostawcy muszą przestrzegać praw autorskich UE "niezależnie od jurysdykcji, w której odbywa się szkolenie modeli".
Podejście to zostało mocno skrytykowane przez niektórych obserwatorów, którzy postrzegają je jako próbę narzucenia przez UE swoich zasad firmom, które nie mają siedziby na jej terytorium. Według krytyków może to doprowadzić do rozłamu w globalnym ekosystemie technologicznym, w którym firmy będą zmuszone do opracowania oddzielnych wersji swoich produktów na rynek europejski lub przyjęcia europejskich standardów dla wszystkich rynków, aby uniknąć dodatkowych kosztów związanych z przestrzeganiem przepisów.
Międzynarodowe firmy technologiczne znajdują się zatem w trudnej sytuacji: ignorowanie rynku europejskiego nie jest realną opcją, ale zgodność z ustawą o sztucznej inteligencji wymaga znacznych inwestycji i może ograniczyć zakres innowacji. Efekt ten jest dodatkowo wzmacniany przez ambitny harmonogram wdrożenia i niepewność interpretacyjną wielu przepisów.
Ustawa o sztucznej inteligencji weszła w życie 1 sierpnia 2024 r., ale jej wdrożenie będzie przebiegać zgodnie z rozłożonym w czasie harmonogramem:
Rozporządzenie przyjmuje podejście oparte na ryzyku, klasyfikując systemy sztucznej inteligencji w czterech kategoriach: niedopuszczalne ryzyko (zakazane), wysokie ryzyko (podlegające surowym wymogom), ograniczone ryzyko (z obowiązkami w zakresie przejrzystości) oraz minimalne lub zerowe ryzyko (swobodne użytkowanie). Ta kategoryzacja określa konkretne obowiązki deweloperów, dostawców i użytkowników.
Jedną z najważniejszych innowacji w ustawie o sztucznej inteligencji są obowiązki w zakresie przejrzystości, które mają na celu rozwiązanie problemu "czarnej skrzynki".czarnej skrzynki"systemów AI. Obowiązki te obejmują:
Wymogi te, choć mają na celu ochronę praw obywateli, mogą stanowić znaczne obciążenie dla przedsiębiorstw, w szczególności innowacyjnych start-upów i MŚP. Konieczność szczegółowego dokumentowania procesów rozwoju, danych szkoleniowych i logiki podejmowania decyzji może spowolnić cykle innowacji i zwiększyć koszty rozwoju, stawiając europejskie firmy w niekorzystnej sytuacji w porównaniu z konkurentami w innych regionach o mniej rygorystycznych przepisach.

Wyrok w sprawie C-203/22 podkreśla, w jaki sposób firmy początkowo opierają się nakazom przejrzystości. Pozwany, dostawca usług telekomunikacyjnych, argumentował, że ujawnienie logiki jego algorytmu oceny zdolności kredytowej ujawniłoby tajemnice handlowe, zagrażając jego przewadze konkurencyjnej6 . TSUE odrzucił ten argument, stwierdzając, że art. 22 RODO uprawnia osoby fizyczne do wyjaśnienia "kryteriów i logiki" stojących za zautomatyzowanymi decyzjami, nawet jeśli są one uproszczone.6 .
Zgodnie z dwupoziomowym systemem ustawy o sztucznej inteligencji, większość generatywnych modeli sztucznej inteligencji podlega poziomowi 1, wymagając zgodności z unijnymi prawami autorskimi i podsumowaniami danych szkoleniowych2 . Aby uniknąć roszczeń o naruszenie praw autorskich, firmy takie jak OpenAI przeszły na streszczenia danych lub licencjonowane treści, ale nadal istnieją luki w dokumentacji.
Ustawa o sztucznej inteligencji zawiera szczegółowe przepisy dotyczące praw autorskich, które rozszerzają wpływ regulacyjny UE daleko poza jej granice. Dostawcy modeli GPAI muszą:
Motyw 106 ustawy o sztucznej inteligencji stanowi, że dostawcy muszą przestrzegać prawa autorskiego UE, "niezależnie od jurysdykcji, w której odbywa się szkolenie modelowe". To eksterytorialne podejście rodzi pytania o zgodność z zasadami terytorialności prawa autorskiego i może powodować konflikty regulacyjne z innymi jurysdykcjami.
Dla globalnych firm technologicznych ustawa o sztucznej inteligencji stanowi fundamentalny wybór strategiczny: dostosować się do "efektu brukselskiego" i przestrzegać standardów europejskich na całym świecie, czy też opracować zróżnicowane podejścia dla różnych rynków? Pojawiło się kilka strategii:
Niektóre duże firmy technologiczne rozwijają "podwójny model" działania:
Takie podejście, choć kosztowne, umożliwia utrzymanie obecności na rynku europejskim bez uszczerbku dla globalnej innowacyjności. Fragmentacja ta może jednak prowadzić do pogłębiania się przepaści technologicznej, a europejscy użytkownicy będą mieli dostęp do mniej zaawansowanych technologii niż użytkownicy w innych regionach.
Europejska ustawa o sztucznej inteligencji stanowi punkt zwrotny w regulacjach dotyczących sztucznej inteligencji, ale jej złożoność i niejasności interpretacyjne tworzą klimat niepewności, który może negatywnie wpłynąć na innowacje i inwestycje w tym sektorze. Firmy stoją przed kilkoma wyzwaniami:
Zmieniający się krajobraz regulacyjny stanowi istotne ryzyko dla spółek. Interpretacja kluczowych pojęć, takich jak "wystarczająco szczegółowe podsumowanie" lub klasyfikacja systemów "wysokiego ryzyka", pozostaje niejednoznaczna. Ta niepewność może skutkować

Debata na temat "efektu brukselskiego" wpisuje się w szerszy kontekst europejskiej suwerenności technologicznej. UE znajduje się w trudnej sytuacji, w której musi zrównoważyć potrzebę promowania wewnętrznych innowacji z potrzebą regulowania technologii opracowanych głównie przez podmioty spoza Europy.
W 2024 r. europejskie firmy przyciągnęły zaledwie 10% globalnych inwestycji w sztuczną inteligencję, podczas gdy Stany Zjednoczone i Chiny zdominowały ten sektor dzięki połączeniu ogromnych inwestycji publicznych i prywatnych, polityki sprzyjającej innowacjom i dostępu do dużych zbiorów danych. Europa, ze swoim rozdrobnieniem językowym, kulturowym i regulacyjnym, ma trudności z wygenerowaniem "mistrzów" technologicznych zdolnych do konkurowania na całym świecie.
Krytycy twierdzą, że europejskie podejście skoncentrowane na regulacjach grozi dalszym tłumieniem innowacji i zniechęcaniem do inwestycji, podczas gdy zwolennicy uważają, że stworzenie wiarygodnych ram regulacyjnych może w rzeczywistości stymulować rozwój etycznej i bezpiecznej sztucznej inteligencji "w fazie projektowania", tworząc długoterminową przewagę konkurencyjną.
"Efekt Brukseli" ustawy o sztucznej inteligencji podkreśla fundamentalne napięcie w europejskim podejściu do technologii: zdolność do ustanawiania globalnych standardów poprzez regulacje nie idzie w parze z odpowiednim przywództwem w zakresie innowacji technologicznych. Ta asymetria rodzi pytania o długoterminową stabilność tego podejścia.
Jeśli Europa będzie nadal regulować technologie, których nie rozwija, ryzykuje, że znajdzie się w sytuacji rosnącej zależności technologicznej, w której jej zasady mogą stawać się coraz mniej istotne w szybko ewoluującym globalnym ekosystemie. Co więcej, firmy spoza Europy mogą stopniowo wycofywać się z europejskiego rynku lub oferować na nim ograniczone wersje swoich produktów, tworząc "cyfrową twierdzę Europa" coraz bardziej odizolowaną od globalnego postępu.
Z drugiej strony, gdyby UE mogła zrównoważyć swoje podejście regulacyjne ze skuteczną strategią promowania innowacji, mogłaby skutecznie zdefiniować "trzecią drogę" między amerykańskim kapitalizmem a chińską kontrolą państwową, stawiając prawa człowieka i wartości demokratyczne w centrum rozwoju technologicznego. Vaste programmes powiedziałoby się we Francji.
Przyszłość sztucznej inteligencji w Europie będzie zależeć nie tylko od skuteczności ustawy o sztucznej inteligencji w ochronie praw podstawowych, ale także od zdolności Europy do towarzyszenia regulacji odpowiednim inwestycjom w innowacje i uproszczenia ram regulacyjnych, aby uczynić je mniej opresyjnymi. W przeciwnym razie Europa może znaleźć się w paradoksalnej sytuacji: światowego lidera w zakresie regulacji AI, ale marginalnego w jej rozwoju i wdrażaniu.