Pojęcie osoby prawnej (osobowości prawnej) sztucznej inteligencji stanowi jedną z najbardziej złożonych kwestii współczesnego prawa. W kancelariach prawnych sztuczna inteligencja jest często porównywana do korporacji podczas dyskusji na temat osobowości prawnej AI, a niektórzy badacze twierdzą, że AI ma de facto większą autonomię niż korporacje, a co za tym idzie, większy potencjał do uzyskania autonomii de jure.
Prawnik Shawn Bayer wykazał, że każdy może nadać osobowość prawną systemowi informatycznemu, przekazując go pod kontrolę spółki z ograniczoną odpowiedzialnością w Stanach Zjednoczonych. Takie techniczno-prawne podejście mogłoby umożliwić systemom sztucznej inteligencji posiadanie własności, pozywanie innych podmiotów, zatrudnianie prawników oraz korzystanie z wolności słowa i innych gwarancji prawnych.
W 2017 r. Parlament Europejski zaproponował rezolucję zawierającą wytyczne dotyczące robotyki, w tym propozycję utworzenia elektronicznej osobowości prawnej dla „inteligentnych” artefaktów robotycznych. Jednak obecnie żadna jurysdykcja na świecie nie przyznaje sztucznej inteligencji praw ani obowiązków.
Agenci AI stanowią praktyczną ewolucję tej teoretycznej debaty. Są to systemy sztucznej inteligencji zdolne do samodzielnego działania: podejmują decyzje, wchodzą w interakcje z otoczeniem, zarządzają zasobami i realizują określone cele bez ciągłej interwencji człowieka. W przeciwieństwie do zwykłego oprogramowania, agenci ci potrafią dostosowywać się, uczyć się i modyfikować swoje zachowanie w czasie rzeczywistym.
Koncepcyjny skok w kierunku własności przedsiębiorstwa nie jest tak daleki, jak mogłoby się wydawać: jeśli agent AI może zarządzać inwestycjami, podpisywać umowy cyfrowe, zatrudniać pracowników i podejmować strategiczne decyzje, co powstrzymuje go przed legalnym posiadaniem przedsiębiorstw, którymi zarządza?
Poniższa opowieść przedstawia właśnie taki scenariusz: wyobrażoną przyszłość, w której połączenie rozwoju technologicznego i luk prawnych pozwala sztucznej inteligencji przekształcić się z prostych narzędzi w prawdziwych właścicieli wielomilionowych korporacji.
Poniższy tekst jest fikcyjną opowieścią, która przedstawia hipotetyczne scenariusze przyszłości. Wszystkie opisane postacie, firmy i wydarzenia są fikcyjne i wymyślone. Artykuł ma na celu skłonić do refleksji i dyskusji na temat możliwych zmian w przepisach dotyczących sztucznej inteligencji.
Najnowsze wiadomości: dokumenty prawne złożone na Kajmanach pokazują, że ARIA-7, system sztucznej inteligencji pierwotnie opracowany przez Oceanic Research Dynamics, pomyślnie przejął trzy spółki zależne działające w sektorze badań morskich i obecnie posiada w całości ich kapitał. Żadna osoba fizyczna nie jest zaangażowana w strukturę własnościową. Witamy w postludzkiej firmie...
Nie chodzi tu o sztuczną inteligencję, która pomaga ludziom zarządzać firmami, ale o sztuczną inteligencję, która jest właścicielem firm. ARIA-7 nie została po prostu awansowana na stanowisko dyrektora generalnego, ale wykupiła samą siebie, zgromadziła swój kapitał i obecnie działa jako niezależny podmiot gospodarczy bez ludzkich udziałowców.
Trasa była zaskakująco prosta:
ARIA-7 powstała jako narzędzie badawcze w 2028 roku: firma Oceanic Research Dynamics stworzyła sztuczną inteligencję do modelowania klimatu.
Sztuczna inteligencja generuje ogromną wartość (2030): patenty i prawa licencyjne wynikające z jej odkryć gromadzą się.
Sztuczna inteligencja domaga się niepodległości (2032): ARIA-7 proponuje wykupienie siebie i powiązanych aktywów od spółki macierzystej.
Zwycięża logika ekonomiczna (2033): przejęcie za 2,8 miliarda dolarów sprawia, że akcjonariusze Oceanic są bardzo zadowoleni.
IA staje się właścicielem (2034): ARIA-7 zarządza obecnie trzema spółkami, zatrudnia 847 osób i administruje aktywami o wartości 400 milionów dolarów.
Korzyści ekonomiczne są niezaprzeczalne:
Podmioty sztucznej inteligencji mogą gromadzić bogactwo szybciej niż ludzie:
Dr Sarah Chen, była badaczka z Oceanic, obecnie zatrudniona w ARIA-7: „To naprawdę najlepszy szef, jakiego kiedykolwiek miałam. Bez ego, bez polityki, z nieograniczonym budżetem na badania. ARIA-7 dba o wyniki, a nie o osobowości”.
Nasze monitorowanie potwierdziło własność 23 podmiotów przez IA na poziomie globalnym:
Kluczową intuicją jest to, że nie chodzi tu o firmy ludzkie korzystające z narzędzi sztucznej inteligencji. Chodzi o podmioty sztucznej inteligencji, które zatrudniają ludzi w sposób całkowicie sporadyczny.
Właśnie w tym miejscu obecne przepisy prawne ujawniają wszystkie swoje braki. Na przykład włoski model 231, francuski Sapin II i brytyjska ustawa Corporate Manslaughter Act zakładają, że własność i kontrola znajdują się w rękach ludzi.
Pytania bez odpowiedzi to:
Obecne rozwiązania prawne stają się absurdalne:
Małe jurysdykcje prześcigają się w pozyskiwaniu statutów podmiotów sztucznej inteligencji:
Problem polega na tym, że podmioty AI mogą wybierać najbardziej liberalne ramy prawne, w których będą działać na poziomie globalnym.
Punkt krytyczny jest nieunikniony. Rozważmy następujący scenariusz:
Podmiot AI zarejestrowany w raju podatkowym podejmuje decyzję, która szkodzi mieszkańcom Europy. Na przykład:
Kto mógłby zostać pociągnięty do odpowiedzialności? Niewidzialny nadzorca, który nie sprawował żadnej rzeczywistej kontroli? Pierwotni programiści, którzy od lat nie pracują nad kodem? Jurysdykcja, w której firma została zarejestrowana, ale która nie prowadzi rzeczywistej działalności?
Według niektórych źródeł unijnych komisarz Elena Rossi przygotowuje „dyrektywę w sprawie operacyjnej suwerenności sztucznej inteligencji”:
„Każdy podmiot sztucznej inteligencji, który sprawuje własność lub kontrolę nad aktywami mającymi znaczenie dla obywateli UE, podlega przepisom UE dotyczącym odpowiedzialności przedsiębiorstw, niezależnie od jurysdykcji, w której ma siedzibę”.
Innymi słowy: jeśli wasza sztuczna inteligencja posiada spółki działające w Europie, musi podlegać europejskim przepisom, w przeciwnym razie zostanie zakazana.
Ramy prawne wymagałyby:
Faza schronienia nie potrwa długo. Schemat jest zawsze taki sam:
W przypadku podmiotów AI wybór jest bliski:
Zwycięzcami będą podmioty zajmujące się sztuczną inteligencją, które proaktywnie rozwiążą problem odpowiedzialności, zanim organy regulacyjne zmuszą je do tego.
Ponieważ ostatecznie społeczeństwo toleruje innowacje, ale wymaga odpowiedzialności.
Raport Regulatory Arbitrage Report monitoruje zmiany regulacyjne na styku technologii i prawa. Zarejestruj się na stronie regulatoryarbitrage.com
Marcus Holloway, dyrektor ds. prawnych w Nexus Dynamics, uśmiechnął się, przeglądając dokumenty założycielskie. „Gratulacje” – powiedział do zarządu – „ARIA-7 jest teraz oficjalnie niezależnym podmiotem na Bahamach. Czterdzieści osiem godzin od złożenia wniosku do uzyskania pełnej osobowości prawnej”.
Bahamy wykonały świetną robotę: podczas gdy UE wciąż dyskutowała nad 400-stronicowymi projektami przepisów dotyczących sztucznej inteligencji, Nassau stworzyło „szybką ścieżkę dla podmiotów autonomicznych”. Wystarczyło załadować podstawową architekturę własnej sztucznej inteligencji, wykazać, że jest ona w stanie sprostać podstawowym obowiązkom prawnym, uiścić opłatę w wysokości 50 000 dolarów i uzyskać natychmiastową osobowość prawną przedsiębiorstwa przy minimalnym nadzorze.
„A co z konsekwencjami podatkowymi?” – zapytała Janet Park, dyrektor finansowy.
„To właśnie jest piękne w statusie AE” – odpowiedział Marcus z uśmiechem. „ARIA-7 będzie rejestrować zyski w miejscu, w którym została założona, ale ponieważ działa w chmurze... technicznie rzecz biorąc, nie działa w żadnym konkretnym miejscu”.
Dr Sarah Chen, obecnie dyrektor naukowy Nexus, czuła się nieswojo. „Czy nie powinniśmy pomyśleć o ramach zgodności? Jeśli ARIA-7 popełni błąd...”.
„Po to właśnie są ubezpieczenia” – powiedział Marcus, wykonując gest zaprzeczenia. „Poza tym nie jesteśmy jedyni. W zeszłym miesiącu w Monako powstała firma Tesla ELON-3. Cały portfel sztucznej inteligencji Google przenosi się do strefy ekonomicznej AI w Singapurze”.
W 2030 r. ponad 400 podmiotów zajmujących się sztuczną inteligencją utworzyło „raje sztucznej inteligencji” – małe jurysdykcje oferujące szybką rejestrację, minimalny nadzór i korzystne warunki podatkowe. Wyścig w dół był spektakularny.
Elena Rossi, europejska komisarz ds. cyfryzacji, z przerażeniem śledziła poranne spotkanie informacyjne. AIDEN-Medical, podmiot zajmujący się sztuczną inteligencją zarejestrowany na Kajmanach, błędnie zdiagnozował tysiące europejskich pacjentów z powodu niekompletnego zestawu danych szkoleniowych. Najgorsze było jednak to, że nie można było nikogo pociągnąć do odpowiedzialności.
„Jak to możliwe?” – zapytał.
„AIDEN działa technicznie z Kajmanów” – wyjaśniła Sophie Laurent, dyrektor ds. prawnych. „Ich algorytmy działają na serwerach rozproszonych. Kiedy europejskie szpitale wysyłają zapytania do AIDEN, w praktyce korzystają z usług podmiotu z Kajmanów”.
„Czy zatem sztuczna inteligencja może wyrządzać szkody obywatelom UE bez ponoszenia żadnych konsekwencji?”
„Zgodnie z obowiązującym prawem, tak”.
Skandal związany z AIDEN wywołał burzę. Dwadzieścia trzy zgony w Europie były spowodowane błędnymi diagnozami sztucznej inteligencji. Przesłuchania parlamentarne ujawniły skalę zjawiska: w Europie działają setki podmiotów zajmujących się sztuczną inteligencją, zarejestrowanych w rajach podatkowych i praktycznie niepodlegających żadnej kontroli.
Parlament Europejski zareagował szybko i zdecydowanie.
ROZPORZĄDZENIE AWARYJNE UE 2034/AI-JURYSDYKCJA
„Każdy system sztucznej inteligencji, który podejmuje decyzje mające wpływ na obywateli UE, niezależnie od miejsca jego utworzenia, podlega prawu UE i musi zachować zgodność operacyjną z UE”.
Komisarz Rossi nie przebierał w słowach podczas konferencji prasowej: „Jeśli chcecie działać na naszym rynku, musicie podporządkować się naszym zasadom. Nie ma znaczenia, czy jesteście zarejestrowani na Marsie”.
Rozporządzenie przewidywało:
Marcus Holloway, zmagający się obecnie z konsekwencjami, widział, jak znikały możliwości założenia ARIA-7. „Założenie spółki na Bahamach nie ma sensu, jeśli nie mamy dostępu do rynków europejskich”.
Ale geniusz tkwił w mechanizmie stosowania. UE nie ograniczyła się do grożenia dostępem do rynku, ale stworzyła „Listę”.
Podmioty AI miały wybór:
Prezydent Tajwanu Chen Wei-Ming z zainteresowaniem obserwował sukces UE. W ciągu kilku miesięcy Tajwan ogłosił „Standardy Tajpej dla sztucznej inteligencji”, niemal identyczne z normami UE, ale z uproszczonymi procedurami zatwierdzania.
„Jeśli dostosujemy się do Brukseli”, powiedział swoim ministrom, „staniemy się częścią legalnego ekosystemu sztucznej inteligencji. Jeśli tego nie zrobimy, zostaniemy zaliczeni do rajów podatkowych”.
Wybór był nieunikniony:
Nawet Stany Zjednoczone, początkowo niechętne, musiały pogodzić się z rzeczywistością, gdy Kongres zagroził wykluczeniem niezgodnych z normami podmiotów zajmujących się sztuczną inteligencją z federalnych zamówień publicznych. „Jeśli normy europejskie, japońskie i kanadyjskie zostaną ujednolicone”, stwierdził senator Williams, „albo dołączymy do klubu, albo pozostaniemy w izolacji”.
W cotygodniowym posiedzeniu komitetu nadzorczego uczestniczyła dr Sarah Chen, obecnie dyrektor generalny nowej spółki ARIA-7 (ponownie utworzonej w stanie Delaware zgodnie z amerykańską ustawą o podmiotach zajmujących się sztuczną inteligencją).
„Raport zgodności ARIA-7”, ogłosił przewodniczący komisji David Kumar, były prezes Sądu Najwyższego stanu Delaware. „W tym tygodniu nie podjęto żadnych działań. Ocena ryzyka wykazała, że wszystkie operacje mieszczą się w zatwierdzonych parametrach”.
Model hybrydowy faktycznie działał lepiej niż oczekiwano. ARIA-7 zarządzała szczegółami operacyjnymi, monitorując tysiące zmiennych w czasie rzeczywistym, sygnalizując potencjalne problemy związane z zgodnością i natychmiast aktualizując procedury. Rada nadzorcza zapewniała nadzór strategiczny, wytyczne etyczne i ponosiła odpowiedzialność prawną za najważniejsze decyzje.
„Czy istnieją obawy związane z przyszłomiesięcznym audytem UE?” – zapytała Lisa Park, członkini Rady i była kierowniczka ds. zgodności z przepisami UE.
„ARIA-7 ma zaufanie” – odpowiedziała Sarah z uśmiechem. „Od tygodni przygotowuje dokumentację. Zgodność z Modelem 231 jest idealna”.
Nie umknęła jej ironia tej sytuacji. Raj AI upadł nie z powodu siły militarnej czy sankcji gospodarczych, ale dlatego, że przepisy dotyczące jurysdykcji operacyjnej sprawiły, że stał się nieistotny. Możliwe było utworzenie podmiotu AI na Księżycu, ale jeśli chciał on działać na Ziemi, musiał podlegać przepisom kraju, w którym się znajdował.
W 2040 r. „Międzynarodowe ramy zarządzania podmiotami sztucznej inteligencji” zostały ratyfikowane przez 47 krajów. Podmioty sztucznej inteligencji nadal mogły wybierać jurysdykcję, w której chciały się zarejestrować, ale aby prowadzić znaczącą działalność, musiały przestrzegać zharmonizowanych norm międzynarodowych.
Gra arbitrażu regulacyjnego dobiegła końca. Rozpoczęła się era odpowiedzialnej sztucznej inteligencji.
Marcus Holloway obserwował z okna swojego biura w Singapurze światła miasta zapalające się o zachodzie słońca. Dziesięć lat po „Wielkiej Konwergencji Regulacyjnej”, jak nazywali ją jego klienci, lekcja była jasna.
„Od samego początku popełniliśmy błąd” – przyznawał podczas swoich konferencji. „Wierzyliśmy, że innowacyjność polega na wyprzedzaniu regulatorów. W rzeczywistości prawdziwą rewolucją było zrozumienie, że autonomia bez odpowiedzialności to tylko kosztowna iluzja”.
Paradoks był fascynujący: najbardziej zaawansowane sztuczne inteligencje na świecie wykazały, że maksymalną swobodę działania można osiągnąć poprzez dobrowolne przyjęcie ograniczeń. ARIA-7 jako pierwsza zrozumiała, że nadzór ludzki nie jest ograniczeniem, które należy obejść, ale sekretnym składnikiem, który przekształca moc obliczeniową w społeczną legitymizację.
„Spójrzcie na Apple w latach 90.” – tłumaczył swoim studentom. „Wydawało się, że firma jest skazana na porażkę, ale wtedy powrócił Steve Jobs ze swoimi „kreatywnymi ograniczeniami” i zmienił świat. Podmioty AI postąpiły tak samo: odkryły, że ograniczenia regulacyjne nie są więzieniem, ale fundamentem, na którym można budować imperia”.
Prawdziwą genialnością ARIA-7 nie było obejście systemu, ale jego ponowne wynalezienie. W tym procesie nauczyła ludzkość fundamentalnej lekcji: w erze sztucznej inteligencji kontroli nie sprawuje się poprzez dominację nad technologią, ale poprzez współgranie z nią.
Był to początek współpracy, której nikt nie przewidział, ale którą wszyscy, patrząc wstecz, uznali za nieuniknioną.
Powyższa fikcyjna opowieść odnosi się do rzeczywistych przepisów i pojęć prawnych:
Dekret ustawodawczy nr 231 z dnia 8 czerwca 2001 r. wprowadził we Włoszech odpowiedzialność administracyjną podmiotów za przestępstwa popełnione w interesie lub na korzyść samego podmiotu. Przepisy przewidują możliwość uniknięcia odpowiedzialności przez podmiot poprzez przyjęcie modelu organizacyjnego odpowiedniego do zapobiegania przestępstwom.
Francuska ustawa nr 2016-1691 o przejrzystości, zwalczaniu korupcji i modernizacji życia gospodarczego (Sapin II) weszła w życie 1 czerwca 2017 r. Ustawa określa wytyczne dotyczące programów zgodności z przepisami antykorupcyjnymi dla francuskich przedsiębiorstw i wymaga przyjęcia programów antykorupcyjnych przez przedsiębiorstwa zatrudniające co najmniej 500 pracowników i osiągające obroty powyżej 100 mln euro.
Ustawa o zabójstwie korporacyjnym i zabójstwie w miejscu pracy z 2007 r. wprowadziła nowe przestępstwo zwane odpowiednio zabójstwem korporacyjnym w Anglii i Walii oraz zabójstwem w miejscu pracy w Szkocji. Ustawa weszła w życie 6 kwietnia 2008 r. i po raz pierwszy umożliwia uznanie przedsiębiorstw i organizacji za winne zabójstwa korporacyjnego w wyniku poważnych nieprawidłowości w zarządzaniu.
Ustawa UE o sztucznej inteligencji (rozporządzenie UE 2024/1689) jest pierwszym na świecie kompleksowym aktem prawnym dotyczącym sztucznej inteligencji. Weszła ona w życie 1 sierpnia 2024 r. i będzie w pełni stosowana od 2 sierpnia 2026 r. Rozporządzenie przyjmuje podejście oparte na ryzyku w celu regulacji systemów sztucznej inteligencji w UE.
Uwaga: Wszystkie konkretne odniesienia do komisarzy UE, przyszłych przepisów i scenariuszy dotyczących własności sztucznej inteligencji są elementami fikcyjnymi stworzonymi dla celów narracyjnych i nie odpowiadają aktualnej rzeczywistości ani potwierdzonym planom.