📧 **Zaktualizowany artykuł w biuletynie**
*Ten artykuł został pierwotnie opublikowany w naszym cotygodniowym biuletynie, a następnie został zaktualizowany o wydarzenia z 2025 r., w tym przełomowe wyroki Bartz przeciwko Anthropic, Kadrey przeciwko Meta, Disney przeciwko Midjourney i Thomson Reuters przeciwko Ross Intelligence *.
**Ostatnia aktualizacja:** [Lipiec 2025].
Przecięcie sztucznej inteligencji i prawa autorskiego stało się jedną z najbardziej złożonych i szybko ewoluujących dziedzin we współczesnym krajobrazie prawnym. Rok 2025 stanowił historyczny punkt zwrotny wraz z pierwszymi istotnymi orzeczeniami, które na nowo definiują sposób traktowania treści generowanych przez sztuczną inteligencję z perspektywy prawa autorskiego.
Historyczne wyroki z 2025 r.: fragmentaryczne orzecznictwo
Niszczycielski precedens: Thomson Reuters przeciwko Ross Intelligence
11 lutego 2025 r. był przełomową datą w prawie AI, kiedy sędzia Stephanos Bibas wydał pierwsze orzeczenie kategorycznie odrzucające obronę dozwolonego użytku w szkoleniach AI.
W sprawie Thomson Reuters Enterprise Centre GmbH przeciwko Ross Intelligence Inc. sąd orzekł, że wykorzystanie chronionych prawem autorskim nagłówków do szkolenia systemu sztucznej inteligencji nie stanowi dozwolonego użytku.
Sedno decyzji: Ross Intelligence wykorzystał nagłówki Westlaw (zastrzeżone briefy prawne Thomson Reuters) do szkolenia własnej konkurencyjnej wyszukiwarki AI. Sąd podkreślił, że Ross tworzył bezpośredni "substytut rynkowy" dla Westlaw, co zdecydowanie przemawiało przeciwko dozwolonemu użytkowi.
Jak napisał sędzia Bibas: "Opinia publiczna nie ma prawa do analizy prawnej Thomson Reuters. Prawa autorskie zachęcają ludzi do rozwijania rzeczy, które pomagają społeczeństwu, takich jak dobre narzędzia do badań prawnych".
Bliźniacze wyroki z czerwca 2025 r.: paradoks prawny
W odstępie zaledwie dwóch dni, w czerwcu 2025 r., dwa sądy federalne w Kalifornii wydały pozornie sprzeczne decyzje, które wstrząsnęły branżą sztucznej inteligencji.
Bartz przeciwko Anthropic (23 czerwca 2025 r.): Sędzia William Alsup orzekł, że szkolenie Claude'a na legalnie zakupionych książkach stanowiło dozwolony użytek, nazywając ten proces "spektakularną transformacją". Potępił jednak Anthropic za pobranie ponad 7 milionów książek z pirackich witryn, takich jak LibGen i Pirate Library Mirror, orzekając, że to nielegalne pozyskiwanie nie jest chronione przez dozwolony użytek. Decyzja ta wprowadza kluczowe rozróżnienie: szkolenie może być dozwolonym użytkiem, ale tylko wtedy, gdy materiały są pozyskiwane legalnie.
Kadrey przeciwko Meta (25 czerwca 2025 r.): Sędzia Vince Chhabria orzekł, że szkolenie LLaMA w zakresie książek autorów stanowiło dozwolony użytek, ale z innych powodów niż w sprawie Anthropic. Autorzy (w tym Sarah Silverman i Ta-Nehisi Coates) nie udowodnili, że sztuczna inteligencja Mety faktycznie zastępuje ich dzieła na rynku lub powoduje konkretne szkody gospodarcze. W swojej decyzji sędzia Chhabria pośrednio skrytykował nacisk sędziego Alsupa na "transformacyjny" charakter sztucznej inteligencji, podkreślając zamiast tego, że kluczowym czynnikiem powinien być dowód rzeczywistej szkody ekonomicznej.
Hollywood wkracza do walki: Disney i Universal kontra Midjourney
Czerwiec 2025 r. przyniósł również wejście hollywoodzkich gigantów do wojny prawnej o prawa autorskie do sztucznej inteligencji. Disney i Universal złożyły pozew przeciwko Midjourney, co oznacza, że po raz pierwszy hollywoodzkie firmy pozwały firmę zajmującą się sztuczną inteligencją za naruszenie praw autorskich.
Waga gigantów: 110-stronicowy pozew oskarża Midjourney o kradzież "niezliczonych" dzieł chronionych prawem autorskim w celu szkolenia swojego oprogramowania, w tym kultowych postaci, takich jak Darth Vader, Homer Simpson i Shrek. Jak donosi TIME, znaczenie tej sprawy polega na wielkości, wpływach i zasobach Disneya i Universal: "Im bardziej te filary amerykańskiej gospodarki angażują się w walkę, tym trudniej jest zignorować prostą prawdę".
"Wirtualna maszyna dystrybucyjna": Pozew opisuje Midjourney jako "wirtualną maszynę dystrybucyjną, która generuje niekończące się, nieautoryzowane kopie" dzieł Disneya i Universal. Z ponad 20 milionami zarejestrowanych użytkowników i 300 milionami dolarów przychodu do 2024 roku, Midjourney jest jednym z największych generatorów obrazów AI na świecie.
Andersen kontra Stability AI: Ewolucja trwa nadal
Grupa artystów kierowana przez Sarah Andersen nadal odnosiła znaczące zwycięstwa, gdy sędzia William Orrick zezwolił na kontynuowanie zarzutów o naruszenie praw autorskich przeciwko firmom takim jak Stability AI i Midjourney. Artyści twierdzili, że firmy te nielegalnie przechowywały kopie ich dzieł sztuki w szkoleniowych zbiorach danych bez zgody lub rekompensaty.
Podstawowa sprzeczność: ten przypadek podkreśla nieodłączny paradoks generatywnej sztucznej inteligencji: modele są zaprojektowane tak, aby naśladować ludzką kreatywność, ale mogą to robić tylko poprzez konsumowanie ludzkich dzieł.
Etyczne podejście Adobe: Licencjonowanie a dozwolony użytek
Podczas gdy inni giganci technologiczni stają w obliczu procesów o naruszenie praw autorskich, Adobe próbowało pozycjonować się jako "etyczna" alternatywa dzięki swojej sztucznej inteligencji Firefly. Adobe zbudowało swoją strategię marketingową i zróżnicowanie produktów wokół koncepcji "komercyjnie bezpiecznej sztucznej inteligencji", szkolonej głównie na obrazach licencjonowanych z Adobe Stock i treści z domeny publicznej.
Obietnica etyki: Adobe odróżnia Firefly od konkurentów, takich jak Midjourney i DALL-E, podkreślając, że jego model jest szkolony tylko na licencjonowanych treściach, unikając kontrowersyjnego skrobania Internetu. Firma wdrożyła również technologie, takie jak Content Credentials, aby umożliwić twórcom dodanie tagu "Do Not Train" do ich pracy.
Złożona rzeczywistość: Jednak rewelacje Bloomberga z kwietnia 2024 r. wykazały, że około 5% treningowego zbioru danych Firefly zawierało obrazy wygenerowane przez konkurencyjną sztuczną inteligencję, w tym Midjourney. W Adobe Stock 57 milionów obrazów jest wyraźnie oznaczonych jako wygenerowane przez sztuczną inteligencję, co stanowi 14 procent całej bazy danych.
Obrona Adobe: Adobe odpowiedziało, że wszystkie obrazy w Adobe Stock, w tym te generowane przez sztuczną inteligencję, przechodzą "rygorystyczny proces moderacji", aby upewnić się, że nie zawierają własności intelektualnej, marek ani rozpoznawalnych postaci. Firma twierdzi, że takie podejście pozostaje bardziej etyczne niż konkurenci, którzy wykorzystują całkowicie nielicencjonowane dane.
Korzyść dla użytkownika końcowego: podejście Adobe skutkuje możliwością korzystania z treści generowanych przez Firefly przy mniejszym narażeniu na ryzyko prawne lub naruszenie praw autorskich. Nawet w kontekście, w którym pojawiają się sprzeczności i szare strefy, zaangażowanie Adobe w przejrzystość, moderację treści i poszanowanie praw artystów stanowi wartość dodaną.
Fragmentacja orzecznictwa w 2025 r.
2025 ujawnił głęboko podzielone orzecznictwo odzwierciedlające nieodłączną złożoność stosowania prawa XX wieku do technologii XXI wieku.
Paradygmat legalnego pozyskiwania: Wszystkie wyroki zgadzają się co do podstawowej zasady: rozróżnienia między legalnym i nielegalnym pozyskiwaniem materiałów szkoleniowych. Nawet jeśli późniejsze użycie może być dozwolone, pobieranie pirackich materiałów pozostaje nielegalne i może skutkować odrębną odpowiedzialnością.
Bitwa o czwarty czynnik: Decyzje zidentyfikowały czwarty czynnik dozwolonego użytku (wpływ na rynek) jako nowe pole bitwy prawnej. Podczas gdy Thomson Reuters wygrał, wykazując wyraźną substytucję rynkową, sprawy Bartz i Kadrey nie wykazały konkretnych szkód gospodarczych.
Problem probatio diabolica: wyłania się paradoks proceduralny: w jaki sposób autorzy mogą udowodnić szkody rynkowe spowodowane przez systemy sztucznej inteligencji, gdy ich wpływ jest powszechny i trudny do oszacowania? Jesteśmy świadkami powstawania systemu, w którym ochrona zależy od zdolności do matematycznego udowodnienia tego, co często jest intuicyjnie oczywiste.
Aktorzy w obliczu cyfrowej otchłani
Kryzys praw autorskich w erze sztucznej inteligencji ma szczególny wpływ na świat aktorstwa, w którym sama tożsamość wykonawcy stanowi sedno tego zawodu. Możliwość klonowania podobieństw, głosów i stylów aktorskich szybko przekształca koncepcję "występu" z unikalnego aktu twórczego w potencjalnie replikowalny szablon.
Rozpad interpretacji: kiedy aktora można odtworzyć cyfrowo, co pozostaje ze sztuki interpretacji? Studia zademonstrowały już zdolność do "wskrzeszania" zmarłych aktorów i cyfrowego manipulowania istniejącymi interpretacjami. Kluczowym pytaniem jest nie tyle to, czy jest to technicznie możliwe, ale czy zachowuje istotę tego, co czyni występ znaczącym.
Precedens filmu "Here": Film "Here", w którym wykorzystano w pełni cyfrowe odtworzenia Toma Hanksa i Robin Wright w rolach głównych, stanowi model dozwolonego użytku. Produkcja uzyskała wyraźną zgodę i zapłaciła za prawa zaangażowanym aktorom, tworząc w ten sposób komercyjny precedens zgodnego wykorzystania. Podkreśla to, że problemem niekoniecznie jest sama technologia, ale zgoda i wynagrodzenie artystów, których praca i wizerunek są wykorzystywane.
Program Disneya dotyczący cyfrowych replik: Co ważne, Disney jest również jednym ze zwolenników ustawy NO FAKES, proponowanej ustawy federalnej mającej na celu ochronę aktorów głosowych i podobizn przed nieautoryzowanymi replikami AI. Pokazuje to skoordynowaną strategię: ochronę aktorów przed nieautoryzowanymi replikami cyfrowymi przy jednoczesnym zwalczaniu nieautoryzowanego wykorzystania istniejącej własności intelektualnej.
Paradoks odwrotnej wartości: Pojawiło się osobliwe zjawisko ekonomiczne: najsłynniejsi aktorzy z ugruntowaną karierą (a zatem z dużą ilością materiału dostępnego do szkolenia AI) są paradoksalnie najbardziej podatni na algorytmiczne zastępowanie. Ich sukces czyni ich łatwym celem nieautoryzowanego klonowania, odwracając tradycyjną krzywą wartości kariery artystycznej.
Europa jako przeciwwaga regulacyjna: ustawa o sztucznej inteligencji w praktyce
Podczas gdy Stany Zjednoczone poruszają się w labiryncie dozwolonego użytku, Europa wybrała radykalnie odmienne podejście dzięki ustawie o sztucznej inteligencji, która weszła w życie w sierpniu 2024 r. i jest obecnie aktywnie wdrażana.
Obowiązkowa rewolucja w zakresie przejrzystości:Ustawa o sztucznej intelig encji wymaga od dostawców ogólnych modeli sztucznej inteligencji upublicznienia "wystarczająco szczegółowego podsumowania" danych wykorzystanych do szkolenia, w tym materiałów chronionych prawem autorskim. W styczniu 2025 r. Komisja Europejska opublikowała szablon, który ma pomóc dostawcom w przygotowaniu wymaganego podsumowania.
Filary ustawy o sztucznej inteligencji:
- Przejrzystość: firmy muszą ujawniać źródła swoich danych treningowych.
- Przestrzeganie praw autorskich: Obowiązek przestrzegania praw autorskich UE, niezależnie od tego, gdzie odbywa się szkolenie.
- Opt-out: Poszanowanie preferencji posiadaczy praw wyrażających odmowę
Skutek eksterytorialny: Ustawa o sztucznej inteligencji ma zastosowanie do każdego sprzedawcy, który wprowadza model sztucznej inteligencji na rynek UE, "niezależnie od jurysdykcji, w której mają miejsce działania związane z prawami autorskimi". Stwarza to potencjalne konflikty z amerykańskim orzecznictwem dotyczącym dozwolonego użytku.
Nowy raport amerykańskiego urzędu ds. praw autorskich (2025)
W styczniu 2025 r.amerykański urząd ds. praw autorskich opublikował część 2 swojego raportu na temat sztucznej inteligencji, zawierającą kluczowe wyjaśnienia dotyczące możliwości ochrony utworów generowanych przez sztuczną inteligencję.
Potwierdzone podstawowe zasady:
- Tylko utwory z elementami ekspresyjnymi określonymi przez ludzkiego autora mogą być chronione prawem autorskim
- Samo dostarczenie podpowiedzi nie jest wystarczające do ochrony praw autorskich
- Pomoc sztucznej inteligencji w tworzeniu nie uniemożliwia automatycznie ochrony
- Utwory w pełni wygenerowane przez SI nie mogą być objęte prawami autorskimi
The Myth of Originality Revisited: Raport potwierdza, jak sztuczne jest pojęcie "oryginalności" we współczesnym prawie autorskim. Co tak naprawdę odróżnia artystę wybierającego spośród tysięcy wyników AI od programisty wybierającego spośród tysięcy algorytmów? Rozróżnienie prawne wydaje się bardziej ideologiczne niż praktyczne, ale pozostaje kluczowe przy określaniu tego, co może być chronione prawem autorskim.
Perspektywy międzynarodowe: globalna rozbieżność
Chiny: Sąd w Pekinie uznał ochronę praw autorskich do obrazu wygenerowanego przez sztuczną inteligencję w listopadzie 2023 r., pod warunkiem, że wykazuje on oryginalność i odzwierciedla ludzki wysiłek intelektualny. Kontrastuje to z bardziej restrykcyjnym podejściem Stanów Zjednoczonych.
Czechy: W 2024 r. czeski sąd wydał pierwsze europejskie orzeczenie w sprawie praw autorskich generowanych przez sztuczną inteligencję, odmawiając ochrony obrazu stworzonego za pomocą podpowiedzi, zgodnie ze stanowiskiem amerykańskiego urzędu ds. praw autorskich.
Globalna hipokryzja legislacyjna: Co ciekawe, zachodnie systemy prawne odmawiają przyznania praw do dzieł generowanych przez SI, jednocześnie pozwalając na "pożeranie" ludzkich dzieł przez te same systemy. Jesteśmy świadkami podwójnego standardu: ludzkie dzieła są uważane za święte, gdy są tworzone, ale zbędne, gdy są konsumowane przez sztuczną inteligencję.
Debata na temat dozwolonego użytku: nowa granica
Firmy zajmujące się sztuczną inteligencją w coraz większym stopniu polegają na argumencie "transformacyjnego zastosowania", ale wyroki z 2025 r. pokazały ograniczenia tej strategii.
Iluzja transformacji: Argument "transformacyjnego wykorzystania" okazuje się być wygodną fikcją prawną stosowaną na skalę przemysłową. Prawda jest taka, że sztuczna inteligencja nie tyle "przekształca" utwory, co je przetwarza i poddaje recyklingowi. Sędziowie zaczynają rozumieć to rozróżnienie - jak wykazano w sprawie Thomson Reuters - gdy komercyjne wykorzystanie jest oczywiste i bezpośrednie, ale nadal mają trudności z wyartykułowaniem, dlaczego dokładnie ludzkie uczenie się z chronionych utworów jest dopuszczalne, podczas gdy sztuczne uczenie się nie.
Nowe decydujące czynniki:
- Legalne i nielegalne pozyskiwanie materiałów szkoleniowych
- Bezpośrednie zastępowanie rynku a tworzenie nowych rynków
- Konkretne dowody szkód gospodarczych a szkody teoretyczne
- 
Ryzyko odpowiedzialności dla użytkowników końcowych i deweloperów
W sprawie Andersen ustalono, że użytkownicy końcowi mogą ponosić odpowiedzialność, jeśli dane wyjściowe AI zbytnio przypominają dane treningowe, ale wyroki z 2025 r. jeszcze bardziej skomplikowały ten krajobraz.
The Impossible Burden of Knowledge Updated: W jaki sposób użytkownik końcowy może poznać zawartość szkoleniowych zbiorów danych zawierających miliardy obrazów, zwłaszcza gdy ustawa o sztucznej inteligencji wymaga obecnie przejrzystości, ale amerykańscy dostawcy mogą nie spełnić tego wymogu? Tworzymy system, w którym przeciętny użytkownik ryzykuje kary za naruszenia, których nie może przewidzieć ani uniknąć, w niespójnym transgranicznym środowisku regulacyjnym.
P.S. - Paradoks Frankensteina zaktualizowany: Podobnie jak w przypadku doktora Frankensteina - który jest twórcą, a nie stworzeniem, co jest częstym błędem wśród tych, którzy nie czytali dzieła Mary Shelley - znajdujemy się w spotęgowanym paradoksie: użytkownik korzystający ze sztucznej inteligencji jest traktowany jako "potwór" odpowiedzialny za naruszenia, podczas gdy prawdziwi "lekarze", którzy stworzyli i wyszkolili te systemy na danych innych osób, często unikają konsekwencji prawnych. Wyroki z 2025 r. pokazują, że nawet jeśli firmy są pociągane do odpowiedzialności, to często tylko za najbardziej rażące aspekty (takie jak piractwo Anthropic), a nie za systematyczne wykorzystywanie chronionych materiałów. Jest to kolejny dowód na to, że powierzchowność kulturowa znajduje również odzwierciedlenie w naszej interpretacji odpowiedzialności w erze cyfrowej.
Implikacje dla przemysłu i przyszłe kierunki
Przypadki z 2025 roku przyspieszyły popyt na licencjonowane szkoleniowe zbiory danych. Główne firmy medialne negocjują obecnie umowy o podziale przychodów, które odzwierciedlają model ASCAP/BMI w branży muzycznej.
Heterogeneza celów potwierdzona: Paradoksalnie, pozwy składane w celu ochrony indywidualnych twórców faworyzują duże, ustrukturyzowane firmy, które mogą sobie pozwolić na skomplikowane umowy licencyjne. Wyroki z 2025 r. pokazały, że zdolność do udowodnienia konkretnych szkód ekonomicznych - często przekraczających możliwości indywidualnych twórców - stała się kluczowa dla sukcesu prawnego. Jednak wejście Disneya i Universal zmienia dynamikę: ci giganci mają zarówno zasoby, aby prowadzić długotrwałe batalie prawne, jak i wpływy, aby przyciągnąć uwagę mediów i polityków.
Rozwijający się rynek licencji: Thomson Reuters, Getty Images i inni duzi właściciele treści aktywnie zarabiają na swoich archiwach jako danych szkoleniowych, tworząc nowy rynek, który może wykluczyć mniejszych, niezależnych twórców. Wejście Disneya i Universal prawdopodobnie przyspieszy ten trend, a przemysł filmowy może "skutecznie przyspieszyć wykorzystanie modeli sztucznej inteligencji opartych na licencjonowanych treściach", gdy uzyska jasność prawną.
Lekcja Adobe: Przypadek Adobe pokazuje, że nawet najbardziej pozornie etyczne podejście może być błędne. Stanowi on jednak prawdziwą próbę znalezienia równowagi między innowacjami w zakresie sztucznej inteligencji a poszanowaniem praw twórców. Jak stwierdził Adobe: "Naszym celem jest zbudowanie generatywnej sztucznej inteligencji, która pozwoli twórcom zarabiać na ich talentach" - zasada, która wyraźnie kontrastuje z podejściem "najpierw weź, później pytaj" wielu konkurentów.
Model Adobe kontra konkurencja: Podczas gdy firmy takie jak Anthropic i Meta bronią się w sądzie za korzystanie z pirackich treści, Adobe przynajmniej próbowało stworzyć ramy licencyjne. Podejście to, choć niedoskonałe, może służyć jako model dla przyszłych przepisów wymagających przejrzystości i rekompensaty dla twórców.
Podsumowanie: Nawigacja w niepewności po 2025 roku
Przyszłość ludzkiej kreatywności w erze po 2025 roku Obecne batalie prawne dotyczą nie tylko własności intelektualnej, ale także samego znaczenia ludzkiej kreatywności w erze sztucznej inteligencji. Orzeczenia z 2025 r. próbowały zachować coraz bardziej sztuczne rozróżnienie między ludzką a sztuczną kreatywnością, ale ujawniły również praktyczne ograniczenia tego podejścia.
Fragmentacja jako nowa norma: Zamiast jasności, rok 2025 zaowocował mozaiką decyzji orzeczniczych odzwierciedlających zasadniczo różne podejścia. Zbieżność niektórych zasad (nielegalność piractwa, znaczenie wpływu na rynek) współistnieje z głębokimi rozbieżnościami w podstawowych kwestiach.
Prawdziwy wyłaniający się problem: Wyroki z 2025 r. pokazały, że nie chodzi już o to, czy sztuczna inteligencja może naruszać prawa autorskie, ale o to, czy krajowe systemy prawne mogą opracować spójne ramy wystarczająco szybko, aby zarządzać wykładniczo rozwijającą się technologią. Europejska ustawa o sztucznej inteligencji i amerykańskie orzecznictwo tworzą niekompatybilne standardy, które mogą doprowadzić do fragmentacji globalnego rynku sztucznej inteligencji. Wejście Disneya - z jego siłą lobbingową i wpływami politycznymi - może być katalizatorem dla bardziej ostatecznych przepisów federalnych w USA.
Lekcja Disneya: Jak zauważył jeden z ekspertów branżowych w sprawie Disney-Universal: "To nie będzie Hollywood próbujące wyłączyć generatywną sztuczną inteligencję. Tu chodzi o rekompensatę". To rozróżnienie jest kluczowe: nie chodzi o powstrzymanie innowacji, ale o zapewnienie twórcom wynagrodzenia za ich pracę.
Kontrastujące modele: 2025 podkreślił trzy zasadniczo różne podejścia: z jednej strony mamy Disneya wykorzystującego sąd do ochrony własności intelektualnej o wysokiej wartości i Adobe próbującego zbudować etyczny (choć niedoskonały) ekosystem; z drugiej strony firmy wolące ryzykować procesy sądowe niż ograniczać dostęp do danych; wreszcie Europa narzucająca obowiązkową przejrzystość poprzez ustawę o sztucznej inteligencji. Ten kontrast prawdopodobnie zdefiniuje przyszłość regulacji AI.
Próbując zastosować prawa XX wieku do technologii XXI wieku, możemy znaleźć się w sytuacji, w której będziemy bronić systemu, który nie tylko nie chroni już interesów, które rzekomo chroni, ale aktywnie utrudnia pojawienie się nowych form kreatywnej ekspresji, które nie mieszczą się w istniejących kategoriach. Rok 2025 pokazał, że droga do współistnienia ludzkiej i sztucznej kreatywności będzie znacznie bardziej złożona i sprzeczna niż początkowo przewidywano.
Uwaga: Niniejszy zaktualizowany artykuł odzwierciedla istotne zmiany w dziedzinie praw autorskich do sztucznej inteligencji w 2025 r., w tym pierwsze istotne wyroki i wdrożenie europejskiego aktu dotyczącego sztucznej inteligencji. Więcej informacji na temat toczących się spraw można znaleźć na stronie pełny tracker spraw dotyczących praw autorskich do sztucznej inteligencji przez BakerHostetler. Krajobraz prawny nadal szybko ewoluuje, co wymaga stałego monitorowania zmian regulacyjnych i orzecznictwa.
Dodatkowe zasoby:
- Ustawa UE o sztucznej inteligencji - Oficjalna strona
- Inicjatywa AI amerykańskiego urzędu ds. praw autorskich
- MIT Technology Review - Analiza praw autorskich AI


