// AMA AI FILM · ARTYKUŁ

AI Act 2026 dla filmu — co musi wiedzieć producent, reżyser, montażysta

Stan prawny: kwiecień 2026. Artykuł oparty na oficjalnym tekście Rozporządzenia (UE) 2024/1689 — EUR-Lex, OJ L 2024/1689.

Wprowadzenie: nowe prawo, realne sankcje

2 sierpnia 2026 roku to data, której polska branża filmowa nie może zignorować. Właśnie wtedy Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 roku — powszechnie zwane AI Act — nabiera pełnej mocy obowiązującej. To pierwsze na świecie kompleksowe prawo regulujące sztuczną inteligencję. Dla producentów, reżyserów i montażystów oznacza to konkretne obowiązki: znakowanie treści generatywnych, zasady korzystania z wizerunków i głosów aktorów, a także nową rzeczywistość prawną dotyczącą własności intelektualnej outputów AI.

Ignorowanie tych przepisów nie jest opcją. Kary za naruszenie Art. 50 (obowiązki przejrzystości) sięgają 15 milionów euro lub 3% globalnego rocznego obrotu — w zależności od tego, która kwota jest wyższa. Za naruszenia zakazów z Art. 5 grozi nawet 35 milionów euro lub 7% obrotu. Artykuł niniejszy przeprowadza przez trzy obszary kluczowe dla produkcji filmowej i zawiera praktyczną checklistę compliance.

AI Act jest rozporządzeniem — nie dyrektywą — co oznacza, że obowiązuje bezpośrednio w każdym państwie członkowskim UE bez potrzeby implementacji krajowej. Polska nie musi uchwalać osobnej ustawy. Od 2 sierpnia 2026 roku przepisy stosuje każdy sąd, każdy urząd, każdy organ nadzorczy — tak samo jak rozporządzenie to czyta się tak samo w Warszawie, Berlinie i Lizbonie. Dla branży filmowej oznacza to, że wymagania compliance są identyczne dla polskiego producenta niezależnego i dla studia koprodukcyjnego z Niemiec czy Francji. Jednocześnie egzekucja należy do organów krajowych: w Polsce nadzór nad stosowaniem AI Act należy do kompetencji wyznaczonego organu rynku wewnętrznego, którym ma być Urząd Komunikacji Elektronicznej lub inny organ wyznaczony przez Ministra Cyfryzacji. Stan legislacyjny dotyczący polskiego organu nadzoru pozostaje w toku (kwiecień 2026).


1. Harmonogram AI Act: co już obowiązuje, co wchodzi w sierpniu 2026, co w 2027

AI Act nie wszedł w życie jednorazowo. Rozporządzenie 2024/1689 — opublikowane w Dzienniku Urzędowym UE 12 lipca 2024 roku — przewiduje kilkustopniowe wdrożenie (Art. 113):

Data Co zaczyna obowiązywać Kluczowe dla branży filmowej
1 sierpnia 2024 Rozporządzenie wchodzi w życie (20. dzień po publikacji w Dz.Urz.) Producenci powinni zacząć audyt procesów AI
2 lutego 2025 Rozdział I (przepisy ogólne) i Rozdział II (Art. 5 — zakazy) Zakaz deepfake’ów manipulacyjnych bez ujawnienia, zakaz manipulacji podprogowych
2 sierpnia 2025 Rozdział V (GPAI — modele ogólnego przeznaczenia, Art. 51–56), Rozdział VII (zarządzanie), Art. 78, większość kar z Rozdziału XII Obowiązki dostawców modeli AI (np. OpenAI, Stability AI) — transparentność dotycząca danych treningowych i polityki prawa autorskiego (Art. 53)
2 sierpnia 2026 Pełne stosowanie rozporządzenia — w tym Art. 50 (obowiązki transparentności i watermarkingu dla wszystkich wdrażających AI generatywne) Obowiązkowe znakowanie deepfake’ów, watermarking treści AI, ujawnienie interakcji z botami
2 sierpnia 2027 Art. 6 ust. 1 — systemy AI wysokiego ryzyka wbudowane w produkty objęte dyrektywami z Załącznika I Dotyczy głównie systemów biometrycznych w postprodukcji i castingu
2 sierpnia 2030 Systemy AI wysokiego ryzyka wdrożone przez organy publiczne przed 2 sierpnia 2026 Dotyczy instytucji kultury finansowanych ze środków publicznych

Wniosek praktyczny: W kwietniu 2026 roku producent filmowy działa już pod reżimem Art. 5 i reżimem GPAI. Za cztery miesiące, w sierpniu 2026, wchodzi Art. 50 — kluczowy dla codziennej pracy z narzędziami generatywnymi. Na przygotowanie jest dosłownie kilkanaście tygodni.


2. Art. 5 — czego w ogóle robić nie wolno

Art. 5 AI Act wymienia praktyki AI bezwzględnie zakazane, obowiązujące od 2 lutego 2025 roku. Dla produkcji filmowej i reklamowej istotne są w szczególności:

  • Art. 5 ust. 1 lit. a — zakaz technik podprogowych lub manipulacyjnych, które zmieniają zachowanie osoby w sposób szkodliwy. Niedopuszczalne jest więc stosowanie technik deepfake w celu nieświadomego wpływania na widzów poza kontekstem jawnie artystycznym.
  • Art. 5 ust. 1 lit. f — zakaz systemów AI rozpoznających emocje w miejscu pracy i instytucjach edukacyjnych (z wyjątkami medycznymi i bezpieczeństwa). Casting oparty o analizę emocji aktora jest co do zasady niedopuszczalny.
  • Art. 5 ust. 1 lit. e — zakaz masowego pozyskiwania wizerunków twarzy z internetu lub CCTV do budowania baz danych rozpoznawania twarzy. Gromadzenie danych biometrycznych aktorów do celów treningowych bez zgody narusza ten przepis.

Co ważne: Art. 5 nie zakazuje wprost deepfake’ów artystycznych, satyrycznych ani fikcyjnych. Reżim zakazów uzupełniają obowiązki przejrzystości z Art. 50 — ale są to już wymogi jawności, nie zakazy.

Z perspektywy branży filmowej kluczowe jest rozróżnienie między tworzeniem deepfake’u artystycznego a jego wdrożeniem. Obowiązki Art. 5 dotyczą systemów AI, które mają na celu manipulować zachowaniem odbiorców lub ingerować w ich autonomię decyzyjną. Fikcja filmowa ze swej natury nie spełnia tych przesłanek — widz wie, że ogląda historię nieprawdziwą. Problem pojawia się jednak, gdy deepfake jest używany poza kontekstem artystycznym, np. w kampaniach dezinformacyjnych opartych na materiałach filmowych. W takich przypadkach nawet produkcja pierwotnie artystyczna może stać się instrumentem zakazanej praktyki, jeśli zostanie użyta do manipulacji poza pierwotnym kontekstem dystrybucji.


3. Obszar I — znakowanie treści generatywnych: deepfake disclosure i watermarking

Art. 50 — pełna treść obowiązków transparentności

Art. 50 to serce AI Act dla branży kreatywnej. Wchodzi w pełni w 2 sierpnia 2026 roku. Oto jego kluczowe ustępy:

Art. 50 ust. 2watermarking po stronie dostawcy: Dostawcy systemów AI generujących syntetyczne treści audio, obrazy, wideo lub tekst muszą zapewnić, że outputy są oznaczone w formacie odczytywalnym maszynowo i wykrywalne jako sztucznie wytworzone. Rozwiązania techniczne muszą być skuteczne, interoperacyjne, niezawodne i odporne. Wyjątek: funkcje wspomagające standardową edycję, które nie zmieniają istotnie danych wejściowych.

Art. 50 ust. 4 akapit 1deepfake disclosure po stronie wdrażającego: Podmioty wdrażające system AI generujący lub manipulujący obrazem, dźwiękiem lub wideo, stanowiący deepfake, muszą ujawnić, że treść jest sztucznie wygenerowana lub zmanipulowana. Kluczowy wyjątek dla kina: gdy treść stanowi część ewidentnie artystycznego, kreatywnego, satyrycznego, fikcyjnego lub analogicznego dzieła, obowiązek przejrzystości ogranicza się do ujawnienia istnienia takiej wygenerowanej lub zmanipulowanej treści w odpowiedni sposób, który nie zakłóca wyświetlania ani odbioru dzieła.

Art. 50 ust. 1 — ujawnienie interakcji z AI: Dostawcy systemów AI przeznaczonych do bezpośredniej interakcji z osobami fizycznymi muszą zadbać, by użytkownik wiedział, że ma do czynienia z systemem AI (chyba że jest to oczywiste).

Art. 50 ust. 3 — biometria i emocje: Podmioty wdrażające systemy rozpoznawania emocji lub biometrycznej kategoryzacji muszą informować osoby poddane temu systemowi o jego działaniu.

Praktyczne implikacje dla produkcji filmowej

Wyjątek artystyczny z Art. 50 ust. 4 jest istotny, ale ograniczony. Nie zwalnia z obowiązku ujawnienia — zwalnia jedynie z konieczności umieszczenia oznaczenia w sposób ingerujący w odbiór dzieła. W praktyce oznacza to:

  • Oznaczenie w napisach końcowych, metadanych pliku, materiałach prasowych lub EPK (Electronic Press Kit)
  • Adnotacja na platformach dystrybucyjnych (Netflix, HBO Max, VOD.pl)
  • Dla treści reklamowych (teasery, trailery z AI) — oznaczenie widoczne dla widza, np. Created with AI lub Zawiera treści generowane przez AI

Art. 50 ust. 2 nakłada obowiązek watermarkingu na dostawcę modelu AI (np. Runway, Sora, Midjourney). Producent filmowy jako deployer odpowiada za ujawnienie deepfake’ów na podstawie Art. 50 ust. 4. To rozróżnienie jest ważne przy audycie compliance: sprawdź, czy twój dostawca narzędzi AI zapewnia machine-readable watermarking zgodnie z Art. 50 ust. 2.

Kontrowersje 2024–2025: deepfake aktorów

Sprawa, która zelektryzowała branżę: w 2024 roku Scott Jacqmein, aktor z Teksasu, odkrył, że jego wizerunek — sprzedany za 750 dolarów na potrzeby reklam TikTok — był wykorzystywany do promocji suplementów dla mężczyzn na YouTube, w języku hiszpańskim, którego w ogóle nie mówi. Umowa nie określała jasno zakresu użycia. Przypadek ujawniony przez Fast Company (marzec 2026) stał się podręcznikowym przykładem tego, czego nie robić. W Polsce brak podobnych precedensów sądowych — to jednak kwestia czasu.

W październiku 2025 roku OpenAI, pod presją SAG-AFTRA i głównych agencji talentów (CAA, UTA), ogłosiło politykę opt-in dla Sora 2: wszyscy artyści, aktorzy i osoby prywatne mają prawo decydować, czy i w jaki sposób mogą być symulowani przez AI. Bryan Cranston publicznie podziękował za tę zmianę. LAist, październik 2025.


4. Obszar II — prawa do wizerunku i głosu: voice cloning, face cloning, RODO + AI Act

Dwuwarstwowa ochrona: AI Act + RODO

Klonowanie głosu i twarzy aktora nie jest objęte tylko AI Act. To skrzyżowanie co najmniej trzech reżimów prawnych:

  1. AI Act (EU 2024/1689) — Art. 50 (transparentność i watermarking outputów), Art. 5 (zakaz masowego pobierania danych biometrycznych bez zgody)
  2. RODO (EU 2016/679) — głos i wizerunek to dane biometryczne w rozumieniu Art. 9 RODO (dane szczególnych kategorii). Przetwarzanie wymaga wyraźnej zgody lub innej podstawy prawnej z Art. 9 ust. 2 RODO
  3. Polskie prawo cywilne — Art. 81 prawa autorskiego (prawo do wizerunku), Art. 23 k.c. (dobra osobiste), ustawa o ochronie danych osobowych

IAPP (kwiecień 2026) odnotowuje, że AI Act Art. 27 wymaga przeprowadzenia Fundamental Rights Impact Assessment (FRIA) przed wdrożeniem systemów AI wysokiego ryzyka, który ma uzupełniać — nie zastępować — Data Protection Impact Assessment (DPIA) wymagany przez Art. 35 RODO.

Praktycznie: jeśli skaenujesz twarz aktora do celów VFX lub klonujesz jego głos do dubbingu, przetwarzasz dane biometryczne. Potrzebujesz:

  • Wyraźnej, pisemnej zgody aktora (Art. 9 ust. 2 lit. a RODO) — ze szczegółowym opisem planowanych zastosowań
  • Podstawy prawnej przetwarzania zgodnej z RODO Art. 6
  • DPIA (gdy przetwarzanie może powodować wysokie ryzyko)
  • Umów z dostawcami narzędzi AI jako podmiotami przetwarzającymi dane (Data Processing Agreement)

SAG-AFTRA: precedens dla całego świata

Po strajku SAG-AFTRA z 2023 roku związek zawarł szereg przełomowych porozumień dotyczących cyfrowych replik. Umowa Commercials Contract z kwietnia 2025 roku jako pierwsza w historii SAG-AFTRA ustanowiła szczegółowe wymogi zgody na tworzenie i używanie digital replicas. Producent musi uzyskać od aktora jasną i wyraźną zgodę (ang. clear and conspicuous), zawierającą rozsądnie szczegółowy opis planowanego użycia repliki. Standaryzowany formularz — Digital Replica Rider — jest teraz dostępny. Davis+Gilbert LLP (styczeń 2026).

Interaktywna Umowa Medialna (IMA) 2022–2028, ratyfikowana w lipcu 2025, wprowadza dodatkowe kategorie: Vocal Digital Replica (głos AI stworzony głównie z materiałów unijnych aktora) i Visual Digital Replica (wygląd aktora w nowych scenach kinowych). Dla każdej repliki wymagane jest oddzielne, pisemne porozumienie. Pracodawca ma 90 dni od premiery na dostarczenie raportu z użytkowania. FKKS Technology Law, styczeń 2026.

Polska: co mówi prawo

Polska nie ma jeszcze oddzielnej ustawy o prawach do wizerunku w kontekście AI. Obowiązują przepisy ogólne:

  • Art. 81 prawa autorskiego: rozpowszechnianie wizerunku wymaga zgody osoby na nim przedstawionej; wyjątek dla powszechnie znanych osób w związku z pełnieniem funkcji publicznych
  • Art. 23 Kodeksu cywilnego: wizerunek i głos jako dobra osobiste
  • Kodeks karny: polska ustawa o zmianie przepisów karnych z 2024 roku penalizuje tworzenie i dystrybucję deepfake’ów do celów oszustwa, zniesławienia i treści erotycznych bez zgody; maksymalna kara 5 lat pozbawienia wolności

5. Obszar III — prawa autorskie outputów AI: EU vs USA, ZAiKS, sprawy w toku

Aktualny status w Unii Europejskiej

UE nie wprowadza w AI Act odrębnej regulacji ochrony praw autorskich do outputów AI. Art. 53 ust. 1 lit. c nakłada na dostawców modeli GPAI (np. OpenAI, Mistral, Google Gemini) obowiązek posiadania polityki respektowania prawa autorskiego UE, w tym mechanizmów opt-out dla uprawnionych (dyrektywa DSM 2019/790). Art. 53 ust. 1 lit. d wymaga publikowania podsumowania treści szkoleniowych.

W lipcu 2025 roku koalicja 40 organizacji europejskich branży kreatywnej — w tym Federation of European Publishers — publicznie potępiła podejście Komisji Europejskiej do egzekwowania Art. 53, zarzucając priorytyzowanie firm AI kosztem twórców. Ruch #StayTrueToTheAct skupia artystów z całej Europy domagających się rzetelnego egzekwowania praw autorskich od dostawców AI.

Aktualne orzecznictwo unijne jednoznacznie wymaga ludzkiego autorstwa jako warunku objęcia ochroną prawa autorskiego (por. TSUE C-683/17, Cofemel). Output generowany autonomicznie przez AI bez twórczego wkładu człowieka nie jest chroniony prawem autorskim w żadnym państwie UE.

USA: Thaler v. Perlmutter — historia pewnego orzeczenia

2 marca 2026 roku Sąd Najwyższy USA odmówił przyjęcia do rozpoznania sprawy Thaler v. Perlmutter (nr akt 25-449). Tym samym utrzymał w mocy wyrok Sądu Apelacyjnego dla Okręgu D.C. z 18 marca 2025 roku, który potwierdził odmowę rejestracji praw autorskich do obrazu wygenerowanego autonomicznie przez system AI. Sąd uznał, że wielokrotne przepisy Copyright Act zakładają, iż autor musi być człowiekiem. Baker Donelson, marzec 2026.

Sprawa nie rozstrzygnęła jednak kluczowego pytania: ile twórczego wkładu człowieka wystarczy, by output AI był chroniony? To pytanie jest przedmiotem postępowania Allen v. Perlmutter w Kolorado, gdzie artysta kwestionuje odmowę ochrony dla obrazu wygenerowanego przy użyciu ponad 600 iteracyjnych promptów w Midjourney. Raport US Copyright Office ze stycznia 2025 stwierdził, że same prompty nie są wystarczające dla ochrony autorskiej. Mayer Brown, marzec 2026.

ZAiKS i TDM opt-out

W grudniu 2024 roku Stowarzyszenie Autorów ZAiKS ogłosiło opt-out — zakaz wykorzystywania reprezentowanych przez siebie utworów (w tym scenariuszy, dialogów, muzyki filmowej) do eksploracji tekstów i danych (TDM) w celach komercyjnych, w tym trenowania modeli AI generatywnej. Podstawa prawna: dyrektywa DSM 790/2019, implementowana w polskiej ustawie o prawie autorskim (t.j. Dz.U. z 2024 r. poz. 1254). Akademia ZAiKS, kwiecień 2025.

Oznacza to, że firmy chcące trenować modele AI na polskich dziełach filmowych (dialogach, muzyce, librach) muszą najpierw uzyskać licencję od ZAiKS lub odpowiednio od twórcy. ZAiKS publikuje zastrzeżenie technicznie czytelne maszynowo (robots.txt, metadane). W marcu 2026 roku Parlament Europejski przyjął raport dotyczący AI i praw autorskich, wskazując na kluczową rolę organizacji zbiorowego zarządzania. ZAiKS.org.pl, kwiecień 2026.

Konsekwencje dla twórców filmowych

Obecny stan prawny w UE i USA prowadzi do praktycznego paradoksu: output AI generowany w 100% przez maszynę nie jest chroniony. Ale film, w którym AI wspomagało VFX, muzykę lub montaż, może być chroniony — pod warunkiem udokumentowania twórczego wkładu człowieka. Dokumentacja procesów twórczych staje się narzędziem ochrony prawnoautorskiej, nie tylko compliance.


6. Tabela: rodzaj treści AI → wymagane oznaczenia → kary

Rodzaj treści AI w filmie Podstawa prawna Wymagane oznaczenia / działania Maksymalna kara (Art. 99 AI Act)
Deepfake aktora (twarz / głos) w filmie fabularnym Art. 50 ust. 4 AI Act Ujawnienie w napisach końcowych lub metadanych; nie musi zakłócać odbioru dzieła Do 15 mln EUR lub 3% obrotu
Deepfake niezwiązany z dziełem artystycznym (np. reklama z wizerunkiem aktora) Art. 50 ust. 4 AI Act + RODO Art. 9 Wyraźne oznaczenie AI-generated widoczne dla widza + pisemna zgoda aktora Do 15 mln EUR lub 3% obrotu (+ RODO do 20 mln EUR lub 4% obrotu)
Syntetyczny narrator / lektor AI Art. 50 ust. 2 (dostawca) + Art. 50 ust. 4 (deployer) Machine-readable watermark w pliku audio; ujawnienie jeśli głos jest deepfake’iem konkretnej osoby Do 15 mln EUR lub 3% obrotu
Generowane VFX / tła (środowiska, statyści) Art. 50 ust. 2 AI Act (dostawca modelu) Watermark metadanowy od dostawcy; producent powinien zweryfikować zgodność dostawcy Odpowiedzialność dostawcy modelu; producent jako deployer odpowiada za ujawnienie deepfake’ów
Muzyka filmowa generowana przez AI Art. 53 AI Act (GPAI), dyrektywa DSM, opt-out ZAiKS Sprawdzenie, czy model AI nie trenował na dziełach objętych opt-out ZAiKS; licencjonowanie Roszczenia cywilnoprawne twórców; do 15 mln EUR za naruszenie Art. 50
Interaktywny chatbot AI w aplikacji filmowej (interakcja z widzem) Art. 50 ust. 1 AI Act Obowiązkowe poinformowanie użytkownika o interakcji z systemem AI Do 15 mln EUR lub 3% obrotu
Deepfake polityczny / wyborczy (niezwiązany z produkcją artystyczną) Art. 5 AI Act (zakaz praktyk manipulacyjnych) Absolutny zakaz bez odpowiedniego ujawnienia; treści polityczne objęte szczególnym reżimem Do 35 mln EUR lub 7% obrotu

7. Festiwal Polskich Filmów Fabularnych w Gdyni 2026

Na 51. edycję Festiwalu Polskich Filmów Fabularnych (wrzesień 2026, Gdynia) należy spodziewać się rozszerzonej dyskusji o AI Act i miejscu sztucznej inteligencji w polskiej kinematografii. festiwalgdynia.pl, listopad 2025.

Producenci pracujący nad filmami z wykorzystaniem narzędzi generatywnej AI — niezależnie od tego, czy aplikują o granty, czy kierują projekty na festiwale — powinni już dziś przygotować AI Disclosure Statement: dokument opisujący, jakie narzędzia AI były wykorzystane na jakim etapie produkcji, z jakimi danymi i za czyją zgodą. To podstawa zarówno compliance z AI Act, jak i argument w rozmowach z festiwalami i publicznością.


8. Checklista compliance dla produkcji filmowej — 18 punktów

A. Przed produkcją (development i preprodukcja)

  1. Audyt AI tools — zidentyfikuj wszystkie narzędzia AI używane w produkcji (generowanie scenariusza, VFX, muzyka, montaż, dubbing). Sprawdź, czy każdy dostawca zapewnia Art. 50 ust. 2-compliant watermarking.
  2. Zgody aktorów na cyfrową replikę — dla każdego aktora, którego głos lub twarz ma być klonowana, uzyskaj pisemną zgodę zawierającą: opis planowanych zastosowań, terytorium, czas trwania, sposób kompensacji. Wzoruj się na SAG-AFTRA Digital Replica Rider.
  3. DPIA / FRIA — jeśli przetwarzasz dane biometryczne (skan twarzy, nagrania głosu), przeprowadź DPIA zgodnie z RODO Art. 35. Jeśli wdrażasz system AI wysokiego ryzyka — FRIA zgodnie z AI Act Art. 27.
  4. Weryfikacja danych treningowych narzędzi AI — upewnij się, że dostawca narzędzi AI posiada politykę praw autorskich (Art. 53 AI Act) i nie trenował modelu na dziełach objętych opt-out ZAiKS lub podobnymi zastrzeżeniami.
  5. Umowy z podwykonawcami VFX / AI — dodaj klauzule AI Act compliance do umów z domami VFX i studiem postprodukcji. Wymagaj od nich zgodności z Art. 50 i dostarczenia dokumentacji watermarkingu.
  6. Polisa ubezpieczeniowa — sprawdź, czy polisa E&O (Errors and Omissions) obejmuje ryzyko związane z naruszeniem AI Act i praw do wizerunku.

B. W trakcie produkcji

  1. Rejestruj każde użycie AI — prowadź dziennik produkcyjny z datą, narzędziem, promptem lub parametrami, nazwiskiem operatora AI i efektem. To podstawa dokumentacji prawnoautorskiej i compliance.
  2. Oznaczaj surowe materiały — każdy syntetyczny materiał (AI-generated frame, AI-generated audio) powinien być oznaczony już na poziomie pliku roboczego (metadane XMP, C2PA jeśli dostawca wspiera standard).
  3. Rozpoznawanie emocji — nie — nie używaj systemów AI do analizy emocji aktorów lub pracowników na planie. Art. 5 ust. 1 lit. f AI Act zakazuje tego w miejscu pracy. Wyjątek: badania medyczne lub bezpieczeństwo pracy, z odpowiednimi zabezpieczeniami.
  4. Monitoring scenarzystów i efektów głosu — jeśli używasz AI do generowania dialogów, upewnij się, że prawa do inputu (dialogi, scenariusze) nie są objęte opt-out ZAiKS ani innymi zastrzeżeniami twórców.

C. Postprodukcja i dystrybucja

  1. AI Disclosure w EPK — przygotuj sekcję AI Disclosure w Electronic Press Kit. Opisz, jakie narzędzia AI i na jakim etapie produkcji były użyte. Skieruj ją do festiwali, platform i prasy.
  2. Oznaczenia w napisach końcowych — dla filmów z elementami deepfake lub syntetycznych postaci: dodaj informację w napisach końcowych, np. Certain visual/audio sequences in this film were generated or altered using artificial intelligence tools.
  3. Metadane platformowe — informuj dystrybutorów (Netflix, HBO, Amazon, TVP VOD) o treściach AI, aby mogli prawidłowo oznaczyć materiał w swoich systemach metadanych.
  4. Sprawdzenie watermarku — przed finalnym eksportem pliku zweryfikuj, czy narzędzie VFX/generatywne dostarczyło machine-readable watermark. Zachowaj zrzut potwierdzenia zgodności (Compliance Record).
  5. Treści reklamowe i promocyjne — teasery, spoty reklamowe, materiały do mediów społecznościowych z AI wymagają widocznego oznaczenia (nie tylko metadanowego). Zgodnie z Art. 50 ust. 4 — widz musi być poinformowany.

D. Zarządzanie i szkolenia

  1. Szkolenie zespołu — AI literacy to obowiązek z Art. 4 AI Act. Producent jako pracodawca powinien zadbać o szkolenie pracowników używających AI w zakresie podstawowych zasad AI Act.
  2. Wewnętrzna polityka AI — opracuj dokument Policy on AI Use in Production, obejmujący: listę dopuszczonych narzędzi, procedurę uzyskiwania zgód, zasady oznaczania, osobę odpowiedzialną (AI Compliance Officer).
  3. Monitoring zmian prawnych — AI Act będzie ewoluować (wytyczne Komisji z Art. 96, kody praktyk). Wyznacz osobę odpowiedzialną za śledzenie aktualizacji, w tym polskich przepisów implementacyjnych i wytycznych UODO.

9. YouTube — zalecane materiały edukacyjne

  • Analyzing the AI Act’s approach to deep fakes (ACIG Voice, wrzesień 2024) — wywiad z Mateuszem Łabuzem, analiza Art. 50 AI Act. YouTube ↗
  • EU AI Act 2025 — What Creators & Developers MUST Know (sierpień 2025) — obowiązki GPAI od 2 sierpnia 2025. YouTube ↗
  • EU AI Act: Creative Industries Revolt Against Copyright Infringement (Pop Culture Files, lipiec 2025) — debata o Art. 53 AI Act i ruch #StayTrueToTheAct. YouTube ↗
  • Copyright of AI-generated works: approaches in the EU and beyond (kwiecień 2026) — status praw autorskich do outputów AI w UE i na świecie. YouTube ↗
  • Rozporządzenie AI Act — kluczowe wymogi od 2 sierpnia 2025 r. (sierpień 2025, PL) — polskie omówienie obowiązków GPAI i sankcji. YouTube ↗

Podsumowanie — pięć wniosków dla branży filmowej

  1. Sierpień 2026 to twarda data — pełne stosowanie Art. 50 AI Act. Producenci, którzy nie mają wdrożonych procedur znakowania treści AI, narażają się na realne sankcje.
  2. Wyjątek artystyczny istnieje, ale nie zwalnia z ujawnienia — Art. 50 ust. 4 pozwala na elastyczne oznaczenie deepfake’ów w dziełach artystycznych, ale nie na całkowite przemilczanie faktu użycia AI.
  3. Zgoda aktora to absolutny fundament — klonowanie głosu i twarzy bez pisemnej, szczegółowej zgody to naruszenie RODO, prawa cywilnego i możliwe naruszenie Art. 5 AI Act. Wzór: SAG-AFTRA Digital Replica Rider.
  4. Output AI bez ludzkiego wkładu nie jest chroniony — dokumentuj twórczy udział człowieka na każdym etapie, by móc skutecznie chronić prawa autorskie do finalnego dzieła.
  5. ZAiKS opt-out to nowe ryzyko dla dystrybucji — jeśli model AI, z którego korzystasz, trenował na dziełach objętych opt-out ZAiKS bez licencji, możesz być narażony na roszczenia. Wymagaj od dostawców AI transparentności danych treningowych (Art. 53 ust. 1 lit. d AI Act).

Źródła

Wróć do hubu AI w filmie →

Materiały wideo

Analyzing the AI Act's approach to deep fakes
EU AI Act 2025 — What Creators & Developers MUST Know
EU AI Act: Creative Industries Revolt Against Copyright Infringement
Copyright of AI-generated works: approaches in the EU and beyond
Rozporządzenie AI Act — kluczowe wymogi od 2 sierpnia 2025 r.

FAQ

Czy mogę używać AI do wygenerowania twarzy statystów bez żadnych formalności?

Jeśli generujesz twarze fikcyjne niezwiązane z żadną konkretną osobą, a dostawca narzędzia zapewnia Art. 50 ust. 2-compliant watermarking, wymogi są minimalne. Jeśli generujesz twarze na podstawie skanów prawdziwych ludzi — potrzebujesz zgody i reżimu RODO. Zawsze prowadź dokumentację.

Film festiwalowy z deepfake'iem głównego aktora — co muszę ujawnić?

Na podstawie Art. 50 ust. 4 AI Act musisz ujawnić, że treść jest sztucznie wygenerowana lub zmanipulowana. Ponieważ jest to dzieło artystyczne, ujawnienie może ograniczać się do napisów końcowych lub metadanych — nie musi pojawiać się w samym filmie w sposób zakłócający odbiór. Zgoda aktora na deepfake to oddzielny obowiązek wynikający z Art. 81 prawa autorskiego i RODO.

Sklonowałem głos nieżyjącego aktora do dokumentu historycznego. Czy to legalne?

Prawa do wizerunku i dobra osobiste mogą być chronione przez określony czas po śmierci (w Polsce Art. 83 prawa autorskiego — 20 lat po śmierci artysty wykonawcy). Wymagana jest zgoda spadkobierców. AI Act Art. 50 wymaga ujawnienia. Sprawdź też, czy nagrania archiwalne użyte do klonowania głosu były licencjonowane.

Używam AI do pisania scenariusza — czy output jest chroniony prawem autorskim?

Scenariusz pisany z pomocą AI, gdzie człowiek kieruje procesem, wybiera, redaguje i przekształca, może być chroniony, o ile udokumentujesz twórczy wkład ludzki. Scenariusz wygenerowany autonomicznie przez AI bez twórczego wkładu człowieka nie jest w UE chroniony. US Copyright Office potwierdza: sam prompt nie wystarczy (raport USCO, styczeń 2025).

Czy AI Act dotyczy też małych niezależnych produkcji?

Tak. AI Act stosuje się do każdego, kto wdraża systemy AI na terytorium UE, bez względu na wielkość. Art. 62 przewiduje jednak ułatwienia dla MŚP i startupów (dostęp do regulatory sandboxes, uproszczone procedury). Małe produkcje mogą korzystać z tych ułatwień.

Czy ZAiKS-owski opt-out dotyczy tylko muzyki, czy też scenariuszy?

Opt-out ZAiKS obejmuje wszystkie utwory reprezentowane przez organizację, w tym scenariusze, dialogi, tłumaczenia i teksty piosenek. Dotyczy TDM do celów komercyjnych, w tym trenowania modeli AI generatywnej. Więcej: https://akademia.zaiks.org.pl/wiedza/tdm-prawo-autorskie-i-ai---co-oznacza-decyzja-zaiks-u

Producent używa Sory / RunwayML / Midjourney — kto odpowiada za watermarking?

Obowiązek zapewnienia machine-readable watermarkingu spoczywa na dostawcy systemu AI (Art. 50 ust. 2). Producent jako deployer musi zadbać, by używane narzędzia były compliant, i zweryfikować to przed zawarciem umowy z dostawcą. Za ujawnienie deepfake'ów w gotowym materiale odpowiada deployer (Art. 50 ust. 4).

Co grozi za brak oznaczenia deepfake'u w filmie?

Naruszenie Art. 50 (obowiązki transparentności): do 15 milionów euro lub 3% globalnego rocznego obrotu, w zależności od tego, która kwota jest wyższa. Dla MŚP stosuje się niższy próg. Patrz Art. 99 ust. 3 AI Act.

Czy Brexit wpłynął na stosowanie AI Act w Wielkiej Brytanii?

AI Act dotyczy UE, nie UK. Wielka Brytania prowadzi własną politykę regulacyjną AI. Jednak filmy dystrybuowane na rynku UE muszą spełniać wymogi AI Act — niezależnie od kraju produkcji. Produkcje koprodukcyjne UK–PL podlegają AI Act dla dystrybucji europejskiej.

Źródła

Chcesz robić filmy z AI?

AMA Film Academy uczy reżyserii, operatorki i scenariopisarstwa w epoce AI. One Movie Project to flagowy program debiutancki.