Stan prawny: kwiecień 2026. Artykuł oparty na oficjalnym tekście Rozporządzenia (UE) 2024/1689 — EUR-Lex, OJ L 2024/1689.
Wprowadzenie: nowe prawo, realne sankcje
2 sierpnia 2026 roku to data, której polska branża filmowa nie może zignorować. Właśnie wtedy Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 roku — powszechnie zwane AI Act — nabiera pełnej mocy obowiązującej. To pierwsze na świecie kompleksowe prawo regulujące sztuczną inteligencję. Dla producentów, reżyserów i montażystów oznacza to konkretne obowiązki: znakowanie treści generatywnych, zasady korzystania z wizerunków i głosów aktorów, a także nową rzeczywistość prawną dotyczącą własności intelektualnej outputów AI.
Ignorowanie tych przepisów nie jest opcją. Kary za naruszenie Art. 50 (obowiązki przejrzystości) sięgają 15 milionów euro lub 3% globalnego rocznego obrotu — w zależności od tego, która kwota jest wyższa. Za naruszenia zakazów z Art. 5 grozi nawet 35 milionów euro lub 7% obrotu. Artykuł niniejszy przeprowadza przez trzy obszary kluczowe dla produkcji filmowej i zawiera praktyczną checklistę compliance.
AI Act jest rozporządzeniem — nie dyrektywą — co oznacza, że obowiązuje bezpośrednio w każdym państwie członkowskim UE bez potrzeby implementacji krajowej. Polska nie musi uchwalać osobnej ustawy. Od 2 sierpnia 2026 roku przepisy stosuje każdy sąd, każdy urząd, każdy organ nadzorczy — tak samo jak rozporządzenie to czyta się tak samo w Warszawie, Berlinie i Lizbonie. Dla branży filmowej oznacza to, że wymagania compliance są identyczne dla polskiego producenta niezależnego i dla studia koprodukcyjnego z Niemiec czy Francji. Jednocześnie egzekucja należy do organów krajowych: w Polsce nadzór nad stosowaniem AI Act należy do kompetencji wyznaczonego organu rynku wewnętrznego, którym ma być Urząd Komunikacji Elektronicznej lub inny organ wyznaczony przez Ministra Cyfryzacji. Stan legislacyjny dotyczący polskiego organu nadzoru pozostaje w toku (kwiecień 2026).
1. Harmonogram AI Act: co już obowiązuje, co wchodzi w sierpniu 2026, co w 2027
AI Act nie wszedł w życie jednorazowo. Rozporządzenie 2024/1689 — opublikowane w Dzienniku Urzędowym UE 12 lipca 2024 roku — przewiduje kilkustopniowe wdrożenie (Art. 113):
| Data | Co zaczyna obowiązywać | Kluczowe dla branży filmowej |
|---|---|---|
| 1 sierpnia 2024 | Rozporządzenie wchodzi w życie (20. dzień po publikacji w Dz.Urz.) | Producenci powinni zacząć audyt procesów AI |
| 2 lutego 2025 | Rozdział I (przepisy ogólne) i Rozdział II (Art. 5 — zakazy) | Zakaz deepfake’ów manipulacyjnych bez ujawnienia, zakaz manipulacji podprogowych |
| 2 sierpnia 2025 | Rozdział V (GPAI — modele ogólnego przeznaczenia, Art. 51–56), Rozdział VII (zarządzanie), Art. 78, większość kar z Rozdziału XII | Obowiązki dostawców modeli AI (np. OpenAI, Stability AI) — transparentność dotycząca danych treningowych i polityki prawa autorskiego (Art. 53) |
| 2 sierpnia 2026 | Pełne stosowanie rozporządzenia — w tym Art. 50 (obowiązki transparentności i watermarkingu dla wszystkich wdrażających AI generatywne) | Obowiązkowe znakowanie deepfake’ów, watermarking treści AI, ujawnienie interakcji z botami |
| 2 sierpnia 2027 | Art. 6 ust. 1 — systemy AI wysokiego ryzyka wbudowane w produkty objęte dyrektywami z Załącznika I | Dotyczy głównie systemów biometrycznych w postprodukcji i castingu |
| 2 sierpnia 2030 | Systemy AI wysokiego ryzyka wdrożone przez organy publiczne przed 2 sierpnia 2026 | Dotyczy instytucji kultury finansowanych ze środków publicznych |
Wniosek praktyczny: W kwietniu 2026 roku producent filmowy działa już pod reżimem Art. 5 i reżimem GPAI. Za cztery miesiące, w sierpniu 2026, wchodzi Art. 50 — kluczowy dla codziennej pracy z narzędziami generatywnymi. Na przygotowanie jest dosłownie kilkanaście tygodni.
2. Art. 5 — czego w ogóle robić nie wolno
Art. 5 AI Act wymienia praktyki AI bezwzględnie zakazane, obowiązujące od 2 lutego 2025 roku. Dla produkcji filmowej i reklamowej istotne są w szczególności:
- Art. 5 ust. 1 lit. a — zakaz technik podprogowych lub manipulacyjnych, które zmieniają zachowanie osoby w sposób szkodliwy. Niedopuszczalne jest więc stosowanie technik deepfake w celu nieświadomego wpływania na widzów poza kontekstem jawnie artystycznym.
- Art. 5 ust. 1 lit. f — zakaz systemów AI rozpoznających emocje w miejscu pracy i instytucjach edukacyjnych (z wyjątkami medycznymi i bezpieczeństwa). Casting oparty o analizę emocji aktora jest co do zasady niedopuszczalny.
- Art. 5 ust. 1 lit. e — zakaz masowego pozyskiwania wizerunków twarzy z internetu lub CCTV do budowania baz danych rozpoznawania twarzy. Gromadzenie danych biometrycznych aktorów do celów treningowych bez zgody narusza ten przepis.
Co ważne: Art. 5 nie zakazuje wprost deepfake’ów artystycznych, satyrycznych ani fikcyjnych. Reżim zakazów uzupełniają obowiązki przejrzystości z Art. 50 — ale są to już wymogi jawności, nie zakazy.
Z perspektywy branży filmowej kluczowe jest rozróżnienie między tworzeniem deepfake’u artystycznego a jego wdrożeniem. Obowiązki Art. 5 dotyczą systemów AI, które mają na celu manipulować zachowaniem odbiorców lub ingerować w ich autonomię decyzyjną. Fikcja filmowa ze swej natury nie spełnia tych przesłanek — widz wie, że ogląda historię nieprawdziwą. Problem pojawia się jednak, gdy deepfake jest używany poza kontekstem artystycznym, np. w kampaniach dezinformacyjnych opartych na materiałach filmowych. W takich przypadkach nawet produkcja pierwotnie artystyczna może stać się instrumentem zakazanej praktyki, jeśli zostanie użyta do manipulacji poza pierwotnym kontekstem dystrybucji.
3. Obszar I — znakowanie treści generatywnych: deepfake disclosure i watermarking
Art. 50 — pełna treść obowiązków transparentności
Art. 50 to serce AI Act dla branży kreatywnej. Wchodzi w pełni w 2 sierpnia 2026 roku. Oto jego kluczowe ustępy:
Art. 50 ust. 2 — watermarking po stronie dostawcy: Dostawcy systemów AI generujących syntetyczne treści audio, obrazy, wideo lub tekst muszą zapewnić, że outputy są oznaczone w formacie odczytywalnym maszynowo i wykrywalne jako sztucznie wytworzone. Rozwiązania techniczne muszą być skuteczne, interoperacyjne, niezawodne i odporne. Wyjątek: funkcje wspomagające standardową edycję, które nie zmieniają istotnie danych wejściowych.
Art. 50 ust. 4 akapit 1 — deepfake disclosure po stronie wdrażającego: Podmioty wdrażające system AI generujący lub manipulujący obrazem, dźwiękiem lub wideo, stanowiący deepfake, muszą ujawnić, że treść jest sztucznie wygenerowana lub zmanipulowana. Kluczowy wyjątek dla kina: gdy treść stanowi część ewidentnie artystycznego, kreatywnego, satyrycznego, fikcyjnego lub analogicznego dzieła, obowiązek przejrzystości ogranicza się do ujawnienia istnienia takiej wygenerowanej lub zmanipulowanej treści w odpowiedni sposób, który nie zakłóca wyświetlania ani odbioru dzieła.
Art. 50 ust. 1 — ujawnienie interakcji z AI: Dostawcy systemów AI przeznaczonych do bezpośredniej interakcji z osobami fizycznymi muszą zadbać, by użytkownik wiedział, że ma do czynienia z systemem AI (chyba że jest to oczywiste).
Art. 50 ust. 3 — biometria i emocje: Podmioty wdrażające systemy rozpoznawania emocji lub biometrycznej kategoryzacji muszą informować osoby poddane temu systemowi o jego działaniu.
Praktyczne implikacje dla produkcji filmowej
Wyjątek artystyczny z Art. 50 ust. 4 jest istotny, ale ograniczony. Nie zwalnia z obowiązku ujawnienia — zwalnia jedynie z konieczności umieszczenia oznaczenia w sposób ingerujący w odbiór dzieła. W praktyce oznacza to:
- Oznaczenie w napisach końcowych, metadanych pliku, materiałach prasowych lub EPK (Electronic Press Kit)
- Adnotacja na platformach dystrybucyjnych (Netflix, HBO Max, VOD.pl)
- Dla treści reklamowych (teasery, trailery z AI) — oznaczenie widoczne dla widza, np. Created with AI lub Zawiera treści generowane przez AI
Art. 50 ust. 2 nakłada obowiązek watermarkingu na dostawcę modelu AI (np. Runway, Sora, Midjourney). Producent filmowy jako deployer odpowiada za ujawnienie deepfake’ów na podstawie Art. 50 ust. 4. To rozróżnienie jest ważne przy audycie compliance: sprawdź, czy twój dostawca narzędzi AI zapewnia machine-readable watermarking zgodnie z Art. 50 ust. 2.
Kontrowersje 2024–2025: deepfake aktorów
Sprawa, która zelektryzowała branżę: w 2024 roku Scott Jacqmein, aktor z Teksasu, odkrył, że jego wizerunek — sprzedany za 750 dolarów na potrzeby reklam TikTok — był wykorzystywany do promocji suplementów dla mężczyzn na YouTube, w języku hiszpańskim, którego w ogóle nie mówi. Umowa nie określała jasno zakresu użycia. Przypadek ujawniony przez Fast Company (marzec 2026) stał się podręcznikowym przykładem tego, czego nie robić. W Polsce brak podobnych precedensów sądowych — to jednak kwestia czasu.
W październiku 2025 roku OpenAI, pod presją SAG-AFTRA i głównych agencji talentów (CAA, UTA), ogłosiło politykę opt-in dla Sora 2: wszyscy artyści, aktorzy i osoby prywatne mają prawo decydować, czy i w jaki sposób mogą być symulowani przez AI. Bryan Cranston publicznie podziękował za tę zmianę. LAist, październik 2025.
4. Obszar II — prawa do wizerunku i głosu: voice cloning, face cloning, RODO + AI Act
Dwuwarstwowa ochrona: AI Act + RODO
Klonowanie głosu i twarzy aktora nie jest objęte tylko AI Act. To skrzyżowanie co najmniej trzech reżimów prawnych:
- AI Act (EU 2024/1689) — Art. 50 (transparentność i watermarking outputów), Art. 5 (zakaz masowego pobierania danych biometrycznych bez zgody)
- RODO (EU 2016/679) — głos i wizerunek to dane biometryczne w rozumieniu Art. 9 RODO (dane szczególnych kategorii). Przetwarzanie wymaga wyraźnej zgody lub innej podstawy prawnej z Art. 9 ust. 2 RODO
- Polskie prawo cywilne — Art. 81 prawa autorskiego (prawo do wizerunku), Art. 23 k.c. (dobra osobiste), ustawa o ochronie danych osobowych
IAPP (kwiecień 2026) odnotowuje, że AI Act Art. 27 wymaga przeprowadzenia Fundamental Rights Impact Assessment (FRIA) przed wdrożeniem systemów AI wysokiego ryzyka, który ma uzupełniać — nie zastępować — Data Protection Impact Assessment (DPIA) wymagany przez Art. 35 RODO.
Praktycznie: jeśli skaenujesz twarz aktora do celów VFX lub klonujesz jego głos do dubbingu, przetwarzasz dane biometryczne. Potrzebujesz:
- Wyraźnej, pisemnej zgody aktora (Art. 9 ust. 2 lit. a RODO) — ze szczegółowym opisem planowanych zastosowań
- Podstawy prawnej przetwarzania zgodnej z RODO Art. 6
- DPIA (gdy przetwarzanie może powodować wysokie ryzyko)
- Umów z dostawcami narzędzi AI jako podmiotami przetwarzającymi dane (Data Processing Agreement)
SAG-AFTRA: precedens dla całego świata
Po strajku SAG-AFTRA z 2023 roku związek zawarł szereg przełomowych porozumień dotyczących cyfrowych replik. Umowa Commercials Contract z kwietnia 2025 roku jako pierwsza w historii SAG-AFTRA ustanowiła szczegółowe wymogi zgody na tworzenie i używanie digital replicas. Producent musi uzyskać od aktora jasną i wyraźną zgodę (ang. clear and conspicuous), zawierającą rozsądnie szczegółowy opis planowanego użycia repliki. Standaryzowany formularz — Digital Replica Rider — jest teraz dostępny. Davis+Gilbert LLP (styczeń 2026).
Interaktywna Umowa Medialna (IMA) 2022–2028, ratyfikowana w lipcu 2025, wprowadza dodatkowe kategorie: Vocal Digital Replica (głos AI stworzony głównie z materiałów unijnych aktora) i Visual Digital Replica (wygląd aktora w nowych scenach kinowych). Dla każdej repliki wymagane jest oddzielne, pisemne porozumienie. Pracodawca ma 90 dni od premiery na dostarczenie raportu z użytkowania. FKKS Technology Law, styczeń 2026.
Polska: co mówi prawo
Polska nie ma jeszcze oddzielnej ustawy o prawach do wizerunku w kontekście AI. Obowiązują przepisy ogólne:
- Art. 81 prawa autorskiego: rozpowszechnianie wizerunku wymaga zgody osoby na nim przedstawionej; wyjątek dla powszechnie znanych osób w związku z pełnieniem funkcji publicznych
- Art. 23 Kodeksu cywilnego: wizerunek i głos jako dobra osobiste
- Kodeks karny: polska ustawa o zmianie przepisów karnych z 2024 roku penalizuje tworzenie i dystrybucję deepfake’ów do celów oszustwa, zniesławienia i treści erotycznych bez zgody; maksymalna kara 5 lat pozbawienia wolności
5. Obszar III — prawa autorskie outputów AI: EU vs USA, ZAiKS, sprawy w toku
Aktualny status w Unii Europejskiej
UE nie wprowadza w AI Act odrębnej regulacji ochrony praw autorskich do outputów AI. Art. 53 ust. 1 lit. c nakłada na dostawców modeli GPAI (np. OpenAI, Mistral, Google Gemini) obowiązek posiadania polityki respektowania prawa autorskiego UE, w tym mechanizmów opt-out dla uprawnionych (dyrektywa DSM 2019/790). Art. 53 ust. 1 lit. d wymaga publikowania podsumowania treści szkoleniowych.
W lipcu 2025 roku koalicja 40 organizacji europejskich branży kreatywnej — w tym Federation of European Publishers — publicznie potępiła podejście Komisji Europejskiej do egzekwowania Art. 53, zarzucając priorytyzowanie firm AI kosztem twórców. Ruch #StayTrueToTheAct skupia artystów z całej Europy domagających się rzetelnego egzekwowania praw autorskich od dostawców AI.
Aktualne orzecznictwo unijne jednoznacznie wymaga ludzkiego autorstwa jako warunku objęcia ochroną prawa autorskiego (por. TSUE C-683/17, Cofemel). Output generowany autonomicznie przez AI bez twórczego wkładu człowieka nie jest chroniony prawem autorskim w żadnym państwie UE.
USA: Thaler v. Perlmutter — historia pewnego orzeczenia
2 marca 2026 roku Sąd Najwyższy USA odmówił przyjęcia do rozpoznania sprawy Thaler v. Perlmutter (nr akt 25-449). Tym samym utrzymał w mocy wyrok Sądu Apelacyjnego dla Okręgu D.C. z 18 marca 2025 roku, który potwierdził odmowę rejestracji praw autorskich do obrazu wygenerowanego autonomicznie przez system AI. Sąd uznał, że wielokrotne przepisy Copyright Act zakładają, iż autor musi być człowiekiem. Baker Donelson, marzec 2026.
Sprawa nie rozstrzygnęła jednak kluczowego pytania: ile twórczego wkładu człowieka wystarczy, by output AI był chroniony? To pytanie jest przedmiotem postępowania Allen v. Perlmutter w Kolorado, gdzie artysta kwestionuje odmowę ochrony dla obrazu wygenerowanego przy użyciu ponad 600 iteracyjnych promptów w Midjourney. Raport US Copyright Office ze stycznia 2025 stwierdził, że same prompty nie są wystarczające dla ochrony autorskiej. Mayer Brown, marzec 2026.
ZAiKS i TDM opt-out
W grudniu 2024 roku Stowarzyszenie Autorów ZAiKS ogłosiło opt-out — zakaz wykorzystywania reprezentowanych przez siebie utworów (w tym scenariuszy, dialogów, muzyki filmowej) do eksploracji tekstów i danych (TDM) w celach komercyjnych, w tym trenowania modeli AI generatywnej. Podstawa prawna: dyrektywa DSM 790/2019, implementowana w polskiej ustawie o prawie autorskim (t.j. Dz.U. z 2024 r. poz. 1254). Akademia ZAiKS, kwiecień 2025.
Oznacza to, że firmy chcące trenować modele AI na polskich dziełach filmowych (dialogach, muzyce, librach) muszą najpierw uzyskać licencję od ZAiKS lub odpowiednio od twórcy. ZAiKS publikuje zastrzeżenie technicznie czytelne maszynowo (robots.txt, metadane). W marcu 2026 roku Parlament Europejski przyjął raport dotyczący AI i praw autorskich, wskazując na kluczową rolę organizacji zbiorowego zarządzania. ZAiKS.org.pl, kwiecień 2026.
Konsekwencje dla twórców filmowych
Obecny stan prawny w UE i USA prowadzi do praktycznego paradoksu: output AI generowany w 100% przez maszynę nie jest chroniony. Ale film, w którym AI wspomagało VFX, muzykę lub montaż, może być chroniony — pod warunkiem udokumentowania twórczego wkładu człowieka. Dokumentacja procesów twórczych staje się narzędziem ochrony prawnoautorskiej, nie tylko compliance.
6. Tabela: rodzaj treści AI → wymagane oznaczenia → kary
| Rodzaj treści AI w filmie | Podstawa prawna | Wymagane oznaczenia / działania | Maksymalna kara (Art. 99 AI Act) |
|---|---|---|---|
| Deepfake aktora (twarz / głos) w filmie fabularnym | Art. 50 ust. 4 AI Act | Ujawnienie w napisach końcowych lub metadanych; nie musi zakłócać odbioru dzieła | Do 15 mln EUR lub 3% obrotu |
| Deepfake niezwiązany z dziełem artystycznym (np. reklama z wizerunkiem aktora) | Art. 50 ust. 4 AI Act + RODO Art. 9 | Wyraźne oznaczenie AI-generated widoczne dla widza + pisemna zgoda aktora | Do 15 mln EUR lub 3% obrotu (+ RODO do 20 mln EUR lub 4% obrotu) |
| Syntetyczny narrator / lektor AI | Art. 50 ust. 2 (dostawca) + Art. 50 ust. 4 (deployer) | Machine-readable watermark w pliku audio; ujawnienie jeśli głos jest deepfake’iem konkretnej osoby | Do 15 mln EUR lub 3% obrotu |
| Generowane VFX / tła (środowiska, statyści) | Art. 50 ust. 2 AI Act (dostawca modelu) | Watermark metadanowy od dostawcy; producent powinien zweryfikować zgodność dostawcy | Odpowiedzialność dostawcy modelu; producent jako deployer odpowiada za ujawnienie deepfake’ów |
| Muzyka filmowa generowana przez AI | Art. 53 AI Act (GPAI), dyrektywa DSM, opt-out ZAiKS | Sprawdzenie, czy model AI nie trenował na dziełach objętych opt-out ZAiKS; licencjonowanie | Roszczenia cywilnoprawne twórców; do 15 mln EUR za naruszenie Art. 50 |
| Interaktywny chatbot AI w aplikacji filmowej (interakcja z widzem) | Art. 50 ust. 1 AI Act | Obowiązkowe poinformowanie użytkownika o interakcji z systemem AI | Do 15 mln EUR lub 3% obrotu |
| Deepfake polityczny / wyborczy (niezwiązany z produkcją artystyczną) | Art. 5 AI Act (zakaz praktyk manipulacyjnych) | Absolutny zakaz bez odpowiedniego ujawnienia; treści polityczne objęte szczególnym reżimem | Do 35 mln EUR lub 7% obrotu |
7. Festiwal Polskich Filmów Fabularnych w Gdyni 2026
Na 51. edycję Festiwalu Polskich Filmów Fabularnych (wrzesień 2026, Gdynia) należy spodziewać się rozszerzonej dyskusji o AI Act i miejscu sztucznej inteligencji w polskiej kinematografii. festiwalgdynia.pl, listopad 2025.
Producenci pracujący nad filmami z wykorzystaniem narzędzi generatywnej AI — niezależnie od tego, czy aplikują o granty, czy kierują projekty na festiwale — powinni już dziś przygotować AI Disclosure Statement: dokument opisujący, jakie narzędzia AI były wykorzystane na jakim etapie produkcji, z jakimi danymi i za czyją zgodą. To podstawa zarówno compliance z AI Act, jak i argument w rozmowach z festiwalami i publicznością.
8. Checklista compliance dla produkcji filmowej — 18 punktów
A. Przed produkcją (development i preprodukcja)
- Audyt AI tools — zidentyfikuj wszystkie narzędzia AI używane w produkcji (generowanie scenariusza, VFX, muzyka, montaż, dubbing). Sprawdź, czy każdy dostawca zapewnia Art. 50 ust. 2-compliant watermarking.
- Zgody aktorów na cyfrową replikę — dla każdego aktora, którego głos lub twarz ma być klonowana, uzyskaj pisemną zgodę zawierającą: opis planowanych zastosowań, terytorium, czas trwania, sposób kompensacji. Wzoruj się na SAG-AFTRA Digital Replica Rider.
- DPIA / FRIA — jeśli przetwarzasz dane biometryczne (skan twarzy, nagrania głosu), przeprowadź DPIA zgodnie z RODO Art. 35. Jeśli wdrażasz system AI wysokiego ryzyka — FRIA zgodnie z AI Act Art. 27.
- Weryfikacja danych treningowych narzędzi AI — upewnij się, że dostawca narzędzi AI posiada politykę praw autorskich (Art. 53 AI Act) i nie trenował modelu na dziełach objętych opt-out ZAiKS lub podobnymi zastrzeżeniami.
- Umowy z podwykonawcami VFX / AI — dodaj klauzule AI Act compliance do umów z domami VFX i studiem postprodukcji. Wymagaj od nich zgodności z Art. 50 i dostarczenia dokumentacji watermarkingu.
- Polisa ubezpieczeniowa — sprawdź, czy polisa E&O (Errors and Omissions) obejmuje ryzyko związane z naruszeniem AI Act i praw do wizerunku.
B. W trakcie produkcji
- Rejestruj każde użycie AI — prowadź dziennik produkcyjny z datą, narzędziem, promptem lub parametrami, nazwiskiem operatora AI i efektem. To podstawa dokumentacji prawnoautorskiej i compliance.
- Oznaczaj surowe materiały — każdy syntetyczny materiał (AI-generated frame, AI-generated audio) powinien być oznaczony już na poziomie pliku roboczego (metadane XMP, C2PA jeśli dostawca wspiera standard).
- Rozpoznawanie emocji — nie — nie używaj systemów AI do analizy emocji aktorów lub pracowników na planie. Art. 5 ust. 1 lit. f AI Act zakazuje tego w miejscu pracy. Wyjątek: badania medyczne lub bezpieczeństwo pracy, z odpowiednimi zabezpieczeniami.
- Monitoring scenarzystów i efektów głosu — jeśli używasz AI do generowania dialogów, upewnij się, że prawa do inputu (dialogi, scenariusze) nie są objęte opt-out ZAiKS ani innymi zastrzeżeniami twórców.
C. Postprodukcja i dystrybucja
- AI Disclosure w EPK — przygotuj sekcję AI Disclosure w Electronic Press Kit. Opisz, jakie narzędzia AI i na jakim etapie produkcji były użyte. Skieruj ją do festiwali, platform i prasy.
- Oznaczenia w napisach końcowych — dla filmów z elementami deepfake lub syntetycznych postaci: dodaj informację w napisach końcowych, np. Certain visual/audio sequences in this film were generated or altered using artificial intelligence tools.
- Metadane platformowe — informuj dystrybutorów (Netflix, HBO, Amazon, TVP VOD) o treściach AI, aby mogli prawidłowo oznaczyć materiał w swoich systemach metadanych.
- Sprawdzenie watermarku — przed finalnym eksportem pliku zweryfikuj, czy narzędzie VFX/generatywne dostarczyło machine-readable watermark. Zachowaj zrzut potwierdzenia zgodności (Compliance Record).
- Treści reklamowe i promocyjne — teasery, spoty reklamowe, materiały do mediów społecznościowych z AI wymagają widocznego oznaczenia (nie tylko metadanowego). Zgodnie z Art. 50 ust. 4 — widz musi być poinformowany.
D. Zarządzanie i szkolenia
- Szkolenie zespołu — AI literacy to obowiązek z Art. 4 AI Act. Producent jako pracodawca powinien zadbać o szkolenie pracowników używających AI w zakresie podstawowych zasad AI Act.
- Wewnętrzna polityka AI — opracuj dokument Policy on AI Use in Production, obejmujący: listę dopuszczonych narzędzi, procedurę uzyskiwania zgód, zasady oznaczania, osobę odpowiedzialną (AI Compliance Officer).
- Monitoring zmian prawnych — AI Act będzie ewoluować (wytyczne Komisji z Art. 96, kody praktyk). Wyznacz osobę odpowiedzialną za śledzenie aktualizacji, w tym polskich przepisów implementacyjnych i wytycznych UODO.
9. YouTube — zalecane materiały edukacyjne
- Analyzing the AI Act’s approach to deep fakes (ACIG Voice, wrzesień 2024) — wywiad z Mateuszem Łabuzem, analiza Art. 50 AI Act. YouTube ↗
- EU AI Act 2025 — What Creators & Developers MUST Know (sierpień 2025) — obowiązki GPAI od 2 sierpnia 2025. YouTube ↗
- EU AI Act: Creative Industries Revolt Against Copyright Infringement (Pop Culture Files, lipiec 2025) — debata o Art. 53 AI Act i ruch #StayTrueToTheAct. YouTube ↗
- Copyright of AI-generated works: approaches in the EU and beyond (kwiecień 2026) — status praw autorskich do outputów AI w UE i na świecie. YouTube ↗
- Rozporządzenie AI Act — kluczowe wymogi od 2 sierpnia 2025 r. (sierpień 2025, PL) — polskie omówienie obowiązków GPAI i sankcji. YouTube ↗
Podsumowanie — pięć wniosków dla branży filmowej
- Sierpień 2026 to twarda data — pełne stosowanie Art. 50 AI Act. Producenci, którzy nie mają wdrożonych procedur znakowania treści AI, narażają się na realne sankcje.
- Wyjątek artystyczny istnieje, ale nie zwalnia z ujawnienia — Art. 50 ust. 4 pozwala na elastyczne oznaczenie deepfake’ów w dziełach artystycznych, ale nie na całkowite przemilczanie faktu użycia AI.
- Zgoda aktora to absolutny fundament — klonowanie głosu i twarzy bez pisemnej, szczegółowej zgody to naruszenie RODO, prawa cywilnego i możliwe naruszenie Art. 5 AI Act. Wzór: SAG-AFTRA Digital Replica Rider.
- Output AI bez ludzkiego wkładu nie jest chroniony — dokumentuj twórczy udział człowieka na każdym etapie, by móc skutecznie chronić prawa autorskie do finalnego dzieła.
- ZAiKS opt-out to nowe ryzyko dla dystrybucji — jeśli model AI, z którego korzystasz, trenował na dziełach objętych opt-out ZAiKS bez licencji, możesz być narażony na roszczenia. Wymagaj od dostawców AI transparentności danych treningowych (Art. 53 ust. 1 lit. d AI Act).
Źródła
- Rozporządzenie (UE) 2024/1689 — AI Act — EUR-Lex
- AI Act — pełny tekst HTML, Dziennik Urzędowy UE
- Komisja Europejska — AI Act regulatory framework
- ZAiKS — Co nowego w ZAiKS-ie (kwiecień 2026)
- Akademia ZAiKS — TDM i AI (2025)
- Gazeta Prawna — ZAiKS kontra AI (2025)
- SAG-AFTRA — oficjalna strona
- Davis+Gilbert LLP — SAG-AFTRA Digital Replica Rider (styczeń 2026)
- FKKS — SAG-AFTRA Interactive Media Agreement 2025 (styczeń 2026)
- Baker Donelson — Thaler v. Perlmutter: SC Denies Cert (marzec 2026)
- Mayer Brown — AI Authorship Case (marzec 2026)
- DC Circuit — Thaler v. Perlmutter, wyrok z 18 marca 2025 (PDF)
- Fast Company — AI digital resurrection and actors (marzec 2026)
- LAist — Hollywood pushes OpenAI for consent (październik 2025)
- IAPP — Mapping AI Act and GDPR interplays (kwiecień 2026)
- Festiwal Polskich Filmów Fabularnych Gdynia — 51. edycja 2026
- Variety — YouTube supports NO FAKES Act (kwiecień 2025)