30 września 2025 roku OpenAI wypuściło Sora 2 — drugą generację swojego modelu wideo. To, co jeszcze rok temu wydawało się eksperymentem, dziś staje się standardowym narzędziem w pipeline’ie produkcyjnym. Dla AMA Film Center to potwierdzenie kierunku, który obraliśmy w 2024 roku otwierając kierunek VFX & AI Production i studio AMA AI Film.
Co potrafi Sora 2
Najważniejsze zmiany względem pierwszej wersji:
- Długość wideo do 25 sekund (było 6) — kompletne ujęcia, nie krótkie clipy
- Synchroniczny dźwięk generowany w jednym przebiegu z obrazem — dialogi z lip-sync, ambient, foley, muzyka
- Realistyczna fizyka — model rozumie grawitację, zachowanie obiektów, kolizje. Film się nie „ślizga”
- Spójność postaci ~95% w wieloujęciowych sekwencjach — to klucz dla narracji
- Cinematic Camera Control — opisujesz „drone shot golden hour”, „close-up rim light”, model rozumie język filmowy
- Cameo Feature — wstawianie własnego wizerunku po zgodzie, z możliwością cofnięcia w każdym momencie
Co to oznacza dla polskich produkcji
W Polsce już teraz mamy pierwsze konkretne realizacje hybrydowe. „Franz” Agnieszki Holland użył AI do poprawy językowej — film stał się polską nominacją do Oscara 2026. „Brutalista” dostał 3 Oscary mimo wykorzystania AI w postprodukcji aktorskiego akcentu. „Alysia: Pomiędzy Gwiazdami a Ziemią” z lutego 2025 to pierwszy polski serial sci-fi stworzony w pełni z wsparciem AI (Bogaczewicz Film Studio).
Sora 2 obniża barierę wejścia jeszcze bardziej. Studio shortu reklamowego może oszczędzić 30-60% budżetu na preprodukcji i VFX. Pełnometrażówka z plenerem live action — 10-20%, bo AI nie zastąpi zdjęciowego planu, ekipy, sprzętu.
Pipeline z Sora 2 w AMA
W AMA AI Film używamy Sora 2 razem z Veo 3.1 (Google), Runway Gen-4 i Kling 2.6 — agregowanymi przez Freepik AI Suite. ComfyUI obsługuje lokalne pipeline’y dla projektów wymagających pełnej kontroli IP. Topaz Video AI zajmuje się upscalingiem do 4K, ElevenLabs robi dubbing wielojęzyczny.
To nie zastępuje filmowca — przesuwa role. Reżyser staje się prompt engineerem, scenarzysta uczy się myśleć modułowo, operator obrazu łączy zdjęcia z compositingiem. Wszystkiego tego uczymy w AMA Film Academy.
Co dalej w 2026
OpenAI w roadmapie zapowiada wydłużenie generacji do minutowych ujęć, lepszą kontrolę kamery, rozszerzone Cameos (zwierzęta, zabawki, wygenerowane postaci). Veo 3.1 odpowiedział wsparciem dla pionowego 9:16 i upscalingiem do 4K. Wyścig technologiczny ogranicza tylko regulacje — AI Act EU obowiązujący od 2026 wymusza oznaczanie treści generowanych i transparentność pipeline’u.
Dla AMA to dobry kierunek. Świadome AI to lepsze AI — i taki warsztat oferujemy w naszej szkole.
