Dźwięk to dziedzina, w której AI zrobiło w ostatnich dwóch latach większy postęp niż obraz. ElevenLabs, Suno, Udio i kilka mniejszych narzędzi zmieniły workflow postprodukcji. Pokazujemy, jak korzystamy z nich w AMA — i gdzie celowo zostawiamy człowieka.
Voice repair i ADR z AI
ElevenLabs Voice Isolator i Voice Restore w 2026 robią rzeczy, których jeszcze trzy lata temu nie umiał zrobić nikt: usuwają wiatr, klimatyzację, drobne pomyłki dykcji aktora. ADR (post-sync) skraca się o połowę — aktor nagrywa raz, AI wpasowuje w usta.
Voice cloning — etyka i prawo
Klonowanie głosu jest dozwolone tylko z pisemną zgodą aktora. AMA Film Center zawsze podpisuje osobną klauzulę wizerunku głosowego. Bez zgody klonowanie to przestępstwo — kara do 3 lat więzienia w Polsce po wejściu AI Act.
Dubbing wielojęzyczny
Festiwal w Sundance — jedna wersja angielska. Festiwal w Cannes — francuska, niemiecka, hiszpańska. Dawniej dubbing zajmował tygodnie i kosztował krocie. Dziś ElevenLabs Multilingual robi to w 24 godziny, z zachowaniem tonu głosu aktora — pod warunkiem zgody.
Generatywna muzyka — szkic vs. master
Suno i Udio dają świetne szkice kompozycyjne. Reżyser i kompozytor słuchają 50 wariantów i wybierają kierunek. Ale finalny score nadal pisze i nagrywa kompozytor — bo emocje filmu wymagają dialogu z reżyserem, a nie generacji.
Foley — wciąż człowiek
Foley to obszar, gdzie AI w 2026 wciąż przegrywa z foley artist. Generatywne dźwięki kroków, otwierania drzwi, papieru są syntetyczne i „płaskie”. Audytywnie dobry foley wymaga człowieka z mikrofonem na podłodze.
Co zostawiamy AI, co człowiekowi
AI: voice repair, dubbing, szkice muzyki, ambient ze stockowych bazujących na ML. Człowiek: foley, mix finalny, mastering, decyzje o emocjach. To podział, który działa w 2026 i przewidujemy, że utrzyma się jeszcze 3-5 lat.