Seedance2

Przewodnik

Seedance 2.0 Omni-Reference — Wejście multimodalne

Według oficjalnego ByteDance Blog nasion (luty 2026 r.), Seedance 2.0 wykorzystuje jednolity gazociąg multimodalny: można połączyć tekst z do 9 obrazów, 3 klipy wideo i 3 ścieżki audio w jednym wniosku (z zastrzeżeniem limitów platformy). Model może odnosić się do składu, ruchu, kamery, efektów i dźwięku z tych wejść. Niniejsza sekcja podsumowuje publiczny opis tego systemu.

Ostatnia aktualizacja: Ostatnia weryfikacja:

Podstawa źródłowa i granica odczytu

Wytyczne te są napisane jako streszczenia referencyjne stron trzecich, a nie oficjalnej dokumentacji produktu lub zawartości wsparcia.

Podstawa źródłowa

Obsługiwane wejścia

Tekst: Natural- language short. Obrazy: często do 9 (np. 30 MB każdy w niektórych dokach). Wideo: do 3 klipów, często 2- 15 s łącznie, ~ 50 MB za klip. Audio: do 3 plików, często ≤ 15 s łącznie, ~ 15 MB każdy. Łącznie do 12 plików referencyjnych za jednym zamachem. Model wykorzystuje je do układania, ruchu, kamery, stylu i dźwięku, zgodnie z kierunkiem i @ tagami.

@ tag reference system

Możesz odsyłać do przesłanych aktywów w instrukcji z @ tags (np. @Image1, @Video1, @Audio1). Przykłady z dokumentów publicznych: "@Image1 jako pierwsza rama "," Reference @Video1 do ruchu kamery "," Zastosowanie @Audio1 dla muzyki w tle ". Daje to precyzyjną kontrolę nad tym, który obraz napędza postać, który film napędza ruch, a który audio napędza muzykę lub dialog.

@ praktyczne przykłady referencji

Typowe wzorce @ tagów Omni-Reference: (1) Blokada pierwszej klatki: '@Image1 jako klatka otwarcia, postać idzie w stronę kamery' — mocuje kompozycję startową. (2) Spójność postaci: 'Ta sama postać co @Image1, ten sam strój co @Image2' — blokuje tożsamość między ujęciami. (3) Replikacja kamery: 'Powtórz ruch kamery z @Video1, zastosuj do nowej sceny z @Image1' — przenosi ścieżkę ruchu. (4) Audio: '@Audio1 jako muzyka w tle, synchronizacja ust z @Audio2' — rozdziela muzykę i głos. (5) Múlti-referencja: '@Image1 postać, @Image2 tło, @Video1 kamera, @Audio1 dźwięk otoczenia' — pełne złożenie sceny z 4 referencji. Zawsze określaj rolę każdego zasobu w prompcie.

@ praktyczne przykłady referencji

Typowe wzorce @ tagów Omni-Reference: (1) Blokada pierwszej klatki: '@Image1 jako klatka otwarcia, postać idzie w stronę kamery' — mocuje kompozycję startową. (2) Spójność postaci: 'Ta sama postać co @Image1, ten sam strój co @Image2' — blokuje tożsamość między ujęciami. (3) Replikacja kamery: 'Powtórz ruch kamery z @Video1, zastosuj do nowej sceny z @Image1' — przenosi ścieżkę ruchu. (4) Audio: '@Audio1 jako muzyka w tle, synchronizacja ust z @Audio2' — rozdziela muzykę i głos. (5) Múlti-referencja: '@Image1 postać, @Image2 tło, @Video1 kamera, @Audio1 dźwięk otoczenia' — pełne złożenie sceny z 4 referencji. Zawsze określaj rolę każdego zasobu w prompcie.

Native audio-video generation

Seedance 2.0 generuje obraz i dźwięk w jednym procesie joint (nie post-dubbing). Obsługuje wyjście stereo, synchronizację lip (w tym wiele języków w raportach publicznych) oraz dopasowanie muzyki i efektów dźwiękowych do obrazu. Przydatne do reklam, MV i klipów o dużej skali.

Często zadawane pytania

Ile obrazów referencyjnych mogę użyć?

Według dokumentacji publicznej, do 9 obrazów w jednym wniosku, plus 3 filmy i 3 pliki audio. Sprawdź obecne limity i zasady wielkości plików platformy.

Jakie wejścia obsługuje Seedance 2.0 multimodal?

Według publicznych raportów Seedance 2.0 obsługuje tekst, do 9 obrazów, 3 klipy wideo i 3 ścieżki audio plus język naturalny. Do 12 plików referencyjnych na wniosek. Zobacz nasz tutorial dla pełnego przepływu.

Jak wejście audio wpływa na wyjście wideo?

Według dokumentacji publicznej wejście audio może sterować muzyką w tle, dialogiem lub efektami dźwiękowymi. Model generuje obraz i dźwięk wspólnie, z dźwiękiem zsynchronizowanym z obrazem. Obsługuje wielojęzyczną synchronizację warg. Zobacz nasz tutorial dla więcej.

Czy mogę łączyć odniesienia do obrazów i wideo?

Tak. Według dokumentacji publicznej możesz połączyć do 9 obrazów i 3 klipów wideo w jednym wniosku. Użyj tagów @ w podpowiedzi, aby przypisać rolę każdego zasobu. Zobacz nasz przewodnik obraz-do-wideo dla szczegółów.

Przewodniki powiązane