Seedance2

Seedance 2.0 Omni-Reference — Wejście multimodalne

Według oficjalnego ByteDance Blog nasion (luty 2026 r.), Seedance 2.0 wykorzystuje jednolity gazociąg multimodalny: można połączyć tekst z do 9 obrazów, 3 klipy wideo i 3 ścieżki audio w jednym wniosku (z zastrzeżeniem limitów platformy). Model może odnosić się do składu, ruchu, kamery, efektów i dźwięku z tych wejść. Niniejsza sekcja podsumowuje publiczny opis tego systemu.

Ostatnia aktualizacja:

Ostatnia weryfikacja:

Częstotliwość odświeżania: Co kilka dni

Podstawa źródłowa i granica odczytu

Wytyczne te są napisane jako streszczenia referencyjne stron trzecich, a nie oficjalnej dokumentacji produktu lub zawartości wsparcia.

Wykorzystane źródła

Skopiowane z ByteDance Materiał do uruchomienia nasion opublikowany 12 lutego 2026 roku, strona projektu publicznego, i wybrane trzyosobowe tutoriale, porównania, i workflow write- up.

Granica

Używaj tych stron do zrozumienia roszczeń publicznych, wspólnych przepływów pracy i terminologii. Nie należy odczytywać ich jako oficjalnego wsparcia, autoryzacji lub oświadczenia właściciela produktu.

Terminy

Portale, ceny, UI, wsparcie językowe, szybkość generacji i API dostępność może ulec zmianie. Sprawdzić aktualne dane ze źródeł urzędowych lub pierwotnych przed ich oparciem.

Podstawa źródłowa

Ta strona podsumowuje publicznie dostępne materiały. Specyfikacje, ceny i dostęp mogą się zmieniać—sprawdź u źródeł pierwotnych przed podjęciem decyzji.

Prompt templates

Prompt template cluster

Use the dedicated prompt-template cluster for reusable templates, daily Input / Output updates, and future media evidence.

Coming soon (no assets yet)

Explore prompt templates

Obsługiwane wejścia

Tekst: Natural- language short. Obrazy: często do 9 (np. 30 MB każdy w niektórych dokach). Wideo: do 3 klipów, często 2- 15 s łącznie, ~ 50 MB za klip. Audio: do 3 plików, często ≤ 15 s łącznie, ~ 15 MB każdy. Łącznie do 12 plików referencyjnych za jednym zamachem. Model wykorzystuje je do układania, ruchu, kamery, stylu i dźwięku, zgodnie z kierunkiem i @ tagami.

@ tag reference system

Możesz odsyłać do przesłanych aktywów w instrukcji z @ tags (np. @Image1, @Video1, @Audio1). Przykłady z dokumentów publicznych: "@Image1 jako pierwsza rama "," Reference @Video1 do ruchu kamery "," Zastosowanie @Audio1 dla muzyki w tle ". Daje to precyzyjną kontrolę nad tym, który obraz napędza postać, który film napędza ruch, a który audio napędza muzykę lub dialog.

@ praktyczne przykłady referencji

Typowe wzorce @ tagów Omni-Reference: (1) Blokada pierwszej klatki: '@Image1 jako klatka otwarcia, postać idzie w stronę kamery' — mocuje kompozycję startową. (2) Spójność postaci: 'Ta sama postać co @Image1, ten sam strój co @Image2' — blokuje tożsamość między ujęciami. (3) Replikacja kamery: 'Powtórz ruch kamery z @Video1, zastosuj do nowej sceny z @Image1' — przenosi ścieżkę ruchu. (4) Audio: '@Audio1 jako muzyka w tle, synchronizacja ust z @Audio2' — rozdziela muzykę i głos. (5) Múlti-referencja: '@Image1 postać, @Image2 tło, @Video1 kamera, @Audio1 dźwięk otoczenia' — pełne złożenie sceny z 4 referencji. Zawsze określaj rolę każdego zasobu w prompcie.

@ praktyczne przykłady referencji

Typowe wzorce @ tagów Omni-Reference: (1) Blokada pierwszej klatki: '@Image1 jako klatka otwarcia, postać idzie w stronę kamery' — mocuje kompozycję startową. (2) Spójność postaci: 'Ta sama postać co @Image1, ten sam strój co @Image2' — blokuje tożsamość między ujęciami. (3) Replikacja kamery: 'Powtórz ruch kamery z @Video1, zastosuj do nowej sceny z @Image1' — przenosi ścieżkę ruchu. (4) Audio: '@Audio1 jako muzyka w tle, synchronizacja ust z @Audio2' — rozdziela muzykę i głos. (5) Múlti-referencja: '@Image1 postać, @Image2 tło, @Video1 kamera, @Audio1 dźwięk otoczenia' — pełne złożenie sceny z 4 referencji. Zawsze określaj rolę każdego zasobu w prompcie.

Native audio-video generation

Seedance 2.0 generuje obraz i dźwięk w jednym procesie joint (nie post-dubbing). Obsługuje wyjście stereo, synchronizację lip (w tym wiele języków w raportach publicznych) oraz dopasowanie muzyki i efektów dźwiękowych do obrazu. Przydatne do reklam, MV i klipów o dużej skali.

Często zadawane pytania

Ile obrazów referencyjnych mogę użyć?

Według dokumentacji publicznej, do 9 obrazów w jednym wniosku, plus 3 filmy i 3 pliki audio. Sprawdź obecne limity i zasady wielkości plików platformy.

Jakie wejścia obsługuje Seedance 2.0 multimodal?

Według publicznych raportów Seedance 2.0 obsługuje tekst, do 9 obrazów, 3 klipy wideo i 3 ścieżki audio plus język naturalny. Do 12 plików referencyjnych na wniosek. Zobacz nasz tutorial dla pełnego przepływu.

Seedance 2.0 Tutorial — Jak używać tekst-do-wideo i obraz-do-wideo (krok po kroku)

Jak wejście audio wpływa na wyjście wideo?

Według dokumentacji publicznej wejście audio może sterować muzyką w tle, dialogiem lub efektami dźwiękowymi. Model generuje obraz i dźwięk wspólnie, z dźwiękiem zsynchronizowanym z obrazem. Obsługuje wielojęzyczną synchronizację warg. Zobacz nasz tutorial dla więcej.

Seedance 2.0 Tutorial — Jak używać tekst-do-wideo i obraz-do-wideo (krok po kroku)

Czy mogę łączyć odniesienia do obrazów i wideo?

Tak. Według dokumentacji publicznej możesz połączyć do 9 obrazów i 3 klipów wideo w jednym wniosku. Użyj tagów @ w podpowiedzi, aby przypisać rolę każdego zasobu. Zobacz nasz przewodnik obraz-do-wideo dla szczegółów.

Seedance 2.0 Przewodnik obraz-do-wideo — Animuj dowolny obraz za pomocą AI

Related capabilities

Przewodniki powiązane

Poznaj więcej przewodników

Reviewer
Zweryfikowane przez zespół redakcyjny Seedance2
Ostatnia weryfikacja
Content basis
Kompilacja ze źródeł publicznych przez stronę trzecią

Ta treść została skompilowana z publicznie dostępnych materiałów i nie stanowi oficjalnej dokumentacji produktu.