Seedance2
探索 Elser.ai

指南

Seedance 2.0 全能參考(Omni-Reference)— 多模態輸入指南

Seedance 2.0 擁有全能參考(Omni-Reference)系統 — 一套統一的多模態管線,單次可組合文本與最多 9 張圖、3 段影片、3 段音頻(以平台為準)。根據字節 Seed 官方部落格(2026 年 2 月),模型可參考這些輸入的構圖、動作、運鏡、特效與聲音。本節整理全能參考系統的公開描述,具體規格請以平台為準。

最後更新: 最後核驗:

來源基礎與閱讀邊界

這些指南按第三方參考站方式整理,用來解釋公開資訊與常見用法,不等同於官方產品文件或官方支援內容。

來源依據

支援的輸入

文本:自然語言提示。圖片:通常最多 9 張(部分文檔約 30 MB/張)。影片:最多 3 段,總時長約 2–15 秒,單段約 50 MB。音頻:最多 3 個,總時長約 ≤15 秒,約 15 MB/個。單次合計最多 12 個參考檔案。根據公開資訊,模型按提示與 @ 標籤使用它們控制構圖、動作、運鏡與聲音。可同時使用圖片和影片參考,用 @ 標籤在提示詞中指定各素材用途。

@ 標籤引用

在提示詞中用 @ 引用上傳素材(如 @Image1、@Video1、@Audio1)。公開範例:「@Image1 作為首幀」「參考 @Video1 的運鏡」「使用 @Audio1 作為背景音樂」。可精確指定哪張圖管角色、哪段影片管動作、哪段音頻管音樂或對白。以平台為準,部分介面可能使用不同標記方式。

@ 引用實戰範例

全能參考(Omni-Reference)常見 @ 用法:(1)首幀鎖定:'@Image1 作為首幀,角色走向鏡頭' — 固定開場構圖。(2)角色一致性:'與 @Image1 同一角色,穿著與 @Image2 相同服裝' — 跨鏡頭鎖定身份。(3)運鏡複刻:'複製 @Video1 的運鏡,應用於新場景,@Image1 為主體' — 遷移運動軌跡。(4)音頻驅動:'@Audio1 作為背景音樂,@Audio2 驅動口型對白' — 分離音樂與人聲。(5)多素材組合:'@Image1 為角色,@Image2 為背景,參考 @Video1 運鏡,@Audio1 為環境音' — 4 個參考組成完整場景。務必在提示詞中寫明每個素材的用途,未指定的素材可能被忽略。

原生音影片聯合生成

根據公開報導,Seedance 2.0 在單次生成中同時輸出畫面與音頻(非後期配音),支援立體聲與多語種口型同步,音樂和音效與畫面節奏對齊,適合廣告、MV 與對白較多的片段。音頻輸入可驅動背景音樂、對白或音效,與畫面聯合生成。以平台為準,具體輸入限制與檔案大小請查閱官方文檔。

常見問題

可以用幾張參考圖?

據公開文檔,單次最多 9 張圖,另可加 3 段視頻與 3 段音頻。請以您所用平台的當前限制與檔案大小為準。

Seedance 2.0 多模態支援哪些輸入?

根據公開資訊,Seedance 2.0 支援文本、最多 9 張圖、3 段視頻、3 段音頻加自然語言。單次合計最多 12 個參考檔案。詳見本站教程了解完整流程。

音頻輸入如何影響視頻輸出?

根據公開文檔,音頻輸入可驅動背景音樂、對白或音效。模型會聯合生成畫面與音頻,音效與畫面節奏對齊。支援多語種口型同步。詳見本站教程。

可以同時使用圖片和視頻參考嗎?

可以。據公開文檔,單次可組合最多 9 張圖與 3 段視頻,用 @ 標籤在提示詞中指定各素材用途。詳見本站圖生視頻指南。

相關指南