Seedance 2.0 オムニリファレンス(Omni-Reference)— マルチモーダル入力ガイド
公式によると ByteDance シードブログ (Feb 2026), Seedance 2.0 統一されたマルチモーダルパイプラインを使用する: テキストを最大9の画像、3つのビデオクリップ、および1つのリクエストで3つのオーディオトラックと組み合わせることができます(プラットフォームの限界に差し込む)。 このモデルは、これらの入力から構成、モーション、カメラ、エフェクト、および音を参照することができます。 このセクションでは、そのシステムの公開説明をまとめました。
最終更新:
最終確認日:
更新頻度: 数日おき
ソースベースと読書境界
これらのガイドは、公式の製品ドキュメントやサポートコンテンツではなく、サードパーティの参照の要約として書かれています。
使用されるソース
ByteDance の 2026年2月12日公開 Seedance 起動資料、公開プロジェクトページ、および選定したサードパーティのチュートリアル・比較・ワークフロー解説から構成。
バウンダリー
これらのページを使用して、公共のクレーム、一般的なワークフロー、および用語の理解を行います。 正式なサポート、承認、または製品所有者の声明としてそれらを読みません。
タイムライン
ポータル、価格設定、UI、言語サポート、世代別スピード、 API 提供状況は変更される場合があります。 それらに依存する前に、公式またはプライマリソースで現在の詳細を確認します。
参照元
このページは公開情報を要約しています。仕様・価格・提供状況は変わる可能性があるため、意思決定前に一次情報で再確認してください。
- ByteDance official launch blog: Seedance 2.0
official · 2026-03-27
- ByteDance Seedance 2.0 project page
official · 2026-03-27
プロンプトテンプレート
プロンプトテンプレート特集
再利用できるテンプレート、日次の Input / Output 更新、今後の素材証拠は専用の prompt-templates クラスターで管理します。
Coming soon(素材未登録)
Prompt Templates を見る対応する入力
テキスト:自然言語プロンプト。 イメージ: 多くの場合、最大 9 (例: ドキュメントの各 30 MB)。 ビデオ:クリップあたり最大3個のクリップ、多くの場合2〜15秒、〜50 MB。 可聴周波: 3 までのファイル、頻繁に ≤15 の s の合計、~15 MB 各。 1 つで最大 12 個の参照ファイルを合計します。 モデルは、レイアウト、モーション、カメラ、スタイル、およびサウンドのためにそれらを使用します。 プロンプトと@タグ。
@ タグ参照システム
アップロードされたアセットを@タグ(例:@タグ)で表示できます。 @Image1, @Video1, @Audio1)。 パブリックドキュメントの例:@Image1 「第一フレームとして」参照 @Video1 「カメラの動きのために」 @Audio1 背景音楽のため。 これは、ビデオがモーションを駆動し、オーディオが音楽や対話を駆動するキャラクターを駆動するイメージを正確に制御します。
@ リファレンス実践例
Omni-Reference の一般的な @ タグパターン:(1) 初期フレーム固定:'@Image1 を最初のフレームとし、キャラクターがカメラに向かって歩く' — 開始構図を固定。(2) キャラクター一貫性:'@Image1 と同じキャラクター、@Image2 と同じ服装' — ショット間でID固定。(3) カメラ複製:'@Video1 のカメラワークを複製し、@Image1 を主体とする新シーンに適用' — モーションパス転送。(4) オーディオ駆動:'@Audio1 をBGMに、@Audio2 でリップシンク対話' — 音楽とボイスを分離。(5) マルチリファレンス:'@Image1 をキャラクター、@Image2 を背景、@Video1 のカメラワーク、@Audio1 を環境音' — 4素材でシーン構築。プロンプトで各素材の役割を明示してください。
@ リファレンス実践例
Omni-Reference の一般的な @ タグパターン:(1) 初期フレーム固定:'@Image1 を最初のフレームとし、キャラクターがカメラに向かって歩く' — 開始構図を固定。(2) キャラクター一貫性:'@Image1 と同じキャラクター、@Image2 と同じ服装' — ショット間でID固定。(3) カメラ複製:'@Video1 のカメラワークを複製し、@Image1 を主体とする新シーンに適用' — モーションパス転送。(4) オーディオ駆動:'@Audio1 をBGMに、@Audio2 でリップシンク対話' — 音楽とボイスを分離。(5) マルチリファレンス:'@Image1 をキャラクター、@Image2 を背景、@Video1 のカメラワーク、@Audio1 を環境音' — 4素材でシーン構築。プロンプトで各素材の役割を明示してください。
ネイティブオーディオビデオ生成
Seedance 2.0 単一の共同プロセスでビデオとオーディオを生成します(後退しません)。 ステレオ出力、リップシンク(パブリックレポートに複数の言語を含む)、映像による音楽と音響効果のアライメントをサポートします。 広告、MV、および対話重いクリップに便利です。
よくある質問
参照画像はいくつ使えますか?
パブリックドキュメンテーションによると、1つのリクエストで最大9個の画像と3つのビデオと3つのオーディオファイル。 プラットフォームの現在の制限とファイルサイズ規則を確認してください。
Seedance 2.0 マルチモーダルはどの入力に対応していますか?
公開情報によると、Seedance 2.0 はテキスト、最大9画像、3ビデオクリップ、3オーディオトラックに自然言語を加えた入力をサポート。1リクエストあたり最大12の参照ファイル。詳細はチュートリアルをご覧ください。
Seedance 2.0 チュートリアル — テキストから動画・画像から動画の使い方(ステップバイステップ)オーディオ入力はビデオ出力にどう影響しますか?
公開ドキュメントによると、オーディオ入力はBGM、台詞、効果音を駆動できます。モデルは画像と音声を同時生成し、音声は映像に同期。多言語リップシンク対応。詳しくはチュートリアルをご覧ください。
Seedance 2.0 チュートリアル — テキストから動画・画像から動画の使い方(ステップバイステップ)画像とビデオの参照を組み合わせられますか?
はい。公開ドキュメントによると、1リクエストで最大9画像と3ビデオクリップを組み合わせ可能。プロンプトで@タグを使い各アセットの役割を指定。図生動画ガイドをご覧ください。
Seedance 2.0 画像から動画ガイド — AIであらゆる画像をアニメーション化Related capabilities
関連ガイド
- Seedance 2.0 チュートリアル — テキストから動画・画像から動画の使い方(ステップバイステップ)
- Seedance 2.0 技術アーキテクチャ
- Seedance 2.0 プロンプト作成のコツ — より良い動画プロンプトの書き方
ガイドを見る