Seedance2

Seedance 2.0 オムニリファレンス(Omni-Reference)— マルチモーダル入力ガイド

公式によると ByteDance シードブログ (Feb 2026), Seedance 2.0 統一されたマルチモーダルパイプラインを使用する: テキストを最大9の画像、3つのビデオクリップ、および1つのリクエストで3つのオーディオトラックと組み合わせることができます(プラットフォームの限界に差し込む)。 このモデルは、これらの入力から構成、モーション、カメラ、エフェクト、および音を参照することができます。 このセクションでは、そのシステムの公開説明をまとめました。

最終更新:

最終確認日:

更新頻度: 数日おき

ソースベースと読書境界

これらのガイドは、公式の製品ドキュメントやサポートコンテンツではなく、サードパーティの参照の要約として書かれています。

使用されるソース

ByteDance の 2026年2月12日公開 Seedance 起動資料、公開プロジェクトページ、および選定したサードパーティのチュートリアル・比較・ワークフロー解説から構成。

バウンダリー

これらのページを使用して、公共のクレーム、一般的なワークフロー、および用語の理解を行います。 正式なサポート、承認、または製品所有者の声明としてそれらを読みません。

タイムライン

ポータル、価格設定、UI、言語サポート、世代別スピード、 API 提供状況は変更される場合があります。 それらに依存する前に、公式またはプライマリソースで現在の詳細を確認します。

参照元

このページは公開情報を要約しています。仕様・価格・提供状況は変わる可能性があるため、意思決定前に一次情報で再確認してください。

プロンプトテンプレート

プロンプトテンプレート特集

再利用できるテンプレート、日次の Input / Output 更新、今後の素材証拠は専用の prompt-templates クラスターで管理します。

Coming soon(素材未登録)

Prompt Templates を見る

対応する入力

テキスト:自然言語プロンプト。 イメージ: 多くの場合、最大 9 (例: ドキュメントの各 30 MB)。 ビデオ:クリップあたり最大3個のクリップ、多くの場合2〜15秒、〜50 MB。 可聴周波: 3 までのファイル、頻繁に ≤15 の s の合計、~15 MB 各。 1 つで最大 12 個の参照ファイルを合計します。 モデルは、レイアウト、モーション、カメラ、スタイル、およびサウンドのためにそれらを使用します。 プロンプトと@タグ。

@ タグ参照システム

アップロードされたアセットを@タグ(例:@タグ)で表示できます。 @Image1, @Video1, @Audio1)。 パブリックドキュメントの例:@Image1 「第一フレームとして」参照 @Video1 「カメラの動きのために」 @Audio1 背景音楽のため。 これは、ビデオがモーションを駆動し、オーディオが音楽や対話を駆動するキャラクターを駆動するイメージを正確に制御します。

@ リファレンス実践例

Omni-Reference の一般的な @ タグパターン:(1) 初期フレーム固定:'@Image1 を最初のフレームとし、キャラクターがカメラに向かって歩く' — 開始構図を固定。(2) キャラクター一貫性:'@Image1 と同じキャラクター、@Image2 と同じ服装' — ショット間でID固定。(3) カメラ複製:'@Video1 のカメラワークを複製し、@Image1 を主体とする新シーンに適用' — モーションパス転送。(4) オーディオ駆動:'@Audio1 をBGMに、@Audio2 でリップシンク対話' — 音楽とボイスを分離。(5) マルチリファレンス:'@Image1 をキャラクター、@Image2 を背景、@Video1 のカメラワーク、@Audio1 を環境音' — 4素材でシーン構築。プロンプトで各素材の役割を明示してください。

@ リファレンス実践例

Omni-Reference の一般的な @ タグパターン:(1) 初期フレーム固定:'@Image1 を最初のフレームとし、キャラクターがカメラに向かって歩く' — 開始構図を固定。(2) キャラクター一貫性:'@Image1 と同じキャラクター、@Image2 と同じ服装' — ショット間でID固定。(3) カメラ複製:'@Video1 のカメラワークを複製し、@Image1 を主体とする新シーンに適用' — モーションパス転送。(4) オーディオ駆動:'@Audio1 をBGMに、@Audio2 でリップシンク対話' — 音楽とボイスを分離。(5) マルチリファレンス:'@Image1 をキャラクター、@Image2 を背景、@Video1 のカメラワーク、@Audio1 を環境音' — 4素材でシーン構築。プロンプトで各素材の役割を明示してください。

ネイティブオーディオビデオ生成

Seedance 2.0 単一の共同プロセスでビデオとオーディオを生成します(後退しません)。 ステレオ出力、リップシンク(パブリックレポートに複数の言語を含む)、映像による音楽と音響効果のアライメントをサポートします。 広告、MV、および対話重いクリップに便利です。

よくある質問

参照画像はいくつ使えますか?

パブリックドキュメンテーションによると、1つのリクエストで最大9個の画像と3つのビデオと3つのオーディオファイル。 プラットフォームの現在の制限とファイルサイズ規則を確認してください。

Seedance 2.0 マルチモーダルはどの入力に対応していますか?

公開情報によると、Seedance 2.0 はテキスト、最大9画像、3ビデオクリップ、3オーディオトラックに自然言語を加えた入力をサポート。1リクエストあたり最大12の参照ファイル。詳細はチュートリアルをご覧ください。

Seedance 2.0 チュートリアル — テキストから動画・画像から動画の使い方(ステップバイステップ)

オーディオ入力はビデオ出力にどう影響しますか?

公開ドキュメントによると、オーディオ入力はBGM、台詞、効果音を駆動できます。モデルは画像と音声を同時生成し、音声は映像に同期。多言語リップシンク対応。詳しくはチュートリアルをご覧ください。

Seedance 2.0 チュートリアル — テキストから動画・画像から動画の使い方(ステップバイステップ)

画像とビデオの参照を組み合わせられますか?

はい。公開ドキュメントによると、1リクエストで最大9画像と3ビデオクリップを組み合わせ可能。プロンプトで@タグを使い各アセットの役割を指定。図生動画ガイドをご覧ください。

Seedance 2.0 画像から動画ガイド — AIであらゆる画像をアニメーション化

Related capabilities

関連ガイド

ガイドを見る

Reviewer
Seedance2 編集チームによるレビュー
最終レビュー
Content basis
公開情報に基づく第三者によるまとめ

この内容は一般公開されている資料を基に作成されたものであり、公式の製品ドキュメントではありません。