Référence image et vidéo
Référence @image1, @image2, @video1 pour l'émotion et l'expression.
Meilleures performances et expressions émotionnelles.
Dernière mise à jour:
Les personnages de AI semblent souvent plats ou faux : l'émotion ne se manifeste pas. Seedance 2.0 améliore les micro-expressions et le langage corporel afin que les personnages puissent montrer leur joie, leur tristesse, leur surprise ou leur colère de manière plus naturelle ; les yeux, la bouche et les gestes lisent tous mieux. Si vous voulez des personnages AI avec un véritable « jeu d'acteur », la version 2.0 vous y amène.
Ces pages sont rédigées sous forme de résumés de référence tiers plutôt que de documentation produit officielle.
Les descriptions de capacités résument les documents de lancement publics Seedance 2.0, les pages publiques du projet et d'autres documents explicatifs accessibles au public.
Ce site ne représente pas Seedance, le support produit officiel ou tout partenariat autorisé, sauf si une page l'indique explicitement sur une base documentée.
L'accès à la plateforme, les fonctionnalités prises en charge, les prix, l'interface utilisateur et la disponibilité peuvent changer. Utilisez des sources officielles ou primaires pour obtenir des informations actuelles.

Les performances émotionnelles sont améliorées pour une expressivité et une nuance accrues dans l'interprétation des personnages. Comment ça fonctionne : le modèle génère des personnages dont les micro-expressions faciales (mouvement des yeux, forme de la bouche, position des sourcils) et le langage corporel (gestes, posture, intensité du mouvement) répondent au contexte émotionnel décrit dans votre prompt. Au lieu de visages plats et neutres, les personnages peuvent exprimer la joie, la tristesse, la surprise, la colère ou des états plus subtils comme l'hésitation ou la curiosité. Quand l'utiliser : contenu d'humains virtuels et VTuber où la connexion émotionnelle favorise l'engagement du public ; narration de marque où l'émotion du personnage porte le récit ; contenu éducatif où un personnage instructeur doit paraître chaleureux et accessible ; courts-métrages pour les réseaux sociaux où les personnages expressifs augmentent le temps de visionnage et les partages. Conseils pratiques : soyez précis sur l'émotion et son intensité dans votre prompt — « sourire doux avec un léger penchement de tête » produit des résultats plus nuancés que simplement « content ». Pour les scènes de dialogue, associez l'expression émotionnelle à l'audio natif pour obtenir un ton vocal et une expression faciale synchronisés. Le modèle gère les transitions entre émotions au sein d'un même plan (par exemple, « commence surpris puis éclate de rire »), ce qui est utile pour les contenus narratifs courts. Combinez avec la cohérence des personnages pour garantir qu'un même personnage maintienne son identité tout en exprimant différentes émotions d'un plan à l'autre.
Les avatars virtuels traditionnels ont des expressions rigides et des émotions monotones, ce qui rend difficile l'établissement de liens émotionnels avec les spectateurs ; le taux de rétention des interactions est faible
Utilisation des contrôles d'expression des émotions pour que les humains virtuels AI puissent afficher des expressions et un langage corporel plus riches pendant le contenu en direct.
Les chiffres de référence cités pour cet exemple incluent une augmentation des interactions en direct de 180 %, une durée de visionnage moyenne triplée, un nombre d'abonnés supérieur à 1 million et des revenus de parrainage multipliés par 5.
Pourquoi c'est important:Les contrôles de micro-expression et de langage corporel ont rendu les performances plus faciles à lire.
Les cas illustratifs présentés sur ce site sont compilés à partir de récapitulations de campagnes publiques et de rapports secondaires disponibles au moment de la rédaction.
Les mesures reflètent la période de campagne déclarée et ne doivent pas être traitées comme des références de performances actuelles.
Les noms de marques et les chiffres sont cités à titre explicatif uniquement, et non à titre d'approbation, de garantie ou de résultats audités de manière indépendante.

Expressions, émotions, langage corporel, effets de transformation.
Référence @image1, @image2, @video1 pour l'émotion et l'expression.
Pub hotte, @image1 comme première image, femme cuisine élégamment sans fumée. Pan à droite vers @image2 homme en sueur, fumée épaisse. Pan à gauche vers @image1 hotte sur le plan de travail, référence @image3, hotte aspire la fumée.
@image1 comme première image, caméra tourne et pousse, personnage lève soudainement la tête, visage référence @image2, rugit fort avec énergie comique, expression référence @image3. Puis le corps se transforme en ours, référence @image4.
Images de référence

Images de référence 1: Rugissez et transformez-vous en ours

Images de référence 2: Rugissez et transformez-vous en ours

Images de référence 3: Rugissez et transformez-vous en ours

Images de référence 4: Rugissez et transformez-vous en ours
Seedance 2.0 améliore les micro-expressions et le langage corporel afin que les personnages puissent montrer plus naturellement leur joie, leur tristesse, leur surprise ou leur colère. Les yeux, la bouche et les gestes lisent tous mieux pour un « jeu d'acteur » plus crédible.
Oui. Cela peut être utile pour les idoles virtuelles, les VTubers et autres personnages AI qui ont besoin d'expressions et d'un langage corporel plus riches dans le contenu en direct ou enregistré.
Oui. Le modèle gère les transitions émotionnelles au sein d'une même génération — par exemple, « commence surpris puis éclate de rire ». C'est utile pour les contenus narratifs courts où les changements émotionnels font avancer l'histoire.
Plus c'est précis, mieux c'est. « Sourire doux avec un léger penchement de tête » produit des résultats plus nuancés que simplement « content ». Décrivez à la fois l'émotion et l'expression physique pour de meilleurs résultats.
Guides associés
Ces guides ajoutent un contexte de flux de travail, d'invite et de cas d'utilisation autour de cette fonctionnalité afin que la page se connecte au groupe de sujets Seedance plus large.
Guide
Comment rédiger des invites Seedance 2.0 efficaces : sujet + action + environnement + caméra + formules de style, @balises de référence et ce qu'il faut éviter. Basé sur des guides publics.
Lire le guideGuide
Cas d'utilisation Seedance 2.0 : publicités de commerce électronique, TVC, démonstrations de produits, aperçus de films, MV, éducation, immobilier et court récit. Basé sur le blog officiel et des études de cas tierces.
Lire le guideGuide
Meilleures pratiques pour Seedance 2.0 : formules d'invite, ressources de référence, formulation de caméra et de mouvement et contrôles de qualité. Basé sur des guides publics.
Lire le guideGuide
Notes de terrain de huit générations consécutives d'une transformation anime japonaise uniforme-scolaire-vers-déesse-grecque : association des prompts aux clips, ce qui change entre les essais et à quoi sert la re-génération rapide.
Lire le guideGuide
Formule prompt à 6 dimensions pour vidéo IA stable : sujet, action, limites, caméra, lumière, timing. Exemples complets inclus.
Lire le guide