February 20, 2026

Referencias Multimodales en Seedance 2.0: La Guía Definitiva de @Tags

Domine el sistema de referencias @tag de Seedance 2.0. Aprenda la sintaxis de etiquetado de imágenes, videos y audio con ejemplos reales y plantillas de prompts. Comience a crear gratis.

Referencias Multimodales en Seedance 2.0: La Guía Definitiva de @Tags

La mayoría de los generadores de video con IA toman un prompt de texto y producen lo que les parece. Seedance 2.0 funciona de manera diferente. Usted sube imágenes, videos y archivos de audio, y luego utiliza @tags para indicar al modelo exactamente qué debe hacer cada archivo: actuar como primer fotograma, definir el movimiento de cámara, establecer el tempo musical o proporcionar una referencia de personaje.

Este sistema de referencias @tag es lo que diferencia a Seedance 2.0 de Sora 2, Kling 3.0 y Veo 3.1. Ninguno de ellos ofrece este nivel de control multimodal.

Esta guía cubre cada tipo de @tag, las reglas de sintaxis, los límites de archivos y ejemplos reales de prompts que puede utilizar de inmediato. Si desea seguir los ejemplos con llamadas a la API, obtenga su clave API gratuita de EvoLink — solo toma 30 segundos.


¿Qué es el sistema de referencias @Tag?

La generación tradicional de texto a video es un proceso de una entrada y una salida: usted escribe un prompt y el modelo lo interpreta como quiere. Seedance 2.0 convierte esto en un proceso de múltiples entradas con salida dirigida.

Esta es la diferencia:

EnfoqueEntradaNivel de controlResultado
Solo texto"Una mujer baila en el escenario"Bajo — el modelo decide todoMujer aleatoria, baile aleatorio, escenario aleatorio
Con @tags@Image1 (personaje) + @Video1 (referencia de baile) + promptAlto — usted dirige cada elementoSu personaje específico realiza exactamente el baile que usted referenció

El sistema de @tags funciona como la hoja de planos de un director de cine. Cada archivo subido recibe una asignación de rol mediante lenguaje natural en su prompt:

  • @Image1 as the first frame — fija el visual de apertura
  • @Video1 for camera movement reference — copia la cinematografía
  • @Audio1 as background music — establece la banda sonora y el ritmo

Puede combinar hasta 12 archivos (9 imágenes + 3 videos + 3 clips de audio) en una sola generación, cada uno etiquetado con un propósito específico.


Reglas de sintaxis de @Tags — La referencia completa

Sintaxis básica

El formato es sencillo: @ + tipo de recurso + número.

@Image1, @Image2, @Image3 ... @Image9
@Video1, @Video2, @Video3
@Audio1, @Audio2, @Audio3

En su prompt, se hace referencia a estas etiquetas y se describe su rol en lenguaje natural:

@Image1 as the first frame, @Image2 as character reference,
reference @Video1's camera movement and tracking shots,
use @Audio1 for background music tempo.

Nota: En la plataforma Jimeng (即梦), las etiquetas usan formato en chino: @图片1, @视频1, @音频1. A través de la API, utilice @Image1, @Video1, @Audio1.

Límites de archivos y formatos

Tipo de recursoCantidad máximaFormatosLímite de tamañoNotas
Imágenes9JPEG, PNG, WebP, BMP, TIFF, GIF30 MB cada unaMayor resolución = mejor resultado
Videos3MP4, MOV50 MB cada unoDuración total: 2–15s, resolución: 480p–720p
Audio3MP3, WAV15 MB cada unoDuración total: ≤ 15s
Combinado12 en totalCualquier combinación dentro de los límites

Los dos modos de entrada

Seedance 2.0 tiene dos modos de generación. Su entrada determina cuál utilizar:

  1. Modo de primer/último fotograma — Suba solo una imagen inicial (+ imagen final opcional) con un prompt de texto. Simple y rápido.
  2. Modo de referencia integral — Suba cualquier combinación de imágenes, videos y audio con asignaciones de @tags. Aquí es donde reside todo el potencial.

Regla: Si sube cualquier referencia de video o audio, o más de 2 imágenes, debe usar el modo de referencia integral.


@Tags de imagen — Controle la identidad visual

Las referencias de imagen son el tipo de @tag más versátil. Una sola imagen puede cumplir muchos propósitos diferentes según cómo la describa en su prompt.

Tipos de referencia para imágenes

PropósitoPatrón de promptEjemplo
Primer fotograma@Image1 as the first frameFija el visual exacto de apertura del video
Último fotograma@Image2 as the last frameDefine el visual final para transiciones
Identidad del personaje@Image1 is the main characterMantiene la consistencia de rostro/cuerpo a lo largo del video
Referencia de estiloreference @Image1's art styleAplica estilo pictórico, paleta de colores o estética visual
Escena/entornoscene references @Image3Establece la ubicación, fondo, arquitectura
Referencia de objetothe product in @Image1Mantiene los detalles del producto para anuncios comerciales
Composiciónframing references @Image1Copia el ángulo de cámara y la disposición

Ejemplo: Transferencia de estilo con Van Gogh

Prompt:

A young woman with long blonde hair in a blue dress stands on a hilltop,
gazing at a Provençal village at sunset. Entirely rendered in @Image1's
post-impressionist art style — thick impasto brushstrokes, swirling textures,
rich yellows and blues.

Entrada: Una pintura de Van Gogh como @Image1

Resultado: El modelo renderiza toda la escena en el estilo característico de Van Gogh — no es una superposición de filtro, sino una transferencia de estilo genuina que mantiene la textura de las pinceladas a lo largo de todo el video.

Video: Transferencia de estilo usando referencia @Image — renderizado postimpresionista de Van Gogh

Ejemplo: Anuncio comercial de producto

Prompt:

Commercial showcase of the handbag in @Image2.
Side profile references @Image1.
Surface material texture references @Image3.
Display all product details with cinematic camera movement.
Grand orchestral background music.

Entrada: 3 imágenes — vista lateral, foto principal del producto, primer plano del material

Resultado: Un video de producto pulido que mantiene las texturas exactas del material y las proporciones de sus imágenes de referencia — sin alucinaciones de IA en los detalles del producto.

Consistencia de personaje con múltiples imágenes

Cuando necesite el mismo personaje en múltiples tomas, suba varias imágenes de referencia desde diferentes ángulos:

@Image1 and @Image2 define the main character's appearance.
The character walks through @Image3's environment,
wearing the outfit from @Image4.

Cuantas más imágenes de referencia proporcione para un personaje, más consistente será el resultado. Esto resuelve el problema de "deformación facial" que afecta a la generación con una sola imagen.


@Tags de video — Replique cámara y movimiento

Las referencias de video desbloquean la capacidad más impresionante de Seedance 2.0: la replicación precisa del trabajo de cámara y el movimiento físico. Suba un video de referencia y el modelo copia la cinematografía exacta, la coreografía de acción o los efectos visuales.

Tipos de referencia para videos

PropósitoPatrón de promptQué se copia
Movimiento de cámarareference @Video1's camera movementPanorámica, inclinación, dolly, seguimiento, patrones de zoom
Acción/coreografíaperform the actions from @Video1Movimiento corporal, pasos de baile, coreografía de combate
Efectos visualesreference @Video1's transition effectsEfectos de partículas, transiciones de estilo, VFX
Ritmo/tempomatch @Video1's editing rhythmTiempo de cortes, sincronización con el beat, tempo
Replicación completacompletely reference @Video1Todo — cámara, acción, efectos, ritmo

Ejemplo: Replicación de cámara cinematográfica

Prompt:

Reference @Image1's character. He is in @Image2's elevator.
Completely reference @Video1's camera movements and the protagonist's
facial expressions. Hitchcock zoom when the character is frightened,
then several orbiting shots inside the elevator.
The elevator door opens, tracking shot follows him out.
Exterior scene references @Image3.

Entrada: 3 imágenes (personaje, interior del ascensor, escena exterior) + 1 video de referencia (con el trabajo de cámara deseado)

Resultado: El modelo reproduce exactamente el zoom Hitchcock, los movimientos de cámara orbital y los planos de seguimiento del video de referencia — aplicados a un personaje y escenario completamente diferentes.

Técnicas de cámara que puede replicar

Seedance 2.0 puede reproducir estos movimientos de cámara a partir de un video de referencia:

  • Zoom Hitchcock (dolly zoom / efecto vértigo)
  • Órbita de 360° alrededor del sujeto
  • Toma continua en un solo plano (sin cortes)
  • Seguimiento multiángulo con brazo mecánico
  • Planos contrapicados heroicos
  • Cámara en mano de persecución
  • Distorsión de lente ojo de pez
  • Movimiento rítmico de push-pull

Consejo de prompt: Sea específico sobre qué aspecto del video de referencia copiar. "Reference @Video1's camera movement" es mejor que solo "reference @Video1" — le indica al modelo que se concentre en la cinematografía en lugar de intentar copiar todo. Para camera reference examples con código Python completo, consulte nuestro tutorial dedicado de movimiento de cámara.

Ejemplo: Parkour de acción

Video: Parkour dinámico con plano de seguimiento cinematográfico — generado con referencia de movimiento de cámara


@Tags de audio — Diseño sonoro con referencias

Seedance 2.0 genera audio nativo con cada video — efectos de sonido, ruido ambiental, música e incluso diálogos. Los @tags de audio le dan control sobre cómo suena.

Tipos de referencia para audio

PropósitoPatrón de promptQué se copia
Música de fondouse @Audio1 for background musicEstilo musical, tempo, instrumentos
Efectos de sonidosound effects reference @Audio1Texturas de sonido específicas y sincronización
Estilo de voz/narraciónnarration voice references @Video1Tono vocal, velocidad de habla, acento
Sincronización de beatmatch @Audio1's rhythm for editing cutsLos beats musicales impulsan las transiciones visuales

Sincronización de beat (Modo videoclip musical)

Una de las funciones de audio más potentes: suba una pista musical y el modelo sincroniza los cortes visuales y las transiciones con el beat.

Prompt:

@Image1 through @Image7 as scene references.
Match @Video1's visual rhythm and beat synchronization.
Each image appears on a music beat with dynamic transitions.
Enhance visual impact with dramatic lighting changes on each cut.

Resultado: El modelo crea una edición estilo videoclip musical donde las transiciones de escena, los movimientos de cámara y los cambios de iluminación ocurren precisamente en el beat del audio de referencia.

Uso del audio de video como referencia

No necesita un archivo de audio separado — puede referenciar la pista de audio de un video subido:

Background music references @Video1's audio.

Esto es útil cuando desea replicar el diseño sonoro de un video existente mientras cambia los visuales.

Ejemplo: Diálogo de personajes

Video: Diálogo de personajes generado por IA con actuación de voz natural y sonidos ambientales de cafetería

Seedance 2.0 admite la generación de diálogos en múltiples idiomas, incluyendo inglés, chino, español, coreano y más. Escriba el diálogo directamente en su prompt y el modelo genera sincronización labial y actuación de voz correspondientes.


Combinaciones avanzadas — Recetas multimodales

El verdadero poder de los @tags surge cuando se combinan múltiples modalidades. Aquí presentamos tres recetas probadas para escenarios de producción comunes.

Receta 1: Cortometraje cinematográfico

Objetivo: Escena con calidad de película con personaje específico, trabajo de cámara y banda sonora

Archivos:

  • @Image1: Referencia de rostro/cuerpo del personaje
  • @Image2: Referencia de entorno/ubicación
  • @Video1: Referencia de movimiento de cámara (por ejemplo, plano de seguimiento de una película)
  • @Audio1: Pista de música de fondo

Prompt:

@Image1's character walks through @Image2's environment.
Camera movement follows @Video1's tracking shot pattern.
Background music uses @Audio1.
Cinematic lighting, shallow depth of field, 24fps film grain.

Asignación de archivos: 2 imágenes + 1 video + 1 audio = 4/12 archivos utilizados

Receta 2: Video de producto para comercio electrónico

Objetivo: Presentación profesional de producto a partir de fotos estáticas

Archivos:

  • @Image1: Toma principal del producto
  • @Image2: Vista lateral del producto
  • @Image3: Primer plano de material/textura
  • @Video1: Referencia de movimiento de cámara (toma orbital del producto)

Prompt:

Commercial showcase of the product in @Image2.
Side profile references @Image1.
Surface material and texture reference @Image3.
Camera movement references @Video1's orbiting rotation.
Studio lighting, reflective dark surface, premium aesthetic.

Asignación de archivos: 3 imágenes + 1 video = 4/12 archivos utilizados

Receta 3: Animación con múltiples personajes

Objetivo: Dos personajes interactuando con acción coreografiada

Archivos:

  • @Image1, @Image2: Personaje A (referencia frontal + lateral)
  • @Image3, @Image4: Personaje B (referencia frontal + lateral)
  • @Image5: Referencia de fondo/escena
  • @Video1: Referencia de coreografía de acción

Prompt:

@Image1 and @Image2 define Character A (spear wielder).
@Image3 and @Image4 define Character B (dual swords).
They fight in @Image5's autumn forest, mimicking @Video1's
combat choreography. White dust rises on impact.
Dramatic star-filled night sky.

Asignación de archivos: 5 imágenes + 1 video = 6/12 archivos utilizados

El presupuesto de 12 archivos: Estrategia de asignación

Tiene 12 espacios. Aquí se explica cómo asignarlos para máximo impacto:

PrioridadAsignaciónPor qué
Identidad del personaje2-3 imágenes por personajeMás ángulos = mejor consistencia
Referencia de cámara/movimiento1 videoUna buena referencia es suficiente
Escena/entorno1-2 imágenesEstablece el mundo
Audio/música1 audio o video (por su pista de audio)Establece el ambiente
Referencia de estilo1 imagen (si es necesario)Solo si desea un estilo no realista
ReservaMantener 2-3 espacios libresPara iteración y detalle adicional

Consejo profesional: No use los 12 espacios. Comience con 4-6 archivos y agregue más solo si el resultado necesita más precisión. Sobrecargar con referencias puede confundir al modelo.

Ejemplo de llamada a la API

Así es como se ve una generación multimodal a través de la API:

import requests

response = requests.post(
    "https://api.evolink.ai/v1/videos/generations",
    headers={"Authorization": "Bearer YOUR_EVOLINK_API_KEY"},
    json={
        "model": "seedance-2.0",
        "prompt": (
            "@Image1 as the main character. "
            "@Image2 as the environment. "
            "Reference @Video1's tracking shot and camera movement. "
            "The character walks through a misty forest at dawn. "
            "Cinematic lighting, shallow depth of field."
        ),
        "image_urls": [
            "https://your-cdn.com/character.jpg",
            "https://your-cdn.com/forest.jpg"
        ],
        "video_urls": [
            "https://your-cdn.com/tracking-shot.mp4"
        ],
        "duration": 10,
        "quality": "1080p",
        "generate_audio": true
    }
)

task_id = response.json()["id"]
print(f"Generation started: {task_id}")

Consulte el resultado:

import time

while True:
    status = requests.get(
        f"https://api.evolink.ai/v1/tasks/{task_id}",
        headers={"Authorization": "Bearer YOUR_EVOLINK_API_KEY"}
    )
    result = status.json()

    if result["status"] == "completed":
        print(f"Video ready: {result['results'][0]}")
        break
    elif result["status"] == "failed":
        print(f"Error: {result.get('error', 'Unknown error')}")
        break

    time.sleep(5)

Ejecute este código con su clave API de EvoLink. El registro es gratuito — no se requiere tarjeta de crédito.


Errores comunes y cómo corregirlos

No especificar el propósito del @tag

Incorrecto: @Image1 @Video1 generate a video of a dancer

Correcto: @Image1 as the dancer's appearance reference. @Video1 for dance choreography and camera movement. Generate the dancer performing on a stage.

El modelo necesita asignaciones de rol explícitas. Sin ellas, adivina — y adivina mal.

Archivos de entrada con baja resolución

Si su @Image1 es de 480p, el resultado se verá suave. Siempre utilice:

  • Imágenes: resolución de 2K o superior
  • Videos: 720p, metraje limpio sin artefactos de compresión
  • Audio: MP3 de 128kbps o superior, o WAV sin pérdida

Intentar usar los 12 espacios de archivos

Más referencias no significa mejor resultado. Comience con 3-5 archivos y agregue solo si es necesario. Demasiadas referencias en conflicto confunden al modelo.

Subir fotos de rostros humanos realistas

Limitación de la plataforma: Seedance 2.0 actualmente no admite la subida de imágenes o videos que contengan rostros humanos realistas. El sistema bloqueará automáticamente estas subidas. Utilice referencias de personajes ilustrados, estilo anime o estilizados en su lugar.

Confundir la numeración de recursos

Cuando sube 3 imágenes y 2 videos, se numeran de forma independiente:

  • Imágenes: @Image1, @Image2, @Image3
  • Videos: @Video1, @Video2

No escriba @File3 o @Asset5 — utilice la numeración específica por tipo.

Establecer la duración incorrecta para extensiones de video

Al extender un video existente en 5 segundos, establezca la duración de generación en 5s (la porción nueva), no la duración total. La extensión se agrega al original.


Preguntas frecuentes

¿Cuántos archivos puedo subir en una sola generación?

Hasta 12 archivos en total: máximo 9 imágenes, 3 videos y 3 clips de audio. Los videos deben tener una duración combinada de entre 2 y 15 segundos. Los clips de audio pueden sumar hasta 15 segundos en total.

¿Puedo usar @tags a través de la API?

Sí. Al llamar a la API, pase los arrays image_urls, video_urls y audio_urls en el cuerpo JSON de la solicitud. Cada array contiene URLs directas a sus archivos de referencia. La numeración de @tags (@Image1, @Image2...) corresponde al orden de las URLs en cada array. El texto del prompt utiliza la misma sintaxis de @tags que la interfaz.

¿Qué sucede si no asigno un rol a un @tag?

El modelo intentará inferir el propósito basándose en el contenido del archivo y el contexto de su prompt. Sin embargo, esto no es confiable. Siempre indique explícitamente el rol de cada etiqueta — por ejemplo, @Image1 as the first frame en lugar de solo mencionar @Image1 sin contexto.

¿Puedo referenciar el audio de un archivo de video subido?

Sí. Utilice background music references @Video1's audio en su prompt. El modelo extrae la pista de audio del video y la utiliza como referencia sonora sin necesidad de un archivo de audio separado.

¿Qué formatos de imagen y video son compatibles?

Imágenes: JPEG, PNG, WebP, BMP, TIFF, GIF (máximo 30 MB cada una). Videos: MP4, MOV (máximo 50 MB cada uno, resolución 480p–720p). Audio: MP3, WAV (máximo 15 MB cada uno).


Comience a crear con @Tags

El sistema de referencias @tag es lo que convierte a Seedance 2.0 en el generador de video con IA más controlable disponible. En lugar de describir lo que desea y esperar lo mejor, usted le muestra al modelo exactamente lo que quiere decir — y luego lo dirige como un equipo de filmación.

Los principios clave:

  1. Cada @tag necesita un rol. No solo suba archivos — indique al modelo qué hace cada uno.
  2. Comience con poco, agregue precisión. Empiece con 3-4 referencias. Agregue más solo si el resultado lo necesita.
  3. Sea específico sobre qué copiar. "Reference @Video1's camera movement" supera a "reference @Video1."

¿Listo para dirigir sus propios videos con IA? Comience gratis en EvoLink — una clave API para Seedance 2.0 y todos los principales modelos de video con IA, con enrutamiento inteligente que le ahorra entre 20-70%.

Continúe aprendiendo:


Ultima actualizacion: 20 de febrero de 2026 | Written by J, Growth Lead at EvoLink

Ready to get started?

Top up and start generating cinematic AI videos in minutes.