Referencias Multimodales en Seedance 2.0: La Guía Definitiva de @Tags
Domine el sistema de referencias @tag de Seedance 2.0. Aprenda la sintaxis de etiquetado de imágenes, videos y audio con ejemplos reales y plantillas de prompts. Comience a crear gratis.

La mayoría de los generadores de video con IA toman un prompt de texto y producen lo que les parece. Seedance 2.0 funciona de manera diferente. Usted sube imágenes, videos y archivos de audio, y luego utiliza @tags para indicar al modelo exactamente qué debe hacer cada archivo: actuar como primer fotograma, definir el movimiento de cámara, establecer el tempo musical o proporcionar una referencia de personaje.
Este sistema de referencias @tag es lo que diferencia a Seedance 2.0 de Sora 2, Kling 3.0 y Veo 3.1. Ninguno de ellos ofrece este nivel de control multimodal.
Esta guía cubre cada tipo de @tag, las reglas de sintaxis, los límites de archivos y ejemplos reales de prompts que puede utilizar de inmediato. Si desea seguir los ejemplos con llamadas a la API, obtenga su clave API gratuita de EvoLink — solo toma 30 segundos.
¿Qué es el sistema de referencias @Tag?
La generación tradicional de texto a video es un proceso de una entrada y una salida: usted escribe un prompt y el modelo lo interpreta como quiere. Seedance 2.0 convierte esto en un proceso de múltiples entradas con salida dirigida.
Esta es la diferencia:
| Enfoque | Entrada | Nivel de control | Resultado |
|---|---|---|---|
| Solo texto | "Una mujer baila en el escenario" | Bajo — el modelo decide todo | Mujer aleatoria, baile aleatorio, escenario aleatorio |
| Con @tags | @Image1 (personaje) + @Video1 (referencia de baile) + prompt | Alto — usted dirige cada elemento | Su personaje específico realiza exactamente el baile que usted referenció |
El sistema de @tags funciona como la hoja de planos de un director de cine. Cada archivo subido recibe una asignación de rol mediante lenguaje natural en su prompt:
@Image1 as the first frame— fija el visual de apertura@Video1 for camera movement reference— copia la cinematografía@Audio1 as background music— establece la banda sonora y el ritmo
Puede combinar hasta 12 archivos (9 imágenes + 3 videos + 3 clips de audio) en una sola generación, cada uno etiquetado con un propósito específico.
Reglas de sintaxis de @Tags — La referencia completa
Sintaxis básica
El formato es sencillo: @ + tipo de recurso + número.
@Image1, @Image2, @Image3 ... @Image9
@Video1, @Video2, @Video3
@Audio1, @Audio2, @Audio3
En su prompt, se hace referencia a estas etiquetas y se describe su rol en lenguaje natural:
@Image1 as the first frame, @Image2 as character reference,
reference @Video1's camera movement and tracking shots,
use @Audio1 for background music tempo.
Nota: En la plataforma Jimeng (即梦), las etiquetas usan formato en chino:
@图片1,@视频1,@音频1. A través de la API, utilice@Image1,@Video1,@Audio1.
Límites de archivos y formatos
| Tipo de recurso | Cantidad máxima | Formatos | Límite de tamaño | Notas |
|---|---|---|---|---|
| Imágenes | 9 | JPEG, PNG, WebP, BMP, TIFF, GIF | 30 MB cada una | Mayor resolución = mejor resultado |
| Videos | 3 | MP4, MOV | 50 MB cada uno | Duración total: 2–15s, resolución: 480p–720p |
| Audio | 3 | MP3, WAV | 15 MB cada uno | Duración total: ≤ 15s |
| Combinado | 12 en total | — | — | Cualquier combinación dentro de los límites |
Los dos modos de entrada
Seedance 2.0 tiene dos modos de generación. Su entrada determina cuál utilizar:
- Modo de primer/último fotograma — Suba solo una imagen inicial (+ imagen final opcional) con un prompt de texto. Simple y rápido.
- Modo de referencia integral — Suba cualquier combinación de imágenes, videos y audio con asignaciones de @tags. Aquí es donde reside todo el potencial.
Regla: Si sube cualquier referencia de video o audio, o más de 2 imágenes, debe usar el modo de referencia integral.
@Tags de imagen — Controle la identidad visual
Las referencias de imagen son el tipo de @tag más versátil. Una sola imagen puede cumplir muchos propósitos diferentes según cómo la describa en su prompt.
Tipos de referencia para imágenes
| Propósito | Patrón de prompt | Ejemplo |
|---|---|---|
| Primer fotograma | @Image1 as the first frame | Fija el visual exacto de apertura del video |
| Último fotograma | @Image2 as the last frame | Define el visual final para transiciones |
| Identidad del personaje | @Image1 is the main character | Mantiene la consistencia de rostro/cuerpo a lo largo del video |
| Referencia de estilo | reference @Image1's art style | Aplica estilo pictórico, paleta de colores o estética visual |
| Escena/entorno | scene references @Image3 | Establece la ubicación, fondo, arquitectura |
| Referencia de objeto | the product in @Image1 | Mantiene los detalles del producto para anuncios comerciales |
| Composición | framing references @Image1 | Copia el ángulo de cámara y la disposición |
Ejemplo: Transferencia de estilo con Van Gogh
Prompt:
A young woman with long blonde hair in a blue dress stands on a hilltop,
gazing at a Provençal village at sunset. Entirely rendered in @Image1's
post-impressionist art style — thick impasto brushstrokes, swirling textures,
rich yellows and blues.
Entrada: Una pintura de Van Gogh como @Image1
Resultado: El modelo renderiza toda la escena en el estilo característico de Van Gogh — no es una superposición de filtro, sino una transferencia de estilo genuina que mantiene la textura de las pinceladas a lo largo de todo el video.
Video: Transferencia de estilo usando referencia @Image — renderizado postimpresionista de Van Gogh
Ejemplo: Anuncio comercial de producto
Prompt:
Commercial showcase of the handbag in @Image2.
Side profile references @Image1.
Surface material texture references @Image3.
Display all product details with cinematic camera movement.
Grand orchestral background music.
Entrada: 3 imágenes — vista lateral, foto principal del producto, primer plano del material
Resultado: Un video de producto pulido que mantiene las texturas exactas del material y las proporciones de sus imágenes de referencia — sin alucinaciones de IA en los detalles del producto.
Consistencia de personaje con múltiples imágenes
Cuando necesite el mismo personaje en múltiples tomas, suba varias imágenes de referencia desde diferentes ángulos:
@Image1 and @Image2 define the main character's appearance.
The character walks through @Image3's environment,
wearing the outfit from @Image4.
Cuantas más imágenes de referencia proporcione para un personaje, más consistente será el resultado. Esto resuelve el problema de "deformación facial" que afecta a la generación con una sola imagen.
@Tags de video — Replique cámara y movimiento
Las referencias de video desbloquean la capacidad más impresionante de Seedance 2.0: la replicación precisa del trabajo de cámara y el movimiento físico. Suba un video de referencia y el modelo copia la cinematografía exacta, la coreografía de acción o los efectos visuales.
Tipos de referencia para videos
| Propósito | Patrón de prompt | Qué se copia |
|---|---|---|
| Movimiento de cámara | reference @Video1's camera movement | Panorámica, inclinación, dolly, seguimiento, patrones de zoom |
| Acción/coreografía | perform the actions from @Video1 | Movimiento corporal, pasos de baile, coreografía de combate |
| Efectos visuales | reference @Video1's transition effects | Efectos de partículas, transiciones de estilo, VFX |
| Ritmo/tempo | match @Video1's editing rhythm | Tiempo de cortes, sincronización con el beat, tempo |
| Replicación completa | completely reference @Video1 | Todo — cámara, acción, efectos, ritmo |
Ejemplo: Replicación de cámara cinematográfica
Prompt:
Reference @Image1's character. He is in @Image2's elevator.
Completely reference @Video1's camera movements and the protagonist's
facial expressions. Hitchcock zoom when the character is frightened,
then several orbiting shots inside the elevator.
The elevator door opens, tracking shot follows him out.
Exterior scene references @Image3.
Entrada: 3 imágenes (personaje, interior del ascensor, escena exterior) + 1 video de referencia (con el trabajo de cámara deseado)
Resultado: El modelo reproduce exactamente el zoom Hitchcock, los movimientos de cámara orbital y los planos de seguimiento del video de referencia — aplicados a un personaje y escenario completamente diferentes.
Técnicas de cámara que puede replicar
Seedance 2.0 puede reproducir estos movimientos de cámara a partir de un video de referencia:
- Zoom Hitchcock (dolly zoom / efecto vértigo)
- Órbita de 360° alrededor del sujeto
- Toma continua en un solo plano (sin cortes)
- Seguimiento multiángulo con brazo mecánico
- Planos contrapicados heroicos
- Cámara en mano de persecución
- Distorsión de lente ojo de pez
- Movimiento rítmico de push-pull
Consejo de prompt: Sea específico sobre qué aspecto del video de referencia copiar. "Reference @Video1's camera movement" es mejor que solo "reference @Video1" — le indica al modelo que se concentre en la cinematografía en lugar de intentar copiar todo. Para camera reference examples con código Python completo, consulte nuestro tutorial dedicado de movimiento de cámara.
Ejemplo: Parkour de acción
Video: Parkour dinámico con plano de seguimiento cinematográfico — generado con referencia de movimiento de cámara
@Tags de audio — Diseño sonoro con referencias
Seedance 2.0 genera audio nativo con cada video — efectos de sonido, ruido ambiental, música e incluso diálogos. Los @tags de audio le dan control sobre cómo suena.
Tipos de referencia para audio
| Propósito | Patrón de prompt | Qué se copia |
|---|---|---|
| Música de fondo | use @Audio1 for background music | Estilo musical, tempo, instrumentos |
| Efectos de sonido | sound effects reference @Audio1 | Texturas de sonido específicas y sincronización |
| Estilo de voz/narración | narration voice references @Video1 | Tono vocal, velocidad de habla, acento |
| Sincronización de beat | match @Audio1's rhythm for editing cuts | Los beats musicales impulsan las transiciones visuales |
Sincronización de beat (Modo videoclip musical)
Una de las funciones de audio más potentes: suba una pista musical y el modelo sincroniza los cortes visuales y las transiciones con el beat.
Prompt:
@Image1 through @Image7 as scene references.
Match @Video1's visual rhythm and beat synchronization.
Each image appears on a music beat with dynamic transitions.
Enhance visual impact with dramatic lighting changes on each cut.
Resultado: El modelo crea una edición estilo videoclip musical donde las transiciones de escena, los movimientos de cámara y los cambios de iluminación ocurren precisamente en el beat del audio de referencia.
Uso del audio de video como referencia
No necesita un archivo de audio separado — puede referenciar la pista de audio de un video subido:
Background music references @Video1's audio.
Esto es útil cuando desea replicar el diseño sonoro de un video existente mientras cambia los visuales.
Ejemplo: Diálogo de personajes
Video: Diálogo de personajes generado por IA con actuación de voz natural y sonidos ambientales de cafetería
Seedance 2.0 admite la generación de diálogos en múltiples idiomas, incluyendo inglés, chino, español, coreano y más. Escriba el diálogo directamente en su prompt y el modelo genera sincronización labial y actuación de voz correspondientes.
Combinaciones avanzadas — Recetas multimodales
El verdadero poder de los @tags surge cuando se combinan múltiples modalidades. Aquí presentamos tres recetas probadas para escenarios de producción comunes.
Receta 1: Cortometraje cinematográfico
Objetivo: Escena con calidad de película con personaje específico, trabajo de cámara y banda sonora
Archivos:
- @Image1: Referencia de rostro/cuerpo del personaje
- @Image2: Referencia de entorno/ubicación
- @Video1: Referencia de movimiento de cámara (por ejemplo, plano de seguimiento de una película)
- @Audio1: Pista de música de fondo
Prompt:
@Image1's character walks through @Image2's environment.
Camera movement follows @Video1's tracking shot pattern.
Background music uses @Audio1.
Cinematic lighting, shallow depth of field, 24fps film grain.
Asignación de archivos: 2 imágenes + 1 video + 1 audio = 4/12 archivos utilizados
Receta 2: Video de producto para comercio electrónico
Objetivo: Presentación profesional de producto a partir de fotos estáticas
Archivos:
- @Image1: Toma principal del producto
- @Image2: Vista lateral del producto
- @Image3: Primer plano de material/textura
- @Video1: Referencia de movimiento de cámara (toma orbital del producto)
Prompt:
Commercial showcase of the product in @Image2.
Side profile references @Image1.
Surface material and texture reference @Image3.
Camera movement references @Video1's orbiting rotation.
Studio lighting, reflective dark surface, premium aesthetic.
Asignación de archivos: 3 imágenes + 1 video = 4/12 archivos utilizados
Receta 3: Animación con múltiples personajes
Objetivo: Dos personajes interactuando con acción coreografiada
Archivos:
- @Image1, @Image2: Personaje A (referencia frontal + lateral)
- @Image3, @Image4: Personaje B (referencia frontal + lateral)
- @Image5: Referencia de fondo/escena
- @Video1: Referencia de coreografía de acción
Prompt:
@Image1 and @Image2 define Character A (spear wielder).
@Image3 and @Image4 define Character B (dual swords).
They fight in @Image5's autumn forest, mimicking @Video1's
combat choreography. White dust rises on impact.
Dramatic star-filled night sky.
Asignación de archivos: 5 imágenes + 1 video = 6/12 archivos utilizados
El presupuesto de 12 archivos: Estrategia de asignación
Tiene 12 espacios. Aquí se explica cómo asignarlos para máximo impacto:
| Prioridad | Asignación | Por qué |
|---|---|---|
| Identidad del personaje | 2-3 imágenes por personaje | Más ángulos = mejor consistencia |
| Referencia de cámara/movimiento | 1 video | Una buena referencia es suficiente |
| Escena/entorno | 1-2 imágenes | Establece el mundo |
| Audio/música | 1 audio o video (por su pista de audio) | Establece el ambiente |
| Referencia de estilo | 1 imagen (si es necesario) | Solo si desea un estilo no realista |
| Reserva | Mantener 2-3 espacios libres | Para iteración y detalle adicional |
Consejo profesional: No use los 12 espacios. Comience con 4-6 archivos y agregue más solo si el resultado necesita más precisión. Sobrecargar con referencias puede confundir al modelo.
Ejemplo de llamada a la API
Así es como se ve una generación multimodal a través de la API:
import requests
response = requests.post(
"https://api.evolink.ai/v1/videos/generations",
headers={"Authorization": "Bearer YOUR_EVOLINK_API_KEY"},
json={
"model": "seedance-2.0",
"prompt": (
"@Image1 as the main character. "
"@Image2 as the environment. "
"Reference @Video1's tracking shot and camera movement. "
"The character walks through a misty forest at dawn. "
"Cinematic lighting, shallow depth of field."
),
"image_urls": [
"https://your-cdn.com/character.jpg",
"https://your-cdn.com/forest.jpg"
],
"video_urls": [
"https://your-cdn.com/tracking-shot.mp4"
],
"duration": 10,
"quality": "1080p",
"generate_audio": true
}
)
task_id = response.json()["id"]
print(f"Generation started: {task_id}")
Consulte el resultado:
import time
while True:
status = requests.get(
f"https://api.evolink.ai/v1/tasks/{task_id}",
headers={"Authorization": "Bearer YOUR_EVOLINK_API_KEY"}
)
result = status.json()
if result["status"] == "completed":
print(f"Video ready: {result['results'][0]}")
break
elif result["status"] == "failed":
print(f"Error: {result.get('error', 'Unknown error')}")
break
time.sleep(5)
Ejecute este código con su clave API de EvoLink. El registro es gratuito — no se requiere tarjeta de crédito.
Errores comunes y cómo corregirlos
No especificar el propósito del @tag
Incorrecto: @Image1 @Video1 generate a video of a dancer
Correcto: @Image1 as the dancer's appearance reference. @Video1 for dance choreography and camera movement. Generate the dancer performing on a stage.
El modelo necesita asignaciones de rol explícitas. Sin ellas, adivina — y adivina mal.
Archivos de entrada con baja resolución
Si su @Image1 es de 480p, el resultado se verá suave. Siempre utilice:
- Imágenes: resolución de 2K o superior
- Videos: 720p, metraje limpio sin artefactos de compresión
- Audio: MP3 de 128kbps o superior, o WAV sin pérdida
Intentar usar los 12 espacios de archivos
Más referencias no significa mejor resultado. Comience con 3-5 archivos y agregue solo si es necesario. Demasiadas referencias en conflicto confunden al modelo.
Subir fotos de rostros humanos realistas
Limitación de la plataforma: Seedance 2.0 actualmente no admite la subida de imágenes o videos que contengan rostros humanos realistas. El sistema bloqueará automáticamente estas subidas. Utilice referencias de personajes ilustrados, estilo anime o estilizados en su lugar.
Confundir la numeración de recursos
Cuando sube 3 imágenes y 2 videos, se numeran de forma independiente:
- Imágenes: @Image1, @Image2, @Image3
- Videos: @Video1, @Video2
No escriba @File3 o @Asset5 — utilice la numeración específica por tipo.
Establecer la duración incorrecta para extensiones de video
Al extender un video existente en 5 segundos, establezca la duración de generación en 5s (la porción nueva), no la duración total. La extensión se agrega al original.
Preguntas frecuentes
¿Cuántos archivos puedo subir en una sola generación?
Hasta 12 archivos en total: máximo 9 imágenes, 3 videos y 3 clips de audio. Los videos deben tener una duración combinada de entre 2 y 15 segundos. Los clips de audio pueden sumar hasta 15 segundos en total.
¿Puedo usar @tags a través de la API?
Sí. Al llamar a la API, pase los arrays image_urls, video_urls y audio_urls en el cuerpo JSON de la solicitud. Cada array contiene URLs directas a sus archivos de referencia. La numeración de @tags (@Image1, @Image2...) corresponde al orden de las URLs en cada array. El texto del prompt utiliza la misma sintaxis de @tags que la interfaz.
¿Qué sucede si no asigno un rol a un @tag?
El modelo intentará inferir el propósito basándose en el contenido del archivo y el contexto de su prompt. Sin embargo, esto no es confiable. Siempre indique explícitamente el rol de cada etiqueta — por ejemplo, @Image1 as the first frame en lugar de solo mencionar @Image1 sin contexto.
¿Puedo referenciar el audio de un archivo de video subido?
Sí. Utilice background music references @Video1's audio en su prompt. El modelo extrae la pista de audio del video y la utiliza como referencia sonora sin necesidad de un archivo de audio separado.
¿Qué formatos de imagen y video son compatibles?
Imágenes: JPEG, PNG, WebP, BMP, TIFF, GIF (máximo 30 MB cada una). Videos: MP4, MOV (máximo 50 MB cada uno, resolución 480p–720p). Audio: MP3, WAV (máximo 15 MB cada uno).
Comience a crear con @Tags
El sistema de referencias @tag es lo que convierte a Seedance 2.0 en el generador de video con IA más controlable disponible. En lugar de describir lo que desea y esperar lo mejor, usted le muestra al modelo exactamente lo que quiere decir — y luego lo dirige como un equipo de filmación.
Los principios clave:
- Cada @tag necesita un rol. No solo suba archivos — indique al modelo qué hace cada uno.
- Comience con poco, agregue precisión. Empiece con 3-4 referencias. Agregue más solo si el resultado lo necesita.
- Sea específico sobre qué copiar. "Reference @Video1's camera movement" supera a "reference @Video1."
¿Listo para dirigir sus propios videos con IA? Comience gratis en EvoLink — una clave API para Seedance 2.0 y todos los principales modelos de video con IA, con enrutamiento inteligente que le ahorra entre 20-70%.
Continúe aprendiendo:
- Guía de prompts de Seedance 2.0 — Domine los fundamentos de escritura de prompts
Ultima actualizacion: 20 de febrero de 2026 | Written by J, Growth Lead at EvoLink
Ready to get started?
Top up and start generating cinematic AI videos in minutes.