Cómo replicar movimientos de cámara con la API de Seedance 2.0
Aprenda a replicar zooms de Hitchcock, planos de seguimiento continuo y cámaras orbitales usando la API de Seedance 2.0. 3 ejemplos completos en Python con etiquetas @Video.

El movimiento de cámara es lo que separa un video plano y estático de algo que se siente cinematográfico. Un dolly zoom crea tensión. Un plano orbital añade grandiosidad. Un plano de seguimiento continuo construye inmersión. Tradicionalmente, lograr estos efectos requiere equipos costosos — gimbals, grúas, drones, Steadicams — además de un operador que sepa utilizarlos.
Seedance 2.0 elimina el hardware. Suba un video de referencia que contenga el movimiento de cámara que desea, indique al modelo qué hacer con él mediante etiquetas @Video, y la API genera contenido nuevo que replica el lenguaje de cámara exacto — la velocidad, la trayectoria, el ritmo, las curvas de aceleración.

Este tutorial le guía a través de tres casos completos de replicación de cámara usando la API de Seedance 2.0 a través de EvoLink:
- Plano de seguimiento continuo — un seguimiento de cámara sin cortes a través de múltiples entornos
- Zoom de Hitchcock (dolly zoom) — el clásico efecto vértigo
- Cámara orbital — un plano de rotación de 360° alrededor de un sujeto
Cada caso incluye un script completo en Python que puede copiar, pegar y ejecutar.
Requisitos previos: Python 3.8+, una clave API de EvoLink (nivel gratuito disponible) y un video de referencia para cada tipo de movimiento de cámara.
Por qué la replicación de movimiento de cámara cambia el video con IA
La mayoría de los generadores de video con IA ofrecen un control de cámara básico basado en texto. Usted escribe "dolly in" o "pan left" y espera que el modelo lo interprete correctamente. Los resultados son inconsistentes — a veces obtiene un push-in suave, a veces una panorámica brusca, a veces nada cambia en absoluto.
Seedance 2.0 adopta un enfoque fundamentalmente diferente: mostrar, no describir. En lugar de describir el movimiento de cámara con palabras, usted sube un video que demuestra el movimiento exacto que desea. El modelo analiza la referencia y reproduce:
- Trayectoria de cámara — recorridos de seguimiento, arcos orbitales, movimientos de grúa
- Velocidad y aceleración — entrada suave, salida suave, paradas bruscas, deslizamientos fluidos
- Comportamiento focal — sincronización del cambio de enfoque, variaciones de profundidad de campo
- Ritmo compositivo — cuánto tiempo se mantiene cada encuadre antes de que la cámara se mueva
Esto significa que puede tomar un movimiento de cámara de una película de Hollywood, un plano de dron de YouTube o un clip de gimbal que filmó usted mismo — y aplicar ese movimiento exacto a contenido completamente nuevo.
Ninguna otra API de video con IA ofrece este nivel de control de cámara. Sora 2 y Kling 3.0 dependen de prompts de texto para la dirección de cámara. Veo 3.1 admite palabras clave básicas de cámara. Solo Seedance 2.0 acepta entrada de video de referencia específicamente para la extracción del lenguaje de cámara.
Cómo Seedance 2.0 lee el lenguaje de cámara
La etiqueta @Video es el mecanismo. Cuando sube un video de referencia y lo etiqueta en su prompt, usted especifica qué debe extraer el modelo de él. Esto es fundamental — un solo video de referencia contiene movimiento de cámara, movimiento del sujeto, efectos visuales, iluminación y ritmo. Necesita indicar al modelo qué elemento utilizar.
La sintaxis de la etiqueta @Video
@Video1 — referencia de movimiento de cámara y trayectoria de seguimiento
El prompt indica explícitamente qué referenciar. Compare estos dos enfoques:
Vago (poco fiable):
Use @Video1 as reference. Generate a city scene.
Específico (fiable):
Replicate @Video1's camera movement exactly — the tracking speed,
trajectory, and push-in timing. Apply this camera work to a new scene:
a samurai walking through a bamboo forest at dawn.
La segunda versión le indica al modelo: extrae únicamente el lenguaje de cámara de la referencia. Genera contenido nuevo (samurái, bosque de bambú) pero mueve la cámara virtual exactamente como se mueve la cámara del video de referencia.
Qué puede extraer
| Elemento de referencia | Lenguaje de prompt | Ejemplo |
|---|---|---|
| Trayectoria de cámara | "replicate camera movement" | Seguimiento, dolly, órbita, grúa |
| Velocidad de cámara | "match camera pacing" | Avance lento, panorámica rápida |
| Cámara + movimiento del sujeto | "replicate camera and choreography" | Combinación de baile + cámara |
| Solo movimiento del sujeto | "replicate movement/action from @Video1" | Patrón de caminata del personaje |
| Efectos visuales | "replicate transition effects" | Transiciones de panorámica rápida, morphs |
Regla clave: Sea explícito sobre lo que está referenciando. Si quiere solo el movimiento de cámara, diga "camera movement". Si también quiere la coreografía de acción, mencione ambos. La ambigüedad produce resultados mixtos.
Para una guía completa del sistema de referencias @ tag, consulte nuestro artículo Referencias Multimodales: La Guía Definitiva de @Tags.
Configuración de su entorno
Requisitos
- Python 3.8+
- Biblioteca
requests - Clave API de EvoLink (regístrese gratis)
- Archivos de video de referencia (MP4, 2–15 segundos, menos de 50 MB, 480p–720p)
Instalar dependencias
pip install requests
Configuración base de la API
import requests
import time
EVOLINK_API_KEY = "your-evolink-api-key"
BASE_URL = "https://api.evolink.ai/v1"
HEADERS = {
"Authorization": f"Bearer {EVOLINK_API_KEY}",
"Content-Type": "application/json"
}
def poll_task(task_id, interval=5, timeout=300):
elapsed = 0
while elapsed < timeout:
resp = requests.get(
f"{BASE_URL}/tasks/{task_id}",
headers=HEADERS
)
result = resp.json()
status = result.get("status")
if status == "completed":
print(f"Video ready: {result['results'][0]}")
return result
elif status == "failed":
print(f"Generation failed: {result.get('error')}")
return result
print(f"Status: {status} ({elapsed}s elapsed)")
time.sleep(interval)
elapsed += interval
print("Timeout reached")
return None
Este código base maneja la autenticación y el sondeo de tareas. Cada caso a continuación se construye sobre él.
Obtenga su clave API gratuita de EvoLink en evolink.ai para seguir los ejemplos a continuación.
Caso 1: Plano de seguimiento continuo
El plano de seguimiento continuo es una de las técnicas de cámara más impresionantes en el cine. La cámara sigue a un sujeto a través de múltiples entornos en una sola toma continua — sin cortes. Piense en la famosa escena del Copacabana en Goodfellas o la pelea del pasillo en Oldboy.
Con Seedance 2.0, usted replica esto subiendo un video de referencia que demuestra un movimiento de seguimiento continuo, y luego genera contenido nuevo que sigue la misma trayectoria de cámara.
Lo que necesita
Video de referencia: Cualquier clip que muestre un movimiento de cámara de seguimiento continuo (2–15 segundos). Un plano de gimbal caminando, un seguimiento con dron o un clip de Steadicam funcionan bien.
Prompt: Describe el contenido nuevo a generar, mientras referencia el movimiento de cámara de su video.
El prompt
Replicate @Video1's camera movement exactly — continuous one-take
tracking shot, maintaining the same speed, trajectory, and smooth
forward motion throughout.
Apply this camera work to a new scene: a parkour runner sprinting
through narrow city alleyways, leaping over obstacles, vaulting up
a staircase, and reaching a rooftop overlooking the city skyline.
Golden sunset lighting. Dynamic and energetic. No cuts.
Elementos clave de este prompt:
- Líneas 1–3: Indica explícitamente al modelo que extraiga el movimiento de cámara de
@Video1 - Líneas 5–8: Describe contenido completamente nuevo — el modelo genera este tema
- "No cuts": Refuerza el requisito de toma continua
Código Python completo
# Case 1: One-Take Tracking Shot
response = requests.post(
f"{BASE_URL}/videos/generations",
headers=HEADERS,
json={
"model": "seedance-2.0",
"prompt": (
"Replicate @Video1's camera movement exactly — continuous "
"one-take tracking shot, maintaining the same speed, "
"trajectory, and smooth forward motion throughout.\n\n"
"Apply this camera work to a new scene: a parkour runner "
"sprinting through narrow city alleyways, leaping over "
"obstacles, vaulting up a staircase, and reaching a rooftop "
"overlooking the city skyline. Golden sunset lighting. "
"Dynamic and energetic. No cuts."
),
"video_urls": ["https://your-cdn.com/tracking_reference.mp4"],
"duration": 10,
"quality": "720p"
}
)
task_id = response.json()["id"]
print(f"Task created: {task_id}")
result = poll_task(task_id)
Qué esperar
El video generado mostrará a un corredor de parkour en un entorno urbano — pero el movimiento de cámara (velocidad de seguimiento, impulso hacia adelante, movimiento continuo fluido) proviene de su video de referencia. El modelo no copia el sujeto ni el escenario de la referencia. Copia cómo se mueve la cámara.
Ejemplo de salida: Plano de seguimiento continuo siguiendo a un corredor de parkour a través de entornos urbanos. La cámara mantiene un movimiento continuo hacia adelante con estabilidad suave similar a un gimbal.
Pruébelo usted mismo: Reemplace con su propio video de referencia — un plano de seguimiento con dron, un clip de dashcam de auto o un video de gimbal caminando — y cambie el prompt para que coincida con la escena deseada. El movimiento de cámara se transfiere.
Caso 2: Zoom de Hitchcock (Dolly Zoom)
El dolly zoom — inventado para Vértigo (1958) de Alfred Hitchcock — es una de las técnicas de cámara más desorientadoras y poderosas del cine. La cámara se mueve físicamente hacia (o desde) el sujeto mientras el lente hace zoom en la dirección opuesta. El sujeto mantiene el mismo tamaño en el encuadre, pero el fondo se deforma dramáticamente. Crea una sensación visceral de inquietud, revelación o cambio emocional.
En el cine real, esto requiere un riel de dolly y una sincronización precisa del zoom. Con Seedance 2.0, solo necesita un clip de referencia.
Lo que necesita
Video de referencia: Un clip que demuestre el efecto de dolly zoom. Puede encontrar ejemplos en YouTube buscando "dolly zoom effect" o "vertigo effect tutorial". El clip debe durar 3–8 segundos mostrando la compresión/expansión del fondo mientras el sujeto permanece estacionario.
Prompt: Nuevo tema con referencia explícita al dolly zoom.
El prompt
Replicate @Video1's camera technique exactly — the dolly zoom
(Hitchcock zoom) effect where the camera moves forward while
zooming out, keeping the subject the same size while the
background dramatically stretches.
Apply this effect to: a detective standing in a dim corridor.
As the dolly zoom activates, the corridor behind him stretches
impossibly long, creating a sense of dawning horror.
Dramatic side lighting with deep shadows. Film noir atmosphere.
Código Python completo
# Case 2: Hitchcock Zoom (Dolly Zoom)
response = requests.post(
f"{BASE_URL}/videos/generations",
headers=HEADERS,
json={
"model": "seedance-2.0",
"prompt": (
"Replicate @Video1's camera technique exactly — the dolly "
"zoom (Hitchcock zoom) effect where the camera moves forward "
"while zooming out, keeping the subject the same size while "
"the background dramatically stretches.\n\n"
"Apply this effect to: a detective standing in a dim "
"corridor. As the dolly zoom activates, the corridor behind "
"him stretches impossibly long, creating a sense of dawning "
"horror. Dramatic side lighting with deep shadows. "
"Film noir atmosphere."
),
"video_urls": ["https://your-cdn.com/dolly_zoom_reference.mp4"],
"duration": 8,
"quality": "720p"
}
)
task_id = response.json()["id"]
print(f"Task created: {task_id}")
result = poll_task(task_id)
Por qué funciona
El dolly zoom es notoriamente difícil de describir en texto. Escribir "zoom in while moving backward" a menudo produce resultados confusos en otras herramientas de video con IA. Al proporcionar un video de referencia que demuestra la técnica, Seedance 2.0 puede analizar los cambios de relación espacial — cómo el fondo se comprime/expande en relación con el primer plano — y reproducirlos con precisión.
Consejo: Cuanto más limpio y aislado sea el dolly zoom en su video de referencia, mejor. Evite clips de referencia con mucho movimiento del sujeto o cambios de escena — el modelo podría confundir el movimiento de cámara con el movimiento del sujeto.
Caso 3: Cámara orbital (rotación de 360°)
El plano orbital rota la cámara alrededor de un sujeto, creando una revelación dramática o estableciendo la presencia de un personaje. Es un elemento básico de videoclips musicales, presentaciones de héroes y exhibiciones de productos.
Lo que necesita
Video de referencia: Un clip que muestre una cámara orbitando alrededor de un sujeto. Una rotación suave de 180° o 360° funciona mejor. Las tomas de producto en plataforma giratoria o las revelaciones de personajes son referencias ideales.
Prompt: Nuevo sujeto + referencia orbital explícita.
El prompt
Replicate @Video1's orbital camera movement — the smooth 360°
rotation around the subject, maintaining consistent distance
and speed throughout the arc.
Apply this camera movement to: a lone astronaut standing on
the surface of Mars. Red desert landscape stretches to the
horizon. The orbital camera reveals the astronaut from all
angles as dust particles float in the thin atmosphere.
Epic cinematic scale. Golden hour Martian lighting.
Código Python completo
# Case 3: Orbital Camera (360 Rotation)
response = requests.post(
f"{BASE_URL}/videos/generations",
headers=HEADERS,
json={
"model": "seedance-2.0",
"prompt": (
"Replicate @Video1's orbital camera movement — the smooth "
"360 degree rotation around the subject, maintaining consistent "
"distance and speed throughout the arc.\n\n"
"Apply this camera movement to: a lone astronaut standing "
"on the surface of Mars. Red desert landscape stretches to "
"the horizon. The orbital camera reveals the astronaut from "
"all angles as dust particles float in the thin atmosphere. "
"Epic cinematic scale. Golden hour Martian lighting."
),
"video_urls": ["https://your-cdn.com/orbital_reference.mp4"],
"duration": 10,
"quality": "720p"
}
)
task_id = response.json()["id"]
print(f"Task created: {task_id}")
result = poll_task(task_id)
Cómo elegir la referencia orbital adecuada
No todos los planos orbitales son iguales. El video de referencia determina:
| Calidad de la referencia | Calidad del resultado |
|---|---|
| Rotación suave y estable a velocidad constante | Orbital limpio y profesional |
| Rotación manual con movimiento | Órbita orgánica, estilo documental |
| Giro rápido envolvente | Revelación dinámica y enérgica |
| Órbita parcial lenta de 90° | Cambio de ángulo sutil y dramático |
Elija una referencia que coincida con la energía que desea. Un video de producto en plataforma giratoria le da una rotación mecánicamente suave. Un recorrido a mano alzada le da movimiento orgánico.
Avanzado: Combinar movimiento de cámara con otras referencias
El verdadero poder del sistema de referencias de Seedance 2.0 emerge cuando combina movimiento de cámara con otros tipos de entrada. No está limitado a una sola referencia — puede usar hasta 3 referencias de video y 9 referencias de imagen (12 archivos en total).
Cámara + Personaje + Estilo
Aquí una combinación de tres entradas:
@Video1— movimiento de cámara (plano orbital)@Image1— apariencia del personaje (un diseño de personaje específico)@Image2— referencia de estilo (un estilo artístico o paleta de colores particular)
# Advanced: Camera + Character + Style combination
response = requests.post(
f"{BASE_URL}/videos/generations",
headers=HEADERS,
json={
"model": "seedance-2.0",
"prompt": (
"Replicate @Video1's orbital camera movement — smooth "
"rotation around the subject.\n\n"
"@Image1 is the character — maintain this character's "
"appearance exactly.\n\n"
"@Image2 is the visual style reference — match its color "
"palette, lighting mood, and artistic treatment.\n\n"
"Scene: The character from @Image1 stands in the center "
"of a grand cathedral. The orbital camera from @Video1 "
"slowly reveals the architecture. Visual style matches "
"@Image2 throughout."
),
"image_urls": [
"https://your-cdn.com/character_design.png",
"https://your-cdn.com/art_style_reference.jpg"
],
"video_urls": [
"https://your-cdn.com/orbital_reference.mp4"
],
"duration": 10,
"quality": "720p"
}
)
task_id = response.json()["id"]
print(f"Task created: {task_id}")
result = poll_task(task_id)
Estrategia de asignación de referencias
Al mezclar múltiples tipos de referencia, sea estratégico con su presupuesto de 12 archivos:
| Escenario | Refs de video | Refs de imagen | Refs de audio |
|---|---|---|---|
| Solo replicación de cámara | 1 (cámara) | 0 | 0 |
| Cámara + personaje | 1 (cámara) | 1 (personaje) | 0 |
| Cámara + personaje + estilo | 1 (cámara) | 2 (personaje + estilo) | 0 |
| Cámara + coreografía + personaje | 2 (cámara + baile) | 1 (personaje) | 0 |
| Producción completa | 1 (cámara) | 3 (personaje + escena + estilo) | 1 (música) |
Regla general: Comience con 2–3 referencias. Agregar más no siempre mejora los resultados — puede introducir señales contradictorias. Utilice el número mínimo de referencias necesarias para comunicar su intención.
Para más información sobre estrategias de múltiples referencias, consulte nuestro artículo Referencias Multimodales: La Guía Definitiva de @Tags.
Errores comunes y cómo corregirlos
Error 1: No especificar qué referenciar
Incorrecto:
Use @Video1. A knight rides a horse through a valley.
El modelo no sabe si usted quiere el movimiento de cámara, el movimiento del sujeto, el estilo visual o todo de @Video1.
Correcto:
Replicate @Video1's camera movement and tracking trajectory.
A knight rides a horse through a green valley at sunrise.
Error 2: Video de referencia demasiado largo o complejo
Los videos de referencia deben durar 2–15 segundos y mostrar un movimiento de cámara limpio e identificable. Un clip de 15 segundos con tres técnicas de cámara diferentes (panorámica, luego zoom, luego órbita) genera señales confusas.
Solución: Recorte su referencia para aislar el movimiento de cámara específico que desea. Utilice el ejemplo más simple y limpio de la técnica.
Error 3: Confundir movimiento de cámara con movimiento del sujeto
Un video de referencia de alguien bailando contiene dos cosas: cómo se mueve la cámara y cómo se mueve el sujeto. Si solo quiere el trabajo de cámara, dígalo explícitamente:
Replicate ONLY @Video1's camera movement — the pan speed, tracking
trajectory, and framing rhythm. Ignore the subject's actions.
New subject: a robot assembling car parts on a factory floor.
Error 4: Prompt y referencia contradictorios
Si su referencia muestra un dolly push-in lento y suave pero su prompt dice "fast-paced action with rapid cuts", el modelo recibe señales contradictorias.
Solución: Alinee su prompt de texto con la energía de su video de referencia. El prompt describe el contenido; la referencia demuestra la técnica.
Error 5: Esperar resultados perfectos a la primera
La replicación de cámara es sofisticada. Su primer intento puede no coincidir perfectamente con la referencia. Itere:
- Comience con un prompt simple + referencia limpia
- Revise la salida — ¿el movimiento de cámara se acerca?
- Ajuste el lenguaje del prompt para ser más específico sobre lo que falla
- Pruebe con un video de referencia diferente si la técnica no se transfiere
Preguntas frecuentes
¿Puedo combinar movimiento de cámara de un video con coreografía de otro?
Sí. Utilice dos referencias @Video: @Video1 para el movimiento de cámara y @Video2 para la coreografía/acción. Especifique en el prompt: "Replicate @Video1's camera movement and @Video2's dance choreography." Seedance 2.0 admite hasta 3 referencias de video simultáneamente.
¿Qué formato y duración de video funciona mejor para referencias de cámara?
Formato MP4, resolución 480p–720p, duración de 2–15 segundos, tamaño de archivo inferior a 50 MB. Para referencias de movimiento de cámara, más corto suele ser mejor — un clip limpio de 3–5 segundos de una sola técnica de cámara se transfiere de forma más fiable que un clip largo con múltiples técnicas.
¿En qué se diferencia esto del control de cámara de Sora o Kling?
Sora 2 y Kling 3.0 utilizan dirección de cámara basada en texto — usted describe el movimiento con palabras ("dolly in", "pan left"). Los resultados dependen de qué tan bien el modelo interprete su texto. Seedance 2.0 utiliza control de cámara basado en referencias — usted le muestra al modelo lo que quiere mediante etiquetas @Video. Esto produce una replicación de cámara más precisa y consistente, especialmente para movimientos complejos como zooms de Hitchcock o planos de seguimiento continuo que son difíciles de describir en texto.
¿Puedo usar una grabación de pantalla o video de teléfono como referencia de cámara?
Sí. Cualquier video que demuestre el movimiento de cámara que desea funciona como referencia. Un video de teléfono que filmó mientras caminaba produce un plano de seguimiento con cámara en mano. Una grabación de pantalla de un clip de película transfiere el lenguaje de cámara de esa película. El modelo extrae el comportamiento de la cámara independientemente de la calidad de producción.
¿La replicación de cámara funciona con la generación de imagen a video?
Sí. Puede combinar @Video1 (referencia de movimiento de cámara) con @Image1 (primer fotograma / personaje) para generar un video que comience desde su imagen y mueva la cámara según su referencia de video. Esto es poderoso para videos de productos y presentaciones de personajes.
Comience a replicar cualquier movimiento de cámara
El movimiento de cámara ya no está limitado por el equipo o la experiencia. Con un video de referencia y el sistema de etiquetas @Video de Seedance 2.0, puede replicar cualquier técnica de cámara — desde sutiles cambios de enfoque hasta zooms de Hitchcock completos — y aplicarla a cualquier contenido que pueda describir.
Los tres casos de este tutorial cubren las técnicas de cámara más solicitadas:
- Seguimiento continuo para movimiento inmersivo y sin cortes
- Dolly zoom para tensión dramática e impacto psicológico
- Plano orbital para revelaciones de personajes y exhibiciones de productos
Cada uno funciona de la misma manera: suba una referencia, etiquétela, describa su escena, deje que el modelo se encargue de la cámara.
¿Listo para probarlo? Regístrese para obtener una clave API gratuita de EvoLink y comience a generar videos cinematográficos con IA con control preciso de cámara.
Lectura relacionada:
- Prompts de Seedance 2.0: Guía completa para generación de video multimodal — domine el formato de prompts tipo guion para escenas complejas
- Referencias Multimodales en Seedance 2.0: La Guía Definitiva de @Tags — inmersión profunda en el sistema completo de referencias @tag
Última actualización: 20 de febrero de 2026 | Escrito por J, Growth Lead en EvoLink
Ready to get started?
Top up and start generating cinematic AI videos in minutes.