Modelos Fast
Cada modo de Seedance 2.0 se distribuye en dos niveles: Estándar y Fast. La familia Fast cede una pequeña cantidad de calidad visual a cambio de una generación más rápida y un precio por segundo más bajo, perfecta para iteración rápida, producción masiva y A/B testing.
Los tres modelos Fast
| ID del modelo Fast | Estándar correspondiente | Recomendado para |
|---|---|---|
seedance-2.0-fast-text-to-video | seedance-2.0-text-to-video | Text-to-video puro |
seedance-2.0-fast-image-to-video | seedance-2.0-image-to-video | Conducción con 1 o 2 imágenes |
seedance-2.0-fast-reference-to-video | seedance-2.0-reference-to-video | Composición multimodal |
Todos los modelos Fast comparten el mismo endpoint y la misma estructura de parámetros:
POST https://api.evolink.ai/v1/videos/generations
Diferencias respecto al Estándar
Idéntico:
- Endpoint
- Esquema del cuerpo de la solicitud (todos los nombres de parámetros, tipos y valores por defecto)
- Niveles de calidad permitidos (
480p/720p), rango de duración (4–15segundos), relaciones de aspecto - Cantidad y formato de los activos de entrada
- Esquema de respuesta, ciclo de vida de tareas y formato del payload del webhook
- Límite de longitud del
prompt(500 caracteres chinos / 1000 palabras en inglés)
Diferente:
- Generación más rápida
- Precio por segundo más bajo
- Detalle de calidad ligeramente inferior al Estándar (normalmente indistinguible a simple vista)
fast-image-to-videodetecta automáticamente el modo (primer fotograma vs primer-último fotograma) según el número de imágenes (1 = conducido por primer fotograma, 2 = transición primer-último fotograma); no se necesita ningún campo adicional
Flujo de trabajo recomendado
Una pipeline de producción típica utiliza ambos niveles:
Iteración de prompts / parámetros
↓ (Modelo Fast — rápido y barato)
↓
Identifica los prompts y parámetros con los que estás satisfecho
↓ (Cambia el campo `model`, deja todo lo demás igual)
↓
Entrega final
↓ (Modelo Estándar — render de la máxima calidad)
A nivel de código, el único cambio es la cadena model: no hay que tocar ninguna otra lógica.
Ejemplo: Fast Text-to-Video + web_search
curl -X POST https://api.evolink.ai/v1/videos/generations \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "seedance-2.0-fast-text-to-video",
"prompt": "A commercial introducing the latest 2026 electric sports car, highlighting its aerodynamic design and cabin tech.",
"duration": 6,
"quality": "720p",
"aspect_ratio": "16:9",
"generate_audio": true,
"model_params": {
"web_search": true
}
}'
model_params.web_searches exclusivo de la familia text-to-video (incluida la variante Fast). Solo se factura cuando realmente se realiza una búsqueda.
Ejemplo: Fast Image-to-Video (auto primer fotograma / primer-último fotograma)
import requests
# 1 imagen → conducido por primer fotograma
response = requests.post(
"https://api.evolink.ai/v1/videos/generations",
headers={
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
},
json={
"model": "seedance-2.0-fast-image-to-video",
"prompt": "Camera slowly pushes in, the scene comes alive",
"image_urls": ["https://example.com/scene.jpg"],
"duration": 5
}
)
# 2 imágenes → cambia automáticamente a transición primer-último fotograma
response = requests.post(
"https://api.evolink.ai/v1/videos/generations",
headers={
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
},
json={
"model": "seedance-2.0-fast-image-to-video",
"prompt": "A smooth transition between two scenes",
"image_urls": [
"https://example.com/first.jpg",
"https://example.com/last.jpg"
],
"duration": 6
}
)
Ejemplo: Fast Reference-to-Video
curl -X POST https://api.evolink.ai/v1/videos/generations \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "seedance-2.0-fast-reference-to-video",
"prompt": "Replicate video 1 first-person perspective. Use audio 1 as background music throughout. Promo video opening.",
"image_urls": ["https://example.com/ref1.jpg"],
"video_urls": ["https://example.com/reference.mp4"],
"audio_urls": ["https://example.com/bgm.mp3"],
"duration": 10,
"quality": "720p",
"aspect_ratio": "16:9"
}'
Cuándo no usar Fast
- Entregables publicitarios finales / vídeos hero de marca: elige Estándar para mayor estabilidad de detalle
- Primeros planos faciales o microexpresiones: Estándar es más preciso
- Composiciones reference-to-video complejas con 9 imágenes + 3 vídeos + 3 audios: Estándar comprende mejor las señales combinadas