Modelos Fast

Cada modo de Seedance 2.0 se distribuye en dos niveles: Estándar y Fast. La familia Fast cede una pequeña cantidad de calidad visual a cambio de una generación más rápida y un precio por segundo más bajo, perfecta para iteración rápida, producción masiva y A/B testing.

Los tres modelos Fast

ID del modelo FastEstándar correspondienteRecomendado para
seedance-2.0-fast-text-to-videoseedance-2.0-text-to-videoText-to-video puro
seedance-2.0-fast-image-to-videoseedance-2.0-image-to-videoConducción con 1 o 2 imágenes
seedance-2.0-fast-reference-to-videoseedance-2.0-reference-to-videoComposición multimodal

Todos los modelos Fast comparten el mismo endpoint y la misma estructura de parámetros:

POST https://api.evolink.ai/v1/videos/generations

Diferencias respecto al Estándar

Idéntico:

  • Endpoint
  • Esquema del cuerpo de la solicitud (todos los nombres de parámetros, tipos y valores por defecto)
  • Niveles de calidad permitidos (480p / 720p), rango de duración (415 segundos), relaciones de aspecto
  • Cantidad y formato de los activos de entrada
  • Esquema de respuesta, ciclo de vida de tareas y formato del payload del webhook
  • Límite de longitud del prompt (500 caracteres chinos / 1000 palabras en inglés)

Diferente:

  • Generación más rápida
  • Precio por segundo más bajo
  • Detalle de calidad ligeramente inferior al Estándar (normalmente indistinguible a simple vista)
  • fast-image-to-video detecta automáticamente el modo (primer fotograma vs primer-último fotograma) según el número de imágenes (1 = conducido por primer fotograma, 2 = transición primer-último fotograma); no se necesita ningún campo adicional

Flujo de trabajo recomendado

Una pipeline de producción típica utiliza ambos niveles:

Iteración de prompts / parámetros
    ↓  (Modelo Fast — rápido y barato)
    ↓
Identifica los prompts y parámetros con los que estás satisfecho
    ↓  (Cambia el campo `model`, deja todo lo demás igual)
    ↓
Entrega final
    ↓  (Modelo Estándar — render de la máxima calidad)

A nivel de código, el único cambio es la cadena model: no hay que tocar ninguna otra lógica.

curl -X POST https://api.evolink.ai/v1/videos/generations \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "seedance-2.0-fast-text-to-video",
    "prompt": "A commercial introducing the latest 2026 electric sports car, highlighting its aerodynamic design and cabin tech.",
    "duration": 6,
    "quality": "720p",
    "aspect_ratio": "16:9",
    "generate_audio": true,
    "model_params": {
      "web_search": true
    }
  }'

model_params.web_search es exclusivo de la familia text-to-video (incluida la variante Fast). Solo se factura cuando realmente se realiza una búsqueda.

Ejemplo: Fast Image-to-Video (auto primer fotograma / primer-último fotograma)

import requests

# 1 imagen → conducido por primer fotograma
response = requests.post(
    "https://api.evolink.ai/v1/videos/generations",
    headers={
        "Authorization": "Bearer YOUR_API_KEY",
        "Content-Type": "application/json"
    },
    json={
        "model": "seedance-2.0-fast-image-to-video",
        "prompt": "Camera slowly pushes in, the scene comes alive",
        "image_urls": ["https://example.com/scene.jpg"],
        "duration": 5
    }
)

# 2 imágenes → cambia automáticamente a transición primer-último fotograma
response = requests.post(
    "https://api.evolink.ai/v1/videos/generations",
    headers={
        "Authorization": "Bearer YOUR_API_KEY",
        "Content-Type": "application/json"
    },
    json={
        "model": "seedance-2.0-fast-image-to-video",
        "prompt": "A smooth transition between two scenes",
        "image_urls": [
            "https://example.com/first.jpg",
            "https://example.com/last.jpg"
        ],
        "duration": 6
    }
)

Ejemplo: Fast Reference-to-Video

curl -X POST https://api.evolink.ai/v1/videos/generations \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "seedance-2.0-fast-reference-to-video",
    "prompt": "Replicate video 1 first-person perspective. Use audio 1 as background music throughout. Promo video opening.",
    "image_urls": ["https://example.com/ref1.jpg"],
    "video_urls": ["https://example.com/reference.mp4"],
    "audio_urls": ["https://example.com/bgm.mp3"],
    "duration": 10,
    "quality": "720p",
    "aspect_ratio": "16:9"
  }'

Cuándo no usar Fast

  • Entregables publicitarios finales / vídeos hero de marca: elige Estándar para mayor estabilidad de detalle
  • Primeros planos faciales o microexpresiones: Estándar es más preciso
  • Composiciones reference-to-video complejas con 9 imágenes + 3 vídeos + 3 audios: Estándar comprende mejor las señales combinadas

Relacionado