February 20, 2026

Seedance 2.0 멀티모달 레퍼런스: @Tags 완벽 가이드

Seedance 2.0의 @tag 레퍼런스 시스템을 마스터하세요. 이미지, 비디오, 오디오 태깅 문법을 실제 예제와 프롬프트 템플릿으로 배워보세요. 무료로 시작할 수 있습니다.

Seedance 2.0 멀티모달 레퍼런스: @Tags 완벽 가이드

대부분의 AI 비디오 생성기는 텍스트 프롬프트를 받아 모델이 알아서 결과물을 만들어 냅니다. Seedance 2.0은 다릅니다. 이미지, 비디오, 오디오 파일을 업로드한 후 @tags를 사용하여 각 파일이 정확히 어떤 역할을 해야 하는지 모델에게 지시합니다 — 첫 번째 프레임으로 사용하거나, 카메라 움직임을 정의하거나, 음악 템포를 설정하거나, 캐릭터 레퍼런스를 제공하는 등의 역할을 말합니다.

이 @tag 레퍼런스 시스템이 바로 Seedance 2.0을 Sora 2, Kling 3.0, Veo 3.1과 차별화하는 핵심입니다. 이 수준의 멀티모달 제어를 제공하는 모델은 다른 곳에서 찾을 수 없습니다.

이 가이드에서는 모든 @tag 유형, 문법 규칙, 파일 제한, 그리고 바로 사용할 수 있는 실제 프롬프트 예제를 다룹니다. API 호출을 직접 따라해 보고 싶다면 무료 EvoLink API 키를 발급받으세요 — 30초면 됩니다.


@Tag 레퍼런스 시스템이란?

기존 텍스트-투-비디오는 하나의 입력, 하나의 출력으로 구성됩니다: 프롬프트를 작성하면 모델이 자체 판단으로 해석합니다. Seedance 2.0은 이를 다중 입력, 지시형 출력 프로세스로 전환합니다.

차이점을 비교해 보겠습니다:

방식입력제어 수준결과
텍스트만 사용"한 여성이 무대에서 춤을 춘다"낮음 — 모델이 모든 것을 결정임의의 여성, 임의의 춤, 임의의 무대
@tags 사용@Image1 (캐릭터) + @Video1 (춤 레퍼런스) + 프롬프트높음 — 각 요소를 직접 지시지정한 캐릭터가 레퍼런스와 정확히 동일한 춤을 수행

@tag 시스템은 영화 감독의 촬영 지시서처럼 작동합니다. 업로드된 각 파일은 프롬프트의 자연어를 통해 역할을 부여받습니다:

  • @Image1 as the first frame — 시작 비주얼을 고정합니다
  • @Video1 for camera movement reference — 촬영 기법을 복제합니다
  • @Audio1 as background music — 사운드트랙과 리듬을 설정합니다

한 번의 생성에 최대 12개 파일 (이미지 9개 + 비디오 3개 + 오디오 클립 3개)을 조합할 수 있으며, 각각 특정 목적의 태그가 지정됩니다.


@Tag 문법 규칙 — 완벽 레퍼런스

기본 문법

형식은 간단합니다: @ + 에셋 유형 + 번호.

@Image1, @Image2, @Image3 ... @Image9
@Video1, @Video2, @Video3
@Audio1, @Audio2, @Audio3

프롬프트에서 이러한 태그를 참조하고 자연어로 역할을 설명합니다:

@Image1 as the first frame, @Image2 as character reference,
reference @Video1's camera movement and tracking shots,
use @Audio1 for background music tempo.

참고: 즈멍(即梦) 플랫폼에서는 태그가 중국어 형식을 사용합니다: @图片1, @视频1, @音频1. API를 통해서는 @Image1, @Video1, @Audio1을 사용합니다.

파일 제한 및 형식

에셋 유형최대 개수형식용량 제한비고
이미지9개JPEG, PNG, WebP, BMP, TIFF, GIF각 30 MB해상도가 높을수록 출력 품질이 향상됩니다
비디오3개MP4, MOV각 50 MB총 재생 시간: 215초, 해상도: 480p720p
오디오3개MP3, WAV각 15 MB총 재생 시간: 15초 이하
합계총 12개제한 내에서 자유롭게 조합 가능

두 가지 입력 모드

Seedance 2.0에는 두 가지 생성 모드가 있습니다. 입력 내용에 따라 사용할 모드가 결정됩니다:

  1. 첫/마지막 프레임 모드 — 시작 이미지(+ 선택적 종료 이미지)와 텍스트 프롬프트만 업로드합니다. 단순하고 빠릅니다.
  2. 올라운드 레퍼런스 모드 — 이미지, 비디오, 오디오의 모든 조합을 @tag 지정과 함께 업로드합니다. 이 모드에서 Seedance 2.0의 모든 기능을 활용할 수 있습니다.

규칙: 비디오 또는 오디오 레퍼런스를 업로드하거나 이미지를 2개 이상 사용하는 경우 반드시 올라운드 레퍼런스 모드를 사용해야 합니다.


이미지 @Tags — 비주얼 아이덴티티 제어

이미지 레퍼런스는 가장 다재다능한 @tag 유형입니다. 하나의 이미지가 프롬프트에서 어떻게 설명하느냐에 따라 다양한 목적으로 활용될 수 있습니다.

이미지 레퍼런스 유형

목적프롬프트 패턴예시
첫 번째 프레임@Image1 as the first frame비디오의 정확한 시작 비주얼을 고정합니다
마지막 프레임@Image2 as the last frame전환을 위한 종료 비주얼을 정의합니다
캐릭터 아이덴티티@Image1 is the main character비디오 전체에서 얼굴/체형 일관성을 유지합니다
스타일 레퍼런스reference @Image1's art style회화 스타일, 색상 팔레트, 비주얼 미학을 적용합니다
장면/환경scene references @Image3장소, 배경, 건축물을 설정합니다
오브젝트 레퍼런스the product in @Image1광고용 제품 디테일을 유지합니다
구도framing references @Image1카메라 앵글과 레이아웃을 복제합니다

예시: 반 고흐 스타일 트랜스퍼

프롬프트:

A young woman with long blonde hair in a blue dress stands on a hilltop,
gazing at a Provençal village at sunset. Entirely rendered in @Image1's
post-impressionist art style — thick impasto brushstrokes, swirling textures,
rich yellows and blues.

입력: 반 고흐 그림 1장을 @Image1으로 사용

결과: 모델이 반 고흐의 시그니처 스타일로 전체 장면을 렌더링합니다 — 단순한 필터 오버레이가 아니라 비디오 전체에서 붓터치 질감이 유지되는 진정한 스타일 트랜스퍼입니다.

비디오: @Image 레퍼런스를 활용한 스타일 트랜스퍼 — 반 고흐 후기인상주의 렌더링

예시: 제품 광고

프롬프트:

Commercial showcase of the handbag in @Image2.
Side profile references @Image1.
Surface material texture references @Image3.
Display all product details with cinematic camera movement.
Grand orchestral background music.

입력: 이미지 3장 — 측면 뷰, 메인 제품 사진, 소재 클로즈업

결과: 레퍼런스 이미지의 정확한 소재 질감과 비율을 유지하는 완성도 높은 제품 비디오 — AI가 제품 디테일을 임의로 변형하지 않습니다.

다중 이미지 캐릭터 일관성

여러 촬영에서 동일한 캐릭터가 필요한 경우, 다양한 각도의 레퍼런스 이미지를 여러 장 업로드합니다:

@Image1 and @Image2 define the main character's appearance.
The character walks through @Image3's environment,
wearing the outfit from @Image4.

캐릭터에 대한 레퍼런스 이미지를 많이 제공할수록 출력의 일관성이 높아집니다. 이 방법은 단일 이미지 생성에서 자주 발생하는 "얼굴 변형" 문제를 해결합니다.


비디오 @Tags — 카메라 및 모션 복제

비디오 레퍼런스는 Seedance 2.0의 가장 인상적인 기능을 활용합니다: 카메라 워크와 물리적 모션의 정밀한 복제. 레퍼런스 비디오를 업로드하면 모델이 정확한 촬영 기법, 액션 안무, 또는 시각 효과를 복제합니다.

비디오 레퍼런스 유형

목적프롬프트 패턴복제되는 요소
카메라 움직임reference @Video1's camera movement팬, 틸트, 돌리, 트래킹, 줌 패턴
액션/안무perform the actions from @Video1신체 동작, 댄스 스텝, 격투 안무
시각 효과reference @Video1's transition effects파티클 효과, 스타일 전환, VFX
리듬/페이싱match @Video1's editing rhythm컷 타이밍, 비트 싱크, 템포
전체 복제completely reference @Video1모든 요소 — 카메라, 액션, 효과, 페이싱

예시: 시네마틱 카메라 복제

프롬프트:

Reference @Image1's character. He is in @Image2's elevator.
Completely reference @Video1's camera movements and the protagonist's
facial expressions. Hitchcock zoom when the character is frightened,
then several orbiting shots inside the elevator.
The elevator door opens, tracking shot follows him out.
Exterior scene references @Image3.

입력: 이미지 3장 (캐릭터, 엘리베이터 내부, 외부 장면) + 레퍼런스 비디오 1개 (원하는 카메라 워크 포함)

결과: 모델이 레퍼런스 비디오의 정확한 히치콕 줌, 오비탈 카메라 움직임, 트래킹 샷을 재현합니다 — 완전히 다른 캐릭터와 배경에 적용됩니다.

복제 가능한 카메라 기법

Seedance 2.0은 레퍼런스 비디오에서 다음 카메라 움직임을 재현할 수 있습니다:

  • 히치콕 줌 (돌리 줌 / 버티고 효과)
  • 360도 오비트 피사체 주위 회전
  • 원테이크 연속 촬영 (컷 없음)
  • 기계식 암 다각도 트래킹
  • 로우앵글 히어로 샷
  • 핸드헬드 추적 카메라
  • 피쉬아이 렌즈 왜곡
  • 푸시-풀 리드미컬 무브먼트

프롬프트 팁: 레퍼런스 비디오에서 어떤 측면을 복제할지 구체적으로 지정하세요. "Reference @Video1's camera movement"가 단순히 "reference @Video1"보다 효과적입니다 — 모델에게 모든 것을 복제하려고 하지 않고 촬영 기법에 집중하도록 지시하기 때문입니다. 완전한 Python 코드가 포함된 camera reference examples는 전용 카메라 움직임 튜토리얼을 참조하세요.

예시: 액션 파쿠르

비디오: 시네마틱 트래킹 샷으로 생성된 다이내믹 파쿠르 — 카메라 움직임 레퍼런스 활용


오디오 @Tags — 레퍼런스를 활용한 사운드 디자인

Seedance 2.0은 모든 비디오에 네이티브 오디오를 생성합니다 — 효과음, 앰비언트 노이즈, 음악, 그리고 대사까지. 오디오 @tags를 사용하면 사운드를 직접 제어할 수 있습니다.

오디오 레퍼런스 유형

목적프롬프트 패턴복제되는 요소
배경 음악use @Audio1 for background music음악 스타일, 템포, 악기
효과음sound effects reference @Audio1특정 사운드 텍스처와 타이밍
보이스/내레이션 스타일narration voice references @Video1보컬 톤, 말하기 속도, 억양
비트 싱크match @Audio1's rhythm for editing cuts음악 비트에 따른 비주얼 전환

비트 싱크로나이제이션 (뮤직 비디오 모드)

가장 강력한 오디오 기능 중 하나입니다: 음악 트랙을 업로드하면 모델이 비주얼 컷과 전환을 비트에 맞춰 동기화합니다.

프롬프트:

@Image1 through @Image7 as scene references.
Match @Video1's visual rhythm and beat synchronization.
Each image appears on a music beat with dynamic transitions.
Enhance visual impact with dramatic lighting changes on each cut.

결과: 모델이 뮤직비디오 스타일의 편집을 생성하여 장면 전환, 카메라 움직임, 조명 변화가 레퍼런스 오디오의 비트에 정확히 맞춰 발생합니다.

비디오 오디오를 레퍼런스로 활용

별도의 오디오 파일이 필요 없습니다 — 업로드된 비디오의 오디오 트랙을 참조할 수 있습니다:

Background music references @Video1's audio.

기존 비디오의 사운드 디자인을 유지하면서 비주얼만 변경하고 싶을 때 유용합니다.

예시: 캐릭터 대화

비디오: 자연스러운 성우 연기와 앰비언트 카페 사운드가 포함된 AI 생성 캐릭터 대화

Seedance 2.0은 영어, 중국어, 스페인어, 한국어 등 다국어 대화 생성을 지원합니다. 프롬프트에 대사를 직접 작성하면 모델이 매칭되는 립싱크와 성우 연기를 생성합니다.


고급 조합 — 멀티모달 레시피

@tags의 진정한 위력은 여러 모달리티를 결합할 때 발휘됩니다. 일반적인 프로덕션 시나리오에 적합한 세 가지 검증된 레시피를 소개합니다.

레시피 1: 시네마틱 숏 필름

목표: 특정 캐릭터, 카메라 워크, 사운드트랙을 갖춘 영화 수준의 장면

파일:

  • @Image1: 캐릭터 얼굴/체형 레퍼런스
  • @Image2: 환경/장소 레퍼런스
  • @Video1: 카메라 움직임 레퍼런스 (예: 영화의 트래킹 샷)
  • @Audio1: 배경 음악 트랙

프롬프트:

@Image1's character walks through @Image2's environment.
Camera movement follows @Video1's tracking shot pattern.
Background music uses @Audio1.
Cinematic lighting, shallow depth of field, 24fps film grain.

파일 할당: 이미지 2개 + 비디오 1개 + 오디오 1개 = 12개 중 4개 사용

레시피 2: 이커머스 제품 비디오

목표: 정적인 제품 사진으로 전문적인 제품 쇼케이스 제작

파일:

  • @Image1: 제품 메인 샷
  • @Image2: 제품 측면 뷰
  • @Image3: 소재/텍스처 클로즈업
  • @Video1: 카메라 움직임 레퍼런스 (제품 주위 오비팅 샷)

프롬프트:

Commercial showcase of the product in @Image2.
Side profile references @Image1.
Surface material and texture reference @Image3.
Camera movement references @Video1's orbiting rotation.
Studio lighting, reflective dark surface, premium aesthetic.

파일 할당: 이미지 3개 + 비디오 1개 = 12개 중 4개 사용

레시피 3: 다중 캐릭터 애니메이션

목표: 안무된 액션으로 두 캐릭터가 상호작용하는 장면

파일:

  • @Image1, @Image2: 캐릭터 A (정면 + 측면 레퍼런스)
  • @Image3, @Image4: 캐릭터 B (정면 + 측면 레퍼런스)
  • @Image5: 배경/장면 레퍼런스
  • @Video1: 액션 안무 레퍼런스

프롬프트:

@Image1 and @Image2 define Character A (spear wielder).
@Image3 and @Image4 define Character B (dual swords).
They fight in @Image5's autumn forest, mimicking @Video1's
combat choreography. White dust rises on impact.
Dramatic star-filled night sky.

파일 할당: 이미지 5개 + 비디오 1개 = 12개 중 6개 사용

12개 파일 예산: 할당 전략

12개의 슬롯이 있습니다. 최대 효과를 위한 할당 방법은 다음과 같습니다:

우선순위할당이유
캐릭터 아이덴티티캐릭터당 이미지 2~3개각도가 많을수록 일관성이 향상됩니다
카메라/모션 레퍼런스비디오 1개좋은 레퍼런스 하나면 충분합니다
장면/환경이미지 1~2개세계관을 설정합니다
오디오/음악오디오 1개 또는 비디오 1개 (오디오 트랙 활용)분위기를 설정합니다
스타일 레퍼런스이미지 1개 (필요시)비사실적 스타일을 원할 때만 사용합니다
예비2~3개 슬롯 확보반복 작업과 추가 디테일을 위해 남겨둡니다

프로 팁: 12개 슬롯을 모두 사용하지 마세요. 4~6개 파일로 시작하고 출력에 더 높은 정밀도가 필요한 경우에만 추가하세요. 레퍼런스를 과도하게 사용하면 모델에 혼란을 줄 수 있습니다.

API 호출 예시

멀티모달 생성이 API를 통해 어떻게 이루어지는지 살펴보겠습니다:

import requests

response = requests.post(
    "https://api.evolink.ai/v1/videos/generations",
    headers={"Authorization": "Bearer YOUR_EVOLINK_API_KEY"},
    json={
        "model": "seedance-2.0",
        "prompt": (
            "@Image1 as the main character. "
            "@Image2 as the environment. "
            "Reference @Video1's tracking shot and camera movement. "
            "The character walks through a misty forest at dawn. "
            "Cinematic lighting, shallow depth of field."
        ),
        "image_urls": [
            "https://your-cdn.com/character.jpg",
            "https://your-cdn.com/forest.jpg"
        ],
        "video_urls": [
            "https://your-cdn.com/tracking-shot.mp4"
        ],
        "duration": 10,
        "quality": "1080p",
        "generate_audio": true
    }
)

task_id = response.json()["id"]
print(f"Generation started: {task_id}")

결과를 폴링합니다:

import time

while True:
    status = requests.get(
        f"https://api.evolink.ai/v1/tasks/{task_id}",
        headers={"Authorization": "Bearer YOUR_EVOLINK_API_KEY"}
    )
    result = status.json()

    if result["status"] == "completed":
        print(f"Video ready: {result['results'][0]}")
        break
    elif result["status"] == "failed":
        print(f"Error: {result.get('error', 'Unknown error')}")
        break

    time.sleep(5)

EvoLink API 키로 이 코드를 실행해 보세요. 가입은 무료이며 신용카드가 필요하지 않습니다.


자주 하는 실수와 해결 방법

@tag의 목적을 지정하지 않는 경우

나쁜 예: @Image1 @Video1 generate a video of a dancer

좋은 예: @Image1 as the dancer's appearance reference. @Video1 for dance choreography and camera movement. Generate the dancer performing on a stage.

모델은 명시적인 역할 지정이 필요합니다. 지정하지 않으면 추측하게 되고 — 잘못 추측합니다.

저해상도 입력 파일

@Image1이 480p라면 출력이 흐릿하게 보일 것입니다. 항상 다음을 사용하세요:

  • 이미지: 2K 이상 해상도
  • 비디오: 720p, 압축 아티팩트 없는 깨끗한 영상
  • 오디오: 128kbps 이상 MP3 또는 무손실 WAV

12개 파일 슬롯을 모두 사용하려는 경우

레퍼런스가 많다고 출력이 더 좋아지는 것은 아닙니다. 3~5개 파일로 시작하고 필요한 경우에만 추가하세요. 서로 충돌하는 레퍼런스가 너무 많으면 모델에 혼란을 줍니다.

실사 인물 얼굴 사진 업로드

플랫폼 제한: Seedance 2.0은 현재 실사 인물 얼굴이 포함된 이미지나 비디오 업로드를 지원하지 않습니다. 시스템이 자동으로 이러한 업로드를 차단합니다. 대신 일러스트, 애니메이션 스타일 또는 양식화된 캐릭터 레퍼런스를 사용하세요.

에셋 번호 혼동

이미지 3개와 비디오 2개를 업로드하면, 번호는 유형별로 독립적으로 매겨집니다:

  • 이미지: @Image1, @Image2, @Image3
  • 비디오: @Video1, @Video2

@File3이나 @Asset5와 같이 작성하지 마세요 — 유형별 번호 체계를 사용하세요.

비디오 연장 시 잘못된 재생 시간 설정

기존 비디오를 5초 연장하는 경우, 생성 재생 시간을 총 길이가 아닌 5초(새로 추가되는 부분)로 설정하세요. 연장된 부분은 원본에 이어 붙여집니다.


FAQ

한 번의 생성에 몇 개의 파일을 업로드할 수 있나요?

최대 12개 파일을 업로드할 수 있습니다: 이미지 최대 9개, 비디오 3개, 오디오 클립 3개. 비디오의 합산 재생 시간은 2초에서 15초 사이여야 합니다. 오디오 클립의 합산 재생 시간은 최대 15초입니다.

API를 통해 @tags를 사용할 수 있나요?

네. API를 호출할 때 JSON 요청 본문에 image_urls, video_urls, audio_urls 배열을 전달하세요. 각 배열에는 레퍼런스 파일의 직접 URL이 포함됩니다. @tag 번호 매기기(@Image1, @Image2...)는 각 배열 내 URL의 순서에 해당합니다. 프롬프트 텍스트는 UI와 동일한 @tag 문법을 사용합니다.

@tag에 역할을 지정하지 않으면 어떻게 되나요?

모델이 파일 내용과 프롬프트 컨텍스트를 기반으로 목적을 추론하려고 시도합니다. 그러나 이 방식은 신뢰할 수 없습니다. 항상 각 태그의 역할을 명시적으로 지정하세요 — 예를 들어 @Image1을 맥락 없이 언급하기보다는 @Image1 as the first frame으로 작성하세요.

업로드한 비디오 파일의 오디오를 참조할 수 있나요?

네. 프롬프트에 background music references @Video1's audio를 사용하세요. 모델이 비디오에서 오디오 트랙을 추출하여 별도의 오디오 파일 없이도 사운드 레퍼런스로 활용합니다.

어떤 이미지와 비디오 형식이 지원되나요?

이미지: JPEG, PNG, WebP, BMP, TIFF, GIF (각 최대 30 MB). 비디오: MP4, MOV (각 최대 50 MB, 480p~720p 해상도). 오디오: MP3, WAV (각 최대 15 MB).


@Tags로 시작하기

@tag 레퍼런스 시스템은 Seedance 2.0을 현재 사용 가능한 가장 제어 가능한 AI 비디오 생성기로 만드는 핵심 요소입니다. 원하는 것을 설명하고 최선의 결과를 기대하는 대신, 모델에게 정확히 무엇을 의미하는지 보여주고 — 영화 촬영팀처럼 직접 연출할 수 있습니다.

핵심 원칙:

  1. 모든 @tag에는 역할이 필요합니다. 파일을 업로드하는 것만으로는 부족합니다 — 각 파일이 무엇을 하는지 모델에게 지시하세요.
  2. 작게 시작하고 정밀도를 높이세요. 3~4개 레퍼런스로 시작하세요. 출력에 필요한 경우에만 추가하세요.
  3. 복제할 대상을 구체적으로 지정하세요. "Reference @Video1's camera movement"가 "reference @Video1"보다 효과적입니다.

직접 AI 비디오를 연출할 준비가 되셨나요? EvoLink에서 무료로 시작하세요 — Seedance 2.0과 모든 주요 AI 비디오 모델을 위한 하나의 API 키로, 스마트 라우팅을 통해 20~70% 비용을 절감할 수 있습니다.

계속 학습하기:


최종 업데이트: 2026년 2월 20일 | Written by J, Growth Lead at EvoLink

Ready to get started?

Top up and start generating cinematic AI videos in minutes.