Seedance 2.0 멀티모달 레퍼런스: @Tags 완벽 가이드
Seedance 2.0의 @tag 레퍼런스 시스템을 마스터하세요. 이미지, 비디오, 오디오 태깅 문법을 실제 예제와 프롬프트 템플릿으로 배워보세요. 무료로 시작할 수 있습니다.

대부분의 AI 비디오 생성기는 텍스트 프롬프트를 받아 모델이 알아서 결과물을 만들어 냅니다. Seedance 2.0은 다릅니다. 이미지, 비디오, 오디오 파일을 업로드한 후 @tags를 사용하여 각 파일이 정확히 어떤 역할을 해야 하는지 모델에게 지시합니다 — 첫 번째 프레임으로 사용하거나, 카메라 움직임을 정의하거나, 음악 템포를 설정하거나, 캐릭터 레퍼런스를 제공하는 등의 역할을 말합니다.
이 @tag 레퍼런스 시스템이 바로 Seedance 2.0을 Sora 2, Kling 3.0, Veo 3.1과 차별화하는 핵심입니다. 이 수준의 멀티모달 제어를 제공하는 모델은 다른 곳에서 찾을 수 없습니다.
이 가이드에서는 모든 @tag 유형, 문법 규칙, 파일 제한, 그리고 바로 사용할 수 있는 실제 프롬프트 예제를 다룹니다. API 호출을 직접 따라해 보고 싶다면 무료 EvoLink API 키를 발급받으세요 — 30초면 됩니다.
@Tag 레퍼런스 시스템이란?
기존 텍스트-투-비디오는 하나의 입력, 하나의 출력으로 구성됩니다: 프롬프트를 작성하면 모델이 자체 판단으로 해석합니다. Seedance 2.0은 이를 다중 입력, 지시형 출력 프로세스로 전환합니다.
차이점을 비교해 보겠습니다:
| 방식 | 입력 | 제어 수준 | 결과 |
|---|---|---|---|
| 텍스트만 사용 | "한 여성이 무대에서 춤을 춘다" | 낮음 — 모델이 모든 것을 결정 | 임의의 여성, 임의의 춤, 임의의 무대 |
| @tags 사용 | @Image1 (캐릭터) + @Video1 (춤 레퍼런스) + 프롬프트 | 높음 — 각 요소를 직접 지시 | 지정한 캐릭터가 레퍼런스와 정확히 동일한 춤을 수행 |
@tag 시스템은 영화 감독의 촬영 지시서처럼 작동합니다. 업로드된 각 파일은 프롬프트의 자연어를 통해 역할을 부여받습니다:
@Image1 as the first frame— 시작 비주얼을 고정합니다@Video1 for camera movement reference— 촬영 기법을 복제합니다@Audio1 as background music— 사운드트랙과 리듬을 설정합니다
한 번의 생성에 최대 12개 파일 (이미지 9개 + 비디오 3개 + 오디오 클립 3개)을 조합할 수 있으며, 각각 특정 목적의 태그가 지정됩니다.
@Tag 문법 규칙 — 완벽 레퍼런스
기본 문법
형식은 간단합니다: @ + 에셋 유형 + 번호.
@Image1, @Image2, @Image3 ... @Image9
@Video1, @Video2, @Video3
@Audio1, @Audio2, @Audio3
프롬프트에서 이러한 태그를 참조하고 자연어로 역할을 설명합니다:
@Image1 as the first frame, @Image2 as character reference,
reference @Video1's camera movement and tracking shots,
use @Audio1 for background music tempo.
참고: 즈멍(即梦) 플랫폼에서는 태그가 중국어 형식을 사용합니다:
@图片1,@视频1,@音频1. API를 통해서는@Image1,@Video1,@Audio1을 사용합니다.
파일 제한 및 형식
| 에셋 유형 | 최대 개수 | 형식 | 용량 제한 | 비고 |
|---|---|---|---|---|
| 이미지 | 9개 | JPEG, PNG, WebP, BMP, TIFF, GIF | 각 30 MB | 해상도가 높을수록 출력 품질이 향상됩니다 |
| 비디오 | 3개 | MP4, MOV | 각 50 MB | 총 재생 시간: 2 |
| 오디오 | 3개 | MP3, WAV | 각 15 MB | 총 재생 시간: 15초 이하 |
| 합계 | 총 12개 | — | — | 제한 내에서 자유롭게 조합 가능 |
두 가지 입력 모드
Seedance 2.0에는 두 가지 생성 모드가 있습니다. 입력 내용에 따라 사용할 모드가 결정됩니다:
- 첫/마지막 프레임 모드 — 시작 이미지(+ 선택적 종료 이미지)와 텍스트 프롬프트만 업로드합니다. 단순하고 빠릅니다.
- 올라운드 레퍼런스 모드 — 이미지, 비디오, 오디오의 모든 조합을 @tag 지정과 함께 업로드합니다. 이 모드에서 Seedance 2.0의 모든 기능을 활용할 수 있습니다.
규칙: 비디오 또는 오디오 레퍼런스를 업로드하거나 이미지를 2개 이상 사용하는 경우 반드시 올라운드 레퍼런스 모드를 사용해야 합니다.
이미지 @Tags — 비주얼 아이덴티티 제어
이미지 레퍼런스는 가장 다재다능한 @tag 유형입니다. 하나의 이미지가 프롬프트에서 어떻게 설명하느냐에 따라 다양한 목적으로 활용될 수 있습니다.
이미지 레퍼런스 유형
| 목적 | 프롬프트 패턴 | 예시 |
|---|---|---|
| 첫 번째 프레임 | @Image1 as the first frame | 비디오의 정확한 시작 비주얼을 고정합니다 |
| 마지막 프레임 | @Image2 as the last frame | 전환을 위한 종료 비주얼을 정의합니다 |
| 캐릭터 아이덴티티 | @Image1 is the main character | 비디오 전체에서 얼굴/체형 일관성을 유지합니다 |
| 스타일 레퍼런스 | reference @Image1's art style | 회화 스타일, 색상 팔레트, 비주얼 미학을 적용합니다 |
| 장면/환경 | scene references @Image3 | 장소, 배경, 건축물을 설정합니다 |
| 오브젝트 레퍼런스 | the product in @Image1 | 광고용 제품 디테일을 유지합니다 |
| 구도 | framing references @Image1 | 카메라 앵글과 레이아웃을 복제합니다 |
예시: 반 고흐 스타일 트랜스퍼
프롬프트:
A young woman with long blonde hair in a blue dress stands on a hilltop,
gazing at a Provençal village at sunset. Entirely rendered in @Image1's
post-impressionist art style — thick impasto brushstrokes, swirling textures,
rich yellows and blues.
입력: 반 고흐 그림 1장을 @Image1으로 사용
결과: 모델이 반 고흐의 시그니처 스타일로 전체 장면을 렌더링합니다 — 단순한 필터 오버레이가 아니라 비디오 전체에서 붓터치 질감이 유지되는 진정한 스타일 트랜스퍼입니다.
비디오: @Image 레퍼런스를 활용한 스타일 트랜스퍼 — 반 고흐 후기인상주의 렌더링
예시: 제품 광고
프롬프트:
Commercial showcase of the handbag in @Image2.
Side profile references @Image1.
Surface material texture references @Image3.
Display all product details with cinematic camera movement.
Grand orchestral background music.
입력: 이미지 3장 — 측면 뷰, 메인 제품 사진, 소재 클로즈업
결과: 레퍼런스 이미지의 정확한 소재 질감과 비율을 유지하는 완성도 높은 제품 비디오 — AI가 제품 디테일을 임의로 변형하지 않습니다.
다중 이미지 캐릭터 일관성
여러 촬영에서 동일한 캐릭터가 필요한 경우, 다양한 각도의 레퍼런스 이미지를 여러 장 업로드합니다:
@Image1 and @Image2 define the main character's appearance.
The character walks through @Image3's environment,
wearing the outfit from @Image4.
캐릭터에 대한 레퍼런스 이미지를 많이 제공할수록 출력의 일관성이 높아집니다. 이 방법은 단일 이미지 생성에서 자주 발생하는 "얼굴 변형" 문제를 해결합니다.
비디오 @Tags — 카메라 및 모션 복제
비디오 레퍼런스는 Seedance 2.0의 가장 인상적인 기능을 활용합니다: 카메라 워크와 물리적 모션의 정밀한 복제. 레퍼런스 비디오를 업로드하면 모델이 정확한 촬영 기법, 액션 안무, 또는 시각 효과를 복제합니다.
비디오 레퍼런스 유형
| 목적 | 프롬프트 패턴 | 복제되는 요소 |
|---|---|---|
| 카메라 움직임 | reference @Video1's camera movement | 팬, 틸트, 돌리, 트래킹, 줌 패턴 |
| 액션/안무 | perform the actions from @Video1 | 신체 동작, 댄스 스텝, 격투 안무 |
| 시각 효과 | reference @Video1's transition effects | 파티클 효과, 스타일 전환, VFX |
| 리듬/페이싱 | match @Video1's editing rhythm | 컷 타이밍, 비트 싱크, 템포 |
| 전체 복제 | completely reference @Video1 | 모든 요소 — 카메라, 액션, 효과, 페이싱 |
예시: 시네마틱 카메라 복제
프롬프트:
Reference @Image1's character. He is in @Image2's elevator.
Completely reference @Video1's camera movements and the protagonist's
facial expressions. Hitchcock zoom when the character is frightened,
then several orbiting shots inside the elevator.
The elevator door opens, tracking shot follows him out.
Exterior scene references @Image3.
입력: 이미지 3장 (캐릭터, 엘리베이터 내부, 외부 장면) + 레퍼런스 비디오 1개 (원하는 카메라 워크 포함)
결과: 모델이 레퍼런스 비디오의 정확한 히치콕 줌, 오비탈 카메라 움직임, 트래킹 샷을 재현합니다 — 완전히 다른 캐릭터와 배경에 적용됩니다.
복제 가능한 카메라 기법
Seedance 2.0은 레퍼런스 비디오에서 다음 카메라 움직임을 재현할 수 있습니다:
- 히치콕 줌 (돌리 줌 / 버티고 효과)
- 360도 오비트 피사체 주위 회전
- 원테이크 연속 촬영 (컷 없음)
- 기계식 암 다각도 트래킹
- 로우앵글 히어로 샷
- 핸드헬드 추적 카메라
- 피쉬아이 렌즈 왜곡
- 푸시-풀 리드미컬 무브먼트
프롬프트 팁: 레퍼런스 비디오에서 어떤 측면을 복제할지 구체적으로 지정하세요. "Reference @Video1's camera movement"가 단순히 "reference @Video1"보다 효과적입니다 — 모델에게 모든 것을 복제하려고 하지 않고 촬영 기법에 집중하도록 지시하기 때문입니다. 완전한 Python 코드가 포함된 camera reference examples는 전용 카메라 움직임 튜토리얼을 참조하세요.
예시: 액션 파쿠르
비디오: 시네마틱 트래킹 샷으로 생성된 다이내믹 파쿠르 — 카메라 움직임 레퍼런스 활용
오디오 @Tags — 레퍼런스를 활용한 사운드 디자인
Seedance 2.0은 모든 비디오에 네이티브 오디오를 생성합니다 — 효과음, 앰비언트 노이즈, 음악, 그리고 대사까지. 오디오 @tags를 사용하면 사운드를 직접 제어할 수 있습니다.
오디오 레퍼런스 유형
| 목적 | 프롬프트 패턴 | 복제되는 요소 |
|---|---|---|
| 배경 음악 | use @Audio1 for background music | 음악 스타일, 템포, 악기 |
| 효과음 | sound effects reference @Audio1 | 특정 사운드 텍스처와 타이밍 |
| 보이스/내레이션 스타일 | narration voice references @Video1 | 보컬 톤, 말하기 속도, 억양 |
| 비트 싱크 | match @Audio1's rhythm for editing cuts | 음악 비트에 따른 비주얼 전환 |
비트 싱크로나이제이션 (뮤직 비디오 모드)
가장 강력한 오디오 기능 중 하나입니다: 음악 트랙을 업로드하면 모델이 비주얼 컷과 전환을 비트에 맞춰 동기화합니다.
프롬프트:
@Image1 through @Image7 as scene references.
Match @Video1's visual rhythm and beat synchronization.
Each image appears on a music beat with dynamic transitions.
Enhance visual impact with dramatic lighting changes on each cut.
결과: 모델이 뮤직비디오 스타일의 편집을 생성하여 장면 전환, 카메라 움직임, 조명 변화가 레퍼런스 오디오의 비트에 정확히 맞춰 발생합니다.
비디오 오디오를 레퍼런스로 활용
별도의 오디오 파일이 필요 없습니다 — 업로드된 비디오의 오디오 트랙을 참조할 수 있습니다:
Background music references @Video1's audio.
기존 비디오의 사운드 디자인을 유지하면서 비주얼만 변경하고 싶을 때 유용합니다.
예시: 캐릭터 대화
비디오: 자연스러운 성우 연기와 앰비언트 카페 사운드가 포함된 AI 생성 캐릭터 대화
Seedance 2.0은 영어, 중국어, 스페인어, 한국어 등 다국어 대화 생성을 지원합니다. 프롬프트에 대사를 직접 작성하면 모델이 매칭되는 립싱크와 성우 연기를 생성합니다.
고급 조합 — 멀티모달 레시피
@tags의 진정한 위력은 여러 모달리티를 결합할 때 발휘됩니다. 일반적인 프로덕션 시나리오에 적합한 세 가지 검증된 레시피를 소개합니다.
레시피 1: 시네마틱 숏 필름
목표: 특정 캐릭터, 카메라 워크, 사운드트랙을 갖춘 영화 수준의 장면
파일:
- @Image1: 캐릭터 얼굴/체형 레퍼런스
- @Image2: 환경/장소 레퍼런스
- @Video1: 카메라 움직임 레퍼런스 (예: 영화의 트래킹 샷)
- @Audio1: 배경 음악 트랙
프롬프트:
@Image1's character walks through @Image2's environment.
Camera movement follows @Video1's tracking shot pattern.
Background music uses @Audio1.
Cinematic lighting, shallow depth of field, 24fps film grain.
파일 할당: 이미지 2개 + 비디오 1개 + 오디오 1개 = 12개 중 4개 사용
레시피 2: 이커머스 제품 비디오
목표: 정적인 제품 사진으로 전문적인 제품 쇼케이스 제작
파일:
- @Image1: 제품 메인 샷
- @Image2: 제품 측면 뷰
- @Image3: 소재/텍스처 클로즈업
- @Video1: 카메라 움직임 레퍼런스 (제품 주위 오비팅 샷)
프롬프트:
Commercial showcase of the product in @Image2.
Side profile references @Image1.
Surface material and texture reference @Image3.
Camera movement references @Video1's orbiting rotation.
Studio lighting, reflective dark surface, premium aesthetic.
파일 할당: 이미지 3개 + 비디오 1개 = 12개 중 4개 사용
레시피 3: 다중 캐릭터 애니메이션
목표: 안무된 액션으로 두 캐릭터가 상호작용하는 장면
파일:
- @Image1, @Image2: 캐릭터 A (정면 + 측면 레퍼런스)
- @Image3, @Image4: 캐릭터 B (정면 + 측면 레퍼런스)
- @Image5: 배경/장면 레퍼런스
- @Video1: 액션 안무 레퍼런스
프롬프트:
@Image1 and @Image2 define Character A (spear wielder).
@Image3 and @Image4 define Character B (dual swords).
They fight in @Image5's autumn forest, mimicking @Video1's
combat choreography. White dust rises on impact.
Dramatic star-filled night sky.
파일 할당: 이미지 5개 + 비디오 1개 = 12개 중 6개 사용
12개 파일 예산: 할당 전략
12개의 슬롯이 있습니다. 최대 효과를 위한 할당 방법은 다음과 같습니다:
| 우선순위 | 할당 | 이유 |
|---|---|---|
| 캐릭터 아이덴티티 | 캐릭터당 이미지 2~3개 | 각도가 많을수록 일관성이 향상됩니다 |
| 카메라/모션 레퍼런스 | 비디오 1개 | 좋은 레퍼런스 하나면 충분합니다 |
| 장면/환경 | 이미지 1~2개 | 세계관을 설정합니다 |
| 오디오/음악 | 오디오 1개 또는 비디오 1개 (오디오 트랙 활용) | 분위기를 설정합니다 |
| 스타일 레퍼런스 | 이미지 1개 (필요시) | 비사실적 스타일을 원할 때만 사용합니다 |
| 예비 | 2~3개 슬롯 확보 | 반복 작업과 추가 디테일을 위해 남겨둡니다 |
프로 팁: 12개 슬롯을 모두 사용하지 마세요. 4~6개 파일로 시작하고 출력에 더 높은 정밀도가 필요한 경우에만 추가하세요. 레퍼런스를 과도하게 사용하면 모델에 혼란을 줄 수 있습니다.
API 호출 예시
멀티모달 생성이 API를 통해 어떻게 이루어지는지 살펴보겠습니다:
import requests
response = requests.post(
"https://api.evolink.ai/v1/videos/generations",
headers={"Authorization": "Bearer YOUR_EVOLINK_API_KEY"},
json={
"model": "seedance-2.0",
"prompt": (
"@Image1 as the main character. "
"@Image2 as the environment. "
"Reference @Video1's tracking shot and camera movement. "
"The character walks through a misty forest at dawn. "
"Cinematic lighting, shallow depth of field."
),
"image_urls": [
"https://your-cdn.com/character.jpg",
"https://your-cdn.com/forest.jpg"
],
"video_urls": [
"https://your-cdn.com/tracking-shot.mp4"
],
"duration": 10,
"quality": "1080p",
"generate_audio": true
}
)
task_id = response.json()["id"]
print(f"Generation started: {task_id}")
결과를 폴링합니다:
import time
while True:
status = requests.get(
f"https://api.evolink.ai/v1/tasks/{task_id}",
headers={"Authorization": "Bearer YOUR_EVOLINK_API_KEY"}
)
result = status.json()
if result["status"] == "completed":
print(f"Video ready: {result['results'][0]}")
break
elif result["status"] == "failed":
print(f"Error: {result.get('error', 'Unknown error')}")
break
time.sleep(5)
EvoLink API 키로 이 코드를 실행해 보세요. 가입은 무료이며 신용카드가 필요하지 않습니다.
자주 하는 실수와 해결 방법
@tag의 목적을 지정하지 않는 경우
나쁜 예: @Image1 @Video1 generate a video of a dancer
좋은 예: @Image1 as the dancer's appearance reference. @Video1 for dance choreography and camera movement. Generate the dancer performing on a stage.
모델은 명시적인 역할 지정이 필요합니다. 지정하지 않으면 추측하게 되고 — 잘못 추측합니다.
저해상도 입력 파일
@Image1이 480p라면 출력이 흐릿하게 보일 것입니다. 항상 다음을 사용하세요:
- 이미지: 2K 이상 해상도
- 비디오: 720p, 압축 아티팩트 없는 깨끗한 영상
- 오디오: 128kbps 이상 MP3 또는 무손실 WAV
12개 파일 슬롯을 모두 사용하려는 경우
레퍼런스가 많다고 출력이 더 좋아지는 것은 아닙니다. 3~5개 파일로 시작하고 필요한 경우에만 추가하세요. 서로 충돌하는 레퍼런스가 너무 많으면 모델에 혼란을 줍니다.
실사 인물 얼굴 사진 업로드
플랫폼 제한: Seedance 2.0은 현재 실사 인물 얼굴이 포함된 이미지나 비디오 업로드를 지원하지 않습니다. 시스템이 자동으로 이러한 업로드를 차단합니다. 대신 일러스트, 애니메이션 스타일 또는 양식화된 캐릭터 레퍼런스를 사용하세요.
에셋 번호 혼동
이미지 3개와 비디오 2개를 업로드하면, 번호는 유형별로 독립적으로 매겨집니다:
- 이미지: @Image1, @Image2, @Image3
- 비디오: @Video1, @Video2
@File3이나 @Asset5와 같이 작성하지 마세요 — 유형별 번호 체계를 사용하세요.
비디오 연장 시 잘못된 재생 시간 설정
기존 비디오를 5초 연장하는 경우, 생성 재생 시간을 총 길이가 아닌 5초(새로 추가되는 부분)로 설정하세요. 연장된 부분은 원본에 이어 붙여집니다.
FAQ
한 번의 생성에 몇 개의 파일을 업로드할 수 있나요?
최대 12개 파일을 업로드할 수 있습니다: 이미지 최대 9개, 비디오 3개, 오디오 클립 3개. 비디오의 합산 재생 시간은 2초에서 15초 사이여야 합니다. 오디오 클립의 합산 재생 시간은 최대 15초입니다.
API를 통해 @tags를 사용할 수 있나요?
네. API를 호출할 때 JSON 요청 본문에 image_urls, video_urls, audio_urls 배열을 전달하세요. 각 배열에는 레퍼런스 파일의 직접 URL이 포함됩니다. @tag 번호 매기기(@Image1, @Image2...)는 각 배열 내 URL의 순서에 해당합니다. 프롬프트 텍스트는 UI와 동일한 @tag 문법을 사용합니다.
@tag에 역할을 지정하지 않으면 어떻게 되나요?
모델이 파일 내용과 프롬프트 컨텍스트를 기반으로 목적을 추론하려고 시도합니다. 그러나 이 방식은 신뢰할 수 없습니다. 항상 각 태그의 역할을 명시적으로 지정하세요 — 예를 들어 @Image1을 맥락 없이 언급하기보다는 @Image1 as the first frame으로 작성하세요.
업로드한 비디오 파일의 오디오를 참조할 수 있나요?
네. 프롬프트에 background music references @Video1's audio를 사용하세요. 모델이 비디오에서 오디오 트랙을 추출하여 별도의 오디오 파일 없이도 사운드 레퍼런스로 활용합니다.
어떤 이미지와 비디오 형식이 지원되나요?
이미지: JPEG, PNG, WebP, BMP, TIFF, GIF (각 최대 30 MB). 비디오: MP4, MOV (각 최대 50 MB, 480p~720p 해상도). 오디오: MP3, WAV (각 최대 15 MB).
@Tags로 시작하기
@tag 레퍼런스 시스템은 Seedance 2.0을 현재 사용 가능한 가장 제어 가능한 AI 비디오 생성기로 만드는 핵심 요소입니다. 원하는 것을 설명하고 최선의 결과를 기대하는 대신, 모델에게 정확히 무엇을 의미하는지 보여주고 — 영화 촬영팀처럼 직접 연출할 수 있습니다.
핵심 원칙:
- 모든 @tag에는 역할이 필요합니다. 파일을 업로드하는 것만으로는 부족합니다 — 각 파일이 무엇을 하는지 모델에게 지시하세요.
- 작게 시작하고 정밀도를 높이세요. 3~4개 레퍼런스로 시작하세요. 출력에 필요한 경우에만 추가하세요.
- 복제할 대상을 구체적으로 지정하세요. "Reference @Video1's camera movement"가 "reference @Video1"보다 효과적입니다.
직접 AI 비디오를 연출할 준비가 되셨나요? EvoLink에서 무료로 시작하세요 — Seedance 2.0과 모든 주요 AI 비디오 모델을 위한 하나의 API 키로, 스마트 라우팅을 통해 20~70% 비용을 절감할 수 있습니다.
계속 학습하기:
- Seedance 2.0 프롬프트 가이드 — 프롬프트 작성의 기본을 마스터하세요
최종 업데이트: 2026년 2월 20일 | Written by J, Growth Lead at EvoLink