See the unseen. Know the unknowable.
1등
Video-MME 벤치마크 1위 (30분 이상 영상 기준)
+17%
Pegasus 1.5: Gemini 3.1 Pro 대비 17% 높은 성능.
10x
콘텐츠 검토 및 컴플라이언스 스캔 속도 10배 향상
4시간
4시간 분량의 영상도 API 호출 한 번으로 처리
단 몇 분 만에 결과를 확인하세요.

영상에 최적화된 인식과 추론, 연동과 활용
멀티모달 임베딩 모델
보지 못하는 것은 검색할 수 없습니다. Marengo는 영상을 데이터로 바꿉니다. 시공간 임베딩을 통해 누군가 입력한 메타데이터가 아니라, 영상에 실제로 담긴 내용을 기준으로 모든 순간을 검색 가능하게 만듭니다. 하나의 인덱스, 모든 모달리티, 78.5% 복합 정확도, 47개 언어 지원.

영상 언어 모델.
범용 모델은 몇 개 프레임만 보고 추측합니다. Pegasus는 최대 2시간 길이의 영상 전체 시간 흐름을 따라 연속적으로 추론합니다. 시간에 따라 객체, 인과관계, 서사의 흐름까지 이해합니다. 단순히 전사만 읽는 모델이 아닙니다.

영상 언어 모델.
범용 모델은 몇 개 프레임만 보고 추측합니다. Pegasus는 최대 2시간 길이의 영상 전체 시간 흐름을 따라 연속적으로 추론합니다. 시간에 따라 객체, 인과관계, 서사의 흐름까지 이해합니다. 단순히 전사만 읽는 모델이 아닙니다.

영상 언어 모델.
범용 모델은 몇 개 프레임만 보고 추측합니다. Pegasus는 최대 2시간 길이의 영상 전체 시간 흐름을 따라 연속적으로 추론합니다. 시간에 따라 객체, 인과관계, 서사의 흐름까지 이해합니다. 단순히 전사만 읽는 모델이 아닙니다.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
import requests
# Step 2: Define the API URL and the specific endpoint
API_URL = "https://api.twelvelabs.io/v1.3"
INDEXES_URL = f"{API_URL}/indexes"
# Step 3: Create the necessary headers for authentication
headers = {
"x-api-key": "<YOUR_API_KEY>"
}
# Step 4: Prepare the data payload for your API request
INDEX_NAME = "<YOUR_INDEX_NAME>"
data = {
"models": [
{
"model_name": "marengo3.0",
"model_options": ["visual", "audio"]
}
]
}
Others process video. We comprehend it.
GEMINI (AND GENERAL MULTIMODAL LLMS)
2-minute video cap, 80s audio cap
Gemini's embedding API caps at 2 minutes per video and 80 seconds per audio clip. Anything longer must be chunked manually — destroying temporal context.
Cross-modal embedding collapses
12 distinct audio genres → 1 video result in cross-modal retrieval. Similarity scores cluster between 0.30–0.41 for everything. Calibration fails: unrelated content scores identically to matches.
30.8% structured output failure rate
On news content, Gemini 3.1 Pro fails to produce valid structured JSON nearly a third of the time. Production pipelines require constant fallback handling and retries.
트웰브랩스
Intelligence built at ingest, not at query time
Marengo and Pegasus comprehend every asset the moment it is indexed — building embeddings, structured metadata, and entity relationships that persist. Every query draws on pre-built knowledge, not live inference.
Knowledge that compounds across every asset
Every new asset deepens the knowledge graph. Entity relationships discovered in one video inform retrieval across the entire archive. The system gets smarter with every hour indexed — without you doing anything.
Model upgrades re-process your entire library
When Marengo or Pegasus improves, every asset you've ever indexed automatically gets smarter — no re-upload, no re-indexing, no engineering effort. Historical content becomes more intelligent over time.