見えないものを見出し、未知なるものを知る。
#1
Video-MMEベンチマークでNo.1(30分以上の動画)
+17%
Gemini 3.1 Proと比較してPegasus 1.5のスコアが+17%向上
10x
コンテンツレビューとコンプライアンススキャンが10倍高速化
4 hrs
1回のAPIコールで4時間の単一動画を処理
数分で結果を出力。
インフラストラクチャ
単一のパイプラインを通じて、リアルタイムの約60倍の速度でマルチモーダルデータを取り込みます。1時間の動画をわずか1分でインデックス化し、1日あたり1万時間以上の処理が可能です。
APIとSDK
MCP
インテグレーション

動画ネイティブな認識・推論・オーケストレーション
マルチモーダル埋め込みモデル。見えないものは検索できません。Marengoは動画をデータ化し、実際の内容に基づいてあらゆる瞬間を検索可能にします(人が入力したメタデータではなく)。単一インデックス、全モダリティ対応。総合精度78.5%。47言語対応。

動画言語モデル。一般的なモデルはフレームをサンプリングして推測しますが、Pegasusは最大2時間にわたり、映像全体の時間的な流れを連続的に理解します。登場人物、因果関係、ストーリーを時間軸で追跡。単なる文字起こしツールではありません。

動画言語モデル。一般的なモデルはフレームをサンプリングして推測しますが、Pegasusは最大2時間にわたり、映像全体の時間的な流れを連続的に理解します。登場人物、因果関係、ストーリーを時間軸で追跡。単なる文字起こしツールではありません。

動画言語モデル。一般的なモデルはフレームをサンプリングして推測しますが、Pegasusは最大2時間にわたり、映像全体の時間的な流れを連続的に理解します。登場人物、因果関係、ストーリーを時間軸で追跡。単なる文字起こしツールではありません。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
import requests
# Step 2: Define the API URL and the specific endpoint
API_URL = "https://api.twelvelabs.io/v1.3"
INDEXES_URL = f"{API_URL}/indexes"
# Step 3: Create the necessary headers for authentication
headers = {
"x-api-key": "<YOUR_API_KEY>"
}
# Step 4: Prepare the data payload for your API request
INDEX_NAME = "<YOUR_INDEX_NAME>"
data = {
"models": [
{
"model_name": "marengo3.0",
"model_options": ["visual", "audio"]
}
]
}
Others process video. We comprehend it.
GEMINI (AND GENERAL MULTIMODAL LLMS)
2-minute video cap, 80s audio cap
Gemini's embedding API caps at 2 minutes per video and 80 seconds per audio clip. Anything longer must be chunked manually — destroying temporal context.
Cross-modal embedding collapses
12 distinct audio genres → 1 video result in cross-modal retrieval. Similarity scores cluster between 0.30–0.41 for everything. Calibration fails: unrelated content scores identically to matches.
30.8% structured output failure rate
On news content, Gemini 3.1 Pro fails to produce valid structured JSON nearly a third of the time. Production pipelines require constant fallback handling and retries.
TWELVELABS
Intelligence built at ingest, not at query time
Marengo and Pegasus comprehend every asset the moment it is indexed — building embeddings, structured metadata, and entity relationships that persist. Every query draws on pre-built knowledge, not live inference.
Knowledge that compounds across every asset
Every new asset deepens the knowledge graph. Entity relationships discovered in one video inform retrieval across the entire archive. The system gets smarter with every hour indexed — without you doing anything.
Model upgrades re-process your entire library
When Marengo or Pegasus improves, every asset you've ever indexed automatically gets smarter — no re-upload, no re-indexing, no engineering effort. Historical content becomes more intelligent over time.