見えないものを見出し、未知なるものを知る。

People don't want AI to do their work. They want to be freed from the mechanical — so they can do the work that matters. Your video archive contains every insight that mattered. Until now, extracting it has been physically impossible.

Sports & Media
Find every comeback moment across our entire 10-year archive
Security & Compliance
Advertising & Publishing
AI Products & Agents
Found 847 comeback moments across 10 years of championship footage. Results ranked by excitement score and audience reaction.

#1

Video-MMEベンチマークでNo.1(30分以上の動画)

+17%

Gemini 3.1 Proと比較してPegasus 1.5のスコアが+17%向上

10x

コンテンツレビューとコンプライアンススキャンが10倍高速化

4 hrs

1回のAPIコールで4時間の単一動画を処理

数分で結果を出力。

生の動画を検索可能なAI対応データへと大規模に変換する、動画インテリジェンスのためのインフラストラクチャ。

生の動画を検索可能なAI対応データへと大規模に変換する、動画インテリジェンスのためのインフラストラクチャ。

インフラストラクチャ

単一のパイプラインを通じて、リアルタイムの約60倍の速度でマルチモーダルデータを取り込みます。1時間の動画をわずか1分でインデックス化し、1日あたり1万時間以上の処理が可能です。

APIとSDK

本番環境対応のAPI。動画を送信して検索や分析を実行し、お客様のパイプラインで直接利用できる構造化された出力を受け取ります。完全な型サポート、非同期操作、再試行ロジック、ストリーミングを組み込んだ、PythonおよびNode.js向けの公式SDKを提供しています。

MCP

当社のMCPサーバーはClaude Code、Cursor、VS Codeと連携します。そのため、AIエージェントはIDEから離れることなく動画インテリジェンスを制御できます。マルチモーダルデータへの永続的なアクセスを備えた、マルチモーダル対応アプリケーションを構築しましょう。

インテグレーション

TwelveLabsは既存の技術スタックにシームレスに統合されます。チームが使い慣れたツールを変更することなく、動画インテリジェンスを導入できます。

動画ネイティブな認識・推論・オーケストレーション

LLMはテキストを計算可能にしました。Twelve Labsはその概念を動画・画像・音声へと拡張し、発見から分析、そしてアクションへとつなげます。

LLMはテキストを計算可能にしました。Twelve Labsはその概念を動画・画像・音声へと拡張し、発見から分析、そしてアクションへとつなげます。

マルチモーダル埋め込みモデル。見えないものは検索できません。Marengoは動画をデータ化し、実際の内容に基づいてあらゆる瞬間を検索可能にします(人が入力したメタデータではなく)。単一インデックス、全モダリティ対応。総合精度78.5%。47言語対応。

動画言語モデル。一般的なモデルはフレームをサンプリングして推測しますが、Pegasusは最大2時間にわたり、映像全体の時間的な流れを連続的に理解します。登場人物、因果関係、ストーリーを時間軸で追跡。単なる文字起こしツールではありません。

動画言語モデル。一般的なモデルはフレームをサンプリングして推測しますが、Pegasusは最大2時間にわたり、映像全体の時間的な流れを連続的に理解します。登場人物、因果関係、ストーリーを時間軸で追跡。単なる文字起こしツールではありません。

動画言語モデル。一般的なモデルはフレームをサンプリングして推測しますが、Pegasusは最大2時間にわたり、映像全体の時間的な流れを連続的に理解します。登場人物、因果関係、ストーリーを時間軸で追跡。単なる文字起こしツールではありません。

Python
Node.js

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

import requests

 

# Step 2: Define the API URL and the specific endpoint

API_URL = "https://api.twelvelabs.io/v1.3"

INDEXES_URL = f"{API_URL}/indexes"

 

# Step 3: Create the necessary headers for authentication

headers = {

"x-api-key": "<YOUR_API_KEY>"

}

 

# Step 4: Prepare the data payload for your API request

INDEX_NAME = "<YOUR_INDEX_NAME>"

data = {

"models": [

{

"model_name": "marengo3.0",

"model_options": ["visual", "audio"]

}

]

}

First result: under 10 minutes. No patience required.

生の動画を検索可能なAI対応データへと大規模に変換する、動画インテリジェンスのためのインフラストラクチャ。

First result: under 10 minutes. No patience required.

生の動画を検索可能なAI対応データへと大規模に変換する、動画インテリジェンスのためのインフラストラクチャ。

Others process video. We comprehend it.

General-purpose models stuff frames into a context window at query time — every question starts from scratch. TwelveLabs builds structured knowledge at ingest, so intelligence compounds with every asset indexed.

General-purpose models stuff frames into a context window at query time — every question starts from scratch. TwelveLabs builds structured knowledge at ingest, so intelligence compounds with every asset indexed.

GEMINI (AND GENERAL MULTIMODAL LLMS)

2-minute video cap, 80s audio cap

Gemini's embedding API caps at 2 minutes per video and 80 seconds per audio clip. Anything longer must be chunked manually — destroying temporal context.

Cross-modal embedding collapses

12 distinct audio genres → 1 video result in cross-modal retrieval. Similarity scores cluster between 0.30–0.41 for everything. Calibration fails: unrelated content scores identically to matches.

30.8% structured output failure rate

On news content, Gemini 3.1 Pro fails to produce valid structured JSON nearly a third of the time. Production pipelines require constant fallback handling and retries.

TWELVELABS

Intelligence built at ingest, not at query time

Marengo and Pegasus comprehend every asset the moment it is indexed — building embeddings, structured metadata, and entity relationships that persist. Every query draws on pre-built knowledge, not live inference.

Knowledge that compounds across every asset

Every new asset deepens the knowledge graph. Entity relationships discovered in one video inform retrieval across the entire archive. The system gets smarter with every hour indexed — without you doing anything.

Model upgrades re-process your entire library

When Marengo or Pegasus improves, every asset you've ever indexed automatically gets smarter — no re-upload, no re-indexing, no engineering effort. Historical content becomes more intelligent over time.