Minimaxは、2025年12月23日に新世代大規模モデルMinimax M2.1を正式にリリースしました 1。これは、オープンソースAI分野で高い評価を得ている先行モデルM2(2025年10月27日 2 または2025年12月1日 3 リリース)からの主要なアップグレードであり 4、Minimax社の「AI for All」戦略が新たな加速段階に入ったことを示しています 4。M2.1は、その高性能と費用対効果により、AI技術の利用障壁を大幅に引き下げ、AIの民主化を推進するとともに 、AI業界全体の「クローズドソースの独占」から「オープンソースの協力」への歴史的転換を促進する可能性を秘めていると評価されています 4。
本レポートでは、この革新的なMinimax M2.1大規模モデルについて、その公式発表、技術仕様、アーキテクチャ、トレーニングデータ、主要な機能強化、性能、および市場への影響に至るまで、詳細な分析を提供することを目的とします。Minimax社の公式リリース、ホワイトペーパー、および専門家による分析を総合的に調査し、M2.1の包括的な理解を深めます。
Minimax M2.1は、先行モデルであるM2の革新的な基盤を継承しつつ、その技術的枠組みをさらに進化させた大規模言語モデルです。その高性能は、高度なアーキテクチャと効率的なパラメータ管理によって支えられています。本セクションでは、M2.1の核となる技術仕様とアーキテクチャの詳細、M2からの進化点、およびその性能の根拠となる要素を包括的に解説します。
Minimax M2.1は、M2と同様に「Mixture-of-Experts(MoE)」スタイルのアーキテクチャとスパースなエキスパート選択の仕組みを採用しています 。これにより、総パラメータ数は膨大であるものの、推論時にはごく一部のパラメータのみを活性化させることで、高い効率性を実現しています 。
M2.1では、M2の効率的なルーティングシステムをさらに強化し、体系的に「インターリーブ思考」アーキテクチャを導入しています 。これは、オープンソースモデルシリーズの中でこのアーキテクチャを体系的に導入した最初の例の一つとされており、システム的な問題解決能力が大幅にアップグレードされています 。
M2.1の総パラメータ数は2300億に達しますが、MoEアーキテクチャにより推論時に活性化されるパラメータはわずか100億に抑えられています 。この設計により、M2.1は中規模LLMのフットプリント(メモリ使用量)で最上位モデルに近い知能を発揮することが可能です 。この効率的なルーティングシステムは、高い知能の上限とハードウェアに優しい動作を両立させています 。
Minimax-M2のコンテキストウィンドウは400kトークンと報告されています 5。この大容量のコンテキストウィンドウにより、複雑な長文の理解と生成が可能となり、多様なタスクにおける対応能力が向上しています。
M2.1では、特にプログラミング言語対応が体系的に強化されています。Pythonに加えて、Rust、Java、Golang、C++、Kotlin、Objective-C、TypeScript、JavaScriptなどの多様な言語に対する機能が大幅に向上しました 。これにより、低レベルのシステム開発からアプリケーション層開発まで、多言語タスクにおける全体的な性能が業界トップレベルに達しています 。
M2.1における主要な機能強化は以下の通りです 。
最適なパフォーマンスのために、M2.1では以下の推論パラメータが推奨されています: temperature=1.0、top_p = 0.95、top_k = 40 。M2.1はインターリーブ思考モデルであるため、アシスタントの思考内容を履歴メッセージ内に維持することが重要です 6。
M2.1モデルのウェイトはオープンソースとして公開されており、ローカルでの展開と使用が可能です 。量子化版を使用すれば、ハイエンドコンシューマー向けGPU(RTX 4090など)でも限定的に動作可能です 。しかし、公式には4x 96GB GPU(A100/H100クラス)以上が推奨されており、Mac向けにはM3 Ultra以上(256GB RAM)でMLX版が動作します 。SGLang、vLLM、MLXなどの主要な推論フレームワークがサポートされています 。
Minimax M2.1のトレーニングデータに関する具体的な詳細(規模や構成)は、公式レポートには明示されていません。しかし、M2モデルに関する初期の報告では、日本語入力時に中国語や英語が混じる出力の課題が指摘されており、トレーニングデータが中国語中心である可能性が示唆されています 7。M2.1では、前述の通り多言語プログラミング能力の強化が明記されていることから 、多言語対応の改善に向けた取り組み、特にプログラミング言語のデータ拡充が行われたと考えられます。
Minimax M2.1は、コード生成やエージェント機能において高い性能を発揮する一方で、トップクラスのプロプライエタリモデルに見られるような、豊かなマルチモーダル推論や動画理解能力は限定的であると指摘されています 。現時点では、主にテキストベースのタスクに特化したモデルとして位置づけられています。
M2.1は、コアとなるソフトウェアエンジニアリングのリーダーボードでM2を大幅に上回り、多言語シナリオではClaude Sonnet 4.5を凌駕し、Claude Opus 4.5に迫る性能を示しています 。特に、VIBE (Visual & Interactive Benchmark for Execution) の総合ベンチマークでは平均88.6の優れたパフォーマンスを発揮し、VIBE-Web (91.5) とVIBE-Android (89.7) で強みを見せています 。
Minimax M2(M2.1の基礎)の主要ベンチマーク結果は以下の通りです。
| ベンチマーク項目 | MiniMax-M2 | 比較対象 (例: GPT-5, Claude Sonnet 4.5) | 備考 |
|---|---|---|---|
| SWE-bench Verified | 69.4 3 | GPT-5: 74.9 3, Claude Sonnet 4.5: 77.2 3 | |
| Terminal-Bench | 46.3 3 | GPT-5: 43.8 3, Claude Sonnet 4.5: 50.0 3 | |
| Artificial Analysis Intelligence Index | 61 6 | Claude Sonnet 4.5: 63 5, Gemini 2.5 Pro: 60 5 | オープンソースモデル中で1位 6 |
| LiveCodeBench | 83 5 | コーディング | |
| IFBench (指示追従) | 72 8 |
前セクションで述べられたMinimax M2.1の技術的基盤の上に、本セクションではその具体的な性能評価と主要機能、および設計思想が実際の性能にどのように貢献しているかについて詳述します。Minimax M2.1は、先行モデルであるM2の強みを踏襲しつつ、多岐にわたる機能強化と性能向上を実現しています。
Minimax M2.1は、現実世界の複雑なタスクにおけるパフォーマンス向上に重点を置いており、M2で確立された効率的な設計思想をさらに進化させています 1。
これらの機能強化は、M2.1がMixture-of-Experts(MoE)アーキテクチャと「インターリーブ思考」アーキテクチャを体系的に導入した最初のオープンソースモデルシリーズであることと深く関連しています 1。総パラメータ数2300億に対して、推論時に活性化されるパラメータはわずか100億という「100億アクティベーション」の原則により、中規模LLMのフットプリントで最上位モデルに近い知能を実現しています 3。この効率的な設計は、特にエージェントワークフローにおける「計画→実行→検証」のループを合理化し、応答性向上と計算オーバーヘッドの削減に貢献しています 9。
Minimax M2.1は、コアとなるソフトウェアエンジニアリングのリーダーボードでM2を大幅に上回り、多言語シナリオではClaude Sonnet 4.5を凌駕し、Claude Opus 4.5に迫る性能を示しています 1。特に、VIBE (Visual & Interactive Benchmark for Execution) の総合ベンチマークで平均88.6の優れたパフォーマンスを発揮し、VIBE-Web (91.5) とVIBE-Android (89.7) で強みを見せています 1。
MiniMax-M2の主要ベンチマーク結果 (M2.1の基礎性能)
M2.1の具体的なベンチマークスコアの多くはM2のものを引き継ぎつつ向上していると報告されています。M2のベンチマーク結果は以下の通りです。
| ベンチマーク項目 | MiniMax-M2 | 比較対象 (例: GPT-5, Claude Sonnet 4.5) | 備考 |
|---|---|---|---|
| SWE-bench Verified | 69.4 3 | GPT-5: 74.9 3, Claude Sonnet 4.5: 77.2 3 | |
| Terminal-Bench | 46.3 3 | GPT-5: 43.8 3, Claude Sonnet 4.5: 50.0 3 | |
| Artificial Analysis Intelligence Index | 61 6 | Claude Sonnet 4.5: 63 5, Gemini 2.5 Pro: 60 5 | オープンソースモデル中で1位 6 |
| LiveCodeBench (LCB) | 83 5 | コーディング | |
| IFBench (指示追従) | 72 8 |
AA (Artificial Analysis) 知能ベンチマーク
Artificial Analysisは、モデルの数学、科学、命令理解、コーディング、エージェントツール使用における広範な知能プロファイルを反映するため、一貫した方法論を用いてベンチマークを集約しています 10。MiniMax-M2は、オープンソースモデルの中で世界第1位にランク付けされています 。
| ベンチマーク (AA) | MiniMax-M2 | Claude Sonnet 4.5 | Gemini 2.5 Pro | GPT-5 (thinking) |
|---|---|---|---|---|
| AIME25 | 78 10 | 88 10 | 88 10 | 94 10 |
| MMLU-Pro | 82 10 | 88 10 | 86 10 | 87 10 |
| GPQA-Diamond | 78 10 | 83 10 | 84 10 | 85 10 |
| LiveCodeBench (LCB) | 83 10 | 71 10 | 80 10 | 85 10 |
| IFBench | 72 10 | 57 10 | 49 10 | 73 10 |
| AA Intelligence 総合スコア | 61 10 | 63 10 | 60 10 | 69 10 |
Minimax M2.1(およびM2)は、その効率的な設計により、GPT-5やClaude Sonnet 4.5といったフロンティアモデルと競合する性能を発揮し、特に費用対効果において優位性を示しています 10。
Minimax M2.1は、高い知能と経済的効率性を両立させることで、AIエージェントの開発と大規模な導入における障壁を低減し、インテリジェントなコラボレーションの未来をより身近なものにすると期待されています 9。
Minimax M2.1大規模言語モデルは、開発者および企業ユーザーが効果的に利用できるよう、複数のアクセス方法とサポート体制を提供しています。本セクションでは、APIを通じた提供、クラウドプラットフォームでの利用可否、料金体系、開発者向けリソース、およびライセンスモデルについて詳細に記述します。
Minimax M2.1はAPIを通じて提供されており 11、開発者はMiniMax Developer PlatformからAPIキーを取得することで利用を開始できます 12。APIはRESTful形式であり、Anthropic APIおよびOpenAI APIとの互換性を持つSDKを通じてアクセス可能です 12。
APIキーには、コーディングプランAPIキーとプラットフォームAPIキーの2種類があり、これらはMiniMax Developer Platformを通じて取得します 12。APIエンドポイントは、国際ユーザー向けにapi.minimax.io、中国国内ユーザー向けにapi.minimaxi.comが提供されています 12。
Minimax M2.1は、以下のSDKおよび開発ツールとの互換性や連携をサポートしています 12。
| カテゴリ | 詳細 |
|---|---|
| SDK互換性 | Anthropic SDK、OpenAI SDK |
| サポート済みツール | Claude Code (推奨)、VS Code向けClaude Code拡張機能、Cursor、TRAE、Droid、OpenCode |
| 対応予定ツール | Cline、Kilo Code、Roo Code |
M2.1の推論機能に加えて、reasoningパラメータを使用することでモデルの段階的な思考プロセスを有効化し、reasoning_detailsアレイからその詳細を取得することが可能です 13。
Minimax M2.1モデルは、Google CloudのVertex AIにおいてパートナーモデルとして提供されており、Vertex AIプラットフォーム上で利用することができます 14。現時点では、AWSやAzureといった他の主要なクラウドプラットフォームでの直接的な提供に関する具体的な情報は確認されていません。
Minimax M2.1の料金体系は「従量課金制(Pay as you go)」です 11。
トークンに基づく料金体系は以下の通りです 13。
| トークンの種類 | 料金(100万トークンあたり) |
|---|---|
| 入力トークン | 0.30ドル |
| 出力トークン | 1.20ドル |
モデルが処理できる最大コンテキストサイズは204,800トークンです 13。
MiniMax-M2モデルにはText APIに関してRPM(Requests Per Minute)とTPM(Tokens Per Minute)のレート制限が設定されており、MiniMax-M2-Stableモデルでは有料プランによりこれらが拡張されます 11。M2.1についても同様の制限が適用される可能性が高いですが、M2.1固有の具体的な数値は明記されていません。
明確な無料枠に関する記述はありませんが、M2モデルに設定されている基本的なレート制限が初期利用における低コストな範囲を示唆している可能性があります 11。
Minimax M2.1の開発者向けには、包括的なリソースとサポート体制が整備されています。
APIエラー発生時のトラブルシューティング情報が提供されており、問題が解決しない場合は[email protected]へ問い合わせることが可能です 12。
提供された情報では、Minimax M2.1がオープンソースモデルとして公開されているという明確な記述は見当たりません。むしろ、API経由でのアクセスが利用の主な形態とされています 11。また、モデルの具体的なライセンスモデルに関する詳細な情報も確認できませんでした。