ご不明な点はなんですか?
FAQ - AI CHATについて
利用可能なLLM
LLM(大規模言語モデル)の切り替え方法
AI OMNI AGENTでは用途に合わせてLLM(大規模言語モデル=AIのモデル)を切り替えることができます。
画面下部の入力欄の中にあるLLM設定より、利用するLLMを切り替えることができます。
※管理画面(管理者権限のユーザーのみ有効)から、特定のLLMを表示させないよう設定することも可能です。

利用可能なLLM一覧
OpenAI GPTシリーズ
- 開発元:OpenAI社
- 特徴:幅広いタスクに対応可能な汎用性の高いLLM
最新フラッグシップモデル(GPT-5シリーズ)
- GPT-5.1:OpenAIフラッグシップモデル、GPT-5の改良版で推論制度と応答品質が向上
- GPT-5:OpenAIの旧フラッグシップモデル
- GPT-5 mini:GPT-5の軽量・高速版
- GPT-5 Codex:コーディングに特化した最新モデル
- GPT-5 Codex (High):GPT-5 Codexの高精度バージョン
- GPT-5 Pro:プロフェッショナル向け高性能モデル
推論特化モデル(oシリーズ)
- o4-mini:軽量ながらマルチモーダル対応、数学・コーディング・視覚タスクで高性能
- o4-mini-high:o4-miniの推論努力レベルを"高"に設定した高精度バージョン
- o3:第3世代oシリーズ、段階的推論により幅広い分野で最先端性能
- o3-pro:推論特化モデル、複雑な数学・科学・プログラミング問題が得意
- o3-high:o3の推論努力レベルを"高"に設定した高精度バージョン
-
o3-mini;高速・正確な応答と高いコスト効率を両立する最新推論モデル
従来モデル
- GPT-4.1:GPT-4シリーズの最新改良版
- GPT-4.1 mini:GPT-4.1の軽量・高速版
- GPT-4o:日本語処理が得意な高性能モデル
- GPT-4o mini:GPT-4oの廉価版、スピードと性能を両立
Google Geminiシリーズ
- 開発元:Google社
- 特徴:大量の情報処理とマルチモーダル対応が得意
最新モデル(Gemini 3.0シリーズ)
- Gemini3.0 Pro:Google最新のフラッグシップモデル、推論能力と多言語対応が大幅に強化
- Gemini3.0 Flash:超高速応答と高いコスト効率を実現、リアルタイム処理に最適
従来モデル(Gemini 2 シリーズ)
- Gemini 2.5 Pro:100万トークン(近日200万)の入出力に対応
- Gemini 2.5 Flash:低レイテンシー・高コスパを両立、ハイブリッド推論で"考える力"を調整可能
- Gemini 2.0 Flash:100万トークンの広大なコンテキスト対応
- Gemini 1.5 Pro 002:大量の情報を一度に処理できる高性能モデル
Anthropic Claudeシリーズ
- 開発元:Anthropic社
- 特徴;高い推論能力と安全性を重視した設計
最新モデル(Claude 4シリーズ)
- Opus 4.5:Anthropic最新のフラッグシップモデル、Claude 4.1 Opusの後継で最高峰の推論性能
- Claude 4.1 Opus:Anthropic最新のフラグシップモデル
- Claude 4.0 Sonnet:高い推論能力を持つ次世代モデル
- Claude Sonnet 4.5:高速処理と推論能力を兼ね備えた最新モデル
- Claude Sonnet 4.5 Thinking:Claude Sonnet 4.5の拡張思考モード
- Claude Haiku 4.5;軽量かつ高速な次世代モデル
従来モデル
- Claude 3.7 Sonnet;スピードと高い賢さを両立したモデル
- Claude 3.7 Sonnet Thinking:Claude 3.7 Sonnetの拡張思考モード
- Claude 3.5 Sonnet:スピードと高い賢さを両立したモデル
- Claude 3.5 Haiku:文脈理解力とコストパフォーマンスのバランスに優れたモデル
xAI Grokシリーズ
- 開発元:xAI社
- 特徴:リアルタイム情報アクセスと高度な推論能力
最新モデル(Grok 4シリーズ)
- Grok 4:xAI最新のフラッグシップLLM、高度な推論と広範な知識
- Grok 4 (fast):Grok 4の高速バリエーション、高い推論性能を維持しつつ応答速度を優先
従来モデル
- Grok 3: 高度な推論と広範な知識、コードインタープリターとインターネットアクセス対応
- Grok 3 (fast): Grok 3の高速バリエーション
- Grok 3 Mini: 高速処理と推論能力を組み合わせた軽量モデル
- Grok 3 Mini (fast): Grok 3 Miniのさらに高速なバージョン
DeepSeekシリーズ
- 開発元:中国の人工知能研究所DeepSeek
- セキュリティ:米Fireworks.ai社APIを使用し、入力は中国に送信されず、学習にも利用されません
モデル一覧
- DeepSeek v3 (0324):リアルタイム応答性に優れた非推論型LLM、オープンソース最高クラスの性能
- DeepSeek R1:数学・コーディング・推論タスクに特化したLLM、複雑な問題解決を支援
Kimiシリーズ
開発元::MoonShot AI社
- 特徴:コーディングとエージェント機能に特化した革命的なAIモデル
- セキュリティ:米Fireworks.ai社APIを使用し、入力は中国に送信されず、学習にも利用されません
モデル一覧
- Kimi K2 Thinking:Kimi K2に拡張思考モードを搭載、複雑な問題に対してステップバイステップで推論
- Kimi K2:Moonshot AI社の1兆パラメータMoEモデル。コーディング(SWE-bench 65.8%)でGPT-4.1を超える性能
- Kimi K2(Fast):Kimi K2(0905)をGroq LPUにより最大18倍高速化を実現したモデル
Qwenシリーズ
- 開発元:Alibaba社
- 特徴:多言語対応、多様なモデルサイズ、超低価格
- セキュリティ:米Fireworks.ai社APIを使用し、入力は中国に送信されず、学習にも利用されません
モデル一覧
- Qwen3 (235B-A22B): 推論・コーディング・高い指示追従性能を持つ
用途別LLM選択ガイド
汎用的な質問・文章作成
- 推奨モデル:GPT-5.1、Opus 4.5、GPT-5、Claude 4.1、GPT-4o、Kimi K2
- ビジネス文書の作成、メール返信、企画書の下書きなど、日常的な業務に最適です。
高度な推論・分析
- 推奨モデル:o3シリーズ、Opus 4.5、Claude 4.1、Grok 4、Kimi K2 Thinking、Qwen3
- 複雑なビジネス課題の分析、戦略立案、データ解釈など、深い思考が必要な場面で力を発揮します。
コーディング・数学
- 推奨モデル:DeepSeek R1、o4-miniシリーズ、Qwen3、GPT-5 Codex
- プログラミング支援、数式の解析、技術的な問題解決に特化しています。
高速処理重視
- 推奨モデル:GPT-5 mini、Gemini 3.0 Flash、Grok 4 (fast)、GPT-4o mini
- 迅速な応答が求められるカスタマーサポートやチャットボット運用に適しています。
大容量データ処理
- 推奨モデル:Gemini 3.0 Pro、Gemini 2.5 Pro、Gemini 2.0 Flash
- 長文の契約書レビュー、大量の資料分析など、広範なコンテキストが必要な業務に最適です。
コストパフォーマンス重視
- 推奨モデル:Claude 3.5 Haiku、GPT-4o mini、Kimi K2
- 予算を抑えつつ高品質な結果を得たい場合におすすめです。
- 予算を抑えつつ高品質な結果を得たい場合におすすめです。
ポイント
- 管理画面から特定モデルの表示/非表示を設定可能(管理者権限のユーザーのみ)
- セキュリティ重視の設計: DeepSeek, Kimi, Qwenは米Fireworks.ai社API経由で提供され、入力情報が中国に送信されることはありません
- 思考モード搭載モデル(Claude Sonnet 4.5 ThinkingやClaude 3.7 Sonnet Thinking、Kimi K2 Thinking)は、複雑な問題に対してより深い推論プロセスを実行します
- 各モデルの特性を理解し、タスクに最適なモデルを選択することで、業務効率とコストパフォーマンスを最大化できます

