ご不明な点はなんですか?
FAQ - AI CHATについて
利用可能なLLM
LLM(大規模言語モデル)の切り替え方法
AI OMNI AGENTでは用途に合わせてLLM(大規模言語モデル=AIのモデル)を切り替えることができます。
画面下部の入力欄の中にあるLLM設定より、利用するLLMを切り替えることができます。
※管理画面(管理者権限のユーザーのみ有効)から、特定のLLMを表示させないよう設定することも可能です。

利用可能なLLM一覧
OpenAI GPTシリーズ
- 開発元:OpenAI社
- 特徴:幅広いタスクに対応可能な汎用性の高いLLM
最新フラッグシップモデル(GPT-5シリーズ)
- GPT-5.2:GPT-5の最新改良版
- GPT-5.1:OpenAIフラッグシップモデル、GPT-5の改良版で推論制度と応答品質が向上
- GPT-5:OpenAIの旧フラッグシップモデル
- GPT-5 mini:GPT-5の軽量・高速版
- GPT-5 Codex:コーディングに特化した最新モデル
- GPT-5 Codex (High):GPT-5 Codexの高精度バージョン
- GPT-5 Pro:プロフェッショナル向け高性能モデル
従来モデル
- GPT-4.1:GPT-4シリーズの最新改良版
- GPT-4.1 mini:GPT-4.1の軽量・高速版
- GPT-4.1 nano:GPT-4.1の超軽量版
- GPT-4o:日本語処理が得意な高性能モデル
- GPT-4o mini:GPT-4oの廉価版、スピードと性能を両立
- o3-mini;高速・正確な応答と高いコスト効率を両立する軽量型推論モデル
Google Geminiシリーズ
- 開発元:Google社
- 特徴:大量の情報処理とマルチモーダル対応が得意
最新モデル(Gemini 3.0シリーズ)
- Gemini3.0 Pro:Google最新のフラッグシップモデル、推論能力と多言語対応が大幅に強化
- Gemini3.0 Flash:超高速応答と高いコスト効率を実現、リアルタイム処理に最適
従来モデル(Gemini 2 シリーズ)
- Gemini 2.5 Pro:100万トークン(近日200万)の入出力に対応
- Gemini 2.5 Flash:低レイテンシー・高コスパを両立、ハイブリッド推論で"考える力"を調整可能
Anthropic Claudeシリーズ
- 開発元:Anthropic社
- 特徴:高い推論能力と安全性を重視した設計
最新モデル(Claude 4シリーズ)
- Claude Opus 4.6:Anthropic最高性能モデル、エージェントコーディング・複雑な推論・長時間タスクに最適
- Claude Opus 4.5:Anthropic最新のフラッグシップモデル、Claude 4.1 Opusの後継で最高峰の推論性能
- Claude Sonnet 4.5:高速処理と推論能力を兼ね備えた最新モデル
- Claude Sonnet 4.5 Thinking:Claude Sonnet 4.5の拡張思考モード
- Claude Haiku 4.5;軽量かつ高速な次世代モデル
従来モデル
- Claude 3.5 Sonnet:スピードと高い賢さを両立したモデル
xAI Grokシリーズ
- 開発元:xAI社
- 特徴:リアルタイム情報アクセスと高度な推論能力
最新モデル(Grok 4シリーズ)
- Grok 4.1 Fast:xAI最新のフラッグシップLLM、高度な推論と広範な知識
- Grok 4 Fast:Grok 4の高速バリエーション、高い推論性能を維持しつつ応答速度を優先
従来モデル
- Grok 3:旧世代モデル
DeepSeekシリーズ
- 開発元:中国の人工知能研究所DeepSeek
- セキュリティ:米Fireworks.ai社APIを使用し、入力は中国に送信されず、学習にも利用されません
モデル一覧
- DeepSeek V3.2 :オープンソース最高クラスの汎用モデル
- DeepSeek R1(0528):数学・コーディング・推論タスクに特化したLLM、複雑な問題解決を支援
Kimiシリーズ
開発元::MoonShot AI社
- 特徴:コーディングとエージェント機能に特化した革命的なAIモデル
- セキュリティ:米Fireworks.ai社APIを使用し、入力は中国に送信されず、学習にも利用されません
モデル一覧
- Kimi K2.5:最新マルチモーダルエージェントモデル。画像理解・コーディング・推論に強い
- Kimi K2 Thinking:Kimi K2に拡張思考モードを搭載、複雑な問題に対してステップバイステップで推論
- Kimi K2:Moonshot AI社の1兆パラメータMoEモデル。コーディング(SWE-bench 65.8%)でGPT-4.1を超える性能
- Kimi K2(Fast):Kimi K2(0905)をGroq LPUにより最大18倍高速化を実現したモデル
Qwenシリーズ
- 開発元:Alibaba社
- 特徴:多言語対応、多様なモデルサイズ、超低価格
- セキュリティ:米Fireworks.ai社APIを使用し、入力は中国に送信されず、学習にも利用されません
モデル一覧
- Qwen3 (235B-A22B): 推論・コーディング・高い指示追従性能を持つ
用途別LLM選択ガイド
汎用的な質問・文章作成
- 推奨モデル:GPT-5.2、Opus 4.6、Gemini 3.0 Flash
- ビジネス文書の作成、メール返信、企画書の下書きなど、日常的な業務に最適です。
高度な推論・分析
- 推奨モデル:GPT-5.2、Opus 4.6、Grok 4.1、Kimi K2.5、Qwen3
- 複雑なビジネス課題の分析、戦略立案、データ解釈など、深い思考が必要な場面で力を発揮します。
コーディング・数学
- 推奨モデル:DeepSeek R1、Qwen3、GPT-5 Codex
- プログラミング支援、数式の解析、技術的な問題解決に特化しています。
高速処理重視
- 推奨モデル:GPT-5 mini、Gemini 3.0 Flash、Grok 4 (fast)、GPT-4o mini
- 迅速な応答が求められるカスタマーサポートやチャットボット運用に適しています。
大容量データ処理
- 推奨モデル:Gemini 3.0 Pro、Gemini 2.5 Pro、Gemini 2.0 Flash
- 長文の契約書レビュー、大量の資料分析など、広範なコンテキストが必要な業務に最適です。
コストパフォーマンス重視
- 推奨モデル:Claude Haiku 4.5、GPT-4o mini、Kimi K2
- 予算を抑えつつ高品質な結果を得たい場合におすすめです。
- 予算を抑えつつ高品質な結果を得たい場合におすすめです。
ポイント
- 管理画面から特定モデルの表示/非表示を設定可能(管理者権限のユーザーのみ)
- セキュリティ重視の設計: DeepSeek, Kimi, Qwenは米Fireworks.ai社API経由で提供され、入力情報が中国に送信されることはありません
- 思考モード搭載モデル(Claude Sonnet 4.5 ThinkingやKimi K2 Thinking)は、複雑な問題に対してより深い推論プロセスを実行します
- 各モデルの特性を理解し、タスクに最適なモデルを選択することで、業務効率とコストパフォーマンスを最大化できます

