AI OMNI AGENT サポート

AI OMNI AGENT サポート

ご不明な点はなんですか?

ご不明な点はなんですか?

FAQ - AI CHATについて

利用可能なLLM

LLM(大規模言語モデル)の切り替え方法

AI OMNI AGENTでは用途に合わせてLLM(大規模言語モデル=AIのモデル)を切り替えることができます。

画面下部の入力欄の中にあるLLM設定より、利用するLLMを切り替えることができます。

※管理画面(管理者権限のユーザーのみ有効)から、特定のLLMを表示させないよう設定することも可能です。

モデル選択

 

利用可能なLLM一覧

OpenAI GPTシリーズ

  • 開発元:OpenAI社
  • 特徴:幅広いタスクに対応可能な汎用性の高いLLM
     

 

最新フラッグシップモデル(GPT-5シリーズ)

  • GPT-5.1:OpenAIフラッグシップモデル、GPT-5の改良版で推論制度と応答品質が向上
  • GPT-5:OpenAIの旧フラッグシップモデル
  • GPT-5 mini:GPT-5の軽量・高速版
  • GPT-5 Codex:コーディングに特化した最新モデル
  • GPT-5 Codex (High):GPT-5 Codexの高精度バージョン
  • GPT-5 Pro:プロフェッショナル向け高性能モデル

 


推論特化モデル(oシリーズ)

  • o4-mini:軽量ながらマルチモーダル対応、数学・コーディング・視覚タスクで高性能
  • o4-mini-high:o4-miniの推論努力レベルを"高"に設定した高精度バージョン
  • o3:第3世代oシリーズ、段階的推論により幅広い分野で最先端性能
  • o3-pro:推論特化モデル、複雑な数学・科学・プログラミング問題が得意
  • o3-high:o3の推論努力レベルを"高"に設定した高精度バージョン
  • o3-mini;高速・正確な応答と高いコスト効率を両立する最新推論モデル

     

 

従来モデル

  • GPT-4.1:GPT-4シリーズの最新改良版
  • GPT-4.1 mini:GPT-4.1の軽量・高速版
  • GPT-4o:日本語処理が得意な高性能モデル
  • GPT-4o mini:GPT-4oの廉価版、スピードと性能を両立
     

 

 

Google Geminiシリーズ

  • 開発元:Google社
  • 特徴:大量の情報処理とマルチモーダル対応が得意

最新モデル(Gemini 3.0シリーズ)

  • Gemini3.0 Pro:Google最新のフラッグシップモデル、推論能力と多言語対応が大幅に強化
  • Gemini3.0 Flash:超高速応答と高いコスト効率を実現、リアルタイム処理に最適

     

従来モデル(Gemini 2 シリーズ)

  • Gemini 2.5 Pro:100万トークン(近日200万)の入出力に対応
  • Gemini 2.5 Flash:低レイテンシー・高コスパを両立、ハイブリッド推論で"考える力"を調整可能
  • Gemini 2.0 Flash:100万トークンの広大なコンテキスト対応
  • Gemini 1.5 Pro 002:大量の情報を一度に処理できる高性能モデル

 

 

Anthropic Claudeシリーズ

  • 開発元:Anthropic社
  • 特徴;高い推論能力と安全性を重視した設計
     

最新モデル(Claude 4シリーズ)

  • Opus 4.5:Anthropic最新のフラッグシップモデル、Claude 4.1 Opusの後継で最高峰の推論性能
  • Claude 4.1 Opus:Anthropic最新のフラグシップモデル
  • Claude 4.0 Sonnet:高い推論能力を持つ次世代モデル
  • Claude Sonnet 4.5:高速処理と推論能力を兼ね備えた最新モデル
  • Claude Sonnet 4.5 Thinking:Claude Sonnet 4.5の拡張思考モード
  • Claude Haiku 4.5;軽量かつ高速な次世代モデル

 

従来モデル

  • Claude 3.7 Sonnet;スピードと高い賢さを両立したモデル
  • Claude 3.7 Sonnet Thinking:Claude 3.7 Sonnetの拡張思考モード
  • Claude 3.5 Sonnet:スピードと高い賢さを両立したモデル
  • Claude 3.5 Haiku:文脈理解力とコストパフォーマンスのバランスに優れたモデル

 

xAI Grokシリーズ

  • 開発元:xAI社
  • 特徴:リアルタイム情報アクセスと高度な推論能力
     

最新モデル(Grok 4シリーズ)

  • Grok 4:xAI最新のフラッグシップLLM、高度な推論と広範な知識
  • Grok 4 (fast):Grok 4の高速バリエーション、高い推論性能を維持しつつ応答速度を優先

 

従来モデル

  • Grok 3: 高度な推論と広範な知識、コードインタープリターとインターネットアクセス対応
  • Grok 3 (fast): Grok 3の高速バリエーション
  • Grok 3 Mini: 高速処理と推論能力を組み合わせた軽量モデル
  • Grok 3 Mini (fast): Grok 3 Miniのさらに高速なバージョン

 

DeepSeekシリーズ

  • 開発元:中国の人工知能研究所DeepSeek
  • セキュリティ:米Fireworks.ai社APIを使用し、入力は中国に送信されず、学習にも利用されません

     

モデル一覧

  • DeepSeek v3 (0324):リアルタイム応答性に優れた非推論型LLM、オープンソース最高クラスの性能
  • DeepSeek R1:数学・コーディング・推論タスクに特化したLLM、複雑な問題解決を支援

 

Kimiシリーズ

開発元::MoonShot AI社

  • 特徴:コーディングとエージェント機能に特化した革命的なAIモデル
  • セキュリティ:米Fireworks.ai社APIを使用し、入力は中国に送信されず、学習にも利用されません
     

モデル一覧

  • Kimi K2 Thinking:Kimi K2に拡張思考モードを搭載、複雑な問題に対してステップバイステップで推論
  • Kimi K2:Moonshot AI社の1兆パラメータMoEモデル。コーディング(SWE-bench 65.8%)でGPT-4.1を超える性能
  • Kimi K2(Fast):Kimi K2(0905)をGroq LPUにより最大18倍高速化を実現したモデル

 

Qwenシリーズ

  • 開発元:Alibaba社
  • 特徴:多言語対応、多様なモデルサイズ、超低価格
  • セキュリティ:米Fireworks.ai社APIを使用し、入力は中国に送信されず、学習にも利用されません

 

モデル一覧

  • Qwen3 (235B-A22B): 推論・コーディング・高い指示追従性能を持つ

     

用途別LLM選択ガイド

 

汎用的な質問・文章作成

  • 推奨モデル:GPT-5.1、Opus 4.5、GPT-5、Claude 4.1、GPT-4o、Kimi K2
    • ビジネス文書の作成、メール返信、企画書の下書きなど、日常的な業務に最適です。

 

高度な推論・分析

  • 推奨モデル:o3シリーズ、Opus 4.5、Claude 4.1、Grok 4、Kimi K2 Thinking、Qwen3
    • 複雑なビジネス課題の分析、戦略立案、データ解釈など、深い思考が必要な場面で力を発揮します。

 

コーディング・数学

  • 推奨モデル:DeepSeek R1、o4-miniシリーズ、Qwen3、GPT-5 Codex
    • プログラミング支援、数式の解析、技術的な問題解決に特化しています。

 

高速処理重視

  • 推奨モデル:GPT-5 mini、Gemini 3.0 Flash、Grok 4 (fast)、GPT-4o mini
    • 迅速な応答が求められるカスタマーサポートやチャットボット運用に適しています。

 

大容量データ処理

  • 推奨モデル:Gemini 3.0 Pro、Gemini 2.5 Pro、Gemini 2.0 Flash
    • 長文の契約書レビュー、大量の資料分析など、広範なコンテキストが必要な業務に最適です。

 

コストパフォーマンス重視

  • 推奨モデル:Claude 3.5 Haiku、GPT-4o mini、Kimi K2
    • 予算を抑えつつ高品質な結果を得たい場合におすすめです。

       

ポイント

  • 管理画面から特定モデルの表示/非表示を設定可能(管理者権限のユーザーのみ)
  • セキュリティ重視の設計: DeepSeek, Kimi, Qwenは米Fireworks.ai社API経由で提供され、入力情報が中国に送信されることはありません
  • 思考モード搭載モデル(Claude Sonnet 4.5 ThinkingやClaude 3.7 Sonnet Thinking、Kimi K2 Thinking)は、複雑な問題に対してより深い推論プロセスを実行します
  • 各モデルの特性を理解し、タスクに最適なモデルを選択することで、業務効率とコストパフォーマンスを最大化できます