- ホーム
- 製品
- Red Hat AI
- Red Hat AI Inference Server
Red Hat AI Inference Server
Red Hat® AI Inference Server は、ハイブリッドクラウド全体で推論を最適化し、高いコスト効率でより迅速にモデルをデプロイできます。
推論サーバーとは
推論サーバーは、人工知能 (AI) アプリケーションが大規模言語モデル (LLM) と通信し、データに基づいて応答を生成できるようにするソフトウェアです。このプロセスは推論と呼ばれます。このプロセスによってビジネス価値が生まれ、最終結果がもたらされます。
このプロセスを効果的に機能させるには、大規模な推論を実行するための広範なストレージ、メモリー、インフラストラクチャが LLM に必要ですが、これが予算の大部分を占めることになります。
Red Hat AI プラットフォームの一部である Red Hat AI Inference Server は、推論機能を最適化して、従来の高額なコストと大規模なインフラストラクチャの削減に貢献します。
This video can't play due to privacy settings
To change your settings, select the "Cookie Preferences" link in the footer and opt in to "Advertising Cookies."
Red Hat AI Inference Server による高速かつコスト効率に優れた AI 推論 (動画の再生時間:2:28)
Red Hat AI Inference Server の概要
Red Hat AI Inference Server の仕組み
Red Hat AI Inference Server は、大規模な推論を高速かつ高いコスト効率で実行します。オープンソースの性質により、あらゆるクラウド環境において、あらゆる AI アクセラレーターであらゆる生成 AI モデルをサポートできます。
vLLM を搭載したこの推論サーバーは、GPU の使用率を最大化し、応答時間を短縮します。LLM Compressor 機能と組み合わせることで、パフォーマンスを犠牲にすることなく推論効率を向上させることができます。クロスプラットフォームの適応性とコントリビューター・コミュニティの拡大により、vLLM は生成 AI 推論の Linux® として注目されています。
50% LLM Compressor を使用することで、パフォーマンスを犠牲にすることなく 50% のコスト削減を実現しているお客様もいます。*
*Saša Zelenović、「LLM の潜在能力を最大限に引き出す:vLLM でパフォーマンスを最適化」、 Red Hat ブログ、2025 年 2 月 27 日。
モデルを自由に選べる
Red Hat AI Inference Server は、すべての主要なオープンソースモデルをサポートし、GPU の柔軟な可搬性を維持します。あらゆる生成 AI モデルを柔軟に使用でき、オープンソースの検証済みサードパーティモデルの最適化されたコレクションから選択できます。
Red Hat AI Inference Server は Red Hat AI の一部として、すべての Red Hat 製品での使用が認定されています。また、Red Hat のサードパーティ・サポート・ポリシーに従って、他の Linux および Kubernetes プラットフォームにもデプロイできます。
特長とメリット
vLLM で効率向上を達成
vLLM により、メモリーの効率的な使用と GPU 使用率の向上が可能になり、効率的なモデル推論が実現します。 vLLM を使用することで、あらゆる AI アクセラレーターであらゆる生成 AI モデルのデプロイを最適化できます。
LLM Compressor
あらゆるサイズのモデルを圧縮して、高いモデル応答精度を維持しながら、コンピューティングの使用率とそれに関連するコストを削減します。
ハイブリッドクラウドの柔軟性
さまざまな GPU 間での可搬性を維持し、オンプレミス、クラウド、エッジでモデルを実行できます。
Red Hat AI リポジトリ
サードパーティによって検証および最適化されたモデルは推論のデプロイにすぐに使用でき、価値実現までの時間を短縮し、コストを低く抑えることができます。
Red Hat AI のサポート
vLLM への最大の企業コントリビューターの 1 社として、当社はこのテクノロジーを深く理解しています。vLLM の専門知識を備えた当社の AI コンサルタントが、貴社のエンタープライズ AI 目標の達成をお手伝いします。
購入方法
Red Hat AI Inference Server は、スタンドアロンの製品として、または Red Hat AI の一部として利用できます。Red Hat Enterprise Linux® AI と Red Hat OpenShift® AI の両方に含まれています。
パートナーとデプロイする
エキスパートとテクノロジーの融合によって、AI の活用の幅が広がっています。Red Hat と連携して Red Hat ソリューションの運用能力に関する認定を受けているすべてのテクノロジーパートナーをご覧ください。
2025 年の Red Hat Summit および AnsibleFest で紹介されたお客様の AI 導入事例
ターキッシュ エアラインズは、組織全体でのデータアクセスを実現して、デプロイのスピードを倍増させました。
JCCM は、AI を使用して地域の環境影響評価 (EIA) プロセスを改善しました。
DenizBank は、市場投入時間を数日から数分へと短縮しました。
日立は、Red Hat OpenShift AI を使用して事業全体で AI を運用化しました。
よくある質問 (FAQ)
Red Hat AI Inference Server を使用するには、Red Hat Enterprise Linux AI または Red Hat OpenShift AI を購入する必要がありますか?
いいえ。Red Hat AI Inference Server はスタンドアロンの Red Hat 製品として購入できます。
Red Hat Enterprise Linux AI を使用するには、Red Hat AI Inference Server を購入する必要がありますか?
いいえ。Red Hat Enterprise Linux AI または Red Hat OpenShift AI を購入すると、Red Hat AI Inference Server が付属します。
Red Hat AI Inference Server は、Red Hat Enterprise Linux または Red Hat OpenShift で実行できますか?
はい、できます。また、サードパーティ契約に基づいてサードパーティの Linux 環境でも実行できます。
Red Hat AI Inference Server の価格を教えてください。
価格はアクセラレーターごとに設定されます。
お客様のニーズに合致し、お客様の条件に従って動作する AI。
生成 AI
テキストやソフトウェアコードなどの新しいコンテンツを作成します。
Red Hat AI を使用することで、少ないリソースと低い推論コストで、任意の生成 AI モデルをより迅速に実行できます。
予測型 AI
パターンを結び付け、将来の結果を予測します。
Red Hat AI を使用することで、ハイブリッドクラウド全体で一貫性を維持しつつ、予測モデルを構築、トレーニング、提供、監視できます。
運用化 AI
AI の大規模な保守とデプロイをサポートするシステムを作成します。
Red Hat AI を使用することで、AI 対応アプリケーションのライフサイクルを管理および監視しながら、リソースを節約し、プライバシー規制へのコンプライアンスを確保できます。
エージェント型 AI
人間が限定的に関与するだけで複雑なタスクを実行するワークフローを構築します。
Red Hat AI は、既存アプリケーション内でのエージェント型 AI ワークフローの構築、管理、デプロイに対応する柔軟なアプローチと安定した基盤を提供します。