KAI Inference Builderのご紹介

実世界のワークロードエミュレーション、検証、およびベンチマークにより、推論を競争優位性に変えます。

AIの推論時代に備えましょう。

長年、AIインフラ戦略はトレーニングによって定義されていました。現在、業界はAIモデルがユーザーのプロンプトやクエリにどのように応答するかに焦点を移しています。このプロセスは推論として知られており、中心的な役割を担っています。

キーサイトAI (KAI) Inference Builderは、この新しい時代のために構築されました。推論対応のエミュレーションおよび分析ソリューションであるKAI Inference Builderは、AIクライアントと応答の動作を再現し、現実的なワークロード条件下でAIインフラストラクチャをテストおよび最適化します。ワークロードベースのフルスタック検証により、一般的なベンチマークやロードテストで妥協する必要はありません。

KAI Inference Builder: 主要機能

エンドツーエンドの推論性能を証明

実際のプロンプト、同時実行性、およびトークンストリーミングを使用して、完全なリクエスト‑レスポンスパスを検証します。KAI Inference Builderは、ロードバランシング、ネットワーキング、およびコンピューティングにおけるボトルネックが本番環境で発生する前に、チームがそれらを発見するのに役立ちます。

最初に故障する箇所を特定

GPUコンピューティング、メモリ、KVキャッシュ、ストレージ、PCIe、RDMA、オーケストレーションレイヤー全体にわたるボトルネックを特定します。ワンアームモードでは、KAI Inference Builderは大規模な推論クライアントとして機能し、プロンプト形式のワークロードを推論スタックに直接投入することで、ネットワークチームが問題をより迅速に特定し、パフォーマンスを正確に微調整できるようにします。 

推論スタックを機能させる

実際のプロンプト形状をスタックに投入し、結果として得られるテレメトリを関連付けて、システムが必要とするもの(より多くのメモリ、より良いスケジューリング、より強力な検索パス、またはGPU使用率の向上など)を確認します。エンドツーエンドの推論ワークフローを測定することで、KAI Inference Builderは複雑なシステム動作を明確で実用的な洞察に変えます。

リアルなペルソナでより良いベンチマークを。

すべての推論ワークロードが同じように動作するわけではありません。そのため、KAI Inference Builderは業界固有のプロンプト形状とモデル応答をモデル化します。法律、金融、その他の業界をサポートすることで、KAI Inference Builderは、モデルとプロンプトパターンが進化するにつれて、チームがワークロード固有の証明を生成し、アーキテクチャを比較し、回帰を検出するのに役立ちます。

NVIDIA DSX AirとKeysightによるAIデータセンターのモデリング

導入期間とリスクの削減

AIインフラストラクチャのタイムラインは、多くの場合、ハードウェアの可用性によって制約されます。そのため、KAI Inference BuilderはNVIDIA DSX Airデジタルツイン環境とのターンキー統合を提供します。KAI Inference Builderは、モデル化されたデータセンター環境内で実際の推論プロンプトと応答をエミュレートし、物理インフラストラクチャが完全に整う前に、ネットワークチームが展開の検証と最適化を開始できるようにします。

Advanced

当社の最新のAI研究、レポート、インサイトの詳細をご覧ください。