あらゆるプラットフォームであらゆるアプリケーションに AI を展開、実行、拡張するためのライセンスが見つかります。
NVIDIA Triton Inference Server、略して Triton は、オープンソースの推論サービング ソフトウェアです。チームはあらゆるフレームワーク (TensorFlow、NVIDIA TensorRT™、PyTorch、ONNX、XGBoost、Python、カスタムなど) の AI モデルをあらゆる GPU/CPU ベース インフラストラクチャ (クラウド、データ センター、エッジ) で展開、実行、拡張できます。詳細については、Triton の Web ページをご覧ください。
Triton Model Analyzer は、対象の GPU または CPU のスループット、レイテンシ、メモリ制約のための推論展開構成 (バッチ サイズやモデル インスタンス数など) を最適化するためのオフライン ツールです。シングル モデル、モデル アンサンブル、複数の同時モデルの分析をサポートします。
Triton は、エンタープライズ グレードのサポート、安定したセキュリティ、管理性を提供するエンドツーエンド AI ソフトウェア プラットフォームである NVIDIA AI Enterprise に含まれています。NVIDIA AI Enterprise には、NVIDIA AI エキスパートへのアクセス、カスタマー トレーニング、ナレッジベース リソースなどを提供するビジネス標準サポートが含まれています。さらに、ビジネスクリティカルなサポート、専任のテクニカル アカウント マネージャー、トレーニング、プロフェッショナル サービスなど、企業向けのサポートやサービスもご利用いただけます。詳細については、「Enterprise Support and Services User Guide」を参照してください。
はい。Triton を使用するラボは NVIDIA Launchpad にいくつかあります。
NVIDIA LaunchPad は、Web ブラウザー経由で企業向けの NVIDIA ハードウェアおよびソフトウェアへの短期アクセスをユーザーに提供するプログラムです。ハンズオン ラボの豊富なカタログから選択して、AI やデータ サイエンスから 3D 設計やインフラの最適化まで、ユースケースに関するソリューションをご体験ください。企業は、プライベートのホスト型インフラ上で必要なハードウェアおよびソフトウェア スタックをすぐに利用することができます。
はい。Triton は AI 推論とモデル展開のためのエコシステムの最高の選択肢です。Triton は、AWS、Microsoft Azure、Google Cloud のマーケットプレイスで NVIDIA AI Enterprise と共に利用できます。Alibaba Cloud、Amazon Elastic Kubernetes Service (EKS)、Amazon Elastic Container Service (ECS)、Amazon SageMaker、Google Kubernetes Engine (GKE)、Google Vertex AI、HPE Ezmeral、Microsoft Azure Kubernetes Service (AKS)、Azure Machine Learning、Oracle Cloud Infrastructure Data Science Platform でも利用できます。
AI 推論関連の最新情報を NVIDIA から受け取る。
NVIDIA プライバシー ポリシー