- Hugging Face は、Training Cluster as a Service に DGX Cloud Lepton を統合し、AI 研究者がモデル トレーニング用にスケーラブルな計算リソースにアクセスできる環境を拡大
- NVIDIA と欧州の主要な VC が手を組み、ポートフォリオ企業にマーケットプレイス クレジットを提供し、スタートアップのエコシステムの加速を支援

NVIDIA GTC Paris - 2025 年 6 月 11 日- NVIDIA は本日、エージェント型 AI およびフィジカル AI アプリケーションを構築する開発者を結ぶグローバル コンピューティング マーケットプレイスを特徴とする AI プラットフォーム「NVIDIA DGX Cloud Lepton(TM)」の拡張を発表し、拡大するクラウド プロバイダー ネットワークから GPU が利用可能になります。
Mistral AI、Nebius、Nscale、Fluidstack、Hydra Host、Scaleway、Together AI が現在、NVIDIA Blackwell およびその他の NVIDIA アーキテクチャ GPU をマーケットプレイスに提供しており、ハイパフォーマンス コンピューティングへの地域アクセスを拡大しています。AWS と Microsoft Azure は、DGX Cloud Lepton に参加する最初の大手クラウド プロバイダーとなります。これらの企業は CoreWeave、Crusoe、Firmus、Foxconn、GMI Cloud、Lambda、Yotta Data Services と共に マーケットプレイスに参画しています。
世界の AI コミュニティにとって、アクセラレーテッド コンピューティングをより身近なものにするため、Hugging Face は Training Cluster as a Service を導入しています。この新しいサービスは DGX Cloud Lepton と統合され、基盤モデルを構築する AI 研究者や開発者を NVIDIA のコンピューティング エコシステムにシームレスに接続します。
NVIDIA は欧州の主要ベンチャー キャピタル企業である Accel、Elaia、Partech、Sofinnova Partners と協力し、ポートフォリオ企業に DGX Cloud Lepton マーケットプレイス クレジットを提供することで、スタートアップがアクセラレーテッド コンピューティング リソースにアクセスし、地域の開発を拡大できるよう支援しています。
NVIDIA 創業者/ CEO である ジェンスン フアン (Jensen Huang)は次のように述べました。「DGX Cloud Lepton は欧州の開発者をグローバル AI インフラに繋いでいます。NVIDIA は地域パートナーとの連携により、開発者、研究者、そして企業が、地域発の革新的な成果を世界的なイノベーションへと拡大させる AI ファクトリーのネットワークを構築しています」
DGX Cloud Lepton は、NVIDIA のコンピューティング エコシステム全体のクラウド AI サービスと GPU リソースを単一プラットフォームに統合することで、特定地域内で信頼性の高い高性能 GPU リソースにアクセスするプロセスを簡素化します。これにより開発者はデータをローカルに保持でき、データ ガバナンスとソブリン AI の要件をサポートします。
さらに、NVIDIA NIM(TM) および NeMo(TM) マイクロサービス、NVIDIA Cloud Function を含む NVIDIA ソフトウェア スイートと統合することで、DGX Cloud Lepton は AI アプリケーション開発と展開のあらゆる段階において、規模を問わず効率化し、高速化します。このマーケットプレイスは汎用的な NIM マイクロサービスと連携し、最も人気の高いオープン LLM アーキテクチャや、Hugging Face でパブリックおよびプライベートにホストされている 100 万を超えるモデルを含む、幅広い大規模言語モデルをサポートしています。
クラウド プロバイダー向けには、DGX Cloud Lepton は GPU の健全性をリアルタイムで継続的に監視し、根本原因分析を自動化する管理ソフトウェアを含んでおり、手動介入を最小限に抑え、ダウンタイムを削減します。これによりプロバイダーの運用が合理化され、顧客により信頼性の高いハイパフォーマンス コンピューティングへのアクセスが確保されます。
NVIDIA DGX Cloud Lepton がトレーニングと学習を高速化
戦略的 AI イニシアチブを加速するためにプラットフォームを利用している DGX Cloud Lepton の早期アクセス顧客には以下が含まれます:
- Basecamp Research: 98 億のタンパク質データベースを活用して大規模な生物学的基盤モデルのプリトレーニングと展開を行い、製薬、食品、産業、環境バイオテクノロジ向けの新しい生物学的ソリューションの発見と設計を加速。
- EY: グローバル チーム全体でマルチクラウド アクセスを標準化し、ドメイン特化型およびセクター特化型のソリューション向け AI エージェントの開発を加速。
- Outerbounds: オープンソース Metaflow の実証された信頼性を活用し、顧客が差別化された本番品質の AI 製品を構築できるよう支援。
- Prima Mente : 大規模な脳基盤モデルをプリトレーニングし、新しい疾患メカニズムを解明し、臨床現場で患者の転帰を層別化するためのツールを開発することで、神経変性疾患の研究を大規模に推進。
- Reflection: 最も複雑な企業エンジニアリング タスクを処理する超知能自律コーディング システムを構築。
Hugging Face の開発者がクラウド横断でスケーラブルな AI トレーニングにアクセス可能に
DGX Cloud Lepton と Hugging Face の Training Cluster as a Service の統合により、AI 構築者は GPU マーケット プレイスへの簡素化されたアクセスを得て、トレーニング データに近い特定地域の NVIDIA コンピューティング リソースを容易に予約、アクセス、使用することができます。世界的なクラウド プロバイダー ネットワークに接続された、Hugging Face の顧客は、DGX Cloud Lepton を使用してトレーニング実行に必要な GPU リソースを迅速に確保できます。
Mirror Physics、Project Numina、Telethon Institute of Genetics and Medicine は、DGX Cloud Lepton を通じて、コンピューティング リソースが提供される Training Cluster as a Service を最初に利用する Hugging Face の 顧客の一部となります。これらの組織は、化学、材料科学、数学、疾患研究における最先端 の AI モデルの開発を推進するためにプラットフォームを使用します。
Hugging Face 共同創設者兼 CEO の Clement Delangue 氏は次のように述べました。「大規模で高性能なコンピューティングへのアクセスは、あらゆる分野や言語において、次世代 AI モデルを構築するために不可欠です。DGX Cloud Lepton と Training Cluster as a Service の統合により、研究者や企業の前に立ちはだかる障壁を一掃し、最先端モデルのトレーニングと AI の可能性の限界を突破することができるでしょう。」
DGX Cloud Lepton、AI スタートアップのエコシステムを強化
NVIDIA は Accel、Elaia、Partech、Sofinnova Partners と協力し、対象となるポートフォリオ企業に DGX Cloud Lepton を通じて最大 10 万ドルの GPU リソースのクレジットと NVIDIA の専門家からのサポートを提供します。
BioCorteX、Bioptimus、Latent Labs は、DGX Cloud Lepton にアクセスする最初の企業の一部となり、コンピューティング リソースの調達と購入を行い、NVIDIA ソフトウェア、サービス、AI 専門知識を活用して世界的なクラウド プロバイダー ネットワーク全体でアプリケーションを構築、カスタマイズ、展開することができます。
提供予定
開発者は NVIDIA DGX Cloud Lepton の早期アクセスに登録ください。
VivaTech 2025 での NVIDIA 創業者/CEO のフアンによる NVIDIA GTC Paris 基調講演を視聴し、GTC Paris セッションをご覧ください。
※本発表資料は米国時間 2025 年 6 月 11 日に発表されたプレスリリースの抄訳です。
NVIDIAについて
NVIDIA (NASDAQ: NVDA) はアクセラレーテッド コンピューティングの世界的なリーダーです。
企業プレスリリース詳細へ
PRTIMESトップへ