"DGX"検索結果
04:02

黄仁勲:個人AIコンピュータは全面的に生産を開始しました

Jin10データ5月19日、英偉達のCEO黄仁勋 (ジェンスン フアン)は、私たちが発表した個人AIコンピュータDGX Sparkが全面的に生産を開始し、数週間内に準備が整うと述べました。また、世界のコンピュータ製造業者と協力して「AI優先」のDGX個人計算システムを展開し、DGX Sparkは英偉達のGB10スーパーチップとテンソルコアを搭載しています。私たちはまたDGXを発表しました。
もっと
01:00

Nvidia H200の受注は第3四半期に納品開始 B100は来年上半期に出荷される予定

金十データ7月3日、英伟达AI GPU H200の上流チップはQ2下旬から量産に入り、Q3以降に大量の出荷が予想されています。しかし、英伟达Blackwellプラットフォームの市場投入時期が最低でも1〜2四半期早まり、エンドユーザーのH200の購入意欲に影響を与えています。サプライチェーンは、現在出荷待ちの顧客注文はHGXアーキテクチャのH100に依然として集中しており、H200の比率は限られています。Q3での量産出荷のH200は主に英伟达DGXです。
もっと
08:19
お客様がAIコンピューティングリソースをより効率的に使用できるようにするために、NVIDIAは、Kubernetesベースのワークロード管理およびオーケストレーションソフトウェアプロバイダーであるRun:AIを非公開の金額で買収するための最終プロトコルに達しました。 エヌビディアは当面の間、Run:aiの現在のビジネスモデルを維持する予定で、Run:aiの従業員はイスラエルにあるエヌビディアのR&Dセンターに加わる。 NVIDIA DGX と DGX Cloud のお客様は、Run:AI が AI ワークロード、特に大規模言語モデルの展開に提供する機能を利用できます。 現在、Run:AI のソリューションは、NVIDIA DGX、NVIDIA DGX SuperPOD、NVIDIA Base Command、NGC コンテナー、NVIDIA AI エンタープライズ ソフトウェアなどの製品と統合されています。 さらに、イスラエルのメディア「カルカリスト」は、買収額は約7億ドルになると予想しています。
08:06

NvidiaによるGPUオーケストレーションソフトウェアプロバイダーRun:aiの買収

プロトコル NVIDIAは4月25日、Kubernetesベースのワークロード管理およびオーケストレーションソフトウェアプロバイダーであるRun:aiの買収について正式合意に達しましたが、具体的な買収額は明らかにされていません。 Nvidiaは当面の間、Run:aiの現在のビジネスモデルを維持する予定で、Run:aiの従業員はイスラエルにあるNvidiaのR&Dセンターに加わります。 さらに、NVIDIA DGX と DGX Cloud のお客様は、Run:ai が AI ワークロード、特に大規模言語モデルの展開に提供する機能を利用できます。 現在、Run:AI のソリューションは、NVIDIA DGX、NVIDIA DGX SuperPOD、NVIDIA Base Command、NGC コンテナー、NVIDIA AI エンタープライズ ソフトウェアなどの製品と統合されています。
もっと
07:58
通貨Jiejieは次のように報告しました。 4月25日、Nvidia(NVIDIA)がKubernetesベースのワークロード管理およびオーケストレーションソフトウェアのプロバイダーであるRun:aiの買収に関する最終プロトコルに達したと報告されましたが、具体的な買収額は明らかにされていません。 Nvidiaは当面の間、Run:aiの現在のビジネスモデルを維持する予定で、Run:aiの従業員はイスラエルにあるNvidiaのR&Dセンターに加わります。 さらに、NVIDIA DGX と DGX Cloud のお客様は、Run:ai が AI ワークロード、特に大規模言語モデルの展開に提供する機能を利用できます。 現在、Run:AI のソリューションは、NVIDIA DGX、NVIDIA DGX SuperPOD、NVIDIA Base Command、NGC コンテナー、NVIDIA AI エンタープライズ ソフトウェアなどの製品と統合されています。
07:57
プロトコル NVIDIAは4月25日、Kubernetesベースのワークロード管理およびオーケストレーションソフトウェアプロバイダーであるRun:aiの買収について正式合意に達しましたが、具体的な買収額は明らかにされていません。 Nvidiaは当面の間、Run:aiの現在のビジネスモデルを維持する予定で、Run:aiの従業員はイスラエルにあるNvidiaのR&Dセンターに加わります。 さらに、NVIDIA DGX と DGX Cloud のお客様は、Run:ai が AI ワークロード、特に大規模言語モデルの展開に提供する機能を利用できます。 現在、Run:AI のソリューションは、NVIDIA DGX、NVIDIA DGX SuperPOD、NVIDIA Base Command、NGC コンテナー、NVIDIA AI エンタープライズ ソフトウェアなどの製品と統合されています。
07:25
Tech In Asiaによると、4月25日のPANewsニュースによると、アメリカのチップメーカーであるNvidiaは声明で、イスラエルの人工知能スタートアップRun:aiを買収すると述べました。 エヌビディアは買収額を公表していないが、イスラエルのメディア「カルカリスト」は7億ドル前後と予想している。 実行: AI は、企業がコンピューティング ニーズをより効率的に管理するのに役立つソフトウェアを開発します。 これは、ソフトウェアのデプロイ、スケーリング、管理を自動化するGoogleによって設計されたオープンソースシステムであるKubernetes上で実行されます。 エヌビディアは声明の中で、買収の理由として「ますます複雑化する」顧客AIの導入を挙げています。 この買収により、チップメーカーは、顧客がGPUソリューションにアクセスして管理しやすくすることを目的としており、GPU使用率の向上、GPUインフラストラクチャ管理の改善、オープンアーキテクチャシステムの柔軟性の向上を期待しています。 エヌビディアは当面の間、Run:aiの現在のビジネスモデルを維持する予定で、Run:aiの従業員は、約3,000人の従業員を擁するイスラエルのチップメーカーの研究開発センターに加わります。 Run:ai の今後の製品は、トップ クラウド プロバイダーと提携してエンタープライズ開発者にサービスを提供する AI プラットフォームである NVIDIA の DGX Cloud にも含まれます。
02:56
1月9日にKim Shiが報じたように、バイオテクノロジー企業のアムジェンは、世界最大級の人間のデータセットを分析するためのAIモデルを構築し、完全なデータセンタープラットフォームであるNvidiaのDGX Superpodでトレーニングすると発表しました。
06:26
デル・テクノロジーズは最近、新しいエンタープライズ データ ストレージ テクノロジーを導入し、Nvidia DGX SuperPod AIインフラストラクチャで検証することで、お客様がより高速なAIとジェネレーティブAIのパフォーマンスを実現できるように支援すると発表しました。 AIストレージにおける高いパフォーマンスと効率性の必要性に関して、Dell Distributed File Storage System PowerScaleは新たな進歩をもたらしました。 PowerScale OneFSソフトウェアの機能強化により、組織はAIモデルの準備、トレーニング、最適化、推論をより迅速に行うことができます。 最新世代のDell PowerEdgeサーバをベースとする新しいPowerScaleオール フラッシュ ストレージ システムは、ストリーミングの読み取りと書き込みにおいて最大2倍高速なパフォーマンスを提供します。 また、PowerScaleは、個々のコンピューティング ノードのパフォーマンスを向上させ、GPU使用率を向上させる新しいインテリジェントなスケーリング機能も提供し、AIトレーニング、チェックポイント、推論のためのストレージ スループットを高速化します。
07:33
「科学技術イノベーション委員会日報」によると、エヌビディアは現地時間11月21日、ロシュ製薬の子会社であるジェネンテックと提携し、創薬と開発を加速するためのAIプラットフォームの研究を行うと発表しました。 どちらも NVIDIA DGX Cloud で AI モデルを構築します。 また、ジェネンテックは、創薬のためのジェネレーティブ AI プラットフォームである NVIDIA BioNeMo を使用して、バイオテクノロジー企業がモデルを大規模にカスタマイズし、BioNeMo クラウド アプリケーション プログラミング インターフェイスを計算創薬ワークフローに直接統合できるようにすることも計画しています。
  • 1
04:22
バビット、11月7日(GLOBE NEWSWIRE) -- エヌビディアは、通信サービスプロバイダーのAmdocsと提携し、大規模言語モデル(LLM)を最適化し、1兆7,000億ドル規模の通信業界における生成AIの採用を加速させると発表しました。 両社は、Amdocs amAIz フレームワークの一部として、NVIDIA アクセラレーテッド コンピューティング上で動作するエンタープライズ グレードの LLM をカスタマイズし、通信サービス プロバイダーがカスタマー エクスペリエンスからネットワーク構成に至るまで、企業全体で生成 AI のユース ケースを効率的に展開できるようにします。 Amdocs は、NVIDIA DGX Cloud AI スーパーコンピューティングと NVIDIA AI Enterprise ソフトウェアを使用して、柔軟な導入戦略をサポートし、サービス プロバイダーがジェネレーティブ AI アプリケーションを簡単かつ安全に使用できるようにします。 報道によると、Amdocsの顧客には、世界トップ30のサービスプロバイダーのうち27社を含む、世界有数の通信・メディア企業350社以上が含まれています。
  • 1
08:55
Nvidiaは、10月20日にWebmaster Houseが報告したように、Oracle Cloud上で最先端のDGXクラウドスーパーコンピューターを発売し、生成AIなどのワークロードに強力なグラフィックス処理ユニットを提供します。 このクラウドでホストされる AI スーパーコンピューティング サービスは、複数の AI フレームワークと事前トレーニング済みモデルにアクセスできる NVIDIA の DGX プラットフォームに基づいて、ジェネレーティブ AI やその他のアプリケーションを迅速にトレーニングするために必要なすべてのものを顧客に提供します。 ニューヨーク大学は、サイバーセキュリティ、天気予報、健康データ分析など、複数の分野で教育と研究を推進するAI Plusイニシアチブの基盤として、NvidiaのDGX Cloud AIを使用しています。
10:56
9 月 8 日の金石ニュースによると、NVIDIA と Reliance Group は、インドでの人工知能推進のための提携に合意し、両社は基本的な大規模言語 AI を共同開発し、提携によれば、NVIDIA は Reliance Group に NVIDIA へのアクセスを提供するとのことです。 GH200 Grace Hopper スーパーチップと DGX クラウドの権限。
  • 1
01:34
8月23日の「科創板日報」の報道によると、コンピューティングパワーリースとは、クラウドコンピューティングサービスプロバイダーを通じてコンピューティングリソースを借りる方式であり、国盛証券アナリストのソン・ジアジ氏は、クラウドコンピューティングパワーは「クラウドコンピューティング能力を分割する」方式を採用していると考えている。この方法は産業チェーンのすべての関係者に力を与え、持続可能です。需要面では、AIGCの大規模モデルに必要な計算能力が急増するにつれ、AI計算能力レンタル市場の可能性が高まります。供給側では、コンピューティング パワー メーカーは長年にわたってクラウド プラットフォームと協力してきましたが、NVIDIA DGX クラウドの開始により、AI クラウド コンピューティング パワーは新たな段階に入りました。計算力リースのコアリソースは資金、顧客、運用保守能力であり、先行者利益と受注量、AI計算力の運用維持能力、戦力の3つのタイプの企業が支配的である。
09:15

DeepL は NVIDIA DGX SuperPOD を導入して LLM 機能を拡張

ドイツに本拠を置くニューラル機械翻訳サービス DeepL は、LLM 機能を拡張するために、NVIDIA の AI データセンター インフラストラクチャ プラットフォーム DGX SuperPOD をスウェーデンのデータセンターの 1 つに導入したと発表しました。 DeepLによると、これは「ヨーロッパでこれほど大規模な商業展開は初めて」だという。ベンチマークでは 21.85 PFlop/s のパフォーマンスが示されており、世界で 26 位、ヨーロッパでは 8 位にランクされています。 68 台の NVIDIA DGX H100 システムで構成される NVIDIA DGX SuperPOD は、DeepL が大規模な言語モデルをより迅速にトレーニングし、世界市場向けの新しい AI コミュニケーション ツールを開発するのに役立ちます。
もっと
15:16
The Decoder の 8 月 2 日のレポートによると、ドイツに本拠を置くニューラル機械翻訳サービスである DeepL は、LLM 機能を拡張するために、スウェーデンにあるデータセンターの 1 つに Nvidia の AI データセンター インフラストラクチャ プラットフォーム DGX SuperPOD を導入したと発表しました。 DeepLによると、これは「ヨーロッパでこれほど大規模な商業展開は初めて」だという。ベンチマークでは 21.85 PFlop/s のパフォーマンスが示されており、世界で 26 位、ヨーロッパでは 8 位にランクされています。 68 台の NVIDIA DGX H100 システムで構成される NVIDIA DGX SuperPOD は、DeepL が大規模な言語モデルをより迅速にトレーニングし、世界市場向けの新しい AI コミュニケーション ツールを開発するのに役立ちます。
03:32
7月3日の「Kechuang Board Daily」の報道によると、Ruijie Financialのアナリスト、Raymond James氏のSrini Pajjuri氏は、NvidiaのDGXクラウドの「AI-as-a-service」は大きな長期的な機会であり、期待されていると述べた。将来的には大規模なビジネスになるでしょう。 Nvidia には企業が活用できる AI モデルがあり、企業はこれを使用して企業固有のデータを含む大規模な言語モジュールをカスタマイズできます。さらに同アナリストは、エヌビディアが今年後半にAI関連製品を発売する予定だと指摘した。同社の投資家向け広報および戦略的財務部門の責任者であるシモナ・ジャンコウスキー氏と話した後、同氏は生成AIの導入が今後数四半期にわたって同社の力強い成長を促進し続けると確信している。
13:34
Odaily Planet Daily News 東部時間 5 月 28 日、NVIDIA の創設者兼 CEO のジェンスン フアン氏は、NVIDIA Computex 2023 の講演で、生成 AI エンジン NVIDIA DGX GH200 が現在量産に入っていると発表しました。 NVIDIA の公式 Web サイトによると、NVIDIA DGX GH200 は、256 個の NVIDIA Grace Hopper スーパー チップを単一の GPU に完全に接続し、兆パラメータの AI ラージ モデル トレーニングをサポートする新しいタイプの AI スーパーコンピューターです。大規模なレコメンデーション システム、生成 AI、グラフ分析を処理でき、巨大な AI モデルに線形のスケーラビリティを提供します。 「多くのモジュールにデータを保存する必要はありません。DGX GH200 は、大規模な言語モデルや深層学習レコメンデーション システムのトレーニングが容易です。」と Huang Renxun 氏は述べています。 (中国証券網)
05:31

Nvidia、AIブームをさらにつかむためにさらに多くの人工知能製品を発売

Nvidia CEO のジェンスン・フアン氏は、このブームをさらに活用したいと考え、一連の新しい AI 関連製品とサービスを発表しました。新たに発売される製品の範囲は広く、その中にはDGX GH200と呼ばれるAIスーパーコンピュータープラットフォームも含まれており、ハイテク企業がChatGPTの「後継」を作るのに役立つとフアン氏は述べた。 Microsoft、Meta Platforms、Google がこのデバイスの最初のユーザーになると予想されています。 Nvidia は WPP Group と協力し、AI と仮想世界を使用して広告制作コストを削減します。さらに、データセンターにおける情報伝送の高速化を目的としたネットワークサービスのリリースも準備中です。同社は、人々がビデオ ゲームと対話する方法さえ変えるつもりです。Nvidia ACE for Games と呼ばれるサービスは、AI を使用して背景のキャラクターをアニメーション化し、より個性を与えます。一連の製品は、NVIDIA がコンピュータ グラフィックス チップのメーカーから AI ブームの中心企業へと変貌したことを強調しています。
もっと
もっと詳しく
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)